Abstract
Il termine ‘analisi multivariata’ è spesso usato quando ci si riferisce ad un’analisi multivariata. ‘Multivariata’, tuttavia, implica un’analisi statistica con più risultati. Al contrario, l’analisi multivariabile è uno strumento statistico per determinare i contributi relativi di vari fattori a un singolo evento o risultato. Lo scopo di questo articolo è di concentrarsi sulle analisi in cui vengono considerati predittori multipli. Tale analisi è in contrasto con un’analisi univariabile (o “semplice”), in cui vengono considerate singole variabili predittive. Rivediamo le basi delle analisi multivariabili, quali presupposti le sottendono e come dovrebbero essere interpretate e valutate.
© 2013 S. Karger AG, Basel
Introduzione
I termini ‘analisi multivariata’ e ‘analisi multivariabile’ sono spesso usati in modo intercambiabile nella ricerca medica e nelle scienze della salute. Tuttavia, l’analisi multivariata si riferisce all’analisi di più risultati, mentre l’analisi multivariabile si occupa ogni volta di un solo risultato.
Come è ovvio dal titolo, ci concentriamo sull’analisi multivariabile, non multivariata. L’analisi multivariabile è uno strumento statistico per determinare i contributi relativi di diverse cause a un singolo evento o risultato. Per esempio, alcuni fattori sono associati allo sviluppo di malattie cerebrovascolari, tra cui la storia familiare di ictus, età avanzata, pressione alta (BP), diabete, sovrappeso, livelli elevati di colesterolo, interventi e fumo di sigaretta. L’analisi multivariabile ci permette di determinare il contributo indipendente di ciascuno di questi fattori di rischio (variabili esplicative) allo sviluppo della malattia (variabile di risposta). In altre parole, il rischio di un risultato può essere modificato da altre variabili di rischio o dalle loro interazioni, e questi effetti possono essere valutati dall’analisi multivariabile. Discutiamo anche come vengono interpretate le diverse analisi multivariabili aggiungendo alcuni esempi illustrativi.
Ruolo dei Confondenti
La relazione tra un evento (o misura di outcome) e un fattore di rischio può essere confusa da altre variabili. Il confondimento si verifica quando l’apparente associazione tra un fattore di rischio e un risultato è influenzata dalla relazione di una terza variabile con il fattore di rischio e con il risultato (fig. 1).
Fig. 1
Relazioni tra fattore di rischio e risultato (pannello superiore). La capacità dell’analisi multivariabile di valutare simultaneamente il contributo indipendente di un certo numero di fattori di rischio all’esito è importante quando esiste il “confondimento” (pannello inferiore). Il confondimento si verifica quando l’associazione apparente tra un fattore di rischio e un risultato è influenzata dalla relazione di una terza variabile (confonditore) con il fattore di rischio e il risultato.
Una variabile non può essere un confonditore se è un passo nella catena causale o percorso. Per esempio, il consumo moderato di alcol aumenta i livelli sierici di lipoproteine ad alta densità che, a loro volta, diminuiscono il rischio di ictus. In questo contesto, il livello di lipoproteine ad alta densità è un passo in questa catena causale, non un confonditore che deve essere controllato.
Una tecnica semplice e pratica per valutare ed eliminare il confondimento è l’analisi stratificata. L’analisi stratificata misura l’effetto di un fattore di rischio sul risultato tenendo costante un’altra variabile.
Come esempio, si consideri la relazione tra danno d’organo ipertensivo e rischio di ictus. I dati dello studio Progetto Ipertensione Umbria Monitoraggio Ambulatoriale (PIUMA) ci permettono di illustrare come eseguire un’analisi stratificata. In particolare, testiamo l’associazione dell’ipertrofia ventricolare sinistra (LV) all’ECG con il rischio di eventi cerebrovascolari. I tassi grezzi di ictus tra i soggetti ipertesi senza o con ipertrofia LV erano 0,56 eventi × 100 anni-paziente nel primo e 1,46 eventi × 100 anni-paziente nel secondo gruppo. All’analisi di sopravvivenza univariabile, la presenza di ipertrofia LV all’ECG conferisce un aumento del rischio di futuri eventi cerebrovascolari (HR 2.37; 95% CI 1.69-3.32; p < 0.0001).
Tuttavia, la BP sistolica è un potenziale confonditore perché è associata sia all’ipertrofia LV che alla malattia cerebrovascolare. Quindi, confrontiamo l’impatto prognostico dell’ipertrofia del LV separatamente tra i pazienti ipertesi con BP sistolica sotto e sopra la mediana (152 mm Hg). I tassi grezzi di ictus e il rischio di eventi cerebrovascolari sono maggiori tra i pazienti ipertesi con ipertrofia LV rispetto a quelli senza ipertrofia LV, sia tra i soggetti con BP sistolica inferiore e superiore a 152 mm Hg. Gli HR specifici dello strato (2,84 per i pazienti con BP sistolica ≤152 mm Hg e 1,86 per i pazienti con BP sistolica >152 mm Hg) differiscono ampiamente dall’HR calcolato per l’intera popolazione (2,34), indicando che c’è un confondimento da parte della BP sistolica.
Considerare che altre variabili potrebbero influenzare la relazione tra ipertrofia LV e il rischio di ictus. In particolare, diverse analisi stratificate possono dimostrare che l’effetto dell’ipertrofia ventricolare sull’ictus è confuso non solo dalla pressione sistolica, ma anche dall’età, dal sesso e dal diabete.
Per stratificare in base a due variabili (per esempio la BP sistolica e il sesso), dobbiamo valutare la relazione tra ipertrofia LV e ictus in quattro gruppi (maschi con BP sistolica ≤152 mm Hg, maschi con BP sistolica >152 mm Hg, donne con BP sistolica ≤152 mm Hg e donne con BP sistolica >152 mm Hg). Aggiungendo il diabete come variabile alla precedente analisi stratificata, abbiamo otto gruppi.
Per ogni variabile di stratificazione che aggiungiamo, aumentiamo il numero di sottogruppi per i quali dobbiamo valutare individualmente se la relazione tra ipertrofia LV e ictus tiene e potremmo avere una dimensione del campione insufficiente in alcuni di questi sottogruppi, anche se abbiamo iniziato con una grande dimensione del campione. L’analisi multivariabile supera queste limitazioni e ci permette di valutare simultaneamente l’impatto di più variabili indipendenti sul risultato.
Tipi comuni di analisi multivariabile
Le analisi multivariabili sono ampiamente utilizzate negli studi osservazionali di eziologia, negli studi di intervento (randomizzati e non), negli studi di diagnosi e negli studi di prognosi. I tipi più comuni di analisi multivariabile utilizzati nella ricerca clinica includono la regressione lineare, la regressione logistica e la regressione proporzionale di rischio (Cox).
La regressione lineare viene utilizzata con esiti continui (come la pressione sanguigna), mentre la regressione logistica viene utilizzata con esiti binari (ad esempio, ipertrofia LV, sì o no). La regressione proporzionale delle probabilità (Cox) è usata quando l’esito è il tempo trascorso per un evento (per esempio, il tempo dalla valutazione basale all’evento dell’ictus).
La regressione lineare multivariabile è un metodo usato per modellare la relazione lineare tra una variabile dipendente e una o più variabili indipendenti. La variabile dipendente è talvolta chiamata anche il predictand, e le variabili indipendenti i predittori. L’assunzione sottostante alla regressione lineare multipla è che, man mano che le variabili indipendenti aumentano o diminuiscono, il valore medio del risultato aumenta o diminuisce in modo lineare.
L’analisi di regressione si basa sui minimi quadrati e il modello si adatta in modo che la somma dei quadrati delle differenze dei valori osservati e previsti sia minimizzata. In un modello multivariabile, il coefficiente di regressione per ogni variabile è stimato adattando il modello ai dati e aggiustando le altre variabili nel modello. In altre parole, un’analisi di regressione multivariabile fornisce previsioni basate sull’effetto predittivo combinato dei predittori.
Per valutare il potere di un modello di regressione lineare di prevedere il risultato, può essere riportato l’R2 corretto. Il valore di R2 varia da 0 a 1 e, moltiplicato per 100, R2 può essere pensato come la percentuale della varianza nel risultato rappresentata dalle variabili indipendenti. In un modello con un R2 vicino a 1, le variabili dipendenti insieme predicono accuratamente il risultato.
Una recente analisi sull’ipertensione postmenopausale del nostro gruppo ha illustrato come eseguire un’analisi di regressione lineare multivariabile. Abbiamo testato l’associazione indipendente della conta dei neutrofili, un marker di infiammazione cronica, con la pressione del polso (PP), un marker riconosciuto di aterosclerosi e fattore di rischio per eventi cardiaci e cerebrovascolari.
Siccome la combinazione lineare di età, livelli di glucosio nel siero e tensione ECG Cornell era un buon predittore di PP in un modello multivariabile (modello 1; tabella 1), l’associazione indipendente della conta dei neutrofili con PP è stata testata dopo aver regolato l’influenza di questi fattori. In particolare, in questo modello multivariabile (modello 2; tabella 1), l’associazione tra PP e conta dei neutrofili è rimasta significativa dopo la regolazione per l’influenza significativa di questi fattori confondenti.
Tabella 1
Analisi di regressione lineare multivariabile per testare la relazione indipendente tra pressione del polso e altre variabili cliniche
La regressione logistica binaria stima la probabilità di un risultato e modella come tale probabilità cambia al variare delle variabili predittive. L’assunzione di base è che ogni aumento di un’unità in un predittore moltiplica le probabilità del risultato di un certo fattore e che l’effetto di diverse variabili è il prodotto moltiplicativo dei loro effetti individuali. La funzione logistica produce una probabilità di risultato delimitata da 0 e 1. Il concetto matematico centrale che sottolinea la regressione logistica è il logit (il logaritmo naturale di un odds ratio). L’esempio più semplice di un logit deriva da una tabella di contingenza 2 × 2.
Consideriamo gli stessi dati dello studio PIUMA, che ha valutato l’associazione dell’ipertrofia LV con il rischio di ictus. La distribuzione di una variabile di risultato binaria (ictus, sì vs. no) è accoppiata con una variabile predittiva dicotomica (ipertrofia LV, sì vs. no). I risultati suggeriscono che i pazienti con ipertrofia ventricolare alla valutazione iniziale hanno 2,58 volte più probabilità di sviluppare un ictus rispetto ai pazienti senza ipertrofia ventricolare. L’odds ratio deriva da due probabilità e il suo logaritmo naturale è un logit, che è uguale a 0,95. Il valore di 0,95 è il coefficiente di regressione della regressione logistica. L’antilogaritmo del coefficiente di regressione è uguale all’odds ratio per un aumento di un’unità nel predittore. In caso di variabili esplicative continue, le unità di cambiamento possono essere specificate (ad esempio, aumento di 10 mm Hg nella BP) per le quali viene stimato l’odds ratio.
Siccome la BP sistolica è un confonditore per la sua associazione sia con l’ipertrofia del LV che con la malattia cerebrovascolare, modelliamo una regressione logistica multivariabile includendo l’ipertrofia del LV e la BP sistolica come predittori. Dopo l’aggiustamento per l’influenza significativa della BP sistolica, la presenza di ipertrofia LV è ancora associata ad un aumento del rischio di ictus (OR 1,98, 95% CI 1,37-2,86; p < 0,0001).
I modelli di rischio proporzionale presuppongono che il rapporto dei rischi per i soggetti con e senza un dato fattore di rischio sia la costante per tutto il periodo di studio. Questo è noto come l’assunzione di proporzionalità ed è la preoccupazione principale quando si adatta un modello di Cox. Questa assunzione implica che le funzioni di sopravvivenza non si incrociano e le variabili esplicative agiscono solo sull’hazard ratio. Un vantaggio dell’analisi delle probabilità proporzionali è che include soggetti con diverse durate di follow-up. Un soggetto che non sperimenta l’esito di interesse entro la fine dello studio è considerato censurato. L’antilogaritmo del coefficiente di regressione delle probabilità proporzionali è uguale al rischio relativo per un aumento di un’unità nel predittore. In caso di variabili esplicative continue, la maggior parte dei software moderni permette di specificare le unità di cambiamento (ad esempio, un aumento di 10 mm Hg nella pressione sanguigna) per le quali viene stimato l’hazard ratio personalizzato.
Prendiamo, ad esempio, uno studio sull’associazione tra regressione dell’ipertrofia del ventricolo e rischio di ictus. L’analisi persona-tempo ha dimostrato che i soggetti ipertesi con mancanza di regressione o nuovo sviluppo dell’ipertrofia LV avevano un tasso marcatamente aumentato di ictus rispetto ai soggetti che non hanno mai sviluppato l’ipertrofia LV o con regressione dell’ipertrofia LV (1,16 vs. 0,25 × 100 pazienti per anno; p = 0,0001).
L’effetto indipendente dei cambiamenti seriali nell’ipertrofia LV è stato testato dal modello multivariabile di Cox. Altri confondenti testati erano la pressione sistolica ambulatoriale di 24 ore, l’età, il sesso (uomini, donne), l’indice di massa corporea, il diabete (no, sì), il colesterolo totale, i trigliceridi nel siero, la storia familiare di malattia cardiovascolare (no, sì), l’abitudine al fumo, il tipo di trattamento antipertensivo alla visita di controllo e il trattamento con statine alla visita di controllo. Nell’analisi multivariabile, il rischio di eventi cerebrovascolari era 2,8 volte superiore (95% CI 1,18-6,69) nel sottogruppo con mancanza di regressione o nuovo sviluppo dell’ipertrofia LV rispetto a quello con regressione dell’ipertrofia LV o massa LV persistentemente normale. Tale effetto era indipendente dall’età e dalla pressione sistolica delle 24 ore alla visita di follow-up (tabella 2).
Tabella 2
Previsori indipendenti di eventi cerebrovascolari nello studio PIUMA
Il modello semiparametrico di Cox, poiché non assume alcuna distribuzione per il pericolo al basale, permette anche variabili esplicative dipendenti dal tempo. Una variabile esplicativa è dipendente dal tempo se il suo valore cambia nel tempo. Per esempio, è possibile utilizzare una variabile dipendente dal tempo per modellare l’effetto dei soggetti che cambiano gruppo di trattamento o stato di esposizione. Oppure si possono includere variabili dipendenti dal tempo come la pressione sanguigna che varia con il tempo nel corso di uno studio.
Quante variabili in un modello?
Un problema comune nell’analisi di regressione è la selezione delle variabili. Quando si esamina l’effetto di un fattore di rischio, aggiustamenti diversi per altri fattori possono produrre conclusioni diverse o addirittura confuse. Un metodo di selezione delle variabili è un modo per selezionare un particolare insieme di predittori da usare in un modello di regressione, o potrebbe essere un tentativo di trovare un modello ‘migliore’ quando ci sono diversi predittori candidati. La decisione su cosa regolare dovrebbe essere guidata da una relazione teorica o biologica a priori tra i diversi fattori e il risultato. Al contrario, il numero di variabili in un modello è spesso ottenuto tramite uno “screening bivariato” o utilizzando procedure automatiche di selezione delle variabili come la selezione in avanti, all’indietro o graduale. Lo screening bivariata inizia guardando tutte le relazioni bivariate con la variabile dipendente, e include tutte quelle che sono significative in un modello principale. Sfortunatamente, questo è di solito inadeguato. A causa delle correlazioni tra le variabili esplicative, qualsiasi variabile può avere poco potere predittivo unico, specialmente quando il numero di predittori è grande. Le procedure automatizzate determinano l’ordine in cui le variabili predittive sono inserite nel modello secondo criteri statistici. Nella selezione in avanti, le variabili sono inserite nel modello una alla volta in un ordine determinato dalla forza della loro associazione con la variabile criterio. L’effetto dell’aggiunta di ciascuna viene valutato man mano che viene inserita, e le variabili che non aggiungono significativamente al successo del modello vengono escluse. Nella selezione a ritroso, tutte le variabili predittrici sono inserite nel modello. La variabile predittiva più debole viene poi rimossa e la regressione ricalcolata. Se questo indebolisce significativamente il modello, allora la variabile predittiva viene reinserita, altrimenti viene eliminata. Questa procedura viene poi ripetuta fino a quando solo le variabili predittive utili rimangono nel modello. La selezione graduale si alterna tra avanti e indietro, inserendo e rimuovendo le variabili che soddisfano i criteri statistici per l’inserimento o la rimozione, fino a raggiungere un insieme stabile di variabili. Se l’aggiunta della variabile contribuisce al modello, allora viene mantenuta, ma tutte le altre variabili nel modello vengono poi ritestate per vedere se stanno ancora contribuendo al successo del modello. Se non contribuiscono più in modo significativo, vengono rimosse. Questo metodo definisce teoricamente il più piccolo insieme possibile di variabili predittive incluse nel modello finale.
I risultati della regressione stepwise sono sensibili alle violazioni degli assunti alla base della regressione. Più in generale, l’uso indiscriminato delle procedure di selezione delle variabili potrebbe risultare in modelli con una selezione distorta delle variabili, coefficienti inaffidabili e previsioni imprecise.
Anche se c’è poco consenso sui migliori metodi di selezione delle variabili, l’uso di alcuni metodi è generalmente scoraggiato, come l’inclusione o l’esclusione di variabili basate su analisi univariabili. Suggeriamo semplici regole empiriche per la selezione delle variabili esplicative: includere un numero adeguato di predittori per rendere il modello utile a fini teorici e pratici e per ottenere un buon potere predittivo. Non escludere le variabili solo in vista di un’associazione nominalmente non significativa o perché sono, forse per caso, non predittive nel particolare campione. Aggiungere variabili con poco potere predittivo ha degli svantaggi. Le variabili ridondanti di solito non riescono a migliorare i valori di adattamento del modello perché non aggiungono alla predizione complessiva. Per prevenire la collinearità, è utile che le variabili esplicative siano correlate con la variabile di risposta ma non altamente correlate tra loro.
La “regola di arresto” per l’inclusione o l’esclusione dei predittori è una questione scottante nella selezione del modello. Oltre al livello di significatività standard per la verifica delle ipotesi (α = 0,05), l’uso del criterio di informazione di Akaike (AIC) e del criterio di informazione bayesiano (BIC) è anche molto popolare. L’AIC e il BIC confrontano i modelli in base al loro adattamento ai dati, ma penalizzano la complessità del modello, cioè il numero di gradi di libertà. L’AIC richiede che l’aumento del χ2 del modello sia maggiore di due volte i gradi di libertà. Per esempio, considerando un predittore con 1 grado di libertà, come il sesso, questo implica che il χ2 del modello deve superare 2. Il BIC penalizza l’adattamento del modello in modo tale che il χ2 del modello deve superare il numero di predittori moltiplicato per il logaritmo della dimensione effettiva del campione, per esempio il numero di eventi in un modello di sopravvivenza di Cox. I modelli con AIC e/o BIC più bassi sono solitamente preferiti.
Infine, alcuni suggerimenti possono essere dati riguardo al numero di predittori candidati che possono essere studiati in modo affidabile in relazione alla dimensione del campione. Una nota regola empirica è la regola di 1 su 10 o 1 su 20. Per i modelli lineari, tale regola suggerisce che 1 candidato predittore può essere studiato per ogni 10 o 20 pazienti. Per i modelli logistici o di Cox, la regola 1 su 10 è piuttosto superficiale, a meno che non ci sia un set di predittori completamente prestabilito. Inoltre, bisogna ricordare che la potenza e la validità di un’analisi di sopravvivenza multivariabile è legata al numero di eventi di esito rispetto al numero di predittori candidati (cioè la dimensione effettiva del campione) piuttosto che al numero di partecipanti (dimensione totale del campione). Suggeriamo la regola 1 su 20 per questi modelli con un insieme limitato di predittori prespecificati e la regola 1 su 50 per la selezione graduale. Quindi, in uno studio con 60 pazienti che sperimentano un evento di esito (60 eventi) su 3.000 esposti, solo 3 predittori prespecificati potrebbero essere studiati in modo affidabile secondo la regola 1 su 20. Quando la regola viene violata, il numero di predittori candidati è generalmente troppo grande per il set di dati, e quasi inevitabilmente si verifica un overfitting.
Overfitting
Cosa è l’overfitting? Il principio della parsimonia o rasoio di Occam impone di usare modelli che contengono tutto ciò che è necessario per la modellazione, ma niente di più. Se un modello più semplice è statisticamente indistinguibile da un modello più complesso, la parsimonia ci impone di preferire il modello più semplice. Per esempio, se un modello di regressione con 3 predittori è sufficiente a spiegare il risultato, allora non si dovrebbero usare più di questi predittori. Inoltre, se la relazione può essere catturata da una funzione lineare in questi predittori, allora usare un termine quadratico viola la parsimonia. L’overfitting è l’uso di modelli o procedure che violano la parsimonia, cioè che includono più termini del necessario o usano approcci più complicati del necessario.
Bontà di adattamento
Un aspetto chiave della modellazione di regressione multivariabile è quanto bene il modello è d’accordo con i dati, cioè la bontà di adattamento del modello. Autori competenti hanno sottolineato che, sebbene la bontà di adattamento sia fondamentale per valutare la validità dei modelli di regressione, essa è scarsamente riportata negli articoli pubblicati. Per esempio, la bontà dell’adattamento dei modelli logistici viene solitamente valutata come segue: in primo luogo, utilizzare misure globali di adattamento del modello, come le statistiche di verosimiglianza, e, in secondo luogo, valutare le singole osservazioni per vedere se alcune sono problematiche per il modello di regressione. L’analisi dei residui è un modo efficace per individuare gli outlier o le osservazioni troppo influenti. Grandi residui suggeriscono che il modello non si adatta ai dati. Sfortunatamente, gli articoli delle riviste mediche raramente, se non mai, presentano i grafici dei residui.
Interazioni
Secondo Concato et al, ‘Si verifica un’interazione tra le variabili indipendenti se l’impatto di una variabile sull’evento finale dipende dal livello di un’altra variabile’. I metodi multivariabili non valutano automaticamente le interazioni, che possono essere valutate aggiungendo esplicitamente i termini di interazione al modello. Quando è presente un effetto di interazione, l’impatto di una variabile dipende dal livello dell’altra variabile e l’interpretazione potrebbe non essere semplice. Per esempio, uno studio di intervento verifica gli effetti di un trattamento su una misura di risultato. La variabile di trattamento è composta da due gruppi, trattamento e controllo. L’incidenza del risultato nel gruppo di trattamento è inferiore a quella del gruppo di controllo. Tuttavia, da studi precedenti si ipotizza che l’effetto del trattamento potrebbe non essere uguale per uomini e donne, cioè c’è una differenza nel trattamento a seconda del sesso? Questa è una questione di interazione, e per affrontarla aggiungeremmo un termine di interazione specifico (trattamento per genere) al modello. Tuttavia, l’inclusione delle interazioni, quando lo studio non è stato specificamente progettato per valutarle, può rendere difficile la stima e l’interpretazione degli altri effetti nel modello. Quindi, se uno studio non è stato specificamente progettato per valutare le interazioni e non c’è alcuna ragione a priori per aspettarsene una, o se i termini di interazione vengono valutati solo perché il software statistico lo rende semplice, e nessuna interazione viene effettivamente trovata, potrebbe essere saggio adattare il modello senza il termine di interazione, data l’assenza di una regola universale che detta i test appropriati per le interazioni in tutte le circostanze.
Conclusioni
Il nostro scopo era quello di introdurre i lettori clinici, spesso a disagio con le statistiche, all’analisi multivariabile utilizzando suggerimenti pratici e un linguaggio non tecnico. In particolare, abbiamo passato in rassegna le basi dei modelli multivariabili più comunemente usati nella ricerca clinica, come vengono assemblati e come possono essere interpretati e valutati.
- Katz MH: Multivariable Analysis: A Practical Guide for Clinicians and Public Health Researchers. Londra, Cambridge University Press, 2011.
- Whisnant JP: Modellazione dei fattori di rischio per l’ictus ischemico. La lezione di Willis. Stroke 1997;28:1840-1844.
- Verdecchia P, Angeli F, Achilli P, Castellani C, Broccatelli A, Gattobigio R, et al: Ipertrofia ventricolare sinistra ecocardiografica nell’ipertensione: marcatore di eventi futuri o mediatore di eventi? Curr Opin Cardiol 2007;22:329-334.
Risorse esterne
- Pubmed/Medline (NLM)
- Crossref (DOI)
- Verdecchia P, Angeli F, Gattobigio R, Sardone M, Pede S, Reboldi GP: Regressione dell’ipertrofia ventricolare sinistra e prevenzione dell’ictus nei soggetti ipertesi. Am J Hypertens 2006;19:493-499.
Risorse esterne
- Pubmed/Medline (NLM)
- Crossref (DOI)
- Verdecchia P, Angeli F, Gattobigio R, Guerrieri M, Benemio G, Porcellati C: La riduzione della pressione sistolica spiega da sola la regressione dell’ipertrofia ventricolare sinistra? J Hum Hypertens 2004;18(suppl 2):S23-S28.
Risorse esterne
- Pubmed/Medline (NLM)
- Crossref (DOI)
- Katz MH: Analisi multivariabile: un primer per i lettori di ricerca medica. Ann Intern Med 2003;138:644-650.
Risorse esterne
- Pubmed/Medline (NLM)
- Angeli F, Angeli E, Ambrosio G, Mazzotta G, Cavallini C, Reboldi G, et al: Conta dei neutrofili e pressione del polso ambulatoriale come predittori di eventi avversi cardiovascolari in donne in postmenopausa con ipertensione. Am J Hypertens 2011;24:591-598.
Risorse esterne
- Pubmed/Medline (NLM)
- Crossref (DOI)
- Harrell FE Jr, Lee KL, Mark DB: Modelli prognostici multivariabili: problemi nello sviluppo di modelli, valutazione delle ipotesi e adeguatezza, e misurare e ridurre gli errori. Stat Med 1996;15:361-387.
Risorse esterne
- Pubmed/Medline (NLM)
- Crossref (DOI)
- Cambridge Scientific Abstracts (CSA)
- ISI Web of Science
- Rao SR, Schoenfeld DA: Metodi di sopravvivenza. Circulation 2007;115:109-113.
Risorse esterne
- Pubmed/Medline (NLM)
- Crossref (DOI)
- Pubmed/Medline (NLM)
- Crossref (DOI)
- Pubmed/Medline (NLM)
- Crossref (DOI)
- Chemical Abstracts Service (CAS)
- Cambridge Scientific Abstracts (CSA)
- Pubmed/Medline (NLM)
- Chemical Abstracts Service (CAS)
- ISI Web of Science
Contatti dell’autore
Gianpaolo Reboldi, MD, PhD, MSc
Dipartimento di Medicina Interna
Università di Perugia
IT-06126 Perugia (Italia)
E-Mail [email protected]
Articolo / Dettagli pubblicazione
Ricevuto: 07 agosto 2012
Accettato: 24 ottobre 2012
Pubblicato online: 21 febbraio 2013
Data di pubblicazione: marzo 2013
Numero di pagine stampate: 7
Numero di figure: 1
Numero di tabelle: 2
ISSN: 1015-9770 (Print)
eISSN: 1421-9786 (Online)
Per ulteriori informazioni: https://www.karger.com/CED
Copyright / Drug Dosage / Disclaimer
Copyright: Tutti i diritti riservati. Nessuna parte di questa pubblicazione può essere tradotta in altre lingue, riprodotta o utilizzata in qualsiasi forma o con qualsiasi mezzo, elettronico o meccanico, comprese fotocopie, registrazioni, microcopie, o con qualsiasi sistema di archiviazione e recupero delle informazioni, senza il permesso scritto dell’editore: Gli autori e l’editore hanno compiuto ogni sforzo per assicurare che la selezione e il dosaggio dei farmaci indicati in questo testo siano in accordo con le raccomandazioni e le pratiche correnti al momento della pubblicazione. Tuttavia, in considerazione della ricerca in corso, dei cambiamenti nei regolamenti governativi e del flusso costante di informazioni relative alla terapia farmacologica e alle reazioni ai farmaci, il lettore è invitato a controllare il foglietto illustrativo di ogni farmaco per qualsiasi cambiamento nelle indicazioni e nel dosaggio e per le avvertenze e le precauzioni aggiunte. Questo è particolarmente importante quando l’agente raccomandato è un farmaco nuovo e/o poco utilizzato.
Disclaimer: Le dichiarazioni, le opinioni e i dati contenuti in questa pubblicazione sono esclusivamente quelli dei singoli autori e collaboratori e non degli editori e dei redattori. L’apparizione di pubblicità e/o riferimenti a prodotti nella pubblicazione non è una garanzia, un appoggio o un’approvazione dei prodotti o servizi pubblicizzati o della loro efficacia, qualità o sicurezza. L’editore e i redattori declinano ogni responsabilità per qualsiasi danno a persone o proprietà derivante da qualsiasi idea, metodo, istruzione o prodotto a cui si fa riferimento nel contenuto o nelle pubblicità.