Abstract

Le terme ‘analyse multivariable’ est souvent utilisé lorsque l’on fait référence à une analyse multivariable. Or,  » multivariable  » implique une analyse statistique avec plusieurs résultats. En revanche, l’analyse multivariable est un outil statistique permettant de déterminer les contributions relatives de divers facteurs à un seul événement ou résultat. L’objectif de cet article est de se concentrer sur les analyses où de multiples prédicteurs sont pris en compte. Une telle analyse s’oppose à une analyse univariable (ou « simple »), dans laquelle une seule variable prédictive est prise en compte. Nous passons en revue les bases des analyses multivariables, les hypothèses qui les sous-tendent et la manière dont elles doivent être interprétées et évaluées.

© 2013 S. Karger AG, Bâle

Introduction

Les termes  » analyse multivariable  » et  » analyse multivariable  » sont souvent utilisés de manière interchangeable dans la recherche médicale et en sciences de la santé. Cependant, l’analyse multivariée fait référence à l’analyse de plusieurs résultats alors que l’analyse multivariable ne traite qu’un seul résultat à chaque fois .

Comme le titre l’indique, nous nous concentrons sur l’analyse multivariable et non sur l’analyse multivariable. L’analyse multivariable est un outil statistique permettant de déterminer les contributions relatives de différentes causes à un seul événement ou résultat. Par exemple, certains facteurs sont associés au développement d’une maladie cérébrovasculaire, notamment les antécédents familiaux d’AVC, l’âge avancé, l’hypertension artérielle (TA), le diabète, le surpoids, l’hypercholestérolémie, les interventions et le tabagisme . L’analyse multivariable nous permet de déterminer la contribution indépendante de chacun de ces facteurs de risque (variables explicatives) au développement de la maladie (variable réponse). En d’autres termes, le risque d’un résultat peut être modifié par d’autres variables de risque ou par leurs interactions, et ces effets peuvent être évalués par une analyse multivariable.

Dans cet article, nous présentons au clinicien les différentes analyses multivariables découlant de l’utilisation de différentes échelles de mesure pour le résultat et nous détaillons les hypothèses derrière chaque type d’analyse multivariable. Nous discutons également de la façon dont les différentes analyses multivariables sont interprétées en ajoutant quelques exemples illustratifs.

Rôle des facteurs de confusion

La relation entre un événement (ou une mesure de résultat) et un facteur de risque peut être confondue par d’autres variables. Il y a confusion lorsque l’association apparente entre un facteur de risque et un résultat est affectée par la relation d’une troisième variable avec le facteur de risque et le résultat (fig. 1) .

Fig. 1

Relation entre le facteur de risque et le résultat (panneau supérieur). La capacité de l’analyse multivariable à évaluer simultanément la contribution indépendante d’un certain nombre de facteurs de risque au résultat est importante lorsqu’il existe une  » confusion  » (panneau inférieur). Il y a confusion lorsque l’association apparente entre un facteur de risque et un résultat est affectée par la relation d’une troisième variable (facteur de confusion) avec le facteur de risque et le résultat.

http://www.karger.com/WebMaterial/ShowPic/169434

Une variable ne peut pas être un facteur de confusion si elle est une étape de la chaîne ou du chemin de causalité. Par exemple, une consommation modérée d’alcool augmente le taux sérique de lipoprotéines de haute densité qui, à son tour, diminue le risque d’accident vasculaire cérébral. Dans ce contexte, le taux de lipoprotéines de haute densité est une étape de cette chaîne causale, et non un facteur de confusion qui doit être contrôlé.

Une technique simple et pratique pour évaluer et éliminer les facteurs de confusion est l’analyse stratifiée. L’analyse stratifiée jauge l’effet d’un facteur de risque sur le résultat tout en maintenant une autre variable constante.

À titre d’exemple, considérons la relation entre les lésions des organes cibles de l’hypertension et le risque d’accident vasculaire cérébral . Les données de l’étude Progetto Ipertensione Umbria Monitoraggio Ambulatoriale (PIUMA) nous permettent d’illustrer comment réaliser une analyse stratifiée. En particulier, nous testons l’association de l’hypertrophie du ventricule gauche (VG) à l’ECG avec le risque d’événements cérébrovasculaires. Les taux bruts d’accidents vasculaires cérébraux entre les sujets hypertendus sans ou avec hypertrophie du VG étaient de 0,56 événement × 100 années-patients dans le premier groupe et de 1,46 événement × 100 années-patients dans le second. Lors de l’analyse de survie univariable, la présence d’une hypertrophie ventriculaire gauche à l’ECG confère un risque accru d’événements cérébrovasculaires futurs (HR 2,37 ; IC 95 % 1,69-3,32 ; p < 0,0001).

Cependant, la PA systolique est un facteur de confusion potentiel car elle est associée à la fois à l’hypertrophie ventriculaire gauche et à la maladie cérébrovasculaire . Nous comparons donc l’impact pronostique de l’hypertrophie du ventricule gauche séparément chez les patients hypertendus dont la tension systolique est inférieure et supérieure à la médiane (152 mm Hg). Les taux bruts d’AVC et le risque d’événements cérébrovasculaires sont plus élevés chez les patients hypertendus présentant une hypertrophie du ventricule gauche que chez ceux qui n’en présentent pas, tant chez les sujets dont la pression systolique est inférieure ou supérieure à 152 mm Hg. Les HR spécifiques à chaque strate (2,84 pour les patients ayant une PA systolique ≤152 mm Hg et 1,86 pour les patients ayant une PA systolique >152 mm Hg) diffèrent largement du HR calculé pour la population entière (2,34), ce qui indique qu’il existe une confusion par la PA systolique.

Considérez que d’autres variables pourraient affecter la relation entre l’hypertrophie du VG et le risque d’AVC. En particulier, différentes analyses stratifiées peuvent prouver que l’effet de l’hypertrophie du ventricule gauche sur l’AVC est confondu non seulement par la PA systolique, mais aussi par l’âge, le sexe et le diabète .

Pour stratifier par deux variables (par exemple la PA systolique et le sexe), nous devons évaluer la relation entre l’hypertrophie du VG et l’AVC dans quatre groupes (hommes avec PA systolique ≤152 mm Hg, hommes avec une PA systolique >152 mm Hg, femmes avec une PA systolique ≤152 mm Hg et femmes avec une PA systolique >152 mm Hg). En ajoutant le diabète comme variable à l’analyse stratifiée précédente, nous avons huit groupes.

Pour chaque variable de stratification que nous ajoutons, nous augmentons le nombre de sous-groupes pour lesquels nous devons évaluer individuellement si la relation entre l’hypertrophie du VG et l’AVC tient et nous pouvons avoir une taille d’échantillon insuffisante dans certains de ces sous-groupes, même si nous avons commencé avec une grande taille d’échantillon. L’analyse multivariable surmonte ces limites et elle nous permet d’évaluer simultanément l’impact de plusieurs variables indépendantes sur le résultat.

Types courants d’analyse multivariable

Les analyses multivariables sont largement utilisées dans les études observationnelles d’étiologie, les études d’intervention (randomisées et non randomisées), les études de diagnostic et les études de pronostic . Les types les plus courants d’analyse multivariable utilisés en recherche clinique comprennent la régression linéaire, la régression logistique et la régression des risques proportionnels (Cox).

La régression linéaire est utilisée avec des résultats continus (tels que la TA), tandis que la régression logistique est utilisée avec des résultats binaires (par exemple, l’hypertrophie du ventricule gauche, oui vs non). La régression des risques proportionnels (Cox) est utilisée lorsque le résultat est le temps écoulé jusqu’à un événement (par exemple, le temps entre l’évaluation de base et l’événement d’AVC).

La régression linéaire multivariable est une méthode utilisée pour modéliser la relation linéaire entre une variable dépendante et une ou plusieurs variables indépendantes. La variable dépendante est parfois aussi appelée le prédicteur, et les variables indépendantes les prédicteurs. L’hypothèse sous-jacente de la régression linéaire multiple est que, à mesure que les variables indépendantes augmentent ou diminuent, la valeur moyenne du résultat augmente ou diminue de façon linéaire.

Une analyse de régression est basée sur les moindres carrés et le modèle est ajusté de telle sorte que la somme des carrés des différences entre les valeurs observées et prédites soit minimisée. Dans un modèle multivariable, le coefficient de régression de chaque variable est estimé en ajustant le modèle aux données et en ajustant les autres variables du modèle. En d’autres termes, une analyse de régression multivariable fournit des prédictions basées sur l’effet prédictif combiné des prédicteurs.

Pour évaluer la puissance d’un modèle de régression linéaire pour prédire le résultat, le R2 ajusté peut être rapporté. La valeur du R2 varie de 0 à 1 et, multiplié par 100, le R2 peut être considéré comme le pourcentage de la variance du résultat pris en compte par les variables indépendantes. Dans un modèle avec un R2 proche de 1, les variables dépendantes ensemble prédisent précisément le résultat.

Une analyse récente sur l’hypertension post-ménopausique de notre groupe a illustré comment effectuer une analyse de régression linéaire multivariable . Nous avons testé l’association indépendante du nombre de neutrophiles, un marqueur d’inflammation chronique, avec la pression pulsée (PP), un marqueur reconnu de l’athérosclérose et un facteur de risque d’événements cardiaques et cérébrovasculaires.

Puisque la combinaison linéaire de l’âge, des niveaux de glucose sérique et du voltage de Cornell ECG était un bon prédicteur de la PP dans un modèle multivariable (modèle 1 ; tableau 1), l’association indépendante du nombre de neutrophiles avec la PP a été testée après ajustement de l’influence de ces facteurs. Notamment, dans ce modèle multivariable (modèle 2 ; tableau 1), l’association entre PP et numération des neutrophiles est restée significative après ajustement de l’influence significative de ces facteurs de confusion.

Tableau 1

Analyses de régression linéaire multivariable pour tester la relation indépendante entre la pression pulsée et d’autres variables cliniques

http://www.karger.com/WebMaterial/ShowPic/169436

La régression logistique binaire estime la probabilité d’un résultat et modélise la façon dont cette probabilité change avec un changement des variables prédictives. L’hypothèse de base est que chaque augmentation d’une unité d’une variable prédictive multiplie la probabilité du résultat par un certain facteur et que l’effet de plusieurs variables est le produit multiplicatif de leurs effets individuels. La fonction logistique produit une probabilité de résultat délimitée par 0 et 1. Le concept mathématique central qui sous-tend la régression logistique est le logit (le logarithme naturel d’un rapport de cotes). L’exemple le plus simple d’un logit dérive d’un tableau de contingence 2 × 2.

Considérez les mêmes données de l’étude PIUMA, qui a évalué l’association entre l’hypertrophie du ventricule gauche et le risque d’accident vasculaire cérébral. La distribution d’une variable de résultat binaire (AVC, oui vs non) est appariée à une variable prédictive dichotomique (hypertrophie du ventricule gauche, oui vs non). Les résultats suggèrent que les patients présentant une hypertrophie du ventricule gauche lors de l’évaluation initiale ont 2,58 fois plus de chances de développer un AVC que les patients sans hypertrophie du ventricule gauche. Le rapport de cotes est dérivé de deux cotes et son logarithme naturel est un logit, qui est égal à 0,95. La valeur de 0,95 est le coefficient de régression de la régression logistique. L’antilogarithme du coefficient de régression est égal à l’odds ratio pour une augmentation d’une unité du prédicteur. En cas de variables explicatives continues, les unités de changement peuvent être spécifiées (par exemple, une augmentation de 10 mm Hg de la PA) pour lesquelles l’odds ratio est estimé.

Puisque la PA systolique est un facteur de confusion pour son association à la fois avec l’hypertrophie du VG et la maladie cérébrovasculaire, nous modélisons une régression logistique multivariable incluant l’hypertrophie du VG et la PA systolique comme prédicteurs. Après ajustement pour l’influence significative de la PA systolique, la présence d’une hypertrophie du ventricule gauche est toujours associée à un risque accru d’AVC (OR 1,98, IC 95 % 1,37-2,86 ; p < 0,0001).

Les modèles de risques proportionnels supposent que le rapport des risques pour les sujets avec et sans un facteur de risque donné est la constante sur toute la période d’étude . C’est ce qu’on appelle l’hypothèse de proportionnalité et c’est la principale préoccupation lors de l’ajustement d’un modèle de Cox. Cette hypothèse implique que les fonctions de survie ne se croisent pas et que les variables explicatives agissent uniquement sur le rapport des risques. Un avantage de l’analyse des risques proportionnels est qu’elle inclut des sujets dont la durée de suivi varie. Un sujet qui ne connaît pas le résultat d’intérêt à la fin de l’étude est considéré comme censuré. L’antilogarithme du coefficient de régression des risques proportionnels est égal au risque relatif pour une augmentation d’une unité du prédicteur. En cas de variables explicatives continues, la plupart des logiciels modernes permettent de spécifier les unités de changement (par exemple, une augmentation de 10 mm Hg de la TA) pour lesquelles le rapport de risque personnalisé est estimé.

Prenons, par exemple, une étude de l’association entre la régression de l’hypertrophie du ventricule gauche et le risque d’accident vasculaire cérébral . L’analyse personne-temps a démontré que les sujets hypertendus avec absence de régression ou nouveau développement de l’hypertrophie du VG avaient un taux d’AVC nettement plus élevé que les sujets qui n’ont jamais développé d’hypertrophie du VG ou avec régression de l’hypertrophie du VG (1,16 contre 0,25 × 100 patients par an ; p = 0,0001).

L’effet indépendant des changements en série de l’hypertrophie du VG a été testé par un modèle de Cox multivariable. Les autres facteurs de confusion testés étaient la PA systolique ambulatoire sur 24 heures, l’âge, le sexe (hommes, femmes), l’indice de masse corporelle, le diabète (non, oui), le cholestérol total, les triglycérides sériques, les antécédents familiaux de maladie cardiovasculaire (non, oui), les habitudes tabagiques, le type de traitement antihypertenseur lors de la visite de suivi et le traitement par statine lors de la visite de suivi. Dans l’analyse multivariable, le risque d’événements cérébrovasculaires était 2,8 fois plus élevé (IC 95 % 1,18-6,69) dans le sous-ensemble avec absence de régression ou nouveau développement de l’hypertrophie du ventricule gauche que dans celui avec régression de l’hypertrophie du ventricule gauche ou masse du ventricule gauche toujours normale. Un tel effet était indépendant de l’âge et de la PA systolique de 24 heures lors de la visite de suivi (tableau 2).

Tableau 2

Prédicteurs indépendants d’événements cérébrovasculaires dans l’étude PIUMA

http://www.karger.com/WebMaterial/ShowPic/169435

Modèle semiparamétrique de Cox, parce qu’il ne suppose aucune distribution pour le hasard de base , permet également des variables explicatives dépendantes du temps. Une variable explicative est dépendante du temps si sa valeur change dans le temps. Par exemple, vous pouvez utiliser une variable dépendante du temps pour modéliser l’effet des sujets qui changent de groupe de traitement ou de statut d’exposition. Ou vous pouvez inclure des variables dépendantes du temps, telles que la TA, qui varient dans le temps au cours d’une étude .

Combien de variables dans un modèle ?

Un problème courant dans l’analyse de régression est la sélection des variables. Lorsque l’on examine l’effet d’un facteur de risque, différents ajustements pour d’autres facteurs peuvent donner lieu à des conclusions différentes, voire déroutantes. Une méthode de sélection des variables est un moyen de sélectionner un ensemble particulier de prédicteurs à utiliser dans un modèle de régression, ou cela peut être une tentative de trouver un « meilleur » modèle lorsqu’il y a plusieurs prédicteurs candidats. La décision sur les variables à ajuster doit être guidée par une relation théorique ou biologique a priori entre les différents facteurs et le résultat . Inversement, le nombre de variables dans un modèle est souvent obtenu par un « screening bivarié » ou par l’utilisation de procédures automatisées de sélection de variables telles que la sélection avant, arrière ou par étapes. La sélection bivariée commence par examiner toutes les relations bivariées avec la variable dépendante, et inclut toutes celles qui sont significatives dans un modèle principal. Malheureusement, cette méthode est généralement inadéquate. En raison des corrélations entre les variables explicatives, une variable donnée peut avoir un faible pouvoir prédictif unique, en particulier lorsque le nombre de prédicteurs est élevé. Des procédures automatisées déterminent l’ordre dans lequel les variables prédicteurs sont introduites dans le modèle en fonction de critères statistiques. Dans la sélection directe, les variables sont introduites dans le modèle une par une dans un ordre déterminé par la force de leur association avec la variable critère. L’effet de l’ajout de chaque variable est évalué au fur et à mesure qu’elle est introduite, et les variables qui ne contribuent pas de manière significative au succès du modèle sont exclues. Dans la sélection à rebours, toutes les variables prédictives sont introduites dans le modèle. La variable prédictive la plus faible est ensuite retirée et la régression est recalculée. Si cela affaiblit significativement le modèle, la variable prédictive est réintroduite, sinon elle est supprimée. Cette procédure est ensuite répétée jusqu’à ce qu’il ne reste plus que des variables prédicteurs utiles dans le modèle. La sélection par étapes alterne entre l’avant et l’arrière, en introduisant et en supprimant les variables qui répondent aux critères statistiques d’entrée ou de suppression, jusqu’à ce qu’un ensemble stable de variables soit atteint. Si l’ajout de la variable contribue au modèle, elle est conservée, mais toutes les autres variables du modèle sont alors testées à nouveau pour voir si elles contribuent toujours au succès du modèle. Si elles ne contribuent plus de manière significative, elles sont supprimées. Cette méthode définit théoriquement le plus petit ensemble possible de variables prédictives incluses dans le modèle final.

Les résultats de la régression par étapes sont sensibles aux violations des hypothèses sous-jacentes à la régression. Plus généralement, l’utilisation sans discernement des procédures de sélection des variables pourrait donner lieu à des modèles avec une sélection biaisée des variables, des coefficients peu fiables et une prédiction inexacte.

Bien qu’il n’y ait pas de consensus sur les meilleures méthodes de sélection des variables, l’utilisation de certaines méthodes est généralement déconseillée, comme l’inclusion ou l’exclusion de variables basées sur une analyse univariable. Nous suggérons des règles simples pour la sélection des variables explicatives : inclure un nombre adéquat de prédicteurs pour rendre le modèle utile à des fins théoriques et pratiques et pour obtenir un bon pouvoir prédictif. N’excluez pas de variables uniquement en raison d’une association nominalement non significative ou parce qu’elles ne sont pas prédictives, peut-être par hasard, dans l’échantillon particulier. L’ajout de variables ayant un faible pouvoir prédictif présente des inconvénients. Les variables redondantes n’améliorent généralement pas les valeurs d’ajustement du modèle car elles n’ajoutent rien à la prédiction globale. Pour éviter la colinéarité, il est utile que les variables explicatives soient corrélées avec la variable de réponse mais pas fortement corrélées entre elles.

La  » règle d’arrêt  » pour l’inclusion ou l’exclusion de prédicteurs est une question brûlante dans la sélection de modèles. Outre le niveau de signification standard pour le test des hypothèses (α = 0,05), l’utilisation du critère d’information d’Akaike (AIC) et du critère d’information bayésien (BIC) est également très populaire. L’AIC et le BIC comparent les modèles en fonction de leur adéquation aux données, mais sont pénalisés par la complexité du modèle, c’est-à-dire le nombre de degrés de liberté. L’AIC exige que l’augmentation du χ2 du modèle soit supérieure à deux fois le nombre de degrés de liberté. Par exemple, si l’on considère un prédicteur avec 1 degré de liberté, comme le sexe, cela implique que le χ2 du modèle doit être supérieur à 2. Le BIC pénalise l’ajustement du modèle de telle sorte que le χ2 du modèle doit dépasser le nombre de prédicteurs multiplié par le logarithme de la taille effective de l’échantillon, par exemple le nombre d’événements dans un modèle de survie de Cox. Les modèles présentant un AIC et/ou un BIC inférieur sont généralement préférés.

Enfin, quelques indications peuvent être données concernant le nombre de prédicteurs candidats qui peuvent être étudiés de manière fiable par rapport à la taille de l’échantillon. Une règle empirique bien connue est la règle du 1 sur 10 ou 1 sur 20 . Pour les modèles linéaires, cette règle suggère qu’un prédicteur candidat peut être étudié pour 10 ou 20 patients. Pour les modèles logistiques ou de Cox, la règle du 1 sur 10 est plutôt superficielle, à moins qu’il n’existe un ensemble de prédicteurs entièrement préspécifié. En outre, il faut se rappeler que la puissance et la validité d’une analyse de survie multivariable sont liées au nombre d’événements de résultat par rapport au nombre de prédicteurs candidats (c’est-à-dire la taille effective de l’échantillon) plutôt qu’au nombre de participants (taille totale de l’échantillon). Nous suggérons la règle du 1 sur 20 pour ces modèles avec un ensemble limité de prédicteurs préspécifiés et la règle du 1 sur 50 pour la sélection par étapes. Ainsi, dans une étude avec 60 patients présentant un événement de résultat (60 événements) sur 3 000 exposés, seuls 3 prédicteurs préspécifiés pourraient être étudiés de manière fiable selon la règle du 1 sur 20. Lorsque la règle est violée, le nombre de prédicteurs candidats est généralement trop important pour l’ensemble des données, et l’overfitting se produit presque inévitablement.

Overfitting

Qu’est-ce que l’overfitting ? Le principe de parcimonie ou rasoir d’Occam impose d’utiliser des modèles qui contiennent tout ce qui est nécessaire à la modélisation, mais rien de plus. Si un modèle plus simple est statistiquement impossible à distinguer d’un modèle plus complexe, la parcimonie nous dicte de préférer le modèle le plus simple. Par exemple, si un modèle de régression avec 3 prédicteurs suffit à expliquer le résultat, il ne faut pas utiliser plus que ces prédicteurs. De plus, si la relation peut être capturée par une fonction linéaire de ces prédicteurs, l’utilisation d’un terme quadratique viole la parcimonie. L’overfitting est l’utilisation de modèles ou de procédures qui violent la parcimonie, c’est-à-dire qui incluent plus de termes que nécessaire ou utilisent des approches plus compliquées que nécessaire.

Bonne qualité d’ajustement

Un aspect clé de la modélisation de régression multivariable est la façon dont le modèle s’accorde avec les données, c’est-à-dire la bonne qualité d’ajustement du modèle. Des auteurs bien informés ont souligné que, bien que la qualité de l’ajustement soit fondamentale pour évaluer la validité des modèles de régression, elle est rarement mentionnée dans les articles publiés. Par exemple, la qualité de l’ajustement des modèles logistiques est généralement évaluée comme suit : premièrement, on utilise des mesures globales de l’ajustement du modèle, telles que les statistiques de vraisemblance, et deuxièmement, on évalue les observations individuelles pour voir si elles posent problème pour le modèle de régression. L’analyse résiduelle est un moyen efficace de détecter les observations aberrantes ou trop influentes. Des résidus importants suggèrent que le modèle ne s’adapte pas aux données. Malheureusement, les articles de revues médicales ne présentent que rarement, voire jamais, de graphiques de résidus.

Interactions

Selon Concato et al, ‘Une interaction se produit entre des variables indépendantes si l’impact d’une variable sur l’événement de résultat dépend du niveau d’une autre variable.’ Les méthodes multivariables n’évaluent pas automatiquement les interactions, qui peuvent être évaluées en ajoutant explicitement des termes d’interaction au modèle. Lorsqu’un effet d’interaction est présent, l’impact d’une variable dépend du niveau de l’autre variable et l’interprétation peut ne pas être simple. Par exemple, une étude d’intervention teste les effets d’un traitement sur une mesure de résultat. La variable de traitement est composée de deux groupes, le traitement et le contrôle. L’incidence du résultat dans le groupe traité est plus faible que dans le groupe témoin. Cependant, à partir d’études antérieures, nous émettons l’hypothèse que l’effet du traitement peut ne pas être égal pour les hommes et les femmes, c’est-à-dire qu’il y a une différence de traitement en fonction du sexe ? Il s’agit d’une question d’interaction, et pour y répondre, nous ajouterions un terme d’interaction spécifique (traitement par sexe) au modèle. Cependant, l’inclusion d’interactions, lorsque l’étude n’a pas été spécifiquement conçue pour les évaluer, peut rendre difficile l’estimation et l’interprétation des autres effets dans le modèle. Par conséquent, si une étude n’a pas été spécifiquement conçue pour évaluer les interactions et qu’il n’y a aucune raison a priori d’en attendre une, ou si les termes d’interaction sont évalués simplement parce que le logiciel statistique le rend simple, et qu’aucune interaction n’est effectivement trouvée, il pourrait être sage d’ajuster le modèle sans le terme d’interaction étant donné l’absence d’une règle universelle dictant les tests appropriés pour les interactions dans toutes les circonstances .

Conclusions

Notre objectif était d’introduire les lecteurs cliniciens, souvent peu à l’aise avec les statistiques, à l’analyse multivariable en utilisant des suggestions pratiques et un langage non technique. En particulier, nous avons passé en revue les bases des modèles multivariables les plus couramment utilisés en recherche clinique, la façon dont ils sont assemblés, et comment ils peuvent être interprétés et évalués.

  1. Katz MH : Multivariable Analysis : Un guide pratique pour les cliniciens et les chercheurs en santé publique. Londres, Cambridge University Press, 2011.
  2. Whisnant JP : Modélisation des facteurs de risque de l’accident vasculaire cérébral ischémique. La conférence de Willis. Stroke 1997;28:1840-1844.
  3. Verdecchia P, Angeli F, Achilli P, Castellani C, Broccatelli A, Gattobigio R, et al : hypertrophie ventriculaire gauche échocardiographique dans l’hypertension : marqueur d’événements futurs ou médiateur d’événements ? Curr Opin Cardiol 2007;22:329-334.
    Ressources externes

    • Pubmed/Medline (NLM)
    • Crossref (DOI)

  4. Verdecchia P, Angeli F, Gattobigio R, Sardone M, Pede S, Reboldi GP : Régression de l’hypertrophie ventriculaire gauche et prévention de l’accident vasculaire cérébral chez les sujets hypertendus. Am J Hypertens 2006;19:493-499.
    Ressources externes

    • Pubmed/Medline (NLM)
    • Crossref (DOI)

  5. Verdecchia P, Angeli F, Gattobigio R, Guerrieri M, Benemio G, Porcellati C : La réduction de la pression artérielle systolique explique-t-elle à elle seule la régression de l’hypertrophie ventriculaire gauche ? J Hum Hypertens 2004;18(suppl 2):S23-S28.
    Ressources externes

    • Pubmed/Medline (NLM)
    • Crossref (DOI)

  6. Katz MH : Multivariable analysis : a primer for readers of medical research. Ann Intern Med 2003;138:644-650.
    Ressources externes

    • Pubmed/Medline (NLM)
  7. Angéli F, Angeli E, Ambrosio G, Mazzotta G, Cavallini C, Reboldi G, et al : Le nombre de neutrophiles et la pression pulsée ambulatoire comme prédicteurs d’événements cardiovasculaires indésirables chez les femmes ménopausées souffrant d’hypertension. Am J Hypertens 2011;24:591-598.
    Ressources externes

    • Pubmed/Medline (NLM)
    • Crossref (DOI)

  8. Harrell FE Jr, Lee KL, Mark DB : Multivariable prognostic models : issues in developing models, evaluating assumptions and adequacy, and measuring and reducing errors. Stat Med 1996;15:361-387.
    Ressources externes

    • Pubmed/Medline (NLM)
    • Crossref (DOI)
    • Cambridge Scientific Abstracts (CSA)
    • ISI Web of Science

  9. Rao SR, Schoenfeld DA : Les méthodes de survie. Circulation 2007;115:109-113.
    Ressources externes

    • Pubmed/Medline (NLM)
    • Crossref (DOI)

  10. Kleinbaum DG, Klein M : Survival Analysis : A Self-Learning Text, ed 2, New York, Springer, 2005.
  11. Greenland S : Modélisation et sélection de variables dans l’analyse épidémiologique. Am J Public Health 1989;79:340-349.
  12. Harrell FE : Stratégies de modélisation de la régression : avec des applications aux modèles linéaires, la régression logistique, et l’analyse de survie. New York, Springer, 2001.
  13. Steyerberg EW : Modèles de prédiction clinique : Une approche pratique du développement, de la validation et de la mise à jour. New York, Springer, 2009.
  14. LaValley MP : Logistic regression. Circulation 2008;117:2395-2399.
    Ressources externes

    • Pubmed/Medline (NLM)
    • Crossref (DOI)

  15. Bagley SC, White H, Golomb BA : Logistic regression in the medical literature : standards for use and reporting, with particular attention to one medical domain. J Clin Epidemiol 2001;54:979-985.
    Ressources externes

    • Pubmed/Medline (NLM)
    • Crossref (DOI)
    • . Chemical Abstracts Service (CAS)
    • Cambridge Scientific Abstracts (CSA)
  16. Concato J, Feinstein AR, Holford TR : Le risque de déterminer le risque avec des modèles multivariables. Ann Intern Med 1993;118:201-210.
    Ressources externes

    • Pubmed/Medline (NLM)
    • Service des résumés chimiques (CAS).
    • ISI Web of Science

Contacts de l’auteur

Gianpaolo Reboldi, MD, PhD, MSc

Département de médecine interne

Université de Perugia

IT-06126 Perugia (Italie)

E-Mail [email protected]

Article / Détails de la publication

Aperçu de la première page

Abrégé des notes méthodologiques

Reçu : 07 août 2012
Acceptée : 24 octobre 2012
Publié en ligne : 21 février 2013
Date de sortie du numéro : mars 2013

Nombre de pages imprimées : 7
Nombre de figures : 1
Nombre de tableaux : 2

ISSN : 1015-9770 (imprimé)
eISSN : 1421-9786 (en ligne)

Pour plus d’informations : https://www.karger.com/CED

Copyright / Dosage des médicaments / Avertissement

Copyright : Tous droits réservés. Aucune partie de cette publication ne peut être traduite dans d’autres langues, reproduite ou utilisée sous quelque forme ou par quelque moyen que ce soit, électronique ou mécanique, y compris la photocopie, l’enregistrement, la microcopie ou par tout système de stockage et de récupération de l’information, sans l’autorisation écrite de l’éditeur.
Dosage des médicaments : Les auteurs et l’éditeur ont tout mis en œuvre pour que le choix des médicaments et la posologie exposés dans ce texte soient en accord avec les recommandations et la pratique actuelles au moment de la publication. Cependant, compte tenu des recherches en cours, des modifications des réglementations gouvernementales et du flux constant d’informations relatives à la pharmacothérapie et aux réactions aux médicaments, le lecteur est invité à consulter la notice de chaque médicament pour vérifier si les indications et la posologie ont été modifiées et si des mises en garde et des précautions ont été ajoutées. Ceci est particulièrement important lorsque l’agent recommandé est un médicament nouveau et/ou peu utilisé.
Disclaimer : Les déclarations, opinions et données contenues dans cette publication sont uniquement celles des auteurs individuels et des contributeurs et non celles des éditeurs et du ou des rédacteurs. L’apparition de publicités ou/et de références à des produits dans la publication ne constitue pas une garantie, un soutien ou une approbation des produits ou services annoncés ou de leur efficacité, qualité ou sécurité. L’éditeur et le(s) rédacteur(s) déclinent toute responsabilité pour tout préjudice corporel ou matériel résultant d’idées, de méthodes, d’instructions ou de produits auxquels il est fait référence dans le contenu ou les publicités.