Abstract

Der Begriff ‚multivariate Analyse‘ wird oft verwendet, wenn man sich auf eine multivariable Analyse bezieht. ‚Multivariat‘ impliziert jedoch eine statistische Analyse mit mehreren Ergebnissen. Im Gegensatz dazu ist die multivariable Analyse ein statistisches Werkzeug zur Bestimmung der relativen Beiträge verschiedener Faktoren zu einem einzelnen Ereignis oder Ergebnis. Der Zweck dieses Artikels ist es, sich auf Analysen zu konzentrieren, bei denen mehrere Prädiktoren berücksichtigt werden. Eine solche Analyse steht im Gegensatz zu einer univariablen (oder „einfachen“) Analyse, bei der einzelne Prädiktorvariablen berücksichtigt werden. Wir geben einen Überblick über die Grundlagen multivariabler Analysen, welche Annahmen ihnen zugrunde liegen und wie sie interpretiert und ausgewertet werden sollten.

© 2013 S. Karger AG, Basel

Einleitung

Die Begriffe ‚multivariate Analyse‘ und ‚multivariable Analyse‘ werden in der medizinischen und gesundheitswissenschaftlichen Forschung oft synonym verwendet. Allerdings bezieht sich die multivariate Analyse auf die Analyse mehrerer Ergebnisse, während die multivariable Analyse jeweils nur ein Ergebnis behandelt.

Wie aus dem Titel ersichtlich, konzentrieren wir uns auf die multivariable und nicht auf die multivariate Analyse. Die multivariable Analyse ist ein statistisches Werkzeug zur Bestimmung der relativen Beiträge verschiedener Ursachen zu einem einzelnen Ereignis oder Ergebnis. Zum Beispiel sind einige Faktoren mit der Entwicklung von zerebrovaskulären Erkrankungen assoziiert, darunter eine familiäre Vorgeschichte von Schlaganfällen, höheres Alter, Bluthochdruck (BP), Diabetes, Übergewicht, erhöhte Cholesterinwerte, Interventionen und Zigarettenrauchen . Die multivariable Analyse ermöglicht es uns, den unabhängigen Beitrag jedes dieser Risikofaktoren (erklärende Variablen) zur Entwicklung der Krankheit (Reaktionsvariable) zu bestimmen. Mit anderen Worten, das Risiko eines Ergebnisses kann durch andere Risikovariablen oder durch deren Wechselwirkungen modifiziert werden, und diese Effekte können durch eine multivariable Analyse bewertet werden.

In diesem Beitrag führen wir den Kliniker in die verschiedenen multivariablen Analysen ein, die sich aus der Verwendung verschiedener Messskalen für das Ergebnis ergeben, und wir erläutern die Annahmen, die hinter jeder Art von multivariabler Analyse stehen. Wir diskutieren auch, wie die verschiedenen multivariablen Analysen zu interpretieren sind und fügen einige illustrative Beispiele hinzu.

Rolle von Confoundern

Die Beziehung zwischen einem Ereignis (oder einem Ergebnismaß) und einem Risikofaktor kann durch andere Variablen verwirrt sein. Confounding tritt auf, wenn die offensichtliche Assoziation zwischen einem Risikofaktor und einem Ergebnis durch die Beziehung einer dritten Variable zum Risikofaktor und zum Ergebnis beeinflusst wird (Abb. 1).

Abbildung 1

Beziehung zwischen Risikofaktor und Ergebnis (oberes Feld). Die Fähigkeit der multivariablen Analyse, gleichzeitig den unabhängigen Beitrag einer Reihe von Risikofaktoren zum Ergebnis zu bewerten, ist wichtig, wenn „Confounding“ vorliegt (unteres Feld). Confounding tritt auf, wenn die offensichtliche Assoziation zwischen einem Risikofaktor und einem Ergebnis durch die Beziehung einer dritten Variable (Confounder) zu dem Risikofaktor und dem Ergebnis beeinflusst wird.

http://www.karger.com/WebMaterial/ShowPic/169434

Eine Variable kann kein Confounder sein, wenn sie ein Schritt in der Kausalkette oder dem Pfad ist. Zum Beispiel erhöht moderater Alkoholkonsum die Serum-High-Density-Lipoprotein-Werte, die wiederum das Schlaganfallrisiko senken. In diesem Zusammenhang ist der High-Density-Lipoprotein-Spiegel ein Schritt in dieser zufälligen Kette, kein Confounder, der kontrolliert werden muss.

Eine einfache und praktische Technik zur Bewertung und Eliminierung von Confounding ist die stratifizierte Analyse. Die stratifizierte Analyse misst den Effekt eines Risikofaktors auf das Ergebnis, während eine andere Variable konstant gehalten wird.

Betrachten Sie als Beispiel die Beziehung zwischen hypertensiven Zielorganschäden und dem Schlaganfallrisiko . Anhand von Daten aus der Studie Progetto Ipertensione Umbria Monitoraggio Ambulatoriale (PIUMA) können wir veranschaulichen, wie man eine stratifizierte Analyse durchführt. Insbesondere testen wir die Assoziation der linksventrikulären (LV) Hypertrophie im EKG mit dem Risiko für zerebrovaskuläre Ereignisse. Die rohen Schlaganfallraten zwischen Hypertonikern ohne und mit LV-Hypertrophie betrugen 0,56 Ereignisse × 100 Patientenjahre in der ersten und 1,46 Ereignisse × 100 Patientenjahre in der zweiten Gruppe. In der univariablen Überlebensanalyse ist das Vorhandensein einer LV-Hypertrophie im EKG mit einem erhöhten Risiko für zukünftige zerebrovaskuläre Ereignisse verbunden (HR 2,37; 95% CI 1,69-3,32; p < 0,0001).

Der systolische Blutdruck ist jedoch ein potentieller Confounder, da er sowohl mit der LV-Hypertrophie als auch mit zerebrovaskulären Erkrankungen assoziiert ist. Daher vergleichen wir den prognostischen Einfluss der LV-Hypertrophie separat bei hypertensiven Patienten mit systolischem Blutdruck unter und über dem Median (152 mm Hg). Die rohen Schlaganfallraten und das Risiko für zerebrovaskuläre Ereignisse sind bei Hypertonikern mit LV-Hypertrophie höher als bei Patienten ohne LV-Hypertrophie, sowohl bei Probanden mit einem systolischen Blutdruck unter als auch über 152 mm Hg. Die schichtspezifischen HRs (2,84 für Patienten mit einem systolischen Blutdruck ≤152 mm Hg und 1,86 für Patienten mit einem systolischen Blutdruck >152 mm Hg) unterscheiden sich weitgehend von der für die Gesamtpopulation berechneten HR (2,34), was auf ein Confounding durch den systolischen Blutdruck hinweist.

Berücksichtigen Sie, dass andere Variablen den Zusammenhang zwischen LV-Hypertrophie und Schlaganfallrisiko beeinflussen könnten. Insbesondere können verschiedene stratifizierte Analysen zeigen, dass der Effekt der LV-Hypertrophie auf den Schlaganfall nicht nur durch den systolischen Blutdruck, sondern auch durch Alter, Geschlecht und Diabetes verwirrt ist.

Um nach zwei Variablen (z. B. systolischer BP und Geschlecht) zu stratifizieren, müssen wir den Zusammenhang zwischen LV-Hypertrophie und Schlaganfall in vier Gruppen (Männer mit systolischem BP ≤152 mm Hg, Männer mit systolischem BP >152 mm Hg, Frauen mit systolischem BP ≤152 mm Hg und Frauen mit systolischem BP >152 mm Hg). Wenn wir Diabetes als Variable zu der vorherigen stratifizierten Analyse hinzufügen, haben wir acht Gruppen.

Für jede Stratifizierungsvariable, die wir hinzufügen, erhöhen wir die Anzahl der Untergruppen, für die wir individuell beurteilen müssen, ob die Beziehung zwischen LV-Hypertrophie und Schlaganfall besteht, und wir haben möglicherweise eine unzureichende Stichprobengröße in einigen dieser Untergruppen, selbst wenn wir mit einer großen Stichprobengröße begonnen haben. Die multivariable Analyse überwindet diese Einschränkungen und ermöglicht es uns, den Einfluss mehrerer unabhängiger Variablen auf das Ergebnis gleichzeitig zu beurteilen.

Gängige Arten der multivariablen Analyse

Multivariable Analysen werden häufig in Beobachtungsstudien zur Ätiologie, Interventionsstudien (randomisiert und nicht-randomisiert), Studien zur Diagnose und Studien zur Prognose eingesetzt. Die häufigsten Arten der multivariablen Analyse, die in der klinischen Forschung verwendet werden, sind die lineare Regression, die logistische Regression und die Proportional-Hazard-Regression (Cox).

Die lineare Regression wird bei kontinuierlichen Ergebnissen (wie z. B. Blutdruck) verwendet, während die logistische Regression bei binären Ergebnissen (z. B. LV-Hypertrophie, ja vs. nein) verwendet wird. Die Proportional-Hazards-Regression (Cox-Regression) wird verwendet, wenn das Ergebnis die verstrichene Zeit bis zu einem Ereignis ist (z. B. Zeit von der Baseline-Bewertung bis zum Schlaganfallereignis).

Die multivariable lineare Regression ist eine Methode, die verwendet wird, um die lineare Beziehung zwischen einer abhängigen Variable und einer oder mehreren unabhängigen Variablen zu modellieren. Die abhängige Variable wird manchmal auch als Prädiktor und die unabhängigen Variablen als Prädiktoren bezeichnet. Die zugrundeliegende Annahme der multiplen linearen Regression ist, dass der Mittelwert des Ergebnisses linear zunimmt oder abnimmt, wenn die unabhängigen Variablen zunehmen oder abnehmen.

Eine Regressionsanalyse basiert auf der Methode der kleinsten Quadrate und das Modell wird so angepasst, dass die Summe der Quadrate der Differenzen der beobachteten und vorhergesagten Werte minimiert wird. In einem multivariablen Modell wird der Regressionskoeffizient für jede Variable geschätzt, indem das Modell an die Daten angepasst und um andere Variablen im Modell bereinigt wird. Mit anderen Worten, eine multivariable Regressionsanalyse liefert Vorhersagen, die auf dem kombinierten Vorhersageeffekt der Prädiktoren basieren.

Um die Aussagekraft eines linearen Regressionsmodells zur Vorhersage des Ergebnisses zu beurteilen, kann das adjustierte R2 angegeben werden. Der Wert von R2 reicht von 0 bis 1. Multipliziert mit 100 kann R2 als der prozentuale Anteil der Varianz im Ergebnis angesehen werden, der durch die unabhängigen Variablen erklärt wird. In einem Modell mit einem R2 nahe bei 1 sagen die abhängigen Variablen zusammen das Ergebnis genau voraus.

Eine kürzlich durchgeführte Analyse zur postmenopausalen Hypertonie aus unserer Gruppe veranschaulicht, wie man eine multivariable lineare Regressionsanalyse durchführt. Wir testeten die unabhängige Assoziation der Neutrophilenzahl, einem Marker für chronische Entzündungen, mit dem Pulsdruck (PP), einem anerkannten Marker für Atherosklerose und Risikofaktor für kardiale und zerebrovaskuläre Ereignisse.

Da die lineare Kombination von Alter, Serumglukosespiegel und EKG-Cornell-Spannung in einem multivariablen Modell (Modell 1; Tabelle 1) ein guter Prädiktor für PP war, wurde die unabhängige Assoziation der Neutrophilenzahl mit PP nach Bereinigung um den Einfluss dieser Faktoren getestet. Bemerkenswerterweise blieb in diesem multivariablen Modell (Modell 2; Tabelle 1) die Assoziation zwischen PP und der Neutrophilenzahl auch nach Adjustierung für den signifikanten Einfluss dieser Confounder signifikant.

Tabelle 1

Multivariable lineare Regressionsanalysen zur Prüfung des unabhängigen Zusammenhangs zwischen Pulsdruck und anderen klinischen Variablen

http://www.karger.com/WebMaterial/ShowPic/169436

Die binäre logistische Regression schätzt die Wahrscheinlichkeit eines Ergebnisses und modelliert, wie sich diese Wahrscheinlichkeit mit einer Änderung der Prädiktorvariablen ändert. Die Grundannahme ist, dass jede Erhöhung eines Prädiktors um eine Einheit die Wahrscheinlichkeit des Ergebnisses um einen bestimmten Faktor vervielfacht und dass der Effekt mehrerer Variablen das multiplikative Produkt ihrer individuellen Effekte ist. Die logistische Funktion erzeugt eine Wahrscheinlichkeit des Ergebnisses, die durch 0 und 1 begrenzt ist. Das zentrale mathematische Konzept, das der logistischen Regression zugrunde liegt, ist der Logit (der natürliche Logarithmus eines Odds Ratio). Das einfachste Beispiel für einen Logit ergibt sich aus einer 2 × 2 Kontingenztabelle.

Betrachten wir die gleichen Daten aus der PIUMA-Studie, die den Zusammenhang zwischen LV-Hypertrophie und Schlaganfallrisiko untersucht. Die Verteilung einer binären Ergebnisvariable (Schlaganfall, ja vs. nein) wird mit einer dichotomen Prädiktorvariable (LV-Hypertrophie, ja vs. nein) gepaart. Die Ergebnisse deuten darauf hin, dass Patienten mit LV-Hypertrophie bei der Erstuntersuchung eine 2,58-mal höhere Wahrscheinlichkeit haben, einen Schlaganfall zu entwickeln, als Patienten ohne LV-Hypertrophie. Die Odds Ratio wird aus zwei Odds und ihrem natürlichen Logarithmus, dem Logit, abgeleitet, was dem Wert 0,95 entspricht. Der Wert von 0,95 ist der Regressionskoeffizient der logistischen Regression. Der Antilogarithmus des Regressionskoeffizienten ist gleich dem Odds Ratio für eine Erhöhung des Prädiktors um eine Einheit. Bei kontinuierlichen erklärenden Variablen können die Einheiten der Veränderung angegeben werden (z. B. 10-mm-Hg-Anstieg des Blutdrucks), für die das Odds Ratio geschätzt wird.

Da der systolische Blutdruck ein Confounder für die Assoziation sowohl mit der LV-Hypertrophie als auch mit zerebrovaskulären Erkrankungen ist, modellieren wir eine multivariable logistische Regression, die LV-Hypertrophie und systolischen Blutdruck als Prädiktoren einschließt. Nach Adjustierung für den signifikanten Einfluss des systolischen Blutdrucks ist das Vorhandensein einer LV-Hypertrophie immer noch mit einem erhöhten Schlaganfallrisiko assoziiert (OR 1,98, 95% CI 1,37-2,86; p < 0,0001).

Proportionale Hazard-Modelle gehen davon aus, dass das Verhältnis der Hazards für Probanden mit und ohne einen bestimmten Risikofaktor über den gesamten Studienzeitraum konstant ist. Dies wird als Proportionalitätsannahme bezeichnet und ist das Hauptanliegen bei der Anpassung eines Cox-Modells. Diese Annahme impliziert, dass sich die Überlebensfunktionen nicht kreuzen und die erklärenden Variablen nur auf das Hazard Ratio wirken. Ein Vorteil der Proportional-Hazards-Analyse ist, dass sie Probanden mit unterschiedlich langer Nachbeobachtungszeit einschließt. Ein Proband, der das interessierende Ergebnis bis zum Ende der Studie nicht erlebt, wird als zensiert betrachtet. Der Antilogarithmus des Proportional-Hazards-Regressionskoeffizienten entspricht dem relativen Risiko für einen Anstieg des Prädiktors um eine Einheit. Im Falle von kontinuierlichen erklärenden Variablen erlaubt es die meiste moderne Software, die Einheiten der Veränderung (z.B. 10-mm Hg Anstieg des Blutdrucks) zu spezifizieren, für die die angepasste Hazard Ratio geschätzt wird.

Nehmen wir zum Beispiel eine Studie über den Zusammenhang zwischen der Regression der LV-Hypertrophie und dem Schlaganfallrisiko . Die Personen-Zeit-Analyse zeigte, dass hypertensive Probanden mit fehlender Regression oder Neuentwicklung einer LV-Hypertrophie eine deutlich erhöhte Schlaganfall-Rate hatten im Vergleich zu Probanden, die nie eine LV-Hypertrophie entwickelten oder eine Regression der LV-Hypertrophie aufwiesen (1,16 vs. 0,25 × 100 Patienten pro Jahr; p = 0,0001).

Der unabhängige Effekt von seriellen Veränderungen der LV-Hypertrophie wurde mit einem multivariablen Cox-Modell getestet. Andere getestete Confounder waren ambulanter systolischer 24-Stunden-Blutdruck, Alter, Geschlecht (Männer, Frauen), Body-Mass-Index, Diabetes (nein, ja), Gesamtcholesterin, Serumtriglyceride, Familienanamnese kardiovaskulärer Erkrankungen (nein, ja), Rauchgewohnheiten, Art der antihypertensiven Behandlung bei der Nachuntersuchung und Statinbehandlung bei der Nachuntersuchung. In der multivariablen Analyse war das Risiko für zerebrovaskuläre Ereignisse in der Untergruppe mit fehlender Regression oder Neuentwicklung der LV-Hypertrophie 2,8-mal höher (95% CI 1,18-6,69) als in der Untergruppe mit LV-Hypertrophie-Regression oder anhaltend normaler LV-Masse. Dieser Effekt war unabhängig vom Alter und dem systolischen 24-Stunden-Blutdruck bei der Nachuntersuchung (Tabelle 2).

Tabelle 2

Independente Prädiktoren für zerebrovaskuläre Ereignisse in der PIUMA-Studie

http://www.karger.com/WebMaterial/ShowPic/169435

Cox‘ semiparametrisches Modell, weil es keine Verteilung für den Baseline-Hazard annimmt, lässt auch zeitabhängige erklärende Variablen zu. Eine erklärende Variable ist zeitabhängig, wenn sich ihr Wert im Laufe der Zeit ändert. Sie können z. B. eine zeitabhängige Variable verwenden, um den Effekt von Probanden zu modellieren, die die Behandlungsgruppe oder den Expositionsstatus wechseln. Oder Sie können zeitabhängige Variablen wie z. B. den Blutdruck einbeziehen, die sich im Verlauf einer Studie mit der Zeit verändern.

Wie viele Variablen in einem Modell?

Ein häufiges Problem bei der Regressionsanalyse ist die Variablenauswahl. Bei der Untersuchung des Effekts eines Risikofaktors können unterschiedliche Anpassungen für andere Faktoren zu unterschiedlichen oder sogar verwirrenden Schlussfolgerungen führen. Eine Methode der Variablenauswahl ist eine Möglichkeit, einen bestimmten Satz von Prädiktoren für die Verwendung in einem Regressionsmodell auszuwählen, oder sie kann ein Versuch sein, ein „bestes“ Modell zu finden, wenn es mehrere Kandidatenprädiktoren gibt. Die Entscheidung darüber, was angepasst werden soll, sollte von einer theoretischen oder biologischen Beziehung zwischen den verschiedenen Faktoren und dem Ergebnis a priori geleitet werden. Umgekehrt wird die Anzahl der Variablen in einem Modell oft durch „bivariates Screening“ oder durch die Verwendung automatisierter Variablenauswahlverfahren wie Vorwärts-, Rückwärts- oder schrittweise Auswahl ermittelt. Beim bivariaten Screening werden zunächst alle bivariaten Beziehungen mit der abhängigen Variable betrachtet und alle, die signifikant sind, in ein Hauptmodell aufgenommen. Leider ist dies in der Regel unzureichend. Aufgrund von Korrelationen zwischen den erklärenden Variablen hat eine einzelne Variable möglicherweise nur eine geringe Vorhersagekraft, insbesondere wenn die Anzahl der Prädiktoren groß ist. Automatisierte Verfahren bestimmen die Reihenfolge, in der die Prädiktorvariablen in das Modell eingegeben werden, nach statistischen Kriterien. Bei der Vorwärtsselektion werden die Variablen nacheinander in einer Reihenfolge in das Modell eingegeben, die durch die Stärke ihrer Assoziation mit der Kriteriumsvariable bestimmt wird. Der Effekt des Hinzufügens jeder einzelnen Variable wird bei der Eingabe bewertet, und Variablen, die nicht signifikant zum Erfolg des Modells beitragen, werden ausgeschlossen. Bei der Rückwärtsauswahl werden alle Prädiktorvariablen in das Modell eingegeben. Die schwächste Prädiktorvariable wird dann entfernt und die Regression wird neu berechnet. Wenn dadurch das Modell signifikant geschwächt wird, wird die Prädiktorvariable erneut eingegeben, andernfalls wird sie gelöscht. Dieser Vorgang wird dann so lange wiederholt, bis nur noch nützliche Prädiktorvariablen im Modell verbleiben. Bei der schrittweisen Auswahl wird abwechselnd vorwärts und rückwärts vorgegangen, d. h. es werden Variablen hinzugefügt und entfernt, die die statistischen Kriterien für das Hinzufügen oder Entfernen erfüllen, bis ein stabiler Satz von Variablen erreicht ist. Wenn die hinzugefügte Variable zum Modell beiträgt, wird sie beibehalten, aber alle anderen Variablen im Modell werden dann erneut getestet, um zu sehen, ob sie noch zum Erfolg des Modells beitragen. Wenn sie nicht mehr signifikant beitragen, werden sie entfernt. Mit dieser Methode wird theoretisch der kleinstmögliche Satz an Prädiktorvariablen definiert, der in das endgültige Modell aufgenommen wird.

Die Ergebnisse der schrittweisen Regression reagieren empfindlich auf Verstöße gegen die der Regression zugrunde liegenden Annahmen. Allgemeiner ausgedrückt, kann die wahllose Verwendung von Verfahren zur Variablenauswahl zu Modellen mit verzerrter Variablenauswahl, unzuverlässigen Koeffizienten und ungenauer Vorhersage führen.

Obwohl es kaum einen Konsens über die besten Methoden zur Variablenauswahl gibt, wird von der Verwendung einiger Methoden allgemein abgeraten, wie z. B. der Einbeziehung oder dem Ausschluss von Variablen auf der Grundlage einer univariablen Analyse. Wir schlagen einfache Faustregeln für die Auswahl von erklärenden Variablen vor: Schließen Sie eine ausreichende Anzahl von Prädiktoren ein, um das Modell für theoretische und praktische Zwecke nützlich zu machen und eine gute Vorhersagekraft zu erhalten. Schließen Sie Variablen nicht allein aufgrund eines nominell nicht signifikanten Zusammenhangs aus oder weil sie, möglicherweise zufällig, in der jeweiligen Stichprobe nicht prädiktiv sind. Das Hinzufügen von Variablen mit geringer Vorhersagekraft hat Nachteile. Redundante Variablen verbessern die Werte der Modellanpassung in der Regel nicht, da sie nicht zur Gesamtvorhersage beitragen. Um Kollinearität zu vermeiden, ist es hilfreich, wenn die erklärenden Variablen mit der Antwortvariablen korreliert sind, aber keine hohe Korrelation zwischen ihnen besteht.

Die „Stoppregel“ für die Aufnahme oder den Ausschluss von Prädiktoren ist eine brennende Frage bei der Modellauswahl. Neben dem Standard-Signifikanzniveau zum Testen von Hypothesen (α = 0,05) ist auch die Verwendung des Akaike’s Information Criterion (AIC) und des Bayesian Information Criterion (BIC) sehr beliebt. AIC und BIC vergleichen Modelle auf der Basis ihrer Anpassung an die Daten, bestrafen aber die Modellkomplexität, d. h. die Anzahl der Freiheitsgrade. AIC erfordert, dass die Zunahme des Modells χ2 größer sein muss als das Zweifache der Freiheitsgrade. Betrachtet man z. B. einen Prädiktor mit 1 Freiheitsgrad, wie z. B. das Geschlecht, bedeutet dies, dass der Modell χ2 größer als 2 sein muss. BIC bestraft die Modellanpassung so, dass der Modell χ2 die Anzahl der Prädiktoren multipliziert mit dem Logarithmus des effektiven Stichprobenumfangs, z. B. die Anzahl der Ereignisse in einem Cox-Überlebensmodell, überschreiten muss. Modelle mit niedrigerem AIC und/oder BIC werden in der Regel bevorzugt.

Schließlich können einige Hinweise zur Anzahl der Kandidatenprädiktoren gegeben werden, die im Verhältnis zum Stichprobenumfang zuverlässig untersucht werden können. Eine bekannte Faustregel ist die 1-in-10- oder 1-in-20-Regel . Für lineare Modelle legt diese Regel nahe, dass 1 Kandidatenprädiktor für jeweils 10 oder 20 Patienten untersucht werden kann. Für logistische oder Cox-Modelle ist die 1:10-Regel eher oberflächlich, es sei denn, es gibt einen vollständig vordefinierten Satz von Prädiktoren. Außerdem muss man bedenken, dass die Power und Validität einer multivariablen Überlebensanalyse eher mit der Anzahl der Ergebnisereignisse im Vergleich zur Anzahl der Kandidatenprädiktoren (d. h. der effektiven Stichprobengröße) als mit der Anzahl der Teilnehmer (Gesamtstichprobengröße) zusammenhängt. Wir schlagen die 1:20-Regel für diese Modelle mit einem begrenzten Satz von vorspezifizierten Prädiktoren und die 1:50-Regel für die schrittweise Auswahl vor. In einer Studie mit 60 Patienten, die ein Outcome-Ereignis (60 Ereignisse) von 3.000 Exponierten erfahren, könnten also nur 3 präspezifizierte Prädiktoren gemäß der 1-in-20-Regel zuverlässig untersucht werden. Wenn die Regel verletzt wird, ist die Anzahl der Kandidatenprädiktoren im Allgemeinen zu groß für den Datensatz, und es kommt fast zwangsläufig zu einem Overfitting.

Overfitting

Was ist Overfitting? Das Prinzip der Parsimonie oder Occams Rasiermesser schreibt vor, Modelle zu verwenden, die alles enthalten, was für die Modellierung notwendig ist, aber nicht mehr. Wenn ein einfacheres Modell statistisch nicht von einem komplexeren Modell zu unterscheiden ist, sollten wir aufgrund der Parsimonie das einfachere Modell vorziehen. Wenn z. B. ein Regressionsmodell mit 3 Prädiktoren ausreicht, um das Ergebnis zu erklären, dann sollten nicht mehr als diese Prädiktoren verwendet werden. Wenn außerdem die Beziehung durch eine lineare Funktion in diesen Prädiktoren erfasst werden kann, dann verstößt die Verwendung eines quadratischen Terms gegen die Parsimonie. Überanpassung ist die Verwendung von Modellen oder Prozeduren, die die Parsimonie verletzen, d. h. die mehr Terme enthalten als notwendig sind oder kompliziertere Ansätze verwenden als notwendig sind.

Goodness of Fit

Ein wichtiger Aspekt der multivariablen Regressionsmodellierung ist, wie gut das Modell mit den Daten übereinstimmt, d. h. die Anpassungsgüte des Modells. Fachkundige Autoren weisen darauf hin, dass die Anpassungsgüte (goodness of fit) zwar grundlegend für die Beurteilung der Validität von Regressionsmodellen ist, aber in veröffentlichten Artikeln nur spärlich angegeben wird. Zum Beispiel wird die Anpassungsgüte von logistischen Modellen üblicherweise wie folgt evaluiert: Erstens werden globale Maße der Modellanpassung verwendet, wie z. B. Likelihood-Statistiken, und zweitens werden einzelne Beobachtungen evaluiert, um zu sehen, ob sie problematisch für das Regressionsmodell sind. Die Residualanalyse ist eine effektive Methode, um Ausreißer oder übermäßig einflussreiche Beobachtungen zu erkennen. Große Residuen deuten darauf hin, dass das Modell nicht zu den Daten passt. Leider werden in medizinischen Zeitschriftenartikeln selten, wenn überhaupt, Residualdiagramme dargestellt.

Interaktionen

Nach Concato et al. liegt eine Interaktion zwischen unabhängigen Variablen vor, wenn der Einfluss einer Variable auf das Ergebnisereignis von der Höhe einer anderen Variable abhängt. Multivariable Methoden bewerten Interaktionen nicht automatisch, diese können durch explizites Hinzufügen von Interaktionstermen zum Modell bewertet werden. Wenn ein Interaktionseffekt vorhanden ist, hängt der Einfluss einer Variable vom Niveau der anderen Variable ab und die Interpretation ist möglicherweise nicht einfach. Zum Beispiel testet eine Interventionsstudie die Effekte einer Behandlung auf ein Ergebnismaß. Die Behandlungsvariable besteht aus zwei Gruppen, Behandlung und Kontrolle. Das Auftreten des Ergebnisses ist in der Behandlungsgruppe geringer als in der Kontrollgruppe. Aufgrund früherer Studien stellen wir jedoch die Hypothese auf, dass der Behandlungseffekt für Männer und Frauen möglicherweise nicht gleich ist, d.h. gibt es einen Unterschied in der Behandlung in Abhängigkeit vom Geschlecht? Dies ist eine Frage der Interaktion, und um sie zu adressieren, würden wir einen spezifischen Interaktionsterm (Behandlung nach Geschlecht) in das Modell aufnehmen. Allerdings kann die Einbeziehung von Interaktionen, wenn die Studie nicht speziell darauf ausgelegt war, diese zu erfassen, die Schätzung und Interpretation der anderen Effekte im Modell erschweren. Wenn also eine Studie nicht speziell für die Erfassung von Interaktionen konzipiert wurde und es a priori keinen Grund gibt, eine Interaktion zu erwarten, oder wenn Interaktionsterme nur erfasst werden, weil die statistische Software es einfach macht, und tatsächlich keine Interaktion gefunden wird, kann es ratsam sein, das Modell ohne den Interaktionsterm anzupassen, da es keine universelle Regel gibt, die geeignete Tests für Interaktionen unter allen Umständen vorschreibt.

Schlussfolgerungen

Unser Ziel war es, den klinischen Lesern, die sich oft nicht mit Statistik auskennen, eine Einführung in die multivariable Analyse zu geben, indem wir praktische Vorschläge und eine nicht-technische Sprache verwendeten. Insbesondere haben wir die Grundlagen der in der klinischen Forschung am häufigsten verwendeten multivariablen Modelle besprochen, wie sie zusammengesetzt sind und wie sie interpretiert und bewertet werden können.

  1. Katz MH: Multivariable Analysis: A Practical Guide for Clinicians and Public Health Researchers. London, Cambridge University Press, 2011.
  2. Whisnant JP: Modeling of risk factors for ischemic stroke. The Willis Lecture. Stroke 1997;28:1840-1844.
  3. Verdecchia P, Angeli F, Achilli P, Castellani C, Broccatelli A, Gattobigio R, et al: Echocardiographic left ventricular hypertrophy in hypertension: marker for future events or mediator of events? Curr Opin Cardiol 2007;22:329-334.
    Externe Ressourcen

    • Pubmed/Medline (NLM)
    • Crossref (DOI)

  4. Verdecchia P, Angeli F, Gattobigio R, Sardone M, Pede S, Reboldi GP: Rückbildung der linksventrikulären Hypertrophie und Prävention von Schlaganfällen bei Hypertonikern. Am J Hypertens 2006;19:493-499.
    Externe Ressourcen

    • Pubmed/Medline (NLM)
    • Crossref (DOI)

  5. Verdecchia P, Angeli F, Gattobigio R, Guerrieri M, Benemio G, Porcellati C: Erklärt die Senkung des systolischen Blutdrucks allein die Regression der linksventrikulären Hypertrophie? J Hum Hypertens 2004;18(suppl 2):S23-S28.
    Externe Ressourcen

    • Pubmed/Medline (NLM)
    • Crossref (DOI)

  6. Katz MH: Multivariable analysis: a primer for readers of medical research. Ann Intern Med 2003;138:644-650.
    Externe Ressourcen

    • Pubmed/Medline (NLM)

  7. Angeli F, Angeli E, Ambrosio G, Mazzotta G, Cavallini C, Reboldi G, et al: Neutrophilenzahl und ambulanter Pulsdruck als Prädiktoren für kardiovaskuläre unerwünschte Ereignisse bei postmenopausalen Frauen mit Hypertonie. Am J Hypertens 2011;24:591-598.
    Externe Ressourcen

    • Pubmed/Medline (NLM)
    • Crossref (DOI)

  8. Harrell FE Jr, Lee KL, Mark DB: Multivariable prognostische Modelle: Probleme bei der Entwicklung von Modellen, der Bewertung von Annahmen und Angemessenheit sowie der Messung und Reduzierung von Fehlern. Stat Med 1996;15:361-387.
    Externe Ressourcen

    • Pubmed/Medline (NLM)
    • Crossref (DOI)
    • Cambridge Scientific Abstracts (CSA)
    • ISI Web of Science

  9. Rao SR, Schoenfeld DA: Survival Methods. Circulation 2007;115:109-113.
    Externe Ressourcen

    • Pubmed/Medline (NLM)
    • Crossref (DOI)

  10. Kleinbaum DG, Klein M: Survival Analysis: A Self-Learning Text, ed 2. New York, Springer, 2005.
  11. Greenland S: Modeling and variable selection in epidemiologic analysis. Am J Public Health 1989;79:340-349.
  12. Harrell FE: Regression Modeling Strategies: with Applications to Linear Models, Logistic Regression, and Survival Analysis. New York, Springer, 2001.
  13. Steyerberg EW: Clinical Prediction Models: A Practical Approach to Development, Validation, and Updating. New York, Springer, 2009.
  14. LaValley MP: Logistic regression. Circulation 2008;117:2395-2399.
    Externe Ressourcen

    • Pubmed/Medline (NLM)
    • Crossref (DOI)

  15. Bagley SC, White H, Golomb BA: Logistic regression in the medical literature: standards for use and reporting, with particular attention to one medical domain. J Clin Epidemiol 2001;54:979-985.
    Externe Ressourcen

    • Pubmed/Medline (NLM)
    • Crossref (DOI)
    • Chemical Abstracts Service (CAS)
    • Cambridge Scientific Abstracts (CSA)

  16. Concato J, Feinstein AR, Holford TR: Das Risiko der Risikobestimmung mit multivariablen Modellen. Ann Intern Med 1993;118:201-210.
    Externe Ressourcen

    • Pubmed/Medline (NLM)
    • Chemical Abstracts Service (CAS)
    • ISI Web of Science

Autoren-Kontakte

Gianpaolo Reboldi, MD, PhD, MSc

Department of Internal Medicine

University of Perugia

IT-06126 Perugia (Italy)

E-.Mail [email protected]

Artikel / Publikationsdetails

Erste-Seiten-Vorschau

Abstract of Methodological Notes

Received: August 07, 2012
Accepted: October 24, 2012
Published online: February 21, 2013
Erscheinungsdatum: März 2013

Anzahl der Druckseiten: 7
Anzahl der Abbildungen: 1
Anzahl der Tabellen: 2

ISSN: 1015-9770 (Print)
eISSN: 1421-9786 (Online)

Für weitere Informationen: https://www.karger.com/CED

Copyright / Arzneimitteldosierung / Haftungsausschluss

Copyright: Alle Rechte vorbehalten. Kein Teil dieser Publikation darf ohne schriftliche Genehmigung des Herausgebers in andere Sprachen übersetzt, vervielfältigt oder in irgendeiner Form oder mit irgendwelchen Mitteln, elektronisch oder mechanisch, einschließlich Fotokopieren, Aufzeichnen, Mikrokopieren oder durch ein Informationsspeicher- und -abrufsystem, verwendet werden.
Dosierung von Medikamenten: Die Autoren und der Verlag haben alle Anstrengungen unternommen, um sicherzustellen, dass die in diesem Text dargestellte Medikamentenauswahl und -dosierung den aktuellen Empfehlungen und der Praxis zum Zeitpunkt der Veröffentlichung entspricht. In Anbetracht der laufenden Forschung, der Änderungen staatlicher Vorschriften und des ständigen Informationsflusses in Bezug auf Arzneimitteltherapie und Arzneimittelreaktionen wird der Leser jedoch dringend gebeten, die Packungsbeilage jedes Arzneimittels auf etwaige Änderungen der Indikationen und Dosierungen sowie auf zusätzliche Warnhinweise und Vorsichtsmaßnahmen zu überprüfen. Dies ist besonders wichtig, wenn es sich bei dem empfohlenen Mittel um ein neues und/oder selten verwendetes Medikament handelt.
Haftungsausschluss: Die in dieser Publikation enthaltenen Aussagen, Meinungen und Daten sind ausschließlich die der einzelnen Autoren und Mitwirkenden und nicht die des Herausgebers und der Redaktion(en). Das Erscheinen von Anzeigen oder/und Produkthinweisen in der Publikation stellt keine Garantie, Befürwortung oder Genehmigung der beworbenen Produkte oder Dienstleistungen oder ihrer Wirksamkeit, Qualität oder Sicherheit dar. Der Herausgeber und der/die Redakteur(e) lehnen jede Verantwortung für Personen- oder Sachschäden ab, die aus Ideen, Methoden, Anweisungen oder Produkten resultieren, auf die im Inhalt oder in den Anzeigen Bezug genommen wird.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.