WAS UNS BESCHÄFTIGT
Vergleichen, was nie verglichen wurde?
Üblicherweise werden Medikamente oder andere medizinische Interventionen in randomisiert-kontrollierten Studien direkt miteinander verglichen, um herauszufinden, welche am besten abschneidet.
In vielen Indikationen gibt es heute jedoch eine Vielzahl von Behandlungsoptionen. Möchten wir herausfinden, welche Intervention die beste ist, werden wir häufig feststellen, dass nicht alle verfügbaren Optionen in Studien gegeneinander getestet worden sind. Dann aber ist die Frage nach der besten Behandlung nicht direkt zu beantworten. Sind allerdings zwei Interventionen jeweils gegen eine Dritte getestet worden, könnte man durch indirekte Vergleiche die Behandlungseffekte gegeneinander abwägen.
In solch einem Fall besteht ein unter Umständen sehr komplexes Netzwerk zwischen allen möglichen Interventionen, dessen „Beziehungen“ aus direkten Vergleichen bestehen (d.h. Studien, in denen beide Interventionen eingesetzt wurden), in dem aber einige Interventionen niemals direkt gegeneinander verglichen wurden.
Die Analyse solcher Netzwerke kann über Netzwerk-Metaanalysen erfolgen. Die Methoden zu dieser Analyse wurden Ende der Neunzigerjahre entwickelt (z.B. Bucher 1997). Netzwerk-Metaanalysen schließen alle direkten Vergleiche unter den untersuchten Interventionen ein. Das grundlegende Prinzip ist dabei relativ einfach: Wenn wir wissen, dass A besser als B ist und B besser als C, dann folgt daraus, dass A auch besser sein muss als C und damit die beste Option ist. Netzwerk-Metaanalysen berücksichtigen hierbei auch die Unsicherheiten, die sich aus den Ergebnissen der einzelnen Studien ergeben und könne
Netzwerk-Metaanalysen bringen jedoch auch einige Herausforderungen mit sich, da sie wie auch „normale“ Metaanalysen auf Annahmen beruhen, die zutreffen müssen, um verlässliche Ergebnisse zu erhalten: Zunächst müssen alle zu vergleichenden Behandlungsoptionen an das Netzwerk „angeschlossen“ sein, das heißt für jede Intervention muss es zumindest einen Vergleich mit einer weiteren Intervention innerhalb des Netzwerks geben. Da viele medizinische Interventionen in den ersten Studien oft gegen Placebo oder den Behandlungsstandard getestet werden, ist das meist der Fall. Darüber hinaus müssen die eingeschlossenen Studien möglichst homogen sein, d.h. sie sollten bei vergleichbaren Patientengruppen und unter vergleichbaren Bedingungen stattgefunden haben. Dies ist für Netzwerk-Metaanalysen besonders wichtig, da ein Vergleich der berühmten „Äpfeln und Birnen“ besonders leicht zu Fehlern führt, vor allem, wenn (um im Bilde zu blieben) auch noch Erdbeeren, Kirschen und Himbeeren im Spiel sind.
Schließlich ist es für Netzwerk-Metaanalysen notwendig, dass die direkte und indirekte Evidenz konsistent sind. Das heißt, aller direkten und indirekten Evidenz muss derselbe gemeinsame („wahre“) Effekt zugrunde liegen. Doch gerade wenn die verglichenen Studien eigentlich nicht vergleichbar gewesen wären, kann diese Annahme unzutreffend sein. Dies könnte z.B. geschehen, wenn in einer Patientenpopulation Intervention A gegenüber B ungewöhnlich gut (oder schlecht) wirkt, weil in einer Studie ein Effekt hinzukam, der den Unterschied in der Wirksamkeit verändert, z.B. weil bestimmte in dieser Studie vertretene Patienten auf die Intervention besonders gut oder schlecht ansprechen. In diesem Fall wäre der Unterschied A vs. B in der betreffenden Studie ein anderer, als er evtl. in anderen Studien direkt oder indirekt beobachtet wurde. Die Voraussetzung, dass nur möglichst homogene Studien verglichen werden ist für Netzwerkmetaanalysen daher besonders wichtig.
Fazit
Netzwerk-Metaanalysen erlauben es, Interventionen indirekt zu vergleichen, auch wenn diese niemals zusammen in einer Studie gegenübergestellt wurden. Allerdings sind die Ansprüche an die Vergleichbarkeit der einbezogenen Studien ebenso hoch, wenn nicht gar höher, als bei konventionellen paarweisen Metaanalysen.
Referenzen
Bucher HC, Guyatt GH, Griffith LE, Walter SD. The results of direct and indirect treatment comparisons in meta-analysis of randomized controlled trials. J Clin Epidemiol. 1997; 50(6): 683-691