« BR-alpha und „Die Geschichte der Homöopathie“. Neue 6-teilige Reihe vom 26. August bis 30. September 2010 | Home | „Organon 2010“: 200 Jahre Grundlagen der Homöopathie – Veranstaltungsreihe des DZVhÄ (? Grundlagenforschung) »
Statistische Medizin in der Kritik: „Je besser die Studie – desto schlechter das Ergebnis“
Von Georg Ivanovas | 30.August 2010
„Große Zahlen liefern ein statistisch gesehen genaues Ergebnis, von dem man nicht weiß, auf wen es zutrifft. Kleine Zahlen liefern ein statistisch gesehen unbrauchbares Ergebnis, von dem man aber besser weiß, auf wen es zutrifft. Schwer zu entscheiden, welche dieser Arten von Unwissen die nutzlosere ist.“ (1) Diese Aussage stammt von keinem homöopathischen Nobody sondern von Prof. Dr. Hans-Peter Beck-Bornholdt und PD Dr. Hans-Hermann Dubben vom Universitätsklinikum Hamburg-Eppendorf. Beide haben erhebliche Zweifel an der Aussagekraft unserer derzeitigen statistischen Medizin. Man könnte sagen, sie berechnen nicht nur Statistiken. Sie fragen sich auch, wie aussagekräftig diese Berechnungen eigentlich sind.
Kritik ist nicht neu
Obgleich ein solches Nachdenken eher ungewöhnlich ist, so ist es nicht neu. Bereits vor etwa 150 Jahren formulierte Claude Bernard, einer der Väter der wissenschaftlichen Medizin, in ganz ähnlicher Weise:
„Es heißt, dass der Zufall so bedeutsam für statistische Fehler ist, dass unsere Schlussfolgerungen nur auf großen Zahlen basieren sollten. Aber Ärzte haben nichts mit dem zu tun, was man das Gesetzt der großen Zahlen nennt, ein Gesetz, das nach dem Ausspruch eines großen Mathematikers, im Generellen immer richtig und Speziellen immer falsch ist.“ (2)
Beispielsweise machte sich Bernard über einen Kollegen lustig, der auf den Toiletten in Postkutschen-Raststätten Urin sammelte, um einen durchschnittlichen Urin eines Europäers zu erhalten. Bernards Kritikpunkt war, dass ein solcher Urin nicht aussagekräftig sei, weil er in dieser Form in der Realität nicht vorkomme. Heute würde man sagen: Ein solches Ergebnis hat keine semantische Relevanz. Das klassische Beispiel der Statistik für dieses Phänomen ist die Geburtenrate, die bei einer deutschen Frau 1,37 beträgt. Eine solche Zahl mag vielleicht für die Planung der Kindergärten eine gewisse Bedeutung haben. Sie ist jedoch bedeutungslos für die einzelne Frau, da sie niemals 1,37 Kinder gebären wird.
Die Verhältnisse in der Medizin sind absolut vergleichbar. Zwar geben Statistiken einen gewissen Hinweis darauf, was bei einem bestimmten Patienten in etwa passieren könnte. Sie sagen aber mit „an Wahrscheinlichkeit grenzender Sicherheit“ (3) nichts darüber aus, wie ein realer Patienten reagieren wird.
Ich habe dieses Phänomen als Praktiker-Paradox bezeichnet. Dieser Begriff meint, dass ein praktizierender Arzt Wissen über physiologische und biochemische Einzelvorgänge und Wissen über Kollektive besitzt, sich aber einem einzelnen Patienten gegenüber befindet, für den es letztlich keinerlei Evidenz gibt.
Zur Illustration folgende Studie:
Kovacs et al. führten eine randomisierte Doppelblindstudie über den Einfluss der Matratzenhärte bei chronischem Rückenschmerz durch (4). Die Matratzenhärte wird bei vielen Patienten mit chronischem Rückenschmerz als wesentlicher Faktor betrachtet. Die Studie bewies, dass im Durchschnitt die mittelharte Matratze zu den wenigsten Beschwerden führte. Sollen nun alle Patienten auf einer mittelharten Matratze schlafen? Auch die 10 Prozent, die vermehrt Schmerzen hatten? Der Statistik zuliebe, sozusagen. Oder auch diejenigen, die auf härteren und weicheren Matratzen bessere Ergebnisse hatten?
Wir müssen also den Patienten beobachten und das therapeutische Schema anhand unserer Beobachtung anpassen. Aber hier versagt unsere statistische Medizin vollständig. Es gibt keine Methode, individuelle Reaktionen des Patienten zu beurteilen, außer dem gesunden Menschenverstand, der leider zu oft eher zu ungesunden Resultaten führt. Dieser völlige Mangel an einer Methodik zur individuellen Beurteilung und Prognostik ist ein wesentliches Charakteristikum der derzeitigen statistischen Medizin.
.
Lassen sich „Tailored Medicine“ und „statistische Evidenz“ vereinbaren?
Sobald wir nämlich unsere Therapie dem Patienten entsprechend anpassen, was man derzeit als ‚tailored medicine’ bezeichnet, haben wir den sicheren Boden der ‚statistischen Evidenz’ verlassen. Das heißt, je individueller wir eine Therapie gestalten, desto sicherer wird sie ein gutes Ergebnis aufweisen. Aber desto sicherer wird sie aber auch zu einer wenig verlässlichen Statistik führen. Das ist es, was Beck-Bornholdt und Dubben sagen. Das ist es auch, was alle Studien zur Homöopathie und Akupunktur zeigen: Je maßgeschneiderter und folglich statistisch unzuverlässig eine Studie ist, desto sicherer wird sie ein positives Ergebnis zeigen. Je statistisch zuverlässiger eine Studie ist und folglich für einen realen Patienten wenig relevant, desto sicherer werden Homöopathie und Akupunktur nicht besser abschneiden als ein Placebo. Dennoch werden beide Verfahren besser wirken als eine orthodoxe medikamentöse Standardtherapie. Dieses Wirksamkeits-Pradox gilt es an anderer Stelle genauer zu untersuchen.
Hier soll das Gesagte nochmals mit einer anderen Studie illustriert werden: In einer Studie zu Rückenschmerzen wurde eine standardisierte Physiotherapie (Massage, Kälte- und Wärmeapplikationen usw.) mit der standardisierten Empfehlung ‚weiter aktiv zu bleiben’ verglichen (5). Dieses Studiendesign mag zwar den statistischen Erfordernissen entsprechen. Aber wer nur ein wenig Ahnung von Physiotherapie hat, weiß, dass das, was einer Person nutzt, einer anderen schaden kann. Physiotherapeutische Anwendungen müssen sehr individuell verordnet und nach der Reaktion des Patienten angepasst werden. Es ist also nicht erstaunlich, dass die Physiotherapie in der obigen Studie kein besseres Ergebnis erbrachte als die Empfehlung, aktiv zu bleiben.
Physiotherapie muss, wie jede regulative Therapie maßgeschneidert sein. Aber das mögen die Statistiker gar nicht. Und genau damit haben wir in der Homöopathie zu kämpfen, denn es scheint irgendwie nicht möglich zu sein, dieses Problem den Statistikern und EBM‘lern verständlich zu machen.
Im Grunde gilt: Je statistisch solider eine Studie ist, desto schlechter ist die praktizierte Medizin. Das ist besonders auffällig bei regulativen Verfahren. Es trifft aber auch bei jeder anderen Form der klassischen medikamentösen Therapie zu.
Ich denke, es ist an der Zeit, sich ein wenig mehr über die Reaktionsmuster und –fähigkeiten der Patienten Gedanken zu machen. Dazu muss man auch die Semantik der Statistiken genauer unter die Lupe zu nehmen. Und genau hier könnte die orthodoxe Medizin einiges von den regulativen Therapien lernen.
.
(1) Beck-Bornholdt HP, Dubben HH (2003): Der Schein der Weisen. Rowohlt, Reinbek bei Hamburg, S. 218
(2) Bernard (1865): Introduction à l’étude de la médecine expérimentale, meine Übersetzung nach der englischen Fassung An Introduction to the Study of Experimental Medicine. Dover, New York 1957, S. 158
(3) Dubben HH, Beck-Bornholdt HP (2005): Mit an Wahrscheinlichkeit grenzender Sicherheit, Fischer, Reinbek bei Hamburg
(4) Kovacs FM, Abraira V, Peña A, Martín-Rodríguez JG, Sánchez-Vera M, Ferrer E, Ruano D, Guillén P, Gestoso M, Muriel A, Zamora J, del Real MTG, Mufraggi N (2003): Effect of firmness of mattress on chronic non-specific low-back pain: randomised, double-blind, controlled, multicentre trial. Lancet 362: 1599-604
(5) Frost H, Lamb SE, Doll HA, Carver PT, Stewart-Brown S (2004): Randomised controlled trial of physiotherapy compared with advice for low back pain, BMJ 329:708
.
Über Georg Ivanovas:
Jahrgang 1953, russisch-deutscher Abstammung, Abitur 1972, Studium der Medizin in Müchen und Bonn, 1979 Approbation, klinische Tätigkeit in Chirurgie, Gynäkologie und Rheumatologie, Zusatztitel Balneologie, Naturheilverfahren, Homöopathie, gestalttherapeutische Ausbildung, homöopathische Allgemeinpraxis in Bad Wurzach ab 1989-1992, seit 1993 homöopathische Allgemeinpraxis in Heraklion/Kreta, ab 2000 Forschung zur Systemtheorie in der Medizin an der Universität Heraklion, 2010 PhD mit dem Titel „Contributions of Systems – Theory to the Understanding of Therapy and Health“
.
Links zum Thema:
EBM-Kritik: Prof. Harald Walach und das Problem mit der „Integrativen Medizin“
.
.
Themen: DZVhÄ Homöopathie.Blog | 34 Kommentare »
31st.August 2010 um 12:48
Der Kern Ihrer Botschaft scheint mir in diesen zwei Behauptungen zu liegen:
je individueller wir eine Therapie gestalten, desto sicherer wird sie ein gutes Ergebnis aufweisen. Aber desto sicherer wird sie aber auch zu einer wenig verlässlichen Statistik führen.
Für beide Behauptungen sehe ich in Ihrem Artikel keine Belege. Wieso z.B. sollte eine individuelle Therapie zu einer „wenig verlässlichen Statistik“ führen? Wenn man in Ihrem obigen Beispiel die standardisierte Physiotherapie gegen individualisierte Physiotherapie austauscht, wird dann „die Statistik“ der Studie weniger verlässlich?
1st.September 2010 um 13:12
Sehr geehrter Herr Berger,
vielen Dank für Ihre Rückmeldung. Sie erlaubt mir, das Thema ein wenig zu präzisieren.
Es sind nicht nur zwei sondern ein ganzes Bündel von Argumenten, die man, wenn man der Sache gerecht werden will, ein wenig aufdröseln muß.
1. Da ist zunächst die Formulierung von Dubben und Beck-Bornholdt, daß Statistiken entweder zuverlässig sind oder eine individuelle (semantische) Relevanz haben. Ich weiß nicht, ob Sie gegen diese Aussage bereits einen Vorbehalt haben.
2. Diese Aussage habe ich mit dem Matratzen-Beispiel konkretisiert: Soll man etwas dann fortführen, wenn es dem Patienten schadet oder zumindest nichts nützt, obgleich es einem Kollektiv zu, sagen wir mal, 20% nutzt. Das wäre eine NNT von 5 (number needed to treat). Das ist übrigens ein Prozentsatz, der in der Regel unterschritten wird.
Für eine weitere Diskussion wäre es sehr förderlich, wenn Sie zu dieser Frage Stellung nehmen würden.
3. Eine standardisierte Physiotherapie ist immer schlecht, weil das, was dem einen nützt, dem anderen durchaus schaden kann. Das ist in der Physiotherapie noch viel ausgeprägter als bei den Matratzen. Das Ergebnis einer schematischen Physiotherapie hat so wenig Relevanz wie der ‚europäische Urin‘ gegen den sich Bernard gewehrt hat.
4. Man kann in einer solchen Studie eine standardisierte nicht durch eine individualisierte Physiotherapie ersetzen.
Wenn man bei manchen Patienten Kälte- statt Wärmeapplikationen verwendet, bei machen nahe dem Schmerzfokus massiert, bei anderen nicht usw, dann hat man so viele Faktoren, daß es keine solide Statistik mehr gibt, obgleich das in der Hand des erfahrenen Therapeuten die beste Therapie ist. Das zeigen viele Studien zur Physiotherapie.
5. Statistiken mit vielen Faktoren haben einen geringen Grad an Evidenz. Studien mit solch niederen Evidenz, die positiv für eine alternative Therapie ausfallen, werden von der medizinischen Gemeinschaft nicht akzeptiert, insbesondere wenn es sich um homöopathische Studien handelt. Die zitierte Massage-Studie galt dem British Medical Jpurnal ja gerade deshalb als besonders wichtig, weil sie ein wirklich verläßliches Setting hatte.
5. Ich denke, diese Überlegungen zeigen hinreichend, daß gute Studien mit einer schlecht(er)en Medizin einhergehen, wenn es sich um regulative Therapien handelt. Es sei den, Sie stellen sich auf den Standpunkt, daß allein die Statistik die Wirklichkeit abbildet und eine individuelle Beobachtung ohne Relevanz ist. Aber da wären wir wieder bei Beck-Bornholdt und Dubben.
6. Der Punkt, daß Studien niederer Evidenz in regulativen Verfahren bessere Ergebnisse bringen als in Studien mit hoher Evidenz können Sie bei all denen nachlesen, die sich damit beschäftigt haben (z.B. Ernst, Walach, Linde). Was aber von den Kritikern der regulativen Verfahren in der Regel verschwiegen wird ist das Wirksamkeitsparadox, daß nämlich in den Studien hoher Evidenz, bei denen das Verfahren (Homöopathie oder Akupunktur) nicht besser abschneidet als eine Placebo-Therapie, diese Therapien immer noch wirksamer sind als die vergleichbare orthodoxe. medikamentöse Therapie
Hochachtungsvoll
Georg Ivanovas
2nd.September 2010 um 10:03
Da ist zunächst die Formulierung von Dubben und Beck-Bornholdt, daß Statistiken entweder zuverlässig sind oder eine individuelle (semantische) Relevanz haben. Ich weiß nicht, ob Sie gegen diese Aussage bereits einen Vorbehalt haben.
Diese etwas flapsige Formulierung stammt aus einem populärwissenschaftlichen Taschenbuch. Der genaue Kontext ist mir nicht bekannt. Gegen die Art und Weise, wie Sie sie interpretieren, habe ich aber sehr wohl Vorbehalte: Wie groß ist der prognostische Wert einer Statistik mit N = 1000 für ein Individuum, das selbst nicht Teil des Studienkollektivs war? Nicht sehr hoch – da stimme ich Ihnen zu. Wie groß ist der prognostische Wert einer Statistik mit N = 1 für ein Individuum, das selbst nicht Teil des Studienkollektivs war? Noch viel geringer, nämlich nahe null.
In diesem Sinne ist eine Statistik also umso „relevanter“, je „verlässlicher“ (größer) sie ist, nicht umgekehrt. Unzuverlässige Statistiken haben die geringste individuelle Relevanz.
Man kann in einer solchen Studie eine standardisierte nicht durch eine individualisierte Physiotherapie ersetzen.
Wenn man bei manchen Patienten Kälte- statt Wärmeapplikationen verwendet, […] usw, dann hat man so viele Faktoren, daß es keine solide Statistik mehr gibt
Diese Behauptung kann ich beim besten Willen nicht nachvollziehen. Sie können doch problemlos jedem Studienteilnehmer statt der standardisierten eine auf ihn zugeschnittene individualisierte Physiotherapie verordnen. am Ende messen Sie jene Variable, die als primärer Endpunkt festgelegt wurde und fertig ist die Statistik. Wieso sollte diese dann „nicht solide“ sein?
In Ihren weiteren Ausführungen verwenden Sie die Begriffe „Statistik“ und „Studie“ synonym. Das stiftet zusätzliche Verwirrung – es gibt z.B. keine „Evidenzgrade von Statistiken“.
Ich vermute, worauf Sie hinauswollen ist, dass klassische, individualisierte Homöopathie nicht in RCTs auf ihre Wirksamkeit (über Placebo hinaus) geprüft werden kann. Diese oft gehörte Behauptung ist aber falsch, wie Sie Fachbeiträgen von Walach, Ernst und anderen entnehmen können. Es gibt auch einige Beispiele für solche RCTs, etwa http://cep.sagepub.com/content/17/2/119
2nd.September 2010 um 10:06
Hallo Herr Berger,
eine spannende Diskussion, an der ich mich gerne beteilige … 🙂
Sie kommentieren Herrn Ivanovas mit den Worten:
Zitat Ulrich Berger TEIL A:
„Wie groß ist der prognostische Wert einer Statistik mit N = 1000 für ein Individuum, das selbst nicht Teil des Studienkollektivs war? Nicht sehr hoch – da stimme ich Ihnen zu.“
Ich behaupte: „Nicht sehr hoch“ ist falsch. Die Prognosewahrscheinlichkeit für den Einzelfall ist gleich NULL. Laut Harald Walach ist der prognostische Wert auch für Individuen, die TEIL DES STUDIENKOLLEKTIVS waren, gleich NULL. Und zwar deshalb, weil sich die Mittelwertsunterschiede nur auf den DURCHSCHNITTLICHEN PATIENTEN (ein künstliches statistisches Konstrukt) nicht jedoch auf den EINZELNEN PATIENTEN (in der Realität) beziehen. Dieser Denkfehler ist in der etablierten Medizin allerdings weit verbreitet. Wie Harald Walach feststellt sogar bei wissenschaftlichen Mitarbeitern des Kölner Instituts für Qualitätssicherung und Wirtschaftlichkeit im Gesundheitswesen (IQWiG), die es besser wissen sollten.
http://www.neuraltherapie-blog.de/?p=1338
Sie kommentieren Herrn Ivanovas weiterhin mit den Worten:
Zitat Ulrich Berger TEIL B:
„In diesem Sinne ist eine Statistik also umso “relevanter”, je “verlässlicher” (größer) sie ist, nicht umgekehrt. Unzuverlässige Statistiken haben die geringste individuelle Relevanz.“
Ich behaupte: Sie liegen hier falsch. Warum? Siehe meine Antwort oben. (Mittelwertsunterschiede großer und kleiner Studien beziehen sich nur auf den DURCHSCHNITTLICHEN PATIENTEN (ein künstliches statistisches Konstrukt) nicht jedoch auf den EINZELNEN PATIENTEN in der Realität. Ihre Aussagekraft für ein Individuum (egal, ob innerhalb oder außerhalb des Studienkollektivs) ist nicht „verlässlicher“ sondern gleich NULL. Ihe Aussagekraft für den „durchschnittlichen Patienten“ist hingegen sehr hoch. Nur gibt es diesen in der Praxis leider nicht.
Ich vermute einmal, dass Ihre oben zitierte Präferenz nur so lange gültig ist, wie Sie als Mathematiker argumentieren. Gänzlich anders könnte Ihre Gefühlslage sein, wenn Sie mit lebensgefährlichen Nebenwirkungen eines neuen RCT-geprüften (gerne N=1000) Medikaments konfrontiert werden, welches für die große Mehrzahl der Patienten sicher ist, für eine Minderheit (zu der Sie … weil N=1 … leider gehören) jedoch tödlich ist – was sich allerdings erst im Feld Schritt für Schritt zeigt. Motto: Lernen (von tödlichen Nebenwirkungen) am Patient im Feld, weil RCTs bekanntlich eine niedrige externe Validität haben und sich ihre Daten daher nur schwer auf die Alltagsrealität übertragen lassen. Im Falle pharmakologischer Produkteinführungen benötigt es daher noch das Lernen am Menschen in der praktischen Realität, was (für kleine Minderheiten) regelmäßig tödlich endet.
Zu Ihren Gunsten ist zu sagen, dass Ihre Darstellung in weiten Teilen die Sichtweise der heute etablierten evidenzbasierten Medizin repräsentiert. Genau diese Sichtweise wird jedoch zu Recht von Herrn Ivanovas aber auch von Harald Walach und anderen Forschern kritisiert. Sie ist nicht mehr zeitgemäß.
Warum?
Harald Walach schreibt:
1. „Was der Mehrheit der Patienten nützt, kann sehr wenigen äußerst gefährlich werden oder für eine große Minderheit unbrauchbar sein.“
2. Große Studien erlauben „höchstens sichere Auskünfte für den durchschnittlichen Patienten“, den es in der Praxis nicht gibt.
http://www.neuraltherapie-blog.de/?p=1338
Wie wirkt sich dieser Sachverhalt in der Praxis aus?
Prof. Dr. Jürgen Fröhlich, Direktor der Abteilung für klinische Pharmakologie an der medizinischen Hochschule in Hannover, sagt: „Wir gehen davon aus, dass pro Jahr in den internistischen Abteilungen 58.000 Patienten durch unerwünschte Arzneimittelnebenwirkungen ums Leben kommen.“ Prof. Fröhlich betont, dass diese Zahl nur die Todesfälle in internistischen Abteilungen beinhaltet, die Gesamtzahl der Todesfälle durch Arzneimittelnebenwirkungen jedoch sehr wahrscheinlich noch viel größer ist. Damit sprechen wir von Todesursache Nr. 3 in Deutschland.
http://www.psychophysik.com/h-blog/?p=151
Möglicherweise bis zu 100 Prozent dieser Todesfälle beziehen sich auf Nebenwirkungen von Medikamenten, die RCT geprüft sind. Die statistischen Werte dieser Studien beziehen sich – wie Harald Walach betont – auf den „durchschnittlichen Patienten“ (ein künstliches mathematisches Konstrukt) und nicht auf den einzelnen Patienten, den es in der Realität gibt.
Der blinde Bereich der evidenzbasierten Medizin besteht hier in der Unterbewertung von Streuungen. Unsere moderne Medizinforschung ist nach wie vor durch ein Weltbild beeinflusst, dass ich einmal „Maschinenparadigma“ bezeichnen möchte. Wer sich den Menschen wie eine Maschine vorstellt, der vermutet unbewusst, dass die große Mehrzahl der Menschen z. B. auf einen neuen pharmakologischen Wirkstoff ähnlich reagiert … und daher eine „gewisse“ Prognosewahrscheinlichkeit für das Individuum bestehen würde. Das entnehme ich auch Ihren Worten. Sie vermuten eine „gewisse“ Prognosewahrscheinlichkeit für den Einzelfall. Wie bereits mehrfach erläutert ist dies jedoch ein gravierender Denkfehler.
In der Praxis gibt es, was die Wirkung von Therapien welcher Art auch immer angeht, erhebliche Streuungen. Harald Walach umschreibt diesen Sachverhalt mit den Worten: „Was der Mehrheit der Patienten nützt, kann sehr wenigen äußerst gefährlich werden oder für eine große Minderheit unbrauchbar sein.“ Hier hätten wir schon einmal drei Subgruppen:
1. Mehrheit (nützlich)
2. große Minderheit (unbrauchbar)
3. kleine Minderheit (außerst gefährlich)
Mittelwerte werfen diese wichtigen – in der ärztlichen Praxis sorgfältig zu differenzierenden und aufmerksam zu beobachtenden – Subgruppen alle in einen Topf. Eine moderne und reformierte evidenzbasierte Medizin müsste diese Subgruppen präzise darstellen und durch Zahlen repräsentierten. Stand heute macht sie dies jedoch nicht – u.a. aus den Gründen, die Herr Ivanovas genannt hat. Der Medizinforscher Helmut Kiene vertritt die Sichtweise, dass die EbM das Individuum aus methodischen Gründen nicht korrekt abbilden kann und fordert daher eine sog. Cognition-based Medicine. Ein interessantes Konzept, welches im folgenden Buch (PDF) studiert werden kann und sich (für mich) wie ein Medizinforschungs-Krimi liest:
http://www.ifaemm.de/Abstract/PDFs/CBM_Buch.pdf
Herr Berger, Sie fragen in Ihrem Kommentar:
„Wieso z. B. sollte eine individuelle Therapie zu einer “wenig verlässlichen Statistik” führen? Wenn man in Ihrem obigen Beispiel die standardisierte Physiotherapie gegen individualisierte Physiotherapie austauscht, wird dann “die Statistik” der Studie weniger verlässlich?“
In jenem von Herrn Ivanovas zitierten Beispiel wurde genau dies nicht gemacht. Die Forscher entschieden sich für ein Studiendesign mit STANDARDISIERTER PHYSIOTHERAPIE und haben die Ergebnisse so zu Lasten der Physiotherapie verzerrt. Diesen Punkt wollte Herr Ivanovas ansprechen. Und genau das hat er meines Erachtens überzeugend getan.
Grundsätzlich gebe ich Ihnen jedoch Recht, dass sich eine individualisierte Therapie mittels RCT doppeltverblindet prüfen lässt. Es lässt sich messen, ob die Therapie gewirkt hat, in welchem Maße sie gewirkt hat und wie die Therapie im Vergleich zu Placebo gewirkt hat. Es lässt sich halt nur nicht die von EbM-Vertretern gewünschte Leitlinie mit standardisierten Vorgehensweisen ableiten. Warum dies so ist, auch das erklärt Harald Walach an folgender Stelle (siehe Thema „Individualisierung“):
http://www.neuraltherapie-blog.de/?p=1338
Nach meinem Verständnis geht es hier um ein großes Problem und einen blinden Bereich der modernen Medizinforschung. Ich bin Herrn Ivanovas dankbar, dass er mit seinen Worten und Beispielen thematisiert hat, was renommierte Forscher wie Harald Walch, Helmut Kiene und viele andere schon seit einigen Jahren mit gutem Grund heiß diskutieren.
Beste Grüße
Claus Fritzsche
2nd.September 2010 um 14:08
Hallo Herr Fritzsche,
Zitat Claus Fritzsche:
Die Prognosewahrscheinlichkeit für den Einzelfall ist gleich NULL. Laut Harald Walach ist der prognostische Wert auch für Individuen, die TEIL DES STUDIENKOLLEKTIVS waren, gleich NULL.
Diese Behauptung ist m.E. doppelt falsch: Der prognostische Wert für den Einzelfall ist niemals gleich NULL und Herr Walach hat dies in seinem Editorial auch nicht behauptet.
Lassen Sie mich erläutern: Im Idealfall ist N groß, die Differenz der Mittelwerte deutlich und die Streuungen um die Mittelwerte so klein, dass sich die Histogramme nicht überlappen. Dann ist der prognostische Wert für den Einzelfall extrem hoch: Er wird mit an Sicherheit grenzender Wahrscheinlichkeit von dem Medikament mit dem höheren Mittelwert mehr profitieren als von dem anderen Medikament.
In einem ungünstigen Fall ist der Mittelwertunterschied zwar statistisch signifikant, aber sehr klein, und die Streuungen sind extrem hoch. Dann ist der prognostische Wert für den Einzelfall so gut wie null.
Die meisten Fälle werden in der Praxis irgendwo zwischen diesen beiden Extremen liegen. Laut Herrn Walach ist die Streuung typischerweise „groß“, und daher wird der prognostische Wert für den Einzelfall typischerweise eher gering sein. Von einem generellen Wert von NULL kann nicht die Rede sein.
Das Problem an der Darstellung von Herrn Ivanovas ist aber ein ganz anderes. M.E. suggeriert sie nämlich, die „Relevanz“ der Statistik würde bei der Untersuchung von individualisierten Therapien plötzlich größer werden, während die „Verlässlichkeit“ der Statistik gleichzeitig sinkt (siehe das Zitat in meinem ersten Beitrag). Daraus folgert er offenbar, dass „tailored medicine“ und „statistische Evidenz“ weitgehend unvereinbar seien, und schreibt am Ende sogar:
Zitat Georg Ivanovas:
Je statistisch solider eine Studie ist, desto schlechter ist die praktizierte Medizin.
Eine wahrhaft starke Behauptung, der aber m.E. nach wie vor jegliche Begründung fehlt.
Denn erstens ich sehe nach wie vor keinen Grund, warum die „Verlässlichkeit“ oder die „Solidität“ der Statistik von der Art der Therapie (standardisiert oder individualisiert) abhängen sollte. Und zweitens fehlt mir auch für die implizierte generelle Gleichsetzung von individualisierter mit „guter“ Medizin ein belastbarer Nachweis.
MfG, Ulrich Berger
2nd.September 2010 um 17:35
Sehr geehrter Herr Berger,
Sie schreiben zu den Ausführungen von Beck-Bornholdt und Dubben
„Diese etwas flapsige Formulierung stammt aus einem populärwissenschaftlichen Taschenbuch.“
Ich stimme mit Ihnen überein, daß es sich um eine flapsige Bemerkung handelt, und auch, daß es ein Taschenbuch ist. Populärwissenschaftlich ist das Buch, in dem Sinn als es sich an Nichtstatistiker richtet.
Ich weiß nun nicht, ob ich Ihre Aussage so verstehe soll, als ob Beck-Bornholdts und Dubbens Aussage falsch oder im speziellen Fall unzutreffend sei.
Mein Anliegen war es, zu zeigen, daß diese Aussage im klinischen Konext durchaus Sinn macht. Dazu habe ich die Beispiele gegeben.
Aber hier sind Sie anderer Meinung, in dem Sie schreiben:
„Sie können doch problemlos jedem Studienteilnehmer statt der standardisierten eine auf ihn zugeschnittene individualisierte Physiotherapie verordnen. am Ende messen Sie jene Variable, die als primärer Endpunkt festgelegt wurde und fertig ist die Statistik.“
Genau solche Studien gibt es für die Homöopathie zuhauf. Viele davon mit einem positiven Ergebnis. Aber sie haben für Statistiker so wenig Evidenz, daß sie nicht akzeptiert werden. Shang et al. haben von 110 Studien genau 102 wegen ungenügender Voraussetzungen abgelehnt. Sie lassen nur solche gelten, die ein klares Schema haben, wie die von Ihnen zitierte Münchner Kopfschmerzstudie und eine Hausstaubmilben-Studie, die letztlich mit der Homöopathie nichts zu tun hat. Genaueres läßt sich ja nicht sagen, da Shang et al. geheim halten, welche Studien sie verwenden und welche nicht.
Sie haben natürlich Recht, daß es ganz einfach ist, irgendwelche Studien zu konzipieren und statistisch auszuwerten. Es geht aber darum, was diese Studien aussagen.
Gehen wir zurück zu unserem Beispiel der Physiotherapie: Würde bei einem Patienten Wärme appliziert, bei einem anderen Kälte, würden verschiedene Massagetechniken verwendet usw., dann bräuchten Sie eine sehr große Zahl von Patienten, um zu einem validen Ergenis zu kommen. Hätten wir eine Studie mit 30 Patienten, die alle irgendwie verschieden behandelt würden, dann würden uns die Statistiker (sage wir mal Shang oder Ernst) eine solche Studie zu Recht um die Ohren hauen. Hätte aber eine solche Studie 1000 Patienten, die üer einen Zeitraum von 1 Jahr beobachtet würden, dann hätten wir ein sichereres Ergebnis, was die Wirksamkeit der Physiotherapie betrifft, aber wir hätten nicht die geringste Idee, wer wie und mit was behandelt werden sollte.
Ich denke das ist ziemlich unkompliziert und offensichtlich. Es ist auch genau das, worum es in einem Beitrag geht.
Es gibt dabei nur eine Schwierigkeit, die man nicht unterschätzen sollte: Wer nicht mit der Komplexizität regulativer Therapien vertraut ist, unterschätzt die Vielzahl der in Frage kommenden Parameter. Im Grunde handelt es sich hier um das, was man klinisches Denken nennt. In der heutigen Medizin spielt das klinische Denken eine immer kleinere Rolle, während die naturwissenschaftliche Grundlagenforschung und die statistische Herangehensweise immer bedeutender werden.
Ich denke, das sind schwierige und kontrovers diskutierte Themen. Dennoch sehe ich kein Argument, das der ’statistischen Unschärferelation‘ widerspricht.
Einer der damit verknüpften Punkte war die, von Ihne unbeantwortete Frage, ob wir eine Therapie fortsetzen sollen, die für einen Einzelnen nichts zu bringen scheint oder gar schadet, obgleich sie sich für ein Kollektiv für wirksam erwiesen hat. Vielleicht mögen Sie dazu doch noch Stellung nehmen?
Beste Grüße
Georg Ivanovas
3rd.September 2010 um 17:58
Sehr geehrter Herr Ivanovas,
Ich möchte zuerst Ihre letzte Frage beantworten: Eine Therapie, die bei einem Kollektiv wirksam war, bei einem Einzelnen aber nicht hilft oder sogar schadet, sollte man bei diesem Einzelnen natürlich nicht fortsetzen. Das ist eine Selbstverständlichkeit und ich wüsste auch nicht, wer je gegenteiliges gefordert hätte.
Sie schreiben: Ich weiß nun nicht, ob ich Ihre Aussage so verstehe soll, als ob Beck-Bornholdts und Dubbens Aussage falsch oder im speziellen Fall unzutreffend sei.
Wie bereits erwähnt, kann ich das angesprochene Zitat selbst nicht sinnvoll kommentieren, da mir der Originalkontext des Zitats fehlt. Ich halte aber wie gesagt jedenfalls Ihre Interpretation des Zitats und Ihre Schlussfolgerungen für unzutreffend.
Über Studien zu individualisierten Therapien sagen Sie: Genau solche Studien gibt es für die Homöopathie zuhauf. Viele davon mit einem positiven Ergebnis. Aber sie haben für Statistiker so wenig Evidenz, daß sie nicht akzeptiert werden.
Das ist richtig, aber „so wenig Evidenz“ bedeutet in diesem Kontext ja nur, dass diese Studien methodisch mangelhaft waren, und daher keine belastbaren Wirksamkeitsnachweise liefern können. Das hat per se noch nichts mit Individualisierung zu tun.
Sie werfen Shang et al. weiters vor, dass sie geheim halten, welche Studien sie verwenden und welche nicht.
Das ist ein falsches Gerücht, das sich leider hartnäckig hält. Die Liste der inkludierten und exkludierten Studien samt Begründung findet sich seit Nov. 2005 (!) öffentlich auf der Webseite der Universität Bern unter http://www.ispm.ch/index.php?id=lancet
Die Re-Analyse der Shang-Daten durch Lüdtke und Rutten (2008) listet unter den 21 hochqualitativen Homöopathie-Studien 6 Studien für „klassische Homöopathie“ auf, also für individualisierte Verordnungen. Der p-Wert für die Meta-Analyse dieser Subgruppe beträgt aber p=0,36 und die Placebohypothese kann daher auch für klassische Homöopathie nicht abgelehnt werden.
Ich kann Ihnen auch bei Ihrem Beispiel mit der Physiotherapie nicht ganz folgen. Hätten Sie tatsächlich eine hochqualitative Studie zur individualisierten Physiotherapie mit N = 1.000 und 1 Jahr Beobachtungszeitraum, dann wäre ein etwaiges positives Ergebnis vermutlich „statistisch abgesichert“. Aber Sie behaupten, Sie hätten dann nicht die geringste Idee, wer wie und mit was behandelt werden sollte. Ich denke, womit die Patienten in diesem Fall behandelt werden sollten, ist offensichtlich, nämlich mit dem, was getestet wurde: mit individualisierter Physiotherapie!
Mit freundlichen Grüßen,
Ulrich Berger
4th.September 2010 um 07:58
Hallo Herr Berger,
wie schon per E-Mail betont, finde ich unsere Diskussion sehr wertvoll (Nachtrag: „in Teilen wertvoll“). Aus meiner Sicht bieten beide Seiten interessante Denkanstöße. Gleichzeitig stelle ich auch fest, dass jene Aspekte unter den Tisch gekehrt werden, in denen die Argumentation möglicherweise sehr schwach ist … und/oder in denen ein fundiertes Wissen fehlt.
Ich erlaube mir an dieser Stelle ein Fazit, nach dem ich mich dann gerne ausklinken würde, da wir meines Erachtens bereits „auf hohem Niveau“ aneinander vorbeireden.
Sie, Herr Berger, kritisieren insbesondere die unterschwellige These von Herrn Ivanovas, dass „tailored medicine” und „statistische Evidenz” weitgehend unvereinbar seien. Was diesen Punkt angeht, so teile ich persönlich Ihre Ansicht, dass dies nicht zwangsläufig so sein muss. Rainer Lüdtke sagte mir kürzlich, dass sich z. B. individualisierte Therapien nach seiner Einschätzung durchaus „solide“, methodisch sauber und aussagekräftig mittels doppelverblindeter RCTs untersuchen lassen – auch wenn dies nicht trivial ist. Wahrscheinlich ist es im Bereich der Homöopahtie auch ohne umsatz- und margenstarkes Geschäftsmodell nicht finanzierbar.
Ich vermute gleichzeitig, dass Sie die mit dem Thema INDIVIDUALISIERUNG verbundenen methodischen Herausforderungen, Prämissen, Einschränkungen und gravierenden Probleme noch nicht einmal im Ansatz zur Kenntnis nehmen und wir alle hier nicht in der Lage sind, das Thema auf einem fachlichen Niveau zu diskutieren, auf dem beispielsweise Claudia Witt, Rainer Lüdtke, Harald Walach, Helmut Kiene, Gunver S. Kienle etc. an solch einer Diskussion teilnehmen könnten.
So ist das eben, wenn man eine Brücke zwischen Wissenschaft und Öffentlichkeit bauen will. Manchmal gelingt dies in Teilen – manchmal nicht.
Geht es um das Kernanliegen des Beitrags von Herrn Ivanovas, die Problematik der INDIVIDUALISIERUNG und den unkritischen Umgang mit Zahlen der STATISTISCHEN MEDIZIN, so entsteht für mich der Eindruck, dass Sie diesen Punkt mit allen seinen (über den Artikel von Herrn Ivanovas weit hinausgehenden) Facetten a) nicht verstanden haben und ihn b) auch nicht verstehen wollen. So interpretiere ich zumindest Ihr dezentes ÜBERGEHEN der von Harald Walach geschilderten Problematik http://bit.ly/bEU9Sw (hier geht es schließlich nicht um eine Petitesse sondern um die Ursache von jährlich geschätzt 58.000 Todesfällen allein in internistischen Abteilungen als Folge von Nebenwirkungen „solide“ RCT-geprüfter Arzneimittel) und auch Ihren gegenüber Herrn Ivanovas geäußerten Satz:
„Und zweitens fehlt mir auch für die implizierte generelle Gleichsetzung von individualisierter mit „guter” Medizin ein belastbarer Nachweis.“
Herr Ivanovas behauptet dies weder direkt noch indirekt. Er schilderte Beispiele wie z. B. die Physiotherapie, in denen eine individualisierte Therapie nach seiner Einschätzung zu besseren Ergebnissen führt als eine standardisierte Therapie. Fehlt Ihnen konkret für diesen Punkt (oder aber ganz pauschal) ein „belastbarer Nachweis“, so interpretiere ich Ihre Wortwahl als rhetorisches Spielchen. Sie haben sich mit der Thematik vermutlich nie systematisch und professionell auseinandergesetzt … und Ihre Worte klingen auch nicht so, als ob Sie daran ein Interesse hätten.
Wie soll Herr Ivanovas etwas belegen, was Sie ihm in den Mund legen, er jedoch so nicht behauptet hat?
Das Beispiel Physiotherapie ließe sich einfach durch das Beispiel Depression erweitern, bei dem Harald Walach an folgender Stelle
http://www.neuraltherapie-blog.de/?p=1338
erläutert, aus welchen Gründen eine standardisierte Therapie hier gravierende Nachteile haben muss. Der simple Grund besteht darin, dass IDENTISCHE SYMPTOME (Depression) vollkommen unterschiedliche Ursachen haben können (Walach nennt: Serotoninmangelstörung, Fehlernährung, toxische Überlastung, existenziell-spirituelle Krise, eine sozial-politische Konstellation von Armut und Machtlosigkeit) und daher auch gemäß der Ursache unterschiedlich behandelt werden müssen, um nachhaltige Ergebnisse zu erhalten.
Für den gesamten Bereich chronischer Krankheiten – die große Volkskrankheit unserer Zeit – dürfte Ihre Herrn Ivanovas zu Unrecht unterstellte Behauptung allerdings korrekt sein. Und zwar aus den Gründen, die Walach am Beispiel Depression erläutert hat. Identische Symptome können eine Vielzahl unterschiedlicher Ursachen haben und müssen daher URSACHEN-GERECHT d.h. INDIVIDUELL behandelt werden, um gute Ergebnisse zu erzielen.
Herr Ivanovas schließt jedoch nicht aus, dass es beispielsweise in der Akutversorgung, in der Notfallmedizin, Chirurgie, Hygiene etc. Bereiche gibt, in denen ein STANDARDISIERTER ANSATZ zu den besseren Ergebnissen führt. Bevor Sie ihm das unterstellen, sollten Sie ihn vielleicht ganz einfach fragen.
Danke für die Zeit, die Sie investiert haben!
Beste Grüße
Claus Fritzsche
4th.September 2010 um 09:40
Sehr geehrter Herr Berger,
herzlichen Dank für Ihre Antwort.
Die Liste des Instituts für Sozial- und Präventivmedizin umfaßt 60 Studien. Ausgeschlossen wurden jedoch 102 Studien.
Vermutlich gibt es die Möglichkeit, an das Datenmaterial heranzukommen und zu reanalysieren. Das Thema, das wir hier diskutieren, hat damit nicht direkt zu tun. Das ist auch jenseits meiner Expertise, da ich von Statistiken wenig verstehe. Hier geht es um die Frage der klinischen Relevanz von Studien.
Dazu zwei kurze Vorbemerkungen.
1) Smidt et al führten eine Studie zur Epicondylitis durch
Sie bildeten 3 Gruppen. Gruppe 1 erhielt eine Kortison-Injektion. Gruppe 2 wurde krankengymnastisch behandelt. Gruppe 3 wurde nicht therapiert. Nach 6 Wochen war das Ergebnis der Kortison-Gruppe signifikant besser als in den beiden anderen Gruppen. Nach 52 Wochen hatte sich das Ergebnis jedoch umgekehrt. Die Kortison-Gruppe hatte das schlechteste Ergebnis.
http://www.thelancet.com/journals/lancet/article/PIIS0140-6736%2802%2907811-X/abstract
Da dieses Ergebnis vielen unwahrscheinlich erschien, wurde die Studie wiederholt, wobei das Ergebnis dasselbe war.
http://www.bmj.com/content/333/7575/939.abstract?sid=80746040-83c6-41b0-b46c-aa6a27dcad41
Das heißt: Allein durch eine Änderung des zeitlichen Beobachtungsrahmens kann sich ein positives Ergebnis in ein negatives Umkehren.
Wenn das Schema ‚Hilft kurzfristig – schadet langfristig‘ eine generelle Tendenz darstellt (und es gibt sowohl theoretische also auch praktische Hinweise darauf), dann hat das erhebliche Auswirkungen die Beurteilung von Studien.
2. Wenn wir in der Praxis sehen, daß etwas nichts nützt oder schadet, dann werden wir selbstverständlich eine solche Therapie nicht fortführen. Wenn wir sehen, daß die Epicondylitis auf Dauer durch Kortison-Injektionen nicht wirklich gebessert wird, dann sollten wir das tunlichst bleiben lassen, selbst wenn kurzfristige Studien das Gegenteil zeigen.
Anderes Beispiel: Die Gabe von Antibiotika und Antipyretika erhöht das Allergierisiko erheblich. Das wurde von naturheilkundlicher Seite immer schon behauptet, wird aber in letzter Zeit durch langfristige Untersuchungen gestützt.
Das heißt: Es gibt ständig eine gewisse Reibung zwischen dem, was Statistiken sagen und dem, was wir beobachten. Wenn uns Statistiker sagen, daß das, was wir als wirksam betrachten unwirksam sein, und das, was wir für wirksam erachten unwirksam sei, dann haben wir ein Problem. In genau dieser Situation befinden wir uns in der Homöopathie. Dabei geht es nicht um Erbsenzählerei von Studien. Es geht um grundlegende klinische Evaluation, also um die Frage, was Studien wirklich aussagen.
Gehen wir zurück zum Beispiel der Physiotherapie. Wenn wir eine individualisierte Therapie über einen längeren Zeitraum durchführen, was messen wir in einer solchen Studie?
Wir messen zunächst einmal die Fähigkeit des Therapeuten, einen Patienten richtig einzuschätzen. Das Ergebnis der Studie wird also, wenn wir von der Wirksamkeit der Physiotherapie ausgehen, vom Therapeuten abhängen. Wenn wir von der Unwirksamkeit der Physiotherapie ausgehen, wird das keine Rolle spielen.
Wir können aber nicht sagen, ob Wärme, Kälte oder sonstige Interventionen im Allgemeinen eher förderlich sind oder nicht. Dazu kommt, daß wir das Ganze lange durchführen müssen, um ein solides Ergebnis zu bekommen.
Wenn wir jetzt noch die Frage der Verblindung, der Handhabung anderer akuter Störungen und die Frage, was wir eigentlich messen wollen, mit dazu nehmen, dann haben wir die Dose der Pandorra geöffnet.
Ich will Ihnen ein Beispiel geben:
Angenommen eine Physiotherapie (individualisiert oder standardisiert) ist bei Kreuzschmerzen weniger effektiv als eine orthodoxe, medikamentöse Therapie, dafür sinkt der Blutdruck ein wenig und der Patient fühlt sich allgemein besser, was sagt eine solche Studie aus?
Was sagen bei der Behandlung einer Bronchitis die Anzahl der Husten- oder Fiebertage aus, wenn man nicht das Allergisierungspotential von Antibiotika und Antipyretika mit einbezieht?
Oder nehmen wir noch andere, mehr soziale Faktoren dazu: Resistenzentwicklung gegen Antibiotika, die Frage in wie weit die häufige Gabe von Medikamenten (im Gegensatz zur Physiotherapie) nicht zu einer generellen Medikalsierung führt, usw.
Fazit: Es geht nicht allein darum, eine Studie zu konzipieren und ein paar Parameter zu messen. Es geht darum, in welchem zeitlichen und sozialen Kontext wir diese Messung bewerten. Wenn das nicht geschieht, sind unsere Schlußfolgerungen eher nichtssagend.
Oder anders: Wenn wir uns auf ein paar wenige Parameter in einem eher kurzfristigen Setting beschränken (und die meisten klinischen Studien sind so aufgebaut), dann wird das Ergebnis wenig darüber informieren, was wirklich der Gesundheit des Patienten förderlich ist. Nehmen wir längere Zeiräume und mehr Parameter, dann benötigen wir große Fallzahlen, was wieder die Aussagekraft für das Individuum reduziert.
Diese ’statistische Unschärferelation‘ überzeugt sie nicht. Da nützt es vermutlich auch nicht, wenn ich dieses Thema nochmals aus einem anderen Blickwinkel darlege
Mir ist es im Augenblick einfach wichtig, daß es ein klares Problembewußtsein für diese Themen gibt. Es geht nicht darum nochmals Studien aufzulegen, die jeder auf die eigene Art interpretiert. So lange wir unsere Epistemologie nicht klar kriegen, nicht verstehen, was wir wie in welchem Zusammenhang meinen, so lange wird die Diskussion unfruchtbar sein.
Das sehen wir doch gerade an der Homöopathie. Daß die Homöopathie individualisiert unter allgemeinen Praxisbedingungen wirkt, das ist oft genug gezeigt worden. Vielleicht nicht mit den nötigen Fallzahlen. Das liegt aber an einem Mangel an entsprechenden Ressourcen.
Im Rahmen einer (über)strikten EBM hat das nicht den nötigen Grad der Evidenz. Dasselbe gilt ja auch für die Physiotherapie, wie das Beispiel der diskutierten Studie beweist. Damals fragte ein Editorial im British Medical Journal, ob diese standardisierte (und ’statistisch gute‘) Studie quasi das Ende der Physiotherapie bedeute
http://www.bmj.com/content/329/7468/694.extract
Aber solche Argumente kennen wir ja 😉
Beste Grüße
4th.September 2010 um 10:12
Zitat Georg Ivanovas:
je individueller wir eine Therapie gestalten, desto sicherer wird sie ein gutes Ergebnis aufweisen
Jeder Mitlesende kann anhand dieses Kernzitats sehen, dass ich Herrn Ivanovas nichts unterstellt und nichts in den Mund gelegt habe. Aus Ihrem Tonfall, Herr Fritzsche, schließe ich aber, dass Sie eine kritische Diskussion zwischen Herrn Ivanovas und mir hier nicht wünschen. Das respektiere ich und verabschiede mich hiermit.
MfG, Ulrich Berger
4th.September 2010 um 10:47
Noch ein Nachtrag:
Oft kommen Patienten mit einer Plastiktüte voll von Medikamenten, die sie alle nehmen, zu uns. Alle EBM verifiziert und dennoch sind sie krank. Wenn dieselben Patienten nach einem Jahr homöopathischer Therapie gesund sind und keine Medikamente nehmen, dann ist das zwar kein Beweis dafür, daß die Himöopathie wirkt. Es ist aber ein Beweis dafür, daß es ein Problem mit dem Wirksamkeitsnachweis gibt.
Wissenschaft bedeutet, daß wir uns sorgfältig mit solchen Phänomenen auseinandersetzen und nicht zu vorschnellen Schlußfolgerungen kommen. Mein Bemühen ist, jene Grundlagen klar zu bekommen, die es ermöglichen, fundiert über solche Phänomene nachzudenken.
4th.September 2010 um 13:32
Sehr geehrter Herr Ivanovas,
Ihre letzten beiden Kommentar wurden erst freigeschaltet, nachdem mein an Herrn Fritzsche gerichteter Kommentar abgeschickt war. Ich freue mich, dass Sie Ihre Position erneut klarstellen.
Lassen Sie mich nur kurz noch eines berichtigen – ich halte das für wichtig, weil es im Netz immer wieder zu falschen Darstellungen kommt: Die von mir oben verlinkten Daten von Shang et al. sind vollständig! Die 60 „excluded studies“ sind nicht in den 110 untersuchten Homöopathiestudien enthalten, die Sie vollständig in der zweiten Liste (study characteristics…) finden.
Zu Ihren eigentlichen Anmerkungen: Ich stimme Ihnen hier weitgehend zu. Die replizierte Studie zur Epicondylitis ist sehr interessant und das Ergebnis sollte jedenfalls in der ärztlichen Praxis berücksichtigt werden.
Dennoch sehe ich den Konnex zur „statistischen Medizin“ nicht. Denn diese bemerkenswerten Studienergebnisse stammen ja aus genau solchen Statistiken! Sie unterstützen m.E. daher die Vorteile der „statistischen Medizin“, nicht umgekehrt.
Ihre weiteren Ausführungen beziehen sich auf die „klinische Relevanz von Studien“. Dieser Problematik bin ich mir bewusst, ich kann nur mangels medizinische Sachkenntnis hier wenig beitragen. Sie würde auch einen eigenen Artikel erfordern und verdienen, denn sie geht weit über das ursprünglichen Thema „Individualisierung und Prognosewert von Statistiken“, das wir diskutiert hatten, hinaus.
Mit freundlichen Grüßen,
Ulrich Berger
5th.September 2010 um 07:53
Hallo Herr Berger,
Sie schreiben:
+ + + Zitat Ulrich Berger Anfang + + +
Zitat Georg Ivanovas:
je individueller wir eine Therapie gestalten, desto sicherer wird sie ein gutes Ergebnis aufweisen
Jeder Mitlesende kann anhand dieses Kernzitats sehen, dass ich Herrn Ivanovas nichts unterstellt und nichts in den Mund gelegt habe. Aus Ihrem Tonfall, Herr Fritzsche, schließe ich aber, dass Sie eine kritische Diskussion zwischen Herrn Ivanovas und mir hier nicht wünschen. Das respektiere ich und verabschiede mich hiermit.
MfG, Ulrich Berger
+ + + Zitat Ulrich Berger Ende + + +
Lese ich meinen Kommentar nochmals mit einer Nacht Distanz, so entsteht für mich der Eindruck, dass Ihre Kritik absolut berechtigt ist. Ich werfe Ihnen unfaire Gesprächspraktiken vor und praktiziere sie im Ansatz selber.
Ich habe mich gefragt, woran das liegen kann … und kam dabei zu folgender Erklärung, die ich Ihnen hier nicht vorenthalten will:
Wir beide kennen uns ja nun schon einige Jahre und sind uns im Internet immer wieder einmal bei Wortwechseln begegnet, die konstruktive und destruktive Elemente hatten. Man könnte auch von verbalen Scharmützeln sprechen. In diesen Jahren habe ich immer wieder einen Ulrich Berger erlebt, der (aus meiner Sicht) zwei diamentral entgegengesetzte Seiten hat:
Der SMARTE Ulrich Berger:
Auf der einen Seite sehe ich da den ao. Univ.-Prof. Mag. Dr. Dr. Ulrich Berger, Inhaber einer außerordentlichen (Junior-) Professur, der in seinem Fachgebiet so etwas wie ein smartes, hoch intelligentes High Potential darstellt, der 2010 Rang 26 unter 1.700 Ökonomen aus D-A-CH (Handelsblatt Ökonomenranking, Kategorie „Aktuelle Forschungsleistung“) belegte und der schon in jungen Jahren eine sehenswerte Liste an Ehrungen vorweisen kann. Alles dies sehe ich mit Achtung und großem Respekt!
Darüber hinaus habe ich im Internet immer wieder auch eine ganz andere Persönlichkeit entdeckt:
Der KRITISCHE Ulrich Berger:
Der KRITISCHE Ulrich Berger verfasst Blogbeiträge der Marke „Ich gratuliere Hans Weidenbusch!“ oder TÖM: Traditioneller Österreichischer Medienkrampf oder Uni Magdeburg und Homöopathie: geheimer Entwicklungsplan aufgetaucht oder Briefwechsel mit dem Ganzheitsdienst der Stadt Wien oder Homöopathische p-Werte: eine Collage oder Also sprach die GAMED.
Nahezu alle diese Beiträge zeichnen sich (in meiner Wahrnehmung) durch einen ironisch-zynischen, altklugen und besserwisserischen Duktus aus, mit dem ich selbst keine Probleme habe. Was mir an diesen vielen Beiträgen jedoch nicht gefällt, ist folgender Sachverhalt:
1. SELEKTION: Sie stellen Sachverhalte selektiv und tendenziös dar, bilden jedoch nicht das zu einem kontrovers diskutierten Thema existierende Spektrum an Fakten und Meinungen ab. Sie freuen sich beispielsweise (in meiner Wahrnehmung) wie ein Kind, dass Sie bei Herrn Dr. Friedrich Dellmour einen Fehler entdeckt haben, lassen jedoch nicht zu, dass dieser Fehler im Kontext des gesamten Dellmour-Artikels „Klinische Studien und Metaanalysen in der Homöopathie“ (der neben diesem Fehler eine Vielzahl an wichtigen und wertvollen Gedanken enthält), publiziert in der Deutschen Zeitschrift für klinische Forschung (DZKF), angemessen gewichtet und dargestellt wird.
2. SYSTEMATIK: Sie äußern sich zu einer Vielzahl an Themen, ohne sich mit diesen Themen systematisch und professionell auseinandergesetzt zu haben und ohne im jeweiligen Fachgebiet das Know-how zu haben, um abschließende und (ab-) wertende Urteile (von Wissen und Fachkompetenz getragen) abgeben zu können. So geben Sie beispielsweise zur Traditionelle Chinesische Medizin (TCM) mit einigen wenigen flapsigen Bemerkungen ein abschließendes Urteil ab, ohne sich mit der Thematik professionell, systematisch und differenziert auseinandergesetzt zu haben und ohne auf diesem Gebiet über jene Fachkompetenz zu verfügen, über die z. B. Prof. Dr. med. Gustav Dobos verfügt und die im Fachbuch „Die Kräfte der Selbstheilung aktivieren!“ nachzulesen ist.
3. STIL: Sie äußern sich in einem Stil, der oftmals von persönlichen Angriffen geprägt ist und in dem es (aus meiner Sicht) weniger um die professionelle, differenzierte und fachkompetente Auseinandersetzung mit einem kontrovers diskutierten Thema geht … hingegen die abwertende und herabwürdigende Darstellung von Menschen fast immer eine Rolle spielt. So nehme ich viele Ihrer Blogbeiträge zumindest wahr. Mehr als irritierend finde ich auch Ihre Kontakte zu Repräsentanten des anonymen Internet-Prangers EsoWatch.com, in dessen Blog Sie verlinken und mit dessem mutmaßlichen Herausgeber Klaus Ramstöck Sie sich zumindest temporär ausgetauscht haben. Es geht im Falle EsoWatch.com um schwere Internet-Kriminalität und nach mir vorliegenden Informationen muss der EsoWatch.com-Herausgeber in mittlerer Zukunft mit einer bis zu dreijährigen Haftstrafe rechnen, im Worst Case Schadensersatz in Höhe von 100.000 Euro plus X zahlen. In einem solchen Umfeld würde ich mich (auch selten) niemals bewegen.
[Nachtrag vom 17.11.2010:
Hier noch ein Wiki-Artikel zum „kritischen“ Ulrich Berger …]
Fazit:
Sie haben in diesem Blog eine Reihe von Kommentaren verfasst, die ich als Bereicherung empfinde, weil sie das Spektrum der Gedanken erweitern. Vor diesem Hintergrund habe ich Sie auch angeschrieben und Ihnen (nach Abstimmung mit dem DZVhÄ) das Angebot gemacht, einen eigenen Fachbeitrag zum Thema „Das Individuum in der statistischen Medizin“ zu publizieren. Der DZVhÄ und auch ich, wir alle wünschen uns in diesem Blog KRITISCHE STIMMEN, wenn sie professionell und fair sind. Sie haben dieses Angebot abgelehnt, weil Sie im Moment und im nächsten Semester zeitlich stark beansprucht sind/werden … und weil Sie „auch ohne falsche Bescheidenheit nicht die nötige Fachkompetenz“ haben, „um einen substantiellen Beitrag zum Thema „Das Individuum in der statistischen Medizin“ zu leisten“.
Diese Absage respektiere ich und sie wird von mir auch als Zeichen von Professionalität wahrgenommen. Es ist in der Tat ein Unterschied, ob ich einen Fachartikel publizieren, an dem ich gemessen werde, oder ob ich zwischendurch ein paar Gedanken per Kommentarfunktion einfließen lasse.
Bin ich nun in meinem letzten Kommentar UNFAIR und UNANGEMESSEN mit Ihnen umgegangen, so möchte ich mich dafür entschuldigen. Sie haben Recht! Und ich glaube, dass sich dahinter keine böse Absicht verbirgt. Es fällt mir im Moment noch schwer, auf Anhieb festzustellen, ob ich es gerade mit dem (in meinen Worten) SMARTEN oder mit dem KRITISCHEN Ulrich Berger zu tun habe.
Ich würde das zarte Pflänzlein unseres Diskurses gerne auf eine konstruktive Ebene leiten und wäre Ihnen dankbar, wenn Sie mir (vielleicht auch „uns“ – da es ja auch für Sie Neuland ist) Anlaufschwierigkeiten verzeihen könnten. Ich bin mir sicher, dass auch der von mir oben dargestellte KRITISCHE Ulrich Berger (hinter seiner ironisch/zynischen Fassade) ein ehrenwertes Motiv hat. Ich wünsche mir in diesem Blog einen Gegenpol der Marke „Ulrich Berger“, wenn er professionell und fair ist. Und mich würde auch ein Expertengespräch Lüdtke/Berger zum Thema Shang et al. 2005 als eigener Blogbeitrag interessieren, wenn Sie, DZVhÄ und Rainer Lüdtke dafür Zeit und Motivation aufbringen könnten. Das Thema bewegt ja uns alle stark. Und es soll (aus meiner Sicht) nichts unter den Tisch gekehrt werden. Ihre professionell artikulierte Sichtweise ist herzlich willkommen.
Beste Grüße
Claus Fritzsche
5th.September 2010 um 08:06
Sehr geehrter Herr Berger,
ich weiß nicht, ob Sie noch mitlesen.
Die verschiedenen Fäden, die wir hier andiskutiert haben, sind, meiner Ansicht nach, durchaus entscheidend für die Frage über Individualisierung und Prognoswert von Studien. Es geht nicht nur darum, ob korrekt gemessen wird, es kommt auch darauf an, was gemessen wird.
Sollten Sie an der Fortsetzung dieser Diskussion interessiert sein, so kann ich gerne versuchen, diese Fäden zusammenzubringen.
Ich sehe einen großen Teil der Schwierigkeit in der Diskussion um die Homöopathie darin, daß nicht klar definiert wird, über was eigentlich gesprochen wird und welche Faktoren in die Diskussion einbezogen gehören. Beispielsweise ob der Frage der Individualisierung eine Bedeutung zukommt oder nicht. Wenn das nicht geklärt ist, oder wenn nicht einmal ein Problembewußtsein dafür besteht, dann kann es zu keiner zielführenden Diskussion kommen.
Zumindest haben wir das in Ansätzen versucht.
Mit besten Grüßen
Georg Ivanovas
5th.September 2010 um 11:01
[…] Erfahrung ist dies nahezu unmöglich. Werfe ich einen Blick in die Diskussion unter dem Artikel „Statistische Medizin in der Kritik: Je besser die Studie – desto schlechter das Ergebnis“ im DZVhÄ Homöopathie.Blog, so komme ich stark ins Grübeln. Georg Ivanovas, Facharzt für […]
5th.September 2010 um 15:58
Hallo Herr Fritzsche,
Gerne nehme ich Ihre Entschuldigung an. Ich nehme auch Ihre Kritik an meinen Blogbeiträgen zur Kenntnis, zu der ich auch gerne Stellung nehme:
1. SELEKTION:
Selbstverständlich selektiere ich in meinen Beiträgen, indem ich einzelne Aspekte eines Themas herausgreife. Ich sehe es nicht als meine Verpflichtung, das gesamte existierende Spektrum an Fakten und Meinungen zu einer Thematik darzustellen, sofern ich nicht gerade einen Reviewartikel für eine Fachzeitschrift schreiben will. Im Gegenteil, ich steuere einzelne Fakten und/oder Meinungsäußerungen bei, was m.E. die Grundidee jedes Blogs ist.
In der von Ihnen inkriminierten „Collage“ z.B. geht es darum, dass Herr Dellmour, immerhin Leiter der Wissenschaftsredaktion der ÖGHM, in seinem Artikel ein ganzes (von fünf) Kapiteln dem statistischen Grundbegriff des p-Wertes widmet und dabei nicht nur eine, sondern gleich vier Erklärungen liefert, wobei alle vier falsch sind. Herr Walach, immerhin Professor für CAM-Forschungsmethodik, kommentiert diese Erklärungen und korrigiert sie durch eine, die ebenfalls falsch ist. Das wirft meiner Meinung nach ein Licht auf die Qualitätsstandards mancher vorgeblich wissenschaftlicher Diskurse innerhalb der Homöopathie, und darauf aufmerksam zu machen halte ich für durchaus legitim.
2. SYSTEMATIK:
Ich bin bemüht, zu einem Thema erst eine Meinung abzugeben, wenn ich mich ausreichend damit beschäftigt habe. Ob das in Ihren Augen im Einzelfall „systematisch und professionell“ genug geschehen ist, sei dahingestellt. Im zitierten Fall hatte ich zur TCM lediglich angemerkt, dass sie immer noch keine Wirksamkeitsnachweise liefern kann – eine Einschätzung zu der ich nach wie vor stehe.
STIL:
In meinem Blog kritisiere ich u.a. die Auswüchse der Pseudowissenschaft und der Voodoo-Technik. Pseudowissenschaft ist aber kein abstraktes Konzept, das vom Himmel fällt, sondern sie wird von Pseudowissenschaftlern gemacht und propagiert. Wenn ich diese Personen also gleichermaßen kritisiere, so liegt das in der Natur der Sache und ist m.E. gerechtfertigt, auch wenn manche das als „persönliche Angriffe“ oder als „herabwürdigend“ einstufen mögen.
Was meine „Kontakte“ zu und meinen „Austausch“ mit Repräsentanten von Esowatch betrifft: Ich verlinke in meiner Blogroll auf den EsoBlog, weil er ähnliche Themen behandelt wie mein eigener Blog und teils m.E. lesenswerte Beiträge bringt. Aus demselben Grund habe ich dort hin und wieder kommentiert. Ebenso hat „Thomas X“ (angeblich Herr Ramstöck, den ich nicht kenne) einige wenige Male meine Blogbeiträge kommentiert. Weiters „bedienen“ sich Esowatch-Wiki-Autoren manchmal bei meinen Blogbeiträgen. Das sind banale Vorgänge und ich denke nicht, dass ich mir dadurch automatisch etwaige Rechtsverstöße durch Esowatch-Autoren zu eigen mache oder diese gutheiße.
Ich hoffe, damit klargestellt zu haben, dass der SMARTE und der KRITISCHE Ulrich Berger ein und dieselbe Person ist, die sich lediglich durch die Wahl der Stilmittel ihrer jeweiligen Umgebung anpasst.
Mit freundlichen Grüßen,
Ulrich Berger
5th.September 2010 um 16:13
NACHTRAG:
Ich danke für die Einladung zu einem „Expertengespräch Lüdtke/Berger“ zur Shang-Metaanalyse, halte das aber nicht für sehr sinnvoll. Für ein Expertengespräch müsste ich selbst Experte für medizinische Statistik oder Metaanalysen sein, was ich nicht bin. Über die Shang-Metaanalyse wurde meinem Gefühl nach ohnehin von beiden Seiten schon alles gesagt, was zu sagen ist. Ein echtes Expertengespräch an dieser Stelle würde mich dagegen sehr interessieren, aber es sollten dann besser z.B. Lüdtke/Shang oder Bornhöft/Egger oder Walach/Linde sein.
6th.September 2010 um 06:31
Hallo Herr Berger,
danke für Ihre ausführliche Antwort zu meiner Kritik an der Diskrepanz zwischen dem (in meiner Wahrnehmung) SMARTEN und KRITISCHEN Ulrich Berger.
Ich nehme zur Kenntnis, wie Sie sich selbst wahrnehmen und kann – um einer uferlosen Diskussion auszuweichen – im Moment nur feststellen, dass hier zwischen SELBSTWAHRNEHMUNG und FREMDWAHRNEHMUNG eine große Diskrepanz herrscht.
Interessant finde ich, dass Sie sich in Ihrem Blog (in meiner Wahrnehmung) ironisch, zynisch, abwertend und für meinen Geschmack ein klein wenig zu altklug zu Themen äußern, zu denen Sie (Stichwort Shang-Metaanalyse) dann doch lieber kein „Expertengespräch Lüdtke/Berger“ führen wollen.
Begründung:
„Für ein Expertengespräch müsste ich selbst Experte für medizinische Statistik oder Metaanalysen sein, was ich nicht bin.“
So ist das eben: Ein paar flapsige Bemerkungen sind in einem Blog schnell gemacht. Ob diese flapsigen Bemerkungen jedoch so fundiert sind, dass sie einer Expertendiskussion Stand halten, diese Frage haben Sie – so mein Eindruck – soeben (indirekt) selbst beantwortet.
Beste Grüße
Claus Fritzsche
P.S. Ihre Darstellung zum anonymen Internet-Pranger EsoWatch.com ist für mich absolut nicht akzeptabel. Dass Sie Klaus Ramstöck NICHT kennen, nehme ich Ihnen nicht ab und halte ich für eine Schutzbehauptung. Aus meiner Sicht sind Sie Nutznießer illegaler Praktikern, im Rahmen Ihrer eigenen (in meiner Wahrnehmung) oftmals mehr politischen und weniger wissenschaftlichen Arbeit.
6th.September 2010 um 08:29
Hallo Herr Fritzsche,
Ich nehme Ihre Fremdwahrnehmung meiner Person zur Kenntnis, obschon dieses Thema im DZVhÄ-Blog m.E. bereits ziemlich off-topic ist. Auch Ihre unbegründeten Spekulationen betreffend meine angebliche Bekanntschaft mit einem Herrn Ramstöck kann ich nur achselzuckend hinnehmen.
Eben habe ich meinen Blog nocheinmal konsultiert und kann dort keine „flapsigen Bemerkungen“ zur Shang-Metaanalyse finden. Was ich dort getan habe, war, zwei offensichtliche faktische Fehler in der Darstellung dieser Metaanalyse zu korrigieren: Einmal die Behauptung von Frau Eckhard, die Liste der untersuchten Studien sei geheim (siehe dieselbe Behauptung von Herrn Ivanovas oben und meine Replik darauf), ein anderes Mal die Behauptung von Rutten/Stolper, die unterschiedlichen cut-off Werte für „große“ Studien seien „unerklärlich“, was sich bei genauer Lektüre der Shang-Studie sofort als haltlos erweist.
Ich denke nicht, dass man Experte für medizinische Statistik sein muss, um derart offensichtliche Fehler korrigieren zu dürfen.
Mit freundlichen Grüßen,
Ulrich Berger
6th.September 2010 um 17:30
Lieber Herr Ivanovas,
kann es sein, dass sie das Statistikbuch nicht vollständig gelesen haben?
Sie schreiben:“Das ist es, was Beck-Bornholdt und Dubben sagen. Das ist es auch, was alle Studien zur Homöopathie und Akupunktur zeigen: Je maßgeschneiderter und folglich statistisch unzuverlässig eine Studie ist, desto sicherer wird sie ein positives Ergebnis zeigen.“
Sie haben leider ein Wort vergessen und schon ist der Sinn verloren gegangen.
Es muss heissen: „Je statistisch unzuverlässiger die Studie umso eher wird sie ein FALSCH positives Ergebnis zeigen.“
Das ist, was die Herren Beck-Bornholdt & Dubben bei jeder Gelegenheit in ihren Büchern kritisieren.
Diese Herren kreiden an, dass es zu viele Studien gibt, die falsch positive Ergebnisse liefern. Die also den Anschein erwecken, ein Präparat hätte eine Wirkung die über den Placeboeffekt hinaus geht, was in Wirklichkeit aber nicht der Fall ist.
Die Autoren kritisieren das „95%-Signifikanzniveau“ und weisen auf den „Publication Bias“ hin. Beides führt dazu, dass man in vielen publizierten Studien einen vermeintlich positiven Zusammenhang zwischen Behandlung und Krankeitsverlauf sieht, der in Wahrheit nicht besteht. Und die Autoren erklären schlüssig, dass Studien umso eher ein solches zufälliges, falsch positives Resultat zeigen, je schlechter sie designed und durchgeführt werden.
Beck-Bornholdt und Dubben kritisieren den Studienstandard der evidenzbasierten Medizin, weil er ihnen nicht gut genug ist. Über Alternativmedizin reden die Autoren erst gar nicht, da die Standards der Alternativmedizin noch um Lichtjahre schlecher sind.
Die Aussagen dieser Autoren für Ihre Zwecke umzudeuten ist wirklich eine Meisterleistung. Sie zeigt mir, wie Homöopathie arbeitet.
Gruß
Helmut Elsigan
Anmerkung der Redaktion:
Bitte beachten Sie die folgenden Kommentar-Spielregeln von Curt Kösters. Abwertende Pauschalisierungen („zeigt mir, wie Homöopathie arbeitet“) sind nicht zulässig. Entsprechende Kommentare werden gelöscht. SACHLICHE KRITIK ist willkommen. FREUNDLICHKEIT schadet nicht und ist ein Zeichen von Professionalität.
6th.September 2010 um 20:09
Ich habe mir die Shang-Netaanalyse nochmals genau angeschaut. Es läßt sich aus der Originalpublikation nicht erkennen, auf der Basis welcher Studien diese Metaanalyse zu Stande gekommen ist. Dort ist von 110 Studien zu lesen, von denen in einer ersten Phase 21 und in einer zweiten Phase 8 für die Metaanalyse verwendet wurden. Keine dieser Studien ist im Artikel identifiziert.
Ein halbes Jahr später wird auf der Homepage der Autoren eine Liste von 60 ausgeschlossenen Artikeln veröffentlicht.
Nun bin ich weder Statistiker noch Mathematiker. Aber die Zahlen sind irgendwie nicht schlüssig, denn weder 60+8 noch 60+21 ergeben 110. Aber selbst wenn das stimmige Zahlen wären, würde ich immer noch nicht wissen, auf welchen Studien die letztliche Metaanalyse basierte. Vielleicht sind diese Daten auf einer anderen privaten Homepage, deren URL ich nicht kenne?
Das Thema ist ja nicht nebensächlich, da man sich die einzelnen Studien genau anschauen muß, um zu verstehen, was sie eigentlich aussagen.
Genau das ist mein Anliegen. Als Praktiker, habe ich keine Kenntnisse, wie gemessen und gewertet wird. Aber ich kann gut analysieren, ob das was gemessen wurde, von therapeutischer Relevanz ist.
Nehmen wir eine Publikation die viel Aufsehen erregt hat:
Als Möbius 1907 sein „Über den physiologischen Schwachsinn des Weibes“ veröffentlichte, stützte er die These, daß Weiber von Geburt an doof wären, auf hirnanatomische Untersuchungen, vor allem auf das geringere Gewicht des weiblichen Gehirns. Sicher hätte er noch andere Statistiken erstellen können, die seine These belegen, denn damals war die durchschnittliche Intelligenz der Frauen sicher niederer als die der Männer. Das funktioniert vermutlich noch heute, wenn man nur die richtigen Tests auswählt.
Eine Frage wäre natürlich: Waren die anatomischen Untersuchungen von Möbius korrekt. Waren die (fiktiven) Intellegenzmessungen sorgfältig durchgeführt.
Aber das deckt nur eine Seite ab, denn diese Form der Validitätsanalyse hätte sicher die These von Herrn Möbius bestätigt.
Es geht aber auch um die Frage, in wie weit machen diese Messungen und Statistiken Sinn.
Genau diese Diskussion ist nie ernsthaft geführt worden. Insofern gebe ich Herrn Berger nicht Recht, daß die Diskussion um die Shang-Analyse abgeschlossen ist. Es geht nicht um die Reanalyse der Studien, sondern um das Verständnis, was in den Studien eigentlich gemessen wurde.
Recht gebe ich ihm, daß persönliche Auslassungen für einen Wissenschaftsblog eher nicht angemessen sind.
Beste Grüße
6th.September 2010 um 22:58
Um das nocheinmal klarzustellen:
Shang et al. (2005) hatten insgesamt 170 RCTS zur Homöopathie ausfindig gemacht. Auf http://www.ispm.ch/index.php?id=lancet finden sich drei Listen:
Die erste Liste umfasst 60 Studien, die im Zuge der Literaturrecherche gefunden wurden, die aber aus verschiedenen (dort genannten) Gründen von vornherein von der Metaanalyse ausgeschlossen wurden. Sie waren und sind, wie oben bereits erwähnt, NICHT Teil der 110 untersuchten Studien.
Die zweite Liste umfasst genau diese 110 Studien. Alle diese 110 Studien wurden in die Metaanalyse eingeschlossen. Davon erfüllten 21 die Kriterien für hohe methodische Qualität („Yes“ in der Spalte „High Quality“). Von diesen 21 Studien erfüllten wiederum 8 das Kriterium der Mindestgröße entsprechend einem Standardfehler im obersten Quartil. Das sind jene, die ein N (zweite Spalte) von mindestens 98 haben.
Was die inhaltliche Diskussion der Shang-Metaanalyse betrifft, so meine ich nur, dass nach 5 Jahren nichts großartig Neues mehr dazu zu sagen sein dürfte. Wie bei jeder Metaanalyse gibt es natürlich Kritikpunkte, die m.E. hinlänglich bekannt sind (siehe z.B. den link „Dipl.-Stat. Rainer Lüdtke kommentiert Shang et al. 2005“ in diesem Blog). Am Ende steht wie immer die Einschätzung der Wertigkeit der Daten in ihrem allgemeinen Kontext.
7th.September 2010 um 03:14
eine Korrektur:
Die 60 ausgeschlossenen Studien auf der Homepage des Instituts für Sozial- und Präventivmedizin beinhaltet vermutlich die 60 Studien, die überhaupt nicht in die Metaanalyse aufgenommen wurden. Was nichts daran ändert, daß damit noch immer nichr nachvollziehbar ist, welche Studien ( 21 bzw. 8 ) zur Metaanalyse herangezogen wurden.
7th.September 2010 um 09:25
Helmut Elsigan schreibt:
„Sie haben leider ein Wort vergessen und schon ist der Sinn verloren gegangen.
Es muss heissen: “Je statistisch unzuverlässiger die Studie umso eher wird sie ein FALSCH positives Ergebnis zeigen.”
Das ist, was die Herren Beck-Bornholdt & Dubben bei jeder Gelegenheit in ihren Büchern kritisieren.
Diese Herren kreiden an, dass es zu viele Studien gibt, die falsch positive Ergebnisse liefern. Die also den Anschein erwecken, ein Präparat hätte eine Wirkung die über den Placeboeffekt hinaus geht, was in Wirklichkeit aber nicht der Fall ist.“
Ich denke, über den zweiten Teil Ihres Arguments benötigen wir uns erst einmal nicht zu unterhalten, weil es ein Traditional ist. Deshalb werden ja große Zahlen gefordert.
Auch der erste Teil des Argumentes ist ja in Ordnung, nur daß Sie, meiner Ansicht nach, die Betonung falsch setzen. Es muß heißen:
“Je statistisch unzuverlässiger die Studie umso EHER wird sie ein falsch positives Ergebnis zeigen.”
Es heißt nicht, daß kleine Studien per se ein falsches Ergebnis zeigen.
Aber Sie gehen über das Wesentlichen von Beck-Bornholdts & Dubbens Aussage hinweg, in dem Sie deren zweiten Teil weglassen. Je statistischer zuverlässig eine Studie ist, desto weniger weiß man, auf wen das Ergebnis zutrifft.
In diesem zweiten Fall handelt es sich um eine klare Aussage der Autoren, die von ihnen genauso gemeint ist.
Ich habe durch einige Beispiele versucht, deutlich zu machen, wie sich dieser Sachverhalt in die medizinische Paxis übersetzen läßt und welche Implikationen das für Studien hat.
Mein weiteres Argument war, daß wenn wir schematisch an einen Fall herangehen, das zwar zu besseren Statistiken, jedoch zu einer schlechteren Medizin führt. Auch das habe ich mit klinischen Beispielen belegt, eigentlich nicht weiter diskutiert wurden.
Ihre Behauptung ist:
„Die Aussagen dieser Autoren für Ihre Zwecke umzudeuten ist wirklich eine Meisterleistung. Sie zeigt mir, wie Homöopathie arbeitet.“
Ich halte das inhaltlich schlicht nicht für zutreffend, wobei ich eigentlich nicht verstehe, wo das Mißverständnis liegt. Die von mir eebenen Beispiele und Thesen sind eigentlich klar. Darüber läßt sich diskutieren, wenn man will.
Herr Berger schrieb:
„Was die inhaltliche Diskussion der Shang-Metaanalyse betrifft, so meine ich nur, dass nach 5 Jahren nichts großartig Neues mehr dazu zu sagen sein dürfte.“
Ich denke, wenn wir nicht nur auf die Zahlen sehen, sondern auch auf das, was die Zahlen im klinischen Kontext bedeuten, dann würden noch einige wesentliche Aspekte zu diskutieren sein, die erhebliche Mängel dieser Studie aufzeigen.
Das hatte ich mit der Arbeit von Möbius aufzuzeigen versucht. Aber möglicherweise ist die epistemische Brisanz solcher Beispiele nicht leicht nachzuvollziehen, also erschwierige Schritt von er Syntax zur Semantik
Aber wenn wir in dieses Thema einsteigen sollten, dann sollte das systematisch geschehen, in einem neuen Diskussionsfaden unter neuer Überschrift mit klaren Vorstellungen, was wie zu diskutieren sei.
Beste Grüße
Georg Ivanovas
9th.September 2010 um 07:44
Sehr geehrter Herr Ivanovas,
sehr geehrter Herr Berger,
vielen Dank für Ihre angeregte Diskussion.
Auch wenn viele Fragen offen geblieben sind, so habe ich bisher gelernt:
Medizinische Statistiken sind wie Landkarten. Sie stellen Realität modellhaft und abstrahiert dar. Sie sind jedoch nicht Realität selbst. Ob sie die Komplexität der Realität (konkret: des Individuums Mensch) korrekt wiedergeben oder wichtige Aspekte verzerren, was sich aus ihnen ableiten oder nicht ableiten lässt, das ist Gegenstand heißer Diskussionen. Dies haben auch Ihre Kommentare gezeigt.
Es wäre sicherlich spannend, in diesem Zusammenhang noch die Meinung von Experten wie z. B. Jürgen Windeler, Rainer Lüdtke oder Harald Walach zu hören/lesen. Geht leider nicht …
Bedingt durch die Fülle, Art und Reihenfolge Ihrer Gedanken wird es für Außenstehende zunehmend schwer, der Diskussion noch zu folgen. Ich würde die Diskussion daher gerne schließen.
Bevor ich dies mache, biete ich Ihnen – Interesse vorausgesetzt – an, nochmals ein abschließendes Fazit der Diskussion aus Ihrer Perspektive zu ziehen.
– Was ist Ihre zentrale Botschaft?
– Welche Gedanken sind aus Ihrer Sicht hervorzuheben?
– Welches Fazit ziehen Sie?
– Vielleicht auch: Was ist zu kurz gekommen?
Besteht Ihrerseits der Wunsch, die Diskussion an anderer Stelle fortzuführen, so haben Sie die Möglichkeit, darauf in einer Kurzinfo mit Link hinzuweisen.
Beste Grüße
Claus Fritzsche
Redaktion DZVhÄ Homöopathie.Blog
9th.September 2010 um 15:37
Da es keine weiteren Beiträge zu diesem Diskussionsfaden mehr zu geben scheint, nehme ich den Vorschlagn, noch eine Art Zusammenfassung zu geben, gerne an.
Wenn man sich medizinische Studien genauer anschaut, so sind sie gefangen zwischen der Scylla von geringer Verläßlichkeit aufgrund geringer Fallzahl und der Charybdis therapeutischer Relevanz des Themas:
Je individueller und maßgeschneiderter eine Therapie ist, desto besser ist sie für den Patienten. Desto schwieriger ist aber die Wirksamkeitskontrolle einer solchen Therapie.
Von zwei Diskutanten, die der Homöopathie kritisch gegenüber eingestellt sind, wurden diese Ausführungen als ‚ungeheuerlich‘ bezeichnet, beziehungsweise wurde gesagt, ich hätte die Aussagen von Beck-Bornholdt und Dubben nicht verstanden.
Aber ich denke, es ist genau umgekehrt. Ich glaube, daß meine Ausführungen von den Kritikern nicht verstanden wurden, denn es wurde eigentlich kein Argument vorgebracht, das sich mit den klinischen Aspekten beschäftigt. Das Thema ging, und das habe ich immer betont, um die AUSSAGEKRAFT von Statistiken, nicht um deren SACHGEMÄSSE ANFERTIGUNG. Das letztere ist nicht mein Fachgebiet.
Publikationen wie die von Möbius haben, wenn man sich ein paar Gedanken darüber macht und das epistemische Problem in unsere Zeit übersetzt, eine erhebliche Sprengkraft. Solche alten und auf den ersten Blick ein wenig aberwitzigen Beispiele sind viel hilfreicher, die Struktur des dahinterliegenden Denkens zu verstehen, als wenn man über Diabetes oder rheumatische Arthritis spricht. Ich glaube aber, daß die Kritiker die Replik auf Möbius für unwissenschaftliches Geplänkel halten.
Das entsprechende Sprichwort heißt:
Beißt nicht in meinen Finger. Schaut wo ich hin zeige.
Es ist sicher nicht angemessen, die fehlende Reaktion auf die klinische Aspekte der Diskussion, allein der fehlenden medizinische Erfahrung der Kritiker zuzuschreiben. Ich glaube, eine große Zahl von wissenschaftlichen und praktizierenden Ärzten würden in gleicher Weise reagieren.
Mein Anliegen ist ein anderes:
Es ist, meines Erachtens, erforderlich, vermehrt klinisches Denken in unsere Beurteilung hineinzubringen. Klinisches Denken spielt weder an der Universität …
Complex Disease and the New Clinical Sciences
… noch in der Forschung eine Rolle. Das British Medical Journal sprach sogar davon, daß die klinische Forschung stirbt:
BMJ Publishing Group to launch an international campaign to promote academic medicine
All das hat erhebliche Konsequenzen für die Aussagekraft von Studien. Es handelt sich hierbei aber erst einmal Fragen genereller Natur. Erst wenn diese Fragen genauer analysiert und geklärt sind, können wir uns daran machen, homöopathische Themen anzugehen, die noch komplexer und vor allem emotional hoch besetzt sind.
Das ist zumindest meine Meinung.
Georg Ivanovas
9th.September 2010 um 17:11
Eine zentrale These des Artikels von Herrn Ivanovas möchte ich die „Individualisierungsthese“ nennen. Sie lautet:
je individueller wir eine Therapie gestalten, desto sicherer wird sie ein gutes Ergebnis aufweisen
In seinem Fazit wiederholt er diese Behauptung:
Je individueller und maßgeschneiderter eine Therapie ist, desto besser ist sie für den Patienten.
Die Individualisierungsthese ist meiner Meinung nach in dieser generalisierenden Form nicht haltbar. Auf fehlende Belege hatte ich oben bereits hingewiesen. Hier ein kleines Experiment ohne wissenschaftlichen Anspruch:
Tippt man die Worte „individualized standardized“ in Google Scholar ein, so erhält man etwa 238.000 Treffer: http://scholar.google.de/scholar?hl=de&q=individualized+standardized&btnG=Suche&lr=&as_ylo=&as_vis=1
Die ersten 4 Treffer sind Studien, die jeweils eine individualisierte mit einer standardisierten Therapie vergleichen. In 1 Fall (Kreislauftraining) war Individualisierung besser, in 1 Fall (Akupunktur) gleich gut und in 2 Fällen (Psychotherapie) schlechter als Standardisierung.
Herrn Ivanovas‘ Individualisierungsthese scheitert also in 3 von 4 Fällen dieses zufälligen samples.
Mein Anliegen:
Egal ob es um Homöopathie geht, um Statistiken oder um Individualisierung: Zentrale Argumente sollten stets durch Daten und Fakten gestützt werden.
Ulrich Berger
10th.September 2010 um 07:44
In meiner Doppelfunktion als Moderator und Diskussionteilnehmer möchte ich auch noch ein Statement (als Privatperson) abgeben.
Ich stelle in Diskussionen dieser Art immer wieder fasziniert fest, dass sich hinter auf den ersten Blick plausibel klingenden Argumenten oftmals gravierende Denkfehler verbergen. Einen geradezu klassischen Denkfehler der Kategorie „Absence of evidence is not evidence of absence“ entdecke ich in den Zeilen von Herrn Berger.
Obwohl ich das Anliegen von Ulrich Berger schätze (sein Motto in meinen Worten: „Fakten und Belege an die Stelle von Vermutungen und Märchen“), so halte ich die Logik seiner Argumentation im konkreten Fall jedoch für falsch.
Ulrich Berger schreibt:
„Die Individualisierungsthese ist meiner Meinung nach in dieser generalisierenden Form nicht haltbar“ und stützt diese Aussage durch FEHLENDE BELEGE.
Ich teile diese Sichtweise von Ulrich Berger, wenn die Betonung auf in dieser generalisierten Form liegt. Trotzdem bemängel ich jedoch folgende Aspekte:
1. Fehlerhafte Deduktion:
Der Rückschluss von fehlenden Belegen (z. B. fehlenden Studien) auf die Nicht-Haltbarkeit einer These ist wissenschaftstheoretisch nicht zulässig. Die Erde war im Mittelalter keine Scheibe, nur weil es im Mittelalter keine soliden Belege (Studien & Co.) für ihre Kugelform gab. Epistemologisch hatbar wäre eine Aussage wie z. B. „Die Hypothese von Herrn Ivanovas kann ich in dieser generalisierten Form nicht nachvollziehen. Meiner Meinung nach ist sie falsch. Ich warte mit großem Interesse auf den Zeitpunkt, an dem sie auch durch solide wissenschaftliche Belege gestützt wird. Im Moment ist es eine reine Hypothese.“
Die Logik der oben verlinkten Arbeit Absence of evidence is not evidence of absence besagt – wenn man sie sinngemäß auf diese Diskussion überträgt – dass eine Hypothese nicht UNHALTBAR ist, weil sie NICHT BELEGT ist. Sie kann stattdessen tragfähig oder nicht tragfähig sein, was zu beweisen wäre.
2. Diskurs ohne Fundament:
Damit kommen wir zum zweiten Punkt, den ich immer wieder als großes Defizit bestimmter Diskussionen wahrnehme: Die fehlende Bereitschaft, sich mit als fremd empfundenen Gedanken systematisch und fachkompetent auseinanderzusetzen. Will heißen: Bevor ich über die Aussagen von Herrn Ivanovas reflexartig urteile, muss ich ihm zunächst einmal zuhören, mich mit seinen Gedanken fundiert auseinandersetzen.
Genau diese Bereitschaft vermisse ich bei Ulrich Berger nicht nur hier, sondern auch an anderen Stellen im Internet. Warum dies (aus meiner Sicht) so ist, das habe ich bereits an folgender Stelle zum Ausdruck gebracht. Ich vermute auch, dass Ulrich Berger genau das macht, was der Soziologe Edgar Wunder in seinem Artikel Das Skeptiker-Syndrom schildert:
Das Problem liegt in der Verwechselung von KRITISCH mit UNREFLEKTIERTER ABLEHUNG.
Edgar Wunder gebraucht das Wort UNBELIEF im Sinne eines NEGATIVEN ÜBERZEUGUNGSSYSTEMS. Wer (nach Edgar Wunder) die Dimensionen belief versus unbelief mit dem Dimensionen dogmatism versus open mindedness / critical thinking nicht differenziert wahrnimmt, der kann dazu neigen, critical thinking mit unbelief zu verwechseln. Er lehnt Sachverhalte UNREFLEKTIERT ab und nimmt dies in seiner (verzerrten) Selbstwahrnehmung als KRITISCHES DENKEN wahr.
Diskussionen, die durch diesen Mechanismus geprägt werden, können von den Diskutanten mit großem Enthusiasmus geführt werden, sind jedoch für neutrale Beobachter ausgesprochen unattraktiv. Diese Diskussionen kommen über das Level IDEOLOGISCHER GRABENKRIEG nicht hinaus, weil Gedanken bereits abgelehnt werden, bevor man sich mit ihnen systematisch auseinandergesetzt hat.
Alles dies ist zumindest meine Meinung.
Claus Fritzsche
P.S. Bevor diese Diskussion geschlossen wird, darf Ulrich Berger selbstveständlich nochmals Stellung nehmen.
10th.September 2010 um 09:01
Herr Fritzsche hat völlig Recht: Fehlende Belege lassen nicht auf die Ungültigkeit einer These schließen.
Allerdings habe ich nicht aus fehlenden Belegen auf die Ungültigkeit der generalisierenden Individualisierungsthese geschlossen, sondern aus der Existenz von Gegenbeispielen. Fehlende Belege hatte ich lediglich bemängelt, weil Belege an sich eine Bringschuld jener Person sind, die eine nicht selbstevidente These aufstellt.
Herr Fritzsche hat womöglich infolge selektiver Wahrnehmung mein kleines Experiment überlesen. Es zeigt, dass man nicht einmal intensiv suchen muss, um Gegenbeispiele zur generalisierenden Individualisierungsthese von Herrn Ivanovas zu finden. In der verallgemeinerten Form ist sie also gewiss nicht haltbar.
Ob sie in einer eingeschränkten Form (in welcher?) Gültigkeit besitzt, wissen wir nicht. Dass es für die eigene Überzeugungskraft nicht förderlich ist, argumentativ auf einer These aufzubauen, die – je nach Generalisierungsgrad – falsch oder nur unbelegt ist, muss wohl nicht weiter ausgeführt werden.
Ich danke allen Teilnehmern für die anregende Diskussion!
Ulrich Berger
10th.September 2010 um 09:16
Danke Herr Berger, für Ihr abschließendes Wort!
Die Diskussion ist damit geschlossen.
Neue Diskussion an andere Stelle in diesem Blog sind herzlich willkommen.
Claus Fritzsche
Redaktion DZVhÄ Homöopathie.Blog
P.S. Zwischendurch zur Entspannung ein Video …
NACHTRÄGLICHER HINWEIS:
Herr Ivanovas, danke für Ihren Hinweis per E-Mail. Ich wollte Sie hier nicht „abwürgen“.
Ich habe die Diskussion wieder geöffnet … und werde sie dann wieder schließen, wenn sie das nächste Mal einschläft. Herr Berger kann somit auch auf Ihren Antwort antworten, wenn ihm danach ist.
10th.September 2010 um 16:29
Auch wenn Herr Fritzsche schon das Ende der Diskussion ausgerufen hat, scheint es mir dennoch wesentlich, ein paar Punkte klar zu stellen.
Herr Berger hat eine Kurzanalyse gemacht und festgestellt,
xxx „Herrn Ivanovas’ Individualisierungsthese scheitert also in 3 von 4 Fällen dieses zufälligen samples.“em> xxx
Es geht hier nicht darum, ob dieses Ergebnis verallgemeinerbar ist.
Es geht doch darum, was wir wie messen, also um die grundlegende Frage, was unsere Statistiken aussagen. Oder besser: xxx Welche Relevanz solche Aussagen haben xxx. Das ist kein Thema der Daten und Fakten, sondern das Thema deren Wertigkeit.
xxx Es ist der Unterschied zwischen Syntax und Semantik. xxx
Da ist es völlig unbedeutend noch eine Studie und noch eine Studie anzuführen.
Oder um ein xxx anschauliches Bild xxx zu nehmen:
Wir kommen zu keinen relevanteren Ergebnissen, wenn wir verfeinerte Methoden verwenden, um das Hirngewicht (oder einen anderen beliebigen Endpunkt) zu messen, mit dem Ziel den physiologische Schwachsinn des Weibes (oder der Homöopathie) zu beweise oder zu widerlegen . Das würde nur gelingen, wenn das Hirngewicht ein oder der maßgebliche Faktor wäre.
xxx Das Istrumentarium der EBM ist in der derzeitgen Form ist nicht geeignet, zu eineutige Schlußfolgerungen zu kommen. xxx
Das wird am besten mit dem xxx Wirkunsparadox xxx deutlich, das bei so vielen ‚gut konzipierten‘ Studien auftritt Bei der Gerac Stude (http://www.gerac.de/), bei der schon besprochenen Münchner Kopfschmerz Studie oder bei der unseligen Hausstaubmilben-Studie, bei der bei Hausstaubmilben-Allergie eine potenzierte Hasstaubmilbe gegeben wurde
http://www.bmj.com/content/324/7336/520.1.abstract?sid=86cd5cf1-22d7-4460-b76f-4f74a794f0e2
In allen diesen Fällen war die die alternativmedizinische Therapie (individualisiert oder standardisiert) nicht besser als eine Placebo-Therapie. Aber beide waren deutlich besser als die orthodoxe Standardtherapie. Ein solches, reproduzierbares Ergebnis läßt viele Schlußfolgerungen zu. Aber zu folgern, daß die alternativmedizinische Therapie unwirksam und die orthodoxe Standardtherapie wirksam ist, ist sicher die unsinnigste Schlußfolgerung von allen.
Was aber sicher ist:
xxx Ein solches Paradox (etwas Unwirksames ist wirksamer als etwas Wirksames) ist eine Folge falscher Denkvoraussetzungen. xxx Diese gilt es also zu analysieren. Wenn die Grundlagen falsch oder unzureichend sind, dann kommen wir mit unseren Schlußfolgerungen immer weder ins Schleudern. Da helfen weitere Studie, die auf demselben Prinzip basieren, auch nichts.
Dieser Diskussionsstrang ging gar nicht um die Homöopathie sondern um die Frage der maßgeschneiderten Medizin. Aus diesem Grund habe ich auch lieber über Physiotherapie geredet, da diese weniger emotionsbeladen ist. Es hat aber nicht zur Verständlichkeit der Argumente beigetragen.
Ulrich Berger schrieb:
xxx „Zentrale Argumente sollten stets durch Daten und Fakten gestützt werden.“ xxx
Ich habe genügend Beispiele als Daten und Fakten dargelegt. Wenn Herr Berger aber unter Daten und Fakten Statistiken meint, dann sind wir in genau dem logischen Zirkelschluß gefangen, der zum Paradox führt.
Meine klinischen Beispiele scheinen jedenfalls für ihn keine faktische Bedeutung zu haben, obgleich sie zentrale epistemische Probleme aufwerfen.
Es macht keinen Sinn, das Thema nochmals von einer anderen Seite aufzurollen, wenn die einzige Replik ist: xxx Wo ist die Statistik dazu? xxx Ich glaube nicht, daß man so über grundlegende Dinge nachdenken kann.
Damit will ich es aber auch endgültig gut sein lassen.
Georg Ivanovas
10th.September 2010 um 17:12
Mir wird leider zunehmend unklarer, Herr Ivanovas, was Ihre zentrale Botschaft eigentlich sein soll. Zuerst hatte ich den Eindruck, es ginge um den prognostischen Wert von Statistiken für den Einzelfall. Dann rückte die Individualisierungsthese in den Mittelpunkt. Jetzt soll es plötzlich um das Wirksamkeitsparadoxon gehen.
Was ist das Wirksamkeitsparadoxon? Sie sagen, es sei das Phänomen, dass die alternativmedizinische Therapie […] nicht besser als eine Placebo-Therapie [war]. Aber beide waren deutlich besser als die orthodoxe Standardtherapie. Dazu führen Sie drei Beispiele an: Die Gerac-Studie, die Münchner Kopfschmerz-Studie und die Hausstaubmilben-Studie.
Aber die beiden letztgenannten Studien waren ZWEIarmige Studien (Verum und Placebo), es gab dort gar keine Kontrollgruppe, die orthodoxe Standardtherapie erhalten hätte. Diese beiden Homöopathie-Studien sind damit sicher KEIN Beispiel für das Wirksamkeitsparadoxon.
Mit „Daten und Fakten“ meine ich nicht notwendigerweise „Statistiken“, nur einen präziseren Umgang mit Belegen für die zentralen eigenen Behauptungen würde ich mir wünschen.
Ulrich Berger
PS: Diese Diskussion ist schon sehr ausgefranst, ich werde sie daher von meiner Seite nun wirklich beenden. Wenn Sie, Herr Ivanovas, hierauf noch replizieren wollen, dann überlasse ich Ihnen aber gerne das letzte Wort.
11th.September 2010 um 07:14
Ein‘ (Kommentar) hab‘ ich auch noch: 🙂
Herr Berger, Sie schreiben als Replik auf den letzten Kommentar von Herrn Ivanovas:
„Mir wird leider zunehmend unklarer, Herr Ivanovas, was Ihre zentrale Botschaft eigentlich sein soll. Zuerst hatte ich den Eindruck, es ginge um den prognostischen Wert von Statistiken für den Einzelfall. Dann rückte die Individualisierungsthese in den Mittelpunkt. Jetzt soll es plötzlich um das Wirksamkeitsparadoxon gehen.“
Nachfolgend mein Versuch, um aus UNVERSTÄNDNIS doch noch VERSTÄNDNIS zu machen. Ein zentrales Anliegen von Herrn Ivanovas lautet (in meinen Worten ausgedrückt):
Wenn Medizinforschung Effekte therapeutischer Maßnahmen misst, dann muss das Forschungsdesign zum Wirkmechanismus passen – ihn korrekt abbilden.
PHARMAKOLOGIE
Bei pharmakologischen Wirkmechanismen ist dies (theoretisch) einfach, weil es nur des doppeltverblindeten Placebo-Verum-Vergleichs (RCT) bedarf. Praktisch ist es jedoch auch sehr schwierig, weil RCTs eine niedrige externe Validität haben und man nie genau weiß, was dann unter realen Bedingungen AUSSERHALB DES LABORS passiert. Es ist auch schwierig wegen der von Harald Walach geschilderten Problematik der Prognosewahrscheinlichkeit für Subgruppen, bei denen ein Pharmakon nicht wirkt oder tödlich wirkt.
REGULATIONSMEDIZIN
Bei allen Verfahren der Regulations-Medizin, bei denen Selbstregulationsprozesse stimuliert werden (so zumindest die Hypothese), weiß man bis heute relativ wenig über die Wirkmechanismen in ihrer GANZHEIT, da sie sehr komplex sind. Die Wirkmechanismen haben sehr wahrscheinlich verschiedene Komponenten. So könnte z. B. die eigentliche Therapie theoretisch nur eine Triggerfunktion haben, die einen Prozess anstößt, der dann auch von anderen Wirkkomponenten stark beeinflusst wird und zum eigentlichen „Träger“ der Wirkung wird (oder auch nicht, wenn diese These falsch ist). Die untersuchte Therapie kann aus unterschiedlichen Teilmechanismen bestehen, die isoliert betrachtet wenig spannend sind … sich jedoch gemeinsam zu so einer Art SYSTEMEFFEKT hochschaukeln, der beeindruckend ist.
METHODIK-DISKUSSION
Wie Verfahren der Regulationsmedizin forschungsmethodisch korrekt abgebildet werden, das wird schon seit einigen Jahren intensiv diskutiert (siehe hierzu z. B. die lange Publikationsliste unten auf dieser Seite). SICHER ist bisher nur, dass RCTs alleine nicht geeignet sind, den Wirkmechanismus entsprechender Verfahren korrekt abzubilden. RCTs können eine wichtige Säule sein, die jedoch durch andere Studientypen zu ergänzen sind, um z. B. wie bei gerac festzustellen, dass sich das therapeutische Konzept möglicherweise besonders im Bereich der unspezifischen Faktoren auswirkt, was jedoch erst durch einen Vergleich mit konventionell behandelten Gruppen sichtbar wird.
Um es mit der (mir bekannten) Sprache von Herrn Ivanovas auszudrücken:
Werden Verfahren der Regulationsmedizin untersucht, so muss das Forschungsdesign das „klinische Denken“ einbeziehen. Es benötigt nach Ivanovas eine Theorie, wie solche Genesungsprozesse der Regulationsmedizin exakt funktionieren. Habe ich diese Theorie nicht, so besteht die Gefahr, dass Studien den Mechanismus nicht korrekt abbilden, wie das z. B. bei komplexen mehrstufigen Interventionen der Fall ist.
Prof. Claudia Witt schreibt diesbezüglich:
„Komplexität spielt eine wesentliche Rolle: Die Frage, ob es eigene Forschungsmethoden für die Komplementärmedizin geben soll, wurde häufig diskutiert (13). Aus der Perspektive der behandelnden Ärzte und deren Patienten haben Studien, die realistische Therapiealternativen vergleichen, hohe Relevanz. Studien, die eine zusätzliche Anwendung eines komplementärmedizinischen Verfahrens untersuchen, sind hilfreich, um Versorgungsentscheidungen zu treffen.
Man muss in der Komplementärmedizin zwischen Einzelverfahren und kompletten Therapiesystemen unterscheiden. Klinische Forschung bei Einzelverfahren unterscheidet sich prinzipiell nicht von konventionellen Studien. Hingegen spielt bei kompletten Therapiesystemen Komplexität eine wesentliche Rolle; dieser Aspekt wird in der konventionellen klinischen Forschung nicht berücksichtigt.“
Quelle: Claudia Witt: Weitere Forschung ist die Basis für Integration in die Versorgung (Deutsches Ärzteblatt, Heft 37, 11.09.2009)
Untersuche ich nun eine mehrstufige komplexe Intervention mittels RCT, so bekomme ich zwar irgendwelche Daten ausgespuckt. Die Aussagekraft dieser Daten unterscheidet sich jedoch – frei nach Ivanovas – nicht wesentlich von jenen der Studie von Möbius. Ein Grund warum dies so ist, liegt in der Problematik begründet, dass RCTs von Individuum zu Individuum unterschiedliche komplexe Prozesse nicht korrekt abbilden können.
Nochmals zu Ihrem Verständnisproblem, Herr Berger. Sie schreiben:
„Mir wird leider zunehmend unklarer, Herr Ivanovas, was Ihre zentrale Botschaft eigentlich sein soll. Zuerst hatte ich den Eindruck, es ginge um den prognostischen Wert von Statistiken für den Einzelfall. Dann rückte die Individualisierungsthese in den Mittelpunkt. Jetzt soll es plötzlich um das Wirksamkeitsparadoxon gehen.“
Sie trennen zwischen den Themen „prognostischer Wert von Statistiken für den Einzelfall“ und „Individualisierungsthese“ und „Wirksamkeitsparadoxon“. In Wirklichkeit sind jedoch alle diese Stichworte Teil der gleichen Thematik. Sie hängen eng miteinander zusammen.
Beste Grüße
Claus Fritzsche
11th.September 2010 um 08:30
Sehr geehrter Herr Berger,
Sie schreiben
„Mir wird leider zunehmend unklarer, Herr Ivanovas, was Ihre zentrale Botschaft eigentlich sein soll.“
Das kann ich gut verstehen. Medizinische Phänomene sind überaus komplex und man muß sie oft von verschiedenen Seiten andenken.
Ich will das Thema gerne nochmals deutlich machen, auch wenn es zeitaufwendig ist. Dabei überschneiden sich einige Aussagen mit denen von Herrn Fritzsche
Zunächst jedoch nochmals ein Beispiel:
Die beste Lehre für die Individualisierung für mich war die Ausbildung zum Notarztfahren und deren Praxis. In der ersten Unterrichtsstunde wurde gesagt: Vergiß die Gleichung 1 Mensch = 1 Ampulle. Gib eine Dosierung eines Mittels, das dir für diesen speziellen angemessen erscheint (Alter, Gewicht, Schwere des Zustands, Hypothese des Problems). Schau nach der Reaktion. Wiederhole oder ändere die Behandlung entsprechend deiner Beobachtung. Zu mutige Therapien schaden. Zu zurückhaltende Therapien schaden.
Das ist das Grunprinzip der Individualisierung, das in jeder Therapie erforderlich ist. In der Notfallmedizin findet es nur in pointierter Form statt. Jede Therapie muß (auf der Basis gewisser Kenntnisse) an den Reaktionen des Patienten gemessen werden. Ich denke das ist unbestritten.
Die Schematisierung findet ja erst dann statt, wenn eine Studie durchgeführt wird, oder wenn das Ergebnis einer Studie unreflektiert auf den Patienten übertragen wird.
Natürlich kann man der Meinung sein, daß eine Tailored Medicine prinzipiell abzulehnen sei, weil eben nicht durch Studien abgedeckt. So hätte man Ihren vorletzten Beitrag mißverstehen können, bei dem Sie durch eine Google-Scholar-Suche keine Überlegenheit einer individualisierten Therapie gegenüber einer schematischen Therapie feststellen konnten.
Aber selbst wenn wir annehmen, daß eine fundierte Pubmed Suche in 80% der Fälle keine Überlegenheit einer individualisierten Therapie zeigt, sollte dann der Notarzt nur nach Schema vorgehen, ohne auf die Reaktion des Patienten zu achten? Ich nehme an, das würde niemand so erwarten.
Oder wenn eine Metaanalyse zur Otitis media keine Überlegenheit von Antibiotika gegenüber von Placebos aufweist, sollten dann bei der Otitis media nie Antibiotika gegeben werden?
Man müßte sich also überlegen, wie man Individualisierung nachdenken kann, wie sie die Erstellung und Beurteilung von Statistiken beeinflußt. Da sie Einwände gegen meine ursprüngliche These (gute Studien – schlechte Medizin) erhoben, verdeutlichte ich das Thema an mehreren Beispielen
– Matratzenhörte
– Phyasiothgerapie
– die klinische Beobachtung beim Patienten (was hier nur durch die Notfallmedizin noch präzisiert wurde).
Sie sind auf keinen dieser Denkansätze eingegangen. Wir haben also nicht über das zentrale Thema gesprochen, sondern über Studien.
Ich versuchte die Begrenztheit dieser Studien-Herangehensweise an der Epicondylitis-Studie deutlich zu machen. Aber vielleicht ist dies nicht deutlich genug geworden. Wenn das Prinzip dieser Studie (nützt kurzfristig – schadet langfristig)weiter verbreitet ist, dann wären kurze Studien (also die meisten auf denen unser evidenzbasiertes Wissen basiert) eine Anleitung zur Schädigung. Da würde es nichts nützen, wenn man eine Untersuchung in Pubmed macht und feststellt, daß 92% der Studien einen positiven Effekt der Kortisioninjektion bei Epiconylitis zeigen. Wir müßten genau analysieren, was da gemessen wurde, welches Zeitfenster usw.
Weiterhin ist es erforderlich, zu verstehen, was da eigentlich bei den Patienten passiert ist, warum das Ganze sich so scheinbar seltsam entwickelt hat. Eine solche Analyse hätte möglicherweise erhebliche Konsequenzen für die Bewertung anderer Studien. Eine reine Erbsenzählerei (die guten ins Kröpfchen, die schlechten ins Töpfchen) ist dem medizinischen Problem, das da aufgeworfen wurde, nicht angemessen.
All diese Dinge müssen verstanden werden, bevor man die klinische Relevanz einer Studie beurteilen kann.
Das Zentralproblem unseres Mißverständnisses ist aber, meines Erachtens, ein anderes:
Es geht nicht um den prognostischen Wert von Statistiken. Es geht um die Einzelprognose.
Möglicherweise behagt Ihnen dieser Begriff der Einzelprognose nicht, denn er findet in der Statistik nicht statt. Möglicherweise bezweifeln Sie, daß es das überhaupt gibt. Dennoch ist die Einzelprognose die Grundlage jedes medizinischen Handelns, auch dann, wenn es dafür keine offizielle Theorie gibt.
Das heißt, um überhaupt sinnvoll über therapeutische Prozesse zu sprechen, müssen all diese Themen zumindest in Umrissen klar sein. Es ist nicht erforderlich, derselben Meinung zu sein. Es ist jedoch erforderlich, zu wissen, worüber man überhaupt redet. Wie soll man sonst so komplexe Phänomene wie das Konzept der Netzwerkpathologie angehen? Wie will man sich mit dem Phänomen auseinandersetzen, daß eine gesunde Regulation fern eines Gleichgewichts´stattfindet, mit teilweise starken Abweichungen von der Norm, während kranke, rigide Zustände ein scheinbar perfektes Gleichgewicht aufweisen?
Ist es möglicherweise so (und das ist meine zentrale Hypothese), daß es im Rahmen einer unreflektierten Statistik effektiver ist, einen Organismus in eine schädliche Rigidität zu zwingen, während die Reaktivierung eigener Steuerungsmechanismen eher als unwirksam erscheinen?
Um solche Dinge wirklich zu verstehen, und es geht hier beileibe nicht um die Homöopathie, ist es nicht nötig, den P, Q, R oder S-Wert richtig zu berechnen. Man benötigt eine detailliertes Verständnis physiologischer Prozesses und eine Theorie der Gesundung.
Da ich jedoch neu im Gebiet dieser Art der Diskussion bin, habe ich vermutlich die Dinge nicht verständlich genug dargelegt.
Ich danke Ihnen deshalb für Ihre Geduld.
Georg Ivanovas