Articles

Falsch-Positive und Falsch-Negative

Falsch-Positiv- und Falsch-Negativ-RatenBearbeiten

Hauptartikel: Sensitivität und Spezifität und Falsch-Positiv-Rate

Die Falsch-Positiv-Rate ist der Anteil aller Negativen, die noch ein positives Testergebnis ergeben, d.h. die bedingte Wahrscheinlichkeit eines positiven Testergebnisses bei einem nicht vorhandenen Ereignis.

Die Falsch-Positiv-Rate ist gleich dem Signifikanzniveau. Die Spezifität des Tests ist gleich 1 minus der Falsch-Positiv-Rate.

In der statistischen Hypothesenprüfung wird dieser Bruchteil mit dem griechischen Buchstaben α bezeichnet, und 1 – α ist definiert als die Spezifität des Tests. Eine Erhöhung der Spezifität des Tests senkt die Wahrscheinlichkeit von Fehlern des Typs I, kann aber die Wahrscheinlichkeit von Fehlern des Typs II erhöhen (falsch-negative Ergebnisse, die die Alternativhypothese ablehnen, obwohl sie wahr ist).

Komplementär dazu ist die Falsch-negativ-Rate der Anteil der positiven Ergebnisse, die mit dem Test negative Ergebnisse liefern, d.h., die bedingte Wahrscheinlichkeit eines negativen Testergebnisses bei Vorliegen der gesuchten Bedingung.

In der statistischen Hypothesenprüfung wird dieser Anteil mit dem Buchstaben β bezeichnet. Die „Power“ (oder die „Sensitivität“) des Tests ist gleich 1 – β.

Unklarheit in der Definition der Falsch-Positiv-RateEdit

Der Begriff Falsch-Entdeckungs-Rate (FDR) wurde von Colquhoun (2014) verwendet, um die Wahrscheinlichkeit zu bezeichnen, dass ein „signifikantes“ Ergebnis ein falsches Positiv war. Später verwendete Colquhoun (2017) den Begriff Falsch-Positiv-Risiko (FPR) für die gleiche Größe, um Verwechslungen mit dem Begriff FDR zu vermeiden, wie er von Personen verwendet wird, die mit multiplen Vergleichen arbeiten. Korrekturen für Mehrfachvergleiche zielen nur darauf ab, die Typ-I-Fehlerrate zu korrigieren, daher ist das Ergebnis ein (korrigierter) p-Wert. Daher sind sie anfällig für die gleiche Fehlinterpretation wie jeder andere p-Wert. Das Falsch-Positiv-Risiko ist immer höher, oft viel höher, als der p-Wert.

Die Verwechslung dieser beiden Ideen, der Fehler des vertauschten Konditionals, hat viel Unheil angerichtet. Wegen der Mehrdeutigkeit der Notation in diesem Bereich ist es unerlässlich, sich die Definition in jedem Papier anzusehen. Die Gefahren des Verlassens auf p-Werte wurden in Colquhoun (2017) hervorgehoben, indem er darauf hinwies, dass selbst eine Beobachtung von p = 0,001 nicht unbedingt ein starker Beweis gegen die Nullhypothese ist. Trotz der Tatsache, dass das Wahrscheinlichkeitsverhältnis zugunsten der Alternativhypothese gegenüber der Nullhypothese nahe bei 100 liegt, hätte selbst die Beobachtung von p = 0,001 eine Falsch-Positiv-Rate von 8 Prozent, wenn die Hypothese unplausibel wäre und die vorherige Wahrscheinlichkeit eines echten Effekts 0,1 wäre. Sie würde nicht einmal das 5-Prozent-Niveau erreichen. Als Konsequenz wurde empfohlen, dass zu jedem p-Wert die prior probability eines realen Effekts angegeben werden sollte, die man annehmen müsste, um ein falsch-positives Risiko von 5 Prozent zu erreichen. Wenn wir z. B. p = 0,05 in einem einzelnen Experiment beobachten, müssten wir vor der Durchführung des Experiments zu 87 % sicher sein, dass ein echter Effekt vorliegt, um ein Falsch-Positiv-Risiko von 5 % zu erreichen.

Receiver operating characteristicEdit

Der Artikel „Receiver operating characteristic“ diskutiert Parameter in der statistischen Signalverarbeitung, die auf Verhältnissen von Fehlern verschiedener Art basieren.

Eine Antwort schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.