Faux positifs et faux négatifs
Taux de faux positifs et faux négatifsModifier
Le taux de faux positifs est la proportion de tous les négatifs qui donnent quand même des résultats positifs au test, c’est-à-dire la probabilité conditionnelle d’un résultat positif au vu d’un événement qui n’était pas présent.
Le taux de faux positifs est égal au niveau de signification. La spécificité du test est égale à 1 moins le taux de faux positifs.
Dans les tests d’hypothèses statistiques, cette fraction est désignée par la lettre grecque α, et 1 – α est défini comme la spécificité du test. Augmenter la spécificité du test diminue la probabilité d’erreurs de type I, mais peut augmenter la probabilité d’erreurs de type II (faux négatifs qui rejettent l’hypothèse alternative alors qu’elle est vraie).
Complémentairement, le taux de faux négatifs est la proportion de positifs qui donnent des résultats négatifs avec le test, c’est-à-dire , la probabilité conditionnelle d’un résultat négatif au test étant donné que la condition recherchée est présente.
Dans les tests d’hypothèses statistiques, on donne à cette fraction la lettre β. La » puissance » (ou la » sensibilité « ) du test est égale à 1 – β.
Ambiguïté dans la définition du taux de faux positifsModification
Le terme taux de fausse découverte (FDR) a été utilisé par Colquhoun (2014) pour signifier la probabilité qu’un résultat » significatif » soit un faux positif. Plus tard, Colquhoun (2017) a utilisé le terme de risque de faux positifs (FPR) pour la même quantité, afin d’éviter toute confusion avec le terme FDR utilisé par les personnes qui travaillent sur les comparaisons multiples. Les corrections pour les comparaisons multiples visent uniquement à corriger le taux d’erreur de type I, le résultat est donc une valeur p (corrigée). Elles sont donc susceptibles d’être interprétées de la même manière que n’importe quelle autre valeur p. Le risque de faux positif est toujours plus élevé. Le risque de faux positif est toujours plus élevé, souvent beaucoup plus élevé, que la p-value.
La confusion de ces deux idées, l’erreur du conditionnel transposé, a causé bien des malheurs. En raison de l’ambiguïté de la notation dans ce domaine, il est essentiel de regarder la définition dans chaque article. Les dangers de se fier aux valeurs p ont été soulignés dans Colquhoun (2017) en indiquant que même une observation de p = 0,001 n’était pas nécessairement une preuve solide contre l’hypothèse nulle. Malgré le fait que le rapport de vraisemblance en faveur de l’hypothèse alternative par rapport à l’hypothèse nulle soit proche de 100, si l’hypothèse était peu plausible, avec une probabilité préalable d’un effet réel de 0,1, même l’observation de p = 0,001 aurait un taux de faux positifs de 8 %. Il n’atteindrait même pas le niveau de 5 pour cent. En conséquence, il a été recommandé que chaque valeur p soit accompagnée de la probabilité a priori de l’existence d’un effet réel qu’il serait nécessaire de supposer pour atteindre un risque de faux positif de 5 %. Par exemple, si l’on observe p = 0,05 dans une seule expérience, il faudrait être certain à 87 % de l’existence d’un effet réel avant la réalisation de l’expérience pour atteindre un risque de faux positif de 5 %.
Caractéristique d’exploitation du récepteurModifié
L’article « Caractéristique d’exploitation du récepteur » aborde les paramètres du traitement statistique du signal basés sur les rapports d’erreurs de différents types.