Articles

Validité et fiabilité dans les études quantitatives | Evidence-Based Nursing

Reliabilité

La fiabilité concerne la cohérence d’une mesure. Un participant qui remplit un instrument censé mesurer la motivation devrait avoir approximativement les mêmes réponses chaque fois que le test est rempli. Bien qu’il ne soit pas possible de donner un calcul exact de la fiabilité, une estimation de la fiabilité peut être obtenue grâce à différentes mesures. Les trois attributs de la fiabilité sont présentés dans le tableau 2. La façon dont chaque attribut est testé est décrite ci-dessous.

Voir ce tableau :

  • Voir en ligne
  • Voir en popup
Tableau 2

Attributs de la fiabilité

L’homogénéité (cohérence interne) est évaluée à l’aide de la corrélation item-total, de la fiabilité fractionnée, du coefficient de Kuder-Richardson et du α de Cronbach. Dans le cas de la fiabilité à moitié partagée, les résultats d’un test, ou d’un instrument, sont divisés en deux. Les corrélations sont calculées en comparant les deux moitiés. Des corrélations fortes indiquent une fiabilité élevée, tandis que des corrélations faibles indiquent que l’instrument n’est peut-être pas fiable. Le test de Kuder-Richardson est une version plus complexe du test de la moitié divisée. Dans ce processus, la moyenne de toutes les combinaisons possibles de moitiés divisées est déterminée et une corrélation entre 0 et 1 est générée. Ce test est plus précis que le test de la moitié divisée, mais ne peut être réalisé que sur des questions à deux réponses (par exemple, oui ou non, 0 ou 1).3

Le α de Cronbach est le test le plus couramment utilisé pour déterminer la cohérence interne d’un instrument. Dans ce test, on détermine la moyenne de toutes les corrélations dans chaque combinaison de split-halves. Les instruments dont les questions comportent plus de deux réponses peuvent être utilisés dans ce test. Le résultat α de Cronbach est un nombre compris entre 0 et 1. Un score de fiabilité acceptable est un score de 0,7 et plus.1 ,3

La stabilité est testée à l’aide de tests de fiabilité test-retest et de formes parallèles ou alternées. La fiabilité test-retest est évaluée lorsqu’un instrument est administré aux mêmes participants plus d’une fois dans des circonstances similaires. Une comparaison statistique est effectuée entre les résultats des participants à chaque fois qu’ils ont passé le test. Cela donne une indication de la fiabilité de l’instrument. La fiabilité des formes parallèles (ou des formes alternatives) est similaire à la fiabilité test-retest, sauf qu’une forme différente de l’instrument original est donnée aux participants lors des tests suivants. Le domaine ou les concepts testés sont les mêmes dans les deux versions de l’instrument, mais la formulation des questions est différente.2 Pour qu’un instrument fasse preuve de stabilité, il doit y avoir une forte corrélation entre les scores chaque fois qu’un participant effectue le test. En général, un coefficient de corrélation inférieur à 0,3 signifie une faible corrélation, 0,3-0,5 est modéré et plus de 0,5 est fort.4

L’équivalence est évaluée par la fiabilité inter-évaluateurs. Ce test comprend un processus permettant de déterminer qualitativement le niveau d’accord entre deux ou plusieurs observateurs. Un bon exemple du processus utilisé pour évaluer la fiabilité inter-juges est celui des notes des juges d’une compétition de patinage. Le niveau de cohérence entre tous les juges dans les notes données aux participants au patinage est la mesure de la fiabilité inter-évaluateurs. Dans le domaine de la recherche, par exemple, on demande aux chercheurs d’attribuer une note à la pertinence de chaque élément d’un instrument. La cohérence de leurs notes se rapporte au niveau de fiabilité inter-évaluateurs de l’instrument.

Déterminer la rigueur avec laquelle les questions de fiabilité et de validité ont été abordées dans une étude est une composante essentielle de la critique de la recherche ainsi que de l’influence sur la décision de mettre en œuvre ou non les résultats de l’étude dans la pratique infirmière. Dans les études quantitatives, la rigueur est déterminée par une évaluation de la validité et de la fiabilité des outils ou instruments utilisés dans l’étude. Une étude de recherche de bonne qualité fournira des preuves de la manière dont tous ces facteurs ont été pris en compte. Cela vous aidera à évaluer la validité et la fiabilité de la recherche et à décider si vous devez ou non appliquer les résultats dans votre domaine de pratique clinique.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *