Articles

Validität und Reliabilität in quantitativen Studien | Evidence-Based Nursing

Reliabilität

Die Reliabilität bezieht sich auf die Konsistenz einer Messung. Ein Teilnehmer, der ein Instrument zur Messung der Motivation ausfüllt, sollte jedes Mal, wenn er den Test ausfüllt, ungefähr die gleichen Antworten geben. Obwohl es nicht möglich ist, eine exakte Berechnung der Reliabilität anzugeben, kann eine Schätzung der Reliabilität durch verschiedene Maßnahmen erreicht werden. Die drei Attribute der Reliabilität sind in Tabelle 2 dargestellt. Wie jedes Attribut getestet wird, wird im Folgenden beschrieben.

Ansicht in dieser Tabelle:

  • Inline-Ansicht
  • Popup-Ansicht
Tabelle 2

Attribute der Reliabilität

Die Homogenität (interne Konsistenz) wird mit Hilfe der Item-Total-Korrelation, der Split-Half-Reliabilität, dem Kuder-Richardson-Koeffizienten und Cronbachs α bewertet. Bei der Split-Half-Reliabilität werden die Ergebnisse eines Tests bzw. Instruments in zwei Hälften geteilt. Korrelationen werden berechnet, indem beide Hälften miteinander verglichen werden. Starke Korrelationen weisen auf eine hohe Reliabilität hin, während schwache Korrelationen darauf hinweisen, dass das Instrument möglicherweise nicht zuverlässig ist. Der Kuder-Richardson-Test ist eine kompliziertere Version des Split-half-Tests. Dabei wird der Durchschnitt aller möglichen Split-Half-Kombinationen ermittelt und eine Korrelation zwischen 0-1 gebildet. Dieser Test ist genauer als der Split-Half-Test, kann aber nur bei Fragen mit zwei Antworten (z.B. ja oder nein, 0 oder 1) durchgeführt werden.3

Cronbachs α ist der am häufigsten verwendete Test zur Bestimmung der internen Konsistenz eines Instruments. Bei diesem Test wird der Durchschnitt aller Korrelationen in jeder Kombination von Split-Hälften ermittelt. Instrumente mit Fragen, die mehr als zwei Antworten haben, können in diesem Test verwendet werden. Das Cronbachs α-Ergebnis ist eine Zahl zwischen 0 und 1. Ein akzeptabler Reliabilitätswert ist einer, der 0,7 und höher ist.1 ,3

Die Stabilität wird mit Hilfe von Test-Retest- und Parallel- oder Alternate-Form-Reliabilitätstests geprüft. Die Test-Retest-Reliabilität wird beurteilt, wenn ein Instrument denselben Teilnehmern mehr als einmal unter ähnlichen Bedingungen gegeben wird. Es wird ein statistischer Vergleich zwischen den Testergebnissen der Teilnehmer für jedes Mal, wenn sie den Test absolviert haben, durchgeführt. Dies gibt einen Hinweis auf die Zuverlässigkeit des Instruments. Die Parallelform-Reliabilität (oder Alternate-Form-Reliabilität) ist der Test-Retest-Reliabilität ähnlich, mit dem Unterschied, dass den Teilnehmern in den nachfolgenden Tests eine andere Form des Originalinstruments gegeben wird. Die Domäne oder die Konzepte, die getestet werden, sind in beiden Versionen des Instruments gleich, aber der Wortlaut der Items ist unterschiedlich.2 Damit ein Instrument Stabilität zeigt, sollte es eine hohe Korrelation zwischen den Ergebnissen geben, die jedes Mal erreicht werden, wenn ein Teilnehmer den Test abschließt. Im Allgemeinen bedeutet ein Korrelationskoeffizient von weniger als 0,3 eine schwache Korrelation, 0,3-0,5 ist moderat und größer als 0,5 ist stark.4

Die Äquivalenz wird durch die Inter-Rater-Reliabilität bewertet. Dieser Test beinhaltet ein Verfahren zur qualitativen Bestimmung des Grades der Übereinstimmung zwischen zwei oder mehreren Beobachtern. Ein gutes Beispiel für das Verfahren zur Beurteilung der Inter-Rater-Reliabilität sind die Bewertungen der Preisrichter bei einem Eislaufwettbewerb. Der Grad der Übereinstimmung zwischen allen Preisrichtern bei den Bewertungen der Eislaufteilnehmer ist das Maß für die Inter-Rater-Reliabilität. Ein Beispiel in der Forschung ist, wenn Forscher gebeten werden, eine Bewertung für die Relevanz jedes Items in einem Instrument abzugeben. Die Konsistenz in ihren Bewertungen bezieht sich auf den Grad der Inter-Rater-Reliabilität des Instruments.

Die Bestimmung, wie rigoros die Fragen der Reliabilität und Validität in einer Studie behandelt wurden, ist eine wesentliche Komponente in der Forschungskritik und beeinflusst die Entscheidung, ob die Studienergebnisse in die Pflegepraxis implementiert werden sollen. In quantitativen Studien wird die Rigorosität durch eine Bewertung der Validität und Reliabilität der in der Studie verwendeten Werkzeuge oder Instrumente bestimmt. Eine qualitativ hochwertige Forschungsstudie wird den Nachweis erbringen, wie all diese Faktoren berücksichtigt wurden. Dies wird Ihnen helfen, die Validität und Reliabilität der Studie zu beurteilen und zu entscheiden, ob Sie die Ergebnisse in Ihrem Bereich der klinischen Praxis anwenden sollten.

Eine Antwort schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.