Skip to main content

Test Estadísticos para Acuerdo y Reproducibilidad (Repetibilidad)

La Fiabilidad es la capacidad de que una prueba pueda proporcionar los mismos resultados si la repetimos en las mismas condiciones en momentos de tiempo diferentes. También puede ser aplicable a la obtención de unos mismos resultados cuando dos o mas evaluadores realizan la prueba en las mismas condiciones clínicas.

En el ámbito de la Salud Visual existen casos evidentes de baja fiabilidad que pueden ocasionar errores en la interpretación Clínica. Vamos a relatar el caso de un tratamiento de ambliopía llevado a cabo en un mismo centro por dos Optometristas que trabajan en diferentes gabinetes (A y B). Dependiendo del ajuste de citas y horarios, el paciente es referido en cada ocasión a uno de los dos Optometristas que aunque poseen el mismo test de gabinete y condiciones de iluminación idénticas, difieren en sus "criterios" de obtención del umbral de agudeza visual. Mientras que el Optometrista A intenta motivar insistentemente al paciente a que resuelva los optotipos inclusive mediante intuición, el Optometrista B es más conservador y no insiste cuando al paciente "le cuesta" resolver los detalles del test.

Tanto Optometrista A como B se muestran confusos ante las continuas oscilaciones en la agudeza visual del paciente durante el tratamiento. Algo que parecía "inexplicable" es un error de procedimiento durante la simple valoración de la Agudeza Visual. Estos problemas han sido tratados en multitud de estudios científicos incorporando sistemas automatizados que eliminen los criterios subjetivos del examinador o paciente como los utilizados en nuestras APPs. Centrándose en métodos más reproducibles, como en este caso particular, de obtención del umbral de agudeza visual. En conclusión, cualquier test o procedimiento clínico debe ser reproducible con pequeños sesgos, bien sea entre Evaluadores, dentro de un mismo Evaluador o propios de un instrumento de medida.

 

Fuentes de variabilidad que pueden influir en la fiabilidad:

Consistencia Interna (Internal Consistency). Es la variabilidad producida por el instrumento de medida

Test-retest. Variabilidad aplicada por la medida en diferentes momentos del tiempo.

Inter-experimentador (Inter-rater). Medidas por distintos experimentadores en el mismo momento de tiempo.

Intra-experimentador (Intra-rater). Los mismos experimentadores en distintos momentos de tiempo.

Hemos de tener en cuenta que en la literatura podemos encontrar multitud de referencias para hablar de fiabilidad, como pueden ser: reproductibilidad (reproducibility), repetibilidad (repetibility), precisión (accuracy), variabilidad, consistencia, concordancia, estabilidad, acuerdo, etc.

Cualquier evaluación realizada con un instrumento de medida esta sometida a una fuente de variabilidad que produce que el resultado obtenido no sea el "Verdadero". Siendo este valor verdadero el promedio que se obtendría con el instrumento si la medida se realizase un numero infinito de veces.

Existen distintas aproximaciones estadísticas con el fin de evaluar la Fiabilidad de un Test, Instrumento o Procedimiento. En nuestro curso online podrás aprender a llevar a cabo de manera práctica todos estos procedimientos, entre ellos:

Tipos de Índice de Correlación Intraclase (ICC) en SPSS

Gráfico de Bland-Altman

Regresión Passing-Bablok

Índice Kappa

Coeficiente y Límite de Repetibilidad