Skip to main content

Tipos de Índice de Correlación Intraclase (ICC) en SPSS

Estadística versus Práctica Real

En el siguiente artículo vamos a intentar enlazar fórmulas estadísticas con sus conceptos en la práctica real para que sean fácilmente comprendidas por el lector. Partimos del concepto de Varianza (σ2), que es una medida de dispersión y representa el cuadrado de la desviación de una muestra con respecto a su media.

El concepto de varianza será el que emplearemos en la valoración de la Fiabilidad de un instrumento partiendo de la Teoría Clásica de los Test (CTT, Clasical Test Theory) proveniente de la Psicometría. Esta teoría sostiene que cualquier medición (Y) es el resultado de sumar el valor real de aquello que queremos medir (η) y un error aleatorio (ε) (Ecuación 1). La CTT requiere de ciertos axiomas que deben ser tenidos en cuenta.

Y = η * ε

[1]

Midamos lo que midamos siempre vamos a sufrir cierto error que dependerá de forma aleatoria de variables como: el instrumento, la manipulación, el sujeto evaluado, etc. Un instrumento Fiable será aquel cuyo error aleatorio sea lo suficientemente pequeño como para que nos permita diferenciar entre los distintos elementos que componen nuestra muestra. De manera equivalente podemos decir que la varianza en nuestras medidas será la suma de varianzas propias de nuestra muestra y de las varianzas debidas al error de medida (Ecuación 2). Si nosotros realizamos las medidas un número infinito de veces, llegará un momento que el promedio del error sea 0, siendo el valor medido igual al valor real. Evidentemente, no podemos realizar el experimento un número infinito de veces, por lo que tendremos que emplear estadísticos que nos ayuden a valorar como de Fiables son nuestros test en la Evaluación de una determinada Población.

σY = ση * σε

[2]

A partir de esta base podemos definir la Fiabilidad (Reliability) como un ratio de varianzas. La Fiabilidad (R) es el cociente entre la varianza (σp2) = (σy2) de nuestra muestra que llamaremos varianza poblacional (Ya que en la mayoría de los casos trabajaremos con personas) y la suma de varianzas propias a nuestra población más la varianza del error de medida. (σp22error). Un aspecto importante y que podemos deducir de la fórmula es que la Fiabilidad de nuestro instrumento dependerá de la Muestra que utilicemos, si hay pequeñas diferencias entre sujetos, un pequeño error de medida afectará de mayor forma a la Fiabilidad de nuestro instrumento que si utilizamos una muestra donde hayan mayores diferencias entre la población en tal caso el error del instrumento no afectará tanto a la fiabilidad (Ecuación 3).

R =

σp2


[3]

σp2+ σerror2

En Salud Visual basada en la Evidencia de manera general utilizaremos nuestros instrumentos de medida para diferenciar entre pacientes normales de aquellos que presentan una determinada característica, por ejemplo una patología, anomalía acomodativa, binocular, etc. Nuestro instrumento será fiable siempre que el Error de Medida del instrumento no afecte la capacidad de detectar estas anomalías cometiendo errores como diagnosticar una patología cuando esta no esta presente o viceversa.

R =

σp2


[1]

σp2+ σerror2

 

 

Introducción al Índice de Correlación Intraclase

Si recuperamos el concepto de Fiabilidad como ratio entre varianzas (Ecuación 1) podemos comprobar la relación que tiene el Índice de Correlación Intraclase (ICC) con este concepto. El ICC mide el grado de acuerdo o consitencia entre medidas cuya varianza puede ser atribuida a:

  • Variaciones entre experimentadores, cuando dos experimentadores realizan medidas sobre una misma muestra.
  • Entre instrumentos, cuando se emplean dos instrumentos de medida sobre una misma muestra.
  • Cuando se realizan medidas con un mismo instrumento en distintos momentos del tiempo.
  • ...

En la ecuación 2 podemos visualizar una nueva varianza (σo)2 que forma parte del error de varianza (σerror)2 definida en la ecuación 1 y que es atribuible a cualquiera de los casos anteriores dependiendo del experimento que nos encontremos realizando. La varianza del error experimental (σerror)2 ha sido descompuesta en (σo)2 y la varianza residual (σresidual)2 que es debida a la interacción entre (σo)2 y (σp)2. Aplicando el ICC nos encontraremos como resultado un coeficiente que variará entre 0 y 1. Cuando el error debido a la variabilidad entre experimentadores, instrumentos, etc. sea muy pequeño. La variabilidad será atribuida exclusivamente a nuestra población o muestra, con lo cual nos encontraremos con un resultado FIABLE.

ICCacuerdo absoluto =

σp2


[2]

σp2+ σo2 + σ2residual

ICCConsistencia =

σp2


[3]

σp+ σ2residual


En este punto es importante diferenciar entre el Concepto de CONSISTENCIA y ACUERDO ABSOLUTO del ICC. En la CONSISTENCIA tan solo es considerado el error residual (σresidual)2 como parte del error de varianza. Un ejemplo sería visible si dos instrumentos de evaluación de la presión intraocular (PIO) ordenan de la misma forma a un conjunto de pacientes. Aunque sus valores no sean exactamente idénticos, serán CONSISTENTES si ordena a la población de la misma forma, es decir, de los que tienen una menor PIO a los que tienen un valor mayor.

Siendo el ICC de CONSISTENCIA el menos frecuente, generalmente nos interesa saber si dos instrumento miden exactamente el mismo valor. Este es el denominado ACUERDO ABSOLUTO. En este caso (σerror)2 = (σo)2 + (σresidual)2.

Un aspecto más a tener en cuenta es, si queremos extrapolar nuestros resultados no solo a los examinadores implicados en el experimento "Efectos Mixtos", sino también a cualquier otro examinador "Efectos Aleatorios". Esta opción debe ser seleccionada en SPSS dependiendo de las conclusiones que deseemos obtener en nuestro experimento.

Otra opción que ofrece SPSS y que no es prácticamente utilizada "Un Factor, Efectos Aleatorios". Esta opción se emplea cuando obtenemos resultados de dos procedimientos que son intercambiables. Por ejemplo, tomamos dos medidas sin importar el orden en el cual se han realizado. Bien por que lo desconozcamos o bien porque seamos totalmente conscientes de que no influyen en el resultado de nuestro experimento.

Teniendo en cuenta que la mayoría de la bibliografía no suele describir de manera completa el correcto uso de los ICC para distintos experimentos es aconsejable en nuestra redacción científica reflejar el tipo de ICC utilizado según la clasificación de Shrout & Fleiss:

Tipos de ICC

 
Clasificación Shrout and Fleiss Nomenclatura en SPSS
ICC(1,1) One-way random single measures
ICC(1,k) One-way random average measures
ICC(2,1) Two-way random single measures (Consistency/Absolute agreement)
ICC(2,k) Two-way random average measures (Consistency/Absolute agreement)
ICC(3,1) Two-way mixed single measures (Consistency/Absolute agreement)
ICC(3,k) Two-way mixed average measures (Consistency/Absolute agreement)
Referencias
  • Shrout, P. E., & Fleiss, J. L. (1979). Intraclass correlations: uses in assessing rater reliability. Psychological bulletin, 86(2), 420-8. Retrieved from http://www.ncbi.nlm.nih.gov/pubmed/18839484
  • Weir, J. P. (2005). Quantifying test-retest reliability using the intraclass correlation coefficient and the SEM. Journal of strength and conditioning research / National Strength & Conditioning Association, 19(1), 231-40. doi:10.1519/15184.1
Ejemplos de artículos
¿Dónde puedo encontrar un Videotutorial en SPSS sobre el Coeficiente o Índice de Correlación Intraclase?

La Sección 14 de nuestro Curso Online se encuentra dirigida a Estudio de Acuerdo y Fiabilidad, en esta sección podrás encontrar los siguientes videotutoriales:


14.2.- Introducción al Coeficiente de Correlación Intraclase (CCI)
14.3.- Limitaciones del Coeficiente de Correlación Intraclase (CCI)
14.4.- 10 Tipos de Coeficiente de Correlación Intraclase, ¿cuál llevar a cabo?
14.5- Interpretación del Coeficiente de Correlación Intraclase (CCI)
14.6.- (SPSS) ¿Cómo llevar a cabo el CCI modelo 3 con acuerdo absoluto en SPSS?

Para acceder a estos Videotutoriales puedes matricularte en nuestro curso online.