Pruebas paramétricas: definición y características

Este artículo fue redactado y avalado por la psicóloga Paula Villasante
5 abril, 2019
Cuanto mayor sea la muestra, más exacta será la estimación. Al contrario, cuanto más pequeña sea la muestra, más distorsionada será la media de las muestras por los valores raros extremos.

Las pruebas paramétricas son un tipo de pruebas de significación estadística que cuantifican la asociación o independencia entre una variable cuantitativa y una categórica (1). Recordemos que una variable categórica es aquella que diferencia a los individuos en grupos. Sin embargo, este tipo de pruebas exigen ciertos requisitos previos para su aplicación. ¿Cuáles son estos?

Pongamos que, por ejemplo, queremos comparar dos grupos. Para comprobar si podemos aplicar las pruebas paramétricas, primero tendremos que comprobar si la distribución de los grupos en la variable cuantitativa es normal.

Además, también tendremos que comprobar la homogeneidad de las varianzas en las poblaciones de las que proceden los grupos. Por último, la cantidad de sujetos, llamada n en estadística, tendrá que ser mayor que 30 por grupo, favoreciendo los resultados del contraste de hipótesis el hecho de que los grupos estén balanceados..

En el caso de que estos requisitos no se cumplan, recurriremos a las pruebas no paramétricas. Si se cumplen, entonces podremos utilizar las pruebas paramétricas: la prueba t (para una muestra o para dos muestras relacionadas o independientes) y prueba ANOVA (para más de dos muestras independientes).

Personas haciendo estadística y hablando sobre los tipos de validez. pruebas paramétricas

Condiciones para aplicarlas

Son muchas las investigaciones que necesitan determinar qué tiene que ver con qué. Es decir, necesitan saber si las variables que se están estudiando están asociadas entre sí o no. En cualquier caso, necesitamos saber algunas cosas antes de aplicar unas pruebas u otras. Así, de forma detallada, los requisitos para poder utilizar estas pruebas paramétricas son (1):

La variable de estudio ha de ser numérica

Esto es, la variable dependiente debe estar medida en una escala que sea, por lo menos, de intervalo. Es mejor incluso si es de razón.

Normalidad

Principalmente, los valores de la variable dependiente deben seguir una distribución normal. Esto debe ocurrir, como mínimo, en la población que pertenece a la muestra.

La distribución normal o gaussiana (debido a la campana de Gauss) es la distribución teórica mejor estudiada y debe su importancia fundamentalmente a la frecuencia con la que distintas variables asociadas a fenómenos naturales y cotidianos siguen, aproximadamente, esta distribución. Algunos ejemplos, como el peso o caracteres psicológicos como el cociente intelectual son ejemplos de variables de las que, normalmente, se asume que siguen una distribución normal.

Homocedasticidad (homogeneidad de varianzas) entre los grupos a comparar

Las varianzas de la variable dependiente en los grupos comparados deben ser más o menos iguales. Por eso es necesario saber si se cumple con esta homogeneidad de varianzas, ya que de ello depende la formulación que empleemos en el contraste de medias. Algunas pruebas que permiten comparar esta homogeneidad de varianzas son:

La n muestral

La n es el tamaño de la población. En este caso, el tamaño de la población de la muestra no puede ser inferior a 30, y será mejor cuanto más se acerque a la n de toda la población.

Así, cuanto mayor sea la muestra, más exacta será la estimación. Al contrario, cuanto más pequeña sea la muestra, más distorsionada será la media de las muestras por los valores raros extremos.

Personas haciendo estadística

Tipos de pruebas paramétricas

Según el contraste planteado, se utiliza un tipo u otro de prueba paramétrica (2):

Tipo de contraste Pruebas
Una muestra Prueba t
Dos muestras independientes Prueba t para dos muestras independientes
Dos muestras relacionadas Prueba t para datos relacionados
Más de dos muestras independientes ANOVA

Prueba t para una muestra

La prueba t para una muestra se ocupa de contrastar si la media de una población difiere de forma significativa de un valor dado conocido o hipotetizado. Así, la prueba calcula estadísticos descriptivos para las variables de contraste junto con la prueba t (1).

Prueba t para dos muestras independientes

Esta prueba se utiliza cuando la comparación sea entre las medias de dos poblaciones independientes. Esto es, los individuos de una de las poblaciones son distintos a los individuos de la otra. Un ejemplo de esto es una comparación entre hombres y mujeres (1).

Prueba t para dos muestras relacionadas

Esta prueba es otra de las alternativas para contrastar dos medias. Esta se refiere principalmente al supuesto caso en el que las dos poblaciones no sean independientes. En este caso, se trata de poblaciones que se relacionan entre sí. Esta situación ocurre, por ejemplo, cuando un grupo de individuos es observado antes y después de una determinada intervención.

Prueba ANOVA para más de dos muestras independientes

En el caso de tener que comparar más de dos muestras, habremos de recurrir al análisis de varianza o ANOVA. Es una prueba estadística desarrollada para realizar simultáneamente la comparación de las medias de más de dos poblaciones.

Estas pruebas son muy recurrentes en la investigación de psicología, abusando de ellas en muchas ocasiones. Sin embargo, hemos de recordar siempre sus requisitos previos, que nos indicarán si podemos utilizar las pruebas paramétricas o bien debemos recurrir a las pruebas no paramétricas.

  1. Hurtado, M. J. R., & Silvente, V. B. (2012). Cómo aplicar las pruebas paramétricas bivariadas t de Student y ANOVA en SPSS. Caso práctico. REIRE, 5(2).
  2. Ferrán Aranaz, M. (2002) Curso de SPSS para Windows. Madrid: McGraw-Hill.
  3. Pérez Juste, R., García Llamas, J.L., Gil Pascual, J.A. y Galán González, A. (2009) Estadística aplicada a la Educación. Madrid: UNED - Pearson.