Pruebas no paramétricas: definición y tipos

En esta clasificación de las pruebas no paramétricas ocurre una falta de consenso a la hora de agruparlas. Las autoras Berlanga y Rubio (2012) realizaron un resumen de las principales pruebas paramétricas y su clasificación.
Pruebas no paramétricas: definición y tipos
Paula Villasante

Escrito y verificado por la psicóloga Paula Villasante.

Última actualización: 31 enero, 2022

Las pruebas o técnicas no paramétricas engloban una serie de pruebas estadísticas que tienen en común la ausencia de asunciones acerca de la ley de probabilidad que sigue la población de la que ha sido extraída la muestra. Así, estas técnicas se aplican cuando no sabemos si la población de la cual se extrae la muestra es normal o aproximadamente normal.

Estas técnicas no paramétricas se utilizan con frecuencia, puesto que existen muchas variables que no siguen las condiciones de parametricidad. Estas son: el uso de variables cuantitativas continuas, distribución normal de las muestras, varianzas similares y muestras balanceadas.

Cuando estos requisitos previos no se cumplen o hay serias dudas de que se cumplan, se usan las pruebas no paramétricas o de distribución libre. Así, las pruebas no paramétricas reúnen las siguientes características:

  • Se utilizan mucho menos de lo que sería recomendable (son menos conocidas por los investigadores).
  • Son aplicables a los datos jerarquizados.
  • Se pueden usar cuando dos series de observaciones provienen de distintas poblaciones (poblaciones en las que no se distribuye igual la variable).
  • Son la única alternativa realista cuando el tamaño de muestra es pequeño.
pruebas no paramétricas

Clasificación de las pruebas no paramétricas

En esta clasificación de las pruebas no paramétricas ocurre una falta de consenso a la hora de agruparlas. Las autoras Berlanga y Rubio (2012) realizaron un resumen de las principales pruebas paramétricas.

Pruebas no paramétricas de una muestra

Prueba de Chi-cuadrado de Pearson

Es una prueba muy utilizada cuando el investigador quiere analizar la relación entre dos variables que son cuantitativas. También es muy utilizada para evaluar en qué medida los datos recogidos en una variable categórica (distribución empírica) se ajustano no (se parece o no) a una determinada distribución teórica (uniforma, binomial, multinomial, etcétera).

Prueba Binomial

Esta prueba permite averiguar si una variable dicotómica sigue o no un determinado modelo de probabilidad. Permite contrastar la hipótesis de que la proporción observada de aciertos se ajusta a la proporción teórica de una distribución binomial.

Prueba de Rachas

Es una prueba que permite determinar si el número de rachas (R) observado en una muestra de tamaño n es lo suficientemente grande o lo suficientemente pequeño para poder rechazar la hipótesis de independencia (o aleatoreidad) entre las observaciones.

Una racha es una secuencia de observaciones de un mismo atributo o cualidad. Que haya más o menos rachas que las esperables por azar en una serie de datos puede ser un indicador de que hay una variable importante que está condicionando los resultados y que no estamos teniendo en cuenta..

Prueba de Kolmogorov-Smirnov (K-S)

Esta prueba sirve para contrastar la hipótesis nula de que la distribución de una variable se ajusta a una determinada distribución teórica de probabilidad (normal, exponencial o la de Poisson). El hecho de que la distribución de los datos se ajuste o no a una determinada distribución va a sugerirnos unas técnicas de análisis de datos frente a otras.

Hombre leyendo sobre estadística descriptiva en la tablet

Pruebas no paramétricas para dos muestras relacionadas

Prueba de McNemar

La prueba de McNemar se utiliza para contrastar hipótesis sobre igualdad de proporciones. Se usa cuando hay una situación en la que las medidas de cada sujeto se repiten. Así, la respuesta de cada uno de ellos se obtiene dos veces: una vez antes y otra después de un evento específico.

Prueba de los Signos

Permite contrastar la hipótesis de igualdad entre dos medianas poblacionales. Se puede utilizar para saber si una variable tiende a ser mayor que otra. También para probar la tendencia que siguen una serie de variables positivas.

Prueba de Wilcoxon

Permite contrastar la hipótesis de igualdad entre dos medianas poblacionales.

Pruebas no paramétricas para K-muestras relacionadas

Prueba de Friedman

Se trata de una extensión de la prueba de Wilcoxon. Así, se usa para incluir datos registrados en más de dos periodos de tiempo o grupos de tres o más sujetos, con un sujeto de cada grupo que ha sido asignado aleatoriamente a una de las tres o más condiciones.

Prueba de Cochran

Es idéntica a la anterior, pero se aplica cuando todas las respuestas son binarias. La Q de Cochran aprueba la hipótesis de que varias variables dicotómicas que están relacionadas entre sí tienen el mismo promedio.

Coeficiente de concordancia de W de Kendall

Tiene las mismas indicaciones que la prueba de Friedman. Sin embargo, su uso en investigación ha sido principalmente para conocer la concordancia entre rangos.

Pruebas no paramétricas para dos muestras independientes

Prueba U de Mann-Whitney

Es equivalente a la prueba de suma de rangos de Wilcoxon y también a la prueba de dos grupos Kruskal-Wallis.

Prueba de Kolmogorov-Smirnov

Esta prueba se usa para contrastar la hipótesis de que dos muestras proceden de la misma población.

Prueba de Rachas de Wald-Wolfowitz

Contrasta si dos muestras con datos independientes proceden de poblaciones con la misma distribución.

Prueba de reacciones extremas de Moses

Sirve para estudiar si hay diferencia en el grado de dispersión o variabilidad de dos distribuciones. Se centra en la distribución del grupo de control y es una medida para saber cuántos valores extremos del grupo experimental influyen en la distribución al combinarse con el grupo de control.

Personas haciendo estadística

Pruebas no paramétricas para K-muestras independientes

Prueba de la Mediana

Contrasta diferencias entre dos o más grupos en relación con su mediana. No se utilizan medias, bien porque no cumplen las condiciones de normalidad o porque la variable es cuantitativa discreta. Es similar a la prueba Chi-cuadrado.

Prueba de Jonckheere-Terpstra

Se trata de la más potente a la hora de analizar una ordenación ascendente o descendente de las K poblaciones de las que se extraen las muestras.

Prueba H de Kruskal-Wallis

Por último, la prueba H de Kruskal-Wallis es una extensión de la U de Mann-Whitney y representa una excelente alternativa al ANOVA de un factor.

Así, estas pruebas se utilizan cuando la distribución de los datos no es normal. Podemos acudir a ellas cuando tengamos datos que no estén en una escala de razón o bien cuando, estándolo, tengamos dudas de si la distribución de alguna de las variables se ajusta a la curva normal. Por otro lado, es cierto que muchas pruebas paramétricas son relativamente robustas frente a la violación de supuestos; sin embargo, si hay pruebas mejores, ¿por qué no emplearlas?


Todas las fuentes citadas fueron revisadas a profundidad por nuestro equipo, para asegurar su calidad, confiabilidad, vigencia y validez. La bibliografía de este artículo fue considerada confiable y de precisión académica o científica.


  • Berlanga-Silvente, V., & Rubio-Hurtado, M. J. (2012). Classificació de proves no paramètriques. Com aplicar-les en SPSS. REIRE. Revista d’Innovació i Recerca en Educació, 5(2), 101-113.

Este texto se ofrece únicamente con propósitos informativos y no reemplaza la consulta con un profesional. Ante dudas, consulta a tu especialista.