4.5. Muestras definitivas

Una muestra es un subconjunto de casos o individuos de una población. En diversas aplicaciones interesa que una muestra sea, representativa y para ello debe escogerse una técnica de muestra adecuada, que produzca una muestra aleatoria adecuada. También es un subconjunto de la población, y para ser representativa, debe tener las mismas características de la población. Si se obtiene una muestra sesgada su interés y utilidad es más limitado, dependiendo del grado de sesgos que presente.
Como un subgrupo o subconjunto representativo de la población, extraída seleccionada por algún método de muestreo. La muestra siempre es una parte de la población. Si se tienen varias poblaciones, entonces se tendrán varias muestras. La muestra debe poseer toda la información deseada para tener la posibilidad de extraerla, esto solo se puede lograr con una buena selección de la muestra y un trabajo muy cuidadoso y de alta calidad en la recogida de datos.


4.5.1. Estadísticas descriptivas

La estadística descriptiva es la rama de la estadística que recolecta, analiza y caracteriza un conjunto de datos (peso de la población, beneficios diarios de una empresa, temperatura mensual,…) con el objetivo de describir las características y comportamientos de este conjunto mediante medidas de resumen, tablas o gráficos.

4.5.2. Muestras pequeñas: prueba de Kolmogórov-Smirnov para ajuste de una distribución de probabilidad continua hipotética


Prueba Kolmogorov-Smirnov para una muestra: Es una prueba de bondad de ajuste. Se emplea en una muestra independiente. El tipo de variable es cuantitativa continua (debe ser medida en escala al menos ordinal). Esta prueba responde a la pregunta: ¿Ajusta la distribución empírica de datos muestrales de una variable ordinal o cuantitativa a una distribución teórica conocida? Esta prueba no requiere que los datos sean agrupados, lo que permite que ésta haga uso de toda la información del conjunto de datos. Puede utilizarse con muestras de cualquier tamaño (mientras que la X2 requiere que las muestras tengan un tamaño mínimo).
Hipótesis: 
H0: F(x) = FT(x) para toda x desde - ∞ hasta + ∞ 
H1: F(x) ≠ FT(x) para al menos una x 
Como es una prueba de bondad de ajuste aquí interesa no rechazar la hipótesis nula, es decir, interesa que el valor de p sea mayor de 0,05 para no rechazar la hipótesis nula (queremos que p > 0,05). 
Ejemplo: 

Se efectuaron mediciones del nivel de glucemia de 36 hombres adultos en ayuno, no obesos y aparentemente sanos. Estas mediciones se muestran en la tabla que se presenta. Se pretende saber si es posible concluir que tales datos no pertenecen a una población que sigue una distribución normal, con una media de 80 y una desviación típica de 6. Emplee un α = 0,05.
Respuesta: 
Supuestos: La muestra disponible es una muestra aleatoria simple que se extrajo de una población que sigue una distribución continua. 
Hipótesis: 
H0: F(x) = FT(x) para toda x desde - ∞ hasta + ∞ 
H1: F(x) ≠ FT(x) para al menos una x
Ejemplo en spss, dar click aquí

4.5.3. Muestras grandes: prueba de KarlPearson para ajuste de una distribución de probabilidad hipotética, discreta o continua.

La prueba chi-cuadrado, también llamada Ji cuadrado (Χ2), se encuentra dentro de las pruebas pertenecientes a la estadística descriptiva, concretamente la estadística descriptiva aplicada al estudio de dos variables. Por su parte, la estadística descriptiva se centra en extraer información sobre la muestra. En cambio, la estadística inferencial extrae información sobre la población.

El nombre de la prueba es propio de la distribución Chi-cuadrado de la probabilidad en la que se basa. Esta prueba fue desarrollada en el año 1900 por Karl Pearson.

La prueba chi-cuadrado es una de las más conocidas y utilizadas para analizar variables nominales o cualitativas, es decir, para determinar la existencia o no de independencia entre dos variables. Que dos variables sean independientes significa que no tienen relación, y que por lo tanto una no depende de la otra, ni viceversa.

Así, con el estudio de la independencia, se origina también un método para verificar si las frecuencias observadas en cada categoría son compatibles con la independencia entre ambas variables.
Para evaluar la independencia entre las variables, se calculan los valores que indicarían la independencia absoluta, lo que se denomina “frecuencias esperadas”, comparándolos con las frecuencias de la muestra.

Como es habitual, la hipótesis nula (H0) indica que ambas variables son independientes, mientras que la hipótesis alternativa (H1) indica que las variables tienen algún grado de asociación o relación.
Así, como otras pruebas para el mismo fin, la prueba chi-cuadrado se utiliza para ver el sentido de la correlación entre dos variables nominales o de un nivel superior (por ejemplo, la podemos aplicar si queremos conocer si existe relación entre el sexo [ser hombre o mujer] y la presencia de ansiedad [sí o no]).

Para determinar este tipo de relaciones, existe una tabla de frecuencias a consultar (también para otras pruebas como por ejemplo el coeficiente Q de Yule).

Si las frecuencias empíricas y las frecuencias teóricas o esperadas coinciden, entonces no hay relación entre las variables, es decir, éstas son independientes. En cambio, si coinciden, no son independientes (existe relación entre las variables, por ejemplo entre X e Y).

Ejemplo de la prueba de Karl Pearson, dar click aqui

4.5.4. Otras pruebas: Anderson-Darling, prueba G, por ejemplo


Anderson-Darling:

El estadístico Anderson-Darling mide qué tan bien siguen los datos una distribución específica. Para un conjunto de datos y distribución en particular, mientras mejor se ajuste la distribución a los datos, menor será este estadístico. Por ejemplo, usted puede utlizar el estadístico de Anderson-Darling para determinar si los datos cumplen el supuesto de normalidad para una prueba t.
Las hipótesis para la prueba de Anderson-Darling son:
  • H0: Los datos siguen una distribución especificada
  • H1: Los datos no siguen una distribución especificada
Utilice el valor p correspondiente (si está disponible) para probar si los datos provienen de la distribución elegida. Si el valor p es menor que un nivel de significancia elegido (por lo general 0.05 o 0.10), entonces rechace la hipótesis nula de que los datos provienen de esa distribución. Minitab no siempre muestra un valor p para la prueba de Anderson-Darling, porque este no existe matemáticamente para ciertos casos.
También puede utilizar el estadístico de Anderson-Darling para comparar el ajuste de varias distribuciones con el fin de determinar cuál es la mejor. Sin embargo, para concluir que una distribución es la mejor, el estadístico de Anderson-Darling debe ser sustancialmente menor que los demás. Cuando los estadísticos están cercanos entre sí, se deben usar criterios adicionales, como las gráficas de probabilidad, para elegir entre ellos.
DistribuciónAnderson-DarlingValor p
Exponencial9.599p < 0.003
Normal0.641p < 0.089
Weibull de 3 parámetros0.376p < 0.432

Exponencial

Normal

Weibull de 3 parámetros
Ejemplo de comparación de distribuciones
Estas gráficas de probabilidad son para los mismos datos. Tanto la distribución normal como la distribución de Weibull de 3 parámetros ofrecen un ajuste adecuado a los datos.
Minitab calcula el estadístico de Anderson-Darling usando la distancia al cuadrado ponderada entre la línea ajustada de la gráfica de probabilidad (con base en la distribución elegida y usando el método de estimación de máxima verosimilitud o las estimaciones de mínimos cuadrados) y la función de paso no paramétrica. El cálculo tiene mayor ponderación en las colas de la distribución.
Pruebas G:

Las pruebas G son pruebas de significación estadística de razón de verosimilitud o de máxima verosimilitud que se utilizan cada vez más en situaciones en las que anteriormente se recomendaban las pruebas de ji cuadrado .
La fórmula general para G es:
dónde    es el conteo observado en una celda, es el recuento esperado bajo la hipótesis nula , denota el logaritmo natural , y la suma se toma sobre todas las celdas no vacías. Además, el recuento total observado debe ser igual al recuento total esperado:
dónde es el número total de observaciones.
Las pruebas G se han recomendado al menos desde la edición de 1981 de Biometry , un libro de texto de estadísticas de Robert R. Sokal y F. James Rohlf.

Comentarios

Entradas populares