4.5. Muestras definitivas
Una muestra es un subconjunto de casos o individuos de una población. En
diversas aplicaciones interesa que una muestra sea, representativa y
para ello debe escogerse una técnica de muestra adecuada, que produzca
una muestra aleatoria adecuada. También es un subconjunto de la
población, y para ser representativa, debe tener las mismas
características de la población. Si se obtiene una muestra sesgada su
interés y utilidad es más limitado, dependiendo del grado de sesgos que
presente.
Como un subgrupo o subconjunto representativo de la población, extraída
seleccionada por algún método de muestreo. La muestra siempre es una
parte de la población. Si se tienen varias poblaciones, entonces se
tendrán varias muestras. La muestra debe poseer toda la información
deseada para tener la posibilidad de extraerla, esto solo se puede
lograr con una buena selección de la muestra y un trabajo muy cuidadoso y
de alta calidad en la recogida de datos.
4.5.1. Estadísticas descriptivas
La estadística descriptiva es la rama de la estadística que recolecta, analiza y caracteriza un conjunto de datos (peso de la población,
beneficios diarios de una empresa, temperatura mensual,…) con el
objetivo de describir las características y comportamientos de este
conjunto mediante medidas de resumen, tablas o gráficos.
4.5.2. Muestras pequeñas: prueba de Kolmogórov-Smirnov para ajuste de una distribución de probabilidad continua hipotética
Prueba Kolmogorov-Smirnov para una muestra:
Es una prueba de bondad de ajuste. Se emplea en una muestra
independiente. El tipo de variable es cuantitativa continua (debe ser
medida en escala al menos ordinal). Esta prueba responde a la pregunta:
¿Ajusta la distribución empírica de datos muestrales de una variable
ordinal o cuantitativa a una distribución teórica conocida? Esta prueba
no requiere que los datos sean agrupados, lo que permite que ésta haga
uso de toda la información del conjunto de datos. Puede utilizarse con
muestras de cualquier tamaño (mientras que la X2 requiere que las
muestras tengan un tamaño mínimo).
Hipótesis:
H0: F(x) = FT(x) para toda x desde - ∞ hasta + ∞
H1: F(x) ≠ FT(x) para al menos una x
Como es una prueba de bondad de ajuste aquí interesa no rechazar la hipótesis nula, es
decir, interesa que el valor de p sea mayor de 0,05 para no rechazar la hipótesis nula
(queremos que p > 0,05).
Ejemplo:
Se efectuaron mediciones del nivel de glucemia de 36 hombres adultos en
ayuno, no obesos y aparentemente sanos. Estas mediciones se muestran en la tabla que
se presenta. Se pretende saber si es posible concluir que tales datos no pertenecen a una
población que sigue una distribución normal, con una media de 80 y una desviación
típica de 6. Emplee un α = 0,05.
Respuesta:
Supuestos: La muestra disponible es una muestra aleatoria simple que se extrajo de una
población que sigue una distribución continua.
Hipótesis:
H0: F(x) = FT(x) para toda x desde - ∞ hasta + ∞
H1: F(x) ≠ FT(x) para al menos una x
Ejemplo en spss, dar click aquí
4.5.3. Muestras grandes: prueba de KarlPearson para ajuste de una distribución de probabilidad hipotética, discreta o continua.
La
prueba chi-cuadrado, también llamada Ji cuadrado (Χ2), se encuentra
dentro de las pruebas pertenecientes a la estadística descriptiva,
concretamente la estadística descriptiva aplicada al estudio de dos
variables. Por su parte, la estadística descriptiva se centra en extraer
información sobre la muestra. En cambio, la estadística inferencial
extrae información sobre la población.
El
nombre de la prueba es propio de la distribución Chi-cuadrado de la
probabilidad en la que se basa. Esta prueba fue desarrollada en el año
1900 por Karl Pearson.
La
prueba chi-cuadrado es una de las más conocidas y utilizadas para
analizar variables nominales o cualitativas, es decir, para determinar
la existencia o no de independencia entre dos variables. Que dos
variables sean independientes significa que no tienen relación, y que
por lo tanto una no depende de la otra, ni viceversa.
Así,
con el estudio de la independencia, se origina también un método para
verificar si las frecuencias observadas en cada categoría son
compatibles con la independencia entre ambas variables.
Para
evaluar la independencia entre las variables, se calculan los valores
que indicarían la independencia absoluta, lo que se denomina
“frecuencias esperadas”, comparándolos con las frecuencias de la
muestra.
Como
es habitual, la hipótesis nula (H0) indica que ambas variables son
independientes, mientras que la hipótesis alternativa (H1) indica que
las variables tienen algún grado de asociación o relación.
Así,
como otras pruebas para el mismo fin, la prueba chi-cuadrado se utiliza
para ver el sentido de la correlación entre dos variables nominales o
de un nivel superior (por ejemplo, la podemos aplicar si queremos
conocer si existe relación entre el sexo [ser hombre o mujer] y la
presencia de ansiedad [sí o no]).
Para
determinar este tipo de relaciones, existe una tabla de frecuencias a
consultar (también para otras pruebas como por ejemplo el coeficiente Q
de Yule).
Si
las frecuencias empíricas y las frecuencias teóricas o esperadas
coinciden, entonces no hay relación entre las variables, es decir, éstas
son independientes. En cambio, si coinciden, no son independientes
(existe relación entre las variables, por ejemplo entre X e Y).
Ejemplo de la prueba de Karl Pearson, dar click aqui
4.5.4. Otras pruebas: Anderson-Darling, prueba G, por ejemplo
Anderson-Darling:
El estadístico Anderson-Darling mide qué tan bien siguen los datos una
distribución específica. Para un conjunto de datos y distribución en
particular, mientras mejor se ajuste la distribución a los datos, menor
será este estadístico. Por ejemplo, usted puede utlizar el estadístico
de Anderson-Darling para determinar si los datos cumplen el supuesto de
normalidad para una prueba t.
Las hipótesis para la prueba de Anderson-Darling son:
- H0: Los datos siguen una distribución especificada
- H1: Los datos no siguen una distribución especificada
Utilice el valor p correspondiente (si está disponible) para probar si
los datos provienen de la distribución elegida. Si el valor p es menor
que un nivel de significancia elegido (por lo general 0.05 o 0.10),
entonces rechace la hipótesis nula de que los datos provienen de esa
distribución. Minitab no siempre muestra un valor p para la prueba de
Anderson-Darling, porque este no existe matemáticamente para ciertos
casos.
También puede utilizar el estadístico de Anderson-Darling para comparar
el ajuste de varias distribuciones con el fin de determinar cuál es la
mejor. Sin embargo, para concluir que una distribución es la mejor, el
estadístico de Anderson-Darling debe ser sustancialmente menor que los
demás. Cuando los estadísticos están cercanos entre sí, se deben usar
criterios adicionales, como las gráficas de probabilidad, para elegir
entre ellos.
| Distribución | Anderson-Darling | Valor p |
|---|---|---|
| Exponencial | 9.599 | p < 0.003 |
| Normal | 0.641 | p < 0.089 |
| Weibull de 3 parámetros | 0.376 | p < 0.432 |

Exponencial

Normal

Weibull de 3 parámetros
Ejemplo de comparación de distribuciones
Estas gráficas de probabilidad son para los mismos datos. Tanto la
distribución normal como la distribución de Weibull de 3 parámetros
ofrecen un ajuste adecuado a los datos.
Minitab calcula el estadístico de Anderson-Darling usando la distancia
al cuadrado ponderada entre la línea ajustada de la gráfica de
probabilidad (con base en la distribución elegida y usando el método de
estimación de máxima verosimilitud o las estimaciones de mínimos
cuadrados) y la función de paso no paramétrica. El cálculo tiene mayor
ponderación en las colas de la distribución.
Pruebas G:
Las pruebas G son pruebas de significación estadística de razón de
verosimilitud o de máxima verosimilitud que se utilizan cada vez más en
situaciones en las que anteriormente se recomendaban las pruebas de ji
cuadrado .
La fórmula general para G es:
dónde
es el conteo observado en una celda,
es el recuento esperado bajo la hipótesis nula ,
denota
el logaritmo natural , y la suma se toma sobre todas las celdas no
vacías. Además, el recuento total observado debe ser igual al recuento
total esperado:
dónde
es el número total de observaciones.
Las pruebas G se han recomendado al menos desde la edición de 1981 de
Biometry , un libro de texto de estadísticas de Robert R. Sokal y F.
James Rohlf.


Comentarios
Publicar un comentario