unidad 4

4.1. Lista de estimadores a obtener de la simulación.
 
Definiremos algunas propriedades de los estimadores
 
  1. Parámetro. Verdadero valor de una característica de interés, denominado por θ, que raramente es conocido.
  2. Estimativa. Valor numérico obtenido por el estimador, denominado de θ ˆ en una muestra.
  3. Vi´es y no vi´es. Un estimador es no in-sesgado si: E(θ ˆ ) = θ, onde el vi´es es dado por: vies(θ ˆ ) = E(θ ˆ θ) = E(θ ˆ ) − θ

Cuadrado medio del error (ECM). Es dado por:

ECM(θ ˆ ) = E(θ ˆ − θ) 2 = V (θ ˆ ) + (vies)

1) Un estimador es consistente si: plim(θ ˆ ) = θ ; y lim −→ ∞ECM(θ ˆ ) = 0

2) Las leyes de los grandes números explican por que el promedio o media de una muestra al azar de una población de gran tamaño tendera estar cerca de la media de la población completa.  
 
      4.1.1 instrumentos de medición.

El análisis de la literatura existente arroja un resultado de 17 instrumentos de medida de las actitudes y la ansiedad hacia la estadística. Exceptuando dos instrumentos elaborados a partir de escalas bipolares, a la manera del diferencial semántico de Osgood (Birenbaum y Eylath, 1994; Green, 1993), todos los instrumentos revisados son escalas tipo Likert. En lo que sigue vamos a describir brevemente estos cuestionarios, poniendo un mayor énfasis en aquellos que han sido usados más frecuentemente.

    4.1.2 Medios de registro de datos

La elección del método depende de la estrategia de recopilación de datos, el tipo de variable, la precisión necesaria, el punto de recopilación y la formación del encuestador. Las vínculos entre una variable, su origen y los métodos prácticos para su recopilación. Pueden ayudar a escoger métodos apropiados. Los principales métodos de recopilación de datos son:
  • Registros: los registros y licencias son particularmente valiosos para los censos completos, pero se limitan a variables que cambian lentamente, como el número de embarcaciones pesqueras y sus características. 
  • Cuestionarios: formularios que los encuestados devuelven cumplimentados. Un método poco costoso que resulta útil cuando los índices de alfabetización son altos y los encuestados colaboran. 
  • Entrevistas: formularios que se cumplimentan a lo largo de una entrevista con el encuestado. Más caros que los cuestionarios, pero mejores para preguntas más complejas, y cuando se dan unos índices de alfabetización bajos o se encuentra menos colaboración.
  • Observaciones directas: la realización de mediciones directas es el método más preciso para todas las variables, como las capturas, pero a menudo resulta caro. Muchos métodos, como los programas de observación, se limitan a la pesca industrial. 
  • Presentación de informes: la principal alternativa a la realización de mediciones directas consiste en pedir a los pescadores y a terceros que presenten informes de sus actividades. La preparación de informes presupone la alfabetización y requiere espíritu de colaboración, pero ello puede reforzarse mediante una obligación legal y mediciones directas.  
Las técnicas de recogida de la información no son un fin en si mismo, sino que dependen de:

a- El tipo de investigación que se esté haciendo.
b- El tipo de análisis de datos que vamos a utilizar posteriormente.
c- El problema que queramos estudiar.
d- Los objetivos que pretendamos alcanzar con la investigación. 

Algunas técnicas se pueden utilizar en distintos diseños, por ejemplo la entrevista se puede utilizar en: investigación acción, en estudios de caso, en investigación etnográfica, etc. 



4.2 Identificación de estimador determinante (estimador líder)

Por definición, el valor de una variable cambia conforme avanza la simulación, aunque se le debe dar un valor inicial. Cabe recordar que el valor de un parámetro permanece constante; sin embargo, puede cambiar conforme se estudian diferentes alternativas en otras simulaciones.

Determinación de condiciones iniciales La determinación de condiciones iniciales para las variables es una decisión táctica importante en la simulación.

Lo anterior se debe a que el modelo se sesga por una serie de valores iniciales hasta que el modelo llega a un estado estable.

Para manejar este problema, los analistas han seguido varios planteamientos como 


  1. Descartar los datos generados durante las primeras partes de la ejecución.
  2. Seleccionar las condiciones iniciales que reducen la duración del periodo de calentamiento o
  3. Seleccionar las condiciones iniciales que eliminan el sesgo. Sin embargo, para emplear cualquiera de estas alternativas, el analista debe tener una idea del margen de datos de salida esperado. Por lo tanto, en cierto sentido, el analista sesga los resultados. Por otro lado, una de las únicas características de la simulación es que permite la crítica en el diseño y análisis de la simulación; por lo que si el analista tiene cierta información que alberga un problema, se debe incluir.  

Determinación de duración de la ejecución La duración de la ejecución de simulación (duración de la ejecución o tiempo de ejecución) depende del propósito de la simulación.

Quizás el planteamiento más común sea continuar la simulación hasta lograr un equilibrio. En el ejemplo del mercado de pescado, significaría que las ventas simuladas de pescado corresponden a sus frecuencias relativas históricas. Otro planteamiento es ejecutar la simulación durante un periodo establecido como 1 mes, 1 año o una década y ver si las condiciones al final del periodo son razonables. Un tercer planteamiento es establecer la duración de la ejecución de modo que se obtenga una muestra suficientemente grande para efectos de pruebas de hipótesis estadística. Esta alternativa se considera en la siguiente sección. 

Desde luego que las conclusiones que se pueden obtener de una simulación dependen del grado en que el modelo refleja el sistema real, aunque también depende del diseño de la simulación en un sentido estadístico.  

De hecho, muchos analistas consideran la simulación como una forma de prueba de hipótesis donde cada ejecución de simulación ofrece uno o más datos de muestra que son susceptibles al análisis formal a través de los métodos estadísticos inferenciales. Los procedimientos estadísticos que normalmente se usan en la evaluación de resultados de simulación incluyen el análisis de varianza, análisis de regresión y pruebas t.

En la mayoría de las situaciones, el análisis tiene más información disponible con la cual comparar los resultados de simulación: datos operativos antiguos del sistema real, datos operativos del desempeño de sistemas semejantes y la percepción del analista de la operación del sistema real. Sin embargo, se debe admitir que la información obtenida de estas fuentes probablemente no sea suficiente para validar las conclusiones derivadas de la simulación. Por lo tanto, la única prueba real de una simulación es qué tan bien se desempeña el sistema real después de haber implantado los resultados del estudio. 

Un requerimiento lógico para un estimador es que su precisión mejore al aumentar el tamaño muestral. Es decir, que esperaremos obtener mejores estimaciones cuanto mayor sea el número de individuos.

Si se cumple dicho requerimiento, diremos que un estimador es consistente. Desde un punto de vista más riguroso diremos que un estimador es consistente si converge en probabilidad al verdadero valor del parámetro que queremos estimar. 

Ejemplo:

Consideremos el caso de la estimación de la media de una población Normal (μ) y consideraremos dos estimadores:  

· Estimador 1: La primera observación de la muestra (para cualquier tamaño muestral). · Estimador 2: La media aritmética de las observaciones.

Para observar el comportamiento de ambos estimadores utilizaremos el siguiente programa que genera automáticamente diez muestras de diferentes tamaños (n = 2; 10 ; 50; 500) procedentes de una distribución Normal de parámetros (μ = 0; σ = 1). Se tratará, por tanto, de un estudio de simulación (generamos muestras procedentes de una determinada distribución) para comparar el comportamiento de ambos estimadores. Recuerda que el verdadero valor del parámetro a estimar (μ) es cero y que corresponde a la línea central en negro:

1) Comparad los valores del estimador 1 (primera observación) para los diferentes tamaños muestrales (n = 2; 10; 50; 500).

2) Haced lo mismo con el estimador 2: media aritmética.

3) Obtened nuevas simulaciones y repetid el estudio anterior.

4) ¿Mejora el resultado de algún estimador al aumentar el tamaño de la muestra?  

Es evidente que el estimador correspondiente a la primera observación no mejora al aumentar el tamaño de la muestra. Mientras que la media aritmética converge hacia el verdadero valor del parámetro (μ = 0) al aumentar el tamaño de la muestra.

En resumen: la primera observación no es un estimador consistente de μ, mientras que la media aritmética sí que lo es. 



4.4 Características estadísticas del estimador líder.

Hay una serie de características deseables en los estimadores para que éstos constituyan una buena aproximación a los respectivos parámetros. Se trata de rasgos que podrían entenderse como criterios de calidad de los estimadores.



1. Carencia de sesgo. Se dice que un estimador es insesgado si el valor esperado de su distribución de probabilidad es igual al parámetro. Es decir, si es igual a Ө la media de los valores Ê calculados en cada una de las muestras aleatorias posibles del mismo tamaño. Si el estadístico Ê es utilizado como estimador del parámetro Ө, ese estimador carece de sesgo cuando 

E(Ê) = Ө

Por ejemplo, la media X[D] es un estimador insesgado de µ, puesto que se cumple, tal y como vimos en el capítulo anterior al estudiar la distribución muestral del estadístico media, que

E( X[D]) = µ  

En el caso de la varianza, suelen manejarse habitualmente dos estimadores: 

o bien,

El segundo de los estimadores posee la característica de ser un estimador insesgado de σ2 , razón por la que suele emplearse con más frecuencia que el primero a la hora de estimar el parámetro varianza poblacional.

Cuando E(Ê) ≠ Ө, decimos que el estimador sesgado tiene un sesgo positivo si E(Ê) > Ө, o que tiene un sesgo negativo si E(Ê) < Ө. Un estimador sesgado tenderá a ofrecer sistemáticamente valores que se alejan en un sentido u otro del parámetro, aunque la muestra sea elegida aleatoriamente. 

Consistencia. Un estimador Ê es consistente si, además de carecer de sesgo, se aproxima cada vez más al valor del parámetro a medida que aumenta el tamaño de la muestra. Si el tamaño n se hace indefinidamente grande, los valores de Ê se concentran cada vez más en torno al valor del parámetro, hasta que con un tamaño 

2. muestral infinito obtenemos una varianza del estimador nula. Por tanto, un estimador es consistente si cuando n tiende a infinito se cumple 

E(Ê) = Ө; var(Ê) = 0  

La media es un estimador consistente del parámetro µ, puesto que se verifican las condiciones anteriores. Es decir.

También se comprueba que los dos estimadores de la varianza, presentados en el apartado anterior, resultan ser estimadores consistentes de σ2 . 

3. Eficiencia. La eficiencia de un estimador está vinculada a su varianza muestral. Así, para un mismo parámetro Ө, se dice que el estimador Ê1 es más eficiente que el estimador Ê2 si se cumple

var(Ê1) < var(Ê2)  

Por tanto, si un estadístico es más eficiente que otro, significa que varía menos de unas muestras a otras. Se demuestra que la media es un estimador del parámetro µ más eficiente que la mediana. Del mismo modo, la varianza Sn-12 es un estimador de σ2 más eficiente que Sn 2 .
 
 
  explicación de los temas de unidad 4.


 

Comentarios

Entradas populares