Inferencia estadística
Contenido sugerido
1. Introducción a la modelación estadística y al razonamiento inductivo. Objetivos de la modelación estadística. Modelos probabilísticos y estadísticos, relación y diferencias; ejemplos. Modelos paramétricos y no paramétricos. Familias de distribuciones más importantes. La ciencia y la importancia de la Estadística en ella. [Box, 1980; Capítulo 1 Sprott; Capítulos 1-3 Sagan] [1 semana]
2. Introducción a pruebas de hipótesis y su rol en la validación de modelos. Conceptos básicos. Uso adecuado de p-valores. [Capítulo 6, Sprott] [1 semana] Gráficas cuantil-cuantil. Prueba Ji-Cuadrada de Pearson para validar modelos multinomiales.
3. Conceptos fundamentales de estimación en la modelación estadística.
3.1. La función de verosimilitud completa de los parámetros de un modelo estadístico y sus propiedades. [2 semanas].
El estimador de máxima verosimilitud (EMV). La función de verosimilitud relativa como estandarización de la verosimilitud y su interpretación en términos de simetría, localización, dispersión y rango de valores del parámetro con plausibilidad. Regiones e intervalos de verosimilitud y su interpretación. Exploración analítica de la verosimlitud relativa a través de su expansión en series de Taylor alrededor del EMV. La información observada de Fisher, su rol substancial en la expansión en series de Taylor de la verosimilitud y en la forma de ésta; contraste con la información esperada de Fisher. Aproximaciones normales a la verosimilitud. (Este desarrollo servirá de base para las ideas que se verán en temas posteriores, de manera especial en el tema 6 y para el curso de Estadística Matemática) [Capítulo 9 Kalbfleisch, Pawitan].
3.2. Suficiencia. [1 ½ semanas]. Identificación de estadísticas suficientes a partir de la función de verosimilitud. El Teorema de Factorización de Fisher. Propiedades de estadísticas suficientes. Relación del concepto de suficiencia con la familia exponencial y con la familia de localización y escala. [Secciones 15.1 y 15.2, Kalbfleisch].
3.3. Consistencia. Definición e importancia. (Serfling). [1/2 semana].
3.4. Estimación puntual adicional al EMV. [1 semana].
Estimadores de momentos. Estimador de mínima Ji-cuadrada (Mood, Graybill y Boes). Necesidad de criterios de optimalidad para seleccionar estimadores; ventajas y desventajas del error cuadrático medio como criterio. Propiedades deseables de estimadores: insesgamiento asintótico, consistencia y eficiencia.
3.5. Estimación por intervalo de un parámetro de interés. [4 semanas].
3.5.1. Intervalos aleatorios y probabilidades de cobertura.
3.5.2. Intervalos de confianza para un parámetro. Uso de cantidades pivotales para construcción de intervalos de confianza.
3.5.3. Propiedades frecuentistas de la función de verosimilitud e intervalos de verosimilitud-confianza para el parámetro de interés. Algunos procedimientos de obtención que involucran cantidades pivotales: a) a través de la aproximación normal a la verosimilitud, b) a través de la aproximación Ji-cuadrada para la distribución del negativo del doble de la log razón de verosimilitud. Ejemplos.
3.5.4. Consecuencias de la asimetría de la verosimilitud en las inferencias sobre el parámetro de interés. Reparametrizaciones para eliminar esta asimetría cuando se presente para facilitar encontrar intervalos de estimación de mayor precisión, usando la propiedad de invarianza de la verosimilitud.
3.5.5. Comparación e importancia de las propiedades de verosimilitud y de confianza de un intervalo de estimación. [Capítulo 11 de Kalbfleisch].
4. Modelos estadísticos multiparamétricos. [2 semanas].
4.1. El problema de estimación por separado de parámetros de interés en presencia de parámetros de estorbo. La función de verosimilitud perfil y otras posibilidades como la verosimilitud marginal y la condicional (Pawitan, 2001, Sprott, 2000).
5. Comparación y selección de modelos estadísticos paramétricos. [1 semana]
La razón de verosimilitud como herramienta de comparación para modelos anidados y no anidados. Pruebas de hipótesis asociadas en el caso de modelos anidados. El criterio de Akaike. Ejemplos. [Cox y Hinkley, 1973; Capítulo 11 de Kalbfleisch; Pawitan, Capítulo 3].
6. Estimación de parámetros usando propiedades asintóticas de los estimadores de máxima verosimilitud y de momentos. [2 semanas].
Situaciones en las que este procedimiento es razonable. Propiedades asintóticas de estimadores: a) Insesgamiento [Kalbfleisch, Sección 11.7]. b) Consistencia. Cota para la varianza de estimadores insesgados; desigualdad de Cramer-Rao. [Serflng, y Mood, Graybill y Boes]. Propiedades asintóticas del EMV como estimador puntual: Aplicaciones del Teorema de máxima verosimilitud (Serling; la demostración se esbozará en el curso de Estadística Matemática). Propiedades asintóticas del estimador de momentos.: (Serfling).
Sugerencias de Bibliografia
- Box, G. E. P. (1980). Sampling and Bayes’ Inference in Scientific Modelling and Robustness. JRSS, Series A, V.143, No. 4. pp. 383-430.
- Box y Tiao.(1992). Bayesian Inference in Statistical Analysis. Nueva York, John Wiley.
- Kalbfleisch, J. G. (1985). Probability and Statistical Inference. Vol. 2. Springer-Verlag.
- Roussas, G. G. (1997). A Course in Mathematical Statistics. Academic Press.
- Mood, A. M., Graybill, A. F. y Boes, D. (1974). Introduction to the Theory of Statistics. Mc Graw Hill.
- Hogg, R. V. y Craig, A. T. (1978). Introduction to Mathematical Statistics. Collier Mac Millan Internacional Editions.
- Pawitan, Y. (2001). In All Likelihood. Statistical Modeling and Inference Using Likelihood. Oxford: Oxford Science Publications.
- Sagan, Carl (1995). El mundo y sus demonios. La ciencia como una luz en la oscuridad. México: Editorial Planeta.
- Sprott, D. A. (2000). Statistical Inference in Science. Springer-Verlag.
- Sprott, D. A. (2004).What is Optimality in Scientific Inference? en Institute of Mathematical Statistics Lecture Notes, V. 44.
- Evans, M., Hastings, N. y Peacock, B. (1993). Statistical Distributions. John Wiley & Sons.
- Edwards, A. W. F. (1992). Likelihood. Johns Hopkins.
- Cox, D.R., and Hinkley, D.V. (1973), Theoretical Statistics, Chapman and Hall.
- Serfling, R. (1980). Approximation Theorems of Mathematical Statistics, Wiley.
- Kalbfleisch, J. G. (1985). Probability and Statistical Inference. Vol. 1. Springer-Verlag.