Estadistica Inerencial y Estimacion

julio 4, 2018 Desactivado Por admin

Inferencia Estadística o Estimación La Estadística descriptiva y la teoría de la Probabilidad van a ser los pilares de un nuevo procedimiento (Estadística Inferencial) con los que se va a estudiar el comportamiento global de un fenómeno. La probabilidad y los modelos de distribución junto con las técnicas descriptivas, constituyen la base de una nueva forma de interpretar la información suministrada por una parcela de la realidad que interesa investigar.

Este esquema nos da una idea clara de cómo surge la Estadística Inferencial: 4 p En la mayoría de las a todos y cada uno d por el coste que sup ul posible estudiar lación ya sea idad de acceder a ello. Mediante la técnica inferencial obtendremos conclusiones para una población no observada en su totalidad, a partir de estimaciones o resúmenes numéricos efectuados sobre la base informativa extraída de una muestra de dicha población.

Por tanto, el esquema que se sigue es: En definitiva, la idea es, a partir de una población se extrae una muestra por algunos de los métodos existentes, con la que se generan datos numéricos que se van a utilizar para generar estadísticos con los que realizar estimaciones o contrastes métodos y procedimientos que por medio de la inducción etermina propiedades de una población estadística, a partir de una pequeña parte de la misma.

La estadística inferencial comprende como aspectos importantes: La toma de muestras o muestreo, que se refiere a la forma adecuada de considerar una muestra que permita obtener conclusiones estadísticamente válidas y significativas. La estimación de parámetros o variables estad[sticas, que permite estimar valores poblacionales a partir de muestras de mucho menor tamaño. El contraste de hipótesis, que permite decidir si dos muestras son estadísticamente diferentes, si un determinado procedimiento iene un efecto estadístico significativo, etc.

El diseño experimental, que se refiere a una técnica estadística que permite identificar y cuantificar las causas de un efecto dentro de un estudio experimental. La Inferencia bayesiana, que es un tipo de inferencia estadística en la que las evidencias u observaciones se emplean para actualizar o inferir la probabilidad de que una hipótesis pueda ser cierta. Los métodos no paramétricos, que son los métodos que estudian las pruebas y modelos estadísticos cuya distribución subyacente no se ajusta a los llamados criterios paramétricos.

Los métodos básicos de la estadística inferencial son la estimación y el contraste de hipótesis. Se llama estimación al conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por una muestra. por ejemplo, una estimación de la media de ada característica de 4 una población de tamaño a media de esa misma una población de tamaño N podría ser la media de esa misma característica para una muestra de tamaño n. La estimación se divide en tres grandes bloques, cada uno de los cuales tiene distintos métodos que se usan en función de las aracterísticas y propósitos del estudio: Estimación puntual:2 Método de los momentos; Método de la máxima verosimilitud; Método de los mínimos cuadrados; Estimación por intervalos. Estimación bayesiana. Estimador Un estimador es una regla que establece cómo calcular una estimación basada en las mediciones contenidas en una muestra estadística. Estimación puntual Es un estimador de un parámetro poblacional es una función de los datos muéstrales.

En pocas palabras, es una fórmula que depende de los valores obtenidos de una muestra, para realizar estimaciones. Busca, con base en los datos muéstrales, un único valor estimado ara el parámetro, es decir, consiste en la estimación del valor del parámetro mediante un sólo valor, obtenido de una fórmula determinada. Por ejemplo, si se pretende estimar la talla media de un determinado grupo de individuos, puede extraerse una muestra y ofrecer como estimación puntual la talla media de los individuos.

Lo más importante de un estimador eficiente. Es decir, que sea insesgado (ausencia de sesgos) y estable en el muestreo o eficiente (varianza mínima) Estimación puntual. Sea X una variable poblacional con distribución F9 , siendo 8 desconocido. El problema de estimación puntual consiste en, seleccionada una uestra XI, Xn, encontr ico T(XI , . , Xn) que mejor estime el parámetro 9. Un da o realizada la muestra, parámetro e. Una vez observada o realizada la muestra, con valores XI, xn, se obtiene la estimación puntual de 8, T(xl, .

Vemos a continuación dos métodos para obtener la estimación puntual de un parámetro: Método de los momentos: consiste en igualar momentos poblacionales a momentos muestrales. Deberemos tener tantas igualdades como parámetros a estimar. Momento poblacional de orden r ar = E(Xr) Momento muestral de orden r ar – Xn i=l Xr i n Método de máxima verosimilitud: consiste en tomar como valor el parámetro aquel que maximice la probabilidad de que ocurra la muestra observada.

Si XI, Xn es una muestra seleccionada de una población con distribución F9 0 densidad f9(x), la probabilidad de que ocurra una realización XI, xn viene dada por: La(xl, xn) = Yn fa(xi) Método de mínimos cuadrados Consiste en obtener un estimador que hace mínima una determinada función. Estimación por intervalos Consiste en la obtención de un intervalo dentro del cual estará el valor del parámetro estimado con una cierta probabilidad. En la estimación por intervalos se usan los siguientes conceptos: Intervalo de confianza El intervalo de confianza es una expresión del tipo [81, 62] ó al e 92, donde e es el parámetro a estimar.

Este intervalo contiene al parámetro estimado con un determinado nivel de confianza. pero a veces puede cambiar este intervalo cuando la muestra no garantiza un axioma o un rcunstancial. 14 Variabilidad del Parámetro literatura científica o en un estudio piloto. También hay métodos para calcular el tamaño de la muestra que prescinden de este aspecto. Habitualmente se usa como medida de esta variabilidad la desviación típica poblacional y se denota o. Error de la estimación Es una medida de su precisión que se corresponde con la amplitud del intervalo de confianza.

Cuanta más precisión se desee en la estimación de un parámetro, más estrecho deberá ser el intervalo de confianza y, si se quiere mantener o disminuir el error, mas observaciones deberán incluirse en la muestra estudiada. En caso de no incluir nuevas observaciones para la muestra, más error se comete al aumentar la precisión. Se suele llamar E, según la fórmula E = (92 – 91)/2. Límite de Confianza Es la probabilidad de que el verdadero valor del parámetro estimado en la población se sitúe en el intervalo de confianza btenido.

El nivel de confianza se denota por (1 -a), aunque habitualmente suele expresarse con un porcentaje Es habitual tomar como nivel de confianza un 95% o un 99%, que se corresponden con valores a de 0,05 y 0,01 respectivamente. Valor a También llamado nivel de significación. Es la probabilidad (en tanto por uno) de fallar en nuestra estimación, esto es, la diferencia entre la certeza (1) y el nivel de confianza (1-a). Por ejemplo, en una estimación con un nivel de confianza del 95%, el valor a es (100-95)/100 = 0,05 Valor crítico Se representa por Za/2.

Es el valor de la abscisa en una eterminada distribución que deja a su derecha un área igual a a/2, siendo 1-0 el nivel de confianza. Normalmente los valores críticos están tabulados o pueden calcularse en función de la dis confianza. Normalmente los valores críticos están tabulados o pueden calcularse en función de la distribución de la población. Por ejemplo, para una distribución normal, de media 0 y desviación típica 1, el valor crítico para a – 0,1 se calcularía del siguiente modo: se busca en la tabla de la distribución ese valor (o el más aproximado), bajo la columna «Área»; se observa que se corresponde con -1 ,28.

Entonces Zu12 1,64. Si la media o desviación típica de la distribución normal no coinciden con las de la tabla, se puede realizar el cambio de variable t para su cálculo. Con estas definiciones, si tras la extracción de una muestra se dice que «3 es una estimación de la media con un margen de error de 0,6 y un nivel de confianza del 99% podemos interpretar que el verdadero valor de la media se encuentra entre 2,7 y 3,3, con una probabilidad del 99%.

Los valores 2,7 y 3,3 se obtienen restando y sumando, respectivamente, la mitad del error, para obtener el Intervalo de confianza según las definiciones dadas. Para un tamaño fijo de la muestra, los conceptos de error y nivel de confianza van relacionados. Si admitimos un error mayor, esto es, aumentamos el tamaño del intervalo de confianza, tenemos también una mayor probabilidad de éxito en nuestra estimación, es decir, un mayor nivel de confianza.

Estimación bayesiana Es un tipo de inferencia estadística en la que las evidencias u observaciones se emplean para actualizar o inferir la probabilidad de que una hipótesis pueda ser cierta. El nombre «bayesiana» proviene del uso frecuente que se hace del teorema de Bayes durante el proceso de inferencia. El eorema de Bayes se ha derivado del tra del teorema de Bayes durante el proceso de inferencia. El teorema de Bayes se ha derivado del trabajo realizado por el matemático Thomas Bayes.

Hoy en día, uno de los campos de aplicación es en la teoría de la decisión, 1 visión artificia12 (simulación de la percepción en general)3 y reconocimiento de patrones por ordenador. El marco teórico en que se aplica la inferencia bayesiana es similar a la clásica: hay un parámetro poblacional respecto al cual se desea realizar inferencias y se tiene un modelo que determina la probabilidad de observar diferentes valores de X, bajo diferentes valores de los parámetros. Sin embargo, la diferencia fundamental es que la inferencia bayesiana considera al parámetro como una variable aleatoria.

Esto parecería que no tiene demasiada importancia, pero realmente si lo tiene pues conduce a una aproximación diferente para realizar el modelamiento del problema y la inferencia propiamente dicha Algunos ejemplos que justifican lo anterior son: la verdadera proporción de artículos defectuosos que produce un proceso de manufactura puede fluctuar ligeramente pues depende de numerosos factores, la verdadera proporción de casas que se ierden por concepto de hipoteca varia dependiendo de las condiciones economicas, la demanda promedio semanal de automóviles también fluctuará como una función de varios factores incluyendo la temporada.

En esencia, la inferencia bayesiana esta basada en la distribución de probabilidad del parámetro dado los datos (distribución a posteriori de probabilidad ( ) Pr y B , en lugar de la distribución de los datos dado el parámetro. Esta diferencia conduce a inferencias mucho más naturales, lo único parámetro. Esta diferencia conduce a inferencias mucho más naturales, lo único que se requiere para el proceso de inferencia ayesiana es la especificación previa de una distribución a priori de probabilidad a Pr( ) B , la cual representa el conocimiento acerca del parámetro antes de obtener cualquier información respecto a los datos.

La noción de la distribución a priori para el parámetro es el corazón del pensamiento bayesiano. El análisis bayesiano hace uso explicito de las probabilidades para cantidades Inciertas (parámetros) en inferencias basadas en análisis estadísticos de datos. El análisis bayesiano lo podemos dividir en las siguientes etapas: 1. Elección de un modelo de probabilidad completo. Elección de una distribución de probabilidad conjunta para todas las cantidades observables y no observables. El modelo debe ser consistente con el conocimiento acerca del problema fundamental y el proceso de recolección de la información; 2.

Condicionamiento de los datos observados. Calcular e Interpretar la distribución a posteriori apropiada que se define como la distribución de probabilidad condicional de las cantidades no observadas de interés, dados los datos observados; 3. Evaluación del ajuste del modelo y las implicancias de la distribución a posteriori resultante. ¿Es el modelo apropiado a los datos? ¿son las conclusiones razonables? , ¿qué tan sensibles son los resultados a las suposiciones de modelamiento de la primera etapa?. Si fuese necesario, alterar o ampliar el modelo, y repetir las tres etapas mencionadas.

CONTRASTE DE HIPÓTESIS El problema central de la inferencia estadística es un problema de toma de decisiones, del cual la estimación central de la inferencia estadística es un problema de toma de decisiones, del cual la estimación y el contraste de hipótesis son aspectos importantes, diferenciados entre sí, pero complementarios. Un contraste de hipótesis o Test de hipótesis estadistico es una rueba de significación o una prueba estadística, que indican el proceso mediante el cual decidimos si una proposición respecto de la población, debe ser aceptada o no. Esta proposición es lo que se denomina hipótesis estadística.

Es una regla de decisión que nos dice cuando aceptar y rechazar las hipótesis, con esto vemos si los datos de una muestra son compatibles o no con los de la población. Una hipótesis estadística, por tanto, es una proposición acerca de la función de probabilidad o de la función de densidad de probabilidad de una variable aleatoria o de varias variables aleatorias. Tal proposición debe referirse bien a la forma de la Inferencia, estimación y contraste de hipótesis distribución de probabilidad, bien al valor o valores de los parámetros que lo definan o bien a ambos.

Hipótesis estadística es, una afirmación acerca de la distribución de la población. Puede haber hipótesis estadísticas en contextos paramétricos y no paramétricos. El contraste de hipótesis estadístico se basará en la información proporcionada por la muestra. De modo, que si rechazamos la hipótesis, queremos indicar que los datos de la muestra ofrecen cierta evidencia sobre su falsedad. Si la aceptamos simplemente queremos significar que no se rechaza.

Un contraste de hipótesis consiste, por tanto, en estudiar dos hipótesis: HO (hipótesis nula), Hl (hipótesis alternativa), de manera que el investigador div estudiar dos hipótesis: HO (hipótesis nula), Hl (hipótesis alternativa), de manera que el investigador divide los resultados muestrales en dos zonas; una zona de rechazo y otra de aceptación, de manera que según como obtengamos el resultado, aceptaremos o rechazaremos la hipótesis. El objetivo de la estadística inferencial es obtener la información cerca de una población, partiendo de la información que contiene una muestra.

El proceso que se sigue para seleccionar una muestra se denomina Muestreo. Las ventajas que nos brinde el muestreo son: Los operativos son menores. Posibilita analizar un mayor número de variables. Permite controlar las variables en estudio. TIPOS DE MUESTREO – Muestreo Probabilístico: Cuando el muestreo o proceso para seleccionar una muestra es aleatorio. Asi definimos una muestra probabilística a una muestra extraída de una población de tal manera que todo elemento de la población conocida pueda ser incluida en la muestra. Puede ser a u vez: A. MUESTREO ALEATORIO SIMPLE: (M.

A. S. ): Es aquel muestreo aleatorio en el que la probabilidad de que un elemento resulte seleccionado se mantiene constante a lo largo de todo el proceso de obtención de la misma. La técnica del muestreo puede asimilarse a un modelo de extracción de bolas de una urna con devolución (reemplazamiento) de la bola extraída. Un mismo dato puede, en consecuencia, resultar muestreado más de una vez. Cada elección no depender de las anteriores y, por tanto, los datos muestrales serán estocásticamente independientes. 0 DF 3. MUESTREO ALEATORIO . Esta técnica consiste