Estadistica Inerencial Y Estimacion
Inferencia Estadística o Estimación La Estadística descriptiva y la teoría de la Probabilidad van a ser los pilares de un nuevo procedimiento (Estadística Inferencial) con los que se va a estudiar el comportamiento global de un fenómeno. La probabilidad y los modelos de distribución junto con las técnicas descriptivas, constituyen la base de una nueva forma de interpretar la información suministrada por una parcela de la realidad que interesa investigar.
Este esquema nos da una idea clara de cómo surge la Estadística Inferencial: En la mayoría de las investigaciones resulta imposible estudiar todos y cada uno de los individuos de la población ya sea por el coste que supondría o or la im osibilidad de acceder a Svipe nextp ello. Mediante la técn para una población n estimaciones o resú informativa extraída Por tanto, el esquem 4 b es n ro efe mos conclusiones dad, a partir de ados sobre la base población.
En definitiva, la idea es, a partir de una población se extrae una muestra por algunos de los métodos existentes, con la que se generan datos numéricos que se van a utilizar para generar estadísticos con los que realizar estimaciones o contrastes poblacionales. La Estadística inferencial o Inferencia estadísticaestudia cómo sacar conclusiones generales para toda la población a partir del estudio de una muestra, y el grado de fiabilidad o significación de los resultados obtenidos.
La estadística inferencial es una parte de la estadística que comprende los métodos y pr Swipe to kdevv next page procedimientos que por medio de la inducción determina propiedades de una población estadística, a partir de una pequeña parte de la misma. La estadística inferencial comprende como aspectos importantes: La toma de muestras o muestreo, que se refiere a la forma decuada de considerar una muestra que permita obtener conclusiones estadísticamente válidas y significativas. La estimación de parámetros o variables estad[sticas, que permite estimar valores poblacionales a partir de muestras de mucho menor tamaño.
El contraste de hipótesis, que permite decidir si dos muestras son estadísticamente diferentes, si un determinado procedimiento tiene un efecto estadístico significativo, etc. El diseño experimental, que se refiere a una técnica estadística que permite identificar y cuantificar las causas de un efecto dentro de un estudio experimental. La Inferencia bayesiana, que es un tipo de inferencia estadística en la que las evidencias u observaciones se emplean para actualizar o inferir la probabilidad de que una hipótesis pueda ser cierta.
Los métodos no paramétricos, que son los métodos que estudian las pruebas y modelos estadísticos cuya distribución subyacente no se ajusta a los llamados criterios HYPERLINK «httpswes. wikipedia. org/Wiki/Estad%C3 %ADstica_param%C3%A9tnca» «Estadística paramétrica» paramétricos. Los métodos básicos de la estadística inferencial son la estimación y el contraste de hipótesis. Se llama estimación al conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por una muestra.
Por ejemplo, una estimación de la media de una determinada caracteristica de un por una muestra. Por ejemplo, una estimación de la media de una determinada característica de una población de tamaño N podría ser la media de esa misma característica para una muestra de tamaño n. 1La estimación se divide en tres grandes bloques, cada uno de los cuales tiene distintos métodos que se usan en función e las características y propósitos del estudio: Estimación puntual:2Método de los momentos; Método de la máxima verosimilitud; Método de los mínimos cuadrados; Estimación por intervalos.
Estimación bayesiana. Estimador Un estimador es una regla que establece cómo calcular una estimación basada en las mediciones contenidas en una muestra estadística. Estimación puntual Es un estimador de un parámetro poblacional es una función de los datos muéstrales. En pocas palabras, es una fórmula que depende de los valores obtenidos de una muestra, para realizar estimaciones. Busca, con base en los datos muéstrales, un único valor estimado para el parámetro, es decir, consiste en la estimación del valor del parámetro mediante un sólo valor, obtenido de una fórmula determinada.
Por ejemplo, si se pretende estimar la talla media de un determinado grupo de individuos, puede extraerse una muestra y ofrecer como estimación puntual la talla media de los individuos. Lo más importante de un estimador eficiente. Es decir, que sea insesgado (ausencia de sesgos) y estable en el muestreo o eficiente (varianza mínima) Estimación puntual. Sea X una ariable poblacional con distribución Fa , siendo B desconocido.
El problema de estimación puntual consiste en, seleccionada una muestra XI, Xn, encontrar el estadístico T(XI , Xn) que mejor estime el parámetro 14 una muestra XI, Xn, encontrar el estadístico T(XI, Xn) que mejor estime el parámetro e. Una vez observada o realizada la muestra, con valores XI, xn, se obtiene la estimación puntual de e, T(XI, xm Vemos a continuación dos métodos para obtener la estimación puntual de un parámetro: Método de los momentos: consiste en igualar momentos poblacionales a momentos muestrales. Deberemos tener tantas igualdades como parámetros a estimar.
Momento poblacional de orden r ar = E(Xr) Momento muestral de orden r ar = Xn Xr i n Método de máxima verosimilitud: consiste en tomar como valor del parámetro aquel que maximice la probabilidad de que ocurra la muestra observada. Si XI, Xn es una muestra seleccionada de una población con distribución FO o densidad fO(x), la probabilidad de que ocurra una realización XI, . , xn viene dada por: L9(x1, . ., xm = yn f9(Xi) Método de mínimos cuadrados Consiste en obtener un estimador que hace mínima una determinada función.
Estimación por intervalos Consiste en la obtención de un intervalo dentro del cual estará el valor del parámetro estimado con una cierta probabilidad. En la estimación por intervalos se usan los siguientes conceptos: Intervalo de confianza El intervalo de confianza es una expresión del tipo [91, 92] ó 91 s e s 02, donde e es el parámetro a estimar. Este intervalo contiene al parámetro estimado con un determinado nivel de confianza. Pero a veces puede cambiar este intervalo cuando la muestra no garantiza un axioma o un equivalente circunstancial.
Variabilidad del Parámetro Si no se conoce, puede obtenerse una aproximación en los datos aportados por la literatura cien Parámetro Si no se conoce, puede obtenerse una aproximación en los datos aportados por la literatura científica o en un estudio piloto. También hay métodos para calcular el tamaño de la muestra que prescinden de este aspecto. Habitualmente se usa como medida de esta variabilidad la desviación típica poblacional y se denota o. Error de la estimación Es una medida de su precisión que se corresponde con la amplitud del intervalo de confianza.
Cuanta más precisión se esee en la estimación de un parámetro, más estrecho deberá ser el intervalo de confianza y, si se quiere mantener o disminuir el error, más observaciones deberán incluirse en la muestra estudiada. En caso de no Incluir nuevas observaciones para la muestra, más error se comete al aumentar la precision. Se suele llamar E, según la fórmula E (82 – 61)/2. Limite de Confianza Es la probabilidad de que el verdadero valor del parámetro estimado en la población se sitúe en el intervalo de confianza obtenido.
El nivel de confianza se denota por (1 -a), aunque habitualmente suele expresarse con un porcentaje Es habitual tomar como nivel de confianza un 95% o un 99%, que se corresponden con valores a de 0,05 y 0,01 respectivamente. Valor a También llamado nivel de significación. Es la probabilidad (en tanto por uno) de fallar en nuestra estimación, esto es, la diferencia entre la certeza (1) y el nivel de confianza (1 -a). por ejemplo, en una estimación con un nivel de confianza del 95%, el valor a es (100-95)/100 = 0,05 Valor crítico Se representa por Za/2.
Es el valor de la abscisa en una determinada distribución que deja a su derecha un área igual a a/ 2, siendo 1-a el nivel de conf istribución que deja a su derecha un área igual a a/2, siendo 1 a el nivel de confianza. Normalmente los valores críticos están tabulados o pueden calcularse en función de la distribución de la población. Por ejemplo, para una distribución normal, de media O y desviación típica 1, el valor critico para a = 0,1 se calcularía del siguiente modo: se busca en la tabla de la distribución ese valor (o el más aproximado), bajo la columna «Área»; se observa que se corresponde con -1,28.
Entonces Za/2 = 1,64. Si la media o desviación típica de la distribución normal no coinciden con las de a tabla, se puede realizar el cambio de variable t para su cálculo. Con estas definiciones, si tras la extracción de una muestra se dice que «3 es una estimación de la media con un margen de error de y un nivel de confianza del 99%», podemos interpretar que el verdadero valor de la media se encuentra entre 2,7 y 3,3, con una probabilidad del 99%.
Los valores 2,7 y 3,3 se obtienen restando y sumando, respectivamente, la mitad del error, para obtener el intervalo de confianza según las definiciones dadas. Para un tamaño fijo de la muestra, los conceptos de error y nivel de confianza van relacionados. SI admitimos un error mayor, esto es, aumentamos el tamaño del intervalo de confianza, tenemos también una mayor probabilidad de éxito en nuestra estimación, es decir, un mayor nivel de confianza.
Estimación bayesiana Es un tipo de inferencia estadística en la que las evidencias u observaciones se emplean para actualizar o inferir la probabilidad de que una hipótesis pueda ser cierta. El nombre «bayesiana» proviene del uso frecuente que se hace del teorema de Bayes durante cierta. El nombre «bayesiana» proviene del uso frecuente que se hace del teorema de Bayes durante el proceso de nferencia. El teorema de gayes se ha derivado del trabajo realizado por el matemático Thomas Bayes.
Hoy en día, uno de los campos de aplicación es en la teoría de la decisión, 1 visión artificia12 (simulación de la percepción en general)3 y reconocimiento de patrones por ordenador. El marco teórico en que se aplica la inferencia bayesiana es similar a la clásica: hay un parámetro poblacional respecto al cual se desea realizar inferencias y se tiene un modelo que determina la probabilidad de observar diferentes valores de X, bajo diferentes valores de los parámetros. Sin embargo, la iferencia fundamental es que la inferencia bayesiana considera al parámetro como una variable aleatoria.
Esto parecería que no tiene demasiada importancia, pero realmente si lo tiene pues conduce a una aproximación diferente para realizar el modelamiento del problema y la inferencia propiamente dicha Algunos ejemplos que justifican lo anterior son: la verdadera proporción de artículos defectuosos que produce un proceso de manufactura puede fluctuar ligeramente pues depende de numerosos factores, la verdadera proporción de casas que se pierden por concepto de hipoteca varia dependiendo de las ondiciones económicas, la demanda promedio semanal de automóviles también fluctuará como una función de varios factores incluyendo la temporada.
En esencia, la inferencia bayesiana esta basada en la distribución de probabilidad del parámetro dado los datos (distribución a posteriori de probabilidad ( ) Pr y e , en lugar de la distribución de los datos dado el parámetro. Esta diferenc dado el parámetro. Esta diferencia conduce a inferencias mucho más naturales, lo único que se requiere para el proceso de inferencia bayesiana es la especificación previa e una distribución a priori de probabilidad 4 Pr( ) 9 , la cual representa el conocimiento acerca del parámetro antes de obtener cualquier información respecto a los datos.
La noción de la distribución a priori para el parámetro es el corazón del pensamiento bayesiano. El análisis bayesiano hace uso explicito de las probabilidades para cantidades inciertas (parámetros) en inferencias basadas en análisis estadísticos de datos. El análisis bayesiano lo podemos dividir en las siguientes etapas: 1 . Elección de un modelo de probabilidad completo. Elección de una istribución de probabilidad conjunta para todas las cantidades observables y no observables. El modelo debe ser consistente con el conocimiento acerca del problema fundamental y el proceso de recolección de la información; 2.
Condicionamiento de los datos observados. Calcular e interpretar la distribución a posteriori apropiada que se define como la distribución de probabilidad condicional de las cantidades no observadas de interés, dados los datos observados; 3. Evaluación del ajuste del modelo y las implicancias de la distribución a posteriori resultante. ¿Es el modelo apropiado a los datos? ¿son las conclusiones razonables? , ¿qué tan sensibles son los resultados a las suposiciones de modelamiento de la primera etapa?. Si fuese necesario, alterar o ampliar el modelo, y repetir las tres etapas mencionadas.
CONTRASTE DE HIPOTESIS El problema central de la inferencia tres etapas mencionadas. CONTRASTE DE HIPÓTESIS El problema central de la inferencia estadística es un problema de toma de decisiones, del cual la estimación y el contraste de hipótesis son aspectos importantes, diferenciados entre sí, pero complementarios. Un contraste de hipótesis o Test de hipótesis estadístico es una rueba de significación o una prueba estadística, que indican el proceso mediante el cual decidimos si una proposición respecto de la población, debe ser aceptada o no. Esta proposición es lo que se denomina hipótesis estadística.
Es una regla de decisión que nos dice cuando aceptar y rechazar las hipótesis, con esto vemos SI los datos de una muestra son compatibles o no con los de la población. Una hipótesis estadística, por tanto, es una proposición acerca de la función de probabilidad o de la función de densidad de probabilidad de una variable aleatoria o de varias variables aleatorias. Tal proposición debe referirse bien a la forma de la Inferencia, estimación y contraste de hipótesis distribución de probabilidad, bien al valor o valores de los parámetros que lo definan o bien a ambos.
Hipótesis estadística es, una afirmación acerca de la distribución de la población. Puede haber hipótesis estadísticas en contextos paramétricos y no paramétricos. El contraste de hipótesis estadístico se basará en la información proporcionada por la muestra. De modo, que si rechazamos la hipótesis, queremos indicar que los datos de la muestra ofrecen cierta evidencia sobre su falsedad. Si la aceptamos simplemente queremos significar que no se rechaza.
Un contraste de hipótesis consiste, por tanto, en estudiar dos hipótesis: HO (hipótesis nula), Hl hipótesis: HO (hipótesis nula), Hl (hipótesis alternativa), de manera que el investigador divide los resultados muestrales en dos zonas; una zona de rechazo y otra de aceptación, de manera que según como obtengamos el resultado, aceptaremos o rechazaremos la hipótesis. El objetivo de la estadística inferencial es obtener la información acerca de una población, partiendo de la información que contiene una muestra.
El proceso que se sigue para seleccionar una muestra se denomina Muestreo. L_as ventajas que nos brinde el muestreo son:Los operativos son menores. Posibilita analizar un mayor número de variables. permite controlar las variables en estudio. TIPOS DE MUESTREO- Muestreo Probabilistico: Cuando el muestreo o proceso para seleccionar una muestra es aleatorio. Así definimos una muestra probabilística a una muestra extraída de una población de tal manera que todo elemento de la población conocida pueda ser incluida en la muestra. Puede ser a su vez:A. MUESTREO ALEATORIO SIMPLE: (M. A. S. : Es aquel uestreo aleatorio en el que la probabilidad de que un elemento resulte seleccionado se mantiene constante a lo largo de todo el proceso de obtención de la misma. La técnica del muestreo puede asimilarse a un modelo de extracción de bolas de una urna con devolución (reemplazamiento) de la bola extraída. Un mismo dato puede, en consecuencia, resultar muestreado más de una vez. Cada elección no depender de las anteriores y, por tanto, los datos muestrales serán estocásticamente independientes. B. MUESTREO ALEATORIO SISTEMÁTICO. Esta técnica consiste en extraer elementos de la población mediante una regla sis 0 DF