Red de Respuestas Legales - Consulta de información - ¿Cuáles son los métodos estadísticos comúnmente utilizados?

¿Cuáles son los métodos estadísticos comúnmente utilizados?

Media, mediana, moda, varianza, desviación estándar

Datos estadísticos comunes

Momento de la muestra

Supongamos que x1, x2,..., xn son de tamaño Muestras de n, para números naturales k, se denominan respectivamente estadísticas originales de muestras de orden k.

Los momentos puntuales y los momentos del centro muestral de orden k se denominan colectivamente momentos muestrales. Muchas de las estadísticas más utilizadas se pueden construir a partir de momentos muestrales. Por ejemplo, la media muestral (α1) y la varianza muestral son dos estadísticas de uso común. La primera refleja la información de la posición central general y la segunda refleja la dispersión general. Existen otras estadísticas de uso común, como la desviación estándar de la muestra, el coeficiente de variación de la muestra S/ο, la asimetría de la muestra, la curtosis de la muestra, etc., que son funciones de los momentos de la muestra. Si (x1, y1), (x2, y2), ..., (xn, Yn) son muestras simples extraídas de la población bidimensional (x, y), entonces la covarianza muestral y el coeficiente de correlación muestral también se usan comúnmente. Estadísticas Cantidad, r se puede utilizar para inferir la correlación entre x e y.

Ordenar estadísticas

Ordene las muestras X1, x2,...,xn de pequeña a grande para obtenerlas, denominadas estadísticas de muestra x1, x2,....

Estadísticas de pedidos, xn. Entre ellos, la estadística de orden mínimo x (1) y la estadística de orden máximo x (n) se denominan valores extremos, que son muy útiles en problemas estadísticos como el bajo volumen de agua anual, la secuencia máxima anual de terremotos y la resistencia a la fractura del material. También hay algunas estadísticas útiles derivadas de las estadísticas ordinales, como por ejemplo: la muestra mediana es una medida del centro de la distribución de la población. Si el tamaño de la muestra n es un número impar, si n es un número par, es fácil de calcular y tiene buena robustez. Muestra p cuantil ZP (0

estadística u

Fue propuesto por Ding Yu en 1948 y ha sido ampliamente utilizado en estadística no paramétrica. Su definición es: Supongamos que X1, El la media y la varianza muestral son sus estadísticos especiales.

Desde Howding, las propiedades de esta estadística para muestras grandes se han estudiado intensamente y se utilizan principalmente para construir estimaciones insesgadas de varianza mínima consistente de cantidades no paramétricas (ver punto). estimación), y con base en esta estimación, probar hipótesis relevantes en la población no paramétrica

Estadísticas de clasificación

Las muestras X1, X2,...,Xn están ordenadas por tamaño. si se llama Ri, se llama rango de xi. Todos los n rangos R1, R2,..., RN constituyen la estadística de rango, y su valor es siempre una disposición de 1, 2,... La estadística de rango es. la principal herramienta de las estadísticas no paramétricas.

También se introducen algunas estadísticas debido a su conexión con ciertos métodos estadísticos, como las estadísticas de razón de probabilidad causadas por el principio de razón de probabilidad en la prueba de hipótesis, K. Bondad de ajuste de Pearson. Estadísticas X (ver prueba de hipótesis), una serie de estadísticas lineales y cuadráticas causadas por el método de mínimos cuadrados en modelos estadísticos lineales, etc.

Edite este párrafo para que sea apropiado y esté completo.

Procesamiento de estadísticas a partir de muestras Cuando se utilizan estadísticas en lugar de muestras para la inferencia estadística, la información contenida en las estadísticas puede perderse si las muestras se procesan en estadísticas. La pérdida se denomina estadística suficiente. Por ejemplo, se extraen N productos. de una gran cantidad de productos Si el I-ésimo producto está calificado, entonces xi = 0, de lo contrario xi = 1 (i = 1, 2,..., n). todo el lote de productos Se puede demostrar que la estadística, es decir, el número de productos defectuosos en la muestra, contiene toda la información sobre P en (x1, x2,..., xn) y es una estadística suficiente. Si el teorema de la subdescomposición m. Este teorema tiene una amplia gama de aplicaciones y es fácil de usar. Puede usarse para verificar la adecuación de muchas estadísticas comunes. Varianza conocida, la media muestral es una estadística suficiente. Si se desconocen la media y la varianza de la población normal, la media muestral y la varianza muestral S juntas constituyen una estadística suficiente (S), que está estrechamente relacionada con el procesamiento de. la muestra en datos estadísticos debe ser lo más simple posible. El grado de simplicidad se basa principalmente en la dimensión de medición, en pocas palabras, si la estadística T2 se procesa a partir de la estadística T1 (es decir, T2 es una función de T1). ). Entonces T2 es más simple que T1. En este sentido, el estadístico suficiente más simple se llama estadístico suficiente trivial. En cualquier caso, el estadístico suficiente es X1, X2, ...,. Xn por sí solos son una estadística suficiente, pero generalmente no son extremadamente pequeños. Otro concepto básico importante sobre las estadísticas es el de integridad. Sea t la métrica uniforme y θ el parámetro de la distribución de la población. Si cualquier función g(θ) de θ tiene como máximo una estimación insesgada basada en T (dos estimadores con igual probabilidad de 1 se consideran iguales), entonces se dice que T es completo.

Edite la distribución muestral de este párrafo.

La distribución de las estadísticas se denomina distribución muestral. A diferencia de la distribución muestral, la distribución muestral se refiere a la distribución conjunta de muestras x1, x2,...,xn. La esencia de la estadística y la superioridad de hacer inferencias a partir de una métrica uniforme depende de su distribución. Estadística

Por lo tanto, el estudio de la distribución muestral es un tema importante en la estadística matemática.

Encontrar la distribución muestral precisa de las estadísticas pertenece a la llamada teoría de muestras pequeñas (ver estadísticas de muestras grandes), pero solo cuando la distribución general es normal se pueden obtener resultados más sistemáticos. Para poblaciones normales unidimensionales, existen tres distribuciones muestrales importantes, a saber, distribución ⅹ, distribución t y distribución f. ⅹDistribución Supongamos que las variables aleatorias x1, x2,...,xn son independientes entre sí y obedecen a la distribución normal estándar N (0, estadística.

1). la distribución X con n grados de libertad (consulte la distribución de probabilidad para conocer su función de densidad. Las siguientes son las expresiones de la función de densidad de la distribución T y la distribución F). Esta distribución fue obtenida por F. Helmet en 1875 cuando estudió la varianza muestral de poblaciones normales. Si x1, x2,...,xn son muestras simples extraídas de la población normal N(μ,σ), entonces las variables obedecen a la distribución ⅹ con n-1 grados de libertad. Si x1, la distribución de,...,n se llama distribución no central y se llama parámetro no central. Cuando δ = 0, es la distribución X definida previamente. Por esta razón, a veces se la denomina distribución X central. ⅹLas distribuciones centrales y no centrales se utilizan en la teoría de estimación de la varianza del error del modelo lineal normal, en las estadísticas de población normal.

Se utiliza en la prueba de varianza del volumen (ver prueba de hipótesis) y la cuadrática de general. variables normales Tiene importantes aplicaciones en teoría. Distribución T Si las variables aleatorias ξ y η son independientes entre sí y obedecen a la distribución normal N (δ, 1) y a la distribución eta central con grados de libertad N, respectivamente, entonces la distribución de las variables se llama no central. T con grados de libertad N y parámetros no centrales δ -Distribución cuando δ = 0, se llama distribución t central. Si x1, x2,..., xn es una muestra simple extraída de la población normal N (μ, σ), utilizada para registrar la media muestral y la varianza muestral, obedece a la distribución t con n-1 grados de libertad. Este resultado fue propuesto por el estadístico británico W.S Gossett (también traducido como Cosette, seudónimo "Estudiante") en 1908. La distribución t en estadísticas relevantes

En la estimación y prueba de la media de la población normal, el modelo estadístico lineal normal es de gran importancia para la inferencia de funciones estimables. El surgimiento de la distribución t inició el desarrollo de la teoría de muestras pequeñas en estadística matemática. La distribución f fue propuesta por R.A. Fisher en la década de 1920. Supongamos que las variables aleatorias ξ y η son independientes entre sí, ξ obedece a la distribución eta no central con el grado de libertad my el parámetro no central δ, y eta obedece a la distribución eta central con el grado de libertad n, entonces la distribución se llama grado de libertad (m, n) y no central. La distribución f no central del parámetro δ, cuando δ=0, se llama distribución f central. Si x1, x2,…,xm e Y1,Y2,…,Yn provienen de la población normal N(μ estadístico.

,σ) y N(v,σ) respectivamente, tome S y S respectivamente es la varianza muestral de Yi y Yi, la relación de varianza S /S obedece al centro del grado de libertad f (m-1, n-1). Las distribuciones f centrales y no centrales tienen aplicaciones importantes en la teoría ANOVA. Las distribuciones muestrales importantes de poblaciones normales multidimensionales son la distribución de Wichardt y la distribución t de Hotelling (ver análisis estadístico multivariado). Si una estadística obedece a una distribución, a menudo recibe el nombre de la distribución, como ⅹ estadístico, estadístico f, estadístico t, etc. Dado que es difícil encontrar una distribución muestral exacta, los estadísticos recurren a las estadísticas asintóticas de la estadística cuando el tamaño de la muestra es n→∞.

Distribución aproximada (es decir, distribución límite), esta investigación es el trabajo básico de la teoría de muestras grandes de la estadística matemática. Sobre la base de este trabajo, se propusieron muchos métodos estadísticos importantes. Por ejemplo, el famoso resultado de K. Pearson (1900) de que la distribución límite del estadístico de bondad de ajuste es una distribución es un ejemplo representativo. Referencias Universidad de Fudan: Teoría de la probabilidad (Volumen 2, Estadística matemática), Estadísticas de publicaciones de educación popular.

Su Beijing 1979. Consume mucho tiempo, traducido por Wang Fubao: "Teoría de la probabilidad y estadística matemática", Shanghai Science and Technology Press, Shanghai, 1962. (M. Fisz, VEB·DEU-Zscher Verlag, Berlín, 1958.) Chen Xiru, "Introducción a la estadística matemática", Science Press, Beijing, 1981.