lunes, 10 de junio de 2013
domingo, 9 de junio de 2013
Computación estadística
El rápido y sostenido incremento en el poder de cálculo de la computación desde la segunda mitad del siglo XX ha tenido un sustancial impacto en la práctica de la ciencia estadística. Viejos modelos estadísticos fueron casi siempre de la clase de los modelos lineales. Ahora, complejos computadores junto con apropiados algoritmos numéricos, han causado un renacer del interés en modelos no lineales (especialmente redes neuronales y árboles de decisión) y la creación de nuevos tipos tales como modelos lineales generalizados y modelos multinivel.
El incremento en el poder computacional también ha llevado al crecimiento en popularidad de métodos intensivos computacionalmente basados en remuestreo, tales como tests de permutación y de bootstrap, mientras técnicas como el muestreo de Gibbs han hecho los métodos bayesianos más accesibles. La revolución en computadores tiene implicaciones en el futuro de la estadística, con un nuevo énfasis en estadísticas «experimentales» y «empíricas». Un gran número de paquetes estadísticos está ahora disponible para los investigadores. Los sistemas dinámicos y teoría del caos, desde hace una década, empezaron a interesar en la comunidad hispana, pues en la anglosajona de Estados Unidos estaba ya establecida la «conducta caótica en sistemas dinámicos no lineales» con 350 libros para 1997 y empezaban algunos trabajos en los campos de las ciencias sociales y en aplicaciones de la física. También se estaba contemplando su uso en analítica.
Críticas a la estadística
Hay una percepción general de que el conocimiento estadístico es intencionado y frecuentemente mal usado, encontrando maneras de interpretar los datos que sean favorables al presentador. Un dicho famoso, al parecer de Benjamin Disraeli,2 es: «Hay tres tipos de mentiras: mentiras pequeñas, mentiras grandes y estadísticas». El popular libro How to lie with statistics (Cómo mentir con las estadísticas en la edición española) de Darrell Huff discute muchos casos de mal uso de la estadística, con énfasis en gráficas malintencionadas. Al escoger (o rechazar o modificar) una cierta muestra, los resultados pueden ser manipulados; por ejemplo, mediante la eliminación selectiva de valores atípicos (outliers). Este puede ser el resultado de fraudes o sesgos intencionales por parte del investigador (Darrel Huff3 ). Lawrence Lowell (decano de la Universidad de Harvard) escribió en 1909 que las estadísticas, «como algunos pasteles, son buenas si se sabe quién las hizo y se está seguro de los ingredientes».
Algunos estudios contradicen resultados obtenidos previamente, y la población comienza a dudar en la veracidad de tales estudios. Se podría leer que un estudio dice (por ejemplo) que «hacer X reduce la presión sanguínea», seguido por un estudio que dice que «hacer X no afecta la presión sanguínea», seguido por otro que dice que «hacer X incrementa la presión sanguínea». A menudo los estudios se hacen siguiendo diferentes metodologías, o estudios en muestras pequeñas que prometen resultados maravillosos que no son obtenibles en estudios de mayor tamaño. Sin embargo, muchos lectores no notan tales diferencias, y los medios de comunicación simplifican la información alrededor del estudio y la desconfianza del público comienza a crecer.
Sin embargo, las críticas más fuertes vienen del hecho que la aproximación de pruebas de hipótesis, ampliamente usada en muchos casos requeridos por ley o reglamentación, obligan una hipótesis a ser 'favorecida' (la hipótesis nula), y puede también exagerar la importancia de pequeñas diferencias en estudios grandes. Una diferencia que es altamente significativa puede ser de ninguna significancia práctica.
Véase también críticas de prueba de hipótesis y controversia de la hipótesis nula.
En los campos de la psicología y la medicina, especialmente con respecto a la aprobación de nuevos medicamentos por la Food and Drug Administration, críticas de la aproximación de prueba de hipótesis se han incrementado en los años recientes. Una respuesta ha sido un gran énfasis en el p-valor en vez de simplemente reportar si la hipótesis fue rechazada al nivel de significancia dado. De nuevo, sin embargo, esto resume la evidencia para un efecto pero no el tamaño del efecto. Una posibilidad es reportar intervalos de confianza, puesto que estos indican el tamaño del efecto y la incertidumbre. Esto ayuda a interpretar los resultados, como el intervalo de confianza para un dado indicando simultáneamente la significancia estadística y el efecto de tamaño.
El p valor y los intervalos de confianza son basados en los mismos cálculos fundamentales como aquellos para las correspondientes pruebas de hipótesis. Los resultados son presentados en un formato más detallado, en lugar del si-o-no de las pruebas de hipótesis y con la misma metodología estadística.
Otro tipo de aproximación es el uso de métodos bayesianos. Esta aproximación ha sido, sin embargo, también criticada.
El fuerte deseo de que los medicamentos buenos sean aprobados y que los medicamentos peligrosos o de poco uso sean rechazados crea tensiones y conflictos (errores tipo I y II en el lenguaje de pruebas de hipótesis).
Estadística y la Ingenieria
La estadística aplicada en la Ingeniería se hace mediante la rama de la estadística que busca implementar los procesos probabilísticos y estadísticos de análisis e interpretación de datos o características de un conjunto de elementos al entorno industrial, a efectos de ayudar en la toma de decisiones y en el control de los procesos industriales y organizacionales. Pueden distinguirse tres partes: * el estudio de las series temporales y las técnicas de previsión, y la descripción de los pasos necesarios para el establecimiento de un sistema de previsión operativo y duradero en una empresa; * el análisis multivariante, necesario para la extracción de información de grandes cantidades de datos, una de las necesidades más apremiantes; * el control de calidad y la fiabilidad. Las aplicaciones de la estadística en la ingeniería actualmente han tomado un rápido y sostenido incremento, debido al poder de cálculo de la computación desde la segunda mitad del siglo XX.
Para comprender el desarrollo de las aplicaciones de la estadística en la ingeniería hay que citar que los Viejos Modelos Estadísticos fueron casi siempre de la clase de los modelos lineales.
Ahora, complejos computadores junto con apropiados algoritmos numéricos, estan utilizando modelos no lineales (especialmente redes neuronales y árboles de decisión) y la creación de nuevos tipos tales como modelos lineales generalizados y modelos multinivel.
El incremento en el poder computacional también ha llevado al crecimiento en popularidad de métodos intensivos computacionalmente basados en remuestreo, tales como tests de permutación y de bootstrap, mientras técnicas como el muestreo de Gibbs han hecho los métodos bayesianos más accesibles. En el futuro inmediato la estadística aplicada en la ingenieria, tendrá un nuevo énfasis en estadísticas "experimentales" y "empíricas".
Un gran numero de paquetes estadísticos está ahora disponible para los ingenieros. Los Sistemas dinámicos y teoría del caos, desde hace una década empezó a ser utilizada por la comunidad hispana de ingeniería, pues en la comunidad de ingeniería anglosajona de Estados Unidos estaba ya establecida la conducta caótica en sistemas dinámicos no lineales.
Estadística y Investigación Cientifica
La estadística es una ciencia formal que estudia la
recolección, análisis e interpretación de datos de una muestra representativa,
ya sea para ayudar en la toma de decisiones o para explicar condiciones
regulares o irregulares de algún fenómeno o estudio aplicado, de ocurrencia en
forma aleatoria o condicional. Sin embargo, la estadística es más que eso, es
decir, es el vehículo que permite llevar a cabo el proceso relacionado con la
investigación científica.
Distribución normal
Es transversal a una amplia variedad de disciplinas, desde
la física hasta las ciencias sociales, desde las ciencias de la salud hasta el
control de calidad. Se usa para la toma de decisiones en áreas de negocios o instituciones
gubernamentales.
La estadística se divide en dos grandes áreas:
La estadística descriptiva, se dedica a la descripción,
visualización y resumen de datos originados a partir de los fenómenos de
estudio. Los datos pueden ser resumidos numérica o gráficamente. Ejemplos
básicos de parámetros estadísticos son: la media y la desviación estándar.
Algunos ejemplos gráficos son: histograma, pirámide poblacional, gráfico
circular, entre otros.
La estadística inferencial, se dedica a la generación de los
modelos, inferencias y predicciones asociadas a los fenómenos en cuestión
teniendo en cuenta la aleatoriedad de las observaciones. Se usa para modelar
patrones en los datos y extraer inferencias acerca de la población bajo
estudio. Estas inferencias pueden tomar la forma de respuestas a preguntas
si/no (prueba de hipótesis), estimaciones de unas características numéricas
(estimación), pronósticos de futuras observaciones, descripciones de asociación
(correlación) o modelamiento de relaciones entre variables (análisis de
regresión). Otras técnicas de modelamiento incluyen anova, series de tiempo y
minería de datos.
Ambas ramas (descriptiva e inferencial) comprenden la
estadística aplicada. Hay también una disciplina llamada estadística
matemática, la que se refiere a las bases teóricas de la materia. La palabra
«estadísticas» también se refiere al resultado de aplicar un algoritmo
estadístico a un conjunto de datos, como en estadísticas económicas,
estadísticas criminales, entre otros.
Origen
El término alemán Statistik, introducido originalmente por
Gottfried Achenwall en 1749, se refería al análisis de datos del Estado, es
decir, la "ciencia del Estado" (o más bien, de la ciudad-estado).
También se llamó aritmética política de acuerdo con la traducción literal del
inglés. No fue hasta el siglo XIX cuando el término estadística adquirió el
significado de recolectar y clasificar datos. Este concepto fue introducido por
el militar británico Sir John Sinclair (1754-1835).
En su origen, por tanto, la Estadística estuvo asociada a
los Estados o ciudades libres, para ser utilizados por el gobierno y cuerpos
administrativos (a menudo centralizados). La colección de datos acerca de
estados y localidades continúa ampliamente a través de los servicios de
estadística nacionales e internacionales. En particular, los censos comenzaron
a suministrar información regular acerca de la población de cada país. Así
pues, los datos estadísticos se referían originalmente a los datos demográficos
de una ciudad o estado determinados. Y es por ello que en la clasificación
decimal de Melvil Dewey, empleada en las bibliotecas, todas las obras sobre
estadística se encuentran ubicadas al lado de las obras de o sobre la
demografía.
Ya se utilizaban representaciones gráficas y otras medidas
en pieles, rocas, palos de madera y paredes de cuevas para controlar el número
de personas, animales o ciertas mercancías. Hacia el año 3000 a. C. los
babilonios usaban ya pequeños envases moldeados de arcilla para recopilar datos
sobre la producción agrícola y de los géneros vendidos o cambiados. Los
egipcios analizaban los datos de la población y la renta del país mucho antes
de construir las pirámides en el siglo XI a. C. Los libros bíblicos de Números
y Crónicas incluyen en algunas partes trabajos de estadística. El primero cona
están ubicadas al lado de las demográficas. La estadística tiene dos censos de
la población de la Tierra de Israel y el segundo describe el bienestar material
de las diversas tribus judías. En China existían registros numéricos similares
con anterioridad al año 2000 a. C. Los antiguos griegos realizaban censos cuya
información se utilizaba hacia el 594 a. C. para cobrar impuestos.
Orígenes en probabilidad
Los métodos estadístico-matemáticos emergieron desde la
teoría de probabilidad, la cual data desde la correspondencia entre Pascal y
Pierre de Fermat (1654). Christian Huygens (1657) da el primer tratamiento
científico que se conoce a la materia. El Ars coniectandi (póstumo, 1713) de Jakob
Bernoulli y la Doctrina de posibilidades (1718) de Abraham de Moivre estudiaron
la materia como una rama de las matemáticas.1 En la era moderna, el trabajo de
Kolmogórov ha sido un pilar en la formulación del modelo fundamental de la
Teoría de Probabilidades, el cual es usado a través de la estadística.
La teoría de errores se puede remontar a la Ópera
miscellánea (póstuma, 1722) de Roger Cotes y al trabajo preparado por Thomas
Simpson en 1755 (impreso en 1756) el cual aplica por primera vez la teoría de
la discusión de errores de observación. La reimpresión (1757) de este trabajo
incluye el axioma de que errores positivos y negativos son igualmente probables
y que hay unos ciertos límites asignables dentro de los cuales se encuentran
todos los errores; se describen errores continuos y una curva de probabilidad.
Pierre-Simon Laplace (1774) hace el primer intento de
deducir una regla para la combinación de observaciones desde los principios de
la teoría de probabilidades. Laplace representó la Ley de probabilidades de
errores mediante una curva y dedujo una fórmula para la media de tres
observaciones. También, en 1871, obtiene la fórmula para la ley de facilidad
del error (término introducido por Lagrange, 1744) pero con ecuaciones
inmanejables. Daniel Bernoulli (1778) introduce el principio del máximo
producto de las probabilidades de un sistema de errores concurrentes.
El método de mínimos cuadrados, el cual fue usado para
minimizar los errores en mediciones, fue publicado independientemente por
Adrien-Marie Legendre (1805), Robert Adrain (1808), y Carl Friedrich Gauss
(1809). Gauss había usado el método en su famosa predicción de la localización
del planeta enano Ceres en 1801. Pruebas adicionales fueron escritas por
Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen (1837),
Friedrich Bessel (1838), W.F. Donkin (1844, 1856), John Herschel (1850) y
Morgan Crofton (1870). Otros contribuidores fueron Ellis (1844), Augustus De
Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La fórmula de
Peters para , el probable error de una observación simple es bien conocido.
El siglo XIX incluye autores como Laplace, Silvestre Lacroix
(1816), Littrow (1833), Richard Dedekind (1860), Helmert (1872), Hermann
Laurent (1873), Liagre, Didion y Karl Pearson. Augustus De Morgan y George
Boole mejoraron la presentación de la teoría. Adolphe Quetelet (1796-1874), fue
otro importante fundador de la estadística y quien introdujo la noción del
«hombre promedio» (l’homme moyen) como un medio de entender los fenómenos
sociales complejos tales como tasas de criminalidad, tasas de matrimonio o
tasas de suicidios.
Estado actual
Durante el siglo XX, la creación de instrumentos precisos
para asuntos de salud pública (epidemiología, bioestadística, etc.) y propósitos
económicos y sociales (tasa de desempleo, econometría, etc.) necesitó de
avances sustanciales en las prácticas estadísticas.
Hoy el uso de la estadística se ha extendido más allá de sus
orígenes como un servicio al Estado o al gobierno. Personas y organizaciones
usan la estadística para entender datos y tomar decisiones en ciencias
naturales y sociales, medicina, negocios y otras áreas. La estadística es
entendida generalmente no como un sub-área de las matemáticas sino como una
ciencia diferente «aliada». Muchas universidades tienen departamentos
académicos de matemáticas y estadística separadamente. La estadística se enseña
en departamentos tan diversos como psicología, educación y salud pública.
Al aplicar la estadística a un problema científico,
industrial o social, se comienza con un proceso o población a ser estudiado.
Esta puede ser la población de un país, de granos cristalizados en una roca o
de bienes manufacturados por una fábrica en particular durante un periodo dado.
También podría ser un proceso observado en varios ascos instantes y los datos
recogidos de esta manera constituyen una serie de tiempo.
Por razones prácticas, en lugar de compilar datos de una
población entera, usualmente se estudia un subconjunto seleccionado de la
población, llamado muestra. Datos acerca de la muestra son recogidos de manera
observacional o experimental. Los datos son entonces analizados
estadísticamente lo cual sigue dos propósitos: descripción e inferencia.
El concepto de correlación es particularmente valioso.
Análisis estadísticos de un conjunto de datos puede revelar que dos variables
(esto es, dos propiedades de la población bajo consideración) tienden a variar
conjuntamente, como si hubiera una conexión entre ellas. Por ejemplo, un
estudio del ingreso anual y la edad de muerte podría resultar en que personas
pobres tienden a tener vidas más cortas que personas de mayor ingreso. Las dos
variables se dicen que están correlacionadas. Sin embargo, no se puede inferir
inmediatamente la existencia de una relación de causalidad entre las dos
variables. El fenómeno correlacionado podría ser la causa de una tercera,
previamente no considerada, llamada variable confusora.
Si la muestra es representativa de la población, inferencias
y conclusiones hechas en la muestra pueden ser extendidas a la población
completa. Un problema mayor es el de determinar que tan representativa es la
muestra extraída. La estadística ofrece medidas para estimar y corregir por
aleatoriedad en la muestra y en el proceso de recolección de los datos, así
como métodos para diseñar experimentos robustos como primera medida, ver diseño
experimental.
El concepto matemático fundamental empleado para entender la
aleatoriedad es el de probabilidad. La estadística matemática (también llamada
teoría estadística) es la rama de las matemáticas aplicadas que usa la teoría
de probabilidades y el análisis matemático para examinar las bases teóricas de
la estadística.
El uso de cualquier método estadístico es válido solo cuando
el sistema o población bajo consideración satisface los supuestos matemáticos
del método. El mal uso de la estadística puede producir serios errores en la
descripción e interpretación, afectando las políticas sociales, la práctica
médica y la calidad de estructuras tales como puentes y plantas de reacción
nuclear.
Incluso cuando la estadística es correctamente aplicada, los
resultados pueden ser difícilmente interpretados por un inexperto. Por ejemplo,
el significado estadístico de una tendencia en los datos, que mide el grado al
cual la tendencia puede ser causada por una variación aleatoria en la muestra,
puede no estar de acuerdo con el sentido intuitivo. El conjunto de habilidades
estadísticas básicas (y el escepticismo) que una persona necesita para manejar
información en el día a día se refiere como «cultura estadística».
Estudios experimentales y observacionales
Un objetivo común para un proyecto de investigación
estadística es investigar la causalidad, y en particular extraer una conclusión
en el efecto que algunos cambios en los valores de predictores o variables
independientes tienen sobre una respuesta o variables dependientes. Hay dos
grandes tipos de estudios estadísticos para estudiar causalidad: estudios
experimentales y observacionales. En ambos tipos de estudios, el efecto de las
diferencias de una variable independiente (o variables) en el comportamiento de
una variable dependiente es observado. La diferencia entre los dos tipos es la
forma en que el estudio es conducido. Cada uno de ellos puede ser muy efectivo.
Niveles de medición
Hay cuatro tipos de mediciones o escalas de medición en
estadística. Los cuatro tipos de niveles de medición (nominal, ordinal,
intervalo y razón) tienen diferentes grados de uso en la investigación
estadística. Las medidas de razón, en donde un valor cero y distancias entre
diferentes mediciones son definidas, dan la mayor flexibilidad en métodos
estadísticos que pueden ser usados para analizar los datos. Las medidas de
intervalo tienen distancias interpretables entre mediciones, pero un valor cero
sin significado (como las mediciones de coeficiente intelectual o temperatura
en grados Celsius). Las medidas ordinales tienen imprecisas diferencias entre
valores consecutivos, pero un orden interpretable para sus valores. Las medidas
nominales no tienen ningún rango interpretable entre sus valores.
La escala de medida nominal, puede considerarse la escala de
nivel más bajo. Se trata de agrupar objetos en clases. La escala ordinal, por
su parte, recurre a la propiedad de «orden» de los números. La escala de
intervalos iguales está caracterizada por una unidad de medida común y
constante. Es importante destacar que el punto cero en las escalas de
intervalos iguales es arbitrario, y no refleja en ningún momento ausencia de la
magnitud que estamos midiendo. Esta escala, además de poseer las
características de la escala ordinal, permite determinar la magnitud de los
intervalos (distancia) entre todos los elementos de la escala. La escala de
coeficientes o Razones es el nivel de medida más elevado y se diferencia de las
escalas de intervalos iguales únicamente por poseer un punto cero propio como
origen; es decir que el valor cero de esta escala significa ausencia de la
magnitud que estamos midiendo. Si se observa una carencia total de propiedad,
se dispone de una unidad de medida para el efecto. A iguales diferencias entre
los números asignados corresponden iguales diferencias en el grado de atributo
presente en el objeto de estudio.
Técnicas de análisis estadístico
Campos de Investigacion en la Ingenieria destacan por su extensas terminologias especializadas en relacion a la Estadistica
Algunos tests y procedimientos para investigación de observaciones bien conocidos son:
Prueba t de Student
Prueba de χ²
Análisis de varianza (ANOVA)
U de Mann-Whitney
Análisis de regresión
Correlación
Iconografía de las correlaciones
Frecuencia estadística
Análisis de frecuencia acumulada
Prueba de la diferencia menos significante de Fisher
Coeficiente de correlación de Pearson
Coeficiente de correlación de Spearman
Análisis factorial exploratorio
Análisis factorial confirmatorio
Gráfica estadística
Disciplinas especializadas
Algunos campos de investigación usan la estadística tan extensamente que tienen terminología especializada. Estas disciplinas incluyen:
Ciencias actuariales
Física estadística
Estadística industrial
Estadística Espacial
Matemáticas Estadística
Estadística en Medicina
Estadística en Medicina Veterinaria y Zootecnia
Estadística en Nutrición
Estadística en Agronomía
Estadística en Planificación
Estadística en Investigación
Estadística en Restauración de Obras
Estadística en Literatura
Estadística en Astronomía
Estadística en la Antropología (Antropometría)
Estadística en Historia
Estadística militar
Geoestadística
Bioestadística
Estadísticas de Negocios
Estadística Computacional
Estadística en las Ciencias de la Salud
Investigación de Operaciones
Estadísticas de Consultoría
Estadística de la educación, la enseñanza, y la formación
Estadística en la comercialización o mercadotecnia
Cienciometría
Estadística del Medio Ambiente
Estadística en Epidemiología
Minería de datos (aplica estadística y reconocimiento de patrones para el conocimiento de datos)
Econometría (Estadística económica)
Estadística en Ingeniería
Geografía y Sistemas de información geográfica, más específicamente en Análisis espacial
Demografía
Estadística en psicología (Psicometría)
Calidad y productividad
Estadísticas sociales (para todas las ciencias sociales)
Cultura estadística
Encuestas por Muestreo
Análisis de procesos y quimiometría (para análisis de datos en química analítica e ingeniería química)
Confiabilidad estadística
Procesamiento de imágenes
Estadísticas Deportivas
La estadística es una herramienta básica en negocios y producción. Es usada para entender la variabilidad de sistemas de medición, control de procesos (como en control estadístico de procesos o SPC (CEP)), para compilar datos y para tomar decisiones. En estas aplicaciones es una herramienta clave, y probablemente la única herramienta disponible.
Aplicaciones de la Estadística en la Ingeniería
Aplicaciones de la Estadística en la Ingeniería
La estadística aplicada en la Ingeniería se hace mediante la
rama de la estadística que busca implementar los procesos probabilísticos y
estadísticos de análisis e interpretación de datos o características de un
conjunto de elementos al entorno industrial, a efectos de ayudar en la toma de
decisiones y en el control de los procesos industriales y organizacionales.
Pueden distinguirse tres partes:
* el estudio de las series temporales y las técnicas de previsión, y la descripción de los pasos necesarios para el establecimiento de un sistema de previsión operativo y duradero en una empresa;
* el análisis multivariante, necesario para la extracción de información de grandes cantidades de datos, una de las necesidades más apremiantes;
* el control de calidad y la fiabilidad.
Las aplicaciones de la estadística en la ingeniería actualmente han tomado un rápido y sostenido incremento, debido al poder de cálculo de la computación desde la segunda mitad del siglo XX.
Para comprender el desarrollo de las aplicaciones de la estadística en la ingeniería hay que citar que los Viejos Modelos Estadísticos fueron casi siempre de la clase de los modelos lineales. Ahora, complejos computadores junto con apropiados algoritmos numéricos, están utilizando modelos no lineales (especialmente redes neuronales y árboles de decisión) y la creación de nuevos tipos tales como modelos lineales generalizados y modelos multinivel.
El incremento en el poder computacional también ha llevado al crecimiento en popularidad de métodos intensivos computacionalmente basados en remuestreo, tales como tests de permutación y de bootstrap, mientras técnicas como el muestreo de Gibbs han hecho los métodos bayesianos más accesibles.
En el futuro inmediato la estadística aplicada en la ingeniería, tendrá un nuevo énfasis en estadísticas "experimentales" y "empíricas". Un gran número de paquetes estadísticos está ahora disponible para los ingenieros. Los Sistemas dinámicos y teoría del caos, desde hace una década empezó a ser utilizada por la comunidad hispana de ingeniería, pues en la comunidad de ingenieria anglosajona de Estados Unidos estaba ya establecida la conducta caótica en sistemas dinámicos no lineales.
Pueden distinguirse tres partes:
* el estudio de las series temporales y las técnicas de previsión, y la descripción de los pasos necesarios para el establecimiento de un sistema de previsión operativo y duradero en una empresa;
* el análisis multivariante, necesario para la extracción de información de grandes cantidades de datos, una de las necesidades más apremiantes;
* el control de calidad y la fiabilidad.
Las aplicaciones de la estadística en la ingeniería actualmente han tomado un rápido y sostenido incremento, debido al poder de cálculo de la computación desde la segunda mitad del siglo XX.
Para comprender el desarrollo de las aplicaciones de la estadística en la ingeniería hay que citar que los Viejos Modelos Estadísticos fueron casi siempre de la clase de los modelos lineales. Ahora, complejos computadores junto con apropiados algoritmos numéricos, están utilizando modelos no lineales (especialmente redes neuronales y árboles de decisión) y la creación de nuevos tipos tales como modelos lineales generalizados y modelos multinivel.
El incremento en el poder computacional también ha llevado al crecimiento en popularidad de métodos intensivos computacionalmente basados en remuestreo, tales como tests de permutación y de bootstrap, mientras técnicas como el muestreo de Gibbs han hecho los métodos bayesianos más accesibles.
En el futuro inmediato la estadística aplicada en la ingeniería, tendrá un nuevo énfasis en estadísticas "experimentales" y "empíricas". Un gran número de paquetes estadísticos está ahora disponible para los ingenieros. Los Sistemas dinámicos y teoría del caos, desde hace una década empezó a ser utilizada por la comunidad hispana de ingeniería, pues en la comunidad de ingenieria anglosajona de Estados Unidos estaba ya establecida la conducta caótica en sistemas dinámicos no lineales.
Suscribirse a:
Entradas
(
Atom
)