iymagazine.es

método estadístico

Nuevo método aumenta la fiabilidad de las estimaciones estadísticas
Ampliar

Nuevo método aumenta la fiabilidad de las estimaciones estadísticas

Por José Enrique González
x
jenriqueiymagazinees/8/8/19
domingo 14 de diciembre de 2025, 15:45h
Última actualización: lunes 15 de diciembre de 2025, 10:42h

Investigadores del MIT han desarrollado un nuevo método que mejora la fiabilidad de los intervalos de confianza en estimaciones estadísticas, crucial para campos como la economía y la salud pública.

Un grupo de investigadores del Instituto Tecnológico de Massachusetts (MIT) ha desarrollado un nuevo método que promete mejorar la fiabilidad de las estimaciones estadísticas, especialmente en campos como la economía y la salud pública. Esta técnica permite a los científicos evaluar con mayor precisión si pueden confiar en los resultados de sus experimentos.

Imaginemos a un científico medioambiental que investiga la relación entre la exposición a la contaminación del aire y el peso al nacer en una determinada región. Para ello, podría entrenar un modelo de aprendizaje automático que estime esta asociación, dado que estos métodos son muy eficaces para identificar relaciones complejas.

Aunque los métodos estándar de aprendizaje automático son excelentes para realizar predicciones y, en ocasiones, ofrecen intervalos de confianza sobre estas, no suelen proporcionar estimaciones o intervalos de confianza cuando se trata de determinar si dos variables están relacionadas. Si bien existen otros métodos diseñados específicamente para abordar este problema, los investigadores del MIT han descubierto que en contextos espaciales, los intervalos de confianza generados pueden ser completamente erróneos.

Desafíos en la estimación estadística

Cuando variables como los niveles de contaminación del aire o las precipitaciones cambian según la ubicación geográfica, los métodos comunes para generar intervalos de confianza pueden indicar un alto nivel de certeza cuando, en realidad, la estimación no refleja el valor real. Estos intervalos defectuosos pueden llevar a los usuarios a confiar en modelos que fallaron.

Conscientes de esta limitación, los investigadores han creado un método innovador diseñado para generar intervalos de confianza válidos en situaciones donde los datos varían espacialmente. En simulaciones y experimentos con datos reales, su técnica fue la única que consistentemente produjo intervalos precisos.

Este avance podría ayudar a investigadores en disciplinas como la ciencia ambiental y la epidemiología a discernir cuándo es apropiado confiar en ciertos resultados experimentales. Según Tamara Broderick, profesora asociada en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación (EECS) del MIT y autora principal del estudio: “Hemos demostrado que hay métodos más apropiados que pueden ofrecer un mejor rendimiento y resultados más confiables”.

Asunciones inválidas en análisis espaciales

El estudio también aborda cómo las asunciones erróneas pueden afectar las conclusiones obtenidas. La asociación espacial implica analizar cómo una variable se relaciona con un resultado específico dentro de una zona geográfica. Por ejemplo, se podría investigar cómo el cubrimiento arbóreo en Estados Unidos se relaciona con la elevación.

Los investigadores del MIT se dieron cuenta de que muchos métodos existentes generan intervalos de confianza incorrectos. Un modelo podría afirmar tener un 95% de certeza sobre su estimación cuando realmente no captura esa relación.

Al investigar este problema, encontraron que las asunciones sobre las cuales se basan estos métodos no son válidas cuando los datos presentan variaciones espaciales. Las asunciones son reglas necesarias para garantizar que los resultados del análisis estadístico sean válidos. Los métodos convencionales operan bajo varias premisas que no siempre se cumplen.

Nueva metodología para una mejor precisión

El nuevo enfoque desarrollado por el equipo del MIT considera explícitamente esta posible desviación. En lugar de asumir similitudes entre los datos fuente y objetivo, postulan que los datos varían suavemente a lo largo del espacio.

Por ejemplo, al analizar contaminantes finos en el aire, uno no esperaría grandes diferencias entre dos bloques consecutivos; más bien, se anticiparía una disminución gradual conforme uno se aleja de la fuente contaminante.

Broderick señala: “Para estos problemas específicos, esta suposición sobre suavidad espacial es más adecuada y corresponde mejor a lo que realmente ocurre en los datos”. Al comparar su método con otras técnicas comunes, descubrieron que era el único capaz de producir intervalos confiables para análisis espaciales incluso cuando los datos observacionales estaban distorsionados por errores aleatorios.

De cara al futuro, el equipo planea aplicar su análisis a diferentes tipos de variables y explorar otras aplicaciones donde puedan obtener resultados más fiables. Este trabajo ha sido financiado parcialmente por diversas entidades como el SERC, la Oficina de Investigación Naval, Generali, Microsoft, y la Fundación Nacional de Ciencia (NSF).

Valora esta noticia
0
(0 votos)
¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios