History of numerical weather prediction - Enciclopedia
La historia de la predicción numérica del tiempo considera cómo las condiciones meteorológicas actuales, como entrada en modelos matemáticos de la atmósfera y los océanos, para predecir el clima y el estado futuro del mar (el proceso de predicción numérica del tiempo) ha cambiado a lo largo de los años. Aunque se intentó por primera vez manualmente en la década de 1920, no fue hasta la aparición de la computadora y la simulación por computadora que el tiempo de cálculo se redujo a menos de lo que era el período de pronóstico mismo. ENIAC se utilizó para crear las primeras previsiones por computadora en 1950, y a lo largo de los años, se han utilizado computadoras más potentes para aumentar el tamaño de los conjuntos de datos iniciales y utilizar versiones más complicadas de las ecuaciones de movimiento. El desarrollo de modelos de pronóstico global llevó al primer modelo climático. El desarrollo de modelos de área limitada (regionales) facilitó los avances en la predicción de las trayectorias de los ciclones tropicales y la calidad del aire en las décadas de 1970 y 1980.
Debido a que la salida de los modelos de pronóstico basados en la dinámica atmosférica requiere correcciones cerca del nivel del suelo, se desarrollaron las estadísticas de salida del modelo (MOS) en las décadas de 1970 y 1980 para puntos de pronóstico individuales (ubicaciones). Las MOS aplican técnicas estadísticas para postprocesar la salida de los modelos dinámicos con las observaciones más recientes en superficie y la climatología del punto de pronóstico. Esta técnica puede corregir la resolución del modelo y los sesgos del modelo. Aun con el aumento de la potencia de los supercomputadores, la habilidad de pronóstico de los modelos numéricos de tiempo solo se extiende a unos dos semanas en el futuro, ya que la densidad y calidad de las observaciones, junto con la naturaleza caótica de las ecuaciones diferenciales parciales utilizadas para calcular el pronóstico, introducen errores que se duplican cada cinco días. El uso de pronósticos por conjuntos de modelos desde los años 1990 ayuda a definir la incertidumbre del pronóstico y extender la pronóstico del clima más allá de lo posible de otra manera.
Fondo
Hasta fines del siglo XIX, la predicción del tiempo era completamente subjetiva y se basaba en reglas empíricas, con solo una comprensión limitada de los mecanismos físicos detrás de los procesos meteorológicos. En 1901, Cleveland Abbe, fundador del Servicio Meteorológico de los Estados Unidos, propuso que la atmósfera se rige por los mismos principios de termodinámica y hidrodinámica que se estudiaron en el siglo anterior. En 1904, Vilhelm Bjerknes derivó un procedimiento de dos pasos para la predicción del tiempo basada en modelos. Primero, se utiliza un paso diagnóstico para procesar los datos para generar condiciones iniciales, que luego se avanzan en el tiempo por un paso pronóstico que resuelve el problema de valor inicial. También identificó siete variables que definían el estado de la atmósfera en un punto dado: presión, temperatura, densidad, humedad y los tres componentes del vector de velocidad del flujo. Bjerknes señaló que las ecuaciones basadas en la continuidad de la masa, la conservación del momento, las primeras y segundas leyes de la termodinámica y la ley del gas ideal podrían utilizarse para estimar el estado de la atmósfera en el futuro mediante métodos numéricos. Con la excepción de la segunda ley de la termodinámica, estas ecuaciones forman la base de las ecuaciones primitivas utilizadas en los modelos meteorológicos de hoy en día.
En 1922, Lewis Fry Richardson publicó el primer intento de predecir el tiempo numéricamente. Utilizando una variación hidrostática de las ecuaciones primitivas de Bjerknes, Richardson produjo a mano un pronóstico de 6 horas para el estado de la atmósfera en dos puntos en Europa central, lo que tomó al menos seis semanas. Su pronóstico calculó que el cambio en la presión del suelo sería de 145 milibares (4.3 pulgadas de Hg), un valor irrealista incorrecto en dos órdenes de magnitud. El gran error se debió a un desequilibrio en los campos de presión y velocidad del viento utilizados como condiciones iniciales en su análisis.
La primera predicción numérica exitosa se realizó utilizando la computadora digital ENIAC en 1950 por un equipo liderado por el meteorólogo estadounidense Jule Charney. El equipo incluía a Philip Thompson, Larry Gates, y el meteorólogo noruego Ragnar Fjørtoft, el matemático aplicado John von Neumann, y la programadora Klara Dan von Neumann, M. H. Frankel, Jerome Namias, John C. Freeman Jr., Francis Reichelderfer, George Platzman y Joseph Smagorinsky. Utilizaron una forma simplificada de la dinámica atmosférica basada en resolver la ecuación de vorticidad barotrópica en una sola capa de la atmósfera, calculando la altitud geopotencial de la superficie de presión de 500 milibares (15 pulgadas de Hg) de la atmósfera. Esta simplificación redujo enormemente las demandas en tiempo y memoria de la computadora, por lo que los cálculos se podían realizar en las computadoras relativamente primitivas de la época. Cuando Richardson recibió la noticia del primer pronóstico de tiempo por ENIAC en 1950, comentó que los resultados eran un "enorme progreso científico". Los primeros cálculos para un pronóstico de 24 horas tomaron a ENIAC casi 24 horas, pero el grupo de Charney notó que la mayor parte de ese tiempo se dedicó a "operaciones manuales" y expresaron la esperanza de que pronto se realizarían pronósticos del clima antes de que ocurriera.
En el Reino Unido, el primer pronóstico numérico del tiempo se completó en 1952 por F. H. Bushby y Mavis Hinds bajo la guía de John Sawyer. Estos pronósticos experimentales se generaron utilizando una cuadrícula de 12 x 8 con un espaciado de cuadrícula de 260 km, un paso de una hora y requirieron cuatro horas de tiempo de computación para un pronóstico de 24 horas en el computador EDSAC de la Universidad de Cambridge y el computador LEO desarrollado por J. Lyons and Co. Después de estos experimentos iniciales, el trabajo se trasladó al computador Ferranti Mark 1 del Departamento de Ingeniería Eléctrica de la Universidad de Manchester, y en 1959 se instaló un computador Ferranti Mercury, conocido como 'Meteor', en el Servicio Meteorológico.
Años tempranos
En septiembre de 1954, Carl-Gustav Rossby organizó un grupo internacional de meteorólogos en Estocolmo y produjo el primer pronóstico operativo (es decir, pronósticos rutinarios para uso práctico) basado en la ecuación barotrópica. La predicción numérica del tiempo operativa en los Estados Unidos comenzó en 1955 bajo la Unidad Conjunta de Predicción Numérica del Tiempo (JNWPU), un proyecto conjunto del Ejército del Aire de los Estados Unidos, la Marina y el Servicio Meteorológico. El modelo JNWPU era originalmente un modelo barotrópico de tres capas, también desarrollado por Charney. Solo modelaba la atmósfera en el hemisferio norte. En 1956, el JNWPU pasó a un modelo termótropico de dos capas desarrollado por Thompson y Gates. La principal hipótesis hecha por el modelo termótropico es que mientras la magnitud del viento térmico puede cambiar, su dirección no cambia con respecto a la altura, y por lo tanto, la baroclinicidad en la atmósfera puede simularse utilizando las superficies de altitud geopotencial de 500 y 1,000 mb (15 y 30 pulgadas de Hg) y el viento térmico promedio entre ellas. Sin embargo, debido a la baja habilidad mostrada por el modelo termótropico, el JNWPU volvió al modelo barotrópico de una capa en 1958. La Agencia Meteorológica de Japón se convirtió en la tercera organización en iniciar la predicción numérica del tiempo operativa en 1959. Los primeros pronósticos en tiempo real realizados por el Bureau of Meteorology de Australia en 1969 para partes del hemisferio sur también se basaron en el modelo barotrópico de una capa.
Los modelos posteriores utilizaron ecuaciones más completas para la dinámica y la termodinámica atmosférica. En 1959, Karl-Heinz Hinkelmann produjo el primer pronóstico primitivo razonable, 37 años después del intento fallido de Richardson. Hinkelmann lo hizo eliminando pequeñas oscilaciones del modelo numérico durante la inicialización. En 1966, Alemania Occidental y los Estados Unidos comenzaron a producir pronósticos operativos basados en modelos de ecuaciones primitivas, seguidos por el Reino Unido en 1972 y Australia en 1977. Las adiciones posteriores a los modelos de ecuaciones primitivas permitieron una mayor comprensión de diferentes fenómenos meteorológicos. En los Estados Unidos, se añadieron efectos de radiación solar al modelo de ecuaciones primitivas en 1967; se añadieron efectos de humedad y calor latente en 1968; y se incorporaron efectos de retroalimentación de la lluvia sobre la convección en 1971. Tres años más tarde, se introdujo el primer modelo de pronóstico global. Comenzaron a inicializar el hielo marino en los modelos de pronóstico en 1971. Los esfuerzos para involucrar la temperatura de la superficie del mar en la inicialización del modelo comenzaron en 1972 debido a su papel en modulando el clima en las latitudes altas del Pacífico.
Modelos globales de pronóstico
Un modelo de pronóstico global es un modelo de pronóstico del tiempo que inicializa y pronostica el clima a lo largo de la troposfera terrestre. Es un programa de computadora que produce información meteorológica para tiempos futuros en ubicaciones y altitudes dadas. Dentro de cualquier modelo moderno hay un conjunto de ecuaciones, conocidas como ecuaciones primitivas, utilizadas para predecir el estado futuro de la atmósfera. Estas ecuaciones, junto con la ley del gas ideal, se utilizan para evolucionar los campos escalar de densidad, presión y temperatura potencial y el campo vectorial de velocidad del flujo de la atmósfera a través del tiempo. Se incluyen ecuaciones adicionales de transporte para contaminantes y otros aerosoles en algunos modelos de alta resolución de ecuaciones primitivas. Las ecuaciones utilizadas son ecuaciones diferenciales parciales no lineales que son imposibles de resolver exactamente mediante métodos analíticos, con la excepción de algunos casos idealizados. Por lo tanto, se obtienen soluciones aproximadas. Diferentes modelos utilizan diferentes métodos de solución: algunos modelos globales y casi todos los modelos regionales utilizan métodos de diferencias finitas para todas las tres dimensiones espaciales, mientras que otros modelos globales y algunos modelos regionales utilizan métodos espectrales para las dimensiones horizontales y métodos de diferencias finitas en la vertical.
El Modelo Espectral Global del Centro Nacional de Meteorología de China se introdujo durante agosto de 1980. El modelo del Centro Europeo para Predicciones a Medio y Largo Plazo del Tiempo debutó el 1 de mayo de 1985. El Servicio Meteorológico del Reino Unido ha estado ejecutando su modelo global desde fines de los años 1980, añadiendo un esquema de asimilación de datos 3D-Var a mediados de 1999. El Centro Meteorológico Canadiense ha estado ejecutando un modelo global desde 1991. Los Estados Unidos ejecutaron el Modelo de Cuadrícula Anidad (NGM) desde 1987 hasta 2000, con algunas características que duraron hasta 2009. Entre 2000 y 2002, el Centro de Modelado Ambiental ejecutó el modelo de Aviación (AVN) para pronósticos a corto plazo y el modelo de Pronóstico a Mediano Plazo (MRF) para periodos de tiempo más largos. Durante este tiempo, el modelo AVN se extendió hasta el final del período de pronóstico, eliminando la necesidad del MRF y re