Devastadoras inundaciones repentinas asolaron varias regiones de Europa en octubre de 2024, recordando con crudeza la impredecible furia de la naturaleza. Las más destructivas se produjeron en Europa central y hacia el este de España.
En regiones como Valencia, las comunidades se vieron desbordadas por precipitaciones sin precedentes, que en cuestión de horas superaron el valor de un año. Como consecuencia, más de 400.000 personas se vieron afectadas y se produjeron trágicas pérdidas de vidas humanas en todo el continente. La rapidez e intensidad de estas inundaciones, a menudo sin apenas aviso previo, ponen de relieve un reto crítico para la meteorología moderna: predecir y prepararse para fenómenos meteorológicos cada vez más extremos que se desarrollan más rápido de lo que la tecnología y las infraestructuras actuales pueden seguir el ritmo.
La respuesta no está en un único avance tecnológico, sino en la convergencia de la informática de alto rendimiento, la inteligencia artificial (IA) y el procesamiento cuántico. El futuro de la predicción de catástrofes depende de nuestra capacidad para aprovechar eficazmente estas tecnologías.

La magnitud del reto
Las catástrofes naturales se cobran un precio enorme en vidas humanas y estabilidad económica. Cada año mueren entre 40.000 y 50.000 personas a causa de catástrofes, desde terremotos y tormentas hasta inundaciones y sequías. Sólo en Estados Unidos, 27 catástrofes meteorológicas y climáticas causaron daños por valor de al menos 1.000 millones de dólares en 2024.
Las inundaciones repentinas sufridas en Europa son un lamentable ejemplo que pone de manifiesto una limitación crítica de las capacidades de predicción actuales. A pesar de su sofisticación, los modelos tradicionales de predicción meteorológica carecen de la granularidad computacional necesaria para los fenómenos hiperlocales de aparición rápida. La actual infraestructura de supercomputación obliga a los científicos a modelizar patrones meteorológicos con una resolución espacial de varios kilómetros o incluso de cientos de metros en entornos complejos, una escala demasiado amplia para predecir con precisión fenómenos como las inundaciones repentinas.
Las matemáticas existen, pero la potencia de cálculo no
Los modelos matemáticos fundamentales para la predicción meteorológica existen desde hace muchos años. El cuello de botella no es nuestra comprensión de la física atmosférica, sino nuestras limitaciones informáticas. Los modelos meteorológicos actuales obligan a los científicos a hacer concesiones en cuanto a la granularidad debido a la limitada capacidad de procesamiento disponible. Esto se traduce directamente en una menor precisión de las predicciones de fenómenos extremos localizados.
Pensemos en los problemas de modelización de la calidad del aire que se plantean en Barcelona, donde la mala calidad del aire obliga periódicamente a restringir la movilidad en toda la ciudad. Los intentos de crear modelos predictivos que permitieran el cierre de zonas concretas en lugar del cierre general de la ciudad han fracasado, simplemente porque la resolución computacional era demasiado gruesa. Este mismo principio se aplica a la predicción de catástrofes.
El futuro híbrido Quantum-HPC
Una solución emergente combina la supercomputación de última generación, la IA y el procesamiento cuántico. El superordenador Fugaku de Fujitsu, diseñado para alcanzar un rendimiento a exaescala, representa un paso crucial hacia la potencia de cálculo necesaria para la predicción meteorológica a nivel de metros.
Sin embargo, ni siquiera la computación a exaescala por sí sola resolverá el reto. La integración de procesadores cuánticos, sobre todo a medida que nos acerquemos a los sistemas de 50.000 a 100.000 qubits previstos para los próximos cinco años, nos permitirá descargar tareas de cálculo específicas que son especialmente adecuadas para el procesamiento cuántico. Los algoritmos de aprendizaje automático, intensivos desde el punto de vista computacional y cada vez más importantes en la modelización meteorológica moderna, son los principales candidatos para la aceleración cuántica.
Este enfoque híbrido reconoce que la computación cuántica no sustituirá por completo a la computación tradicional de alto rendimiento. En su lugar, los procesadores cuánticos se encargarán de cálculos especializados y los superordenadores clásicos gestionarán el grueso de la carga de trabajo computacional. Prevemos que esta división del trabajo reducirá drásticamente el tiempo necesario para el modelado meteorológico de alta resolución.
Más allá de la predicción: Construir infraestructuras resistentes
Aunque la mejora de la capacidad de predicción es crucial, la tecnología por sí sola no puede evitar las catástrofes geográficas. Incluso con previsiones meteorológicas precisas de 30 minutos, la evacuación de cientos de miles de personas sigue siendo logísticamente imposible. El valor real de la tecnología de predicción mejorada reside en su capacidad para informar sobre la planificación de infraestructuras a largo plazo y las estrategias de mitigación de catástrofes.
Las capacidades avanzadas de modelización permitirán a los gobiernos locales comprender las vulnerabilidades específicas de sus regiones y aplicar soluciones de infraestructura específicas. En muchos casos, unos mejores modelos de predicción podrían haber revelado el potencial de inundación años antes, permitiendo la construcción de sistemas de gestión del agua que podrían haber evitado o mitigado la catástrofe por completo.
Esto representa un cambio de una respuesta reactiva a las catástrofes a una mitigación proactiva de los riesgos mediante una planificación urbana y un desarrollo de infraestructuras basados en datos.
El imperativo de la confianza y la calidad
A medida que desarrollamos capacidades de predicción más avanzadas, debemos mantener un enfoque inquebrantable en la calidad de los datos y la fiabilidad de los modelos. El reto al que se enfrentan todas las aplicaciones de IA y aprendizaje automático, incluida la predicción meteorológica, es garantizar unos datos de entrenamiento limpios y fiables. Muchos de los grandes modelos lingüísticos actuales adolecen de problemas de calidad debido a que se entrenan con datos de Internet no contrastados. Los modelos de predicción meteorológica se enfrentan a retos similares.
Por eso, la asociación de Fujitsu con Cohere representa algo más que un acuerdo comercial. Refleja un compromiso con las tecnologías de IA limpias y fiables. El enfoque de Cohere para la curación de datos y el entrenamiento de modelos se alinea con la filosofía de Fujitsu de que la fiabilidad debe preceder al despliegue, especialmente en aplicaciones en las que las vidas humanas dependen de la precisión.
El desarrollo de capacidades de generación de datos sintéticos puede resolver muchos de estos problemas de calidad, permitiendo que los modelos se entrenen en conjuntos de datos verificados y de alta calidad en lugar de depender únicamente de registros históricos que pueden contener errores o lagunas.
Un calendario prudentemente optimista
Basándonos en las trayectorias tecnológicas actuales, prevemos que en un plazo de cinco años podrían aparecer sistemas prácticos de predicción meteorológica mejorados con tecnología cuántica. El Fugaku de Fujitsu, combinado con procesadores cuánticos de más de 50.000 qubits, debería proporcionar la base computacional necesaria para el modelado meteorológico a nivel de metros.
Sin embargo, hacer realidad este potencial requiere un desarrollo cuidadoso y metódico. A diferencia de algunos sectores que se apresuran a desplegar tecnologías de IA de fiabilidad incierta, la predicción de catástrofes requiere una validación rigurosa y pruebas exhaustivas. El coste de las predicciones erróneas -ya sean falsas alarmas que provocan evacuaciones innecesarias o alertas fallidas que dejan vulnerables a las poblaciones- es demasiado alto para aceptar tecnologías no probadas.
El camino hacia la predicción de catástrofes naturales pasa por la integración de la computación cuántica, la computación de alto rendimiento y la inteligencia artificial. Aunque no podemos evitar las catástrofes naturales, sí podemos mejorar significativamente nuestra capacidad para predecirlas y prepararnos para ellas. Y lo que es aún más importante, debemos utilizar esas predicciones para construir comunidades más resistentes.
Cada catástrofe natural nos recuerda que corremos contra el tiempo y la naturaleza. Cada avance en la capacidad computacional nos acerca a un futuro en el que catástrofes como ésta puedan preverse, prepararse y, potencialmente, evitarse mediante una planificación inteligente de las infraestructuras. La tecnología para lograr este futuro está a nuestro alcance. Nos encontramos en una coyuntura crítica en la que la convergencia de la computación cuántica, los superordenadores de nueva generación y la IA ofrece una solución transformadora; ahora debemos construirla de forma responsable.
Carlos Cordero
Director de tecnología, Fujitsu Technology Solutions