De nieuwe AI-race: nieuwe modellen revolutioneren weersvoorspellingen

Nauwkeurige weersvoorspellingen zo ver mogelijk van tevoren zijn niet alleen essentieel voor het bepalen van de beschikbaarheid van hernieuwbare energie, het plannen van routes of het effectief beheren van investeringen in landbouw of infrastructuur. Er staan ook levens op het spel. Volgens de Global Database on Natural Disasters (EM-DAT) van de Katholieke Universiteit Leuven (Brussel) hebben overstromingen in twintig jaar tijd 2,5 miljard mensen getroffen, een kwart miljoen van hen gedood en voor 936 miljard mensen schade aangericht. Techgiganten strijden om het beste voorspellingsmodel te ontwikkelen. Nature bericht deze woensdag over de ontwikkeling van Aurora, het model voor kunstmatige intelligentie (AI) dat Microsoft heeft ontwikkeld in samenwerking met onder andere de universiteiten van Pennsylvania, Cambridge en Amsterdam. Het doel is om op efficiënte wijze een zo hoog mogelijke precisie en anticipatie te bereiken, een race waaraan ook IBM en ESA ( TerraMind ) en Google ( GraphCast ) deelnemen.
Het voorspellen van het weer is een van de meest complexe processen. Honderden onvoorspelbare factoren spelen een rol bij de evolutie van de atmosfeer. Elke wijziging in één van deze factoren kan een voorspelling verstoren. Om deze reden gaan de meest betrouwbare voorspellingen niet verder dan drie dagen. Maar de investering om deze beperking te doorbreken is het waard: het zou levens redden en economische verliezen voorkomen die volgens een onderzoek gepubliceerd in Nature Communications jaarlijks op 143 miljard dollar (128 miljard euro) worden geschat.
Volgens Microsoft zorgt Aurora voor nauwkeurigere en efficiëntere weersvoorspellingen met een hoge resolutie, inclusief informatie over de luchtkwaliteit, de banen van tropische cyclonen en de dynamiek van oceaan-golven. Volgens Microsoft is het programma getraind met meer dan een miljoen uur aan uiteenlopende gegevens over het aardsysteem en is het model zodanig afgestemd dat het qua snelheid en nauwkeurigheid verschillende bestaande besturingssystemen "overtreft". Het bedrijf beweert dat zijn model "betere resultaten heeft opgeleverd dan de modernste numerieke modellen bij 92% van de doelen en dat het de prestaties bij extreme gebeurtenissen heeft verbeterd."
Conventionele numerieke modellen zijn gebaseerd op tientallen jaren aan gegevens en vereisen een enorme rekenkracht. Sommige factoren hebben dagen nodig om te verzamelen en verwerken. Hiervoor zijn supercomputers en geavanceerde apparatuur nodig. Deze kostenpost is onlangs verminderd dankzij AI. In het geval van Aurora duurde de training, zo stellen de auteurs van het onderzoek, slechts acht weken, terwijl conventionele systemen jaren in beslag nemen. De onderzoekers wijzen erop dat het Aurora-model ook als basis kan dienen voor de analyse van andere klimaatfactoren die niet bij de huidige ontwikkeling ervan zijn betrokken.
Paris Perdikaris , universitair hoofddocent werktuigbouwkunde aan de Universiteit van Pennsylvania en medeauteur van het onderzoek, zegt dat Aurora "een uitdaging" was, omdat het niet alleen ging om het ontwerpen en ontwikkelen van betrouwbare en nauwkeurige prognosetools, maar ook omdat ze "voor iedereen toegankelijk waren en zeer weinig computerkracht vereisten."
"Aurora maakt niet rechtstreeks gebruik van natuurkundige principes, maar baseert zich op observaties en informatie. Het leert van een zeer diverse set geofysische gegevens, waaronder voorspellingen, observaties, analyses en heranalyses – in wezen een reconstructie van historische weerpatronen", legt Perdiakis uit.
Om de nauwkeurigheid van het systeem te ondersteunen, benadrukt de onderzoeker: "Voor het eerst hebben we aangetoond dat een AI-systeem alle operationele orkaanvoorspellingscentra kan overtreffen. Alleen al door historische gegevens te gebruiken, was [Aurora] in staat om alle orkanen in 2023 correct te voorspellen, met een grotere nauwkeurigheid dan operationele centra." Perdikaris benadrukt ook dat het model ‘de potentie heeft om stormen en extreme gebeurtenissen op zeer lokale schaal nauwkeurig te beschrijven’.
TerraMind, van IBM en ESAEr doen ook nog andere reuzen mee aan deze race. IBM heeft in de open repository ArXiv de resultaten gepubliceerd van TerraMind, een model van de Europese Ruimtevaartorganisatie ESA en de multinational dat er in het kort op neerkomt dat satellietsystemen voor aardobservatie, de ogen van de aarde, een brein krijgen en tientallen jaren aan informatie over het gedrag van de atmosfeer.
"We zijn met nieuwe modellen begonnen. Naast radargegevens voegen we andere modellen toe, zoals de differentiële vegetatie-index, die ons helpt het leven op het aardoppervlak te begrijpen; hoogteprofielen om alles in drie dimensies te begrijpen; geocoördinaten... Als we een visueel satellietbeeld hebben, kan ons systeem alle andere modellen genereren", legt Juan Bernabé-Moreno uit, directeur van IBM's onderzoeksafdeling voor Ierland en het Verenigd Koninkrijk en hoofd van deAccelerated Discovery Strategy for Climate and Sustainability .
Het systeem kan niet alleen laten zien wat er zich onder de wolken afspeelt die het werk van satellieten belemmeren. Het systeem kan bijvoorbeeld ook de vervuiling van de oceaan detecteren, vloten volgen, het herstel van een gebied dat is getroffen door een brand, invasieve soorten in een ecosysteem, biodiversiteit of bodemdegradatie, de evolutie van een fenomeen of voorspellingen doen op basis van simulaties met historische gegevens. "Je kunt het toepassen op alles wat zich in de atmosfeer manifesteert; het voegt een niveau van begrip van de planeet toe dat er eerst niet was", vat Bernabé-Moreno samen.
TerraMind is open source en vereist zeer weinig geheugen (1,5 GB), waardoor het voor iedereen toegankelijk is, zonder dat er geavanceerde apparatuur nodig is. "Het is voor ons heel belangrijk dat de gemeenschap het omarmt en gebruikt", betoogt de wetenschapper. In toekomstige versies werken we met systemen met kunstmatige intelligentie waarmee gebruikers, zoals veehouders die meer willen weten over hun natuurlijke hulpbronnen en de mogelijke ontwikkeling daarvan, via een dialoog met het programma kunnen communiceren.
Ook het Spaanse bedrijf Xoople is op dit gebied actief: ‘het verzamelen en analyseren van aardse gegevens om een systematisch inzicht te verkrijgen in de fysieke veranderingen op het aardoppervlak.’ Dankzij de steun van AXIS, de durfkapitaalonderneming van het officiële kredietinstituut (ICO), en het CDTI, een entiteit van het Spaanse ministerie van Wetenschap, Innovatie en Universiteiten, heeft het bedrijf zojuist een financiering van € 115 miljoen veiliggesteld. Het doel is om AI in te zetten om patronen te herkennen, veranderingen te detecteren en voorspellende analyses te bieden op gangbare platforms.
Google DeepMind, het bedrijf voor kunstmatige intelligentie van de Noord-Amerikaanse technologiegigant, was de eerste die in Science een op machine learning gebaseerd weersvoorspellingsmodel demonstreerde dat tiendaagse voorspellingen biedt die "beter, sneller en toegankelijker zijn dan bestaande benaderingen", aldus het onderzoek. Het model, GraphCast genaamd, presteerde in 90% van de geteste gevallen beter dan traditionele systemen.
Het systeem dat voor Google als referentie diende, was het European Centre for Medium-Range Weather Forecasts (ECMWF). Dat centrum beschikt over een supercomputer in Bologna, Italië, met ongeveer een miljoen processoren en een vermogen van 30 petaflops (30.000 biljoen berekeningen per seconde). Dit centrum, dat kunstmatige intelligentie gebruikt in zijn Integrated Forecasting System (AIFS) en langetermijnvoorspellingen van weersomstandigheden biedt, voorzag de stortregens in september in Centraal-Europa .
GraphCast heeft deze functionaliteit niet nodig en maakt gebruik van machine learning, getraind op historische gegevens, om binnen een minuut een nauwkeurige 10-daagse voorspelling te geven. "Wij geloven dat dit een keerpunt markeert in de weersvoorspelling", zeggen de auteurs, onder leiding van DeepMind-wetenschapper Remi Lam.
EL PAÍS