Wereldwijd warmer, eigen schuld

Wat waren de redenen dat het IPCC vorige maand de moed vond om het warmer wordend klimaat toe te schrijven aan menselijk handelen? Het waren de betere computermodellen en het meerekenen van zwavelaerosolen en oceanen.

Veel eerder dan men een paar jaar geleden nog voor mogelijk hield, en zonder dat het noemenswaardige opwinding veroorzaakte, heeft het Intergovernmental Panel on Climat Change (IPCC) onlangs het oordeel durven uitspreken dat de veranderingen die de afgelopen eeuw in het klimaat op aarde zijn waargenomen de natuurlijke variabiliteit van het klimaat overstijgen. En dat het niet langer waarschijnlijk is dat de opwarming uitsluitend een natuurlijke fluctuatie is.

In de nog xerox-warme samenvatting van de samenvatting van de tweede 'full assessment' van het broeikas-effect was het op zaterdag 16 december uiteindelijk zo geformuleerd: de verschillende waarnemingen aan de temperatuur op aarde ...'suggereren een waarneembare menselijke invloed op het klimaat'.

In het onderliggende rapport, waarop beleidsmakers en politici - anders dan op de genoemde samenvattingen - géén invloed hebben, heette het dat de betreffende waarnemingen wezen op een menselijke beïnvloeding van het klimaat. Over het verschil tussen 'wijzen' en 'suggereren' is in november en december keihard onderhandeld. Onder druk van oliestaten als Koeweit en Saoedi-Arabië hebben de wetenschappers met de aanvaarding van de term 'suggereren' ten slotte een klein stapje teruggezet. De les die daaruit te trekken valt is dat men voor zijn oordeelsvorming beter kan afgaan op de samenvattingen die al in de rapporten zelf zijn opgenomen dan op de politiek bijgestuurde teksten.

De wetenschappers zijn er zo langzamerhand wel van overtuigd dat op zijn minst een deel van de aardse opwarming zoals die sinds 1860 is geregistreerd (de jaargemiddelde luchttemperatuur steeg de laatste 100 jaar gemiddeld voor de gehele aarde met een waarde van 0,3 à 0,6 graad Celsius) aan menselijke invloed is toe te schrijven. In het eerste wetenschappelijke rapport van het IPCC (1990) werd nog uitdrukkelijk gesteld dat de geregistreerde temperatuurstijging niet van natuurlijke variatie was te onderscheiden (eenduidige detectie van het broeikassignaal was nog niet opgetreden) en dat dus van een toewijzing (attribution) van de opwarming aan menselijke uitstoot van broeikasgassen als kooldioxyde en methaan al helemaal geen sprake kon zijn. Met een simpele recht-toe-recht-aan berekening werd aannemelijk gemaakt dat de detectie zeker niet binnen tien jaar te verwachten was en waarschijnlijk pas ver in de volgende eeuw zou rondkomen.

Ongerustheid

In het tussenrapport dat voor de wereldklimaatconferentie in 1992 werd samengesteld hield het IPCC vast aan dit voorzichtige standpunt. De in Rio de Janeiro verzamelde politici lieten zich in hun hartverwarmende ongerustheid over het broeikaseffect dus au fond leiden door louter theoretische overwegingen van het panel. Bewezen was er nog niets.

De vraag dringt zich op waaraan het is te danken dat het IPCC nu opeens zoveel verder durft te gaan. Daaraan wordt in het nieuwe rapport, dat in maart in druk verschijnt, expliciet aandacht besteed. Het blijkt dat de vooruitgang niet in de eerste plaats is te danken aan verbeterd meten en registreren in de atmosfeer zelf, hoewel ook op dat punt nog steeds zware inspanningen plaats vinden, maar vooral aan grote verbeteringen in de rekenmodellen waarmee het klimaat op aarde wordt nagebootst. En bovendien aan de statistische verwerking van hun output. De doorbraak bij het IPCC is toe te schijven aan een verbeterde verwerking van bestaande gegevens.

De eerste klimaatmodellen werden al meer dan dertig jaar geleden ontwikkeld maar pas tegen het eind van de jaren zeventig zijn ze aangepast en uitgebreid voor het onderzoek aan het broeikaseffect. De inspanning culmineerde een jaar of tien geleden in de General Circulation Models die in drie dimensies voor een grof netwerk op aarde konden uitrekenen hoezeer daar variabelen als luchttemperatuur en neerslag zouden veranderen als de concentratie kooldioxyde van de ene op de andere dag verdubbelde of als - bij wijze van spreken - de zon opeens de helft van haar vermogen verloor. De modellen berekenden het 'gemiddelde weer' uit elementaire fysische wetten ('first principles') en extrapoleerden niet, zoals men misschien denken zou, het geregistreerde weertype van een bepaald moment. Alle processen en effecten die voor de ontwikkeling van een klimaat relevant leken waren in theoretische of empirische formules vastgelegd: geparameterizeerd. De modellen waren en zijn vaak nog erg grofmazig: gebieden ter grootte van Frankrijk worden als homogeen beschouwd en de atmosfeerkolom boven zo'n gebied wordt in een beperkt aantal homogene lagen opgedeeld. Lokale gebeurtenissen kunnen met geen mogelijkheid worden beschreven.

De modellen die voor de samenstelling van het IPCC-rapport uit 1990 beschikbaar waren, hielden wel rekening met de dominante invloed van de oceanen maar konden de sterke wisselwerking tussen atmosfeer en oceaan niet beschrijven. Of ze uiteindelijk een behoorlijke weergave van de werkelijkheid boden kon alleen proefondervindelijk worden vastgesteld. Vanuit een min of meer arbitrair gekozen startsituatie (in feite: het weer van een willekeurig moment) liet men spelers als zon, wind, verdamping zoals die door formules werden vertegenwoordigd op papier enige decennia, soms zelfs enige eeuwen, hun werk doen tot een evenwicht in de waarde van de verschillende variabelen was bereikt. Was voor de variabele 'kooldioxyde' de huidige concentratie CO2 gebruikt, en was ook de zon de kracht gegeven die zij nu heeft, dan moest natuurlijk een klimaattype worden opgewekt dat ruwweg overeenkwam met de bestaande toestand. Was dat onvoldoende het geval, dan werd de gehanteerde wiskundige beschrijving van de talrijke processen aangepast of werd een nieuwe variabele ingevoerd en als dat nog niet hielp werd de zaak met een botte 'flux adjustment' rechtgetrokken. Daar waar de computer bijvoorbeeld een volstrekt onwaarschijnlijke verdamping liet optreden werd deze handmatig bijgesteld tot een meer realistische waarde. Geen model ontsnapt aan flux adjustment, maar teveel adjustment tast de geloofwaardigheid aan. Anderzijds is een model dat te ver afwijkt van de werkelijkheid voor veel onderzoek onbruikbaar.

Pas als de modellen de voornaamste aspecten van het huidige klimaat acceptabel nabootsen, worden ze geschikt geacht voor experimenten. Tot aan 1990 bestonden die voornamelijk uit simulaties waarbij men de concentratie CO2 in de atmosfeer abrupt verdubbelde en het model weer net zoveel papieren tijd liet doormaken tot opnieuw evenwicht was bereikt. Het klimaat dat dan werd beschreven werd gezien als de voorspelling voor de toestand zoals die tegen het eind van de volgende eeuw zou kunnen zijn: een 2xCO2-klimaat. Tussen de uitkomsten van de verschillende modellen bleken grote verschillen te bestaan.

Niet aflatende modelbouw en gestaag toenemende rekenkracht van computers hebben de situatie inmiddels belangrijk gewijzigd. Ook voor de oceanen zijn nu circulatiemodellen gemaakt, iets fijnmaziger dan voor de atmosfeer, en zelfs worden de beide circulatiemodellen al regelmatig tot een geheel samengevoegd in Coupled General Circulation Models. Met die beperking dat men de twee modellen vanuit de arbitraire startpositie noodgedwogen eerst afzonderlijk tot evenwicht laat komen (een gescheiden 'spin-up') en pas dan aan elkaar koppelt. Dat brengt meestal een flinke verstoring van de bereikte evenwichten teweeg waaruit een 'climate drift' ontstaat die met een nieuwe flux adjustment moet worden weggewerkt (hoewel sommigen daarvan bewust afzien).

De computerkracht is inmiddels zozeer toegenomen dat het niet langer nodig is de modellen op te zadelen met een momentane CO2-verdubbeling, maar dat men ze ook kan laten reageren op een realistischer langzame stijging van de CO2-concentratie. Bovendien zijn ze tegenwoordig in staat ook de geleidelijke overgang naar een ander klimaat te laten beschrijven. Evenwichts-onderzoek heeft plaatsgemaakt voor analyses van transient states.

Ook de in oude metingen vastgelegde wijziging die het klimaat de laatste 130 jaar onderging onder invloed van industriële activiteiten (uit CO2-onderzoek aan ijsmonsters af te leiden) blijken de modellen verrassend goed te reconstrueren sinds men tegelijk rekening houdt met het koelend effect van sulfaat-aerosol (de lichte heiïgheid die het industriële gas zwaveldioxyde in de atmosfeer teweegbrengt) en de aantasting van de ozonlaag in de stratosfeer. Verrassend goed omdat de computers nog geen 'koude start' toestaan: het is nog niet mogelijk de klimaatsveranderingen te reconstrueren vanaf het begin van de industriële revolutie omstreeks 1780. De reconstructies kunnen dus nog overtuigender worden.

De komende jaren zal de bewijskracht van de klimaatmodellen verder toenemen als ook ander broeikasgassen dan alleen waterdamp en kooldioxyde in de berekeningen worden opgenomen, zoals methaan en lachgas. Ook wordt veel verwacht van een betere wiskundige beschrijving van wolken. Afhankelijk van hoogte en samenstelling kunnen wolken zowel een netto koelend als een netto opwarmend effect hebben. Andere leemten in de kennis: de waterkringloop boven land (met bijvoorbeeld de rol van waterdamp in de hogere troposfeer en de rol van het plantendek) en de warmte-uitwisseling over het oceaan-oppervlak.

Wisselwerking

Ondanks de notoire tekorten is toch al zoveel vertrouwen ontstaan in de modellen dat men van oordeel is dat ze een goed beeld kunnen geven van de natuurlijke variabiliteit van het klimaat: van de fluctuaties die het gevolg zijn van wisselingen in de zonne-intensiteit, vulkaanuitbarstingen en allerlei wisselwerking tussen lucht, zee en land. De variabiliteit in de aardgemiddelde temperatuur blijkt zo klein te zijn dat de recente aardse opwarming er duidelijk bovenuit stijgt. Daarmee heeft volgens sommigen de detectie van het broeikas-signaal, die in 1990 nog zo ver weg leek, inmiddels plaats gevonden.

Maar ook een definitieve toewijzing van het signaal aan emissies van broeikasgassen is dichterbij gekomen. Theoretisch onderzoek heeft aangetoond dat het patroon in temperatuurveranderingen zoals de verbeterde computermodellen dat als reactie op een externe verandering voor vele plaatsen op aarde en/of voor een reeks van hoogten boven een bepaalde plaats kunnen berekenen, karakteristiek is voor de betreffende externe verandering. Een stijging van het CO2-gehalte leidt tot een ander temperatuurpatroon dan een toeneming van de zonne-intensiteit. Sinds met het lokaal koelende effect van sulfaat-aerosol wordt rekening gehouden, is voor wat betreft CO2 een significante overeenkomst gevonden tussen waarnemingen en model-voorspellingen.Het gebruik van 'pattern-based techniques', ook wel de vingerafdruk-methode genoemd, ziet het IPCC als een belangrijke doorbraak.

Ook het inzicht dat het sulfaataerosol zo'n grote rol speelt, een inzicht dat pas vorig jaar verkregen werd, wordt als een doorbraak beschouwd. Het heeft de voorspellende waarde van de modellen sterk verbeterd: het is veel aannemelijker geworden dat de al zo lang voorspelde opwarming voor de volgende eeuw er ook werkelijk komt. Anderzijds zal die opwarming juist door het dempend effect van sulfaat-aerosol waarschijnlijk minder groot zijn dan tot voor kort voorspeld. Het is een conclusie die een lid van de delegatie van Koeweit op de recente slotconferentie in Rome verleidde tot de uitspraak dat het IPCC er in 1990 dus gewoon naast zat in zijn voorspellingen en dat kennelijk nog elke ontwikkeling mogelijk is. 'Niets is bewezen'.

    • Karel Knip