Recensie

Techniek lijkt perfect, tot het ene radertje los zit

Non-fictie Techniek omvat steeds meer. De zwakke schakel in systemen is niet zelden de mens. Meltdown beschrijft dat. Over fouten, ongelukken en rampen. En wat eraan te doen.

President Jimmy Carter (midden) bezoekt in 1979 de kerncentrale van Three Mile Island, enkele dagen nadat er een reactorkern is gesmolten. Foto Dirck Halstead/Getty

Toen Dick Cheney als vicepresident van de VS in 2007 een pacemaker kreeg, gaf hij zijn cardioloog een duidelijke opdracht: de optie om de pacemaker van afstand te kunnen besturen, moest uitgeschakeld worden. Cheney maakte zich namelijk zorgen dat terroristen zijn pacemaker zouden hacken om een aanslag op hem te kunnen plegen. De tv-serie Homeland maakte dankbaar gebruik van zijn paranoia; in een van de afleveringen werd inderdaad op die manier een aanslag op de vicepresident gepleegd.

Maar zo fictioneel en paranoïde was Cheneys vrees niet, leggen Chris Clearfield en András Tilcsik uit in hun boek Meltdown. Inmiddels zijn er zoveel gecompliceerde elektronische systemen – of het nu gaat om een op afstand te besturen thermostaat of een zelfrijdende auto – dat er ook heel veel mis kan gaan. „Op welk gebied dan ook, complexiteit opent mogelijkheden voor kwade bedoelingen”, stellen de auteurs. En voor fouten. Hun boek schetst tal van momenten waarop er iets heel erg misging of bijna misging: crises in kerncentrales, BP en de olieramp in de Golf van Mexico, ziekenhuizen waar de pillen bij verkeerde patiënten terechtkomen, metro-ongelukken, etcetera. Er komen rampen voorbij waarvan je alweer bijna was vergeten dat ze hadden plaatsgevonden. En bij al die voorbeelden draait het om de vrijwel perfecte techniek, en dat ene radertje dat los zat.

Dat verklaart de eerste helft van de ondertitel: hoe onze systemen falen. De systemen kloppen eigenlijk altijd, maar alleen binnen de grenzen van het betrokken systeem. De menselijke factor is nooit helemaal uit te sluiten, en dan treedt de wet van Murphy in werking. Als er een manier is om iets fout te doen, hoe klein ook, dan zal ooit iemand het fout doen.

Er is maar één ding echt voorspelbaar als het gaat om het handelen van de mens, stellen Clearfield en Tilcsik, en dat is dat irrationaliteit niet helemaal valt uit te sluiten. Zolang een systeem niet helemaal zonder de mens kan (en omdat de mens de systemen programmeert is dat dus: nooit), zullen er fouten gemaakt worden die mogelijkerwijs noodlottige gevolgen hebben.

Als er een manier is om iets fout te doen, hoe klein ook, dan zal ooit iemand het fout doen

Dat vastgesteld hebbende, gaat het de auteurs om de tweede helft van de ondertitel: wat kunnen we eraan doen. Uit elke ‘meltdown’ die Clearfield en Tilcsik behandelen, zijn lessen getrokken. Ze komen tot conclusies: moffel fouten niet weg, maar wees transparant; laat mensen minder lang doorwerken zodat vermoeidheid geen factor is; bouw extra controlemogelijkheden in; zorg dat de juiste informatie niet alleen beschikbaar is, maar ook dat die de juiste mensen bereikt; laat hiërarchie initiatieven van lager personeel niet in de weg staan; onderzoek de oorzaak van problemen zo breed mogelijk om te zien of geïsoleerde ongelukken met elkaar te maken kunnen hebben.

Kernramp

Al die adviezen mogen een tamelijk hoog nogal-wiedesgehalte hebben, de lessen die uit de beschreven meltdowns zijn getrokken, hebben ongetwijfeld talrijke levens gered. Uitblijven van ongelukken is geen nieuws, dus daarom valt het niet meteen op, maar het feit dat de luchtvaart zo ongelooflijk veilig is, is te danken aan eerdere vliegrampen.

Lees ook: 2017 was veiligste jaar in commerciële luchtvaart tot nu toe

Dat zelfs een aardbeving en een tsunami bij Fukushima geen kernramp van wereldformaat hebben veroorzaakt, is mede te danken aan de problemen bij Three Mile Island. In die kerncentrale, bij Harrisburg in de staat Pennsylvania, vond in 1979 het ernstigste nucleaire incident plaats dat de Verenigde Staten tot nog toe hebben meegemaakt. Door een storing steeg de temperatuur in een koelsysteem, waarna de reactor een noodstop maakte. Door de afvoer van restwarmte liep de druk in het koelsysteem op. Door opening van een ventiel liep die druk terug – maar wat de controlekamer niet kon zien, was dat het ventiel niet dichtging. Verlies aan koelmiddel leidde daarna tot ernstige beschadiging van de kernreactor en vrijkomen van radioactiviteit.

De paniek was enorm. Nog achttien jaar lang zijn omwonenden onderzocht op schade door straling. Het reactorvat was pas na veertien jaar schoongemaakt. De centrale, economisch verloren, wacht op afbraak. Onderzoek naar het kernongeval wees onder meer een ontwerpfout uit, inadequate reacties op de noodstop en onvoldoende getraind personeel. De analyse van systemen en beoordelingsfouten droeg tegelijk bij aan een veiliger toekomst.

Optimistisch

De auteurs van Meltdown zijn van het optimistische soort. „Er is hoop”, schrijven ze in de inleiding. Inzicht in (kleine) fouten, of die nu het systeem of menselijke taxaties betreffen, is enorm leerzaam en biedt perspectief. Dat zal ongetwijfeld, maar dan nog: elke oplossing creëert een nieuw systeem, en dus ruimte voor nieuwe fouten. De zelfrijdende auto die een overstekende fietser als ‘schaduw’ interpreteert en niet afremt, is een geheel nieuw soort ‘meltdown’. Hoe zie je problemen aankomen die je niet kan voorspellen?

Het antwoord van Clearfield en Tilcsik is niet helemaal geruststellend: „Onze systemen zijn zo ingewikkeld dat het moeilijk is om precies te voorspellen wat er fout kan gaan. Maar er zijn waarschuwingen: er is altijd wel een teken aan de wand. We hoeven het alleen maar te lezen.”

Hoewel ze er met hun droge schrijfstijl in slagen om het leven uit elk dramatisch voorval te slaan, zijn hun analyses scherp en de adviezen goed. Dat geldt niet alleen als het gaat om het voorkomen van rampen. Elke werkplek kan erop vooruitgaan als ernaar gekeken wordt vanuit hun visie.

Al met al blijft het geheel toch een beetje zeuren: goed opletten en transparant zijn, is dat alles? Dat lijkt te mooi om waar te zijn. Misschien zijn we toch gedoemd.

    • Toef Jaeger