Column: ‘Kwetsbaarheid’ door Rinus Krijnen

Toen we nog niet in een digitale netwerkmaatschappij leefden (amper dertig jaar geleden) hadden we al wel door dat informatie zeker niet op straat moest liggen. Bij het bedrijf waar ik toen werkte was het computercentrum een apart stevig gebouw aan de andere kant van de weg en het vreemde was. Het had eigenlijk geen toegangsdeur en de ramen zaten heel hoog. Je kwam in het gebouw via een ondergrondse tunnel tussen de twee gebouwen. Zowel de klimaatbeheersing als de brandbeveiliging stonden op een hoog peil. Een soort fort dus. We hadden destijds al in de gaten dat gegevens zeer kwetsbaar waren. Toen we later met het moederbedrijf in een netwerk werden toegelaten, werden de eisen qua beveiliging flink hoger. Aanvankelijk was er alleen oog voor de fysieke beveiliging. Van dataversleuteling hadden we nog nauwelijks gehoord. Dat werd pas belangrijk toen bleek dat die fysieke beveiliging in een netwerkorganisatie absoluut niet afdoende was. Nog een belangrijk ding was dat het allemaal moest blijven werken. Daarvoor organiseerde onze IT-afdeling een paar keer per jaar een uitwijkoefening. Onze data stond standaard op de computers in het computercentrum en er was een backup op een ander computercentrum in het land. Tijdens de uitwijk werd er gesimuleerd dat er bijv. een vliegtuig op ons computercentrum was gevallen en alle data niet meer bereikbaar was. De backup die op het andere computercentrum was opgeslagen, was de enige vluchtweg om toch nog te kunnen werken. De backup werd in no time operationeel beschikbaar gesteld aan de gebruikers, zodat ze zonder of met nauwelijks dataverlies konden werken. Het was een soort calamiteitenoefening. Het werd vooraf niet aan de gebruikers kenbaar gemaakt, al waren er toch best veel mensen die wisten wat er ging gebeuren. Na afloop van de uitwijkoefening werd een evaluatie opgesteld en als alles binnen de gestelde tijd en kwaliteit was uitgevoerd, kon de IT-directeur weer goed slapen.

Later zijn deze uitwijkoefeningen verdwenen, omdat men gebruik ging maken van virtuele omgevingen en de simulatie kon worden uitgevoerd zonder werkelijk de gebruikers lastig te vallen. Het enige nadeel van zo’n werkwijze is, dat het niet ‘echt’ is. Als je vooraf dus niet alle factoren juist hebt ingeschat zou bij een werkelijke ramp weleens kunnen blijken dat je wat bent vergeten. Dat overkwam vorige week dus ook een groot aantal bedrijven die gebruik maakten van het netwerk van defensie. Dat netwerk was blijkbaar opengesteld voor particuliere bedrijven die een hoog risicogehalte hadden in hun informatiestromen. Al best wel een oud netwerk, maar tot op heden zeer betrouwbaar. Maar een netwerk met vele gebruikers kent een domino-effect als er iets mis gaat. Normaal zou er niets aan de hand moeten zijn omdat het netwerk dubbel was uitgevoerd. Viel één deel van het  systeem uit, dan ging men automatisch over op het andere. Het bleek echter dat er een softwareaanpassing was gedaan op beide systemen tegelijk. En daar zat een fout in zodat ook de uitwijkoptie niet werkte. Kortom: allerlei bedrijven gingen plat, waaronder ook de luchthaven van Eindhoven. Deze fout had nooit mogen gebeuren. Bij de inrichting van dit netwerk heeft men gewoon niet getest voordat de update van de software is ingevoerd. Of de virtuele simulatieomgeving bleek niet naar de realiteit te zijn ingericht. Allebei knoeperds van beheerfouten. Bij aanpassingen van welke aard ook, moet je dit eerst in een testomgeving testen, dan in één van de twee infrastructuren testen en bij goede bevindingen pas vrijgeven voor productie en dan pas beschikbaar stellen aan het gehele netwerk. Blijkbaar niet gebeurd. Ik weet dat testen gezien wordt als lastig en duur en zoveel mogelijk wordt geautomatiseerd. Reden dat vele bedrijven hun tests uitbesteden aan goedkope near-shore-bedrijven in het buitenland, waarmee via Google Translate wordt gecommuniceerd. Geen wonder dat het fout kan lopen. Ik vraag me wel af wie nu verantwoordelijk wordt gesteld van deze storing en of er koppen gaan rollen. De storing heeft miljoenen gekost.

Wat je ziet bij deze situaties is dat we heel kwetsbaar zijn qua infrastructuur. Wie komt er nu op het idee om een zwaar beveiligd netwerk van defensie beschikbaar te stellen aan de markt? Waarschijnlijk een boekhouder. Maar ook als een vrij standaard software-update al dergelijke gevolgen kan hebben blijkt de omgeving van onze informatiemaatschappij super fragiel. En dan hebben we nog het nog niet over de derde wereldoorlog die al jaren woedt op het internet, waarbij hacken, bedrijfsspionage, gegevens stelen de dagelijkse strijd is van IT-specialisten.
Een oplossing heb ik niet, maar als je ervoor zou kunnen zorgen dat je altijd nog terug zou kunnen vallen op een eigen lokale infrastructuur, dan ben je toch een stuk minder kwetsbaar.
Dat is natuurlijk in de tijd dat alles naar de cloud gebracht wordt wel vloeken in de kerk. En wie gaat dat dan betalen, Rinus? Je kunt er ook voor kiezen om miljoenen schade te leiden of failliet te gaan omdat ergens iemand iets verkeerds doet, waar jij totaal geen invloed op hebt. Is dat dan goed ondernemen?