
Alles wat er nodig is om het AI-systeem te laten ontsporen is een gewetenloos mens die verder gaat dan de rest. Die mensen zijn er genoeg.
Ghost in the Machine is een bekende term uit de film I, Robot, gebaseerd op een boek van Isaac Asimov, maar de oorsprong is ouder en komt uit de filosofie. In de film is het achterliggende idee dat de programmering van een robot zo complex kan worden dat er onbedoelde consequenties ontstaan. Als IT’er kan ik me daar iets bij voorstellen. In de film is die consequentie dat robots de wereld over willen nemen omdat mensen niet vertrouwd kunnen worden met het beheer van die wereld. Toen ik als puber het boek las was alles wat in het boek stond verre toekomstmuziek. In het heden is dat veel minder het geval.
AI is de softwarekant van de “intelligente” robot. De fysieke structuur van de robot hoeft echter niet op een mens te lijken. Het kan een stofzuiger zijn met grijpers om obstakels opzij te zetten, een spinachtig geval met acht handen dat efficiënt kan koken of bijvoorbeeld een raketvormige aanvalsdrone die zelfstandig een doel aanvalt of een doel verdedigt. Die fysieke robot wordt door software bestuurd. En die software heeft een fors AI-component om de robot zelfstandige functies te geven. Het is de zelfstandigheid die de grootste meerwaarde geeft. Geef een opdracht, zoals bak een appeltaart of vernietig het gevaarlijkste wapen van de vijand, en de robot overkomt obstakels en vervult zijn functie. Robot en AI zijn daarom voor dit verhaal onlosmakelijk verbonden.
Enige tijd geleden ging onze minister van Defensie naar een conferentie in Spanje waar op hoog niveau werd gesproken over regels voor AI. Dat is een erg verstandige poging. Maar de kans dat het gaat lukken om onze losgeslagen AI-trein bij te sturen lijkt klein. In de recente oorlog in Gaza heeft Israël, naar verluid, wapens ingezet die zelfstandig (AI dus) hun doel zochten. Ieder AI-foutje was een gedode burger zonder dat er ook maar een mens aan te pas kwam. In de oorlog tussen Rusland en Oekraïne worden op een enorme schaal drones ingezet die steeds meer gebaseerd op AI hun doelen zelf uitkiezen.
Israël is een relatief klein land met een immer aanwezig probleem van mankracht. In een oorlog worden vrijwel alle weerbare burgers, inclusief degenen die in het buitenland wonen, ingezet. Steeds zelfstandiger drones is voor het land een uitkomst en de grens van wat wel en niet moreel verantwoord is, is daarbij van groot belang voor de effectiviteit van dit soort wapens. En één maatstaaf van effectiviteit is inderdaad “hoe goed doodt het”. Maar dat kan nog erger.
Oekraïne heeft moeite met manschappen te vinden, maar Rusland heeft dat ook. De inzet van drones is zeker voor de verdedigende partij de manier om de aanvallende vijand, die het open terrein op moet, enorme schade toe te brengen. Hoe eenvoudig is het om in deze brute oorlog steeds verder te gaan in het “loslaten” van AI-gestuurde drones? De Tweede Wereldoorlog leverde de atoombom en de straaljager op. De huidige oorlogen AI-gestuurde moordrobots. In het leger weet men al veel langer dat een tegenstander verwonden vaak beter is dan hem te doden. Het houdt twee tegenstanders bezig om de gewonde uit het strijdtoneel te evacueren en een dode in een graf stoppen is minder bewerkelijk dan een gewonde op te lappen. Hoe programmeer je die regel in een AI-wapen? Sommige landen zijn zeer gemotiveerd om illegale grensovergangen tegen te gaan. Wat als ze daarvoor AI-wapens gaan inzetten? Wanneer komt het gruwelijke moment dat de wapens weten dat als ze een groep van twee volwassenen en drie kinderen spotten, dat het verwonden van een van de kinderen de statistische kans het grootst maakt dat de hele groep tegengehouden wordt? Mensen kunnen, tot de grens gedreven, gruwelijke beslissingen nemen. Voor een AI-wapen is het slechts een ijskoude software-update of het gevolg van een kansberekening.
Pete Hegseth probeert Anthropic, een blijkbaar belangrijke AI-leverancier voor defensie, zover te krijgen dat het beveiligingen in hun AI-systeem voor defensiedoeleinden laat vallen. Ik weet natuurlijk niet wat het precieze gevolg is, maar het zal het systeem vast niet humaner maken. Voor we het weten worden speedbootjes met pakketjes en mensen aan boord tussen Zuid-Amerika en de VS massaal uit het water geschoten zonder menselijke inmenging.
Asimovs waarschuwing begint vorm te krijgen. Het probleem is alleen niet de Ghost in de Machine maar the Devil above the System. Alles wat er nodig is om het AI-systeem te laten ontsporen is een gewetenloos mens die verder gaat dan de rest. Die mensen zijn er genoeg en die wapens komen er ook. En als de VS dat doet, doet Rusland het ook, en China en Israël, en Iran. Nog dit decennium worden terroristische aanvallen uitgevoerd door drones die uit een ver land worden verscheept en die aangekomen op de plaats van bestemming zelfstandig een druk winkelcentrum opzoeken. Uiteindelijk wordt iedereen gedwongen om het gruwelijke “spel” mee te spelen. Dat gaat een conferentie van Defensie-ministers in Spanje niet voorkomen.
Ik hoop dat Europa met duidelijke regels gaat komen waar AI aan moet voldoen. En die toepast op alle AI die in Europa te gebruiken is. De drie wetten van Asimov zijn daarbij een eerste begin, maar anno 2026 bij lange na niet genoeg. Asimov calculeerde niet in dat ieder land zijn eigen wetten had en dat het land met de laagste morele principes de winnaar zal zijn. Maak daar maar een wet van.
Aangezien de uitkomst niet hoopvol lijkt, hoop ik dat Nederland en de andere EU-landen aan de verdere uitbreiding van hun legers beginnen met het opzetten van gespecialiseerde drone- en anti-drone-eenheden. Lerend van de ervaring van de Oekraïners en die van daaruit veel verder gaan. Eenheden die de ontwikkeling en inzet van nieuwe wapens versnellen. Ik zie geen controle komen op AI-wapens en dat maakt van traditionele gevechtsbrigades gewoon doelwitten van AI-gestuurde en ijskoude tegenstanders.
Meld je hieronder gratis aan voor Joop NL. Iedere donderdag een selectie opvallende nieuwsverhalen, opinies en cartoons in je mailbox.