Logo Joop
De opiniesite van BNNVARA met actueel nieuws en uitgesproken meningen

Waar gaan we heen met artificial intelligence? Politieke lessen uit Israël-Palestina

  •  
23-01-2024
  •  
leestijd 4 minuten
  •  
761 keer bekeken
  •  
ANP-488162109

Gospel verkondigt net als het evangelie een boodschap die pas waarheid wordt als je ernaar handelt. De totale verwoesting van Gaza is hier het bewijs van.

Op het gebied van artificial intelligence (AI) sloot het jaar 2023 af met twee belangrijke verordeningen. De eerste afgekondigd door president Biden van de Verenigde Staten en de tweede, omvangrijkere AI-verordening van de Europese Unie. Beide reppen over het beschermen van mensenrechten, de rechtsstaat en de democratie; beide zijn gepresenteerd als pionierswerk en voorbeeld voor de wereld wat betreft het in goede banen leiden van AI. Opvallend genoeg is het domein waarin mensenrechten doorgaans het meest onder druk staan terloops uit de verordeningen gehouden. Ik heb het hier over gewapend conflict, specifieker: militaire toepassingen.

AI die nadrukkelijk ontwikkeld is voor militaire doeleinden blijft ook na de volprezen verordeningen ongereguleerd. Waarom militaire AI vrij baan krijgt en wat dat betekent voor moderne oorlogsvoering en mensenrechten blijkt uit de oorlog in de Gazastrook. Een ideale casus omdat Israël bekend staat als technologisch voortvarend land waarbij het leger een prominente rol speelt. Zo voortvarend dat de Directeur-Generaal van het Israëlische Ministerie van Defensie eind mei nog verklaarde dat het land op het punt stond een AI-supermacht te worden.

De kwalificatie ‘supermacht’ komt natuurlijk niet uit de lucht vallen. Een greep uit Israëls wapenfeiten: de op afstand AI-geassisteerde sluipmoord van de Iraanse kernwetenschapper Farikzadeh, constante surveillance, gezichtsherkenning en automatische bestraffing van Palestijnen in o.a. bezet Hebron en Oost-Jeruzalem, en het ook in de huidige oorlog gebruikte AI-systeem ‘Gospel’ om militaire doelwitten te identificeren. Het sleutelwoord is hier automatisering. AI is een technologie die draait om het algoritmisch verwerken van een enorme hoeveelheid data en op basis daarvan handelingswijzen voorstelt of doorvoert. Het resultaat is een systeem waarbij de werking veelal automatisch is. Zogeheten autonome (wapen)systemen zijn overigens niet nieuw. Dichter bij huis kennen we het tragische neerstorten van MH17, ook het resultaat van een semi-autonoom wapensysteem. Verfijnde militaire AI-systemen zijn echter van andere aard en hebben vergaande gevolgen voor oorlogsvoering.

Neem Gospel. Dit militaire AI-systeem wordt door zowel Israëlische ambtenaren als critici vergeleken met een fabriek die op grote schaal produceert. De productie betreft hier geen consumptiegoederen maar het vertalen van data naar militaire doelwitten en uiteindelijk doden. Ook het mogelijk aantal burgerslachtoffers wordt hierin meegenomen. Een dergelijk systeem kent twee duidelijke gevaren. Ten eerste vergroot het de afstand tussen dader en doelwit, wat ontmenselijking eenvoudiger en empathie moeilijker maakt. Ten tweede is er het belangrijkere gevaar van een vooringenomenheid naar het systeem toe. Men is vaak geneigd computerconclusies aan te nemen als natuurfenomenen. Ook dit zorgt voor een verlies van het vermogen om het risico op lijden en verschrikking op een betekenisvolle manier te overwegen. Daarnaast worden de verschillen tussen militaire doelen, burgerdoelen en burgerobjecten troebel. Het systeem moet immers doelen blijven produceren en zal daartoe een weg vinden, los van de vraag of de data klopt. Gospel verkondigt net als het evangelie een boodschap die pas waarheid wordt als je ernaar handelt. De totale verwoesting van Gaza is hier het bewijs van.

Desalniettemin staat het gebruik van militaire AI niet op zichzelf. De ontmenselijking van Palestijnen door Israëlische hooggeplaatsten en het officiële militaire beleid van Israël om met disproportioneel geweld te overweldigen maken het gebruik van dit soort toepassingen geen dwaling. Integendeel, het sluit naadloos aan bij de zienswijzen van de huidige Israëlische regering. Een vergissing kan gebeuren maar genocide vereist meer dan dat. De reden waarom Israël hiermee door kan gaan is dezelfde reden waarom het miljardensteun en vergaande diplomatieke dekking krijgt van de Verenigde Staten. Het belang rechtvaardigt namelijk het toedekken.

Israël-Palestina leert ons dat (geo)politieke en economische belangen belangrijker zijn dan legitiem handelen. Dit geldt voor de VS, die via Israël voet aan de grond krijgt in het Midden-Oosten, maar ook voor Israël die naast duidelijke nationalistische motivaties gas- en olielicenties aan oliebedrijven uitdeelt om Gaza te exploiteren. Het vrij baan geven aan Israël is gebaseerd op dezelfde overwegingen die spelen bij het ontzien van militaire AI. En niet zonder gevolg: elke keer wanneer het internationaal recht zonder consequentie wordt geschonden heeft deze minder kracht en legitimiteit. Ook voor de AI-verordeningen en daarmee de regulering van artificial intelligence in het algemeen geldt dat elke keer wanneer militaire AI die verordeningen overtreedt ze minder waard worden. In beide gevallen is het de mensheid die verliest en zijn het beperkte belangen die profiteren.

Uiteindelijk kan militaire AI dus niet los worden gezien van de algemene ontwikkeling van artificial intelligence. Het een vloeit over in het ander en maakt duidelijk dat de militarisering van AI altijd een politisering van AI betekent. Alle mooie woorden ten spijt blijkt ethiek steeds weer dode politiek. Alleen met dit soort realisme kunnen we iets anders tegenover militaire AI zetten – een politiek van leven, vrede en hoop. Te beginnen met het opvoeren van de druk op onze eigen politici om het voorbeeld van Zuid-Afrika te volgen en Israël een halt toe te roepen.

Meer over:

opinie, ai, israël, palestina
Delen:

Praat mee

onze spelregels.

avatar
0/1500
Bedankt voor je reactie! De redactie controleert of je bericht voldoet aan de spelregels. Het kan even duren voordat het zichtbaar is.

Reacties (4)

android1984
android198425 jan. 2024 - 11:54

nederland was met haar uitvoering van de Goalkeeper een van de eerste landen die een autonoom schietend wapen in de markt zette... (Nee, niet holland signaal alleen, het was een ontwerpopdracht van de nederlandse overheid)

pahan
pahan24 jan. 2024 - 6:09

AI toepassen voor wapensystemen is niet meer dan een doorontwikkeling op iets wat al heel lang bestaat. Alleen in plaats van rechtdoor rekenen en vertrouwen op steeds meer rekenkracht is het zelflerend en zal een dergelijk systeem niet een tweede keer een passagiersvliegtuig uit de lucht schieten, om dat voorbeeld maar aan te houden. Ik heb nog leren programmeren in BASIC, en heb in de jaren de ontwikkelingen met interesse gevolgd. Hoe snel en stralend de systemen ook werden, het ontsteeg nooit de basis van als dit/dan dat/tenzij. De angst voor AI is ingegeven door de illusie dat mensen altijd een betere keus kunnen maken, waar de geschiedenis leert dat dat natuurlijk absoluut niet waar is. Integendeel zelfs. In films werkt dat, maar dat zijn ook de films waarin de hele wereldbevolking omkomt behalve de held, en daar hou je dan toch een goed gevoel aan over.

Karel78
Karel7823 jan. 2024 - 19:10

Kun je de claim dat MH17 door een 'semi-autonoom' systeem uit de lucht geschoten is wat verder toelichten? Die buk's zijn even autonoom als de automatische versnellingsbak van je auto. Als dat de grens is, dan ligt die daarmee toch vrij laag.

JaapBo
JaapBo23 jan. 2024 - 19:08

Israel is een misdadig land, en zet AI dus ook op misdadige wijze in. Lees bijv “a mass assassination factory” https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/