Home

AI schudt de oorlogen in Iran en Oekraïne op: lessen van vier slagvelden

Toekomst Kunstmatige intelligentie kent een definitieve doorbraak in de Iran-oorlog. AI heeft voordelen voor legers. Niet alleen in Iran, maar ook in Oekraïne, Gaza en Venezuela. Tegelijkertijd laat de keerzijde van AI zich zien op het slagveld.

Dronebeelden van de Oekraïense krijgsmacht boven de door Russische troepen bezette oostelijke oever van de rivier de Dnjepr bij de Zuid-Oekraïense stad Cherson.

Het zijn aantallen waar in eerdere oorlogen weken of maanden voor nodig waren, maar die nu in enkele etmalen gehaald worden dankzij de grootschalige militaire toepassing van kunstmatige intelligentie. De Amerikaans-Israëlische aanval op Iran loopt momenteel drie weken, waarbij al alleen tijdens de eerste dagen van hun respectievelijke operaties Epic Fury en Roaring Lion duizenden doelwitten werden gebombardeerd. Daarmee beleeft AI op het slagveld in de Iran-oorlog een definitieve doorbraak. Niet alleen in de oorlog zelf, maar ook in de publieke opinie.

AI wordt al jaren ingezet door verscheidene krijgsmachten. Sinds circa anderhalf jaar draait het daarbij niet langer alleen om analyse van grote hoeveelheden data, satellietbeelden voor het selecteren van potentiële doelwitten, maar ook om denkkracht. De jongste, zogenoemde frontier-modellen „doen niet langer alleen aan samenvatten, maar ook aan redeneren”, stelde Louis Mosley, het Europese hoofd van AI-bedrijf Palantir, vorige week in Britse zakenkrant de Financial Times.

De inzet van Palantirs speciaal voor het Pentagon ontwikkelde Maven Smart System heeft geleid tot „een grote toename van het aantal beslissingen en de snelheid waarmee [militairen] die kunnen nemen”, aldus Mosley. Met behulp van Maven kan de zogeheten kill chain drastisch worden ingekort. Een doelwit selecteren, aanwijzen, het juiste wapen kiezen, de opdracht tot vuren geven en tot slot de schade inventariseren: die hele keten is teruggedrongen van uren of dagen tot secondes of minuten. Zoals AI-toepassingen al menig werkvloer ontwrichten, zo wordt ook de militaire bureaucratie totaal opgeschud.

Maar hoe intelligent AI-modellen door bedrijven als Palantir ook in de markt gezet worden, fouten kunnen zij nooit uitsluiten. De Amerikaanse raketaanval op de meisjesschool in de zuidelijke Iraanse stad Minab, op de eerste dag van de oorlog, wordt toegeschreven aan verouderde gegevens over dit doelwit. Hoewel nog niet vaststaat of de school (gelegen naast een legerbasis) door een AI-model als doelwit werd geselecteerd dan wel goedgekeurd, heeft haar omarming van AI de Amerikaanse krijgsmacht in ieder geval ook niet kunnen behoeden voor dit fatale bombardement.

Mede door de tragedie in Minab, waarbij waarschijnlijk honderd kinderen en vele tientallen ouders, leraren en omstanders omkwamen, groeit nu de aandacht voor militaire AI-toepassingen. Meer nog dan bij andere recente gevechtshaarden – van Gaza tot Oekraïne en de inval in Venezuela – komt nu aandacht voor de baanbrekende wijze waarop AI wordt ingezet. Naast de ervaringen in Iran bieden nog drie andere slagvelden een eerste blik op deze toekomst.

GazaDodenaantal veel hoger door inzet van AI

Palestijnen lopen langs het puin van woongebouwen die tijdens het twee jaar durende Israëlische offensief zijn verwoest, in Jabalia, in het noorden van de Gazastrook.

Al twee maanden na het begin van zijn vernietigingscampagne in Gaza had het Israëlische leger twaalfduizend bommen op Gaza laten vallen. Een ongekend aantal, in vergelijking met eerdere oorlogen. De oorzaak: kunstmatige intelligentie.

Waar het selecteren van doelwitten voorheen een tijdrovende, door mensen uitgevoerde klus was, heeft Israël daar enkele AI-programma’s voor ontworpen. Voor het bepalen van de locaties van vijandelijke strijders gebruikt het leger het programma Lavendel, voor gebouwen en andere infrastructuur Evangelie. Beide programma’s zetten grote hoeveelheden gegevens, zoals menselijke inlichtingen, dronebeelden en afgeluisterde communicatie, om in kant-en-klare doelwitten.

Lavendel, schreef de bekende Israëlische journalist Yuval Abraham twee jaar geleden op het online magazine +972, identificeerde zo 37.000 Palestijnen als verdachte militanten. „In de beginfase van de oorlog gaf het leger officieren zonder enige beperking toestemming om Lavendels dodenlijsten over te nemen, zonder dat er grondig gecontroleerd werd waarom de machine die keuzes maakte of dat de ruwe inlichtingen waarop ze gebaseerd waren, onderzocht werden.”

Het programma werkt niet foutloos, aldus Abraham: in een op de tien gevallen markeert het iemand als militant die dat niet is. Een tweede, aanvullend AI-programma, genaamd Waar is papa?, werd gebruikt om de gangen van een verdachte na te gaan en hem te bombarderen zodra hij thuiskwam. Dat hierbij vaak ook het gezin van een verdachte omkwam, werd voor lief genomen.

AI wordt verantwoordelijk gehouden voor het relatief hoge aantal doden in Gaza. Maar het is niet de enige verklaring: Israël hanteerde in Gaza een ruime definitie van wat toelaatbaar is als doelwit. Elk huis van elke lagere Hamas-commandant was dat bijvoorbeeld, en per bom werden enkele tientallen burgerdoden geaccepteerd. AI deed weliswaar het voorwerk, het bleef een menselijke beslissing welke bommen er op basis van die input toelaatbaar geacht werden.

Oekraïens-Russische oorlogOp het slagveld is AI zowel zegen als vloek

Beeld van een Oekraïense droneaanval in Rusland, juni vorig jaar.

Met een verwoestende droneaanval schakelde Oekraïne in 2025 zo’n twintig strategische bommenwerpers van de Russische luchtmacht uit. De enorme schade die deze operatie Spinnenweb berokkende, was grotendeels te danken aan de inzet van AI: de drones waren vooraf uitvoerig ‘getraind’ om de bommenwerpers volledig autonoom te herkennen – en vooral hun meest kwetsbare plekken; de motoren. Dat gebeurde met vliegtuigen uit het Sovjettijdperk, tentoongesteld in het Museum voor Zware Bommenwerpers in het Oekraïense Poltava.

Voor Oekraïne had de AI-revolutie niet op een beter moment kunnen beginnen. De ontwikkeling van drones begon in Oekraïne uit pure noodzaak: het land kan er zijn gebrek aan manschappen, wapens en munitie deels mee compenseren. Wat in 2022 begon als een houtje-touwtje-campagne met vastgebonden granaten onder een eenvoudige Mavic-drone, is uitgegroeid tot een van de meest geavanceerde drone-industrieën ter wereld, met een groeiende rol voor AI.

Het herkennen van vijandelijke doelwitten staat in deze fase van de AI-ontwikkeling centraal. Volledig autonome systemen zijn voor zover bekend nog niet actief in Oekraïne, al streeft het land daar wel naar: dat zijn drones of zwermen drones die volledig onafhankelijk van mensen missies kunnen uitvoeren in complexe en onvoorspelbare gevechtssituaties, zoals het opsporen en onschadelijk maken van vijandelijke eenheden, wapensystemen of militaire installaties. Oleksandr Jakovenko, ceo van dronefabrikant TAF Industries, zei eind vorig jaar tegen NRC dat die stap wordt verwacht in het eerste halfjaar van 2026: AI-gestuurde drones boven het slagveld die opereren „zónder menselijke autorisatie”.

Oekraïners installeren antidrone-netten ter bescherming tegen droneaanvallen in de regio Charkiv deze maand.

Oekraïense drone-ontwerpers bereiden zich voor op een vlucht van een interceptordrone in Oekraïne.

AI vormt een antwoord op de steeds complexere omstandigheden boven de frontlinies, waar elektronische verstoring het besturen van drones bijna onmogelijk maakt. Om dat probleem te ondervangen worden niet alleen drones aan kilometerslange glasvezeldraden ingezet, maar ook op steeds grotere schaal semi-autonome systemen: drones die in de laatste fase van hun vlucht missies kunnen afmaken, ook als de verbinding tussen drone en piloot is verbroken.

Intussen heeft ook Rusland grote ambities op dit vlak, met name met kamikaze-drones. Tegen The Economist spraken Oekraïense ingenieurs vorig jaar hun zorgen uit over de nieuwe besturingssystemen van Russische drones. Zo zijn de nieuwste Shahed-drones – die Rusland eerder van Iran kocht maar nu zelf produceert – lastiger te vangen, al maakt Oekraïne wel grote stappen met semi-autonome onderscheppingsdrones. Ondanks sancties komt westerse technologie Rusland binnen via smokkelroutes. Oekraïense ingenieurs troffen vorige zomer een Shahed-drone aan met een AI-systeem van het Amerikaanse Nvidia.

Volgens een rapport van de Amerikaanse denktank ISW zijn verdere ontwikkelingen deels afhankelijk van het Russische vermogen om een geavanceerd cloud-systeem te creëren, dat frontliniegegevens kan analyseren voor het trainen van drones en bewegingen op het slagveld. Een andere uitdaging: de Russische regering zelf, die controle wil houden op digitale communicatie. Russische troepen klagen al weken over omvangrijke internet-storingen en een bijna volledige Telegram-blokkade.

VenezuelaVeronderstelde inzet Claude leidt tot rel

Rook stijgt op boven Caracas na een reeks explosies tijdens een Amerikaanse militaire operatie die leidde tot de arrestatie van de Venezolaanse president Nicolás Maduro, begin dit jaar.

In krap 2,5 uur was operatie Absolute Resolve al voorbij. De militaire inval waarbij de VS in de vroege ochtend van zaterdag 3 januari de Venezolaanse leider Nicolás Maduro gevangennamen, verliep voor hen nagenoeg vlekkeloos. Aan Amerikaanse zijde vielen slechts zeven gewonden, geen van allen ernstig. De Venezolanen leken zo overrompeld door de eerste golf luchtaanvallen in en rond de hoofdstad Caracas, dat ze amper nog terugvochten toen speciale eenheden afdaalden op legerbasis Fuerte Tiana en daar Maduro inrekenden. Zelfs aan die kant bleef het aantal dodelijke slachtoffers (enkele tientallen Venezolanen, 31 Cubanen en twee burgers) relatief beperkt.

Verliep de operatie mede zo feilloos, omdat de VS voor het eerst kunstmatige intelligentie inzetten? Niet alleen tijdens de voorbereiding, door het AI-model Claude satellietbeelden en inlichtingen te laten analyseren. Maar ook tijdens de operatie zelf? Dat was wel wat AI-bedrijf Anthropic, het bedrijf achter Claude, in de nasleep vermoedde. En dat zou in strijd kunnen zijn met de gebruiksvoorwaarden die het als leverancier stelt, ook aan een belangrijke overheidsklant als het Pentagon.

Anthropic zet zich nadrukkelijk in de markt als een ethisch bewust AI-bedrijf. Het heeft zijn beginselen vastgelegd in een eigen ‘grondwet’ die verbiedt dat zijn modellen gebruikt worden voor volledig autonome oorlogsvoering of voor massa-surveillance van Amerikaans burgers. Bezorgd deed het na de Venezolaanse inval navraag bij Palantir, het data-analysebedrijf waarmee het een partnerschap heeft en dat al veel nauwer samenwerkt met de regering-Trump.

Satellietbeelden van een Venezolaans militair complex.

Toen het ministerie van Defensie lucht kreeg van Anthropics vragen, reageerde het woest. Het Pentagon stelde dat het bedrijf hiermee hengelde naar vertrouwelijke informatie en dat de nationale veiligheid in het geding was. Claude was het eerste model dat door het Pentagon werd goedgekeurd om gebruikt te worden op de vertrouwelijke interne systemen, waarop bijvoorbeeld wapentesten of lopende operaties draaien.

Toen Anthropic zijn voorwaarden niet wilde aanpassen aan de eisen van het Pentagon, werd het aangemerkt als risico voor de hele productieketen, waarmee het feitelijk tot paria werd gemaakt. Een Witte Huis-woordvoerder betitelde het tot „radicaal-links woke bedrijf”.

Anthropic vecht de regeringsban aan bij rechters in Californië en Washington. Tijdens die processen zal mogelijk duidelijk worden hoe Claude werd ingezet bij de Venezolaanse operatie. Ondertussen dreigt het opdrachten te verliezen aan concurrenten als xAI (van Elon Musk) of OpenAI. Die branchegenoten lopen daarmee echter wel een risico op reputatieschade – zeker nu bij burgers de aandacht voor militaire toepassingen van AI toeneemt.

‘ChatGPT, hoe blaas ik een school op?’

Een satellietfoto toont de meisjesschool in Minab, nadat die is getroffen door Amerikaans-Israëlische luchtaanvallen.

Zelfs in het geval dat er uiteindelijk nog een mens aan de knoppen zit, kunnen morele en wettelijke normen vervagen door de toegenomen snelheid en schaal van de aanvallen. Volgens het humanitair oorlogsrecht moeten strijdende partijen voorzorgsmaatregelen nemen voordat ze bombarderen, doelwitten goed onderscheiden en burgerslachtoffers minimaliseren. Het zo snel mogelijk genereren van zo veel mogelijk doelen lijkt daar inherent strijdig mee.

Kunstmatige intelligentie kan de kill chain eindeloos verder inkorten en legers en landen een doorslaggevend voordeel op het slagveld bieden. Maar als politieke en militaire leiders hun AI-modellen voeden met domme prompts, verouderde data of de antwoorden die eruit rollen aangrijpen voor strategisch minder verstandige besluiten, zal dit ook leiden tot onnauwkeurigheden, onnodige burgerdoden of onbezonnen oorlogen.

Trump wuifde kritische vragen over de gebombardeerde meisjesschool in Minab deze maand weg, zoals de regering-Netanyahu alle internationale kritiek op zijn oorlogsexcessen al jaren negeert. Maar zelfs als politici geen rekenschap willen afleggen, zijn altijd nog hun AI-leveranciers zelf commercieel kwetsbaar. Via hun chatbots Claude, Grok en ChatGPT zijn zij momenteel verwikkeld in een hevige strijd om marktaandeel. Overheidsopdrachten zijn belangrijk, maar voor bijvoorbeeld marktleider OpenAI gold vorig najaar dat het 70 procent van zijn omzet op de consumentenmarkt boekte.

In bushokjes nabij een Londens kantoor van het bedrijf verschenen deze maand reclameposters die zogenaamd van OpenAI zelf waren, maar kritisch inhaakten op het fatale Amerikaanse bombardement op de Iraanse meisjesschool. Naast een foto van Trump de vraag: „ChatGPT, hoe blaas ik een school op?” Eronder: „De AI waarmee je mailtjes schrijft, zal gebruikt worden door Trump om mensen te vermoorden in Iran.”

Een poster met Donald Trump waarop staat ​​hoe je een school kunt opblazen. De poster verwijst naar een overeenkomst die OpenAI, de maker van ChatGPT, deze maand sloot met het Amerikaanse ministerie van Defensie.

Schrijf je in voor de nieuwsbrief NRC Broncode

Doorzie de wereld van technologie elke week met NRC-redacteuren 

Kunstmatige intelligentie

Lees meer

Lees meer

Lees meer

Source: NRC

Previous

Next