Het militaire gebruik van kunstmatige intelligentie (AI) een grootschalige verrassingsaanval. Met een somber beeld: ballistische raketten regenen neer terwijl grote aantallen amfibische aanvalsschepen en vliegdekschepen worden ingezet, cyberaanvallen leggen de digitale en fysieke infrastructuur plat, en langeafstandsraketten vernielen de verdediging. We proberen te reageren, maar schieten tekort door een gebrek aan numerieke mogelijkheden.
Een alternatieve visie op een toekomstige oorlog, waarin ai producten een centrale rol spelen. Een vloot AI-gestuurde systemen, gecoördineerd via een platform AI-gestuurde software waarmee gebruikers naar verluidt “miljoenen wapens kunnen inzetten zonder miljoenen levens te riskeren” en een invasie moeten afweren. Door autonome systemen op grote schaal in te zetten, gaan we aan onze tegenstanders bewijzen dat we de capaciteit hebben om te winnen. Zo herwinnen we onze afschrikking.
Dit is niet slechts een retorische strategie of een vorm van grootspraak. Maar een virtuele demonstratie digitaal geconstrueerde producten, om ons zelf te presenteren met diepgaande kennis van en vertrouwd met de rol van AI in de toekomst van oorlogvoering. Doormiddel van overzichtelijk gevisualiseerde, digitaal verbeterde spektakels, vaak vergezeld van scenario’s, creëren we een virtuele omgeving met een eigen visie op AI in oorlogvoering weerspiegelt.
Het is een visie, zoals anderen elders treffend hebben beschreven, van een ‘utopische oorlog’, waarbij alomtegenwoordige databronnen alwetend inzicht bieden in de motieven, zetten en doelstellingen van de tegenstander, en softwareplatformen algoritmische besluitvorming en groottalige modellen integreren om gebruikers binnen enkele seconden heldere en efficiënte handelwijzen te bieden. AI gebaseerde beslissingsondersteunende systemen die worden gebruikt bij targeting, politieke, juridische, ethische en maatschappelijke implicaties met zich meebrengt.
Tegenwoordig produceren en verspreiden technologiebedrijven regelmatig gestroomlijnde virtuele demonstraties van hun op AI gebaseerde producten. Misschien wel het meest zichtbaar in de online omgevingen en andere socialemediaplatforms. Deze video’s en afbeeldingen staan vol met vergelijkbare glanzende beelden, dreunende elektronische soundtracks en experts die zowel technisch als ervaringsdeskundige die gevechtstechnieken uitleggen of uitvoeren met wapensystemen of softwareplatforms.
Waarheidsgetrouwe kennis en expertise over AI in de toekomst van oorlogvoering. De virtuele demonstraties van technologiebedrijven algoritmische oorlogsvoering als een strategische noodzaak. De visuele verhalen en discursieve contextualisering, suggereren dat in de volgende oorlog snelle en precieze besluitvorming is, waarbij enorme hoeveelheden vervangbare, autonome wapensystemen worden aangestuurd door platformen die machine-intelligentie, snelheid en nauwkeurigheid integreren, de enige manier zal zijn om tegenstanders te verslaan.
De virtuele demonstraties en verhalen om het voortouw te nemen in de wereldwijde AI-competitie tegen autoritaire staten. Dit kader wordt nauwelijks verhuld “de ethische implicaties van AI in oorlogsvoering ernstig zijn. Maar hier is de waarheid. Als we op dit gebied geen voortrekkersrol spelen, zullen autoritaire regimes dat wel doen. En zij zullen zich niet bekommeren om onze ethische normen. AI verbetert de besluitvorming. Het verhoogt de precisie. Het vermindert nevenschade. Hopelijk kan het sommige conflicten volledig elimineren.”
Het winnen van de volgende oorlog hangt af van de meest verregaande toepassing van AI-technologieën moreel juist en verantwoord. Zij hebben het moreel gezag omdat ze inzet van AI nastreven voor afschrikking en stabiliteit.
Belangrijk is dat de complexiteit en realiteit van oorlogvoering verkeerd weergeven wordt door visioenen van gezuiverd, nauwkeurig en bloedloos geweld. Oorlog voeren via AI-platforms, wapensystemen wordt afgeschilderd als een schone en efficiënte praktijk, geobjectiveerd door de dataficatie en mechanisatie die algoritmische besluitvorming. Wijzend op de strategische en morele verplichtingen om te innoveren en deze AI-capaciteiten te integreren.
De onvermijdelijke toekomst van de mensheid” kunnen claimen, aanzienlijke macht en invloed uitoefenen. De toenemende inspanningen om zichzelf te positioneren als superieur in kennis en ervaring met de toekomstige oorlogsvoering, en het schijnbare succes leiden tot verschillende politieke, juridische, ethische en veiligheidsimplicaties.
Deze virtuele demonstraties strategieën en -technologieën, waarin snelheid en experimenten de voorkeur krijgen boven veiligheid en bruikbaarheid. Bewijs laat nu zien dat dergelijke ‘geavanceerde technologieën’ vaak niet aan de verwachtingen voldoen, met kritieke beveiligingslekken en frustraties tot gevolg. Oorlog voeren is niet zo schoon, efficiënt en precies als soms wordt beweerd. Het is rommelig, dodelijk en onvoorspelbaar. Meer data leidt niet automatisch tot een helderder beeld van het slagveld of een beter begrip van de tegenstander. De massavernietiging en het genocidale geweld in de afgelopen jaren tonen aan dat AI-technologieën het niet moeten hebben van precisietools om beperkte operaties uit te voeren, maar juist van krachtigere middelen voor surveillance en dodelijk geweld.
Door het narratief te ondersteunen dat datagestuurde targeting automatisch efficiënter is, ernstige juridische implicaties. Zoals juridische experts hebben aangegeven, omvatten beslissingen met betrekking tot verplichtingen uit het internationaal humanitair recht, zoals de beginselen van onderscheid, evenredigheid en voorzorg, niet alleen kwantitatieve data-analyse. Ze vereisen ook de uitoefening van cognitief vermogen. Hoewel het gebruik van targeting officieel mensen betreft, zijn er verschillende dynamieken in de interactie tussen mens en machine die van invloed kunnen zijn op de manier waarop deze mensen hun cognitief vermogen uitoefenen, zoals automatiseringsbias of het overdragen van oordeelsvermogen, met name in situaties van extreme snelheid en druk om te handelen. Een toenemend gebruik van AI brengt een hoger risico met zich mee dat mensen, zoals inlichtingenanalisten, commandanten en operators, niet voldoende oordeelsvermogen en handelingsbekwaamheid uitoefenen zoals vereist door wettelijke verplichtingen waaraan staten zich hebben verbonden.
Omvatten dergelijke beperkingen op de uitoefening van menselijk vermogen. Dit geldt ook voor ethische implicaties, die onder andere vernietiging, dood en schade met zich meebrengt. De potentie voor het verergeren van de systematisering van geweld en het gebrek aan menselijkheid ‘in de lus’, ondanks de aanwezigheid van mensen. Het is dan ook niet verwonderlijk dat dergelijke risico’s niet worden getoond of erkent.
AI-gestuurde producten worden niet ontwikkelt in naam van de verdediging van de democratie. Maar in combinatie van het streven naar innovatie met de doelstellingen van de natie” “de legitimiteit om democratie zelf te waarborgen”. Het doel is om “het arsenaal van de democratie nieuw leven in te blazen” door de technologie te bouwen die nodig is om de technologische voorsprong te behouden ten opzichte van de opponenten. Maar de strategieën dreigen de democratie, ernstig te verzwakken. Door de rigide acquisitie- en aanbestedingsprocessen te verstoren om ‘innovatie’ te stimuleren, zich aan te sluiten bij de autocraten, transparantie en publieke controle te ondermijnen, om zo de kernprincipes van democratisch bestuur en toezicht in twijfel te trekken.
