Het gebruik van Kunstmatige Intelligentie (AI) in het militaire domein wordt zowel revolutionair als controversieel gezien. AI heeft het potentieel om de militaire praktijk ingrijpend te transformeren door verbeterde situatiebewustzijn, een beter geïnformeerd besluitvormingsproces, verbeterde (cyber)beveiliging en dreigingswaarschuwing, en verbeterde operationele efficiëntie te bieden. Het is gemakkelijk om overweldigd te worden door de ongelooflijke capaciteiten en nieuwe mogelijkheden die deze technologie ontgrendelt. Het controversiële aspect is het (mis)gebruik van AI om mensenrechten en het humanitair recht te schenden of te beperken, of om interne onderdrukking te vergemakkelijken. Het ontwikkelen van AI (of technologie en systemen die de ontwikkeling ervan mogelijk maken) is een kwestie van internationale veiligheid. Daarom moeten we ons realiseren dat het militaire gebruik en de mogelijkheden van AI altijd geleid moeten worden door fundamentele principes die beschermen wat het meest waardevol is, namelijk menselijk leven en waardigheid. Ze vormen de basis van het internationaal recht en de mensenrechten. RSM nam deel aan de ReAIm 2023-top, georganiseerd door de Nederlandse regering, waar het verantwoordelijk gebruik van kunstmatige intelligentie in het militaire domein uitgebreid werd besproken. In dit korte artikel presenteren we in een notendop de verschillende uitdagingen, risico's en kansen die werden gedeeld door belangrijke deelnemers. We zullen beginnen met het uiteenzetten van wat naar onze mening de overwegingen en grenzen zijn die het gebruik van AI in het militaire domein kunnen sturen, en we zullen een paar gebruiksscenario's geven om het argument te illustreren.
DIT ARTIKEL IS GESCHREVEN DOOR CEM ADIYAMAN EN HERMAN ANNINK. CEM ([email protected]) EN HERMAN ([email protected]) HEBBEN BEIDEN EEN STERKE FOCUS OP LAW & TECHNOLOGY EN INTERNATIONAL TRADE COMPLIANCE & SANCTIONS BINNEN RSM NETHERLANDS BUSINESS CONSULTING SERVICES.
Grenzen stellen
In het kader van eerbiediging van het internationaal recht en de fundamentele rechten ligt onze argumentatie vooral bij het potentieel van AI als ondersteunende tool om het besluitvormingsproces te verbeteren en (cyber)beveiliging en dreigingsmonitoring mogelijk te maken. In plaats van autonoom gevoelige beslissingen te nemen, zou AI primair dienen om informatie te verwerken en te presenteren. Gevoelige acties verwijzen naar diegenen met het potentieel om fundamentele rechten te beïnvloeden of onbedoelde grootschalige politieke gevolgen te hebben, zoals acties met betrekking tot mensenlevens.
Binnen dit kader blijft de verantwoordelijkheid voor gevoelige acties bij mensen liggen, terwijl AI fungeert als een tool om menselijke capaciteiten te versterken. Het adresseren van mogelijke vooroordelen en het waarborgen van privacy bij gegevensverwerking zijn belangrijke overwegingen, maar het gebruik van AI op deze manier introduceert geen fundamenteel nieuwe complexiteit in het lopende debat.
Wanneer AI-systemen echter de mogelijkheid krijgen om gevoelige acties uit te voeren, zoals bij de werking van autonome dodelijke wapens of bij cybersurveillance (bijvoorbeeld gezichtsherkenning of het monitoren van gegevenstraffic), ontstaan er extra veiligheids- en ethische zorgen. Deze omvatten transparantie, aansprakelijkheid, menselijke waardigheid, internationale veiligheid, schending van mensenrechten en humanitair recht, en het potentieel voor onbedoelde schade wanneer AI-technologie in verkeerde handen valt.
Hoewel de relatie tussen transparantie, aansprakelijkheid en menselijke waardigheid verder onderzoek vereist, is het vermeldenswaard dat transparantie een cruciale rol speelt. Transparantie maakt het mogelijk om het beoogde (eind)gebruik en de (eind-)gebruikers te begrijpen, evenals hoe een specifieke aanbeveling tot stand komt, wat ethische, politieke, veiligheids- en juridische evaluaties van de rechtvaardiging ervan vergemakkelijkt. Bovendien maakt transparantie het mogelijk om de bron van een beslissing te identificeren, waarbij de juiste personen, entiteiten of zelfs landen verantwoordelijk kunnen worden gehouden voor eventuele onbedoelde of onrechtmatige gevolgen. Zonder transparantie wordt aansprakelijkheid ontwijkend en kan het ontbreken van een aansprakelijke politieke en/of militaire macht leiden tot onbeperkt misbruik.
Onze argumentatie stelt dat AI, wanneer het internationaal recht en de fundamentele rechten worden gerespecteerd, kan worden ingezet als ondersteunende tool om het besluitvormingsproces te verbeteren. Het zou informatie verwerken en presenteren, terwijl gevoelige en onrechtmatige acties de verantwoordelijkheid van mensen blijven. Terwijl transparantie, aansprakelijkheid en menselijke waardigheid essentiële overwegingen zijn in deze context.
Ondersteuning van situatiebewustzijn
Een voorbeeld van wat wordt beschouwd als een niet-controversieel gebruik van AI in het militaire domein, waarbij geen autonome besluitvorming plaatsvindt, is het verbeteren van het situatiebewustzijn van de gebruiker. Een veelgehoord argument voor het gebruik van kunstmatige intelligentie in het militaire domein is dat militaire beslissingen vaak onder tijdsdruk worden genomen. In dergelijke scenario's moeten besluitvormers snel handelen ondanks beperkte toegang tot relevante informatie. Daarentegen hebben AI-systemen de capaciteit om razendsnel uitgebreide hoeveelheden gegevens van meerdere bronnen te verwerken, zelfs in real-time en binnen fracties van een seconde. Bovendien kan AI snel en nauwkeurig patronen en trends identificeren, een taak die buiten het vermogen van de menselijke geest ligt. Als gevolg hiervan zouden militaire leiders die gebruikmaken van AI een dieper begrip van de situatie hebben, waardoor ze dreigingen sneller kunnen detecteren en erop kunnen reageren. Dit verbeterde situatiebewustzijn, bereikt via AI, kan worden benut voor legitieme militaire doeleinden.
AI-ondersteunde logistiek
Een andere geldige toepassing van AI in het militaire domein ligt op het gebied van logistiek en supply chain management. AI-systemen kunnen worden gebruikt om ervoor te zorgen dat kritieke voorraden tijdig en efficiënt worden geleverd door vraagvoorspelling en realtime monitoring van voorraden. Bovendien kan door apparatuur uit te rusten met geschikte sensoren die verbonden zijn met AI-systemen, predictief onderhoud worden uitgevoerd, waardoor efficiënte planning van essentieel onderhoud aan apparatuur mogelijk is en onverwachte stilstand wordt geminimaliseerd.
In combinatie met basale geografische informatiesystemen (GIS) kan AI operationele kosten optimaliseren door de locaties van militaire middelen bij te houden en deze informatie te gebruiken om efficiëntere logistieke strategieën te bedenken. Door gebruik te maken van predictieve AI-capaciteiten kunnen militaire middelen strategisch ingezet worden, waarbij gezorgd wordt voor nabijheid bij gebieden waar behoefte is, het verminderen van transportkosten en het omzeilen van knelpunten.
Bias in de verwerking van AI-gegevens
Zelfs wanneer AI-systemen uitsluitend worden gebruikt om informatieverwerkingscapaciteiten te verbeteren, kunnen er legitieme zorgen bestaan over de aanwezigheid van vooroordelen in de door AI gegenereerde intelligentie. Men kan stellen dat dergelijke vooroordelen besluitvormers in een bepaalde richting kunnen sturen. Het is belangrijk om te erkennen dat vooroordeel fundamenteel een menselijke eigenschap is, inherent aan menselijke cognitie. Als dusdanig is als vooroordeel aanwezig is in een geautomatiseerd gegevensverwerkingssysteem, een gevolg van menselijke actie of nalatigheid.
Hoewel de vraag of vooroordelen volledig kunnen worden geëlimineerd uit AI-systemen buiten het bereik van dit artikel valt, kunnen ze zeker worden aangepakt en geminimaliseerd. Een aanpak om vooroordelen te verminderen, omvat voortdurend menselijk toezicht op de gegevens die worden gebruikt om het systeem te trainen. Dit toezicht zorgt ervoor dat de gegevens divers en representatief zijn, voor zover mogelijk, voor de realiteit die het beoogt vast te leggen. Op dezelfde manier moeten factoren die door de AI worden gebruikt om aanbevelingen te genereren duidelijk identificeerbaar zijn, zodat getrainde menselijke individuen indien nodig noodzakelijke correcties kunnen aanbrengen als vooroordelen worden gedetecteerd.
Door menselijke betrokkenheid en toezicht gedurende de ontwikkeling en werking van het AI-systeem te handhaven, kunnen inspanningen worden geleverd om vooroordelen te minimaliseren en eerlijkheid in het besluitvormingsproces te waarborgen. Het is essentieel om te erkennen dat het aanpakken van vooroordelen in AI-systemen een voortdurende inspanning is, die waakzaamheid en proactieve maatregelen vereist om ethische en onbevooroordeelde resultaten te waarborgen.
Wat te doen?
Kunstmatige intelligentie heeft het potentieel om zowel positieve als controversiële transformaties teweeg te brengen in het politieke en militaire domein. Echter ontbreekt het op dit moment aan duidelijke afbakeningslijnen. Het is van essentieel belang dat de internationale gemeenschap deelneemt aan een substantieel debat over de ethische implicaties van het gebruik van AI in besluitvorming. Idealiter zou deze discussie moeten resulteren in duidelijk omschreven richtlijnen die verankerd zijn in het internationaal recht, vergezeld van een brede consensus vanuit de academische wereld en de politiek. Totdat er duidelijkheid komt, is een voorzichtige aanpak voor bedrijven die zich bezighouden met ethische verbetering van op AI gebaseerde militaire capaciteiten, om af te zien van het ontwikkelen van autonome besluitvormingstools. In plaats daarvan moeten inspanningen worden gericht op toepassingen die de informatiecapaciteit verbeteren, operationele efficiëntie bevorderen en technieken die transparantie in AI-processen bevorderen.
Tijdens dit streven moeten ontwikkelaars en gebruikers van AI-systemen zich bewust blijven van de lopende discussies over regelgeving, met name op Europees niveau. Bijvoorbeeld, de AI-wet en de Richtlijn inzake aansprakelijkheid voor AI (besproken in een afzonderlijk artikel) zijn voorbeelden van voorgestelde regelgeving die specifieke eisen voor AI-systemen zal uiteenzetten. Het is cruciaal om deze richtlijnen te volgen vanaf de ontwerpfase van nieuwe toepassingen, om de noodzaak van kostbare aanpassingen in latere ontwikkelingsfasen te voorkomen.
Bovendien is het van vitaal belang op te merken dat AI-technologie, met name in het militaire domein, inclusief toepassingen voor dubbel gebruik, valt onder strenge exportcontrole- en sanctieregelingen in het kader van internationale handelsconformiteit. Het waarborgen van de mensenrechten, de bescherming van het internationaal humanitair recht en het vermijden van interne repressie zijn expliciete principes geworden die ten grondslag liggen aan zowel EU- als Amerikaanse exportcontrolevoorschriften. In de EU zijn deze principes reeds vastgelegd in de acht criteria die EU-lidstaten moeten toepassen bij hun beslissingen voor de export van militaire en dual-use goederen, zoals uiteengezet in het Gemeenschappelijk Standpunt van de Europese Raad (2008/944/CFSP). Niet-naleving kan niet alleen worden vervolgd als een economisch misdrijf, waarbij individuen en entiteiten worden blootgesteld aan zware straffen op grond van het strafrecht, maar kan ook de reputatie van bedrijven schaden en hun uitsluiting van vertrouwde partijgemeenschappen en internationale toeleveringsketens tot gevolg hebben. Dit benadrukt het belang van naleving van regelgevende kaders en het monitoren en overwegen van geopolitieke ontwikkelingen om een wettelijke en verantwoorde inzet van AI in het militaire domein te waarborgen.