Copyright 2021 The Associated Press. All rights reserved

Drone kiest voor het eerst zelf doelwit en valt aan, "maar we moeten niet bang zijn voor een Terminator-scenario"

Een militaire drone zou voor het eerst zelf initiatief genomen hebben om een doelwit aan te vallen. Dat blijkt uit een rapport van de VN. De aanval zou vorig jaar hebben plaatsgevonden in Libië. Het is niet duidelijk of er effectief slachtoffers zijn gevallen.

Het lijkt wel een scène uit een sciencefictionfilm. Een drone vliegt over een gebied en detecteert vijandige troepen. Het toestel maakt zelf de afweging en beslist om een aanval in te zetten. Dat zou volgens een rapport van de VN hebben plaatsgevonden in Libië.

Tijdens gevechten in Libië

De drone zou in mei vorig jaar zijn ingezet tijdens de burgeroorlog in dat land. Volgens datzelfde rapport werd het toestel ingezet door de regering in Tripoli tegen de troepen van generaal Khalifa Haftar. "Het gevaarlijke autonome wapen was geprogrammeerd om een aanval uit te voeren zonder dat er gegevens werden uitgewisseld tussen het toestel en iemand die het toestel bedient", staat in het rapport te lezen. Dit wijst erop dat de drone zelf de beslissing nam om te schieten.

Maaike Verbruggen, doctoraatsonderzoekster aan de VUB, bestudeert autonome wapens en artificiële intelligentie (AI). "De drone is inderdaad zodanig geprogrammeerd dat, als je een doelwit ingeeft, die in staat is om dat doelwit aan te vallen zonder dat daar een persoon aan te pas komt."

De drone zou van het type Kargu-2 zijn. "Niet dat ik alle details ken, maar dat is een type dat je niet meteen ziet in de klassieke oorlogsvoering. De drone wordt gebruikt in zogenaamde asymmetrische oorlogen, tegen tegenstanders die geen afweersysteem hebben."

Dit promofilmpje toont hoe de drone werkt (lees verder onder de video):

Wie is aansprakelijk?

Verbruggen ziet dit soort wapens wel vaker opduiken, juist omdat de technologie rond AI steeds beter wordt. Je kan aan een drone ook camera's hangen die het doelwit zeer goed kunnen analyseren. "En dat hebben we te danken aan machine learning (een discipline binnen de AI, red.). Die zorgt ervoor dat de camera een tank of een voertuig beter kan herkennen. Bovendien moet je die zelf niet programmeren, en kan die zelf beslissingen nemen."

Volgens Verbruggen experimenteert het Amerikaans leger al langer met AI. En dat kwam de laatste jaren in een stroomversnelling, omdat de grote (Amerikaanse) technologiebedrijven heel veel knowhow hebben vergaard. Het Pentagon, het Amerikaanse ministerie van Defensie, wil al te graag een beroep doen op die kennis. "Maar dat ligt gevoelig. Toen bekend werd dat Google een paar jaar geleden ging samenwerken met het Pentagon, protesteerden de medewerkers van de technologiereus. Die zagen het niet zitten dat hun bedrijf technologie zou ontwikkelen voor het leger."

Dit soort drones neemt zelf de beslissing om te schieten

Hoedanook, volgens Verbruggen is dit maar het begin. "Maar er moet een duidelijk wettelijk kader komen, want wat als zo'n drone per ongeluk slachtoffers maakt. Wie is aansprakelijk? De programmeur of het land dat de drone heeft ingezet?"

"Terminator nog niet voor morgen"

Deze drones doen sommigen denken aan films zoals "Terminator", waarbij robots beslissen om de mensheid uit te roeien. Maar volgens de onderzoekster zal het niet zo'n vaart lopen."Ik ben niet bang van Terminator. Er is een groter risico dat de menselijke bediener, die aan de basis ligt van een toestel, fouten maakt." Verbruggen denkt, dat als de robots juist geprogrammeerd zijn, we niets te vrezen hebben. Ze is niet bang van killer robots of boosaardige machines.

Of de drone in Libië menselijke slachtoffers gemaakt heeft, is niet duidelijk. Maar volgens het rapport zou dit wel de eerste keer zijn dat een autonoom toestel werd ingezet tijdens een oorlog. "En dat zal zeker niet de laatste keer zijn", zegt Verbruggen.

Meest gelezen