Israëlisch leger gebruikte AI bij bombardementen in Gaza zonder zorgvuldige menselijke controle

Gepubliceerd op 05/04/2024 10:00 in Buitenland

Het Israëlische leger heeft volgens nieuwssite +972 kunstmatige intelligentie (AI) ingezet om doelwitten te selecteren bij bombardementen in Gaza, zonder voldoende menselijke controle. Het systeem genaamd Lavendel werd gebruikt om te bepalen wanneer een luchtaanval moest plaatsvinden, waarbij zelfs werd gewacht tot een terreurverdachte thuis was.

Het leger ontkent de aantijgingen en beschrijft Lavendel slechts als een database met informatie over gewapende militanten, die AI alleen ter ondersteuning gebruikt.

De progressieve nieuwssite +972 sprak met bronnen binnen het Israëlische leger, waaruit blijkt dat de afweging voor luchtaanvallen zeer zorgvuldig moet zijn volgens het oorlogsrecht. Deskundigen waarschuwen dat het overlaten van zo'n belangrijke beslissing aan AI problematisch is.

Er wordt gemeld dat 37.000 Palestijnen als terreurverdachten en doelwitten werden geïdentificeerd door Lavendel, op basis van diverse informatiebronnen. Het ontbreekt echter aan duidelijkheid over het huidige gebruik van het AI-systeem en de uitvoering van luchtaanvallen.

Het leger benadrukt dat er altijd menselijke afwegingen worden gemaakt voordat er wordt gebombardeerd, en dat Hamas woonwijken gebruikt als schild. Het ministerie van Gezondheid in Gaza meldt dat ruim 33.000 Palestijnen zijn omgekomen in de oorlog, waarbij een groot aantal burgerslachtoffers viel.

Vredesorganisatie PAX Nederland pleit voor een internationaal onderzoek naar de werkwijze van het Israëlische leger. Israël wordt beschuldigd van vermeende oorlogsmisdaden, maar weigert onafhankelijke onderzoekers toe te laten om de incidenten te onderzoeken.

Lees meer nieuws in buitenland