Laut einer Untersuchung von in Israel ansässigen Publikationen nutzte das israelische Militär künstliche Intelligenz, um seine Bombenziele in Gaza auszuwählen. Dabei opferte es Präzision zugunsten von Geschwindigkeit und tötete dabei Tausende von Zivilisten. +972 Rezension Und Lokaler Anruf.

Das System mit dem Namen Lavender sei nach den Hamas-Angriffen vom 7. Oktober entwickelt worden, heißt es in dem Bericht. Auf seinem Höhepunkt bezeichnete Lavender 37.000 Palästinenser in Gaza als mutmaßliche „Hamas-Kämpfer“ und genehmigte ihre Tötungen.

Das israelische Militär bestritt in einer Erklärung die Existenz einer solchen Opferliste +972 Und Lokaler Anruf. Ein Sprecher sagte gegenüber CNN, dass KI nicht zur Identifizierung mutmaßlicher Terroristen eingesetzt werde, bestritt jedoch nicht die Existenz des Lavender-Systems, das der Sprecher als „einfache Werkzeuge für Analysten im Zielidentifizierungsprozess“ beschrieb. Analysten „müssen unabhängige Überprüfungen durchführen, bei denen sie überprüfen, ob identifizierte Ziele relevanten Definitionen im Einklang mit internationalem Recht und zusätzlichen Einschränkungen gemäß IDF-Richtlinien entsprechen“, sagte der Sprecher gegenüber CNN. Die israelischen Streitkräfte reagierten nicht sofort. Die KanteBitte um Stellungnahme.

In Interviews mit +972 Und Lokaler AnrufAllerdings gaben israelische Geheimdienstoffiziere an, dass sie vor der Bombardierung von Lavenders Zielen nicht dazu verpflichtet seien, unabhängige Überprüfungen durchzuführen, sondern vielmehr als „Stempel“ für Entscheidungen der Maschine dienten. » In einigen Fällen bestand die einzige Aufgabe der Beamten im Prozess darin, festzustellen, ob es sich bei dem Ziel um einen Mann handelte.

Wählen Sie Ziele

Um das Lavender-System aufzubauen, wurden Informationen über bekannte Aktivisten der Hamas und des Palästinensischen Islamischen Dschihad in einen Datensatz eingespeist – aber laut einer Quelle, die mit dem Datenwissenschaftsteam zusammenarbeitete, das Lavender gegründet hat, handelte es sich bei den Daten um Personen, die lose mit der Hamas verbunden sind, beispielsweise Mitarbeiter des Ministeriums für innere Sicherheit im Gazastreifen. „Mich störte die Tatsache, dass bei der Ausbildung von Lavender der Begriff „Hamas-Agent“ lose verwendet wurde und Personen, die Zivilschutzagenten waren, in den Trainingsdatensatz einbezogen wurden“, sagte die Quelle. +972.

Lavender wurde darin geschult, „Merkmale“ im Zusammenhang mit Hamas-Aktivisten zu erkennen, darunter die Mitgliedschaft in einer WhatsApp-Gruppe mit einem bekannten Militanten, das Wechseln des Mobiltelefons alle paar Monate oder das häufige Wechseln der Adresse. Diese Daten wurden dann verwendet, um andere Palästinenser in Gaza auf einer Skala von 1 bis 100 einzustufen, basierend auf ihrer Ähnlichkeit mit bekannten Hamas-Aktivisten im ursprünglichen Datensatz. Personen, die eine bestimmte Schwelle erreichten, wurden dann als Ziel für Streiks bestimmt. Diese Schwelle änderte sich ständig, „weil es davon abhängt, wie man die Messlatte dafür legt, was ein Hamas-Agent ist“, sagte eine Militärquelle. +972.

Quellen zufolge hatte das System eine Genauigkeitsrate von 90 Prozent, was bedeutet, dass etwa 10 Prozent der als Hamas-Mitglieder identifizierten Personen überhaupt keine Mitglieder des militärischen Flügels der Hamas waren. Einige der Personen, die Lavender als Ziele nannte, hatten Namen oder Spitznamen, die mit denen bekannter Hamas-Aktivisten identisch waren; Andere waren Verwandte von Hamas-Mitgliedern oder Personen, die Telefone benutzten, die einem Hamas-Kämpfer gehörten. „Fehler wurden statistisch behandelt“, sagte eine Quelle, die Lavender verwendete. +972. „Aufgrund des Umfangs und Umfangs des Projekts lautete das Protokoll: Auch wenn Sie nicht sicher sind, ob die Maschine ordnungsgemäß funktioniert, wissen Sie statistisch gesehen, dass sie in Ordnung ist. Also los. »

Kollateralschaden

Quellen zufolge verfügten Geheimdienstmitarbeiter über einen weiten Spielraum, wenn es um zivile Opfer ging. +972. In den ersten Kriegswochen wurden Offiziere ermächtigt, bis zu 15 oder 20 Zivilisten für jedes von Lavender angegriffene untergeordnete Hamas-Mitglied zu töten; Hochrangige Hamas-Beamte sagen, die Armee habe „Hunderte“ von zivilen Opfern genehmigt, heißt es in dem Bericht.

Mutmaßliche Hamas-Mitglieder wurden auch in ihren Häusern mit einem System namens „Wo ist Papa?“ angegriffen. sagten die Beamten +972. Dieses System stellt von Lavender erzeugte Ziele unter kontinuierliche Überwachung und verfolgt sie, bis sie ihre Häuser erreichen – danach würden sie bombardiert, oft zusammen mit ihren gesamten Familien, sagten Beamte. Manchmal bombardierten Beamte jedoch Häuser, ohne zu überprüfen, ob sich die Ziele darin befanden, und löschten dabei viele Zivilisten aus. „Es kam mehrmals vor, dass ich ein Haus angegriffen habe, aber die Person war nicht einmal zu Hause“, sagte eine Quelle. +972. „Das Ergebnis ist, dass Sie eine Familie ohne Grund getötet haben.“

KI-gesteuerte Kriegsführung

Mona Shtaya, ausländische Wissenschaftlerin am Tahrir-Institut für Nahostpolitik, sagte: Die Kante dass das Lavender-System eine Erweiterung des israelischen Einsatzes von Überwachungstechnologien für Palästinenser im Gazastreifen und im Westjordanland ist.

sagte Shtaya, der im Westjordanland ansässig ist Die Kante dass diese Tools besonders besorgniserregend sind, wenn man bedenkt, dass israelische Verteidigungs-Startups hoffen, ihre bewährte Technologie ins Ausland zu exportieren.

Seit Beginn der israelischen Bodenoffensive im Gazastreifen hat das israelische Militär auf eine Vielzahl von Technologien zurückgegriffen und diese entwickelt, um mutmaßliche Hamas-Mitglieder zu identifizieren und anzugreifen. März, DER New York Times berichtete, dass Israel im Gazastreifen ein Massen-Gesichtserkennungsprogramm einsetzte – das Erstellen einer Datenbank über Palästinenser ohne deren Wissen oder Zustimmung –, die die Armee dann nutzte, um mutmaßliche Mitglieder der Hamas zu identifizieren. In einem Fall identifizierte das Gesichtserkennungstool den palästinensischen Dichter Mosab Abu Toha als mutmaßliches Hamas-Mitglied. Abu Toha wurde zwei Tage lang in einem israelischen Gefängnis festgehalten, wo er geschlagen und verhört wurde, bevor er nach Gaza zurückgebracht wurde.

Ein anderes KI-System namens „The Gospel“ wurde verwendet, um Gebäude oder Strukturen zu markieren, von denen aus die Hamas vermutlich operiert. Laut a +972 Und Lokaler Anruf Bericht vom November, Gospel trug auch zu einer großen Zahl ziviler Opfer bei. „Als ein dreijähriges Mädchen in einem Haus in Gaza getötet wurde, geschah dies, weil jemand in der Armee entschied, dass es keine große Sache sei, dass sie getötet wurde – dass es sich lohnte, dafür zu zahlen. [another] Ziel“, sagte eine militärische Quelle damals den Veröffentlichungen.

„Wir müssen dies als eine Fortsetzung der Politik der kollektiven Bestrafung betrachten, die seit Jahrzehnten gegen Palästinenser angewendet wird“, sagte Shtaya. „Wir müssen sicherstellen, dass Kriegszeiten nicht dazu genutzt werden, Massenüberwachung und Massaker an Menschen, insbesondere Zivilisten, an Orten wie Gaza zu rechtfertigen. »

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *