Gesellschaft Schweiz-Palästina

Die GSP bedankt sich für Ihre Spende  >>> IBAN:   Gesellschaft Schweiz-Palästina

Lavender -
Die KI-Maschine die Israels Bombenangriffe in Gaza steuert

Der Journalist und Filmemacher Yuval Abraham (Regisseur des Films "No Other Land", der auf der diesjährigen Berlinale vorgestellt wurde) sprach mit israelischen Geheimdienstmitarbeitern über die KI-gestützte Zielmaschine, mit der 37.000 Menschen im Gazastreifen als verdächtig für einen Anschlag markiert wurden. Hier ist, was er uns erzählt:

'Lavendel': Die KI-Maschine, die Israels Bombenangriffe in Gaza steuert

Die israelische Armee hat Zehntausende von Einwohnern des Gazastreifens als Verdächtige für die Ermordung markiert und dabei ein KI-Zielsystem mit wenig menschlicher Aufsicht und einer freizügigen Politik für Opfer eingesetzt, wie +972 und Local Call enthüllen.

Von Yuval Abraham

3. April 2024

Im Jahr 2021 wurde ein Buch mit dem Titel "The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World" auf Englisch unter dem Pseudonym "Brigadier General Y.S." veröffentlicht. Darin plädiert der Autor - ein Mann, bei dem es sich nachweislich um den derzeitigen Kommandeur der israelischen Eliteeinheit 8200 handelt - für die Entwicklung einer speziellen Maschine, die in kürzester Zeit riesige Datenmengen verarbeiten kann, um Tausende potenzieller "Ziele" für militärische Angriffe in der Hitze eines Krieges zu generieren. Eine solche Technologie, so schreibt er, würde das beseitigen, was er als "menschlichen Engpass sowohl bei der Lokalisierung der neuen Ziele als auch bei der Entscheidungsfindung zur Genehmigung der Ziele" bezeichnet.

Wie sich herausstellt, gibt es eine solche Maschine tatsächlich. Eine neue Untersuchung des Magazins +972 und Local Call zeigt, dass die israelische Armee ein auf künstlicher Intelligenz basierendes Programm mit dem Namen "Lavendel" entwickelt hat, das hier zum ersten Mal vorgestellt wird. Nach Angaben von sechs israelischen Geheimdienstoffizieren, die alle während des aktuellen Krieges im Gazastreifen in der Armee gedient haben und aus erster Hand mit dem Einsatz von künstlicher Intelligenz zur Generierung von Tötungszielen zu tun hatten, hat Lavendel eine zentrale Rolle bei den beispiellosen Bombardierungen von Palästinensern gespielt, insbesondere in der Anfangsphase des Krieges. Den Quellen zufolge war der Einfluss von Lavendel auf die Operationen des Militärs so groß, dass sie die Ergebnisse der KI-Maschine im Wesentlichen so behandelten, "als wären sie eine menschliche Entscheidung".

Formal ist das Lavendel-System so konzipiert, dass es alle verdächtigen Mitglieder der militärischen Flügel der Hamas und des Palästinensischen Islamischen Jihad (PIJ), einschließlich derjenigen mit niedrigem Rang, als potenzielle Bombenziele markiert. Die Quellen erklärten gegenüber +972 und Local Call, dass sich die Armee in den ersten Wochen des Krieges fast vollständig auf Lavendel verließ, das bis zu 37.000 Palästinenser als mutmaßliche Kämpfer - und ihre Häuser - für mögliche Luftangriffe registrierte.

In der Anfangsphase des Krieges erteilte die Armee den Offizieren pauschal die Erlaubnis, die Tötungslisten von Lavendel zu übernehmen, ohne gründlich zu prüfen, warum die Maschine diese Auswahl traf, oder die nachrichtendienstlichen Rohdaten zu untersuchen, auf denen sie beruhten. Eine Quelle gab an, dass menschliches Personal oft nur als "Stempel" für die Entscheidungen der Maschine diente, und fügte hinzu, dass sie sich normalerweise nur etwa "20 Sekunden" mit jedem Ziel befassten, bevor sie einen Bombenangriff genehmigten - nur um sicherzustellen, dass das von Lavendel markierte Ziel männlich ist. Und das, obwohl sie wissen, dass das System in etwa 10 Prozent der Fälle "Fehler" macht und dafür bekannt ist, dass es gelegentlich Personen markiert, die nur eine lockere oder gar keine Verbindung zu militanten Gruppen haben.

Darüber hinaus griff die israelische Armee die Zielpersonen systematisch an, wenn sie sich in ihren Häusern aufhielten - in der Regel nachts, wenn ihre gesamte Familie anwesend war - und nicht während einer militärischen Aktivität. Den Quellen zufolge lag dies daran, dass es aus nachrichtendienstlicher Sicht einfacher war, die Personen in ihren Privathäusern aufzuspüren. Zusätzliche automatisierte Systeme, darunter ein System namens "Where's Daddy?", das hier zum ersten Mal enthüllt wurde, wurden speziell dafür eingesetzt, die Zielpersonen aufzuspüren und Bombenanschläge zu verüben, wenn sie die Wohnungen ihrer Familie betreten hatten.

Das Ergebnis ist, wie die Quellen bezeugen, dass Tausende von Palästinensern - die meisten von ihnen Frauen und Kinder oder Menschen, die nicht in die Kämpfe verwickelt waren - aufgrund der Entscheidungen des AI-Programms durch israelische Luftangriffe ausgelöscht wurden, insbesondere in den ersten Wochen des Krieges.

"Wir waren nicht daran interessiert, [Hamas]-Aktivisten nur dann zu töten, wenn sie sich in einem militärischen Gebäude aufhielten oder an einer militärischen Aktivität beteiligt waren", sagte A., ein Nachrichtenoffizier, gegenüber +972 und Local Call. "Im Gegenteil, die IDF haben sie ohne zu zögern als erste Option in ihren Häusern bombardiert. Es ist viel einfacher, das Haus einer Familie zu bombardieren. Das System ist darauf ausgelegt, in solchen Situationen nach ihnen zu suchen".

Die Lavendel-Maschine gesellt sich zu einem anderen KI-System, "The Gospel", über das in einer früheren Untersuchung von +972 und Local Call im November 2023 sowie in eigenen Veröffentlichungen des israelischen Militärs Informationen veröffentlicht wurden. Ein grundlegender Unterschied zwischen den beiden Systemen liegt in der Definition des Ziels: Während "The Gospel" Gebäude und Strukturen markiert, von denen aus die Armee behauptet, dass Militante dort operieren, markiert "Lavendel" Menschen - und setzt sie auf eine Tötungsliste.

Den Quellen zufolge zog es die Armee außerdem vor, bei der Bekämpfung der von Lavendel markierten mutmaßlichen Nachwuchskämpfer nur ungelenkte Raketen einzusetzen, die gemeinhin als "dumme" Bomben bekannt sind (im Gegensatz zu "intelligenten" Präzisionsbomben), die ganze Gebäude mitsamt ihren Bewohnern zerstören und hohe Opferzahlen verursachen können. "Man will keine teuren Bomben an unwichtige Leute verschwenden - das ist sehr teuer für das Land, und es gibt einen Mangel [an diesen Bomben]", sagte C., einer der Geheimdienstler. Eine andere Quelle sagte, dass sie persönlich die Bombardierung von "Hunderten" von Privathäusern mutmaßlicher Junior-Agenten, die von Lavendel markiert wurden, genehmigt hätten, wobei bei vielen dieser Angriffe Zivilisten und ganze Familien als "Kollateralschaden" getötet wurden.

In einem noch nie dagewesenen Schritt, so zwei der Quellen, habe die Armee in den ersten Wochen des Krieges beschlossen, dass für jeden von Lavendel markierten Hamas-Aktivisten bis zu 15 oder 20 Zivilisten getötet werden dürfen; in der Vergangenheit habe das Militär bei der Ermordung rangniedriger Kämpfer keine "Kollateralschäden" zugelassen. Die Quellen fügten hinzu, dass die Armee bei mehreren Gelegenheiten die Tötung von mehr als 100 Zivilisten bei der Ermordung eines einzigen Kommandeurs genehmigt hat, wenn das Ziel ein hochrangiger Hamas-Funktionär im Rang eines Bataillons- oder Brigadekommandeurs war.

Die folgende Untersuchung ist nach den sechs chronologischen Phasen der hochautomatisierten Zielproduktion der israelischen Armee in den ersten Wochen des Gaza-Krieges gegliedert. Zunächst erläutern wir die Lavendel-Maschine selbst, die mithilfe von KI Zehntausende von Palästinensern markierte. Zweitens enthüllen wir das "Where's Daddy?"-System, das diese Zielpersonen aufspürte und der Armee signalisierte, wenn sie die Häuser ihrer Familien betraten. Drittens beschreiben wir, wie die "dummen" Bomben ausgewählt wurden, um diese Häuser zu treffen. Viertens erläutern wir, wie die Armee die zulässige Anzahl von Zivilisten, die bei der Bombardierung eines Ziels getötet werden durften, lockerte. Fünftens stellen wir fest, wie eine automatische Software die Anzahl der Nichtkombattanten in den einzelnen Haushalten ungenau berechnet hat. Sechstens zeigen wir, dass bei mehreren Angriffen auf ein Haus, die in der Regel nachts erfolgten, die Zielperson manchmal gar nicht im Haus war, weil die Militärs die Informationen nicht in Echtzeit überprüften.

SCHRITT 1: GENERIERUNG VON ZIELEN

"Sobald man auf Automatik umschaltet, spielt die Zielgenerierung verrückt".

In der israelischen Armee bezog sich der Begriff "menschliche Zielperson" in der Vergangenheit auf hochrangige Militärangehörige, die nach den Regeln der Abteilung für internationales Recht des Militärs in einem Privathaus getötet werden können, auch wenn Zivilisten in der Nähe sind. Nachrichtendienstliche Quellen erklärten gegenüber +972 und Local Call, dass in früheren Kriegen Israels solche menschlichen Ziele sehr sorgfältig markiert wurden und nur hochrangige militärische Befehlshaber in ihren Häusern bombardiert wurden, um den Grundsatz der Verhältnismäßigkeit nach internationalem Recht zu wahren, da dies eine "besonders brutale" Art der Tötung war - oft wurde neben dem Ziel auch eine ganze Familie getötet.

Doch nach dem 7. Oktober - als von der Hamas angeführte Militante einen tödlichen Angriff auf südisraelische Gemeinden starteten, bei dem etwa 1.200 Menschen getötet und 240 entführt wurden - verfolgte die Armee den Quellen zufolge einen dramatisch anderen Ansatz. Im Rahmen der "Operation Iron Swords" beschloss die Armee, alle Aktivisten des militärischen Flügels der Hamas als menschliche Ziele zu bezeichnen, unabhängig von ihrem Rang oder ihrer militärischen Bedeutung. Und das änderte alles.

Die neue Politik stellte den israelischen Geheimdienst auch vor ein technisches Problem. In früheren Kriegen musste ein Offizier, um die Ermordung einer einzelnen Zielperson zu genehmigen, einen komplizierten und langwierigen "Inkriminierungs"-Prozess durchlaufen: Er musste Beweise dafür überprüfen, dass es sich bei der Person tatsächlich um ein ranghohes Mitglied des militärischen Flügels der Hamas handelte, seinen Wohnort und seine Kontaktinformationen herausfinden und schließlich wissen, wann er in Echtzeit zu Hause war. Als die Liste der Zielpersonen nur ein paar Dutzend hochrangige Agenten umfasste, konnten die Geheimdienstmitarbeiter die Arbeit, die mit der Beschuldigung und dem Auffinden dieser Personen verbunden war, allein bewältigen.

Als die Liste jedoch auf Zehntausende von Agenten niedrigeren Ranges erweitert wurde, sah sich die israelische Armee gezwungen, sich auf automatisierte Software und künstliche Intelligenz zu verlassen. Das Ergebnis, so die Quellen, war, dass die Rolle des menschlichen Personals bei der Inkriminierung von Palästinensern als Militärangehörige beiseite geschoben wurde und stattdessen die KI den Großteil der Arbeit übernahm. Laut vier der Quellen, die mit +972 und Local Call sprachen, hat Lavendel - das entwickelt wurde, um menschliche Ziele im aktuellen Krieg zu schaffen - etwa 37.000 Palästinenser als mutmaßliche, meist niederrangige "Hamas-Kämpfer" zur Ermordung markiert (der IDF-Sprecher bestritt die Existenz einer solchen Tötungsliste in einer Erklärung gegenüber +972 und Local Call).

"Wir wussten nicht, wer die niederrangigen Agenten waren, weil Israel sie [vor dem Krieg] nicht routinemäßig verfolgt hat", erklärte der ranghohe Offizier B. gegenüber +972 und Local Call und erläuterte damit den Grund für die Entwicklung dieser besonderen Zielmaschine für den aktuellen Krieg. "Sie wollten, dass wir [die niederrangigen Agenten] automatisch angreifen können. Das ist der Heilige Gral. Sobald man auf Automatik umsteigt, wird die Zielgenerierung verrückt."

Die Quellen sagten, dass die Genehmigung zur automatischen Übernahme von Lavendels Tötungslisten, die zuvor nur als Hilfsmittel verwendet worden waren, etwa zwei Wochen nach Kriegsbeginn erteilt wurde, nachdem Geheimdienstmitarbeiter die Genauigkeit einer Stichprobe von mehreren hundert vom KI-System ausgewählten Zielen "manuell" überprüft hatten. Als diese Stichprobe ergab, dass die Ergebnisse von Lavendel eine Genauigkeit von 90 Prozent bei der Identifizierung der Zugehörigkeit einer Person zur Hamas erreicht hatten, genehmigte die Armee den umfassenden Einsatz des Systems. Wenn Lavendel eine Person als Hamas-Kämpfer einstufte, wurde die Armee im Wesentlichen aufgefordert, dies als Befehl zu behandeln, ohne unabhängig zu prüfen, warum die Maschine diese Entscheidung traf, oder die nachrichtendienstlichen Rohdaten zu untersuchen, auf denen sie basiert.

"Um 5 Uhr morgens kam [die Luftwaffe] und bombardierte alle Häuser, die wir markiert hatten", sagte B.. "Wir haben Tausende von Menschen ausgeschaltet. Wir sind sie nicht einzeln durchgegangen - wir haben alles in automatische Systeme eingegeben, und sobald eine [der markierten Personen] zu Hause war, wurde sie sofort zum Ziel. Wir haben ihn und sein Haus bombardiert."

"Es war für mich sehr überraschend, dass wir gebeten wurden, ein Haus zu bombardieren, um einen Bodensoldaten zu töten, dessen Bedeutung in den Kämpfen so gering war", sagte eine Quelle über den Einsatz von KI zur Markierung mutmaßlich rangniedriger Kämpfer. "Ich nannte diese Ziele 'Müllziele'. Dennoch fand ich sie ethischer als die Ziele, die wir nur zur 'Abschreckung' bombardierten - Hochhäuser, die evakuiert und umgestürzt werden, nur um Zerstörung zu verursachen."

Die tödlichen Folgen dieser Lockerung der Beschränkungen in der Anfangsphase des Krieges waren erschütternd. Nach Angaben des palästinensischen Gesundheitsministeriums in Gaza, auf die sich die israelische Armee seit Beginn des Krieges fast ausschließlich stützt, tötete Israel in den ersten sechs Wochen des Krieges bis zur Vereinbarung eines einwöchigen Waffenstillstands am 24. November rund 15.000 Palästinenser - fast die Hälfte der bisherigen Todesopfer.

Die Lavendel-Software analysiert die Informationen, die über die meisten der 2,3 Millionen Einwohner des Gazastreifens durch ein System der Massenüberwachung gesammelt wurden, und bewertet und stuft dann die Wahrscheinlichkeit ein, dass jede einzelne Person im militärischen Flügel der Hamas oder des PIJ aktiv ist. Quellen zufolge bewertet die Maschine fast jede einzelne Person im Gazastreifen auf einer Skala von 1 bis 100 und gibt damit an, wie wahrscheinlich es ist, dass es sich um einen Kämpfer handelt.

Lavendel lernt, Merkmale bekannter Hamas- und PIJ-Aktivisten zu erkennen, deren Informationen als Trainingsdaten in die Maschine eingespeist wurden, und dann dieselben Merkmale - auch "Features" genannt - in der allgemeinen Bevölkerung zu lokalisieren, erklärten die Quellen. Eine Person, die mehrere verschiedene belastende Merkmale aufweist, erreicht eine hohe Bewertung und wird damit automatisch zu einem potenziellen Ziel für ein Attentat.

In "The Human-Machine Team", dem Buch, auf das am Anfang dieses Artikels verwiesen wird, befürwortet der derzeitige Kommandant der Einheit 8200 ein solches System, ohne Lavendel namentlich zu erwähnen. (Der Kommandant selbst wird ebenfalls nicht genannt, aber fünf Quellen in der Einheit 8200 haben bestätigt, dass der Kommandant der Autor ist, wie auch Haaretz berichtet). Der Kommandeur beschreibt das menschliche Personal als "Engpass", der die Kapazität der Armee während einer Militäroperation einschränkt, und beklagt sich: "Wir [Menschen] können nicht so viele Informationen verarbeiten. Es spielt keine Rolle, wie viele Leute man damit beauftragt, während des Krieges Ziele zu produzieren - man kann immer noch nicht genug Ziele pro Tag produzieren."

Die Lösung für dieses Problem, sagt er, ist künstliche Intelligenz. Das Buch bietet eine kurze Anleitung zum Bau einer "Zielmaschine", ähnlich wie Lavendel, die auf KI und Algorithmen des maschinellen Lernens basiert. Dieser Leitfaden enthält mehrere Beispiele für die "Hunderte und Tausende" von Merkmalen, die die Bewertung einer Person erhöhen können, z. B. die Mitgliedschaft in einer Whatsapp-Gruppe mit einem bekannten Militanten, der Wechsel des Mobiltelefons alle paar Monate und der häufige Wechsel der Adresse.

"Je mehr Informationen und je mehr Vielfalt, desto besser", schreibt der Kommandant. "Visuelle Informationen, Informationen über Handys, Verbindungen zu sozialen Medien, Informationen über das Schlachtfeld, Telefonkontakte, Fotos." Während der Mensch diese Merkmale anfangs auswählt, so der Kommandeur weiter, wird die Maschine mit der Zeit selbständig Merkmale identifizieren. Auf diese Weise könnten die Streitkräfte "Zehntausende von Zielen" erstellen, während die eigentliche Entscheidung, ob sie angegriffen werden sollen oder nicht, weiterhin von Menschen getroffen wird.

Das Buch ist nicht das einzige Mal, dass ein ranghoher israelischer Befehlshaber auf die Existenz von menschlichen Zielmaschinen wie Lavendel hinweist. +972 und Local Call haben Aufnahmen einer privaten Vorlesung erhalten, die der Kommandant des geheimen Zentrums für Datenwissenschaft und KI der Einheit 8200, Oberst Yoav, auf der KI-Woche der Universität Tel Aviv im Jahr 2023 gehalten hat und über die damals in den israelischen Medien berichtet wurde.

In dem Vortrag spricht der Kommandeur über eine neue, hochentwickelte Zielmaschine, die von der israelischen Armee eingesetzt wird und "gefährliche Personen" anhand ihrer Ähnlichkeit mit bestehenden Listen bekannter Militanter erkennt, auf die sie trainiert wurde. "Mit Hilfe des Systems ist es uns gelungen, die Befehlshaber der Hamas-Raketenkommandos zu identifizieren", sagte "Col. Yoav" in dem Vortrag und bezog sich dabei auf die israelische Militäroperation im Mai 2021 im Gazastreifen, bei der die Maschine zum ersten Mal eingesetzt wurde.

Die Vortragsfolien, die auch von +972 und Local Call erhalten wurden, zeigen, wie die Maschine funktioniert: Sie wird mit Daten über bestehende Hamas-Aktivisten gefüttert, lernt, deren Merkmale zu erkennen, und bewertet dann andere Palästinenser danach, wie ähnlich sie den Kämpfern sind.

"Wir ordnen die Ergebnisse ein und bestimmen die Schwelle [für einen Angriff auf ein Ziel]", sagte Oberst Yoav in der Vorlesung und betonte, dass "letztendlich Menschen aus Fleisch und Blut die Entscheidungen treffen". Im Verteidigungsbereich legen wir, ethisch gesehen, großen Wert darauf. Diese Instrumente sollen [Geheimdienstmitarbeitern] helfen, ihre Grenzen zu überwinden".

In der Praxis, so Quellen, die Lavendel in den letzten Monaten eingesetzt haben, wurden jedoch menschliches Handeln und Präzision durch die Schaffung von Massenzielen und Tödlichkeit ersetzt.

Es gab keine "Null-Fehler-Politik".

B., ein ranghoher Offizier, der Lavendel eingesetzt hat, erklärte gegenüber +972 und Local Call, dass die Offiziere im aktuellen Krieg nicht verpflichtet waren, die Einschätzungen des KI-Systems unabhängig zu überprüfen, um Zeit zu sparen und die Massenproduktion menschlicher Ziele ohne Hindernisse zu ermöglichen.

"Alles war statistisch, alles war sauber - es war sehr trocken", sagte B.. Er merkte an, dass dieser Mangel an Überprüfung zugelassen wurde, obwohl interne Überprüfungen zeigten, dass Lavendels Berechnungen nur in 90 Prozent der Fälle zutrafen; mit anderen Worten, es war im Voraus bekannt, dass 10 Prozent der menschlichen Ziele, die zur Ermordung vorgesehen waren, gar keine Mitglieder des militärischen Flügels der Hamas waren.

So erklärten Quellen, dass die Lavendel-Maschine manchmal fälschlicherweise Personen markierte, die ähnliche Kommunikationsmuster wie bekannte Hamas- oder PIJ-Aktivisten aufwiesen - darunter Mitarbeiter der Polizei und des Zivilschutzes, Verwandte von Kämpfern, Einwohner, die zufällig einen Namen und Spitznamen hatten, der mit dem eines Aktivisten identisch war, und Bewohner des Gazastreifens, die ein Gerät benutzten, das einst einem Hamas-Aktivisten gehörte.

"Wie nahe muss eine Person der Hamas stehen, damit sie [von einer KI-Maschine] als mit der Organisation verbunden angesehen wird", kritisierte eine Quelle die Ungenauigkeit von Lavendel. "Es ist eine vage Grenze. Ist eine Person, die kein Gehalt von der Hamas erhält, ihr aber bei allen möglichen Dingen hilft, ein Hamas-Aktivist? Ist jemand, der in der Vergangenheit in der Hamas war, aber heute nicht mehr dort ist, ein Hamas-Aktivist? Jedes dieser Merkmale - Eigenschaften, die eine Maschine als verdächtig einstufen würde - ist ungenau."

Ähnliche Probleme gibt es bei der Fähigkeit von Zielmaschinen, das Telefon einer für ein Attentat markierten Person zu bewerten. "Im Krieg wechseln die Palästinenser ständig ihre Telefone", so die Quelle. "Die Leute verlieren den Kontakt zu ihren Familien, geben ihr Telefon an einen Freund oder eine Frau weiter und verlieren es vielleicht. Es gibt keine Möglichkeit, sich zu 100 Prozent auf den automatischen Mechanismus zu verlassen, der bestimmt, welche [Telefon-]Nummer zu wem gehört."

Den Quellen zufolge wusste die Armee, dass die minimale menschliche Überwachung diese Fehler nicht aufdecken würde. "Es gab keine 'Null-Fehler'-Politik. Fehler wurden statistisch behandelt", sagte eine Quelle, die Lavendel benutzte. "Aufgrund des Umfangs und der Größenordnung lautete das Protokoll: Selbst wenn man nicht sicher weiß, dass die Maschine richtig ist, weiß man, dass sie statistisch gesehen in Ordnung ist. Also macht man es."

"Es hat sich bewährt", sagte B., die führende Quelle. "Der statistische Ansatz hat etwas an sich, das einen auf eine bestimmte Norm und einen bestimmten Standard festlegt. Es gab eine unlogische Anzahl von [Bombenanschlägen] in dieser Operation. Das ist meiner Erinnerung nach beispiellos. Und ich habe viel mehr Vertrauen in einen statistischen Mechanismus als ein Soldat, der vor zwei Tagen einen Freund verloren hat. Jeder dort, auch ich, hat am 7. Oktober Menschen verloren. Die Maschine hat es eiskalt gemacht. Und das machte es einfacher."

Eine andere Geheimdienstquelle, die das Vertrauen in die von Lavendel erstellten Tötungslisten palästinensischer Verdächtiger verteidigte, argumentierte, dass es sich nur dann lohne, die Zeit eines Geheimdienstmitarbeiters zu investieren, um die Informationen zu überprüfen, wenn es sich bei der Zielperson um einen hochrangigen Hamas-Kommandeur handele. "Aber wenn es sich um einen niederrangigen Kämpfer handelt, will man keine Arbeitskraft und Zeit investieren", sagte er. "Im Krieg hat man keine Zeit, jedes Ziel zu belasten. Also ist man bereit, die Fehlermarge beim Einsatz künstlicher Intelligenz in Kauf zu nehmen, Kollateralschäden und den Tod von Zivilisten zu riskieren und damit zu leben, dass man aus Versehen angreift."

B. sagte, der Grund für diese Automatisierung sei der ständige Drang, mehr Ziele für Attentate zu schaffen. "An einem Tag, an dem es keine Ziele gab [deren Merkmalseinstufung ausreichte, um einen Angriff zu genehmigen], griffen wir mit einer niedrigeren Schwelle an. Wir wurden ständig unter Druck gesetzt: 'Bringt uns mehr Ziele'. Sie schrien uns regelrecht an. Wir haben [das Töten] unserer Ziele sehr schnell erledigt".

Er erläuterte, dass Lavendel bei einer Herabsetzung der Bewertungsschwelle mehr Personen als Ziele für Angriffe markierte. "In der Spitze konnte das System 37.000 Personen als potenzielle menschliche Ziele identifizieren", sagte B. "Aber die Zahlen änderten sich ständig, denn es hängt davon ab, wo man die Messlatte für einen Hamas-Aktivisten ansetzt. Es gab Zeiten, in denen ein Hamas-Aktivist breiter definiert wurde, und dann begann die Maschine, uns alle Arten von Mitarbeitern des Zivilschutzes und Polizeibeamten zu liefern, für die es eine Schande wäre, Bomben zu verschwenden. Sie helfen der Hamas-Regierung, aber sie gefährden die Soldaten nicht wirklich."

Eine Quelle, die mit dem militärischen Datenwissenschaftsteam zusammenarbeitete, das Lavendel trainierte, sagte, dass auch Daten von Mitarbeitern des von der Hamas geführten Ministeriums für innere Sicherheit, die er nicht als Kämpfer ansieht, in die Maschine eingespeist wurden. "Mich hat die Tatsache gestört, dass bei der Ausbildung von Lavendel der Begriff 'Hamas-Aktivist' sehr locker verwendet wurde und auch Mitarbeiter des Zivilschutzes in den Trainingsdatensatz aufgenommen wurden", sagte er.

Die Quelle fügte hinzu, dass selbst wenn man der Meinung ist, dass diese Menschen es verdienen, getötet zu werden, das Training des Systems auf der Grundlage ihrer Kommunikationsprofile die Wahrscheinlichkeit erhöht, dass Lavendel versehentlich Zivilisten auswählt, wenn seine Algorithmen auf die allgemeine Bevölkerung angewendet werden. "Da es sich um ein automatisches System handelt, das nicht manuell von Menschen bedient wird, ist die Bedeutung dieser Entscheidung dramatisch: Sie bedeutet, dass man viele Menschen mit einem zivilen Kommunikationsprofil als potenzielle Ziele einbezieht."

Wir haben nur überprüft, ob das Ziel ein Mann war

Das israelische Militär weist diese Behauptungen rundheraus zurück. In einer Erklärung gegenüber +972 und Local Call bestritt der IDF-Sprecher, dass künstliche Intelligenz eingesetzt wird, um Ziele zu belasten, und sagte, es handele sich lediglich um "Hilfsmittel, die die Beamten bei der Ermittlung unterstützen." Die Erklärung fuhr fort: "In jedem Fall ist eine unabhängige Prüfung durch einen [nachrichtendienstlichen] Analysten erforderlich, der verifiziert, dass die identifizierten Ziele legitime Angriffsziele sind, in Übereinstimmung mit den Bedingungen, die in den IDF-Direktiven und im internationalen Recht festgelegt sind."

Quellen sagten jedoch, dass das einzige menschliche Überwachungsprotokoll, das vor der Bombardierung der Häuser mutmaßlicher niederrangiger Kämpfer, die von Lavendel markiert wurden, bestand, darin bestand, eine einzige Überprüfung durchzuführen: sicherzustellen, dass das von der KI ausgewählte Ziel männlich und nicht weiblich ist. In der Armee ging man davon aus, dass, wenn das Ziel eine Frau war, die Maschine wahrscheinlich einen Fehler gemacht hatte, weil es in den Reihen der militärischen Flügel von Hamas und PIJ keine Frauen gibt.

"Ein Mensch musste [die Zielperson] nur ein paar Sekunden lang verifizieren", sagte B. und erklärte, dass dies zum Protokoll wurde, nachdem man festgestellt hatte, dass das Lavendel-System die meiste Zeit "richtig lag". "Anfangs haben wir Kontrollen durchgeführt, um sicherzustellen, dass die Maschine nicht verwirrt wird. Aber irgendwann verließen wir uns auf das automatische System und überprüften nur noch, ob es sich bei der Zielperson um einen Mann handelte - das reichte. Es dauert nicht lange, um festzustellen, ob jemand eine männliche oder eine weibliche Stimme hat.

Für die Überprüfung, ob es sich um eine männliche oder weibliche Person handelt, würde ich im aktuellen Krieg 20 Sekunden pro Zielperson investieren und jeden Tag Dutzende davon durchführen", so B.. Ich hatte als Mensch keinerlei Mehrwert, außer dass ich ein Gütesiegel war. Das sparte eine Menge Zeit. Wenn [die Zielperson] im automatischen Mechanismus auftauchte und ich überprüfte, dass es sich um einen Mann handelte, gab es die Erlaubnis, ihn zu bombardieren, vorbehaltlich einer Prüfung der Kollateralschäden."

In der Praxis bedeutete dies, dass es für Zivilisten, die von Lavendel irrtümlich markiert wurden, keinen Überwachungsmechanismus gab, um den Fehler zu entdecken. Laut B. trat ein häufiger Fehler auf, "wenn die [Hamas-]Zielperson [ihr Telefon] seinem Sohn, seinem älteren Bruder oder einfach einem beliebigen Mann gab. Diese Person wird dann in ihrem Haus mit ihrer Familie bombardiert. Dies geschah häufig. Das waren die meisten Fehler, die durch Lavendel verursacht wurden", sagte B..

SCHRITT 2: VERKNÜPFUNG VON ZIELEN MIT FAMILIENHÄUSERN

Die meisten der getöteten Menschen waren Frauen und Kinder".

Der nächste Schritt im Attentatsverfahren der israelischen Armee besteht darin, herauszufinden, wo die Ziele, die Lavendel generiert, angegriffen werden sollen.

In einer Erklärung gegenüber +972 und Local Call erklärte der IDF-Sprecher als Reaktion auf diesen Artikel, dass "die Hamas ihre Agenten und militärischen Einrichtungen im Herzen der Zivilbevölkerung platziert, die Zivilbevölkerung systematisch als menschliche Schutzschilde benutzt und die Kämpfe von zivilen Strukturen aus führt, einschließlich sensibler Orte wie Krankenhäuser, Moscheen, Schulen und UN-Einrichtungen. Die IDF sind an das Völkerrecht gebunden und handeln danach, indem sie ihre Angriffe nur auf militärische Ziele und Militärangehörige richten".

Die sechs Quellen, mit denen wir sprachen, bestätigten dies bis zu einem gewissen Grad und erklärten, dass das ausgedehnte Tunnelsystem der Hamas absichtlich unter Krankenhäusern und Schulen hindurchführt, dass Hamas-Kämpfer Krankenwagen benutzen, um sich fortzubewegen, und dass unzählige militärische Einrichtungen in der Nähe von zivilen Gebäuden platziert wurden. Die Quellen argumentierten, dass viele israelische Angriffe aufgrund dieser Taktiken der Hamas Zivilisten töten - eine Charakterisierung, die Menschenrechtsgruppen davor warnen, dass Israel die Verantwortung für die Opfer nicht trägt.

Im Gegensatz zu den offiziellen Erklärungen der israelischen Armee erklärten die Quellen jedoch, dass ein wesentlicher Grund für die beispiellose Zahl von Todesopfern bei den derzeitigen israelischen Bombardierungen darin liegt, dass die Armee systematisch Ziele in ihren Privathäusern und deren Familien angegriffen hat - zum Teil, weil es aus nachrichtendienstlicher Sicht einfacher war, Familienhäuser mit Hilfe automatischer Systeme zu markieren.

Mehrere Quellen betonten, dass die Armee im Gegensatz zu den zahlreichen Fällen, in denen Hamas-Aktivisten von zivilen Gebieten aus militärische Aktivitäten durchführten, bei den systematischen Attentaten routinemäßig die aktive Entscheidung traf, mutmaßliche Kämpfer in zivilen Haushalten zu bombardieren, in denen keine militärischen Aktivitäten stattfanden. Diese Entscheidung spiegele die Art und Weise wider, wie das israelische System der Massenüberwachung im Gazastreifen aufgebaut sei, hieß es.

Die Quellen erklärten gegenüber +972 und Local Call, dass die Überwachungssysteme der Armee, da jeder in Gaza ein Privathaus hat, mit dem er in Verbindung gebracht werden kann, leicht und automatisch Personen mit Familienhäusern "verbinden" können. Um den Moment, in dem die Agenten ihre Häuser betreten, in Echtzeit zu identifizieren, wurden verschiedene zusätzliche automatische Softwareprogramme entwickelt. Diese Programme verfolgen Tausende von Personen gleichzeitig, erkennen, wann sie zu Hause sind, und senden einen automatischen Alarm an den Zieloffizier, der dann das Haus für die Bombardierung markiert. Eine von mehreren dieser Ortungsprogramme, die hier zum ersten Mal vorgestellt werden, heißt "Where's Daddy?".

"Man gibt Hunderte [von Zielen] in das System ein und wartet ab, wen man töten kann", so eine Quelle, die das System kennt. "Das nennt man breite Jagd: Man kopiert die Listen, die das Zielsystem erstellt.

Ein Beweis für diese Politik sind auch die Daten: Im ersten Monat des Krieges gehörten mehr als die Hälfte der Todesopfer - 6.120 Menschen - zu 1.340 Familien, von denen nach UN-Angaben viele in ihren Häusern vollständig ausgelöscht wurden. Der Anteil ganzer Familien, die im aktuellen Krieg in ihren Häusern bombardiert wurden, ist viel höher als bei der israelischen Operation im Gazastreifen im Jahr 2014 (dem bisher tödlichsten Krieg Israels im Gazastreifen), was ein weiterer Hinweis auf die Bedeutung dieser Politik ist.

Eine andere Quelle sagte, dass jedes Mal, wenn das Tempo der Attentate nachließ, weitere Ziele in Systeme wie "Where's Daddy?" eingegeben wurden, um Personen zu lokalisieren, die ihre Häuser betraten und daher bombardiert werden konnten. Er sagte, dass die Entscheidung, wer in die Verfolgungssysteme aufgenommen werden sollte, von relativ rangniedrigen Offizieren in der Militärhierarchie getroffen werden konnte.

"Eines Tages habe ich aus eigenem Antrieb etwa 1.200 neue Ziele in das System aufgenommen, weil die Zahl der Angriffe abnahm", so die Quelle. "Das ergab für mich einen Sinn. Im Nachhinein scheint es eine ernsthafte Entscheidung gewesen zu sein, die ich getroffen habe. Und solche Entscheidungen wurden nicht auf hoher Ebene getroffen."

Die Quellen sagten, dass in den ersten zwei Wochen des Krieges zunächst "mehrere tausend" Ziele in Ortungsprogramme wie Where's Daddy? eingegeben wurden. Dazu gehörten alle Mitglieder der Hamas-Eliteeinheit Nukhba, alle Panzerabwehrspezialisten der Hamas und alle Personen, die am 7. Oktober Israel betreten hatten. Doch schon bald wurde die Tötungsliste drastisch erweitert.

"Am Ende waren es alle [von Lavendel markierten] Personen", erklärte eine Quelle. "Zehntausende. Dies geschah ein paar Wochen später, als die [israelischen] Brigaden in den Gazastreifen eindrangen und es bereits weniger unbeteiligte Menschen [d. h. Zivilisten] in den nördlichen Gebieten gab." Laut dieser Quelle wurden sogar einige Minderjährige von Lavendel als Ziele für Bombenangriffe markiert. "Normalerweise sind die Agenten über 17 Jahre alt, aber das war keine Bedingung."

Lavendel und Systeme wie "Where's Daddy?" wurden so mit tödlicher Wirkung kombiniert und töteten ganze Familien, so die Quellen. Durch das Hinzufügen eines Namens aus den von Lavendel erstellten Listen zum Where's Daddy? Home Tracking System, erklärte A., würde die markierte Person unter ständige Überwachung gestellt und könnte angegriffen werden, sobald sie ihr Haus betritt, wodurch das Haus auf alle Bewohner einstürzt.

"Nehmen wir an, Sie rechnen mit einem Hamas-Aktivisten und 10 [Zivilisten im Haus]", sagte A.. "Normalerweise sind diese 10 Frauen und Kinder. Es stellt sich also absurderweise heraus, dass die meisten der getöteten Personen Frauen und Kinder waren."

SCHRITT 3: AUSWAHL EINER WAFFE

Wir haben die Anschläge in der Regel mit "dummen Bomben" durchgeführt.

Sobald Lavendel eine Zielperson für die Ermordung markiert hat, Armeeangehörige überprüft haben, dass es sich um einen Mann handelt, und eine Ortungssoftware die Zielperson in ihrem Haus lokalisiert hat, besteht der nächste Schritt darin, die Munition auszuwählen, mit der sie bombardiert werden soll.

Im Dezember 2023 berichtete CNN, dass nach Schätzungen des US-Geheimdienstes etwa 45 Prozent der von der israelischen Luftwaffe im Gazastreifen eingesetzten Munition "dumme" Bomben waren, die bekanntermaßen mehr Kollateralschäden verursachen als gelenkte Bomben. Als Reaktion auf den CNN-Bericht sagte ein Armeesprecher, der in dem Artikel zitiert wird: "Als Militär, das dem Völkerrecht und einem moralischen Verhaltenskodex verpflichtet ist, setzen wir enorme Ressourcen ein, um den Schaden für die Zivilisten zu minimieren, die von der Hamas in die Rolle menschlicher Schutzschilde gezwungen wurden. Unser Krieg richtet sich gegen die Hamas, nicht gegen die Menschen in Gaza."

Drei Geheimdienstquellen erklärten jedoch gegenüber +972 und Local Call, dass die von Lavendel markierten Nachwuchsagenten nur mit stummen Bomben ermordet wurden, um teurere Waffen zu sparen. Eine Quelle erklärte, dass die Armee ein rangniedriges Ziel nicht angreifen würde, wenn es in einem Hochhaus wohnte, weil sie keine präzisere und teurere "Etagenbombe" (mit begrenzteren Kollateralschäden) ausgeben wollte, um es zu töten. Wenn aber ein Junior-Ziel in einem Gebäude mit nur wenigen Stockwerken wohnte, war die Armee befugt, ihn und alle anderen Bewohner des Gebäudes mit einer tödlichen Bombe zu töten.

"So war es bei allen rangniedrigen Zielen", sagte C., der im aktuellen Krieg verschiedene automatisierte Programme einsetzte. "Die einzige Frage war, ob es möglich ist, das Gebäude unter Berücksichtigung der Kollateralschäden anzugreifen. Denn in der Regel führten wir die Angriffe mit tödlichen Bomben durch, und das bedeutete, dass wir buchstäblich das ganze Haus mitsamt seinen Bewohnern zerstörten. Aber selbst wenn ein Angriff abgewehrt wird, kümmert man sich nicht darum - man geht sofort zum nächsten Ziel über. Aufgrund des Systems nehmen die Ziele nie ein Ende. Es warten weitere 36.000."

SCHRITT 4: ERLAUBEN ZIVILER OPFER

Wir haben fast ohne Rücksicht auf Kollateralschäden angegriffen".

Eine Quelle sagte, dass in den ersten Wochen des Krieges die Anzahl der Zivilisten, die bei Angriffen auf Nachwuchsagenten, einschließlich der von KI-Systemen wie Lavendel markierten, getötet werden durften, auf bis zu 20 festgelegt war. Eine andere Quelle behauptete, die festgelegte Zahl betrage bis zu 15. Diese "Kollateralschäden", wie das Militär sie nennt, wurden den Quellen zufolge pauschal auf alle mutmaßlichen Nachwuchskämpfer angewandt, unabhängig von ihrem Rang, ihrer militärischen Bedeutung und ihrem Alter, und ohne spezifische Einzelfallprüfung, um den militärischen Vorteil ihrer Ermordung gegen den zu erwartenden Schaden für die Zivilbevölkerung abzuwägen.

Laut A., der im aktuellen Krieg Offizier in einem Raum für gezielte Operationen war, hat die Abteilung für internationales Recht der Armee noch nie zuvor eine so "pauschale Genehmigung" für ein so hohes Maß an Kollateralschäden erteilt. "Es geht nicht nur darum, dass man jede Person töten kann, die ein Hamas-Soldat ist, was nach internationalem Recht eindeutig erlaubt und legitim ist", sagte A.. "Aber sie sagen einem direkt: 'Ihr dürft sie zusammen mit vielen Zivilisten töten.'

"Jede Person, die in den letzten ein oder zwei Jahren eine Hamas-Uniform getragen hat, konnte bombardiert werden, wobei 20 [Zivilisten als] Kollateralschaden getötet werden, auch ohne besondere Genehmigung", so A. weiter. "In der Praxis existierte der Grundsatz der Verhältnismäßigkeit nicht."

Laut A. war dies die meiste Zeit seiner Dienstzeit die Politik. Erst später habe das Militär den Grad der Kollateralschäden gesenkt. "Bei dieser Berechnung konnten es auch 20 Kinder für einen Nachwuchsoffizier sein ... Das war früher wirklich nicht so", erklärte A.. Auf die Frage nach den sicherheitspolitischen Gründen, die hinter dieser Politik stehen, antwortete A.: "Tödlichkeit".

Der vorbestimmte und festgelegte Grad an Kollateralschäden trug dazu bei, die Massenerstellung von Zielen mit der Lavendel-Maschine zu beschleunigen, so die Quellen, weil dies Zeit sparte. B. behauptete, dass die Zahl der Zivilisten, die sie in der ersten Woche des Krieges pro mutmaßlichem, von der KI markiertem Nachwuchskämpfer töten durften, fünfzehn betrug, dass diese Zahl aber im Laufe der Zeit "auf und ab ging".

"Am Anfang haben wir fast ohne Rücksicht auf Kollateralschäden angegriffen", sagte B. über die erste Woche nach dem 7. Oktober. "In der Praxis wurden die Menschen [in den bombardierten Häusern] nicht wirklich gezählt, weil man nicht wirklich sagen konnte, ob sie zu Hause sind oder nicht. Nach einer Woche begannen die Beschränkungen für Kollateralschäden. Die Zahl sank [von 15] auf fünf, was es für uns wirklich schwierig machte, anzugreifen, denn wenn die ganze Familie zu Hause war, konnten wir sie nicht bombardieren. Dann haben sie die Zahl wieder erhöht."

"Wir wussten, dass wir über 100 Zivilisten töten würden".

Quellen erklärten gegenüber +972 und Local Call, dass die israelische Armee jetzt, auch aufgrund des amerikanischen Drucks, nicht mehr massenhaft rangniedrige menschliche Ziele für Bombenangriffe in zivilen Häusern auswählt. Die Tatsache, dass die meisten Häuser im Gazastreifen bereits zerstört oder beschädigt waren und fast die gesamte Bevölkerung vertrieben wurde, hat auch die Fähigkeit der Armee beeinträchtigt, sich auf Geheimdienstdatenbanken und automatische Programme zur Lokalisierung von Häusern zu verlassen.

E. behauptete, dass die massive Bombardierung der rangniedrigen Kämpfer nur in den ersten ein oder zwei Wochen des Krieges stattfand und dann hauptsächlich eingestellt wurde, um keine Bomben zu verschwenden. "Es gibt eine Munitionswirtschaft", sagte E.. "Sie hatten immer Angst, dass es im Norden [mit der Hisbollah im Libanon] einen Krieg geben könnte. Sie greifen diese Art von [rangniedrigeren] Leuten überhaupt nicht mehr an".

Die Luftangriffe auf hochrangige Hamas-Kommandeure dauern jedoch noch an, und Quellen zufolge genehmigt das Militär bei diesen Angriffen die Tötung von "Hunderten" von Zivilisten pro Ziel - eine offizielle Politik, für die es keinen historischen Präzedenzfall in Israel oder sogar bei jüngsten Militäroperationen der USA gibt.

"Bei der Bombardierung des Kommandeurs des Shuja'iya-Bataillons wussten wir, dass wir über 100 Zivilisten töten würden", erinnerte sich B. an eine Bombardierung am 2. Dezember, die nach Angaben des IDF-Sprechers auf die Ermordung von Wisam Farhat abzielte. "Für mich war das psychologisch gesehen ungewöhnlich. Über 100 Zivilisten - das überschreitet eine rote Linie."

Amjad Al-Sheikh, ein junger Palästinenser aus Gaza, sagte, dass viele seiner Familienmitglieder bei diesem Bombenangriff getötet wurden. Er wohnte in Shuja'iya, östlich von Gaza-Stadt, und war an diesem Tag in einem örtlichen Supermarkt, als er fünf Explosionen hörte, die die Glasscheiben zerschmetterten.

"Ich rannte zum Haus meiner Familie, aber es gab dort keine Gebäude mehr", sagte Al-Sheikh gegenüber +972 und Local Call. "Die Straße war erfüllt von Schreien und Rauch. Ganze Wohnblocks verwandelten sich in Berge von Schutt und tiefe Gruben. Die Menschen fingen an, mit ihren Händen im Zement zu suchen, und das tat ich auch, um nach Spuren des Hauses meiner Familie zu suchen."

Al-Sheikhs Frau und seine kleine Tochter überlebten - sie wurden durch einen Schrank, der auf sie fiel, vor den Trümmern geschützt -, aber er fand 11 weitere Familienmitglieder, darunter seine Schwestern, Brüder und ihre kleinen Kinder, tot unter den Trümmern. Nach Angaben der Menschenrechtsorganisation B'Tselem wurden bei der Bombardierung an diesem Tag Dutzende von Gebäuden zerstört, Dutzende von Menschen getötet und Hunderte unter den Trümmern ihrer Häuser begraben.

"Ganze Familien wurden getötet"

Geheimdienstquellen berichteten +972 und Local Call, dass sie an noch tödlicheren Angriffen beteiligt waren. Um Ayman Nofal, den Kommandeur der Zentralen Gaza-Brigade der Hamas, zu ermorden, habe die Armee die Tötung von etwa 300 Zivilisten und die Zerstörung mehrerer Gebäude bei Luftangriffen auf das Flüchtlingslager Al-Bureij am 17. Oktober genehmigt, nachdem Nofal ungenau lokalisiert worden war. Satellitenaufnahmen und Videos vom Ort des Geschehens zeigen die Zerstörung mehrerer großer mehrstöckiger Wohngebäude.

"Zwischen 16 und 18 Häuser wurden bei dem Angriff ausgelöscht", sagte Amro Al-Khatib, ein Bewohner des Lagers, gegenüber +972 und Local Call. "Wir konnten keine Wohnung von der anderen unterscheiden - sie lagen alle durcheinander in den Trümmern, und wir fanden überall menschliche Leichenteile."

Al-Khatib erinnerte sich an etwa 50 Leichen, die aus den Trümmern gezogen wurden, und an etwa 200 Verletzte, viele von ihnen schwer. Aber das war nur der erste Tag. Die Bewohner des Lagers verbrachten fünf Tage damit, die Toten und Verletzten aus den Trümmern zu bergen, sagte er.

Nael Al-Bahisi, ein Sanitäter, war einer der ersten vor Ort. Er zählte an diesem ersten Tag zwischen 50 und 70 Verletzte. "In einem bestimmten Moment verstanden wir, dass das Ziel des Angriffs der Hamas-Kommandeur Ayman Nofal war", sagte er gegenüber +972 und Local Call. "Sie töteten ihn und auch viele Menschen, die nicht wussten, dass er dort war. Ganze Familien mit Kindern wurden getötet."

Eine weitere Geheimdienstquelle berichtete +972 und Local Call, dass die Armee Mitte Dezember ein Hochhaus in Rafah zerstörte und dabei "Dutzende von Zivilisten" tötete, um zu versuchen, Mohammed Shabaneh, den Kommandeur der Rafah-Brigade der Hamas, zu töten (es ist nicht klar, ob er bei dem Angriff getötet wurde oder nicht). Oft, so die Quelle, verstecken sich die hochrangigen Kommandeure in Tunneln, die unter zivilen Gebäuden verlaufen, so dass die Entscheidung, sie mit einem Luftangriff zu töten, zwangsläufig auch Zivilisten tötet.

"Die meisten der Verletzten waren Kinder", sagte Wael Al-Sir, 55, der Zeuge des groß angelegten Angriffs war, den einige Bewohner des Gazastreifens für den Attentatsversuch hielten. Er sagte gegenüber +972 und Local Call, dass die Bombardierung am 20. Dezember einen "ganzen Wohnblock" zerstört und mindestens 10 Kinder getötet habe.

"Es gab eine völlig freizügige Politik in Bezug auf die Opfer von [Bomben-] Operationen - so freizügig, dass es meiner Meinung nach ein Element der Rache hatte", behauptete D., eine Geheimdienstquelle. "Der Kern dieser Politik war die Ermordung hochrangiger [Hamas- und PIJ-Kommandeure], für die sie bereit waren, Hunderte von Zivilisten zu töten. Wir hatten eine Berechnung: wie viele für einen Brigadekommandeur, wie viele für einen Bataillonskommandeur und so weiter."

"Es gab Vorschriften, aber sie waren einfach sehr nachsichtig", sagte E., eine weitere Geheimdienstquelle. "Wir haben Menschen mit Kollateralschäden im hohen zweistelligen, wenn nicht gar niedrigen dreistelligen Bereich getötet. Das sind Dinge, die vorher noch nie passiert sind."

Eine so hohe Rate an "Kollateralschäden" ist nicht nur im Vergleich zu dem, was die israelische Armee früher für akzeptabel hielt, sondern auch im Vergleich zu den Kriegen, die die Vereinigten Staaten im Irak, in Syrien und in Afghanistan führen, außergewöhnlich.

General Peter Gersten, stellvertretender Befehlshaber für Operationen und Nachrichtendienste im Kampf gegen ISIS im Irak und in Syrien, erklärte 2021 gegenüber einer US-Verteidigungszeitschrift, dass ein Angriff, bei dem 15 Zivilisten zu Schaden kamen, von der üblichen Vorgehensweise abwich; um ihn durchzuführen, musste er eine Sondergenehmigung vom Leiter des US-Zentralkommandos, General Lloyd Austin, einholen, der heute Verteidigungsminister ist.

"Bei Osama Bin Laden hatte man einen NCV [Non-combatant Casualty Value] von 30, aber wenn es sich um einen Kommandeur auf niedriger Ebene handelte, lag sein NCV normalerweise bei Null", so Gersten. "Wir hatten die längste Zeit einen Wert von Null."

"Uns wurde gesagt: "Bombardiert alles, was ihr könnt"."

Alle für diese Untersuchung befragten Quellen sagten, dass die Massaker der Hamas am 7. Oktober und die Entführung der Geiseln die Feuerpolitik der Armee und den Grad der Kollateralschäden stark beeinflusst haben. "Am Anfang war die Atmosphäre schmerzhaft und rachsüchtig", sagte B., der unmittelbar nach dem 7. Oktober zur Armee eingezogen wurde und in einem Zieloperationsraum diente. "Die Regeln waren sehr milde. Sie zerstörten vier Gebäude, wenn sie wussten, dass sich die Zielperson in einem von ihnen befand. Es war verrückt.

Es gab eine Dissonanz: Einerseits waren die Leute hier frustriert, dass wir nicht genug angriffen", so B. weiter. "Andererseits sieht man am Ende des Tages, dass weitere tausend Menschen im Gazastreifen gestorben sind, die meisten von ihnen Zivilisten."

"In den Reihen der Profis herrschte Hysterie", sagte D., der ebenfalls unmittelbar nach dem 7. Oktober eingezogen wurde. "Sie wussten überhaupt nicht, wie sie reagieren sollten. Das Einzige, was sie zu tun wussten, war, wie die Verrückten zu bombardieren, um zu versuchen, die Fähigkeiten der Hamas zu zerstören."

D. betonte, dass ihnen nicht ausdrücklich gesagt worden sei, dass das Ziel der Armee "Rache" sei, sondern dass "sobald jedes Ziel, das mit der Hamas in Verbindung gebracht wird, legitim ist und fast jeder Kollateralschaden genehmigt wird, es klar ist, dass Tausende von Menschen getötet werden. Selbst wenn offiziell jedes Ziel mit der Hamas in Verbindung gebracht wird, verliert es jede Bedeutung, wenn die Politik so freizügig ist."

A. benutzte auch das Wort "Rache", um die Atmosphäre innerhalb der Armee nach dem 7. Oktober zu beschreiben. "Niemand hat darüber nachgedacht, was man danach tun wird, wenn der Krieg vorbei ist, oder wie es möglich sein wird, in Gaza zu leben und was man damit machen wird", sagte A.. "Uns wurde gesagt: Jetzt müssen wir die Hamas fertig machen, egal was es kostet. Was immer ihr könnt, bombardiert sie."

B., der ranghöchste Geheimdienstmitarbeiter, sagte, dass er im Nachhinein glaube, dass diese "unverhältnismäßige" Politik der Tötung von Palästinensern in Gaza auch Israelis gefährde, und dass dies einer der Gründe sei, warum er sich zu einem Interview bereit erklärt habe.

"Kurzfristig sind wir sicherer, weil wir der Hamas schaden. Aber ich denke, langfristig sind wir weniger sicher. Ich sehe, wie all die trauernden Familien im Gazastreifen - und das sind fast alle - in zehn Jahren die Motivation erhöhen werden, sich der Hamas anzuschließen. Und es wird für [die Hamas] viel einfacher sein, sie zu rekrutieren."

In einer Erklärung an +972 und Local Call dementierte die israelische Armee vieles von dem, was uns die Quellen berichtet haben, und behauptete, dass "jedes Ziel einzeln untersucht wird, während eine individuelle Bewertung des militärischen Vorteils und des Kollateralschadens, der durch den Angriff zu erwarten ist, vorgenommen wird ... Die IDF führt keine Angriffe durch, wenn der durch den Angriff zu erwartende Kollateralschaden im Verhältnis zum militärischen Vorteil zu hoch ist."

SCHRITT 5: BERECHNUNG DER KOLLATERALSCHÄDEN

"Das Modell war nicht mit der Realität verbunden"

Den Geheimdienstquellen zufolge wurde die Berechnung der israelischen Armee, wie viele Zivilisten in jedem Haus neben einem Ziel voraussichtlich getötet werden - ein Verfahren, das in einer früheren Untersuchung von +972 und Local Call untersucht wurde - mit Hilfe automatischer und ungenauer Instrumente durchgeführt. In früheren Kriegen verbrachten die Geheimdienstmitarbeiter viel Zeit damit, zu überprüfen, wie viele Menschen sich in einem Haus befanden, das bombardiert werden sollte, wobei die Anzahl der Zivilisten, die getötet werden könnten, in einer "Zieldatei" aufgeführt wurde. Nach dem 7. Oktober wurde diese gründliche Überprüfung jedoch weitgehend zugunsten der Automatisierung aufgegeben.

Im Oktober berichtete die New York Times über ein von einer speziellen Basis im Süden Israels betriebenes System, das Informationen von Mobiltelefonen im Gazastreifen sammelt und dem Militär eine Live-Schätzung der Zahl der Palästinenser liefert, die aus dem nördlichen Gazastreifen nach Süden geflohen sind. Brigadegeneral Udi Ben Muha erklärte gegenüber der Times: "Es ist kein 100-prozentig perfektes System - aber es liefert die Informationen, die man braucht, um eine Entscheidung zu treffen." Das System funktioniert nach Farben: Rot markiert Gebiete, in denen sich viele Menschen aufhalten, und Grün und Gelb markieren Gebiete, die relativ frei von Bewohnern sind.

Die Quellen, die mit +972 und Local Call sprachen, beschrieben ein ähnliches System zur Berechnung von Kollateralschäden, das verwendet wurde, um zu entscheiden, ob ein Gebäude in Gaza bombardiert werden sollte. Sie sagten, dass die Software die Anzahl der Zivilisten errechnete, die vor dem Krieg in jedem Haus wohnten - indem sie die Größe des Gebäudes und die Liste der Bewohner überprüfte - und dann diese Zahlen um den Anteil der Bewohner reduzierte, die das Viertel angeblich evakuiert hatten.

Wenn die Armee beispielsweise davon ausging, dass die Hälfte der Bewohner eines Viertels weggezogen war, zählte das Programm ein Haus, in dem normalerweise 10 Personen wohnten, als ein Haus mit fünf Bewohnern. Um Zeit zu sparen, so die Quellen, überprüfte die Armee die Häuser nicht wie bei früheren Operationen, um herauszufinden, ob die Schätzung des Programms tatsächlich zutreffend war, sondern um festzustellen, wie viele Menschen tatsächlich dort lebten.

"Dieses Modell hatte nichts mit der Realität zu tun", behauptete eine Quelle. "Es gab keine Verbindung zwischen den Personen, die sich jetzt, während des Krieges, in dem Haus aufhielten, und denjenigen, die vor dem Krieg als dort wohnend angegeben waren. [Einmal haben wir ein Haus bombardiert, ohne zu wissen, dass sich darin mehrere Familien versteckt hielten."

Die Quelle sagte, dass die Armee zwar wusste, dass solche Fehler auftreten können, aber dennoch dieses ungenaue Modell angewandt wurde, weil es schneller war. Auch sagte die Quelle, dass "die Berechnung der Kollateralschäden völlig automatisch und statistisch erfolgte" und sogar Zahlen ergab, die keine ganzen Zahlen waren.

SCHRITT 6: BOMBARDIERUNG EINES FAMILIENHAUSES

"Sie haben eine Familie grundlos getötet".

Die Quellen, die mit +972 und Local Call sprachen, erklärten, dass zwischen dem Moment, in dem Ortungssysteme wie Where's Daddy? einen Offizier darauf hinweisen, dass eine Zielperson ihr Haus betreten hat, und der eigentlichen Bombardierung manchmal eine beträchtliche Lücke klafft - was dazu führt, dass ganze Familien getötet werden, auch ohne dass das Ziel der Armee getroffen wird. "Es ist mir schon oft passiert, dass wir ein Haus angegriffen haben, aber die Person gar nicht zu Hause war", sagte eine Quelle. "Das Ergebnis ist, dass man eine Familie ohne Grund getötet hat."

Drei Geheimdienstquellen erklärten gegenüber +972 und Local Call, sie seien Zeugen eines Vorfalls gewesen, bei dem die israelische Armee das Privathaus einer Familie bombardiert habe und sich später herausgestellt habe, dass das Ziel des Attentats gar nicht im Haus gewesen sei, da keine weitere Überprüfung in Echtzeit vorgenommen worden sei.

"Manchmal war [die Zielperson] vorher zu Hause und ging dann nachts woanders schlafen, z. B. im Untergrund, und man wusste nichts davon", sagte eine der Quellen. "Es gibt Zeiten, in denen man den Standort doppelt überprüft, und es gibt Zeiten, in denen man einfach sagt: 'Okay, er war in den letzten paar Stunden im Haus, also kann man einfach bombardieren.'"

Eine andere Quelle beschrieb einen ähnlichen Vorfall, der ihn so betroffen machte, dass er für diese Untersuchung befragt werden wollte. "Wir gingen davon aus, dass die Zielperson um 20.00 Uhr zu Hause war. Schließlich bombardierte die Luftwaffe das Haus um 3.00 Uhr morgens. In dem Gebäude, das wir bombardiert haben, waren noch zwei andere Familien mit Kindern."

In früheren Kriegen im Gazastreifen hat der israelische Geheimdienst nach der Ermordung menschlicher Ziele eine Bombenschadensanalyse (BDA) durchgeführt - eine routinemäßige Überprüfung nach dem Angriff, um festzustellen, ob der ranghohe Kommandeur getötet wurde und wie viele Zivilisten mit ihm zusammen ums Leben gekommen sind. Wie in einer früheren Untersuchung von +972 und Local Call aufgedeckt wurde, beinhaltete dies das Abhören von Telefongesprächen von Angehörigen, die ihre Lieben verloren hatten. Im gegenwärtigen Krieg wurde dieses Verfahren jedoch zumindest in Bezug auf die mit Hilfe der künstlichen Intelligenz markierten jüngeren Kämpfer abgeschafft, um Zeit zu sparen. Die Quellen sagten, sie wüssten nicht, wie viele Zivilisten bei den einzelnen Angriffen tatsächlich getötet wurden, und bei den verdächtigen Hamas- und PIJ-Aktivisten mit niedrigem Rang, die durch KI markiert wurden, wüssten sie nicht einmal, ob das Ziel selbst getötet wurde.

"Man weiß nicht genau, wie viele und wen man getötet hat", sagte eine Geheimdienstquelle gegenüber Local Call im Rahmen einer früheren Untersuchung, die im Januar veröffentlicht wurde. "Nur wenn es sich um hochrangige Hamas-Agenten handelt, folgt man dem BDA-Verfahren. In den übrigen Fällen ist das egal. Man bekommt einen Bericht von der Luftwaffe darüber, ob das Gebäude gesprengt wurde, und das war's. Man hat keine Ahnung, wie viel Kollateralschaden es gab; man geht sofort zum nächsten Ziel über. Der Schwerpunkt lag darauf, so viele Ziele wie möglich so schnell wie möglich zu schaffen."

Aber während das israelische Militär nach jedem Angriff weitermachen kann, ohne sich mit der Zahl der Opfer zu befassen, sagte Amjad Al-Sheikh, der Bewohner von Shuja'iya, der 11 seiner Familienmitglieder bei dem Bombardement am 2. Dezember verloren hat, dass er und seine Nachbarn immer noch nach Leichen suchen.

"Bis jetzt liegen noch immer Leichen unter den Trümmern", sagte er. "Vierzehn Wohnhäuser wurden bombardiert, in denen sich die Bewohner befanden. Einige meiner Verwandten und Nachbarn sind noch immer verschüttet."

Yuval Abraham ist Journalist und Filmemacher und lebt in Jerusalem.

Israel's Ultimate Goal Is Ethnic Cleansing:

Dr. Mustafa Barghouti on Growing Famine, Al-Shifa Attack

240320 WHO Gaza

>>> www.youtube.com/watch  <<<

A new U.N.-backed report has found that famine is imminent in northern Gaza with nearly a third of Gaza's population experiencing the highest levels of catastrophic hunger.

This comes as Israel launches another major raid at Al-Shifa Hospital, where tens of thousands of displaced Palestinians have taken shelter since the start of the conflict.

In the south, daily bombing continues while the Israeli government threatens a full-scale ground invasion on the border city of Rafah.

"The world should impose sanctions on Israel," says the Palestinian National Initiative's Mustafa Barghouti, who joins us from the occupied West Bank.

Barghouti responds to Israel's latest military actions and claims, gives an update on the status of ceasefire negotiations, addresses conditions in Israeli prisons and more.

"It's a massacre. It's a huge genocide," he says.

"The ultimate goal of Israel is ethnic cleansing."