Oh, die vielen zivilen Opfer? Das war nur ein bedauerlicher Softwarefehler. Dafür ist niemand verantwortlich.
Der Schlüssel zu dieser Kriegsführung liegt in der schnellen Festlegung von Angriffszielen auf Basis großer Datenmengen. Schon seit 2019 haben Israels Streitkräfte ein »Target Center«, in dem nach Angaben des früheren Generalstabschefs Aviv Kochavi Hunderte Soldaten arbeiten. Und schon 2021 setzte Israel bei der damaligen Eskalation im Gazastreifen Systeme zur Zielfestlegung ein, die auf KI basierten: »Die israelische Armee veröffentlichte, dass in dieser Operation drei KI-Systeme eingesetzt wurden«, sagt er
Nein, wir können diese Fehler nicht beheben. Wir können sie auch nicht analysieren und/oder verstehen. Es ist ja ein angelerntes neuronales Netzwerk, bei dem wir nicht vorhersagen oder verstehen können, wie es sich bei bestimmten Eingaben verhält. Und weil wir es nicht verstehen, bezeichnen wir es als »intelligent«. Wir könnten nur mit neuen Daten anlernen und hoffen, dass es beim nächsten Mal zu weniger oder zu anderen Fehlern kommt. Wir waschen unsere Hände in Unschuld. Unsere Soldaten sind unschuldig. Unsere Militärführung ist unschuldig. Der Computer ist schuld.
Eines dieser Systeme hat den Namen »Habsora« (»The Gospel«) [In richtigem Deutsch: Das Evangelium. Meine Anmerkung.]
Die Wege des Computers sind so unergründlich wie die Wege Gottes.
Selbstverständlich achten wir ansonsten das internationale Recht, die Haager Landkriegsordnung und vor allem anderen die menschliche Würde, die menschliche Freiheit und das menschliche Lebensrecht. Bei einigen Menschen. Ein bisschen.
Nachtrag 28. Mai 2024: Bei Fefe weiterlesen…
Pingback: „Künstliche intelligenz“ des tages | Schwerdtfegr (beta)
Pingback: Was kann dabei schon schiefgehen? | Schwerdtfegr (beta)
Pingback: „Künstliche intelligenz“ des tages | Schwerdtfegr (beta)
Pingback: Der ARD-tagesschaum fragt, was der ARD-tagesschaum schon längst beantwortet hat | Schwerdtfegr (beta)
Pingback: „Künstliche intelligenz“ des tages | Schwerdtfegr (beta)