KI - Für und wider

Dass es nur eine Vernunft gäbe ist ja schon Vorreitung von KI, Verlust von Fantasie.
Also KI ist sozusagen nur eine Intensivierung von KI, einer Vernunft.
Sieht man ja schon an KI-generierten Bildern.
 
Werbung:
Israel und die Ukraine setzen beide ähnliche KI-basierte Systeme ein, um feindliche Ziele (Palästinenser bzw. Russen) auszuwählen. Israel nutzt dabei (angeblich) zwei selbst entwickelte Systeme namens "Lavender" und "Gospel", die Ukraine ein kommerzielles Produkt der Firma Palantir. Beide arbeiten vergleichbar. Es werden verschiedene Datenquellen (z.B. Drohnenaufnahmen, Bodenkarten etc.) zusammengeführt, und das System bewertet, ob es dort (angeblich) feindliche Kämpfer gibt. Eine statistische Kennzahl wird ausgespuckt (z.B. 72% Sicherheit), und dann entscheidet ein Mensch aus der Ferne, was als nächstes dort geschehen soll. Beispiel: Drohne hinschicken zur weiteren Aufklärung, ohne Nachfrage einfach mal mit der Artillerie draufhauen, einen Bomber mit einer 900 kg Bombe hinschicken, und so weiter.

Der grosse Unterschied besteht darin, dass in der Ukraine die Kriegsgebiete weitgehend (aber nicht vollständig) evakuiert und entvölkert sind, bevor die Kampfhandlungen stattfinden, während im Gaza die Bevölkerung sowohl von Israel als auch von Ägypten an einer Flucht aus dem Gaza aktiv gehindert wird. Im Gaza werden diese KI-basierten Systeme also auf dicht besiedelte Gebiete mit vielen Zivilisten angewendet, während es in der Ukraine auf Gebiete angewendet wird, wo die Zivilisten zuvor Zeit hatten, das Kampfgebiet zu verlassen. Da nun das israelische Militär um beinahe jeden Preis gewillt ist, die eigenen Verluste zu minimieren, und folglich nur verhältnismässig wenige Soldaten überhaupt vor Ort eine Lage beobachten können, muss sich das israelische Militär notwendigerweise aus der Distanz auf die Einschätzungen ihrer KI verlassen. Je mehr Zivilisten aber in einem Gebiet sind, desto komplizierter die Vorhersage und desto grösser die Chance auf Fehleinschätzungen. Dazu nutzt Israel eine Daumenregel, nach der es in Ordnung ist, bis zu ca 20 Zivilisten als "Kollateralschäden" zu töten, wenn dabei bloss ein einzelner Hamas-Kämpfer dabei ist. Und das aber dann nur, wenn sich im nachhinein herausstellt, dass auch wirklich ein solcher Kämpfer darunter war, sonst sind halt einfach 20 Zivilisten gestorben, ganz ohne dass dabei irgendein feindlicher Kämpfer dabei gewesen wäre. Das ist ja eben die Bedeutung einer Aussage wie "mit 72% Sicherheit" - das heisst, dass notwendigerweise in 28% der Fälle der Alarm falsch war, und sich dort ausschliesslich Zivilisten befanden. Die KI ist selbstverständlich ein Geheimnis und eine Black-Box, niemand ausser jene, die sie entwickelten, haben Wissen oder Zugriff auf ihre genaue Funktionsweise. So werden also Tötungsentscheidungen auf Basis einer KI gefällt, die nur ganz wenige Spezialisten im Detail verstehen.

Bevor Israel diese KI-Maschinen aufschaltete, hatte das israelische Militär ca 50 Ziele pro Jahr identifiziert. Nachdem diese Systeme live geschaltet wurden, ergaben sich plötzlich ca mögliche 100 Ziele pro Tag.

Das KI-System erlaubt es Israel - aber auch der Ukraine - ausserdem, persönliche Verantwortung für mögliche Kriegsverbrechen auf die KI abzuschieben. "Die KI hat's halt gesagt." Und natürlich funktioniert die KI so autonom, dass sich am Ende gar niemand wirklich schuldig zu fühlen braucht, weder jene, die die Daten zusammenführten, noch jene, die das System kreiierten, welches Ziele auswählt, noch jene, die die Entscheidung fällten, jetzt wirklich dort drauf los zu bomben. Alle können ihre Verantwortung abschieben und verwässern.

 
In manchen kulturellen Gegenden galt eine deutsche Nation mal als Nation von Dichtern und Denkern.:LOL:
 
Werbung:
Zurück
Oben