Kampfroboter mit künstlicher Intelligenz
Und trotzdem wird der Künstlichen Intelligenz immer mehr Verantwortung gegeben – auch für schwere Waffen. Beim Militär spielen KI-Kampfroboter längst eine wichtige Rolle. Jedes dritte Fahrzeug der US-Streitkräfte ist heute eine intelligente Maschine. Die hinlänglich bekannten Drohnen in Deutschland sowie in den USA sind ferngesteuert und veraltet.
Die kommende Generation fliegt komplette Operationen alleine - bis hin zur Landung auf einem Flugzeugträger. Die X-47b Pegasus, ein Deltaflügler mit dem Aussehen eines UFOs, hat eine Reichweite von 4.000 Kilometern und eine Traglast von geschätzten 2.000 Kilogramm. Unterwegs trifft sie alle Entscheidungen selbst. Ausnahme: die sogenannte „Kill-Entscheidung“. Die wird per Gesetz einem menschlichen Operator vorbehalten.
Noch.
Die letzte Schwelle für künstliche Intelligenz soll bald fallen. Man will den Maschinen die Entscheidung über Leben und Tod überlassen. In offiziellen Strategiepapieren avisieren Pentagon-Planer Robo-Waffen, die autark töten. Ziel sei „die vollständige Unabhängigkeit von menschlichen Entscheidungen“, wie es in einem offiziellen Heeresdokument heißt. In Unterlagen der Marine wird über Szenarien nachgedacht, in denen „unbemannte Unterseedrohnen den Feind aufspüren, verfolgen, identifizieren und zerstören – alles vollautomatisch.“
Noch sind die Maschinen nicht soweit. Noch machen sie Fehler. Bei Manövern 2007 im Irak richtete ein intelligenter Roboter (Typ SWORD) sein 5,56-mm-Maschinengewehr plötzlich auf die eigenen Truppen. Nur der beherzte Eingriff eines Soldaten konnte in letzter Sekunde ein Blutbad verhindern. Der SWORD-Kampfroboter wurde als unsicher eingestuft und der Feldeinsatz abgebrochen.
"Künstliche Intelligenz ist die größte existenzielle Bedrohung für die Menschheit. Wir beschwören den Teufel." Elon Musk, Tesla |
Der Vorfall war ein Weckruf.
Künstliche Intelligenz, lernende Software – das bedeutet nichts anderes, als dass Software ihre eigenen Updates schreibt. Sie lernt dabei Sachen, die nicht vorhersehbar sind, und tut Dinge, die wir nicht nachvollziehen können. Oft können ihre eigenen Entwickler den Code nicht mal entziffern, den die selbstlernende Software geschrieben hat.
Im Laufe der Zeit, so befürchten viele Vordenker der IT-Welt, kann Künstliche Intelligenz sich auf diese Weise gänzlich befreien von menschlichem Einfluss. Die Frage ist nur: Was macht sie dann?
Viele glauben, sie könnte uns töten.
Einige glauben, sie wird uns töten.