,

Wenn die Maschinen töten lernen

Ausgabe 295

Foto: DoD Photos, gemeinfrei

Würden Sie einem Algorithmus Ihr Leben anvertrauen? Sollte Ihnen dieser Gedanke unangenehm sein, dann müssen Sie sich um das Wettrüsten bei der Künstlichen Intelligenz (KI) kümmern, das derzeit im Geheimen vonstattengeht.

(IPS). Waffensysteme, die Ziele ohne echte menschliche Kontrolle autonom auswählen und angreifen können, sind nicht mehr nur Science Fiction, sondern könnten Wirklichkeit werden. Nehmen wir beispielsweise die Warmate 2. Diese Rakete aus polnischer Produktion kann von einem Kontrolleur über ein Gebiet fliegen, kann aber zu einem selbstständigen Modus übergehen, sobald ein Ziel ausgewählt wurde. Oder es gibt die Brimstone, eine Lenkwaffe. Ihr kann ein Zielgebiet zugewiesen werden, in dem Ziele gefunden werden, die einem vordefinierten Zieltyp entsprechen.

Momentan befinden sich diese Waffen in menschlicher Kontrolle. Aber diese Technologie ist dazu entworfen, ohne Menschen auszukommen. Wir befinden uns bereits auf dem Weg zu einem ­abschüssigen Abhang. Untersuchungsergebnisse zeigen, dass sich, obwohl existierende Waffensysteme zumindest teilweise von menschlichen Kontrolleuren ferngesteuert werden, die Industrie rasant in Richtung immer autonomerer Systeme zubewegt.

Unser Bericht bat 50 Unternehmen nicht nur, sich mit Fragen zu ihrer ­Politik und ihren Aktivitäten an der ­Umfrage zu beteiligen, sondern analysierte auch öffentlich zugängliche Quellen zu den von ihnen entwickelten Systemen und den bereits vereinbarten Programmen.

Wir haben nur vier Unternehmen gefunden, denen wir eine „gute Praxis“ unterstellen können, weil sie Richtlinien haben, keine tödlichen autonomen ­Waffen zu entwickeln. 30 Unternehmen geben Anlass zu großer Sorge. Diese arbeiten alle an Technologien, die für tödliche autonome Waffen am relevantesten sind. Sie haben keine klaren Richtlinien, wie sie eine sinnvolle menschliche Kontrolle über solche Waffen gewährleisten wollen.

Zu diesen Konzernen gehören die weltgrößten Waffenproduzenten: Lockheed Martin, Boeing und Raytheon (alle USA), sowie AVIC und CASC (China), IAI, Elbit und Rafael (Israel), Rostec (Russland) und die türkische STM. So hat beispielsweise der staatliche Waf­fenhersteller STM in der Türkei das Kargu-System entwickelt. Dabei handelt es sich um eine Kamikaze-Drohne, die – basierend auf vorgewählten Koor­dinaten – in ein Gebiet fliegt und dann Ziele aufgrund von Gesichtserkennung aus­wählen kann. Einige Berichte legen den Schluss nahe, dass Kargu zukünftig entlang des türkisch-syrischen Spannungsgebietes eingesetzt werden soll. Diese herum­streifende Munition könnte bald die Schwelle zu einem Waffensystem ohne sinnvolle menschliche Kontrolle überschreiten.

Die Ergebnisse dieser Nachfragen sind tiefbeunruhigend. Tödliche, autonome Waffensysteme, die Ziele auswählen und angreifen können, ohne dass sie wirklich von Menschen kontrolliert sind, werfen unzählige rechtliche, sicherheitstechnische und ethische Fragen auf. Entscheidend ist, dass der Mensch von der endgültigen Tötungsentscheidung ausgeschlossen wird, indem die Entscheidung, das Leben eines Menschen zu beenden, an eine algorithmisch gesteuerte Maschine delegiert wird. Dies widerspricht grundsätzlich dem Recht auf ­Leben und die Menschenwürde.

Es gibt aber nicht nur ethische Sorgen. Diese tödlichen Systeme wären in der Lage, in Geschwindigkeiten zu ope­rieren, die unbegreiflich für den Menschen sind. Ihr hohes Maß an Autono­mie macht sie auch sehr schwer vorhersagbar. Niemand weiß, wie sie auf unerwartete Ereignisse reagieren. Das haben bereits Unfälle von selbstfahrenden Autos erwiesen. Jede, dieser unbeabsichtigten Aktionen würde das Risiko einer Eskalation von Konflikten erheblich erhöhen. Autono­me Waffen sind daher nicht nur unethisch. Sie stellen auch ein schwerwiegendes Risiko für den internationalen Frieden und die globale Sicherheit dar. Es ist sehr unwahrscheinlich, dass sie in der Lage sein werden, die wichtigsten Grundsätze des humanitären Völkerrechts einzuhalten.

Dieses Recht unterscheidet zwischen Zivilisten und Kombattanten. Man muss bei jedem Angriff beurteilen, ob der durch ihn verursachte zivile Schaden verhältnismäßig zum erwarteten militärischen Vorteil ist. Das alles sind stark vom Kontext abhängige Überlegungen. Und genau darin sind Algorithmen ganz besonders schlecht. Diese Bedenken haben intensive Debatten unter Staaten ausgelöst. Im Rahmen der UN-Konvention wird seit 2013 über autonome Waffen diskutiert. Diese Diskussionen waren in dem Sinne produktiv, da klar wurde, dass eine große Mehrheit von Staaten eine echte menschliche Kontrolle über den Gewalteinsatz beibehalten will.

Gegenwärtig haben dreißig Staaten bereits einen verhindernden Vertrag ­gefordert, der tödliche, autonome Waffen verbieten und menschliche Kontrolle gewährleisten soll. Jedoch sind diese ­Debatten derzeit ins Stocken geraten, weil eine Handvoll Nationen das globale KI-Wettrüsten ermöglichen. Staaten müssen dringend Maßnahmen ergreifen, um die Entwicklung tödlicher, autonomer Waffen zu verhindern und nicht zu ermöglichen. Die Verabschiedung des neuen Völkerrechts ist dafür der effektivste Weg.