International
Apocalyptic scenery with ruins of a city

Bild: iStockphoto/ / imago / getty / mppriv/ Christioph hardt / montage watson

Autonome Killerroboter: Ex-Google-Entwicklerin warnt vor "Gräueltaten"

Google hat im Rahmen des "Project Maven" dem US-Verteidigungsministerium künstliche Intelligenz (KI) zur Verfügung gestellt, die in Drohnen zum Einsatz kam. Eine ehemalige Mitarbeiterin warnt nun vor autonomen Killermaschinen.

Dennis Frasch / watson.ch

Hochintelligente Drohnen schießen getarnt aus der Luft auf Menschen. Dabei entscheiden die Kampfflugzeuge autonom, welche Ziele abgeschossen werden sollen und welche nicht.

Das ist Fiktion – könnte jedoch bald Realität werden. Zumindest wenn man den Aussagen von Laura Nolan, einer ehemaligen Top-Software-Ingenieurin von Google, Glauben schenkt.

Doch von Anfang an: In einem Artikel des Guardian warnt Nolan, dass autonom agierende Drohnen versehentlich Kriege und Massenexekutionen lostreten könnten. Die Software-Ingenieurin arbeitete für Google am Maven-Programm. Dieses lieferte für das US-Verteidigungsministerium künstliche Intelligenz, die Überwachungsdrohnen dazu befähigen sollte, autonom Objekte aus der Luft zu erkennen und zu klassifizieren.

Die Fähigkeit, militärische Drohnen in autonome, nicht von Menschen gelenkte Waffen umzuwandeln, "ist heutzutage nur ein Softwareproblem, das relativ einfach gelöst werden kann", so Nolan.

Wie bringt man Drohnen menschliches Gespür bei?

Aus Gewissensgründen schmiss Nolan letztes Jahr ihren Job und trat der Kampagne gegen Killerroboter bei, bei der schon 29 Länder und 110 NGOs mitwirken. Und Elon Musk. Die USA, Russland und China sind nicht dabei.

Nolan hat bereits vor UN-Diplomaten in Genf und New York über die Gefahr solcher Drohnen referiert. Sie warnt, dass die Wahrscheinlichkeit einer Katastrophe exponentiell steigt, je mehr solcher Killer-Roboter sich gleichzeitig in einem Gebiet befinden. "Rechtswidrige Tötungen und Gräueltaten sind möglich", sagt sie dem Guardian.

Bewaffnete Drohnen stehen bisher unter der Kontrolle des Menschen, der sie steuert und im Ernstfall darüber entscheidet, ob Ziele angegriffen werden. Wenn diese menschliche Kontrolle entfällt, so Nolan, könnte es zu schweren Unfällen kommen, sobald sich die Drohnen auf unerwartete Weise verhielten.

Die ehemalige Google-Mitarbeiterin skizziert, wie externe Faktoren, zum Beispiel ein Wetterumschwung, Killerroboter vom Kurs abbringen und so möglicherweise fatale Folgen haben könnten:

"Wie trainieren Sie ein System, das ausschließlich mit Software betrieben wird, subtiles menschliches Verhalten zu erkennen oder den Unterschied zwischen Jägern und Aufständischen zu erkennen? Wie unterscheidet die Drohne, die alleine unterwegs ist, zwischen dem 18-jährigen Kämpfer und dem 18-Jährigen, der nach Kaninchen jagt?"

Wettrüsten der Supermächte

Die aktuelle US-Militärdoktrin hält fest, dass letztlich immer ein Mensch über einen möglichen Angriff bestimmen muss. Wie lange das jedoch so bleibt, ist fraglich. Wie der Rüstungsexperte Paul Scharre in einem Interview mit der "Zeit" erklärte, existieren bereits heute simple Waffensysteme, die große Objekte wie Radaranlagen, Kriegsschiffe oder U-Boote angreifen könnten.

Zudem arbeiten Länder wie die USA, Großbritannien, Frankreich, Israel, Russland und China bereits an Tarnkappen-Angriffsdrohnen, die dank künstlicher Intelligenz autonom agieren können. Andere autonome Waffen, die von Militärmächten auf der ganzen Welt entwickelt werden, sind zum Beispiel:

Donald Trump hat indes im Februar ein Dekret erlassen, das sicherstellen soll, dass die USA in Sachen KI führend bleiben. Das US-Verteidigungsministerium bekräftigte nur einen Tag später, dass KI genutzt werden solle, um die Bürger und das Land zu schützen. Auch autonome Waffen könnten Teil dieser Strategie sein.

Google von Vorwürfen befreit

Bis jetzt gibt es keine Hinweise darauf, dass Google direkt an der Entwicklung autonomer Waffensysteme beteiligt ist. Im August diskutierte eine Expertengruppe der Vereinten Nationen über autonome Waffen. Sie hielt fest, dass Google keine KI für den Einsatz in Waffensystemen programmiere.

Den Vertrag für das Maven-Programm mit dem US-Verteidigungsministerium, der von 2017 bis 2019 läuft, hat Google nach heftigen Protesten von tausenden Mitarbeitern nicht erneuert. Die Mutterfirma von Google, Alphabet, hat zudem beim Kauf des KI-Unternehmens DeepMind 2014 versprochen, dessen Technologien keinen Militärs zur Verfügung zu stellen.

Das NGO PAX aus Holland hat zudem kürzlich eine Studie veröffentlicht, die 50 Tech-Firmen aus zwölf Ländern auf ihre Aktivitäten im Bezug auf mögliche Entwicklung von autonomen Waffensystemen untersuchte. Die Studie stellte fest, dass Google eine Vorreiterrolle einnimmt, da sich das Unternehmen verpflichtet hat, keine KI für den Einsatz in Waffen zu entwerfen oder bereitzustellen.

0
Bubble Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 48 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
0Alle Kommentare anzeigen

Brexit, Sex und Korruption: Diese Affären verfolgen Boris Johnson

Boris Johnson hat neue Vorschläge für einen Brexit-Vertrag präsentiert. Zugleich ist er mit Vorwürfen konfrontiert, er habe eine mutmaßliche Geliebte begünstigt und eine Journalistin sexuell belästigt.

Vorsichtig bis skeptisch: So äußerten sich Brüssel und Dublin zu den neuen Brexit-Plänen, die der britische Premierminister Boris Johnson am Mittwoch in seiner Abschlussrede am Tory-Parteitag in Manchester vorgestellt hat. Mit einem ziemlich komplizierten Konstrukt will er Kontrollen an der irischen Grenze vermeiden und so den ungeliebten Backstop beseitigen.

Das Irland-Problem ist der größte Stolperstein für einen vertraglich geregelten Austritt Großbritanniens aus der EU. Grenzkontrollen …

Artikel lesen
Link zum Artikel