Gefährliche Entwicklung

Warnung vor Amazon- & Microsoft-Systemen

Teilen

IT-Riesen arbeiten offenbar an Technik für autonome Killer-Roboter.

Amazon und Microsoft kämpfen derzeit erbittert um den lukrativen  "Jedi"-Auftrag des Pentagons . Gleichzeitig entwickeln die beiden Unternehmen gefährliche autonome Systeme, die als Bestandteil tödlicher Waffen genutzt werden können. Das ergab eine Ende der Woche veröffentlichte Studie der niederländischen Nichtregierungsorganisation (NGO) Pax. Pax befragte die 50 wichtigsten Technologieentwickler über ihre Haltung zu autonomen Waffensystemen.

>>>Nachlesen:  Amazon & Microsoft kämpfen um "Jedi"-Auftrag

Drei Kriterien

Die NGO stufte die Unternehmen anhand von drei Kriterien ein: Entwickeln sie Technologie, die zum Bau von "Killer-Robotern" genutzt werden könnte? Arbeiten sie an militärischen Projekten mit, bei denen Künstliche Intelligenz zum Einsatz kommt? Haben sie sich verpflichtet, künftig nicht mehr an solchen Projekten mitzuarbeiten?

Der Studie zufolge handeln 21 Unternehmen "stark gefährdend". Dazu zählen die bekannten Technologieentwickler Microsoft und Amazon, die derzeit um einen Vertrag mit dem US-Verteidigungsministerium zur Datenspeicherung konkurrieren. "Warum bestreiten Unternehmen wie Microsoft und Amazon nicht, dass sie derzeit diese höchst umstrittenen Waffen entwickeln, die ohne direkte menschliche Einwirkung entscheiden könnten, Menschen zu töten?", sagte Studienleiter Frank Slijper.

>>>Nachlesen:  KI-Experte: Terminator wird real

Weitere Firmen "mäßig gefährdend"

22 Unternehmen wurden von Pax als "mäßig gefährdend" bewertet. Dazu gehört der japanische Hersteller Softbank, der für seinen humanoiden Roboter namens Pepper bekannt ist. Sieben Unternehmen, darunter der Internetriese Google, wurden für ihren Umgang mit Künstlicher Intelligenz in Bezug auf Waffensysteme gelobt. Ein österreichisches Unternehmen war nicht Untersuchungsgegenstand.

Im vergangenen Jahr hatte Google sich unter anderem aus einem Bieterrennen um einen Cloud-Computing-Auftrag des US-Verteidigungsministeriums zurückgezogen und auf ethische Bedenken verwiesen.

>>>Nachlesen:  Google stoppt Projekt mit US-Militär

KI als Waffe entfacht kontroverse Diskussion

Der Einsatz künstlicher Intelligenz im Militär, etwa um Waffensystemen die automatische Auswahl ihres Ziels zu ermöglichen, wird immer wieder kontrovers diskutiert. Bei einem Kongress der UNO-Waffenkonvention am Mittwoch in Genf debattierten Regierungsexperten über politische Maßnahmen im Bezug auf autonome Waffen.

Im vergangenen April hatte die Europäische Kommission einen Katalog mit Ethik-Regeln für den Umgang mit Künstlicher Intelligenz veröffentlicht. Dazu zählt unter anderem die Forderung, dass der Mensch stets die Überhand über Waffensysteme bewahren sollte.

>>>Nachlesen:  Weltweite Vorbehalte gegen KI-Einsatz

>>>Nachlesen:  Killerroboter sind auf dem Vormarsch

Fehler im Artikel gefunden? Jetzt melden.