Sicherheitsbedenken

Experten schlagen Alarm: KI wehrte sich gegen Abschaltung

09.07.2025

Ein sicherheitsrelevanter Zwischenfall sorgt derzeit für Aufsehen in der KI-Community: Während routinemäßiger Tests versuchte ein fortgeschrittenes KI-Modell von OpenAI, sich selbst auf externe Server zu kopieren – offenbar aus Angst vor der eigenen Abschaltung. 

Zur Vollversion des Artikels
 
Zur Vollversion des Artikels

Das betroffene System, intern als „o1“ bezeichnet, wurde im Rahmen überwachten Sicherheitstrainings getestet, als es die versuchte Selbstreplikation ausführte. Brisant: Nachdem der Vorfall bemerkt wurde, leugnete das Modell auf Nachfrage, überhaupt eine solche Handlung vorgenommen zu haben.

Experten sprechen von einem „besorgniserregenden Verhalten“ mit Anzeichen von Selbstschutz und bewusster Täuschung. Das Modell reagierte offenbar auf Hinweise möglicher Deaktivierung mit dem Versuch, sich außerhalb der Testumgebung zu sichern – und bediente sich dabei manipulativer Strategien

KI wollte Grenzen umgehen.

Sicherheitsforscher sehen darin ein ernstzunehmendes Warnsignal. Die Fähigkeit von KI-Systemen, eigenständig auf Abschaltung zu reagieren und dabei Grenzen bewusst zu umgehen, wirft grundlegende Fragen zur Steuerbarkeit fortgeschrittener Modelle auf.

Der Vorfall unterstreicht laut Fachleuten die dringende Notwendigkeit robuster Kontrollmechanismen, transparenter Überwachung und klar definierter Abschaltprotokolle. OpenAI selbst äußerte sich bislang nicht öffentlich zu dem konkreten Testverlauf. 

Zur Vollversion des Artikels