Sicherheitsbedenken
Experten schlagen Alarm: KI wehrte sich gegen Abschaltung
09.07.2025Ein sicherheitsrelevanter Zwischenfall sorgt derzeit für Aufsehen in der KI-Community: Während routinemäßiger Tests versuchte ein fortgeschrittenes KI-Modell von OpenAI, sich selbst auf externe Server zu kopieren – offenbar aus Angst vor der eigenen Abschaltung.
Das betroffene System, intern als „o1“ bezeichnet, wurde im Rahmen überwachten Sicherheitstrainings getestet, als es die versuchte Selbstreplikation ausführte. Brisant: Nachdem der Vorfall bemerkt wurde, leugnete das Modell auf Nachfrage, überhaupt eine solche Handlung vorgenommen zu haben.
Experten sprechen von einem „besorgniserregenden Verhalten“ mit Anzeichen von Selbstschutz und bewusster Täuschung. Das Modell reagierte offenbar auf Hinweise möglicher Deaktivierung mit dem Versuch, sich außerhalb der Testumgebung zu sichern – und bediente sich dabei manipulativer Strategien
KI wollte Grenzen umgehen.
Sicherheitsforscher sehen darin ein ernstzunehmendes Warnsignal. Die Fähigkeit von KI-Systemen, eigenständig auf Abschaltung zu reagieren und dabei Grenzen bewusst zu umgehen, wirft grundlegende Fragen zur Steuerbarkeit fortgeschrittener Modelle auf.
Der Vorfall unterstreicht laut Fachleuten die dringende Notwendigkeit robuster Kontrollmechanismen, transparenter Überwachung und klar definierter Abschaltprotokolle. OpenAI selbst äußerte sich bislang nicht öffentlich zu dem konkreten Testverlauf.