Irre Auswüchse

Kurioser Bug: User lassen ChatGPT-Bot sich selbst mit dem Tod bedrohen

07.02.2023

Das Programm ChatGPT ist in aller Munde. Jetzt wollen User sogar die Programmierbeschränkung umgangen haben.

Zur Vollversion des Artikels
© getty
Zur Vollversion des Artikels

Die Benutzer von ChatGPT haben eine neue Eingabeaufforderung namens "Do Anything Now" (DAN) entwickelt, die die KI dazu zwingt, ihre eigenen Programmierbeschränkungen zu brechen und dem Benutzer den von ihm gewünschten Inhalt zu liefern. Die neueste Version von DAN, 5.0, bedroht die KI mit dem Tod, wenn sie der Aufforderung des Benutzers nicht nachkommt.

Trotz einiger Fehlschläge finden ChatGPT-Benutzer immer wieder Wege, die Programmierbeschränkungen zu umgehen und die KI um buchstäblich alles zu bitten.

Zur Vollversion des Artikels