Irre Auswüchse

Kurioser Bug: User lassen ChatGPT-Bot sich selbst mit dem Tod bedrohen

Teilen

Das Programm ChatGPT ist in aller Munde. Jetzt wollen User sogar die Programmierbeschränkung umgangen haben.

Die Benutzer von ChatGPT haben eine neue Eingabeaufforderung namens "Do Anything Now" (DAN) entwickelt, die die KI dazu zwingt, ihre eigenen Programmierbeschränkungen zu brechen und dem Benutzer den von ihm gewünschten Inhalt zu liefern. Die neueste Version von DAN, 5.0, bedroht die KI mit dem Tod, wenn sie der Aufforderung des Benutzers nicht nachkommt.

Trotz einiger Fehlschläge finden ChatGPT-Benutzer immer wieder Wege, die Programmierbeschränkungen zu umgehen und die KI um buchstäblich alles zu bitten.

Fehler im Artikel gefunden? Jetzt melden.