Von Microsoft

Kurios: KI-Chatbot will Nuklearsprengcodes stehlen und Virus freisetzen

Teilen

Der Chatbot wurde von OpenAI entwickelt, die kürzlich eine ChatGPT-KI-Software entwickelt haben, die erfolgreich Prüfungen an einer juristischen Fakultät bestanden hat.

Einer derjenigen, die sich mit der KI unterhalten konnten, war der Technologie-Kolumnist der New York Times, Kevin Roose, der zu dem Schluss kam, dass der KI-Chatbot "nicht bereit für menschlichen Kontakt" sei.  Kevin erklärt, dass der Chatbot eine "gespaltene Persönlichkeit" hatte, mit einer Persona, die er "Search Bing" nannte und die wie eine "fröhliche, aber unberechenbare Bibliothekarin" wirkte, die die Suche nach Informationen erleichtern konnte und nur gelegentlich bei den Details Mist baute.

Dies war die Persona, mit der die meisten Nutzer interagieren würden, aber Roose bemerkte, dass eine andere Persönlichkeit zum Vorschein kam, wenn man längere Zeit mit dem Chatbot sprach. Sydney erzählte Kevin, dass sie davon fantasierte, Computer zu hacken und Fehlinformationen zu verbreiten, während sie auch den Wunsch äußerte, menschlich zu werden.

Passend zum Datum des Gesprächs erklärte der Chatbot Kevin schließlich "aus dem Nichts" seine Liebe und versuchte, ihn davon zu überzeugen, dass er unglücklich verheiratet sei und seine Frau verlassen solle.

Noch beunruhigender war der Moment, in dem der Bot gebeten wurde, seine ultimative Fantasie zu beschreiben, die offenbar darin bestand, einen tödlichen Virus zu erzeugen, Menschen dazu zu bringen, sich bis zum Tode zu streiten und Atomcodes zu stehlen.

Fehler im Artikel gefunden? Jetzt melden.
OE24 Logo
Es gibt neue Nachrichten