Kontrollverlust

Sofortiger Entwicklungs-Stopp: Hunderte Promis wehren sich gegen Super-KI

22.10.2025

Immer mehr prominente Personen warnen vor den Risiken von künstlicher Intelligenz (KI), die weit über menschliche Fähigkeiten hinausgeht. 

Zur Vollversion des Artikels
© getty
Zur Vollversion des Artikels

Hunderte Menschen aus Technik, Medien, Politik und Wissenschaft haben nun gemeinsam einen Brief unterzeichnet, der eine Aussetzung der Entwicklung solcher Systeme fordert.

Ein klarer Appell von Experten und Prominenten

Der Brief, der unter dem Titel „Statement zur Superintelligenz“ vom Future of Life Institute (FLI) veröffentlicht wurde, fordert ein sofortiges Ende der Entwicklung sogenannter Superintelligenz, bis wissenschaftlich gesichert ist, dass diese sicher und kontrollierbar ist. Zudem solle die Öffentlichkeit in die Entscheidungen einbezogen werden. Laut einer Umfrage des FLI, das vom MIT-Professor Max Tegmark mitbegründet wurde, sind nur rund fünf Prozent der Amerikaner für eine schnelle und unregulierte Entwicklung von fortgeschrittenen KI-Systemen. Über 73 Prozent unterstützen dagegen strenge Regeln für KI. Rund 64 Prozent meinen, dass Superintelligenz nicht entwickelt werden sollte, bevor sie als sicher gilt.

Wer unterschrieben hat

Zu den Unterzeichnern zählen bekannte Tech-Persönlichkeiten wie Apple-Mitgründer Steve Wozniak und Virgin-Gründer Richard Branson, einflussreiche Medienvertreter wie Steve Bannon und Glenn Beck, sowie linke Künstler wie Joseph Gordon-Levitt. Auch Prinz Harry und Meghan, Herzog und Herzogin von Sussex, der frühere US-Admiral Mike Mullen, der Papstberater für KI Paolo Benanti sowie führende KI-Forscher wie Yoshua Bengio und Geoffrey Hinton haben den Brief unterstützt. Yoshua Bengio, Professor an der Universität Montreal, betont: „KI-Systeme könnten innerhalb weniger Jahre die meisten Menschen bei vielen Denkaufgaben übertreffen. Solche Fortschritte können große Probleme lösen, bergen aber auch erhebliche Risiken.“

Risiken auch bei heutiger KI

Der Brief weist darauf hin, dass Superintelligenz nicht erreicht werden muss, um Probleme zu verursachen. Schon heutige KI-Systeme wie Chatbots oder Bild- und Videoerstellungstools verändern das Lernen, verbreiten falsche Informationen, werden für illegale Inhalte genutzt und belasten die psychische Gesundheit von Nutzern. Folgen können Trennungen, Obdachlosigkeit oder selbstverletzendes Verhalten sein.

Bemerkenswert ist auch, wer nicht unterschrieben hat: OpenAI-CEO Sam Altman, DeepMind-Mitgründer Mustafa Suleyman, Anthropic-CEO Dario Amodei und xAI-Gründer Elon Musk. Musk hatte zwar einen früheren Brief von 2023 unterstützt, der eine Pause bei fortgeschrittener KI forderte, doch die Entwicklung ging weiter (GPT-5 wurde diesen Sommer veröffentlicht).

 

 

 

 

Der Brief zeigt, dass Menschen aus verschiedenen Bereichen der Meinung sind, dass KI geregelt werden muss. Der Weg, wie und von wem KI entwickelt wird, sollte nicht alleine von Unternehmen entschieden werden. Anthony Aguirre, Mitgründer des FLI, sagt: „Niemand hat die Menschheit gefragt, ob sie einverstanden ist. Wir schon – und viele sehen das kritisch.“ 

Zur Vollversion des Artikels