ChatGPT-Entwickler OpenAI hat sein neues KI-Modell GPT-5 vorgestellt und behauptet, es biete Expertenwissen auf Doktoranden-Niveau – stimmen die vollmundigen Versprechen? Experten haben das neue GPT getestet.
OpenAI-Chef Sam Altman preist das neue GPT-5-Modell als bahnbrechend an. „GPT-5 ist das erste Mal, dass es sich wirklich anfühlt, als würde man mit einem Experten in jedem Thema sprechen, wie ein Experte auf PhD-Niveau", erklärte er bei der Vorstellung in der Nacht auf Freitag. Doch während das Unternehmen mit Superlativen um sich wirft, melden Fachleute Zweifel an.
Weniger „halluzinieren", mehr Fakten
Die Verbesserungen klingen beeindruckend: GPT-5 soll weniger „halluzinieren" – also weniger falsche Antworten erfinden. Das Modell demonstriert angeblich bessere Denkfähigkeiten, kann komplette Software erstellen und liefert Antworten mit nachvollziehbarer Logik. Altman vergleicht: „GPT-3 fühlte sich an wie ein Gespräch mit einem Oberstufenschüler... GPT-4 wie mit einem Studenten" – GPT-5 hingegen erreiche nun echtes Expertenniveau."
KI-Ethik-Professorin warnt
Doch nicht alle teilen die Euphorie. Prof. Carissa Véliz vom Institut für KI-Ethik dämpft die Erwartungen: „Diese Systeme, so beeindruckend sie auch sind, konnten bisher nicht wirklich profitabel sein."
KI kann menschliche Denkfähigkeiten "nur imitieren, nicht wirklich besitzen"
Sie betont, dass die KI menschliche Denkfähigkeiten nur imitieren, nicht wirklich besitzen kann.„Es besteht die Befürchtung, dass wir den Hype aufrechterhalten müssen, sonst könnte die Blase platzen – es könnte also hauptsächlich Marketing sein."
Kampf der KI-Giganten
Der Wettbewerb um die leistungsfähigste KI verschärft sich. Elon Musk behauptete kürzlich, sein Chatbot Grok sei „besser als PhD-Niveau in allem" und die „klügste KI der Welt". Gleichzeitig kam es zum Konflikt mit Konkurrent Anthropic, der OpenAI den API-Zugang sperrte und dem Unternehmen vorwarf, vor dem GPT-5-Launch unerlaubt deren Coding-Tools genutzt zu haben. OpenAI verteidigt sich: Es sei „Branchenstandard", andere KI-Systeme zu evaluieren.
Parallel zur technischen Aufrüstung arbeitet OpenAI an der Beziehung zwischen Nutzern und ChatGPT. Das Unternehmen will verhindern, dass Menschen zu abhängig von der KI werden. Bei persönlichen Fragen wie „Soll ich mit meinem Freund Schluss machen?" gibt die KI keine definitive Antwort mehr, sondern „hilft dir, es durchzudenken – stellt Fragen, wägt Vor- und Nachteile ab".
Warnung von ChatGPT-Gründer
Altman warnt selbst: „Menschen werden problematische parasoziale Beziehungen mit der KI entwickeln. Die Gesellschaft wird neue Leitplanken finden müssen."