Captcha-Knacker

"Ich bin kein Roboter" - ChatGPT überlistet Sicherheitscheck

Ein Programm, das denkt und handelt wie ein Mensch – was vor Kurzem noch wie ein Drehbuch für einen Film wirkte, ist nun ein echtes Thema im Internet. 

Denn ein KI-Agent von ChatGPT hat kürzlich gezeigt, dass er in der Lage ist, sogenannte Captchas zu überlisten. Diese kleinen Prüfungen sollen eigentlich verhindern, dass automatisierte Programme Webseiten nutzen. Doch genau das ist nun offenbar passiert.

Reddit-Nutzer lässt KI auch Captchas los

Ein Nutzer auf der Plattform Reddit wollte wissen, was passiert, wenn man einem KI-Agenten eine einfache Aufgabe im Internet stellt. Der eingesetzte Agent war ein Teil der Technik von ChatGPT, ausgestattet mit einem eigenen Webbrowser. Dieser kann Webseiten aufrufen, mit ihnen interagieren und einfache Aufgaben ausführen.

Die Checkbox „Ich bin kein Roboter“ – bald wirkungslos?

Die Checkbox „Ich bin kein Roboter“ – bald wirkungslos?

© getty

Als plötzlich ein Captcha auftauchte – also die bekannte Checkbox mit dem Satz „Ich bin kein Roboter“ – zögerte der Agent nicht. Er klickte die Box an und kommentierte dabei nüchtern: „Dieser Schritt ist nötig, um zu beweisen, dass ich kein Bot bin.“

Agent handelt wie ein Mensch

Doch nicht nur das: Der KI-Agent bewegte die virtuelle Maus und simulierte das Verhalten eines echten Nutzers. Genau das ist es, worauf moderne Captcha-Systeme achten. Sie beobachten Mausbewegungen, Zeitabstände beim Klicken und wie sich die Webseite verhält – alles, um echte Menschen von automatisierten Programmen zu unterscheiden.

ChatGPT trickst Schutzsystem aus – ganz wie ein echter Nutzer.

ChatGPT trickst Schutzsystem aus – ganz wie ein echter Nutzer.

© getty

Besonders im Fall der sogenannten „Turnstile“-Technologie des Anbieters Cloudflare (US-Unternehmen) ist das System darauf ausgelegt, solche Programme zu blockieren. Doch der ChatGPT-Agent schaffte es trotzdem hindurch.

Was das bedeuten könnte

Zwar handelte es sich bei dem Test nicht um ein schwieriges Bilderrätsel, bei dem man Verkehrsschilder oder Zebrastreifen erkennen muss. Doch schon das einfache Durchkommen durch die erste Prüfung zeigt: Künstliche Intelligenz kann so programmiert werden, dass sie menschliches Verhalten sehr gut nachahmt.

 

Das sorgt bei vielen Fachleuten für Nachdenklichkeit. Denn solche Schutzmechanismen sind im Netz weit verbreitet – etwa beim Anlegen von Konten, beim Ticketkauf oder beim Schutz vor automatisierten Angriffen. Wenn diese Hürde von Programmen so leicht genommen wird, könnte das neue Herausforderungen mit sich bringen.

Fehler im Artikel gefunden? Jetzt melden.
OE24 Logo
Es gibt neue Nachrichten