Statt Kinderlied

Amazons Siri-Gegner spielt Kind einen Porno vor

Teilen

Smarter Lautsprecher mit Sprachassistent verstand Anfrage offenbar falsch.

Apple hat mit Siri für das iPhone den digitalen Assistenen den Weg geebnet. Derzeit sind in diesem Feld der künstlichen Intelligenz (KI) vor allem vernetzte Lautsprecher mit Sprachassistent in aller Munde. Vorreiter in dem Gebiet ist Amazon mit seinem Echo. Google hat mit seinem Home Assistant mittlerweile ebenfalls ein solches Gerät im Handel. In Kürze kommen noch Lenovo mit dem Smart Assistant und Microsoft mit seinem "Cortana"-Lautsprecher von Harman hinzu. Nun zeigt aber ein ziemlich kurioser Fall, dass die Sprachsteuerung noch nicht immer ganz nach Wunsch funktioniert.

Porno statt Kinderlied

So hat sich eine junge Familie kürzlich einen Amazon Echo Lautsprecher zugelegt. Der stolze Vater wollte gleich mit seiner Smartphone-Kamera dokumentieren, wie das Kind das Gerät erstmals verwendet. Es wünscht sich ein Kinderlied und teilt das dem Lautsprecher mit. Doch anstatt des gewünschten Songs, gab es eine böse Überraschung. Echo hat die Anfrage falsch verstanden und aktivierte eine Porno-Radiostation.

Amazon entschuldigt sich

Der Vater traute seinen Ohren kaum. Er veröffentlichte das Video auf YouTube und fragte wütend, was das soll? Wie Business Insider berichtet, hat sich Amazon bei der Familie bereits offiziell entschuldigt. Eine Lösung des Problems gibt es jedoch noch nicht. Dieses Beispiel zeigt deutlich auf, dass es bei der Funktionsweise dieser neuen Boom-Geräte noch deutlich Luft nach oben gibt. Zum einen muss die Spracheingabe weiterhin deutlich verbessert werden, zum anderen sollten sich die Hersteller mit dem Thema Jugendschutz konsequenter auseinandersetzen.

Fehler im Artikel gefunden? Jetzt melden.