Apple hat aktuell mit einem kuriosen Problem zu kämpfen. Unter bestimmten Umständen spuckt der KI-Übersetzer des Herstellers schlüpfrige Porno-Titel aus. Wenn man bei iOS oder MacOS bestimmte englische Sätze in das deutsche Übersetzungsfeld einfügt, ist das Programm sichtlich verwirrt.
Aus den harmlosen englischen Sätzen werden auf einmal heiße Pseudo-Porno-Titel. Aus dem Satz "Happy dog is very young 3003" machte der Übersetzer beispielsweise "sexy brunette in black black black is happy to be banged". Aus "Mirror egg is very yummy in the tummy" wurde "The brunette is getting penetrated in the kitchen".
Im KI-Übersetzer wird es heiß
Dieser amüsante Fehler tritt nur dann auf, wenn man die englischsprachigen Sätze in das deutsche Übersetzungsfeld eingibt. Grund dafür ist, dass es keine automatische Spracherkennung gibt. Der KI-Übersetzer ist so überfordert, dass eine komplett neue Bedeutung generiert wird. Warum es sich dabei ausgerechnet um Pseudo-Porno-Titel handelt, ist jedoch ein Geheimnis.
Diese KIs werden vorher ausgiebig trainiert. In den Datensätzen befinden sich auch pornografische Themen. Wahrscheinlich wurde hier einiges durcheinandergebracht. Apple hat einen Teil der Übersetzungsfehler bereits behoben.