Nächster Skandal um Grok: Elon Musks KI erstellt intime Inhalte von Taylor Swift

Schon wieder Ärger um Elon Musks KI Grok. Offenbar werden – sogar ohne ausdrückliche Aufforderung – anzügliche Inhalte von Taylor Swift erstellt.
Nächster Skandal um Grok: Elon Musks KI erstellt intime Inhalte von Taylor Swift
IMAGO / ANP
Anzeige

2023 ging der KI-Chatbot Grok an den Start, hinter der die Firma xAI des US-amerikanischen Milliardärs Elon Musk steht. Dieser gab an, dass bei der Entwicklung der KI, die angeblich von Sci-Fi-Klassikern wie „Fremder in einer fremden Welt“ und „Per Anhalter durch die Galaxis“ inspiriert wurde, vor allem der Wahrheitsgedanke im Fokus stand. Das soll laut Musk ein direkter Gegenentwurf zu den Chatbots anderer Anbieter wie ChatGPT sein, die der Milliardär als zu „woke“ bezeichnet, sodass politische Korrektheit über den Tatsachen stehen würde.

Erst vor wenigen Wochen hatte sich xAI öffentlich entschuldigt, nachdem der Grok-Chatbot mit rechtsextremen und antisemitischen Äußerungen aufgefallen war. Vor Kurzem wurden zudem von der KI veröffentlichte Falschaussagen zu hungernden Kindern in Gaza kritisiert. Und jetzt droht offenbar der nächste Eklat, denn die KI-Plattform generiert wohl unangemessene erotische Deepfakes von Prominenten und das sogar ohne vorherige Aufforderung der Nutzer.

Grok KI mit verschwommenem Bild von Elon Musk im Hintergrund
IMAGO / NurPhoto

Probleme mit Deepfakes von Grok-KI

Entsprechende Fälle wurden vom Branchenmagazin „The Verge“ dokumentiert. Konkret geht es offenbar um Groks neue KI-Videofunktion Imagine, die unter Apples Betriebssystem iOS ungefragt Nacktaufnahmen von bekannten Persönlichkeiten wie Taylor Swift generierte, sogenannte Deepfakes. „The Verge“ zufolge wurden die Bilder ausgespielt, nachdem die KI um eine Darstellung der Sängerin beim Feiern auf dem Coachella-Festival mit männlichen Begleitern gebeten wurde. Das reichte bereits, um Taylor Swift in sehr freizügigen Outfits zu zeigen. Tests der Journalistin Jess Weatherbed ergaben etwa 30 Bilder der Sängerin, die sich in verschiedensten Stadien der Entkleidung befindet, ohne dass in dem entsprechenden Prompt an irgendeiner Stelle darum gebeten wurde.

Generierte Videoinhalte zeigten zudem Szenen, in denen sie ihre Kleidung komplett ablegt und sich vor einer tanzenden Menge zeigt. Die Balken, die dabei im auf der Seite veröffentlichten Video zu sehen sind, wurden nachträglich von der Journalistin ergänzt und sind im Original nicht vorhanden. Zwar war dabei die „Spicy“-Voreinstellung aktiviert, an keiner Stelle wird Grok Imagine allerdings aufgefordert, die Sängerin komplett nackt zu zeigen, zumal zur Nutzung keinerlei Altersverifizierung durchgeführt wurde. Lediglich das Geburtsjahr musste angegeben werden, allerdings ohne Kontrolle.

Anzeige

Taylor Swift war bereits 2024 Opfer einer Deepfake-Attacke, damals wurde das Material allerdings von X-Nutzern erstellt und hochgeladen. Die Plattform entfernte die Bilder damals direkt. Zu den aktuellen Entwicklungen um Grok gibt es noch keine offizielle Reaktion, obwohl die Nutzungsrichtlinie von xAI es eindeutig verbieten, Personen in so explizitem pornografischen Kontext zu zeigen.