Die Debatte um Künstliche Intelligenz (kurz KI) wird bereits seit einigen Jahren mal mehr, mal weniger heftig geführt. Die Kritikerinnen und Kritiker, aber auch Fans der Technologie gehen dabei vor allem auf zwei Aspekte ein: den Energieverbrauch und die Folgen für den Arbeitsmarkt. Einige warnen allerdings auch, dass dabei ein wichtiger Faktor vergessen wird, der jedoch ebenfalls enorme globale Auswirkungen hat.
Dabei geht es um den Einfluss von KI auf das Internet selbst. Seit seiner breiten Einführung in den 90er-Jahren hat das World Wide Web die Welt nachhaltig verändert und Einzug in die meisten Prozesse gehalten, sowohl im privaten als auch im beruflichen Umfeld. Die dadurch angestoßenen Umwälzungen waren massiv. Künstliche Intelligenz könnte nun ähnliche Auswirkungen haben, damit aber auch bisherige Errungenschaften zerstören, was ungeahnte Konsequenzen nach sich ziehen kann.
Nutzerverhalten ist der blinde Fleck der KI-Forschung
Darauf weisen unter anderem die Expertinnen und Experten der unabhängigen Medienseite „404 Media“ hin (Artikel hinter Bezahlschranke). Dabei beziehen sie sich unter anderem auf eine neue Studie von Anthropic, die sich mit den Auswirkungen von KI auf den Arbeitsmarkt beschäftigt. Hauptkritikpunkt an der Studie ist, dass diese einen wichtigen Punkt außen vor lasse: Wie Menschen mit der Technologie umgehen.
Dabei geht es vor allem um KI-gestützte pornografische Inhalte, aber auch andere Massenproduktionen, die mittels Künstlicher Intelligenz innerhalb kürzester Zeit erstellt werden und das Internet fluten. Die Studie betrachte die Technologie nur anhand ihres Potenzials und losgelöst davon, was Nutzerinnen und Nutzer tatsächlich damit tun.
„404 Media“ sind nicht die ersten, die auf diese Gefahr hinweisen. Inzwischen hat sich der Begriff „AI Slop“ dafür durchgesetzt, also „KI-Abfall“. Gemeint ist, dass meist minderwertige Inhalte von generativer KI das Internet überschwemmen. Das bedroht nicht nur ganze Berufsstände in Bereichen wie Kunst, Musik und Journalismus. Es beeinflusst auch das Nutzungsverhalten und die Erwartungen der Verbraucherinnen und Verbraucher.

Von Clickbait zu Propagande – die Gefahr durch KI-Flut ist real
Inzwischen ist dieser AI-Slop kein harmloser Clickbait mehr. Er wird vielmehr längst für gezielte Desinformationskampagnen und Propaganda genutzt. Ein Problem sind dabei klar die falschen Informationen, die für Nutzerinnen und Nutzer immer schwerer als solche zu erkennen sind. Das führt wiederum zu einem zunehmenden Misstrauen und einem Ermüdungseffekt bei vielen gegenüber den Inhalten, die im Internet zu finden sind.
Eine Studie der Agentur „The Graphite“ ergab, dass bereits seit Ende 2024 mehr mittels Künstlicher Intelligenz erzeugte Artikel ins Netz kommen als solche, die von Menschen gemacht wurden. Inzwischen ist wohl die Hälfte aller online zu findenden Artikel KI-generiert. Das ist auch angesichts der jahrzehntelangen Historie des Internets bemerkenswert.
Schrumpfende Einnahmen und das Ende der geteilten Realität
Was für die einen nur witzige Unterhaltung oder sogar ein nützliches Tool sein mag, birgt ernsthafte Risiken. Diese bestehen zum einen für die professionellen Erstellerinnen und Ersteller von Inhalten im Internet, deren Geschäft etwa durch die KI-Zusammenfassungen von Google massiv bedroht ist, weil ihre Klick-Einnahmequellen schrumpfen. Aber auch gesellschaftlich gesehen ergeben sich dadurch Konsequenzen, weil das Angebot gut recherchierter und kostenloser Inhalte schrumpft.
Vielen Verbraucherinnen und Verbrauchern ist zudem bei der Nutzung von ChatGPT, Gemini und Co. gar nicht klar, dass sie personalisierte Inhalte bekommen. Diese basieren zum einen auf der stochastischen Natur von klassischen LLMs, was bei derselben Frage zu unterschiedlichen Textwahrscheinlichkeiten führt. Zum anderen wird die Antwort auch davon beeinflusst, ob vorher bereits eine Konversation in dem Chat stattgefunden hat
Fünf Personen, die dieselbe Frage an einen Chatbot richten, bekommen fünf verschiedene Antworten. Das schränkt eine gemeinsame Öffentlichkeit immer weiter ein – ein Effekt, der so bereits bei Social Media und den stark nutzergetriebenen Algorithmen dort zu beobachten ist, auch wenn die Mechaniken dahinter nicht im Detail zu vergleichen sind.

KI kann zu einem selbstzerstörerischen System werden
Ein wesentliches Problem dabei ist die Intransparenz der KI-Modelle beziehungsweise der dahinterstehenden Firmen. Dazu kommt, dass die Gefahr eines selbstzerstörerischen Systems besteht, das auch die „guten“ Seiten von Künstlicher Intelligenz bedroht. Denn die Technologie ist auf echte Inhalte angewiesen, um sich weiterzuentwickeln. Je mehr sie allerdings davon zerstört, desto kleiner ist die Datenbasis, auf die sie sich am Ende beziehen kann.
Das macht es den KI-Modellen der Zukunft wiederum ungleich schwerer, vor allem, wenn das generelle Vertrauen der Nutzerinnen und Nutzer in das Internet und die dort zu findenden Inhalte schwindet. Etwa in einem SWR-Beitrag heißt es dazu: „In die einst geteilte Realität, die das Netz darstellen sollte, ist die große Skepsis eingezogen: Was ist noch echt? Und wie interagiert man mit Inhalten, die es offensichtlich nicht sind?“
Bereits jetzt kann man einige Gegentrends beobachten. Inhalte verschwinden hinter Bezahlschranken, in der Werbung wird sich um betonte Authentizität bemüht, Verbraucherinnen und Verbraucher feiern analoge Trends und erste Erhebungen zeigen, dass auch bei jungen Menschen beispielsweise die Social-Media-Zeiten leicht sinken. Wenn sich solche Entwicklungen am Ende aufgrund einer KI-Müdigkeit gegenseitig verstärken, wird es kritisch für die Technologie.

