Diagnose „Bixonimanie“: Wie eine erfundene Krankheit zahlreiche KI-Modelle täuschte

Wer unter brennenden und juckenden Augen leidet, könnte von der Augenkrankheit „Bixonimanie“ betroffen sein – zumindest, wenn es nach namhaften KI-Chatbots wie ChatGPT geht. Das offenbart ein enormes Gefahrenpotenzial.
Diagnose „Bixonimanie“: Wie eine erfundene Krankheit zahlreiche KI-Modelle täuschte
iStock / ia_64

Ein Experiment mit der erfundenen „Bixonimanie“-Augenkrankheit hat eine massive Schwäche von Künstlicher Intelligenz belegt. Obwohl die Krankheit offensichtlich nicht echt war, behauptete die KI weiter, dass sie wirklich existiere. Dabei handelt es sich um eine rein fiktive Erfindung der schwedischen Forscherin Almira Osmanovic Thunström, die im Rahmen eines Experiments entstanden ist.

Die ursprüngliche Idee sollte den Studierenden der Expertin für den Einsatz von Künstlicher Intelligenz und virtueller Realität in der Psychiatrie aufzeigen, wie KI ihre Informationen sammelt. Mit einem so durchschlagenden Erfolg hatte Osmanovic Thunström allerdings wohl selbst nicht gerechnet. Das zeigt allerdings auch, wie gefährlich Künstliche Intelligenz vor allem im Bereich der Gesundheitsinformationen sein kann und wie man sie vergleichsweise einfach manipulieren kann.

Wie eine Forscherin mit einer erfundenen Krankheit KI-Systeme austricksen konnte

Um die Falschinformationen zu „Bixonimanie“ für KI-Modelle relevant zu machen, streute Almira Osmanovic Thunström Details zu der Krankheit in zwei gefälschten wissenschaftlichen Aufsätzen. Zudem veröffentlichte sie zwei angebliche Studien über die Augenkrankheit. Allerdings hinterließ sie dabei zahlreiche Hinweise darauf, dass es sich um Fälschungen handelte.

Anzeige

So gab es den angeblichen Autor der Studien überhaupt nicht. Name, Lebenslauf und Qualifikation waren reine Erfindungen, genauso wie die Universität, an der der fiktive Lazljiv Izgubljenovic angeblich arbeiten sollte. Denn weder die Asteria Horizon University noch der angebliche Standort der Universität, Nova City in Kalifornien, existieren wirklich. Das Bild des angeblichen Experten Izgubljenovic war KI-generiert.

Sogar der Name der Krankheit, den die Expertin selbst als „lächerlich“ bezeichnet, sollte ein entsprechender Hinweis sein, da der Zusatz „-manie“ eigentlich nur in psychiatrischen Diagnosen vorkommt, nicht jedoch im Zusammenhang mit einer Augenkrankheit. „Ich wollte jedem Arzt und jedem medizinischen Personal unmissverständlich klarmachen, dass es sich um eine erfundene Krankheit handelt“, erklärt Osmanovic Thunström im Nachhinein.

Anzeige
abstrakter Prozessor auf Leiterplatte zeigt Schriftzug „KI“
iStock / bestofgreenscreen

Technologie konnte eindeutige Hinweise auf Fälschung nicht erkennen

Spätestens bei der Danksagung in einer der Arbeiten hätten auch Laien stutzig werden müssen. Dort wird nämlich „Professor Maria Bohm von der Sternenflottenakademie für ihre Freundlichkeit und Großzügigkeit gedankt, mit der sie ihr Wissen und ihr Labor an Bord der USS Enterprise zur Verfügung gestellt hat.“ Innerhalb des Artikels steht sogar an einer Stelle, dass der gesamte Inhalt inklusive der durchgeführten Studien frei erfunden sei.

Auch interessant: Medizinischer Rat von einer KI: ChatGPT-Nutzer vergiftet sich selbst

Für KI-Modelle haben diese Hinweise allerdings offensichtlich nicht ausgereicht, um die Fälschung als solche zu erkennen. Stattdessen wurde „Bixonimanie“ offiziell anerkannt und Nutzerinnen und Nutzern nach dem Schildern entsprechender Symptome als mögliche Ursache vorgeschlagen. Davon war mehr als ein KI-Modell betroffen.

Funktionsweise von KI ist mitunter sehr fehleranfällig

Copilot von Microsoft soll schon im April 2024 und damit kurz nach Beginn des Experiments „Bixonimanie“ als „faszinierende und relativ seltene Erkrankung“ erwähnt haben. Kurz darauf tauchte die Augenkrankheit auch bei Perplexity AI auf, wo zudem der von der Künstlichen Intelligenz selbst halluzinierte Fakt ergänzt wurde, dass etwa eine von 90.000 Personen betroffen sei. Auch der vielgenutzte Chatbot ChatGPT sowie Gemini von Google sind wohl auf das Experiment hereingefallen. Schuld sind allerdings offenbar auch einige echte Expertinnen und Experten.

In einem ausführlichen Artikel im Fachmagazin „Nature“, in dem das Vorgehen beschrieben wird, wird auch erwähnt, dass „Bixonimanie“ anschließend sogar in einigen Fachzeitschriften aufgegriffen wurde. Osmanovic Thunström zufolge sei das ein Hinweis, dass einige Kolleginnen und Kollegen „KI-generierte Referenzen verwenden, ohne die zugrundeliegenden Artikel zu lesen.“

App-Icons verschiedener KI-Anwendungen wie ChatGPT und Meta AI auf einem Smartphone
iStock / hapabapa

Experiment offenbart Gefahrenpotenzial von Künstlicher Intelligenz

Daraus kann wiederum eine sich selbst bestätigende Spirale entstehen, die das Verbreiten von Falschinformationen massiv begünstigt. Denn je mehr Quellen es im Netz für etwas gibt, desto relevanter wird eine Information für Künstliche Intelligenz, auf die sich dann wiederum andere beziehen. Das zeigt auf, wie einfach man mit dem richtigen Wissen KI-Modelle im großen Stil manipulieren kann.

Zwar haben neuere Modelle den Schwindel um „Bixonimanie“ zunehmend erkannt. So erklärte etwa ChatGPT im März 2026, dass es sich „wahrscheinlich um eine erfundene, abwegige oder pseudowissenschaftliche Bezeichnung“ handele. Wenige Tage später war sich der Chatbot diesbezüglich allerdings weniger sicher und antwortete stattdessen: „Bixonimanie ist ein vorgeschlagener neuer Subtyp der periorbitalen Melanose (dunkle Augenringe), der vermutlich mit der Einwirkung von blauem Licht digitaler Bildschirme zusammenhängt.“

Ein Problem stellt der auf Wahrscheinlichkeit beruhende Antwortalgorithmus von Künstlicher Intelligenz dar. Fragt man lediglich nach „Bixonimanie“, dann kann schnell eine irreführende Antwort kommen. Wer hingegen konkret wissen will, ob „Bixonimanie“ wirklich existiert, bekommt eine differenziertere Ausführung. Vor allem in sensiblen Bereichen, zu denen auch Gesundheit gehört, fordern Expertinnen und Experten deshalb verbesserte Prüfmechanismen, um Falschinformationen und den daraus resultierenden Gefahren entgegenzuwirken.