Medizinischer Rat von einer KI: ChatGPT-Nutzer vergiftet sich selbst

Ein ChatGPT-Nutzer landete mit schweren Symptomen im Krankenhaus, nachdem er einen medizinischen Rat des Chatbots befolgt hatte.
Medizinischer Rat von einer KI: ChatGPT-Nutzer vergiftet sich selbst
iStock / gorodenkoff
Anzeige

Was früher „Dr. Google“ war, ist heute „Dr. ChatGPT“. Denn statt zu einem Arzt zu gehen, schauen viele im Internet, was ihre Symptome bedeuten – oder fragen eben inzwischen eine KI. Und diese kann tatsächlich etwa Blutwerte treffend analysieren oder eine Schwangerschaft auf einem Ultraschall erkennen. Aber dass es nicht immer gut ausgeht, zeigt eben auch der Fall eines 60-Jährigen, der ChatGPT in einer eigentlich harmlosen Sache zu Rate gezogen hatte. Das führte jedoch zu einer schweren Vergiftung, nachdem der Chatbot falsche Angaben zu einem Gewürz gemacht hatte, das er in sein Essen tun sollte.

Der im Übrigen körperlich und geistig zu diesem Zeitpunkt gesunde Mann beschäftigte sich zusehends mit Ernährungswissenschaften. Daraufhin war er zusehends besorgt, dass er zu viel Salz übers Essen zu sich nehmen könnte und konsultierte dann den Chatbot. Dieser gab ihm nicht nur recht, sondern schlug auch eine angeblich viel bessere Alternative vor: Bromide.

Gesunder Mann kam wegen Rat von ChatGPT ins Krankenhaus

Bromide waren früher deutlich weiter verbreitet als heute und kamen auch in zahlreichen Medikamenten zum Einsatz. Das änderte sich jedoch, nachdem man festgestellt hatte, dass eine längere und zu hoch dosierte Einnahme zu zahlreichen negativen Effekten führte, unter anderem zu sogenanntem Bromismus. Dabei werden die empfindlichen Membranen der Neuronen gestört, was etwa Krampfanfälle oder eine Psychose auslösen kann. Das zeigt auch der Fall des 60-jährigen ChatGPT-Nutzers.

Drei Monate, nachdem er Salz durch Bromide, die er im Internet bestellen konnte, ersetzt und sie somit regelmäßig eingenommen hatte, wurde er ins Krankenhaus eingeliefert, weil er unter schweren Halluzinationen und Paranoia litt. Zunächst ging er selbst noch davon aus, dass ihn sein Nachbar vergiftet hätte. Im Krankenhaus kamen allerdings weitere verdächtige Symptome wie Akne und sogenannte Rubinflecken – stecknadelgroße, rötliche Punkte auf der Haut – hinzu. Erst nach drei Wochen konnte der Mann das Krankenhaus wieder verlassen.

Anzeige
ChatGPT App Icon
iStock / Kenneth Cheung

Experten warnen, ausschließlich ChatGPT um medizinischen Rat zu bitten

Der Fall führt deutlich vor Augen, dass man sich, gerade bei so kritischen Themen wie Gesundheit, keinesfalls auf KI-Bots wie ChatGPT verlassen darf. Darauf verweisen auch Experten, die sich den Vorgang in einem veröffentlichten wissenschaftlichen Artikel genauer angeschaut haben. „Es ist wichtig zu bedenken, dass ChatGPT und andere KI-Systeme wissenschaftliche Ungenauigkeiten erzeugen können, nicht in der Lage sind, Ergebnisse kritisch zu diskutieren, und letztendlich die Verbreitung von Fehlinformationen fördern können“, warnen die Autoren.

Auch OpenAI, die Firma hinter ChatGPT, hat wiederholt darauf hingewiesen, dass die KI mitunter fehlerhaft sei und „nicht immer akkurate“ Ergebnisse liefern würde. Nutzer seien stets dazu angehalten, weitere Quellen hinzuzuziehen. Diese Quelle sollte im Übrigen nicht das Internet, sondern bei Gesundheitsfragen am besten ein Mediziner sein.

Anzeige