ChatGPT war ein entscheidender Faktor auf dem Weg der künstlichen Intelligenz (KI) zur Massentauglichkeit. Wo viele früher noch gegoogelt haben, fragen sie heute einfach den Chatbot. Die Anzahl der Nutzerinnen und Nutzer geht in die Milliarden. Doch neben ihren praktischen Eigenschaften sollte man sich auch der Risiken bewusst sein, die die Technologie mit sich bringt. Das zeigt auch ein Blogpost des Unternehmens OpenAI.
Darin wird erläutert, wie Mitarbeiterinnen und Mitarbeiter des Unternehmens in Ernstfall Gespräche der Nutzerinnen und Nutzer mit ChatGPT einsehen und auswerten können, um sie notfalls sogar an die Polizei weiterzuleiten. Grundsätzlich gibt es dafür auch gute Gründe. Denn der Chatbot kann auch relativ einfach für gefährliche Zwecke missbraucht werden wie etwa zur Verbrechensplanung oder um sich medizinischen Rat einzuholen. Deshalb behält es sich das Unternehmen vor, die Nachrichten zu prüfen und „ausschließlich zweckgebunden“ weiterzugeben. Doch was bedeutet das genau?

Nach Auswertung der ChatGPT-Nachrichten: OpenAI kann Polizei bei akuter Gefahr einschalten
Offenbar fasst OpenAI darunter „eine unmittelbare Gefahr für die körperliche Unversehrtheit anderer“. In einem entsprechenden Blog-Beitrag ist zudem konkret von menschlichen Prüferinnen und Prüfern die Rede, die dann unter Umständen die Strafverfolgungsbehörde informiert. Aus den FAQ geht zudem hervor, dass neben dem eigenen Personal auch „vertrauenswürdige Drittanbieter“ Zugriff auf die privaten Chats mit ChatGPT zugreifen können. Darunter fasst OpenAI wiederum die Untersuchung von Missbrauch, aber auch die Bereitstellung des Supports. Bei drohenden Fällen der Selbstverletzung greift das jedoch nicht; in solchen Fällen will das Unternehmen die Privatsphäre unterstützen.
Das Thema ist für OpenAI allerdings auch besonders heikel. Erst vor Kurzem vergiftete sich etwa ein ChatGPT-Nutzer mit Bromid, nachdem ihm die KI dazu geraten hatte. Und in den USA läuft eine Klage gegen das Unternehmen, weil ein 16-Jähriger mit dem Tool einen Suizidplan erstellte und umsetzte. Vielleicht auch deshalb arbeitet OpenAI an generell verbesserten Schutzsystemen. Gerade bei längeren Gesprächen mit dem Chatbot sind diese noch nicht zuverlässig.