Künstliche Intelligenz (KI) ist die bestimmende Technologie der Gegenwart und vermutlich auch der Zukunft. Führende Köpfe der Wissenschaft, Wirtschaft und auch der Politik sind sich allerdings einig, dass der Einsatz dieser Technologie hohe Risiken birgt. Und obwohl es zu dieser Feststellung nur wenige Gegenstimmen gibt, wird KI dennoch ein immer größerer Spielraum eingeräumt, während sie in immer mehr Prozesse implementiert wird.
Diese Problematik spricht auch die Initiative „Global Call for AI Red Lines“ an; übersetzt bedeutet das soviel wie „Globaler Aufruf zu roten Linien für KI“. Das Ziel der Initiative ist, ein internationales Abkommen zu erwirken, dass sich über Grenzen für künstliche Intelligenz einigt. Denn ein wesentliches Hindernis zurzeit ist mangelnde Koordination und Einigkeit bei dieser Thematik. Während etwa die Europäische Union bereits erste Versuche unternimmt, die Wirkungsmacht von KI zu begrenzen und vor allem Richtlinien zur Nutzung und zum Datenschutz aufzustellen, wird dieses Vorgehen in Ländern wie den USA als Drosselung der Innovation verstanden. Immerhin gibt es ein Abkommen mit China, das festlegt, dass Atomwaffen nicht über eine KI kontrolliert werden dürfen.

Experten-Initiative weist auf massive Gefahren durch KI hin
Wie wichtig eine Einigung auf ein gemeinsames Vorgehen wäre, formulierte die Initiative, zu der Hunderte Expertinnen und Experten gehören, im Vorfeld der 80. Generaldebatte der Vereinten Nationen in New York. „Wenn sich Nationen noch nicht darauf einigen können, was sie mit KI tun wollen, dann müssen sie sich zumindest darauf einigen, was KI niemals tun darf“, sagte etwa Charbel-Raphaël Segerie vom französischen Center for AI Safety (CeSIA). Die „Global Call for AI Red Lines“ hat für diese Einigung eine klare Vision.
Bis Ende 2026 sollen sich die Regierung über die „roten Linien“ für künstliche Intelligenz einig werden und ein entsprechendes Abkommen abschließen. Zu diesen Linien gehöre etwa das Imitieren von Menschen oder auch die Selbst-Replikation der Technologie. Zu diesen Zielen sagte Segerie, dass es vor allem um die Prävention gehen solle und nicht um eine Reaktion, wenn ein „schwerwiegender Vorfall“ bereits eingetreten sei. Darunter seien zentrale Risiken zu verstehen wie die großflächige Manipulation von Menschen oder auch eine künstliche erzeugte Pandemie.
Denn je intelligenter die Technologie werde, desto schwieriger würde die Kontrolle. In einer öffentlichen Mitteilung der Initiative wird darauf verwiesen, dass KI bereits stellenweise gefährliches Verhalten gezeigt habe. Das ist auch der Grund, weshalb führende Köpfe, die teilweise sogar an der Entwicklung von künstlicher Intelligenz beteiligt waren, davor warnen. Zusätzlich zu den erwähnten roten Linien formuliert die Initiative auch die Notwendigkeit einer unabhängigen Institution, die deren Einhaltung überwacht und im Zweifel durchsetzt.