Auf der einen Seite stehen Überschriften wie „KI-Einsatz revolutioniert die Geschäftswelt“ und „Wie Künstliche Intelligenz den Krebs besiegen soll“, auf der anderen heißt es: „KI bedroht die Menschheit“ oder „KI so gefährlich wie Pandemien oder Atomkrieg“. Diese realen Überschriften fassen die Diskussion über KI schon recht gut zusammen. Es gibt Heilsversprechen und düstere Dystopien, dazwischen ist – so wirkt es zumindest – erstaunlich wenig Platz. Außerdem fällt auf: Oft wird die KI dargestellt wie ein Wesen, das selbstständig handelt.
Das beeinflusst auch die Art und Weise, wie Politiker*innen versuchen, diese sogenannte Künstliche Intelligenz zu regulieren. Es geht um die Zähmung dieses wunderlichen Dings, oft als Reaktion auf aktuelle Ereignisse, Angst vor demokratiezersetzender Desinformation vor Wahlen beispielsweise. Oder um Chancen, die man nutzen muss, ganz alternativlos.
Ich würde mir wünschen, wir würden in dieser ganzen Diskussion drei Punkte beachten.
Erstens: Lasst uns genauer sagen, worüber wir reden, wenn wir über „die KI“ sprechen. Geht es um die großen Sprachmodelle wie ChatGPT und Co. oder Bildgeneratoren, die uns auf Aufforderung schnell mit jeder Menge plausibel aussehenden Inhalten versorgen? Geht es um Mustererkennung, die dabei helfen kann, in einer Fabrik Fehler zu erkennen oder auf Röntgenbildern Auffälligkeiten zu entdecken? Geht es um automatisierte Entscheidungssysteme, die irgendwann bestimmen sollen, ob ein Mensch Asyl bekommt oder seine Sozialleistungen gekürzt werden?
Außerdem ist es wichtig, welche Verfahren hinter einem System stecken. Ist es ein super-komplexes neuronales Netz, wo es für die Anwender*innen schwer durchschaubar ist, wie aus einer Eingabe eine bestimmte Ausgabe zustande kommt? Oder gleicht die Anwendung doch einem simplen Entscheidungsbaum wie: Wenn die Raumtemperatur geringer als 18° C ist und der Nutzer mit dem Handy „Frostbeules Smartphone“ im WLAN eingeloggt ist, schalte die Heizung an?