Über Künstliche Intelligenz, Rassismus und Antisemitismus
Je mehr KI in den Mainstream rückt, wächst das Bewusstsein dafür, dass Technologie Auswirkungen auf die Demokratie und unsere demokratische Zukunft hat. Die Aufgabe der politischen Bildung muss hierbei sein, zur Befähigung von Bürger*innen beizutragen, indem sie Technologie und ihre (intendierte) soziale Wirkung zum Gegenstand macht, die Governance des Digitalen in den Fokus nimmt, wie auch die politischen, wirtschaftlichen und sozialen Leitbilder, entlang denen sich die Transformation entwickelt.
Etwas enttäuschend ist vor diesem Hintergrund, dass die intensiven, anspruchsvollen Debatten und Vorhaben europäischer und nationaler Digitalpolitiken nicht in den überwiegend sehr interessanten Beiträgen des Sammelbandes Berücksichtigung gefunden haben.
Der Band ist in drei Abschnitte unterteilt: Der erste Abschnitt zu „KI & strukturelle Ungleichheit“ stellt grundlegende Fragen. Hier überwiegt kundige Skepsis wie „Tech ist nicht nutzlos – aber auch nicht die Lösung“ (Asghari/Zueger). Geuter argumentiert, „warum KI-Anwendungen keine Alliierten sein können“, beziehungsweise, warum der Big-Data-Ansatz an sich problematisch sei und KI-Systeme strukturell nicht diskriminierungssensibel gestaltet werden könnten. Denn in Modellen werde eine Situation soweit vereinfacht, dass sie „in ein mathematisches Problem übersetzt werden kann“ (Wulf). Automation BIAS ließe uns den (menschengemachten) Modellen zu sehr vertrauen. ChatGPT erzeuge lediglich ein „verschwommenes JPG des Internets“ (Geuter, Chiang zitierend). Allgemein auf KI bezogen bedeutet dies: Erst wird mit viel Aufwand ein wenig nuanciertes und verzerrtes Bild der Wirklichkeit erzeugt (und wie Wulf hervorhebt: wesentlich durch Daten der Vergangenheit vorbestimmt), auf dessen Basis womöglich zu weitreichende Schlüsse für die Gegenwart und Zukunft gezogen werden.
Beckers Haltung umreißt am Beispiel Online-Antisemitismus ein Dilemma: KI und Algorithmen sind Brandbeschleuniger und Auslöser von Hasswellen. Gleichzeitig benötigt man KI für das Monitoring von Onlinehass und zu seiner Eingrenzung und Verfolgung. Wulf führt kenntnisreich in die KI automatisierter Entscheidungssysteme ein. Mundt stellt Fragen an die Möglichkeit von Kontingenz in einer KI-geprägten Kultur. Bulambo weist darauf hin, dass BIAS und Diskriminierung im Programmierprozess beginnen.