Antonia Giebisch: Adeoso, Marie-Sophie; Berendsen, Eva; Fischer, Leo & Schnabel, Deborah (Hrsg.) (2024). Code und Vorurteil. Über Künstliche Intelligenz, Rassismus und Antisemitismus. Berlin: Verbrecher Verlag. 200 S., 20,00 €.
Über künstliche Intelligenz, Rassismus und Antisemitismus
Adeoso, Marie-Sophie; Berendsen, Eva; Fischer, Leo & Schnabel, Deborah (Hrsg.) (2024). Code und Vorurteil. Über Künstliche Intelligenz, Rassismus und Antisemitismus. Berlin: Verbrecher Verlag. 200 S., 20,00 €.
Kann Künstliche Intelligenz die Demokratie und die Vielfalt der Gesellschaft gefährden? Wie trägt KI zu Diskriminierung und gesellschaftlichem Ausschluss bei? Mit diesen und vielen weiteren Fragen setzen sich die Autor*innen des vierten Bands der Edition Bildungsstätte Anne Frank in ihrem Buch Code und Vorurteil auseinander. Dies erfolgt aus ganz unterschiedlichen Perspektiven – zum Beispiel aus der Psychologie, der Kommunikationswissenschaft, der Kunst und der Informatik. In der Einleitung werden zum einen die Chancen erwähnt, wie KI zu einer gerechteren Gesellschaft beitragen kann. Zum anderen wird auch die Möglichkeit benannt, dass mit KI gesellschaftliche Ungleichheiten fortgeschrieben werden können. Somit verdeutlichen die Autor*innen von Beginn an die Vielschichtigkeit der Entwicklungen.
Im ersten Teil des Buches wird die Funktionsweise von KI-Systemen erläutert, was besonders für diejenigen, die sich zuvor nicht ausführlich mit dem Thema beschäftigt haben, den Einstieg erleichtert. Es werden die Unterschiede zwischen regelbasierten und lernenden Algorithmen sowie die Funktionsweisen von Automated Decision Making (ADM)-Systemen erklärt. Durch konkrete Fallbeispiele wird der Inhalt verständlich und zugänglich. Es wird deutlich gemacht, dass unbewusste Vorurteile, strukturelle Ungleichheit und Diskriminierung, die in der Gesellschaft verbreitet sind, sich auch in ADM-Systemen wiederfinden, da diese von Menschen ‚gefüttert‘ werden.
Im weiteren Verlauf werden die Gefahren des interaktiven Webs behandelt und es wird über Veränderungen durch Online-Umgebungen aufgeklärt. Zudem wird erklärt, was Large Language KI Models sind und warum KI antisemitische Hassrede nicht einordnen kann. Den Leser*innen werden auch Möglichkeiten zur Eingrenzung antisemitischer Hassrede im Netz aufgezeigt. Jedoch wird betont, dass Künstliche Intelligenz nicht aktiv gegen Rassismus vorgehen, sondern ihn lediglich durch Löschen und Kennzeichnen weniger sichtbar machen kann. Auch die Themen Augmented Reality Filter und Bildgeneration durch Künstliche Intelligenz werden besprochen. Es wird aufgezeigt, dass bei der Bildgenerierung der Hautton von Benutzer*innen verändert wird und Inhalte von Frauen automatisch in einer sexualisierten Weise wiedergegeben werden. Darüber hinaus tragen AR-Filter zur Reproduktion von Diskriminierung bei, indem stereotype Schönheitsideale durch ihre Verwendung verstärkt in den Fokus der Aufmerksamkeit gerückt werden. Es werden außerdem prädikative Algorithmen und algorithmische Prädiktionen behandelt und deren Auswirkungen erläutert. Anschließend wird die Rolle Künstlicher Intelligenz im Kontext ökonomischer Strukturen näher betrachtet.
Im zweiten Teil erfolgt eine umfassende Auseinandersetzung mit KI im Metaverse und wie sie dort die Demokratie gefährden kann. Anschließend wird der Missbrauch von KI durch Rechtsextremist*innen behandelt, die Propaganda und Desinformationen in den Algorithmus einpflegen. Es wird sich auch mit der Frage befasst, ob KI Verschwörungstheorien und Desinformation verstärkt und wie man mit Hilfe von KI Desinformation identifizieren kann.
Spannend ist das Kapitel Die Dividende der Lüge, das von einer KI generiert wurde, was aber erst ganz am Ende aufgelöst wird. Effekt dessen könnte sein, dass Rezipierende nach der Auflösung vermehrt Texte bezüglich ihrer ‚Echtheit‘ hinterfragen. Diese raffiniert gestaltete Passage wird mit gesellschaftskritischen Fragen abgerundet.
Im darauffolgenden Kapitel wird verstärkt auf die Rolle von KI im Kontext historischer Aufarbeitung eingegangen. Durch die Fähigkeit der KI, Videos sprechender Personen nur auf Basis von Bildern und Texten zu generieren, eröffnet sich die Möglichkeit, einen immersiven Zugang zur Geschichte zu erhalten. Problematisch wird dies laut Deborah Schnabel, Leiterin der Bildungsstätte Anne Frank, bei „Rezipient*innen mit wenig Vorwissen und geringer Medienkompetenz, die diesen Videos in informellen Settings wie den sozialen Medien begegnen“ (S. 150).
Im dritten Teil der Publikation wird in einem Interview mit Filmemacherin und Autorin Hito Steyerl inhaltlich vertieft, dass gesellschaftliche Haltungen sich immer auch in der Künstlichen Intelligenz widerspiegeln. Demnach kann eine einfache Zensur von Vorurteilen nicht die Lösung sein. Stattdessen muss sich die Gesellschaft von Grund auf gegen Vorurteile immunisieren.
Im Kapitel Utopien für Milliardäre wird das Konzept des Effective Altruism erklärt. Hierbei handelt es sich um die Überzeugung, dass das Glück einer großen Anzahl potenzieller Menschen in der Zukunft das Unglück der gegenwärtigen realen Menschheit wert sei. Die Tech-Milliardär*innen, die in dieses Projekt investieren, erhoffen sich davon digitale Unsterblichkeit sowie KI-gestützten Wohlstand.
Zum Abschluss erfolgt in neun Thesen eine Zusammenfassung und es wird auf bestimmte Schwerpunkte noch einmal näher eingegangen. Dabei wird unter anderem der Schluss gezogen, dass KI zwar das Potenzial für eine bessere Zukunft biete, jedoch durch Kapitalismus und Ungleichheit geprägt sei. Es wird dafür plädiert, den humanistischen Anspruch an KI für alle zu stellen, auch wenn technische Aspekte eher den Tech-Expert*innen vorbehalten seien.
Code und Vorurteil spricht Leser*innen unabhängig von ihrem Vorwissen zum Thema KI an. Durch klare Erklärungen der Funktionsweisen und die Veranschaulichung zahlreicher Beispiele im Alltagskontext vermittelt es ein umfangreiches Wissen und ist eine Empfehlung für alle, die ihr Verständnis von Künstlicher Intelligenz vertiefen und den humanistischen Anspruch daran für alle geltend machen wollen.
Zurück