Chaymaa Zimame
Beiträge in merz
Chaymaa Zimame: TikTok als (Des-)Informationsraum für Jugendliche
Fast 20 Prozent der Suchergebnisse auf TikTok sind laut Untersuchungen von Newsguard Fehlinformationen. Dies ist besonders kritisch, wenn man bedenkt, dass TikTok mittlerweile eine der meistgenutzten audiovisuellen Plattformen im Netz ist und hauptsächlich von Jugendlichen genutzt wird. Immer häufiger werden auf der App politische Inhalte verbreitet. Dies ermöglicht jungen Menschen einerseits, sich zu informieren und an politisch-gesellschaftlichen Debatten zu partizipieren, andererseits birgt dies aber auch die Gefahr, dass Desinformation, Hasspropaganda und Verschwörungstheorien weiterverbreitet werden können. Denn TikTok bietet aufgrund seiner plattformspezifischen Logik die idealen Bedingungen für antidemokratische Akteur*innen. Der Algorithmus bevorzugt skandalöse und provokante politische Inhalte – die Emotionen wie Empörung und Angst auslösen – vor solchen, die schlichte und nüchterne Informationen verbreiten. Polarisierende Inhalte generieren die meiste Aufmerksamkeit und weisen die höchste Interaktionsrate auf. Zudem gehört zur Logik der App, dass Nutzer*innen nur noch personalisierte Inhalte auf der Startseite angezeigt bekommen und damit in sogenannte Filterblasen geraten können. Diese kontinuierliche Bestätigung kann zu einer Radikalisierung der eigenen Meinung führen.
Die Amadeu Antonio Stiftung hat deshalb eine Handreichung veröffentlicht, die sich genau mit diesen Themen beschäftigt. Es werden unter anderem konkrete Handlungsempfehlungen zum Umgang mit Hass und Desinformation auf TikTok diskutiert, mit einem besonderen Fokus auf Jugendliche und die Jugendarbeit. Denn oft fehlt es Multiplikator*innen der sozialen, pädagogischen und bildungspolitischen Arbeit an konkreten Handlungsempfehlungen zum Umgang mit Verschwörungserzählungen und Hassrede in Sozialen Medien. Vor allem in Bezug auf TikTok als jüngste der relevanten Plattformen herrschen häufig noch Berührungsängste und Wissenslücken. Deshalb werden in der Broschüre auch grundlegende Funktionen und Mechanismen von TikTok erklärt. Zu den darüber hinaus gegebenen Handlungsanregungen gehören die Thematisierung von Sozialen Medien samt ihrer Chancen und Gefahren, beispielsweise anhand des sogenannten Dagstuhl-Dreiecks, die Förderung der Kompetenzen Jugendlicher im Bereich der Recherche und der Informationsbewertung, um Desinformation erkennen und richtigstellen zu können und Aktivitäten zur Vorbeugung von Fehlinformation (Prebunking).
Chaymaa Zimame: Safenet - Bekämpfung von Online-Hassrede
Von Februar bis März 2023 meldete jugendschutz.net im Rahmen des Projekts SafeNet 49 Fälle von Hassrede (Instagram: 11, Facebook: 3, TikTok: 11, Twitter: 23 und YouTube: 1). Dabei handelte es sich meistens um Glorifizierungen des Nationalsozialismus (47 %), Hassrede gegen nicht-religiöse Menschen (18 %) und gegen Geflüchtete (14 %). SafeNet: Monitoring and Reporting for Safer Online Environments ist ein von der EU gefördertes Projekt mit dem Ziel der Bekämpfung von Online-Hassrede. Das Projekt wird von jugendschutz.net gemeinsam mit anderen europäischen Partnerorganisationen durchgeführt, die unter anderem Trusted Flaggers sind, das heißt, institutionalisierte Melder. Im Rahmen des Monitorings in Deutschland wurden 55 Prozent der gemeldeten Fälle innerhalb von 24 Stunden von den Plattformen geprüft. Inhalte, die eine Woche nach der Erstmeldung nicht gelöscht wurden, wurden erneut über die Trusted Flagger-Wege gemeldet. Diesmal lag die Prüfquote bei 94 Prozent. Insgesamt wurden 92 Prozent der gemeldeten Inhalte gelöscht, nur auf Twitter und Instagram blieben vereinzelte Meldungen ohne Feedback. Da Heranwachsende viel Zeit in und mit Online Medien verbringen, ist es auch sehr wahrscheinlich, dass sie Formen von Hassrede begegnen. Studien zeigen, dass Online-Hassrede negative psychologische Auswirkungen wie Angstzustände, Depressionen und ein geringes Selbstwertgefühl bei den Betroffenen verursachen kann. Menschen können sich aus Angst vor Cybermobbing und digitaler Ausgrenzung zurückziehen und weniger am öffentlichen Diskurs teilnehmen, was wiederum zu einer Einschränkung der Meinungsfreiheit sowie zu einer Verzerrung der öffentlichen Meinungsbildung beitragen kann. Auf gesellschaftlicher Ebene kann Online-Hassrede zu einer Verstärkung von Vorurteilen und Diskriminierung gegenüber bestimmten Gruppen sowie zur Polarisierung der Gesellschaft führen. Daher ist der Einsatz koordinierter Projekte zur Überwachung Sozialer Medien wie SafeNet enorm wichtig, um sichere digitale Räume zu schaffen. Denn freie Meinungsäußerung beinhaltet nicht das Recht, Hassrede, Beleidigungen oder andere Formen rechtswidriger Äußerungen zu verbreiten.
Chaymaa Zimame: Friedrich, Jörg Phil (2023). Degenerierte Vernunft. Künstliche Intelligenz und die Natur des Denkens. München: Claudius. 125 S., 20,00 €.
Dank der raschen Fortschritte in den Bereichen maschinelles Lernen und Datenanalyse kann Künstliche Intelligenz (KI) heutzutage komplexe Aufgaben ausführen und hochwertige Ergebnisse liefern. Beispielsweise können KI-Systeme Bilder, Videos und Texte erstellen, Musikstücke komponieren, komplexe Probleme angehen sowie menschliche Sprache erkennen und darauf antworten. Dafür müssen sie nicht einmal denken können, sie benötigen, wie der Autor Jörg Phil Friedrich argumentiert, „kein Bewusstsein, keine Intuitionen, keine moralischen oder ästhetischen Fähigkeiten” (S. 56), denn sie können all das „auf der Basis von Algorithmen und formalen Methoden der Datenverarbeitung vollbringen” (ebd.). Angesichts dieser technologischen Entwicklung fürchten viele Menschen die Entwertung ihrer Leistungen oder sogar, durch KI ersetzt zu werden und ihren Arbeitsplatz zu verlieren. Dies wirft eine paradoxe Frage auf: Was hat dazu geführt, dass wir KI-Produkte oft als weit besser und heranwachsender ansehen als Produkte, die direkt von Menschen angefertigt wurden? Schließlich werden die KI-Systeme von Menschen programmiert. Dem widmet sich die Publikation Degenerierte Vernunft mit dem Ziel, den Begriff der KI zu hinterfragen und den Begriff der natürlichen menschlichen Vernunft klarer zu definieren. In neun Kapiteln erklärt Friedrich in einem wunderbar leicht verständlichen und mit Beispielen gespickten Schreibstil, der bisweilen einem Bewusstseinsstrom ähnelt, wie KI im Laufe der Jahrzehnte entstanden ist, wie sie funktioniert und was sie von der natürlichen menschlichen Vernunft unterscheidet. Dem Autor ist es besonders wichtig zu betonen, dass KI und menschliche Vernunft nicht miteinander vergleichbar sind. Das vernünftige Denken eines Menschen läuft nach anderen Prinzipien ab. Wir Menschen suchen in unserem Räsonieren über Ideen und Dinge nach einem Sinn. KI kann dies nicht und muss es auch nicht. „Besinnung, Nachsinnen, Sinnieren, Einkehr, Reflexion, Räsonieren: Das ist, was die natürliche menschliche Vernunft ausmacht“ (S. 106). Erst wenn wir verstehen, woraus menschliche Vernunft besteht, können wir sie von KI ausgrenzen und erkennen, wie wir mit dieser technologischen Entwicklung umgehen können.