In sozialen Netzwerken profitieren rechte Gruppen von Verschwörungsmythen und Falschinformationen zu den Themen Corona, Ukraine-Krieg oder Klimawandel. Hier verstärken die Algorithmen verschiedener Plattformen dessen Reichweite und Vernetzung. Demnach kann eine Meinungsbildung durch algorithmische Mechanismen in sozialen Netzwerken stark beeinflussen, auch durch das Teilen übereinstimmender Beiträge in Gruppen oder von einzelnen Influencer*innen. Nicht nur diskriminierende Algorithmen sozialer Netzwerke, auch marktführende Bild- und Sprachmodelle, wie die von OpenAI, spielen eine immer größere Rolle. Durch die Kommerzialisierung dieser, wird es einfacher Sprach-Roboter (Chat-Bots) zu erstellen, welche automatisiert Falschinformationen auf Basis rechter verschwörungsideologischer Gruppen verbreiten. Obwohl die Trainingsdaten der Sprachmodelle (z.B. GPT-2, GPT-3) Bezug auf alte Diskurse nehmen und somit eigentlich nicht mit dem aktuellen Sprachgebrauch mithalten können, ändert sich dies mit der individuellen Trainingsmöglichkeit. Das vortrainierte Modell GPT-3 kann über das Interface von OpenAI keine rassistischen, antisemitischen oder sexistischen Aussagen generieren. KI-gestützte Tools sind schon jetzt zu einem starken politischen Instrument geworden. Genau diese Technologien werden von Gruppen, Parteien und Organisationen verwendet um beispielsweise Desinformationen zu verbreiten (Deepfakes, AFD-Bot, etc).
Autor/innen:
Benita Martis
Eine Produktion der Kunsthochschule für Medien Köln
Wir verwenden Cookies, um die einwandfreie Funktion unserer Website zu gewährleisten und unseren Datenverkehr zu analysieren.
Nähere Informationen finden Sie in unserer Datenschutzerklärung