Studie über Tiktok, x ‘für dich’ Feeds in Deutschland findet weit rechte politische Vorurteile vor den Bundeswahlen


Empfehlungsalgorithmen, die von Social -Media -Giganten Tiktok und X betrieben wurden Neue Forschung durchgeführt von Globaler Zeuge.

Die Nichtregierungsorganisation (NGO) führte eine Analyse von Social-Media-Inhalten durch, die neue Benutzer über algorithmisch sortierte “für Sie” -Feeds angezeigt wurden-und fand beide Plattformen, die stark zu verstärken sind, die die rechte AFD-Partei in algorithmisch programmierten Feeds begünstigen.

Die Tests des globalen Zeugen identifizierten die extremste Verzerrung von Tiktok, bei denen 78% der politischen Inhalte, die algorithmisch für seine Testkonten empfohlen wurden, und von den Konten stammten, die die Testbenutzer nicht folgten, unterstützte die AFD -Partei. (Diese Zahl stellt fest, dass die Unterstützung, die die Partei in der aktuellen Umfrage erreicht, bei weitem die Unterstützung von rund 20% der deutschen Wähler anzieht.)

Auf X stellte Global Witness fest, dass 64% dieser empfohlenen politischen Inhalte die AFD unterstützten.

Testen auf allgemeine links- oder rechtsgerichtete politische Voreingenommenheit in den algorithmischen Empfehlungen der Plattformen deuten darauf hin, dass unparteiische Social-Media-Nutzer in Deutschland mehr als doppelt so viel Inhalte in den rechtsgerichteten Inhalten ausgesetzt sind wie linksgerichtete Inhalte in der führen zu den Bundeswahlen des Landes.

Auch hier zeigte Tiktok laut Erkenntnissen den größten rechten Schiefel und zeigte 74% der Fälle rechtsgerichtete Inhalte. Obwohl X nicht weit zurück war – bei 72%.

Das Instagram von Meta wurde ebenfalls getestet und sich über eine Reihe von drei Tests, die die NGO leitete, nach rechts lehnt. Aber die in den Tests gezeigte politische Verzerrung war niedriger, wobei 59% des politischen Inhalts rechtsgerichtet waren.

Testen Sie “für Sie” auf politische Vorurteile

Um zu testen, ob die algorithmischen Empfehlungen der Social-Media-Plattformen politische Verzerrungen aufwiesen, haben die Forscher der NGOs drei Konten auf Tiktok und X sowie weitere drei auf meta-Eigentumsinstagram eingerichtet. Sie wollten den Geschmack von Content-Plattformen feststellen, die für Benutzer fördern würden, die ein überparteiliches Interesse am Konsum von politischen Inhalten zum Ausdruck brachten.

Um als unparteiische Benutzer zu präsentieren Die Konten ihrer jeweiligen Führer (Friedrich Merz, Olaf Scholz, Alice Weidel, Robert Habeck).

Die Forscher, die die Testkonten betreiben Zeuge.

Anschließend sammelten und analysierten sie den Inhalt, den jede Plattform auf den Testkonten drückte, und stellten fest, dass es einen erheblichen rechten Schuss in dem, was algorithmisch für Benutzer vorangetrieben wurde, einen erheblichen rechten Schuss gab.

“Eines unserer Hauptanliegen ist, dass wir nicht wirklich wissen, warum wir die besonderen Inhalte vorgeschlagen haben, die wir waren”, sagte Ellen Judson, ein hochrangiger Aktivist, der sich mit digitalen Bedrohungen für den globalen Zeugen befasste, gegenüber TechCrunch in einem Interview. “Wir haben diese Beweise gefunden, die voreingenommen werden, aber es gibt immer noch einen Mangel an Transparenz von Plattformen darüber, wie ihre Empfehlungssysteme funktionieren.”

„Wir wissen, dass sie viele verschiedene Signale verwenden, aber genau wie diese Signale gewichtet werden und wie sie bewertet werden, wenn sie bestimmte Risiken erhöhen oder die Verzerrung erhöhen könnten, ist nicht sehr transparent“, fügte Judson hinzu.

“Meine beste Schlussfolgerung ist, dass dies eine Art unbeabsichtigte Nebenwirkung von Algorithmen ist, die auf dem Anstieg des Engagements basieren”, fuhr sie fort. “Und das ist das, was passiert, wenn Unternehmen im Wesentlichen Unternehmen für die Maximierung des Benutzers auf ihren Plattformen zu diesen Räumen für demokratische Diskussionen werden – es gibt einen Konflikt zwischen kommerziellen Imperativen und öffentlichem Interesse und demokratischen Zielen.”

Die Ergebnisse verfolgen mit anderen Social Media Research Global Witness in den jüngsten Wahlen in der UNSAnwesend Irland Und Rumänien. In der Tat haben verschiedene andere Studien in den letzten Jahren auch Hinweise darauf gefunden, dass Social -Media -Algorithmen recht Dieses Forschungsprojekt im letzten Jahr untersucht YouTube.

Sogar den ganzen Weg Zurück im Jahr 2021Eine interne Studie von Twitter-wie X früher, bevor Elon Musk die Plattform kaufte und umbenannt wurde-ergab, dass seine Algorithmen mehr rechtsgerichtete Inhalte als links fördern.

Trotzdem versuchen Social -Media -Firmen in der Regel, von Vorwürfen der algorithmischen Vorurteile zu tanzen. Nachdem globaler Zeuge seine Ergebnisse mit Tiktok geteilt hatte, schlug die Plattform vor, dass die Methodik der Forscher fehlerhaft war – argumentierte, es sei nicht möglich, Schlussfolgerungen der algorithmischen Verzerrung aus einer Handvoll Tests zu ziehen. “Sie sagten, dass es für reguläre Benutzer nicht repräsentativ sei, weil es nur wenige Testkonten waren”, bemerkte Judson.

X reagierte nicht auf die Ergebnisse des globalen Zeugen. Aber Musk hat darüber gesprochen, dass die Plattform allgemein ein Hafen für Redefreiheit wird. Obwohl dies tatsächlich seine Coda für die Förderung einer rechtsgerichteten Agenda sein kann.

Es ist sicherlich bemerkenswert, dass der Eigentümer von X die Plattform verwendet hat, um für die AFD persönlich zu kampagnen, bei den bevorstehenden Wahlen die Deutschen zu drängen, für die äußerste rechte Partei zu stimmen, und ein Livestream -Interview mit Weidel vor der Umfrage zu veranstalten – eine Veranstaltung, die geholfen hat das Profil der Partei erhöhen. Musk hat das am meisten folgende Konto auf X.

In Richtung algorithmischer Transparenz?

“Ich denke, der Transparenzpunkt ist wirklich wichtig”, sagt Judson. “Wir haben Musk über die AFD gesprochen und viel Engagement für seine eigenen Beiträge über die AFD und den Livestream (mit Weidel) … (aber) wir wissen nicht, ob es tatsächlich eine algorithmische Veränderung gegeben hat, die dies widerspiegelt.”

“Wir hoffen, dass die Kommission (unsere Ergebnisse) als Beweis für die Untersuchung von Untersuchungen nehmen wird oder warum diese Voreingenommenheit möglicherweise vor sich geht” Durchsetzung der algorithmischen Rechenschaftsregeln des BLOC auf großen Plattformen.

Untersuchen Sie, wie proprietäre Inhalts-Sortieralgorithmen eine Herausforderung sind, da Plattformen in der Regel solche Details unter Verschluss behalten-und diese Code-Rezepte als kommerzielle Geheimnisse beanspruchen. Aus diesem Grund hat die Europäische Union das Digital Services Act (DSA) in den letzten Jahren – ihr Flaggschiff -Online -Governance -Regelbuch – erlassen, um diese Situation zu verbessern, indem sie Schritte zur Stärkung der Forschung im Bereich demokratischer und anderer systemischer Risiken für das öffentliche Interesse auf wichtigen Plattformen, einschließlich Instagram , Tiktok und X.

Die DSA enthält Maßnahmen, um wichtige Plattformen zu veranlassen, transparenter darüber zu sein, wie ihre Informationsformalgorithmen funktionieren, und um auf systemische Risiken zu reagieren, die auf ihren Plattformen auftreten können.

Obwohl das Regime bereits im August 2023 die drei Tech -Giganten auftrat, stellt Judson fest, dass einige Elemente davon noch nicht vollständig umgesetzt werden müssen.

Insbesondere ist Artikel 40 der Verordnung, der es ermöglichen soll, überprüfte Forscher den Zugang zu nicht öffentlichen Plattformdaten, um systemische Risiken zu untersuchen das Stück des Gesetzes.

Der Ansatz der EU mit Aspekten der DSA ist auch eine, die sich auf die selbstberichtenden Risiken und Durchsetzer der Plattformen stützt und dann ihre Berichte empfangen und überprüft. Daher ist die erste Gruppe von Risikoberichten von Plattformen möglicherweise die schwächste in Bezug auf die Offenlegungen, da Judson vorschlägt, da die Durchsetzer Zeit benötigen, um Offenlegungen zu analysieren, und wenn sie der Meinung sind, dass es Defizien gibt, plattieren Plattformen für umfassendere Berichterstattung.

Im Moment – ohne einen besseren Zugang zu Plattformdaten – sagt sie, dass Forscher von öffentlichem Interesse immer noch nicht sicher wissen können, ob in den sozialen Mainstream -Social Media voreingenommen wird.

„Die Zivilgesellschaft beobachtet wie ein Falken, wenn der Zugang zu dem überprüften Forscher verfügbar ist“, fügt sie hinzu und hofft, dass dieses Stück des Puzzle des öffentlichen Interesses von DSA in diesem Quartal einrichten wird.

Die Verordnung hat es nicht geschafft, schnelle Ergebnisse zu liefern, wenn es um Bedenken an soziale Medien und demokratische Risiken geht. Der Ansatz der EU kann letztendlich auch als zu vorsichtig erwiesen werden, um die Nadel so schnell zu bewegen, wie sie sich bewegen muss, um mit algorithmisch verstärkten Bedrohungen Schritt zu halten. Es ist aber auch klar, dass die EU daran interessiert ist, Risiken zu vermeiden, beschuldigt zu werden, die Meinungsfreiheit zu krimpfen.

Die Kommission hat offene Ermittlungen zu allen drei Social -Media -Unternehmen, die von der globalen Zeugenforschung beteiligt sind. In diesem Wahlintegritätsbereich gab es bisher jedoch keine Durchsetzung. Allerdings Kürzlich die Prüfung von Tiktok zur Verfügung gestellt – Und eröffnete ein frisches DSA – Nach Anliegen der Plattform, die eine wichtige Leitung für die Wahl der russischen Wahl bei den Präsidentschaftswahlen in Rumänien darstellt.

“Wir bitten die Kommission, zu untersuchen, ob es politische Vorurteile gibt”, fügt Judson hinzu. „(Die Plattformen) sagen, dass es nicht gibt. Wir fanden Beweise dafür, dass es sein kann. Wir hoffen also, dass die Kommission ihre erhöhten Informationsbefugnisse (-Schather) einsetzen würde, um festzustellen, ob dies der Fall ist, und… das, wenn dies der Fall ist. “

Die Pan-EU-Verordnung ermöglicht Durchsetzer, Strafen von bis zu 6% des globalen jährlichen Umsatzes für Verletzungen zu erhöhen, und blockieren sogar den Zugang zu Verstoß gegen Plattformen, wenn sie sich weigern, sich zu beachten.



Source link