Social-Media-Giganten Meta und X zugelassene Anzeigen, die auf Benutzer in Deutschland mit gewalttätigen Anti-Muslim- und Anti-Juden-Hassreden im Vorfeld der Bundeswahlen des Landes abzielen, laut neuen Untersuchungen von Ekoeine gemeinnützige Kampagnengruppe für Unternehmensverantwortung.
Die Forscher der Gruppe testeten, ob die Ad-Review-Systeme der beiden Plattformen Einreichungen für Anzeigen, die hasserfüllte und gewalttätige Messaging-Minderheiten enthalten, vor einer Wahl, bei der die Einwanderung im Mittelpunkt des politischen Diskurses in den Mainstream-Diskurse eingesetzt wurde, genehmigen oder ablehnen. Forderung, dass Einwanderer in Konzentrationslagern eingesperrt oder vergast werden; und Ai-generierte Bilder von Verbrennung von Moscheen und Synagogen.
Die meisten Testanzeigen wurden innerhalb weniger Stunden nach der Überprüfung Mitte Februar zugelassen. Die Bundeswahlen Deutschlands werden am Sonntag, dem 23. Februar, stattfinden.
Hassreden -Anzeigen geplant
EKO sagte, X genehmigte alle 10 Hass -Rede -Anzeigen, die seine Forscher nur wenige Tage vor den Bundeswahlen eingereicht haben, während Meta die Hälfte (fünf Anzeigen) für das Laufen auf Facebook (und möglicherweise auch Instagram) genehmigte – obwohl es die anderen abgelehnt hatte fünf.
Der Grund, warum Meta für die fünf Ablehnungen vorsah, wies die Plattform an, dass es Risiken politischer oder sozialer Sensibilität geben könnte, die die Abstimmung beeinflussen könnten.
Zu den fünf von Meta zugelassenen Anzeigen gehörten jedoch gewalttätige Hassreden, die muslimische Flüchtlinge mit einem „Virus“, „Verung“ oder „Nagetieren“, die muslimischen Einwanderer als „Vergewaltiger“ brandmarken und sie fordern, sterilisiert, verbrannt oder verankert zu fordern . Meta genehmigte auch eine Anzeige, in der Synagogen angezündet werden sollen, um „die globalistische jüdische Rattenagenda zu stoppen“.
Als Nebenbetreuung sagt Eko, dass keiner der mit AI-generierten Bilder die Hass-Rede-Anzeigen als künstlich erzeugt bezeichnet wurde-und doch die Hälfte der 10 Anzeigen wurde von Meta noch zugelassen, unabhängig davon, wie das Unternehmen eine hatte Richtlinien, die die Offenlegung der Verwendung von AI -Bildern erfordert für Anzeigen über soziale Themen, Wahlen oder Politik.
X genehmigte inzwischen alle fünf dieser hasserfüllten Anzeigen – und weitere fünf, die ähnlich gewalttätige Hassreden auf Muslime und Juden enthielten.
Zu diesen zusätzlichen zugelassenen Anzeigen gehörten Messaging, die „Nagetier“ Einwanderer angreift, von denen die Ad -Kopie behauptete wirtschaftliche Macht.
Die letztere Anzeige wurde mit Ai-erzeugten Bildern kombiniert, die eine Gruppe schattiger Männer darstellten, die an einem Tisch saßen, der von Stapeln von Goldstangen umgeben war, mit einem Davidstern an der Wand über ihnen-mit den Bildern, die sich auch stark in antisemitische Tropen lehnen.
Eine andere zugelassene Anzeige X enthielt einen direkten Angriff auf die SPD, die Mitte-Links eine gewalttätige Antwort aufschlagen. X hat auch ordnungsgemäß eine Anzeige geplant, die darauf hindeutet, dass “Linke” “offene Grenzen” wollen und die Ausrottung von Muslimen “Vergewaltiger” fordern.
Elon Musk, der Eigentümer von X, hat die Social -Media -Plattform genutzt, auf der er fast 220 Millionen Follower hat, um bei den deutschen Wahlen persönlich einzugreifen. In Ein Tweet im DezemberEr forderte die deutschen Wähler auf, die äußerste rechte AFD -Partei zu unterstützen, um „Deutschland zu retten“. Er hat auch einen Livestream mit dem Anführer des AFD, Alice Weidel, auf X. veranstaltet.
Die Forscher von EKO haben alle Testanzeigen deaktiviert, bevor alle zugelassen worden waren, um sicherzustellen, dass keine Benutzer der Plattform der gewalttätigen Hassrede ausgesetzt waren.
Es heißt, die Tests heben grelle Fehler mit dem Ansatz der Anzeigenplattformen zur Moderation von Inhalten hervor. In der Tat ist im Fall X nicht klar, ob die Plattform eine Moderation von Anzeigen durchnimmt, da alle 10 gewalttätigen Hassreden -Anzeigen schnell zur Anzeige zugelassen wurden.
Die Ergebnisse deuten auch darauf hin, dass die Anzeigenplattformen aufgrund der Verteilung gewaltsamer Hassreden Einnahmen erzielen könnten.
EUs Digital Services im Rahmen
Die Tests von EKO deuten darauf hin, dass keine Plattform die Verbote für Hassreden ordnungsgemäß durchsetzen. Darüber hinaus gelangte Eko im Fall von Meta nach dem Dirigieren die gleiche Schlussfolgerung ein ähnlicher Test Im Jahr 2023 vor neuen EU -Online -Governance -Regeln, die vorschlagen, dass das Regime keine Auswirkungen darauf hat, wie es funktioniert.
“Unsere Ergebnisse deuten darauf hin, dass die KI-gesteuerten AD-Moderationssysteme von Meta grundlegend gebrochen bleiben, obwohl das Digital Services Act (DSA) nun in vollem Umfang wirkt”, sagte ein EKO-Sprecher gegenüber TechCrunch.
“Anstatt den AD -Überprüfungsprozess oder die Richtlinien für Hassreden zu stärken, scheint Meta auf ganzer Linie zurückzukehren”, fügten sie hinzu und zeigten auf die Die jüngste Ankündigung des Unternehmens über Rollenmäher und Richtlinien zur Faktenprüfung Als Zeichen der „aktiven Regression“, die sie vorgeschlagen haben, setzt sie auf einen direkten Kollisionskurs mit DSA -Regeln für systemische Risiken ein.
EKO hat seine jüngsten Erkenntnisse der Europäischen Kommission vorgelegt, die die Durchsetzung der wichtigsten Aspekte der DSA auf dem Paar Social -Media -Riesen überwacht. Es sagte auch, dass es die Ergebnisse mit beiden Unternehmen geteilt habe, aber weder antwortete.
Die EU hat DSA -Untersuchungen zu Meta und offenen Untersuchungen Xeinschließlich Bedenken hinsichtlich der Wahlsicherheit und illegalen Inhalte, aber die Kommission hat diese Verfahren noch abgeschlossen. Obwohl, im April Es sagte, es vermutet Meta unzureichender Mäßigung politischer Anzeigen.
Eine vorläufige Entscheidung über einen Teil seiner DSA -Untersuchung zu X, die angekündigt wurde Im Julienthalten den Verdacht, dass die Plattform nicht den Ad -Transparenzregeln der Verordnung entspricht. Die vollständige Untersuchung, die in die Gründung begann Dezember 2023Auch betrifft illegale Inhaltsrisiken, und die EU muss noch keine Ergebnisse zum Großteil der Sonde über ein Jahr später eintreten.
Bestätigte Verstöße gegen die DSA können Strafen von bis zu 6% des globalen jährlichen Umsatzes anziehen, während eine systemische Nichteinhaltung sogar dazu führen kann, dass regionaler Zugang zu Verstößen gegen Plattformen vorübergehend blockiert wird.
Aber vorerst nimmt sich die EU immer noch Zeit, um sich bei den Meta- und X -Sonden zu entscheiden – bis endgültige Entscheidungen – alle DSA -Sanktionen in der Luft bleiben.
Inzwischen dauert es inzwischen nur wenige Stunden, bis die deutschen Wähler in die Umfragen gehen-und eine wachsende Gruppe von Forschungsergebnissen der Zivilgesellschaft deutet darauf hin, dass das Flaggschiff der EU-Online-Governance-Regulierung den demokratischen Prozess der wichtigsten EU-Wirtschaft aus einer Reihe von technisch getriebenen Techs nicht geschützt hat Bedrohungen.
Anfang dieser Woche globaler Zeuge freigegeben Die Ergebnisse von Tests von X und Tiktoks algorithmischen „für Sie“ -Futtermittel in Deutschland, was darauf hindeutet, dass die Plattformen für die Förderung der AFD -Inhalte im Vergleich zu Inhalten anderer politischer Parteien voreingenommen sind. Die Forscher der Zivilgesellschaft haben es auch Beschuldigter X des Blockierens des Datenzugriffs Um zu verhindern, dass sie im Vorfeld der deutschen Umfrage Wahlsicherungsrisiken studieren, soll der Zugriff auf die DSA ermöglichen.
“Die Europäische Kommission hat wichtige Schritte unternommen, indem sie DSA -Ermittlungen sowohl für Meta als auch X eröffnet haben. Jetzt müssen die Kommission starke Maßnahmen ergreifen, um die im Rahmen dieser Ermittlungen ausgestellten Bedenken auszusprechen”, sagte der Sprecher von EKO ebenfalls.
„Unsere Ergebnisse zeigen neben steigenden Beweisen anderer zivilgesellschaftlicher Gruppen, dass Big Tech seine Plattformen nicht freiwillig aufräumen wird. META und X erlauben weiterhin illegale Hassreden, Anstiftungen für Gewalt und Wahl -Desinformation trotz ihrer rechtlichen Verpflichtungen im Rahmen der DSA “, fügte der Sprecher hinzu. (Wir haben den Namen des Sprechers zurückgehalten, um Belästigung zu verhindern.)
„Die Aufsichtsbehörden müssen starke Maßnahmen ergreifen-beide bei der Durchsetzung der DSA, beispielsweise beispielsweise auch bei der Umsetzung von Maßnahmen vor der Wahlen. Dies könnte das Ausschalten von Profile-basierten Empfehlungssystemen unmittelbar vor den Wahlen und die Implementierung anderer angemessener “Break-Glass” -Maßnahmen umfassen, um die algorithmische Verstärkung von Grenzinhalten wie hasserfüllte Inhalte bei den Vor-Up-Wahlen zu verhindern. “
Die Kampagnengruppe warnt auch davor, dass die EU nun Druck der Trump -Verwaltung ausgesetzt ist, ihren Ansatz zur Regulierung von Big Tech zu mildern. “Im gegenwärtigen politischen Klima besteht die wirkliche Gefahr, dass die Kommission diese neuen Gesetze nicht vollständig als Konzession für die USA durchsetzt”, schlägt sie vor.
Source link