
Bild verwendet zur Darstellung | Fotokredit: Reuters
Die spanische Regierung genehmigte am Dienstag (11. März 2025) eine Gesetzesvorlage, die Unternehmen, die von künstlicher Intelligenz (KI) generiert wurden, massive Geldbußen auferlegte, ohne sie als solche ordnungsgemäß zu bezeichnen, um die Verwendung sogenannter “Deepfakes” einzudämmen.
Lesen Sie auch | Big Tech möchte, dass KI reguliert wird. Warum widersetzen sie sich einer kalifornischen AI -Rechnung?
Der Gesetzentwurf verabschiedet Richtlinien aus dem Landmark AI Act der Europäischen Union, das strenge Transparenzverpflichtungen zu KI-Systemen auferlegt, die als Hochrisiko eingestuft wurden, sagte Oscar Lopez, digitaler Transformationsminister Oscar Lopez gegenüber Reportern.

“KI ist ein sehr mächtiges Werkzeug, mit dem unser Leben verbessert oder Fehlinformationen verbreitet und Demokratie angreift”, sagte er.
Spanien gehört zu den ersten EU -Ländern, die die Regeln des BLOC umsetzen, die als umfassender angesehen werden als das System der Vereinigten Staaten, das weitgehend auf der freiwilligen Einhaltung und einem Patchwork staatlicher Vorschriften beruht.
Lopez fügte hinzu, dass alle anfällig für “DeepFake” -Angriffe waren – ein Begriff für Videos, Fotografien oder Audios, die durch AI -Algorithmen bearbeitet oder generiert wurden, aber als real dargestellt werden.
Die spanische Rechnung, die vom Unterhaus genehmigt werden muss, klassifiziert die Nichteinhaltung der ordnungsgemäßen Kennzeichnung von Inhalten von AI-generierten Inhalten als “schwerwiegende Straftat”, die zu Geldstrafen von bis zu 35 Millionen Euro (38,2 Millionen US-Dollar) oder 7% ihres globalen jährlichen Umsatzes führen kann.
Die Sicherstellung, dass die KI-Systeme die Gesellschaft nicht schädigen, hat für die Aufsichtsbehörden keine Priorität, seit OpenAI Chatgpt Ende 2022 vorgestellt hat, was die Benutzer begeisterte, indem sie sie in menschliche Gespräche einbezogen und andere Aufgaben ausführen.
Die Rechnung verbietet auch andere Praktiken, wie die Verwendung unterschwelliger Techniken – Geräusche und Bilder, die nicht wahrnehmbar sind -, um schutzbedürftige Gruppen zu manipulieren. Lopez zitierte Chatbots, die Menschen mit Abhängigkeiten anregen, um Kinder zu spielen oder Spielzeug zu ermutigen, gefährliche Herausforderungen als Beispiele durchzuführen.
Es würde auch Organisationen daran hindern, Menschen durch ihre biometrischen Daten mithilfe von KI zu klassifizieren, sie auf der Grundlage ihres Verhaltens oder ihrer persönlichen Merkmale zu bewerten, um ihnen Zugang zu Leistungen zu gewähren oder ihr Risiko einer Verbrechen zu beurteilen.
Die Behörden dürfen jedoch aus nationalen Sicherheitsgründen in öffentlichen Räumen in öffentlichen Räumen in Echtzeit eingesetzt werden.
Die Durchsetzung der neuen Regeln wird der Auftrag der neu erstellten AI-Aufsichtsbehörde Aesia sein, außer in bestimmten Fällen, in denen Datenschutz, Kriminalität, Wahlen, Kreditbewertungen, Versicherungen oder Kapitalmarktsysteme beteiligt sind, die von ihren entsprechenden Wachhunden überwacht werden.
Veröffentlicht – 13. März 2025 07:54 Uhr IST
Source link