- IPROOV -Studie findet ältere Erwachsene am meisten mit Deepfakes kämpfen
- Falsches Vertrauen ist in der jüngeren Generation weit verbreitet
- Social Media ist ein Deepfake -Hotspot, warnen Experten
Da die DeepFake -Technologie weiter voranschreitet, Bedenken hinsichtlich Fehlinformationen, Betrug und Identitätsdiebstahl wachsen dank der Alphabetisierung in KI -Werkzeuge auf einem verblüffenden Tiefststand sein.
Eine aktuelle IPROOV -Studie Behauptungen, die meisten Menschen haben Schwierigkeiten, DeepFake -Inhalte von der Realität zu unterscheiden, da 2.000 Teilnehmer aus Großbritannien und die USA einer Mischung aus Real und ausgesetzt waren AI-generierte Bilder und Videos, die nur 0,1% der Teilnehmer – zwei ganze Menschen – korrekt zwischen realen und Deepfake -Stimuli unterschieden.
Die Studie ergab, dass ältere Erwachsene besonders anfällig für Täuschungen mit AI-generierten Täuschungen sind. Rund 30% der 55-64 im Alter von 55 bis 64 Jahren und 39% der über 65 Jahre hatten noch nie von Deepfakes gehört. Während jüngere Teilnehmer sicherer in ihrer Fähigkeit waren, DeepFakes zu erkennen, verbesserte sich ihre tatsächliche Leistung in der Studie nicht.
Ältere Generationen sind anfälliger
DeepFake-Videos waren signifikant schwerer zu erkennen als Bilder, fügte die Studie hinzu, da die Teilnehmer 36% weniger wahrscheinlich ein gefälschtes Video im Vergleich zu einem Bild identifizierten, was Bedenken hinsichtlich Videobasierter Betrug und Fehlinformationen aussprach.
Social -Media -Plattformen wurden als Hauptquellen für Deepfake -Inhalte hervorgehoben. Fast die Hälfte der Teilnehmer (49%) identifizierte Meta -Plattformen, einschließlich Facebook und Instagram, als die häufigsten Orte, an denen Deepfakes gefunden werden, während 47% auf Tiktok hinwiesen.
“(Dies unterstreicht), wie verletzlich sowohl Organisationen als auch Verbraucher für die Bedrohung durch Identitätsbetrug im Zeitalter der Deepfakes sind”, sagte Andrew Bud, Gründer und CEO von IProov.
“Kriminelle nutzen die Unfähigkeit der Verbraucher, Real von gefälschten Bildern zu unterscheiden, die persönliche Informationen und die finanzielle Sicherheit gefährden zu lassen.”
Bud fügte hinzu, selbst wenn die Leute ein Deepfake vermuten, ergreifen die meisten keine Maßnahmen. Nur 20% der Befragten gaben an, dass sie eine mutmaßliche DeepFake melden würden, wenn sie online auf einen gestoßen würden.
Da Deepfakes immer anspruchsvoller werden, ist IProov der Ansicht, dass die menschliche Wahrnehmung allein nicht mehr zur Erkennung zuverlässig ist, und Bud betonte die Notwendigkeit biometrischer Sicherheitslösungen mit Erkennung von Lebendigkeit, um die Gefahr einer immer überzeugenden Tieffake -Material zu bekämpfen.
„Es liegt an Technologieunternehmen, ihre Kunden durch die Durchführung robuster Sicherheitsmaßnahmen zu schützen“, sagte er. Bedrohungen.”