
Kriminelle können KI -Bilder ausnutzen, um überzeugende Deepfakes von Opfern zu erstellen und ihre Lieben zu täuschen (Datei) | Fotokredit: Reuters
Die Geschichte bisher: Sie haben vielleicht erhalten Mehrere Warnungen Ihrer Banken und anderen Finanzinstitutionen bezüglich eines Anstiegs von KI-gesteuerten Verbrechen. Im Dezember 2024 gab das US -amerikanische FBI eine Warnung heraus und erklärte, dass Kriminelle zunehmend generative künstliche Intelligenz (KI) ausnutzen, um in größerem Maßstab Betrug zu begehen und ihre Pläne überzeugender zu machen.
Lesen Sie auch: Digitale Finanzbetrug in Indien: Ein Aufruf zur Verbesserung der Untersuchungsstrategien
Enterprinierende Kriminelle nutzen generative KI-angetriebene Text, Bilder, Videos und Audio, um Opfer zu fangen, denen die technologische Fähigkeit oder Zeit fehlt und zu erschöpft sind, um potenziell gefährliche Inhalte gründlich zu bewerten.
Wie wird generative KI Finanzbetrug verwendet?
Heutzutage sind im Web eine Vielzahl von nicht regulierten oder sogar illegalen generativen KI -Tools verfügbar. Diese Tools ermöglichen die Schaffung von Betrug von Anfang bis Ende, was zu einem Netz von Multimedia -Tricks führt, die die Opfer von ihrem Geld trennt. Angreifer können allein Textgeneratoren verwenden, um grammatikalisch korrigierte Nachrichten zu erstellen, die Opfer in ihren Muttersprachen bedrohen oder täuschen. Sie können auch böswilligen Code generieren, um Websites zu erstellen, die die Systeme der Opfer gefährden.
Kriminelle können KI -Bilder ausnutzen, um überzeugende Tiefen von Opfern zu erzeugen und ihre Lieben zu täuschen. Sie können auch falsche Fotos von entscheidenden Dokumenten herstellen, sexuell explizite Bilder für die Erpressung erstellen, gefälschte soziale Medien oder Dating -App -Profile erstellen und sogar Prominente darstellen, die Dienste und Betrügereien in realer Leben unterstützen würden.
Bösartige Benutzer können die Sprachklonentechnologie in generativen KI -Audio -Tools ausnutzen, um gefälschte Aufnahmen von echten Menschen in Not zu erstellen. Diese Aufzeichnungen können als Sprachnachrichten oder sogar als gefälschte und dennoch komplexe Telefonanrufe gesendet werden, um ihre Kontakte zur Übertragung von Geld zu zwingen.
Wenn AI-generierte Videos in die Szene eintreten, können Angreifer komplizierte Szenarien orchestrieren oder sogar Systemtests umgehen, um die Menschlichkeit des Benutzers zu überprüfen. Wenn Sie beispielsweise nur wenige Sekunden Videos aus Ihrem Social -Media -Konto erfassen, könnte ein Angreifer einen überzeugenden DeepFake -Videoanruf erstellen, in dem Sie anscheinend in einen Unfall verwickelt zu sein scheinen und verzweifelt nach finanzielle Unterstützung suchen.
Was sind einige Warnzeichen von Finanzbetrug von AI-generierten?
Es ist am besten, vor unerwarteten Geldanfragen vorsichtig zu sein, selbst von Ihren Lieben. Seien Sie außerdem vorsichtig mit Überraschungsanfragen, verschiedene finanzielle Aktivitäten durchzuführen, einschließlich der Einlöser von Geschenkkarten, der Anforderung von Preisgeld, Geldstrafen, Rückzahlung von Kredite, Zahlen von Zollbeamten oder Kaution.
Seien Sie besonders vorsichtig, wenn Sie Texte oder Mediendateien von unbekannten Benutzern erhalten. Wenn Sie nicht ein sicheres Gerät oder eine sichere Umgebung haben, öffnen Sie solche Dateien.
Wenn Videobetrug wie das vorherrschende “digitale Verhaftungsschema” auf ein Opfer abzielt, wird der Anrufer wahrscheinlich auf aggressive oder einschüchternde Taktiken zurückgreifen, um die Einhaltung der Einhaltung zu erzwingen. Sie könnten ein Gefühl der Dringlichkeit erzeugen und behaupten, dass die Zeit abgelaufen sei oder dass das Opfer dringend handeln muss. Darüber hinaus könnten sie betonen, wie wichtig es ist, die Angelegenheit vor anderen geheim zu halten. Es ist entscheidend, Finanzinformationen zu vermeiden oder Geld über ungesicherte Kanäle zu übertragen, um zu verhindern, dass Sie sich auf solche Betrugsfälle verlieben.
Anstatt einem Anrufer zu glauben, der Ihnen seinen Uniform- und Polizeiausweis zeigt (da dies ein Deepfake sein könnte), wenden Sie sich direkt an die Polizei, um Anleitung zu erhalten. Beenden Sie alle Kommunikation und kontaktieren Sie die beteiligte Person.
Wie können sich Benutzer vor AI-fähiger Verbrechen schützen?
Eine Möglichkeit, sich und Ihre Familie vor dem Finanzbetrug mit AI-generiertem Finanzbetrug zu schützen, ist die Verwendung eines Familienkennworts. Dies ist ein einzigartiges Wort, das nur Ihnen und Ihren unmittelbaren Familienmitgliedern bekannt ist. Sie können es verwenden, um die Identität anderer zu überprüfen, wann immer Sie möchten. Wenn Sie beispielsweise einen Anruf von Ihrem Kind oder Eltern erhalten, um eine große Geldsumme zu fordern, fragen Sie sie nach dem Familienkennwort, um sicherzustellen, dass ihre Stimme nicht von einem Fremden kloniert wurde. Stimmen Sie auf ein starkes und schwer zu erscheinendes Passwort zu. Es wird auch empfohlen, Ihr Passwort regelmäßig zu aktualisieren.
Wenn Ihre Familie Minderjährige oder gefährdete Älteste hat, stellen Sie sicher, dass ihre Geräte geschützt sind. Sperren und setzen Sie ihre Social -Media -Konten auf den privaten Modus, um den Missbrauch ihrer persönlichen Fotos und Audioen zu verhindern. Informieren Sie Ihre Kinder über Online -Sicherheit und helfen Sie ihnen, zwischen echten und mit AI-generierten Inhalten zu unterscheiden.
Bei der Verwendung von Dating-Apps sollten Benutzer alle Übereinstimmungen melden, die A-generierte Medien verwenden. Teilen Sie niemals persönliche Finanzinformationen mit romantischen Spielen und stimmen Sie niemals zu, Geld zu überweisen, in Kryptowährung zu investieren, Zollgebühren für Pakete zu bezahlen oder Geschenkkarten zu akzeptieren. Bis Sie der Person vollständig vertrauen und sie persönlich getroffen haben, bleiben Sie auf der Messaging -Plattform der App und vermeiden Sie es, auf andere Apps wie WhatsApp oder E -Mail zu wechseln.
Stellen Sie bei der Spende an Wohltätigkeitsorganisationen sicher, dass die vorgestellten Bilder unterschiedlicher Ursachen und Teammitglieder echt sind. Geben Sie Gruppen oder Einzelpersonen, denen Sie zutiefst vertrauen, diejenigen, denen Sie persönlich kennen, oder denen mit hohen Transparenzwerten. Darüber hinaus können Sie Gen -AI -Bilddetektoren verwenden, um Fotos zu überprüfen.
Vertrauen Sie schließlich nicht implizit Anrufe von Benutzern, deren Profilbilder Polizei oder militärisches Zubehör umfassen, da diese mit AI leicht generiert werden können. Echte Polizisten verhaften oder fordern Sie durch Videoanrufe niemals. Wenn Sie auf einen solchen Anruf stoßen, zeichnen Sie ihn auf und senden Sie die Beweise einer echten Polizeistation.
Alternativ können Sie Melden Sie böswillige Inhalte von AI über das National Cyber-Crime-Portal.
Veröffentlicht – 07. März 2025 02:03 Uhr IST
Source link