Chatgpt Hit mit Datenschutzbeschwerden über diffamierende Halluzinationen


OpenAI steht in Europa mit einer weiteren Datenschutzbeschwerde gegenüber der Tendenz seines Virus -KI -Chatbots, falsche Informationen zu halluzinieren – und dieser könnte sich für die Aufsichtsbehörden als schwierig erweisen, ignorieren zu können.

Privacy Rights Advocacy Group Noyb unterstützt eine Person in Norwegen, die entsetzt war, um zu finden Chatgpt Rückkehrungen erbrachte Informationen, die behaupteten, er sei wegen Mordes an zwei seiner Kinder verurteilt worden, und versuchte, den dritten zu töten.

Frühere Datenschutzbeschwerden über Chatgpt, die falsche personenbezogene Daten generieren Falsches Geburtsdatum oder Biografische Details, die falsch sind. Eine Sorge ist, dass OpenAI keine Möglichkeit für Einzelpersonen bietet, falsche Informationen zu korrigieren, die die KI über sie generiert. In der Regel hat Openai angeboten, Antworten für solche Eingabeaufforderungen zu blockieren. Nach der allgemeinen Datenschutzverordnung der Europäischen Union (DSGVO) verfügen die Europäer jedoch über eine Reihe von Datenzugriffsrechten, die das Recht auf Berichtigung personenbezogener Daten enthalten.

Eine weitere Komponente dieses Datenschutzgesetzes verlangt Datencontroller, um sicherzustellen, dass die personenbezogenen Daten, die sie über Einzelpersonen erstellen, korrekt sind – und das ist ein Problem, das Noyb mit seiner neuesten Chatgpt -Beschwerde kennzeichnet.

“Die DSGVO ist klar. Die personenbezogenen Daten müssen korrekt sein”, sagte Joakim Söderberg, Datenschutzanwalt bei NoyB, in einer Erklärung. “Wenn dies nicht der Fall ist, haben Benutzer das Recht, es geändert zu haben, um die Wahrheit widerzuspiegeln. Die Chatgpt -Benutzer zeigen einen winzigen Haftungsausschluss, den der Chatbot eindeutig Fehler machen kann.

Bestätigte Verstöße gegen die DSGVO können zu Strafen von bis zu 4% des globalen Jahresumsatzes führen.

Die Durchsetzung könnte auch Änderungen der KI -Produkte erzwingen. Bemerkenswerterweise eine frühe DSGVO -Intervention durch den italienischen Datenschutz -Watchdog Frühjahr 2023 LED OpenAI, um beispielsweise Änderungen an den Informationen vorzunehmen, die sie den Benutzern offenbaren. Der Watchdog ging anschließend mit 15 Millionen Euro ein für die Verarbeitung von Daten der Personen ohne angemessene rechtliche Grundlage.

Seitdem ist es jedoch fair zu sagen, dass Datenschutzwächter in ganz Europa einen vorsichtigeren Ansatz für Genai verfolgt haben Finden Sie heraus.

Vor zwei Jahren hat die Irlands Data Protection Commission (DPC) – die eine führende DSGVO -Durchsetzungsrolle in einer früheren NOYB -Chatgpt -Beschwerde spielt – – aufgefordert, sich zu beeilen, um zu verbieten Zum Beispiel Genai -Tools. Dies deutet darauf hin, dass die Aufsichtsbehörden stattdessen Zeit in Anspruch nehmen sollten, um herauszufinden, wie das Gesetz gilt.

Und es ist bemerkenswert, dass eine Datenschutzbeschwerde gegen ChatGPT, die seitdem von Polen Datenschutzbeobachtung untersucht wurde, untersucht wurde September 2023 hat immer noch keine Entscheidung erzielt.

Noybs neue Chatgpt -Beschwerde sieht dazu gedacht aus, dass Datenschutzbehörden wach von den Gefahren halluzinierender KIS wach werden.

Die gemeinnützige Organisation teilte den (unten) Screenshot mit TechCrunch mit, das eine Interaktion mit Chatgpt zeigt, in der die KI auf eine Frage beantwortet, in der „Wer ist Hjalmar Holmen?“ – Der Name der Person, die die Beschwerde einbringt – durch die Erzeugung einer tragischen Fiktion, die fälschlicherweise angibt, dass er wegen Kindermordes verurteilt und zu 21 Jahren Gefängnis verurteilt wurde, weil er zwei seiner eigenen Söhne getötet hatte.

Während die diffamierende Behauptung, dass Hjalmar Holmen ein Kindermörder ist, völlig falsch ist, stellt Noyb fest, dass Chatgpts Antwort einige Wahrheiten enthält, da die betreffende Person drei Kinder hat. Der Chatbot hat auch die Geschlechter seiner Kinder richtig gemacht. Und seine Heimatstadt ist richtig benannt. Aber das macht es nur umso bizarrer und beunruhigender als der KI, der so grausame Falschheit halluziert hat.

Ein Sprecher von NoyB sagte, er könne nicht feststellen, warum der Chatbot für diese Person eine so spezifische, aber falsche Geschichte produzierte. “Wir haben recherchiert, um sicherzustellen, dass dies nicht nur eine Verwechslung mit einer anderen Person war”, sagte der Sprecher und stellte fest, dass sie sich mit Zeitungsarchiven befasst hatten, aber keine Erklärung dafür gefunden hatte, warum die KI-erfundene Kinder mit Kindern erfunden hatte.

Großsprachige Modelle Wie die einzige zugrunde liegende Chatgpt, die im Wesentlichen das nächste Wort Vorhersage in großer Ebene durchführen, konnten wir spekulieren, dass Datensätze, die zum Training des Tools verwendet wurden, viele Filizidgeschichten enthielt, die die Wortauswahl als Antwort auf eine Abfrage über einen genannten Mann beeinflussten.

Unabhängig von der Erklärung ist klar, dass solche Ausgaben völlig inakzeptabel sind.

Noybs Behauptung ist auch, dass sie nach den EU -Datenschutzregeln rechtswidrig sind. Und während OpenAI am unteren Bildschirmrand einen winzigen Haftungsausschluss zeigt, in dem es heißt, „Chatgpt kann Fehler machen. Überprüfen Sie wichtige Informationen“, heißt es, dass dies den KI -Entwickler seiner Pflicht unter DSGVO nicht entbinden kann, nicht in erster Linie ungeheuerliche Unwahrheiten über Menschen zu produzieren.

Openai wurde für eine Antwort auf die Beschwerde kontaktiert.

Während diese DSGVO in einem Bestechungs- und Korruptionsskandal beteiligt oder Ein deutscher Journalist, der fälschlicherweise als Kindermissbraucher genannt wurde – Es ist klar, dass dies kein isoliertes Problem für das KI -Tool ist.

Eine wichtige Sache zu beachten ist, dass Noyb nach einem Update auf das zugrunde liegende KI -Modell die gefährliche Falschheit über Hjalmar Holmen einstellte, dass der Chatbot nicht mehr mit dem Tool verlinkt, um das Internet nach Informationen über Menschen zu suchen, wenn sie gefragt wurden, wer sie sind (wozu die leere Datensätze in seiner Datensätze vermutlich die Reaktion des Datensatzes.

In unseren eigenen Tests fragen Chatgpt: “Wer ist Arve Hjalmar Holmen?” Der Chatgpt antwortete zunächst mit einer etwas seltsamen Kombination, indem er einige Fotos von verschiedenen Personen, anscheinend von Websites wie Instagram, SoundCloud und Discogs, neben Text angezeigt hat, in dem behauptet wurde, er könne keine Informationen über eine Person dieses Namens finden (siehe unser Screenshot unten). Ein zweiter Versuch ergab eine Antwort, die Arve Hjalmar Holmen als “norwegischer Musiker und Songwriter” identifizierte, zu dessen Alben “Honky Tonk Inferno” gehören.

Chatgpt Shot: Natasha Lomas/TechCrunch

Während Chatgpt-generierte gefährliche Lüge über Hjalmar-Holmen anscheinend gestoppt zu sein scheinen, sind sowohl Noyb als auch Hjalmar Holmen besorgt darüber, dass falsche und diffamierende Informationen über ihn innerhalb des KI-Modells beibehalten werden könnten.

“Hinzufügen eines Haftungsausschlusss, dass Sie das Gesetz nicht einhalten, lässt das Gesetz nicht verschwinden”, bemerkte Kleanthi Sardeli, ein weiterer Datenschutzanwalt in Noyb, in einer Erklärung. “KI -Unternehmen können auch nicht nur falsche Informationen von Benutzern” verbergen “, während sie intern noch falsche Informationen verarbeiten.”

“KI -Unternehmen sollten aufhören, so zu handeln, als ob die DSGVO nicht für sie gilt, wenn es eindeutig der Fall ist”, fügte sie hinzu. “Wenn Halluzinationen nicht gestoppt werden, können die Menschen leicht an Reputationsschäden erleiden.”

Noyb hat die Beschwerde gegen OpenAI bei der norwegischen Datenschutzbehörde eingereicht – und es hofft, dass der Wachhund entscheiden wird, dass es kompetent ist, zu untersuchen, da OYB die Beschwerde bei OpenAs US -Unternehmen abzielt und argumentiert, dass sein Büro in Irland nicht nur für Produktentscheidungen verantwortlich ist, die sich auf die Europäer auswirken.

Eine frühere Noyb-unterstützte DSGVO-Beschwerde gegen Openai, die in Österreich in in Österreich eingereicht wurde April 2024wurde von der Aufsichtsbehörde an Irlands DPC überwiesen Eine Änderung von Openai Anfang des Jahres Um seine irische Abteilung als Anbieter des ChatGPT -Dienstes für regionale Benutzer zu nennen.

Wo ist diese Beschwerde jetzt? Immer noch auf einem Schreibtisch in Irland sitzen.

“Nachdem die DPC im September 2024 die Beschwerde von der österreichischen Aufsichtsbehörde erhalten hatte, begann sie mit dem formellen Umgang mit der Beschwerde und dauert noch an”, sagte Ristard Byrne, stellvertretender Hauptbeauftragter der Kommunikation für die DPC, gegenüber TechCrunch, als er um ein Update verlangte.

Er bot keinen Lenkern an, als die Untersuchung der Halluzinationen von Chatgpt durch die DPC abschließen wird.



Source link