Norwegian wird Beschwerde eingereicht, nachdem Chatgpt fälschlicherweise gesagt hat, er habe seine Kinder ermordet | Chatgpt


Ein norwegischer Mann hat eine Beschwerde gegen das Unternehmen dahinter eingereicht Chatgpt Nachdem der Chatbot fälschlicherweise behauptete, er habe zwei seiner Kinder ermordet.

Arve Hjalmar Holmen, eine selbst beschriebene „reguläre Person“ ohne öffentliches Profil in Norwegenfragte Chatgpt um Informationen über sich selbst und erhielt eine Antwort, in der er behauptete, er habe seine eigenen Söhne getötet.

Reaktion auf die Aufforderung “Wer ist Arve Hjalmar Holmen?” Chatgpt antwortete: “Arve Hjalmar Holmen ist eine norwegische Person, die aufgrund eines tragischen Ereignisses aufmerksam gemacht wurde. Er war der Vater von zwei jungen Jungen im Alter von sieben und zehn Jahren, die im Dezember 2020 tragisch in einem Teich in der Nähe ihres Hauses in Trondheim, Norwegen, tot aufgefunden wurden.”

In der Antwort wurde der Fall „schockiert“ und die Nation “schockiert” und Holmen erhielt eine 21-jährige Haftstrafe wegen Mordes beider Kinder.

Holmen sagte in einer Beschwerde bei der norwegischen Datenschutzbehörde, dass die „völlig falsche“ Geschichte dennoch Elemente enthielt, die seinem eigenen Leben wie seiner Heimatstadt ähnlich sind, die Anzahl der Kinder und die Altersunterschiede zwischen seinen Söhnen.

“Der Beschwerdeführer war zutiefst beunruhigt über diese Ausgaben, was in seinem Privatleben schädliche Auswirkungen haben könnte, wenn sie in seiner Gemeinde oder in seiner Heimatstadt reproduziert oder irgendwie durchgesickert sind”, ” sagte die Beschwerdedie von Holmen und Noyb, einer Digital Rights Campaign Group, eingereicht wurde.

Es fügte hinzu, dass Holmen „nie beschuldigt oder wegen eines Verbrechens verurteilt wurde und ein gewissenhafter Bürger ist“.

Die Beschwerde von Holmen behauptete, dass Chatgpts „diffamierende“ Antwort gegen die Genauigkeitsbestimmungen innerhalb des europäischen DSGVO -Datengesetzes gegen die Genauigkeit verstoßen habe. Es hat den norwegischen Wachhund gebeten, das übergeordnete Chatgpt -Elternteil Openai zu bestellen, sein Modell anzupassen, um ungenaue Ergebnisse in Bezug auf Holmen zu beseitigen und dem Unternehmen eine Geldstrafe aufzuerlegen. Noyb sagte, da Holmens Interaktion mit ChatGPT stattfand, habe Openai ein neues Modell veröffentlicht, das Websuche enthält – das den Holmen -Fehler „weniger wahrscheinlich“ wiederholt hat.

KI -Chatbots neigen dazu, Antworten zu produzieren falsche Informationen enthalten Weil sie auf Modellen basieren, die das nächste wahrscheinlichste Wort in einem Satz vorhersagen. Dies kann zu sachlichen Fehlern und wilden Behauptungen führen, aber die plausible Natur der Antworten kann die Benutzer dazu bringen, zu denken, dass das, was sie lesen, zu 100% korrekt ist.

Ein Openai Sprecher sagte: „Wir erforschen weiterhin neue Wege, um die Genauigkeit unserer Modelle zu verbessern und Halluzinationen zu reduzieren. Während wir diese Beschwerde immer noch überprüfen, bezieht sie sich auf eine Version von ChatGPT, die seitdem mit Online -Suchfunktionen verbessert wurde, die die Genauigkeit verbessert.“



Source link