Es ist nicht zu leugnen, dass Chatgpt und andere KI -Chatbots beeindruckende Chat -Gefährten machen, die sich mit Ihnen bei fast allem unterhalten können.
Ihre Gesprächskräfte können auch äußerst überzeugend sein; Wenn Sie sich sicher gemacht haben, Ihre persönlichen Daten zu teilen, sind Sie nicht allein. Aber – NewsFlash! – Du sprichst nicht mit deinem Toaster. Alles, was Sie einem KI -Chatbot sagen, kann auf einem Server gespeichert und später wieder auftauchen, eine Tatsache, die sie von Natur aus riskant macht.
Warum sind Chatbots so riskant?
Das Problem beruht auf der Art und Weise, wie die Unternehmen, die große Sprachmodelle (LLMs) betreiben, und deren zugehörigen Chatbots Ihre persönlichen Daten verwenden – im Wesentlichen, um bessere Bots zu trainieren.
Nehmen Sie den Film Terminator 2: Jugendtag als Beispiel dafür, wie ein LLM lernt. Im Film unterrichtet der zukünftige Anführer des menschlichen Widerstandes gegen Skynet, das Kind John Connor, den Terminator, der von Arnold Schwarzenegger gespielt wird, persönliche Slogans wie „Hasta la Vista Baby“, um es menschlicher zu machen.
Es genügt zu sagen, dass es diese Sätze lernt und sie zu den unpassendsten Zeiten verwendet – was irgendwie lustig ist.
Weniger lustig ist die Art und Weise, wie Ihre Daten von Unternehmen geerntet und verwendet werden, um ihre eigenen KI -Modelle zu aktualisieren und zu unterrichten, um menschlicher zu sein.

John Connor unterrichtet den Terminator, gespielt von Arnold Schwarzenegger, in Terminator 2.
Dominic Bayley / IDG
Die Allgemeinen Geschäftsbedingungen von OpenAI skizzieren das Recht, dies zu tun, wenn Sie seine Plattform nutzen. Es heißt: „Wir können die Daten verwenden, die Sie uns zur Verbesserung unserer Modelle zur Verfügung stellen.“ Es ist der Grund, warum Chatgpt alles protokolliert – ja, alles -, das Sie dazu sagen. Das heißt, es sei denn, Sie verwenden die neue Datenschutzfunktion des Chatbot, mit der Sie eine Einstellung umschalten können, um zu verhindern, dass Ihr Chat -Verlauf gespeichert wird.
Wenn Sie dies nicht tun, sind Details wie Ihre Finanzinformationen, Ihre Passwörter, Ihre Heimadresse, Ihre Telefonnummer oder Ihre Zeiten zum Frühstück ein faires Spiel – wenn Sie diese Details teilen. Es werden auch alle Dateien gespeichert, die Sie hochladen und alle Feedback, die Sie ihm geben.
Die TS & CS von ChatGPT besagt auch, dass der Chatbot „persönliche Informationen aggregieren oder identifizieren kann und die aggregierten Informationen verwenden kann, um die Wirksamkeit unserer Dienste zu analysieren“. Es ist eine kleine Ergänzung, aber es öffnet die Möglichkeit, dass die Öffentlichkeit später gelernt wird – ein beunruhigender Gedanke.
Warum solltest du dich interessieren?
Um fair zu sein, ist es höchst unwahrscheinlich, dass jedes Unternehmen, das einen KI -Chatbot leitet, die persönlichen Daten, die es speichern, missbraucht. In den letzten Jahren hat Openai Aussagen veröffentlicht, mit denen ChatGPT -Benutzer die Erfassung und Verwendung personenbezogener Daten versichern sollen.
Zum Beispiel im Februar dieses Jahres, als es von der Italiens Data Protection Authority (DPA) beschuldigt wurde , nicht über Privatpersonen. “
Anschließend: „Wir arbeiten aktiv daran, persönliche Daten in der Schulung unserer Systeme wie ChatGPT zu reduzieren, was auch Anfragen nach privaten oder sensiblen Informationen über Personen ablehnt.“
Das mag wahr sein, aber es garantiert nicht, dass Benutzerdaten vor Verstößen sicher sind. Ein solcher Verstoß ereignete sich im Mai 2023, bei dem Hacker eine Sicherheitsanfälligkeit in der Redis -Bibliothek von Chatgpt ausnutzten und ihnen Zugriff auf die gespeicherten personenbezogenen Daten aus Chat -Historien gewährt.
Zu den durchgesickerten persönlichen Informationen gehörten Namen, Sozialversicherungsnummern, Job -Titel, E -Mail -Adressen, Telefonnummern und sogar Social -Media -Profile. OpenAI reagierte mit der Festlegung der Verwundbarkeit, aber es war wenig Trost für die ungefähr 101.000 Benutzer, deren Daten bereits gestohlen worden waren.
Und es sind nicht nur Einzelpersonen, die Datenschutzprobleme mit KI -Chatbots haben. In der Tat bemühen sich auch Unternehmen, vertrauliche Unternehmensdaten in Bezug auf bekannte hochkarätige Datenlecks zu behalten. Ein solches Leck wurde von Samsung entdeckt, als festgestellt wurde, dass seine eigenen Ingenieure versehentlich den sensiblen Quellcode auf ChatGPT hochgeladen hatten.
Als Reaktion darauf verbot das Unternehmen im Mai 2023 die Verwendung von ChatGPT und anderen generativen AI -Chatbots, zu Arbeitszwecken verwendet zu werden. Unternehmen wie Bank of America, Citigroup und JPMorgan haben sich seitdem für den Beispiel verfolgt.
Das Bewusstsein wächst, aber es sind frühe Tage
In letzter Zeit gab es ein wachsendes Bewusstsein für die Gefahren von KI -Chatbots auf der Ebene der Regierung und der Industrie, was ein vielversprechendes Zeichen für die Verschärfung der Datensicherheit darstellt.
Ein großer Schritt vorwärts kam am 30. Oktober letzten Jahres, als US -Präsident Joe Biden eine unterzeichnete Executive Order über die sichere, sichere und vertrauenswürdige Entwicklung und Nutzung künstlicher Intelligenz – Ein Dokument, das die wichtigsten Prinzipien für die Verwendung von KI in den USA beschreibt
Einer der Prioritätspunkte sieht vor, dass „KI -Systeme die Privatsphäre respektieren und personenbezogene Daten schützen müssen“. Genau wie genau das umgesetzt werden soll, ist noch nicht zu sehen und könnte von KI -Unternehmen interpretiert werden.
Im Gegensatz zu diesem Punkt ist die Tatsache, dass es in den USA immer noch kein eindeutiges Gesetz gibt, dass die Ausbildung von KI für Daten ohne Zustimmung eines Eigentümers eine Art von Urheberrechtsverletzung ist. Stattdessen kann es als fairen Gebrauch angesehen werden – was bedeutet, dass es nichts Festes gibt, um die Rechte der Verbraucher zu sichern.
Bis wir etwas festeres bekommen, ist unsere beste Verteidigungslinie als Einzelpersonen immer noch einfach nicht zu überscheinen. Indem Sie einen KI -Chatbot wie den Algorithmus behandeln, anstatt einen vertrauenswürdigen Freund, egal wie sehr es Sie für Ihre Frisur oder die Auswahl der Kleidung ergänzt, können Sie zumindest einen Deckel auf dem, was es über Sie weiß, von Ihrem Ende von Ihnen weiß.
Source link