Signal Präsident Meredith Whittaker ruft Agentic AI als “tiefgreifende” Sicherheits- und Datenschutzfragen aus


Signal Präsident Meredith Whittaker warnte am Freitag vor dem Agenten AI könnte mit dem Risiko für die Privatsphäre des Benutzers einhergehen.

Auf der SXSW -Konferenz in Austin, Texas, auf der Bühne, bezeichnete der Anwalt für sichere Kommunikation die Verwendung von AI -Agenten als „Ihr Gehirn in ein Glas ein“, und warnte, dass dieses neue Paradigma des Computers – bei dem KI Aufgaben im Nutzungsnutzung ausführt – ein „tiefes Problem“ mit sowohl Privatsphäre als auch Sicherheit.

Whittaker erklärte, wie KI -Agenten vermarktet werden, um Ihr Leben durch die Übertragung verschiedener Online -Aufgaben für den Benutzer zu schaffen. Zum Beispiel könnten KI -Agenten in der Lage sein, Aufgaben zu übernehmen wie Konzerte nachzuschlagen, Tickets zu buchen, die Veranstaltung in Ihrem Kalender zu planen und Ihre Freunde zu senden, die es gebucht ist.

“Also können wir unser Gehirn einfach in ein Glas legen, weil das Ding das tut und wir es nicht berühren müssen, oder?”, Überlegte Whittaker.

Dann erklärte sie die Art des Zugriffs, den der AI -Agent benötigte, um diese Aufgaben auszuführen, einschließlich Zugriff auf unseren Webbrowser und die Möglichkeit, sie voranzutreiben, sowie Zugang zu unseren Kreditkarteninformationen, um Tickets, unseren Kalender und Messaging -App zu bezahlen, um den Text an Ihre Freunde zu senden.

“Es müsste in der Lage sein, diesen (Prozess) in unserem gesamten System mit etwas voranzutreiben, das wie die Root -Erlaubnis aussieht und auf jeden einzelnen dieser Datenbanken zugreift – wahrscheinlich im Klar, weil es kein Modell gibt, um dies verschlüsselt zu machen”, warnte Whittaker.

“Und wenn wir über ein ausreichend mächtiges … AI -Modell sprechen, das das anschreibt, gibt es keine Möglichkeit, auf dem Gerät zu passieren”, fuhr sie fort. „Das wird mit ziemlicher Sicherheit an einen Cloud -Server gesendet, auf dem er verarbeitet und zurückgesandt wird. Es gibt also ein tiefes Problem mit Sicherheit und Privatsphäre, das diesen Hype um Agenten verfolgt und letztendlich droht, die Blut-Hirn-Barriere zwischen der Anwendungsschicht und der OS-Schicht zu brechen, indem alle diese getrennten Dienste (und) ihre Daten verderbt “, schloss Whittaker.

Wenn eine Messaging -App wie Signal in KI -Agenten integrieren würde, würde sie die Privatsphäre Ihrer Nachrichten untergraben, sagte sie. Der Agent muss auf die App zugreifen, um Ihre Freunde zu schreiben und Daten zurückzuziehen, um diese Texte zusammenzufassen.

Ihre Kommentare folgten die Bemerkungen, die sie zuvor während des Gremiums darüber gemacht hat, wie die KI -Industrie auf einem Überwachungsmodell mit Massendatenerfassung aufgebaut wurde. Sie sagte, dass das „Größer ist ein besseres AI -Paradigma“ – dh mehr Daten, desto besser -, desto besser -, die sie nicht für gut hielten.

Mit der Agentic AI warnte Whittaker, dass wir im Namen eines „magischen Genie -Bots, der sich um die Erfordernisse des Lebens kümmert“, ferner die Privatsphäre und Sicherheit untergraben würde, schloss sie.



Source link