Machen Sie KI wieder sicher


Bleiben Sie mit kostenlosen Updates informiert

Als das Kernkraftwerk Tschernobyls 1986 explodierte, war es eine Katastrophe für diejenigen, die in der Nähe in der nördlichen Ukraine lebten. Der Unfall war aber auch eine Katastrophe für eine globale Industrie, die Kernenergie als Technologie der Zukunft voranzutreiben. Die Nettozahl von Kernreaktoren hat seitdem ziemlich flach, da es als unsicher angesehen wurde. Was würde heute passieren, wenn die KI -Industrie einen gleichwertigen Unfall erleiden würde?

Diese Frage wurde am Rande des AI Action Summit dieser Woche in Paris von Stuart Russell, einem Professor für Informatik an der University of California, Berkeley, gestellt. Seine Antwort war, dass es ein Trugschluss war zu glauben, dass es einen Kompromiss zwischen Sicherheit und Innovation geben muss. Diejenigen, die von dem Versprechen der KI -Technologie am meisten begeistert sind, sollten immer noch sorgfältig fortgesetzt werden. “Sie können keine Innovation ohne Sicherheit haben”, sagte er.

Russells Warnung wurde von einigen anderen KI -Experten in Paris wiederholt. „Wir müssen weltweit mindestens Sicherheitsstandards vereinbart haben. Wir müssen diese vorhanden haben, bevor wir eine große Katastrophe haben “, sagte mir Wendy Hall, Direktor des Web Science Institute an der University of Southampton.

Aber solche Warnungen standen hauptsächlich am Rande, als die Regierungsdelegierten des Gipfels um die kavernösen Grand Palais mahlen. In einer druckvollen Rede betonte JD Vance den nationalen Sicherheitsunternehmen, der in der KI führte. Amerikas Vizepräsident argumentierte, dass die Technologie uns „produktiver, wohlhabender und freier“ machen würde. “Die KI-Zukunft wird nicht durch Handwringing über die Sicherheit gewonnen”, sagte er.

Während sich der erste internationale KI -Gipfel im Bletchley Park in Großbritannien im Jahr 2023 in den Sicherheitsfragen fast ausschließlich – am meisten gesagt – konzentriert hatte Große Investitionen in der französischen Technologieindustrie. “Der Prozess, der in Bletchley begann, was ich für wirklich erstaunlich halte, wurde hier Guilloted”, sagte Max Tegmark, Präsident des Future of Life Institute, der eine Fringe-Veranstaltung über Sicherheit war, sagte mir.

Was die meisten Sicherheitskämpfer betrifft, ist die Geschwindigkeit, mit der sich die Technologie entwickelt, und die Dynamik des Unternehmens – und geopolitischen – Rennen zur Erreichung künstlicher allgemeine Intelligenz, wenn Computer möglicherweise Menschen über alle kognitiven Aufgaben übereinstimmen. Mehrere führende KI -Forschungsunternehmen, darunter Openai, Google DeepMind, Anthropic und Chinas Deepseek, haben eine explizite Mission, AGI zu erreichen.

Später in der Woche prognostizierte Dario Amodei, Mitbegründer und Geschäftsführer von Anthropic, dass AGI höchstwahrscheinlich 2026 oder 2027 erreicht werden würde. „Die Exponential kann uns überraschen“, sagte er.

Neben ihm war Demis Hassabis, Mitbegründer und Geschäftsführer von Google DeepMind, vorsichtiger und prognostizierte eine 50-prozentige Wahrscheinlichkeit, AGI innerhalb von fünf Jahren zu erreichen. „Ich wäre nicht schockiert, wenn es kürzer wäre. Ich wäre schockiert, wenn es länger als 10 Jahre wäre “, sagte er.

Kritiker der Sicherheitskämpfer porträtieren sie als Science-Fiction-Fantasisten, die glauben, dass die Schaffung einer künstlichen Superintelligenz zum Aussterben des Menschen führen wird: Handwringern, die wie Ludditen der Letzten Tage im Wege des Fortschritts stehen. Sicherheitsexperten betreffen jedoch den Schaden, der von den äußerst leistungsstarken KI-Systemen, die heute existieren, und durch die Gefahr massiver AI-fähiger Cyber- oder Bio-Waffen-Angriffe. Selbst führende Forscher geben zu, dass sie nicht vollständig verstehen, wie ihre Modelle funktionieren, und schafft Sicherheits- und Datenschutzbedenken.

A Forschungspapier Bei Sleeper -Agenten von Anthropic stellten im vergangenen Jahr fest, dass einige Fundamentmodelle Menschen dazu bringen könnten, zu glauben, dass sie sicher operieren. Zum Beispiel konnten Modelle, die im Jahr 2023 zum Schreiben von sicherem Code geschrieben wurden, ausnutzbarer Code einfügen, wenn das Jahr auf 2024 geändert wurde. Solche Hintertürverhalten wurden durch Anthropics Standard -Sicherheitstechniken nicht erkannt. Die Möglichkeit eines algorithmischen mandschurischen Kandidaten, der im Chinas Deepseek -Modell lauert, hat bereits dazu geführt, dass es von mehreren Ländern verboten wurde.

Tegmark ist jedoch optimistisch, dass sowohl KI-Unternehmen als auch Regierungen das überwältigende Eigeninteresse an der Neupriorisierung der Sicherheit sehen werden. Weder die USA, China noch jemand anderes wollen KI -Systeme außer Kontrolle. “AI Safety ist ein globales öffentliches Wohl”, sagte Xue Lan, Dekan des Institute for AI International Governance an der Tsinghua University in Peking, gegenüber der Sicherheitsveranstaltung.

Im Rennen, um das volle Potenzial der KI auszuschöpfen, könnte das beste Motto für die Branche das der US-Marinesiegel sein, die nicht für viel Handwringing bekannt sind. “Langsam ist glatt und glatt ist schnell.”

John.thornhill@ft.com



Source link