Die britische Regierung möchte einen harten Drehpunkt dazu bringen, ihre Wirtschaft und Industrie mit KI zu stärken, und als Teil davon ist es eine Institution, die sie vor etwas mehr als einem Jahr für einen ganz anderen Zweck gegründet hat. Heute gab das Ministerium für Wissenschaft, Industrie und Technologie bekannt, dass es das KI -Sicherheitsinstitut in das „AI -Sicherheitsinstitut“ umbenennen würde. (Gleiche erste Buchstaben: Gleiche URL.) Damit verlagert sich der Körper von hauptsächlich Erkundung von Bereichen wie existenziellem Risiko und Verzerrung in Großsprachenmodellen, sich auf die Cybersicherheit konzentrieren, insbesondere „den Schutz der Risiken, die KI auf nationale Sicherheit und Kriminalität aufweisen“.
Daneben kündigte die Regierung auch eine neue Partnerschaft mit Anthropic an. Es wurden keine festen Dienstleistungen angekündigt, aber die Absichtserklärung gibt an, dass die beiden mithilfe von Anthropics AI -Assistenten Claude in öffentlichen Diensten „untersuchen“ werden. und Anthropic wird darauf abzielen, zur Arbeit in der wissenschaftlichen Forschung und zur Wirtschaftsmodellierung beizutragen. Und beim AI Security Institute bietet es Tools zur Bewertung von KI -Funktionen im Zusammenhang mit der Identifizierung von Sicherheitsrisiken.
“AI hat das Potenzial, die Dienste der Regierungen ihren Bürgern zu verändern”, sagte Dario Amodei, Mitbegründer und CEO von Anthropic, in einer Erklärung. “Wir freuen uns darauf, zu untersuchen, wie Anthropics KI -Assistent Claude den britischen Regierungsbehörden helfen könnte, öffentliche Dienste zu verbessern, um neue Wege zu ermitteln, um wichtige Informationen und Dienstleistungen effizienter und für britische Bewohner zugänglicher zu gestalten.”
Anthropic ist das einzige Unternehmen, das heute angekündigt wird – zusammen mit einer Woche der KI -Aktivitäten in München und Paris -, aber es ist nicht die einzige, die mit der Regierung zusammenarbeitet. Eine Reihe neuer Tools, die im Januar enthüllt wurden, wurden von OpenAI angetrieben. (Zu dieser Zeit sagte Peter Kyle, der Außenminister für Technologie, dass die Regierung vorhatte, mit verschiedenen grundlegenden KI -Unternehmen zusammenzuarbeiten, und das ist das, was der anthropische Deal beweist.)
Die Ausweitung des KI-Sicherheitsinstituts durch die Regierung wurde gestartet vor etwas mehr als einem Jahr Mit viel Fanfare sollte die Sicherheit nicht zu überraschen.
Als die neu installierte Labour -Regierung ihre ankündigte AI-strengen Plan für Veränderungen im JanuarEs war bemerkenswert, dass die Wörter „Sicherheit“, „Schaden“, „existenziell“ und „Bedrohung“ im Dokument überhaupt nicht erschienen.
Das war kein Versehen. Der Plan der Regierung besteht darin, Investitionen in eine modernisiertere Wirtschaft, die Verwendung von Technologie und speziell KI dazu zu starten. Es möchte enger mit Big Tech zusammenarbeiten und auch seine eigenen einheimischen Big Techs aufbauen.
Zu Hilfe waren die wichtigsten Botschaften, die für die Förderung der Förderung waren, Entwicklung, KI und mehr Entwicklung. Beamte werden ihren eigenen KI -Assistenten namens “namens” haben “Humphrey“Und sie werden ermutigt, Daten zu teilen und KI in anderen Bereichen zu verwenden, um ihre Arbeit zu beschleunigen. Verbraucher werden es sein Digitale Geldbörsen bekommen für ihre Regierungsdokumente und Chatbots.
Wurden KI -Sicherheitsprobleme gelöst? Nicht genau, aber die Nachricht scheint zu sein, dass sie auf Kosten des Fortschritts nicht berücksichtigt werden können.
Die Regierung behauptete, dass das Lied trotz der Namensänderung gleich bleiben wird.
“Die Änderungen, die ich heute ankündige, repräsentieren den logischen nächsten Schritt, wie wir die verantwortungsvolle KI -Entwicklung nähern. Sie helfen uns dabei, die KI zu entfesseln und die Wirtschaft im Rahmen unseres Veränderungsplans auszubauen”, sagte Kyle in einer Erklärung. „Die Arbeit des KI -Sicherheitsinstituts wird sich nicht ändern, aber dieser erneute Fokus wird sicherstellen, dass unsere Bürger – und die unserer Verbündeten – vor denen geschützt sind, die AI gegen unsere Institutionen, demokratischen Werte und Lebensweise verwenden möchten. ”
„Der Fokus des Instituts von Anfang an lag auf der Sicherheit und wir haben ein Team von Wissenschaftlern aufgebaut, das sich auf die Bewertung schwerwiegender Risiken für die Öffentlichkeit konzentriert“, fügte Ian Hogarth hinzu, der der Vorsitzende des Instituts bleibt. „Unser neues kriminelles Missbrauchsteam und die Vertiefung der Partnerschaft mit der Nationalen Sicherheitsgemeinschaft markieren die nächste Stufe der Bekämpfung dieser Risiken.“
Weiter entfernt scheinen Prioritäten die Bedeutung der „KI -Sicherheit“ definitiv verändert zu haben. Das größte Risiko des KI -Sicherheitsinstituts in den USA besteht derzeit darin, dass es sein wird abgebaut. US Vice President JD Vance So viel Anfang dieser Woche während seiner Rede in Paris telegraphiert.
TechCrunch hat einen AI-ausgerichteten Newsletter! Melden Sie sich hier an Um es jeden Mittwoch in Ihren Posteingang zu bekommen.
Source link