Bleiben Sie mit kostenlosen Updates informiert
Einfach anmelden Künstliche Intelligenz Myft Digest – direkt an Ihren Posteingang geliefert.
Der frühere Google-Chef Eric Schmidt hat gewarnt, dass westliche Länder sich auf den Aufbau von Open-Source-Modellen für künstliche Geheimdienste konzentrieren müssen oder das Risiko eines Verlusts von China im globalen Rennen zur Entwicklung der hochmodernen Technologie riskieren müssen.
Die Warnung erfolgt, nachdem der chinesische Start-up Deepseek im letzten Monat die Welt mit dem Start von R1 geschockt hat, das in einem in einem gebauten mächtigen offenen Großsprachmodell wurde effizienterer Weg als seine US -Rivalen wie Openai.
Schmidtder ein bedeutender technischer Investor und Philanthrop geworden ist, sagte, die Mehrheit der Top-US-LLMs sei geschlossen-was bedeutet, dass sie für alle nicht frei zugänglich sind-, zu denen Googles Gemini, Anthropics Claude und Openai’s GPT-4 gehören, mit der Ausnahme von Metas LLAMA.
“Wenn wir nichts dagegen tun, wird China letztendlich zum Open-Source-Führer und der Rest der Welt wird geschlossen”, sagte Schmidt der Financial Times.
Der Milliardär sagte, dass ein Versäumnis, in Open-Source-Technologien zu investieren, die wissenschaftlichen Entdeckungen an westlichen Universitäten verhindern würde, die möglicherweise keine kostspieligen geschlossenen Modelle leisten können.
Schmidt sprach diese Woche auf dem AI Action Summit in Paris, in dem wir auch Vizepräsident JD Vance Vow sah, dass die USA die bleiben würden dominante Kraft in der Technologie.
OpenAI-Chef Sam Altman sagte letzten Monat, er sei auf der „falschen Seite der Geschichte“ gewesen, als es um Open-Source-Modelle ging, was darauf hindeutet, dass das Unternehmen eine neue Strategie entwickeln musste, die sich von teuren geschlossenen Modellen entfernen.
Die Gruppe hat jedoch frühzeitig Fortschritte bei der Entwicklung der Technologie gemacht, was zum Start-up-Holding geführt hat Gespräche mit Softbank Über eine riesige Finanzierungsrunde bei einer Bewertung von 260 Mrd. USD. Andere US -Big -Tech -Giganten, darunter Google und Amazon, haben ebenfalls Milliarden in geschlossene Modelle investiert und sind der Ansicht, dass es der beste Weg ist, die Rendite für erhebliche Investitionen zu sichern.
“Ich denke, (Altman) war etwas zu schnell”, sagte Schmidt und fügte hinzu, dass die Zukunft der AI-Dominanz bei der Kombination von Open- und Closed-Source-KI-Modellen lag.
![Sam Altman, CEO von OpenAI, spricht mit dem französischen Präsidenten Emmanuel Macron](https://www.ft.com/__origami/service/image/v2/images/raw/https%3A%2F%2Fd1e00ek4ebabms.cloudfront.net%2Fproduction%2F31c7015e-4b39-4a1e-8b21-8267833fc553.jpg?source=next-article&fit=scale-down&quality=highest&width=700&dpr=1)
Während die USA die erste Phase von dominiert hatten Ai Die Entwicklung durch den Aufbau leistungsstarker KI-Modelle wie GPT-4 hatte die Möglichkeit, wirtschaftliche Gewinne zu erzielen, indem er darüber nachdachte, wie KI auf Unternehmen angewendet werden kann, indem sie „Anwendungen“ zusätzlich zur Technologie aufgebaut haben, sagte Schmidt.
“Europa muss seine Handlung zusammenbringen”, sagte er. “Die Anwendungsschicht ist zutiefst leistungsstark und wird Ihr Europa effizienter machen.”
Am Mittwoch kündigte Schmidt an, dass er 10 Mio. USD in die Schaffung eines neuen KI-Sicherheitswissenschaftsprogramms durch Schmidt Sciences investiert habe, einem gemeinnützigen Organisation, den er mit seiner Frau Wendy eingerichtet hat.
Das Programm umfasst 27 Projekte, die an grundlegenden Forschungen zu Sicherheitsproblemen in der KI arbeiten. Zu den Preisträgern zählen Yoshua Bengio, ein preisgekrönter Informatiker, der eine Risikominderungstechnologie für KI -Systeme entwickelt, und Zico Kolter, ein OpenAI -Vorstandsmitglied und Professor an der Carnegie Mellon University, der AI -Angriffe erkunden wird.
Schmidt forderte den Westen auf, mit den Chinesen in der KI -Sicherheit zusammenzuarbeiten, wie das Land mit den gleichen Problemen rund um die leistungsstarke Technologie konfrontiert wäre. Er verglich dies mit der Art der Informationsaustausch zwischen Militärs, wenn sie Raketen testen.
“Wie könnte es für uns möglicherweise schlecht sein, ihnen Informationen zu geben, mit denen sie ihre Modelle sicherer machen könnten?” sagte er.
Zusätzliche Berichterstattung von John Thornhill
Source link