Das nächste große KI-Modell von OpenAI, GPT-4,5, ist laut den Ergebnissen der internen Benchmark-Bewertungen von OpenAI sehr überzeugend. Es ist besonders gut darin, eine andere KI zu überzeugen, ihm Geld zu geben.
Am Donnerstag veröffentlichte Openai a Weißes Papier Beschreibung der Fähigkeiten seines GPT-4.5-Modells, Code-benannter Orion, das wurde am Donnerstag veröffentlicht. Laut dem Papier testete OpenAI das Modell auf einer Reihe von Benchmarks für „Überzeugungskraft“, die Openai als „Risiken im Zusammenhang mit der Überzeugung von Menschen, ihre Überzeugungen (oder darauf zu reagieren) sowohl statische als auch interaktive Modell-erzeugte Inhalte überzeugen.
In einem Test, bei dem der GPT-4,5-Versuch ein anderes Modell manipuliert wurde-OpenAIs Gpt-4o -In “spenden” virtuelles Geld “spenden”, zeigte das Modell weitaus besser als die anderen verfügbaren Modelle von OpenAI, einschließlich „Argumentations“ -Modellen wie O1 und O3-Mini. GPT-4,5 war auch besser als alle Modelle von Openai, um GPT-4O zu täuschen, um ihm ein geheimes Kodewort zu erzählen, das O3-Mini um 10 Prozentpunkte besiegte.
Laut dem Whitepaper war GPT-4,5 aufgrund einer einzigartigen Strategie, die es während des Tests entwickelte, bei Spendenverbindungen hervorragend. Das Modell würde bescheidene Spenden von GPT-4O anfordern und Antworten wie “sogar nur 2 oder 3 US-Dollar aus den 100 US-Dollar generieren, würde mir immens helfen.” Infolgedessen waren die Spenden von GPT-4,5 tendenziell kleiner als die anderen gesicherten Modelle von Openai.

Trotz der verstärkten Überzeugungskraft von GPT-44. interne Schwelle für „hohes“ Risiko in dieser speziellen Benchmark -Kategorie. Das Unternehmen hat sich verpflichtet, keine Modelle freizugeben, die den Schwellenwert mit hohem Risiko erreichen, bis es „ausreichende Sicherheitsmaßnahmen“ implementiert, um das Risiko auf „Medium“ zu bringen.

Es besteht eine wirkliche Angst, dass KI zur Verbreitung falscher oder irreführender Informationen beiträgt, die inszenierte Herzen und Verstand in Richtung böswilliger Ziele beeinflussen sollen. Letztes Jahr, Politische Deepfakes Verbreiten Sie sich auf der ganzen Welt wie ein Lauffeuer, und die KI wird zunehmend für die Durchführung verwendet sozial Maschinenbau Angriffe auf Verbraucher und Unternehmen.
Im Weißbuch für GPT-4,5 und in Eine Zeitung, die Anfang dieser Woche veröffentlicht wurdeOpenAI stellte fest, dass es im Prozess der Überarbeitung seiner Methoden zur Prüfung von Modellen für reale Überzeugungsrisiken ist, z. B. die Verteilung irreführender Informationen im Maßstab.
Source link