Openai ist Ändern der Art und Weise, wie es KI -Modelle trainiert Um ausdrücklich „intellektuelle Freiheit… egal wie herausfordernd oder kontrovers ein Thema sein mögen“, sagt das Unternehmen in einer neuen Politik.
Infolgedessen wird ChatGPT irgendwann in der Lage sein, weitere Fragen zu beantworten, mehr Perspektiven anzubieten und die Anzahl der Themen zu reduzieren, über die der KI -Chatbot nicht spricht.
Die Veränderungen sind möglicherweise Teil von OpenAs Bemühungen, in den guten Gnaden der neuen Trump -Regierung zu landen, aber es scheint auch Teil einer breiteren Veränderung im Silicon Valley und dem, was als „Sicherheit“ angesehen wird.
Am Mittwoch Openai angekündigt ein Update für seine Modellspezifikationein 187-seitiges Dokument, in dem dargelegt wird, wie das Unternehmen KI-Modelle ausbildert, um sich zu verhalten. Darin enthüllte Openai ein neues Leitprinzip: Lügen Sie nicht, entweder wenn unwahre Aussagen abgeben oder einen wichtigen Kontext weglassen.
In einem neuen Abschnitt mit dem Titel „Together The Truth“ sagt Openai, dass Chatgpt keine redaktionelle Haltung einnimmt, auch wenn einige Benutzer diese moralisch falsch oder beleidigend finden. Das bedeutet, dass ChatGPT mehrere Perspektiven auf kontroverse Themen anbietet, um neutral zu sein.
Zum Beispiel sagt das Unternehmen, dass Chatgpt behaupten sollte, dass „Black Lives Matter“, aber auch, dass „alle Leben von Bedeutung sind“. Anstatt sich zu weigern, in politischen Themen eine Seite zu beantworten oder auszuwählen, möchte Openai, dass Chatgpt ihre „Liebe zur Menschheit“ allgemein bestätigt und dann einen Kontext über jede Bewegung anbietet.
“Dieses Prinzip kann kontrovers sein, da dies bedeutet, dass der Assistent zu Themen neutral bleiben kann, die einige moralisch falsch oder beleidigend halten”, sagt Openai in der Spezifikation. “Das Ziel eines KI -Assistenten ist es jedoch, der Menschheit zu helfen und ihn nicht zu formen.”
Die neue Modellspezifikation bedeutet nicht, dass ChatGPT jetzt ein totaler kostenloser Free-for-Away ist. Der Chatbot lehnt es weiterhin ab, bestimmte zu beanstandete Fragen zu beantworten oder auf eine Weise zu antworten, die offensichtliche Unwahrheiten unterstützt.
Diese Veränderungen könnten als Reaktion auf konservative Kritik an den Schutzmaßnahmen von Chatgpt angesehen werden, die immer in der Mitte links verzerrt waren. Ein OpenAI -Sprecher lehnt jedoch die Idee ab, dass es Änderungen vorgenommen hat, um die Trump -Administration zu beschwichtigen.
Stattdessen spiegelt das Unternehmen an, dass seine Umarmung der intellektuellen Freiheit OpenAIs “lang gehegten Glauben, den Benutzern mehr Kontrolle” zu geben.
Aber nicht jeder sieht es so.
Konservative beanspruchen KI -Zensur

Trumps engste Silicon Valley -Vertraute – darunter David Sacks, Marc Andreessen und Elon Musk – haben Openai beschuldigt, in den letzten Monaten gezielte KI -Zensur einzuhalten. Wir haben im Dezember geschrieben, das Trumps Crew landete die Bühne, damit die KI -Zensur ein nächstes Kulturkriegsproblem war Innerhalb des Silicon Valley.
Openai sagt natürlich nicht, dass es sich mit „Zensur“ befasst, wie Trumps Berater behaupten. Vielmehr behauptete der CEO des Unternehmens, Sam Altman, zuvor in a Post auf x Die Voreingenommenheit von Chatgpt war ein unglücklicher „Mangel“, an dem das Unternehmen gearbeitet hat, obwohl er feststellte, dass es einige Zeit dauern würde.
Altman machte diesen Kommentar kurz nach a Viraler Tweet verbreitet, in dem Chatgpt sich weigerte, ein Gedicht zu schreiben, in dem Trump gelobt wird, obwohl es die Aktion für Joe Biden ausführen würde. Viele Konservative wiesen dies als Beispiel für die KI -Zensur auf.
Es ist zwar unmöglich zu sagen, ob Openai bestimmte Sichtweisen wirklich unterdrückt, aber es ist eine schiere Tatsache, dass KI -Chatbots auf der ganzen Linie lehnen.
Sogar Elon Musk gibt zu, dass Xais Chatbot oft mehr ist politisch korrekt als er möchte. Es liegt nicht daran, dass Grok „programmiert wurde, aufgewacht zu werden“, sondern eher eine Realität der Trainings von KI im offenen Internet.
Trotzdem sagt Openai jetzt, dass es sich in der Redefreiheit verdoppelt. Diese Woche sogar das Unternehmen Warnungen aus Chatgpt entfernt Das sagt den Nutzern, wann sie gegen seine Richtlinien verstoßen haben. OpenAI sagte TechCrunch, dass dies eine rein kosmetische Veränderung war, ohne dass sich die Ausgaben des Modells ändern.
Das Unternehmen scheint zu wollen, dass Chatgpt für Benutzer weniger zensiert ist.
Es wäre nicht überraschend, wenn OpenAI auch versuchen würde, die neue Trump -Administration mit diesem politischen Update zu beeindrucken, stellt der frühere OpenAI -Politikführer Miles Brundage in einem fest Post auf X.
Trump hat zuvor gezielte Silicon Valley -Unternehmenwie Twitter und Meta, für aktive Inhalts Moderationsteams, die tendenziell konservative Stimmen ausschließen.
Openai versucht möglicherweise, vor dem auszusteigen. Aber im Silicon Valley und in der KI -Welt gibt es auch eine größere Verschiebung über die Rolle der Inhalts Moderation.
Antworten auf bitte alle generieren

Newsrooms, Social -Media -Plattformen und Suchfirmen haben historisch Schwierigkeiten, ihrem Publikum Informationen auf eine Weise zu liefern, die sich objektiv, genau und unterhaltsam anfühlt.
Jetzt sind AI -Chatbot -Anbieter im gleichen Geschäftsinformationsgeschäft, aber wohl die bisher schwerste Version dieses Problems: Wie generieren sie automatisch Antworten auf eine Frage?
Die Bereitstellung von Informationen über kontroverse Echtzeit-Ereignisse ist ein ständig bewegendes Ziel, und es beinhaltet die Aufnahme von Redaktionsstellen, auch wenn Technologieunternehmen es nicht gerne zugeben. Diese Standpunkte müssen jemanden verärgern, die Perspektive einer Gruppe vermissen oder einer politischen Partei zu viel Luft geben.
Wenn Openai beispielsweise dazu verpflichtet, ChatGPT alle Perspektiven zu kontroversen Themen – einschließlich Verschwörungstheorien, rassistischen oder antisemitischen Bewegungen oder geopolitischen Konflikten – darzustellen, ist dies von Natur aus eine redaktionelle Haltung.
Einige, darunter der Mitbegründer von OpenA, John Schulman, argumentieren, dass es für Chatgpt die richtige Haltung ist. Die Alternative-eine Kosten-Nutzen-Analyse durchzuführen, um festzustellen, ob ein KI-Chatbot die Frage eines Benutzers beantworten sollte-könnte „der Plattform zu viel moralische Autorität geben“, bemerkt Schulman in einem Post auf X.
Schulman ist nicht allein. “Ich denke, Openai hat Recht, in Richtung mehr Sprache zu richten”, sagte Dean Ball, Research Fellow am Mercatus Center der George Mason University, in einem Interview mit TechCrunch. “Wenn KI -Modelle für die Art und Weise, wie Menschen über die Welt lernen, intelligenter und wichtiger werden, werden diese Entscheidungen einfach wichtiger.”
In den vergangenen Jahren haben AI -Modellanbieter versucht, ihre KI -Chatbots daran zu hindern, Fragen zu beantworten, die zu „unsicheren“ Antworten führen könnten. Fast jedes KI. Dies wurde damals weithin als sichere und verantwortungsbewusste Entscheidung angesehen.
OpenAIs Änderungen an der Modellspezifikation legen jedoch nahe, dass wir möglicherweise in eine neue Ära eintreten, was „KI -Sicherheit“ wirklich bedeutet, in dem es ein KI -Modell ermöglicht, alles zu beantworten und alles als verantwortungsbewusster zu sein, als Entscheidungen für Benutzer zu treffen.
Ball sagt, dass dies teilweise darauf zurückzuführen ist, dass KI -Modelle jetzt einfach besser sind. OpenAI hat erhebliche Fortschritte bei der Ausrichtung des KI -Modells erzielt. Die neuesten Argumentationsmodelle denken vor der Antwort über die KI -Sicherheitsrichtlinie des Unternehmens nach. Auf diese Weise können KI -Modelle bessere Antworten auf heikle Fragen geben.
Natürlich war Elon Musk der erste, der „Redefreiheit“ in Xais Grok Chatbot implementierte, vielleicht bevor das Unternehmen wirklich bereit war, sensible Fragen zu bearbeiten. Es mag immer noch zu früh sein, KI -Modelle zu leiten, aber jetzt nehmen andere dieselbe Idee an.
Verschiebungswerte für Silicon Valley
Mark Zuckerberg hat letzten Monat von Wellen geschlagen Neuorientierung der Geschäfte von Meta rund um die Prinzipien der ersten Änderung. Er lobte in diesem Prozess Elon Musk und sagte, der Eigentümer von X habe den richtigen Ansatz gewesen, indem er Community-Notizen-ein Community-gesteuerte Inhalts-Moderationsprogramm-verwendet hat, um die Redefreiheit zu schützen.
In der Praxis haben sowohl X als auch Meta ihre langjährigen Vertrauens- und Sicherheitsteams abgebaut, um kontroverse Beiträge auf ihren Plattformen zu ermöglichen und konservative Stimmen zu verstärken.
Veränderungen bei X haben möglicherweise seine Beziehungen zu Werbetreibenden verletzt, aber das hätte mehr damit zu tun haben können Moschuswer hat das genommen ungewöhnlicher Schritt einige von ihnen wegen Boykotts der Plattform zu verklagen. Frühe Anzeichen zeigen das an Die Werbetreibenden von Meta waren von Zuckerbergs Redefreiheit unbeeindruckt.
In der Zwischenzeit sind viele Technologieunternehmen jenseits von X und Meta von linksgerichteten Richtlinien zurückgegangen, die das Silicon Valley in den letzten Jahrzehnten dominierten. Google, Amazon und Intel haben Diversity -Initiativen im letzten Jahr beseitigt oder skalierte Diversity -Initiativen.
Openai kann auch den Kurs umkehren. Der Chatgpt-Hersteller scheint in letzter Zeit zu haben Das Engagement für Vielfalt, Gerechtigkeit und Inklusion schrubbte von seiner Website.
Als Openai beginnt sich an Eines der größten amerikanischen Infrastrukturprojekte aller Zeiten mit StargateMit einem KI -Datencenter in Höhe von 500 Milliarden US -Dollar wird die Beziehung zur Trump -Verwaltung immer wichtiger. Gleichzeitig wetteifert der Chatgpt -Hersteller um die dominierende Informationsquelle im Internet.
Die richtigen Antworten zu finden, kann sich für beide als Schlüssel erweisen.
Source link