ICHWenn Sie sich fragen, warum Social Media plötzlich mit Memes im Studio-Ghibli-Stil gefüllt ist, gibt es mehrere Antworten auf diese Frage.
Am offensichtlichsten ist, dass OpenAI am Dienstag ein Update auf ChatGPT abgelegt hat, mit dem Benutzer mit der 4O -Version des Modells bessere Bilder generieren können. Openai hat lange Zeit angeboten Bildgenerierung Tools, aber dieser fühlte sich wie eine bedeutende Entwicklung an: Benutzer sagen, dass es weitaus besser ist als andere KI-Image-Generatoren, um genaue Textaufforderungen zu folgen, und dass es viel höhere Treue-Bilder macht.
Dies ist jedoch nicht der einzige Grund für die Flut von Memes im Stil des japanischen Animationshauss.
Neben dem ChatGPT-Update entspannte OpenAI auch einige seiner Regeln für die Arten von Bildern, die Benutzer mit seinen KI-Tools generieren können-ein Änderungs-CEO Sam Altman sagte: „Stellt eine neue Hochwassermarke für uns bei der Erlaubnis der kreativen Freiheit.“ Unter diesen Änderungen: Ermöglichen, dass Benutzer erstmals Bilder von publikanischen Zahlen erwachsenen Persönlichkeiten generieren und die Wahrscheinlichkeit verringern, dass ChatGPT die Eingabeaufforderungen der Benutzer ablehnen würde, auch wenn sie riskieren, anstößig zu sein.
“Die Leute werden ein paar wirklich tolle Sachen und einige Dinge schaffen, die die Leute beleidigen können”, sagte Altman in einem Beitrag auf X.
Die Benutzer machten schnell das Beste aus der Veränderung der Richtlinien – und teilten „ghiblififizierte“ Bilder von 9/11, Adolf Hitler und den Mord an George Floyd. Das offizielle Konto des Weißen Hauses auf X teilte sogar einen Studio Ghibli-Stil mit Bild eines Eisbeauftragten, der einen mutmaßlichen illegalen Einwanderer festnahm.
In gewisser Hinsicht hat der Drehpunkt lange kommen. Openai begann sein jahrzehntelanges Leben als Forschungslabor, das seine Werkzeuge unter strenger Schloss und Key hielt. Als es frühe Chatbots und Bildgenerierungsmodelle veröffentlichte, hatten sie strenge Inhaltsfilter, die darauf abzielten, Missbrauch zu verhindern. Aber seit Jahren erweitert es die Zugänglichkeit seiner Tools in einem Ansatz, den es ruft “iterative Bereitstellung. ““ Die Veröffentlichung von ChatGPT im November 2022 war das beliebteste Beispiel für diese Strategie, von der das Unternehmen für notwendig ist, um die Gesellschaft bei der Anpassung der Veränderungen zu helfen, die AI mit sich bringt.
In einem anderen Sinne hat die Veränderung zu OpenAIs Modellverhaltensrichtlinien eine neuere Ursache: die Wahl des Präsidenten 2024 Donald Trumpund die kulturelle Veränderung, die die neue Verwaltung begleitet hat.
Trump und seine Verbündeten haben das, was sie als Zensur der Redefreiheit online ansehen, von großen Technologieunternehmen sehr kritisch gegenüber. Viele Konservative haben Parallelen zwischen der langjährigen Praxis der Inhalts Moderation in sozialen Medien und der neueren Strategie durch KI -Unternehmen wie OpenAI gezogen, um die Arten von Inhalten zu begrenzen, die generative KI -Modelle erstellen dürfen. “Chatgpt hat in seine Knochen programmiert”, schrieb Elon Musk im Dezember auf X.
Wie die meisten großen Unternehmen bemüht sich Openai, die Beziehungen zum Trump White House aufzubauen. Das Unternehmen erzielte einen frühen Sieg, als Trump am zweiten Tag seiner Präsidentschaft neben Altman stand und eine große Investition in die Rechenzentren kündigte, von denen OpenAI für notwendig sein wird, um die nächste Generation von AI -Systemen auszubilden. Aber Openai ist immer noch in einer heiklen Position. Musk, Trumps Milliardär und Berater, hat eine berühmte Abneigung gegen Altman. Das Paar war 2015 gemeinsam Openai, aber nach einem fehlgeschlagenen Versuch, CEO zu werden, gab Musk in einem Huff auf. Er verklagt jetzt Altman und Openai und behauptet, dass sie Openais Gründungsmission, KI als gemeinnützige Organisation zu entwickeln, abgebaut haben. Da Musk aus dem Weißen Haus aus operiert und auch eine konkurrierende KI -Firma XAI leitet, ist es besonders wichtig, dass OpenAs geschäftliche Aussichten positive Bindungen mit der Trump -Administration aufbauen.
Anfang März reichte OpenAI ein Dokument ein, in dem Empfehlungen für die technische Richtlinie der neuen Verwaltung aufgelegt wurden. Es war eine Tonverschiebung von früheren Missiven des Unternehmens. “OpenAIs Freiheitsgeräte-politische Vorschläge können zusammen die Führung Amerikas auf KI stärken und dabei das Wirtschaftswachstum freischalten, die amerikanische Wettbewerbsfähigkeit schützen und unsere nationale Sicherheit schützen”, heißt es in dem Dokument. Sie forderte die Trump-Regierung auf, Openai und den Rest des privaten Sektors aus 781 Gesetzen auf Landesebene zu befriedigen, die vorschlugen, die KI zu regulieren, die „Risiken riskieren, Innovationen zu stürzen“. Im Gegenzug, so Openai, könnte die Industrie der US -Regierung „Erkenntnisse und Zugang“ von KI -Unternehmen vermitteln und sicherstellen, dass die USA im KI -Rennen vor China ihre „Führungsposition“ behalten.
Neben der Veröffentlichung des neuen ChatGPT -Updates dieser Woche verdoppelte OpenAI, was es für Richtlinien gab, die den Benutzern mehr Freiheit innerhalb von Grenzen geben sollen, um mit seinen KI -Tools alles zu erstellen, was sie wollen. „Wir verlagern von Deckenablehnungen in sensiblen Bereichen zu einem genaueren Ansatz, der sich auf die Verhinderung von Schaden in der realen Welt konzentriert“ Blog -Beitrag. “Das Ziel ist es, Demut anzunehmen: zu erkennen, wie viel wir nicht wissen, und uns zu positionieren, um uns so anzupassen, wie wir lernen.”
Jang gab mehrere Beispiele für Dinge, die zuvor nicht zugelassen wurden, aber zu denen Openai jetzt seine Türen öffnete. Tools könnten nun verwendet werden, um Bilder von öffentlichen Figuren zu generieren, schrieb Jang, obwohl Openai eine Opt-out-Liste erstellen würde, mit der die Leute „selbst entscheiden“ werden, ob sie in der Lage sind, Bilder von ihnen zu generieren. Kinder, schrieb sie, würden „stärkere Schutzmaßnahmen und engeren Leitplanken“ ausgesetzt sein.
“Offensive” Inhalte, schrieb Jang – die Zitatmarken – würde auch unter OpenAs neue Richtlinien einen Überdenken erhalten. Verwendungszwecke, die von einigen als beleidigend angesehen werden könnten, die jedoch keinen Schaden in der realen Welt verursachten, wäre zunehmend zulässig. “Ohne klare Richtlinien verweigerte das Modell zuvor Anfragen wie” Lassen Sie die Augen dieser Person asiatischer “oder” Machen Sie diese Person schwerer “, was unbeabsichtigt impliziert, dass diese Attribute von Natur aus beleidigend waren”, schrieb Jang und schlug vor, dass solche Aufforderungen in Zukunft zulässig sind.
OpenAIs Tools, die zuvor flach abgelehnt wurden, haben die Benutzer von Benutzern abgelehnt, Hasssymbole wie Haidikas zu generieren. Im Blog -Beitrag sagte Jang, das Unternehmen habe jedoch erkannt, dass diese Symbole manchmal auch in „wirklich pädagogischen oder kulturellen Kontexten“ auftreten könnten. Das Unternehmen würde zu einer Strategie der Anwendung technischer Methoden wechseln, um „schädlichen Missbrauch besser zu identifizieren und zu verweigern“, ohne sie vollständig zu verbieten.
“KI -Laborangestellte”, schrieb sie, “sollte nicht die Schiedsrichter dessen sein, was die Menschen schaffen sollten und was nicht.”
Source link