Bluesky abwägt einen Vorschlag, der den Benutzern die Zustimmung darüber gibt, wie ihre Daten für AI verwendet werden


Sprechen im SXSW -Konferenz In Austin am Montag sagte Jay Graber, CEO von Bluesky, das soziale Netzwerk habe an einem Framework für die Zustimmung der Benutzer gearbeitet, wie ihre Daten für generative KI verwendet werden sollen.

Die öffentliche Natur von Blueskys sozialem Netzwerk hat bereits erlaubt andere, um ihre KI -Systeme auszubilden Auf den Inhalten der Benutzer, wie im letzten Jahr festgestellt wurde, als 404 Medien auf eine stießen Datensatz aus 1 Million Bluesky -Posts, die auf dem Umarmungsgesicht gehostet werden.

Der Bluesky -Konkurrent X füttert die Beiträge der Benutzer in die Schwesterfirma XAI, um seinen KI -Chatbot Grok zu trainieren. Im vergangenen Herbst hat es seine Datenschutzrichtlinie geändert Damit Dritte ihre KI in den X -Posts der Benutzer schulen könnensowie. Der Umzug, gefolgt von den US -Wahlen, die den Status von X -Besitzer Elon Musk in der Trump -Administration erhöhten, half dabei, einen weiteren Exodus von Benutzern von X nach Bluesky zu tanken.

Infolgedessen ist Blueskys Open Source, Dezentrales X -Alternative in nur zwei Jahren auf über 32 Millionen Benutzer angewachsen.

Die Nachfrage nach KI -Schulungsdaten bedeutet jedoch, dass das neue soziale Netzwerk über seine KI -Richtlinie nachdenken muss Es ist nicht geplant, seine eigenen KI -Systeme auf den Benutzern zu schulen.

Bei SXSW erklärte Graber, dass sich das Unternehmen mit Partnern engagiert habe, um einen Rahmen für die Einwilligung der Benutzer darüber zu entwickeln, wie es seine Daten für generative KI verwendet oder nicht verwendet oder nicht.

“Wir glauben wirklich an die Wahl der Benutzer”, sagte Graber und sagte, dass Benutzer angeben könnten, wie sie ihre Bluesky -Inhalte verwenden sollen.

“Es könnte etwas ähnlich sein, wie Websites angeben, ob sie von Suchmaschinen abgekratzt werden möchten oder nicht”, fuhr sie fort.

„Suchmaschinen können weiterhin Websites kratzen, unabhängig davon, ob Sie dies haben oder nicht, da Websites im öffentlichen Internet geöffnet sind. Aber im Allgemeinen das Robots.txt -Datei wird von vielen Suchmaschinen respektiert “, sagte sie. „Sie müssen also etwas übernommen werden, um Benutzer, Unternehmen und Aufsichtsbehörden zu diesem Rahmen zu haben. Aber ich denke, es könnte hier funktionieren. “

Der Vorschlag, der ist Derzeit auf GitHubwürde beinhalten, die Einwilligung der Benutzer auf Kontoebene oder sogar auf Post -Ebene zu erhalten, und dann andere Unternehmen aufzufordern, diese Einstellung zu respektieren.

„Wir haben mit anderen Menschen in dem Raum gearbeitet, wie AI beeinflusst, wie wir unsere Daten betrachten“, fügte Graber hinzu. “Ich denke, es ist eine positive Richtung.”



Source link