OpenAI is er niet in geslaagd de beloofde opt-out-tool in 2025 te leveren


Terug binnen KunnenOpenAI zei dat het een tool aan het ontwikkelen was waarmee makers konden specificeren hoe zij willen dat hun werken worden opgenomen in – of uitgesloten van – de AI-trainingsgegevens. Maar zeven maanden later moet deze functie nog het levenslicht zien.

De tool, genaamd Media Manager, zou “auteursrechtelijk beschermde tekst, afbeeldingen, audio en video identificeren”, zei OpenAI destijds, om de voorkeuren van makers “over meerdere bronnen heen weer te geven.” Het was bedoeld om een ​​deel van het bedrijf af te wenden felste criticien mogelijk OpenAI ertegen beschermen IE-gerelateerde juridische uitdagingen.

Maar bekende mensen vertellen TechCrunch dat de tool intern zelden als een belangrijke lancering werd gezien. “Ik denk niet dat het een prioriteit was”, zei een voormalige OpenAI-medewerker. “Eerlijk gezegd kan ik me niet herinneren dat iemand eraan heeft gewerkt.”

Een niet-werknemer die de werkzaamheden met het bedrijf coördineert, vertelde TechCrunch in december dat ze de tool in het verleden met OpenAI hadden besproken, maar dat er geen recente updates zijn geweest. (Deze mensen weigerden publiekelijk te worden geïdentificeerd als ze vertrouwelijke zakelijke aangelegenheden bespraken.)

En een lid van het juridische team van OpenAI dat aan Media Manager werkte, Fred von Lohmann, stapte in oktober over naar een parttime consultantrol. OpenAI PR bevestigde de overstap van Von Lohmann naar TechCrunch via e-mail.

OpenAI heeft nog geen update gegeven over de voortgang van Media Manager, en het bedrijf heeft een zelfopgelegde deadline gemist om de tool ‘in 2025’ operationeel te hebben. (Voor de duidelijkheid: “tegen 2025” zou gelezen kunnen worden als inclusief het jaar 2025, maar TechCrunch interpreteerde de taal van OpenAI als de aanloop naar 1 januari 2025.)

IP-problemen

AI-modellen zoals die van OpenAI leren patronen in gegevenssets om bijvoorbeeld voorspellingen te doen iemand die in een burger bijt, laat een bijtspoor achter. Hierdoor kunnen modellen tot op zekere hoogte leren hoe de wereld werkt door deze te observeren. ChatGPT kan overtuigende e-mails en essays schrijven, terwijl Sorade videogenerator van OpenAI, kan relatief realistische beelden maken.

Het vermogen om te putten uit voorbeelden van schrijven, film en meer om nieuw werk te genereren, maakt AI ongelooflijk krachtig. Maar het is ook regurgitatief. Wanneer ze op een bepaalde manier worden gevraagd, produceren modellen – waarvan de meeste zijn getraind op talloze webpagina’s, video’s en afbeeldingen – bijna kopieën van die gegevens, die ondanks dat ze ‘openbaar beschikbaar’ zijn, niet bedoeld zijn om op deze manier te worden gebruikt.

Sora kan dat bijvoorbeeld wel clips genereren met het logo van TikTok En populaire videogamekarakters. De New York Times heeft ChatGPT zover gekregen dat hij zijn artikelen woordelijk citeert (OpenAI wijt het gedrag aan een “hacken“).

Dit heeft begrijpelijkerwijs de makers van streek gemaakt wier werken zonder hun toestemming in de AI-training zijn opgenomen. Velen hebben een advocaat ingeschakeld.

OpenAI vecht tegen class action-rechtszaken die zijn aangespannen door artiesten, schrijvers, YouTuberscomputerwetenschappers en nieuwsorganisaties, die allemaal beweren dat de startup illegaal in hun werk is opgeleid. Tot de eisers behoren auteurs Sarah Silverman en Ta Nehisi-Coates, beeldend kunstenaars en mediaconglomeraten als The New York Times en Radio-Canada, om er maar een paar te noemen.

OpenAI heeft dit nagestreefd licentieverlening aanbiedingen met selecteren partnersmaar niet alle makers zien de voorwaarden even aantrekkelijk.

OpenAI biedt makers verschillende ad-hocmanieren om zich af te melden voor de AI-training. Afgelopen september heeft het bedrijf gelanceerd een inzendingsformulier waarmee kunstenaars hun werk kunnen markeren voor verwijdering uit de toekomstige trainingssets. En OpenAI laat webmasters al lang hun webcrawlende bots blokkeren gegevens schrappen over hun domeinen heen.

Maar makers hebben deze methoden bekritiseerd als lukraak en inadequaat. Er zijn geen specifieke opt-out-mechanismen voor geschreven werken, video’s of audio-opnamen. En het opt-outformulier voor afbeeldingen vereist het indienen van een kopie van elke afbeelding die moet worden verwijderd, samen met een beschrijving, een moeizaam proces.

Media Manager werd gepitcht als een complete vernieuwing (en uitbreiding) van de huidige opt-out-oplossingen van OpenAI.

In de aankondigingspost in mei zei OpenAI dat Media Manager ‘geavanceerd machine learning-onderzoek’ zou gebruiken om makers en contenteigenaren in staat te stellen ‘te vertellen (OpenAI) wat ze bezitten’. OpenAI, dat beweerde samen te werken met toezichthouders bij de ontwikkeling van de tool, zei dat het hoopte dat Media Manager “een standaard zou zetten voor de AI-industrie.”

OpenAI heeft Media Manager sindsdien nooit meer publiekelijk genoemd.

Een woordvoerder vertelde TechCrunch dat de tool vanaf augustus “nog in ontwikkeling was”, maar reageerde medio december niet op een vervolgverzoek om commentaar.

OpenAI heeft geen indicatie gegeven over wanneer Media Manager zou kunnen starten – of zelfs met welke functies en mogelijkheden het zou kunnen starten.

Redelijk gebruik

Ervan uitgaande dat Media Manager er ooit komt, zijn experts er niet van overtuigd dat het de zorgen van makers zal wegnemen – of veel zal bijdragen aan het oplossen van de juridische vragen rond AI- en IP-gebruik.

Adrian Cyhan, een IE-advocaat bij Stubbs Alderton & Markiles, merkte op dat Media Manager zoals beschreven een ambitieuze onderneming is. Zelfs platforms zo groot als YouTube en TikTok strijd met inhouds-ID op schaal. Zou OpenAI het echt beter kunnen doen?

“Het garanderen van naleving van de wettelijk vereiste bescherming van makers en potentiële compensatievereisten die in overweging worden genomen, brengt uitdagingen met zich mee”, vertelde Cyhan aan TechCrunch, “vooral gezien het snel evoluerende en potentieel uiteenlopende juridische landschap in nationale en lokale rechtsgebieden.”

Ed Newton-Rex, de oprichter van Fairly Trained, een non-profitorganisatie die certificeert dat AI-bedrijven de rechten van makers respecteren, is van mening dat Media Manager de last van het controleren van AI-training op oneerlijke wijze op de makers zou afwentelen; door het niet te gebruiken, zouden ze aantoonbaar stilzwijgend toestemming kunnen geven voor het gebruik van hun werken. “De meeste makers zullen er nooit eens van horen, laat staan ​​het gebruiken”, vertelde hij aan TechCrunch. “Maar het zal niettemin worden gebruikt om de massale exploitatie van creatief werk te verdedigen, tegen de wensen van de makers in.”

Mike Borella, medevoorzitter van de AI-praktijkgroep van MBHB, wees erop dat opt-out-systemen niet altijd rekening houden met transformaties die in een werk kunnen worden aangebracht, zoals een beeld dat is gedownsampled. Ze zullen misschien ook niet ingaan op het veelvoorkomende scenario van platforms van derden die kopieën van de inhoud van de makers hosten, voegde Joshua Weigensberg, een IP- en media-advocaat voor Pryor Cashman, eraan toe.

“Creators en auteursrechteigenaren hebben geen controle, en weten vaak niet eens waar hun werken op internet verschijnen”, zegt Weigensberg. “Zelfs als een maker elk AI-platform vertelt dat ze zich afmelden voor training, kunnen die bedrijven nog steeds doorgaan en trainen op kopieën van hun werken die beschikbaar zijn op websites en diensten van derden.”

Media Manager is misschien niet eens bijzonder voordelig voor OpenAI, althans vanuit jurisprudentieel oogpunt. Evan Everist, een partner bij Dorsey & Whitney gespecialiseerd in auteursrechtwetgeving, zei dat OpenAI de tool weliswaar zou kunnen gebruiken om een ​​rechter te laten zien dat het zijn training op het gebied van IP-beschermde inhoud verzacht, maar dat Media Manager het bedrijf waarschijnlijk niet tegen schade zou beschermen als dat wel het geval zou zijn. geconstateerd dat er inbreuk is gemaakt.

“Eigenaars van auteursrechten zijn niet verplicht om anderen preventief te vertellen dat ze geen inbreuk op hun werken mogen maken voordat die inbreuk plaatsvindt”, aldus Everist. “De basisprincipes van de auteursrechtwetgeving zijn nog steeds van toepassing: dat wil zeggen: neem en kopieer geen spullen van anderen zonder toestemming. Deze functie gaat wellicht meer over PR en het positioneren van OpenAI als een ethische gebruiker van inhoud.”

Een afrekening

Bij afwezigheid van Media Manager heeft OpenAI filters geïmplementeerd – ook al zijn het imperfecte – om te voorkomen dat zijn modellen trainingsvoorbeelden herhalen. En in de rechtszaken waarmee het bedrijf worstelt, blijft het bedrijf beweren eerlijk gebruik protections, waarbij wordt beweerd dat zijn modellen transformatieve, en geen plagiaat, werken creëren.

OpenAI zou heel goed kunnen zegevieren in zijn auteursrechtgeschillen.

De rechtbanken kunnen beslissen dat de AI van het bedrijf een ‘transformatief doel’ heeft precedent die ongeveer tien jaar geleden plaatsvond in de rechtszaak van de uitgeverswereld tegen Google. In die zaak oordeelde een rechtbank dat het kopiëren door Google van miljoenen boeken voor Google Books, een soort digitaal archief, toegestaan ​​was.

OpenAI heeft gezegd publiekelijk dat het “onmogelijk” zou zijn om concurrerende AI-modellen te trainen zonder gebruik te maken van auteursrechtelijk beschermd materiaal – al dan niet toegestaan. “Het beperken van trainingsgegevens tot boeken en tekeningen uit het publieke domein die meer dan een eeuw geleden zijn gemaakt, zou een interessant experiment kunnen opleveren, maar zou geen AI-systemen opleveren die voldoen aan de behoeften van de hedendaagse burgers”, schreef het bedrijf in een inzending in januari aan het Britse House of Lords. .

Mochten rechtbanken OpenAI uiteindelijk als overwinnaar verklaren, dan zou Media Manager niet echt een juridisch doel dienen. OpenAI lijkt bereid die gok te wagen – of zijn opt-out-strategie te heroverwegen.



Source link