OpenAI’s AI-training afmeldtool voor makers die niet binnenkort beschikbaar zijn: rapport


OpenAIkondigde in mei een nieuwe machine learning (ML)-tool aan waarmee makers konden specificeren of ze wilden dat OpenAI zijn kunstmatige intelligentie (AI)-modellen op hun inhoud zou trainen of niet. De tool, genaamd Media Manager, zou auteursrechtelijk beschermde tekst, afbeeldingen, audio en video’s uit meerdere bronnen identificeren en de voorkeuren van makers kunnen weerspiegelen. Het bedrijf moet de tool echter nog lanceren en volgens een rapport heeft de ontwikkeling en release van Media Manager geen prioriteit.

Volgens een TechCrunch rapportbeschouwt het AI-bedrijf de tool intern niet als een belangrijk project. Niet-benoemde mensen die bekend waren met de kwestie vertelden de publicatie dat het waarschijnlijk geen prioriteit was voor OpenAI en dat niemand eraan werkte. Een andere naamloze bron benadrukte naar verluidt dat hoewel de tool in het verleden werd besproken, er geen recente updates over zijn geweest.

Bovendien kreeg TechCrunch van het bedrijf te horen dat Fred von Lohmann, een lid van het juridische team dat aan de AI-tool werkte, in oktober 2024 werd overgeplaatst naar een parttime consultantrol. Deze ontwikkelingen wijzen er mogelijk op dat de AI-tool niet onderdeel van de kortetermijnroadmap van het bedrijf. Opvallend is dat het zeven maanden geleden is sinds de eerste vermeldingen van Media Manager.

De AI-tool was de manier van het bedrijf om makers een manier te bieden om uit te sluiten dat hun auteursrechtelijk beschermde inhoud wordt gebruikt om de grote taalmodellen (LLM’s) van OpenAI te trainen. Het bedrijf heeft ook een op formulieren gebaseerd proces dat makers kunnen gebruiken om de ChatGPT maker om auteursrechtelijk beschermd materiaal uit de trainingsgegevens van zijn AI-model te verwijderen. Het is echter een omslachtig proces waarbij klagers elk item van hun inhoud moeten opsommen en beschrijven, zodat het AI-bedrijf er actie op kan ondernemen.

Mediamanager, in plaats daarvan, zou gebruiken AI- en ML-processen om inhoud op websites en andere bronnen automatisch te detecteren en zouden een kruiscontrole uitvoeren met de namen van de makers die zich hebben afgemeld voor AI-training.

Verschillende domeinexperts hebben naar verluidt hun bezorgdheid geuit over de efficiëntie van de AI-tool en benadrukten dat zelfs gigantische platforms zoals YouTube en TikTok worstelen met inhoudsidentificatie op grote schaal. Anderen hebben naar verluidt kritiek geuit op OpenAI’s Media Manager omdat het de last van het afmelden legt bij makers die misschien niet eens op de hoogte zijn van een dergelijke AI-tool.



Source link