Omgekomen klokkenluider van OpenAI werd beschouwd als getuige tegen bedrijf | OpenAI


Suchir Balaji, een voormalig OpenAI De ingenieur en klokkenluider die hielp bij het trainen van de kunstmatige-intelligentiesystemen achter ChatGPT en later zei dat hij geloofde dat deze praktijken in strijd waren met de auteursrechtwetgeving, is overleden, volgens zijn ouders en functionarissen in San Francisco. Hij was 26.

Balaji werkte bijna vier jaar bij OpenAI voordat hij in augustus stopte. Hij stond hoog aangeschreven bij collega’s van het bedrijf uit San Francisco, waar een mede-oprichter hem deze week een van de sterkste bijdragers van OpenAI noemde, die essentieel was voor de ontwikkeling van sommige van zijn producten.

“We zijn er kapot van om dit ongelooflijk trieste nieuws te vernemen en onze gedachten gaan uit naar de dierbaren van Suchir in deze moeilijke tijd”, aldus een verklaring van OpenAI.

Balaji werd op 26 november dood aangetroffen in zijn appartement in San Francisco. Volgens de politie leek het “een zelfmoord te zijn. Tijdens het eerste onderzoek zijn geen aanwijzingen voor kwaad opzet gevonden.” Het hoofd van de medische onderzoeker van de stad bevestigde dat de doodsoorzaak zelfmoord was.

Zijn ouders, Poornima Ramarao en Balaji Ramamurthy, zeiden dat ze nog steeds op zoek zijn naar antwoorden. Ze omschrijven hun zoon als een ‘gelukkige, slimme en moedige jongeman’ die graag wandelde en onlangs was teruggekeerd van een reis met vrienden.

Balaji groeide op in de San Francisco Bay Area en arriveerde voor het eerst in het jonge AI-onderzoekslaboratorium voor een zomerstage in 2018, terwijl hij computerwetenschappen studeerde aan de University of California, Berkeley. Een paar jaar later keerde hij terug om bij OpenAI te gaan werken, waar een van zijn eerste projecten, WebGPT genaamd, de weg vrijmaakte voor ChatGPT.

“De bijdragen van Suchir aan dit project waren essentieel, en zonder hem zou het niet gelukt zijn”, zegt OpenAI-medeoprichter John Schulman in een post op sociale media ter herdenking van Balaji. Schulman, die Balaji voor zijn team rekruteerde, zei dat wat hem tot zo’n uitzonderlijke ingenieur en wetenschapper had gemaakt, zijn aandacht voor detail was en zijn vermogen om subtiele bugs of logische fouten op te merken.

“Hij had een talent voor het vinden van eenvoudige oplossingen en het schrijven van elegante code die werkte”, schreef Schulman. „Hij dacht zorgvuldig en rigoureus over de details van de dingen na.“

Balaji schakelde later over op het organiseren van de enorme datasets van online geschriften en andere media die werden gebruikt om GPT-4 te trainen, de vierde generatie van OpenAI’s vlaggenschip grote taalmodel en een basis voor de beroemde chatbot van het bedrijf. Het was dat werk dat er uiteindelijk voor zorgde dat Balaji de technologie die hij hielp bouwen in twijfel trok, vooral nadat kranten, romanschrijvers en anderen OpenAI en andere AI-bedrijven begonnen aan te klagen wegens inbreuk op het auteursrecht.

Hij uitte zijn zorgen eerst bij de gemeente New York Timesdie ze rapporteerde in een profiel van Balaji in oktober.

Later vertelde hij de Associated Press dat hij zou “proberen te getuigen” in de zwaarste gevallen van inbreuk op het auteursrecht en beschouwde een rechtszaak die vorig jaar door de New York Times was aangespannen als de “meest ernstige”. Advocaten van Times noemden hem in een rechtszaak van 18 november als iemand die mogelijk over “unieke en relevante documenten” beschikt die de beschuldigingen van OpenAI’s opzettelijke inbreuk op het auteursrecht ondersteunen.

Zijn gegevens werden ook door advocaten opgevraagd in een afzonderlijke zaak die was aangespannen door boekauteurs, waaronder de cabaretier Sarah Silverman, volgens een rechtszaak.

„Het voelt niet goed om te trainen op de gegevens van mensen en vervolgens met hen te concurreren op de markt“, vertelde Balaji eind oktober aan de AP. “Ik denk niet dat je dat zou moeten kunnen doen. Ik denk niet dat je dat legaal kunt doen.”

Hij vertelde de AP dat hij geleidelijk meer gedesillusioneerd was geraakt door OpenAI, vooral na de interne onrust die er vorig jaar toe leidde dat de raad van bestuur de CEO, Sam Altman, ontsloeg en vervolgens opnieuw aannam. Balaji zei dat hij zich in grote lijnen zorgen maakte over de manier waarop de commerciële producten zich ontwikkelden, inclusief hun neiging om valse informatie te verspreiden die bekend staat als hallucinaties.

Maar van de ‘zak met problemen’ waar hij zich zorgen over maakte, zei hij, concentreerde hij zich op het auteursrecht, omdat het ‘eigenlijk mogelijk was er iets aan te doen’.

Hij erkende dat het een impopulaire mening was binnen de AI-onderzoeksgemeenschap, die gewend is gegevens van internet te halen, maar zei dat “ze zullen moeten veranderen en dat het een kwestie van tijd is”.

Hij was niet afgezet en het is onduidelijk in hoeverre zijn onthullingen na zijn dood als bewijs zullen worden toegelaten in eventuele rechtszaken. Hij publiceerde ook een persoonlijke blogpost met zijn mening over het onderwerp.

Schulman, die in augustus ontslag nam bij OpenAI, zei dat hij en Balaji toevallig op dezelfde dag vertrokken en die avond met collega’s vierden met een diner en een drankje in een bar in San Francisco. Een andere mentor van Balaji, medeoprichter en hoofdwetenschapper Ilya Sutskever, had OpenAI enkele maanden eerder verlaten, wat Balaji zag als een nieuwe impuls om te vertrekken.

Schulman zei dat Balaji hem eerder dit jaar had verteld over zijn plannen om OpenAI te verlaten en dat Balaji niet dacht dat de beter dan menselijke AI, bekend als kunstmatige algemene intelligentie, “voor de deur stond, zoals de rest van het bedrijf leek te geloven. ”. De jongere ingenieur toonde interesse in het behalen van een doctoraat en het onderzoeken van “nog meer buiten de gebaande paden gelegen ideeën over het opbouwen van intelligentie”, zei Schulman.

Balaji’s familie zei dat er later deze maand een herdenking gepland staat in het India Community Center in Milpitas, Californië, niet ver van zijn geboorteplaats Cupertino.

In de VS kunt u bellen of sms’en Nationale levenslijn voor zelfmoordpreventie op 988, chat verder 988lifeline.orgof tekst THUIS naar 741741 om contact op te nemen met een crisisadviseur. In Groot-Brittannië en Ierland is Samaritanen U kunt contact opnemen via het gratis nummer 116 123 of per e-mail jo@samaritans.org of jo@samaritans.ie. In Australië de crisisondersteuningsdienst Levenslijn is 13 11 14. Andere internationale hulplijnen zijn te vinden op befrienders.org

De Associated Press en OpenAI hebben een licentie- en technologieovereenkomst die OpenAI toegang geeft tot een deel van de tekstarchieven van de AP.



Source link

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein