Tidligere OpenAI-forsker og whistleblower fundet død
En tidligere OpenAI-forsker, der blev whistleblower, Suchir Balaji, 26, blev fundet død i en lejlighed i San Francisco, bekræftede myndighederne, som først rapporteret af The Mercury News.
Har du travlt? Her er de hurtige fakta!
- Tidligere OpenAI forsker Suchir Balaji blev fundet død i en lejlighed i San Francisco.
- Balajis død den 26. november blev betegnet som selvmord uden tegn på uautoriseret indblanding.
- Balaji kritiserede offentligt OpenAI’s praksis, inklusive deres dataindsamlingsmetoder, før hans død.
Politiet opdagede Balajis lig den 26. november efter at have modtaget en anmodning om velfærdstjek. San Francisco’s retsmedicinske kontor erklærede dødsfaldet for selvmord, og efterforskerne fandt ingen tegn på uregelmæssigheder, sagde BBC.
I månederne op til hans død havde Balaji offentligt kritiseret OpenAI’s praksis. Virksomheden står i øjeblikket over for flere retssager på grund af dens metoder til indsamling af data.
Jeg deltog for nylig i en NYT-historie om fair brug og generativ AI, og hvorfor jeg er skeptisk over, at “fair brug” ville være et plausibelt forsvar for mange generative AI-produkter. Jeg skrev også et blogindlæg (https://t.co/xhiVyCk2Vk) om de tekniske detaljer ved fair brug og hvorfor jeg…
— Suchir Balaji (@suchirbalaji) 23. oktober 2024
I et nyligt interview med New York Times, udtalte hr. Balaji, at han ser truslerne fra AI som umiddelbare og betydelige. Han argumenterede for, at ChatGPT og lignende chatbots underminerer den kommercielle levedygtighed for enkeltpersoner, virksomheder og internettjenester, der oprindeligt skabte de digitale data, der blev brugt til at træne disse systemer.
OpenAI, Microsoft og andre virksomheder fastholder, at træning af deres AI-systemer på internetdata falder ind under “fair use”-doktrinen.
Denne doktrin tager højde for fire faktorer, og disse virksomheder hævder, at de opfylder kriterierne, herunder at de betydeligt forandrer ophavsretligt beskyttede værker og ikke direkte konkurrerer på det samme marked som disse værker.
Hr. Balaji var uenig. Han argumenterede for, at systemer som GPT-4 laver komplette kopier af træningsdata. Selvom virksomheder som OpenAI kan programmere disse systemer til enten at replikere dataene eller producere helt nye output, ligger virkeligheden ifølge ham et sted midt imellem, som rapporteret af The Times.
Hr. Balaji offentliggjorde en afhandling på sin personlige hjemmeside, hvor han tilbyder, hvad han beskriver som en matematisk analyse til støtte for denne påstand. “Hvis du tror på det, jeg tror på, så skal du bare forlade firmaet,” sagde han, som rapporteret af The Times.
Ifølge hr. Balaji overtræder teknologien ophavsretten, fordi den ofte konkurrerer direkte med de værker, den er trænet på. Generative modeller, designet til at efterligne online data, kan erstatte næsten alt på internettet, fra nyhedsartikler til online fora, rapporterede The Times.
Balajis død skete blot en dag efter en retsindgivelse identificerede ham som en person, hvis professionelle filer OpenAI ville gennemgå i forbindelse med et søgsmål indgivet af flere forfattere mod startup-virksomheden, bemærkede Forbes.
Ud over juridiske bekymringer advarede hr. Balaji om, at AI-teknologier er ved at nedbryde internettet. Når disse værktøjer erstatter eksisterende tjenester, genererer de ofte falske eller fuldstændigt fabrikerede oplysninger – et fænomen, forskere kalder “hallucinationer”. Han mente, at denne ændring ændrer internettet til det værre, rapporterede The Times.
Bradley J. Hulbert, en intellektuel ejendomsadvokat, bemærkede, at de nuværende ophavsretslove blev etableret længe før fremkomsten af AI, og at ingen domstol endnu har afgjort, om teknologier som ChatGPT overtræder disse love, som rapporteret af The Times.
Han understregede behovet for lovgivende handling. “I betragtning af, at A.I. udvikler sig så hurtigt,” sagde han, “er det på tide, at Kongressen træder ind.” Hr. Balaji var enig og udtalte, “Den eneste vej ud af alt dette er regulering,” rapporterede The Times.
Skriv en kommentar
Fortryd