Meninger: AI-hallucinations-epidemien, en krise vi ikke er klar til

Image generated with DALL·E through ChatGPT

Meninger: AI-hallucinations-epidemien, en krise vi ikke er klar til

Læsetid: 7 Minut

Trods løbende løfter om at reducere AI-hallucinationer, fortsætter større AI-værktøjer – fra ChatGPT til Perplexity til Gemini og Apple Intelligence – med at generere falske oplysninger, ofte med alarmerende konsekvenser. Eksperter, herunder dem, der advarer om AI-risici, er faldet for fabrikeret indhold, og selv avancerede værktøjer som Deep Research laver opdigtede rapporter. Sandheden synes at forblive i menneskehænder

Chatbots er blevet bedre gennem årene – meget bedre. Men der er et problem, der ikke helt er blevet løst, og det er kendt som “hallucinationer.”

Vore elskede chatbots deler geniale svar på vores forespørgsler med beslutsomhed og autoritet som en science fiction Yoda, selv når de er forfærdeligt forkert. Og vi tror på dem. Nogle gange blindt.

Flere videnskabsfolk, eksperter og endda chatbot-udviklere har advaret om hallucinationer i årevis. Alligevel, mens adoption har spredt sig hurtigt – OpenAI rapporterede 400 millioner ugentligt aktive brugere for blot få dage siden – har AI-literacy ikke fulgt med.

Nylige studier, retssager og dramatiske begivenheder fortsætter med at vise, at misinformation er endnu farligere end vi indser.

Det er værre end vi tror

I starten var det ret sjovt at spotte store AI-genererede fejl – som de pinlige AI oversigter genereret af Gemini der foreslog brugere at tilføje “ikke-giftig lim til sovsen” til en pizzaopskrift eller anbefalede at spise “en lille sten om dagen” sidste år. Men i takt med at vi genopbygger tilliden til AI, er situationen eskaleret og er blevet stadig mere bekymrende.

I december så vi, hvordan Apples AI-værktøj skabte overskrifter ved at “opsummere” nyheder og generere falsk og vildledende information, såsom at påstå fejlagtigt, at BBC havde annonceret, at Luigi Mangione havde skudt sig selv. Efter denne hændelse indgav publikationen en klage mod Apple og begyndte at undersøge generativ AI’s præcision mens de analyserede nyhedsindhold.

BBC’s resultater, offentliggjort for bare få dage siden, afslørede alarmerende statistikker: 51% af svarene, der blev givet af populære AI-chatbots, indeholdt betydelige problemer, 13% af de citater, der blev leveret af modellerne, var fuldstændig opdigtede, og 19% af dataene var forkerte.

Teenagere er blandt de mest påvirkede befolkningsgrupper, da de ofte kæmper for at skelne falske nyheder fra ægte nyheder, og de kan let blive påvirket af AI-genereret indhold. Et studie offentliggjort i januar viste, at 35% af teenagere er blevet vildledt af falsk indhold genereret af AI-modeller, og 22% delte den falske information.

Men det er ikke kun teenagere og distraherede personer, der falder for disse hallucinationer. Og det er ikke kun Gemini eller Apple Intelligence.

Ingen AI Model Er Forsvaret, Ingen Industri Er Sikker

Den forskning, der er udført af BBC, bekræfter et andet problem: alle AI-modeller hallucinerer. Eksperterne undersøgte de mest populære modeller, ChatGPT, Gemini, Perplexity og Copilot. Ingen AI-model er fri for fejl. Anthropic har en side, der behandler dette problem og foreslår idéer til, hvordan man kan reducere hallucinationer.

“Selv de mest avancerede sprogmodeller, som Claude, kan undertiden generere tekst, der er faktisk ukorrekt eller inkonsistent med den givne kontekst,” udtaler dokumentet. Andre AI-virksomheder har delt lignende sider med tips og tricks til at undgå falsk indhold, men det er ikke så let, og det har været et uløst problem i ganske lang tid.

Tilbage i 2023 annoncerede OpenAI, at de arbejdede på nye innovative metoder til at komme af med hallucinationer. Spoiler alert: det er stadig et kæmpe problem i dag.

I januar 2024 – for over et år siden – udtalte CEO Aravind Srinivas at Perplexitys hallucinationer primært opstod i ubetalte konti. “De fleste klager kommer fra den gratis version af produktet,” forklarede Srinivas, og tilføjede, at de allerede var i gang med at tilføje flere GPUs for at løse problemet. Alligevel havde New York Post og Dow Jones indgivet en retssag mod Perplexity i oktober – da deres model fortsatte med at tilskrive falske nyheder til deres publikationer – og AI-værktøjet, som startuppen udviklede til de amerikanske valg, blev testet af eksperter, der afslørede inkonsekvenser, unøjagtige resuméer og hallucinationer.

Hallucinationsproblemet Når Videnskabelige Og Akademiske Niveauer

En af de største bekymringer lige nu er, at selv eksperter – inklusive dem, der advarer om risiciene og farerne ved AI – er faldet for disse hallucinations-tilbøjelige værktøjer.

I december blev Stanford-professor og ekspert i teknologi og misinformation Jeff Hancock beskyldt for at bruge AI til at formulere en retserklæring. Hancock indgav en 12-siders erklæring til forsvar for statens 2023-lov, der kriminaliserer brugen af deepfakes, inklusive 15 henvisninger. Dog kunne to af disse henvisninger ikke findes nogen steder – fordi ChatGPT, misinformationsekspertens foretrukne AI-værktøj, simpelthen havde opfundet dem.

Hancock – der er planlagt til at undervise i “Sandhed, Tillid og Teknologi” i år – forklarede, at han brugte OpenAI’s chatbot til at organisere sine citater, hvilket førte til hallucinationer. Forskeren undskyldte – og stod ved de substansielle punkter i hans erklæring -, og lærte os alle den værdifulde lektie, at selv eksperter og dem, der ved mest om AI-risici, er modtagelige for det.

Professor Hancock har ikke været den eneste, der har indsendt dokumenter, der indeholder AI-genererede fabrikationer i retten, selvfølgelig. En anden sag, der involverede et søgsmål mod Walmart, gik for nylig viralt, fordi advokaterne brugte falske sager genereret af AI til at bygge deres argument. Faktisk er problemet blevet så hyppigt i de amerikanske domstole, at advokatfirmaet Morgan & Morgan for nylig sendte e-mails til sine mere end 1.000 advokater og advarede dem om risiciene ved at bruge AI-genererede citater, og den Amerikanske Advokatforening mindede sine 400.000 medlemmer om advokatetiske regler – inklusive AI-genererede oplysninger.

Dyb forskning også

Et af de mest populære AI værktøjer lige nu er “Deep Research”, designet til eksperter og forskere, der søger mere komplekse resultater i deres forskning. Hallucinationer er heller ikke fraværende fra dette værktøj, selvom OpenAI’s version oprindeligt krævede et $200 Pro abonnement for adgang.

Brugere på Reddit har udtrykt bekymringer vedrørende dette problem, og rapporterer, at alle de populære modeller med dyb forskningsværktøjer—Perplexity, ChatGPT, og DeepSeek—har hallucineret. Forskere og AI-eksperter har også delt foruroligende resultater på andre sociale medieplatforme som X.

“Værktøjet producerede en smukt skrevet og velargumenteret rapport,” skrev en bruger, der brugte OpenAI’s Deep Research værktøj til at studere matematik udført af unge mennesker. “Det eneste problem er, at det hele er opdigtet.”

“Deep Research opdigtede en masse statistikker og analyser, mens det hævdede at samle et datasæt af tusindvis af artikler og angiveligt indsamle fødselsårsinformation for hver forfatter fra pålidelige kilder,” delte en anden. “Intet af dette er sandt.”

Sandheden Forbliver I Menneskehænder

Vil chatbots nogensinde stoppe med at hallucinere? AI’s svage punkt har været tydeligt i mange år – vi så det i podcasts som Planet Money, da de testede AI-genererede episoder i 2023, og vi fortsætter med at se det i de mest avancerede modeller, selv dem der er designet til eksklusiv brug af ekspert- og teknologikyndige fællesskaber.

Måske er det tid til at acceptere, at dette vil forblive et problem og forstå, at vi skal påtage os ansvaret for det, vi skaber og deler ved hjælp af AI-værktøjer.

Det faktum, at selvom det synes som et velkendt problem, falder AI-risikoeksperter selv for den overbevisende og indbydende skrivning af AI, er bestemt bekymrende. Situationen bliver endnu mere kompleks, når adoptionen fortsætter med at accelerere i fuld fart, overhaler digital læsefærdighed, mens uoverensstemmelser og opdigtede citater formere sig.

Tilfælde, hvor AI-hallucinationer er blevet afsløret, har tendens til at være dem, hvor faktatjek er afgørende – noget Zuckerberg burde minde sig selv om nu, hvor han har elimineret sin faktatjekafdeling. Dette er særligt tydeligt i retssale, hvor advokater og dommere arbejder på at verificere fakta og sager, og i nyhedsmedier, hvor nøjagtighed og kildevalidering er vigtigt.

Men hvad med tilfælde, hvor ingen gransker disse detaljer? Hvad sker der i hverdagen, i mere personlige sammenhænge? Lige nu memorerer millioner af studerende AI-genererede svar til deres studier, brugere følger AI-leverede instruktioner til at behandle lidelser, og andre lærer om nye emner, fuldt ud stolende på teknologien.

Konsekvenserne af denne nye virkelighed, vi står over for, er umålelige og uforudsigelige, og sandheden – for nu – er i hænderne på dem, der tager sig tid til at stille spørgsmål og verificere.

Kunne du lide denne artikel?
Så anmeld den venligst!
Jeg hadede den Jeg kan ikke rigtigt lide den Den var ok Ret god! Var vild med den!

Vi er glade for du synes om vores arbejde!

Som en værdsat læser, håber vi du har lyst til at tjekke os på Trustpilot? Det er hurtigt, og betyder alverden for os. Tak for at du er fantastisk!

Bedøm os på Trustpilot
0 Brugere som har 0 stemt
Overskrift
Kommentar
Tak for din feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Skriv en kommentar

Loader
Loader Vis mere...