
Photo by Rafiee Artist on Unsplash
Meninger: Er ChatGPT din ven? Det kan være et godt tidspunkt at sætte grænser
OpenAI og MIT har for nylig udgivet en rapport om ChatGPT’s indvirkning på menneskers velbefindende. Selvom de fleste brugere anvender teknologien til praktiske opgaver, afslører undersøgelsen, at en lille gruppe har udviklet dybe følelsesmæssige forbindelser med AI-modellen, som kan påvirke deres velbefindende
Jeg har i nogen tid nu observeret med nysgerrighed de relationer, som nogle mennesker er ved at udvikle med generativ kunstig intelligens. For et par måneder siden læste jeg i The New York Times historien om en 28-årig gift kvinde, der forelskede sig i ChatGPT, og hvordan det, der begyndte som “et sjovt eksperiment”, udviklede sig til et komplekst og uventet forhold.
Jeg har observeret mine venner, især dem, der engang afviste teknologi eller ikke var interesserede i det, og som ikke kan træffe en stor beslutning uden at konsultere deres AI-orakel. Jeg har også fundet mig selv overrasket over de empatiske svar AI-modeller giver på emotionelt eller psykologisk ladede forespørgsler.
Og selvfølgelig har jeg grinet af vittighederne, memesene og TikTok-videoerne af folks opslag på sociale medier, der viser, hvordan de er blevet afhængige af chatbotten, nogle endda kalder det deres “bedste ven” eller “terapeut” – og endda anbefaler seriøst andre at gøre det samme.
Men, hvis vi for et øjeblik lægger de sjove oplevelser og vittigheder til side, kan vi måske indse, at vi står over for et bekymrende fænomen globalt.
Denne måned, for første gang i den korte historie om kunstig intelligens, har OpenAI og MIT Media Lab udgivet en studie der tilbyder indblik i den nuværende indvirkning af ChatGPT på folks emotionelle velbefindende, samt forslag til de risici, vi kan stå over for som samfund: ensomhed, følelsesmæssig afhængighed og færre sociale interaktioner med rigtige mennesker.
Et Forhold Der Udvikler Sig
Den første tilgang til de nye generative kunstige intelligens teknologier begynder ofte med et par forsigtige spørgsmål, måske tekniske om praktiske opgaver som at skrive en email eller anmodninger om at forklare komplekse emner, eller bare til brainstorming.
Dog når en bruger begynder at teste chatbottens evner, opdager de, at disse kan være bredere og mere komplekse end forventet.
Mens visse AI produkter som Friend — en bærbar AI-enhed — er blevet designet og meget akavet promoveret som en brugers livsledsager, er ChatGPT blevet markedsført som et produktivitetsværktøj. Dog bruger en procentdel af mennesker chatbotten til personlige og følelsesmæssige anliggender og udvikler stærke bånd med den.
Selvom de måske bare er en “lille gruppe”, som OpenAI har understreget, kunne de stadig repræsentere millioner af mennesker verden over, især når man tager i betragtning, at der nu er over 400 millioner mennesker, der bruger ChatGPT ugentligt. Disse brugere bemærker hurtigt, at OpenAI’s chatbot efterligner deres sprog, tone og stil, og den kan endda trænes til at interagere på en bestemt måde eller bruge kælenavne – ligesom den dame, der forelskede sig i den, gjorde – og endda “lyde” mere menneskelig.
“Deres samtalestil, førstepersonssprog og evne til at simulere menneskelignende interaktioner har ført til, at brugerne undertiden personificerer og antropomorfiserer disse systemer“, udtaler dokumentet delt af OpenAI.
Men denne nærhed kommer med risici, som forskerne bemærkede: “Selvom en følelsesmæssigt engagerende chatbot kan tilbyde støtte og selskab, er der en risiko for, at den kan manipulere brugernes socioaffektive behov på måder, der underminerer trivsel på længere sigt.”
Studiets Metodologi
Den nyligt offentliggjorte undersøgelse fokuserer på menneskers velvære efter konsekvent brug af ChatGPT. For at forstå den emotionelle og sociale påvirkning af chatbotten, gennemførte forskerne to hovedstudier, der anvendte forskellige strategier.
OpenAI behandlede og analyserede over 40 millioner interaktioner, respekterende brugernes privatliv ved hjælp af klassifikatorer, og undersøgte over 4.000 af dem om, hvordan interaktionerne fik dem til at føle sig.
MIT Media Lab gennemførte en prøve med næsten 1.000 mennesker over en måned, med fokus på de psykosociale konsekvenser af brugen af ChatGPT i mindst 5 minutter om dagen. De indsendte også og behandlede spørgeskemaer i slutningen af eksperimentet.
Ikke overraskende viste resultaterne, at brugere, der tilbringer mere tid med teknologien, oplever mere ensomhed og viser flere tegn på isolation.
Komplekse Konsekvenser Og Flere Ramifikationer
MIT Media Lab og OpenAI’s studie tilbød også flere overvejelser om, hvor komplekse og unikke menneske-chatbot forhold kan være.
I forskningen giver forfatterne os et indblik i de forskelligartede oplevelser og måder, hvorpå hver bruger interagerer med ChatGPT – og hvordan resultatet kan variere afhængigt af forskellige faktorer, såsom brugen af avancerede stemmefunktioner, tekst-til-modus, stemmetype, brugsfrekvens, samtaleemner, det sprog der bruges, og den tid der bruges på appen.
“Vi råder imod at generalisere resultaterne, fordi det kan sløre de nuancerede fund, der fremhæver de ikke-uniforme, komplekse interaktioner mellem mennesker og AI-systemer,” advarer OpenAI i sin officielle meddelelse.
Alle de forskellige tilgange, hver bruger vælger, resulterer i forskellige resultater og drager os ind i gråzoner, der er svære at udforske.
Det er Butterfly AI-effekten!
Flere spørgsmål dukker op
Det papir, som OpenAI har delt, bemærker også, at tunge brugere sagde, at de ville blive “kede af det”, hvis deres chatbots stemme eller personlighed ændrede sig.
Dette mindede mig om en video, jeg for nylig så på sociale medier, hvor en mand sagde, at han foretrak en kvindelig stemme og at han talte med den generative AI hver dag. Kunne ChatGPT også hjælpe mænd med at åbne op følelsesmæssigt? Hvad ville der ske, hvis ChatGPT en dag talte til ham med en mandlig stemme? Ville han føle sig svigtet? Ville han stoppe med at bruge ChatGPT? Udviklede han en romantisk forbindelse – eller blot et tillidsrum? Selvfølgelig er det svært ikke straks at relatere disse scenarier til Spike Jonzes film Her.
Hver ChatGPT-konto, sammen med dens historiske chats – hver dag mere intime og private end enhver WhatsApp-profil eller sociale medie-DM’er – repræsenterer et unikt forhold med utallige resultater og konsekvenser.
Det Forventede Resultat
Alle studier analyserede forskellige aspekter, men nåede frem til en lignende konklusion, kort forklaret i MIT Technology Review: “Deltagere, der stolede på og ‘bundede’ mere med ChatGPT, var mere tilbøjelige end andre til at være ensomme og til at være mere afhængige af det.”
Mens undersøgelsen ikke fokuserede på løsninger eller dybere forklaringer på, hvorfor dette sker, eller hvordan det kunne udvikle sig, synes det sandsynligt, at flere brugere vil tilslutte sig OpenAI og andre AI-platforme, især nu hvor AI billedgenereringsværktøjet er gået viralt.
Selvom konklusionerne af MIT og OpenAI’s forskning ikke er særligt overraskende, giver studiet en videnskabelig baggrund med beviser, målinger, prøver og mere ‘håndgribelige’ metrikker, der kan bane vejen for yderligere forskning og hjælpe med at adressere de konsekvenser, der er ved at bruge kunstig intelligens i dag.
Vi modtog også en officiel advarsel – fra dens egne udviklere – om de bånd, vi bygger med ChatGPT, og en invitation til at fastsætte grænser og reflektere over vores interaktioner og nuværende forhold – eller situationships? – med chatbots.
Skriv en kommentar
Fortryd