AI-genererede fejl i retsdokumenter fører til juridiske problemer for advokater

Photo by Saúl Bucio on Unsplash

AI-genererede fejl i retsdokumenter fører til juridiske problemer for advokater

Læsetid: 2 Minut

En rapport delt af Reuters i går afslører, at AI’s hallucinationer—fejl og opdigtede informationer skabt af generative AI-modeller—skaber juridiske problemer i retssystemet i USA.

Har du travlt? Her er de hurtige fakta!

  • Morgan & Morgan sendte en e-mail til 1.000 advokater, hvor de advarede om risiciene ved AI.
  • Den nylige sag, hvor Walmart-advokater indrømmede at bruge AI til deres sager, har skabt bekymring i det juridiske samfund.
  • Brugen af chatbot-hallucinationer i retslige erklæringer er blevet et tilbagevendende problem i de seneste år.

Denne måned sendte advokatfirmaet Morgan & Morgan en e-mail advarsel til over 1.000 advokater om risiciene ved at bruge chatbots og falske sager genereret af kunstig intelligens.

For et par dage siden indrømmede to advokater i Wyoming at inkludere falske sager genereret af AI i en retsindgivelse for en retssag mod Walmart, og en føderal dommer truede med at sanktionere dem.

I december blev Stanford professor og misinformationsekspert Jeff Hancock anklaget for at bruge AI til at fabrikere retserklæring citater som en del af hans udtalelse i forsvar af statens 2023-lov, der gør det strafbart at bruge deepfakes til at påvirke valg.

Flere sager som disse, gennem de seneste år, har skabt juridisk friktion og tilføjet problemer for dommere og parter. Morgan & Morgan og Walmart har afvist at kommentere på denne sag.

Generativ AI har hjulpet med at reducere researchtiden for advokater, men dens hallucinationer kan medføre betydelige omkostninger. Sidste år afslørede en undersøgelse fra Thomson Reuters, at 63% af advokaterne brugte AI i deres arbejde, og 12% gjorde det regelmæssigt.

Sidste år mindede den Amerikanske Advokatforening sine 400.000 medlemmer om advokatens etiske regler, der inkluderer, at advokater står ved alle oplysninger i deres retsakter, og bemærkede, at dette inkluderede AI-genererede informationer, selvom det var utilsigtet – som i Hancock’s sag.

“Når advokater bliver taget i at bruge ChatGPT eller ethvert andet generativt AI-værktøj til at oprette citationer uden at kontrollere dem, er det inkompetence, rent og simpelt,” sagde Andrew Perlman, dekan for Suffolk Universitets juridiske fakultet, til Reuters.

For et par dage siden delte BBC også en rapport der advarer om falske citater genereret af AI og problemerne med AI-værktøjer inden for journalistik.

Kunne du lide denne artikel?
Så anmeld den venligst!
Jeg hadede den Jeg kan ikke rigtigt lide den Den var ok Ret god! Var vild med den!

Vi er glade for du synes om vores arbejde!

Som en værdsat læser, håber vi du har lyst til at tjekke os på Trustpilot? Det er hurtigt, og betyder alverden for os. Tak for at du er fantastisk!

Bedøm os på Trustpilot
0 Brugere som har 0 stemt
Overskrift
Kommentar
Tak for din feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Skriv en kommentar

Loader
Loader Vis mere...