Meninger: Er Metas sikkerhedsreguleringssystem i stykker?
Næsten enhver indholdsskaber eller aktiv social medie manager har stået over for det samme problem, når de har postet på Facebook eller Instagram for nylig: et indlæg eller en konto er blevet forbudt, sandsynligvis af de forkerte årsager.
Denne irriterende situation er blot en del af puslespillet i et komplekst problem med Metas indholdsreguleringssystem. Selvom Meta synes at have mange kontrolforanstaltninger – nogle gange absurde – synes roden til problemet ikke at være løst.
Over de seneste måneder har Meta introduceret adskillige opdateringer til deres indholdsretningslinjer og implementeret strengere regler med det formål at skabe et sundere online miljø. En af konsekvenserne har været, at mange virksomheder, udgivere og brugerkonti er blevet udelukket, hvilket har ført til hundreder af klager på fora, chatplatforme og sociale mediekanaler. Flere nyhedsudgivere og mærker blev fjernet fra Metas platforme i visse regioner i år, hvilket har vakt bekymring hos virksomhedsejere, journalister og indholdsskabere.
På trods af Metas seneste opdateringer, der giver indtryk af strengere moderation og tættere kontrol med indholdet, der deles på deres platforme, formår opslag relateret til stoffer, selvmord, seksuel chikane, mobning, hadtale, misbrug og falske nyheder stadig at slippe igennem algoritmerne og nå ud til sårbare samfund.
Jeg kan ikke lade være med at undre mig: Hvad sker der med Metas sikkerhedsreguleringssystem?
Konti Udelukket Af De Forkerte Grunde
Det starter alt sammen med en lignende besked: “Din Meta konto overholder ikke vores regler.” Mange Facebook og Instagram brugere er blevet udelukket eller midlertidigt smidt ud af deres konti “for ikke at overholde” Metas regler, selv når de mener, at de har.
Det er en situation, som vi har oplevet hos Wizcase. Meta’s system markerede relevante emner som upassende og fik community manageren til at gennemgå en appelproces og fremlægge ID’er udstedt af regeringen.
Hundreder af brugere, community managers og konto managers har klaget over lignende situationer på platforme som Reddit og andre fora, chats og sociale mediekanaler. I flere uheldige scenarier mister brugere deres konti, og de kan ikke gøre noget ved det, og de får ikke engang en forklaring.
“Supportteamet hos Facebook er forfærdeligt. Uanset hvor mange gange vi fortæller dem alt eller forklarer alt for dem, forstår de bare simpelthen ikke,” sagde en bruger på Reddit i en tråd om forbudte konti. “En ting jeg kan sige med det samme er, at du ikke får din konto genoprettet, medmindre du brugte hundredtusindvis om dagen,” tilføjede en anden.
Dette problem, selvom det måske kun ser ud til at påvirke indholdsskabere, er kun en lille del af en større udfordring.
Meta imod retssager
I årevis har Meta investeret i indholdsmoderering og nye strategier for at arbejde på en sikrere platform for brugerne og for at beskytte sig selv mod flere retssager – den seneste er fra kenyanske indholdsmoderatorer, som i øjeblikket kræver $1,6 milliarder i erstatning for massive afskedigelser og for at kompensere for det belastende materiale, de blev udsat for, mens de analyserede indhold for Facebook.
Tech-virksomheden er afhængig af tredjepart til at hjælpe med indholdsreguleringer og udvikler værktøjer til at genkende, når indhold overtræder platformens regler. Men disse foranstaltninger har ikke været tilstrækkelige, og situationen er kommet ud af kontrol, især blandt mindreårige brugere.
I 2021 introducerede Meta nye beskyttelsesfunktioner, men det forhindrede ikke Senatet i at inkludere Instagram og Facebook blandt de platforme, der sidste år blev betragtet som skadelige for børn. Teknologigiganten stod over for en fælles retssag indgivet af 33 stater i USA for dens manipulerende og skadelige algoritme.
Siden januar har Meta delt opdateringer om nye sikkerhedskontrolværktøjer. I juni forbedrede firmaet sit anti-chikaneværktøj for at beskytte teenagere på Instagram med en standard “Tætte Venner” med en “Grænser”-funktion, så kun rigtige venner og familie kunne interagere med det indhold, som unge brugere delte.
For bare få dage siden annoncerede virksomheden de nye Teen Accounts for at beskytte teenagere og “berolige forældre med, at teenagere har sikre oplevelser.” Ville det være nok til at beskytte børn? Hvad med ældre brugere?
Et usikkert økosystem
Facebook, Instagram og WhatsApp er stadig plaget af skadeligt indhold, der påvirker brugere af alle aldre, professioner og sociale grupper, og det vil næppe blive løst foreløbigt.
En undersøgelse udført af Center for Countering Digital Hate (CCDH) analyserede over 500 millioner kommentarer på Instagram fra konti af 10 kvindelige politikere i USA og afslørede, at Meta ikke formåede at fjerne eller handle på 93% af disse kommentarer.
De mange retssager mod Meta har bogstaveligt talt bevist, at virksomheden kæmper med at beskytte brugere mod skadeligt indhold, og samtidig har såret skabere, udgivere og mærker med uretfærdige filtre og dårligt implementerede sikkerhedsværktøjer.
Selvfølgelig er dette et komplekst og dybtgående problem, der bør behandles i dybden, men måske er det tid til at acceptere, at Meta ikke har været i stand til at håndtere denne situation. Plasterløsninger vil ikke løse et system, der i bund og grund er brudt. Nu er det virkelige spørgsmål: Hvor mange flere brugere skal uretfærdigt udelukkes, vildledes eller manipuleres, før der sker en reel ændring?
Skriv en kommentar
Fortryd