Algospeak tar över i sociala medier – därför behöver du ha koll

Algospeak tar över i sociala medier – därför behöver du ha koll

Sociala medier har förändrat vårt språk på många sätt. Men det handlar inte bara om slang, förkortningar och emojis. Ett växande fenomen just nu är algospeak – ett språk anpassat för att lura algoritmer. 

Varje dag postas oändliga mängder innehåll på sociala medier. Vem som helst kan posta vad som helst. Att låta någon manuellt granska allt som läggs ut hade varit en omöjlig uppgift. Därför används olika typer av filter som automatiskt ska sortera bort olämpligt innehåll.

Filtren reagerar på specifika ord och kombinationer av ord. Olämpligt innehåll kan antingen tas bort eller hindras från att få större spridning. En form av dold moderering som är svår att kartlägga. Algospeak är alltså ett sätt att kringgå den automatiska filtreringen genom att använda alternativ till ”förbjudna” ord. Som en medveten felstavning, ett kodord eller en symbolisk emoji. 

Ett aktuellt exempel är att innehåll kopplat till Palestina just nu verkar begränsas på flera plattformar. I stället för ”Palestina” eller emojin med den palestinska flaggan har människor börjat använda vattenmelon-emojin (som är grön, vit, röd och svart precis som flaggan). 

Användningen av algospeak ökar 

Varianter av algospeak har funnits lika länge som internet, men på senare år verkar det öka. Nästan en tredjedel uppgav sig ha använt algospeak i en amerikansk undersökning från 2022. 

Fenomenet förekommer på så gott som alla språk och alla sociala plattformar. En del använder det för att komma undan med innehåll som faktiskt är förbjudet. Men det finns också en växande grupp användare som menar att de behöver använda sig av algospeak för att nå ut med innehåll som egentligen ska vara tillåtet enligt alla officiella regler och riktlinjer. 

När Tiktok lanserade sitt nya system för automatisk moderering under 2022 utlovades ett tryggare flöde för appens unga användare. Men efter uppdateringen upplevde flera kreatörer att deras videor flaggades som olämpliga så fort de nämnde ord som ”black”, ”lesbian” eller ”jewish”. Även om Tiktok har förbättrat filtret sedan dess upplever många fortfarande att det är svårt att nå ut med videor som använder vissa ord. 

Ett av de mest utbredda exemplen på Tiktoks algospeak är att nästan ingen säger “dead” eller “kill” – det är allmänt vedertaget att använda sig av algospeak-ordet “unalive”. Det är också vanligt med kreativt använda emojis, som en terrier som får symbolisera “terrorist”.

Vad betyder unalive?
Unalive är det vanligaste exemplet på algospeak, som spridit sig till fler plattformar än Tiktok där det startade. Unalive kan betyda död, döda, eller mörda. Det kan alltså vara både ett verb och ett adjektiv.

På Instagram använder många uttrycket “shadowban” om att vara i ett gränsland där ens innehåll inte tas bort, men inte heller når ut till någon. Instagram själva hävdar bestämt att något sådant inte existerar. Däremot finns det flera lager av regler, kort sagt kan man säga att känsliga ämnen ofta begränsas från att få större spridning.

Feministiska konton på Instagram har vittnat om att de fått inlägg nedtagna för att de ansetts “hatiska mot män” – och helt enkelt börjat använda olika kodord (ett tag var ”koriander” populärt) eller felstavningar som “näm” istället. 

Behöver vi mer insyn i algoritmerna?

Exakt vilka ord, eller kombinationer av ord, som är förbjudna är inget som redovisas öppet. Därför blir det mycket spekulation kring vad man får säga och inte och varför vilka röster tystas. 

Det är förstås oerhört viktigt att våldsamt, hatiskt och olagligt innehåll snabbt tas bort. En del argumenterar för att fler mänskliga moderatorer behövs. Men förutom att det kostar mycket pengar, verkar det inte lätt att säkra en rimlig arbetsmiljö för de människor som jobbar med innehållsmoderering. Är det något jobb som AI gärna får ta över så är det väl just detta. Många av de människor som spenderar hela dagar med att titta på våld och övergrepp vittnar, inte helt oväntat, om att det påverkar deras mentala hälsa.

Därför finns de automatiska filtren, som än så länge är långt ifrån perfekta. Var och en av plattformarna har förstås rätt att sätta sina egna regler, så länge det inte innebär diskriminering av någon grupp. Och det är här bristen på transparens blir ett problem – vi användare kan inte veta exakt vilka ord som triggar filtren. Så hur vet vi om de diskriminerar?

Med tanke på vilken enorm makt dessa plattformar har över vilken information som når ut i samhället är det i grund och botten en demokratifråga. Mycket är på gång inom transparens för algoritmiska system och kanske kommer vi att få se ytterligare lagstiftning framöver. 

Hur ska vi förhålla oss till algospeak?

Som kommunikatör gäller det att ha koll på vanliga begrepp hos den målgrupp man vill nå. Men ska man själv använda sig av algospeak? Antagligen inte. Det beror på flera faktorer som målgrupp, ämne och varumärkets tonalitet. Risken för missförstånd är stor och den som inte förstår kan känna sig exkluderad. Men för organisationer som ofta behöver kommunicera kring kontroversiella eller känsliga ämnen är det viktigt att åtminstone ha koll på de här begreppen och vilka ord deras målgrupp använder. 



Behöver din organisation stöd i att hantera den här typen av frågor? Hör gärna av dig till mig!

Jolin Edbrand är digital strateg på Arena Opinion.

jolin.edbrand@arenagruppen.se

Fler artiklar