Nakon napada na LGBTIQ aktiviste u Banjaluci, BUKA magazin je objavio na platformi TikTok video o ovom zločinu iz mržnje. U komentarima ispod videa pozivalo se na ubijanje LGBTIQ osoba. Autor ovog teksta, kao jedan od urednika naloga na TikToku prijavio je komentare. Odgovor platforme je bio da navedeni komentari ne krše smjernice zajednice. Ipak, drugi video koji je kontekstualizovao cijeli događaj, osudio nasilje i dao sve potrebne informacije, uz video navijača koji pozivaju na ubijanje pripadnika LGBTIQ zajednice, uklonjen je zbog “kršenja smjernica zajednice”.
Ovaj primjer pokazuje da se u borbi protiv štetnih sadržaja na društvenim mrežama ne gleda kontekst, da se prijavljenom sadržaju ne pristupa individualno nego se radi o generisanom opštem pregledu sadržaja, a taj mehanizam je pun manjkavosti.
Sandra Gojković – Arbutina, glavna i odgovorna urednica Nezavisnih novina, potvrđuje da u regulaciji štetnog sadržaja na društvenim mrežama nedostaje kontekst, i da način na koji tretiraju i sankcionišu sadržaje ide logikom koja često nije jasna, niti ima dosljednost.
“Podsjetiću vas na slučaj Martine Mlinarević, sadašnje ambasadorice u Češkoj, i njene izuzetne fotografije ožiljka od odstranjene dojke kojom je željela poslati vrlo snažnu poruku, pa je ocijenjena kao uznemirujući sadržaj koji krši pravila”, kaže Gojković-Arbutina.
Društvene mreže imaju veliku moć i uticaj, pa se od njih očekuje i veći stepen odgovornosti. Ipak, u praksi se ta odgovornost malo primijeti.
Semir Hambo, glavni i odgovorni urednik portala Klix.ba, smatra da društvene mreže ne daju pravi primjer u borbi protiv štetnih sadržaja.
„To se naročito odnosi na govor mržnje u pisanom obliku na društvenim mrežama. Kada je riječ o video sadržaju koji spada u govor mržnje, tu postoji aktivniji angažman u kontroli štetnih sadržaja, ali je uglavnom zasnovan na automatskoj procjeni sistema koji fotografiju ili video prepoznaje kao uvredljiv ili štetan sadržaj”, objašnjava Hambo.
Prema iskustvu Balkanske istraživačke mreže (BIRN) i njihovog portala Detektor.ba, društvene mreže imaju velikih problema u kontrolisanju štetnih sadržaja.
Urednik BIRN-a Semir Mujkić kaže da brojna istraživanja pokazuju da društvene mreže ostavljaju pojedine sadržaje iako negativno utiču na njihove korisnike, najčešće zbog malih resursa za moderaciju sadržaja ali i želje za profitom, jer, kako kaže, „više sadržaja i dijeljenja znači veći profit, a upravo se mrzilački sadržaj dijeli najviše“.
“Vlasnici mreža su rado prihvatili popularnost i zaradu koju donosi masovnost u korištenju mreža, ali nisu odvojili dovoljno resursa da zaštite korisnike od govora mržnje i drugih štetnih sadržaja. Također, ne ulažu dovoljno napora da ih zaštite od organizovane propagande i dezinformacija”, objašnjava Mujkić.
Mehanizmi uklanjanja sadržaja su, kako kaže, daleko od preciznog i kombinacija su živih osoba koje to rade i mašina, odnosno umjetne inteligencije, a uspješnost varira od mreže do mreže.
“Iskustva koja mi imamo iz istraživanja pokazuju da su platforme Googlea najlošije u moderaciji, naprimjer sadržaji koji budu zabranjeni na Facebooku ili ranije Twitteru znali su ostajati na YouTubeu. Rekao bih da je YouTube kao izuzetno popularna platforma za mlade i najlošija u moderaciji, ako izuzmemo TikTok koji je kategorija za sebe. Facebook je ulagao dosta u posljednje vrijeme i vide se pomaci, ali i dalje ima problema da razlikuje štetni sadržaj od kvalitetnih novinarskih sadržaja”, kaže Mujkić.
Smjernice postoje, ali je loša primjena u praksi
Kada automatski ili ljudski alati za provjeru sadržaja zakažu, koristan sadržaj bude proglašen štetnim, a samim tim i uklonjen. Hambo smatra da upravo ovo govori o maloj ili nikakvoj selekciji, te da se ne pristupa individualno određenoj situaciji, nego se radi putem zadanog algoritma.
“Mi smo imali situaciju gdje smo kritički obradili vijest da su učenici jedne srednje škole iz Hrvatske maturu proslavili nacističkim pozdravom, dakle uz podignutu ruku i u jednoobraznoj odjeći, crne boje. Nakon objave tog članka, koji je bio kritički, mi smo dobili određenu sankciju u smislu pristupa Facebooku”, kaže Hambo.
Dok kod pojedinih mreža postoji želja, ali ne i efikasan način za uklanjanje sadržaja o zločinima, na TikToku, smatra Mujkić, nema gotovo nikakve želje za uklanjanjem takvih sadržaja, pa, kako kaže, o njemu treba govoriti odvojeno od ostalih.
TikTok ima niz smjernica zajednice među kojima su, između ostalog i: maltretiranje i uznemiravanje, iskazivanje mržnje, i nasilni ekstremizam.
No, u praksi je vidljivo da se smjernice ne poštuju. Iako TikTok tvrdi da ne dozvoljava „izjave o namjeri nanošenja tjelesnih ozljeda nekoj osobi ili skupini“, „izjave kojima se potiče ili zagovara nasilje, prijetnje nasiljem“ i slično, ova mreža puna je ovakvog sadržaja.
„Nemojte objavljivati, učitavati, prenositi niti dijeliti: sadržaje kojima se slave, promiču, veličaju ili podržavaju nasilna djela ili ekstremističke organizacije ili pojedinci; sadržaje kojima se potiče na sudjelovanje u nasilnim ekstremističkim organizacijama ili kojima se pojedince želi vrbovati u te organizacije; sadržaje koji uključuju nazive, znamenja, oznake, zastave, krilatice, odore, kretnje, pozdrave, slike, prikaze, pjesme, muziku, stihove ili druge predmete koje se povezuju s nasilnim ekstremističkim organizacijama ili pojedincima“, savjetuju iz najbrže rastuće društvene mreže na svijetu, dok se istovremeno suočava sa obiljem štetnog sadržaja među kojim je i negiranje genocida i slavljenje ratnih zločinaca.
Mujkić kaže da na Facebooku, Twitteru i Google platformama postoji želja, ali da nisu uložili dovoljno resursa da kvalitetno moderiraju sadržaj koji se odnosi na veličanje zločinaca. Često to radi umjetna inteligencija koja se bori da razumije kontekst.
„Tako se dešava da ostane neki sadržaj koji očito veliča ratnog zločinca, a ne možete da promovišete svoj sadržaj koji istražuje nekažnjivost negiranja genocida ili veličanja ratnih zločina. Ili u najmanju ruku duže traje odobravanje takvog promoviranja na mrežama. Facebook prednjači u tome i mi pokušavamo da ostvarimo kontakt sa njima da vidimo na koji način se problem može prevazići. Twitter nakon što ga je kupio Elon Musk ostavlja vrlo malo filtera i jasan je povratak ljudi koji negiraju zločine i to sada postaje gore. Radili smo ranije tekst o tome”, objašnjava Mujkić.
U Standardima zajednice kompanije Meta, matične kompanije Facebooka, navodi se da uklanjaju sadržaje koji bi mogli pridonijeti riziku ugrožavanja fizičke sigurnosti osoba.
Ova mreža, deklarativno, ne dopušta ni: nasilje i podstrekavanje na nasilje, govor mržnje i nasilni i uznemirijući sadržaj.
“Govor mržnje definišemo kao direktan napad na ljude“, „napade definišemo kao nasilan ili dehumanizirajući govor“, „zabranjujemo i upotrebu štetnih stereotipa“, „štitimo izbjeglice, migrante, imigrante i tražitelje azila od najozbiljnijih napada, ali dopuštamo komentiranje i kritiku imigracijskih politika“, navodi se u smjernicima ponašanja na ovoj društvenoj mreži koja, i pored ovih pravila, obiluje sadržajima koji pozivaju na nasilje, podržavaju stereotipe i predrasude.
Samoregulacija jedina opcija
Pri uklanjanju štetnih sadržaja na društvenim mrežama problem je i taj što mediji nemaju mogućnost direktnog kontakta sa mrežama o ovom pitanju. I za potrebe ovog teksta pisali smo na nekoliko dostupnih e-mail adresa, ali nismo dobili odgovor.
“Dodatni problem što smo malo tržište i nemamo nikakvu podršku vlasti u komunikaciji sa mrežama. Često ste ostavljeni da ih kontaktirate preko korporativnih mailova na koje niko ne odgovara. Vlasti u Bosni i Hercegovini bi morale da češće komuniciraju sa mrežama i da ih natjeraju da poštuju domaće zakone kao i da otvore komunikaciju sa domaćim medijima”, objašnjava Mujkić.
Jedno od rješenja je, predlaže, da se od kompanija koje upravljaju društvenim mrežama traži otvaranje ureda u BiH sa kojim bi se moglo brže i bolje komunicirati.
“Jednostavno, mreže moraju da preuzmu svoj dio odgovornosti, a u BiH je ta odgovornost ogromna s obzirom da smo postratno društvo i da je uticaj mreža ogroman”, kaže Mujkić.
Za urednika Klix.ba portala samoregulacija je, za sada, jedino rješenje, a u ovom mediju već su razvili nekoliko načina samoregulacije.
“Mi samoregulaciju radimo na nekoliko automatskih način koji sprečavaju korištenje uvredljivih fraza, termina, riječi, zatim interakcijom s publikom koja nam može prijaviti uvrede po raznim osnovama koje onda ručno pregledavamo. I treći način je doslovno ručno praćenje komentara”, kaže Semir Hambo.
Glavna i odgovorna urednica Nezavisnih novina vjeruje da vrijeme dominacije Facebooka u vidljivosti i čitanosti polako, ali sigurno prolazi, pa je mudrije oslanjati se na vlastiti kvalitet, a ne vještačko jačanje sadržaja jer to dugoročno, kako govori, svakako ne donosi korist.
“U kreiranju i plasiranju sadržaja mediji ne trebaju primarno da paze na pravila društvenih mreža nego na vlastite kodekse jer su samo oni garanti da nećete napraviti grešku koja bi vas mogla koštati i kompromitovati”, kaže Sandra Gojković-Arbutina.
Za svaki medij je, dodaje, važno da proučava publiku i sadržaje koji su prijemčivi na različitim mrežama kako bi to i ponudio njihovim korisnicima.
“Moram dodati da mreže evidentno stalno eksperimentišu sa pravilima, ograničenjima i dozvolama, zato je važno da nam ne budu primarni, nego pomoćni alat koji nam neće značajno ugroziti čitanost”, zaključuje Gojković – Arbutina.
S obzirom na činjenicu da društvene mreže djeluju, posluju i zarađuju na teritoriji Bosne i Hercegovine, bilo bi logično da imaju i neku odgovornost spram lokalnih zakona. No, to već nije u domenu medija već države.
Ostavljanje komentara je privremeno obustavljeno iz tehničkih razloga. Hvala na razumevanju.