U kriznim vremenima koja, prvo zbog pandemije korona virusa a onda i zbog rata u Ukrajini, traju već gotovo četiri godine, pojava dezinformacija je veoma česta, a u medijskom sistemu kao što je naš ona je gotovo konstantna.
Kada je u pitanju širenje dezinformacija putem fotografija i video snimaka, najčešća i verovatno najlakša manipulacija kojom se dezinformatori služe je upotreba starih fotografija i video snimaka koji se stavljaju u aktuelni kontekst ili u kontekst koji najviše odgovara dezinformatoru.
Jedan od najsvežijih primera ove prakse u našem regionu je prikazivanje fotografije proterivanja Bošnjaka iz enklave Žepa na obeležavanju 28. godišnjice stradanja Srba u akciji „Oluja“.
Na ovoj ceremoniji je bilo prisutno rukovodstvo Republike Srpske i Srbije, uključujući i predsednika Aleksandra Vučića, a osobe na fotografiji su tada predstavljene kao Srbi proterani iz Hrvatske 1995. godine, iako je istina sasvim drugačija.
Ova fotografija bi možda i prošla neopaženo da sada 28-godišnja Nermina Mujkić na fotografiji nije prepoznala sebe kao tromesečnu bebu i svoju majku.
Dezinformacija je u ovom slučaju „servirana“ na velikoj ceremoniji obeležavanja jednog tragičnog događaja ali, kako za Danas kaže izvršna urednica portala Istinomer Milijana Rogač, ovakve stvari se dešavaju gotovo svakodnevno na društvenim mrežama i u medijima.
„Među manipulacijama na društvenim mrežama i u medijima, kada je reč o zloupotrebi vizuelnih sadržaja, najčešći su primeri da se fotografija koristi uz netačan opis, Ili u pogrešnom kontekstu, ‘reciklira’ se snimak od pre nekoliko godina“, kaže Rogač.
Nedavno je američka novinska agencija Asošijejted pres na svom Jutjub kanalu objavila snimak izraelskog bombardovanja Gaze iz maja 2023. godine i predstavila ga kao snimak aktuelne eskalacije sukoba između Hamasa i Izraela iz oktobra ove godine.
U februaru 2022. godine pred početak rata u Ukrajini internetom je kružila slika Ukrajinaca koji se mole u snegu jer je njihova zemlja u opasnosti od rata.
Međutim ova fotografija je u tom trenutku bila stara tri godine i prikazivala je molitvenu grupu koja se na tom mestu sastaje od 2014. godine.
Kada se nedavno srušio avion u kome je bio vođa ruske grupe Vagner Jevgenij Prigožin na društvenim mrežama su se pojavili snimci pada aviona u kome se on nalazio. Jedan od tih snimaka je zapravo deset godina star snimak rušenja ruske rakete u Kazakstanu.
Kako kaže Rogač, ovakva manipulacija vizuelnim sadržajem je prilično efikasna pogotovo u kriznim vremenima.
„Kada su ljudi uplašeni, zabrinuti i budnije prate medije i mreže, biće ranjiviji i pre će kliknuti na neki uznemirujući i zapaljivi sadržaj. Iako često u borbi protiv manipulacija u javnosti pomaže zdrava doza sumnje, distanca i brza provera preko Googla ili uz pomoć faktčekerskih redakcija, kada je reč o manipulisanim snimcima, mnogo je teže izbeći njihov uticaj“, priča naša sagovornica.
Ona dalje navodi da, pored stavljanja postojećih fotografija i video snimaka u neadekvatan kontekst, u zloupotrebu vizuelnog sadržaja spadaju i fotomontaža i manipulacija slikom, zlonamerno isečene fotografije, isečeni ili izmenjeni video snimci i deepfake. Navela je i metode koje se najčešće koriste u proveravanju istinitosti vizuelnog sadržaja na internetu.
„Najjednostavniji i prvi korak je obrnuta pretraga fotografije i često naša redakcija otkriva manipulaciju već u prvom koraku, uz tineye i ‘reverse google image search’. InVid WeVerify, kao ekstenzija sa više alatki za proveru, takođe može biti korisna novinarima za analizu digitalnih manipulacija slikom ili video snimkom“, objašnjava Rogač.
Jedan od skorijih primera fotomontaže iskorišćene za širenje dezinformacija i propagande je fotografija koja se pojavila neposredno posle smrti Jevgenija Prigožina a na kojoj se vidi ruski ministar odbrane Sergej Šojgu kako se krsti ispred ikone na kojoj je lik poginulog vođe grupe Vagner. Metodom obrnute pretrage slika na Guglu „reverse google image search“ otkriveno je da je ova fotografija zapravo fotomontaža.
Uoči posete Njujorku predsednika Ukrajine Volodimira Zelenskog povodom zasedanja Generalne skupštine Ujedinjenih nacija na internetu se pojavio snimak, koji su objavili i neki portali, na kom se vidi jedan bilbord u Njujorku na kome piše „Glory to Urine“, umesto „Glory to Ukraine“. Korišćeni snimak star je najmanje godinu dana i kompletan sadržaj bilborda je naknadno ubačen.
„Najviše takvih sadržaja pronalazimo na društvenim mrežama. Nema tema koje su tu preskočene – od korone, vakcinacije, rata u Ukrajini… Tradicionalni mediji su skloniji drugim vrstama manipulacija. Ističu se tu i manipulisanje činjenicama i pristrasnost, kao i izvlačenje iz konteksta i zapaljiva retorika“, objašnjava Rogač.
Ona dodaje da je najznačajniji primer korišćenja fotomontaže od strane tradicionalnih medija fotografija predsednika Aleksandra Vučića u osnovnoj školi „Vladislav Ribnikar“ u kojoj je 14-godišnji dečak izvršio masovno ubistvo ubivši radnika obezbeđenja i devetoro učenika.
Nakon ove tragedije mnogi političari su oklevali da posete osnovnu školu „Vladislav Ribnikar“, upišu se u knjigu žalosti i tako odaju počast žrtvama masovnog ubistva. Predsednik Aleksandar Vučić je dvadeset dana nakon tragedije gostujući na RTS-u izjavio da je bio u poseti „Ribnikaru“ ali da nije vodio kamere sa sobom, pa to nije zabeleženo.
Nakon pritiska javnosti, ali i optužbi opozicije da predsednik Srbije Aleksandar Vučić nije bio u poseti „Ribnikaru“, početkom juna prorežimski mediji su objavili fotografiju koja je trebalo da dokaže Vučićevo prisustvo u školi.
Na fotografiji se vidi predsednik Vučić kako se, tužan i zamišljen, upisuje u knjigu žalosti. Zbog mnogih vizuelnih nelogičnosti na ovoj fotografiji u javnosti se razvila sumnja da je u pitanju fotomontaža.
Nakon ovoga Kurir je objavio novi set fotografija kako bi demantovao tvrdnje da je u pitanju fotomontaža, međutim, i te fotografije su delovale izmanipulisano.
Da sporna fotografija zaista deluje digitalno izmanipulisano, svedoče zamagljenja oko odela i ruke predsednika, oštrine ivica stola i stolice, kao i perspektiva stola, stolice i predsednika u odnosu na zid, piše u analizi Istinomera.
„Nije nam potreban nikakav softver da bismo uočili da su fotografije (loše) fotošopirane“, izjavio je tada za Istinomer Jirgen Dedeker, šef multimedijalne i kreativne tehnologije sa Erazmus univerziteta u Briselu.
Pored toga što fotografijama možemo manipulisati tradicionalnom metodom fotošopa, uz pomoć veštačke inteligencije možemo postići još uverljiviji efekat.
„Ponekad je teško videti tragove i uočiti da je slika izmenjena ili potpuno lažna. Primera radi, na društvenim mrežama su bile popularne fotografije generisane uz pomoć veštačke inteligencije – viralna fotografija Asanža, serija AI fotografija hapšenja političara, fotografija pape u duginim bojama…“, priča Rogač.
Veštačka inteligencija postiže i zastrašujuće uverljive rezultate kada je u pitanju manipulacija video zapisima i to se naziva dipfejk (deepfake).
„Najkraće rečeno, dipfejk je nova forma audio-video manipulacije, koja dozvoljava ljudima da uz pomoć veštačke inteligencije naprave vrlo realističnu simulaciju nečijeg lica i glasa“, objašnjava Rogač.
Kao što slika „govori više od 1.000 reči“ tako ona isto toliko efikasnije „laže“ od običnog teksta u novinama, a ako je u pitanju video snimak, koji može biti i takozvani „dipfejk“, dezinformacija je servirana još uspešnije.
U kriznim vremenima koja, prvo zbog pandemije korona virusa a onda i zbog rata u Ukrajini, traju već gotovo četiri godine, pojava dezinformacija je veoma česta, a u medijskom sistemu kao što je naš ona je gotovo konstantna.
Kada je u pitanju širenje dezinformacija putem fotografija i video snimaka, najčešća i verovatno najlakša manipulacija kojom se dezinformatori služe je upotreba starih fotografija i video snimaka koji se stavljaju u aktuelni kontekst ili u kontekst koji najviše odgovara dezinformatoru.
Jedan od najsvežijih primera ove prakse u našem regionu je prikazivanje fotografije proterivanja Bošnjaka iz enklave Žepa na obeležavanju 28. godišnjice stradanja Srba u akciji „Oluja“.
Na ovoj ceremoniji je bilo prisutno rukovodstvo Republike Srpske i Srbije, uključujući i predsednika Aleksandra Vučića, a osobe na fotografiji su tada predstavljene kao Srbi proterani iz Hrvatske 1995. godine, iako je istina sasvim drugačija.
Ova fotografija bi možda i prošla neopaženo da sada 28-godišnja Nermina Mujkić na fotografiji nije prepoznala sebe kao tromesečnu bebu i svoju majku.
Dezinformacija je u ovom slučaju „servirana“ na velikoj ceremoniji obeležavanja jednog tragičnog događaja ali, kako za Danas kaže izvršna urednica portala Istinomer Milijana Rogač, ovakve stvari se dešavaju gotovo svakodnevno na društvenim mrežama i u medijima.
„Među manipulacijama na društvenim mrežama i u medijima, kada je reč o zloupotrebi vizuelnih sadržaja, najčešći su primeri da se fotografija koristi uz netačan opis, Ili u pogrešnom kontekstu, ‘reciklira’ se snimak od pre nekoliko godina“, kaže Rogač.
Nedavno je američka novinska agencija Asošijejted pres na svom Jutjub kanalu objavila snimak izraelskog bombardovanja Gaze iz maja 2023. godine i predstavila ga kao snimak aktuelne eskalacije sukoba između Hamasa i Izraela iz oktobra ove godine.
U februaru 2022. godine pred početak rata u Ukrajini internetom je kružila slika Ukrajinaca koji se mole u snegu jer je njihova zemlja u opasnosti od rata.
Međutim ova fotografija je u tom trenutku bila stara tri godine i prikazivala je molitvenu grupu koja se na tom mestu sastaje od 2014. godine.
Kada se nedavno srušio avion u kome je bio vođa ruske grupe Vagner Jevgenij Prigožin na društvenim mrežama su se pojavili snimci pada aviona u kome se on nalazio. Jedan od tih snimaka je zapravo deset godina star snimak rušenja ruske rakete u Kazakstanu.
Kako kaže Rogač, ovakva manipulacija vizuelnim sadržajem je prilično efikasna pogotovo u kriznim vremenima.
„Kada su ljudi uplašeni, zabrinuti i budnije prate medije i mreže, biće ranjiviji i pre će kliknuti na neki uznemirujući i zapaljivi sadržaj. Iako često u borbi protiv manipulacija u javnosti pomaže zdrava doza sumnje, distanca i brza provera preko Googla ili uz pomoć faktčekerskih redakcija, kada je reč o manipulisanim snimcima, mnogo je teže izbeći njihov uticaj“, priča naša sagovornica.
Ona dalje navodi da, pored stavljanja postojećih fotografija i video snimaka u neadekvatan kontekst, u zloupotrebu vizuelnog sadržaja spadaju i fotomontaža i manipulacija slikom, zlonamerno isečene fotografije, isečeni ili izmenjeni video snimci i deepfake. Navela je i metode koje se najčešće koriste u proveravanju istinitosti vizuelnog sadržaja na internetu.
„Najjednostavniji i prvi korak je obrnuta pretraga fotografije i često naša redakcija otkriva manipulaciju već u prvom koraku, uz tineye i ‘reverse google image search’. InVid WeVerify, kao ekstenzija sa više alatki za proveru, takođe može biti korisna novinarima za analizu digitalnih manipulacija slikom ili video snimkom“, objašnjava Rogač.
Jedan od skorijih primera fotomontaže iskorišćene za širenje dezinformacija i propagande je fotografija koja se pojavila neposredno posle smrti Jevgenija Prigožina a na kojoj se vidi ruski ministar odbrane Sergej Šojgu kako se krsti ispred ikone na kojoj je lik poginulog vođe grupe Vagner. Metodom obrnute pretrage slika na Guglu „reverse google image search“ otkriveno je da je ova fotografija zapravo fotomontaža.
Uoči posete Njujorku predsednika Ukrajine Volodimira Zelenskog povodom zasedanja Generalne skupštine Ujedinjenih nacija na internetu se pojavio snimak, koji su objavili i neki portali, na kom se vidi jedan bilbord u Njujorku na kome piše „Glory to Urine“, umesto „Glory to Ukraine“. Korišćeni snimak star je najmanje godinu dana i kompletan sadržaj bilborda je naknadno ubačen.
„Najviše takvih sadržaja pronalazimo na društvenim mrežama. Nema tema koje su tu preskočene – od korone, vakcinacije, rata u Ukrajini… Tradicionalni mediji su skloniji drugim vrstama manipulacija. Ističu se tu i manipulisanje činjenicama i pristrasnost, kao i izvlačenje iz konteksta i zapaljiva retorika“, objašnjava Rogač.
Ona dodaje da je najznačajniji primer korišćenja fotomontaže od strane tradicionalnih medija fotografija predsednika Aleksandra Vučića u osnovnoj školi „Vladislav Ribnikar“ u kojoj je 14-godišnji dečak izvršio masovno ubistvo ubivši radnika obezbeđenja i devetoro učenika.
Nakon ove tragedije mnogi političari su oklevali da posete osnovnu školu „Vladislav Ribnikar“, upišu se u knjigu žalosti i tako odaju počast žrtvama masovnog ubistva. Predsednik Aleksandar Vučić je dvadeset dana nakon tragedije gostujući na RTS-u izjavio da je bio u poseti „Ribnikaru“ ali da nije vodio kamere sa sobom, pa to nije zabeleženo.
Nakon pritiska javnosti, ali i optužbi opozicije da predsednik Srbije Aleksandar Vučić nije bio u poseti „Ribnikaru“, početkom juna prorežimski mediji su objavili fotografiju koja je trebalo da dokaže Vučićevo prisustvo u školi.
Na fotografiji se vidi predsednik Vučić kako se, tužan i zamišljen, upisuje u knjigu žalosti. Zbog mnogih vizuelnih nelogičnosti na ovoj fotografiji u javnosti se razvila sumnja da je u pitanju fotomontaža.
Nakon ovoga Kurir je objavio novi set fotografija kako bi demantovao tvrdnje da je u pitanju fotomontaža, međutim, i te fotografije su delovale izmanipulisano.
Da sporna fotografija zaista deluje digitalno izmanipulisano, svedoče zamagljenja oko odela i ruke predsednika, oštrine ivica stola i stolice, kao i perspektiva stola, stolice i predsednika u odnosu na zid, piše u analizi Istinomera.
„Nije nam potreban nikakav softver da bismo uočili da su fotografije (loše) fotošopirane“, izjavio je tada za Istinomer Jirgen Dedeker, šef multimedijalne i kreativne tehnologije sa Erazmus univerziteta u Briselu.
Pored toga što fotografijama možemo manipulisati tradicionalnom metodom fotošopa, uz pomoć veštačke inteligencije možemo postići još uverljiviji efekat.
„Ponekad je teško videti tragove i uočiti da je slika izmenjena ili potpuno lažna. Primera radi, na društvenim mrežama su bile popularne fotografije generisane uz pomoć veštačke inteligencije – viralna fotografija Asanža, serija AI fotografija hapšenja političara, fotografija pape u duginim bojama…“, priča Rogač.
Veštačka inteligencija postiže i zastrašujuće uverljive rezultate kada je u pitanju manipulacija video zapisima i to se naziva dipfejk (deepfake).
„Najkraće rečeno, dipfejk je nova forma audio-video manipulacije, koja dozvoljava ljudima da uz pomoć veštačke inteligencije naprave vrlo realističnu simulaciju nečijeg lica i glasa“, objašnjava Rogač.
„Dipfejk“ i prošlost u kontekstu sadašnjosti: Na koje nas sve načine „lažu“ video i slika?
Najpoznatiji slučaj dipfejka kod nas dogodio se kada je vlasnik i urednik televizije Pink, Željko Mitrović na svojoj televiziji emitovao niz video klipova u kojima je uz pomoć veštačke inteligencije fabrikovao izjave opozicionih političara Marinike Tepić, Vuka Jeremića i Dragana Đilasa.
On je na svom Tviter nalogu ovo nazvao satirom, ali kada su ovi video klipovi emitovani na TV Pink nigde nije naznačeno da je u pitanju satiričan program.
Advokat i član Komisije za žalbe saveta za štampu Rodoljub Šabić kaže da dipfejk sadržaj poput onog na Pinku može biti veoma štetan i opasan.
„Pojavljivanje falsifikovanih, fabrikovanih izjava poput tih na TV Pink, sasvim nezavisno od toga kome se izjave konkretno „stavljaju u usta“, osim ako nije propraćeno istovremenom potpuno jasnom i nedvosmislenom informacijom da je reč o humorističkom ili satiričnom sadržaju, može se tumačiti samo na jedan način, kao nešto nedopustivo, loše, štetno i opasno“, kaže Šabić.
On dodaje da nije problem primena veštačke inteligencije već motiv zbog kojih su sadržaji kreirani.
„Bez obzira da li je u pitanju samo želja za većim tiražom, odnosno gledanošću ili manipulisanje javnošću u cilju namernog dezinformisanja radi izazivanja destruktivnih emocija poput prezira, mržnje, besa, želje za osvetom, motiv, odnosno željeni cilj je nelegitiman“, ističe Šabić.
On smatra da za realizaciju ovakvog sadržaja nije neophodna veštačka inteligencija i da se to može raditi uz pomoć uz pomoć daleko manje sofisticiranih instrumenata i podsetio je na čuveni primer iz devedesetih godina kada su Večernje novosti objavile retuširanu sliku Uroša Predića koja je nastala čak u 19. veku.
„Večernje novosti su objavile fotografski retuširanu čuvenu sliku Uroša Predića iz 19. veka ‘Siroče na majčinom grobu’ kao aktuelnu ilustraciju stradanja srpske dece u Bosni i Hercegovini propraćenu tekstom da je sa groblja kod Skelana, a da dečak očajava nad grobom oca, majke i ostale rodbine koju su u ofanzivi pobili muslimani, pa čak i sa dodatnom informacijom da je dečaka u međuvremenu usvojila je jedna porodica iz Zvornika, i da je postao učenik srednje vojne škole“, kaže Šabić.
Od početka rata u Ukrajini pojavili su se lažni snimci u kojima Vladimir Putin objavljuje primirje sa Ukrajinom, a Volodimir Zelenski govori o predaji. Postoji i dipfejk bivšeg američkog predsednika Baraka Obame u kojem on naziva Donalda Trampa kompletnim i potpunim đubretom.
Međutim, ovaj dipfejk nije napravljen iz zle namere, već je napravljen kako bi se javnosti skrenula pažnja na manipulacije video sadržajem. Iskustvo sa dipfejk tehnologijom imali su gradonačelnici nekoliko evropskih prestonica kada su prevareni da preko video poziva razgovaraju sa gradonačelnikom Kijeva, Vitalijem Kličkom.
Bezbedan Balkan: Veoma lako stvoriti dipfejk
Kako sa foruma Bezbedan Balkan kažu za Danas, aplikacije za kreiranje dipfejk sadržaja poput ovog na Pinku su dostupne svima i lake za upotrebu.
„Najpopularnije su mobilne aplikacije jer na mobilnom već imamo kamere i društvene mreže. Aplikacije poput Reface i Zao omogućavaju korisnicima da zamene lica na slikama, videu ili gifovima. Većina softvera je prilično jednostavna i intuitivna pogotovo mlađem uzrastu koje od ranijeg doba koristi pametne telefone. Pored toga na internetu i YouTube-u postoji dosta uputstava, pogotovo za najpoznatije programe ovog žanra“, kažu oni.
Ostavljanje komentara je privremeno obustavljeno iz tehničkih razloga. Hvala na razumevanju.