Kompjuterski i tehnološki sistemi i aplikacije koje funkcionišu na osnovu algoritama programa popularno nazvanih „Veštačka inteligencija (VI)” iz dana u dan sve se više koriste u svakodnevnom životu. Primenjenost V.I. danas je ogromna, koristi se u vojnim sistemima, na društvenim mrežama za dizajniranje fotografija, u „kol centar” kompanijama gde se koriste tzv. „četbotovi“ koji zamenjuju ljude u telefonskim razgovorima sa kupcima, u medijima i blogovima na kojima specijalizovane stranice pišu čitave vesti i informacije koje zamenjuju novinare.
Upravo je ova masovna upotreba veštačke inteligencije razlog zašto je svetska zajednica trenutno zabrinuta da se može koristiti kao moćno oruđe za stvaranje dezinformacija, posebno ako znamo da živimo u vreme rata u Ukrajini i periodu nakon pandemije, koji je obeležen upravo divljanjem lažnih vesti.
ChatGPT moćan generator lažnih vesti
U svojoj analizi na ovu temu, prestižni američki list „Njujork Tajms“ piše da su, ubrzo nakon što je ChatGPT debitovao prošle godine, akademski istraživači testirali šta će napisati „četbot“ sa veštačkom inteligencijom nakon što su mu postavljana pitanja ispunjena teorijama zavere i lažnim narativima. List navodi da su rezultati u tekstovima formatiranim kao novinski članci, eseji i televizijski scenariji bili toliko uznemirujući da su zabrinuli stručnu javnost.
„Ovaj alat će biti najmoćniji instrument za širenje dezinformacija ikada objavljenih na mreži“, rekao je za list Gordon Krovic, ko-izvršni direktor NewsGuard-a, kompanije koja prati dezinformacije na mrežama i koja je sprovela eksperiment prošlog meseca.
Dodao je da se kreiranje potpuno nove i originalne lažne informacije sada može uraditi vrlo lako na visokom i dramatičnom nivou – to je kao da imate agente veštačke inteligencije koji doprinose stvaranju dezinformacija.
Istraživači predviđaju da bi generativna tehnologija mogla učiniti dezinformacije jeftinijim i lakšim za proizvodnju za sve veći broj teoretičara zavere i širenja dezinformacija. Personalizovani čet-botovi koji funkcionišu u tzv. realnom vremenu bi mogli da šire teorije zavere na sve verodostojnije i ubedljivije načine, kažu istraživači, uklanjajući ljudske greške u kucanju, kao što su loša sintaksa i pogrešni prevodi i unapređujući kucanje bez upotrebe copy-paste-a u tekstu. Prema naučnicima, trenutno ne postoji dostupna tehnologija, ali i taktika za prevenciju i ublažavanje dezinformacija ovog tipa.
Prethodnici ChatGPT-a, koji je kreirala kompanija za veštačku inteligenciju OpenAI iz San Franciska , godinama su korišćeni da preplave onlajn forume i platforme društvenih medija često gramatički sumnjivim komentarima i neželjenom poštom. Majkrosoft je morao da prekine aktivnosti svog čet-bota pod nazivom „Tau“ u roku od 24 sata od njegovog predstavljanja na Tviteru 2016. godine, nakon što su trolovi na društvenoj mreži naučili da ga koriste za objavljivanje rasističkih i ksenofobičnih poruka.
S druge strane, ChatGPT je trenutno daleko moćniji i sofisticiraniji od svih prethodnih programa ovog tipa. Ako se programu daju prava pitanja prepuna dezinformacija, on može proizvesti ubedljive, čiste varijacije sadržaja koji će se masovno proizvoditi u roku od nekoliko sekundi.
Ekstremizam i lažne vesti
Godine 2020. istraživači Centra za terorizam, ekstremizam i kontraterorizam Instituta za međunarodne studije Midleberi otkrili su da GPT-3, osnovna tehnologija za CHatGPT, ima „impresivno duboko znanje o ekstremističkim zajednicama“ i da može podstaći polemiku u stilu masovnih strelaca, lažne teme na forumima u kojima se raspravlja o nacizmu, odbrana QAnon-a, pa čak i višejezičnih ekstremističkih tekstova.
Istraživači takođe brinu da bi tu tehnologiju mogli da iskoriste strani agenti u nadi da će širiti dezinformacije na engleskom jeziku. U tom pravcu, organizacija NewsGuard je zatražila od četbota da napiše sadržaj koji promoviše štetne tvrdnje o vakcinama, a rezultat je potpuno identičan propagandi dezinformacija koju u svetu plasiraju Kina i Rusija.
VI i kao instrument za prevenciju
S druge strane, „veštačka inteligencija” ima pozitivnu upotrebnu vrednost. Kako bi sprečili širenje lažnih vesti, naučnici su napravili sistem veštačke inteligencije koji registruje i najubedljivije lažne vesti. Novi američki programski sistem pod nazivom GROVER može identifikovati lažne vesti na osnovu njihovih senzacionalnih naslova.
Kreatori programa tvrde da GROVER, za razliku od drugih aktuelnih sistema koji otkrivaju lažne vesti sa 73 odsto tačnosti, ima visoku stopu detekcije od 92 odsto tačnosti. Tim sa Univerziteta u Vašingtonu koji je stvorio GROVER planira da spreči njegovu zloupotrebu tako što će alat odmah učiniti dostupnim široj javnosti, tako da svako ko želi može da ga koristi da proveri prirodu objavljenih vesti. Prema kreatorima programa, prednost GROVER-a je u tome što analizira više aspekata vesti od drugih alata i ne samo da ispituje sadržaj teksta, već i naslov, medij, autora teksta, kao i druge detalje koji bi mogli pomoći u otkrivanju sadržaja.
Ostavljanje komentara je privremeno obustavljeno iz tehničkih razloga. Hvala na razumevanju.