Kompjuterski i tehnološki sistemi i aplikacije koje funkcionišu na osnovu algoritama programa popularno nazvanih „vještačka inteligencija” (VI) sve više se koriste u svakodnevnom životu. Primjenjenost VI je ogromna, koristi se u vojnim sistemima, na društvenim mrežama za dizajniranje fotografija, u „call centar” kompanijama gdje se koriste tzv. „chatbotovi“ koji zamjenjuju ljude u telefonskim razgovorima sa kupcima, u medijima i blogovima na kojima specijalizovane stranice pišu kompletne vijesti i informacije koje zamjenjuju novinare, piše Sloboden Pečat.
Upravo ova masovna upotreba vještačke inteligencije, kako navodi ovaj makedonski medij, razlog je za zabrinutost jer se ovaj alat može koristiti kao moćno oruđe za stvaranje dezinformacija, posebno u kontekstu rata u Ukrajini ili perioda nakon pandemije, koji je obilježen upravo divljanjem lažnih vijesti.
ChatGPT moćan generator lažnih vijesti
U analizi na ovu temu, prestižni američki list New York Times piše da su, ubrzo nakon što je ChatGPT debitovao prošle godine, akademski istraživači testirali šta će napisati „chatbot“ sa vještačkom inteligencijom nakon što su mu postavljana pitanja ispunjena teorijama zavjere i lažnim narativima. List navodi da su rezultati u tekstovima formatiranim kao novinski članci, eseji i televizijski scenariji bili toliko uznemirujući da su zabrinuli stručnu javnost.
„Ovaj alat će biti najmoćniji instrument za širenje dezinformacija ikada objavljenih na mreži“, rekao je za list Gordon Crovitz, ko-izvršni direktor NewsGuarda, kompanije koja prati dezinformacije na mrežama i koja je provela eksperiment prošlog mjeseca.
Dodao je da se kreiranje potpuno nove i originalne lažne informacije sada može uraditi vrlo lako na visokom i dramatičnom nivou – „kao da imate agente vještačke inteligencije koji doprinose stvaranju dezinformacija“, dodao je.
Istraživači predviđaju da bi generativna tehnologija mogla učiniti dezinformacije jeftinijim i lakšim za proizvodnju za sve veći broj teoretičara zavjere i širenja dezinformacija. Personalizovani chat-botovi koji funkcionišu u takozvanom realnom vremenu bi mogli da šire teorije zavjere na sve vjerodostojnije i ubjedljivije načine, kažu istraživači, uklanjajući ljudske greške u kucanju, kao što su loša sintaksa i pogrešni prevodi i unapređujući kucanje bez upotrebe copy-past opcije u tekstu.
Prema naučnicima, trenutno ne postoji dostupna tehnologija, ni taktika za prevenciju i ublažavanje dezinformacija ovog tipa.
Prethodnici ChatGPT-a, koji je kreirala kompanija za vještačku inteligenciju OpenAI iz San Franciska, godinama su korišteni da preplave online forume i platforme društvenih mreža često gramatički sumnjivim komentarima i neželjenom poštom. Microsoft je morao da prekine aktivnosti svog chat-bota pod nazivom „Tay“ u roku od 24 sata od njegovog predstavljanja na Twitteru 2016. godine, nakon što su trolovi na društvenoj mreži naučili da ga koriste za objavljivanje rasističkih i ksenofobičnih poruka.
S druge strane, ChatGPT je daleko moćniji i sofisticiraniji od svih prethodnih programa ovog tipa. Ako se programu daju prava pitanja prepuna dezinformacija, on može proizvesti ubjedljive, čiste varijacije sadržaja koji će se masovno proizvoditi u roku od nekoliko sekundi.
Ekstremizam i lažne vijesti
Istraživači Centra za terorizam, ekstremizam i kontraterorizam Instituta za međunarodne studije Middlebury su 2020. otkrili da GPT-3 – osnovna tehnologija za ChatGPT, ima „impresivno duboko znanje o ekstremističkim zajednicama“ i da može podstaći lažne teme na forumima u kojima se raspravlja o nacizmu, odbrane QAnona, pa čak i višejezičnih ekstremističkih tekstova.
Istraživači takođe brinu da bi tu tehnologiju mogli da iskoriste strani agenti u nadi da će širiti dezinformacije na engleskom jeziku. U tom pravcu, organizacija NewsGuard je zatražila od chatbota da napiše sadržaj koji promoviše štetne tvrdnje o vakcinama, a rezultat je potpuno identičan propagandi dezinformacija koju u svijetu plasiraju Kina i Rusija.
VI i kao instrument za prevenciju
S druge strane, vještačka inteligencija ima pozitivnu upotrebnu vrijednost. Kako bi spriječili širenje lažnih vijesti, naučnici su napravili sistem vještačke inteligencije koji registruje i najubjedljivije lažne vijesti. Novi američki programski sistem pod nazivom Grover može identifikovati lažne vijesti na osnovu njihovih senzacionalističkih naslova.
Kreatori programa tvrde da Grover, za razliku od drugih aktuelnih sistema koji otkrivaju lažne vijesti sa 73 posto tačnosti, ima visoku stopu detekcije od 92 posto. Tim sa Univerziteta u Washingtonu koji je stvorio Grover planira da spriječi njegovu zloupotrebu tako što će alat odmah učiniti dostupnim široj javnosti, tako da svako ko želi može da ga koristi da provjeri prirodu objavljenih vijesti. Prema kreatorima programa, prednost Grovera je u tome što analizira više aspekata vijesti od drugih alata i ne samo da ispituje sadržaj teksta, već i naslov, medij, autora teksta, kao i druge detalje koji bi mogli pomoći u otkrivanju sadržaja.
Izvor: Sloboden Pečat
Ostavljanje komentara je privremeno obustavljeno iz tehničkih razloga. Hvala na razumevanju.