Učesnici takmičenja opremili su svoje sisteme tako da identifikuju lažne naloge koristeći pet glavnih tačaka pri obradi podataka. Sistemi koje su dobili kao rezultat daleko su od savršenih, budući da je najbolji funkcionisao samo 40 odsto vremena, ali ipak otkrivaju najbolje načine za uočavanje bota na Tviteru. Njihov zaključak je da bi uspešnu detekciju trebalo da garantuje oslanjanje na sledeće tačke:
1. Korisnički nalog
Najjednostavniji način da saznate da li je neki nalog lažan jeste da proverite profil, budući da najrudimentarnijim botovima nedostaje slika, link ili bilo kakva biografska informacija. Sofisticiraniji bot će možda koristiti sliku koju je ukrao sa mreže ili neko korisničko ime koje je već automatski generisano.
2. Sintaksa tvita
Mašinama je i dalje neverovatno teško da upotrebljavaju ljudski jezik. Tvitovi nekog bota mogu razotkriti njegovu algoritamsku logiku, budući da su uglavnom neoriginalni i repetitivni, ili koriste odgovore koji su uobičajeni za takozvane chatbot programe. Nerazumevanje očigledne šale i brza promena teme ponekad su nagoveštaji lažnog naloga (nažalost, oni su takođe uobičajeni i među ljudskim korisnicima Tvitera).
3. Semantika tvita
Botovi se uglavnom prave sa specifičnom svrhom na umu, pa mogu biti previše opsednuti nekom posebnom temom. Recimo, mogu da objavljuju isti link iznova i iznova ili tvituju o malo čemu drugom.
4. Ponašanje tokom vremena
Posmatranje tvitova tokom vremena može takođe da vodi do razotkrivanja botova. Ukoliko neki nalog tvituje neverovatnim tempom, u neuobičajeno vreme, ili čak previše redovno, to može biti dobar znak da je u pitanju lažnjak. Istraživači su, takođe, uočili da lažni nalozi često odaju nekonzistentan stav prema temama tokom vremena.
5. Odlike mreže
Dinamika mreže nije vidljiva većini korisnika, ali može otkriti dosta o nekom nalogu. Botovi mogu pratiti samo nekoliko naloga ili mogu biti praćeni od strane mnogih drugih botova. Tonalitet tvitova nekog bota takođe može biti nepodudaran sa onim tvitovima sa kojime je povezan, što samo ukazuje da ne postoji prava društvena interakcija.
Tviter je nedavno preduzeo drastične mere gašenja više od dva miliona automatskih naloga ili botova, kao deo pokušaja da uspori širenje dezinformacija kroz sopstvenu platformu. Ali, ugasio je samo one najozloglašenije i očigledne prestupnike. Međutim, prerušavanje lažnih korisnika u prave sigurno će se nastaviti i dalje, budući da se od onih koji u tome učestvuju može očekivati da podignu igru na još viši nivo.
U izveštaju objavljenom u Pregledu Tehnološkog instituta u Masačusetsu navodi se da napredak koji je ostvaren na polju mašinskog učenja ukazuje na to na koje sve načine botovi mogu postati više nalik ljudima. Istraživači IBM-a nedavno su predstavili sistem koji je sposoban da se upusti u razumnu i koherentnu raspravu “rudareći” po tekstu. I Guglov softver Duplex takođe je pokazao kako sistemi veštačke inteligencije mogu naučiti da podražavaju nijanse ljudskog razgovora.
Ostavljanje komentara je privremeno obustavljeno iz tehničkih razloga. Hvala na razumevanju.