Guglova nova politika sada zahteva od naučnika da se konsultuju sa pravnicima i timom za odnose s javnošću pre nego što se počnu da se bave upitnim tehnologijama kao što su analiza lica i raspoloženja, kategorizacija rase, pola ili političke pripadnosti.
„Napredak tehnologije i rastuća složenost našeg spoljnog okruženja sve više dovode do situacija kada naizgled bezazleni projekti pokreću etička, reputaciona, regulatorna ili pravna pitanja“, navodi se u internim komunikacijama upućenim istraživačkom osoblju.
Za neke projekte, zvaničnici Gugla intervenisali su u kasnijim fazama. Jedan od viših menadžera kompanije rekao je naučnicima i autorima studija da moraju da „vode računa da daju pozitivan ton“ prilikom izveštavanja o rezultatima istraživanja.
Četvoro istraživača, uključujući stariju naučnicu Margaret Mičel, rekli su da veruju da Gugl počinje da se meša u ključne studije, koje ispituju potencijalne štete koju tehnologija može da nanese.
Tenzije između tehnološkog giganta i dela njegovog osoblja pojavile su se ovog meseca nakon naglog odlaska naučnice Timnit Gebru koja je sa Margaret Mičel vodila tim od 12 naučnika usredsređenih na etička pitanja u razvoju veštačke inteligenciju (AI).
Gebru kaže da ju je Gugl otpustio nakon što je dovela u pitanje naredbu da se ne objavljuje istraživanje, u kom je tvrdila da bi AI koji oponaša ljudski govor mogao dovesti marginalizovanu populaciju u još nepovoljan položaj.
Viši potpredsednik Džef Din rekao je u izjavi da se članak koji je napisala Gebru bazirao isključivo na potencijalnoj šteti, a da nije pominjala napore koji su u toku da bi se ti problemi rešili.
Eksponencijalni razvoj u istraživanju i razvoju veštačke inteligencije u tehnološkoj industriji podstakla je vlasti u Sjedinjenim Američkim Državama da predlože pravila za njenu upotrebu.
Neki su citirali naučne studije koje pokazuju da softver za analizu lica i druga veštačka inteligencija mogu da naruše privatnost i pojačaju rasnu pristrasnost.
Guglov projekat za koji je rečeno autorima da daju pozitivan ton odnosi se na AI algoritmu koji platforme poput Jutjuba (YouTube) koriste za personalizaciju sadržaja korisnika.
Rojters navodi da prema nacrtu projekta u koji su imali uvid, postoji „zabrinutost“ da ova tehnologija može da promoviše „dezinformacije, diskriminatorske ili na drugi način nepravedne rezultate“ i „nedovoljnu raznolikost sadržaja“, kao i da dovede do „političke polarizacije“.
Gugl još uvek nije komentarisao ove navode.
Ostavljanje komentara je privremeno obustavljeno iz tehničkih razloga. Hvala na razumevanju.