FELJTON - U TOKU JE PRAVI ELEKTRONSKI RAT: Korisnici ne znaju da li imaju posla sa čovekom ili mašinom

Viola Bakini i Mauricio Teskoni

16. 09. 2021. u 18:00

U TOKU je pravi rat, a njegov ishod tek će se odigrati. U sajber-bitkama s jedne strane učestvuju tvorci botova, koji se trude da programiraju sve savršenije lažne profile, teže uočljive, a s druge oni koji se bave otkrivanjem i daju maksimum da održe korak sa sve složenijim botovima, kao i da razviju još efikasnije metode za njihovo prepoznavanje.

ФЕЉТОН - У ТОКУ ЈЕ ПРАВИ ЕЛЕКТРОНСКИ РАТ: Корисници не знају да ли имају посла са човеком  или машином

TEHNIKA Poruke na društvenim mrežama su jednostavne, Foto Arhiva

To je trka u naoružanju u kojoj protivnici neprestano nastoje da nadmaše jedni druge. U Nacionalnom istraživačkom savetu Italije u Pizi upoznali smo Stefana Krešija, jednog od najmarljivijih istraživača na polju lova na botove. Rekao nam je da je poslednjih godina interesovanje za ovu oblast dostiglo enormne razmere. "Broj objavljenih radova o otkrivanju botova vrtoglavo je porastao od 2012. do danas."

"Botometer" je trenutno nesumnjivo u središtu pažnje u većini studija o botovima. Posle Emilija Ferare pojavilo se sijaset istraživača iz celog sveta koji su ga koristili kako bi stekli predstavu o količini lažnih identiteta koji "zagađuju" društvene mreže. Ipak, nije uvek jednostavno da se utvrdi prava priroda nekog profila, pogotovo ako nam algoritam mašinskog učenja pokaže brojku negde na sredini između nula (sigurno čovek) i pet (sigurno bot). Druge tehnike koje su na ceni kod onih koji se bave otkrivanjem botova, zasnivaju se na grafikonima. "Te tehnike", objašnjava Kreši, "usmerene su pre svega na atipičnu povezanost unutar neke grupe naloga, zanemarujući karakteristike pojedinačnih naloga".

EMILIO Ferara i njegove kolege su to već primetili kada su istraživanje urađeno tokom američkih izbora 2016. godine ponovili i za vreme izbora na pola predsedničkog mandata 2018. i dobili sasvim drugačije rezultate. Pre svega, izgleda da su botovi, premda su i dalje u igri, pretrpeli korenite promene. Koristeći svoj algoritam za klasifikaciju naloga, naučnici su pronašli 31.000 botova koji su tvitovali o izbornim temama. Ipak, za razliku od svojih prethodnika, novi botovi nisu samo neumorno retvitovali, već su bili kadri da i sami ponude određene sadržaje i komuniciraju s pravim korisnicima. A ljudi, pošto ih verovatno nisu prepoznali kao lažne, odgovarali su botovima i prenosili njihove poruke. Autori studije shvatili su da je reč o znatno složenijim botovima. A sva je prilika da je u njih mnogo više i uloženo, jer samo programiranje algoritma koji će retvitovati određene poruke ne košta mnogo, niti iziskuje mnogo utrošenog vremena (i novca), dok je znatno skuplje opremiti ga nekim vidom autonomnog jezika i inteligencije.

ODBRANA OD LAŽNIH PROFILA

DRUŠTVENE platforme, u nastojanju da se odbrane od lažnih profila, koriste najrazličitije oružje. Neke se, na primer, pretežno oslanjaju na prijave svojih korisnika. Takav je slučaj s "Fejsbukom", koji nakon prijave pokreće proces gde većinom zadužena lica pregledaju te profile, nastojeći da uvide da li se samo nedolično ponašaju ili su botovi. Ne zaostaje ni "Tviter": za svega dva meseca - od maja do juna 2018. godine - uklonjeno je više od sedamdeset miliona naloga.

ZNATAN broj tih botova nije podržavao ovog ili onog kandidata u predizbornoj trci, nije se trudio da zaoštri raspravu, ili da ubeđuje građane, već je samo objavljivao ankete na temu izbora. Na primer: "Samo ukoliko izlaziš na glasanje 6. novembra, odgovori na pitanja iz ove ankete", "Za koju stranku ćeš glasati i zašto?", "Smatraš li da je ispravno što na glasačkom mestu moraš da pokažeš neki lični dokument?" "Retvituj ako si saglasan sa ovim: potrebno je da na svakom izbornom mestu prilikom glasanja nadzor vrše i federalni agenti."

Taj vid ponašanja, u pogledu vremenske usklađenosti, količine poruka, kao i komunikacije koju bot uspeva da ostvari, veoma je nalik na postupanje ljudi, i to u tolikoj meri da postoji sve veća opasnost da u bliskoj budućnosti uopšte nećemo moći da ih razlikujemo od pravih korisnika. Kada je reč o vremenskoj usklađenosti, Ferara i njegove kolege ističu da napredniji botovi ne retvituju istu poruku mnogo puta (kao što bismo od mašine očekivali), češće je prenesu samo jednom (ali sa mnoštva različitih naloga, što navodi na sumnju da postoje dobro organizovane botovske mreže).

"VEŠTAČKA inteligencija je uznapredovala džinovskim koracima. Danas algoritmi sastavljaju tekstove i pišu knjige. Razume se, to nisu kvalitetni tekstovi, ali ako uzmemo u obzir pojedinačne tvitove već smo stigli dotle da je praktično nemoguće razlikovati da li su ih napisali ljudi ili roboti", objašnjava Ferara. Budući da su poruke koje se objavljuju na društvenim mrežama već po prirodi jednostavne, njihov rečnik je siromašan i često su kratke. "Složeniji botovi mogu da se služe i žargonom, skraćenicama, akronimima, itd.

Do juče se govorilo da je nemoguće da se mašina programira da stvara sadržaje koji se ne razlikuju od čovekovog pisanja, dok je danas to uverenje iščezlo", nastavlja naučnik. I to ne važi samo za algoritme koji služe za otkrivanje i moraju da budu sve složeniji kako bi mogli da prepoznaju i najnaprednije robote, već i za same korisnike društvenih mreža. "U našoj studiji o izborima na pola predsedničkog mandata u Americi zabeležili smo pad uticaja botova na društvenim mrežama u odnosu na prethodne predsedničke izbore. Ali ne znamo da li je to uslovljeno prefinjenijim čovekovim rasuđivanjem, ili nesposobnošću programskih klasifikatora da prepoznaju naprednije botove", zaključuje istraživač.

JEDNO Krešijevo istraživanje doliva ulje na vatru i pokazuje da algoritmi nisu jedini koji nailaze na teškoće, budući da ni ljudi najčešće ne prepoznaju najsavršenije botove. Da bi to dokazali, naučnici su upotrebili platformu za filtriranje podataka Crowdflower, gde stotine ljudi ručno postavlja oznake na tekstove. Cilj je da se napravi mnoštvo obrazaca kako bi se algoritmi osposobili za mašinsko učenje. Dakle, da ilustrujemo primerom: ako hoću da napravim program koji može da prepozna da li neki tekst sadrži reči mržnje (u svrhu izrade studije o govoru mržnje), upotrebiću Crowdflower za prikupljanje hiljade izraza sa oznakom "mržnja" i podjednak broj onih koji su označeni kao "nije mržnja".

U Krešijevom eksperimentu zadatak obeleživača na Crowdflower bio je da utvrde da li iza određene grupe profila stoje ljudi ili programerski algoritmi. Međutim, oni nisu znali da naučnici već imaju odgovore i žele samo da izmere njihovu sposobnost uočavanja botova.

Rezultat je bio zabrinjavajući. Naime, među najrazvijenijim botovima oni su prepoznali tek svakog četvrtog. A to, drugim rečima, znači da ni ljudi ne znaju da li imaju posla s pravim sagovornikom ili mašinom. Ili, preciznije, prepoznaju ljude kao takve, ali su skloni da smatraju za ljude i profile koji to nisu. To znači da se botovi sve uspešnije prerušavaju (za razliku od jednostavnijih lažnih pratilaca, koji su, naprotiv, u tom eksperimentu uočeni u 91 odsto slučajeva). Studija nam otkriva još jednu gorku istinu: algoritmi za otkrivanje botova koje koriste same platforme još su manje uspešni nego ljudi. "Tviter" je 2017. godine, u vreme kada je rađen ovaj eksperiment, uspevao da pronađe svega 60 odsto lažnih pratilaca i četiri odsto naprednijih botova.

SUTRA: IZBORI NA DRUŠTVENIM MREŽAMA

Pratite nas i putem iOS i android aplikacije

Komentari (0)