ФЕЉТОН - ДИГИТАЛНИ ЛАЖОВИ У ДУБИНИ ДУШЕ: У пракси је све већа злоупотреба приватних снимака

Виола Бакини и Маурицио Тескони

20. 09. 2021. у 19:03

НА ИНТЕРНЕТУ нико не зна да си пас - гласи текст испод чувене карикатуре објављене у "Њујоркеру" деведесетих година прошлог века, а та тврдња, никада није била ближа истини него данас.

ФЕЉТОН - ДИГИТАЛНИ ЛАЖОВИ У ДУБИНИ ДУШЕ: У пракси је све већа злоупотреба приватних снимака

ПОДВАЛА Лажни твит "Хитлер није учинио ништа лоше" (Из књиге "Лажни људи"), Фото Принтскрин

Тролови који покушавају да утичу на исход избора, ботови који манипулишу вредношћу акција на берзи, лажни пратиоци који надувавају популарност самозваних инфлуенсера, крадљивци идентитета, преваранти, четботови "паметни" до те мере да воде разговоре с правим особама, а да не побуђују никакву сумњу - све су то само поједини од бројних лажних идентитета који преплављују интернет. Премда нам ефекти њиховог деловања нису у потпуности познати, нити можемо да их научно тачно измеримо, неспорно је да је та тема актуелна, да непосредно утиче на живот људи и да се односи на већину земаља на свету, укључујући Италију. Откривање ботова или дигиталних превараната, као што смо видели, може да буде донекле једноставно, али и веома тешко, зависно од тога колико су брижљиво направљени, као и од вештине ловаца на ботове да проналазе нове, све савршеније технике за њихово откривање.

Исход те утакмице још се не зна, али се чини да будућност није баш ружичаста. Ничу, наиме, задивљујућом брзином, нове технике које ће, изгледа, бити крупан залогај и за најнапредније методе откривања. Из 2018. године потиче видео-снимак на којем хиперреалистични и уверљиви Марк Закерберг признаје да "Фејсбук" није транспарентан. Штета само што је тај снимак лажан, урађен дипфејк (deepfake)) техником, која омогућује да се најнапреднијим методама, као што су дубоко структурно учење и вештачка интелигенција, створе лажно лице и глас који су практично истоветни као оригинал.

У ИТАЛИЈИ је нешто слично урађено у једној популарној сатиричној телевизијској емисији, када је у јесен 2018. направљен снимак с лажним Матеом Ренцијем у главној улози. Такви снимци доводе у питање и само наше опажање, јер смо склони да ако видимо неку познату личност и чујемо да говори својим правим гласом, погледа упртог у телевизијску камеру, прихватимо "здраво за готово" да је снимак стваран. Чак и СПИД, јавни систем дигиталног идентитета, који италијанским грађанима омогућује приступ свим онлајн сервисима јавне управе, темељи се на тој претпоставци (данас се, наиме, властити СПИД може регистровати видео-позивом где се одговара на низ питања оператора и показује лична исправа).

НОВО ОРУЖЈЕ ЗА ПРЕВАРАНТЕ

ОНАЈ ко хоће лажно да се представи како би преварио неког несрећника на интернету, има још једно, ново оружје. Ако се сетимо лажних девојака на сајту за упознавање, иза којих су се крили глупави ботови који су умели једино да понављају један те исти образац, а опет су успели да преваре милионе мушкараца у потрази за авантуром, видимо да нема места спокоју. Али, водите рачуна да не претерате с опрезом, могло би вам се десити да прођете као неки корисници сајта за упознавање "Bumble", који су, када им се јавила извесна Шерон Стоун, одлучили да пријаве налог као сумњив дотичној платформи, која га је жигосала као лажан и муњевито угасила. Само што, овога пута, у питању није била лаж.

То уверење изазвано је начином развијања технологије која донедавно није била кадра да производи тако уверљиве синтетичке садржаје. Нико од нас, када одговара на телефонски позив и зачује глас, интонацију и нагласак свог најбољег пријатеља, не би посумњао да се с друге стране налази управо та особа, зар не? А ипак, у марту 2019. године, један сајбер криминалац употребио је дипфејк да би се лажно представио као директор једне значајне британске компаније и да би добио на располагање своту од 240.000 долара из једног иностраног фонда. Најневероватнији део те приче није толико чињеница да службеницима ништа није било сумњиво, колико податак да ни истрага никада није успела да докаже да је тако уверљиви аудио-снимак вештачки направљен.

ТАКВИХ примера има више и у области политике. Као што је, рецимо, наводни дипфејк председника Габона, Алија Бонга Ондимбе, за кога су се шириле гласине да има озбиљних здравствених проблема. После видео--снимка на којем председниково лице чудно изгледа, габонска војска извршила је државни удар. Или случај малезијског министра привреде, Мохамеда Азмина бин Алија, који се у јуну 2018. нашао у средишту скандала због снимака који наводно показују његов сексуални однос с другим мушкарцем. У земљи где су истополни сексуални односи забрањени министар је то одлучно демантовао, али нико није успео да докаже да је снимак лажиран.

Упркос томе што се дипфејк појавио тек 2017. године, на интернету је након две године већ постојало готово 15.000 снимака урађених помоћу ове технике (двоструко више него 2018. године). Приче о политичким преварама и трачевима заправо чине тек незнатан постотак, будући да је 96 одсто дипфејк снимака порнографске садржине са славним женама у главној улози (прва је била једна британска глумица, а после ње јужнокорејска певачица). Лажирани снимци могу се наћи и на порно сајтовима, а и обичним платформама, као што је "Јутјуб".

Стварање таквих садржаја, поготово високог квалитета, није (још) свакоме доступно. Постоје одговарајући софтвери, али за њихову употребу мораш да будеш програмер, као и да поседујеш моћне рачунаре. Но, за оне који немају те способности и не поседују неопходну технологију постоје и друга решења, као што су компаније које за тричаву своту долара производе дипфејк снимке на основу стотина фотографија неке особе.

ПОСЛЕДЊИХ месеци појавиле су се апликације за такозвани дипнуд (deepnude), помоћу којих се могу "свлачити" девојке на фотографијама, реконструишући делове прекривене одећом.

Алгоритми вештачке интелигенције, обучени на милионима снимака нагог женског тела, запањујуће реалистично реконструишу нечије тело. Ето како и девојка која никада није позирала за такве снимке може открити да стотине њених компромитујућих фотографија круже интернетом, а за разлику од обичних фото-монтажа, крајње су уверљиве. Није реч о нагађањима, то се већ догодило, као што показује случај двадесетчетворогодишње учитељице, која је у телевизијској емисији испричала шта је доживела, рекавши да је веома забринута због утицаја који такве фотографије могу да имају на њен рад и приватни живот.

СЛИЧНЕ апликације су све популарније, што подстиче програмере да праве све једноставније интерфејсе, које свако може да користи и без технолошких знања. Укратко, реч је о стварном проблему. То су схватиле и велике калифорнијске компаније, које настоје да ублаже штету.

"Гугл" је 2019. направио и објавио базу података о лажним снимцима како би механизми за препознавање увежбали да разоткрију ту технологију, користећи иста оруђа помоћу којих је она и направљена. "Фејсбук" је исте године за програмере покренуо такмичење у откривању дипфејк снимака . На пољу законодавства, први закон којим се забрањују дипфејк и дипнуд донесен је у Вирџинији, а помињу се у Закону о забрани порнографије из 2019. године.

СУТРА: ЕЛЕКТРОНСКЕ ФИНАНСИЈСКЕ ИГРЕ

Пратите нас и путем иОС и андроид апликације

Коментари (0)