DRON LOVIO I NAPAO LJUDE: I to bez ljudske kontrole (VIDEO)

Novosti onlajn

02. 06. 2021. u 19:05

AUTONOMNA bespilotna letelica (DRON) možda je lovila i napadala ljude bez ikakvih ljudskih komandi, otkrio je nedavni izvještaj UN-a.

Foto: Depositphotos

Osim što se prvi put takav napad veštačke inteligencije (AI) dogodio na ljude, nejasno je da li je dron možda ubio ljude tokom napada koji se dogodio u Libiji u martu 2020. godine.

U izveštaju Savetu bezbednosti UN navodi se da je libijski premijer Fajez al-Saraj 27. marta 2020. naredio „operaciju MIRNA Oluja“ i upotrebila bespilotne borbene letelice (UCAV) koje se koriste protiv udruženih snaga generala Haftara. Dronovi se godinama koriste u borbi, ali ono što je ovaj napad učinilo drugačijim je to što su dejstvovali bez ljudske kontrole.

-Logistički konvoji i HAF u povlačenju naknadno su lovljeni i daljinski angažovani bespilotnim borbenim vazdušnim vozilima ili smrtonosnim autonomnim sistemima naoružanja kao što je STM Kargu-2 i drugo slično oružje“, navodi se u izveštaju.

-Smrtonosni autonomni sistemi naoružanja programirani su za napad na ciljeve bez potrebe za povezivanjem podataka između operatora i oružja: u stvari, prava sposobnost „zaboravi i nađi“.

KARGU je rotirajuća bespilotna letelica dizajnirana za asimetrično ratovanje ili antiterorističke operacije, koja se prema navodima proizvođača "može efikasno koristiti protiv statičnih ili pokretnih ciljeva kroz svoje autohtone mogućnosti obrade slika i algoritama mašinskog učenja ugrađene u platforme."

Video snimak koji prikazuje bespilotnu letelicu pokazuje kako gađa makete na polju, pre nego što se spusti na njih i aktivira eksplozivni naboj.

Između ostalih zabrinutosti je i to što algoritmi inteligencije koje roboti koriste možda nisu dovoljno robusni ili su obučeni na skupovima podataka sa nedostacima u sebi. Pored toga što je otvoren za greške (poput Tesle koja je prevarena da skrene sa puta), postoji i bezbroj primera pristrasnosti u tehnologiji mašinskog učenja, od prepoznavanja lica koje ne prepoznaje ne bele nijanse kože, do kamera koje govore azijskim ljudi da prestanu da trepću , na rasističke dozatore sapuna koji vam neće dati sapun ako ste crni i samovozeći automobili koji će verovatno pregaziti ako niste beli.

Čini se da bismo uskoro mogli da poverimo odluke o životu i smrti tehnolozima koji bi mogli biti otvoreni za slične probleme.

(Alo.rs)

Pogledajte više