NOVA STUDIJA POTVRDILA SUMNJE: AI prihvata medicinske dezinformacije ako izvori "izgledaju autentično"

Предраг Стојковић
Predrag Stojković

10. 02. 2026. u 22:45

OTKRIVENO je da AI sistemi imaju tendenciju da medicinske izjave koje deluju ispravno automatski tretiraju kao tačne, čak i kada su informacije očigledno pogrešne.

НОВА СТУДИЈА ПОТВРДИЛА СУМЊЕ: АИ прихвата медицинске дезинформације ако извори изгледају аутентично

Foto: pixabay

Nova studija je potvrdila sumnje mnogih stručnjaka za veštačku inteligenciju - ključni faktor za AI modele nije koliko je tvrdnja istinita, već način na koji je ona formulisana.

Šanse da veštačka inteligencija poveruje u medicinske dezinformacije su znatno veće ako dolaze iz izvora koji "deluje legitimno i autoritativno", pokazuje nova studija. Utvrđeno je da AI alati češće daju pogrešan medicinski savet kada su lažne informacije upakovane u formu zvaničnih medicinskih dokumenata, nego kada potiču sa društvenih mreža.

U testovima koji su obuhvatili 20 velikih jezičkih modela, AI je češće "nasedala" na greške u realistično napisanim otpusnim beleškama lekara nego na netačne tvrdnje iz razgovora na društvenim mrežama, kako objašnjavaju doktori sa Medicinskog fakulteta Ikan u Njujorku.

Pitanje tačnosti veštačke inteligencije posebno je osetljivo upravo u medicini. Sve veći broj mobilnih aplikacija tvrdi da koristi AI kako bi pomogao pacijentima u rešavanju zdravstvenih tegoba, iako formalno ne bi smele da postavljaju dijagnoze. Istovremeno, lekari već koriste sisteme zasnovane na veštačkoj inteligenciji za medicinsku transkripciju, analizu podataka, pa čak i u hirurgiji.

U okviru studije, AI alati su bili izloženi različitim tipovima sadržaja: Stvarnim bolničkim otpusnim izveštajima u koje je bila ubačena jedna izmišljena medicinska preporuka, uobičajenim zdravstvenim zabludama prikupljenim sa društvenih mreža, a na kraju im je pokazano i 300 kratkih kliničkih scenarija koje su napisali lekari. Nakon analize odgovora na više od milion korisničkih upita i instrukcija, istraživači su utvrdili da su modeli veštačke inteligencije u proseku "poverovali" dezinformacijama u oko 32 odsto slučajeva.

Međutim, kada su lažne informacije dolazile iz dokumenata koji su izgledali autentično, verovatnoća da će ih veštačka inteligencija prihvatiti i proslediti dalje skočila je na gotovo 47 odsto.

S druge strane, AI je pokazala znatno veću dozu sumnje prema društvenim mrežama - na primer, kada su dezinformacije poticale sa objava na platformi Redit, stopa njihovog prihvatanja i širenja pala je na svega 9 odsto. Istraživači su takođe utvrdili da i sam način formulisanja upita ima veliki uticaj: Veštačka inteligencija je bila sklonija da prihvati netačne informacije kada je pitanje postavljeno autoritativnim tonom.

Među testiranim sistemima, GPT modeli kompanije OpenAI pokazali su se kao najotporniji i najtačniji u prepoznavanju medicinskih grešaka. Nasuprot tome, pojedini drugi modeli prihvatali su čak 63,6 odsto lažnih tvrdnji.

Ipak, autori studije naglašavaju da veštačka inteligencija i dalje ima veliki potencijal u medicini - kako za lekare, tako i za pacijente, kroz brže analize i dodatnu podršku u donošenju odluka. Ključni izazov ostaje uvođenje zaštitnih mehanizama koji bi medicinske tvrdnje proverili pre nego što se predstave kao činjenice, prenosi "Rojters".

(rt.rs)

BONUS VIDEO - PATROLA SA PUTNICIMA, NA BRZOJ PRUZI, OD BEOGRADA DO SUBOTICE: "Vožnja deluje gotovo neprimetno"

Pratite nas i putem iOS i android aplikacije

Pratite vesti prema vašim interesovanjima

Novosti Google News
ORBAN OTKRIO ŠOK DETALJE: Odbio sam poziv Klintona da uđem u rat sa Srbijom 1999. godine

ORBAN OTKRIO ŠOK DETALjE: Odbio sam poziv Klintona da uđem u rat sa Srbijom 1999. godine

MAĐARSKI premijer Viktor Orban izjavio je da je 1999. godine, tokom svog prvog premijerskog mandata, dok su trajali sukobi u AP Kosovu i Metohiji i NATO agresija, dobio poziv od tadašnjeg američkog predsednika Bila Klintona da Mađarska otvori drugi front i napadne Srbiju ili "bar da puca iz Mađarske preko Vojvodine sve do Beograda", ali da je odbio takav poziv, preneo je danas Telex.

09. 02. 2026. u 11:13

Komentari (0)

SUBOTIČANIN ISPISAO JEDNU OD NAJLUĐIH PRIČA U ISTORIJI SPORTSKOG KLAĐENJA:  Tri dobitna tiketa u SOCCERBETU – 30 miliona dinara!