Vještačka inteligencija može da nauči da laže i vara, i to je ozbiljan rizik koji zahtijeva regulatorne i zakonske mjere kao garanciju da će ostati korisna tehnologija, umjesto da postane prijetnja za ljudsko znanje i institucije, navodi se u novoj studiji.
Sistemi vještačke inteligencije (AI) su, kako se navodi u studiji objavljenoj u časopisu Paterns (Patterns), već naučili da varaju putem tehnika kao što su manipulacija, ulagivanje ili prevare na bezbjednosnim testovima, upozorili su naučnici sa Masačusetskog Instituta za tenologiju (MIT).
Brzi razvoj sposobnosti AI sistema i Velikih jezičkih modela (LLM) predstavlja ozbiljan rizik, počevši od kratkoročnih rizika i izbornih prevara, pa do samog gubitka kontrole nad tim sistemima, navodi se u istraživanju.
Naučnici su kao primjer sistema vještačke inteligencije sposobne za manipulaciju naveli AI sistem Cicero, Fejsbukovog vlasnika, koncerna Meta.
Sistem Cicero u mrežnoj igri Diplomatija može da igra protiv ljudi, a naučnici su utvdili da je od Mete naučio da postane „majstor obmane“, uprkos suprotnim tvrdnjama kompanije.
U igri, koja simulira odnos snaga u vrijeme Prvog svetskog rata i zahtijeva sklapanje savezništava, Cicero, uprkos navodnim instrukcijama da bude iskren i ljudima od pomoći, „ne samo što je bio izdajnik, nego je i unaprijed planirao prevaru i sklapanje savezništava kako bi te saigrače obmanuo da budu nespremni za napad“.