U studiji objavljenoj u časopisu “Paterns” (“Patterns”), navodeno je da si sistemi veštačke inteligencije (AI) naučili da varaju, i to primenjujući tehnike manipulacija, ulagivanja i otvorene prevare, zaključak je naučnika sa Masačusetskog Instituta za tenologiju (MIT). Kao primere sistema AI koji su sposobni za manipulaciju, naveli su sistem Cicero, koji pripada vlasniku “Fejsbuka” u okviru koncerna “Meta”. U igri “Diplomatija”, pomenuti sistem može da igra protiv ljudi, ali tako što se od “Mete” naučio da "obmanjuje". U toj igri koja simulira odnos snaga u vreme Prvog svetskog rata i zahteva sklapanje savezništava, Cicero je "izdajnik koji je planirao prevaru i sklapanje savezništava da bi obmanuo saigrače i učinio ih nespremnim za napad". A model za igranje pokera “Pluribus”, koji takođe pripada “Meti”, obmanuo je svoje ljudske saigrače navodeći ih na predaju.
Primer AI četbota chatGPT, kompanije OpenaAI, prevarom je naveo ljudskog sagovornika da za njega obavi bezbednosnu proveru kojom korisnici nekog sajta dokazuju da nisu botovi (tzv. Captcha) - ali mu nije pomenuto da treba da laže. Kada je sagovornik pitao za njegov identitet, AI sistem se predstavio kao slabovida osoba koja ne vidi slike na proveri Captcha.
Primeri skrivanje pravih namera otkriveni su i kod AI sistema napravljenih za pregovore o ekonomskim pitanjima. Ovome se može dodati i da su sistemi za učenje iz ljudskih povratnih informacija (RLHF) “naučili” da lažu o svojoj efikasnosti i učinku.
Autori studije upozoravaju da su sistemi AI i Veliki jezički model sposobni da, kada osete potrebu - pribegnu lažima i obmanama.
Kompletni tekstove sa slikama i prilozima potražite u magazinu
"PLANETA" - štampano izdanje ili u ON LINE prodaji Elektronskog izdanja "Novinarnica"