Anthropic i vlada SAD zajedno protiv zloupotrebe AI

Kompanija za veštačku inteligenciju Anthropic udružila je snage sa vladom Sjedinjenih Američkih Država kako bi razvila posebnu vrstu zaštite. Cilj je da se njihov AI model, Claude, spreči da ikada pomogne u konstrukciji nuklearne bombe.

Ovaj potez dolazi u trenutku rastuće zabrinutosti da bi sofisticirani AI sistemi mogli biti zloupotrebljeni u vojne ili terorističke svrhe. Anthropic je zato razvio specijalni filter koji bi trebalo da prepozna i blokira zahteve koji vode ka tome da se kreiraju opasne supstance ili oružje — uključujući i nuklearno.

Podeljena mišljenja stručnjaka

Iako je ideja naišla na odobravanje u pojedinim krugovima, stručnjaci su podeljeni kada je u pitanju njena efikasnost. Neki smatraju da je ovo korak u pravom smeru, dok drugi upozoravaju da se ovakvi sistemi lako mogu zaobići, posebno ako se poruke pažljivo formulišu.

Dodatna zabrinutost leži u tome da se previše oslanjamo na same kompanije da obezbede sopstvene proizvode. Pitanje koje se postavlja jeste: da li su etički filteri koje razvija privatna firma dovoljni kao zaštita, ili je neophodna šira regulativa?

Kako AI postaje sve snažniji alat, uloga ovakvih bezbednosnih mehanizama bi mogla postati ključna. Anthropic je među prvima koji ovako otvoreno govore o svojim naporima, što bi moglo podstaći i druge aktere na slične korake.

izvorna vest

Najnovije

spot_imgspot_img

Related articles

Leave a reply

Please enter your comment!
Please enter your name here

spot_imgspot_img