Bryan Cranston i SAG-AFTRA kažu da OpenAI ozbiljno shvata njihove brige oko deepfake videa

Bryan Cranston

Mesec dana nakon što je OpenAI lansirao svoj alat Sora 2 za generisanje video sadržaja pomoću veštačke inteligencije, glumci, agenti i glumački sindikat SAG-AFTRA izrazili su zabrinutost zbog načina na koji su njihove slike i glasovi korišćeni bez dozvole.

Nakon što se u Sora videima pojavio i lik Bryana Cranstona — uključujući i jedan video u kojem “uzima selfi sa Michaelom Jacksonom” — kompanija je saopštila da je pojačala bezbednosne mere u politici saglasnosti. U zajedničkom saopštenju sa glumcem i sindikatom, OpenAI navodi da „izražava žaljenje zbog neplaniranih generacija“ njegovog lika i glasa.

Svoja imena na zajedničko saopštenje stavile su i važne agencije, među njima United Talent Agency, The Association of Talent Agents i Creative Artists Agency, koje su ranije kritikovale nedostatak zaštite za umetnike u alatima veštačke inteligencije.

OpenAI sada obećava da će svi umetnici i pojedinci imati pravo da odluče da li žele da budu simulirani, i da će se pritužbe koje ukazuju na kršenje te politike brzo razmatrati.

Cranston je izjavio da je „zahvalan OpenAI-ju na politici i poboljšanju bezbednosnih mera“, ali predsednik SAG-AFTRA sindikata Sean Astin naglašava da je potrebna i zakonska zaštita glumaca, kako bi se izbegle široke zloupotrebe tehnologije replikacije. Ukazao je i na NO FAKES zakon koji je u procesu razmatranja.

Podsetimo, Sora 2 je u početku lansirana sa opcijom „opt-out“ za nosioce autorskih prava. Nakon velike negativne reakcije javnosti i videa poput nacističkog versiona lika Sunđer Boba, kompanija je prešla na model saglasnosti po sistemu „opt-in“, uz dodatne kontrole za kreiranje sadržaja sa prepoznatljivim likovima.

izvorna vest

Najnovije

spot_imgspot_img

Related articles

Leave a reply

Please enter your comment!
Please enter your name here

spot_imgspot_img