Microsoft obustavlja kontroverznu AI funkciju Recall nakon masovnih kritika

Microsoft je u junu 2024. objavio da privremeno obustavlja implementaciju svoje nove Recall AI funkcije za Windows 11 nakon oštrih reakcija eksperata za kibernetičku bezbednost, privatnost i čak regulativne agencije kao što je FTC. Ova funkcija, zamišljena kao “fotografsko pamćenje” vašeg računara, trebalo je da automatski snima, analizira i indeksira sve korisničke aktivnosti – od rada na dokumentima do pretraživanja weba – kako bi olakšala kasnije pretraživanje. Međutim, stručnjaci su upozorili da bi, u slučaju zlonamerne upotrebe ili hakovanja, Recall mogao postati “zlatni rudnik” za kriminalce, otvarajući pristup lozinkama, finansijskim podacima, privatnim porukama i drugim osjetljivim informacijama.

Nakon talasa kritika, Microsoft je najavio da će funkcija biti opciona (isključena podrazumevano) i da će proći dodatno testiranje pre nego što bude ponuđena širem tržištu. Kompanija je takođe obećala poboljšanja u zaštiti podataka, uključujući jaču enkripciju i transparentniji pristup korisničkim kontrolama. Međutim, mnogi analitičari smatraju da ovaj slučaj ilustruje opasnu praksu velikih tech kompanija – lansiranje potencijalno rizičnih AI alata pre nego što su dovoljno provereni.

Kako je Recall trebalo da funkcioniše (i zašto je problematičan)

Recall je predstavljen kao ključna innovacija za Windows 11 uređaje sa Copilot+ procesorima, obećavajući da će korisnicima omogućiti da “nikad više ne zaborave ništa”. Naime, funkcija bi:

  • Automatski snimala ekran u intervalima (svakih nekoliko sekundi) i čuvala te snimke lokalno na uređaju (a ne u cloud-u).
  • Indeksirala sadržaj pomoću veštačke inteligencije, omogućavajući pretraživanje prirodnim jezikom (npr. “Prikaži mi sve što sam radio oko projekta X prošlog meseca” ili “Nadji email o plaćanju računa”).
  • Radila u pozadini, bez potrebe za ručnim snimanjima ili beleškama.

Microsoft je isticao da podaci ne odlaze van uređaja, što bi trebalo da smanji rizik od provale. Međutim, eksperti kao što je Bruce Schneier upozorili su na nekoliko kritičnih problema:

  • Lokalno skladištenje ≠ bezbednost: Ako haker ili zlonamerni softver dođe do pristupa uređaju (npr. preko phishinga ili ranjivosti u sistemu), može lako izvući kompletnu istoriju aktivnosti – uključujući lozinke, bankovne podatke ili privatne razgovore.
  • Nedovoljna transparentnost: Microsoft nije detaljno objasnio kako se snimci štite (npr. da li su enkriptovani, ko ima pristup, ili kako se brišu).
  • Potencijal za zlouporabu: Funkcija bi mogla postati alat za nadzor u lošim namerama (npr. u slučaju porodičnog nasilja ili korporativne špijunaže).

Zašto je ovo važno za sve nas

Slučaj Recall nije samo pitanje jedne funkcije – on otvara šira pitanja o budućnosti AI-a i privatnosti. Evo zašto bi ovo trebalo da vas brine:

  • Vaši podaci su cilj: Hakeri sve češće ciljaju lične uređaje, a funkcije kao što je Recall bi im dale neviđenu količinu informacija na jednom mestu. Prema izveštaju Kasperskyja, napadi na lične računare porasli su za 30% u 2023.
  • Tech kompanije žure sa AI-om: Microsoft nije jedin koji lansira AI alate pre nego što su dovoljno testirani. Slične kontroverze pratile su i Google Bard, ChatGPT i druge platforme.
  • Regulativa zaostaje: Zakoni o zaštiti podataka (poput GDPR-a) teško prate brzi razvoj AI tehnologija, ostavljajući korisnike ranjivim.
  • Balans između korisnosti i rizika: Recall pokazuje da AI može biti moćan alat – ali i opasno oružje ako se ne kontroliše. Pitanje je: Da li smo spremni da žrtvujemo privatnost za udobnost?

Microsoft je najavio da će raditi na poboljšanjima, ali ovaj slučaj treba da posluži kao upozorenje – kako za korisnike (da budu oprezniji sa novim funkcijama), tako i za kompanije (da bezbednost stavljaju ispred brzog lansiranja). Ako želite da saznate više o tome kako da zaštitite svoje podatke, pogledajte naš vodič za kibernetičku bezbednost.

Najnovije

spot_imgspot_img

Related articles

Leave a reply

Please enter your comment!
Please enter your name here

spot_imgspot_img