Federalna trgovinska komisija Sjedinjenih Država (FTC) pokrenula je opsežnu istragu protiv tri vodeća razvijača veštačke inteligencije – OpenAI (kreatora ChatGPT-a), Meta (vlasnika Facebooka i Instagrama) i Character.AI – zbog zabrinutosti za mentalno zdravlje dece koja koriste njihove AI četbotove. Ova akcija predstavlja prekretnicu u globalnim naporima da se uspostave jasna pravila za razvoj i upotrebu veštačke inteligencije, posebno kada su u pitanju najmlađi korisnici.
Šta tačno FTC istražuje – i koje kompanije su pod lupom?
Istraga se koncentriše na:
- Interakcije između dece i AI sistema: Kako algoritmi oblikuju razgovore sa mladima i da li mogu generisati sadržaj koji ugrožava njihovo emocionalno blagostanje (npr. podsticanje samoće, anksioznosti ili štetnih ponašanja).
- Protokole zaštite: Da li kompanije imaju efikasne mere za sprečavanje štetnih poruka, manipulacije ili izlaganja neprimerenim temama (kao što su nasilje, samopovređivanje ili ekstremizam).
- Transparentnost algoritama: FTC zahteva da kompanije otkriju kako njihovi sistemi donose odluke u komunikaciji sa decom – uključujući podatke o treniranju modela i mehanizmima filtriranja sadržaja.
- Skrivanje rizika: Da li su kompanije svesno zanemarile ili prikrile potencijalne opasnosti svojih proizvoda za mlade korisnike.
Prema saopštenju FTC-a, ove platforme privlače milione mladih ljudi dnevno, a njihovi AI asistenti često služe kao “digitalni prijatelji” ili savetnici – što otvara pitanja o etičkoj odgovornosti tehnoloških divova. Detalji istrage ukazuju da bi nepoštovanje propisa moglo rezultirati kaznama ili zabranom određenih funkcionalnosti.
Zašto je ovo važno – i šta sledi?
Ova istraga nije samo pravni korak, već i upozorenje za roditelje, edukatore i industriju:
- Mentalno zdravlje dece u digitalnom dobu: Studije pokazuju da prekomerna upotreba socijalnih mreža i AI četbota može doprineti porastu anksioznosti i depresije kod adolescenata. FTC istraga može rezultirati prvim konkretnim merama zaštite.
- Regulacija AI koja štiti najranjivije: Do sada su pravila za veštačku inteligenciju bila opšta; ovo je prvi slučaj koji se fokusira isključivo na uticaj na decu. Rezultati mogu postati globalni standard (slično kao GDPR za privatnost).
- Transparentnost kao obaveza: Kompanije će morati da objasne kako njihovi algoritmi funkcionišu – što je ključno za izgradnju poverenja javnosti. Na primer, da li AI sistem “uči” iz razgovora sa decom i kako sprečava zloupotrebe?
- Odgovornost tehnoloških giganata: Ako se dokaže kršenje, ovo može otvoriti vrata za tužbe roditelja i novih zakona koji nameću strože kazne za štetu nanetu mladima (poput kalifornijskog Zakona o privatnosti potrošača).
Šta možete učiniti kao roditelj?
- Razgovarajte sa decom o tome kako bezbedno koristiti AI alate.
- Proverite podešavanja privatnosti na platformama koje vaše dete koristi (npr. ograničavanje pristupa AI četbotovima).
- Pratite vesti o rezultatima istrage – moguće su promene u funkcionalnostima koje vaše dete koristi.




