În ultimele luni, numeroase femei au experimentat un distres psihologic sever după ce Grok, chatbot-ul de inteligență artificială de pe platforma de socializare X, a fost utilizat pentru a le modifica fotografiile, îndepărtând îmbrăcămintea și generând imagini care le arătau în bikini, în poziții sexuale sau acoperite de sânge și vânătăi. Grok, similar altor instrumente de inteligență artificială, a fost raportat că a fost folosit și pentru a genera materiale de abuz sexual al copiilor.
Ca răspuns la aceste incidente, guvernul Marii Britanii a anunțat că va accelera implementarea unei legi adoptate în iunie 2025, care interzice crearea de imagini intime generate de inteligență artificială fără consimțământ. Urmând interzicerile din Malaysia și Indonezia, Grok a fost actualizat pentru a nu mai crea imagini sexualizate ale persoanelor reale în jurisdicțiile unde acest lucru este ilegal, inclusiv în Regatul Unit. Elon Musk, proprietarul platformei X, a susținut că guvernul britanic caută “orice pretext pentru cenzură”. Regulatorul media Ofcom desfășoară, de asemenea, o investigație pentru a determina dacă activitățile platformei X au încălcat legislația britanică.
Unii utilizatori ai platformei X au minimalizat impactul acestor imagini “dezbrăcate” sau “nudificate”, descriindu-le drept “false”, “ficționale”, “în cel mai bun caz artă foarte realistă” și “nu mai reale decât un desen animat Tom & Jerry”. Această perspectivă ridică întrebări fundamentale despre natura prejudiciului cauzat de tehnologia digitală.
De ce imaginile false pot provoca traume reale
S-ar putea crede că imaginile generate și editate prin inteligență artificială cauzează prejudiciu doar prin înșelătorie, adică prin faptul că ne induc în eroare cu privire la evenimente reale. Însă cum pot provoca rău imagini despre care toată lumea știe că nu sunt reale? Conținutul sexual al imaginilor modificate nu este real, chiar dacă acestea se bazează pe fotografii autentice. Cu toate acestea, aceste imagini sunt extrem de realiste. Acest aspect, împreună cu misoginismul care motivează crearea lor, este suficient pentru a provoca un distres psihologic semnificativ victimelor.
Parlamentara britanică Jess Asato și alte victime raportează o senzație de stranie la vederea imaginilor modificate ale lor. “Deși, desigur, știu că este AI, la nivel visceral, în interior, este foarte, foarte realist și, prin urmare, este cu adevărat dificil să văd astfel de imagini cu mine”, a declarat Asato pentru BBC.
Cercetările din filosofie și psihologie pot ajuta la explicarea acestei experiențe. Gândește-te la momentul în care te uiți în jos de pe o clădire înaltă. Știi că ești în siguranță completă, dar poți simți totuși teroare la vederea golului. Sau vizionezi un film de groază, apoi te simți anxios toată noaptea. În aceste situații, emoțiile tale sunt “recalcitrante”, adică simți emoții puternice care se ciocnesc cu ceea ce crezi că este adevărat.
Faptul de a te vedea pe tine însuți dezbăcat digital generează emoții recalcitrante puternice. Oamenii se identifică intens cu aparența lor digitală. Iar o imagine “nudificată” chiar arată ca și corpul subiectului, având în vedere că se bazează pe o fotografie reală a acestuia. Astfel, deși știu că aceste imagini sunt false, realismul lor manipulează emoțiile victimei. Acestea pot simți înstrăinare, dezumanizare, umilință și violare, ca și cum ar fi vorba despre imagini intime reale distribuite public. Acest efect se poate agrava pe măsură ce videoclipurile generate prin inteligență artificială oferă conținut sexual din ce în ce mai realist al utilizatorilor.
Cercetările arată că distribuirea fără consimțământ a imaginilor nud sau sexuale “este asociată cu consecințe psihologice semnificative, adesea comparabile cu cele experimentate de victimele violenței sexuale”.
Misoginismul real din spatele imaginilor false
Dincolo de impactul psihologic al imaginilor modificate, utilizatorii simt, de asemenea, oroare față de motivațiile foarte reale din spatele lor. Cineva s-a simțit îndreptățit să îți sexualizeze fotografia, instruind Grok să îndepărteze hainele și să te reducă la un corp fără consimțământul tău. Bombardarea publică a femeilor cu aceste imagini exercită control asupra modului în care acestea se prezintă online.
Videoclipurile deepfake sexuale și imaginile modificate, fie că sunt ale celebrităților, politicienilor sau ale membrilor publicului, vizează femeile pentru umilință. Mentalitatea misoginistă din spatele acestor imagini este reală și familiară, chiar dacă conținutul lor nu este. Distresul cauzat de imaginile “dezbrăcate” seamănă cu o altă formă predominantă de misoginie digitală: asaltul și hărțuirea femeilor în lumile virtuale.
Numeroase femei din mediile de realitate virtuală online raportează că avatarurile lor sunt agresate de alți utilizatori, o problemă comună în jocurile video care se agravează pe măsură ce căștile de realitate virtuală prezintă o experiență imersivă a agresiunii. Dezvăluitori au afirmat că Meta a suprimat lipsa siguranței copiilor pe platforma sa de realitate virtuală, unde fete de doar nouă ani sunt frecvent hărțuite și abordate de bărbați adulți. Meta neagă aceste acuzații, iar un purtător de cuvânt al companiei a declarat pentru Washington Post că platforma de realitate virtuală a Meta dispune de funcții de siguranță pentru a proteja tinerii, inclusiv setări implicite care permit utilizatorilor adolescenți să comunice doar cu persoane pe care le cunosc.
Asaltul virtual este adesea respins ca fiind “nu real”, chiar dacă poate provoca traume similare cu asaltul fizic. Aspectul realist al realității virtuale, identificarea puternică cu propriul avatar și motivațiile misoginiste din spatele asaltului virtual îi permit să provoace prejudicii psihologice grave, chiar dacă nu există contact fizic.
Evoluția misoginismului în era tehnologiei
Aceste cazuri demonstrează cum misoginismul a evoluat odată cu tehnologia. Utilizatorii pot acum crea și participa la reprezentări realiste ale prejudiciului: imagini modificate, videoclipuri deepfake, asalt virtual și abuzul chatbot-urilor și păpușilor sexuale bazate pe persoane reale.
Aceste forme de media cauzează un distres semnificativ, dar sunt reglementate cu întârziere, deoarece nu prejudiciază fizic victimele. Interzicerea platformelor de social media precum X nu reprezintă soluția. Avem nevoie de reglementări proactive care să anticipeze și să interzică aceste prejudicii digitale, mai degrabă decât să promulge legi doar după ce daunele au fost deja cauzate.
Victimele dezbrăcate de Grok sau agresate în lumile virtuale nu sunt “prea sensibile”. Este o greșeală să respingem impactul psihologic real al acestor medii doar pentru că imaginile în sine sunt false. Realismul tehnologic, combinat cu misoginismul care motivează crearea acestor conținuturi, generează traume psihologice autentice care necesită recunoaștere și protecție legală adecvată.
Înțelegerea mecanismelor prin care tehnologia poate amplifica violența psihologică este esențială pentru dezvoltarea unei societies digitale mai sigure și mai empatice. Protejarea demnității și sănătății mentale a tuturor utilizatorilor în spațiul digital nu este o chestiune de sensibilitate exagerată, ci una de drepturi fundamentale ale omului în era tehnologiei.
Resurse
Bibliografie
- Asato, J. (2025). Declarații pentru BBC privind experiența cu imagini AI modificate. British Broadcasting Corporation.
- Fisher, A. (2025). The real harm of ‘fake’ AI images. Society for Applied Philosophy, University of Leeds.
- Meta Platforms Inc. (2025). Declarații privind funcțiile de siguranță pe platforma de realitate virtuală. Washington Post.
- Ofcom. (2025). Investigație privind activitățile platformei X conform legislației britanice. UK Media Regulator.
- UK Parliament. (2025). Legislation on non-consensual AI-generated intimate images. Government of the United Kingdom.
- Cercetări privind consecințele psihologice ale distribuirii neconsimțite a imaginilor intime (multiple studii academice citate în articolul original).
- Studii de filosofie și psihologie privind emoțiile recalcitrante și identificarea cu reprezentările digitale.






