Conținutul generat de inteligența artificială pe rețelele sociale dăunează femeilor, fetelor și persoanelor LGBTQ+. Aproape 30 de organizații civile, digitale și pentru drepturile omului solicită platformelor de social media să ia măsuri semnificative.
Poate cel mai puternic argument al organizațiilor semnatare ale unei scrisori deschise publicate la începutul lunii octombrie, adresată către Meta, YouTube, Twitter (X), TikTok, Snap și Reddit, este următorul:
Femeile, fetele și persoanele LGBTQ+ sunt cele mai susceptibile de a fi ținte ale unor materiale cu natură sexuală, manipulate sau generate prin AI, care este o formă de abuz sexual. Mai exact, cel puțin 90% dintre victimele materialelor explicite artificiale neconsensuale (Artificial NCEM) sunt femei. Și, potrivit unei analize din 2019, cel puțin 96% din toate AI deepfakes online sunt conținut sexual neconsensual. Femeile și persoanele queer de culoare se confruntă cu cea mai mare parte a acestei forme de abuz din cauza prejudecăților rasiale și de gen combinate.
Scrisoarea deschisă oferă platformelor și o serie de recomandări concrete, de măsuri pe care acestea le pot lua. Printre ele, cele mai important sunt:
- adăugarea termenului “artificial nonconsensual explicit materials (Artificial NCEM)" în politicile de utilizare ale platformei și interzicerea acestui tip de conținut în mod explicit, apoi numirea repercusiunilor pentru încălcări;
- impunerea etichetării conținutului manipulat sau generat cu AI ca atare;
- verificarea raportărilor materialului de tip artificial NCEM de către un operator uman, pentru a diferenția acest conținut raportat de orice alt conținut explicit, dar consensual;
- adăugarea unor referințe la contextul legal care guvernează deepfake-urile sexuale generate cu AI, pentru ca persoanele afectate să poată înțelege care sunt opțiunile pe care le au pentru a își apărea demnitatea. Adăugarea unor resurse de susținere și consiliere ale supraviețuitoarelor unor astfel de agresiuni.
Poate cel mai puternic argument al organizațiilor semnatare ale unei scrisori deschise publicate la începutul lunii octombrie, adresată către Meta, YouTube, Twitter (X), TikTok, Snap și Reddit, este următorul:
Femeile, fetele și persoanele LGBTQ+ sunt cele mai susceptibile de a fi ținte ale unor materiale cu natură sexuală, manipulate sau generate prin AI, care este o formă de abuz sexual. Mai exact, cel puțin 90% dintre victimele materialelor explicite artificiale neconsensuale (Artificial NCEM) sunt femei. Și, potrivit unei analize din 2019, cel puțin 96% din toate AI deepfakes online sunt conținut sexual neconsensual. Femeile și persoanele queer de culoare se confruntă cu cea mai mare parte a acestei forme de abuz din cauza prejudecăților rasiale și de gen combinate.
Scrisoarea deschisă oferă platformelor și o serie de recomandări concrete, de măsuri pe care acestea le pot lua. Printre ele, cele mai important sunt:
- adăugarea termenului “artificial nonconsensual explicit materials (Artificial NCEM)" în politicile de utilizare ale platformei și interzicerea acestui tip de conținut în mod explicit, apoi numirea repercusiunilor pentru încălcări;
- impunerea etichetării conținutului manipulat sau generat cu AI ca atare;
- verificarea raportărilor materialului de tip artificial NCEM de către un operator uman, pentru a diferenția acest conținut raportat de orice alt conținut explicit, dar consensual;
- adăugarea unor referințe la contextul legal care guvernează deepfake-urile sexuale generate cu AI, pentru ca persoanele afectate să poată înțelege care sunt opțiunile pe care le au pentru a își apărea demnitatea. Adăugarea unor resurse de susținere și consiliere ale supraviețuitoarelor unor astfel de agresiuni.