Reacția Meta, după ce un raport a constatat că algoritmul Instagram conectează o vastă „rețea de pedofili”

Meta investighează o serie de rapoarte pe social media conform cărora Instagram ar promova date și materiale cu conținut sexual asupra copiilor prin algoritmul său.

Compania-mamă a Facebook a înființat un grup de lucru pentru a investiga afirmațiile după ce Stanford Internet Observatory (SIO) a declarat că a găsit „comunități la scară largă” care împărtășesc conținut cu caracter pedofil pe platformă, scrie The Independent.

SIO a declarat că a descoperit materialul de abuz sexual asupra copiilor (CSAM) în urma unui sfat din Wall Street Journal, al cărui raport de miercuri detalia modul în care algoritmul de recomandare al Instagram a ajutat să conecteze o „rețea vastă pedofilă” de vânzători și cumpărători de materiale ilegale.

Opțiunea Instagram „sugerată pentru tine” a ghidat utilizatorii spre materiale cu conținut sexual explicit în afara platformei, potrivit raportului, SIO descriind site-ul drept „în prezent cea mai importantă platformă” pentru aceste rețele.

„Instagram a apărut ca platformă principală pentru astfel de rețele, oferind funcții care facilitează conexiunile dintre cumpărători și vânzători”, a scris Centrul de politici cibernetice din Stanford într-o postare pe blog. „Popularitatea Instagram și interfața ușor de utilizat îl fac o opțiune preferată pentru aceste activități.”

Utilizatorii Instagram au putut găsi conținut de abuz asupra copiilor prin hashtag-uri explicite precum #pedowhore, care de atunci au fost blocate de Instagram.

Declarațiile Meta

„Exploatarea copiilor este o crimă îngrozitoare”, a spus un purtător de cuvânt al Meta. „Investigăm continuu modalități de a ne apăra în mod activ împotriva acestui comportament și am înființat un grup de lucru intern pentru a investiga aceste afirmații și a le soluționa imediat.”

Meta a spus că a distrus deja 27 de rețele pedofile în ultimii doi ani pe Instagram, precum și a eliminat 490.000 de conturi care încalcă politicile de siguranță a copiilor doar în ianuarie.

Alte platforme de social media care găzduiesc acest tip de conținut au fost, de asemenea, identificate de SIO, însă într-o măsură mult mai mică.

SIO a cerut o inițiativă la nivel de industrie pentru a limita producția, descoperirea și distribuția CSAM, îndemnând totodată companiile să dedice mai multe resurse pentru identificarea și oprirea în mod proactiv a abuzurilor.

Citește și

Exit mobile version