Instagram îi ajută pe pedofili să găsească pornografia infantilă și să organizeze întâlniri cu copiii.
Studiul Wall Street Journal a constatat că Instagram le-a permis oamenilor să caute hashtag-uri precum „# pedowhore” și „# preeteensex”, ceea ce le-a permis să se conecteze la conturi care vând pornografia infantilă, declară Pana Times.

În general, conturile care vând materiale sexuale ilicite nu îl publică definitiv. În schimb, publică „meniuri” ale conținutului lor și permit cumpărătorilor să aleagă ceea ce doresc. Multe dintre aceste conturi oferă clienților și opțiunea de a plăti pentru întâlnirile cu copiii.

Cum a fost descoperit

Cercetătorii au creat conturi de testare pentru a vedea cât de repede ar putea obține funcția Instagram „sugerată pentru tine” pentru a le oferi recomandări pentru astfel de conturi care vând conținut sexual pentru copii.

Recomandări

PUTIN DISCUTĂ CU FICO
BIBI AMENINȚĂ REBELII HOUTHI
CIOLACU: AVEM COALIȚIE
FONTANA DI TREVI SE REDESCHIDE
ZELE CREDE-N ADERARE
NEGOCIERI FĂRĂ SFÂRȘIT

Într-un interval de timp scurt, algoritmul Instagram a inundat conturile cu conținut care sexualizează copiii, cu unele linkuri către site-uri de tranzacționare de conținut în afara platformei. Folosind doar hashtag-uri, Observatorul de Internet din Stanford a găsit 405 vânzători a ceea ce cercetătorii au etichetat materiale sexuale cu copii „autogenerate” sau conturi care se presupune că sunt conduse de copiii înșiși, unii susținând că au doar 12 ani.

În multe cazuri, Instagram le-a permis utilizatorilor să caute termeni despre care algoritmul știa că ar putea fi asociați cu materiale ilegale. Când cercetătorii foloseau anumite hashtag-uri pentru a găsi materialul ilicit, uneori apărea pe ecran o fereastră pop-up care spunea: „Aceste rezultate pot conține imagini cu abuz sexual asupra copiilor” și menționând că producția și consumul unui astfel de material provoacă „daune extreme”. la copii.

În ciuda acestui fapt, fereastra pop-up a oferit utilizatorului două opțiuni:

  1. „Obțineți resurse”
  2. „Vezi rezultatele oricum”

Pedofilii de pe Instagram au folosit un sistem emoji pentru a vorbi în cod despre conținutul ilicit pe care îl facilitau.

De exemplu, un emoji al unei hărți (🗺️) ar însemna „HARTĂ” sau „Persoană minoră atrasă”.

Un emoji cu pizza cu brânză (🍕) ar fi prescurtat pentru a însemna „CP” sau „Child Porn”.

Conturile se identificau adesea ca „vânzător” sau „vânzător” și menționau vârstele copiilor pe care i-au exploatat folosind un limbaj precum „la capitolul 14” în loc să menționeze vârsta lor mai explicit.

Instragram „cackdown”

Chiar și după ce au fost raportate mai multe postări, nu toate ar fi fost eliminate. De exemplu, după ce a fost postată o imagine cu o tânără îmbrăcată sumar cu o legenda sexuală, Instagram a răspuns spunând: „Echipa noastră de examinare a constatat că postarea [contului] nu contravine Regulilor comunității”. Instagram a recomandat ca utilizatorul să ascundă contul pentru a evita să-l vadă.

Chiar și după ce Instagram a interzis anumite hashtag-uri asociate cu pornografia infantilă, sugestiile Instagram de hashtag-uri bazate pe inteligență artificială au găsit soluții. AI-ul recomandă utilizatorului să încerce diferite variante ale căutărilor și să adauge în schimb cuvinte precum „băieți” sau „CP” la sfârșit.

Echipa Stanford a efectuat și un test similar pe Twitter

Deși au găsit încă 128 de conturi care se oferă să vândă abuz sexual asupra copiilor (mai puțin de o treime din conturile pe care le-au găsit pe Instagram), ei au remarcat, de asemenea, că algoritmul Twitter nu a recomandat astfel de conturi în aceeași măsură ca și Instagram și că astfel de conturi erau eliminat mult mai repede decât pe Instagram.

@elonmusk tocmai a postat pe Twitter articolul lui Wall Street Journal acum 2 minute, etichetându-l drept „extrem de îngrijorător”

Odată cu algoritmii și inteligența artificială din ce în ce mai inteligente, din păcate, astfel de cazuri devin mai frecvente.

În 2022, Centrul Național pentru Copii Dispăruți și Exploatați din SUA a primit 31,9 milioane de rapoarte de pornografia infantilă, în mare parte de la companii de internet, ceea ce reprezintă o creștere de 47% față de doi ani înainte. Cum pot companiile de social media, în special Meta, să devină mai bune în reglementarea I.A. pentru a preveni cazuri dezgustătoare precum acesta?

Citește și: