• Impactul A.I. pe social media este demonstrat experimental.
  • Cercetătorii din UK și Canada au analizat 30,000 de tweeturi.
  • Metoda poate ajuta la detectarea boților A.I. când dezinformează.

Inteligența Artificială accelerează și transformă totul. Chiar și metodele de dezinformare și manipulare. Armatele de boți A.I. sunt tot mai active pe rețele și participă la campanii de propagandă. Un studiu recent dezvăluie felul în care acționează grupurile de „social bots” pe rețele precum fostul Twitter.

Ce se știe despre dezinformarea pe social media cu bots A.I.?

Este un fenomen tot mai evident, mai ales de la apariția Inteligenței Artificiale generative. Dezinformarea pe social media cu ajutorul botilor A.I. funcționează prin utilizarea algoritmilor avansați pentru a crea și răspândi informații false sau înșelătoare.

Câteva din cele mai cunoscute metode sunt crearea de conturi automatizate cunoscute și sub numele de social bots, pot posta, da like și redistribui conținut la o scară mult mai mare decât ar putea face un utilizator uman, ăspândirea rapidă a informațiilor: Bots-ii A.I. pot amplifica rapid informații, indiferent de veridicitatea lor. Prin redistribuiri masive, ei pot face ca o știre falsă să pară populară și credibilă. Targetarea Audienței prin datele colectate de pe social media, imitarea Comportamentului Uman și exploatarea algoritmilor de pe platforme.

Recomandări

SUSPECTUL E ARESTAT
LARA NU VREA LA SENAT
SUA NU ÎNCHIDE GUVERNUL
ÎNCEP CONSULTĂRILE
UNDE MERGI LA BRUNCH
REVOLUȚIA AJUNGE ÎN CAPITALĂ

Ce a descoperit acest studiu despre „social bots”?

Sună ciudat să numești „social” niște utilizatori care nu sunt umani, dar A.I. ne aduce si așa ceva. Studiul, condus de cercetători din Marea Britanie și Canada, a analizat 30.000 de tweets în limba engleză. Folosind tehnici de text mining și învățare automată, a identificat modul în care bots-ii influențează opinia publică și răspândesc informații false.

Dr. Mina Tajvidi de la Queen Mary, Universitatea din Londra, subliniază că acești boți nu sunt inofensivi. Ei manipulează opinia publică. Cercetarea arată necesitatea detectării timpurii a acestora pentru a preveni răspândirea dezinformării.

Cercetătorii folosesc teoria actor-rețea, care oferă un cadru pentru analiza dinamica între oameni, boți și spațiul digital. Integrând ANT cu modele de deep learning, cercetătorii au dezvăluit relația dintre actori și limbajul utilizat.

Felul în care vorbesc acești boți îi dă de gol, dar asta numai ce au fost analizate mii de tweeturi, o metoda greu de folosit.

Citește și: