• DeepSeek a devenit cea mai descărcată aplicație în SUA și Marea Britanie.
  • Oficialii britanici monitorizează amenințările asupra securității naționale.
  • Experții critică legătura dintre DeepSeek și statul chinez.

DeepSeek, noua platformă A.I. din China, generează controverse globale. A atins performanțe similare ChatGPT, dar la costuri mult mai mici. Experții avertizează însă cu privire la riscurile de dezinformare și securitate.

Care sunt principalele riscuri legate de utilizarea DeepSeek

DeepSeek, o platformă A.I. open-source dezvoltată în Hangzhou, colectează date personale pe servere din China. Politica sa de confidențialitate menționează că datele pot fi utilizate pentru a respecta obligațiile legale și pentru „interesele vitale” ale utilizatorilor.

Experții, precum Michael Wooldridge de la Universitatea Oxford, avertizează că datele încărcate în platformă ar putea ajunge în posesia statului chinez. Acest lucru ridică îngrijorări privind supravegherea, dezinformarea și influența asupra democrațiilor occidentale.

Recomandări

COPIII UCRAINEI REZISTĂ
MACRON AJUNGE LA CASA ALBĂ
UE DEZVOLTĂ SATELIȚI
REZOLUȚIA UCRAINEI E ADOPTATĂ
VIITORUL UCRAINEI SE DECIDE
MERZ CÂȘTIGĂ ALEGERILE

Ce spun oficialii britanici despre această tehnologie

Secretarul pentru tehnologie al Marii Britanii, Peter Kyle, a declarat că utilizatorii ar trebui să fie precauți, subliniind că DeepSeek include mecanisme de cenzură și este supusă regulilor impuse de guvernul chinez. Oficialii britanici monitorizează amenințările la adresa securității naționale și ar putea lua măsuri dacă se confirmă riscuri. Totodată, experți ca Dame Wendy Hall avertizează că tehnologia poate alimenta campanii de dezinformare și poate submina încrederea publicului.

Cum gestionează DeepSeek subiectele sensibile

Platforma DeepSeek evită răspunsurile detaliate pe teme sensibile, precum masacrul din Piața Tiananmen sau statutul Taiwanului, reflectând punctul de vedere oficial al Partidului Comunist Chinez. În timp ce oferă unele informații istorice, acestea sunt limitate sau formulate cu prudență. Această abordare scoate în evidență problema mai largă a dezinformării în cadrul modelelor de A.I. generativă, unde biasurile din datele de antrenament influențează semnificativ răspunsurile.

Citește și