• Pe lângă faptul că traducea limbi cu mai puțini vorbitori, lucrarea susținea, de asemenea, că stabilește un nou standard pentru calitatea traducerilor.
  • Deși munca va fi folosită pentru a îmbunătăți software-ul Facebook, datele lingvistice și algoritmii folosiți pentru a le traduce vor fi puse la dispoziția publicului.
  • Cercetătorii de la Meta au găsit vorbitori nativi care să le verifice traducerile, o sarcină care necesită mult timp și care ajută la protejarea atât a calității algoritmului, cât și a datelor lingvistice de bază.

Traducerea automată universală a fost mult timp un vis științifico-fantastic. O nouă lucrare a cercetătorilor în domeniul inteligenței artificiale de la compania mamă a Facebook, Meta, susține că face un pas spre acest obiectiv.

Documentul arată că învățarea automată, tehnologia din spatele inteligenței artificiale, poate traduce 204 limbi diferite, de două ori mai multe decât s-a încercat vreodată, la o calitate mai bună decât cea obținută anterior.

Printre acestea se numără peste o sută de limbi rar vorbite, cum ar fi limbile poporului Acehnese din Indonezia și ale poporului Chokwe din Africa Centrală și de Sud, care au fost întotdeauna greu de tradus de către computere, deoarece au o prezență online foarte redusă.

Recomandări

CE SE ALEGE DE AMERICA?
SECURITATE LA COTE MAXIME
CE SE ALEGE DE AMERICA?
CINE VA FI PREȘEDINTE?
GÂNDURILE LUI CRISTOIU
GÂNDURILE LUI CRISTOIU

Mark Zuckerberg, directorul executiv al Facebook și Meta, a salutat această realizare, numind traducerea prin inteligență artificială o superputere, iar cercetătorii înșiși au fost doar puțin mai puțin entuziasmați. Este cea mai recentă evoluție în domeniul inteligenței artificiale, un domeniu controversat al științei aflat recent în centrul atenției după ce un inginer Google a fost pus în concediu după ce a afirmat că un chatbot poate exprima gânduri și sentimente.

Lucrarea prezintă o muncă impresionantă pentru a împinge calitatea traducerii la nivel de producție la 200 de limbi”, a declarat profesorul Philipp Koehn de la Universitatea Johns Hopkins, unul dintre cei 38 de academicieni și cercetători Meta care au colaborat la această lucrare.

De asemenea, vor fi lansate o mulțime de resurse care vor permite tuturor să folosească acest model și să îl recalifice pe cont propriu, încurajând cercetarea în acest domeniu.

Tehnica centrală de învățare mecanică a lucrării, un model cunoscut sub denumirea barocă de Sparsely Gated Mixture of Experts, nu este în sine nouă, a declarat Dr. Alexandra Birch-Mayne, lector în procesarea limbajului natural la Universitatea din Edinburgh. Cea mai mare contribuție a sa, a spus ea, a fost colectarea, curățarea și prezentarea de noi date despre limbi care nu apar pe scară largă pe internet, principala sursă de date pentru traducerea automată.