• Meta lansează un AI care învață din propriile greșeli.
  • „Self-Taught Evaluator” poate îmbunătăți precizia în știință, scriere de cod și matematică.
  • Noul model promite reducerea costurilor învățării asistate de oameni.

Meta a lansat un nou set de modele AI, printre care și unul care se antrenează singur.
Noutatea acestui evaluator este aceea că nu are nevoie de date scrise de oameni, ci se antrenează folosind exclusiv informații generate de AI. Jason Weston, cercetător Meta, spune că acest model poate să învețe din propriile greșeli și să se autoevalueze.

Cum funcționează evaluatorul AI și de ce este important?

Evaluatorul AI „Self-Taught Evaluator” al Meta folosește o tehnică denumită „lanț de gândire” (chain of thought), care împarte probleme complexe în pași mai mici și logici. Această metodă ajută la creșterea preciziei răspunsurilor în domenii precum știința, matematica și codarea. Fără a implica date adnotate de oameni, evaluatorul se antrenează exclusiv cu informații generate de alte modele AI, reducând astfel costurile și timpul asociate proceselor tradiționale de învățare asistată de om (Reinforcement Learning from Human Feedback – RLHF). Această inovație permite AI-urilor să devină mai autonome și să își îmbunătățească performanța fără intervenție umană constantă. Scopul este de a construi agenți AI capabili să-și autoevalueze rezultatele, o etapă crucială în direcția unei super-inteligențe AI.

Care sunt avantajele și provocările aduse de acest model?

Principalul avantaj al modelului „Self-Taught Evaluator” este eliminarea dependenței de adnotările umane, un proces scump și lent. Acest model poate reduce erorile și accelera dezvoltarea autonomă a inteligenței artificiale. În plus, prin îmbunătățirea preciziei și eficienței, agenții AI vor putea rezolva o gamă largă de sarcini complexe fără intervenție umană, deschizând noi oportunități în domenii variate. Provocările includ însă asigurarea că modelele auto-evaluatoare sunt suficient de robuste și sigure pentru a evita deciziile greșite în scenarii critice, precum aplicații medicale sau juridice. Aceste riscuri necesită o monitorizare atentă și reglementări stricte pentru a evita consecințe nedorite.

Recomandări

RUSIA EXECUTĂ PRIZONIERII
EDITORIALUL LUI CRISTOIU
ACUZAȚII LA HOLLYWOOD
BURNETT E EMISAR ÎN UK
NEGOCIERI APROAPE GATA
SUSPECTUL E ARESTAT

Ce alte companii explorează tehnologii similare?

Alături de Meta, companii precum Google și Anthropic explorează tehnologii similare de învățare automată asistată de AI (Reinforcement Learning from AI Feedback – RLAIF). Aceste companii publică cercetări care folosesc abordări asemănătoare pentru a permite modelelor AI să își îmbunătățească performanțele fără intervenția continuă a oamenilor. Spre deosebire de Meta, Google și Anthropic nu și-au făcut publice modelele, ceea ce face ca inițiativa Meta să fie un pas înainte în democratizarea accesului la aceste tehnologii avansate. Aceste progrese subliniază o cursă în plină dezvoltare pentru a crea AI-uri capabile să funcționeze și să evolueze independent.

Citește și