Instrumentele A.I. pentru cercetarea juridică fac greșeli în 17%-33% din cazuri. Ce măsuri recomandă cei de la Stanford și Yale

Universitățile americane Stanford și Yale atrag atenția asupra uneltelor A.I. din domeniul juridic. Un studiu recent a descoperit probleme importante privind credibilitatea rezultatelor oferite de modele A.I. la întrebări juridice. Avocații sunt avertizați să fie precauți în utilizarea acestor instrumente.

Cercetătorii au descoperit că aceste instrumente pot face greșeli semnificative, cu rate de eroare între 17% și 33%. Problema principală este tendința modelelor de limbaj A.I. de a „halucina,” adică de a genera informații false, cum ar fi citarea unor reguli legale inexistente sau interpretarea greșită a precedentelor juridice. Studiul intitulat „Hallucination-Free? Assessing the Reliability of Leading A.I. Legal Research Tools” a evaluat acuratețea diferitelor instrumente A.I. folosite în cercetarea juridică.

Cum afectează aceste noutăți practica avocaților cu A.I?

Avocații care utilizează instrumente A.I. pentru cercetarea juridică trebuie să supravegheze și să verifice cu atenție rezultatele generate de A.I., potrivit studiului. Eroarea în citarea regulilor legale sau interpretarea greșită a precedentelor poate avea consecințe grave asupra cazurilor legale. Avocații care folosesc modele AI nu ar trebui să nu se bazeze exclusiv pe aceste instrumente fără o verificare suplimentară.

Ce măsuri recomandă cei de la Stanford și Yale?

Autorii studiului recomandă furnizorilor de instrumente A.I. să fie transparenți în privința acurateței produselor lor și să furnizeze dovezi care să susțină aceste afirmații. De asemenea, este crucial ca avocații să fie instruiți în utilizarea acestor tehnologii și să fie conștienți de limitările lor. Deși unele companii susțin că au rezolvat aceste probleme, studiul infirmă aceste afirmații și practic ne avertizează că A.I.-ul în justiție poate fi un fel de Avocat al Diavolului.

Exit mobile version