• Un avocat din New York se confruntă cu o audiere în instanță după ce firma sa a folosit instrumentul de inteligență artificială ChatGPT pentru cercetări juridice.
  • Un judecător a declarat că instanța s-a confruntat cu o „circumstanță fără precedent” după ce s-a constatat că un dosar făcea referire la exemple de cazuri juridice care nu existau.
  • Avocatul care a folosit instrumentul a declarat instanței că „nu a știut că conținutul său ar putea fi fals”.

Un avocat din New York se confruntă cu o audiere în instanță după ce firma sa a folosit instrumentul de inteligență artificială ChatGPT pentru cercetări juridice. Un judecător a declarat că instanța s-a confruntat cu o „circumstanță fără precedent” după ce s-a constatat că un dosar făcea referire la exemple de cazuri juridice care nu existau, scrie BBC.

Avocatul care a folosit instrumentul a declarat instanței că „nu a știut că conținutul său ar putea fi fals”.

ChatGPT creează texte originale la cerere, dar este însoțit de avertismente că poate „produce informații inexacte”.

Recomandări

PUTIN DISCUTĂ CU FICO
BIBI AMENINȚĂ REBELII HOUTHI
CIOLACU: AVEM COALIȚIE
FONTANA DI TREVI SE REDESCHIDE
ZELE CREDE-N ADERARE
NEGOCIERI FĂRĂ SFÂRȘIT

Cazul inițial a implicat un bărbat care a dat în judecată o companie aeriană pentru un presupus prejudiciu personal. Echipa sa de avocați a prezentat un memoriu în care a citat mai multe cazuri anterioare în încercarea de a demonstra, folosind precedente, de ce cazul ar trebui să meargă mai departe.

Cazurile nu ar fi existat

Însă avocații companiei aeriene i-au scris ulterior judecătorului spunându-i e că nu au putut găsi câteva dintre cazurile la care se făcea referire în memoriu.

„Șase dintre cazurile prezentate par a fi decizii judiciare false, cu citate false și citate interne false”, a scris judecătorul Castel într-un ordin în care a cerut echipei juridice a omului să explice.

Pe parcursul mai multor depuneri, a reieșit că cercetarea nu a fost pregătită de Peter LoDuca, avocatul reclamantului, ci de un coleg de-al său de la aceeași firmă de avocatură. Steven A Schwartz, care este avocat de peste 30 de ani, a folosit ChatGPT pentru a căuta cazuri anterioare similare.

În declarația sa scrisă, Schwartz a precizat că LoDuca nu a luat parte la cercetare și nu avea cunoștință de modul în care aceasta a fost efectuată.

Schwartz a adăugat că „regretă foarte mult” că s-a bazat pe chatbot, despre care a spus că nu l-a mai folosit niciodată pentru cercetări juridice și că „nu știa că conținutul său ar putea fi fals”.

El a promis că nu va mai folosi niciodată inteligența artificială pentru a „completa” cercetările sale juridice pe viitor „fără o verificare absolută a autenticității sale”.

Capturile de ecran atașate la dosar par să arate o conversație între Schwarz și ChatGPT.

„Este Varghese un caz real”, se arată într-un mesaj, făcând referire la Varghese v. China Southern Airlines Co Ltd, unul dintre cazurile pe care niciun alt avocat nu le-a putut găsi.

ChatGPT răspunde că da, este – ceea ce îl determină pe „S” să întrebe: „Care este sursa ta”.

După „dubla verificare”, ChatGPT răspunde din nou că acest caz este real și poate fi găsit în bazele de date juridice de referință, cum ar fi LexisNexis și Westlaw.

Citește și