- Whisper, un model A.I. pentru transcrierea înregistrărilor audio, a produs propoziții fabricate în aproximativ 1,4% din transcrierile testate.
- Modelele de Inteligență Artificială pot suferi de „halucinații” auditive, adăugând texte inventate sau ofensatoare în transcrierile audio.
- Utilizatorii sunt sfătuiți să verifice manual rezultatele oricărui instrument de transcriere A.I.
Inteligența Artificială aude lucruri care nu există în realitate. Un nou studiu dezvăluie că modelele A.I. pot crea „halucinații” auditive în transcrierile lor, ceea ce ridică întrebări serioase despre fiabilitatea acestor tehnologii în diferite domenii.
Studiul recent arată că modelele de Inteligență Artificială pot suferi de „halucinații” auditive, adăugând texte inventate sau ofensatoare în transcrierile audio. De exemplu, Whisper, un model A.I. dezvoltat de OpenAI pentru transcrierea înregistrărilor audio, a produs propoziții fabricate în aproximativ 1,4% din transcrierile testate.
Acest lucru ridică îngrijorări serioase în domenii sensibile, cum ar fi asistența medicală, unde transcrierile inexacte pot avea consecințe grave asupra tratamentului și îngrijirii pacienților. Mai mult decât atât, aproximativ 40% dintre transcrierile fabricate conțineau texte dăunătoare sau îngrijorătoare, inclusiv referințe la acte de violență sau aluzii sexuale, subliniind riscurile asociate cu utilizarea necontrolată a acestor tehnologii.
Aceste constatări subliniază nevoia de supraveghere umană riguroasă și actualizări constante ale algoritmilor de Inteligență Artificială pentru a preveni erorile și abuzurile. În plus, utilizatorii sunt sfătuiți să verifice manual rezultatele oricărui instrument de transcriere A.I., în special în asistența medicală și juridică, pentru a evita consecințele negative ale erorilor de transcriere.
Este esențială luarea unor măsuri adecvate pentru a asigura că aceste tehnologii sunt utilizate în mod responsabil și etic, pentru a ne proteja drepturile și siguranța pe internet.
Citește și