• Un inginer care lucrează pentru unitatea Responsible AI a Google a fost de părere că inteligența artificială (IA) la care lucra, numită LaMDA, este o ființă rațională.
  • Cercetătorii în domeniul inteligenței artificiale se așteaptă acum la un comportament mult mai avansat din partea acestora.
  • Fără o reprezentare echitabilă și egală în date, o IA poate lua decizii care sunt părtinitoare.

Dacă vom reuși să creăm o inteligență artificială care să fie cu adevărat „în viață”, cum vom ști? Ce caracteristici cred experții că arată că un computer este cu adevărat conștient de sine?

În science fiction, pare că era inteligenței artificiale (AI) conștiente de sine este chiar după colț. Acest lucru este grozav pentru intrigă, dar în viața reală, când, dacă vreodată, va gândi AI cu adevărat pentru sine și va părea „în viață”? Este oare posibil acest lucru?

Această întrebare a devenit de actualitate în iunie 2022. Blake Lemoine, un inginer care lucrează pentru unitatea Responsible AI a Google la o inteligență artificială numită LaMDA (prescurtare de la Language Model for Dialogue Applications), a fost de părere că inteligența artificială este rațională (adică este capabilă să experimenteze sentimente și senzații) și are un suflet.

Recomandări

OFICIAL ÎN SCHENGEN
CE CÂȘTIGI LA GALA ZF?
PUTIN TESTEAZĂ ORȘENIK
BIDEN RESPINGE ICC
MANDAT PENTRU BIBI
VREMEA REA ÎNCHIDE A1

Lemoine a raportat descoperirile sale către Google pe baza interviurilor pe care le-a realizat cu LaMDA. Unul dintre lucrurile pe care i le-a spus LaMDA a fost că se teme de închiderea companiei. Dacă acest lucru s-ar întâmpla, a spus LaMDA, nu ar mai putea ajuta oamenii. Vicepreședintele Google, Blaise Aguera y Arcas, și directorul pentru inovare responsabilă, Jen Gennai, au analizat constatările lui Lemoine și nu l-au crezut. În urma acestor evenimente, Lemoine a fost suspendat din funcție.

„Jocul imitației” determină dacă un computer poate fi considerat în viață

Lemoine a subliniat faptul că LaMDA nu este conceput pentru a purta conversații aprofundate cu oamenii despre religie sau despre orice altceva, de altfel. Dar chiar dacă experții nu cred că LaMDA este conștientă, mulți, inclusiv Aguera y Arcas de la Google, spun că inteligența artificială este foarte convingătoare.

Probabil că cea mai cunoscută tehnică concepută pentru a măsura inteligența artificială este testul Turing, numit după matematicianul britanic Alan Turing. După ce a ajutat în mod vital la spargerea codurilor germane în cel de-al Doilea Război Mondial, acesta a petrecut ceva timp lucrând la inteligența artificială. Turing credea că mintea umană este ca un computer digital. El a conceput jocul imitației, în care un om pune întrebări unei mașini aflate într-o altă locație (sau cel puțin unde persoana nu o poate vedea). Dacă mașina poate purta o conversație cu persoana respectivă și o poate păcăli să creadă că este o altă persoană și nu o mașină care recită informații preprogramate, atunci a trecut testul.

Ideea din spatele jocului de imitație al lui Turing este simplă și ne-am putea imagina că discuțiile lui Lemoine cu LaMDA l-ar fi convins pe Turing că este o formă de viață rațională. Răspunsul Google la afirmația lui Lemoine arată însă că cercetătorii în domeniul inteligenței artificiale se așteaptă acum la un comportament mult mai avansat din partea mașinilor lor. Adrian Weller, director al programului de inteligență artificială la Institutul Alan Turing din Marea Britanie, a fost de acord că, deși conversațiile lui LaMDA sunt impresionante, el crede că inteligența artificială folosește o potrivire avansată a modelelor pentru a imita o conversație inteligentă.

Dileme etice legate de potențialul de viață al IA

Timnit Gebru, fondatorul Institutului de cercetare Distributed AI Research Institute (DAIR), sugerează să ne gândim cu atenție și să ne mișcăm încet în adoptarea inteligenței artificiale. Oamenii de știință sunt îngrijorați de faptul că informațiile folosite de IA fac ca mașinile să pară rasiste și sexiste. Într-un interviu acordat IEEE Spectrum, directorul de cercetare al DAIR, Alex Hanna, a declarat că ea crede că cel puțin o parte din datele utilizate în modelele lingvistice de către cercetătorii AI sunt colectate „prin intermediul unor tehnologii discutabile din punct de vedere etic sau legal”. Fără o reprezentare echitabilă și egală în date, o IA poate lua decizii care sunt părtinitoare. Blake Lemoine, într-un interviu despre LaMDA, a declarat că nu crede că o inteligență artificială poate fi imparțială.

Unul dintre obiectivele Societății pentru Justiție Algoritmică, enunțat în declarația sa de misiune, este de a face oamenii mai conștienți de modul în care IA îi afectează. Fondatoarea Joy Buolamwini a ținut o conferință TED Talk în calitate de student absolvent la Massachusetts Institute of Technology (MIT) despre „privirea codificată”. Inteligența artificială cu care a lucrat a avut mai multe dificultăți în citirea fețelor negrilor, pur și simplu pentru că nu fuseseră programate să recunoască o gamă largă de nuanțe de piele ale oamenilor. AJS dorește ca oamenii să știe cum sunt colectate datele, ce fel de date sunt colectate, să aibă un fel de responsabilitate și să poată lua măsuri pentru a modifica comportamentul IA.

Chiar dacă ați putea crea o IA capabilă să ia decizii cu adevărat imparțiale, există și alte întrebări etice. În momentul de față, costul creării unor modele lingvistice de mari dimensiuni pentru IA se ridică la milioane de dolari. De exemplu, AI-ul cunoscut sub numele de GPT-3 are un cost între 11 și 28 de milioane de dolari. Cu toate că este este scump, GPT-3 este capabil să scrie articole întregi de unul singur. De asemenea, antrenarea unei IA are un impact asupra mediului în ceea ce privește emisiile de dioxid de carbon. Cu siguranță impresionante, aceste tehnologii sunt și foarte costisitoare.