Șeful departamentului de inteligență artificială de la Microsoft: „A.I. nu are capacitatea de a prelua controlul, dar ar putea exacerba problemele sociale existente”

Șeful departamentului de inteligență artificială de la Microsoft spune că firma va continua să accelereze activitatea privind modelele mari de inteligență artificială, în ciuda îngrijorărilor unora din domeniu, care consideră că tehnologia crește prea repede și este prea imprevizibilă pentru a fi sigură, scrie Sky News.

Potențialul acestei tehnologii de a impulsiona cu adevărat productivitatea umană… de a aduce creștere economică în întreaga lume, este atât de puternic, încât am fi nebuni dacă am lăsa-o deoparte”, a declarat pentru Sky News Eric Boyd, vicepreședinte corporativ al Microsoft AI Platforms.

În 2019, gigantul american de software a investit 1 miliard de dolari în start-up-ul de inteligență artificială OpenAI. Banii și puterea de calcul a Microsoft – puse la dispoziție prin intermediul platformei sale de cloud computing Azure – au permis OpenAI să creeze GPT4, cel mai puternic model de limbaj mare” pe care lumea l-a văzut vreodată. Acesta a fost lansat pentru public ca chatbot, ChatGPT.

Microsoft s-a grăbit să integreze GPT4 și abilitățile sale de conversație în motorul său de căutare Bing. Dar, de asemenea, a introdus tehnologia în ceva numit Copilot – un asistent digital virtual – în mai multe dintre produsele sale software existente, cum ar fi procesarea de text și foile de calcul.

Viziunea sa asupra inteligenței artificiale nu are ca scop preluarea controlului planetar, explică Boyd, ci schimbarea relației dintre oameni și computere. Va redefini cu adevărat interfețele cu care suntem obișnuiți, modul în care obișnuiești să vorbești cu o mașină – tastatura și mouse-ul și toate acestea. Cred că va deveni mult mai mult bazată pe limbaj.”

Experții din domeniu au ajuns acolo pe baza acreditărilor lor actuale”, a spus Boyd. Și, bineînțeles, vom asculta și vom lua în considerare în mod serios toate reacțiile pe care le au, dar cred că, atunci când te uiți la ceea ce fac aceste modele, la ceea ce sunt capabile să facă, știi, aceste preocupări par destul de departe de ceea ce lucrăm noi de fapt.”

Capacitățile actuale ale modelelor lingvistice precum ChatGPT sunt supraevaluate, susține Boyd. Oamenii vorbesc despre cum IA preia controlul, dar nu are capacitatea de a prelua controlul. Acestea sunt modele care produc text ca ieșire”, a spus el.

Boyd a declarat că este mai îngrijorat de potențialul ca AI să exacerbeze problemele sociale existente. Cum ne asigurăm că aceste modele vor funcționa în condiții de siguranță pentru cazurile de utilizare în care sunt folosite?”, a reflectat el. Cum lucrăm pentru a minimiza prejudecățile care sunt inerente în societate și care apar în modele?”.

Citește și

Exit mobile version