• Nu este încă clar pentru ce intenționează Twitter să folosească AI generativă.
  • Speculațiile celor familiarizați cu subiectul se concentrează pe îmbunătățirea căutării și pe revizuirea publicității direcționate pe platformă.
  • Se pare că proiectul presupune dezvoltarea unui model lingvistic de mari dimensiuni.

Elon Musk lucrează în secret la un proiect de inteligență artificială la Twitter, potrivit The Independent. Miliardarul din domeniul tehnologiei ar colabora deja cu doi cercetători de la DeepMind, una dintre cele mai importante firme de cercetare în domeniul inteligenței artificiale și a investit în 10.000 de unități de procesare grafică (GPU) pentru companie, au declarat surse pentru Insider.

Se pare că proiectul presupune dezvoltarea unui model lingvistic de mari dimensiuni, similar cu alte tehnologii de inteligență artificială generativă, precum ChatGPT de la OpenAI.

Elon Musk a fost unul dintre cofondatorii inițiali ai OpenAI, însă a părăsit compania în 2018 și de atunci a criticat îndepărtarea companiei de la principiile sale fondatoare.

Recomandări

UNDE MERGI CU COPILUL DE ZIUA LUI?
MOSCOVA AVERTIZEAZĂ EUROPA
ORI MERG TOȚI, ORI NICIUNUL
DE LA MER EGEÉ AU PONT EUXIN
ISRAELUL PROPUNE UN NOU ACORD DE PACE
CE SE ÎNTÂMPLĂ ÎN CAZUL DONALD TRUMP?

„OpenAI a fost creată ca o companie open source (motiv pentru care am numit-o ‘Open’ AI), non-profit, pentru a servi drept contrapondere la Google, dar acum a devenit o companie cu sursă închisă, cu profit maxim, controlată efectiv de Microsoft”, a scris el în februarie. „Nu este deloc ceea ce am intenționat”.
Mișcarea vine în ciuda faptului că Musk a avertizat recent asupra pericolelor inteligenței artificiale avansate, susținând că acestea reprezintă un „risc profund pentru societate și umanitate”.

Șeful Twitter s-a alăturat unui număr de peste 1.000 de personalități notabile din domeniul tehnologiei și academicieni care au semnat o scrisoare deschisă în care se solicită ca dezvoltarea sistemelor de inteligență artificială, precum ChatGPT, să fie oprită până când riscurile vor fi înțelese în mod corespunzător.

Această pauză ar trebui să fie publică și verificabilă și să includă toți actorii cheie. În cazul în care o astfel de pauză nu poate fi promulgată rapid, guvernele ar trebui să intervină și să instituie un moratoriu”, au scris autorii.

Laboratoarele de inteligență artificială și experții independenți ar trebui să folosească această pauză pentru a dezvolta și implementa împreună un set de protocoale de siguranță comune pentru proiectarea și dezvoltarea inteligenței artificiale avansate, care să fie auditate în mod riguros și supravegheate de experți externi independenți. Aceste protocoale ar trebui să garanteze că sistemele care aderă la ele sunt sigure dincolo de orice îndoială rezonabilă.”