Înainte de concedierea lui Sam Altman, mai mulți cercetători OpenAI au scris o scrisoare către consiliul de administrație al companiei. În aceasta, îi avertizau pe membri despre o descoperire extrem de importantă în sectorul inteligenței artificiale.
Concedierea lui Sam Altman ar fi fost influențată de o descoperire care ar amenința omenirea. Ce ar fi găsit cercetătorii OpenAI
Concedierea lui Sam Altman ar fi fost influențată de un raport creat de cercetătorii OpenAI, despre o descoperire extrem de importantă.
Dezvăluirea a fost făcute de 2 surse din interiorul companiei, potrivit Reuters.
Se pare că această demitere a fost influențată de această scrisoare și de dezvoltarea unui nou algoritm AI.
Concedierea lui Sam Altman ar fi fost influențată de o descoperire care ar amenință omenirea
Sam Altman a devenit un simbol pentru inteligența artificială. Ca CEO al OpenAI, a vorbit în numeroase rânduri despre potențialul risc al inteligenței artificiale. După ce a fost demis, Altman a fost angajat de Microsoft.
Acum, se pare ca s-a întors la conducerea OpenAI. Dar concedierea lui Sam Altman, care ar fi fost influențată de această descoperire, ridică semne de întrebare.
Înainte de întoarcerea lui Altman, 700 de angajați OpenAI au amenințat că își vor da demisia și se vor angaja la Microsoft, în solidaritate cu fostul CEO.
Sursele au susținut că acea scrisoare a fost unul dintre motivele pentru care consiliul a ajuns să îl concedieze pe Altman. Printre celelalte îngrijorări se numără comercializarea avansurilor tehnologiei înainte să fie înțelese consecințele.
OpenAI, într-o scrisoare internă, a recunoscut că există un proiect numit Q* și că a fost trimisă o scrisoare înainte de concediere. Mesajul a fost transmis de Mira Murati, una dintre directoarele OpenAI. În acesta, angajații erau avertizați că există mai multe povești în media despre situația din interiorul OpenAI.
Unii dintre angajații OpenAI cred că proiectul Q* ar putea fi un pas important în atingerea inteligenței artificiale generale (AGI). OpenAI definește AGI despre sisteme autonome care întrec oamenii atunci când vine vorba de sarcinile care sunt valoroase din punct de vedere comercial. Dacă, într-adevăr, concedierea lui Sam Altman ar fi fost influențată de această descoperire, atunci există riscul ca proiectul Q* să fie periculos.
Proiectul Q* ar fi capabil să efectueze sarcinile mai bine decât oamenii
Potrivit uneia dintre surse, care a vrut să rămână anonimă, noul model ar fi putut rezolva anumite probleme matematice. Acesta ar fi un pas important în dezvoltarea sistemului.
Experții consideră că matematica e un fel de frontieră pentru dezvoltarea AI generativ. În acest moment, AI poate scrie și traduce texte prin prezicerea statistică a următorului cuvânt. Astfel, răspunsurile primite la întrebări pot fi extrem de variate. Concedierea lui Sam Altman ar fi fost influențată de capacitatea Q* de a rezolva probleme de matematică.
În cazul matematicii, există un singur răspuns corect. Ca urmare, pentru a rezolva aceste probleme, AI ar trebui să aibă capacități logice similare cu inteligența umană. O astfel de abilitatea ar fi extrem de valoroasă în cercetare.
Dar poate fi un pericol pentru omenire. AGI poate generaliza, învață și înțelege noțiuni complexe. În scrisoare, cercetătorii au atras atenția asupra potențialul pericol al AI și modul în care poate afecta planeta.