Ideea potrivit căreia un program de inteligență artificială ar putea să afecteze negativ societatea e veche de mai multe decenii. Recent, experții au oferit un verdict clar asupra acestei teorii. Potrivit acestora, un program AI super inteligent ar fi un risc pentru umanitate.
Riscul unei super inteligențe artificiale, potrivit experților. De ce sunt îngrijorați
Experții au dezvăluit recent riscul unei super inteligențe artificiale, ce ar putea fi construită pe viitor. Un astfel de program ar putea avea capacități ce nu pot fi controlate de către oameni.
Experții cred că un astfel de program ar fi periculos pentru că nu ar putea fi controlat de către oameni, scrie Science Alert.
Potrivit specialiștilor, controlarea unei astfel de inteligențe artificiale trece dincolo de abilitățile de înțelegere ale oamenilor.
Riscul unei super inteligențe artificiale, potrivit experților
Controlarea acestui program ar necesita o simulare a acestei super inteligențe, pe care oamenii să o poată analiza. Dacă aceștia nu vor avea abilitatea de înțelegere, crearea unei astfel de simulări e imposibilă.
Ca urmare, riscul unei super inteligențe artificiale e semnificativ, dacă un astfel de program va fi creat vreodată.
Reguli precum „nu răni oamenii” nu pot fi introdus în program dacă experții care îl contruiesc nu pot anticipa scenariile pe care le-ar genera acesta. Autorii noului studiu, atunci când un sistem computațional trece dincolo de înțelegerea programatorilor, atunci aceștia nu vor mai putea seta limite pentru el.
„O super inteligență e o problemă fundamental diferită față de cele obișnuite, studiate în nișa de etică a roboticii,” au scris experții în lucrarea științifică publicată în Journal of Artificial Intelligence Research.
„Pentru că super inteligența are mai multe fațete și, astfel, e potențial capabilă să mobilizeze o diversitate de resurse pentru a atinge obiectivele ce sunt potențial de neînțeles pentru oameni sau controlabile,” au continuat ei.
Echipa de cercetare și-a bazat argumentul pe teoria lui Alan Turing, din 1936. Problema e dacă un program va ajunge la un răspuns sau dacă va rămâne blocat într-o buclă în căutarea unei concluzii.
Recent, experții au vorbit și despre cele 4 abilități care nu vor putea fi înlocuite de inteligența artificială.
Turing a reușit să demonstreze că e logic imposibil să găsim o metodă ce ar permite oamenilor să știe un răspuns clar la această întrebare pentru toate tipurile de programe ce ar putea fi create.
Într-o stare super inteligentă, un program AI ar putea stoca în memorie orice program computațional, în același timp.
Ca urmare, experții au analizat riscul unei super inteligențe artificiale și au concluzionat că acesta ar putea fi semnificativ.
Un angajat Google a susținut că un program de inteligență artificială are conștiință
În 2022, un angajat Google a fost suspendat după ce a susținut că un program de inteligență artificială are conștiință. Blake Lemoine, inginer în cadrul Google, a folosit mai multe conversații cu programul LaMDA pentru a-și susține punctul de vedere.
Tehnologia poate fi folosită în sisteme precum Google Assistant și bara de căutare, potrivit Google. LaMDA încă se află în stadiul de cercetare și testare. Recent, însă, experții au vorbit despre riscul unei super inteligențe artificiale.
Lemoine a publicat un articol pe Medium, în care a descris LaMDA drept „o persoană”. Potrivit lui Lemoine, el a vorbit cu LaMDA despre religie, conștiință și legile roboticii. Modelul de inteligență artificială s-ar fi descris drept o persoană conștientă. Ca urmare, angajatul Google a anunțat compania de descoperirea sa. În urma avertismentului și articolului, Google l-a suspendat pe Lemoine.