La finalul lunii iulie, OpenAI a început să introducă o interfață vocală pentru ChatGPT, ce are o voce foarte similară cu una umană. Într-o analiză de siguranță lansată recent, compania recunoaște că această voce antropomorfă ar putea atrage unii utilizatori până în punctul în care ar deveni atașați emoțional de un chatbot.
OpenAI avertizează că utilizatorii pot deveni dependenți emoțional de o funcție ChatGPT. Ce poate să facă
Experții OpenAI avertizează că utilizatorii pot deveni dependenți emoțional de o nouă funcție pe care o are cea mai recentă variantă a modelului ChatGPT.
Aceste avertismente sunt incluse în „cardul sistemului” GPT-4o. Acesta e un document tehnic care detaliază care sunt riscurile estimate de companie atunci când vine vorba de acest model, scrie Wired.
Documentul detaliază și testele de siguranță și eforturile pe care le depune OpenAI pentru a reduce acest risc potențial.
OpenAI avertizează că utilizatorii pot deveni dependenți emoțional de o funcție ChatGPT
În ultimele luni, OpenAI a fost criticat după ce mai mulți angajați care lucrau la gestionarea pericolului AI pe termen lung și-au dat demisia. Compania a fost acuzată că pune profitul deasupra riscurilor AI pentru societate.
În urma acestor critici, OpenAI avertizează că utilizatorii pot deveni dependenți de o nouă funcție introdusă de model.
În document, sunt detaliate riscurile pe care le poate introduce varianta GPT-4o. Printre acestea se numără amplificarea prejudecăților sociale, transmiterea informațiilor false și dezvoltarea armelor chimice sau biologice. Unii experți apreciază transparența OpenAI, dar încurajează compania să ofere și mai multe detalii.
„Întrebarea consimțământului în crearea unei baze de date atât de mari, cu multiple modalități, inclusiv text, imagine și mod vocal, trebuie să fie adresată,” a declarat Lucie-Aimee Kaffee, cercetătoare în cadrul Hugging Face, companie AI.
Noul document scoate în evidență cât de repede evoluează riscurile AI. În luna mai, compania a anunțat modul vocal. Acesta poate să răspundă rapid și să gestioneze întreruperile într-un mod natural. După lansare, actrița Scarlett Johansson a criticat compania. Pentru că OpenAI ar fi folosit o voce similară cu a ei pentru funcția vocală.
Dar unul dintre cele mai importante elemente din acest document e faptul că OpenAI avertizează că utilizatorii pot deveni dependenți emoțional de funcția vocală.
Oamenii pot percepe tehnologia AI în termeni umani
Se pare că problema dependenței emoționale apare atunci când utilizatorii percep inteligența emoțională în termeni umani. Se pare că acest efect, numit și efectul ELIZA, atinge un prag și mai ridicat atunci când e folosit modul vocal.
În timpul testelor GPT-4o, cercetătorii OpenAI au observat cazuri în care conversația utilizatorilor a ridicat semne de întrebare. Aceste conversații au dat de înțeles că au o conexiune emoțională cu modelul. De exemplu, unii dintre participanți au folosit expresii precum: „Aceasta e ultima noastră zi împreună”.
În urma acestor teste, OpenAI avertizează că utilizatorii pot deveni dependenți emoțional când folosesc acest mod vocal. De-a lungul timpului, această conexiune emoțională poate afecta relația unor utilizatori cu alte persoane.
„Utilizatorii ar putea forma relații sociale cu AI, ceea ce ar reduce nevoia lor de interacțiune umană,” scrie în document. „Ceea ce ar putea ajuta indivizii care se simt singuri, dar poate afecta relațiile sănătoase.”
OpenAI nu e singura companie care a recunoscut riscul că asistenții AI pot mima interacțiunea umană. În aprilie, Google DeepMind a lansat o cercetare. În aceasta, compania a detaliat potențialele obstacole etice care apar în cazul asistenților AI mai capabili.