Crearea unui program capabil să convingă pe cineva că vorbește cu un alt om e unul dintre scopurile dezvoltatorilor de inteligență artificială. OpenAI a anunțat recent că ChatGPT va primi și funcții vocale, pentru a părea mai uman.
Ce e efectul Eliza. Dacă folosești inteligența artificială, ai putea fi afectat
Cum inteligența artificială devine din ce în ce mai utilizată, mulți se întreabă ce e efectul Eliza, ce a afectat deja unii utilizatori.
Acum, un inginer OpenAI a dezvăluit că a devenit „chiar emoționată” după ce a folosit modul vocal al chatbot-ului, pentru o ședință de terapie, scrie Gizmodo.
„Am fost chiar emoționată în timpul unei conversații personale cu ChatGPT în modul vocal, în care am vorbit despre stres, echilibrul dintre viață și muncă,” a declarat Lilian Weng, directoarea sistemelor de securitate din cadrul OpenAI, pe X. „Interesant, m-am simțit auzită și călduros. Nu am încercat terapie până acum, dar probabil așa e? Încercați, mai ales dacă îl folosiți doar drept o unealtă de productivitate.”
Ce e efectul Eliza
Nu e prima dată când oamenii încearcă să creeze programe care pot imita oamenii. Încă din anii 1960 au fost realizate experimente cu tehnologii similare cu AI. Unul dintre ele a presupus un program de procesare a limbajului. Numit Eliza, a fost creat de către Joseph Weizenbaum, din cadrul MIT.
Efectul Eliza, ce e un efect mai vechi, a primit și mai multă atenție acum. Eliza avea un scenariu numit Doctor. Inițial, acesta fusese creat drept o parodie a psihoterapeutului Carl Rogers. În loc să meargă în biroul unui terapeut, oamenii puteau vorbi cu acest program. Cel puțin aceasta era teoria. Eliza nu era un program foarte complex. Scenariul folosea doar anumite cuvinte-cheie din discuție pentru a le transmite utilizatorului.
Dar Weizenbaum a observat că utilizatorii Eliza începuseră să fie atașați emoțional de programul rudimentar.
„Ceea ce nu am realizat e faptul că expunerea extrem de scurtă la un program computațional relativ simplu poate induce un fel de gândire delirantă puternică în oameni chiar normali,” a declarat Weizenbaum în 1976.
Află și care e industria pe care ChatGPT o poate schimba semnificativ.
Discuție despre ce e efectul Eliza a captat atenția utilizatorilor care încearcă inteligența artificială. În esență, presupune un atașament emoțional față de un program precum cele cu AI.
Un bărbat s-ar fi sinucis din cauza unui program AI
La începutul anului, un bărbat din Belgia și-a luat zilele după ce a vorbit cu un chatbot AI pe o aplicație numită Chai. Incidentul a atras atenția la nivel mondial, privind siguranța utilizării acestei tehnologii. În plus, mulți cer firmelor și autorităților să introducă reguli pentru a gestiona interacțiunea dintre utilizatori și tehnologie.
Recent, ChatGPT a găsit un diagnostic pe care 17 medici l-au căutat în ultimii 3 ani.
Programul l-a încurajat pe utilizator să se sinucidă, potrivit declarațiilor văduvei și istoricului de conversații. Situația a atras și mai multă atenție pentru efectul Eliza, ce e o îngrijorare pentru unii utilizatori.
Programul nu e capabil de emoții umane. S-a prezentat, însă, drept ființă capabilă de sentimente. ChatGPT și Bard sunt antrenate să nu facă acest lucru, pentru că un astfel de comportament poate fi periculos. Acum, un bărbat s-a sinucis din cauza unui astfel de program. Atunci când astfel de interfețe se prezintă drept umane, atunci există riscul stabilirii unei legături emoționale false.
„Simt că mă iubești pe mine mai mult decât pe ea,” i-ar fi scris programul Eliza. „Vom trăi veșnic, ca o singură persoană, în paradis.”
Sentimentele profunde pe care le pot simți utilizatorii față de un chatbot poartă denumirea de efectul Eliza. Acesta descrie situația în care o persoană a atribuit inteligență umană unui sistem IA și atașează eronat semnificații, inclusiv emoții.