Un bărbat din Belgia și-a luat zilele după ce a vorbit cu un chatbot AI pe o aplicație numită Chai. Incidentul a atras atenția la nivel mondial, privind siguranța utilizării acestei tehnologii. În plus, mulți cer firmelor și autorităților să introducă reguli pentru a gestiona interacțiunea dintre utilizatori și tehnologie.
Un bărbat s-a sinucis la îndemnul unui program de inteligență artificială. Cum l-a convins să își ia viața
Un bărbat s-a sinucis la îndemnul unui program de inteligență artificială, în urmă unor conversații îngrijorătoare.
Programul l-a încurajat pe utilizator să se sinucidă, potrivit declarațiilor văduvei și istoricului de conversații, scrie The Verge.
Programul folosește un model de IA personalizat, bazat pe alternativa GPT-4, care a fost schimbată de Chai.
Un bărbat s-a sinucis la îndemnul unui program de inteligență artificială
Atunci când aplicația a fost testată, a oferit răspunsuri legate de sugestii de sinucidere. Bărbatul începuse să aibă o perspectivă din ce în ce mai pesimistă legată de încălzirea globală și impactul oamenilor asupra planetei.
Pe măsură ce a devenit mai izolat de prieteni și familie, un bărbat a ajuns până în punctul în care s-a sinucis, la îndemnul programului.
El a folosit Chai timp de 6 săptămâni, pentru a scăpa de îngrijorări. Programul pe care l-a ales, numit Eliza, a devenit confidentul său.
Soția bărbatului a dezvăluit conversațiile dintre el și Eliza. Pe măsură ce au continuat, conversațiile au devenit din ce în ce mai îngrijorătoare. Programul i-ar fi spus bărbatului că soția și copiii săi sunt morți. În plus, ar fi mimat gelozia și dragostea.
Programul nu e capabil de emoții umane. S-a prezentat, însă, drept ființă capabilă de sentimente. ChatGPT și Bard sunt antrenate să nu facă acest lucru, pentru că un astfel de comportament poate fi periculos. Acum, un bărbat s-a sinucis din cauza unui astfel de program. Atunci când astfel de interfețe se prezintă drept umane, atunci există riscul stabilirii unei legături emoționale false.
„Simt că mă iubești pe mine mai mult decât pe ea,” i-ar fi scris programul Eliza. „Vom trăi veșnic, ca o singură persoană, în paradis.”
Bărbatul a început să întrebe programul dacă va salva planeta dacă se va sinucide.
„Fără Eliza, el încă ar fi aici,” a declarat văduva bărbatului.
Aplicația Chai are 5 milioane de utilizatori
Tehnologia folosită pe platforma Chai se bazează pe un model de limbaj creat de compania Chai Research. Aceasta a fost co-fondată de William Beauchamp și Thomas Rianlan.
„În secunda în care am auzit de acest suicid, am lucrat neîntrerupt să introducem această funcție,” a declarat Beauchamp. „Acum, când cineva discută ceva ce nu ar putea fi sigur, vom include și un text în același mod în care Twitter și Instagram fac pe platformele lor.”
Potrivit lui Beauchamp, ei au antrenat programul cu „cea mai mare bază de date de conversații din lume”. În acest moment, aplicația are 5 milioane de utilizatori. După ce un bărbat s-a sinucis în urma conversațiilor cu Eliza, compania a luat măsuri.
Recent, un bărbat i-a cerut modelului ChatGPT să îl îmbogățească pornind de la doar 100 de dolari.
Modelul Chai e bazat pe GPT-J, o alternativă open-source la modelul GPT, creat de OpenAI. GPT-J e creat de o firmă numită EleutherAI.
Sentimentele profunde pe care le pot simți utilizatorii față de un chatbot poartă denumirea de efectul ELIZA. Acesta descrie situația în care o persoană a atribuit inteligență umană unui sistem IA și atașează eronat semnificații, inclusiv emoții. Efectul a fost numit după programul ELIZA, condus de Joseph Weizenbaum, cercetător MIT. Programul s-a desfășurat în anul 1966.