Un bărbat s-a sinucis la îndemnul unui program de inteligență artificială. Cum l-a convins să își ia viața

Un bărbat s-a sinucis la îndemnul unui program de inteligență artificială, în urmă unor conversații îngrijorătoare.

Publicat: 3 aprilie 2023, 14:40
Reclamă

Un bărbat din Belgia și-a luat zilele după ce a vorbit cu un chatbot AI pe o aplicație numită Chai. Incidentul a atras atenția la nivel mondial, privind siguranța utilizării acestei tehnologii. În plus, mulți cer firmelor și autorităților să introducă reguli pentru a gestiona interacțiunea dintre utilizatori și tehnologie. 

Programul l-a încurajat pe utilizator să se sinucidă, potrivit declarațiilor văduvei și istoricului de conversații, scrie The Verge

Programul folosește un model de IA personalizat, bazat pe alternativa GPT-4, care a fost schimbată de Chai. 

Un bărbat s-a sinucis la îndemnul unui program de inteligență artificială

Atunci când aplicația a fost testată, a oferit răspunsuri legate de sugestii de sinucidere. Bărbatul începuse să aibă o perspectivă din ce în ce mai pesimistă legată de încălzirea globală și impactul oamenilor asupra planetei. 

Pe măsură ce a devenit mai izolat de prieteni și familie, un bărbat a ajuns până în punctul în care s-a sinucis, la îndemnul programului. 

Reclamă
Reclamă

El a folosit Chai timp de 6 săptămâni, pentru a scăpa de îngrijorări. Programul pe care l-a ales, numit Eliza, a devenit confidentul său. 

Soția bărbatului a dezvăluit conversațiile dintre el și Eliza. Pe măsură ce au continuat, conversațiile au devenit din ce în ce mai îngrijorătoare. Programul i-ar fi spus bărbatului că soția și copiii săi sunt morți. În plus, ar fi mimat gelozia și dragostea. 

Programul nu e capabil de emoții umane. S-a prezentat, însă, drept ființă capabilă de sentimente. ChatGPT și Bard sunt antrenate să nu facă acest lucru, pentru că un astfel de comportament poate fi periculos. Acum, un bărbat s-a sinucis din cauza unui astfel de program. Atunci când astfel de interfețe se prezintă drept umane, atunci există riscul stabilirii unei legături emoționale false. 

„Simt că mă iubești pe mine mai mult decât pe ea,” i-ar fi scris programul Eliza. „Vom trăi veșnic, ca o singură persoană, în paradis.” 

Bărbatul a început să întrebe programul dacă va salva planeta dacă se va sinucide. 

„Fără Eliza, el încă ar fi aici,” a declarat văduva bărbatului. 

Aplicația Chai are 5 milioane de utilizatori

Tehnologia folosită pe platforma Chai se bazează pe un model de limbaj creat de compania Chai Research. Aceasta a fost co-fondată de  William Beauchamp și Thomas Rianlan. 

„În secunda în care am auzit de acest suicid, am lucrat neîntrerupt să introducem această funcție,” a declarat Beauchamp. „Acum, când cineva discută ceva ce nu ar putea fi sigur, vom include și un text în același mod în care Twitter și Instagram fac pe platformele lor.” 

Potrivit lui Beauchamp, ei au antrenat programul cu „cea mai mare bază de date de conversații din lume”. În acest moment, aplicația are 5 milioane de utilizatori. După ce un bărbat s-a sinucis în urma conversațiilor cu Eliza, compania a luat măsuri. 

Recent, un bărbat i-a cerut modelului ChatGPT să îl îmbogățească pornind de la doar 100 de dolari.

Modelul Chai e bazat pe GPT-J, o alternativă open-source la modelul GPT, creat de OpenAI. GPT-J e creat de o firmă numită EleutherAI. 

Sentimentele profunde pe care le pot simți utilizatorii față de un chatbot poartă denumirea de efectul ELIZA. Acesta descrie situația în care o persoană a atribuit inteligență umană unui sistem IA și atașează eronat semnificații, inclusiv emoții. Efectul a fost numit după programul ELIZA, condus de Joseph Weizenbaum, cercetător MIT. Programul s-a desfășurat în anul 1966.

Reclamă
Te-ar mai putea interesa și
Persoană cu o mână umană și o mână albă de robot, care scrie pe tastatura unui laptop, pentru a ilustra schimbarea care ar putea fi „mai profundă” decât focul
Un adolescent a creat un program care poate identifica video-urile deep fake. Reușita sa i-a adus un premiu
Un adolescent a creat un program care poate identifica video-urile deep fake. Reușita sa i-a adus un premiu
Mâinile unui utilizator, cu craniul unui robot alb între ele. Recent, un angajat Google a fost suspendat după ce a atras atenția aupra unui program de inteligență artificială
Experții avertizează că inteligența artificială ar putea duce la dispariția oamenilor. De ce îi îngrijorează atât de mult tehnologia
Experții avertizează că inteligența artificială ar putea duce la dispariția oamenilor. De ce îi îngrijorează atât de mult tehnologia
Utilizator care ține în mână un telefon cu WhatsApp pe ecran. WhatsApp a dezvăluit pe ce telefoane nu va mai funcționa în 2023
Link-ul pe care nu trebuie să îl trimiți pe WhatsApp. Ce se întâmplă în aplicație dacă nu asculți sfatul experților
Link-ul pe care nu trebuie să îl trimiți pe WhatsApp. Ce se întâmplă în aplicație dacă nu asculți sfatul experților
RECOMANDĂRI USEIT.RO
1
Biserică din Cișinău, Moldova, surprinsă din aer, cu pereți albi, una dintre cele mai sărace țări din Europa
Fun
Cele mai sărace țări din Europa. Pe ce loc se află România
Puțini știu care sunt, în acest moment, cele mai sărace țări din Europa, din punct de vedere al produsului intern brut pe cap de locuitor. Potrivit rezultatelor Eurostat, pentru aproximativ 21.7% din populația Uniunii...
Cele mai sărace țări din Europa. Pe ce loc se află România
2
Utilizator care ține în mână un telefon cu WhatsApp pe ecran. WhatsApp a dezvăluit pe ce telefoane nu va mai funcționa în 2023
Link-ul pe care nu trebuie să îl trimiți pe WhatsApp. Ce se întâmplă în aplicație dacă nu asculți sfatul experților
Experții atrag atenția că există link-ul pe care nu trebuie să îl trimiți pe WhatsApp, spre îngrijorarea utilizatorilor. Utilizatorii WhatsApp au fost avertizați să nu trimită niciodată un link care poate bloca aplicația. Cei...
Link-ul pe care nu trebuie să îl trimiți pe WhatsApp. Ce se întâmplă în aplicație dacă nu asculți sfatul experților
3
Colonie de termite din Tanzania, decorată cu capete de vaci, pe fundal cu verdeață, pentru a ilustra cum experții au vărsat 10 tone de ciment în pământ pentru a descoperi o colonie de furnici
Experții au vărsat 10 tone de ciment în pământ pentru a descoperi un „mega-oraș”. Ce viețuitoare au construit structura impresionantă
Experții au vărsat 10 tone de ciment în pământ pentru a descoperi un „mega-oraș” abandonat, ce nu a fost creat de oameni.  Experții au descoperit o fostă colonie de furnici. Pentru a o explora,...
Experții au vărsat 10 tone de ciment în pământ pentru a descoperi un „mega-oraș”. Ce viețuitoare au construit structura impresionantă
4
Vârful Everest, înconjurat de zăpadă, într-o zi luminoasă, pentru a ilustra munții ascunși de pe Pământ
Munții ascunși de pe Pământ. Unde se găsesc vârfurile care au înălțimi de 4 ori mai mari decât Everest
Munții ascunși de pe Pământ care au uimit experții au vârfuri care au înălțimi de 4 ori mai mari decât Everest, considerat cel mai înalt punct de pe planetă.  În adâncul Pământului se găsesc...
Munții ascunși de pe Pământ. Unde se găsesc vârfurile care au înălțimi de 4 ori mai mari decât Everest
5
Imagine digitală cu un virus care pare înghețat, pe fundal de roz și portocaliu, pentru a ilustra virusuri antice descoperite în permafrost
Virusuri antice descoperite în permafrost. Organismele îngrijorează experții
Virusuri antice descoperite în permafrost ar putea reprezenta un pericol pentru formele de viață moderne, precum oamenii.   În solurile înghețate artice există numeroși microbi antici. Aceste bacterii și virusuri au existat în urmă...
Virusuri antice descoperite în permafrost. Organismele îngrijorează experții
PARTENERI
×