Un bărbat s-a sinucis la îndemnul unui program de inteligență artificială. Cum l-a convins să își ia viața

Un bărbat s-a sinucis la îndemnul unui program de inteligență artificială, în urmă unor conversații îngrijorătoare.

Publicat: 3 aprilie 2023, 14:40 / Actualizat: 3 aprilie 2023, 11:40
Interacțiunea dintre utilizatori și programele de inteligență artificială pot fi periculoase / Shutterstock

Un bărbat din Belgia și-a luat zilele după ce a vorbit cu un chatbot AI pe o aplicație numită Chai. Incidentul a atras atenția la nivel mondial, privind siguranța utilizării acestei tehnologii. În plus, mulți cer firmelor și autorităților să introducă reguli pentru a gestiona interacțiunea dintre utilizatori și tehnologie. 

Programul l-a încurajat pe utilizator să se sinucidă, potrivit declarațiilor văduvei și istoricului de conversații, scrie The Verge

Programul folosește un model de IA personalizat, bazat pe alternativa GPT-4, care a fost schimbată de Chai. 

Un bărbat s-a sinucis la îndemnul unui program de inteligență artificială

Atunci când aplicația a fost testată, a oferit răspunsuri legate de sugestii de sinucidere. Bărbatul începuse să aibă o perspectivă din ce în ce mai pesimistă legată de încălzirea globală și impactul oamenilor asupra planetei. 

Pe măsură ce a devenit mai izolat de prieteni și familie, un bărbat a ajuns până în punctul în care s-a sinucis, la îndemnul programului. 

El a folosit Chai timp de 6 săptămâni, pentru a scăpa de îngrijorări. Programul pe care l-a ales, numit Eliza, a devenit confidentul său. 

Soția bărbatului a dezvăluit conversațiile dintre el și Eliza. Pe măsură ce au continuat, conversațiile au devenit din ce în ce mai îngrijorătoare. Programul i-ar fi spus bărbatului că soția și copiii săi sunt morți. În plus, ar fi mimat gelozia și dragostea. 

Programul nu e capabil de emoții umane. S-a prezentat, însă, drept ființă capabilă de sentimente. ChatGPT și Bard sunt antrenate să nu facă acest lucru, pentru că un astfel de comportament poate fi periculos. Acum, un bărbat s-a sinucis din cauza unui astfel de program. Atunci când astfel de interfețe se prezintă drept umane, atunci există riscul stabilirii unei legături emoționale false. 

„Simt că mă iubești pe mine mai mult decât pe ea,” i-ar fi scris programul Eliza. „Vom trăi veșnic, ca o singură persoană, în paradis.” 

Bărbatul a început să întrebe programul dacă va salva planeta dacă se va sinucide. 

„Fără Eliza, el încă ar fi aici,” a declarat văduva bărbatului. 

Aplicația Chai are 5 milioane de utilizatori

Tehnologia folosită pe platforma Chai se bazează pe un model de limbaj creat de compania Chai Research. Aceasta a fost co-fondată de  William Beauchamp și Thomas Rianlan. 

„În secunda în care am auzit de acest suicid, am lucrat neîntrerupt să introducem această funcție,” a declarat Beauchamp. „Acum, când cineva discută ceva ce nu ar putea fi sigur, vom include și un text în același mod în care Twitter și Instagram fac pe platformele lor.” 

Potrivit lui Beauchamp, ei au antrenat programul cu „cea mai mare bază de date de conversații din lume”. În acest moment, aplicația are 5 milioane de utilizatori. După ce un bărbat s-a sinucis în urma conversațiilor cu Eliza, compania a luat măsuri. 

Recent, un bărbat i-a cerut modelului ChatGPT să îl îmbogățească pornind de la doar 100 de dolari.

Modelul Chai e bazat pe GPT-J, o alternativă open-source la modelul GPT, creat de OpenAI. GPT-J e creat de o firmă numită EleutherAI. 

Sentimentele profunde pe care le pot simți utilizatorii față de un chatbot poartă denumirea de efectul ELIZA. Acesta descrie situația în care o persoană a atribuit inteligență umană unui sistem IA și atașează eronat semnificații, inclusiv emoții. Efectul a fost numit după programul ELIZA, condus de Joseph Weizenbaum, cercetător MIT. Programul s-a desfășurat în anul 1966.

Te-ar mai putea interesa și

Sistemul prin care Samsung a întrecut Apple. De ce sunt diferite smartphone-urile gigantului coreean

Sistemul prin care Samsung a întrecut Apple. De ce sunt diferite smartphone-urile gigantului coreean

ChatGPT e acuzat că nu își poate corecta erorile. De ce nu „poate fi oprit” chatbot-ul

ChatGPT e acuzat că nu își poate corecta erorile. De ce nu „poate fi oprit” chatbot-ul

Bill Gates nu ar fi părăsit Microsoft cu adevărat. Ce ar face în culisele companiei

Bill Gates nu ar fi părăsit Microsoft cu adevărat. Ce ar face în culisele companiei
Recomandările useIt.ro
1
Boala „zombie” care a trecut de la animale la oameni. Deja ar fi făcut 2 victime
Boala „zombie” care a trecut de la animale la oameni. Deja ar fi făcut 2 victime
Experții trag un semnal de alarmă despre boala „zombie” care a trecut de la animale la oameni și deja a făcut 2 victime.  Un nou raport sugerează că o boală prionică fatală ar fi...
2
Ce i-ar sfătui Elon Musk pe copiii săi atunci când vine vorba de carieră. Miliardarul și-a dezvăluit îngrijorarea
Ce i-ar sfătui Elon Musk pe copiii săi atunci când vine vorba de carieră. Miliardarul și-a dezvăluit îngrijorarea
Te-ai întrebat ce i-ar sfătui Elon Musk pe copiii săi atunci când vine vorba de alegerea carierei? Inteligența artificială a schimbat răspunsul miliardarului. Recent, Elon Musk și-a exprimat îngrijorarea legată de inteligența artificială și...
3
Fun
La ce folosește mânerul din plafonul mașinii, de fapt. Unii șoferi află abia acum adevărul
La ce folosește mânerul din plafonul mașinii, de fapt. Unii șoferi află abia acum adevărul
Puțini știu la ce folosește mânerul din plafonul mașinii, pe care mulți pasageri îl folosesc nu pentru rolul său original. Unele componente ale mașinii au roluri specifice, pe care nici măcar șoferii nu le...
4
Ecusonul smart care își propune să înlocuiască smartphone-ul. Cum ar funcționa dispozitivul inedit Ai Pin
Ecusonul smart care își propune să înlocuiască smartphone-ul. Cum ar funcționa dispozitivul inedit Ai Pin
Ai Pin e ecusonul smart care își propune să înlocuiască smartphone-ul, prin diferite funcții inedite, ce ar eficientiza utilizarea dispozitivului.  Ai Pin e un mic computer ce se poate atașa de bluză, ce are...
5
Sute de „păianjeni” au fost descoperiți într-un „oraș incaș” de pe Marte. Imaginile care au uimit cercetătorii
Sute de „păianjeni” au fost descoperiți într-un „oraș incaș” de pe Marte. Imaginile care au uimit cercetătorii
Sute de „păianjeni” au fost descoperiți într-un „oraș incaș” de pe Marte, în imagini de satelit care au uimit experții. Într-o nouă imagine surprinsă de Agenția Spațială Europeană apar formațiuni care arată ca niște...
PARTENERI