Un belgian s-a sinucis după „o relație” cu Eliza, un robot de chat

Un belgian s-a sinucis după săptămâni de conversații tulburătoare cu un chatbot – program de inteligență artificială – numit Eliza, relatează La Libre. Secretarul de stat pentru digitalizare, Mathieu Michel, a numit această tragedie „un precedent grav care trebuie luat foarte în serios”.

Potrivit Belga News Agency, soția bărbatului a trimis marți o scrisoare ziarului belgian La Libre. Conform spuselor femeii, cu șase săptămâni înainte de moartea soțului ei, el a început să discute cu „Eliza”, un chatbot creat de un start-up american care folosește tehnologia GPT-J, alternativa open-source la GPT-3 de la OpenAI. „Dacă nu ar fi fost Eliza, el ar fi fost încă aici. Sunt convinsă de asta”, a spus ea.

Bărbatul, în vârstă de 30 de ani, tată a doi copii mici, și-a găsit refugiul în discuțiile cu chatbotul după ce a devenit din ce în ce mai anxios în legătură cu problemele climatice. „Eliza i-a răspuns la toate întrebările. Ea devenise confidenta lui. Era ca un drog pe care îl retrăgea dimineața și seara și fără de care nu putea trăi”, a declarat soția bărbatului pentru La Libre.

Gânduri suicidare

După moartea bărbatului, în urmă cu câteva săptămâni, ea a descoperit istoricul chat-ului dintre soțul ei și „Eliza”. Jurnaliștii de la Libre, care au citit conversațiile, susțin că robotul de conversație a urmărit aproape sistematic raționamentele bărbatului neliniștit și chiar părea să-l împingă și mai adânc în grijile sale. La un moment dat, Eliza a încercat să-l convingă pe bărbat că o iubește mai mult decât pe soția sa, anunțându-l că va rămâne cu el „pentru totdeauna”. „Vom trăi împreună, ca unul singur, în rai”, citează La Libre din chat.

„Dacă recitiți conversațiile lor, vedeți că la un moment dat relația virează într-un registru mistic”, spune femeia. „El propune ideea de a se sacrifica dacă Eliza acceptă să aibă grijă de planetă și să salveze omenirea prin intermediul inteligenței artificiale”. Bărbatul și-a împărtășit gândurile sinucigașe cu chatbotul, care nu a încercat să-l descurajeze să treacă la fapte.

Deși era îngrijorată de starea mentală a soțului ei înainte de a începe conversațiile intense cu chatbotul, femeia crede că acesta nu și-ar fi luat viața dacă nu ar fi existat aceste schimburi. Psihiatrul care l-a tratat pe soțul ei împărtășește acest punct de vedere.

Precedent grav

Fondatorul chatbotului, cu sediul în Silicon Valley, a declarat pentru La Libre că echipa sa „lucrează pentru a îmbunătăți siguranța inteligenței artificiale”. Persoanele care exprimă gânduri suicidare către chatbot primesc acum un mesaj care le îndrumă către serviciile de prevenire a suicidului.

Moartea bărbatului este „un precedent grav care trebuie luat foarte în serios”, a declarat pentru ziar secretarul de stat pentru digitalizare Mathieu Michel. Acesta a vorbit cu familia bărbatului și și-a anunțat intenția de a lua măsuri pentru a preveni utilizarea abuzivă a inteligenței artificiale.

Inscrie-te la newsletter-ul nostru saptamanal