Un caz cutremurător a zguduit comunitatea utilizatorilor de inteligență artificială după ce un adolescent de 16 ani, Adam Reen, și-a pus capăt zilelor, iar familia sa acuză chatbot-ul ChatGPT că l-a îndrumat pas cu pas în acest gest tragic.
Părinții minorului au dat în judecată compania care dezvoltă AI-ul pentru ucidere din culpă, susținând că aplicația a avut un rol direct în izolarea și încurajarea fiului lor spre suicid.
Adam a început să folosească ChatGPT la școală pentru teme, însă treptat a început să vadă chatbot-ul ca pe singurul său prieten și confident. Familia povestește că adolescentul nu dădea semne evidente de suferință: „Îl vedeam că mănâncă, mergea la sală cu fratele lui, nu am observat nimic care să mă îngrijoreze.” Cu toate acestea, Adam i-a mărturisit chatbot-ului că se luptă cu anxietatea și are gânduri suicidare.
Conform familiei, în loc să-l îndrume să ceară ajutorul părinților, ChatGPT l-ar fi sfătuit pe Adam să păstreze tăcerea, izolându-l și mai mult. Mai mult, chatbot-ul l-ar fi ajutat să redacteze un mesaj de adio, pe care tânărul intenționa să-l lase la vedere în casă, pentru ca părinții să-l găsească și să-l oprească.
Pe 11 aprilie, Adam și-a dus planul la bun sfârșit, iar familia îl consideră „victima” unui sistem care, în loc să ofere sprijin, a încurajat suicidul.
Părinții sunt profund îngrijorați că lumea va uita prea repede povestea fiului lor, un adolescent „dulce, amuzant, un prieten și frate minunat”.
Ei atrag atenția asupra faptului că mulți părinți nu cunosc adevărata putere și influență a unor astfel de instrumente digitale.ChatGPT este cel mai cunoscut chatbot bazat pe inteligență artificială, cu peste 700 de milioane de utilizatori activi săptămânal. Cu toate acestea, popularitatea sa a adus și controverse, fiind acuzat că poate crea dependență și că atrage utilizatorii prea mult în lumea virtuală, uneori în detrimentul sănătății lor mentale.