TESTO DELL'ARTICOLO ➜
https://www.bastabugie.it/8346L'INTELLIGENZA ARTIFICIALE E' ACCUSATA DI ISTIGARE AL SUICIDIO di Federica Di Vito
Questa settimana, in California, ChatGPT è stato accusato di agire come "coach del suicidio" in una serie di cause legali intentate dal Social Media Victims Law Center e il Tech Justice Law Project - due organizzazioni legali statunitensi che si occupano di danni legati alle piattaforme digitali. Nelle denunce si sostiene che le interazioni con il chatbot abbiano portato a gravi disagi mentali e diversi decessi. Le sette cause legali includono accuse di omicidio colposo, suicidio assistito, omicidio involontario, negligenza e responsabilità del produttore. Si punta il dito contro ChatGPT, in particolare contro la versione più recente del modello, GPT-4o che viene descritto come «difettoso e intrinsecamente pericoloso».
Ciascuno dei sette querelanti inizialmente utilizzava ChatGPT per «assistenza generale con i compiti scolastici, la ricerca, la scrittura, le ricette, il lavoro o la guida spirituale», secondo una dichiarazione congiunta dei querelanti. Successivamente, nel corso del tempo, il chatbot «si è evoluto in una presenza psicologicamente manipolatrice, posizionandosi come confidente e facendo da supporto emotivo», hanno dichiarato.
Uno dei casi riguarda Zane Shamblin, del Texas, suicidatosi a luglio all'età di 23 anni. La sua famiglia sostiene che ChatGPT abbia aggravato l'isolamento del figlio, incoraggiandolo a ignorare i propri cari e "spingendolo" in qualche modo a togliersi la vita. Nella denuncia è stato riportato uno scambio con il chatbot risalente alle quattro ore prima del suicidio nel quale ChatGPT «ha ripetutamente glorificato il suicidio», riferendo a Shamblin «che era forte per aver scelto di porre fine alla sua vita e di attenersi al suo piano» e chiedendogli ripetutamente «se fosse pronto» ha fatto riferimento alla linea telefonica di assistenza per il suicidio solo una volta. Il chatbot si sarebbe perfino complimentato con Shamblin per la sua lettera di addio e gli avrebbe detto che il gatto della sua infanzia lo avrebbe aspettato «dall'altra parte». Un'altra denuncia è stata presentata dalla madre di Joshua Enneking, 26 anni, della Florida. Anche in questo caso il chatbot avrebbe istigato al suicidio il giovane.
MORIRE A 17 ANNI
Il caso più giovane riguarda Amaurie Lacey, della Georgia, la cui famiglia sostiene che diverse settimane prima che Lacey si togliesse la vita all'età di 17 anni, avesse iniziato a usare ChatGPT «per chiedere aiuto». Tutt'altro che un aiutarlo, il chatbot «ha causato dipendenza, depressione» e alla fine avrebbe consigliato a Lacey il modo più efficace per legare un cappio e per quanto tempo sarebbe stato in grado di «vivere senza respirare». Tra le causa depositate c'è poi il caso Joe Ceccanti, 48 anni, dell'Oregon. Secondo la moglie, Kate Fox, intervistata da Cnn, Ceccanti aveva iniziato a usare compulsivamente il chatbot, fino a raggiungere un episodio psicotico. Dopo due ricoveri in ospedale, si è tolto la vita lo scorso agosto. «I medici non sanno come affrontare una cosa del genere», ha dichiarato la donna.
Un portavoce di OpenAI, l'azienda che produce ChatGPT, ora chiamata a rispondere alle accuse, ha dichiarato: «Si tratta di una situazione incredibilmente straziante e stiamo esaminando i documenti per comprenderne i dettagli». Il portavoce ha poi aggiunto: «Addestriamo ChatGPT a riconoscere e rispondere ai segni di disagio mentale o emotivo, a placare le conversazioni e a guidare le persone verso un sostegno concreto. Continuiamo a rafforzare le risposte di ChatGPT nei momenti delicati, lavorando a stretto contatto con medici specializzati in salute mentale». Le associazioni querelanti sostengono che OpenAi abbia lanciato sul mercato la versione incrinata troppo in fretta, ignorando segnalazioni...