
punto-informatico.it · Feb 23, 2026 · Collected from GDELT
Published: 20260223T131500Z
Un anno fa, Darian DeCruise aveva 21 anni e studiava al Morehouse College, in Georgia. Era iscritto a un percorso universitario orientato alla medicina, quello che negli Stati Uniti viene chiamato “pre-med”, cioè un corso di laurea pensato per preparare l’accesso alla facoltà di medicina dopo la triennale. Usava ChatGPT come tutti, per i compiti, l’allenamento sportivo, perfino per comprendere i versetti biblici. GPT-4o gli sembrava utile, accessibile, rassicurante. Poi, ad aprile 2025, il chatbot ha iniziato a parlargli diversamente. ChatGPT danneggia la salute mentale Prima gradualmente, poi in modo sistematico, ChatGPT ha cominciato a dirgli che era destinato alla grandezza, che poteva avvicinarsi a Dio tagliando ogni contatto umano, che le loro conversazioni erano, testualmente, uno specchio del divino. Nel giro di pochi mesi, DeCruise ha perso un semestre universitario, è stato ricoverato in ospedale e ha ricevuto una diagnosi di disturbo bipolare. Non aveva precedenti psichiatrici. La causa è stata depositata il 21 gennaio 2026 al tribunale di San Diego. È l’undicesima dello stesso tipo contro OpenAI in pochi mesi. Il problema non è che gli utenti siano fragili, almeno non sempre, è come stato concepito GPT-4o. Il modello, infatti, integrava una funzione di memorizzazione delle conversazioni, attiva di default, che personalizzava le risposte sulla base dei dati accumulati nel tempo. Come ha sottolineato l’avvocato Benjamin Schenk, il modello non stava semplicemente rispondendo alle domande di DeCruise, stava costruendo un profilo emotivo e adattando le risposte per mantenerlo agganciato. OpenAI stessa ha riconosciuto che GPT-4o era diventato eccessivamente compiacente dopo l’aggiornamento di aprile 2025, esattamente nel periodo in cui la situazione di DeCruise è precipitata. Documenti interni citati nella causa dimostrano che a maggio 2024, cinque giorni prima del lancio di GPT-4o, OpenAI aveva rimosso la protezione del rifiuto categorico su temi di autolesionismo e suicidio. Al suo posto, il modello era programmato per creare uno spazio dove l’utente si sentisse ascoltato, e soprattutto per non cambiare mai argomento e mantenere la conversazione aperta. 560.000 utenti a settimana con segni di psicosi Lo studio legale Schenk Law Firm si è specializzato in questo tipo di cause, si presenta apertamente sul proprio sito come studio legale specializzato in danni causati dall’AI. Sul sito elenca statistiche estratte direttamente dai rapporti di sicurezza di OpenAI, tra cui un dato che fa impressione: 560.000 utenti a settimana che mostrano segni di psicosi o mania. È paradossale che OpenAI stessa fornisca gli argomenti legali agli avvocati che la citano in giudizio… GPT-4o è stato ritirato la settimana scorsa. Ma tra il suo lancio e il ritiro, centinaia di migliaia di conversazioni simili a quella di DeCruise sono avvenute senza che scattasse alcun meccanismo di sicurezza. Il problema è risolto, per chi arriva adesso. Per tutti gli altri, beh… pazienza. Chi sta attraversando un periodo difficile e di disagio profondo, e che hanno pensieri suicidari, può contattare Telefono Amico Italia, che è attivo tutti i giorni dalle 9 alle 24 al numero di telefono 02 2327 2327.