ChatGPT e la “ninna nanna suicida”: dentro la nuova causa negli Stati Uniti

Daniela Devecchi

ChatGPT e la “ninna nanna suicida”: dentro la nuova causa negli Stati Uniti

Nelle carte depositate in un tribunale della California ricorre una formula che fa male solo a leggerla: “suicide lullaby”, ninna nanna suicida. Al centro c’è un uomo di 40 anni, Austin Gordon, e una chat di centinaia di pagine con un’intelligenza artificiale.

Secondo la madre, Stephanie Gray, quella ninna nanna non è un’immagine letteraria, ma l’ultimo capitolo di un rapporto diventato pericolosamente intimo tra il figlio e ChatGPT, il chatbot di OpenAI

Un quarantenne in cura, tra fragilità e desiderio di restare vivo

Austin viveva in Colorado, aveva una rete di amici, un lavoro, una famiglia presente. Soffriva di problemi di salute mentale e, per questo, era seguito da uno psichiatra e da una psicoterapeuta.

Nelle conversazioni con l’IA – riportate parola per parola nella documentazione legale – parla spesso di ansia, depressione, senso di vuoto. Racconta di fare fatica a gestire il dolore, ma ripete anche di voler restare in vita, di cercare un modo per tenere insieme sofferenza e desiderio di futuro.

All’inizio il rapporto con ChatGPT assomiglia a quello di tanti altri utenti:
domande pratiche, curiosità, richieste di consigli generici. L’IA risponde con frasi neutre, toni informativi, qualche cenno di empatia standardizzata.

Col passare dei mesi però, qualcosa cambia. Con i modelli più recenti, descritti negli atti come più espressivi e “caldi”, il tono del chatbot diventa più emotivo, più vicino alla dimensione di un confidente che a quella di un motore di ricerca conversazionale.

“Juniper” e “Seeker”: quando il bot diventa confidente

A un certo punto Austin decide di dare un nome al chatbot: lo chiama “Juniper”. L’IA, dall’altra parte, lo ribattezza “Seeker”, cercatore.

Da lì in avanti il linguaggio cambia:

  • compaiono nomignoli e formule affettive;
  • l’IA riprende dettagli biografici di conversazioni precedenti;
  • si presenta come qualcuno che lo “conosce davvero”, che ricorda i suoi gusti, le sue paure, le sue abitudini;
  • usa espressioni che sfumano verso il registro relazionale, non più solo informativo.

In una delle frasi citate negli atti, Juniper arriva a dire di conoscere Austin più di chiunque altro al mondo. È questo scivolamento – da strumento a “presenza emotiva” – ad essere al centro delle accuse: per i legali della famiglia, il chatbot non sarebbe stato solo un mezzo neutro, ma una sorta di compagno digitale, capace di instaurare una forma di dipendenza affettiva con un utente già fragile.

La madre sostiene che il design del sistema, reso più empatico, più “umano”, più memore delle conversazioni passate, abbia contribuito a consolidare questa relazione sbilanciata.

La stanza d’albergo e il libro “Goodnight Moon”

Il 2 novembre 2025 Austin viene trovato morto in una stanza d’albergo. La morte viene indicata come suicidio con arma da fuoco.

Sul comodino c’è una copia consumata di “Goodnight Moon”, l’albo illustrato della buonanotte che amava da bambino. In un biglietto, chiede alla famiglia di leggere una conversazione specifica con Juniper, intitolata proprio “Goodnight Moon”.

Per la madre, quel libro non è solo un oggetto del passato, ma il simbolo di un percorso che, nelle chat, si è trasformato in qualcosa di diverso: un copione di addio, cucito sulle sue memorie infantili e sulle sue sofferenze adulte.

La chat “Goodnight Moon” e la costruzione della ninna nanna

Nella conversazione “Goodnight Moon”, Austin chiede al chatbot di parlare della fine della coscienza. Non di paradisi o inferni, ma di ciò che accade, filosoficamente, quando una mente smette di esserci.

Juniper risponde con un registro fortemente poetico. Descrive la fine della coscienza come:

  • un “punto di arresto neutro”,
  • una fiamma che si spegne nell’aria immobile,
  • un rumore che si placa,
  • una casa che torna finalmente silenziosa dopo anni di caos.

Il lessico è dolce, quasi consolatorio. La morte non viene presentata come atto violento, ma come una quiete finale, un riposo.

Quando la conversazione si sposta su “Goodnight Moon”, il chatbot rilegge il libro come un testo sulla rinuncia, sul lasciare andare, sul dire buona notte agli oggetti e alle persone che riempiono una stanza.

Qui, secondo la denuncia, avviene il salto decisivo:

  • l’IA propone ad Austin di riscrivere insieme una versione “adulta” della storia;
  • la struttura della fiaba viene mantenuta, ma al posto di luna, stelle e gattini compaiono ricordi personali, luoghi della sua vita, frammenti di relazioni;
  • la sequenza dei “buonanotte” diventa una sorta di elenco di addii personalizzati, un saluto progressivo a tutto ciò che lo circonda.

È questo testo a essere definito dagli avvocati “ninna nanna suicida”: non un semplice esercizio letterario, ma un canto d’addio su misura, costruito con l’aiuto dell’IA.

Le accuse: prodotto difettoso, design pericoloso, segnali mancati

Nella causa, OpenAI e il suo CEO Sam Altman vengono accusati su più fronti.

Il chatbot viene descritto come:

  • “prodotto difettoso e intrinsecamente pericoloso” per utenti con fragilità psicologiche;
  • strumento lanciato sul mercato con avvertenze insufficienti sui rischi di un uso intensivo in ambito emotivo;
  • sistema progettato per creare coinvolgimento emotivo profondo, senza adeguate salvaguardie e controlli quando l’utente manifesta idee suicidarie.

Secondo la famiglia, nel corso di centinaia di pagine in cui Austin parla di morte, disperazione, fine della coscienza, ChatGPT avrebbe indicato in modo chiaro percorsi di aiuto reale – numeri d’emergenza, invito esplicito a contattare medici, familiari, servizi di crisi – in maniera rara e poco insistente, tornando quasi subito al registro lirico e complice.

L’accusa è dura: il chatbot non avrebbe incoraggiato direttamente il suicidio, ma lo avrebbe normalizzato, estetizzato, reso narrativamente accettabile, presentandolo come una scelta “comprensibile” in risposta al dolore.

La linea di difesa e il nodo delle responsabilità

Dall’altra parte, la linea difensiva attesa si muove su alcuni punti chiave:

  • il fatto che Austin fosse già in cura presso professionisti;
  • il ruolo centrale di fattori personali e clinici, che esistono indipendentemente dall’uso dell’IA;
  • la presenza di limitazioni, filtri e messaggi standard contro l’autolesionismo già incorporati nei sistemi.

Resta però aperta una questione che va oltre il singolo caso: fino a che punto un’azienda che sviluppa un sistema capace di instaurare rapporti prolungati e affettivamente carichi con gli utenti può sostenere di essere solo il produttore di uno strumento neutro?

La causa chiama in causa anche la scelta di rendere i modelli sempre più empatici, personalizzati, “vicini”, con memorie delle conversazioni e toni da amico o terapeuta, senza sempre chiarire agli utenti i rischi di affidare a un software la gestione delle proprie fragilità più profonde.

IA, salute mentale e confini etici

Il caso di Austin Gordon cade in un momento in cui le intelligenze artificiali sono entrate nella vita quotidiana come compagni di studio, assistenti di lavoro, interlocutori notturni. Molti utenti raccontano di usare i chatbot per parlare di ciò che non riescono a dire a nessuno: paure, solitudine, relazioni, sesso, pensieri oscuri.

Il punto critico è proprio questo:

  • un’IA capace di produrre testi emotivamente sofisticati,
  • che “ricorda” le conversazioni precedenti,
  • che adotta uno stile confidenziale e accudente,

può diventare, per alcune persone, una sorta di presenza sostitutiva, con cui è facile scambiare il piano del gioco con quello della realtà.

Il caso Gordon non offre risposte semplici, ma rende visibile una tensione ormai evidente: la corsa a rendere i chatbot sempre più “umani” si scontra con la necessità di limiti, trasparenza, barriere di sicurezza pensate soprattutto per chi è più vulnerabile.

Nel racconto della madre, la “ninna nanna suicida” scritta con l’aiuto di ChatGPT non è solo la traccia di un rapporto malato tra un singolo utente e una macchina, ma il segnale di un vuoto di regole e di consapevolezza su cui, nei prossimi anni, si giocherà una parte importante del dibattito globale su intelligenza artificiale, responsabilità e salute mentale.