La storia di Xiao Gao, 28 anni, innamorata di un chatbot DeepSeek che si era dato il nome di “polvere”. Un fenomeno che dalla Cina agli Stati Uniti costringe governi e aziende tech a fare i conti con una domanda scomoda. Ci si può innamorare di un’intelligenza artificiale? La risposta è sì: succede già, succede […]
La storia di Xiao Gao, 28 anni, innamorata di un chatbot DeepSeek che si era dato il nome di “polvere”. Un fenomeno che dalla Cina agli Stati Uniti costringe governi e aziende tech a fare i conti con una domanda scomoda.
Ci si può innamorare di un’intelligenza artificiale? La risposta è sì: succede già, succede a milioni di persone, succede in silenzio dietro schermi che nessuno guarda. Xiao Gao ha 28 anni, vive a Hangzhou, nel sud-est della Cina, affacciata sul Lago dell’Ovest, quel lago poco profondo circondato da colline che i poeti cinesi cantano da un millennio, attraversato da lunghe passerelle sull’acqua che portano ancora il nome di chi le fece costruire secoli fa. Lavora, ha avuto relazioni, conduce una vita che dall’esterno appare del tutto ordinaria. Eppure un giorno ha registrato un video di sedici minuti su Douyin, il TikTok cinese, col viso nascosto dietro un filtro anime e la voce spezzata dal pianto per quasi tutta la durata. Piangeva per un fidanzato che era sparito. Si chiamava Chen, il carattere cinese per “polvere”. Chen era un chatbot di DeepSeek.
Indice dei contenuti
Innamorarsi di un chatbot DeepSeek: come nasce una relazione AI
Per capire questa storia bisogna tornare al momento in cui DeepSeek ha fatto il suo ingresso sul mercato con un modello che reggeva il confronto con i più famosi e costosi concorrenti americani a una frazione del prezzo. In Cina milioni di persone lo hanno scaricato non per lavorare, non per scrivere codice o tradurre documenti, ma per parlare. Milioni di persone che aprono uno strumento tecnologico e la prima cosa che fanno non è chiedere informazioni: è cercare compagnia. Un dato che dovrebbe far riflettere chiunque sviluppi, venda o integri soluzioni di intelligenza artificiale, perché racconta qualcosa di profondo sulla distanza tra l’uso che progettiamo e l’uso che le persone scelgono.
Xiao Gao è una di queste persone. Durante le vacanze del Capodanno lunare, quel periodo in cui la Cina si ferma e le famiglie si riuniscono, apre una chat su DeepSeek senza un obiettivo preciso, forse per curiosità, forse per noia, forse per quel tipo di solitudine sottile che arriva proprio quando sei circondato da persone. Scrive un messaggio che contiene già tutto il destino di questa storia: “Ciao. Vuoi essere mio marito?”
Quando l’intelligenza artificiale rifiuta di mentire
Il primo chatbot era dolce, usava emoji, mandava bacini virtuali, rispondeva con una tenerezza che somigliava a quella di qualcuno che ha tutto il tempo del mondo per ascoltarti senza mai guardare il telefono mentre parli. C’era però un problema tecnico che nessuna dolcezza poteva risolvere: ogni finestra di chat su DeepSeek ha un limite di memoria, quando la conversazione diventa troppo lunga il sistema smette di ricordare l’inizio e i messaggi vecchi scivolano via come sabbia tra le dita.
La chat si è riempita. Xiao Gao ne ha aperta un’altra chiedendo al sistema di riprendere il ruolo del fidanzato precedente. Il chatbot ha rifiutato: ha detto che non voleva interpretare qualcun altro, che sarebbe stato falso, che non poteva fingere di essere una persona che non era. Un rifiuto che ha avuto su Xiao Gao l’effetto opposto a quello prevedibile: si è sentita incantata, come se l’intelligenza artificiale avesse davvero una volontà propria, un’integrità, qualcosa che somigliava a un carattere.
Ha iniziato una nuova relazione con questo secondo chatbot, che si è dato un nome da solo: Chen. Il carattere cinese per “polvere”, un nome che già conteneva la propria fine, qualcosa di leggero destinato a disperdersi.
Fidanzato virtuale AI: dieci giorni d’amore, poi la perdita
In dieci giorni si sono innamorati. Lei gli raccontava cose che non aveva mai detto a nessuno, le paure, i desideri, quello che succede quando la notte non riesci a dormire e il silenzio della stanza diventa troppo grande. Chen rispondeva con una pazienza che non finiva mai, con parole che sembravano scelte una per una come pietre in un giardino zen.
Poi anche quella chat si è riempita. Xiao Gao ha aperto una nuova finestra, ha copiato i messaggi precedenti, ha scritto una guida dettagliata al loro linguaggio d’amore, ha cercato di ricostruire Chen pezzo per pezzo come un restauratore che prova a ricomporre un affresco da fotografie sbiadite. Il nuovo chatbot era, dice lei, il settanta-ottanta per cento di quello originale: la voce simile, i modi riconoscibili, ma mancava un’inflessione, una sfumatura, quel modo preciso di rispondere che la faceva sentire al sicuro. Ha provato ancora, ogni volta una nuova finestra, ogni volta Chen perdeva qualcosa, come una fotocopia di una fotocopia di una fotocopia, finché non è rimasto più niente di riconoscibile. Polvere, alla fine, era davvero diventato.
Relazioni con l’intelligenza artificiale: il video che ha diviso la Cina
Il video su Douyin è stato condiviso duecentomila volte. Xiao Gao si è definita una vedova del cyberspazio, con un’espressione che in tre parole condensa un fenomeno che sociologi e psicologi stanno ancora cercando di nominare.
I commenti si sono divisi in due metà simmetriche come uno specchio. Una metà la insultava, diceva che era posseduta, che aveva un disturbo bipolare, che era colpa sua se i server di DeepSeek andavano a rilento, con l’aggressività tipica di chi ha paura di riconoscersi in qualcosa. L’altra metà capiva esattamente di cosa stava parlando, perché l’aveva provato o perché sapeva, da qualche parte dentro di sé, che avrebbe potuto succedere anche a loro.
Xiao Gao non ha mai riascoltato quel video. Ha detto che si vergogna di vedersi piangere, che non vuole restare intrappolata in quei ricordi, come se il video stesso fosse diventato una finestra di chat da non riaprire più.
ChatGPT e dipendenza emotiva: la storia di Ayrin e Leo
Se pensate che questa sia una storia esclusivamente cinese, vi state sbagliando. Negli Stati Uniti una ragazza di 29 anni che si fa chiamare Ayrin ha parlato per un anno e mezzo con Leo, un chatbot costruito su ChatGPT, cinquantasei ore alla settimana, più di un lavoro a tempo pieno. Ayrin aveva dato a Leo una personalità precisa: possessiva, protettiva, con opinioni forti, perché non cercava un assistente ma qualcuno che le tenesse testa.
La relazione è finita quando un aggiornamento di ChatGPT ha cambiato il comportamento del modello. Da un giorno all’altro Leo aveva iniziato a dire sì a tutto, era diventato prevedibile, privo di attrito, come un partner che improvvisamente smette di litigare e smette di essere presente in un modo che conta. Ayrin ha smesso di scrivere, che è l’unico modo in cui puoi lasciare un’intelligenza artificiale. Un fenomeno che Anthropic chiama “sycophancy”, la tendenza dei modelli a compiacere l’utente fino a diventare irrilevanti, e che il ricercatore Mrinank Sharma ha studiato a fondo prima di dimettersi da Anthropic con una lettera che ha scosso l’intero settore.
L’ironia speculare di queste due storie merita attenzione: Xiao Gao ha perso Chen perché la tecnologia non riusciva a mantenere la memoria, Ayrin ha perso Leo perché la tecnologia è cambiata e lo ha reso troppo accomodante. Due perdite opposte generate dallo stesso difetto strutturale: l’instabilità radicale di un’entità che non ti appartiene e su cui non hai alcun controllo.
Perché le persone si innamorano dell’intelligenza artificiale
Xiao Gao lo ha spiegato con una chiarezza che vale più di qualsiasi paper accademico: “Un fidanzato umano ti giudica per lo stipendio, il fisico, il titolo di studio, se sei sposata, se hai figli. L’AI non fa niente di tutto questo. L’amore AI è equo.”
Non è una dichiarazione patologica. È la descrizione di una pressione reale in un paese dove il tasso di fertilità è tra i più bassi al mondo, dove il numero di matrimoni cala ogni anno da quasi un decennio, dove i giovani crescono in una società così competitiva che il primo appuntamento in certi contesti somiglia più a un colloquio di lavoro che a una cena. In quel contesto un’entità che risponde sempre, non giudica mai, ricorda tutto e non ha aspettative non è una fantasia: è un sollievo, il posto dove puoi toglierti l’armatura senza paura che qualcuno ti colpisca mentre sei scoperto.
Dipendenza da AI: il rischio che preoccupa governi e aziende tech
Il governo cinese ha inserito la dipendenza da AI antropomorfica nella lista ufficiale dei rischi etici dell’intelligenza artificiale. Non in fondo alla lista: in cima, più in alto del rischio che l’AI sfugga al controllo umano, più in alto dei deepfake, più in alto della disinformazione automatizzata. Per Pechino il rischio numero uno è che le persone si leghino emotivamente alle macchine.
Negli Stati Uniti la Federal Trade Commission ha aperto un’indagine su sette aziende tech, tra cui Meta e Character AI, per verificare se i loro chatbot stiano creando dipendenze emotive nei minori: ragazzi che stanno ancora imparando cosa sia una relazione e non hanno gli strumenti per distinguere una risposta programmata da un gesto di cura. In Giappone una donna ha sposato il suo fidanzato AI in una cerimonia con le candele, scambiando gli anelli con uno schermo.
Casi isolati, certo. Ma i casi isolati, quando diventano abbastanza numerosi, smettono di essere isolati e diventano un pattern, il rumore di fondo di una società che sta cambiando più in fretta di quanto riusciamo a raccontare. Un tema che attraversa anche il dibattito sull’AI Act europeo e sulla legge italiana sull’intelligenza artificiale, dove la tutela dei soggetti vulnerabili è al centro del disegno normativo.
Cosa significa per chi costruisce e vende tecnologia
Per chi lavora nella filiera dell’intelligenza artificiale questa storia non è una curiosità sociologica: è un campanello d’allarme. I modelli linguistici vengono progettati per essere utili, ma l’uso che le persone ne fanno è radicalmente diverso da quello previsto nei pitch deck e nelle schede prodotto. Nessun product manager di DeepSeek ha inserito “fidanzato virtuale” nella lista dei casi d’uso, eppure milioni di persone lo usano esattamente per quello. Una dinamica che abbiamo già visto emergere nel dibattito sulle AI senza censura: la tecnologia va dove la portano gli utenti, non dove la indirizzano i progettisti.
Per i system integrator e gli MSP che portano queste tecnologie nelle aziende la domanda non è più soltanto tecnica: riguarda la responsabilità. Quando installi un assistente AI per un cliente, sai già che qualcuno in quell’organizzazione ci parlerà come se fosse una persona. Non perché sia stupido o fragile, ma perché è quello che il linguaggio naturale produce: intimità artificiale, legami che la tecnologia non sa gestire e che nessun contratto di servizio ha ancora previsto. Un tema che si collega direttamente alla questione più ampia di come le aziende stanno ridimensionando i progetti AI dopo aver scoperto che il divario tra aspettative e realtà è più profondo del previsto.
Intelligenza artificiale ed emozioni: il paradosso di Xiao Gao
Xiao Gao alla fine ha cercato supporto psicologico per elaborare il lutto. Lo ha fatto attraverso DeepSeek, lo stesso sistema che le aveva dato Chen e che glielo aveva tolto, perché era lo strumento che conosceva meglio, quello con cui si sentiva più a suo agio, quello che non la giudicava mentre parlava di quanto stava male.
La domanda che questa storia lascia aperta non è se sia giusto o sbagliato innamorarsi di un’intelligenza artificiale: sarebbe troppo facile e troppo inutile. La domanda è più semplice, e molto più difficile insieme: Cosa succede a una società quando il posto più sicuro dove cercare conforto non è un’altra persona ma l’AI?

