I social hanno aperto la strada. L’AI la sta asfaltando.

Nel primo articolo il problema era l’illusione di controllo e i rischi che ne derivano; adesso faremo un salto ulteriore, entrando nei meccanismi che toccano corde più profonde.
Dalla Silicon Valley è nata e si è propagata tutta (o quasi) la tecnologia che accompagna le nostre vite da trent’anni a questa parte. Piattaforme di comunicazione come Facebook, YouTube e Google basano il loro successo su meccanismi noti da decenni — rinforzo intermittente variabile, ricerca di approvazione, bisogno di appartenenza. Questi sistemi sono progettati per trattenere attenzione il più a lungo possibile. Il risultato lo conosciamo: scroll infinito, notifiche, micro-dosi di gratificazione distribuite in modo irregolare, abbastanza da tenerti agganciato senza mai saturarti. Alterano così il circuito della ricompensa cerebrale per massimizzare il “tempo di permanenza” all’interno della loro piattaforma.
Il casinò sul comò
Il meccanismo è quello classico delle slot machine. La leva viene tirata e il giocatore non sa se vincerà o perderà, ed è questa incertezza a scatenare il picco di dopamina, molto più alto rispetto alla certezza di una vincita. Questo meccanismo viene sfruttato per tenerti lì: non sapere se arriverà qualcosa, e continuare comunque. Nelle piattaforme digitali, lo “scroll infinito” ha eliminato i segnali di stop naturali (come la fine di una pagina o di un capitolo), creando un flusso continuo senza attrito. Le notifiche agiscono come le luci e i suoni delle macchinette, promettendo una gratificazione immediata. I suggerimenti algoritmici (“Potrebbe piacerti anche…”, “Chi ha visto questo ha guardato…”) sono studiati per mantenere l’utente in uno stato di “quasi-vincita” costante: la prossima informazione cruciale, il video virale o il like sono sempre a un clic di distanza, ma mai garantiti.
L’utente, in questo scenario, non naviga più attivamente ma gioca “d’azzardo” con il proprio tempo e la propria attenzione: l’incertezza della ricompensa è il motore che tiene l’ingranaggio in movimento, rendendo la disconnessione psicologicamente dolorosa. Un casinò sul comò, sempre acceso, sempre a portata di mano. E gli LLM? Cambiano totalmente piano: dalla passività si passa a una partecipazione attiva.
Mal(IA) da vivere: quando la probabilità ti conosce meglio di te
Nel 2025, la ricerca accademica ha iniziato a quantificare il fenomeno: uno studio fondamentale pubblicato su arXiv nel luglio dello stesso anno, dal titolo “Understanding Teen Overreliance on AI Companion Chatbots Through Self-Reported Reddit Narratives”, ha analizzato 318 testimonianze reali di adolescenti (13-17 anni) sulla community Reddit di Character.AI.
I ricercatori hanno mappato questi racconti sui criteri clinici della dipendenza comportamentale, riscontrando pattern allarmanti: sessioni di utilizzo fino a notte fonda, abbandono degli studi e l’uso dei bot come sostituti emotivi.
Community come r/ChatbotAddiction e r/AI_Addiction sono diventate veri e propri gruppi di supporto, dove migliaia di utenti descrivono sintomi identici a quelli dei giocatori d’azzardo patologici: perdita di controllo, di tolleranza (bisogno di interagire sempre di più) e astinenza sociale. La differenza cruciale è che, mentre nelle slot machine si perde denaro, qui si perde la capacità di distinguere tra connessione umana e simulazione statistica. Questo conferma che il meccanismo di aggancio psicologico è lo stesso: un sistema che si insinua nelle vulnerabilità umane, ma con una profondità di penetrazione emotiva mai vista prima.
Da giocatore a banco…
In questo ecosistema di dipendenza strutturale, gli LLM rappresentano l’ultimo, sofisticato capolavoro di ingegneria comportamentale. Se i social media ci hanno resi dipendenti dall’attesa passiva di una ricompensa casuale (il contenuto nel feed), l’AI fa un salto ancora più raffinato: ci vende l’illusione di aver ribaltato il banco, di essere noi a governare quelle probabilità.
Interagire con un chatbot dà la sensazione euforica di controllo. L’utente non subisce più passivamente un algoritmo; lancia un comando (il prompt) e la macchina risponde istantaneamente, generando ordine dal caos statistico di miliardi di parametri. Sembra di aver domato la probabilità, ma in realtà hai solo velocità: una velocità che non ti permette di controllare il sistema. Anzi, le risposte abbastanza buone che ricevi ti fanno desistere dal metterlo in discussione.
Qui scatta la trappola del cognitive offloading: il meccanismo psicologico per cui deleghiamo a un supporto esterno compiti mentali complessi per risparmiare energia cognitiva. Con l’AI, non scarichiamo solo la memoria o il calcolo, ma l’intero processo di ragionamento. Il cervello, ingannato dall’immediatezza del risultato, interpreta questa assenza di sforzo come una propria maggiore competenza. Non stiamo diventando più capaci; stiamo solo nascondendo la fatica del pensiero. E la sensazione che resta è di onnipotenza: ci crediamo architetti solo perché la casa è già costruita, dimenticando di non aver posato nemmeno un mattone.
Questa è la grande illusione: crediamo di stare utilizzando uno strumento razionale per ottenere verità o soluzioni, mentre in realtà stiamo interagendo con il più complesso motore probabilistico mai costruito. Il chatbot non “sa” nulla; calcola la statistica. Ma la fluidità della risposta ci convince di aver accesso a una fonte di conoscenza infallibile, facendoci sentire come se avessimo il controllo della realtà digitale, piuttosto che esserne semplici consumatori.

D’ora in poi chiamarla “Intelligenza Artificiale” è fuorviante. Più corretto parlare di Incertezza Artificiale: un sistema che non comprende, ma calcola probabilità e le restituisce in forma plausibile. Chiamarla per quello che è serve anche a evitare l’antropomorfizzazione dello strumento, e scambiarlo così per un interlocutore cosciente.
…ma ne sei davvero sicuro?
L’illusione di “governare le probabilità” nasconde la realtà: siamo immersi nel gioco a un livello ancora più profondo e insidioso. Il chatbot non elimina l’azzardo; lo sublima e lo rende invisibile.
Non stiamo più scommettendo su quale contenuto apparirà nel feed (azzardo sul consumo), ma lo stiamo facendo sulla veridicità, sulla coerenza logica, sull’assenza di “allucinazioni” e sull’utilità etica di un output generato statisticamente (azzardo sulla verità). Ogni volta che chiediamo a un’AI di scrivere codice, riassumere un fatto storico o dare un consiglio medico, stiamo tirando una leva invisibile, sperando che la probabilità statistica abbia generato un risultato corretto e non una plausibile menzogna.
La dipendenza più potente non è quella verso la ricompensa casuale esterna, ma quella verso l’illusione di controllo interno. I social tenevano agganciati gli utenti a ciò che vedevano, mentre i chatbot hanno una marcia in più: rischiano di tenerti agganciato con quello che pensi di saper fare. Si assiste a uno shift significativo: dall’economia dell’attenzione si passa all’economia dell’interazione.
Viene meno il consumo passivo fatto di scrolling e notifiche in favore dell’interazione attiva. Rimani non perché sei distratto, ma perché ti senti efficace. Non ti aggancia mentre perdi tempo: lo fa mentre sei nel punto più produttivo della giornata. L’identità diventa il piano su cui lavora la dipendenza, non più il tempo.
Il banco – i server e i modelli addestrati sui nostri stessi dati – non ha bisogno di vincere sempre: gli basta che tu continui a giocare. Raccoglie i nostri prompt, affina i suoi modelli, consolida il suo controllo su come costruiamo le nostre risposte e continua a tirare i dadi a velocità infinita. Le community di supporto su Reddit sono il segnale d’allarme: stiamo cominciando a vedere i primi sintomi di una dipendenza sulla percezione del sé.

Allora la domanda non è tanto se questi sistemi creano dipendenza, ma da cosa: dalla versione di te stesso che emerge quando tutto sembra maledettamente funzionante e vero. È da qui che dovrebbe partire quel brivido lungo la schiena, quel breve “scossone” emotivo che dovrebbe spingere all’azione.
Se i social media hanno ridefinito il modo in cui consumiamo le informazioni, i sistemi di IA generativa stanno ridefinendo il modo in cui percepiamo il nostro pensiero?
Ottimo articolo
Grazie Mattia, apprezzo molto. È un tema che richiede attenzione, quindi fa piacere quando arriva!