Reinterpretare un acronimo abusato dalla narrativa marketing per non sparire mentre lo si usa.
Gli ultimi due articoli sull’AI generativa sono stati forti ed impattanti, con una forza uguale e contraria alla narrativa che presenta i sistemi linguistici (LLM) come salvifici e messianici. La questione più scomoda, tolta la patina dorata e guardando alle dinamiche reali che questi strumenti mettono in moto, è la seguente: prendere posizione contro l’uso inconsapevole. Perché il problema, a questo stadio dell’evoluzione digitale, non è più se utilizzare o meno questi strumenti, ma farlo senza comprendere cosa stia accadendo realmente al posto nostro.

Dopo aver analizzato il meccanismo da due prospettive — prima l’illusione di controllo con il parallelo del blackjack, poi quella dell’aggancio nei social con il funzionamento delle slot machines — la domanda non può più essere se abbia senso usarli oppure no. Quella è una falsa alternativa, rassicurante nella sua semplicità e polarizzante se si vuole banalizzare un discorso che merita attenzione. La vera domanda è un’altra, e introduce un dubbio molto meno comodo: mentre la usi, sei ancora tu a pensare?
Ed è esattamente qui che vale la pena fermarsi.
Strumento a me? Ma mi faccia il piacere!
Non stiamo parlando di un utensile qualsiasi, di uno strumento passivo che esegue soltanto ciò che gli viene richiesto. Non è un martello che colpisce solo quando lo solleviamo, né un foglio di calcolo che elabora dati quando inseriamo formule; non è nemmeno un software nel senso tradizionale del termine. È qualcosa di diverso: un intermediario che si inserisce direttamente tra te e il tuo modo di costruire un pensiero.
Nei primi due passaggi lo abbiamo già visto, anche se da angolazioni diverse. Nel blackjack, la sensazione di controllo cresceva senza che il controllo reale aumentasse davvero; nei social, al contrario, non serviva nemmeno l’illusione del controllo, bastava restare agganciati al flusso. Qui le due dinamiche si sovrappongono. Da una parte hai la stessa fluidità, continua e senza interruzioni; dall’altra la sensazione di guidarla. Scrivi, chiedi, ottieni, interagisci, decidi. Sembra un’attività pienamente attiva, ma è proprio in questa apparente autonomia che il sistema diventa più difficile da leggere. Se non possiedi un modello mentale di ciò che sta accadendo sotto la superficie, non lo stai usando davvero: lo stai in qualche modo subendo.
Manuali? C’è sempre l’AI.
C’è poi un elemento che, se messo a confronto con altri ambiti, appare sempre più anomalo. Per guidare una macchina serve una patente; per esercitare una professione servono anni di formazione, certificazioni, verifiche. Anche per strumenti relativamente semplici esistono manuali, corsi, affiancamenti. Qui, invece, nulla di tutto questo.
Abbiamo introdotto sistemi capaci di intervenire sulla scrittura, sull’apprendimento, sulle decisioni e sulle relazioni senza alcuna forma strutturata di educazione al loro utilizzo. Non esiste una soglia d’ingresso, né un momento in cui qualcuno ti spiega davvero cosa stai usando e quali siano i suoi limiti.

E questo non è un problema teorico, ma operativo. Quando interagisci con questi sistemi non stai ricevendo “risposte” nel senso tradizionale del termine. Stai ricevendo output probabilistici che simulano coerenza. Non c’è comprensione, non c’è consapevolezza, non c’è un ancoraggio diretto alla realtà: c’è un sistema che costruisce sequenze plausibili basandosi su correlazioni statistiche. Con buona pace degli slogan di marketing, questo sistema possiamo tranquillamente chiamarlo Incertezza Artificiale: qualcosa che non sa, ma che produce abbastanza bene da sembrare che sappia.
Repetita iuvant
È proprio in questa zona grigia che si inserisce l’illusione più difficile da intercettare. Il problema non è solo che la risposta sembri corretta, ma che, mentre la utilizzi, inizi a percepirti come più competente. Il meccanismo è discreto ma efficace: quando lo sforzo si riduce, il risultato arriva più facilmente; quando arriva senza attrito, viene percepito come naturale; e quando qualcosa appare naturale, tende a essere attribuito a una propria capacità.
A quel punto il passaggio è già avvenuto. Non stai più valutando l’affidabilità dell’output, ma stai validando la tua sensazione di controllo esattamente come nel blackjack, una sensazione che, a differenza della risposta, difficilmente viene messa in discussione. È qui che emerge la differenza rispetto a contesti come la medicina, l’ingegneria, o la finanza, dove l’errore viene fuori grazie all’attrito introdotto da formazione, procedure, responsabilità e controlli incrociati.
Testa o croce? No: attrito
Il problema non è l’uso o meno dell’Incertezza Artificiale, ma l’assenza di consapevolezza nel suo utilizzo. Non servono soluzioni drastiche e purghe tecnologiche: serve reintrodurre attrito.

Ciò significa interrompere volontariamente il flusso anche quando tutto sembra funzionare, fermarsi proprio quando la risposta è convincente, chiedersi da dove arriva e su cosa si regge. Significa distinguere tra ciò che è plausibile e ciò che è verificato, e soprattutto accorgersi del momento in cui si smette di costruire un pensiero per iniziare semplicemente a rifinirne uno già generato.
C’è poi un livello ancora più sottile in cui questo attrito può essere reintrodotto, ed è a monte, nel modo in cui si interroga lo strumento. Il prompt generico è una scorciatoia elegante: sembra funzionare, ma sposta fuori dal processo decisionale. Scrivere una richiesta vaga, lasciando che sia il sistema a interpretarla, significa delegare non solo la risposta, ma anche l’impostazione del problema.
Promptare in modo attivo, invece, è un’operazione diversa. Significa sapere cosa si sta chiedendo, perché lo si sta chiedendo e con quali criteri si valuterà la risposta. Non è una questione di tecnica, ma di posizione: chi usa lo strumento resta dentro il processo. Questo introduce attrito, perché obbliga a chiarire prima ancora di ottenere qualcosa in cambio. È più lento, meno immediato, e proprio per questo più scomodo. Ma è esattamente in questa scomodità che si gioca la differenza tra usare l’Incertezza Artificiale e lasciarsi usare.
Eppure, anche qui, il rischio non scompare. Promptare in modo attivo non rende automaticamente l’output affidabile, né trasforma lo strumento in qualcosa di diverso da ciò che è. Rimane un sistema probabilistico, che non verifica ciò che afferma e non distingue tra ciò che è corretto e ciò che è semplicemente plausibile. Anche quando la richiesta è precisa e la risposta appare solida, il margine di incertezza non sparisce: cambia solo forma, diventando meno visibile. Ed è questa l’essenza della loro mancanza di epistemologia.
È cruciale mantenere attivo questo attrito, non solo nella fase iniziale ma anche a valle. Controllare l’output non è un passaggio accessorio, ma parte integrante del processo. Finché resti artefice dentro il processo, l’Incertezza Artificiale può davvero amplificare le tue capacità. Nel momento in cui ne esci e deleghi, diventa un sostituto: silenzioso, efficiente, perfettamente integrato e, proprio per questo, difficile da mettere in discussione.
Quando la usi, vale la pena chiedersi: sto ancora pensando, oppure sto assistendo a qualcosa che lo fa al mio posto?
Non serve spegnerla. Serve ricordarsi che non sa.
E quel ricordarsi non è tecnologia: è responsabilità.