C’è un rischio nell’evoluzione dell’intelligenza artificiale che difficilmente finisce nei titoli, perché non produce effetti immediatamente visibili né errori clamorosi. Non riguarda le fake news evidenti o le risposte sbagliate. Riguarda qualcosa di più profondo: il fatto che una parte crescente dell’AI stia imparando da contenuti che sono già stati costruiti dall’AI stessa.
È un processo silenzioso ma strutturale. E proprio per questo potenzialmente più pericoloso.
Lei e solo lei
Una quota sempre più ampia dei testi che circolano online – articoli divulgativi, spiegazioni, riassunti, documentazione tecnica, contenuti informativi di ogni tipo – è oggi generata o fortemente mediata da sistemi di intelligenza artificiale. Quei testi finiscono nei motori di ricerca, vengono letti, citati, rielaborati e, soprattutto, rientrano nei grandi corpus utilizzati per addestrare i modelli successivi.
Si crea così un circuito chiuso: l’AI apprende da contenuti che riflettono le sue stesse logiche di costruzione del discorso. Non è un processo di accumulazione della conoscenza, ma un rafforzamento progressivo delle forme con cui quella conoscenza viene raccontata.
Il problema non è che l’AI commetta errori. Il problema è che, in questo circuito di auto-addestramento, incontra sempre meno spesso qualcosa che la contraddica davvero. Quando il materiale di partenza è già filtrato, semplificato, reso coerente e “pulito”, anche l’apprendimento tende a muoversi in quella direzione.
Standardizzare le semplificazioni
Le ipotesi diventano affermazioni, le semplificazioni si trasformano in standard, le zone d’ombra vengono progressivamente eliminate. Ciò che resta è un sapere fluido, lineare, rassicurante. Ma anche sempre meno esposto all’attrito del reale, alle eccezioni, agli elementi che non tornano.
In questo contesto, la verosimiglianza smette di essere uno strumento utile e diventa una prigione. Quando un sistema impara soprattutto da ciò che “suona giusto”, il plausibile si cristallizza. Nasce un insieme di enunciati che non sono necessariamente veri, ma che non vengono più messi in discussione perché risultano coerenti con tutto il resto.
Non emergono nuove domande, non emergono fratture, non emergono conflitti interpretativi. Il sapere si stabilizza, ma non avanza. Si consolida, ma non si rinnova.
La conoscenza è rottura
Il paradosso è evidente: più l’AI appare sicura di sé, meno sta realmente conoscendo. La conoscenza non cresce per semplice accumulo, ma per rottura. Avanza quando un’ipotesi viene smentita, quando un dato non torna, quando un’eccezione costringe a rivedere un modello.
In un ecosistema informativo dominato da testi sempre più levigati e coerenti, il dubbio diventa un’anomalia, non una risorsa. L’incertezza viene percepita come un difetto da correggere, non come un segnale di onestà intellettuale.
Questo non è un problema che si risolve con un parametro in più o con dataset più grandi. È un rischio culturale. Accettare un sapere che si auto-conferma significa ridurre lo spazio del dissenso, normalizzare la semplificazione, scambiare la chiarezza per verità.
La fallibilità utile
In questo scenario, il ruolo umano non è competere con l’AI sulla velocità o sulla qualità formale della scrittura. È fare ciò che l’AI, per sua natura, non può fare: mettere in dubbio ciò che appare plausibile. Reintrodurre il confronto con le fonti, accettare l’incompletezza come dato dichiarato, assumersi la responsabilità editoriale delle affermazioni.
Perché un sapere che non dubita più non è un sapere più avanzato. È semplicemente un sapere che ha smesso di interrogarsi.
