L’IA generativa ha portato con sé un nuovo codice, una nuova forma di autorevolezza, e soprattutto un nuovo tipo di pressione: non quella del “che cosa dire”, ma quella del come dirlo. Così, il linguaggio ordinario inizia a imitare il parlato dell’IA: strutturato, lineare, assertivo, semanticamente iper-categorizzato. In un certo senso, non parliamo più tra umani: parliamo come se l’altro fosse una macchina.
Questo slittamento, inizialmente percepito come una “professionalizzazione” del discorso, sta mostrando ora la sua doppia faccia. Aumenta, certo, la chiarezza formale. Ma diminuisce, altrettanto chiaramente, la densità critica. Parliamo per essere compresi da un algoritmo — e il prezzo è l’impoverimento delle ambiguità, delle esitazioni, della sovrainterpretazione poetica, della contraddizione feconda.
Non si tratta più soltanto di uno stile, ma di una forma mentale. Una ricerca del MIT pubblicata su Nature Human Behaviour ha documentato come gli individui che utilizzano l’IA per attività cognitive complesse — scrittura, risoluzione di problemi, decision making — sviluppino una maggiore dipendenza da risposte precostituite, una diminuzione della capacità di pensiero critico e una progressiva perdita del pensiero divergente. Il fenomeno è stato definito flattening effect: l’appiattimento della capacità umana di immaginare vie laterali, domande inattese, soluzioni non evidenti. L’intelligenza artificiale ci dà risposte più “coerenti”, ma ci toglie la capacità di sopportare il dubbio.
Se la cultura è il terreno su cui si allena la complessità, allora l’uso massivo dell’IA rischia di trasformare il pensiero in un’esercitazione da modulo standard. L’originalità non è più richiesta, e quando si manifesta appare come un errore. Le nuove generazioni, cresciute dentro un ecosistema di sorveglianza algoritmica della parola scritta, mostrano un lessico più educato ma anche più povero, più tecnico ma meno immaginativo. Il rischio? Che il linguaggio perda la sua funzione liberatoria per diventare, al contrario, uno strumento di conformismo.
Il fenomeno non si limita al quotidiano. Anche la produzione scientifica, e in particolare quella medica, è ormai attraversata da una trasformazione silenziosa. Secondo un'analisi pubblicata su Nature Medicine e un editoriale su The Lancet Digital Health, è in crescita la quantità di articoli in ambito biomedico redatti — o co-redatti — con il supporto dell’intelligenza artificiale. Questo ha comportato un innalzamento della fluidità e della coerenza testuale, ma anche una crescente difficoltà nel distinguere il rigore dalla plausibilità retorica. In alcuni casi, come documentano gli studi, sono stati rilevati dati “allucinati”, riferimenti bibliografici fittizi, e soprattutto una standardizzazione delle argomentazioni che impoverisce la verifica epistemica.
Come ha scritto The Lancet in un suo editoriale del 2024: “l’adozione non regolamentata di strumenti generativi rischia di spingere la scienza verso una cultura della verosimiglianza, anziché della verifica.” Non si può immaginare una diagnosi più precisa. La lingua, se svuotata di attrito, di scarto, di errore, smette di essere uno strumento di ricerca e diventa uno specchio di quello che vogliamo sentirci dire.
Il problema non è solo linguistico: è etico, educativo, psicologico. La centralità che l’IA ha assunto nel quotidiano, nell’editoria, nella formazione e persino nell’informazione giornalistica, ridefinisce i confini tra verità e verosimile, tra intelligenza e automazione, tra sapere e opinione. L’intelligenza artificiale ci restituisce — lucidata e senza graffi — l’idea di un mondo in cui ogni parola trova il suo posto, ogni concetto si armonizza, ogni dubbio è un rumore da eliminare. Ma la conoscenza, quella vera, nasce proprio da questi rumori.
È necessario, oggi più che mai, un contro-discorso. Non per rifiutare la tecnologia, ma per riscoprire l’imperfezione come valore. Recuperare il linguaggio storto, esitante, laterale. Difendere il pensiero lento, l’errore fertile, la frase che inciampa. Se davvero i limiti del nostro linguaggio sono i limiti del nostro mondo, come scriveva Wittgenstein, allora la sfida del nostro tempo non è usare meglio l’IA, ma disinnescarne la grammatica interiore prima che si radichi nel nostro stesso modo di pensare.