mercoledì 11 febbraio 2026

L’illusione di sapere: intelligenza artificiale, dialogo e responsabilità del pensiero


C’è una domanda che ritorna con ostinazione quasi rituale ogni volta che si parla di intelligenza artificiale: l’IA è creativa come un essere umano? È una domanda che rassicura chi la pone, ma che dice molto poco su ciò che sta realmente accadendo. Serve a ribadire una frontiera simbolica, a tracciare un confine identitario più che a comprendere un fenomeno. Nel frattempo, però, il terreno sotto i piedi del sapere si è già spostato altrove.

La creatività, se liberata dalle incrostazioni romantiche che la circondano, non è mai un atto puro, originario, incontaminato. Non nasce dal vuoto. È sempre il risultato di una rielaborazione: di linguaggi già appresi, di immagini sedimentate, di concetti ricevuti, di esperienze attraversate. Anche il gesto più innovativo è un montaggio, un taglio, una deviazione. Pensare che l’umano crei “dal nulla” è una narrazione consolatoria, non un dato epistemologico. In questo senso, l’idea che nuove configurazioni di senso possano emergere anche da un sistema artificiale che lavora su conoscenze apprese non è uno scandalo: è una conseguenza logica.

Il punto, semmai, è un altro. L’intelligenza artificiale non è un soggetto creativo, ma uno strumento interattivo inscritto in una situazione comunicativa dialogica. Non pensa, non intende, non desidera. Risponde. E risponde sempre a partire da una sollecitazione umana, da una domanda, da un contesto, da un orizzonte implicito di senso. Senza questa relazione, l’IA non produce conoscenza, ma una sequenza linguistica priva di direzione, una verbosità senza mondo. La sua intelligenza non è autonoma, è relazionale. Esiste solo nell’incontro.

È per questo che il paragone con il dialogo con un esperto umano è più pertinente di quanto si ammetta. Anche lì, il sapere non viene trasferito come un oggetto neutro. Viene costruito nella relazione, attraverso il linguaggio, le metafore, i limiti di chi parla e di chi ascolta. L’esperto non è mai un oracolo e l’interlocutore non è mai passivo. La conoscenza nasce nel mezzo, non in uno dei due poli. L’intelligenza artificiale non modifica la struttura profonda di questo processo: ne altera la scala, la velocità, la disponibilità, e soprattutto la percezione di autorevolezza.

Ed è qui che si apre una frattura decisiva. L’IA restituisce il sapere in una forma liscia, coerente, apparentemente priva di attriti. Ma questa coerenza non è sinonimo di verità. È spesso il risultato di una plausibilità statistica, di una media tra enunciati già pronunciati. Il rischio non è che la macchina “sbagli”, ma che la sua fluidità venga scambiata per fondamento, l’eleganza del discorso per profondità del pensiero. L’accesso immediato all’informazione prende il posto della comprensione, e la risposta rapida sostituisce l’esperienza del problema.

Lo stesso equivoco attraversa il dibattito sui pregiudizi cognitivi. Attribuirli all’intelligenza artificiale come se fossero un suo vizio intrinseco significa ignorare la loro origine. I bias non nascono nei chatbot: abitano da sempre la mente umana. Sono strutture profonde del nostro modo di organizzare il mondo. Se li ritroviamo amplificati nelle risposte di un sistema artificiale è perché li abbiamo già immessi noi nei dati, nei linguaggi, nelle narrazioni dominanti. L’IA non inventa i nostri pregiudizi: li riflette, li rende visibili, talvolta li estremizza.

L’idea che una fonte umana sia per definizione più critica, più affidabile o più “vera” è un’altra illusione rassicurante. Anche l’umano seleziona, omette, semplifica. Anche l’esperto parla da una posizione situata, attraversata da ideologie, abitudini cognitive, affetti. In questo senso, l’intelligenza artificiale funziona come uno specchio spietato: restituisce il nostro stesso modo di pensare senza la maschera dell’intenzione o della buona fede.

La questione decisiva, allora, non è se l’IA sia creativa, intelligente o pericolosa. La vera posta in gioco è se siamo disposti a riconoscere il nostro ruolo all’interno del processo conoscitivo che essa innesca. Il rischio più serio non è la delega tecnica, ma la delega epistemica: l’idea che il pensare possa essere esternalizzato senza perdita, che il giudizio possa essere sospeso, che la responsabilità della comprensione possa essere trasferita altrove.

È qui che l’“io so di sapere” assume il suo significato più inquietante. Non è più l’ammissione socratica di un limite che apre alla ricerca, ma una formula di autolegittimazione: so perché qualcuno – o qualcosa – mi ha fornito una risposta ben costruita. In questo slittamento silenzioso, il sapere smette di essere un’esperienza trasformativa e diventa un consumo. E forse è proprio questo, più di ogni altra cosa, il vero nodo epistemico dell’era delle intelligenze artificiali.

Nessun commento:

Posta un commento