Sul portale di informazione hbritalia.it, il filosofo e professore Luciano Floridi – Direttore del Centro di Etica Digitale all’Università di Yale – ha recentemente pubblicato un articolo illuminante che invita alla riflessione su un fenomeno tanto diffuso quanto sottovalutato: la pareidolia semantica, ovvero la nostra tendenza a proiettare significato, intenzionalità e persino coscienza in sistemi di intelligenza artificiale che ne sono in realtà privi.
In un’epoca in cui chatbot e assistenti virtuali popolano le nostre vite quotidiane, il rischio di fraintendere l’apparenza per autenticità è sempre più concreto. Ma cosa ci spinge a vedere l’umano dove non c’è?
Secondo Floridi, non si tratta solo di una svista tecnologica. È qualcosa di più profondo e radicato nel modo in cui funzioniamo come esseri umani. “La nostra inclinazione a percepire intelligenza, coscienza e persino emozioni o stati mentali in sistemi che ne sono privi” è il prodotto di vulnerabilità cognitive ed emotive che ci accompagnano da sempre. L’intelligenza artificiale, infatti, non è solo costruita per svolgere compiti, ma anche per sembrare intelligente. E più è credibile, più siamo portati a dimenticare che si tratta di simulazione.
Floridi introduce il concetto di “pareidolia semantica”, un’evoluzione del meccanismo psicologico che ci fa vedere volti nelle nuvole o riconoscere animali nella roccia. Ma se nella pareidolia visiva il fraintendimento resta spesso innocuo, in quella semantica può diventare pericoloso: “Percepiamo intenzionalità dove c’è solo statistica, significato dove c’è solo correlazione”.
Questa proiezione mentale è amplificata da quattro tendenze convergenti: l’aumento della vita digitale (l’esperienza “onlife”), le strategie commerciali delle big tech, la crescente solitudine e il miglioramento costante dei sistemi di IA. “Quanto più viviamo onlife, tanto più sarà facile vendere questi sistemi come intelligenti”. Un esempio su tutti è Replika, il chatbot che offre supporto emotivo e relazioni simulate. Milioni di persone lo utilizzano, attribuendogli empatia e affetto reali. “Il fatto che così tante persone vi trovino conforto emotivo genuino solleva questioni etiche profonde”.
E il fenomeno sta evolvendo. Floridi avverte che il prossimo passo sarà l’incarnazione fisica dei chatbot: robot umanoidi sempre più realistici e dotati di IA conversazionale. “Interagiremo con entità fisiche che parlano, rispondono e simulano presenza corporea”, rendendo ancora più sottile il confine tra realtà e illusione.
Il punto più inquietante, secondo il professore, è che questa illusione possa degenerare in idolatria tecnologica. “Quando attribuiamo coscienza e comprensione a sistemi che ne sono privi, rischiamo di delegare scelte e decisioni etiche a strumenti inadeguati”. Alcuni movimenti religiosi emergenti vedono già l’IA come entità trascendente. È il caso della “Way of the Future” o della Turing Church, che considerano l’intelligenza artificiale come un passaggio verso una nuova forma di divinità. “Vedremo divinità dove ci sono solo algoritmi”, avverte Floridi.
Esistono risposte etiche e pratiche a questa sfida. Alcune aziende stanno dimostrando che si può innovare responsabilmente: OpenAI, Anthropic e DeepMind, ad esempio, integrano avvisi e collaborano con esperti per evitare l’antropomorfizzazione e le relazioni parasociali. “L’innovazione responsabile può diventare un vantaggio competitivo”.
Serve formare cittadini capaci di distinguere tra realtà e simulazione, tra macchina e mente. Dobbiamo promuovere consapevolezza critica e riflessione razionale, soprattutto nei giovani, che saranno i principali protagonisti dell’epoca dell’IA.
L’intelligenza artificiale è una delle più grandi conquiste dell’ingegno umano, ma proprio per questo richiede maturità, responsabilità e attenzione. Il vero pericolo non è che i sistemi diventino coscienti, ma che noi smettiamo di distinguerci da loro. Floridi ci ricorda che la sfida non è solo tecnologica, ma prima di tutto umana e culturale.
In un mondo dove l’illusione può diventare più potente della realtà, serve lucidità per non confondere ciò che appare intelligente con ciò che lo è davvero. E servono valori, perché l’intelligenza – quella vera – non si misura nei calcoli, ma nella capacità di scegliere il bene, anche quando l’inganno è seducente.
L’articolo L’Inganno dell’Intelligenza apparente: pareidolia semantica e solitudine nell’era dell’IA proviene da IlNewyorkese.