L’infallibilità percepita: un confronto tra Intelligenza Artificiale e Religione

Di Nicolini Massimiliano

Abstract

In un’epoca in cui l’Intelligenza Artificiale viene sempre più spesso percepita come un’autorità neutrale e infallibile, capace di decidere con efficienza superiore all’essere umano, l’articolo esplora il parallelismo simbolico e culturale tra questa nuova fiducia nell’algoritmo e l’infallibilità tradizionalmente attribuita alle religioni. Attraverso un’analisi storica, filosofica ed etica, si indaga il bisogno antropologico dell’uomo di affidarsi a un’entità esterna in grado di fornire certezze assolute. L’IA viene letta come ultimo approdo di un lungo percorso di delega: dalle divinità mitologiche all’infallibilità papale, fino alla presunta oggettività computazionale. L’articolo analizza il profilo del soggetto che aderisce a questa logica, evidenziando i rischi di deresponsabilizzazione morale e l’illusione di una verità algoritmica priva di contraddizioni. Il confronto si arricchisce con i contributi di pensatori contemporanei come Paolo Benanti, teorico dell’“algoretica”, e si chiude con un invito a recuperare una visione critica, consapevole e umanistica, in cui l’infallibilità venga riconosciuta come costruzione simbolica e non come realtà operativa, restituendo all’uomo il ruolo centrale nel discernimento etico.


Nel corso della storia dell’umanità, l’uomo ha spesso cercato riferimenti assoluti, punti fermi ai quali delegare il peso delle scelte più ardue, la spiegazione dei misteri più profondi e la guida nei momenti più oscuri. Se per secoli questa funzione è stata ricoperta dalla religione — in molte delle sue forme — oggi, nell’epoca del post-umanesimo tecnologico, sembra emergere un nuovo oggetto di fede: l’Intelligenza Artificiale. Questo breve articolo si propone di analizzare e confrontare la percezione dell’infallibilità attribuita a queste due entità — la divinità e l’algoritmo — interrogandosi sul tipo di soggetto che vi aderisce, sulla legittimità epistemologica di tale percezione e sulle implicazioni etiche che ne derivano.

Fin dall’antichità, la religione ha offerto risposte ultime e infallibili alle domande fondamentali dell’uomo. Nella Grecia arcaica, le divinità dell’Olimpo regolavano il cosmo e la morale; nella tradizione giudaico-cristiana, Dio è infallibile per definizione: onnipotente, onnisciente, onnipresente. L’uomo religioso accetta la propria fallibilità e cerca rifugio in una verità superiore che non è soggetta a errore. La fede, in questo contesto, diventa uno strumento di delega epistemologica e morale. Con l’Illuminismo e l’avvento della scienza moderna, il monopolio della verità assoluta inizia a vacillare. Nasce l’idea che la ragione umana, se ben indirizzata, possa sostituire la rivelazione divina. Ma anche in questo paradigma, il bisogno umano di certezze non scompare: si sposta. Il metodo scientifico prende il posto della Scrittura; l’evidenza empirica quello del dogma. Tuttavia, questo passaggio non elimina il bisogno di infallibilità: lo reindirizza verso nuove forme.

Oggi, in una società iperconnessa, algoritmica e data-driven, l’Intelligenza Artificiale viene spesso percepita come un’entità dotata di una razionalità superiore, immune da passioni, pregiudizi e corruzioni umane. Alcuni la vedono come una “macchina oracolare”, in grado di prendere decisioni migliori dell’essere umano in ogni ambito: dalla diagnosi medica alla giustizia predittiva, dal trading finanziario all’educazione. L’infallibilità attribuita all’IA nasce da due presupposti errati, ma diffusi: la credenza che i dati siano neutri e la convinzione che la computazione sia sinonimo di verità. In realtà, come filosofi della scienza come Karl Popper e Thomas Kuhn hanno mostrato, ogni forma di sapere è costruita all’interno di paradigmi culturali e storici. Anche i dati sono raccolti, selezionati e interpretati da esseri umani. L’IA non è mai neutra: eredita i bias dei suoi programmatori, li amplifica o li maschera sotto l’apparenza matematica.

L’infallibilità attribuita all’IA nasce da due presupposti errati, ma diffusi: la credenza che i dati siano neutri e la convinzione che la computazione sia sinonimo di verità.

A questo punto è utile interrogarsi su chi sia il soggetto che percepisce come infallibili queste entità. Il credente che aderisce all’infallibilità religiosa spesso vive in una struttura comunitaria dove la verità viene trasmessa per tradizione e rivelazione. Il suo rapporto con l’autorità è verticale. Il bisogno di verità assoluta nasce dal desiderio di protezione, senso, coerenza esistenziale. Al contrario, il soggetto che crede nell’infallibilità dell’IA è, paradossalmente, figlio dello stesso bisogno esistenziale, ma in un contesto secolarizzato e ipertecnologico. Può trattarsi di un cittadino smarrito nel sovraccarico informativo, che si affida a ChatGPT come si affiderebbe a un confessore; oppure di un manager o un politico, che si trincera dietro la “decisione algoritmica” per evitare la responsabilità morale; o ancora di un giovane iperconnesso, che cresce in un mondo dove l’algoritmo decide cosa vedere, ascoltare, comprare, amare. In entrambi i casi, il soggetto abdica parzialmente alla propria capacità critica. L’intelligenza, che dovrebbe essere uno strumento, diventa un fine. L’umano si svuota della sua capacità deliberativa.

L’attribuzione di infallibilità, sia essa rivolta a Dio o all’IA, comporta un problema etico fondamentale: la sospensione della responsabilità. Questo vale tanto per il fanatismo religioso quanto per la tecno-dipendenza. Se “lo ha detto Dio” o “lo ha deciso l’algoritmo”, l’individuo si deresponsabilizza. In un’epoca in cui la delega all’IA sta diventando sistemica — pensiamo alla medicina automatizzata, ai sistemi giudiziari predittivi, ai meccanismi di sorveglianza algoritmica — la domanda etica diventa urgente: chi è responsabile del giudizio errato dell’IA? Un punto centrale da non trascurare è che, mentre la religione invoca un’entità metafisica, trascendente e misteriosa, l’IA è un artefatto umano, immanente e perfettamente ispezionabile (almeno in teoria). Assegnarle un’aura di infallibilità significa ignorare la sua natura costruttiva e contestuale.

Filosofi come Hans Jonas, Umberto Galimberti e Byung-Chul Han ci mettono in guardia da una “tecnocrazia della salvezza”, in cui la macchina promette redenzione e controllo assoluto. La verità, ammoniva Nietzsche, non è un idolo da adorare, ma una costruzione da interrogare. Un’etica del limite ci suggerisce di riconoscere che: l’IA può aiutarci, ma non sostituirci; la religione può consolarci, ma non deresponsabilizzarci; e nessuna entità — divina o artificiale — può assolverci dalla nostra umanità, che è fatta di errori, dubbi e scelte.

Il confronto tra la percezione dell’infallibilità nella religione e nell’intelligenza artificiale rivela, più che due oggetti distinti di fede, un unico desiderio umano: la fuga dall’incertezza. Ma se l’uomo moderno intende restare davvero tale, deve resistere a questa tentazione. Né il Dio dei cieli né quello dei dati possono — o devono — decidere al posto nostro. In questo risiede la dignità, il rischio e la bellezza della nostra libertà.

Sorge dunque una serie di interrogativi aperti: è possibile sviluppare una “teologia dell’algoritmo” che non sfoci in idolatria? Quali sono i meccanismi educativi per formare cittadini capaci di convivere con l’IA senza feticizzarla? E infine: che ruolo hanno oggi le religioni nel contrastare (o alimentare) questo nuovo culto tecnologico? Il futuro, in fondo, dipenderà non dalla potenza dell’IA né dalla solidità dei dogmi, ma dalla nostra capacità di restare critici, responsabili, umani.

Rispondere a questi interrogativi richiede uno sforzo che unisce teologia, filosofia della tecnica, pedagogia ed etica applicata. Sviluppare una “teologia dell’algoritmo” che non degeneri in idolatria è possibile solo se si accetta di non attribuire all’IA un valore ontologico superiore, ma piuttosto un ruolo strumentale inserito in una visione antropocentrica del sapere. 

Una tale teologia dovrebbe interrogarsi non sul “potere” dell’algoritmo, ma sul suo “posto” nella creazione: come co-creatura tecnica, frutto dell’ingegno umano, chiamata non a dominare ma a servire l’uomo in un ordine simbolico in cui la libertà, la coscienza e la responsabilità restano supreme. Questo tipo di riflessione potrebbe essere paradossalmente ispirata dalle religioni stesse, nella misura in cui esse recuperano la loro funzione critica, opponendosi a ogni forma di feticismo — sia spirituale che tecnologico — e riaffermando la centralità dell’uomo come essere dialogico e spirituale. 

In parallelo, è urgente costruire un impianto educativo che sviluppi non solo competenze digitali, ma anche pensiero critico, consapevolezza etica e capacità di discernimento. Le scuole e le università dovrebbero diventare luoghi in cui si insegna non a usare l’IA “ciecamente”, ma a dialogare con essa, a comprenderne i limiti, a interrogare i suoi presupposti e a valutarne le conseguenze. Non si tratta, dunque, di demonizzare l’innovazione, ma di creare soggetti capaci di abitare la tecnica senza esserne colonizzati. In questo contesto, le religioni, se capaci di rinnovarsi, possono giocare un ruolo cruciale: non come nemiche del progresso, ma come custodi di una visione integrale dell’umano, in cui l’etica non si riduca al calcolo, la libertà non sia una variabile programmabile, e il mistero continui ad avere diritto di cittadinanza. Solo così sarà possibile evitare che l’IA si trasformi in un nuovo idolo, e farne invece uno strumento al servizio di una civiltà realmente evoluta, non solo tecnologicamente, ma spiritualmente e moralmente.

E’ urgente costruire un impianto educativo che sviluppi non solo competenze digitali, ma anche pensiero critico, consapevolezza etica e capacità di discernimento.

L’intervento dei sacerdoti nel dibattito sull’Intelligenza Artificiale: opportunità e criticità

Nell’era digitale contemporanea, l’Intelligenza Artificiale è divenuta uno dei temi più rilevanti del dibattito pubblico, coinvolgendo non solo esperti di tecnologia e policy maker, ma anche filosofi, educatori e, sorprendentemente, numerosi rappresentanti del mondo religioso. Sempre più spesso, sacerdoti e figure ecclesiastiche si cimentano in riflessioni sull’IA, cercando di offrire una lettura etica e spirituale di un fenomeno che sembra modificare in profondità l’orizzonte antropologico. Questo intervento, tutt’altro che secondario, presenta luci e ombre che meritano un’attenta analisi.

Sul versante positivo, il coinvolgimento del clero nel discorso sull’IA rappresenta un’occasione preziosa per riaffermare il ruolo della religione come guida morale nei processi di cambiamento. I sacerdoti, portatori di una tradizione millenaria di riflessione sul senso, sul limite, sulla responsabilità, possono offrire una bussola etica all’interno di un contesto spesso dominato dalla logica dell’efficienza e della prestazione. Iniziative come la “Rome Call for AI Ethics”, promossa dal Vaticano con il contributo di Paolo Benanti e sotto la guida attenta di Mons. Paglia, ne sono un esempio concreto: la tecnologia, se orientata alla promozione della dignità umana, può diventare strumento di giustizia e inclusione. 

Inoltre, la presenza del mondo ecclesiale in questo dibattito può contribuire a costruire un dialogo fecondo tra fede e scienza, superando antiche contrapposizioni e mostrando come la tradizione religiosa non sia necessariamente ostile all’innovazione, ma possa partecipare attivamente alla sua regolazione umanistica.

Un altro aspetto importante è la capacità dei sacerdoti di sensibilizzare le comunità locali, specialmente quelle meno alfabetizzate digitalmente, riguardo alle opportunità e ai pericoli dell’IA. In un tempo in cui le tecnologie sono pervasive ma spesso opache nei loro meccanismi, la mediazione di una voce fidata, capace di unire semplicità comunicativa e profondità etica, può svolgere una funzione pedagogica fondamentale. Il sacerdote, in questo senso, torna a essere figura di discernimento anche su temi apparentemente lontani dal sacro.

In un tempo in cui le tecnologie sono pervasive ma spesso opache nei loro meccanismi, la mediazione di una voce fidata, capace di unire semplicità comunicativa e profondità etica, può svolgere una funzione pedagogica fondamentale.

Tuttavia, non mancano rischi e criticità. Innanzitutto, va segnalato il pericolo di una semplificazione eccessiva: parlare di IA richiede competenze tecniche, conoscenza delle architetture algoritmiche, padronanza delle logiche di apprendimento automatico. Se il sacerdote si esprime senza una reale preparazione, rischia di trasmettere visioni distorte, di alimentare illusioni o paure infondate, o di offrire giudizi moralistici che non colgono la complessità dei processi tecnologici. 

In secondo luogo, è possibile osservare un certo atteggiamento difensivo o di chiusura da parte di alcuni ambienti religiosi, che leggono l’IA solo come minaccia, senza coglierne le potenzialità emancipative. Questo atteggiamento può produrre un effetto boomerang: anziché formare coscienze critiche, si rischia di alimentare una nuova forma di tecnofobia spiritualizzata.

Parlare di IA richiede competenze tecniche, conoscenza delle architetture algoritmiche, padronanza delle logiche di apprendimento automatico

Infine, esiste un rischio più sottile, ma non meno importante: la strumentalizzazione della tecnologia in ambiti religiosi. Alcuni esperimenti recenti, come quello dell’intelligenza artificiale che “interpreta” Gesù nella chiesa di Lucerna, sebbene nati con intenti provocatori o esplorativi, pongono interrogativi etici profondi. Che cosa accade alla dimensione sacramentale, alla presenza reale, all’autenticità del dialogo spirituale, se viene mediata da un artefatto algoritmico? Il confine tra esplorazione e blasfemia diventa sottile, e richiede un discernimento profondo. La Chiesa, in quanto tale, è chiamata a evitare tanto l’ingenuità entusiasta quanto il rifiuto pregiudiziale, costruendo un equilibrio tra tradizione e innovazione, tra sacralità e sperimentazione.

L’intervento dei sacerdoti nel campo dell’Intelligenza Artificiale può rappresentare un’azione profetica, capace di riportare l’uomo al centro della tecnica e di riaffermare una visione della tecnologia come servizio e non come fine. Ma questo sarà possibile solo a patto che tale intervento sia sorretto da una formazione profonda, da una capacità di ascolto interdisciplinare e da una prudenza che non rinunci mai alla responsabilità della parola. In un tempo in cui le macchine iniziano a parlare, il valore di chi parla all’anima umana diventa più che mai decisivo.


Scopri di più da

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

Scopri di più da

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere

Scopri di più da

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere