AI + I. L’Intelligenza Artificiale come rivelatore dei limiti e delle responsabilità dell’Intelligence
🇬🇧 In “AI + I” (Susil Edizioni), Mauro Castiello reframes AI not as a technological fix but as a mirror of Intelligence itself. Accelerated computation meets accelerated decision-making, revealing the pressures, biases, and limits of human judgment. AI becomes a cognitive amplifier, a tool for exploring hypotheses, not a substitute for responsibility. The book is a call to safeguard human discernment in hybrid ecosystems, where every decision carries epistemic, institutional, and democratic weight.
🇮🇹 In “AI + I” (Susil Edizioni), Mauro Castiello mostra che l’IA non è una mera soluzione tecnica, ma uno specchio dell’Intelligence. L’accelerazione dei processi decisionali mette in luce pressioni, bias e limiti del giudizio umano. L’IA diventa così un amplificatore cognitivo, uno strumento per esplorare ipotesi senza sostituire la responsabilità. Il libro invita a preservare il discernimento umano in ecosistemi ibridi, dove ogni decisione ha un peso epistemico, istituzionale e democratico.
Uno degli equivoci più persistenti nel dibattito sull’Intelligenza Artificiale applicata all’Intelligence consiste nel ritenere che la posta in gioco sia prevalentemente tecnologica. Mauro Castiello, autore di AI + I. Dagli agenti segreti agli agenti artificiali (Susil Edizioni) mostra, al contrario, come l’AI agisca da sensore, da dispositivo di stress cognitivo che porta a pelo d’acqua tensioni presenti nell’intelligence assai prima dell’avvento degli algoritmi. La questione non è se l’AI possa essere integrata nei processi di Intelligence, ma cosa questa integrazione dica della natura stessa dell’Intelligence come forma di conoscenza orientata all’azione.

Il volume si colloca in un passaggio storico segnato da un duplice schiacciamento: da un lato l’accelerazione tecnologica, che promette capacità computazionali sempre più pervasive; dall’altro l’accelerazione decisionale, che riduce tempi e spazi di riflessione nei processi di sicurezza. L’AI rischia così di essere assunta come soluzione neutra a problemi che sono invece tanto epistemici quanto politici. L’autore – già dirigente della Polizia di Stato e docente di Analisi criminale alla Scuola di Perfezionamento delle Forze di Polizia – rifiuta questa scorciatoia e sceglie un sentiero più esigente: interrogare simultaneamente AI e Intelligence, mettendole in tensione senza forzarne la convergenza.
La prima parte del libro svolge una funzione fondativa. L’IA viene ricondotta alla sua genealogia concettuale, mostrando come nasca dal tentativo di formalizzare il ragionamento, non di replicare l’esperienza umana nella sua complessità. Il richiamo ai limiti posti dai teoremi d’incompletezza di Gödel e dal problema della computabilità introduce un vincolo teorico che attraversa l’intero volume: ogni sistema artificiale opera all’interno di cornici formali chiuse, mentre l’intelligenza umana resta aperta all’interpretazione, alla revisione di senso/significato, all’ambiguità. Un approccio che, per certi versi, riporta alla memoria la Storia della civiltà europea di Umberto Eco muovendo un “pulviscolo di pensieri” che non sempre può essere domato.
In questo quadro si inserisce la rilettura critica del Test di Turing, che l’autore priva della sua aura leggendaria per mostrarne il limite: l’assenza della dimensione temporale. L’intelligenza, soprattutto quella rilevante per l’Intelligence, non si manifesta in una prestazione puntuale, ma nella continuità di giudizio, nella capacità di sostenere, correggere o abbandonare un’ipotesi lungo la catena decisionale. È una qualità che nessun sistema artificiale possiede e che non può essere simulata senza una supervisione umana consapevole.
La trattazione degli agenti artificiali e dei sistemi multi-agente utilizza un lessico che dialoga con quello dell’Intelligence: ambiente, percezione, azione, obiettivo. Ma è proprio qui che il testo introduce una diversificazione non negoziabile. L’agente artificiale agisce sempre in funzione di obiettivi assegnati; l’analista, invece, interpreta il contesto, attribuisce significato e risponde delle conseguenze. Questa asimmetria, spesso celata dagli aneddoti sull’autonomia dell’AI, costituisce uno dei punti teorici più solidi del volume. La proposta della Scientist AI si colloca proprio qui. L’AI viene concepita come strumento di esplorazione delle ipotesi, capace di ampliare il campo delle possibilità senza occupare lo spazio della decisione. Non un sostituto del giudizio, ma un megafono cognitivo.
In questa visione, la progettazione dell’AI incorpora scelte, priorità, assunzioni: diventa, dunque, un atto politico. Una consapevolezza tanto più necessaria se si considera la pressione cui sono sottoposte le aziende tecnologiche. Come evidenziato nel report Top Risks 2026 di Eurasia Group, la spesa globale per l’IA potrebbe superare i tremila miliardi di dollari entro il 2030, creando aspettative di rendimento che rischiano di spingere verso modelli di business aggressivi: dai partner AI addestrati su dati personali agli algoritmi che massimizzano l’engagement a scapito del benessere cognitivo. La proposta di Castiello rappresenta, in tale contesto, una resistenza a quella logica estrattiva che ha già caratterizzato i social media.
Nella seconda parte del volume, l’Intelligence emerge come pratica cognitiva orientata all’azione nell’incertezza: non elimina il rischio, lo governa. Ogni promessa di automatizzazione radicale equivale a una rimozione della responsabilità, non a un suo superamento. La rilettura del ciclo dell’Intelligence ne mostra la natura normativa e fragile: una costruzione esposta a interruzioni, distorsioni, pressioni organizzative e bias cognitivi. In questa dinamica imperfetta l’AI può mitigare alcuni limiti umani, ma ne introduce altri, spesso più insidiosi perché meno evidenti e percepibili.
Quando il testo mette in guardia dall’illusione di oggettività prodotta dall’algoritmo, tocca un nodo centrale: l’AI sposta a monte il giudizio, offuscando le assunzioni che lo orientano. In ambito Intelligence, dove la legittimità della decisione è parte della sua efficacia, l’appannamento rappresenta un problema istituzionale prima ancora che tecnologico. L’analisi dell’Intelligence di Polizia illumina questa tensione. Qui l’uso dell’AI incide sul rapporto tra sicurezza pubblica e diritti fondamentali. L’autore mostra come l’innovazione possa agire da moltiplicatore di distorsioni se non accompagnata da una solida cultura operativa e della responsabilità.
L’AI diventa così un banco di prova per la tenuta democratica delle istituzioni.
Nel suo complesso, Castiello – già autore di Reti criminali: social network analysis e criminal intelligence analysis : tecniche di contrasto a confronto (2015), Economia del Crimine Organizzato e politiche di contrasto (2020) – riconosce la necessità di utilizzare strumenti avanzati in contesti di complessità crescente, ma rifiuta l’idea che la tecnologia possa assolvere l’essere umano dal peso del giudizio. L’integrazione tra AI e Intelligence non è presentata come destino inevitabile, ma come scelta da governare consapevolmente.
E ora cosa resta? Resta una domanda che attraversa il volume come una linea di faglia: chi risponde delle decisioni in un ecosistema cognitivo sempre più ibrido?
Nel passaggio conclusivo, Castiello sposta il baricentro dal piano dell’analisi a quello del fondamento. L’integrazione tra intelligenza umana e sistemi artificiali non ridefinisce soltanto strumenti e processi, ma incide sull’identità stessa degli operatori della conoscenza, chiamati a confrontarsi con limiti e responsabilità non delegabili. L’AI emerge così non come superamento del giudizio umano, ma come dispositivo che ne espone fragilità e presupposti, imponendo una riflessione più esigente su ciò che può – e non può – essere automatizzato.
È in questa prospettiva che la riflessione finale dell’autore assume un valore dirimente:
«La costruzione di una nuova identità, non solo dell’analista ma degli operatori di tutti i settori della conoscenza, induce a riflettere sui limiti dell’AI e sugli esiti di una sua diffusione più capillare. L’intelligenza artificiale scuote le fondamenta della nostra cultura, ridefinendo visioni e percezioni, con innegabili vantaggi in tutti gli ambiti del sapere, ma anche con rischi di distorsioni e derive che solo in parte l’uomo può dominare con la sua capacità critica e conoscitiva. In questa rapidissima trasformazione, appare solida e intangibile soltanto la sfera emotiva e valoriale, ciò che realmente muove l’universo: l’amore e la fede, che non potranno mai trovare un sostituto nell’intelligenza artificiale. Su di essi, tuttavia, il dibattito è ancora in corso».
Amore e fede non funzionano qui come “generi di conforto”, ma come indicatori di un limite gnoseologico: ciò che non è formalizzabile né replicabile e che continua a fondare il senso della responsabilità. In un’epoca incline a delegare il pensiero alle macchine, AI + I ricorda che l’automazione del calcolo non coincide con quella del giudizio.
È in questo limite non automatizzabile che si misura, oggi, la qualità dell’Intelligence come forma di conoscenza responsabile.

