INTELLIGENZA ARTIFICIALE E SICUREZZA NAZIONALE
🇬🇧Generative artificial intelligence introduces a structural discontinuity in national security, redefining the relationship between technology, power, and decision-making. Building on the reflections of Mario Caligiuri, emerging from the interview conducted by Francesco Pungitore and published in Essere&Pensiero, this article examines the rise of cognitive competition as a new strategic domain, Europe’s technological dependency, the risks associated with algorithmic reliability, and the role of intangible assets and generational dynamics in shaping long-term resilience. In this context, sovereignty cannot be separated from a form of algorithmic autonomy and the enhancement of human critical capacity.
🇮🇹 L’intelligenza artificiale generativa introduce una discontinuità strutturale nella sicurezza nazionale, ridefinendo il rapporto tra tecnologia, potere e decisione. A partire dalle riflessioni di Mario Caligiuri, emerse nell’intervista rilasciata a Francesco Pungitore e pubblicata su Essere&Pensiero, analizziamo l’emergere della competizione cognitiva come nuovo dominio strategico, la dipendenza tecnologica europea, i rischi connessi all’affidabilità algoritmica e il ruolo degli asset immateriali e delle dinamiche generazionali nel determinare la resilienza di lungo periodo. In questo contesto, la sovranità non può prescindere da una forma di autonomia algoritmica e dalla valorizzazione della capacità critica umana.
L’accelerazione impressa dall’intelligenza artificiale generativa segna una frattura epistemologica nel modo in cui viene concepita la sicurezza nazionale. Le riflessioni di Mario Caligiuri, presidente della Società Italiana di Intelligence, offrono una chiave interpretativa che sposta il fuoco dal piano tecnologico a quello sistemico: a essere chiamata in causa non è solo l’innovazione, ma la tenuta delle architetture democratiche e dei processi decisionali. L’intervista rilasciata a Francesco Pungitore e pubblicata su Essere&Pensiero impone un cambio di paradigma negli interrogativi che l’Intelligence deve porsi: chi esercita il controllo sui processi decisionali mediati da algoritmi? Quali asset nazionali mantengono rilevanza in un ambiente informativo automatizzato? Come operare quando il ciclo della minaccia si minimizza fino a diventare quasi istantaneo?
Quando Caligiuri afferma che “la sfida non sarà tecnologica ma umana”, individua il terreno ultimo della competizione: la capacità di preservare autonomia cognitiva in un ecosistema informativo intermediato da sistemi artificiali. Questa prospettiva si colloca nel solco della dottrina NATO sulla cognitive warfare, che identifica nella mente umana un dominio operativo. Il report del Nato Strategic Communications Centre of Excellence sottolinea come l’evoluzione dell’ambiente informativo rappresenti una sfida per le democrazie. L’intelligenza artificiale e le piattaforme immersive modificano alla radice il rapporto tra cittadini, istituzioni e informazione, generando ambienti paralleli e personalizzati. La crescente influenza degli attori privati e le potenziali applicazioni delle neurotecnologie pongono rischi concreti alla fiducia pubblica e alla resilienza democratica, rendendo urgente per l’Europa trovare un equilibrio tra sviluppo tecnologico e regolazione etica.
L’assenza di piattaforme europee evidenzia non tanto – e non solo – un ritardo competitivo, ma una dipendenza che impatta sulla sicurezza nazionale. L’utilizzo di modelli sviluppati da attori extraeuropei implica, di fatto, la delega di segmenti della capacità analitica/decisionale a infrastrutture sottoposte a giurisdizioni straniere. Le normative extraterritoriali, già sperimentate in ambito cloud, rendono questa esposizione un fattore di rischio. La risposta europea si è concentrata prevalentemente sul piano prescrittivo, ma il tentativo di disciplinare un fenomeno in costante evoluzione evidenzia una vulnerabilità. Laddove il diritto opera per stabilizzazione, l’IA introduce una dinamica di trasformazione permanente: una asimmetria che può essere sfruttata da attori non vincolati da analoghi limiti normativi.
L’Italia, dal canto suo, sta rafforzando l’apparato di sicurezza digitale per rispondere alle nuove minacce ibride, tra sabotaggi informatici e cyberattacchi alle infrastrutture critiche. Il Governo ha riorganizzato il ruolo dei Servizi e punta alla sovranità digitale attraverso il rafforzamento della soft intelligence, affidando all’Agenzia per la Cybersicurezza Nazionale e al Dipartimento delle Informazioni per la Sicurezza la tutela della sicurezza nazionale anche in ambito digitale. Questo passaggio risponde a una necessità certificata dal World Economic Forum nel report Global Risks 2026: garantire la continuità operativa di reti elettriche, flussi finanziari e infrastrutture digitali, divenute vere e proprie aree di scontro.
L’individuazione di asset immateriali – cultura, storia, posizionamento geografico, capacità innovativa – riflette un mutamento nel concetto di potenza. Nell’economia algoritmica, il valore si concentra su ciò che è non replicabile. Il patrimonio culturale costituisce un archivio simbolico unico, ma al tempo stesso esposto a nuove forme di manipolazione: la produzione sintetica di contenuti può alterare narrazioni, saturare lo spazio informativo e ridefinire la percezione globale dell’identità nazionale. La dimensione mediterranea assume inoltre una rilevanza infrastrutturale crescente: i cavi sottomarini che attraversano l’area rappresentano nodi critici per il traffico dati globale, e il loro controllo, potenziato dall’IA, acquisisce un valore strategico primario.
L’esposizione precoce agli ambienti digitali introduce effetti di lungo periodo sulle capacità cognitive individuali. Il progressivo indebolimento del pensiero critico e della capacità di verifica autonoma configura una vulnerabilità sistemica. Dal punto di vista della sicurezza nazionale, si tratta di una minaccia a maturazione lenta: una popolazione meno capace di discernimento è strutturalmente più esposta a operazioni di influenza e disinformazione, con un conseguente indebolimento della resilienza cognitiva collettiva.
Come Caligiuri sottolinea, l’affidabilità dei sistemi di intelligenza artificiale è centrale nel ciclo dell’Intelligence. Le cosiddette “allucinazioni” e le tecniche di manipolazione introducono margini di errore difficilmente tracciabili. L’integrazione dell’IA nei processi analitici impone protocolli di validazione rigorosi e capacità di verifica elevate: il rischio non è soltanto l’errore, ma l’erosione della distinzione tra informazione autentica e costruzione artificiale. In questo quadro, la valorizzazione dell’intelligenza umana – dal giudizio in condizioni di incertezza alla comprensione del contesto fino alla capacità critica – resta un valore non negoziabile.
Caligiuri suggerisce alcune direttrici: sviluppare capacità di osservazione continua sull’evoluzione dell’IA, superando modelli analitici incompatibili con la velocità del fenomeno; considerare il sistema educativo come infrastruttura strategica, orientata alla formazione di competenze critiche e interdisciplinari; definire standard condivisi per la validazione dei sistemi AI impiegati in ambiti sensibili; rafforzare le capacità di Intelligence tecnologica per anticipare sviluppi e applicazioni dual-use. L’approccio normativo, se non accompagnato da capacità tecnologiche autonome, rischia di produrre dipendenza anziché sovranità.
Il mito di Prometeo continua a offrire una chiave interpretativa efficace. Il fuoco, simbolo di conoscenza e potere, rappresenta al tempo stesso progresso e rischio. Nel ciclo dell’Intelligence, l’IA amplifica ogni fase: accelera la raccolta, potenzia l’analisi, comprime i tempi decisionali. Ma introduce anche vulnerabilità nuove, legate alla sofisticazione dei dati, all’opacità dei modelli e alla dipendenza tecnologica. L’equilibrio non risiede nella demonizzazione dello strumento, ma nella qualità del giudizio: la tecnologia amplia le possibilità, ma non sostituisce la responsabilità.

