L’INTELLIGENCE al tempo delle macchine pensanti
Come cambia la sicurezza quando il potere passa agli algoritmi? Lo spiega MARIO CALIGIURI, presidente della Società Italiana di Intelligence, nell’introduzione all’ultimo numero dei QUADERNI DI CYBER INTELLIGENCE, collana nata dalla collaborazione tra la rivista ICT Security Magazine e SOCINT.

Cosa accade quando la sicurezza nazionale non dipende più da arsenali controllati dagli Stati, ma da algoritmi sviluppati da aziende private? È una domanda scomoda ma inevitabile. Mario Caligiuri – presidente della Società Italiana di Intelligence e direttore del Master in Intelligence dell’Università della Calabria – la pone con estrema lucidità nell’introduzione all’ultimo numero dei Quaderni di Cyber Intelligence, collana nata dalla collaborazione tra ICT Security Magazine e SOCINT.
Il tema è AI Security, ma la prospettiva è culturale, perfino antropologica. Il volume parte da un’osservazione tanto semplice quanto destabilizzante: le armi nucleari appartengono agli Stati, l’IA ai privati. Questo scarto frantuma un paradigma consolidato. Per la prima volta nella storia moderna, il controllo di una tecnologia strategica sfugge alla logica della sovranità territoriale e si concentra nelle mani di soggetti che non rispondono a istanze democratiche.
Le conseguenze sono profonde. La deterrenza nucleare si fondava su equilibri tra potenze statali, ciascuna vincolata da una razionalità politica. L’IA, invece, si sviluppa in ambienti guidati da logiche di profitto e crescita esponenziale, difficilmente negoziabili. Gli Stati, oggi, non sono più interlocutori tra loro, ma comparse in uno scenario dominato da piattaforme globali.
Caligiuri riprende un concetto formulato da Norberto Bobbio ai tempi della guerra fredda: la “coscienza atomica”. Allora, la minaccia nucleare aveva generato una consapevolezza collettiva dei limiti invalicabili della potenza. Oggi, invece, manca una “coscienza algoritmica”. La società non percepisce l’IA come un rischio sistemico. Non esiste (ancora) un meccanismo di autoregolazione condiviso, né una cultura del limite.
Il settimo dei Quaderni di Cyber Intelligence lo dimostra attraverso una raccolta di contributi che spaziano dai sistemi generativi ai malware evoluti, dall’Intelligenza Artificiale “avversaria” al calcolo quantistico. Ne emerge una prospettiva caleidoscopica: le competenze tecniche avanzano, ma restano isolate. Manca una visione capace di orientarle.
Tema stimolante ma dedicato è l’AI Act europeo. Caligiuri ne riconosce il valore, ma ne denuncia l’inadeguatezza strutturale. Mentre l’Europa si impone vincoli etici, i suoi concorrenti globali procedono senza freni, trasformando la superiorità morale in svantaggio competitivo. A ciò si aggiunge un altro dato inquietante: l’assenza di grandi piattaforme digitali europee. Il continente regola ciò che non controlla, e non controlla ciò che lo determina. Praticamente l’istantanea di una dipendenza tecnologica che mette a rischio l’autonomia strategica.

Gli otto contributi raccolti nel volume offrono uno spaccato delle nuove minacce digitali. Il caso del malware DeepLocker è emblematico: si attiva solo in presenza di un bersaglio specifico, grazie al riconoscimento facciale. Non più virus indiscriminati, ma armi su misura, affilate come bisturi.
Un altro fronte è rappresentato dall’adversarial machine learning, la manipolazione dei dati di addestramento per sabotare gli algoritmi dall’interno. Un attacco silenzioso, che compromette la logica difensiva fin dalla sua origine.
In questo scenario, la sicurezza non è più un confine da difendere, ma un processo cognitivo da ripensare.
Caligiuri ricorda che viviamo in uno spazio 3D – fisico, digitale e ibrido – e questo impone un salto paradigmatico. Le categorie analogiche sono obsolete.
Come si valuta, dunque, l’affidabilità di una fonte “ibridata”? E come si distingue l’intenzione umana da quella algoritmica? Le domande sono aperte, ma la direzione è chiara: per continuare a raccogliere e interpretare informazioni, bisognerà ridefinire chi siamo, come pensiamo.
E – prima ancora – cosa intendiamo per “mente“.
Il cervello, più che sede della razionalità, è – come qualcuno ha scritto – una scintilla del fuoco che tiene in vita il cosmo. Non un semplice organo, ma un principio attivo che innerva ogni parte del corpo, contiene in sé la forza per agire, e si autoalimenta nel fare. Lo aveva intuito anche David Hume, quando nel Trattato sulla natura umana scriveva: “il pensiero è soltanto una piccola agitazione del cervello“.
L’introduzione di Caligiuri si chiude con una analisi urticante: le classi dirigenti occidentali non sembrano attrezzate per affrontare questa discontinuità. La governance democratica, fondata su cicli brevi e consenso immediato, fatica a gestire processi che richiedono visione di lungo periodo e scelte impopolari. La sfida dell’IA impone un pensiero strategico che le élite stentano a esercitare. Ma senza questo sforzo, il rischio è che siano le tecnologie – e non le istituzioni – a guidare il cambiamento. Urge alfabetizzare la società, per trasformare la paura in consapevolezza e l’inerzia in azione. Tentare di governare l’IA con strumenti del passato non basta più. È l’umano stesso che va difeso – e ripensato – di fronte alle macchine pensanti.