L’interiorità violata: IA e sicurezza cognitiva degli analisti. Una nuova visione per la cultura democratica dell’Intelligence.
Analisi dello studio di Francesco Paolo Pinello Cultura democratica dell’Intelligence e della sicurezza, sociologia del profondo e analisi sociologica integrativa (SOCINT Press).
Che cosa accade quando l’Intelligenza Artificiale non si limita ad aiutarci a “vedere di più”, ma inizia a suggerirci “come vedere”? Quando non ci supporta nel pensiero, ma lo indirizza, lo condiziona, magari senza che ce ne accorgiamo? E soprattutto: cosa significa, in un contesto democratico, proteggere – al di là dei dati e delle infrastrutture – la capacità dell’uomo di pensare in modo autonomo?
Da qui nasce la riflessione di Francesco Paolo Pinello Cultura democratica dell’Intelligence e della sicurezza, sociologia del profondo e analisi sociologica integrativa – pubblicata da SOCINT Press sotto la direzione editoriale di Alice Felli – su come la profilazione psicometrica e l’automazione delle decisioni rischino di erodere quella zona intima che una volta chiamavamo giudizio. Oggi, parlare di sicurezza, significa anche questo: difendere le condizioni che rendono possibile il pensiero critico, non solo la raccolta e l’analisi delle informazioni.
Il contributo di Pinello – sociologo, criminologo, già avvocato, e cultore delle materie Sociologia Generale e Sociologia del diritto, della devianza, mutamento sociale e Criminologia all’Università degli Studi di Enna “Kore” – analizza il rapporto tra trasformazioni digitali e cultura democratica dell’Intelligence, con particolare attenzione al rischio che l’IA possa compromettere l’autonomia cognitiva degli analisti. Attraverso un approccio interdisciplinare che intreccia Sociologia, Scienze cognitive e Intelligence Studies, si propone una rilettura della sicurezza come protezione dei processi mentali.
Negli ultimi decenni, il campo degli Intelligence Studies ha acquisito crescente centralità anche nel nostro Paese, non solo come settore operativo, ma come ambito di riflessione scientifica. Il consolidarsi della supervisione parlamentare (a partire dalla legge n. 801/1977 fino alla riforma del 2007) ha segnato il passaggio da una cultura della segretezza a una cultura della trasparenza e della responsabilità istituzionale. In questo contesto, la digitalizzazione pone nuove sfide non più soltanto tecniche, ma cognitive.
L’IA, oltre a rappresentare un potenziale alleato operativo per l’Intelligence, introduce rischi sottili: la manipolazione dei processi decisionali attraverso la profilazione psicometrica e lo sfruttamento dei bias cognitivi. Questo scenario richiede una revisione delle tradizionali categorie analitiche e l’adozione di nuovi modelli epistemologici capaci di integrare scienze sociali, cognitive e tecnologiche.
L’evoluzione normativa dell’Intelligence in Italia, spesso letta come sequenza di riforme legislative, riflette un mutamento nella concezione stessa del potere informativo. La transizione da un’Intelligence governativa e militarizzata a un modello fondato sul controllo parlamentare segna una svolta epistemologica: l’Intelligence non è più solo “spionaggio”, ma parte viva della cultura democratica dello Stato.
Tre fasi storiche sintetizzano questo passaggio: pre-legislativa (fino al 1977) predominio dell’esecutivo, regolazione amministrativa; normativa (1977–2007) istituzione del controllo parlamentare, prime garanzie funzionali; della riforma sistemica (dal 2007) supervisione strutturata da parte del COPASIR, ridefinizione del perimetro operativo e culturale.
In particolare, l’art. 4 della L. 124/2007 introduce l’idea di promuovere una cultura della sicurezza, aprendo alla possibilità di una alfabetizzazione pubblica sui temi dell’intelligence.
Nel dibattito internazionale, l’impiego dell’IA in ambito informativo è ormai consolidato: riconoscimento di pattern nei big data, analisi satellitari, virtual HUMINT, automazione delle valutazioni strategiche. Tuttavia, la componente meno visibile ma più critica è il rischio che l’IA venga impiegata per influenzare – o addirittura sostituire – le capacità cognitive umane nella fase analitica.
Seguendo i modelli proposti da Daniel Kahneman (1934-2024) e Amos Tversky (1937-1996), pionieri della psicologia cognitiva, possiamo distinguere due modalità di pensiero: Sistema 1, veloce, intuitivo, soggetto a bias; Sistema 2: lento, riflessivo, razionale. L’IA, interagendo con il Sistema 1, può sfruttarne le vulnerabilità per indirizzare decisioni strategiche, anche senza manipolazioni apparenti. Questo implica che l’analista stesso – per definizione figura esperta e accorta – diventi bersaglio delle operazioni di influenza, trasformando le sue debolezze cognitive in vulnerabilità di sistema.
La trasformazione dell’utente in “prodotto” nelle logiche delle piattaforme digitali ha trovato una sponda inquietante nel contesto dell’Intelligence: tecniche sviluppate per la pubblicità comportamentale sono oggi impiegate per analizzare/orientare le disposizioni cognitive di soggetti ad alta intensità informativa. La profilazione psicometrica agisce su tratti della personalità (Big Five), pattern comportamentali impliciti, micro-espressioni e tracciamenti digitali. Questo tipo di manipolazione non ha più bisogno di convincere né di persuadere: opera in profondità, modellando gli ambienti informativi e le predisposizioni cognitive a monte delle scelte. L’interiorità dell’analista diventa dunque un nuovo fronte della sicurezza nazionale.
La Sociologia appare in difficoltà nell’interpretare questo nuovo scenario. Formata su un impianto teorico di stampo novecentesco – e raramente dialogante con le scienze cognitive – fatica a cogliere la portata delle minacce. In risposta, si propone un approccio che potremmo definire sociologia integrativa, capace di connettere le dimensioni culturali, tecnologiche e neurocognitive.
Il richiamo alla Cognitive Conference (La Jolla, 1978), come atto fondativo delle scienze cognitive, suggerisce che l’origine dell’IA e della cognizione computazionale deve essere letta anche in chiave geopolitica e militare: l’intelligenza – naturale o artificiale – è fin dall’inizio un oggetto strategico.
Il parallelismo con il sociologo Danilo Dolci (1924-1997) e la sua pratica della maieutica reciproca introduce una dimensione spesso trascurata: la difesa dell’interiorità. Se, come sostiene l’autore, le tecnologie digitali hanno già colonizzato e occupato le profondità psichiche dell’individuo, allora le strategie tradizionali di emancipazione – educazione, dialogo, riflessione – rischiano di risultare inefficaci.
Dolci lottava contro la povertà educativa; oggi la lotta si è spostata sul terreno della povertà cognitiva indotta. Il rischio non è solo l’ignoranza, ma l’illusione di sapere attraverso strumenti che plasmano il pensiero in modo automatico e preconfezionato.
A fronte di queste dinamiche, la proposta di Mario Caligiuri – professore ordinario all’Università della Calabria, presidente della Società Italiana di Intelligence, tra massimi esperti europei di Intelligence a livello accademico – assume un valore strategico: usare l’IA non per sostituire, ma per rafforzare l’intelligenza naturale. Gli algoritmi educativi non sono strumenti di paternalismo digitale, ma ambienti cognitivi progettati per stimolare il pensiero critico, la riflessività, la consapevolezza metacognitiva.
Si tratterebbe, in altre parole, di riconquistare le profondità occupate attraverso un nuovo umanesimo tecnologico, dove il sapere non sia appannaggio della macchina, ma frutto di una sinergia tra intelligenze – biologiche e artificiali – orientata al bene comune.
Difendere l’intelligenza naturale non significa, dunque, resistere all’innovazione tecnologica, ma riappropriarsi delle condizioni che rendono possibile un pensiero autonomo, critico e consapevole. Ecco perché, nella società dell’IA, l’Intelligence non può più essere solo raccolta e analisi ma deve diventare una pratica educativa e culturale, capace di garantire la resilienza cognitiva delle democrazie.