La MENTE COME DOMINIO. Intelligenza artificiale, linguaggio e sovranità cognitiva.
🇬🇧 Cognitive warfare defines the emerging strategic domain in which power is exercised through the shaping of language, perception, and judgment rather than through territory or force. Drawing on Mario Caligiuri’s article published in Il Mattino, this analysis examines artificial intelligence as a strategic accelerator of cognitive vulnerabilities: linguistic impoverishment, binary reasoning, and the algorithmic exploitation of psychological bias. Within an Intelligence-oriented framework, data extraction, platform dominance, and surveillance capitalism are interpreted as mechanisms of cognitive sovereignty erosion. The core argument is that the challenge posed by AI is not technological, but strategic and anthropological: preserving linguistic depth, critical judgment, and cognitive autonomy has become a decisive dimension of national security.
🇮🇹 La guerra cognitiva configura un nuovo dominio strategico, nel quale il potere si esercita attraverso il controllo del linguaggio, della percezione e della capacità di giudizio più che mediante la forza o il territorio. A partire dall’articolo di Mario Caligiuri, pubblicato su Il Mattino, l’analisi interpreta l’intelligenza artificiale come acceleratore di vulnerabilità cognitive strutturali: impoverimento linguistico, binarizzazione del pensiero, sfruttamento algoritmico dei bias psicologici. Entro una cornice di Intelligence, l’estrazione dei dati, il dominio delle piattaforme e il capitalismo della sorveglianza vengono letti come fattori di erosione della sovranità cognitiva. La tesi centrale sostiene che la sfida dell’IA non è tecnologica, ma strategica e antropologica: preservare profondità linguistica, giudizio critico e autonomia cognitiva è oggi una componente essenziale della sicurezza nazionale.
La mente umana è un dominio strategico. Non in senso metaforico, né come suggestione teorica, ma come spazio in cui si esercitano potere, influenza e controllo. Nella contemporaneità, la competizione non si gioca più soltanto su territori, infrastrutture o capacità militari, bensì sulla capacità di orientare percezioni, linguaggi e processi decisionali.
Quando il potere agisce a questo livello, ogni tecnologia che incide sulla formazione del pensiero cessa di essere uno strumento neutro e assume una valenza tattico/operativa. È in questa cornice che si colloca l’articolo di Mario Caligiuri – presidente della Società Italiana di Intelligence e ordinario di Pedagogia della Comunicazione all’Università della Calabria – che pone il baricentro del dibattito sull’intelligenza artificiale.
Caligiuri sottrae l’IA alla retorica dell’innovazione per ricondurla alla sua dimensione prospettica. La questione non riguarda ciò che le macchine sono in grado di fare, ma ciò che l’uomo rischia di perdere: autonomia cognitiva, estensione linguistica, capacità di giudizio. In questa cornice, la mente non è più soltanto il luogo del pensiero, ma l’oggetto del contendere.
Muovendo dall’osservazione di Umberto Eco sulla frattura tra cultura della stampa e cultura digitale, Caligiuri individua un processo di binarizzazione del pensiero che non rappresenta un semplice mutamento identitario, bensì una vulnerabilità sistemica. Il richiamo wittgensteiniano – “i limiti del mio linguaggio significano i limiti del mio mondo” – assume così un valore effettivo: meno strumenti linguistici implicano minore capacità di analisi, dunque maggiore manipolabilità.
“Il campo di battaglia definitivo è diventato la mente delle persone”, ammonisce Caligiuri. L’affermazione impone una ridefinizione delle priorità di sicurezza. Non più soltanto la protezione di infrastrutture o segreti di Stato, ma la salvaguardia della capacità stessa di pensiero critico. La prospettiva di una connettività universale entro il 2030 comporta l’inevitabile: tutti collegati significa, di fatto, tutti osservati, e quindi potenzialmente tutti controllati.
Uno degli elementi rilevanti dell’analisi è l’abbandono di qualsiasi lettura dualistica. La manipolazione non è un’anomalia, è un dato strutturale delle società contemporanee, democratiche e autoritarie. Governi e multinazionali operano come attori centrali della disinformazione. L’enfasi su minacce esterne oscura la dimensione endogena del fenomeno. Gli esempi della politica italiana – dalla Piattaforma Rousseau alla Bestia di Morisi nelle elezioni del 2018 – mostrano che l’intelligenza artificiale applicata al consenso non è una proiezione ma una realtà.
Queste dinamiche affondano le radici in meccanismi cognitivi profondi.
La teoria della presunzione di onestà di Timothy Levine descrive la tendenza umana a valutare l’affidabilità sulla base di segnali superficiali. Sicurezza e disinvoltura generano fiducia, esitazione e incertezza producono sospetto. In ambiente digitale, questo bias non viene corretto: viene amplificato. Gli algoritmi hanno trasformato tali vulnerabilità in un processo industriale. Le tecniche di persuasione individuate da Robert Cialdini – autorevolezza, coerenza, simpatia, reciprocità, rarità, prova sociale – sono oggi automatizzate, scalate, personalizzate. La manipolazione perde il carattere artigianale e diventa pervasiva, permanente, invisibile.
Il thin slicing descritto da Malcolm Gladwell, così come la capacità predittiva di John Gottman, mostrano come il giudizio rapido costituisca un vantaggio evolutivo. In ambienti algoritmicamente mediati, però, questo stesso meccanismo diventa una debolezza strutturale. La binarizzazione del pensiero riduce la complessità decisionale e favorisce risposte emotive e orientabili.
Le recenti dichiarazioni di Elon Musk, sulla fine del lavoro umano e sull’introduzione di un reddito universale, sembrano confermare le preoccupazioni di Caligiuri: l’umanità, anche inattiva, continuerà a produrre valore attraverso i dati. La dataficazione dell’esistenza diventa così il principale meccanismo di estrazione di ricchezza, concentrata nelle mani di pochi attori globali. La promessa emancipatoria maschera una relazione estrattiva in cui la materia prima è l’intelligenza collettiva.
Dal punto di vista dell’Intelligence, emerge una questione di dipendenza.La sovranità si misura sempre più nella capacità di controllare i dati prodotti dalla popolazione. Cederne la gestione a entità private transnazionali equivale a rinunciare a una componente imprescindibile dell’autonomia decisionale. Il modello cinese ridistribuisce i proventi sacrificando le libertà individuali; quello occidentale preserva formalmente le libertà consentendo però un’estrazione senza ridistribuzione.
La proposta di utilizzare l’intelligenza artificiale come strumento educativo solleva un dilemma classico: chi controlla i controllori? Algoritmi progettati dagli stessi attori che oggi estraggono valore rischierebbero di produrre una manipolazione ancora più sofisticata. Il XXI secolo introduce una novità ulteriore: oligopoli privati sottratti a qualsiasi reale accountability democratica.
La sfida con l’intelligenza artificiale, come osserva Caligiuri, non sarà tecnologica ma umana.
Se la mente è divenuta un dominio, la sua difesa non può essere delegata. Preservare linguaggio, giudizio critico e autonomia di pensiero non è un target etico, bensì una esigenza di sicurezza.
La guerra cognitiva non si vince opponendosi alle macchine, ma mantenendo il controllo sul dominio che esse non possono abitare: la mente umana come spazio di decisione, responsabilità e libertà.

