Il FUOCO DI PROMETEO e il lato oscuro dell’IA
🇬🇧 At a time when Artificial Intelligence is governed more by market dynamics than by institutional responsibility, Il fuoco di Prometeo edited by Mario Caligiuri (Rubbettino) interrogates the transformation of Intelligence in the algorithmic age, questioning whether human judgment, security and trust can still be preserved.
🇮🇹 In una fase in cui l’Intelligenza Artificiale è guidata più dalle dinamiche di mercato che da responsabilità istituzionali,Il fuoco di Prometeo a cura di Mario Caligiuri (Rubbettino), interroga la trasformazione dell’Intelligence nell’era algoritmica e la possibilità di preservare giudizio umano, sicurezza e fiducia.
Nei giorni scorsi è stato presentato Il fuoco di Prometeo. Intelligence e Intelligenza Artificiale, il volume curato da Mario Caligiuri per Rubbettino che riunisce i contributi di Paolo Benanti, Barbara Carfagna, Michele Colajanni, Gian Luca Foresti, Emanuele Frontoni, Donato Malerba, Paolo Messa, Domenico Talia. L’opera arriva in una fase in cui la governance dell’Intelligenza Artificiale manifesta una fragilità strutturale sempre più evidente, mentre la velocità dello sviluppo tecnologico supera la capacità delle istituzioni di esercitare un controllo effettivo.

Proprio a poche ore dalla presentazione, avvenuta il 30 dicembre, OpenAI ha avviato una ricerca pubblica per un responsabile della preparedness – figura incaricata di testare i modelli prima del lancio e stabilire se presentino rischi non perimetrabili – offrendo uno stipendio base di 555mila dollari annui. Il dato economico è meno rilevante di quello organizzativo: tre responsabili in due anni, nessuno rimasto in carica oltre dodici mesi. Come ha ammesso Sam Altman, si tratta di “un lavoro stressante”. La definizione è riduttiva. Ciò che emerge è un conflitto tra obiettivi di sicurezza e incentivi di mercato, reso esplicito dall’aggiornamento dell’aprile 2025 del Preparedness Framework, che consente di rivedere al ribasso i requisiti di sicurezza qualora concorrenti rilascino modelli ad alto rischio senza protezioni equivalenti. La sicurezza diventa così una variabile competitiva, non un vincolo.
Parallelamente, i dati del Pew Research Center pubblicati nell’ottobre 2025 restituiscono un quadro italiano segnato da ansia diffusa e bassa fiducia istituzionale. Il 50% della popolazione si dichiara più preoccupato che entusiasta rispetto alla diffusione dell’IA, ma solo il 37% affida al governo italiano la capacità di governarla, contro il 42% che ripone fiducia nell’Unione Europea. Il 33% di fiducia attribuito alla Cina non indica apertura, bensì assenza di riferimenti credibili. Il divario generazionale rafforza il quadro: la fascia d’età che occupa le posizioni decisionali mostra maggiore preoccupazione e minore alfabetizzazione tecnologica rispetto a quella che vive quotidianamente gli effetti dell’automazione.
Questo scenario conferma dinamiche già individuate da Theodor W. Adorno nella critica all’industria culturale: la progressiva eterodirezione dei bisogni e l’appiattimento del giudizio individuale sotto la pressione di apparati mediatici centralizzati. Nel contesto digitale contemporaneo, tali dinamiche si sono consolidate con la piattaformizzazione del web. Le infrastrutture digitali hanno abbattuto le barriere di accesso alla produzione culturale, ma hanno anche codificato linguaggi, formati e meccanismi di visibilità, concentrando potere economico e simbolico in poche entità sovranazionali.
Non esistono più utenti passivi. Ogni interazione diventa materia prima per modelli di business fondati sull’estrazione di valore dai dati. La distinzione tra produzione e diffusione dell’oggetto culturale si dissolve: nei media digitali il formato coincide con il messaggio. Anche l’Intelligence opera ormai all’interno di questa filiera, dove l’analisi delle fonti aperte non può prescindere dalla comprensione dei meccanismi algoritmici che determinano visibilità e rilevanza delle informazioni.
È in questo contesto che Il fuoco di Prometeo si colloca come strumento interpretativo. Il volume muove da un presupposto condiviso: l’Intelligenza Artificiale non è una tecnologia tra le altre, ma una trasformazione antropologica che impone un ripensamento del rapporto tra tecnica, potere e giudizio. I contributi affrontano nodi centrali del dibattito odierno: dall’algoretica all’IA simbiotica, dal controllo umano significativo alla necessità di sistemi spiegabili, fino alla concezione dell’Intelligence come funzione di alfabetizzazione collettiva.
Il modello di IA simbiotica proposto da Malerba, fondato sulla complementarità tra capacità computazionale e intuizione umana, presuppone trasparenza e verificabilità dei processi. Tuttavia, la trasparenza non è solo una questione tecnica, ma una scelta politica che incide sugli assetti di potere. Quando la sicurezza viene subordinata alla concorrenza, la spiegabilità tende a ridursi a opzione negoziabile. Analogamente, il controllo umano significativo teorizzato da Messa trova un banco di prova concreto nella difficoltà strutturale di trattenere figure responsabili della sicurezza: se il rischio viene esternalizzato su singoli individui anziché incorporato in processi istituzionali vincolanti, il controllo si riduce a formalità.

L’incremento rapido delle capacità offensive dei modelli, misurato attraverso simulazioni tecniche sempre più sofisticate, senza un corrispondente rafforzamento dei meccanismi di governance, giustifica le preoccupazioni espresse da Colajanni sulla necessità di una cultura della sicurezza che sia anche istituzionale. Il paradosso italiano, evidenziato dai dati Pew, mostra che senza fiducia nei soggetti regolatori la governance multilivello rischia di rimanere inefficace.
Non è casuale, in questo quadro, che l’Istituto Treccani abbia scelto “fiducia” come parola dell’anno 2025. La fiducia non è un valore astratto, ma una condizione operativa: senza fiducia nei processi decisionali e nelle istituzioni che li presidiano, nessuna governance può funzionare. La prospettiva dell’Intelligence come funzione di alfabetizzazione collettiva, richiamata da Carfagna, assume quindi una valenza strategica: decodificare le logiche algoritmiche, ridurre la frammentazione cognitiva, ricostruire le condizioni minime del giudizio critico.
Nelle conclusioni, Caligiuri evidenzia la centralità dell’umano,l’equilibrio necessario tra opportunità e rischio, l’urgenza educativa e il deficit di governance. Le direttrici proposte – Intelligence culturale, etica algoritmica condivisa, formazione continua, trasparenza procedurale, cooperazione internazionale – delineano una traiettoria realista per orientare la trasformazione in atto.
L’Intelligenza Artificiale non è più una promessa futura, ma una condizione presente. L’Intelligence che ignora gli strumenti algoritmici rischia l’irrilevanza; quella che li adotta senza ripensare il proprio statuto epistemologico rischia di diventare un ingranaggio di un’economia che ha piattaformizzato anche la produzione di senso.
La metafora prometeica non è retorica: come il fuoco segnò una cesura antropologica, l’IA rappresenta un punto di non ritorno. Il fuoco di Prometeo indica una direzione possibile. Resta da verificare se le istituzioni sapranno percorrerla prima che le dinamiche di mercato rendano inefficace ogni tentativo di governo consapevole.
Rivedi la presentazione al link https://www.dropbox.com/scl/fi/gf6pf0yximd62y112z6g9/20251230_182406.mp4?rlkey=mam7029vj20p0zd0p68swnlvi&e=1&st=8l6x2xz2&dl=

