Intelligence, Michele Colajanni al Master dell’Università della Calabria: “Il metaverso sta fallendo, ma molti analisti di intelligence rischiano di essere sostituiti dall’intelligenza artificiale. Fin dove concedere autonomia decisionale all’intelligenza artificiale?”.
RENDE (30.3.2023) – “Profili di cyber intelligence nel mondo digitale: criticità e prospettive” è la lezione tenuta da Michele Colajanni, professore dell’Università “Alma Mater” di Bologna, al Master in Intelligence dell’ateneo di Arcavacata, diretto da Mario Caligiuri.
Il docente ha esaminato i principali elementi costitutivi della società digitale, sostenendo che la tanto discussa rivoluzione digitale si è di fatto conclusa poiché stiamo già vivendo nella società digitale. Questo passaggio richiede maggiore consapevolezza sulla posizione che occupiamo all’interno della società digitale ma, soprattutto, sulla direzione intrapresa. Ha affermato che “il mondo digitale è costituito a tutti i livelli da aziende private, che gestiscono la rete Internet e tutti i servizi ad essa collegati, con le conseguenze giuridiche e politiche del caso”.
Gli Internet Service Provider (ISP), un tempo rappresentati da aziende pubbliche – almeno in Europa -, sono oggi società private che agiscono a livello multinazionale su concessione statale, gestendo ciò che possiamo definire come un Autonomous System, che all’interno potrebbe utilizzare protocolli e regole private. Anche gli Internet Data Center, architravi della società digitale costituiti da “enormi campi di calcio ricolmi di rack di computer che offrono computazioni e storage di memoria” sono privati. Infine, la vasta gamma di servizi accessibili tramite Internet e il Web sono anch’essi erogati da aziende private secondo proprie regole che prendono il nome di Terms of Service. Queste condizioni di servizio sono presentate all’utente durante il processo di registrazione o di accesso al servizio. Richiedono l’accettazione esplicita e sono intenzionalmente lunghe e complesse, tanto da contenere termini legali e tecnicismi che possono essere difficili da comprendere per l’utente medio. Tuttavia, accettando tali condizioni, dobbiamo essere consapevoli che stiamo entrando in un’area privata e, pertanto, acconsentiamo a rispettare le politiche dell’azienda in termini di utilizzo dei propri servizi, il che può includere anche la raccolta di dati personali, il monitoraggio delle attività online,l’uso di algoritmi per la pubblicità mirata fino alla cessione del diritto di utilizzo di tutto ciò che postiamo.
“I Terms of Service sono la vera base giuridica del mondo digitale con cui il fornitore si assume il diritto di accesso, di sanzione e di esclusione come nel famoso caso di Trump” ha affermato Colajanni. Nel momento in cui tutte le infrastrutture e i servizi digitali sono gestiti da aziende private spesso multinazionali, le regole che governano il mondo digitale sono, in concreto, da loro stabilite. I governi e le autorità pubbliche hanno molte difficoltà a intervenire, limitandosi a un meccanismo sanzionatorio che riesce a impattare in modo limitato sui fondamentali. E, quando non si trova un accordo, i fornitori reagiscono con l’esclusione, come nel recente caso Meta vs. SIAE.
Tuttavia, ha sostenuto che “il mondo digitale non è solamente da demonizzare, ma presenta aspetti positivi come l’accesso a una maggiore quantità di informazioni libere -almeno per le democrazie- e la riduzione delle barriere sociali e spazio-temporali”. Al contempo abbiamo assistito a un cambiamento di valori, con l’immateriale che prevale sul materiale; il servizio sul possesso; la comodità sul tempo. Il professore ha quindi invitato a concentrarsi maggiormente “sull’importanza del tempo, quale unica vera risorsa non rinnovabile”. Del resto, tutte le aziende digitali ambiscono a monopolizzare il nostro tempo per incrementare il loro valore sul mercato azionario. E per fare ciò mirano a instaurare e potenziare unavera di dipendenza negli utenti con l’offerta di innumerevoliservizi sempre più piacevoli e coinvolgenti, non strettamente necessari, ma dei quali facciamo fatica a privarci anche per pigrizia e comodità.
Dunque, la dipendenza che tutti noi subiamo e non solo i giovani che spesso colpevolizziamo, non è un fenomeno casuale. Al contrario, è un’azione intenzionale che, di fatto, ci sottrae il tempo per perseguire prioritariamente i nostriprogetti personali.
Ha quindi affermato che “Se ci focalizziamo esclusivamente su velocità ed efficienza, non potremo mai competere con le macchine e con l’intelligenza artificiale che diventeranno sempre più performanti di noi, rendendo inevitabile la nostra sostituzione. Se i valori cardine della società digitale si limitano a questi aspetti, l’umanità rischia di diventare antiquata prima del previsto”.
Il professore ha proseguito parlando delle nuove tecnologie oggi più dirompenti, quali l’intelligenza artificiale, le nanotecnologie e la ricerca genetica. Sollecitato sulMetaverso, il professor Colajanni ha evidenziato che il Metaverso rappresenta un tentativo molto ambizioso da parte di Zuckerberg di creare una nuova piattaforma per riuscire a dominare gli aspetti più remunerativi del mondo digitale, dall’e-commerce al gioco online fino alla tipica acquisizione di dati personali basato sulla penetrazione pervasiva di ogni aspetto della nostra vita; vita che, in una visione definibile distopica, si sarebbe dovuta svolgere seduti comodamente in poltrona con un visore per la visualizzazione 3D e interagendo con il proprio avatar tra avatar e oggetti digitali. Gli utenti avrebbero potuto acquistare nuove risorse al fine dipersonalizzare i loro avatar e arredare le proprie case virtuali con rappresentazione di opere d’arte digitali. Questo tentativo – ha proseguito – ricorda “Second Life”, il progetto degli anni 2000 in cui si potevano commerciare terreni, case e isolevirtuali. Non sembra che il Metaverso di Zuckerberg stia avendo un successo migliore del già fallimentare “Second Life”. In effetti, l’unico servizio di successo come spazio virtuale è il digital gaming che giovani e meno giovani possono frequentare per molte ore come gamer o spettatori.Tuttavia, i fornitori di questi servizi non hanno bisogno del Metaverso e si son ben guardati dall’aderire. Non è un caso che anche Zuckerberg, dopo aver speso 15 miliardi senza ritorno dall’investimento, sembra che sia orientando a dirottare gli altri 85 previsti per il Metaverso verso l’IA per provare a competere con gli altri prodotti delle BigTech concorrenti: ChatGPT di Microsoft e Bard di Google.
Il tema fondamentale dell’intelligenza artificiale sta diventando sempre più presente nella nostra vita quotidiana. Ha illustrato come nel primo periodo l’obiettivo è stato di insegnare alle macchine a ragionare, senza grandi successi.Con un radicale cambio di paradigma, ci stiamo ora dedicando a insegnare alle macchine come apprendere, motivo per cui ci riferiamo a questo approccio come machine e deep learning: “L’apprendimento delle macchine si basa su due elementi fondamentali: un’enorme quantità di dati (il combustibile) e un’enorme potenza di calcolo (il motore), che prima non erano disponibili”. Poiché l’addestramento delle macchine e il conseguente comportamento sono basati sui dati, chi li possiede determina il futuro. È quindi fondamentale porre adesso l’attenzione sulla correttezza e sull’etica dell’uso dei dati, al fine di garantire la qualità delle informazioni utilizzate dalle macchine. Controlli che sono in principio molto validi, ma che non è e non sarà facile condurre in pratica.
Il famoso ChatGPT rappresenta un caso esemplare. Sviluppato dalla società OpenAI era, come da nome,inizialmente basata su algoritmi aperti. Adesso, con l’arrivo dimolti finanziamenti privati, gli algoritmi sono stati chiusi e non abbiamo alcuna informazione sulla base di quali dati sono stati addestrati. La possibilità di accesso a qualsiasi dato disponibile in rete da parte di ChatGPT (testo, immagini, video, suoni) e la contemporanea impossibilità di conoscere i dati utilizzati rappresenta un problema preoccupante da molteplici punti di vista etici e legali, non solo di privacy. “Achi appartengono i risultati di un addestramento basato sui nostri dati”. Molti artisti si lamentano e stanno provando a organizzare class action.
In seguito all’ultimo ingente finanziamento di 10 miliardi di dollari, Microsoft sta lavorando per integrare ChatGPT in molti dei propri applicativi. Ad esempio, si prevede che, al termine di una riunione su Teams come questa, OpenAI potràredigere automaticamente il verbale o una sintesi. Senza per ora raggiungere le capacità stilistiche del Prof. Caligiuri, non possiamo escludere che, addestrando ChaGPT con tutti i suoi scritti, non sarà facile distinguere i risultati in un prossimo futuro. Una simile sfida è stata condotta dal giornalista Rampini e riportata nell’articolo “Così ho perso la gara di scrittura con ChatGPT”.
“L’Europa – sostiene Colajanni – sta provando da tempo aelaborare un quadro normativo sull’intelligenza artificiale. Sulla base di quanto disponibile in bozza, le regole porterebbero a considerare “illegale” l’uso dei servizi diChatGPT. Credete veramente possibile che si riuscirà a fare l’enforcing di tali regole?”
“Ciò che sorprende non è tanto l’alto livello raggiunto dall’intelligenza artificiale quanto piuttosto la rapidità con cui ciò è avvenuto, dimostrando per l’ennesima volta l’evoluzione esponenziale della società digitale e non lineare tipica della società fisica”.
Il professore ha affermato che oggi è difficile prevedere se la situazione evolverà in modo distopico o utopico, ma è evidente che ci troviamo di fronte a due tendenze contrastanti: da un lato, la potenza dell’intelligenza artificiale che continua a migliorare esponenzialmente e, dall’altro, un mondo che cerca di adeguarsi linearmente a questa evoluzione. Poichél’intelligenza artificiale avrà un ruolo sempre più importante nella nostra vita, è fondamentale trovare un equilibrio tra l’autonomia decisionale delegata alle macchine e la conservazione del nostro spazio decisionale. Ciascuna persona, professionista e organizzazione dovrebbe poterscegliere il livello di autonomia decisionale che desidera preservare.
Oltre alla conservazione di uno spazio autonomo decisionale, il valore dell’umanità digitale sarà probabilmenterappresentato dalla capacità di stabilire relazioni con gli altri.È molto difficile, non impossibile, che le macchine potranno sostituire la nostra capacità di relazionarci in modo empatico con altri uomini, in uno scenario alla Blade Runner.
Tuttavia, di fronte all’avanzamento dell’intelligenza artificiale, Colajanni si è interrogato se ruoli come i professori, i professionisti o gli analisti di intelligence saranno ancora necessari. La sua conclusione è che “saranno tanto più rilevanti quanto più saranno in grado di sfruttare il vero valore distintivo dell’umanità: la relazione interpersonale”. Professori, professionisti, analisti dovranno imparare a utilizzare al meglio gli strumenti di intelligenza artificiale, ma poi aggiungere qualche caratteristica precipua della natura umana e che ChatGPT mi ha elencato come segue, dice il professore: apprendimento e adattabilità, narrazione, creatività e inventiva, dubbi e domande, emozioni e amore, libero arbitrio, linguaggio articolato, nozione e misura del tempo e dello spazio, progettualità tattica e strategica, razionalità e riflessione, senso del trascendente. “Con un po’ di ironia, ipotizzo, in quanto alcuni di queste caratteristiche sono già state acquisite da ChatGPT. Quindi, invece di tentare inutilmente di proibire queste tecnologie, sarebbe più saggio formare le persone per sfruttare l’IA e per arricchire i relativi prodotti”.
Probabilmente, il futuro vedrà un’integrazione dell’IA nella nostra vita quotidiana, ma dovremmo per ora considerare che“l’IA si basa su millenni di dati prodotti dalla conoscenza umana. Poiché ha imparato solo dal nostro patrimonio informativo, non produce nulla di nuovo, a meno di non ritenere nuovo la combinazione di informazioni passate”. Come nel film Matrix, in cui le macchine hanno avuto il sopravvento e si nutrono dell’energia vitale degli esseri umani, oggi noi stiamo alimentando l’IA con i nostri dati. D’altronde, ha proseguito, sono un po’ preoccupato in quanto siamo sempre più attratti dalla comodità e dal benessere; tuttavia, il rischio è di perdere il controllo umano e assumerci la responsabilità delle scelte a causa di questa facilità. La sfida è aperta e riguarda tutti. La tecnologia dovrebbe diventare un supporto collaborativo per migliorare il nostro lavoro senza, però, farci perdere la capacità di sforzarci e dubitare. Il deep fake ha raggiunto livelli sorprendenti, dimostrando come l’intelligenza artificiale possa essere utilizzata in modo negativo. Essendo soliti noi umani dare credito a ciò che vediamo, il deep fake mette in discussione la nostra percezione della realtà. Per affrontare questa sfida, dobbiamo imparare sia a essere più critici sia a investire nello sviluppo di algoritmi capaci di identificare e contrastare i deep fake, creando una sorta di competizione tra macchine per difendere la veridicità delle informazioni.
Ha poi concluso sostenendo che “ogni strumento digitale, qualsiasi esso sia, non è totalmente sotto il nostro controllo. La sfida è imparare a utilizzare gli strumenti digitali senza essere dominati da essi, e soprattutto senza attribuire valori etici o metafisici alla tecnologia. La scienza è a-morale o, come sosteneva Heidegger, la “Scienza non pensa”. Pertanto, abbiamo bisogno di una maggiore consapevolezza critica nei confronti di un’evoluzione che sta progredendo più rapidamente di quanto molti immaginano. Per cui evitiamo di utilizzare “Google Maps” anche per le nostre scelte di vita ma, al contrario, promuoviamo decisioni ponderate e lente che significa valorizzare gli aspetti migliori della nostra umanità”.
Comunicato stampa trasmesso dalla Direzione del Master in Intelligence dell’Università della Calabria.
Le foto utilizzate sono state fornite direttamente dal soggetto ritratto alla Direzione del Master in Intelligence oppure sono state prese da Internet e quindi valutate di pubblico dominio. Se i soggetti o gli autori avessero qualcosa in contrario alla pubblicazione lo possono segnalare all’indirizzo email coordinamento@socint.org e provvederemo prontamente alla rimozione delle immagini utilizzate.
Scopri tutte le notizie e pubblicazioni di SOCINT.