Intelligence, Domenico Talia al Master dell’Università della Calabria: “Gli algoritmi stanno colonizzando il mondo”.
RENDE (8.3.2024) – “Algoritmi, Dati e Democrazia” è la lezione tenuta da Domenico Talia, professore ordinario di sistemi di elaborazione delle informazioni l’Università della Calabria e Vice-Presidente della Società Italiana di Intelligence, al Master in Intelligence dell’Università della Calabria diretto da Mario Caligiuri.
Talia ha iniziato partendo dagli aspetti legati all’organizzazione e al funzionamento della società contemporanea, analizzando come essi siano influenzati da Dati, Algoritmi, Intelligenza Artificiale.
Tutte queste tecnologie informatiche ai nostri tempi stanno avendo uno sviluppo molto veloce e, nel contempo, condizionano un po’ la vita di tutti noi.
Si discute sulla diversità delle varie forme di intelligenza presenti nel mondo, quali l’intelligenza umana, animale, vegetale e l’intelligenza artificiale, la quale rappresenta una nuova forma di intelligenza che può superare le altre.
Il relatore ha evidenziato la necessità di imparare a collaborare con le macchine per affrontare la sfida della convivenza con l’Intelligenza Artificiale.
In riferimento a tale ambito, il docente ha introdotto il concetto di algoritmo, come sequenza di passaggi operativi utilizzati per risolvere un problema, o per calcolare un risultato.
Gli algoritmi sono stati utilizzati dall’umanità millenni fa, ma sono diventati famosi con l’avvento dei primi calcolatori elettronici; essi consistono in una procedura ben definita che trasforma i dati di input in output, cioè i dati in ingresso in risultati, entro un tempo finito.
Alla domanda: “la forza del calcolatore qual è”? Si può rispondere che essa consista nella capacità della macchina di eseguire gli algoritmi molto più velocemente di noi umani, e di farlo continuamente, cioè migliaia di volte, senza mai stancarsi (velocità e ripetitività).
Il Professore ha fatto un breve excursus sull’evoluzione dei computer che ha portato alla nascita di Internet nel 1969 (negli Stati Uniti) e del Web nel 1991 (al CERN di Ginevra).
L’iPhone del 2007 ha introdotto il touch screen e il concetto di smartphone, mentre il GPT3 del 2020 è un grande passo nell’Intelligenza Artificiale, in quanto è il prodotto di un’Intelligenza Artificiale Generativa che è capace di dialogare con noi nel nostro stesso linguaggio: in altre parole, si può affermare che il computer dialoghi con noi.
In relazione all’importanza dei dati e alla compravendita di informazioni sensibili, il relatore si è soffermato, in modo particolare, sul ruolo cruciale degli algoritmi nel filtrare e manipolare le informazioni che riceviamo attraverso i dispositivi digitali, con esempi come Facebook, Instagram, Youtube e le altre piattaforme social.
La problematica dell’accesso ai dati viene citata, con riferimento a un embargo imposto dagli Stati Uniti nei confronti della Cina per limitare la vendita illegale di dati, che ne ha ben evidenziato il ruolo strategico nella geopolitica mondiale.
Il docente ha quindi messo in luce come le decisioni di pochi programmatori possano influenzare la vita di miliardi di persone, concetto significativamente descritto dalle parole di Luigi Zingales: “20 programmatori di Google influenzano la vita di due miliardi di persone ogni giorno”.
Di estremo interesse il confronto su come i sistemi di Intelligenza Artificiale e Generativa, tra i quali OpenAI e ChatGPT, stiano dominando le nostre vite, facendo cose impossibili solo da immaginare ed in tempi davvero sbalorditivi, oltre che permettendoci di raggiungere risultati, fino a pochi anni fa, impensabili.
Talia ha proseguito facendo la distinzione tra Intelligenza Artificiale Forte o Generale, che mira a replicare l’intelligenza umana, e Intelligenza Artificiale Debole o Specifica, che si concentra su specifici compiti intellettuali. Attualmente, siamo principalmente nell’ambito dell’Intelligenza Artificiale Debole, con sistemi in grado di svolgere compiti specifici come il riconoscimento di immagini o la diagnosi di malattie.
La storia dell’Intelligenza Artificiale inizia durante la seconda guerra mondiale, nel 1943, con gli studi di Turing e altri scienziati americani come John Von Neumann, McCulloch e Pitts. Il termine “Intelligenza Artificiale” nasce nel 1956 durante un convegno negli Stati Uniti. Ci sono stati alti e bassi nella ricerca di questo settore, ma negli ultimi anni si sono ottenuti grandi successi con l’utilizzo del Machine Learning (apprendimento automatico) e del Deep Learning (apprendimento profondo). Gli algoritmi di Machine Learning imparano da grandi quantità di dati, simili al modo in cui i bambini apprendono dall’esperienza.
Nel settore del Deep Learning, gli algoritmi cercano di simulare il funzionamento del cervello umano per risolvere problemi che richiedono intelligenza. L’Intelligenza Artificiale attualmente si basa principalmente su questi due ambiti, con sistemi come ChatGPT che utilizzano algoritmi di Deep Learning per dialogare con gli esseri umani. Gli algoritmi di Machine Learning apprendono dalle esperienze e, una volta addestrati con grandi quantità di dati, sono in grado di riconoscere e identificare diverse immagini, come ad esempio distinguere una persona da un animale o un’automobile.
Tra gli algoritmi di Deep Learning, basati su reti neurali artificiali, vi sono ad esempio quelli utilizzati per il riconoscimento di immagini.
Un altro settore molto importante è quello della Sentiment Analysis, che di fatto non vuol dire l’analisi del sentimento ma, l’analisi delle preferenze commerciali delle persone.
Il docente ribadisce che questi algoritmi si configurano in base ai dati forniti, possono prendere decisioni basate sull’esperienza acquisita e trovano applicazioni in diversi settori, come quello commerciale e militare.
Il relatore ha descritto il problema di non intelligibilità, di non trasparenza e della difficoltà di controllo degli algoritmi di Machine Learning, in particolare nel Deep Learning, che sono utilizzati in vari settori critici come il traffico, la medicina e il militare. Questi algoritmi spesso funzionano bene, ma non si sa perché e quando sbagliano non si sa neanche il motivo dell’errore. Questa mancanza di trasparenza è un problema, tanto che l’Unione Europea ha approvato leggi che ne limita l’uso. Alcuni algoritmi di Machine Learning forniscono una spiegazione delle decisioni prese, ma quelli di Deep Learning non possono essere usati in processi decisionali critici, a meno che non si riesca a renderli leggibili.
Due esempi vengono citati dal Professore per descrivere il problema dei possibili errori che possono commettere gli algoritmi di Deep Learning. Uno è il caso di Robert Williams, arrestato erroneamente per rapina a Detroit nel 2019 a causa di un algoritmo di riconoscimento facciale, che tendeva a identificare più facilmente volti di afroamericani e asiatici. Il secondo caso, relativamente meno grave, ha riguardato il caso di un algoritmo che confondeva lupi e cani a causa della presenza di neve nelle immagini di entrambi gli animali. I due eventi descritti mettono in luce l’importanza di fornire dati bilanciati e corretti agli algoritmi per evitare errori.
L’intelligenza Artificiale Generativa è diventata popolare negli ultimi anni grazie al Deep Learning; è basata su grandi modelli linguistici (LLM) capaci di generare contenuti come testo, voce, immagini e video. Questi sistemi utilizzano algoritmi di apprendimento per comprendere e generare risposte in linguaggio naturale, ma possono anche commettere errori se basati su informazioni non corrette.
Talia ha spiegato che un Transformer è una rete neurale artificiale in grado di trasformare una sequenza di input in una sequenza di output, mantenendo le relazioni tra le parole. Queste reti neurali, proposte nel 2017, hanno rivoluzionato il settore dell’elaborazione del linguaggio naturale, portando ad avanzamenti significativi come ChatGPT, che è un’enorme rete neurale (Chat vuol dire, dialogo, chiacchierata, GPT sta per Generative Pretrained Transformer). Tuttavia, sorgono problemi legati alla distinzione tra contenuti generati da macchine e umani, come nel caso dei Deepfake che costruisce video falsi con personaggi veri. La regolamentazione di queste tecnologie rappresenta una grande e soprattutto difficile sfida in un mondo in rapida evoluzione.
Un altro concetto fondamentale è quello di Software Power, ovvero potere del software, il potere degli algoritmi. Si evidenzia come le grandi aziende tecnologiche americane, tra cui Facebook e Amazon, contribuiscano in modo significativo al PIL degli Stati Uniti, assumendo un ruolo politico.
Il relatore analizza il ruolo dei dati e della tecnologia digitale nella competizione tra le potenze mondiali, sottolineando il grande potere di persuasione del regime cinese nel raccogliere informazioni sui propri cittadini, tramite il social credit cinese, cioè un sistema di classificazione dei cittadini. Sebbene gli Stati Uniti siano in vantaggio nella corsa alle nuove tecnologie, la Cina sta facendo forti investimenti per conquistare una posizione di primo piano. L’Europa, pur essendo avanti nella regolamentazione delle tecnologie, è in ritardo nello sviluppo di tecnologie competitive. La corsa alla tecnologia porta anche a discussioni sulla sicurezza, come nel caso del 5G cinese.
Gli algoritmi autonomici sono algoritmi che una volta addestrati possono lavorare autonomamente, senza bisogno dell’intervento umano. Questo ha portato all’automazione di molte attività, come nel caso dei magazzini di Amazon gestiti da robot. Tuttavia, questa autonomia delle macchine può portare a problemi etici, come nel caso delle armi autonome che possono prendere decisioni letali senza il controllo umano.
Pedro Domingos ha teorizzato sull’esistenza di un “algoritmo definitivo” che permetterebbe alle macchine di apprendere da sole, spostando il potere decisionale dagli umani alle macchine. Questo solleva delle preoccupazioni sul futuro della tecnologia e sulla sua dominanza nella società.