Siamo ottimisti: l'intelligenza artificiale è un bene per l'umanità. Ma per esserlo davvero deve diventare un bene comune. «La società europea è basata sul principio di eguaglianza di opportunità: ritiene che debbano essere le persone a forgiare il loro futuro, non gli algoritmi». Ecco dove sta la differenza fondamentale tra la nostra visione delle cose e quella americana.
Ma non è detto che il principio di responsabilità sia per forza un ostacolo al progresso e al business. Soprattutto pensando al lavoro portato avanti - anche in Italia - sui supercalcolatori, o la ricerca sul computer quantistico. Forse esiste davvero una via europea allo sviluppo tecnologico.
C'è chi ritiene che la ricerca e gli investimenti debbano essere completamente liberi, senza preoccuparsi troppo dei rischi e dei pericoli. E chi sceglie di privilegiare le regole, di salvaguardare il cittadino-utente-consumatore, ma anche le piccole e medie imprese, che rischiano di essere schiacciate dai colossi monopolisti.
L'Europa ha scelto la seconda strada, come dimostra l'AI Act, «il primo regolamento al mondo a offrire un quadro compiuto di norme per garantire la sicurezza degli algoritmi dell'intelligenza artificiale». O meglio, la prima «proposta seria, strutturata in forma di legge, democraticamente legittimata». Perché la Cina, in realtà, si era già portata avanti, ma per garantire il controllo governativo sulla tecnologia, non certo per favorire la trasparenza o tutelare i diritti.
Ce ne parlano Roberto Viola e Luca De Biase, in un libro edito da Il Sole 24 Ore, La legge dell'intelligenza artificiale, che è un ottimo esempio di come si possa riflettere su questi temi con equilibrio, senza farsi trascinare dai preconcetti o gli slogan.
Perché è facile dire che l'Europa, ancora una volta, ha scelto un approccio paternalistico, privilegiando la regolamentazione (la burocrazia) rispetto allo sviluppo. Ma qui si parla di una tecnologia dalle possibilità indefinite, potenzialmente in grado di cambiare il nostro modo di vivere.
La prudenza non deve essere per forza un ostacolo, può anche essere uno stimolo a indirizzare il progresso tecnologico verso una direzione utile a tutti. L'intelligenza artificiale, secondo gli autori, «deve essere considerata un bene comune per l'umanità e come tale una forza di cambiamento senza precedenti del modo di lavorare, creare e interagire con la realtà che ci circonda. Può trasformare la medicina, può aiutare a realizzare una transizione energetica sostenibile, può rendere più sicure le auto e l'ambiente in cui viviamo. Ma un bene comune è tale solo se sorretto e garantito da un insieme di regole».
Il libro parte facendo un po' di storia, da quel 1955 in cui l'intelligenza artificiale è nata in forma di idea. All'inizio era una questione riservata a pionieri e visionari. Una storia fatta di strappi, di entusiasmi improvvisi e di delusioni che ridimensionavano le aspettative. Fino ad arrivare agli anni Novanta, quando l'AI «ha imparato a ragionare in modo probabilistico». Questa è stata la svolta vera, che consente oggi di immaginare una rivoluzione epocale, dovuta al convergere di «un'enorme disponibilità di dati registrati in formato digitale, la presenza di risorse di calcolo e di memorizzazione di potenza inaudita, la sofisticatezza crescente dei modelli utilizzabili per sfruttare tutto questo».
Parliamo di una tecnologia che, secondo Goldman Sachs, porterà nei paesi sviluppati una crescita di mezzo punto percentuale di Pil ogni anno, per i prossimi dieci anni. La cifra si aggira tra i 4 e i 6 trilioni di dollari.
Ma ci sono anche i possibili “effetti collaterali”, le questioni legate alla gestione della tecnologia, alle professioni a rischio, ai problemi di privacy o quelli di copyright, alla manipolazione delle coscienze.
Per questo nel novembre del 2023 è andato in scena il primo summit mondiale sulla sicurezza dell'AI, in un luogo altamente simbolico, Bletchey Park, dove lavorò il gruppo di scienziati che riuscì a creare il codice Enigma.
Oggi Chat GPT non è ancora, in nessun modo, paragonabile all'intelligenza umana. Si tratta solamente di un “gioco di imitazione”, basato sulla possibilità: la Generative Pre-trained Transformer non ragiona seguendo le regole della grammatica o la logica umanamente intesa, ma separa i singoli elementi di un discorso (token), li analizza e poi valuta tutte le permutazioni possibili. La macchina si limita a imitare il linguaggio umano.
Ma non c'è alcun dubbio che la meta sia quella di approdare a “un'intelligenza generalizzata”, ovvero «un algoritmo capace di ragionare per astrazioni complesse come fanno gli umani». Anche per questo è nata nel 2015 la fondazione OpenAI, che è partita come “not-for-profit”, con intenti molto nobili, salvo poi andare verso una commercializzazione sempre maggiore, in mezzo a discussioni e polemiche crescenti.
E così arriviamo al nucleo del problema. Che da una parte riguarda le modalità di sviluppo e di gestione di questa tecnologia. Dall'altra i pericoli legati al suo utilizzo sbagliato. Al di là delle minacce più plateali – come evitare che dei bioterroristi usino gli algoritmi per creare armi di distruzione di massa? - o delle visioni apocalittiche di macchine che si ribellano agli umani (poco probabile, se non proprio impossibile), ci sono problemi legati anche alla democrazia, alle manipolazioni di opinione, all'applicazione dell'AI in campi particolarmente sensibili.
Il che non deve farci dimenticare tutto ciò che l'intelligenza artificiale potrebbe fare, in campo medico e scientifico, per trovare soluzioni ai problemi ambientali, per aiutarci a «sfamare 8 miliardi di persone e governare città con 50 milioni di abitanti».
L'Europa è la patria dello stato sociale, dove si cerca un «equilibrio tra i diritti fondamentali e l'esercizio del potere pubblico». Perché l'intelligenza artificiale diventi un bene comune, è necessario innanzitutto contenere i rischi delle possibili applicazioni sbagliate. Occorre difendere il diritto di tutti alla sicurezza e alla privacy, proteggere i dati sanitari, sostenere la concorrenza e la libertà di stampa.
Ecco allora che l'AI Act, pur con tutti i suoi limiti, stabilisce diversi livelli di rischio, prevedendo un divieto solo per quello ritenuto inaccettabile, le applicazioni capaci di danneggiare le persone, il social scoring, la manipolazione dei minori... «Non si tratta di regolamentare i servizi che utilizzano AI, ma garantire che le regole del gioco siano serie e giuste, evitando ad esempio discriminazioni di genere, etnia, ceto sociale», eliminando eventuali bias (le distorsioni statistiche). «Se le applicazioni impattano sulla vita delle persone, non si può scherzare».
Il fatto è che nessuno può pensare di snobbare il mercato digitale europeo, che è il più grande del mondo, e quindi nessuno in teoria può pensare di aggirare le regole decise dall'Europa, anche se tutta l'attenzione del mondo sembra sbilanciata verso l'America, dove si ritiene che lo sviluppo sia più importante della sua possibile regolamentazione. Nel nostro continente si sceglie, ad esempio, di impedire l'identificazione biometrica remota in luoghi pubblici, a meno che ci siano gravi minacce per la popolazione.
Forse siamo rimasti indietro nella corsa all'intelligenza artificiale generativa, ma siamo invece in prima linea sul fronte dei supercalcolatori. EuroHPC è la «rete di supercalcolo pubblica più avanzata del pianeta», di cui fa parte anche il nostro Leonardo, ospitato a Bologna. Si parla di una collaborazione tra centinaia di università e aziende, laboratori di ricerca e start-up, di persone che credono all'AI come bene comune.
«Alla fine di gennaio di quest'anno la Commissione europea ha varato un pacchetto di misure concrete per sostenere le start-up e le piccole e medie imprese europee nello sviluppo dell'intelligenza artificiale affidabile e a misura d'uomo». Si tratta, per ora, di un investimento di quattro miliardi fino al 2027.
A Jülich, in Germania, esiste un importante centro di supercalcolo. Ma qui va avanti anche un progetto di mappatura del cervello partito già nel 2012. Le due cose sono legate, in qualche modo, e portano verso il supercalcolatore di nuova generazione chiamato Jupiter, oltre che alle possibilità legate allo sviluppo di un computer quantistico.
Ecco qual è “il prossimo treno” che l'Europa non vuole perdere. Forse siamo rimasti indietro sugli ultimi sviluppi dell'intelligenza artificiale generativa, decidendo innanzitutto “cosa non vogliamo rischiare”. Ma intanto si pensa a un nuovo modo di fare innovazione proteggendo i cittadini: «Non affidando solo alla buona volontà degli imprenditori il compito di decidere che cosa è meglio fare per l'avanzamento della tecnologia e della società».
L'Europa scommette sull'open source e su un'intelligenza artificiale diversa, che non sia quella generalista, preoccupata di simulare sempre meglio le capacità umane, ma che imiti alcune caratteristiche specifiche, adatte a risolvere problemi concreti.
Modelli che si basano su conoscenze di qualità, che richiedono un consumo minore di energia, che puntano a creare modelli di business al servizio dei «nuovi “maestri d'arte” dell'economia della conoscenza».
Sappiamo tutti quali sono i problemi di cui soffre l'Europa, la sua debolezza politica, gli eccessi burocratici, le procedure obsolete. Ma la società civile europea, le sue aziende, i suoi ricercatori, hanno la possibilità di immaginare un futuro diverso, uno sviluppo a misura d'uomo: «Forse l'Europa avrà tecnologie umanamente più sensate e potrà portarle al mondo».