“Ridotta ai minimi termini, l’AI è semplicemente ottimizzazione di determinate funzioni di un agente automatico. In altre parole, l’AI è legata in modo intrinseco ai processi e all’automazione. E anzi, se vogliamo permetterci un’immagine ardita, costituisce il ponte più naturale tra i due mondi”. Lo spiega Roberto Reale, Membro di AIDR(Associazione Italian Digital Revolution) e dell’Italian Association for Machine Learning, in un’intervista rilasciata a Ofcs.report.
Quali sono i vantaggi ed i rischi?
“I vantaggi dell’AI vanno oltre ogni immaginazione. L’AI è l’unico strumento di cui disponiamo per poter maneggiare l’immensa quantità di dati che il mondo produce (ormai dell’ordine degli Exabyte al giorno) e per convertirlo in informazione utile. Più in generale, la rivoluzione dei processi, decisionali o meno, si accompagna a due altre rivoluzioni diverse: una cognitiva, e l’altra in termini di governance. I rischi si concentrano principalmente lungo le dimensioni-chiave della trasparenza e dell’accountability. La trasparenza è essenziale per assicurare agli operatori contezza di quali sono i dati usati su cui essa si basa e di qual è l’architettura degli algoritmi che la costituiscono. L’accountability, invece, è un concetto più ampio che abbraccia anche il tema della responsabilità giuridica”.
Quali sono le differenze tra il machine learning ed il deep learning?
“Questa è una domanda interessante, perché assume che il machine learning e il deep learning rientrino all’interno della vasta galassia dell’AI. C’è una battuta che circola nelle comunità di data science: se un algoritmo è “fatto” in PowerPoint allora è AI, se è “fatto” in Python allora è machine learning. Il machine learning fa riferimento alle tecniche e ai paradigmi di apprendimento automatico da parte della macchina, la quale a partire da un set iniziale di informazioni (training dataset) apprende ad eseguire dei compiti su un insieme più ampio di dati. Ad esempio, un’applicazione del machine learning è il riconoscimento di immagini o figure all’interno di contesti arbitrari. In base alla strategia adottata, il machine learning si può classificare in apprendimento supervisionato, non supervisionato, semi-supervisionato, per rinforzo. Il deep learning dal canto suo è l’insieme dei metodi di machine learning basati su algoritmi e strutture dati quali le reti neurali, che imitano (grosso modo) il funzionamento della mente umana. L’aggettivo “deep” fa riferimento al fatto che tali strutture hanno layer multipli (anche dell’ordine delle migliaia) per “distillare” progressivamente l’informazione dal dato grezzo. Architetture di deep learning sono state applicate con successo in innumerevoli campi, tra i quali il riconoscimento del linguaggio naturale e del parlato, la traduzione automatica, la ricerca farmaceutica, l’analisi di immagini per uso medico, e ovviamente giochi quali gli scacchi e Go, nei quali la macchina è ormai superiore ai migliori campioni umani”.
Quanto è importante l’interoperabilità dei sistemi, e soprattutto l’IoT, per lo sviluppo dell’AI?
“Io direi piuttosto che dall’intersezione di più tecnologie ciascuna di esse esce arricchita. Nessuna tecnologia è una monade, nessuna ha senso presa a sé stante, ma il loro destino naturale è di essere combinate tra loro. L’Internet of Things contribuirà alla produzione di quantità massive di dati, rendendo ulteriormente necessario il ricorso a tecniche automatiche di analisi. Dal canto suo, un’altra tecnologia emergente come la blockchain potrà fornire agli algoritmi di AI degli strumenti di certificazione, trasparenza ed accountability”.
Perché la cybersecurity e la governance riguardano anche lo sviluppo dell’AI?
“Cybersecurity e governance sono due dimensione fondamentali di ogni processo, pratica o piattaforma di trasformazione digitale, e a maggior ragione dell’AI. Si tratta certamente di temi complessi, che tra l’altro solo di recente hanno trovato l’attenzione che meritano presso le istituzioni nazionali e comunitarie (la “window of opportunity” di cui parla John Kingdon). La cybersecurity investe tutte le applicazioni dell’AI e richiede da un lato di essere inserita nell’intero ciclo di sviluppo a partire dalla progettazione (security by design), dall’altro un’attenzione continua durante l’erogazione del servizio. In settori strategici (le infrastrutture critiche ad esempio) le pratiche, le policy, le competenze e i framework si pongono essi stessi come asset da proteggere adeguatamente. La governance a sua volta tocca questioni se possibile ancora più profonde, perché è tangente da un lato alla dimensione più generale della normazione e dell’implementazione delle policy pubbliche, e dall’altro a temi di carattere economico-sociale e perfino geopolitico. Le scelte in materia di AI determineranno nei prossimi anni il posizionamento di un Paese (o di organismi sovranazionali quali l’EU) sullo scacchiere globale”.
Come costruiamo a livello nazionale un ecosistema virtuoso di startup?
“Israele è un paese che ha saputo costruire un ecosistema di startup estremamente efficiente. La Francia ne ha costruito uno a sua volta, attraverso un’iniziativa (La French Tech) e la spinta molto forte impressa da Macron. Fermo restando che ogni Paese ha le sue peculiarità, in Italia è necessario innanzitutto completare quell’adeguamento del nostro sistema normativo che abbiamo intrapreso attraverso il decreto-legge 179/2012, con cui il nostro Paese si è dotato di un primo strumento volto a favorire la nascita e la crescita di nuove imprese ad alto valore tecnologico. Chiaramente, la costruzione di un ambiente favorevole allo sviluppo di startup presuppone l’esistenza di investitori, istituzionali o privati, che siano in grado di comprendere e valutare le opportunità offerte dall’innovazione. Questo resta purtroppo un punto dolente, perché in Italia gli investitori si mantengono eccessivamente cauti, vuoi per legato storico vuoi per un’insufficiente incentivazione da parte delle istituzioni”.