La Santa Sede ‘mette le mani’ sull’intelligenza artificiale. Era stato già annunciato lo scorso mese di settembre, allorquando in una sessione molto ristretta si era iniziato a ragionare su un “paper” per una intelligenza artificiale “etica”. Dopo un lavoro “operoso” e confronti sui temi “spinosi” del progresso tecnologico ancora in corso per la presentazione di un documento che si preannuncia di impatto globale, viene intanto annunciata la “Call for Ethics” che verrà sottoscritta tra Microsoft e IBM nel corso dell’evento “RenAIssance: per un’Intelligenza Artificiale umanistica” che si terrà il prossimo 28 febbraio presso la Pontificia Accademia per la Vita. L’evento vedrà la presenza del presidente Microsoft, Brad Smith, e del vicedirettore esecutivo di IBM, John Kelly III, oltre alla presenza istituzionale del presidente del Parlamento europeo, David Sassoli, e di Qu Dongyu, direttore generale della FAO. Interverrà anche in collegamento live Papa Bergoglio.
I due colossi del digitale e dell’informatica si impegneranno a supportare le aziende in un percorso di sviluppo di una cultura digitale e del rischio, derivante dagli approcci attuativi della nuova tecnologia digitale per valutare le opzioni regolatorie. L’evento si svolgerà nell’Auditorium di via della Conciliazione e sarà preceduto dalla due giorni di workshop tematici sull’AI, etica, diritto, salute.
Già lo scorso settembre il Pontefice, alla presenza di autorevoli esperti di cybersecurity e dinanzi a premi Nobel e data scientist, aveva dichiarato che “non c’è progresso tecnologico senza bene comune”. Rimane, dunque, chiaro e fermo l’obiettivo della Santa Sede di realizzare un “paper” sull’intelligenza artificiale. “Lo sviluppo dell’Intelligenza Artificiale presenta il rischio che l’accesso e l’elaborazione diventino selettivamente riservate alle grandi holding economiche, ai sistemi di pubblica sicurezza, agli attori della governance politica” ha evidenziato monsignor Vincenzo Paglia, presidente della Pontificia Accademia per la Vita. In questa direzione anche l’incontro dello scorso settembre in Vaticano. Nel corso di una conferenza di tre giorni si sono riuniti i colossi digitali tra i quali Facebook, Mozilla e Western Digital, oltre a rappresentanti etici cattolici, dirigenti di autorità di regolamentazione governative e banche d’investimento.
È noto che l’intelligenza artificiale ha un’importanza strategica per lo sviluppo dell’economia digitale, rappresentando una possibile soluzione a molte sfide della società. Per questo è importante proseguire nella valutazione degli impatti socio-economici, legali ed etici delle nuove tecnologie, per creare le condizioni di maggiore fiducia degli utenti.
A questo proposito, il Comitato dei ministri del Consiglio d’Europa, nella dichiarazione adottata nel febbraio dello scorso anno, ha affermato che “l’utilizzo di dati su larga scala, da parte delle aziende, è ormai in grado di predire i comportamenti dei singoli e delle masse e quindi di influenzarli o di portare a nuove discriminazioni”. Il Comitato, nella conferenza a Helsinki del 26 e 27 febbraio, ha così invitato gli Stati ad aumentare l’attenzione e lo studio della tematica e a considerare nuove tutele specifiche per la salvaguardia dei diritti fondamentali già presenti nella Carta dei Diritti Fondamentali dell’Ue.
Le nuove frontiere delle tecnologie digitali vanno orientate, dunque, con ragione critica, al servizio della persona umana, rispettando e promuovendo la sua intrinseca dignità. In particolare, servono tutele ad hoc per i dati inferiti che riescono, attraverso analisi algoritmiche, a predire e influenzare i comportamenti, conoscenze, scelte, emozioni ed opinioni, generando difficoltà nell’uomo di fare scelte consapevoli. La crescente capacità che hanno i computer di comprendere e manipolare dati, parole e immagini sta sollevando nuove domande sul concetto che ha l’uomo di sé, delle proprie azioni e delle proprie responsabilità, soprattutto l’impatto delle tecnologie sul rispetto della persona umana e delle sue relazioni interpersonali in famiglia, nel lavoro e in generale nella società e sulla capacità umana di autoriflessione e di libero arbitrio. Tutto questo, accompagnato dal crescente uso del Machine learning, delle molteplici forme di Intelligenza artificiale, comporta rischi crescenti per le libertà e i diritti fondamentali delle persone legati essenzialmente a forme massive di profilazione dei comportamenti singoli e, soprattutto, collettivi. Analisi comportamentali che consentono attività predittive relative ai comportamenti delle persone, alle loro preferenze, persino alle loro emozioni. E ciò comporta rischi crescenti di manipolazione delle coscienze, di condizionamento delle persone rispetto alla loro vita sociale, che richiedono un rafforzamento della tutela dei loro diritti. Cresce in modo allarmante, in particolare, la possibilità di discriminazioni fra le persone e i gruppi sociali, in ragione dei loro comportamenti, delle loro scelte, persino delle loro reazioni emotive ai fenomeni analizzati.
Mettendo in essere attività di Data analysis su larga scala è facile, a seconda degli algoritmi utilizzati e dei dati scelti come base di analisi, far prevalere alcuni valori su altri, interferire nella informazione concretamente accessibile per le singole persone, condizionare i loro processi decisionali. Occorrerà dunque sviluppare criteri adeguati e capaci di assicurare che l’algoritmo non abbia vulnerabilità o bias cognitivi che possono anche potenzialmente condizionare l’indipendenza e la autonomia delle decisioni individuali. E dunque servirà prevedere l’adozione di misure che assicurino garanzie adeguate, appropriate e proporzionate, finalizzate a garantire una effettiva tutela legale contro ogni forma di illegittima interferenza sui diritti e le libertà delle persone e propedeuticamente, la tutela del dato personale (anche riferito) come espressione della persona umana (concetto di “sacralità del dato”). Sarà anche necessario diffondere la consapevolezza che l’uso di algoritmi applicati ai molteplici strumenti è sempre più diffuso non solo per finalità di profilazione commerciale e conoscenza predittiva delle preferenze e delle necessità dei consumatori ma anche e sempre di più per ragioni politiche di destabilizzazione di sistemi democratici.
È certamente importante favorire la ricerca tecnologica, purché l’esperienza scientifica preservi il rispetto e la tutela della vita umana e della sua dignità, in tutte le sue tappe esistenziali, tenendo sempre bene a mente che l’uomo è l’unico essere vivente la cui dignità di persona, sin dal momento del concepimento, comporta l’esigenza morale erga omnes di essere trattato come soggetto titolare di diritti inalienabili e indisponibili, e non soltanto come semplice oggetto di ricerca scientifica. Ecco perché diventa fondamentale la protezione della dignità umana, intesa come privacy e riservatezza (soprattutto in tema di ingegneria genetica). E poi esiste già la possibilità di provare una cura e constatarne l’effetto su un nostro “gemello virtuale”, creato in base alla genomica digitale. A tal proposito, il rischio concreto è che le manipolazioni algoritmiche possano giungere anche oltre la cura della malattia e preordinarsi a migliorare le caratteristiche umane normali o, comunque, a generare cambiamenti imprevedibili.
È dunque importante fissare paletti e limiti etici precisi e perentori all’ingegneria genetica, ben fissando il primato e la dignità di tutte le vite umane.