E’ noto che l’intelligenza artificiale rappresenta, tra le tecnologie digitali, quella che avrà decisamente un’importanza strategica per lo sviluppo dell’economia digitale “data driven”, rappresentando una possibile soluzione a molte sfide della società, dal trattamento delle malattie alla riduzione al minimo dell’impatto ambientale dell’agricoltura. Lo sa bene l’Europa che ha provveduto alla costituzione dell’AI HLEG, un gruppo di 52 esperti di alto livello che è stato nominato dalla Commissione Europea e composto da rappresentanti del mondo accademico, della società civile e dell’industria.
Obiettivo dichiarato del Gruppo è in via generale il sostegno all’attuazione della strategia europea sull’intelligenza artificiale anche attraverso l’elaborazione di raccomandazioni sullo sviluppo di politiche relative al futuro e su questioni etiche, giuridiche e sociali relative all’intelligenza artificiale, comprese le sfide socioeconomiche.
L’IA HLEG esercita anche la direzione del forum multi-stakeholders denominato Alleanza europea dell’AI, che coinvolge in una discussione aperta tutti i portatori di interessi sui temi dello sviluppo dell’IA ed al suo impatto sull’economia e sulla società.
Al gruppo di esperti sono attribuite le linee guida etiche sull’intelligenza artificiale che, tra l’altro, hanno elaborato le linee guida che individuano i 7 requisiti per un’AI affidabile.
Più precisamente, si tratta dei seguenti declinati requisiti:
- Azione e sorveglianza umane: promozione dello sviluppo di società eque sostenendo l’azione umana e la sua autonomia.
- Robustezza e sicurezza: algoritmi sicuri, affidabili e sufficientemente robusti da far fronte a errori o incongruenze durante tutte le fasi del ciclo di vita dei sistemi di IA.
- Riservatezza e governance dei dati: i cittadini dovrebbero avere il pieno controllo dei propri dati personali e nel contempo i dati che li riguardano non dovranno essere utilizzati per danneggiarli o discriminarli.
- Trasparenza: dovrebbe essere garantita la tracciabilità dei sistemi di IA.
- Diversità, non discriminazione ed equità: i sistemi di IA dovrebbero tenere in considerazione l’intera gamma delle capacità, delle competenze e dei bisogni umani ed essere accessibili.
- Benessere sociale e ambientale: i sistemi di IA dovrebbero essere utilizzati per promuovere i cambiamenti sociali positivi e accrescere la sostenibilità e la responsabilità ecologica.
- Responsabilità intesa anche come accountability: dovrebbero essere previsti meccanismi che garantiscano la responsabilità e l’accountability dei sistemi di IA e dei loro risultati.
Tali requisiti saranno sottoposti a un processo di sperimentazione che si andrà a concludere con la presentazione di un documento “revised” all’inizio del 2020. Importanti raccomandazioni sono state elaborante dal Gruppo in ordine a politiche ed investimenti per guidare l’IA affidabile verso la sostenibilità, la crescita e la competitività, nonché l’inclusione e la protezione degli esseri umani.
Per realizzare un completo e “challenging” sviluppo dell’AI verranno collegati e rafforzati in Europa i centri di ricerca di AI e si sosterrà lo sviluppo di una ” piattaforma AI -on-demand “, che consentirà l’accesso a tutti gli utenti alle risorse AI pertinenti nell’UE, nonché lo sviluppo di applicazioni AI in settori ritenuti chiave.
Sul piatto c’è il budget del prossimo settennio di programmazione europea che, solo per lo sviluppo di sistemi di AI 2,5 miliardi di Euro oltre a quelli della coda di Horizon 2020.
Persino la Presidente entrante (chissà quando) della Commissione Europea, Ursula Von Der Leyen ha dichiarato che presenterà proposte legislative per un “approccio europeo coordinato” alle implicazioni umane ed etiche dell’AI, entro i suoi primi cento giorni di governo.
Per questo sarà molto importante proseguire nella valutazione degli impatti socio-economici, legali ed etici delle nuove tecnologie, per creare le condizioni di maggiore fiducia degli utenti del digital single market.
A questo proposito, il Comitato dei ministri del Consiglio d’Europa, nella Dichiarazione adottata lo scorso 13 febbraio, ha affermato che “l’utilizzo di dati su larga scala, da parte delle aziende, è ormai in grado di predire i comportamenti dei singoli e delle masse e quindi di influenzarli o di portare a nuove discriminazioni”.
E così il Comitato, nella conferenza a Helsinki del 26 e 27 febbraio, ha così invitato gli Stati ad aumentare l’attenzione e lo studio della tematica e a considerare nuove tutele specifiche.
Pertanto, oltre ai diritti fondamentali già presenti nella Carta dei Diritti Fondamentali dell’Ue (rispetto della dignità umana, libertà dell’individuo, rispetto della democrazia, giustizia e stato di diritto, uguaglianza, non discriminazione e solidarietà), altri cinque principi informatori sono stati ulteriormente individuati:
- Beneficenza: per il miglioramento del benessere individuale e collettivo;
- Non-maleficenza per preservare gli esseri umani dai danneggiamenti;
- Autonomia per il rispetto dell’autodeterminazione e scelta delle persone;
- Giustizia per sistemi equi;
- Trasparenza per lo sviluppo della fiducia degli utenti.
Tuttavia, molti sistemi di AI con approcci attuativi in machine learning si evolvono in modo non sempre prevedibile e talvolta anche in modo incoerente con i principi informatori.
E, per questo, le nuove frontiere delle tecnologie digitali vanno orientate, con ragione critica, al servizio della persona umana, rispettandone e promuovendone la sua intrinseca dignità.
La crescente capacità che hanno i sistemi di calcolo e le capacità cognitive degli elaboratori di comprendere e manipolare dati, parole e immagini sta ponendo sempre più interrogativi sul concetto che ha l’uomo di sé, delle proprie azioni e delle proprie responsabilità e, soprattutto in relazione all’impatto delle tecnologie sul rispetto della persona umana e delle sue relazioni interpersonali in famiglia, nel lavoro e in generale nella società e sulla capacità umana di autoriflessione e di libero arbitrio.
Tutto ciò, accompagnato dal crescente uso del machine learning e delle reti neurali del deep learning, comporta rischi crescenti per le libertà e i diritti fondamentali delle persone, legati essenzialmente a forme massive di profilazione dei comportamenti singoli e, soprattutto, collettivi.
Sistemi che ormai sviluppano analisi comportamentali tali da consentire attività predittive relative ai comportamenti delle persone, alle loro preferenze e finanche alle loro emozioni.
In tale scenario non può non evidenziarsi il rischio di crescenti manipolazioni delle coscienze e di tendenziale condizionamento delle persone rispetto alla loro vita sociale, alle loro credenze religiose.
Mettendo in essere infatti attività di data analysis su larga scala, a seconda degli algoritmi utilizzati, dei dati scelti come base di analisi e dei criteri di prevalenza ipotizzati, ben può interferirsi nella informazione concretamente accessibile per le singole persone per condizionarne i loro processi decisionali. Ciò rende imprescindibile un rafforzamento della tutela dei loro diritti.
Qui non si tratta soltanto di proteggere i dati personali forniti ma di intervenire rafforzando le garanzie delle persone per fase di raccolta corretta dei dati protesa a prevenire comportamenti abusivi (riconoscimento facciale, monitoraggi e sorveglianza di massa, assistenti vocali, scoring).
Si pensi ad esempio, alla recente segnalazione di abuso e discriminazione dell’apple card in cui l’algoritmo utilizzato per stabilire i limiti di credito è finita sotto accusa a New York per discriminazione di genere perché concedeva by default e senza giustificato motivo un limite di credito notevolmente superiore ad un consumatore di sesso maschile rispetto ad un utente di sesso femminile.
Sarà, dunque, indispensabile promuovere l’elaborazione di una policy che ponga regole e confini certi alla profilazione “persuasiva” stigmatizzando per contro l’attività manipolativa e comunque di condizionamento subliminale.
Parimenti importante sarà introdurre ampie garanzie che l’algoritmo non presenti vulnerabilità o bias cognitivi che espongano l’indipendenza e l’autonomia decisionale individuale a condizionamento.
In buona sostanza si dovrà puntare a garantire una effettiva tutela legale contro ogni forma di illegittima interferenza sui diritti e le libertà delle persone e propedeuticamente, la tutela del sacralità del dato personale (anche inferito) come espressione della persona umana.
Sotto il profilo dell’education, è fondamentale che anche l’intelligenza artificiale entri nelle scuole per fare in modo che, anche nell’ambito della normativa sulla educazione alla cittadinanza, si sviluppi nelle generazioni dei nativi digitali la cultura della consapevolezza delle potenzialità e dei rischi connessi ai sistemi di AI, favorendo lo sviluppo di senso critico e l’acquisizione di strumenti cognitivi e di comprensione delle potenzialità delle tecnologie digitali e dei principi etici che le riconducano ad una dimensione antropocentrica.