Intelligenza artificiale e intelligenza umana a confronto. Un interessante lavoro di Alberto Flores Hernandez Ph.D della Cambridge International University -Spain- e pubblicato dalla dottoressa Linda Restrepo in una Special Edition of INNER SANCTUM VECTOR N360° intitolato “Balancing Power, Policy, Control and Tech, ci porta a fare una non banale riflessione su un tema oggi di grande attualità.
Personalmente ritengo che quello del bilanciamento qui richiamato sia un problema oltremodo cruciale che, come tale, andrebbe affrontato al più presto con un dibattito molto ampio, anche se avrei decisamente preferito che tale argomento fosse stato preso in considerazione prima dell’introduzione dell’IA, così come di tutte le nuove tecnologie, per gli enormi rischi che un uso inadeguato dei sistemi e dei dispositivi che li implementano può farci correre in mancanza di una reale comprensione di cosa sono e di come funzionano.
Il fatto è che nella maggior parte dei casi le conoscenze di alto livello coinvolte vengono focalizzate senza una reale e diffusa consapevolezza di tutto questo a 360° a causa della incipiente miopia dei cosiddetti esperti del settore, generalmente in grado di focalizzare i dettagli ma incapaci di avere una comprensione globale di tutti gli aspetti della complessa materia che qui si tratta.
Per non parlare del problema rappresentato, stando così le cose, dalla crassa ignoranza della classe politica eletta tramite tornate elettorali gestite fin troppo populisticamente per mezzo di slogan tanto vuoti di qualsiasi significato, quanto costantemente urlati da autoreferenziali idioti alquanto ambiziosi eletti da altrettanti idioti oltremodo pieni di sé, forti di lauree in Tuttologia Applicata conseguite per lo più sui social network come Facebook, Tik Tok, e così via.
La mia non vuole essere in alcun modo la perorazione di una visione aristocratica della conoscenza, la mia visione del potere non contempla quella tecnocratica avanzata da Peter Thiel e da una certa destra statunitense, ma allo stesso tempo non posso esimermi dall’affermare che la scienza è antidemocratica in quanto impone una distinzione delle opinioni espresse basata sul grado di conoscenza di chi le propone e sulla sua capacità concreta di comprendere le interazioni tra conoscenza e tecnologia: prerogative che in questa epoca, caratterizzata come è da una ampia e crescente presenza di analfabeti funzionali, sono sempre più appannaggio di una ristretta e purtroppo inascoltata cerchia di studiosi.
Il modo in cui sviluppiamo dispositivi elettronici, il modo in cui innoviamo, parte purtroppo da troppo tempo da un processo di tipo imitativo della realtà percepita euristicamente ed analizzata al più sulla base della logica aristotelica, quella, tanto per intenderci, di tipo analitico-deduttivo a due valori (vero-falso) che ha generato la logica matematica, cioè quella branca della matematica che si è storicamente sviluppa a partire dal grado di conoscenza e dalla capacità concreta di comprendere le interazioni tra conoscenza e tecnologia, quella branca della matematica che si è sviluppata, per dirla diversamente, a partire dalla considerazione delle cosiddette “proposizioni elementari”, altrimenti dette “atomiche”, cioè da quelle strutture articolate costituite da un soggetto, un predicato (verbo) e un complemento oggetto per le quali abbia senso chiedersi se siano oggettivamente –e non soggettivamente– vere o false.
Come sappiamo, dalla loro combinazione si costruiscono proposizioni articolate (dette anche ‘molecolari’) che, unite in una struttura capace di descrivere il passaggio da ipotesi a tesi, ci forniscono una chiave di lettura idonea, o almeno sin qui ritenuta tale, a farci approcciare quanto più possibile al concetto stesso rappresentato dalla parola ragionamento.
Peccato che questo valga per una ristretta gamma di situazioni che ci permettono, sì, di sviluppare nuove tecnologie, ma non ci portano alla vera conoscenza: in altre parole, conferiscono a chi queste tecnologie possiede ed utilizza un notevole Potere, un potere inteso come maggiore capacità di fare le cose, ma non di apprezzarne il significato.
È questo, detto per inciso, che ha fatto dire a suo tempo a Bertrand Russell: “È impressionante quanto poco sappiamo e quanto potere ci dà quel poco!”.
In elettronica posso passare una vita a lavorare convinto che l’elettrone sia una pallina, un corpuscolo, senza minimamente occuparmi della sua natura “ondulatoria” arrivando, con la Meccanica Quantistica, a parlare della sua natura ondulatorio-corpuscolare senza rendermi conto che questo dualismo non discende dalla natura dell’elettrone ma dalla nostra incapacità di approntare un modello unitario.
In altre parole, ci sono casi in cui va bene trattare l’elettrone modellandolo come un corpuscolo (transistor) e casi in cui devo pensare all’elettrone come a un’onda (diodo tunnel).
In realtà, l’elettrone è come un mulo che, generato dall’unione di un asino e di un cavallo, come tale riassume caratteristiche che lo rendono simile al cavallo in certi casi e all’asino in altri, fermo restando che un mulo è e rimane mulo per tutta la sua vita, una vita che non è vissuta per una parte da cavallo e per un’altra da asino: come il mulo è e rimane un’entità ben definita così l’elettrone che non ‘vive’ parte della sua vita da corpuscolo e parte da onda (per giunta di probabilità).
Ora, nel momento in cui parliamo di intelligenza artificiale ci riferiamo a qualcosa che prescinde concretamente da tutto ciò che attiene a quella sfera solitamente chiamata “emozionale”: una parola che ci permette di distinguere, senza definirlo, quel corpus di comportamenti che non possono essere descritti in termini analitico-deduttivi, senza però darci la possibilità di definire di cosa stiamo realmente parlando quando trattiamo della sfera emozionale e dell’intelligenza ad essa ascritta.
Da qui discende a bomba un quesito: che senso ha parlare di AI stupendoci dinanzi ad un robot capace di sostenere una conversazione o rilasciare una intervista in mancanza di una reale riflessione su questi concetti?
Quali rischi corriamo combinando una rete elettronica con una rete neurale che, come tale, possiede in se quelle facoltà che la mettono nella condizione di gestire le emozioni, ossia ciò che manco siamo in grado di concepire in qualche modo definibili sulla base di una inferenza analitico deduttiva classica?
In che modo devo intendere l’Intelligenza Artificiale nel momento in cui non so definire cosa sia in realtà l’intelligenza? In fondo il parlare di diversi tipi di intelligenze è lo stesso che riproporre il dualismo asino-cavallo, ovvero quello onda-corpuscolo visti prima per incapacità di cogliere la realtà nel suo complesso.
La questione non è affatto banale come sembra: si consideri, ad esempio, la singolare circostanza di un cane che in qualche modo si sente minacciato e come tale mostra un aumento della sua aggressività fino al momento in cui qualcosa lo induce ad attaccare o a ritirarsi, ovverosia -quantisticamente parlando- di precipitare in uno dei due autostati possibili che fino a quel momento hanno equiprobabilmente caratterizzato il suo esistere, ossia quella condizione in cui entrambe le possibilità coesistevano.
Matematicamente, questa successione di eventi si configurerà come qualcosa che ci porta a una “catastrofe”, che nel caso specifico del cane è il risultato di qualcosa la cui presenza non determina necessariamente lo stesso esito sempre e comunque (quindi a parità di condizioni) con lo stesso sistema interagente (cane), per quanto questa “parità” possa essere considerata identificabile come tale dalla parametrizzazione della sua definizione in quanto si tratta di un sistema naturale, cioè di un insieme di parti interagenti, che danno luogo a un processo descrivibile unitariamente, del cui numero e delle cui modalità di funzionamento non vi è la certezza assoluta che si può avere nel caso dei sistemi artificiali solitamente considerati.
È evidente che per questa via implementare dispositivi di IA con funzioni di gestione di sistemi d’arma, ad esempio, è qualcosa che, mancando la conoscenza effettiva del funzionamento delle cose, può dare luogo a esiti piuttosto pericolosi ma soprattutto imprevedibili dei quali si ha ancora una percezione per lo più intuitiva e semplicistica. Questo continuo procedere imitativo senza una reale conoscenza di ciò di cui si parla mi porta a sottolineare che il tutto mi sembra più che altro frutto di un delirio di onnipotenza, sempre più diffuso, che merita di essere affrontato e risolto prima che sia troppo tardi.
Personalmente ritengo che non si dovrebbe permettere ai bambini di giocare con i fiammiferi, ma purtroppo questo è il lato oscuro della “democrazia”.