Intelligenza Artificiale: un bene per l’umanità o no?

Intelligenza Artificiale: un bene per l’umanità o no?

L’Intelligenza Artificiale affronta spesso tematiche polivalenti e quasi mai mette d’accordo sull’uso o sui benefici ipotetici che la stessa potrebbe apportare alle generazioni presenti e future.

Eppure, se da un lato la corrente ci ha trainato in un avvenire imminente, dall’altro c’è chi frena la corsa perché spesso le tematiche affrontate in ambito IA risultano ambigue e controverse.

In altre parole c’è chi sostiene come l’intelligenza Artificiale abbia un lato oscuro; anche se non sarebbe la prima volta che qualcuno grida al complottismo.

Eppure ci sono diverse prove a sostegno del fatto che l’IA sarebbe una sorta di “gabbia dorata” e che ciò che è stato concepito come un bene per l’umanità, potrebbe assumere aspetti diametralmente opposti.

In aggiunta, come se quanto appena affermato non fosse già indice di perplessità, ci sono casi che parlano di servizi segreti che sfrutterebbero,  questo meccanismo per implementare database e raccogliere più notizie possibili sulle persone.

Tanto per fare un esempio, basti citare il caso controverso di Alexa di Amazon che sembra metta a disposizione della CIA (Central Intelligence Agency) diverse informazioni. Ma andiamo per gradi.

Intelligenza Artificiale: diffusione virale

Che la stessa sia in circolazione su diversi prodotti, dalle auto, ai telefoni alla scienza a tutti i dispositivi predisposti, non è cosa nuova.

Non c’è un solo giorno infatti, in cui non si senta dire che l’IA non venga applicata in qualche modo ad un nuovo prodotto. Potremmo sostenere dunque, che i progressi illimitati di questa disciplina informatica stiano già riconfigurando e plasmando il mondo in maniera evidente;  apportando anche dei benefici alla qualità della vita. Basti pensare alla ricerca in campo medico.

Quindi è opportuno dire che questi potenti software, che guidano il nostro ecosistema digitale e le tecnologie basate sull’IA, consentono la progettazione di sistemi di ultima generazione.

Eppure, verrebbe da pensare che se l’intelligenza artificiale oggi è ovunque, le stesse “città intelligenti”, influenzano le nostre vite.

Tradotto, ci sono luoghi oggi (ad esempio la CINA) dove le città, attraverso una rete fittissima di telecamere “intelligenti” monitorano minuto per minuto le persone. Insomma è come avere un occhio sempre puntato addosso che ad ogni “passo falso” interviene. Un po’ troppo? Probabilmente.

Il nostro interagire con questi sistemi ne denota come, le stesse decisioni che prendiamo abitualmente, si basano proprio su una nostra volontà di interagire con l’IA.

Ad esempio, dalle diagnosi mediche ai verdetti giudiziari, tutto si collega. Quindi il problema fondamentale, sta tutto nell’uso che noi facciamo del prodotto.

In altre parole, se questo scenario è utopico o distopico dipende dalla nostra prospettiva

I media in genere, parlano spesso dei potenziali rischi causati da questo sistema; ma sono in una diatriba scissa tra il bene e il male.

A rafforzare poi le voci di chi sostiene come l’IA sia potenzialmente dannosa, spunta la tecnologia rivoluzionaria che produce “robot killer” e la disoccupazione di massa.

Un aspetto preoccupante che coinvolge molto l’opinione comune. In tanti, sono addirittura allarmati per la paura scaturita dal pensiero che l’estinzione umana è vicina.

Previsioni più ottimistiche sostengono che l’IA aggiungerà 15 trilioni di dollari, o poco più, all’economia mondiale entro il 2030. E alla fine ci condurrà a una sorta di nirvana sociale.

Dobbiamo certamente considerare, l’impatto che tali tecnologie stanno avendo sulle nostre società.

Effetti dannosi dell’IA:  la causa è nei sistemi matematici

Tra gli esempi che si possono fare, per spiegare il pensiero che ritiene l’intelligenza artificiale dannosa, c’è quello sulle traduzioni automatiche. Un problema tuttavia, in imminente fase di risoluzione.

In pratica, l’attenzione che si è concentrata in conformità a questo fenomeno, spiega come i risultati producono esito sessista. O peggio, le persone di colore le classifica come “gorilla”.

Il problema è che il sistema impiegato nell’IA, usa un modello matematico (come le reti neurali).

Questi identifica grandi schemi in serie di dati da addestramento. Se dunque, in qualunque modo i dati sono distorti, inevitabilmente i suoi giudizi o pregiudizi intrinseci saranno assimilati e compresi. Subendo quindi un ulteriore “addestramento”.

Si spiega in questo modo un aspetto che evidenzia il lato meno brillante di IA. La tecnologia autonoma, va quindi verso la potenziale emarginazione di gruppi come minoranze etniche, donne e anziani. Ciò comporta, per quanto ovvio, una sorta di squilibrio sociale.

Un altro esempio

Se i sistemi d’intelligenza artificiale sono “istruiti” sui dati di arresto della polizia, qualsiasi pregiudizio (conscio o inconscio) manifestato su un modulo destinato alla classica procedura, potrebbe essere replicato da un sistema IA “di polizia predittiva”. Basato quindi sulla “presunta previsione” di ciò che accadrà. Ma ciò che si prevede non ha sempre correlazione tra i fatti.

Riconoscendo quindi, le gravi implicazioni di questo processo, varie organizzazioni autorevoli hanno recentemente consigliato di addestrare tutti i sistemi d’intelligenza artificiale su dati imparziali.

Le linee guida etiche pubblicate all’inizio dello scorso anno dalla Commissione Europea, hanno offerto la seguente raccomandazione:

“Quando sono raccolti i dati, che possono contenere distorsioni, imprecisioni, errori ed errori costruiti socialmente,  devono essere assolutamente visionati prima.  In anticipo sulla formazione, a prescindere dal tipo di set di dati”.

Intelligenza Artificiale: il Caso Amazon Alexa

Ad avvalorare la tesi dei set di dati da addestramento, c’è lo strano caso legato ad Alexa di Amazon che ha dimostrato anche banalmente con vari video su You Tube, come alla domanda “Alexa lavori per la CIA?” Il dispositivo ogni volta si disattiva.

Nulla di strano, penserà qualcuno. Eppure in una sessione perfettamente funzionante di Alexa, dove sono presenti domande semplici o di routine tipo “che tempo fa oggi?” alla stessa sull’Intelligence Agency il dispositivo si disconnette sempre. Perché l’assistente virtuale si interrompe sempre sulla stessa domanda?

Questa “non risposta”, con conseguente disattivazione, lascerebbe molto da pensare.

Il dispositivo, oramai famoso in tutto il mondo, davvero collabora con la CIA? Non c’è nulla che lo confermi ampiamente.  Tuttavia l’Intelligence si occupa di spionaggio civile Americano e non sarebbe strano pensare che voglia ottenere più informazioni possibili per la sicurezza Nazionale.

Ma i mega server della CIA, offerti da Amazon possono davvero spiarci? O si tratta di una paturnia cospirativa? E Alexa si disattiva per proteggersi da un punto di vista legale avvalendosi di non rispondere?

Senza mettere di mezzo Intelligence Agency, parliamo di un altro dettaglio: FACE APP, la famosa App di Facebook creata per invecchiare le persone, che sfrutta la tecnologia delle reti neurali in ambito IA. Quando vi scattate una foto, per poi invecchiarvi, vi siete mai chiesti che fine fanno quelle immortalate negli scatti? Non è dato saperlo.

Ad ogni modo: c’è chi sostiene come non sia realistico richiedere che tutti i set di dati siano imparziali prima che vengano creati i sistemi di intelligenza artificiale. Quindi il problema di Alexa potrebbe essere semplicemente questo.

Intelligenza Artificiale: Conclusioni

Si riporta come << Tali requisiti di alto livello di solito presuppongono che IA denoti un gruppo omogeneo di modelli matematici e approcci algoritmici>>.

Inoltre, diverse attività d’intelligenza artificiale richiedono tipi di sistemi molto diversi. Minimizzare l’intera portata di questa diversità, nasconde i problemi reali posti da dati di addestramento, profondamente distorti.

Questo non è visto positivamente, poiché significa che altre soluzioni al problema della distorsione dei dati, sono trascurate.

Il pregiudizio in un sistema di traduzione automatica istruito, ad esempio, può essere sostanzialmente ridotto se il sistema è adattato dopo che è stato addestrato sul set di dati più grande, inevitabilmente distorto. Questo può essere fatto usando un set di dati molto più piccolo.

Sfortunatamente, queste teorie, sono raramente discusse da chi ha il compito di sviluppare linee guida e quadri legislativi per la ricerca sull’IA.

Se i sistemi si rinforzano semplicemente con gli squilibri sociali esistenti, allora ostacolano piuttosto che facilitare un cambiamento sociale positivo.

Gli sviluppatori di IA devono vigilare molto più attentamente sulle conseguenze sociali dei sistemi che costruiscono.

In aggiunta, chi scrive sull’IA deve capire più in dettaglio come i suoi sistemi  sono effettivamente progettati e costruiti.