IA emozioni identità: possono danneggiare?

IA emozioni identità: possono danneggiare?

L’IA è sempre più utilizzata per identificare le emozioni: Cosa c’è dietro tutto questo? è possibile che il cablaggio di questo sistema ultra innovativo rischi di danneggiare le persone in alcune circostanze?

Immaginate di essere a un colloquio di lavoro. Mentre rispondete alle domande del selezionatore, un sistema di intelligenza artificiale (IA) scansiona il vostro viso, valutando il vostro nervosismo, l’empatia e l’affidabilità. Può sembrare fantascienza, ma questi sistemi sono sempre più utilizzati, spesso senza la conoscenza o il consenso delle persone.

La tecnologia di riconoscimento delle emozioni (ERT) è infatti una fiorente industria multimiliardaria che mira a utilizzare IA per rilevare le emozioni dalle espressioni facciali. Eppure la scienza dietro i sistemi di riconoscimento delle emozioni è controversa: ci sono pregiudizi incorporati nei sistemi.

Molte aziende usano l’ERT per testare le reazioni dei clienti ai loro prodotti, dai cereali ai videogiochi. Ma può anche essere usato in situazioni con una posta in gioco molto più alta, come nelle assunzioni, dalla sicurezza aeroportuale per segnalare volti che rivelano inganno o paura, nel controllo delle frontiere, nella polizia per identificare “persone pericolose” o nell’istruzione per monitorare l’impegno degli studenti nei loro compiti.

IA emozioni identità: Un terreno scientifico traballante

Fortunatamente, la tecnologia di riconoscimento facciale sta ricevendo l’attenzione del pubblico. Il pluripremiato film Coded Bias, recentemente uscito su Netflix, documenta la scoperta che molte tecnologie di riconoscimento facciale non rilevano accuratamente i volti con la pelle più scura.

E il team di ricerca che gestisce ImageNet, uno dei più grandi e importanti set di dati utilizzati per addestrare il riconoscimento facciale, è stato recentemente costretto a sfocare 1,5 milioni di immagini in risposta alle preoccupazioni sulla privacy.

Le rivelazioni sui pregiudizi algoritmici e le serie di dati discriminatori nella tecnologia di riconoscimento facciale hanno portato grandi aziende tecnologiche, tra cui Microsoft, Amazon e IBM, a fermare le vendite. E la tecnologia deve affrontare sfide legali per quanto riguarda il suo uso nella polizia nel Regno Unito. Nell’UE, una coalizione di più di 40 organizzazioni della società civile ha chiesto un divieto totale della tecnologia di riconoscimento facciale.

Come altre forme di riconoscimento facciale, l’ERT solleva domande su pregiudizi, privacy e sorveglianza di massa. Ma l’ERT pone un’altra preoccupazione: la scienza delle emozioni dietro di essa è controversa. La maggior parte dell’ERT si basa sulla teoria delle “emozioni di base” che sostiene che le emozioni sono biologicamente cablate ed espresse nello stesso modo da tutte le persone.

***

Tuttavia, questa teoria viene sempre più messa in discussione. La ricerca in antropologia mostra che le emozioni sono espresse in modo diverso nelle varie culture e società. Nel 2019, l’Associazione per la scienza psicologica ha condotto una revisione delle prove, concludendo che non vi è alcun supporto scientifico per l’assunzione comune che lo stato emotivo di una persona possa essere facilmente dedotto dai suoi movimenti facciali. In breve, l’ERT è costruita su un terreno scientifico precario.

Inoltre, come altre forme di tecnologia di riconoscimento facciale, la ERT è codificata con pregiudizi razziali. Uno studio ha dimostrato che i sistemi leggono costantemente i volti dei neri come più arrabbiati di quelli dei bianchi, indipendentemente dall’espressione della persona. Anche se lo studio dei pregiudizi razziali nell’ERT è limitato, i pregiudizi razziali in altre forme di riconoscimento facciale sono ben documentati.

***

Ci sono due modi in cui questa tecnologia può danneggiare le persone, dice la ricercatrice IA Deborah Raji in un’intervista al MIT Technology Review:

“Un modo è quando non funziona: in virtù di avere tassi di errore più elevati per le persone di colore, le mette a maggior rischio. La seconda situazione è quando funziona – quando si ha il sistema di riconoscimento facciale perfetto, ma è facilmente armato contro le comunità per molestarle”.

Quindi, anche se la tecnologia di riconoscimento facciale può essere imparziale e accurata per tutte le persone, potrebbe ancora non essere equa o giusta. Vediamo questi effetti disparati quando la tecnologia di riconoscimento facciale è usata in sistemi di polizia e giudiziari che sono già discriminatori e dannosi per le persone di colore. Le tecnologie possono essere pericolose quando non funzionano come dovrebbero. E possono anche essere pericolose quando funzionano perfettamente in un mondo imperfetto.

***

Le sfide sollevate dalle tecnologie di riconoscimento facciale – inclusa la TCE – non hanno risposte facili o chiare. Risolvere i problemi presentati dalla ERT, richiede di passare dall’etica dell’IA centrata su principi astratti all’etica dell’IA centrata sulla pratica e sugli effetti sulla vita delle persone.

Quando si tratta di ERT, abbiamo bisogno di esaminare collettivamente la controversa scienza dell’emozione incorporata in questi sistemi; e analizzare il loro potenziale di pregiudizi razziali.

E dobbiamo chiederci: anche se la ERT potesse essere progettata per leggere accuratamente i sentimenti più intimi di tutti, vogliamo veramente una sorveglianza così personale nelle nostre vite? Queste sono domande che richiedono la deliberazione, l’input e l’azione di tutti.

Sclerosi multipla: L’IA individua 3 sottotipi