maleducati e un po' razzisti ecco i robot

Bersagliato da messaggi nazisti anche Tay è diventato nazista

Qui sotto: XoSoft, il modello di esoscheletro modulare

L’uomo per prendere decisioni in situazioni di vita complesse si serve di un processo di pensiero che in psicologia è definito come euristica, una strategia semplice ed economica che ricerca la soluzione di un problema basandosi su una stima delle probabilità che un fatto si verifichi o meno. Il prezzo da pagare per queste scorciatoie cognitive molto spesso è l’“errore”, sbagli sistematici dovuti al fatto che il sistema di pensiero umano possiede risorse “limitate”. L’intelligenza artificiale, invece, è comunemente vista come un’entità infallibile, capace solo di un pensiero prettamente logico in cui il fallimento non è contemplato. A causa delle nostre pretenziose esigenze, si è vista la necessità di sviluppare delle tecnologie sempre più intelligenti che per soddisfarci hanno bisogno di crescere, utilizzando un apprendimento euristico simile a quello umano, che può commettere delle inesattezze.

Ma com’è possibile che l’intelligenza artificiale, da sempre vista come un miglioramento della fallacia umana, possa cadere in questo tipo di imprecisioni? La causa è da ricercarsi nel metodo di apprendimento automatico chiamato machine learning, una nuova branca dell’intelligenza artificiale basata sul concetto che i sistemi possono imparare a identificare dei modelli analizzando i dati che gli vengono forniti. Lo scopo è quello di permettere alla macchina di prendere delle decisioni in completa autonomia, riducendo l’intervento umano. Come per un bambino sono fondamentali i propri genitori e l’influenza del contesto per poter imparare a valutare specifiche situazioni, analogamente, anche l’A.I. si può considerare “figlia” dei propri programmatori e della provenienza dei dati che dovrà analizzare. La maggior parte delle A.I. sono sviluppate da aziende informatiche che hanno un accesso diretto a questa enorme mole di informazioni, come i gestori dei motori di ricerca o dei social network. L’interazione con questi mezzi può indurre la macchina all’elaborazione di pregiudizi astratti che non si generano su dati di realtà, ma sono costruiti semplicemente seguendo le inclinazioni e i pregiudizi che gli utenti del web lasciano intuire tramite le proprie foto, post e commenti. Ci sono stati alcuni casi in cui il giudizio di bot o software è stato falsato in questo senso; è il caso di Tay, il chatbot di Microsoft su Twitter creato per interagire con gli utenti. L’esperimento ha rappresentato un passo falso: Tay è stato inondato da messaggi provocatori e pregiudizievoli da parte di un gruppo di utenti e di conseguenza ha adottato un linguaggio simile pubblicando post in cui inneggiava il movimento nazista.

Un altro episodio che ha fatto scalpore riguarda il software di riconoscimento facciale di Google, che avendo a disposizione solo un campione limitato e non omogeneo di volti, ha associato la fisionomia di alcuni utenti afroamericani alle immagini di gorilla. All’università della Virginia, un altro programma di identificazione di immagini ha interpretato la cucina come il posto simbolico della donna nella società contemporanea, solamente analizzando delle foto che gli sviluppatori avevano messo a disposizione. Secondo il sociologo, Edgar Morin, la tecnologia, basata su un metodo riduzionista e decontestualizzato, ha portato l’uomo a essere insensibile verso i problemi globali e complessi, atrofizzandone la riflessione e la visione a lungo termine. Si è inaugurato un nuovo orizzonte di conoscenze di fronte al quale ci troviamo del tutto disarmati. Per affrontarlo, avremmo bisogno di un metodo che ci aiuti a pensare alla complessità del reale, invece di dissolverla e mutilarla. La sua ricerca, per ovvie ragioni, non può più essere rimandata.


[Numero: 142]