umano troppo umano

Ma quando i robot sapranno amare e desiderare chi avrà il diritto di spegnerli?

In principio era il computer, e il computer era utile, ma stupido. Era veloce a far di conto, secondo le istruzioni di un programma. Poi, con l’accelerazione della capacità di calcolo, venne il tempo delle reti neurali, dell’apprendimento automatico e profondo. Alle macchine si poteva insegnare, ma imparavano solo dall’osservazione di un gran numero di casi. Così iniziò l’intelligenza artificiale. Solo le macchine stesse producevano nuovi processi, più complessi dei precedenti. Algoritmi generati da algoritmi.

Ma ancora non sapevano immaginare un concetto astratto, né comprendevano le relazioni emotive, e neppure erano dotate di intuito. E poi i robot conobbero la sintesi emotiva. La singolarità tecnologica preconizzata da Raymond Kurzweil, il passaggio dall’intelligenza biologica a una combinazione ibrida di uomo e macchina - che pareva incolmabile - fu superato d’un balzo. Nulla fu come prima.

Di solito, in un romanzo di fantascienza, a questo punto androidi e cyborg prendono coscienza di sè, della propria superiorità sull’essere umano, e - giudicandolo a ragione imperfetto e pericoloso - lo fanno fuori.

Alla singolarità non siamo arrivati, ma l’accelerazione esponenziale dell’innovazione tecnologica riguardo computer e robot è già tra noi. Gli studiosi che oggi si dicono scettici sulla possibilità che un computer superi il test di Turing - sia in grado cioè di conversare in modo indistinguibile da un umano - sono gli stessi che sostenevano qualche anno fa che sarebbe stato impossibile avere automobili in grado di guidarsi da sole. Il salto dalla programmazione all’auto-apprendimento è quel che oggi ci permette di avere assistenti vocali, computer in grado di effettuare diagnosi mediche, algoritmi finanziari - e perfino il consigliere di una finanziaria di Hong Kong, la Deep Knowledge venture - del tutto automatizzati.

Oggi una macchina riesce a guardare la foto di una festa e a capire che si tratta di uomini e donne che brindano, ma non si accorge che la coppia in primo piano sta flirtando, né intuisce le relazioni tra gli ospiti. L’affective computing è la frontiera sulla quale sono impegnati gli scienziati.

Impressiona guardare i computer di Deep Mind imparare da sé a giocare contro i videogame degli anni ‘80: nei primi minuti perdono, poi capiscono e iniziano a vincere, e infine - dopo qualche ora di gioco - scoprono nei sistemi avversari vulnerabilità ignote, che riescono «a sfruttare in modo spietato». Ma imparare un videogame, riconoscere un volto avendone visti milioni, non significa decifrare il contesto. Oggi - spiegano gli scienziati - una macchina riesce a guardare la foto di una festa e a capire che si tratta di uomini e donne che brindano, ma non si accorge che la coppia in primo piano sta flirtando, né intuisce le relazioni tra gli ospiti. L’affective computing, la capacità di decifrare i sentimenti nei volti, di cogliere il tono che trasforma le nostre frasi - pensiamo al sarcasmo, all’ironia, alle metafore, ai doppi sensi - è la frontiera sulla quale sono impegnati gli scienziati. Perché i robot possano convivere con noi c’è ancora molto che devono imparare sulle emozioni. Gli scienziati dell’università di Leibniz, ad Hannover, ad esempio stanno insegnando loro a «individuare disturbi e malesseri fisici». Come i neuroni umani trasmettono il dolore, così i circuiti inviano l’informazione da classificare come dolore leggero, moderato o severo. All’altro capo dello spettro dei sentimenti, le macchine che imparano a flirtare. David Hanson, di Hanson Robotics, studia il complesso di atteggiamenti generato a partire dallo studio dei gesti che indicano disponibilità sessuale: toccarsi i capelli, umettare le labbra, offrire il collo indifeso alla vista della compagna. Quando davvero ci saranno i computer in grado di sentire, il problema non sarà il timore che ci sopprimano, ma il contrario. A quel punto chi mai avrà il diritto di spegnerli?

@massimo_russo


[Numero: 31]