umano troppo umano

Attenzione a non costruire il mondo per loro rischiamo di pregiudicare il futuro

Lo sguardo di Luciano Floridi sulla rincorsa globale all’era dei robot è preoccupato. Il termine che usa il filosofo romano, a Oxford da 26 anni, è «concern», che forse include nel significato più interesse che ansia, più attenzione che affanno. Non sentirete Floridi, considerato oggi tra i più importanti filosofi dell’informazione, scagliarsi indistintamente come un guru qualunque contro l’invasione dei robot o lo strapotere delle multinazionali. «Quelle sono fandonie», dice delle visioni fantascientifiche di robot diabolici che dominano l’umanità. Facciamo ordine. Punto primo: «Se invece di guardare a Hollywood guardassimo alla Fiat sarebbe meglio. Dovremmo guardare alla robotica per come la nostra industria automobilistica l’ha creata. È quella robotica che esce dalle fabbriche e entra a nelle case, negli uffici e nelle piazza». Secondo: «Da sempre costruiamo l’ambiente intorno al robot e non viceversa. Non lasci un robot in mezzo alla strada sperando che impari a pulire il parco, di fatto costruisci un parco con sensori, barriere, fili invisibili. Così potrà raccogliere le foglie».

Se invece di guardare a Hollywood guardassimo alla Fiat sarebbe meglio. Dovremmo guardare alla robotica per come la nostra industria automobilistica l’ha creata

Per Floridi oggi la domanda è: «Come stiamo modificando questi ambienti?». Per capirlo bisogna dimenticare «la narrativa sull’intelligenza artificiale, altamente distraente, basata sul fatto che questi robot siano in grado di agire con l’ambiente come lo siamo noi». Entriamo nelle «questioni etiche serie», perché il robot di oggi è «come il ferro da stiro di nonna» se non lo nutriamo di dati con i quali leggere la realtà. Modifichiamo l’ambiente per renderlo «robot friendly» e rischiamo di pregiudicare il futuro. Per esempio in alcune strade potranno sparire i semafori perché le auto senza guidatore non ne avranno più bisogno. Ma chi rimane alla guida di una cara e vecchia automobile manuale potrebbe rimanere escluso. Un nuovo digital divide, a cui si aggiunge il nodo della privacy. Per alimentare i robot liberiamo dati. Il filosofo italiano invita però a non pensare alla perdita di privacy «come fosse monodimensionale». In questo caso non parliamo di dati con la minaccia della sorveglianza. Creare nuovi ambienti e nuove misurazioni significa piuttosto creare un sistema in cui alcuni «prenderanno molto vantaggio dai dati e alcuni non li toccheranno nemmeno». La risposta non è in un «determinismo tecnologico» che «non ha senso. Il problema è che sei libero di scegliere il treno su cui salire ma non sei libero di scendere quando vuoi».

Modifichiamo l’ambiente per renderlo «robot friendly» e rischiamo di pregiudicare il futuro. Per esempio in alcune strade potranno sparire i semafori perché le auto senza guidatore non ne avranno più bisogno. Ma chi rimane alla guida di una cara e vecchia automobile manuale potrebbe rimanere escluso.

La risposta necessaria è allora: «Più intelligenza e più politica, con la P maiuscola, che decida come dovrebbe essere il mondo», dopo un sostanziale fallimento e un vuoto che ha lasciato alle aziende l’onere di plasmare l’ambiente. È possibile traslare la mano invisibile di Adam Smith, la fiducia nel mercato che troverà un punto di equilibrio, nell’arena digitale? Risponde Floridi: «Il mercato non ha normalmente delle regole che gli permettono di guardare di qui a cent’anni. Si spera che possa andare in una direzione giusta, ma la speranza non è una strategia».

Un ingegnere ha già scritto l’algoritmo che decide se l’auto driverless debba salvare il pedone sulla carreggiata o il passeggero. Ma Floridi considera l’esempio, simbolico della complessità contemporanea, un caso «estremizzato» che «rischia di diventare una sciocchezza». «Se ci fosse un umano opererebbe molto meglio? Tutte e due le scelte sono sbagliate. All’informatico direi di fare una scelta casuale, random, perché una giusta non c’è». Il punto, dice il filosofo, è se «davvero vogliamo dare il potere di scelta a un robot piuttosto che a un individuo. Le soluzioni automatiche sono possibili ma a volte sono totalmente idiote». Anche se il mercato le insegue.

Negli Stati Uniti la polizia utilizza un software per prevedere dove avverranno i crimini. Il sistema «è altamente conservativo - ragiona Floridi -, finisce per proteggere chi è già protetto e non è aperto a modifiche sociali. Purtroppo funziona bene perché i dati e i ragionamenti che ci facciamo sono legati a quella logica. Ma è la logica giusta? È un po’ il passo kantiano: le condizioni di possibilità di questo problema sono quelle giuste oppure no?». Più amara di una banale preoccupazione, Floridi ammette una «frustrazione della ragione. Vediamo le opportunità e capiamo anche che non le coglieremo».

Intervista a cura di Beniamino Pagliaro


[Numero: 31]