maleducati e un po' razzisti ecco i robot

Decidono da soli e possono sbagliare: ora ci tocca prevedere i loro errori

AP

Scena uno: in un banale lunedì di febbraio l’indice Dow Jones perde 700 punti senza apparente motivo. Scena due: un gruppo di sviluppatori di Facebook al lavoro su nuove soluzioni di intelligenza artificiale scopre che i bot creati dal team usano un linguaggio che assomiglia all’inglese, ovvero usa alcuni termini inglesi, ma poi si snoda in ripetizioni e modi di dire, inventati in autonomia. Incomprensibili per gli umani. Scena tre: un sistema autonomo disegnato per individuare le migliori mosse del tradizionale gioco cinese “Go” sconfigge il migliore giocatore del mondo.

Benvenuti nel presente: stiamo osservando l’evoluzione in atto. In campi diversi - l’elenco di esempi si potrebbe allungare - software disegnati dall’uomo per compiere un’azione si inerpicano in percorsi non espressamente previsti da chi li ha pensati. Non siamo di fronte a una cinematografica insurrezione dei robot. Anzi, il fatto stesso che quando pensiamo a una rivolta pronunciamo la parola “robot”, così materiale e concreta, e non quella “software”, inafferrabile, descrive la nostra dimensione così umana. Ma decine di studi riconoscono ormai che i software programmati dall’uomo sono in grado di apprendere e mostrare intelligenza, ovvero la capacità di prendere decisioni in base al contesto.

Nel seguire questa strada, i software vengono scritti per imparare automaticamente - il cosiddetto machine learning - e questo introduce un presupposto per le decisioni autonome: la conoscenza di un dato che forse l’umano non aveva considerato. Le applicazioni di queste capacità sono già usate in dozzine di settori, dall’analisi delle transazioni per calcolare il rischio di insolvenza di una carta di credito, alle previsioni sul numero di prodotti ordinati su Amazon da una determinata area, così da spostare gli oggetti nel magazzino più vicino al cliente. JPMorgan ha stimato nel 2017 che ormai solo il 10% del volume degli acquisti o delle cessioni in Borsa sia fatto “a mano”, per lo più per operazioni molto grandi o dall’altro lato per movimenti irrisori. Tutto il resto è guidato da scelte di algoritmi, anche se disegnati dall’uomo. Dall’arte alla finanza, dai supermercati agli ospedali, questi sistemi sono al lavoro e prendono già decisioni, anche in campi minati come l’antiterrorismo e la sicurezza.

Il problema - al momento più etico che pratico - riguarda la complessità delle decisioni prese. Aprire la “scatola nera” di un software di deep learning e capire il motivo ultimo di una scelta può diventare complicato. Così Henry Kissinger è solo l’ultimo a porre energicamente la dimensione della sfida sul tavolo. A 95 anni ha riunito un consiglio di lavoro di esperti (cose che puoi fare se ti chiami Henry Kissinger), ha studiato, e ha decretato: «L’illuminismo è a rischio, la società umana non è preparata per l’intelligenza artificiale». Il «partito» dell’ex Segretario di Stato americano conta molti adepti, tra cui anche il fondatore di Tesla e SpaceX, Elon Musk, non proprio un luddista.

La sfida dell’intelligenza artificiale travolge già - oggi, non domani - i rapporti tra continenti. Il fondatore di Alibaba, Jack Ma, ha avvertito che la tensione tra Cina e Stati Uniti sembra una guerra commerciale ma è una competizione pura per la leadership. In questa rincorsa, ogni Stato nazionale sembra arrancare: saremo in grado di guidare e non subire l’evoluzione e prevedere gli errori, prima di ritrovarci a studiare le conseguenze?


[Numero: 142]