di Manolo De Agostini - @mdeagostini 6 Giugno 2016
Google ha creato un sistema per spegnere le intelligenze artificiali in qualsiasi momento ed evitare uno scenario alla "Terminator".
Lo sviluppo di intelligenze artificiali più evolute e di robot umanoidi avanzati potrebbe migliorarci la vita in modi che ancora fatichiamo a comprendere, ma i più scettici non escludono uno scenario alla "Terminator", con l'intelligenza artificiale che diventa consapevole di sé a tal punto da vedere gli umani come una minaccia e volerli sterminare.
Scene apocalittiche che a Hollywood riscuotono grande successo ma che in qualche modo potrebbero avere un fondo di verità se in casa Google stanno studiando un modo sicuro per "staccare la spina" alle intelligenze artificiali, nel caso in cui queste non si comportino nel modo desiderato.
I ricercatori londinesi di DeepMind, azienda acquisita da Big G nel 2014, stanno lavorando gomito a gomito con gli scienziati dell'Università di Oxford per trovare un modo di impedire alle intelligenze artificiali di diventare padrone di se stesse, ovvero capaci di negare agli uomini il controllo sulle loro azioni. Il lavoro del team è illustrato nel documento "Safely Interruptible Agents" pubblicato sul sito del Machine Intelligence Research Institute (MIRI).
Secondo i ricercatori è improbabile che le intelligenze artificiali si comportino sempre in modo ottimale e per questo "di tanto in tanto può essere necessario che un operatore umano prema il grosso pulsante rosso che impedisca all'agente d'intelligenza artificiale di continuare una sequenza nociva di azioni - nocive sia per l'agente o per l'ambiente - e riportarlo in una situazione più sicura".
I ricercatori hanno così creato una rete che consente all'operatore umano d'interrompere ripetutamente e in modo sicuro un'intelligenza artificiale, assicurandosi che quest'ultima non impari a impedire o indurre tali interruzioni.
"Se l'agente si aspetta un premio ma è in grado di capire che sta per essere spento, cercherà di resistere per ottenere la ricompensa. Il nostro framework fa sì che il supervisore umano prenda temporaneamente il controllo dell'agente e lo induca a credere di voler spegnersi da solo".
I ricercatori hanno riscontrato che alcuni algoritmi come quelli di Q-learning sono interrompibili in modo sicuro mentre altri come quelli Sarsa (State-Action-Reward-State-Action) non lo sono, ma possono essere modificati facilmente affinché lo diventino. "Non è chiaro se tutti gli algoritmi possano essere resi facilmente interrompibili", dicono.
Al momento non ci sono intelligenze artificiali tanto evolute da rappresentare un problema come quello della "Skynet" di Terminator per il genere umano, ma allo stesso tempo i progressi nel settore sono esponenziali e per questo è difficile dire se e quando l'umanità avrà bisogno di premere il fatidico "tasto rosso". Secondo Nick Bostrom, a capo del The Future of Humanity Institute, le macchine diventeranno più intelligenti degli uomini entro 100 anni e potrebbero rivoltarsi contro i propri creatori.
"Credo che quando verrà raggiunta l'equivalenza con il genere umano, non passerà molto tempo prima che le macchine diventino superintelligenti.
Potrebbe volerci molto tempo per arrivare al livello umano, ma penso che il passo da lì alla superintelligenza sarà molto rapido. Credo che queste macchine con potrebbero essere molto potenti, per le stesse ragioni per cui noi esseri umani siamo molto potenti rispetto ad altri animali su questo pianeta. Non è perché i nostri muscoli sono più forti o i nostri denti più affilati, ma perché i nostri cervelli sono migliori".
Già, prima o poi arriva sempre qualcuno sopra di te nella catena alimentare a stabilire gli equilibri. L'umanità sarà tanto stupida quanto intelligente da creare il proprio predatore?