La creazione di Robot, umanoidi e in generale intelligenze artificiali sempre più avanzate potrebbero facilitarci la vita ma i più scettici non escludono uno scenario alla "Terminator", con l'intelligenza artificiale che, autonomamente, vedendo gli umani come una minaccia decide di sterminarli.
Ma si possono fare anche altri esempi che comprendono dure lotte tra creatori e robot: Matrix, Battlestar Galactica, Humans, etc
Scene sicuramente apocalittiche e più da film di Hollywood, anche se Google non la pensa esattamente così.
Umanoidi dotati di intelligenza artificiale possono già sconfiggere i campioni più acclamati in alcune tipologie di sport, e diventano sempre più competenti anche in altre aree meno "schematiche", come ad esempio nella guida su strada insieme ad autisti umani.
I ricercatori londinesi di DeepMind, azienda acquisita da Big G nel 2014, stanno lavorando con gli scienziati dell'Università di Oxford alla creazione di una rete che consente all'operatore umano di "spegnere" e in modo sicuro un'intelligenza artificiale, assicurandosi che quest'ultima non impedisca tali interruzioni.
Ovviamente al momento non ci sono intelligenze artificiali tanto evolute da rappresentare un problema come quello di Terminator ma allo stesso tempo i progressi nel settore sono esponenziali e per questo è difficile dire se e quando l'umanità avrà bisogno di premere il fatidico "tasto rosso" per evitare guai.
Secondo Nick Bostrom, le macchine diventeranno più intelligenti degli uomini entro 100 anni e potrebbero rivoltarsi contro i propri creatori:
"Credo che quando verrà raggiunta l'equivalenza con il genere umano, non passerà molto tempo prima che le macchine diventino superintelligenti. Potrebbe volerci molto tempo per arrivare al livello umano, ma penso che il passo da lì alla superintelligenza sarà molto rapido. Credo che queste macchine con potrebbero essere molto potenti, per le stesse ragioni per cui noi esseri umani siamo molto potenti rispetto ad altri animali su questo pianeta. Non è perché i nostri muscoli sono più forti o i nostri denti più affilati, ma perché i nostri cervelli sono migliori"
Insomma un "tasto rosso", di emergenza, in grado di spegnere un'intelligenza artificiale qualora diventasse pericolosa per il genere umano come descritto dal film Ex Machina.
Questo tipo di sistema dovrebbe essere in grado di "arrestare" le azioni di una intelligenza artificiale ma anche di impedire che un sistema troppo sviluppato possa capire e aggirare questa interruzione.
Tuttavia non è ancora chiaro se tutti i tipi di algoritmo possano essere "disattivati" facilmente e in modo sicuro.
Il tutto viene documentato in un file PDF intitolato "Safely Interruptible Agents" pubblicato sul sito Machine Intelligence Research Institute (MIRI) e firmato da Laurent Orseau, Stuart Armstrong e molti altri.
Si legge nel documento:
"Nel caso in cui l'agente fosse sotto la supervisione umana, di tanto in tanto potrebbe essere necessario per l'operatore spegnere il pulsante rosso per impedire all'agente di portare a termine una serie di azioni nocive, sia per l'agente stesso che per l'ambiente, rendendo più sicura la situazione.
La possibilità sicura di interruzione può essere utile per prendere il controllo di un robot che mostra di avere un comportamento anomalo, e può portare a conseguenze irreversibili, sia per allontanarlo da una situazione delicata, sia per utilizzare gli algoritmi per eseguire operazioni che non ha ancora imparato, o da cui normalmente non trae alcun beneficio"
Il framework sviluppato da DeepMind permette di far credere all'agente IA che lo spegnimento sia auto-indotto, ovvero scelto come miglior comportamento da seguire dall'algoritmo stesso.
Alcuni algoritmi utilizzati oggi, noti come Q-learning, sono già "safely interruptible", ovvero possono essere spenti dagli operatori umani, mentre altri, come Sarsa, possono essere modificati per divenirlo con una discreta semplicità.
Questi studi sono tuttavia affascinanti e terrificanti al tempo stesso, con il team che lavora oggi per risolvere un problema che probabilmente dovranno affrontare le generazioni future.
Meglio prepararsi prima del tempo.
Nessun commento:
Posta un commento