Hoy, tumbado en el sofá, después de venir de tomar, como dicen aquí, unos "pescaítos", me topé con un noticia que viene a sacar a la luz uno de los problemas fundamentales de la inteligencia artificial: ¿Cómo controlar a un agente artificial que se resista ser apagado?
El interesante artículo, escrito por Beatriz Guillėn para elpais.com se puede leer en el
siguiente enlace:
http://elpais.com/tecnologia/2016/12/20/actualidad/1482236622_315819.html
En resumen se dice que hace falta un método, un protocolo standard, oficial y consensuado por la comunidad internacional para evitar que las "máquinas" escapen del control del ser humano, que los ordenadores lleguen a predecir el comportamiento humano (cuando lo normal es lo contrario) o a revelarse.
No es nada nuevo, Isaac Asimov ya postuló hace décadas sus tres leyes fundamentales de la robótica: ese botón rojo que ha de ser "impreso" inherentemente en los circuitos lógicos de todo autómata:
- Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
Ahora yo me pregunto si el ser humano sería capaz de programar estas tres leyes como parte intrínseca de la IA del robot evitando que éste mismo o un ente externo las modifique
Quizá el secreto esté en un algoritmo criptográfico basado en cadena de bloques y de consenso
¿Se podría utilizar la cadena de bloques para imprimir estas reglas de forma inmutable e inviolable?
Enlaces:
https://es.m.wikipedia.org/wiki/Tres_leyes_de_la_rob%C3%B3tica
http://elpais.com/tecnologia/2016/12/20/actualidad/1482236622_315819.html