El botón rojo

Hoy, tumbado en el sofá, después de venir de tomar, como dicen aquí, unos "pescaítos", me topé con un noticia que viene a sacar a la luz uno de los problemas fundamentales de la inteligencia artificial: ¿Cómo controlar a un agente artificial que se resista ser apagado?

El interesante artículo, escrito por Beatriz Guillėn para elpais.com se puede leer en el
siguiente enlace:

http://elpais.com/tecnologia/2016/12/20/actualidad/1482236622_315819.html

En resumen se dice que hace falta un método, un protocolo standard, oficial y consensuado por la comunidad internacional para evitar que las "máquinas" escapen del control del ser humano, que los ordenadores lleguen a predecir el comportamiento humano (cuando lo normal es lo contrario) o a revelarse.

No es nada nuevo, Isaac Asimov ya postuló hace décadas sus tres leyes fundamentales de la robótica: ese botón rojo que ha de ser "impreso" inherentemente en los circuitos lógicos de todo autómata:

  1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

Ahora yo me pregunto si el ser humano sería capaz de programar estas tres leyes como parte intrínseca de la IA del robot evitando que éste mismo o un ente externo las modifique

Quizá el secreto esté en un algoritmo criptográfico basado en cadena de bloques y de consenso

¿Se podría utilizar la cadena de bloques para imprimir estas reglas de forma inmutable e inviolable?

Enlaces:

https://es.m.wikipedia.org/wiki/Tres_leyes_de_la_rob%C3%B3tica

https://blog.bitgo.com

http://elpais.com/tecnologia/2016/12/20/actualidad/1482236622_315819.html

http://cdn.wonderfulengineering.com

H2
H3
H4
3 columns
2 columns
1 column
Join the conversation now
Logo
Center