Aquí es cómo podemos detener el futuro Rogue A.I. de Imitar HAL 9000

$config[ads_kvadrat] not found

George Michael, Mary J. Blige - As (Official Video)

George Michael, Mary J. Blige - As (Official Video)
Anonim

¿Cómo paramos un futuro A.I. ¿De desobedecer órdenes y elegir seguir su propio camino? Puede sonar como la trama de 2001: una odisea del espacio, pero un experto afirma que es algo en lo que ya tenemos que empezar a pensar. Claro, podríamos desactivar el algoritmo de búsqueda de Google si alguna vez se deshiciera, pero cuando nos enfrentamos a consecuencias financieras y legales, puede ser más fácil decirlo que hacerlo. En el futuro, a medida que crecemos dependientes de una IA más avanzada, podría resultar imposible.

“Este algoritmo no ha sido deliberadamente diseñado sí mismo es imposible reiniciar o apagar, pero ha evolucionado para ser así ", dijo Stuart Armstrong, investigador del Future of Humanity Institute, en Pirate Summit 2016 el miércoles. Esto significa que un cambio con resultados inadvertidos puede ser difícil de rectificar, y puede que no sea la primera A.I. para encontrarse en esa situación.

La solución de Isaac Asimov fueron las tres leyes de la robótica, que codifican ideas como no causar daño a los humanos. El problema es que el daño es bastante subjetivo y está abierto a la interpretación. Los seres humanos trabajan más en valores, como entender que es malo causar daño e interpretar la situación, que trabajar en una regla difícil que nunca deberían hacer daño.

"Es debido a este tipo de problema que la gente está mucho más interesada en usar el aprendizaje automático para obtener valores en lugar de intentar codificarlos de esta manera tradicional", dijo Armstrong. “Los valores son estables de una manera que otras cosas no están en A.I. Los valores se defienden intrínsecamente ”.

Pero incluso en estas situaciones, es importante diseñar A.I. para hacerlos interrumpibles mientras se están ejecutando. La interrupibilidad segura permite cambios seguros de políticas, que pueden evitar consecuencias no deseadas de los valores aprendidos. Si HAL 9000 intentó alguna vez detener la apertura de las puertas del compartimiento de la cápsula, es importante que podamos identificar que los valores de la IA están en mal estado e intervenir sin desconectar el sistema.

$config[ads_kvadrat] not found