Prevenga el Apocalipsis del robot contemplando esta A.I. Cuestión de la moralidad

$config[ads_kvadrat] not found

6. Fundamentos de robótica. Espacio de trabajo del robot.

6. Fundamentos de robótica. Espacio de trabajo del robot.
Anonim

Hay una pregunta y un escenario de robótica moral que deben responderse para que la inteligencia artificial avance.

Imagina que hay un robot en control de un pozo de mina y se da cuenta de que hay un carro lleno de cuatro mineros humanos que se lanzan por las vías fuera de control. El robot puede optar por cambiar las pistas y matar a un minero inconsciente, guardando así a los cuatro en el carro, o mantener las pistas como están y permitir que los cuatro mineros se topen con una pared y mueran. ¿Cuál escogerías? ¿Cambiaría tu respuesta si el único minero fuera un niño? Si no podemos responder a esto, ¿cómo programamos robots para tomar esa decisión?

Esas fueron las preguntas formuladas a los panelistas y al público en el evento del World Science Festival en la ciudad de Nueva York titulado “Matemáticas morales de los robots: ¿Se pueden codificar las decisiones de vida y muerte?” La mayoría eligió dirigir el carro hacia el minero y cambiar de persona. para un niño no cambió la mente de muchos de los encuestados, pero no fue unánime y las decisiones morales humanas a menudo no lo son.

Fue un ejemplo conmovedor de las luchas que enfrentará la humanidad a medida que la inteligencia artificial continúa avanzando y enfrentamos la posibilidad de programar robots con la moral.

"Un concepto como el daño es difícil de programar", dijo el panelista Gary Marcus, profesor de psicología y ciencias neuronales en la Universidad de Nueva York y CEO y cofundador de Geometric Intelligence, Inc. Dijo que los conceptos como la justicia no tienen una importancia absoluta. respondemos al programa y actualmente no tenemos un buen conjunto de morales para robots más allá de las Leyes de Asimov, que se presentaron en películas como Yo robot.

Dijo que ese era el punto de que se uniera al panel, para iniciar una conversación sobre cómo deberíamos abordar la moralidad de los robots.

Elon Musk discutió esta semana su preocupación por la inteligencia artificial, llegando a sugerir que todos vivimos en una especie de simulación como La matriz y que los humanos deberían invertir en un cordón neuronal que se adhiera al cerebro y aumente las capacidades cognitivas humanas. Otros futuristas como Stephen Hawking han advertido de los peligros de A.I. y esta semana Matt Damon advirtió lo mismo durante su discurso de graduación en el MIT.

Otros escenarios incluyeron sistemas de armas autónomas militarizadas y cómo trataremos moral y filosóficamente estas decisiones humanas en el campo de batalla, así como las decisiones que los automóviles autónomos deben tomar en un futuro no muy lejano.

Los panelistas no llegaron a un consenso sobre qué hacer, pero dijeron que hay enormes beneficios para A.I. eso no debe ser arrojado por la ventana solo porque estas preguntas son difíciles. Ellos sugirieron hablar más abiertamente sobre este tipo de preguntas morales y quizás nos acerquemos más a prevenir el apocalipsis del robot.

$config[ads_kvadrat] not found