U.N. reúne a expertos para discutir las LEYES y nuestra posible desaparición del robot autónomo

$config[ads_kvadrat] not found

Enzo Jannacci, Cochi e Renato - Ho Visto un Re! (by nb)

Enzo Jannacci, Cochi e Renato - Ho Visto un Re! (by nb)
Anonim

Esta semana, las Naciones Unidas están organizando una "reunión de expertos" para debatir si la U.N. debería prohibir los Sistemas de Armas Autónomos Letales (LEYES) antes de que existan. Si aún no estás intimidado, considera una de esas armas autónomas: ejércitos de robots artificialmente inteligentes.

O considérese una definición de LEYES:

"La plataforma de entrega de un LEYS sería capaz de moverse, adaptarse a sus entornos terrestres, marinos o aéreos y apuntar y disparar un efector letal (bala, misil, bomba, etc.) sin ningún tipo de intervención o validación humana".

Según se informa, hay uno de esos sistemas ya en uso en la zona desmilitarizada entre Corea del Norte y Corea del Sur.

Parte de la preocupación aquí, aparte de dejar sueltos a los atacantes y asesinos humanos automáticos, es que habrá una nueva carrera de armamentos para desarrollar y desatar LEYES. Si esta carrera de armamentos despega, entonces - el argumento continúa - no habrá nada que lo detenga. Es la versión de nuestra generación de destrucción mutua asegurada, excepto que estará fuera de las manos de la humanidad. En lugar de esperar a reaccionar ante el caos provocado por LAWS, la U.N. espera tomar medidas preliminares para garantizar que no se produzcan tales estragos.

Al convocar así, la U.N. está dando legitimidad a lo que de otro modo podría haber sido un debate marginal. Otros nombres poderosos, sin embargo, comparten la preocupación. El año pasado, el Instituto Futuro de la Vida reunió a A.I. y los investigadores de robótica para escribir una carta abierta instando a tal prohibición de los sistemas de armas autónomos.

La tecnología de Inteligencia Artificial (IA) ha llegado a un punto en el que el despliegue de tales sistemas es, prácticamente si no legalmente, factible en años, no en décadas, y el riesgo es alto: las armas autónomas se han descrito como la tercera revolución en la guerra, después de la pólvora y armas nucleares.

Stephen Hawking, Elon Musk, Noam Chomsky y Steve Wozniak, junto con otros nombres poderosos, firmaron para endosar la carta. Elon Musk también donó $ 10 millones a la FLI, y está muy preocupado por un apocalipsis inducido por LAWS. Aquí está Musk post-donación:

La reunión informal de la Universidad de los Estados Unidos se extiende hasta el viernes. Si bien no se traducirá en una prohibición de LEYES, es el primer paso necesario.

$config[ads_kvadrat] not found