Musk, Wozniak, Hawking, otros genios se están oponiendo a las armas autónomas

$config[ads_kvadrat] not found

Elon Musk, Stephen Hawking Warn of Killer Robot Wars

Elon Musk, Stephen Hawking Warn of Killer Robot Wars
Anonim

Durante décadas, el AK-47 ha sido la máquina asesina elegida en muchos rincones polvorientos del mundo porque es barato, duradero y ubicuo. Esos mismos factores, argumentan los firmantes de una carta abierta publicada el lunes por el Instituto de Futuro de la Vida, son la razón por la que las armas autónomas están plagadas de peligros. Pero lo que separa el armamento de inteligencia artificial de Kalashnikovs es que la máquina autónoma puede "seleccionar y atacar objetivos sin intervención humana", lo que, en las manos equivocadas, podría cometer atrocidades mucho mayores que cualquier rifle que no se calcule.

Los firmantes tienen mucho trabajo para ellos. Como seres humanos, somos, en general, mucho mejores para reaccionar que para pensar. Los principales jugadores han sido lentos para bajar nuestras armas nucleares (y la construcción de drones autónomos, según se piensa, requeriría una fracción de la maquinaria necesaria para crear un arma nuclear); En otras partes, las minas terrestres todavía están salpicadas de campos de batalla de décadas de antigüedad. Cuando una tecnología revolucionó la guerra, ya sea la pólvora o los acorazados navales o el uranio enriquecido, casi nunca ha existido. no Ha sido una carrera de armamentos.

El FLI hace una distinción entre los drones que tenemos ahora, pilotados de forma remota por manos humanas, y un robot encendido y dejado a sus propios dispositivos asesinos. La creación de este último provocaría una carrera de armamentos de IA global que, según la FLI, y como demuestra la historia de Kalashnikov, no terminaría bien:

Solo será cuestión de tiempo hasta que aparezcan en el mercado negro y en manos de terroristas, dictadores que deseen controlar mejor a su población, señores de la guerra que deseen realizar limpiezas étnicas, etc. Las armas autónomas son ideales para tareas como asesinatos, desestabilizadores. naciones, sometiendo a las poblaciones y matando selectivamente a un grupo étnico particular. Por lo tanto, creemos que una carrera de armamentos de la IA militar no sería beneficiosa para la humanidad. Hay muchas maneras en que la IA puede hacer que los campos de batalla sean más seguros para los humanos, especialmente los civiles, sin crear nuevas herramientas para matar gente.

Esto es una mierda pesada. Y los nombres detrás de esta advertencia no son los chiflados de Skynet, son creadores, ingenieros, científicos y filósofos que han ayudado a dar forma a nuestra tecnología actual. Una parte de los nombres incluyen: Steve Wozniak de Apple, Jaan Tallinn de Skype, Lisa Randall, física de Harvard, quién es quién de investigadores y robóticos de la IA, entre ellos Stuart Russell, Barbara J. Grosz, Tom Mitchell, Eric Horvitz, la actriz Talulah Riley, Noam Chomsky, Stephen Hawking.

Hawking ha tenido un poco de tendencia pesimista últimamente, reiterando también sus predicciones sobre los peligros de encontrarse con la vida extraterrestre. También responderá preguntas sobre esta carta y el futuro de la tecnología en Reddit esta semana; es posible que no podamos controlar a los extraterrestres hostiles, pero podemos poner "la responsabilidad de los científicos a la vanguardia de esta tecnología para mantener el factor humano". Frente y centro de sus innovaciones ".

También puede agregar su nombre a la letra.

$config[ads_kvadrat] not found