OpenAI: la antigua firma de Elon Musk está al borde de una nueva A.I. Era

$config[ads_kvadrat] not found

Elon Musk's OpenAI Terrifies its Creators

Elon Musk's OpenAI Terrifies its Creators
Anonim

OpenAI, la organización sin fines de lucro que investiga inteligencia artificial, cofundada por Elon Musk en 2016, ha estado haciendo grandes avances, incluso después de que Musk se separó en medio de desacuerdos sobre su dirección. Los investigadores han desarrollado sistemas que pueden jugar juegos, escribir artículos de noticias y mover objetos físicos con niveles innovadores de destreza.

OpenAI ha causado controversia con su investigación. La semana pasada, anunció el desarrollo de un modelo de lenguaje, GTP2, que puede generar textos con indicaciones limitadas. Teniendo en cuenta el mensaje escrito por el hombre "Miley Cyrus fue sorprendida robando de Abercrombie y Fitch en Hollywood Boulevard hoy", el sistema produjo una historia completa y creíble que continuó con "la cantante de 19 años fue captada por la cámara siendo escoltada fuera de la tienda por los guardias de seguridad ".

También creó esta historia original sobre hablar de unicornios basándose en un breve indicador:

"No he estado involucrado estrechamente con OpenAI por más de un año y no tengo administración o supervisión de la junta", comentó Musk en Twitter durante el fin de semana. “Tuve que centrarme en resolver una gran cantidad de problemas de ingeniería y fabricación en Tesla (especialmente) y SpaceX. Además, Tesla estaba compitiendo por algunas de las mismas personas que OpenAI y no estaba de acuerdo con lo que el equipo de OpenAI quería hacer. Sume todo eso y fue mejor separarse en buenos términos ".

La firma originalmente parecía una forma ideal para que Musk logre sus objetivos de aprovechar A.I. Por el bien de la humanidad. El empresario ha advertido anteriormente sobre el "riesgo fundamental" para la civilización que representan las máquinas súper inteligentes, instando a los gobiernos a regular "como hacemos los alimentos, las drogas, los aviones y los automóviles".

Musk prometió $ 10 millones para iniciar la firma inicialmente, y su declaración de misión se centra en "descubrir y promulgar el camino hacia una inteligencia general artificial segura".

No es difícil ver cómo los programas que hacen historias como la que compartió el ejecutivo de OpenAI, Greg Brockman, podrían ser utilizados por un número relativamente pequeño de personas para influir en las opiniones de un público menos experto.

Un empleado de OpenAI imprimió esta muestra escrita por AI y la publicó en la papelera de reciclaje: http://t.co/PT8CMSU2AR pic.twitter.com/PuXEzxL7Xd

- Greg Brockman (@gdb) 14 de febrero de 2019

"Debido a nuestras preocupaciones sobre las aplicaciones maliciosas de la tecnología, no estamos lanzando el modelo capacitado", explicó la compañía en una publicación de blog. "Como un experimento de divulgación responsable, en cambio estamos lanzando un modelo mucho más pequeño para que los investigadores experimenten, así como un documento técnico".

El anuncio dio lugar a preocupaciones de que la tecnología podría usarse para generar noticias falsas. Analytics India advirtió que, con la próxima elección india a finales de este año, el A.I. Podría causar estragos en el proceso democrático. Los propios investigadores de OpenAI afirman que, combinada con la investigación para producir audio y video sintéticos, "el público en general tendrá que mostrarse más escéptico ante el texto que encuentra en línea".

Ryan Lowe, un A.I. Científico y ex pasante de OpenAI, resumió la amenaza de que un programa como este se usara para crear noticias falsas de manera sucinta en este post mediano:

… Un sistema automatizado podría: (1) permitir que los actores malos, que no tienen los recursos para contratar a miles de personas, realicen campañas de desinformación a gran escala; y (2) aumentar drásticamente la escala de las campañas de desinformación que ya están a cargo de los actores estatales.

No todas las investigaciones de OpenAI han resultado ser tan controvertidas. Dactyl, presentado en julio de 2018, puede adaptarse a la física del mundo real para manipular objetos en el mundo real. La mano del robot es muy compleja, con 24 grados de libertad, pero el sistema puede mover fácilmente los objetos con solo usar tres cámaras RGB y las coordenadas de la mano del robot.

La mano del robot aprovecha los algoritmos de aprendizaje de refuerzo de uso general utilizados para vencer a los humanos en los videojuegos. El equipo de "OpenAI Five" se enfrentó a un equipo de profesionales. dota 2 jugadores en 2018. El sistema fue entrenado en 180 años de juegos, aprovechando la asombrosa cifra de 128,000 procesadores y 256 procesadores gráficos. Si bien venció a un equipo humano de ex profesionales y Twitch streamers, falló contra jugadores profesionales.

Almizcle usó el dota 2 coincide para llamar la atención sobre Neuralink, su plan para crear una relación simbiótica con A.I. uniendo los cerebros humanos y evitando la toma del robot:

Gran trabajo de @OpenAI. Necesitará la interfaz neuronal pronto para habilitar la simbiosis humana / IA.

- Elon Musk (@elonmusk) 6 de agosto de 2018

En su anuncio del generador de texto, OpenAI dijo que planea discutir su estrategia más amplia dentro de seis meses. La firma espera provocar una discusión matizada sobre los peligros de la inteligencia artificial, un movimiento que podría evitar algunos de los escenarios de desastre previstos por Musk. Sin embargo, incluso la compañía admite que "no está seguro de que" retener el generador de texto "sea la decisión correcta hoy". Con un cisma ya formado entre dos entidades principales que advierten sobre los peligros de la IA, es poco probable que los legisladores tengan una Tiempo en el desarrollo de soluciones.

$config[ads_kvadrat] not found