El proyecto OpenAI de Elon Musk identificó 4 grandes problemas para la IA

El Neuralink de Elon Musk: un ex-empleado revela los grandes problemas con este proyecto

El Neuralink de Elon Musk: un ex-empleado revela los grandes problemas con este proyecto

Tabla de contenido:

Anonim

La mayoría de los problemas que podrían resultar de una inteligencia artificial cada vez más sofisticada son mucho más sutiles que SkyNet, pero eso no significa que sea más inteligente. No viene sin sus riesgos.

Es por eso que Elon Musk y otros peces gordos de Silicon Valley formaron Open AI, un grupo dedicado a resolver problemas con A.I. antes de que puedan causar un daño real. Ese grupo se llama OpenAI y está buscando ayuda en estos temas.

"OpenAI es una compañía de investigación de inteligencia artificial sin fines de lucro", dice el grupo en su página Acerca de. "Nuestro objetivo es avanzar en la inteligencia digital de la manera que sea más probable que beneficie a la humanidad en su conjunto, sin restricciones por la necesidad de generar un rendimiento financiero".

Una publicación de trabajo disfrazada como una publicación de blog titulada "Proyectos especiales" describe cuatro de esos "proyectos" como problemas que tienen "implicaciones muy amplias" o que abordan "importantes consecuencias emergentes del desarrollo de la inteligencia artificial". Y luego sus escritores: Ilya Sutskever, Dario Amodei y Sam Altman: invitan a cualquier experto en aprendizaje automático para “comenzar un esfuerzo en uno de estos problemas en OpenAI”. Simplemente envíen una solicitud, preguntan. Aquí están esos cuatro grandes problemas que enfrenta la inteligencia artificial:

Encontrando sistemas de inteligencia artificial encubiertos.

Lo que es peor que un muy inteligente A.I. ¿Que puede ser usado para el propósito equivocado? Un muy inteligente A.I. eso ya se usa para el propósito equivocado sin que nadie lo sepa. "A medida que aumenta el número de organizaciones y recursos asignados a la investigación de la IA, aumenta la probabilidad de que una organización realice un avance no revelado de la IA y utilice el sistema para fines potencialmente maliciosos", escribe el equipo de OpenAI en su blog. "Parece importante detectar esto. Podemos imaginar muchas formas de hacer esto: viendo las noticias, los mercados financieros, los juegos en línea, etc. ”

Construyendo un A.I. que se puede programar

Algunos de los mejores programadores son perezosos. Así que tiene sentido que OpenAI quiera crear un A.I. Capaz de crear programas por su cuenta. Mejor pasar el tiempo haciendo un A.I. Lo suficientemente inteligente como para codificar cualquier cosa que pueda necesitar en el futuro que codificar todas esas cosas usted mismo. ¡Esto es 2016, para gritar en voz alta, y los programadores necesitan un descanso!

Utilizando A.I. para la defensa cibernética.

"Un uso temprano de la IA será irrumpir en los sistemas informáticos", escribe OpenAI. "Nos gustaría que las técnicas de inteligencia artificial se defendieran contra los piratas informáticos sofisticados que hacen un uso intensivo de los métodos de inteligencia artificial". Eso suena bien, sobre todo porque el MIT advirtió que el IRA actual. Confía en los humanos para protegerse contra los ataques cibernéticos.

Realizando simulaciones realmente complejas.

"Estamos interesados ​​en crear una simulación muy grande con muchos agentes diferentes que puedan interactuar entre sí, aprender durante un largo período de tiempo, descubrir el lenguaje y lograr una gran variedad de objetivos", escribe el equipo de OpenAI.

Oh vamos. Ahora ustedes solo están tratando de demostrar que Musk tiene razón acerca de que vivimos en una simulación.