A.I .: Los investigadores muestran cómo las máquinas pueden falsear el camino a través de las conversaciones

$config[ads_kvadrat] not found

CURIOSIDAD 152: TAMAÑO DE MUESTRA

CURIOSIDAD 152: TAMAÑO DE MUESTRA
Anonim

Si nada más, puedes hacer esto por inteligencia artificial: rara vez tienen miedo de parecer estúpidos. Si es un aprendizaje A.I. encuentra algo fuera de su conocimiento preprogramado, por lo general no será tímido al preguntar a la persona con quien está hablando para aclarar.

Sin embargo, esto puede propiciar una conversación bastante monótona para el humano involucrado en hablar con el chatbot, el asistente de voz o un robot generalmente versado: "¿Qué es una manzana?" "¿Qué es el tiramisú?" "¿Qué es la carne curada?" ¿Literalmente cualquier cosa sobre comida, estúpida receta chatbot?

Entiendes la idea, y como los investigadores de la Universidad de Osaka de Japón señalan en un centro de atención reciente sobre su trabajo, la última línea es indicativa del problema real al que se enfrenta la IA: hacer preguntas puede ser la mejor manera de aprender, pero eso no lo hace. Cuenta mucho si el aluvión de preguntas es tan irritante o tedioso que el humano se aleja. No es suficiente para el A.I. para saber lo que no sabe También debe saber cómo mantener a los humanos lo suficientemente comprometidos como para llenar los vacíos en su conocimiento.

Su método recientemente diseñado utiliza lo que se conoce como adquisición léxica a través de la confirmación implícita, que es básicamente una forma elegante de decir que la inteligencia artificial puede ahora ser una tontería a través de conversaciones tan bien como los humanos. Logra este truco no pidiéndole a los humanos que confirmen qué es algo, sino más bien diciendo algo más que indirectamente hace que el interlocutor confirme o niegue el instinto de la A.I. es correcto.

Echemos un vistazo a un ejemplo.

El A.I. sabe lo suficiente como para hacer una conjetura acerca de los orígenes de la frase "nasi goreng", a juzgar por suena indonesia. El hecho de que el humano dijo que tratará de cocinar este plato sugiere que es un alimento de algún tipo, y por lo tanto el A.I. genera esa afirmación, no cuestionable, aunque una está oculta dentro de ella, sobre la calidad de los restaurantes indonesios en el área.

El A.I. podría presumiblemente usar datos básicos sobre las recientes aperturas de restaurantes y sus reseñas en línea para averiguar si esa afirmación tiene sentido en el hecho, tal vez diga algo así como "Realmente hay que tener más buenos restaurantes indonesios por aquí" si no encuentra muchas opciones.

Pero eso es solo para reducir la confusión, ya que incluso los humanos que no están de acuerdo con la afirmación responderían a la pregunta subyacente sobre si Nasi Goreng es indonesio. Es solo si la persona pregunta lo que el A.I. está hablando de que está claro que la máquina cometió un error.

Entonces, si pensaste que fingir tu camino a través de conversaciones en fiestas era algo que solo los humanos podían hacer … lo siento, la automatización realmente viene para todos nosotros.

$config[ads_kvadrat] not found