¿Es la prueba de Turing la última palabra en Robot Intelligence? No cuente con ello

$config[ads_kvadrat] not found

Tabla de contenido:

Anonim

En 1950, Alan Turing, científico informático, descifrador de códigos y héroe de guerra, presentó al mundo una premisa muy simple: si un robot puede participar en una conversación basada en texto con una persona y engañarla para que crea que es humana, al menos el 30 por ciento. De momento, seguramente podríamos estar de acuerdo en que el robot es una máquina "pensante". El objetivo de Turing era obligar a las personas a pensar más creativamente sobre la interacción con la computadora, pero inadvertidamente terminó creando la prueba en la que los desarrolladores y comentaristas de inteligencia de robots han confiado durante años. Pero los pensadores serios de inteligencia artificial no están enfocados en confundir a un genio muerto hace un tercio del tiempo. Se centran en métricas más sustantivas.

Fundamentalmente, el problema con la prueba de Turing es que está mal definido, por lo tanto facilita la exageración (por ejemplo, ese falso asistente de enseñanza en Georgia) en lugar de ofrecer resultados fácilmente duplicados. Más allá de eso, se puede argumentar que mide la debilidad humana, no la fuerza artificial. El engaño y la desviación pueden permitir que un chatbot relativamente poco sofisticado "pase la prueba". Por ejemplo, un robot llamado Eugene Goostman, diseñado para hacerse pasar por un niño ucraniano de 13 años, recientemente engañó a un tercio de un panel de jueces para que creyera la artimaña. Eugene aparece como un poco tonto en la conversación, y esta resultó ser su arma secreta. Los jueces esperaban un robot programado para la inteligencia, no uno que evitase las preguntas, hiciera malas bromas, dejara caer los malapropismos y salpicara el texto con emoticones.

acaba de fallar mi prueba anual de turing #fml

- jam (@hugdeserver) 11 de mayo de 2016

Si no es la prueba de Turing, ¿entonces qué? Investigadores de todo el mundo han encontrado algunas alternativas.

Descifrando oraciones ambiguas

Un problema fundamental con los chatbots de Turing es que a las máquinas aún les cuesta mucho entender las oraciones que inmediatamente tendrían sentido para un humano. "Peter le gritó a Paul porque se acostó con su novia". Para un humano, queda claro de inmediato que Paul se acostó con la novia de Peter, pero a una computadora "él" y "su" podrían referirse a cualquiera de los dos. Comprender lo que sucedió requiere saber algo sobre lo que significa gritarle a alguien y bajo qué condiciones podría motivarse a una persona para hacerlo.

Héctor Levesque, profesor de ciencias de la computación en la Universidad de Toronto, ha propuesto máquinas desafiantes para extraer el significado de este tipo de oraciones construidas de forma ambigua, llamado esquema de Winograd, como alternativa a la prueba de Turing. Esto requeriría ir más allá de imitar el lenguaje humano y entrar en el ámbito de la comprensión real. Ya se ofrece un premio de $ 25,000 al desarrollador que puede hacer un bot que se desempeñe tan bien como un humano en esta tarea, aunque el bot puede considerar cada pregunta por hasta cinco minutos.

Reconocimiento facial

Algunos A.I. los investigadores han considerado la idea de que la inteligencia de la máquina puede y debe ir más allá del lenguaje. El reconocimiento facial es un ejemplo de algo que los humanos hacen particularmente bien: un bebé puede reconocer a su madre dentro de las semanas posteriores al nacimiento, después de todo.

Algunas computadoras ya están superando a los humanos en el reconocimiento de rostros, aunque aún es un tema de debate si esto es una medida de verdadera inteligencia. Una máquina programada para ser muy buena en una cosa es muy diferente de tener el tipo de inteligencia flexible que se podría utilizar de diferentes maneras y en diferentes situaciones.

Aceptación de la universidad

Los roboticistas japoneses están tratando de construir un robot que pueda ingresar a la universidad. Los exámenes de ingreso para la Universidad de Tokio son notoriamente difíciles, y mucho más para un robot que para un estudiante de secundaria.

Desafortunadamente para los robots, ser bueno en las pruebas requiere mucho más que memorizar muchos hechos. Las preguntas de matemáticas no te dan una ecuación para resolver, describen un escenario en un lenguaje sencillo y te dejan a ti averiguar cómo construir una ecuación que llegue a la respuesta correcta. Incluso una pregunta directa sobre un hecho histórico podría ser complicada si el robot no puede captar la sintaxis o el contexto del lenguaje utilizado.

Y los exámenes de ingreso no son solo una prueba de opción múltiple, el robot también tendría que escribir ensayos. Presumiblemente, no se permitiría el plagio, y la máquina tendría que generar algo de prosa sobre un tema dado que es original e inteligente. Dado que a los robots les cuesta mucho imitar el lenguaje de un niño de 13 años, esto parece bastante lejano. Aún así, los investigadores involucrados dicen que esperan ver a su pequeño bot en la universidad para el 2021.

Jugar por jugar

Esta es una barra particularmente alta. Comentar sobre un juego de deportes implica tomar información audiovisual compleja y comunicar lo que está sucediendo en un lenguaje sencillo. Un robot tendría que tener muy buenas habilidades lingüísticas además de un sistema de procesamiento visual.

Si una computadora pudiera producir un informe en vivo medio decente sobre un juego de fútbol, ​​los humanos podrían estar de acuerdo en que ese robot es muy inteligente. Aunque, tal vez dentro de 65 años, los robots de comentaristas deportivos parecerán particularmente bidimensionales, y tendremos que encontrar algunos nuevos obstáculos para que puedan saltar.

$config[ads_kvadrat] not found