¿Tay de Microsoft falló la prueba de Turing? Sí, pero el racismo no fue el problema

$config[ads_kvadrat] not found
Anonim

Si el éxito de una inteligencia artificial es la creación de una inteligencia artificial. personalidad, A.I. de Microsoft Bot, Tay, podría ser considerado un signo de progreso. Pero más ampliamente, Tay puede ser juzgado como un fracaso.

"El objetivo de la mayoría de las personas que trabajan con agentes de conversación de este tipo, no es tanto aprobar ningún tipo de prueba de Turing, sino tener un dominio útil del lenguaje que responda sensiblemente a las cosas y que las personas accedan al conocimiento". Miles Brundage, un Ph.D. estudiante que estudia las dimensiones humanas y sociales de la ciencia y la tecnología en la Universidad Estatal de Arizona dice Inverso.

Microsoft ilustró algunos de los problemas de construir A.I. programas esta semana, cuando en menos de 24 horas, internet convirtió lo que estaba destinado a ser una personalidad femenina, milenaria y automática de Twitter en la caja de resonancia para el discurso más racista y vil que los trolls tenían para ofrecer.

Microsoft detuvo el experimento de inmediato y se disculpó: "Lamentamos profundamente los tweets ofensivos e hirientes de Tay, que no representan quiénes somos o qué representamos, ni cómo diseñamos a Tay".

Cuando se trata de la prueba de Turing, el famoso experimento utilizado para evaluar la IA, Brundage dice que, en general, existen dos escuelas de pensamiento: la literal y la teórica.

Desarrollado en 1950, Alan Turing se esforzó por responder a la pregunta: “¿Pueden las máquinas pensar?”. Sometió a las máquinas a una prueba de imitación, que requiere que un observador determine el género de dos entrevistados, uno de los cuales es un A.I. Si la computadora es capaz de engañar a un cierto número de observadores, entonces ha pasado la prueba.

hellooooooo w🌎rld !!!

- TayTweets (@TayandYou) 23 de marzo de 2016

Si tuviéramos que aplicar esta prueba literalmente, en De inverso En una conversación privada con Tay, ella respondió a las preguntas políticas con elocuencia, hizo referencias a las cadenas de "mannnnn" en la sociedad y usó algunas abreviaturas de texto y emojis. Brundage dijo que Tay mostraba un comportamiento milenario, pero que este tipo de A.I. Se han construido antes.

"Ser capaz de producir comentarios aparentemente adolescentes en Twitter no es realmente la característica de la amplia capacidad lingüística e intelectual que Turing tenía en mente", dice Brundage. "Dicho esto, si en realidad tomáramos la prueba de Turing literalmente, lo que no creo que sea necesariamente recomendable, una variante es que muchos de sus comentarios fueron aparentemente similares a los humanos".

Pero si queremos adoptar un enfoque más amplio como lo sugiere Brundage, entonces es obvio que Tay no mostró un discurso humano razonable.

Microsoft estaba probando lo que se conoce como "comprensión conversacional", de modo que cuanto más gente habla a través de Twitter, GroupMe y Kik, más se suponía que ella debía aprender y adaptarse. Pero ella terminó simplemente repitiendo lo que muchos otros usuarios lo estaban alimentando y simplemente reiterando al mundo.

"Tay" pasó de "los humanos son súper geniales" a los nazis completos en <24 horas y no me preocupa en absoluto el futuro de la IA pic.twitter.com/xuGi1u9S1A

- Gerry (@geraldmellor) 24 de marzo de 2016

"La mayoría de los humanos no solo repetirían después de ti, todo lo que dijiste", dice Brundage.

Articular "Bush hizo el 11 de septiembre" y "Hitler habría hecho un mejor trabajo que el mono que tenemos ahora", tal vez fue algo que alguien escribió a Tay, pero no es exactamente una conversación educada.

"Podría decirse que su propósito al articular la prueba de Turing fue menos para prescribir los detalles de alguna prueba y más para provocar que la gente piense 'en qué momento estaría dispuesto a estar en un sistema tan inteligente' y abrir el pensamiento de la gente a La posibilidad de que las máquinas sean capaces de pensar ", dice Brundage.

$config[ads_kvadrat] not found