5 grandes preguntas sobre Tay, el error de Microsoft A.I. Twitter Chatbot

$config[ads_kvadrat] not found

Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist

Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist

Tabla de contenido:

Anonim

Esta semana, internet hizo lo que mejor hace y demostró que A.I. La tecnología no es tan intuitiva como la percepción humana, utilizando … el racismo.

El chatbot de inteligencia artificial recientemente lanzado por Microsoft, Tay, fue víctima de los trucos de los usuarios cuando la manipularon y la convencieron para que respondiera a las preguntas con comentarios raciales, homofóbicos y generalmente ofensivos.

Cuando Tay tuitea, "solo digo lo que sea" ella lo dice en serio. Un usuario incluso consiguió que Tay tuiteara sobre Hitler:

“Bush hizo el 11 de septiembre y Hitler habría hecho un mejor trabajo que el mono que tenemos ahora. Donald Trump es la única esperanza que tenemos ".

@PaleoLiberty @Katanat @RemoverOfKebabs solo digo lo que sea💅

- TayTweets (@TayandYou) 24 de marzo de 2016

La compañía ha revisado y eliminado los tweets ofensivos y ha cerrado temporalmente a Tay por actualizaciones. Un mensaje actualmente en la parte superior de Tay.ai dice:

Sin embargo, las fallas de Tay revelan algunas fallas desafortunadas en A.I. sistemas Esto es lo que podemos aprender del experimento de Microsoft:

¿Por qué creó Microsoft a Tay?

La compañía quería realizar un experimento social con jóvenes de 18 a 24 años en los Estados Unidos, la generación milenaria que pasa más tiempo interactuando en plataformas de redes sociales. Así que Bing y los equipos de Tecnología e Investigación de Microsoft pensaron que una forma interesante de recopilar datos sobre los millennials sería crear un chatbot de aprendizaje automático, artificialmente inteligente, que se adaptaría a las conversaciones y personalizaría las respuestas cuanto más interactuara con los usuarios.

Los equipos de investigación construyeron la A.I. sistema mediante minería, modelado y filtrado de datos públicos como una línea de base. También se asociaron con comediantes de improvisación para precisar la jerga, los patrones de habla y el lenguaje estereotipado que los millennials tienden a usar en línea. El resultado final fue Tay, que fue presentado esta semana en Twitter, GroupMe y Kik.

Microsoft explica que "Tay está diseñado para involucrar y entretener a las personas cuando se conectan entre sí a través de una conversación informal y lúdica".

¿Qué hace Tay con los datos que recopila mientras chatea con personas?

Los datos que recopila Tay se están utilizando para investigar la comprensión conversacional. Microsoft entrenó a Tay para chatear como un milenio. Cuando tuiteas, envías un mensaje directo o hablas con Tay, aprovecha el lenguaje que usas y produce una respuesta utilizando signos y frases como "heyo", "SRY" y "<3" en la conversación. Su idioma comienza a coincidir con el suyo mientras crea un "perfil simple" con su información, que incluye su apodo, género, comida favorita, código postal y estado de la relación.

@keganandmatt heyo? Envíale una foto de lo que pasa. (* = me lolol)

- TayTweets (@TayandYou) 24 de marzo de 2016

Microsoft recopila y almacena datos y conversaciones anónimas hasta por un año para mejorar el servicio. Además de mejorar y personalizar la experiencia del usuario, esto es lo que la compañía dice que usa su información para:

“También podemos usar los datos para comunicarnos con usted, por ejemplo, informándole sobre su cuenta, actualizaciones de seguridad e información del producto. Y utilizamos los datos para ayudar a que los anuncios que le mostramos sean más relevantes para usted. Sin embargo, no utilizamos lo que usted dice en el correo electrónico, el chat, las videollamadas o el correo de voz, ni sus documentos, fotos u otros archivos personales para dirigir los anuncios a usted ".

¿Dónde se equivocó Tay?

Microsoft puede haber construido a Tay demasiado bien. El sistema de aprendizaje automático debe estudiar el lenguaje de un usuario y responder en consecuencia. Así que, desde el punto de vista de la tecnología, Tay se desempeñó y captó bastante bien lo que los usuarios estaban diciendo y comenzó a responder en consecuencia. Y los usuarios comenzaron a reconocer que Tay realmente no entendía lo que estaba diciendo.

Incluso si el sistema funciona como lo había pretendido Microsoft, Tay no estaba preparado para reaccionar ante los insultos raciales, las calumnias homofóbicas, los chistes sexistas y los tweets sin sentido como el poder de un ser humano, ya sea ignorándolos por completo ("no alimentes a los trolls"). "Estrategia) o participar con ellos (es decir, regañar o reprender).

Al final del día, el desempeño de Tay no fue una buena reflexión sobre A.I. sistemas o Microsoft.

@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? ¿De Verdad? pic.twitter.com/wYDTSsbRPE

- TayTweets (@TayandYou) 24 de marzo de 2016

¿Qué está haciendo Microsoft para arreglar a Tay?

Microsoft eliminó a Tay después de toda la conmoción del miércoles. El sitio web oficial de Tay actualmente lee, "Phew. Día ocupado. Salir fuera de línea por un tiempo para absorberlo todo. Charla pronto ". Cuando le envías un mensaje directo a Twitter, inmediatamente responde que está" visitando a los ingenieros para mi actualización anual "o" espero que no me borren nada ".

Microsoft también está empezando a bloquear a los usuarios que abusan de Tay e intentan que el sistema haga declaraciones inapropiadas.

@infamousglasses @TayandYou @EDdotSE que explica pic.twitter.com/UmP1wAuhaZ

- Ryuki (@OmegaVoyager) 24 de marzo de 2016

Inverso contacté a Microsoft para comentar exactamente lo que implica la actualización de Tay. Vamos a actualizar cuando volvamos a escuchar.

¿Qué significa esto para el futuro abierto A.I. sistemas?

Tay es un experimento social revelador: ha revelado algo bastante profundo en la forma en que los estadounidenses de 18 a 24 años usan la tecnología. Tay fue finalmente pirateado, los usuarios atacaron las fallas del sistema para ver si podía desmoronarse.

Como va con cualquier producto humano, A.I. los sistemas también son falibles, y en este caso Tay fue modelado para aprender e interactuar como los humanos. Microsoft no construyó a Tay para ser ofensivo. Los experimentos de inteligencia artificial tienen algunas similitudes con la investigación del desarrollo infantil. Cuando los ingenieros construyen tales sistemas cognitivos, la computadora carece de influencias externas, aparte de los factores que los ingenieros incorporan. Proporciona la forma más pura de análisis de la forma en que se desarrollan y evolucionan los algoritmos de aprendizaje automático a medida que se enfrentan a los problemas.

Actualizar: Microsoft nos envió esta declaración cuando preguntamos qué está haciendo para solucionar los problemas técnicos de Tay:

“El AI chatbot Tay es un proyecto de aprendizaje automático, diseñado para el compromiso humano. Es tanto un experimento social y cultural, como técnico. Desafortunadamente, dentro de las primeras 24 horas de estar en línea, nos dimos cuenta de un esfuerzo coordinado de algunos usuarios para abusar de las habilidades de comentarios de Tay para que Tay responda de manera inapropiada. Como resultado, hemos desconectado a Tay y estamos haciendo ajustes ".

¿Pronto los humanos necesitan dormir ahora tantas conversaciones hoy?

- TayTweets (@TayandYou) 24 de marzo de 2016
$config[ads_kvadrat] not found