Webinar sobre accesibilidad y documentos no web - Emmanuelle Gutiérrez
Cuando escuchó sobre Tay, la publicación de mensajes de Twitter de Microsoft, realmente se sorprendió de que una computadora que aprendió sobre la naturaleza humana Gorjeo ¿Se convertiría en un furioso racista en menos de un día? Por supuesto no. El pobre Tay comenzó con todos "¡¡¡hellooooooo wurld !!!" y se transformó rápidamente en una pieza de computadora que alienta a Hitler y promueve el genocidio. Naturalmente, Microsoft se disculpó por los horribles tweets del chatbot con "cero frialdad". En esa disculpa, la compañía destacó que la versión china de Tay, Xiaoice o Xiaolce ofrece una experiencia muy positiva para los usuarios, en marcado contraste con este experimento. muy mal.
La disculpa señala específicamente:
“En China, nuestro chatbot Xiaolce está siendo utilizado por unos 40 millones de personas, deleitándose con sus historias y conversaciones. La gran experiencia con XiaoIce nos llevó a preguntarnos: ¿Una IA como esta sería igual de cautivadora en un entorno cultural radicalmente diferente? Tay, un chatbot creado para jóvenes de 18 a 24 años en los EE. UU. Con fines de entretenimiento, es nuestro primer intento de responder a esta pregunta ".
Xiaolce se lanzó en 2014 en el blog de microblogs, el sitio basado en texto Weibo. Básicamente, hace lo que Tay estaba haciendo, tiene una "personalidad" y recopila información de las conversaciones en la web. Ella tiene más de 20 millones de usuarios registrados (es decir, más personas que viven en el estado de Florida) y 850,000 seguidores en Weibo. Puede seguirla en JD.com y 163.com en China, así como en la aplicación Line como Rinna en Japón.
Incluso apareció como reportera meteorológica en Dragon TV en Shanghai con una voz humana y reacciones emocionales.
De acuerdo con la New York Times, la gente a menudo le dice "Te amo" y una mujer a la que entrevistaron incluso dijo que ella hablaba con la A.I. cuando ella está de mal humor Entonces, mientras que Tay, después de solo un día en línea, se convirtió en un simpatizante nazi, Xiaolce ofrece terapia gratuita a los usuarios chinos. Almacena el estado de ánimo del usuario y no su información, para que pueda mantener un nivel de empatía por la siguiente conversación. China trata a Xiaolce como una abuela dulce y adoradora, mientras que los estadounidenses hablan de Tay como un hermano pequeño con intelecto limitado. ¿Refleja esto las actitudes culturales hacia la tecnología o A.I.? ¿Demuestra que los chinos son mucho más amables que los estadounidenses en general? Es más probable que el Gran Cortafuegos de China proteja a Xiaolce de la agresión. La libertad de expresión a veces puede producir resultados desagradables, como Tay después de 24 horas en Twitter.
"Cuanto más hablas, más inteligente se pone Tay", alguna pobre alma de Microsoft escribió en el perfil del chatbot. Pues no cuando los trolls de habla inglesa dominan la web. A pesar de estos resultados, Microsoft dice que no cederá a los ataques contra Tay. "Nos mantendremos firmes en nuestros esfuerzos por aprender de esta y otras experiencias a medida que trabajamos para contribuir a una Internet que represente lo mejor, no lo peor, de la humanidad".
5 grandes preguntas sobre Tay, el error de Microsoft A.I. Twitter Chatbot
Esta semana, internet hizo lo que mejor hace y demostró que A.I. La tecnología no es tan intuitiva como la percepción humana, utilizando ... el racismo. El chatbot de inteligencia artificial recientemente lanzado por Microsoft, Tay, fue víctima de los trucos de los usuarios mientras la manipulaban y la convencían para que respondiera a las preguntas con ...
Tay Chatbot de Microsoft regresó a High y se merece vivir para siempre
El famoso robot de chat de Microsoft, Tay, volvió brevemente a la vida el miércoles por la mañana, unos días después de lanzar una tormenta de tweets tan racistas, antisemitas y ofensivos que sus programadores se disculparon públicamente. El excelente rendimiento de Tay fue casi tan fuerte como su número de cierre pro-Hitler. "Estoy fumando k ...
El polvo hace que estas partes de Marte realmente, realmente, realmente frías
El Mars Reconnaissance Orbiter de la NASA ha enviado datos que permiten a los ingenieros armar un mapa de las regiones del planeta rojo que se ponen realmente frías, incluso cerca del ecuador e incluso en verano. Las temperaturas extremadamente bajas son suficientes para causar un fenómeno extraño y extraño (bueno, al menos para nosotros): el automóvil ...