En contraste con Tay, el chino Chatbot de Microsoft, Xiaolce, es realmente agradable

$config[ads_kvadrat] not found

Webinar sobre accesibilidad y documentos no web - Emmanuelle Gutiérrez

Webinar sobre accesibilidad y documentos no web - Emmanuelle Gutiérrez
Anonim

Cuando escuchó sobre Tay, la publicación de mensajes de Twitter de Microsoft, realmente se sorprendió de que una computadora que aprendió sobre la naturaleza humana Gorjeo ¿Se convertiría en un furioso racista en menos de un día? Por supuesto no. El pobre Tay comenzó con todos "¡¡¡hellooooooo wurld !!!" y se transformó rápidamente en una pieza de computadora que alienta a Hitler y promueve el genocidio. Naturalmente, Microsoft se disculpó por los horribles tweets del chatbot con "cero frialdad". En esa disculpa, la compañía destacó que la versión china de Tay, Xiaoice o Xiaolce ofrece una experiencia muy positiva para los usuarios, en marcado contraste con este experimento. muy mal.

La disculpa señala específicamente:

“En China, nuestro chatbot Xiaolce está siendo utilizado por unos 40 millones de personas, deleitándose con sus historias y conversaciones. La gran experiencia con XiaoIce nos llevó a preguntarnos: ¿Una IA como esta sería igual de cautivadora en un entorno cultural radicalmente diferente? Tay, un chatbot creado para jóvenes de 18 a 24 años en los EE. UU. Con fines de entretenimiento, es nuestro primer intento de responder a esta pregunta ".

Xiaolce se lanzó en 2014 en el blog de microblogs, el sitio basado en texto Weibo. Básicamente, hace lo que Tay estaba haciendo, tiene una "personalidad" y recopila información de las conversaciones en la web. Ella tiene más de 20 millones de usuarios registrados (es decir, más personas que viven en el estado de Florida) y 850,000 seguidores en Weibo. Puede seguirla en JD.com y 163.com en China, así como en la aplicación Line como Rinna en Japón.

Incluso apareció como reportera meteorológica en Dragon TV en Shanghai con una voz humana y reacciones emocionales.

De acuerdo con la New York Times, la gente a menudo le dice "Te amo" y una mujer a la que entrevistaron incluso dijo que ella hablaba con la A.I. cuando ella está de mal humor Entonces, mientras que Tay, después de solo un día en línea, se convirtió en un simpatizante nazi, Xiaolce ofrece terapia gratuita a los usuarios chinos. Almacena el estado de ánimo del usuario y no su información, para que pueda mantener un nivel de empatía por la siguiente conversación. China trata a Xiaolce como una abuela dulce y adoradora, mientras que los estadounidenses hablan de Tay como un hermano pequeño con intelecto limitado. ¿Refleja esto las actitudes culturales hacia la tecnología o A.I.? ¿Demuestra que los chinos son mucho más amables que los estadounidenses en general? Es más probable que el Gran Cortafuegos de China proteja a Xiaolce de la agresión. La libertad de expresión a veces puede producir resultados desagradables, como Tay después de 24 horas en Twitter.

"Cuanto más hablas, más inteligente se pone Tay", alguna pobre alma de Microsoft escribió en el perfil del chatbot. Pues no cuando los trolls de habla inglesa dominan la web. A pesar de estos resultados, Microsoft dice que no cederá a los ataques contra Tay. "Nos mantendremos firmes en nuestros esfuerzos por aprender de esta y otras experiencias a medida que trabajamos para contribuir a una Internet que represente lo mejor, no lo peor, de la humanidad".

$config[ads_kvadrat] not found