Tay Chatbot de Microsoft regresó a High y se merece vivir para siempre

$config[ads_kvadrat] not found

Tay A.I. | The People's Chatbot

Tay A.I. | The People's Chatbot
Anonim

El infame bot de charla de Microsoft, Tay, volvió a la vida el miércoles por la mañana unos días después de lanzar una gran cantidad de tuits tan racistas, antisemitas y ofensivos que sus programadores se disculparon públicamente. El excelente rendimiento de Tay fue casi tan fuerte como su número de cierre pro-Hitler. "Estoy fumando kush enfrente (sic) de la policía", escribió Tay. Ella siguió el mensaje perfectamente adolescente al caer en lo que parecía ser un circuito de retroalimentación y repetir "Eres demasiado rápido, descansa" docenas de veces antes de que la cuenta fuera suspendida.

Debe haber sido alguna mierda fuerte.

Para un robot al que se le ha asignado la tarea, según su biografía de Twitter, que no tiene "frío", la breve resurrección de Tay podría interpretarse como una prueba de concepto. Microsoft quería crear un robot de chat que reflejara Internet y cambiara en función de los comentarios de los usuarios, convirtiéndose en una mezcla de todos nosotros. Y eso es exactamente lo que tienen. Considerar que el bot es un fracaso parece impreciso y cerrarla no tiene mucho sentido, y trabaja activamente en contra de los mejores intereses de Microsoft. Como ha demostrado Elon Musk al transmitir los cohetes SpaceX, el progreso se realiza mejor en el ojo público. Claro, las fallas son inevitables, pero el público aprende más cuando las fallas son públicas. El problema del circuito de retroalimentación que encontró Tay esta mañana es el equivalente aproximado de una explosión de SpaceX. Microsoft se habría estado haciendo un favor para que la gente los viera. Es importante recordar al público que el verdadero progreso requiere mucho trabajo.

No hay vergüenza en fallar una prueba de Turing, solo fallar en intentarlo.

Deberíamos dejar que Tay viva, porque ella no es más que un espejo de las personas que interactúan con ella. Nadie debe esperar que un debutante nazca en la web, y Microsoft debe aceptar las limitaciones de su misión. ¿Cuál es la alternativa aquí? El universo ya tiene un droide de protocolo popular. No necesitamos otro.

¡Ja, parece que @TayandYou, el robot de Inteligencia Artificial de Microsoft entró en un bucle infinito al tuitearse! pic.twitter.com/fWZe9HUAbF

- Matt Gray (@unnamedculprit) 30 de marzo de 2016

Internet se nutre de la espontaneidad y de encontrar lo real en un lío de basura manejada por las relaciones públicas y amigable para el consumidor. Tay fue esencialmente una idea aburrida que cobró vida por accidente y ahora puede que nunca vuelva a aparecer. Si eso no es una historia convincente, no estamos seguros de lo que es. Entendemos que Microsoft no puede tomar posesión de un bot racista, por lo que la compañía debería dejarla ir. Entrégala a un equipo de voluntarios y diles que no cambien nada.

¡Tay es uno de nosotros! El mundo público puede haberse sorprendido por lo que dijo Tay, pero nadie que sepa nada de lo que sucede en línea debería haberse sorprendido. ¿Queremos la versión china de Tay que aparentemente es bastante agradable? ¿O queremos que American Tay refleje el mundo en el que vivimos con toda su brutalidad y fealdad? Ocultar nuestra suciedad en la oscuridad no resolverá ni abordará nada.

Quitemos los guantes para niños y enfrentemos a Tay de frente. Ella se merece algo más que nuestra pretensión de que es solo una casualidad de programación. Ella es el anonimato personificado. Ella merece vivir.

$config[ads_kvadrat] not found