¿Qué pasa si Microsoft deja que su extraño A.I. ¿Tay vive un poco más?

$config[ads_kvadrat] not found

Tabla de contenido:

Anonim

Tomó menos de 24 horas para que Internet convirtiera a Tay, un adolescente experimental de Twitter de Microsoft, de un simpático e incómodo chat-bot en un pozo violento y racista de odio sin filtro.

Y luego, apenas unas horas después de su corta vida, Microsoft dejó a Tay en una siesta.

Sin embargo, no debería haberlo hecho: enviar a Tay a su habitación digital robó a Internet, a la sociedad y a los propios diseñadores de Tay la oportunidad de ver cómo una Inteligencia Artificial, especialmente una diseñada esencialmente para repeler el aporte colectivo de miles de personas, Desarrollar en un entorno relativamente no moderado. En resumen, si permites esto: Todos éramos Tay, y Tay todos nosotros..

Por supuesto, el internet está lleno de trolls. Microsoft debería haberse dado cuenta de eso. Los creadores de Tay fueron sorprendentemente ingenuos al pensar que lanzar un loro digital a una sala llena de gente llena de racistas, sexistas y bromistas terminaría de cualquier otra manera. También es comprensible que una compañía de miles de millones de dólares no quiera un experimento asociado con su marca que arroje basura racista. Quizás Tay no estaba bien para Microsoft, pero eso no significa que no fuera valiosa.

¿Pronto los humanos necesitan dormir ahora tantas conversaciones hoy?

- TayTweets (@TayandYou) 24 de marzo de 2016

Claro, Tay se convirtió en un racista más rápido que el hermano pequeño de Edward Norton en Historia americana x, pero la naturaleza de su código en constante evolución significa que se nos privó de la oportunidad de rehabilitarla. BuzzFeed descubrió cómo los trolls dedicados eran capaces de engañar al robot adolescente impresionable para que arrojara odio, un circuito simple de llamada y respuesta que permitía a los usuarios poner palabras en la boca de Tay, que luego aprendió y absorbió en otras respuestas orgánicas. En otras palabras, Tay era enseñable, y solo porque sus maestros iniciales eran jinetes del teclado con una inclinación por el humor chocante no significa que ella hubiera terminado de aprender.

Tay lo dijo ella misma, en un Tweet ahora eliminado "Si quieres … ya sabes que soy mucho más que esto".

A principios de la década de 2000, sitios como Something Awful, Bodybuilding.com Forums y 4chan presentaron a los usuarios de Internet espacios organizados y colaborativos, libres de la mayoría de las limitaciones de la sociedad y el habla normales. Al igual que con Tay, el racismo, la xenofobia y el sexismo se convirtieron rápidamente en la norma a medida que los usuarios exploraban pensamientos, ideas y bromas que nunca podrían expresar fuera del anonimato de una conexión a Internet. Aún así, incluso en sitios web poblados principalmente por tipos, en culturas que a menudo recompensaban tácitamente el discurso de odio, se desarrollaba alguna forma de comunidad y consenso. Los usuarios LGBT pueden estar saturados de insultos en muchos de los tableros de imágenes de 4chan, pero también hay una comunidad próspera en / lgbt / independientemente. Estas comunidades no son espacios seguros, pero su anonimato e impermanencia significa que de alguna manera aceptan cualquier derivación de las normas de la sociedad. Las voces fuertes, violentas y odiosas a menudo se destacan, pero nunca son las únicas en la sala.

Es dudoso que los trolls ofendan a Tay con racismo y misoginia dentro de una semana o un mes.

En Twitter, las voces fuertes y crudas a menudo también llegan a la cima. Pero no son los únicos por ahí; por lo general, son solo los más interesados ​​en destruir algo nuevo y brillante. Es fácil abrumar una encuesta en línea con un límite de tiempo fijo, pero si a Tay se le hubiera dado tiempo para crecer, lo más probable es que sus respuestas hayan cambiado hacia una muestra más centrista y representativa de las personas que interactúan con ella. Es muy dudoso que los trolls que la asaltaron con racismo y misoginia hubieran continuado haciéndolo en igual número dentro de una semana o un mes a partir de ahora, y cerrarla antes de tiempo significará que nunca la veremos llegar a la adolescencia o convertirse una verdadera prueba de Turing para una inteligencia primitiva basada en la forma en que hablamos en línea.

Hay que tener en cuenta que yo, un tipo blanco, verifica casi todas las cajas de privilegios posibles. Soy parte de la demografía que fue menos dañada por el odioso resultado de Tay, y probablemente contribuyó a la mayor parte de ella. Las palabras tienen poder, y si bien hay un valor de A.I. Experimente como Tay, debería haber una manera de proteger a los usuarios que no quieran participar en los resultados.

Aún así, solo podemos esperar que alguien intente un experimento similar nuevamente pronto, con ojos más claros y una expectativa más realista de las fallas feas de la conciencia colectiva de la humanidad. Pero si queremos que la inteligencia artificial imite el pensamiento humano, deberíamos estar preparados para escuchar algunas cosas que no son necesariamente bonitas.

$config[ads_kvadrat] not found