Social Media Trolling: cómo A.I. Está mejorando en Anticipar Shitposts

$config[ads_kvadrat] not found

Les homophones en et, est, es, ai.

Les homophones en et, est, es, ai.
Anonim

Internet es un paisaje infernal manejado por trolls y dominado por inútiles argumentos de Facebook o algo peor. Y mientras que los gigantes de las redes sociales en la web finalmente, a regañadientes, comenzaron a desplegar esfuerzos más sólidos para tratar de disuadir el diálogo despectivo, estas soluciones tienden a ser reactivas, es decir, llegar después de que el daño ya se haya hecho.

No debería sorprender, entonces, que los investigadores de inteligencia artificial estén ansiosos por desarrollar sistemas que puedan prever Un argumento en línea antes de que suceda. Pero como un equipo de investigadores de la Universidad de Cornell explicó recientemente a Inverso, esta innovación que se necesita con urgencia no está tan lejos de intentar decir el futuro.

"En el pasado, se ha trabajado para detectar si un comentario dado es tóxico", dice Ph.D de ciencias de la computación. Jonathan Chang. “Nuestro objetivo es un poco diferente, queremos saber si es posible predecir si una conversación actualmente civil se saldrá de control en el futuro. Para explorar esta pregunta, observamos las conversaciones entre los editores de Wikipedia, algunos de los cuales son civiles y otros que se salen de las manos ".

Chang y sus colegas analizaron cientos de mensajes enviados entre los curadores de Wikipedia, a veces fácilmente irritados. Luego utilizaron 1,270 conversaciones que tuvieron un giro ofensivo para entrenar un modelo de aprendizaje automático en un intento por automatizar este tipo de moderación. Sus resultados se publicaron en un documento que se presentó en la reunión anual de la Asociación de Lingüística Computacional el 15 de julio.

Entonces, ¿cómo podría hacer el bot "para calmarnos"? Afortunadamente, no está tan mal. Terminó siendo un 65 por ciento exacto, ligeramente más bajo que el 72 por ciento de éxito de los humanos. Los investigadores encontraron esta estadística creando un cuestionario en línea donde las personas podrían probar sus habilidades de moderación de comentarios. Resulta que es bastante difícil averiguar si los usuarios de las redes sociales se volverán locos o se mantendrán informados.

"La idea es mostrar que la tarea es difícil pero no imposible; si los humanos obtuvieran una precisión del 50 por ciento, por ejemplo, esto no sería mejor que las suposiciones aleatorias y no habría ninguna razón para pensar que podríamos entrenar a una máquina para hacer mejor ”, dice Chang. "La comparación de nuestro modelo con las respuestas humanas nos ha dado una idea de lo similar o diferente que es nuestro enfoque computacional a la intuición humana".

Chang no cree que esto librará a Internet de la basura, pero lo ve como una manera de ayudar a los moderadores de las redes sociales humanas. En lugar de tener que prestar atención a los millones de comentarios que se pueden publicar al día, su algoritmo puede identificar los cientos de aquellos que corren el riesgo de convertirse en un argumento.

Si bien uno podría pensar que peinar todas estas peleas potencialmente impredecibles le daría a Chang un ataque de tristeza, el científico dice que la experiencia le ha dado esperanza para la humanidad.

"En estos días, hay mucho pesimismo en torno a las conversaciones en línea, pero aquí lo que estamos viendo es que incluso en los casos en que una conversación comienza de una manera poco amistosa, todavía hay una oportunidad para que los participantes tengan dudas, cambien de opinión. tono, y poner la conversación en la pista para un resultado más brillante ", dice. "El futuro no está escrito en piedra".

Tal vez haya esperanza para internet después de todo.

$config[ads_kvadrat] not found