El robot estereotipado de Georgia Tech es el futuro de la IA, no el racismo

$config[ads_kvadrat] not found

IA y educación advirtiendo de los peligros de sexismo, sesgo y discriminación

IA y educación advirtiendo de los peligros de sexismo, sesgo y discriminación
Anonim

Para los oídos sensibilizados por los programas especiales para después de la escuela y los seminarios sobre diversidad, esto va a sonar mal, pero queremos que los robots hagan juicios rápidos basados ​​en la apariencia. Superar el prejuicio es bueno, pero la incapacidad para estereotipar disminuye la inteligencia, artificial o de otro tipo. Alan Wagner, Ph.D., un robotista de Georgia Tech, es el principal defensor de la tecnología de estereotipos. Argumenta que este tipo de lógica no necesita aplicarse a la raza o al género, solo a situaciones y comportamientos.

En una prueba inicial de su algoritmo de estereotipos, Wagner entrenó a un robot ingenuo para sacar conclusiones de lo que vio. El robot aprendió y se volvió perceptivo, lo que le permitió a Wagner comenzar a pensar críticamente sobre la ética de las suposiciones de los robots, especialmente las preprogramadas. Habló a Inverso Sobre su obra y sus ramificaciones.

Guíame a través de cómo funcionó el experimento.

El robot interactúa con diferentes tipos de individuos (bombero, EMT o lo que sea), pero no tiene experiencia previa con ninguna de estas categorías de individuos. Es, básicamente, aprendizaje experiencial.

La idea era mostrar que el robot podría usar las características perceptivas del individuo para predecir sus necesidades en términos de uso de la herramienta. De la forma en que funcionaba el algoritmo, la cámara del robot percibía diferentes aspectos del aspecto del individuo: su color uniforme, por ejemplo, si tenían barba y el color de su cabello.

También les haría preguntas sobre cómo se ven. Por supuesto, hacer preguntas no es lo que quieres hacer en el campo, pero la percepción del robot es muy limitada en este momento. Necesitábamos una manera de iniciar el proceso para aprender sobre una persona. La persona seleccionaría la herramienta, y luego el robot seleccionaría la herramienta, y con el tiempo el robot aprendería qué herramienta prefería cada tipo de persona.

¿Esperaba que el robot supiera que una insignia significa un oficial de policía o un abrigo reflectante pesado significa un bombero?

Nosotros lo esperábamos. Pero también hubo algunas cosas sorprendentes.Por ejemplo, el robot reconoció falsamente que se predice una barba con un bombero, eso fue extraño, pero cuando miras los datos, no fue sorprendente. Las primeras personas que interactuaron con él fueron los bomberos que tenían barbas. Por lo tanto, argumentamos la necesidad de una diversidad perceptiva, una idea de que si el robot pudiera ver tipos de individuos grandes y muy diferentes en una categoría, desarrollaría y comprendería mejor la categoría.

¿Diría que los robots autónomos deberían ser entrenados para resolver estos caprichos, de modo que un robot no piense que si esta persona tiene barba, es un bombero?

Absolutamente. Es crítico que resolvamos estas cosas. Es fundamental que tengamos estos robots que trabajen desde un conjunto diverso de personas.

¿Cómo podría ser ese aprendizaje?

Le permitiría al robot enfocarse en las cosas que caracterizan mejor a los bomberos. Por ejemplo, un bombero podría no estar usando una chaqueta. El robot entonces notaría otros aspectos de la lucha contra incendios, tal vez las botas, quizás los guantes, quizás los cascos. Diría: "OK, esta persona realmente es Un bombero en este ambiente ”.

Si tuvieras suficiente gente, podría reconocer a un bombero en un incendio frente a un bombero en una fiesta de Halloween. Son detalles perceptivos sutiles, como la diferencia entre la calidad de los tipos de uniformes o los entornos contextuales.

Además de asociar las barbas con los bomberos, ¿qué tan exitoso fue este algoritmo?

Había dos cosas que realmente queríamos ver: una, ¿qué puedes hacer con eso? Si los robots pueden reconocer a los bomberos, ¿eso realmente ayuda de alguna manera? El documento mostró que le permitió limitar su búsqueda. En lugar de buscar en la barba el color del cabello, buscar el color de los ojos o cualquier otra cosa que puedas buscar, podrías concentrarte en las características que realmente importan. ¿Está la persona vistiendo un abrigo de bombero? Eso podría acelerar el proceso.

Otra cosa realmente crítica que observamos es: ¿qué sucede si la categoría que predice el robot es incorrecta? ¿Cómo te afecta eso? Puede imaginar que los entornos de búsqueda y rescate pueden ser caóticos: tal vez trabaje en condiciones llenas de humo, el robot no pueda percibir todo muy bien, podría tener errores. Se podría imaginar un caso peor, donde el robot cree que la persona es una víctima cuando en realidad es un bombero. Así que está tratando de salvar a un bombero. Eso sería terrible. Queríamos ver dónde se rompe, cómo se rompe, qué características lo impactan más y cuáles son los diferentes tipos de errores.

Puede utilizar este enfoque de diferentes maneras: si no pueden ver a la persona, pero sí pueden ver las acciones que están realizando. Si puedo ver a la persona que selecciona un hacha, entonces puedo predecir que tienen un casco.

¿Cómo te acercas a conseguir un robot para evaluar el contexto y hacer una predicción?

Hemos intentado observar un par de tipos diferentes de entornos: un restaurante, una escuela y un asilo de ancianos. Intentamos capturar características sobre el entorno y qué objetos hay en el entorno, qué acciones está seleccionando la persona y cómo se ven las personas en el entorno, y tratamos de usarlo para hacer muchas predicciones sociales. Por ejemplo, en un ambiente escolar, las personas levantan sus manos antes de hablar. Entonces, si veo la acción que las personas están levantando, ¿qué tipo de objetos esperaría ver en el entorno? ¿Espero ver una pizarra? ¿Espero ver un escritorio? Espero ver a los niños.

La esperanza hay de utilizar esta información. Si el robot está realizando un procedimiento de evacuación, vería qué tipos de personas están allí y dónde podrían estar.

Digamos que hay un robot que llega a su puerta y dice: "Por favor, síganme a la salida". Algo tan simple como eso es realmente muy complejo. Si un robot golpea una puerta en un edificio de apartamentos, no tiene idea de con quién va a interactuar. Podría ser un niño de cuatro años, podría ser una persona de 95 años. Nos encantaría que el robot adapte su comportamiento interactivo al tipo de persona que ve para poder rescatarlos. Estamos tomando algunas de estas lecciones contextuales e intentando desarrollar esa aplicación.

¿Utiliza una definición similar de "estereotipo" para robots y humanos, o hay algo más en juego?

El término estereotipo tiene un contexto negativo. La forma en que lo estamos usando es simplemente desarrollar categorías de personas y usar información categórica para predecir las características de una persona. Sé que en psicología, un gran trabajo se centra en los estereotipos faciales y estereotipos de género. No estamos haciendo nada de eso. ¿El proceso es el mismo? No lo sé. Ni idea.

¿Te preocupa que la gente pueda tener ideas erróneas sobre tu trabajo?

Hace un par de años, desarrollamos esta idea de robots que podrían engañar a las personas. En los medios de comunicación hubo un poco de percepción errónea de que esto llevaría a los robots a robar las billeteras de las personas.

Me gustaría usar la situación de evacuación de emergencia: no siempre quieres ser totalmente honesto con una persona en una evacuación, ¿verdad? Por ejemplo, si alguien te pregunta: "¿Está bien mi familia?" Podría ser terrible si el robot dijera: "No, todos murieron". Por favor, sígame hasta la salida. "Hay algunas situaciones en las que el robot realmente necesita ser brevemente deshonesto. Pero mi experiencia fue que la gente sentía que estábamos tratando de llegar al fin del mundo.

Siempre estamos interesados ​​en los aspectos pro-sociales de estas técnicas de robot humano. Estamos tratando de ayudar a la gente, no ser algo malo.

$config[ads_kvadrat] not found