El Roboticist de Tufts hace un llamado a la moral de la máquina: los robots deben "desobedecer para obedecer"

$config[ads_kvadrat] not found

This Robot would let 5 People die | AI on Moral Questions | Sophia answers the Trolley Problem

This Robot would let 5 People die | AI on Moral Questions | Sophia answers the Trolley Problem
Anonim

Los robots se están volviendo más centrales en nuestra vida cotidiana, y pronto tendrán que comenzar a confrontar algunas de las decisiones morales difíciles que tenemos que hacer de manera regular. Matthias Scheutz, profesor de ciencias de la computación en el laboratorio de Interacciones Humano-Robótica de la Universidad de Tufts, está especialmente preocupado por el hecho de que no hayamos equipado a nuestros prototipos de robots más avanzados con las capacidades para enfrentar algunas de estas situaciones. Scheutz cree que los robots tendrán que aprender a desobedecer a los humanos si alguna vez queremos que realmente sirvan a nuestras necesidades.

En un comentario sobre Hoy en línea, provocativamente titulado "Los robots deben ser capaces de desobedecer para obedecer", Scheutz le pide al lector que determine qué debe hacer un robot si se enfrenta a una serie de situaciones que incluso pueden resultar confusas para un humano. Algunos:

Un robot de cuidado de ancianos encargado por un dueño olvidadizo para lavar la "ropa sucia", aunque la ropa acaba de salir de la lavadora.

Un estudiante al mando de su robot tutor para hacer toda la tarea, en lugar de hacerlo ella misma.

Un robot doméstico instruido por su ocupado y distraído dueño para manejar el triturador de basura, a pesar de que las cucharas y los cuchillos están atrapados en él.

Lo que Scheutz pretende describir en el artículo es el simple hecho de que necesitaremos robots que sepan cómo decir "no" a los humanos. Muchos de sus ejemplos tienen que ver con la confiabilidad de la persona que dirige el robot, pero es más difícil de lo que parece programar un robot que sabe que debe recibir instrucciones de cualquier persona que no sea demasiado joven o demasiado vieja o que esté tratando de causar problemas..

Algunos de estos temas ya se están debatiendo acaloradamente en las oficinas centrales de las compañías tecnológicas más poderosas del mundo, a medida que buscan nuevas formas en que la tecnología puede apoderarse de partes de nuestras vidas. Scheutz muestra el ejemplo de un automóvil autónomo que está dirigido a retroceder, pero se da cuenta de un perro que se encuentra en su camino. La mayoría de nosotros estamos de acuerdo en que incluso el humano que conduce el auto querría que el auto se detuviera, pero ¿y si el animal fuera una ardilla o un mapache? ¿Qué pasaría si el automóvil estuviera conduciendo a 45 mph por un camino rural y de repente frenando para que un perro corriera el riesgo de exponerlo a una colisión con otro vehículo detrás de él?

"En cualquier caso, es esencial que ambas máquinas autónomas detecten el daño potencial que sus acciones podrían causar y reaccionen ante él, ya sea intentando evitarlo o, si no se puede evitar el daño, negándose a llevar a cabo la instrucción humana". Scheutz escribe sobre un dilema similar.

El equipo de Scheutz ha estado trabajando en estos problemas con sus prototipos y encontró que la parte más difícil de estas preguntas es diferenciar los leves grados de daño que pueden ocurrir cuando un robot sigue un cierto orden. Así que asignaron a su robot una lección moral muy simple pero poderosa que avergonzaría incluso a los grandes filósofos.

"Si se le indica que realice una acción y es posible que la acción pueda causar daño, entonces se le permite no realizarla".

De una manera sutil, ese es un pronóstico revolucionario de Scheutz. Claro, todos tratamos de evitar el daño, pero ¿no es posible que a veces pensemos que está bien correr riesgos? Jay caminar por la calle, comer una segunda porción de postre o incluso copiar las notas de un amigo de la clase podría violar el axioma de Scheutz.

La noción de interferencia robótica también sugiere que Scheutz quiere que sus robots sigan la ley. No espere que su asistente robot Scheutzian lo ayude a descargar música nueva ilegalmente. Eso causaría daño a los accionistas de EMI!

Es un área complicada de pensamiento moral, legal y técnico, y Scheutz no teme atacarla de frente.

$config[ads_kvadrat] not found