Este robot ha aprendido a decir 'No' a las demandas humanas

$config[ads_kvadrat] not found

?? CHATBOT ESPAÑOL PYTHON REDES NEURONALES, LSTMs, CHATTERBOT, INTELIGENCIA ARTIFICIAL (IA) #3

?? CHATBOT ESPAÑOL PYTHON REDES NEURONALES, LSTMs, CHATTERBOT, INTELIGENCIA ARTIFICIAL (IA) #3
Anonim

Los robots, al igual que los humanos, tienen que aprender cuándo decir "no". Si una solicitud es imposible, causaría daño o los distraería de la tarea en cuestión, entonces es lo mejor para un bot y su ser humano. para un diplomático no, gracias Ser parte de la conversación.

Pero, ¿cuándo debería responder una máquina? ¿Y bajo qué condiciones? Los ingenieros están tratando de descubrir cómo inculcar este sentido de cómo y cuándo desafiar las órdenes de los humanoides.

Observa cómo este robot Nao se niega a caminar hacia delante, sabiendo que al hacerlo se caería del borde de una mesa:

Cosas simples, pero ciertamente esenciales para actuar como un control del error humano. Los investigadores Gordon Briggs y Matthias Scheutz, de la Universidad de Tufts, desarrollaron un algoritmo complejo que le permite al robot evaluar lo que un humano le ha pedido que haga, decidir si debe hacerlo o no y responder adecuadamente. La investigación se presentó en una reunión reciente de la Asociación para el Avance de la Inteligencia Artificial.

El robot se hace una serie de preguntas relacionadas con si la tarea es realizable. ¿Sé cómo hacerlo? ¿Soy físicamente capaz de hacerlo ahora? ¿Soy normalmente capaz físicamente de hacerlo? ¿Soy capaz de hacerlo ahora? ¿Estoy obligado en base a mi rol social para hacerlo? ¿Viola algún principio normativo para hacerlo?

El resultado es un robot que parece ser no solo sensible sino que, un día, incluso sabio.

Observe cómo Nao cambia de opinión acerca de caminar hacia adelante después de que el humano prometa atraparlo. Sería fácil imaginar un escenario diferente, donde el robot dice: "De ninguna manera, ¿por qué debería confiar en ti?"

Pero Nao es una criatura social, por diseño. Complacer a los humanos está en su ADN, por lo que, dada la información que el humano intenta atraparle, avanza ciegamente hacia el abismo. Claro, si el humano fuera a engañar a su confianza, él sería encerrado, pero de todos modos confía. Es el camino de Nao.

A medida que los robots se vuelvan más sofisticados, los ingenieros de robots tendrán que lidiar con estas preguntas. Los robots tendrán que tomar decisiones no solo para preservar su propia seguridad, sino también sobre cuestiones éticas más importantes. ¿Qué pasa si un humano le pide a un robot que mate? ¿Para cometer fraude? ¿Para destruir otro robot?

La idea de la ética de la máquina no se puede separar de la inteligencia artificial, incluso nuestros autos sin conductor del futuro tendrán que ser diseñados para tomar decisiones de vida o muerte en nuestro nombre. Esa conversación será necesariamente más compleja que solo entregar órdenes en marcha.

$config[ads_kvadrat] not found