AI es mejor en un compromiso que los humanos, encuentra un nuevo estudio

$config[ads_kvadrat] not found

PROFES. La buena educación

PROFES. La buena educación
Anonim

Seamos sinceros. Desde la primera vez que se inventó la inteligencia artificial, los humanos han tenido miedo del día en que nuestros amos de la IA se hacen cargo. Pero algunos investigadores han estado probando la capacidad de la inteligencia artificial no solo para competir con la humanidad, sino también a colaborar.

En un estudio publicado el jueves en Comunicaciones de la naturaleza un equipo de profesores de informática de BYU, Jacob Crandall y Michael Goodrich, junto con colegas del MIT y otras universidades, crearon un algoritmo para enseñar a las máquinas cooperación y compromiso.

Los investigadores programaron las máquinas con un algoritmo llamado S # y las analizaron en una serie de juegos con diferentes socios (máquina-máquina, hombre-máquina y hombre-humano) para probar qué emparejamiento resultaría en la mayoría de los compromisos. Resulta que las máquinas (o al menos las programadas con S #) son mucho mejores en el compromiso que los humanos.

Pero esto podría decir más sobre las "fallas humanas", dice el investigador principal Jacob Crandall Inverso. "Nuestros participantes humanos tenían una tendencia a ser desleales, fallarían en medio de una relación de cooperación, y deshonestos, aproximadamente la mitad de nuestros participantes optaron por no cumplir con sus propuestas, en algún momento de la interacción".

Las máquinas que habían sido programadas para valorar la honestidad, por otro lado, eran honestas. "Este algoritmo particular está aprendiendo que las características morales son buenas. Está programado para no mentir, y también aprende a mantener la cooperación una vez que emerge ", dice Crandall.

Además, la investigación encontró que ciertas estrategias de cooperación fueron más efectivas que otras. Uno de ellos fue "charla barata", señales verbales simples que responden a una situación dada, como "Dulce. ¡Nos estamos enriqueciendo! ”O“ Acepto tu última propuesta ”o, para expresar tu disgusto,“ ¡Maldito seas! ”“ ¡Pagarás por eso! ”O incluso“ ¡En tu cara! ”

Independientemente de qué tipo de juego se estaba jugando o quién jugaba, la charla barata duplicó la cantidad de cooperación. También humanizó las máquinas, con jugadores humanos a menudo incapaces de decir si estaban interactuando con una máquina o un humano.

Debido a que el enfoque de esta investigación se centró en probar el algoritmo S #, una de las deficiencias de la investigación es que no tiene en cuenta las diferencias culturales entre los seres humanos que podrían afectar la forma en que diferentes poblaciones humanas podrían usar o interpretar estrategias como la charla barata o cómo muchos jugadores humanos pueden participar en el engaño o la deslealtad.

Prescientemente, en el cuento final del famoso libro de Isaac Asimov, libro de 1950 Yo robot - "El conflicto evitable": los amos de la IA, de hecho, se apoderan del planeta. Pero, debido a que son tan razonables y están programados con algunas reglas éticas inquebrantables, es algo bueno para la raza humana. Y, como muestra este estudio, debido a que las interacciones humanas son complicadas y confusas, tal vez podamos confiar en las máquinas. Suponiendo, por supuesto, si han sido programados para la honestidad.

Resumen:

Desde que Alan Turing visualizó la inteligencia artificial, el progreso técnico a menudo se ha medido por la capacidad de derrotar a los humanos en encuentros de suma cero (por ejemplo, ajedrez, póker o ir). Se ha prestado menos atención a los escenarios en los que la cooperación hombre-máquina es beneficiosa pero no trivial, como los escenarios en los que las preferencias humanas y mecánicas no están totalmente alineadas ni en conflicto. La cooperación no requiere un gran poder computacional, sino que se facilita mediante la intuición, las normas culturales, las emociones, las señales y las disposiciones pre-evolucionadas. Aquí, desarrollamos un algoritmo que combina un algoritmo de aprendizaje de refuerzo de vanguardia con mecanismos de señalización. Mostramos que este algoritmo puede cooperar con personas y otros algoritmos a niveles que rivalizan con la cooperación humana en una variedad de juegos estocásticos repetidos para dos jugadores. Estos resultados indican que la cooperación hombre-máquina general se puede lograr utilizando un conjunto de mecanismos algorítmicos no triviales, pero en última instancia simples.

$config[ads_kvadrat] not found