Google, Facebook y Microsoft quieren hacer A.I. Servir a la humanidad

$config[ads_kvadrat] not found

Facebook scraps A.I. chatbots after they created their own language

Facebook scraps A.I. chatbots after they created their own language
Anonim

Cinco gigantes de la industria de la tecnología se han unido para crear la "Asociación sobre Inteligencia Artificial para Beneficiar a las Personas y la Sociedad", un grupo que quiere realizar una investigación sobre A.I. La ética y cómo la tecnología puede funcionar mejor con los humanos. Google, Facebook, Microsoft, IBM, DeepMind (una subsidiaria de Google) y Amazon se han comprometido con un proyecto que apunta a "estudiar y formular las mejores prácticas en A.I. tecnologías, para avanzar en la comprensión del público de A.I., y para servir como una plataforma abierta para la discusión y el compromiso sobre A.I. y sus influencias sobre las personas y la sociedad ".

Aunque suena como si el grupo pudiera caer en algunos argumentos fugaces sobre los puntos más finos del software oscuro, la asociación coloca en el centro de su sitio web un mantra que muestra que comprende las posibilidades emocionantes A.I. para la humanidad: "Creemos que las tecnologías de inteligencia artificial son una gran promesa para mejorar la calidad de vida de las personas y que pueden aprovecharse para ayudar a la humanidad a enfrentar importantes desafíos globales como el cambio climático, la alimentación, la desigualdad, la salud y la educación".

La asociación promete un diálogo abierto sobre A.I. ética, pero no se puede negar que un consorcio de grandes jugadores les da cierto grado de poder sobre la dirección de la conversación. Más allá de cerrar nuevas empresas, esto podría afectar a grandes nombres como Tesla, que no forman parte del grupo pero tienen un interés clave en la ética a través del desarrollo de un software de piloto automático.

El interés en definir un código de ética ha aumentado lentamente, a medida que más A.I. Se le asignan responsabilidades para tomar decisiones de vida o muerte. ¿Cómo debe actuar un automóvil autónomo, por ejemplo, en una emergencia? Alemania ha delineado las leyes básicas que esperaría que siguieran los vehículos autónomos, como no clasificar a las personas como una forma de priorizar acciones en un accidente.

Conjuntos de reglas más generales provienen de organizaciones como el British Standards Institute (BSI). Estas reglas, que cubren el terreno como no diseñar robots que pueden herir a las personas, tienen como objetivo desarrollar un código universal. La asociación promete que, al igual que el código de BSI, estará abierto a diálogos externos, pero el tiempo dirá si eso es suficiente para satisfacer a otros grandes actores de A.I.

$config[ads_kvadrat] not found