¿Arriesgarías una vida para salvar 5? | Sé lo que estás pensando
Un investigador ha afirmado que la inteligencia artificial necesita transparencia para que los humanos puedan tenerla en cuenta. Virginia Dignum, profesora asociada de la Universidad Tecnológica de Delft, dijo a una audiencia en la Universidad de Nueva York el viernes que si no entendemos por qué las máquinas actúan como lo hacen, no podremos juzgar sus decisiones.
Dignum citó una historia de David Berreby, un escritor e investigador científico, que se publicó en Psicología Hoy: "La evidencia sugiere que cuando las personas trabajan con máquinas, tienen menos sentido de agencia que cuando trabajan solas o con otras personas".
El "problema del trolley", explicó Dignum, es un área donde las personas pueden colocar la fe ciega en una máquina para elegir el resultado correcto. La pregunta es si cambiar la palanca en un hipotético tren fuera de control para que mate a una persona en lugar de a cinco. La gente espera que las máquinas resuelvan el problema de la manera más racional posible. Sin embargo, ese no es siempre el caso, y la transparencia ayudaría a explicar cómo tomó la decisión la máquina.
"No es solo una cadena de eventos neuronal muy profunda y neuronal lo que nadie puede entender, sino hacer esas explicaciones de una manera que la gente pueda entender", dijo.
AI. Eso deja claro su funcionamiento en un área que DARPA ha estado explorando. La agencia publicó en agosto un anuncio de que estaba buscando equipos interesados en explicar A.I. Proyectos, conocidos como XAI. Estos sistemas ayudarán a los investigadores a comprender por qué un A.I. tomó la decisión que tomó, y le dio más margen para decidir qué hacer con la información resultante en lugar de confiar ciegamente en la máquina.
Con el aprendizaje automático, Dignum observó que la transparencia es más crucial que nunca. "No podemos esperar que los sistemas, y especialmente las máquinas de aprendizaje automático, aprendan y lo sepan todo de inmediato", dijo."No esperamos que nuestros conductores, al conducir, comprendan completamente las leyes de tránsito. En muchos países, usan esas placas “L” para mostrar: 'Estoy aprendiendo, discúlpeme por los errores que pueda cometer' ”. Observar la inteligencia artificial, comprender cómo se toman ciertas decisiones y actuar en base a eso será crucial para Detener las máquinas que todavía están aprendiendo de tomar malas decisiones.
Carole Shashona fue una experta en bienestar antes de que eso fuera una cosa | HACK HACKS
Las carreras rara vez van según el plan. En Job Hacks, sacudimos a los expertos por las ideas que cultivaron en el camino a la cima de su campo Nombre: Carole Shashona * Ciudad natal original: Ciudad de Nueva York Trabajo: Experta en bienestar, feng shui guru, CEO de su propia marca de estilo de vida. También es una diseñadora que ha trabajado con Melis ...
El informe de transparencia de Google revela un aumento en las solicitudes de datos gubernamentales
El último informe de transparencia de Google es un poco mixto. La compañía reveló esta semana que durante el período de seis meses finalizado en diciembre de 2015, recibió más solicitudes de datos de usuarios del gobierno de los Estados Unidos que nunca antes. Parece una mala noticia, dado que Google contiene información sobre dónde están sus usuarios, con ...
Un estudio financiado por la industria sobre sabores sabrosos de vape muestra por qué son un problema
Los defensores de la salud pública han expresado su preocupación de que, a pesar de que los adolescentes fuman menos tabaco que antes, la popularidad de los sabores sabrosos de vaping podría contribuir a que haya más fumadores menores de edad. Pero en un documento financiado por la industria del tabaco, los investigadores dicen que esto podría evitar que las personas dejen de fumar.