Nuestro A.I. La política está atascada en el pasado

$config[ads_kvadrat] not found

Paul Simon - You Can Call Me Al (Official Video)

Paul Simon - You Can Call Me Al (Official Video)
Anonim

Ed Felten, el subjefe de tecnología de la Oficina de Ciencia y Tecnología de la Oficina de Ciencia y Tecnología de los Estados Unidos, dice que los humanos tienen dos responsabilidades principales cuando se trata del desarrollo y avance de la inteligencia artificial.

El primero, dice, es "hacer los beneficios de A.I. una realidad ". La segunda:" para hacer frente a los riesgos de A.I."

Felten estaba hablando con una sala llena de personas en el Centro Skirball para las Artes Escénicas de la Universidad de Nueva York en A.I. Ahora, una serie de conferencias de verano copatrocinada por la Casa Blanca que buscó examinar y discutir temas clave relacionados con el futuro de A.I. tecnología.

AI. está en una encrucijada, A.I. Ahora, los copresidentes Kate Crawford (un investigador de Microsoft Research) y Meredith Whittaker (el fundador y líder de Google Open Research), señalaron. Los sectores público y privado deben trabajar juntos para crear algún tipo de A.I. política. Pero el problema es que, si bien las empresas de tecnología están dando grandes pasos hacia el avance del código y la arquitectura reales que se utilizan para crear A.I. una fuerza todopoderosa, nuestras estructuras políticas actuales son obsoletas o, peor aún, inexistentes.

Durante demasiado tiempo, A.I. ha sido desechado como un concepto futurista, inaplicable a la era moderna. Pero A.I. se ha manifestado silenciosamente en la política urbana, examinando una gran cantidad de datos y prestando servicios a las personas de una manera que el poder humano es incapaz de alcanzar nunca. Felten citó ejemplos en la forma en que los algoritmos pueden usar datos para vincular a las personas con viviendas asequibles, o hacer cumplir la transparencia para que el público tenga acceso a información valiosa.

Eso no quiere decir que A.I. es perfecto; es mucho no. Durante el panel principal de la noche, Latanya Sweeney, una A.I. Investigadora de la Universidad de Harvard, discutió una historia que llamó "El día en que mi computadora era racista".

Un periodista que entrevistó a Sweeney buscó su nombre en Google y descubrió que su nombre aparecía en los anuncios de sitios que ofrecían recopilar y compartir datos de arrestos criminales. Sweeney nunca había sido arrestada, y su nombre ni siquiera formaba parte de la base de datos del sitio web, pero su nombre aparecía en un lugar destacado en el anuncio. Como todo buen científico, Sweeney tomó su propia experiencia personal, realizó un estudio y descubrió que era mucho más probable que estos anuncios enumeraran los nombres de los individuos negros que los blancos. ¿La razón? La entrega de estos anuncios por parte de Google es el resultado de un algoritmo que otorga más peso a lo que los humanos hicieron clic cuando aparecieron los anuncios. Cuando se buscó en Google un nombre negro, más personas hicieron clic en estos anuncios. El sistema aprendió el patrón y comenzó a entregar esos anuncios con mayor frecuencia.

Es una valiosa lección para fundamentar la promesa de A.I.: los humanos en última instancia son la tecnología de poder, y las acciones racistas por parte de los humanos pueden afectar el diseño y los algoritmos y, sí, incluso A.I.

Google podría detectar fácilmente esos sesgos en sus servicios de publicidad y trabajar para corregirlos. "Ellos eligieron no hacerlo", argumentó Sweeney.

¿Podría un marco político más moderno obligar a Google a remediar este problema? Quizás. Nicole Wong, quien fue la antecesora de Felten de 2013 a 2014, enfatizó que muchas personas, incluida A.I. los propios investigadores: tenían una preocupación real por una "creciente asimetría en el poder" entre las personas que usan big data y las personas que se ven afectadas en última instancia, que van desde los sujetos de los datos, o los afectados por las decisiones informadas por dichos datos.

Estas preocupaciones no se limitan únicamente al sector privado. Roy Austin, asistente adjunto del presidente en el Consejo de Política Doméstica de la Casa Blanca, se refirió a cómo A.I. - o crear un alcance masivo en el poder y los abusos cuando se trata de la privacidad de los civiles. "La pregunta es: '¿Qué hacemos con estos datos?'", Dijo. Una cosa es tener datos, pero ¿quién tiene acceso a ellos? ¿Por cuanto tiempo? ¿Quién tendrá acceso a ella? Nuevamente, no tenemos respuestas políticas ni soluciones a estas preguntas e incertidumbres, y eso es preocupante a medida que avanzamos hacia un futuro cada vez más controlado por A.I.

Un tercer pilar de preocupación tenía menos que ver con los usos infames de A.I., y más que ver con cómo A.I. y los sistemas autónomos están desplazando a los humanos de los empleos. Henry Siu, un A.I. Un investigador de la Universidad de Columbia Británica discutió las ocupaciones "rutinarias" (donde los empleados realizan un conjunto muy específico de tareas que casi nunca se desvían de una rutina establecida), y cómo estas pérdidas de trabajo son las más vulnerables a las interrupciones en la tecnología. La automatización ha creado una reducción de personal en estos trabajos, y no están regresando.

Suena como la misma vieja historia de la industrialización, pero no es del todo. Si bien "esta revolución ya puede estar aquí … puede ser menos exótica de lo que imaginamos", advirtió David Edelman, asistente especial del presidente de Política Económica y Tecnología. La pérdida de empleos "no sucederá de una sola vez". Tanto él como Siu enfatizaron que la solución es crear un clima educativo donde las personas no dejen de ir a la escuela, están adquiriendo constantemente nuevas habilidades y especializaciones que les permiten adaptarse con tecnología.

A los responsables de la formulación de políticas les puede resultar reconfortante darse cuenta de que Estados Unidos no está solo en la solución de estos problemas. Pero si Estados Unidos tiene la intención de continuar liderando el camino para A.I., tiene que intensificarlo en el campo de las políticas.

Mustafa Suleyman, el cofundador de Google DeepMind, habló sobre el potencial de A.I. para ayudar a los sistemas de salud y permitir que los médicos en algoritmos de máquinas diagnostiquen ciertas enfermedades y enfermedades, liberando tiempo para que los humanos propongan métodos de tratamiento. Para Suleyman, que es británico, no parecía una idea descabellada para establecer un sistema como este en los hospitales. Sweeney señaló, sin embargo, que "en los EE. UU., Usted no tiene control sobre sus propios datos", no hay medidas reglamentarias para garantizar que no se abusa de la información. Y eso es un enorme problema.

"Quiero todo lo que pueda sacar de cada éxito de la tecnología", dijo Sweeney. "El problema no es el lado de la tecnología; El problema es que estamos fuera del ritmo de la política pública ".

$config[ads_kvadrat] not found