El avance rápido de A.I. debería dar miedo si prestas atención

$config[ads_kvadrat] not found

El avance - nada lo detiene (álbum completo año 2000).

El avance - nada lo detiene (álbum completo año 2000).
Anonim

Cuando se trata de identificar amenazas existenciales planteadas por las innovaciones tecnológicas, la imaginación popular convoca visiones de Terminador, La matriz y Yo robot - distopías gobernadas por amos de robots que explotan y exterminan a las personas en masa. En estos futuros especulativos, una combinación de superinteligencia y malas intenciones lleva a las computadoras a aniquilar o esclavizar a la raza humana.

Sin embargo, un nuevo estudio sugiere que serán las aplicaciones banales de A.I. Eso llevará a graves consecuencias sociales en los próximos años. El informe, "Uso malintencionado de la inteligencia artificial", escrito por 26 investigadores y científicos de universidades de élite y grupos de expertos centrados en la tecnología, describe las formas en que el actual A.I. Las tecnologías amenazan nuestra seguridad física, digital y política. Para enfocar su estudio, el grupo de investigación solo analizó la tecnología que ya existe o es plausible en los próximos cinco años.

Lo que el estudio encontró: AI. los sistemas probablemente expandirán las amenazas existentes, introducirán nuevas y cambiarán el carácter de las mismas. La tesis del informe es que los avances tecnológicos harán que ciertas fechorías sean más fáciles y más valiosas. Los investigadores afirman que las mejoras en A.I. Disminuirá la cantidad de recursos y experiencia necesarios para llevar a cabo algunos ataques cibernéticos, reduciendo efectivamente las barreras al crimen:

Los costos de los ataques pueden reducirse mediante el uso escalable de los sistemas de inteligencia artificial para completar tareas que normalmente requieren trabajo humano, inteligencia y experiencia. Un efecto natural sería expandir el conjunto de actores que pueden realizar ataques particulares, la velocidad a la que pueden llevar a cabo estos ataques y el conjunto de objetivos potenciales.

El informe hace cuatro recomendaciones:

1 - Los formuladores de políticas deben colaborar estrechamente con investigadores técnicos para investigar, prevenir y mitigar los posibles usos malintencionados de la IA.

2 - Los investigadores e ingenieros en inteligencia artificial deben tomar en serio el uso dual de su trabajo, permitiendo que las consideraciones erróneas influyan en las prioridades y normas de investigación, y que se comuniquen de manera proactiva con los actores relevantes cuando las aplicaciones dañinas son previsibles.

3 - Las mejores prácticas deben identificarse en áreas de investigación con métodos más maduros para abordar las inquietudes de doble uso, como la seguridad informática, e importarse cuando corresponda al caso de AI.

4 - Buscar activamente ampliar la gama de partes interesadas y expertos de dominio involucrados en las discusiones de estos desafíos

Cómo A.I. puede hacer que las estafas actuales sean más inteligentes: Por ejemplo, los ataques de phishing con lanza, en los que los estafadores se hacen pasar por el amigo, familiar o colega de un objetivo para ganar confianza y extraer información y dinero, ya son una amenaza. Pero hoy en día, requieren un gasto significativo de tiempo, energía y experiencia. Como A.I. Los sistemas aumentan en sofisticación, parte de la actividad requerida para un ataque de phishing, como la recopilación de información sobre un objetivo, puede ser automatizada. Un phisher podría entonces invertir significativamente menos energía en cada grift y apuntar a más personas.

Y si los estafadores comienzan a integrar a A.I. en sus ventajas en línea, puede ser imposible distinguir la realidad de la simulación. "A medida que la inteligencia artificial avanza, los chatbots convincentes pueden provocar la confianza humana al involucrar a las personas en diálogos más largos, y tal vez eventualmente se disfrazen visualmente como otra persona en un chat de video", dice el informe.

Ya hemos visto las consecuencias de los videos generados por máquinas en forma de Deepfakes. A medida que estas tecnologías se vuelven más accesibles y fáciles de usar, a los investigadores les preocupa que los malos actores difundan fotos, videos y archivos de audio fabricados. Esto podría resultar en campañas de difamación altamente exitosas con ramificaciones políticas.

Más allá del teclado: Y la mala conducta potencial no se limita a internet. A medida que avanzamos hacia la adopción de vehículos autónomos, los piratas informáticos pueden desplegar ejemplos contradictorios para engañar a los autos que conducen por sí mismos y hacer que perciban mal su entorno. "Una imagen de una señal de stop con algunos píxeles cambiados de manera específica, que los humanos reconocerían fácilmente como una imagen de una señal de stop, podría, sin embargo, clasificarse erróneamente como algo completamente distinto por un sistema de inteligencia artificial", señala el informe.

Otras amenazas incluyen drones autónomos con software de reconocimiento facial integrado para fines de focalización, ataques coordinados de DOS que imitan el comportamiento humano y campañas de desinformación automatizadas e hiper-personalizadas.

El informe recomienda que los investigadores consideren posibles aplicaciones maliciosas de A.I. Mientras se desarrollan estas tecnologías. Si no se aplican las medidas de defensa adecuadas, es posible que ya tengamos la tecnología para destruir a la humanidad, no se requieren robots asesinos.

$config[ads_kvadrat] not found