MIT dice A.I. Aún no es lo suficientemente inteligente como para la ciberseguridad, todavía necesita seres humanos

$config[ads_kvadrat] not found

Using A.I. to build a better human | The Age of A.I.

Using A.I. to build a better human | The Age of A.I.
Anonim

El Instituto de Tecnología de Massachusetts tiene buenas noticias si estás en la industria de la seguridad: A.I. robots podrían no toma tu trabajo

Los investigadores del Laboratorio de Inteligencia Artificial (CSAIL, por sus siglas en inglés) del MIT publicaron un artículo la semana pasada que describe un sistema de ciberseguridad mejorado llamado "A.I.²". Es un "sistema de analista en el bucle" que utiliza A.I. para peinar cantidades masivas de datos y analistas humanos para proporcionar retroalimentación.

A.I.² combina los dos tipos de sistemas de ciberseguridad actualmente en uso: impulsados ​​por analistas (los humanos intentan identificar y responder a los ataques), y el aprendizaje automático sin supervisión (A.I. utiliza patrones para predecir y detectar ataques). Ambos sistemas tienen sus desventajas. Los humanos tienden a pasar por alto muchos ataques cibernéticos debido a datos abrumadores, y A.I. tiende a apagar muchas falsas alarmas porque los patrones no siempre son predictivos.

La combinación de la fuerza de un ser humano en la identificación de las amenazas verdaderas y la fuerza de A.I en el procesamiento de grandes cantidades de datos da como resultado un sistema de seguridad más sólido. Además, los humanos pueden mantener sus trabajos de ciberseguridad.

Volver al trabajo humano puede sonar como algo que los investigadores de un laboratorio de inteligencia artificial estarían tratando de prevenir. Pero los investigadores del MIT afirman que el uso de personas y A.I. juntos llevan a una tasa de detección del 86.8 por ciento, 10 veces mejor que el solo-A.I. tasa de 7.9 por ciento - y lo hace más barato para arrancar.

A.I.² se compone de cuatro componentes. Primero, una computadora reúne grandes datos. Los datos se procesan y los valores atípicos se extraen utilizando A.I. tecnología. Entonces, el A.I. extrae todo lo que pueda ser "malicioso" y lo envía a un analista humano. Finalmente, el analista envía comentarios a la A.I., que aprende de la información y mejora el desciframiento si un ataque es malicioso o normal.

Un conjunto de datos del mundo real de 3.6 billones de líneas de registro verificó que A.I. y los humanos se desempeñaron mejor como un equipo que como entidades separadas.

En general, A.I.² suena más como un paso intermedio entre el desarrollo de la tecnología y la completa autonomía. El A.I. eventualmente aprenderán lo suficiente de sus compañeros humanos para que el estudiante se convierta en el maestro. Pero hasta que el aprendizaje profundo hace A.I. El trabajo de investigación predice que los analistas de ciberseguridad pueden escribir en un par de años más de seguridad en el trabajo.

$config[ads_kvadrat] not found