¿Cómo se puede aplicar el aprendizaje profundo a la seguridad cibernética?

Gracias por el A2A,

Ese es un tema bastante interesante y hoy en día, escuché sobre él, pero nunca profundicé en el tema. Sin embargo, escuché sobre esta prometedora compañía: Deep Instinct, con sede en Israel y San Francisco.

Básicamente, el principio puede explicarse de una manera simple. Los ataques cibernéticos siguen patrones, la mayoría de las veces diseñados por humanos. Utilizaron el aprendizaje profundo para detectar factores que podrían significar que un ciberataque está ocurriendo o se está preparando. Gracias al aprendizaje continuo durante semanas, logran fortalecer sus algoritmos con el tiempo. Parece realmente prometedor.

Desafortunadamente, no dicen mucho sobre cómo lo hacen en detalles, pero aún puede ver lo que dicen en su sitio web.

Y si estás interesado en trabajar en este nuevo campo, ¡están contratando!

Espero que haya ayudado!

Estoy de acuerdo con los comentarios anteriores, se trata de tener datos etiquetados significativos que sean estadísticamente lo suficientemente grandes y representativos de todo el espectro de posibilidades.

Las redes neuronales livianas de Deep Learning pueden residir y operar de manera autónoma para permitir la detección y bloqueo de actividades sospechosas en tiempo real en el dispositivo o en el nivel de la red.

Que yo sepa, actualmente solo hay 3 empresas que aplican Deep Learning en soluciones comerciales de Ciberseguridad:

  • Deep Instinct proporciona soluciones de seguridad para toda la empresa y aprovecha Deep Learning para capacidades avanzadas de Anti-Malware, evitando la ejecución de software y archivos maliciosos tanto en el punto final como en los niveles de red (Divulgación: Antes de myDRO, fui Director de Marketing de Producto y Desarrollo de Negocios en Instinto profundo).
  • BluVector proporciona soluciones de detección de anomalías de tráfico de red basadas en Deep Learning.
  • SignalSense: todavía en modo sigiloso, poco conocido además de su intención de aplicar Deep Learning a la defensa cibernética

Puede que le interese leer mi reciente publicación sobre Medio: ¿Las startups de IA revolucionarán la ciberseguridad?

También debe consultar la infografía realizada por CB Insights que cubre todas las nuevas empresas que implementan Deep Learning.

Otras respuestas aquí han señalado interpretaciones de la seguridad como un problema de aprendizaje automático / IA, y ejemplos concretos de tales métodos utilizados para la seguridad. Me tomaré un momento para señalar las limitaciones del aprendizaje profundo para ayudar en algunas configuraciones de seguridad.

Como se discutió en el documento Can Machine Learning Be Secure, algunos tipos obvios de comportamiento adversario presentan serios problemas para los métodos de aprendizaje automático. Si el modelo de aprendizaje profundo es un clasificador que etiqueta alguna representación de las acciones del usuario como “segura” o “maliciosa” y está capacitado en datos públicos o fuentes posiblemente no confiables, los posibles atacantes podrían aportar datos donde la entrada son las acciones maliciosas que pretenden hacer y la “verdad fundamental” (terminología irónica en este caso) es la etiqueta de que es “seguro”. Sin embargo, como lo demuestra el documento, una buena regularización a la antigua es una contramedida a tales “ataques causales” (un modelo sobreajustado contorsionará su límite de decisión para incorporar ejemplos sorprendentes (y en nuestras preocupaciones posiblemente no veraces), pero un modelo regularizado será menos sensible a los valores atípicos).

De acuerdo, entonces tal vez confíes en tus datos, ¿los métodos de aprendizaje profundo ahora son seguros? Pensemos en las acciones que los usuarios pueden tomar como R ^ n para los propósitos de este párrafo. Una segunda clase de ataques que este documento considera son los ataques exploratorios que intentan identificar partes de la superficie de decisión, con la esperanza de que aunque el subespacio de acciones presuntamente maliciosas contenga mucho de lo que les gustaría hacer, existe una intersección de presumiblemente seguro y realmente malicioso cerca del límite de decisión. Esto sería simple de hacer si los atacantes conocieran los parámetros de su modelo (para ver ejemplos de uso de la propagación hacia atrás para generar ejemplos adversos en la visión por computadora, consulte https://arxiv.org/pdf/1312.6199.pdf ). Esto puede ser un desafío si los parámetros se mantienen ocultos (este es el enfoque recomendado por Can Machine Learning Be Secure), pero si el sistema de seguridad proporciona comentarios, entonces pueden hacer una búsqueda informada de la superficie de decisión. Para algunas configuraciones de seguridad, como la autenticación, se debe informar al usuario si se le ha dado acceso, por lo que es imposible ocultar la información completa. Dependiendo de la aplicación de seguridad, la definición de “seguro” y “malicioso” puede incluso ser algo subjetiva, por lo que no hay razón para pensar que su modelo no tendrá una gran cantidad de puntos débiles reconocibles. Una medida práctica es tratar de limitar la cantidad de comentarios, pero en algún momento tales limitaciones basadas en la seguridad se vuelven molestas.

A pesar de estas reservas, el aprendizaje automático aún puede ser excelente para la seguridad en la práctica. A medida que se recopilan más datos sobre el mundo, dichos métodos de aprendizaje automático pueden comenzar a superar a los enfoques deterministas, interpretables, basados ​​en políticas o basados ​​en la confianza humana. Tal vez ya lo hacen. No lo sabría: estoy mucho más interesado en el aprendizaje automático que en la seguridad.

En principio, el aprendizaje profundo aplicado a la seguridad cibernética es lo mismo que el aprendizaje profundo aplicado a casi cualquier cosa: obtener un conjunto de archivos, algunos de los cuales se sabe que contienen código malicioso y muchos más que son “normales”. Luego, diseñe una red neuronal multicapa que pueda clasificar las etiquetas maliciosas y normales. El verdadero problema es conseguir algunos datos etiquetados.

Consulte el siguiente documento: http://www.sersc.org/journals/IJ

que contiene más detalles matemáticos y contiene una fuente de archivos que pueden usarse para entrenar la red. Lamentablemente, no tengo un conocimiento más profundo del tema. Espero que esto haya ayudado.

Esa es una pregunta interesante. Dependería del tipo de datos que tenga. Digamos que tiene un historial de registro de un servidor que sufrió ataques DoS. Puede buscar patrones que podrían usarse para predecir el próximo ataque. Incluiría direcciones IP, número de páginas solicitadas por IP, etc.

También puede aprender cómo actúan los empleados de una determinada empresa al acceder al sistema de la empresa y detectar anomalías en sus acciones, que podrían ser un ataque de un individuo externo.

Estoy seguro de que otras personas pueden agregar a esta respuesta.

Que tengas un buen día.

Al principio, debe conocer algunos conceptos básicos de aprendizaje profundo, como algunos algoritmos, algunas aplicaciones …

En segundo lugar, debe descubrir algunas limitaciones de la seguridad cibernética que deben mejorarse.

Finalmente, puede aplicar la teoría del aprendizaje profundo en las aplicaciones de seguridad cibernética. Por ejemplo, puede analizar las cifras …

“Depende” de los datos que tenga disponibles. Me imagino que el aprendizaje profundo podría ser particularmente bueno si tiene datos de series temporales sobre registros de acceso, así como un conjunto etiquetado de los cuales eran maliciosos. Podría crear un modelo que luego pudiera predecir un patrón de acceso potencialmente malicioso a medida que sucedía.