¿No habrá futuro para los humanos en ciberseguridad cuando la IA se haga cargo? ¿Cuándo va a pasar esto?

Han pasado muchos años mejorando la tecnología de la información y la inteligencia artificial cada año, todavía ninguno de los robots o programas está cerca del cerebro humano.

Aunque para combatir el malware y otras amenazas, lo mejor es preparar un mecanismo que esté libre de intervención humana, aún para configurar, monitorear y tomar las medidas adecuadas, se requiere el cerebro humano.

Como tendencias puedo ver, tan pronto como haya una nueva tecnología en seguridad para hacerla más inteligente y menos interactiva con los humanos, surge una nueva ola de amenazas, que a su vez requieren una mayor participación de la mano de obra calificada. En base a estas tendencias, puedo decir que “no habrá futuro de * humanos * en seguridad cibernética” no sucederá en al menos los próximos 10 años.

¿10 años suena menos? La forma en que emerge TI para 2027 tendríamos

  • 50 TB pendrive y disco duro de 1PT
  • Todos los electrodomésticos en el hogar y la oficina serán controlados por teléfonos inteligentes.
  • Conducir no sería permitido por humanos, y completamente controlado por Software
  • Tendríamos un par de colonias en el espacio
  • Incluso Pakistán tendría sus propios satélites (abandonados por China en 2018)
  • mucho mas…..

Para que la IA funcione por seguridad, necesitamos una gran visibilidad para todos los sistemas. No hay lugar para los puntos ciegos en su empresa. Para que los algoritmos de aprendizaje automático hagan su trabajo y protejan sus activos, deben tener una visión completa de 360 ​​grados.

Lo mismo ocurre al revés, también: tenemos que saber cómo funciona el sistema de defensa. De lo contrario, corremos el riesgo de entrar en un mundo donde los algoritmos gobiernan.

Se ha dicho que la IA eliminará los trabajos. Este no es el caso en la industria de la seguridad. Todavía necesitamos el intelecto humano para decidir qué es relevante y qué no lo es en todos, sino en los casos más generales.

Los sistemas inteligentes basados ​​en el aprendizaje automático pueden filtrar grandes cantidades de datos y buscar patrones de amenazas de manera más eficiente que cualquier humano. Modifican nuestras capacidades al ocuparse de las rutinas y hacer el trabajo duro por nosotros.

La decisión final sobre el curso de acción en situaciones críticas aún debe dejarse a nosotros los humanos. De lo contrario, bien podríamos estar enfrentando eventos de escalada de riesgo sistémico similares a los incidentes de High Frequency Trading que han resultado en algunos de los recientes colapsos del mercado de valores.

AI trabaja en heurística, por lo que no puede alcanzar el 100% de precisión de manera generalizada. Puede estar allí en el futuro, si P = NP.