La IA está cambiando la seguridad: cinco predicciones y tendencias
Por Daniela Menéndez, Country Manager de Palo Alto Networks México.
La rápida evolución de la Inteligencia Artificial (IA), incluida una nueva ola de capacidades de IA generativa, ya ha tenido un impacto dramático en la ciberseguridad. Los piratas informáticos están utilizando la IA para programar ransomware, crear amenazas de phishing y establecer botnets más adaptables y evasivas, mientras que los sistemas de ciberseguridad impulsados por IA están aportando nueva velocidad y precisión a la detección y respuesta a las amenazas. Y aún queda mucho más por venir.
Una de las principales tendencias que esperamos es que la IA ayudará a detectar y prevenir nuevos ataques. Al programar un nuevo ataque, los ciberdelincuentes a menudo buscan evadir las defensas encadenando un conjunto finito de tácticas, técnicas y procedimientos (TTPs, tactics, techniques and procedures) en nuevas combinaciones. La IA facilita este proceso a los atacantes, pero también ofrece beneficios similares para los defensores.
En el pasado, los sistemas de detección de amenazas podían entrenarse eficazmente con ejemplos existentes de técnicas individuales, pero las nuevas variaciones en la forma en que se construía y distribuía el malware tendrían que capturarse individualmente con el tiempo. Ahora, con la IA, podemos simular muchos más ejemplos de las formas en que se pueden combinar diferentes técnicas, sin endurecer solo variaciones limitadas, lo cual provoca que para los atacantes ya no sea suficiente crear novedades mediante pequeñas variaciones de temas existentes.
En segundo lugar, vemos que la IA permitirá el lenguaje natural en las operaciones de seguridad (SecOps). La IA generativa ayudará a interactuar con los datos más fácilmente, generando lo que yo llamo SecOps en lenguaje natural. Las personas con una profunda experiencia en el dominio podrán concentrarse en analizar una situación sin preocuparse por una gran cantidad de requisitos diferentes para recopilar datos, comprender sus caprichos y sesgos, o convertirse en un triple cinturón negro de lenguaje específico de dominio (SQL) o un administrador de bases de datos de lagos de datos de seguridad; asimismo, capacidades similares simplificarán las tareas en todo el centro de operaciones de seguridad (SOC).
La IA, además, ampliará el alcance del análisis de datos; los datos de toda la empresa pueden tener valor para la detección y prevención de amenazas, así como para remediar y mejorar la postura de seguridad de una organización. Por ejemplo, integrar los datos en el sistema de recursos humanos de una empresa puede facilitar la tarea de garantizar que un usuario que solicita acceso a una red Zero Trust sea en realidad un empleado o contratista de la empresa.
Pero primero, las organizaciones necesitan una manera de unir estos diversos conjuntos de datos, si una empresa tiene diferentes bases de datos donde los campos no se alinean del todo o hay inconsistencias en los estándares de datos, la IA puede ayudarlo a unirlas para brindar la visibilidad que necesitaría.
La automatización es una de las características más útiles de la Inteligencia Artificial, esta ayudará a las empresas a escalar sus operaciones de seguridad sin agregar personal, después de años de escasez de talento en ciberseguridad. Si bien aún estamos lejos de que la IA reemplace por completo a los trabajadores, la seguridad ya no puede estar a cargo únicamente de expertos humanos. Cuando los atacantes utilizan polimorfismo para generar millones de archivos, ya no podemos cubrirlos con firmas. Es necesario automatizar la clasificación de archivos, páginas web y otras cosas, y la única forma de hacerlo es con Inteligencia Artificial.
Finalmente, la seguridad del modelo de IA será una máxima prioridad. Es posible que veamos algo como contaminación de Inteligencia Artificial o contaminación de datos donde los atacantes intentan deliberadamente crear una realidad falsa, los modelos se entrenarán en esa realidad y producirán alucinaciones o contenido malicioso según la intención del atacante.
En términos de proteger los modelos de IA de ataques adversarios, se puede pensar en los modelos como una forma más de código. Al igual que con cualquier otro tipo de sistema, las vulnerabilidades y en asegurarte de que el código no comience a hacer nada inesperado. No conviene permitir que nadie, ya sea un adversario o un usuario normal, tenga acceso directo a los artefactos del modelo.
Al final, la clave es esperar lo inesperado, hace un año, pocos habrían predicho la innovación desencadenada por la IA generativa. Dentro de un año, es posible que estemos mirando hacia atrás, viendo nuevos acontecimientos imprevistos incluso por los observadores más astutos de hoy, y mirando hacia el futuro, hacia avances aún mayores. Si hay algo de lo que podemos estar seguros es que apenas hemos comenzado a ver el impacto de la IA en la ciberseguridad.