El arte del engaño de la ciber seguridad en tiempos de la inteligencia artificial
Por Dula Hernández, Systems Engineering Manager at Palo Alto Networks Mexico.
Se denomina ingeniería social a la práctica para obtener información confidencial por medio de la manipulación hacia usuarios legítimos, se denomina ingeniería social. El objetivo es obtener acceso o permisos para dañar a una persona o empresa, en muchas de las ocasiones estos ataques solo buscan dejar una puerta abierta para que los ciber delincuentes orquesten otro tipo de agresiones.
Desde su concepción, la Inteligencia Artificial se ha considerado como un arma de doble filo, así como puede facilitar la vida de las personas, también puede ser usada con fines ilícitos. Unit 42, la unidad de investigación e inteligencia de amenazas de Palo Alto Networks, registró recientemente un incremento del 910% del malware relacionado con ChatGPT, y ha llegado a observar hasta 118 ataques diarios a páginas (o sitios) web.
Los ciber criminales han comenzado a utilizar la Inteligencia Artificial (IA) para hacer que las personas revelen información importante sin darse cuenta. Estos ataques han evolucionado de mensajes de correo electrónico o phishing simples a ataques complejos, en los que los delincuentes se hacen pasar por una persona conocida o de confianza para obtener información confidencial.
De acuerdo con datos de Unit 42, 40% de las organizaciones ha aumentado su preocupación por la ciberseguridad. Además, hay varios factores que hacen que se incremente el atractivo de los ataques, como la situación geopolítica actual o la propia transformación digital de los negocios, que se encaminan hacia la multinube, donde el 80% del código que se desarrolla utiliza componentes de open source.
La inteligencia artificial es una de las principales aliadas de las tecnologías de ciberseguridad de todos los proveedores, así lo constata un estudio de Palo Alto Networks, el cual afirma que 47% de las compañías cree que la IA permite una respuesta más rápida de los incidentes y el 39% estima que la detección de amenazas, la clasificación de alertas y las respuestas pueden automatizarse casi por completo en el SOC (Centro de Operaciones de Seguridad).
Sea cual sea su cometido, la IA que aprende a actuar automáticamente y necesita la máxima cantidad de datos posible de alta calidad para ser eficaz. Es gracias a la abundancia de esos datos de calidad que la IA llega a comprender los posibles escenarios. Cuantos más datos del mundo real adquiera, más inteligente será y más experiencia tendrá.
Esto es claro, no basta con aprender de una sola implementación o de un solo tipo de ataque con base en ingeniería social o amenazas. Además, se necesitan de soluciones capaces de aprender de todas las implementaciones, y una herramienta que aproveche la información de todos los usuarios, no de una sola organización. Cuanto mayor sea el conjunto de entornos y usuarios, más inteligente será la IA. En este sentido, también es necesario un sistema capaz de manejar grandes volúmenes de datos de diferentes tipos.