Este año el tema de inteligencia artificial ha sido mucho más común entre las personas que no necesariamente trabajan o se desenvuelven en entornos tecnológicos. La creación de chats inteligentes como ChatGPT, Bard u otros, ha puesto el tema sobre la mesa. Desde el lanzamiento de estos grandes modelos de lenguaje o LLM (large language model), han surgido cientos de programas más conocidos de IA y millones de personas ya los utilizan a diario.
Pero, ¿qué hay de la IA en lo que respecta a la ciberseguridad? Primero, es importante saber que la IA ya se utiliza para ofrecer nuevas soluciones de ciberseguridad para amenazas existentes. De acuerdo con un documento de investigación de CBInsights titulado ”Old School vs. New School: How is Artificial Intelligence Transforming Cybersecurity”, la IA en ciberseguridad se puede utilizar para monitorear la actividad en sistemas y redes en tiempo real, identificar patrones y anomalías de flujos de datos internos y externos, acelerar la detección, liberar recursos, permitir una remediación más rápida y, en general, ayudar a mejorar la ciber resiliencia continua.
En Cyberlat, con nuestro CyberSOC, nos hemos dedicado a ir integrando módulos de IA en nuestra solución y hoy contamos con una plataforma de detección efectiva en contra de nuevos vectores de ataque.
Sin embargo, también entendemos que la IA en la ciberseguridad no es necesariamente una solución genérica ni definitiva. Porque, los ataques sin malware que no requieren descargas de software y disfrazan actividad maliciosa dentro de servicios legítimos en la nube están en aumento y la IA aún no es capaz de frenar ese tipo de violaciones de la red.
Una tendencia clara es que las brechas expuestas tendrán cada vez más impacto. El caso del reciente error de los investigadores de Microsoft que compartieron a través de una cubeta de Github los privilegios de acceso a Terabytes de información nos reafirma que al usar múltiples instancias de Big Data, estas vulneraciones tendrán un impacto en volumen cada día mayor.
Por otro lado, se necesita asegurar que la IA sea utilizada para actividades que tengan un impacto positivo y no al contrario. Aunque es una gran herramienta, ya es aprovechada por cibercriminales.
En 2018 se publicó un informe titulado “El uso malicioso de la inteligencia artificial” en el que se destacan tres áreas del perfil de ciberataques que ya hemos visto cambiar:
Expansión de las amenazas existentes. La IA puede permitir ataques más grandes, más rápidos y más amplios utilizando técnicas habilitadas por IA.
Nuevos vectores de ataque. Los sistemas de inteligencia artificial podrían usarse de manera maliciosa para completar tareas que no son prácticas para los humanos. Además, los actores malintencionados podrían aprovechar las vulnerabilidades en las plataformas de ciberseguridad asistidas por IA.
Cambiar el modo de operación típico de las amenazas. Los ataques asistidos por IA serían "especialmente efectivos, bien dirigidos, difíciles de atribuir y probablemente aprovechen las vulnerabilidades de los sistemas de IA".
Ha sido común escuchar de ciberataques que son facilitados por deepfakes o por bots habilitados por IA, entre otros. También se han documentado casos en que se utilizan chats inteligentes para generar múltiples correos de phishing en distintos idiomas.
La ciberseguridad y la inteligencia artificial tendrán que ir de la mano, y es imprescindible que ninguna se quede atrás. El gran reto es cómo utilizar y adecuar positivamente esta herramienta que seguimos gestando como humanidad. En CyberLat podemos ayudarte con ciberseguridad como servicio, asistida por IA. Escríbenos a contact@cyber.lat y creemos un plan de acción.