Cyber Signals: navegar por las amenazas cibernéticas y fortalecer las defensas en la era de la IA
La IA transforma la ciberseguridad. Microsoft y OpenAI detectan grupos de estados-nación que usan IA para ciberataques. Microsoft bloquea su actividad y anuncia principios para mitigar riesgos.
La inteligencia artificial (IA) está a la vanguardia de una transformación masiva en el mundo de la ciberseguridad. Esta tecnología tiene el potencial de brindar a las organizaciones nuevas capacidades para combatir los ciberataques a la velocidad de las máquinas, abordar la escasez de talento en el sector y, en general, impulsar la innovación y la eficiencia en la protección digital.
Sin embargo, la IA también puede ser utilizada por los adversarios como parte de sus actividades. Es por eso que resulta crucial proteger nuestro mundo a través de la utilización responsable de la IA y, al mismo tiempo, asegurar la IA para nuestro mundo.
En este contexto, Microsoft ha publicado la sexta edición de Cyber Signals, un informe que destaca cómo la compañía protege sus plataformas de IA de las amenazas emergentes relacionadas con actores de ciberamenazas de estados-nación.
En colaboración con OpenAI, Microsoft ha compartido información sobre los grupos de amenaza afiliados a estados que han sido rastreados por la empresa, como Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon y Salmon Typhoon. Estos grupos han buscado utilizar grandes modelos de lenguaje (LLM) para aumentar sus operaciones de ciberataques en curso.
Esta investigación expone los primeros pasos que estos actores de amenazas están tomando en torno a la IA, y cómo Microsoft ha bloqueado su actividad para proteger las plataformas y los usuarios de IA.
Microsoft también ha anunciado sus principios para mitigar los riesgos de las amenazas persistentes avanzadas de estados-nación, actores malintencionados con alta persistencia y sindicatos de ciberdelincuentes que utilizan plataformas y API de inteligencia artificial. Estos principios incluyen la identificación y la acción contra el uso de la IA con fines maliciosos, la notificación a otros proveedores de servicios de IA, la colaboración con otras partes interesadas y la transparencia.
Además, Microsoft está ayudando a la comunidad de seguridad en general a comprender y detectar las perspectivas emergentes de los LLM en la actividad de ataque. La empresa continúa trabajando con MITRE para integrar estas tácticas, técnicas y procedimientos (TTP) con temática de LLM en el marco MITRE ATT&CK o en la base de conocimientos MITRE ATLAS (Panorama de amenazas adversarial para sistemas de inteligencia artificial). Esta expansión estratégica refleja el compromiso de Microsoft no solo de rastrear y neutralizar las amenazas, sino también de ser pionero en el desarrollo de contramedidas en el panorama cambiante de las operaciones cibernéticas impulsadas por IA.
Esta edición de Cyber Signals comparte información sobre cómo los actores de amenazas usan la IA para refinar sus ataques, y también cómo Microsoft usa la IA para protegerse.
Los ciberdelincuentes y los actores patrocinados por el Estado recurren a la IA, incluidos los LLM, para mejorar su productividad y aprovechar las plataformas que pueden promover sus objetivos y técnicas de ataque. Aunque los motivos y la sofisticación de los actores de amenazas varían, comparten tareas comunes a la hora de desplegar ataques. Estas incluyen el reconocimiento (investigación de las posibles víctimas), la codificación (mejora de scripts de software y desarrollo de malware) y la asistencia en el aprendizaje y uso de lenguajes humanos y de máquinas.
La investigación de Microsoft con OpenAI no ha identificado ataques significativos que empleen los LLM que se monitorean de cerca.
Microsoft utiliza varios métodos para protegerse de este tipo de ciberamenazas, incluyendo:
- Detección de amenazas habilitada por IA para detectar cambios en el uso de recursos o tráfico en la red.
- Análisis de comportamiento para detectar inicios de sesión de riesgo y comportamientos anómalos.
- Modelos de aprendizaje automático para detectar inicios de sesión de riesgo y malware.
- Zero Trust, donde cada solicitud de acceso debe estar autenticada, autorizada y cifrada por completo.
- Verificación del estado del dispositivo antes de que se pueda conectar a la red corporativa.
La IA generativa tiene un potencial increíble para ayudar a todos los defensores a proteger sus organizaciones a la velocidad de las máquinas. El papel de la IA en la ciberseguridad es multifacético e impulsa la innovación y la eficiencia en varios ámbitos, desde la mejora de la detección de amenazas hasta la optimización de la respuesta a incidentes.
El uso de LLM en ciberseguridad es un testimonio del potencial de la IA. Estos modelos pueden analizar grandes cantidades de datos para descubrir patrones y tendencias en las amenazas cibernéticas, lo que agrega un contexto valioso a la inteligencia de amenazas.
La IA también ayuda en tareas técnicas como la ingeniería inversa y el análisis de malware, proporcionando una nueva capa de defensa contra los ciberataques. Por ejemplo, los usuarios de Microsoft Copilot for Security han mostrado un aumento del 44% en la precisión en todas las tareas y una tasa de finalización un 26% más rápida.
Estas cifras ponen de manifiesto los beneficios tangibles de integrar la IA en las prácticas de ciberseguridad.
A medida que se asegura el futuro de la IA, se debe reconocer la naturaleza dual de la tecnología: aporta nuevas capacidades y nuevos riesgos. La IA no es solo una herramienta, sino un cambio de paradigma en la ciberseguridad. Permite defendernse de las ciberamenazas sofisticadas y adaptarnos al panorama dinámico de amenazas. Al adoptar la IA, podemos ayudar a garantizar un futuro seguro para todos.