Cómo CISO puede contrarrestar la amenaza del espionaje del estado nación

Más del 80% de las empresas globales ahora están utilizando IA para mejorar las operaciones comerciales. La IA también se ha convertido en una característica de la vida cotidiana de las personas a medida que interactuamos con chatbots, asistentes de voz o tecnologías de búsqueda predictiva. Pero a medida que crece la difusión de AI, también lo hacen los riesgos asociados con su mal uso, particularmente por los actores estatales nacionales involucrados en espionaje, ataques cibernéticos y compromiso de la cadena de suministro.

Desarrollos recientes como la Cumbre de Acción de AI de febrero, la orden ejecutiva del presidente Trump y el Plan de Acción de Oportunidades AI del Gobierno del Reino Unido revelan dos temas clave. Primero, el interés nacional está en el corazón de las estrategias de IA gubernamentales, y en segundo lugar, la IA se ha convertido en un foco explícito de muchas estrategias de defensa nacional. Por lo tanto, no es sorprendente que el surgimiento de modelos poderosos como R1 de Deepseek haya renovado las preocupaciones sobre el espionaje industrial.

Sin embargo, centrarse en modelos particulares, proveedores o estados pierde un punto más amplio: la IA ya está siendo armada para apoyar las tácticas de ataque cibernético, incluidos el desarrollo de reconocimiento y recursos para las industrias objetivo y sus secretos. Para los principales oficiales de seguridad de la información (CISO) y líderes de seguridad, la pregunta planteada es cómo la IA cambia el panorama de amenazas y cómo responder en consecuencia. Para las nuevas empresas y las industrias basadas en tecnología, esto es aún más apremiante, ya que ya se ha demostrado que los estados-nación se dirigen a aquellos en la vanguardia de la tecnología. Por lo tanto, los ajustes a los roles de las personas, los procesos y la tecnología en seguridad cibernética deben responder estratégicamente a las amenazas de IA.

Operaciones cibernéticas de AI-AI

Los actores de estado-nación han estado integrando cada vez más Genai en ataques cibernéticos para mejorar la eficiencia, la automatización y la precisión. Se han observado más de 57 grupos avanzados de amenaza persistente (APT) vinculada a los estados nacionales utilizando IA en operaciones cibernéticas. La IA puede automatizar la investigación, traducir contenido, ayudar con la codificación y desarrollar malware para avanzar en las operaciones cibernéticas.

Uno de los desafíos más preocupantes es el uso de IA en la elaboración de mensajes de phishing altamente convincentes, aumentando tanto el ritmo como la escala de los ataques cibernéticos. Los modelos de idiomas grandes (LLM) pueden generar mensajes altamente plausibles, dirigidos a individuos y organizaciones. Los delincuentes están implementando videos profundos, audio e imágenes generados por IA, audio e imágenes generados por IA personalizados para mejorar las campañas de ingeniería social. El caso de ARUP, la empresa de diseño e ingeniería, que perdió $ 25 millones como resultado de un ‘CFO’ de Deepfake, muestra cuán convincentes las operaciones habilitadas para AI pueden obtener un acceso significativo a las empresas.

Vulnerabilidades de la cadena de suministro

Más allá de los ataques cibernéticos directos, los actores de amenaza también están dirigidos a las cadenas de suministro de IA desde el hardware hasta el software. El infame ataque de SolarWinds Sunburst demostró cómo los sofisticados actores de los estados nacionales pueden infiltrarse en redes empresariales al atacar las cadenas de suministro. El riesgo también se extiende al software de IA. Al integrar las vulnerabilidades en la etapa de fabricación o desarrollo, los adversarios pueden apuntar a una amplia gama de adversarios, que se benefician de las economías de escala.

Las vulnerabilidades de la cadena de suministro son una tendencia clave que domina la seguridad cibernética. La reciente prohibición de la Oficina de Industria y Seguridad sobre la importación y venta de hardware o software para vehículos conectados de ciertas naciones destaca la creciente preocupación de los Estados Unidos. Los actores maliciosos se han dirigido a los paquetes de Python para LLM como ChatGPT y Claude para entregar malware que puede cosechar datos del navegador, capturas de pantalla y tokens de sesión. Aquellos que adquieren sistemas de IA y sus componentes deben considerar tanto de dónde proviene la IA como cómo los usuarios interactuarán con él.

Marcos de gobernanza y seguridad de IA

Para defenderse de las amenazas de estado-estado nacionales de AI-A-AI, los líderes de seguridad deben adoptar una variedad de estrategias que incluyan marcos de gobierno de IA, capacitación específica, medidas de protección de datos sólidas, procesos de gestión de riesgos de terceros e inteligencia de amenazas proactivas.

Los marcos de IA se alinean con las mejores prácticas para la gobernanza, como NIST AI RMF, ISO 42001 y Miter, OWASP y NCSC para la seguridad, proporcionan la base a una defensa estructurada. Al establecer roles y responsabilidades claras para la IA, las políticas que definen el uso aceptable e inaceptable, y los enfoques sólidos para el monitoreo y la auditoría, el marco puede implementar defensas contra la exposición de información confidencial.

El papel de las personas y la cultura debe cambiar en respuesta a los riesgos de IA. La capacitación, comenzando con la alfabetización de IA para cubrir la conciencia de IA fundamental y su impacto en la seguridad, puede capacitar al personal para detectar, desafiar y mitigar las amenazas cibernéticas de IA. Un inventario de AI Systems es una parte fundamental del gobierno de IA. Los CISO necesitan saber dónde y cómo se está utilizando AI en toda la empresa, y las compañías de tecnología necesitan saber qué y dónde están sus activos críticos.

Medidas de protección de datos

Los controles de acceso a datos pueden limitar la capacidad de los adversarios para exfiltrar secretos propietarios. La segmentación de datos para restringir los modelos de IA del procesamiento de datos confidenciales, las tecnologías de mejora de la privacidad como el cifrado y los sistemas de monitoreo para la pérdida no autorizada de datos corporativos hacen que sea más difícil para los estados nacionales extraer valiosa inteligencia. La aplicación de principios de protección de datos como minimización, limitación de propósito y limitación de almacenamiento puede promover tanto la seguridad como los objetivos de IA responsables.

Asegurar las cadenas de suministro de IA

Mientras tanto, la gestión del riesgo de la cadena de suministro evita la infiltración de herramientas de IA comprometidas. Los pasos importantes incluyen la realización de evaluaciones de seguridad para proveedores de IA de terceros, asegurando que los modelos de IA no confíen en API alojadas en el extranjero que puedan introducir vulnerabilidades y documentar las facturas de software de materiales (SBOMS) para rastrear las dependencias y detectar riesgos.

Detección y respuesta de amenazas impulsadas por la IA

Finalmente, la IA en sí puede ser una herramienta para defenderse de las amenazas con AI. La detección de anomalías impulsadas por la IA puede identificar el comportamiento sospechoso o los patrones de pérdida de datos, implementar IA adversas para probar los sistemas de IA empresariales para obtener vulnerabilidades, aumentar el monitoreo de la phishing generada por IA y evaluar la efectividad de los controles. A medida que los ataques cibernéticos habilitados para la AI se aceleran más allá de las capacidades de respuesta humana, son necesarios sistemas de monitoreo automatizado y defensivos para evitar la explotación de vulnerabilidades a velocidad de la máquina.

Claramente, el surgimiento de las amenazas del estado nación con IA exige una respuesta proactiva y estratégica de los líderes de seguridad. Al adoptar marcos de gobernanza de IA, hacer cumplir una estricta gobernanza de datos, asegurar las cadenas de suministro y aprovechar la detección de amenazas impulsadas por la IA, las empresas pueden fortalecer sus defensas contra el espionaje industrial.

Elisabeth Mackay es una experta en seguridad cibernética en PA Consulting

Exit mobile version