Las entrevistas de seguridad: Explotando la IA para bien y para mal

La inteligencia artificial (IA) está en auge. La gente está discutiendo el inicio de terminador-estilo AI que destruye a la humanidad, y no solo como una broma. Aquellos con puntos de vista menos apocalípticos consideran el riesgo de que la IA se lleve una gran parte del trabajo que tradicionalmente ha sido realizado por personas. A su vez, esto conduce a disturbios civiles, una subclase de IA y Mad Max desglose del estilo en los valores sociales.

Independientemente de la analogía de su película preferida, no hay duda de que la IA automatizará muchas cosas, tanto buenas como malas.

Max Heinemeyer cree que AI es una de esas frases que pueden significar muchas cosas para diferentes personas. El director de productos de Darktrace dice: “La IA podría ser utilizada por los atacantes, los malos y las chicas malas”, dice. Desde una perspectiva de riesgo, dice: “La IA trae mucha automatización a la mesa”.

Imagine un centro de operaciones de seguridad con analistas que observen los ataques en tiempo real, identifiquen el objetivo y corran de inmediato para bloquear el vector de ataque. La IA automatiza todo, tanto desde la perspectiva de la automatización de los ataques como de la automatización de la defensa: “Vemos eso en el espacio de defensa donde puedes aumentar al humano para detectar ataques. Luego puede responder a ellos muy fácilmente con sistemas de aprendizaje automático”.

Heinemeyer solía ser un hacker ético. Hablando de lo que sucede en Darktrace, dice: “Los probadores de penetración y el equipo rojo piensan mucho en cómo un atacante podría usar el aprendizaje automático para automatizar sus procesos y volverse más eficiente para escalar sus ataques y hacerlos más exitosos”.

Pero ahora la IA ha ido más allá de la automatización. En cuanto a los modelos de lenguaje grandes, que algunos expertos de la industria ven como el punto de inflexión que finalmente conduce a la adopción de IA a gran escala, Heinemeyer cree que una IA capaz de escribir código ofrece a los atacantes la oportunidad de desarrollar ataques mucho más personalizados y sofisticados. Imagine, dice, mensajes de phishing altamente personalizados que tengan errores gramaticales y ortográficos.

Para sus clientes, dice que Darktrace utiliza el aprendizaje automático para saber qué aspecto tiene la normalidad en los datos de correo electrónico empresarial: “Aprendemos exactamente cómo te comunicas, qué sintaxis usas en tus correos electrónicos, qué archivos adjuntos recibes, con quién hablas y cuándo esto sucede”. es interno o externo. Podemos detectar si alguien envía un correo electrónico que es inusual para ti.”

Los ataques sofisticados se están volviendo triviales

Un modelo de lenguaje grande como ChatGPT lee todo lo que está en Internet público. La implicación es que estará leyendo los perfiles de las redes sociales de las personas, viendo con quién interactúan, sus amigos, lo que les gusta y lo que no les gusta. Dichos sistemas de IA tienen la capacidad de comprender realmente a alguien, en función de la información disponible públicamente que se puede recopilar en la web. Esta es un área que Heinemeyer y los investigadores de Darktrace han comenzado a investigar: “Recopilamos algunos datos desde el auge de ChatGPT en diciembre del año pasado, cuando llegó a un millón de usuarios”.

Darktrace descubrió que los ataques por correo electrónico se están volviendo mucho más sofisticados y personalizados. Él dice: “No solo es difícil para los humanos detectar estas estafas y ataques”. Se está volviendo imposible, advierte: “¿En qué capacitas a las personas si les dices que busquen errores ortográficos y estafas genéricas? Esos días han terminado. porque ahora hay mucha información contextual disponible en Internet”.

La disponibilidad de grandes modelos de lenguaje que se entrenan en datos públicos de Internet también reduce las habilidades técnicas necesarias para crear ataques dirigidos, como explica Heinemeyer. Un posible atacante puede simplemente pedir que se haga un phishing con lanza en un negocio, y la IA lo divide en una serie de tareas.

“Necesito entender quién trabaja allí. Puedo usar LinkedIn para averiguarlo o Facebook. Necesito recopilar contactos de empleados de sus perfiles de redes sociales. Luego necesito escribir un correo electrónico personalizado para que un empleado haga clic en un enlace y necesito crear una pieza de malware que no se haya visto antes. Como atacante, tendría que hacer todas estas cosas yo mismo, lo que requiere cierta habilidad. La tecnología todavía está evolucionando y tiene sus fallas y errores, pero ahora es mucho más fácil crear ataques dirigidos”, advierte Heinemeyer.

Quiere capacitar a sus empleados: son la última línea de defensa

Max Heinemeyer, Darktrace

Si bien no quiere pintar un terminador escenario para la IA, Heinemeyer cree que se está produciendo un cambio de paradigma, especialmente en los ataques por correo electrónico. Hay una serie de áreas que la industria del software empresarial en general debe comenzar a tomar en serio. Por ejemplo, un correo electrónico del sistema de gestión de gastos o del sistema de recursos humanos es algo que todos han experimentado. Si bien la autenticación de dos factores está disponible en muchos productos empresariales para la autenticación de usuarios, la mayoría del software empresarial se basa en la dirección de correo electrónico interna del usuario, que los piratas informáticos pueden descifrar con bastante facilidad. Se está convirtiendo en un asunto trivial crear ataques de phishing utilizando mensajes de correo electrónico que parecen haber sido generados por un software empresarial comercial.

“Está por todas partes”, dice Heinemeyer. E incluso si los sistemas internos son seguros, los atacantes pueden apuntar y lo harán a las cadenas de suministro y utilizar socios comerciales para eludir las medidas de seguridad interna. “Creo que siempre quieres tener una defensa en profundidad”, dice. “Quieres capacitar a tus empleados, son la última línea de defensa”.

Insta a los líderes de la industria a mejorar los sistemas de TI que se están implementando para los usuarios: “No se puede presionar a los humanos para que detecten todas las estafas de facturas y todas las estafas de sistemas internos. ¿Cómo contrarrestas estos ataques?”

La IA tiene el potencial de usarse para implementar ataques altamente personalizados. Para Heinemeyer, la industria necesita desarrollar sistemas de inteligencia artificial que puedan comprender mejor a los usuarios, para detectar cosas que no se ven del todo bien o parecen estar en desacuerdo con el comportamiento normal.

Exit mobile version