Ahora es el momento de implementar una política interna de uso de IA

El uso de la inteligencia artificial (IA) en las organizaciones está cada vez más extendido, gracias a su capacidad para aumentar la eficiencia, reducir el tiempo que se debe dedicar a tareas más insignificantes y resolver rápidamente problemas complejos.

Pero, al igual que con cualquier tecnología emergente, el crecimiento de la popularidad de la IA establece una nueva superficie de ataque para que la exploten los actores malintencionados, lo que introduce nuevos riesgos y vulnerabilidades en un panorama informático cada vez más complejo.

Riesgos cibernéticos potenciales con sistemas de IA

El uso cada vez mayor de los sistemas de IA por parte de las organizaciones para una variedad de actividades (tomar mejores decisiones, mejorar el servicio al cliente, reducir costos, etc.) presenta problemas potenciales. La IA se basa en grandes cantidades de datos, lo que plantea preocupaciones sobre la privacidad y la seguridad, y los sistemas de IA poco protegidos son objetivos de violaciones de datos, lo que resulta en acceso no autorizado, robo o uso indebido de información confidencial. También existe el riesgo de que los malos actores interrumpan las aplicaciones de IA y, con ellas, las operaciones comerciales.

El uso de IA generativa en sí mismo también puede tener implicaciones en la seguridad de los datos; los empleados que no son plenamente conscientes de los riesgos de seguridad pueden introducir la propiedad intelectual de la empresa en una IA pública, filtrando inadvertidamente material confidencial o sensible al dominio público.

Otros riesgos incluyen la manipulación de datos para engañar al algoritmo de IA. El envenenamiento de datos, logrado mediante la inyección de datos maliciosos en el modelo, puede manipular el resultado de los modelos de aprendizaje automático, de modo que la IA clasifique erróneamente los datos y tome malas decisiones.

Posible uso indebido de IA para actividades cibernéticas maliciosas

La IA también puede ser canalizada por actores de amenazas para llevar a cabo ataques de ingeniería social convincentes a escala. Al aprender a detectar patrones de comportamiento, puede comprender cómo convencer a las personas de que un video, una llamada telefónica o un correo electrónico son legítimos y generar contenido de phishing para persuadirlos de comprometer las redes y entregar datos confidenciales (en una etapa, los expertos en seguridad señalaron que AI Los correos electrónicos de phishing generados tenían tasas de apertura más altas que los creados manualmente por humanos).

Se espera que los ataques como la denegación de servicio, el malware y el ransomware se vuelvan más sofisticados con el uso (malicioso) de la tecnología de IA. El malware impulsado por IA, por ejemplo, puede mejorar las técnicas de evasión, automatizar ataques e incluso hacerse pasar por personas.

Y las herramientas de IA se pueden usar para aprender y generar códigos maliciosos a un ritmo mucho más rápido utilizando las capacidades generativas de IA de Chat GPT.

Además, la IA se puede utilizar para diseñar malware que cambia constantemente para que evite la detección por parte de herramientas defensivas automatizadas, mientras que las técnicas emergentes de IA, como las falsificaciones profundas y las voces en off, crean la posibilidad de que se eluda el reconocimiento de imágenes y la biometría de voz.

Protección contra ataques relacionados con la IA

Proteger la mayor superficie de ataque creada por la IA requiere varias líneas de acción, incluidas las herramientas de TI, el cambio de hábitos de los empleados y el control de datos.

La tecnología, como las herramientas de gestión de eventos e información de seguridad (SIEM), mejorará las medidas de seguridad cibernética de una organización, mientras que la implementación de iniciativas como los modelos de “confianza cero”, mediante los cuales el tráfico de la red y las aplicaciones se monitorean constantemente para verificar que no sean dañinos, es un bien general. práctica de seguridad.

Debido a la rápida adopción de la IA, todavía falta legislación, gobernanza y orientación a nivel nacional y mundial sobre su uso, especialmente en un entorno profesional. Y si bien el sentido común y una comprensión general de la seguridad de TI son buenos lugares para comenzar, esto no es suficiente para confiar. Por lo tanto, es cada vez más importante que las organizaciones dediquen tiempo y recursos a desarrollar políticas internas de uso y uso indebido para los empleados que usan IA en el lugar de trabajo para proteger la información y la integridad.

Estas políticas solo son posibles con el compromiso de mantenerse informado a través de la investigación continua y el intercambio continuo de conocimientos; La colaboración entre los expertos en IA y los profesionales de ciberseguridad en otras organizaciones es vital para un enfoque integral y proactivo para identificar y mitigar los riesgos relacionados con la IA.

Las políticas deben reforzarse con una buena capacitación. Esto comienza con sesiones periódicas y desarrollo de habilidades para ciberprofesionales sobre los riesgos actuales de la IA y los que puedan surgir en el futuro. Está respaldado por una educación apropiada para el rol de los empleados en toda la organización.

La IA también puede ayudar…

Para toda la discusión sobre los nuevos riesgos de seguridad introducidos por AI, no se debe olvidar su capacidad para ayudar a las organizaciones a proteger sus organizaciones de los ataques cibernéticos.

La capacitación del personal sobre la higiene de la seguridad cibernética se puede acelerar mediante el uso de IA para generar contenido de capacitación, por ejemplo. Mientras tanto, cada vez más software de defensa incluye IA, con Microsoft planeando un producto copiloto de seguridad que ayudará a los defensores a tomar medidas rápidas sobre problemas relacionados con la seguridad.

La IA también puede desempeñar un papel importante en las pruebas de penetración al automatizar ciertas tareas y ayudar a los evaluadores a identificar vulnerabilidades de manera más rápida y precisa. Los algoritmos de aprendizaje automático se pueden entrenar en grandes conjuntos de datos para reconocer patrones e identificar posibles vulnerabilidades que pueden no ser inmediatamente obvias para los evaluadores humanos. Esto significa que la IA puede detectar y responder a las amenazas en tiempo real, así como detectar patrones que pueden indicar un posible ataque.

Un enfoque equilibrado

Hay mucho miedo comprensible en torno a la adopción de la IA, y no hay duda de que eleva el nivel de riesgo en muchas áreas. Aún se desconoce gran parte de su capacidad, pero los profesionales de la seguridad cibernética deben adoptar un enfoque equilibrado que les permita sentar bases de defensa sólidas al mantenerse informados, adherirse a los principios de seguridad de buenas prácticas e implementar las medidas de seguridad adecuadas.

Exit mobile version