Por Jose Sala Hill
•
24 de octubre de 2024
Con un uso cuidadoso y un desarrollo continuo, los LLM tienen un amplio potencial para transformar el campo de la ciberseguridad pero su utilización debe abordarse con cautela, teniendo en cuenta las cuestiones relacionadas con la privacidad de los datos y los ataques de Machine Learning Adversarial. Aplicaciones de los LLM en ciberseguridad Los modelos de lenguaje amplio (LLM) ofrecen un potencial interesante para mejorar numerosas aplicaciones de ciberseguridad como son: La mejora de la detección. Los LLM ya se utilizan para simular ataques avanzados de phishing que lanzan atacantes expertos, lo que aumenta la capacidad para detectarlos y evitar ser víctimas de ellos. Los LLM pueden respaldar soluciones de seguridad utilizadas en la detección de amenazas y la seguridad de endpoints , como la definición de reglas de detección para motores de reglas. Basándose en la investigación de ataques, los analistas de seguridad podrían formular reglas de detección utilizando lenguaje natural y enviarlas a los LLM, que traducirían y generarían reglas formateadas aplicables por un motor de reglas. Los LLM pueden sugerir respuestas y acciones de mitigación para las amenazas investigadas. Su capacidad para procesar y sintetizar grandes cantidades de datos heterogéneos puede ser útil en Threat Intelligence y en la gestión de vulnerabilidades donde la riqueza de información para recopilar y analizar es enorme. Los LLM pueden extraer datos de fuentes de información internas y externas, combinándolos y extrayendo información relevante sobre nuevas amenazas que afectan a la organización y nuevas vulnerabilidades que afectan a sus sistemas. En análisis de seguridad y centros de operaciones de seguridad (SOC), los LLM pueden respaldar la investigación de alertas de seguridad, extrayendo información de diferentes sistemas para contextualizar los eventos de seguridad. No solo agilizan las tareas iniciales de contextualización, sino que también facilitan investigaciones más profundas a través de interacciones iterativas, lo que permite a los analistas profundizar y buscar información adicional a medida que comprenden mejor un ataque. Al actuar como un puente entre varias fuentes de información y proporcionar información razonada, los LLM pueden ofrecer una asistencia sustancial en operaciones de seguridad que involucran humanos. Los LLM también se pueden configurar como asistentes para configurar sistemas complejos de manera segura . Aunque los proveedores de servicios en la nube implementan un alto nivel de seguridad en su infraestructura, una amenaza de seguridad importante proviene de una configuración de implementación incorrecta por parte de sus usuarios, debido a la complejidad de definir los parámetros adecuados. Los LLM pueden guiar a los administradores de sistemas a través de este proceso de configuración, interactuando y proporcionando parámetros de información, así como sugiriendo valores en función de las necesidades expresadas al LLM. Los LLM también pueden enseñar y mejorar la aplicación de prácticas de seguridad para desarrolladores habituales y administradores de sistemas . Los asistentes de codificación pueden enseñar codificación segura y garantizar que sus principios se apliquen de manera consistente durante el desarrollo de software. Por ejemplo, algunos asistentes de codificación incluyen una función de escaneo de seguridad para encontrar y resolver de manera preventiva posibles vulnerabilidades de seguridad en el código. Una última aplicación de LLM es la educación en seguridad . Los LLM pueden servir para capacitar a los analistas de seguridad en la investigación de alertas. Dado un evento de seguridad, pueden sugerir la información que se debe extraer y correlacionar, los indicadores que se deben observar y las acciones de respuesta que se deben realizar. Riesgos y amenazas La creciente adopción de la IA para muchas aplicaciones también ha traído consigo revelaciones sobre las limitaciones de esta tecnología. Los problemas relacionados con el sesgo (injusticia) de los sistemas de IA, la falta de explicabilidad, pero también los problemas de seguridad y privacidad. Los sistemas de IA son vulnerables a nuevas amenazas de seguridad, los ataques de Machine Learning Adversarial (AML) en los que los atacantes manipulan intencionalmente los datos de entrada para obligar a los modelos a realizar predicciones incorrectas o publicar información confidencial. Entre estos ataques que comprometen la integridad de los sistemas de IA y la confiabilidad de sus predicciones destacan los siguientes: El envenenamiento de modelos es un ataque mediante el cual un adversario inyecta o modifica maliciosamente los datos de entrenamiento o la lógica de entrenamiento de un modelo de IA para reducir la exactitud o la confianza de sus predicciones. La evasión de modelos es un ataque mediante el cual un adversario construye maliciosamente entradas que se enviarán a un sistema de IA en el momento de la inferencia para provocar predicciones incorrectas. La inversión de modelos que permite inferir datos confidenciales de los resultados de un modelo, lo que plantea riesgos importantes cuando se entrena con datos confidenciales como registros médicos o financieros. Los piratas informáticos consultan el modelo y utilizan las respuestas para realizar ingeniería inversa de los datos de entrenamiento. El robo de modelos donde se utilizan consultas API repetidamente para replicar la funcionalidad del modelo. Estas consultas ayudan al atacante a crear un modelo sustituto que se comporta como el original. AI Security afirma: "Los modelos de IA suelen ser el objetivo de consultas API para realizar ingeniería inversa de su funcionalidad, lo que plantea riesgos importantes para los sistemas propietarios, especialmente en sectores como las finanzas, la atención sanitaria y los vehículos autónomos". A diferencia de las amenazas cibernéticas tradicionales, como el malware o el phishing, el Machine Learning Adversarial intenta explotar la lógica de toma de decisiones de un sistema de IA, lo que da como resultado un malware que puede evadir un modelo de aprendizaje automático entrenado y listo para producción. Como resultado, la IA/ML adversarial se está convirtiendo en una de las principales preocupaciones de los equipos de SecOps modernos. Conclusión Los ataques de Machine Learning Adversarial representan una amenaza importante para la integridad y la confiabilidad de los sistemas de Machine Learning. A medida que estos ataques se vuelven más sofisticados, la necesidad de estrategias de defensa sólidas y resistentes se vuelve cada vez más crítica. Al comprender a fondo la naturaleza de estas amenazas y desarrollar mecanismos de defensa integrales, podemos proteger las tecnologías que impulsan nuestro mundo moderno. Para abordar estos desafíos de manera efectiva, es fundamental combinar una variedad de técnicas defensivas. A medida que implementamos y refinamos las defensas, el papel de la gobernanza y la adhesión a principios como la transparencia, la equidad y la seguridad sigue siendo fundamental. En COBERTIC , aprovechamos el poder de la IA para abordar desafíos con soluciones innovadoras de anonimización de datos, garantizando la privacidad y el cumplimiento normativo, al tiempo que optimizamos la calidad de los datos y promovemos el uso ético de la información.