¡ACTUALIZA! Vulnerabilidades Encontradas En IA (Inteligencia Artificial) Y ML (Aprendizaje Automático)
Recientemente, investigadores descubrieron múltiples vulnerabilidades en diversos modelos de inteligencia artificial (IA) y aprendizaje automático (ML) de código abierto, que podrían derivar en ejecución remota de código y robo de información. Herramientas como ChuanhuChatGPT, Lunary y LocalAI presentan vulnerabilidades de tipo Insecure Direct Object Reference (IDOR), que permite a los atacantes acceso a recursos, funciones o archivos sin los controles de acceso pertinentes.
Lunary, un toolkit de producción para modelos extensos de lenguaje (LLMs), se ve afectado por dos vulnerabilidades severas (CVE-2024-7474 y CVE-2024-7475), ambas con una puntuación CVSS de 9.1. La primera, de tipo IDOR, permite a usuarios autenticados acceder o eliminar datos de otros usuarios de manera no autorizada. La segunda vulnerabilidad, un control de acceso inadecuado, da pie a la manipulación de la configuración SAML, posibilitando el acceso a información sensible. Otra vulnerabilidad adicional identificada recientemente (CVE-2024-6582) permite a usuarios acceder y modificar los ajustes del proveedor de identidad de una organización diferente si conocen la dirección de correo electrónico de un usuario objetivo, lo cual puede llevar a la toma de control de cuentas.
En ChuanhuChatGPT, se detectó una vulnerabilidad de recorrido de directorios (CVE-2024-5982) que permite la ejecución arbitraria de código. Otra vulnerabilidad crítica (CVE-2024-4520) permite a los atacantes acceder a los historiales de chat de otros usuarios sin necesidad de autenticación, exponiendo información sensible, detalles financieros y conversaciones privadas. Además, se identificó una vulnerabilidad de control de acceso insuficiente que permite la explotación mediante un componente obsoleto de Gradio, posibilitando el acceso a archivos críticos como config.json
, donde se almacenan claves API. Esta vulnerabilidad de recorrido de directorios (CVE-2024-3234) afecta a versiones anteriores al parche lanzado el 5 de marzo de 2024 y permite a usuarios no autorizados acceder a archivos confidenciales debido al uso de un componente desactualizado de Gradio.
Otra vulnerabilidad reportada en ChuanhuChatGPT (CVE-2023-34094) permite el acceso no autorizado al archivo config.json
, donde se almacenan claves API, en versiones donde no se ha configurado autenticación, exponiendo así información sensible a potenciales atacantes. Se recomienda implementar autenticación para mitigar este riesgo.
LocalAI también ha mostrado fallos significativos que podrían facilitar a atacantes cargar archivos maliciosos y realizar ataques de sincronización de tiempo para adivinar claves de API válidas. Además, Protect AI ha señalado varias vulnerabilidades en LocalAI, incluyendo la omisión de protección de recorrido de directorios, que podrían permitir la lectura de archivos arbitrarios y causar una condición de denegación de servicio (DoS).
La empresa Protect AI, a través de su plataforma de recompensas Huntr, ha sido responsable de reportar estas vulnerabilidades. Además, lanzó una herramienta llamada Vulnhuntr para analizar código Python, aprovechando el poder de los modelos de lenguaje para detectar vulnerabilidades. En total, Protect AI ha reportado más de 32 fallos de seguridad críticos en herramientas de IA y ML, incluyendo escalamiento de privilegios y acceso a recursos restringidos.
Animamos a todos los usuarios de estas herramientas a actualizar de inmediato a las versiones más recientes para prevenir posibles ataques y garantizar la seguridad de sus sistemas de IA y ML. Estas actualizaciones son esenciales no solo para proteger datos sensibles y evitar brechas de seguridad, sino también para mantener la integridad de toda la cadena de suministro, minimizando riesgos de explotación de las vulnerabilidades identificadas. Además, es importante implementar configuraciones de seguridad adicionales, como la autenticación, para fortalecer aún más la defensa contra posibles amenazas.
Más información:
- Researchers Uncover Vulnerabilities in Open-Source AI and ML Models: https://thehackernews.com/2024/10/researchers-uncover-vulnerabilities-in.html
- CVE-2024-7474: https://sightline.protectai.com/vulnerabilities/a8580293-cbec-4e97-8b6f-aec2c557f8ea/assess
- CVE-2024-7475: https://sightline.protectai.com/vulnerabilities/1a214947-6d8d-414f-b70e-a2392ad18549/assess
Via: unaaldia.hispasec.com