Seguridad en IA y LLMs

Inyección de prompts, fuga de PII a modelos de IA, respuestas de IA sin validar, API keys en frontend, sanitización de output y rate limiting de IA.

9 vulnerabilidades

Inyección de Prompts

high

El input del usuario se concatena directo en el prompt del LLM, permitiendo que atacantes sobreescriban tus instrucciones y hagan que la IA haga lo que ellos quieran.

CWE-77OWASP LLM01:2025

Filtración de PII a Modelos de IA

high

Tu app manda información personal identificable — emails, nombres, contraseñas, teléfonos — a APIs de IA externas, exponiendo datos de usuarios a proveedores de modelos de terceros.

CWE-359OWASP LLM02:2025

Respuesta de IA Sin Validación

medium

El output de un LLM se renderiza o ejecuta directo sin verificar si coincide con el formato esperado o contiene contenido dañino.

CWE-116OWASP LLM02:2025

API Key de IA en el Frontend

critical

Tu API key de OpenAI, Anthropic u otro proveedor de IA está expuesta en el código del cliente, donde cualquiera puede robarla y acumular cargos en tu cuenta.

CWE-312OWASP LLM09:2025

Sin Sanitización del Output de IA

medium

El HTML o código generado por un LLM se renderiza directo en la UI sin sanitización, abriendo la puerta a ataques de XSS almacenado.

CWE-79OWASP LLM02:2025

Contexto de IA Excesivo

medium

Tu app manda registros completos de base de datos, archivos de configuración o secretos como contexto a un modelo de IA, exponiendo mucho más datos de los que la tarea requiere.

CWE-359OWASP LLM02:2025

Fallback de Modelo de IA Inseguro

low

Cuando el modelo de IA principal falla, tu app hace fallback silenciosamente a un modelo más débil o sin validar que evita tus configuraciones de seguridad.

CWE-636

Sin Rate Limiting de IA

medium

Tu app hace llamadas a APIs de IA sin límites por usuario, dejando que un solo usuario (o bot) dispare miles de requests y agote tu presupuesto de API en minutos.

CWE-770OWASP LLM04:2025

Ejecución de Código Generado por IA

critical

Tu app usa eval() o Function() para ejecutar código generado por un LLM, dando a los atacantes un camino hacia ejecución arbitraria de código vía inyección de prompts.

CWE-95OWASP LLM02:2025