Seguridad en IA y LLMs
Inyección de prompts, fuga de PII a modelos de IA, respuestas de IA sin validar, API keys en frontend, sanitización de output y rate limiting de IA.
9 vulnerabilidades
Inyección de Prompts
highEl input del usuario se concatena directo en el prompt del LLM, permitiendo que atacantes sobreescriban tus instrucciones y hagan que la IA haga lo que ellos quieran.
Filtración de PII a Modelos de IA
highTu app manda información personal identificable — emails, nombres, contraseñas, teléfonos — a APIs de IA externas, exponiendo datos de usuarios a proveedores de modelos de terceros.
Respuesta de IA Sin Validación
mediumEl output de un LLM se renderiza o ejecuta directo sin verificar si coincide con el formato esperado o contiene contenido dañino.
API Key de IA en el Frontend
criticalTu API key de OpenAI, Anthropic u otro proveedor de IA está expuesta en el código del cliente, donde cualquiera puede robarla y acumular cargos en tu cuenta.
Sin Sanitización del Output de IA
mediumEl HTML o código generado por un LLM se renderiza directo en la UI sin sanitización, abriendo la puerta a ataques de XSS almacenado.
Contexto de IA Excesivo
mediumTu app manda registros completos de base de datos, archivos de configuración o secretos como contexto a un modelo de IA, exponiendo mucho más datos de los que la tarea requiere.
Fallback de Modelo de IA Inseguro
lowCuando el modelo de IA principal falla, tu app hace fallback silenciosamente a un modelo más débil o sin validar que evita tus configuraciones de seguridad.
Sin Rate Limiting de IA
mediumTu app hace llamadas a APIs de IA sin límites por usuario, dejando que un solo usuario (o bot) dispare miles de requests y agote tu presupuesto de API en minutos.
Ejecución de Código Generado por IA
criticalTu app usa eval() o Function() para ejecutar código generado por un LLM, dando a los atacantes un camino hacia ejecución arbitraria de código vía inyección de prompts.