Contexto de IA Excesivo
Tu app manda registros completos de base de datos, archivos de configuración o secretos como contexto a un modelo de IA, exponiendo mucho más datos de los que la tarea requiere.
Cómo Funciona
Las ventanas de contexto más grandes hacen tentador simplemente dumpear todo en el prompt. Pero mandar filas completas de base de datos, variables de entorno o configs internas a una API de IA externa significa que esos datos salen completamente de tu infraestructura. Aunque el proveedor sea confiable hoy, estás creando riesgo innecesario de exposición de datos y probablemente violando tu propia política de privacidad.
// MAL: mandando configuración completa y registro de BD como contexto de IA
const config = require('./config.json'); // contiene DB_URL, API_KEYS...
const userRecord = await db.findOne({ id: userId }); // fila completa con PII
const prompt = `Contexto: ${JSON.stringify(config)} Usuario: ${JSON.stringify(userRecord)}\nPregunta: ${question}`;// BIEN: extrae solo los campos específicos necesarios
const relevantData = {
userName: userRecord.display_name, // sin email, sin PII
plan: userRecord.plan,
createdAt: userRecord.created_at
};
const prompt = `Contexto de usuario: ${JSON.stringify(relevantData)}\nPregunta: ${question}`;Ejemplo Real
Una startup que construía un asistente de código con IA enviaba archivos .env completos y configs de package.json como contexto a su modelo. Esto se descubrió durante una auditoría de seguridad — las API keys y URLs de base de datos de sus usuarios fluían a un proveedor de IA de terceros.
Cómo Prevenirlo
- Aplica el principio de mínimos privilegios al contexto de IA: incluye solo los campos que el modelo necesita para la tarea específica
- Nunca incluyas variables de entorno, archivos de configuración o secretos en el contexto de IA
- Crea una vista o DTO dedicado 'seguro para IA' que elimine campos sensibles antes de mandarlo a cualquier modelo
- Revisa el uso de tokens — los prompts inflados suelen ser señal de que estás compartiendo demasiados datos
- Documenta qué datos mandas a APIs de IA externas en tu política de privacidad y mapa de datos
Tecnologías Afectadas
Data Hogo detecta esta vulnerabilidad automáticamente.
Escanea Tu Repo GratisVulnerabilidades Relacionadas
Inyección de Prompts
highEl input del usuario se concatena directo en el prompt del LLM, permitiendo que atacantes sobreescriban tus instrucciones y hagan que la IA haga lo que ellos quieran.
Filtración de PII a Modelos de IA
highTu app manda información personal identificable — emails, nombres, contraseñas, teléfonos — a APIs de IA externas, exponiendo datos de usuarios a proveedores de modelos de terceros.
Respuesta de IA Sin Validación
mediumEl output de un LLM se renderiza o ejecuta directo sin verificar si coincide con el formato esperado o contiene contenido dañino.
API Key de IA en el Frontend
criticalTu API key de OpenAI, Anthropic u otro proveedor de IA está expuesta en el código del cliente, donde cualquiera puede robarla y acumular cargos en tu cuenta.