Filtración de PII a Modelos de IA
Tu app manda información personal identificable — emails, nombres, contraseñas, teléfonos — a APIs de IA externas, exponiendo datos de usuarios a proveedores de modelos de terceros.
Cómo Funciona
Cuando construyes features de IA, es tentador mandar el registro completo del usuario al contexto para que el modelo tenga 'toda la info que necesita'. Pero esos datos salen de tus servidores y van a OpenAI, Anthropic, o quien uses. Aunque no entrenen con ellos, tu política de privacidad probablemente no cubre esto, y un breach en su lado se convierte en tu breach también.
// MAL: mandando el registro completo del usuario con PII a la IA
const user = await db.query('SELECT * FROM users WHERE id = $1', [userId]);
const prompt = `Resume la actividad de este usuario: ${JSON.stringify(user)}`;
// el objeto user contiene: email, teléfono, dirección, método de pago...// BIEN: manda solo los campos sin PII que necesita la tarea
const activity = await db.query(
'SELECT action, created_at FROM audit_log WHERE user_id = $1 LIMIT 20',
[userId]
);
const prompt = `Resume este log de actividad: ${JSON.stringify(activity)}`;Ejemplo Real
Varias empresas de SaaS de salud enfrentaron escrutinio regulatorio después de mandar nombres de pacientes y síntomas a la API de OpenAI sin los BAAs (Acuerdos de Asociado de Negocio) necesarios, violando HIPAA. El fix es minimización de datos — manda solo lo que el modelo realmente necesita.
Cómo Prevenirlo
- Aplica minimización de datos: consulta solo los campos que necesita la IA, nunca SELECT *
- Anonimiza o pseudonimiza los datos del usuario antes de mandarlos (reemplaza emails con user_123, etc.)
- Revisa los acuerdos de procesamiento de datos de tu proveedor de IA y asegúrate de que cubran tu caso de uso
- Loguea qué datos mandas a APIs de IA externas para poder auditarlo
- Nunca mandes contraseñas, datos de pago, SSNs o datos de salud a ningún modelo externo
Tecnologías Afectadas
Data Hogo detecta esta vulnerabilidad automáticamente.
Escanea Tu Repo GratisVulnerabilidades Relacionadas
Inyección de Prompts
highEl input del usuario se concatena directo en el prompt del LLM, permitiendo que atacantes sobreescriban tus instrucciones y hagan que la IA haga lo que ellos quieran.
Respuesta de IA Sin Validación
mediumEl output de un LLM se renderiza o ejecuta directo sin verificar si coincide con el formato esperado o contiene contenido dañino.
API Key de IA en el Frontend
criticalTu API key de OpenAI, Anthropic u otro proveedor de IA está expuesta en el código del cliente, donde cualquiera puede robarla y acumular cargos en tu cuenta.
Sin Sanitización del Output de IA
mediumEl HTML o código generado por un LLM se renderiza directo en la UI sin sanitización, abriendo la puerta a ataques de XSS almacenado.