Guía práctica
Privacidad en chats de IA: datos que no debes compartir
Protocolo simple para reducir exposición de datos al usar chats de IA.
Pensada para usuarios y equipos que trabajan con información sensible.
Objetivo de esta guía
Reducir exposición de datos personales y empresariales al usar chats de IA en tareas diarias.
Paso a paso
- Clasifica la información antes de escribir: pública, interna, confidencial o restringida.
- Elimina identificadores directos (nombre, DNI, email, teléfono, cuenta) antes de pegar contenido.
- Sustituye datos concretos por placeholders cuando solo importe la estructura del caso.
- Separa contexto funcional de datos sensibles para mantener utilidad sin exposición innecesaria.
- Evita subir documentos completos si basta con fragmentos despersonalizados.
- Comprueba condiciones del proveedor sobre retención, entrenamiento y transferencia de datos.
- Define regla interna de escalado para casos legales o de alto impacto.
- Registra incidentes y actualiza plantillas para prevenir fugas repetidas.
Prompt base recomendado
Actúa como auditor de privacidad.
Texto: [contenido].
Detecta datos sensibles, sugiere anonimización y marca qué partes no deben enviarse a un servicio externo.
Probar este enfoque en el chat
Buenas prácticas específicas
- Aplicar minimización de datos por defecto en cada prompt.
- Usar entornos empresariales cuando el proceso implique información sensible.
- Añadir advertencias visibles en flujos con riesgo de fuga de datos.
- Auditar periódicamente ejemplos guardados en equipos compartidos.
- Formar al equipo en anonimización práctica, no solo teoría.
- Establecer canal interno de reporte rápido de incidentes.
Errores comunes que debes evitar
- Pegar contratos o expedientes completos con datos identificables.
- Asumir que cualquier servicio gratuito tiene garantías equivalentes a entorno empresarial.
- Confundir pseudonimización parcial con anonimización real.
- Compartir credenciales o secretos internos en prompts.
- Enviar categorías de datos de alto riesgo sin base legal clara.
- No revisar configuración de privacidad tras cambios de proveedor.
Ejemplos reales
Ejemplo 1: resumen de correo de cliente
Prompt:
Resume este correo para informe interno sustituyendo datos personales por [CLIENTE_X] y [PEDIDO_X].
Salida esperada: Texto útil para trabajo interno sin exponer identidad.
Por qué es buena: Conserva contexto de negocio con menor riesgo.
Ejemplo 2: análisis contractual
Prompt:
Extrae riesgos de este caso contractual con datos anonimizados y sin importes exactos.
Salida esperada: Lista de riesgos y acciones sin información sensible.
Por qué es buena: Permite análisis preliminar respetando minimización de datos.
Checklist descargable (tabla de control)
Checklist para validar privacidad antes de enviar contenido a un chat de IA.
| Criterio | Cómo verificarlo | Estado |
|---|---|---|
| Clasificación previa | El contenido está etiquetado por sensibilidad | [ ] Pendiente / [ ] OK |
| Identificadores retirados | No hay datos personales directos en el prompt | [ ] Pendiente / [ ] OK |
| Datos mínimos | Solo se incluye información imprescindible | [ ] Pendiente / [ ] OK |
| Proveedor revisado | Se conocen reglas de retención y uso de datos | [ ] Pendiente / [ ] OK |
| Escalado definido | Casos de alto riesgo pasan a revisión humana | [ ] Pendiente / [ ] OK |
| Trazabilidad básica | Queda registro de uso en procesos sensibles | [ ] Pendiente / [ ] OK |
Mini-FAQ
¿Anonimizar siempre elimina el riesgo?
No del todo; lo reduce. En casos críticos, mejor no enviar datos.
¿Qué no debo compartir nunca?
Credenciales, identificadores completos y secretos comerciales.
¿Quién define la política interna?
Seguridad, legal/DPO y responsables operativos de cada área.
Fuentes y criterios
Guía de prevencion. Para decisiones legales, consulta especialistas.
- AEPD guías y herramientas - Recomendaciones sobre protección de datos.
- EDPB documents - Criterios europeos de minimizacion de datos.