Guía práctica
Cómo verificar respuestas de IA y evitar alucinaciones
Protocolo claro para comprobar afirmaciones antes de publicar o decidir.
Útil para redacción, soporte, análisis y decisiones de negocio.
Objetivo de esta guía
Aplicar un protocolo de verificación para detectar errores, alucinaciones y afirmaciones no respaldadas en respuestas de IA.
Paso a paso
- Separa afirmaciones verificables de opiniones o recomendaciones.
- Clasifica cada afirmación por impacto: bajo, medio o alto riesgo.
- Busca fuente primaria para cifras, fechas, normativas y conceptos técnicos.
- Contrasta con segunda fuente independiente cuando el impacto sea alto.
- Marca explícitamente incertidumbres o límites de evidencia.
- Corrige el texto original incluyendo referencias y fecha de validación.
- Documenta trazabilidad: qué fuente consultaste y qué decisión tomaste.
- Si falta evidencia, no uses la respuesta en decisiones críticas.
Prompt base recomendado
Actúa como verificador factual.
Respuesta IA: [texto].
Devuelve tabla con: afirmación, nivel de riesgo, fuente de contraste y estado (validada/no validada).
Probar este enfoque en el chat
Buenas prácticas específicas
- Pedir al modelo que identifique dónde puede estar equivocado.
- Priorizar fuentes oficiales, documentación primaria y estándares.
- Comprobar vigencia temporal de normas y estadísticas.
- Diferenciar hechos, inferencias y recomendaciones en la versión final.
- Guardar registro de verificación por URL o documento publicado.
- Definir umbrales de "no publicar" cuando hay duda sustancial.
Errores comunes que debes evitar
- Asumir que un texto bien redactado es correcto.
- Aceptar cifras sin metodología ni fecha.
- Usar una única fuente secundaria para validar temas sensibles.
- Mezclar hechos y opiniones sin etiquetarlos.
- No actualizar contenidos cuando cambia el contexto regulatorio.
- Delegar toda verificación al propio modelo.
Ejemplos reales
Ejemplo 1: afirmación legal sobre cookies
Prompt:
Verifica esta afirmación sobre obligaciones de consentimiento en España e indica fuente oficial y matices.
Salida esperada: Texto corregido con base normativa y limitaciones.
Por qué es buena: Evita recomendaciones legales erróneas.
Ejemplo 2: dato de mercado
Prompt:
Contrasta esta cifra de adopción de IA en pymes con fuente primaria y explica discrepancias.
Salida esperada: Dato validado o descartado con justificación.
Por qué es buena: Mejora credibilidad editorial.
Checklist descargable (tabla de control)
Checklist mínimo para validar una respuesta de IA antes de usarla en trabajo real.
| Criterio | Cómo verificarlo | Estado |
|---|---|---|
| Hechos identificados | Las afirmaciones comprobables están separadas | [ ] Pendiente / [ ] OK |
| Nivel de riesgo asignado | Cada afirmación tiene criticidad definida | [ ] Pendiente / [ ] OK |
| Fuentes primarias | Datos clave se validan con origen oficial | [ ] Pendiente / [ ] OK |
| Conflictos resueltos | Se explica criterio cuando hay discrepancias | [ ] Pendiente / [ ] OK |
| Texto corregido | La salida final incorpora evidencia y límites | [ ] Pendiente / [ ] OK |
| Trazabilidad guardada | Queda registro de enlaces y fecha de revisión | [ ] Pendiente / [ ] OK |
Mini-FAQ
¿Cuándo basta una sola fuente?
En temas de bajo riesgo y con fuente oficial reciente.
¿Qué hago si no encuentro evidencia sólida?
No presentes la afirmación como hecho; deja explícita la incertidumbre.
¿Este proceso ralentiza demasiado?
Al inicio sí, pero reduce errores costosos y retrabajo a medio plazo.
Fuentes y criterios
Guía de control de calidad, no sustituto de revisión especializada.
- Google helpful content guidance - Criterios de contenido útil y confiable.