
De la IA “wow” a la IA “wow + evidencia”: el salto competitivo
- Categorías (IA) Inteligencia Artificial, Agile Coach
- Fecha 15/12/2025
IA generativa en 2026: nuevo estándar AEPD y AESIA
Si eres CEO, DPO o lideras Tecnología / Función Pública, la IA generativa ya no se puede gestionar como “prueba y error”. Esta semana (9–11 de diciembre) AEPD y AESIA han elevado el listón: entramos en gobernanza multinivel, con controles, evidencias y responsabilidades.
La publicación de la Política de IA Generativa de la AEPD junto con las Guías de la AESIA marca un cambio de fase: la IA deja de ser una “herramienta molona” para convertirse en un activo regulado que exige Gobernanza Multinivel.
Dicho claro: se acabó el piloto sin control. Ahora toca evidencia, trazabilidad y responsabilidades.
AEPD y AESIA: tres pilares que ya no son negociables
1) Calidad del dato: obligación jurídica (el corazón del AI Act)
La AEPD lo deja claro: no existe IA lícita sin datos lícitos. Y el Artículo 10 del Reglamento Europeo de IA (AI Act) aterriza en forma de exigencia práctica: calidad del dataset, pertinencia, representatividad y mitigación de sesgos.
Si un sistema falla por un dato sesgado o mal gobernado, la responsabilidad no se “diluye”.
👉 Clave operativa: si utilizáis modelos de terceros, exigid garantías contractuales y técnicas sobre el uso de vuestros datos (incluido que no se empleen para reentrenar el modelo general del proveedor, cuando aplique).
2) Vigilancia humana: el control no es optativo
La AESIA es contundente con el Human-in-the-Loop: la supervisión humana no puede ser un trámite. Tiene que ser real, efectiva y competente.
Especialmente cuando el sistema impacta en personas o decisiones sensibles (RRHH, scoring, elegibilidad, evaluación, etc.).
👉 Pregunta incómoda (y útil): ¿tenéis definido quién supervisa, cómo interviene, cuándo se para el sistema y dónde queda registrado?
3) La trampa de los términos de uso: adiós a la IP (si no lo controlas)
El riesgo no siempre está en el modelo. Muchas veces está en el contrato.
Aceptar condiciones “estándar” (y más aún en herramientas gratuitas) puede implicar cesiones no deseadas sobre inputs, outputs, confidencialidad o propiedad intelectual.
👉 Estrategia de riesgos: migrar a Enterprise, o diseñar arquitecturas soberanas (on-premise / nube privada / híbridas) para información sensible. No se puede poner en juego lo confidencial “por ahorrarse un euro”.
De la adopción al buen gobierno de la IA
Las organizaciones que se tomen esto en serio e integren Compliance desde el diseño (Privacy by Design, enfoque riesgo-basado, controles y evidencia) no solo reducirán exposición: ganarán confianza, velocidad sostenible y credibilidad frente a clientes, ciudadanía y regulador.
📚 Fuentes oficiales (9–11 dic 2025):
AEPD: Política/criterios de uso de IA generativa.
AESIA: Guías de gobernanza, evaluación de conformidad y gestión de riesgos.
(Si vas a citar el “Código de uso” del OSP-IA, revisa que sea la denominación exacta y enlaza la fuente oficial para evitar ruido y asegurar trazabilidad).
También te puede interesar
El Coste Oculto del Liderazgo Improvisado

