Una empresa del sector financiero ha desplegado un modelo de IA para evaluar solicitudes de crédito. Seis meses de proyecto. Equipo comprometido. Lanzamiento celebrado.
Pero, nadie se ha preguntado: ¿cómo respondemos ante una auditoría si algo sale mal?
No por negligencia. Sino porque esa pregunta todavía no tiene dueño en la mayoría de las organizaciones y empresas españolas. La
Ya ha ocurrido con la digitalización. Con el GDPR. Ahora ocurre con la IA, y la escala es mayor.
El AI Act europeo ya está en vigor. Establece obligaciones concretas sobre transparencia, auditoría y responsabilidad. No es una recomendación. Es regulación con consecuencias.
La pregunta no es si tu organización usa IA. Casi seguro que sí. La pregunta es quién tiene la responsabilidad de garantizar que ese uso es seguro, explicable y conforme a la ley.
¿Puede tu organización explicar cómo toma decisiones un sistema de IA ante una auditoría externa?
¿Sabes si alguno de tus modelos introduce sesgos en decisiones que afectan a clientes o empleados?
¿Tienes documentado el nivel de riesgo de tus sistemas según el AI Act?
Si alguna respuesta es no, o no lo sé, no estás solo. La mayoría de las organizaciones están exactamente en ese punto. La diferencia está en quién decide abordarlo ahora.
La próxima vez que tu banco te deniegue un préstamo, o que no te llamen para una entrevista, puede que no haya sido una persona quien tomó esa decisión. Puede que haya sido un modelo entrenado con datos que no te representan.
Entender de regulación, de gestión del cambio, de estructuras organizativas, de cómo se toman decisiones reales en empresas reales: eso no se aprende en un curso de IA generativa.
Lo que falta en muchas organizaciones no es tecnología. Es criterio para gobernarla. Y ese criterio lo tienen personas con trayectoria, si se les da el marco adecuado.
La IA ya está incidiendo en decisiones de contratación, promoción y evaluación del talento. Los sesgos en esos sistemas son reales y documentados. Los profesionales senior son uno de los colectivos más afectados: algoritmos entrenados con datos históricos que perpetúan sesgos por experiencia sin que nadie lo haya decidido explícitamente, y sin que nadie en la organización sepa cómo auditarlo.
Entender cómo funcionan estos sistemas no es solo una ventaja profesional. Es una forma de protegerte y de proteger a tu equipo.
En aisafety.es estamos construyendo la comunidad en castellano de profesionales que entienden esto y actúan en consecuencia. No para aprender tecnología desde cero, sino para estar del lado de quienes la gobiernan.
Y si quieres entender el panorama de riesgos antes de dar ningún paso, RiesgosIA es el proyecto donde publicamos análisis, recursos y conversaciones sobre gobernanza de IA en español.
Tribuna realizada por Osmani Redondo, fundadora de IA Safety (IAS) y Technical Educator en RiesgosIA. Además, construye la comunidad española de profesionales que adoptan IA de forma segura y responsable en aisafety.es