Lo técnico es político: HAIP reporting framework

Pides un préstamo y te lo niegan. Mandas tu CV y nunca llega a manos humanas porque un filtro automático lo descartó. O un sistema de reconocimiento facial se equivoca contigo. No es futurista: ya pasa y cada vez sucederá más.

Lo que tienen en común estas escenas es algo muy concreto: decisiones tomadas por sistemas de inteligencia artificial que impactan vidas reales, a veces sin que la persona afectada tenga claro por qué ocurrieron.

Y ahí aparecen dos preguntas razonables (y urgentes): ¿quién les pide cuentas a estos sistemas? ¿Y cómo podemos saber si agravan la discriminación por género, origen étnico o condición socioeconómica?

Un paso hacia más transparencia

Durante mucho tiempo, hablar de “IA responsable” se quedó en promesas generales. Pero en febrero de 2025 la OCDE lanzó el HAIP Reporting Framework, un marco que busca algo muy específico: hacer comparables los esfuerzos de distintas organizaciones que desarrollan IA para gestionar riesgos.

HAIP viene del Proceso de IA de Hiroshima, una iniciativa del G7 iniciada en 2023 con una pregunta de fondo: cómo lograr que la IA beneficie a más personas y no solo a unos cuantos sectores.

La herramienta que propone el marco es sencilla en teoría (y muy útil en la práctica): transparencia. Las organizaciones que participan de manera voluntaria publican reportes sobre qué están haciendo para prevenir daños, detectar problemas y responder cuando aparecen.

Por qué esto importa para la igualdad

La IA no es neutral. Aprende de datos del mundo real y el mundo real trae desigualdades incorporadas. Por eso, si un sistema se entrena con historiales sesgados, puede replicar patrones discriminatorios.

El HAIP Reporting Framework pide que las empresas reporten sobre cuestiones como sesgos dañinos, discriminación y efectos sobre la equidad, así como cómo evalúan riesgos para los derechos humanos y qué medidas adoptan si detectan fallas.

En otras palabras: la información que antes quedaba dentro de la empresa se vuelve más visible para reguladores, la academia y la sociedad civil. No abre por completo la “caja negra”, pero sí abre una ventana.

Para noviembre de 2025, 24 organizaciones de distintos países habían publicado reportes. Hay grandes tecnológicas (Google, Microsoft, Amazon, OpenAI), pero también instituciones de investigación y organizaciones más pequeñas.

Lo valioso no es solo la lista: por primera vez, se puede comparar entre organizaciones que reportan sobre temas como la evaluación de sesgos, el monitoreo de incidentes y la protección de datos personales.

Limitaciones (y por qué igual vale la pena)

Este marco es voluntario: nadie está obligado a participar y los reportes dependen de lo que cada organización decida documentar y publicar. Además, la participación actual todavía representa una pequeña parte del universo de empresas que desarrollan IA.

Aun así, el marco marca un precedente: ayuda a construir expectativas públicas sobre qué prácticas deberían acompañar el desarrollo de IA. También genera insumos que pueden servir para mejorar políticas y regulaciones futuras.

Sin ser ingenuas, estos reportes pueden servir de base para identificar vacíos, reconocer avances y tener conversaciones más informadas.

Lo técnico es político

Las feministas hemos formulado la consigna: lo personal es político. En la era de la IA, también debemos pensar que lo técnico es político; las decisiones tecnológicas tienen implicaciones en el ejercicio de nuestros derechos y, por lo tanto, aunque no seamos ingenieras o programadoras, es relevante conocerlas e involucrarnos en ellas.

Los reportes del HAIP están disponibles en el portal de la OCDE y revisarlos puede ayudar a entender mejor qué se está haciendo, qué falta y dónde hay áreas de oportunidad.

La IA seguirá transformando nuestras sociedades. La cuestión es cómo aseguramos que esa transformación no reproduzca desigualdades existentes y, a partir de nuestro esfuerzo colectivo, contribuya a reducirlas. Marcos como el HAIP no resuelven todo, pero sí aportan una pieza importante: más información para discutir con evidencia.

Siguiente
Siguiente

Adopción de la IA: la seguridad psicológica como el factor que acelera (o frena) el cambio