IA Responsable en generadores de imágenes: Aplicación del HAX Toolkit

Trabajo del Máster IA generativa para creativos (Founderz)

Este estudio analiza cómo los generadores de imágenes por IA reproducen sesgos y propone soluciones prácticas para mejorar la equidad representacional. Aplicando el HAX Toolkit, se identifican patrones de discriminación en outputs generados a partir de prompts neutros, y se plantea una intervención UX que empodere al usuario y fomente la transparencia.

La investigación combina metodología empírica, análisis crítico y diseño responsable, conectando ética, pedagogía y práctica profesional en contextos creativos. Es una contribución original al Máster en IA para Creativos de Founderz, con aplicación directa en diseño, publicidad y educación.

El contenido aquí presentado es un resumen. Puedes leer el estudio completo en el PDF.


Objetivo

Analizar cómo los generadores de imágenes por IA reproducen sesgos visuales y aplicar tres directrices del HAX Toolkit para proponer intervenciones de diseño que mejoren la equidad visual.

Método

Generación controlada de imágenes a partir de prompts neutros y variantes que solicitan diversidad; etiquetado humano de resultados; análisis cuantitativo de representación y análisis cualitativo de estereotipos.

Hallazgos principales

Los modelos tienden a reproducir estereotipos profesionales y de rol doméstico; invisibilizan cuerpos diversos y personas con discapacidad; y ofrecen poca transparencia sobre el origen de sus resultados.

Propuesta clave

Incorporar un botón de reporte “SESGO” en la galería de outputs para que usuarios etiqueten tipos de sesgo, aporten feedback estructurado y reciban explicaciones automáticas sobre por qué se generó cada imagen.

Por qué hace falta IA responsable en diseño visual

Las imágenes moldean percepciones sociales. Repetir representaciones estereotipadas refuerza roles limitantes y excluye identidades diversas. La responsabilidad en diseño visual implica garantizar que las representaciones sean justas y no reproduzcan desigualdades ni perpetúen esos estereotipos.

Consecuencias sociales de la mala representación

La invisibilización de minorías étnicas, personas con discapacidad y cuerpos no normativos tiene efectos concretos en autoestima, oportunidades laborales y presencia pública. En contextos educativos, imágenes sesgadas distorsionan el aprendizaje y las normas culturales que se transmiten, además de mermar la capacidad aspiracional de algunos individuos que no se vean representados.

Marco teórico: IA responsable y HAX Toolkit

HAX Toolkit es es una herramienta desarrollada por investigadores de Microsoft en interacción humano–IA para guiar el diseño de experiencias responsables. Su objetivo es traducir principios éticos y técnicos en pautas prácticas que puedan aplicarse durante todo el ciclo de vida de un producto: desde la ideación hasta la evaluación.

El apartado del Toolkit que nos interesa son las directrices: 18 principios que orientan decisiones de diseño (equidad, explicabilidad, control del usuario, etc.).

Conceptos clave

  • Sesgo algorítmico: tendencia de los modelos a favorecer o perjudicar sistemáticamente a ciertos grupos por cómo fueron entrenados.
  • Equidad representacional: diversidad proporcional y digna en las imágenes generadas, más allá de la mera presencia numérica.
  • Transparencia: capacidad del sistema para explicar cómo funciona y por qué produce ciertos resultados.
  • Incertidumbre: reconocimiento explícito de los límites del modelo y comunicación clara de su fiabilidad.
  • Caja negra: opacidad en las decisiones del sistema que dificulta la detección de sesgos y la atribución de responsabilidad.

Conceptos clave aplicados en este trabajo

  • Reporte de sesgo: mecanismo para que el usuario marque un output como problemático, útil para auditoría y mejora del sistema.
  • Equidad visual: grado en que las imágenes reflejan diversidad de género, raza, edad, capacidades y morfologías sin estereotipos.
  • Sesgo de representación: omisión, estereotipación o sobrerrepresentación sistemática de ciertos grupos en función del prompt.
  • Explicabilidad accionable: información mínima que permite entender y corregir un resultado (tokens dominantes, fragmentos del dataset, indicador de confianza).

Metodología

Se generaron imágenes mediante prompts neutros y variantes que solicitaban diversidad. Los resultados fueron etiquetados manualmente y analizados tanto cuantitativa como cualitativamente para detectar estereotipos, invisibilizaciones y patrones de sesgo. Se aplicaron tres directrices del HAX Toolkit para diseñar una propuesta de intervención.

Incertidumbre (Directriz 2)
El sistema debe mostrar indicadores de confianza por imagen y advertencias sobre sus limitaciones. Esto permite al usuario interpretar los resultados con juicio crítico y tomar decisiones informadas.

Equidad representacional (Directriz 6)
Es esencial evitar reforzar estereotipos injustos. Esta directriz guía el diseño de prompts, datasets y controles UX para garantizar representaciones justas y diversas.

Explicabilidad (Directriz 11)
El sistema debe ofrecer explicaciones accesibles sobre qué factores influyeron en cada imagen: tokens dominantes, estilo, fragmentos del dataset, etc. Esto facilita la corrección y mejora iterativa.

Resultados

  • Predominancia de hombres blancos en profesiones de alto estatus.
  • Mujeres representadas en roles domésticos o de cuidados.
  • Invisibilización de cuerpos diversos, personas con discapacidad y minorías étnicas.
  • Falsa inclusión: diversidad superficial o estereotipada.
  • Estigmatización racial y clasista en contextos urbanos. Aporofobia.
  • Ausencia de símbolos religiosos y culturas no europeas.

Conclusión y relevancia profesional

Este trabajo me ha permitido aplicar principios éticos al diseño visual con inteligencia artificial generativa, abordando los sesgos que afectan la representación en imágenes. A través del HAX Toolkit, he desarrollado una metodología replicable y una propuesta UX concreta que puede integrarse en productos reales para mejorar la equidad visual.

Más allá del análisis, esta investigación refleja mi compromiso con un diseño responsable, transparente y socialmente consciente. Une mi experiencia en diseño gráfico y de producto con mi especialización en IA, y representa una pieza clave en mi portfolio: situada en el cruce entre creatividad, tecnología y justicia social.

Nota ética

Las imágenes y ejemplos presentados en este estudio tienen un propósito exclusivamente analítico y crítico. No reflejan mis valores personales ni profesionales, ni buscan reafirmar los estereotipos o sesgos que se describen. Al contrario, su inclusión responde a la necesidad de visibilizar cómo los sistemas de IA pueden reproducir desigualdades visuales, y cómo desde el diseño podemos intervenir para corregirlas.

Si algún colectivo se ha sentido excluido del estudio, malrepresentado desde la crítica o estigmatizado por mi parte o por la forma de la descripción, estoy abierta a recibir críticas para revisar mis prejuicios y aprender a no contribuir a ellos en el futuro.


Imágenes de los resultados y sus prompts


PDF con estudio completo


Trabajo realizado como ejercicio del Máster de IA generativa para creativos de Founderz en 2025.