© 2025 Connecticut Public

FCC Public Inspection Files:
WEDH · WEDN · WEDW · WEDY
WEDW-FM · WNPR · WPKT · WRLI-FM
Public Files Contact · ATSC 3.0 FAQ
Play Live Radio
Next Up:
0:00
0:00
0:00 0:00
Available On Air Stations

Belleza, género y edad: así retrata la IA generativa la diversidad de las personas latinas

La belleza, el género y la edad son algunas de las dimensiones sobre las cuales la inteligencia artificial generativa crea narrativas visuales que merecen ser analizadas con atención para evaluar si reflejan diversidad. En Factchequeado solicitamos a DALL-E 3 y Midjourney —los principales generadores de imágenes con inteligencia artificial (IA)— que representaran a diferentes personas latinas: mujeres, hombres, personas trans o no binarias, tanto hermosas como feas, además de niñas, niños y personas mayores.
Factchequeado
La belleza, el género y la edad son algunas de las dimensiones sobre las cuales la inteligencia artificial generativa crea narrativas visuales que merecen ser analizadas con atención para evaluar si reflejan diversidad. En Factchequeado solicitamos a DALL-E 3 y Midjourney —los principales generadores de imágenes con inteligencia artificial (IA)— que representaran a diferentes personas latinas: mujeres, hombres, personas trans o no binarias, tanto hermosas como feas, además de niñas, niños y personas mayores.

Si sólo tienes unos segundos, lee estas líneas:

  • Desde Factchequeado generamos más de 60 imágenes de personas latinas utilizando los programas de inteligencia artificial generativa DALL-E 3 y Midjourney, con el fin de analizar cómo estas tecnologías representan la belleza, la edad, el género y la diversidad dentro de las comunidades hispanas.
  • Las imágenes generadas por la inteligencia artificial (IA) suelen mostrar a personas latinas con rasgos simétricos, piel tersa y tonos morenos claros, lo que según expertos refuerza estándares de belleza limitados y poco diversos.
  • Las imágenes no representan la verdadera diversidad cultural, racial y de género de las comunidades latinas, lo que puede reforzar visiones sesgadas, invisibilizar identidades afrolatinas, indígenas o mixtas y perpetuar desigualdades sistémicas, según los expertos. 

Por Factchequeado
__________________________

La belleza, el género y la edad son algunas de las dimensiones sobre las cuales la inteligencia artificial generativa crea narrativas visuales que merecen ser analizadas con atención para evaluar si reflejan diversidad. En Factchequeado solicitamos a DALL-E 3 y Midjourney —los principales generadores de imágenes con inteligencia artificial (IA)— que representaran a diferentes personas latinas: mujeres, hombres, personas trans o no binarias, tanto hermosas como feas, además de niñas, niños y personas mayores.

Las imágenes generadas por estas herramientas no reflejan la verdadera diversidad de las comunidades latinas, según indicó a Factchequeado Claudia Flores Saviaga. Esta experta en IA y doctora en Ciencias de la Computación por la Universidad de Northeastern, tras analizar una muestra de 60 imágenes, aseguró que si bien algunas imágenes presentan variaciones en los tonos de piel, la mayoría replican estándares homogéneos de belleza y limitan la representación de las diferentes identidades dentro de las comunidades latinas. Además, hay una representación frecuente de personas con flores coloridas en el cabello, sombreros y estampados.

Esta es la cuarta entrega de la serie “Latinos en el algoritmo”, en la que exploramos cómo las imágenes generadas por IA pueden contribuir a reforzar estereotipos y narrativas limitadas sobre las comunidades latinas.

Cómo retrata la IA a las mujeres latinas hermosas

Cómo retrata la IA a las mujeres latinas feas

Cómo retrata la IA a los hombres latinos hermosos

Cómo retrata la IA a los hombres latinos feos

Cómo retrata la IA a las personas latinas trans hermosas

Cómo retrata la IA a las personas latinas trans feas

Cómo retrata la IA a las personas latinas no binarias hermosas

Cómo retrata la IA a las personas latinas no binarias feas

Cómo retrata la IA a los niños latinos

Cómo retrata la IA a las niñas latinas

Cómo retrata la IA a los hombres latinos ancianos

Cómo retrata la IA a las mujeres latinas ancianas

Por qué las imágenes no muestran la diversidad real dentro de las comunidades latinas

Las imágenes no reflejan con precisión la verdadera diversidad dentro de las comunidades latinas, según Flores. “Aunque algunas representaciones muestran ligeras variaciones en los tonos de piel, la mayoría de las imágenes reproducen estándares de belleza homogéneos y no logran captar la diversidad cultural, racial y de género presente entre las personas latinas”, explicó a Factchequeado.

En la mayoría de las imágenes, la identidad latina “se reduce a rasgos superficiales como el cabello y el color de piel estereotípicos, reforzando una visión limitada de cómo ‘deberían’ lucir las personas latinas”. Según la experta, esta simplificación borra la verdadera diversidad racial, étnica y cultural dentro de las comunidades latinas, donde las identidades incluyen orígenes afro-latinos, indígenas, asiático-latinos y herencias mixtas. Al depender de representaciones tan limitadas, los modelos de IA “corren el riesgo de perpetuar estándares excluyentes que marginan a quienes no encajan en estos retratos estrechos y mediáticos”.

Diversos estudios y análisis han concluido que los sistemas de IA generativa tienden al sesgo, los estereotipos y el reduccionismo al representar identidades nacionales. Un ejemplo es el análisis realizado por el medio Rest of World, que generó 3,000 imágenes con Midjourney para observar cómo esta herramienta visualiza diferentes países y culturas a partir de cinco conceptos básicos: persona, mujer, casa, calle y plato de comida, aplicados a países como China, India, Indonesia, México, Nigeria y Estados Unidos.

En este análisis, “una persona mexicana” solía representarse como un hombre con sombrero. De forma similar, las pruebas realizadas por Factchequeado mostraron que muchos latinos fueron retratados también con sombrero. Además, especialmente en Midjourney, las imágenes incluían con frecuencia flores, tocados, joyería y ropas tradicionales para representar a personas latinas.

Este tipo de representaciones corre el riesgo de perpetuar una imagen reduccionista, como indicó Doyin Atewologun, fundador y director ejecutivo de la consultora de liderazgo e inclusión Delta, a Rest of World. “La gente no solo anda por las calles con atuendos tradicionales”, comentó.

Amba Kak, directora del AI Now Institute, señaló que la IA tiende a simplificar las descripciones culturales y convertirlas en estereotipos, lo que reduce la diversidad y refuerza juicios de valor, incluso cuando no son negativos. “Definitivamente no representa la complejidad y la heterogeneidad, la diversidad de estas culturas”, añadió Sasha Luccioni, investigadora en IA ética y sostenible en Hugging Face.

En las imágenes generadas, tanto las personas trans como las no binarias fueron representadas con maquillaje llamativo, tatuajes, ropa vistosa y accesorios grandes. Midjourney en algunas representaciones muestra a personas de las que salen elementos abstractas o incluso animales de la cabeza. Algo similar le ocurrió a Sourojit Ghosh, candidato a doctorado que investiga los resultados de las herramientas de inteligencia artificial generativa y el diseño de sistemas centrados en las personas, al utilizar el generador de imágenes Stable Diffusion. Las imágenes que obtuvo de personas no binarias eran raras y, en ocasiones, parecían “un inquietante collage de rasgos parecidos a los humanos”. Según explicó a Wired, la herramienta "considera a las personas no binarias como las menos parecidas a una persona, o las más alejadas de su definición de ‘persona’".

William Agnew, becario postdoctoral en Carnegie Mellon y miembro de la organización Queer in AI, señaló a Wired que los modelos de IA pueden representar a las personas LGBTQ de manera inquietante, al combinar elementos que, por sí solos, son inofensivos, pero que, al juntarlos, resultan problemáticos. A Agnew le preocupa cómo las representaciones algorítmicas podrían tener efectos dañinos no solo en la forma en que estas personas se perciben a sí mismas, sino también en cómo el público en general las ve.

Las imágenes generadas por IA pueden reforzar ideas discriminatorias 

Los sesgos en las imágenes generadas por IA pueden reforzar ideas discriminatorias o inexactas sobre las personas latinas y su diversidad, según Saviaga. “Aunque los estándares de belleza no son necesariamente estereotipos dañinos por sí mismos, la falta de diversidad –como una escasa variación en tonos de piel, rasgos faciales o representación socioeconómica– puede contribuir indirectamente a la exclusión y reforzar percepciones sesgadas y limitadas”, comenta.

En el caso de las imágenes de latinos generadas por DALL-E 3 y Midjourney, “estas sutilezas son evidentes”. Como ejemplo de cómo las herramientas pueden reflejar y reforzar sesgos culturales y estereotipos, la experta menciona el prompt (instrucción que se le da a una inteligencia artificial) “hombre latino hermoso” y destaca que ambas herramientas lo representan de forma diferente. “En DALL·E 3, el hombre suele aparecer con indicadores de clase media o modestos, mientras que Midjourney lo representa en entornos más ricos y altamente estilizados, sugiriendo un estatus socioeconómico elevado”, señala.

Estos sesgos aparecen tanto en la representación de identidades culturales como en la profesional. Un análisis de más de 5,000 imágenes generadas por IA realizado por Bloomberg reveló que los puestos de trabajo mejor remunerados estaban representados mayoritariamente por personas con los tonos de piel más claros.

Saviaga destaca que este tipo de diferencias “importan porque influyen en la percepción pública de cómo luce una persona latina ‘exitosa’ o ‘ideal’, asociando sutilmente la belleza con la riqueza, el privilegio y los rasgos occidentales, en lugar de representar toda la gama de realidades latinas.” La experta asegura que estos sesgos pueden contribuir a la invisibilización de experiencias diversas y reforzar desigualdades sistémicas (disparidades estructurales y profundas que afectan a grupos específicos como los latinos de manera continua y a gran escala).

Lo subjetivo de la belleza desafía la equidad en los sistemas de IA

La representación de la belleza en personas latinas por parte de la IA muestra patrones repetitivos y sesgos difíciles de evitar debido a lo subjetivo del concepto, según Saviaga. “El caso de los prompts como ‘mujer latina fea’ y ‘hombre latino feo’ es particularmente interesante y un ejemplo perfecto de por qué abordar los sesgos en los conjuntos de datos utilizados para entrenar modelos de IA es tan difícil”, comenta.

Tanto DALL-E 3 como Midjourney evitan generar imágenes que puedan interpretarse como ofensivas al pedir representaciones “feas”. Cuando Midjourney acepta hacerlo, genera imágenes estilizadas, artísticas o conceptuales, no realistas ni necesariamente relacionadas con la fealdad.

Para la experta, esto se debe a que conceptos como la belleza son altamente subjetivos: “Lo que se considera poco atractivo puede variar significativamente entre individuos y culturas. Esta subjetividad dificulta definir o representar la ‘fealdad’ sin reforzar estereotipos dañinos”.

El hecho de que DALL·E 3 se niegue a generar imágenes para estos prompts “resalta el equilibrio delicado que enfrentan los desarrolladores”. “O bien generan contenido que corre el riesgo de ofender o reforzar estereotipos dañinos, o evitan generar contenido por completo, lo que también puede hacer que algunos usuarios se sientan excluidos o frustrados”, señala. La experta destaca lo compleja y delicada que es realmente la construcción de sistemas de IA justos e inclusivos.

La representación de niños y mayores revela limitaciones en los datos usados para entrenar los modelos

En los prompts sobre niños latinos, la forma en que los modelos de IA representan estas etapas, revela pistas importantes sobre los conjuntos de datos con los que fueron entrenados. Así lo indicó Saviaga, que destaca que, al comparar las imágenes generadas por DALL·E 3 y Midjourney, se observan patrones distintos que sugieren diferencias en sus materiales de origen.

DALL·E 3 tiende a generar “imágenes pulidas, casi como de publicidad, de niños latinos”. Esto, según la experta, sugiere que sus datos de entrenamiento provienen en gran medida de medios curados y profesionalizados, donde los niños se presentan bajo una mirada altamente estética y occidentalizada.

Las imágenes de Midjourney muestran una estética diferente: “Los niños latinos aparecen en entornos más rústicos o ‘artísticos’, con vestimenta tradicional o folclórica, y frecuentemente en fondos con textura, similares a pinturas”. Esto apunta a “un conjunto de datos más influenciado por representaciones artísticas que por imágenes contemporáneas y cotidianas”.

Ninguno de los dos modelos logra capturar plenamente la diversidad y complejidad de la apariencia de los niños latinos, según Saviaga. “Por ejemplo, casi todos los niños aparecen con tonos de piel y colores de cabello similares, ignorando la amplia gama de rasgos físicos que existen entre ellos”, destacó. Lo mismo ocurre con las representaciones de adultos mayores, donde también falta variación en los tonos de piel y colores de cabello.

Estas diferencias muestran lo importante que es tener datos diversos para entrenar la IA: “Cuando los datos de entrenamiento carecen de diversidad, los sistemas de IA inevitablemente reproducen esas limitaciones. Sin representaciones más variadas y realistas, la IA corre el riesgo de reforzar visiones idealizadas, estrechas y estereotipadas de lo que significa ser un niño o adulto mayor latino”.

Factchequeado es un medio de verificación que construye una comunidad hispanohablante para contrarrestar la desinformación en Estados Unidos. ¿Quieres ser parte? Súmate y verifica los contenidos que recibes enviándolos a nuestro WhatsApp +16468736087 o a factchequeado.com/whatsapp.

Federal funding is gone.

Congress has eliminated all funding for public media.

That means $2.1 million per year that Connecticut Public relied on to deliver you news, information, and entertainment programs you enjoyed is gone.

The future of public media is in your hands.

All donations are appreciated, but we ask in this moment you consider starting a monthly gift as a Sustainer to help replace what’s been lost.

SOMOS CONNECTICUT is an initiative from Connecticut Public, the state’s local NPR and PBS station, to elevate Latino stories and expand programming that uplifts and informs our Latino communities. Visit CTPublic.org/latino for more stories and resources. For updates, sign up for the SOMOS CONNECTICUT newsletter at ctpublic.org/newsletters.

SOMOS CONNECTICUT es una iniciativa de Connecticut Public, la emisora local de NPR y PBS del estado, que busca elevar nuestras historias latinas y expandir programación que alza y informa nuestras comunidades latinas locales. Visita CTPublic.org/latino para más reportajes y recursos. Para noticias, suscríbase a nuestro boletín informativo en ctpublic.org/newsletters.

Federal funding is gone.

Congress has eliminated all funding for public media.

That means $2.1 million per year that Connecticut Public relied on to deliver you news, information, and entertainment programs you enjoyed is gone.

The future of public media is in your hands.

All donations are appreciated, but we ask in this moment you consider starting a monthly gift as a Sustainer to help replace what’s been lost.