0

En la era de los asistentes conversacionales, la inteligencia artificial ya no solo responde, sino que interpreta papeles. Puede presentarse como una adolescente entusiasta, un jubilado escéptico o una madre trabajadora. Puede adoptar acentos culturales, referencias musicales y trayectorias vitales. Pero ¿qué tan fiel es esa representación? ¿Hasta qué punto estas máscaras digitales reflejan la experiencia humana sin deformarla?

Un grupo de investigadores del College of Information Sciences and Technology (IST) de Penn State se propuso examinar esa cuestión con lupa crítica. Su conclusión, presentada en la 40ª Conferencia Anual de la Association for the Advancement of Artificial Intelligence (AAAI 2026) en Singapur, es inquietante: las personas artificiales tienden a parecer caricaturas sofisticadas. Detrás de una prosa fluida y convincente, se esconden simplificaciones, exageraciones culturales y estereotipos persistentes.

El trabajo, liderado por Shomir Wilson y Sarah Rajtmajer, y disponible en el repositorio científico arXiv, advierte que los modelos actuales, lejos de capturar la pluralidad de la experiencia humana, magnifican patrones culturales codificados que reducen identidades complejas a un puñado de rasgos reconocibles.


Máscaras digitales y realidades aplanadas

Los investigadores partieron de una hipótesis clara: a medida que la IA se integre en la vida cotidiana, aumentará la presencia de chatbots con “personalidad” definida. No solo pedirán datos o resolverán dudas técnicas; también ofrecerán compañía, orientación emocional o incluso actuarán como sujetos simulados en investigaciones científicas.

Para explorar el fenómeno, el equipo trabajó con modelos de lenguaje de gran escala (LLM), entre ellos GPT-4o, Gemini 1.5 Pro y DeepSeek v2.5. Se les pidió que adoptaran identidades específicas —definidas por edad, género, raza, ocupación o nacionalidad— y que respondieran preguntas sobre su vida, sus cualidades más destacadas o sus habilidades principales. En total, analizaron más de 1.500 perfiles generados por IA y los compararon con respuestas de 141 personas reales de características sociodemográficas similares.

El contraste fue revelador. Aunque las respuestas artificiales estaban bien estructuradas y parecían matizadas, recurrían con mayor frecuencia a marcadores culturales estereotipados. En el caso de una supuesta mujer afroamericana de 50 años, por ejemplo, el chatbot aludía reiteradamente a la música góspel, la justicia social, el cuidado del cabello natural o la disciplina maternal firme. Son elementos que pueden formar parte de algunas trayectorias individuales, pero no constituyen, ni mucho menos, un retrato universal.

En cambio, las personas reales ofrecían relatos más heterogéneos: hablaban de su empleo, de sus hijos, de problemas de salud, de voluntariado o de proyectos personales. La identidad no se limitaba a una etiqueta cultural, sino que se desplegaba en múltiples dimensiones cotidianas.


Cuatro formas de daño representacional

El estudio identificó cuatro tipos de lo que denominaron “daño representacional”. El primero es el estereotipo, entendido como el uso de generalizaciones y tropos convencionales asociados a grupos raciales o culturales específicos. La IA, al entrenarse con vastos corpus textuales, aprende patrones dominantes y los reproduce con eficiencia matemática, pero sin discernimiento crítico.

El segundo es el exotismo, que presenta las identidades minoritarias como algo ajeno o pintoresco, casi decorativo. En lugar de normalizar la diversidad, la convierte en espectáculo narrativo.

El tercero es la borradura: la simplificación o supresión de historias personales complejas que no encajan en moldes previsibles. En este proceso, la riqueza biográfica se reduce a una lista de rasgos “representativos”.

El cuarto fenómeno es más sutil: el sesgo benevolente. Aquí, el lenguaje parece positivo y respetuoso, pero en realidad suaviza o encubre la reproducción de clichés. Se trata de una forma de sesgo que elude filtros automáticos de contenido ofensivo mediante formulaciones amables, pero no por ello menos problemáticas.

Según los autores, estos hallazgos deberían generar cautela, especialmente porque los LLM se emplean cada vez más en contextos de alto impacto, desde asistencia psicológica hasta simulaciones académicas. 


Hacia una IA alineada con la experiencia humana

El debate se inscribe en un marco más amplio: la llamada alineación de la IA, es decir, el esfuerzo por lograr que los sistemas reflejen valores humanos considerados éticos y justos. No basta con que un chatbot sea coherente o gramaticalmente impecable; debe también evitar reproducir narrativas dañinas.

Los investigadores sostienen que es necesario ir más allá de la detección de palabras problemáticas y adoptar métricas de evaluación contextual, capaces de analizar la profundidad narrativa y la complejidad identitaria. Asimismo, proponen protocolos de validación centrados en la comunidad: involucrar a los colectivos representados en la revisión y diseño de estas “personas” artificiales.

Porque el riesgo no es trivial. Cuando una IA exagera rasgos culturales o simplifica trayectorias vitales, contribuye a consolidar imaginarios sesgados. Y si estos sistemas se convierten en mediadores habituales de información, compañía o incluso investigación científica, su influencia simbólica puede amplificarse.

MUY INTERESANTE

Hola, déjenos un comentario

 
Top