0

La inteligencia artificial ha irrumpido en múltiples sectores con la promesa de ofrecer soluciones eficientes, personalizadas y escalables. Sin embargo, a medida que se vuelve una herramienta esencial para la toma de decisiones en áreas como la salud, el empleo, las finanzas o la seguridad pública, también surgen riesgos asociados a su desarrollo y uso. Uno de los más preocupantes es la reproducción y amplificación de los prejuicios sociales que sus diseñadores—en su mayoría hombres blancos—incorporan, muchas veces sin darse cuenta.


Este fenómeno, conocido como sesgos en la IA, está íntimamente ligado a la falta de diversidad en la industria tecnológica. Según la UNESCO, las mujeres representan apenas el 26 % de la fuerza laboral en IA, mientras que los grupos étnicos como los afrodescendientes o los hispanos siguen siendo significativamente subrepresentados. En consecuencia, las herramientas que crean no reflejan la pluralidad de experiencias y necesidades de la sociedad, perpetuando estructuras de desigualdad.


Sesgos en la IA: un problema con consecuencias reales

Los sesgos en la IA no son una falla menor del sistema; tienen consecuencias profundas. En 2018, Amazon tuvo que eliminar una herramienta de reclutamiento con IA cuando descubrió que discriminaba a las mujeres. ¿La razón? El algoritmo se entrenó con datos históricos que reflejaban una fuerza laboral dominada por hombres, reforzando esa misma tendencia. Este tipo de sesgos se originan cuando los sistemas aprenden a partir de datos que ya están contaminados con prejuicios humanos. Maya De Los Santos, una joven afrolatina que busca abrirse camino en este campo, lo tiene claro:


“Quiero asegurarme de que las comunidades marginadas estén protegidas e informadas sobre los peligros y beneficios de la IA”.


De Los Santos, estudiante de doctorado en la Universidad Brown entrevistada por Eco-Business, representa una nueva generación de talentos que lucha por construir una tecnología más inclusiva. Su presencia no es anecdótica: es urgente.


El sesgo algorítmico se filtra desde la concepción misma de los sistemas. Desde cómo se definen los problemas hasta qué datos se usan y cómo se interpretan los resultados, las perspectivas homogéneas reducen la capacidad de anticipar daños. De los Santos advirtió:


“La injusticia y los prejuicios que existen en la sociedad se están replicando en la IA, que se aplica a escenarios de alto riesgo y se confía en ella sin un pensamiento más crítico”.


La falta de diversidad en el desarrollo de IA

Diversos estudios han mostrado que la participación de personas con distintos orígenes e identidades contribuye a crear tecnologías más éticas y eficaces. A pesar de ello, los hombres continúan ocupando el 80 % de los puestos académicos de alto nivel en IA, y los porcentajes de trabajadores negros e hispanos en el sector técnico apenas alcanzan el 8 y 9 %, respectivamente, según la Universidad de Georgetown.


Esta falta de representación genera una IA que responde a un universo limitado, pues como sostiene Tess Posner, fundadora de AI4ALL, organización dedicada a impulsar la inclusión en este ámbito:


 “Cuando personas de una gama más amplia de experiencias ayudan a dar forma a la IA, es más probable que identifiquen diferentes necesidades, hagan diferentes preguntas y apliquen la IA de nuevas maneras”.


La homogeneidad no solo afecta el producto, sino también su legitimidad social. Si los algoritmos que deciden quién recibe un préstamo, qué paciente tiene prioridad en atención médica o quién es considerado sospechoso por un sistema de vigilancia no están diseñados con diversidad de criterios, su uso puede perpetuar o agravar la discriminación sistémica ya existente.


Programas que impulsan la inclusión en este sector

AI4ALL ha apoyado desde 2015 a más de 7,500 estudiantes de comunidades históricamente excluidas. Su objetivo es claro: formar una próxima generación de expertos en IA desde una perspectiva de equidad. Esto implica acceso temprano a clases de informática, mentorías con profesionales del sector y la apertura de oportunidades laborales que antes estaban vedadas.


Posner enfatiza que el trabajo comienza en las aulas: solo el 60 % de las escuelas públicas en EE. UU. ofrecen clases de informática, y los estudiantes negros, latinos y nativos americanos son quienes menos acceso tienen. “Promover la diversidad significa empezar desde temprano”, afirma. Se trata de construir desde la base una nueva cultura tecnológica.


No obstante, estos esfuerzos enfrentan una fuerte resistencia política. En EE. UU., la ola contra los programas de Diversidad, Equidad e Inclusión (DEI) está socavando logros alcanzados. Varias oficinas de diversidad han sido cerradas y empresas como PepsiCo y Goldman Sachs han reducido sus programas:


 “Me preocupa que el ataque a la DEI debilite los esfuerzos para crear oportunidades en IA para grupos marginados”, dice la  académica de UCLA Safiya Noble.


Los sesgos en la IA: un reflejo de nuestras brechas sociales

Combatir los sesgos en la IA requiere más que ajustes técnicos: demanda transformaciones estructurales en cómo se conciben, desarrollan y evalúan estas tecnologías. No basta con auditar los algoritmos una vez que fallan; se necesita que quienes los crean provengan de diversos entornos y tengan la sensibilidad necesaria para detectar los riesgos desde el inicio.


La IA no es neutral. Si se entrena con datos desbalanceados o si es diseñada por equipos homogéneos, terminará reflejando los mismos prejuicios que decimos querer superar. Las tecnologías que no son inclusivas tampoco son confiables. Por eso, la representación de voces diversas no es un tema decorativo, sino una condición esencial para una inteligencia verdaderamente “artificial” y justa.


Además, incluir a mujeres, personas racializadas y comunidades históricamente excluidas no sólo mejora los resultados técnicos: humaniza los procesos, expande los límites de lo posible y democratiza el futuro digital. Como señala Posner:


“La inclusión hace que las soluciones creadas por IA sean más relevantes para más personas”.


Diversidad para una IA ética y socialmente responsable

El desarrollo de tecnologías inteligentes no puede desligarse del contexto humano que las alimenta. Los sesgos en la IA son el producto directo de nuestras desigualdades estructurales, pero también una oportunidad para cuestionarlas y corregirlas. Apostar por la diversidad en el ámbito tecnológico es una forma de avanzar hacia una inteligencia artificial más ética, inclusiva y segura para todos.


Si queremos que la IA contribuya al bien común, debemos ampliar quiénes tienen la oportunidad de imaginarla, diseñarla y evaluarla. Esto implica una inversión continua en políticas educativas, inclusión laboral y defensa de los programas DEI. Solo así podremos evitar que las herramientas del futuro sigan enseñando los errores del pasado.

ExpokNews

Hola, déjenos un comentario

 
Top