Artículo de información
José Carlos Botto Cayo y Abel Marcial Oruna Rodríguez
10 de julio del 2025
Desde sus primeras aplicaciones, la inteligencia artificial (IA) ha sido celebrada como una revolución tecnológica capaz de transformar sociedades. Sin embargo, al mismo tiempo que promete automatización, eficiencia y descubrimientos científicos, también está ampliando brechas profundas que ya existían en el mundo real. Estas desigualdades no solo son económicas o tecnológicas, sino también sociales, étnicas y geopolíticas. La IA no surge en el vacío; se entrena con datos humanos, se implementa por empresas con intereses particulares y se regula —si acaso— de forma desigual entre países. (Crawford, 2021)
Un análisis serio sobre la desigualdad en la IA requiere mirar más allá del acceso a dispositivos o conexión a internet. Se trata de una infraestructura mundial de datos y algoritmos que tiende a beneficiar a unos pocos, mientras deja a muchos al margen. La mayoría de los sistemas avanzados son desarrollados por compañías del hemisferio norte, en idiomas dominantes como el inglés, con conjuntos de datos que excluyen a comunidades enteras. Así, el riesgo no solo es que algunos queden fuera, sino que sean mal representados o directamente invisibilizados por los modelos que definen decisiones clave en salud, educación, justicia y trabajo. (Benjamin, 2019)
Concentración de recursos y asimetrías de poder
Uno de los principales focos de desigualdad en la inteligencia artificial es la extrema concentración de recursos. Las herramientas más avanzadas, como los modelos fundacionales tipo GPT, Claude o Gemini, son desarrolladas por pocas empresas con acceso privilegiado a supercomputación, talento especializado y volúmenes masivos de datos. Esta concentración reproduce el viejo dilema del “centro y la periferia” en el ecosistema digital: mientras unos pocos países lideran el desarrollo, muchos otros apenas comienzan a entender las implicancias sociales de estos sistemas. (Eubanks, 2018)
A nivel educativo, la brecha se ensancha. Mientras universidades de élite entrenan ingenieros para liderar la IA global, millones de estudiantes en el sur global aún carecen de infraestructura básica. Esto no solo limita el desarrollo local de tecnologías propias, sino que perpetúa una dependencia intelectual y tecnológica de soluciones extranjeras, poco adaptadas a las realidades locales. (Crawford, 2021)
El acceso desigual también se evidencia en la disponibilidad de datos. Las poblaciones más pobres, aisladas o vulnerables son subrepresentadas en los datasets, lo que provoca que los modelos de IA no reconozcan adecuadamente sus necesidades ni respondan con precisión a sus contextos. Esta exclusión, lejos de ser neutra, tiene consecuencias directas: diagnósticos erróneos, sesgos en sistemas judiciales, invisibilidad en políticas públicas. (Eubanks, 2018)
En este marco, las decisiones sobre cómo se construyen, entrenan y despliegan los modelos de IA están concentradas en unos pocos actores privados. Sin transparencia ni participación, estas empresas definen el futuro tecnológico de millones de personas. Esta centralización representa un riesgo ético y democrático que exige regulación internacional y soberanía tecnológica en los países más rezagados. (Eubanks, 2018)
Brechas culturales y exclusión lingüística
Un tipo particularmente peligroso de desigualdad es la exclusión lingüística. La mayoría de los modelos de IA, incluso los más avanzados, han sido entrenados con datos predominantemente en inglés. Esto significa que las culturas, expresiones idiomáticas y particularidades lingüísticas de cientos de pueblos quedan fuera del radar de la IA, o son malinterpretadas. Incluso cuando se incluye el español, se privilegian variantes peninsulares o neutras, dejando de lado las formas latinoamericanas o indígenas. (Benjamin, 2019)
Esta falta de representación cultural genera distorsiones en las respuestas de la IA, lo que puede reforzar estereotipos o simplemente borrar formas de conocimiento local. En contextos donde la lengua es también un marcador de identidad y resistencia, como en comunidades indígenas o afrodescendientes, esta invisibilización tecnológica es una forma de colonización digital. (Benjamin, 2019)
Además, los acentos, formas no normativas de hablar, o expresiones culturales que escapan al estándar hegemónico, son penalizados por los algoritmos de reconocimiento de voz y traducción. Esto limita las oportunidades de estas comunidades en el acceso a servicios automatizados, como sistemas de salud, educación o justicia basados en IA. (Pereira, 2023)
Frente a esto, existen iniciativas que buscan entrenar modelos en lenguas originarias o en español latinoamericano inclusivo, pero aún son minoritarias. Mientras tanto, los grandes modelos continúan propagando una visión monolingüe del mundo que afecta la diversidad y el derecho a la información de millones de personas. (Pereira, 2023)
Sesgos algorítmicos y discriminación automatizada
La desigualdad en la IA no solo es estructural, también es funcional: se manifiesta en los propios algoritmos. Diversos estudios han demostrado que los sistemas de reconocimiento facial, por ejemplo, presentan mayores errores con rostros de personas negras o de piel más oscura. Lo mismo ocurre con algoritmos de reclutamiento, que discriminan a mujeres o minorías por patrones heredados de datos históricos. (Noble, 2018)
Estos sesgos algorítmicos no son simples fallos técnicos: son reflejo de las desigualdades del mundo real. La IA aprende de nuestros datos, y si esos datos están cargados de prejuicios —por género, raza, clase o geografía— los reproducirá y amplificará. Lo más alarmante es que estos errores se presentan bajo una aparente neutralidad técnica, lo que hace más difícil detectarlos o cuestionarlos. (Noble, 2018)
Además, las plataformas que integran IA para moderación de contenido tienden a censurar más frecuentemente las voces de comunidades marginadas. Por ejemplo, términos y expresiones propias de grupos LGTBI o activistas sociales son etiquetadas como “inapropiadas”, afectando la visibilidad y libertad de expresión en entornos digitales. (Benjamin, 2019)
La falta de auditorías externas y de transparencia en los modelos de IA refuerza este problema. Sin acceso al código fuente ni información clara sobre cómo se entrenan los algoritmos, resulta casi imposible defenderse de una decisión injusta tomada por una máquina. (Eubanks, 2018)
Propuestas hacia una inteligencia artificial más equitativa
Para revertir esta situación, es urgente una agenda ética que priorice la justicia social en el diseño de la IA. Una IA verdaderamente inclusiva no solo requiere mejoras técnicas, sino una reorientación profunda de prioridades: desde quién financia la investigación, hasta cómo se definen los problemas que la IA busca resolver. Las soluciones deben partir de una lógica participativa, donde las comunidades afectadas no sean solo observadas, sino protagonistas del desarrollo tecnológico. (Pereira, 2023)
En este sentido, algunas iniciativas están mostrando el camino. Proyectos como Masakhane (traducción automática en lenguas africanas) o BigScience (modelo de lenguaje multilingüe colaborativo) demuestran que es posible construir IA desde una lógica abierta, ética y descentralizada. Además, varios países del sur global están comenzando a crear marcos regulatorios propios, con enfoque en derechos humanos y soberanía de datos. (Pereira, 2023)
Es crucial también invertir en alfabetización digital crítica. No basta con enseñar a usar herramientas de IA: hay que entender sus límites, sesgos y estructuras de poder. Solo así se podrá construir ciudadanía digital activa que defienda la equidad tecnológica como parte de la justicia social. (Benjamin, 2019)
Finalmente, la lucha contra la desigualdad en la IA debe ser vista como parte de un proceso histórico mayor. Así como se exigieron derechos laborales o educativos en otras épocas, hoy es necesario reclamar derechos algorítmicos: el derecho a ser bien representado, a no ser discriminado por una máquina, a comprender y cuestionar los sistemas que gobiernan nuestras vidas. (Benjamin, 2019)
Referencias
Benjamin, R. (2019). Race After Technology: Abolitionist Tools for the New Jim Code. Cambridge, UK: Polity Press.
Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. New Haven: Yale University Press.
Eubanks, V. (2018). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. Estados Unidos: St. Martin’s Press.
Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. New York: NYU Press.
Pereira, M. A. (2023). Global South AI Narratives. Ciudad del Cabo, Sudáfrica: Research ICT Africa & Mozilla Foundation.



















