El desarrollo de la inteligencia artificial se ha visto directamente afectado por los prejuicios de los programadores de los algoritmos a través los cuales funciona esta tecnología. ¿Qué responsabilidad tienen las empresas que utilizan estas tecnologías en relación con la violación de los derechos humanos por parte de la inteligencia artificial? ¿Cuáles son las obligaciones del Estado sobre el tema? Andrea Harris Heredia responde a estas cuestiones.
La inteligencia artificial (IA) ha encabezado el crecimiento tecnológico durante los últimos años. De acuerdo con Klaus Schwab, presidente ejecutivo del Foro Económico Mundial, nos encontramos en una Cuarta Revolución Industrial caracterizada por una completa automatización de los procesos de producción como consecuencia de la IA, la tecnología digital y el internet de las cosas.1
Sin lugar a dudas, las revoluciones industriales han aportado de manera positiva al funcionamiento de las sociedades alrededor del mundo. No obstante, consideramos importante reconocer el hecho de que esas revoluciones también han desencadenado problemas políticos, sociales y económicos. Como ejemplo, destacan las violaciones a los derechos laborales y a los derechos de la infancia, así como las afectaciones al derecho a un medio ambiente sano. La Cuarta Revolución Industrial no se exceptúa de esta realidad.
La IA suele considerarse como una herramienta que posee la habilidad para tomar decisiones completamente objetivas, sin que medien sesgos y prejuicios. No obstante, sería incorrecto pensar en la IA como una tecnología que resolverá la desigualdad social, pues debemos recordar que la misma está compuesta por bases de datos y algoritmos creados y programados por seres humanos. Es decir, se trata de una creación humana, por lo que los algoritmos suelen reflejar el sesgo personal de su autor y reproducir los prejuicios y los estereotipos que existen en la sociedad.2 Hay estudios que demuestran que la efectividad de la tecnología de reconocimiento facial es menor cuando se trata de personas de piel más oscura, en especial si se trata de mujeres de piel oscura.3 Lo mismo sucede con el uso de la IA para traducir y moderar contenidos en línea, pues su efectividad suele ser menor cuando se trata de idiomas subrepresentados, como el bengalí o el indonesio, y mayor cuando se trata de idiomas como el inglés, el español, el francés, el alemán y el chino.4
Lo anterior se debe a que las bases de datos con las que se entrena a los algoritmos no son lo suficientemente representativas y diversas, consecuencia de la “crisis de diversidad” presente en los sectores de las tecnologías digitales emergentes.5 De acuerdo con un estudio publicado por el AI Now Institute, de la Universidad de Nueva York, los principales sistemas de IA son desarrollados por un pequeño sector de élite occidental, en el que predomina la presencia de hombres blancos y existe un historial de problemas de discriminación, exclusión y acoso sexual.6 Por lo tanto, si un algoritmo aprende de datos que estuvieron influidos por los prejuicios de su programador, es muy probable que las conclusiones del algoritmo posean esos mismos prejuicios.7
En 2011, el Consejo de Derechos Humanos de las Naciones Unidas adoptó los Principios rectores sobre las empresas y los derechos humanos8 Actualmente, esos principios rectores son la norma de conducta a nivel mundial que busca prevenir y combatir las consecuencias negativas que las empresas pueden tener sobre los derechos humanos. A pesar de no tener un carácter jurídicamente vinculante, representan una referencia de tipo autoritativo sobre las medidas que los Estados deben asumir para promover el respeto de los derechos humanos por parte de las empresas y la responsabilidad que las compañías tienen de respetar los derechos humanos a través de sus prácticas y sus productos.9
De acuerdo con el primer pilar de los principios rectores, el deber del Estado de proteger los derechos humanos incluye la adopción de medidas apropiadas para prevenir, investigar, castigar y reparar los abusos de las empresas a los derechos humanos, mediante políticas adecuadas, actividades de reglamentación y sometimiento a la justicia.10 De lo contrario, el Estado incumpliría con su deber de proteger los derechos humanos. Por lo tanto, una vez identificada la problemática que representa el uso de la IA, el Estado tiene la obligación de tomar las medidas necesarias para prevenir y proteger las violaciones derivadas de la misma.
Los principios rectores contemplan la implementación de la debida diligencia en materia de derechos humanos como una respuesta a las afectaciones causadas por las empresas. Dicha figura es similar a la debida diligencia del gobierno corporativo, pero se enfoca en la identificación y la evaluación de los efectos adversos reales o potenciales sobre los derechos humanos que las empresas provoquen por medio de sus actividades.11 Incluye una etapa de evaluación de resultados, integración en los procesos de la empresa, seguimiento de la eficacia de las medidas y los procesos adoptados, y demostración de la manera en que se responde a los efectos adversos.
Al exigir que las empresas evalúen la manera en que sus actividades afectan los derechos humanos, así como al demostrar las medidas tomadas para contrarrestar esas afectaciones, se podría lograr que, desde el momento en que se empiece a idear el uso de la IA, los derechos humanos sean parte de la conversación, generando un mayor nivel de transparencia y rendición de cuentas.
Si bien los principios rectores contemplan la responsabilidad de las empresas de respetar los derechos humanos, esta responsabilidad no implica que los estándares estatales de Derecho internacional apliquen directamente a las empresas,12 por lo que recae en los Estados la obligación de implementar las medidas apropiadas para prevenir, investigar, castigar y reparar los abusos de las empresas a los derechos humanos, mediante políticas adecuadas, actividades de reglamentación y sometimiento a la justicia.
Notas:- Klaus Schwab, The Fourth Industrial Revolution, World Economic Forum, Suiza, 2016, pp. 7-10.[↩]
- Christina Dinar, “The State of Content Moderation for the LGBTIQA+ Community and the Role of the EU Digital Services Act”, Heinrich Boll Stiftung, junio de 2021, p. 6.[↩]
- Thomas Davidson et al., “Racial Bias in Hate Speech and Abusive Language Detection”, Proceedings of the Third Workshop on Abusive Language Online, Florencia, Italia, 2019, p. 2.[↩]
- Natasha Duarte et al., “Mixed Messages? The Limits of Automated Social Media Content Analysis”, Proceedings of Machine Learning Research, Conference on Fairness, Accountability and Transparency, 2018, p. 7.[↩]
- Jackie Snow, “We’re in a Diversity Crisis”: Cofounder of Black in IA on What’s Poisoning Algorithms in Our Lives, mit Technology Review, febrero de 2018.[↩]
- Kate Crawford, et. al., Discriminating Systems. Gender, Race and Power in IA., AI Now Institute, abril de 2019, p. 6.[↩]
- René Ureña, “Autoridad algorítmica: ¿cómo empezar a pensar en la protección de los derechos humanos en la era del big data?”, Revista Latinoamericana de Derecho, núm. 2, enero de 2019, p. 106.[↩]
- ONU, Consejo de Derechos Humanos, Resolución “Los derechos humanos y las empresas transnacionales y otras empresas”, A/HRC/RES/17/4, 6 de julio de 2011.[↩]
- ONU, Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos, La responsabilidad de las empresas de respetar los derechos humanos. Guía para la interpretación, HR/PUB/12/2, 2012.[↩]
- ONU, Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos, Principios rectores sobre las empresas y los derechos humanos, HR/PUB/11/04, 2011, primer principio.[↩]
- Asamblea General, Informe del grupo de trabajo sobre la cuestión de derechos humanos y empresas, A/73/163, 16 de julio de 2018, párr. 10.[↩]
- Evelyn Mary Aswad, “The Future of Freedom of Expression Online”, Duke Law & Technology Review, vol. 17, 2018, p. 38.[↩]