Icono del sitio abogacía

La automatización del orden

automatización inteligencia artificial

La cantidad de información que se comparte en redes sociales impide una revisión minuciosa para determinar si el contenido es legal o no. Una forma en que se ha intentado subsanar lo anterior es mediante el uso de programas de inteligencia artificial. Sin embargo, el uso indiscriminado de estos programas puede derivar en violaciones a los derechos humanos de los usuarios de internet. ¿Cómo resolver este problema?


De acuerdo con el informe anual publicado por la empresa de software Domo, en cada minuto del año 2021 se publicaron 240,000 fotos en Facebook, 65,000 fotos en Instagram, y 575,000 tuits en Twitter.1

La enorme cantidad de información que se genera y se almacena en línea a cada instante pretende enfrentarse a través de la moderación de contenidos, entendida como el proceso mediante el cual una empresa que aloja contenidos determina si éstos deben permanecer en línea o no, según lo establecido en sus términos de servicio.2

El uso de tecnologías automatizadas para moderar contenidos en línea ha aumentado durante los últimos años. Aunque parte de esto se debe a su efectividad, el incremento también ha sido consecuencia de la presión ejercida por diversos gobiernos sobre los intermediarios, a quienes se exige la expedita remoción de contenido ilegal.3

Podría interesarte: «Redes sociales: más allá del bien y del mal»

El término inteligencia artificial es utilizado para hablar del conjunto de tecnologías y técnicas que buscan imitar el pensamiento humano, para así eliminar su intervención en partes de un proceso de toma de decisiones.4 En la base de la inteligencia artificial se encuentran los algoritmos, que son códigos informáticos diseñados y escritos por seres humanos para ejecutar instrucciones que traducen datos en conclusiones, información o productos.5

Los beneficios de la moderación automatizada de contenidos son evidentes, pues constituye una manera eficaz de lidiar con toda la información que se publica diariamente en línea. Asimismo, su uso representa una posible solución a las condiciones precarias de trabajo a las que se enfrentan los trabajadores contratados para moderar contenidos manualmente, quienes se exponen a miles de publicaciones de contenido violento u ofensivo,6 lo que propicia afectaciones a la salud psicológica de los trabajadores.7

Los beneficios de la moderación automatizada de contenidos son evidentes, pues constituye una manera eficaz de lidiar con toda la información que se publica diariamente en línea.

No obstante, sería erróneo pensar que la moderación automatizada es una solución definitiva, pues su uso indiscriminado representa diversos riesgos en materia de derechos humanos, incluido el derecho a la libertad de expresión.8

La moderación automatizada de contenidos puede provocar restricciones injustificadas a la libertad de expresión debido a su incapacidad de analizar el contexto del discurso de los usuarios. Por ejemplo, en 2018 el periódico en línea de un pueblo texano recibió una notificación de Facebook haciéndole saber que la plataforma eliminó su última publicación, ya que violaba los términos de servicio de Facebook. Se trataba de un extracto de la Declaración de Independencia de Estados Unidos que The Vindicator había publicado en conmemoración del 4 de julio y que incluía palabras como insurrección e indios salvajes y despiadados. Tras recibir mucha atención en los medios, Facebook aceptó su error y restauró la publicación.9

Otro factor que hace a la inteligencia artificial restringir el discurso de manera injustificada es el hecho de que se basa en modelos probabilísticos con porcentajes de precisión por debajo de 80 por ciento.10 Por ejemplo, optar por incrementar la moderación automatizada de contenidos como respuesta a la pandemia por Covid-19 para reducir los contagios de los trabajadores11 provocó una mayor cantidad de errores,12 y las plataformas decidieron restaurar la moderación al modelo predominantemente manual aun cuando los contagios por Covid-19 continuaban en alza.13

Sería erróneo pensar que la moderación automatizada es una solución definitiva, pues su uso indiscriminado representa diversos riesgos en materia de derechos humanos, incluido el derecho a la libertad de expresión.

Mientras que la autorregulación es uno de los factores que ha permitido preservar la innovación, la apertura y la sustentabilidad que caracteriza a internet, es evidente que el statu quo contraviene el derecho a la libertad de expresión de los usuarios de internet. Derivado de la obligación que tienen los Estados de proteger los derechos humanos de los abusos de las empresas,14 sostenemos que existe la necesidad de regular la moderación automatizada de contenidos conforme a los estándares del Derecho internacional de los derechos humanos. No obstante, esto se debe hacer respetando las propiedades esenciales de internet15 para evitar el problema de la sobrecensura. 

Diversos sectores de la sociedad civil han optado por proponer una regulación estatal indirecta, en la cual prevalezca un enfoque de estándares generales sobre una regulación directa y restrictiva. Tomando en cuenta las características de internet y de la inteligencia artificial, consideramos que este es un enfoque adecuado, pero aun así existe la necesidad de que dichos estándares se vean reflejados en instrumentos vinculantes para los intermediarios. De lo contrario, no habrá medios para exigir que los intermediarios respeten los derechos humanos de los usuarios. 

Podría interesarte: «David Merino: La digitalización del Derecho»

Notas:
  1. Cf. Data Never Sleeps 9.0, Domo, en https://www.domo.com/learn/infographic/data-never-sleeps-9.[]
  2. Comité Directivo para los Medios y Sociedades de la Información, “Content Moderation: Best Practices Towards Effective Legal and Procedural Frameworks for Self-regulatory and Co-regulatory Mechanisms for Content Moderation”, Consejo Europeo, noviembre de 2021, p. 11, en https://rm.coe.int/content-moderation-en/1680a2cc18.[]
  3. Algunos ejemplos son la alemana Ley de Redes Sociales, publicada en 2017; la reforma al Código Penal de Australia respecto de compartir material violento aborrecible, de 2019; el Reglamento del Parlamento Europeo y del Consejo Europeo sobre la lucha contra la difusión de contenidos terroristas en línea, del 29 de abril de 2021, y la decisión del caso Glawischnig-Pieszek , del Tribunal de Justicia de la Unión Europea.[]
  4. Cf. Asamblea General de las Naciones Unidas, A/73/348, párrafo 6.[]
  5. Cf. Asamblea General de las Naciones Unidas, A/73/348, párrafo 5.[]
  6. Cf. David Kaye, Speech Police: The Global Struggle to Govern the Internet, Columbia Global Reports, Nueva York, 2019, p. 58.[]
  7. Miriah Steiger et al., “The Psychological Well Being of Content Moderators”, Chi Conference on Human Factors in Computing Systems, Yokohama, Japón, mayo de 2021, en  https://crowd.cs.vt.edu/wpcontent/uploads/2021/02/CHI21_final__The_Psychological_Well_Being_of_Content_Moderators-2.pdf.[]
  8. Cf. Artículo 6 de la Constitución Política de los Estados Unidos Mexicanos y artículo 13 de la Convención Americana sobre Derechos Humanos.[]
  9. Cf. David Kaye, op cit., p. 39.[]
  10. Natasha Duarte et al., “Mixed Messages? The Limits of Automated Social Media Content Analysis”, Proceedings of Machine Learning Research, Conference on Fairness, Accountability and Transparency, 2018, p. 11.[]
  11. Shannon Bond, “Facebook, Youtube Warn of More Mistakes as Machines Replace Moderators”, NPR, 31 de marzo de 2021, en https://www.npr.org/2020/03/31/820174744/facebook-youtube-warn-of-moremistakes-as-machines-replace-moderators.[]
  12. Idem.[]
  13. Cf. Salvador Rodríguez, , “Facebook Defends Decision to Bring Content Moderators Back to Offices Despite Covid-19 Risks”, CNBC, 19 de noviembre de 2020, en https://www.cnbc.com/2020/11/19/facebookdefends-choice-to-bring-moderators-to-offices-during-pandemic.html.[]
  14. onu, Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos, La responsabilidad de las empresas de respetar los derechos humanos. Guía para la interpretación, HR/PUB/12/2, 2012, en https://www.ohchr.org/Documents/Publications/HR.PUB.12.2_sp.pdf p. 1.[]
  15. Internet Society, “El Modo Internet de interconectarse. Definición de las propiedades esenciales de internet”, septiembre de 2020, p. 4, en https://www.Internetsociety.org/wp- content/uploads/2020/10/IWN-Defining-the-critical-properties-of-the-Internet-ES.pdf.[]
Salir de la versión móvil