Mauricio Figueroa: constitucionalismo y gobernanza digital

El desarrollo de las tecnologías ha planteado desafíos para el mundo jurídico como la necesidad de ampliar los conceptos (como justicia) y trasladar la prácticas y los valores jurídicos al entorno digital, donde las empresas privadas juegan un papel central en la conformación de lo público. Al respecto platicamos con Mauricio Figueroa Torres, doctorante en Newcastle Law School.


¿Cuáles son los retos a los que se enfrentan los Estados modernos en el entorno digital?

Mauricio Figueroa – El primer reto es entender qué es lo que está pasando en un campo que evoluciona de manera constante, pues muchas de las cosas que se están produciendo en el mundo digital, en el campo de la investigación, ya están siendo aplicadas y adoptadas en la vida cotidiana un tanto después, pero siempre van evolucionando de manera incesante.

¿Y esto qué conlleva? Que, por ejemplo, tienes ya nuevas tecnologías digitales, o por lo menos tecnologías digitales emergentes, que quizás ya no sean nuevas, que ya han estado con nosotros durante mucho tiempo, pero que han mutado en la forma en que las ocupamos y las adaptamos.

El reto está, primero, en entender cómo funcionan y cómo operan. Y una vez que tengamos claro eso, comprender qué papel tenemos que jugar para regularlas. En el mundo hay tres grandes modelos para la regulación de las tecnologías digitales.

En este entorno de las tecnologías digitales y de su rápido desarrollo, ¿cómo deberíamos entender el derecho?

Mauricio Figueroa – Hay dos grandes posturas al respecto. Por un lado, están quienes dicen que es necesario que empecemos a regular ese ámbito tecnológico de cara a los siguientes años, es decir, que adquiramos una prospectiva jurídica y que seamos capaces de tener en las leyes elementos y visiones sobre hacia dónde vamos; por otro lado, están quienes dicen que no, que tenemos que esperar a que esto tome forma y que después implementemos una serie de elementos que nos permitan elaborar un mejor marco normativo. Yo creo que la discusión no es binaria, sino que se pueden encontrar puntos intermedios.

El derecho ya está consolidado como una disciplina que se puede informar de otras. Por ejemplo, en sociología hay un área muy grande en el mundo académico estadounidense que se denomina Science, Technology and Society Studies (STSS), y uno de los elementos más importantes que se encuentra en su literatura es el relativo a los imaginarios hacia donde vamos; por ejemplo, en la ciencia ficción hemos visto muchos escenarios que nos permiten pensar cómo serían los futuros próximos, desde caricaturas como Los supersónicos hasta películas distópicas como Terminator. Esto sirve como un insumo para reflexionar, por ejemplo, hacia qué futuro queremos dirigirnos; la visión del futuro que queremos construir es la de un mundo sostenible en el que coexistamos mucho más horizontalmente con tecnologías digitales; hay quienes están preocupados por un mundo muy distópico, más orwelliano, y hay quienes quieren crear leyes para hacer posible lo primero y evitar lo segundo.

En este sentido, la posibilidad de tener una interlocución interdisciplinaria entre el derecho y otras áreas del conocimiento nos permite adquirir una visión mucho más equilibrada acerca de cuáles son los posibles escenarios para seguir discutiendo y reflexionando sobre lo que se viene.

Ante el panorama político mexicano y la necesidad de consolidar la transición democrática a la luz de los riesgos que representan las redes sociales en términos de desinformación generada por inteligencia artificial, como los deepfakes, ¿cómo podemos combatir esos riesgos?

Mauricio Figueroa – Es un gran tema. De la capacidad de desinformación que existe hoy en día podemos rescatar tres aristas para un debate que no son las únicas. La primera es que ya las tecnologías son capaces, por ejemplo, de llegar a engañarnos de manera impresionante, no sólo por medio de deepfakes de video, pues, por ejemplo, ahora ya hay imitaciones de voz que son impresionantes, lo cual, en un contexto de una elección, puede tener consecuencias muy graves. Por otro lado, también está cómo se distribuye hoy en día esa información. Anteriormente, por ejemplo, quizá se realizaba en la radio, en el periódico, en la televisión, pero hoy, a través de las plataformas que lo amplifican, es mucho más fácil que un contenido que sea nocivo y negativo sea diseminado con mucha facilidad. ¿Y quién es el responsable de esto? El que genera la tecnología. Hay una fuerte crítica que asegura que no es así, que la tecnología está ahí y que su mal uso es responsabilidad del que la ocupa y el que la emplea. Por otra parte está otro segmento que sostiene la responsabilidad es únicamente del último actor, el que empleó la tecnología para causar ese daño. Y hay otro sector que asevera que debemos tener un entendimiento muchísimo más global para conocer cómo se crea esta tecnología, cuál es el procedimiento con el que se crea, quiénes están involucrados en él y así, por ejemplo, podemos ir creando tecnologías muchísimo más controladas. Me parece que estas aportaciones tienen elementos positivos, pero no son los únicos. Creo que hay un montón de elementos positivos; pero vamos a ir mucho más allá. ¿Qué pasaría en un país como el nuestro si viéramos deepfakes como los que actualmente son producidos en varias partes del mundo, con tecnología de punta, en un contexto de una elección presidencial? Posiblemente podríamos tomar en cuenta que ya hay legislación electoral al respecto y decir, bueno, eso se regula de esta manera determinada. Incluso podría haber casos en materia penal, si se trata de un fraude, por ejemplo; en estas circunstancias va a haber un daño mucho mayor, pues la distorsión de la realidad del deepfake va a afectar a la sociedad en su conjunto; esto es, no va a afectar sólo al candidato A o al candidato B, sino a toda una colectividad. ¿Entonces quién va a ser el responsable de ese daño? Y, quizás lo más importante, ¿qué tanto el derecho puede garantizar un adecuado remedio o una adecuada reparación para este tipo de daños? Me temo que para esta cuestión no tengo una respuesta clara, pero creo que es importante que hablemos del problema de manera abierta.

¿Cómo lograr la gobernanza en los entornos digitales?

Mauricio Figueroa – El término gobernanza implica una pluralidad de actores en un plano horizontal, a diferencia del concepto gobernabilidad que supone una cuestión vertical. Es importante rescatar el concepto gobernanza porque en las redes y en las plataformas digitales participamos varias personas, no sólo los usuarios, sino también grupos y comunidades en subgrupos como autoridades, administradores, moderadores de contenido, etcétera.

Tenemos dos grandes visiones. Unos pensamos que son necesarios los marcos jurídicos de derechos humanos y de responsabilidad, por ejemplo; otros consideran que lo importante es la parte de la innovación y lo que en inglés se llama profiting –es decir, la especulación mercantil, el ánimo de lucro desmedido de las compañías—, porque la ganancia genera riqueza y ésta puede ser distribuida. Es cierto, se genera riqueza que se puede distribuir, ¿pero a qué costo? Muchas veces hallamos diversos elementos en las plataformas que son altamente debatibles en cuanto a su naturaleza, e incluso, muchas veces también, van en contra de nuestros ordenamientos.

Lo que sucede es que hemos trazado una especie de barrera en el derecho; por un lado está el Estado, que es un ente público; por otro, las compañías privadas, que tienen la capacidad de afectar el discurso público, la manera en que interactuamos y el propio esquema de gobierno (como Cambridge Analytica, el Brexit o la campaña por la presidencia de Estados Unidos de Donald Trump), donde nos damos cuenta de que tratar a esas plataformas y a esas compañías únicamente como entidades privadas con responsabilidades mínimas, no nos va a proporcionar una adecuada solución a nuestros problemas.

En este marco de la gobernanza tenemos que encontrar una manera de que los valores constitucionales y los derechos humanos sean parte de este sistema, en el diseño mismo de las plataformas, lo que implica, necesariamente, al menos en esta propuesta, sacrificar un poco de esa ganancia en área de salvaguardar la integridad de la colectividad. Creo que esa va a ser la gran labor que tenemos que hacer en la academia y en el sector político aquí en México.

¿Qué es el constitucionalismo digital?

Mauricio Figueroa – Hablar de Constitución y de entorno digital parece una especie de contradicción, porque la Constitución está sujeta a un proceso muy solemne y, al mismo tiempo tiene una narrativa de estabilidad, de fijeza, de solidez; lo digital, por el contrario, es mucho más dinámico, ágil, etcétera. ¿De qué hablamos cuando nos referimos al constitucionalismo digital? Se trata de una propuesta que ha surgido en Europa y que no está siendo muy discutida en Estados Unidos ni en América Latina.

Autores como el italiano Giovanni de Gregorio, que desde mi perspectiva tiene el libro más completo al respecto, dicen que hay que entender qué plataformas —como Facebook, Twitter, etcétera— sí son empresas pero han llegado a abarcar una gran cantidad del mercado y de poder cuyos términos y condiciones no son un contrato como lo estudiamos en derecho contractual en nuestras facultades de derecho, sino que realmente son instrumentos de ejercicio del poder. Si le decimos esto a un abogado aquí en México, responderá que es un contrato de adhesión, pero esta noción se queda muy por debajo de la realidad material de ese instrumento, que es un instrumento de gobierno.

Estas empresas van mucho más allá de lo que en inglés se denomina el private ordering, que ejercen funciones prácticamente cuasi públicas en su interior. ¿Qué pasa entonces cuando una empresa empieza a administrar el bien público, como la libertad de expresión o la privacidad, cuyas plataformas se han vuelto indispensables en nuestra vida y han llegado por default y por su propia inercia a ser adoptadas por la sociedad, no necesariamente por su libre albedrío? Aquí entra el constitucionalismo digital. Esta corriente establece que esas empresas, a partir de la gran responsabilidad que tienen respecto de bienes públicos, deben ajustarse a los marcos normativos del derecho constitucional para atender la importancia de los derechos humanos en este espectro.

Esto tiene limitantes, pues si nos amparamos sobre un precepto de constitucionalismo digital, prácticamente estaríamos dándole un estatus de cuasi autoridad a las plataformas y estaríamos afirmando que sus decisiones son objeto, por ejemplo, de cortes constitucionales, cuando las cortes constitucionales lo que tienen que ver son actos del Estado, no de plataformas; esa es una crítica muy seria. Lo que yo rescato es que sí es posible, y sí debemos pensar, que los derechos humanos son afectados por particulares. La reforma que tuvimos a la Ley de Amparo hace unos años aquí, en México, ya lo reconoce en un sentido: hay particulares que ejercen actos de autoridad y pueden ser sujetos de ese juicio. No estoy diciendo ni sugiriendo que esa sea la ruta, pero ya hemos visto aquí en México que sí hemos adoptado la idea de que la autoridad no únicamente la ejerce el Estado, y ciertamente con esa visión podemos entender el poder que ejercen las plataformas y, en consecuencia, abonar más a la discusión del constitucionalismo digital.

Ghost bots e inmortalidad digital. ¿Qué es esto? ¿Por qué importa para el derecho?

Mauricio Figueroa – La inmortalidad digital es un tema en el que actualmente estoy trabajando durante la última etapa de mi doctorado. Todos aquí, en el set, afuera, en el mundo, vamos a morir. Esto es algo cierto. ¿Cuál es la diferencia de morir hoy a morir en el siglo XIX? Cuando alguien moría en el siglo xix dejaba atrás tus pertenencias materiales; hoy seguimos acumulando patrimonio pero también contenido digital, como mensajes, datos, playlists, likes, dislikes, shares, stories, servicios de cómputo, fotografías, notas… un patrimonio digital, pero no en el sentido jurídico, porque no necesariamente tiene un valor comercial. ¿Qué sucede con esto? Al respecto ya hay una aportación académica seria en la academia jurídica europea, que afirma que al menos hay tres instituciones serias que nos ayudan a poner orden en este tipo de cosas. La primera es que si el elemento digital tiene un valor monetario, aplica el derecho de sucesión La segunda es que si no tiene un valor necesariamente monetario, pero puede ser artístico, podría hacerse una valoración de su costo; aquí también entra la propiedad intelectual, particularmente los derechos de autor. El tercero, quizás el más complicado, trata sobre las cuestiones que ya son muchísimo más sentimentales, que no tienen que ver con la propiedad intelectual, pero que se tienen que resolver conforme a los principios de privacidad, los cuales varían enormemente de un lugar a otro.

En México se ha hecho el esfuerzo de incluir un escenario en el que haya una especie de apoderado digital post mortem que pueda manejar este tipo de datos o este tipo de elementos de nuestro patrimonio sentimental; fue introducido en el Código Civil y después fue objeto de un amparo y ya fue declarado inconstitucional porque estaba mal redactado, según la Suprema Corte de Justicia de la Nación. En Francia tienen la Ley para una República Digital que le permite a uno designar a alguien para que tenga control post mortem de su patrimonio digital; lo mismo ha sucedido en España, en Cataluña. Pero también ocurre que de manera paralela las empresas tienen sus propios mecanismos de gobernanza; por ejemplo, Facebook tiene su Legacy Contact para que cuando alguien fallezca otra persona pueda cuidar su cuenta. Google tiene algo similar que se llama Inactive Account Manager. ¿Cómo vamos a conciliar entre lo que dice la plataforma, lo que dicen los principios generales del derecho y lo que dice la ley?

Hay dos propuestas que tenemos que rescatar. La primera privilegia la autonomía o la libertad de la persona; si la persona declaró a alguien en su testamento o dejó alguna instrucción por escrito en lo relativo a su patrimonio digital, su instrucción prevalece sin importar si la plataforma tiene su propio mecanismo. La segunda privilegia el modelo de negocio de la plataforma, es decir, la opción que la plataforma ofrece sobre lo que sucede con el patrimonio digital de la persona que ha fallecido.

Esto me da pie para hablar de la reencarnación digital. Claro que dejamos datos cuando fallecemos. ¿Qué pasa cuando esos datos son ocupados para aproximarnos a entender a la persona o a describirla? Una foto nunca fue suficiente. Con la información que se acumula en sus bases de datos ahora es posible, por ejemplo, que se pueda desarrollar un chatbot con datos de la persona fallecida a partir de una base de información que incorpora la información del fallecido y algún algoritmo muy particular que permita tener una conversación. Esto parece revolucionario, pero al final del día no es una tarea tan complicada para la tecnología: los chatbots existen desde 1968; no son los mismos chatbots que estamos viendo hoy en día con Chat GPT, pero lo que debemos tener claro aquí es que este es un escenario: la inmortalidad digital, que aunque ha sido altamente criticado, también es altamente interesante.

Si tenemos un chatbot que está emulando a una persona fallecida —lo que yo denomino ghostbot—, que por lo general es un miembro de la familia o cercano a ésta, este chatbot puede ser empleado, por ejemplo, para procesar mejor el duelo o para reconectar con esa persona, o para que la descendencia que no conoció a esa persona pueda hacerlo de una manera más interactiva. Ya hay algunas empresas que se dedican a esto. En California, particularmente, hay una plataforma en la que uno paga una suscripción y te dan el ghostbot con el que puedes interactuar de acuerdo con las tarifas que ellos te ofrecen. Para hacer el ghostbot se requieren datos y hay dos formas en las que se puede interactuar: la primera es a través de un sistema de reglas en el que el bot básicamente responde preguntas específicas (¿cómo se conocieron mamá y papá?, ¿cuál es tu canción favorita?, etcétera), lo que en inglés se llama rules based systems; la segunda, a través de sistemas que ocupan machine learning para que el chatbot genere respuestas nuevas, frescas, en el estilo y en la personalidad del que falleció, que se han beneficiado de los large language models como chat GPT-3 y GPT-4.

Lo anterior genera al menos dos preocupaciones en la parte psicológica: primero, que la réplica de la persona fallecida esté bien diseñada y pensada y que cause trauma o estrés, particularmente durante el proceso de duelo; segundo, que la compañía que provee el servicio algún día desaparezca o entre en bancarrota y ya no sea posible acceder al compañero digital. Jurídicamente, ¿cómo se va a regular esto? Aquí surgen muchas interrogantes. Primero, en cuanto a los datos del fallecido, ¿quién va a acceder a éstos y sobre qué base legal va a acceder: contractual o por política de la plataforma, ilegal en algunos casos? Segundo, ¿cómo se va a regular el proceso de comercialización? Puede ser que haya derechos relacionados con la imagen del fallecido. ¿Qué pasa, por ejemplo, si son dos familiares que no tienen una buena relación y sólo uno de ellos quiere tener acceso a él, y el otro no, o si el fallecido tenía otra familia antes? Tercero, en lo relacionado con lo que en ciencias de la computación se denomina engagement, el involucramiento que tenemos con sistemas de inteligencia artificial. Imaginen hablar con un chatbot que está emulando a su padre fallecido y que, durante la conversación, envíen, por ejemplo, un anuncio para promocionar la marca de cigarros que a él le gustaba, como manipulación. ¿Cómo se va a gobernar eso? Tenemos que pensar cómo, a partir del diseño de la tecnología digital, podemos incorporar principios mínimos que se salvaguarden en este tipo de dinámicas; asimismo, debemos determinar cuáles van a ser los mecanismos de defensa que pueden tener los usuarios.

Todo lo que nos dice nos hace pensar cómo el proyecto de vida también se convierte en un proyecto posvida. En la traducción que hay del entorno material al entorno digital, ¿debería haber una reconceptualización de conceptos legales y/o filosóficos como los de justicia, igualdad y paz?

Mauricio Figueroa – Esa pregunta tenemos que hacerla de manera continua quienes nos dedicamos a la práctica jurídica. Conceptos, por ejemplo, como el de propiedad (el derecho de uso, goce y disfrute de algo), en el mundo digital ya son muy diferentes; hay propiedad digital. Tuvimos que desarrollar nuevos instrumentos para hacerle frente. Privacidad antes implicaba que alguien no te siguiera o que no invadieran tu domicilio; hoy, privacidad implica que la información en las redes sociales sobre ti se colecte y se procese con tu autorización.

Antes, libertad de expresión era, por ejemplo, defender mi derecho, pararme en el Zócalo y hablar, y que nadie me dijera que no podía hacerlo cuando había una especie de falta de diversidad en el discurso público y yo tenía ese derecho a disentir. Hoy es prácticamente lo que yo posteo en mis redes sociales y ojalá el algoritmo no me lo retire o no me lo anule. El problema es que lo que entendemos en el mundo digital, por ejemplo un principio jurídico como la libertad de expresión o la privacidad, pareciera que es igual en el mundo análogo, el mundo físico, pero al final del día la tecnología hace que el principio en el entorno digital se comporte de manera muy diferente a como se entiende de manera tradicional.

¿Qué es el principio en el entorno digital? ¿Qué problema generará? Desde un punto de vista tradicional —exegético— de la ley podremos pensar que el ciberespacio ya está regulado porque ya hemos regulado perfectamente el mundo físico. Entonces hay una postura que sostiene que regular el entorno digital implicará una sobrerregulación que va a inhibir la innovación. Pero si nos ponemos a pensar, todos estos principios, los que hemos comentado aquí, tienen sus particularidades derivadas de la tecnología con la que se implementan y los sistemas en los que se distribuyen o se ejercen; lo cual nos invita a reflexionar que tenemos que reexaminar los principios del derecho del mundo análogo o físico y cómo se interpretan aquí y debemos proponer nuevos instrumentos que llenen los huecos que los modelos tradicionales del derecho no son capaces de llenar en el entorno digital. Y también tenemos que darnos cuenta de que va a haber otros mecanismos para regular la tecnología que no necesariamente van a ser los del derecho como lo entendemos hoy en día, escrito con nuestros códigos. Particularmente en México, puede haber regulación por diseño, a partir, por ejemplo, de la estructura y la arquitectura de esos sistemas. Desde mi punto de vista, eso es viable examinarlo, es viable entenderlo, es viable explorarlo, pero no perdamos de vista la importancia de actualizar e introducir nuevos ordenamientos para regular el entorno digital.

Newsletter

Recibe contenidos e información adicional en tu bandeja de entrada.

Luis Raúl González: ¡Cómo no te voy a querer!

Platicamos con Luis Raúl González, presidente del Club Universidad Nacional, acerca de Pumas, derechos humanos y haber crecido con el futbol. ¿Quién es Luis Raúl...