abogacía ® es un medio comprometido con la consolidación de un espacio democrático para la difusión y la divulgación de ideas y opiniones. ¡Suscríbete!

De Blade Runner a la integración de la inteligencia artificial en los medios probatorios: un nuevo enfoque para la justicia

Ante el acelerado avance de la tecnología de inteligencia artificial, resulta necesario que el derecho lo regule y lo implemente en sus propios procedimientos. Brenda Betzait Bustillos García reflexiona sobre su integración en los medios probatorios.


¿Quién no ha visto alguna película de ciencia ficción y de futuros postapocalípticos o distópicos? Cintas como Blade Runner, ambientadas en un mundo en el que la tecnología ha avanzado a tal grado que es capaz de engendrar “seres humanos” artificiales, los cuales a simple vista no se logran distinguir de los hombres “naturales” —por así decirlo—. Ante el desarrollo avasallador de las tecnologías emergentes resulta ineludible explorar y reflexionar sobre su impacto en la humanidad, la sociedad y el derecho.

En la actualidad, el uso de la inteligencia artificial (IA) como medio de prueba se ha convertido en una cuestión real y concreta de los sistemas jurídicos; sin embargo, su aplicación despierta cierta suspicacia por la ausencia de un marco jurídico que regule los desafíos de su manejo y su utilidad ante el escenario de la irrupción de la justicia digital. Frente a esa problemática, es muy importante analizar el horizonte de posibilidades que están latentes en la materia. 

Lo cierto es que la IA está presente en todos lados, convertida en el panem nostrum quotidianum de las sociedades contemporáneas. La IA se concibe como una rama de la informática que busca diseñar tecnología que emule la inteligencia humana, a partir de sistemas que son capaces de realizar tareas con un alto grado de autonomía, a través del desarrollo de algoritmos que hacen posible un mejor “aprendizaje” y la adaptación de nuevos datos. Hoy en día, la IA se ha presentado como una herramienta que puede ser utilizada en una heterogeneidad de áreas, que van desde actividades académicas —facilitando la búsqueda y la síntesis de información—, pasando por la industria musical —produciendo música, utilizando voces creadas o la imitación de cantantes—, hasta sistemas que son capaces de convertir un determinado texto en imágenes; lo sorprendente es que estas imágenes están diseñadas con tal pulcritud y definición que resulta difícil discernir si son tomadas con el lente de una cámara o no.

A pesar de que la IA está en boca de todos, sus orígenes datan de hace varias décadas y ha evolucionado a través de los años hasta su posicionamiento actual. Recientemente, la ia se ha proyectado como una herramienta que facilita y mejora diversos aspectos de la vida cotidiana; no obstante, en el mundo jurídico es imprescindible cuestionar los alcances que puede tener el uso de estos sistemas en el campo del derecho y, sobre todo, su utilización en los procesos judiciales.

La IA ha generado diversas paradojas que nos llevan a cuestionar su uso, así como su capacidad para imitar las destrezas del hombre; por ejemplo, esta tecnología puede producir contenido falso de manera sofisticada y realista. En este caso, el contenido denominado deepfake está constituido por videos, imágenes o audios incubados por la IA que falsifican la apariencia y el sonido de una persona en un lugar o evento que nunca existió y tiene la capacidad de copiarlos de una forma muy precisa, logrando engañar no sólo a las personas que los ven, sino también a muchos otros algoritmos. Las limitaciones, las complejidades y los avances de este tipo de tecnologías día con día se vuelven riesgosos; aún más si no son tomados en serio y regulados mediante el derecho.

Ahora bien, si existen sistemas capaces de crear documentos, imágenes y voces, ¿qué impide que esos archivos creados con IA sean utilizados como medio probatorio en procesos judiciales? Al pensar en la probabilidad de que se ostenten como prueba documentos, imágenes, videos o grabaciones creados con estas tecnologías, es indispensable adelantarnos y comenzar a crear normas que regulen el uso de estas herramientas en esa área.

Actualmente, en México, la Ley de Amparo, reglamentaria de los artículos 103 y 107 constitucionales, contempla como delitos la presentación de testigos o documentos falsos; de igual forma, el Código Penal Federal castiga la falsificación de documentos y su uso. Ante estas hipótesis, una cuestión clave es: ¿la contemplación del delito por el uso de “documentación falsa” es suficiente para regular los productos generados por los sistemas de IA?

A través de un ejercicio lógico podríamos inferir que quien utilice la IA para generar un documento, una imagen, un video o un audio y pretenda utilizar ese producto en el proceso judicial como medio probatorio, estaría incurriendo en los supuestos sancionados por las leyes a las que antes se hizo referencia, ya que su contenido ha sido creado, ergo no representa la realidad de un hecho. Si es así, entonces su contenido no es acorde con la búsqueda de la verdad, siendo ésta el objetivo institucional que hay que alcanzar mediante la prueba en el proceso judicial. 

A pesar de lo anterior, no considero que los delitos estipulados en nuestra legislación sean suficientes para contemplar a los productos generados mediante la IA. El problema con ésta no termina con la creación de documentación falsa, sino que también pueden existir sistemas cuyo objetivo esté basado en analizar datos, realizar transcripciones, hacer reconocimiento facial —por mencionar algunos ejemplos— que fácilmente pueden ser utilizados por expertos en su peritaje; el riesgo de estas acciones, entonces, es que puede darse el caso en que los algoritmos y los datos utilizados no sean confiables e introduzcan errores o sesgos que puedan dar como resultado pruebas falsas.

Existen, por lo menos, cuatro aspectos que hay que considerar para que la regulación de la IA sea una realidad.

Primero, sancionar el uso indebido de la IA en los contextos donde se emplee para crear o modificar videos, audios, imágenes, con el fin de utilizarla como prueba en un proceso judicial. Para lo anterior el sistema de justicia deberá contar con peritos expertos en ciberseguridad que cuenten con la tecnología necesaria para detectar pruebas falsas generadas mediante los sistemas de IA.

Segundo, regular el uso de la IA con criterios claros sobre cómo y cuándo la evidencia que utilicen estos sistemas como herramienta de análisis y reconocimiento de datos sea admisible. 

Tercero, los abogados y las partes tendrán la obligación de divulgar el uso de IA con el fin de garantizar que los métodos y los algoritmos sean accesibles y revisables por la parte contraria y el tribunal.

Y cuarto, los sistemas de IA utilizados deben ser necesariamente transparentes en sus algoritmos, con el objetivo de que sea posible que los métodos y las técnicas empleados cumplan con los estándares legales.

A modo de conclusión, podemos reconocer que la IA es una herramienta sumamente poderosa, que puede ser empleada de forma positiva, pero también negativa; por eso su adecuada regulación es trascendental para asegurar un uso ético y transparente. Todo lo expuesto en este artículo exige un análisis pormenorizado, sobre todo tomando en cuenta que la IA opera mediante la comparación y el procesamiento de datos. De ahí la frase que señala que la “data is the new oil”. 

Es urgente que sigamos reflexionando sobre cómo se está empleando la IA y su contingente abuso en las diferentes dimensiones de la vida humana, como en el caso particular del derecho y los medios probatorios. 

Juan Cortiñas: el concepto de la obligación

Juan Cortiñas Barajas, profesor de Derecho Romano y notario en el Estado de México, analiza el concepto de la obligación en el Código Civil...

Newsletter

Recibe contenidos e información adicional en tu bandeja de entrada.

.