ES | EN | PT
Menu Cerrar
Encuentra el programa que buscas
Programas
Modalidades
Campus
Carreras
Noticias / Eventos +
Noticias / Eventos

La inteligencia artificial en el derecho

Por: Universidad César Vallejo
Mayo 28 de 2023
Compartir:
Si nos hemos preguntado qué está pasando en el ámbito de la tecnología digital en el mundo, por qué se habla con mayor frecuencia de los sistemas de inteligencia artificial (IA) y en qué aspectos se está aplicando con mayor fuerza, entre otras preguntas, no estamos exentos en el ámbito del derecho. Consideramos que es de suma importancia estar en constante adquisición de conocimientos en este aspecto de la tecnología, ya que en algunos aspectos de la vida el profesional del derecho ha tenido que utilizar estas herramientas. Con el transcurso del tiempo, se han aplicado de forma progresiva en los campos de la criminalística y otras ramas del derecho, tales como el reconocimiento facial, levantamiento del secreto de las comunicaciones, conversaciones por Messenger, WhatsApp, Facebook, etc., donde se pueden conocer llamadas entrantes y salientes de los números telefónicos de los investigados y recuperar archivos borrados. Pero, estos softwares con una pequeña dosis de inteligencia artificial no son autónomos. Es así que en el año 2022 ingresa con mayor fuerza el tema de la inteligencia artificial autónoma, capaz de dar soluciones y respuestas a preguntas y problemas complejos. En el ámbito del derecho estamos a inicios de programas conocidos como ChatGPT –para conversaciones entre un humano y la inteligencia artificial– y Midjourney –para creación de imágenes con información dada por el ser humano–, entre otros programas con interacción de IA autónoma que están desencadenando en los sistemas informáticos en el mundo entero. Estos programas están entrando masivamente en el mercado mundial con nuevas versiones cada corto tiempo y están siendo utilizados en varios campos de la profesión, lo que conlleva a entrar también al mundo del derecho. El campo del derecho no es ajeno a que estos programas no estén emparejados en su aplicación. Frente a ello, en la tramitación de los procesos judiciales como investigaciones penales y civiles se deberá determinar si un programa con IA ha sido parte de ella para poder resolver alguna actuación procesal o resolver una sentencia condenatoria o absolutoria. En un proceso civil, los medios probatorios obtenidos a través de una IA deben ser valorados para declarar fundada o infundada una pretensión. Nos vamos al campo estrictamente de los medios probatorios que contempla el Código Procesal Penal en su Artículo 172 que establece: “1. La pericia procederá siempre que para la explicación y mejor compresión de algún hecho se requiera conocimiento especializado de naturaleza técnica, artística o experiencia calificada (…)”. Y al establecer la prueba documental señala las clases de documentos en su artículo 185: “Son documentos los manuscritos, impresos, fotocopias, fax, disquetes, películas, fotografías, representaciones gráficas, dibujos, grabaciones magnetofónicas y medios que contienen registro de sucesos, imágenes y voces; y otros similares”. Por su parte, el Código Procesal Civil en su Artículo 191 establece que todos los medios de prueba, así como sus sucedáneos, aunque no estén tipificados en este Código, son idóneos para lograr la finalidad de acreditar los hechos expuestos por las partes, producir certeza en el juez sobre los puntos controvertidos y fundamentar su decisión. Esta situación se estima teniendo en cuenta las clases de medios probatorios contempladas en los Artículos 192 y 193 de la norma en comento, medios probatorios que se relacionan en parte con las pruebas típicas como las documentales y las pericias y los atípicos por auxilios técnicos o científicos. Ahora bien, el tema de la IA es ¿qué medio probatorio será el que actuará en un proceso judicial? Por ejemplo, fotografías del investigado donde se ven imágenes en un caso de corrupción o contra la libertad sexual, audios de voz donde un funcionario o servidor público conversa sobre actos de corrupción o familiares que agreden a otro familiar, vídeos donde se ve perpetrándose el delito y estas imágenes, audios y vídeos hayan sido creadas por la IA y son tan realistas que al oído y ojo humano no puedan diferenciarse y, por ende, se vean envueltos conflictos de carácter familiar, social, político y demás aspectos de la vida del ser humano. O cuando en un proceso penal en las actuaciones de medios de prueba en juicio oral se introduzca un medio probatorio de oficio donde se tenga la grabación de un audio de conversaciones que tengan pertenencia para decidir la inocencia o culpabilidad del acusado y dicho audio esté creado por un programa de IA. ¿Quién podrá contradecir dicho audio?, cuando el dictamen pericial de audio forense diga si es auténtica la grabación. O cuando se tenga que acreditar un hecho con medios probatorios fotográficos donde una de las partes introdujo en el proceso una fotografía y el dictamen pericial fotográfico diga si es auténtica, ¿qué se hará en estas situaciones?, ¿cómo diferenciarlos?, ¿quién podrá decir que dichas imágenes, audios y vídeos son falsos? ¿Existirá otro programa con IA que lo desacredite como tal? Así como hoy en día, en los casos de tesis, se tiene el software Turnitin que descubre las copias de otro texto o como el ofrecimiento de la pericia de parte que contradice a la pericia oficial. Los países del mundo, ¿de qué manera se están preparando para que estos programas con IA ingresen a funcionar?, ¿de qué manera se están regulando normativamente para su aplicación? Se ha estado comentando que programas como ChatGPT y sus versiones más sofisticadas están en camino para su ingreso. Esta situación ha sido frenada, en parte por empresarios, en tecnologías que exhortan a los países y a las Naciones Unidas a regular normativamente el ingreso al mercado y aplicación de estos programas para evitar perjuicios en el aspecto social, político y económico. Por lo cual, nos preguntamos ¿de qué manera el Estado peruano se está preparando para regular el ingreso de estos programas a nuestro país? A la fecha, no sabemos si el Congreso de la República conjuntamente con el Gobierno tienen conocimiento para la regulación normativa. De no ser así, ¿qué acontecerá más adelante cuando ya estén con nosotros estos programas implementados en nuestras computadoras, celulares y tabletas? ¿Cómo regularlos luego, cuando ya generen problemas de desinformación y sirvan como medios probatorios, con los cuales inocentes serán condenados y culpables serán absueltos gracias a estos medios de prueba interactuados con programas de IA que en su tiempo no fueron regulados normativamente? Ponemos como caso al Sr. Santos, que solicita la tenencia de su menor hijo de 5 años de edad y presenta en el proceso penal de lesiones cinco fotografías donde se ve que la Sra. Sofía, progenitora de su menor hijo, lo golpea con un palo de escoba. El menor cae al piso y ella continúa golpeándolo. Las imágenes son muy explícitas y fueron creadas por la IA, lo que las hace difíciles de distinguir por el ojo humano. También, presenta un audio de una conversación telefónica donde la Sra. Sofía agrede psicológicamente a su menor hijo de 5 años y lo pone en contra de su progenitor. Estos audios son presentados en el proceso judicial por el Sr. Santos y fueron creados por la IA, siendo tan reales como la voz generada por Sofía. Los medios de prueba en los que la IA ha recabado información de todos los movimientos de Sofía, desde sus redes sociales y las imágenes suministradas por el Sr. Santos, así como las conversaciones telefónicas y grabaciones de Santos al momento de hablar con Sofía, permiten que la IA procese toda esa información y tenga como resultado las imágenes y audios de Sofía. De esta forma, se pueden tener más casos hipotéticos donde exista el ofrecimiento, actuación y valoración de los medios probatorios generados por la IA. Frente a estos casos, ¿quién o qué entidades del Estado estarán preparadas para resolverlos?, ¿será la propia internet quien nos diga si son verdad o mentira dichos audios, vídeos o imágenes?, ¿se podrá creer en la posición de internet? Es decir, ¿tendrá el poder de decir qué es cierto y qué no? Y frente a ello, ¿qué entidad gubernamental lo certificará como tal? Sabemos que será imposible frenar la entrada de estos programas con IA al mercado local, pero es necesario trabajar desde ahora para formar comisiones o grupos parlamentarios y entidades del Estado que instauren reglamentos, normativas y directivas que determinen su aplicación en el ámbito privado y público. Se deben imponer normativas que inspiren valores, ética y respeto a los derechos humanos e imponer limitaciones en su uso como, por ejemplo, suprimir en las IA preguntas que atenten contra el ser humano en todos sus aspectos de vida tales como ¿cómo causar lesiones a una persona sin ser descubierto?, ¿cómo realizar actos de defraudación y no ser descubierto?, ¿cómo realizar actos de malversación, colusión y tráfico de influencias sin ser descubiertos?, ¿cómo ocasionar la muerte de una persona sin ser descubierto?, ¿cómo ganar un proceso judicial de tenencia de mi hijo y ponerlo en contra de su progenitor(a) sin ser descubierto?, ¿cómo crear medios probatorios que influyan en la decisión de un juez sin ser descubierto?, etc. Al ser preguntado sobre estas cosas contrarias a los valores y ética del ser humano, la respuesta debería ser: “No estoy programado para responder esas preguntas, ya que son atentatorias a los derechos humanos”. En situaciones donde una persona genere datos sobre sí misma u otra persona para crear imágenes, vídeos o audios que perjudiquen a ella o terceras personas se deben tener como componente la encriptación automática de datos para determinar si dicha imagen, vídeo o audio es falso, entre otras regulaciones que nuestras autoridades deberán implementar en todo el ámbito jurídico en coordinación con las empresas generadoras de dichos programas. Frente a ello, ¿qué pericia será la que contradiga ello? Y si es así, ¿quién será? Esta labor será justamente de las instituciones del Estado designadas en las normativas internas del país. Debemos tener presente que los operadores en la Administración de Justicia como el Poder Judicial, así como los que conforman parte del sistema judicial como el Ministerio Público y Policía Nacional deberán actualizar sus normativas internas en su sector como la emisión de resoluciones administrativas para regular el uso de programas que comprendan la aplicación de IA en su etapa inicial, procesamiento y final. Termino este artículo de opinión con las palabras del famoso escritor Arthur C. Clarke: “Cualquier tecnología suficientemente avanzada es indistinguible de la magia”.
Noticias relacionadas