Revista Oficial del Poder Judicial - ISSN: 2663-9130 (En línea)
Vol. 17, n.º 23, enero-junio, 2025, 461-487
DOI: https://doi.org/10.35292/ropj.v17i23.1013
¿Justicia automatizada? Estudio de la interdisciplinariedad de la inteligencia artificial y el derecho en la administración de justicia y recomendaciones para su desarrollo y su regulación
Automated justice? A study on the interdisciplinarity between artificial intelligence and law in the administration of justice and recommendations for its development and regulation
Justiça automática? Estudo da natureza interdisciplinar da inteligência artificial e do direito na administração da justiça e recomendações para seu desenvolvimento e regulamentação
Alex David Bedregal Aguilar
Universidad Nacional de San Agustín
(Arequipa, Perú)
Contacto: abedregala@unsa.edu.pe
https://orcid.org/0009-0007-7104-4114
RESUMEN
El objeto de la presente investigación es sistematizar los avances de la interdisciplinariedad entre el derecho en la administración de justicia y la inteligencia artificial, a fin de establecer lineamientos para su estudio, su desarrollo normativo y su regulación. En primera instancia, se procederá a delimitar el concepto de inteligencia artificial, sus alcances y las inquietudes que suscita su incorporación en el ámbito jurídico. Posteriormente, se examinarán los progresos alcanzados a partir de la sinergia entre la ciencia jurídica y la informática, evidenciando su impacto en la administración de justicia. Finalmente, se esbozarán directrices para el abordaje metodológico de esta interdisciplinariedad, con miras a su adecuada estructuración y cuadro normativo.
Palabras clave: derecho; inteligencia artificial; interdisciplinariedad; administración de justicia; regulación.
ABSTRACT
The purpose of this research is to systematize the progress made in the interdisciplinary interaction between law in the administration of justice and artificial intelligence, in order to establish guidelines for its study, legal development, and regulation. First, the concept of artificial intelligence will be defined, along with its scope and the concerns raised by its incorporation into the legal field. Subsequently, the advances resulting from the synergy between legal science and computer science will be examined, highlighting their impact on the administration of justice. Finally, methodological guidelines for addressing this interdisciplinarity will be outlined, aiming for proper structuring and legal framing.
Key words: law; artificial intelligence; interdisciplinarity; administration of justice; regulation.
RESUMO
O objetivo desta pesquisa é sistematizar os avanços na interdisciplinaridade entre direito na administração da justiça e a inteligência artificial, a fim de estabelecer diretrizes para seu estudo, desenvolvimento regulatório e regulamentação. Em primeiro lugar, procederemos à delimitação do conceito de inteligência artificial, seu escopo e as preocupações levantadas por sua incorporação ao campo jurídico. Posteriormente, serão examinados os progressos alcançados com base na sinergia entre ciência jurídica e tecnologia da informação, evidenciando seu impacto na administração da justiça. Finalmente, serão delineadas diretrizes para a abordagem metodológica dessa interdisciplinaridade, com vistas à sua estrutura e marco regulatório adequados.
Palavras-chave: direito; inteligência artificial; interdisciplinaridade; administração da justiça; regulação.
Recibido: 30/6/2024 Revisado: 10/9/2024
Aceptado: 13/6/2025 Publicado en línea: 15/7/2025
1. INTRODUCCIÓN
La inteligencia artificial ha recuperado el interés de la comunidad académica jurídica desde el año 2017. Según Bex (2024), los avances en procesamiento de lenguaje natural (NLP) han generado una transformación paradigmática en el campo del derecho digital al abrir nuevas perspectivas y promover la incorporación de tecnologías innovadoras en la gestión jurídica. Dicha interconexión no se ha quedado únicamente en el fuero académico, sino que a la fecha hay varios casos alrededor del mundo en donde profesionales del derecho se han valido de algún tipo de inteligencia artificial para el ejercicio de la profesión. Tal ha sido el revuelo que ha generado alrededor del mundo que los eruditos de la informática y el derecho se han congregado y han venido desarrollando tecnologías para la aplicación de ciencias jurídicas con mecanismos óptimos para que el uso de inteligencia artificial sea razonable, estable y proporcional en este campo específico; ahora bien, deviene en imperante la necesidad de llegar a un consenso en la academia a fin de establecer un punto de partida para el uso de inteligencia artificial en la administración de justicia.
Tal como hemos anticipado al inicio, desde hace un par de años no es ajeno el estudio del derecho e inteligencia artificial de manera conjunta, Bex (2024) plantea tres puntos sobre los cuales debe trabajarse la interdisciplinariedad del derecho y la inteligencia artificial: converger el conocimiento y los datos en IA, evaluar cómo se utiliza la IA y el derecho en la práctica, y combinar múltiples disciplinas con la IA y el derecho. Por su parte, Jamal (2023) hace un estudio del uso de ChatGPT en el campo del derecho y establece que esta es una herramienta incapaz de reemplazar a la experiencia jurídica humana. De otro lado, López (2024) nos narra el caso de un abogado que fue suspendido por haber usado de forma negligente la inteligencia artificial, en el extremo que la IA le brindó información inexistente, lo cual demuestra el peligro que puede representar para el ejercicio de la profesión el emplear una herramienta que no llegamos a entender.
El objeto de la presente investigación consiste en analizar de forma rigurosa y sistemática los avances derivados del estudio conjunto del derecho y la inteligencia artificial, con el propósito de establecer directrices y parámetros que orienten su desarrollo, su indagación y su investigación. En el contexto del acelerado auge de la inteligencia artificial, es esencial que los juristas se inserten activamente en este proceso de transformación digital e identifiquen de manera precisa la realidad, las potencialidades y las limitaciones inherentes a la cada vez más prominente convergencia entre la normatividad jurídica y la programación. Dado el desconocimiento generalizado sobre el ecosistema que rodea a la inteligencia artificial, esta investigación pretende, en definitiva, aportar un marco conceptual que facilite la integración de la inteligencia artificial en el ámbito jurídico, así como fomentar la participación de más juristas interesados en la modernización del sistema jurídico, al incentivar su involucramiento en este proceso de transformación sin vulnerar los derechos fundamentales.
En primer término, se procederá a definir qué se entiende por inteligencia artificial, se abarcará desde sus orígenes hasta las definiciones más contemporáneas, considerando que resulta fundamental contar con una conceptualización actualizada en un estudio que aborda la intersección entre el derecho y las tecnologías emergentes. En segundo lugar, se recopilan y se examinan los avances académicos que evidencian la interdisciplinariedad entre ambas áreas, se destacan las investigaciones que han contribuido tanto al desarrollo de tecnologías jurídicas aplicadas como a la elaboración de mecanismos para evaluar la idoneidad y la conformidad de estas herramientas con los principios del derecho. Por último, se presentan una serie de recomendaciones orientadas a definir, de forma consistente y normativa, los parámetros que garanticen que la inteligencia artificial aplicada al derecho se ajuste a los cánones legales vigentes, convirtiéndose en una oportunidad para detectar y subsanar deficiencias en nuestros sistemas de justicia. En particular, se destacan los progresos alcanzados en el contexto peruano y se ponen en relieve los logros obtenidos hasta la fecha, así como aquellos ámbitos que, pese a su relevancia, aún no han recibido la debida atención y cuya consideración resulta indispensable para el desarrollo integral y ético de la inteligencia artificial en la administración de justicia del país.
2. ¿QUÉ ES LA INTELIGENCIA ARTIFICIAL? DELIMITANDO ALCANCES E IDENTIFICANDO MITOS
Para establecer una definición de inteligencia artificial, partimos ineludiblemente de la contribución de Alan Turing, quien, aunque no acuñó el término «inteligencia artificial», propuso un test que permite evaluar la capacidad de una máquina para emular el pensamiento humano de forma eficaz. ¿Cómo sabemos que una máquina es útil? Para el autor la determinación de esta utilidad se encuentra vinculada directamente con la imitación: una máquina será eficiente en la medida que pueda suplir a un ser humano en una tarea específica, pero siempre y cuando dicha tarea sea realizada tal y como lo haría un ser humano; y, por último, que una persona no pueda identificar si dicha tarea ha sido realizada por el ser humano o por un ser de naturaleza artificial. Con el fin de ejemplificar de una manera más didáctica para el lector, digamos que usted quiere realizar un reclamo a su operadora de teléfono y se contacta con los números brindados por esta para la atención al usuario a través de WhatsApp. ¿Cómo podría usted darse cuenta de si está hablando con una persona de carne y hueso o con mensajes predeterminados? Usted podría intentar resolver dicha pregunta identificando qué tan espontánea es la respuesta del operador o si el mensaje parece predeterminado; si a pesar de valerse de dichos recursos para develar el misterio, no logra diferenciar, la máquina pasó el test de Turing y, por lo tanto, es una IA eficiente.
Turing (1950) propone dejar de lado el dilema de identificar las diferencias entre la inteligencia humana y la inteligencia de una máquina, más bien, propone preguntarnos hasta qué punto una máquina puede suplir al ser humano en tareas o trabajos que realizaría este último. Aunado a ello, no plantea únicamente programar máquinas para obtener un resultado predecible y repetitivo, por el contrario, propone crear «máquinas niño». ¿Qué significa esto? Un niño es un ser humano que, al estar atravesando la génesis de su vida, es curioso y quiere saber y aprender todo; entonces, una máquina niño sería aquella que tiene funciones predeterminadas, pero que adicionalmente puede aprender otras y que, una vez sistematizada la información previa y la nueva, pueda resolver de tal forma que podría parecer espontánea frente a los problemas que el usuario le plantee. Es bajo estos conceptos que se cimentan los primeros alcances de la inteligencia artificial.
Años más tarde, en la Conferencia de Dartmouth1, los autores John McCarthy et al. (2006), quienes acuñaron el término «inteligencia artificial», siguiendo el correlato de las «máquinas niño» de Turing, plantean una posibilidad donde la inteligencia artificial pueda igualar al proceso cognitivo del ser humano, establecen que el problema no es la incapacidad de la máquina para asemejar a un cerebro humano, sino la incapacidad del ser humano de no poder crear una máquina que lo equipare cognitivamente hablando; aunado a lo anterior, indicaron otros tópicos colindantes como la posibilidad de creación de redes neuronales y el factor de aleatoriedad, característica propia del pensamiento creativo del ser humano.
Adicionalmente, el mismo McCarthy (2007) plantea cuestionamientos sobre qué es inteligencia artificial, menciona los límites que tiene esta en función de su nivel de programación o hasta qué punto podríamos asignar la cualidad de «inteligente» a procesos que son realizados por una máquina para resolver problemas. Bajo esta premisa, podríamos definir a la inteligencia artificial como aquel sistema digital que, sobre la base de su programación y sus límites, puede dar una respuesta tomando en cuenta una serie de variables que procesa con el objetivo de responder a un problema de razonamiento lógico. Ahora bien, dependerá de la complejidad de su programación si puede emular o incluso superar al ser humano en la resolución de problemas cognitivos.
Es sobre estos cimientos antes expuestos que se planteará la posibilidad de crear inteligencia artificial con un nivel de complejidad tal que sea suficiente para homologar o superar al razonamiento lógico del ser humano. Ahora, transcurridos setenta años, programas de inteligencia artificial como GPT-4o permiten al usuario ingresar cualquier tipo de combinación de texto, audio o video, lo cual genera una respuesta también con estas mismas variables y permite que la comunicación entre la persona y la máquina sea más natural (OpenAI, 2024); asimismo, Hassabis (2024), CEO de Google DeepMind, describe a Flash 1.5 como una inteligencia artificial capaz de realizar tareas de forma eficiente, con razonamiento multimodal y su novedosa ventana de contexto larga. Es de esta forma que podemos demostrar que las premisas establecidas por los pioneros de la inteligencia artificial se vienen desarrollando a pasos cada vez más agigantados, desarrollando IA que, al pretender emular al ser humano, son capaces de interactuar con el usuario para brindarle respuestas basándose en la data que posean y adicionalmente teniendo la capacidad de receptar información nueva y sobre esta ofrecer respuestas complejas y servibles para las necesidades del ser humano.
En contraste, si bien hemos señalado que los postulados de Turing y McCarthy se han visto logrados en los últimos años con la creación de programas de inteligencia artificial basados en los parámetros establecidos por los dos recurrentes, es preciso indicar en primer término las limitaciones de la inteligencia artificial y hacia dónde se proyectan los desarrolladores de esta, para que podamos establecer de manera clara la principal diferencia entre inteligencia artificial e inteligencia humana. En ese sentido, Segura (2023) apunta una diferenciación que, al ser propuesta por profesionales de la informática, logró clasificar a la inteligencia artificial en función de su alcance: IA débil e IA fuerte. Las inteligencias artificiales denominadas débiles son las que se han podido crear hasta la fecha de la presente redacción, sistemas de inteligencia artificial que permiten realizar labores específicas conforme a su base de datos, y adicionalmente información que puedan receptar producto de la interacción con el usuario; y, en segundo término, una inteligencia artificial fuerte es aquella que logrará equipararse al cerebro humano e incluso superarlo en el ámbito del razonamiento lógico. Cabe recalcar que hasta la fecha las denominadas IA fuertes no existen, como diría McCarty et al. (2006), el problema radicaría en la incapacidad del ser humano de poder desarrollar programas similares a las redes neuronales del ser humano.
Bajo esta proposición, la existencia de esta diferenciación radica en que hasta el día de hoy se tiene una serie de avances tecnológicos que han permitido la creación de programas como GPT-4o o Gemini, pero que estos programas siguen siendo IA débiles, toda vez que una IA fuerte será una máquina similar o superior al cerebro humano. Según lo expuesto previamente, aseveramos que, en este momento, podemos definir a la inteligencia artificial dentro de los parámetros de una IA débil, acorde a lo señalado por Segura (2023), porque si bien a la fecha una inteligencia artificial tiene la capacidad de interactuar con el usuario y que su conocimiento se cimente en su base de datos e interacción con una persona, tiene la limitación de estar programada para cumplir dicha función, que a pesar de tener cierto factor de aleatoriedad, no cuenta con las características para ser una inteligencia artificial fuerte. Por ende, la diferencia entre la inteligencia artificial y la humana es que la primera es, hasta la fecha, una imitadora de la segunda, ya que busca responder, actuar y desarrollar actividades como lo haría un ser humano, pero si bien puede ser hasta incluso similar en unos aspectos, no deja de ser programación de alto nivel, creando una red neuronal digital que no termina de imitar a la humana, y que, tal como señala Segura (2023), una inteligencia artificial fuerte es hasta el día de hoy únicamente especulación.
Por otro lado, es menester plantear los miedos, justificados o no, respecto del uso de la inteligencia artificial, el más presente en el ideario de todos aquellos que tienen nociones sobre inteligencia artificial es el problema de la «caja negra» (Brozek et al., 2024, citado por Castelvecchi, 2016; Rudin, 2019), referido al desconocimiento por parte de una persona sobre el procedimiento que utilizó la inteligencia artificial para llegar a un resultado específico; Brozek et al. (2024) señalan que el problema de la «caja negra» tiene cuatro dimensiones: el problema de la opacidad, la extrañeza, la imprevisibilidad y el de la justificación. En otros términos, si usamos un aplicativo con IA generativa con el objetivo de encontrar algún dato, la IA te responderá; sin embargo, por sí sola no te explicará de dónde ha conseguido dicha información. Por ejemplo, si le preguntas la fecha de un acontecimiento histórico, te proporcionará una respuesta, aunque no conocerás la fuente bibliográfica que consultó para llegar a esa conclusión. Es en este punto que podríamos cuestionar el nivel de ética que hay en los parámetros de programación de una inteligencia artificial, o hasta qué punto podemos obtener una respuesta de la IA y garantizar que dicha información no ha sido basada en datos confidenciales de una persona, o peor aún, y quizás siendo utópico, si desarrollan un sistema de inteligencia artificial que tenga el objetivo de solucionar el problema medioambiental del planeta, y que, con toda la información que tiene, llegue a la conclusión de que para solucionar dicho conflicto es preciso exterminar a la humanidad, todas estas son premisas que derivan del problema de la «caja negra». Como usuario puedo servirme de una inteligencia artificial, pero muy probablemente me quedaré con la incógnita de cómo ha conseguido dicha información.
El autor también señala que el dilema de la «caja negra» se podría aplicar en determinados puntos respecto del cerebro humano porque la inteligencia artificial busca parecerse a este y, por tanto, tiene características similares, quizás más complejas, que la ciencia no ha logrado a la fecha escudriñar y darle una explicación sólida al proceso cognitivo. Pero, a diferencia de la inteligencia artificial, el ser humano se encuentra más familiarizado con el cerebro humano, razón por la cual una persona se podría sentir más tranquila frente a una decisión que es tomada por una persona y no por una máquina. A causa de estos dilemas es que se viene desarrollando una corriente de inteligencia artificial explicada o XAI (Brozek et al., 2024, citado por Gunning y Aha, 2019), que propone una inteligencia artificial de «cajas blancas», en donde el procedimiento de razonamiento de una inteligencia artificial debe ser de conocimiento y fácil entendimiento no solo para el experto en programación, sino que, además, lo sea para una persona que desconozca sobre los alcances de una inteligencia artificial, de tal forma que el usuario se vea inmerso en ella producto de la automatización de un área específica del conocimiento del ser humano.
Desde una aproximación preliminar en lo que respecta al uso de inteligencia artificial en la administración de justicia, Barysė y Sarel (2024) realizaron una investigación exploratoria en Lituania para identificar cuáles son los principales miedos y preocupaciones que una persona pueda tener en los fueros judiciales si le plantean que una inteligencia artificial tendrá injerencia, ¿mucha o poca?, en una decisión judicial. Los resultados de la investigación sugieren que, según los encuestados, un nivel reducido de automatización en el proceso judicial permitiría tomar decisiones más acertadas en relación con el recurrente, a la vez que se considera que la automatización puede funcionar y resultaría justa únicamente en la etapa de recolección de información. En esta investigación se logró identificar la percepción de las personas sobre la inteligencia artificial aplicada en los tribunales, que manifestaron creer más en el criterio humano del juez por encima de la objetividad absoluta que podría tener un sistema de inteligencia artificial. La encuesta refleja también lo que se ha concluido hasta la fecha respecto del uso de inteligencia artificial, dado que, por las limitaciones propias de estas, como de la «caja negra», si una IA tomara decisiones judiciales emulando a la autoridad convencional del sistema de justicia, quizás el sistema llegaría a determinada conclusión de una forma diferente a como lo haría un juez; intentará imitarlo, pero sería mera pantomima con los avances que se tienen hasta la fecha. En suma, es crucial tomar con pinzas este asunto, entendiendo qué es una IA e identificando cuáles son estas limitaciones para no caer en el error de querer atribuirle características que no son sino remotas y utópicas.
3. AVANCES EN LA INTERDISCIPLINARIEDAD DEL DERECHO Y LA INTELIGENCIA ARTIFICIAL EN LA ADMINISTRACIÓN DE JUSTICIA
Para desarrollar este extremo de la investigación, es necesario hacer una clasificación de la interdisciplinariedad que existe entre el derecho en la administración de justicia y la inteligencia artificial, dicha clasificación debe cimentarse sobre aquello que es relevante en el estudio de lo jurídico y lo informático. Como primer extremo, reconocer a la inteligencia artificial como una herramienta para la administración de justicia, toda vez que la inteligencia artificial le permite al jurista desempeñar su profesión de forma sistematizada. La predictibilidad de situaciones jurídicas y la sistematización de información legal son los aspectos que más se han desarrollado en esta interdisciplinariedad, ello ha permitido identificar fallas dentro de la ley; asimismo, el cómo regular a la inteligencia artificial para que no sea contraria a lo establecido por el derecho.
3.1. La National Police Lab AI de Países Bajos
Esta entidad tiene su origen en el trabajo conjunto de la Policía Nacional holandesa, la Universidad de Utrecht y la Universidad de Ámsterdam, con el objetivo de disminuir los niveles de criminalidad en los Países Bajos (Utrecht University, s. f.), y para lograr tales objetivos han estado enfocados en el estudio de la interdisciplinariedad del derecho con la inteligencia artificial a través de la creación de programas informáticos. Bex (2024) realiza precisiones sobre el desarrollo de una inteligencia artificial para el ingreso de denuncias ciudadanas que a día de hoy es utilizado por la Policía Nacional de Países Bajos, y el desarrollo de «Explabox», base de datos para medir la eficacia de una inteligencia artificial aplicada al derecho.
El sistema de ingreso de denuncias ciudadanas de la Policía Nacional de Países Bajos permite a la entidad pública filtrar de manera eficiente los cientos de denuncias que son ingresadas diariamente referentes a fraudes comerciales, dicha actividad es realizada por medio de inteligencia artificial basada en conocimientos y en datos. Respecto de esta clasificación, Russel y Norvig (2010) definen a una inteligencia artificial que se fundamenta en conocimientos como aquella que está cimentada en símbolos y reglas lógicas debidamente estructuradas, mientras que una inteligencia artificial basada en datos está cimentada en la identificación de patrones a raíz de haber procesado información cuantiosa, de esta forma no depende de reglas preestablecidas. Bajo estas dos bases se cimenta la inteligencia artificial de la recepción de denuncias, debido a que es una inteligencia artificial fundamentada en conocimientos que está delimitada a lo que establezca el artículo enésimo de la ley respecto a defraudaciones; y, además, será una inteligencia artificial basada en datos al tener un apartado en su sistema en el cual los usuarios puedan detallar singularidades personales. Podemos identificar hasta este punto cómo la inteligencia artificial suple algunas labores del trabajador de justicia, en este caso, determinar si el hecho concreto contenido en la denuncia es típico y antijurídico. El programa recurrente identifica si el contenido de la denuncia tiene relación con el supuesto de hecho contemplado en la ley, y que dicha información le permita resolver de una manera más eficiente un caso penal posterior.
Adicionalmente, dentro de la entidad se desarrolla una investigación de trabajo policial basado en datos. Odekerken et al. (2023) presentan avances en el razonamiento que parte del análisis de casos, que servirán de herramienta para llegar a conclusiones de un caso en desarrollo con información incompleta. Sobre esta investigación se precisan puntos que deberán ser de estudio a la hora de querer crear una inteligencia artificial de predictibilidad de casos: la justificación, la estabilidad y la relevancia:
a) Justificación. Se entiende como la argumentación jurídica obligatoria derivada del razonamiento basado en casos precedentes para resolver la controversia actual. Por ilustración, si un caso penal entra en un programa de inteligencia artificial con características específicas, el sistema debería ofrecer una respuesta conforme a la legislación vigente, jurisprudencia aplicable y casos anteriores comparables.
b) Estabilidad. Define la situación del caso donde la información incompleta no afecta el resultado. Por ejemplo, si en un proceso de responsabilidad civil se impacta a alguien con un automóvil y no se captura la placa, pero se confirma el conductor, el caso es determinado como estable por el sistema.
c) Relevancia. Se refiere a los elementos cruciales para la decisión judicial. Por ejemplo, en un caso de homicidio, un sistema de inteligencia artificial debe identificar los puntos controvertidos clave para el proceso penal.
De esta forma, se evidencia que la National Police Lab AI ha concentrado sus esfuerzos en desarrollar la interdisciplinariedad entre la inteligencia artificial y el derecho a través del programa de inteligencia artificial de recepción de denuncias y su proceso de admisión, mientras que también se trabaja en regular estos programas usando avances en razonamiento predictivo jurídico, con el fin de prevenir sesgos en las respuestas, resolviendo, quizás de manera óptima, el problema de la «caja negra» e inclusive el test de Turing (1950). Esta cooperación gubernamental logra hasta cierto punto ser eficiente o buscar serlo en una labor que realiza convencionalmente una autoridad judicial al desarrollar inteligencia artificial con un algoritmo que posea no solo la información con la que fue programada, sino darle dotes de aprendizaje para que pueda servir al usuario de una manera mucho más orgánica.
Los esfuerzos de los Países Bajos en el desarrollo de la inteligencia artificial se han encontrado inmersos en las dos aristas planteadas: en primer término, la inteligencia artificial como herramienta a través del desarrollo de un sistema de ingreso de denuncias, así como el perfeccionar el uso de la inteligencia artificial aplicada al derecho, y que no sea contrario a él, al plantear lo que debe ser tomado en cuenta para desarrollar un programa de predictibilidad de casos en un conflicto judicial.
3.2. La oposición entre el uso de jurisprudencia en el sistema de justicia chino y la evidencia empírica demostrada por IA
Chen et al. (2024) nos demuestran de qué modo la inteligencia artificial sirve como una herramienta para identificar falencias en un sistema de administración de justicia. Se desarrolla una investigación experimental respecto al uso implícito de casos guía en el sistema de justicia chino contrario a su tradición socialista de no considerar fuente de derecho a los precedentes judiciales, ya que la administración de justicia de este país oriental al estar fuertemente marcada por el autoritarismo considera solo al poder legislativo como ente creador de derecho 2. Pero en la época reciente se implementaron casos guía, que si bien no tienen el estatus de fuente de derecho, la Corte Suprema de China les dio el nivel de fuente de consulta facultativo a la hora de resolver conflictos judiciales. Ahora bien, contradictoriamente, el uso de estos casos guía ha sido reducido, demostrando supuestamente la imposición de la tradición socialista contraria al common law, es en este punto que por medio del algoritmo BLAST3, tras tomar una muestra de resoluciones judiciales de un tema relacionado con uno de los casos guía, que se identificó una serie de similitudes entre ambos elementos y se dejó en evidencia que si bien los magistrados del país chino tomaban en cuenta el caso guía a la hora de decidir, estos no invocaban dicho caso.
La inteligencia artificial nos ha permitido identificar las falencias dentro del sistema judicial chino, y en consecuencia plantearnos un abanico de soluciones que deberá traducirse en una reforma legislativa que parta o de la transición del sistema judicial chino a uno parecido al del common law propio del hemisferio occidental o la eliminación de los casos guía para preservar el formato tradicional de la nación China. Así, encontramos la funcionalidad de nuestro punto respecto a la primera característica a tomar en cuenta porque a través del algoritmo BLAST se consiguió sistematizar información tomando resoluciones judiciales que fueron comparadas posteriormente con estos casos guía y se encontraron similitudes entre ambos elementos. En resumen, la IA halló ciertos patrones que permiten a sus legisladores tomar una decisión en pro de la eficiencia de su sistema judicial.
3.3. Pautas para el desarrollo de las IA aplicadas al derecho
Dado lo señalado anteriormente, el principal problema de aplicar inteligencia artificial en el campo jurídico es por el sesgo que pueda tener una inteligencia artificial en sus respuestas a la hora de predecir una situación jurídica idónea. Witt et al. (2024) identifican el problema de una eventual falta de precisión y congruencia al momento de transformar una ley a código ejecutable, en tanto que lo ofrecido por la inteligencia artificial no debe ser contrario a la ley ni a ninguna de las fuentes del derecho, a esto lo denominan legal alignment o alineamiento legal. Es crucial la intervención del razonamiento humano en la programación de la IA para la codificación de la ley respectiva, debido a que la ley puede presentar ambigüedades e imprecisiones que son sometidas a la interpretación y solo un profesional del derecho puede resolver dichas incógnitas. Por ejemplo, si nosotros le preguntamos a una IA generativa por una solución óptima a determinado problema jurídico, esta podrá brindarnos una solución tomando en cuenta lo señalado textualmente en algún código o reglamento que se encuentre dentro de su base de datos, pero por problemas como el dilema de la «caja negra» y por la imprevisibilidad de una IA a la hora de llegar a una conclusión, quizás esta no se encontrará ajustada a derecho. Aplicaciones como ChatGPT no se especializan en otorgar respuestas óptimas en el campo del derecho, resulta estrictamente necesaria una cooperación entre profesionales de la informática y el derecho si se pretende cumplir los objetivos que pretendemos señalar en la conjunción de ambos saberes.
En consonancia, queda demostrada la necesidad imperante de regular el uso de la inteligencia artificial en lo jurídico, dado que la naturaleza del derecho radica en la interpretación de las normas por parte de todos aquellos que interactúan en el sistema jurídico. Por lo que, de usarse la IA en lo jurídico, se requiere determinar sus alcances y arriesgarse a implementarla dentro del sistema de justicia4, limitarla a labores de sistematización de información y similares, o dotarla de herramientas necesarias para suplir funciones mucho más complejas.
3.4. Prometea: la asistente judicial tecnológica
Corvalán (2018) nos presenta a Prometea, una inteligencia artificial desarrollada por el Ministerio Público de la Ciudad Autónoma de Buenos Aires, que plantea ser un sistema que pueda atender a los usuarios como una base de datos interactiva. Por ejemplo, si alguien quiere saber respecto a derecho inmobiliario, puede solicitarle a Prometea la información legal disponible de la rama solicitada, entonces le brindará todo el ordenamiento jurídico vigente acerca de ese tema, tal como leyes, precedentes vinculantes, reglamentos, ordenanzas de municipalidades, etc. Resulta interesante que la herramienta sea una gran base de datos que ha sistematizado información legal para ser otorgada al usuario de manera óptima. En este extremo quedan demostrados los esfuerzos del Ministerio Público de Argentina por optimizar la administración de justicia por medio del uso de inteligencia artificial, al desarrollar una herramienta de almacenamiento que permita al profesional del derecho o a la persona de a pie conocer las leyes que giran alrededor de determinada materia.
3.5. Algunas precisiones sobre predictibilidad desde el aspecto jurídico
Como se ha expuesto anteriormente, existen precedentes significativos del uso de la inteligencia artificial en el ámbito de la administración de justicia, especialmente en su rol como herramienta de apoyo. Estos desarrollos han permitido ciertos avances en la predictibilidad de decisiones judiciales; no obstante, persisten importantes limitaciones en su aplicación práctica y conceptual. En este marco, se aborda la noción de predictibilidad desde una perspectiva estrictamente jurídica. Al respecto, Gometz (2005) introduce el concepto de «certeza del derecho», entendida como la capacidad de los ciudadanos de prever las consecuencias jurídicas de sus actos con base en los hechos cometidos, lo cual implica distintos niveles de certeza jurídica.
En esa línea, Espinosa (2005), al realizar un análisis comparativo de resoluciones emitidas por tribunales peruanos en casos de responsabilidad civil, específicamente en cuanto a la fijación de montos resarcitorios, evidenció una notable disparidad en los criterios aplicados. Esta falta de uniformidad revela una profunda debilidad estructural del sistema judicial peruano, particularmente en cuanto a la predictibilidad de sus decisiones. La imposibilidad de anticipar con razonable certeza el contenido de una resolución judicial mina la confianza ciudadana en la justicia.
Sobre este punto, Belaunde (1997) sostuvo que una de las principales causas de la baja predictibilidad en el Perú radica en la autopercepción del operador de justicia como un ejecutor mecánico del derecho, sin asumir el ejercicio interpretativo y valorativo que este conlleva. En complemento, Rubio Correa (2009) señala que, dada la ambigüedad y la imprecisión de muchas disposiciones normativas, el operador jurídico no puede limitarse a la sola aplicación literal de la ley, sino que debe acudir a la doctrina, los principios constitucionales y la jurisprudencia para resolver las incertidumbres jurídicas y garantizar así un mínimo de coherencia y previsibilidad en las decisiones judiciales.
Aunque la inteligencia artificial ha demostrado importantes avances en el desarrollo técnico de modelos de predicción, su incorporación en el ámbito jurídico exige una especial cautela. Pretender trasladar mecánicamente estas herramientas al contexto peruano, caracterizado por una baja homogeneidad y escasa sistematización en la toma de decisiones judiciales, constituye un desafío de alta complejidad.
4. AHORA, ¿QUÉ DEBEMOS HACER NOSOTROS?
Ahora bien, una vez hemos detallado algunas aristas del trabajo referente a la interdisciplinariedad del derecho en la administración de justicia y la inteligencia artificial, sería irresponsable por parte de la comunidad científica jurídica no participar en esta transformación digital. Tal como lo señala Segura (2023), la IA ha logrado equiparar en algunas cosas al ser humano, y dentro de estas ser parte del sistema de administración de justicia y de lo jurídico en general. Por su lado, Corvalán (2018) destaca las ventajas de la inteligencia artificial en el ámbito de aplicación del derecho y, a su vez, las desventajas y las complicaciones ocasionadas por esta misma; Jalón et al. (2021) plantean una serie de limitaciones de la inteligencia artificial en lo jurídico y las acciones que deberíamos tomar, partiendo de conocer la inteligencia artificial si queremos pretender usarla o regularla. Sobre este último punto Kaplan (2024), de CNN, enumera observaciones referentes al proyecto de ley aprobado por la Unión Europea en la regulación que tendrá la inteligencia artificial, destaca la protección de datos personales y que esté etiquetado todo aquello que ha sido generado o creado por alguna inteligencia artificial, este es un avance trascendental en la interdisciplinariedad entre derecho e inteligencia artificial. Nuevamente establecemos que la congregación de lo jurídico y lo tecnológico debe ser estudiado, creado y regulado sobre la base de dos grandes grupos: en primer lugar, la inteligencia artificial como herramienta y, en segundo lugar, mecanismos para regular la inteligencia artificial.
4.1. La inteligencia artificial como herramienta
Tal como lo señala Segura (2023), postura que nosotros respaldamos, es totalmente ingenuo ignorar este proceso de transición en el cual nos encontramos sobre la digitalización del derecho por medio de la inteligencia artificial, es por esto que resulta imperante lo siguiente:
Entender a la inteligencia artificial como una disciplina de la informática que busca a través de la programación y el desarrollo de algoritmos suplir el trabajo del ser humano en algunos aspectos. Debemos comprender que la interdisciplinariedad de la inteligencia artificial y el derecho es solo la aplicación de sistemas de IA en el campo jurídico, y que dicha disciplina solo avanzará en la medida que la inteligencia artificial pueda extender sus posibilidades. Tal como está planteada ahora la diferencia entre IA débil y fuerte, al existir solo la primera, las labores de la inteligencia artificial en el mundo de los abogados se resumen en la sistematización de información para brindarle atención al usuario sobre alguna rama, como Prometea en el caso argentino; o para distribuir el ingreso de denuncias policiales, como es el caso de la IA desarrollada por Países Bajos. Y si posteriormente logran cumplirse algunos parámetros de idoneidad como el de solución al dilema de la «caja negra», brindando al profesional del derecho y a todos aquellos que interactúan dentro del mundo del derecho la certeza en las respuestas de una IA generativa en funciones complejas, podrá dársele mayores responsabilidades.
Congregar a los profesionales del derecho y la informática. A la fecha, Bex (2024) nos detalla a profundidad los logros que ha conseguido el NPAI, entidad que congrega a universidades de Países Bajos con la policía para la creación de inteligencia artificial al servicio de la administración de justicia. Sobre esto solo podemos sugerir que sea política de cada Gobierno el estudio interdisciplinario del derecho y la inteligencia artificial. ¿Se imaginan que cada Estado tenga la política gubernamental de modernizar su sistema de justicia? Un sistema de inteligencia artificial podría ayudar a sistematizar la reglamentación relacionada con los problemas judiciales, planteando alternativas basadas en la información obtenida, siempre que pueda explicar cómo se obtuvo cada dato, la fuente y el porqué. Además, debe garantizar que no se utilice información privada ni se contradigan las normativas nacionales e internacionales. En síntesis, el abogado necesita del informático para el desarrollo de sistemas de inteligencia artificial que le permitan optimizar el trabajo dentro del campo del derecho, y el informático que desarrolla inteligencia artificial necesita del abogado para que este pueda determinar si la IA desarrollada es acorde al derecho o no.
4.2. ¿Cómo regular la inteligencia artificial?
De no controlar a la inteligencia artificial, esta podrá ser, muy probablemente, contraria a lo establecido por el derecho. El problema de la «caja negra» se comprobará y ocasionará percepciones negativas sobre los administrados referente al uso de la inteligencia artificial, para mitigar eso es necesaria una regulación que debe ser tomada por los siguientes puntos:
Como se ha reiterado a lo largo de esta investigación, entendemos la interdisciplinariedad entre el derecho y la inteligencia artificial como la aplicación de herramientas informáticas en el ámbito jurídico, lo que requiere que dicha tecnología se regule conforme a lo justo y a lo establecido por las normas. Por ello, es imperativo regular la inteligencia artificial desde dos perspectivas: objetiva y subjetiva. Desde el enfoque objetivo, es esencial considerar el campo específico de aplicación. Por ejemplo, un sistema de ingreso de denuncias de modo que la IA integre en su base de datos todo lo relativo al derecho penal, procesal penal, las leyes orgánicas del Ministerio Público e incluso la normativa constitucional y supranacional. Esto garantizará que el usuario reciba una atención personalizada acorde con la situación particular. En la perspectiva subjetiva, la IA debe fundamentar sus funciones colocando a la persona como eje central de las situaciones jurídicas.
Deben oponerse el principio de legalidad y el uso de inteligencia artificial si es preciso que sea así. Chen et al. (2024) nos demostraron la contradicción presente en el sistema judicial chino referente al uso o no de precedentes judiciales. Ahora, ¿qué sucedería si una inteligencia artificial basada en datos logra identificar un patrón que nos permite concluir que la aplicación de una norma es contraria al principio de constitucionalidad o a los derechos fundamentales? De la misma forma que las IA no deben vulnerar las garantías constitucionales, si la IA nos permite identificar normas que se oponen entre sí o que vulneran derechos fundamentales, entonces deberíamos concebir la posibilidad de desarrollar un programa de inteligencia artificial con la función de identificar la constitucionalidad de las leyes y la labor legislativa.
4.3. Los avances de la inteligencia artificial en el caso peruano, ¿qué mejorar?
Una vez abordados los principales conceptos relativos a la inteligencia artificial y su aplicación en el ámbito de la administración de justicia, así como delineadas algunas pautas que podrían contribuir al desarrollo de este estudio de carácter interdisciplinario, resulta pertinente examinar el reciente caso peruano, a propósito de la promulgación de la Ley n.o 31814. Este cuerpo normativo, conforme a lo señalado en su exposición de motivos (2024), se propone impulsar el uso de la inteligencia artificial como herramienta para fomentar el desarrollo social y económico del país.
En lo que respecta a su aplicación en el sistema de justicia, si bien dicha ley presenta avances importantes como el reconocimiento del rol de toda la ciudadanía en el proceso de implementación de la inteligencia artificial (artículo único del Título Preliminar), así como la promoción de principios como la transparencia y la explicabilidad en el desarrollo de estas tecnologías (Proyecto de Reglamento de la Ley n.o 31814, artículo 4; Nuevo Proyecto de Reglamento, artículo 3), subsiste la necesidad de una regulación específica orientada a su utilización dentro del sistema jurisdiccional. Lo anterior se justifica, además, por cuanto la propia exposición de motivos de la norma identifica como actividades de alto riesgo aquellas vinculadas con la toma de decisiones jurisdiccionales y el análisis de infracciones penales.
La incorporación de inteligencia artificial en el ámbito judicial no solo implica un componente técnico u objetivo, relativo a la eficiencia del aparato judicial, sino también un componente subjetivo que concierne a la tutela de los derechos fundamentales del justiciable. En efecto, cualquier herramienta tecnológica implementada debe ser útil y accesible para los usuarios del sistema de justicia, sin comprometer en modo alguno sus garantías constitucionales.
Asimismo, corresponde poner en valor los esfuerzos previos realizados por el sistema judicial peruano en la materia, incluso antes del auge contemporáneo de la inteligencia artificial, lo que Bex (2024) ha denominado su «resurgimiento», considerando que el debate público actual tiende a enfocarse únicamente en las aplicaciones generativas. En tal sentido, es pertinente recordar el planteamiento formulado por Turing (1950), quien sostenía que una inteligencia artificial debe ser entendida como tal en la medida en que logre resolver problemas humanos con el fin de optimizar la eficiencia en la ejecución de tareas.
Alineado con esta visión, el Poder Judicial del Perú, en su Plan Estratégico Institucional 2021, estableció entre sus objetivos la modernización del sistema de justicia (p. 9), lo cual ha conllevado al desarrollo de herramientas tecnológicas como el Expediente Judicial Electrónico. Si bien este instrumento no constituye una forma de inteligencia artificial generativa, cumple con una función esencial en la mejora de la eficiencia del sistema, al facilitar a los usuarios el acceso a sus procesos judiciales y a servicios conexos.
Se debe resaltar, de igual manera, la iniciativa de la Quinta Sala de Derecho Constitucional y Social Transitoria de la Corte Suprema, que ha desarrollado la herramienta de inteligencia artificial denominada CURIA. Esta innovación busca asistir a los jueces en la tramitación ágil de los procesos judiciales, así como en la mejora de la predictibilidad en la emisión de resoluciones (Plataforma del Estado Peruano, 2025). Este ejemplo, junto con los previamente citados, da cuenta del compromiso institucional del sistema de justicia peruano en aprovechar las potencialidades de la inteligencia artificial como instrumento de apoyo al trabajo jurisdiccional, en beneficio de una justicia más eficiente.
Puede afirmarse que en el contexto peruano se ha iniciado un proceso concreto de incorporación de tecnologías de inteligencia artificial en la administración de justicia. No obstante, resulta imperativo avanzar hacia un marco normativo específico que regule esta interacción tecnológica y jurídica, garantizando que su desarrollo se enmarque en el respeto irrestricto de los derechos fundamentales. Solo así se asegurará que estas herramientas, lejos de constituir una amenaza, se conviertan en mecanismos accesibles, confiables y legítimos.
5. CONCLUSIONES
El análisis de la interrelación entre la inteligencia artificial y el derecho ha adquirido una creciente importancia en el ordenamiento jurídico contemporáneo. En nuestro entendimiento, esta interdisciplina persigue incorporar la tecnología de inteligencia artificial como instrumento funcional para los operadores jurídicos, con el objetivo de optimizar los sistemas de administración de justicia sin que ello se transforme en un obstáculo para su adecuada aplicación.
En este contexto, resulta imperativo que los profesionales del derecho se integren activamente en el proceso de modernización digital del ámbito jurídico. Como operadores del derecho, tenemos la obligación de comprender en profundidad la naturaleza y los alcances de la inteligencia artificial, definida en la presente investigación como aquella tecnología que, mediante algoritmos de aprendizaje y procesos aleatorios, presta una atención personalizada al usuario y suplanta determinadas funciones tradicionalmente realizadas por el ser humano, cuyas capacidades y limitaciones deben ser evaluadas con rigor técnico.
Los hallazgos empíricos indican que la incorporación de la inteligencia artificial en el campo jurídico ha propiciado el desarrollo de herramientas tecnológicas que redundan en beneficio de la administración de justicia. En consecuencia, se impone la adopción de políticas públicas que promueven el estudio interdisciplinario de la inteligencia artificial en el ejercicio del derecho, en beneficio tanto del ámbito académico como de la sociedad en general. Asimismo, es fundamental fomentar una estrecha colaboración entre los especialistas del derecho y los expertos en informática, a fin de garantizar que los sistemas de IA desarrollados cumplan con los estándares normativos exigidos y eviten incurrir en errores interpretativos o contravenir la legislación vigente.
En definitiva, la aplicación de la inteligencia artificial en el ámbito jurídico se configura como una herramienta con el potencial de optimizar la labor de los operadores jurídicos en diversas áreas profesionales, más aún en el caso peruano que ha presentado problemas, como la predictibilidad jurídica, y que la inteligencia artificial ha venido como una alternativa de solución a esta y otras falencias. No obstante, es crucial reconocer que si bien la IA puede asumir determinadas funciones, aquellas tareas que requieren interpretación y discernimiento de carácter puramente humano deben seguir siendo competencia exclusiva de los operadores del derecho. Por ello, el uso de la inteligencia artificial debe realizarse con la debida responsabilidad y dentro de límites claramente definidos.
NOTAS
1 La Conferencia de Dartmouth se llevó a cabo en el verano de 1956 en la Dartmouth College, en el estado de New Hampshire, Estados Unidos. Dicha conferencia fue organizada por John McCarthy para homogeneizar los cada vez más impetuosos ánimos por el estudio de máquinas que pudieran pensar.
2 En contraste con el sistema judicial de China, el sistema judicial peruano aplica los precedentes vinculantes derivados de la autoridad judicial, en virtud de la tradición del common law. De esta forma, en el sistema peruano, el juez tiene la potestad de crear derecho, mientras que en el sistema chino dicha facultad recae exclusivamente en la cámara legislativa.
3 Basic Local Alignment Search Tool o BLAST es un algoritmo usado principalmente en el sector de la bioinformática, que cumple la función de identificar similitudes dentro de una base de datos.
4 Entendemos la palabra arriesgarse como la toma de decisión de la autoridad legislativa competente para darle atribuciones decisorias a la inteligencia artificial a la hora de administrar justicia y asumir las consecuencias que pueda conllevar su uso.
REFERENCIAS
Barysė, D. y Sarel, R. (2022). Algorithms in the court: does it matter which part of the judicial decision-making is automated? Artificial Intelligence and Law, 32, 117-146. http://dx.doi.org/10.2139/ssrn.4208203
Belaunde, J. de (1997). Justicia, legalidad y reforma judicial en el Perú (1990-1997). Ius et Veritas, 8(15), 103-127. https://revistas.pucp.edu.pe/index.php/iusetveritas/article/view/15735
Bex, F. J. (2024). AI, law and beyond. A transdisciplinary ecosystem for the future of AI & law. Artificial Intelligence and Law, 33, 253-270. https://doi.org/10.1007/s10506-024-09404-y
Brozek, B., Furman, M., Jakubiec, M. y Kucharyzk, B. (2024). The black box problem revisited. Real and imaginary challenges for automated legal decision making. Artificial Intelligence and Law, 32, 427-440. https://doi.org/10.1007/s10506-023-09356-9
Castelvecchi, D. (2016). Can we open the black box of AI? Nature, 538(7623), 20-23. https://doi.org/10.1038/538020a
Chen, B. M., Li, Z., Cai, D. y Ash, E. (2024). Detecting the influence of the Chinese guiding cases: a text reuse approach. Artificial Intelligence and Law, 32, 463-486. https://doi.org/10.1007/s10506-023-09358-7
Corvalán, J. (2018). Inteligencia artificial: retos, desafíos y oportunidades - Prometea: la primera inteligencia artificial de Latinoamérica al servicio de la justicia. Revista de Investigações Constitucionais, 5(1), 295-316. https://doi.org/10.5380/rinc.v5i1.55334
Espinoza, J. (2005). Hacia una predictibilidad del resarcimiento del daño a la persona en el sistema judicial peruano. Advocatus, (013), 89-110.
Gometz, G. (2005). La certezza giuridica come prevedibilità. G. Giappichelli Editore.
Gunning, D. y Aha, D. W. (2019). DARPA’s explainable Artificial Intelligence Program. AI Magazine, 40(2), 44-58. https://doi.org/10.1609/aimag.v40i2.2850
Hassabis, D. (2024, 14 de mayo). Gemini breaks new ground with a faster model, longer context, AI agents and more. The Keyword. https://blog.google/technology/ai/google-gemini-update-flash-ai-assistant-io-2024/?utm_source=gdm&utm_medium=referral&utm_campaign=io24
Jalón, E., Ponce, D., Arandia, J. C. y Arrias, J. C. (2021). Las limitaciones de la aplicación de la inteligencia artificial al derecho y el futuro de la educación jurídica. Conrado, 17(83), 439-450. http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S1990-86442021000600439&lng=es&tlng=es
Jamal, S. (2023, 13 de abril). Pakistani judge uses ChatGPT to make court decision. Gulf News. https://gulfnews.com/world/asia/pakistan/pakistani-judge-uses-chatgpt-to-make-court-decision-1.95104528
Kaplan, P. (2024). La Unión Europea aprueba una histórica ley sobre inteligencia artificial [Video]. CNN. https://cnnespanol.cnn.com/video/union-europea-nueva-ley-inteligencia-artificial-cnn-dinero-tv/
López, K. (2024, 11 de abril). Abogado fue suspendido por usar IA para inventar precedentes en documento judicial. El Tiempo. https://www.eltiempo.com/cultura/gente/abogado-fue-suspendido-por-usar-ia-para-inventar-precedentes-en-documento-judicial-3332846#:~:text=El%20abogado%20y%20periodista%20Robert,de%20la%20inteligencia%20artificial%20generativa
McCarthy, J. (2007). What is artificial intelligence? Stanford University. https://www-formal.stanford.edu/jmc/whatisai.pdf
McCarthy, J., Minsky, M. L., Rochester, N. y Shannon, C. E. (2006). A proposal for the Dartmouth Summer Research Project on Artificial Intelligence, August 31, 1955. AI Magazine, 27(4), 12. https://doi.org/10.1609/aimag.v27i4.1904
Odekerken, D., Bex, F. y Prakken, H. (2023). Justification, stability and relevance for case-based reasoning with incomplete focus cases. En ICAIL ‘23: Proceedings of the Nineteenth International Conference on Artificial Intelligence and Law (pp. 177-186). Association for Computing Machinery.
OpenAI. (2024). Hello GPT-4o. https://openai.com/index/hello-gpt-4o/
Plataforma del Estado Peruano. (2025, 14 de marzo). Poder Judicial presenta asistente de inteligencia artificial «CURIA» que optimizará servicio de justicia [Nota de prensa]. https://www.gob.pe/institucion/pj/noticias/1126720-poder-judicial-presenta-asistente-de-inteligencia-artificial-curia-que-optimizara-servicio-de-justicia
Poder Judicial del Perú. (2021). Plan Estratégico Institucional Poder Judicial 2021-2030. https://www.pj.gob.pe/wps/wcm/connect/9768f78048fcb5a1a112f59026c349a4/Plan+Estratgico+Institucional+del+Poder+Judicial+20212030_compressed.pdf?MOD=AJPERES&CACHEID=9768f78048fcb5a1a112f59026c349a4
Presidencia del Consejo de Ministros. (2024a). Exposición de motivos del Decreto Supremo que aprueba el Reglamento de la Ley n.o 31814. https://cdn.www.gob.pe/uploads/document/file/6273071/5516872-exposicion-de-motivos.pdf?v=1732028538
Presidencia del Consejo de Ministros. (2024b). Nuevo Proyecto de Reglamento de Ley n.o 31814. https://www.gob.pe/institucion/pcm/informes-publicaciones/6197119-nuevo-proyecto-de-reglamento-de-la-ley-de-inteligencia-artificial
Presidencia del Consejo de Ministros. (2024c). Proyecto del Reglamento de Ley n.o 31814. https://cdn.www.gob.pe/uploads/document/file/6273073/5516872-proyecto-de-reglamento-ley-31814%282%29.pdf?v=1732029752
Rubio, M. (2009). El sistema jurídico: introducción al derecho. Fondo Editorial de la Pontificia Universidad Católica del Perú.
Rudin, C. (2019). Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. Nature Machine Intelligence, 1, 206-215. https://doi.org/10.1038/s42256-019-0048-x
Rusell, S. y Norvig, P. (2010). Artificial intelligence: a modern approach. (3.a ed.). Pearson Education. https://people.engr.tamu.edu/guni/csce625/slides/AI.pdf
Segura, R. (2023). Inteligencia artificial y administración de justicia: desafíos derivados del contexto latinoamericano. Revista de Bioética y Derecho, (58), 45-72. https://doi.org/10.1344/rbd2023.58.40601
Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433-460. http://www.jstor.org/stable/2251299
Utrecht University. (s. f.). National Police Lab AI. https://www.uu.nl/en/research/ai-labs/our-labs/national-police-lab-ai
Witt, A., Huggins, A., Governatori, G. y Buckley, J. (2024). Encoding legislation: a methodology for enhancing technical validation, legal alignment and interdisciplinarity. Artificial Intelligence and Law, 32, 293-324. https://doi.org/10.1007/s10506-023-09350-1
Financiamiento
Autofinanciado.
Conflicto de intereses
El autor declara no tener conflicto de intereses.
Contribución de autoría
Investigación, redacción y aprobación de la versión final.
Agradecimientos
El autor extiende un agradecimiento a Dennis José Almanza Torres, María Isabel Aguilar y a Kety Ariane Hurtado Acosta por sus observaciones y sus revisiones para la confección del presente manuscrito.
Biografía del autor
Alex David Bedregal Aguilar es estudiante de pregrado de la carrera profesional de Derecho en la Universidad Nacional de San Agustín, ha sido representante del tercio estudiantil ante el Consejo de Facultad durante el período 2021-2023. Adicionalmente, ha participado en actividades académicas en calidad de organizador, tales como «El 38 aniversario de promulgación del Código Civil» y «Reflexiones desde una perspectiva internacional sobre la transversalidad de los derechos humanos».
Correspondencia
Este artículo se encuentra disponible
en acceso abierto bajo la licencia Creative Commons Attribution 4.0 International License