Justicia Con Inteligencia Artificial: ¿Una ilusión o una realidad?

Justicia Con Inteligencia Artificial: ¿Una ilusión o una realidad?

Artículo

Justicia Con Inteligencia Artificial: Una ilusión o una realidad?

Autor: Radu Gabriel Sarbu Tema: Inteligencia Artificial y Justicia

Con el crecimiento imparable de las nuevas tecnologías y las conocidas inteligencias artificiales la sociedad se divide en dos partes: La que apoya este avance veloz de la inteligencia artificial (IA) o la que se manifiesta en contra al suponer un grave peligro para nosotros. Los modelos más recientes de Inteligencia Artificial son capaces de redactar escritos, resolver consultas y generar miles de líneas y textos en apenas unos segundos. Con todo esto resulta habitual preguntarse una cuestión fundamental: ¿Sustituirá la Inteligencia Artificial nuestros trabajos?

Ciertamente la Inteligencia Artificial es un modelo de lenguaje avanzado que, como ya expusimos anteriormente, es capaz de generar miles de líneas de texto en unos breves instantes. Fue una simple cuestión de tiempo hasta que las personas empezaran a utilizarlo para fines lucrativos, para realizar su trabajo de manera más efectiva y más rápida. El ámbito de la justicia no queda exento de recibir el mismo tratamiento. Existen muchas inteligencias artificiales dedicadas exclusivamente al ámbito de la justicia que en muchas ocasiones se complementan con otros modelos de lenguaje más avanzados que son capaces de redactar escritos de forma muy profesional sin que apenas parezca que se hizo uso de los mismos.

Inteligencia Artificial: ¿Sustituye el criterio humano?

La avalancha de publicaciones en redes sociales hechas con estos sistemas es más que una realidad. Al realizar un trabajo que habitualmente requiere más tiempo en unos instantes quedamos con la impresión de que es una herramienta rápida, eficaz y nos resta más de la mitad del trabajo. Ahora podemos redactar escritos, demandas, contestaciones enteras con estas herramientas y no supone ni una cuarta parte del esfuerzo que suponía en su día. O mínimamente eso parece. Si volvemos al choque de opiniones sobre esta nueva tecnología, una de sus principales críticas es el peligro que representa para muchos puestos de trabajo y supondría un total reemplazo del criterio humano. Es tan fácil como mandar unas sencillas instrucciones a uno de estos modelos y esperar a que haga el resto del trabajo con una capacidad mayor para ver detalles que a veces a nosotros se nos escapan. Parece que ya no hay vuelta atrás y vamos de camino directo hacia una nueva era donde la justicia y las grandes decisiones serán tomadas por estas inteligencias artificiales que son mejores que nosotros. Pero esto no puede estar más alejado de la realidad

La Inteligencia Artificial: Más artificial que inteligente.

Este constante avance de las IAs se recibe con mucho optimismo sobre las tareas que podrá realizar y cómo mejorará para que cada día parezca más humano y responda de manera más eficaz. Pero lo que casi nadie entiende es que este sistema se fundamenta en datos, no en lógica y no en ‘sentido común’ (y a veces, hasta los datos son erróneos). Estos modelos interpretan literalmente las instrucciones que se les manda, limitándose a responder a la solicitud que sea únicamente en los datos proporcionados, sin pensar más allá como resultaría lógico hacer en una interacción humana normal. En el caso de la justicia, la interpretación extensiva (aquélla que atribuye a la norma interpretada un alcance más amplio del que resulta prima facie de las palabras empleadas) sería casi inexistente con esta base, pues los modelos se limitan a interpretar el texto que hay sin más, dando resultado a errores que pueden ser graves. En el ámbito penal, por ejemplo, no se pueden admitir semejantes errores. Cuando está en juego la libertad de una persona es necesario que se instruya por alguien preparado, con criterio y buen conocimiento del ordenamiento jurídico. Esto hace que el modelo sea más bien artificial que inteligente, basándose únicamente en datos que hay disponibles y sin extenderse más allá. No trabaja con criterio, solo con datos y en base a una interpretación predeterminada.

La ilusión de rapidez: Datos erróneos, constantes ‘fact-checks’ y jurisprudencia desactualizada.

Con todos sus fallos, una cosa es cierta: Los modelos de lenguaje son muy rápidos. Cualquier solicitud que se le haga, las IAs te la responden en unos cuantos segundos. Pero esto no es más que una ilusión. No fue un único caso cuando nuestros clientes nos comunicaron convencidos de que una determinada materia/sector funcionaba de X manera argumentado que ‘así lo dijo ChatGPT’. Tampoco fueron pocos los casos de abogados que usaron estas nuevas tecnologías para redactar demandas, recursos y escritos enteros (y el resultado no fue favorable). No se trata únicamente del razonamiento que tuvo un modelo en concreto. Se trata también de que todas las sentencias y leyes que se especificaron en cada escrito fueron totalmente erróneos. No es un caso aislado y tampoco una falta de actualización: Las Inteligencias Artificiales necesitan un constante ‘fact-check’ (comprobación si la información es correcta) para confirmar que la información proporcionada es correcta y esto al final se traduce en tiempo perdido. No es un invento. Existen casos reales de abogados que han utilizado estas herramientas sin ningún tipo de filtro y fueron sancionados por mala fe procesal.

Ejemplos de uso erróneo de la Inteligencia Artificial:

PRIMER CASO:
El Auto TSJN nº. 2/2024, de fecha 4 de septiembre de 2024 (Rec. Núm. 17/2024)

En una querella presentada por un abogado en Navarra ante el TSJN se citó el artículo 454. b) del Código Penal sobre un delito de destrucción, ocultamiento o alteración de pruebas. No obstante, este artículo resulta formar parte del Código Penal de Colombia, calificando el Tribunal este error que no ha de pasar desapercibido a ningún profesional del derecho. Como consecuencia, se abrió un expediente para analizar si existió mala fe procesal. Más adelante, el letrado admitió el uso del servicio de IA conocido como ChatGPT-3 para la redacción de dicha querella y presentó un escrito ante el Tribunal calificando su propio error como ‘material grosero e involuntario’.

CASO RECIENTE :
Mediante AUTO el 10 de febrero de 2026 del TSJ de Las Palmas de Gran Canaria se impone una multa de 420 euros a un letrado por ‘mala fe procesal’ fundamentado en el uso sin filtro de la Inteligencia Artificial. El Tribunal manifiesta que ‘’de las 52 citas que contiene el recurso solo son correctas y veraces 4, y estas porque reproducen otras tantas que consigna la sentencia recurrida. Las restantes, así como el informe que se atribuye al Consejo General del Poder Judicial, han sido generadas mediante «una herramienta de inteligencia generativa con suscripción de pago», son fruto de lo que se ha dado en denominar «alucinaciones» de la inteligencia artificial y fueron incorporadas al escrito sin ser revisadas ni verificadas por el letrado que lo firmó.’’

El presente caso se reduce a una negligencia del abogado condenado. El investigado contrató una suscripción para una Inteligencia Artificial habitual (no dedicada al ámbito jurídico) con la que realizó un recurso de apelación contra un fallo de la Audiencia Provincial de Santa Cruz de Tenerife. Mediante la misma se citaron hasta 48 sentencias que carecían de veracidad completamente, manifestando la Sala que no sometió el letrado a ningún proceso de verificación de lo redactado, constituyendo ‘’una quiebra del deber básico de supervisión humana que, como se ha expuesto, resulta indeclinable cuando se emplean herramientas de IA en el ejercicio profesional y vulnera el estándar de diligencia que (…) el Código Deontológico exige al profesional de la abogacía”.

Con la constante comprobación y la modificación de los conocidos ‘prompts’ (instrucciones que se le manda al modelo) para que te genere un texto corregido y correcto (y en muchos casos te resuelve un error y te comete otro) el tiempo perdido puede ser incluso mayor que si realizaras un escrito por tu cuenta. Lo que engaña es la rapidez con la que te genera el texto, dejando la impresión de que aun con esto realizas el trabajo de manera más eficiente. De todas las pruebas que hicimos, constatamos que en el 90% de los casos la jurisprudencia, las leyes y la información legal que te comunica una Inteligencia Artificial (dependiendo del caso) son erróneas. No es necesario únicamente que tengas toda la información posible, también es importante que tengas experiencia, que sepas cómo opera cada sistema y qué camino coger. La teoría sin la práctica es estéril.

Cuanto más delicado sea tu trabajo, menos se utilizará la Inteligencia Artificial

Es una realidad. Tras las conclusiones que hemos ido sacando a lo largo de este artículo, queda claro que, si tienes una profesión delicada, o en nuestro caso, perteneces al sector de la justicia, estas herramientas no son más que un obstáculo en ocasiones antes que una ventaja. La justicia se basa en tener criterio, interpretación, en saber lo que dices, lo que haces, en conocer las leyes y en tener experiencia, aspectos fundamentales que no tienen ni ChatGPT ni Gemini ni Grok. Por eso en Credis Abogados seguimos firmes en nuestros trabajos para ofrecer un asesoramiento actualizado, transparente, cercano y profesional. Porque sabemos lo que decimos. Porque sabemos lo que hacemos.

Asesoramiento profesional

Contacta con nuestro despacho.

Vía telefónica, correo o formulario: te indicamos con claridad los pasos a seguir y la estrategia más adecuada.

Cuando tienes una situacion delicada, necesitas a un profesional que sabe lo que hace. En Credis Abogados, somos tu despacho de confianza.