Blog

Robots de apelación

14 febrero, 2024

En este post hablamos de fronteras tecnológicas, inteligencia artificial, “alucinaciones” y pequeñas maquinitas que redactan solas los recursos…

La última frontera tecnológica

Cada 31 de diciembre el Tribunal Supremo de Estados Unidos publica un informe sobre el desarrollo del curso judicial. Como parte de mi práctica de casación, suelo tomarme la molestia de echarle un vistazo. El informe de 2023 me ha dejado de piedra.

Al margen de las estadísticas habituales, el análisis del presidente de la Sala se ha dedicado única y exclusivamente al impacto de la inteligencia artificial (IA) en los tribunales. El juez Roberts ha adoptado un enfoque neutro ante la nueva tecnología. Simplemente asume que estamos entrando en una nueva fase en la que se van a redefinir las funciones de los abogados y de los jueces. Nos encontramos a las puertas de una revolución tecnológica.

Roberts nos invita a dar con él un paseo por la evolución tecnológica de la comunidad jurídica. Desde la llegada de la electricidad, el uso de las máquinas de escribir, las fotocopiadoras, los ordenadores personales en los años ochenta, los archivos y bases de datos digitales, las plataformas electrónicas o las vistas telemáticas post-Covid.

El presidente del Tribunal Supremo afirma que la búsqueda legal muy pronto será inimaginable sin usar la IA debido a su “gran potencial para incrementar dramáticamente el acceso a información clave”. Pero a la vez advierte que la IA también presenta “riesgos de invasión de privacidad y de deshumanización del Derecho”.

Roberts no se manifiesta ni a favor ni en contra. Para él, la IA es simplemente “la última frontera tecnológica”. Y mientras se aclara el panorama, pide a los abogados “precaución y humildad”.

El juez-sheriff

La llamada de atención del Tribunal Supremo no es casual. Llevamos años hablando sobre los potenciales efectos y riesgos de la IA, pero el último semestre ha sido muy caliente en el sector legal de los Estados Unidos.

La cosa empezó en Texas. No podía ser de otra manera si estamos hablando de territorios fronterizos. Allí, el pasado mes de junio, el juez Brantley Starr tiró por el camino de en medio y exigió a los abogados que actuaban en su tribunal que certificaran que no habían utilizado inteligencia artificial para redactar sus escritos sin una verificación humana posterior.

En una entrevista, este juez con nombre de sheriff advertía a los abogados que no podían confiar a ciegas en la IA y que, en su estado actual, esa tecnología podía provocar “alucinaciones” e “inventarse cosas, incluso citas jurisprudenciales”. (Para quien no lo sepa, las “alucinaciones” son resultados incorrectos o engañosos que generan los modelos de IA).

Los más listos de la clase

Tenía que pasar… Y pasó.

Después de varias amonestaciones y regañinas a abogados por usar alegremente los chatbox, finalmente un juez dio el paso y sancionó a dos abogados de Nueva York por presentar un escrito que incluía seis citas jurisprudenciales ficticias. El juez concluyó que los letrados habían actuado de mala fe y que habían realizado “declaraciones falsas y engañosas al tribunal”. Palabras mayores.

Los abogados Steven Schwartz y Peter LoDuca creían ser más avispados que los demás y recurrieron a ChatGPT para ahorrar tiempo de trabajo. Pero el algoritmo les traicionó y lo que consiguieron fue un correctivo ejemplar y manchar su reputación y la de su firma.

A partir de aquí la cosa se descontroló. Jueces y tribunales de todo el país empezaron a hacer sus propias advertencias y a redactar sus propias exigencias. Prohibido usar IA. Obligación de identificar exactamente la herramienta de IA utilizada. Obligación de certificar cada cita legal.

Dos Cortes de Apelación anunciaron la creación de un comité para estudiar el impacto de la IA en los tribunales: la del Quinto Circuito (Texas, Luisiana y Mississippi) y la del Noveno Circuito (California y resto de la costa este).

Humano, demasiado humano

Los chicos del Sur fueron más rápidos y el Quinto Circuito anunció a finales del año pasado la primera propuesta de reforma procesal para regular el uso de IA. La Corte de Apelación desveló el siguiente redactado:

“Los abogados (…) deben certificar que no han utilizado ningún programa de inteligencia artificial generativa en la redacción del escrito presentado o, en la medida en que se haya utilizado dicho programa, que todo el texto generado, incluidas todas las citas y análisis legales, ha sido revisado y aprobado por un humano para asegurar su exactitud”.

En el trámite de audiencia, los abogados de ese Circuito no desaprovecharon la ocasión para alzar su voz. He leído los comentarios (disponibles aquí) y debo decir que me ha sorprendido la agudeza y mordacidad de nuestros colegas transoceánicos. El tono de las alegaciones al proyecto de reforma va desde la inquietud ante una amenaza fantasma hasta la resignación ante un cambio inevitable o la fe en las bondades que traerá el progreso tecnológico.

Algunos abogados critican la ambigüedad del término “inteligencia artificial”, otros la inseguridad que genera usar softwares o recursos digitales de terceros proveedores sin saber si están basados en IA o no. Varios destacan que la reforma es innecesaria porque las normas procesales vigentes ya obligan a desarrollar una práctica profesional diligente y prohíben el uso de jurisprudencia falsa. Otros tantos critican que la revisión del escrito deba hacerla un “humano”, cuando lo correcto sería que la hiciera un “abogado colegiado”.

Pero mis preferidos han sido los sarcásticos. Un abogado advierte que las sugerencias que aporta a la Corte de Apelación han sido elaboradas por “ChatGPT 3.5.” siguiendo las instrucciones que él ha dado y certifica que él ha revisado el texto final. Y debo decir que el texto resultante ha sido muy bueno.

El abogado Gary Sasso, litigante y presidente de una firma de Tampa, dirige una poderosa crítica contra el uso de la IA. Para él, el riesgo de «alucinaciones» es lo de menos. Para Sasso lo más grave  es que la IA incapaz de realizar una “investigación humana”. Y por «investigación humana» se refiere a lo siguiente:

“saber qué fuentes del Derecho existen, identificar y comprender las diferentes líneas de análisis jurídico, identificar y comprender todas las autoridades y doctrinas que parecen adversas, identificar y comprender todas las autoridades y doctrinas jurídicas que son favorables pero que pueden sugerir diferentes teorías o enfoques superiores a los que figuran en el escrito, conciliar sentencias aparentemente en conflicto para determinar cuál es el sentido real de la doctrina de los tribunales, evaluar cuestiones como el derecho imperativo y la elección de la ley, considerar y aplicar varios cánones de interpretación cuando un asunto puede regirse por ley, incluso concluyendo que una ley o reglamento es aplicable, investigar y comprender la historia legislativa y la costumbre y considerar la evidencia extrínseca, según corresponda al interpretar contratos o leyes, analizando argumentos legales y fácticos presentados por la otra parte y respondiendo a ellos o anticipándolos, identificar y comprender las tendencias jurídicas emergentes y ponderar las cuestiones legales en liza, las cuestiones de política y los matices fácticos para llegar al mejor escrito posible.

Quienquiera que haya desarrollado esta propuesta de reforma normativa simplemente no entiende que la IA generativa no puede pensar. Consideremos las consecuencias profundas de este hecho indiscutible. ¿Realmente queremos que las partes presenten ante los tribunales un escrito redactado por un robot que no puede pensar? Los jueces del Quinto Circuito se basarán en los escritos de las partes para decidir la mejor solución en Derecho y el mejor enfoque para asuntos muy importantes que han llegado hasta el tribunal y para redactar sentencias que no sólo resolverán la disputa entre dos litigantes perezosos, sino que serán vinculantes para terceros”.

La respuesta a un desafío  

En Sueños de robot, Isaac Asimov reflexiona sobre cómo influirán los robots en la vida de la humanidad y qué papel llegarán a desempeñar esos extraños mecanismos creados por el hombre casi a su imagen y semejanza. En una de las narraciones, un doctor en filosofía afirma que “los grupos, como los individuos, se alzan a indecibles alturas en respuesta a un desafío, y se limitan a vegetar cuando éste falta”.

¿Podrán los robots redactar nuestros recursos de apelación?

¿Podrá la IA completar los 25 folios de un recurso de casación? Seguro. Pero ¿sabrá identificar de forma certera el verdadero interés casacional del caso? ¿Sabrá poner la jurisprudencia del Tribunal Supremo en el contexto de las nuevas realidades sociales? ¿Sabrá la IA innovar y proponer una nueva doctrina? Yo tengo mis reservas.

La abogacía se dirige de lleno hacia la última frontera tecnológica. Es el momento de que la profesión se alce y sepa estar a la altura del desafío.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Todas las herramientas del artesano legal ahora a tu alcance.

Suscríbete al newsletter gratuito y comienza a practicar el litigio de autor.

Pablo Franquet © 2017 todos los derechos reservados. Aviso legal.

Jausas Abogados

Diseño web por método10

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies