Estados Unidos implementa la Certificación Obligatoria sobre IA generativa

El avance de la inteligencia artificial generativa y la utilización del ChatGPT por parte de abogados estadounidenses en la elaboración de documentos legales ha generado repercusión en la justicia.

 

Tal es así, que el Tribunal del Distrito Norte de Texas (Estados Unidos), a cargo del juez Brantley Starr, publicó una orden permanente para los abogados que litiguen en su jurisdicción donde certifiquen mediante un formulario obligatorio denominado ‘‘Mandatory Certification Regarding Generative Artificial Intelligence’’ que no han utilizado inteligencia artificial en el proceso de redacción de los documentos y escritos legales que sean presentados ante la justicia.

 

Principales aspectos de la Certificación Obligatoria sobre IA generativa.

 

Esta iniciativa, establece que todos los abogados que comparezcan ante el Tribunal deberán presentar en el expediente el formulario debidamente firmado por el profesional en el que acredite que ninguna parte de la presentación ha sido redactada por inteligencia artificial generativa (como ChatGPT, Harvey.AI, o Google Bard) o que cualquier lenguaje redactado por inteligencia artificial generativa ha sido verificado por un ser humano en cuanto a su exactitud, utilizando reporteros impresos o bases de datos jurídicas tradicionales.

 

El fundamento principal de la medida radica en que la inteligencia artificial generativa no es considerada adecuada para redactar escritos jurídicos debido a dos razones. En primer lugar, sostienen que la misma tiene una propensión a inventarse cosas, incluso citas judiciales y, por otra parte, que no es adecuada ya que existe la posibilidad que incorpore algún tipo de sesgo desconocido o imprevisto.

 

Asimismo, en continuidad a sus argumentos, el juez Starr citó: "En tanto que los abogados han jurado dejar a un lado sus prejuicios, predisposiciones y creencias personales para defender fielmente la ley y representar a sus clientes, la inteligencia artificial generativa es el producto de una programación ideada por seres humanos que no tuvieron que prestar tal juramento". 

 

Se determinó, en consecuencia, que serán anuladas todas las presentaciones en las que no se haya presentado el certificado en el expediente, donde manifieste que leyó los requisitos del tribunal y que tendrá responsabilidad por el contenido presentado.

 

Jurisprudencia inventada por ChatGPT - ‘‘Roberto Mata vs. Avianca Airlines’’

 

Recientemente -como antecedente a esta medida- el abogado Steven Schwartz de la firma de Nueva York ‘‘Levidow, Levidow & Oberman’’, fue contratado por Robert Mata para presentar una demanda por lesiones contra Avianca Airlines.

 

En su demanda, el letrado utilizó el ChatGPT para redactar los argumentos contra la compañía aérea, fundamentando los mismos en jurisprudencia inventada por la inteligencia artificial de ChatGPT, entre las que incluía: ‘’Varghese v. China South Airlines, Martinez v. Delta Airlines, Shaboon v. EgyptAir, Petersen v. Iran Air, Miller v. United Airlines, and Estate of Durden v. KLM Royal Dutch Airlines’’.

 

Si bien Schwartz explicó que jamás había utilizado previamente esta herramienta y que no creyó que la misma pudiese dar información falsa, lo cierto es que, la jurisprudencia a la que se hacía referencia en las presentaciones no existía, y hubo un caso en el que el número de expediente de una presentación se confundió con el de otra presentación judicial.

 

El desenlace de este caso resultó en un acontecimiento sin precedentes en el sistema legal de Estados Unidos, donde Schwartz fue sancionado con una multa de 5.000 dólares por presentar investigaciones legales ficticias respaldadas por ChatGPT.

 

Conclusiones

 

La decisión por parte del abogado en confiar en el ChatGPT para la búsqueda de jurisprudencia pone de manifiesto la necesidad de los abogados, incluso aquellos más experimentados, sean conscientes de las implicaciones éticas y legales al utilizar herramientas que pueden crear documentos legales con información inexacta o falsa, ya que la falta de comprensión de las capacidades y limitaciones de la inteligencia artificial puede llevar a errores costosos y, como en este caso, a consecuencias legales negativas.

 

Es importante destacar que casos como este, nos muestran el gran valor de la supervisión rigurosa por parte del profesional en el uso de la inteligencia artificial ya que la tecnología puede ser una herramienta muy poderosa para agilizar el trabajo legal, pero no puede reemplazar la supervisión humana. 

 

 

Alfaro Abogados
Ver Perfil

Opinión

El nuevo art. 245 bis de la LCT y la reedición de viejos errores del pasado
Por Lucas J. Battiston
PASBBA
detrás del traje
Diego Palacio
De PALACIO & ASOCIADOS
Nos apoyan