Se adjunta al final de estas líneas la circular emitida por el Consejo General de la Abogacía Española que regula la elaboración, la firma y la entrega de escritos jurídicos generados con asistencia de inteligencia artificial (IA) generativa.
En la circular se explica que los errores producidos por sistemas de IA pueden generar responsabilidad profesional “por falta de verificación y control” y subraya que la IA es una herramienta auxiliar y no un sustituto del abogado: “La IA dista mucho de carecer de riesgos y, por tanto, no debe operar como un sustituto del profesional de la abogacía, sino como una función auxiliar, sujeta además a supervisión humana”, señala el documento.
“El uso de sistemas de IA generativa, como los modelos de lenguaje de gran escala, para la elaboración de borradores o textos jurídicos constituye una práctica lícita y admisible. No obstante – insisten desde el Consejo-, resulta incompatible con las exigencias deontológicas de la profesión la delegación acrítica y/o sustitutiva de las tareas que corresponden a las funciones esenciales del ejercicio profesional, en la medida en que ello implica una abdicación del principio de diligencia y/o independencia profesional, con errores o sin ellos. La falta de verificación humana puede, además, derivar en una indefensión material del cliente y en un menoscabo del correcto funcionamiento de la Administración de Justicia”.
Entre las recomendaciones del documento, Abogacía Española aconseja que los abogados conozcan a fondo las herramientas de IA, no utilicen resultados sin revisión completa y contrasten siempre con fuentes jurídicas fiables.
Asimismo, en la circular se enfatiza la importancia de la trazabilidad: documentar cuándo y para qué se ha usado la IA permite justificar decisiones y responsabilidades.
La necesidad de esta circular responde, según se dice en el propio documento, “a la aparición de un riesgo profesional novedoso y distinto cualitativamente, que no puede abordarse con los esquemas tradicionales de responsabilidad (…)”.