6. ÉTICA
2023
La implementación de Inteligencia Artificial generativa en diferentes ámbitos del sector legal no solo genera oportunidades o desafíos para los profesionales, sino que también plantea profundos dilemas éticos.
Para empezar, se podría pensar que estas herramientas pueden sustituir plenamente la responsabilidad del profesional del Derecho en su labor y en sus deberes deontológicos frente a su cliente, los tribunales y la propia sociedad. Además, esta tecnología puede ser fácilmente confundida con una fuente de información válida y sólida, cuando en realidad no lo es, ya que se trata únicamente de un modelo lingüístico.
Este tipo de interrogantes son algunos de los principales recelos de los profesionales del Derecho respecto a la IA generativa. En concreto, los abogados de despacho sitúan las cuestiones éticas y morales como la tercera preocupación, solo después de la privacidad de los datos y los sesgos algorítmicos. Los in-house, por su parte, lo colocan en la sexta posición.
Las principales preocupaciones de los abogados en torno a la IA generativa se centran centrarse en la privacidad de los datos, el sesgo algorítmico y las cuestiones éticas.
Aunque todavía no existe una regulación que aborde todas estas cuestiones, un futuro marco ético de la Inteligencia Artificial deberá clarificar que esta tecnología no puede ni debe sustituir nunca la responsabilidad de los profesionales, que serán siempre los que responderán en caso de fallo o error.
Asimismo, deberá establecerse una serie de pautas para garantizar la privacidad y la confidencialidad de los datos (una cuestión especialmente relevante en el ámbito de los bufetes) y evitar -o, por lo menos, identificar- respuestas erróneas o ilegales fruto de un algoritmo sesgado.
En lo que respecta a los clientes, las cuestiones éticas también juegan un papel muy relevante. La implementación de esta tecnología en los servicios jurídicos provocará que los clientes demanden más transparencia y responsabilidad a sus proveedores de servicios jurídicos y exigirán que las organizaciones les proporcionen información clara y precisa sobre la utilización de sus procesos de trabajo, costes, resultados y riesgos.
En consecuencia, los profesionales del Derecho que usen este tipo de herramientas deberán informar de ello a los clientes y concretar qué grado de implicación ha tenido esta tecnología sobre su asunto. En la misma línea, esperarán que las firmas se adhieran a altos estándares de ética, calidad y seguridad, pudiendo convertirse estas demandas en requisitos de contratación.
En esta exploración de las ventajas y desafíos, es evidente que la implementación de la IA generativa en el ámbito legal no está exenta de dificultad y debe ser gestionada con cautela. Aunque se trata de un reto complejo, varios países ya han puesto en marcha iniciativas para regular la IA generativa. Un buen ejemplo de ello es la Unión Europea, que desde hace un par de años prepara una normativa cuya prioridad será garantizar que los sistemas de IA utilizados en la UE sean “seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente”, como así lo aseguraba el Parlamento Europeo en una nota difundida en junio de 2023. Asimismo, indicaban que este tipo de herramientas deben ser supervisadas por personas, en lugar de por la automatización, para evitar resultados perjudiciales.
A futuro, hay que destacar dos aspectos. Primero, la necesidad de desarrollar un componente sólido a nivel ético para poder tomar decisiones basadas en datos justos y éticos. Y segundo, la mayor especialización de los profesionales fruto de un nivel de automatización muy elevado.
Francisco Fernández-Daza de FloresSenior Manager - Tax & Legal Technology and Transformation en KPMG
Los abogados que usen IA generativa deberán informar de ello a los clientes y concretar qué grado de implicación ha tenido esta tecnología sobre el resultado de su asunto.
El mayor desafío ético al utilizar la IA generativa en el ámbito jurídico consiste en pensar que sustituye plenamente la responsabilidad del abogado en la labor y deberes deontológicos frente a su cliente, los tribunales, el resto de los compañeros y la propia sociedad.
Santiago MedianoAbogado especializado en Propiedad Intelectual, Robótica, Inteligencia Artificial y Derecho de la Competencia. Socio Fundador y Presidente de Santiago Mediano Abogados
En Estados Unidos, por su parte, el Gobierno ha puesto sobre la mesa un ’Plan para una Carta de Derechos de la IA’ para proteger a las personas de la Inteligencia Artificial, mientras que en China, el Ministerio de Ciencia y Tecnología del país ha publicado su propio código ético con disposiciones similares a las leyes de la robótica de Isaac Asimov en los que prevé que el ser humano mantenga "pleno poder de decisión" sobre la IA.
Aunque la fórmula utilizada en cada caso sea diferente, el objetivo de estas normas es el mismo, ya que todas persiguen garantizar una IA fiable y ética centrada en el ser humano, así como proteger los derechos e intereses de los consumidores.