Por el abogado y profesor Marco Martorana
La inteligencia artificial generativa ha irrumpido en el panorama profesional a una velocidad sin precedentes. ChatGPT, Claude, Midjourney y otros modelos extensos de lenguaje (LLM) se han convertido en herramientas cotidianas, incluso en los bufetes de abogados, donde prometen revolucionar la documentación jurídica, la redacción de contratos y el análisis de documentos.
Sin embargo, esta transformación plantea importantes cuestiones, tres de las cuales son especialmente críticas: la protección de los datos personales y el cumplimiento del RGPD, la fiabilidad de los resultados en cuanto a precisión y ausencia de sesgos, y la responsabilidad profesional de los abogados en la era de la inteligencia aumentada.
Sesgos, responsabilidad y normativa
Los sistemas de IA pueden reproducir o amplificar los sesgos existentes, dando lugar a decisiones discriminatorias en el ámbito de la contratación, el acceso a servicios financieros o las evaluaciones médicas. El “AI Act” –la Ley de Inteligencia Artificial de la UE– aborda esta cuestión clasificando los sistemas por nivel de riesgo: los sistemas de alto riesgo deben garantizar documentación técnica, auditorías periódicas, transparencia algorítmica y una supervisión humana significativa. El artículo 5 prohíbe prácticas inaceptables como el “scoring social” y la identificación biométrica en tiempo real en espacios públicos.
La cuestión de la responsabilidad sigue siendo compleja. Cuando un sistema genera contenidos erróneos o perjudiciales, ¿quién es el responsable? ¿El desarrollador, el distribuidor o el usuario final? La Ley de IA introduce un sistema bastante pormenorizado: los proveedores de sistemas de alto riesgo deben adoptar un sistema de gestión de riesgos, garantizar la calidad de los datos y mantener una documentación detallada. Los responsables del despliegue están obligados a utilizar los sistemas de acuerdo con las instrucciones y a garantizar la supervisión humana. Respecto a los abogados, la Guía 2025 del CCBE aclara que el uso de la IA no les exime de sus obligaciones éticas: los abogados siguen siendo plenamente responsables de los contenidos producidos, y las sanciones pueden ser severas, de hasta 35 millones de euros o el 7 % de la facturación global por infracciones de la Ley de IA, además de sanciones disciplinarias y responsabilidad profesional.
Por estas razones, muchos abogados siguen sin confiar en los resultados generados por la IA, y es comprensible. La cuestión no es si confiar o no, sino cómo verificar. El problema es que la verificación lleva tiempo, y si se emplea tanto tiempo en verificar como en hacer el trabajo desde cero, la ventaja de la IA desaparece. Este círculo vicioso sólo puede romperse con una formación adecuada.
Tendencias de IA en despachos jurídicos: situación actual y principales preocupaciones
Nuestro último estudio comparativo revela que el 61 % de los bufetes de pequeño tamaño ya utilizan herramientas de IA, principalmente para llevar a cabo la documentación jurídica y aumentar la eficiencia. Aunque muchas empresas ven ventajas como el aumento de la productividad y la rentabilidad, siguen existiendo retos como la falta de conocimientos, la capacitación y la preocupación por la protección de datos.