Legal23 marzo, 2026

La IA generativa en despachos de abogados: privacidad, seguridad y confianza

 Marco Martorana Por el abogado y profesor Marco Martorana

La inteligencia artificial generativa ha irrumpido en el panorama profesional a una velocidad sin precedentes. ChatGPT, Claude, Midjourney y otros modelos extensos de lenguaje (LLM) se han convertido en herramientas cotidianas, incluso en los bufetes de abogados, donde prometen revolucionar la documentación jurídica, la redacción de contratos y el análisis de documentos.

Sin embargo, esta transformación plantea importantes cuestiones, tres de las cuales son especialmente críticas: la protección de los datos personales y el cumplimiento del RGPD, la fiabilidad de los resultados en cuanto a precisión y ausencia de sesgos, y la responsabilidad profesional de los abogados en la era de la inteligencia aumentada.

Sesgos, responsabilidad y normativa

Los sistemas de IA pueden reproducir o amplificar los sesgos existentes, dando lugar a decisiones discriminatorias en el ámbito de la contratación, el acceso a servicios financieros o las evaluaciones médicas. El “AI Act” –la Ley de Inteligencia Artificial de la UE– aborda esta cuestión clasificando los sistemas por nivel de riesgo: los sistemas de alto riesgo deben garantizar documentación técnica, auditorías periódicas, transparencia algorítmica y una supervisión humana significativa. El artículo 5 prohíbe prácticas inaceptables como el “scoring social” y la identificación biométrica en tiempo real en espacios públicos.

La cuestión de la responsabilidad sigue siendo compleja. Cuando un sistema genera contenidos erróneos o perjudiciales, ¿quién es el responsable? ¿El desarrollador, el distribuidor o el usuario final? La Ley de IA introduce un sistema bastante pormenorizado: los proveedores de sistemas de alto riesgo deben adoptar un sistema de gestión de riesgos, garantizar la calidad de los datos y mantener una documentación detallada. Los responsables del despliegue están obligados a utilizar los sistemas de acuerdo con las instrucciones y a garantizar la supervisión humana. Respecto a los abogados, la Guía 2025 del CCBE aclara que el uso de la IA no les exime de sus obligaciones éticas: los abogados siguen siendo plenamente responsables de los contenidos producidos, y las sanciones pueden ser severas, de hasta 35 millones de euros o el 7 % de la facturación global por infracciones de la Ley de IA, además de sanciones disciplinarias y responsabilidad profesional.

Por estas razones, muchos abogados siguen sin confiar en los resultados generados por la IA, y es comprensible. La cuestión no es si confiar o no, sino cómo verificar. El problema es que la verificación lleva tiempo, y si se emplea tanto tiempo en verificar como en hacer el trabajo desde cero, la ventaja de la IA desaparece. Este círculo vicioso sólo puede romperse con una formación adecuada.

Tendencias de IA en despachos jurídicos: situación actual y principales preocupaciones

Nuestro último estudio comparativo revela que el 61 % de los bufetes de pequeño tamaño ya utilizan herramientas de IA, principalmente para llevar a cabo la documentación jurídica y aumentar la eficiencia. Aunque muchas empresas ven ventajas como el aumento de la productividad y la rentabilidad, siguen existiendo retos como la falta de conocimientos, la capacitación y la preocupación por la protección de datos.

Accede al informe completo
Descarga el informe

Las alucinaciones de la IA: cuando la tecnología se inventa la realidad

Otra cuestión crítica son las “alucinaciones”, esto es, la tendencia de los sistemas de IA a generar información falsa presentada como si fuera cierta. En el caso Mata contra Avianca, un abogado citó precedentes inexistentes generados por ChatGPT, y el bufete Morgan & Morgan citó casos falsos. Este fenómeno, por supuesto, también ha llegado a Italia, donde el Tribunal Administrativo Regional de Lombardía ha iniciado un procedimiento contra un abogado que utilizó abundante material jurisprudencial totalmente irrelevante para el caso.

Las causas de estas alucinaciones son técnicas y estructurales. Los modelos de lenguaje se basan en arquitecturas probabilísticas que predicen la siguiente palabra más probable sin tener una comprensión semántica de la realidad. Si los datos de entrenamiento contienen errores o sesgos, el modelo los propagará. Además, los sistemas están diseñados para ofrecer siempre un resultado coherente: si carecen de cierta información, en lugar de admitir su ignorancia, se inclinan por adivinar.

Protección de datos: el RGPD y la Ley de IA

La primera cuestión crítica tiene que ver con la protección de los datos personales. Cuando un abogado introduce información sobre un caso en un chatbot público como ChatGPT, ¿qué ocurre con esos datos? Muchos proveedores utilizan las interacciones de los usuarios para entrenar sus modelos, lo que significa que determinada información confidencial podría ser aprendida por el sistema y resurgir en respuesta a las consultas de otros usuarios, violando tanto el secreto profesional como el RGPD.

El marco normativo se basa en tres pilares que deben funcionar de forma armónica. El RGPD sigue siendo la base de la protección de datos, con sus principios de legalidad, minimización, transparencia y responsabilidad. La Ley de IA de la UE introduce una clasificación de los sistemas por nivel de riesgo y, desde el 2 de agosto de 2025, exige a los proveedores de modelos generativos que documenten detalladamente la arquitectura, los datos de entrenamiento y los mecanismos para limitar los contenidos ilegales.

Conclusión

El futuro de la abogacía será inevitablemente híbrido: la inteligencia artificial es insuperable a la hora de analizar grandes volúmenes de datos, identificar patrones, generar borradores estandarizados y facilitar la documentación jurídica. Pero el discernimiento profesional, la empatía hacia el cliente, la evaluación del contexto específico, la estrategia del litigio y la responsabilidad última seguirán siendo prerrogativas humanas insustituibles. Como reitera el CCBE en su Guía 2025, la IA es una herramienta poderosa, pero la responsabilidad profesional recae y recaerá siempre, y exclusivamente, en el abogado. Los despachos que gestionen esta transición invirtiendo en formación continua, un sistema de compliance riguroso y un control de calidad sistemático no solo evitarán riesgos jurídicos y reputacionales, sino que se posicionarán como líderes en un sector jurídico cada vez más competitivo y tecnológicamente avanzado. Desgraciadamente, los datos de la American Bar Association muestran que el 52 % de los despachos aún carecen de políticas de IA, el 64 % de los abogados no han recibido formación y sólo una minoría verifica sistemáticamente los resultados.

El reto es más cultural que tecnológico: es necesario un cambio de mentalidad para integrar las competencias jurídicas tradicionales con la alfabetización digital y una comprensión crítica de las tecnologías emergentes. La elección es nuestra: soportar pasivamente el cambio o dirigirlo con conciencia profesional.

Descubre Kleos Expert AI: la IA al servicio de los juristas
icon La IA especializada de Kleos está desarrollada para que los despachos jurídicos puedan trabajar de forma más inteligente y rápida sin comprometer la seguridad, la confianza y el cumplimiento.
Back To Top