Las profesiones liberales se distinguen por la naturaleza intelectual de sus actividades, sustentadas en las habilidades, competencias y conocimientos adquiridos a través de unas cualificaciones y una experiencia específicas. De entre todas las profesiones, serán las que probablemente se verán expuestas antes y en mayor medida a los avances de los sistemas de Inteligencia Artificial (IA). Una mayor dependencia de la IA, primero para descubrir este mundo aún desconocido y luego para beneficiarse del supuesto aumento de la productividad, lo que significa para las profesiones liberales comprometerse a un uso de la IA a gran escala en un momento en el que su regulación en la Unión Europea se está haciendo realidad con el recientemente adoptado Reglamento (UE) 2024/1689, de 13 de junio de 2024, por el que se establecen normas armonizadas sobre inteligencia artificial («Ley de IA»).
Tras examinar la posición de las profesiones liberales en virtud de este Reglamento en este artículo analizaremos los principales retos jurídicos y éticos que hay que tener en cuenta antes de abordar los requisitos específicos de las obligaciones de la Evaluación de Impacto en los Derechos Fundamentales (EIDF) y señalar las ventajas de la evaluación de impacto voluntaria. Las conclusiones finales abrirán la puerta a un debate más amplio.
LAS PROFESIONES LIBERALES EN EL MARCO DE LA IA
Con la Ley de Inteligencia Artificial, la Unión Europea ha adoptado la primera legislación que regula los usos de la IA. Con un enfoque basado en el riesgo, clasifica los sistemas de IA en cuatro niveles de riesgo, prohibiendo los riesgos inaceptables e imponiendo obligaciones estrictas a los sistemas de alto riesgo.
En el caso de las profesiones liberales, la cuestión clave es que no son meros desarrolladores, sino implementadores, es decir, son usuarios de sistemas de IA en su actividad profesional. Por ello, deben garantizar que los sistemas de IA que utilicen cumplan con las obligaciones de transparencia, documentación y supervisión humana.
En la práctica, evaluar el nivel de riesgo de un sistema de IA es difícil, sobre todo porque la mayoría de los sistemas no se han diseñado teniendo en cuenta los objetivos de derechos fundamentales de la Ley de IA. A diferencia del Reglamento General de Protección de Datos (RGPD), no existe un equivalente al delegado de protección de datos que oriente a los implementadores. El «responsable de cumplimiento de la IA» es probablemente una figura olvidada por esta Ley. Por lo tanto, las profesiones liberales se ven obligadas a navegar en gran medida por su cuenta a través de este complejo entorno de cumplimiento.
PRINCIPALES RETOS JURÍDICOS Y ÉTICOS
En la intersección entre la regulación de la IA y la ética profesional surgen varios retos fundamentales.
En primer lugar, las profesiones liberales se caracterizan por un mayor grado de secreto profesional. Aunque la Ley de IA protege los secretos comerciales, no aborda el reto de dicha protección, que va más allá de los ya famosos requisitos de protección de datos personales establecidos por el RGPD.
En segundo lugar, a diferencia del RGPD, la Ley de IA no afirma explícitamente el derecho a la intervención humana, esto es, la salvaguardia que garantiza que sea un profesional, y no una máquina, quien asuma la responsabilidad última de las decisiones que afectan a la vida o los derechos de las personas. Sin embargo, las profesiones liberales se enfrentan a estas expectativas por parte de sus propios clientes/pacientes. Por lo tanto, en nuestra opinión, el diseño de los sistemas de IA debe abordar este reto cuando se destinan a ser utilizados por las profesiones liberales.
En tercer lugar, el hecho de que hasta ahora no se haya adoptado la Directiva sobre responsabilidad en materia de IA, destinada a aclarar quién es responsable cuando la IA cause daños, deja zonas grises en cuanto a la asignación de la responsabilidad, el acceso a las pruebas y las defensas que deben alegarse en caso de litigio. Los medios de comunicación ya han cubierto numerosos casos de profesiones liberales declaradas culpables por un uso indebido de la IA en el ejercicio de su actividad profesional.
En cuarto lugar, la Ley de IA no aborda cómo los códigos deontológicos profesionales pueden complementar el cumplimiento de la legislación. Hasta ahora, la aplicación de la Ley de IA ha ignorado este aspecto específico del cumplimiento normativo.
Por último, las obligaciones de transparencia, como las del artículo 50 de la Ley de IA, pueden revelar inadvertidamente el grado de automatización de las tareas profesionales. Los clientes pueden percibir los servicios asistidos por IA como menos humanos —y, por lo tanto, menos fiables— a menos que se gestione cuidadosamente la comunicación.
UNA NUEVA HERRAMIENTA DE RENDICIÓN DE CUENTAS
El artículo 27 de la Ley de IA introduce la obligación de realizar una Evaluación de Impacto en los Derechos Fundamentales EIPD (FRIA, en sus siglas en inglés) para los implementadores de IA de alto riesgo, tanto organismos públicos como proveedores privados de servicios públicos, una categoría que puede incluir determinadas profesiones liberales.
En la práctica, la EIPD está estrechamente relacionada con la evaluación de impacto relativa a la protección de datos del RGPD. Ambas comparten el mismo espíritu: anticipar los riesgos antes de que se materialicen. Sin embargo, una EIPD no es una formalidad; debe interpretarse como una lista de preguntas que conducen a una reflexión genuina, no como un ejercicio de marcar casillas.
Las profesiones liberales deberán interpretar la EIPD a la luz de sus deberes de independencia, confidencialidad y servicio al interés público. Las primeras obligaciones vinculantes se aplicarán a partir del 2 de agosto de 2026, lo que deja poco tiempo a las organizaciones profesionales para preparar directrices y plantillas.
UN MARCO VOLUNTARIO PARA EL USO RESPONSABLE DE LA IA
Para llenar este vacío, he concebido un enfoque complementario hecho a medida para las profesiones liberales: el método IA-EVIPL (Evaluación voluntaria del impacto de la IA para las profesiones liberales – AI-VIALP – Voluntary AI Impact Assessment for Liberal Professions). Inspirada en la lógica de la DPIA, esta evaluación voluntaria ayuda a los profesionales a gestionar los riesgos legales, éticos y de reputación relacionados con la IA (para más detalles, véase ai4lp.com).
El IA-EVIPL se desarrolla en siete pasos: definición del contexto y mapeo de riesgos; identificación de las partes interesadas y del impacto, determinando quiénes podrían verse afectados; revisión del marco legal y ético; evaluación del impacto y diseño de medidas de mitigación para evaluar los riesgos potenciales y proponer salvaguardias coherentes con los valores profesionales; toma de decisiones y validación; conservación de la documentación y retención de datos y, por último, revisión y mejora continua.
Este método no se trata de burocracia de cumplimiento. Se trata de recuperar el control sobre la responsabilidad profesional en la era de la automatización, garantizando que las profesiones liberales sigan siendo un ejemplo vivo de inteligencia humana mejorada, pero no sustituida, por las máquinas.
UNA MIRADA HACIA EL FUTURO
Para las profesiones liberales, la cuestión no es si utilizar la IA, sino cómo utilizarla. La Ley de IA establece el marco jurídico, pero los organismos profesionales y los profesionales individuales darán forma a la aplicación de ese marco preservando el espíritu profesional. El cumplimiento, incluido el voluntario y anticipatorio, no debe considerarse una formalidad o una barrera competitiva con el resto del mundo, sino una oportunidad para mantener la IA al servicio de la inteligencia humana, con las profesiones liberales reforzando sus valores fundamentales.