Inteligencia artificial (IA) está transformando radicalmente la forma en que vivimos y trabajamos, y plantea numerosos retos jurídicos, sociales y éticos que deben considerarse al diseñar la normativa que regula su uso. En el núcleo de la IA se encuentra el procesamiento de grandes volúmenes de datos a través de técnicas como el deep learning y el uso de redes neuronales que imitan nuestras capacidades cognitivas.
La Comisión Europea, consciente de las oportunidades y amenazas que plantea esta tecnología, presentó en 2018 la Estrategia Europea para la IA. Esta estrategia tiene como objetivo promover una tecnología de confianza en Europa y abordar los riesgos inherentes, como la opacidad en la toma de decisiones, la discriminación de género, la intromisión en nuestras vidas privadas y su uso con fines delictivos.
En este marco, el Parlamento Europeo aprobó en marzo de 2024 el texto de la primera norma mundial integral en la materia: el Reglamento IA. Esta norma se aplica directamente en los estados miembros de la Unión Europea (UE) y más allá de sus fronteras.
El Reglamento IA regula la entrada en el mercado y el uso de soluciones de IA que atentan contra los derechos fundamentales y valores de la UE. Prohíbe soluciones que permitan manipular el comportamiento de personas o grupos vulnerables, como juguetes activados por voz que fomentan comportamientos peligrosos en los niños, y sistemas de puntuación social que clasifican a las personas en función de su comportamiento, estatus socioeconómico o características personales.
También prohíbe el uso de sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial, que podrían violar la privacidad y los derechos fundamentales de las personas.
El Reglamento IA también impone obligaciones a los fabricantes, distribuidores, importadores y responsables del despliegue de sistemas de IA que podrían suponer un riesgo para los ciudadanos europeos. Estos operadores deben cumplir con los requisitos y medidas que ayudarán a mitigar estos riesgos de manera controlada.
Un ejemplo de un sistema de alto riesgo es aquel utilizado para los procesos de selección de personal. Con el objetivo de evitar la reproducción de sesgos humanos por parte de los algoritmos de selección, se exige que exista supervisión humana (man in the loop).
Herramientas de IA de riesgo mínimo, como los chatbots y las ultrafalsificaciones (deep fakes), también están reguladas. Se les exige, entre otras cosas, cumplir con unos requisitos mínimos en materia de transparencia.
El Reglamento IA busca preservar el liderazgo tecnológico de la UE y garantizar que los europeos puedan confiar en una IA respetuosa de los valores, los derechos fundamentales y los principios de la UE.
Sin embargo, junto con el Reglamento IA, será necesario revisar otras normas que deberán adaptarse a los nuevos escenarios que plantea la IA. Un ejemplo de esto es la normativa sobre responsabilidad por los daños causados por productos defectuosos, en cuya revisión la Unión Europea ya está trabajando.
La propiedad intelectual también plantea desafíos jurídicos significativos. La infracción de derechos puede ocurrir cuando los algoritmos de IA extraen y minan grandes cantidades de datos sin el consentimiento del titular de los mismos o cuando no se puede amparar en alguna excepción legal. Además, la autoría de los resultados producidos por una máquina o un algoritmo es un tema de debate en países como el Reino Unido y EE. UU.
Finalmente, el Reglamento IA establece límites sobre el uso de la IA en la Unión, pone barreras infranqueables cuando los usos son contrarios a la democracia y al sistema de valores de la UE, y exige controles a los fabricantes y usuarios de herramientas de IA que pueden suponer riesgos para la salud y los derechos fundamentales de los europeos.
La velocidad a la que evolucionan estos sistemas, plantea el riesgo de que el Reglamento IA pueda quedar obsoleto en un corto espacio de tiempo. Sin embargo, el objetivo es continuar modernizando el sistema normativo en función de las nuevas realidades, operativas y riesgos que la IA nos va a plantear.