La Inteligencia Artificial ha irrumpido con fuerza en todos los ámbitos. Y lo ha hecho tan rápidamente que no ha dado tiempo a que los estados y organizaciones cuenten con leyes que garanticen su uso con las debidas garantías.
En nuestro caso, la Unión Europea acaba de aprobar la primera ley sobre Inteligencia Artificial del mundo.
Su intención es establecer un marco jurídico uniforme y común a largo plazo en la Unión Europea de cara al desarrollo, la comercialización y la utilización de la Inteligencia Artificial. Es decir, conseguir una IA segura, fiable y ética es un objetivo primordial europeo, centrado en un enfoque humanista.
Porque, aunque se reconoce ampliamente su decisiva importancia en la economía digital y que su aplicación conlleva múltiples y diversos beneficios, es una tecnología emergente que no está exenta de riesgos, que deben ser identificados y mitigados. Dada la importancia y el vertiginoso protagonismo que está experimentando en la práctica totalidad de sectores, resulta clave su regulación.
Fue en abril de 2021 cuando la UE publicó la primera propuesta de marco regulador.
En abril de 2022 se aprobó un informe de la Comisión Especial en Inteligencia Artificial en la Era Digital.
En junio de 2023 se incorporaron nuevas modificaciones a un borrador que ya enfilaba la recta final.
Las claves de la regulación europea de la IA
La prioridad de la UE es garantizar que los sistemas utilizados sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente, y que salvaguarden los derechos de los ciudadanos frente a esta tipología de tecnología disruptiva.
Y un dato importante: deben ser supervisados por personas.
La ética y el ciudadano son dos de los ejes básicos de una regulación que debe garantizar la seguridad, la transparencia y la responsabilidad para evitar cualquier forma de sesgo y discriminación, así como el respeto de los derechos fundamentales.
La ley se basa en la definición y la clasificación de las aplicaciones que utilicen la IA en función del nivel de riesgo para los/as usuarios/as; es decir, a mayor riesgo, mayor regulación.
Se considera que presentan un alto riesgo aquellos casos en los que la tecnología de IA sea utilizada en infraestructuras críticas que podrían poner en peligro la vida y la salud de los/as ciudadanos/as y en la formación educativa o profesional, que podría determinar el acceso a la educación e influir en la trayectoria profesional de una persona, o en componentes de seguridad de los productos, entre otros supuestos. En tal caso, deben diseñarse de tal modo que permitan en cualquier momento la supervisión humana, así como el cumplimiento de obligaciones estrictas. En el caso de aplicaciones de esta tecnología que pudieran atentar gravemente contra principios éticos o resultar peligrosas, serán prohibidas por conllevar un riesgo inaceptable.
Así, la propuesta establece una lista de prácticas de IA prohibidas, entre ellas la utilización con fines de "puntuación" social a la ciudadanía (es decir, para recopilar datos que registran, controlan y evalúan los comportamientos de una población), la explotación de vulnerabilidades de determinados colectivos o los sistemas de identificación biométrica a distancia en tiempo real en espacios de acceso público (aunque, en este último caso, se prevén excepciones).
En términos generales, los sistemas de IA que puedan afectar negativamente a la seguridad o interferir con los derechos fundamentales de las personas se considerarán de alto riesgo.
Por otra parte, la IA generativa tendrá que cumplir exigentes requisitos de transparencia.
En cualquier caso, la transparencia se antoja esencial, independientemente del nivel de riesgo. Los/as usuarios/as deben ser conscientes siempre de cuándo están interactuando con un sistema de IA, en cualquier soporte o formato, y contar con la opción de decidir si quieren seguir utilizándola, quedándoles claro si se les ofrecen alternativas.
A la hora de llevar a la práctica la IA, la propuesta normativa, llamada “Artificial Intelligence Act (AIA)”, habla de varios modelos de implementaciones y sus requisitos: funcionales (necesitan documentación previa a su publicación, gestión de seguridad y gestión del copyright), altamente capaces (dependiendo de la potencia de cálculo usada para entrenarlos) y propósitos generales (con etiquetados e informe de riesgos).
Esta ley europea no solo habla de los efectos de la IA para los/as ciudadanos/as; también aborda las implicaciones para las empresas, buscando promover la innovación y, al mismo tiempo, aportando seguridad jurídica.
En relación con esto, los derechos de propiedad intelectual son uno de los quebraderos de cabeza pendientes: ¿A quién pertenece la propiedad intelectual de algo que se ha desarrollado íntegramente con IA?
Regulación de la Inteligencia Artificial en EE.UU.
Por su parte, EE.UU. ha adoptado una orden ejecutiva para regular el desarrollo de Inteligencia Artificial dirigida a controlar los posibles excesos y amenazas de esta tecnología.
Además de medidas encaminadas a proteger al/a la consumidor/a, la privacidad y los derechos civiles, en ella se regula de forma explícita su uso en infraestructuras críticas y, especialmente, los riesgos que pueda suponer en áreas como la química, la radiología, el ámbito nuclear o la ciberseguridad.
En cuanto a la IA generativa, obliga al etiquetado con claridad del contenido generado por IA.
El G7 irrumpe en la legislación sobre la IA
En medio de los estudios y propuestas regulatorias europeas y estadounidenses, el G7 ha decidido mover ficha y pronunciarse ante la IA.
El organismo internacional se ha decantado por apoyar el llamado "Proceso de Hiroshima sobre IA", una propuesta de Japón a medio camino entre la restrictiva opinión europea y la más permisiva americana.
Se trata de un código internacional de conducta para los desarrolladores de sistemas de Inteligencia Artificial, que deben tomar las medidas adecuadas para mitigar los riesgos a lo largo de todo el ciclo de vida, con un enfoque basado en el riesgo.
Además, define un marco de gobernanza que apuesta por la seguridad, la protección y la fiabilidad de la IA en todo el mundo. Se fomenta la inversión y la implementación de controles de seguridad y se hace hincapié en la transparencia y en la necesidad de compartir información entre organizaciones, si bien permite que las diversas jurisdicciones puedan adoptar sus propios enfoques para la aplicación de las acciones de la forma que les resulte más adecuada.
Si quieres saber más sobre nuestras soluciones tecnológicas relacionadas con Inteligencia Artificial, suscríbete a nuestro boletín o contacta con tu asesor/a personal o con nuestro equipo del área comercial empresas a través del siguiente formulario. Y para estar al día de las últimas noticias síguenos en LinkedIn.