La IA ha sido tema de conversación en la ciudad durante más de un año, con herramientas comoChatGPT,Google BardyMicrosoft Copilotque amenazan con alterar gran parte de la sociedad digital tal como la conocemos. Con esos grandes riesgos y el potencial dedeepfakes, contenido generado automáticamente y más, la Unión Europea considera que es necesaria una legislación sobre IA para salvaguardar su desarrollo sin perjudicar a los usuarios. Esta legislación se presentó por primera vez hace tres años, donde tenía como objetivo establecer un estándar global para la tecnología.
El 2 de febrero de 2024, los estados miembros de la UEaprobaron una legislacióndestinada afomentar el desarrollo seguro de la inteligencia artificial(IA), con el foco puesto en mitigar los "riesgos inaceptables" asociados a las tecnologías de IA. Esta legislación enfrentó oposición, en particular por parte de Francia, sede de Mistral AI,una empresa que se perfila como un rival formidable para OpenAI. La resistencia de Francia se atribuye a las preocupaciones por mantener la competitividad en el sector de la IA. De manera similar, Alemania e Italia expresaron reservas sobre la legislación y abogaron en cambio por "códigos de conducta voluntarios" para mejorar la alfabetización en IA entre las personas involucradas en el desarrollo, el funcionamiento y la aplicación de la IA. Este enfoque sugiere una preferencia por directrices más flexibles en lugar de regulaciones estrictas en ciertas áreas.
Todos los países que inicialmente se opusieron a la legislación ahora han dado su consentimiento, tras negociaciones y compromisos. Francia, por ejemplo, retiró sus objeciones después de recibir garantías de que la legislación equilibraría la transparencia con la protección de los secretos comerciales, lo que beneficiaría a empresas como Mistral AI y Aleph Alpha en Alemania. Este ajuste permite a estas empresas competir de manera efectiva, como la competencia de Mistral AI con OpenAI, sin obstáculos regulatorios significativos por parte de las autoridades europeas.
Usos prohibidos de la inteligencia artificial en la UE
Estas son todas las cosas que la IA no podrá hacer en la UE
Hay muy pocas cosas que la Unión Europea prohíba rotundamente en materia de inteligencia artificial, y se refieren principalmente a las grandes corporaciones y autoridades, más que a los usuarios privados individuales. La UE afirma que su objetivo es garantizar un uso ético y proteger a las personas de daños. Prohíbe los sistemas de inteligencia artificial que utilizan técnicas subliminales para alterar el comportamiento, explotar las vulnerabilidades de grupos específicos y el uso indebido de la identificación biométrica en tiempo real en espacios públicos por parte de las fuerzas del orden, excepto en condiciones estrictamente necesarias. Ciertos usos también requerirán la aprobación judicial.
El artículo 5 de la Ley de Inteligencia Artificial prohíbe específicamente:
- Sistemas de IA manipuladores: IA que emplea manipulación subliminal para causar daño o explotar las vulnerabilidades de las personas.
- IA explotadora: IA dirigida a grupos vulnerables, incluidos niños y personas discapacitadas, para distorsionar materialmente su comportamiento.
- Identificación biométrica en tiempo real: el uso de IA para la identificación biométrica en tiempo real en espacios públicos por parte de las autoridades, salvo excepciones en caso de amenazas específicas y sustanciales.
- Puntuación social: sistemas de IA que permiten a los gobiernos u otras entidades calificar a las personas en función de su comportamiento o rasgos personales.
Otros tipos de usos de la IA que se consideran de "alto riesgo" deberán registrarse en una base de datos de la UE. Entre ellos se incluyen:
- Gestión y operación de infraestructuras críticas
- Educación y formación profesional
- Empleo, gestión de trabajadores y acceso al autoempleo
- Acceso y disfrute de servicios privados esenciales y servicios y beneficios públicos
- Aplicación de la ley
- Gestión de la migración, el asilo y el control de fronteras
- Asistencia en la interpretación jurídica y aplicación de la ley.
Estos deberán evaluarse antes de salir al mercado y también deberán evaluarse periódicamente a lo largo de su ciclo de vida.
IA generativa
ChatGPT, Microsoft Copilot y Google Bard se incluyen en esta categoría.
La Unión Europea está aplicando una política de tolerancia cero a la IA generativa, exigiéndole que cumpla con ciertos requisitos de transparencia, entre los que se incluyen los siguientes:
- Revelar que el contenido fue generado por IA
- Diseñar el modelo para evitar que genere contenido ilegal
- Publicación de resúmenes de datos protegidos por derechos de autor utilizados para la capacitación
Un aspecto destacable del reglamento es el mandato de realizar evaluaciones exhaustivas de los sistemas de IA "avanzados", incluidoel GPT-4, y la obligación de informar de los incidentes graves a la Comisión Europea. Esto se debe a que los "modelos de IA de propósito general de alto impacto" pueden plantear un "riesgo sistémico". Sin embargo, no hay nada que prohíba especialmente ejecutar un modelo localmente en suPC.
¿Qué pasa ahora?
El futuro de la Ley de Inteligencia Artificial en la Unión Europea
La Ley de IA permite a los países de la UE dar forma a su aplicación a través de unos 20 actos legislativos secundarios de la Comisión. La Oficina de IA supervisará los modelos de IA, integrada por expertos de los estados miembro. Los hitos clave incluyen la adopción del reglamento de IA por parte de los comités del Parlamento Europeo el 13 de febrero y una votación plenaria provisional el 10 y 11 de abril. Tras la aprobación ministerial, la Ley entra en vigor 20 días después de su publicación en el diario oficial. Las prohibiciones entran en vigor en seis meses, los requisitos de los modelos de IA en un año, otras regulaciones en dos años, y las evaluaciones de sistemas de IA de terceros se aplazan un año más.
En vista de que actualmente la IA está bajo la lupa, es difícil esperar que no esté regulada. Las regulaciones también pueden ayudar a las empresas, ya que proporcionan pautas claras sobre las zonas "prohibidas" que pueden evitar, aunque sin la cooperación global, puede resultar en que las empresas de ciertas regiones avancen mucho más que sus competidores. Dado quela IAGprobablemente también sea la última frontera de la inteligencia artificial, es poco probable que haya una regulación significativa que pueda impedir su desarrollo. Esto es particularmente cierto dado que sus capacidades reales, en caso de que sea posible, se desconocen en este momento.