⏱ 3 min de lectura
La Comisión Europea ha publicado sus directrices para aclarar cómo se aplicará la ley de Inteligencia Artificial a las empresas que ofrecen servicios de IA de carácter general. Con este documento, busca incentivar a estos proveedores, como ChatGPT y Gemini, a adherirse a un código de buenas prácticas que facilite su cumplimiento con la normativa europea.
La publicación de este Código llega a menos de un mes de la entrada en vigor de la ley, prevista para el 2 de agosto. El documento se divide en tres capítulos: Transparencia y Derechos de Autor, dirigidos a todos los proveedores de modelos de IA generalistas, y Seguridad y Protección, que afecta únicamente a un grupo reducido de proveedores de los modelos más avanzados.
Aunque la Comisión confía en que adherirse al Código facilitará el cumplimiento legal y aportará mayor seguridad jurídica, advierte que quienes no lo acepten serán sometidos a inspecciones más rigurosas. Sin embargo, una de las grandes empresas del sector, Meta, anunció este viernes que no tiene intención de firmar dicho código, alegando que podría limitar el desarrollo de la IA.
Meta, que está desarrollando una nueva herramienta llamada Agent, capaz de realizar compras y optimizar tareas gracias a su acceso a navegadores y aplicaciones como Gmail o Calendar, señaló que Europa está “yendo por mal camino en materia de IA”. En su comunicado, aseguró que el Código de la Comisión “introduce incertidumbres legales para los desarrolladores y medidas que van más allá del alcance de la Ley de IA”.
El código solicita a las compañías que se clasifiquen según si sus modelos son de propósito general, definidos por haber sido entrenados con más de 10^23 operaciones de coma flotante y por su capacidad de generar lenguaje humano (texto o audio) o convertir texto en imágenes o vídeos.
Los proveedores que operan bajo licencias libres y de código abierto y cumplen ciertas condiciones de transparencia podrían quedar exentos de algunas obligaciones legales, según la Comisión.
No obstante, todas las empresas deben comprometerse a respetar las normas sobre derechos de autor. Además, las más avanzadas tendrán que gestionar riesgos sistémicos relacionados con derechos fundamentales, seguridad y el posible control perdido sobre sus modelos de IA. Durante el primer año tras la entrada en vigor de la ley, la Comisión colaborará estrechamente con los proveedores, especialmente con quienes se adhieran al Código de buenas prácticas, para facilitar su cumplimiento.
Desde el 2 de agosto de 2025, las empresas como OpenAI estarán obligadas a cumplir con requisitos de transparencia, incluyendo la elaboración de documentación técnica, políticas de derechos de autor y un informe detallado sobre los datos usados para entrenar sus algoritmos. Pasado un año, aquellas que no cumplan podrían enfrentarse a sanciones económicas.