Home Ciencia y Tecnología ¿Qué significa el código AI de propósito basic de la UE para...

¿Qué significa el código AI de propósito basic de la UE para las empresas?

51
0

“No se equivoquen, habrá acción en los próximos meses”, advierte el analista de Forrester Enza Iannopollo.

Mañana (2 de agosto), las reglas de la Ley de AI de la Unión Europea sobre el propósito basic de IA entrarán en vigencia. Para ayudar a la industria a cumplir con las nuevas reglas, la UE ha desarrollado el código de práctica de inteligencia synthetic de uso basic (GPAI).

Esta herramienta voluntaria está diseñada para ayudar a la industria a cumplir con las obligaciones de la Ley AI cuando se trata de modelos con capacidades de gran alcance capaces de completar una variedad de tareas y que se pueden implementar en diferentes sistemas o para diferentes aplicaciones. Los ejemplos incluyen modelos de IA de uso común como ChatGPT, Gemini o Claude.

El Código ha publicado reglas sobre derechos de autor y transparencia, con ciertos modelos avanzados que se consideran “riesgo sistémico” que enfrentan obligaciones voluntarias adicionales que rodean la seguridad.

Los firmantes se han comprometido a respetar cualquier restricción del acceso a los datos para capacitar a sus modelos, como los impuestos por modelos de suscripción o paredes de pago. También se comprometen a implementar salvaguardas técnicas que eviten que sus modelos generen resultados que reproduzcan el contenido protegido por la ley de la UE.

Los firmantes, que incluyen los gustos de Anthrope, OpenAI, Google, Amazon e IBM, también están obligados a elaborar e implementar una política de derechos de autor que cumpla con la ley de la UE. El XAI propiedad de Elon Musk también ha firmado el código GPAI, aunque solo la sección que se aplica a la seguridad y la seguridad.

El Código GPAI solicita que los firmantes evalúen y mitigan continuamente los riesgos sistemáticos asociados con los modelos de IA y tomen medidas de gestión de riesgos apropiadas durante todo el ciclo de vida del modelo. También se les pide que denuncien incidentes graves a la UE.

Además, las empresas deberán divulgar públicamente información sobre los nuevos modelos de IA en el lanzamiento, así como a la oficina de la UE AI, las autoridades nacionales relevantes y aquellos que integran los modelos en sus sistemas a pedido.

“Los proveedores de modelos generativos de IA (Genai) son directamente responsables de cumplir con estas nuevas reglas, sin embargo, vale la pena señalar que cualquier empresa que use modelos y sistemas de Genai: aquellos comprados directamente a los proveedores de Genai o integrados en otras tecnologías, sentirá el impacto de estos requisitos en su cadena de valor y en sus prácticas de manejo de riesgos de terceros”, dijo Forrester VP Principal Analyst Enza Iannopollo.

Aunque, incluso cuando esta regulación se expande en la responsabilidad y la aplicación de los modelos de IA de propósito basic, muchos titulares de derechos de autor en la región han expresado su insatisfacción.

En una declaración, 40 firmantes, incluidas publicaciones de noticias, colectivos de artistas, traductores y productores de televisión y cine, entre otros, dicen que el código GPAI “no cumple la promesa de la Ley de AI de la UE”.

Representando la coalición, el Consejo de escritores europeos dijo que el código es una “oportunidad perdida para proporcionar una protección significativa de la propiedad intelectual” cuando se trata de IA.

“Rechazamos firmemente cualquier afirmación de que el Código de Práctica tenga un equilibrio justo y viable. Esto es simplemente falso y es una traición a los objetivos de la Ley de AI de la UE”.

Sin embargo, muchos creen que las regulaciones de IA de la UE son quizás las más robustas en cualquier parte del mundo y están listos para dar forma a las prácticas de gestión de riesgos y gobernanza para la mayoría de las empresas globales.

“Sus requisitos pueden no ser perfectos, pero son el único conjunto vinculante de reglas sobre IA con alcance international, y representa la única opción realista de IA confiable e innovación responsable”, dijo Iannopollo.

La Ley de IA entró en vigor en agosto pasado, y la región aplicaba su primer conjunto de obligaciones sobre prácticas prohibidas seis meses después, en febrero. Y aparte del Código GPAI, mañana también marca la fecha límite para que los Estados miembros de la UE designen “autoridades nacionales competentes” que supervisarán la aplicación de la Ley y llevarán a cabo actividades de vigilancia del mercado.

Las sanciones por incumplimiento de esta Ley son altas, alcanzando hasta el 7 % de la facturación international de una empresa, lo que significa que las empresas deberán comenzar a prestar atención. “Las empresas, no se equivoquen, habrá acción en los próximos meses”, advirtió Iannopollo.

“La Ley de AI de la UE AI el 2 de agosto establece un precedente claro y goteará aguas abajo. Las empresas deben estar listas para demostrar que están utilizando AI en línea con las prácticas responsables, incluso si aún no están legalmente obligados a hacerlo”, dijo Levent Ergin, el clima principal, la sostenibilidad y el estratega de IA en Informatica.

“Esta es la primera prueba verdadera de la transparencia de la cadena de suministro de IA. Si no puede mostrar de dónde provienen sus datos o cómo razonó su modelo, los datos de sus organizaciones no están listos para la IA”.

No se pierda el conocimiento que necesita para tener éxito. Regístrese para el Informe diarioDigest de Silicon Republic de noticias de tecnología de ciencia ficción necesaria.

fuente