Ir al contenido

Ley de IA de la UE: Las soluciones GenAI que se basan en datos internos de confianza son clave para cumplir la nueva legislación

BlogPostEUAIACT

Por Yohan Lobo, Director de Soluciones Industriales, Servicios Financieros en M-Files

 

El Parlamento de la UE ha aprobado su ley sobre IA, el primer conjunto de normas reconocido en el mundo para regular esta tecnología. En virtud de la ley, las soluciones de IA se dividirán en categorías de riesgo, incluido un nivel "inaceptable" en el que se prohibirán los modelos que planteen un riesgo sistémico. La ley entrará en vigor 12 meses después de su promulgación y está sujeta a la aprobación formal de los ministros de los Estados miembros de la UE.

La regulación de la IA Generativa (GenAI) se dividirá en dos niveles, el primero de los cuales exigirá el cumplimiento de la legislación de la UE sobre derechos de autor y resúmenes de los contenidos utilizados para entrenar los modelos. El segundo nivel, reservado a los modelos considerados de alto riesgo, implica informes periódicos de incidentes y pruebas más estrictas.

Entonces, ¿cómo afectará esta nueva legislación a las empresas que aprovechan las soluciones GenAI en la UE y fuera de ella?

Yohan Lobo

Navegar por la nueva legislación

La ley sobre IA de la UE añade otro nivel de complejidad para los directivos de empresas preocupados por la seguridad de sus modelos. La mayoría de las soluciones GenAI entrarán en el primer nivel de regulación, en el que las organizaciones deben demostrar que los datos en los que se basa el modelo son fiables.

Los modelos situados en el segundo nivel son los que se consideran un "riesgo sistémico" para la seguridad pública, ya que poseen un nivel de inteligencia casi similar al humano y, en consecuencia, serán tratados con mayor cuidado y atención. Esto incluye a los chatbots y a los generadores de imágenes de IA, y estas aplicaciones GenAI se someterán a pruebas de adversarios, en las que los expertos intentarán eludir las salvaguardas de un modelo.

Las empresas que desarrollen sus propias herramientas de GenAI y se sitúen en el primer nivel normativo deben comprender claramente cómo su solución extrae conclusiones y hace suposiciones, utilizando datos que respalden la fiabilidad de las sugerencias que proporciona. En última instancia, si los datos que se extraen no infringen las restricciones de derechos de autor y son realmente fiables, a las organizaciones les resultará mucho más fácil cumplir la nueva normativa.

Un proyecto de ley de la UE con ramificaciones mundiales

Es probable que el impacto del proyecto de ley se extienda más allá de la UE, de forma similar a la introducción del Reglamento General de Protección de Datos (RGPD). Esta fue una iniciativa impulsada por la UE que transformó la forma en que las organizaciones a escala internacional gestionan los datos de las personas.

Aunque las empresas de países no pertenecientes a la UE no se vean afectadas directamente por el proyecto de ley, es seguro que otras naciones y órganos de gobierno seguirán su ejemplo si la legislación tiene éxito. Por lo tanto, es crucial que las empresas que desarrollan modelos de GenAI prevean que los gobiernos reconsiderarán la forma en que están supervisando los sistemas de IA y piensen en cómo pueden alinearse mejor con los próximos cambios regulatorios.

Confianza, seguridad y precisión

Ahora que la GenAI ha irrumpido en la corriente dominante, empresas de todos los sectores se apresuran a implantar estas soluciones y adelantarse a la competencia. Sin embargo, las empresas solo pueden introducir una herramienta GenAI si están seguras de que es segura y fiable.

Garantizar que las herramientas GenAI sólo utilicen datos precisos y bien estructurados -normalmente los mismos datos que gestiona y utiliza su empresa- es vital para las empresas obligadas a cumplir la ley de IA de la UE.

Esto depende de tres pilares fundamentales: confianza, seguridad y precisión. La forma más fácil de cumplir la legislación es implantar una solución que funcione con datos internos fiables. Una pregunta que todas las empresas deberían hacerse es si confían en sus datos. Si es así, podrán contar con los resultados que produzca su herramienta GenAI.

Aplicar correctamente un enfoque basado en datos internos significa que las empresas pueden actuar con certeza sobre sus resultados de IA, mejorando la productividad al dotar a los trabajadores del conocimiento de herramientas para buscar, acceder y analizar rápidamente la información que necesitan. Cuando se da tiempo a un modelo para que se adapte a los datos en los que se basa y aprenda más sobre las necesidades de cada uno de los empleados a los que presta servicio, aumentará su inteligencia e intuición y responderá mejor a las necesidades de sus usuarios.

La confianza, la seguridad y la precisión están intrínsecamente vinculadas, y las empresas que deseen integrar una estrategia de GenAI que cumpla la ley de IA de la UE deberían empezar por organizar los datos en todas las operaciones. De este modo, pueden sentar las bases de una herramienta GenAI que proteja a sus clientes y, al mismo tiempo, proporcione una automatización del trabajo de conocimiento vital que aumente la eficiencia y agilice los procesos para los empleados.

Últimos artículos

Examinar temas

Buscar

Ir arriba