Compliance News Blog

Compliance News Blog

Ciberseguridad - Normativas

Fecha: 14 May 2021

Inteligencia Artificial: Propuesta de marco regulatorio de la Unión Europea

Inteligencia Artificial

Los cambios tecnológicos en la sociedad y en las empresas cada vez son mayores y más rápidos. La Inteligencia Artificial empieza a ser una herramienta utilizada en muchas empresas y es necesaria una regulación para adaptarnos la Era Digital sobre la base de la confianza. Son muchas las aplicaciones de la Inteligencia Artificial en las empresas y, sin duda, una de las más relevantes sería en ciberseguridad. Sin embargo, esto podría convertirse en un problema para la seguridad de los datos y la privacidad de las personas. A los riesgos que tiene la ciberseguridad, como pueden ser los hackeos, las suplantaciones de identidad o la vulnerabilidad de los sistemas, se le suma el riesgo de un tratamiento automatizado de un elevado número de datos personales, principalmente datos categorizados como especiales.

Por ello, la Comisión Europea presentó el 21 de abril un borrador con una propuesta de Reglamento con normas y medidas que garanticen una Inteligencia Artificial fiable que a la vez vele por la seguridad y los derechos fundamentales de personas y empresas. 

El futuro Reglamento se fundamentaría en un enfoque orientado al riesgo, es decir, a modo piramidal, identificando cuatro niveles de riesgo que generaría el uso de la Inteligencia Artificial: 

  • Riesgo Inadmisible, estarían terminantemente prohibidos.
  • Riesgo Alto, sometidos a una estricta normativa.
  • Riego Limitado, obligados a una transparencia.
  • Riegos Mínimo o nulo para la seguridad y los derechos.

En cuanto a las aplicaciones en ciberseguridad que podrían suponer un problema para la protección de datos, encontramos los sistemas de videovigilancia masivas o la identificación mediante datos biométricos. Según el Reglamento General de Protección de Datos, los datos biométricos están incluidos en categorías especiales de datos y se prohíbe su tratamiento para identificar unívocamente a una persona física. Por este motivo, y para seguir garantizando la protección de los datos, el uso de la Inteligencia Artificial en sistemas de videovigilancia en masa con posibilidad de identificar a las personas una a una en espacios públicos estaría incluido en los “Riesgos Inadmisibles” y por lo tanto prohibido. Un ejemplo sería el sistema que utiliza China para controlar a sus ciudadanos mediante un sistema de puntuación social. 

Por otro lado, la identificación biométrica remota mediante reconocimiento facial, siempre que la usen las autoridades policiales, estaría considerado de “Riesgo Alto”, pudiéndose usar por ejemplo para la búsqueda de un menor o para prevenir una amenaza terrorista.

Siguientes pasos

Site Selector