| |

Reglamento Europeo de la IA y sus efectos en el Background Screening

Los recientes acontecimientos que se han dado entorno a la nueva ley de inteligencia artificial (IA) por la Unión Europea, han generado conmoción en la sociedad europea y en el mundo, ya que ésta marca un hito en la regulación de la tecnología a nivel global, por ser la primera ley en regular dicho fenómeno.

El pasado miércoles 13/03/2024, el Parlamento Europeo ha votado a favor de este Reglamento (523 votos positivos, 46 negativos y 49 abstenciones); sin embargo, determinados fragmentos del Reglamento de Ley no entrará en vigor hasta 2026. La ley tiene un doble sentido, el primero, regulatorio, aplicándose así al espacio europeo con el fin de ser aplicada; y el segundo, didáctico, pretendiendo tener un peso relevante en la comunidad internacional y servir de ejemplo para otras leyes sobre la IA.

La Unión Europea ha tomado la delantera en la regulación de la inteligencia artificial, estableciendo un marco legal que busca equilibrar el fomento de la innovación tecnológica con la protección de los derechos fundamentales de los ciudadanos. Según la Representación de la Comisión Europea en España, la nueva ley de IA se centra, entre otras cosas, en clasificar los sistemas de IA según el nivel de riesgo que presentan, desde un riesgo inaceptable, hasta un riesgo mínimo o nulo, imponiendo, requisitos más estrictos a aquellos sistemas que se consideran de alto riesgo, (Representación de la Comisión Europea en España, 2024). El Parlamento Europeo ha respaldado esta legislación, destacando su enfoque basado en el riesgo y su objetivo de garantizar la seguridad y los derechos fundamentales mientras se promueve la adopción de la IA (Parlamento Europeo, 2023).

Por otro lado, el uso de la IA en procesos de background screening ha sido una innovación disruptiva, tal y como hemos hablado en nuestro artículo anterior, permitiendo a las empresas analizar grandes volúmenes de datos con una eficiencia sin precedentes. Sin embargo, más allá de las limitadas posibilidades de verificación automatizada, esta práctica plantea preocupaciones significativas en términos de privacidad y protección de datos, especialmente en Europa, donde el Reglamento General de Protección de Datos (RGPD) establece estrictas restricciones sobre el tratamiento de datos personales.

La nueva ley de IA de la UE, al clasificar los sistemas de IA según su nivel de riesgo, podría imponer requisitos adicionales a las empresas que ofrecen servicios de background screening. Esto es particularmente relevante para aquellos sistemas que podrían considerarse de alto riesgo debido a su capacidad para influir en decisiones laborales y, por ende, afectar significativamente los derechos individuales de las personas.

Clasificación de Riesgos

La clasificación de los sistemas de IA en categorías de riesgo es un apartado clave de la legislación. Los sistemas se dividen en cuatro categorías principales:

  1. Riesgo inaceptable: son aquellos sistemas y aplicaciones de IA que son una amenaza clara para la seguridad, los medios de subsistencia de las personas, o que violan los derechos fundamentales.
  2. Riesgo alto: los sistemas o programas que se hallen esta categoría tienen el potencial de afectar significativamente a los individuos o a la sociedad de manera adversa. Estos sistemas deben cumplir con requisitos estrictos antes de su implementación, incluyendo evaluaciones de impacto, alta transparencia, y medidas de seguridad adecuadas.
  3. Riesgo limitado: son aquellos sistemas de IA que pueden tener implicaciones para los derechos o la seguridad de las personas, pero en una escala mucho menor que los dos anteriores.
  4. Riesgo mínimo o nulo: representan un riesgo ínfimo, lo cual no descarta que estén sujetos a normas de transparencia y principios éticos.

Para efectuar la evaluación y clasificación de riesgos y control, se creará la Agencia Española de Supervisión de la Inteligencia Artificial, con el fin de coordinar el uso de la tecnología entre las autoridades nacionales. Por ejemplo, aunque se prohíbe el uso de IA con el fin de vigilar a la sociedad, salvo en caso de amenazas terroristas o de que peligre la seguridad nacional; en estas circunstancias las autoridades nacionales podrán aplicar dichas medidas si cuentan con el aval del poder judicial.

Otros puntos clave, de manera resumida, son la transparencia y obtención de la información. Es decir, los usuarios deben saber cuándo están tratando con una IA y también las IA deben informar que se ha hecho uso de la misma con algún fin; como, por ejemplo, ChatGPT deberá poner marca de agua en sus creaciones.

Cabe destacar que la implementación de la norma presenta tanto desafíos como oportunidades para el sector de background screening. Por un lado, las empresas deberán asegurarse de que sus sistemas de IA cumplan con los estándares regulatorios, lo que podría implicar ajustes significativos en cómo se recopilan, procesan y utilizan los datos. Esto podría incluir la necesidad de obtener consentimientos explícitos, garantizar la transparencia en los algoritmos utilizados y proporcionar mecanismos robustos para la revisión humana de las decisiones automatizadas.

En lo que respecta a los servicios de Background screening, estos servicios se tendrán que adherir a este marco legal, respetando los derechos de privacidad y protección de datos. El trabajo de la IA estará acompañado por el trabajo humano en la revisión de los procesos automatizados, con elementos propios como la empatía y el juicio humano, los cuales son insustituibles en estos procesos e inalcanzables por la IA en la actualidad. 

La nueva ley de IA de la UE representa un paso importante hacia la regulación de la tecnología de inteligencia artificial, estableciendo un precedente para cómo las sociedades pueden equilibrar la innovación con la protección de los derechos individuales. Para el sector de background screening, esta legislación plantea desafíos regulatorios, pero también ofrece la oportunidad de mejorar la calidad y la confiabilidad credibilidad de los servicios. A medida que avanzamos hacia un futuro donde la IA juega un papel cada más relevante en nuestras vidas, es crucial que continuemos evaluando y ajustando nuestro enfoque para garantizar que la tecnología sirva al bienestar común sin comprometer los valores fundamentales que hemos construido.

Publicaciones Similares

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

16 − once =