El Comité Europeo de Protección de Datos (EDPB) y el Supervisor Europeo de Protección de Datos (EDPS) alcanzaron el lunes una opinión conjunta sobre la propuesta de regulación sobre la inteligencia artificial (IA) que presentó la Comisión Europea hace unas semanas.
El planteamiento de esta regulación es bueno y ambos organismos dan la bienvenida a esta nueva legislación, que ahora tendrá que tramitarse. La propuesta parte de que cualquier aplicación de un sistema de IA siempre va a aparejar riesgos y, en función de qué tipo de implementación se haga, el reglamento determinará si los riesgos son mayores o menores.
Sin embargo, tanto la EDPB como la EDPS plantean que el reglamento de IA incluya un grado mayor de protección: los sistemas de IA cuya implementación suponga riesgos «a los derechos fundamentales». También anima a los legisladores a dar los pasos necesarios para controlar y evitar los riesgos que la introducción de la IA pueda tener para colectivos vulnerables.
Es en esos términos con los que tanto la EDPB como la EDPS plantean que se prohíba en el espacio público cualquier tipo de sistema de IA que permita el reconocimiento de seres humanos vía elementos biométricos.
En su comunicado conjunto, ambos organismos aclaran que se refieren a sistemas como cámaras de reconocimiento facial, uso de huellas dactilares e, incluso, reconocimiento por voz.
Tanto la EDPB como la EDPS también invitaron a prohibir sin excepciones el uso de sistemas de IA que incentiven o acaben promoviendo discriminaciones basadas en etnia, género, identidad política u orientación sexual.
«Además, la EDPB y la EDPS consideran que el uso de sistemas de inteligencia artificial para inferir en las emociones naturales de una persona es altamente indeseable y debería ser prohibido excepto para casos excepcionales, como aquellos relacionados con fines sanitarios, donde el reconocimiento de las emociones del paciente es importante», continúan.
Los máximos responsables de estos dos órganos, Andrea Jelinek (EDPB) y Wojciech Wiewiórowski (EDPS) consensuaron unas declaraciones. «Desplegar sistemas de reconocimientos biométricos en espacios públicos significa el fin del anonimato en esos lugares. Aplicaciones como los sistemas de reconocimiento facial interfieren con los derechos y libertades fundamentales».
Ambos organismos agregaron que «una prohibición generalizada de este tipo de sistemas es el punto de partida necesario si queremos preservar nuestras libertades y crear un marco legal para la inteligencia artificial que ponga al ser humano en el centro.»
«La regulación propuesta debería también prohibir cualquier tipo de uso de una IA para implementar sistemas de puntuación social, ya que es algo en contra de los valores fundamentales de la Unión Europea y puede dar pie a discriminaciones», advierten.
Ambas instituciones también se congratulan de que la propuesta designe al Supervisor Europeo de Protección de Datos como la entidad encargada de vigilar el uso de este tipo de tecnologías por parte de las instituciones europeas; sin embargo, plantean que sus funciones y obligaciones «se clarifiquen un poco más, sobre todo cuando se refiere a la EDPS como autoridad reguladora del mercado».
En ese sentido, las agencias de protección de datos nacionales ya están vigilando el despliegue de sistemas de IA que involucran el tratamiento de datos personales.
Como ejemplo de ello, la Agencia Española de Protección de Datos abrió un procedimiento hace un año a Mercadona. Esto después de que la cadena de supermercados confirmase en una nota de prensa que había desplegado un sistema de reconocimiento facial en 40 de sus tiendas para detectar en menos de un segundo cuando al establecimiento accediese cualquier persona condenada y con una orden de alejamiento de la tienda.
La iniciativa ha sido recientemente tumbada por la Audiencia de Barcelona a expensas de que la propia AEPD también se pronuncie.
AHORA LEE: El IFT se opone al registro de tus datos biométricos para conservar tu línea telefónica —interpondrá controversia constitucional
TAMBIÉN LEE: WhatsApp Web quiere escanear tus ojos, huellas dactilares y rostro, pero dice que no tendrá acceso a esos datos biométricos