La tecnología de reconocimiento facial viola derechos humanos: expertos

  • La tecnología de reconocimiento facial ha despertado dudas con respecto a su eficiencia y utilidad al bien mayor.
  • Varios expertos han expuesto su preocupación sobre lo que el uso de la tecnología implica para los derechos humanos y la privacidad de los individuos.
  • Derivado de esto, muchos enfatizan la necesidad de crear leyes y regulaciones sólidas, o incluso eliminar la tecnología por completo.

La tecnología de reconocimiento facial ha dado mucho de qué hablar en los últimos años. Implementada tanto por el sector público como privado a diferentes escalas, esta despierta varias incógnitas en torno a su supuesta efectividad y en cómo afecta a la privacidad de los individuos.

Casos como el de la polémica compañía de reconocimiento facial Clearview AI, que creó un programa que roba fotos de internet para construir perfiles faciales de personas, han incrementado los temores en torno a esta tecnología.

Tal ha sido la polémica al respecto de su uso que incluso Facebook (ahora Meta) anunció en noviembre del año pasado que bajaría de sus plataformas su software y plantillas de reconocimiento facial. Este fue utilizado por la compañía por más de una década, permitiendo que las personas pudieran ser identificadas automáticamente en fotos y videos. 

Derivado de estos casos es que varios expertos han expuesto su preocupación por las implicaciones éticas de esta tecnología y lo significa para la privacidad, subrayando la necesidad de crear leyes y regulaciones sólidas, o incluso eliminar por completo su uso.

El uso de tecnologías de reconocimiento social presentan diversas violaciones de los derechos humanos

La tecnología de reconocimiento facial se canta como una herramienta útil para áreas que van desde la seguridad pública hasta un mejor resguardo de nuestra información, utilizando un biométrico como nuestra cara para «asegurar» que solo nosotros podremos acceder a nuestros teléfonos, cuentas bancarias u otros servicios. Sin embargo, la tecnología esconde implicaciones éticas preocupantes.

«Esto ya no es solo una cuestión de ética. Cuando se hablan de estándares éticos, muchas personas piensan que son voluntarios y no obligatorios; sin embargo, cuando se trata de la tecnología de reconocimiento facial, ya involucra más directamente a los derechos humanos», dice en entrevista con Expertos en Línea Grecia Macías, abogada en la organización mexicana Red en Defensa de los Derechos Digitales (R3D).

Las tecnologías de reconocimiento facial se aplican en distintos lugares; tanto por sector público como el privado. En México, de acuerdo con R3D, al menos Coahuila, Aguascalientes, Nuevo León y Ciudad de México son algunas de las entidades que las utilizan.

«La vigilancia en el espacio público con esta tecnología es sumamente preocupante porque es encubierta, y eso inherentemente pega en derechos como la privacidad, libertad de expresión, derecho de asociación, derecho de reunión pacífica, etc», explica Macías.

«En México lo que hemos visto es que se está usando para temas de seguridad pública y lo que ellos dicen que es prevención y persecución de delitos; sin embargo, en el tema de prevención aún no queda claro cómo quieren justificarlo», agrega.

Una afronta a la privacidad en la vía pública

La abogada de R3D agrega que la tecnología de reconocimiento facial básicamente impide que una persona pueda tener una vida privada en las calles.

«Hay que tener en cuenta la cantidad de información que se podría sacar con solo ver tu conducta en las calles: cómo te vistes, a dónde vas, con quién te juntas, cuál es tu orientación sexual, cuáles son tus preferencias ideológicas y religiosas, etc. Todo eso se desprende de estarte observando constantemente en las calles», explica.

«Esto es particularmente preocupante si se pertenece a un grupo vulnerable, eres periodista o defensor o defensora de derechos humanos o alguien no querido por el gobierno o administraciones estatales; esto añade una capa extra de riesgo», agrega.

Un aspecto crucial también es saber qué piensan hacer las autoridades con esta información. «Si ya se está usando para la persecución del delito, es muy fácil que por uno estar en el momento y lugar equivocado se le terminen fabricando delitos», enfatiza.

La tecnología de reconocimiento facial no es tan eficiente y además discrimina

Además, la tecnología en sí misma no es tan eficiente como parecería para detectar rostros, irónicamente. Según la experta, su efectividad varía de acuerdo con diversos factores; estos van desde el clima, la iluminación, la programación de la cámara y hasta el entrenamiento del algoritmo. A su vez, la tecnología tiene una mayor tasa de error en ciertas poblaciones.

«Hemos visto que existe una tasa de error más alta en personas racializadas y de disidencia de género», dice Macías.

«Al hablar de que es una política pública que está metiendo el gobierno para temas de seguridad, hay que hablar de presunción de inocencia y debido proceso; y al mismo tiempo sobre derecho de igualdad y no discriminación, porque este tipo de sistemas tienen sesgos raciales, de genero, de clase y demás», agrega.

Elizabeth Langland, directora del Centro Lincoln de Ética Aplicada en la Universidad Estatal de Arizona, comparte este punto. «El reconocimiento facial no siempre es exacto. Hay que subrayar que es muy bueno con los hombres blancos, muy malo con las mujeres negras y no tan bueno con las mujeres blancas», dice.

«Hay historias, por ejemplo sobre la detención de un hombre delante de sus hijos por un error de reconocimiento facial. La policía confió más en la tecnología de reconocimiento facial que en el individuo y lo encarcelaron durante varias horas hasta que se dieron cuenta del error. Cuando se aplica mal, realmente puede tener malos resultados y graves consecuencias para la vida de las personas», agrega.

Otro campo para analizar es dónde se coloca este tipo de tecnología y cómo a partir de ello puede generar discriminación. «Por ejemplo, si solo la vas a poner en zonas que, según tu estigma y prejuicios, son más peligrosas solo porque son barrios más pobres o de clases socioeconómicas más bajas, se puede empezar a fabricar más fácil delitos y empezar a criminalizar ese tipo de grupos vulnerables», agrega Macías.

Otro aspecto que está en juego es «la capacidad de ejercer el poder», según Gaymont Bennett, director asociado del Centro Lincoln. «Se trata de que los actores poderosos puedan manejar el comportamiento de las personas que están en posición de gobernar. Como cultura, confiamos en la tecnología. Creemos que la tecnología es neutral. Pero es una tecnología neutral que amplifica cosas del mundo real, y las cosas del mundo real son racistas y sexistas. Así que ahora esta maquinaria hiperpoderosa está amplificando todo esto», explica.

El reconocimiento facial utilizado en apps y filtros también tiene sus riesgos

Si bien los peligros de este tipo de tecnología llevados a nivel gobierno son bastante obvios, su uso en apps privadas (como las de bancos o filtros de entretenimiento) son un poco más sutiles.

«[La tecnología de reconocimiento facial] en aplicaciones no es 100% efectiva. Por ejemplo, la aplicación de Bancomer no reconoce muchos rostros. También hay aplicaciones que no están entrenadas bien y hasta niegan servicios, aunque sean privados, a personas racializadas», dice Macías.

De acuerdo con la experta, muchas empresas se dedican a recopilar rostros y hacer bases de datos para vendérselas a gobiernos. Pueden hacer esto a través del scrapeo (una manera de obtener información de las páginas web a través de las líneas de código) en Facebook, Instagram, Twitter o cualquier aplicación que tiene tu cara. También pueden hacerlo a través de los famosos filtros que luego descargamos en nuestros teléfonos.

«Las típicas apps que dicen ‘deja te enseño cómo te verías de viejito’; nadie lee de dónde son y los datos que piden realmente. Varias de esas apps son estrategias para conseguir bases de datos», explica Macías.

Sobre qué se puede hacer como individuos para protegernos mejor ante este tecnología, Grecia recomienda lo siguiente:

«A nivel estado, primero hay que entender por qué su uso es un problema qué nos afecta, y que también es un tema serio de derechos humanos y que hay que compartirlo con otras personas. En temas de plataformas o empresas privadas, hay que ser críticos a qué o quienes damos nuestra información. Uno no nace siendo experto en leer avisos de privacidad —son enormes, obtusos y no son lo más amigable para el usuario promedio; pero sí podemos ser críticos y cuestionar dónde está esta plataforma y por qué le tengo que dar mi cara y para qué finalidad.

También hay que practicar los buenos hábitos de seguridad digital. «¿Realmente tengo que meterme a este juego o filtro para saber cómo me vería de viejita cuando no sé ni confío en ese tipo de aplicaciones o ni sé de dónde vienen? [También funciona] simplemente ver si existe una opción que te permita no dar tu marco facial y tomarla», agrega.

«Tampoco recomiendo usar marcos faciales en celulares, en especial si se va a protestar o salir a las calles. Esto porque entonces es mucho más fácil de desbloquear y acceder a tu celular. Es mucho más difícil que alguien te obligue a poner tu número a poner tu huella o tu cara», explica.

¿Puede la tecnología de reconocimiento facial ser usada de una manera más ética?

Tanto gobiernos como empresas privadas en todo el mundo abogan por la tecnología de reconocimiento facial como algo que puede aportar mayor seguridad y practicidad a sus usuarios; sin embargo, en la mayoría de los casos esto son solo eufemismos tecnológicos que generan más problemas de los que resuelven.

«Puedo ver el escenario en el que podría ir a un aeropuerto y sí pudieran usarlo para subirte a un avión sin tener que tocar directamente objeto alguno. Pero claro, una vez que lo tienen, es objeto de abuso. No puedes escapar de ello una vez que tienen todas esas caras identificadas. ¿Cómo se puede limitar eso? ¿Realmente se pueden legislar los límites de su uso?», cuestiona Langland.

Por su parte, Bennett cree que hay usos que conducen a la eficiencia o el entretenimiento, pero estos no están sin sus problemas. «Creo que cualquier tecnología poderosa cuya razón de ser sea la eficiencia o el entretenimiento siempre dará problemas. En un futuro previsible, ¿quién sabe si esta tecnología podría utilizarse para el bien o no? Sin embargo, no creo que debamos adoptar la postura de que no debemos innovar en torno a tecnologías potencialmente potentes simplemente porque no sabemos si pueden provocar daños o no», dice.

Por su parte, Grecia sostiene que si bien una mayor protección de los datos personales, que las apps que las usen tengan un aviso de privacidad mucho más claro y darle al usuario una verdadera opción de decidir dar este biométrico, podrían ser útiles en la regulación de la tecnología, la realidad es que esta no tiene cabida en sociedades democráticas.

«El tema no es que haya que regularla, sino prohibirla», enfatiza Grecia. «No se pueden usar este tipo de tecnologías, al menos por el estado, sin que haya una ley que los faculte, en primera instancia. Y en segunda, este tipo de tecnologías son sumamente invasivas; estas no son herramientas que sirvan a una democracia al terminar teniendo fines autoritarios. Este tipo de tecnologías no es compatible con una sociedad democrática», agrega.

AHORA LEE: Tencent lanza en China un sistema de reconocimiento facial que detecta a menores de edad que juegan videojuegos a deshoras

TAMBIÉN LEE: ICE paga 3.9 millones de dólares por tecnología de reconocimiento facial ‘rápido’ impulsado por IA en los centros de detención de migrantes

Descubre más historias en Expertos en Línea

Síguenos en FacebookInstagramLinkedInTwitter y Youtube

AHORA VE: