Los algoritmos predictivos pueden emplearse para múltiples fines, desde anticipar el comportamiento humano a conocer de antemano posibles delitos, o incluso predecir la propensión de un adolescente a consumir alcohol o drogas. En Argentina, el algoritmo se usó para predecir un embarazo.
Cuando el inmenso poder del avance tecnológico se cruza con el autoritarismo estatal o la hipervigilancia, pueden nacer proyectos tan polémicos como cuestionables desde el punto de vista de la ética.
Una investigación llevada a cabo por el medio Wired revela que Salta, provincia de Argentina, aprobó el desarrollo de un algoritmo de Microsoft en 2018 para determinar qué futuras adolescentes podrían tener un embarazo.
Calificado por la propia tecnológica fundada por Bill Gates como «uno de los casos pioneros en el uso de datos de IA», el algoritmo utilizó un «coctel» de datos demográficos y personales. El propósito era predecir las probabilidades de que las mujeres y niñas del pequeño municipio argentino pudieran embarazarse.
Entre la información recabada están su edad, etnia, discapacidad, país de origen y si su casa contaba con agua caliente, indicador de su nivel socioeconómico.
Mientras el país debatía acerca de la despenalización del aborto, este programa fue aplaudido en la televisión nacional por el entonces gobernador Juan Manuel Urtubey.
Las consecuencias de la aplicación de la IA repercutieron negativamente sobre las mujeres y niñas identificadas como posibles madres adolescentes: fueron privadas de sus derechos de diversas maneras.
El algoritmo, conocido como Plataforma Tecnológica de Intervención Social, destacó por la falta de transparencia que rodeó al programa. Estaba orientado a la vigilancia y control de la población.
Desde Wired advierten de que las autoridades argentinas jamás evaluaron formalmente el impacto del algoritmo en niñas y mujeres.
Además, el programa implicó el despliegue de agentes territoriales que encuestaron a las personas identificadas como predestinadas para el embarazo, les tomaron fotos e incluso registraron sus ubicaciones GPS.
No se conoce con exactitud qué se hizo con los datos ni su relación en el debate sobre la despenalización del aborto.
La información proviene de la labor divulgativa e investigadora de activistas feministas y periodistas que lideraron la auditoría de la IA; la calificaron como «defectuosa y dañina».
Alertaron a los medios sobre cómo se utilizaba una tecnología no probada y no regulada para violar los derechos de las niñas y las mujeres.
“La idea de que los algoritmos pueden predecir el embarazo adolescente antes de que suceda es la excusa perfecta para que los activistas contra las mujeres y los derechos sexuales y reproductivos declaren innecesarias las leyes sobre el aborto”, escribieron las académicas feministas Paz Peña y Joana Varon.
Además, el Laboratorio de Inteligencia Artificial Aplicada de la Universidad de Buenos Aires destacó los graves errores técnicos y de diseño de la plataforma. Cuestionó que el modelo hiciese predicciones correctas el 98.2% de las ocasiones, tal y como aseveraban sus desarrolladores.
La base del sistema también fue objeto de fuertes críticas; no incluyó datos sobre la educación sexual o la anticoncepción. Los esfuerzos de salud pública en todo el mundo reconocen a ambos como las herramientas más importantes para reducir las tasas de embarazo adolescente.
“Los problemas metodológicos, como la falta de confiabilidad de los datos, plantean el riesgo de que los responsables políticos tomen medidas equivocadas”, apuntó Diego Fernandez Slezak, director del laboratorio.
AHORA LEE: Los NFTs están empezado a usarse para el lavado de dinero, según reporte
TAMBIÉN LEE: Cada vez más compañías de videojuegos anuncian proyectos NFT, pero los videojugadores no están contentos al respecto