Durante el verano de 2019, varios ciberdelincuentes utilizaron inteligencia artificial (IA) para usar la voz del CEO de una firma energética de Reino Unido.
Así lograron robar más de 265,710 dólares según explicó entonces The Wall Street Journal.
El fenómeno de los ladrones de voz todavía no se ha extendido mucho. Pero los diversos desarrollos que se están llevando a cabo en el ámbito de la inteligencia artificial revelan varias cosas:
Un ejemplo de ello es el reciente anuncio de la cerveza española Cruzcampo.
Gracias a la IA se logró suplantar a la desaparecida Lola Flores usando miles de imágenes de archivo para crear un deepfake.
Esto unido a la colaboración de su hija Rosario para diseñar el tono y timbre de voz de la artista hicieron posible el spot que todos conocen y que se hizo viral hace apenas unas semanas.
La polémica no tardó en estallar: ¿Está bien utilizar la voz de una persona sin su consentimiento?
El país europeo presentó una Carta de Derechos Digitales y una Estrategia Nacional sobre IA, pero los conflictos éticos pueden llegar algo más lejos cuando se trata de estas clonaciones de voz.
Gemma Galdon —experta de ética tecnológica en España, CEO y fundadora de una empresa y fundación llamada Eticas— preguntaba sobre los riesgos de la clonación de voz, ella confirma que existen y son serios.
«Este fenómeno crea un espacio brutal para engañar a la gente», advierte.
«Tendremos que estudiar cómo proteger las voces auténticas. Quizá con unos sellos de calidad», considera.
La CEO de la empresa que se dedica a auditar algoritmos y a analizar los impactos sociales que pueden tener las innovaciones tecnológicas, agregó que «la tecnología nos obliga a ser mucho más críticos. Como sociedad, nos tendremos que poner mucho las pilas», aseveró.
«Es como con las fake news. Antes leías una noticia y asumías que era cierta. Ese proceso ya no existe».
Claudia Rivera es la responsable de Datos de Ironhack. Coincide con Galdon en que lo importante es, sobre todo, el uso de los datos que puede utilizar un sistema de IA y cómo los gestiona la persona que está detrás de sus redes neuronales.
Una inteligencia artificial puede ser capaz de clonar voces, pero, ¿qué ocurre después? «Lo más importante es la intencionalidad que se tenga con el estudio», incide Rivera.
«Toda la parte técnica es igual, ¿cuál es la diferencia? La intención». La tecnología que puede haber detrás de la suplantación de una voz, de un deepfake pornográfico o de un detector de fake news puede ser la misma.
Galdon, además, no se detiene únicamente en los problemas que origina la clonación de voz.
Hay startups españolas, como Analyticalls, que están buscando la forma de que las máquinas consigan mantener conversaciones autónomas e incluso contar con la capacidad de la empatía.
Galdon advierte que ese tipo de desarrollos todavía están lejos.
Recuerda, por ejemplo, el caso de Google Home, el altavoz de Google. Su asistente de voz tiene la capacidad de llamar a restaurantes para reservarle una mesa a sus usuarios. Algo que a los empresarios hosteleros sigue generándole incertidumbres, como detalla en este artículo The Verge.
«La IA fallaba un montón. Las conversaciones a la hora de llamar a un restaurante no siempre son lineales. A lo mejor pides mesa para cuatro a una hora y el restaurante te ofrece otra a otra hora. A lo mejor el restaurante te pregunta si vas con niños para reservarte más espacio, no es tan sencillo», explica Gemma.
Si sumas ambos elementos, hay una tormenta perfecta. Inteligencias artificiales capaces de suplantar a personas con voces reales.
Gemma Galdon recuerda una de las leyes de la Robótica Responsable. «El humano siempre tiene derecho a saber si está hablando con otro humano o con una máquina».
Basta llamar al servicio de atención al cliente de una gran teleco para detectar que esto no se cumple. «Al final será algo como cuando vemos un concierto en la tele y avisan de que es voz en directo. Tenemos derecho a saber cuándo es playback». «Todavía queda mucho para ver a IA manteniendo conversaciones autónomas», insiste.
«Pero la clonación de voz será algo mucho más fácil y llegará mucho antes».
Por ejemplo, la ley española aún no dice nada en concreto sobre estas clonaciones, mucho más novedosas que la legislación de derechos de imagen.
El Parlamento Europeo ha elaborado 3 reglamentos distintos en este sentido:
Los 3 proyectos han sido remitidos a la Comisión Europea, que es la institución que debe aprobarlos.
Estos afectarían a «todos los programas informáticos, estén o no incorporados en dispositivos físicos, que manifiesten un comportamiento similar al humano o inteligente», explica el abogado experto en derecho de la inteligencia artificial y el socio director de Algoritmo Legal, Ricardo Oliva.
Todo lo que encaje en eso y tenga aplicación en los sectores que enumera el proyecto debe cumplir una serie de condiciones de seguridad, transparencia y rendición de cuentas, matiza el abogado, y para demostrarlo, deben de ser auditables y trazables.
«Lo que la Unión Europea quiere ahora es que antes de lanzar un sistema de inteligencia artificial que pueda encajar en el concepto de alto riesgo, el sistema sea auditable, que se garantice que tiene un rendimiento fiable, exactitud de la realización de los objetivos y la posibilidad de una explicabilidad para que el ciudadano pueda entenderla de manera fácil», explica.
Una vez se aplique esta legislación, las empresas del sector tendrán que adaptarse y eso harán que suban sus costos, ya que deberán tener un seguro obligatorio y una adaptación de sistema para cumplir todos los requisitos.
«Los costos de las empresas aumentarán en cierta medida, pero también las garantías de cara a los consumidores y los ciudadanos», explica Oliva.
Aflorithmic Labs, una startup de clonación de audio con sede en Londres y Barcelona, explica en una entrevista previa con Business Insider España que ellos tratan la voz como una característica personal similar a la imagen, por lo que es necesario pagar unos derechos y tener el permiso del actor para utilizarla.
«Nosotros lo vemos como un dato sensible, tan personal como tu contraseña, tu nombre o tu dirección», defiende el CCO y fundador de la empresa, Björn Ühss. «Es su derecho, es su voz».
El CMO de esa misma compañía, Matthias Lehman, insiste en que detallar en los contratos los usos de esa voz y las condiciones y que los derechos de esta siempre son del actor o actriz.
Oliva comparte esta visión e incide en que es la forma de limitar el uso de la voz o la imagen clonada, aunque siempre es susceptible de caer en las manos equivocadas.
Algo que la UE ya prevé en los reglamentos que ha preparado es que la inteligencia artificial nunca sea titular de derechos de autor.
En abril de 2016, un robot consiguió copiar de forma casi perfecta un cuadro de Rembrandt, lo que despertó el debate sobre la autoría de esta nueva obra.
«Este proyecto [el de la UE] viene a decir que la autoría siempre tiene que ser del programador, de un humano. Está descartado que una IA pueda ser autora», explica Oliva, aunque no descarta que las leyes puedan cambiar en el futuro.
Analyticalls es una startup valenciana prácticamente recién nacida cuyo producto es un sistema de análisis de voz que ayuda a call centers a mejorar su toma de decisiones y optimizar a sus procesos detectando patrones, problemas e incluso estados de ánimo tanto en trabajadores como en clientes.
Su CEO, Ricardo Gasperini, destacaba en otra reciente entrevista con Business Insider España que confían en un futuro que será «por voz».
«En el futuro habrá menos personas en los call centers, pero eso no quiere decir que ya no podamos hablar con alguien. Nosotros queremos ser ese alguien. Esa máquina. Que parezca humano, que te entienda, te atienda y te resuelva el problema».
«A nadie le gusta hablar hoy día con un robot. No son tan listos. Pero lo que queremos en un futuro es que, aunque sepas que es un robot, que sepas que es eficiente, amable, y te podrá atender». Pero se tendrá que indicar.
«Cuando empiecen a ser más humanos se deberá indicar. No creo que así le moleste a nadie», destacaba.
Lehman coincide con esa visión y explica que las voces clonadas avisarán de que no se está hablando con una persona, de la misma forma que se hace en prensa con los publirreportajes.
Rivera, por su parte, hace hincapié de que lo que importa es el uso de los datos que haga la persona detrás de la IA y que no depende tanto de la propia tecnología.
«Creo que el problema de raíz son los datos y cómo se tratan y guardan en la inteligencia artificial», explica Rivera.
«Decimos que a Google no le importa lo que yo haga. Bueno, igual no le importa lo que haga una persona concreta, pero sí los agregados, es decir, lo que hace España de media, lo que haga Madrid de media, lo que se haga en un barrio».
El uso de estos agregados también plantea problemas éticos importantes, explica Rivera, que pone de ejemplo el escándalo de Cambridge Analytica e incide en que aún se está en una fase reactiva del problema, en vez de proactiva.
En cuanto al futuro de esta tecnología, Rivera cree que aún estamos lejos de que la IA tome sus propias decisiones, aunque si cree que veremos la aplicación de esta en ámbitos bélicos, entre otros, que aumentarán la desigualdad entre unos ejércitos y otros.
AHORA LEE: Colektia, la startup que revoluciona la cobranza con Inteligencia Artificial
TAMBIÉN LEE: Yalochat, la inteligencia artificial que trabaja para convertir a los clientes en los “amigos” de las empresas