Estos expertos te dan algunas pistas para detectar deepfakes

  • Con el mejoramiento de la Inteligencia Artificial, han proliferado los deepfakes o videos generados sintéticamente.
  • Este tipo de engaños afectan mayoritariamente a las mujeres.
  • Con el objetivo de conocer cómo se pueden detectar estos deepfakes, especialistas de BBVA Next Technologies, ofrecen algunos consejos.

Los deepfakes o engaños sofisticados realizados con tecnología son cada vez más difíciles de descubrir. Pero al mismo tiempo, los expertos en ciberseguridad trabajan para desentrañar el uso de la inteligencia artificial (IA) en esos casos.

Probablemente, los fans de la reconocida saga de Star Wars recuerden cómo en la película «Rogue One» aparecía una princesa Leia —Carrie Fisher— totalmente rejuvenecida; o, más tarde, un Luke Skywalker —Mark Hamill— por el que los años no habían pasado, en la serie «The Mandalorian».

Ambos personajes eran deepfakes, aunque los seguidores de las películas de George Lucas ya lo sabían, por la mala calidad de las CGI; es decir, las imágenes generadas por computadora que crearon a ambos personajes. Incluso algunos seguidores, como Shamook, mejoraron dichos videos.

Sin embargo, en internet es más complicado reconocer si un video fue manipulado a través de IA; sobre todo si detrás hay una herramienta que puede imitar casi a la perfección rostros humanos. Aun así, la tecnología siempre es mejorable y estas inteligencias artificiales pueden crear ciertos detalles que las delatan.

Para conocer un poco de este mundo —fascinante y aterrador—, Miguel Hernández Boza, investigador de seguridad, y José Ignacio Escribano Pablos, investigador en ciberseguridad y aprendizaje automático, ambos de BBVA Next Technologies, ofrecieron a Business Insider España algunos consejos para detectar estos engaños.

Los ‘deepfakes’ son herramientas peligrosas que afectan, principalmente, a mujeres

Según un estudio de Deeptrace, publicado un 2019, en la web existen alrededor de 14.678 deepfakes identificados; de los cuales el 96% tienen que ver con la pornografía y afectan, mayoritariamente, a las mujeres. 

Hernández y Escribano explicaron que este hecho se debe a la aparición de herramientas creadas para elaborar este tipo de contenido falso; muchas de las cuales están al alcance de todos con un solo clic.

«En contraposición al escenario del cine, donde eran necesarios conocimientos de edición y programas caros, la creación de deepfakes no requiere de conocimientos técnicos ni de herramientas específicas, sino que basta con descargarlas de internet y dejarlas funcionar», aseguraron.

Además, la pornografía no es el único lugar donde proliferan los deepfakes. También, su uso con celebridades y reconocidos políticos está a la orden del día, como el caso de los deepfakes de Tom Cruise o de Obama y Donald Trump.

Según los especialistas en ciberseguridad, con este tipo de personajes famosos «se dispone de más información pública con la que entrenar estos modelos de inteligencia artificial, que permiten generar deepfakes».

Aun así, también han mencionado un buen ejemplo del uso de este tipo de contenido falso, como la campaña de Cruzcampo, en la que apareció la carismática Lola Flores, hablando sobre lo maravilloso que es el acento andaluz. En este video, puedes ver cómo crearon su imagen con la ayuda de la IA:

Desgraciadamente, no todos los creadores de deepfakes tienen la buena voluntad de Cruzcampo. Su video falso era en realidad un homenaje a la reconocida artista española. Por este motivo, ambos expertos han ofrecido algunas técnicas para reconocer si un video fue sintetizado artificialmente.

Cómo saber si nos encontramos ante un deepfake

La proliferación de este tipo de videos no solo atenta contra la veracidad de la información en internet, también implica cierto reparo en la confianza hacia todo lo que se publica en la red por parte de los consumidores.

En este sentido, «el mejor consejo que se puede dar frente a este tipo de contenido es contrastar toda la información que nos llega, ya que es la mejor forma para detectar este tipo de contenido», explicaron los expertos en ciberseguridad.

Al igual que sucede con las noticias, los usuarios deben verificar que la procedencia de la información es fiable. Y, lo más importante, «esperar antes de tomar una posición o decisión sobre un contenido que hemos visto, como puede ser una noticia o un tuit, y comprobar que realmente ha sucedido».

En cuanto a la verificación de imágenes, los investigadores han añadido que «cada vez es más complicado detectar, a través de los sentidos, si es un engaño o no». Aunque aparecen detalles que deberían hacer saltar las alarmas, como:

  • Una oreja por encima del pelo
  • Pendientes distintos
  • Dientes no alineados con el centro del rostro
  • Pérdida de calidad en los cambios de plano o movimientos bruscos de la cara.
Retrato de una niña, generado por Inteligencia Artificial. / This Person Does Not Exist.

Por otro lado, hay que prestar especial atención a las voces sintéticas, las cuales «contienen ciertos tonos robóticos fácilmente reconocibles». 

Por último, los expertos han aconsejado utilizar el «sentido común» y recomiendan que, si alguien es víctima de un deepfake, acuda inmediatamente al Grupo de Delitos Telemáticos (GDT), de la Guardia Civil o su policía cibernética local.

Aun así, es difícil que se llegue a este punto, a no ser que la víctima sea una celebridad. Además, esto se puede evitar si se utilizan algunas herramientas digitales, cuyo objetivo es la detección de este tipo de videos.

Soluciones digitales para frenar los deepfakes

Como en muchos otros campos, en éste la solución es el problema; es decir, el uso de la IA puede frenar el avance de los deepfakes en la web —que irónicamente— los genera la misma IA.

Así, diferentes organizaciones ofrecen herramientas digitales a los usuarios para que sean capaces de detectar deepfakes.

En primer lugar, aparece Faceforensics++, una herramienta que cuenta con una «gran precisión», según los expertos en ciberseguridad. Dicha tecnología está disponible en internet para todos los usuarios.

En segundo lugar, desde BBVA Next Technologies, también desarrollaron una herramienta basada en Faceforensics++, con el objetivo de «comprobar fácilmente si un video fue manipulado, sin necesidad de tener conocimientos técnicos».

El deepfake de Tom Cruise viral en TikTok
TikTok.

A estas dos herramientas se suman otros servicios, como Sensity, que permite al usuario subir un video, que será verificado por la propia herramienta, para saber si verdaderamente es un deepfake. A pesar de la importancia de la web, en el caso del deepfake de Tom Cruise, según pudo comprobar Business Insider, lo reconoció como verdadero; por lo que conviene dudar de dicho análisis u ofrecer archivos complementarios que faciliten el trabajo de la IA.

Además, la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA), de Estados Unidos, desarrolló su propia solución a gran escala, a la que bautizó como Medifor, que estará encargada de monitorizar todo el contenido de internet para identificar estos videos falsos.

Con todo ello, el camino para crear información veraz en la red pasa por el mejoramiento de la IA para detectar contenido falso, ya sea con el objetivo de desprestigiar a un personaje público o hacer un uso poco ético de este tipo de tecnologías. 

AHORA LEE: Claners, la startup que permite a millones de mexicanos acceder a videojuegos digitales aunque no tengan cuenta bancaria

TAMBIÉN LEE: Medicina digital: el poder curativo que no conocías de los videojuegos (parte I)

Descubre más historias en Expertos en Línea

Síguenos en FacebookInstagramLinkedIn y Twitter