Navigation

Cómo los ‘deepfakes’ están cambiando nuestra visión de la realidad

Brain Light / Alamy Stock Photo

Los vídeos falsos de gran realismo -deepfakes o ultrafalsos- han democratizado la manipulación de los contenidos visuales para influir en la opinión pública y difundir desinformación. Dos de los principales expertos en deepfake de Suiza explican por qué es cada vez más fácil engañar al ojo humano.

Este contenido fue publicado el 23 agosto 2021 - 08:41

Abraham Lincoln la utilizó para mejorar su imagen y aumentar su aura presidencial, José Stalin y Mao Zedong la utilizaron para borrar a sus oponentes políticos de la faz de la historia: la manipulación de las imágenes es al menos tan antigua como la fotografía misma.

Pero si antes solo los expertos podían engañar con maestría, hoy se ha convertido en un juego de niños. Basta con un software descargado de Internet, unas cuantas imágenes tomadas aquí y allá de los programas de búsqueda o de las redes sociales, y cualquiera puede crear vídeos falsos y difundirlos como un reguero de pólvora en la red. Muchos se habrán topado, por ejemplo, con el falso vídeo que se ha hecho viral de Tom Cruise jugando al golfEnlace externo o de la reina Isabel bailandoEnlace externo durante su discurso anual de Navidad. "Hoy en día, una foto es suficiente para crear un buen deepfake", afirma Touradj EbrahimiEnlace externo, que dirige el laboratorio de Procesamiento de Señales Multimedia de la Escuela Politécnica Federal de Lausana (EPFLEnlace externo).  

¿Qué significa deepfake?

El término deepfake tiene su origen en 2017 y proviene de la contracción de deep learning (el aprendizaje automático "profundo" que se basa en la inteligencia artificial) y fake (falso en inglés).

End of insertion

Desde hace algunos años el equipo de Ebrahimi se ha centrado en los deepfake y en el desarrollo de sistemas de última generación para verificar la integridad de las fotos, vídeos e imágenes que circulan por la red. La técnica deepfake utiliza la inteligencia artificial para generar imágenes sintéticas que parecen tan reales que engañan no solo a nuestros ojos, sino también a los algoritmos utilizados para reconocerlas. La tecnología ha demostrado ser capaz de superponer los rostros de dos personas diferentes para crear un perfil o identidad falsos.

Para Ebrahimi y su equipo, la lucha contra los deepfake es una carrera contra el tiempo y la tecnología: la manipulación de la información se ha convertido en un problema de seguridad nacional en muchas partes del mundo con la llegada de las redes sociales. Millones de personas, así como empresas y gobiernos, pueden crear contenidos y acceder a ellos libremente, pero también manipularlos.

A algunos países como Rusia, China, Irán y Corea del Norte se les considera muy activos en la difusión de noticias falsas (fake news), incluso mediante el uso de deepfakes, tanto dentro como fuera de sus fronteras nacionales, afirma Ebrahimi. Hace poco, por ejemplo, un miembro del Parlamento Europeo fue víctima de un engaño orquestado para desacreditar al equipo de Alexéi Navalny mediante falsas videollamadas que imitaban a personalidades de la oposición rusa.Enlace externo

Vea cómo la Escuela Politécnica Federal de Lausana utiliza la IA y el deep learning para detectar con mayor eficacia los vídeos manipulados:

Queremos ver vídeos reales

Un estudio del MITEnlace externo ha demostrado que las noticias falsas se difunden hasta seis veces más rápido que las reales en Twitter. Esto hace que el fenómeno del deepfake sea especialmente preocupante, según Ebrahimi. "Los deepfake son un medio muy poderoso de desinformación porque la gente todavía tiende a creer lo que ve".

La calidad de los vídeos también sigue aumentando, por lo que se hace cada vez más difícil diferenciar los auténticos de los falsos. "En la actualidad, un Estado con recursos ilimitados o casi ilimitados puede crear vídeos falsos tan aparentemente reales que incluso engañarían a los mayores expertos", afirma Ebrahimi. Un software sofisticado puede reconocer las manipulaciones, pero el profesor de la EPFL estima que, dentro de dos a cinco años, ni siquiera las máquinas podrán distinguir los contenidos reales de los falsos.

A la caza de deepfakes

El laboratorio de Touradj Ebrahimi lleva 20 años trabajando en problemas de seguridad de los medios de comunicación que implican imágenes, vídeos y audios y en la verificación de su integridad. Al principio, las manipulaciones eran principalmente una cuestión de derechos de autor. Más tarde, la cuestión se trasladó a la privacidad y la videovigilancia hasta la llegada de las redes sociales, que han contribuido a una difusión masiva de contenidos manipulados. 

Los deepfakes son capaces de eludir los detectores utilizados para identificar las falsificaciones. Para ello, el laboratorio de Ebrahimi utiliza un ‘paradigma’ llamado ‘tecnología de procedencia’ para determinar de forma anónima cómo se creó un contenido y qué manipulación se aplicó. "Pero para que la tecnología de 'procedencia' funcione, tiene que ser utilizada por un gran número de programas en la web: desde Google a Mozilla, pasando por Adobe, Microsoft o todas las redes sociales, por nombrar solo algunos", señala el experto. "El objetivo es establecer un estándar JPEG [de archivos de imagen y vídeo] que se aplique a nivel mundial”, añade.

End of insertion

"Cada vez más manipulaciones”

Al principio, los vídeos falsos se utilizaban principalmente para crear clips divertidos de actores y otras personas conocidas o en videojuegos. Algunos de estos vídeos pueden tener aplicaciones positivas, señala Ebrahim. "Los deepfakes ya se han utilizado en psicoterapia, para aliviar el sufrimiento de quienes han perdido a un ser querido", afirma el profesor.

Eso ocurrió en HolandaEnlace externo, donde un padre afligido creó un deepfake de su hija prematuramente fallecida para despedirse de ella. La web de genealogía MyHeritage es capaz de hacer algo similar: a través de su herramienta DeepNostalgiaEnlace externo puede "resucitar" a familiares fallecidos animando sus rostros en las fotografías.

Pero con el avance de la tecnología, los deepfakes se han convertido en una herramienta eficaz de denigración, sobre todo en detrimento de las mujeres, o en una forma de extorsionar y manipular la opinión pública.

Los ciberdelincuentes incluso los han utilizado para engañar a las empresas para que les envíen dineroEnlace externo haciéndose pasar por el director general y fingiendo una solicitud de transferencia de dinero urgente. 

"De momento solo hay unas pocas manipulaciones de este tipo, pero a medida que la tecnología avance veremos cada vez más", predice Sébastien MarcelEnlace externo, investigador principal del instituto de investigación suizo Idiap. Marcel explica que la tecnología actual de deepfake solo permite manipular el contenido visual, pero no el audio. Las voces, cuando no están tomadas de otros vídeos, son imitadas por un profesional.

"Las falsificaciones de audio siguen siendo un reto, pero en el futuro veremos deepfakes ultrarrealistas, capaces de reproducir fielmente la imagen y la voz de cualquier persona en tiempo real". En ese momento, las manipulaciones como la creación de un escándalo falso sobre un rival o competidor comercial, por ejemplo, serán posibles fácilmente.

Biometría en Suiza

Sébastien Marcel dirige el grupo de seguridad biométrica y privacidad del instituto de investigación suizo IdiapEnlace externo. Es uno de los pocos laboratorios de Suiza que se centra en la investigación biométrica para evaluar y reforzar la vulnerabilidad de los sistemas de reconocimiento de huellas dactilares y rostros. "La investigación sobre el reconocimiento facial y la biometría en general es todavía bastante escasa en Suiza", afirma Marcel.

End of insertion

Negar la realidad

A medida que aumenta el conocimiento de la técnica deepfake, la incertidumbre sobre lo que es real y lo que no lo es puede tener un efecto no deseado y crear una cultura de "negación plausible" en la que nadie está dispuesto a asumir la responsabilidad porque todo podría ser falso, comenta la investigadora Nina Schick en su libro Deepfakes: The Coming Infocalypse.Enlace externo

Incluso los vídeos reales pueden confundirse con contenidos manipulados. En Gabón, el presidente Alí Bongo, ausente de la escena pública desde hace semanas por enfermedad, ha sido objeto de un deepfake que provocó un levantamiento por parte de un puñado de militares golpistasEnlace externo.

"Los deepfakes podrían dar a cualquiera el poder de falsificar cualquier cosa, y si todo puede ser falsificado, entonces cualquiera puede reivindicar la negación plausible", argumenta Schick. Cree que este es uno de los mayores peligros sociales que plantean los deepfakes.

Cómo combatir la cultura de las fake news

La buena noticia es que la Unión Europea no se ha tomado el problema a la ligera. Proyectos de financiación como Horizonte Europa fomentan la investigación de vídeos falsos. "Esperamos ver más toques de atención de la UE sobre deepfakes en los próximos años", señala Marcel. Desde el punto de vista técnico, hacer frente a las falsificaciones profundas significa ser proactivo y centrarse en las vulnerabilidades de los sistemas. "Pero no siempre es tan sencillo", argumenta el investigador de Idiap. "Los procedimientos académicos para conseguir financiación son lentos". En cambio, las tecnologías que están detrás de los deepfakes se desarrollan cada vez más rápido.

Ebrahimi y Marcel coinciden en que, para combatir las fake news, es esencial crear conocimiento y educar a la población para que desarrolle una conciencia crítica y un sentido más profundo de la responsabilidad cívica. "Tenemos que enseñar a nuestros hijos a cuestionar lo que ven en Internet", asegura Ebrahimi, "y a no difundir ningún contenido indiscriminadamente".

Traducción del italiano: Carla Wolff

Los comentarios de este artículo han sido desactivados. Puede encontrar una visión general de los debates en curso con nuestros periodistas aquí. Por favor, únase a nosotros!

Si quiere iniciar una conversación sobre un tema planteado en este artículo o quiere informar de errores factuales, envíenos un correo electrónico a spanish@swissinfo.ch.

Compartir este artículo

Únase a la conversación

Con una cuenta de SWI, tiene la oportunidad de contribuir con comentarios en nuestro sitio web.

Conéctese o regístrese aquí.