Denis Teyssou: “Los deepfakes pueden llevar a la impresión de vivir en una ficción permanente”

21 junio, 2021
denis-teyssou Imagen cedida por Denis Teyssou.

¿Qué son y cómo operan los deepfakes? ¿Cómo podemos luchar contra este tipo de desinformación, que cada vez utiliza herramientas más sofisticadas? Desde el Máster universitario en Social Media: Gestión y Estrategia de la UOC organizamos una jornada para abordar los deepfakes, una técnica de inteligencia artificial que permite editar vídeos falsos de personas que aparentemente parecen reales. 

Para ello, invitamos al periodista Denis Teyssou, que conoce bien este fenómeno y trabaja para combatir los deepfakes desarrollando herramientas como InVID y WeVerify dos plug-ins de verificación de deepfakes que se están empleando en todo el mundo. Teyssou es responsable editorial desde 2007 del Medialab, unidad de investigación y desarrollo (I+D) de la Agence France-Presse, especializado en medios online y tecnología web. Como experto en gestión de la innovación mediática ha participado en diversos proyectos europeos y nacionales (ANR) entre los que figuran los proyectos InVID y WeVerify. Aprovechamos su participación en la jornada para entrevistarle.

¿Nos puedes hacer una breve introducción de tu carrera profesional, y cómo llegas a desarrollar herramientas contra los deepfakes?

Empecé como periodista freelance en España en 1985 y tras integrar la plantilla de la Agencia France-Presse, estuve unos diez años como corresponsal de prensa extranjera en Madrid, dos veces (1990-1996 y 2000-2004). Al volver a París, trabajé luego en la Redacción en jefe técnica, el departamento interfaz entre la redacción y los servicios informáticos, y tras pasar un diploma de webmaster en en Instituto CNAM en París, me pasé al Medialab donde estoy ahora, participando en proyectos europeos en innovación en los medios de comunicación  y tecnologías de la información. En 2017, en el proyecto InVID, lanzamos el plugin de verificación de los bulos (especialmente bulos visuales en fotos y vídeos) que ahora estamos mejorando con el proyecto europeo siguiente WeVerify. Los progresos de la inteligencia artificial nos traen ahora nuevas formas de manipular el contenido audiovisual, nuevas formas que se democratizan con aplicaciones móviles, y tenemos que anticipar la difusión de estos bulos «hiper-realistas».

Al vídeo se le otorga más credibilidad. ¿Es más difícil desmontar un bulo en vídeo que en texto o en otro formato? ¿Se pueden poner en el mismo saco las fake news que los deepfakes?

Imagen de Cottonbro (Unsplash)

El video nos da la impresión que nosotros mismos asistimos a la escena y que podemos hacernos nuestra propia interpretación, y por lo tanto, conlleva un poder añadido de persuasión. Gracias a los índices fenomenales (de datos masivos) de los motores de búsqueda inversa de imágenes, se puede hoy en día encontrar las imágenes originales que suelen ser utilizadas para fabricar los bulos. Pero, hay también bulos de videos creados desde cero, pero es menos frecuente porque se necesitan más competencias, tiempo y material para fabricarlos. 

La creación de deepfakes implica el uso de inteligencia artificial, es decir, métodos cada vez más sofisticados. ¿A quién debería preocupar más la propagación de deepfakes?

A tod@s, en cuanto la democratización de estas tecnologías llega a las aplicaciones móviles. Estas nuevas herramientas permiten crear efectos especiales automáticos (sin conocimientos especiales en programas de post-edición video e incluso de aprendizaje por computadora) y esto va a tener impacto en la producción de ficciones (para el cine), incluidos los bulos, ya que con estas técnicas se puede cambiar la cara de una persona en un video, cambiar su expresión facial, modificar el contorno de la boca para hacer creer que ha dicho algo que no ha dicho o quizás peor aún, aprender la voz del personaje para hacerle decir cualquier cosa. Estas técnicas multiplican las «oportunidades» de manipular el contenido.

Nos encontramos con bulos recurrentes, que surgen una y otra vez en países distintos que utilizan los mismos recursos, pero adaptan la historia a cada nuevo contexto ¿por qué ocurre esto y cómo pueden seguir difundiéndose cuando ya han sido desmentidos?

En la historia, hay muchos ejemplos de bulos que han atravesado los siglos. Es algo que comentó Umberto Eco en varias de sus obras (como el capítulo «la fuerza de lo falso» en sus libros sobre Literatura o Serendipities). Hoy en día, la imagen digital con la facilidad de su reproducción y manipulación, se presta muy bien a su descontextualización en otros países o idiomas. Los bulos así creados ponen en evidencia las lagunas epistémicas del funcionamiento de los motores de búsqueda en sus estrategias de indexación. Di el ejemplo de la falsa imagen de la muerte de Bin Laden en la charla el otro día, que los principales motores asocian a su muerte cuando se sabe que es un fotomontaje de un fotograma de la pelicula de Ridley Scott «la caida del Halcon negro».

Los deepfakes son la mayor amenaza del futuro de la desinformación.

¿Cómo surge la necesidad de desarrollar herramientas como InVID-WeVerify? ¿Cómo evoluciona el proyecto? ¿Qué tipo de profesionales trabajan para desarrollar este tipo de herramientas?

El objetivo de InVID era ayudar a los medios en verificar los testimonios de los usuarios en las redes sociales, especialmente en situaciones de «breaking news» y negociar los derechos de re-uso. Al final del primer año del proyecto, empezó la ola de fake news tras la elección de Donald Trump a la presidencia de los EE.UU y estábamos ya trabajando en tecnologías de verificación así que pudimos ofrecer nuestra ayuda a los fact-checkers.  El nuevo proyecto WeVerify evoluciona muy bien y estamos finalizando varias nuevas herramientas para mejorar el proceso de verificación de la información. Los profesionales que intervienen en estos proyectos de I+I+D son informáticos, investigadores, diseñadores y también periodistas y fact-checkers porque son los primeros usuarios de estas herramientas.

Los vídeos son el formato que más triunfa en redes sociales. ¿Llega tarde la verificación de vídeos manipulados a la población? ¿La sociedad es consciente de lo que son los deepfakes?

La verificación de los vídeos manipulados ya llega a la población con los blogs de fact-checking o con los programas de TV que desmontan los bulos, y también con herramientas de fuente abierta como la nuestra aunque en este caso, hay que actuar, aprender el manejo y utilizarlas y menos gente se pueden sentir concernidas o dispuestas a hacerlo. Hay bastante alertas ya sobre los deepfakes, quizás más en países anglosajones. Con los deepfakes, llegamos de pleno en el concepto de hiperrealidad acuñado por Jean Baudrillard, lo cual puede llevarnos como sociedad a un escepticismo generalizado y a la impresión que vivimos en una ficción permanente. El problema es que para hacer sociedad, necesitamos confianza y el fact-checking, todavía emergente, contribuye a restablecer esa confianza en los contenidos.

El plug-in se está usando por todo el mundo. ¿Cómo se explica su reciente expansión y donde es más empleado? ¿Actualmente, cuáles son los medios de comunicación que utilizan InVID-WeVerify? 

La expansión del plug-in es un síntoma de la propagación de los bulos en todo el mundo, empezando por la fuerte polarización de la sociedad, por los procesos electorales muy disputados y por la pandemia mundial de Covid-19. Los cinco primeros países donde más se utiliza son Francia, EEUU, India, Holanda y España por ese orden, pero tenemos usuarios en 193 países. Las grandes agencias, cadenas de TV, los fact-checkers son nuestros usuarios desde el inicio.

La imagen digital con la facilidad de su reproducción y manipulación, se presta muy bien a su descontextualización en otros países o idiomas

¿Es necesario que los ciudadanos conozcan también estas herramientas? ¿Formaría parte este conocimiento de las bases de una alfabetización mediática?

Si, está bien que los ciudadanos sepan que existen esas herramientas y que pueden utilizarlas, aunque solo sea para evitar compartir bulos por las redes sociales. Son típicamente conocimientos de base de una alfabetización mediática y de hecho, los profesores que dan clases de educación a los medios lo utilizan ya. Hemos añadido un aula para profesores con contenidos pedagógicos y ejemplos dentro del plug-in en el proyecto europeo YouCheck! y ahora trabajamos en un segundo proyecto de educación a los medios YouVerify para añadir unos Mooc de auto-aprendizaje. 

¿Hacía dónde avanza la desinformación y cómo deberían avanzar las herramientas de verificación?

Los deepfakes (que portan también la capacidad de modificar archivos audiovisuales y por lo tanto de reescribir el pasado) son la mayor amenaza del futuro de la desinformación. Así como también lo es la difusión fragmentada en múltiples plataformas donde los bulos tendrán quizás menos audiencia o menos viralidad, pero serán también más difíciles de detectar y desmontar. Esto es un juego del gato y del ratón (donde no sabemos a veces quien corre detrás de quien) donde nos tenemos que adaptar a medida que surgen los nuevos desafíos.

Autores / Autoras
Silvia Martinez
  • Directora del Máster Universitario de Social Media: Gestión y Estrategia de la UOC.
Editora de contenidos de los Estudios de Ciencias de la Información y de la Comunicación.
Comentarios
Deja un comentario