Deepfakes: cuando la tecnología amenaza la verdad

Por el momento, no se vislumbra una fórmula precisa para mitigar las consecuencias que estos contenidos puedan tener

Comunicación

En una era en la que la cantidad de información y canales de comunicación parecen sobrepasar la capacidad de procesamiento humana, hay un nuevo tema sobre la mesa que está generando un debate mundial por atentar contra la verdad y ser una amenaza para la opinión pública.

En un video se usó inteligencia artificial para modelar la gestualidad verbal de Barack Obama  

Se trata de los Deepfakes o ultra falsos, contenidos digitales alterados con tal nivel de profesionalismo que para nosotros los humanos, es casi imposible detectar si son reales o falsos. Son videos, imágenes o audios, que se manipulan de tal forma que el producto final puede tergiversar la verdad y generar confusión al público, convirtiéndose en un verdadero riesgo para la sociedad. 

Por Camilo Salah, Managing Partner de Wavemaker   

Hace 20 años, los académicos la utilizaron inicialmente para comprobar el alcance de la técnica de alteración en cine o videos experimentales. Un ejemplo reciente se desarrolló desde la Universidad de Washington, donde investigadores utilizaron herramientas de inteligencia artificial para modelar de manera muy precisa, los gestos y movimientos de la boca del expresidente Barack Obama, al hablar.  

El video fue publicado en YouTube con sus respectivas aclaraciones y sirvió para iniciar un debate sano sobre el futuro de los contenidos digitalmente alterados y su impacto en nuestra sociedad, pues existe una serie de aficionados que utiliza esta misma base tecnológica para crear alteraciones que van desde videos pornográficos con rostros de celebridades de Hollywood, hasta contenidos de personajes políticos hablando falsedades y expresándose de manera engañosa.  

Los casos más recientes incluyen un DeepFake de Marck Zuckerberg hablando sobre el tratamiento de los datos, que incluso está poniendo a prueba las propias políticas de Facebook sobre contenidos falsos. Otro video muestra a la presidenta de la Cámara de Representantes de Estados Unidos, Nancy Pelosi, expresándose como si estuviera bajo los efectos del alcohol. Para este último fue tan difícil comprobar su veracidad durante los primeros días, que tanto Facebook como YouTube tardaron más que un tiempo prudente en darles de baja. 

En el campo del audio, recientemente salió a la luz un simulador de voz ultra falso que permitía a los usuarios introducir hasta 280 caracteres de texto en una página web y, con esto, producir una voz casi idéntica a la del famoso autor, profesor y psicólogo clínico canadiense Jordan Peterson. Este desarrollo, que simula la voz de Peterson de manera excepcional, llamó la atención de distintos medios y líderes de opinión. 

Semanas luego de hacerse público, la revista Forbes y Motherboard (división de VICE) dieron a conocer detalles del 'programa' indicando que solo requiere seis horas de audio original del autor para aprender su voz y poder producir una falsificación creíble, que incluso simula la entonación original y el ritmo al hablar. Jordan Peterson amenazó con instaurar acciones legales contra los creadores de este deepfake auditivo. Dicha tecnología se está empleando actualmente para falsificar la voz de otros líderes políticos en EEUU como Trump, Bernie Sanders y el expresidente Clinton.    


Hoy en día, se estima que hay más de 10.000 videos ultra falsos circulando en la web y este número crece a diario de manera exponencial. Algunos analistas ya advierten que esta nueva tendencia tiene la capacidad de afectar gravemente la confiabilidad pública en el periodismo y el consumo de noticias, impactando las democracias y causando daños irreparables en el ecosistema de la información digital. El tema podría tener un impacto realmente preocupante, toda vez que con las herramientas, información y acceso que les brinda la internet a las personas, no sería raro que una persona pueda contar con todo lo necesario, al alcance de la mano, para crear un contenido de estos y afectar la reputación de alguien.

Muchos argumentan que la solución está del lado del consumidor, obligándolo a que siempre compruebe la veracidad de sus fuentes (como debe ser), que sea más riguroso en la selección de medios que consume y aplique los mismos filtros que utiliza al consumir contenido editorial. Otros opinan que la responsabilidad recae en las plataformas de medios digitales, quienes deben tener la capacidad para erradicar completamente estos contenidos, detectándolos a tiempo y prohibiendo su distribución. 

Quizás le interese leer: Breve mini-guía para detectar noticias falsas 

Por el momento, no se vislumbra ninguna fórmula precisa para mitigar las consecuencias que estos contenidos puedan tener. Este seguirá siendo un gran reto para afrontar, principalmente desde el lado de los medios, plataformas y también desde los consumidores de contenido, pues en este momento es difícil pensar en una tecnología que tenga más capacidad de alterar y afectar negativamente las comunicaciones en nuestra era. 

Algunas negrillas por Despejando Dudas 

Mira el video: 

Más noticias en Despejando Dudas:  Ojo, cibercrímenes latentes en el día a día

Más del 60% de los riesgos en línea vienen de extraños y personas que las víctimas sólo conocen en línea