Sociedad

Deepfakes: la era de los aterradores videos falsos

Federico Kukso 19 / Jun / 19
Desarrollados a través de nuevas técnicas de inteligencia artificial, los videos falsos cada vez más convincentes amenazan con atacar la reputación de las personas, desestabilizar democracias, manipular mercados financieros y promover el caos social

El año es 2027. Y el mundo está al borde del colapso: la derecha y los regímenes totalitarios avanzan en Europa; estalla una nueva crisis de refugiados —esta vez ucranianos—; el cambio climático se acelera provocando inundaciones generalizadas y apagones generalizados; las bananas se han extinguido y los adolescentes sueñan con implantarse dispositivos electrónicos en el cuerpo para conectarse íntimamente a internet. 

Heredera de distopías como Black Mirror, la nueva serie Years and years conmueve ya no mediante los giros inesperados de la ciencia ficción sino a través de la prospectiva, es decir, la previsión de situaciones concebibles que se abren a partir del presente.

Nadie puede saber con certeza cómo será la vida en el planeta en los próximos diez, cincuenta o cien años. Si habrá alguna vez autos voladores, si manejaremos todo con la mente o si colonizaremos Marte. Lo que sí se puede hacer es intuir los contornos del futuro y de este modo comenzar a construirlo (o hacer todo lo posible para evitarlo).

Falsificaciones profundas

En el caso de esta producción inglesa emitida por la BBC One y HBO, se trata de una historia del futuro que sigue los tumultuosos próximos 15 años en Gran Bretaña a través de los ojos de una familia. La visión del guionista Russell T. Davies (Queer as folk, Doctor Who, Torchwood) es terriblemente verosímil. En especial, porque explora la instalación y consecuencias de tecnologías que en la actualidad comienzan a asomar.

Por ejemplo, las llamadas “deepfakes” o falsificaciones profundas: videos falsos manipulados, es decir, réplicas de una persona generadas por computadora que mediante técnicas de inteligencia artificial hacen que alguien diga o haga algo que no ha dicho ni hecho.

videofake.jpg
La creación de deepfakes o falsificaciones profundas pueden traer consecuencias que aún no se han pensado | Foto: Especial

En la serie, estos videos son utilizados por el partido liderado por la populista Vivienne Rook (Emma Thompson) para desprestigiar a sus oponentes y hacerse con el poder. En la actualidad, estas “mentiras profundas” increíblemente realistas deforman nuestra percepción del mundo, amenazan con atacar la reputación de cualquiera y prometen llevar a la guerra contra la desinformación a un nivel completamente nuevo. 

La era de los títeres digitales

El viernes 7 de junio comenzó a circular un video desconcertante. En él, se ve a Mark Zuckerberg, fundador y CEO de Facebook, sentado en un escritorio y mirando a cámara: “Imagina esto por un segundo —dice—: un hombre con control total de los datos robados de miles de millones de personas, de todos sus secretos, sus vidas, sus futuros. Se lo debo todo a Spectre. Spectre me mostró que quien controla los datos, controla el futuro”.

De una manera impactante, uno de los hombres más influyentes del mundo parecía estar admitiendo en esta siniestra transmisión el poder de su compañía. Solo unos pocos advirtieron que el tal Spectre al que hacía mención Zuckerberg era el villano de la última película de James Bond.

Horas después, se disipaba la duda: el video, publicado en Instagram (propiedad de Facebook), en verdad era un montaje llevado a cabo por dos artistas británicos, Bill Posters y Daniel Howe, en colaboración con Canny AI, una compañía publicitaria israelí, realizado en el marco de un proyecto artístico llamado Spectrum que se exhibió en el festival de cine documental británico Sheffield Doc/Fest.

Las imágenes de Zuckerberg utilizadas para el engaño son reales: se trataba de un video que grabó en septiembre de 2017 sobre la interferencia electoral rusa en Facebook. Pero fue modificado de tal manera para que los labios del empresario cuadren con el texto leído por un actor.

zuck.png
Captura de pantalla de video fake de Mark Zuckerberg

Imágenes falsas, amenazas reales

Lo mismo ya ha ocurrido con otras figuras como Kim Kardashian, el actor Morgan Freeman, la artista serbia Marina Abrahamovic, la política británnica Theresa May y Donald Trump, que insinuó en un video que había ganado las elecciones gracias a los datos y algoritmos de Facebook. En otra grabación, imágenes de Nancy Pelosi, presidenta de la Cámara Baja de Estados Unidos, fueron editadas para que pareciera borracha.

Se trata de una amenaza a la esfera pública y nuestro ecosistema de información”, asegura Sam Gregory, director una organización por los derechos humanos llamada WITNESS. “La idea insidiosa de que la cara o la voz de cualquier persona puede llegar a ser falsa desafía nuestra confianza en la realidad. Nuestra cultura está cada vez más estructurada en torno a las imágenes. Sin embargo, también estamos mal equipados cognitivamente para distinguir las imágenes falsas de los hechos”.

Una nueva amenaza para la democracia

La manipulación de imágenes no es algo completamente nuevo. Mucho antes de la aparición de la computadora personal y del Photoshop, el software de edición de imágenes más conocido del mundo, los soviéticos dominaron el arte de borrar personas de las fotografías: a fines de la década de 1930, el dictador Joseph Stalin ordenó la erradicación tanto física como simbólica de sus opositores políticos para presentarlo como “el único amigo verdadero, compañero y sucesor de Lenin, el líder de la Revolución bolchevique y fundador de la URSS”, señala David King en su libro El comisario desaparece: la falsificación de fotografías y arte en la Rusia de Stalin.

Ahora los videos falsos realizados con técnicas de  inteligencia artificial potencian el engaño: cargan la promesa de sacudir la confianza de los espectadores y votantes, así como poner en jaque a las democracias.

La tecnología para falsificar de manera totalmente convincente a una persona real en forma digital ha avanzado tanto que cada vez es más difícil distinguir entre una falsificación y una grabación real. Esto es posible gracias a un tipo de inteligencia artificial que nació en 2014 y se conoce como “GAN”, siglas en inglés de redes generativas antagónicas: algoritmos de aprendizaje automático que, combinados con software de mapeo facial, son entrenados tanto para reconocer patrones como para generar por su cuenta imágenes, como hacer que el rostro de una persona aparezca diciendo algo que no dijo.
 

Alt
"Deberíamos acostumbrarnos a no creer la mayoría de los materiales multimedia que encontramos por internet", Yann LeCun | Ilustración: Especial
Alt
"Se trata de una amenaza a la esfera pública y nuestro ecosistema de información", Sam Gregory | Ilustración: Especial

Amplificadas por los poderes de distribución de las redes sociales, estas falsificaciones profundas hiperrealistas tienen el potencial de causar daños en varias escalas. La reputación de una persona podría quedar destruida —en un video donde se la muestra aceptando sobornos, pronunciando epítetos raciales o cometiendo adulterio—, incluso si los videos finalmente se exponen como falsificaciones. 

En los últimos meses, también se han viralizado videos pornográficos modificados con estas técnicas: grabaciones convincentes en las que los rostros de las actrices porno han sido reemplazados por los de de celebridades como Gal Gadot, Maisie Williams y Taylor Swift.

Campañas de desinformación masiva

Al sembrar la confusión, estos videos podrían también erosionar la confianza necesaria para el funcionamiento de la democracia, tanto como afectar la seguridad nacional, la estabilidad de los mercados financieros o promover el caos social.

Científicos de la Universidad de Washington recientemente crearon una nueva herramienta que toma archivos de audio, los convierte en movimientos bucales realistas y luego los injerta en un video existente. El resultado es una filmación bastante convincente como lo probó la investigadora Ira Kemelmacher-Shlizerman al manipular un video de Barack Obama. Cuanto más grande sea la biblioteca de contenido con la que se alimenta un algoritmo de aprendizaje profundo, más realista será el video falsificado.

barack.png
Captura de pantalla de deepfake de Barack Obama

A medida que se acercan las elecciones presidenciales de 2020 en Estados Unidos, la preocupación llega a los niveles más altos. La semana pasada el Congreso de Estados Unidos celebró varias audiencias para analizar cómo estas falsificaciones digitales que convierten a las personas en títeres digitales podrían llegar a incidir en los comicios en aquel país. 

La circulación de deepfakes tiene implicaciones potencialmente explosivas para los individuos y la sociedad”, dijo la profesora de derecho de la Universidad de Maryland, Danielle Citron. “Podrían dañarse reputaciones, el periodismo, la seguridad nacional y la verdad como la base de la democracia”.

Países como Rusia y China, por ejemplo, fueron señalados como posibles instigadores de campañas de desinformación para incitar al miedo y promover conflictos dentro de las democracias. “Las deepfakes van a destruir vidas humanas, van a enturbiar los mercados financieros y podrían generar conflictos militares en todo el mundo”, dijo el senador Ben Sasse.

Fakeapp, mentiras hechas en casa

La consternación es entendible. No se necesitan ciberejércitos para realizar estos videos cada vez más sofisticados. Productos como FakeApp ya están disponibles para cualquier tipo de usuarios: todo aquel con acceso a internet y a imágenes de la cara de una persona puede generar su propia falsificación profunda.

Recientemente, un laboratorio de inteligencia artificial de Samsung en Rusia presentó un nuevo sistema de inteligencia artificial que puede generar un clip falso a partir de una sola imagen. Para demostrar las posibilidades de sus videos sintetizados, los investigadores decidieron sorprender al mundo al recurrir a una de los iconos de la pintura: la Mona Lisa de Leonardo Da Vinci. En un video compartido en YouTube el 21 de mayo, tres clips de video muestran ejemplos desconcertantes de la Mona Lisa mientras mueve los labios y gira la cabeza.

Como cuentan en un paper, los ingenieros del Instituto de Ciencia y Tecnología de Skolkovo entrenaron a un algoritmo para entender las formas generales de los rasgos faciales y cómo se comportan entre sí y luego aplicar esa información a las imágenes fijas. Lo mismo hicieron con fotos de Albert Einstein, Marilyn Monroe y Salvador Dalí.

La única ventaja radica en que todavía las deepfakes no se usan de forma generalizada. Además, hasta el momento, no son perfectas: incluso en los casos más sorprendentes se aprecian ciertos errores de pixelado, que delatan la manipulación. Todavía las redes neuronales necesitan muchísima potencia informática y conjuntos de datos muy concretos para producir algo realmente creíble.

Video deepfake de la Mona Lisa


¿Existe un antídoto?

Al ritmo que maduran estas tecnologías también avanzan aquellas que buscan prevenir los engaños al encontrar si los píxeles o metadatos han sido alterados. Google anunció que está desarrollando una herramienta para identificar videos alterados, pero no ha dicho cuáles serán sus capacidades o cuándo saldrá.

FaceForensics, por su parte, es un programa creado por un equipo del Laboratorio de Computación Visual en Munich. Y según información obtenida por la Canadian Broadcasting Corp., la Agencia de Proyectos de Investigación Avanzada de la Defensa de los Estados Unidos (DARPA) lleva gastados al menos 68 millones de dólares en los últimos dos años desarrollando formas de identificar y contrarrestar las falsificaciones. Una de estas herramientas se conoce como Media Forensics.
 

No se necesitan ciberejércitos para realizar estos videos cada vez más sofisticados. Productos como FakeApp ya están disponibles para cualquier tipo de usuarios: todo aquel con acceso a internet y a imágenes de la cara de una persona puede generar su propia falsificación profunda.
Foto: Especial

La corrosión de la confianza

Las deepfakes en especial tendrán un efecto en el resto del ecosistema informativo: no solo impulsarán la desconfianza en ciertas figuras influyentes (como políticos, deportistas, actores, periodistas). También provocarán que las audiencias comiencen a desconfiar de videos de hechos reales a una escala mucho mayor de lo que ya hemos visto con las noticias falsas basadas en texto. “De alguna manera, esa es la verdadera amenaza”, dice el forense digital Hany Farid, del Dartmouth College, que lleva 20 años luchando contra las imágenes falsas. “No creeremos en nada”.

Incluso la mera duda de si se trata de un video legítimo o de una manipulación podría ser usada como estrategia por los abogados defensores de un sospechoso de pedofilia para desacreditar la evidencia y convencer a un jurado de su no culpabilidad. 

Los responsables del desarrollo de estas tecnologías se escudan diciendo que son avances inevitables. Uno de ellos es Ian Goodfellow, toda una estrella en la comunidad de la inteligencia artificial. Este investigador es el creador de las redes generativas antagónicas, “la mejor idea para el aprendizaje profundo de los últimos 20 años”, según el director científico del departamento de Inteligencia Artificial de Facebook, Yann LeCun.

Sus redes generativas antagónicas son una prueba de que las máquinas no solo pueden aprender por sí solas sino que también pueden aproximarse a la imaginación al crear por su cuenta imágenes y sonidos nuevos.

En su opinión, la verdadera arma contra las deepfakes no es tecnológica. “Tenemos que empezar a ser más escépticos”, dice este ex ingeniero de Google recientemente contratado por Apple. “Deberíamos acostumbrarnos a no creer la mayoría de los materiales multimedia que encontramos por internet”.

Autor: Federico Kukso
Periodista científico independiente. 2015-16 Knight Science Journalism Fellow at MIT. Escribe sobre ciencia, tecnología y cultura para publicaciones como La Nación (Argentina), Undark (MIT), Muy Interesante Argentina, Agencia Sinc (España), Scientific American (Estados Unidos), Brando, Le Monde Diplomatique, Suplemento Soy de Página 12 (Argentina), Bank Magazine, entre otras. Fue editor de las secciones de ciencia en diarios como Página 12, diario Crítica de la Argentina y subeditor de la sección Ideas en la Revista Ñ (Clarín). Autor de los libros: Todo lo que necesitás saber sobre Ciencia y Dinosaurios del fin del mundo, entre otros.