noticias , politica , sociedad Martes, 15 diciembre 2020

La deepfake ya llegó al Perú y aquí te contamos por qué le preocupa a mucha gente

Título original: Porno y democracia: las implicancias del deepfake

 

Esta semana una de las indignaciones twitteras giró en torno a un comercial creado por el autoproclamado movimiento ciudadano “#PeruTeQuiero”. En él, se usa la imagen del fallecido Daniel Peredo para promover un mensaje sobre el distanciamiento social en tiempos de Covid. En el comercial, vemos que el rostro del comentarista deportivo fue editada encima del cuerpo de alguien más, complementada con una imitación de su voz, dando la impresión de que el mismo Peredo es quien nos da el mensaje, que de manera bizarra incluso hace mención de su propia muerte.

El debate indignado consideró varios factores pero se puede centrar sobre uno clave: ¿está bien usar la imagen de personas fallecidas para fines comerciales? Así partan de una buena intención, ¿dónde queda el límite de lo ético? Y, peor aún, ¿cuáles son las implicancias de que esta tecnología siquiera exista?

Para hacer un recuento veloz, hablemos de la aparición de la tecnología de reemplazo de rostros conocida como deepfake.

¿Cómo funciona?

Pues, a través del almacenamiento de imágenes de una persona (videos, fotos, etc) un programa de inteligencia artificial puede recrear simulaciones de cómo se vería este rostro haciendo diferentes expresiones. De este modo podemos agregar la cara de cualquier persona a cualquier otro video.

En Perú, este año hemos visto cómo recrearon la cara de Grau y Chabuca Granda para otros fines propagandísticos, pero en la Internet esta práctica ya viene creciendo desde el 2017, cuando un boom de pornografía DeepFake invadió foros y páginas porno.

O también para poner la cara de Nicolas Cage sobre todos los personajes de todas las series

O también para poner la cara de Nicolas Cage sobre todos los personajes de todas las series.

Así es; como la mayoría de tecnología digital creada por la humanidad, el deepfake también tuvo sus orígenes en la industria pornográfica donde los rostros de diversas celebridades eran sobreimpuestos en actrices porno para simular escenas de sexo que involuntariamente incluían la imagen de estrellas de Hollywood y demás.

Luego, debido a que esta tecnología está abiertamente disponible y ni siquiera es tan difícil de usar, el deepfake se popularizó y expandió a crear videos porno no solo de celebridades, sino de personas comunes y corrientes a quienes los creadores de los deepfake querían incluir dentro de escenas pornográficas.

La preocupación sobre este fenómeno se hizo notar velozmente y —además de que el uso de la tecnología fue prohibido en varias redes como Facebook, Twitter, Tiktok y Pornhub— en EEUU ya han empezado a crear legislación prohibiendo el uso de tecnología deepfake.

Poner esto en práctica, sin embargo, está resultando increíblemente problemático. No solo es difícil de rastrear qué videos son deepfake, sino que también hay un gran área gris sobre qué consiste en un deepfake siquiera, considerando la cantidad de tecnología de edición de rostros que existen y las diferentes funciones que estas cumplen (por ejemplo, los filtros de Instagram o FaceApp para ver cómo nos veríamos si fuéramos viejitos).

Ahora, que alguien nos convierta en estrellas porno contra nuestra voluntad, si bien es aún un delito gravísimo, parece ser el menor de nuestros problemas concernientes el uso de la tecnología deepfake.

¿Si ya no podemos creer en lo que vemos, qué será de nosotros? 


Este video falso de Obama se volvió popular hace dos años y comparte las preocupaciones del uso de deepfake para desprestigiar a políticos y otras personalidades notorias

La tecnología deepfake ya alcanzó los estratos de la manipulación política. En EEUU se usó para incluir a un candidato político de Texas dentro de una reunión de neonazis, y en Malasia (donde la homosexualidad es ilegal) se usó para crear un video de uno de sus ministros teniendo sexo gay con uno de sus ayudantes.

Aunque la consciencia respecto a la existencia de esta tecnología va creando mayor escepticismo en los videos que puedan aparecer de fuentes no oficiales, no cuesta mucha imaginación pensar en las consecuencias nefastas que el deepfake generará en la dispersión de noticias falsas. Es solo cuestión de tiempo antes que nuestros tíos nos manden videos falsos por whatsapp de Verónica Mendoza bailando Zorba el Griego o George Forsyth dando un discurso elocuente.

Recordemos que hubo gente (como Hernando de Soto)

Recordemos que hubo gente (como Hernando de Soto) que creyó que imágenes como estas eran verdaderas.

 

Por ahora, el ojo cuidadoso puede identificar un deepfake a través de varias características delatoras. El movimiento artificial del cabello, los ojos suelen pestañeear de manera poco natural, etc. ¿Pero qué pasará cuando se perfeccione esta tecnología? ¿Qué pasará cuando los trolls lo usen para crear multitudes de videos para desprestigiar a quien les provoque?

El video de Daniel Peredo quizá nos haya parecido de muy mal gusto a muchos, pero lo que debería paltearnos aún más es la posibilidad de que empiecen a salir deepfakes de personas aún vivas, y peor aún si estas están en campaña política. Parece que una legislación prohibiendo y penalizando su uso probablemente no sean suficientes. Por ahora, nos queda mantener un ojo atento y nuestro escepticismo al 110%.