El resultado depende de la intención final de quien la controla. Y en el caso de la Inteligencia Artificial, uno de sus lados oscuros está en los deepfakes. Aunque no todo es tan malo como parece.
Donald Trump, Barack Obama o el CEO de Facebook, Mark Zuckerberg han sido víctimas de los “deepfakes”. Incluso a Tom Cruise le ha salido competencia con uno que tiene cuenta propia en TikTok. El rostro del actor Steve Buscemi sustituyó al de la también actriz Jennifer Lawrence y el de Scarlett Johanson tuvo peor suerte y fue utilizado en vídeos pornográficos.
Su propio nombre lo dice. El término deepfake viene del concepto “deep” referente al deep learning, mientras que “fake” significa falso. Por tanto, un deepfake es, en definitiva, un vídeo en el que se suplanta el rostro o la voz de una persona famosa, superponiéndolo sobre el de otra persona con características morfológicas parecidas. De esta forma se manipula la imagen de la persona suplantada y la información que pueda dar, claro.
Esta tecnología se basa en inteligencia artificial y se apoya en el machine learning. Porque para simular la cara o la voz de otra persona de la forma más real posible, utiliza el análisis de datos.
Estos datos se obtienen de cientos de horas de grabaciones de la persona que se quiere “replicar”, y con ellos se pueden crear datos nuevos, es decir, recrear fácilmente no solo la imagen de una persona, también sus gestos y forma de hablar.
Tareas ya conocidas
Para ello el deep learning es fundamental. Es una rama de aprendizaje dentro del machine learning que dota a las máquinas de la capacidad para aprender de manera automática sin que ningún humano tenga que programarlas. Esto les permite, por ejemplo, hacer predicciones.
El deep learning es un pasito más: entrena a la máquina para que desarrolle un aprendizaje (learning) profundo (deep) que le ayudará a realizar tareas como reconocimiento de imágenes o del habla.
Esto es algo que se viene utilizando desde hace tiempo de otra forma. Bien conocidos son los sistemas de reconocimiento de sonido y de imagen que se pueden encontrar en los asistentes virtuales tipo Alexa, Google, Cortana, Siri o en algunos juegos de videoconsolas.
Así las computadoras pueden realizar tareas y trabajar de forma parecida a la del cerebro humano, llegando a entender los datos que manejan. Pero lo más importante es que el Deep learning permite el reconocimiento y creación de patrones.
Peligros para las empresas
Ya en 2017 saltaba la noticia de la aplicación de los deepfakes en la pornografía. Actrices de gran prestigio como Natalie Portman y cantantes mundialmente famosas como Taylor Swift veían sus rostros utilizados en vídeo pornográficos.
Después de este tipo de escándalos, llegaron otros igual de dañinos en forma de bulos y “fake news”. El problema de la desinformación empezaba a adoptar la forma de vídeos manipulados y muy reales, tanto que ya es motivo de preocupación para los expertos en IA y en ciberseguridad, por la pérdida de confianza sobre los mensajes que llegan a la ciudadanía y los fraudes que se pueden cometer.
Según una encuesta de Tessian, el 74% de los responsables de TI está preocupado por los posibles efectos de estos vídeos. Para las empresas puede suponer un problema en aspectos tan sensibles como ciberseguridad y protección de datos.
La suplantación de identidad y los fraudes son un riesgo. Los ciberdelincuentes pueden crear la imagen de cualquier persona y pedir a sus empleados que realicen operaciones comprometidas, por ejemplo, tal y como alertan desde la consultora tecnológica Entelgy.
Además, las empresas pueden verse afectadas por campañas de desprestigio, dañando su reputación corporativa. Todo ello hace necesario mejorar los sistemas de ciberseguridad.
La realidad a debate
El debate está sobre la mesa: ¿qué es verdad y qué no lo es? Para intentar arrojar luz sobre este tema, la Universidad Estatal de Michigan, Estados Unidos, junto a Facebook, trabajan de manera conjunta para crear un nuevo enfoque a través de la ingeniería inversa.
El objetivo es que permita no solo detectar la manipulación, sino también rastrear el origen para identificar los patrones y el modelo de IA que genera estos vídeos, en entornos de la vida real. Esto es posible porque en cada imagen que genera el modelo de IA deja una huella y esa huella además se puede comparar con las de otros vídeos manipulados.
Otros usos: el lado bueno del «deepfake»
Pero no todo puede ser malo. El uso de estos contenidos también tiene su lado bueno y divertido. El entretenimiento, sin fines maliciosos, es uno de los sectores que puede presumir de esos deepfakes que no dañan a nadie, al contrario.
El mundo del cine ya se beneficia de esta tecnología, y gracias a la IA, la actriz de la extraordinaria serie de televisión ‘Stranger Things’, Millie Bobby Brown, devolvía a la vida y a la juventud a la estelar princesa Leia. La misma tecnología permitió mantener al personaje en ‘Star Wars: Rogue One‘, a pesar del fallecimiento de Carrie Fisher y presentaba a un Robert de Niro más joven para interpretar su papel en ‘El irlandés’.
Otro caso es el de Salvador Dalí, que volvió a la vida en un museo estadounidense. En una exposición llamada “Dali lives” (Dalí vive) el genio protagoniza unos 125 vídeos interactivos que mejoran y enriquecen la experiencia del visitante.
Dalí, además, ha dado el salto a la publicidad en una campaña de la Fundación Reina Sofía sobre la necesidad de impulsar la investigación de enfermedades neurodegenerativas, ya que el artista sufrió de Parkinson.
El mundo de la publicidad también ha devuelto el acento de Lola Flores a una conocida marca de cervezas. Aunque la tecnología “deepfake” sigue siendo muy difícil detectar, a ojos inexpertos, siempre queda el sentido común y la posibilidad de verificar aquello que pueda resultar dispar. Con la manipulación de estos vídeos, eso de “ver para creer” se ha quedado fuera de la realidad.