DestacadasFuturoTecnología

El impacto de la Inteligencia Artificial en el cine: actores sintéticos y el fin de la verdad

8 min de lectura

El impacto de la inteligencia Artificial en el cine va mucho más allá del mero tratamiento estético de las imágenes, como explicamos en un artículo anterior. De hecho, este impacto cambiará por completo la forma de hacer cine y ampliará los límites creativos más allá de lo que hoy podamos imaginar. Pero por otro lado, este impacto también desborda las fronteras del cine y repercute en el resto de la sociedad. Mientras que en el cine podría pensarse que se trata de un impacto positivo; a nivel social no es tan seguro de que lo sea.

Suele decirse que la industria del cine para adultos es siempre pionera en el uso de nuevas tecnologías. Cada vez que se da un adelanto tecnológico, el porno lo asume enseguida, sin complejo alguno. El material virgen de 16mm hizo posible la explosión de las películas para adultos a principios de los 70. El porno no tuvo problemas en darle la bienvenida a las videocasseteras —el VHS, el Betamax— y abandonar las vetustas salas de cine para mayores e instalarse en el dormitorio de los espectadores. Cuando no, en la mera sala.

Algo similar sucedió con la llegada del DVD y el Bluray, Internet, el video de alta definición, la Realidad Virtual, la Realidad Aumentada, los teléfonos celulares, las tabletas y el video 4K. La industria del entretenimiento para adultos se adaptó a todas y cada una de estas innovaciones tecnológicas. Mucho antes de que la industria establecida del cine, hiciera lo mismo.

Hoy, el porno es pionero en el uso, insospechado, de los nuevos avances en Inteligencia Artificial.

Deepfakes, el impacto de la Inteligencia Artificial en el porno

El impacto de la Inteligencia Artificial en el porno: cambio de rostros

El impacto de la Inteligencia Artificial en el porno: cambio de rostros

No. No es Gal Gadot.

La mujer que protagoniza el video de arriba no es la protagonistas de Justice League y Wonder Woman. La verdadera Gal Gadot nunca ha hecho un video de sexo explícito. Lo que están viendo es el resultado de un complejo proceso de Inteligencia Artificial aplicada a la manipulación de imágenes. Es una Gal Gadot sintética. Al menos, a medias.

Puede sonar complicado. Parecer cosa de ciencia ficción. O quizás el resultado de un trabajo de meses, de todo un equipo de especialistas, en alguna gran empresa de postproducción. Pero no.

La verdad es que se trata del trabajo de un anónimo programador que se hace llamar deepfakes en la comunidad Reddit. Para realizar sus DeepFakes (así le dicen a estos falsos videos explícitos, nombrados en su honor), deepfakes sólo utilizó un algoritmo de aprendizaje automático (machine learning), su computadora personal. Y ciertos conocimientos de programación.

Poco tiempo después, la cosa se simplificó. Otro miembro del subreddit creó una aplicación mucho más amistosa con los usuarios sin conocimientos de informática. Se llama FakeApp. Usa modelos de redes neuronales para hacer el trabajo de poner rostros de celebridades en videos explícitos. La aplicación estuvo un tiempo a disposición del público, hasta que Reddit cerró la comunidad por violar sus normas. Pero ya el mal, por decirlo de alguna manera, estaba hecho.

Los sitios web para adultos se llenaron de falsos videos explícitos protagonizados por celebridades. Gal Gadot, Maisie Williams, Taylor Swift, Scarlet Johansson, Emma Watson, Natalie Portman o Katy Perry son algunas de las famosas cuyos rostros fueron a parar a videos de sexo. HAsta que las más grandes páginas de contenido explícito y redes sociales, como Twitter, prohibieron los deepfakes. 

La simple, aterradora complejidad de un deepfake

El procedimiento para hacer un deepfake es más o menos sencillo, aunque no por ello, la tecnología empleada no deja de ser compleja. Para empezar, se entrena un algoritmo de aprendizaje automático alimentándolo con cientos de fotografías de la cara de una celebridad. Luego, cuando el modelo es aplicado a un vídeo, el algoritmo trata de que el rostro de la mujer en el video se parezca al de la celebridad con que ha sido entrenado.

Y, a medida que va realizando el proceso, el modelo va aprendiendo y corrigiéndose a sí mismo, con lo que los resultados serán cada vez más cercanos a la perfección. Lo que resulta más increíble es que la actuación se conserva. Gestos. Expresiones. Movimientos. El nuevo rostro se adapta al contenido del video.

Desde luego, casi no hay ni qué decirlo, las implicaciones para el quehacer cinematográfico son inimaginables. ¿Necesitas cambiar algún actor de tu elenco después de terminado el rodaje de tu película? Pues fácil. Entrena un algoritmo con el rostro del nuevo actor y aplícalo a las imágenes.

¿Quieres hacer una película de acción taquillera pero tu presupuesto no alcanza para pagarte a Bruce Willis? Fácil: descarga el modelo neuronal de Willis y pon el rostro de la estrella de Duro de Matar donde antes tenías a tu sobrino. ¿Es muy caro el modelo? Pues genera un Bruce Willis sintético tú mismo. Es el DIY del futuro.

¿Que no parece posible? ¿Que parece muy descabellado generar un Bruce Willis sintético por medio de redes neuronales? Como demuestra el siguiente video, realizado por los investigadores de Nvidia, se puede entrenar un modelo de Generative Adversarial Networks (GAN), en el que dos redes neuronales compiten entre sí, para sintetizar toda suerte de imágenes:

El poder manipulador de la Inteligencia Artificial

En un artículo anterior, imaginamos una futura red neuronal tan poderosa que era capaz de sintetizar por completo una película. A partir de la interpretación computacional del guión escrito. Y sin más intervención humana que la acción de pulsar una tecla. Con la tecnología de las deepfakes se resuelve el problema de los actores que participarán en esa película del futuro.

Para dar una idea del poder de los modelos neuronales aplicados a la manipulación de imágenes, basta ver el ejemplo que colocamos a continuación.

leiadeepfake

La Princesa Leía digital en Rogue One y su deepfake

En la imagen superior, aparece la escena de Rogue One en la que se utilizaron técnicas digitales para recrear una joven princesa Leia. En la imagen inferior, la misma escena es procesada con modelos de Inteligencia Artificial. O, para ser menos pomposos, con la aplicación FakeApp. Son prácticamente indistinguibles.

Lo que acaso a un equipo de artistas digitales les costó semanas de arduo trabajo, un anónimo programador lo hizo en horas gracias al uso de redes neuronales.

Otras aplicaciones

Gracias a la tecnología de aprendizaje profundo (deep learning) y aprendizaje automático a través de redes neuronales, hoy se pueden inferir texturas faciales en 3D, fotográficamente realistas, a partir de imágenes en 2D:

ciertamente, un proceso que ahorrará tiempo y ofrecerá resultados de mayor calidad a la hora de crear personales digitales.

También se pueden modificar los gestos o expresiones del personaje de un video, en tiempo real. En el siguiente ejemplo, se usa la tecnología de redes neuronales para modificar videos publicados en Youtube, usando como fuente la cámara web de una computadora:

Este proceso, básicamente se convertirá en la base de la animación realistas de personajes digitales del futuro.

O también puedes hacer sonreír a tu personaje en una fotografía en la que originalmente no lo hacía, como este inquietante bot de Twitter:

trump_happy_face

Terrorífica distopía

Más allá del cine, donde los avances de la Inteligencia artificial aplicada a la imagen lucen prometedores, no se puede soslayar el peligro que implica para la sociedad.

Para empezar, como los deepfakes lo demuestran, nos enfrentamos a un futuro muy próximo en el que tu imagen digital puede ser desligada de tu identidad. De tu personalidad. No resulta enloquecido imaginar una distopía donde un régimen colectivista expropie la imagen personal digital para fines de control social. En la era del selfie, casi parece un capítulo de Black Mirror. Un gobierno autoritario podría usar esta tecnología para manipular videos e inculpar y deshacerse de sus enemigos políticos y disidentes.

El impacto de la Inteligencia Artificial aplicada al mundo de las imágenes también traerá como consecuencia el fin del video como documento fidedigno de la realidad. Si ya nos costaba creer en lo que veíamos por culpa del montaje, gracias a las técnicas de manipulación de imagen derivadas de la Inteligencia Artificial, ya no podremos distinguir lo real de lo manipulado.

Nos enfrentamos a un inminente advenimiento de la era de la desinformación. Un estadio superior de las noticias falsas. El fin de la verdad.

En este nuevo mundo, tendremos que fortalecer las instituciones periodísticas confiables, como último recurso para conservar la cordura, cuando las fronteras entre lo verdadero y lo falso terminen de difuminarse. ¿Les parece exagerado? Sólo dediquen un minuto al video de Obama que encabeza este artículo.

GuardarGuardar

GuardarGuardar

GuardarGuardar

GuardarGuardar

GuardarGuardar

GuardarGuardar

GuardarGuardar

GuardarGuardar

Anuncios
Share:
A %d blogueros les gusta esto: