La Inteligencia Artificial en el cine: algoritmos que simulan sonidos

En artículos anteriores hemos reseñado algunas posibles (y asombrosas) aplicaciones de la Inteligencia Artificial en el cine. Hemos visto cómo por medio de modelos computacionales inteligentes, las imágenes pueden ser manipuladas para conseguir resultados que hace apenas un par de años, eran inimaginables. Como cambiar el clima en un video. O la hora del día en que fue realizado.

También reseñamos cómo por medio de procesos informáticos de aprendizaje profundo y de redes neuronales, es posible cambiar el rostro de un personaje, de forma automática, después de haber grabado un video. O cómo por medio del uso de esos mismos modelos computacionales inteligentes, se puede manipular la actuación del mismo personaje previamente grabado. O sintetizar imágenes a partir de una palabra o frase.

Pero hasta ahora no hemos tomado en cuenta un elemento que constituye el 50 por ciento (a veces más) del arte cinematográfico: el sonido.

Inteligencia Artificial en el cine: adivinar el sonido

Investigadores del Laboratorio de Ciencia Informática e Inteligencia Artificial (CSAIL) del Instituto de Tecnología de Massachusetts (MIT), presentaron hace un par de años los primeros estudios sobre la materia.

Usando un modelo computacional de aprendizaje profundo (Deep Learning), consiguieron que algoritmos entrenados infirieran sonidos completamente realistas a partir de un video silente. La técnica de Deep Learning consiste básicamente en entrenar computadoras para que aprendan, por sí mismas, a identificar patrones presentes en grandes cantidades de datos.

Los investigadores del CSAIL alimentaron a un algoritmo capaz de producir audio, con más de mil videos de 46 mil sonidos diferentes. El siguiente paso fue alimentar un algoritmo de aprendizaje profundo con esas mismos imágenes, para que deconstruyera los sonidos. El algoritmo analizó las distintas propiedades de cada sonido (pitch, nivel, volumen, etc).

Como resultado, cuando el modelo de IA son confrontados con un video sin audio, buscan llenar el vacío, a partir de la base de datos con la que han sido alimentadas. Y sintetizan o crean el sonido correspondiente.

Andrew Owens, uno de los autores del estudio, lo explica de la siguiente forma.

Para predecir el sonido de un video (silente), el algoritmo analiza las propiedades sonoras de cada cuadro de ese video y lo empareja con los sonidos más parecidos en la base de datos. Una vez que el sistema reúne esos fragmentos de audio, los ensambla y crea un sonido coherente (con la imagen, de forma automática).

Algoritmos, robots y sonidos

Aunque es claro que esta tecnología beneficiará enormemente el quehacer cinematográfico (nada más hay que ver todo el trabajo y el dinero que se ahorraría en Foley), ha sido desarrollada con el fin de enseñar a robots a relacionarse con el mundo real. De la misma forma en que lo hacemos los humanos.

Para los investigadores del MIT, el sonido es una de los medios que tenemos los humanos de conocer el mundo exterior.

Cuando pasas el dedo por (el borde de) una copa de vino, el sonido que produce refleja la cantidad de líquido que contiene.  Un algoritmo que simule tales sonidos puede revelar información clave sobre las formas y los tipos de materiales de los objetos. así como la fuerza y el movimiento de sus interacciones con el mundo.

En teoría, un robot podría usar esta tecnología para aprender cómo es el mundo real. Inferiría sonidos a partir de imágenes. Y como consecuencia, inferir tipos de materiales, volumen, resistencia, texturas y propiedades similares de los objetos a partir de su sonido. De la misma forma en la que un bebé desarrolla su apreciación del mundo físico a través de toqueteo y golpeteo de los objetos que le rodean.

El modelo informático creado puede incluso diferenciar objetos duros, de objetos suaves.

Un robot podría mirar la acera e instintivamente saber que el cemento es duro y la hierba es suave, y por lo tanto, saber qué pasaría si pisa cualquiera de los dos. Ser capaz de predecir el sonido es un primer paso importante para poder predecir las consecuencias de sus interacciones con el mundo físico.

¿Funciona?

Si están escépticos, nada más vean el vídeo.

Pero por si no están convencidos del todo, baste añadir que los investigadores del MIT condujeron un estudio para determinar si el oído humano era capaz de discriminar los sonidos falsos de los reales. El resultado fue apabullante. Los sujetos de estudio eligieron el sonido falso dos veces más que el verdadero.

Pero el modelo no es perfecto.

Por ahora, una de sus principales desventajas es que no puede inferir sonidos cuya fuente no aparezca en la imagen. Sonidos que no sean producto de una interacción con un objeto físico representado en el video. De la misma forma, a veces el modelo es engañado por acciones rápidas. O simuladas.

Adobe, VoCo, el Photoshop del audio

Más o menos en la misma época de la publicación de la investigación del MIT, Adobe dio a conocer su proyecto VoCo, en el marco de su conferencia anual Adobe Max. Para describirlo de la manera más simple posible, el proyecto VoCo es al audio lo que el Photoshop a la fotografía.

Su principal y más asombrosa característica es que permite editar las palabras y frases de un discurso o un parlamento previamente grabado. Quizás esta descripción no le haga justicia. Pero de lo se trata aquí es que esa herramienta puede borrar tus palabras grabadas y sustituirlas con cosas que nunca dijiste. Con la misma facilidad de quien edita un archivo de texto. y con tu propia voz.

Sí, es una herramienta increíblemente útil. Pero igualmente terrorífica. Por un lado facilita la edición de textos grabados, narraciones, discursos o diálogos con sólo borrar y escribir de nuevo. Con sólo corregir.

Pero esa misma utilidad, en manos equivocadas puede causar estragos, como Jordan Peele se lo advierte a su desarrollador, Zeyu Jin, durante sulapresentación. ¿Será esta la razón por la que Peele, director de Get Out, accedió a imitar a Obama en el video sobre los peligros de las nuevas tecnologías aplicadas a las noticias falsas?

Lo que sí parece posible es que Adobe, advertida de los peligros que implica esta tecnología en manos incorrectas, haya decidido suspender el proyecto. VoCo nunca llegó a la forma de producto comercial.

La Inteligencia Artificial en el cine: el futuro

La aplicación de la Inteligencia Artificial en el cine, más temprano que tarde, cambiará por completo la forma de hacer películas. Será un cambio revolucionario y devastador. ¿Sobrevivirá el cine como arte? ¿O surgirán nuevas formas artísticas audiovisuales?

En los artículos anteriores especulábamos sobre el desarrollo de un modelo computacional de Inteligencia Artificial futuro, tan poderoso que sea capaz de crear una película a partir del guión. Sin intervención humana. Como ya hemos visto, no se trata de una idea disparatada. O de una empresa imposible. Las herramientas existen.

Hoy, como ya hemos visto, hay algoritmos capaces de crear objetos, personas y cosas a partir de una palabra. Modelos de Inteligencia Artificial que crean escenas a partir de frases. Hay algoritmos que simulan celebridades que nunca existieron. Y otros que le cambian el rostro a actores ya filmados. Eso, sin contar los que crean modelos 3D a partir de imágenes en 2D. O los que sintetizan un vestuario a partir del análisis de fotografías.

Gracias a la aplicación de la Inteligencia Artificial en el cine, también podrás cambiar las actuaciones, agregar gestos, modificar expresiones faciales de tus actores (reales o no). Y, desde hace un par de años, sonidos, palabras. Si existe un algoritmo que posibilita la creación de sonidos a partir de imágenes; no resulta descabellado imaginar una herramienta que cree palabras a partir de la lectura de los labios de actores (artificiales reales). Y, con herramientas como VoCo, se podrán editar esos diálogos como si de un texto se tratara.

Es un futuro provisorio. Pero al mismo tiempo muy inquietante.

Anuncios

El impacto de la Inteligencia Artificial en el cine: actores sintéticos y el fin de la verdad

El impacto de la inteligencia Artificial en el cine va mucho más allá del mero tratamiento estético de las imágenes, como explicamos en un artículo anterior. De hecho, este impacto cambiará por completo la forma de hacer cine y ampliará los límites creativos más allá de lo que hoy podamos imaginar. Pero por otro lado, este impacto también desborda las fronteras del cine y repercute en el resto de la sociedad. Mientras que en el cine podría pensarse que se trata de un impacto positivo; a nivel social no es tan seguro de que lo sea.

Suele decirse que la industria del cine para adultos es siempre pionera en el uso de nuevas tecnologías. Cada vez que se da un adelanto tecnológico, el porno lo asume enseguida, sin complejo alguno. El material virgen de 16mm hizo posible la explosión de las películas para adultos a principios de los 70. El porno no tuvo problemas en darle la bienvenida a las videocasseteras —el VHS, el Betamax— y abandonar las vetustas salas de cine para mayores e instalarse en el dormitorio de los espectadores. Cuando no, en la mera sala.

Algo similar sucedió con la llegada del DVD y el Bluray, Internet, el video de alta definición, la Realidad Virtual, la Realidad Aumentada, los teléfonos celulares, las tabletas y el video 4K. La industria del entretenimiento para adultos se adaptó a todas y cada una de estas innovaciones tecnológicas. Mucho antes de que la industria establecida del cine, hiciera lo mismo.

Hoy, el porno es pionero en el uso, insospechado, de los nuevos avances en Inteligencia Artificial.

Deepfakes, el impacto de la Inteligencia Artificial en el porno

El impacto de la Inteligencia Artificial en el porno: cambio de rostros

El impacto de la Inteligencia Artificial en el porno: cambio de rostros

No. No es Gal Gadot.

La mujer que protagoniza el video de arriba no es la protagonistas de Justice League y Wonder Woman. La verdadera Gal Gadot nunca ha hecho un video de sexo explícito. Lo que están viendo es el resultado de un complejo proceso de Inteligencia Artificial aplicada a la manipulación de imágenes. Es una Gal Gadot sintética. Al menos, a medias.

Puede sonar complicado. Parecer cosa de ciencia ficción. O quizás el resultado de un trabajo de meses, de todo un equipo de especialistas, en alguna gran empresa de postproducción. Pero no.

La verdad es que se trata del trabajo de un anónimo programador que se hace llamar deepfakes en la comunidad Reddit. Para realizar sus DeepFakes (así le dicen a estos falsos videos explícitos, nombrados en su honor), deepfakes sólo utilizó un algoritmo de aprendizaje automático (machine learning), su computadora personal. Y ciertos conocimientos de programación.

Poco tiempo después, la cosa se simplificó. Otro miembro del subreddit creó una aplicación mucho más amistosa con los usuarios sin conocimientos de informática. Se llama FakeApp. Usa modelos de redes neuronales para hacer el trabajo de poner rostros de celebridades en videos explícitos. La aplicación estuvo un tiempo a disposición del público, hasta que Reddit cerró la comunidad por violar sus normas. Pero ya el mal, por decirlo de alguna manera, estaba hecho.

Los sitios web para adultos se llenaron de falsos videos explícitos protagonizados por celebridades. Gal Gadot, Maisie Williams, Taylor Swift, Scarlet Johansson, Emma Watson, Natalie Portman o Katy Perry son algunas de las famosas cuyos rostros fueron a parar a videos de sexo. HAsta que las más grandes páginas de contenido explícito y redes sociales, como Twitter, prohibieron los deepfakes. 

La simple, aterradora complejidad de un deepfake

El procedimiento para hacer un deepfake es más o menos sencillo, aunque no por ello, la tecnología empleada no deja de ser compleja. Para empezar, se entrena un algoritmo de aprendizaje automático alimentándolo con cientos de fotografías de la cara de una celebridad. Luego, cuando el modelo es aplicado a un vídeo, el algoritmo trata de que el rostro de la mujer en el video se parezca al de la celebridad con que ha sido entrenado.

Y, a medida que va realizando el proceso, el modelo va aprendiendo y corrigiéndose a sí mismo, con lo que los resultados serán cada vez más cercanos a la perfección. Lo que resulta más increíble es que la actuación se conserva. Gestos. Expresiones. Movimientos. El nuevo rostro se adapta al contenido del video.

Desde luego, casi no hay ni qué decirlo, las implicaciones para el quehacer cinematográfico son inimaginables. ¿Necesitas cambiar algún actor de tu elenco después de terminado el rodaje de tu película? Pues fácil. Entrena un algoritmo con el rostro del nuevo actor y aplícalo a las imágenes.

¿Quieres hacer una película de acción taquillera pero tu presupuesto no alcanza para pagarte a Bruce Willis? Fácil: descarga el modelo neuronal de Willis y pon el rostro de la estrella de Duro de Matar donde antes tenías a tu sobrino. ¿Es muy caro el modelo? Pues genera un Bruce Willis sintético tú mismo. Es el DIY del futuro.

¿Que no parece posible? ¿Que parece muy descabellado generar un Bruce Willis sintético por medio de redes neuronales? Como demuestra el siguiente video, realizado por los investigadores de Nvidia, se puede entrenar un modelo de Generative Adversarial Networks (GAN), en el que dos redes neuronales compiten entre sí, para sintetizar toda suerte de imágenes:

El poder manipulador de la Inteligencia Artificial

En un artículo anterior, imaginamos una futura red neuronal tan poderosa que era capaz de sintetizar por completo una película. A partir de la interpretación computacional del guión escrito. Y sin más intervención humana que la acción de pulsar una tecla. Con la tecnología de las deepfakes se resuelve el problema de los actores que participarán en esa película del futuro.

Para dar una idea del poder de los modelos neuronales aplicados a la manipulación de imágenes, basta ver el ejemplo que colocamos a continuación.

leiadeepfake

La Princesa Leía digital en Rogue One y su deepfake

En la imagen superior, aparece la escena de Rogue One en la que se utilizaron técnicas digitales para recrear una joven princesa Leia. En la imagen inferior, la misma escena es procesada con modelos de Inteligencia Artificial. O, para ser menos pomposos, con la aplicación FakeApp. Son prácticamente indistinguibles.

Lo que acaso a un equipo de artistas digitales les costó semanas de arduo trabajo, un anónimo programador lo hizo en horas gracias al uso de redes neuronales.

Otras aplicaciones

Gracias a la tecnología de aprendizaje profundo (deep learning) y aprendizaje automático a través de redes neuronales, hoy se pueden inferir texturas faciales en 3D, fotográficamente realistas, a partir de imágenes en 2D:

ciertamente, un proceso que ahorrará tiempo y ofrecerá resultados de mayor calidad a la hora de crear personales digitales.

También se pueden modificar los gestos o expresiones del personaje de un video, en tiempo real. En el siguiente ejemplo, se usa la tecnología de redes neuronales para modificar videos publicados en Youtube, usando como fuente la cámara web de una computadora:

Este proceso, básicamente se convertirá en la base de la animación realistas de personajes digitales del futuro.

O también puedes hacer sonreír a tu personaje en una fotografía en la que originalmente no lo hacía, como este inquietante bot de Twitter:

trump_happy_face

Terrorífica distopía

Más allá del cine, donde los avances de la Inteligencia artificial aplicada a la imagen lucen prometedores, no se puede soslayar el peligro que implica para la sociedad.

Para empezar, como los deepfakes lo demuestran, nos enfrentamos a un futuro muy próximo en el que tu imagen digital puede ser desligada de tu identidad. De tu personalidad. No resulta enloquecido imaginar una distopía donde un régimen colectivista expropie la imagen personal digital para fines de control social. En la era del selfie, casi parece un capítulo de Black Mirror. Un gobierno autoritario podría usar esta tecnología para manipular videos e inculpar y deshacerse de sus enemigos políticos y disidentes.

El impacto de la Inteligencia Artificial aplicada al mundo de las imágenes también traerá como consecuencia el fin del video como documento fidedigno de la realidad. Si ya nos costaba creer en lo que veíamos por culpa del montaje, gracias a las técnicas de manipulación de imagen derivadas de la Inteligencia Artificial, ya no podremos distinguir lo real de lo manipulado.

Nos enfrentamos a un inminente advenimiento de la era de la desinformación. Un estadio superior de las noticias falsas. El fin de la verdad.

En este nuevo mundo, tendremos que fortalecer las instituciones periodísticas confiables, como último recurso para conservar la cordura, cuando las fronteras entre lo verdadero y lo falso terminen de difuminarse. ¿Les parece exagerado? Sólo dediquen un minuto al video de Obama que encabeza este artículo.

GuardarGuardar

GuardarGuardar

GuardarGuardar

GuardarGuardar

GuardarGuardar

GuardarGuardar

GuardarGuardar

GuardarGuardar

Así impacta la Inteligencia Artificial al cine: Visión Computacional

Tal vez lo hayas notado. A veces, cuando la conexión está lenta y las imágenes de Facebook tardan en cargar, en vez de la foto aparece una breve descripción. Pero no se trata de una descripción exacta de la imagen faltante. Más bien es una descripción aproximada.

La imagen podría contener: una bicicleta, una persona…

Sucede que tal descripción no ha sido generada por medios humanos. Es el resultado de complejas operaciones matemáticas de un modelo computacional, que le permite a un sistema informático mirar y reconocer los objetos que aparecen en una fotografía. Y no sólo mirar y reconocerlos, sino además describirlos. Sin intervención humana.

La funcionalidad está destinada a personas con discapacidad visual. Para que puedan organizar y compartir sus fotografías en la red social. Los usuarios invidentes pueden utilizar las funciones de lectura de texto de dispositivos móviles y computadoras para escuchar esas descripciones generadas de forma artificial.

"<yoastmark

El modelo se basa en el aprendizaje profundo y automático (deep learning y machine learning, respectivamente), en el que algoritmos matemáticos son entrenados, en este caso, para clasificar y segmentar imágenes.

Este es apenas un pequeño ejemplo de las tantas aplicaciones que podría tener, o tiene, la Visión Artificial o Computacional. Desde el reconocimiento de objetos y rostros, hasta la restauración de una imagen. Pasando por la reconstrucción de una escena en 3D a partir de imágenes en 2D. O la transferencia de estilos entre imágenes.

Algo que quizás no le haga mucha gracia a directores de fotografía.

El lamento de Kaminski

La semana pasada, en una conferencia en el marco de la NAB 2018, el veterano director de fotografía Janusz Kaminski se hacía eco de una creciente preocupación entre sus colegas. Kaminski se lamentaba de que, debido a los avances tecnológicos, los directores de foto estaban perdiendo progresivamente el control de las imágenes que filmaban.

Advertía el dos veces ganador del Oscar que las técnicas, herramientas y procesos de producción y postproducción digitales estaban diluyendo la autoría de la imagen. Resulta que Kamiski es el director de fotografía del más reciente film de Steven Spielberg, Ready Player One. Pero su contribución fue de apenas del 40%, según explicó.

Hay muchas cucharas en la sopa. Siempre y cuando tengas un buen chef, como Steven Spielberg, los resultados son buenos. Pero cuando el director no está involucrado, el director de fotografía pierde por completo el control de la imagen.

La imagen está muy manipulada. Empezando desde el set, con el trabajo del técnico de imagen digital. Las posibilidades son infinitas.

La dirección de fotografía es el arte de la luz y las sombras, metáforas visuales y sus matices. Eso está desapareciendo. Evolucionará y regresará. Pero ahora no hay muchos directores de fotografía jóvenes que usan la dirección de fotografía para expresarse.

Kaminski se refiere a técnicas que acaso puedan considerarse ya como «tradicionales». Sobre todo, si se les compara con los más recientes avances en Inteligencia Artificial aplicados a la imagen. Dentro de poco, no sólo los directores de fotografía perderán el control y la autoría sobre la imagen.

Ready Player One, Janusz Kaminski se encargó de las escenas reales que conformaban un 40% del metraje total

Ready Player One, Janusz Kaminski se encargó de las escenas reales que conformaban un 40% del metraje total

Del mismo modo en que los algoritmos de visión artificial de Facebook son capaces de clasificar y describir una fotografía y los objetos que contiene; hoy existen aplicaciones basadas en redes neuronales artificiales que pueden generar imágenes a partir de textos, modificar las condiciones de luz (e incluso, ¡las fuentes de luz!) de una imagen determinada. Y hasta cambiar las condiciones climatológicas y la hora del día de un video ya filmado.

Las redes neuronales artificiales son complejos modelos computacionales que imitan el funcionamiento de una red de neuronas biológicas.

Visualización profunda: imágenes sintéticas

La visualización profunda implica el uso de redes neuronales para el entrenamiento de algoritmos que sinteticen o generen imágenes. Es decir, cuando le pides a la aplicación que te muestre un gorila, los algoritmos generarán o sintetizarán la imagen del simio.

Para realizar esto, las redes neuronales son alimentadas y entrenadas con bases de datos de cientos de miles de fotografías. Una vez que absorben la información de las imágenes, son capaces de generar su propia versión de la imagen solicitada.

Deep Visualisation

Deep Visualisation, las imágenes de esta galería han sido generadas por redes neuronales a partir de una palabra

Aplicar esta tecnología de inteligencia Artificial a la forma de hacer cine puede resultar realmente revolucionario. Si con una frase puedes generar artificialmente una imagen, en un futuro no muy lejano podrías saltarte completamente la fase de rodaje.

Con sólo alimentar con tu guión una red neuronal debidamente entrenada con miles de películas, los algoritmos se encargarían de generarla.

Deep visualisation: de igual forma, las imágenes de esta galería han sido generadas a partir de la descripción textual

Deep visualisation: de igual forma, las imágenes de esta galería han sido generadas a partir de la descripción textual

«Traducción» de imágenes

A finales del año pasado, en la Conference on Neural Information Processing Systems, investigadores de Nvidia (sí, el fabricante de las famosas tarjetas gráficas) presentó un algoritmo de «traducción de imagen». El algoritmo permite cambiar las condiciones climatológicas o la luz del día de una imagen o un video.

De esta forma, los investigadores de Nvidia pueden modificar una imagen de una carretera en pleno invierno, para que parezca que ha sido grabada en un día soleado de verano.

El proceso implica el uso de un método llamado Generative Adversarial Networks, en el que una red neuronal es entrenada para generar imágenes sintéticas y otra red, opuesta, es entrenada para discernir imágenes falsas de las reales.

De este forma, ambas redes se retroalimentan en sus tareas, perfeccionando los resultados para engañar a su contraparte. El producto final resulta muy depurado. Como esta imagen capturada a plena luz del día que ha sido «traducida» a imagen nocturna.

Esta tecnología ha sido desarrollada para ser utilizada en los sistemas de manejo de vehículos autónomos. Pero si eres cineasta o te dedicas a la postproducción de imágenes, a estas alturas ya sabes muy bien las posibles aplicaciones que tendría esta tecnología en el oficio.

Transferencia de estilo visual

De una forma similar, un grupo de investigadores de la Universidad de Cornell y Adobe han desarrollado una técnica llamada Deep Photo Style Transfer. Básicamente se trata de aplicarle el estilo y la apariencia de una imagen a otra.

Actualmente, esta tarea es una función de aplicaciones de corrección de color, de video y fotografía. La diferencia es que esta técnica está basada en redes neuronales de aprendizaje profundo, en las que no hace falta la intervención humana.

Los resultados son realmente asombrosos.

Deep Phoyto Style Transfer: en la primera columna, la foto original. En la segunda, la imagen de referencia. En la tercera, el resultado de la transferencia de estilo.

Deep Photo Style Transfer: en la primera columna, la foto original. En la segunda, la imagen de referencia. En la tercera, el resultado de la transferencia de estilo.

Actualmente, una tecnología similar es usada por la aplicación PrismaFacebook para darle apariencia de pintura a fotografías. ¿Incluirá Adobe esta tecnología en algunas de sus aplicaciones de postproducción y tratamiento de imagen? Ténganlo por seguro.

Inteligencia Artificial, más ciencia que ficción

Puede que todo lo anterior suene a ciencia ficción. Pero lo cierto es que los avances en materia de Inteligencia Artificial vas más rápido de lo que pudiéramos imaginar. Prácticamente todas las semanas surgen nuevas y sorprendentes implementaciones. Como esta tecnología que permite manipular las fuentes de luz y las sombras en una imagen.

O esta otra implementación, jocosa, que permite poner calvo a Donald Trump, en una transmisión en vivo

La tecnología que permite el desarrollo de estos ejemplos de Inteligencia Artificial es, en su mayor parte gratuita. Y de libre acceso. Google mantiene en línea su proyecto TensorFlow, una librería de código abierto para el desarrollo de redes neuronales, y Machine y Deep Learning. Así mismo, el servicio de Cloud AI, que brinda recursos en la nube para implementaciones de Inteligencia Artificial.

Facebook también pone a disposición de usuarios y desarrolladores sus herramientas de Inteligencia Artificial; mientras que un un grupo liderado por Elon Musk, de Tesla y Space X también mantiene una plataforma abierta de AI, Open AI.

Pero a diferencia de Google y Facebook, OpenAI aboga por el desarrollo de una Inteligencia Artificial segura. Conscientes acaso del gran impacto que en el corto plazo esta tecnología tendrá en todo el mundo.

Al menos, en la industria cinematográfica, este impacto será completa y absolutamente disyuntivo, revolucionario.

Pin It on Pinterest