A estas alturas, es imposible que no hayas visto el nuevo anuncio de Cruzcampo con Lola Flores. Sí, Lola Flores. La Faraona. La polifacética artista española que se hizo tan famosa por su talento sobre las tablas como por hablar sin tapujos sobre temas tabús.
Ahora, la marca de cerveza sevillana ha querido recuperar el carácter, la garra, el poderío, el acento que la hicieron tan querida entre los españoles para su última campaña publicitaria. Y, como era de esperar, ha dado mucho que hablar.
Pero la controversia va mucho más allá de la elección del personaje, y tiene más que ver con la tecnología que se ha usado para posibilitar su presencia. La polémica técnica del deepfake vuelve a ser noticia, ¿pero en qué lado del debate deberías estar?
Cruzcampo recupera a La Faraona
Lola Flores volvía a nuestras vidas en el que habría sido su 98 cumpleaños con un anuncio de Cruzcampo que rápidamente se convertía en trending topic. El spot en cuestión, que puedes ver a continuación, muestra a la cantante dirigiéndose a cámara con un mensaje que nos invita a sentirnos orgullosos de nuestras raíces.
En Con Mucho Acento, el eslogan de la campaña, Cruzcampo “revive” a la cantante para que reivindiquemos nuestro acento (con un guiño especial a Andalucía, de donde es originaria la compañía y la artista), pero no solo al hablar, sino en cualquier aspecto de nuestra vida.
Según cuentan sus creadores en una reciente entrevista, el anuncio estaba programado justo para antes de la pandemia, pero ese casi año “de regalo” les ha permitido perfeccionar todavía más la técnica que ha servido para llevarlo a cabo.
¿En qué consiste la técnica del deepfake?
La técnica de la que hablamos es la llamada deepfake, palabra que surge de unir los términos ingleses “deep learning” y “fake”. Se trata de usar la inteligencia artificial para crear vídeos falsos pero con una verosimilitud increíble.
En el caso del anuncio de Lola Flores, por ejemplo, cuesta creer que no se trate de ella misma. Antes de conocer cómo se había hecho, seguramente más de uno no se había planteado que pudiera no ser así.
Es cierto que su uso de la palabra “empowerment” hacía sospechar que había algo detrás, aunque quizás no el laborioso trabajo que desarrollaron durante semanas los equipos de dos empresas de Barcelona: la agencia publicitaria Ogilvy y el estudio Metropolitana.
Para el spot de Cruzcampo, recuperaron unas 5.000 imágenes de la artista sevillana, que tuvieron que optimizar antes de pasarlas por los dos programas de deepfake que utilizaron para conseguir el producto final.
En el proceso, contaron con una actriz parecida a Lola Flores y crearon a partir de ella un modelo 3D con el que después trabajarían para darle a las imágenes recopiladas los gestos y los movimientos que se necesitan para conseguir un resultado así de creíble.
Además de utilizar el programa FaceSwap para trasladar la cara real de la cantante a la del modelo 3D, los últimos retoques para que la Lola Flores del vídeo se pareciera a la Lola Flores real hasta en el más mínimo detalle se usó el software DeepFaceLab.
Hablando más técnicamente, en los vídeos deepfake, se utilizan los conocidos como algoritmos RGA. En este sistema de dos redes neuronales, se presenta un modelo con fotos o vídeos a partir de las cuales crea imágenes falsas, y otro que se encarga de detectar estas últimas.
El proceso se repite tantas veces como sea necesario hasta que el segundo modelo no sepa distinguir las imágenes falsificadas. Cuantas más imágenes reales se tengan, más convincentes serán las que se creen desde cero.
Inteligente, pero controvertida
Las hijas de Lola Flores, Lolita y Rosario Flores, han estado involucradas en el proceso de producción del anuncio. Y eso es importante tenerlo en cuenta antes de empezar a debatir si debería o no haberse hecho este spot.
Pocos peros puede ponérsele al mensaje reivindicativo y de empoderamiento del anuncio de Cruzcampo, y nadie puede negar que el resultado es espectacular. Qué duda cabe que es un triunfo de la tecnología y la ciencia.
Nadie mejor que sus hijas para saber qué le hubiera gustado o no a Lola Flores, pero es inevitable preguntarse hasta qué punto tienen nuestros herederos poder de consentir que, con nuestra imagen y nuestra voz, se creen vídeos falsos de este tipo.
La ley española todavía no contempla el caso concreto de los deepfakes, pero pueden incluirse dentro de los derechos de imagen, los cuales, una vez falleces, pasan a manos de tus herederos. También lo hace la potestad de gestionar su cesión para fines comerciales, como en el caso del anuncio de Cruzcampo.
Además, la clave para diferenciar lo que es delito de lo que no lo es estaría en el motivo de su uso y el resultado final. Y en el spot publicitario, no parece que nadie pueda sentirse ofendido con el uso que se ha hecho de la imagen de Lola Flores, Lola Flores incluida.
El experto en Derecho Digital, Borja Adsuara, explicaba hace unos años dónde radicaba el problema con esta técnica de inteligencia artificial: “A no ser que seas un experto en estas tecnologías, es muy fácil que a todo el mundo, incluido a un juez en un proceso en el que le aporten una prueba con esta tecnología, se la pueden colar”.
Así, el debate se extiende más allá de si es legal o no, o debería serlo o no, usar imágenes de fallecidos para crear vídeos falsos. Aunque nos podríamos preguntar lo mismo si son personas vivas. Otro gran problema lo encontramos en aquello mismo que hace que esta tecnología sea tan increíble: su verosimilitud.
Que estés viendo el vídeo de Lola Flores y no llegues a cuestionarte que no es ella realmente quien sale en él significa que la técnica también podría usarse con resultados de la misma calidad pero con intenciones menos inofensivas.
Hace unos años, se hacía viral este vídeo de Barack Obama. No es hasta la mitad que nos damos cuenta que las barbaridades que dice en él, y que sorprende que diga públicamente alguien tan políticamente correcto como Obama, se las ha hecho decir otra persona.
Los peligros de los deepfakes se han hecho más evidentes en sus usos en industrias como la pornografía. En 2017, empezaron a circular vídeos pornográficos de actrices como Daily Ridley o Scarlett Johansson, pero resultaron ser falsos. Poco después nacía DeepNude, una app que usaba la tecnología para crear desnudos de imágenes de gente vestida. Cerró pocos días después de su creación.
“Los deepfakes son una peligrosa forma de difundir bulos. Pero los cheakfakes demuestran que no es necesaria una tecnología avanzada”, afirma Panda Security acerca de la amenaza de este nuevo tipo de tecnología.
Todo el mundo puede crear cheakfakes, pues solo se necesita un software (que además suele ser barato y accesible) que cree los vídeos falsos por nosotros. Mientras que para crear deepfakes se requiere un conocimiento de edición más avanzado, redes sociales como TikTok ya tienen filtros que dan mucho el pego.
Más allá de Lola Flores: el uso del deepfake en el entretenimiento
Pero no todo va a ser negativo, y el anuncio de Lola Flores también nos ayuda a recordar lo lejos que hemos llegado en cuestiones como la inteligencia artificial. Solemos asociarla a los robots humanoides, pero también puede aplicarse en el arte.
Seguramente el ejemplo más conocido es el de las películas de Star Wars. Harrison Ford volvió a sus años de juventud gracias a esta técnica, que se usó en la cara del actor Alden Ehrenreich para poder explicar los orígenes de Han Solo.
Algo similar se ha hecho más recientemente en la serie española de la HBO 30 monedas. En vez de contar con otros actores para hacer las versiones juveniles de los protagonistas, los creadores han decidido utilizar los deepfakes para rejuvenecer a Eduard Fernández y Manolo Solo.
Y es que no todo es lo que parece.
Este artículo ha sido adaptado para un proyecto de Alba Pocurull.