Los deepfakes, la nueva forma de manipulación digital
Parece brujería, pero no lo es. En realidad, es pura ingeniería del futuro, un recurso de la inteligencia artificial digno de los libros de Arthur C. Clarke. Los deepfakes son esos videos que se alteran digitalmente y que permiten cambiar el rostro de una persona por otra. El resultado es tan perfecto que podemos mostrar a cualquiera diciendo o haciendo algo que en realidad nunca dijo o hizo.
La mayoría usa este recurso para hacer bromas con amigos y familiares. Así, quien más y quien menos ha puesto su rostro al de un actor o cantante conocido: Lady Gaga, Leonardo DiCaprio, el Capitán América, Scarlett Johansson, etc. De ese modo, nos vemos de pronto bailando en un video musical o protagonizando el clip de una famosa película.
Ahora bien, la tecnología puede usarse con fines inocuos o con propósitos delictivos. Un ejemplo de ello es el de Raffaela Spone, una mujer de 50 años residente de un pueblo de Pensilvania. Esta ama de casa manipuló fotos del equipo de animadoras de su hija con la idea de que las niñas dejaran esa actividad. Para ello creo imágenes pornográficas y las distribuyó.
La señora Spone ha sido detenida y acusada de ciberacoso a menores. Su propósito no era otro que el de quitar de en medio a potenciales rivales de su hija. Sus fotos manipuladas se distribuyeron por el colegio y las redes sociales. Afortunadamente, la policía advirtió que habían sido creadas con la tecnología de la inteligencia artificial.
Otro ejemplo es un vídeo de Obama que circuló por YouTube en el que decía que Donald Trump era idiota y que generó una gran polémica mediática. Lo cierto es que no era verdad, sino un experimento de la Universidad de Washington con el que se demostró el efecto que podía producir la capacidad de manipular vídeos a través de un algoritmo de inteligencia artificial.
Los deepfakes y la importancia del pensamiento crítico
Los deepfakes están de moda. Lo de poner la cara de una persona en el cuerpo de otra para que diga o haga algo concreto puede ser un gran instrumento para el ingenio. De hecho, dice la leyenda urbana que si pronuncias la palabra deepfake tres veces se te aparece Tom Cruise.
Asimismo, hay algo evidente que nos explican en un artículo de investigación realizado por la Universidad de Victoria (Canadá), la Nottingham Trent University (Reino Unido) y la Universidad LUISS Guido Carli (Italia). La manipulación fotográfica es algo que se hace desde el siglo XIX.
Sin embargo, la llegada de los deepfakes ha marcado un punto de inflexión. En buena parte de los casos se usan con fines delictivos, como es la pornografía, las fake news o el fraude financiero. El problema es tan serio que es probable que pronto se regule.
En esta era digital el engaño, ya sea mediante noticias o imágenes falsas está a la orden del día. Y el impacto social es enorme. Debemos estar preparados para detectar estos recursos manipulativos.
Cuando la imagen tiene más poder que las palabras (y la verdad)
Es más fácil creer en lo que vemos que en aquello que nos dicen. Sin embargo, los deepfakes alteran la verdad al manipular documentos visuales. Ejemplo de ello es lo que sucedió en Venecia durante la pandemia. A raíz del confinamiento, empezaron a publicarse imágenes de cisnes negros avanzando en tranquilidad por el agua de los canales.
También vimos peces de extrañas formas llenando esas calles inundadas durante esos días. Sin embargo, nada era cierto. Los cisnes eran producto de la inteligencia artificial. En el mundo de la desinformación, los deepfakes son unos grandes aliado.
Los contenidos pornográficos y los deepfakes
Recordemos el caso de la señora Raffaela Spones queriendo quitar de en medio a las compañeras de equipo de animadoras de su hija. En buena parte de las veces la tecnología del deepfake se usa como mecanismo de acoso y de venganza. Para ello, nada mejor que crear videos pornográficos. Basta con elegir un clip de este contenido y colocar el rostro de quien deseemos.
Seguidamente, llega el siguiente paso: distribuirlo. Es importante saber que los videos pornográficos creados con tecnología deepfake se usa en entornos escolares y laborales. Es una forma de acoso altamente efectiva.
La realidad está siendo hackeada
Los deepfakes surgieron en el 2007, un poco antes de que las fake news estuvieran a la orden del día. En el presente, todas estas tendencias están hackeando y adulterando por completo nuestra realidad. Se usan en campañas de desprestigio para atacar a personajes públicos. Es más, según una publicación del Crime Science Journal, los deepfakes con propósito criminal mueven al año una gran cantidad de dinero.
Se estima que puede haber más de 50 000 deepfakes circulando por internet y a muchos de estos contenidos les estamos dando total veracidad.
¿Qué podemos hacer ante este tipo de tecnología?
Países como China han prohibido el uso de este tipo de inteligencia artificial. Facebook ha creado un fondo de más de 10 millones de dólares con la intención de generar herramientas que protejan a la población frente a su mal uso. Microsoft, por ejemplo, nos propone que usemos su Video Authenticator para saber si ese video o esa imagen que nos han llegado han sido manipulados.
De este modo, y más allá de los recursos de los que dispongamos para identificar los deepfakes, hay algo esencial. Lo primero es no recurrir a este tipo de tecnologías con fines de acoso o de venganza. Lo segundo es desarrollar un sentido crítico frente a los mensajes que nos llegan. En un mundo en el que la realidad está cada vez más manipulada solo el filtro de la cautela nos puede proteger…
Todas las fuentes citadas fueron revisadas a profundidad por nuestro equipo, para asegurar su calidad, confiabilidad, vigencia y validez. La bibliografía de este artículo fue considerada confiable y de precisión académica o científica.
- Nguyen, Thanh & Nguyen, Cuong M. & Nguyen, Tien & Nguyen, Duc & Nahavandi, Saeid. (2019). Deep Learning for Deepfakes Creation and Detection: A Survey.
- Kietzmann, J.; Lee, L. W.; McCarthy, I. P.; Kietzmann, T. C. (2020). "Deepfakes: Trick or treat?". Business Horizons. 63 (2): 135–146. doi:10.1016/j.bushor.2019.11.006
- Roose, Kevin (4 March 2018). "Here Come the Fake Videos, Too". The New York Times. ISSN 0362-4331