[vc_row fullwidth=»has-fullwidth-column»][vc_column][vc_column_text]

Cuando parecía que le habíamos puesto cara a las principales tácticas que se usan para desinformarnos, comienza a sonar con fuerza una nueva: los deepfakes. Esta técnica utiliza la inteligencia artificial (IA) para combinar imágenes o vídeos de la cara de una persona y superponerlos en otra, de forma que esta diga cosas que no ha dicho o haga gestos que no ha hecho. El resultado es un vídeo falso, pero tan realista que el ojo no percibe que es un montaje.

Estamos en un tiempo en el que han proliferado proyectos de verificación independiente de hechos (fact checkers) dedicados a desmentir bulos que tratan de manipular a la opinión pública con rumores malintencionados. Sin embargo, en los últimos meses está emergiendo una variante mucho más sofisticada e inquietante que las fake news, y principalmente por su posible aplicación como herramienta política de desinformación: los llamados deepfakes. Esta técnica emplea algoritmos –las llamadas redes generativas antagónicas o GAN, por sus siglas en inglés– para combinar y superponer imágenes o vídeos ya existentes en otros vídeos originales.

Estos experimentos son apoyados por numerosas universidades y centros de investigación, y ya existe un software de inteligencia artificial llamado FakeApp –que podría ser utilizado por otro tipo de organizaciones o personas a título individual– capaz de trasplantar imágenes de una persona en el rostro de otra como quien pone una careta.

Con el fin de evitar caer en la trampa, hay trucos técnicos de los que nos podemos fiar para tratar de detectar este tipo de vídeos, como, por ejemplo, si en los vídeos los personajes parpadean poco o aparecen en actitud estática. Para Julio Montes, cofundador de Maldita.es, el mejor consejo que pueden dar en este caso es “no reenvíes”. “Si no estás seguro; si no te ha llegado por una fuente completamente fiable; si es algo tan escandaloso que debería estar abriendo informativos o portadas de periódicos y no lo está, es que seguramente sea falso”, afirma.

Aunque el mayor temor es que se utilice esta técnica como medio de desinformación política. “Se están ampliando los riesgos, pero es una realidad que todavía no nos ha llegado”, señala Julio Montes. “Para conseguir su objetivo desinformador –añade– ahora mismo los malos no necesitan recurrir a esta tecnología. Hacer un deepfake convincente requiere invertir horas y en este momento este grado de sofisticación no parece necesario, ya que los formatos más empleados siguen adoptando forma de captura de pantalla, audio o vídeo, cuya elaboración es más sencilla”.

Luiz Menéndez

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_empty_space][agni_button value=»Leer artículo completo» icon=»pe-7s-news-paper» url=»https://www.notariado.org/liferay/c/document_library/get_file?folderId=12092&name=DLFE-676554.pdf» target=»_blank» style=»alt» choice=»accent» size=»sm»][/vc_column][/vc_row]