Cada vez más a menudo aparecen vídeos engañosamente reales en los que los famosos dicen o hacen cosas totalmente inesperadas: Barack Obama, por ejemplo, insulta a su sucesor, o Mark Zuckerberg confiesa haber compartido todos los datos de los usuarios de Facebook. Pero la realidad es que estos acontecimientos nunca ocurrieron, son los llamados vídeos deepfake, que se han diseñado con la ayuda de la inteligencia artificial para suplantar la identidad de su objetivo. Aunque en la mayoría de los casos estos vídeos son reconocidos como falsos de manera relativamente rápida, esta tecnología está mejorando constantemente y representa un peligro potencial importante.

 Deepfakes, la última ciberamenaza para las empresas

La evolución continua del aprendizaje automático hace más difícil detectar si la información es falsa, además los ciberdelincuentes también están utilizando «deepfakes» para atacar a empresas con nuevas estafas: por ejemplo, The Wall Street Journal informó sobre una empresa británica que fue víctima de un ataque deepfake. En este caso, la voz del director general de la empresa matriz fue imitada como si fuera auténtica utilizando un software basado en Inteligencia Artificial (IA) y gracias a ello, consiguieron que el director de la compañía transfiriera 243.000 dólares a una cuenta bancaria extranjera.

¿Qué es un deepfake?

Los «deepfakes» son archivos de vídeo y audio manipulados que imitan las características biométricas de las personas como: la apariencia, las expresiones faciales o la voz de una manera engañosamente real. El término se compone de Deep Learning, que describe una tecnología especial de Inteligencia Artificial, el aprendizaje automático y «Fake» que significa falso.

Para crear vídeos deepfake, las redes neuronales artificiales, que tienen una cierta capacidad de aprendizaje, se alimentan con material de imagen o vídeo. Basado en el material de origen, el software de inteligencia artificial puede aprender a representar a la persona e incluso imitarla en un contexto diferente. La calidad del resultado depende, por un lado, de la extensión del material de origen y de cuántas capas ha utilizado la red neuronal, es decir, cuán «profunda» es. Para crear dicha imitación, dos algoritmos se ponen en funcionamiento: mientras que uno crea la falsificación, una segunda comprueba el resultado en busca de errores. La autenticidad de la falsificación aumenta con el número de repeticiones de este proceso de aprendizaje.
Pero no sólo los vídeos pueden ser falsificados usando inteligencia artificial y aprendizaje automático (Deep Learning), también se pueden crear falsificaciones de voces usando un método similar.

¿Por qué aumenta el número de deepfakes?

No hace mucho tiempo que las caras de las personas que aparecen en vídeos sólo podían ser reemplazados por efectos CGI (Computer-generated imagery o «imágenes generadas por computadora») elaborados por expertos a altos costes. En la actualidad, esto también es posible para cualquier persona que trabaje en un departamento de TI, gracias a un software de Inteligencia artificial, de libre acceso como DeepFaceLab. Incluso el uso de un hardware de alto coste ya no es necesario. Los usuarios que tienen una tarjeta gráfica demasiado débil pueden utilizar, por ejemplo, Colab de Google para tener hasta doce horas de formación de IA llevado a cabo en la nube. Una vez que el programa ha sido alimentado con material crea, en la medida de lo posible, la manipulación de manera automática. Además, los mecanismos de aprendizaje automático (Deep Learning) están en constante evolución y requieren cada vez menos grabaciones. Si bien varias horas de secuencias de vídeo serían necesarias, algunas IA solo necesitan unas pocas imágenes para intercambiar rostros.
El proceso de imitar una voz es similar: programas como Lyrebird necesitan sólo unos minutos de material de audio para generar imitaciones creíbles. Mientras que los famosos han sido, hasta ahora, los principales objetivos: el caso descrito al principio muestra que los ciberdelincuentes también están utilizando la tecnología para atacar a las empresas.

¿Qué ataques deepfake pueden esperar las empresas?

Los expertos en seguridad informática de Hornetsecurity ven un alto potencial de riesgo en dos áreas en particular: una estafa es el llamado fraude del CEO, en el que los ciberdelincuentes se hacen pasar por ejecutivos enviando correos electrónicos con una dirección personal y tratan de persuadir a los empleados a pagar grandes sumas de dinero. Con la tecnología «deepfake» ahora es posible aumentar drásticamente la credibilidad de esta estafa del fraude del CEO mediante archivos adjuntos de vídeo o audio falsos.
Debido al rápido desarrollo de la tecnología, también es concebible que los estafadores puedan incluso ponerse en contacto con los empleados directamente por teléfono o videollamada y hacerse pasar por el director general en tiempo real. El caso de la empresa británica mencionada al principio de este artículo.
Otra táctica que también podría convertirse en un problema: los ciberdelincuentes crean deepfakes en los que los ejecutivos hablan de su propia empresa y anuncian, por ejemplo, la insolvencia de la empresa. Incluso amenazando con enviar el material a los medios de comunicación o publicarlo en las redes sociales.

Prevención y detección de los ciberataques deepfake

En cuanto a los ciberataques deepfakes que ingresan a la empresa a través de correo electrónico, existe la posibilidad de que los filtros de spam y malware bloqueen el email y eviten que se abran los archivos de audio o vídeo adjuntos o vinculados. Sin embargo, los filtros no son capaces de reconocer deepfakes per se, pero pueden analizar los mensajes para determinar si el dominio, la dirección IP o el remitente está en la lista negra o si contienen vínculos o archivos adjuntos maliciosos.

El ciberataque se vuelve particularmente peligroso si se lleva a cabo por teléfono o videollamada, pues no existen mecanismos de seguridad que puedan intervenir en este caso. Por lo tanto, los expertos en seguridad informática de Hornetsecurity hacen hincapié en que es crucial sensibilizar a los empleados y directores generales de las empresas sobre este nuevo escenario de ciberamenazas. Sólo teniendo un elevado nivel de concienciación de nuestros empleados – nuestra primera línea de defensa- podremos proporcionar una protección efectiva para este tipo de ciberataques.

Michael Beyersdorf, Team Lead Content Creation Hornetsecurity Group y miembro del Grupo de Seguridad de Autelsi.