El uso de los deepfakes está creciendo alrededor del mundo, en gran parte impulsado por el auge de la Inteligencia Artificial Generativa, lo que significa riesgos de ciberseguridad y, si no se tiene cuidado, incluso podría afectar eventos democráticos como elecciones presidenciales.
Un deepfake es un video, audio o imagen generados a través de inteligencia artificial que parece real, pero en realidad son ficticios. Por ejemplo, un video de escenas de la clásica película Volver al Futuro, pero con Tom Holland y Robert Downey Jr. como los protagonistas.
Otros deepfakes son las fotografías del expresidente de Estados Unidos, Donald Trump, resistiendo un arresto o las fotos del Papa Francisco en atuendos muy modernos.
Si estos videos e imágenes sólo se utilizaran para entretenimiento no habría grandes riesgos, lamentablemente se usan para realizar desde campañas de fraude hasta propagar noticias falsas.
Muestra de ello es que grupos de cibercriminales han usado esta tecnología para crear mensajes de audio falsos con los que se hacen pasar como directores de alto rango en diversas empresas para solicitar urgentemente transferencias de dinero u obtener información confidencial.
Datos del Foro Económico Mundial indican que, sólo entre 2019 y 2020, la cantidad de contenido deepfake aumentó en un 900% y esta tendencia al alza se mantendrá en los próximos años, incluso algunos investigadores predicen que hasta 90% del contenido en línea podría generarse sintéticamente para 2026.
Esto es preocupante porque 66% de los profesionales de la ciberseguridad experimentaron ataques deepfakes dentro de sus respectivas organizaciones durante 2022, lo que se tradujo en pérdidas de hasta 480 mil dólares en promedio para las empresas tanto grandes como pequeñas en ese mismo año.
Para Hiram Alejandro Camarillo, director de información de Seekurity, también es un problema que los deepfakes se utilicen para generar noticias falsas, como fue el caso del supuesto arresto de Trump. “Mientras algo esté en internet, no vas a poder detener su distribución y este tipo de videos o imágenes puede generar un impacto negativo a la imagen de una persona o de un país”, explicó al platicar con Excélsior.
Según el Estudio de identidad en línea Jumio 2023, 52% de los encuestados en el mundo cree que podría detectar un video realizado con inteligencia artificial generativa.
¿PREPARADOS PARA 2024 EN MÉXICO?
Hiram Alejandro Camarillo, director de información de Seekurity, consideró que el uso de los deepfakes hasta el momento no ha tenido un crecimiento exponencial en México, pero no descarta que se utilice dicha tecnología el próximo año durante las elecciones presenciales.
No sé si no están saliendo ahorita porque no hay candidatos definidos o no sé si están esperando que inicien las campañas para darle con todo, si se están guardando ese tipo de estrategias o no las conocen”, resaltó.
No es el único que piensa que las deepfakes podrían usarse para incidir en periodos democráticos clave porque Julián Garrido, director general de Mnemo México, consideró que esta tecnología está avanzando tan rápido que, para las elecciones presidenciales del próximo año en México, seguramente este tipo de campañas maliciosas se quedarán “cortas”.
¿CÓMO PROTEGERSE?
Camarillo teme que el gobierno y los candidatos actualmente no estén preparados para desmentir, identificar si las fotos o video son reales o no, por lo que aún tienen tiempo para conocer qué tecnologías o tips podría ayudarlos.
Sí hay tecnologías, aunque no tantas como debería, para identificarlas y contenerlas”, resaltó. Por ejemplo, se tienen herramientas como FakeCatcher de Intel o Microsoft Video Authenticator.
Mientras que las personas pueden fijarse en ciertos elementos, en el caso de los videos falsos, usualmente se filman con las personas viendo hacia adelante porque lo que hacer el deepfake es tomar la cara de una persona y la pone sobre otra.
Muchas herramientas, cuando la persona voltea la cara hacia la derecha o izquierda, llegan a distorsionar la imagen en ciertas partes, no graba las orejas o llega a tener ciertas partes borrosas.