

28 de julio de 2025 - 8:01 AM
Washington — El teléfono suena. Es el secretario de Estado llamando. ¿O no? Para los expertos de Washington, ver y oír ya no es creer, gracias a una serie de incidentes recientes relacionados con deepfakes que se hacen pasar por altos funcionarios en la administración del presidente Donald Trump.
Las falsificaciones digitales también están llegando a las empresas estadounidenses, ya que bandas criminales y hackers asociados con adversarios, incluido Corea del Norte, utilizan video y audio sintéticos para hacerse pasar por directores ejecutivos y candidatos a puestos de trabajo de bajo nivel para obtener acceso a sistemas críticos o secretos comerciales.
Gracias a los avances en la inteligencia artificial, crear deepfakes realistas es más fácil que nunca, lo que causa problemas de seguridad a gobiernos, empresas y particulares y hace que la confianza sea la moneda más valiosa de la era digital.
Responder al desafío requerirá leyes, una mejor alfabetización digital y soluciones técnicas que combatan la IA con más IA.
‘Como humanos, somos notablemente susceptibles al engaño’, dijo Vijay Balasubramaniyan, CEO y fundador de la empresa tecnológica Pindrop Security. Pero cree que las soluciones al desafío de los deepfakes pueden estar al alcance: ‘Vamos a defendernos’.
Este verano, alguien utilizó la IA para crear un deepfake del secretario de Estado Marco Rubio en un intento de comunicarse con ministros de Asuntos Exteriores, un senador estadounidense y un gobernador a través de mensajes de texto, correo de voz y la aplicación de mensajería Signal.
En mayo, alguien se hizo pasar por la jefa de gabinete de Donald Trump, Susie Wiles.
Otro Rubio falso había aparecido en un deepfake a principios de este año, diciendo que quería cortar el acceso de Ucrania al servicio de internet Starlink de Elon Musk. El gobierno de Ucrania refutó más tarde la falsa afirmación.
Las implicaciones para la seguridad nacional son enormes: las personas que creen que están charlando con Marco Rubio o Susie Wiles, por ejemplo, podrían discutir información sensible sobre negociaciones diplomáticas o estrategia militar.
‘O bien se intenta extraer secretos sensibles o información competitiva, o bien se busca acceso a un servidor de correo electrónico u otra red sensible’, dijo Kinny Chan, CEO de la empresa de ciberseguridad QiD, sobre las posibles motivaciones.
Los medios sintéticos también pueden tener como objetivo alterar el comportamiento. El año pasado, los votantes demócratas de New Hampshire recibieron una llamada automática instándoles a no votar en las próximas primarias del estado. La voz de la llamada sonaba sospechosamente como la del entonces presidente Joe Biden, pero en realidad fue creada utilizando IA.
Su capacidad de engañar convierte a los deepfakes de la IA en un arma potente para los actores extranjeros. Tanto Rusia como China han utilizado la desinformación y la propaganda dirigidas a los estadounidenses como una forma de socavar la confianza en las alianzas e instituciones democráticas.
Steven Kramer, el consultor político que admitió haber enviado las llamadas automáticas falsas de Joe Biden, dijo que quería enviar un mensaje sobre los peligros que los deepfakes representan para el sistema político estadounidense. Kramer fue absuelto el mes pasado de los cargos de supresión de votantes y suplantación de identidad de un candidato.
‘Hice lo que hice por $500’, dijo Kramer. ‘¿Se imaginan lo que pasaría si el gobierno chino decidiera hacer esto?’
La mayor disponibilidad y sofisticación de los programas significa que los deepfakes se utilizan cada vez más para el espionaje corporativo y el fraude común.
‘El sector financiero está justo en el punto de mira’, dijo Jennifer Ewbank, ex subdirectora de la CIA que trabajó en ciberseguridad y amenazas digitales. ‘Incluso personas que se conocen han sido convencidas de transferir vastas sumas de dinero’.
En el contexto del espionaje corporativo, pueden utilizarse para hacerse pasar por directores ejecutivos que piden a los empleados que entreguen contraseñas o números de ruta.
Los deepfakes también pueden permitir a los estafadores solicitar puestos de trabajo -e incluso hacerlos- bajo una identidad asumida o falsa. Para algunos, esta es una forma de acceder a redes sensibles, robar secretos o instalar ransomware. Otros solo quieren el trabajo y pueden estar trabajando en algunos trabajos similares en diferentes empresas al mismo tiempo.
Las autoridades de Estados Unidos han dicho que miles de norcoreanos con conocimientos de tecnología de la información han sido enviados a vivir al extranjero, utilizando identidades robadas para obtener puestos de trabajo en empresas tecnológicas de Estados Unidos y otros lugares. Los trabajadores tienen acceso a las redes de la empresa, así como a un cheque de pago. En algunos casos, los trabajadores instalan ransomware que puede utilizarse posteriormente para extorsionar aún más dinero.
Los planes han generado miles de millones de dólares para el gobierno de Corea del Norte.
En un plazo de tres años, se espera que hasta 1 de cada 4 solicitudes de empleo sean falsas, según una investigación de Adaptive Security, una empresa de ciberseguridad.
‘Hemos entrado en una era en la que cualquiera con un ordenador portátil y acceso a un modelo de código abierto puede hacerse pasar de forma convincente por una persona real’, dijo Brian Long, CEO de Adaptive. ‘Ya no se trata de hackear sistemas, sino de hackear la confianza’.
Investigadores, expertos en políticas públicas y empresas tecnológicas están investigando ahora las mejores formas de abordar los retos económicos, políticos y sociales que plantean los deepfakes.
Las nuevas regulaciones podrían exigir a las empresas tecnológicas que hagan más para identificar, etiquetar y potencialmente eliminar los deepfakes en sus plataformas. Los legisladores también podrían imponer mayores sanciones a quienes utilicen la tecnología digital para engañar a otros, si pueden ser atrapados.
Una mayor inversión en alfabetización digital también podría aumentar la inmunidad de las personas al engaño en línea, enseñándoles formas de detectar los medios falsos y evitar ser víctimas de los estafadores.
La mejor herramienta para detectar la IA puede ser otro programa de IA, uno entrenado para olfatear los pequeños fallos en los deepfakes que pasarían desapercibidos para una persona.
Sistemas como el de Pindrop analizan millones de puntos de datos en el habla de cualquier persona para identificar rápidamente las irregularidades. El sistema puede utilizarse durante las entrevistas de trabajo u otras videoconferencias para detectar si la persona está utilizando un software de clonación de voz, por ejemplo.
Programas similares pueden ser un día comunes, ejecutándose en segundo plano mientras la gente charla con colegas y seres queridos en línea. Algún día, los deepfakes pueden seguir el camino del spam de correo electrónico, un reto tecnológico que una vez amenazó con trastornar la utilidad del correo electrónico, dijo Balasubramaniyan, CEO de Pindrop.
‘Se puede adoptar una visión derrotista y decir que vamos a ser sumisos a la desinformación’, dijo. ‘Pero eso no va a ocurrir’.
Las noticias explicadas de forma sencilla y directa para entender lo más importante del día.
Te invitamos a descargar cualquiera de estos navegadores para ver nuestras noticias: