PRESENTADO POR
Seguros y Planificación Financiera
Se adhiere a los criterios de The Trust Project
“Deepfake” y otras estafas cibernéticas con las que debes tener cuidado

Estas amenazas a la seguridad han aumentado como resultado de la popularidad de buscadores generados con inteligencia artificial

10 de septiembre de 2024 - 12:00 AM

El mayor riesgo de la tecnología "deepfake" es su habilidad de difundir información falsa que aparenta provenir de fuentes confiables. (Shutterstock)

Entre la sofisticación de los sistemas de tecnología que genera la inteligencia artificial en años recientes, han surgido nuevos esquemas de fraude y estafas con el objetivo de engañar grupos de usuarios vulnerables. Una de las tendencias más vistas es el uso de la tecnología deepfake, que consiste en la creación y difusión de una imagen, audio, o vídeo (o una serie de imágenes) completamente fabricada. Esta tecnología habilita, mediante la codificación de algoritmos, la manipulación de contenido en el cual una persona luce decir o hacer algo que nunca dijo o hizo.

El mayor riesgo de la tecnología deepfake, según la compañía de uso y manejo de datos TechTarget, es su habilidad de difundir información falsa que aparenta provenir de fuentes confiables. No obstante, el uso de la tecnología no implica que su uso se limite a una aplicación fraudulenta. Muchas compañías encuentran beneficios en implementar esta tecnología en sus sistemas de servicio al cliente para generar respuestas automatizadas conformes al tipo de apoyo y la naturaleza de la búsqueda de su clientela.

Sin embargo, contrario a una percepción popular sobre las imágenes que se difunden en la web, el contenido deepfake no se trata de imágenes o vídeos editados en plataformas como Photoshop, sino que se crea a través de la utilización de algoritmos especializados que combinan contenido existente con contenido original. De esta manera, estos algoritmos analizan rasgos y características fisiológicas de la persona en la imagen para manipularla en conjunto a otros vídeos o contenido audiovisual. Esto puede dar lugar a la explotación de la imagen de una persona y a la posibilidad de un intento de coaccionar a la víctima a hacer alguna transacción monetaria para prevenir mayor difusión mediática.

Un ejemplo del abuso de deepfake como herramienta de estafa y chantaje ocurrió en la República de Corea del Sur donde un grupo de adolescentes se convirtió en objeto de una investigación policíaca por utilizar y difundir imágenes de mujeres jóvenes en la aplicación de Telegram para crear contenido pornográfico del cual estas nunca fueron parte.

Asimismo, en febrero de 2024, una firma multinacional en Hong Kong cayó víctima de un andamiaje estafador compuesto por un grupo de personas que convenció a un empleado a hacer un depósito de $25 millones, utilizando tecnología deepfake que recreó las voces de oficiales financieros de la agencia para ordenarle a ejecutar dicha transferencia mediante una llamada de conferencia completamente fabricada.

Estas amenazas a la seguridad cibernética han aumentado como resultado de la popularidad de buscadores generados con inteligencia artificial como Chat GPT, el cual, rápidamente, catapultó esta tecnología generativa a las masas.

Según David Fairman, oficial de Información y Seguridad para APAC, en Netskope Inc., “la accesibilidad pública a estos servicios ha reducido las barreras de entrada para cibercriminales. [Estos] ya no necesitan destrezas especializadas en tecnología… el volumen y la sofisticación de estas estafas se han expandido mientras la tecnología de IA continúa evolucionando”, sostuvo.

A pesar de que varias empresas han caído víctimas de estos esquemas, esta práctica se reproduce en una escala más individualizada. Estafadores a través del mundo han ingeniado estrategias para engañar a personas vulnerables, fingiendo ser algún familiar o amistad necesitados de dinero.

Según Fairman, este asunto continuará acelerando y empeorando, mientras las autoridades de ciberseguridad continúan desarrollando alternativas de prevención de cibercrímenes para detener sistemas, prácticas y controles en defensa de nuevas tecnologías. El experto en ciberseguridad afirmó que las personas y empresas pueden “empoderar sus defensas a amenazas generadas por inteligencia artificial a través de educación, aprendizaje de los sistemas de codificación e implementación de varios cedazos de aprobación para realizar transacciones monetarias”, puntualizó.

La autora es periodista colaboradora de Suplementos.

BrandStudio
Este contenido fue redactado y/o producido por el equipo de Suplementos de GFR Media.

Ups...

Nuestro sitio no es visible desde este navegador.

Te invitamos a descargar cualquiera de estos navegadores para ver nuestras noticias: