

29 de octubre de 2025 - 2:47 PM

Washington— Un video viral muestra lo que parecen ser cuatro tiburones nadando en la piscina de un hotel jamaicano mientras las inundaciones supuestamente provocadas por el huracán Melissa inundan la zona. Otro supuestamente muestra el aeropuerto de Kingston, Jamaica, completamente devastado por la tormenta.
Pero ninguno de estos hechos ocurrió, es solo información errónea generada por la Inteligencia Artificial (IA) que circula en las redes sociales mientras la tormenta azotaba el Caribe esta semana.
Estos videos y otros han acumulado millones de visitas en plataformas de redes sociales, incluidas X, TikTok e Instagram.
CAUTION: Expect fake, AI-generated photos & videos claiming to show hurricane damage in Jamaica & the Caribbean.
— Meteorologist Mitchell Keyes (@mitchellkeyeswx) October 29, 2025
This kind of misinformation spreads quickly during major weather events.
Before you share: pause, verify, and think critically.#Wx #Weather #Melissa #Hurricane pic.twitter.com/4TLv0p0Cna
Algunos de los clips parecen estar empalmados o basados en imágenes de desastres antiguos. Otros parecen haber sido creados en su totalidad por generadores de video de IA.
“Estoy en tantos grupos de WhatsApp y veo todos estos videos. Muchos de ellos son falsos”, dijo el lunes la ministra de Educación de Jamaica, Dana Morris Dixon. “Por eso les instamos a que escuchen los canales oficiales”.
Aunque es común que fotos, videos e información errónea falsos salgan a la luz durante los desastres naturales, generalmente se desacreditan rápidamente. Pero los videos generados por las nuevas herramientas de IA han llevado el problema a un nuevo nivel al facilitar la creación y difusión de clips realistas.
En este caso, el contenido ha aparecido en los feeds de las redes sociales junto con imágenes genuinas tomadas por residentes locales, sembrando confusión entre los usuarios de las redes sociales.
Aquí hay algunos pasos que puede seguir para reducir sus posibilidades de ser engañado.
Busque un logotipo de marca de agua que indique que el video fue generado por Sora, una herramienta de texto a video lanzada por OpenAI, creador de ChatGPT, u otros generadores de video de IA. Estos suelen aparecer en una de las esquinas de un video o foto.
Es bastante fácil eliminar estos logotipos utilizando herramientas de terceros, por lo que también puede buscar desenfoques, pixelaciones o decoloración donde debería haber una marca de agua.
Mire más de cerca los videos para ver si hay detalles poco claros. Si bien el video de los tiburones en la piscina parece realista a primera vista, parece menos creíble tras un examen más detenido porque uno de los tiburones tiene una forma extraña.
Es posible que vea objetos que se mezclan o detalles como letras en un letrero que están distorsionados, que son signos reveladores de imágenes generadas por IA. La marca también es algo a tener en cuenta, ya que muchas plataformas son cautelosas a la hora de reproducir logotipos de empresas específicas.
Los expertos dicen que será cada vez más difícil distinguir entre la realidad y los deepfakes a medida que la tecnología mejore.
Los expertos señalaron que Melissa es el primer gran desastre natural desde que OpenAI lanzó el mes pasado la última versión de su herramienta de generación de video Sora.
“Ahora, con el auge de herramientas poderosas y de fácil acceso como Sora, se ha vuelto aún más fácil para los malos actores crear y distribuir videos sintéticos altamente convincentes”, dijo Sofía Rubinson, editora sénior de NewsGuard, que analiza la información errónea en línea.
“En el pasado, la gente a menudo podía identificar las falsificaciones a través de signos reveladores como movimientos antinaturales, texto distorsionado o dedos faltantes. Pero a medida que estos sistemas mejoran, muchas de esas fallas están desapareciendo, lo que hace cada vez más difícil para el espectador promedio distinguir el contenido generado por IA de las imágenes auténticas”.
🇯🇲 BREAKING: Sharks spotted swimming in a resort pool in Jamaica after #HurricaneMelissa tore through the island! 🌪️🦈 Nature just rewrote the rules.
— Majuu Alone Munene🇰🇪 (@jaokojohnmark) October 28, 2025
#Jamaica #BreakingNews pic.twitter.com/xQvo5j7GWo
El experto en IA Henry Ajder dijo que la mayoría de los deepfakes de huracanes que ha visto no son inherentemente políticos. Sospecha que está “mucho más cerca del tipo de contenido más tradicional basado en clics, que es tratar de conseguir participación, tratar de conseguir clics”.
En X, los usuarios pueden recibir pagos en función de la cantidad de participación que obtienen sus publicaciones. Los YouTubers pueden ganar dinero con los anuncios.
Un video que acumula millones de visitas podría hacer ganar al creador unos miles de dólares, dijo Ajder, nada mal para la cantidad de esfuerzo necesario.
Las cuentas de redes sociales también utilizan videos para ampliar su base de seguidores con el fin de promocionar proyectos, productos o servicios, dijo Ajder.
Así que comprueba quién publica el video. Si la cuenta tiene un historial de publicación de contenido estilo clickbait, sea escéptico.
Pero tenga en cuenta que las personas detrás de los videos deepfake no siempre están tratando de ocultarse.
“Algunos creadores solo están tratando de hacer cosas interesantes usando la IA que creen que van a llamar la atención de la gente”, dijo.
Si bien no está claro quién creó exactamente el video de los tiburones en la piscina, una versión que se encuentra en Instagram lleva la marca de agua de una cuenta de TikTok, Yulian_Studios. El perfil de TikTok de esa cuenta se describe a sí mismo, en español, como un “Creador de contenido con efectos visuales de IA en República Dominicana”. El video de los tiburones no se puede encontrar en la página de la cuenta, pero sí tiene otro clip generado por IA de un hombre obeso aferrado a una palmera mientras los vientos del huracán soplan en Jamaica.
El contexto importa. Tómate un momento para considerar si lo que estás viendo es plausible. El sitio web de periodismo Poynter aconseja que si ves una situación que parece “exagerada, poco realista o fuera de lugar”, consideres que podría ser un deepfake.
Eso incluye el audio. Los videos de IA solían venir con voces en off sintéticas que tenían una cadencia o un tono inusuales, pero las herramientas más nuevas pueden crear un sonido sincronizado que suena realista.
Y si lo encontraste en X, asegúrate de comprobar si hay una nota de la comunidad adjunta, que es la herramienta de verificación de datos impulsada por el usuario de la plataforma.
Una versión del video de la piscina de tiburones en X viene con una nota de la comunidad que dice: “Este metraje de video y la voz utilizada fueron creados por inteligencia artificial, no es metraje real del huracán Melissa en Jamaica”.
No confíe solo en extraños al azar en Internet para obtener información. El gobierno jamaicano ha estado publicando actualizaciones sobre la tormenta y también lo ha hecho el Centro Nacional de Huracanes.
Las noticias explicadas de forma sencilla y directa para entender lo más importante del día.

Te invitamos a descargar cualquiera de estos navegadores para ver nuestras noticias: