Desde el ataque, el vídeo ha sido descargado y subido millones de veces a varias plataformas. (AP) (semisquare-x3)
Desde el ataque, el vídeo ha sido descargado y subido millones de veces a varias plataformas. (AP)

A unos días de haberse registrado uno de los peores días en Nueva Zelanda, a causa de un ataque en el que murieron decenas de personas, Facebook explicó por qué no pudo evitar la difusión de las imágenes.

El vicepresidente de la compañía, Guy Rosen, indicó en un comunicado que el sistema de inteligencia artificial (IA) de la plataforma no fue capaz de detectar el vídeo por una simple razón: no tenía ejemplos para comparar y detectar el vídeo.

“Los sistemas de IA están basados en datos que los entrenan, lo que significa que se necesitan miles de ejemplos de este contenido para entrenar a un sistema capaz de detectar ciertos tipos de texto, imágenes o vídeos. Ha funcionado muy bien con temas como desnudos, propaganda terrorista y también con gráficos de violencia, de los que hay un gran número de ejemplos que podemos usar para entrenar a nuestros sistemas”, señaló.

Para conseguir el mismo resultado en situaciones como la de Nueva Zelanda, añade el directivo, “tenemos que dotar a nuestros sistemas de un gran volumen de datos de este tipo de contenidos, lo que es difícil en estos eventos”.

Cabe recordar que el tirador transmitió en vivo 17 minutos del horrendo ataque, que tuvo como resultado 50 víctimas fatales.

Facebook añadió que menos de 200 personas vieron el vídeo en vivo. Sin embargo, las imágenes fueron reproducidas 4,000 veces más antes de que la compañía las retirara.

Lo que complicó aún más el problema para Facebook es la comunidad de “malos actores” que trabajaron en conjunto para subir continuamente las versiones editadas del vídeo, es decir, las versiones que incluían imágenes grabadas desde la televisión y monitores de computadora, y que funcionaron para engañar al sistema de inteligencia artificial y permitieron que esas copias se diseminaran, añadió Rosen.

Por este motivo, la compañía ahora comenzará a usar una tecnología basada en audio para detectar vídeos que podrían haber sido editados para engañar al sistema de Inteligencia Artificial visual.

Desde el ataque, el vídeo ha sido descargado y subido millones de veces a varias plataformas, que luchan por eliminarlo y evitar un caso similar.


💬Ver 0 comentarios