Facebook bloqueó las historias de su incumplimiento como spam

Poco después de revelar detalles de la violación masiva que sufrió, Facebook bloqueó las historias que estaban relacionadas con el hecho.

Muchos usuarios de Facebook llevaron a Twitter para informar que el gigante de las redes sociales estaba eliminando las noticias de último momento al marcarlas como contenido no deseado.

Las historias bloqueadas, como dijeron los usuarios, eran principalmente las de The Guardian y Associated Press. Aquí están los detalles.

Facebook bloqueó las historias

Facebook bloqueó las historias de su incumplimiento como spam

¿Porque y como? Contenido eliminado por las herramientas automáticas de Facebook

Cuando Facebook hizo una revelación impactante, Internet se vio inundada de historias relacionadas con lo mismo. Incluidas las de The Guardian y AP.

Las dos historias, específicamente, se compartieron ampliamente al mismo tiempo. Lo que provocó que el sistema de seguridad de Facebook las tratara como contenido no deseado.

Facebook utiliza herramientas de marcado automático de contenido en lugar de moderadores humanos. Y esa es probablemente la razón por la cual las historias fueron anuladas.

Te puede interesar: El problema de las Fake News y la lucha de Facebook por desaparecerlo

Este fue el mensaje de error de Facebook

La confirmación y la solución inmediata de Facebook

Luego de varios informes, muchos medios de comunicación pudieron replicar el problema y llamar la atención de Facebook sobre él.

La compañía emitió inmediatamente una solución para el error. Asegurándose de que las historias no se eliminen al publicarse. Incluso confirmó lo mismo en Twitter .

Dicho esto, todavía no está claro por qué otras historias que se volvieron virales a la misma velocidad no se eliminaron de la plataforma.

Image result for facebook seguridad

Este no es el primer caso de marcado de contenido legítimo

Si bien Facebook ya tiene demasiados problemas, incluida la última brecha de seguridad. Es importante tener en cuenta que este no es el primer caso de etiquetado de contenido en mal estado.

Las herramientas automáticas de moderación de contenido utilizadas por el gigante de las redes sociales han señalado que el contenido legítimo es ilegítimo en varias ocasiones y no han evitado el discurso de odio.

También puedes leer:

Falla de seguridad compromete al menos 50 millones de cuentas en Facebook