Por Olhar Digital
A vida dos moderadores de conteúdo do Facebook não é nem um pouco fácil. Eles constantemente precisam observar o que há de pior na rede social - imagens de suicídio, decapitações, estupro, entre outras atrocidades que alguns usuários decidem transmitir ao vivo.
![]() |
(Foto: Reprodução) |
Em entrevista à BBC, um brasileiro que trabalhou em uma empresa contratada pelo Facebook para cuidar da moderação do conteúdo contou um pouco da experiência de lidar diariamente com esse tipo de coisa. O rapaz tinha como meta diária avaliar 3.500 fotos, vídeos e textos denunciados por usuários - mais de 7 por minuto, ou um a cada 8,5 segundos.
Os vídeos envolviam animais sendo mutilados, pessoas ameaçando suicídio, recém-nascidos sendo espancados, entre outras coisas.