No domingo de Páscoa, Steve Stephens postou um vídeo no Facebook anunciando a intenção de matar alguém na cidade de Cleveland (EUA). Dois minutos depois, ele postou outro vídeo atirando em Robert Godwin Sr., de 74 anos. Após mais alguns minutos, ele entrou ao vivo confessando o assassinato.
Segundo o Facebook, o vídeo ao vivo da confissão foi rapidamente denunciado por outro usuário; mas a rede social só foi alertada sobre o segundo vídeo (com o tiro) mais de 1h45min após ele ser publicado. Por isso, eles prometem melhorar a forma como seus usuários denunciam vídeos, para que isso possa ser feito “tão facilmente e rapidamente quanto possível”.
O Facebook diz que desativou a conta do suspeito 23 minutos após receber a denúncia do vídeo em que o idoso é baleado. Esta é a linha do tempo:
11h09 PDT (horário do Pacífico) – primeiro vídeo, com a intenção de assassinato, é enviado. Ninguém o denunciou para o Facebook.
11h11 – segundo vídeo, com o tiro, é enviado.
11h22 – suspeito confessa o assassinato enquanto usa o Live; transmissão dura 5 minutos.
11h27 – Live termina, e vídeo é denunciado logo depois.
12h59 – vídeo do tiro é enfim denunciado.
13h22 – conta do suspeito é desativada; todos os vídeos deixam de ser visíveis para o público.
Como nota o TechCrunch, esta linha do tempo demonstra as falhas do sistema de moderação do Facebook. A rede social não busca conteúdos violentos ou inapropriados; ela espera até que alguém os denuncie antes de agir.
No entanto, o processo de denúncia é mais complicado do que deveria. Primeiro, é preciso clicar na setinha do canto inferior direito e depois em Denunciar:
Então, escolher a opção “Acredito que não deveria estar no Facebook”:
Em um novo pop-up, você clica na opção “É ameaçador, violento ou suicida”:
Em mais outro pop-up, é preciso escolher a opção “Violência explícita”:
E, enfim, você clica “Enviar ao Facebook para análise”.
Compare isso ao YouTube, que requer apenas alguns cliques na mesma interface: Mais > Denunciar > Conteúdo violento ou repulsivo > Ataque físico > Enviar. (A descrição é opcional.)
Justin Osofsky, vice-presidente de operações globais do Facebook, reconhece em comunicado que a empresa pode fazer um trabalho melhor na moderação. Ele diz que a inteligência artificial pode ser útil, “ajudando-nos a impedir que os vídeos sejam compartilhados novamente em sua totalidade”. No entanto, cópias do vídeo de Stephens estavam sendo compartilhadas no Facebook, e uma delas acumulou mais de 1,6 milhão de visualizações.
Segundo o Mashable, o Facebook tem uma equipe de moderadores humanos que monitoram ativamente vídeos ao vivo se eles atingirem certo limite; talvez eles devessem fazer o mesmo também para vídeos fora do Live.
Por enquanto, o Facebook só analisa os itens que são denunciados pelos usuários; a empresa tem uma equipe com milhares de pessoas em todo o mundo
https://tecnoblog.net/213054/facebook-video-crime-resposta/