YouTube, Facebook e Twitter não pensaram outra coisa nos últimos 18 meses. As plataformas enfrentaram uma bateria de crises de RP sobre anúncios colocados ao lado de vídeos censuráveis, assassinatos e suicídios transmitidos ao vivo, trolls abusivos, tweets ofensivos, notícias falsas, lapsos na privacidade de dados e seus supostos papéis até afetar o resultado eleição presidencial dos EUA 2016.
Depois de muitos eventos de alto perfil que produziam clamores públicos e escrutínio do governo, os anunciantes cancelavam, ou pelo menos pausavam, suas campanhas nas plataformas.
Agora as três empresas responderam, reforçando seus esforços para policiar o conteúdo. Isso envolve intervenção humana - YouTube e Facebook contrataram milhares de novos funcionários para monitorar ativamente o conteúdo - mas isso depende principalmente dos algoritmos de aprendizado de máquina que são projetados para bloquear vídeos ofensivos, postagens e tweets antes de serem publicados.
Como esse esforço está indo tão longe? O YouTube, o Facebook e o Twitter estão ajudando a responder à pergunta, proporcionando nova visibilidade em suas práticas de monitoramento. Em abril de 2018, o YouTube publicou o primeiro de uma série de relatórios trimestrais que esclarecem quantos vídeos eles exibem, por qual método e com que rapidez ele os sinaliza e em quais gêneros eles se enquadram.
O mais recente relatório da eMarketer, " Policing Video Content no YouTube, Facebook e Twitter: Novos Esforços para Bloquear Clips Ofensivos ", explica todas as maneiras pelas quais esses gigantes sociais estão limpando seus atos.
Fonte: Emarketer
Comentários