Facebook anuncia conselho para avaliar moderação de conteúdo
MEIO&MENSAGEM – 18/09/2019
O Facebook anunciou um conjunto de medidas para diminuir a quantidade de discurso de ódio em sua plataforma. Entre elas, está a criação de um conselho independente que avaliará o que foi moderado pela equipe da empresa. Além disso, a plataforma passa a ampliar sua compreensão do que considera terrorismo e aprimorará ferramentas de inteligência artificial usadas para detectar transmissões ao vivo de tiroteios, segundo informações do New York Times.
O Comitê de Supervisão terá poder de, caso considere inadequada, anular uma decisão de moderação por parte dos funcionários da empresa. As novidades foram divulgadas na véspera de uma audiência em um comissão do congresso estadunidense sobre como grandes empresas de tecnologia estão lidando com conteúdo que promova violência.
O conselho será formado por 40 membros, contratados por meio período, e com mandatos de três anos cada. Fará parte da atribuição dos integrantes promover recomendações ao Facebook para aprimorar suas políticas de moderação de conteúdo.