O que pode publicar no Facebook: ¼ de um mamilo

O que pode publicar no Facebook: ¼ de um mamilo

10 de junho de 2019
Última atualização: 10 de junho de 2019
Helio Gama Neto

VEJA – 10/06/2019

Filipe Vilicic

Em VEJA desta semana, assino reportagem fruto de visita ao centro de revisores de conteúdo do Facebook em Barcelona. Esses profissionais são responsáveis por peneirar o que entra e o que não entra no site no Brasil, no restante da América Latina e em parte da Europa. Confira o texto no site ou na revista para um mergulho aprofundado nas questões envolvendo a sensível tarefa de monitorar e caçar grupos terroristas, pedófilos, traficantes, promotores de violência e ódio e etc. na internet. Agora, neste blog, compartilho mais informações dos bastidores de como funciona o fluxo de informações no Facebook.

Durante uma sessão empenhada em exibir o árduo (e é árduo!) trabalho que o Facebook tem tido para resolver os problemas que ele mesmo trouxe para si, no qual se detalhou como funciona o algoritmo do site e o exército de 15 mil checadores humanos espalhados pelo mundo, foi proposto um teste. Exibiram-se quinze exemplos de textos e fotos que foram realmente colocados por usuários na rede social.

Alguns nem chegaram a ser publicados, pois foram excluídos pela inteligência artificial ou pela inteligência humana da empresa. Outros, liberados para serem vistos por todos. Uma parcela menor ganhou um selo de alerta de “explícito”, usado principalmente quando se tratava de conteúdo violento ou sobre drogas, mas apresentado como forma de refletir sobre o assunto, ou de maneira artística, ou por meio de pinturas e fotos históricas, ou em reportagens de fontes renomadas, enfim, quando a origem do material era crível e respeitável.

No teste, errei feio em quatro alternativas – liberava, quando as regras indicavam o contrário; ou ocorria o inverso –, nem respondi em uma delas, chutei (e acertei) em mais duas. Na prática, só acertei mesmo se um post devia ser banido ou não em oito casos.

Não é fácil compreender os critérios da escolha. Nem para executivos graúdos do Facebook. “É claro que a ideologia de cada revisor por vezes pesa em sua decisão”, disse-me Paula Naval, gerente de políticas de segurança. “Mas por isso que as decisões podem ser questionadas por usuários, revistas pela equipe, há auditoria, e criamos formas técnicas para balizar as escolhas dos revisores”.

O Facebook já errou várias vezes. Por exemplo, na época em que proibiu a exibição do quadro A Origem do Mundo, de 1866, fixo no Museu de Orsay (Paris), no qual o pintor Gustave Courbet pinta de forma bem realista uma vagina. O algoritmo então simplesmente julgou que aquilo era um ser humano pelado – e seres humanos pelados são proibidos no Facebook e no Instagram. Logo depois de o público tirar sarro, e também se revoltar, com a exclusão da obra clássica, o Facebook colocou a arte de Courbet em um banco de dados para que ela não mais fosse interpretada como proibida – mas seres humanos pelados ainda são fora da lei da rede, destaca-se.

Noutra vez foi deletada uma histórica foto de uma menina fugindo de um ataque de napalm no Vietnã, em 1972, de autoria de Nick Ut. O protocolo se repetiu: o Facebook admitiu o erro e também colocou a imagem em um banco de dados de “liberados”. Os executivos da companhia acreditam que com o tempo o algoritmo ficará mais, digamos assim, inteligente em separar arte de pornografia, documentos históricos de imagens de crianças em situações de exploração.

O que será difícil controlar será o viés ideológico dos revisores humanos. “Claro que nossas crenças contam na hora da decisão. Até porque a maioria das regras entram em áreas bem cinzas”, resumiu uma revisora ouvida por mim de forma anônima. “Mas tento me ater a critérios técnicos. Se não fosse assim teria excluído um monte de posts que considero como de discurso de ódio, mas o Facebook não vê assim e acha que fomenta o ambiente de livre expressão”.

No teste ao qual fui submetido, vi exatamente como um revisor checa os posts polêmicos que chegam a eles. Numas situações, falta contexto para tomar uma decisão. Por exemplo, sem saber o histórico de um usuário, num momento foi difícil interpretar se uma charge criada pelo mesmo seria irregular – poderia ser interpretada como da categoria “discurso de ódio”; ou então era uma crítica social feita por um artista (o Facebook optou por não excluir tal desenho, diga-se).

Noutro momento, também era complicado saber se uma foto de duas pessoas – aparentemente do movimento LGBT, mas também era impossível ter certeza disso, visto que não se pode pesquisar mais sobre cada caso – seria considerada de cunho sexual (um aparentava estar chupando o mamilo de outro; mas o mamilo não aparecia na imagem). Nesse caso, o Facebook optou por deletar; mas em outro, numa cena sensual de um casal, sem os mostrar pelados, decidiu por não fazer o mesmo.

E o que pode e o que não pode no Facebook? “Nosso trabalho é muito subjetivo”, repetiu outro revisor. Para ficar um pouco menos subjetivo, o Facebook está construindo um conselho, com professores, intelectuais, ativistas, gente de fora da empresa e referências em suas áreas, que ajudará a gigante do Vale do Silício a criar melhores e mais claras leis para o bom convívio na plataforma. Só o tempo responderá se a tática vingará.

Mas já há, sim, alguns limites técnicos mais transparentes. Por exemplo, só se pode exibir até ¼ de um mamilo feminino no Facebook ou no Instagram. Exatamente ¼, nada mais. Mamilos à mostra provavelmente constituem um dos tópicos mais polêmicos. “Vocês se surpreenderiam com o tempo que minha equipe passa discutindo sobre mamilos”, confessou Paula Naval, do Facebook.


Warning: Undefined array key "" in /home/u302164104/domains/aner.org.br/public_html/wp-content/themes/aner/single.php on line 206

Warning: Trying to access array offset on value of type null in /home/u302164104/domains/aner.org.br/public_html/wp-content/themes/aner/single.php on line 206
Helio Gama Neto