É preciso rever imunidade das plataformas, diz professor associado em Harvard
FOLHA DE S.PAULO
Patrícia Campos Mello
Para Virgílio Almeida, professor associado do Berkman Kein Center para Internet e Sociedade na Universidade Harvard, rever legislações que isentam redes sociais de responsabilidade pelo conteúdo criado pelos usuários é essencial —ainda que as big techs, como Facebook e Twitter, afirmem que a mudança geraria autocensura e restrição da liberdade de expressão na internet.
“Já que empresas de tecnologia são as beneficiárias mais diretas da Seção 230 [legislação americana que as isenta de responsabilidade por conteúdo de terceiros], seria interessante considerar que elas têm a responsabilidade de mostrar que essa imunidade extraordinária é usada em benefício da sociedade”, diz Almeida, professor emérito de Ciência da Computação na Universidade Federal de Minas Gerais.
Segundo ele, uma regulação que exija maior transparência no funcionamento dos algoritmos, o que ajudaria a sociedade a entender de que maneira as informações são priorizadas nas redes sociais, é muito importante. Almeida diz ser necessário ter um sistema de governança da internet que fuja tanto do modelo chinês, de grande intervenção do Estado, como o do Vale do Silício, em que não há regulação e tudo fica a cargo do mercado.
“Mas qualquer ajuste deve ser sujeito a revisão rigorosa de como impacta o ecossistema de informação”, diz o professor, um dos mais respeitados especialistas mundiais em governança na internet e algoritmos.
Ele acaba de lançar o livro “Governance for the Digital World: Neither More State nor More Market” (governança para o mundo digital: nem mais Estado nem mais mercado) com Fernando Filgueiras, professor da Escola de Políticas Públicas e Governo (EPPG) da Fundação Getulio Vargas e da UFMG.
O senhor acredita que é preciso rever os princípios da Seção 230 do Ato de Decência nas Comunicações americano e o Marco Civil da Internet brasileiro, para que as grandes plataformas de internet sejam, de alguma maneira, responsabilizadas pelas informações que distribuem? É essencial haver alguma revisão, considerando que a oligopolização do mundo digital faz com que essas plataformas controlem os dados e as informações que circulam na internet. Desde 1996, quando o ato foi aprovado pelo Congresso dos EUA, o papel da internet mudou gigantescamente. Os intermediários passaram a desempenhar um papel essencial no desenvolvimento, disseminação e amplificação de conteúdo prejudicial e ilegal, como notícias falsas e conteúdo ligados a terrorismo. Essa ampla imunidade das plataformas tem gerado danos colaterais que atingem pessoas reais, cujas reputações, privacidade e dignidade foram prejudicadas.
A questão da moderação e da regulação de conteúdo tem sido discutida em vários países. A Alemanha, por exemplo, baniu conteúdo neonazista nas plataformas. No Brasil, o Marco Civil da Internet traz o tema da neutralidade das redes, que foi e é importante para assegurar as mesmas condições de tráfego e livre acesso ao conteúdo. Porém, isso não significa que as plataformas devem ser isentas quanto a desinformação ou discursos de ódio. Os algoritmos das plataformas têm funções de edição também: selecionam, ranqueiam e algumas vezes censuram.
As plataformas afirmam que rever a Seção 230 vai levá-las a censurar conteúdo para evitar processos, o que acabará reduzindo a liberdade de expressão na internet. Empresas como Twitter e Facebook já interferem ativamente no conteúdo, diminuindo a visibilidade ou até removendo conteúdo ou usuários por completo. Considerando que empresas de tecnologia são as beneficiárias mais diretas da Seção 230, seria interessante considerar que elas têm a responsabilidade de mostrar que estão usando essa imunidade extraordinária em benefício da sociedade. Demandar alguma forma de regulação que exija maior transparência de como os algoritmos funcionam, o que ajudaria a sociedade a entender como as informações são priorizadas e ampliadas, é muito importante.
Novas ideias, como adicionar mecanismos de fricção [que atrasam a divulgação de certos conteúdos], poderiam ser úteis. É importante lembrar que os anunciantes são atraídos por dados sobre usuários; que os dados são criados por meio de produção e circulação constantes de conteúdo gerado pelo usuário; e, portanto, o conteúdo controverso, que mantém os usuários postando e compartilhando, é valioso. Sob essa perspectiva, figuras políticas controversas e discurso de ódio são encorajados por esse modelo de negócio. Portanto, esse seria mais um aspecto a entrar nas discussões sobre regulação e moderação de conteúdo. Mas qualquer ajuste deve ser sujeito a revisão rigorosa de como impacta o ecossistema de informação nacional e global.
Em seu livro, o senhor argumenta que o mundo digital está sujeito à “tragédia dos comuns” da mesma maneira que o meio ambiente. Qual seria o equivalente digital para a crise do clima? Quando falamos na tragédia dos comuns, estamos falando de um recurso compartilhado e cuja super exploração por algum indivíduo ou grupo cria um custo para toda a sociedade. No caso do mundo digital, os recursos são dados, informações e conhecimento. Tecnologias de inteligência artificial dependem de volumes massivos de dados para treinar algoritmos. É o caso dos algoritmos do feed do Facebook ou da linha do tempo do Twitter ou do algoritmo de recomendações do YouTube. Tecnologias de Internet das Coisas dependem de acesso a dados que são produzidos pelas “coisas”.
Governos que digitalizam serviços públicos e se transformam em plataformas dependem de dados dos cidadãos. Todas as tecnologias digitais coletam, armazenam, processam e compartilham dados para que possam funcionar e impulsionar diversas tarefas que realizamos. E, assim, a forma como exploramos esses dados impactará a sociedade de uma forma dramática.
Note que não estamos fazendo nenhum determinismo tecnológico. A inteligência artificial, por exemplo, não impacta sozinha a sociedade. Mas o uso que fazemos dela faz toda a diferença. Hoje, os resultados obtidos com as tecnologias digitais são mistos. Fala-se muito na interferência negativa de tecnologias nos processos eleitorais e como elas estão esvaziando as democracias. Ao mesmo tempo, em Taiwan, o governo usa essas tecnologias para fortalecer a democracia, com ferramentas digitais para melhorar o processo de deliberação pública. As tecnologias digitais são ferramentas com potencial enorme para melhorar a vida das pessoas. Mas também têm um potencial enorme de criar danos irreparáveis para a democracia. Tudo vai depender da forma como governamos, usamos e controlamos essas tecnologias.
Há vários dilemas, como regular e fazer a moderação de conteúdo nas mídias sociais ou deixar tudo livre. As respostas não são globais, dependem dos países. Por exemplo, a legislação na Alemanha inclui duras proibições contra o discurso de ódio, incluindo a ideologia pró-nazismo. Nos EUA, está garantida a liberdade de expressão. Comparando com a crise do clima: vamos considerar a emissão de dióxido de carbono gerada pelos países, que aumenta a poluição global e acelera as mudanças climáticas. Como um paralelo a esse fenômeno do meio ambiente, podemos ver de maneira análoga a “emissão’’ de desinformação nas redes, que gera confusão e desconfiança no espaço digital com consequências reais como divisão e polarização da sociedade, violência.
Outra comparação é a necessidade de ações coletivas para preservação do meio ambiente, como uso de materiais recicláveis, proteção de rios, florestas e matas. Cada cidadão deveria fazer sua parte na preservação do meio ambiente. A questão da segurança do ciberespaço é similar, pois exige uma ação coletiva, na qual toda a sociedade tem de se preocupar com a segurança de seus dispositivos eletrônicos, como também com ações individuais de não propagar notícias falsas ou vírus.
O senhor diz, no livro, que é necessário estabelecer uma governança para o mundo digital, e que isso não significa nem “mais Estado” nem “mais mercado”. Como seria isso na prática? Há duas possibilidades para enfrentar problemas da tragédia dos comuns. A primeira é criar um aparato estatal que imponha aos indivíduos regras para a gestão dos recursos comuns. A outra é privatizar esses recursos e geri-los por meio do mercado. A governança do mundo digital baseada no Estado é bem representada pelo caso da China, onde o governo decide tudo, desde o que a sociedade vê e usa, inclusive banindo Google, Facebook, Twitter e implantando uma censura rigorosa nos fluxos de informação que circulam nas redes. Por outro lado, a governança baseada no mercado é dirigida pelos interesses comerciais das grandes empresas.
Se de um lado temos a China, que constituiu um verdadeiro Leviatã que coordena tudo do mundo digital por lá, de outro lado temos uma cultura de mercado bastante agressiva e que rejeita qualquer forma de regulação, que é a cultura do Vale do Silício. As brigas de Apple e Google com desenvolvedores de aplicativos explodiram em um confronto de alto risco, quando os gigantes de tecnologia expulsaram o popular jogo Fortnite de suas lojas de aplicativos, e o criador do jogo revidou com ações judiciais.
Outro exemplo são os algoritmos do YouTube ou Facebook que buscam maximizar o engajamento dos usuários com as plataformas para aumentar o faturamento de publicidade, mesmo que isso resulte na circulação de desinformação ou discurso de ódio.
Nossa principal questão no livro é mostrar que a alternativa entre mais Estado ou mais mercado é falsa. Necessitamos de mecanismos de governança que facilitem a cooperação e a colaboração entre governos, empresas de tecnologias, organizações da sociedade civil e organismos internacionais para criar um conjunto de políticas que sejam capazes de incidir no mundo digital de maneira a assegurar o respeito aos direitos humanos, benefícios sociais, justiça.
Novas formas de governar o mundo digital têm sido propostas. O Facebook, por exemplo, criou o Facebook Oversight Board, com membros da sociedade civil e da academia, para fazer a regulação de conteúdo. Governos têm reagido promovendo o nacionalismo de dados, com exigências de localização territorial de dados de seus cidadãos. Diversas ações têm sido feitas.
Mas ainda não são suficientes para estabelecer paz. Na prática, o que precisamos é de instituições que funcionem e sejam capazes de mediar os diversos interesses envolvidos no mundo digital e de forma legítima desenhar políticas que assegurem que as tecnologias digitais beneficiem a sociedade. O mais importante é entendermos que um governo sozinho não tem capacidade para fazer a governança adequada do mundo digital e que muitos dos tópicos do mundo digital que requerem governança não poderão ser regulados pela autonomia de mercado. Se for o Estado regulando conteúdo, teremos toda sorte de censura prévia, sem que sejamos capazes de resolver o problema da desinformação. Se for pelo mercado, tudo o que vivenciamos hoje permanecerá, porque não há qualquer motivação para as grandes plataformas mudarem um modelo de negócios que é altamente lucrativo.
A última versão do projeto de lei das fake news em tramitação no Congresso prevê um tipo de governança que une autorregulação à moderação por um conselho de internet. O que o senhor acha do projeto? O projeto é necessário porque precisamos construir respostas efetivas com relação ao problema da desinformação. Mas o projeto de lei e a discussão que foi feita no Congresso foram pobres e abriram alguns riscos importantes, como os relacionados à privacidade. Se, em si, as redes sociais já funcionam na base da vigilância, agora podemos reforçar esse ponto, uma vez que temos que vincular nossa identidade nas redes. Além disso, o projeto das Fake News é quase mudo em relação aos grupos organizados que criam e propagam a desinformação.
E claramente há a questão do financiamento desses grupos, que se torna a questão essencial. É possível que a lei se torne inefetiva, sem alterar o que realmente importa. É necessário que a lei pense em um desenho mais efetivo para mudar comportamentos dos indivíduos nas redes. De repente, algumas pequenas mudanças podem fazer muita diferença. No caso da desinformação, em especial, seria desejável que as plataformas sociais mudassem seu modelo de negócio. Porém, é muito ingênuo imaginar que as redes sociais vão simplesmente fazer isso. Precisamos ir atrás do dinheiro e criar as devidas punições a agentes que propagam desinformação.
O que acontecerá se o mundo digital continuar sem nenhum tipo de governança? A ausência de regramentos, regulações, legislações e acordos globais pode levar a uma situação caótica, em que a principal característica seria a falta de confiança da sociedade no mundo digital. A ausência de governança pode levar também a uma fragmentação da internet e dos serviços globais, hoje vistos como uma conquista do século 21. As consequências econômicas e políticas seriam desastrosas. No caso específico do Brasil, é importante observar que estamos caminhando a passos largos para uma situação na qual tudo estará conectado por meio de um complexo e opaco sistema tecno-social, e se o país não criar políticas, terá de seguir atrás de regras feitas e executadas fora daqui.
Quais são os principais “maus elementos” do mundo digital hoje? E os principais problemas? O problema não está na tecnologia em si. O problema é humano e continuará humano. É muito difícil falar em “maus elementos” e “bons elementos”. O Facebook, por exemplo, contribui para devastar as eleições americanas agora e cria uma série de problemas reais para as democracias mundo afora. O que aconteceu em 2018 no Brasil é um exemplo desse problema. Mas, ao mesmo tempo, o Facebook foi fundamental na Primavera Árabe, na luta pela democracia em Taiwan ou mesmo na convocação de manifestações no Brasil em 2013. Entre os especialistas, existem os românticos da democracia nas redes e os céticos do fim do mundo, que querem o fim das tecnologias. Esse moralismo no mundo digital é muito improdutivo.
Hoje, um dos principais problemas no mundo digital são as desigualdades reproduzidas na infraestrutura da internet. Isso ficou muito visível com a questão do ensino online durante a pandemia. Escolas e famílias ricas e de classe média se adaptaram rapidamente e migraram todo o ensino para as plataformas online. Agora, como as escolas públicas e famílias pobres vão responder a isso? E mesmo fora da questão da pandemia, ainda existem milhões de pessoas que não têm acesso a banda larga. Ao mesmo tempo, falamos em transformar digitalmente todos os serviços públicos e criar governos como plataformas. E quem não tem acesso à banda larga, simplesmente será excluído de todos os serviços públicos?
Outra ordem de problemas diz respeito às aplicações. Algoritmos cada vez mais decidem quem tem direito a que, como, onde e quando. Isso leva à negação de direitos dos cidadãos. Por exemplo, algoritmos reproduzem e até mesmo fortalecem injustiças de raça e gênero, como o que fazia a seleção de emprego da Amazon, e levava mulheres a serem dispensadas dos processos seletivos. Vieses de raça levaram à incriminação de homens negros nos Estados Unidos quando o sistema judicial implementou inteligência artificial para resolver as tarefas dos processos criminais.
O WhatsApp não se encaixa no diagnóstico dos problemas causados por algoritmos nas redes sociais. Como sanar os problemas causados por um aplicativo criado para comunicação interpessoal que se transformou em um veículo de comunicação de massa criptografado, sem nenhuma supervisão ou prestação de contas, usado para disseminar desinformação? Uma possibilidade em discussão tem sido o monitoramento em tempo real de usuários com padrões de comportamento suspeitos, criação de mecanismos de fricção que criam dificuldades para disseminação de mensagens em momentos ou situações específicas, como num período próximo ao eleitoral. Como o WhatsApp é um serviço gratuito, seria interessante explorar a ideia de “fricção” nos serviços sensíveis.
Exemplos já existentes, como limitar a cinco o número de encaminhamentos no WhatsApp, têm se mostrado eficazes. Mas pode-se ir além disso, como atrasar significativamente o envio de mensagens de pessoas sob suspeição, ou criar um regime especial de funcionamento em situações críticas, como véspera de eleições. Outra possibilidade é avaliar a ideia de mecanismos como o “circuit break”, como ocorre com bolsas de valores quando a instabilidade fica extrema.