RECONHECIMENTO FACIAL AVANÇA COM POUCA TRANSPARÊNCIA

RECONHECIMENTO FACIAL AVANÇA COM POUCA TRANSPARÊNCIA

16 de julho de 2019
Última atualização: 16 de julho de 2019
Helio Gama Neto

ÉPOCA – 15/07/2019

CRISTINA TARDÁGUILA

Leis de proteção de dados se tornarão obsoletas se não enxergarem o rosto e o corpo como informações que exigem proteção digital.

O reconhecimento facial, já implantado nos modelos mais modernos de smartphones, nos aplicativos de banco e nos sistemas de imigração dos aeroportos mais avançados do mundo, parece ser a próxima fronteira a ser conquistada pelas gigantes de tecnologia. Mas, ao que tudo indica, o planeta que ainda se digladia em torno do debate sobre a proteção de dados pessoais básicos, pode acabar sofrendo com o avanço desse sistema.

No último sábado, 13 de julho, o jornal americano The New York Times jogou para todo o mundo o debate que estava sendo travado nos Estados Unidos nas últimas semanas. Publicou uma longa reportagem mostrando que “dezenas de bancos de dados contendo imagens de rostos de pessoas estão sendo compilados por empresas e pesquisadores sem autorização dos indivíduos”, de forma a gerar o melhor e mais poderoso sistema de reconhecimento facial da Terra.

A preocupação com o uso indiscriminado de fotografias de rostos tem sido tão grande que, segundo o jornal, empresas como a Microsoft e universidades como Stanford decidiram retirar seus bancos de dados de imagem da internet por medo de que esse uso descontrolado esteja violando conceitos básicos de privacidade do ser humano — algo que pode render sentenças infinitas na Justiça comum.

Sabe-se, no entanto, que despublicar algo é extremamente difícil. Então como é que nós — eu, você, cidadãos comuns — fazemos daqui para a frente para proteger essa informação? Como saber onde estão nossos rostos e como nossas imagens estão sendo usadas?

Vou além: e se seu rosto não estiver servindo apenas para pesquisa e desenvolvimento de uma nova tecnologia? Será que o Brasil está pronto para grandes manipulações? Falo de aplicativos como o Deepnude , que existiu por apenas quatro dias no universo digital e que foi capaz de chocar a internet.

Lançado no final de junho, o app feito com base em inteligência artificial consistia no seguinte: surrupiava selfies de mulheres vestidas e as despia sem — obviamente — requisitar a autorização prévia delas. Seu slogan era: “The superpower you always wanted” (O super poder que você sempre quis). E era um aplicativo machista. Não funcionava com fotos de homens. Só conseguia distribuir seios e vaginas e, agindo assim, virou um hit no submundo da web.

Mesmo lá, passadas algumas horas, virou alvo de fortes críticas. Até para aqueles que vivem nos porões mais escuros da web, parecia que os desenvolvedores anônimos da Estônia haviam avançado alguns sinais ao tirar a roupa de mulheres desconhecidas sem o ok prévio delas. Erravam mais ainda ao republicar o resultado de volta na internet.

Por conta disso, num tuíte postado no dia 25 de junho, os criadores do Deepnude anunciaram o fim do produto. Disseram que haviam subestimado o interesse que o app teria e que, após tanto sucesso, haviam concluído que o mundo ainda não estava pronto para aquilo.

Acontece que naquele mesmo momento, do outro lado do planeta, em Singapura, Rose , de 27 anos, já virava personagem de uma longa reportagem do jornal The New Paper.

A jovem é uma das diversas mulheres que, nos últimos dias, flagraram velhas selfies adulteradas em fóruns de sexo e pornografia. Fotos originalmente vestidas e que, agora, tem versões nuas. Rose é uma das diversas mulheres que, nos últimos dias, se perguntam o que devem fazer e contra quem devem brigar.

Do ponto de vista da checagem, sistemas que contribuem para facilitar processos de manipulação são sempre perigosos. Na tentativa de tornar nossa vida pessoal mais ágil e de personalizar cada vez mais todo e qualquer acesso e consumo que planejamos, a tecnologia caminha para criar novos problemas, com os quais não estamos ainda preparados para lidar.

Como controlar o que será feito com uma grande quantidade de imagens nas mãos de desenvolvedores nem tão bem-intencionados e sem qualquer regulação? Há polícia, lei, Justiça suficiente para isso? Vale refletir.

No Brasil, a legislação referente à proteção de dados não menciona fotografias ou qualquer imagem como informações que precisam ser preservadas. Enquanto a lei não enxergar a necessidade de imagens do rosto e do corpo de um indivíduo estarem a salvo e só poderem ser utilizadas — para qualquer fim — com sua autorização e conhecimento, ela continuará sendo insuficiente. E continuará, também, expondo os indivíduos aos exageros de desenvolvedores, pesquisadores e gigantes da tecnologia.


Warning: Undefined array key "" in /home/u302164104/domains/aner.org.br/public_html/wp-content/themes/aner/single.php on line 223

Warning: Trying to access array offset on value of type null in /home/u302164104/domains/aner.org.br/public_html/wp-content/themes/aner/single.php on line 223
Helio Gama Neto