Os algoritmos de inteligência artificial podem ser éticos?
EPÓCA NEGÓCIOS – 09/08/2019
DORA KAUFMAN
Em seu último livro, “Máquinas como eu” (2019), o escritor inglês Ian McEwan trata da distinção moral entre Miranda, uma jovem de 22 anos vizinha-namorada de Charlie, e Adão, o humanóide adquirido por ele com recursos herdados pela morte de sua mãe. O autor atribui ao humanóide uma visão moral mais consistente e, indo além, levanta a possibilidade de que nós, seres humanos, sejamos capazes de criar seres artificiais moralmente superiores (suposição ficcional, não existe nenhuma base científica no momento).
O tema da ética permeia a sociedade humana desde Aristóteles e foi mudando de sentido ao longo da história resguardando, contudo, a crença de que apenas o humano é dotado da capacidade de pensar criticamente sobre os valores morais e dirigir nossas ações em termos de tais valores.
Com o avanço recente das tecnologias de inteligência artificial (IA), as questões éticas estão “na pauta”. Associada à robótica, como no caso do humanóide Adão de Mcewan, ou mediando as interações sociais e os processos decisórios, os algoritmos de IA agregam inúmeros benefícios, mas, simultaneamente, carecem de transparência, são difíceis de serem explicados, e comprometem a privacidade. Diariamente, aparecem casos ilustrativos no Brasil e mundo afora.
Nos Estados de Utah e Vermont, EUA, o FBI e o Serviço de Imigração e Alfândega usaram tecnologia de reconhecimento facial na análise de milhões de fotos das carteiras de habilitação com o propósito de identificar imigrantes ilegais. A questão ética nesse procedimento é que, aparentemente, não houve conhecimento, muito menos consentimento, dos motoristas; ademais, vários estudos indicam que os modelos de reconhecimento de imagem não são perfeitos, em alguns casos a margem de erro pode ser relevante função, dentre outros, do viés contido nos dados.
Em 2018, o Facebook lançou um aplicativo estimulando seus usuários a postarem fotos atuais e de dez anos atrás. Em julho de 2019, o FaceApp alcançou o primeiro lugar na lista geral de app do Google Play e App Store, envelhecendo as foto e projetando aparência futura. Ambos foram sucesso e viralizaram. Longe de ser um mero entretenimento, esses aplicativos servem para captar dados e utilizá-los no treinamento dos algoritmos de reconhecimento de imagem (inteligência artificial/deep learning). Em ambos os casos houve consentimento dos usuários, que aderiram voluntariamente ao desafio, mas não houve transparência quanto ao propósito.
Em meados de 2017, pesquisadores da Universidade de Stanford tornaram público um algoritmo de Inteligência Artificial, o Gaydar, com a finalidade de, com base nas fotografias das plataformas de namoro, identificar os homossexuais. A motivação inicial era protegê-los, contudo, a iniciativa foi vista como potencial ameaça à privacidade e segurança, desencadeando protestos.
Nos EUA – país com, provavelmente, o mais eficiente arcabouço legal de proteção aos seus cidadãos e instituições -, existe o Conselho de Avaliação Institucional (Institutional Review Board – IRB), que é um comitê de ética independente voltado para garantir a ética nas pesquisas e norteia os conselhos dos centros de pesquisa e universidades; o estudo que originou o Gaydar foi previamente aprovado pelo Conselho de Avaliação de Stanford.
A questão é que as regras foram fixadas há 40 anos. “A grande e vasta maioria do que chamamos de pesquisa de ‘grandes dados’ não é abrangida pela regulamentação federal”, diz Jacob Metcalfe do Data & Society, instituto de NY dedicado aos impactos sociais e culturais do desenvolvimento tecnológico centrado em dados.
No evento “Sustainable Brands”, David O’Keefe, da Telefonica Dynamic Insights, controladora da operadora de telefonia móvel Vivo, apresentou alguns produtos derivados dos dados captados das linhas móveis (Mobile Phone Data). Com o título “usando dados comuns globais e aprendizado de máquina para fornecer informações de relacionamento digital em multinacionais” (using global comms data and machine learning to provide digital relationship insights in multinationals), O’Keefe descreveu o “produto” em que, por meio dos dados dos celulares dos funcionários de uma empresa multinacional (quem ligou para quem, com que frequência, quanto tempo durou a ligação, etc.) é possível identificar as redes informais internas, importante elemento nas estratégias de gestão (sem conhecimento e consentimento dos usuários).
Se no Rio de Janeiro, e outros estados, os órgão de segurança estão usando livremente a tecnologia de reconhecimento facial, em São Francisco foi proibido seu uso pela polícia e por outros órgãos da administração municipal (14/maio). São Francisco é a primeira grande cidade dos EUA a proibir o uso da tecnologia de reconhecimento facial como aparato de vigilância/controle público.
Os modelos estatísticos buscam padrões e fazem previsões, contudo, seus resultados não são objetivos nem garantidos, em parte, porque são baseados em amostras que nem sempre são representativas do universo total (incerteza, margem de erro). Adicionalmente, os fatores intangíveis não são quantificáveis.
Se em muitas situações do cotidiano a imprecisão não incomoda, o mesmo não se pode dizer, por exemplo, de processos relacionados à saúde; até aceita-se que os algoritmos de IA diagnostiquem tumor cancerígeno, mas dificilmente o paciente aceita numa quimioterapia automatizar a decisão do tipo de medicação e da dose.
Uma das críticas legítimas é que esses sistemas são “black box” – não são transparentes/explicáveis -, mas devemos lembrar que os humanos nem sempre sabem explicar o porque de determinadas decisões; a diferença, talvez, é que os humanos inventam explicações, produzem justificativas nem sempre fidedignas, o que as máquinas não são capazes de fazer.
O avanço recente da inteligência artificial, quando as máquinas não mais seguem processos de decisão pré-programados pelos humanos e começam a aprender por si mesmas (Machine Learning, Deep Learning), coloca para a sociedade novos desafios éticos e a premência de estabelecer arcabouços legais a partir de uma regulamentação que, simultaneamente, proteja os indivíduos e instituições, e preserve o grau de liberdade necessário ao desenvolvimento científico.
Será que a lei brasileira de proteção de dados, que entra em vigor em agosto de 2020, dá conta dessa complexidade?
Dora Kaufman é pós-doutora COPPE-UFRJ (2017) e TIDD PUC-SP (2019), doutora ECA-USP com período na Université Paris – Sorbonne IV. Autora dos livros “O Despertar de Gulliver: os desafios das empresas nas redes digitais” (2017), e “A inteligência artificial irá suplantar a inteligência humana?” (2019). Professora convidada da FDC e professora PUC-SP.