Estudo mostra indicadores para uma política de IA em empresas de comunicação

Criar uma política de IA para redações e empresas de comunicação não é tarefa fácil. O trabalho exige aprofundamento em várias camadas da empresa, observação dos segmentos que compõem o negócio, do trabalho das equipes e ajustes considerando a ética jornalística. Além disso, é preciso manter o material atualizado, acompanhando as mudanças no trabalho, que são consequência das evoluções das ferramentas de tecnologia.
O processo despertou a curiosidade do pesquisador Jonas Gonçalves, que é líder do subgrupo Interações entre Humanos e Agentes de Inteligência Artificial no Ensino Superior (IHAIAES) do Grupo de Pesquisa Governança de Agentes de Inteligência Artificial (GPGAIA), vinculado à Cátedra Oscar Sala do IEA-USP. Doutor em Mídia e Tecnologia pela Unesp, mestre em Produção Jornalística e Mercado pela ESPM e graduado em Jornalismo pela Cásper Líbero, ele dedicou parte de seu doutorado para estudar o tema, com orientação do professor e orientador Francisco Belda.
Na tese ‘Inteligência artificial no jornalismo: diretrizes éticas, valores institucionais e indicadores de boas práticas’, Jonas propõe um conjunto de indicadores para criação de diretrizes para uso de IA por organizações jornalísticas. Para isso, ele pesquisou a fundo as diretrizes públicas da Associated Press, BBC, Grupo Globo e Estadão. A partir daí, criou quatro categorias de análise: posicionamento da redação, protocolo editorial, declaração de princípios éticos e política de uso.
Entre as principais descobertas, a pesquisa recomenda a criação de uma política de uso com indicadores-chave, focando na transparência, na adaptação contínua das diretrizes, na qualificação profissional e no desenvolvimento de recursos próprios de IA para mitigar riscos e manter a conformidade e a inovação. Conversamos com Jonas, que recentemente aceitou o convite para ser avaliador voluntário na Revista Latinoamericana de Ciencias de la Comunicación, editada pela Associação Latino-Americana de Pesquisadores em Comunicação (Alaic), para saber mais sobre o trabalho.
O que te motivou a fazer essa pesquisa?
No início de 2023, estava na metade do doutorado quando o professor Francisco Belda (meu orientador) conversou comigo sobre a possibilidade de alteração do objeto da pesquisa. Naquele momento, o trabalho era voltado para as mudanças no sistema de trabalho de redações em decorrência da pandemia de covid-19. Mas o assunto acabou perdendo força como objeto de discussão no meio acadêmico.
Em compensação, no mesmo período, a inteligência artificial generativa surgiu com toda a força, levantando diversas questões, especialmente as de ordem ética. Por isso, entendemos que seria interessante fazer um ajuste de rota, voltando as atenções para um desafio que, mesmo dois anos depois, na defesa da tese (realizada em março deste ano), ainda estaria em um viés de alta, pensando especialmente no futuro do jornalismo.
Fique em dia com as novidades do mercado publishing assinando a Newsletter Aner por email ou WhatsApp.
Como você desenvolveu o estudo?
O estudo foi, então, desenvolvido da seguinte forma: primeiramente, foram mapeados, no Brasil e em outros países, casos de veículos autônomos e de grupos de mídia que adotaram regras próprias para a aplicação de recursos de IA. No total, 62 conjuntos de diretrizes atenderam aos critérios previamente estabelecidos, entre os quais a divulgação pública desses princípios editoriais. Em seguida, para a realização de um estudo de casos, foram criadas quatro categorias de análise (posicionamento da redação, protocolo editorial, declaração de princípios éticos e política de uso).
Por que você escolheu estudar as políticas de IA da Associated Press, BBC, Grupo Globo e Estadão?
Esses veículos exemplificam, pela ordem, cada das categorias de análise.. Vale ressaltar que AP e BBC utilizam IA em seus processos há alguns anos, bem antes do advento da IA generativa. Esse histórico anterior me chamou a atenção. Ao mesmo tempo, entendia que era importante analisar veículos brasileiros. Por isso, Globo e Estadão foram selecionados não apenas pelas particularidades de suas respectivas experiências, mas também como forma de garantir uma atenção equivalente da tese a casos nacionais.
Qual foi a tua maior descoberta a partir desse estudo?
Embora essas diretrizes de autorregulação se configurem como essenciais para reforçar a credibilidade dos veículos junto ao público, balizando a utilização com segurança da inteligência artificial no jornalismo, elas não abrangem, na maioria dos casos, toda a complexidade do desafio de implementar a IA com ética, responsabilidade e transparência. Isso é perfeitamente compreensível, visto que se trata de um fenômeno emergente no campo. Por isso, a principal contribuição oferecida pela tese é o conjunto de indicadores-chave para a elaboração de uma política de uso de IA, a modalidade mais estruturada para se lidar com essa tecnologia, continuamente em transformação.
O que você recomenda aos publishers brasileiros, que estão receosos com a necessidade de usar IA em suas redações?
Em um primeiro momento, dado o potencial do impacto da inteligência artificial, é recomendável que a direção do veículo certifique-se de que há demandas relevantes pelo uso de IA no processo de produção. É possível que os recursos baseados nessa tecnologia possam gerar benefícios de produtividade em casos pontuais, a exemplo da transcrição de entrevistas, da tradução de textos e da análise de grandes volumes de dados, mas todos os riscos devem ser considerados.
A principal recomendação é manter uma “cultura de transparência”: sejam quais vierem a ser as utilizações, estas deverão ser comunicadas ao público não apenas por meio de diretrizes, mas também por uma divulgação frequente sobre como a IA é aplicada. Um exemplo disso é o uso de um “disclaimer” (aviso) em matérias, como já tem sido feito por alguns veículos. No entanto, há outras possibilidades, como a elaboração de tutoriais explicativos que possam contribuir para o entendimento da audiência sobre como a inteligência artificial pode auxiliar o jornalismo de forma efetiva.
Depois de implementar uma Política de Uso de IA e indicadores-chave de autonomia, como garantir que as diretrizes não se tornem obsoletas rapidamente e que o comitê multiprofissional funcione de maneira eficaz na gestão dessas atualizações?
O risco de obsolescência é o que mais ameaça a eficácia das diretrizes, porém este tem sido negligenciado, haja vista que muitos desses dispositivos de autorregulação não têm passado por revisões, sejam estas periódicas ou não. Foi possível constatar que houve uma tendência muito forte de implementação dessas regras entre 2023 e 2024. Porém, atualmente é possível perceber uma dificuldade organizacional de se manter essa transparência ativa, já que, salvo raras exceções, pouco tem sido reportado pelos veículos sobre os desdobramentos dessas regras no cotidiano das redações.
Isso reforça ainda mais a importância de se ter um comitê multiprofissional dedicado à política de IA que seja acionado constantemente para planejar as ações de divulgação junto ao público e, sobretudo, tomar decisões que sirvam de referência para os fluxos de trabalho da redação.
Os riscos de alucinações, erros, plágio, preconceitos, vieses e violações de propriedade intelectual são uma grande preocupação. Como fazer para mitigar esses riscos?
Esses riscos poderão ser mitigados de fato somente com ações em três frentes: atualização contínua das diretrizes, qualificação dos profissionais e aprimoramento tecnológico, com o desenvolvimento de recursos próprios baseados em IA. Desta forma, eles podem ser submetidos a um controle editorial rigoroso desde a sua origem, diferentemente de soluções terceirizadas, sobre as quais não se têm praticamente nenhum tipo de ingerência.
O objetivo é evitar as chamadas “caixas-pretas”, que impedem um entendimento pleno sobre como essas ferramentas receberam treinamento e com quais tipos de dados foram alimentadas.
Considerando que a IA Generativa é uma tecnologia em franco processo de desenvolvimento e que os marcos regulatórios estão em constante evolução, qual tipo de indicadores uma empresa de comunicação deve priorizar para se manter relevante e em conformidade, sem engessar a inovação?
A pergunta traz alguns dos principais desafios a serem enfrentados. Vale ressaltar que o conjunto de indicadores é dividido em quatro eixos conceituais — Autonomia, Responsabilidade, Supervisão Humana e Transparência —, sendo que cada um destes sustenta cinco indicadores.
Considero que, para manter a conformidade das diretrizes, evitando obstáculos à inovação, três dos indicadores são decisivos: adaptabilidade, regulação e experimentação.
O primeiro é relacionado ao conceito de Autonomia. Diretrizes de IA que, no âmbito de uma organização, não dependam de mudanças em dispositivos de autorregulação hierarquicamente superiores tendem a ficar isentas de camadas de burocracia, que são verdadeiros obstáculos para a inovação. Com isso, é possível adaptar mais rapidamente uma política de uso a transformações que são até esperadas, a exemplo da incorporação de novos recursos ao longo do tempo.
A regulação pertence à esfera da Responsabilidade e é um elemento que demanda acompanhamento contínuo por parte do comitê multiprofissional responsável pelas diretrizes de IA, pois o alinhamento destas com marcos regulatórios — a exemplo do Projeto de Lei nº 2.338/2023, em tramitação no Congresso Nacional — é de suma importância para a garantia de conformidade.
Já a experimentação, ligada à Supervisão Humana, se apoia sobre um tripé essencial: testagem de ferramentas de forma controlada antes de um uso mais amplo, programas de treinamento direcionados aos profissionais da redação e pesquisas qualitativas junto à audiência para verificação do impacto do uso de IA.
Se você se interessou pelo assunto, veja a pesquisa completa clicando aqui.


