Como e por que escrever uma política de uso de IA?

A utilização das ferramentas de IA (inteligência artificial) nas redações e em todas as áreas das empresas cresce a cada ano. Nas editoras, elas permitem personalização na seleção de notícias que serão exibidas ao público, além de permitir a escolha de formatos de notícias de acordo com as necessidades e preferências de usuários individuais. Há ainda os chatbots de IA generativa que podem responder a perguntas relacionadas a notícias, como contamos na nossa matéria sobre o uso de IA nas redações, com base no Reuters Digital News Report 2025.
Mas como controlar o uso de ferramentas dentro de diretrizes estabelecidas pela empresa e garantir que os funcionários sigam as orientações? É a partir daí que chegamos às razões sobre como e por que escrever uma política de IA responsável e ética.
A clareza no uso da IA também pode aumentar o índice de confiança do público no veículo. De acordo com Sérgio Spagnuolo, fundador do Núcleo Jornalismo e Knight Fellow do International Center for Journalists (ICFJ), o uso da IA sem a devida notificação aos leitores pode causar descrença. Em entrevista ao Desinformante, ele argumenta que os jornalistas não podem mais se dar ao luxo de ignorar a IA e cita o caso da “Sports Illustrated” que não avisou sobre o uso de ferramentas generativas de IA e perdeu credibilidade quando foi descoberta.
Fique em dia com as novidades do mercado publishing assinando a Newsletter Aner por email ou WhatsApp.
Como criar a política de uso de IA?
Um dos primeiros passos é definir o escopo e as razões que fazem a empresa optar por uma política de uso de IA. Isso passa pelo uso ético e responsável das ferramentas, mas também pela segurança dos dados. Algumas empresas restringem o uso de IA com informações de estratégia ou que revelem dados sensíveis sobre o negócio.
Também é preciso detalhar qual tipo de IA é aprovada para uso. A proteção à privacidade e a segurança de dados devem ser respeitadas, com a utilização da IA realizada de acordo com legislações como a Lei Geral de Proteção de Dados (LGPD). Vale a pena envolver times de diversas áreas da empresa, principalmente tecnologia e da área jurídica, para colaborar com o texto.
Veja alguns exemplos sobre como montar suas regras sobre IA
Em 2024, o Poynter Institute criou uma estrutura para ajudar redações a elaborarem as suas políticas éticas de IA claras e responsáveis. O material é válido especialmente para as empresas que estão começando usar inteligência artificial em seu jornalismo. O kit foi atualizado em 2025 e oferece uma base personalizável que as redações podem adaptar conforme suas necessidades. O material está disponível clicando aqui.
Outra fonte que vale a pena consultar é o material que está sendo compartilhado pela Blue Engine Collaborative. Em sua última newsletter, o time anunciou o compartilhamento de um modelo de política de IA específico para organizações de notícias.
De acordo com a Blue Engine, ele inclui funções editoriais, aplicações comerciais, como crescimento de audiência, estratégia de produto, patrocínio e operações de receita. Para receber uma cópia, os interessados devem enviar um email para hello@blueenginecollaborative.com.


