2025 Tech Trends Report: Quem irá verificar os verificadores? – Parte 2

2025 Tech Trends Report: Quem irá verificar os verificadores? – Parte 2

17 de março de 2025
Última atualização: 14 de março de 2025
4min
relatório Tech Trends Report fala, na sua segunda parte sobre midia, na questão dos verificadores de notícias
O relatório Tech Trends Report prevê dificuldades para os verificadores de notícias. Imagem: reprodução Tech Trends Report 2025
Márcia Miranda

Seguindo com a segunda parte do relatório Tech Trends Report, chegamos às tendências para notícias e verificadores de informações. O documento produzido pela Future Today Strategy Group tem mil páginas e é dividido em segmentos, mostrando as principais tendências de cada um deles.

Neste texto, resumimos a segunda parte do relatório direcionado à mídia. O resumo da primeira parte você pode ver aqui.

Impacto da IA em uma era de deepfakes e oportunidade para jornalismo sensorial

Nesta edição do nosso resumo, destacamos o impacto crescente da inteligência artificial no jornalismo, abrangendo desde a automação de tarefas e análise de dados até a criação de novas formas de distribuição de notícias, como avatares de IA.

Outra preocupação com a chegada da IA são os desafios relacionados à verificação de conteúdo em uma era de deepfakes e a promessa de um jornalismo sensorial por meio de realidades virtual e aumentada.

Além disso, os textos discutem o uso de ferramentas algorítmicas de checagem de fatos e levantam preocupações sobre possíveis vieses e a necessidade de supervisão humana. Um cenário futuro aponta para uma possível instrumentalização dessas ferramentas para suprimir informações.

Identificação de alterações em tempo real

Mesmo com sistemas avançados de verificação, o conteúdo gerado por IA ainda pode enganar o público, representando riscos para a confiança pública em notícias e informações. O relatório explica que as ferramentas de verificação de conteúdo são projetadas para autenticar a mídia usando algoritmos que analisam o conteúdo digital em busca de sinais de adulteração, como manipulação de vídeo, áudio ou imagens.

Essas ferramentas podem comparar uma imagem ou vídeo com metadados, rastrear inconsistências visuais ou usar classificadores baseados em IA para determinar se o conteúdo foi alterado digitalmente.

O relatório destaca iniciativas importantes como a Content Authenticity Initiative (CAI) da Adobe, que promove uma abordagem de três frentes através de marcação de metadados, marca d’água e impressão digital visual, construída sobre o padrão C2PA, para identificar se o conteúdo foi alterado após a criação. Esse padrão técnico, apoiado por empresas como Microsoft, Adobe, Arm, OpenAI, Intel, Truepic e Google, fornece informações detalhadas sobre a origem das imagens, ajudando os usuários a identificar se elas foram manipuladas.

Leia mais sobre o padrão C2PA no Olhar Digital.

Uma equipe da Universidade Tecnológica de Nanyang, em Singapura, desenvolveu um sistema para detectar manipulação facial e outros tipos de deepfakes em tempo real, com base em como a imagem responde a vibrações acionadas no dispositivo de captura.

Ferramentas podem levar desconfiança inclusive aos checadores de notícias

A ascensão de deepfakes e conteúdo gerado por IA ameaça minar a confiança do público na mídia, na política e até mesmo nas comunicações pessoais. O documento menciona que mesmo quando especialistas em verificação de conteúdo e repórteres de campo rejeitaram alegações de que imagens de comícios de campanha foram falsificadas usando IA generativa, os rumores persistiram online.

O documento também aponta para uma “corrida armamentista tecnológica” em andamento na indústria de mídia, com a proliferação de ferramentas que geram e verificam conteúdo manipulado por IA. Para o setor de notícias, adotar soluções que combinam várias técnicas – como marca d’água, metadados e detecção em tempo real – será vital para manter a confiança em um mundo cada vez mais dominado pela IA.

Mantenha-se informado sobre tudo que acontece no meio publishing. Assine a Newsletter Aner.

Por fim, o documento apresenta um cenário para 2029 onde, apesar da disseminação da verificação algorítmica de fatos, com as notícias passando por testes de verificação em tempo real e aplicativos de mensagens executando algoritmos de verificação localmente, existe um lado sombrio. Neste cenário, o jornalismo investigativo definha porque os algoritmos rotineiramente bloqueiam histórias controversas.

Além disso, como as ferramentas de código aberto foram construídas por pesquisadores financiados pelo governo, os algoritmos sutilmente rejeitam informações que desafiam as narrativas oficiais. Assim, as ferramentas construídas para ajudar as pessoas a confiar no que veem acabam ameaçando a verdade, levantando a questão: Quem irá verificar os verificadores?

A íntegra do relatório Tech Trends Report pode ser baixada no site da Future

Márcia Miranda
Administrator
Acredita que boas ideias precisam ser compartilhadas. Formada em Comunicação Social, Jornalismo, pela Universidade Federal Fluminense (RJ), iniciou carreira em redação em 1988 e por 24 anos (até 2012) trabalhou em veículos como Jornal O Globo e Agência O Globo, Editora Abril, Jornal O Fluminense, Jornal Metro. Em 2012 iniciou o trabalho como relações públicas e assessora de comunicação, atuando para clientes em áreas variadas, como grandes eventos (TED-x Rio, Réveillon em Copacabana, Jornada Mundial da Juventude, Festival MIMO), showbiz, orquestras, entretenimento e assessorias institucionais como o Instituto Innovare. É empreendedora e, em dezembro de 2021, criou a Simbiose Conteúdo, uma empresa que presta serviços e consultoria em comunicação para associações como Aner, Abral e Abap e divisões internas da TV Globo.