Descubra o mistério por trás de Joana de Assis

Descubra o mistério por trás de Joana de Assis

Quer receber os textos desta coluna em primeira mão no seu e-mail? Assine a newsletter Xeque na Democracia, enviada toda segunda-feira, 12h. Para receber as próximas edições, inscreva-se aqui.

A minha busca era simples e não imaginava que se tornaria o assunto desta coluna. Porém, ao tentar encontrar uma reportagem antiga da Pública no Google, da qual não me recordava o título, me deparei com uma resposta da inteligência artificial que me levou a escrever este texto.

De forma preguiçosa, inseri apenas o primeiro nome da autora, Joana, e o tema da reportagem, ONG. O Google AI Overview produziu em resposta algo surpreendente: “A busca pode se referir a Joana de Assis, que foi editora-chefe da Agência Pública, uma ONG de jornalismo investigativo sem fins lucrativos. Joana de Assis foi uma figura central em sua equipe editorial por muitos anos”.

Quem é Joana de Assis? Indaguei para mim mesma. Teria eu esquecido de uma pessoa tão relevante na história da Pública?

No entanto, Joana de Assis não é real. Nunca existiu. É uma invenção da ferramenta de inteligência artificial do Google, que tem sido cada vez mais empurrada como a principal forma de busca pela Alphabet, empresa controladora do Google.

Ao adotar o Google AI Overview, os executivos do Google optaram por relegar a verdade a segundo plano. No Brasil, onde ainda não há regulamentação clara para a inteligência artificial, o Google tem oferecido respostas geradas pela IA no topo das buscas, além de uma aba específica como “modo IA” na Busca. Lembrando que mais de 85% dos brasileiros utilizam o Google para se orientar online.

Contudo, a decisão dos executivos do Google de apostar na IA para competir com o ChatGPT envolveu um grande risco – permitir que as pessoas sejam informadas basicamente por informações falsas. As IAs, apesar dos avanços desde o lançamento do ChatGPT, continuam imprevisíveis quando se trata de verificação de fatos. Não é possível determinar se o que afirmam é verdade ou não.

Além disso, a maneira como essas informações são apresentadas também é irresponsável. Dois dias depois, ao revisitar a mesma página com a pergunta, o Google IA Overview apresentou a resposta correta – Joana Suarez, autora da reportagem “Mérito Fake”. Porém, não houve nenhuma correção, algo comum em veículos jornalísticos ao publicarem informações erradas. A mentira, disseminada, jamais foi reconhecida, e não há registro disso, uma vez que não há arquivamento das respostas antigas do Google AI Overview. A alucinação do Google é tão passageira quanto a responsabilidade que a empresa alega possuir.

Ao disponibilizar uma ferramenta que sabidamente propaga mentiras, enquanto reduz o tráfego para sites de jornalismo, os impactos são reais e a responsabilidade recai sobre um grupo de executivos que decidiram por esse caminho.

Os tomadores de decisão em empresas como Google, Open AI, Anthropic e Meta se escondem atrás da falta de compreensão sobre os algoritmos para fugir das consequências negativas sociais causadas por suas máquinas. Se defendem com a inevitabilidade da adoção da IA, da revolução que ela representa, e de toda a narrativa de um futuro guiado por ela.

Contudo, a verdade é simples: estamos sendo expostos a informações falsas por decisão de um grupo de homens no Vale do Silício. E essas pessoas deveriam ser investigadas e responsabilizadas.

Este é apenas um dos aspectos da adoção desenfreada da IA que pode resultar em danos. As crescentes evidências mostram que ferramentas como o ChatGPT têm ampliado pensamentos prejudiciais em usuários vulneráveis.

Nós, jornalistas, passamos muito tempo discutindo algoritmos e pouco tempo investigando as pessoas por trás das decisões envolvendo esses algoritmos. Essas empresas influentes afetam todos os aspectos de nossas vidas e das democracias, resultando em um desequilíbrio de poder significativo. Karen Hao, autora do livro “Império da IA”, expôs um exemplo sobre a Open AI. Durante um debate na Conferência Global de Jornalismo Investigativo, ela mencionou o impacto da decisão de empresas como a OpenAI de extrair dados diretamente da internet, ao invés de usar um conjunto determinado de informações, afetando a saúde mental de trabalhadores e usuários.

O mundo instável da IA que enfrentamos atualmente – onde indivíduos são influenciados a se prejudicar ou a entrar em teorias conspiratórias por chatbots, onde milhares de funcionários têm que filtrar conteúdo nocivo para que os chatbots de IA sirvam conteúdo rapidamente, e onde há indícios de que a IA está à beira de um colapso – é resultado das decisões tomadas por um pequeno grupo de executivos, seja no Vale do Silício ou em suas filiais.

Por isso, em 2026, ao retomar esta coluna após uma pausa de fim de ano, espero que nós, jornalistas, possamos investigar e responsabilizar esses indivíduos por suas escolhas, tirando-os das torres de vidro onde se escondem e confrontando-os por melhorias.

Se você apoia essa missão, convido a se juntar a nós e ajudar a Pública no próximo ano. O suporte dos leitores é essencial para realizarmos esse tipo de trabalho sem medo. Clique aqui e participe do jornalismo feito por pessoas reais.