Enquanto plataformas descontinuaram ferramentas de checagem de fatos, IAs nos confundem ainda mais sobre o que é real (ou não)

Texto originalmente publicado na YPX News.
A Ombudsman da Folha de S. Paulo, Alexandra Moraes, apurou no último dia 7 que uma colunista do jornal está usando IA para redigir seus textos de opinião para o jornal. O problema, segundo ela aponta, não é o uso da IA pra escrever – já que o jornal não menciona nada sobre essa prática -, mas sim, não alertar o leitor sobre o tipo de conteúdo que ele está consumindo.
Aqui na YOUPIX a gente fala sobre como as ferramentas de IA podem (e devem!) ser utilizadas pra acelerar os processos mecânicos, facilitar burocracias e nos permitir focar na parte criativa que realmente importa no trabalho. Para creators, por exemplo, o Paulo Aguiar deu uma palestra no YOUPIX Summit 2025 mostrando como o processo criativo pode ser otimizado com o uso de Inteligência Artificial; e, para os profissionais do Marketing de Influência, a gente lançou um módulo novo no IMP pra você dominar as novas tecnologias e aplicar diretamente no seu trabalho! Inclusive, tá rolando um combão de Carnaval e, ao se inscrever no curso, você ganha um ingresso pro YOUPIX Summit 2026. Inscreva-se no link:
No entanto, quando a gente fala sobre um texto opinativo, escrever suas ideias não é justamente a criação? Terceirizar esse trabalho pra IA parece pedir pra que a ferramenta assine o texto – ao menos, seria mais justo.
Cada vez mais o mundo do jornalismo e a Creator Economy se chocam, se complementam, se ajudam ou se atrapalham. Fato é que existe uma relação aí que, por um lado, é superficial: hoje em dia ninguém confia mais em jornal nenhum e tem uma porrada de conteúdo circulando na internet com informações falsas. Por outro lado, a relação é profunda, a gente é que ainda não consegue enxergar.
Na tentativa de ser mais cool e recuperar a confiança da audiência, muitos jornais seguem o mesmo raciocínio das marcas que contratam creators para suas campanhas: elas querem emprestado a atenção e confiança de uma comunidade, então validam cada vez mais pessoas que não são profissionais da comunicação na busca por mais público.
Em seguida, a colunista da Folha que utiliza IA – ela aparece no texto original, tá? Só omitimos o nome aqui porque o relevante pro nosso papo é o uso da IA – admitiu em sua seção o uso da tecnologia para redigir seus textos, porém deixou claro que a ferramenta auxilia na organização das ideias (inclusive até na resposta à Ombudsman), mas não interfere na sua opinião. Mas tem como a gente confirmar se interfere ou não?
Só a colunista sabe se a ideia era manter essa informação em sigilo, ou se ela não tinha contado, mas tudo bem o povo saber. Fato é que agora ela veio à público assumir e ainda questionou qual é o problema nisso. Pra Folha de S. Paulo, nenhum. Pro leitor? Que fique à vontade pra seguir em frente, ou ignorar a colunista daqui pra frente. Mas não teria sido mais bacana avisar sobre a ajudinha da IA desde o começo?
Checagem das plataformas
Cenários apocalípticos e distópicos à parte – sinto que um pouco do lance desses textões da News é jogar uma parada meio Black Mirror no colo de quem tá lendo mesmo -, uma boa ideia seria a gente simplesmente não andar pra trás, já que nem sempre andar pra frente é uma opção ou sinônimo de progresso.
Algumas redes sociais suspenderam suas parcerias com agências de verificação de fatos, que atuavam checando as informações dos conteúdos publicados nas plataformas. Apesar da ferramenta de “Notas da Comunidade”, que ficou mais popular no X também ser interessante em alguns casos, nenhum algoritmo hoje é totalmente confiável para analisar o conteúdo que circula nas redes. No entanto, vários deles sabem muito bem identificar o que é produzido por IA.
Dito isso, seria interessante que, além de repensar as parcerias com agências de checagem operadas por seres humanos, as plataformas criassem um “botão de IA”, que sinaliza quando um conteúdo é real ou não.
As notas de comunidade não são o melhor sistema de checagem de informações que existe, mas, ao mesmo tempo, é interessante notar como muitas pessoas se preocupam em deixar o ambiente nas redes mais saudável, pontuando quando alguma informação propagada é mentira, ou no mínimo distorcida. Não seria legal que a gente pudesse saber quando é IA? Tipo assim, é pedir muito?
Pensa em três cenários interligados aqui comigo: em um, mais catastrófico, você vê uma liderança política dizendo uma atrocidade do tipo “tal país fede e é um lixo”. Em outro, você vê uma celebridade que ama muito apoiar um candidato nas eleições e você considera mudar seu voto. No terceiro, você vê um canguru proibido de embarcar num avião e essa cena triste acaba com seu humor pro resto do dia.
No primeiro, a informação é absurda, porém real: o presidente dos EUA, Donald Trump, disse isso sobre a Somália. No segundo, o creator Paulo Aguiar mostrou como os deepfakes tão ficando cada vez melhores, reunindo uma galera que nem os Vingadores seriam capazes de juntar e a qualidade do vídeo é surreal. Se hoje tá difícil perceber que é fake, muitíssimo em breve vai ser impossível. O terceiro parece o mais bobo, mas é o mais sério: se antes você tirava sarro da sua avó mandando vídeos claramente irreais no zap, tipo um gato salvando um bebê de uma enchente, hoje você também pode cair numa dessa porque “ah, parece inofensivo pra ser mentira”.
Sim, acreditar no vídeo do canguru parece inofensivo. Você não xingou ninguém, não promoveu ódio nas redes e não mudou seu voto. Mas se você caiu nessa… no que mais tem caído sem perceber?