Naturalização de ChatGPT e derivados como fontes de informação é risco ao jornalismo

Por Beth Saad, professora da Escola de Comunicações e Artes (ECA) da USP e João Pedro Malar, mestrando na ECA-USP

 Publicado: 17/07/2024
Elizabeth Saad – Foto: Arquivo pessoal da autora
João Pedro Malar – Foto: Linkedin

 

 

 

Inteligência artificial e jornalismo têm sido tema de inúmeras discussões e, especialmente, aquelas sobre os usos desta ferramenta como um elemento adicional ao processo de produção jornalística. Redações hegemônicas, iniciativas independentes, entidades de representação e também acadêmicos se debruçam sobre como entender a tecnologia e estabelecer uma relação proveitosa entre uso adequado de uma inovação e a consequente função de informar e formar a opinião pública.

Temos reafirmado que estamos diante de um processo irreversível, de mais um ponto de virada na digitalização de nossas vidas e, para o campo jornalístico, mais uma etapa de incorporação de ferramentas potencialmente alavancadoras da qualidade do conteúdo.

Partimos da proposição de que as affordances da IA generativa funcionam como ferramenta auxiliar ao processo redacional, e que o incensado ChatGPT não é solução única e nem definitiva para alavancar a atividade profissional e muito menos para funcionar como instrumento de atração da audiência.

Recentemente constatamos que, algumas vezes, não é bem assim.

O jornal Folha de S. Paulo publicou em 25 de junho a matéria “Extremismo” de Boulos e “controvérsias” de Nunes; o que a IA diz sobre pré-candidatos em SP. Para além de qualquer análise dos aspectos políticos em torno da publicação, gostaríamos de nos dedicar aqui a refletir sobre como ocorreu a relação entre um veículo de mídia de referência e seu posicionamento editorial quanto ao uso de inteligência artificial, mais especificamente a chamada generativa. Qual a política de uso de IA para um veículo do porte da Folha?

A publicação é mais um episódio na sequência de matérias ligadas ao tema das IAs, questionáveis sob o nosso olhar como pesquisadores, para dizer o mínimo. Ao justificar a matéria, o jornal aponta que seria importante mostrar o que o ChatGPT – a “fonte” escolhida – diz sobre os candidatos à Prefeitura de São Paulo devido ao movimento de jovens para diversificar suas fontes de informação, citando “chatbots” e o TikTok como parte dessas opções. Um ponto a discutir: seria o ChatGPT mais uma atraente fonte para jovens se informarem adequadamente?

É importante observar, porém, que ainda temos poucas evidências sobre o uso de chatbots de IA generativa, caso do ChatGPT, como fontes de informação jornalística. Uma pesquisa recente do Reuters Institute, publicada em maio de 2024, entrevistou 12 mil pessoas em seis países – Argentina, Dinamarca, Japão, França, EUA e Reino Unido – e apontou que apenas 5% dos entrevistados usam essas ferramentas para obter as notícias mais recentes, e 11% buscam respostas para perguntas factuais.

O uso como fonte de informação, portanto, é, por ora, discutível. Mesmo assim, a justificativa apresentada pela Folha não se estende ao longo da matéria. O jornal não explica por que o ChatGPT apresenta problemas como uma fonte de informação, seja pelas chamadas “alucinações” – na prática, erros factuais –, por vieses na sua base de dados, por geralmente não apresentar as fontes das respostas ou pelo simples fato de que o chatbot não foi criado para esse objetivo.

Na verdade, o texto se dedica ao oposto, apresentando apenas as respostas do ChatGPT com as informações sobre os candidatos.

A matéria não é a primeira que, na prática, se dedica a “entrevistar” um chatbot de IA generativa e apresentar seus resultados de forma acrítica. No início de 2023, quando o funcionamento dessas ferramentas era pouco conhecido, esse tipo de conteúdo era compreensível, até pela alta audiência que costuma fornecer para os veículos. Hoje em dia, porém, esse não é mais o caso.

O problema, portanto, vai além da própria matéria ou do veículo em si, mas passa pela forma como o jornalismo tem lidado com a inteligência artificial generativa.

Em primeiro lugar, é importante que o jornalismo evite simulacros em nome da captura de uma audiência perdida. Por mais que a Folha de S. Paulo e diversos veículos jornalísticos sigam publicando conteúdo de qualidade, investigativo e de interesse público, “entrevistar” uma IA e apresentar o resultado ao público, sem qualquer explicação, é exatamente o tipo de informação “jornalística” que mancha a reputação do veículo. O resultado pode ser superior em termos de audiência, mas é infinitamente pior em termos de reputação.

Afinal de contas, o jornal terá muito espaço para reclamar quando divulgar uma campanha para atrair assinantes em defesa do “apoio ao jornalismo de qualidade” e então receber como resposta de um potencial assinante: “Entrevistar uma IA é jornalismo de qualidade?”. A crítica é a mesma referente à explosão de matérias caça-cliques, e ambas são pertinentes.

Em segundo lugar, ao não contestar criticamente um possível lugar do ChatGPT como fonte de informação, a matéria cai em um erro jornalístico – pecando pela acriticidade – e conceitual sobre o papel desse tipo de chatbot generalista. Por que não construir a matéria focando exatamente nos problemas desse uso? Ou então comparar as respostas de chatbots de IA voltados à pesquisa – e mesmo assim falhos – como o Gemini do Google ou o Copilot da Microsoft?

O erro mais grave, porém, está na naturalização. Naturalização desse tipo de IA como uma fonte de informação – que, frisamos, não é o caso. É verdade que o jornalismo não tem mais o grau de impacto na opinião pública que tinha no passado, em um cenário exacerbado de descrença na população e polarização de ideias. Mas também é verdade que o peso dos veículos ainda é relevante na esfera pública, o que exige cuidado e responsabilidade.

Queremos naturalizar o ChatGPT e derivados como fontes de informação? E, ainda mais importante, deveríamos?

Há, ainda, um erro claro de estratégia comercial. Como bem aponta o Digital News Report publicado pelo Reuters Institute em junho de 2024, a população tem cada vez mais obtido informações por fontes não-jornalísticas, em especial as plataformas de redes sociais e mensagens instantâneas. O jornalismo tem perdido público, e receita, exatamente por esse movimento. É prudente, do ponto de vista mercadológico, legitimar mais uma fonte de informação não-jornalística? Ou que, então, oferece ao público informações vindas de veículos jornalísticos, mas sem o devido crédito ou remuneração?

É verdade que a inteligência artificial generativa tem suas vantagens e casos de uso apropriados. Mas também é verdade que ela não é uma bala de prata ou solução para todos os problemas.

E o dever do jornalismo é exatamente apontar e explicar isso. Nesse sentido, os veículos devem buscar evitar deslizes, para a manutenção da legitimidade do veículo e do próprio campo institucional como importante ente social.

________________
(As opiniões expressas nos artigos publicados no Jornal da USP são de inteira responsabilidade de seus autores e não refletem opiniões do veículo nem posições institucionais da Universidade de São Paulo. Acesse aqui nossos parâmetros editoriais para artigos de opinião.)


Política de uso 
A reprodução de matérias e fotografias é livre mediante a citação do Jornal da USP e do autor. No caso dos arquivos de áudio, deverão constar dos créditos a Rádio USP e, em sendo explicitados, os autores. Para uso de arquivos de vídeo, esses créditos deverão mencionar a TV USP e, caso estejam explicitados, os autores. Fotos devem ser creditadas como USP Imagens e o nome do fotógrafo.