Inteligência artificial, jornalismo e desinformação

Por Herton Escobar, jornalista especializado em Ciência e Meio Ambiente e repórter especial do “Jornal da USP”

 17/02/2023 - Publicado há 2 anos     Atualizado: 22/02/2023 às 14:13

A inteligência artificial é vista por muitos como a próxima fronteira da tecnologia e sua aplicação no jornalismo é um tema cada vez mais discutido. Com a capacidade de processar grandes quantidades de dados e aprender continuamente, a IA pode ajudar a produção de conteúdo jornalístico mais preciso, rápido e acessível.

A IA pode ser usada para automatizar tarefas repetitivas, como a verificação de fatos, a análise de dados e a produção de notícias em grande escala. Além disso, a tecnologia pode ajudar a detectar e corrigir erros e desinformação, tornando o jornalismo mais confiável.

A utilização de robôs jornalistas já é uma realidade em algumas empresas de mídia, mas ainda há muito debate sobre a qualidade do conteúdo produzido por eles. Enquanto alguns argumentam que a IA pode ser usada para melhorar a precisão e eficiência da produção de notícias, outros alertam que a tecnologia ainda não está avançada o suficiente para substituir completamente a investigação jornalística humana.

No entanto, a IA pode ser uma ferramenta valiosa para os jornalistas, ajudando-os a acessar informações de fontes diversas e a analisar dados de maneira mais eficiente. Além disso, a tecnologia pode ser usada para ampliar a diversidade de perspectivas e vozes, permitindo que histórias sejam contadas de maneira mais justa e equilibrada.

Em resumo, a IA tem o potencial de revolucionar a produção de conteúdo jornalístico, mas é importante lembrar que a tecnologia deve ser usada como uma ferramenta complementar e nunca como substituta da investigação humana. A IA pode ajudar a produzir notícias mais precisas e acessíveis, mas a responsabilidade de garantir a confiabilidade e a integridade da informação continua sendo dos jornalistas.

ATENÇÃO: Tudo o que você leu acima foi escrito por uma inteligência artificial, sem qualquer edição da minha parte. Não mudei absolutamente nada no texto, nem mesmo uma vírgula. E tenho que admitir: está muito bom. Gramaticalmente correto; bem estruturado; bem contextualizado; balanceado; com clareza e objetividade impecáveis.

O texto foi gerado pelo ChatGPT, o sistema de inteligência artificial desenvolvido pela empresa californiana OpenAI, lançado em novembro de 2022. Ele funciona como um robô virtual com o qual você pode conversar em busca de informações; tipo uma Siri ou Alexa, só que muito mais sofisticado, capaz não só de compilar informações prontas da internet como gerar textos complexos (conforme demonstrado acima) e até mesmo poemas ou letras de música totalmente originais (como demonstrado nessa reportagem do Fantástico, de 29 de janeiro).

É incrível, mas também assustador. Concordo com o que disse o ChatGPT acima (e perdoem-me por me referir a ele como se fosse uma pessoa): a inteligência artificial pode ser uma ferramenta extremamente benéfica para o jornalismo, ajudando na coleta, processamento e apuração de informações. Como qualquer ferramenta humana, porém, é algo que pode ser usado tanto para o bem quanto para o mal, dependendo de quem a emprega. Neste caso, dependendo de quem digita a pergunta, com quais intenções, e o que é feito com a resposta.

Nesse meu primeiro experimento editorial com o ChatGPT, digitei o seguinte pedido: “Escreva uma reportagem, com até 1.500 caracteres, sobre como a inteligência artificial poderá impactar a produção de conteúdo jornalístico confiável no futuro”. A resposta foi o texto reproduzido no início deste artigo, que o robô levou apenas um minuto para escrever.

Se eu fosse um jornalista preguiçoso, ou desonesto, poderia facilmente botar meu nome em cima desse texto, publicá-lo na internet como se fosse uma produção intelectual minha, ir para casa e passar o resto do dia comendo pipoca e checando minhas curtidas nas redes sociais. Meu dia de trabalho teria durado cinco minutos; mas eu não teria aprendido absolutamente nada, de verdade, sobre o tema em questão. Seria uma fraude completa, jornalística, profissional e intelectual. Alguém tem dúvida de que vai ter um monte de gente picareta fazendo “carreira” em cima disso? Com certeza. Não só no jornalismo, mas em diversas profissões.

Assim como “eu” escrevi este artigo sobre jornalismo e inteligência artificial em um minuto, sem precisar pesquisar nada a respeito, um aluno poderá facilmente escrever um trabalho escolar, um relatório ou até uma dissertação de mestrado em questão de minutos. Será que professores e empregadores conseguirão notar a diferença?

A boa notícia é que o robô trabalha em cima de informações disponíveis na internet, que são geradas por seres humanos de carne e osso — pelo menos por enquanto. Para escrever o texto acima, ele provavelmente processou dados e opiniões de centenas ou milhares de livros, artigos e reportagens publicados sobre esse tema nos últimos anos, em diversas plataformas. Ou seja, a matéria-prima para o processo criativo da inteligência artificial ainda é a inteligência e a criatividade humana. Continuaremos precisando de jornalistas, poetas e artistas de verdade para gerar o conteúdo original que os robôs necessitam para aprender e trabalhar.

A má notícia é que essa fonte de informações chamada internet está poluída até o osso com desinformação — notícias falsas, mentiras, teorias da conspiração, estudos malfeitos e afins. Será a inteligência artificial capaz de filtrar esses ingredientes tóxicos da receita? E como evitar que ela seja usada para turbinar ainda mais a produção e a disseminação de conteúdos mentirosos ou fraudulentos?

“Esta ferramenta será a ferramenta mais poderosa para espalhar desinformação que já existiu na internet”, disse Gordon Crovitz, codiretor-executivo da NewsGuard, uma empresa que monitora desinformação on-line, em entrevista para uma reportagem sobre o tema no jornal The New York Times. “A elaboração de uma nova narrativa falsa agora pode ser feita numa escala dramática e com muito mais frequência – é como ter agentes de inteligência artificial que contribuem para a desinformação.”

O site da OpenAI diz que a missão da empresa é “garantir que a inteligência artificial beneficie toda a humanidade”. Não duvido das boas intenções da empresa, mas é bom lembrar que as redes sociais também surgiram com a promessa de aproximar as pessoas, e o resultado não foi exatamente esse.

Preocupado com o tema, resolvi fazer um segundo experimento e ver o que o próprio ChatGPT teria a me dizer sobre o assunto. Pedi ao robô que escrevesse uma reportagem de até 1.500 caracteres sobre “como a inteligência artificial poderá ser usada para gerar e disseminar notícias falsas na internet”. Um minuto depois, ele me entregou este texto abaixo:

[ChatGPT]

A inteligência artificial está mudando a forma como as pessoas consomem e compartilham informações na internet. Infelizmente, essa tecnologia também pode ser usada para disseminar notícias falsas e desinformação.

De acordo com especialistas em segurança cibernética, as ferramentas de IA, como sistemas de geração de texto e voz, podem ser usadas para criar e espalhar notícias falsas de maneira automatizada e escala. Além disso, a tecnologia de reconhecimento de imagens e vídeo pode ser usada para manipular e distorcer fatos reais, criando informações falsas que parecem verdadeiras.

Os riscos envolvidos na geração e disseminação de notícias falsas são amplos e preocupantes. A desinformação pode levar a decisões equivocadas, afetar a opinião pública e até mesmo provocar instabilidade política e social.

Para combater esses riscos, os especialistas sugerem a implementação de medidas de segurança cibernética mais rigorosas, como a verificação de fontes e a análise de dados para identificar notícias falsas. Além disso, as plataformas de mídia social precisam ser mais transparentes e responsáveis na divulgação de informações, e os usuários devem estar conscientes e críticos sobre as notícias que consomem e compartilham na internet.

Em resumo, a inteligência artificial pode ser uma ferramenta poderosa para a geração e disseminação de notícias falsas, mas também pode ser usada para combater esses riscos. É importante que governos, empresas e indivíduos trabalhem juntos para proteger a integridade da informação e garantir uma internet segura e confiável.

NOTA FINAL DO AUTOR (HUMANO): Concordo com o robô.

(As opiniões expressas pelos articulistas do Jornal da USP são de inteira responsabilidade de seus autores e não refletem opiniões do veículo nem posições institucionais da Universidade de São Paulo. Acesse aqui nossos parâmetros editoriais para artigos de opinião.)


Política de uso 
A reprodução de matérias e fotografias é livre mediante a citação do Jornal da USP e do autor. No caso dos arquivos de áudio, deverão constar dos créditos a Rádio USP e, em sendo explicitados, os autores. Para uso de arquivos de vídeo, esses créditos deverão mencionar a TV USP e, caso estejam explicitados, os autores. Fotos devem ser creditadas como USP Imagens e o nome do fotógrafo.