Ela chegou não faz muito tempo, mas já tem gente se apaixonando pela inteligência artificial, o que não surpreende o professor Luli Radfahrer, para quem isso já era de se esperar, em função de tantas pessoas carentes. “A bolha de conteúdo das mídias sociais faz com que o indivíduo fique cada vez mais cercado de pessoas que só falam o que ele quer ouvir e a inteligência artificial, do jeito que ela é feita hoje, principalmente na forma dos sistemas massivos de linguagem, como o ChatGPT, fala exatamente o que a pessoa quer ouvir”.
De acordo com o colunista, a maior parte desses serviços de Chat é um grande ‘autocompletador’. “Ele não pensa, ele só repete aquilo que você quer ouvir, não tem consciência, só completa frases. Esses produtos, como o GPT-3, GPT-4, são em essência grandes volumes de textos, que pegam conteúdos como as frases costumam ser completadas e vão completando”. Funciona como quando alguém escreve algumas palavras no celular e o teclado começa a formular a próxima palavra que se pretende clicar. “Imagina isso de uma forma gigantesca, que ele comece a escrever longas frases para você. É exatamente isso e, portanto, ele só vai falar aquilo que você está acostumado a falar e o que você quer ouvir”.
De todo modo, Radfahrer adverte que isso pode ser muito perigoso. “Você pode ter um computador que, na imagem das pessoas, é perfeito, concordando com você , com suas visões mais tortas do mundo: visões racistas, sexistas, homofóbicas. É extremamente perigoso e pode aumentar o nível de polarização que a gente já tem hoje nas mídias sociais”.
Datacracia
A coluna Datacracia, com o professor Luli Radfahrer, vai ao ar quinzenalmente, sexta-feira às 8h, na Rádio USP (São Paulo 93,7 ; Ribeirão Preto 107,9 ) e também no Youtube, com produção da Rádio USP Jornal da USP e TV USP.
.