Muito se fala – aliás, cada vez mais – dos riscos inerentes aos sistemas de inteligência artificial, dos quais o mais alardeado é o do possível fim de algumas profissões. Mas, na verdade, segundo o professor Luli Radfahrer, existem outros perigos, um pouco mais sutis – exemplo típico são as fake news e congêneres. “Agora que a gente viu todo esse fenômeno dos chatbots, a gente percebe muito bem que esse sistema artificial pode tranquilamente gerar uma argumentação que é errada, que é baseada em uma falácia, por exemplo, que o aquecimento global não existe ou que o Holocausto não existiu […] e do mesmo jeito a gente pode ter algoritmos racistas, homofóbicos, machistas.”
Na sequência de seu comentário, falando sobre a responsabilidade das empresas que cuidam da inteligência artificial e do tipo de informação divulgada, Radfahrer constata ser necessário mais transparência e até mesmo uma regulação externa, já que essas empresas não podem ser autorreguladas. “Precisa ter uma regulação externa. É só você imaginar o seguinte: o molho secreto do McDonald’s ninguém sabe como é feito ou mesmo a fórmula da Coca-Cola ninguém sabe como é feita, mas a gente sabe que todos os ingredientes dela estão ali. Você até pode ter uma combinação, uma combinação superlouca, que te permita fazer toda a estrutura que você quiser, mas as fontes precisam estar claras. A hora que você pega um shampoo e coloca na sua cabeça, ele diz claramente quais são os elementos químicos que você está colocando na cabeça e você consegue saber se seu shampoo tem veneno ou não. A ideia é a mesma com o algoritmo: até agora ele é uma caixa-preta e a gente precisa resolver isso”, conclui.
Datacracia
A coluna Datacracia, com o professor Luli Radfahrer, vai ao ar quinzenalmente, sexta-feira às 8h, na Rádio USP (São Paulo 93,7 ; Ribeirão Preto 107,9 ) e também no Youtube, com produção da Rádio USP Jornal da USP e TV USP.
.