A inteligência artificial não ajuda a diminuir o preconceito

Cada vez mais sofisticadas, máquinas estão se tornando preconceituosas e fazendo julgamento errados

 12/04/2019 - Publicado há 6 anos

Logo da Rádio USP

“A inteligência artificial não ajuda a diminuir o preconceito”, destaca o professor Luli Radfahrer. “Uma máquina não age balizada pelos valores universais. É muito difícil avaliar se um indivíduo está mentindo ou não. Como sabemos quem está certo ou errado? O grande problema da máquina não é que ela é ruim. Ela é como um subordinado nosso, muito eficiente e completamente imbecil, que funciona do jeito que determinamos.”

Para Radfahrer, a melhor coisa a fazer é parar de pensar que a máquina é correta e a única contribuição do ser humano é o erro. “Máquinas estão cada vez mais sofisticadas, o que significa que elas estão se tornando preconceituosas, cometendo muitos erros, fazendo julgamento errados. Se você perceber que a opinião da máquina é só mais uma e desconfiar dela, como desconfiamos às vezes da opinião de um médico, de um juiz, ou de um político, por exemplo, aí sim vamos ter uma relação mais madura com as máquinas”, ressalta.

Ouça a íntegra da coluna Datacracia no link do áudio acima.

 


Política de uso 
A reprodução de matérias e fotografias é livre mediante a citação do Jornal da USP e do autor. No caso dos arquivos de áudio, deverão constar dos créditos a Rádio USP e, em sendo explicitados, os autores. Para uso de arquivos de vídeo, esses créditos deverão mencionar a TV USP e, caso estejam explicitados, os autores. Fotos devem ser creditadas como USP Imagens e o nome do fotógrafo.