Na era da inteligência artificial, como fica a segurança de dados?

Pesquisadores explicam que as novas técnicas de computação abrem novas possibilidade para golpes e invasões cibernéticas

 Publicado: 08/05/2024
Por
O que possibilitou o novo boom das inteligências artificiais foi a capacidade de processamento dos computadores atuais – Foto: Freepik
Logo da Rádio USP

As empresas de computação em nuvem chocaram o mundo com as inteligências artificiais lançadas no ano de 2023, em especial a OpenAI, com o ChatGPT e a DALL-E. Muitos se maravilharam com o mundo de possibilidades que esses programas inteligentes abriram. Já outros se chocaram com as implicações na área da segurança, direito autoral e na capacidade de distorção da realidade factual que as ferramentas novas proporcionam, e o debate pela regulamentação do uso segue em curso nas casas legislativas de diversos países.

Routo Terada – Foto: Daniel Batista/IME-USP

Contudo, como explica o pesquisador Routo Terada, doutor em Ciência da Computação e mestre em Matemática pelo Instituto de Matemática e Estatística da USP, as inteligências artificiais não são tão novas assim: “Inteligência artificial é um termo antigo, existe desde a década de 60. Na época, o termo foi mais usado em ambiente acadêmico, nas universidades etc. Eu, por exemplo, estudei naquela época”, conta Terada.

Segundo o pesquisador, o que possibilitou o novo boom das inteligências artificiais foi a capacidade de processamento dos computadores atuais, principalmente a computação em nuvem e o aprimoramento na computação paralela.

Duas zonas de perigo

Conforme explica Fabio Gagliardi Cozman, professor da Escola Politécnica da Universidade de São Paulo, as ferramentas de inteligência artificial abrem novos perigos na área de segurança de dados em dois fronts diferentes. O primeiro deles está na encriptação e desencriptação dos dados.

Fabio Gagliardi Cozman – Foto: CeMEAI/USP

“Existe de fato uma briga entre os que querem guardar informação de forma segura e os que querem abrir essa informação para decifrar. Existem algoritmos clássicos que fazem isso e que podem ser melhorados com técnicas de inteligência artificial.
Em particular, técnicas de aprendizado de máquina, aquelas que usam observações, experimentos, experiências para melhorar o desempenho de algoritmos”,  explica o professor Gagliardi.

A outra batalha é travada no meio da engenharia social, ou seja, os usuários mal-intencionados exploram as vulnerabilidades humanas de outros usuários para obter materiais confidenciais, como senhas bancárias, dados de navegação e outras informações de cunho particular.

“As vulnerabilidades podem acontecer na medida em que você tem sistemas artificiais interagindo com os seres humanos. Você pode ter sistemas que, na interação com o usuário, obtêm informações inadvertidamente. Aí, o usuário é levado a revelar informações. Pode haver sistemas que também são feitos para interagir com o usuário de forma adequada, mas tem alguma falha. O usuário pode ser enganado e revelar essas contas para um outro agente inadequado”, conta Gagliardi.

Routo Terada também concorda que o maior risco de segurança que as IAs abrem está na capacidade de simulação dessas ferramentas. A OpenAI divulgou vídeos de demonstração da DALL-E 3, a nova versão do software de criação audiovisual, em que as imagens criadas são preocupantemente realistas. “A inteligência artificial consegue, com as velhas técnicas, simular situações da vida real. E, nesse sentido, a coisa ficou feia, um cidadão não consegue mais distinguir entre o artificial e o natural e pode ser enganado pela imagem e pela voz. Tudo que é simulado passa a ser quase natural para um cidadão comum.”

E qual é a solução?

O professor Terada ministra aulas de autenticação de dados, ou seja, algoritmos matemáticos que servem para verificar se uma informação apresentada é verídica ou não. “Autenticação seria pegar o conteúdo digital e gerar uma sequência de bits com uma chave que só o autor daquele documento possa gerar e essa assinatura é enviada junto com o arquivo digital.”

Técnicas de autenticação de imagens e documentos podem auxiliar os usuários a não serem enganados com o uso da inteligência artificial. A DALL-E, por exemplo, já coloca marcas d’água em todos os vídeos que a ferramenta produz, outra maneira de impedir o uso malicioso da IA generativa. E, é claro, crimes cibernéticos também são crimes e também é papel da Justiça agir nesses casos para punir os criminosos: “Os crimes de falsificação ficam mais fáceis com esses processadores mais potentes. É simulada alguma coisa verdadeira, mas quem é que programa esse simuladores? São pessoas hábeis, com talento para programar, mas é sempre um ser humano por trás”, conclui o professor.


Jornal da USP no Ar 
Jornal da USP no Ar é uma parceria da Rádio USP com a Escola Politécnica e o Instituto de Estudos Avançados. No ar, pela Rede USP de Rádio, de segunda a sexta-feira: 1ª edição das 7h30 às 9h, com apresentação de Roxane Ré, e demais edições às 14h, 15h e às 16h45. Em Ribeirão Preto, a edição regional vai ao ar das 12 às 12h30, com apresentação de Mel Vieira e Ferraz Junior. Você pode sintonizar a Rádio USP em São Paulo FM 93.7, em Ribeirão Preto FM 107.9, pela internet em www.jornal.usp.br ou pelo aplicativo do Jornal da USP no celular. 


Política de uso 
A reprodução de matérias e fotografias é livre mediante a citação do Jornal da USP e do autor. No caso dos arquivos de áudio, deverão constar dos créditos a Rádio USP e, em sendo explicitados, os autores. Para uso de arquivos de vídeo, esses créditos deverão mencionar a TV USP e, caso estejam explicitados, os autores. Fotos devem ser creditadas como USP Imagens e o nome do fotógrafo.