Durante o AI Summit Seoul, conferência realizada na Coreia do Sul, lideranças globais e big techs se comprometeram a desenvolver mecanismos capazes de cessar o uso das Inteligências Artificiais (IA) no mundo se elas oferecerem algum risco à humanidade. A série de encontros reuniu cerca de dez países para discutir melhores soluções com o objetivo de garantir segurança no uso dessa tecnologia. Fábio Cozman, professor da Escola Politécnica (POLI) e diretor do Centro de Inteligência Artificial (C4AI) da USP, comenta as determinações debatidas pelas nações.
Riscos
Segundo o especialista, a inteligência artificial é uma tecnologia nova e, assim como toda inovação, possui os seus riscos próprios, mas também é uma tecnologia transversal, a qual pode ser aplicada em diferentes áreas. Ele conta que um dos principais problemas que podem surgir por essa ferramenta está relacionado com a privacidade, uma vez que, a partir do momento em que um computador recebe a capacidade de abrir dados pessoais de pessoas e instituições, podem ocorrer vazamentos decorrentes do uso indevido.
Outros exemplos citados por Cozman decorrem da geração de textos inadequados, ofensivos ou enganosos, como as frequentes fake news disseminadas no âmbito político e que já causam amplas preocupações nos sistemas jurídicos. Ele destaca, porém, que a criação de desinformação é um fenômeno que a humanidade já pratica há algum tempo, ou seja, continuaria existindo mesmo em uma sociedade ausente das ferramentas de IA.
“Existem outros riscos que não são da tecnologia em si, mas das suas consequências, que refletem impactos na sociedade, no emprego, na forma como as pessoas trabalham e a possibilidade das pessoas perderem o emprego. Todos esses riscos, no entanto, não são novos porque são similares a de outras tecnologias ligadas à automação”, diz.
Comprometimento
Conforme o professor, não existe um mecanismo ou dispositivo técnico em específico capaz de interromper a disponibilidade das IAs no mundo, o que foi estabelecido pelo acordo é um compromisso em estudar e mitigar os riscos. Ao assinar o acordo, os países e as empresas concordaram em estabelecer estudos mais aprofundados sobre os possíveis riscos e, no caso de ser identificado alguma ameaça, existe o comprometimento de não lançar os produtos ou ferramentas relacionados a essa possível ameaça.
“Inclusive esses documentos falam da criação de AI Safety Institutes, ou seja, institutos de estudo da segurança da IA. Então não existe um botão que vá apertar e suspender tudo , o que existe é a inovação de estudo e o comprometimento de, no caso de algum risco se mostrar impossível de mitigar, que os produtos relacionados não sejam lançados”, explica.
Segundo Cozman, é difícil que as empresas que fornecem serviços de Inteligência Artificial consigam prever com exatidão os riscos que podem ocorrer, por isso é importante trabalhar no estudo e na prevenção. “Está havendo bastante pesquisa nessa área e também essa ideia de ter institutos de segurança, que não existem ainda, mas é uma proposta interessante, então eu acho que é possível sim você identificar os principais problemas e trabalhar no sentido de mitigá-los. O que não acho possível é parar o desenvolvimento da Inteligência Artificial como um todo, acho que isso não seria possível e nem está em consideração na discussão entre os países”, conta.
IA Generativa
De acordo com Fábio Cozman, as ferramentas de Inteligência artificial comumente utilizadas pelas pessoas para geração de texto e imagem, também chamadas de IA generativas, não teriam um impacto tão grande na sociedade caso fossem interrompidas. As ferramentas de IA utilizadas por empresas e pelo setor produtivo, em contrapartida, são fundamentais para o equilíbrio da economia mundial e seu desaparecimento poderia gerar caos na economia mundial.
O professor afirma que as IAs generativas se popularizaram nos últimos anos, principalmente através do produto Chat GPT, e estão cada vez mais visíveis para a população. No entanto, ele conta que a Inteligência Artificial é um conjunto de tecnologias amplas e envolvem, entre outras coisas, atendimento automático a clientes, planejamento automático de tarefas e previsão a partir de dados.
“Esse lado tem um pouco mais a ver com computação e fica mais escondido das pessoas comuns, pois tem a ver com programação de logística, automatização, planejamento de empresas e rotas. Essa parte sim seria bastante afetada e poderia causar uma boa confusão no sistema produtivo, mas no fundo são basicamente sistemas computacionais que estão em jogo”, finaliza.
*Estagiário sob a supervisão de Marcia Avanza e Cinderela Caldeira
Jornal da USP no Ar
Jornal da USP no Ar no ar veiculado pela Rede USP de Rádio, de segunda a sexta-feira: 1ª edição das 7h30 às 9h, com apresentação de Roxane Ré, e demais edições às 14h, 15h, 16h40 e às 18h. Em Ribeirão Preto, a edição regional vai ao ar das 12 às 12h30, com apresentação de Mel Vieira e Ferraz Junior. Você pode sintonizar a Rádio USP em São Paulo FM 93.7, em Ribeirão Preto FM 107.9, pela internet em www.jornal.usp.br ou pelo aplicativo do Jornal da USP no celular.