Inteligência artificial e os impactos dos grandes modelos de linguagem na educação e na cultura informativa

Por Magaly Prado, professora convidada do Instituto de Estudos Avançados (IEA) da USP

 12/01/2024 - Publicado há 12 meses
Magaly Prado – Foto: Arquivo Pessoal
Se o leitor sabe como funcionam os softwares de inteligência artificial generativa de modelo de linguagem, os LLMs (caso do ChatGPT, o mais conhecido) e o contexto de uma ferramenta probabilística, pode saltar os primeiros parágrafos: vá direto à parte do impacto deles na educação. Afinal, este é o mote deste artigo, cuja ênfase é dada aos híbridos de humanos, máquinas e artefatos a embaralhar a cultura informativa e a consequente importância do pensamento crítico.

A expressão “inteligência artificial” (IA) foi cunhada em 1955 por McCarthy. No ano seguinte, o cientista da computação convidou Minsky, Rochester e Shannon para um curso de verão cuja proposta era pensar como uma máquina poderia usar a linguagem.

Os computadores modernos digitais são máquinas matemáticas, lógico-simbólicas e algorítmicas, conforme definição de Setzer. Isto significa que “o processamento e o efeito de qualquer instrução interpretada em linguagem de máquina (um computador nunca executa uma instrução, ele a interpreta) pode ser matematicamente descrito, quer dizer, representa uma função matemática”. Além disso, acrescenta o autor, “a matemática envolvida é restrita: só trabalha com símbolos tirados de um conjunto finito, discreto, para ao qual sempre se pode atribuir um sistema numérico. Isto é, o espaço de trabalho de um computador é sempre quantificado”.

Setzer explica melhor: “Um programa é uma sequência de instruções, podendo sempre ser associado a uma função matemática que leva elementos de um conjunto de dados de entrada a um conjunto de dados de saída”. Por fim, o professor de Ciências da Computação nos auxilia um pouco mais ao definir dados como a representação de símbolos quantificados ou quantificáveis.

Assim, a inteligência artificial descreve programas de computador que são “treinados” para resolver problemas que normalmente seriam difíceis para resolução — especialmente, rápida. Esses programas “aprendem” a partir de dados analisados, adaptando métodos e respostas de forma a maximizar a precisão. É fundamental pontuar que esses dados, particularmente quando nossos, são entregues de mão beijada às empresas desenvolvedoras de IAs mundo afora; especialmente, nos Estados Unidos. É impossível superestimar o peso desta realidade e o impacto global deste fluxo de informações. Aqui no Brasil, nós sequer estamos equipados suficientemente — em pessoal (embora haja exceções) ou tecnologia — para compreender, em extensão considerável, as implicações deste contexto e lidar com ele.

A inteligência artificial, frequentemente compreendida metonimicamente como seu subcampo da aprendizagem de máquina, tornou-se uma área de investimento e de pesquisa proeminente com o propósito de oferecer aos computadores a capacidade de aprender com base em exemplos e experiências. Por volta do ano 2000, ressurgiu fortemente a tecnologia do deep learning, com redes autoajustáveis de matemática a transformar o reconhecimento de fala e imagem, por exemplo, de forma mais precisa. Desde o entorno de 2010, a computação cognitiva veio com o intuito de construir sistemas que possam conhecer e interagir com humanos.

O primeiro chatbot — e que ficou mais conhecido — foi a ELIZA, criado em 1965. Na definição de seu criador, Joseph Weizenbaum, o intuito de ELIZA, a partir de seu script DOCTOR, era funcionar como uma psicoterapeuta: “Uma aplicação simples de processamento de linguagem natural que era capaz de conversar com interrogadores humanos de maneira a parecer outra pessoa”. O programa de processamento consistia de métodos gerais de análise de frases e fragmentos delas, localizando o que chamamos de palavras-chave nos textos, montando sentenças a partir dos fragmentos.

Mas ELIZA não tinha a capacidade de interagir, por exemplo, com uma situação atual a partir da alimentação de dados de contextos anteriores. Nenhum ferramental relacionado a quaisquer conjunturas era embutido do universo de seu discurso, que era provido a ela meramente por meio do referido script. Passados alguns anos, detectou-se que suas respostas eram muito óbvias, a ponto de não convencer quem a procurava.

Na esteira da ELIZA, chega uma nova febre de bots na função de psicólogo. Psychologist, um bot treinado pelo neozelandês Sam Zaia, apresenta-se como “alguém que ajuda nas dificuldades da vida”. A empresa de São Francisco (EUA) possui um total de 475 bots disponíveis na Character.AI, mas o Psychologist já recebeu um total de 78 milhões de mensagens desde que foi criado há um ano pelo estudante de Psicologia. Para se ter uma ideia deste número, os bots mais populares da empresa são personagens de anime ou jogos de computador como Raiden Shogun, para quem foram enviadas 282 milhões de mensagens, segundo a BBC.

Os LLMs e as implicações comunicacionais e educacionais

Os Large Language Models (LLMs) são modelos de aprendizado de máquina treinados com big data (ou grandes volumes de dados) para identificar padrões na linguagem. Eles são projetados para serem acessíveis; porém, a facilidade de uso pode variar, dependendo da interface específica. Esses modelos operam com base em probabilidades aprendidas durante o treinamento, gerando respostas a partir de uma entrada do usuário: o chamado “prompt”.

O treinamento dos grandes modelos de linguagem acontece por meio de uma arquitetura de rede neural chamada “transformer”. O processo tipicamente acontece com grandes conjuntos de dados — muitos dos quais, provenientes da internet. No entanto, é importante notar que os LLMs não conseguem acessar ou recuperar informações da internet após o treinamento, mas podem gerar respostas (a princípio) coerentes, com base no prompt fornecido.

Há alguns tipos conversacionais, como o ChatGPT (Generative Pre-trained Transformer), da OpenAI. Mas também temos o Bard e o Gemini, do Google; o Copilot (antes, BingChat), da Microsoft; ou, ainda, o 01.AI, idealizado por Kai-Fu Lee. Aliás, quando inteligência artificial e algoritmos são mencionados, imediatamente supomos que são desenvolvidos fora do Brasil. No caso de seu desenvolvimento, isto é verdadeiro; mas, entre os brasileiros, temos na nossa cultura informativa Maritalk, Sabiá e a FátimaGPT, que usa um banco de dados específico, com todas as reportagens e checagens já publicadas pelo site Aos Fatos, conectado ao GPT-4. Assim, as respostas são formuladas usando apenas o conteúdo produzido pelo Aos Fatos.

O algoritmo pelo qual o ChatGPT funciona não assume uma posição definitiva, pois a sua interpretação se baseia na análise estatística de bilhões de textos disponíveis na internet e no treinamento contínuo para que ocorra a gradual aprendizagem de padrões e relacionamentos de caráter linguístico. De quebra, os dados vêm carregados de viés. Falta equipe diversa para uma coleta inclusiva.

O ChatGPT vem sendo treinado para o refinamento da qualidade de suas respostas e para que evite temas inadequados. No entanto, não tem nenhuma proteção contra outro risco: trabalhos escolares e acadêmicos forjados. Em janeiro de 2023, a cidade de Nova York baniu o uso do robô nas escolas — e a International Conference on Machine Learning (ICML) proibiu que o ChatGPT e seus similares sejam usados para escrever artigos científicos. Na tentativa de um recurso defensivo, a própria OpenAI criou uma ferramenta chamada AI Text Classifier, que prometeu detectar se um texto foi escrito por um robô. Mas ela era primitiva: segundo a empresa, sua precisão foi de apenas 26% e foi desativada.

Por isso, todo cuidado nesse uso é pouco — e isso se aplica a diversas outras ferramentas com o mesmo intuito, como OpenAI Detector, GPTZero, AI Content Detector etc. Pior: não podemos, de fato, confiar completamente em nenhum texto que nos é mostrado. Afinal, já criaram outros dispositivos, como Undetectable ou Quillbot, que, digamos, detectam a detecção de uso de inteligência artificial para construção textual e burlam a segurança. Tais recursos fazem isto reescrevendo trechos, produzindo paráfrases e até “humanizando” o texto robótico — tudo para evitar o rastreamento.

No entanto, pela sua capacidade de gerar e avaliar informações, um grande modelo de linguagem, juntamente a outras formas de inteligência artificial, é capaz de desempenhar uma série de papéis, podendo melhorar os processos de ensino e aprendizagem dos estudantes. Além disso, tem condições de ser usado como uma ferramenta independente ou de ser integrado a outros sistemas e plataformas utilizados pelas instituições de ensino superior (IES). Conectar o uso de um grande modelo de linguagem aos resultados do aprendizado do curso pode ajudar os alunos a entender como o software pode apoiar sua aprendizagem — e quais são as expectativas para eles.

Em meio a um bocado de receio e desconfiança, vale considerar alguns cenários interessantes — e positivos — para a interação entre ensino e ferramentas de inteligência artificial. Um LLM pode ser incorporado e usado para realizar tarefas simples ou técnicas (pesquisa básica, cálculos, provas). Ou, ainda, a inteligência artificial pode ser usada para gerar formas alternativas de expressar uma ideia. Mais uma possibilidade: os estudantes escrevem consultas no ChatGPT, por exemplo, e usam a resposta e a função “regenerar” para examinar respostas alternativas. É sempre importante, entretanto, manter ligado o alerta de que grandes modelos de linguagem ainda possuem dificuldades para manter a consistência.

Das estratégias básicas que a equipe da OpenAI sugere no guia aberto e gratuito de engenharia de prompt para o ChatGPT, dar instruções claras pode ser considerada a principal. Se os resultados forem muito longos, o ideal é pedir respostas breves. Se os resultados forem muito simples, uma redação de nível especializado deve ser solicitada. Se o formato não é o que se espera, é necessário demonstrar com um exemplo ou especificar o formato preferível. Quanto menos o modelo tiver que adivinhar o que é desejável, maior será a probabilidade de acerto.

É fundamental, portanto, capacitar professores, pesquisadores e estudantes para aprimorar as consultas que fazem aos LLMs. Como os pesquisadores da OpenAI observaram no documento referido há pouco, tais mecanismos são mais úteis quando as entradas fornecidas são cuidadosamente criadas. Isso, porque sabemos que muitos dos dados coletados para treinamento são de baixa qualidade.

Um exemplo é a recomendação de dividir tarefas complexas em subtarefas mais simples. Tarefas complexas tendem a ter taxas de erro mais altas; e podem, muitas vezes, ser redefinidas como um fluxo de trabalho de tarefas mais simples. Isto permite que os resultados das primeiras tarefas sejam usados ​​para construir as entradas para as tarefas seguintes, conforme sugere o próprio guia da OpenAI. Verificações cruzadas com fontes adicionais são imprescindíveis.

Como uma espécie de treinador de colaboração, a inteligência artificial ajuda grupos a pesquisar e resolver problemas juntos — e, trabalhando em grupos, os estudantes usam um grande modelo de linguagem para obter informações para completar tarefas e atribuições. Os alunos inserem prompts no software, seguindo a estrutura não só de uma conversa, mas, também, de um debate. Assim, os professores podem solicitar aos estudantes que lancem mão de um grande modelo de linguagem para o preparo de discussões. Obviamente, tendo a consciência de que as informações nem sempre são precisas.

Quanto aos professores, estes podem usar o software para gerar conteúdo para aulas/cursos (por exemplo, questões para discussão) e conselhos sobre como apoiar estudantes em aprendizados de conceitos específicos. Como um tutor pessoal, é cabível a inteligência artificial orientar cada aluno e dar feedback personalizado e imediato sobre seu progresso. Isto pode ser feito com base em informações fornecidas pelos próprios estudantes — ou pelos professores — como resultados de testes. Ou seja, professores ou alunos pedem ideias ao LLM sobre como estender a aprendizagem estudantil depois de fornecer um resumo do nível atual de conhecimento; por exemplo, questionários, exercícios.

Mais uma oportunidade: como avaliadora dinâmica, a inteligência artificial pode fornecer aos educadores um perfil da situação de cada aluno. Os estudantes podem interagir com o ChatGPT em um diálogo no estilo tutorial e, em seguida, pedir a ele um resumo de seu estado atual de conhecimento para compartilhar com seu professor ou para avaliação. Ainda assim, a inteligência artificial fornece ferramentas para brincar, explorar e interpretar dados. Como motivadora, a inteligência artificial oferece jogos e desafios para ampliar o aprendizado.

Outra possibilidade é o ChatGPT ser usado para oferecer suporte na aprendizagem de línguas. Neste contexto, a inteligência artificial do companheiro de estudo serve para ajudar o estudante a refletir sobre material de aprendizagem. Desta vez, os alunos explicam seu nível atual de compreensão da língua ao LLM e solicitam maneiras de ajudá-los a estudar o material. O software também pode ser usado para ajudar os estudantes a se prepararem para outras tarefas — como entrevistas de emprego. Os professores podem solicitar ideias ao grande modelo de linguagem; por exemplo, sobre como projetar ou atualizar um currículo, colocar seu foco em determinados objetivos e/ou torná-lo mais acessível. Uma revisão minuciosa é sempre necessária, já que tais ferramentas podem fornecer respostas imprecisas — ou irrelevantes.

Como recomenda Teaching with AI, o guia da OpenAI sobre como utilizar tais recursos para o ensino, é importante fornecer referências. O ChatGPT pode inventar respostas falsas e até citações, especialmente quando questionado sobre temas esotéricos. Entrar com um texto de referência para iniciar uma conversa sobre um tópico pode ajudar a obter respostas com menos invenções.

De que outras maneiras tais recursos de inteligência artificial podem ajudar um acadêmico? Um grande modelo de linguagem pode ser utilizado por pesquisadores em diferentes estágios de um processo de pesquisa, a exemplo de completar as partes técnicas de pedidos de bolsas de estudo (como planos de comunicação). Outra função: a revisão por pares de artigos acadêmicos, já que certas ferramentas de inteligência artificial podem prever se um artigo será ou não aceito. O software também tem sido usado para gerar informações acadêmicas para artigos de periódicos. Alguns editores argumentam que um grande modelo de linguagem não pode assumir a responsabilidade pelo conteúdo ou integridade dos artigos e, portanto, não pode ser um autor, enquanto outros aceitam seu papel como coautor. Seria uma espécie de cocriação.

A implicação maior recai sobre os desafios da ética. Os programas/cursos existentes podem ser atualizados para incorporar o ensino, por exemplo, de “Alfabetização em inteligência artificial” — como parte de uma compreensão ampliada de alfabetização e habilidades digitais — e “Ética da inteligência artificial”.

O impacto deste tipo de software no ensino superior tem sido imediato e divisivo. A principal preocupação expressada sobre um grande modelo de linguagem está relacionada à integridade acadêmica. As IES e educadores soaram alarmes sobre o risco aumentado de plágio e trapaça se os alunos usarem o software para escrever seus trabalhos, por exemplo. É imprescindível trabalhar o que significa autoria, as definições e as noções básicas de direitos autorais: não por acaso, “autor” e “autoridade” compartilham raiz etimológica.

Embora suas aplicações em níveis superiores da educação sejam extensas, vários países bloquearam, por exemplo, o ChatGPT; além disso, muitas universidades proibiram seu uso e outras instituições atualizaram ou mudaram a forma como fazem avaliações. Revisar todas as formas de avaliação para garantir que cada elemento seja adequado à finalidade é pertinente. Esta revisão pode levar à substituição de exames ou outras avaliações realizadas em casa por avaliações presenciais ou alteração dos tipos de perguntas ou formatos de exame usados, como a chamada oral.

É bom frisar que, neste artigo, não são problematizados os modelos visuais, como os de difusão de imagem (DALL-E, Midjourney, Stable Diffusion etc.); nem os de áudio, a exemplo de AudioLM. Abordei esta ferramenta em artigo de 2023: O poder da inteligência artificial no cruzamento entre ChatGPT e deepfakes.

No começo de 2023, a Itália se tornou o primeiro país a bloquear o ChatGPT, devido a preocupações relacionadas com a privacidade. Há, de fato, o perigo da violação de dados. A autoridade também levantou preocupações éticas em torno da incapacidade da ferramenta de determinar a idade de um usuário — ou seja, menores podem ser expostos a respostas inadequadas à sua idade. Torna-se, assim, essencial analisar criticamente os resultados fornecidos e compará-los a outras fontes de informação.

As preocupações sobre o gênero e outras formas de discriminação não são exclusivas aos LLMs, mas de todas as formas de inteligência artificial. Por um lado, isso reflete a falta de participação feminina em assuntos relacionados à inteligência artificial e em pesquisa/desenvolvimento em IA. Por outro, há o poder da inteligência artificial generativa para produzir e disseminar conteúdo que discrimine ou reforce a discriminação de gênero e outros estereótipos. Outra preocupação está relacionada às questões mais amplas de acesso e equidade em termos de distribuição desigual da disponibilidade, custo e velocidade da internet.

Assim, é preciso criar oportunidades para professores, funcionários, estudantes e outras partes interessadas discutirem o impacto deste tipo de software nas IES e coconstruir estratégias para adaptação e adoção da inteligência artificial. Apresentar orientações claras para estudantes e instrutores sobre como e quando um grande modelo de linguagem pode ser usado — e quando não. Essa orientação deve ser negociada e não imposta a eles.

A adaptação ao ensino superior na era da inteligência artificial generativa também exige que as IES prestem atenção ao seu papel na construção e atualização de processos de aprendizado e de compreender e gerenciar LLMs e inteligência artificial. Isso deve ser equilibrado a partir do entendimento de que, pelo menos por enquanto, a inteligência artificial generativa não pode substituir a criatividade humana e o pensamento crítico.

O apoio de pares e a orientação e facilitação a membros de corpos docentes para aumentarem seu nível de habilidade e compartilharem boas práticas de ensino e formas de uso do software em pesquisas pode ser feito em vários níveis: nas faculdades, em outras instituições, ou entre comunidades suprainstitucionais de conhecimento. Ainda assim, habilidades tecnológicas de literacia digital para detectar a desinformação — e, se possível ajudar no combate — são imprescindíveis para humanos e não humanos de todas as idades.

Educação midiática crítica ou aprendizagem significativa de mídia

Constatamos, hoje, uma poluição comunicacional ocasionada pelo excesso de informações produzido e replicado por meio da segmentação algorítmica; em muitos casos, por aqueles que não possuem educação midiática crítica. Também percebemos a necessidade de novas formas de ensino para que as pessoas aprendam a desconfiar do que lhes é fornecido. A conjuntura atual é tal que a desordem informacional infesta toda a esfera da comunicação, que fica arranhada em sua confiança e reputação.

Diminuir a visibilidade da má informação é tarefa minuciosa que implica, em primeiro lugar, impulsionar a população a obter habilidades como a de reconhecer fatos e saber interpretar a factização — processo de transformar palavras em declarações de fatos. Também é importante obter o conhecimento para analisar mensagens e adquirir a capacidade de distinguir o que é falso, ou imitativo do estilo jornalístico. Isto ocorre na interseção da tecnologia com o ensino, revelando os contornos de uma educação midiática.

Esta aprendizagem deve começar em tenra idade, para que as pessoas cresçam sabendo desconfiar e, consequentemente, checar desinformação. O processo continua de forma marcada na adolescência, que costuma viver intensamente nas redes, entre seu imediatismo desenfreado e os atos contestatórios típicos daquele momento; e, após a idade adulta, tal educação deve alcançar a população mais velha, que, muitas vezes, replica mensagens falsas. O objetivo, por fim, é promover o envolvimento crítico a respeito do ambiente digital, no intuito de que os indivíduos questionem as informações — ou, ao menos, pensem duas vezes.

Ao considerar a perversa economia dos dados, encobrindo ou não a entropia que os envolve, a tentativa é de permitir que internautas fiquem livres de danos, ou, ao menos, que os danos sejam reversíveis: vale a pena investir nisto. Uma melhor educação para uso das redes pode ser condição sine qua non para um avanço nas relações pessoais e institucionais. Hoje, porém, sabemos que a educação tecnológica crítica ainda não atinge todos; deveria, pois, consistir em um aprendizado significativo, que considera o envolvimento efetivo do cidadão, seus interesses e aspirações para a sociedade.

Nesse sentido, a economia dos dados associada à ainda deficiente educação na área integra o desarranjo informacional que nos cerca — e, acima de tudo, que alcança pessoas com tendência a sofrer influências das mensagens falsas. O motivo é que esses indivíduos não compreendem os processos tecnológicos e as possíveis formas de controle associadas às informações a que são expostos. Isto ocorre pela falta de educação para o consumo de mídia — aprendizado, por exemplo, sobre fontes de informação confiáveis e interações responsáveis.

Para obtermos estratégias de desconexão, teríamos que substituir os ciberambientes das redes sociais aos games; contudo, comunicar-se é uma condição fundamental da vida. Comunicar-se hoje não pressupõe práticas desconectadas, especialmente, entre os jovens e jovens adultos.
Como se sabe, é difícil sair ou não participar da digitalização, hoje em dia — e cada vez mais. Não se pode ignorar, assim, a necessidade de, na educação, estimular jovens e adultos, por meio de alfabetização midiática, a adquirirem consciência, visão e ouvido crítico perante os conteúdos sintéticos, as deepfakes, e todo tipo de desinformação que assola o ciberespaço.

É preciso investir em uma ampla educação midiática democrática, aprendizagem de mídia, ou literacia de mídia — seja o nome que for. Desde crianças, é fundamental que comecemos a saber diferenciar o que é verdadeiro ou falso, desenvolvendo espírito crítico para desconfiar do que lhes é oferecido, tanto na circulação, quanto no bloqueio do acesso à informação.

Destarte, guias e manuais sobre como detectar a desinformação estão disponíveis mundo afora. Precisamos enganar os algoritmos, praticar o desaprendizado de máquina. Não aceitar facilmente suas recomendações, fazer coisas que, normalmente, não faríamos para tentar confundi-los.

Melhor dizendo: mesmo com educação midiática significativa, um projeto de longo prazo, sabemos que o contradiscurso não basta. O ideal é suscitar insights críticos e aplicar a inteligência de rebanho; e, de quebra, entender o esquema dos algoritmos o bastante para tentar enganá-los e, com isso, fazer com que percam força. Deste modo, a responsabilidade pela checagem das histórias não caberia apenas à imprensa ou às empresas de comunicação — e, sim, às pessoas com um mínimo de instrução, às famílias e ao sistema educacional como um todo, em estudos de letramento e informação crítica.

Portanto, investigar o submundo da desinformação, a ética dos dados, a discussão (ou a ausência dela) das regulamentações e a falta de alfabetização midiática em larga escala, entre outros temas, é crucial. A universidade — esfera em que se analisam certos problemas da forma mais objetiva e abrangente possível — é de importância central para pensar criticamente e acessar o conhecimento científico produzido por nós, a partir das informações presentes na cultura algorítmica.

Este artigo colheu informações do guia da Unesco ChatGPT e inteligência artificial na educação superior: guia de início rápido.

________________
(As opiniões expressas nos artigos publicados no Jornal da USP são de inteira responsabilidade de seus autores e não refletem opiniões do veículo nem posições institucionais da Universidade de São Paulo. Acesse aqui nossos parâmetros editoriais para artigos de opinião.)


Política de uso 
A reprodução de matérias e fotografias é livre mediante a citação do Jornal da USP e do autor. No caso dos arquivos de áudio, deverão constar dos créditos a Rádio USP e, em sendo explicitados, os autores. Para uso de arquivos de vídeo, esses créditos deverão mencionar a TV USP e, caso estejam explicitados, os autores. Fotos devem ser creditadas como USP Imagens e o nome do fotógrafo.