
Faculdades de medicina ao redor do mundo estão investindo pesadamente em IA. Harvard, Stanford e a Universidade de Toronto estão na vanguarda, testando plataformas que simulam consultas, corrigem diagnósticos e adaptam o ensino às necessidades individuais dos alunos. Um exemplo é o Clinical Mind AI, desenvolvido em Stanford, que já consegue replicar interações médico-paciente com feedback em tempo real – uma solução especialmente valiosa para regiões com escassez de professores.
A IA pode ser a grande equalizadora na educação médica, levando formação de qualidade a áreas remotas. Mas será que a tecnologia está sendo distribuída de forma justa, ou apenas ampliando o abismo entre instituições ricas e pobres?
O lado sombrio da IA: vieses, alucinações e dilemas éticos
Nem tudo são boas notícias. Pesquisadores alertam que algoritmos mal treinados podem perpetuar desigualdades. Um estudo revelou que sistemas de diagnóstico por IA frequentemente apresentam menor precisão em pacientes negros, devido a bancos de dados desequilibrados. Além disso, há o fenômeno das “alucinações digitais”, em que a IA inventa referências científicas ou até recomendações médicas falsas.
Se um médico humano cometesse erros como os das IAs hoje, seria responsabilizado. Mas quem responde quando um algoritmo falha? As instituições que o adotam? Os desenvolvedores? Ou o próprio sistema de saúde, que pode estar trocando precisão por conveniência?
Soluções em desenvolvimento: como mitigar os riscos
Diante desses desafios, pesquisadores estão buscando alternativas. Modelos como o GPT4DFCI-RAG, treinado exclusivamente com literatura científica de patologia digital, visam reduzir erros e aumentar a confiabilidade. Outra abordagem promissora é o Federated Learning, que processa dados localmente sem centralizá-los, preservando a privacidade dos pacientes.
Além disso, universidades estão investindo na capacitação docente. Programas como o Faculty AI Literacy, da Universidade de Toronto, preparam professores para usar a IA de forma crítica, sem substituir habilidades essenciais como empatia e julgamento clínico (D’Souza et al., 2024).
A IA não deve substituir o professor, mas sim amplificar seu potencial. Será que estamos formando médicos mais técnicos, mas menos humanos?
O futuro do currículo médico: entre consumidores e desenvolvedores de IA
O próximo passo é repensar a formação médica para incluir a IA de maneira estruturada. Nguyen et al. propõem uma divisão de competências:
• Consumidores conscientes: profissionais que sabem usar a IA com criticidade;
• Integradores: aqueles que adaptam ferramentas à prática clínica;
• Desenvolvedores: médicos com formação em ciência de dados, capazes de criar soluções.
Se a IA se tornar parte da medicina, será que todos os médicos precisarão saber programação? Ou o risco é criar uma casta de “médicos-programadores”, distantes da realidade do paciente?
Tecnologia a serviço do humanismo
A IA veio para ficar, e sua integração na medicina é inevitável. Mas, mais do que dominar algoritmos, o desafio é manter o equilíbrio entre inovação e ética. Nenhuma máquina substituirá a escuta ativa, a compaixão e o julgamento clínico humano. Como bem resumiu um professor de Stanford: “A IA pode até diagnosticar uma doença, mas só um médico pode entender o doente.”
________________(As opiniões expressas nos artigos publicados no Jornal da USP são de inteira responsabilidade de seus autores e não refletem opiniões do veículo nem posições institucionais da Universidade de São Paulo. Acesse aqui nossos parâmetros editoriais para artigos de opinião.)























