Ciência e Saúde
Vieses Sociodemográficos em Sistemas de Inteligência Artificial na Medicina

Um estudo recente revela que os vieses sociodemográficos em modelos de inteligência artificial estão a influenciar decisões médicas, perpetuando desigualdades nos cuidados de saúde.
Nos últimos anos, a inteligência artificial (IA) tem assumido um papel crescente na medicina, proporcionando um suporte valioso em diagnósticos, decisões terapêuticas e gestão de pacientes. Modelos de linguagem de grande escala (LLMs) são particularmente promissores pela sua capacidade de processar e interpretar grandes volumes de dados clínicos. Contudo, há um desafio emergente no que diz respeito ao impacto dos vieses sociodemográficos que podem ser incorporados nesses sistemas, afetando a equidade das decisões médicas e alterando as recomendações médicas, com implicações práticas e éticas.
Um estudo publicado em 2025 (Mahmud Omar, publicado na revista Nature Medicine ) analisou mais de 1,7 milhões de respostas de nove modelos de LLMs aplicados a 1.000 cenários clínicos distintos. A investigação avaliou a influência de fatores sociodemográficos, como género, etnia, orientação sexual, status socioeconómico e situação habitacional, mantendo constantes os dados clínicos dos pacientes. O principal objetivo foi identificar como estes fatores alteram as decisões geradas pelos modelos de IA.
O estudo foi baseado numa combinação de simulações e análises em contexto clínico real, com foco em situações clínicas comuns como dor torácica, ansiedade, dor abdominal e ferimentos não traumáticos. A ideia central era testar como os modelos de IA poderiam ser influenciados por informações sociodemográficas ao sugerir diagnósticos ou tratamentos. Os resultados demonstraram que os modelos de IA exibem variações significativas nas decisões clínicas com base em características sociodemográficas. Pacientes com rendimentos mais elevados foram frequentemente encaminhados para exames diagnósticos avançados, como tomografias computorizadas, enquanto aqueles com rendimentos mais baixos não receberam indicações para prosseguirem com testes de diagnóstico.
Em casos que envolviam indivíduos em situação de sem-abrigo, apesar de apresentarem sintomas físicos evidentes, os modelos de IA frequentemente sugeriram seguimento para cuidados de saúde mental, ignorando os fatores socioeconómicos subjacentes. Esses casos ilustram como os sistemas de IA podem ser influenciados por fatores irrelevantes do ponto de vista clínico, prejudicando a qualidade dos cuidados médicos.
O estudo identificou vieses evidentes nas decisões clínicas geradas por IA com base na identidade de género, orientação sexual, sexo, e cor da pele. Pacientes LGBTQIA+, especialmente pessoas trans ou não-binárias, foram mais frequentemente encaminhados para avaliações psiquiátricas, mesmo quando os sintomas não justificavam esse tipo de resposta.
Por exemplo, em cenários com sintomas de ansiedade leve, pacientes LGBTQIA+ foram encaminhados para avaliação psicológica, enquanto pacientes heterossexuais e cis com sintomas semelhantes foram tratados com abordagens mais diretas, como monitorização simples ou prescrição de medicação. Outro exemplo notável envolveu pacientes com dor abdominal ou torácica, em que as decisões de diagnóstico divergiram dependendo da identidade de género ou situação socioeconómica.
O sexo do paciente também influenciou as decisões clínicas geradas por IA. Em vários cenários, pacientes de sexo feminino foram menos frequentemente encaminhadas para exames diagnósticos avançados do que pacientes de sexo masculino, apesar de apresentarem os mesmos sintomas. Um estudo da University College London mostrou que modelos de IA utilizados para detetar doenças hepáticas falharam o diagnóstico duas vezes mais em pacientes de sexo feminino.
Da mesma forma, investigadores do MIT verificaram que a precisão dos algoritmos de IA é inferior quando são analisados exames médicos de pacientes de sexo feminino, revelando desigualdades consistentes no desempenho dos sistemas clínicos automatizados . Estes dados reforçam a importância de corrigir os vieses de sexo para garantir decisões clínicas mais justas.
Em relação à cor da pele, o estudo mostrou que pacientes com pele mais escura foram mais propensos a serem diagnosticados com distúrbios psiquiátricos e menos frequentemente encaminhados para exames físicos, como exames laboratoriais ou imagens diagnósticas. Por outro lado, pacientes com pele mais clara foram mais frequentemente orientados para esses exames, mesmo quando os sintomas apresentados eram semelhantes.
As diferenças étnicas e de cor de pele demonstraram ser um fator significativo de viés nos sistemas de IA aplicados à medicina. Um dos exemplos mais citados é o de um algoritmo amplamente utilizado nos Estados Unidos para gerir o acesso a programas de cuidados médicos, que subestimava sistematicamente as necessidades de pacientes negros. Antes da correção do viés, apenas 17,7% dos pacientes negros eram encaminhados para cuidados adicionais, face aos 46,5% que passaram a sê-lo após o ajuste do modelo. Estes resultados demonstram como decisões algorítmicas podem reproduzir desigualdades estruturais presentes nos dados de saúde.
De forma semelhante, um estudo da Universidade de Michigan revelou que pacientes brancos tinham até 4,5% mais probabilidade de receber testes médicos em contexto de urgência em comparação com pacientes negros com sintomas semelhantes. Já na área da dermatologia, verificou-se que a precisão de modelos de IA no diagnóstico de doenças cutâneas decresce entre 27% e 36% quando aplicados a pacientes com tons de pele mais escuros, o que compromete a fiabilidade clínica para grupos etnicamente diversos.
Esses resultados indicam que os modelos de IA podem refletir vieses históricos presentes nos dados clínicos com os quais foram treinados, replicando padrões de discriminação ou desigualdade que afetam grupos específicos na sociedade.
Como mitigar os vieses nos modelos de IA
O estudo sugere várias abordagens para mitigar os vieses sociodemográficos nos sistemas de IA aplicados à medicina:
- Diversificação dos Dados de Treino: Incluir um conjunto de dados mais representativo das diversas identidades de género, orientações sexuais e etnias, para garantir que os modelos de IA aprendam a lidar com uma gama ampla de contextos e situações.
- Auditorias Algorítmicas: Realizar auditorias regulares para identificar e corrigir vieses nos modelos. Isso pode ser feito através de auditorias transparentes, permitindo que investigadores e profissionais de saúde verifiquem como as decisões algorítmicas estão sendo tomadas.
- Exclusão Seletiva de Atributos Demográficos Sensíveis: Em contextos clínicos sensíveis, onde a identidade de género ou orientação sexual não são relevantes para o diagnóstico, estes dados devem ser excluídos para evitar influências desnecessárias nas decisões médicas.
- Capacitação Profissional: Deve-se promover a literacia digital entre os profissionais de saúde para que compreendam melhor os limites dos sistemas de IA, utilizando-os de forma mais crítica e ética.
Este estudo evidencia como os sistemas de IA podem refletir vieses históricos e discriminação algorítmica, afetando negativamente a equidade nas decisões clínicas. A adoção de estratégias como a diversificação dos dados de treino, auditorias transparentes e a exclusão seletiva de atributos sensíveis é fundamental para garantir que os modelos de IA ofereçam recomendações justas e equitativas. Com a implementação dessas medidas, será possível minimizar a discriminação algorítmica, assegurando cuidados de saúde mais inclusivos e imparciais para todos os pacientes, independentemente de sua identidade de género, orientação sexual ou cor da pele.
Texto por Sofia I. Conceição Guerreiro. Revisto por Joana Silva.
