.

E se as radiografias do joelho pudessem revelar suas preferências alimentares? Um estudo recente demonstra que inteligência artificial Os modelos (IA) podem aparentemente deduzir se alguém bebe cerveja ou evita feijão frito, analisando imagens de raios-X dos joelhos.

Embora pareça uma maravilha futurística, publicada recentemente em Natureza: Relatórios Científicosas descobertas levantam sérias preocupações sobre as armadilhas da “aprendizagem de atalhos” na IA médica.

“Embora a IA tenha o potencial de transformar imagens médicas, devemos ser cautelosos”, disse o principal autor do estudo e cirurgião ortopédico do Dartmouth Hitchcock Medical Center (DHMC), Dr. declaração. “Esses modelos podem ver padrões que os humanos não conseguem, mas nem todos os padrões que eles identificam são significativos ou confiáveis. É crucial reconhecer estes riscos para evitar conclusões enganosas e garantir a integridade científica.”

No campo cada vez maior da inteligência artificial, os algoritmos de aprendizado de máquina estão lidando com problemas cada vez mais complexos.

A IA está a revolucionar os cuidados de saúde, desde o diagnóstico de doenças raras até à personalização de tratamentos. No entanto, um estudo inovador liderado por investigadores do Dartmouth-Hitchcock Medical Center e da Geisel School of Medicine em Dartmouth revela um fenómeno perturbador: os modelos de IA podem detectar factores aparentemente não relacionados, como hábitos alimentares, a partir de imagens médicas.

Esta capacidade, embora intrigante, pode ser um sinal de “atalhos” algorítmicos, uma tendência da IA ​​de confiar em padrões irrelevantes mas detectáveis ​​nos dados.

Usando o extenso conjunto de dados da Osteoarthritis Initiative (OAI), que inclui mais de 25.000 radiografias de joelho, a equipe de pesquisa treinou redes neurais convolucionais (CNNs) para prever dois resultados implausíveis – se uma pessoa bebe cerveja ou evita feijão frito.

Surpreendentemente, os modelos alcançaram precisão moderada, com uma área sob a curva (AUC) de 0,73 para consumo de cerveja e 0,63 para evitar feijão frito.

Estes resultados não indicam uma verdade oculta sobre as preferências alimentares codificadas na anatomia do joelho. Em vez disso, expõem como os modelos de IA exploram variáveis ​​confusas – correlações ocultas em dados que pouco têm a ver com a tarefa de previsão pretendida.

A aprendizagem por atalho ocorre quando os modelos de IA identificam padrões que fornecem respostas rápidas em vez de insights significativos. Neste estudo, os atalhos incluíram diferenças sutis ligadas a locais clínicos, fabricantes de máquinas de raios X e protocolos de imagem.

Por exemplo, mapas de saliência usados ​​para visualizar a tomada de decisões do modelo mostraram que as previsões dependiam de artefatos de imagem, como marcadores de lateralidade e seções ocultadas para indicadores de saúde do paciente.

As implicações são profundas. Embora as CNNs possam descobrir informações não óbvias em imagens médicas, também podem descobrir correlações enganosas, comprometendo a validade dos resultados clínicos.

Este fenômeno não se limita às previsões dietéticas. Estudos anteriores mostraram que a IA pode deduzir corrida pacienteidade e gênero de radiografias de tórax e outras imagens médicas – muitas vezes com uma precisão surpreendente.

Estas capacidades realçam a natureza dupla da IA: a sua capacidade de detectar padrões invisíveis aos humanos e a sua susceptibilidade a interpretações erradas.

Por exemplo, o estudo descobriu que as CNNs treinadas para prever preferências alimentares também retinham conhecimentos úteis para identificar a demografia dos pacientes. Quando refeitos, os modelos poderiam prever gênero, raça e local clínico com alta precisão, ressaltando como variáveis ​​latentes entrelaçadas podem distorcer as previsões.

“Isso vai além do preconceito proveniente de pistas de raça ou gênero”, explicou Brandon G. Hill, cientista de aprendizado de máquina do DHMC e coautor do estudo. “Descobrimos que o algoritmo poderia até aprender a prever o ano em que uma radiografia foi tirada.”

“É pernicioso; quando você o impede de aprender um desses elementos, ele aprenderá outro que ignorou anteriormente. Este perigo pode levar a algumas afirmações realmente duvidosas, e os pesquisadores precisam estar cientes de quão rapidamente isso acontece quando se utiliza esta técnica.”

As descobertas sublinham a necessidade de cautela na interpretação dos resultados da IA ​​na medicina. Na pressa de aproveitar o potencial da IA, os investigadores e os médicos devem garantir que os modelos não capturam apenas padrões superficiais.

A aprendizagem por atalhos pode levar a conclusões erradas, minando a confiança em diagnósticos e tratamentos baseados em IA. Além disso, o estudo desafia a noção de que o pré-processamento ou normalização dos dados é suficiente para mitigar preconceitos.

Apesar dos esforços para padronizar as imagens, os modelos ainda explora

4 views Aug 11, 2025