Seu Vídeo Aqui!!!

————————————————————————————-

————————————————————————————

NUVEM DE TAGS

IA pode identificar a etnia das pessoas em imagens de raios-X e levanta questões éticas

Por Flavia Correia, editado por André Lucena

Olhar Digital

Novos modelos de aprendizagem profunda baseados em Inteligência Artificial (IA) podem identificar a etnia de alguém a partir de imagens de raios-X, algo que seria impossível de ser observado pelos olhos de um médico. Os achados, publicados na revista The Lancet Digital Health, levantam algumas questões preocupantes sobre o papel da IA no diagnóstico, avaliação e tratamento médico: o viés racial poderia ser aplicado involuntariamente por software de computador ao analisar tais imagens?

Uma equipe de pesquisadores de saúde dos EUA, Canadá e Taiwan treinou sua IA usando milhares de imagens de raio-X rotuladas com detalhes étnicos do paciente. Depois, testou o sistema com outras imagens de raio-X não identificadas.

Segundo os cientistas, o modelo de IA conseguiu prever a identidade racial relatada do paciente nessas imagens com uma precisão surpreendente, mesmo quando os exames foram tirados de pessoas da mesma idade e do mesmo sexo. Em alguns grupos de imagens,o sistema atingiu níveis de 90%.

“Nosso objetivo era realizar uma avaliação abrangente da capacidade da IA de reconhecer a identidade racial de um paciente a partir de imagens médicas”, dizem os pesquisadores em seu artigo. “Mostramos que modelos de aprendizagem profunda padrão de IA podem ser treinados para prever a raça a partir de imagens médicas com alto desempenho em múltiplas modalidades de imagem, o que foi sustentado em condições de validação externa”.

A pesquisa ecoa os resultados de um estudo anterior que descobriu que as varreduras de Inteligência Artificial de imagens de raios-X eram mais propensas a perder sinais de doença em pessoas pretas. Para impedir que isso aconteça, os cientistas precisam, primeiro, entender por que está ocorrendo.

Por sua própria natureza, a IA imita o pensamento humano para detectar rapidamente padrões em dados. No entanto, isso também significa que pode, sem querer, sucumbir aos mesmos tipos de vieses. Pior ainda, sua complexidade torna difícil desembaraçar os preconceitos que tecemos neles.

Sistemas de Inteligência Artificial podem repetir preconceitos humanos?

Neste momento, os cientistas não sabem por que o sistema de IA é tão bom em identificar a etnia a partir de imagens que não contêm tais informações, pelo menos não na superfície. 

Mesmo quando informações limitadas são fornecidas, removendo pistas sobre a densidade óssea, por exemplo, ou focando em uma pequena parte do corpo, os modelos ainda tiveram um desempenho surpreendentemente bom ao adivinhar a identidade racial relatada no arquivo. É possível que o sistema esteja encontrando sinais de melanina (o pigmento que dá cor à pele) que ainda sejam desconhecidos da ciência. 

Essa pesquisa se soma a uma pilha crescente de evidências de que os sistemas de IA podem muitas vezes refletir os preconceitos e discriminações dos seres humanos, seja racismo, sexismo ou outra coisa. Dados de treinamento distorcidos podem levar a resultados distorcidos, tornando-os menos úteis e até duvidosos.

Isso precisa ser equilibrado para que a IA possa obter dados muito mais rapidamente do que os humanos poderiam, em todos os setores, desde técnicas de detecção de doenças até modelos de mudanças climáticas.

Ainda há muitas perguntas sem resposta do estudo, mas por enquanto é importante estar ciente da possibilidade de o viés racial aparecer em sistemas de Inteligência Artificial – especialmente se vamos entregar mais responsabilidade a eles no futuro.

“Precisamos fazer uma pausa”, disse o cientista e médico Leo Anthony Celi, do Instituto de Tecnologia de Massachusetts (MIT), ao Boston Globe. “Não podemos apressar trazer os algoritmos para hospitais e clínicas até termos certeza de que eles não estão tomando decisões racistas ou sexistas”.

Deixe aqui sua Mensagem




1 - Os campos marcados com asterico (*) são de preenchimento obrigatório.
2 - Dados pessoais como email e telefone não serão divulgados.