Arrow
AI Blog

Os algoritmos de inteligência artificial gerenciam o preconceito médico?

Learn how AI can help minimize bias in medical decision-making, but it's crucial to design algorithms carefully to avoid reinforcing existing prejudices.

IA no setor de saúde

O surgimento contínuo de vários estudos e aplicações de Inteligência Artificial (IA) no setor de saúde demonstra que essa tecnologia emergente tem o grande potencial de revolucionar a forma como médicos, enfermeiros, hospitais, empresas farmacêuticas e seguradoras tomam decisões para proteger a vida dos pacientes. Incrivelmente, a criação dessas ferramentas de tecnologia baseadas em IA mostrou um futuro bastante promissor, com mercado estimado crescimento de $4,9 bilhões em 2020 para $45,2 bilhões em 2026.

No entanto, apesar de seu imenso potencial, nos últimos anos, a aplicação da IA ao setor de saúde aumentou a preocupação de alguns especialistas, pois foi descoberto que os algoritmos podem exacerbar as disparidades estruturais existentes no sistema de saúde.

Não é segredo que preconceitos baseados em sexo, gênero, raça, status socioeconômico, etnia, religião e até mesmo deficiência afetaram o setor biomédico e de saúde desde o advento da medicina moderna no século XVIII. Esses preconceitos, ou preconceitos, promoveram que, como estados Londa Schiebinger, professora de História da Ciência na Escola de Humanidades e Ciências de Stanford: “o funcionamento e a anatomia do corpo masculino branco têm sido usados como guia para a descoberta de medicamentos, tratamentos e dispositivos médicos durante as últimas décadas da medicina moderna”.

Preocupantemente, esse viés afeta potencialmente a qualidade dos cuidados médicos que algumas minorias recebem em diferentes sistemas de saúde. Para dar um exemplo (bastante relevante durante os últimos dois anos de pandemia), poderíamos analisar o comportamento do oxímetro de pulso. O oxímetro de pulso é um dispositivo biomédico que registra a quantidade de luz absorvida pelos glóbulos vermelhos oxigenados e não oxigenados para analisar de forma rápida e não invasiva os níveis de oxigênio no sangue de um paciente. No entanto, quando usados em pacientes com altos níveis de melanina na pele (preta), eles têm três vezes mais chances de relatar erroneamente os níveis de gases no sangue. Na verdade, também foi descoberto que eles funcionam mal com mais frequência em mulheres do que em homens, o que ameaça a capacidade de ambas as minorias (raça e gênero) de receber tratamento adequado.

Agora, talvez a pergunta que surge neste momento seja:

Como esse viés, ou preconceito, pode ser transmitido aos algoritmos de IA?

Como em qualquer outro setor, os algoritmos de IA desenvolvidos para ajudar na tomada de decisões no setor de saúde são altamente dependentes dos dados usados para treiná-los.
De um modo geral, tanto o aprendizado de máquina quanto os algoritmos de aprendizado profundo (os mais usados no setor de saúde) precisam de um banco de dados contendo todas as informações relevantes para a tomada de decisões. Essas informações podem ser, por exemplo, imagens de diagnóstico com uma classificação de se o paciente tem ou não uma doença, registros de sinais biomédicos com padrões de interesse identificados ao longo do tempo, o histórico médico do paciente que permite prever o desenvolvimento de alguma condição, entre outros. A partir dessas informações, a máquina passa por um processo de aprendizado. Ao visualizar os dados várias vezes, esse processo pode reconhecer características que lhe permitem tomar decisões da mesma forma que um ser humano experiente faria. No entanto, conforme destacado acima, os dados disponíveis para treinar esses algoritmos geralmente são inerentemente tendenciosos, pois não consideram a grande variabilidade observada quando confrontados com a tomada de decisões na vida real. Portanto, a máquina aprende a favorecer ou desfavorecer uma população específica com base em características demográficas, de gênero ou raça que não têm relação com o processo a ser autorizado. Agora, sendo objetivo, embora a fonte primária de viés seja atribuída aos dados, o viés pode aparecer em qualquer estágio da construção do algoritmo. Desde a abordagem do problema a ser resolvido, se a variabilidade do processo não for levada em consideração, até as condições de uso dos algoritmos, se eles forem implementados em situações para as quais não foram construídos.

Portanto, é essencial, principalmente no setor de saúde, onde um resultado errôneo tem o potencial de afetar a saúde de um ser humano, que os responsáveis pelo desenvolvimento dos algoritmos estejam cientes da presença dessa ameaça.

Alguma coisa pode ser feita para mitigar o viés do algoritmo?

Para lidar com uma ameaça como o preconceito na inteligência artificial, a primeira e mais importante coisa é reconhecer que ela existe e pode estar presente em diferentes estágios do desenvolvimento do algoritmo. Com isso claro, várias estratégias podem ser apresentadas para ajudar a reduzir seus efeitos prejudiciais.

Em primeiro lugar, os profissionais de saúde que coletam as informações para a construção do algoritmo devem estar cientes de que os vieses presentes no processo de estruturação do banco de dados serão transferidos para os resultados obtidos com a implementação das ferramentas tecnológicas. Nesse sentido, os bancos de dados devem apresentar grande variabilidade nas informações coletadas, garantindo que sejam representativas da população na vida real e seguindo padrões de alta qualidade. Nesse sentido, é vital aumentar o investimento em entidades públicas e privadas para construir bancos de dados imparciais. Assim, projetos como o Stanford Skin of Color Project, que busca compilar o mais extenso conjunto de dados públicos de imagens dermatologicamente relevantes para diferentes tons de pele, sejam replicados em todas as entidades de saúde em todo o mundo. Em segundo lugar, os pesquisadores enfatizam a importância de avaliando sistematicamente as ferramentas de IA, mesmo depois de as organizações as terem implementado. Essa avaliação é fundamental para entender o desempenho do algoritmo quando confrontado com dados diários da população para a qual ele foi criado. Isso significa que eles devem ser avaliados usando não apenas métricas tradicionais de precisão e especificidade, mas também métricas de equidade relevantes, como mencionado Henk van Houten, diretor de tecnologia da Royal Philips. Além disso, isso também implica que as ferramentas a serem construídas devem ter um alto grau de explicabilidade para que os especialistas possam avaliá-las rapidamente.

Para isso, os esforços de entidades governamentais e não governamentais para promover o desenvolvimento de estudos prospectivos são de grande importância. Nesse sentido, entidades como a Arkangel AI disponibilizaram à comunidade de saúde ferramentas como Hipócrates, permitindo que algoritmos sejam construídos e testados automaticamente seguindo modelos de estudos prospectivos e retrospectivos.

Finalmente, nos últimos anos, a importância de tornar a IA acessível a todos, um processo conhecido como “democratização”, foi destacada. Com essa democratização, a diversidade geográfica, de gênero, raça e classe é promovida na construção de algoritmos e na definição das regulamentações necessárias para seu uso. Particularmente no setor de saúde, esse processo permite que os profissionais de saúde acessem o conhecimento necessário para propor e desenvolver modelos de IA. Da mesma forma, com o conhecimento nas mãos do pessoal de saúde, os módulos de IA podem começar a ser criados nas universidades para aumentar a conscientização sobre seus benefícios e ameaças, como preconceitos quando usados.

Na Arkangel, desenvolvemos a ferramenta Hipócrates para promover essa democratização, para que os profissionais de saúde não precisem se preocupar com a programação por trás dos modelos de IA. Em vez disso, incentivamos os profissionais de saúde a se concentrarem em conhecer as bases teóricas de como os modelos funcionam, desde a construção de bancos de dados imparciais até a implementação e avaliação corretas dos algoritmos.

Em conclusão, para garantir que os algoritmos de IA usados no futuro sejam poderosos e justos e gerem valor para todos os humanos, devemos construir a infraestrutura técnica, regulatória e econômica para fornecer os dados abrangentes e diversos necessários para treinar e testar esses algoritmos. Embora o futuro dessa tecnologia no setor de saúde seja brilhante, não podemos continuar permitindo o desenvolvimento ou mesmo a implementação de ferramentas que possam anular os princípios éticos da prática médica que afetam os cuidados que os pacientes recebem. E não só isso, embora o foco da medicina deva ser sempre o paciente, as consequências de algoritmos tendenciosos podem ser sentidas do ponto de vista legal e financeiro, como aconteceu antes.

Enquanto isso, a Arkangel AI continuará comprometida em aumentar a conscientização sobre as ameaças que afetam o desempenho dos algoritmos de IA no setor de saúde, impedindo o desenvolvimento de ferramentas que democratizem essa tecnologia e promovam seu uso diário.

Se você quiser saber mais sobre o software Arkangel Ai, deixe-nos seu (informações profissionais) e um de nossos agentes entrará em contato com você para acompanhá-lo na integração individual de nossa tecnologia e aconselhá-lo sobre o projeto que você tem em mente.

Se você quiser saber mais sobre Arkangel Ai entre em contato conosco aqui e um dos membros da nossa equipe entrará em contato com você para uma sessão individual.

Book a Free Consultation

Trusted by the world's top healthcare institutions