Inteligência Artificial na Saúde: Um Caminho para uma Assistência Equitativa e Segura

Com o avanço da inteligência artificial (IA) na saúde, é essencial enfrentar o viés algorítmico para garantir uma assistência justa e equitativa a todos os pacientes. Entenda os desafios e as soluções propostas para combater essa questão e evitar riscos aos pacientes em uma era de medicina digital.

NOTÍCIAS

Fábio H. M. Micheloto

11/10/20245 min read

A inteligência artificial (IA) tem transformado a medicina, assumindo funções que vão desde a análise de dados complexos até decisões clínicas, criação de planos de tratamento e gestão da saúde populacional. Entretanto, como qualquer tecnologia, ela não está isenta de falhas, e uma das principais preocupações atualmente é o viés algorítmico – uma tendência de alguns algoritmos em apresentar resultados inconsistentes e, muitas vezes, prejudiciais a certos grupos de pacientes. É crucial que, à medida que a IA se expande no setor de saúde, se desenvolvam processos rigorosos para identificar e mitigar esses vieses, promovendo uma assistência equitativa e segura.

O Impacto do Viés Algorítmico na Saúde

O viés algorítmico na saúde é uma ameaça à justiça e equidade no tratamento médico, pois pode fazer com que grupos populacionais específicos – especialmente minorias – recebam cuidados inadequados ou inconsistentes. Um exemplo marcante ocorreu quando um algoritmo de IA, criado para prever necessidades de cuidados adicionais para pacientes, revelou-se tendencioso. Ele utilizava custos de saúde como uma variável determinante, mas acabava sub-representando pacientes negros, que, devido a barreiras sistêmicas, geralmente tinham menos acesso a serviços de saúde, mesmo com altos índices de comorbidade. O resultado foi uma subestimação de cuidados necessários, diminuindo drasticamente o número de pacientes negros identificados para cuidados adicionais.

A discriminação algorítmica pode ter efeitos devastadores e amplos, contribuindo para a perpetuação de desigualdades de saúde entre diferentes grupos populacionais. Por isso, a questão do viés na IA de saúde vai além da ética, envolvendo diretamente a segurança e o bem-estar dos pacientes.

Regulamentações: Um Marco para a Proteção dos Pacientes

Em abril de 2024, o Departamento de Saúde e Serviços Humanos (HHS) dos EUA, por meio da Seção 1557 do Ato de Assistência Acessível (Affordable Care Act), emitiu uma regra para coibir resultados discriminatórios em ferramentas de suporte à decisão clínica, incluindo algoritmos de IA. A regra estabelece que organizações de saúde devem identificar e mitigar discriminações em IA e outras ferramentas digitais, tendo um prazo de 300 dias para conformidade.

Esse marco regulatório reforça o compromisso com a equidade na saúde, mas a implementação prática é complexa, exigindo colaboração entre os setores de tecnologia, saúde e regulamentação. Muitos especialistas argumentam que ainda faltam diretrizes e recursos claros para auxiliar as instituições de saúde a realizarem avaliações e monitoramento de IA de forma eficiente.

A Importância das Instituições de Saúde na Detecção do Viés Algorítmico

Para que o viés algorítmico seja adequadamente identificado, é essencial avaliar os algoritmos no contexto específico de uso, uma vez que as variáveis e padrões podem variar de acordo com a população atendida. Um dos maiores desafios é o fenômeno conhecido como "drift" – a degradação da performance dos algoritmos ao longo do tempo, o que pode introduzir novos vieses em algoritmos que se adaptam automaticamente a novas informações.

Para grandes instituições de saúde, a implementação de processos de avaliação e monitoramento de IA pode ser uma tarefa viável, ainda que complexa. Já para as instituições com poucos recursos, essa necessidade representa um desafio significativo. Isso pode levar à recusa de IA em hospitais de menor porte, devido à falta de estrutura para monitorar vieses, ou a uma confiança irrestrita nas garantias dos desenvolvedores de IA, o que nem sempre é seguro.

Esse cenário reflete a necessidade urgente de soluções acessíveis e apoio técnico para todas as instituições de saúde, garantindo que a IA seja uma aliada e não um fator de aumento das desigualdades em saúde.

Modelo de Responsabilidade Compartilhada: Um Caminho para a Equidade

Para minimizar o viés algorítmico, muitos especialistas defendem um modelo de responsabilidade compartilhada, onde desenvolvedores de IA, organizações de saúde e órgãos regulatórios atuem em conjunto para detectar e mitigar discriminações. Nesse modelo, os desenvolvedores são incentivados a promover a transparência, compartilhando dados e informações sobre as bases de dados utilizadas, os procedimentos de teste para identificar vieses e limitações de seus algoritmos.

Essa transparência é fundamental não apenas para facilitar o processo de monitoramento dentro das instituições de saúde, mas também para conquistar a confiança de médicos e pacientes. As organizações de saúde que desenvolvem seus próprios algoritmos também devem ser transparentes sobre os dados e metodologias empregados.

A criação de um repositório centralizado de informações sobre IA, acessível ao público, permitiria que as instituições de saúde tivessem acesso a dados de desempenho e limitações de algoritmos, promovendo um ambiente mais seguro e confiável.

Alinhamento dos Marcos Regulatórios

Embora existam normas específicas para o desenvolvimento de IA, como as da Administração de Alimentos e Medicamentos dos EUA (FDA) e do Escritório do Coordenador Nacional de Tecnologia da Informação em Saúde (ONC), é importante que estas se alinhem às novas exigências da Seção 1557. A ONC, por exemplo, exige que desenvolvedores de registros médicos eletrônicos que incluam IA em seus produtos forneçam informações detalhadas sobre os dados utilizados no desenvolvimento dos algoritmos. Isso ajudaria as organizações de saúde a identificar possíveis vieses antes de adotar essas tecnologias.

Para garantir que os algoritmos sejam verdadeiramente seguros e equitativos, o alinhamento entre as regulamentações do FDA, ONC e HHS permitirá que as instituições de saúde compreendam melhor os riscos e limitações das ferramentas que pretendem utilizar.

Ferramentas de Avaliação e Monitoramento a Baixo Custo

Para que as organizações de saúde possam monitorar de forma eficaz o viés algorítmico, são necessárias ferramentas de software acessíveis. Instituições de financiamento, como o Instituto Nacional de Saúde (NIH) e a Agência de Pesquisa e Qualidade em Saúde (AHRQ), poderiam desempenhar um papel fundamental nesse sentido, financiando o desenvolvimento de ferramentas acessíveis que identifiquem e monitoram o viés em algoritmos de IA. Essas ferramentas seriam especialmente importantes em algoritmos voltados para populações que possuam dados limitados, garantindo a inclusão dessas comunidades nos avanços da tecnologia médica.

Laboratórios de Garantia e Certificação: Sinal de Confiança

Uma proposta adicional para reforçar a segurança dos algoritmos é a criação de laboratórios nacionais de garantia e programas de certificação, que poderiam oferecer garantias de que os algoritmos foram desenvolvidos de acordo com padrões específicos de segurança e equidade. Esses laboratórios poderiam atuar em parceria com o setor público e privado, promovendo a confiança em tecnologias essenciais para o atendimento em saúde.

Avanços Necessários para Evitar Retrocessos

Apesar dos progressos para enfrentar o viés algorítmico, o crescimento acelerado da IA pode, se não monitorado, exacerbar desigualdades de saúde já existentes. O momento é ideal para aproveitar o aumento da conscientização e o consenso sobre a necessidade de ações de proteção aos pacientes, fortalecendo a transparência e promovendo o desenvolvimento de IA responsável.

Conclusão

Proteger pacientes do viés algorítmico em IA exige um esforço conjunto, onde cada participante – desde o desenvolvedor até a instituição de saúde e o regulador – possui um papel claro e decisivo. Com transparência e cooperação, a IA poderá se consolidar como uma ferramenta que impulsiona a equidade em saúde, beneficiando todas as populações de forma justa e segura.

Promover um ecossistema de IA justo e responsável na saúde é um compromisso que, ao ser efetivamente implementado, poderá transformar o cenário da assistência médica, promovendo uma sociedade onde avanços tecnológicos caminhem lado a lado com o respeito aos direitos de cada paciente.

FONTE: https://jamanetwork.com/journals/jama/fullarticle/2823006?guestAccessKey=56713823-8378-4e10-9ec9-d3bbbc683b1b&utm_source=silverchair&utm_medium=email&utm_campaign=article_alert-jama&utm_content=etoc&utm_term=100124&utm_adv=