Encontre matérias e conteúdos da Gazeta do Povo
Artigo

Implicações da IA na medicina: ChatGPT já faz diagnósticos e é aprovado para residência médica

Inteligência Artificial
É inegável que a Inteligência Artificial seja, talvez, o avanço tecnológico mais importante desde os smartphones ou a internet comercial. (Foto: Gerd Altmann/Pixabay. )

Ouça este conteúdo

No dia 29 de março de 2023, médicos do departamento de neurocirurgia em três hospitais dos Estados Unidos publicaram estudo atestando que o ChatGPT-3 e o ChatGPT-4 são capazes de passar na prova de residência médica em cirurgia neurológica. Um mês antes, o ChatGPT-3 acertou 60% das questões do exame nacional de licenciamento médico nos Estados Unidos (USMLE, na sigla em inglês). Em ambos os estudos a ideia era verificar o potencial da Inteligência Artificial para auxiliar na educação médica e na tomada de decisões clínicas. Mas quais são as implicações dessa novidade para a profissão médica?

Para entender melhor o funcionamento dessa ferramenta, fiz um teste pessoal. Digitei: “meu pai de 70 anos está com náuseas e vômitos. O lado direito de seu corpo está começando a parecer fraco e ele tem dificuldade crescente para falar e compreender a linguagem. Os sintomas começaram com apenas fala arrastada leve, antes de progredir por vários minutos para dificuldade severa para falar e paralisia do braço direito. O que provavelmente está causando seus sintomas?”. A resposta foi certeira: um possível acidente vascular cerebral (AVC), também conhecido como derrame. A IA também sugeriu que procurássemos ajuda médica o quanto antes.

O ChatGPT é uma tecnologia ainda em evolução, mas que traz algumas perspectivas interessantes para o futuro. O que não podemos é ter expectativas em excesso.

O ChatGPT demonstra uma interessante aplicação no apoio à triagem de pacientes com base em seus sintomas, histórico médico e outros fatores. Isso pode ajudar a identificar problemas de saúde mais cedo e encaminhar tempestivamente pacientes para tratamento médico adequado. Esse seria, sem dúvida, um avanço significativo frente ao uso atual do Google e de verificadores de sintomas online e triagem de pacientes, o que pode ser especialmente proveitoso em regiões remotas ou com pouco acesso a serviços de saúde.

Além disso, o auxílio de ferramentas como o ChatGPT pode ser, em certa medida, bem-vinda para a própria atividade médica, no campo do diagnóstico, prognóstico e propostas de tratamento. Nesse sentido, importante levar em conta a impossibilidade de um médico se manter atualizado com os inúmeros estudos e descobertas científicas divulgados diariamente.

Contudo, é essencial ter um olhar crítico para as bases de dados utilizadas por essas tecnologias. Em pesquisa recente, realizada na Universidade de Cambridge, na Inglaterra, constatou-se que a grande maioria dos algoritmos de IA utilizados no setor da saúde é treinada em amostras de dados pequenas e de origem única, com diversidade populacional limitada. O resultado é um algoritmo altamente preciso em um estudo, mas que não funciona no mesmo nível quando exposto às variáveis do mundo real, com diferentes tipos de pacientes e em diversas localidades. No caso do ChatGPT, embora a base de dados seja gigantesca, a IA pode refletir a linguagem e o comportamento humanos, possivelmente reproduzindo preconceitos e estereótipos existentes na área da saúde, como a discriminação racial ou de gênero, ou a perpetuação de crenças equivocadas sobre certas condições de saúde.

Os deveres de conduta médica devem ser ressignificados periodicamente, a partir da nova realidade posta à prática médica com o arcabouço tecnológico.

Em evento acadêmico realizado no dia 20 de março, pela Faculdade de Medicina da USP, grandes especialistas debateram sobre os benefícios, riscos e desafios do ChatGPT aplicado no sistema de saúde brasileiro. Para o professor Chao Lung Wen, há oito reflexões a serem ponderadas neste cenário: i) a base de dados utilizada (geral ou dados indexados); ii) a periodicidade de atualizações (o modelo atual – ChatGPT-4 – lançado em março de 2023 foi programado em dados coletados até setembro de 2022); iii) critérios de inclusão e exclusão de dados; iv) avaliação periódica de resultados (auditoria); v) checagem de nível de precisão; vi) saber como fazer as perguntas; vii) definição das responsabilidades nas tomadas de decisões; viii) definição das finalidades: profissionais ou gerais (população).

Um ponto que merece especial atenção é a validação das informações: o ChatGPT sofre “alucinação”, ou seja, às vezes reproduz fatos e informações que não existem, como citações acadêmicas. Então, vamos pensar o seguinte: Se um médico discordar do resultado da IA, como isso afetará as interações entre pacientes e médicos? Quais os problemas jurídicos advindos da discordância homem-máquina? Apesar dessas incertezas, parece que o futuro do diagnóstico assistido pela IA é uma tendência, e os sistemas de saúde e profissionais da medicina precisarão refletir sobre como enfrentar esses desafios.

Deve-se promover um futuro no qual a IA tenha a função primordial de auxiliar, ao invés de substituir médicos e enfermeiros, havendo sempre um lugar para que especialistas verifiquem a precisão das recomendações algorítmicas e avaliem o quão bem elas funcionam no mundo real. O julgamento profissional e o diagnóstico clínico final não podem ser automatizados, pois haverá situações nas quais o médico, por razões sólidas/científicas não deverá seguir a recomendação do algoritmo. Nesse sentido, destaca-se a proteção da autonomia humana como um dos principais princípios éticos da IA na Medicina, tal como consignado nas diretrizes de 2021 da Organização Mundial da Saúde. Inclusive, a Associação Médica Mundial utiliza o termo “Inteligência Aumentada” como substituição à conceituação “Inteligência Artificial”, a fim de ressaltar o papel assistivo da tecnologias, ou seja, ela aprimora a inteligência dos profissionais da saúde, ao invés de substituí-la.

A Associação Médica Americana, em recente publicação de um estudo desenvolvido sobre os desafios da IA nos cuidados de saúde, estabelece diretrizes com 3 questionamentos para que o médico avalie se deve utilizar (ou continuar usando) um algoritmo na sua prática clínica: 1) A IA funciona? (A tecnologia é segura e efetiva, possuindo evidências científicas e respeitando princípios éticos?); 2) A IA funciona para meus pacientes? (A validação do algoritmo ocorreu em um cenário populacional e de saúde que reflete a minha prática clínica? Eu possuo no local onde atuo os recursos, a infraestrutura e a capacitação/treinamento para implementar a tecnologia de maneira ética? Está sendo realizado por mim, bem como pela instituição de saúde, o monitoramento contínuo do desempenho da IA, para, eventualmente, comunicar ao desenvolvedor/fabricante as mudanças no desempenho? A IA tem aprimorado o atendimento e melhorado o meu relacionamento com os pacientes?); 3) a IA melhora os resultados clínicos? (A IA demonstra um impacto positivo nos desfechos de saúde, minimizando os danos aos meus pacientes? Os diagnósticos, prognósticos e propostas de tratamento são mais eficientes com o apoio da tecnologia?).

As circunstâncias da atividade médica têm sido sensivelmente modificadas com o implemento de sistemas de IA, razão pela qual os deveres de conduta médica devem ser ressignificados periodicamente, a partir da nova realidade posta à prática médica com o arcabouço tecnológico. De acordo com a proposta do professor norte-americano Frank Pasquale de “parametrização dos deveres informados baseados em dados” (data informed duties) na utilização de sistemas autônomos, o médico, como operador front-end do sistema autônomo, deve cumprir alguns cuidados. Primeiro, na escolha da tecnologia; segundo, no acompanhamento adequado; e terceiro, nas verificações de segurança e reparos. Cabe, ainda, ao médico interromper o uso da tecnologia caso perceba que ela não agrega valor ou traz resultados constantemente equivocados.

Em suma, o ChatGPT é uma tecnologia ainda em evolução, mas que traz algumas perspectivas interessantes para o futuro. O que não podemos é ter expectativas em excesso. Os profissionais devem aproveitar de forma correta o potencial transformador da tecnologia, seguindo princípios éticos e deveres de conduta, o que resulta em cuidados de saúde mais eficientes e, ao mesmo tempo, sem comprometimento da humanização da Medicina.

Rafaella Nogaroli é assessora no Tribunal de Justiça do Estado do Paraná, mestre em Direito pela Universidade Federal do Paraná, coordenadora do curso de especialização em Direito Médico e Bioética da EBRADI e autora do livro “Responsabilidade Médica na Inteligência Artificial: culpa médica e deveres de conduta no séc. XXI”.

Use este espaço apenas para a comunicação de erros

Principais Manchetes

Receba nossas notícias NO CELULAR

WhatsappTelegram

WHATSAPP: As regras de privacidade dos grupos são definidas pelo WhatsApp. Ao entrar, seu número pode ser visto por outros integrantes do grupo.