
O lançamento do ChatGPT Health, ferramenta da OpenAI voltada a dúvidas sobre saúde, tem provocado debates entre médicos, especialistas em inteligência artificial e profissionais do direito. A plataforma foi disponibilizada no início de janeiro e permite que usuários consultem informações relacionadas a sintomas, exames e condições de saúde.
Segundo a OpenAI, o ChatGPT Health tem finalidade exclusivamente informativa e educacional, não sendo destinado ao diagnóstico ou tratamento médico, nem à substituição de consultas com profissionais de saúde. A empresa afirma que o recurso pode auxiliar usuários a organizar questionamentos e compreender informações antes de conversar com médicos.
O Conselho Federal de Medicina afirmou que a ferramenta pode ser utilizada como apoio informativo, desde que não substitua avaliação clínica, julgamento profissional ou responsabilidade médica. A entidade reforça que decisões clínicas devem permanecer sob atribuição exclusiva de profissionais habilitados.
Especialistas em assistência médica apontam limitações técnicas do uso de inteligência artificial nesse contexto. Médicos destacam que o diagnóstico clínico depende de fatores como anamnese detalhada, exame físico e acompanhamento da evolução do paciente, elementos que não podem ser plenamente reproduzidos por sistemas automatizados.
Representantes do setor de inovação em saúde também alertam que respostas geradas por IA podem levar a interpretações imprecisas de sintomas ou exames, já que o sistema não possui acesso ao histórico clínico completo do paciente nem realiza avaliações presenciais. Outro ponto levantado é a dificuldade de atribuição de responsabilidade em casos de eventuais erros, uma vez que ferramentas de IA não respondem juridicamente da mesma forma que profissionais de saúde.
A OpenAI informou que o ChatGPT Health foi treinado com a colaboração de mais de 260 médicos de 60 países, que forneceram centenas de milhares de avaliações para aprimorar o modelo. Diferentemente da versão aberta do ChatGPT, a empresa afirma que o treinamento da ferramenta de saúde ocorreu em ambiente controlado, sem uso de dados das conversas dos usuários.
No Brasil, o uso do ChatGPT Health exige consentimento explícito para tratamento de dados sensíveis, em conformidade com a legislação de proteção de dados. Ainda assim, especialistas em direito digital apontam discussões sobre soberania e armazenamento de informações de saúde por empresas estrangeiras, especialmente diante de legislações internacionais que permitem requisições governamentais de dados.
Apesar das restrições, pesquisadores e profissionais de tecnologia avaliam que a ferramenta pode ter utilidade em contextos onde o acesso a serviços médicos é limitado, ao fornecer informações básicas e auxiliar na compreensão inicial de questões de saúde. A OpenAI informou que o ChatGPT Health está sendo liberado de forma gradual para grupos restritos de usuários, sem previsão de acesso ampliado no Brasil no curto prazo.