O ChatGPT deixou de ser apenas uma ferramenta generalista de linguagem para assumir um papel cada vez mais estratégico em um dos setores mais sensíveis da sociedade: a saúde. Com o anúncio do ChatGPT Health, a OpenAI formaliza um uso que já vinha acontecendo de maneira espontânea, com pessoas recorrendo à tecnologia para interpretar exames, esclarecer sintomas e buscar informações sobre medicamentos. A diferença agora está no grau de sofisticação e no nível de responsabilidade envolvidos.
IA na Saúde
A proposta do ChatGPT Health é ampliar significativamente esse escopo, permitindo perguntas mais específicas, análise de exames de imagem, integração de dados provenientes de dispositivos e a centralização de informações clínicas hoje distribuídas em diferentes sistemas. Do ponto de vista tecnológico, trata-se de um avanço consistente em engenharia de dados e modelos de linguagem aplicados a contextos críticos. Do ponto de vista ético, porém, a saúde expõe com clareza os limites da inteligência artificial, já que erros nesse campo extrapolam impactos operacionais e atingem diretamente a vida das pessoas.
A aquisição da startup Torch Health pela OpenAI reforça esse direcionamento. A tecnologia da empresa foi desenvolvida para lidar com um desafio estrutural do setor: dados de saúde altamente fragmentados entre hospitais, laboratórios, planos e dispositivos móveis. Tornar essas informações inteligíveis para sistemas de IA pode qualificar diagnósticos, melhorar o acompanhamento de pacientes e favorecer um cuidado mais contínuo. Tecnicamente, a estratégia é coerente. Socialmente, ela recoloca uma questão recorrente quando se fala em IA aplicada a contextos sensíveis: qual é o limite ético do uso dessa tecnologia.
Esse debate se torna ainda mais concreto quando observado à luz de iniciativas regulatórias recentes, como a lei aprovada no estado de Utah, nos Estados Unidos, que autoriza a renovação de receitas médicas por inteligência artificial. Em parceria com a startup Doctronic, o modelo permite que pacientes renovem medicamentos de uso contínuo após responderem a questionários clínicos, com envio direto da prescrição à farmácia em caso de aprovação. Embora restrito a um conjunto específico de medicamentos e com exclusões claras por segurança, o precedente está estabelecido.
O principal argumento a favor desse tipo de solução é o aumento do acesso à saúde. Para pessoas que vivem em regiões afastadas, com escassez de profissionais ou longos tempos de espera, a tecnologia pode representar uma alternativa concreta quando a opção anterior era nenhuma. Como observa Aydamari Faria-Jr no artigo Inteligência artificial como (mais) uma habilidade médica, indivíduos sem acesso efetivo ao sistema de saúde ou que tiveram experiências negativas com profissionais despreparados podem se beneficiar desses serviços, já que o parâmetro de comparação é o “nada”. Mesmo com uma taxa de erro relevante, o mercado entende que o saldo tende a ser positivo.
Podemos confiar?
O risco do viés de automação surge como um dos principais limites do uso da inteligência artificial na saúde. Sistemas desse tipo tendem a produzir respostas coerentes e plausíveis, o que favorece a confiança excessiva por parte dos usuários. O problema não está apenas na possibilidade de erro, mas no fato de que ele pode passar despercebido justamente porque a resposta parece correta. A saúde tende a ser um dos campos mais impactados por esse fenômeno.
No Brasil, essa discussão ganha contornos próprios. O país reúne um sistema público de saúde nacional, desigualdades regionais profundas e uma legislação robusta de proteção de dados. A adoção de soluções baseadas em inteligência artificial levanta questionamentos sobre soberania de dados, integração com o SUS e o papel da tecnologia como apoio à decisão médica, e não como sua substituição. Há potencial para uso em triagem, educação em saúde, acompanhamento de doenças crônicas e suporte a profissionais sobrecarregados, mas esse avanço depende também do letramento digital da população para que a tecnologia não se transforme em mais um fator de exclusão.




