CFM regulamenta uso de IA na medicina
Resolução define critérios, classifica sistemas por risco e obriga profissionais a informar pacientes sobre uso da tecnologia
O Conselho Federal de Medicina publicou uma resolução que estabelece as regras para o uso de inteligência artificial na prática médica brasileira. A norma – Resolução nº 2.454/2026 – entra em vigor em 180 dias, e determina que a tecnologia funcione como suporte à decisão clínica, sem substituir o profissional nem restringir sua autonomia.
Diagnóstico, tratamento e prognóstico continuam sob responsabilidade do médico. Cabe ao profissional aceitar ou recusar as recomendações geradas por sistemas automatizados, com base em avaliação ética e técnica. A norma também assegura ao médico o direito de não utilizar ferramentas que careçam de validação científica, certificação regulatória ou que contrariem os princípios legais da medicina.
O que muda para pacientes e hospitais
A resolução torna obrigatória a comunicação ao paciente sempre que a inteligência artificial for empregada como apoio relevante durante o atendimento. A informação deve ser prestada de forma compreensível, e o uso da ferramenta precisa constar no prontuário médico.
Fica vedado que sistemas de IA transmitam diretamente ao paciente diagnósticos, prognósticos ou orientações terapêuticas. A responsabilidade pela comunicação de informações sensíveis permanece com o médico. A norma também proíbe que a tecnologia comprometa a relação entre profissional e paciente, incluindo escuta, empatia, confidencialidade e respeito à dignidade.
O paciente mantém o direito à segunda opinião e à proteção de seus dados pessoais. Intervenções experimentais seguem condicionadas a consentimento específico. Hospitais e clínicas que operem sistemas próprios de IA deverão adotar processos internos de governança e, quando pertinente, constituir uma Comissão de IA e Telemedicina, sob coordenação médica e vinculada à diretoria técnica.
Riscos, responsabilidade e fiscalização
A Resolução nº 2.454/2026 institui uma classificação dos sistemas de IA por grau de risco. Os critérios considerados incluem o impacto sobre direitos fundamentais, o nível de autonomia do modelo, a complexidade das tarefas e a sensibilidade dos dados processados. Todos os dados utilizados no desenvolvimento e na operação dessas ferramentas devem observar a Lei Geral de Proteção de Dados Pessoais (LGPD).
Em relação à responsabilidade, o médico não poderá ser penalizado por falhas atribuíveis aos sistemas de IA, desde que fique demonstrado o uso cuidadoso, crítico e ético da ferramenta. Ainda assim, a responsabilidade pela decisão clínica permanece com o profissional, que deve conhecer as limitações dos sistemas que utiliza. A fiscalização do cumprimento da resolução caberá aos Conselhos Regionais de Medicina.
A norma foi elaborada ao longo de aproximadamente um ano e meio por um grupo de trabalho do CFM composto por conselheiros, pesquisadores e especialistas em informática em saúde. O relator, Jeancarlo Cavalcante, coordenador da Comissão de Inteligência Artificial do CFM, apontou que o Brasil precisava preencher uma lacuna regulatória, diante do avanço de normas semelhantes na União Europeia e em estados norte-americanos.
A publicação responde ao uso crescente de chatbots por pacientes em busca de orientação médica. Estudo divulgado na revista Nature Medicine, conduzido por cientistas da Universidade de Oxford, indicou que participantes identificaram a conduta correta em menos da metade dos casos ao usar ferramentas como o ChatGPT e o Llama para analisar cenários clínicos simulados.
Os comentários não representam a opinião do site; a responsabilidade pelo conteúdo postado é do autor da mensagem.
Comentários (0)