IA na medicina e a resolução do Cremers: avanço ou retrocesso?

A recente Resolução 6/25, publicada pelo Conselho Regional de Medicina do Estado do Rio Grande do Sul (Cremers), trata do uso de inteligência artificial na medicina e impõe aos médicos uma série de condições para sua adoção. O texto, embora louvável ao reconhecer a relevância da IA na prática médica, levanta questionamentos importantes quanto à sua precisão técnica, compatibilidade normativa e impacto sobre a inovação em saúde.

A resolução determina que a IA seja utilizada “apenas como ferramenta auxiliar”, vedando expressamente que substitua a anamnese ou o julgamento clínico do médico.

Com notícias da Anvisa e da ANS, o JOTA PRO Saúde entrega previsibilidade e transparência para empresas do setor

Além disso, exige que os profissionais validem previamente os sistemas utilizados e que as empresas fornecedoras disponibilizem “dados de treinamento” e “algoritmos utilizados”. Dispositivos assim, à primeira vista bem-intencionados, merecem análise atenta. Estamos, de fato, garantindo segurança ou impondo obstáculos mal calibrados?

Competência regulatória e fragmentação normativa

Um primeiro aspecto que merece atenção é a delimitação das competências regulatórias. A resolução parece extrapolar o escopo de atuação de um conselho regional ao estabelecer exigências técnicas que, tradicionalmente, cabem à Anvisa, autoridade sanitária responsável pela regulação de softwares como dispositivos médicos (SaMD) no Brasil. Desde a publicação da RDC 657/22, soluções de IA já devem ser submetidas a critérios formais de avaliação de risco, segurança e desempenho clínico.

Ao exigir que médicos analisem algoritmos ou bases de dados de treinamento, o Cremers introduz obrigações que vão além da formação médica típica e potencialmente colidem com marcos já existentes. Estaria o conselho regional assumindo um papel que não lhe compete?

A consequência é a fragmentação normativa: um cenário confuso, que desestimula o uso de tecnologias inovadoras e compromete a clareza das obrigações regulatórias. Regular IA em saúde não é tarefa de um ator só, exige articulação institucional e diálogo técnico qualificado.

Validação prévia pelo médico: uma responsabilidade mal atribuída?

Outro ponto sensível é a imposição ao médico da responsabilidade por “validar previamente” os sistemas de IA antes de sua utilização. A intenção, sem dúvida, é nobre: proteger o paciente. Mas será que estamos exigindo do médico algo para o qual ele foi tecnicamente preparado?

A regulação de sistemas de IA já é detalhadamente tratada pela Anvisa, inclusive com exigência de documentação técnica, evidências clínicas e processos de certificação. Ao atribuir ao médico uma função que deveria ser de fabricantes e reguladores, corre-se o risco de desincentivar o uso dessas ferramentas ou de expor o profissional a responsabilidades que não pode cumprir com segurança técnica ou jurídica.

No fim, a escolha do médico pode se reduzir a dois caminhos igualmente preocupantes: abrir mão de inovações úteis ou assumir riscos desproporcionais. Estamos, de fato, protegendo o paciente ou afastando dele soluções que poderiam beneficiá-lo?

Privacidade, explicabilidade e equidade: desafios pouco explorados

A resolução toca, ainda que brevemente, em temas como transparência nos dados de treinamento. No entanto, deixa de avançar sobre pontos fundamentais, como a mitigação de vieses algorítmicos, a explicabilidade das decisões automatizadas e a validação em populações diversas.

Num país marcado por profundas desigualdades, ignorar essas dimensões compromete não apenas a eficácia da tecnologia, mas sua justiça. A ética no uso da IA não se resume ao consentimento informado ou à supervisão médica genérica. Exige governança contínua, auditoria independente e inclusão desde a concepção dos sistemas.

IA na medicina: oportunidade para diálogo (ainda em aberto)

A resolução poderia ter sido um passo relevante rumo a uma regulação mais sensível e conectada à prática médica. Em vez disso, parece refletir uma tentativa isolada de disciplinar um tema complexo e que demanda respostas articuladas entre conselhos profissionais, autoridades sanitárias, especialistas em tecnologia e sociedade civil.

Afinal, queremos uma medicina que rejeite a tecnologia por medo ou que a abrace com responsabilidade?

Regular IA em saúde não é só evitar riscos. É, acima de tudo, garantir que os benefícios dessa revolução tecnológica cheguem aos pacientes de forma segura, equitativa e ética. Para isso, o debate precisa sair dos muros institucionais e ser construído de forma plural e coordenada.

Generated by Feedzy