top of page

A Inteligência Artificial no Diagnóstico Médico

  • Foto do escritor: Paulla Bittencourt
    Paulla Bittencourt
  • há 5 dias
  • 2 min de leitura

1. A IA na Prática Médica e Seus Desafios

A IA capacita sistemas a executar tarefas que exigem inteligência humana, como aprendizado e raciocínio, ampliando a capacidade diagnóstica do médico. Contudo, sistemas avançados de IA operam como uma "caixa-preta", onde o processo decisório interno é opaco. Essa opacidade dificulta a aferição de "defeito" no produto ou falha na interpretação do profissional, tornando a apuração de nexo de causalidade e culpa um desafio jurídico.


2. Insuficiência do Paradigma Tradicional de Responsabilidade Civil

A responsabilidade civil médica no Brasil é historicamente subjetiva, baseada na culpa (negligência, imprudência, imperícia) e na obrigação de meio (Art. 951 CC, Art. 14, § 4º CDC). Esse modelo, focado na decisão humana individual, é inadequado para a medicina algorítmica. A teoria da perda de uma chance, aplicada em erros de diagnóstico, torna-se mais complexa com a IA, pois a origem da falha causal (médico ou algoritmo) se torna nebulosa.


3. Pulverização da Responsabilidade na Cadeia da IA

A responsabilidade em casos de erro diagnóstico mediado por IA deve ser pulverizada entre os agentes envolvidos. O médico mantém a responsabilidade, com deveres de curadoria tecnológica (escolha de sistemas validados) e vigilância epistêmica (análise crítica das sugestões do algoritmo), mantendo a soberania da decisão final. As instituições de saúde (hospitais/clínicas) têm responsabilidade objetiva (Art. 14 CDC) por culpa in eligendo (má escolha da tecnologia) e culpa in vigilando (falha em treinamento ou protocolos). O desenvolvedor do software de IA é um fornecedor, com responsabilidade objetiva pelo fato do produto (Art. 12 e 13 CDC) por defeitos de segurança, informação ou concepção, com o ônus da prova recaindo sobre ele. Para proteger a vítima, a responsabilidade solidária entre médico, instituição e desenvolvedor (Art. 7º, parágrafo único, e Art. 25, § 1º CDC) é a melhor solução, permitindo posterior discussão de regresso.


4. Desafios Regulatórios e a Urgência de um Marco Normativo

O Brasil carece de legislação específica para IA na saúde, gerando insegurança jurídica. É crucial que o Conselho Federal de Medicina (CFM) emita resoluções sobre a conduta ética e técnica dos médicos no uso da IA. A Agência Nacional de Vigilância Sanitária (ANVISA) precisa aprimorar a certificação de softwares médicos (Software as a Medical Device - SaMD) baseados em IA, exigindo estudos rigorosos e vigilância pós-comercialização. Além disso, a Lei Geral de Proteção de Dados (LGPD - Lei nº 13.709/2018) impõe rigorosa proteção aos dados sensíveis de saúde usados no treinamento de IA, exigindo conformidade para evitar sanções e danos morais.


Conclusão

A IA no diagnóstico médico é um avanço promissor, mas desafia os paradigmas tradicionais de responsabilidade civil. A pulverização da responsabilidade, com solidariedade para proteção do paciente, é essencial. É urgente um marco regulatório, com atuação do Legislativo e dos órgãos reguladores (CFM, ANVISA), e conformidade com a LGPD. A IA deve ser uma aliada, mas a decisão final, a empatia e a responsabilidade ética devem permanecer com o profissional de saúde, garantindo o bem-estar do paciente.

 
 
 

Comentários


© 2035 por Paulla Bittencourt

  • Whatsapp
  • Ícone do LInkedin Branco
  • Instagram

Email: paullafb.adv@gmail.com

Tel Fixo: (32) 3217-0785

Whatsapp: (32) 99810-8189

 R. Santo Antônio, 990 - Salas 505 a 509- Centro, Juiz de Fora - MG, 36016-210

bottom of page