A Inteligência Artificial no Diagnóstico Médico
- Paulla Bittencourt
- há 5 dias
- 2 min de leitura
1. A IA na Prática Médica e Seus Desafios
A IA capacita sistemas a executar tarefas que exigem inteligência humana, como aprendizado e raciocínio, ampliando a capacidade diagnóstica do médico. Contudo, sistemas avançados de IA operam como uma "caixa-preta", onde o processo decisório interno é opaco. Essa opacidade dificulta a aferição de "defeito" no produto ou falha na interpretação do profissional, tornando a apuração de nexo de causalidade e culpa um desafio jurídico.
2. Insuficiência do Paradigma Tradicional de Responsabilidade Civil
A responsabilidade civil médica no Brasil é historicamente subjetiva, baseada na culpa (negligência, imprudência, imperícia) e na obrigação de meio (Art. 951 CC, Art. 14, § 4º CDC). Esse modelo, focado na decisão humana individual, é inadequado para a medicina algorítmica. A teoria da perda de uma chance, aplicada em erros de diagnóstico, torna-se mais complexa com a IA, pois a origem da falha causal (médico ou algoritmo) se torna nebulosa.
3. Pulverização da Responsabilidade na Cadeia da IA
A responsabilidade em casos de erro diagnóstico mediado por IA deve ser pulverizada entre os agentes envolvidos. O médico mantém a responsabilidade, com deveres de curadoria tecnológica (escolha de sistemas validados) e vigilância epistêmica (análise crítica das sugestões do algoritmo), mantendo a soberania da decisão final. As instituições de saúde (hospitais/clínicas) têm responsabilidade objetiva (Art. 14 CDC) por culpa in eligendo (má escolha da tecnologia) e culpa in vigilando (falha em treinamento ou protocolos). O desenvolvedor do software de IA é um fornecedor, com responsabilidade objetiva pelo fato do produto (Art. 12 e 13 CDC) por defeitos de segurança, informação ou concepção, com o ônus da prova recaindo sobre ele. Para proteger a vítima, a responsabilidade solidária entre médico, instituição e desenvolvedor (Art. 7º, parágrafo único, e Art. 25, § 1º CDC) é a melhor solução, permitindo posterior discussão de regresso.
4. Desafios Regulatórios e a Urgência de um Marco Normativo
O Brasil carece de legislação específica para IA na saúde, gerando insegurança jurídica. É crucial que o Conselho Federal de Medicina (CFM) emita resoluções sobre a conduta ética e técnica dos médicos no uso da IA. A Agência Nacional de Vigilância Sanitária (ANVISA) precisa aprimorar a certificação de softwares médicos (Software as a Medical Device - SaMD) baseados em IA, exigindo estudos rigorosos e vigilância pós-comercialização. Além disso, a Lei Geral de Proteção de Dados (LGPD - Lei nº 13.709/2018) impõe rigorosa proteção aos dados sensíveis de saúde usados no treinamento de IA, exigindo conformidade para evitar sanções e danos morais.
Conclusão
A IA no diagnóstico médico é um avanço promissor, mas desafia os paradigmas tradicionais de responsabilidade civil. A pulverização da responsabilidade, com solidariedade para proteção do paciente, é essencial. É urgente um marco regulatório, com atuação do Legislativo e dos órgãos reguladores (CFM, ANVISA), e conformidade com a LGPD. A IA deve ser uma aliada, mas a decisão final, a empatia e a responsabilidade ética devem permanecer com o profissional de saúde, garantindo o bem-estar do paciente.

Comentários