top of page

Médica e Saúde

  • Whatsapp
  • Instagram
  • Facebook
  • Linkedin

A responsabilidade jurídica no uso da inteligência artificial na medicina.

  • Foto do escritor: Ricardo Romano
    Ricardo Romano
  • 29 de jan.
  • 8 min de leitura

Braço robótico em um laboratório segurando um recipiente de exame de sangue.
Braço robótico movido por Inteligência Artificial


Resumo: A integração entre inteligência artificial e medicina vem proporcionando avanços significativos em diagnósticos e tratamentos. Aliada a essa evolução, importantes questões jurídicas, principalmente no que diz respeito a esfera da responsabilidade, vem sendo trazidas ao debate. Diante disso, este artigo tem como objetivo examinar as implicações legais do uso da inteligência artificial  na prática médica, analisando a cadeia de responsabilidade que envolve desenvolvedores, fornecedores e médicos. A ideia é oferecer uma visão dos desafios e perspectivas que surgirão no contexto do direito médico.


Palavras-chave: Inteligência Artificial, Direito Médico, Responsabilidade Jurídica, Ética Médica, Cadeia de Responsabilidade.


1.      Introdução;


O avanço tecnológico, no campo da medicina é enorme, com a inteligência artificial emergindo como uma das inovações mais transformadoras. Através de algoritmos sofisticados e aprendizado, as redes neurais têm a capacidade de processar grandes volumes de dados, identificar padrões complexos e fornecer recomendações que podem auxiliar médicos em diagnósticos, prognósticos e tratamentos. Aplicações como sistemas de apoio à decisão clínica, análise de imagens médicas e até mesmo robôs cirúrgicos são exemplos de como a inteligência artificial está sendo incorporada.


Entretanto, a introdução dessa tecnologia no ambiente clínico não ocorre sem desafios, especialmente no que diz respeito à responsabilidade jurídica. Diferente das ferramentas tradicionais, a inteligência artificial possui um grau de autonomia e capacidade de aprendizado que pode complicar a atribuição de responsabilidade de danos decorrentes na prestação de serviços de saúde. A responsabilidade jurídica no seu uso na área médica envolve uma complexa inter-relação entre desenvolvedores, fornecedores e médicos, cada um com papéis distintos, mas interdependentes.


Em resumo, os desenvolvedores de sistemas são responsáveis pela criação e manutenção dos algoritmos, assegurando que eles sejam precisos, seguros e livres de vieses. Qualquer falha no software que resulte em dano ao paciente pode gerar a responsabilidade civil ou até penal dos desenvolvedores.


Por sua vez, os fornecedores, que atuam como intermediários entre os desenvolvedores e os médicos, têm a responsabilidade de garantir que a tecnologia entregue esteja em conformidade com as normas regulatórias e que os profissionais de saúde sejam devidamente treinados para utilizá-la, podendo sua falha resultar em responsabilidade pelos danos causados.


Já os médicos, são os usuários finais e detêm a responsabilidade ética e legal de supervisionar e validar as decisões sugeridas pela tecnologia. Mesmo que ela auxilie no processo de tomada de decisão, a responsabilidade final recai sobre o médico, que deve exercer seu julgamento clínico para garantir a segurança e o bem-estar do paciente.


Vê-se, que o novo paradigma tecnológico desafia as normas tradicionais de responsabilidade, exigindo uma reavaliação das práticas jurídicas e éticas no contexto da medicina.


Aliado a isso, temos a falta de uma regulamentação específica sobre o uso da inteligência artificial na saúde no Brasil, adicionando uma camada de complexidade, forçando a adaptação das leis existentes e a criação de novos marcos regulatórios.


Nesse contexto, necessário explorar as diversas facetas da responsabilidade jurídica no uso da inteligência artificial na medicina, discutindo as obrigações e desafios enfrentados por cada agente envolvido, fornecendo uma análise abrangente das implicações legais e éticas, contribuindo para um melhor entendimento das responsabilidades compartilhadas e das potenciais soluções jurídicas para essa nova realidade tecnológica.


2.      Metodologia;


Como método de estudo para apuração dos graus de responsabilidade de cada profissional na aplicação da inteligência artificial na área médica, fez-se necessário a análise de várias normas. Isto, pois, ainda não há uma legislação específica que trate diretamente da inteligência artificial aplicada à medicina. Assim, vejamos.


A Lei Geral de Proteção de Dados (Lei nº 13.709/2018) regula o tratamento de dados pessoais, incluindo dados sensíveis de saúde, que são frequentemente utilizados por sistemas de inteligência artificial em medicina. Ela estabelece princípios e obrigações para a coleta, armazenamento, processamento e compartilhamento de dados, o que é crucial para a segurança e privacidade dos pacientes.


O  Marco Civil (Lei nº 12.965/2014), estabelece princípios e direitos que se aplicam ao uso de tecnologias digitais, incluindo a inteligência artificial. Ele garante a proteção da privacidade e dos dados pessoais, o que é relevante para o desenvolvimento e a aplicação de sistemas na medicina.


O Código de Defesa do Consumidor (Lei nº 8.078/1990) deve ser aplicado, indiretamente, ao uso da inteligência artificial na saúde, especialmente em relação à responsabilidade por produtos e serviços, o que inclui softwares e dispositivos médicos.


A Resolução RDC nº 185/2001 da Anvisa, regula o registro de produtos médicos no Brasil, incluindo softwares que podem ser considerados como produtos médicos. As inteligências artificiais que são utilizadas para diagnósticos ou tratamentos precisam ser registradas na Anvisa, assegurando que cumpram normas de segurança e eficácia.


O Código de Ética Médica, define diretrizes éticas para a prática médica, incluindo o uso de novas tecnologias. Assim, médicos que utilizam inteligência artificial devem seguir esses princípios, garantindo que a tecnologia não substitua o julgamento clínico e seja usada de forma responsável.


3.      Discussão;


A inteligência artificial é usada para analisar grandes volumes de dados, identificar padrões e fazer previsões que auxiliam os médicos na tomada de decisões.  A responsabilidade jurídica no uso da inteligência artificial pode ser dividida entre desenvolvedores, fornecedores e médicos.


3.1.  Dos desenvolvedores;


A responsabilidade jurídica dos desenvolvedores de inteligência artificial  na medicina envolve a criação, manutenção e atualização dos sistemas usados. Ela é essencial, pois qualquer falha (erros de programação, bugs, vieses) nos algoritmos pode causar graves danos aos pacientes.


O artigo 927º do código civil obriga a reparação daquele que, por ato ilícito, causar dano a outrem. Assim, caso o software lese o paciente podemos considerar o ilícito, se decorrido de uma falha no software ou negligência na sua criação ou atualização.


 No código de defesa do consumidor, há uma responsabilidade objetiva dos danos causados aos pacientes, por defeitos decorrentes de projeto, fabricação, construção, montagem, fórmulas ou manipulação dos produtos, bem como por informações insuficientes ou inadequadas sobre sua utilização e riscos (artigo 12º).


Em seu turno, a RDC nº. 185/2001 exige que os desenvolvedores realizem testes rigorosos e forneçam documentação que comprove a segurança e eficácia do software médico antes que seja comercializado ou utilizado. O não cumprimento dessa norma resulta em sanções administrativas e poderá ser utilizado como prova de negligência em ações judiciais.


Lembrando que, os desenvolvedores devem se atentar a lei geral de proteção de dados que impõe obrigações no que diz respeito ao tratamento de dados pessoais de saúde, já que a inteligência artificial lida com dados sensíveis.


3.2.  Dos fornecedores;


O fornecedor de inteligência artificial, como intermediário entre os desenvolvedores e os usuários finais, é responsável por assegurar que as tecnologias entregues sejam seguras, eficazes e em conformidade legal.


Sua responsabilidade é regida, principalmente, pelo código de defesa do consumidor. Como no caso dos desenvolvedores, o artigo 12º do diploma se aplica. Neste sentindo, se um software ou dispositivo distribuído causar danos ao paciente devido a um defeito ou falha, pode ele ser responsabilizado civilmente, mesmo que tenha agido com diligência na entrega do produto.


É também, de sua responsabilidade, conforme o artigo 14º do código consumerista, os defeitos no produto ou na prestação de serviços associados, como suporte técnico inadequado ou falhas em treinamentos oferecidos.


Há, também, o dever legal de dar informações claras, precisas e adequadas sobre os produtos, incluindo instruções de uso, limitações e potenciais riscos. 


Não menos importante, deve-se garantir que os produtos estejam em conformidade com as normas técnicas e regulamentações estabelecidas pelas autoridades de saúde, como a Agência Nacional de Vigilância Sanitária que exige ser assegurado que os produtos cumpram os requisitos de segurança e eficácia.


Se a utilização de uma tecnologia resultar em dano ao paciente, o fornecedor pode ser acionado judicialmente para indenizar a vítima pela reparação de danos materiais ou morais.


3.3.  Dos Médicos;


Suas responsabilidades são fundamentadas no dever de diligência, prudência e perícia. Os médicos devem aplicar seus conhecimentos, buscando sempre o melhor para o paciente. Por isso, a utilização da inteligência artificial deve ser um complemento, e não um substituto do julgamento clínico.


Confiar em uma recomendação feita por inteligência artificial, sem realizar a devida análise, resultando em dano ao paciente, responderá o médico nos moldes do artigo do artigo 186º ou 951º do código civil.


Já, o código de ética médica, em seu artigo 1º, veda o médico de causar dano ao paciente, por ação ou omissão, caracterizado como imperícia, imprudência ou negligência. Assim, ao utilizar-se da tecnologia, o médico deve garantir que a prática não comprometa o paciente.

Junto a isso, o artigo 22º proíbe a não utilização de todos os meios disponíveis de diagnóstico e tratamento cientificamente reconhecidos ao seu alcance, em favor do paciente. Neste contexto, a tecnologia pode ser considerada, mas sua utilização deve ser feita de forma responsável e ética, sempre com o consentimento do paciente.


A lei geral de proteção de dados é relevante, no que diz ao processamento de dados pessoais, incluindo informações de saúde dos pacientes. Por isso, seu artigo 7º estabelece que o médico deve obter o consentimento para utilização de dados e o artigo 6º impõe a ele proteger contra acessos não autorizados e vazamentos.


Em alguns casos, a responsabilidade médica é solidária com o desenvolvedor ou fornecedor,  em caso de negligência compartilhada, como dispõe o artigo 7º do código de defesa do consumidor.


A responsabilidade do médico na utilização da inteligência artificial é multifacetada, envolvendo aspectos civis e éticos, devendo ele usá-la, sempre, de maneira complementar.


4. Conclusão;


A responsabilidade jurídica entre fornecedor, desenvolvedor e médico no uso da inteligência artificial na medicina é uma questão complexa que envolve aspectos legais e éticos. Cada ator nesta cadeia desempenha um papel crucial na garantia da segurança e eficácia das tecnologias aplicadas à saúde, e suas responsabilidades se interligam de maneira que a falha de um pode impactar diretamente os demais, bem como os pacientes.


Os desenvolvedores, têm a obrigação de garantir que seus produtos sejam seguros, eficazes e em conformidade com as normas legais. Eles devem adotar práticas de desenvolvimento rigorosas e realizar testes para minimizar riscos. Em caso de defeitos ou falhas, a responsabilidade jurídica dos desenvolvedores pode ser acionada com base no código de defesa do consumidor e código civil, que impõe a responsabilidade objetiva por danos causados por produtos defeituosos.


Os fornecedores, devem garantir que os produtos estejam em conformidade com as regulamentações e que as informações sejam claras e precisas. Eles também devem garantir a qualidade do suporte técnico e do treinamento oferecido aos médicos. A responsabilidade dos fornecedores também é objetiva.


O médico, por sua vez, deve utilizar a inteligência artificial de maneira ética e crítica, integrando as recomendações geradas em seu julgamento clínico. Sua responsabilidade se baseia no dever de diligência e prudência, sendo responsável por garantir que a inteligência artificial seja utilizada de forma a não comprometer a saúde do paciente. Tanto o código civil, como o código de ética médica, estabelecem que o médico pode ser responsabilizado por negligência, imprudência ou imperícia no uso da inteligência artificial.


Por fim, há em tramitação no Congresso Nacional, o projeto de lei nº 21/2020 sobre inteligência artificial, que estabelece diretrizes para o desenvolvimento e a aplicação da inteligência artificial no Brasil, incluindo princípios éticos e de responsabilidade na área médica.

 

Referências Bibliográficas:

BRASIL. Lei nº 12.965, de 23 de abril de 2014. Marco Civil da Internet.

BRASIL. Lei nº 8.078, de 11 de setembro de 1990. Código de Defesa do Consumidor.

BRASIL. Resolução nº 466, de 12 de dezembro de 2012. Conselho Nacional de Saúde.

BRASIL. Resolução RDC nº 185, de 22 de outubro de 2001. Agência Nacional de Vigilância Sanitária.

BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais.

Conselho Federal de Medicina. Resolução CFM nº 2.217/2018. Brasília: CFM; 2019.


 
 
 

Posts recentes

Ver tudo

Comentários


bottom of page