Anvisa atualiza recomendações sobre uso de máscaras em serviços de saúde

QUEM VAI PAGAR PELOS ERROS MÉDICOS DA INTELIGÊNCIA ARTIFICIAL?

A Acne Melhora Sozinha?
27/02/2024
Conheça o DrAssist
07/03/2024
A Acne Melhora Sozinha?
27/02/2024
Conheça o DrAssist
07/03/2024

Com o avanço das aplicações que possuem recursos de inteligência artificial (IA) crescem também as discussões sobre a regulamentação dos serviços que usam esses algoritmos, principalmente nas áreas de saúde e jurídica.

No caso da saúde, se o médico tomar uma decisão com base em recomendação da IA e o paciente tiver uma lesão ou morrer, as responsabilidades podem se estender também ao hospital e aos fornecedores dos equipamentos e softwares.

Recursos como gestão da governança nos hospitais, transparência com o uso da IA, autonomia do paciente – e até que ponto ele deve ser informado do uso da tecnologia em seu diagnóstico e tratamento – são algumas das questões em análise que podem ser incluídas em uma futura regulamentação no Brasil.

Nesse novo cenário, o conceito de negligência médica, cuja responsabilidade é subjetiva, terá de ser reformulado, diz Gracemerce Camboim, professora de Direito Empresarial e Propriedade Intelectual na Faculdade Presbiteriana Mackenzie Brasília. O doutorado em Direito Internacional de Camboim tem como tema a IA. Especialistas debatem se o paciente deve saber que um sistema de IA está por trás da decisão tomada pelo médico Na análise da professora, entre os parâmetros mínimos de responsabilidade civil o ponto-chave é a auditabilidade para que, em caso de erro médico, uma perícia possa confirmar o diagnóstico da IA. Para isso, os dados do sistema não podem ser obscuros, precisam ser acessíveis e protegidos, de acordo com a lei sobre privacidade. São princípios adotados nos EUA que, segundo a professora, podem servir de parâmetro no Brasil. A ideia de inteligência artificial nos traz um novo olhar, diz Camboim. Antes, o paciente visualizava o dano à sua saúde do ponto de vista paciente e médico. “Quando introduzimos novas tecnologias, como inteligência artificial, e utilizamos como parâmetro de responsabilidade civil a negligência médica, como o paciente vai comprovar ou ter subsídios para questionar um diagnóstico que suporte ao próprio médico? É quase uma prova diabólica para o paciente tentar comprovar qualquer tipo de responsabilidade”, afirma ela. “As sociedades de médicos e hospitais estão muito preocupados com os riscos e em criar mecanismos de governança para mitigá-los no emprego da tecnologia”, afirma Juliano Maranhão, professor associado da Faculdade de Direito da Universidade de São Paulo (USP) e sócio da Opice Blum Advogados.
Maranhão, que também é diretor-presidente da Associação Lawgorithm de Pesquisa em Inteligência Artificial, integrou uma comissão de juristas nomeada pelo Senado. Essa comissão entregou ao presidente do Senado, em dezembro do ano passado, uma proposta de projeto de lei substitutivo para regular o desenvolvimento e uso de IA no Brasil. O novo texto, com mais de 900 páginas, contém uma série de obrigações de governança aos fornecedores e operadores de sistemas de IA, escalonadas conforme categorias de risco. O objetivo é substituir o projeto de lei 21/10, do deputado federal Eduardo Bismarck (PDT-CE), aprovado na Câmara em 2021 e agora tramitando no Senado. Segundo especialistas, o projeto não era abrangente. Para a Lawgorithm, o texto substitutivo se aproxima da proposta de regulação Europeia (European AI Act) e se alinha ao modelo de legislação de proteção de dados (LGPD). As regras, se aprovadas, devem impor aos agentes que empregam a tecnologia um conjunto de deveres mínimos de mapeamento e gestão de riscos, aos quais as empresas devem se adequar, respondendo perante uma autoridade central. O relatório dos juristas sugere que a inteligência artificial relacionada à saúde seja considerada de alto risco, diz Marco Torronteguy, sócio do escritório TozziniFreire Advogados na área de Direito na saúde. “Me parece razoável usar essa análise porque a própria Anvisa [Agência Nacional de Vigilância Sanitária] já trabalha com análise de risco quando aprova os produtos e serviços da saúde.”

Pesquisadores da divisão de inovação do Hospital das Clínicas (InovaHC) fazem testes clínicos de algoritmos que possam ser usados no futuro. O trabalho é executado no laboratório de inteligência artificial do HC em parceria com a Siemens e apoio da Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp). “A IA, no futuro, vai impactar muito mais a saúde, ainda estamos no começo. Vai dar mais segurança para o paciente”, diz o médico Giovanni Guido Cerri, presidente do InovaHC – o hospital é vinculado à Faculdade de Medicina da USP. Marcela Ejnisman, sócia da área de Direito digital no TozziniFreire, alerta para a possibilidade de discriminação, se não houver cuidado com a coleta e uso de dados pessoais com recursos de IA. Se a coleta de dados não for ampla, para ter representatividade de vários grupos, os resultados podem favorecer determinado grupo de pessoas ou raça, adverte a advogada. Torronteguy acrescenta que, do ponto de vista geral, novas tecnologias em saúde muitas vezes antecedem a regulamentação, que chega a reboque. “Temos uma legislação muito abrangente no Brasil, tanto para produtos quanto para serviços de saúde.” Além disso, o advogado lembra que a Anvisa já regula softwares e equipamentos médicos.

Softwares para diagnóstico médico com uso de inteligência artificial são considerados como dispositivos médicos (“software as a medical device – SaMD”) e devem ser regularizados junto à Anvisa para poderem ser comercializados em território nacional, informou a agência ao Valor. Atualmente, há 523 SaMD regularizados na Anvisa. No entanto, a agência esclarece que essa lista não distingue se são softwares que usam tecnologia IA ou não, informação que pode ser levantada a partir de instruções e relatórios técnicos. “Temos equipamentos novos com inteligência artificial sendo submetidos à Anvisa neste momento”, diz Cerri, do Inova HC. São máquinas de grande porte para diagnóstico, como ressonância magnética, por exemplo. À frente da Lawgorithm, Maranhão diz que a associação trabalha com a Sociedade Brasileira de Diabetes e alguns hospitais. Todo o rigor quanto aos critérios e regras de governança para uso de IA “não é só uma questão técnica, mas sócio-técnica das pessoas que estão envolvidas no desenvolvimento, na decisão de emprego, na revisão e análise das informações geradas pela IA”. Para Maranhão, é preciso não atemorizar a sociedade em relação a uma tecnologia que tem um potencial benéfico enorme para a prática de uma medicina com inteligência aumentada.
Durante a pandemia, quando o contato entre médicos e pacientes foi dificultado, a telemedicina avançou exponencialmente. Maranhão conta que um dos sistemas desenvolvidos na USP foi o diagnóstico de insuficiência respiratória por voz. O paciente lia um texto e, pelas pausas que ele fazia, a IA analisava a necessidade ou não de internação. “A IA não decidia a internação, só recomendava. É um instrumento a mais para o médico, a segunda fronteira da tecnologia”, diz o professor. A primeira fronteira é a análise de resultados de exames pelo sistema. A última fronteira de aplicação de IA é a terapêutica, com intervenção da robótica na medicina. Isso é considerado como grau máximo de aplicação dos algoritmos, pois se a IA errar poderá provocar a morte do paciente. “São aplicações de alto risco e, na maioria dos casos, são decisões que auxiliam o médico na intervenção terapêutica ou cirúrgica”, afirma Maranhão. E isso não é uma realidade distante. “São fronteiras para os próximos anos, e não décadas.”
Quanto à responsabilidade no uso de IA, Maranhão explica que hoje, no Direito, o médico responde sempre subjetivamente. Ou seja, se é culpado ou não pelos meios utilizados, pois seu dever é empregar o estado da arte na medicina, aplicar as melhores técnicas que existem e são aceitas na sociedade de medicina naquele campo de conhecimento. Essa análise não é sobre sua culpa ou não pelo resultado do tratamento – se houve dano, lesão ou morte do paciente, o médico não responde por isso, diz o professor e advogado.
O hospital responde solidariamente por esse dever de cuidado do médico, acrescenta Maranhão. Outra questão é quando ocorre falha no produto ou equipamento utilizado para o tratamento. Os tribunais entendem que o médico continua a responder porque tomou a decisão de usar o equipamento que traz algum risco. Mas o médico e o hospitais podem depois ir contra o fornecedor, se mostrarem que houve defeito.
“O responsável pelo ato médico é o médico. Mas em um processo contra o médico, o hospital é chamado também a ser partícipe de responsabilidade por ser o local onde o médico realizou o procedimento”, afirma Cerri, do InovaHC. A responsabilização do fabricante do equipamento depende da situação em que ocorreu o erro.
A IA é um instrumento que auxilia o médico e tem algoritmos que até emitem o laudo. “Mas é o médico que revisa, modifica o que precisa e assina. A IA não é autônoma para executar qualquer ato médico, nem mesmo na cirurgia [é o médico que manipula o braço robótico]”, explica Cerri. “Temos que evoluir ainda na questão da IA para um dia atribuir a ela alguma responsabilidade. Vai ter conselho médico de IA para analisar se [o sistema] cometeu infração ou não.”
Enquanto esse cenário futuro ainda está em construção, o Hospital das Clínicas já possui algoritmos incorporados a ambientes hospitalares. É o caso da radiologia, matéria em que Cerri é professor titular na Faculdade de Medicina da USP, à qual o HC é vinculado. A IA será usada em toda a área de saúde, isso ocorre à medida que os algoritmos são comprovados como eficazes, diz Cerri.
Ao mesmo tempo que especialistas debatem o tema e articulam para a criação de regras, um dos desafios para o Direito é como lidará com essa nova tecnologia. Outra questão é qual o grau de transparência do hospital e o médico perante o paciente sobre as recomendações da inteligência artificial. Em um caso de gravidez, por exemplo, a IA informa o médico que detectou atraso no desenvolvimento do feto. A futura mãe deve saber disso? E se esse conhecimento deixá-la nervosa, pondo em risco a gravidez? Para Maranhão, não é fácil decidir quando o assunto envolve a autonomia do paciente. Ele diz que ainda está em aberto se o paciente deve saber quando tem uma inteligência artificial apoiando a decisão do médico. 

FONTE: Revista Valor Econômico. Por Ivone Santana. Publicado em 20 de março de 2023

doctorhub.com.br

Comments are closed.