O portal Future of Life divulgou uma carta aberta assinada por vários pesquisadores, especialistas e executivos do setor de tecnologia que pedem a interrupção no desenvolvimento de novas tecnologias alimentadas por Inteligência Artificial (IA), bem como um prazo para que sejam estabelecidas as normas e as diretrizes pelas autoridades reguladoras para orientar o mercado.
Esta notícia se espalhou pelo mundo, especialmente por contar com a assinatura de nomes de peso, como Elon Musk, CEO do Twitter e da Tesla, além do historiador Yuval Noah Hariri, o cofundador da Apple, Steve Wozniak, e uma série de engenheiros e executivos da Microsoft. O documento também conta com o apoio de acadêmicos das principais universidades dos Estados Unidos e Canadá.
É inegável que o avanço da tecnologia tem proporcionado muitas melhorias em diversos setores e a área de saúde não é exceção. O uso de IA e outras tecnologias emergentes têm o potencial de revolucionar o setor de saúde, melhorando diagnósticos, tratamentos e cuidados aos pacientes.
No entanto, também é importante discutir as questões éticas e jurídicas relacionadas ao uso dessas tecnologias que têm transformado a forma como diagnósticos e tratamentos são realizados, promovendo avanços significativos na medicina.
VEJA MAIS: Avanços, acesso e equidade da Telemedicina
Entretanto, a aplicação da IA no setor de saúde suscita inúmeras questões jurídicas e éticas, incluindo a responsabilidade por erros e o viés algorítmico. À medida que a IA assume responsabilidades na saúde, é fundamental analisar a atribuição de responsabilidades por erros e falhas no tratamento médico. O atual ordenamento jurídico ainda não prevê expressamente a responsabilidade civil decorrente de atos praticados por sistemas de IA.
Isso gera uma lacuna na proteção dos pacientes e dificulta a reparação de eventuais danos causados.
Ademais, avaliar a questão do viés algorítmico nos sistemas de IA é de suma importância. O viés ocorre quando o algoritmo é treinado com dados que refletem preconceitos ou desigualdades existentes na sociedade, o que pode resultar em diagnósticos ou tratamentos inadequados para determinados grupos de pacientes. É preciso ter cuidado ao selecionar os dados utilizados para treinar os algoritmos, de forma a garantir que eles sejam representativos e imparciais.
Desta forma, a IA baseia suas decisões em informações previamente fornecidas pelo programador, o que pode resultar em decisões contaminadas com preconceitos e discriminações indesejadas. No contexto da saúde, a situação é ainda mais grave, já que isso pode levar a diagnósticos incorretos e tratamentos inadequados, especialmente para populações sub-representadas nos dados de treinamento.
Portanto, a regulação da IA deve ser orientada por princípios como transparência, responsabilidade, privacidade e equidade, considerando a atribuição de responsabilidades, a implementação de mecanismos de controle de viés algorítmico e o estabelecimento de padrões mínimos de qualidade e segurança. Seguindo esta orientação, algumas propostas de regulação incluem:
a) Estabelecimento de padrões mínimos de qualidade e segurança: Órgãos reguladores do setor de saúde devem estabelecer padrões mínimos de qualidade e segurança para o uso de IA, incluindo a exigência de validação clínica e a realização de auditorias periódicas.
b) Atribuição de responsabilidade: É preciso definir claramente as responsabilidades dos desenvolvedores, fornecedores e profissionais de saúde que utilizam a IA, estabelecendo regras específicas de responsabilidade civil para a reparação de danos causados por falhas ou erros no sistema.
c) Implementação de mecanismos de controle de viés algorítmico: A regulação deve prever a obrigatoriedade de mecanismos de controle e monitoramento de viés algorítmico, promovendo a equidade e a representatividade no uso de IA na saúde.
VEJA MAIS: Avanços da nova Lei do Planejamento Familiar e impactos no setor de saúde
No caso da IA, é importante lembrar que ela é apenas uma ferramenta que auxilia os profissionais de saúde no processo de tomada de decisão.
Portanto, é preciso definir claramente as responsabilidades de cada um dos envolvidos no processo, desde os desenvolvedores da tecnologia até os profissionais de saúde que a utilizam, ficando todos cientes de que a tecnologia será sempre um auxílio na atividade médica e nunca deverá ser considerada, por si só, a razão de decidir sobre determinado diagnóstico ou prognóstico.
É importante que haja transparência em relação ao funcionamento dos algoritmos e que eles sejam auditáveis, de forma a garantir a confiabilidade dos resultados gerados pela IA.
Por isso, para garantir o seu desenvolvimento seguro e ético, é fundamental promover a cooperação entre todos os atores envolvidos no processo. O Estado, em conjunto com a iniciativa privada, deve investir em P&D para desenvolver tecnologias que possam reduzir o risco de falhas e de tomada de decisões com viés algorítmico nos sistemas de IA aplicados à saúde.
Sem embargos, é necessário capacitar os profissionais de saúde para que compreendam os limites e possibilidades da IA, bem como suas implicações éticas e jurídicas. A formação multidisciplinar, que engloba profissionais de áreas como saúde, direito, e tecnologia da informação, é fundamental para uma abordagem holística.
A cooperação entre países e organismos internacionais pode potencializar o desenvolvimento seguro e ético da IA. Iniciativas conjuntas podem incluir o compartilhamento de informações e práticas, a criação de fóruns de discussão e o desenvolvimento de diretrizes globais, assim como para garantir a confiabilidade dos sistemas de IA, é fundamental adotar mecanismos de transparência e auditoria.
A adoção de padrões abertos, a realização de análises de impacto e a verificação por terceiros são exemplos de medidas que podem contribuir para um ambiente mais seguro e ético.
Implementar políticas de incentivo à inovação que considerem a responsabilidade ética e jurídica das empresas desenvolvedoras de tecnologias de IA também deve ser buscado.
Isso pode incluir a oferta de benefícios fiscais e financeiros para aquelas que adotem práticas de desenvolvimento ético e seguro. A aplicação da IA no setor de saúde tem um grande potencial para transformar a prática médica e melhorar a qualidade de vida dos pacientes.
No entanto, é fundamental enfrentar os desafios jurídicos e éticos inerentes a essa tecnologia, garantindo a proteção dos direitos dos pacientes e a responsabilização dos agentes envolvidos. Dessa forma, será possível garantir que a revolução da IA no setor de saúde seja conduzida de forma responsável e benéfica para todos.
*Adalberto Fraga Veríssimo Junior é advogado, graduado em Direito pelo Centro Universitário Filadélfia – UniFil, sócio da Lee, Brock, Camargo Advogados (LBCA) e coordenador na área de Direito Digital e Novas Tecnologias.