Dois pilares estão se consolidando diante da necessidade de criar uma política pública que envolva os sistemas de Inteligência Artificial (IA) no mundo: o legal e o ético
Ambos estão presentes no “Ethics Guidelines for Trustworthy Artificial Intelligence”, guia de diretrizes da União Europeia para se edificar uma IA com bases mais sustentáveis. Também está presente na “Declaração de Montreal de Desenvolvimento Responsável da IA”, que em seu preâmbulo adverte: “O desenvolvimento da inteligência artificial, no entanto, apresenta desafios éticos e grandes riscos sociais (…) Embora não haja progresso científico nem vida social livre de riscos, cabe aos cidadãos determinar os fins morais e políticos que dão sentido aos riscos em um mundo incerto.”
O Brasil vem debatendo a regulamentação da Inteligência Artificial (IA) por meio de dois projetos que tramitam no Senado Federal: PLS 5.051/2019, que tem relatoria do Senador Rogério Carvalho e está em análise na Comissão de Ciência, Tecnologia, Inovação, Comunicação e Informática; e o PLS 5.691/2019, institui a Política Nacional de Inteligência Artificial e vai ser alvo de audiência pública.
O guia ético da União Europeia reúne 4 princípios fundamentais: Respeito à autonomia humana, o que implica no direito da supervisão humana no uso dessa tecnologia (human-in-the-loop); Prevenção de danos, propondo uma segurança robusta, como a ser empregada nos carros autônomos para evitar acidentes; Justiça, no sentido de ser a ferramenta utilizada para distribuição de justiça e contribuir para impactar positivamente a qualidade da prestação jurisdicional e Explicabilidade, para que envolva sempre uma comunicação transparente, fácil, explicável e auditável.
“O uso de inteligência artificial pode esbarrar em questões éticas e, com isso, colocar em risco a reputação das empresas, causando grandes perdas às companhias que não possuem um controle efetivo”, diz o advogado Fernando Torre, especialista em Compliance.
O Guia da União Europeia amplia o número de princípios propostos pelo Canadá de 4 para 10. Ressalta o respeito à autonomia das pessoas e à privacidade online, uma vez que a inovação traz muitos desafios à privacidade informacional, sendo necessário preservar a liberdade de escolha dos titulares dos dados.
Especialista em inovação e IA, o advogado Ricardo Freitas Silveira aponta que “para ordenar o desenvolvimento, os processos e as aplicações de Inteligência Artificial, torna-se indispensável que a governança corporativa possa garantir que essa tecnologia esteja aliada aos valores da privacidade de dados Privacy by Design”.
Outro ponto importante para o guia ético europeu são a inclusão e a diversidade. “É necessário ampliar a discussão sobre o preconceito dos programadores que alimentam os dados usados para treinar algoritmos e podem ser socialmente danosos”, ressalta Freitas. Ele lembra que outras preocupações estão voltadas ao fato de que o uso desses meios tecnológicos seja utilizado para desequilibrar a “igualdade de armas” entre as partes em um conflito judicial e que a IA possa vir a “formatar” o raciocínio jurídico.
“A IA abre um amplo campo de trabalho para a advocacia porque todas as relações contratuais serão novas e precisarão de regulação”, comenta Freitas.
O advogado destaca que a Inteligência Artificial, além de ser um conjunto de ciências e técnicas, constitui uma inovação disruptiva que promete criar um mercado e novos modelos de negócio, gerando transformações substanciais que podem ser altamente positivas. “Uma delas é a análise preditiva, que ao analisar grande volume de dados jurídicos, em curto espaço de tempo, consegue prever como decide em determinada Vara ou magistrado sobre matéria específica, facilitando a vida do advogado”, explica.
PARTICIPE DA PALESTRA GRATUITA
No próximo dia 5 de fevereiro, os advogados Ricardo Freitas Silveira e Fernando de Paula Torre vão analisar a IA diante das questões jurídicas e éticas em palestra gratuita sobre (Inteligência Artificial e os Riscos Jurídicos), na sede da LBCA, no Itaim Bibi. Inscrição por esse link.