O projeto de lei 21/20 que cria o marco legal do desenvolvimento e uso da Inteligência Artificial (IA) ao lado da Estratégia Brasileira de IA no Brasil, instituída pela Portaria MCTI 4.617/21, são importantes iniciativas de regulamentação da IA no Brasil, já que cada vez mais se fala no fim da era dos códigos de conduta (autorregulação).
Como bem aponta Luciano Floridi, no recente artigo “The end of an era: from self-regulation to hard law for the digital industry”, bem como na insuficiência e ineficácia de princípios éticos além de poderem propiciar a denominada “lavagem ética”.
A regulamentação jurídica é um importante passo no sentido, pois de contribuir para a necessária segurança jurídica, o que é um fator de decisão para investimentos no país, contribuindo para o desenvolvimento tecnológico, e no sentido de transformar princípios éticos em determinações cogentes e concretas (University of Harvard, Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI).
Contudo, o PL tem sido objeto de diversas críticas, diante de algumas falhas e omissões, imprecisões técnicas, ausência de obrigações substantivas e processuais, ausência de parâmetros mínimos de procedimentalização e previsão de instrumentos de governança algorítmica.
Houve um curto período de tempo para contribuições por parte da sociedade civil, ao contrário, por exemplo, do Marco Civil da Internet, Lei 12.965/2014, o qual contou com um período bem mais extenso de discussão democrática e inclusiva, sendo essencial um amplo período de debate envolvendo diversos grupos da sociedade civil, trazendo ao diálogo os grupos vulneráveis.
O artigo 6º do PL traz uma abordagem equivalente à previsão da LGPD em seus artigos 10, § 3º e artigo 20, § 1º e § 2º, prevendo a “garantia de transparência sobre o uso e funcionamento dos sistemas de inteligência artificial e de divulgação responsável do conhecimento de inteligência artificial, observados os segredos comercial e industrial, e de conscientização das partes interessadas sobre suas interações com os sistemas, inclusive no local de trabalho”.
Como equilibrar via ponderação a necessária observância do segredo industrial e comercial que envolve os programas de computador e os algoritmos de IA, a proteção via propriedade intelectual, com os demais direitos fundamentais envolvidos e em colisão?
Ao se analisar de forma literal e gramatical as disposições da LGPD (artigos 10, § 3º e artigo 20, § 1º e § 2º) e do PL 21/20 (art. 6) pode-se chegar à equivocada conclusão de que o segredo industrial/comercial sempre irá prevalecer, mesmo diante de casos de colisão com direitos fundamentais, devendo também ser analisados os princípios da transparência e da explicabilidade.
É importante se optar por uma abordagem sistêmica, e funcional, e à luz da teoria dos Direitos Fundamentais, ao invés de uma interpretação literal e gramatical, analisando-se todos os direitos fundamentais em colisão e a melhor forma de respeito mútuo e compatibilidade, sem que jamais se fira o conteúdo essencial de qualquer direito fundamental a ponto de aniquilar o mesmo.
Como observar o princípio da explicabilidade, e tornar efetivos os direitos à explicação e à revisão de uma decisão automatizada, sem acesso aos parâmetros da tomada de decisão, sendo em alguns casos necessária a quebra do código fonte, a fim de melhor compreender os aspectos da decisão, envolvendo, pois, os aspectos da acessibilidade e compreensibilidade?
No recente livro “The rise of big data policing: surveillance, race, and the future of law enforcement”, Andrew Guthrie Ferguson aponta para algumas perguntas que deveriam pautar a utilização de algoritmos.
É possível defender os inputs do sistema (acurácia dos dados e idoneidade da metodologia)? É possível defender os outputs do sistema e como eles impactarão as políticas em prática e as relações comunitárias? É possível testar a tecnologia, oferecendo accountability e alguma medida de transparência?
É fundamental uma análise crítica e interdisciplinar acerca de tais questões de forma a equilibrar a inovação e a responsabilidade, contribuindo por um lado para o desenvolvimento da tecnologia e de investimentos no país, e de outro lado, com o necessário respeito aos direitos fundamentais.
Segundo Wolfgang Hoffmann-Riem, a proteção adequada no caso em questão poderia ser possibilitada pela introdução nos tribunais dos denominados procedimentos sigilosos.
As empresas são obrigadas a revelar ao tribunal os algoritmos, em particular algoritmos que podem ser utilizados para pôr em perigo a liberdade, divulgando as máximas e os critérios em que se baseiam, a informação utilizada como input e, no caso dos sistemas de aprendizagem, as regras de formação utilizadas, se necessário também o tipo de utilização da análise de Big Data.
Tais informações não deverão tornar-se públicas, limitando seu acesso ao órgão julgador, sendo inacessíveis até mesmo às partes no processo.
A fim de se alcançar um sistema de proteção proativo, abrangente e sistemicamente seguro, uma proteção sistêmica, destaca-se cada vez mais a proteção desde a concepção tecnológica (protection by design), envolvendo a criação de arquiteturas de decisão adequadas à proteção com o auxílio da concepção e de ferramentas tecnológicas, como forma de se implementar a segurança (security by design), falando-se em transparência do design tecnológico, mais ampla do que apenas transparência na coleta e tratamento de dados pessoais, abrangendo a transparência do design tecnológico (o projeto técnico) e dos algoritmos utilizados. No entanto, como bem aponta Wolfgang Hoffmann-Riem, a proteção dos segredos comerciais é contrária ao dever de divulgação.
Bruno Bioni afirma que “a explicação seria uma ferramenta de accountability de IA ao expor a lógica da decisão, devendo permitir ao observador determinar a extensão em que um input particular foi determinante ou influenciou um resultado. Entretanto os segredos comercial e industrial constituem objeções à transparência”.
Importante julgado conhecido como caso “Schufa”, da lavra do Tribunal Federal de Justiça da Alemanha reconheceu, em princípio, a proteção ao segredo comercial em uma decisão sobre a pontuação do SCHUFA, envolvendo a classificação de crédito, sem levar em consideração que a proteção de segredos oficiais/industriais, não constitui um fim em si mesmo, mas exige igualmente uma coordenação com a proteção de pessoas e de interesses jurídicos diversos.
Wolfgang Hoffmann Riem afirma que referida decisão não cumpriria com os requisitos do Capítulo III RGPD/GDPR. Pontua, todavia, que a divulgação do design tecnológico e dos sistemas algorítmicos utilizados iria, por outro lado, interferir demasiado com a autonomia das empresas e afetar os seus legítimos interesses, permitindo o acesso dos algoritmos pelos concorrentes.
A quebra do segredo industrial seria justificada no caso de direitos fundamentais, em especial para evitar discriminação, estigmatização e manipulação, ou diante de outro interesse legítimo na divulgação equivalente à proteção de um segredo comercial.
O direito à informação, previsto no art. 6º, VI da LGPD compreenderia o acesso e esclarecimento quanto aos aspectos principais e a lógica da decisão algorítmica – e, especialmente os critérios de decisão -, de modo a ter, em princípio, a preservação do segredo de empresa, já que não seria necessário revelar o código fonte do algoritmo, mas os aspectos mais relevantes da decisão algorítmica.
Contudo, em alguns casos concretos talvez seja necessário o acesso ao código fonte, sendo certo que até mesmo a Lei de Propriedade Industrial abre exceções ao segredo comercial no caso de ações judiciais, desde que respeitado o segredo de justiça.
Entendemos, no entanto, que deverá ser analisado o caso concreto mediante o procedimento de ponderação e aplicação da proporcionalidade (art. 206, da LPI), já que nem sempre no Brasil o segredo de justiça é respeitado, analisando-se a realidade sociocultural do país, de modo a não inviabilizar a atividade econômica, nem tampouco afrontar aos demais direitos fundamentais em colisão.
Mutatis mutandis, o princípio da proporcionalidade vem sendo aplicado em tais casos, encontrando previsão na jurisprudência internacional e em documentos legislativos relacionados à proteção de dados e ao big data, estando tais temáticas intimamente relacionadas com a IA, como pode se observar do art. 8º da Carta de Direitos Fundamentais da União Europeia, de 07.12.2000, do Regulamento Europeu de Proteção de Dados – GDPR 2016/679 do Parlamento Europeu e do Conselho Europeu, revogando a Diretiva 95/46/CE, em seu item 1 e 4, bem como do documento “Adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial” da Agência Espanhola de Proteção De Dados (AEPD) de 02/2020, e da Resolução 1-2020 da Comissão Interamericana de Direitos Humanos (CIDH) denominada “Pandemia y derechos humanos em las Américas” de 10/04/2020, item 21.
O Conselho da União Europeia apresentou no final do ano passado a primeira versão de um projeto para regulação horizontal da Inteligência Artificial.
Com requisitos mínimos, fundada em dois argumentos principais, que considera falhas de mercado no sentido de buscar uma aceitação mais ampla da tecnologia de IA, a falta de transparência para sua aplicação voltada a corporações, sistemas públicos e usuários , a chamada assimetria de informações, e riscos de segurança que essa tecnologia poderia trazer no contexto de seu uso, sendo que tanto pode apresentar efeitos não intencionais, como podem ter fins maliciosos.
Na verdade, a preocupação da Europa está focada nas chamadas aplicações de alto risco da IA, sendo que as empresas sediadas fora da UE estarão sujeitas à regulamentação e valores europeus, quando fornecerem tecnologia de IA para seus cidadãos. Não se sabe, porém, se a União Europeia terá força para impor um padrão global na regulação da IA, o que poderá definir o futuro dessa tecnologia.
Por derradeiro, cumpre lembrar a relação da proporcionalidade com a fórmula jurídica e política do Estado Democrático de Direito, o qual depende de procedimentos, especialmente os judiciais, para que se dê sua realização, sendo a proporcionalidade de se considerar um desses procedimentos, merecedor de todo destaque.
Isto porque a proporcionalidade encontra íntima relação com a ideia de procedimentalização do Direito, legitimidade do direito pelo procedimento, judicialização do ordenamento jurídico (espaço público para discussão, amplo debate, publicidade, e isonomia) (Luhmann, Habermas, R. Wiethölter e John Rawls).
Neste sentido, pode-se interpretar a falta de fundamentação por parte da crítica à ponderação, no sentido de não ter qualquer vínculo com procedimentos, e não oferecer a dinamicidade necessária para a resolução de conflitos em nossa sociedade altamente especializada e amparada em uma crescente complexidade e majoração frenética da aceleração do tempo.
É antes, muito pelo contrário, ela que permite, em face de tal complexidade aceleração temporal, produzir a necessária escansão temporal para o confronto das diversas posições, assim permitindo atingir a solução que melhor compatibilize os princípios e direitos fundamentais em colisão, sem cancelar nenhum, a título de ponderação, pois todos remetem, em última instância, à dignidade humana.