Nos últimos anos, avanços significativos têm sido alcançados no campo da inteligência artificial (IA), transformando diversos aspectos da vida humana. A IA pode ser utilizada como uma ferramenta poderosa para promover a inclusão social, abordando as necessidades específicas de grupos que demandam atenção especial, como pessoas com deficiências, minorias étnicas, LGBTQIAPN+, refugiados e imigrantes. Mas também pode discutir como a incorporação de princípios de sustentabilidade ambiental, social e governança (ESG) na regulamentação da IA pode amplificar seu impacto positivo e beneficiar diretamente esses grupos marginalizados.
O portador de deficiência, seja ela qual for, frequentemente enfrenta obstáculos significativos na busca por educação, emprego, acesso a serviços básicos e engajamento social. Paralelamente, existem também os grupos marginalizados, como as minorias étnicas, LGBTQIAPN+, refugiados e imigrantes, que muitas vezes sofrem discriminação e exclusão sistemática devido a preconceitos arraigados e estruturas sociais desiguais. A inteligência artificial pode desempenhar um papel crucial em atender essas necessidades específicas e promover a inclusão desses grupos na sociedade.
IA em ação
Nesse contexto, a IA emerge como uma ferramenta poderosa para impulsionar a inclusão social, essencial tanto para o progresso e prosperidade de nossa sociedade como um todo, quanto para a Justiça social. Incorporar princípios de sustentabilidade ambiental, social e governança (ESG) na regulamentação da IA pode ampliar seu impacto positivo e beneficiar diretamente esses grupos marginalizados.
A inclusão de talentos com deficiência está no eixo do pilar S do ESG, tanto que novas métricas de diversidade e inclusão vêm sendo adotadas pelas empresas em seus relatórios anuais diante do crescimento de demandas de seus stakeholders (partes interessadas). Isso visa entender se a empregabilidade de profissionais com deficiência é um valor para a marca e se há um esforço neste sentido.
As pessoas com deficiência em idade produtiva enfrentaram e enfrentam discriminação, tratamento desigual e invisibilidade histórica no mundo corporativo, realidade que pode ser confrontada e superada por melhores práticas sociais no escopo ESG, com apoio das tecnologias de IA.
Dados da Agência do Departamento do Trabalho dos Estados Unidos que coleta, processa, analisa e dissemina informações estatísticas sobre o mercado de trabalho, condições de trabalho, e mudanças de preços e produtividade, apontam que 10,7 milhões de PCDs continuam sub-representados nas empresas dos EUA.
Determinadas empresas do ramo da tecnologia desenvolveram o aplicativo Seeing AI, por exemplo, que utiliza IA para descrever o ambiente e ler textos em voz alta para pessoas com deficiência visual, ajudando a superar barreiras significativas em seu dia a dia das pessoas com deficiência visual.
Eficácia das medidas de inclusão
A IA pode ser utilizada para monitorar a diversidade e inclusão dentro das organizações. Ferramentas de análise de dados podem avaliar a composição das equipes, identificar áreas onde a diversidade está faltando e sugerir ações corretivas. Isso garante que as políticas de inclusão não sejam apenas uma formalidade, mas parte integral da cultura organizacional.
No contexto social, políticas de IA podem ser direcionadas para criar oportunidades de emprego em setores emergentes de tecnologia inclusiva, promovendo a resiliência econômica e reduzindo disparidades sociais. Por exemplo, a IA pode ajudar a identificar talentos em comunidades marginalizadas e facilitar o acesso a empregos em tecnologia, proporcionando uma participação mais equitativa na economia digital.
VEJA TAMBÉM: Proteção de dados e IA: Solano de Camargo analisa nova tabela de honorários da OAB/SP
A aplicação da inteligência artificial na promoção da inclusão pode ocorrer em uma variedade de áreas e contextos. Por exemplo, na educação, com sistema de tutoria inteligente que podem ajudar a oferecer suporte individualizado a alunos com necessidades especiais; na saúde, algoritmos podem ajudar a diagnosticar doenças, adaptar tratamentos e melhorar o acesso a cuidados de saúde de qualidade para populações vulneráveis; sistemas de reconhecimento de voz e tecnologias de tradução automática podem facilitar a comunicação e o acesso à informação para pessoas com deficiência auditiva ou de fala; tecnologias de visão computacional podem ser utilizadas para desenvolver dispositivos de assistência que ajudem pessoas com deficiência visual a navegar em ambientes físicos e virtuais de forma independente.
Outro exemplo, no qual a inteligência artificial pode desempenhar um papel crucial na identificação e redução de preconceitos e discriminação, é projetando os algoritmos para detectar e mitigar vieses em processos de tomada de decisão, ajudando, assim, a garantir que as decisões sejam justas e equitativas para todos os membros da sociedade, incluindo minorias étnicas, LGBTQIAPN+ e pessoas com deficiência.
Desafios adicionais e soluções propostas
No entanto, apesar de seu imenso potencial, é fundamental reconhecer que a implementação eficaz da IA na promoção da inclusão requer uma abordagem cuidadosa e reflexiva, considerando questões éticas, sociais, culturais, técnicas e jurídicas.
Como se sabe, um desafio técnico que pode dificultar a implementação efetiva de soluções voltadas para a promoção da inclusão é a disponibilidade e qualidade dos dados utilizados pelos sistemas, pois os algoritmos de inteligência artificial dependem de grandes conjuntos de dados para aprender e tomar decisões. Consequentemente, se esses dados forem tendenciosos ou não representativos da diversidade da população, os sistemas podem perpetuar ou ampliar desigualdades existentes ao invés de mitigá-las.
No âmbito do desafio social e até cultural existe a falta de acessibilidade e usabilidade das tecnologias da inteligência artificial para pessoas com deficiências. Muitos sistemas de IA não são projetados levando em consideração as necessidades específicas de pessoas com deficiência, o que pode limitar sua eficácia e utilidade para esses usuários.
LEIA TAMBÉM: O imperativo da inovação no ESG
Agora, no tocante ao desafio ético, há a questão da privacidade que também representa uma barreira para a implementação da IA na promoção da inclusão, considerando que o uso indevido ou inadequado de tecnologias pode resultar em violações de direitos humanos, discriminação e vigilância invasiva.
Além dos desafios elencados acima, a implementação da IA também abarca diversos desafios jurídicos: questões como a proteção de dados pessoais, a segurança cibernética e o viés algorítmico exigem uma regulamentação cuidadosa para garantir que essa tecnologia seja utilizada de maneira responsável, preservando os direitos das pessoas com deficiência e o das demais minorias.
É exatamente por este motivo que a regulação da inteligência artificial é um campo em desenvolvimento que requer uma resposta jurídica robusta, pois, como visto, é fundamental estabelecer políticas e normas que assegurem a proteção dos direitos humanos das pessoas com deficiência e das demais minorias abordadas, ao mesmo tempo em que promovem a inovação tecnológica e a acessibilidade universal.
Assim, a questão essencial é: como criar uma regulamentação que assegure que a IA seja realmente essa ferramenta de apoio à inclusão? O Legislativo brasileiro já adiou por três vezes a votação do PL 2338/2023, que regulamenta a IA no Brasil, deixando um entendimento de que o debate ainda não está maduro para ser votado.
Para maximizar os benefícios da IA na promoção da inclusão, a regulamentação deve promover a diversidade nos dados, desenvolver tecnologias acessíveis, implementar medidas de transparência e responsabilidade, fomentar a educação sobre IA e colaborar em iniciativas multidisciplinares.
Boas práticas em regulamentação
Mas, como garantir que tudo isso seja implementado, respeitado e cumprido?
A IA pode inadvertidamente perpetuar preconceitos existentes se não forem implementadas medidas adequadas para detectar e mitigar vieses nos algoritmos. Regulações podem exigir a análise e a correção de algoritmos para garantir que as decisões automáticas sejam justas e equitativas para todos os grupos sociais, incluindo minorias étnicas, LGBTQIAPN+ e pessoas com deficiência.
A regulamentação deve estabelecer normas claras para proteger os dados pessoais utilizados pelos sistemas de IA. Isso é crucial para evitar violações de privacidade e garantir que as informações sensíveis de indivíduos, como as relacionadas à saúde e à deficiência, sejam devidamente protegidas.
Nesse sentido, as normas podem ser criadas para exigir que os sistemas de IA sejam desenvolvidos com considerações específicas para torná-los acessíveis para pessoas com deficiências. Isso inclui interfaces que suportam tecnologias assistivas e que sejam projetadas de maneira a garantir que todos os usuários possam interagir eficazmente com essas tecnologias.
Além disso, as regulações podem requerer transparência nas decisões tomadas por sistemas de IA, incluindo a divulgação de como decisões foram alcançadas e quais dados foram utilizados. Isso não apenas promove a responsabilidade dos desenvolvedores, mas também permite que indivíduos compreendam e contestem decisões que os afetam.
Promover a educação sobre ética e impactos da IA é essencial para capacitar desenvolvedores, usuários e reguladores a entenderem melhor as implicações sociais e éticas da tecnologia. Além disso, incentivar iniciativas colaborativas entre diferentes áreas do conhecimento pode levar a soluções mais holísticas e inclusivas.
Exemplos de políticas ou normas que podem ser implementadas incluem: auditorias de algoritmos, padrões de acessibilidade, relatórios de impacto de privacidade, diretrizes de transparência e programas educacionais.
Essas políticas e normas não apenas protegem os direitos das pessoas com deficiência e outras minorias, mas também promovem um ambiente de inovação responsável, onde a tecnologia pode verdadeiramente servir como uma ferramenta para a inclusão e justiça social.
Em síntese, os avanços da inteligência artificial têm promovido inclusão e acessibilidade para pessoas com deficiências e grupos marginalizados, superando barreiras físicas, cognitivas e comunicativas.
No entanto, para maximizar esses benefícios de forma justa e equitativa, é essencial uma regulamentação robusta, que garanta a proteção contra vieses algorítmicos, preserve a privacidade dos dados pessoais, promova a acessibilidade das tecnologias, assegure transparência nas decisões automatizadas e eduque sobre ética em IA. Uma abordagem proativa na regulamentação não só facilitará a inovação tecnológica, mas também fortalecerá a inclusão e a justiça social na sociedade contemporânea.
Desse modo, a inteligência artificial tem o potencial de transformar significativamente o aspecto social do ESG, fornecendo ferramentas para identificar necessidades, promover inclusão e melhorar as condições de trabalho e capacitação.
Ao focar em grupos que demandam atenção especial, as empresas não só cumprem suas responsabilidades sociais, mas também fortalecem sua própria sustentabilidade e reputação no mercado.
A adoção consciente e ética da IA pode, portanto, ser um diferencial crucial na promoção de um mundo mais justo e equitativo.
Em última análise, ao integrar práticas de responsabilidade social e ética em suas operações, as empresas não apenas contribuem para o bem-estar da sociedade, mas também garantem seu próprio sucesso a longo prazo, construindo uma base sólida de confiança e lealdade entre seus stakeholders.
VICTÓRIA VIEIRA SCACCHETTI – Advogada da Lee, Brock, Camargo Advogados e pós-graduada em Processo Civil pela PUC-SP