Com o Pesquisa Jurídica Avançada, você acessa o acervo de Doutrina da Revista dos Tribunais e busca rapidamente o conteúdo que precisa dentro de cada obra.
- Acesse até 03 capítulos gratuitamente.
- Busca otimizada dentro de cada título.
Acesse: https://www.jusbrasil.com.br/cadastro
Rony Vainzof
Inteligência artificial (IA), juntamente com automação, robótica, supercomputadores, big data, internet das coisas, computação em nuvem, criptografia, blockchain, redes de alto desempenho, redes móveis 5G, microeletrônicos e sensores, são apenas algumas das tecnologias condicionantes para o desenvolvimento econômico, social e digital de qualquer nação no século 21.
Os sistemas de IA permitem aos seres humanos explorar níveis de conhecimento inimagináveis há poucos anos, abrindo margem para novas descobertas e contribuindo com a possível resolução de grandes desafios para a humanidade na atualidade, como o tratamento de doenças graves e mitigação de surtos pandêmicos, alterações climáticas, gestão de riscos financeiros, prevenção a acidentes automobilísticos e a ilícitos cibernéticos, apenas para citar alguns exemplos.
Porém, caso a evolução tecnológica não esteja revestida de confiança no ambiente digital, com segurança e respeito aos direitos dos indivíduos, por meio da ação estruturada, interligada e coordenada entre organizações públicas e agentes privados, potencialmente os objetivos de desenvolvimento estarão fadados ao fracasso ou a um ritmo de crescimento desacelerado.
Quando se trata de IA, ainda mais considerando o seu crescente uso por empresas e governos, o citado requisito confiança se torna ainda mais fundamental, mormente em razão dos riscos de sistemas autônomos funcionarem sem levar em consideração eventuais danos aos indivíduos. Por serem valiosos, automação e IA continuarão a ser desenvolvidos e aprimorados até que serão mais inteligentes que a humanidade e aperfeiçoarão a si mesmos, o que pode culminar na “Explosão da Inteligência”, 1 momento no qual o processo sairá do controle humano.
Ou seja, sistemas de IA combinam conectividade, autonomia e dados para desempenharem tarefas com pouca ou nenhuma supervisão ou controle humano, e são capazes de melhorar o seu próprio desempenho graças à aprendizagem com a experiência (machine learning). Além disso, a opacidade do processo decisório da IA (dificuldade de decodificar o resultado gerado pelo algoritmo) torna mais complexo prever o seu comportamento e compreender as possíveis causas de um evento danoso.
Quanto maior o risco das decisões e ações no uso da IA sobre o ser humano, como os que possam afetar direitos e garantias fundamentais (vida, discriminação, privacidade, entre outros), maior deverá ser a prevenção, responsabilização e prestação de contas pelos agentes responsáveis (accountability).
Seguindo parâmetros internacionais, 2 uma IA de confiança deve seguir basicamente três componentes, a serem observados ao longo de todo o ciclo de vida do sistema e de forma harmônica: a) deve ser lícito: em conformidade com o arcabouço normativo aplicável; b) deve ser ético: garantindo a observância de princípios e valores éticos; c) deve ser sólido: tanto do ponto de vista técnico como do ponto de vista social, uma vez que, mesmo com boas intenções, os sistemas de IA podem causar danos não intencionais.
Confirmar o respeito a princípios éticos, realizar uma Avaliação de Impacto da Inteligência Artificial (AIIA) e identificar a cadeia de responsáveis, especialmente nos casos em que o grau de autonomia e criticidade do uso de IA é alto, durante todo o seu ciclo de vida, são alguns dos parâmetros relevantes sob a perspectiva de boas práticas empresariais, principalmente diante da necessária abordagem mínima regulatória, baseada em risco e em camadas para regular sistemas de IA, de acordo com as normas legais e padrões já existentes e com base em práticas responsáveis das organizações.
O presente artigo visa, assim, debater o papel da governança e da responsabilidade do setor privado para que o uso de IA forneça salvaguardas adequadas aos indivíduos como forma de manter a confiança no ambiente digital e a evolução da economia, pois qualquer vulnerabilidade ou falha pode implicar em sensíveis reduções de direitos e liberdades.
O princípio de accountability ou de responsabilização e prestação de contas visa estabelecer que o agente responsável pelos sistemas de IA possa demonstrar que adotou medidas eficazes e capazes de comprovar a observância e o cumprimento das normas aplicáveis, além da eficácia dessas medidas, 3 de acordo com a sua responsabilidade.
O referido princípio traz uma responsabilidade corporativa condizente com modernas economias baseadas em tecnologia da informação e dados, garantindo proteção eficaz para os indivíduos, culminando no aumento da confiança no ambiente digital.
Os principais elementos do accountability, conforme o Centre for Information Policy Leadership (CIPL). são: liderança e supervisão; avaliação de risco; políticas e procedimentos; transparência; treinamento e conscientização; monitoramento e verificação; e resposta e enforcement. 4
Idealmente, legislações devem abordar referidos elementos de forma flexível para uma organização conseguir adaptar cada um deles aos seus riscos e requisitos específicos por meio de seus próprios processos de avaliação que fazem parte de seus programas de desenvolvimento de novas tecnologias baseados em prestação de contas 5 .
Mesmo no caso de ausência de legislações específicas sobre IA, como ocorre no Brasil, 6 boas práticas empresariais baseadas em responsabilização e prestação de contas podem e devem ser implementadas para sistemas de IA com base em diretrizes éticas, que são pautadas em direitos e garantias individuais.
Ou seja, as organizações devem implementar programa ético de desenvolvimento ou de utilização de sistemas de IA abarcando elementos essenciais de responsabilidade e conformidade com as normas gerais aplicáveis (CF, CDC, CC, LGPD, Marco Civil da Internet, Lei do Cadastro Positivo, apenas para citar alguns exemplos), confirmando a eficácia do referido programa e garantindo a sua melhoria contínua, além terem evidências e serem capazes de demonstrar a eficácia dele internamente ou perante terceiros.
Em pesquisa realizada pela McKinsey Digital (2020), com milhares de empresas ao redor do mundo, de diversos setores, foram apuradas as seguintes informações sobre o que consideram risco e se estão adotando medidas para mitigá-los quanto ao uso de IA: 7
1 Question was asked Only os repondents who said their organizations had adopted Al in at least one business function; n = 1,151. Respondents who said “don’t know/not applicable” are not shown.
2 le, the ability tp explain how Al models come to their decisions.
A Organização para a Cooperação e Desenvolvimento Econômico (OCDE) prevê, dentre os princípios para a administração responsável e confiável de sistemas de IA, que os agentes de IA devem ser responsáveis pelo funcionamento adequado dos respectivos sistemas e pelo respeito aos seguintes princípios: (i) valores centrados no ser humano e justiça; (ii) transparência e explicabilidade; e (iii) robustez, segurança e proteção, com base em suas funções, no contexto e de acordo com o estado da arte do sistema. 8
No mesmo sentido, a Estratégia brasileira de Inteligência Artificial (EBIA), 9 alinhada às diretrizes da OCDE endossadas pelo Brasil, fundamenta-se em cinco princípios para uma gestão responsável dos sistemas de IA, quais sejam: (i) crescimento inclusivo, desenvolvimento sustentável e o bem-estar; (ii) valores centrados no ser humano e na equidade; (iii) transparência e explicabilidade; (iv) robustez, segurança e proteção; e (v) responsabilização e prestação de contas (accountability).
Por sua vez, o CIPL propõe alguns critérios regulatórios pertinentes baseados em riscos relacionados aos sistemas de IA:
• Fomentar a inovação por meio de práticas responsáveis das organizações: ao invés de impor requisitos prescritivos e indiscriminados, a abordagem regulatória deveria estabelecer requisitos gerais de responsabilidade baseada em risco e resultados que as organizações devem alcançar. As organizações definiriam e ajustariam essas medidas com base em sua própria avaliação, melhores práticas do setor, orientações regulatórias ou padrões técnicos externos.
A abordagem regulatória de IA também deveria estabelecer “incentivos” adequados para estimular e acelerar as práticas de responsabilização das organizações e encorajar ferramentas de corregulação, como autoavaliações, certificações e códigos de conduta.
Ainda, normas de IA não deveriam entrar em conflito com outras legislações aplicáveis, como leis de proteção de dados, visando mitigar o risco de insegurança jurídica, o que poderia trazer um efeito inibidor no desenvolvimento e implantação de tecnologias inovadoras de IA;
• Confiança em avaliações de impacto realizadas por organizações, incluindo seus benefícios e potenciais riscos. A consulta prévia a reguladores seria limitada aos usos de IA de alto risco, de difícil mitigação, o que permitiria uma abordagem de conformidade condizente com o caráter dinâmico da IA. Da mesma forma, os requisitos de sistemas de IA éticos seriam calibrados pelas organizações e implementados dependendo do seu risco;
• Permitir abordagens consistentes e modernas de supervisão regulatória com base no atual ecossistema de reguladores: manter intacta a competência das autoridades de proteção de dados quando a IA envolve o tratamento de dados pessoais e a criação de uma estrutura de governança de centros regulatórios compostos por especialistas em IA de diferentes reguladores para resolver inconsistências e lidar com casos em que o uso de IA tem um impacto transfronteiriço e/ou …
Com o Pesquisa Jurídica Avançada, você acessa o acervo de Doutrina da Revista dos Tribunais e busca rapidamente o conteúdo que precisa dentro de cada obra.