Busca sem resultado
Inteligência Artificial (Ia)

Inteligência Artificial (Ia)

Capítulo 19. Boas Práticas Empresariais de Accountability no Uso da Inteligência Artificial

Entre no Jusbrasil para imprimir o conteúdo do Jusbrasil

Acesse: https://www.jusbrasil.com.br/cadastro

Rony Vainzof

1. Introdução

Inteligência artificial (IA), juntamente com automação, robótica, supercomputadores, big data, internet das coisas, computação em nuvem, criptografia, blockchain, redes de alto desempenho, redes móveis 5G, microeletrônicos e sensores, são apenas algumas das tecnologias condicionantes para o desenvolvimento econômico, social e digital de qualquer nação no século 21.

Os sistemas de IA permitem aos seres humanos explorar níveis de conhecimento inimagináveis há poucos anos, abrindo margem para novas descobertas e contribuindo com a possível resolução de grandes desafios para a humanidade na atualidade, como o tratamento de doenças graves e mitigação de surtos pandêmicos, alterações climáticas, gestão de riscos financeiros, prevenção a acidentes automobilísticos e a ilícitos cibernéticos, apenas para citar alguns exemplos.

Porém, caso a evolução tecnológica não esteja revestida de confiança no ambiente digital, com segurança e respeito aos direitos dos indivíduos, por meio da ação estruturada, interligada e coordenada entre organizações públicas e agentes privados, potencialmente os objetivos de desenvolvimento estarão fadados ao fracasso ou a um ritmo de crescimento desacelerado.

Quando se trata de IA, ainda mais considerando o seu crescente uso por empresas e governos, o citado requisito confiança se torna ainda mais fundamental, mormente em razão dos riscos de sistemas autônomos funcionarem sem levar em consideração eventuais danos aos indivíduos. Por serem valiosos, automação e IA continuarão a ser desenvolvidos e aprimorados até que serão mais inteligentes que a humanidade e aperfeiçoarão a si mesmos, o que pode culminar na “Explosão da Inteligência”, 1 momento no qual o processo sairá do controle humano.

Ou seja, sistemas de IA combinam conectividade, autonomia e dados para desempenharem tarefas com pouca ou nenhuma supervisão ou controle humano, e são capazes de melhorar o seu próprio desempenho graças à aprendizagem com a experiência (machine learning). Além disso, a opacidade do processo decisório da IA (dificuldade de decodificar o resultado gerado pelo algoritmo) torna mais complexo prever o seu comportamento e compreender as possíveis causas de um evento danoso.

Quanto maior o risco das decisões e ações no uso da IA sobre o ser humano, como os que possam afetar direitos e garantias fundamentais (vida, discriminação, privacidade, entre outros), maior deverá ser a prevenção, responsabilização e prestação de contas pelos agentes responsáveis (accountability).

Seguindo parâmetros internacionais, 2 uma IA de confiança deve seguir basicamente três componentes, a serem observados ao longo de todo o ciclo de vida do sistema e de forma harmônica: a) deve ser lícito: em conformidade com o arcabouço normativo aplicável; b) deve ser ético: garantindo a observância de princípios e valores éticos; c) deve ser sólido: tanto do ponto de vista técnico como do ponto de vista social, uma vez que, mesmo com boas intenções, os sistemas de IA podem causar danos não intencionais.

Confirmar o respeito a princípios éticos, realizar uma Avaliação de Impacto da Inteligência Artificial (AIIA) e identificar a cadeia de responsáveis, especialmente nos casos em que o grau de autonomia e criticidade do uso de IA é alto, durante todo o seu ciclo de vida, são alguns dos parâmetros relevantes sob a perspectiva de boas práticas empresariais, principalmente diante da necessária abordagem mínima regulatória, baseada em risco e em camadas para regular sistemas de IA, de acordo com as normas legais e padrões já existentes e com base em práticas responsáveis das organizações.

O presente artigo visa, assim, debater o papel da governança e da responsabilidade do setor privado para que o uso de IA forneça salvaguardas adequadas aos indivíduos como forma de manter a confiança no ambiente digital e a evolução da economia, pois qualquer vulnerabilidade ou falha pode implicar em sensíveis reduções de direitos e liberdades.

2. Accountability

O princípio de accountability ou de responsabilização e prestação de contas visa estabelecer que o agente responsável pelos sistemas de IA possa demonstrar que adotou medidas eficazes e capazes de comprovar a observância e o cumprimento das normas aplicáveis, além da eficácia dessas medidas, 3 de acordo com a sua responsabilidade.

O referido princípio traz uma responsabilidade corporativa condizente com modernas economias baseadas em tecnologia da informação e dados, garantindo proteção eficaz para os indivíduos, culminando no aumento da confiança no ambiente digital.

Os principais elementos do accountability, conforme o Centre for Information Policy Leadership (CIPL). são: liderança e supervisão; avaliação de risco; políticas e procedimentos; transparência; treinamento e conscientização; monitoramento e verificação; e resposta e enforcement. 4

Idealmente, legislações devem abordar referidos elementos de forma flexível para uma organização conseguir adaptar cada um deles aos seus riscos e requisitos específicos por meio de seus próprios processos de avaliação que fazem parte de seus programas de desenvolvimento de novas tecnologias baseados em prestação de contas 5 .

Mesmo no caso de ausência de legislações específicas sobre IA, como ocorre no Brasil, 6 boas práticas empresariais baseadas em responsabilização e prestação de contas podem e devem ser implementadas para sistemas de IA com base em diretrizes éticas, que são pautadas em direitos e garantias individuais.

Ou seja, as organizações devem implementar programa ético de desenvolvimento ou de utilização de sistemas de IA abarcando elementos essenciais de responsabilidade e conformidade com as normas gerais aplicáveis (CF, CDC, CC, LGPD, Marco Civil da Internet, Lei do Cadastro Positivo, apenas para citar alguns exemplos), confirmando a eficácia do referido programa e garantindo a sua melhoria contínua, além terem evidências e serem capazes de demonstrar a eficácia dele internamente ou perante terceiros.

Em pesquisa realizada pela McKinsey Digital (2020), com milhares de empresas ao redor do mundo, de diversos setores, foram apuradas as seguintes informações sobre o que consideram risco e se estão adotando medidas para mitigá-los quanto ao uso de IA: 7

1 Question was asked Only os repondents who said their organizations had adopted Al in at least one business function; n = 1,151. Respondents who said “don’t know/not applicable” are not shown.

2 le, the ability tp explain how Al models come to their decisions.

A Organização para a Cooperação e Desenvolvimento Econômico (OCDE) prevê, dentre os princípios para a administração responsável e confiável de sistemas de IA, que os agentes de IA devem ser responsáveis pelo funcionamento adequado dos respectivos sistemas e pelo respeito aos seguintes princípios: (i) valores centrados no ser humano e justiça; (ii) transparência e explicabilidade; e (iii) robustez, segurança e proteção, com base em suas funções, no contexto e de acordo com o estado da arte do sistema. 8

No mesmo sentido, a Estratégia brasileira de Inteligência Artificial (EBIA), 9 alinhada às diretrizes da OCDE endossadas pelo Brasil, fundamenta-se em cinco princípios para uma gestão responsável dos sistemas de IA, quais sejam: (i) crescimento inclusivo, desenvolvimento sustentável e o bem-estar; (ii) valores centrados no ser humano e na equidade; (iii) transparência e explicabilidade; (iv) robustez, segurança e proteção; e (v) responsabilização e prestação de contas (accountability).

Por sua vez, o CIPL propõe alguns critérios regulatórios pertinentes baseados em riscos relacionados aos sistemas de IA:

Fomentar a inovação por meio de práticas responsáveis das organizações: ao invés de impor requisitos prescritivos e indiscriminados, a abordagem regulatória deveria estabelecer requisitos gerais de responsabilidade baseada em risco e resultados que as organizações devem alcançar. As organizações definiriam e ajustariam essas medidas com base em sua própria avaliação, melhores práticas do setor, orientações regulatórias ou padrões técnicos externos.

A abordagem regulatória de IA também deveria estabelecer “incentivos” adequados para estimular e acelerar as práticas de responsabilização das organizações e encorajar ferramentas de corregulação, como autoavaliações, certificações e códigos de conduta.

Ainda, normas de IA não deveriam entrar em conflito com outras legislações aplicáveis, como leis de proteção de dados, visando mitigar o risco de insegurança jurídica, o que poderia trazer um efeito inibidor no desenvolvimento e implantação de tecnologias inovadoras de IA;

Confiança em avaliações de impacto realizadas por organizações, incluindo seus benefícios e potenciais riscos. A consulta prévia a reguladores seria limitada aos usos de IA de alto risco, de difícil mitigação, o que permitiria uma abordagem de conformidade condizente com o caráter dinâmico da IA. Da mesma forma, os requisitos de sistemas de IA éticos seriam calibrados pelas organizações e implementados dependendo do seu risco;

Permitir abordagens consistentes e modernas de supervisão regulatória com base no atual ecossistema de reguladores: manter intacta a competência das autoridades de proteção de dados quando a IA envolve o tratamento de dados pessoais e a criação de uma estrutura de governança de centros regulatórios compostos por especialistas em IA de diferentes reguladores para resolver inconsistências e lidar com casos em que o uso de IA tem um impacto transfronteiriço e/ou …

Uma nova experiência de pesquisa jurídica em Doutrina. Toda informação que você precisa em um só lugar, a um clique.

Com o Pesquisa Jurídica Avançada, você acessa o acervo de Doutrina da Revista dos Tribunais e busca rapidamente o conteúdo que precisa dentro de cada obra.

  • Acesse até 03 capítulos gratuitamente.
  • Busca otimizada dentro de cada título.
Ilustração de computador e livro
jusbrasil.com.br
24 de Maio de 2024
Disponível em: https://www.jusbrasil.com.br/doutrina/secao/capitulo-19-boas-praticas-empresariais-de-accountability-no-uso-da-inteligencia-artificial-inteligencia-artificial-ia/1394839625