Visite Nossa Loja Parceira do Magazine Luiza - Click na Imagem

Magazine na Lanterna

sábado, 23 de abril de 2022

AS FUNÇÕES DO DIREITO FACE À INTELIGÊNCIA ARTIFICIAL

 

AS FUNÇÕES DO DIREITO FACE À 

INTELIGÊNCIA ARTIFICIAL







AS FUNÇÕES DO DIREITO FACE À INTELIGÊNCIA ARTIFICIAL

            A utilização da inteligência artificial no cotidiano não é apenas uma opção. Trata-se de uma contingência da contemporaneidade. São tantas as situações nas quais o ser humano já é orientado ou governado por este tipo de inteligência que não há mais espaço para questionamento acerca da possibilidade de livres eleições relativas a esta interferência.

            A título ilustrativo, ao acessar a internet, qualquer indivíduo deixa seus rastros digitais. A partir de ferramentas de análise, é possível traçar todo o comportamento online do sujeito, fornecendo na sequência conteúdo ou ofertas de bens e serviços que estejam diretamente ligados à linha de interesse demonstrada na habitual navegação em rede. Outros exemplos vão se somando cada vez mais. Desde serviços mais simples, como aqueles de geolocalização fornecidos por aplicativos ou sistemas de recomendações em serviços de transmissão de áudio e vídeo por streaming, até o desenvolvimento de veículos autônomos, diagnósticos médicos antecipados e computação quântica.

            Desta forma, é importante questionar em que medida a interferência da inteligência artificial pode vir a provocar a supressão da liberdade do indivíduo e, consequentemente, o próprio exercício de sua autonomia privada. E neste sentido, deve-se verificar o impacto da reiteração de comportamentos online direcionados por algoritmos comandados por este tipo de inteligência, na construção de uma sociedade efetivamente plural, ante à possibilidade de reforço indevido de vieses de confirmação. Sendo assim, ao que parece, uma primeira e super importante função do Direito diante do desenvolvimento da inteligência artificial seria preservar as liberdades dos sujeitos.

            O Direito tem indubitavelmente uma essencial função garantidora da liberdade, razão pela qual toda e qualquer construção de ferramentas de inteligência artificial deveria primar pela preservação deste direito fundamental. Ocorre que hoje, os principais estudos relativos à IA e o Direito focam na construção de novas ferramentas que possam auxiliar na resolução dos inúmeros problemas e desafios que a prática judiciária oferece, seja alterando as estratégias de atuação de escritórios de advocacia, transformando a administração da justiça ou incrementando o uso da estatística para a compreensão dos fenômenos jurídicos (jurimetria).

            O debate que ora se propõe é desenvolvido a partir de outra vertente, qual seja, da análise do Direito como instrumento de preservação de direitos fundamentais, diante da amplificação dos produtos e serviços que se utilizam em maior ou menor grau da inteligência artificial.

            Algoritmos são construídos com a finalidade de solucionar problemas construídos a princípio pela inteligência humana. Na visão de Bentley e outros, a inteligência não humana depende de desafios a serem solucionados, pois só assim surge ou se desenvolve. Logo, a IA está vinculada aos incentivos humanos adequados para se desenvolver, o que inexoravelmente conduzirá a condutas voluntárias na sua própria essência, mesmo nos casos em que mais adiante seja possível enxergar a possibilidade da aprendizagem de máquinas (machine learning).

            A programação destes algoritmos, portanto, deve respeitar não apenas princípios éticos, mas sobremaneira direitos fundamentais daqueles que serão direta ou indiretamente impactados pela utilização do produto ou serviço com aplicações de inteligência artificial.

            Em caráter ilustrativo, indaga-se: uma aplicação de serviços de geolocalização, como o Waze ou o Google Maps, poderia indicar ao usuário um itinerário no qual este fosse, propositalmente, direcionado a passar em frente a uma empresa que patrocina tal serviço, a fim de que o consumidor fosse instado a ali parar e adquirir as ofertas do dia? Seria este tipo de parceria comercial, que coloca os interesses das empresas em primeiro plano, desconsiderando a posição de vulnerabilidade do usuário, uma conduta potencialmente lesiva à liberdade de escolha desse sujeito, sobremaneira quando não lhe for informada adequadamente?

            Num segundo exemplo, poderia um serviço de streaming, como o Netflix ou o Spotify, a fim de atender interesses comerciais ou ideológicos, programar um algoritmo de recomendação de filmes, séries, músicas e podcasts para que mais pessoas possam consumir um tipo de conteúdo cultural em detrimento de outro? Até que ponto isto poderia servir como instrumento de manipulação de massas?

            Portanto, é possível que algoritmos sejam indevidamente programados para apenas reforçarem o denominado viés de confirmação, através do qual há um estreitamento da visão mundana, pela supressão de liberdades de escolhas. Impactadas por este viés, as pessoas passam a acreditar e aceitar numa única história ou ponto de vista, pelo simples fato de desejarem que aquilo dali fosse mesmo traduzido numa verdade. A era da pós-verdade reforça teorias ou ideias de estimação, impedindo que outras versões ou opiniões sejam apresentadas. Histórias excêntricas passam a ganhar cada vez mais relevo, mesmo quando confrontadas com uma coletânea de dados cientificamente verificados.

            Os riscos à liberdade de escolha são concretos, fato este que deve servir para reforçar a função garantidora de direitos, inerente à ciência jurídica. Como então superar estas potencialidades lesivas descortinadas pelo uso da inteligência artificial? Inicialmente, dois caminhos podem ser apontados: a inteligibilidade e a transparência (accountability).

            Por meio da inteligibilidade seria possível compreender-se minimamente como as respostas dos modelos de IA são geradas. Sabe-se que os algoritmos são modelos matemáticos que por vezes possuem estruturas numéricas complexas, podendo ocasionar dificuldades no entendimento do fornecimento das respostas (ou saídas). Como destacado por Nilton Correia da Silva, as pesquisas atuais, ao buscarem um cenário ótimo, visam construir aplicações de IA que sejam a um só tempo assertivas e com alto nível de compreensão. Desenvolver modelos com alto nível de assertividade é tão importante quanto desenvolver modelos interpretáveis. Um observador humano deveria compreender as razões que estão por trás de uma predição realizada por esse modelo que se vale da inteligência artificial.

            Esta vertente é fundamental para a compreensão de como um modelo de IA pode ser algo que suprima ou restrinja a liberdade de escolha de uma pessoa. Tanto é verdade que, nos Estados Unidos, já se utiliza o termo Explainable AI para designar um conjunto de esforços que visam buscar melhores os níveis de interpretabilidade aos algoritmos desenvolvidos.

            Quanto à transparência, registre-se desde logo que este tem sido um dos temas mais debatidos quanto ao desenvolvimento de aplicações de inteligência artificial. É certo que mesmo em processamento de dados promovidos por inteligência humana sempre houve esta preocupação. Na verdade, diversos dilemas humanos agora são também transferidos para as máquinas.

            Todavia, quando este processamento é realizado por algoritmos, surge naturalmente uma tendência maior pela procura de métodos e marcos de controle. Afinal, por qual razão um filme é indicado por um robô a uma pessoa e a outra não? Estes mecanismos devem ser informados ao consumidor? Qual nível de esclarecimento deve ser exigido daqueles que entregam este tipo de ferramenta? Para qual finalidade meus dados são capturados? São várias perguntas que certamente merecem ser feitas, como forma de se caminhar cada vez mais em busca da denominada transparência algorítmica.

            Na era dos algoritmos é possível que haja o exercício de uma espécie de poder subliminar que dificilmente seria identificável, ao menos pelo cidadão comum. Como corretamente destacado por Fabiano Hartmann Peixoto e Roberta Zumblick Martins da Silva, a pura exposição algorítmica com a demonstração dos códigos-fonte ou mesmo a realização de auditorias irrefletidas podem gerar ilusão de clareza. Logo, seria importante refletir sobre as possibilidades de regulação de aplicações algorítmicas em softwares, sejam eles públicos ou privados, estimulando assim mecanismos de identificação de possíveis erros ou aplicações inadequadas, produzindo por via de consequência uma especialização de sistemas de governança.

            Esta regulação por via legal tem sido profundamente debatida na Europa e nos Estados Unidos. Em artigo escrito por Deven Dasai e Joshua Kroll, publicado no Harvard Journal of Law & Technology, defende-se que esta regulamentação legal poderia trazer ao menos quatro benefícios: a) evitar a inaptidão de sistemas tradicionais; a analogia aqui pode não ser a melhor solução para estes novos problemas; b) abordar as especificidades desta indústria, com todo seu dinamismo, contando para tanto com a contribuição dos tecnólogos, engenheiros e cientistas da computação; c) estabelecer uma estrutura de conformidade, tal qual acontece em outros campos da vida, esclarecendo quais são os limites aceitáveis, as responsabilidades, os requisitos e as fiscalizações que por ventura devem ser levadas a efeito; d) reduzir as objeções dos sujeitos regulamentados, ao estabelecer estruturas próprias de trabalho, com etapas e termos tecnológicos, gerando ganhos de especialização.

            Acredita-se que hoje, mesmo sem um marco legal relativo à inteligência artificial, há princípios no ordenamento que determinariam uma maior transparência por parte dos provedores de aplicações. A boa-fé objetiva, a dignidade da pessoa humana e o próprio solidarismo poderiam impor aqui, uma vez mais, a sua força normativa.

            Tome-se como exemplo a boa-fé objetiva e sua tríplice função. Como cânone interpretativo previsto expressamente no art. 113 do Código Civil Brasileiro, a boa-fé serviria como um padrão a orientar os juízes quando diante de dilemas impostos pelo uso em concreto de ferramentas de inteligência artificial. Desta forma, ao interpretar um contrato e os deveres que dali se extrai, um magistrado poderia exigir que um provedor de aplicações de IA demonstrasse as razões pelas quais se chegou a um determinado resultado. Traçando-se um exemplo concreto, se uma instituição financeira viesse a negar um novo empréstimo a um correntista, sob a alegação de que seus sistemas de informação analisaram o perfil e declinaram quanto à revalidação do contrato de mútuo, um juiz poderia impor que as razões determinantes que orientaram aquele software fossem reveladas, como forma de dar ao contrato a devida conformação imposta pela boa-fé objetiva.

             Já quanto à função integrativa, é importante recordar que para além dos deveres principais de um contrato, a boa-fé objetiva impõe aos negociantes os denominados deveres anexos ou laterais, tais como o dever de cooperação, proteção e informação. A partir da norma imperativa do art. 422 do Código Civil, os contratantes devem atuar para além das prestações de dar, fazer e não fazer, tidas como objetos principais. Cumprir os deveres acessórios é fundamental para que haja o adimplemento adequado do contrato, evitando sua violação positiva. Cooperar com o usuário de aplicação de IA é perceber que seus interesses são tão importantes quanto os daqueles que desenvolveram e se beneficiam economicamente do produto ou serviço. Proteger este usuário é compreender que sua integridade física e psíquica devem ser objeto de todo tipo de tutela possível. Informar é o pilar desta relação, pautada na transparência algorítmica, deixando-se sempre claro quais são os modos de funcionamento de cada sistema governado por este tipo de inteligência.

            Por fim, a função de controle do princípio da boa-fé objetiva pode ser também importante instrumento de vedação ao abuso de direito por parte destas pessoas naturais ou jurídicas, que se valem de inteligência artificial para a prestação de seus serviços ou fornecimento de seus produtos. Prevista no art. 187 do Código Civil, como grande cláusula geral de combate ao exercício indevido de direitos subjetivos, a boa-fé tende a ser utilizada como vetor repressor de condutas inapropriadas. Figuras como o venire contra factum proprium, a supressio, surrectio, o tu quoque, entre outras, podem auxiliar os juízes na verificação das posições jurídicas adotadas por exploradores de IA, permitindo-se assim uma tutela adequada daqueles que estão submetidos aos algoritmos.

            Certo é que a liberdade não pode ser corroída por uma eventual opacidade determinada pelas grandes companhias que dominam o mercado de tecnologia ou mesmo por startups que ingressam neste segmento. Por esta razão, ainda que não haja neste momento um aparato normativo específico para tutelar estas novas e desafiadoras questões, a liberdade enquanto direito fundamental merece a proteção adequada, a partir da aplicação dos princípios hoje existentes no ordenamento jurídico pátrio.

            Nesta esteira, vale também o debate relativo à proteção dos dados fornecidos por usuários a provedores ou fornecedores, quando do relacionamento online, mediado por inteligência artificial. Para além do que hoje consta na Lei 13.709/2018, a Lei Geral de Proteção de Dados (LGPD), é necessário trabalhar com um novo conceito de privacidade na era digital, tal qual defendido por Stéfano Rodotà. Na visão do mestre italiano, a privacidade hoje requer o entendimento de que cada sujeito deve ter o direito de manter  controle sobre seus dados pessoais, em especial no que se refere à coleta, análise e efetiva utilização, o que nos termos da novel legislação se denomina tratamento.

            O princípio do consentimento é uma das principais normas no cenário de proteção de dados. Daí, há que se indagar: será que as aplicações de inteligência artificial estão respeitando adequadamente os interesses e vontades manifestadas pelos usuários, em especial no que toca à privacidade? Será que os contratos de adesão online estão sendo claros o suficiente para que cada usuário saiba o que está sendo feito com seus dados pessoais coletados?

            Há hoje um verdadeiro direito à autodeterminação informativa, reconhecido pelo Tribunal Constitucional Federal Alemão desde a década de 1980 e, mais recentemente, também pelo próprio Supremo Tribunal Federal. Conforme destacado no voto da Ministra relatora Rosa Weber no bojo da ADI 6.387, a autodeterminação individual pressupõe, mesmo sob as condições da moderna tecnologia de processamento de informação que, ao indivíduo, está garantida a liberdade de decisão sobre as ações a serem procedidas ou omitidas. Como decorrência da cláusula geral de resguardo aos direitos da personalidade, reconheceu-se que o direito à privacidade e à autodeterminação informativa foram positivados na LGPD brasileira e, independentemente da entrada em vigor desta nova lei, já estariam de modo abarcados como direitos fundamentais pela própria Constituição da República de 1988. Por esta e outras razões, a Medida Provisória 954/2020 teve sua eficácia suspensa através de medida cautelar, impedindo assim que o IBGE (Instituto Brasileiro de Geografia e Estatística) obtivesse os dados de consumidores de serviços de telefonia fixa e móvel junto às operadoras, para fins de suporte à produção estatística oficial durante a pandemia de COVID-19.

            Fortes neste precedente da Corte Suprema e na nova norma de proteção de dados já em vigor, as indagações feitas apontam para um cenário em que a autodeterminação informativa será o fio condutor para as aplicações que se valem de inteligência artificial. O Brasil necessitará cada vez mais de um Poder Judiciário atento, atualizado e disposto a combater eventuais abusos que coloquem em risco a privacidade, em seu novo e dinâmico conceito.

            E nesta mesma direção, caberia também aos órgãos e entidades responsáveis pela tutela dos interesses difusos e coletivos buscarem um maior acerto destas condutas, com a finalidade de se obter uma verdadeira proteção a toda a coletividade, que hoje já é impactada pelo uso de aplicações de inteligência artificial. As iniciativas em solo brasileiro ainda são tímidas neste sentido, muito possivelmente em virtude do desconhecimento da temática por grande parte dos operadores do Direito. Há que se caminhar rapidamente na busca do ajustamento de órgãos e pessoas para enfrentamento desta realidade tecnológica.






Filosofia - Artigos


>>>>>> Cursos Grátis <<<<<<


Nenhum comentário:

Postar um comentário

Seu comentário desempenha um papel fundamental na melhoria contínua e na manutenção deste blog. Que Deus abençoe abundantemente você!

Visite nossa Página no JUSBRASIL

Site Jurídico

Mensagens de Bom Dia com Deus - Good morning messages with God - ¡Mensajes de buenos días con Dios

Bom Dia com Deus

Canal Luisa Criativa

Aprenda a Fazer Crochê

Semeando Jesus