AS FUNÇÕES DO DIREITO FACE À
INTELIGÊNCIA ARTIFICIAL
AS FUNÇÕES DO DIREITO FACE À
INTELIGÊNCIA ARTIFICIAL
A
utilização da inteligência artificial no cotidiano não é apenas uma opção.
Trata-se de uma contingência da contemporaneidade. São tantas as situações nas
quais o ser humano já é orientado ou governado por este tipo de inteligência
que não há mais espaço para questionamento acerca da possibilidade de livres
eleições relativas a esta interferência.
A
título ilustrativo, ao acessar a internet, qualquer indivíduo deixa seus
rastros digitais. A partir de ferramentas de análise, é possível traçar todo o
comportamento online do sujeito, fornecendo na sequência conteúdo ou ofertas de
bens e serviços que estejam diretamente ligados à linha de interesse
demonstrada na habitual navegação em rede. Outros exemplos vão se somando cada
vez mais. Desde serviços mais simples, como aqueles de geolocalização
fornecidos por aplicativos ou sistemas de recomendações em serviços de
transmissão de áudio e vídeo por streaming, até o desenvolvimento de veículos
autônomos, diagnósticos médicos antecipados e computação quântica.
Desta
forma, é importante questionar em que medida a interferência da inteligência
artificial pode vir a provocar a supressão da liberdade do indivíduo e,
consequentemente, o próprio exercício de sua autonomia privada. E neste
sentido, deve-se verificar o impacto da reiteração de comportamentos online
direcionados por algoritmos comandados por este tipo de inteligência, na
construção de uma sociedade efetivamente plural, ante à possibilidade de
reforço indevido de vieses de confirmação. Sendo assim, ao que parece, uma
primeira e super importante função do Direito diante do desenvolvimento da
inteligência artificial seria preservar as liberdades dos sujeitos.
O
Direito tem indubitavelmente uma essencial função garantidora da liberdade,
razão pela qual toda e qualquer construção de ferramentas de inteligência
artificial deveria primar pela preservação deste direito fundamental. Ocorre
que hoje, os principais estudos relativos à IA e o Direito focam na construção
de novas ferramentas que possam auxiliar na resolução dos inúmeros problemas e
desafios que a prática judiciária oferece, seja alterando as estratégias de
atuação de escritórios de advocacia, transformando a administração da justiça
ou incrementando o uso da estatística para a compreensão dos fenômenos jurídicos
(jurimetria).
O
debate que ora se propõe é desenvolvido a partir de outra vertente, qual seja,
da análise do Direito como instrumento de preservação de direitos fundamentais,
diante da amplificação dos produtos e serviços que se utilizam em maior ou
menor grau da inteligência artificial.
Algoritmos
são construídos com a finalidade de solucionar problemas construídos a
princípio pela inteligência humana. Na visão de Bentley e outros, a
inteligência não humana depende de desafios a serem solucionados, pois só assim
surge ou se desenvolve. Logo, a IA está vinculada aos incentivos humanos
adequados para se desenvolver, o que inexoravelmente conduzirá a condutas
voluntárias na sua própria essência, mesmo nos casos em que mais adiante seja
possível enxergar a possibilidade da aprendizagem de máquinas (machine learning).
A
programação destes algoritmos, portanto, deve respeitar não apenas princípios
éticos, mas sobremaneira direitos fundamentais daqueles que serão direta ou
indiretamente impactados pela utilização do produto ou serviço com aplicações
de inteligência artificial.
Em
caráter ilustrativo, indaga-se: uma aplicação de serviços de geolocalização,
como o Waze ou o Google Maps, poderia indicar ao usuário um itinerário no qual
este fosse, propositalmente, direcionado a passar em frente a uma empresa que
patrocina tal serviço, a fim de que o consumidor fosse instado a ali parar e
adquirir as ofertas do dia? Seria este tipo de parceria comercial, que coloca
os interesses das empresas em primeiro plano, desconsiderando a posição de
vulnerabilidade do usuário, uma conduta potencialmente lesiva à liberdade de
escolha desse sujeito, sobremaneira quando não lhe for informada adequadamente?
Num
segundo exemplo, poderia um serviço de streaming, como o Netflix ou o Spotify,
a fim de atender interesses comerciais ou ideológicos, programar um algoritmo
de recomendação de filmes, séries, músicas e podcasts para que mais pessoas
possam consumir um tipo de conteúdo cultural em detrimento de outro? Até que
ponto isto poderia servir como instrumento de manipulação de massas?
Portanto,
é possível que algoritmos sejam indevidamente programados para apenas
reforçarem o denominado viés de confirmação, através do qual há um
estreitamento da visão mundana, pela supressão de liberdades de escolhas.
Impactadas por este viés, as pessoas passam a acreditar e aceitar numa única
história ou ponto de vista, pelo simples fato de desejarem que aquilo dali
fosse mesmo traduzido numa verdade. A era da pós-verdade reforça teorias ou ideias
de estimação, impedindo que outras versões ou opiniões sejam apresentadas.
Histórias excêntricas passam a ganhar cada vez mais relevo, mesmo quando
confrontadas com uma coletânea de dados cientificamente verificados.
Os
riscos à liberdade de escolha são concretos, fato este que deve servir para
reforçar a função garantidora de direitos, inerente à ciência jurídica. Como
então superar estas potencialidades lesivas descortinadas pelo uso da
inteligência artificial? Inicialmente, dois caminhos podem ser apontados: a
inteligibilidade e a transparência (accountability).
Por
meio da inteligibilidade seria possível compreender-se minimamente como as
respostas dos modelos de IA são geradas. Sabe-se que os algoritmos são modelos
matemáticos que por vezes possuem estruturas numéricas complexas, podendo
ocasionar dificuldades no entendimento do fornecimento das respostas (ou
saídas). Como destacado por Nilton Correia da Silva, as pesquisas atuais, ao
buscarem um cenário ótimo, visam construir aplicações de IA que sejam a um só
tempo assertivas e com alto nível de compreensão. Desenvolver modelos com alto
nível de assertividade é tão importante quanto desenvolver modelos
interpretáveis. Um observador humano deveria compreender as razões que estão
por trás de uma predição realizada por esse modelo que se vale da inteligência
artificial.
Esta
vertente é fundamental para a compreensão de como um modelo de IA pode ser algo
que suprima ou restrinja a liberdade de escolha de uma pessoa. Tanto é verdade
que, nos Estados Unidos, já se utiliza o termo Explainable AI para designar um conjunto de esforços que visam
buscar melhores os níveis de interpretabilidade aos algoritmos desenvolvidos.
Quanto
à transparência, registre-se desde logo que este tem sido um dos temas mais debatidos
quanto ao desenvolvimento de aplicações de inteligência artificial. É certo que
mesmo em processamento de dados promovidos por inteligência humana sempre houve
esta preocupação. Na verdade, diversos dilemas humanos agora são também
transferidos para as máquinas.
Todavia,
quando este processamento é realizado por algoritmos, surge naturalmente uma
tendência maior pela procura de métodos e marcos de controle. Afinal, por qual
razão um filme é indicado por um robô a uma pessoa e a outra não? Estes mecanismos
devem ser informados ao consumidor? Qual nível de esclarecimento deve ser
exigido daqueles que entregam este tipo de ferramenta? Para qual finalidade
meus dados são capturados? São várias perguntas que certamente merecem ser
feitas, como forma de se caminhar cada vez mais em busca da denominada
transparência algorítmica.
Na
era dos algoritmos é possível que haja o exercício de uma espécie de poder
subliminar que dificilmente seria identificável, ao menos pelo cidadão comum.
Como corretamente destacado por Fabiano Hartmann Peixoto e Roberta Zumblick
Martins da Silva, a pura exposição algorítmica com a demonstração dos
códigos-fonte ou mesmo a realização de auditorias irrefletidas podem gerar
ilusão de clareza. Logo, seria importante refletir sobre as possibilidades de
regulação de aplicações algorítmicas em softwares, sejam eles públicos ou
privados, estimulando assim mecanismos de identificação de possíveis erros ou
aplicações inadequadas, produzindo por via de consequência uma especialização
de sistemas de governança.
Esta
regulação por via legal tem sido profundamente debatida na Europa e nos Estados
Unidos. Em artigo escrito por Deven Dasai e Joshua Kroll, publicado no Harvard
Journal of Law & Technology, defende-se que esta regulamentação legal poderia
trazer ao menos quatro benefícios: a) evitar a inaptidão de sistemas
tradicionais; a analogia aqui pode não ser a melhor solução para estes novos
problemas; b) abordar as especificidades desta indústria, com todo seu
dinamismo, contando para tanto com a contribuição dos tecnólogos, engenheiros e
cientistas da computação; c) estabelecer uma estrutura de conformidade, tal
qual acontece em outros campos da vida, esclarecendo quais são os limites
aceitáveis, as responsabilidades, os requisitos e as fiscalizações que por
ventura devem ser levadas a efeito; d) reduzir as objeções dos sujeitos
regulamentados, ao estabelecer estruturas próprias de trabalho, com etapas e
termos tecnológicos, gerando ganhos de especialização.
Acredita-se
que hoje, mesmo sem um marco legal relativo à inteligência artificial, há
princípios no ordenamento que determinariam uma maior transparência por parte
dos provedores de aplicações. A boa-fé objetiva, a dignidade da pessoa humana e
o próprio solidarismo poderiam impor aqui, uma vez mais, a sua força normativa.
Tome-se
como exemplo a boa-fé objetiva e sua tríplice função. Como cânone
interpretativo previsto expressamente no art. 113 do Código Civil Brasileiro, a
boa-fé serviria como um padrão a orientar os juízes quando diante de dilemas
impostos pelo uso em concreto de ferramentas de inteligência artificial. Desta
forma, ao interpretar um contrato e os deveres que dali se extrai, um
magistrado poderia exigir que um provedor de aplicações de IA demonstrasse as
razões pelas quais se chegou a um determinado resultado. Traçando-se um exemplo
concreto, se uma instituição financeira viesse a negar um novo empréstimo a um
correntista, sob a alegação de que seus sistemas de informação analisaram o
perfil e declinaram quanto à revalidação do contrato de mútuo, um juiz poderia
impor que as razões determinantes que orientaram aquele software fossem
reveladas, como forma de dar ao contrato a devida conformação imposta pela
boa-fé objetiva.
Já quanto à função integrativa, é importante
recordar que para além dos deveres principais de um contrato, a boa-fé objetiva
impõe aos negociantes os denominados deveres anexos ou laterais, tais como o
dever de cooperação, proteção e informação. A partir da norma imperativa do
art. 422 do Código Civil, os contratantes devem atuar para além das prestações
de dar, fazer e não fazer, tidas como objetos principais. Cumprir os deveres
acessórios é fundamental para que haja o adimplemento adequado do contrato,
evitando sua violação positiva. Cooperar com o usuário de aplicação de IA é
perceber que seus interesses são tão importantes quanto os daqueles que
desenvolveram e se beneficiam economicamente do produto ou serviço. Proteger
este usuário é compreender que sua integridade física e psíquica devem ser
objeto de todo tipo de tutela possível. Informar é o pilar desta relação,
pautada na transparência algorítmica, deixando-se sempre claro quais são os
modos de funcionamento de cada sistema governado por este tipo de inteligência.
Por
fim, a função de controle do princípio da boa-fé objetiva pode ser também
importante instrumento de vedação ao abuso de direito por parte destas pessoas
naturais ou jurídicas, que se valem de inteligência artificial para a prestação
de seus serviços ou fornecimento de seus produtos. Prevista no art. 187 do
Código Civil, como grande cláusula geral de combate ao exercício indevido de
direitos subjetivos, a boa-fé tende a ser utilizada como vetor repressor de
condutas inapropriadas. Figuras como o venire
contra factum proprium, a supressio,
surrectio, o tu quoque, entre outras, podem auxiliar os juízes na verificação
das posições jurídicas adotadas por exploradores de IA, permitindo-se assim uma
tutela adequada daqueles que estão submetidos aos algoritmos.
Certo
é que a liberdade não pode ser corroída por uma eventual opacidade determinada
pelas grandes companhias que dominam o mercado de tecnologia ou mesmo por
startups que ingressam neste segmento. Por esta razão, ainda que não haja neste
momento um aparato normativo específico para tutelar estas novas e desafiadoras
questões, a liberdade enquanto direito fundamental merece a proteção adequada,
a partir da aplicação dos princípios hoje existentes no ordenamento jurídico
pátrio.
Nesta
esteira, vale também o debate relativo à proteção dos dados fornecidos por
usuários a provedores ou fornecedores, quando do relacionamento online, mediado
por inteligência artificial. Para além do que hoje consta na Lei 13.709/2018, a
Lei Geral de Proteção de Dados (LGPD), é necessário trabalhar com um novo conceito
de privacidade na era digital, tal qual defendido por Stéfano Rodotà. Na visão
do mestre italiano, a privacidade hoje requer o entendimento de que cada
sujeito deve ter o direito de manter
controle sobre seus dados pessoais, em especial no que se refere à
coleta, análise e efetiva utilização, o que nos termos da novel legislação se
denomina tratamento.
O
princípio do consentimento é uma das principais normas no cenário de proteção
de dados. Daí, há que se indagar: será que as aplicações de inteligência
artificial estão respeitando adequadamente os interesses e vontades
manifestadas pelos usuários, em especial no que toca à privacidade? Será que os
contratos de adesão online estão sendo claros o suficiente para que cada
usuário saiba o que está sendo feito com seus dados pessoais coletados?
Há
hoje um verdadeiro direito à autodeterminação informativa, reconhecido pelo
Tribunal Constitucional Federal Alemão desde a década de 1980 e, mais
recentemente, também pelo próprio Supremo Tribunal Federal. Conforme destacado
no voto da Ministra relatora Rosa Weber no bojo da ADI 6.387, a
autodeterminação individual pressupõe, mesmo sob as condições da moderna
tecnologia de processamento de informação que, ao indivíduo, está garantida a
liberdade de decisão sobre as ações a serem procedidas ou omitidas. Como
decorrência da cláusula geral de resguardo aos direitos da personalidade,
reconheceu-se que o direito à privacidade e à autodeterminação informativa
foram positivados na LGPD brasileira e, independentemente da entrada em vigor
desta nova lei, já estariam de modo abarcados como direitos fundamentais pela
própria Constituição da República de 1988. Por esta e outras razões, a Medida
Provisória 954/2020 teve sua eficácia suspensa através de medida cautelar,
impedindo assim que o IBGE (Instituto Brasileiro de Geografia e Estatística)
obtivesse os dados de consumidores de serviços de telefonia fixa e móvel junto
às operadoras, para fins de suporte à produção estatística oficial durante a
pandemia de COVID-19.
Fortes
neste precedente da Corte Suprema e na nova norma de proteção de dados já em
vigor, as indagações feitas apontam para um cenário em que a autodeterminação
informativa será o fio condutor para as aplicações que se valem de inteligência
artificial. O Brasil necessitará cada vez mais de um Poder Judiciário atento,
atualizado e disposto a combater eventuais abusos que coloquem em risco a
privacidade, em seu novo e dinâmico conceito.
E
nesta mesma direção, caberia também aos órgãos e entidades responsáveis pela tutela
dos interesses difusos e coletivos buscarem um maior acerto destas condutas,
com a finalidade de se obter uma verdadeira proteção a toda a coletividade, que
hoje já é impactada pelo uso de aplicações de inteligência artificial. As
iniciativas em solo brasileiro ainda são tímidas neste sentido, muito
possivelmente em virtude do desconhecimento da temática por grande parte dos
operadores do Direito. Há que se caminhar rapidamente na busca do ajustamento
de órgãos e pessoas para enfrentamento desta realidade tecnológica.
>>>>>> Cursos Grátis <<<<<<
Nenhum comentário:
Postar um comentário
Seu comentário desempenha um papel fundamental na melhoria contínua e na manutenção deste blog. Que Deus abençoe abundantemente você!