Os limites da Inteligência Artificial


É inegável que a inteligência artificial é um assunto sedutor, de aparente facilidade, com o viés de desobstrução de tarefas repetitivas. Esta tecnologia sugere substituição de talentos humanos, à medida que o robô de inteligência artificial é capaz de aprender, resolver, planejar, perceber, intuir e processar a linguagem humana natural, deixando de lado a linguagem binária das máquinas.


Embora a recente aprovação da legislação sobre os dados, perdeu-se oportunidade de inovar no direito pátrio, com a adoção de um compromisso legal e os limites do uso da inteligência artificial, no entanto o marco civil da internet também não o fez. Essas duas legislações represam infeliz coincidência: tratam riscos sociais e tecnologia sob a perspectiva do passado; como um veículo guiado apenas sob a atenção de seu retrovisor.


Nesta reflexão, uma preocupação jurídica cabe aos limites à inteligência artificial. A primeira, é a respeito da transparência do aprendizado da máquina, assegurando confiança de suas decisões e que as premissas na construção da tecnologia foram submetidas a uma ampla participação de diferentes interessados. Em outras palavras, significa sublimar interesses negociais em benefício da ética no ambiente da lógica usada para que a máquina tome decisões artificiais. A preocupação comprova-se no exemplo dos carros autônomos, ou como a inteligência artificial é capaz de conduzir veículos, ou ainda, analisar liberações de seguros às vítimas. É imprescindível compreender como o robô tomará as decisões, com transparência integral das premissas que o robô utilizará para as decisões.


Num outro prisma é a seleção dos dados e o possível viés preconceituoso, afinal o professor da máquina ainda é o ser humano. Os algoritmos serão confiáveis se adotarem o compromisso metodológico de valerem-se de dados de entrada puros e perfeitos, senão o resultado é o preconceito da máquina frente ao desconhecido. No início de 2011 um robô que era capaz de avaliar e predizer o risco de quantos infratores reincidiriam em novos delitos, tornou-se preconceituoso em razão dos dados de entrada, que selecionou recorte temporal onde determinada etnia foi mais delituosa que as demais, enviesando a máquina. Os dados geraram falsa assertividade ao predizer que a citada etnia seria reincidente nos delitos, transformando a máquina em uma tomadora de decisão preconceituosa.


E o terceiro, envolve um aprendizado da máquina através da interação com o ambiente externo, a Internet. Talvez o maior perigo. A máquina coleta dados aleatoriamente (interação dinâmica), sem controle humano ou diminuto. Este formato gera comportamentos imprevisíveis, senão controlados. Os aprendizados funcionam como um adestramento de animais de estimação. Isto é, pela recompensa, ensinamos os truques. A cognição robótica avaliará a maior recompensa e fará o que for preciso para chegar ao resultado. As consequências da ausência de supervisão seriam devastadoras. Um carro autônomo, que pela ambição ao melhor resultado, explorará dirigir pelo lado errado da estrada, até porque a via correta está engarrafada; ou uma invasão na plataforma de chat bots, que passa a receber dados de entrada racistas e ensinam ao robô atitudes nocivas a seres humanos.


Os limites precisam ser vistos antes da evolução. A legislação deve abarcar premissas éticas, do absoluto controle humano sobre robôs cognitivos, centralidade do usuário e a segurança jurídica. A ética precisa priorizar a vontade é do usuário e a sua responsabilidade no desenvolvimento da tecnologia, com duras restrições as máquinas que decidirem assuntos sob a égide do preconceito.


A sensibilidade é fundamental e evitará resultados contraproducentes aos direitos humanos. O controle humano, soberano, deve permitir a interrupção da atividade robótica ou desligamento do sistema além de incorporar a exigência de checagem humana sempre que houver novas decisões robotizadas, especialmente quando tais importarem em risco da vida humana, segurança e direitos fundamentais. E pela segurança jurídica, mecanismos legais de controle que assegurem quais limites e responsabilidades das decisões artificiais. Isso incluirá trabalho de especialistas em inúmeras disciplinas para identificar gargalos e experimentar cenários de insegurança jurídica, cujo respeito de desenvolvedores e aderência às conformidades legais em seus scripts são imprescindíveis. Não que se pretenda a censura, mas certamente os rumos da responsabilidade civil serão outros, quando uma excludente de responsabilidade civil for justificada pela interpretação robótica. Hoje é difícil pensar em responsabilidade do robô, mas a tecnologia se avizinhou.


Esta situação é diversa a pretendida pelo CDC, porque o produtor construiu; logo o robô foi ensinado, depois o robô reconheceu os seus próprios dados (vontade própria). Ainda assim o criador é o responsável ?


Os rumos e impactos da tecnologia estão em aberto. No futuro, a litigância será com as leis que controlem os limites dos robôs e seus comportamentos esculpidos em suas redes neurais. Nisso, os humanos são rudimentares e desprezam tais preocupações, porque controlou até aqui. Ante a inteligência artificial, que ensinada, não tem tomada; e não desliga, o interesse em limitar e regrar sua função é imprescindível a preservação da dignidade humana.

32 visualizações
  • LinkedIn Social Icon
  • Facebook ícone social
  • Instagram ícone social
Siga e curta
Criado por