O rápido desenvolvimento da inteligência artificial (IA) está despertando uma importante discussão sobre a necessidade de se estabelecerem princípios éticos para o uso dessa tecnologia, especialmente quando a máquina é capaz de aprender sozinha.
Casos como o da robô Tay, da Microsoft, que praticamente virou racista e homofóbica em apenas 24 horas solta no Twitter, e dos bots do Facebook que criaram uma linguagem própria para conversar entre si e que era incompreensível para os programadores deixaram o tema ainda mais latente.
“Estamos criando máquinas imprevisíveis by design”, diz Eduardo Magrani, advogado especialista em direito digital e professor da FGV, do IBMEC e da PUC-Rio, autor do livro “Entre dados e Robôs”
O assunto já faz parte da agenda de grandes empresas de tecnologia e de órgãos internacionais e multilaterais como a OCDE e a Comunidade Europeia. No Brasil, contudo, o debate não está na pauta do dia, embora o País seja protagonista no desenvolvimento de processamento de linguagem natural em português e tenha uma série de startups investindo no desenvolvimento de inteligência artificial, especialmente nos setores de atendimento (via chatbot) e de legaltechs. Mobile Time entrevistou oito especialistas sobre o assunto. Todos concordam quanto à urgência desse debate no País.
“Se a ideia é criar agentes autônomos que substituam os seres humanos não apenas nos aspectos físicos, mas cognitivos, isso tem que ser orientado por uma discussão ética forte”, comenta Eduardo Magrani, advogado especialista em direito digital e professor da FGV, do IBMEC e da PUC-Rio, autor do livro “Entre dados e Robôs”, que será lançado dia 3 de julho pela editora Arquipélago. “Antes criávamos máquinas domesticadas, cujos riscos atrelados eram conhecidos. Agora estamos criando máquinas imprevisíveis by design. Precisamos discutir em que sociedade queremos viver; que tipos de tecnologias a gente quer criar; e quais riscos estamos dispostos a correr”, argumenta.
“Dado o avanço da tecnologia de inteligência artificial e sua utilização nos mais diversos tipos de aplicações, se torna necessário estabelecer limites éticos para evitar abusos e situações esdrúxulas ou anormais como as que já estão surgindo nos campos de reconhecimento facial, seleção de perfis para o recebimento de propaganda, criação de sistemas de armas, dentre outros”, faz coro o advogado especializado em direito digital Rafael Pellon, sócio do escritório FAS Advogados e consultor jurídico do MEF.
“Esse jogo está começando, está sendo construído a partir de agora, com os bots. Daqui a um ano o cenário estará mais avançado ainda. E daqui a cinco anos estará irreconhecível. Vi muitas pessoas e comunidades que precisam de limites, mas esses limites precisam ser muito bem amarrados para não inibir a inovação. É um tema sensível”, comenta Rodrigo Scotti, fundador e CEO da startup brasileira Nama, que desenvolveu uma plataforma própria de processamento de linguagem natural em português, a NAIL (Nama Artificial Intelligence Language).
Princípios
Mas quais poderiam ser os princípios éticos a nortear o desenvolvimento de projetos de inteligência artificial? Alguns que já vêm sendo debatidos no âmbito internacional são os seguintes: 1) justiça e não-discriminação; 2) proteção à privacidade dos dados; 3) transparência (especialmente sobre o funcionamento do algoritmo); 4) definição de responsabilidades e de prestação de contas; 5) valorização da diversidade e da inclusão social; 6) preservação do bem-estar social e do meio ambiente; 7) supervisionamento humano.
O chefe do departamento de ciência da computação e professor titular de inteligência artificial do IME-USP, Marcelo Finger, faz uma comparação com a Medicina, para a qual existe há 2,5 mil anos o juramento de Hipócrates, que estabelece uma série de valores e princípios éticos para o trabalho dos médicos, enquanto na computação não há nada parecido. “Quando digo que a Medicina está 2,5 mil anos na nossa frente nesse debate não é só uma impressão”, comenta.
Por sua vez, Joana Varon, diretora da Coding Rights, organização que atua para identificar e corrigir desigualdades presentes na tecnologia, alerta que a palavra “ética” tem um significado demasiadamente amplo e sujeito a interpretações. Ela defende que se discuta o desenvolvimento da inteligência artificial de forma que esta proteja e promova direitos humanos, como igualdade, liberdade de expressão e respeito à privacidade.
Tecnologia neutra?
É fundamental para essa discussão entender que por trás de qualquer solução de inteligência artificial existem seres humanos, que pensaram no seu propósito, elaboraram um algoritmo e definiram quais dados iriam alimentá-lo. Tudo isso pode impregnar de parcialidade, intencionalmente ou não, o funcionamento da solução, mesmo que esta seja capaz de aprender sozinha – o chamado “machine learning”.
“O primeiro passo é ter a consciência de que IA não é perfeita, que é sujeita à influência dos dados, ou do programador, ou de quem a ensina”, resume Daniel Marques, diretor executivo da AB2L (Associação Brasileira de Lawtechs & Legaltechs).
Varon, da Coding Rights, acrescenta: “Tem gente que pensa que a tecnologia é neutra, que não vem carregada de visões políticas. A gente faz pesquisas que demonstram que existem valores na construção da tecnologia de maneira que esta funcione para tornar a sociedade mais justa e igualitária ou, ao contrário, para acirrar a desigualdade”.
Há inúmeros casos polêmicos relatados nos últimos anos que confirmam a reprodução de preconceitos sociais em algoritmos de inteligência artificial. Um dos mais notórios é o do software Compas, usado pela Justiça norte-americana para auxiliar juízes na decisão de mandar um acusado para trás das grades ou permitir que ele responda em liberdade dependendo de uma pontuação calculada por um algoritmo que indica seu risco de reincidência. Ficou comprovado que a solução dava pontuações mais baixas para réus negros.
Mesmo informações aparentemente inofensivas podem ser usadas de forma discriminatória por um algoritmo com aprendizado de máquinas, alerta Finger, da USP. O CEP de um endereço, por exemplo, pode ajudar a separar quem vive na periferia daqueles que vivem em áreas nobres de uma cidade.
“É uma decisão que você tem que tomar: quais dados entregar na entrada para conseguir a saída desejada. Esse tipo de decisão acontece o tempo inteiro, desde a concepção do sistema e a definição dos métodos: você tem que pensar nas consequências que suas escolhas vão ter. Às vezes é melhor dar menos informações para evitar que sejam usadas de forma discriminatória. Seu algoritmo vai ter que ‘rebolar’ para trabalhar com menos dados”, recomenda o professor da USP.
Não é fácil resolver o problema. Exigir transparência, com a abertura dos códigos do algoritmo, não é suficiente, alerta a juíza federal e coordenadora do Instituto New Law, Isabela Ferrari, que estuda o assunto em seu doutorado na UERJ: “Os algoritmos fazem análises muito complexas, com muitos dados e muitas correlações entre eles, o que está além da nossa capacidade de compreensão. Ou seja, ainda que a gente abra o código, não vamos entender o que está acontecendo. Além disso, o processo decisório em machine learning é dinâmico, não estático.”
Um dos caminhos para minimizar a reprodução de preconceitos por um algoritmo de machine learning seria incorporar propositalmente um pouco de aleatoriedade nos dados que o alimentam, de maneira a forçá-lo a fazer novos cálculos e diminuir eventuais tendências de parcialidade a favor ou contra determinado grupo social.
No caso de algoritmos adotados pelo poder público, é recomendado que a sociedade possa participar do processo desde antes da sua construção, sendo informada sobre o propósito da solução, o modelo de IA adotado, os dados que vão alimentá-lo etc. Para Ferrari, é fundamental que soluções de IA usadas pelo poder público e que influenciem decisões sobre a vida ou a propriedade das pessoas sejam passíveis de auditoria.
A quem cabe decidir?
O debate em torno de princípios éticos para o desenvolvimento da inteligência artificial está na ordem do dia de importantes órgãos internacionais. Recentemente, a OCDE (Organização para a Cooperação e Desenvolvimento Econômico), que compreende 36 países, publicou uma lista de princípios básicos para o desenvolvimento de inteligência artificial, na qual estão incluídas a proteção dos direitos humanos e a promoção do desenvolvimento sustentável.
Paralelamente, a Comissão Europeia divulgou uma primeira versão de um documento com princípios éticos para uma inteligência artificial confiável. Os dois documentos têm muitos pontos em comum.
Fóruns internacionais de tecnologia, como o IGF (Internet Governance Forum) e o IEEE (Instituto de Engenheiros Eletricistas e Eletrônicos), também vêm debatendo o tema entre seus associados.
E há até mesmo cidades criando leis sobre isso, como Nova Iorque, que estabeleceu uma diretriz para revisar todos os algoritmos utilizados na administração pública de forma a evitar que sejam discriminatórios.
Flávia Lefèvre, associada do Intervozes e representante do terceiro setor no CGI (Comitê Gestor da Internet), lembra que é importante que o debate acerca desses princípios éticos aconteça em âmbito multissetorial e que esteja aberto à participação popular, não se restringindo aos governos.
As empresas também podem participar desse debate. Em algumas delas, como IBM, Google e Microsoft, isso já acontece. Scotti, da Nama, destaca a importância de a comunidade de startups debater o tema, até para garantir que se preserve a liberdade de inovação. “Se não fizermos isso agora, capaz de o assunto ser levado à esfera política e serem tomadas decisões sem fundamento nenhum, de maneira totalmente arbitrária”, alerta.
A eventual criação de leis nacionais sobre inteligência artificial é vista com certo receio por parte dos especialistas entrevistados. Dependendo de quem as elabore ou da forma como forem redigidas, poderiam causar mais estragos do que benefícios para a sociedade.
De todo modo, há também uma preocupação de alguns dos entrevistados de se evitar um antagonismo entre regulamentação e inovação. “Não podemos pensar a ética como um freio, mas como um catalisador da inovação”, avalia Marques, da AB2L.
Por sua vez, Lefèvre, do Intervozes, chama a atenção para o fato de que a liberdade para inovar não pode se sobrepor aos direitos humanos: “Os rumos que a Internet tem tomado nos mostram que não necessariamente o que acontece muito rápido é de fato o melhor (para a humanidade). Precisamos ponderar em que medida a rapidez no desenvolvimento da tecnologia pode pôr em risco conquistas civilizatórias importantes.”
Tratado Internacional de IA
Há quem sonhe com a assinatura de um tratado internacional sobre ética em IA no futuro, o que poderia ser uma iniciativa da ONU. Porém, nada garante que todos os países o assinariam. Ao contrário, tal como no caso do tratado de não proliferação de armas nucleares ou aquele com metas para frear o aquecimento global, possivelmente haverá nações que se recusarão, alegando questões econômicas ou de segurança nacional.
Por isso, o professor Finger, da USP, entende que a preocupação tem que começar debaixo, já nas salas de aula de computação ao redor do mundo. A partir da conscientização dos programadores sobre a importância de se desenvolver IA de forma ética, a construção de tratados internacionais seria uma consequência. “Temos que ensinar ética para o programador antes mesmo de ele chegar perto do teclado, desde a primeira aula. Fica mais fácil fazer um tratado ser aceito em uma cultura em que a preocupação ética já seja premente”, argumenta.