Gabriel Mario Rodrigues
Presidente do Conselho de Administração da ABMES
***
“À medida que a tecnologia se aperfeiçoava, aconteceram duas coisas. Primeiro, quando as facas de sílex evoluíram gradualmente para mísseis nucleares, ficou mais perigoso desestabilizar a ordem social. Segundo, à medida que pinturas rupestres gradualmente evoluíram para transmissões de televisão, ficou mais fácil iludir pessoas. No futuro próximo, algoritmos poderão completar esse processo, fazendo com que seja praticamente impossível que as pessoas observem a realidade por si mesmas. Serão os algoritmos que decidirão por nós quem somos e o que deveríamos saber sobre nós mesmos.” (Yuval Noah Harari)
A epígrafe do professor e escritor israelense Noah Harari diz tudo. Não deveríamos escrever nem mais uma palavra. Mas, como nosso papel aqui é provocar novas reflexões para juntos trabalharmos em soluções para o mundo, especialmente o que vem por aí, vamos aprofundar alguns temas recentes.
O gênero humano é mesmo bastante complicado e, na área das emoções, ainda não ultrapassamos a época das cavernas. Vejam a celeuma que está dando o desenho que retrata dois rapazes se beijando. Estou lendo o livro 21 lições para o século 21, do Harari – Companhia de Letras – e me vem a seguinte pergunta: como reagiria um robô ao ver os beijos de duas pessoas do mesmo sexo?
O prefeito do Rio de Janeiro, Marcelo Crivella, líder religioso, mandou tirar o livro das prateleiras da Bienal para mostrar aos seus adeptos o rigor moralista de seus valores e, por seu lado, a mídia espalhafatou a cena para causar maior repercussão em seus veículos e vender mais anúncios.
O bispo empreendeu uma campanha contra a graphic novel “Vingadores: a cruzada das crianças”. O livro, para ele, contraria o Estatuto da Criança e do Adolescente (ECA). Segundo Crivella, é inadequado que “uma obra de super-heróis apresente e ilustre o tema do homossexualismo a adolescentes e crianças, inclusive menores de 10 anos, sem que se avise antes qual seja o seu conteúdo”.
A decisão despertou polêmica: de um lado, a comunidade evangélica e da extinta (?) TFP – Tradição, Família e Propriedade – aplaudiu; de outro, a ala mais liberal e atenta à diversidade rechaçou a atitude. Eu me pergunto novamente: como um algoritmo se comportaria diante desse fato?
Robôs são capazes de substituir grandes quantidades de trabalho; a inteligência artificial supera em alguns campos a própria capacidade humana; os big data e algoritmos permitem novas formas de governança e gestão de processos sociais.
Mas programas inteligentes são também capazes de preconceito. Por exemplo, o americano Jacky Alciné experimentou o racismo expresso por um aplicativo da Google. O programa compila, por meio de um algoritmo, imagens salvas em um celular. A Inteligência Artificial – IA agrupa essas fotos de acordo com categorias como “pessoas”, “viagens”, “pets”. A máquina colocou retratos de Alciné, que é negro, no mesmo grupo de “gorilas”. Não é mera coincidência jogadores negros serem assim chamados, mas não no campo virtual. Quem explica é o próprio Alciné: “Como sou programador de softwares, sei qual é a raiz do problema. A base de dados é criada por humanos. Certamente foram esses profissionais que, ao criarem o algoritmo, inseriram padrões que associaram negros a gorilas”.
Os softwares são guiados por códigos, que são desenvolvidos por humanos. Quando essas informações apresentam erros na calibragem de algoritmos (ainda que o programador não o perceba, pois o preconceito já está introjetado nele), levam à fabricação de robôs racistas, machistas ou homofóbicos. Por exemplo, a Amazon já foi acusada por ex-funcionários de ter usado um software misógino na seleção de pessoal. O fato é que o sistema havia sido treinado com base na análise de contratações anteriores, e a maioria dos empregados da Amazon é do sexo masculino. Em outras palavras, os algoritmos aprendem com os dados que são oferecidos a ele. Se quem está por trás é preconceituoso, ele pode manter esse perfil.
Um programa deficiente (por exemplo, não ter uma equipe multidisciplinar e não abarcar representantes de todos os setores da sociedade) pode reproduzir a discriminação que existe entre nós, humanos. Mas, quando desenvolvida de forma correta, a IA pode ajudar a identificar e evitar os preconceitos humanos.
Esses exemplos, somados ao caso do Crivella, nos levam a questionar o papel da ética nesse novo mundo digital.
O uso de carros autônomos levanta dezenas de questões para quem estuda ética na inteligência artificial. Um carro autônomo, o Tesla, por exemplo, se vê num dilema ao perceber em sua direção um ônibus lotado em alta velocidade: deve mudar de direção e tentar matar menos pessoas? E se mudar de direção ameaçar uma criança? Trata-se de uma decisão instantânea e complicada, que mescla emoções, instintos e ética. É um fenômeno bem conhecido entre os pilotos de avião: o piloto automático consegue fazer tudo para pilotar um avião, desde a decolagem até o pouso, mas os pilotos optam por controlar a aeronave manualmente em momentos cruciais.
Yuval Noah Harari, em seu livro, diz: “Os algoritmos de computação, no entanto, não foram moldados pela seleção natural, e não têm emoções nem instintos viscerais. Daí que em momentos de crise eles poderiam seguir diretrizes éticas muito melhor que os humanos – contanto que encontremos uma maneira de codificar a ética em números e estatísticas precisos”.
É o próprio Harari que decreta: “Não podemos confiar na máquina para estabelecer padrões éticos relevantes – os humanos sempre terão de fazer isso”.
Há quem discorde. “O avanço recente da inteligência artificial, quando as máquinas não mais seguem processos de decisão pré-programados pelos humanos e começam a aprender por si mesmas (Machine Learning, Deep Learning), coloca para a sociedade novos desafios éticos e a premência de estabelecer arcabouços legais a partir de uma regulamentação que, simultaneamente, proteja os indivíduos e instituições, e preserve o grau de liberdade necessário ao desenvolvimento científico”, defende Dora Kaufman, professora da PUC-SP, na revista Época Negócios, de 9 de agosto último.
Sim, o que parecia ficção virou realidade, pois foi descoberto que os algoritmos conseguem se auto-programar, aprender com a própria experiência e fazer associações entre as informações recebidas. Um dos casos concretos de bots de inteligência artificial que desenvolveram linguagem própria é o chatbot Tay, desenvolvido pela Microsoft para, através do Twitter, interagir e aprender com jovens entre 18 e 24 anos.
Tay foi criada para conversar com esses adolescentes de forma divertida, descontraída e natural, mas, em menos de 24 horas, os usuários da rede social a “corromperam”, e ela passou de uma inocente robozinha para uma racista, misógina, homo e transfóbica, além de vomitadora de caracteres, uma espécie de nazista virtual. Mais do que nunca, nosso futuro dependerá da ética de quem escreverá os algoritmos dos bots de IA e, em consequência, nossos destinos.
Se consultado sobre o tema, um robô responderia: é um desafio tecnológico, mas também político, educacional e social, garantir que a utilização cada vez mais intensa de algoritmos para processar informação e tomar decisões seja compatível com valores éticos e morais, essenciais ao bom funcionamento da sociedade.
E voltamos à tese de sempre. Antes das máquinas, precisamos instruir os seres humanos. Só com boa educação poderemos ter uma sociedade capaz de ter gente com VALORES para programar os algoritmos do bem.