Humanos versus máquinas
Em 1997, o Deep Blue, programa de jogar xadrez da IBM, derrotou o grande campeão da época, Gary Kasparov, marcando um paradigma na área. Vinte anos após, em 2017, um novo paradigma surgiu com o advento do AlphaZero do Google derrotando a outra máquina, Stockfish 8, que havia sido a campeã dos torneios de xadrez no ano anterior.
A grande novidade da ocasião foi que, ao contrário da Stockfish 8, que havia acumulado em sua memória séculos de experiências anteriores em xadrez acrescido de outros predicados operacionais, o AlphaZero se caracterizava por ter aprendido do zero. Ou seja, aprendeu unicamente jogando contra si mesmo, fazendo uso dos princípios básicos de autoaprendizagem de máquina. Absolutamente surpreendente que o AlphaZero tenha se transformado de um total amador a melhor jogador de xadrez em apenas quatro horas, dispensando por completo qualquer colaboração humana direta ou mesmo outras máquinas ao longo de seu processo de aprendizagem.
Embora estejamos falando de máquinas jogando xadrez, o fenômeno embutido é parte da continuidade de um desafio entre, por um lado, um somatório absurdo de informação acumulada associado ao uso de sistemas lógicos e, por outro, uma capacidade extraordinária de aprender a aprender continuamente. A possível analogia com humanos, em termos pedagógicos, seria uma disputa entre aquilo que foi memorizado pelo educando comparado ao desenvolvimento da habilidade de aprender a aprender, a partir do estímulo à consciência acerca de como e em que condições ele aprende.
É verdade que essas duas coisas, aprender e aprender a aprender, podem e devem acontecer ao mesmo tempo, mas, definitivamente, não são a mesma coisa. Numa especial licença poética, poderíamos associar o Stockfish 8 à expressão da exploração máxima da cognição humana, ou seja, a arte de acumular informações de maneira organizada e sistêmica. Por sua vez, o AlphaZero se aproximaria mais de elementos presentes na metacognição, aquilo que transcende a cognição, explorando sobre maneira a capacidade de aprender a aprender continuamente e sem limites.
O sistema cognitivo, via acumulação e processamento de informação, nos habilita a interagirmos com o meio, gerando uma compreensão daquilo que nos cerca. O apelo à metacognição, por sua vez, diz respeito à capacidade de refletirmos criticamente sobre a própria cognição, isto é, de monitorarmos e autorregularmos a cognição. Em outras palavras, tal processo diz respeito à habilidade do indivíduo de refletir, de forma consciente, sobre a sua própria reflexão, fazendo uso de sua capacidade de ter plena consciência de seus atos e pensamentos, dominando e explorando seu próprio processo de aprendizagem.
Os humanos se caracterizam pelo exercício integrado de três habilidades: físicas, cognitivas e metacognitivas. Sobre a primeira, os avanços tecnológicos, que viabilizaram, ao longo dos tempos, a automação em níveis sem precedentes, praticamente, erradicaram os trabalhos manuais na agricultura e na indústria. Ao mesmo tempo, surgiram ou foram ampliados novos espaços, especialmente no setor de serviços, demandando as chamadas habilidades cognitivas, as quais acreditávamos, anteriormente, ser uma exclusividade humana. Contudo, vivenciamos, atualmente, o progressivo uso das máquinas também nesse setor, fruto dos desenvolvimentos da robótica e da inteligência artificial.
Em resumo, nessa disputa entre humanos e máquinas, temos boas razões para estimularmos explorar, da melhor forma possível, as nossas capacidades metacognitivas em sistemas mais complexos, especialmente em aplicações que ainda não foram, por enquanto, totalmente invadidas pelas máquinas, mesmo aquelas que aprendem.
Racionalidade: inferência lógica ou associadores de padrões
Para efeito de programação de computadores, não necessariamente a inclusão da racionalidade pressupõe uma sequência de proposições, conceitos e inferências lógicas. Os modelos denominados associadores de padrões, acoplados a redes neurais artificias e sistemas de aprendizagem profundo, parecem ganhar cada vez destaque na solução de problemas contemporâneos. O jogo de xadrez é somente um exemplo singelo. Mesmo assim, estamos somente engatinhando acerca de como dotar as máquinas de características associadas à razão ou conceito similar.
Mais recentemente, temos a alternativa de, ao invés de manipular cadeias de símbolos por meio de regras lógicas (programação tradicional), capturar propriedades daquilo que é o objeto da programação/codificação via associações entre camadas, como se fossem neurônios interligados entre camadas por meio de sinapses. Cada propriedade é quantificada e a ela é atribuído um peso numérico específico, refletindo uma valoração de o quanto aquela propriedade é boa para diagnosticar uma determinada categoria, objeto da missão a ser cumprida. Observar que a ênfase passa para o mundo das distribuições estatísticas e das probabilidades que implicam nos pesos de cada uma das sinapses envolvidas no complexo processo.
No caso ilustrativo de reconhecimento facial, imagens são captadas por uma câmera e enviadas para análise no próprio sistema. Ele detectará a presença de um ou mais rostos e, a partir disso, fará o processamento das informações coletadas. A imagem será convertida em um formato monolítico normalizado, com o intuito de deixá-la padronizada para, então, analisar todas as informações relevantes. Esse processo é chamado de codificação e é a partir dele que a face passa a ser reconhecida (ou não) no banco de dados disponível.
Entre as características observadas nas imagens estão as medidas faciais, chamadas também de pontos nodais. Em geral, adota-se que o rosto humano possui aproximadamente 80 desses pontos. Entre eles estão a distância entre os olhos, contorno da face, o tamanho do queixo, a curvatura e espessura dos lábios e o comprimento do nariz, bem como cicatrizes e eventuais características específicas. Essas informações funcionam como digitais da face, uma espécie de assinatura. Dessa forma, o sistema realiza um cruzamento de dados e padrões, tornando possível, em tese, reconhecer o indivíduo em questão, por meio de um banco de informações anteriormente cadastradas no sistema.
Redes neurais estão na essência dessa operação. Cada traço de um item da face é quantificado e depois multiplicado por um peso numérico, refletindo o quanto aquela particular característica contribui para diagnosticar a categoria desejada. Os valores ponderados são somados e um patamar é adotado para aceitação (ou não) da identificação proposta. Em uma representação visual em duas camadas, uma camada inferior contém as múltiplas características mensuráveis (neurônios de entrada) e na camada superior o conjunto de faces disponíveis no banco de dados disponível (neurônios de saída). Cada neurônio de entrada se liga (sinapse) a cada neurônio de saída via intensidades variáveis, podendo oscilar de muito positivo até muito negativo, refletindo o quanto aquela propriedade é relevante no cumprimento da missão.
Uma relevante questão inicial é quem define o peso a ser atribuído a cada variável/conexão neural. A surpreendente resposta mais simples e direta seria simplesmente ninguém ou, se quiserem uma inicialização aleatória. Em outras palavras, praticamente tanto faz a inicialização. O que importa é o processo, a dinâmica posterior. É a experiência, baseada em erros e acertos na sequência que vai, gradativamente, ajustando esses padrões. É assim que a rede é treinada ou, em outras palavras, que a máquina aprende. A cada iteração, um novo ajuste da distribuição de pesos. Ou seja, os erros são muito bem-vindos e são partes inerentes do processo de busca ou de acerto.
Para problemas mais complexos (reconhecimento facial sofisticado é um deles), é, em geral, demandada a inserção de mais camadas intermediárias ocultas, bem como incluir outras três dimensões ou mais, trabalhando novas categorias, refletindo semelhanças parciais. Sistemas de aprendizado profundo, em geral, envolvem redes com muitas camadas ocultas intermediárias.
Observar que essa maneira de operar suplanta a chamada inteligência artificial clássica, a qual é baseada, principalmente, em deduções e lógica, permitindo ser codificada manualmente. Ou seja, diferentemente das abordagens clássicos, sistemas de aprendizado profundo dispensam, em tese, conceitos preliminares ou mesmo inferências lógicas.
Interessante observar que nesse contraste entre a computação lógica tradicional e a computação baseada em redes neurais artificiais, esta última se aproxima mais do funcionamento do cérebro humano do que a primeira. O cérebro é programado naturalmente para executar, simultaneamente, uma gigantesca quantidade de associações e combinações de padrões. Assim, interessante observar que estamos percebendo que a cognição humana, embora racional, é menos lógica do que imaginávamos anteriormente.
Essa abordagem ajuda a colocar mais luzes em temas ainda obscuros sobre a forma com que os seres humanos realizam inferências. O que, por vezes, classificamos como intuições ou mesmo eventos sobrenaturais podem ser frutos de raciocínios vinculados ao funcionamento das redes neurais, cujas operações incorporam informações via mecanismos que ainda não elucidamos completamente. Pode ser que, conhecendo mais e melhor sobre o funcionamento do cérebro, posamos caminhar em direção a elucidar fenômenos que hoje se classificam como instinto ou sexto sentido.
Retornando ao AlphaZero
A aprendizagem do AlphaZero é baseada em redes neurais artificiais. Assim, a rede neural expressa a tentativa de fazer com que o computador funcione similarmente ao cérebro humano, realizando associações de padrões, e menos como um computador tradicional programável classicamente.
No AlphaZero, este processo tem, basicamente, duas partes simples: i) avaliação da posição que lhe foi dada; ii) avaliação de cada lance legal possível na posição. Neste caso, um neurônio representa uma unidade de processamento muito simples que aceita um número de condições, multiplicando cada uma por um determinado peso, expressando um valor atribuído que pode ser maior ou menor de acordo com a importância.
Baseado nos dados publicados para o AlphaGo Zero (o predecessor do AlphaZero que joga Go) a rede neural do AlphaZero tem provavelmente cerca de 80 camadas, e centenas de milhares de neurônios. Simplificando grosseiramente, se o AlphaZero percebe que vai perder (xeque-mate contra si), ele ajustará automaticamente os valores dos pesos de todas as variantes para reduzir a possibilidade de fazer novamente este erro. Importante destacar que AlphaZero, tal como o AlphaGo Zero, começa como uma lousa em branco, uma grande rede neural com pesos surpreendentemente aleatórios.
Tudo se passa como se ele tivesse sido desenhado para aprender como jogar partidas de dois jogadores, de lances-alternados, ainda que não saiba absolutamente nada sobre qualquer jogo em particular, aprendendo ao longo do tempo de forma, aparentemente, ilimitada. Por sinal, da mesma forma que nós humanos nascemos com uma vasta capacidade de aprender uma língua, mas sem conhecimento de qualquer idioma em particular.
Embora compreensível considerar a possibilidade um grande mestre de xadrez ensinar os primeiros passos ao computador, isso, definitivamente, não funciona; pelo contrário, parece que atrapalha. Melhor mesmo deixar o AlphaZero jogar milhões de partidas contra si mesmo. Após cada partida, este faz pequenos ajustes nos seus pesos para tentar memorizar o que deu bom resultado e o que não deu. Parece absolutamente incrível, mas o AlphaZero depois de quatro horas jogando contra si mesmo tinha aprendido o suficiente para vencer o Stockfish 8.
Metacognição, a possível redenção humana
Com relação à disputa entre humanos e máquinas, é razoável supor que, para efeitos práticos, as batalhas físicas e cognitivas foram vencidas pelas máquinas. Em particular sobre cognição, o exemplo do xadrez parece ter tornado claro nossa incapacidade de disputar de forma competitiva em determinadas áreas. Ainda que deva se registrar que, mesmo assim, a arte de jogar xadrez permanece e os enxadristas continuem legitimamente motivados para vencer a todos os demais, inclusive as máquinas.
Seja como for, das três habilidades que caracterizam os humanos (físicas, cognitivas e metacognitivas), as metacognitivas são aquelas em que a disputa continua mais claramente ainda em aberto.
Não há uma definição simples para metacognição. O prefixo grego “meta” induz que metacognição deva ir além da cognição ou tratar-se de reflexão sobre ela. O termo cognição, por sua vez, está associado ao ato de conhecer, incluindo os estados mentais e os processos do pensamento relacionados à aquisição de conhecimentos. Assim, envolve múltiplos fatores como linguagem, percepção, memória, lógica, raciocínio e outros elementos do desenvolvimento intelectual.
Assim sendo, metacognição, embute, especialmente, o estímulo a conhecer o próprio ato de conhecer, associado ao amadurecimento da consciência dos atores envolvidos no processo, bem como o conjunto de habilidade denominadas genericamente de socioemocionais. O conceito de metacognição está relacionado ao ato de pensar sobre o próprio pensamento, onde a reflexão e a autoconsciência acerca de como se aprende tornam-se, progressivamente, tão ou mesmo mais importantes do que o próprio ato de aprender o conteúdo em si.
Aparentemente, só seremos competitivos com as máquinas se, explicitamente, educarmos para a metacognição, arte que ainda somos incipientes. O que parece evidente é que educar para metacognição demanda estratégias pedagógicas distintas daquelas que até aqui adotamos. Abordagens que contemplem, por exemplo, a habilidade de lidar com mudanças e os processos de adaptação consciente, via conseguir estabelecer um mínimo de equilíbrio mental frente a situações inéditas.
Especificamente quanto aos educandos, as novas tecnologias podem ser parceiras em colaborar que o educando possa se conhecer mais e melhor, ingrediente fundamental da metacognição. A analítica da aprendizagem, acoplada aos ambientes virtuais de aprendizagem, gera dados sistematizáveis que viabilizam conhecer, de forma sistemática e profunda, as principais características educacionais do aluno. Isso envolve em que mídia ele otimiza a aprendizagem, em que horários e em que contextos o educando atinge o melhor desempenho e mesmo quais abordagens metodológicas lhes são mais apropriadas.
Associado a conhecer-se mais e melhor estão associados predicados fundamentais, tanto aos novos profissionais como aos cidadãos em geral, como desenvolvimento de resiliência, a compreensão da impermanência das coisas, seja de seu entorno seja de si mesmos e, especialmente, o exercício da capacidade de foco, quando isso for absolutamente relevante. São qualidades que sempre foram positivas, mas costumavam ser negligenciadas nos modelos tradicionais e, atualmente, são consideradas essenciais e estratégicas.
Até recentemente, especialmente ao longo do século passado, formar um profissional implicava em dotá-lo do domínio de certo conteúdo, razoavelmente bem definido e delimitado, e os principais procedimentos e técnicas a ele associados. Esse procedimento educacional, em geral, se mostrava satisfatório. Tarefas previsíveis e de vieses não originais, ainda que, por vezes, bastante especializadas, podiam, em geral, ser desenvolvidas por trabalhadores com certa qualidade.
Os modelos fordistas/tayloristas, dominantes ao longo do século XX, demandaram e obtiveram uma escola compatível e com pleno sucesso naquilo que se propos. O drama é que o mundo mudou, transformações radicais aconteceram, tornando difícil aos docentes a percepção e a construção de um novo arcabouço educacional compatível com a nova realidade.
Nos modelos anteriores, se as tarefas de um profissional puderem ser elencadas na forma de rotinas previsíveis, por mais sofisticadas que elas sejam, os processos cognitivos típicos, de alguma forma, dão conta de ensinar. Por outro lado, quando as missões passam a ter uma natureza muito mais complexa, caracterizadas, principalmente, pela imprevisibilidade. Neste caso, somente conteúdo, técnicas e procedimentos aprendidos se mostram limitados e insuficientes. Neste cenário, a metacognição é o diferencial entre o sucesso e o fracasso, para o profissional, ou entre a satisfação e a frustração, para o cidadão em geral. Portanto, tudo leva a crer que a cognição atende ao passado analógico e a metacognição contempla o futuro digital.
A prioridade para a abordagem metacognitiva decorre também de ser uma possibilidade de redenção humana. Nada é certo, porém, mais provável e exequível do que vencer as máquinas no xadrez. A título de ilustração, não seria sensato, atualmente, tentar desenvolver um trabalhador mais forte do que os equipamentos engendrados pela máquina a vapor. Tampouco teria sentido a pretensão de educarmos alguém que pudesse memorizar ou realizar operações programáveis que disputassem com os computadores.
Da mesma forma, dominar o funcionamento de máquinas sem conhecer adequadamente sobre os humanos, provavelmente, gerará um fracasso, por falta de empatia e de autoconhecimento. Supor conhecer bem os humanos, porém, não entender de forma suficiente as máquinas, no futuro próximo, será padecer por ignorância, o que levará ao mesmo destino dos analfabetos atualmente, a irrelevância.
Esse cenário, marcado por sua ênfase metacognitiva, indica a tendência em direção a uma nova racionalidade, baseada em uma razão diferenciada, a qual demanda predicados que contemplem o ser humano e seu entorno, em especial as máquinas por eles desenvolvidas. É como se fosse viável um novo Iluminismo, alicerçado agora em pilares bem mais complexos do que nos séculos anteriores. Os desafios não são, e nem teriam que ser, mais simples. Ao contrário, contemplam uma complexidade inédita, na mesma medida que essa nova razão é uma razão transcendente e radical. Muito ainda a se aprender e a se explorar adiante sobre esses temas.
*Artigo em coautoria com Gabriel Goldmeier.(Doutor em Educação pela Cidadania pelo “Institue of Educacion, UCL, UK”)
34