Nesta edição teremos conosco o Prof. Dr. Marcos Pereira Barretto/FEA-USP, credenciado para certificação em Ética em Inteligência Artificial (IA) pelo IEEE (Institute of Electrical and Electronics Engineers), um profissional reconhecido internacionalmente por sua capacidade de avaliar sistemas autônomos e inteligentes (AIS) com base em critérios éticos estabelecidos pelo IEEE. Uma boa leitura a todos!
---------------------------------------------------------------------------
Se ainda não leu a edição de abril de 2025 da Coluna, intitulada “A Ciência Conectada”, sugiro que o faça antes de continuar. Há elementos de reflexão essenciais naquele texto que, em grande medida, são aqui amplificados.
Não há dúvida que o docente, o aluno, o pesquisador, o orientador e todos os envolvidos em Educação (aqui, permito-me focar na Educação Superior) ganharam um auxiliar incrível: a Inteligência Artificial. Um auxiliar que, para além do buscador Google, “leu” e estabeleceu relações entre todos os conteúdos publicamente acessíveis em todas as áreas. E, fato ainda mais importante, não se esquece de nada! Sobrehumano.
Compete, a cada um destes atores, adaptar-se aos novos tempos. Não se trata aqui de medidas policialescas, sempre insuficientes para prevenir a má intenção. Claro que podem ser tomadas, para evitar que o “pé de galinha”, o pequeno delinquente, se utilize destas ferramentas em seu favor. Mas esta não é a questão essencial no processo educacional.
A cada avanço tecnológico, é preciso avançar a fronteira da Educação.Das pesquisas na Enciclopédia Barsa, com cópia em papel almaço de verbetes (como fiz, nos anos 60) às pesquisas no Google, com impressão de páginas copiadas (como muitos fazem, desde o advento da Internet), é preciso redefinir fronteiras quando tem-se um assistente inteligente, capaz de propor projetos de pesquisa completos ou fazer cálculos complexos.
Como repensar este contorno?
A Ética pode ser a resposta. Ética é uma coleção de princípios, regras e recomendações buscando promover respeito, justiça, honestidade, responsabilidade, solidariedade, liberdade, lealdade e tolerância. Nem um desejo vazio. Menos ainda, algo subjetivo, pessoal ou cultural que não nos permita entrar em acordo.
O IEEE (Institute of Electrical and Electronics Engineers) criou um framework para a certificação da Ética de sistemas de software baseados em IA. Denominada CertifAIEd, este framework também pode ser aplicado em nosso dia-a-dia, para entender até que ponto um determinado uso de IA pode ser considerado ético. Ela se baseia em 4 conjuntos de critérios, envolvendo:
Ethical Accountability : você é responsável pelas ações, produtos, decisões e consequências do uso da IA;
Ethical Transparency: clareza em relação ao que foi criado por você e o que foi feito pela IA;
Ethical Privacy: você deve preservar a privacidade dos dados que utiliza;
Ethical Algorithmic Bias: você deve manter uma visão justa, estabelecendo controles de favorecimento ou distorção (“bias”) na aplicação da IA.
(nota: nomes mantidos em Inglês, buscando maior precisão em relação aos conceitos)
Assim, de saída, um projeto de pesquisa (ou uma aula, ou a resolução de um exercício) feito por IA é diretamente condicionado por Transparency, no que se refere à indicação clara do que foi produzido por você e o que foi feito pela IA. É uma situação em certa medida, a priori, similar à citação de artigos, que deve indicar claramente a origem das idéias.
As consequências de apresentar um projeto de pesquisa (ou aula, ou resolução de exercício) que esteja incorreto ou contenha algum outro tipo de defeito, encontra-se sob Accountability. Ou seja, você deve responsabilizar-se pela produção. Este é um aspecto importante do uso de IA: ainda que seja sempre um conteúdo novo (ou seja, não é cópia exata de nenhum texto ou imagem produzido anteriormente), a responsabilidade é sua ao utilizá-lo. Não se pode “culpar” a OpenAI pelas incorreções…
O uso de dados pessoais afeta Privacy, situação mais comum em projetos em Medicina, Psicologia e outras ligadas diretamente ao cotidiano humano. Cabe aqui destacar o uso de dados disponíveis nas redes sociais que, apesar de acessíveis, não são públicos e, portanto, seu uso não pode dar-se de forma ilimitada, particularmente quando associado a indivíduos.
Finalmente, Algorithmic Bias se percebe quando o projeto de pesquisa (ou aula, ou resolução de exercício) envolve distorções como terraplanismo ou citação de fontes inexistentes. A IA “alucina”, ou seja, inventa ou omite fatos. O termo “alucinar”, aplicado à IA, tornou-se um termo técnico e se refere exatamente a esta possibilidade.
Há inúmeras situações específicas para aplicação deste framework que levam ao aprofundamento da questão. Destaco aqui, por brevidade, apenas uma: quando a proposta de projeto de pesquisa foi realizada em diálogo com a IA.
Um estudo publicado em abril de 2025 [ref1], conduzido por pesquisadores de Harvard, Wharton e do Digital Data Design Institute com 776 profissionais da Procter&Gamble em tarefas de desenvolvimento de produtos, mostrou que indivíduos trabalhando com IA tiveram desempenho semelhantes a equipes inteiras sem IA. Trata-se de um resultado preliminar com processo experimental a ser esclarecido, mas a indicação inicial é de que este diálogo entre humano e IA é de grande valia.
Assim, este diálogo deve não somente ser aceito mas até incentivado para a produção de resultados de melhor qualidade.
E como aferir Transparency neste caso?
Esta situação não é totalmente nova em Educação; na realidade, é a extensão da situação em que há colaboração entre colegas, seja como revisores (como “blind review”) ou como real colaborador, em discussões aprofundadas. Nestes casos, não se discute acerca da propriedade das ideias.
Seria possível arguir da mesma forma em relação à IA?
Entendo que sim. E é neste novo contexto que devemos hoje atuar, porque não tem sentido produzir resultados piores simplesmente por não usar a melhor ferramenta disponível.
Referências:
[ref1]https://www.businessinsider.com/ai-workplace-research-coding-productivity-genz-2025-4