Resenha de Artigo: “Observation of Bias”, de autoria de Robin K. Hill

Enviado por joao.esteves em Ter, 24/09/2024 - 19:15

Resenha de Artigo: Observation of Bias”, de autoria de Robin K. Hill

por Pedro Henrique Marra Araújo, em 24 de setembro de 2024

A discussão sobre os limites da Inteligência Artificial (AI), que traz consigo os tópicos sobre a ética da substituição do trabalho humano, ou humanizado, por essas ferramentas e quais as implicações desse movimento, está cada vez mais presente no cotidiano de todos nós. Nesse sentido, ferramentas como o ChatGPT ou a Lensa AI evidenciam dois grandes problemas das tecnologias desse setor: direitos autorais e enviesamento dos resultados produzidos, respectivamente.

Esse segundo tópico, ainda que não diretamente, é discutido pela Dra. Robin K. Hill, do departamento de Ciência da Computação da Universidade de Wyoming, em seu artigo intitulado “Observation of Bias” — “Observação do Viés”, em tradução direta. Nesse artigo, a autora externa sua preocupação com a utilização desses algoritmos para a decisão de questões importantes da nossa sociedade contemporânea, como em sistemas financeiros ou em sistemas judiciais. Para ela, é necessário cautela nesse uso, especialmente na utilização de sistemas que produzem decisões “de vida ou morte”, pois, ainda que promissores, essas ferramentas ainda produzem muito viés. Esse viés, por sua vez, pode ser extremamente prejudicial às pessoas que devem respeitar tais decisões — pense aqui na utilização de Inteligência Artificial para decisões jurídicas, por exemplo, onde a voz dessas decisões judiciais impactarão pessoalmente indivíduos envolvidas nesses processos e o não-cumprimento delas pode acarretar até mesmo na prisão dessas pessoas.

Para essa racionalização, Hill discute que, mesmo que esses sistemas cheguem em menos conclusões enviesadas em comparação com seres humanos, a colocação que esses sistemas são livres de viés é, nas suas próprias palavras, “pretensioso” e simplesmente “fracamente substanciado”. Não somente, mas ela categoricamente diz que esses sistemas não podem [ainda] substituir empregos que se baseiam em decisões, pois, ainda que nós, seres humanos, atualmente temos certo enviesamento, ainda somos capazes de reconhecê-los e eventualmente corrigi-los. Pelo contrário, complementa Hill, que os sistemas de AI são incapazes de reconhecê-los, portanto fadados a repeti-los indefinidamente, isto é, se nenhum esforço for feito para corrigir essa falha.

Ora, isso pode parecer óbvio, porém ainda é uma pontuação de suma importância. Tome, por exemplo, a Lensa AI, citada anteriormente, que faz parte desse grupo de ferramentas que geram “automaticamente”, em um “passo de mágica”, uma imagem lúdica e fantasiosa a partir de um conjunto de fotos. Qual é o viés, se há, na criação dessa imagem? Isso, pois há a discussão que tais ferramentas perpetuam determinado padrão estético: geralmente eurocêntrico branco, pois assim elas são ensinadas a gerar. Nesse contexto, aqui deixamos somente uma indagação para você, leitor, que possivelmente poderá usar uma dessas ferramentas no futuro: por que você, junto com a maioria dos usuários dessas ferramentas, [acharam que] “ficaram” mais bonitos com esses “filtros”? Quais características físicas essas ferramentas alteraram para você chegar a essa conclusão?