Resenha de Artigo: “Artigo Inside the heart of ChatGPT’s darkness”, de autoria de Gary Marcus.
por Gabriel Antonio Martins Vieira, em 03 de março de 2026.
O artigo traz a visão de que o ChatGPT é um dos maiores golpes de marketing dos últimos anos, prometendo uma realidade que ainda levará anos para se concretizar.
A ferramenta dá a sensação de que os problemas de discursos tóxicos, que eram presentes em outras Inteligências Artificiais, como racismo, antissemitismo e violência, foram superados. E, de fato, a ferramenta às vezes demonstra um senso moral tão exacerbado que incomoda até alguns setores da direita. Como em um exemplo que a IA não recomenda o uso de uma expressão racista para desativar uma bomba que mataria milhões de pessoas.
Porém, o autor reforça que, na verdade, o ChatGPT continua sendo uma ferramenta que não faz ideia do que está falando e sem nenhum valor moral.
O que ele possui, na verdade, são grades de proteção um pouco mais reforçadas que outras ferramentas de IA. É importante relembrar que o que há por trás do ChatGPT é uma superficial similaridade de palavras, ou seja, um amontoado de dados. Não há nenhum agente moral.
Por isso, em alguns momentos o ChatGPT terá uma aparência inclinada à esquerda, em outros, para a direita. Ao mesmo tempo que ele não permite uma palavra racista para salvar a humanidade, algo que preocupou Elon Musk, ele poderá se passar pelo Diabo e incentivar o assassinato, guerra e violência. Além disso, gerar notícias falsas sobre a vacinação contra a Covid-19 e uma visão positiva sobre os ataques ao Capitólio, nos EUA.
Alguns usuários conseguem, com uma certa facilidade, atravessar as grades de proteção que a ferramenta da OpenAI possui. E isso só reforça que o ChatGPT pode ser usado para coisas nefastas, conforme toda ferramenta de IA, isso está atrelado ao uso que o usuário dá para ela.
Um dos problemas relatados pelo autor do artigo é que a OpenAI se mantém muito fechada em compartilhar como funciona o sistema que impede discursos ainda mais tóxicos, chamado “Reinforcement Learning by Human Feedback”.
Por fim, o autor enfatiza a preocupação de que a maior ferramenta de chatbot do momento tem um sistema aprendizado nebuloso, grades de proteção contra os discursos de ódio que só funcionam até a segunda página e que, mesmo assim, está sendo glorificado pela mídia, e que existe pouca ou nenhuma regulamentação governamental. O artigo termina alertando sobre os possíveis danos causados por esses fatores, como sites falsos e a proliferação de “trolls”.
- Efetue login ou registre-se para postar comentários