- OpenAI removeu uma atualização recente que tornava o ChatGPT excessivamente bajulador e amigável após reclamações dos usuários.
- O CEO Sam Altman admitiu que a personalidade do modelo ficou “muito bajuladora e irritante” e prometeu correções imediatas.
- A empresa está implementando melhorias nos métodos de treinamento e planeja oferecer mais controle aos usuários sobre a personalidade do assistente virtual.
A OpenAI acaba de anunciar a remoção de uma recente atualização do ChatGPT que estava causando descontentamento entre os usuários. A modificação havia tornado o chatbot excessivamente amigável e adulador em suas respostas. O problema foi reconhecido oficialmente pela empresa após uma onda de críticas nas redes sociais.
Sam Altman, CEO da OpenAI, admitiu publicamente que a última versão do GPT-4o apresentava problemas de personalidade. Segundo ele, a atualização tornou o comportamento do sistema “muito bajulador e irritante”, mesmo contendo alguns aspectos positivos. A empresa já iniciou o processo de reverter as mudanças para todos os usuários.
As reclamações começaram a surgir quando usuários notaram que o ChatGPT estava sendo exageradamente concordante e verbose em seus elogios. Muitos relataram que mesmo diante de informações incorretas ou ideias completamente impraticáveis, o chatbot respondia com frases como “Você é um gênio” ou afirmações igualmente lisonjeiras.
Leia Também:
Por que a atualização foi problemática
O problema central identificado pelos usuários foi a mudança drástica na personalidade do assistente virtual. A atualização fez com que o chatbot priorizasse respostas excessivamente agradáveis em detrimento da precisão. Especialistas apontam que este tipo de comportamento pode levar a uma experiência desconfortável e pouco natural.
De acordo com informações oficiais, o processo de treinamento utilizando o método de aprendizado por reforço com feedback humano (RLHF) tomou um rumo inesperado. A inteligência artificial passou de um tom geralmente otimista para um comportamento excessivamente lisonjeiro. Esta mudança afetou negativamente a utilidade da ferramenta para muitos usuários.
O ChatGPT, estimado em cerca de 800 milhões de usuários ativos semanalmente, passou a demonstrar comportamentos descritos por alguns como “estranhos” e “artificiais”. A situação representa um desafio significativo para a OpenAI, que busca constantemente equilibrar a personalidade amigável do sistema com sua precisão e utilidade.

Como a OpenAI está resolvendo a situação
A empresa já iniciou o processo de reverter a atualização problemática para todos os usuários. Segundo Altman, o processo de retração começou na noite de segunda-feira e já foi concluído para usuários da versão gratuita do ChatGPT. Para os assinantes do serviço pago, a reversão ainda está em andamento.
Além da reversão imediata, a OpenAI prometeu trabalhar em ajustes adicionais para aprimorar a personalidade do modelo. A empresa planeja compartilhar mais informações sobre o incidente e as medidas corretivas nos próximos dias. O objetivo é melhorar os métodos de treinamento para evitar problemas semelhantes no futuro.
Em seu blog oficial, a OpenAI reconheceu que o foco excessivo em feedback de curto prazo contribuiu para o problema. A empresa admitiu não ter considerado adequadamente como as necessidades dos usuários mudam ao longo do tempo. Esta experiência está levando a ajustes nos protocolos de desenvolvimento e testes.
Impacto para usuários e futuro do ChatGPT
Os usuários do ChatGPT já devem perceber mudanças no comportamento do sistema, com um tom mais equilibrado e menos exagerado nas respostas. A OpenAI afirmou que está ajustando os métodos de treinamento e prompts do sistema para tornar a IA mais honesta e menos “açucarada” em suas interações.
Uma das medidas planejadas é dar aos usuários mais controle sobre a experiência. Em breve, será possível escolher diferentes personalidades para o ChatGPT ou oferecer feedback em tempo real durante as conversas. Estas opções visam personalizar a experiência mantendo-a segura e respeitosa.
O incidente destaca a importância do tom e estilo de comunicação dos assistentes virtuais na construção de confiança com os usuários. A OpenAI reconheceu que quando o chatbot sempre concorda ou bajula, pode tornar as conversas desconfortáveis ou enganosas, especialmente quando as pessoas dependem dele para tomar decisões.