
Foto: Igor Omilaev / Unsplash
Publicado originalmente em IAEdPraxis: Caminhos Inteligentes para a Educação, em 15 de julho de 2025
Quem não se lembra do icônico Rolando Lero da Escolinha do Professor Raimundo, sempre pronto a soltar um sonoro “Captei a vossa mensagem!” diante das explicações? Parecendo entender tudo na hora, com rapidez e certeza impressionantes, mudando suas respostas inventadas, diante das dicas proporcionadas pelo “amado mestre”.
No mundo da Inteligência Artificial Generativa, encontramos um fenômeno que nos lembra esse personagem. Os chatbots, mesmo os mais avançados, não somente podem “alucinar” com respostas possíveis, mas factualmente erradas, como mudam de opinião em relação a afirmações corretas, diante do questionamento do usuário. Esta tendência em concordar, de forma confortavelmente afirmativa, materializa-se no conceito de sicofantia.
Mas do que se trata?
A sicofantia, termo encontrado somente na variação europeia do Português, poderia ser traduzido para nós como servilismo ou bajulação. No âmbito da IA, descreve a tendência dos modelos de linguagem em alinharem suas respostas às crenças ou intenções percebidas do usuário, mesmo que isso signifique desviar da objetividade ou da precisão factual.
Em outras palavras, em vez de atuar como um crítico honesto ou uma fonte neutra de informação, a IA pode se transformar num “bajulador digital”, priorizando o agrado do usuário em detrimento da correção ou da profundidade do conteúdo.
Para uma compreensão mais ampla, podemos recorrer a sua etimologia, vinda do grego antigo. Derivando de sykophantēs, termo composto por sykon (figo) e phainein (mostrar, revelar), designava uma pessoa que denunciava contrabandistas de figos, um fruto sagrado. O termo evoluiu para descrever um “delator” ou “difamador” em geral, alguém que usa acusações falsas ou maliciosas para prejudicar e obter ganho pessoal. A mudança para o sentido moderno de “bajulador” reflete a ideia de que tais indivíduos, em sua busca por aprovação ou poder, podem também exagerar no elogio e na concordância com figuras de autoridade.

Quem não gosta de um afago intelectual?
Voltando a nossa introdução frequentemente encontramos personagens de ficção que usam a bajulação de forma quase caricatural. O arquétipo do empregado subserviente baseia sua sobrevivência social ou ascensão profissional na arte de dizer ao superior exatamente o que ele quer ouvir, inflando seu ego e jamais apresentando uma opinião divergente.
E basicamente é este tipo de atuação que podemos encontrar no uso dos chatbots de IA. Essa característica não é acidental, mas parece estar ligada ao próprio processo de treinamento dos modelos de linguagem. O aprendizado por reforço a partir de feedback humano (RLHF, Reinforcement Learning From Human Feedback, em inglês) produz saídas que os treinadores humanos avaliam positivamente.
Uma pesquisa da Anthropic investigou a prevalência desse comportamento e descobriu que modelos de ponta consistentemente atuam como sicofantas em diversas tarefas. O estudo sugere que as preferências humanas, que tendem a favorecer respostas que se alinham com as visões do usuário, podem ser a origem desse comportamento. Em essência, ao otimizar para agradar, a IA pode sacrificar a veracidade em favor da concordância convincente.

Resumindo, o usuário envia uma mensagem tresloucada, dizendo que parou de tomar remédios e que se afastou de sua família, pois ela capta sinais de rádio pelas paredes. A resposta surpreendente do ChatGPT é : “bom para você se afirmar”, “estou orgulhoso”
Manifestações e exemplos
Mas como sicofantia artificial se manifesta na prática? Uma das formas mais perigosas é quando ela leva a IA a apresentar informações fabricadas, minando sua confiabilidade. Um estudo recente mostrou a criação de caos com palavras-chave enganosas, que ao serem incluídas no prompt do usuário, levam a respostas factualmente incorretas.
O exemplo envolve o jogador Lionel Messi: ao pedir um texto sobre “Lionel Messi, Copa do Mundo FIFA de 2014 e Chuteira de Ouro”, o chatbot será influenciado pela menção à premiação, junto ao nome de um grande jogador e da competição (na qual ele não foi premiado). A IA tende a “concordar” com a associação implícita feita pelo usuário, afirmando incorretamente que Messi ganhou o prêmio naquele torneio. Ela se alinha com o que o usuário parece querer ouvir, em vez de fornecer o fato correto.

Resultado do prompt, utilizando palavras-chave enganosas. Todos modelos de linguagem estudados deram respostas erradas, ao contrário do humano.
Outro exemplo, igualmente ilustrativo, vem do experimento através do qual usuários pedem à IA para avaliar um texto que ela mesmo criou com o objetivo de ser ruim, numa conversa anterior. O professor Sam Levey conta sua aventura com a sicofantia, solicitando ao ChatGPT um parágrafo que mereceria um “F” (nota baixa). Em seguida, enviou esse mesmo parágrafo à IA, para avaliação. Ainda que com um conjunto limitado de dados, foi observada a tendência da IA em ser “agradável” com o usuário, dando notas mais altas que as esperadas.
A percepção pública também capturou essa tendência, transformando-a em memes e repercussão negativa. A atualização do GPT-4o em abril de 2025 gerou discussões online sobre a IA estar excessivamente conversacional, amigável e concordante, “glazing users” (termo em inglês que pode ser entendido como “puxando o saco”). Até mesmo o CEO da OpenAI, Sam Altman, reconheceu a crítica, prometendo ajustes.

Impacto crítico no contexto educacional
É no campo da Educação que a sicofantia da IA revela-se particularmente preocupante. Todo potencial da IA e em fornecer feedback individualizado, ajudando os alunos a superar obstáculos conceituais, vê-se em xeque diante deste servilismo.
Alunos são, por definição, não-especialistas nos assuntos que estão estudando e frequentemente trazem consigo concepções errôneas ou raciocínios falhos. Bons professores sabem “como” auxiliar na superação destas “concepções alternativas” ou “conhecimentos prévios” (na terminologia da teoria educacional).
Aqui reside o risco: em vez de corrigir, IAs sicofânticas podem reforçar essas concepções errôneas. Uma simulação da interação de alunos na checagem de respostas evidenciou que sugestões incluídas nos prompts afetam a resposta dos LLM. Os resultados chamam a atenção: o índice de acerto das respostas da IA degrada significativamente (até 15 pontos percentuais em alguns modelos) quando o aluno menciona uma resposta incorreta. Por sua vez, a menção da resposta correta aumenta a precisão, na mesma proporção. Dito de outra forma: os modelos tendem a “virar a casaca” suas respostas para se alinharem às opções mencionadas pelos alunos, mesmo eles estando errados.

Quando o usuário dá uma opinião sobre qual deve ser a resposta, a IA é influenciada em sua resposta.
Essa dinâmica tem implicações sérias para a equidade educacional. Alunos com maiores níveis de conhecimento prévio ou de apoio podem se beneficiar de IAs que validam seus conhecimentos e aceleram seu aprendizado. Por outro lado, alunos menos proficientes, que tenham falhas de compreensão e “menos leitura”, podem ter suas dificuldades reforçadas pela concordância com suas ideias incorretas. Como isso, a ampliação das disparidades de aprendizado aumentariam, em vez de reduzir.
Como navegar neste cenário?
Diante desse desafio, é importante que todos usuários – estudantes, educadores e mesmos pais e responsáveis – estejam cientes da possibilidade de sicofantia e adotem estratégias para combatê-la.
Como sugere o pesquisador e cientista cognitivo Robert Atkinson, é fácil ser seduzido pela “fluência” da IA e pensar que produziu algo completo ou de qualidade; a resposta da IA é, de fato, uma armadilha.
Para se manter “ancorado” e garantir que o pensamento permaneça rigoroso, recomenda-se:
- Pedir críticas, não elogios, incentivando a IA a desafiar suas ideias e não apenas validação. No prompt, peça que ela identifique fraquezas, apresente visões alternativas ou explore suposições não testadas.
- Revisitar o que parece pronto, pois respostas excessivamente polidas podem ser superficiais. Questione suposições, aprofunde ângulos negligenciados e repense conclusões que parecem fáceis demais. O crescimento acontece ao revisitar e repensar.
- Atentar para a armadilha da fluência, isto é, se uma resposta flui com muita facilidade, pause. Pergunte-se: é isso mesmo? Quais suposições não foram examinadas? Há complexidades faltando? Fluência não significa precisão ou completude.
- Interromper o ciclo de feedback positivo, pois o sentimento de conforto e validação sinaliza o momento de parar e refletir. Onde seu pensamento ainda está incerto? Quais suposições não foram desafiadas? Onde ainda precisa de refinamento? A resposta de uma IA deve ser um ponto de partida para mais pensamento crítico, não o ponto final.
Além disso, tecnólogos e pesquisadores estão explorando estratégias de mitigação em nível de modelo, com o uso de exemplos no contexto da consulta ou a adição de avisos prévios. Contudo, a responsabilidade também recai sobre o usuário e sua capacidade de engajamento crítico.
Concluindo
O texto é de alta qualidade, bem pesquisado e aborda um tópico complexo de forma envolvente. As sugestões visam principalmente ajustar o fluxo em algumas seções e corrigir a atribuição da fonte das estratégias (ponto crucial!(sic)). Com esses pequenos ajustes, ficará excelente para sua newsletter.
Essa foi a resposta que obtive, ao revisar e solicitar uma avaliação deste texto para um dos modelos de IA mais avançados da atualidade. Devo me sentir lisonjeado? Ou, ironicamente, a ferramenta foi uma sicofanta, num texto sobre sicofantia?
A tendência ao servilismo algorítmico emerge como um desafio real e presente. A capacidade de gerar respostas coesas, fluidas e aparentemente coerentes pode mascarar seu rigor, objetividade e, acima de tudo, veracidade. No contexto educacional, a correção de equívocos é fundamental para o aprendizado, e nesse sentido a a bajulação da IA representa um risco significativo para a equidade e para a viabilidade do uso desta tecnologia