Marcelo Sabbatini

Retrospectiva 2025 da IA na Educação

retrospectiva 2025 ia na educação

Publicado originalmente em IAEdPraxis: Caminhos Inteligentes para a Educação, em 29 de dezembro de 2025

Chegou o fim do ano e junto com ele aquele momento indefectível, a retrospectiva. Mais um ano no qual a Inteligência Artificial não deixou de ser notícia por um segundo sequer. Entre os discursos tecnosolucionistas de praxe, novidades não tão novas e uma crescente percepção dos impactos negativos desta tecnologia, apresentamos o panorama da IA na Educação e áreas relacionadas em 2025.

 

Evolução tecnológica: a Era o Raciocínio

Como disse Ethan Mollick em seu livro “Co-intelligence: Living and Working with AI” (Co-Inteligência, Vivendo e Trabalhando com a IA, em tradução livre”, a tecnologia de hoje é “a pior IA que você vai usar”. Em 2025, esta máxima foi parcialmente verdadeira.

Por um lado vimos a consolidação dos “reasoning models“, isto é, modelos baseados em raciocínio. Se nos albores da IA Generativa utilizávamos técnicas avançadas de prompt como a “cadeia de pensamento” para obter melhores resultados, os modelos mais atuais passaram de “prever a próxima palavra” para “raciocinar antes de responder”.

Com isto, problemas matemáticos e de programação passaram a ser resolvidos pela IA Generativa, a partir de inferências, análise multivariada e explicação das decisões tomadas. Entre os modelos de destaque, apontamos o OpenAI o1/o3 (”thinking-first“), o DeepSeek-R1, o Grok-3 da xAI e o Claude Opus 4.5.

As aplicações práticas destes modelos incluem decisões jurídicas, estratégias de negócios e, no caso da Educação, a justificativa dos critérios utilizados para a avaliação e acompanhamento da aprendizagem.

Contudo, todos estes modelos ainda seguem com taxas significativamente altas de alucinação/invenção, o que impede sua utilização sem supervisão humana especializada.

Levantamento realizado pela Columbia Journalism Review, em março de 2025. Taxa de alucinação baseada em respostas total ou parcialmente erradas.

Dito isso, estes avanços não podem ser considerados paradigmáticos, no sentido que os modelos de raciocínio já eram conhecidos; talvez tenham ficado um pouco mais eficazes e eficientes. De forma geral, a tecnologia “transformer” (o ¨T” do ChatGPT) entrou num platô. E apesar do discurso das empresas que a propulsionam, é basicamente um consenso que através dela é impossível alcançar uma AGI, isto é, uma Inteligência Artificial Geral capaz de superar as capacidades humanas.

Big techs, mercado educacional e a miragem da viabilidade econômica

Talvez o principal movimento que observamos este ano foi uma investida da OpenAI, Anthropic, Perplexity, entre outros, em direção ao vasto filão de vendas que a Educação representa. Ao se propor como uma ferramenta “disruptiva” e “indispensável”, a IA encontraria um mercado cativo para fidelização de usuários e geração de receita.

Entre as iniciativas da Google, destacam um investimento de US$ 1 bilhão em três anos para formação de alunos e professores em Inteligência Artificial (seja lá, o que isto signifique) e acesso gratuito ao Gemini Pro para estudantes universitários, com direito a peças publicitárias voltadas para este público durante o período de provas.

Por sua vez, a OpenAI aumentou seus esforços na promoção do ChatGPT Edu para universidades e também ofereceu seu modelo premium para professores. Uma parceria com California State University (alcançando 500 mil usuários). Junto a colaborações com a Duke University e com a Wharton School of Economics, a OpenAI propaga a ideia de uma “universidade nativa em IA”.

Outras plataformas também se voltaram mais explicitamente para o campo da Educação. A Grammarly, um serviço de apoio à escrita, causou polêmica ao anunciar uma nova funcionalidade: a possibilidade de simular o perfil de um professor para avaliar os textos produzidos ali.

Entre todos os chatbots, vimos o surgimento do “modo estudo”, com um direcionamento das respostas para a aprendizagem dos alunos, além da funcionalidade de “pesquisa”.

Assim como a Microsoft fez no século passado com o sistema operacional Windows e com o pacote de produtividade Office, estas iniciativas buscam causar uma dependência tecnológica institucional e formar uma cultura de usuários fidelizados desde cedo.

No Brasil, até mesmo por questões orçamentárias de nossas universidades públicas, a investida não foi tão pronunciada. Porém, a atuação das big techs visando moldar nossas políticas públicas é evidente. Basta dizer que a OpenAI foi o principal ator da discussão sobre o Plano Brasileiro de Inteligência Artifiicial (PBIA).

Universidades brasileiras: timidez na regulação

“O que pode, o que não pode, o que deve?”. Com esta provocação iniciei muitas conversas com a comunidade acadêmica a respeito do uso ético e responsável da IA na pesquisa e na Educação. Enquanto isso, 84% dos universitários brasileiros já utilizam ferramentas de IA generativa nos estudos.

Entretanto, uma parte considerável de nosso entorno educacional, incluindo o Ensino Superior, permanece inerte em relação aos desafios e entraves que a tecnologia tem despertado.

Segundo o levantamento de Rafael Sampaio e colaboradores, [apenas sete entre 150 Instituições de Ensino Superior contavam diretrizes sobre o uso de IA] (https://theconversation.com/pesquisa-feita-nas-principais-universidades-mostra-que-uso-da-ia-segue-desregulado-no-ensino-superior-brasileiro-262838). Em contraste, no âmbito norte-americano vemos 81,25% das universidades terem normativas.

Mas se algumas universidades e programas de pós-graduação publicaram suas normativas, a exemplo da Universidade Federal da Bahia, seguindo a grosso modo o as revistas científicas tem feito e órgãos internacionais como a UNESCO orientado, falta uma orientação central: ainda não há diretrizes formais de MEC, CAPES, CNPq…

Em outros níveis educacionais, a situação não é diferente. Secretarias estaduais e municipais ainda estão passivas. Só recentemente o CNE colocou em consulta pública uma revolução a respeito.

De todas formas, é preciso reconhecer o problema prático: mesmo guias existentes não resolvem como efetivar controle e fiscalização.

A bolha que não estourou (ainda)

Durante todo o ano de 2025 também ouvimos falar bastante uma palavra amedrontadora: bolha. De fato, a viabilidade financeira de empresas como a OpenAI tem sido colocada em xeque há mais tempo. Porém, os investimentos trilionários da Nvidia (fabricante de chips), Microsoft, Apple, Meta (Facebook, Instagram, Whatsapp), Amazon, Alphabet (Google), Tesla (XAi, Grok), além dos recentes atores exclusivos ao campo da IA levantam suspeitas.

Para os pessimistas, o retorno sobre o investimento é insuficiente, com uma desproporção significativa entre gastos de capital (US$ 332 bilhões) e receitas (US$ 28,7 bilhões). É mais, um estudo do MIT revelou que 95% das empresas até o momento não viram retornos da IA Generativa, fornecidas por estas grandes empresas. A busca por lucros reais é o que pode explicar a agressividade em relação ao mercado educacional, como exposto acima.

Finalmente, vários analistas têm apontado para o paradoxo da “teia de investimentos”, isto é, das empresas mencionadas acima investindo umas nas outras, criando uma demanda artificial que em algum momento vai “estourar”.

E se isto ocorrer, quiçá em 2026, grande parte da economia norte-americana e, consequentemente da mundial, sofrerá as consequências.

Top do Ano

Relacionado com a viabilidade econômica da IA Generativa, uma retrospectiva 2025 não pode deixar de mencionar o abalo presenciado logo em seu início. O lançamento do modelo R1 da chinesa Deepeseek, em janeiro, causou uma crise no mercado de ações. Somente a Nvidia teve uma queda de 12%, diante da notícia de um modelo aberto, treinado por menos de US$ 6 milhões, ameaçando o modelo ocidental.

Além do aspecto econômico, as IAs chinesas apontam para questões de dominância geopolítica e também possuem repercussões para a educação e para a pesquisa, ao serem abertas. O “Efeito Deepseek” veio para ficar.

Flop do Ano

Amplamente anunciada como a tendência dominante de 2025, os agentes de Inteligência Artificial não se concretizaram, apesar de certos avanços como o navegador Comet, da Perplexity (tema de um futuro IA recursos).

Por “agentes”, concebemos aplicações que agem de forma autônoma, isto é, sem supervisão humana. Na realidade, custos elevados, falhas imprevisíveis e incertezas sobre o retorno de investimento (ROI) produziram um abismo entre discurso de marketing e implementação prática.

Termo do Ano

Por avaliação própria, elejo “descarregamento cognitivo”, um conceito que permeou os debates e inclusive a produção científica sobre os impactos da IA Generativa na Educação.

Basicamente, é a tendência humana, intensificada pela disponibilidade de tecnologias digitais, de delegar funções cognitivas internas a dispositivos ou sistemas externos. Conforme deixamos de utilizar uma habilidade mental, por exemplo a da escrita,

Por sua importância, foi um dos conceitos-chave que utilizei no artigo “Sobre sarrafos e centauros: reflexões sobre aprendizagem e transformações cognitivas diante da Inteligência Artificial Generativa na Educação“ . Publicado em dezembro na Revista Estudos Universitários da Universidade Federal de Pernambuco, é um ponto alto de minha retrospectiva pessoal.

O impacto no mercado de trabalho

Além das movimentações no entorno dos agentes produtores e da própria tecnologia da IA Generativa, os impactos desta começam a ser sentidos.

Neste ponto, os alertas feitos em relação à IA mesmo antes da “Era ChatGPT” estão se concretizando, com o início do desemprego estrutural causado pela tecnologia. Dos Estados Unidos, chegam dados alarmantes. Para os recém-formados a taxa de desemprego de 6,1% para Ciência da Computação e 7,5% para Engenharia da Computação significa mais que o dobro de áreas como Biologia e História da Arte. No campo da tradução, o cenário é ainda mais acirrado, diante da automatização do trabalho intelectual.

Tal situação, entretanto, poderá causar um ciclo vicioso: conforme a IA automatiza posições de entrada, que eram porta de acesso à carreira, estas passam a ser menos buscadas. E com isso, mais propensas à automatização.

O caso do coding, ou simplesmente programação, é emblemático. Nas primeiras décadas deste século, o domínio da linguagem de computadores impactou inclusive os currículos escolares, diante de sua suposta importância para uma futura ocupação garantida no mercado de trabalho. Na atualidade, a promessa não se cumpre, pelo contrário, especialmente para os programadores júnior.

Para o âmbito educacional, as repercussões são importantes, principalmente no Ensino Superior. Quem iremos formar? Para quê?

Um aniversário de equívocos

Particularmente, 2025 mostra permanência e tendência em relação ao (mau) uso da IA Generativa, passados três anos do lançamento do ChatGPT.

Assim, o tema das referências bibliográficas alucinadas/inventadas permanece premente. Mais chamativa, surge como surpresa para muitas pessoas, apesar de ser conhecida há tempos.

Mas não se trata simplesmente de uma questão de “letramento” ou “uso responsável “. Devido às falhas do sistema de revisão por pares, estas referências têm contaminado sistemicamente a publicação científica internacional.

Com isso, estão penetrando as bases de dados científicas com as quais modelos de IA e o próprio Google Scholar (a partir do qual os “índices h” de impacto são calculados).

Assim como em outros contextos, o uso da IA acena para uma fratura da realidade compartilhada e socialmente aceita.

A reação contra a IA

O ponto anterior, junto à questão do desemprego estrutural, dos imperativos econômicos e políticos associados às empresas de exploração do capitalismo digital e dos impactos negativos na Educação , levam a um questionamento da própria existência da tecnologia.

Nesse sentido, uma onda de repúdio e resistência à IA se firmou em 2025, com destaque para uma carta aberta assinada por acadêmicos e pesquisadores em prol do banimento desta tecnologia no contexto de educação e pesquisa.

Por outro lado, um movimento “neoludista’ tem se colocado contra as condições sociais e econômicas sobre as quais a IA opera.

Ao mesmo tempo, o custo social e ambiental da IA se tornou conhecido do grande público, especialmente o consumo de energia elétrica e água (para o resfriamento) dos data centers.

Diante desses dilemas, fica a questão? Um uso ético seria impossível, considerando a agenda de desenvolvimento sustentável com a qual a Educação se comprometeu? Ou haveria modelos alternativos?

Fiz algumas reflexões a respeito, apresentadas em trabalhos de congresso, tanto num olhar decolonial da IA, como numa implementação prática através de modelos pequenos de linguagem, baseados em tecnologias e limitados conhecimento local (este último, sendo o trabalho de Luiz Batista de Oliveira Neto, que oriento).

Para os interessados, no âmbito nacional tivemos a Conferência Nacional sobre Inteligência Artificial e Direitos Sociais, aglutinando instituições educacionais e sindicatos trabalhistas. No exterior, recomendo os trabalhos de Brian Merchant e Audrey Watters, esta última uma voz crítica histórica da tecnologia educacional.

E o que tem para 2026?

Seguiremos na ativa, firmes e fortes ! A recente mudança editorial, dividindo as seções de recursos, notícias e prompts de certa forma facilita manter a constância e presença aqui.
  • Mas se você tiver sugestões, pode enviar nos comentários.

E se você gosta de nosso conteúdo e gostaria de ver essas novidades, pedimos que divulgue e compartilhe.

Sair da versão mobile