Há um fantasma que ronda o uso da Inteligência Artificial (de fato, há muitos, mas vamos simplificar): cada vez que enviamos um texto para que seja analisado, resumido, traduzido, avaliado, este material potencialmente se torna base para o treinamento da tecnologia.
Neste ponto, o “uso gratuito” revela seu custo. A cessão involuntária, em muitos casos inconsciente, de propriedade intelectual fornece os dados, o “novo petróleo” que as plataformas demandam.
Em muitos casos, simplesmente aceitamos esta barganha, motivados por necessidade prática, buscando não pensar muito sobre toda ambiguidade e opacidade associadas. Mas em outros, esta prática adquire um caráter antiético alarmante.
Trata-se do uso do ChatGPT e chatbots congêneres a partir de trabalhos que não nos pertencem. Seja ao revisar um artigo científico ainda não publicado ou ao corrigir um trabalho acadêmico, estamos nos deparando com um grande “não”, do ponto de vista ético. Como escrevi, juntamente com Rafael Sampaio e Ricardo Limongi em nosso “Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores”.
Como já dito e repetido, a IAG usa o input dos usuários para seu treinamento, algo que ocorre a cada interação. Diante de informações sensíveis, como artigos, frutos de pesquisas científicas, que utilizam dados inéditos e originais, estamos diante de um risco de vazamento de dados.
É uma contradição incômoda. Ao buscarmos facilitar nossa vida com a tecnologia, contribuímos para o treinamento de modelos proprietários, com conteúdo intelectual que não nos cabe entregar.
Contudo, existe uma alternativa cada vez mais factível diante do avanço da tecnologia se torna . Executar um modelo de IA localmente, isto é, em seu próprio computador pessoal, evitando enviar dados às nuvens e mantendo controle sobre como eles são processados, respeitando os direitos autorais.
O que acontece na máquina local, permanece na máquina local.
Para isso, o estado atual do hardware doméstico e o desenvolvimento de modelos abertos (open source) mais eficientes estão criando uma janela de oportunidade. Além da superação do dilema ético, esta mudança de posicionamento também acena para a autonomia digital, para a soberania de dados e para uma coerência ética no uso das tecnologias educacionais.
Benefícios pedagógicos de um chatbot local
O momento é particularmente oportuno. A corrida pelo desenvolvimento de IAs cada vez maiores e mais caras parece estar atingindo limites econômicos e técnicos, como o “flopado” lançamento do ChatGPT 5 evidenciou. Paralelamente, a comunidade open source tem produzido modelos menores, otimizados, capazes de realizar tarefas do contexto educacional com relativa competência.
Assim, a autonomia técnica se traduz em liberdade pedagógica. Ao se implementar um sistema RAG (Retrieval-Augmented Generation, Geração Aumentada por Recuperação, em inglês) alimentado com acervos específicos, também evitamos as invenções (ou alucinações) e os vieses cognitivos associados ao treinamento limitado de muitos modelos.
Para melhor compreensão: a partir de uma instalação local é possível utilizar toda a produção de uma instituição ou grupo de pesquisa disponível para consulta contextualizada. Ou seja, ao fazer uma consulta não receberemos mais respostas embasadas em teorias e práticas que dizem muito pouco respeito a nosso contexto de ensino e pesquisa.
Além disso, com o uso local uma dimensão de experimentação mais ousada se abre. Livre das restrições e filtros impostos pelos modelos comerciais, podemos explorar usos pedagógicos que seriam censurados ou limitados nas plataformas online. Não me refiro a usos antiéticos, mas à possibilidade de trabalhar com temas sensíveis, controversos ou específicos de nossos contextos educacionais, sem a interferência de moderações automatizadas que não compreendem nuances culturais ou pedagógicas.
E talvez mais importante: ao assumirmos o controle técnico dessas ferramentas, deixamos de ser meros consumidores de caixas-pretas tecnológicas. Começamos a compreender, mesmo que superficialmente, como esses modelos funcionam, quais suas limitações reais, onde falham. É uma desmistificação necessária que só a experiência direta proporciona.
Desafios e limitações do caminho local
O primeiro obstáculo é material, expresso numa única palavra: hardware. Executar modelos de linguagem minimamente competentes exige certos recursos computacionais.
A começar pela capacidade de processamento. Enquanto o ChatGPT roda em supercomputadores que custam milhões de dólares, a maioria de nós usuários locais estamos limitados a placas de vídeo domésticas, ou no melhor dos casos a uma placa gamer, além de memória RAM limitada.
Outro ponto é o armazenamento. Como exemplo, um modelo com 120 bilhões de parâmetros (120B) exige no mínimo 65 gigabytes de espaço em disco, o que pode não ser compatível com o típico laptop.
Aqui enfrentamos um paradoxo. Os mesmos educadores que mais se beneficiariam da autonomia tecnológica, sejam eles professores de escolas públicas, de regiões periféricas ou de instituições com recursos limitados, são justamente os que menos têm acesso ao hardware necessário.
Associado ao hardware, a questão energética entra em cena. Nessa altura dos acontecimentos, é de conhecimento comum que a IA Generativa demanda tanto energia elétrica como resfriamento das máquinas. Ao utilizar localmente, esta conta passa a ser sua.
E logo, a questão técnica não pode ser subestimada. Embora a instalação de um chatbot seja simples, como vamos mostrar adiante, um uso mais personalizado exige capacidades e conhecimentos que vão além do nível “usuário”. Esta exigência diz respeito tanto à operação, quanto à manutenção e atualização, em termos de refinamentos, correções e expansões.
Por último, uma suposta limitação dos modelos locais em termos de seus resultados pode ser até vantajosa. Ao serem menos previsíveis, menos polidos, mais propensos a sugestões inusitadas, sua criatividade crua, menos filtrada pelo policiamento corporativo, pode ser menos suscetível ao descarregamento cognitivo e à dependência tecnológica. Um modelo modesto, mas confiável.
Instalando sua primeira IA local com o LM Studio


O processo começa em lmstudio.ai. O download é direto e está disponível para Windows, Mac e Linux. O instalador é o padrão de qualquer software, é simplesmente seguir cada etapa do instalador. Se você já instalou alguma vez um navegador, verá que não é mais complexo do que isso.
Ao abrir o programa pela primeira vez, a primeira tarefa é escolher o modelo de IA a ser utilizado. Cada modelo tem suas características, seus pontos fortes e fracos. Para começar, geralmente encontramos a sugestão do Phi-4 Mini Reasoning da Microsoft ou algum da família Gemma do Google, modelos menores, mais leves, que podem rodar em máquinas modestas. Outros modelos abertos, como o Deepseek também estão disponíveis.

Um clique no botão de download e… paciência. São gigabytes de dados, o tempo de um café longo.
Download concluído, a interface principal chama atenção pela simplicidade. Uma caixa de texto, um botão de enviar. Parece o ChatGPT de sempre, mas está rodando inteiramente em sua máquina. Nenhum dado sai dali.

O LM Studio permite ajustes finos, como temperatura, tokens, penalidades. Estes parâmetros geralmente ficam ocultos nos modelos comerciais, embora os tenhamos abordado em nossas recomendações de escrita de prompt.
Para uso educacional, recomenda-se começar com tarefas simples: resumos de textos, geração de questões de avaliação, esboços de planos de aula. Não espere perfeição. Espere aprendizado, a partir da perspectiva de abrir a caixa preta.
Para o trabalho cotidiano do educador, isto é, analisar textos estudantis, criar variações de materiais didáticos, elaborar rubricas, gerar ideias para projetos, arrisco dizer que as IAs locais já atingiram um patamar suficiente. Sem dilemas éticos, sem assinatura mensal, sem termos de serviço em constante mudança.
Atualização
Em testes iniciais, baixei:
- Gemma 4B, permite upload de arquivos e imagens, melhor desempenho até aqui.
- Deepseek Qwen 8B, promissor, possui capacidade de raciocínio.
- Phi-4 Reasoning, modelo menor, mas não bastante falho no Português.
- GPT-OSS 20 B, não consegui rodar.
Concluindo
Enquanto o Vale do Silício sonha com AGI e superinteligência, nós, educadores, precisamos encontrar ferramentas que nos ajudem no dia a dia sem nos aprisionar. Que sobreviverão ao hype, à bolha, às mudanças de humor do mercado.
Em última instância, um chatbot local pode ser uma forma de resistência tecnológica. Não resistência de mera negação, mas de uma que se aproprie da tecnologia, que a domestique, que a subordine a propósitos pedagógicos. É dizer: “aceito a ferramenta, em meus termos”.
