Marcelo Sabbatini

Dominando prompts na prática (parte 1)

Foto: Marsha Reid / Unsplash

Publicado originalmente em IAEdPraxis: Caminhos Inteligentes para a Educação, em 17 de junho de 2025

No leito de morte de Gertrude Stein, sua companheira Alice Toklas perguntou: “Qual é a resposta?” Stein respondeu: “Qual é a pergunta?” — e essas foram suas últimas palavras. Esta anedota ilustra a importância de formular a pergunta certa. Na era da Inteligência Artificial ela se traduz na constatação de que a qualidade da resposta depende diretamente da precisão do prompt, isto é, da instrução textual proporcionada à máquina.

Em termos da evolução dos sistemas de Inteligência Artificial, o prompt é um diferencial, ao utilizar linguagem natural. Ou seja, não demanda conhecimento técnico especializado, com o uso de árvores de decisão e comandos de programação. A partir de uma “conversa”, comportamentos complexos da IA são acionados, eliminando as barreiras técnicas entre intenção humana e a execução computacional.

Janela de prompt do ChatGPT.

Contudo, ainda hoje, elaborar um prompt é um processo iterativo de experimentação, análise e ajuste. O ponto de equilíbrio entre o que o usuário realmente necessita e o resultado do processamento autônomo da IA passa pelo conhecimento de alguns conceitos, além de algumas técnicas.

Compreendendo prompts

Dada a natureza probabilística das respostas da IA Generativa, a instrução ou pergunta fornecida — prompt — é responsável por grande parte da qualidade, relevância e utilidade da resposta. Certos cuidados em sua formulação evitam respostas genéricas e gere algo mais específico.

Exemplo: você pode pedir que a IA explique determinado conceito científico. Mas ao acrescentar a delimitação “para um estudante de Ensino Médio”, a resposta assume outra dimensão de tratamento e profundidade.

Assim, a elaboração do prompt influencia aspectos como:

Engenharia de prompts?

Anunciada como a “profissão do futuro” a partir do surgimento do ChatGPT, esta prática envolve “o processo de desenhar prompts de alta qualidade que guiam os LLMs para produzir respostas precisas”, na definição do guia “Prompt Engineering“, de Lee Boonstra, publicado pelo Google em 2024.

Para além de simplesmente escrever as instruções, o termo “engenharia” também faz alusão à manipulação de parâmetros técnicos que influenciam o comportamento dos modelos de IA.

Na atualidade, porém, há ressalvas em relação a esta ser efetivamente uma área do conhecimento ou a se configurar como uma profissão propriamente dita.

 

Ser capaz de comunicar claramente através da escrita / Engenharia de prompt…uma expressão sobrevalorizada

Anatomia de um prompt

O uso da linguagem natural para a interação com as IAs Generativas, apesar de democratizar e facilitar o acesso, também acaba ocultando uma certa complexidade e a necessidade de precisão na formulação dos prompts. Nesse sentido,

Você não precisa ser um cientista de dados ou um engenheiro de aprendizagem de máquina – qualquer pessoa pode escrever um prompt. Porém, criar o prompt mais eficaz pode ser complicado. Muitos aspectos do prompt afetam sua eficácia: o modelo utilizado, suas configurações, a escolha de palavras, estilo e tom, estrutura e contexto, todos são importantes (Lee Boonstra).

Dito isso, classicamente um prompt se classifica segundo seus componentes essenciais. Na formulação de Rafael Sampaio, em seu guia de prompts acadêmicos eles são:

A estes, outros guias e orientações acrescentam:

Estes componentes podem ser vistos na prática, em nossa biblioteca de prompts.

Papéis ainda são necessários?

Até pouco tempo atrás, havia uma recomendação básica: fornecer a IA um papel, para contextualização. Como nos explica Ethan Mollick, em seu livro “Co-Intelligence: living and working with AI”:

A evolução dos chatbots e, principalmente os modelos de linguagem com capacidades de raciocínio parecem tornar desnecessária esta precaução. A exceção se dá quando o papel demanda alguma caracterização adicional, que influencie a resposta.

Exemplificando: não seria mais preciso dizer à IA que ela deva assumir o papel de um professor que irá avaliar seu projeto de pesquisa em elaboração. Mas acrescentar características como “arrogante, que realiza observações ácidas e excessivamente críticas” configura-se um objetivo diferente.

Conceitos relacionados

Antes de entrarmos nas características e passos para elaborar um prompt, pode ser interessante esclarecer alguns conceitos envolvidos.

A começar pelo funcionamento dos grandes modelos de linguagem (LLMs), que basicamente são máquinas de realizar previsões. Isto significa que o modelo toma uma sequência de texto como entrada e em seguida prevê qual seria o próximo token (uma unidade básica de texto), com base em seu treinamento. Em seguida, a partir do token escolhido e acrescentado à cadeia, prevê o próximo. Este processo se repete, algo que podemos inclusive visualizar no funcionamento dos chatbots.

Considerando que um token pode ser uma palavra, parte de uma palavra ou mesmo um caractere individual, sua quantidade influencia diretamente a complexidade e extensão das respostas possíveis, assim como o custo computacional de processamento.

Modelos mais avançados como o Gemini 2.5 possuem janelas de token gigantescas, isto é, capacidade de processar e manter em memória uma quantidade maior de texto de entrada, permitindo trabalhar com documentos extensos, múltiplas fontes simultaneamente e manter o contexto de conversas longas.

Tipos de prompt

Também buscando uma melhor utilização, os prompts podem ser categorizados, segundo Boonstra, em:

Com nome autoexplicativo, o one-shot utiliza um único exemplo que a IA deve imitar ao máximo na execução da tarefa. Por sua vez o few shot proporciona múltiplos exemplos, estabelecendo um padrão a ser seguido.

Parâmetros

A maioria dos chatbots — ChatGPT, Claude, Gemini — utilizam uma interface transparente e simplificada ao usuário, facilitando sua utilização. Contudo, qualquer Grande Modelo de Linguagem possui parâmetros de configuração adicionais que podem ser evocados por meio de interface (por exemplo, no IA Studio) ou diretamente, explícitos no prompt.

A utilização destes parâmetros permite um controle mais preciso sobre as saídas da IA, segundo o contexto. Por exemplo, um professor pode usar uma temperatura mais baixa ao gerar explicações técnicas, mas aumentá-la ao solicitar ideias criativas para projetos.

Sobre “truques” e “macetes”

A variabilidade da resposta dos chats de IA, incluindo sua imprevisibilidade e tendência a erros e invenções (alucinações) levou a comunidade de usuários a testar e experimentar toda uma série de recomendações, em busca de melhores resultados.

Alguns refletem os mecanismos internos de funcionamento do modelo (“você será penalizado se…”), enquanto outros são empíricos e aparentemente inexplicáveis (“Vou dar uma gorjeta $x para uma solução melhor!”).

Tem também aqueles que não fazem muito sentido e possivelmente não alteram os resultados (“Repita uma palavra ou frase específica várias vezes em um prompt”, “Use comandos positivos como “fazer” e evite palavras negativas como “não”).

Por outro lado, algumas práticas ajudam o usuário a organizar seu próprio pensamento e talvez não tenham efeito sobre IA:

Finalmente, outras dessas recomendações configuram técnicas mais avançadas, que trataremos numa segunda parte deste artigo:

Um pensamento: com tantas recomendações, acrescidas da necessidade de testar, ajustar, voltar a testar, encontramos um paradoxo: o tempo de escrever um prompt pode ser superior ao de realizar a tarefa por conta própria. Este é um dos fatores contribuem para explicar o porquê da IA Generativa ainda não ter produzido um aumento de produtividade no trabalho, segundo uma pesquisa divulgada recentemente.

Desafios

Apesar da evolução tecnológica, o prompt continua sendo a base da interação entre humanos e IA. Além de sua estrutura básica, o domínio do conteúdo específico associado a técnicas mais avançadas faz com que repositórios de prompts específicos para seus campos de interesse sejam valiosos e necessários.

Ao mesmo tempo, os desafios e limitações precisam ser considerados. A variabilidade nas respostas das IAs, mesmo com prompts idênticos, pode dificultar a consistência. Ao mesmo tempo, os vieses e preconceitos embutidos nos dados de treinamento das IAs podem se manifestar nas respostas, exigindo vigilância constante.

Com tudo isso, a formulação e reformulação de prompts continuará sendo uma competência exigida para um uso consistente da tecnologia. Em nossa próxima edição daremos continuidade ao tema, abordando técnicas avançadas de utilização de prompts. Fiquem ligados!

Sair da versão mobile