Engenharia de Prompt: O Guia Completo para Falar a Língua da IA
Se você usa ChatGPT, Claude, Gemini ou qualquer IA generativa no dia a dia, provavelmente já percebeu que a forma como você pergunta muda tudo na resposta que recebe. Isso não é acaso, existe uma disciplina inteira dedicada a isso: Engenharia de Prompt.
Neste post, vou apresentar um mapa geral de todas as principais técnicas que existem baseadas no site https://www.promptingguide.ai/pt. Cada uma delas vai virar um post dedicado com exemplos práticos e aprofundamento. Por enquanto, guarda esse fio, vai ser o seu glossário de referência.
O que é Engenharia de Prompt?
É a arte (e ciência) de desenvolver e otimizar as instruções que você dá para um modelo de linguagem (LLM), de forma que ele entenda exatamente o que você precisa e entregue o melhor resultado possível. Pensa assim: é como aprender a fazer pedidos numa cozinha profissional, não basta dizer "me faz alguma coisa", você precisa saber especificar o prato, o ponto, os alérgenos...
15 Técnicas de Prompting (e o que cada uma faz)
1. Zero-Shot Prompting
O básico que já funciona surpreendentemente bem.
Você pergunta direto, sem dar nenhum exemplo. O modelo usa todo o conhecimento que já tem do treinamento para responder. É como chegar num restaurante e pedir "me traz algo saboroso com frango", sem mais detalhes. Funciona quando o modelo já conhece bem o tipo de tarefa.
🌐 Post em breve: Zero-Shot na prática — quando funciona e quando vai te decepcionar
2. Few-Shot Prompting
Mostre antes de pedir.
Aqui você dá alguns exemplos de entrada/saída antes de fazer sua pergunta de verdade. É como ensinar uma criança a brincar no parque mostrando as regras com exemplos: "olha, quando chegar na escorregada, você espera a pessoa anterior descer, depois vai". Com dois ou três exemplos, o modelo entende o padrão e replica.
🌐 Post em breve: Few-Shot — a técnica que transforma o modelo no seu assistente personalizado
3. Chain-of-Thought (CoT) — Cadeia de Pensamento
Ensine o modelo a pensar em voz alta.
Em vez de pedir a resposta final diretamente, você pede que o modelo mostre o raciocínio passo a passo. É a diferença entre pedir pra uma criança resolver "quanto é 23 - 20 + 6?" direto, versus pedir que ela explique cada operação. O resultado melhora muito, especialmente em problemas matemáticos e lógicos.
🌐 Post em breve: CoT — como fazer a IA "mostrar o caderno" e acertar mais
4. Self-Consistency — Autoconsistência
Consulte várias opiniões e vote na melhor.
Uma das técnicas mais avançadas: você gera múltiplos caminhos de raciocínio diferentes para o mesmo problema e escolhe a resposta mais consistente entre eles. É como pedir pra três amigos resolverem o mesmo problema de matemática separadamente e pegar a resposta em que dois ou três concordam. Muito útil quando a precisão importa.
🌐 Post em breve: Self-Consistency — quando uma resposta não é suficiente
5. Generate Knowledge Prompting
Peça para o modelo "estudar" antes de responder.
Antes de responder a pergunta principal, o modelo gera conhecimento relevante sobre o tema, e depois usa esse conhecimento para formular uma resposta mais precisa. É como pedir para o Google Gemini escrever uma receita de bolo de cenoura: primeiro ele "lembra" as propriedades da cenoura, as proporções ideais, as variações e só então escreve a receita.
🌐 Post em breve: Generate Knowledge — como fazer a IA "revisar a matéria" antes de responder
6. Prompt Chaining
Divida tarefas grandes em etapas menores e encadeadas.
Em vez de um único prompt gigante, você quebra a tarefa em subtarefas e usa a saída de um prompt como entrada do próximo. É como preparar um jantar completo: você não faz tudo ao mesmo tempo, primeiro faz o arroz, depois o feijão, depois a salada, usando cada resultado como base pro próximo passo.
🌐 Post em breve: Prompt Chaining — orquestrando a IA como um pipeline profissional
7. Tree of Thoughts (ToT) — Árvore de Pensamentos
Explore vários caminhos antes de escolher o melhor.
Enquanto o CoT segue uma linha reta de raciocínio, o ToT explora múltiplos "galhos" de pensamento, avalia cada um e escolhe o caminho mais promissor. É como jogar xadrez: você não faz o primeiro movimento que vem à cabeça, você visualiza várias jogadas possíveis, avalia consequências e escolhe a melhor.
🌐 Post em breve: Tree of Thoughts — a IA que pensa como um enxadrista
8. RAG — Retrieval Augmented Generation
Conecte a IA a fontes de conhecimento externas.
O modelo não depende só do que aprendeu no treinamento, ele busca documentos relevantes numa base de dados, combina com o prompt original e gera uma resposta muito mais precisa e atualizada. É como a diferença entre um médico que responde de memória vs. um que consulta o prontuário atualizado do paciente antes de dar o diagnóstico.
🌐 Post em breve: RAG na prática — como construir uma IA que "lê seus documentos"
9. ART — Automatic Reasoning and Tool-use
Raciocínio automático com uso de ferramentas.
Combina CoT com chamadas automáticas a ferramentas externas (calculadoras, buscadores, APIs). O modelo raciocina, identifica quando precisa de uma ferramenta, pausa, usa a ferramenta, e continua. É como um cozinheiro que está fazendo a receita, percebe que não tem um ingrediente, vai ao mercado, volta e termina o prato.
🌐 Post em breve: ART — quando a IA sabe quando precisa de ajuda
10. ReAct — Reason + Act
Pense e aja de forma intercalada.
O modelo alterna entre gerar raciocínio (Thought) e executar ações (Act), como buscar informações em fontes externas, e usa as observações para ajustar o próximo passo. É como uma criança resolvendo um caça-palavras: ela pensa "essa palavra começa com P... pode ser PARQUE... vou procurar...", encontra, confirma, e parte pro próximo.
🌐 Post em breve: ReAct — a estrutura que está por trás dos agentes de IA modernos
11. Reflexion
A IA que aprende com os próprios erros, sem retreinar.
Um framework onde o agente recebe feedback verbal sobre seus erros e usa essa reflexão como memória para melhorar na próxima tentativa. É como estudar para uma prova: você erra na primeira vez, lê o gabarito, anota o que errou e, na próxima rodada, acerta com mais facilidade.
🌐 Post em breve: Reflexion — como fazer a IA "estudar para a prova"
12. Multimodal CoT
Raciocínio em cadeia com texto E imagens.
Uma extensão do CoT que incorpora informação visual junto com texto. O modelo analisa imagens e linguagem em conjunto para gerar raciocínio fundamentado antes de responder. É como pedir a um nutricionista que olhe a foto do seu prato antes de dar o feedback nutricional, muito mais preciso do que só descrever com palavras.
🌐 Post em breve: Multimodal CoT — quando palavras não bastam
13. Graph Prompting
Estruturando conhecimento em grafos para tarefas complexas.
Um framework que representa o conhecimento como um grafo de entidades e relações para melhorar performance em tarefas downstream. Ainda em desenvolvimento na comunidade, mas promissor para domínios onde as conexões entre conceitos importam tanto quanto os conceitos em si.
🌐 Post em breve: Graph Prompting — o futuro do raciocínio estruturado
14. APE — Automatic Prompt Engineer
A IA que cria e otimiza os próprios prompts.
Em vez de você escrever o prompt manualmente, um LLM gera candidatos de instrução automaticamente, avalia cada um e seleciona o melhor. É como contratar um copywriter que escreve 10 versões do seu anúncio, testa cada uma e te entrega só a que converteu mais.
🌐 Post em breve: APE — deixa a IA escrever os próprios prompts
15. Active-Prompt
O modelo aprende quais exemplos são mais úteis pra cada tarefa.
Em vez de usar exemplos fixos de CoT para tudo, o Active-Prompt identifica as perguntas mais incertas, pede anotação humana para elas e usa esses exemplos calibrados para melhorar o desempenho. É como um professor que percebe quais alunos têm mais dúvida e foca os exemplos naqueles pontos críticos.
🌐 Post em breve: Active-Prompt — exemplos sob medida para cada tarefa
16. Directional Stimulus Prompting — Estímulo Direcional
Dê uma "dica" para guiar a resposta.
Usa um modelo auxiliar para gerar hints/dicas que orientam um LLM principal na direção certa. É como dar a um aluno uma palavra-chave antes de ele escrever uma redação: "lembra de mencionar sustentabilidade", a resposta fica mais alinhada com o objetivo sem precisar reescrever toda a instrução.
🌐 Post em breve: Directional Stimulus — o poder de uma dica no prompt certo
17. PAL — Program-Aided Language Models
Delegue os cálculos para um interpretador.
Em vez de o modelo calcular na linguagem natural (onde erra bastante), ele gera código Python com as etapas do raciocínio e delega a execução para um interpretador. É como um chef que usa uma balança digital para medir os ingredientes em vez de estimar "um punhado". A precisão é muito maior.
🌐 Post em breve: PAL — quando a IA para de fazer conta na cabeça
Mas nem tudo são flores: Riscos e Usos Indevidos
Com grande poder vem grande responsabilidade.
- Adversarial Prompting (Injeção de Prompt): tentativas de "enganar" o modelo com instruções maliciosas embutidas no conteúdo.
- Factuality (Alucinações): o modelo pode gerar informações falsas com muita confiança.
- Biases (Vieses): os modelos herdam vieses dos dados de treinamento e podem reproduzi-los.
🌐 Post em breve: O lado sombrio do Prompting — como se proteger de ataques e alucinações
Riscos: A IA não é seu Compilador
Eu já caí na armadilha de aceitar um código que parecia perfeito, mas usava uma biblioteca que não existia.
- Alucinações: Sempre valide nomes de pacotes e assinaturas de funções.
- Viés: A IA tende a ser "agradável". Se você perguntar "Este código está bom?", ela dirá que sim. Pergunte: "Quais são os 3 piores problemas de performance neste código?".
Conclusão: Escalando seu Conhecimento
A Engenharia de Prompt não vai substituir o desenvolvedor. Ela vai substituir o desenvolvedor que não sabe se comunicar de forma clara. Trate o prompt como uma especificação técnica. Se a especificação for ruim, o sistema será ruim.
Você também sentiu que a IA se tornou um "membro do time" depois que você começou a ser mais específico nos pedidos? Ou ainda sente que está brigando com a ferramenta?
⚠️ Próximo passo: Escolha uma dessas técnicas hoje para resolver aquele bug chato no seu PR. Você vai se surpreender!
Salva esse post, porque cada uma dessas técnicas vai virar um deep dive com exemplos reais, comparações antes/depois e dicas práticas. Qual você quer ver primeiro?
