🧠 Guia de IA Generativa + Biblioteca de Prompts
Conceitos essenciais, boas práticas de prompting e uma biblioteca de prompts prontos para colar nas IAs (ChatGPT, Gemini, Copilot, Claude).
Introdução
📈 Nos últimos anos, as Inteligências Artificiais Generativas (IAGs) — como ChatGPT e Gemini — democratizaram o acesso à IA. Hoje, basta escrever um comando para obter respostas complexas, textos e análises.
🎯 Para extrair o máximo dessas ferramentas, é fundamental saber se comunicar com elas. Isso é Engenharia de Prompt: formular instruções claras para obter respostas úteis, verificáveis e no formato certo.
🔎 Prompt x Pesquisa na internet
- 🔗 Pesquisa devolve links e páginas já existentes.
- 🧮 Prompt gera uma resposta nova, dentro do chat, podendo usar buscas para dados atuais.
- 🧭 Escolha conforme o objetivo: consultar uma fonte específica vs. sintetizar/gerar um conteúdo sob medida.
🧠 6 Estratégias de Engenharia de Prompt
1) Instruções claras ✍️
Especifique o que incluir/omitir, tamanho e exemplos. Se a resposta vier superficial, peça uma revisão com foco em precisão.
2) Texto de referência 📎
Anexe trechos relevantes e mande citar. Reduz “invenções” e aumenta confiabilidade, essencial em normas e fatos.
3) Divida subtarefas 🪜
Use Prompt Chaining: quebre a tarefa em passos, valide cada saída e só então componha o resultado final.
4) Dê tempo para pensar 🧩
Peça raciocínio passo a passo (Chain of Thought) e verificação final. Estimula lógica e reduz erro sutil.
5) Use ferramentas 🔧
RAG para dados, execuções de código para cálculos e APIs para atualizações. Prefira processamento a “opinião” do modelo.
6) Teste sistematicamente 🧪
Defina padrões‑ouro (exemplos com respostas esperadas) e compare versões de prompt. Evolua com evidências.
📚 Conceitos rápidos (clique para expandir)
Tokens são pedaços de palavras. A janela de contexto é o total de tokens que cabem na conversa. Se ultrapassar, o modelo esquece partes antigas. Regra prática: ~100 tokens ≈ 75 palavras.
RAG combina a IA com bases de dados externas. Você busca trechos relevantes (via embeddings) e passa ao modelo como contexto. Resultado: respostas mais atuais e fundamentadas, com menos alucinação.
Evite incluir dados sensíveis; valide saídas; registre fontes. Modelos podem refletir vieses do treinamento — compense com política de revisão humana.
Biblioteca de Prompts (copiar e colar)
Atue como [persona clara]. Tarefa: [o que fazer]. Contexto: [dados/limites/público]. Formato: [forma de saída exata]. Comece confirmando entendimento e liste dúvidas antes de executar.
Reavalie sua resposta com foco em: (1) precisão factual, (2) concisão, (3) formato pedido. Liste 3 melhorias, depois gere versão revisada. Se faltar base, sinalize com null.
Atue como analista investigativo. Dado o caso <resumo>…</resumo>, gere plano de diligências com: objetivos, responsáveis, prioridade (alta/média/baixa), prazo e critérios de conclusão. Saída: tabela Markdown.
Atue como delegado(a) redator(a). Redija portaria de instauração de inquérito com: qualificação mínima, notícia do fato, capitulação inicial, nomeação de escrivão, diligências iniciais e prazos. Linguagem administrativa.