🧠 Guia de IA Generativa + Biblioteca de Prompts

Conceitos essenciais, boas práticas de prompting e uma biblioteca de prompts prontos para colar nas IAs (ChatGPT, Gemini, Copilot, Claude).

Introdução

📈 Nos últimos anos, as Inteligências Artificiais Generativas (IAGs) — como ChatGPT e Gemini — democratizaram o acesso à IA. Hoje, basta escrever um comando para obter respostas complexas, textos e análises.

🎯 Para extrair o máximo dessas ferramentas, é fundamental saber se comunicar com elas. Isso é Engenharia de Prompt: formular instruções claras para obter respostas úteis, verificáveis e no formato certo.

💡 Dica rápida: trate a IA como um colaborador. Diga quem ela é (persona), o que precisa (tarefa), com qual base (contexto) e como entregar (formato).

🔎 Prompt x Pesquisa na internet

  • 🔗 Pesquisa devolve links e páginas já existentes.
  • 🧮 Prompt gera uma resposta nova, dentro do chat, podendo usar buscas para dados atuais.
  • 🧭 Escolha conforme o objetivo: consultar uma fonte específica vs. sintetizar/gerar um conteúdo sob medida.

🧠 6 Estratégias de Engenharia de Prompt

1) Instruções claras ✍️

Especifique o que incluir/omitir, tamanho e exemplos. Se a resposta vier superficial, peça uma revisão com foco em precisão.

2) Texto de referência 📎

Anexe trechos relevantes e mande citar. Reduz “invenções” e aumenta confiabilidade, essencial em normas e fatos.

3) Divida subtarefas 🪜

Use Prompt Chaining: quebre a tarefa em passos, valide cada saída e só então componha o resultado final.

4) Dê tempo para pensar 🧩

Peça raciocínio passo a passo (Chain of Thought) e verificação final. Estimula lógica e reduz erro sutil.

5) Use ferramentas 🔧

RAG para dados, execuções de código para cálculos e APIs para atualizações. Prefira processamento a “opinião” do modelo.

6) Teste sistematicamente 🧪

Defina padrões‑ouro (exemplos com respostas esperadas) e compare versões de prompt. Evolua com evidências.

📚 Conceitos rápidos (clique para expandir)

🔡 Tokens e Janela de Contexto

Tokens são pedaços de palavras. A janela de contexto é o total de tokens que cabem na conversa. Se ultrapassar, o modelo esquece partes antigas. Regra prática: ~100 tokens ≈ 75 palavras.

🔗 RAG (Geração Aumentada por Recuperação)

RAG combina a IA com bases de dados externas. Você busca trechos relevantes (via embeddings) e passa ao modelo como contexto. Resultado: respostas mais atuais e fundamentadas, com menos alucinação.

🛡️ Segurança, Vieses e Privacidade

Evite incluir dados sensíveis; valide saídas; registre fontes. Modelos podem refletir vieses do treinamento — compense com política de revisão humana.

Biblioteca de Prompts (copiar e colar)

Estrutura-base (4 elementos)
Atue como [persona clara]. Tarefa: [o que fazer]. Contexto: [dados/limites/público]. Formato: [forma de saída exata]. Comece confirmando entendimento e liste dúvidas antes de executar.
Iterar e melhorar (revisão guiada)
Reavalie sua resposta com foco em: (1) precisão factual, (2) concisão, (3) formato pedido. Liste 3 melhorias, depois gere versão revisada. Se faltar base, sinalize com null.
Plano de diligências (triagem e prioridade)
Atue como analista investigativo. Dado o caso <resumo>…</resumo>, gere plano de diligências com: objetivos, responsáveis, prioridade (alta/média/baixa), prazo e critérios de conclusão. Saída: tabela Markdown.
Portaria de instauração de inquérito (minuta)
Atue como delegado(a) redator(a). Redija portaria de instauração de inquérito com: qualificação mínima, notícia do fato, capitulação inicial, nomeação de escrivão, diligências iniciais e prazos. Linguagem administrativa.
← Voltar à Página Inicial