Featured image of post 不可能!谷歌68页的提示词工程压缩到这么一点了?

不可能!谷歌68页的提示词工程压缩到这么一点了?

本攻略基于多份公开资料(包括 Google Cloud Prompt Engineering Guide)以及作者实践经验,力求提供一份可直接落地的中文手册。


1 为什么要关心提示词?

  • 效率:一条写得好的提示能节省大量反复调试的时间。
  • 质量:模型输出好坏与提示设计直接挂钩。
  • 安全:合适的约束能显著降低偏见或敏感内容的风险。
  • 可控性:通过精细提示,我们可以让模型“说人话”、守规则。

2 提示词的三大核心理念

  1. 上下文即一切
    LLM 不会“记住”世界,它只看你给的文本。你给的信息越充足,答案越贴合。

  2. 示范胜于描述
    相比“请输出 JSON”,直接给一段 JSON 示例往往更有效。

  3. 逐步思考 VS 一步到位
    对复杂任务,先让模型写思路再给结果(Chain‑of‑Thought,思维链简称 CoT)通常更稳。


3 五大黄金法则

# 法则 说明与例子
1 动词开头,目标清晰 ✅“生成 5 句广告文案” ⛔“帮我想想…”
2 补足背景 “受众:初中生;主题:可持续能源”
3 示例驱动 Few‑Shot > One‑Shot > Zero‑Shot,给出例子
4 格式先行 明确输出结构:Markdown、表格、JSON…
5 可迭代 每次只改动一处,再对比效果

4 写作套路与范式

4.1 指令式(Instruction)

你是一名 SEO 专家。请根据下列关键词写一段 160 字以内的简洁描述,避免重复词。
关键词:绿色出行、共享单车、低碳生活

4.2 场景设定(Role + Context)

背景:一位 10 岁小学生在做有关火山的科普演讲。  
你的任务:用通俗语言解释“板块俯冲”现象,控制在 120 字以内。

4.3 Few‑Shot 示例

【示例】
输入:鳄梨  -> 输出:一种富含健康脂肪的热带水果  
输入:胡萝卜-> 输出:富含 β‑胡萝卜素的根茎蔬菜  
【任务】
输入:黑豆   -> 输出:

4.4 Chain‑of‑Thought(思维链分步推理)

先展示推理步骤,再给最终结论。  
问题:一辆车以 60km/h 行驶 1.5 小时,行驶了多少公里?
步骤:
1. …
2. …
答案:

5 提示词调优工作流

  1. 初稿:基于“五大黄金法则”草写 Prompt。
  2. 小样测试:选择 5‑10 条典型输入跑模型,打分。
  3. 问题定位:输出偏题?格式不符?内容走样?
  4. 微调
    • 增删上下文
    • 调整示例顺序
    • 引入 CoT 或移除冗余词
  5. 回归测试:确保新改动没破坏旧场景。

建议将测试输入与期待输出保存为单元测试脚本,持续集成。


6 常见“踩坑”与修复

症状 可能原因 快速修复
内容跑题 目标不够具体 用动词+限定条件重写指令
逻辑跳步 未显式要求思考过程 加一句“请逐步推理”
长篇大论 没有限定长度 加字符/段落上限或示例
数据造假 缺少信息来源约束 加“仅使用给定文本,不要编造”
敏感输出 缺少价值观指引 加“请遵守…准则,避免…”

7 场景示例集锦

领域 示例 Prompt 片段
产品运营 “生成 5 条适合 TikTok 的 15 秒旁白脚本,语气幽默,含号召行动”
数据分析 “根据下表数据写一段 100 字洞察,结尾给出一条改进建议”
SQL 生成 “根据以下自然语言需求写 SQL,表结构在附件”
图像创作 “一只穿宇航服的考拉,在月球剪影下喝咖啡,数字油画风”
教育 “为 7 年级学生设计 3 个概率游戏,每个用 3 句描述”

8 进阶:自动化与工具链

  1. 模板引擎:Jinja2 / Liquid – 把 Prompt 写成可参数化模板。
  2. 向量数据库检索:先用 Embedding 找到相关文档,再插入 Prompt(RAG)。
  3. 评分模型:用另一个 LLM 或规则打分,实现自动 A/B 对比。
  4. 多 Agent 协作:规划‑执行‑校对三个角色串联完成复杂任务。

结语

提示词工程 ≠ 花哨写作,而是一门以最小成本激发 LLM 最大潜能的系统方法。
记住:目标 > 上下文 > 示例 > 约束 —— 然后不断迭代,你的提示词将成为生产力的新杠杆。

By 大可出奇迹