Claude 最近新发了一篇关于提示工程最佳实践的文章,其中提到了诸多如何更好的写好提示词以利用 AI 帮助大家精准解决问题的思路,太长不看可以直接拿走这份思维导图。以下正文会详细给大家分享一下我认为文章还不错的很多精华部分。

什么是提示工程?其本质是修改传递给大语言模型(LLM)的查询,核心是在实际请求前添加 “正确的信息”。提示工程的核心价值在于:
一个合适的学习路径应该是先掌握基础习惯,再逐步应用复杂项目的高级方法。
核心原则:直接告知模型期望的结果,不假设模型能推断需求,使用简洁无歧义的语言。
最佳实践
示例对比
模糊表述:“创建一个分析仪表板”
明确表述:“创建一个分析仪表板,包含尽可能多的相关功能和交互,超越基础要求,实现功能完备的方案”
核心价值:解释需求背后的原因,帮助AI理解核心目标,生成更具针对性的响应(对能推理潜在目标的新型模型尤为有效)。
适用场景
示例对比
效果较差:“绝不要使用项目符号”
效果更佳:“我偏好自然段落形式的响应而非项目符号,因为流畅的散文更易阅读且更具对话感,项目符号对我的轻松学习风格而言过于正式和列表化”
核心要求:通过明确的指导方针和要求构建指令,具体程度越高,结果越优。
需包含的关键要素
示例对比
模糊表述:“创建地中海饮食的膳食计划”
具体表述:“设计一份用于糖尿病前期管理的地中海饮食膳食计划,每日1800卡路里,重点关注低血糖指数食物,包含早餐、午餐、晚餐和一份加餐,并提供完整的营养成分分析”
核心作用:通过示例直观展示期望的格式、语气或模式,比纯描述更易澄清复杂需求。
注意事项:现代模型(如Claude 4.x)会密切关注示例细节,需确保示例与期望行为一致,避免传递不良模式。
适用场景
实用技巧
示例对比
无示例:“总结这篇文章”
带示例:“以下是我想要的总结风格示例:文章:[AI监管相关文章链接] 总结:欧盟通过全面的《人工智能法案》,针对高风险系统,核心条款包括透明度要求和人类监督规定,2026年生效。 现在按相同风格总结这篇文章:[新文章链接]”
核心目的:减少模型的幻觉(虚构信息),提高响应的可靠性。
示例
分析这份财务数据并识别趋势,若数据不足以得出结论,请直接说明,不要猜测
核心作用:提前启动AI的响应内容,引导输出的格式、语气或结构。
适用场景
定义:要求AI在给出答案前进行分步推理,适用于复杂分析任务。
适用场景
三种常见实现方式
<thinking>标签记录思考过程(分析吸引捐赠者的信息、项目相关亮点),用<email>标签呈现最终邮件”。注意事项:“扩展思考”与手动CoT可互补使用,复杂任务中结合使用效果更佳。
核心原则:通过正向引导、风格匹配和明确要求实现格式控制。
三种有效方法
定义:将复杂任务拆分为多个连续步骤,每个步骤用单独提示处理,前一步输出作为后一步输入。
核心优势:以增加延迟为代价,提高每个子任务的准确性,适合需要迭代优化或中间验证的场景。
适用场景:
示例(研究总结):
从这份季度报告中提取关键财务指标,以JSON格式呈现。该数据用于自动化处理,因此响应必须仅包含有效JSON,无开场白或解释。使用以下结构:{\"revenue\":\"带单位的值\",\"profit_margin\":\"百分比\",\"growth_rate\":\"百分比\"}。若报告中未明确说明某指标,用null表示,不要猜测。响应以左大括号开头:{
基础判断步骤
技术-需求匹配表
| 需求场景 | 推荐技术 |
|---|---|
| 特定输出格式 | 示例、预填充、明确格式指令 |
| 分步推理 | 扩展思考(Claude 4.x)、思维链 |
| 复杂多阶段任务 | 提示链 |
| 透明推理过程 | 带结构化输出的思维链 |
| 防止幻觉 | 允许AI说“不知道” |
| 问题现象 | 解决方案 |
|---|---|
| 输出过于通用 | 增加特异性描述、提供示例、明确要求“超越基础内容” |
| 输出偏离主题或未击中要点 | 更明确地说明核心目标,提供需求背后的上下文 |
| 输出格式不一致 | 添加示例(少样本)或使用预填充控制响应开头 |
| 任务复杂导致结果不可靠 | 拆分为多个提示(提示链),每个提示专注单一任务 |
| AI添加不必要的开场白 | 使用预填充或明确要求“跳过开场白,直接给出答案” |
| AI虚构信息(幻觉) | 明确允许AI在不确定时说明“不知道” |
| 期望执行操作,AI却仅提供建议 | 明确动作指令(如“修改此函数”而非“你能建议修改吗?”) |