为什么好的 Skill 如此重要?
在与豆包对话时,很多人习惯于简短地抛出一个问题:“帮我写个方案”、“分析一下这个问题”。得到的回答往往泛泛而谈,缺乏深度。 这不是模型的问题,而是提问方式的问题。一个精心设计的 Skill,可以让同一个模型的输出质量提升 3-10 倍。这不是夸张——斯坦福大学 2024 年的研究表明,结构化提示词能显著提升大语言模型在复杂推理任务上的表现。
普通提问 vs 结构化 Skill
| 维度 | 普通提问 | 结构化 Skill |
|---|---|---|
| 深度 | 表面回答,像百科词条 | 深度分析,像专家咨询 |
| 结构 | 散乱无序 | 逻辑清晰、层次分明 |
| 视角 | 单一视角 | 多维度、多学科交叉 |
| 可执行性 | 抽象建议 | 具体步骤和行动方案 |
| 思维质量 | 容易遗漏关键因素 | 系统穷尽、不留盲区 |
一个直观的例子
- 输入
- 豆包输出示例
用户: 我想创业做一个咖啡品牌,给点建议。豆包: 创业做咖啡品牌需要考虑以下方面:1. 市场调研… 2. 品牌定位… 3. 产品研发… (泛泛而谈的清单)
本站 Skill 的设计理念
核心理念:思维框架 + AI = 超级智囊团
我们的 Skill 不是简单的”角色扮演”或”格式要求”。它们背后有一套完整的理论体系:三大理论支柱
认知心理学
基于丹尼尔·卡尼曼《思考,快与慢》等研究,帮助 AI 克服认知偏误,进行更理性的分析。利用系统 1(快思考)和系统 2(慢思考)的双重机制,确保分析既有直觉洞察,又有严谨论证。
经典思维方法论
融合麦肯锡金字塔原理、查理·芒格多元思维模型、德·波诺六顶思考帽等经典方法论,将数十年积累的精英思维方法转化为可复用的 Skill 模板。
AI 提示工程
结合 Chain-of-Thought(思维链)、Tree-of-Thought(思维树)、Self-Consistency(自洽性检验)等前沿提示工程技术,最大化激发大模型的推理能力。
设计原则
Skill 库结构导览
思维框架 Skill
10 个经典思维框架的完整 Skill 模板,包括第一性原理、六顶思考帽、金字塔原理、费曼学习法、MECE 分析法等。让豆包像顶级咨询师一样结构化思考。
心智模型 Skill
10 个跨学科心智模型的 Skill 模板,包括多元思维模型、二阶思维、概率思维、系统思维等。让豆包从多个学科维度交叉分析问题,发现隐藏的深层规律。
决策分析 Skill
专注于帮助你做出更好决策的 Skill 模板,涵盖风险评估、机会成本分析、博弈论推演等框架。
场景 Skills
按实际使用场景分类的 Skill 模板:写作、学习、编程、创意、说服力、职场效率。直接复制,即刻提升对话质量。
如何使用本 Skill 库
三步上手法
进阶用法:组合多个框架
真正的高手不会只用一个思维框架。你可以按以下方式组合使用:| 组合方式 | 适用场景 | 示例 |
|---|---|---|
| 第一性原理 + MECE | 从底层重构并系统穷尽 | 分析一个行业的颠覆机会 |
| 六顶思考帽 + 二阶思维 | 全面评估并预测连锁反应 | 评估一项重大战略决策 |
| 费曼学习法 + 苏格拉底提问 | 深度学习并发现认知盲区 | 攻克一个复杂的学术概念 |
| 金字塔原理 + 逆向思维 | 结构化表达并排除反面因素 | 撰写一份有说服力的方案 |
| 系统思维 + 激励机制分析 | 理解复杂系统中的行为逻辑 | 分析一个组织为何效率低下 |
背后的学术参考
本站 Skill 的设计参考了以下经典著作和研究:认知心理学
认知心理学
- Daniel Kahneman,《思考,快与慢》(Thinking, Fast and Slow, 2011)
- Amos Tversky & Daniel Kahneman, “Judgment under Uncertainty: Heuristics and Biases” (1974)
- Gary Klein,《力量的来源》(Sources of Power, 1998) — 自然决策理论
- Philip Tetlock,《超预测》(Superforecasting, 2015)
思维方法论
思维方法论
- Edward de Bono,《六顶思考帽》(Six Thinking Hats, 1985)
- Barbara Minto,《金字塔原理》(The Pyramid Principle, 1987)
- Charlie Munger,《穷查理宝典》(Poor Charlie’s Almanack, 2005)
- Peter Senge,《第五项修炼》(The Fifth Discipline, 1990)
提示工程研究
提示工程研究
- Wei et al., “Chain-of-Thought Prompting Elicits Reasoning in Large Language Models” (2022)
- Yao et al., “Tree of Thoughts: Deliberate Problem Solving with Large Language Models” (2023)
- Wang et al., “Self-Consistency Improves Chain of Thought Reasoning in Language Models” (2023)