From «反脆弱»

搭建一个反脆弱决策 AI 工具包

你将把《反脆弱》中的杠铃策略、凸性检验、切肤之痛验证、林迪效应过滤、黑天鹅预警等工具,转化为一套可在 ChatGPT / Claude 中直接调用的 AI Prompt 集,每个 prompt 含完整 system 角色设定、结构化输入模板和输出格式,并用你的真实决策场景测试每个 prompt 的有效性,最终组成一份随取随用的「反脆弱决策 AI 工具包」。

Final work

《一个《反脆弱决策 AI 工具包》(含 5 套 Prompt)》

Estimated time

1.5-2 小时

已提交

Your final work

Purpose:把塔勒布的决策框架工具化、AI 化,让自己在面临不确定决策、试错评估、极端情境时有一套可反复调用的 AI 质询系统,而不是每次从头想起。

Parts:

  • 杠铃决策评估器:识别某个选项是否处于脆弱的中间地带
  • 凸性识别 Prompt:检验决策的上行 / 下行结构是否值得冒险
  • 黑天鹅风险预警:对某情境的极端斯坦地形和尾部风险进行结构化扫描
  • 切肤之痛检验 Prompt:快速判断某个建议的可信度与利益捆绑程度
  • 林迪效应筛选器:判断某个工具 / 理念 / 方法是否经得起时间检验
  • 每个 Prompt 附带:使用场景说明 + 输入模板 + 输出格式要求
  • 每个 Prompt 附带:真实测试案例(用自己的决策验证)

Use cases:

  • · 在面临重大投资 / 职业 / 创业决策前进行结构化自我质询
  • · 在收到他人建议时快速评估建议的可信度
  • · 在规划新项目或试验时识别尾部风险和凸性机会
  • · 作为个人决策系统的「反脆弱防御层」长期复用

Pick a topic

Pick the topic closest to you, or write a custom one when you submit.

个人生活类

学习 / 成长类

工作 / 项目类

沟通关系类

Tools you'll use from the book

三态判断 System Prompt

给 AI 设定「反脆弱审计员」角色的 system prompt,要求 AI 对输入的任何决策都从「脆弱 / 强韧 / 反脆弱」三态进行结构性分类,而非给出普通建议。

How to use it here:

作为所有其他 prompt 的底层角色设定层,可单独使用也可叠加在其他 prompt 前面。使用时:将 system 部分固定为反脆弱审计员角色,user 部分输入具体决策情境。

Boundaries:

AI 输出的三态判断是辅助质询,不是最终判决。三态结果取决于输入信息的质量,信息失真会导致错误分类。

杠铃组合生成器

一套结构化 prompt,让 AI 针对某个决策场景输出「极保守端 + 极进取端」的杠铃配置建议,并明确标出「中间地带」的具体位置和脆弱原因。

How to use it here:

输入:你的当前资源配置(时间 / 资金 / 精力)+ 你正在考虑的选项。AI 输出:杠铃两端各 2-3 个具体选项 + 中间地带识别 + 为什么你现在的配置可能偏中间。

Boundaries:

杠铃生成器不替代你做选择,它的价值是「暴露中间地带的隐患」。AI 输出的两端配置是方向建议,具体执行仍需结合你的约束条件。

凸性检验 Prompt

强制 AI 对一个选项的「损失结构」和「收益结构」分别进行上下界分析:最坏结果是否有底线?最好结果是否无封顶?

How to use it here:

输入:一个具体选项(如:加入某付费社群、参加某培训、投入 3 个月做副业)。AI 输出:下行分析(最坏情况 + 损失是否线性 / 非线性)+ 上行分析(最好情况 + 收益是否可扩展)+ 凸性 / 凹性结论 + 是否建议继续评估。

Boundaries:

凸性检验基于你提供的信息,AI 无法预测真实的黑天鹅;它的价值是揭示「你目前考虑到的结构」是否合理。不要把「AI 说凸性」当作行动授权。

黑天鹅触发预警 Prompt

让 AI 对某个情境系统性地扫描「可能发生但被低估的极端事件」,并评估如果发生,你的当前配置是受损(脆弱)还是获益(反脆弱)。

How to use it here:

输入:你的当前情境(一段业务 / 职业状态 / 生活结构)+ 你认为不太可能发生的 2-3 个意外场景。AI 输出:额外识别 3-5 个你未考虑的极端事件 + 每个事件发生时你的暴露面分析 + 当前配置哪里受益、哪里受损 + 最需要关注的 1-2 个尾部风险。

Boundaries:

黑天鹅的定义是「难以预测」,AI 扫描的也只是「可想象范围内」的极端事件,真正的黑天鹅在扫描结果之外。这个工具的价值是扩大你的「可想象极端事件」范围,而非让你以为可以预测黑天鹅。

切肤之痛检验 Prompt

让 AI 快速分析一条建议者的「后果承担程度」,判断给出这个建议的人是否与结果有真实的利益绑定,从而评估建议的可信权重。

How to use it here:

输入:建议内容 + 建议来源(谁给的,他们的角色和利益关系)+ 如果你按建议行动,建议者会经历什么。AI 输出:切肤之痛程度评分(高 / 中 / 低)+ 建议者的潜在动机分析 + 你应该给这条建议多大的权重 + 如何进一步验证建议可信度的 2-3 个方法。

Boundaries:

切肤之痛检验不是「凡无后果者建议皆不可信」。书中的原则是「权重」,不是「屏蔽」。有真实关怀但无直接利益绑定的建议(如父母建议)也可能有价值,AI 的分析帮你校准权重而非替你否定。

Work rules

Your work MUST include

  • 至少 5 套完整 Prompt(每套含:使用场景 + system prompt 文本 + 用户输入模板 + 预期输出格式)
  • 每套 Prompt 必须有一个真实测试案例(用你的真实决策场景输入 AI 并记录输出)
  • 每个 Prompt 必须包含「边界说明」(这个工具不能取代什么)
  • 杠铃组合生成器必须明确指出「中间地带」
  • 切肤之痛检验必须有真实的建议者分析,不能用虚构场景代替

Your work CANNOT just be

  • 不能只列出塔勒布概念的摘抄,没有转化为可用的 AI prompt
  • 不能用泛化的「你觉得这个决定怎么样?」代替结构化 prompt
  • 不能没有真实测试——未经测试的 prompt 集不是工具包
  • 不能把 AI 输出当作最终决策权威,工具包必须强调 AI 是辅助质询而非答案
  • 不能把 5 套 prompt 都设计成「告诉我该怎么做」型,而要设计为「帮我发现盲点」型

AI can help you here

Round 1: 帮我设计我的第一个反脆弱 Prompt

When to use: 你不知道从哪个工具开始,或想让 AI 帮你把一个塔勒布概念转化成 prompt 框架。

我正在用《反脆弱》完成「搭建一个反脆弱决策 AI 工具包」项目,目标是把书中的决策工具转化为可在 ChatGPT / Claude 中调用的 AI Prompt 集。

我的情况:
【填写你最常遇到的决策困境,以及你觉得最想「工具化」的塔勒布概念,如:杠铃策略 / 凸性检验 / 切肤之痛 / 林迪效应 / 黑天鹅预警】

请帮我为我最想工具化的那个概念,设计一套完整的 AI Prompt,包含:
1. 角色设定(system prompt 应该把 AI 定义为什么角色,要具体)
2. 用户输入模板(用户应该填写哪些具体信息,格式化列出)
3. 输出格式要求(AI 应该以什么结构输出,每部分是什么)
4. 边界说明(这套 prompt 做不到什么,防止误用)

额外要求:prompt 设计思路要体现「帮用户发现盲点」而非「给用户答案」。

AI can help you organize ideas, but cannot make final judgments for you. Don't let AI fabricate experiences, cases, or misleading content.

Round 2: 帮我优化一套已有的 Prompt

When to use: 你已经写出一套 Prompt 的草稿,想让 AI 帮你检查是否真正体现了书中概念,以及 prompt 工程上有哪些改进空间。

我选择的项目是《反脆弱》中的「搭建一个反脆弱决策 AI 工具包」。

我的选题是:
{{选题}}

我已经写出了以下 Prompt 草稿:
【粘贴你的 prompt 草稿,包括 system 部分和用户输入模板】

请帮我从两个角度检查和优化这套 prompt:

角度一:概念准确性
- 这套 prompt 是否真正体现了《反脆弱》中「{{选题}}」的核心逻辑?
- 哪些地方概念理解有偏差,需要修正?
- 有没有遗漏了这个工具最重要的质询维度?

角度二:Prompt 工程质量
- system prompt 的角色设定是否足够具体、有约束力?
- 用户输入模板是否让用户知道「填什么」?太模糊的字段会导致 AI 输出空泛。
- 输出格式是否结构化到位?是否能防止 AI 输出「鼓励性废话」?

请输出:
1. 概念准确性问题列表(如有)
2. Prompt 工程优化建议(逐条)
3. 优化后的完整 prompt 版本

Yellow placeholders need you to fill in before using the AI.

AI can help you organize ideas, but cannot make final judgments for you. Don't let AI fabricate experiences, cases, or misleading content.

Round 3: 帮我检查整套工具包初稿

When to use: 你已经完成全部 5 套 Prompt 和测试记录,准备提交,想让 AI 对整套工具包进行全面审查。

我正在提交书房岛项目作品。

书名:《反脆弱》
项目路线:搭建一个反脆弱决策 AI 工具包
我的选题:{{选题}}

我的作品初稿:
{{作品初稿}}

请你对这套「反脆弱决策 AI 工具包」进行全面审查,检查以下维度:

1. 完整性检查
- 是否覆盖了至少 5 套不同功能的 prompt(不重复)?
- 每套 prompt 是否都包含 system + 输入模板 + 输出格式 + 边界说明?
- 是否有至少 2 套 prompt 的真实测试记录?

2. 概念忠实度
- 每套 prompt 是否真正体现了《反脆弱》的对应工具,还是只是通用决策问答?
- 工具包的设计是否体现了「简单胜复杂」这一塔勒布核心立场?
- 有没有哪套 prompt 把「给答案」和「发现盲点」搞混了?

3. 实用性评估
- 这套工具包能否真实地被调用?还是过于理论化?
- 用户输入模板是否够具体,让使用者知道填什么?
- 测试案例是否显示 prompt 有实际发现盲点的效果?

4. 差异化检查(与本书其他路线对比)
- 这套工具包是否和「杠铃决策矩阵」「脆弱性画像」等路线有明确区分?AI 工具包的价值在于可复用、可对话,而非静态分析框架。

请输出:
- 总体评价
- 最有价值的 1-2 套 prompt(理由)
- 必须修改的问题
- 可以进一步增强的地方
- 是否可以提交

Yellow placeholders need you to fill in before using the AI.

AI can help you organize ideas, but cannot make final judgments for you. Don't let AI fabricate experiences, cases, or misleading content.

搭建一个反脆弱决策 AI 工具包 — 反脆弱 | Reading Lab