来自《反脆弱》

搭建一个反脆弱决策 AI 工具包

你将把《反脆弱》中的杠铃策略、凸性检验、切肤之痛验证、林迪效应过滤、黑天鹅预警等工具,转化为一套可在 ChatGPT / Claude 中直接调用的 AI Prompt 集,每个 prompt 含完整 system 角色设定、结构化输入模板和输出格式,并用你的真实决策场景测试每个 prompt 的有效性,最终组成一份随取随用的「反脆弱决策 AI 工具包」。

最终作品

《一个《反脆弱决策 AI 工具包》(含 5 套 Prompt)》

预计完成时间

1.5-2 小时

已提交

你的最终作品

用途:把塔勒布的决策框架工具化、AI 化,让自己在面临不确定决策、试错评估、极端情境时有一套可反复调用的 AI 质询系统,而不是每次从头想起。

包含哪些部分:

  • 杠铃决策评估器:识别某个选项是否处于脆弱的中间地带
  • 凸性识别 Prompt:检验决策的上行 / 下行结构是否值得冒险
  • 黑天鹅风险预警:对某情境的极端斯坦地形和尾部风险进行结构化扫描
  • 切肤之痛检验 Prompt:快速判断某个建议的可信度与利益捆绑程度
  • 林迪效应筛选器:判断某个工具 / 理念 / 方法是否经得起时间检验
  • 每个 Prompt 附带:使用场景说明 + 输入模板 + 输出格式要求
  • 每个 Prompt 附带:真实测试案例(用自己的决策验证)

完成后可以怎么用:

  • · 在面临重大投资 / 职业 / 创业决策前进行结构化自我质询
  • · 在收到他人建议时快速评估建议的可信度
  • · 在规划新项目或试验时识别尾部风险和凸性机会
  • · 作为个人决策系统的「反脆弱防御层」长期复用

选择你的选题

选择一个最贴近你的选题,或在提交时填写自定义选题

个人生活类

学习 / 成长类

工作 / 项目类

沟通关系类

本项目会用到的书中工具

三态判断 System Prompt

给 AI 设定「反脆弱审计员」角色的 system prompt,要求 AI 对输入的任何决策都从「脆弱 / 强韧 / 反脆弱」三态进行结构性分类,而非给出普通建议。

在本项目中怎么用:

作为所有其他 prompt 的底层角色设定层,可单独使用也可叠加在其他 prompt 前面。使用时:将 system 部分固定为反脆弱审计员角色,user 部分输入具体决策情境。

使用边界:

AI 输出的三态判断是辅助质询,不是最终判决。三态结果取决于输入信息的质量,信息失真会导致错误分类。

杠铃组合生成器

一套结构化 prompt,让 AI 针对某个决策场景输出「极保守端 + 极进取端」的杠铃配置建议,并明确标出「中间地带」的具体位置和脆弱原因。

在本项目中怎么用:

输入:你的当前资源配置(时间 / 资金 / 精力)+ 你正在考虑的选项。AI 输出:杠铃两端各 2-3 个具体选项 + 中间地带识别 + 为什么你现在的配置可能偏中间。

使用边界:

杠铃生成器不替代你做选择,它的价值是「暴露中间地带的隐患」。AI 输出的两端配置是方向建议,具体执行仍需结合你的约束条件。

凸性检验 Prompt

强制 AI 对一个选项的「损失结构」和「收益结构」分别进行上下界分析:最坏结果是否有底线?最好结果是否无封顶?

在本项目中怎么用:

输入:一个具体选项(如:加入某付费社群、参加某培训、投入 3 个月做副业)。AI 输出:下行分析(最坏情况 + 损失是否线性 / 非线性)+ 上行分析(最好情况 + 收益是否可扩展)+ 凸性 / 凹性结论 + 是否建议继续评估。

使用边界:

凸性检验基于你提供的信息,AI 无法预测真实的黑天鹅;它的价值是揭示「你目前考虑到的结构」是否合理。不要把「AI 说凸性」当作行动授权。

黑天鹅触发预警 Prompt

让 AI 对某个情境系统性地扫描「可能发生但被低估的极端事件」,并评估如果发生,你的当前配置是受损(脆弱)还是获益(反脆弱)。

在本项目中怎么用:

输入:你的当前情境(一段业务 / 职业状态 / 生活结构)+ 你认为不太可能发生的 2-3 个意外场景。AI 输出:额外识别 3-5 个你未考虑的极端事件 + 每个事件发生时你的暴露面分析 + 当前配置哪里受益、哪里受损 + 最需要关注的 1-2 个尾部风险。

使用边界:

黑天鹅的定义是「难以预测」,AI 扫描的也只是「可想象范围内」的极端事件,真正的黑天鹅在扫描结果之外。这个工具的价值是扩大你的「可想象极端事件」范围,而非让你以为可以预测黑天鹅。

切肤之痛检验 Prompt

让 AI 快速分析一条建议者的「后果承担程度」,判断给出这个建议的人是否与结果有真实的利益绑定,从而评估建议的可信权重。

在本项目中怎么用:

输入:建议内容 + 建议来源(谁给的,他们的角色和利益关系)+ 如果你按建议行动,建议者会经历什么。AI 输出:切肤之痛程度评分(高 / 中 / 低)+ 建议者的潜在动机分析 + 你应该给这条建议多大的权重 + 如何进一步验证建议可信度的 2-3 个方法。

使用边界:

切肤之痛检验不是「凡无后果者建议皆不可信」。书中的原则是「权重」,不是「屏蔽」。有真实关怀但无直接利益绑定的建议(如父母建议)也可能有价值,AI 的分析帮你校准权重而非替你否定。

作品规则

你的作品必须包含

  • 至少 5 套完整 Prompt(每套含:使用场景 + system prompt 文本 + 用户输入模板 + 预期输出格式)
  • 每套 Prompt 必须有一个真实测试案例(用你的真实决策场景输入 AI 并记录输出)
  • 每个 Prompt 必须包含「边界说明」(这个工具不能取代什么)
  • 杠铃组合生成器必须明确指出「中间地带」
  • 切肤之痛检验必须有真实的建议者分析,不能用虚构场景代替

你的作品不能只是

  • 不能只列出塔勒布概念的摘抄,没有转化为可用的 AI prompt
  • 不能用泛化的「你觉得这个决定怎么样?」代替结构化 prompt
  • 不能没有真实测试——未经测试的 prompt 集不是工具包
  • 不能把 AI 输出当作最终决策权威,工具包必须强调 AI 是辅助质询而非答案
  • 不能把 5 套 prompt 都设计成「告诉我该怎么做」型,而要设计为「帮我发现盲点」型

AI 可以这样帮你

第 1 轮:帮我设计我的第一个反脆弱 Prompt

使用时机:你不知道从哪个工具开始,或想让 AI 帮你把一个塔勒布概念转化成 prompt 框架。

我正在用《反脆弱》完成「搭建一个反脆弱决策 AI 工具包」项目,目标是把书中的决策工具转化为可在 ChatGPT / Claude 中调用的 AI Prompt 集。

我的情况:
【填写你最常遇到的决策困境,以及你觉得最想「工具化」的塔勒布概念,如:杠铃策略 / 凸性检验 / 切肤之痛 / 林迪效应 / 黑天鹅预警】

请帮我为我最想工具化的那个概念,设计一套完整的 AI Prompt,包含:
1. 角色设定(system prompt 应该把 AI 定义为什么角色,要具体)
2. 用户输入模板(用户应该填写哪些具体信息,格式化列出)
3. 输出格式要求(AI 应该以什么结构输出,每部分是什么)
4. 边界说明(这套 prompt 做不到什么,防止误用)

额外要求:prompt 设计思路要体现「帮用户发现盲点」而非「给用户答案」。

AI 可以帮你整理思路,但不能替你做最终判断。请不要让 AI 编造经历、伪造案例或生成误导性内容。

第 2 轮:帮我优化一套已有的 Prompt

使用时机:你已经写出一套 Prompt 的草稿,想让 AI 帮你检查是否真正体现了书中概念,以及 prompt 工程上有哪些改进空间。

我选择的项目是《反脆弱》中的「搭建一个反脆弱决策 AI 工具包」。

我的选题是:
{{选题}}

我已经写出了以下 Prompt 草稿:
【粘贴你的 prompt 草稿,包括 system 部分和用户输入模板】

请帮我从两个角度检查和优化这套 prompt:

角度一:概念准确性
- 这套 prompt 是否真正体现了《反脆弱》中「{{选题}}」的核心逻辑?
- 哪些地方概念理解有偏差,需要修正?
- 有没有遗漏了这个工具最重要的质询维度?

角度二:Prompt 工程质量
- system prompt 的角色设定是否足够具体、有约束力?
- 用户输入模板是否让用户知道「填什么」?太模糊的字段会导致 AI 输出空泛。
- 输出格式是否结构化到位?是否能防止 AI 输出「鼓励性废话」?

请输出:
1. 概念准确性问题列表(如有)
2. Prompt 工程优化建议(逐条)
3. 优化后的完整 prompt 版本

黄色背景的占位符需要你在使用 AI 之前补充。

AI 可以帮你整理思路,但不能替你做最终判断。请不要让 AI 编造经历、伪造案例或生成误导性内容。

第 3 轮:帮我检查整套工具包初稿

使用时机:你已经完成全部 5 套 Prompt 和测试记录,准备提交,想让 AI 对整套工具包进行全面审查。

我正在提交书房岛项目作品。

书名:《反脆弱》
项目路线:搭建一个反脆弱决策 AI 工具包
我的选题:{{选题}}

我的作品初稿:
{{作品初稿}}

请你对这套「反脆弱决策 AI 工具包」进行全面审查,检查以下维度:

1. 完整性检查
- 是否覆盖了至少 5 套不同功能的 prompt(不重复)?
- 每套 prompt 是否都包含 system + 输入模板 + 输出格式 + 边界说明?
- 是否有至少 2 套 prompt 的真实测试记录?

2. 概念忠实度
- 每套 prompt 是否真正体现了《反脆弱》的对应工具,还是只是通用决策问答?
- 工具包的设计是否体现了「简单胜复杂」这一塔勒布核心立场?
- 有没有哪套 prompt 把「给答案」和「发现盲点」搞混了?

3. 实用性评估
- 这套工具包能否真实地被调用?还是过于理论化?
- 用户输入模板是否够具体,让使用者知道填什么?
- 测试案例是否显示 prompt 有实际发现盲点的效果?

4. 差异化检查(与本书其他路线对比)
- 这套工具包是否和「杠铃决策矩阵」「脆弱性画像」等路线有明确区分?AI 工具包的价值在于可复用、可对话,而非静态分析框架。

请输出:
- 总体评价
- 最有价值的 1-2 套 prompt(理由)
- 必须修改的问题
- 可以进一步增强的地方
- 是否可以提交

黄色背景的占位符需要你在使用 AI 之前补充。

AI 可以帮你整理思路,但不能替你做最终判断。请不要让 AI 编造经历、伪造案例或生成误导性内容。

搭建一个反脆弱决策 AI 工具包 — 反脆弱 | 书房岛