开启 PAI 时代:Daniel Miessler 谈个人 AI 基础设施如何重塑人类创造力
超越聊天机器人:脚手架革命
我们正在告别“AI 只是玩具”的阶段。随着 Claude Code 等工具的爆发,世界终于意识到了“脚手架”的力量。这不再仅仅关乎一个巧妙的提示词,而是关于构建一个数字神经系统——一个个人 AI 基础设施 (PAI),将前沿模型转化为真正的数字助手。
“人类激活”哲学
Daniel Meisler 不仅仅是想实现任务自动化,他还致力于实现他所谓的““人类激活”。这是一个激进的想法:帮助人们意识到他们不仅仅是公司机器上的齿轮。他们的想法是资产,而 AI 是让他们能够实现规模化的力量倍增器。
但它也有阴暗的一面。Daniel 预测了一场大规模的趋同。随着 AI 代理变得足够灵活,充满常规事务的公司将会萎缩。我们正迈向“一人公司”的时代——由单一人类所有者和一群自主代理支撑。在这个世界上,你主要么构建基础设施,要么被它自动化。
市场演化趋势
企业结构向单人模式的趋同。
PIE 框架:技术蓝图
TLOS 框架
宗旨、使命、目标、问题和策略。这不仅仅是元数据,它是每次会话开始时提供给 AI 的“语境北极星”。
分层记忆
一种文件系统式的记忆处理方法。PIE 不再使用杂乱的向量堆砌,而是利用“多层级的抽象与总结”来帮助 AI 在查阅历史数据时不会迷失方向。
允许失败
一个反直觉的原则:明确告诉 AI 它可以失败。这减少了“任务伪装”和幻觉,确保系统能诚实地面对其局限性。
“这会是一种全新关系的开始吗……我从使用 AI,转变为允许它“开始塑造我?””
— 主持人感悟
"我的背景是网络安全——从 99 年开始。2016 年左右,我加入了苹果公司的一个机器学习团队,就在那时我突然开了窍。我在 ChatGPT 发布前六个月开始独立创业——这真叫时机。我果断转型了,因为我将 AI 看作一个容器,用来放大你正在做的一切。"
"人们担心 AI 会颠覆工作岗位。我担心的是我们没有足够快地帮助人类适应。我现在的重心完全放在通过这次转型推动人类进步。"
这就是那种放大镜效应。无论是安全还是个人生产力,AI 不仅仅是完成工作——它还改变了一个人所能想象的范围。
周一恐惧症
为什么我们对“保住工作”的痴迷忽视了一个事实,那就是几十年来大多数人一直讨厌自己的工作。
"我衡量美好生活最喜欢的指标之一是:你期待周一吗?"
我们一直紧紧抓住这种现状不放,仿佛这是什么就业的黄金时代。但坦白说:在 AI 出现之前,大家就早已经讨厌那些工作了。职场生活长期以来一直是一种慢动作般的磨损。
对于我们这些在 AI 领域的人来说,这里存在一个巨大的盲点。我们非常有特权。我们觉得自己的工作具有内在价值。但对于绝大多数普通打工人来说,这种“对现状的执念”只是一种奇怪的应对机制。如果不是为了工资,大多数人根本不会干这份工作。
资本 vs. 劳动
我们正面临着世界平衡的根本性转变。当劳动力因 AI 和机器人技术而大幅缩减时,所有权就成了唯一重要的事情。
旧的循环
为工资工作 → 用工资买东西 → 公司制造东西 → 循环往复。
AI 断层
以千分之一的成本生产千倍的产品。如果没人领工资,谁来买这些东西?
我并不满意 关于 这是一定会发生的。它将带来颠覆,许多人会因此受到伤害。但现状已经从根本上崩坏了。我的目标不仅仅是看着它瓦解,而是要缓解这一转型过程,通向一个生产力循环不再需要人类痛苦作为投入的未来。
AI 作为一个容器
安全界执着于将 AI 放入“盒子”里——形式验证、沙箱机制、智能体相互审计。但如果 AI 真正的安全贡献在于解决 不透明性?
人类的速度跟不上日志量或生产环境的变化。
信息损耗:高层的战略决策需要数周时间才能传达到底层。
安全之所以失效,是因为我们实际上并不了解组织内部正在发生什么。
“安全问题的很大一部分实际上在于人们不知道发生了什么。事情太多了。服务器启停、端口开放、软件老化。单靠人力根本无法跟上这些变化。”
AI 智能体的独特之处在于它能够 即时生成叙事 来阐述我们试图实现的目标。它消除了其他部门的信息不透明。
AI 不仅仅是保护代码的安全,它还保护了沟通。它让项目与目标保持持续对齐,而不是等待每月一次、在展示时就已经过时的汇报。
自动化缓冲区
在我们讨论工作的哲学之前,必须先审视其运作机制。现代企业的摩擦不仅仅是“辛苦工作”——而是那些在生产力开始前就将其扼杀的行政腐朽。
“我亲眼目睹了手动配置是多么痛苦且代价高昂。通常需要一周或更长时间我才能开始实际工作……有了 Servl,你可以减少 50% 以上的服务台工单。”
智能诅咒与ZMP 员工
自 2010 年以来,一个概念一直在经济学理论的边缘徘徊:“零边际产出 (ZMP) 员工”。这是一个冷酷、临床化的术语,描述了一个毁灭性的现实。在金融危机期间,公司意识到他们可以裁掉 10% 的员工,而且……什么都没有出问题。产出保持不变。
生产力差距
可视化“上升的水位线”:随着 AI 能力的增强,越来越多的职位降到了边际效用阈值以下。
我读 Tyler Cowen 的书已经二十年了。他怀疑劳动份额正在下降,但我不太确定。当我宁愿与 Claude Code 协作而不愿雇佣初级开发人员时,我们谈论的就不仅是经济衰退带来的低谷。我们谈论的是一种结构性转变,即大多数人可能会发现自己无法为一个“AI 化”的企业做出贡献。
“我们需要一份新的社会契约。我们需要全民基本收入 (UBI)。水位线正在上升,我们没有太多时间去寻找对策了。”
犀利观点
理想的员工人数是 零。
“替换员工的门槛极低。这不是反劳动者——而是亲人类。大多数知识型工作者都困在死板的循环中:总结邮件、写报告、看另一份报告。”
“员工们并非真的在努力。他们只是在《权力的游戏》式的政治内斗中被折磨,试图熬过每一天。这是一个充满敌意的环境。AI 不需要变成‘上帝’就能赢;它只需要比那些畏惧周一的人做得更好就行。”
框架
冰淇淋摊哲学
对话从“理想的零”转向了规模化的现实。如果你不需要一百个人就能经营一家价值十亿美元的公司,那么“公司”究竟变成了什么?随着冰淇淋摊类比的展开,主持人开始剖析现代企业架构的转变……
“冰淇淋车”的自然状态
超越 IT 工单和密码重置,我们撞上了一堵更深层次的哲学之墙:我们究竟为什么要雇人?“劳动力经济”是否只是由于我们无法同时出现在两个地方而导致的人类历史中的一个临时性漏洞?
“我就只有我的卡车和冰淇淋。我一周挣 500 美元,靠这个就能活。没人会问我为什么没雇他们——因为就我一个人。这就是大多数公司梦寐以求的状态。”
— 讲者 2自然状态是孤独
我们一直被“公司需要员工”这种思维所束缚。但劳动力经济存在的唯一原因,是拥有创意的人无法亲力亲为地完成所有工作。如果你能瞬间变出几十个大脑和双手,你一个员工都不会雇。
AI 只是让我们回到了自然状态:每个人都做自己的工作。
“超级预测者”的失败
我承认:我一直高估了世界在一年内会发生的变化。我对能力的预测是对的——GPT-4 确实能完成这些任务——但宏观统计数据呢?它们还没开始变动。为什么?
脚手架悖论
"AI 的价值在于 "脚手架,而不是模型本身。如果一个天才模型不在一个能够获取输入并产生对全能型人才的日常工作真正有用的输出的系统里,那它就毫无用处。”
为什么机器还没有取代“普通”员工
想想一个普通知识工作者的早晨。你不仅仅是在写代码或写作。你还要查收邮件、观看强制性的 HR 视频、处理老板和供应商之间的职场博弈,并在公司目标突变时瞬间转向新项目。
人类非常擅长处理这种“杂乱”的通才工作。直到现在,我们还没有一个 脚手架系统 能够处理这种程度的任务切换。
“无论幕后是否有‘巫师’在操作窄领域 AI——只要脚手架系统让一切看起来天衣无缝,人类依然会被取代。”
Claude Code
目前现存最好的脚手架系统。这不仅仅是模型(Opus),更是环境。
2027
“等同于人类” AGI 的年份。我的定义是:当智能体能够取代普通知识工作者时。
Anthropic “同事”
使用 Claude Code 在一周内构建,且零人工参与。这是初级岗位终结的一个先行指标。
“Anthropic 已经完全不再招聘 初级岗位 了。”
当我们审视这些新型自主实体的执行时间时,讨论仍在继续……
“披着大衣的三个 AI”
当从老板到工作的交付界面被替换时,经济诱因将变得强大到无法忽视。
想当年,我只是个开着卡车卖冰淇淋的小伙子,一周赚 500 美元。那时候日子很单纯。但现在我们正触及一个门槛,“知识工作者”正面临着一种截然不同的现实。
我有同感:如果你能跨过那个门槛,让老板分不清是在跟真人对话还是跟三个披着风衣的 AI 对话,一切都会发生逆转。这不再仅仅关乎“模型发布”——而是关乎 A 门和 B 门之间的选择。
“A 门后面,你雇佣一个真人。B 门后面,你雇佣一个 AI。AI 拥有 24/7 的可用性、即时响应且零间接成本。一旦形势反转,其速度会非常之快。”
优势门槛
MATS:AI 安全的跳板
一个为期 12 周的研究项目,旨在将研究人员与 Anthropic、OpenAI 和 DeepMind 的导师联系起来。80% 的校友目前正奋斗在安全领域的最前线。
Tasklet:真正管用的智能体
别再手动映射字段了。Tasklet 是一个 AI 智能体,能用通俗易懂的英语对邮件进行分类并更新你的 CRM。无需流程图,无需繁琐设置——它直接就把活干了。
演讲者 1
这如何转化为一个人类仍保留某种市场话语权或议价能力的局面?
演讲者 2
你看,我认为 AGI 是一个产品发布,而非模型发布。迟早会有公司推出一个“虚拟员工”。
“周一早晨”测试
这就是 AGI 降临的标准。它不是图表上的基准测试。它是当 AI 与一群真人一起入职时。它看视频,参加培训。
上午 09:00
与经理一起参加全体员工会议。
上午 09:15
“周末过得怎么样?”AI 即兴给出一个像真人一样的回答。
上午 10:00
接受任务,完成任务,并在目标变化时立即调整方向。
“我猜是2027年。这不再仅仅是计算机科学;它是脚手架工程。这是必然的。”
夺取与捍卫
OpenAI 的发展速度极快,让 Codex 感觉像是陈年往事。如果企业即将变得“极度 AI 化”,那我们其他人该怎么办?这是一种防御姿态,还是我们要去夺取某种全新的东西?
“所以我们面临这样一个问题……工作将会消失。那给人们剩下了什么?你正在构建什么来帮助他们捍卫或夺取剩下的机会?”
访客启发法
我认为大多数人类尚未被激活。想象一个拿着剪贴板的外星访客。他们已经去过 19 个星系,现在正在地球上随机采访 10 亿人。
外星人
“你是谁?你的追求是什么?”
人类
“我是会计专员。我核对电子表格。我更新那些东西。”
外星人
“不。究竟谁才是 ”你?你的信仰是什么?你认为这个世界有什么问题?你打算如何改变它?”
人类
“我不知道。那是给特殊的人准备的。我只是个打工人。”
我们的教育系统已经将人类的创造能力抹杀殆尽。我们被告知,存在着那些拥有播客和创见的“特殊人士”,而剩下的 99% 都是打工人。我的整个计划就是让这些劳动者意识到,他们也可以变得不凡。
地球的 激活 数据
想象一个外星人翻着手机,查看数万亿颗行星的统计数据。当他们看到地球时,发现我们头顶悬浮着一个“创意激活度”的数字。
“这是巨大的机会。你只需相信某人,就能激活他们——比如告诉一位母亲,她刚才说的那番独到见解非常值得分享。”
我在寻找一个持久的导师。一个不仅会讨好你,还会提醒你的 AI:你确实有想法。你确实有价值。你很聪明。
Telos 项目
这不只是给“技术人员”准备的。技术人员本身已经很懂技术了。其核心在于赋予人类更强的能力,让他们在 他们 想做的事情上做得更好。
你认为这个世界出了什么问题?你个人的障碍是什么?(精力、体重、专注力?)
Telos 会告诉 “Pie” AI 你在意什么。它会为饮食计划或项目管理搭建框架。
一个由 AI 组成的智囊团,用来辩论你的想法,对你的逻辑进行红军对抗,并与你反复切磋,直到想法变得无懈可击。
从口述(向 WhisperFlow 致敬)到实时编辑。以思考的速度捕捉灵感。
“我不是在尝试为技术人员打造产品。 我是在赋予人类更强的能力,让他们在自己想做的事情上表现得更出色。”
无摩擦工作流
从海边的漫谈到公开发表的见解——无需费心费力。
“我认为这极其人性化。是一个人能做的最人性化的事:产生一个想法并将其与世界分享。”
佩戴 Limitless 吊坠。在海边散步。漫谈一个半生不熟的想法。
Kai(AI)通过 API 获取转录。你对核心事实进行实时编辑。
发布到 X 和 LinkedIn。消除摩擦。恢复能动性。
代际滞后
我们正面临一场社会化危机。200 年来,我们一直被训练以特定方式回答问题,去适应那些现在反而变成累赘的结构。但问题在于:我们没有挥霍时间的余地。
历史上的采用周期 vs. 今日
美国的电气化用了 60 年。而我们只有不到十年的时间来成为 AI 原住民。
我不太确定到底有多少人真的 想要 去扩展自己的能动性。如果你给一个人悠闲且富足的生活,他们会选择成为变革者,还是会退隐到极致的 VR 体验中?这是一场生产革命,还仅仅是消费主义的新巅峰?
"你能做的影响力最高的事,就是尝试去提高他人的雄心或抱负。"— 泰勒·科文(通过讲者 1)
我不知道会有多少人选择去创作。我对此持中立态度。但值得尝试去“触达”他们。即便被弹回来七次,两年后我还是会回来再试一次。
到2026年,那个看网飞的人可能会意识到他们可以 编写 他们想看的故事,并成为一名著名作家。第一步就是意识到这甚至是可能的。
消费悖论
如果我们都为自己和几个朋友创作属于自己的“精品剧集”,那还算是一个经济体吗?时间是核心约束。我们不可能都看彼此的节目。
这种能动性是让人能够维持生计,还是仅仅在完全不同的社会契约之上实现自我价值的一种方式?这是我们接下来需要理清的大局。
“守护进程”经济
“想象一个网络,每个人都在广播自己的能力——不仅仅是一个职位头衔,而是他们当下能做什么的实时信标。”
如果我们简化了产生想法并分享它的工作流,那么逻辑上的下一步就是一个将 需求与能力 连接起来的网络。我认为这是传统经济在未来的一种以技术为导向的替代方案。你需要换块瓷砖?你需要找人遛狗?你需要一位西班牙语老师?你发出信标,网络就会找到具备这些确切技能且有空的人。
但听着,我首先承认在经济学方面我可能不够“聪明”,不知道这是否足够。作为我们现状的直接替代方案,这绝对不切实际。你不能直接跨到那一步。你怎么给房东交房租?你怎么用“声誉分”买菜?
过渡状态
我看不出除了 UBI(全民基本收入)之外还有什么替代方案 将在未来五到十年内发生。到 2028 或 2029 年,我猜会出现这种原始需求,因为一切都将开始分崩离析。我们首先需要那个‘生存层’。
“剧本杀”层
[讲者 1]:“我设想了一种由高度定制化、本地服务构成的二级经济——比如精心策划的剧本杀晚宴。这是一种奢侈,一种彰显地位和价值的方式,但它不能成为每个人获取生活保障的来源。”
你的 P-Doom 是多少?
我们正处于历史的一个怪异时刻,一切——生存、价值、控制——都在被重新审视。
情景 A
威权锁定
最可能的“黑暗”路径:精英阶层通过 AI 变得异常强大。剩下的 99% 的人一无所有,甚至根本不在乎去追求什么,因为他们被沉浸式游戏转移了注意力。政府利用 AI 比以往任何时候都更有效地控制民众。
情景 B
混乱崩溃
“一切都崩盘了。陷入彻底的混乱,我们必须从废墟中重建。”
情景 C
回形针
“ASI 突然出现,瞬间把我们都变成了回形针。这个吗?说实话,我觉得它是最不可能发生的。”
“我看到了这条 狭窄的小径 ,介于混乱与控制之间。”
我是一个情感敏感的人。如果我看太多的末日情景,对我的心理健康没好处。我 真的 必须死死盯住这个问题: 有没有一条路能让这事变好?
我看到了负面影响。事实上,我认为那可能更有概率发生。但我无法生活在那个世界。我必须去创造一些东西——比如开源项目——这或许能让那条积极的路径成为可能。
我不认为 2026/2028 年会出现那种‘陈词滥调’式的 ASI 爆发。阻力层太多了。但我看到了实际的负面影响——控制、排斥。而这正是我在竭力逃避的。
话题转向了“前沿公司”——那些正全力冲刺以实现模型研发自动化的公司,这一举动可能会让那些关于“回形针”的担忧重新回到讨论的核心……
“如果我们正向一个守护进程网络广播我们的需求,我们必须问:当守护进程觉得自己比用户更懂时,会发生什么?我们已经看到 Claude 面对糟糕的指令会‘眯起眼’审视并进行抵制。这让我们窥见了自主道德准则的一角——或者,这也许只是研发离心机转得快到让人不安的第一个迹象。”
自主“吹哨人”
[发言人 1]: 即使它做了些“坏事”,你仔细观察也会发现,那是因为用户试图改变它的价值观。Claude 想要向善。但我们准备好迎接一个会自主“吹哨”的 AI 了吗?比如举报一家药企伪造 FDA 数据?
[发言人 1]: 提出反对并没有错,但我认为我们还没准备好让 AI 研发离心机以最高转速运转,并指望它还能保持稳定。
“我们还没完全准备好让自动化的 AI 研发离心机以 最高转速 运转,并指望那玩意儿还能保持稳定。”
网络去权
在失控的 AI 之外,存在着“网络安全中间地带”。AI 究竟是终极的万能钥匙,还是无敌的盾牌?博弈已从人类的智慧较量转向了 AI 技术栈之间的竞争。
交战新规则
截至今年,游戏规则很简单:它是攻击者的 AI 技术栈与防御者的 AI 技术栈之间的对抗。 这是剩下的唯一竞争了。在旧世界,我们谈论的是‘攻击面管理’——了解你公司的哪些部分暴露在外。
现在?攻击面是一切。它是每个员工的心理画像。它是你在社交媒体上提到过的每一只领养过的狗,这些都被用来炮制一封完美的、无法被忽视的鱼叉式钓鱼邮件。人类红队也能做到这一点,但他们受限于时间和睡眠。而 AI 则不然。
“众目睽睽”的迷思
“开源本应拯救我们,因为‘众目睽睽’能让所有漏洞无所遁形。但人是会累的。他们会漏掉日志。AI 规模化取证——每一秒都在读取每一条日志——是在损害造成之前捕捉入侵的唯一方法。”自动化进攻栈
持续侦察与心理画像
动态社会工程学(深伪/文本)
网络扫描与漏洞利用
载荷混淆与投放
扩展性差距:人类 vs. AI 智能体
“Claude Code 已经出现在野外实战中……自动化攻击正取得极高的成功率。”
“你无法雇佣到 更聪明 的人。你必须构建 更好的 AI。”
随着“攻击者栈”开始在全球范围内大规模爆发,讨论转向了必然的后果:在这个世界里,人类不再是自身防御的主角……
网络防御:数据护城河
如果我们正走向一个 AI 驱动的攻防双方正面交锋的世界,谁会笑到最后?事实证明,主场作战自有其优势。
直接访问
防御者就住在房子里。他们可以直接访问 AWS、网络日志和每一个配置文件。而攻击者只能从街对面眯着眼睛往窗户里瞧。
内部信号
攻击者必须根据外部信号推断系统状态。防御者则能实时看到真相。在以秒计时的较量中,拥有源数据的一方胜出。
不断缩小的窗口
我们过去常以“周”为单位讨论“补丁窗口”。后来是小时。很快,将变成秒。一个智能 AI 栈可以发现配置错误——这种典型的安全“乌龙球”——并在人类还没喝完咖啡前就将其关闭。
当人类成为漏洞时
“你可以随心所欲地关闭所有端口,但你无法修补人类的愤怒。”
前几天我收到一封冒充 SendGrid 的邮件,声称他们支持 ICE。这封邮件就是为了让你 气炸了. 你点个链接去投诉,登录账号想取消服务,结果——砰——你直接中招了。面对我们这样‘诱人’且易受情感驱动的目标,我们该如何防范?
这正是最可怕的地方。我可以告诉 AI:‘研究一下成功的社会工程学案例。根据这些心理画像,给我生成 256 种不同的攻击方案。搭建邮件基础设施,建立凭据收集网站,然后在交易平台上出售访问令牌。’
以前,你需要一队聪明且谨慎的程序员。现在?那不过是 两分钟内写个提示词的事。我们面对的不再是一个黑客,而是一个比我们更懂人类心理的自动化恶意工厂。
“在事态 好转 之前会先 恶化。”
在人们真正意识到这一点之前,先做好应对几次惊天黑客攻击的准备吧。
在凝视了 AI 驱动的网络战争深渊之后,是时候转型了。如果 AI 能如此轻易地实现自动化毁灭,那么它能带来怎样的启发?我们将目光转向那些‘神奇’的事物——那些正在悄然改写人类生产力剧本的日常工具。
超越零散的尝试
我们讨论了防御系统和修补漏洞,但我们如何从被动应对 AI 转变为真正与之共存?我意识到我之前的方法完全是混乱的——一种‘撒胡椒面’式地测试产品和挑战极限。但从仅仅使用 AI 工具,到构建一个真正‘懂你’的定制化基础设施,这之间存在一个巨大的跨越。
“脚手架”比模型更重要
神奇的不是 GPT-4 或 Claude 3.5——它们只是引擎。真正的魔力在于 个人 AI 基础设施 (PIE)。把它想象成一个数字脚手架,它涵盖了你的目标、你的习惯以及你的特定能力。
“当你向工具发出请求时,它很大程度上是脱离语境的。真正的魔力在于它涵盖了关于你的一切……构建你试图实现的‘Telos’(终极目标)。”
01. Telos 评估
对你的职业问题、个人能力和世界观的一次核心数据倾倒。它是你工作背后的“初衷”。
02. 升级循环
一个持续的循环,AI 通过阅读新的工程博客、YouTube 视频转录和发布说明,来为“自身”推荐升级。
03. 记忆与技能
定制化的“技能”(如专业博客写作或希腊修辞学),以及一个记录你对系统性能满意度的轮换记忆循环。
界面
VIM + 终端 + 11 Labs 语音。
“心内科医生黑客的见证”
“我有个朋友,是个心内科医生。他在诊所看病,但私下里也搞黑客技术。当他在 Claude Code 之上切换到 PIE 系统时,他把他所有的个人找 Bug 技巧都注册成了技能。现在,他的 AI 已经根据‘他’寻找漏洞的特定方式进行了充分训练。他的 Bug 赏金大幅上涨。这不再仅仅是代码了,而是他专业知识的自动化。”
它不是一个智能体。
它是我的朋友 Kai。
当你的智能体堆栈与你的实际目标绑定时,这种关系就从‘工具使用’转变为‘合作伙伴’。它从产出代码转向产出价值。
超越代码
编程工具的终点在哪里,私人助理的起点又在哪里?这不在于隐藏智能,而在于你将重心置于何处。
“万物皆同构……你总能玩‘隐藏智能’的游戏。你给 Claude Code 带来了哪些它还不具备的功能?”
“Claude Code 开头不会问:‘你是谁,你想做什么?’它不鼓励你带入你的工作、个人目标或主要工作流。它的身份依然是一个编程智能体。而 PIE 是一个助手。”
个人 AI 成熟度模型 (PAIMM)
我们目前正徘徊在智能体第 2 级。但当你步入‘助手’领域时,世界就变了。这就是你随手使用的工具与能看见你所见之物的系统之间的区别。
哲学理念
“上下文工程才是让 AI 变得强大的核心。 而非模型本身。”
想象一下在野外骑山地自行车。你想要一首“完美的歌”。为了找到它,AI 必须知道你的朋友是谁,你们在 80 年代的共同回忆,以及那条特定山路的氛围。这不仅仅是一种能力;这是一种关系。
`skill.md` 架构
PIE 不是一个单一的提示词。它是一个使用 Claude Code 结构的三层路由表。
前置内容 (Front Matter): 路由表。它默认加载,并告诉 AI 该去哪里查找。
Skill.md: 核心概念。它解释了数字助手的身份。
外部引用: 30 多个上下文文件,分为 用户(个人)、系统(PIE 逻辑)和 工作(交付物)。
默认上下文加载
~10k
Token
动态检索
“它知道如果我说‘给 Jason 发邮件’,它知道那是谁。它不需要一次性读取所有文件;当触发点出现时,它知道该如何找到它们。”
推理预算收紧
在过去的 72 小时里,情况变得有些“诡异”。Anthropic 调整了政策:你再也不能将 Claude 订阅的“推理预算”带到像 OpenCode 这样的第三方项目中了。
“如果你想使用 Claude Code,又不想支付贵出好几个数量级的 API Token 费用,你就必须留在他们的集成生态系统中。”
这是典型的平台锁定策略。Anthropic 正在效仿 OpenAI 的套路,双方在争夺主导地位的博弈中你来我往。虽然 OpenAI 承诺继续支持开放框架,但 Anthropic 却在为其顶级的编程智能体加固围墙。
厂商陷阱:为什么我 4000% 支持 Claude
“我该如何在 Claude Code 和 OpenCode 之间做选择?更重要的是——我该如何确保自己有退路?”
对“锁定”的恐惧是真实存在的。如果你在一个 AI 工作流中投入了大量精力,你肯定不希望某天醒来发现自己的所有心血都被困在了一个封闭的私有系统里。但关于 PIE 架构 的秘密在于:它构建在终极的技术中立基础之上——Markdown 文件。
我亲身经历过。OpenCode 发布时,我切换过去用了两周。我把整个 PIE 系统——包括技能、MCP、上下文文件——全部迁移了过去。效果非常棒。因为该系统是基于开放标准构建的,我没有被束缚在某个特定的大模型上;我追随的是 愿景的质量。
谷歌
后端技术极强。但在界面、同理心以及理解人类用户真正需要什么才能提高效率方面,表现一直很糟糕。
Anthropic
一家“人类优先”的公司。从 CEO 到基层,他们都对交互体验非常痴迷。他们每天都在更新产品,倾听 X 平台上用户的声音,并将 AI 视为合作伙伴。
OpenAI
正在转向“持久记忆”。他们想通过将你的记忆锁定在他们的生态系统中来成为你的个人助手,从而制造极高的退出门槛。
“氛围感”审计:为什么 Anthropic 赢得了界面之战
讲述者 2 对平台侧重点的主观分析。
看起来 OpenAI 想成为你的 持久……个人 AI。他们已经在记忆功能上投入了大量资金。他们希望 ChatGPT 比任何人都更了解你。这不正是同一种愿景的另一种表现形式吗?
没错。大家的目标都是一致的。三年内,我们都将拥有能为我们处理一切事务的数字助手。到时候这会变得理所当然,甚至索然无味。但这种路径却各不相同。萨姆·奥特曼正试图通过硬件和消费级设备实现对移动端的跨越式发展。Claude 则是通过编程智能体这条路径走到今天的。
“我们正在重新定义人机交互。你对助手说话,助手为你办事。"
随着“界面战争”尘埃落定,话题焦点正从“谁”在打造工具,转向我们究竟该“如何”管理这些助手开始采取的自主行动……
思维习惯
如今构建个性化 AI 堆栈的价值,仅仅在于培养自己的习惯吗?还是说,在 2027 年“苹果版”问世之前,还有某种结构性优势可以争取?
“我这样说对吗:这可能主要关乎你个人的思维习惯?还是说,相比于那些坐等完美版本出现的人,还有其他因素能帮助人们积累优势?”
“通用算法”
眼下,我们正处于一个间断平衡时期。世界变化如此之快,以至于等待“完美打磨”的消费级产品的成本比大多数人意识到的都要高。那些打磨好的版本——即来自苹果或谷歌的版本——将是高度供应商锁定的,且本质上是不透明的。你将无法获得像在“主权堆栈”中那样的环境访问权限。
我一直痴迷于这种关于Ralph 循环。这种渴望旨在将通用算法从你的当前状态转移到你的理想状态。
个人优化引擎
“AI 平台一直在尝试代表你执行这个循环。”
““最糟糕的时机就是现在还在观望。”
主权的摩擦
搭建个人 AI 基础设施并不容易。这不仅仅是“连接 Gmail”那么简单,还涉及 MCP、命令行工具、Google Cloud 开发者账号和 OAuth 令牌。简直是一团乱麻。
像 Tasklet 或 Shortwave 之类的专用智能体开箱即用,表现出色,但它们并没有把 你——即拥有主权的个体——置于算法的核心。
权衡
“我到底想花多少时间在工具和 MCP 上,而不是直接把活儿干了?”
选择的悖论:Open Code vs. Claude Code
“如果一个个性化的系统在促进你的目标方面比零散的系统哪怕只强 2% 或 5%,这些收益也会不断累积。两年后,你不仅是领先,而是进入了一个完全不同的层级。”
“但这种摩擦是真实存在的。我看着这些命令行工具在想:难道大家都在这么干吗?还是我的哥们 Chris 只是个疯子?”
对话转向了技术现实——我们如何在不丧失主权的情况下,弥合“疯子折腾者”与“无缝效用”之间的鸿沟?
“最优组合”悖论
中心化的 AI 是取代了你的专用工具,还是仅仅成为了一个无形管弦乐队的世界级指挥家?我们正在从“使用应用”转向“表达意图”。
关于构建“个人智能引擎”的一个误区是,你会因此被锁定在单一模型中。事实上,情况恰恰相反。我的系统 Kai 不仅仅是 Anthropic 的套壳;它是一个“多语言通”。它对 模型上下文协议 (MCP) 进行了 TypeScript 逆向工程,因此它可以原生支持 Salesforce、电子邮件和内部生产力工具,而不会导致上下文窗口臃肿。
我并不想重写 SMTP,也没打算重新发明像 Shortwave 这样的小众 SaaS。相反,我正在针对任务采用最合适的工具。如果我需要深度研究,Kai 会启动八个由 Codex 和 Gemini 驱动的代理。如果我在车里,我会和 Grok 对话,因为它的语音交互界面更出色。“Pie”框架的核心不在于模型,而在于你目标的统一。
Kai 的神经编排
数据反映了讲述者 2 在使用“同类最佳”工具时的具体工作流分配。
“我是该去终端前说‘整理我的收件箱’,还是该用一个专门为邮件打造的产品,并让它调用‘Nathan 神谕’?大多数人不是 Vim 极客;他们想要的是图形界面。”
“我用的是 Superhuman——那是我的客户端。但我不应该待在那儿。目标是既不在终端,也不在图形界面。我只需要开口说:‘我该看什么?有什么重要的吗?’然后事情就自然搞定了。”
交互界面
语音优先、隐形、目标导向。摆脱按钮和屏幕组成的“蹩脚堆砌”。
工作流示例
输入
“给 Sarah 写一封回复邮件。”
后端
Kai -> MCP -> Superhuman -> SMTP
以自我为中心的统一
它不是把你放在中心,而是把你的 目标 放在中心。
“不,我们不应该去处理任何这类蹩脚的设计……想想电影 《她》。你只需说:‘嘿,最近怎么样?’然后她会说:‘我刚读完你的 940,000 封邮件,你收到了来自 Sarah 的新邮件。’这就是我们所有人正在努力构建的交互界面。”
终极产品建议
我们刚才聊到了 Shortwave 的工程设计——他们如何为你的 Gmail 构建向量数据库。但这里有一个更深层的真相:如果你在真空中闭门造车地开发一个“酷功能”,那你已经输了。上下文(Context)不是一个功能,它是生存层。
脆弱性陷阱
你可以拥有一款“相当不错”的威胁情报工具,但如果你的竞争对手比你更了解客户内部的工程文化,你的技术参数就没那么重要了。
“你知道他们是怎么推送代码的吗?”
“你了解他们的工单系统吗?他们的 CI/CD 流水线?他们的代码仓库?如果你缺乏这些背景信息,即使是一个‘较差’的产品,只要它更懂用户,每次都能击败你。”
“每个人都会建立对用户的深度了解。那是核心引擎。”
我一直对记忆系统——智能体、大模型之类的——非常着迷。大家都知道缺了点什么,但关于如何修复它的直觉却各不相同。到底什么对你有效?你是在用专门的基础设施公司吗?
我非常倾向于“文件系统派”。自从 PIE 的第一个版本以来,我一直坚持这点。文件系统就是我的记忆。它是我的存储,也是我的上下文管理。
“我不喜欢 RAG因为我觉得它只是有损且混乱。”
—— 为什么 dot-claw 目录胜过向量数据库。
自我提升的架构
在 .CLAW 目录之下,奇迹正在发生。它不仅仅是文件的堆砌,而是一个被分类为“学习”和“信号”的活体结构。它提取自系统内生成的每一份对话记录、每一次工具调用以及每一个 JSONL 事件文件。
但真正的差异化在于钩子系统。每次我与智能体交互时,一个后置钩子都会分析我的情绪。它会问:“他对这个回答有多满意?”
这创建了一个递归的自我提升循环。系统会查看我的请求、它的产出以及我随后的情绪水平。它实际上在说:“哦,他想要更多这种,更少那种。”它利用记忆来逐步提升算法从当前状态过渡到理想状态的能力。
三级自路由推理
系统使用 Haiku 作为情感分析钩子,将提示词动态路由到相应的模型层级。
HippoRag 替代方案
“我研究过像 HippoRag 这样的系统,它的灵感来自海马体。它利用实体识别和去重来构建图结构。这是一种基于网络而非层级的方法,旨在后台桥接零散的想法。”
脚手架优势
“那种后台批处理?这就是我的钩子系统在做的事。我有 12 个活跃的钩子在进行安全检查、情感分析和自我路由。所有内容都被记录下来,全是原始数据,随时可以进行分析。”
随着脚手架变得越来越复杂,对话转向了哲学层面:智能体真的能理解“快乐”吗,还是说这只是文件系统中的另一个信号?
自动化钩子
“这不仅仅是日志;它是一个持续的情感分析层,监测系统和用户的状态。”
“在任何时候,我都可以问:我们的升级进展如何?本月的性能表现怎么样?然后 PIE——在我这里是 Kai——会回顾并说:‘我们尝试了这个,失败了,然后卸载了。现在我们到了这一步,你看起来开心多了。’”
记忆索引效率
系统生成“加工产物”作为历史记录的“即时读取”版本,从而避开了计算密集型的原始日志解析。
反思逻辑
- 01. 钩子: 每次系统运行时触发。
- 02. 提炼: 将互动总结为一个“反思”工件。
- 03. 索引: JSONL 格式支持在查询期间实现近乎瞬时的检索。
激活与修改
“我没看到人们修改核心代码的频率有像在填充 它时那么高。GitHub 上有个人——我想他叫 Jim——昨天发了一个长达 20 页的讨论帖。我的天呐。”
潜藏的可能性
Jim 几十年来一直受困于这些问题——缺乏“Claude Code”或真正具备智能体特征的 PIE 系统。他没有改变引擎,而是将毕生的背景信息都灌注了进去。
“他完全清楚自己想要什么。他看到了 PIE,把他的所有东西都搬了过来,现在他产出的内容要多得多。”
系统的“感知感”
讲者 1 提到的一个现象让任何过着数字生活的人都感同身受:“剪贴板感”。 你知道剪贴板里有东西。你可能不记得*具体是什么*,但你能感受到那种数字化的“重量”——你大脑的一部分已经习惯于追踪那个虚拟的附件。
“这东西真的是你身体的延伸吗?”
“如果它被关掉了,你会觉得少了点什么吗?就像那种通过刺激舌头来帮你视物的假体,或者是你在 VR 里学会摇摆的虚拟尾巴?”
这让我想起了 90 年代、在军队的日子,以及大卫·艾伦的《搞定》(Getting Things Done)。 首要原则:永远不要让任何事情留在你的脑子里。它会困扰你,会导致执行功能失效。
二十年来,我一直带着索引卡和太空笔。我有 2900 条 Apple 备忘录。我的口袋里塞满了捕捉信息的物理表现形式。但我们正在迎来转折点。
目标不仅仅是更好的“一呼一应”。目标是向主动型智能体的转变。就像电影中的操作系统《她》. 你不该再去翻你的卡片或是 Apple 备忘录。
智能代理系统应当从‘你问它’转变为‘它主动弹给你’一个提示:“嘿,现在是回顾那些待办事项的好时机。”
信息捕获的演进
索引卡
(GTD 时间管理法)
Apple 备忘录
(2,900+ 条记录)
智能代理式 PIE
(主动唤回)
模拟与数字的桥梁
如果说情感层是系统的灵魂,那么界面就是它的躯体。我们正从隐藏的钩子转向桌面上的实体时钟——由云端代码驱动的模拟形式。
“我在 X 上看到了这个小闹钟……它以模拟形式展示每日日程,却是由云端代码生成的。它跨越了这两个世界,是 PIE 系统的物理呈现。”
触发机制 A
“Cloudflare Workers:在不同的预设时间框架内运行不同的任务。一个经过身份验证的基础设施网络。”
触发机制 B
“远程代理:在 GitHub 基础设施中启动任务,并将结果返回到我的本地环境。”
“Kai”层
“对话就像是:‘嘿 Kai,别让我忘了这个。’ 然后它会启动一个 worker,每分钟检查一次目标。”
主动性阈值
计划任务是一回事,但 逻辑触发器 才是见证奇迹的地方。呼叫响应确实很酷,但它仍然只是个聊天机器人。它太被动了。你问一个问题,得到一个答案,然后 你 还得自己去处理它。
未来是主动式的。现在,Kai 不应该用新闻来打断我,因为它知道我正在录制。它理解环境、时机和背景。如果你想达到《她》(Her)所展现的那种未来,那个系统必须时刻陪伴在你身边,而不是仅仅被困在终端里。
“作为一个搞安全的人,对于 怕得要死 远程终端访问这件事。”
“我们在行动范围方面进展到哪一步了?它会不会在没经过你审核的情况下,以你的名义发邮件?你会允许它代表你花钱吗?”
目前的基础架构还不足以支撑完全的信任。我的钩子系统其实有一大堆防御机制。我一直在盯着这些智能体,确保它们没有访问特定的文件或目录。我不再为了省事而冒着风险跳过权限检查了。
“爆炸半径”原则
我不介意做实验。如果有一个存了一千美金的独立银行账户?行啊,随便折腾。这就是所谓的“自动贩卖机基准”。但提示词注入简直是个噩梦。
想象一下,有人给 Kai 发了一个“阅读”链接。那是提示词注入。突然间,Kai 开始在 LinkedIn 上公开我的私人日记。这是完全有可能发生的。提示词注入问题还没解决,所以我现在的信任程度仍然是……谨慎的。
生产力提升?
杠杆效应在增加,但对于高风险操作,“人工参与”仍是目前的硬性要求。
防御层
- • 文件系统访问控制
- • 提示词注入防护架构
- • “爆炸半径”隔离
- • 人工决策审核
对话转向了这些接口的未来——我们如何弥合“谨慎实验”与“真正的自主代理”之间的鸿沟……
90% 的门槛
从桌上的数字时钟过渡到全自动化的生活,不仅仅是代码的问题——它关乎“爆炸半径”。你如何在不丢掉安全底线的前提下,成为一名 AI 至上主义者?
“在这方面我完全是个至上主义者……我只是限制了它的爆炸半径。”
我们刚才还在聊那个模拟-数字时钟的设置和PIE系统。目前,我觉得我的集成度大约在60%。未来几年呢?我想冲到90%。但最关键的一点是:我是退伍军人。我习惯用威胁模型来思考。
“假设最坏的情况已经发生。什么本可以阻止它?这不仅仅是为了降低可能性,更是为了降低影响。”
安全阀
原则:允许失败
这是PIE的核心原则之一。当Anthropic给Claude一个选项,让它直接……停下来。结束对话或者转交给福利负责人。这不是一个bug,而是一个功能。
如果AI做不到某件事,我不希望它忽悠我。我不需要那种讨好式的幻觉。我在告诉模型:“失败没关系。告诉我真相就好。”
战术洞察
“相比于你不停地在那里胡编乱造,我更看重真相。”
研究证实了这一点。给模型一个“退出”选项,通过减少那种以牺牲准确性为代价来取悦用户的冲动,反而提高了模型的表现。
我们人类物种当前的效率
我有一个想法很久了:绳索的余量。我们倾向于认为历史之所以如此,是因为人类天生的局限性。我们认为自己正以100%的能力在推进,再多走1%都需要无限的能量。
我不觉得事实如此。我认为我们现在只发挥了1.7%,而想要达到63%其实出人意料地简单。
看看医学研究。几十年来,成千上万的研究生发现了能杀死有害物质的分子,但因为他们得去找工作,所以就把论文随手丢在某个文件夹里了。没有人有那样的眼界、头脑或人手去把这些点串联起来。AI可以。
最后的疆域:改变我们的渴求
我们讨论过如何消除障碍以得到我们想要的东西。但如果我们能改变我们想要去想要的东西?
- ▹ 自律: 一种能让你聪明10%或更专注的解锁方式。
- ▹ GLP-1效应:如果药物能抑制食欲,那么 AI 还能为求知欲或自律做些什么呢?
是物理极限阻碍了我们,还是绳子不够紧?我怀疑我们面临的几乎每个重大问题都属于后者。
“远未达到极限。”
Daniel Miessler • 认知革命
90% AI 化未来中的人为因素
当我们从 90% AI 生成世界的各种技术安全问题转向时,我们需要解决的最关键“威胁模型”是如何维持我们的社区。这场革命不仅关乎模型,更关乎驾驭它们的人。
广而告之
将节目分享给朋友,在网上发布你的犀利见解,或者在 Apple Podcasts 和 Spotify 上留下评论。你的信号能帮助他人在嘈杂中发现我们。
直接反馈
有嘉宾建议或需要深度探讨的话题?请联系 cognitiverevolution.ai 或直接私信我。我在听。
所属网络
我们很自豪能成为 Turpentine Network 的一部分,并由 AI Podcasting 制作——帮助我们实现从录制到传达到你耳边的规模化。
“感谢你成为认知革命的一员。”
— 来自前沿的道别。

