"The Cognitive Revolution" | AI Builders, Researchers, and Live Player Analysis

对话 Snowflake AI 副总裁:如何让 AI 深入数据?详解 Text-to-SQL、RAG 与企业级智能体实战

2026/1/145960

认知革命

Snowflake:数据大解封

"80% 到 90% 的企业信息曾被困在 PDF 和文档中。我们正首次让这些信息变得可查询。"

Nathan Labenz

我很想深入探讨一下今天的 Snowflake 对 AGI 有多“上头”。我们是在谈论一个简单的数据库升级,还是核心理念正在发生转变? Barish Gultekin 对我们来说,我们非常务实。我们服务于大型企业。目标是打造能产生正向投资回报率(ROI)的高质量 AI Agent——而这正发生在当下。我们的理念?让 AI 走向数据,而不是让数据走向 AI。

90%

的企业数据是非结构化的。直到现在,这些还是“暗数据”——被困在合同、研究论文和电子邮件中。可搜索信息的增长

从流水线到自然语言

在“过去”的时代,你得构建复杂的流水线来分类数据。现在,你只需通过简单的提示词就能从 10 万份合同中提取结构化信息。你不仅仅是在看仪表盘,你是在和你的股票研究报告“对话”。

// 财富管理 Agent 示例

"在结构化表格中查一下股票走势,但要与那些 50 页 PDF 中的情绪进行交叉对比。"

"数据具有引力。我们的客户不想移动它。他们希望 AI 生存在数据呼吸的地方。"

下一章:Text-to-SQL 与语义的细微差别超越炒作:Text-to-SQL 我们已经跨越了“Snowflake 101”阶段。现在,我们正在攻克数据的“圣杯”:用通俗的英语提问,并得到一个不会对你的营收产生幻觉的答案。

"传统上这一直非常困难……容错率是零。"

我问过我们目前在 Text-to-SQL 方面究竟处于什么水平。从历史上看,这曾是“部落知识”的雷区。有些列没人使用,有些架构(schema)乱得像犯罪现场,还有些细节只存在于某个分析师的脑子里。

发言者 1where the data breathes."

Next: Text-to-SQL and the nuances of semantics

Beyond the Hype: Text-to-SQL

We’ve moved past the "Snowflake 101." Now, we tackle the holy grail of data: asking a question in plain English and getting an answer that doesn't hallucinate your revenue.

"It’s been traditionally very difficult... the margin of error is zero."

I asked where we actually are with Text-to-SQL. Historically, it was a minefield of "tribal knowledge." You have columns nobody uses, schemas that look like a crime scene, and nuances that only live in one analyst's head.

Speaker 1

“如果你问‘我的营收是多少?’,答案只有一个。人们对质量的期望极高。在现实世界中,我们要处理成千上万张表和数十万个列。”

重大突破

“在过去的六个月里,推理模型迎来了转折点。我们看到对 Snowflake Intelligence 的需求巨大,因为其质量终于达到了可以向业务用户(而不只是数据科学家)交付的水平。”

“推理模型”的跨越(过去 12 个月)

将演讲者 1 所描述的“质量的显著提升”进行可视化。

我们如何解决“部落知识”(隐性知识)问题?

元数据与模式 (Metadata & Schemas)

扫描表名、列描述以及底层的原始数据,以找到“事实定义”。

BI 连接器

接入 Tableau 或 Omni 以抓取现有的语义。如果在仪表板中有了定义,AI 就应该知道它。

查询日志

分析历史 SQL 查询。“这些是 AI 代理构建语义模型的线索。”

开放语义交换 (The Open Semantic Interchange)

Snowflake 正在推动一项开放标准。如果你在一个平台上构建了语义模型,你应该能够在另一个平台上复用它。虽然现在还处于早期阶段,但他们正在与 Tableau 和 Omni 合作,以确保你的“营收定义”不会被锁在某个单一供应商的“地窖”里。

“围墙正在倒塌。”

我提出了“AGI 拥趸”的观点——我们是否正在进入一个所有人既是朋友又是对手的“亦敌亦友”时代?如果因为软件开发速度爆炸,Snowflake 也能做到 Tableau 所能做的事,那么旧有的合作伙伴关系还能维持吗?

演讲者 1 的观点:蛋糕在变大,而不是在被瓜分。

空气中弥漫着转变的气息。“锁定”策略正在消亡。当我追问竞争态势——即 Snowflake 可能会侵占其合作伙伴的市场空间时,得到的回答却出人意料地乐观。

在 AI 驱动的世界里,差异化不在于隐藏数据,而在于执行速度和价值创造。有了开放标准,客户成为了赢家,因为他们可以自由迁移语义模型。

“再也没有厂商锁定了。这让产品开发变得非常重要。执行速度就是一切。”

这是一个大胆的说法。不断扩大的“蛋糕”是否足以让大家保持友好仍有待观察,但就目前而言,推理模型正在像大锤一样砸碎各种孤岛。

前情回顾:Snowflake 101 与 AI 基础 下一篇:RAG、嵌入 (Embeddings) 与模型层 →

超越查询

我们已经掌握了 Text-to-SQL 的精髓,但企业面临的真正挑战不仅仅是行和列。而是由非结构化 PDF、表格和图像组成的汪洋大海。欢迎来到 RAG 时代。

“我们经历了分块策略和图数据库的时代。但究竟是什么 实际上 在当今的 RAG 范式中推动结果的产生?”

Neva 的传承

在 Snowflake,我们引进了 Neva 团队——Web 级搜索专家。成功的秘诀?不只是某一个环节。它是嵌入模型的质量、混合搜索层以及顶层的重排序器共同作用的结果。

PDF 的难题

PDF 真的很乱。多栏布局、嵌入式表格、奇怪的图片位置。我们正在迈向 代理式文档分析——在这种模式下,AI 不仅仅是寻找某个页面,而是从五十个文档中提取十年的营收数据,并为你完成计算。

“我们正步入一个新阶段,从业者的‘手动’工作正在被自动化取代。复杂性正在被平台消解。”

帕累托前沿:成本 vs. 能力

十八个月前,你做任何事都需要专门的模型——这里要一个表格提取器,那里要一个特定的嵌入模型。而今天? Claude 3.5 Opus 或 Gemini 1.5 Pro 仅凭开箱即用的功能就能解决问题。

"如果你正在处理几份文档,用那些大厂的模型。但如果你要处理 数亿份 文档?你不能指望通过 Claude 来处理。那会让你破产,而且耗时太久。"

这就是前沿阵地的转移。Snowflake 的文档提取模型比那些巨头小几个数量级,速度也快得多。这关乎 摊销智能——即拥有一个能以极低成本完美完成单一任务的模型。

犀利观点

"微调正在走下坡路。"

我们正看到巨大的转变。对于 90% 的用例来说,从前沿模型入手是最明智的。只有当规模大到惊人,或者数据极其独特以至于通用模型失效时,你才需要搞“定制化”。

看看 Cursor。以他们的规模,为自动补全搞个定制模型是合理的。但对于普通企业?一套调优良好的 RAG 方案几乎每次都能胜过微调模型。

对话
主持人
"中国的生态系统——比如通义千问(Qwen)和 DeepSeek——开源的速度比美国还快。客户真的能放心使用它们吗?"
SNOWFLAKE
"这因人而异。有些科技公司碰都不碰;另一些则认为它们是微调的极佳起点。这是一个竞争极其激烈的领域,目前在闭源和开源界都没有哪一个模型能占据绝对主导地位。"

当我们解决了 RAG 和模型选择的“如何实现”问题后,下一个挑战是结构性的: 我们如何将模型带到数据实际所在地?

MongoDB

跳出行列思维。在受财富 500 强信任的灵活统一平台上,快速构建 AI 应用。

mongodb.com/build

Serval

将服务台工单减少 50%。用简单的语言描述你的需求,让 AI 自动处理重复性任务。

serval.com/cognitive

将模型带给数据

在这次深度剖析的前半部分,我们拆解了 RAG 技术栈和嵌入。但真正的阻力不仅在于技术,更在于信任。如何在数据不出内网的情况下,让企业用上来自 Anthropic、Google 和 OpenAI 的“最新最强”模型?

主持人

“你们和 xAI 有合作关系吗?如果没有,那是为什么?这和他们到处放比基尼女郎的照片有关系吗?”

嘉宾

让我们从打破常规逻辑说起。我们的客户不想把数据移出安全边界。AI 需要主动靠近数据。

“原地”推理架构

我们在两年半前开启这段旅程时,收到的信息非常明确:企业数据是不动的。通过将模型推理引入 Snowflake 安全边界之内,我们本质上逆转了传统的 SaaS 重力。模型变成了“子处理器”。

系统不保存任何状态。没有任何数据会流回模型提供商用于训练。模型提供商(OpenAI、Anthropic、Google)拥有知识产权,但执行过程发生在一系列确保数据驻留的保障机制之内。

这正是云服务商成为关键环节的地方。由于像亚马逊或谷歌这样的公司提供了 Snowflake 所依赖的底层物理基础设施,我们可以画出一条“虚线”安全边界,将数据存储和 GPU 驱动的推理都涵盖在内。

“我的经验法则是:每个人都曾被黑过,每个人都曾沦陷过……然而,我们还没见过任何前沿模型的权重泄露。这是怎么做到的?”

— 主持人的质疑

嘉宾的观点:这与对人的信任无关,而在于执行环境“严丝合缝”的设计。这些系统的设置让你除了运行推理外,根本无法对权重进行任何操作。这种访问限制是设计使然,而不只是靠人事政策。

模型商品化的神话

📍

数据驻留优先

选择往往受企业地理因素驱动。如果你是“亚马逊系”公司,即便别处有“更好”的模型,你可能仍会坚持留在那个云边界内。

“提示词锁定”

切换不仅仅是拨一下开关。一旦你拥有成千上万行针对 Claude 的细微差别或 GPT 的逻辑而优化的系统指令和提示词,那种“跃迁”效应必须足够巨大,才能抵消重新调整的成本。

“目前各模型之间的差异并不大,因此界面的熟悉程度和输出的可靠性成了真正的护城河。”

向技术栈上层移动

嘉宾认为,虽然模型质量是核心,但差异化正向应用层转移。就像 ChatGPT 或用于编程的 Claude 一样,黏性来自于工作流,而不仅仅是引擎的原始智能。

目标是什么?

“我们如何快速为客户带来最大价值?我们从核心数据开始。”

上一期:RAG 与向量嵌入
下一期:设计企业级 AI 智能体 →

智能体光谱

从“将模型带给数据”转向“让模型采取行动”。

我们已经搞清楚了如何将模型带给数据。但一旦它们到位,它们该如何表现?我倾向于在光谱上思考智能体。一端是“选择你自己的冒险”——即 Claude Code 风格,你设定一个目标,智能体就……自己想办法解决。另一端则是线性结构化工作流

Claude Code 无疑很棒,但对于大多数企业来说?请勿在家模仿。结构化工作流才是让你更快得到想要的结果,且不会让 CTO 彻夜难眠的法宝。

可靠性与自主权之间的权衡

人设策略

如果你是一个询问上周使用情况的产品经理,你不需要一个“白板”智能体。你需要一个对你的数据架构了如指掌的优化工具。结构化是一项特性,而非缺陷。

规模

Snowflake Intelligence 已经在 5,000 名销售人员中普及。它是公司数据的 ChatGPT,但带有销售助理般的防护栏,且这个助理真正懂得什么是“续约”。

发言人 0

“我们是搞一个大型的‘长程运行’智能体,还是搞接力?OpenAI 喜欢接力;Tasklet 则说‘让 Claude 自由发挥(let Claude cook)’。到底哪种方案才真正奏效?”

发言人 1

“即使你‘让 Claude 自由发挥’,你也在开发技能。你在将其模块化。在企业中,你有一个 Salesforce 智能体和一个 Snowflake 智能体。它们必须进行对话。MCP 和 A2A 协议不只是流行词——它们是未来的基础设施。”

状态:早期

A2A (智能体对智能体)

客户还没有指名道姓地要求它,但他们正在寻求这种结果:互操作性。

“最大的顾虑之一是他们不想被锁定。”

开放标准 > 私有孤岛
桥梁

MCP

目前被当作连接不同数据版图的“临时方案”。

“万物皆 同构 于万物。”

智能是灵活、可替代且可细分的。无论你称之为 MCP 工具还是子智能体,都只是架构的选择。我们正在玩一场‘藏起智能’的游戏,直到找到那个行之有效的布局。

信任堆栈:治理与防护栏

我们讨论了如何设计企业智能体的灵魂,但如果高管层不信任其输出,那一切都是空谈。在企业界,“还不错”就是一种风险。

遵循隐形红线

解决 AI 治理最优雅的方式不是在上面叠加一百层新过滤器。而是让 AI 直接运行在数据旁。在 Snifflick,我们发现如果你遵循数据平台中已有的细粒度访问控制,智能体自然会按此执行。

“智能体的智能程度和权限,应该始终与使用它的人保持一致。”

如果 HR 经理要求获取薪资数据,他们就能拿到。如果销售人员向同一个智能体询问同一位同事的信息,该智能体就应该有效地“装傻”。这是同一个模型、同一个编排器,但数据治理层充当了终极护栏。

维度 01

易用性

信任始于透明。如果一个解决方案构建起来太复杂,那它也复杂到不值得信任。

维度 02

质量层

利用高质量检索 (RAG) 可确保传递给智能体的上下文不是幻觉产生的噪音。

维度 03

所有者验证

将“人机回环 (Human-in-the-loop)”引入 UI。标记为“由所有者验证”的回答能立即建立用户信心。

企业信任层级

企业优先级从核心安全向外扩展到监控。

S0

我们是否对这些智能体要求“超越人类”的标准?就像自动驾驶汽车一样,在采用它们之前,它们是否必须比人类表现得好得多?

S1

我认为大规模应用并不需要“类人”智能。如果与智能体的对话感觉很自然,我们的期望就会飙升。但即便以目前的水平,它创造的价值也如此之高,应用规模已经呈爆发式增长。它不需要完美;它只需要在特定任务上比人工处理更出色。

“大模型作为裁判 (LLMs as Judges)”

护栏的前沿不仅是静态规则,还包括利用模型在对话的各个维度实时为其他模型打分。

随着安全网的稳固和信任栈的建立,话题转向了未来。

下一篇:智能体与工作的未来 →

当前板块

超越“氛围编码”:智能体劳动力大军的崛起

我们已经跨越了治理护栏时代,进入了 2025 年的纯粹加速期。讨论重点已经发生了转移:不再是关于大模型遭遇瓶颈,而是关于 AI 开始代我们完成工作的临界点。

观察:

“大家都在感慨,天哪。现在的编程体验已经不只是‘氛围编程’(vibe coding)然后最后碰壁。你真的能把它跑通。我们未来是都会变成智能体管理员,还是会一边跟智能体语音交流,一边进行更多的户外锻炼?”

现实反思

“我也希望能看到一个我什么都不用做、只管去锻炼的世界。但实际上我看到的恰恰相反。我们能做的事情变多了,最后做的事情也确实变多了。每个人都在全力冲刺。”

全新的构建哲学

传统的 UI 优先路线图正在瓦解。在编程助手的世界里,“可运行的雏形”已成为唯一通用的硬通货。

  • 告别视觉稿: 不要设计 UI,要在一天内构建出一项“技能”。
  • 快速反馈: 立即将功能性技能推到客户面前。
  • 后期完善: 仅在逻辑得到验证后,才去构建用户体验。

“我们构建产品的方式必须改变。如果我的用户生活在编程助手中,我只需要构建一个供他们调用的技能。”

自主智能体解构

能力正在跨越从“副驾驶”(Copilot)到“智能实体”的门槛。

“首个 AI 同事 将在第二季度发布。”

预测非常具体:一个有名字、有 Slack 账号、有邮箱访问权限的远程员工。虽然人们对那种“无所不能”的自主智能体持怀疑态度,但行业正在转向那些在数字办公空间中与我们并肩作战、职责明确的实体。

民主化与标普阿尔法(S&P Alpha)

归根结底,对于任何公司来说,差异化不在于模型,而在于数据。我们正看到企业处理内部“金矿”的方式发生了两次巨大转变。首先是 访问权限的民主化:自然语言终于打破了管理层与数据库之间的壁垒。

其次,我们看到“超额收益 (Alpha)”正从非结构化噪声中产生。以标普 (S&P) 为例,他们现在正利用人工智能分析财报电话会议——不仅分析说了什么,还分析 如何 说的。

“他们分析了首席执行官何时直接或间接回应分析师……并以此作为超额收益指标来决定购买哪只股票。这类东西现在构建起来变得轻而易举。”

展望未来,焦点正从智能体本身转向承载它们的平台。如果数据是燃料,智能体是引擎,那么下一个战场就是决定谁能捕捉价值的基础设施。

上一页

信任、治理与护栏

下一页

平台、竞争与价值 →

超新星与黑洞

我们已经跨越了对智能体的新奇感,进入了市场动态的冷酷现实。我们是在目睹新思想的蓬勃发展,还是仅仅在为下一代超级平台做免费的研发?

“我不是天文学家,但根据我对平台的经验,在 超新星 之后,紧接着就是 黑洞……边缘产生的所有价值都会被吸回中心。”
怀疑论者

“我让一个 Web 智能体抓取了 600 页的 Intercom 文档,将其喂给 Gemini,然后用一个代码智能体通过一条指令导出了我所有的数据。现在‘拔插头’(脱离平台)从未如此简单。护城河在哪里?当迁移成本降至零时,什么能防止平台陷入困境?”

战略家

“我们很喜欢这样。这对产品团队很有好处。如果客户在一个季度里不开心,他们就会离开。这种压力是终极动力。我们正拥抱像 Iceberg 这样的开放格式,这样你的数据就不会被锁定。处理数据的引擎——其性能和成本——才是真正的竞争所在。”

“锁定”的终结?

“护城河”理念正在发生转变。历史上,软件公司依靠惯性生存——迁移的痛苦大于留下的痛苦。但 AI 智能体基本上已经让“迁移”过程自动化了。

旧世界

私有格式、长达百页的 API 文档以及高昂的切换成本。

新世界

开放标准 (Iceberg)、智能体数据提取以及基于性能的忠诚度。

“中间层”的侵蚀

我们正看到中间层的空心化。那些仅仅是“将业务逻辑代码化”的传统企业正处于危险区。如果你能在一个周末里靠“氛围编码”搞定一个自定义提取器,为什么还要付钱给 SaaS 公司来做呢?

AI 技术栈中价值积聚的地方

基础设施和专业化应用正在扩张,而通用的业务逻辑“促进者”则感到了挤压。


最终的启示是?我们正在进入一个水平平台主导并由超细分垂直应用所平衡的时代。通用的 SaaS 应用——那些纯粹为了用所谓的“最佳实践”把你磨死的应用——正被能够实时组装逻辑的智能体所取代。

当我们审视企业界时,问题不仅仅在于竞争;还在于这些大型组织如何在不失去竞争优势的情况下实际部署这些模型。如果“中间层”正在侵蚀,一家世界 500 强公司该如何保持其独特的逻辑?这就是我们接下来要讨论的方向。

此前:平台与价值

“公司版 GPT”的迷思

“为什么我们还没看到辉瑞 GPT 或通用电气 GPT?如果这些公司拥有百年的数据,为什么不把这些数据‘烤进’权重里呢?”

观察

Databricks 花了 10 亿美元收购 Mosaic ML 来做“持续预训练”。然后 Ali Ghodsi 说他们基本上砍掉了那个产品。为什么?如果我是一家拥有百年历史、积累了数百万员工数据的公司,一个只拥有我公司内部“世界知识”的模型,难道不会价值连城吗?

“搜索与权重”的转向

Barish 解释了这种转变。这就像 ChatGPT 从“知识截止”转向使用网络搜索。我们不再是把信息训练进大脑,而是在教大脑如何使用图书馆。

RAG 检索增强生成:更便宜、可调优,且能保持模型的“新鲜感”。
训练 将信息编码进权重:成本高昂、呆板,且在训练停止的那一刻就过时了。

企业采用偏好(概念性)

规则之外的例外

Barish 指出,训练*确实*正在回归,但针对的是 小模型。高吞吐量、低成本、特定任务。如果你有一个任何基础模型都未曾涉足的特定领域,那就去训练。至于其他?靠检索。

“我比搜索引擎更了解自己的 Gmail,因为 我知道什么时候找到了它。

讲者认为,预训练创造了一种 RAG 无法模仿的“熟悉感”。这就像是从书里查阅资料与“刻在骨子里”之间的区别。

内部基准测试

Barish 并不看重公开排行榜。他关注的是针对特定 Snowflake 任务的 内部质量和延迟。信号在于实际应用,而不是 ARC AGI 的评分。

反传统观点

“产品构建方式需要彻底改变。”

代码智能体现在已经非常强大,在通过自动化迭代进行验证之前,我们甚至不该去‘构建’产品。老办法太慢了。

安全范式

“通过专精实现安全。”

一队专业的小型 AI 比一个全知全能的通用智能更容易控制。

高管指令

对于那些在采用 AI 方面仍持“谨慎”态度的企业领导者: 停下。 竞赛已经开始。Barish 的建议冷静且紧迫:

  • 01 打破孤岛: 如果你的数据被困在特定部门的笼子里,那它还没为 AI 做好准备。投资核心基础是赋能模型的唯一途径。
  • 02 规模化需要便捷性:如果 AI 难以部署,它就不会被使用。Snowflake 现在的整个设计理念就是在大规模应用中让高质量 AI 变得“隐形”。
  • 03 原生培养直觉:如果你自己不用,你就无法领导 AI 转型。原生化的使用会改变你的发展轨迹。

以上就是我们对企业引擎的深入探讨。接下来:结语与最终要点。

结语

“当我们从企业级 AI 的复杂架构及其未来展望中抽离出来时,我们回到了这段旅程中最重要的元素:与我们一同引领这场革命的社区。”

1

谢谢你,Nathan。感谢邀请我。

0

感谢每一位听众成为这场认知革命的一员。

支持本节目

如果你觉得今天的深入探讨有价值,请考虑分享给朋友,或在 Apple Podcasts、Spotify 或 YouTube 上留下评论。

与我们联系:
cognitiverevolution.ai

Turpentine 网络

隶属于 a16z,这里有专家共同探讨技术、商业、地缘政治和文化。

制作人员名单

“由 AI Podcasting 制作。从你停止录音的那一刻,到你的听众开始聆听的那一刻。”

aipodcast.ing

保持 进化。

正在转入最终结论...

关联单集