随着 DeepSeek 等新兴模型的快速崛起,以及 AI Agents 技术的持续突破,人工智能正步入一个更便宜、更快、更普及的新时代。大模型不再是巨头专属,AI 正从实验室走向商业实战,深刻影响着企业的产品构建方式与战略决策逻辑。
在 Intercom on Product 特别节目中,Intercom 邀请全球知名科技分析师 Benedict Evans 深度解析当前 AI 格局。他与 Intercom 联合创始人兼首席战略官 Des Traynor 围绕 DeepSeek、AI Agents,以及“确定性 AI vs 概率性 AI”等核心议题展开探讨,帮助企业看清趋势、明确方向,在不确定的时代中构建具备持续竞争力的产品与服务。
DeepSeek 崛起:AI 模型商品化时代的标志性拐点
Benedict Evans 指出,他早在 2023 年 5 月便在其时事通讯中关注到 DeepSeek,将其视为中国新一代 AI 模型公司的代表。尽管 DeepSeek 的发布在业内引发了极大关注,但也伴随着诸多误解——有人认为它只是对 OpenAI 或 Meta 的模仿,也有人高估或贬低了其实际意义。
Evans 指出,DeepSeek 的真正意义不在于技术本身是否“最先进”,而在于它揭示了一个关键趋势:AI 模型正从少数巨头掌控的稀缺资源,走向更广泛可用的“公共商品”技术。就像数据库或电子表格一样,大模型将不再“赢者通吃”,而是由多个玩家共同构建生态。
更值得关注的是成本趋势。DeepSeek 的 R1 模型在性能上已能媲美 OpenAI 的 O1 推理模型,而训练 V3 的成本仅为 560 万美元,远低于 Anthropic 所需的“数千万美元”。这预示着 AI 模型的训练和部署正在进入成本断崖式下降的新阶段。
虽然 DeepSeek 展现了创新降本的路径(不仅依赖蒸馏,还结合其他 4-5 项技术突破),但与此同时,Meta、微软、谷歌等巨头仍在加码资本投入,2024 年数据中心支出总额预计将高达 2750 至 3000 亿美元,主要用于推理服务的扩展。这种“轻量化 vs 重资本”的对比,正成为 AI 基础设施发展中的重要分歧点。
性能 vs 成本:AI 模型发展的双轨路线
DeepSeek 的崛起不仅揭示了 AI 模型的商品化趋势,也映射出整个行业正沿着两条主线快速演进:一是追求极致性能,二是压缩成本边界。这一趋势呈现出类似“AI 的摩尔定律”:由十几家领先企业共同推进,模型正变得更快、更便宜、更强。
尽管技术进展显著,但用户采用仍存在差距:
日常用户尚在“试用期”:例如 ChatGPT 日活用户占比仅 2–3%,说明 AI 还未成为多数人工作流中的刚需。
行业间接受度分化:软件开发、客户支持、营销等领域因具备高重复性任务,AI 应用价值显著;而律师等需要精确、唯一答案的行业则相对谨慎。
另一方面,AI 的落地方式也在逐步多样化:
直接提示式交互:用户与模型对话获取结果。
嵌入式 API 调用:大量企业将 LLM 无感知地嵌入软件流程中,用户不知其然却用其力。
未来走向尚不明确:我们仍无法判断 AI 会以每年 10–20% 的边际提升持续进化,还是迈入真正自主执行任务的全新阶段 ,因为我们对其底层原理仍缺乏完整理解。
拥抱不完美:LLM 的局限与应对策略
在 AI 模型快速进化、成本持续下降的背景下,大语言模型(LLMs)正被广泛集成进企业产品中。但值得注意的是,性能提升并不等于完美可靠。理解 LLM 的局限,决定了我们该如何设计 AI 应用,才能在实际场景中发挥其最大价值。
LLM 的核心原理是预测下一个词元,这让它在内容生成、语言理解等任务中表现出色,却也天然带来了非确定性。与数据库或电子表格不同,LLM 给出的不是“唯一正确答案”,而是“可能的合理答案”。
你可以把 LLM 想象为一个聪明但不完美的实习生:它能处理大量重复性任务,在明确指令下完成工作,但也可能出错。尤其在处理创意或模糊性任务时表现良好,但面对需要精确检索的指令(如 1980 年电梯操作员人数)时,它往往不够可靠。
错误容忍度应按场景调整:在广告、写作、客服对话等可接受轻微偏差的场景中,LLM 能极大提高效率;而在法律、财务、数据分析等要求准确率极高的任务中,单靠 LLM 并不稳妥。
混合系统是更现实的解法:真正可用的 AI 应用,往往采用“LLM + 硬规则”混合架构。即在用户交互初期使用生成式模型提高体验,当识别出用户需求涉及关键流程时,系统会自动切换到确定性逻辑执行。比如在客服场景中,当用户表示信用卡丢失时,AI 可先通过自然语言与其沟通情境,一旦识别问题属实,便立即转入标准化、零容错的报失流程。
AI 架构演进:从调用工具到自主决策
随着企业逐步接受 LLM 的不确定性特征,如何构建兼顾灵活性与可靠性的 AI 系统架构,成为下一阶段关注重点。在理解 LLM 局限之后,行业开始探索更高阶的智能系统——AI Agent(智能体)模式。
目前,企业构建 AI 系统主要有两种思路:
LLM 作为确定性软件的“插件”:这是当下最常见的模式。LLM 被嵌入在传统软件中,由后者控制输入和输出,例如在 Salesforce 中点击“建议回复”按钮,其背后就是一次 LLM 调用。该模式的优势在于可控性强、上线快,适合对输出要求稳定的场景。
Agent 模式——具备判断能力的智能体:与其说 Agent 是 LLM 的升级形态,不如说它是一种更具自主性的架构设计。在这种模式下,模型不仅能理解用户意图,还能判断任务类型,并自动决定是否调用数据库、API 或执行特定指令。例如,当用户提问涉及结构化数据时,模型可以识别自身局限,转而调用外部系统获取精确答案。
在实际应用中,越来越多企业并非在二者之间做“二选一”,而是探索更灵活的混合式架构:
利用 LLM 快速搭建任务框架,如构建仪表板原型或撰写初稿。
将确定性系统作为关键数据与流程的支撑,确保输出准确。
系统根据上下文判断何时由 LLM 执行生成任务,何时切换到规则驱动模块。
这种融合让企业在保持结果可控的同时,也能享受到生成式 AI 带来的效率红利。
Agent 架构的探索,不只是工程实现的升级,更代表着企业在 AI 应用思维上的跃迁。它要求我们不再仅把 LLM 视为“调用工具”,而是作为具备判断力与执行力的“协作个体”,与现有系统形成有机配合。
在这一趋势下,AI 架构将不再只是工具拼装,而是一种智能协同的系统设计。
AI 下一站——更轻、更强、更贴近用户
回顾整个趋势,从 DeepSeek 的崛起到 Agent 架构的演进,AI 正在从高成本、高门槛的集中化模型,迈向一个更普惠、更灵活的未来。
展望未来,AI 模型的性能将持续提升,使用成本将进一步下探,这不仅推动企业应用门槛降低,也催生出新的部署形态——本地 LLM 的兴起。
像 Apple Intelligence 已经在最新的 iPhone 上实现了本地化的 LLM 功能,例如通知摘要、写作辅助等。借助新技术,大模型的能力被浓缩至轻量级模型,使其能够在手机端高效运行。这不仅提升了响应速度与隐私安全性,更大幅减少了开发者的运营负担,因为计算成本由用户设备承担。
AI 的未来,正在从“强大”转向“可用”,从“遥不可及”走向“触手可及”。对企业来说,真正的竞争力,来自在正确的时间,用对模型,用对架构。
👉想进一步了解 DeepSeek、AI Agents 及未来趋势?点击下方链接,观看完整播客:
https://www.youtube.com/watch?v=QkpqBCaUvS4