月度归档:2025年11月

AI Agent不够聪明,但 SaaS 公司可能是解药

最近经常会和 AI Agent 聊天,使用 AI 编程,并且也会和正在用 AI Agent 的朋友聊天,发现大家 AI Agent 的期待值和实际体验之间,存在着相当大的落差。

换句话说,大家觉得 Agent 不怎么聪明。

1. AI Agent 到底哪里不聪明

可能是以下的方面:

  1. 业务理解能力差。很多 AI Agent 看起来能对答如流,但一涉及到具体业务场景就开始答非所问。先不说原因,原因后面再细讲。
  2. 执行能力有限。在大家的预期中 AI Agent 应该能自主规划和执行任务,但实际上大部分所谓的 AI Agent 还停留在”问一句答一句”的阶段。我们想像中的一句话需求,如”帮我分析这份财报并生成投资建议”,大部分 AI Agent 是搞不定的,类似于 Manus 这种勉强可以的,但其结论是否能参考也是存疑的。
  3. 可控性差。我们一方面希望 Agent 有自主能力,能像人一样灵活处理问题;另一方面又希望它的行为可预测、可控制。这本身就是个悖论。结果就是,要么 Agent 太死板,只能按预设流程走;要么太「聪明」,经常做出一些让人意外的操作。
  4. 定制成本高。这本来不是聪明的问题,但这是聪明的代价,每个企业的业务都有自己的特殊性,要让 Agent 真正理解并适应这些特殊性,需要大量的定制化工作。但问题是,很多企业并没有这个技术能力或者预算来做深度定制。

2. 为什么会出现这些问题

我觉得主要是三方面的原因:

  1. 过高的预期。过去一年,AI Agent 的概念被炒得太热了。各种厂商都在宣传 Agent 能够”完全替代人工”、”自主完成复杂任务”。但实际上,现在的技术水平离这个目标还有很大距离。有的老板,听了厂商的宣传后,真的以为买个 Agent 产品就能替代掉几个员工。结果上线后发现,不仅没法替代人,反而需要专人来”照顾”这个 Agent,教它怎么工作,纠正它的错误。
  2. 模糊的产品定位。现在市面上的 Agent 产品,很多都想做成”万能助手”。但越是想什么都做,越是什么都做不好。反而是那些专注于特定场景的 Agent,比如专门做客服的、专门做数据分析的,效果会好很多。
  3. 技术栈的割裂。做好一个 Agent,需要模型能力、工程能力、业务理解能力的深度结合。但往往懂模型的不懂业务,懂业务的不懂模型,懂工程的可能两个都不太懂。这种割裂导致做出来的产品总是差那么一些。

3. 当前谁最有优势?

答案是:SaaS 公司。

在 AI Agent 落地上,SaaS 公司有着天然的优势。

SaaS 公司最大的优势是接近客户和数据。他们天天跟客户打交道,知道客户的真实需求是什么,痛点在哪里,实际的业务流程是怎样的。更重要的是,他们手里有大量的业务数据和场景数据,这些数据对于训练和优化 Agent 来说是无价之宝。

举个例子,一家做 CRM 的 SaaS 公司,如果要做销售 Agent,它有几个天然优势:

第一,它知道销售的真实工作流程是什么样的。不是理论上的流程,而是实际操作中的流程,包括各种例外情况和潜规则。

第二,它有大量的销售数据。什么样的话术转化率高,什么时间打电话效果好,不同行业的客户有什么特点,这些数据都在它的系统里。

第三,它有现成的客户界面。不需要重新教育客户怎么使用 Agent,可以直接嵌入到现有的产品里。

第四,它有持续优化的能力。客户每天都在使用它的产品,产生新的数据,这些数据可以用来持续优化 Agent 的表现。

相比之下,纯做 AI 的公司,虽然模型能力很强,但在落地时往往会遇到各种水土不服的问题。

4. 垂直场景的突破

在个人粗浅的认知中,Agent 的突破口在于垂直场景,而不是通用场景。在于需要 Konw-How 的场景。

为什么?因为垂直场景有几个优势:

第一,需求明确,专注。不需要 Agent 什么都会,只需要它把一件事做好就行。

第二,数据充足。垂直场景往往有大量的历史数据可以用来训练和优化。

第三,容错率高。因为场景固定,出现意外情况的概率较低,即使出现了也比较容易处理。

第四,ROI 清晰。在垂直场景下,Agent 的价值很容易量化。

比如法律文书撰写、行业分析、代码生成这些场景,都是合适的 Agent 应用场景。这些场景有明确的输入输出,有清晰的质量标准,有大量的历史数据,非常适合 Agent 来处理。

5. 可预测与可掌控的矛盾

在 ToB 场景下,企业客户最怕的就是不确定性。如果一个 Agent 今天的回答和明天的回答不一样,或者在关键时刻做出了意料之外的决策,那对企业来说不可接受的。

但是,客户又希望 Agent 有自适应能力,能够灵活处理各种情况。

当前的解决方案基本上是两个极端:

  1. 完全用 Workflow 来定义 Agent 的行为。每一步做什么都规定得清清楚楚,Agent 只是一个执行者。这样做的好处是完全可控,坏处是太死板,失去了 Agent 的灵活性。
  2. 完全放开,让 Agent 自己去学习和适应。这样做的好处是灵活,能处理各种意外情况,坏处是不可控,你永远不知道它下一步会做什么。

比较理想的方案应该是两者的结合:在关键决策点上用 Workflow 来控制,在具体执行上给 Agent 一定的自主权。但这说起来容易,做起来很难。需要对业务有深入的理解,知道哪些地方需要控制,哪些地方可以放开。

6. 模型能力 vs 工程能力

要解决这些矛盾和问题需要模型和工程两方面的提升,并且现阶段工程能力可能比模型能力更重要。

为什么?

因为现在的大模型能力其实已经不错了,GPT-5、Claude、DeepSeek 这些模型的理解和生成能力都很强。真正的瓶颈在于如何把这些能力转化成实际的业务价值。

这就需要大量的工程工作:

  • 如何设计合理的 Prompt,让模型理解业务需求
  • 如何构建知识库,让模型能够获取必要的信息
  • 如何设计工作流,让模型的输出能够被系统消费
  • 如何做异常处理,保证系统的稳定性
  • 如何做监控和优化,持续提升系统表现

这些工作属于比较累和碎的活儿,不如训练模型那么「高大上」,但却是 Agent 能否落地的关键。

7. 安全问题

AI Agent 的安全问题不仅仅是数据泄露,更大的问题在于,Agent 可能会做出一些不当的决策或者操作。

比如,一个有权限访问企业数据库的 Agent,如果被恶意引导,可能会删除重要数据或者泄露敏感信息。一个负责采购的 Agent,如果判断失误,可能会下错订单,造成巨大损失。如此种种……

现在的解决方案主要是加各种限制和审核机制,但这又回到了前面的矛盾:限制越多,Agent 就越不「智能」。

8. 可能的未来

基于目前的情况,我觉得接下来的一段时间 Agent 的发展会有几个趋势:

第一,从通用到垂直。越来越多的 Agent 会专注于特定的场景和行业。

第二,从替代到增强。Agent 的定位会从「替代人工」转变为「增强人工」。

第三,从单点到系统。不再是一个个孤立的 Agent,而是多个 Agent 协同工作的系统。

第四,从产品到服务。Agent 不再是一个买来就用的产品,而是需要持续优化的服务。

这些趋势意味着什么?

意味着 Agent 市场会越来越理性,泡沫会逐渐消失,真正有价值的应用会脱颖而出。

9. 最后

回到标题:AI Agent不够聪明

确实不够聪明,至少没有我们期望的那么聪明。

但这不意味着 Agent 没有价值。就像早期的计算机,虽然功能有限,但在特定场景下已经能创造巨大价值。关键是找到合适的场景,用合适的方式,解决真实的问题。

AI Agent 的发展还处于早期阶段,现在下结论还为时过早。但有一点是确定的:那些能够深入理解客户需求,扎实做好工程实施,持续优化产品体验的公司,最终会在这个市场上站稳脚跟。

至于 AI Agent 什么时候能真正「聪明」起来?我觉得还需要时间。可能是一年,可能是三年,也可能是五年。但在这个过程中,我们需要做的不是等待,而是不断探索、试错、优化,一步步接近那个目标。

毕竟,罗马不是一下子建成的,AI Agent 也不是。

以上。