月度归档:2025年06月

AI 编程的真相:一个老程序员的冷静观察

如果你是一名程序员,最近一两年肯定被各种 AI 编程工具刷屏了。从 GitHub Copilot 到 Cursor,到今年国内出的 Trae,以及最近发布的为提升 AI 编程效率而生的 Claude Code,还有国内的通义灵码等等,简直让人眼花缭乱。

身边不少同事和朋友都已经用上了,有人说效率翻倍,有人说就是个高级的代码补全。在网上也看到许多争论,如程序员会不会被 AI 取代等等话题。

作为一个在一线写了十多年代码的人,我想聊聊自己的观察和思考。这篇文章不是要唱衰 AI,也不是要贩卖焦虑,而是想分析一下当前 AI 编程的真实情况。

今天主要聊两块:LLM 的固有局限、这些局限在编程领域的具体表现,应对策略我们下一篇文章再聊。

1. LLM 的天生缺陷

要理解 AI 编程的问题,得先搞清楚底层的大语言模型(LLM)有哪些局限。这些局限不是某个产品的 bug,而是当前技术架构的固有特性。

1.1 概率预测的本质

LLM 说到底是个概率模型。它的工作原理是根据上下文,预测下一个最可能出现的词。注意,是「最可能」,不是「最正确」。

这就像一个特别会察言观色的人,能根据前面的对话猜出你想听什么,但他并不真正理解你们在聊什么。大部分时候猜得挺准,偶尔也会离谱到家。

在写作、聊天这种场景下,这种「猜测」问题不大,甚至还能带来一些创意。但在编程这种需要 100% 精确的领域,问题就来了,这就是我们所说的 LLM 的幻觉。

以编程为例,AI 可能会「发明」一个当前环境中并不存在的库函数,或者一本正经地告诉你某个框架有某种你从未听说过的特性。例如,你让它用一个小型库 mini-lib 写个功能,它可能会自信地写下 mini-lib.complex_function(),而这个函数实际上只存在于它通过模式匹配「幻想」出的世界里。这种随机性在创意写作中是火花,但在编程中就是地雷。一个分号、一个等号、一个大于号的随机错误,都可能导致程序编译失败、运行崩溃或产生灾难性的计算错误。

LLM 的本质是一个概率预测引擎,而不是一个事实检索数据库。它的核心任务是基于海量训练数据,「猜」下一个 token 是什么最合理,而不是「下一个 token 是什么最真实」。它的训练数据中包含了海量的代码和文档,当它发现很多库都有 .complex_function() 这种模式时,它就会推断 mini-lib 可能也有,从而生成一个语法通顺但功能无效的代码。它追求的是「看起来对」,而不是「真的对」。

1.2 知识的时间窗口

训练一个大模型需要几个月时间和巨额成本,所以模型的知识总是滞后的。比如 Claude 的知识截止到 2025 年 1 月,那么 2 月份发布的新框架、新 API,它就完全不知道。

对于技术更新速度极快的编程领域,这是个大问题。React 19 出了新特性,Node.js 又发布了新版本,某个常用库爆出了安全漏洞……这些信息,AI 都无法及时获取。

虽然可以通过 RAG/Agent 等技术缓解,但这更像是在给一个旧大脑外挂一个「实时信息提示器」,而非大脑本身的更新。

对于技术迭代比翻书还快的软件开发领域,依赖一个「活在过去」的工具,无异于拿着旧地图在新世界航行。更危险的是,它可能会自信地推荐一个已经停止维护、或者已知存在 CVE 的第三方依赖库,从而出现安全隐患。

1.3 上下文窗口限制

这个问题就像人的短期记忆一样。当我们和 AI 聊天聊久了,它会忘记开头说了什么。目前最好的模型,上下文窗口能达到百万级 token,能解决部分问题,但是也不够用。

对于动辄几十万、上百万行代码的现代开发项目,AI 就像一个只能通过门缝看房间的访客。它能看到门缝里的景象,但对整个房间的布局、风格和功能一无所知。开发者们常常抱怨 AI 编程工具「用着用着就变笨了」,根本原因就在于此。

1.4 缺乏真正的理解

这是最根本的问题。LLM 不理解代码的含义,它只是在模式匹配。

举个例子,当我们让 AI 写一个排序算法,它能写出完美的快排代码。但这不是因为它理解了「分治」的思想,而是因为训练数据里有大量类似的代码,它学会了这个模式。

一旦遇到需要真正理解业务逻辑、需要创新思维的场景,AI 就可能搞不定了。

2. 编程领域的具体挑战

上面这些通用局限,在编程领域会被急剧放大,产生一些特有的问题。

2.1 错误的放大效应

我们知道人是有容错能力的,如这张图,汉字顺序错了,我们也能读懂。

写文章错个字,读者能看懂。但代码里少个分号、多个逗号,程序直接跑不起来。更要命的是逻辑错误,比如边界条件判断错了,可能测试都能通过,上线后才爆雷。

我见过 AI 生成的代码,把 < 写成 <=,导致数组越界。还有在金融计算中使用浮点数,精度问题累积后造成账目对不上。这些都是看起来微小,实际后果严重的错误。

2.2 安全漏洞

这个问题相当严重。研究显示,AI 生成的代码中,包含安全漏洞的比例明显高于人工编写的代码。

原因很简单:

  • 训练数据本身就包含大量有漏洞的代码
  • AI 不理解什么是「安全」,只知道完成功能
  • 很多老旧的、不安全的编码模式被 AI 学习并复现

最常见的问题包括 SQL 注入、XSS、路径遍历等。AI 可能会直接把用户输入拼接到 SQL 语句里,或者在处理文件上传时不做任何验证。除非特别要求。

我们在实际写代码过程中,正向逻辑往往并不是花时间最多的,最复杂的就是边界,异常和特殊情况

2.3 项目上下文的缺失

真实的项目开发不是写独立的函数,而是在一个复杂的系统中工作。每个项目都有自己的:

  • 代码规范和风格
  • 架构设计和模式
  • 业务领域知识
  • 自定义的工具类和框架

AI 看不到这些全貌,经常会:

  • 重复造轮子(明明有现成的工具类不用)
  • 违背架构原则(在该用依赖注入的地方直接 new 对象)
  • 误用内部 API(不理解接口的设计意图)

2.4 代码质量和可维护性

AI 生成的代码往往追求「能跑就行」,但忽略了可读性和可维护性。常见问题包括:

  • 过度复杂的嵌套和链式调用
  • 缺乏有意义的变量名和注释
  • 不符合团队的编码规范
  • 没有考虑扩展性和重用性

当我们习惯了 AI 写代码,可能会不想去看代码(自信点,就是不想看),如果这样过度依赖 AI,可能会失去对代码的深度理解。当需要调试或优化时,面对一堆自己没真正理解的代码,问题就会比较大,甚至出了问题还需要现场看代码来定位问题。

小结

写了这么多,核心观点其实很简单 :AI 编程工具是很强大,但也有明显的局限性。我们需要清醒地认识这些局限,合理地使用工具,同时不断提升自己的核心能力。

代码是我们与机器对话的语言,但写代码的意义,永远是为了解决人的问题。无论工具如何进化,这一点不会变。

所以,继续写代码吧,带着思考去写,带着责任去写。让 AI 成为你的助手,而不是你的拐杖。

毕竟,最好的代码,永远是有灵魂的代码,在写代码中注入心流。

以上。

DeepSeek 和腾讯元宝都选择在用的SSE 到底是什么?

在我们和 AI 聊天中,AI Chat 都采用了一种「打字机」式效果的实时响应方式,AI 的回答逐字逐句地呈现在我们眼前。

在实现这个功能的技术方案选择上,不管是 DeepSeek ,还是腾讯元宝都在这个对话逻辑中选择了使用 SSE,如下面 4 张图:

这是为啥,它有什么优势,以及如何实现的。

SSE 的优势

因为它在该场景下的优势非常明显,主要是以下 4 点:

1.场景的高度匹配。

AI 对话的核心交互模式是:

  1. 用户发起一次请求(发送问题)。
  2. AI 进行一次持续的、单向的响应输出(生成回答)。

SSE 的单向通信(服务器 → 客户端)模型与这个场景高度切尔西。它就像一条专门为服务器向客户端输送数据的「单行道」,不多一分功能,也不少一毫关键。

相比之下,WebSocket 提供的是全双工通信,即客户端和服务器可以随时互相发送消息,这是一条「双向八车道高速公路」。为了实现 AI 的流式回答,我们只需要其中一个方向的车道,而另一方向的车道(客户端 → 服务器)在 AI 回答期间是闲置的。在这种场景下使用 WebSocket,无异于「杀鸡用牛刀」,引入了不必要的复杂性。用户的提问完全可以通过另一个独立的、常规的 HTTP POST 请求来完成,这让整个系统的架构更加清晰和解耦。

2.HTTP 原生支持,与生俱来的优势

SSE 是建立在标准 HTTP 协议之上的。这意味着:

  • 无需协议升级:SSE 连接的建立就是一个普通的 HTTP GET 请求,服务器以 Content-Type: text/event-stream 响应。而 WebSocket 则需要一个特殊的「协议升级」(Upgrade)握手过程,从 HTTP 切换到 ws://wss:// 协议,过程相对复杂。
  • 兼容性极佳:由于它就是 HTTP,所以它能天然地穿透现有的网络基础设施,包括防火墙、企业代理、负载均衡器等,几乎不会遇到兼容性问题。WebSocket 有时则会因为代理服务器不支持其协议升级而被阻断。并且云服务商对于 Websocket 的支持并不是很完善。
  • 实现轻量:无论是前端还是后端,实现 SSE 都非常简单。前端一个 EventSource API 即可搞定,后端也只需遵循简单的文本格式返回数据流。这大大降低了开发和维护的成本。

3.断网自动重连,原生容错

这是 SSE 的「王牌特性」,尤其在网络不稳定的移动端至关重要。

想象一下,当 AI 正在为我们生成一篇长文时,我们的手机网络突然从 Wi-Fi 切换到 5G,造成了瞬间的网络中断。

  • 如果使用 WebSocket:连接会断开,我们需要手动编写复杂的 JavaScript 代码来监听断开事件、设置定时器、尝试重连、并在重连成功后告知服务器从哪里继续,实现起来非常繁琐。
  • 如果使用 SSE浏览器会自动处理这一切EventSource API 在检测到连接中断后,会自动在几秒后(这个间隔可以通过 retry 字段由服务器建议)发起重连。更棒的是,它还会自动将最后收到的消息 id 通过 Last-Event-ID 请求头发送给服务器,让服务器可以从中断的地方继续推送数据,实现无缝的「断点续传」。当然,Last-Event-ID 的处理逻辑需要服务端来处理。

这种由浏览器原生提供的、可靠的容错机制,为我们省去了大量心力,并极大地提升了用户体验。

4. 易于调试

因为 SSE 的数据流是纯文本并通过标准 HTTP 传输,调试起来异常方便:

  • 我们可以直接在浏览器地址栏输入 SSE 端点的 URL,就能在页面上看到服务器推送的实时文本流。
  • 我偿可以使用任何 HTTP 调试工具,如 curl 命令行或者 Chrome 开发者工具的「网络」面板,清晰地看到每一次数据推送的内容。

而 WebSocket 的数据传输基于帧,格式更复杂,通常需要专门的工具来调试和分析。

使用 SSE 实现「打字机」效果

1.后端——调用大模型并开启「流式」开关

当后端服务器收到用户的问题后,它并不等待大语言模型生成完整的答案。相反,它在调用 LLM 的 API 时,会传递一个关键参数:stream=True

这个参数告诉 LLM:「请不要等全部内容生成完再给我,而是每生成一小部分(通常是一个或几个‘词元’/Token),就立刻通过数据流发给我。」

下面是一个使用 Python 和 OpenAI API 的后端伪代码示例:

python

代码解读
复制代码
from flask import Flask, Response, request
import openai
import json

app = Flask(__name__)

# 假设 OpenAI 的 API Key 已经配置好
# openai.api_key = "YOUR_API_KEY"

@app.route('/chat-stream')
def chat_stream():
    prompt = request.args.get('prompt')

    def generate_events():
        try:
            # 关键:设置 stream=True
            response_stream = openai.ChatCompletion.create(
                model="gpt-4", # 或其他模型
                messages=[{"role": "user", "content": prompt}],
                stream=True 
            )

            # 遍历从大模型返回的数据流
            for chunk in response_stream:
                # 提取内容部分
                content = chunk.choices[0].delta.get('content', '')
                if content:
                    # 关键:将每个内容块封装成 SSE 格式并 yield 出去
                    # 使用 json.dumps 保证数据格式正确
                    sse_data = f"data: {json.dumps({'token': content})}\n\n"
                    yield sse_data

            # (可选) 发送一个结束信号
            yield "event: done\ndata: [STREAM_END]\n\n"

        except Exception as e:
            # 错误处理
            error_message = f"event: error\ndata: {json.dumps({'error': str(e)})}\n\n"
            yield error_message

    # 返回一个流式响应,并设置正确的 MIME 类型
    return Response(generate_events(), mimetype='text/event-stream')

if __name__ == '__main__':
    app.run(threaded=True)

在这段代码中,有几个关键点:

  1. stream=True:向 LLM 请求流式数据。
  2. 生成器函数(generate_events:使用 yield 关键字,每从 LLM 收到一小块数据,就立即将其处理成 SSE 格式(data: ...\n\n)并发送出去。
  3. Response(..., mimetype='text/event-stream'):告诉浏览器,这是一个 SSE 流,请保持连接并准备接收事件。
2.SSE 格式的约定

后端 yield 的每一条 data: 都像是一个个装着文字的信封,通过 HTTP 长连接这个管道持续不断地寄给前端。

前端收到的原始数据流看起来就像这样:

vbnet

代码解读
复制代码
data: {"token": "当"}

data: {"token": "然"}

data: {"token": ","}

data: {"token": "很"}

data: {"token": "乐"}

data: {"token": "意"}

data: {"token": "为"}

data: {"token": "您"}

data: {"token": "解"}

data: {"token": "答"}

data: {"token": "。"}

event: done
data: [STREAM_END]

看 DeepSeek 和腾讯元宝的数据格式,略有不同,不过有一点,都是直接用的 JSON 格式,且元宝的返回值相对冗余一些。 且都没有 data: 的前缀。

3.前端监听并拼接成「打字机」

前端的工作就是接收这些「信封」,拆开并把里面的文字一个个地追加到聊天框里。

html

代码解读
复制代码
<!-- HTML 结构 -->
<div id="chat-box"></div>
<input id="user-input" type="text">
<button onclick="sendMessage()">发送</button>

<script>
    let eventSource;

    function sendMessage() {
        const input = document.getElementById('user-input');
        const prompt = input.value;
        input.value = '';

        const chatBox = document.getElementById('chat-box');
        // 创建一个新的 p 标签来显示 AI 的回答
        const aiMessageElement = document.createElement('p');
        aiMessageElement.textContent = "AI: ";
        chatBox.appendChild(aiMessageElement);

        // 建立 SSE 连接
        eventSource = new EventSource(`/chat-stream?prompt=${encodeURIComponent(prompt)}`);

        // 监听 message 事件,这是接收所有 "data:" 字段的地方
        eventSource.onmessage = function(event) {
            // 解析 JSON 字符串
            const data = JSON.parse(event.data);
            const token = data.token;

            if (token) {
                // 将新收到的文字追加到 p 标签末尾
                aiMessageElement.textContent += token;
            }
        };

        // 监听自定义的 done 事件,表示数据流结束
        eventSource.addEventListener('done', function(event) {
            console.log('Stream finished:', event.data);
            // 关闭连接,释放资源
            eventSource.close();
        });

        // 监听错误
        eventSource.onerror = function(err) {
            console.error("EventSource failed:", err);
            aiMessageElement.textContent += " [出现错误,连接已断开]";
            eventSource.close();
        };
    }
</script>

这段代码主要有如下的点:

  1. new EventSource(...):发起连接。
  2. eventSource.onmessage:这是主要的处理函数。每当收到一条 data: 消息,它就会被触发。
  3. aiMessageElement.textContent += token;:这就是「打字机」效果的精髓所在——持续地在同一个 DOM 元素上追加内容,而不是创建新的元素。
  4. eventSource.close():在接收到结束信号或发生错误后,务必关闭连接,以避免不必要的资源占用。

EventSource 的来源与发展

在 SSE 标准化之前,Web 的基础是 HTTP 的请求-响应模型:客户端发起请求,服务器给予响应,然后连接关闭。这种模式无法满足服务器主动向客户端推送信息的需求。为了突破这一限制,开发者们创造了多种「模拟」实时通信的技术。

  1. 短轮询:这是最简单直接的方法。客户端通过 JavaScript 定时(如每隔几秒)向服务器发送一次 HTTP 请求,询问是否有新数据。无论有无更新,服务器都会立即返回响应。这种方式实现简单,但缺点显而易见:存在大量无效请求,实时性差,并且对服务器造成了巨大的负载压力。
  2. 长轮询:为了改进短轮询,长轮询应运而生。客户端发送一个请求后,服务器并不会立即响应,而是会保持连接打开,直到有新数据产生或者连接超时。一旦服务器发送了数据并关闭了连接,客户端会立即发起一个新的长轮询请求。这大大减少了无效请求,提高了数据的实时性,但仍然存在 HTTP 连接的开销,并且实现起来相对复杂。
  3. Comet:一个时代的统称:在 HTML5 标准化之前,像长轮询和 HTTP 流(HTTP Streaming)这样的技术被统称为 Comet。 Comet 是一种设计模式,它描述了使用原生 HTTP 协议在服务器和浏览器之间实现持续、双向交互的多种技术集合。 它是对实现实时 Web 应用的早期探索,为后来更成熟的标准化技术(如 SSE 和 WebSockets)奠定了基础。

随着 Web 应用对实时性要求的日益增长,需要一种更高效、更标准的解决方案。

  • WHATWG 的早期工作:SSE 机制最早由 Ian Hickson 作为「WHATWG Web Applications 1.0」提案的一部分,于 2004 年开始进行规范制定。
  • Opera 的先行实践:2006 年 9 月,Opera 浏览器在一项名为“Server-Sent Events”的功能中,率先实验性地实现了这项技术,展示了其可行性。
  • HTML5 标准化:最终,SSE 作为 HTML5 标准的一部分被正式确立。它通过定义一种名为 text/event-stream 的 MIME 类型,让服务器可以通过一个持久化的 HTTP 连接向客户端发送事件流。 客户端一旦与服务器建立连接,就会保持该连接打开,持续接收服务器发送的数据。

SSE 的本质是利用了 HTTP 的流信息机制。服务器向客户端声明接下来要发送的是一个数据流,而不是一次性的数据包,从而实现了一种用时很长的「下载」过程,服务器得以在此期间不断推送新数据。

其返回内容标准大概如下:

event-source 必须编码成 utf8 的格式,消息的每个字段都是用”\n”来做分割,下面 4 个规范定义好的字段:

  1. Event: 事件类型
  2. Data: 发送的数据
  3. ID:每一条事件流的ID
  4. Retry: 告知浏览器在所有的连接丢失之后重新开启新的连接等待的事件,在自动重连连接的过程中,之前收到的最后一个事件流ID会被发送到服务器

在实际中,大概率不一定按这个标准来实现。对于一些重连的逻辑需要自行实现。

现在大部分的浏览器都兼容这个特性,如图:

参考资料:

  1. en.wikipedia.org/wiki/Server…
  2. learn.microsoft.com/zh-cn/azure…
  3. www.cnblogs.com/openmind-in…
  4. javascript.ruanyifeng.com/htmlapi/eve…

以上。

从架构师的角度来看 AI 编程带来的技术债务

在吹水群,聊到 AI 编程,OZ 大佬提到

感觉 AI 会写很多各种可能情况的无用代码?它不会调试,不知道外部模块调用返回的具体格式,就用一堆if else去处理,最后还没有处理对。

GZ 大佬也说到:

ai 写代码感觉太差了,不知道在写什么
会不会制造更难维护的屎山

大家现在都已经在 AI 编程的世界中畅游了,整个软件开发似乎正以一种前所未有的方式悄然发生。 Cursor、Windsutf、Trae、lovable 等等已经完全进入了当前软件开发的世界中。

AI 能够根据自然语言注释或上下文,瞬间生成代码片段、函数甚至整个模块,极大地提升了编码的「表面」效率。我们正迈入一个「人机结对编程」的新时代。

但是大佬们也开始担心其产生的一些可能产生的后遗症。

今天我们从架构师的角度来看 AI 编程可能会给我们带来哪些技术债务。

作为架构师,我们的职责是超越眼前的速度与激情,洞察长期影响和潜在风险。

当团队的开发者们沉浸在「Tab」键带来的快感中时,一种新型的技术债务正在无声无息地累积。这种债务不再仅仅是糟糕的设计或潦草的实现,它更加隐蔽、更具迷惑性,并且直接与我们赖以信任的开发范式相冲突。

1992 年 Ward Cunningham 首次提出了传统的技术债务,指的是为了短期速度而采取了非最优的、有瑕疵的技术方案,从而在未来需要付出额外成本(利息)去修复。

它通常体现在糟糕的代码、过时的架构或缺失的文档上。

然而,AI 技术债务的范畴远超于此。它深深根植于数据、模型、基础设施乃至组织文化之中,其「利息」不仅是未来的重构成本,更可能是业务决策的失误、用户信任的丧失、合规风险的爆发,甚至是整个 AI 战略的崩塌。

从大模型的本质上来看,「 AI 编程是一个基于海量代码数据训练的、概率性的“代码建议引擎”」。它的工作方式决定了其产生的技术债务具有全新的特点。我们可以将其归纳为三个相互关联的维度:微观的代码级债务、宏观的架构级债务,以及深层的组织级债务。

微观的代码级债务 ——「似是而非」的陷阱

这是最直接、也最容易被感知的债务层面,它潜藏在 AI 生成的每一行代码之中。

在传统编程逻辑下,代码是要写的,而在 AI 编程时,代码是生成的,程序员的作用不再是写代码,而更多的是读代码,审核代码。

AI 生成的代码通常语法正确,甚至能够通过单元测试,但其内部逻辑可能存在微妙的、难以察觉的缺陷。例如,它可能选择了一个在特定边界条件下有问题的算法,或者「幻觉」出一个不存在的 API 调用,甚至在一个复杂的业务流程中,遗漏了一个关键的状态检查。这些 Bug 不再是明显的语法错误,而是「看似正确」的逻辑陷阱。

AI 编程减少了写代码的需要的认知成本,但是极大提升了读代码的心智负担。我们不仅仅要检查代码是否符合规范,还需要检查是否满足需求,以及是否在业务逻辑上完备。如果我们没有管这些问题,将来就可能是一个定时炸弹,隐藏在线上,不知道哪天会爆。

我们知道,AI 的知识来源于其训练数据——通常是海量的开源代码。因为 AI 倾向于生成「最常见」或「最流行」的解决方案,而不是针对当前上下文「最合适」的方案。它可能会引入一个庞大的库来解决一个小问题,或者使用一个过时但常见的编程范式,而不是团队正在推广的、更现代的模式。

这是 「设计熵增」的债务。它会持续不断地将外部的、非标准的、可能是平庸的设计模式注入我们的系统。长此以往,系统的技术选型会变得混乱,代码风格会变得不一致,精心设计的架构原则(如轻量级、高内聚)会被一点点侵蚀。我们必须警惕这种「随波逐流」的设计倾向。

每一行 AI 生成的代码,都应被视为一个来源不明的「外部依赖」。因为 AI 生成的代码片段可能悄无声息地引入了新的第三方依赖。更危险的是,它可能复现了其训练数据中包含的、有安全漏洞的代码模式(例如,不正确的加密实现、SQL 注入漏洞等)。此外,它生成的代码可能源自某种具有严格传染性的开源许可证(如 GPL),而团队并未意识到,从而引发法律合规风险。

为此,我们需要建立机制,自动扫描这些代码中的安全漏洞(SAST)和许可证合规问题。我们需要推动一种「零信任」的代码审查文化:开发者对任何由 AI 生成并最终提交的代码,负有 100% 的理解和责任。

宏观的架构级债务 ——「无声」的侵蚀

如果说代码级债务是「树木」的问题,那么架构级债务则是「森林」的水土流失。这种债务更加隐蔽,破坏性也更大。

如过往我们已经有一套优雅的微服务架构,定义了清晰的通信协议(如 gRPC)、统一的错误处理机制和标准的日志格式。然而,在使用 AI 编程时,为了快速实现一个功能,可能会接受一个使用 RESTful API、采用不同错误码、日志格式也千差万别的代码建议。单次来看,这只是一个局部的不一致,但当团队中数十个开发者每天都在这样做时,整个架构的一致性就会被破坏掉。

这是由于 AI 编程缺乏对我们「项目级」或「组织级」架构约定的认知而导致的,AI 编程是一个无状态的建议者,不理解我们系统的顶层设计。偿还这笔债务的成本极高,可能需要大规模的重构。架构师的核心挑战,从「设计」架构,扩展到了如何「捍卫」架构,防止其在日常开发中被无声地侵蚀。

AI 编程非常擅长生成「胶水代码」——那些用于连接不同系统、转换数据格式的脚本。这使得开发者可以轻易地在两个本应解耦的模块或服务之间建立直接的、临时的连接,绕过了设计的网关或事件总线。系统的模块化边界因此变得模糊,耦合度在不知不觉中急剧升高。

这是一种「捷径」。AI 让走「捷径」的成本变得极低,从而放大了人性中寻求最省力路径的倾向。架构师需要提供同样便捷、但符合架构原则的「正道」。例如,提供设计良好、文档清晰的 SDK、脚手架和标准化的 API 客户端,让「走正道」比「走捷径」更轻松。

从领域知识的角度来看,AI 可以从文档和代码中了解到一些,但是可能做不到完整的理解。

软件的核心价值在于其对复杂业务领域的精确建模。我们需要给 AI 以某种方式注入领域知识,如通过维护高质量的、富含领域术语的内部代码库和文档,来「引导」或「微调」AI 模型,使其建议更具上下文感知能力。

深层的组织级债务 ——「温水煮青蛙」的危机

这是最深层、也最关乎未来的债务,它影响的是人与团队。

当我们严重依赖 AI 编程时,会慢慢失去思考力和对代码的掌控力。

如果初级开发者过度依赖 AI,习惯于「提问-接受」的工作模式,而跳过了学习、思考和调试的艰苦过程。他们能够快速「产出」代码,但对底层原理、算法选择、设计权衡的理解却越来越肤浅。知其然不知其所以然,长此以往,团队成员的平均技能水平可能会停滞甚至下降。

这是团队的「未来」债务。我们在用未来的能力,来换取今天的速度。一个团队如果失去了独立解决复杂问题的能力,其创造力和韧性将不复存在。架构师需要倡导一种新的学习文化,将 AI 视为一个「助教」或「陪练」,而不是「枪手」。例如,鼓励开发者不仅要采纳 AI 的建议,更要尝试用自己的方法实现一遍,或者让 AI 解释它为什么这么写,并对解释进行批判性思考。

我们过往会用代码行数或者功能交付速度等指标来衡量团队的生产力,当有 AI 编程后,这些传统指标会得到巨大的提升,一天生产几千行代码是常事了。管理者可能会为此感到满意,但实际上,系统内部的技术债务正在快速累积,维护成本和风险也在同步攀升。

这是「技术管理」债务。我们需要建立新的、更能反映真实工程质量的度量体系。例如,关注代码的「可变性」(修改一个功能需要触碰多少文件)、「圈复杂度」、单元测试覆盖率的「质量」(而不仅仅是数量),以及 Code Review 中发现的深度问题的数量。架构师需要向管理层清晰地阐释 AI 编程的「债务风险」,推动建立更成熟的工程效能度量。

AI 编程助手是这个时代给予软件工程师最强大的杠杆之一,它有潜力将我们从繁琐的样板代码中解放出来,去专注于更具创造性的设计和思考。然而,任何强大的工具都伴随着巨大的责任和风险。

作为架构师,我们不能成为新技术的「勒德分子」,也不能成为盲目的「技术乐观派」。我们的角色,是确保这个强大的杠杆,成为放大我们架构意图和工程卓越的「放大器」,而不是制造技术债务的「复印机」。

这要求我们重新思考架构师的职责:我们不仅是蓝图的绘制者,更是蓝图的守护者;我们不仅要设计优雅的系统,更要设计能让优雅得以延续的「开发体系」;我们不仅要关注技术,更要塑造文化。通过建立清晰的规则、打造坚实的工程护栏、培育健康的开发者文化,我们才能确保,在 AI 赋能的未来,我们构建的软件系统,不仅跑得更快,而且走得更远、更稳。

以上。