AIGC

BFF的谎言:为什么前端团队不应该拥有后端代码

BFF(Backend For Frontend)这个概念被讨论了很多年,大部分文章都在讲它的好处:给前端更多控制权、减少沟通成本、提升迭代效率。但我想说点不一样的:BFF可能是过去十年最被滥用的架构模式,它给很多团队带来的不是效率提升,而是隐性灾难

这个判断可能有争议,但基于我多年全栈实践的观察,大部分公司的BFF实践都走偏了。问题不在于BFF本身,而在于一个看似合理但实则危险的假设:前端团队应该拥有和维护BFF代码。

 

谁在真正维护BFF

 

先说个常见场景。你们公司引入了BFF架构,用Node.js写,部署在前端团队的代码仓库。最开始确实很爽,需要什么接口自己写,数据格式自己定,不用等后端排期。

三个月后,问题来了:
- 后端换了新的认证方式,BFF层要同步升级
- 用户反馈接口偶尔超时,排查发现是BFF内存泄漏
- 运营要做数据统计,需要在BFF加审计日志
- 监控告警BFF的某个依赖包有安全漏洞
- 后端要做灰度发布,BFF要配合调整负载均衡策略

Node.js BFF层的三个认知误区:不只是接口转发

很多团队在引入 Node.js 做 BFF(Backend for Frontend)层时,都会陷入一个误区:把它当成简单的接口转发器。写几个路由,调用后端 API,拼装数据,返回给前端,就算完成任务了。

这种理解不能说错,但实在太浅。

我见过不少团队的 BFF 层,最后都沦为"接口透传中间件"——前端要什么数据,就透传什么接口;后端改了接口,前端也跟着改。这样的 BFF 层除了增加一层延迟和维护成本,没有创造任何价值。

今天想聊聊三个常见的认知误区,以及 BFF 层真正应该做什么。

 

误区一:BFF 只是为了"聚合接口"

 

很多人认为 BFF 层的核心价值是"把多个后端接口聚合成一个"。比如一个页面需要调用用户信息、订单列表、推荐数据三个接口,前端调三次太慢,所以在 BFF 层写个聚合接口,一次性返回所有数据。

这个思路听起来很合理,但问题在于:聚合只是手段,不是目的

真正的目的是什么?是为前端定制适合它的数据结构和粒度。

AI编程工具的分野:OpenClaw、Hermes Agent与Claude Code

最近半年,AI编程工具层出不穷。从GitHub Copilot开始,到Cursor、Claude Code、OpenClaw、Hermes Agent,每个都说自己是"下一代编程方式"。

用了几个之后发现,这些工具看起来都是"AI帮你写代码",实际上解决的问题完全不同。

这不是功能对比,是设计理念的分野。

 

三种不同的定位

 

先说结论:OpenClaw、Hermes Agent、Claude Code 虽然都叫"AI编程工具",但定位差异巨大。

OpenClaw:开源、可定制、工程师导向。

核心理念是"把AI当工具"。你可以自己部署、自己调教、自己定义workflow。它不是一个产品,更像是一个框架。

适合人群:愿意折腾、对隐私敏感、有特殊需求的团队。

Hermes Agent:自动化、任务导向、减少人工干预。

核心理念是"把AI当助手"。你下达一个任务,它自动拆解、执行、验证。你不需要一步步指导,它会自己判断下一步做什么。

适合人群:希望提高效率、不想深入细节、任务明确的场景。

技术选型的真相:为什么最后总是选那几个

每次做技术选型,团队都会认真调研:列出五六个候选方案,做技术对比表,分析优缺点,开会讨论半天。最后呢?React、TypeScript、MySQL、Redis,还是那几个。

新人会问:"为什么不试试XX框架?它的性能更好啊。"老人会说:"稳妥起见,还是用主流的吧。"

技术选型最大的谎言是:我们在做技术决策。实际上,大部分时候我们在做风险决策。

 

技术选型的三个阶段

 

做了很多年技术,观察到一个有意思的现象:工程师对技术选型的态度,会随着工作年限发生变化。

刚入行时,看到新技术就想用。看到有人在用Vue 3,立刻想在项目里试试;看到Rust很火,马上想重写服务;看到某个数据库号称性能是MySQL的10倍,恨不得立刻迁移。

这个阶段的特点是:只看优点,不看成本。

工作几年后,开始变得谨慎。新技术出来不会马上跟,会等社区成熟、生态完善、踩坑的人多了再考虑。这时候的决策标准是:技术是否成熟、团队是否掌握、是否有成功案例。

这个阶段的特点是:看优点也看缺点,但忽略了隐性成本。

管理团队和教育子女:被低估的相似性

博客分类: 

在技术圈混久了,发现一个有趣的现象:那些把团队管得很好的技术Leader,往往在子女教育上也有一套。反过来,那些在团队管理上焦头烂额的,当了父母后也容易陷入同样的困境。

这不是巧合。管理团队和教育子女,底层逻辑是一样的:都是在试图影响另一个独立个体的行为。

只不过,在团队里你可以炒人,在家里不行。

 

控制的幻觉

 

见过很多技术管理者,刚升职时会犯一个错误:觉得"我是Leader了,我说了算"。于是开始制定各种规范、流程、制度,试图让团队按照自己的意图运转。

三个月后发现不对劲:表面上大家都遵守规则,实际上阳奉阴违。能偷懒就偷懒,能应付就应付,遇到问题第一反应是"这不在我职责范围内"。

为什么?因为把人当成了机器,以为输入指令就能得到预期输出。

人不是代码,不会严格按照你的逻辑执行。

子女教育也一样。很多父母觉得"我是家长,孩子就该听我的"。于是制定各种规矩:几点睡觉、看多久电视、周末上什么兴趣班。孩子小的时候可能还管用,到了青春期就会发现,你说什么他都反着来。

本质上都是"控制的幻觉"——以为通过规则和权威就能让对方按你的意愿行事。

一个前端老兵眼中的AI时代

在金融科技公司做了很多年前端,经历过几轮技术变革。从移动端崛起、SPA框架盛行,到微前端、Serverless,每次都有人说"前端要变天了"。现在轮到AI了,焦虑又开始蔓延。

但我的观察是:大部分前端开发者高估了AI的威胁,低估了自己的价值。

 

这次真的不一样吗?

 

先说个场景。我们在做理财产品详情页改版时,产品经理提了个需求:"能不能感知用户的疑虑,在适当的时候主动给出回答?"

听起来很AI,对吧?但落地时发现,金融产品的风险提示有严格的合规要求:哪些话能说、哪些不能说、如何表述、字号大小、颜色对比度,全部有监管规定。AI生成的回答可能很流畅,但不能直接上线,必须经过合规审核、法务确认、AB测试验证。

最后怎么做的?我们用AI做语义理解和意图识别,但回答内容是预设的合规话术库,前端负责整个交互流程、异常处理、埋点监控、合规展示。这个需求,AI解决了一部分问题,但核心的业务理解、风险控制、用户体验,还是要靠人。

AI时代和以往技术变革最大的不同:它不是替代某个技术栈,而是改变了生产方式。

TypeScript的两面性:类型安全与开发效率的永恒博弈

TypeScript 在过去十年中从一个"有争议的实验"成长为前端开发的事实标准。根据 2025 年 State of JS 调查,超过 78% 的开发者在生产环境中使用 TypeScript。但与此同时,反对 TypeScript 的声音也从未消失——从 Svelte 宣布移除 TypeScript,到 Turbo 团队从 TypeScript 迁移回 Go,再到无数开发者在社交媒体上抱怨"类型体操"。

这种矛盾现象值得深思:为什么一个被广泛采用的技术,却始终伴随着强烈的质疑声?问题的核心不在于 TypeScript 本身的好坏,而在于我们如何看待软件开发中类型安全与开发效率之间的权衡。

 

类型系统的承诺与现实

 

TypeScript 的核心承诺是通过编译时类型检查,在代码运行前捕获潜在错误。这个承诺听起来很美好,但现实往往更复杂。

 

承诺:编译时捕获错误

 

支持者最常引用的论证是:"TypeScript 能在编译时发现 bug,避免运行时错误。" 这个论点确实有数据支撑。微软的一项研究显示,TypeScript 可以预防约 15% 的提交到主分支的 bug。听起来不错,但我们需要问一个更深层的问题:这 15% 的 bug 值得付出多大的代价?

技术债务的真相:不是代码问题,是决策问题

最近在一次技术评审会上,我听到一位工程师说:"这段代码已经成为技术债务了,我们需要重构它。"当我追问为什么时,他回答:"因为写得很烂,难以维护。"

这是一个典型的误解。技术债务从来不是代码写得好不好的问题,而是在特定时刻做出的理性决策。把技术债务等同于"烂代码",就像把信用卡债务等同于"乱花钱"——你完全忽略了债务背后的战略选择。

一、重新定义技术债务

Ward Cunningham 在 1992 年提出"技术债务"这个概念时,他的本意是:为了更快交付价值,有意识地选择了一个不够完美但足够好的技术方案,代价是未来需要额外的工作来改进它。

注意三个关键词:

  •  
    1. 有意识:这是一个深思熟虑的决策,不是偷懒或能力不足
    2. 足够好:当前方案能够满足业务需求,只是不够理想
    3. 未来代价:团队清楚知道这个选择的长期成本

然而在实践中,我们常常把四种完全不同的东西都叫做"技术债务":

 

API 设计的哲学:为什么 REST 和 GraphQL 都不是答案

> "工具本身从来不是问题的答案,理解问题才是。" —— 未署名的架构师

引言:一场永无止境的争论

在技术社区里,关于 API 设计的争论从未停止。REST 的支持者会告诉你:"遵循 RESTful 原则,你的 API 就会优雅、可扩展。" GraphQL 的拥趸则反驳:"单一端点、精确查询、类型安全,这才是现代 API 的未来。"

但如果我告诉你,这场争论本身就是一个错误的问题?

真正的问题不是"应该选择 REST 还是 GraphQL",而是我们为什么需要在两种范式之间做非此即彼的选择?更深层次的问题是:我们是否真正理解了 API 设计背后的本质问题?

REST 的谎言:资源导向的美丽陷阱

REST(Representational State Transfer)在 2000 年由 Roy Fielding 提出时,是一个革命性的概念。它将 Web 服务抽象为"资源"的集合,通过标准的 HTTP 方法(GET、POST、PUT、DELETE)进行操作。听起来很完美,对吧?

度量的陷阱:为什么大多数工程效能指标都在说谎

博客分类: 

在一次技术管理者的闭门会议上,一位 CTO 分享了他们公司的"成功经验":通过跟踪每个工程师的代码提交量和故事点完成数,他们将团队产出提升了 40%。台下掌声雷动。

三个月后,这家公司的核心产品因为技术债崩溃,两位资深工程师离职,留下一句话:"我不想在一个把我当成代码工厂的地方工作。"

这不是个案。在"数据驱动"的大旗下,工程效能度量正在变成一场全行业的自我欺骗。我们用精确的数字掩盖了对复杂性的无知,用短期的增长牺牲了长期的健康。更危险的是,当度量本身成为目标,我们就陷入了古德哈特定律(Goodhart's Law)的经典困境:当一个度量成为目标时,它就不再是一个好的度量。

一、我们在度量什么:从代码行数到 DORA

工程效能度量的演进史,本质上是管理者与工程师之间信息不对称的博弈史。

1.1 原始指标时代:数数字的快乐

早期的度量极其粗暴:

页面