在我的印象中,国内的 AI 发展比国际稍慢半拍,
记得在年初的时候,就看到各种新闻,国际大厂都在裁员,
但直到现在,国内的气氛才开始有些不对了。
在 AI 编程从逐渐火爆,到现在不可或缺的时候,
互联网开发岗位中,最先受到波及的,我想就是前端开发了。
最初是前端,用上了 Cursor,发现可以大幅提效。
到了最近,开始有后端用 AI 大量生成前端代码,
然后上线前,让前端再「调下样式」。
前端们自然知道,这肯定不是单纯的「调下样式」那么简单,
因为实际上,那些烂代码几乎不可用。
前端需要在 AI 生成的烂代码基础上,把功能重新实现一遍。
但不论网络上还是社区,都已经充满了相同的论调,
AI 已经足够强大,前端危矣。
当所有人都这么认为时,不好的风气就形成了,预期也随之改变了。
那么实际前端开发的状况,到底是怎样的呢,
在 AI 时代,前端还能做什么呢。
趋势不可逆
后端(甚至其他岗位角色)用 AI 生成前端代码,最后再让前端改一下,
这种趋势一旦形成,我认为是不可逆的。
虽然前端更累了,也不太想做这种「善后工作」,
但从全局来看,确实降本增效了。
既然有收益,那么一旦被人发现可行,就会沿袭下去。
所以前端可能得做好应对「调下样式」的大趋势。
历史好像是一个大的循环,
记得前端岗位刚开始存在时,就是这种工作状态。
但我认为即便如此,前端仍有存在的价值,因为 AI 生成的代码还不够好。
只不过危险的是,可能不再需要那么多前端了。
更需要有经验的,快速「调好」代码的前端。
人机交互
除了编码工作受到波及之外,
我认为影响更大的则是,前端的业务场景缩窄了,
并不需要那么多的「传统界面」了。
在 AI 时代,人机交互方式将发生改变,
通过鼠标「点击式」的交互方式,将转变为「对话式」。
之前采用「点击式」的原因是,计算机需要确定性的输入,
所以对人类的输入方式有所限制。
现在通过大模型,已经可以非常精准的识别到,自然语言中夹杂的预期输入了,
那么也就无需再「点击」了,通过自然语言「对话」即可(打字或语音,甚至视频都可以)。
在这种人机交互方式变更的过程中,肯定不再需要那么多「界面开发」工作了。
需要让计算机做什么,只需要一个对话框即可,
计算机做完后,用自然语言回复就行。
响应方式
虽然从人机交互视角来看,前端的界面业务缩水了,
但从用户体验角度来看,可能还有转机。
考虑特定用户与计算机的完整交互过程,通常分为两步,
首次访问系统,系统通常需要展示如何操作它,只显示一个对话框肯定不够友好。
与系统交互,用户虽然可以用自然语言询问,但是如果系统只能用文字回答,体验也不好。
所以说,人类对体验的追求是无止境的。
当前文字对话式的人机交互方式,就好比操作系统的 DOS 时代一样。
如果有可能,人们当然希望是图形界面的,需要可视化,或者多模态。
此外,不论前端代码是怎么生成的,仍然运行在浏览器中,
要想用 AI 动态生成「可用」的前端代码,还有很长的路要走。
更加深入来讲的话,大模型确实很强大,但它所提供的能力都是概率性的,
「确定性的功能」仍然需要编码来实现,然后让大模型去调用它(MCP 就是这个思路)。
这个思路,也很适用于前端场景。
既然当前很难让大模型直接生成「确定」的前端功能,
要想提高准确率,可以渲染已编写好的前端组件,AI 只要按需选择即可。
结语
综上,前端开发工作,肯定会受到影响。
影响最大的,是前端的工作重心。
不再是自己写代码了,而是改 AI 生成的代码(不管是谁驱动 AI 生成的)。
前端自己使用 AI 工具,理解海量代码,
然后将其他人用 AI 生成的代码,改成生产可用的。
交互界面上,迟早有一天,人们会对大模型的纯文本(或者 markdown)响应感到厌倦,
开始追求更好的体验。
这时候要么有一个「框架/规范/协议」出现,大模型可以按需渲染(不是低代码)。
要么 AI 已经足够强大到直接生成「可用」代码(比较难)。
未来已来,前端确实先迎来了这波冲击,
可唇亡齿寒,其他岗位还会远么。