自打OpenAI的ChatGPT问世以来,关于AI冲击职场可能会导致大家失业的声音就不绝于耳。经过这几年的迭代,如今AI在能力上也迎来跨越式发展,因此越来越多企业开始尝试将其引入工作流。
比如,亚马逊正计划实施该公司史上最大规模的裁员,将一次性裁撤超过3万名员工,原因则是他们开始使用AI来完成原本由人类执行的任务。事实上,亚马逊的这一决策并非孤例,尝试用AI代替人类以降本增效的情况在各国此起彼伏。
然而AI真的能代替人类吗?日前人力分析公司Visier发布了2025年的就业与招聘报告,对全球142家公司、共240万员工的就业数据进行分析,结果发现被裁员工中约有5.3%后续会再次被原雇主聘用。事实上,这一比例自2018年以来相对稳定,但近两年明显上升,且呈现出加速爬升的态势。
Visier将这种情况形容为“企业与AI之间的冷静期”,反映出企业面对AI工具实际能力和局限性的现实。尽管一些公司在引入AI后,确实能在部分流程提升效率,但真正的问题在于AI通常只能接管任务,而不是接管岗位。并且搭建AI基础设施,包括硬件、数据系统,以及安全框架,都需要大量资金的投入,而这些支出的实际费用往往会远超预算。
于是,当AI无法顺利接入工作流后,企业就只能重新召回被裁员工。这就好比当初马斯克入主X时也进行了大逃杀式的裁员,可X却直接陷入瘫痪,后续马斯克被迫重新将被裁的骨干给请回来。
无独有偶,今年夏季麻省理工学院(MIT)发布了题为《The GenAI Div,ide:STATE OF AI IN BUSINESS 2025》的AI产业研究报告。其中MIT指出,95%的企业AI投资实际上未能产生经济效益,并被困在“高投入、零回报”的困境中。有企业主表示,“领英上满天飞的AI革命,在我们这里仅仅体现为合同处理速度加快了些,本质上什么都没改变。”
有趣的是,世界经济论坛的相关研究表明,50%到60%的典型初级任务(报告起草、研究综述、代码修复、日程安排、数据清理)已经可以由AI完成。可是理论与现实为何会出现偏差呢?即使抛开零售、能源、工业制造、农业等传统行业,在科技、媒体领域AI的表现也不尽如人意。
如今AI在大规模取代岗位的同时,却又为人类创造了新工作,来清理AI留下的烂摊子。越来越多的设计师、写作者、数字艺术家不再是“从零创作”,而是弥补AI在复杂任务中不可避免的错误,即看起来像完成了工作的伪成果,也就是“AI工作垃圾”(Workslop)。
有海外大厂的员工就在领英上吐槽,Workslo就好像是垃圾食品,虽然看上去诱人,但缺乏营养、原创性和真实意义,并且他表示,“我不仅要花时间验证AI生成的报告,还要召开额外会议,与多个团队核实信息,最后只能亲自重写。”
然而遗憾的是,如今AI产生“垃圾”几乎不可避免,这是由AI大模型的底层逻辑所决定的。
由于AI吸收的知识体系是靠海量质量参差不齐的文本统计权重,而不是像人类一样、通过循序渐进的教育构建出来的强鲁棒性和平滑性的知识网络。以至于所谓的AIGC,其实是AI大模型从万亿参数组成的数据库中,围绕用户输入的关键词将内容进行排列组合再生成内容,而检索+拼接这一组合带来的结果就一定会出现与物理世界不一致的情况,也就是AI幻觉。
从某种意义上来说,目前AI无法胜任相关工作其实是一种另类的“知识诅咒”。诸如“一直觉得XX大V很厉害,直到他说到了我的专业”,这是互联网上网民吐槽大V翻车时常用的说法,毕竟没人是全知全能,所以就会在不熟悉的领域露怯。
但是有自知之明的人类往往只会在自己熟悉的领域高谈阔论,可AI就不一样了,因为它被创造出来的目的就是人类希望打造全知全能的工具。
尽管AI庞大的数据库使得它懂得很多,但是却存在幻觉。不仅如此,有相当多的人在使用AI时往往会给出一个模糊的目标,这就使得AI会在数以百万计符合条件的结果中选择。可一旦备选方案太多,能选中合乎用户心意选项的概率自然也就微乎其微了。
人类员工在修复AI工作结果时,相当于是不断给既有目标中添加约束条件,最终筛选出想要的结果。那么问题就来了,人类员工为什么不直接给AI设计一个结构化、标准化,且严谨的目标?其实答案是具备这种能力的高层次人才少之又少,毕竟当下许多企业使用AI是希望代替初级职位,而不是给自己找一个AI管理者。
总而言之,由于目前AI大模型的局限性,所以使用AI降本增效还是个伪命题,除了某些流程过于标准化的岗位,大家暂时还不必担忧自己会被AI取代。