“人类注定会越来越依赖AI,哪怕它依旧改不掉产生幻觉的毛病。”
✎作者 | 石鸦
✎编辑 | 腾宇
当AI告诉你,“努力就能成功”是一种常识,你的第一反应是什么?
詹姆斯·马尔登(James Muldoon)会告诉你:别傻了,那只是加利福尼亚白人男性的价值观。
(图/詹姆斯·马尔登)
这是牛津互联网研究院研究员,同时也是社会学家的马尔登,在走访了6大洲,采访了200多位AI从业者后得出的结论。但人类注定会越来越依赖AI,哪怕它依旧改不掉产生幻觉的毛病。
而AI制造的最大的幻觉便是:AI只是个观察者,没有情绪,没有立场,只是在处理信息,只是在给出客观的答案。
真是如此吗?要知道,那些看上去轻巧、流畅、几乎不知疲倦的回答,压根不可能凭空发生。AI吃电、吃水,更会“吃人”。
从采集、清洗、标注,到训练、部署、维护,AI每变聪明一点,都是靠无数人类,拿着人类自己生产的,充斥着特定种族气质的“AI养料”,一口一口喂出来的。
因此,马尔登真正关心的,也从来不是公众喜闻乐见的末日式的问题——AI明天会不会觉醒、会不会统治世界、会不会毁灭人类。他更想追问,到底是谁在给AI定三观?谁在靠它赚钱?谁又在为它买单、付出代价?为什么算法不仅没消除偏见,反而把旧有的歧视、偏见、不平等,包装得更冷静和体面,再重新塞给人类?
《投喂AI:人工智能产业的全球底层工人纪实》
作者: [英]詹姆斯·马尔登 (James Muldoon) / [英]卡勒姆·坎特 (Callum Cant) / [英]马克·格雷厄姆
出版社: 中信出版社
出版年: 2025-10-1
这正是马尔登在《投喂AI》一书的写作中重点关注的话题。基于他的研究领域和这本书,我们聊了聊关于AI的种种话题。
AI时代,
普通人注定离真相越来越远
《新周刊》:当AI说“这是常识”的时候,这个常识到底是谁的常识?
马尔登:它说的往往不是全人类的常识,而是由美国主导的、英语互联网中产精英圈层的常识。谁提供数据,谁设计模型,谁就能定义AI的世界观。
先说数据,目前我们使用的数据集,在很大程度上是由西方的受众和消费者构建的,其设计的主导者大多来自美国,以至于模型的设计方式甚至在无意识中都在推崇一种西方、现代中期的理性世界观。
再看模型。模型怎么训练,什么回答算好,什么内容过于敏感需要屏蔽,什么价值被默认为“正常”“安全”“理性”,这些都是开发团队定的。而今天最强的一批基础模型,主要还是美国科技公司在做,所以它们天然更容易带着美国科技行业那套世界观。
《新周刊》:这会导致什么结果?
马尔登:这些价值观会强化我们从广播、电视到互联网等所有技术媒介中看到的等级制度和不平等现象。因此,当我们在AI中重现这种情况时,实际上是在加倍强化原本就存在的不平等现象。
当然,现在很多模型也在加入中文、阿拉伯语、印地语、西语等更多语料,所以它们不是纯粹的“加州白男”的脑子。但在主流闭源模型里,它们的底色仍然非常接近美国主导的英语世界主流认知。
《新周刊》:所以在AI时代,以往文化中的种种偏见,注定会被加深?
马尔登:我不反对“用AI减少偏见”这个想法。理论上它确实可能成为一个很有用的工具,前提是你得主动去找,主动去问,主动去对照。问题在于,大多数人并不会这样去用AI,大家的日常使用更像是被动接收,而不是主动探索。
现实里AI最主要的用途,不是用来训练公众的批判性思维,而是被组织用来做推荐系统,去提高用户在平台上的停留时间和互动量。你要提升互动量,最有效的方法往往不是给人更准确、更全面的信息,而是给人更极化、更刺激、更容易让人愤怒的内容。愤怒会让人停不下来,会让人不断刷新,不断争吵,不断继续看。它很让人上瘾,也很有对抗性,正适合平台的商业目标。
当然,我并不否认新技术对人也有解放的一面,它让更多人更容易去追问、去核对、去反驳,至少让一部分人,降低了“查证”这件事的门槛。以前你需要会搜索、会翻译、会读长文,甚至可能需要一些别的路径,现在更多人可以直接追问信息的原始出处、对照不同版本,把结论拆开再看一遍。从这个意义上说,它确实让求证和批判性思考变得更“民主”了。
《新周刊》:这一轮AI竞争,说到底是不是“有钱人的游戏”?
马尔登:很大程度上,是。
这一轮AI迭代浪潮和过去几轮互联网创新浪潮最大的不同在于,它不是先靠一个好产品起家,而是先看你有没有足够多的钱、算力和基础设施。
想做一个真正有竞争力的基础模型,成本非常高。不是几个人写代码、做个App、拉一批用户就能成。你得先有芯片,有服务器,有训练数据,还要能承担一次次试错的成本。真正往上走,花的往往都是几千万、几亿美元,甚至更多。很多时候,你还没见到用户,钱已经先烧掉了。所以现在你会看到一个很现实的局面:表面上是AI初创公司在竞争,背后拼的还是大公司的资源。
《新周刊》:那么,当大平台控制信息的记录、存储和共享方式时,真相是否变得更容易被改写?
马尔登:在我写《平台社会主义》(Platform Socialism)时就一直在强调,平台早就不是中立的“工具”了,它们更像我们数字生活的基础设施,但却被少数公司当成私产来运营,连规则本身都由这些公司说了算。一旦它们控制了哪些内容能被留下、能被检索、能被传播,所谓“真相”就很容易变成一种数据库操作: 不用造假,改一下排序权重,降一下可见度,关掉某些接口,或者把一段历史从推荐和搜索里慢慢擦掉,公众记忆就会跟着被改写。更现实的是,这种控制还会延伸到数据的占有和提取,它们甚至能通过掌控关键基础设施来获取更大范围的数据来源。
《新周刊》:如何理解“AI 不会让真相更容易消失,但让假装真相的东西更容易流行”这个观点?
马尔登:AI最吓人的地方也不只是“能造假”,更是它让“编排事实”这件事工业化了,速度更快、成本更低,风格还更像人,连你自己都分不清自己是在听分析,还是在被牵着鼻子走。更麻烦的是,信息本来就不是按“真不真”来分发的,而是按“你会不会停下来”来分发的,AI一旦接上算法,信息茧房就更容易被制造了。AI让你以为自己在看世界,其实你在看的是一个为你定制的版本。
最后的结果可能很荒诞:不是谎言战胜了真相,而是“太像真的东西”淹没了真相,于是AI 可能会使人们对信息的辨别更加有难度。
《新周刊》:那普通人还有更便捷的方式来保护自己吗?
马尔登:养成一个习惯——看到新信息先慢一点,先保持怀疑。你不需要一上来就去做很复杂的核查,先问几个很基础的问题就行:这是谁做的内容?他可能想达到什么效果?他为什么要用这种方式讲?然后再补一点基本常识,知道媒体和平台是怎么运作的,尤其是推荐算法是怎么做的。很多时候你以为自己在“看新闻”,其实你是在看平台挑出来的、最容易让你停留和产生情绪波动的东西。
中国AI更“I”,美国AI更“E”?
《新周刊》:如果把语言模型比作人,有人觉得美国的大模型更E,中国的大模型更I,你觉得呢?
马尔登:差不多。我与一些中国同事就中国的数据标注和人工智能开展调研之后发现,中国的项目往往比美国的项目更具独立性。美国的供应链在一定程度上更加全球化,因为它们涉及更多的外包,而中国倾向于将数据留在国内,最终形成了一种相对独立的情况。
《新周刊》:“AI竞赛不像奥运会设金、银、铜牌。这场比赛只有金牌和银牌,这两块奖牌属于中美两国”,你认可这个观点吗?
马尔登:如果只看资本、顶尖公司、研究能力和人才密度,美国和中国确实还是(在这场竞赛中)最靠前的两个国家。但我不太认同“金牌银牌”这种说法,因为它把一场很复杂的博弈,又理解成了二元叙事。美国和中国都在争夺技术领先,也都在把别的国家、企业、供应链、科研网络拉进来,形成各自的技术阵营。AI不只是“谁更聪明”的问题,它同时牵扯经济竞争、军事实力、产业控制力和地缘政治影响力,所以你很难用金银牌这种单线逻辑讲清楚全局。
另外,还有一个常被忽略的点: 即便同样在做AI,美国和中国对“为什么要做、要用来做什么”这件事的理解也不一样。因为两国在对自己在世界上的位置、政府在社会和产业里应该扮演的角色等问题上的判断有所不同,这些基本判断不同,最后会体现在AI的发展路径、治理方式和优先级上。总之,领先者确实是这两个国家,但你要理解,这是一盘棋,不是一场百米赛跑。
《新周刊》:在这盘AI棋局里,你如何判断一个国家赢面最大?
马尔登:在AI竞争里,资源当然重要,但真正拉开差距的,未必是谁手里东西更多,而是谁更会用手里的东西。过去很多人会把这场竞争理解得很简单,觉得只要有更多芯片和更多数据,就一定能做出更强的模型。
美国现在对中国做的很多限制,也正是基于这种判断,比如限制最先进芯片和相关技术的出口。但是DeepSeek告诉我们,芯片并不是赢得AI竞赛的主要因素,这其中还涉及模型如何训练,中国或许在这方面更有优势。
《新周刊》:具体是哪些优势?
马尔登:中国的企业虽然会在某些方面有不少限制,但它们同时也能拿到大量资金支持,也有比较明确的政策扶持。因为在中国,AI不只是一个商业赛道,它还被放在更高的战略位置上。这样一来,人才、资本、基础设施和产业资源,就更容易往这个方向集中。
《新周刊》:还有什么更有趣的发现吗?
马尔登:在美国,AI女友非常受欢迎,而在中国,人们更倾向于拥有AI男友。
真正的艺术家,不会被AI取代
《新周刊》:有一种观点认为,AI越来越强以后,人类标注很快就会过时,模型会自己标、自己学、自己迭代。
马尔登:我不太认同。原因很简单,模型越复杂,越需要高质量的数据和更细致的人工反馈。很多工作不是机器能不能生成结果的问题,而是需要生成什么样的结果,以及谁来对这个结果负责。
所以未来5年,我不觉得数据标注员会消失,更可能发生的是任务变化,而不是岗位消失。他们可能不再只是做最基础的标记,而是会更多地参与筛选、纠错、质检,以及更复杂的训练支持。
《新周刊》:你曾说过,如果10年后重写这本书,你最希望过时的内容,就是“数据标注员”这部分,为什么?
马尔登:我最担心的是,这份工作会继续存在,但却是以一种很不体面的方式存在。尤其是内容审核。世界上仍有很多数据标注员每天都在替平台看最恶心、最暴力、最不该反复看的内容,替互联网做清洁,但他们得到的报酬、保障和尊重,往往远远不够。
《新周刊》:我们聊回AI带来的风险吧,你认为哪些对AI普遍的担忧实际上是不必要的,哪些又是必要的呢?
马尔登:大概在2023年的时候,大家都在担心AI会变得具有超人般的智能并接管世界。当时大家都在谈论这种反乌托邦的想象情景,事实证明这只是人们抱有的一种离奇的、基于猜测的怪异恐惧,而这种恐惧并没有真正基于当时AI的发展现实。毕竟,当时它甚至连一些单词都拼写不对。语言模型没有意识,它们没有感知能力。
而我在书中提出的一系列问题要紧迫得多。我就给你列举前三项:
第一,是AI基础设施对环境的影响。它消耗多少电力、多少水资源,以及创建数据中心、超大规模数据中心、计算机芯片和AI芯片需要开采多少关键矿物和采用哪些新的开采方式。
第二,是供应链的类型以及投入其中的隐性人力劳动,也就是创建AI、训练模型以及基本上本书所涵盖的所有内容所需的数百万人力。
第三,我认为我们应该关注的主要问题是,在获取知识、资源,和在网络等方面存在的各种全球不平等现象,而AI似乎只会强化和凸显这些不平等。实际上,所有极其富有、极其有权势和享有特权的人,都在寻求进一步增强权力、获取更多特权,并将AI作为实现这一目标的工具。实际上,这就是AI的工作方式。
所以我不太担心AI会突然像电影里那样觉醒,我更担心的是,它在没有引起足够警惕的情况下,已经开始帮最有权力的人把优势变得更稳固了。
(图/《投喂AI:人工智能产业的全球底层工人纪实》)
《新周刊》:那你认为AI会在多久之内取代学者和创作者?
马尔登:这不会发生的。虽然AI真正擅长的是对现有知识进行总结,当它必须执行这类任务时,我给它打9分(满分10分)。我总能100%确定学生是否在使用AI,因为AI在表达观点和总结思想的方式时,都有相似的语气和自信程度。
但AI仍然存在不足的地方,它无法提出真正新颖、有趣的对世界的见解。这些见解本应反映人类体验的基本方面以及它在当今的变化,但AI没有体验,只有数据,它并不生活在现实世界中。因此,它无法从全面、具身、存在主义的视角理解作为人类真正重要的是什么。
《新周刊》:如果有了世界模型,会不会不一样?
马尔登:它当然会让AI变得更强,尤其是在理解物理环境、预测变化、处理复杂任务这类事情上,能力会往前走一大步。但AI本质上还是在根据已有数据去总结模式、做预测、反复试错。
它可以越来越擅长模拟这个世界的运行方式,但这不等于它真的拥有了人的那种理解能力。人的理解里有经验、有情境、有目的感,也知道自己为什么要这么做。而AI就算能把环境建模得再像,对事物模拟得再像,它也只是在算概率、对答案。它能猜出你想听什么,但它根本不知道自己在说什么。
《新周刊》:但事实是,现在很多AI生成的画作,甚至是网络小说,普通读者已经分不清它们与人类作品的区别了,我们强调“人的主体性”是否只是一种自我安慰?
马尔登:没错,在技术层面,AI的拟态已经达到了巅峰。但艺术远不止于画一张“漂亮的画”或讲一个“通顺的故事”。
艺术的灵魂在于“意图性”。当一个艺术家落笔时,他是在试图对世界说些什么,那背后是个体的生命史、价值观和对时代的抵抗。如果AI画了一座房子,仅仅是因为它的数据集中有成千上万座类似的房子,那么这种美就是空洞的,它廉价化了艺术的体验。
《新周刊》:你允许你的学生用AI写论文吗?
马尔登:这由不得我允不允许。对于学生自己来说,这要看你写论文的目的是什么。 如果你写论文只是为了交差,那AI当然可以很快帮你拼出一篇东西。
但如果你写论文是为了学习,那完全交给AI,其实就是在骗自己。因为写论文最重要的,不只是交出一份结果,而是在这个过程中学会提问题、找材料、做判断,慢慢形成自己的分析能力。
这些能力,才是教育真正想训练你的东西。以后你看新闻、刷短视频、接触各种新信息时,靠的也是这些能力,去判断它是真是假,它背后有什么立场,又省略了什么。所以我的看法不是“绝对不能用AI”,而是不能让AI代替你思考。