- +1
郝珂灵谈《AI帝国》:“不用AI就被取代”是营销而非事实
在关注人工智能(AI)领域的第二年,郝珂灵(Karen Hao)对OpenAI进行了报道。文章发表在2020年,那是ChatGPT诞生的两年前。她当时没有想到,日后这家公司将会成为全球最重要的AI公司。
早年郝珂灵的采访聚焦在人工智能的发展对全球各地普通人的影响。在多次前往拉丁美洲和非洲各地实地采访后,她得出一个结论:AI行业本质上是殖民性的,并且殖民化正在加速。
在《AI帝国:OpenAI的权力冲突与人类的未来》一书中,她展现了殖民性的具象:在乌拉圭经历旱灾的时候,谷歌的数据中心每天消耗的饮用水相当于5.5万人的日用水总量,而地方政府开始将受污染的咸水混入城市的饮用水供应中;肯尼亚数据标注的廉价劳工每日面对各种非人的、暴力的细节,精神崩溃,家庭破裂。
在她最初报道的几年间,几乎没有人在讨论这些问题。 2022年,ChatGPT问世,立即在全球掀起轩然大波,OpenAI闯入了所有人的视野,也彻底改变了AI发展的格局。这次访谈一开始,郝珂灵回忆起那个时刻,她的图书经纪人问道:“ChatGPT的出现,会如何影响你的论点?”“毫无疑问,这会让情况严重恶化,”她回答道,“因为现在AI发展所需要的资源量是前所未见的。”
《AI帝国》讲述了OpenAI发展的历程,同时也呈现了这些AI公司在此历程中的抉择,如何造就了今日的格局,对人类社会造成深远的影响。AI的发展并不是科技发展的单纯结果,其中包裹着资本的选择、资源的消耗和攫取、劳动力的剥削,甚至于宗教信仰式的宣导。不同的AI开发者和公司在竞逐更快地开发出新的产品,而人类的隐私、知识产权、劳动权益等,在这个竞速游戏中逐渐被边缘化。
AI狂飙的代价,承受之人不分国界。
在此次访谈中,郝珂灵讨论了当前AI行业追求镜像模仿人类智能的迷思及其后果,AI帝国如何被铸造,以及这个时代的普通人能做什么。

郝珂灵
澎湃新闻:首先,我想谈谈我们现在对AI的理解。当我们在谈论很多AI相关的概念时,似乎是在谈论科学。例如,现在人们常提到 “通用人工智能”(AGI)是否马上到来,甚至已经开始谈论“超级人工智能”(ASI),好像AGI是一个有共识的概念,是AI的更高阶段。但我曾听不同的科学家谈论过AGI,这并不是概念清晰的东西,有些科学家甚至称其为营销话术。
你在书中追溯AI公司的发展历程时,这一点非常明显:曾被一些科学家视为伪科学的AGI,因为OpenAI等公司的反复宣扬,成了一种需要被实现的信念。现在我们所谈论的AGI这些概念,并不完全是科学的,而是被资本塑造的叙事。这一切是怎么发生的?
郝珂灵:很多人认为AGI是一种能匹配甚至超越人类智能的AI系统,因为各大公司一再重复提及这个概念。然而,我们并不清楚“人类智能”究竟是什么、它从何而来、如何衡量,怎么才算匹配人类智能。因此,对于实现AGI究竟意味着什么,存在着各种不同的构想。
OpenAI至少使用过四种或更多的定义。其网站上的定义是,能在大多数具有经济价值的工作中,超越人类表现的AI;而萨姆·奥特曼(Sam Altman)在国会听证会上表示,AGI是能够治愈癌症、解决气候变化的系统;在OpenAI与微软的合同中,AGI被定义为能实现1000亿美元营收的系统;与消费者沟通时,OpenAI则表示AGI将成为一个你梦寐以求的、能为你处理所有任务的数字助手。
这些定义并不连贯,它们是四种截然不同的概念。这意味着AGI只是一个修辞工具,它可以指代任何东西,以合理化为什么需要更多数据、更多土地、更多数据中心,为什么反对监管。
实际上,所有有关AI的定义,都在围绕1956年科学家们决定创立这个领域的初衷——他们当时的目标就是试图重现人类智能。如果你不光是问“什么是人类智能”,而是追问“为什么要重现人类智能”,你就会发现,这个最初的目标本身,并没有什么严谨的科学依据,只是一群持有特定世界观的人的选择,认为重现人类智能是一件好事。
所以,现在我们说的AGI,完全不是一个科学的概念:既没有科学的定义,也没有科学的衡量方法,没有科学的起源故事,也没有一个科学的终点。这一切更像是意识形态、金融、经济、政治,以及修辞手段的混合体。
澎湃新闻:能否谈谈你刚才提到的这点,AI是如何与模仿“人类智能”联系起来的?背后的世界观是怎样的?为什么选择这个方向而不是其他?
郝珂灵:这个问题可以从很多不同的角度来回答。其中一种说法是,这个领域在第二次世界大战结束后不久兴起,在二战期间,艾伦·图灵的团队利用计算机破解了恩尼格玛密码,这让人们意识到,计算机或者说计算,是一项值得追求的技术进步。图灵曾发问:“机器能思考吗?”那个时代充斥着这样的想法,如果机器能思考,那么我们或许能极大增强自身的能力。
答案或许能追溯到更早,那就是人类自古以来的自我迷恋。纵观历史,我们不断讲述关于人类创造自身或制造自己镜像般的机器的叙事。
我认为科学家们决定那样做,可能有不同的原因。但是达特茅斯大学的助理教授约翰·麦卡锡(John McCarthy)创造了“人工智能”这个术语。他尤其着迷于“重现人类智能”这类宏大的抱负,并选择了“人工智能”这个词来描述这种宏伟的雄心。这既是为了让科学家们在这一领域的研究上有更高的追求,也是因为希望这种更具野心的提法能吸引更多投资。
澎湃新闻:所以我们应该怎么理解AI?在AGI这些话语出现之前,AI意味着什么?
郝珂灵:许多人是通过聊天机器人初次接触AI的。但AI这个词实际上涵盖了非常广泛的技术范畴。我有时会用一个类比:AI这个词就像“交通工具”这个词一样——“交通工具”可以指自行车,也可以指火箭,但不同的交通工具是为了实现不同目的设计的。
从机器学习(machine learning)的、小型高效的专业化AI模型,到通用型、大规模的大语言模型或聊天机器人(生成式AI),这些AI模型形态各异,运作方式、消耗的资源量、追求的目标都各不相同,然而我们却用同一个名称来统称它们。
我们现在的资源都集中于发展生成式AI这种需要大规模训练的模型,这是完全不合理的。它造成了巨大的资源浪费,而最终目标竟是要取代人类。我们明明有许多其他类型的AI,消耗资源极少,并且能完成诸如加速药物研发、提升教育成效、优化物流供应链、优化能源结构等真正有益于人类的工作。
我们现在的选择,来自那些我称之为“AI帝国”的公司。正因为它们向全世界描绘这是构建AI的唯一途径,并且它们才是唯一能够构建AI的实体,我们才走上了这条道路。尽管对社会的大多数来说,生成式AI的成本巨大而收益甚微,但对于开发这些技术的公司来说,收益却是惊人的,它们也借此积累了巨大的权力。但所有的资金和资源都倾注于这一特定路径,这将导致更严重的不平等、更多的社会不稳定,以及地缘政治不稳定。

《星球大战8:最后的绝地武士》剧照
澎湃新闻:你提到“AI帝国”,这也是你的书名。为什么是“帝国”?
郝珂灵:因为这是唯一能全面概括这些公司运作方式及其全球影响力的概念。
首先,它们剥削了大量劳动力,攫取本不属于它们的资源——无论是土地、水源、能源,还是个人数据、艺术家的创作成果等。它们还在发展控制信息的技术,这也是维系“帝国”的重要一环:构建服务于帝国扩张、防止帝国被削弱的信息系统。
这些行为都打着文明的幌子,声称为人类带来进步和现代化。这正是曾经的帝国在殖民和征服世界各地时对人们说的:我们这都是为你们好,只要让我们拿走你们所有的资源,利用你们所有的人才,我们不仅会带给你们现代化,还会让你们通往天堂,因为我们还带来了宗教——这实际上就是这些AI公司的说辞。
我报道科技行业快十年了,但这种信仰式的话语是全新的。这些公司背后强烈的意识形态驱动是其区别于其他跨国公司的地方——他们认为自己在建造一台能将我们带入“文明2.0”的“机器之神”。如果你仅仅把它当作资本主义来讨论,那你就忽略了这些公司为何如此具有说服力,以及最终可能产生的后果。
澎湃新闻:支撑起AI帝国的神话具体是什么?他们如何让人们笃信这样的话语?
郝珂灵:我2019年采访伊尔亚·苏茨克维 (Ilya Sutskever)时,他谈到,我们今天面临的许多挑战,比如气候变化,真正的问题在于人们无法和睦相处,一旦我们有了人工智能,合作问题就会迎刃而解,因为所有人工智能可以很好地相互协作。我们将进入一个奇妙的世界,那里非常富足,没有人再为任何事争斗。这就是他们的神话:他们正在创造一种可能开启文明新纪元的事物。
但这个故事的有趣之处在于,这一切只有在他们成功时才会发生。因为如果被“坏人”抢先一步,那么“机器之神”就会变成“机器之魔”。这也是与帝国的相似之处:每个帝国都通过描绘一个邪恶的帝国形象,来为自己存在的必要性进行辩护。
在OpenAI最初的故事里,那个“邪恶帝国”是谷歌。埃隆·马斯克(Elon Musk)一开始描绘的图景便是,如果谷歌作为一家营利性公司掌握了这项技术,结果是灾难性的,因此我们需要一个非营利组织。他们总需要一个假想敌,后来硅谷的叙事里,敌人变成了中国——如果中国率先获得这项技术,那可能意味着文明的终结;但如果是我们硅谷公司来做,最终会迎来一个富足的世界。
它们声称为了打败“邪恶帝国”,它们必须具备竞争力,必须拥有更多资源和劳动力。但现实是,它们在积极与一些实体合作,开发极具暴力和破坏性的技术。
澎湃新闻: AI有一定的技术壁垒,而且变化飞快,行业内人士对技术更熟悉,理应能对AI的良性发展提出更有效的建议。但在你的书中,我们看到很多次分裂,不仅仅是OpenAI公司内部的,还有AI行业内部的,例如有效利他主义运动(Effective Altruism,EA)之后的分裂,而且这些分裂很多是与对AI安全的担忧相关的。但是,这些分裂最终并未导向更好、更安全的发展方向。为什么内部的分歧和变化没能带来真正的改变?
郝珂灵:首先,我并不认为你需要具备技术知识才能批判AI的发展方式,或者提出替代方案。很多时候,当你与研究人员和工程师交流时,他们往往陷入技术细节,例如争论应该用哪个指标来衡量AI模型之类的问题。
但真正重要的问题是:这是让社会变得更好,还是更糟?对于这一点,每个普通人都能看清技术究竟是在改善还是恶化他们的生活。
至于为什么AI世界里所有这些分裂的团体,并没有真正带来更好的东西,是因为他们没有提出更根本的问题:我们正在开发的这个版本的AI,真的能帮助人类吗?
例如,有效利他主义运动的核心思想是:目前的这个AI模型还是需要继续发展,但我们要做出一些调整,以避免灾难性的后果。他们并不质疑我们是否应该建造这些“机器之神”,不质疑为什么要建造越来越大的数据中心、消耗越来越多的资源,也不质疑人工智能可能最终取代人类劳动力。所以,他们最终结论实际上与那些执掌公司、试图加速这项技术发展的人如出一辙——他们都在读同一本“《圣经》”,只是解读不同。
我们需要全面审视我们的AI布局,并更有针对性地提出这样的问题:作为一个社会,我们真正需要什么?然后,让我们缩小范围,确定哪些类型的AI技术真正能满足这些需求。如果我们目前没有任何AI技术能满足这些需求,我们是否可以进行更基础的研究,以开发新的AI技术?
我确实觉得,行业内的人很难提出这些批评。我认识一些朋友,他们起初是怀疑论者,但进入这个行业后,短短几个月就变成了坚定的信徒。因为他们身边围绕着极其聪明、勤奋、富有同理心的同事,都在满怀信念地讨论这个想法。在这样的环境中,你很难继续坚守其他信念。
但另一个让他们难以提出更好批评的原因是,他们也是受益者。哪怕不是向好的方向发展,他们仍然能拿到一百万美元的薪酬。他们能有多少改变的动力呢?
所以改变必须来自外部,但不仅仅是政府和监管机构。现在,已有一些组织开发了与硅谷模式截然不同的AI技术,我们也看到美国很多普通民众开始批评这个行业。人们开始质疑:这项技术并没有真正让我们受益,反而让我们失去工作岗位;大型数据中心就在我们家附近拔地而起,污染环境、消耗水资源、推高能源价格。而这些公司的人却越来越富有,成为亿万富翁——去年彭博社有篇文章指出,人工智能行业创造亿万富翁的速度,比历史上任何其他行业都要快。

《黑客帝国3:矩阵革命》剧照
澎湃新闻:一些技术乐观主义者认为,AI现在带来的问题,未来都会被AI的发展所解决。例如,现在消耗了大量能源,但AI可以加速清洁能源的发展;现在看似有很多人失业,但未来AI会创造更多新的工作岗位……我们经常听到的叙事是,目前的“阵痛”会带来更重要的发展。你怎么看这些说法?
郝珂灵:这就是那些制造火箭的公司,在兜售自行车能带来的好处,却绝口不提他们实际建造的并非自行车。
比如,关于缓解气候变化的问题,就有一家非营利公司叫“气候变化人工智能”(Climate Change AI)。他们首先梳理了气候危机中计算可以发挥作用的杠杆点,例如优化物流供应链、优化社区的能源使用等。这些都是需要大量计算的问题,如果能提高计算的效率,很有助于缓解气候变化。然后,他们针对每个问题列出了相应的AI工具。他们切实地展示了,究竟哪些类型的AI系统才真正有助于解决气候危机的问题,结果没有一个与生成式AI有关,全都是非常专业的机器学习系统,或其他能源消耗和所需数据极少的AI系统。
在谷歌的DeepMind跟风创建大语言模型和生成式AI之前,他们曾专注加速药物研发、理解人类疾病的问题:如何开发一个系统,能够计算蛋白质折叠的所有不同组合方式?这个系统就是AlphaFold,在2024年获得了诺贝尔化学奖。与ChatGPT相比,它是一个成本极低的系统,因为它只专注蛋白质结构分析的训练,但这是AI为促进人类健康所做的一项巨大贡献。
那么,如果某些情况下,我们确实需要生成式AI呢?首先,如非必要,尽量不使用。其次,我们得想想,开发“火箭”的最优方式是什么?最让我困惑的是,OpenAI 和所有这些美国公司,竟然以最低效的方式开发了大语言模型。他们都知道,其实有更高效的途径。但没人这么做,因为他们陷入了相互竞争,都在追求速度,而不是效率。
然后DeepSeek出现了,它做了一件大家都知道可能做到的事,那就是以高得多的效率开发这些大型语言模型系统。而美国的公司没有一个在做这件事,他们至今依然没有。
所以,在我看来,我们真正需要改变的是我们的投资方式。
澎湃新闻:你在之前的访谈里聊过,我们每个人都有不合作的可能。但现在我们看到的是,很多普通人深陷生存危机中,并相信如果不尽快学习AI,他们就会被淘汰。在这样的生存危机中,许多人选择更积极地拥抱AI。普通个体的抵抗还有可能吗?
郝珂灵: 错失恐惧症(Fear of missing out)真的是这个行业发明的最厉害的营销策略之一。那句“你不会被AI取代,但会被使用AI的人取代”,简直是绝妙的营销口号。
首先,害怕错过AI浪潮的担忧其实并不成立。我本人完全不使用任何生成式AI的相关产品,原因有三:第一,我认为这些公司极不道德,因此不愿为使用其工具贡献任何数据或流量;第二,这涉及隐私问题——作为调查记者,我绝不会打开ChatGPT说“你好,我正在调查你们公司,这些都是我在做的内容”;第三,我的本职工作所需要的是与采访对象建立共情能力,以及写出吸引人的故事的能力,而AI在这两方面都没有帮助。
首先要思考你的目标是什么,以及AI对于实现这些目标是不是合适的工具。你可能会惊讶地发现,对于你正在做的事情,它可能并不是一个很好的工具。
当然,如果你是一名软件工程师、数据分析师,或从事其他高度计算性的职业,那么AI或许会加速你的工作,但同时,也可能更快地取代你。那么关键在于,你需要专注于那些让你与众不同的能力,例如领导能力、社交技巧、共情能力、写作能力,这些能力最终会让你脱颖而出,而不是你使用AI模型的速度有多快,或者你用得有多熟练。
另一方面,人们常常把讨论的焦点局限在“我用不用AI”这个问题上,将抵抗简单理解为作为消费者不去使用AI。但实际上,抵抗人工智能产业的方式有很多。正如我之前谈到公众抵制,此时你是作为关心社会公共利益的一员,这已经对这些公司产生了巨大影响。美国民众的抵制已经使得这些公司更难获得支持和资源来建立数据中心。这种抵制也加速了更多地方层面的监管。
诉讼是另一种方式。中国已有不少演员起诉AI公司使用他们的形象,这也是另一种形式的抵制。全球范围内,现在也出现了更多的劳工罢工,抗议公司考虑采用AI,或是抗议AI行业内部不人道的劳力剥削。例如我书中提到,OpenAI雇佣的肯尼亚工人组建工会,现在已经成为AI行业相关工人争取改善工作条件而效仿的范例。
实际上我们每个人的生活都可能以多种方式与AI行业的供应链产生交集:你可能正在提供数据让他们训练模型,你可能住在数据中心附近,你可能是AI的消费者,也可能是AI社会影响的关注者……在所有这些链条上,你可以决定是否接受AI公司的做法。公众的反抗也会减缓他们的发展速度,迫使他们调整方向。例如我们已经看到OpenAI关掉了Sora。
这些公司其实对抵制非常敏感,因为他们的技术生产需要供应链上大量的合作。即使小的不合作,也可能对他们产生相当大的影响,令他们做出改变。这也是为什么我坚信,我们每一个人,无论你是否懂技术,是否使用AI,你都可能通过不同的方式影响AI未来发展轨迹。

《AI帝国:OpenAI的权力冲突与人类的未来》书封





- 报料热线: 021-962866
- 报料邮箱: news@thepaper.cn
互联网新闻信息服务许可证:31120170006
增值电信业务经营许可证:沪B2-2017116
© 2014-2026 上海东方报业有限公司




