AGI深度炒作:不确定性、技术社会虚构与未来治理的博弈
1. 项目概述当AGI成为一种“深度炒作”的叙事如果你最近关注科技新闻大概率会被“通用人工智能”AGI这个词频繁刷屏。从OpenAI的Sam Altman到DeepMind的Demis Hassabis科技领袖们不断描绘着AGI将如何带来“后稀缺性”的富足或是警告其可能成为人类文明的“生存性威胁”。然而当你试图追问AGI究竟是什么、何时能实现、具体能做什么时得到的答案往往是模糊的、充满诗意的或是被推向一个遥远的未来。这并非偶然而是一种精心构建的“深度炒作”Deep Hype现象。与围绕某个具体产品如元宇宙硬件或某个AI模型的短期炒作不同AGI的深度炒作是一种长期、宏大的过度承诺。它的核心不在于推销一个即将上市的产品而在于构建一个关于文明转型的愿景。这个愿景是如此宏大——从解决所有疾病到星际殖民从终结贫困到引发人类灭绝——以至于它几乎无法在当下被证伪。这种炒作的生命力恰恰来源于其内在的一系列“不确定性”概念本身是模糊的应用场景是空泛的实现时间是游移的经济价值是高度投机的。正是这些不确定性为各种“技术社会虚构”Sociotechnical Fictions提供了滋生的土壤。这些虚构并非天马行空的科幻小说而是披着技术科学外衣的叙事。它们被科技领袖、风险投资家和部分学者通过博客、听证会、白皮书和媒体采访反复传播逐渐被当作事实来讨论和行动。其结果是一个尚未存在、甚至其科学可行性都备受争议的技术已经吸引了史上最大规模的私人投资并深刻影响着全球的监管议程、研究方向和公共讨论。本文将深入拆解AGI深度炒作的运作机制剖析其依赖的九大不确定性领域并揭示这种炒作如何成为一种对未来AI治理的“软性控制”工具在希望与恐惧的交织中巩固着少数权力中心对技术未来的塑造权。2. AGI深度炒作的核心引擎交织的不确定性网络深度炒作之所以“深”在于它并非建立在某个单一的技术突破或市场误判之上而是植根于一个复杂且相互强化的不确定性网络。这些不确定性既是炒作得以存在的理由也是其持续运转的燃料。我们可以将其分为两大类构成性不确定性和结果性不确定性。前者关乎AGI本身是什么后者关乎如果AGI实现会带来什么。2.1 构成性不确定性AGI的“本体论迷雾”构成性不确定性是AGI概念的根基性问题它们使得AGI成为一个可以随意填充内容的“空壳”。2.1.1 概念模糊性一个没有共识的圣杯AGI最根本的不确定性在于业界和学界对其没有统一的定义。它通常被描述为“具备人类水平或超越人类水平的智能能够理解、学习和应用知识以解决任何领域的复杂问题”。然而“人类水平智能”本身就是一个哲学和认知科学上的难题。智能是单一维度吗包含了创造力、同理心、常识吗OpenAI曾提出“能够完成大多数经济上有价值的工作”作为操作性定义但这又将定义与经济效益挂钩进一步模糊了技术边界。这种概念的模糊性赋予了AGI极大的“解释灵活性”支持者可以根据需要将其描绘成温和的助手、全能的科学家或是失控的神祇。注意这种模糊性并非缺陷而是一种策略性资产。它允许炒作推动者同时主张两种矛盾的观点一方面声称AGI是不可避免的技术终点另一方面又强调其路径的不可预测性从而既能吸引长期信仰式的投资又能规避短期的问责。2.1.2 应用场景的真空万能等于无能与专注于图像识别或自然语言处理的专用AI不同AGI被承诺为“通用”的。但正是这种“通用性”导致其缺乏明确、可验证的应用场景。炒作叙事中AGI被期待能同时攻克癌症、解决气候变化、进行基础科学发现、管理全球经济。这种包罗万象的承诺使得任何单一领域的失败都无法证伪AGI的整体愿景。当一项技术被声称能解决所有问题时它实际上逃避了为任何具体问题负责。2.1.3 游移的时间线“永远还有十年”AGI的实现时间线是炒作中最具弹性的部分。从上世纪60年代开始“强人工智能”AGI的前身就被认为“还有二十年”。直到今天预测依然在“几年内”到“永远不会实现”之间剧烈摆动。Sam Altman等人时而暗示AGI近在咫尺以吸引投资和关注时而又将其推至遥远的未来以管理预期和规避责任。这种开放的时间框架至关重要它创造了一种永恒的“即将到来”的状态既维持了紧迫感“我们必须现在就投资和监管”又永远不会因为承诺未兑现而让炒作破灭。2.1.4 价值的不确定性百亿利润的幻想AGI缺乏清晰的商业模式。当前的AI公司可以通过API调用、软件订阅或硬件销售盈利但AGI的盈利路径是什么据报道OpenAI和微软内部将AGI的“实现”定义为能产生至少1000亿美元年利润的时刻。这揭示了一个关键转变AGI的里程碑从技术指标如通过某项测试变成了金融指标。其经济价值建立在长期财务投机之上而非已证明的能力。风险资本拥抱这种不确定性因为巨大的风险意味着潜在的垄断性回报他们投资的是“期权”——押注一个可能定义未来的赛道即使其最终形态未知。2.2 结果性不确定性被虚构塑造的未来如果说构成性不确定性定义了AGI是什么那么结果性不确定性则描绘了AGI可能带来的世界。这些领域充满了由希望和恐惧驱动的“技术社会虚构”。2.2.1 治理不确定性谁来决定我们的未来AGI被塑造为一种文明级力量自然引发了深刻的治理问题它应该由谁控制如何监管2023年Sam Altman在美国参议院作证一面警告AGI的危险一面巧妙地游说有利于大型公司的监管框架。与此同时“有效利他主义”和“长期主义”社群推动着以“生存性风险”为核心的监管议程。这些行动的共同点是都将科技精英而非民主机构定位为AGI未来的“建筑师”。Worldcoin项目Altman的另一项事业声称要为AI时代构建全球身份和金融基础设施更是将问题AI带来的颠覆和解决方案另一项由其控制的技术都纳入同一套企业逻辑中巩固了私人的、非民主的控制。2.2.2 经济不确定性乌托邦还是失业潮经济叙事在乌托邦和反乌托邦之间分裂。乐观版本如Altman所言承诺AGI将带来“后稀缺性”商品价格趋近于零人类从劳作中解放。悲观版本则预警大规模失业、经济不平等急剧加剧。OpenAI自己发布的研究报告也指出ChatGPT类技术可能影响大量工作岗位。这种矛盾叙事服务于不同目的乌托邦愿景吸引投资和公众好感失业警告则制造紧迫感为抢先布局和制定有利于资本的政策提供理由。两者共同作用将AGI驱动的经济重塑描绘为不可避免的从而预先排除了讨论替代性经济模型如全民基本收入、数据公有制的空间。2.2.3 地缘政治不确定性新冷战的筹码AGI已被框架化为大国竞争的核心。美国兰德公司等智库将其比作核技术警告中美之间的“AGI军备竞赛”。尽管技术可行性存疑但这种叙事已将AGI开发者定位为战略资产为巨额政府补贴、宽松监管以保持竞争力和“监管俘获”提供了理由。像“星门”Stargate这样耗资数千亿美元、由科技巨头支持的基础设施项目正是这种地缘政治叙事的物质化体现。炒作创造了一种“不投资就落后”的恐惧驱动国家资源流向私营企业。2.2.4 生存性不确定性救世主与终结者这是最深层的叙事张力。一方是“奇点主义”和“超人类主义”的 techno-utopian技术乌托邦愿景如Ben Goertzel的《宇宙主义者宣言》描绘了意识上传、星际殖民、达到深度意识状态的未来。另一方则是“生存性风险”x-risk的警告以Nick Bostrom、Eliezer Yudkowsky为代表认为失控的超级智能可能导致人类灭绝。这两种极端虚构——终极救赎与终极毁灭——共同作用将AGI议题提升到关乎人类物种存亡的形而上学高度。这种“有意的担忧”wishful worries将公众注意力从算法偏见、能源消耗、劳动条件等当下、具体的危害转移到了遥远而抽象的末世论辩论上。2.2.5 伦理不确定性被劫持的伦理话语在上述不确定性的舞台上企业将其角色从技术开发者扩展为伦理守护者。OpenAI宣称其使命是确保AGI“增益人类”Marc Andreessen等 techno-optimist技术乐观主义者则声称任何减缓AI发展的行为都是在“谋杀”那些本可被AI拯救的人。这些基于长期主义伦理的声明将AGI发展包装成一种道德义务。然而这种伦理话语往往忽视AI当下加剧的不平等、环境代价和社会分裂。通过将伦理讨论聚焦于遥远的、假设性的生存风险当下的、结构性的伦理问题被边缘化了。3. 技术社会虚构如何将“空想”变为“现实”理解了不确定性如何为炒作提供空间接下来要剖析的是填充这个空间的材料技术社会虚构。它们不是被明确标为“虚构”的故事而是被当作基于科学和技术推理的、关于未来的“合理预测”来传播和接受的叙事。3.1 虚构的运作机制从认知到物质化技术社会虚构通过一套复杂的机制产生效力认知具象化它们将虚无缥缈的未来如“超级智能”转化为似乎触手可及的具体形象如“一个能进行科学发现的AI”。通过反复的媒体描述、产品演示即使与AGI相去甚远和领袖宣言虚构获得了“物性”thingness仿佛它已经存在于地平线上。情感动员虚构精心调配希望与恐惧。希望富足、永生、星辰大海吸引人才、投资和公众热情恐惧失业、失控、灭绝制造紧迫感为集中控制、先发制人的监管或反对监管提供理由。这种情感二元对立让公众持续处于兴奋与焦虑中维持着关注度。规范建构虚构制造了一种关于技术必然性的“共识幻觉”。当所有讨论都围绕着“AGI到来后我们该怎么办”时其本身是否可行、是否应该追求的前提问题就被自然化了。这无形中设定了辩论的边界将质疑AGI可行性或质疑其追求价值的声音排除在主流之外。资源导向最关键的虚构具有“述行性”performativity。当足够多的人相信一个虚构并据此行动时它就开始塑造现实。风险资本基于AGI叙事投入数百亿美元政府基于“军备竞赛”叙事制定产业政策顶尖研究员被“解决智能根本问题”的愿景吸引而选择研究方向。虚构 thereby 引导了真实世界的人力、财力和注意力流向。3.2 虚构的传播渠道与案例这些虚构并非在真空中产生而是通过一系列被视为权威和客观的渠道进行传播和强化领袖宣言与博客如Sam Altman的《温和的奇点》博客直接描绘AGI带来的富足未来。学术论文与框架如OpenAI的《AGI等级通往AGI路径上的进展操作化》报告为尚不存在的技术设立了看似严谨的评估阶梯。媒体采访与峰会演讲科技领袖在达沃斯、TED等场合的发言被媒体放大塑造公众认知。国会听证与政策游说在监管机构面前既强调风险以彰显责任又主张谨慎监管以保持灵活性实质是参与塑造游戏规则。开源信与行业联名如“暂停巨型AI实验”公开信通过集结知名人士签名将一种边缘性的担忧主流化无论其科学依据是否充分。实操心得识别技术社会虚构的一个有效方法是关注其承诺是否总是依赖于未来某个未指定的技术突破“当AGI实现时…”以及其叙事是否在“无限希望”和“极端恐惧”之间非此即彼地摇摆却刻意忽略中间地带和当下代价。另一个信号是提出该虚构的实体往往也是其解决方案的提供者或能从其传播中直接获益。4. 深度炒作作为一种治理术控制未来的脚本将AGI深度炒作理解为一个由不确定性和社会技术虚构驱动的系统后我们便能看清其最终的政治功能它已成为一种强大的“治理术”governance一种对AI未来进行软性控制的手段。4.1 构建技术信仰引导资源流向深度炒作创造了一种类似宗教的“技术信仰”。信徒投资者、政策制定者、部分研究者相信AGI的必然性与变革性并据此投入资源。这种信仰体系是自洽且排他的任何挫折都被解释为通往必然未来的必要试错任何对AGI本身的质疑都被视为缺乏远见或阻碍进步。通过这种方式社会资源被大规模、长期地导向一个由少数科技公司和风投定义的议程挤压了其他可能更有益于当下社会福祉的技术路径如稳健、可解释、节能的专用AI的生存空间。4.2 窄化政治辩论实现“监管俘获”通过将公共讨论框定在“如何安全地抵达AGI”或“如何防范AGI风险”上炒作成功地抬高了辩论的门槛将一系列更紧迫、更民主的议题边缘化。我们很少在主流AGI讨论中深入探讨劳动议题平台经济下的数据标注员、内容审核员的悲惨处境。环境代价大模型训练与推理的巨量能耗与水资源消耗。算法偏见与歧视AI系统在招聘、信贷、司法中固化社会不公。数据剥削与隐私个人数据被无偿用于训练商业模型。经济集中AI红利如何被极少数公司和投资者攫取。当公众和监管者的注意力被“人类灭绝”这样的宏大叙事吸引时科技公司得以以“安全”和“竞争力”为名游说出台对自己有利的法规——往往是宽松的、基于原则而非具体规则的、依赖企业自我监管的框架。这就是“监管俘获”被监管对象成功塑造了监管本身。4.3 巩固权力架构推行技术权威主义AGI深度炒作的叙事核心是一种“网络自由主义”Cyberlibertarianism与“长期主义”Longtermism的混合意识形态。前者崇尚技术精英主导、市场驱动、最小政府干预后者认为道德的重心应是影响遥远未来的大量人口可能包括后人类从而可以为未来巨大的潜在收益牺牲当下的具体关切。这两种思想结合为科技富豪和风投资本家赋予了一种“天命”他们是唯一有能力和远见引领人类穿越技术奇点、避免生存风险的“牧羊人”。这种逻辑正当化了财富与权力的空前集中并将民主问责视为低效的障碍。近年来部分美国科技精英向威权主义的倾斜正是这种思想的现实映射。5. 反思与应对超越炒作聚焦现实面对AGI的深度炒作研究者、政策制定者、投资者和公众需要有清醒的认知和策略性的应对。5.1 对研究社区的启示抵制“北星”诱惑AGI不应成为AI研究的唯一或终极目标。将AGI视为“北星”会导致研究资源畸形配置追逐模糊的基准而忽视扎实的、可验证的进步。研究应回归到解决具体科学问题和社会需求上来。解构虚构强调实证在学术讨论和公共传播中应严格区分基于证据的科学推测和基于想象的社会技术虚构。对AGI的讨论必须锚定在现有的认知科学、计算机科学和神经科学知识上警惕科幻概念对科研议程的殖民。关注中间路径重视“通用”与“专用”之间的广阔光谱如“高水平机器智能”HLMI或具备一定泛化能力的稳健AI系统。这些目标更可衡量社会效益更可预期。5.2 对政策制定者的建议监管当下而非空想未来监管重点应放在AI系统当前已造成的和可预见的危害上偏见、歧视、隐私侵犯、劳工权利、市场竞争、环境足迹。建立基于风险的、具体的监管框架而非围绕一个幻影般的AGI制定空泛原则。提升技术评估能力立法和监管机构需要独立的技术评估能力减少对行业自我报告的依赖。应资助公共部门、学术界和公民社会进行独立的AI影响评估。促进多元与民主治理打破科技巨头对AI未来叙事的垄断。在标准制定、伦理审查、公共资金分配等环节确保工人、社区、民间组织、伦理学家和社会科学家的实质性参与。AI的未来不应由硅谷的董事会决定。5.3 对投资者与行业的警示识别叙事泡沫警惕那些承诺过于宏大、时间线模糊、商业模式不清的AGI项目。投资决策应基于扎实的技术里程碑、清晰的市场需求和可行的商业化路径而非对文明变革的信仰。承担当下责任企业在追求前沿技术的同时必须为其产品和服务当前的社会与环境影响负责。将资源投入到缓解算法偏见、降低能耗、保障AI供应链劳工权益上这比投资于遥远的AGI安全研究更能体现真正的责任感。5.4 对公众的呼吁保持批判性思维对媒体上关于AGI的夸张标题和末日预言保持警惕。追问具体细节它具体指什么技术谁在这么说他们有何利益有哪些反对声音要求透明度与问责向科技公司和政府要求AI系统的透明度了解其训练数据、决策过程、能耗和实际影响。关注本地和当下的AI议题如自动化对社区就业的影响、公共部门使用算法的公平性等。AGI的深度炒作是一场由资本、技术和叙事共同编织的复杂戏剧。它通过操纵不确定性、贩卖希望与恐惧试图提前书写一个由少数人主导的技术未来。拆穿这场炒作并非否定人工智能技术的巨大潜力而是为了夺回对技术发展方向的民主讨论权。我们需要将目光从遥不可及的“奇点”拉回到脚下的现实关注那些正在被AI重塑的工作、生活、权力结构与生态环境。唯有如此我们才能确保技术进步服务于广泛的人类福祉而不是沦为巩固特权、逃避当下责任的幻想工具。技术的未来应该由所有受其影响的人共同塑造而不是被锁在风险投资会议室和科技领袖的博客里。