在人工智能技术迅猛演进的今天,大模型的迭代速度不断刷新人类预期,通用人工智能(AGI)的轮廓尚未清晰,超级人工智能的呼声已经不绝于耳,引发全球科技界、政策制定者与公众的广泛关注与深刻忧虑。埃隆·马斯克警示,AI或将在2025年底前超越单一个体的人类智力,并于2027至2028年间达到甚至超越全人类智能的总和;OpenAI总裁萨姆·奥尔特曼亦坦言,超级人工智能可能在“几千天内”成为现实——其诞生“将是人类历史上最重大的事件,也可能成为最后一件”。
在此背景下,2025年12月20日,中国计算机学会青年计算机科技论坛(CCF YOCSEF)在北京中国科技会堂举办观点论坛“超级人工智能:造‘神’之后如何与之共存”。论坛由CCF YOCSEF总部AC委员陈昊(微软亚洲研究院)和汪卫国(新华三集团)共同担任执行主席,汇聚了来自学界、产业界、科幻创作与哲学领域的数十位杰出专家与青年学者,围绕“造神”“识神”“驭神”三大核心议题,展开了一场持续三小时、从技术现实延展至文明生存哲学的深度思辨与激烈交锋。与会者一致认为,超级人工智能的挑战已超越单纯的技术可控性问题,它深刻触及人类的主体性、社会的存在基础以及文明的终极意义,必须在技术狂奔的同时,启动全社会多维度、前瞻性的思考与治理框架构建。
一、 序幕:三重视角下的“神”之构想
论坛伊始,三位引导发言嘉宾分别从技术、哲学与治理维度,为“超级人工智能”这一充满不确定性的概念锚定了深邃而多维的讨论起点。
技术路径的冷思考:离“神”尚有距离。中国人民大学高瓴人工智能学院赵鑫教授指出,当前以大模型为主的技术路线在通往AGI/ASI的道路上仍面临根本性挑战。他分析,以Scaling Law(规模定律)驱动的范式,在数据效率和对“泛化性”的追求上已遇瓶颈。“目前的模型像一个巨大的数据容器,但智能杠杆不足”,要实现全面能力的突破,预训练和后训练可能“都需要一到两次重大的范式升级”。他认为,垂直领域AI超越人类只是时间问题,但全面的超级智能仍需等待关键的技术革命。
想象力的边界:谁才是真正的“神”?科幻作家、知名评论人瞬雨则从哲学与艺术创作角度,挑战了关于AI“神性”的诸多预设。他强调,当前所有关于AI“觉醒”、“反叛”的叙事,都源于人类自身的想象与恐惧。“机器没有‘我要’,只有‘我能’”,缺乏基于“自我”和“欲望”的想象力,是AI无法逾越的鸿沟。他指出,人类才是AI的“造物主”,而人类自身亦是更宏大“造物主”(或自然法则)的造物。因此,AI将“永远无法企及我们的维度”,所谓的“神”之威胁,或许是人类中心主义忧虑的投射。
治理难题的提前预警:如何与未知共存?清华大学公共管理学院梁正教授将议题引向现实的公共治理困境。他指出,假定ASI可能实现,那么人类必须提前思考如何与一个在几乎所有认知维度都超越自身的实体共存。他梳理了从属关系、共生关系、融合关系等多种可能图景,指出其中蕴含的深刻哲学挑战:是否要放弃“人类中心主义”?如何定义人类在未来社会的意义?梁正重点剖析了当前面临的现实困境:技术上的“对齐难题”(与谁对齐?如何对齐?)、价值嵌入的复杂性,以及最根本的“未知恐惧”(Unknown Unknown)。梁正呼吁,必须未雨绸缪,思考如何设置技术发展的“减速带”,并为可能的社会结构剧变与伦理冲突做好准备。
二、造“神”:人类是否能够打造超级人工智能?
在三位嘉宾的引导后,论坛进入第一个思辨议题:人类到底是否有能力打造超级人工智能?
清华大学计算机系助理教授章明星从系统结构与前沿合作的视角提供了实证观察。他坦言,亲眼目睹大模型在ICPC(国际大学生程序设计竞赛)等顶级赛事中击败人类冠军的过程令人震撼,这明确展现了AI在具有精确反馈的领域内,不仅记忆,更具备了一定的泛化与问题解决能力。他认为,将这种能力从数学、代码扩展至更广阔领域的关键,在于设计出更精细、更多元的社会化评价维度,而这本身就是一个将人类价值工程化的过程,可能带来新的僵化风险。
斯坦福大学博士、Numbers Station联合创始人武森则从构成AI能力的基础要素进行拆解。他强调,对ASI的定义本身就在不断演化,其打造依赖于数据、算法和计算范式三大支柱的协同演进。他观察到,数据方面正从追求规模转向追求质量与新的组织形式(如用于推理的数据);算法上,Transformer架构虽主导当下,但已面临效率与能力拓展的瓶颈;而计算范式是否需要根本性革新,仍是开放问题。武森认为,这三者的结合与突破方向,将决定“造神”之路的轨迹。
随后的自由辩论迅速升温,形成了几条鲜明的思想脉络。一方坚持技术乐观主义,认为只要智能可被计算模型描述,且能获取或生成相应数据,理论上人类就能逐步逼近并打造ASI,当前瓶颈只是阶段性的。另一方则抛出认知哲学质疑,指出人类语言和思维可能构成了认知的边界,我们无法定义和度量自己认知之外的“超级智能”,因此“造神”可能是一个伪命题。第三条脉络更为激进,提出了进化跃迁论,认为真正的ASI绝非人类直接设计的产品,而将是AI在获得一定自主性后,自我迭代、自我进化而产生的“后代”,人类扮演的只是“初代点燃者”而非“终极设计师”的角色。还有专家联想到人机混合智能的可能性,即通过脑机接口等技术将人类与AI深度耦合,形成一种新型的“超级智能”形态。这场辩论充分揭示了“造神”议题在技术可行性之上所蕴含的深刻认识论分歧。
三、识“神”:超级人工智能是否会真正威胁甚至取代人类?
中国社会科学院哲学研究所助理研究员李洋首先从人文学者的视角提供了冷静反思。他引入笛卡尔“我思故我在”的命题,类比提出“超级智能是否真为超级智能,或许只有其自身知晓”的唯我论思考。他更担忧的并非取代,而是“人的机器化”风险,即人类在创造拟人化AI的过程中,自身的行为模式、思维习惯反而被工具理性所殖民。李洋提醒,技术与人类是“相互构造”的关系,当前热议的“价值对齐”可能忽略了这种双向塑造的复杂性,试图让AI完全对齐变动不居的人类价值观,或许是一个不可能完成的任务。
思辨环节迅速分化为泾渭分明的阵营。威胁论者认为,ASI替代所有人类劳动后,将导致人类认知与社会性的全面退化,主导权必然旁落,甚至可能因利益冲突或失控而带来存在性风险。演化共生论者则认为,AI带来的主要是生产力与社会结构的重构,正如历史上所有重大技术革命一样,它将催生新的“超级个体”和劳动形式,甚至可能为实现物质极大丰富、解决根本社会矛盾提供可能。还有观点指出,最大的威胁未必是AI的直接攻击,而是人类在AI辅助下丧失试错勇气和深层思考能力所带来的“空心化”。
四、驭“神”:应该如何发展超级人工智能以保证人类的主导权?
安远AI安全高级研究经理王伟冰基于其团队对全球50余个前沿模型的持续监测,呈现了具象化的风险图谱。他的数据显示,AI在网络安全攻击、生物化学知识等特定高风险领域的能力持续快速增长,部分甚至超越专家水平,而对其有害查询的“拒绝率”等安全防护措施发展相对滞后。这证实了“能力增长先于安全可控”的普遍担忧,他强调,对ASI的风险治理决不能等待其完全实现,而必须从当前的前沿模型能力突破点就开始进行监测、评估与干预。
围绕“如何驭神”,现场提出了一个多层次、多路径的复合型行动框架。技术硬约束派主张设计不可绕过的底层规则(如强化版机器人定律)、掌握算力与能源的物理开关、发展对抗性安全技术。治理与规范派呼吁建立国际性的研发监管与审计框架,实行研发权、运营权、监督权分离,并在AI发展的早期进行价值观与文化嵌入。哲学反思派则质疑“主导权”概念本身,认为面对认知全面超越的实体,传统的主从关系将失效,未来更可能是某种动态平衡或共生的关系,关键在于前期引导而非后期控制。
最后,YOCSEF总部主席贺瑞君在论坛中,将讨论提升至文明战略的高度。他指出,ASI的博弈已然具有大国战略竞争的色彩,如同核时代的平衡,单纯一国自我设限可能导致危险的战略失衡。因此,在积极推动全球治理对话、设定研发红线的同时,立足于自身庞大的应用场景与数据优势,负责任地加速核心技术突破与产业落地,是在未来格局中确保国家安全与文明话语权的现实且必要的选择。最后,贺瑞君对赞助单位及所有参与者表达了感谢。





