【背景介绍】
随着人工智能从虚拟算法迈向物理实体,“具身智能”作为AI与物理世界深度融合的新形态,正成为推动下一代产业变革的核心力量。然而,当智能体拥有“身体”并深入人类生产与生活场景时,其安全问题也呈现出前所未有的复杂性:数据偏差、算法漏洞、通信劫持与物理失控等多重风险相互交织,形成了一条从网络空间延伸至物理世界的链式威胁路径。在此背景下,2025年10月25日,由CCF YOCSEF郑州组织的“多重安全融合:从可信人工智能到可信具身智能安全”专题技术论坛在哈尔滨2025中国计算机大会(CNCC)上顺利召开。
2025中国计算机大会(CNCC2025)是由中国计算机学会主办,哈尔滨工程大学和哈尔滨工业大学联合承办,于2025年10月22日至25日在黑龙江省哈尔滨市举办的学术会议,系国内计算领域年度学术盛会,主题为“数智赋能·无限可能”。此次论坛由CCF YOCSEF郑州 AC委员张磊和CCF YOCSEF郑州 AC委员刘起东共同担任执行主席。论坛聚焦上述系统性安全挑战,汇集领域内多位知名专家,旨在构建贯穿数据、算法、通信与控制的全链路防护体系。论坛上,夏元清教授、徐文渊教授、张卫东教授、魏强教授及赵彬彬教授分别从系统演进、带外脆弱性、空海协同、人机信任构建及系统安全迁移等关键维度作了深度引导发言。在随后的思辨环节,与会嘉宾进一步围绕“具身智能的安全内涵、等级评测与监管问责”三大核心议题展开深入讨论,为这一新兴领域的稳健发展勾勒出清晰可行的演进路径。
通过此论坛,我们希望能够提前洞察具身智能可能带来的安全威胁,并对威胁进行科学的分类,进而对具身智能安全进行科学分级帮助厘清潜在威胁带来的责任划分问题。具身智能安全不是给具身智能的发展套上枷锁,而是未雨绸缪,为人工智能的健康发展指明道路。通过本次研讨,希望能够形成具有参考价值的综述报告或政策建议,提交相关部门,为郑州市“十五五”规划中关于人工智能+布局与治理的相关内容提供前瞻性探索与支撑。
【安全演进之路:从自动化、人工智能到具身智能】
在引导发言环节,引导嘉宾夏元清教授作了题为“自动化-人工智能-具身智能的安全可信”的报告。他在报告中指出,自动化的核心"反馈"机制与人工智能中基于误差调节的参数学习具有本质一致性,强调二者技术脉络的深度融合是必然趋势。面对无人机集群等无人系统规模化发展带来的挑战,他进一步指出,必须引入智能算法实现任务规划与协同控制,同时构建"多重可信安全融合"体系,以应对从产品本身到外部网络的全维度安全威胁,确保智能系统在复杂环境中的可靠性与可控性。
引导嘉宾徐文渊教授作了题为“具身智能安全:带外脆弱性检测与利用技术”的报告。她在报告中指出,具身智能系统因具有物理实体而面临传统AI安全之外的新型威胁,其核心脆弱性源于物理世界与信息世界映射过程中产生的"带外漏洞"。她进一步指出,这类漏洞普遍存在于各类传感器和执行器中,通过发射特定电磁信号、声波等物理场干扰,可实现对温度传感器、机械硬盘、触摸屏等关键部件的非侵入式攻击。徐教授系统性地梳理了六类跨域交互漏洞,并强调随着器件小型化和系统集成化的发展,此类安全问题将日益突出。最后她指出,亟需建立针对具身智能部件的自动化检测平台与安全标准体系,通过"安全体检"方式在研发阶段发现并修复潜在隐患,为具身智能的规模化应用筑牢安全根基。
引导嘉宾张卫东教授作了题为“面向空海协同任务的具身智能系统安全防护与可信决策关键技术”的报告。他在报告中指出,空海跨域协同系统通过将无人机与无人艇的优势互补,可大幅提升复杂任务执行能力,而无人机在动态平台上的精准降落是该系统的核心技术瓶颈。他进一步指出,团队通过自主研发的视觉引导、红外定位和抗摇摆控制等技术,成功实现了在复杂海况下的无人机自主回收。张教授特别指出,在系统研发过程中必须坚持"科研思维"与"工程思维"并重,既要追求技术突破,也要确保系统的可靠性与实用性。最后他强调,随着空海协同系统的广泛应用,必须建立完善的安全保护与可信决策机制,这是确保此类复杂无人系统在军事、环保、应急等领域安全可靠运行的关键保障。
引导嘉宾魏强教授作了题为“要赋能,不要负能:具身智能的安全感构成问题”的报告。他在报告中指出,具身智能的发展不仅需要解决技术安全问题,更需要构建人类对其的"安全感"——这是一种人类在与具身智能体协同过程中形成的主观信任状态。他进一步指出,安全感的本质矛盾源于人类对可控性、可预测性的心理需求与机器智能技术特性带来的未知风险之间的失衡。魏教授特别剖析了具身智能系统面临的"既要又要"矛盾,即既要智能体自主高效完成任务,又要其绝对服从人类安全准则的内在冲突。最后他强调,未来具身智能应当具备"可信赖品质",这需要通过动态评估、认知闭环等技术手段,在持续人机交互中逐步构建,从而实现从工具理性到价值理性的跨越,让具身智能真正成为人类可信的协同伙伴。
引导嘉宾赵彬彬教授作了题为“人工智能安全:从算法安全到具身智能系统安全”的报告。他在报告中指出,人工智能安全经历了从算法安全、数据安全到系统安全的演进过程,而具身智能系统正是算法与系统深度融合的典型代表。他进一步指出,在深度学习时代,对抗样本攻击、后门攻击等新型威胁对模型安全构成严峻挑战,而大模型时代又面临提示词越狱、内容侵权、隐私泄露等新型安全问题。赵教授特别介绍了其实验室研发的智能系统安全分析平台,该平台集成150余种攻防方法,能为AI模型提供全方位安全评估与加固。最后他强调,具身智能系统的安全防护需要将算法安全与系统安全技术深度融合,既要关注传统的数据投毒、对抗攻击等威胁,也要重视系统层面的协议漏洞、通信安全等风险,通过构建覆盖"云-端-体"的一体化防护体系,为具身智能的健康发展提供坚实保障。
【思辨时刻:具身智能安全的三道命题与边界之辩】
在思辨环节,与会嘉宾围绕“具身智能安全的内涵与隐患分类”“具身智能的安全等级划分与科学评测方法”及“具身智能的监管机制与责任认定策略”议题展开深入探讨。
针对思辨议题一"具身智能安全的内涵与隐患分类",思辨嘉宾刘宪华指出需要建立分层可信模型,从价值观对齐、安全反思到自主优化策略,最终实现数学可证明安全,构建完整的安全体系架构。他强调在无人系统市场化进程中,责任认定机制亟待完善,需要建立包括产品责任保险在内的新型责任分担模式。
李淑红从养老机器人等具体应用场景出发,指出安全内涵需要从传统的功能安全扩展到人机伦理协调的新层面。她特别强调在老年人照护场景中,机器人行为的可预测性和透明性至关重要,这直接关系到用户的心理安全和信任建立,需要构建涵盖物理安全、数据安全和伦理安全的综合保障体系。
杨旭忠将具身智能安全问题系统归纳为三个核心维度:本体安全涉及硬件设备本身的可靠性;数据安全涵盖隐私保护和算法公平性;交互安全则要求在人机协同过程中确保行为的可预测性。他强调需要建立覆盖硬件、算法和交互的立体防护体系,特别是在工业机器人与人协同作业等高风险场景中。
魏强提出"安全感"这一创新概念,认为具身智能的安全不仅需要技术层面的防护,更需要构建人类对智能体的心理信任。他指出这种安全感建立在技术可靠性、交互透明性和伦理价值观对齐的基础上,需要从静态阈值保护转向动态风险评估,实现从客观防护到主观感知的重要转变。
吴怀广提出前瞻性建议,主张将安全漏洞转化为设计约束,在系统设计阶段就实现安全内置。他认为应该将已知的安全威胁转化为正向设计需求,通过架构层面的创新,使安全防护从"事后修补"转变为"事前预防",这需要建立安全专家与系统设计者的深度协作机制。
徐文渊通过温度传感器受电磁干扰、机械硬盘受声波影响、触摸屏受信号注入等多个典型案例,深入分析了物理域与信息域交叉威胁的特征。她指出这类"带外漏洞"普遍存在于各类传感和执行部件中,随着系统集成度提高而日益复杂,亟需开发全新的检测方法与防护方案,建立覆盖六类典型漏洞的自动化检测平台。
针对思辨议题二"具身智能的安全等级划分与科学评测方法",思辨嘉宾陈伟能指出安全评级应体现从"附加安全"到"内生安全"的演化路径,建议建立具备自我反思与自主进化能力的安全体系。他强调必须建立分层分类的评测框架,针对不同应用场景制定差异化安全要求,并呼吁产业界通过开放协作构建完善的评测生态。
刘军发提出标准体系建设需要长期积累和持续演进,建议构建"虚实结合"的新型评测范式。他指出应当以虚拟环境测试为主要手段,结合实际场景验证作为重要补充,通过科学合理的资源配置实现测试覆盖度与实施可行性的最佳平衡。
夏冰建议参考现有等级保护制度的成熟经验,将具身智能系统视为多技术融合的复杂实体。他提出可以将其安全要求分解为传统信息系统安全、物联网安全和工控系统安全等多个专业领域,并分享了"黑盒与白盒相结合"的综合测试方法论。
徐文渊强调标准制定应当遵循分阶段、分场景的渐进原则,建议优先在扫地机器人、酒店服务机器人等典型应用场景建立行业标准。她特别指出需要考虑老年人、儿童等特殊群体的安全需求差异,并提出通过"负面清单"管理机制在鼓励创新与保障安全之间取得平衡。
学生代表金硕提出安全等级划分应当基于交互复杂度、自主决策能力和任务风险水平等多个维度构建分级体系。他强调需要汇聚全球专家智慧,建立能够兼顾技术指标与社会接受度的动态分级标准。
学生代表薛盟关注评测方法的科学性和可信度保障,建议引入红队演练、对抗测试等主动评估方式,并建立异常行为分析机制。她指出评测体系需要在标准化与创新性之间保持适度张力,同时确保评测过程的透明度和结果的可验证性。
针对思辨议题三"具身智能的监管机制与责任认定策略",思辨嘉宾陈科海指出需要建立全周期监管体系,覆盖研发、运营到使用的各个环节。他强调监管框架需要充分考虑技术迭代速度与法律更新周期的匹配问题,同时要针对不同用户群体制定差异化的监管要求,特别是对儿童、老年人等特殊群体需要采取更有针对性的保护措施。
巫蜀江提出监管范围应当从单纯的安全扩展到安全与隐私并重,构建"安全隐私一体化"的监管范式。她强调监管机制的设计需要平衡产业发展与风险防控的关系,避免因过度监管抑制创新活力,建议通过正向激励引导企业将安全要求内化为发展动力。
赵彬彬从技术取证角度指出,需要建立官方与非官方相结合的数据提取路径。他提出可通过可信执行环境等技术支持合规取证,同时也要关注现有安全防护机制的脆弱性,为责任认定提供可靠的技术支撑。
邢颖阐述了区块链技术在监管中的独特价值,指出其可实现全链路可信存证与跨域协同治理。她提出通过联盟链构建政府、企业、学术机构多方共治的监管生态,建立涵盖事前备案、事中监测、事后溯源的全流程监管体系。
夏冰强调监管机制需要实现多部门协同治理,建议参考现有网络产品安全审查制度建立分级分类监管框架。他指出对于涉及公共安全、国家安全的场景需要采取强制性监管措施,而对于普通消费级应用则可采取相对灵活的监管方式。
谢佳提出基于风险等级的差异化监管策略,建议将具身智能应用划分为不可接受风险、高风险、有限风险和低风险四个等级。她指出对于医疗、自动驾驶等高危场景需要建立强制性认证和全生命周期日志记录,而对普通服务机器人则可采取透明度要求和信息披露等柔性监管措施。
任建吉从产品责任角度出发,指出需要明确开发者、销售者、使用者等多方责任边界。他强调在事故责任认定中应当借鉴产品责任相关法律框架,建立合理的责任分配机制,同时要考虑技术黑箱特性带来的举证困难等现实问题。
学生代表张翔提出基于场景特性的责任认定原则,建议在公共服务领域采用严格责任原则,要求开发者承担更高举证责任。他指出需要建立分类分级的事故责任认定框架,根据不同应用场景的风险特性制定差异化的责任分配方案。
附活动掠影:
附:CCF YOCSEF郑州简介
中国计算机学会(CCF)青年计算机科技论坛(Young Computer Scientists & Engineers Forum,YOCSEF)是CCF于1998年创建的系列学术活动,是CCF创新机制的试验田,平等、民主的氛围吸引和造就了一批CCF的中坚力量,带动了学会的改革和发展。
CCF YOCSEF郑州成立于2005年,是中国计算机学会青年计算机科技论坛在全国的28个分论坛之一。CCF YOCSEF郑州将肩负引领学术前沿探索的重任,针对计算机学术、产业和技术点问题进行思辨,思其本质、辨其真伪。CCF YOCSEF郑州成员主要来自河南省内著名高校和计算机信息类企业中的专家教授与负责人。自2005年至今, CCF YOCSEF 郑州历任AC主席分别是周清雷(郑州大学)、甘勇(郑州工程技术学院)、寇怀忠(黄委会信息中心)、赵长升(河南金鹏信息)、赵长升(河南金鹏信息)、张素智(郑州轻工业大学)、张浩军(河南工业大学)、李玲玲(郑州航空工业管理学院)、钱慎一(郑州轻工业大学)、张丽(河南金鹏信息)、单征(信息工程大学)、贾俊亮(河南金明源信息)、邓淼磊(河南工业大学)、夏冰(中原工学院)、吴怀广(郑州轻工业大学)、贾丹丹(长城计算机)、刘福东(信息工程大学)、刘云龙(省保密协会)、张磊 (河南大学)、任建吉(河南理工大学)、现任主席陆丽(嵩山实验室)。
CCF YOCSEF 郑州活动赞助欢迎联系。联系人:陆丽(18437128000,微信同号)。
供稿丨刘起东、张磊
初审丨穆辉宇、赵雪专
终审丨陆丽
















所有评论仅代表网友意见