随着ChatGPT等大模型的兴起,人工智能迈入“百亿乃至千亿参数”的新时代,数据驱动的智能能力持续突破。但与此同时,大模型在训练、微调和推理过程中暴露出前所未有的隐私与安全风险:模型反演、成员推理、微调泄露等问题频现,传统隐私保护技术面临适用性和有效性的双重挑战。尤其是在检索生成大模型(RAG)等新兴应用模式下,隐私风险正加速演化,呈现出更复杂和多样化的态势,亟需新的技术范式与系统性防御策略。
在此背景下,2025年10月24日,由中国计算机学会(CCF)主办、CCF YOCSEF青岛学术委员会承办的“隐私进化论:从小模型到大模型的安全跃迁”技术论坛CNCC期间在哈尔滨工业大学举办。论坛由青岛大学张翰林副教授和山东大学徐东亮副教授担任执行主席。
哈尔滨工业大学王亚斌副研究员、上海交通大学林云副教授、浙江大学王志波教授、蚂蚁技术研究院洪橙研究员受邀担任引导发言嘉宾,广州大学苏申教授、河南大学张磊教授、武汉大学彭聪副教授受邀担任思辨嘉宾出席本次论坛。
隐私进化论:从小模型到大模型的安全跃迁
本次论坛围绕大模型安全防护体系、隐私攻击与防御机制、可信计算与合规治理等多个方面,探讨传统方法在新环境下的适应与突破,深入剖析新型隐私攻击面与防御思路,推动隐私保护技术的创新与跨领域应用。交流了生成式人工智能、密态推理、安全多方计算等前沿方向的最新进展与挑战,强调在大模型全生命周期中构建系统化安全防护的重要性。参会嘉宾认为,大模型安全的实现需技术与治理协同推进,技术上应以隐私计算、可信执行环境等手段应对复杂风险,治理上需完善安全标准与监管机制。论坛建议加强跨领域协作与产学研结合,构建开放、安全、可信的大模型生态体系,助力人工智能的健康与可持续发展。
引导发言:聚焦大模型时代的隐私与安全挑战
在论坛的引导发言环节,哈尔滨工业大学王亚斌副研究员代西安交通大学苏洲教授以生成式人工智能安全风险检测与防护为主题,分享了生成式AI在生成对抗网络和大型预训练模型推动下的迅猛发展。他从安全防御架构与关键特征切入,分析了生成式模型在内容创作、知识表达等方面的应用潜力及由此引发的数据安全与网络攻击风险,并介绍了面向安全风险检测与安全防护关键技术和最新研究进展。
随后,上海交通大学林云副教授围绕面向网络钓鱼欺诈的可信检测和监控技术展开交流。他结合AI在钓鱼网站与邮件检测中的实际应用,阐述了基于“反事实”理念的检测思路,提出兼具准确性、及时性、可解释性与主动性的检测框架,并展示了该技术在产业场景中的落地成效。
浙江大学王志波教授聚焦大模型越狱风险评估:从通用到端侧这一前沿议题,剖析了越狱攻击的演化特征与潜在威胁,介绍了红队测试样例构造方法和系统化风险评估框架,为多场景下的大模型安全评估提供了新的思路。
最后,蚂蚁技术研究院洪澄研究员分享了关于密态推理系统性能极限的研究进展。他从安全多方计算与同态加密出发,探讨了CNN与Transformer模型在密态推理中的优化途径,并进一步分析了TEE在可验证AI与防侧信道防护中的潜力,指出TEE或将成为推动大模型隐私保护落地的重要技术方向。
思辨探讨:网络数据安全中的技术与法律协同发展
本次论坛的思辨环节聚焦于大模型背景下的隐私保护技术适应性与安全防御新思路,参会嘉宾围绕三个核心议题展开了深入交流与思想碰撞,分别是“传统隐私保护技术还能适用于大模型吗?”、“大模型带来的新操作,如何守护隐私安全?”以及“大模型时代的隐私攻击手段如何演变,防御准备好了吗?”。
围绕议题一,嘉宾们探讨了传统隐私保护技术在大模型场景下的延展性与适配性。河南大学张磊教授认为,大模型因结构复杂、过程黑箱,使隐私保护更加困难,可借鉴人类社会治理的模式来保障隐私安全。王亚杰指出,小模型阶段积累的隐私防护经验,如对抗样本等方法,仍是大模型安全的技术基石,但需要结合新特征进行扩展与优化。蚂蚁技术研究院洪澄研究员提出,在大模型中可以应用超大规模加密矩阵乘法等密码学手段,而小模型则更适合处理表格类数据。哈尔滨工业大学王亚斌副研究员认为,小模型与大模型在隐私问题上的本质差异不大,关键在于算力与训练规模的不同,随着计算能力提升,传统技术依然具备可延展性。嘉宾们还讨论了伦理知识库建设、时空数据粒度安全、以及大模型“反哺”小模型等问题。洪澄提到,通过人工与模型的双重监督可增强隐私防护的智能性,而王亚斌和成锐则强调,大模型的规模化带来了新的技术挑战,需对现有方法进行适配与创新。
针对议题二,讨论聚焦在大模型新操作模式下的隐私风险防控。王亚斌提出,大模型使用者难以察觉其训练数据中可能包含隐私信息,未来应探索用户可直接验证隐私数据使用情况的机制。王亚杰建议,从技术层面可引入“隐私海关”控制机制,如围栏与对齐策略,对无法通过技术手段解决的风险,则需依赖法律和监管的补位与惩戒。洪澄指出,大模型是一个高度复杂的系统,潜在隐私风险贯穿数据输入、训练、推理等全过程,需要在每个环节实现防护。广州大学苏申教授从国家数据安全角度提出,应针对不同管理层面制定差异化隐私识别与管控手段。张磊进一步指出,大模型的出现使隐私泄露问题更为突出,尤其在隐私定义、泄露判定与溯源成本等方面仍存在挑战。嘉宾们一致认为,大模型安全需在技术、制度与伦理层面形成多层次防线。
围绕议题三,与会嘉宾重点讨论了大模型时代隐私攻击的演化趋势与防御策略。王亚斌指出,大模型隐私攻击成本低、影响广,可能造成大规模用户损失,因此监管与实时监测机制亟待强化。张磊认为,大模型的隐私安全可在一定程度上借鉴传统网络安全体系,但仍存在身份鉴别与访问控制的短板。王亚杰强调,应持续跟踪新技术演进带来的新型隐私风险,动态更新防御手段。洪澄则指出,当前密码学等可证明的隐私保护方案在大模型环境中难以完全适用,不得不在安全性与性能之间做出妥协,采用部分不可证明的简化方案,这在提升效率的同时也引入了新的风险与隐患。
总体而言,嘉宾们认为,大模型的兴起使隐私保护问题进入新的阶段。传统技术虽仍具参考价值,但需在算法、架构与治理机制上全面创新。未来的隐私保护应以多层防御体系为核心,融合密码学、隐私计算与可信执行环境等技术,并辅以法规制度与伦理约束,共同构建可验证、可追溯、可治理的大模型安全生态。
附活动掠影:
图1:“隐私进化论:从小模型到大模型的安全跃迁”技术论坛现场
图2:哈尔滨工业大学王亚斌副研究员做论坛引导发言
图3:上海交通大学林云副教授做论坛引导发言
图4:浙江大学王志波教授做论坛引导发言
图5:蚂蚁技术研究院洪橙研究员做论坛引导发言
图6:思辨嘉宾河南大学张磊教授发言
图7:思辨现场
本次论坛通过深入的主题交流与多维度的思辨探讨,系统呈现了大模型时代隐私保护与安全防护的最新进展与研究方向。与会专家围绕生成式人工智能、密态推理、安全多方计算、越狱风险评估等前沿议题展开深入交流,提出了多项创新性技术思路与实践路径,特别是在强化大模型隐私防护、完善安全评估体系及推动技术合规治理方面,为行业发展提供了重要启示。论坛的讨论不仅加深了对大模型安全挑战的理解,也凸显了跨领域协作、技术创新与制度完善在构建安全可信AI生态中的关键作用。通过本次论坛的思想碰撞,参会嘉宾进一步认识到,唯有在技术、法律与伦理的协同推动下,才能有效应对大模型时代日益复杂的隐私与安全问题。论坛的成功举办,为相关领域的研究与实践注入了新的活力,也为未来大模型安全与隐私保护的发展方向指明了路径。
关于本次论坛的后续信息,敬请关注CCF YOCSEF网站(http://www.yocsef.org.cn/)。
图8:本次论坛与会嘉宾集体合影
关于YOCSEF青岛
2009年,中国计算机学会青年科技论坛(CCF YOCSEF)青岛分论坛成立。按照时间顺序,YOCSEF青岛AC主席分别是潘振宽(青岛大学)、魏志强(中国海洋大学)、董军宇(中国海洋大学)、徐九韵(中国石油大学)、赵建立(山东科技大学)、广红(青岛百灵科技)、王胜科(中国海洋大学)、吴则举(青岛理工大学)、吕琳(山东大学)、赵中英(山东科技大学)、李昕(中国石油大学)、包永堂(山东科技大学)、于彦伟(中国海洋大学),主席晁国清(哈尔滨工业大学(威海)),现任AC主席仲国强(中国海洋大学)。
欢迎各界热心人士加入CCF YOCSEF青岛大家庭!
仲国强:15906398365

















