技术论坛 | AI赋能医工交叉:从通用智能到领域突破的创新之路
2025-12-31 阅读量:0 小字

20251228

由中国计算机学会(CCF)主办

技术论坛 | AI赋能医工交叉:从通用智能到领域突破的创新之路

在厦门大学举行

论坛背景:

当前,人工智能正从通用能力展示迈向深度赋能医学工程融合的关键阶段。然而,医工交叉领域面临的核心瓶颈在于通用智能难以直接转化为可落地、可验证的临床与工程价值。现有AI应用多多为通用型,缺乏对医学真实需求、工程系统约束以及临床安全与伦理风险的系统性回应,难以支撑复杂医疗场景中的长期可靠运行。这种能力强而价值不明的状态,导致成果转化缓慢、学科协同壁垒突出、应用标准不统一、临床信任基础薄弱等问题。因此,探索并推动一条以真实医学问题为牵引、以工程系统为载体、以安全可验证为底线的AI赋能医工交叉创新路径,实现从通用智能到领域突破的跃迁,已成为推动医疗科技高质量发展的关键方向。

1

1:论坛合影


论坛情况:

本次论坛由张东旭(翔安创新实验室,CCF YOCSEF厦门学术秘书)、彭佳林(华侨大学,CCF YOCSEF 厦门学术委员)担任执行主席。刘伟权(集美大学,CCF YOCSEF厦门学术秘书)、郭丽清(厦门华夏学院CCF YOCSEF 厦门学术委员)担任线上主席。

论坛伊始,两位执行主席介绍参会嘉宾并欢迎各位嘉宾的到来,同时介绍了本次论坛的背景及议程。随后,CCF YOCSEF厦门25-26主席苏彦聪介绍了CCF YOCSEF自由平等的思辨文化、承担社会责任,提升成员能力的使命、以及CCF YOCSEF厦门的创办发展历程等。

2

2:执行主席主持开场

3

3苏彦聪介绍YOCSEF


1.上半场:引导发言

引导报告1《从通用智能到领域突破:泛化能力与专家能力的交响乐

北京理工大学长聘教授中科院计算所客座研究员张法做第一个引导发言报告。张法老师以交响乐为喻,阐释医工交叉并非单一技术的独奏,而是多学科协同、融合创新的和声过程。他指出,AI目前已深度渗透到医疗核心场景,如胸片阅片、电子病历生成等,约80%的影像信息化流程已依赖AI辅助,整体提升了医疗效率。然而,全面迈向临床落地仍面临伦理界定、责任归属等系统性挑战,需构建多方共进的融合生态。

张法指出,当前AI在医疗领域的应用仍面临诸多约束:除影像、病理外,许多场景存在水土不服,如跨中心数据差异、罕见病诊断及个体化差异等难题,且伦理责任界定尚不清晰。呼应交响乐主题,张法老师提出破解之道在于协同共振:以通用基础模型为伴奏,保证广度与普适性;以领域专家能力为旋律,深入个性化与疑难诊疗,实现两者的深度融合与协作。

张法老师指出,当前通用模型性能随数据增长会逐步饱和,但若能融入领域知识与专家能力,其上限可显著提升。尤其在医疗领域,专家能力应居于核心,针对复杂疾病与罕见病处理,需以通用模型为基础,以专家能力为引领,实现泛化专精的深度融合,这正是交响乐协同理念的关键所在。

他认为,通用智能与专家能力之间存在三大关键矛盾:其一,标准化应用与个性化诊疗的矛盾,如AI在胸片筛查中表现优异,却难以应对罕见病等复杂情况;其二,数据驱动与经验积累的矛盾,基层与顶级医院间数据质量与规范的差距显著,影响模型普适性;其三,技术效率与医疗安全的矛盾,医疗领域对错误的容忍度极低,模型即使仅有0.1%的误判也可能带来严重后果。这进一步说明,必须通过深度融合,使通用智能与专家能力协同互补,方能实现安全有效的医疗突破。

从协同到落地应用,他提出必须跨越四大关键挑战:一、数据壁垒,高质量医疗数据受限于医院孤岛与利益格局,需政策与机制协同突破;二、技术整合,需实现多模态数据的高效融合与计算;三、系统落地,AI如何融入现有临床流程(尤其在基层),对医生协作提出新要求;四、责任界定,若出现医疗风险,责任应在开发者、医院或用户之间明确划分,这是监管与伦理的核心议题。这些挑战的解决,正需一场多方参与的交响乐式协同创新。

为实现交响乐般的协同融合,需从三方面推进:数据层面,需借助隐私计算等技术破解数据孤岛,并建立统一规范以保障质量;落地层面,应明确AI与医生的分工,建立基于临床反馈的持续优化机制,同时提升患者信任与认可;技术层面,可以通用大模型为基座,融合文本、影像、基因等多模态数据,并引入专家知识增强模型鲁棒性。张法老师坦言,尽管路径清晰,但实现全面融合仍面临显著挑战,需持续攻坚。

针对多模态数据融合的实际难题,张法老师指出当前许多融合方法的性能甚至不及单模态。对此,他提出三个关键技术策略:一是保留模态特异性,避免在融合中消除各模态独有的重要信息;二是增强模态间关联,例如深度挖掘影像与基因数据的内在联系;三是转变融合机制,从传统的静态拼接升级为动态注意力模型,实现自适应融合。

最后,张法老师总结道:实现通用智能与医疗专家的深度融合,仍需在技术层面持续突破,并以实际临床问题为抓手逐步推进。他呼吁汇聚计算、临床、政策等多方力量,共同推动AI向个性化、精准化的医疗实践转化。

4

4:张法教授做引导报告


引导报告2:《超越拿来主义”:构建适配生物复杂性的可信AI

山东大学计算机科学与技术学院教授崔学峰做第二个引导报告发言。他指出,当前医工交叉中普遍存在拿来主义现象,即简单套用影像、自然语言等领域的成熟模型,却忽略了生物系统是复杂且尚未被充分理解的网络。他呼吁,面对生物医学的特殊性与未知性,研究需超越单纯方法移植,应从三方面推进:一是在方法层面主动设计契合生物复杂性的新模型;二是在训练中融合领域知识,而不仅是数据驱动;三是在落地时除精度外,更应关注可信性等多元评价维度,以构建真正适配且可信的医疗AI

崔学峰以生物空间组学中的六边形结构为例,指出传统图像处理采用方格状邻域(上下左右四个方向),无法直接适配生物样本中常见的六边形邻域关系。若强行将六边形数据转换为方格,会损失关键结构信息;而直接使用图神经网络又会丢失空间位置。为此,他与团队创新性地融合卷积网络的位置感知思想与图网络的灵活性,设计出具有七个独立参数边的六边形图神经网络,使模型能同时保留邻接关系与精确位置信息。这一实践表明,真正的医工交叉必须超越简单套用,从生物系统的本质结构出发进行方法创新。

崔学峰指出,当前研究呈现一种矛盾趋势:基于大模型微调的应用型工作快速增长,但真正的方法创新比例却在下降。他呼吁回归科研本质,应从实际问题中抽象出核心需求,设计适配方法,而非止步于拿来主义。此外,在模型训练中,仅靠数据驱动的大力出奇迹可能使模型违背基本科学常识(如生成不可能的化学键)。因此,必须将人类积累的领域知识(如物理规则、中医经验)融入训练,引导模型在遵循现实规律的基础上进行泛化与创新。

针对将特殊分子对接至蛋白质口袋的难题,崔学峰老师指出,传统分子动力学模拟因能量函数精度不足易失败,而纯神经网络方法又可能违背物理规则。为此,团队创新性地将物理能量函数与深度学习网络相结合,在遵从基础物理规律的同时,修正了传统方法的缺陷,使分子对接成功率显著提升。该案例表明,在医工交叉领域,应避免过度依赖数据驱动的大力出奇迹,而需主动将人类积累的领域知识(如物理法则)深度融入模型,以此实现更可靠、更真实的创新突破。

崔学峰强调,医疗AI落地不能仅追求精度,更需解决黑箱问题。即使模型整体精度达99%,但对误判的个体患者而言风险是百分之百。他借鉴自动驾驶中可解释系统的理念,提出医疗AI应打开黑箱,使其决策过程可被观察与理解。他以基因序列分类为例:传统分类可能输出与现有生物分类树冲突的结果。为此,团队将树形分类知识以数值约束形式融入模型,引导其输出符合人类知识体系的预测,从而增强临床信任。这体现了落地时需兼顾精度与可信性的重要原则。

最后,崔学峰总结道,实现可信医疗AI需践行三点:一是方法上必须超越拿来主义,依据具体问题创新设计;二是训练中需融合领域知识,而不仅是数据驱动;三是落地时除精度外,更要追求可解释性与用户信任。他特别指出,后两点尤其需要与一线临床医生深度协作,理解真正的临床需求与知识体系。因此,医工交叉不应是闭门造车,而应像交响乐般紧密协同,使AI成为医生的可靠助手,共同推进医疗技术的可信落地。

5

5:崔学峰教授做引导报告


   引导报告3:《人工智能在医学检验的前世今生》

厦门大学公共卫生学院实验医学系副系主任王厚照做第三个引导报告。王厚照结合其30年检验科工作经历,回顾了技术发展的关键阶段:上世纪90年代中期,日立7060等生化仪是当时的高端设备,报告发放依赖科室自行开发的简单软件,这被视为AI在检验领域的雏形。他回忆,那时许多项目仍需手工操作,而如今相同设备已逐步淘汰,自动化与信息化彻底改变了工作模式。这段历史生动展现了从手工操作信息系统的必然跨越,也为理解当下智慧实验室的建设提供了重要背景。

他回顾了检验信息化进程中两个关键节点:2000年左右,检验信息系统(LIS)与医院信息系统(HIS)开始引入,虽初期不够完善,但奠定了自动化基础;至2013年,系统实现与仪器的双向传输,标本可自动识别上机,极大减少了人工核对导致的差错,显著提升了检验质量与安全。同时,他也见证了国产检验设备从无到有、逐步推广的历程,并亲身参与了国产仪器的早期应用与评估。这段历程体现了信息化、自动化对检验工作的根本性重塑。

王厚照重点介绍了其医院正在建设的全国产化智慧实验室。该系统实现了从刷码叫号、标本自动传输与分拣,到生化、免疫等项目的全自动检测,直至结果审核、报告自动发放及标本归档的全流程闭环管理。他特别指出,该国产方案已实现从采血到报告发出的全程自动化,其设计理念与集成度在某些方面超越了进口产品,展现了国产智慧检验系统的先进性与落地可行性,是AI与检验场景深度融合的真实范例。

他指出,智慧实验室的核心功能之一是自动审核——即系统自动判断报告可否签发。传统人工审核常因疏忽或经验不足导致错误报告发出。他举例:一位肾移植患者的CRP结果异常高达200+,复查却完全正常,可能是标本串扰所致,但人工审核未能识别,致使患者承受不必要的抗生素治疗与经济损失。这凸显了自动审核在规避人为差错、保障患者安全上的关键价值。

王厚照进一步阐述了智慧实验室中AI驱动的多项核心功能:自动标本质量监控可识别溶血、凝血等不合格样本;自动质控与急诊检测实现了24小时随到随检,保障结果及时准确;自动试剂管理能有效避免人工更换错误导致的批量结果差错;系统还具备故障自动报警功能。这些智能化应用不仅极大提升了实验室的工作效率与管理水平,更重要的是通过标准化、全流程的自动监控,从根本上提升了检验质量与患者安全。

他表示坚定支持国产设备,指出其已具备比肩甚至超越进口产品的实力。他以化学发光仪为例,国产设备检测速度远超进口同类产品。核心技术自主化更带来成本大幅降低。面向未来,他希望与计算机专家共同攻关,实现人工智能抽血(机械臂)、提升系统稳定性、完善功能并推动血常规、PCR等多专业检测的全自动化、全流程整合,最终建成全面智慧化的检验平台。

最后,王厚照聚焦于患者端,指出当前检验报告单信息有限,患者常难以理解结果意义。他展望,未来人工智能应超越简单的数值提示,为每位患者提供个性化的诊断解读与治疗建议,实现从数据输出决策支持的跨越。他相信,如同手机功能曾超乎想象,这项深度赋能患者与临床的AI应用也必将很快实现。

6

6厦门大学公共卫生学院实验医学系副系主任王厚照做引导报告


引导报告结束后,执行主席张东旭、彭佳林,为三位引导发言嘉宾颁发感谢牌,感谢嘉宾们的精彩分享。

7

7:执行主席为引导嘉宾颁发感谢奖牌


2.下半场:思辨环节

中场休息后,是超燃大脑的思辨环节。论坛邀请的三位思辨嘉宾为:福建农林大学的魏丽芳教授、联勤保障部队第910医院的张乾营副主任医师、华侨大学的许江长副研究员。来自校、企嘉宾围绕3个议题展开思辩共话AI医疗,呈现了一场思想碰撞的盛宴。

8

8:与会嘉宾精彩纷呈的思辨


议题1:通用AI模型赋能个性化诊疗需满足哪些核心条件?不同诊疗场景的适用边界如何科学界定,其适配本质内核何在?

魏丽芳:超越拿来主义的关键在于坚持具体问题具体分析。赋能个性化诊疗,不能仅依赖数据驱动,而应实现任务与数据双协同,即首先明确临床任务的核心目标,再以此引导数据的运用与模型的适配。唯有深入场景,厘清内因(疾病与个体的内在机理)与外因(外部数据与技术),才能科学界定应用边界,理解适配的本质内核,最终做出契合临床原理的最优决策。

张乾营:结合放射科实践指出,AI影像应用已非常普遍,但临床信任经历了从完全相信产生怀疑的转变。关键在于,AI对图像的判定是纯数据驱动,而医生还需综合形态、位置等上下文信息进行解读,二者存在本质差异。此外,AI报告具有法律效力,但一旦出错,责任主体难以界定。他举例,曾有年轻医生未审核即签发AI报告,对患者造成损害,最终追责困境凸显了当前应用在责任伦理与临床适配上的核心挑战。

戈维峰:通用AI赋能个性化诊疗面临三大核心挑战:一是多模态基础模型能力不足,尤其在视觉理解与知识抽取上亟待突破;二是存在幻觉等问题,模型生成的结果需通过人在回路等方式进行校正与约束;三是决策过程缺乏可解释性,如何将AI的推理过程转化为医生可理解、可学习的知识至关重要。他强调,厘清AI的本质定位是突破瓶颈的关键——AI应是医生的助手,开发需以医生为中心,充分听取临床意见,最终决策权与责任仍归属于医生。明确这一定位,方能实现减负增效、提升医疗水平的初衷。

王厚照:检验科指标(如转氨酶、血糖)的复杂性与多变性,是AI在该领域深度应用的主要障碍。与影像学相对明确的形态学异常不同,许多检验结果受生理状态、饮食、环境等多重因素影响,其异常往往指向多种可能,难以直接对应单一诊断。因此,检验结果在临床中更多被视为关键的参考依据而非决定性诊断。这种固有的不确定性,使得AI在检验领域的个性化诊疗与自动审核上面临比影像科更大的适配挑战与界定难度。

陈晓亮:从工程落地角度,提出了界定AI适用边界的四象限框架:以病症风险性信息充足度作为坐标轴。他指出,在低风险-信息有限(如感冒初诊)与高风险-信息充足(如癌症辅助决策)两种场景中,AI的辅助定位明确,落地顺畅。真正的难点与边界模糊地带,在于低风险但信息充足或高风险但信息极其有限的复杂情况。后者要求在信息不确定性、决策风险与医生介入程度之间取得艰难平衡,是当前亟需深入研究的核心,也是实现个性化诊疗必须突破的关卡。

王祝:借鉴自动驾驶分级体系(L1-L4)来思考医疗AI的边界,指出当前应明确其辅助定位,责任主体在人;未来或可向完全替代演进。同时,他对单纯以高低风险划分应用场景提出疑问,认为医学情况复杂,例如感冒也可能发展为重症,简单的二元划分并不合理。因此,更可行的路径或许是像自动驾驶一样,先聚焦于能力边界清晰的辅助场景,再逐步探索更复杂的应用,而非试图一次性界定所有风险。

吴泓润:科学界定应用边界是核心难题。他提出,划分不应简单依赖风险高低,而应基于疾病的复杂性(如单因素与多因素疾病)与后果的严重性进行综合考量。同时强调,界定工作必须由临床医生深度参与并主导,以确保其医学合理性。此外,任何引入的规则或系统都需评估其是否与现有临床流程契合,避免给医生增添额外负担,否则将难以落地。科学、合理的界定本身,是当前最需深入探讨的关键。

曹梦云:需明确区分通用AI模型与领域微调模型。前者缺乏医学专业知识与个体数据,直接用于个性化诊疗难度极大。其当前在医疗中最可行的角色,或在于诊疗前期的医患沟通:通过更自然、匿名的交互,帮助患者坦诚、清晰地描述症状与病史,系统收集信息,从而高效完成初步信息整合,为医生节省时间并提升信息质量。这一定位,更能发挥通用模型的对话与理解优势,并规避其在专业诊断中的短板。

陈伟思:在评估AI诊断模型时,应首要避免假阴性(漏诊),因其对患者与社会危害最大。他建议将通用AI模型调整为保守、谨慎的风格,宁可接受假阳性(误报),为医生留出后续排查空间。同时,风险评估不应仅按疾病分类,而应由模型列出所有可能性及其置信度,给出综合性判断。此外,AI可在两端发挥作用:在患者端,通过多模态交互理解患者真实意图与信息可信度;在医院端,则以保守风格专注辅助识别与诊断。

议题2:如何避免因数据采集方法差异引入数据地域差异等非期望变量?能否建立形式化的模型部署普适框架,支撑通用模型的个性化微调以优化应用效果?

许江长:不同医院设备与标准不一,导致数据存在显著地域差异,统一采集标准难度极大。可行的技术路径是从算法层面进行干预一是通过域适应等方法,将异源数据映射到统一特征空间;二是在训练前利用扩散模型等技术预处理数据,主动剥离非期望变量。对于建立个性化微调框架,专家认为可行,但关键在于设计临床约束条件,使通用模型适配不同任务的核心诉求(如骨科的高精度与软组织的形变考量),从而实现安全、有效的领域适配。

魏丽芳:首先,数据异质性可通过生成技术(如扩散模型)与标准化映射在采集与处理环节主动缓解。其次,模型部署可采用联邦学习框架破除数据孤岛,但实践中必须解决两大难题:一是各中心数据标注不一致(如类别数量不同)与数据量严重不均衡;二是中心服务器需有效评估各节点的贡献度与所提供模型参数的可靠性。这两大挑战若未解决,将影响框架的普适性与安全性。

李艺伟:从联邦学习视角提出系统性建议:数据采集层面,可建立局部标准与元数据体系以实现有效溯源;算法与架构层面,需设计先进算法(如方差缩减)应对数据异构,并探索有线传输、基于大模型的微调等新范式以提升安全性与性能;组织架构层面,其根本在于由政府主导建立可信数据中心,通过机制设计激励医院在保障安全的前提下贡献差异化数据,从而从根本上破解数据孤岛难题。

陈晓亮:解决数据差异的关键并非技术或强制共享,而在于建立数据确权与激励机制这一人的问题。必须首先明确数据贡献者的权益、模型使用权以及使用者的获益方式,数据持有方才有动力遵循统一标准治理数据。若无此基础,任何形式化的模型部署框架都难以实现。因此,可持续的高质量数据生态与协同训练的前提,在于构建科学合规的数据权益体系。

范文琦:从算法鲁棒性角度看,一定的数据差异未必是负面影响,反而可能增强模型的泛化能力,因为实际应用中无法保证所有数据都严格符合理想规范。因此,在医工交叉领域,与其追求难以实现的通用大模型,不如务实构建面向专科的领域模型。在数据收集层面,也需同步推进计算技术优化与人为规范引导,通过双向努力来平衡差异性与可用性,实现更优的实际效果。

董云云:数据的地域与采集差异并非纯粹的非期望变量,而应视为模型训练中需主动考量的关键因素。因此,通用模型在落地时,必须结合地方特点(如尘肺病的高发地区)进行个性化微调。他强调,无论技术如何发展,AI都只能是临床决策链路中的辅助工具与参考,最终责任与签字权在于医生。如同人们对自动驾驶仍持审慎态度,医疗AI亦无法覆盖所有极端场景,当前应聚焦于其可控范围内的辅助价值。

彭家林:通用大模型直接应用于医院时面临三大核心挑战:一是模型缺乏本地专业知识且可能包含有害信息,导致医生初始信任度低;二是医学决策具有很强的主观偏好,不存在唯一标准答案;三是简单的数据微调易导致模型遗忘或产生新偏差。因此,其个性化适配的本质是让模型理解并适应本地特定的知识、数据与临床偏好,从而建立可靠信赖关系。这为技术专家提出了明确的研究方向:需开发能够快速、安全适配本地场景,且能避免灾难性遗忘的微调技术框架。

陈晓亮:针对医院面临的个性化适配与偏好难题,该专家指出,当前主流且成熟的技术路径并非直接微调大模型,而是采用组合方案:提示工程引导任务方向;外挂专属知识库注入领域知识与本地偏好;智能查询(RAG) 实时检索最新信息,确保回答基于准确数据且避免模型遗忘;最后通过电子围栏等安全技术约束输出,过滤不相关或不符合要求的内容。该框架将大模型作为强大的通用基座,其能力越强,整体方案效果越好,目前已具备较高成熟度,可有效应对落地中的适配与可控性挑战。

议题3:如何认知与界定AI医疗模型的负外部性?针对个性化模型或通用模型,应如何设计完备的使用方法或规则以保障应用安全与效能?

魏丽芳:AI医疗模型的负外部性主要包括责任归属不清、数据隐私与滥用风险、算法偏见与公平性缺失,以及对医疗就业结构的潜在冲击。他认为,对这些问题的界定与治理需技术与政策协同,逐步完善。在规则设计上,无论是通用还是个性化模型,都必须恪守安全第一,生命至上的医疗底线。个性化模型(如精神疾病诊疗)需注重持续的知识积累与场景适配,以应对个体差异的复杂性,核心在于确保任何应用均以患者安全为根本前提。

王厚照:设计AI应用规则时,不能片面追求高灵敏度(避免假阴性)而忽视特异性(导致假阳性),二者需根据临床实际取得平衡。例如,艾滋病筛查要求高灵敏度,而肿瘤标志物(如CA125)检测则更看重高特异性,假阳性会引发患者不必要的恐慌与过度诊疗。因此,规则的阈值设定必须基于具体检测项目的临床意义,并充分考虑不同设备、试剂可能带来的差异,最终使AI的审校逻辑贴合真实的诊疗需求与风险权衡。

许江长:负外部性的一个重要维度常被忽视:算法偏见引发的社会公平性问题。由于多数模型基于欧美或特定人群数据训练,其在全球部署时可能对数据不足的族群(如非洲、中东人群)预测性能显著下降。为保障安全与公平,需在规则设计中加强监管以保护隐私,并主动通过数据包容、降低学术参与门槛等措施促进全球公平。此外,应对临床医生开展低门槛的AI应用培训,使其能早期介入并正确使用工具,从用户端提升应用安全与效能。

王祝:提出一个值得警惕的潜在负外部性:若AI医疗模型被普遍信赖,可能导致部分患者过度依赖自我诊断而回避正规医疗,从而引发风险。他列举了两个典型案例:一是过去患者根据网络信息误判病情严重性而导致极端后果;二是当下患者因轻信AI不严重判断而延误就医。这提示我们,AI在赋能的同时,也可能在无形中改变公众的就医行为与健康观念,此类社会心理影响需被纳入评估与规则设计的考量。

沈志荣:提出了三个关键关切:一是责任界定难题,当AI辅助决策导致医疗事故时,责任应归属于模型开发方还是进行最终决断的医生;二是AI在疾病筛查中的潜力,可通过提升召回率精准锁定高风险人群,同时减少不必要的检测以节约成本;三是对医生专业能力的影响,担忧过度依赖AI可能导致临床医生的诊断技能与专业知识退化。这些潜在风险均需在推广AI工具前予以充分审视与规范。

李艺伟:提出了系统性的应对思路。针对过度依赖问题,建议医生和医院可基于通用大模型,利用自身专业知识构建本地化知识库与个性化模型,使AI成为其专业经验的延伸而非替代。对于患者,则可利用其历史数据构建个人专属模型,以提供更精准的健康管理。在数据治理这一根本性难题上,他主张应由政府主导建立国家级数据中心,通过安全通道(如有线专网)强制汇聚各公立医院数据,并在此基础上构建可供各医院安全调用的基础模型,从而在制度层面破解数据孤岛与安全难题。

范举:借喻智能驾驶的困境来聚焦安全与责任问题:当系统处于人机混合状态时(如醉酒车主让无证人使用自动泊车导致事故),责任难以在用户、开发方与部署方之间界定。正因此类权责问题未解决,智能驾驶的推广已受到严格限制。他以此类比强调,AI医疗亟需聚焦于安全边界与责任划分的清晰界定,否则将同样面临严重的应用瓶颈。

张东旭:从医疗器械产业化视角指出,AI与医生应是人机共融而非对立替代的关系。保障安全与效能的核心,在于明确医生在诊疗过程中的主体责任,并界定AI的辅助角色与介入程度。此外,责任划分面临现实困境:目前尚无厂家敢承诺对其AI辅助结果承担全部责任,而医院也存在将责任转嫁给技术的倾向。因此,必须通过规则设计,促使医生与AI系统形成责任共担、相互约束的协同机制,才能真正推动AI在临床中安全、负责任地落地。

王厚照:AI在现阶段的核心定位是医生的可靠辅助工具。在法律层面,出现医疗纠纷时责任主体必然是医生而非AI,这与当前法规和现实实践相符。AI的价值在于通过其严格的规则与不知疲倦的特性,帮助医生有效减少因疏忽导致的误诊与漏诊(假阳性/假阴性),从而提升诊断质量与医疗效率,实现医患共赢。因此,AI并非替代医生,而是赋能医生;医生的持续学习与主体责任不可替代,AI的意义在于辅助认真负责的医生做得更好。

9

9:执行主席为思辨嘉宾颁发感谢奖牌


本次论坛已经圆满结束,思想的碰撞总是散发着迷人的魅力,各位嘉宾与YOCSEF委员的精彩发言让人意犹未尽。衷心感谢所有嘉宾以及CCF YOCSEF家人们的热情参与和精彩分享。让我们怀揣着期待,期待再次相聚,共同探索更多智慧的火花!


热门动态
2025-12-31
2025年12月27日,CCF YOCSEF合肥分论坛第十五届学术委员会第二次...
2025-12-31
2025年12月27日,CCF YOCSEF合肥分论坛第十五届学术委员会第二次...
2025-08-11
CCF YOCSEF 昆明成功举办“小语种·大未来”技术论坛聚焦东南亚与...
2025-08-11
CCF YOCSEF 昆明成功举办“小语种·大未来”技术论坛聚焦东南亚与...
2025-12-02
2025年11月22日,中国计算机学会青年计算机科技论坛(CCF YOCSEF...
2025-12-02
2025年11月22日,中国计算机学会青年计算机科技论坛(CCF YOCSEF...
2025-11-24
CCF YOCSEF保定举办“应急救援场景下无人机AI视觉模型的创新突围...
2025-11-10
2025年11月8日,中国计算机学会(CCF)主办的“无人机视觉语言导...
2025-11-05
1、YOCSEF保定主办论坛活动 【活动名称】观点论坛:百万高端数据...
2025-10-21
GenAI时代大考:计算机高职教育的培养体系如何破茧重生?CCF YOC...
2025-09-29
承担社会责任 提升成员能力2025年9月6日,CCF YOCSEF合肥顺利举...
2025-09-29
承担社会责任 提升成员能力2025年9月6日,CCF YOCSEF合肥顺利举...
2025-09-22
2025年9月21日,中国计算机学会青年计算机科技论坛(CCF YOCSEF...
2025-09-04
1、YOCSEF保定分论坛建设相关活动【活动名称】第一次论坛筹备会...
2025-08-10
2025年8月3日,CCF YOCSEF合肥成功举办 “学术精英发现行”系列...
2025-08-10
2025年8月3日,CCF YOCSEF合肥成功举办 “学术精英发现行”系列...
2025-09-29
2025年7月12日,CCF YOCSEF 合肥成功举办技术论坛“车间物理定律...
2025-09-29
2025年7月12日,CCF YOCSEF 合肥成功举办技术论坛“车间物理定律...
2025-07-08
2025年6月28日下午,CCF YOCSEF合肥分论坛第十五届学术委员会第...
2025-07-08
2025年6月28日下午,CCF YOCSEF合肥分论坛第十五届学术委员会第...
CCF聚焦