分论坛 > 深圳 > 新闻动态
YOCSEF深圳-哈尔滨联合观点论坛|“ChatGPT能否敲开通用人工智能的大门?”
2023-02-09 阅读量:892 小字

2023年01月15日下午,由中国计算机学会(CCF)主办,YOCSEF 深圳、YOCSEF哈尔滨、深圳西丽湖人才服务中心共同协办的"ChatGPT能否敲开通用人工智能(Artificial General Intelligence,AGI)的大门?"(论坛编号:CCF-YO-22-SHZ-2FV)观点论坛以线上线下的方式顺利举办,线下举办地址为深圳市南山区西丽湖人才服务中心和哈尔滨市香坊区东北林业大学成栋楼。论坛主要由背景介绍、引导发言和思辨环节组成。论坛邀请了CCF杰出会员、微软亚洲研究院首席研究员段楠,CCF YOCSEF上海学术秘书、复旦大学计算机学院教授邱锡鹏,腾讯研发效能专家、北京航空航天大学博士魏昭和阿里云智能算法专家、北京大学博士施晨四位引导发言嘉宾,鹏城实验室研究员王晖,CCF YOCSEF总部AC委员、华北电力大学教授张莹,CCF YOCSEF天津候任主席、天津大学教授张鹏和CCF YOCSEF哈尔滨候任主席、哈尔滨工业大学副教授冯骁骋四位思辨嘉宾,YOCSEF深圳AC委员、候任AC委员及委员近二十人在深圳线下参加论坛,YOCSEF哈尔滨AC委员、候任AC委员及委员十多人在哈尔滨线下参加论坛,腾讯会议近200人,微信讨论群200多人参与讨论,腾讯Wiz和寇享直播2300多人次观看论坛直播。论坛活动由CCF YOCSEF深圳AC委员、OPPO技术战略规划专家莫磊,CCF YOCSEF哈尔滨主席(2021-2022)、哈尔滨工业大学教授/博导张伟男担任执行主席,CCF YOCSEF深圳主席、哈尔滨工业大学(深圳)副教授/博导汤步洲担任线上主席。

1

2


莫磊首先根据“State of AI Report 2022”引出2022年无疑是生成式AI爆发的一年,从DALLE2到Stable Diffusion,跨模态生成即文生图的热潮尚未消散,11月底的ChatGPT再次让AI破圈,而这一切都有着Foundation Model也就是大模型的身影,这也是当前学术研究与产业布局的最重要方向之一。ChatGPT的破圈,让AI临界点已到的声音又一次在网上热传,同时最近多个自媒体针对ChatGPT的文章层出不穷。本次论坛希望先围绕ChatGPT,探讨以ChatGPT这类大规模语言模型(Large Language Model,LLM)对学术研究以及产业落地的冲击,再进一步引申出ChatGPT与AGI的关系,以及展望一下这样的AGI可能产生的深刻影响。随后针对事先准备好的三个思辨点子问题“在大模型的冲击下,领域子问题还有继续研究的意义么?”、“这类型LLM最终会成为少数大厂角逐的游戏么?”和“ChatGPT是否是AGI的一个可能路径?”进行了现场在线调研。

3

随后进入嘉宾引导发言环节,张伟男介绍了来自学术界的段楠和邱锡鹏,莫磊介绍了来自产业界的魏昭和施晨。段楠作了题为“从AIGC(AI Generated Content)到ChatGPT,看AGI的曙光”的引导发言。他表示,Wikipedia将AGI的描述为“一个AGI智能体能理解或学习人类能理解或学习的智力任务”。目前的大语言模型(如BERT、VIT、Whisper、GPT3、Codex、DALLE2、ChatGPT等)在读、看和听等感知方面做得已经很好了,但是人类还有包括触觉、味觉和嗅觉等其他感知能力,目前的模型仍存在欠缺,是未来AGI需要扩展的感知能力;另外,人类还能与环境做交互,产生一些输出,这实际上对应到生成式模型生成内容作为交互信号,包括文本(写)、代码(写)、语音(说)、图片或者视频和动作(做)。近期的生成式模型在这方面也做的不错。不过,人类在感知世界和生成信号与外在世界进行交互过程中还有一些独有的特性,比如拥有常识和世界知识、可以完成复杂问题推理、能低能耗小样本快速学习、可以很好的感知上下文、能对特定任务做规划、具有创造力。这些神奇的过程是在人脑内部进行的,并没有在物理世界留下太多数据。通过从大数据中进行自监督学习,ChatGPT已经在上述若干方面具备了很强的能力,但还可以通过获取更多真实用户反馈和设计新的学习机制做进一步增强在这个过程中,我们可能需要关注以下几个方面:(1)构建用于评估AGI的benchmark;(2)可信生成;(3)高效学习;(4)自学习;(5)从程序中学习推理能力;(6)代码为中心的任务规划和执行;(7)代码为中心的多模态内容生成。

4


邱锡鹏以“从GPT3到ChatGPT的能力演化路线猜想”为题,追溯了从2017年Google提出Transformer模型作为GPT系列模型的基础之后,GPT各个版本的演化过程。重点总结了GPT3到ChatGPT的三个关键技术:(1)情景学习(In-Context Learning),改变了传统的“调参”学习范式;(2)思维链(Chain-of-Though),打破Scaling Laws的关键;(3)指令学习,通过自然语言指令学习对齐人类指令,达到自然语言处理任务都通用化的目的;考虑到收集非常多的人工指南是非常困难的,ChatGPT采用强化学习方式依据人类反馈优化语言模型(Reinforcement Learning from Human Feedback,RLHF)。ChatGPT还有一点很重要就是知道自己知道什么,不知道什么,不断地扩展知识边界,解锁知道的,避免回答不知道的。与GPT3相比,ChatGPT一定是经过了大量的工程优化,利用了更多的数据训练,加上了指令学习让大模型知道哪些意图是自己知道的,哪些是不知道的,可能通过code预训练引入了思维链;对于伦理问题也做了一些设计,把一些与伦理相关的问题的解答能力给封印掉了。


5


魏昭以“ChatGPT给编程和软件开发带来的影响和变革”为题,结合腾讯在AI编程方面的一些工作,从工业落地的角度谈到了整个AI编程的发展过程和ChatGPT给编程和软件开发带来的增益,以及对整个行业的影响。魏昭表示,基于ChatGPT交互式编程三大特点(1)准确的理解用户需求,不仅能很好的理解长文本描述的需求,还能准确的把握一些细微的参数约束;(2)异构数据融合能力强,不仅能根据自然语言描述生成具有完整功能的函数实现,还能很细微地解释生成的每一行代码的含义,把生成的代码和代码的含义有条理、有层次的融合在一起展现给用户;(3)交互能力强,既能写代码,又能告诉我们哪段代码写得不对,哪个函数调用错误,或者代码中存在的bug等,它都能很自然的用语言和你交互,并引导你在什么位置进行什么样的修改。这三个特点给用户带来了全新的开发体验,能很大程度上提高开发效率。从整个软件开发过程来看,ChatGPT将会成为开发人员的智能助手或者说是智能伴侣,但目前还不能取代开发人员。这样的智能助手会在整个开发过程中陪伴开发人员,贯穿代码生成、代码理解、辅助定位、bug发现和代码提交入库等方面。同时会给IT企业带来一些变革,会涌现出一大批关于大模型部署、推理加速、维护、监控、管理的AI公司,以及MaaS模型即服务、Model-driven DevOps模型驱动的开发运维一体化平台,传统的软件开发API集成厂商可能会面临淘汰的风险,因此我们应该积极拥抱ChatGPT。尽管ChatGPT在编程和软件开发方面表现出很惊艳的潜力,但在一些设计类和逻辑类的代码生成时效果表现一般,这就需要结合更多的领域知识。另外,大模型大到什么程度是合适的?在一些垂直领域是不是“小模型+知识”的方式也能解决?大模型的推理速度、综合考虑收益比等商业落地问题也是需要重点考虑的。


6

 


施晨以“与近年典型的对话系统相比ChatGPT有何独到之处?”为题,系统地总结了GPT系列模型的演进过程,并对比了同期竞品的技术特点。施晨认为对话系统发展到ChatGPT并不是一蹴而就的,经历了从有监督精调(funetuning)到无监督提示(prompting),再到加回少量监督数据指导学习的过程,中间经历了模型规模的大幅提升带来的能力跃升,从要求人设计提问方式去适应机器到机器去遵照人的指令去适应人的转变。到ChatGPT阶段,“如何更好地挖掘LLM中潜藏的能力?”成为新的研究范式。与其他同期竞品相比,ChatGPT的独到之处在于:(1)更先进的LLM使用范式,将prompting和RLHF有效结合;(2)更科学的对话处理方法,将更大、能力更强的预训练语言模型引入会话,部分继承前序工作的会话评估标准,并使用了RLHF;(3)更好的大模型基座(GPT-3.5)+优质的数据收集标注+RL机制设计和调参。总之,是在InstructGPT的基础上,针对性适配了对话场景,将大规模预训练语言模型和RLHF进行了出色的结合,引入类似人在交互回路的方式,让机器适应人,效果和体验都很好。


7


引导发言结束后,进入思辨环节。大家围绕“ChatGPT类大模型对学术研究的范式会产生什么样的冲击?团灭还是新基座?”、“ChatGPT类大模型产业落地路径可能是什么样的?一统天下还是各路诸侯?”、“ChatGPT能否敲开通用人工智能的大门?ChatGPT到AGI还有多远?会带来什么影响?”等问题进行了深入思辨。第一个思辨点由张伟男主持,第二和第三个思辨点由莫磊主持。

针对“ChatGPT类大模型对学术研究的范式会产生什么样的冲击?团灭还是新基座?”思辨点,从三个方面进行了深入讨论:“在大模型的冲击下,领域子问题(如分词、词性标注、句法分析等等)还有继续研究的意义么?”、“以ChatGPT为代表的基于LLM的研究还有多少空间? 充分挖掘大模型潜能是否会是以后研究的重要方向?”和“非LLM类研究还有空间吗? 哪些领域的任务有更大的空间?”。

“在大模型的冲击下,领域子问题(如分词、词性标注、句法分析、文本分类、文本摘要、对话理解等等)还有继续研究的意义么?”


8


  • 张伟男首先公布了第一个问题的统计结果,共收到52份参会人员投票,50%的人员持肯定态度,50%的人员持否定态度。随后与会嘉宾分享了各自的观点。
  • 张鹏表示,ChatGPT把Chat和GPT基座很好地结合在一起,是一个具有里程碑意义的工作,通过Chat把结果展示出来,更容易让人接受,会对学术研究产生冲击。从大的领域方面来看,还是需要研究科学领域的ChatGPT,比如AI for Science各个领域(例如材料、生物医药)也可以构建自己的ChatGPT,ChatGPT结合领域知识或者任务知识也是非常值得研究的。
  • 邱锡鹏表示,这是一个很有争议但是可能还是需要回答的问题,很多人认为对整个自然语言处理(Natural Language Processing,NLP)领域会有很大的冲击,他还是持乐观态度的,因为NLP是一个领域特点、行业特点和任务特点很强的AI方向,NLP子领域往往也会分得很细,特定领域的特定任务需要解决的就是特性和不通用问题,而ChatGPT这类模型往往都是通用的。因此,可以把任务分为通用基础任务还是特定领域任务。如果是通用基础任务,如分词、句法分析这类问题可能会消失;如果是特定领域任务则不会消亡,而是以ChatGPT为基会做得更好,也不会改变研究的问题本身。另外,对NLP领域的正面影响是大家可能会意识到AGI是离不开NLP大模型,这些大模型会在整个人工智能中发挥越来越多、越来越重要的作用,然后形成“入侵或者影响”其他领域,包括视觉、语音、机器人等。
  • 张莹认为,领域子问题的研究还是很有必要的。从应用角度看,大模型需要大量的计算资源和数据,而在一些场景中则更需要专门的知识,也不具备大模型需要的算力和数据;另外,大模型不能适应离线的场景,不利于部署和维护,尤其在一些子领域对隐私性和安全性要求很高的情况下,不能将数据传到云端的情况下,大模型适应性就是问题;此外,大模型的能耗也特别高,在节能减排大背景下,大模型的可持续发展也是需要面对的挑战。
  • 新加坡南洋理工大学教授孙爱欣表示,ChatGPT是往AGI的方向上前进的一步,最终目的是AGI,当然短时间内、甚至长时间内还实现不了。如果站在AGI已经实现的角度来看,各领域的子问题可能就不存在了。如果以人的能力来看,社会群体的分工来看,我们有医生、律师等,很难用一个模型来代表人的能力,AGI会回归工具属性,子问题还是存在的,需要研究。
  • YOCSEF深圳前主席(2020-2021)、深圳大学陈小军表示,ChatGPT对NLP的冲击肯定是很大的,一些传统的问题研究的意义可能也没那么大了,但大模型本身也存在很多需要解决的问题,如伦理安全、效率、领域知识融入与适配等。大模型的冲击主要体现在对很多领域带来了传统做法之外的新玩法。
  • YOCSEF哈尔滨现任副主席、东北林业大学副教授李洋表示,ChatGPT对通用领域的研究毋庸置疑会有很大的推动作用。从前期自身试用的感受来看,ChatGPT有时候喜欢一本正经地胡说八道,在一些小的领域(如医药等)实际上是缺少知识的。另外ChatGPT是离线训练的,所以也不能理解及时信息,在因果推理能力方面也是明显不足的。这些都是有待继续研究的。
  • OPPO研究院云研究部鲁浩楠认为,ChatGPT对学术研究领域的研究范式的冲击是肯定的。当然有的研究者认为只是换了一个基座而已,实际上换基座也不是对所有研究者均是友好的,尤其是在大模型被垄断,然后开源资源又非常有限的情况下,一些研究者会面临生存问题。即使ChatGPT级别的大模型开放了,不考虑训练,仅考虑推理的情况下,一般学校和科研机构可能都没有足够的资源去支撑。从这个角度来讲,对学术研究的这种范式的冲击是巨大的。子领域的子问题的研究仍然具有现实意义,如领域知识增强去解决领域专业问题,低资源情况下的端侧推理。大模型的在云测使用时成本也是很大的,大模型的轻量化和小型化会变成一个重要的领域分支,需要一个人人都能用得起的“有损”小规模大模型。

“以ChatGPT为代表的基于LLM的研究还有多少空间? 充分挖掘大模型潜能是否会是以后研究的重要方向?”“非LLM类研究还有空间吗? 哪些领域的任务有更大的空间?”

  • 冯骁骋表示,ChatGPT所表现出来的能力虽然很惊艳,但是不能说达到一个完美的一个效果。我们总结了一些现象,一方面,发现ChatGPT在事实一致性方面存在一些问题,需要继续探索像锡鹏在引导发言里面提到的ChatGPT的能力边界;另一方面,ChatGPT探索的是一种通用的人工智能,在很多场景下,更需要聚焦在专业领域,未来大模型可能会经历从大到小的过程,从通用大模型到端侧专业小模型进化,这里面可能涉及到一些剪枝、蒸馏等技术;此外,我们的一些研究也显示,即使在通用领域,大模型也会存在参数冲突的问题。充分挖掘大模型的潜能必然会成为一个重要的方向,实际上现在已经诞生了一个新的工作,叫作prompting工程师或者指令工程师。如何在各个领域去扩展大模型的能力,如何更好地学习人的反馈都是值得进一步去挖掘的。
  • 王晖表示,从OpenAI的成长历程来看,OpenAI实现AGI的理想路径是,从强化学习到无监督学习再到AGI。到ChatGPT为止,也是历时近7年时间,中间引入了in-context learning,也一直在探索和追求大模型的能力上界。现阶段,大模型的能力上界还没确定,因此,加大数据量,加大模型,追求更好的性能,寻找大模型的能力上界仍会是OpenAI的首要任务之一。以ChatGPT为代表的算力美学相对应的就是符号主义,符号主义会不会出现能力的爆发也是值得注意的。“语言模型+RLHF”模式的成功带来了很大的想象空间,符号注意能不能代替大模型成长起来?强化学习可能不是唯一的选择。后面可能出现“符号主义+人机协作+大模型”的新模式,大模型还有很大空间,也是向AGI发展的一个可能路径。
  • 陈小军建议可以重新考虑AGI的定义,AGI到底是停留在人类认知的范畴,还是需要超越人的认知、甚至指导人类,这两者的目标还是不一样的。AGI能发现人不能发现的一些东西我觉得是可以期待的。
  • 鲁浩楠提出了5个ChatGPT未来可能的研究方向:(1)知识增强,结构符号学,非结构知识实现知识增强;(2)多模态:从NLP拓展到其他领域;(3)大模型落地:训练加速,轻量化;(4)道德伦理问题:陪伴类应用中,机器人陪伴老人,用已故人的信息作为生成载体去交互就会面临严重的道德伦理方面问题;(5)评价准则:准确性评估。
  • 张鹏认为ChatGPT的发展空间是很大的,但是,其他人都只是在猜测ChatGPT怎么实现的。挖掘大模型的潜能肯定是OpenAI的一个重要方向,但其他人怎么做是需要思考的。追赶的话,怎么追赶?除了追赶,还有没有其他的思路或者新的范式。


针对“ChatGPT类大模型产业落地路径可能是什么样的?一统天下还是各路诸侯?”思辨点,从四个方面进行了深入讨论:“这类型LLM最终会成为少数大厂角逐的游戏么?”、“产业落地可能会是什么样的格局?”、“当前影响应用落地的最主要因素是什么?”和“这类型LLM最终是会走向垂域的分化还是通用的整合?”。

“这类型LLM最终会成为少数大厂角逐的游戏么?”

9

  • 莫磊首先公布了第一个问题的统计结果,共收到53份参会人员投票,60.38%的人员持肯定态度,39.62%的人员持否定态度。随后与会嘉宾分享了各自的观点。
  • 段楠从企业员工的角度出发,偏向于是,但仍有一点不确定。短期来看,LLM应该是极少数大厂角逐的游戏,因为ChatGPT类似的大模型不是简单的算法问题,还有很多未知的数据工程、系统工程的问题,包括数据资源、算力、训练和部署,然后线上的成本也是非常高的。微软和OpenAI有很强的合作,但特别多的细节,微软也不是特别清楚。现在各方面的优势基本上集中在极少数几家头部大公司。不确定的原因在于,LLM的上限在哪里还不知道,随着硬件的发展、硬件资源成本的减低,会不会也符合摩尔定律,或许在未来会有更多的机构和科研人员能够参与到LLM的设计中来。从目前ChatGPT的“成功”来看,它的策略非常值得学习,先在实验数据上验证,如果效果好,快速在真实数据上测试,形成一个快速迭代的闭环。从校企合作角度看,企业需要去做大模型,但企业是否可以通过把构建大模型的平台和脱敏后的数据暴露出去,让高校参与大模型构建算法的探索,企业和高校能建立起大模型建设生态。从商业落地角度来看,要实现商业化落地需要从技术上解决一本正经的胡说八道的问题,可能是由于缺少一些垂直领域的专业知识;小点规模的语言模型加上一些领域专业知识和符号推理去解决特定领域的问题是不是一种更好的方式,也是更多小公司或者创业公司能参与到语言模型的可能途径。
  • 施晨在表示同意上述观点之后,又做了两方面的补充:(1)从成本来看,ChatGPT现在的每个月总开销是百万美元级,这种成本是小公司难以负担的;(2)从资源角度看,在阿里,计算资源比较充裕的情况下,训练一个千亿级别参数的大模型,也需要面临成本和计算资源的挑战。GPT-1的参数量是1.17亿,大家都可以去训练;但GPT-2的参数量变成15亿以后,16G V100单卡就只能inference了;到了百亿级模型比如google T5,就需要上80G的A100了;到1750亿参数的GPT3,模型大小估算有几百G,即使公开模型和调用接口,本地部署都是一个问题。OpenAI从GPT-3以后就不开源了,后面的版本应该也会是这个策略。在人员和技术实力方面,OpenAI也下了很多投入。三位数的经过进行训练的标注人员,涵盖各行各业。组里在强化学习方面积累多年,近端策略优化(Proximal Policy Optimization,PPO)也是自己提出的技术。一些开源的大模型有Meta的OPT,HuggingFace主导和协调的BLOOM等等。但从一些公开的评测结果来看,1750亿参数的OPT比同级别参数的GPT-3,效果还是会差一些,而且OPT基本以英文为主,中文适配较差。加上GPT-3.5用了别的公司很难有的大量code数据,又在GPT-3基础上经过几年迭代,因此开源或复现的大模型基座比较难达到与其相当的能力效果。


“产业落地可能会是什么样的格局?”,莫磊首先介绍了目前三类典型的基础的产业落地格局:(1)云计算格局:各家技术与能力发展趋同,成为了下一代的技术基础设施,生态较开放;(2)操作系统(Operation System,OS)格局:少数机构技术独大,并基于自身技术发展相应的技术应用的闭源生态,较封闭;(3)超级应用格局:少数机构技术独大,并自己构建相应的应用,生态最封闭。

10


  • YOCSEF哈尔滨的学术秘书玄世昌认为从目前数据、人力、财力和算力的壁垒来看,各类资源可能会越来越集中,形成类似云计算的格局。与此同时,为了打破几家大型企业和机构的垄断,借助开源,可能会形成支持分布式协作的操作系统格局。这两种格局会相互竞争。
  • 王晖表示ChatGPT出现之后,可能会带来很大的变化,站在更高的层次上看,不仅仅是一个模型的问题,而是一个生态的问题,可能是国际人工智能制高点竞争的问题。如果ChatGPT是通向AGI的一个拐点,我们就要思考人工智能未来的发展方向会是什么样子的,包括短期的和长期的,会成为国家战略考虑的重要问题,需要充分论证。需要认真审视大模型对未来人工智能的影响,对我国人工智能发展的影响。ChatGPT一定要看作是一个复杂的系统工程,不是单一技术引领的,可以类比成曼哈顿类似的工程,形成“人力+财力+数据+算法+专业标注+用户标注”一体化的闭环飞轮。大模型生态实际上已经开始形成,微软后面应该是很多个模型支撑百万级用户快速响应,体系也是很复杂的。ChatGPT领先其他大模型至少1-2年,原因在于它构建的闭环飞轮能快速转起来。国内也发布了很多大模型,但是大模型能够吸引1万用户、甚至10万以上用户的基本没有。构建大模型生态圈,让大模型的飞轮转起来、迭代起来很关键。因此,未来可能会形成算力网上的超级大模型生态。美国有预言家预测,大模型以后会像核弹一样,如果没有的话,会影响到国家安全,网络可能会成为一个护城河
  • YOCSEF深圳AC、深圳职业技术学院管明雷从产业落脚点谈到了自己的看法。他认为,ChatGPT如果落脚点是toC的应用,肯定是超级OS或者超级应用的格局;如果落脚点是toB的应用,那么可能是云计算格局。计算代差如果只有1-2年的话,技术门槛会被时间磨平,价值产生后,产业落地格局取决于落脚点是toB还是toC。
  • 施晨在王晖的基础上继续作了补充,在模型方面,开源化逐渐在萎缩,尤其在大模型效果好到一定程度之后,大家都倾向于不把最好的那个版本模型参数开放出来。因此,大模型未来会成为企业、乃至国家层面的核心资产,也是一个重要的武器。一个侧面的例证是,GPT-3没有开放参数,Meta的OPT开放了参数,但它在开源license上,小模型是比较通用的MIT license,但OPT-175B专门换了一个“不能修改商用”比较严苛的license。就大模型的商业化场景而言,云计算里面的PaaS更适合需要fine-tune的场景,搭建一个平台,模型参数开放,大家都可以调用和fine-tune,这样就能适应各类小的场景,比如去年比较火的文生成图的stable diffusion模型就已开源,可以根据卡通、游戏等场景进行fine-tune,这样会形成云平台的格局。但是,当模型参数规模达到千亿级别以后,很难fine-tune,也很难部署,所以目前OpenAI走的是SaaS的路线,就是那种开箱即用,用户只可调用,fine-tune,完全黑盒化的,其实是有点类似超级应用格局,也类似于我们说的大模型及服务LLMaaS。但是这里面会有两个问题:(1)核心资产包括数据往往是掌握在别人手里的,不容易获得;(2)SaaS这种方式相比PaaS的方式更难推广一些。未来是否可以用更多的监督信号去做fine-tune,在保持甚至提高性能的前提下,让模型参数减少,如果能降到10亿级别,企业部署和fine-tune就不会成为问题。其实跟明雷说的toB和toC的情况也比较类似了。
  • 陈小军认为,用发展的眼光看,短期可能会是上面三种形式中的一种的不停切换,依赖于技术的发展。再往前看,有论文提到高质量的语言数据可能在2026年就会耗尽,当前面提到的大模型飞轮转起来之后,高质量的语料资源很快耗尽之后,模型的演进速度会放慢,下一步怎么发展?另一方面,大模型也不是越大越好,未来会不会有新的技术能可以减少对数据的依赖?人类的很多知识是通过思考、推理或者研究出来的,人类是有创造力的,那么是不是会有对数据依赖相对小的知识推理新技术出现?也是我们需要考虑的。从长远的角度来件,未来应该还是会以开放的方式存在。


“当前影响应用落地的最主要因素是什么?”和“这类型LLM最终是会走向垂域的分化还是通用的整合?”


11


  • YOCSEF哈尔滨候任AC王认为,从产品的技术路线来看的话,初期主要影响因素应该是训练与推理成本,中期是合理的产品形态,产品推向市场后将会是内容安全。
  • 汤步洲表示,数据是大模型训练和推理的基础,现在大公司、大型研发机构在算力方面是可以支撑的,ChatGPT相关算法的有效性也很好地体现出来。但是ChatGPT用的大部分网上爬的数据,用来训练模型的合规性是值得考虑的。我们最近也看到一些限制大模型使用数据的情况,例如,AI作画获奖之后,很多画家明确表示禁止大模型使用他的数据。这种情况我觉得会越来越多,目前有些学者开始研究这个数据的可用的情况,但还没有这个相关法规。一旦大模型能发挥很大作用,数据可能会成为一个关键点,大家都把门关起来了,大模型就没有数据或者新的数据可用,这就需要对数据从输入到输出整个链条上面的权益问题进行系统性的梳理。
  • YOCSEF深圳候任AC王青兰从数据相关法规的角度阐述了她的观点。她认为,数据合规可以从两个方面来看。第一个是正向的链条,从数据的采集到数据拿去训练,然后到模型结果输出,涉及到的是我们现在经常讲到的传统数据合规,也就是生命周期的一种合规,可以通过内部制度的建设来解决,但是目前的法律法规是相对不完善的。随着数据20条政策出来之后,产权被划分成持有权、加工权和运营权,这样就有利于更好地构建一个数据安全体系,有助于大模型的发展;正向链条里面还涉及到知识产权问题,包括算法和模型参数,它们的产权是放到商业机密还是其他知识产权领域去进行保护,目前没有定论。第二个是逆向链条,目前就有论文研究GPT-2能够倒推出隐私信息,给语言模型一个提问提示,它会给出个人信息,可能包括姓名、电话号码等信息,这样数据安全问题就会出现,如何从技术上保证,并能在法律上去证明模型数据安全是没有问题的,目前还没有标准。
  • 魏昭认为,LLM会跟公司的业务结合在一起,出现多个垂直分化的大模型格局。此外,互联网每天都在产生数据,可以说数据是取之不尽用之不竭的,如何快速、高效的持续学习,解决时效性问题可能是ChatGPT进一步发展所面临的问题。目前ChatGPT主要是从文本和代码中学习概念和技能,与人类认知真实的物理世界来获取知识的过程相比还是比较片面的,为了得到人类认知世界的概念模型,模型朝着多模态的方向迭代可能是比较合适的,而且即将发布的GPT-4大概率也是多模态的。另外,影响大模型落地的因素包括:一是大模型的优化技术,包括模型的压缩适配端侧运行场景,模型的推理速度的提高来满足特定场景实时、快速的应用等。二是需要在细分领域中做有针对性的优化,所以垂类领域我们需要知识的配合,才有可能解决ChatGPT中一本正经的胡说八道的问题。三是现在的大模型都是朝着大数据,基于大力出奇迹的思路一路走下去的,那么模型参数大到多大的时候是合适的,特别是综合考虑算力花费和收益,有时候千亿参数模型的收益反而不如百亿参数的模型,这其实是我们实际应用落地时需要全面考虑的。


针对“ChatGPT能否敲开通用人工智能的大门?ChatGPT到AGI还有多远?会带来什么影响?”思辨点,从三个方面进行了深入讨论:(1) ChatGPT是否是AGI的一个可能路径?(2)ChatGPT距离理想中的AGI还差多远?表现在哪些方面最明显?主要突破的方向在哪?(3)这条路径下的AGI是普惠还是垄断式的?普惠的AGI as Service会出现么?还是最终会成为国家基础设施?

“ChatGPT是否是AGI的一个可能路径?”


12


  • 莫磊首先介绍了百度和wiki对AGI的定义,公布了第一个问题的统计结果,共收到53份参会人员投票,71.7%的人员持肯定态度,28.3%的人员持否定态度。考虑到超过70%的人认为ChatGPT是AGI的一个可能路径,直接进入了后面的两个方面的思辨。


13


“ChatGPT距离理想中的AGI还差多远?表现在哪些方面最明显?主要突破的方向在哪?”


14


  • 冯骁骋认为,理想中的AGI类似于科幻电影里面的大白,它能够全方位地执行你想要的任何一个任务。目前看来,ChatGPT比原有的预训练模型在理解人的意图方面有显著提升,产生的结果也能给人一定的启示,但它还是限定在一个语言空间,通过文本的方式与人进行交互,存在自身的缺陷。目前ChatGPT距离理想中的AGI的差距还是挺大的,包括具身智能和多模态智能,在推理方面表现比较明显,例如数字推理、时间的理解、有条件预测。未来需要更全面地学习或许会有所突破。另外,与环境交互的自主学习能力方面也需要进一步加强,在利用不同类型数据时,学习的顺序也是需要考量的。
  • 段楠结合引导发言内容表示,ChatGPT是非常有可能是通向AGI的一个方式,但是需要对AGI进行一个更明确的定义,需要有类似于图灵测试那样明确的可以判断AI系统AGI能力的定义。现在ChatGPT到底强到哪个程度,我们还是说不太清的。也有传言ChatGPT相对于它的下一个版本而言,就是一个玩具,那么如何衡量这种能力的差距?学术界和工业界在做产品落地时都需要去构建一个可以衡量AI系统AGI能力的一个新数据集,帮助我们理解大模型真正的能力。ChatGPT得益于自监督学习和互联网上无穷无尽的数据,在听说读写看、写代码等方面的能力较之前的大模型提升很多,但距离Wiki定义的AGI还是有很大的差距。一方面,缺乏太多与真实环境的交互去执行完成任务的能力,但这个能力会随着自然语言与编程语言的紧密结合发展得很快;另一方面,从感知到生成里面隐含的常识理解、推理、计划执行、创造能力的实现可能是接下来需要我们重点关注的。
  • 陈小军结合前面的讨论认为,ChatGPT因为比其他模型以对话的形式表现出明显优势,所以大家都觉得终于看到了离AGI最近的AI模型或系统。实际上,ChatGPT仍然存在很多问题。AGI最重要的能力是自主学习和创新能力,目前ChatGPT是不具备的。数据驱动的大模型现在受到了很大的追捧,可能马上就会见顶和过时。也需要考虑ChatGPT类大模型之后的未来新技术。
  • 张鹏提出,通向AGI,不仅仅是像人一样能流畅的对话对话,人还有其他本领,例如学习物理定律,做科学计算。所以说除了要努力使本土的大模型缩小与ChatGPT之间差距之外,另外在新的领域,例如在AI for Science方面,也要想办法突破,因为现在大家是齐头并进的状态,能突破的可能性更大,更能体现原创优势。咱们要警惕一味追赶的“陷阱”。
  • 邱锡鹏认为,ChatGPT肯定是目前离AGI最近的AI模型了,也证明了AGI离不开大量的人类知识(如语言模型)。下一个可能的方向是,将除语言之外的其他信息做更广泛的融合,比如多模态融合,把语言模型里面的知识和现实世界的知识能够更好地连接。另一个比较重要的方向是知识的扩展和模型的自动更新,目前ChatGPT里面的知识是死的,让模型自己上网找知识,自我更新,这个技术其实早就已经发布,说不定GPT-4里面已经把这部分能力加进去了。
  • 王晖从ChatGPT的发展历程谈到,ChatGPT到AGI可能还存在很大的差距,但因为OpenAI团队一直以追求AGI为目标,这是他们的理想信念。当下中国非常缺一群有长期理想信念,心中有星辰大海、诗和远方情怀的年轻人。如果始终有这样一群追求AGI的年轻人,AGI将离我们很近。
  • 张伟男表示从工业革命的角度,把ChatGPT比作青铜器时代的炼钢技术,会带来技术革新,提高很多行业的生产力。


“ChatGPT这条路径下的AGI是普惠还是垄断式的?普惠的AGI as Service会出现么?还是最终会成为国家基础设施?”

  • 张莹提出“谁创造,谁主宰”的观点,如果创造者想让它普惠,那么它就会是普惠的;否则,就是垄断的。有点类似于互联网,看起来是平等的,但是还是存在主宰权多与少的问题。任何一种产品或者技术可能都是这样子的形式。ChatGPT作为通往AGI目前最可能的一条路径,还有那么多需要补的缺位,有没有可能存在在这条路径上补不上的情况,这些补不上的情况可能是我们的机会,例如是否任何知识都能融到ChatGPT这条路径上来?如果我们沿着这条路径走下去,按照目前的情况,就会一直在追赶,一直被牵着走,可能永远都会得不到真正的普惠。因此,也需要思考和探索新的通往AGI的新的范式来应对挑战。
  • 王青兰从数据来源和权属问题方面提出,不管是什么路径可能都要归结到数据来源上来,如果数据来源于大家所有人,那所有人就是模型训练数据的生成者,虽然目前权属问题还不是特别清晰,但是从道德伦理和社会责任感来讲,AGI应该是一个普惠的,而不应该是垄断的。因为从数据利益分配来说,不管是什么样的分配方式,数据生成者是必须考虑的一环。国家出台的数据20条里面也强调了数据收益分配,如果从国家层面发展AGI,必然是普惠性的。
  • YOCSEF深圳副主席张彤接着王青兰的话题引出了大模型的道德伦理问题,能力越大,责任越大,如何正确构建道德伦理规范引导科技向善是全球范围都正在做,技术快速发展要求我们在伦理和法规方面需要加速。从技术的初心来讲,AGI应该是普惠性的,但是普惠性也是有很风险的,有时候开源比闭源更危险。如果真的到了AGI阶段,每个国家都会竞争这样的一个关键制高点,并投入很多资源去做,路径不同,最后形成的方式可能也不同。目前大家可能觉得我们比OpenAI晚实现ChatGPT这么强的模型,但我仍然是持乐观态度的。技术发展到最后,可能会有多条实现AGI的路径。
  • 深圳职业技术学院的张海刚表示,AGI如果纳入国家基础设施建设,那一定是朝着普惠和造福人类去的。老百姓可能自己做不了AGI,但是一定能用得起、用得上AGI服务。
  • YOCSEF深圳候任AC刘洋认为,可能是垄断和普惠并存的形式,国家、大企业、大机构会有一个高阶的垄断版本,用户会有一个低阶的普惠版本。因为AGI在发展的过程中必然存在数字鸿沟和技术垄断,大家不会拿到一样多的数据,及时拿到一样的数据,技术能力也会有差距。

经过4个多小时的紧张激烈的思辨,论坛进入尾声。大家对ChatGPT的技术、应用场景、落地形式以及对AGI发展的影响等多方面进行了全面系统的讨论,意犹未尽,并表示期待后续持续的跟踪和讨论。

本次论坛受到了YOCSEF深圳年度合作伙伴宝德科技集团股份有限公司、北京超级云计算中心、北京天融信网络安全技术有限公司(深圳)和西丽湖人才服务中心的大力支持,腾讯Wiz和寇享学术提供在线直播。

论坛视频回放请参看https://www.withzz.com/live/895402920https://www.koushare.com/lives/room/467123?code=011Zuv000jwXoP1gGN000mw0mt2Zuv0D&state=kousharelogin


CCF YOCSEF深圳


中国计算机学会(CCF)青年计算机科技论坛(Young Computer Scientists & Engineers Forum,YOCSEF)是CCF于1998年创建的系列学术活动。CCF YOCSEF以“承担社会责任、提升成员能力”为宗旨,由来自全国有激情、有思想并富有社会责任感的学者、企业家和其他各界青年精英参与策划、组织,是CCF最具活力的部分。CCF YOCSEF当前的主要活动形式是观点论坛、技术论坛,此外还有学术评价、评奖、教育振兴和Club等活动。

YOCSEF深圳成立于2009年,目前已经走过十四年,是深圳计算机领域最活跃的青年学者组织,聚集了一批自信、活力、敢于创新、有抱负、有能力的青年精英,每年组织至少二十多场各类活动。紧密结合深圳和大湾区科技、学术与产业特点,对科技、人才和社会等热点问题展开深入研究,通过思辨与讨论方式厘清问题本质,为深圳和大湾区发展提供智库支持,并辐射全国。

CCF YOCSEF深圳期待您的加入。联系人:现任主席—汤步洲 (13725525983,微信同号)




热门动态
2022-08-25
2022年8月20日,中国计算机学会(CCF)青年计算机科技论坛(CCF ...
2022-08-16
   7月25日,由CCF主办、YOCSEF深圳承办,国家超级计算深圳中心...
2022-12-16
        2022年12月10日下午19:00-23:00,由中国计算机学会主办...
2022-11-17
2022年11月12日,中国计算机学会(CCF)青年计算机科技论坛(CCF...
2022-11-16
2022年11月12日上午,由中国计算机学会(CCF)主办,CCF青年计算...
2022-11-14
论坛掠影视频第37届中国计算机应用大会(CCF NCCA 2022)智慧医...
2022-08-18
近年来,人工智能快速发展、赋能千行百业,催生新技术、新产品、...
2019-08-29
2019年8月25日,YOCSEF广州分论坛、深圳分论坛在广州大学城中山...
2019-06-04
2019年6月2日,YOCSEF广州分论坛、深圳分论坛在广州大学城中山大...
CCF聚焦