9月19日,CCF YOCSEF上海成功举办“ AI本善还是本恶”观点论坛,本次观点论坛邀请了权威专家学者和业界代表,在上海市杨浦区国泓路200号星愿广场博物馆,以线下方式针对当前人工智能面临的问题困境带来一场异彩纷呈的议题讨论。
近几年,人工智能技术取得了巨大的进步并广泛应用于各行各业。但是,在人工智能给人类社会带来便利的同时,我们也不能忽视其背后的危险。一方面,AI系统本身为算法和数据驱动,以公平、公正和效率为目标而设计,即“本善”,但另一方面,AI系统依赖的数据不可避免地包含大量隐私和偏见,从源头上就埋下了恶的种子,即“本恶”。本次论坛将注重跨学科深入结合技术与哲学,邀请AI各分支领域的知名学者聚焦具体研究案例来思辨AI“本善”“本恶”根源。
本次论坛的执行主席为CCF YOCSEF上海AC委员卢暾、通讯委员邱锡鹏、学术秘书徐佳。微论坛执行主席:CCF YOCSEF上海副主席林榕、通讯委员段圣宇。参加本次论坛的还有CCF YOCSEF上海副主席裴颂文、副主席刘通、AC委员李晋国、黄泽良、优秀AC谭书华、通讯委员王加溢、刘民等。
受邀出席本次论坛的嘉宾有CCF上海分部主席白硕、复旦大学计算机科学技术学院张军平、复旦大学计算机科学技术学院肖仰华、LAIX Inc.流利说林晖、Vivo邵浩、University AI朱小虎、上海科技大学赵登吉、华东师范大学软件工程学院何道敬。
论坛嘉宾
在论坛伊始,首先由CCF YOCSEF上海主席熊贇致辞, 她从CCF YOCSEF的文化、责任与使命,对CCF YOCSEF上海分部分论坛的发展等做了主旨发言,并预祝本次论坛成功举办。
本次论坛第一位进行引导发言的是白硕,他的题目是《AI不会自动向善》,从AI自身技术、调教及治理三方面来解析AI的善恶观。结合近期社会热点“困在算法里的外卖骑手”他指出AI是技术导向,并非向善导向。AI本身是不具备同理心的,需要AI的调教者包括设计者、教育者、最终使用者持续地教育。可以从AI的出厂基线,AI治理机构,AI伦理原则这三方面进行治理。AI的治理应针对场景,而非AI本身。值得一提的是白硕是CCF YOCSEF上海成立后的首讲人之一。
白硕《AI不会自动向善》
张军平引导发言的题目是《AI状况与风险:善恶有道》。他认为,从研究角度考虑,AI的善是很明显的,AI技术缩小行业界、学术圈差距,对于人民生活带来的便捷也是非常明显的。但同时AI带来的恶也是显而易见的:压榨劳动力,对简单可重复工作的替代引发失业,数据泄露隐私风险,并用算法压榨快递员、课堂行为监控等案例佐证了以上现象。目前的善恶是相对人类标准而言的,如果是以机器为中心来看,无所谓善恶。未来也许AI会形成自己的善恶标准。
张军平《AI状况与风险:善恶有道
肖仰华引导发言的题目是《AI向善的技术本质》。他认为,在人类的监督下AI出的问题,本质上体现的是背后人的善恶。但是技术的“偏见”可能也会带来AI的恶,包括数据 、特征、模型、算力的“偏见”,可以通过增强认知能力、建立价值引领、建设评测标准等方法来解决。AI善恶体现的是人类意志,健全认知能力是改善AI技术治理的重要保障措施,同时,建立道德评价标准、实现道德体验是AI向善的关键科学问题。
肖仰华《AI向善的技术本质》
引导发言结束后,论坛紧接着进入第二阶段:观点分享环节,嘉宾纷纷表达自己独到的思考与观点。林晖认为AI本质上是工具,AI的善恶反映的是工具的使用者和创造者的善恶观;AI通过人的治理如何向善是我们需关注的重点。邵浩的观点是AI本善,比如华为的hi-link在数据安全的情景下,手机与屏幕轻碰就可以投射屏幕;苹果的IOS14对于用户行为更细致的把握,通过技术让生活变得更好;这两个例子是都说明AI让生活变得更便捷,是向善的。朱小虎谈到AI需要进行价值对齐才能向善,现在的AI并不是安全的,其不安全性导致了AI的恶。AI存在大量未对齐案例,即AI与人类本身的意图存在差异,其本质是技术的缺陷。为使AI向善,需做到价值的对齐,AI需与设计者的意图对齐。赵登吉认为人工智能是人类的影子,“影子”正不正,一方面取决于我们的价值观是否正确,同时也取决于机器学习是否能正确理解人的意图。
颁发感谢牌
论坛现场气氛热烈
第三个环节是主题思辨,主要围绕三个论题展开讨论:
第一个思辨问题是:人工智能能否具有道德观?会比人类更加公正吗?
朱小虎认为现在的AI还没有价值观,也不会比人类更加公正。但几十年之后,当技术可以解决我们目前已有的问题后,可能会产生自己的标准,到时将会比人类更加公正。白硕认为人类不是铁板一块,也不是千篇一律。如果出于利益的驱使,把AI往恶的地方引领,将会非常危险。张军平认为AI是被训练出来的,数据什么样子,AI就是什么样子。如果想使得数据公正是比较难做到的,因为数据、概率分布是可以被操纵的。所以AI不可能比人类更公正。林晖以流利说学生能力自动评分功能为例,表示AI在公正和客观方面具有一定优势。当给予足够公正的数据时,AI的评价会比人类的主观评价更客观的,因为人的评价存在主观性。在跟人类个体及小群体比较时,AI很可能做到比人类更加公正。肖仰华认为在有限数据、场景特定的情况下,机器的判断更为公正。但是从广泛的道德观灌输角度来看,太大的范围是很难界定的,所以这条路还很远。何道敬认为AI是可以具有道德观,取决于研究人员如何赋予AI道德观,但是否能比人类更加公正难以回答,因为目前更多的决断是人机共同参与的,所以真正的公平是人机融合的。
第二个思辨问题是:人工智能“向善”中有哪些“技术缺陷”与“伦理缺位”?
邵浩认为隐私保护是目前AI的一个问题,例如手机APP隐私保护存在大量的权限设置,目前国内厂商一直在保持对隐私保护的探索;目前存在向善的技术缺陷,再比如很多的端侧操作。但工业界的工程师目前还是在技术上不断努力的。熊贇认为AI从技术本身一直都是向善的,不断提升服务的能力,如果AI不能向善,是因为我们人类的伦理缺位。刘通认为应当分两个阶段去考虑,弱AI还是强AI。目前的人工智能停留在弱AI,存在技术上的缺陷,所以目前AI的善恶还是停留在使用者的善恶;但是,未来走向强AI时,AI或许会有自己的道德观,强AI是否会如人一样存在追求利益最大化的可能?如存在这种可能,或许AI的道德本质将会是向恶的。
第三个思辨问题是:人工智能如何从“本善”与“本恶”本源之辩最终实现“道德机器”和人工智能的“上善若水”?
赵登吉认为人在很多场景无法做决策,但机器不是,机器是基于逻辑和模型的。但在很多场景下,立场不同,不存在模型,即使是AI也难以抉择。这个问题的本质是人的选择。裴颂文认为,相对法律而言,道德规范缺乏明确量化的边界条件,对于人类而言至今都难以分辨人类是本善还是本恶的论断。同样地,当前阶段也难以确定AI是否是本善还是本恶。。刘民认为AI现阶段还是偏向工具。AI与道德机器绑在一起,应该是下一阶段考虑的问题,也就是机器去学习,人去判断。若上述阶段可以做好,AI将进入第三阶段,即AI的学习及判断。到上述阶段时,AI的道德才是真正应该去关注的问题。
此次论坛历时三个半小时,从各个层面探索了AI的价值取向。总体来说,AI是向善的,目前立法手段一直在约束人工智能的恶,同时目前整体人工智能的可控性足够,在现阶段无需过多担心人工智能的恶。人类向善,AI即向善。AI“善”否?本次议题值得每位计算机从业者及研究者在人工智能发展过程中持续思考探讨。
论坛现场合影