- 0
- 0
- 0
分享
- “2022智源大会-人工智能伦理、治理与可持续发展论坛”成功举办
-
2022-06-01
2022年6月1日,由清华大学人工智能国际治理研究院(I-AIIG)和人工智能治理研究中心(北京人文社会科学研究中心)承办的2022智源大会-人工智能伦理、治理与可持续发展论坛在线上成功举办。此次论坛汇聚来自中国、美国、日本的多位专家学者,围绕人工智能治理认知逻辑与框架范式、人工智能伦理治理动机与方向、不同文化背景下的人工智能伦理认识、中国人工智能治理现状与举措、人工智能评测平台构建等议题展开对话交流。论坛由清华大学公共管理学院教授、人工智能国际治理研究院副院长,人工智能治理研究中心主任梁正主持。
梁正教授主持论坛
科技部中国科学技术信息研究所党委书记、所长,科技部新一代人工智能发展研究中心主任赵志耘在发言中指出:各国政府、国际组织、学术机构和企业界高度关注人工智能治理问题,各方从宏观战略、具体措施层面进行部署,共同推动人工智能伦理治理逐步由理念研究走向落地实践。我国高度重视人工智能伦理治理工作,在《新一代人工智能发展规划》的指导下,主要从四个方面推动人工智能伦理治理,分别为建立组织推进机制、发布实施治理文件、部署专门项目强化研究、积极拓展国际合作交流空间。她还指出,推动人工智能伦理治理是国际社会共同关注的重要议题,各方已在伦理治理理念方面拥有诸多共识。在目标宗旨方面,各方秉承科技向善的基本理念,促进人工智能健康发展;在基本原则方面,各方就问责制、不侵犯隐私、公平、尊严等达成共识;在治理手段方面,各方致力于通过“软硬结合”的方式来实现人工智能的透明度、可解释性、问责制等伦理要素。此外,推动伦理治理需要坚持三项关键要求,一是把握好人工智能发展规律和特点,明确现实的伦理问题;二是把握好人工智能伦理治理的边界,在适当范围内规范人工智能发展;三是把握好发展与治理的平衡关系,以治理促发展。最后,她指出,各类参与主体都应自觉推动人工智能治理工作的落地,将人工智能伦理治理的要求贯穿到人工智能全生命周期之中,塑造科技向善的治理理念和实施机制。
赵志耘书记发言
卡内基理事会资深研究员、I-AIIG学术委员温德尔•瓦拉赫(Wendell Wallach)主要介绍了人工智能伦理治理的软硬法。他在发言中指出,全球出台了许多关于人工智能伦理治理的方案,其中多数方案来自于中国、美国和欧盟。基于此,他简要介绍了三者在人工智能治理方面的情况,为未来全球各国可以在该领域开展何种合作提供了启发。他还指出,人工智能伦理治理需要国际合作,国际社会在此前已经取得了一定的合作成果。国际组织在人工智能伦理治理中扮演的角色也变得愈发重要。他认为,尽管中美之间在部分领域存在一定的“解耦”可能性,但客观来看,中国出台的一些治理方案、法规十分具有前瞻性和建设性,中国的人工智能规范和治理也都在不断完善,可以令世界从中得到启发。而鉴于美国在硬法执行方面相对落后于欧盟的情况,他认为,美国对欧盟持一个开放的状态,将会有助于不断推动美国在创新和治理方面的发展。此外,他还认为,在人工智能伦理治理过程中,需要通过结合软硬法的方式来设定一个非常稳健的机制。最后,他指出,治理存在于各个不同的层级之中,因而治理过程中也需要体现不同的价值存在。
温德尔·瓦拉赫先生发言
国家新一代人工智能治理专业委员会委员、上海交通大学人工智能研究院首席顾问教授、上海数字医学创新中心学术委员会副会长李仁涵在演讲中首先对人工智能的技术发展和产业发展趋势进行了研判,并指出人工智能技术的未来发展势头迅猛,智能时代的竞争格局在未来也将逐步形成,国际层面的人工智能技术和规则竞争可能已成定局。他进一步指出,人工智能治理问题主要涉及三个方面,即安全问题、伦理问题和不可控问题。他认为,在可信可控方面需要建立技术支撑,建立基于国内治理、国际规则的治理体系。他还对全球人工智能治理进行了研判,并指出相关国际组织制定的人工智能标准进入井喷期,国际人工智能治理工作也正在加速可操作化。当前,建立相应的可操作“规则”对中国而言是比较迫切的,这不仅有利于让人工智能可持续发展,还有利于国际接轨和全球化发展。他认为,价值观并不能影响人工智能的发展与合作,合作与发展的关键是相互尊重,找到共同点,坚持和而不同,尊重多元文化,以及意识到人类社会是命运共同体,需要同呼吸,共命运。他特别指出建设人工智能评测平台有助于人工智能治理落地,是人工智能未来发展的重要基础设施之一;是人工智能技术与治理的深度融合的平台;是相关人才培养、成长与发挥作用的重要舞台;是人工智能产业及赋能各行各业持续健康发展的基础保障;是国际合作与交流的硬实力;是参与国际规则制定的重要基础。他最后强调,构建人工智能评测平台将会造福未来,为此需要我们尽早规划,应形成人工智能治理“三步走”战略,即在安全方面做到可操作;在伦理方面,将软性举措变为刚性举措,从而促进落地;以及对不可控和变异的问题进行前瞻性研究。
李仁涵教授发言
东京大学大学院情报学环教授、日本理化学研究所高级智能研究中心科技与社会项目首席研究员佐仓统(Osamu Sakura)以日本民众对人工智能伦理治理的看法为出发点,分享了其对于偏见、歧视、公平性等问题的研究。他指出,目前许多关于人工智能伦理的实证研究都是在欧美国家完成的,这可能会导致研究存在一些偏差。尽管,亚洲也有一些关于人工智能伦理治理方面的研究,但很少关注公平、歧视等方面。鉴于歧视是个既复杂又敏感的问题,因此,应该深入针对亚洲人的歧视性问题研究。此外,他还在调查中发现,当受访者回答典型的、熟知的、教科书式的歧视性问题时,往往会立刻进行研判,例如面部识别系统对黑人群体是否存在歧视与偏见的问题。关于受访者果断性判断的发现,还令他发现人为歧视和机器歧视在这方面存在特别明显的差异。他指出,社会有时候会把人类的行为和人类价值观作为指导原则,但实际上,人类的判断并不能作为参考标准,尤其是在评判公平性和透明度的问题的时候。
佐仓统教授发言
国家新一代人工智能治理专业委员会主任,清华大学文科资深教授、人工智能国际治理研究院院长薛澜表示,近年来关于人工智能领域的学术研究十分活跃,人工智能在个体层面、行业层面、社会层面的应用也正不断拓展,渗透到各个方面。与此同时,人工智能的广泛应用也带来了诸多伦理与治理问题,引发广泛担忧。他指出,历史上看,重要的技术创新都经过了从核心驱动层到环境变革层,再到认知适配层,最后到治理范式层的演进,然而人工智能的这四个阶段都被高度压缩了,导致治理问题尤为突出。此外,应对人工智能治理中涉及对不同类型问题进行区分。首先从经济层面需要权衡人工智能技术应用中的收益和成本,其次在伦理层面应研判技术的应用对社会各种行为准则和规范产生了何种影响,再次在社会影响层面应在人工智能治理中提前预判技术的发展与影响。他最后提出了5条人工智能伦理问题的解决之道,即健全人工智能伦理与安全的治理体系;推进法律法规、标准规范的落地实施;建立多主体参与的对话机制,跟踪技术发展前沿,发现新的安全和伦理问题;建立人工智能前沿研究和应用的伦理评估、预警及管制控制;以及加强伦理教育,提高伦理意识,培育健康的智能文化与数字人文思想,加强科学传播和伦理普及,提高公众认知水平,真正让人工智能应用做到造福于人类。
薛澜教授发言
中科大机器人实验室主任、CAAI人工智能伦理治理工委会主任、全球人工智能理事会执行委员陈小平指出,现阶段人工智能以图灵倡导的功能模仿为基本原理;在研究和应用中,人具有决定性作用。人工智能伦理治理主要包含三类性质不同的挑战性问题,即合理性问题、可控性问题和重大相关问题。分别需要采用不同方式来予以应对,例如,可控性问题作为一种新型问题,应专门设立一个新的研究分支。而由于事后治理模式对重大相关问题的治理无效,需要建立全新的治理模式,同时构建新型创新模式,统筹GDP可度量效益和GDP不可度量的效益。治理合理性问题首先需要进行综合研判;并基于伦理、用户需求和管理等角度形成共识;再以共识为基础,针对具体的人工智能产品,制定包含伦理研判的国家标准并加以实施,必要时加以立法。他指出,尽管当前出台了大量的人工智能标准,但是包含伦理研判的人工智能产品标准还比较少,正是因为没有形成相关共识。此外,现在已经有一个专门针对人工智能的技术伦理研究,以让人工智能技术更符合伦理,且探索更好的办法来解决合理性问题。简而言之,他认为,应对人工智能伦理问题可以从探索新型治理模式、设立人工智能科研新分支、拓展传统治理模式这三个方面进行。
陈小平教授发言
在圆桌讨论环节,与会专家学者围绕人工智能伦理教育、人工智能全生命周期伦理治理、人工智能伦理治理工具、新兴技术治理规律与历史经验、人工智能伦理治理新问题与新模式等议题展开了热烈对话与交流研讨。
针对人工智能伦理教育应该如何开展这一问题,温德尔·瓦拉赫表示,伦理教育特别重要。但是鉴于人工智能本身存在复杂性,因此人工智能伦理教育需要考虑到个体差异,需要根据教育主体的不同进行设计。从实际操作角度来看,案例教育是进行伦理教育的最可行手段。
针对如何将伦理治理嵌入到人工智能研发应用的全生命周期这一问题,赵志耘表示,《新一代人工智能伦理规范》充分考虑了如何将伦理规范嵌入研究开发、设计制造、实验应用、监管评价各个环节。下一步的工作重点将是如何将这些伦理规范转化为可操作的规则,或者是相关的方法工具。她表示,落实伦理规范的核心是让各个参与主体之间联动起来,且都具备伦理意识,并将伦理规范转化进实际操作之中。而政府应在此过程中发挥引导作用,例如科技部批复的新一代人工智能创新发展试验区,一定程度上就在发挥这方面的作用。
李仁涵就人工智能伦理问题是否可以通过特定的治理工具进行解决和如何通过治理评测平台来考虑伦理问题进行了观点分享。他指出,从目前的情况来看,特定的治理工具在短时间内只能解决很小一部分的伦理问题。但是如果有明确的刚性指标则比较容易实现,然而现在很多治理举措多为柔性的。他表示,人工智能评测平台需要对伦理治理进行部署和研发,需要提出相应的刚性指标,并与法律法规同步进行,以及通过国际合作找到共同点。
针对伦理问题在新兴技术治理中应当如何被看待和处理这一问题,薛澜表示,伦理问题的核心还是社会行为准则和规范,不同社会主体对伦理问题的治理持分歧也是正常的,关键是要找到分歧的解决之道。他指出,首先需要构建交流平台,让各个主体可以进行充分交流,消除信息不对称。其次,在交流基础上,进一步求同存异,找到适合当前社会发展、各方都可以接受的治理框架。最后,还需要构建敏捷治理的机制,针对技术发展变化进行治理举措的迭代。应当看到,不论是技术本身的变化,还是时代变化而产生的观念变化,都会导致原有的社会准则和规范发生变化,因而也要求相应的治理机制更新。
陈小平就人工智能伦理问题与其他领域的伦理问题有何本质差异这一问题进行了解答。他指出,最根本的差异还是要从技术逻辑角度出发。自动化技术能替代人的一部分体力劳动,但是人工智能并非如此,人工智能可以在一个专业领域远远超过人。对于人工智能技术为何会产生这种效果,强人工智能等是否可能出现、出现后是否会以不可预测的方式蚕食人类的工作-生存空间等问题都需要我们进一步去研究和理解。他还指出,在主旨发言中提到的三类治理挑战中有两类都需要构建新的治理模式,这充分表明,人工智能时代本质上是进入了一个新的时代,因此必须要发展新的治理和创新模式,需要进行更多的思考,讨论和交流,以迎接这一新时代。
梁正在与发言专家对话时指出:人工智能伦理教育不是单向的,而是多元主体之间的互动和建构过程。中国在人工智能治理方面进行了多种形式的试点示范,如开展人工智能社会实验和设立人工智能创新发展实验区,部分借鉴了新兴技术的“沙箱监管”理念。人工智能伦理治理除了需要自上而下的引导,也需要自下而上的创新,如国内外已出现的提供伦理治理工具和服务的公司以及AI治理挑战赛等。新兴技术治理可以充分借鉴历史上已有的经验,通过技术与制度之间的相互调适来找到其平衡点。人工智能伦理治理面临的可控性问题和重大相关问题,可能需要通过建立人机协作与共生的新型数字文明才能最终得到解决。
专家在线合影
此次论坛引起社会各界普遍关注,给予参会观众关于人工智能伦理治理和可持续发展的全新启发与收获。会议还通过新浪微博、中国网、中国证券报等网络平台进行了直播,据不完全统计,累计观看人数超过2万人次。
关于我们
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University, THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG
-
阅读原文
* 文章为作者独立观点,不代表数艺网立场转载须知
- 本文内容由数艺网收录采集自微信公众号清华大学人工智能国际治理研究院 ,并经数艺网进行了排版优化。转载此文章请在文章开头和结尾标注“作者”、“来源:数艺网” 并附上本页链接: 如您不希望被数艺网所收录,感觉到侵犯到了您的权益,请及时告知数艺网,我们表示诚挚的歉意,并及时处理或删除。