- 0
- 0
- 0
分享
- 新闻快讯|可信可控可用,人工智能呼唤创新的“治理技术”
-
2022-12-28
建设可信赖人工智能
高文认为,强人工智能安全风险来源于三个方面,一是模型的不可解释性,二是算法和硬件的不可靠性,三是自主意识的不可控性。对于这些,一方面要在设计及应用阶段采取预防和检测措施,另一方面要加强国际合作,相互取长补短,还要加强人才培养。
对于数据安全问题,他认为隐私保护和数据有效使用是一对矛盾,需要做到平衡,鹏程实验室所采用的“防水堡”技术,对于保护模型训练数据安全共享和使用提供了解决思路,该技术可以做到只分享价值,不分享数据,在保证原始数据不移动的情况下也能够使数据可用。
哥伦比亚大学常务副校长、计算机科学系教授周以真介绍了正在推动的“值得信赖的人工智能”研究议程,目的在于把人工智能社区、网络安全社区和正式方法社区三个社区聚集在一起。她指出,一些人工智能系统可能是脆弱和不公平的,因此需要努力实现可信赖的人工智能。
“可信赖计算意味可靠性、安全性、可用性,要考虑准确性、稳健性、公平性,通过问责制、透明度、可解释性、道德伦理等设置人工智能执行的任务和环境。除了必要的测试、模拟、良好的软件工程实践之外,还要构建可信系统的事后验证方法,即用数据模型、代码程序来满足我们关心的正确性属性、安全性属性、活性属性等性质,并通过列举研究问题应用形式化方法,来尝试实现人工智能系统的可信度。”周以真说。
清华大学智能产业研究院国强教授、首席研究员聂再清认为,安全可信是人工智能治理的核心诉求,安全可信的人工智能技术产品需要具备安全可控、数据资产和隐私保护、可解释性等条件。他以车路协同感知为例,讲解了自动驾驶领域如何通过多传感器的协同感知,来提升AI协同内部可靠性,从而提高AI安全性。
“例如面向营养健康管理的可解释个性化推荐,需要‘引导式’而非‘迎合式’信息推荐,提升用户依从性并充分考虑营养健康因素,避免迎合式的饮食推荐。”聂再清说。
“治理技术”创新应对风险挑战
近年来,人工智能应用领域进一步拓展,面对新兴技术可能带来的巨大收益和潜在风险,与会专家也高度关注其治理问题。
从技术角度或技术应用角度,怎样才能实现人工智能技术的可用、管用乃至好用?高文说:“很多技术在发展过程中,过早说哪个不能用可能会抑制技术本身的发展,现阶段更多是从道德层面做引导,尽量把一些可能的风险抑制工具想明白。”
聂再清认为,在创新和监管之间需要平衡,一方面控制技术、工具、创新的个人有责任保证工具或将创新控制在危险可控范围内;另一方面社会也要集体监督,确保某个出现问题的产品或技术能够回滚、撤销。
“技术可解释性需要将技术发展与应用场景深度结合,在不同领域需要不同的可解释的能力及不同的可解释级别,让技术在应用场景下发挥最好的作用。”瑞莱智慧(RealAI)公司联合创始人及首席执行官田天指出。
新技术往往会给现有社会伦理规范带来冲击,现阶段是否有必要设计一部分可操作具体规则,特别是将伦理准则嵌入到人工智能产品与系统研发设计中?
田天表示,在发展的阶段需要鼓励为主,各种人工智能难免涉及到一些模糊地带,一方面不能一棒子打死导致技术无法进步,另一方面也要设立一些红线,制定清晰的惩罚规定确保人工智能不触犯人类利益的基本保障。在此基础上,给智能应用留有更多空间,鼓励重视伦理,提供正向激励,促进合规发展。
清华大学人工智能研究院常务副院长孙茂松认为,应鼓励应用,鼓励创新,在行动中及时发现问题,及时改正,及时总结经验,使人工智能技术在应用中更好地完善和发展。
关于人类自身偏见和歧视被写进代码造成AI的偏见与歧视的问题,聂再清认为AI基于数据学习获取知识错误并不是观点歧视,而是能力不足。有可能通过引入更多的知识库或知识图谱能够得到提升,而不应该把这个问题过分在伦理层面去拔高,更多还是解决训练数据问题。
由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办的第三届人工智能合作与治理国际论坛将于2022年12月9-10日在清华大学召开。在前两年论坛的基础上,继续推动全球各方在人工智能合作与治理上的对话,探讨构建适合人工智能健康发展的治理体系,推动建设人类命运共同体。
来源 | 本文转载自中国科学报,点击“阅读原文”获取更多内容
-
阅读原文
* 文章为作者独立观点,不代表数艺网立场转载须知
- 本文内容由数艺网收录采集自微信公众号清华大学人工智能国际治理研究院 ,并经数艺网进行了排版优化。转载此文章请在文章开头和结尾标注“作者”、“来源:数艺网” 并附上本页链接: 如您不希望被数艺网所收录,感觉到侵犯到了您的权益,请及时告知数艺网,我们表示诚挚的歉意,并及时处理或删除。