资讯
展览资讯 大型展会 灯光节 大型盛典 赛事 中标捷报 产品快讯 热门话题 艺术节 活动 演出 新闻 数艺报道 俱乐部签约
观点
大咖专访 观点洞察 书籍推荐 吐槽 设计观点 企业访谈 问答 趋势创新 论文 职场方法 薪资报价 数艺专访
幕后
幕后故事 团队访谈 经验分享 解密 评测 数艺访谈
干货
设计方案 策划方案 素材资源 教程 文案资源 PPT下载 入门宝典 作品合集 产品手册 电子书 项目对接
  • 0
  • 0
  • 0

分享

中国新闻网|梁正:【科学的温度】AI换脸火爆的背后:如何防止人工智能技术被“恶用”?

2022-12-22


 

梁正


清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任、中国科技政策研究中心副主任、公共管理学院教授





数字化3.0时代,人类生活越来越离不开人工智能。如何防止人工智能技术被“恶用”?越来越多的虚拟人是否会取代部分真人职业?如何克服算法歧视,让人工智能实现可知、可信、可控、可用?


围绕上述热点问题,清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正接受了中新网专访,进行解读。

防止人工智能技术被“恶用”


AI换脸、AI换声、三维重建、智能对话……深度合成技术应用日益广泛,催生了美颜美妆、影视制作、智能客服、虚拟主播、元宇宙等应用服务,但也存在着被恶意利用的现象,一些不法人员用来制作、复制、发布、传播违法和不良信息,诋毁、贬损他人名誉、荣誉,仿冒他人身份实施诈骗等。


怎样抵御这些可能的“恶用”?梁正表示,对于深度合成,AI换脸是一个典型的应用。最近三部门出台了《互联网信息服务深度合成管理规定》,对于规范深度合成服务提出了明确要求。


根据规定,提供人脸、人声等生物识别信息显著编辑功能的,应当提示使用者依法告知被编辑的个人,并取得其单独同意。提供智能对话、合成人声、人脸生成、沉浸式拟真场景等具有生成或者显著改变信息内容功能服务的,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示信息内容的合成情况,避免公众混淆或者误认。


梁正指出,使用个人肖像如果没有征得同意,就去公共互联网上采集使用的话,这属于违法行为。平台上如果有类似应用,平台就有责任去监督。即使是合法的使用,也要打上标签,让大家知道这不是真的,一定程度上可以减少深度合成内容产生的认知偏差和社会误导。如果平台自己去提供这一类服务,还要求用相应的工具去识别它不是真实的,这就对平台提出了更高的要求。


“不仅要合法合规,而且还要合意。” 梁正表示,要进一步完善法律法规,严格落实相关规定,建立健全惩罚制度,个人要有维权意识,通过救济渠道维护自身合法权益,从而减少AI被恶意利用的现象。


资料图:2022世界人工智能大会上,

人机互动吸引观众

虚拟人已经开始取代部分真人职业


近年来,虚拟代言人、虚拟主播、虚拟演员歌手,越来越多虚拟人在被推向市场。人们担心,虚拟人在未来或将取代部分真人职业。


“在娱乐、新闻领域,虚拟人的应用越来越多,因为它是一个低成本、高效率的方式。”在梁正看来,虚拟人越来越多也是一种必然的趋势,而且已经在替代部分真人职业了。比如,现在很多虚拟新闻主播,还有电话客服越来越多使用智能语音服务。“这个替代它一定是会部分发生的。”


新生事物发展背后也存在一些隐患。梁正提醒,大家不要把真假弄混了,虚拟人的形象、内容、对话都是基于训练的结果,或者是事先编好的,如果把它当成真人的话,就会产生误导。


“比如说,跟对话机器人去对话要非常小心。对于有些敏感话题,因为它背后没有意识,是顺着你说的,如果没有干预就可能产生误导,但它没有办法承担责任。所以要对虚拟形象的深度合成打上标签,并限定它的使用场景。特别是在教育医疗这样一些敏感的高风险场景,人工干预是必须的。”梁正说。


梁正认为,虚拟人的应用总体要分场景,在游戏、天气预报、新闻播报等一些低风险场景问题不大,但如果是高风险场景,就要非常小心,虚拟形象能够做什么,什么不能做,要把界限划清楚,比如心理陪伴机器人,要评估它说的话带来的长期心理影响是什么样的。

下一代人工智能应该是可解释的


人工智能不离开算法,算法公平和算法歧视话题也备受关注。国外一些研究和媒体报道提到,算法开发者或算法本身根据大数据积累存在种族、性别、文化等歧视的可能性。


对此,梁正表示,算法是依据数据训练出来的,数据的有偏性是导致算法本身有偏性的一个主要原因。所以,算法歧视不是算法造成的,是社会本身造成的,是算法本身的技术特点所导致的,使用大量已经带有倾向性的数据,算法也就会作出一种倾向性的判断。


梁正指出,要想改变这种偏见,首先要纠正社会偏见。所以在使用数据的时候,要进行人工干预,在统计学上可以通过一些模拟数据来做一个平衡,但根本上是要赋予人工智能以常识,要把一些因果的因素考虑进去,而不是单纯只依赖于这种数据。


“绝对的算法公平并不存在。” 梁正认为,算法公平具有多维性,常常面临“不可能三角”式的挑战。在公共管理领域中,起点公平、过程公平、结果公平三者同时实现基本是不可能的。绝对的公平实际上在算法的设计中其实也是做不到的,关键取决于你要什么样的目标。


梁正表示,要实现人工智能可知、可信、可控、可用。可知也就是可解释,这是最基础也是最复杂的层面,下一代人工智能应该是可解释的,如果说它不能够被解释的话,就会限制它很多方面的应用和大家对它的信任。算法可解释,这种条件下才能够放心去使用它。


“现在最大的问题就是黑箱,现有的人工智能是基于数据训练出来,你不知道中间发生的事,而新一代的人工智能就是要在数据的基础加上知识,甚至要加上我们的逻辑,让它能够按照我们可理解的方式运行。”梁正说。



关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。

新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

来源 | 本文转载自中国新闻网,点击“阅读原文”获取更多内容

阅读原文

* 文章为作者独立观点,不代表数艺网立场转载须知

本文内容由数艺网收录采集自微信公众号清华大学人工智能国际治理研究院 ,并经数艺网进行了排版优化。转载此文章请在文章开头和结尾标注“作者”、“来源:数艺网” 并附上本页链接: 如您不希望被数艺网所收录,感觉到侵犯到了您的权益,请及时告知数艺网,我们表示诚挚的歉意,并及时处理或删除。

数字媒体艺术 新媒体艺术 中国新闻网 梁正 AI换脸

13586 举报
  0
登录| 注册 后参与评论