资讯
展览资讯 大型展会 灯光节 大型盛典 赛事 中标捷报 产品快讯 热门话题 艺术节 活动 演出 新闻 数艺报道 俱乐部签约
观点
大咖专访 观点洞察 书籍推荐 吐槽 设计观点 企业访谈 问答 趋势创新 论文 职场方法 薪资报价 数艺专访
幕后
幕后故事 团队访谈 经验分享 解密 评测 数艺访谈
干货
设计方案 策划方案 素材资源 教程 文案资源 PPT下载 入门宝典 作品合集 产品手册 电子书 项目对接
  • 0
  • 0
  • 0

分享

中国之声|“AI孙燕姿”光速出道,版权与伦理存在哪些争议?

2023-05-13

点击蓝字

关注我们


 

梁正


清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任、中国科技政策研究中心副主任、公共管理学院教授


最近一段时间人工智能的狂潮席卷了我们的生活,从ChatGPT到AI绘画,最近音乐领域也和人工智能牵手了。近日“AI孙燕姿”在全网走红,独特的音色与唱腔搭配上与歌手本人风格或相似或迥异的歌曲成为网友们的互联网新宠。AI歌姬走红的同时,这些问题也不容忽视——AI翻唱是否侵犯了歌手的声音版权?AI翻唱是否侵犯了其他歌手的音乐版权?这背后还存在怎样的法律与伦理问题?


从冷门歌手到再次出圈,孙燕姿和AI孙燕姿又火了


近日,一位名为“AI孙燕姿”的虚拟歌手火遍全网,引发了不少人的关注和讨论。


所谓“AI孙燕姿”,就是通过模型训练和后期处理,让AI用孙燕姿的声音翻唱其他歌手的歌曲。


从技术的角度看, AI孙燕姿是如何实现的呢?清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正说:“基本上还是用开源的生成式语音训练模型,集纳一些语音素材进行训练,而且数据量也不大,因为它跟语言模型比所谓的数据量需求没有那么大。”


简单来说就是,制作AI孙燕姿的歌曲,首先需要获取孙燕姿没有伴奏和混响的原始声音。这些素材可以通过去伴奏或者提取对话的方式,从她的视频中获得。然后将这些素材作为目标音色输入到模型中进行训练,得到一个可以生成孙燕姿音色的模型。接下来就可以用这个模型来转换任意音色的歌声,比如林俊杰、周杰伦、赵雷等歌手的歌曲。最后再进行一些后期处理和调校,就可以得到听起来像孙燕姿唱的歌曲了。


燕姿?AI燕姿?傻傻分不清楚


目前来看,这位“AI孙燕姿”作品覆盖流行到民谣等多种风格。由于“AI歌手”与真人演唱的音色并无二致,一些孙燕姿的忠实粉丝感慨,已经很难分清到底是歌手本人还是AI,一些粉丝表示“连换气声都能清晰听到,咬字尾音都非常像本人。”


爆火背后,谁侵了谁的权?


北京市岳成律师事务所高级合伙人岳屾山 表示,《中华人民共和国著作权法》第四十二条第二款规定:录音制作者使用他人已经合法录制为录音制品的音乐作品制作录音制品,可以不经著作权人许可,但应当按照规定支付报酬;著作权人声明不许使用的不得使用。


岳屾山说:“首先(这个虚拟歌手)提到了明星的具体人名,对明星的姓名权就是一种侵权了。另外,在进行翻唱的时候,我们要看它是不是符合著作权法所规定的这些翻唱的内容。如果说他是要灌制一张唱片或者说是录制出来的话,其实翻唱是可以的,但是我们都是需要向词作者这些来支付相应的这种费用。”



AI孙燕姿使用了孙燕姿本人的声音,这涉及侵权吗?国浩北京律师事务所合伙人粟晓南告诉记者:“如果仅仅是音色或者唱腔,它本身它是不受著作权法的保护的。但是在我们商标法的规定当中,声音是可以作为商标来保护的。当然他没有去注册商标的话,他也很难做得到商标法的保护。”


岳屾山说:“民法典里声音保护参照肖像权保护进行,而肖像权又有明确的规定是说不允许进行伪造,这个的话可能会涉及一个侵权。另外,它(虚拟歌手)可能会造成故意误导、混淆或者是形成假冒别人的名义等行为,这些可能会涉嫌不正当竞争。”


其实利用别人的声音进行欺诈的案例已经出现,粟晓南举例表示:“现实当中早就有发生过类似的案例,(一些不法分子)抓取你的声音、模仿你的声音去给别人打电话或者是给别人发一段语音,别人可能误以为就是你了,那么这个时候他可能会(要求)你转钱,继而发生一些欺诈行为或诈骗行为。”


侵权之外,人工智能是不是打开了潘多拉的魔盒?


除了侵权行为可能出现,其实AI歌手以及由此可能扩展出的AI虚拟人背后还存在着巨大的伦理问题亟待解决。梁正给记者举了这样一个例子:“最近有报道是说AI用某个比如说网红的声音去训练,然后她同时跟很多人一起去做情感交流,这里边的道德伦理问题就比较大了。因为它不是真人,这能够叫做一种服务吗?这里边其实是稍微处理不当就会踩到一些所谓的伦理红线,它会不会形成不当的引导?因为你也没有办法去控制。”


可以说,风口上的ChatGPT打开了人工智能的新大门,也打开了潘多拉的魔盒,一段时间以来,关于人工智能生成内容以假乱真、数据泄露以及侵权的风险被进一步放大。针对目前生成式人工智能的发展与管理,其实业界也在讨论。



梁正表示,一个月前国家互联网信息办公室发布的《生成式人工智能服务管理办法(征求意见稿)》是个很好的开始,但未来还需要对不同主体进行更加明晰的责任认定。


梁正说:“各个主体的分类责任要更清晰化,除了提供工具大模型基础服务提供商,包括使用大模型生成相关内容的生产者,把它发布在相关平台上的发布者,这里边其实责任是要进行一个区分的。”


对于目前普遍认可的为人工智能生成的产品赋予数字水印进行打标的做法,梁正表示打标这件事本身就应该进行分场景规定。


梁正说:“我们特别强调不能把所有的内容生成(产品)都要求它去打标,你比如说用在一些非to C(针对大众)的这种领域的(内容生成),他可能完全针对物理对象的,比如说代码编写这个就没有必要(打标),但是一旦涉及的内容、涉及社会公众这些领域,它可能产生一些社会影响,所以应该是不同的场景要求是不一样。”


关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。

新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

来源 | 本文转载自中国之声,点击“阅读原文”获取更多内容

阅读原文

* 文章为作者独立观点,不代表数艺网立场转载须知

本文内容由数艺网收录采集自微信公众号清华大学人工智能国际治理研究院 ,并经数艺网进行了排版优化。转载此文章请在文章开头和结尾标注“作者”、“来源:数艺网” 并附上本页链接: 如您不希望被数艺网所收录,感觉到侵犯到了您的权益,请及时告知数艺网,我们表示诚挚的歉意,并及时处理或删除。

数字媒体艺术 新媒体艺术 科技艺术

13961 举报
  0
登录| 注册 后参与评论