- 0
- 0
- 0
分享
- 科技日报专访|梁正: 如何监管“出圈”的ChatGPT?
-
2023-02-17
梁正
清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任、中国科技政策研究中心副主任、公共管理学院教授
# 专家金句 #
1、对于这项新兴技术来讲,跟过去不一样的地方就是不能一下子就把标准定死,或者法律就已经非常明确。可能要给它留有一定的空间,根据发展变化来进行调整,这就是我们讲的敏捷治理。
2、我们从源头上控制,比如说它的语料,它的数据的质量。你可能要有一个标签,然后来提示大家,这个内容可能不是人工的,可能是机器生成的。
3、我们要重新考虑人和技术的关系,可以更多地从如何与技术共处、合作的角度去考虑,而不要一上来就考虑人工智能对我们的替代。
4、我觉得从人的角度来讲,起码现在你不用太担心人工智能好像完全失控了,在你不知情的情况下就已经接管(人类)了,其实还远远没有到这个程度。
如何监管新兴技术?
ChatGPT它其实是一个比较典型的,我们所说的一种新兴的技术。现在对于新兴技术来讲,其实跟过去不一样的地方就是不能一下子就把标准定死,或者法律就已经非常明确。可能要给它留有一定的空间,根据发展变化来进行调整,这是我们讲的叫灵活的敏捷的治理(敏捷治理)。
除了这个以外,可能大家也知道我们在人工智能治理里,现在也有一些叫做沙箱监管,这个概念实际上是说我们限定它的使用范围,在某个范围内是可以使用的,或者叫限定人群,限定目的。一些比较敏感的领域,我们暂时可能先不去大规模地应用,当条件成熟了以后再进行推广。
还有一些是说我们从源头上控制,比如说它的语料,它的数据的质量。你可能要有一个标签,然后来提示大家,这个内容可能不是人工的,可能是机器生成的。
比如说欧洲在人工智能法案里边,它对于一些高风险场景也是这么去界定,有些红线是不能碰的。具体是哪个技术最后去实现了应用,可能用什么样的方式去解决,我觉得更大程度上是行业去探索的一个结果。行业的自我规范是非常重要的。
人和技术之间的关系需重新考虑
特别是生成式AI,现在可能我们关注的监管这个问题,都是所谓叫做“近忧”了,“忧”可能就是我们现在眼前就能够看到包括工作的替代,然后造假的问题,但是我们也应该考虑一下,可能是叫做“远虑”,我们叫做人际关系的重新处理,我觉得现在可能在很多AI这个领域都面临这个问题。
我们要重新考虑人和技术的关系,可以更多地从如何与技术共处、合作的角度去考虑,而不要一上来就考虑说它(人工智能)对我们的替代,某种程度上我们要接受,但是我们要找到合作的方式。
人工智能还远不会无序扩张
那么关于AI会不会在很大范围内无序、自我地扩张,可能失控,我觉得主要取决于人,其实还是在于我们会去选择它能够发挥什么样的作用,它一定是说可以做得更好,会把我们从一些复杂的重复的工作当中解放出来,这样我们才会给它,等于赋予它这样的权利。所以我觉得从人的角度来讲,起码现在你不用太担心人工智能好像完全失控了,在你不知情的情况下就已经接管(人类)了,其实还远远没有到这个程度。
关于我们
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG
来源 | 点击“阅读原文”获取采访视频
-
阅读原文
* 文章为作者独立观点,不代表数艺网立场转载须知
- 本文内容由数艺网收录采集自微信公众号清华大学人工智能国际治理研究院 ,并经数艺网进行了排版优化。转载此文章请在文章开头和结尾标注“作者”、“来源:数艺网” 并附上本页链接: 如您不希望被数艺网所收录,感觉到侵犯到了您的权益,请及时告知数艺网,我们表示诚挚的歉意,并及时处理或删除。