- 0
- 0
- 0
分享
- 于洋:算法公平性提升,需兼顾效率等功能诉求
-
2022-07-18
于洋
清华大学交叉信息研究院助理教授、清华大学人工智能治理研究院人工智能国际学术交流项目主任。
中新经纬7月15日电 (王玉玲)近日,由对外经济贸易大学数字经济与法律创新研究中心主办的“算法公平治理与实现”研讨会在线上举行。清华大学交叉信息研究院助理教授、清华大学人工智能治理研究院人工智能国际学术交流项目主任于洋表示,人工智能算法歧视可能涉及到根本的理论性的重大问题。如今,知识问答,智能的法律审判,都是基于语言模型。
于洋分享了一个很重要的结论,如果我们纠正算法性别歧视或者种族歧视,算法完成其他功能的能力也随之下降。在这种情况下,几乎所有模型,没有歧视的同时也完不成任务,或者水平很好,但是歧视程度很高。
由此带来了一个疑问,人工智能到底能不能不歧视?就是人工智能只学会干好事,不学会歧视。于洋表示,要是人工智能这个工具本身不可能只学会干好事,不学会歧视,或者说歧视就是干好事前提的话,那这对人工智能算法的使用、监管会带来很多新的思考,这是一个很重要的理论问题。
于洋认为,其中训练数据和路径至关重要。在人工智能设计中,训练数据影响结果有三条路径。第一,训练的数据影响了输入,把输入的词转化为向量,向量本身会直接对预测结果产生影响;第二,向量作为输入本身,也会通过模型里面的参数,最后影响输出;第三,训练数据决定了模型里面的参数,也影响了结果的输出。在这三条路径中,如果歧视是因为数据导致的,我们去纠正路径所带来的歧视,不会影响模型表现。
于洋表示,如果我们知道影响歧视的路径和原理,我们就可以想办法纠正。还有一些需要处理的技术难题,比如我们并不知道没有歧视的情况是什么样的,我们要通过不断搜寻排除,找到一个不那么歧视的状态。
关于我们
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG
-
阅读原文
* 文章为作者独立观点,不代表数艺网立场转载须知
- 本文内容由数艺网收录采集自微信公众号清华大学人工智能国际治理研究院 ,并经数艺网进行了排版优化。转载此文章请在文章开头和结尾标注“作者”、“来源:数艺网” 并附上本页链接: 如您不希望被数艺网所收录,感觉到侵犯到了您的权益,请及时告知数艺网,我们表示诚挚的歉意,并及时处理或删除。