资讯
展览资讯 大型展会 灯光节 大型盛典 赛事 中标捷报 产品快讯 热门话题 艺术节 活动 演出 新闻 数艺报道 俱乐部签约
观点
大咖专访 观点洞察 书籍推荐 吐槽 设计观点 企业访谈 问答 趋势创新 论文 职场方法 薪资报价 数艺专访
幕后
幕后故事 团队访谈 经验分享 解密 评测 数艺访谈
干货
设计方案 策划方案 素材资源 教程 文案资源 PPT下载 入门宝典 作品合集 产品手册 电子书 项目对接
  • 0
  • 0
  • 0

分享

于洋:数字技术革命中,政府、企业、资方和个体的安全感困境怎么解决?

2022-07-12


于洋

清华大学交叉信息研究院助理教授、清华大学人工智能国际治理研究院国际交流项目主任。




【导读】

今天关于数字经济的各个问题,看似纷繁复杂,但都起因于数据的一个特性,即数据的多信息载体特性。


当舆论场围绕着数据安全、反垄断、平台牵涉的多方权益等议题唇枪舌战时,问题的本质核心是什么?在数据安全责任上,企业的能力边界在哪?政府和企业如何共建“可信的数据执行和流通环境”?个人数据安全保护的突破点在哪里?数字技术革命中,政府、企业、资方和个体需要的安全感怎么给?


针对这些问题,清华大学交叉信息研究院助理教授于洋分享了他的一些见解与建议。




企业在数据安全上无力承担“无限责任”


观察者网

于老师,您好。这段时间以来,国内舆论场对数据、平台的讨论很多,经常围绕着数据安全、反垄断、平台牵涉的多方权益等展开,但很多时候这些问题又是交叉混杂在一起的,您能否抽丝剥茧地梳理一下这几个层面?当我们讨论这些问题时,究竟讨论得对不对,其本质核心应该抓哪里

于洋

您好,感谢您的提问。您提到的数据安全、隐私、反垄断是三个不同的问题,但这些不同的问题却涉及一些共同的东西:比如数据。数据一方面给了平台提供服务所必须具备的相应信息,另一方面也使平台能够做一些其他的事情——比如设计垄断策略或市场操纵政策。


数据又事关安全:平台作为国家一个重要的公共服务提供者,它掌握的数据里面包含了大量信息,这些信息有可能涉及国家安全。同时,在信息技术革命的背景下,个人隐私和国家信息安全等责任应该如何在平台和政府间分摊,这也涉及到数据。所以,数据是牵连起信息时代国际、国内治理问题的一个主要节点。


可以说,今天关于数字经济的各个问题,看似纷繁复杂,但都起因于数据的一个特性——即数据的多信息载体特性。数据作为信息的一种载体,同一组数据存储了大量的各种各样的信息,除了提供服务所需要的信息之外——指数据中蕴藏的一部分信息,还囊括了其他的信息。在此背景下,服务提供方一旦收集了数据,就相当于收集了所有信息,有的信息是服务需要的,有的信息可能是垄断行为需要的,还有的信息是服务或垄断都不需要、但涉及到国家安全的。这是问题的第一个层面。


问题的第二个层面是,数据蕴含了哪些信息,对此作为服务提供方的平台或企业并不是事先完全知情的。对于平台企业来讲,它的困境是数据所包含的信息它无法完全知晓,也就是说平台收集的数据中,存在“不知道不知道”、“不知道知不知道”等数据安全风险。


在这个条件下,数据安全责任的落实,要有“边界思维”:我们要给企业责任划一个边界。也就是说,要对企业的数据收集、处理、流通进行标准化、规则化管理。如果企业合规了,那即便以后出了意料之外的问题,企业是没有责任的。


企业数据安全责任的承担能力,不仅要考虑技术极限,还要考虑企业负担。比如,企业数据安全责任的落实,实际上是通过对“数据安全”新基建的投资实现的。可信安全的数据执行环境投资和运维,这是一笔不小的费用。安全要求越高,企业负担越重。政府有必要系统地研究对“可信的数据执行和流通环境”建设的投资和管理机制,这也是很多人在努力的方向。


为了让大家更好的理解什么是“可信的数据执行和流通环境”,我这里举一个例子:要求数据在可信环境中运行,会降低数据流通和计算速度,给企业、消费者带来损失,这又是“数据安全”的另一重企业和社会负担。比如今天一些电商平台,每秒钟几十万笔交易,这就要求运算速度必须很快,但假如数据安全的要求加上去以后,会对运算速度的下降产生多大影响、带来的后果又是什么?这是我们通过数据安全来治理反垄断问题时要思考的问题。


因此,企业对数据安全责任的承担,意味着一个客观的“管制负担”(data-regulation burden)。对于大企业来说,也许它还能够也有能力部分承担;对于初创企业,如果在它初创伊始,就要求它对数据安全负责,我想这对创新创业来说是一个很大的负担。


所以,我们要求企业承担数据安全责任要有边界,而且这个边界不仅是技术边界,也要考虑企业负担。特别是,数字经济时代,创新创业是经济发展的核心动力,也是一种新的经济增长模式,数据安全责任落实对企业创新创业的影响,也是边界划定要思考的问题。


由此,我想很初步地提几点可以思考的、不同于企业负全责的数据安全治理思路,首先数据作为算法产业的一个特殊生产资料,的确由于其特性带来了问题,同一组数据蕴藏了不同的信息,而且具体是哪些信息目前也没有技术检验指导,这时候政府要做的事情应该是构建关于信息安全的白名单和黑名单制度,比如政府担心别人知道什么事情,只要把清单列出来,就能以此对企业进行审计。


其次,要形成新的治理思路。企业收集的数据,是有相应机构在日常对其开展各类探索的,它没有别的任务,只有一个任务就是这些数据能干什么,而政府对于这类新机构的授权是非常有必要的。


总之,国家管理、部门监管要划定企业数据安全责任边界,构建数据安全未知风险探索能力,探索适合数字经济时代的新治理方案。我们在治理模式和制度层面也要有创新,像是构建黑名单和白名单制度,组建新的风险识别组织、包括风险识别技术和风险识别部门等等。


当然,归根结底,最重要的问题是如何看待数据这一生产资料?我们要用发展的眼光去看待它,同时要研究数据和其他生产资料的本质区别,所有针对数据这一生产资料的制度安排一定要符合算法产业的生产规律和经济规律,而眼下摸清其生产规律和经济规律就是必要之事。

观察者网

于老师,听到这里插问一个小问题,您前面反复提到的算法产业,虽然我们经常听到,但究竟该怎么定义它,其内涵是什么

于洋

算法产业是非常多元化的产业,不仅仅是平台而已。比如,某个平台借用算法来提供某种市场组织的服务,像匹配、监管这类服务都可用算法生产。但反过来的例子,人脸识别就不是平台服务,因为它提供的就是一个具体的产品或者说具体的技术。算法产业的本质,是在生产生活或公共服务中存在着一些计算复杂程度高且计算负担重的问题,为了满足这些需求,就有一些企业或组织通过算法来提供相应服务。我们前面提到的平台只是算法产业中的一种,它还会有另外的形态。


保护每个人不因数据流通和使用受伤害,而非保护个人数据


观察者网

您最近提了一个很有意思的说法,即不赞成使用保护个人数据安全的概念,而应该用“避免数据流通伤害个人权益”的概念,能否展开谈谈两者的差别?换句话说,我们平常对于个人数据和信息的理解是不是存在一些偏差?这个问题是否也可以关联到您前面提到的如何看待数据及算法产业的问题?

于洋

我先从大家都赞同的一个观念说起,即他者对我个人数据的收集必须经过我本人同意,那么是不是我同意了以后,对方就可以随意收集我的数据了呢?实际上,虽然我同意他收集我的数据,但我的数据可能被用来侵害你的权益。这其中的重要议题包括:


1、首先正如前面提到的关于数据本身的界定就是一个很大的麻烦,其次假设对数据界定好了、且征得我的同意以后,它仍然可能去伤害别人。在此基础上,我认为我们通常讲的“保护个人数据”是一个不完整的概念但是保护每一个个体在数据流通过程中不会因为数据流通而受到歧视性伤害——这里的歧视性伤害的含义很广,不只是算法歧视而已,就是一个相对比较完整的概念。这个概念使得我们能在回避数据产权界定的前提之下,可以制定数据监管制度。比如,虽然这个数据不属于我,但他获取这个数据后有可能伤害我,这就需要数据监管做相应安排,保护我不受伤害。


2、“保护个人数据”无法支撑数据治理实践,但保护个人不受数据流通和使用伤害,则可以。从微观角度来讲,“保护个人数据”让政府的数据监管极其碎片化、高成本从而不可行:假设每一笔数据流通都需要每一个人同意,那成本太巨大了,这样的监管是不可能执行的。但要求数据的使用和流通不能伤害到个人,那么监管任务就会大幅下降,我只要保证数据间的流通和使用,不会对某个具体的个人或某个群体造成歧视性伤害或针对性伤害,那么相关问题就能被有效处理掉。


3、保护个人数据对应的监管,技术上不可行;但是保护个人不受数据流通和使用伤害,技术上是可行的。今天,在信息安全领域,许多研究者和工程案例,都在探索在各种业务场景中的“可信数据执行环境”,实际上都是在避免数据流通和使用伤害个人的正当权益——比如隐私,而不是保护个人数据。如果要保护个人数据,它所需要可信执行环境,要能支撑每个人能随时随地审批人同意自己的数据流通,全中国14亿人,每天的数据流通量如此庞大,你要每个人都同意,这是不可能实现的一种保护。但比如说任何一个新业态、一笔新的数据交易,背后的监管保证其对个人或某个群体不会造成伤害,这是可以完成的一件事。

《中华人民共和国个人信息保护法》于2021年11月1日起施行。

观察者网

是不是可以这么认为,如果对数据先行设置很多条件,事情就没办法展开了,但如果我们通过这个事情去看是否会对我造成损失以及造成什么样的损失,从权益角度对它进行管理,相当于极大地降低了管理成本。

于洋

不仅是降低巨大的管理成本,也更合理。就像我前面提到的,我同意你收集我的数据了,但我的数据可能会对别人造成伤害;你即便完成了数据保护这个监管,但仍然会产生其他问题。换句话说,这样的监管模式本身是有缺陷的。


数字技术革命如何平衡促创新和防风险?


观察者网

我们继续就监管角度来说,如果落实当下现实,确实涉及到社会企业或政府层面正在做的一些事,一方面我们说平台本身很复杂或者说数据、算法很复杂,需要更细腻的管理和部门的协调,但实际操作层面其实是非常困难的,甚至有可能带来一些争议。从企业的角度而言,在技术开发或服务提供过程中会去考虑可能涉及到哪些相关部门的监管?

于洋

我们正处在一个技术革命的过程中,因此面临既需要鼓励创新和探索、又要防范新风险的两难选择。政府很担心突然出来一个新风险,猝不及防地打乱了我国安定团结的大好局面;而企业和投资者则关心会不会突然出新监管、甚至追究监管出台之前发生的问题。是技术革命进程中,经济治理最大的困境,政企双方要相互理解,要找到一个相互协调的新模式。其实,我国在这方面是有经验、有很好传统的。


我首先展开来讲一下技术革命中,发展创新和防风险的两难:新技术的不断涌现和应用,会带来很多政府无法预先设想到的新问题,等到政府发现后,很自然它要开始监管、防风险。但如果防风险就是禁止掉一个商业场景甚至产业,甚至要追责,这显然对企业造成了意料外的损失——你政府之前没有说过不允许使用,但现在又不允许了,不仅给企业造成损失,还导致前期的整个投入都无法取得回报。而且,这种追责有时也会对外界造成一个负面印象:好像企业搞的技术和场景创新行为很邪恶。对企业来讲,这些都是不可承受的。但对政府来讲,我发现了问题,如果不监管,那样带来的风险和后果也不可能承受。这就是信息技术革命必然带来的两难状况。


问题是,要怎么样让创新有出路,同时风险可防控?我认为,我们要回到改革开放的经验中去找答案。因为我国的改革开放之路,就是一路伴随着既要探索出路,又要防控风险的。


回顾我们国家改革开放的经验,和别的国家相比,中国有一个最宝贵的财富就是小平同志讲的“摸着石头过河”。一方面,我们看到从上世纪八九十年代到本世纪初,中国出现了一大批改革先锋,包括商界人士、政界人士。那么,当时做得这么多的改革探索都是成功的吗?也不见得。但是,社会对探索本身是宽容和鼓励的,对探索结果有所取舍——决定留还是不留。所有做出探索的人,不论结果,大多都得到了正面的鼓励。也就是说,我国改革开放有一个很重要的机制:鼓励探索这种行为,但是选择性接受探索的结果。


所以,我有一个主张就是“探索无边界、业务有监管”。对于算法产业、乃至这波信息技术革命带来的新东西,要鼓励大家去探索,但对于探索产生的新业态要有监管。我进一步认为,要给探索和防风险都配套相应的机制。对于防风险来说,我们需要引入一些新的保险机制或金融机制。因为企业、组织或个人探索出来的新业态,有可能对公共事务产生影响,政府可能会加以禁止,所以有必要有相应的保险来对冲这种风险。而怎么形成一种保险机制,在对冲风险的同时,还能保护创业者的创造动力和创造精神,这就非常必要了。


此外,政府不能简单地通过禁止方式来进行监管,也不宜动辄追责,因为创新创业就是一个探索过程。我们想想改革开放中的试点机制,并不是说试点出来的结果是不宜推广的,就要处罚提出试点的人。实际上改革开放以来,有的试点成功了,有的试点证明此路不通,比如管理层收购曾经遇到很大的争议,后来争论结果是不应该搞管理层收购,但这个过程中涌现出一大批愿意推动试点、愿意探索实验的干部,当时即便他们推动的试点不成功,但能够试点这件事本身还是可以让他们在整个公务员体系中获得某种回报。换句话说,决策层最终并不是采用所有试点结果,但是对探索这个行为本身是宽容和鼓励的。


总的来说,我的建议就是“探索无边界、业务有管理”,同时探索建立相应的保险和金融保障机制。也就是说,即便他的创新有可能因为目前的公共利益而无法实现,但创新本身值得被鼓励,应当获得相应的收益。实际上这些就是中国改革开放的经验,鼓励大家摸着石头过河,黑猫白猫抓到老鼠是好猫。

资料图/大公报

观察者网

关于这个问题,有一点体会是,对于平台企业或互联网科技企业的监管,这几年的社会氛围、舆论环境发生了很大转变。假如以2020年初和2022年上半年两次疫情封控背景下,平台企业发挥的作用和社会反馈来看,两年前的参与度和评价似乎更积极。换句话说,官方表态支持平台等互联网科技企业发展,同时相关部门对其严格监管治理,再加上社会相关舆论的对立,这些情况是交织并行的。当然,政府一直支持的。最近中央召开的“推动数字经济持续健康发展”专题协商会上,还强调鼓励企业海外上市,厘清数据权益,保证数字经济竞争力等等。结合当下现状,政府的这些政策在具体落实过程中,能多大程度得到推动?有哪些方面可以改进?

于洋

我首先想强调一点,我们要相信国家对于高新产业、平台产业的政策的底层逻辑不仅是支持,而且是大力支持。但是,我们也要体谅一件事情,就是政府不一定很清楚该怎么支持、怎样才能既保障安全又全力支持。我们要深刻地理解这组张力,要认识到协调好鼓励创新和防风险是一个相当困难、甚至缺少答案的新问题。


作为学界人士、企业界人士,应该主动探索、然后告诉政府要怎么做,政府并不具备研究前沿问题的功能。不管是立法当局还是行政当局,都没有承担研究新问题的职责,但这些可以交给研究部门去做。我们的研究机构、高校的所有科研工作者,都身负重要责任,要去跟政府解释应该怎么考虑这个问题。反过来,政府也要有一个机制,能够及时了解新的动态,获得一些相应的知识。


过去10年,平台经济其实对我们来讲已经不新鲜了;再往回说,过去30年来,从1992年开始很多新产业在中国产生,对于这些新产业的监管,也都是政府、企业和学界在逐渐交流过程中形成的。特别是针对新产业的监管方法和监管理念,需要一个自下而上的过程,而不能只有自上而下,这是因为“自上而下”对新技术的技术特征等众多微观问题不够了解,它需要一个自下而上的反馈渠道,告诉管理部门和决策层这个新经济新产业的技术特征是什么、该怎么做、对应的经济规律是什么等等。


回到前面谈的这个问题,国家层面的支持态度和决心不用怀疑,关键是要构建一系列制度来真正落实推动这件事。我们说的“红绿灯”,是一个模糊的比喻,不是说“红绿灯”不好,而是说可以给企业一些确定性的东西,降低企业和投资的不确定性,将“红绿灯”的比喻扎实落地,成为具体政策。我个人觉得前面讲的三句话——探索无边界,业务有监管,建构新型保险机制金融机制为创新探索业务提供收益保障,是可以落实为具体制度的。其实,这某种程度上也就是给企业、平台、研究机构、包括想要入局的资本等等,提供相对比较可靠的政策投资保障。


政府需要安全感,因为是我在负责整个社会的运营,一旦出了问题,你企业不用负责,是我要负责。企业也需要安全感,我这么努力探索研究出来的东西,你突然不让我做了,我要背负相当大的损失。投资者也需要安全感,我现在投哪里是比较安全的,我的投资是否有回报,起码要有一个概率上的感知。我们正确看待这组关系,现在三方都需要安全感,那么怎样才能形成一个安全感的支撑?或许可以借用像保险制度这种能够提供安全感的现代经济制度来思考这个问题。所以,大家也不用担忧是不是没有前景,远非大家想得那样。


关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。

新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

阅读原文

* 文章为作者独立观点,不代表数艺网立场转载须知

本文内容由数艺网收录采集自微信公众号清华大学人工智能国际治理研究院 ,并经数艺网进行了排版优化。转载此文章请在文章开头和结尾标注“作者”、“来源:数艺网” 并附上本页链接: 如您不希望被数艺网所收录,感觉到侵犯到了您的权益,请及时告知数艺网,我们表示诚挚的歉意,并及时处理或删除。

数字媒体艺术 科技艺术 于洋 数字技术

11519 举报
  0
登录| 注册 后参与评论