首页 理论教育网络数据保护与风险管理

网络数据保护与风险管理

【摘要】:网络空间数据安全面临风险,所以相关职能部门应该关注数据保护。关于数据保护,《总则》第127条规定应依法对数据和网络虚拟财产提供保护。[23]这是有关数据问题的文件,职能部门已经逐渐采取措施来应对大数据时代的数据风险,但显然这条路才刚刚开始。

1.出台数据保护相关法案

我们生活在数据时代,在获得数据所给予的便利的同时也感受到了数据所潜藏的危险。网络空间数据安全面临风险,所以相关职能部门应该关注数据保护。2017年3月15日,中华人民共和国全国人民代表大会通过了《民法总则》(以下简称《总则》),该法是仍然处于起草阶段、计划在2020年实施的民法典的序章。《总则》对1986年《民法通则》旧有的155项规定作出删改,并在其基础上新增50项规定。尤其值得关注的是新加入的“个人信息权”与确立“数据”保护的条款。关于“个人信息权”,《总则》第111条规定自然人的个人信息受法律保护。任何组织和个人需要获取他人个人信息的,应当依法 取得并确保信息安全,不得非法收集、使用、加工、传输他人个人信息,不得非法买卖、提供或者公开他人个人信息。关于数据保护,《总则》第127条规定应依法对数据和网络虚拟财产提供保护。我国于2018年5月1日起开始实施《信息安全技术个人信息安全规范》,该规范针对个人信息面临的安全问题,规范个人信息控制者在收集、保存、使用、共享、转让、公开披露等信息处理环节中的相关行为,目的是遏制个人信息非法收集、滥用、泄露等乱象,最大限度地保障个人的合法权益和社会公共利益。[23]这是有关数据问题的文件,职能部门已经逐渐采取措施来应对大数据时代的数据风险,但显然这条路才刚刚开始。

2.严肃算法伦理组织审查

通常情况下法律规定从起草到颁布、实施需要较长的准备时间,它所涉及的程序比较复杂,相对而言相关职能部门推进算法伦理组织更易实现。算法伦理组织,一般来说就是指由政府机构人员、企业从业人员、各行各业的代表、专业领域的学者、相关领域的研究专家等构成的对算法中的道德伦理问题进行讨论、评议、界定、监督的社会组织。他们只能对相关事件进行评议,最后形成的相关文件仅具有约束、规范等作用,不具备法律效力,他们更像是一个委员会的成员,对算法道德伦理问题进行全方位的讨论。一旦平台出现算法道德问题,企业不应该关起门来解决问题,更应该打开门来与各方力量共同努力,解决其中的问题。比如,今日头条发布的道歉信中就提到:“成立内容监督专家团,邀请人大代表政协委员、专家学者、媒体人等社会各界代表以及专业人士,对平台内容和服务进行监督,广泛征集意见,更好地提升内容质量。”这其实就是今日头条已经意识到在未来会有这样的一个关于算法的道德伦理组织,而他们已经从自身出发去建立属于今日头条的算法伦理组织。快手CEO也在道歉信中就提到“要借助各方力量,共建清朗快手”,比如“积极接受政府有关部门管理和指导,改进优化审核规则和算法推荐,邀请法律、传播、社会、伦理等领域学术专家,组建短视频内容合规性研究委员会,加大对视频内容合规性案例的分析研判”。但是算法伦理组织审查要避免走入形式化的模式,所以企业应严格坚持“自我审查”与“外部审查”。企业应建立“自我审查”的工作规范与长效机制,结合严肃的“外部审查”,将“自我审查”与“外部审查”相结合以规范自身。(www.chuimin.cn)

3.全面推动算法伦理教育

算法伦理目前很大程度上是学术研究里的理论知识,在社会实践方面除技术主体以及管理者,普通的用户并不清楚其中的缘由。所以,全面推动算法伦理教育就显得尤其必要,这里讲的算法伦理教育并不是简单的说教,它更多的是主张建立算法伦理意识的自觉性,这种教育看似使人陷于被动局面,实则在引导人们建立主动性。伦理教育的目的是在每个人心中建立算法伦理的标尺。一般来说,大多数人可能会认为伦理教育的对象应该是创造技术的人,因为他们在设计算法的时候带有价值观,一旦嵌入错误的价值观便会给广大用户以及整个社会带来不利的影响,所以我们会认为他们是最应该被教育的对象。其实不然,因为算法所产生的伦理问题一般情况下都是针对人,只有牵涉到人的时候才会涉及伦理。也就是说算法技术的使用与影响都与用户息息相关,如果用户对于算法伦理了解不够,那么极有可能会被算法无形中利用甚至控制。只有当用户对算法伦理有充足的了解,明白算法的道德标准后才能保护自身利益不受侵犯,或者在个人利益被侵犯后及时采取行动维护自身合法权利。无论是身处哪个社会,即使是在媒体算法时代,它都有一个规则,这个规则就是道德。所以,在全社会推动算法伦理教育,就是在为广大用户建立算法的道德观,从而使用户在算法媒体时代知道道德的标准是什么,应该做什么,不应该做什么。