一.
背景
人工智能(“Artificial Intelligence”或“AI”)是关于如何让机器实现人类智能的计算机科学。[1]人工智能在生产、生活中的应用已十分广泛,如无人工厂、智慧出行、自动驾驶等。人工智能表现出的超级算力已叹为观止,如2016年谷歌的AlphaGo连胜韩国围棋棋手李世石。人类在惊叹人工智能超级能力和效率的同时也面临人工智能对传统社会分工、法律关系乃至伦理带来的冲击。例如,2016年谷歌无人驾驶汽车在美国加州发生严重车祸,2020年疫情期间日本的人形机器人产品“陪伴机器人”受到追捧,2021年6月15日清华大学计算机系主创的虚拟学生“华智冰”正式入学等现象。只有了解人工智能的安全风险、隐私风险和伦理风险,对人工智能保持敬畏之心,才能科学地发展和利用人工智能。
目前,我国已开启有关人工智能的立法进程,敦促和规范人工智能发展。2017年国务院印发的《新一代人工智能发展规划》提出,我国人工智能发展的战略目标分三步走。具体而言,第一步即到2020年“部分领域的人工智能伦理规范和政策法规初步建立”;第二步即到2025年“初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”;第三步即到2030年“建成更加完善的人工智能法律法规、伦理规范和政策体系”。针对人工智能伦理,我国也出台了《网络安全标准实践指南—人工智能伦理安全风险防范指引》,为组织或个人开展人工智能研究开发、设计制造、部署应用等相关活动提供指引。在未来,对于人工智能的立法将会更加丰富,我国将会建立起更加全方位、多主体的人工智能法律体系。本篇主要从人工智能引发的隐私风险和数据保护风险角度对人工智能的发展作出冷思考。
二.
人工智能引发的隐私风险
人工智能的技术核心主要包括数据和算法,这意味着人工智能水平越高,越需要大数据喂养,还需要算法不断练习。这些数据很可能包含大量个人信息,而个人信息中的隐私信息一旦泄露,则会造成难以估量的后果。具体而言,人工智能技术引发的隐私风险体现在以下几个方面:
1、人工智能使私密空间处于监控之下
人工智能技术的入侵会模糊私密空间的边界,使原本私密的空间处于监控之下。人工智能的应用场景决定了它本身需要获取大量的隐私信息。各种人工智能产品,小到可穿戴的智能设备(如智能手环),大到无人驾驶汽车,其装载的摄像装置、传感装置、语音录取装置等,都需要进入个人的私密空间甚至人体,才能收集、记录个人的行为、表征、轨迹、偏好并通过运算发出指令。因此,在多数场景下人工智能天然与隐私密不可分。
例如,自动驾驶场景下,车辆不仅要收集车外数据还需要收集车内数据,包括驾驶者的生理信息、语音和视频。而车内通常是个人的私密空间,人工智能将原本私密的空间变为数据收集场所,导致个人长期处于监控之下。如果被不当使用,人工智能设备将成为强大的窥探隐私的工具。
2、人工智能设备成为“隐私设置”的载体
有些人工智能设备本身就包含了隐私设置。例如,未来可能将在人们的生活中扮演重要角色的社交型机器人,它们为个人提供陪伴、聊天、学习以及看护等服务。为了使社交型机器人更了解用户从而实现高度智能的交互功能,用户需要对其完成初始“隐私设置(setting privacy)”,包括输入生理信息、行为偏好、兴趣偏好等各种隐私信息。不仅如此,随着与社交型机器人交互的不断深入,个人将逐渐展现其最为私密的心理属性(psychological attributes)。而社交型机器人则在用户不设防的状态下通过持续的信息收集和深度学习掌握到用户最私密的信息。用户在使用包含隐私设置的AI设备时,需要注意数据保护风险。
3、人工智能使用户“画像”更为容易
人工智能中的算法经常被用于用户画像,通过算法对人的隐私作出分析和预测。通过Cookie、Fingerprinting[2]等技术,可以实现个人信息的识别、追踪与收集。在商业领域,越来越多的企业开始收集个人的浏览记录、购买记录、交易方式等信息,依据这些信息来分析用户行为,对网络用户进行用户画像和精准营销。例如在新闻资讯与娱乐领域,抖音、快手、今日头条等利用算法进行个性化推荐与分发,以提高新闻与娱乐资讯的传播效率;在电商领域,淘宝、京东等购物网站利用算法对个体进行个性化商品推荐,以大幅促进销量。但同时,人工智能也成为实施“大数据杀熟”和“歧视性定价”的工具。
4、人工智能造成“信息茧房”(信息牢笼)
2006年哈佛大学凯斯·桑斯坦在他的《信息乌托邦》中提出了“信息茧房”概念。桑斯坦指出,在信息传播中,公众所接触的信息是有限的,会选择自己愉悦的信息,久而久之,会将自身桎梏于像蚕茧一般的“茧房”中,失去思考的能力。个性化推荐本质上并不是用户在主动选择信息,而是将信息主动推送给用户。用户所接触到的信息要么是夺人眼球的“10万+”,要么局限在他们感兴趣的狭小领域,要么就是与他们观点和意见相一致的“溺爱式”信息。在很大程度上,用户被算法所提供的信息“喂养”,沉浸在算法制造的信息茧房/牢笼里,久而久之丧失独立思考能力。
不仅如此,基于算法的精准推送还剥夺了用户不被打扰的权利,即隐私的权利。美国隐私权先驱萨缪尔·沃(Samuel War- ren)和路易斯·布兰迪斯(Louis Brandeis)就在其名作《隐私权》一文中提出,隐私权是人们享受独处的权利(right to be alone)。笔者理解在一定程度上,精准推送剥夺了用户选择信息和不被打扰的权利,是一种新型的侵犯隐私方式。
三.
人工智能技术引发的数据保护风险
从数据保护角度来看,人工智能是一种数据处理活动。人工智能算法尤其是在深度学习过程中,需要大量数据样本和算法练习。但如果数据被污染、泄露、滥用,则不仅会影响输出结果,还可能危及人身财产安全、社会经济秩序甚至国家安全。因此,在人工智能数据的收集、存储、使用、分享、传输、销毁方面都需要有法可依,有章可循。
1、“数据污染”影响人工智能决策的准确性
人工智能需要处理大量数据,因此数据质量直接决定了人工智能的效率。数据质量低下表现为“数据污染”和“数据偏差”。数据污染是指数据与人工智能算法不适配,从而导致算法模型训练成本增加甚至失效,本质是数据质量治理问题。数据偏差是指人工智能算法决策中所使用的训练数据,因地域数字化发展不平衡或社会价值的倾向偏见,使得数据所承载的信息带有难以用技术手段消除的偏差,从而导致人工智能的决策结果带有歧视性。例如,在金融征信、医疗教育和在线招聘领域,可能会因边远地区、弱势群体和少数族裔的数据量不足、数据质量不高等原因,导致自动化决策的准确率会基于人群特征形成明显的分化,从而产生实质性的歧视影响。此外,若污染数据被用于政党竞选和政治宣传,则可能对政治生活产生极大冲击。
2、“数据投毒”带来人工智能决策的攻击性
除了客观原因,数据质量也可能因恶意干预而出问题。“数据投毒”是指人为在数据中添加异常数据或篡改数据,通过破坏原有训练数据导致模型输出错误结果,从而引发人工智能的决策偏差或错误,最终产生恶意攻击者所期待的结果。在自动驾驶、智能工厂等对实时性要求极高的人工智能场景中,数据投毒对人工智能核心模块产生的定向干扰将会直接扩散到智能设备终端(如智能驾驶汽车的刹车装置、智能工厂的温度分析装置等),从而产生攻击人身、财产的可怕后果。
3、人工智能引发的数据争夺导致数据壁垒
由于人工智能的发展依靠大量数据的喂养,企业纷纷展开数据争抢。对于底层数据资源的竞争是人工智能企业最关键的市场竞争力体现。在这种情况下,企业、机构间不愿意共享、流通数据,而导致形成“信息壁垒”。而信息壁垒一定程度上阻碍了那些迫切需要大量数据来提升AI技术、增进人民福祉的企业或机构的发展。以医疗数据为例,医疗行业的数据对于提高诊疗效率、优化诊疗方案、促进临床试验等有举足轻重的地位,因而成为医院、药品企业、药械企业争抢的对象。政府与企业之间、大企业与小企业之间、行业与行业之间,因数据确权、数据安全等问题存在着诸多法律和技术上的数据壁垒,形成了“数据孤岛”。不仅极大制约了人工智能的发展,也成为滋生数据黑产的主要经济动因。成熟的医疗数据要素市场尚未形成,数据合法、便捷、安全、低成本的交易流通机制仍是空白,这远远无法满足医疗行业对于数据资源的需求,因此部分企业只能铤而走险,违规购买或违规收集数据。可见,一方面AI需要大数据支撑,另一方面带来数据争夺。因此,AI的发展需要安全、有序的数据分享机制,否则反而会阻碍数据流动形成数据孤岛。
4、无差别数据收集可能危害国家安全
在人工智能技术研发和场景应用中均需要常态化、持续性、高速率、低延时的跨境数据流动。现场无差别收集是人工智能数据采集的重要方式,广泛应用于无人驾驶、智能家居、智慧城市等场景中。其主要通过在公开环境中部署各类传感器或采集终端,以环境信息为对象进行无差别、不定向的现场实时采集。
比如在智能网联汽车的无人驾驶场景中,自动驾驶汽车的传感器需要采集街景数据来支持智能驾驶系统的决策从而控制汽车行驶。但是这种无差别的街景数据采集必然会采集到行人的个人数据,甚至可能会采集到路边的重要基础设施分布、军事营区等重要数据从而给国家安全带来风险。而且在智能网联汽车领域,智能汽车产生的路况、地图、车主信息等大量数据可能回传至汽车制造商的境外服务器,进行产品优化升级和售后服务支撑。如果没有经过数据出境安全评估或网络安全审查,则可能带来个人敏感数据和重要数据出境后的安全风险。这种人工智能应用引发的跨境数据流动,不仅因各国日益趋严的数据安全规制和本地化要求而面临极大的法律障碍,更可能对国家安全、数据主权带来挑战。
· 总结 ·
在人工智能技术高速发展的当下,我们既要看到其对生产、生活带来的有利影响,也要注意到其带来的隐私与数据风险。归根结底,此类风险的大小取决于人工智能的技术能力、使用意图和价值取向。因此,有必要通过立法规制人工智能的发展,提高人工智能的安全性,增强技术自身的“免疫功能”。同时也要对人工智能进行安全、伦理上的限制,建立起全方位的、由政府、企业、个人多方参与的人工智能法律体系。人类需要认识到不了解人工智能风险就不能真正了解人工智能。
[注]