1 人工智能安全的概念
人工智能安全是保护人工智能系统免受安全威胁和攻击的一系列措施。它涉及机器学习安全、隐私保护、透明度和解释性、负面偏差和公平性、安全评估和认证,以及伦理和道德等方面。
机器学习安全旨在提高模型稳健性,防止对抗性攻击和数据篡改。
隐私保护关注个人数据的安全性和合规性,防止数据被滥用和泄露。
透明度和解释性提高人工智能系统的可理解性,增加用户信任。
负面偏差和公平性要求避免算法歧视和决策偏见。
安全评估和认证可以评估系统的安全性和风险,提供系统可信度。
伦理和道德关注人工智能系统的道德责任和社会影响。
2 人工智能安全问题
人工智能安全问题不容忽视。随着人工智能的应用领域越来越广,人工智能安全的影响范围也在不断扩大,具体体现在如下方面。
(1)对抗性攻击
人工智能系统容易受到对抗性攻击,攻击者可以通过对输入数据进行修改来欺骗系统。例如,在图像分类中,可以通过添加对人眼几乎不可见的干扰来欺骗图像分类器,使分类器错误地将一只猫识别为一只狗。这种攻击会导致系统做出错误的决策或产生不可预测的行为。
(2)隐私和数据泄露
人工智能系统需要大量的数据进行训练和学习,因此隐私和数据泄露成为一个重要的安全问题。如果这些数据未经充分保护或在处理过程中被泄露,那么数据可能被滥用或用于进行针对个人的攻击。
(3)恶意使用和滥用
人工智能技术可能被恶意使用或滥用,进行网络攻击、欺诈、虚假信息传播等活动,例如使用自然语言生成模型生成虚假消息。
(4)不可解释性和透明度
一些人工智能算法和模型缺乏透明度和可解释性,使其决策过程难以理解和追踪。这可能导致用户对系统的行为感到困惑,同时也增加了潜在的安全风险,例如金融、医疗等关键领域中的决策可能缺乏可信度和可解释性。
(5)自主系统的安全性
自主系统,如自动驾驶汽车或机器人,具有自主决策和行动能力。然而,这些系统可能受到入侵、篡改或操纵的威胁,导致采取危险的行为或系统的控制权被攻击者夺取。
(6)数据不平衡和偏见
人工智能算法的训练数据可能存在不平衡和偏见,这可能导致系统对某些群体或特定属性的人作出错误或不公平的决策。例如,在招聘领域,如果训练数据偏向于某个特定群体,那么算法可能会选择倾向于该群体的候选人,而忽视其他群体的潜在候选人。
3 人工智能安全问题产生的原因
人工智能安全问题产生的原因是多方面的,需要从技术、伦理、法律、社会等多个角度进行综合考虑和分析。以下列出几个主要原因。
(1)数据质量和偏见
人工智能系统的性能很大程度上依赖于训练数据的质量和多样性。如果数据存在偏见、不平衡或含有错误信息,那么系统就有可能学习到这些问题并表现出相应的偏见或作出错误决策。
(2)存在算法设计和实现漏洞
人工智能算法的设计和实现可能存在漏洞,这些漏洞可以被攻击者用来欺骗或干扰系统。例如,一些算法可能对输入数据的微小修改非常敏感,从而容易受到对抗性攻击。
(3)不完善的安全考虑
人工智能系统的开发过程中若重点关注性能和功能时,安全性可能被忽略或放在次要位置,这将导致系统在面对安全威胁时存在脆弱性。
(4)快速发展和复杂性
人工智能领域发展迅速,新的算法和技术层出不穷,这种快速发展和复杂性使得人工智能系统的安全性评估和保护变得更加困难。安全研究和对策通常滞后于技术的进步。
(5)人为恶意行为
一些人工智能安全问题是由人员恶意制造的。例如,他们试图通过攻击人工智能系统来获取个人信息、传播虚假信息或操纵系统行为。
(6)监管机制和标准不完善
目前,对于人工智能安全的监管和标准仍然相对不完善,缺乏明确的指导方针和规范,使得开发人员和组织在保护人工智能系统安全方面面临挑战。
4 人工智能安全的治理
治理人工智能安全问题是确保人工智能系统安全性和可靠性的关键措施。以下是一些解决人工智能安全问题的建议。
(1)政策和法规
制定相关的政策和法规来规范人工智能系统的开发、部署和使用,这些政策和法规应涵盖数据隐私保护、安全审查、责任追究等方面。
(2)跨学科合作
人工智能安全问题的解决需要跨学科的合作。计算机科学、法律、伦理学等领域的专家通过合作,从技术、伦理、社会和法律等多个维度制定综合的安全治理策略。
(3)数据隐私保护
加强对个人数据的保护,确保数据收集、存储和处理符合隐私法规和最佳实践。采取数据脱敏、加密和安全存储等措施,限制数据的访问和使用,以防止数据泄露和滥用。
(4)安全评估和认证
建立人工智能系统的安全性评估和认证机制。例如,对系统的漏洞和弱点进行审查,评估系统对不同类型攻击的稳健性,并提供相应的认证标准和标签。
(5)稳健性和对抗性训练
加强人工智能算法和模型的稳健性,使其能够抵御对抗性攻击和干扰。通过对抗性训练和生成对抗网络等技术,使系统能够识别和应对攻击,并保持高效和准确的决策能力。
(6)透明度和解释性
提高人工智能系统的透明度和解释性,使其决策过程可以被理解和解释,这可以通过开发可解释的算法和模型、提供决策解释的机制和工具等方式实现,增加用户和监管机构对系统行为的信任。
(7)安全意识培训
加强人工智能系统开发者、用户和相关利益相关者的安全意识培训。提供关于人工智能安全风险和最佳实践的培训和指导,帮助他们识别和应对潜在的安全威胁。
(8)国际合作和标准制定
加强国际合作,推动制定跨国界的人工智能安全标准和指南。通过共享经验和最佳实践,促进全球范围内的人工智能安全治理,减少安全漏洞和风险。
5 人工智能安全问题的典型案例
(1)人工智能成“监工”:算法下外卖骑手挑战交通规则,“助手”可能变“杀手”
为提高配送效率,一些外卖平台研究开发了实时智能配送系统。借助人工智能算法,平台可以最优化地安排订单,也可以为外卖配送员规划最合理的路线。但出于平台、外卖配送员和用户三方效率最大化的目标,人工智能算法将所有时间压缩到了极致。为了按时完成配送,外卖配送员只能超速行驶。超速、闯红灯、逆行等外卖配送员违反交通规则的举动是一种逆算法,是他们长期在系统算法约束下做出的无奈之举。而这种逆算法的直接后果是外卖配送员遭遇交通事故的数量急剧上升。这也意味着,在很多人类劳动者和人工智能的协作专业工作中,人类将处在被管辖和被监督的境地。
这个案例虽然讲的是外卖配送员,但人们可以思考,当人工智能算法嵌入人类社会的方方面面时,人们在不知不觉中已经作为数据被算法研究,人们每天看到的信息究竟是算法推送的还是客观公正的?算法的技术不断臻于完美,商业利益不断迭代,这对人类福祉的影响到底是什么?对人工智能企业来说,应在早期产品实验室研究过程和产品化过程中考虑到平等问题;作为个人,在推动人工智能治理时,应思考如何贡献更多前瞻性看法。
(2)自动驾驶服务,人工智能系统伦理与安全问题引发关注
图10-1展示了自动驾驶应用场景。尽管自动驾驶技术具有诸多优势,但它在伦理和安全上也存在一些争议。
2018年,Uber在亚利桑那州测试3级自动驾驶汽车时,发生了首起由自动驾驶汽车造成的行人致命事故。事发时,尽管有驾驶员坐在方向盘前,但这辆车当时正处于自动控制模式。这起事故凸显了是否应该依赖人工智能的感知检测系统,以及在高压、时间紧迫的情况下,人工接管是否可行。
2023年10月2日,一名行人在美国旧金山市区街道上,连续被一辆轿车和一辆Cruise公司运营的无人驾驶出租车撞击和碾压,其中无人驾驶出租车还将这名行人拖行了6 m多的距离,加重了这位行人的伤势。这是自2018年Uber无人车撞死过街行人之后,美国非常严重的一起自动驾驶汽车交通事故。
2023年,南京某司机希望驾驶更便捷,就打开了车辆的自动驾驶功能。这个功能主要是车道保持和定速巡航。之后,驾驶员开始打瞌睡。行驶途中有一段路两边没有虚线导致车辆无法识别车道边界,发生碰撞。
这些案例突显了自动驾驶在人工智能安全和伦理上面临的挑战。解决这些问题需要加强安全性措施、制定隐私保护政策、推进数据公平性和透明度,并确保人类参与和责任的明确界定。同时,社会各界需要就这些问题展开深入讨论,并制定相
应的法规和道德准则,以确保自动驾驶技术的安全和伦理可行性。
(3)亚马逊人工智能招聘工具暴露性别歧视问题
亚马逊公司的人力资源部门在某一时期使用了基于人工智能技术的招聘软件来帮助审核简历并提出建议。然而,该软件对男性申请人更有利,因为其模型基于过去10年提交给亚马逊简历接受培训的候选人,当时雇用的男性候选人更多,因此该软件降级了包含“女性”一词的简历或暗示申请人是女性的简历。后来,亚马逊公司放弃使用该软件。人工智能对候选人进行性别筛选示意如图10-1所示。
讨论:人脸识别如何兼顾个人隐私保护和社会应用?
“扫码”与“刷脸”现在已经是日常生活中的常态,图10-2展示了基于人脸识别技术的“刷脸”入园场景。2019年4月,浙江杭州市民郭某花费1360元,购买了一张杭州野生动物世界“畅游365天”的双人卡,并确定以指纹识别方式入园游览。同年10月,园方将指纹识别升级为“刷脸”入园,并要求用户录入人脸信息,否则将无法入园。“刷脸”认证在大多数人看来就是对着手机点点头、眨眨眼的事儿,但郭某认为人脸信息属于高度敏感个人隐私,野生动物世界无权采集,不接受人脸识别,要求园方退卡。园方则认为,从指纹识别升级为人脸识别,是为了提高效率。双方协商无果,郭兵一纸诉状将杭州野生动物世界告上了法庭。
2021年4月9日,浙江省杭州市中级人民法院就原告郭兵与杭州野生动物世界有限公司(以下简称野生动物世界)服务合同纠纷二审案件依法公开宣判,认定野生动物世界刷脸入园存在侵害郭兵面部特征信息之人格利益的可能与危险,应当删除,判令野生动物世界删除郭兵办理指纹年卡时提交的包括照片、指纹在内的识别信息。该案被称为“人脸识别第一案”。