《人工智能的恶意使用:预测、预防和缓解》导读(六)
(修改过)
IPFS
六、干预措施建议
本小节包括了原文第4章和第5章关于干预人工智能发展的一些建议,这些建议可以在一定程度上缓解人工智能带来的或面临的安全性问题。
本小节以列举的形式给出比较粗略的要点。建议阅读原文了解细节。
策略性建议:
- 合作:政策制定者应与技术研究人员紧密合作,调查、预防和缓解人工智能的潜在恶意使用。政策制定者应该担负起他们的责任,对技术人员提出的担忧要积极响应,而不要麻痹大意。
- 认识:人工智能领域的研究人员和工程师应认真对待其工作的双重用途性质,把可能被滥用的考虑加入到研究的优先次序和规范中,并在可预见的有害应用中主动与相关行为者联系。在认识到人工智能的双重用途性质后,研究人员应经常考虑在缓解AI的恶意使用方面自己的责任和可以做的事情。
- 方法:应在具有解决双重用途问题的更成熟方法的研究领域(如计算机安全)确定最佳做法,并在适用于人工智能的情况下引进。最佳实践的例子包括红蓝队演习。
- 扩展:积极寻求扩大参与讨论这些挑战的利益相关者和领域专家的范围。包括与民间团体、国家安全专家、尚未参与的人工智能和网络安全研究人员、将人工智能纳入其产品的企业,以及伦理学家、普通公众等。
由于人工智能的双重用途性质,在某些情况下,人工智能的合法和非法用途之间的区别可能只是程度上的区别。例如,监控工具可以用来抓捕恐怖分子,也可能用来压迫普通公民;信息内容过滤器可以用来剔除假新闻,也可能用来操纵公众舆论。政府和强大的机构有机会获得许多这样的人工智能工具,并可能将其用于公共利益,或者伤害公众利益。
这就是为什么就人工智能技术的适当使用进行公开对话是至关重要的。上述四项建议可以帮助促进人工智能研究人员、政策制定者和其他相关利益相关者之间的跨学科对话,以确保人工智能技术被用来造福社会而不是相反。
研究性建议(进一步研究的范围):
- 向网络安全界学习并与之合作。例如:如何进行红蓝队演习?如何负责任地公开AI系统的漏洞?如何预测一些AI系统可能被用于何种攻击?有哪些安全攻击可以使用?可以在哪些硬件中植入AI安全?
- 探讨不同的开放模式。例如:事前评估,中央认证系统,共享的标准,AI相关机构的合作等。
- 促进责任文化。例如:责任教育,道德规范教育,吹哨机制,叙事文化(用讲故事的方法设想一些使用场景的细节以发现潜在问题)等。
- 制定技术和政策解决方案。例如:隐私保护,公众利益的协作,监控AI资源,以及其他政策和规范的制定。
对于上述问题,应建立一个奖励机制以鼓励机构和研究人员利用自己的专业知识展开这些方面的研究。
需特别关注的三个要点,影响到AI与安全的平衡:
- 攻击者对AI新能力的接触能力。目前AI学界比较强调开放性,但实际上对一些最新AI技术的传播进行适当的限制对于减少攻击的可能性和严重程度是至关重要的。至于哪些AI技术应予以传播方面的现在,则回到上文所讲的研究内容。
- 包含AI的防御措施。魔高一尺道高一丈,使用AI对可能的AI攻击进行防御,也是影响平衡的重要因素。小至垃圾邮件过滤、流氓软件侦测,大至犯罪调查、反恐斗争,都可以用AI来增强防御能力。
- 防御的分发和普遍化。应鼓励研究机构和大型机构发展的防御系统,分发给中小企业甚至普通民众使用,以建立起更为广泛的屏障。
(全文完结)
喜欢我的作品吗?别忘了给予支持与赞赏,让我知道在创作的路上有你陪伴,一起延续这份热忱!
- 来自作者
- 相关推荐