沃德
沃德

人工智能 | 高新科技 | 全球市场

《人工智能的恶意使用:预测、预防和缓解》导读(三)

三、AI提供了什么样的新能力?

人工智能的安全性问题之所以需要特别关注,不仅因为AI的双重用途性质,更因为AI本身提供了很多强大的新的能力。

这些新的能力固然是AI的优点,也是我们发展AI的目的,但与此同时,这些扩展的新能力又让AI相关的安全性问题可能会更加严重。

让我们来看看有AI提供了怎样的新能力。

  1. 人工智能系统通常非常高效又可扩展。人工智能系统一旦完成训练,往往能比人类更快且成本更低地完成某种任务;并且,通过增加其算力或通过复制副本,可以很容易地完成更多的此类任务。比如,一个典型的面部识别系统一旦被开发和训练,它就可以应用于许多不同的摄影画面,而其成本远远低于雇佣人类分析师来做同样的工作。
  2. 人工智能系统可以超越人类的能力极限。人工智能系统可能比任何人类都能更好地完成一项特定的任务。最有名的人工智能系统AlphaGo已经在国际象棋和围棋等游戏方面大大优于世界上最优秀的选手。对于许多其他任务,无论是良性的还是潜在有害的,似乎没有根本性的理由说明目前观察到的人类水平的能力是可以实现的最高水平。
  3. 人工智能系统可以增加匿名性和心理距离。人们的许多任务涉及到与其他人沟通、观察或被观察、做出响应他人行为的决定,或者必须当面完成的必要性。这些必要性会造成作为有血有肉有感情的人类完成任务的一些障碍,但人工智能通过让这些任务自动化,可以让原本执行这些任务的人保持匿名,并与他们所影响的人有更大程度的心理距离,从而减少障碍。例如,使用自主武器系统进行暗杀的人,而不是使用手枪,既避免了出现在现场,也避免看到受害者。
  4. 人工智能的发展使其能够迅速扩散。虽然攻击者可能会发现获得或复制与人工智能系统相关的硬件,如强大的计算机或无人机,成本很高,但一般来说,获得软件或相关的科学发现则要容易得多。事实上,许多新的人工智能算法可以在几天或几周内复制出来。此外,人工智能研究文化的一个特点是高度开放,例如,许多论文都附有源代码。因此,即使证明了限制某些内容的扩散是必要的,实际上也可能很难实现。

这些新的能力,完全可能成为恶意攻击的放大器,使得AI安全的严重性大大超过传统信息安全问题

不仅如此,今天的人工智能系统还存在着许多尚未解决的新形式的漏洞。比如,数据中毒(引入导致学习系统犯错的训练数据)、对抗性样本(设计成被机器学习系统错误分类的输入),以及利用自主系统目标设计中的缺陷。这些漏洞与传统的软件漏洞(如缓冲区溢出)完全不同。

不过有趣的是,这些新型的漏洞,表明AI虽然可以在许多方面超过人类,但也可能以人类身上永远不会发生的方式失败(就像许多科幻电影里人类总是能以某种奇特的方式打败貌似不可战胜的邪恶机器人一样——编者注)

CC BY-NC-ND 2.0 版权声明

喜欢我的文章吗?
别忘了给点支持与赞赏,让我知道创作的路上有你陪伴。

加载中…
加载中…

发布评论