我们的机器设备中潜藏着诸多安全隐患,这是因为所有程序都是由人类所设计,而人类在创造过程中难免会犯下错误。在开发那些驱动计算系统的软件时,程序员有时会将代码放置于不恰当的位置,从而使得大量数据能够轻易地侵入系统内部,进而导致系统极易遭受黑客的入侵。
然而,即便是由人工智能来掌控系统,同样也会伴随着巨大的风险。因为人工智能同样会犯下错误。
近期,谷歌与OpenAI的研究人员共同发布了一项研究,指出由特斯拉创始人伊隆·马斯克所开发的新型人工智能程序,带来了不容忽视的风险。这些新兴的人工智能技术正在迅速地影响并改变着我们的计算机系统。
同样,现实生活中的实体设备,例如监控摄像头、各类传感器等,也面临着严重的隐患。“这个问题确实需要我们以谨慎的态度去面对!”OpenAI的研究员,同时也是前谷歌员工的伊恩·古德费洛在相关文章中这样强调。参与该研究项目的还有谷歌研究员阿列克谢·库拉以及萨米。
深层神经网络作为一种人工智能的表现形式,通过对海量数据的分析,能够掌握并提取出其中的关键信息。随着这项技术的不断进步,我们正逐步迈入一个全新的智能时代。在计算机系统的编程方面,人们投入的精力相对较少,反而将更多的资源用于对人工智能进行培训。
互联网巨头Facebook、谷歌以及微软在这一领域早已展开了积极的行动。例如,通过让系统对上百万张照片进行学习,人工智能系统能够识别出社交网络上的大量图像。
谷歌正通过收集和整理大量的口语数据,对神经网络系统进行训练,使其能够识别出安卓手机中的各种语音。在未来,这项技术将成为构建智能机器人和自动驾驶汽车的关键要素。
尽管目前神经网络在识别面部和语音方面已经表现得相当出色,但在识别物体、动物、字母和单词方面更是游刃有余。然而,该系统仍然存在出错的可能性,有时甚至会出现严重的错误。“没有哪一种机器学习系统是完美的,”库拉指出。在某些情况下,你可以通过故意设置一些不存在的事物来欺骗这些系统,让它们进行判断和识别。
库拉进一步解释道,你可以对一张图片进行微小的改动,从而让神经网络系统产生混淆,使其错误地识别出一些根本不存在的事物。这些细微的变化对于人眼来说几乎难以察觉,但任何像素的变动都可能使系统产生错误的判断。研究人员将这种现象称为“对抗样本”,而这也被视为一种安全漏洞。
根据库拉、本级欧以及古德费洛所发表的新论文,当神经网络被用于识别相机和传感器中的数据时,同样会遇到一些问题。让我们设想一个场景:如果神经网络控制的脸部识别系统能够访问最高机密的体系,将会发生怎样的后果?你可以通过改变脸部的一小部分特征来欺骗系统,使其将你误认为成另一个人。
古德费洛表示,这种类型的攻击方式适用于几乎所有形式的机器学习,不仅包括神经网络,还包括决策树和支持向量机,这些都是流行了十多年的学习方法,可以根据对数据的分析来帮助计算机系统进行各种预测。事实上,这样的系统攻击已经在现实生活中发生了。他推测,许多金融公司在面对竞争对手使用他们的系统时,可能会采用这种方法来欺骗系统,从而影响其判断。
他继续说道,“许多金融公司会故意设计几宗交易来欺骗他们的竞争者,然后引诱他们将某支股票以低于市场价的价格抛售出来,这样一来,金融公司就能够以一个较低的价格买下股票了。”
在他们的论文中提到,库拉和古德费洛设计了一个小陷阱,他们在纸上打印了一张对抗性的图像,并将其展示给摄像头看,通过这种方式来欺骗神经网络。
他们相信,这些微小的改变能够为系统留下被攻击的隐患,就像之前在脸部识别时稍微改动脸上的一点地方,就能够轻易地欺骗系统。“我们不确定在现实生活中是否能够实现这一点,但研究表明是完全可能的。”古德费洛说。“我们发现可以轻易地欺骗相机,并且表现出的攻击方式还不尽相同,其中就包括,只要稍微改动一下脸部某个小地方,就能够轻易地骗过系统。”
这并不是一件容易理解的事情。但你并不需要完全掌握其中所涉及到的专业知识,例如神经网络是如何设计的,需要对哪些数据进行训练才能成功地完成一次“欺骗”。
根据以往的调查显示,如果你能够创建出一个能够欺骗神经网络的“对抗性样本”,那么它同样也能够欺骗其他的系统。“但是你可以通过设置其他的系统来破解这个对抗性样本。这可以带给你另外的一种体验。”
库拉提到说,这些安全漏洞其实都是很小的。在理论上,虽然这是一个问题,但在现实世界中,很难发现其中的漏洞,除非攻击者发现有人在脸上做了手脚,要不然是不会发生问题的。
然而,对这些小漏洞也不能掉以轻心,毕竟它们是真实存在的。随着神经网络在现代社会中扮演的角色越来越重要,我们必须要及时堵住这些漏洞。但是应该怎样来做呢?最好的方式就是来构建一个更加完善的神经网络。
这不是一件容易的事,但是依然需要努力。深层神经网络就是模仿大脑的神经元网络。当它开始工作的时候,其实是一个大规模数学计算的过程,具体来说,是微积分计算的过程。
而这就是为什么数学程序被称为神经网络的原因。这些数学程序都是由这些研究人员设计的,例如库拉和古德费洛。其实可以说,是这些研究人员在控制这些系统,而他们也正在寻找方法来消除这些安全漏洞。
库拉说道,目前有个方法就是需要对神经网络系统进行培训,让它们正在明白假象和事实之间的区别在哪里。但是这是一条难行的路,人们正在积极寻找其他的新路。
1号机器人网(www.1hjqr.com)机器人行业最权威媒体