据Singularityhub报道,谷歌已经开发出能够自创加密算法的机器学习系统,这是人工智能(AI)在网络安全领域取得的最新成功。但是当我们的数字安全日益依赖智能机器时,将会产生什么样的影响?
谷歌位于加州的AI子公司Google Brain通过神经网络之间的互相攻击,实现了最新壮举。他们设计出两套分别被称为鲍勃(Bob)和爱丽丝(Alice)的神经网络系统,它们的任务就是确保通讯信息不被第三套神经系统伊芙(Eve)破解。没人告诉它们如何加密信息,但鲍勃和爱丽丝被给与共享的安全密匙,而伊芙没有。
在大多数测试中,鲍勃与爱丽丝能够迅速找到安全的通讯方式,使得伊芙无法破译密码。有意思的是,这些机器都使用了不同寻常的方法,这些方法通常在人类开发的加密系统中十分罕见。从可能性方面看,这些方法远比人类设计的最好的方法还要复杂得多。但是由于神经网络以不透明的方式解决问题,因此很难找出它们是如何操作的。
对于人类来说,破译计算机生成的加密非常容易。但是这也很难保证系统的安全性,并可能限制其实际应用范畴。此外,伊芙的表现似乎也可证明人的类怀疑,即神经系统在破译加密信息方面不太擅长。
但是研究人员表示,在理解通信元数据方面和计算机网络流量分析方面,神经网络是相当有效的技术。这就是许多人认为机器学习可被应用于网络安全领域的原因,因为现代AI在发现模式方面非常擅长,它们可以处理远比人类多得多的数据。
随着网络安全专家缺口不断增大,这将是个巨大市常在今年夏季举行的黑帽黑客大会上,安全公司SparkCognition公布了其杀毒软件DeepArmor,它可以利用AI技术不断了解新的恶意软件行为,并识别出发生变异以尝试绕过安全系统的病毒。
当前的机器学习依然倾向于发现误报,并且无法应对许多由人类黑客发起的更微妙攻击。为此,许多方法专注于AI与人类并肩工作。荷兰安全厂商F-Secure与麻省理工学院下属计算机科学与人工智能实验室都开发出机器学习网络分流系统,它们可以过滤掉通过网络的大部分可疑信息,大幅削减需要人类专家处理的潜在威胁数量。
IBM希望更进一步,探索其超级计算机沃特森的自然语言处理能力。沃特森可以从人类网络安全专家发布的大量威胁报告、研究论文以及博客文章中学习。他们希望这能帮助他们于今年晚些时候提供云服务,可以有效地充当人类的专家级助理。