现在,电脑也能保守自己的秘密;谷歌的深度学习项目谷歌大脑(Google Brain)最近展示了机器也可以学习如何保护自己的讯息,令资讯不被盗取及窥视。
负责本次实验的科学家马丁·阿巴迪(Martin Abadi)和大卫·安德森(David Andersen)展示了人工神经网路(neural networks)无需使用人类的加密演算法,也能利用机器学习(machine learning)技术,透过经验创造出自己的加密方式。
AI 加密系统目前,AI 製造的加密系统与人类设计的系统相比仍然非常简单。但即使如此,对人工神经网路及人工智慧发展来说,这绝对是意义重大的一步。论文作者说:「人工神经网路原本就不是用来加密的」,指出 AI 已能独自学习新技术解决问题。
谷歌大脑的实验採用了三个神经网路,分别名为爱丽丝(Alice)、鲍伯(Bob)和伊娃(Eve)。三个神经网路各拥有自己的任务:爱丽丝必须向鲍伯发送一则秘密讯息;鲍伯必须解密爱丽丝发来的讯息,而伊娃则尝试窃取该讯息。
为了保证讯息不被伊娃盗取,爱丽丝必须将讯息转变为乱码一样的加密文本,令讯息即使落入伊娃的手中,也无法被它解读。因此,爱丽丝和鲍伯预先设定好一组数字作为密钥,用于讯密和解密信息,然后爱丽丝便开始设计加密程式。
我们也推荐 Google 研发人工智能死穴,防止 AI 叛变 我们也推荐 Google 以人工智慧大减电费开支 熟能生巧一开始神经网路的表现未如理想,但是随着每一次实验,爱丽丝慢慢开发出自己的加密程式,而鲍伯亦锻鍊出解密的能力。经过 15000 次实验,鲍伯终于能够将爱丽丝的加密信息转化为正常文本,而且加密讯息更无法被伊娃解读。
虽然这技术的实际应用目前仍然非常有限,但加密软件研发公司 PKWARE 的乔·斯特隆纳斯(Joe Sturonas)表示:「仅仅在过去几年,这种程度的神经网路才开始出现,所以一切尚在初步发展阶段。」要做到像人类设计的加密系统一样複杂,人工智慧仍有很远的路,但本次的实验无疑是它们踏出的第一步。