人工智能一直是头条新闻的常客,最近谷歌又做了一项有趣的测试,它们让AI系统互相交流,并尝试建立自己的加密系统。
这项测试的主要目的是找出神经网络是否能自行开发出简单的加密技术,确保消息不被第三方窃取。在这一过程中,人工智能系统不需要输入任何特定的加密算法。研究人员指出,理论上来讲,深度神经网络并不擅长于加密。
Google Brain小组在测试中用到了3个不同的深度学习神经网络,分别为Bob、Alice和Eve。Alice和Bob之间负责收发消息,而Eve试图窃取并解码消息。在实验中,Alice和Bob被输入了预先确定的一组数字,作为消息加密和解密的密钥,Eve最终并没有获得这组密钥。
参与过这项测试的研究人员都盛赞其趣味性,因为它用到的解密方法并非人类惯常使用的。具体来说,在这一场景完成1500次迭代之后,Alice和Bob便有能力自行开发简单的加密技术了。Alice成功将原始明文转化为密文,而Bob则掌握了解密能力。对于16位二进制数字的解密,Eve平均只能解出8位。因此,Eve的解密在很大程度上属于碰运气。此外,只要Alice和Bob更新自己的加密技术,Eve就会再次陷入迷茫。
眼下,这只是一次测试,至于在现实生活中能有什么应用研究人员还没想好,但这些聪明的家伙能学会加密已经足够惊人了。
不过,学会了加密的AI又会引起一个老生常谈的话题,即它是否会威胁人类的安全。毕竟学会了保密的它会不会守着什么不可告人的秘密呢?
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)