物联网安全是AI技术突出的领域之一

物联网安全是AI技术突出的领域之一,第1张

报护您的数字资产是任何企业和个人的明确需要,无论您是想保护您的个人照片,公司的知识产权,客户的敏感数据,还是任何其他可能会影响您的声誉或业务的任何东西。

即使保护网络安全的耗费已经动辄数十亿美元,但网络攻击的报道数量只增不减。AI的预测能力可以运用于许多领域,可以应用于安全供应商、所有用户和企业。YakirGolan为读者们总结了网络防御创新的六个关键领域。

一、检测并阻止物联网IoT)设备被黑客攻击

思科公司预测,全球联网设备的数量将从目前的150亿部上升到2020年的500亿部。由于硬件和软件资源有限,很多设备没有基本的安全措施。近,黑客入侵知名安全博客KerbsOnSecurity的物联网(IoT)设备,使得Kerbs On Security遭受了大规模分布式拒绝服务攻击。更可怕的是,用于对物联网发起网络攻击的Mirai恶意软件的源代码公之于众之后,使用Mirai的源代码可以对任何企业或个人进行网络攻击。

物联网安全是AI技术突出的领域之一。物联网为AI提供预测模型,可以在低计算能力的设备上自主驻留和 *** 作,可以发现和阻止设备或网络范围的可疑行为。

\

代表初创公司:CyberX,PFP Cybersecurity,Dojo-Labs。

二、防止恶意软件和文件攻击

基于文件的攻击仍然是主要的网络攻击方式之一。常见网络攻击的文件类型是可执行文件(.exe),AcrobatReader(.pdf)和微软Office文件。单行代码中的微小变化可以生成新的恶意文件。新的文件具有相同的恶意意图,但具有不同签名的。单行代码的小改变触发防病毒程序,并启动更先进的端点检测和EDR甚至网络系统来解决恶意的网络攻击。

有一些初创公司利用AI来解决这个问题。公司利用AI的巨大功能,查看每个可疑文件中数百万的特征,甚至可以检测出轻微的代码改变。

代表初创公司:Cylance,DeepInsTInct和Invincea是基于文件的AI安全体系的。

三、提高安全运营中心的运营效率

安全团队面临着一个关键的问题,每天收到过多的安全警报会带来警报疲劳。据统计,北美企业平均每天处理近1万个安全警报。在许多情况下,尽管被标记为可疑的恶意软件也可能成为漏网之鱼。

人工智能可以将多个信息源之间的内部日志和具有外部威胁情报服务的监视系统的信息进行集成,对其中高度相关的事件进行自动分类。这个网络防御是近的热点,因为它解决了拥有自己的安全 *** 作中心(SOC)的大型企业的网络安全问题。

代表初创公司:Phantom,Jask,Status Today和Cyber LyTIc等初创公司采用的就是这种AI技术以解决这种威胁。

四、量化风险

对企业面临的网络风险进行量化,是具有挑战性的。主要是由于缺乏历史数据,而且需要考虑大量的变量。如今,有意量化自身面临风险的企业以及希望评估这些企业的第三方,例如网络保险公司,必须经历繁琐的网络风险评估过程。风险评估主要通过调查问卷,调查企业采取的措施是否符合网络安全标准,以及企业的治理和风险意识。但其实这种方法不足以真正代表企业的网络风险状态。

AI技术可以处理数百万个数据点并产生预测的能力,这为企业和网络保险公司获得准确的网络风险估计。

代表初创公司:Bit Sight和Security Scorecard等初创公司正在进行这项研究。

五、检测网络流量异常

对可能指示恶意活动的异常流量进行检测,这无疑是巨大的挑战,因为每个企业都具有特殊的流量行为。通过跨协议相关性,而不依赖于侵入式深度包检测,需要分析内部和外部网络流量中无尽的元数据之间的相关性。

代表初创公司:Vectra Networks,Dark Trace和Blu Vector。

六、检测恶意移动应

目前智能手机在全球范围内已经超过25亿台设备,爱立信公司预测,到2020年将达到60亿部。通过查看流行的100个iOSAndroid应用程序,Arxan的研究显示,56%的iOS应用程序和100%的Android应用程序都曾经遭受网络攻击。

事实上,GooglePlay和苹果App Store这两家的应用商店,其应用程序均已经跨越了200万大关。这些移动应用程序需要被地自动分类。这种分类方法必须对轻微的混淆技术敏感,能够区分恶意和良性的应用程序,而通过使用先进的AI技术可以有效地进行分类。

代表初创公司:Deep InsTInct、Lookout Mobile Security和Checkpoint。
        责任编辑:tzh

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/2549401.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-05
下一篇 2022-08-05

发表评论

登录后才能评论

评论列表(0条)

保存