人工智能面临哪一些风险

人工智能面临哪一些风险,第1张

10月31日,全国信息安全标准化技术委员会(简称全国信安标委)网站发布《人工智能安全标准化白皮书(2019版)》(简称“白皮书”)。

如今的人工智能基于深度计算技术、依赖于大数据的“喂养”,白皮书指出,在数据采集环节,人工智能存在过度采集数据、个人敏感信息采集合规等问题,需开展隐私保护要求及技术类标准研究工作。

人工智能面临合规、滥用、数据泄露等安全风险

近年来,人工智能在算法、算力、和大数据因素的影响下,迎来第三次发展浪潮。它在改变人类生产生活方式的同时,也给社会带来不可忽视的风险挑战。

如今的人工智能依赖于大数据的“喂养”。白皮书指出,人工智能在数据采集环节,存在过度采集数据、数据采集与用户授权不一致、个人敏感采集信息合规问题等;还易遭受数据投毒、模仿攻击等。

在数据使用环节,数据标注带来安全隐患和合规问题。如外包公司的标准人员可直接接触原始数据,如果管理不规范,可能存在内部人员盗取数据、数据泄露等风险。

在应用方面,利用人工智能技术模仿人类,如换脸、手写伪造、人声伪造等,除引发伦理道德风险外,还可能加速技术在黑灰色地带的应用,模糊技术应用的合理边界,加剧人工智能滥用风险。

其他方面,人工智能系统还存在数据存储安全隐患、共享安全隐患、数据传输安全隐患等。

我国尚未有正式立项的人工智能自身安全的标准

面对人工智能带来的各种安全风险,各国制定了相关的法律法规和政策。比如美国总统签署行政令,启动“美国人工智能倡议”;英国建立数据伦理与创新中心为政府提供咨询;日本成立人工智能委员会,开展人工智能伦理道德研究 。

我国亦发布了一系列相关政策,如《新一代人工智能发展规划》 、《国家新一代人工智能创新发展试验区建设工作指引》等,在特定领域如无人机自动驾驶等领域出台相应规范性文件。此外,特定行业和领域颁布或立项相应标准,如生物识别领域的《信息安全技术 虹膜识别系统技术要求》等。

不过,我国尚未有正式立项的人工智能自身安全或基础共性的安全标准。

人工智能在个人信息保护等方面存在标准化需求

结合安全分析结果和当前标准化现状等因素,白皮书指出,人工智能在算法模型、数据安全和个人信息保护、基础设施安全、产品和应用安全等方面存在标准化需求。

针对突出的数据安全与隐私保护风险 ,白皮书建议平衡隐私保护和人工智能分析效果,防范逆向工程、隐私滥用等安全风险,开展人工智能隐私保护要求及技术类标准研究工作。

按照“充分研究,急用先行,安全事件推动”的思路,白皮书建议 优先立项《人工智能安全参考框架》、《人工智能数据集安全》、《人工智能数据标注安全》、《机器学习算法模型可信赖》、《人工智能应用安全指南》、《人工智能安全服务能力要求》等标准。

责任编辑:ct

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/dianzi/2667110.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-14
下一篇 2022-08-14

发表评论

登录后才能评论

评论列表(0条)

保存