在人们越来越看重个人隐私和信息安全的当下,人工智能技术是把双刃剑。如何让人工智能在保障用户隐私安全的轨道上有序发展,正成为国内外共同关注的焦点和难点。
5月16日,美国旧金山市政府通过《停止秘密监察条例》法案,禁止旧金山的政府机构使用人脸识别技术,并将“靠人脸识别技术获得某些信息”列为违法行为。这无疑是一种隐私保护的措施,但也引起诸多争议。
国内某著名计算机视觉创业公司一位要求匿名的副总裁在接受《中国科学报》采访时反问:“旧金山已经不再是一座能让人感到安全的城市,人脸识别作为提高安全系数的基础工具,反而禁止使用,不知道什么技术手段可以保证安全?”
有意思的是,最近亚马逊公司的股东以压倒性多数票,否决了该公司停止向政府机构出售其人脸识别技术的一项提议,只有2.4%的股东投票赞成这项禁令。
“这两件事情放在一起看非常有意思。”上述副总裁说,这说明围绕个人隐私、群体安全问题,对于人脸识别技术的使用需要一个平衡。“这个平衡,就是一个好的规则规范——不仅要去规范人脸识别技术企业,还要去规范使用这些技术的机构。”
实际上,人脸识别技术所创造的价值是被认可的。该副总裁认为,假使只是因为不确定使用人脸识别技术能够带来什么后果就直接禁用,那么这只能是一种短视或者短期行为。
“在满足某些条件的情况下,这种技术当然是可以应用的。”他说道,“作为发明和使用新技术的人,都要去认真思考这些问题,并且一起努力促使新规范的形成,而不是直接禁止掉。”
随着大数据的使用、算力的提高和算法的突破,人工智能正变得无处不在。由此带来的问题是,人们一方面享受人工智能带来的“红利”,另一方面则面临隐私被当做“资源”过度和非法使用的困境。如何应对人们隐私“裸奔”的挑战变得越发严峻。
以“人工智能+医疗”为例,人工智能技术在医疗健康领域的应用潜力巨大,但也面临着数据的问题——用以训练人工智能模型的大量医学数据,可能是图像、基因组、电子健康记录等这些非常敏感的信息。
基于医院的数据进行训练的人工智能算法有望获得诊断、预防疾病和甚至治疗疾病的能力。但在许多国家,由于法律原因,医疗记录无法轻易共享并提供给算法。这使得利用人工智能在医学图像或数据中发现疾病的研究通常只能涉及相对较小的数据集,极大地制约了技术应用前景。
美国加州大学伯克利分校一家创业公司“绿洲实验室”(Oasis Labs),致力于探索利用云计算和区块链等技术确保用于研究的医疗数据等信息不被泄露或滥用。目前,斯坦福大学医学院已经批准绿洲实验室与相关的研究人员一道在该院开展实验,测试他们的技术对解决上述两难问题是否有效果。
绿洲实验室首先将患者的个人数据存储在一款合作设计的安全芯片上,并保存在云端。外部人员——希望以数据集训练算法的工程师们,可以在该系统(安全芯片+云端)下,利用数据运行算法并输出结果。该系统也会在接收到数据访问请求时,触发基于区块链的软件上的智能合约系统,智能合约不仅会记录数据的使用方式,还能检查机器学习计算是否被正确执行。
绿洲实验室联合创始人兼加州大学伯克利分校教授Dawn Song介绍说,该技术还可以推及人工智能在其他领域的应用,例如财务记录、个人购买习惯或网页浏览数据。不过他表示,在探索其他领域之前,他们的计划是先推动此技术在医疗领域的应用。
尽管绿洲实验室的技术探索展现出了潜力,但美国弗吉尼亚大学专门研究机器学习与安全问题的专家埃文斯仍持保守态度。他指出,在安全硬件中存储数据也有失败的风险。一旦硬件制造方遭遇攻击,它所处理的数据就会面临风险。并且,现在也没有证据证明,区块链一定就是可靠的技术。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)