传统的信贷风险控制模型里,贷前、贷中、贷后,三个过程中,贷前是审查中最具价值的,而对贷中、贷后环节的重视程度相对较低。而大数据除了可以帮助互联网金融企业做好传统的贷前审核,还可以通过大数据技术,对数据维度和数据特征进行充分的处理,在贷中、贷后环节更具深度更具广度地做好风险控制。
例如,金融机构使用大数据来监控某一地区的企业经营状况。如果在一段时间内出现异常,该机构将派人调查原因,这个方法是常见的传统风控方法。但是大数据的便利,除了减少劳动力成本,更重要的是,通过大数据多维度的交叉核验,行为数据异常分析,可以发掘更多的判断依据,然后监测预警。
智眼现金贷系统搭载的AI大数据智能风控通过机器学习及人工智能处理技术,采用最前沿的建模算法等,将识别异常交易的速度缩短到‘亚秒’级,可以在欺诈交易发生同时就能够做出判断,直接拦截异常交易。
大数据可以给出结论,但给不了解释,只有把数据通过可视化效果呈现出来,并对其进行分局嫌析,才能找出真正的答案。我们面对复杂的数据问题时,首先把数据关联起来,再利用人工智能、机器学习等各种算法,从数据的视角洞察消桐蠢手费生活的方方面面,打造精准合理的数据分析结果。
机器学习是人工智能的核心能力之一,作为一个人工智能系统,惊蛰智能风控引擎拥有极强的机器学习能力,可以随着用户行为对应人数的增加,不断调整策略,持续迭代模型,定期进行优化调整。因此,做好大数据风险控制是一件非常细致的事情。它的秘密不在于数据本身,而在于对数据的理解分析,这个就非常需要专业人士处理,不是一个软件开发程序员,一个金融专业的人能解决的,需要综合性人才,对金融,互联网,企业管理和法律会计知等比较了解,一定要有实 *** 风控经验,至少7年以上。
1,为什么需要大数据做风控:因为小贷公司无法上传人行征信,也无法查询人行征信,只能通过其他数据辅助判断。
2,定义“欺诈”的概念,然后做反欺诈。欺诈每个公司定义不一样,当然后续的反欺诈措施就不一样的。我个人认为的欺诈有以下几个方面:1,身份欺诈,就不是本人申请的,冒用别人身份申请的。2,不管他有没有还款能力,但是没有还款意愿的群体,说白了就是那些撸贷专业户,他们有些人可能很有钱但就是不还。因为不上人行征信,所以有些人敢不还。
剩余的群体就包含了有还款意愿也有还款能力的正常群体和有还款意愿但没还款能力的群体。
3,风控要做什么:
我认为风控主要做反欺诈即档禅可,也就是把控好上述欺诈定义里的两点,第一点是比较容易的一点,这里就不多说了,技术比较成熟了。但是第二点就很难去把控。
所以互联网小贷公司会找一些大数据公司通过各种技术和渠道获取到很多很多信息,例如你的公积金,社保,电商,网上行为轨迹,火车航班记录,学信网,其他贷款记录(多头记录),通话记录,通话详单,通讯录,甚至短信(现在已经获取不到了)等等,几乎你能想到的个人隐私他们都能想办法得到。但是,这么花里胡哨,有用么?
很多申请人会伪装,就像有些人面试的时候很牛逼,真正一到公司里却连试用期都过不了就被淘汰了,这就是因为他在面试的时候伪装了,或许夸大了自己能力,也可能虚构了自己的经验等等。贷款申请人也一样,专业的撸贷人经过多次申请测试,基本能探清楚你设置的一些拦截规则,也知道你们小贷公司想给哪些人群放贷,他们就针对性的去伪装。这就是为什么有些公司明明使用了很多大数据,并且将一些有用的字段入了模,KS还挺高,但最后不良率还是那么高的一个原因。
而且,现在谁还没有支付宝和微信账号?真正有借款需求,有还款意愿的好人,基本都很在乎借款利率的高低,他们第一选择都是借呗和微粒贷(银行或xyk的现金贷这里就不说了),而被借呗和微粒贷淘汰的人群才会流入普通小贷。
南方航空的大数据管理,一些平台公司的大数据管理都是有缺陷的,做大数据的人,也没有专业的法律和金融常识,就进入这个领域负责风险管理,水平有限,当然和这个公司收入来源有直接的关系,企业主要盈利是接受外包数据。
一家企业的风险管理是否健全,主要看这个公司对财务和法律的重视以及管理这个法务部财务部或者合规部风险管理部门的负责人的水平和公司的执行董事的能力。
1
AI,真的觉醒了?
人工智能,会苏醒吗?
这是一个古老而又新奇的话题。
“ 深度学习 ”天生的 不可预测 ,加深了这种忧虑。
“ 神经网络 ”的 生物性类比 ,让“AI黑匣子”更让人担心。
最近,一个谷歌工程师再次引爆该话题:AI觉醒了?
2022年6月 ,谷歌工程师 Lemoine 表示,自己在与AI“ LaMDA ”聊天中,发现了后者的回答已经 高度人格化 ,认为该AI已经“ 觉醒 ”。
为此,Lemoine写了一篇长达 21页的调查报告 ,试图让高层认可AI的人格。
不过帆逗,谷歌高层暂未表态,希望获得更清晰的认定。
但Lemoine仿佛化身科幻电影主角,他没有放弃,将自己和AI的 聊天记录 公布于众,引发轩然大波。《 华盛顿邮报 》跟进报道后,更是在全球炸圈。
AI真的觉醒了吗? 争议不断。
不管真相如何,有一点可以肯定:
因为 深度学习 和 神经网络 的加持,人工智能已经越来越“ 不可捉摸 ”。
2
那一夜,人类安然睡去
关于AI觉醒,让人想起了6年前的另一件事。
2016年3月13日 ,人类和AI在围棋上进行一场 智力的终极较量 。
在此之前,AI与人类较量屡屡得手。
但人类认为, 围棋是AI不可突破的天花板 。
因为可测宇宙原子总数约为 10^80 ,而围棋走法有 2.08*10^170 ,AlphaGo不可能依靠 计算量 和 算力枚举 来获胜,那么,拥有创造力的人类,怎么可能败给AI。如果围棋上败给了AI,那么说明它已经完成了“ 图灵测试 ”。
然而,前三局,李世石 一败再败 ,全世界震惊了。
第四局,李世石判断黑空中有棋,下出白 78挖 。李世石这史诗级的“ 神之一手 ”,体现了人类巅峰的 直觉、算力和创造力 。这也是人类 最后的尊严之战。
当年一个作者写下上段内容(有修改),并提到“ 23年后,无人幸免 ”,科学家建立了一个数学模型,判断 2040年 人工智能可能会达到普通人的智能水平,并引发 智力爆炸 。
面对越来越普遍的AI, 机器即将代替人类,AI正在迅速扩张 。
五年过去了,人类朝着“黑客帝国”大步迈进。
那么 18年 后,真的 无人幸免 ?
3
AI的另一面:不够稳定
以上两件事,本质上都是对 AI觉醒 的担忧。
一个拥有 自由意志 的AI不可信,最终会威胁到人类。
霍金 警告人类要正视人工智能带来的威胁。
比尔·盖茨 认为人工智能是“召唤恶魔”。
《 2001太空漫游 》中,超级电脑 HAL9000 在宇宙中将人类无情抹杀。
《 黑客帝国 》中,人类被AI禁锢在 矩阵镇卖 之中。
不过,实事求是地讲,对AI觉醒的不可信,仍然只是人类臆测态旅卖。
虽然科幻电影里描写得残酷冰冷,也还没有得到普遍证实。
但AI的另一个“不可信”,却是真实存在的。
它不是太聪明太智慧或者产生意识,而是不够稳定 。
这种不稳定,产生的后果才真的“瘆人”。
关于人工智能“ 失灵 ”的例子还有很多很多,这是AI 不够沉稳 的一面。
这才是实实在在“ 不可信 ”的地方,也是AI对人类真正的威胁。
我们不愿意看到 AI 的 “觉醒”, 但更不能接受 人工智能 的 “轻率” 。
4
人类需要的是一个可信的AI
所以,人类需要一个“ 可信AI ”。
AI是聪明还是愚蠢,也许并不重要。
AI是进化还是退化,可能暂时只是一个伪命题。
人类需要的是一个可靠的助手,一个值得信任的机器助理 。
我是你的创造者,你得听我的吧,不能瞎捣乱。
阿西莫夫在七十年前就提出了“ 机器人学三大定律 ”:
这是人类在 AI伦理 思考中的方向。
可以把它称为是 人工智能 社会 的道德准则 。
对于人类来说,可信,才是我们对AI最重要的需求。
如果从“ 贝叶斯-拉普拉斯 ”定理开始溯源人工智慧,目标是解决“ 逆向概率 ”问题,其实本质就是解决AI的 可信赖度 。
如果不能做到可信,AI就有可能反噬人类。
最起码AI与我们相伴要保证人类两点: 生命安全 与 财产安全 。
以 自动驾驶 为例,如果人工智能以准确率为 99.99% 概率推算, 0.01% 的失误率依旧会让人心惊胆战。如果未来城市有 一百万辆 自动驾驶 汽车 ,即便是 0.01% 的失误率,对人类生命安全造成威胁的隐患车辆仍有 一百辆 。
如果我们不能拥有可信AI,我们自然无法确定,人工智能给我们带来的到底是技术的进步,还是无数潜在的威胁。
但实际上 它才是人工智能领域最有价值的航灯,也是现在 科技 公司追求的方向 。
5
什么是可信AI,
这16个技术小哥在做什么?
所以,什么是可信AI?
可能很多人还不知道,先得把这个定义弄清楚。
我们可以先看一档节目《 燃烧吧,天才程序员2·可信AI 》。
这款综艺节目第一季在 豆瓣评分8.0 ,让人脑洞大开。
在第二季中,1 6个AI技术小伙 分为四个团队待在“小黑屋”中 四天三夜 ,完成 60个小时 任务挑战。
比赛中,他们需要与“ 黑产 ”进行无数次较量,培养出与帮助人类的“可信AI”,打败“黑产”,最终决出 最强团队 。
关于程序技术的综艺节目,在中国乃至世界都非常稀缺 。
一方面程序与代码本身过于硬核,普通人难以理解。
另一方面则是节目脚本设置冲突相比其他综艺要更难一些。
但《燃烧吧,天才程序员2·可信AI》通过“ 反诈骗 ”这一实际场景需要,以此构建起节目的比赛逻辑。
16个AI技术小伙需要直面欺诈交易识别、联合反诈等关卡的挑战 。
通过AI与攻防互相协作,覆盖反诈全链路。
比赛之中,程序员们通过创造“可信AI”,完成“ 科技 反诈”。
哪一个团队产出的 算法和模型 在数据的 识别准确率 和 覆盖率 更好,就能赢得比赛胜利。
虽然不如《 黑客帝国 》那般深刻宏大,也不如《 人工智能 》那样发人深省。
但《燃烧吧,天才程序员》却通过 真实的应用场景 ,解决现实生活存在的实际问题。
当你看完整个节目时就会明白,原来这就是可信AI:依照 现有数据 构建 智能模型 ,非常稳定地解决 现实难题 。
可信AI的 技术应用范围 非常广泛, 反诈 是其中一个重要应用场景。
可信AI没有那么遥远,它近在咫尺。它也没有那么神秘,很多时候它就是你身边的小助理。
当前基于 神经网络 的AI技术非常酷,同时占据AI话题至高点,以创造力和神秘性提供太多想象空间,也是许多AI技术员仰视的圣殿。但它面临的问题也非常多: 具有不可解释、鲁棒性差、过于依赖数据等缺陷,隐藏着许多潜在危害 。
而可信AI的存在,就是为了解决这些“ 信任危机 ”问题。
如果说基于 神经网络 的AI技术有着 强烈的理想主义 ,那么基于 大数据整理 的AI技术则是一个 脚踏实地的现实执行者。
6
可信AI的技术特点
要真正了解可信AI对人类的帮助,需要从技术底层入手。
可信AI有四大技术特点:鲁棒性、隐私保护、可解释性、公平性 。
01
鲁棒性
鲁棒性指 在异常和危险情况下系统生存的能力和算法稳定 。
1、前者指的是 系统抗打击的能力 ,如计算机软件在 输入错误 、磁盘故障、 网络过载 或恶意攻击情况下,能否 不死机 、 不崩溃 。打个比方,如果把一个 AI模型 比喻成 万里长城 ,那么其鲁棒性便是长城在面对恶劣天气(如台风)、自然灾害(如地震)时,人工轰炸时仍然可以做到 不轻易倒塌 。
2、后者指的是 AI模型中算法本身的稳定性 ,如果添加扰动的熊猫照片,轻易就绕开了AI模型的“眼睛”,则说明其鲁棒性比较差;比如在 欺诈交易 中,由于 作案手法 不断升级,可能导致基于既往数据训练的模型,面临着新风险数据带来的 稳定性考验 ,需要 不断迭代 来保障模型的 分析和识别能力 。
以 支付宝 为例。支付宝每天都有 上亿笔交易 ,其 对抗的不是散户,而是专业的黑产团伙 。他们可能有两种攻击方式:
为了保障资金安全,蚂蚁集团引入“ 博弈智能攻防 ”技术,该技术具有对 风险知识 和 模型 的 提前模拟、提前训练、提前补防 的能力。应用该技术的AI模型鲁棒性有大幅提升,实现“ 左右互搏 ”,既能够更智能地“攻”,也能更安全地“防”。
02
隐私保护
传统的数据保护方法客观上形成了「 数据孤岛 」,影响了如医疗、金融等领域的协同作战,也制约 AI 技术以及行业发展。
所以, 拓展数据价值的隐私计算技术,对实现「数据不动价值动」显得尤为重要 。
在AI领域, 联邦学习 作为一种新的机器学习模型和算法,就是为解决数据孤岛问题而提出的。在保证每个参与方不泄露原始数据,即 数据不出域 的前提下,用多方的数据联合建模,实现数据 可用不可见 ,进而实现「数据不动价值动」。
03
可解释性
人类对一切未知的东西,始终都会有一种莫名的恐惧。
如果人工智能的行为无法进行解释,只有结果没有过程,那么它就像是一个盲盒,你永远不知道放出来的是“阿拉丁”,还是“潘多拉”。
AI 模型是许多重要决策的重要依据,在很多应用里它的思考过程不能是黑盒 。
人类希望知道模型 背后的逻辑 、收获新的知识,并在它出现问题时踩好刹车,确保 AI 思考的过程和结果 合规合法 。
这背后需要 数据驱动 与 模型推理能力 结合起来,产生 可解释的结果 。
04
公平性
AI公平性是可信AI的重要组成部分。
只有实现“ 公平性 ”,才能真正推动技术 造福 于整个 社会 。
一方面,公平性需要重视 弱势人群 、兼顾 落后地区发展 ,在重视 社会 伦理原则下进行 AI 调优 ,通过 AI 技术,让老年人、残障人士、欠发达地区用户,享受到 数字经济时代 的价值。
另一方面,公平性要思考如何从技术上思考如何减少算法、数据等因素可能带来的 AI 决策偏见 。
鲁棒性、隐私保护、可解释性、公平性 。
这是可信AI的 四大基本原则 。
今天,发展可信AI,已经成为 全球共识 。
特别是对于领先的 科技 公司来讲,他们是要服务用户且不能犯错误的。
微软 、谷歌、 蚂蚁 、京东、 腾讯 、旷世等 科技 企业,都在积极开展可信AI的研究和 探索 。
其中,蚂蚁在可信AI上已有很多 技术优势 ,自 2015年 开始投入研究起,已经完成了 长达7年 的 可信AI技术积累之路 。
据 2021年 权威专利机构 IPR daily 发布的《 人工智能安全可信关键技术专利报告 》显示,蚂蚁集团旗下的 支付宝 在该领域的 专利申请数 和 授权数 ,均位列全 球第一 。
7
可信AI的应用 探索
基于可信AI的以上特点,应用场景多种多样。
AI在 医疗 、教育、 工业 、金融等多个领域的广泛应用,算法安全性、数据滥用、数据歧视等问题也层出不穷。当前AI技术的 主要矛盾, 已经转化为 人们对AI日益增长的应用范围需求和AI不可信不够稳的发展之间的矛盾 。
2018年,IBM开发了多个AI可信工具,以评估测试人工智能产品在研发过程中的公平性、鲁棒性、可解释性、可问责性、价值一致性。之后IBM将这些工具捐献给Linux Foundation并成为了开源项目,帮助开发人员和数据科学家构建可信、安全、可解释的人工智能系统。
作为可信AI领域的先行者之一,蚂蚁也做了不少 探索 。
蚂蚁的可信AI技术应用最好的实践结果是,自研了一套 智能风控解决方案 ,定名 IMAGE 。这套技术体系实现了用可信AI技术保障风控业务安全的问题,且达到了非常好的效果。
它能将支付宝 资损率 控制在 千万分之0.098, 解决了 风控场景 中的诸多 世界难题 。
还有一个例子,是支付宝的“ 叫醒热线 ”——从系统识别到用户遇到诈骗风险,到AI机器人向用户呼出“ 叫醒电话 ”,它能把整个过程控制在 0.1秒 内 。
蚂蚁集团基于可信AI的IMAGE风控体系
另外在可信AI的公平性方面,蚂蚁也有自己的实际应用。
目前业内广泛使用的“ 图形滑块验证码 ”一直是视障人群接入数字化服务的巨大障碍。但许多 APP 为了防范机器批量 *** 作,又不得不保留验证码服务。
为此,蚂蚁开发了一套“ 空中手势 ”验证码方案,可以利用“ 行为识别 ”技术帮助视障群体通过“ 验证码 ”关卡。
可信AI的应用 探索 ,并不会让AI技术失去它的可能性。
它更像是一种伦理规范的约束条约,让AI在正确的轨道上前行 。
8
18年后,人类真的无人幸免?
让我们回到一开始的问题。
AI真的会觉醒吗?
一百年前的人类,很难想象我们如今生活的这个高度数字化世界 。
那么,一百年后,人工智能会发生什么变革,我们真的无法预测。
但AI对人类是福是祸,是一个攸关人类命运的重要课题。
按照现在AI发展的模式来看,未来的AI可能会分为两大派:
一派是自我独立的智能AI,一派是追随人类的可信AI 。
当然,还有人在问,AI真的会存在 独立意志 吗?
这要看从科学上如何去解释,一个AI系统是可以“坎陷”到具有“ 自我意识 ”的状态,差别只在于“坎陷”的深度和鲁棒性,这可以解释AlphaZero为什么能够自我“坎陷”到围棋大师,如果再 “ 坎陷 ”下去呢? 这 一派AI,可能会对人类造成我们认定的“威胁” 。
另一派AI,即可信AI,它们会在 四大基本原则 的架构中不断完善自我 ,帮助人类解决更多实际问题,成为人类可靠的助手,并与人类共存共生 。那么,它们会一直帮助和保护人类吗?
但无论未来如何发展,不同的技术方向或许带来不同的悲剧或者喜剧,但有一点可以确定:
AI技术在四面突击,不论是可信AI还是智能AI,最终会落地深入到我们生活的方方面面 。它会渗透到世界的每一个角落,在很多方面取代“无用之人”。
不管我们如何担忧,AI只会变得越来越强大,而人类的进化又显得如此龟速,甚至退化堕落。
那么, 18年后,有多少人可以幸免?
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)