POW:全称Proof of Work,工作量证明。
POS:全称Proof of Stake,权益证明。
这两者都区块链的共识机制,是数字货币的记账方法。
区别是:
1、POW机制:工作量证明机制即对于工作量的证明,是生成要加入到区块链中的一笔新的交易信息(即新区块)时必须满足的要求。在基于工作量证明机制构建的区块链网络中,节点通过计算随机哈希散列的数值解争夺记账权,求得正确的数值解以生成区块的能力是节点算力的具体表现。
2、POS机制:权益证明要求证明人提供一定数量加密货币的所有权即可。权益证明机制的运作方式是,当创造一个新区块时,矿工需要创建一个“币权”交易,交易会按照预先设定的比例把一些币发送给矿工本身。权益证明机制根据每个节点拥有代币的比例和时间,依据算法等比例地降低节点的挖矿难度,从而加快了寻找随机数的速度。
扩展资料:
比特币(BitCoin)的概念最初由中本聪在2009年提出,根据中本聪的思路设计发布的开源软件以及建构其上的P2P网络。比特币是一种P2P形式的数字货币。点对点的传输意味着一个去中心化的支付系统。
与大多数货币不同,比特币不依靠特定货币机构发行,它依据特定算法,通过大量的计算产生,比特币经济使用整个P2P网络中众多节点构成的分布式数据库来确认并记录所有的交易行为,并使用密码学的设计来确保货币流通各个环节安全性。P2P的去中心化特性与算法本身可以确保无法通过大量制造比特币来人为 *** 控币值。
参考资料:
所谓Hedge Fund即避险基金或称之为对冲基金,
提起对冲基金,首先联想到的就是SOROS索罗斯同志,它在亚洲金融危机时的 *** 盘手法也被大家津津乐道。
经过几十年的演变,对冲基金已失去其初始的风险对冲的内涵,Hedge Fund的称谓亦徒有虚名。
现今的对冲基金是一种私募证券投资基金,通过大规模的资金介入(往往是通过资金的集中同杠杆效用Leverage Effect等),无限放大那些影响市场供给的因素,利用各种信息制造价格波动,由此产生价差盈利是对冲基金的"秘密武器"。由于是向涨跌两面同时下注,因此它的大部分投资风险已被对冲,往往能取得绝对报酬(absolute return),又因投资方向和金额无需对外披露,从而在 *** 作上比公募的开放式基金更具优势,
而具体对冲基金在常规金融市场上如何 *** 作,可能真正了解的人少之又少,为什么呢?很简单,一个人之所以在投资市场上成功,皆因为他有一个理念,而且这个理念他一生都不改变,所以打死他也不会跟别人说。对冲基金是常人所看不到了解不到的,只对有钱的人服务,从投资人来说,这是一个Club(少数人的俱乐部)。Hedge Fund就像中医一样,中医能看病,但说不清楚为什么;对冲基金可以赚钱,但往往不能对你说为什么。区别在于,中医是说不出来,对冲基金是不能说。
下面就要谈到重点之所在了,我们为什么要将对冲基金的概念引入博彩,怎么样应用等等。
其实,对冲基金的定义很松散,它就是一组投资工具,交易可以遍及所有市场种类,不仅仅是股票、债券、商品等等,像博彩交易所这样的衍生品更是一个发展的分支。
一个典型的技巧就是在市场上做空。比如在股市上,卖空就是交易员出售自己并不持有的股票(通常是先从保险公司等长线持有者手中借来这只股票),期望日后以更低的价格买回,赚取其中的差价。
另一个受他们青睐的手段是利用投资组合进行杠杆融资。对冲基金通过使用筹款,以增加市场上的持仓量,一旦它们投资的价值上升,就可以获得更好的回报。但它们也有可能亏得更多,这就是为什么基金通常会用期货和期权(我们在必发市场上的模式当然也算)来减轻这种风险的原因。当然对冲基金 *** 盘手的交易频率也比传统投资者更加频繁。
说回必发市场,在这样一个IN-PLAY的博彩市场中几乎具备了 *** 纵对冲基金获利的全部因素
换言之,只要市场足够大,理论上在必发上获利会仅仅属于那些对冲基金的 *** 盘手
首先,"消息"对市场的影响,熟悉金融的朋友,看过我那篇关于近期期油市场的帖子,应该很清楚"消息"在对冲基金振荡市场上的作用,所谓蝴蝶效应,一个看似不起眼的事件,影响力被无限扩大了,导致了差价产生的大众心理基础。
而在滚球市场上,任何一支球队的任何一次进攻都可以看作是一个"消息"
这样频繁的消息带给陪率市场频繁的变化,对于对冲基金而言是最理想不过了, *** 盘手甚至无需处心积虑去散步"消息",能看到比赛直播的大众就已经促成影响了。
再,大资金介入引发振荡,其实如今全球的对冲基金总额已达到8500亿美元,随便一个零头拿到必发来玩都可以将咱们玩死,我们现在讨论所谓"大资金"只是在必发现有的市场下的"大",一场比赛5-10万磅的介入足以导致陪率变化翻云覆雨,
举个例子,假设一场小联赛,可能大多数参与者看不到直播,那么比赛走势如何全部靠参与者通过陪率的变化来"判定",而这种判定有时并不准确直观
当有1-2万磅的资金涌入这个市场,按行话讲,就是"封住"了某个陪率的买卖,越往后拖延对振荡越有利,只要在这个时段内不进球,当这笔资金撤出的时候,陪率会产生相当可观的振荡,很多朋友也可能有这种经验,看到相当大的资金撤单之后,陪率变化是相当大的,而当它"封住"陪率的时候对于相对的"闲家"而言,处境则非常难堪,往往无所适从,在陪率发生变化后,一切就符合大资金 *** 盘者的思路了。
特别是在比赛的最后,且不说陪率从101到102之间翻倍的变化,就是从105以降每001的变化对对冲基金来说都是可观的机会
而他们 *** 作的时候,闲家往往是无从下手的,只能干看着,有很多朋友所遇到的"某某陪率不能及时成交而丧失机会"的情况很大程度也和这有关。
这些 *** 盘手往往拥有比大多数玩家先进得多的交易软件,就是我们之前所提到的API,不仅仅是交易速度上的优势,更多的是结合了各类智能化功能的运用,能在最短的时间内作出正确的判断。所以很多行内人士一致认为,API已经成为大玩家获取绝对利润的一个基本保障。而我们现在的一个主攻方向就是开发属于华人自己的智能API--这个就是后话了。
之前我曾经提到关于英国很多职业的必发玩家都有所谓联盟,约定好同时投注某某之类,其实这就是一种对冲基金的募集形势,当然,最理想的状态是,资金交由公众信任的 *** 盘手 *** 作,凭他的技巧去通过振荡套利来获得绝对利润,它再从中抽取提成。但这种模式目前还难以成形,在英国都是大家聚在一起(相对地域上),在一间酒吧或者什么地方来共同完成大资金的聚集而像现在我们这些滚友天南地北,有太多的因素牵涉在内。当然,我的构想只是一种理想状态了
Kafka是一个由Scala和Java编写的企业级的消息发布和订阅系统,最早是由Linkedin公司开发,最终开源到Apache软件基金会的项目。Kafka是一个分布式的,支持分区的,多副本的和多订阅者的高吞吐量的消息系统,被广泛应用在应用解耦、异步处理、限流削峰和消息驱动等场景。本文将针对Kafka的架构和相关组件进行简单的介绍。在介绍Kafka的架构之前,我们先了解一下Kafk的核心概念。
在详细介绍Kafka的架构和基本组件之前,需要先了解一下Kafka的一些核心概念。
Producer: 消息的生产者,负责往Kafka集群中发送消息;
Consumer: 消息的消费者,主动从Kafka集群中拉取消息。
Consumer Group: 每个Consumer属于一个特定的Consumer Group,新建Consumer的时候需要指定对应的Consumer Group ID。
Broker: Kafka集群中的服务实例,也称之为节点,每个Kafka集群包含一个或者多个Broker(一个Broker就是一个服务器或节点)。
Message: 通过Kafka集群进行传递的对象实体,存储需要传送的信息。
Topic: 消息的类别,主要用于对消息进行逻辑上的区分,每条发送到Kafka集群的消息都需要有一个指定的Topic,消费者根据Topic对指定的消息进行消费。
Partition: 消息的分区,Partition是一个物理上的概念,相当于一个文件夹,Kafka会为每个topic的每个分区创建一个文件夹,一个Topic的消息会存储在一个或者多个Partition中。
Segment: 一个partition当中存在多个segment文件段(分段存储),每个Segment分为两部分,log文件和 index 文件,其中 index 文件是索引文件,主要用于快速查询log 文件当中数据的偏移量位置;
log文件: 存放Message的数据文件,在Kafka中把数据文件就叫做日志文件。一个分区下面默认有n多个log文件(分段存储)。一个log文件大默认1G,消息会不断追加在log文件中,当log文件的大小超过1G的时候,会自动新建一个新的log文件。
index文件: 存放log文件的索引数据,每个index文件有一个对应同名的log文件。
后面我们会对上面的一些核心概念进行更深入的介绍。在介绍完Kafka的核心概念之后,我们来看一下Kafka的对外提供的基本功能,组件及架构设计。
如上图所示,Kafka主要包含四个主要的API组件:
1 Producer API
应用程序通过Producer API向Kafka集群发送一个或多个Topic的消息。
2 Consumer API
应用程序通过Consumer API,向Kafka集群订阅一个或多个Topic的消息,并处理这些Topic下接收到的消息。
3 Streams API
应用程序通过使用Streams API充当流处理器(Stream Processor),从一个或者多个Topic获取输入流,并生产一个输出流到一个或者多个Topic,能够有效地将输入流进行转变后变成输出流输出到Kafka集群。
4 Connect API
允许应用程序通过Connect API构建和运行可重用的生产者或者消费者,能够把kafka主题连接到现有的应用程序或数据系统。Connect实际上就做了两件事情:使用Source Connector从数据源(如:DB)中读取数据写入到Topic中,然后再通过Sink Connector读取Topic中的数据输出到另一端(如:DB),以实现消息数据在外部存储和Kafka集群之间的传输。
接下来我们将从Kafka的架构出发,重点介绍Kafka的主要组件及实现原理。Kafka支持消息持久化,消费端是通过主动拉取消息进行消息消费的,订阅状态和订阅关系由客户端负责维护,消息消费完后不会立刻删除,会保留历史消息,一般默认保留7天,因此可以通过在支持多订阅者时,消息无需复制多分,只需要存储一份就可以。下面将详细介绍每个组件的实现原理。
1 Producer
Producer是Kafka中的消息生产者,主要用于生产带有特定Topic的消息,生产者生产的消息通过Topic进行归类,保存在Kafka 集群的Broker上,具体的是保存在指定的partition 的目录下,以Segment的方式(log文件和index文件)进行存储。
2 Consumer
Consumer是Kafka中的消费者,主要用于消费指定Topic的消息,Consumer是通过主动拉取的方式从Kafka集群中消费消息,消费者一定属于某一个特定的消费组。
3 Topic
Kafka中的消息是根据Topic进行分类的,Topic是支持多订阅的,一个Topic可以有多个不同的订阅消息的消费者。Kafka集群Topic的数量没有限制,同一个Topic的数据会被划分在同一个目录下,一个Topic可以包含1至多个分区,所有分区的消息加在一起就是一个Topic的所有消息。
4 Partition
在Kafka中,为了提升消息的消费速度,可以为每个Topic分配多个Partition,这也是就之前我们说到的,Kafka是支持多分区的。默认情况下,一个Topic的消息只存放在一个分区中。Topic的所有分区的消息合并起来,就是一个Topic下的所有消息。每个分区都有一个从0开始的编号,每个分区内的数据都是有序的,但是不同分区直接的数据是不能保证有序的,因为不同的分区需要不同的Consumer去消费,每个Partition只能分配一个Consumer,但是一个Consumer可以同时一个Topic的多个Partition。
5 Consumer Group
Kafka中的每一个Consumer都归属于一个特定的Consumer Group,如果不指定,那么所有的Consumer都属于同一个默认的Consumer Group。Consumer Group由一个或多个Consumer组成,同一个Consumer Group中的Consumer对同一条消息只消费一次。每个Consumer Group都有一个唯一的ID,即Group ID,也称之为Group Name。Consumer Group内的所有Consumer协调在一起订阅一个Topic的所有Partition,且每个Partition只能由一个Consuemr Group中的一个Consumer进行消费,但是可以由不同的Consumer Group中的一个Consumer进行消费。如下图所示:
在层级关系上来说Consumer Group好比是跟Topic对应的,而Consumer就对应于Topic下的Partition。Consumer Group中的Consumer数量和Topic下的Partition数量共同决定了消息消费的并发量,且Partition数量决定了最终并发量,因为一个Partition只能由一个Consumer进行消费。当一个Consumer Group中Consumer数量超过订阅的Topic下的Partition数量时,Kafka会为每个Partition分配一个Consumer,多出来的Consumer会处于空闲状态。当Consumer Group中Consumer数量少于当前定于的Topic中的Partition数量是,单个Consumer将承担多个Partition的消费工作。如上图所示,Consumer Group B中的每个Consumer需要消费两个Partition中的数据,而Consumer Group C中会多出来一个空闲的Consumer4。总结下来就是:同一个Topic下的Partition数量越多,同一时间可以有越多的Consumer进行消费,消费的速度就会越快,吞吐量就越高。同时,Consumer Group中的Consumer数量需要控制为小于等于Partition数量,且最好是整数倍:如1,2,4等。
6 Segment
考虑到消息消费的性能,Kafka中的消息在每个Partition中是以分段的形式进行存储的,即每1G消息新建一个Segment,每个Segment包含两个文件:log文件和index文件。之前我们已经说过,log文件就是Kafka实际存储Producer生产的消息,而index文件采用稀疏索引的方式存储log文件中对应消息的逻辑编号和物理偏移地址(offset),以便于加快数据的查询速度。log文件和index文件是一一对应,成对出现的。下图展示了log文件和index文件在Partition中的存在方式。
Kafka里面每一条消息都有自己的逻辑offset(相对偏移量)以及存在物理磁盘上面实际的物理地址便宜量Position,也就是说在Kafka中一条消息有两个位置:offset(相对偏移量)和position(磁盘物理偏移地址)。在kafka的设计中,将消息的offset作为了Segment文件名的一部分。Segment文件命名规则为:Partition全局的第一个Segment从0开始,后续每个segment文件名为上一个Partition的最大offset(Message的offset,非实际物理地偏移地址,实际物理地址需映射到log中,后面会详细介绍在log文件中查询消息的原理)。数值最大为64位long大小,由20位数字表示,前置用0填充。
上图展示了index文件和log文件直接的映射关系,通过上图,我们可以简单介绍一下Kafka在Segment中查找Message的过程:
1 根据需要消费的下一个消息的offset,这里假设是7,使用二分查找在Partition中查找到文件名小于(一定要小于,因为文件名编号等于当前offset的文件里存的都是大于当前offset的消息)当前offset的最大编号的index文件,这里自然是查找到了00000000000000000000index。
2 在index文件中,使用二分查找,找到offset小于或者等于指定offset(这里假设是7)的最大的offset,这里查到的是6,然后获取到index文件中offset为6指向的Position(物理偏移地址)为258。
3 在log文件中,从磁盘位置258开始顺序扫描,直到找到offset为7的Message。
至此,我们就简单介绍完了Segment的基本组件index文件和log文件的存储和查询原理。但是我们会发现一个问题:index文件中的offset并不是按顺序连续存储的,为什么Kafka要将索引文件设计成这种不连续的样子?这种不连续的索引设计方式称之为稀疏索引,Kafka中采用了稀疏索引的方式读取索引,kafka每当log中写入了4k大小的数据,就往index里以追加的写入一条索引记录。使用稀疏索引主要有以下原因:
(1) 索引稀疏存储,可以大幅降低index文件占用存储空间大小。
(2) 稀疏索引文件较小,可以全部读取到内存中,可以避免读取索引的时候进行频繁的IO磁盘 *** 作,以便通过索引快速地定位到log文件中的Message。
7 Message
Message是实际发送和订阅的信息是实际载体,Producer发送到Kafka集群中的每条消息,都被Kafka包装成了一个Message对象,之后再存储在磁盘中,而不是直接存储的。Message在磁盘中的物理结构如下所示。
其中 key 和 value 存储的是实际的Message内容,长度不固定,而其他都是对Message内容的统计和描述,长度固定。因此在查找实际Message过程中,磁盘指针会根据Message的 offset 和 message length 计算移动位数,以加速Message的查找过程。之所以可以这样加速,因为Kafka的log文件都是顺序写的,往磁盘上写数据时,就是追加数据,没有随机写的 *** 作。
8Partition Replicas
最后我们简单聊一下Kafka中的Partition Replicas(分区副本)机制,08版本以前的Kafka是没有副本机制的。创建Topic时,可以为Topic指定分区,也可以指定副本个数。kafka 中的分区副本如下图所示:
Kafka通过副本因子(replication-factor)控制消息副本保存在几个Broker(服务器)上,一般情况下副本数等于Broker的个数,且同一个副本因子不能放在同一个Broker中。副本因子是以分区为单位且区分角色;主副本称之为Leader(任何时刻只有一个),从副本称之为 Follower(可以有多个),处于同步状态的副本叫做in-sync-replicas(ISR)。Leader负责读写数据,Follower不负责对外提供数据读写,只从Leader同步数据,消费者和生产者都是从leader读写数据,不与follower交互,因此Kafka并不是读写分离的。同时使用Leader进行读写的好处是,降低了数据同步带来的数据读取延迟,因为Follower只能从Leader同步完数据之后才能对外提供读取服务。
如果一个分区有三个副本因子,就算其中一个挂掉,那么只会剩下的两个中,选择一个leader,如下图所示。但不会在其他的broker中,另启动一个副本(因为在另一台启动的话,必然存在数据拷贝和传输,会长时间占用网络IO,Kafka是一个高吞吐量的消息系统,这个情况不允许发生)。如果指定分区的所有副本都挂了,Consumer如果发送数据到指定分区的话,将写入不成功。Consumer发送到指定Partition的消息,会首先写入到Leader Partition中,写完后还需要把消息写入到ISR列表里面的其它分区副本中,写完之后这个消息才能提交offset。
到这里,差不多把Kafka的架构和基本原理简单介绍完了。Kafka为了实现高吞吐量和容错,还引入了很多优秀的设计思路,如零拷贝,高并发网络设计,顺序存储,以后有时间再说。
以往提到买基金,让人联想到繁复的申办流程,光是开个户,可能就要好几个工作天,直到基富通的出现,颠覆了以上这些情况,标榜5分钟就能完成开户,同时提供丰富的基金选项,即使对投资理财毫无观念也能轻松上手。
▲基富通由集保与柜买中心为因应金管会FinTech金融科技政策而成立,积极推动境内外基金上架,收录多达超过3,000档基金。
FinTech金融科技开拓先峰 首创无实体店面基金销售平台基富通证券股份有限公司(以下简称基富通),由集保与柜买中心为因应金管会FinTech金融科技政策所成立,积极推动境内外基金上架,收录多达超过3,000档基金;更重要的是,基富通为国内首创无实体店面的基金网路行销平台,标榜5分钟即可完成开户申请,只要定期定额扣款,就可以开启理财之路,也大幅提高了一般人的投资意愿。身为FinTech金融科技开拓先峰,本篇瘾科技特地邀请到基富通董事长-林修铭,聊聊基富通一路走来历程,以及对FinTech金融科技的看法。
▲基富通为国内首创无实体店面的基金网路行销平台,5分钟即可完成开户申请,让投资理财变得更加轻松。
「为何过去大家习惯跟银行买基金?答案很简单,因为你的钱都在银行手上!」林修铭一开始便指出重点,「我举简单例子,大家的薪水或买的股票,几乎都托付银行保管,银行最大优势为握有庞大金流,因此才能成为基金最大的销售通路。」
但银行毕竟是利润导向,以买卖基金来说,无论产品选项或利润设计,理所当然以银行本身利益为主,不过这现象直到FinTech金融科技出现产生变化,「金融科技的诞生,让我们对销售模式有了更多想像,例如Uber共享车Uber、Airbnb共享空间…等,将闲置产品释出的创新模式都是前所未见,透过网路能把产品接触到更多人,对业者来说也能降低成本,FinTech金融科技已在国外盛行多年,于是我便思考要如何应用在台湾。」
看准FinTech金融科技成为全球趋势,集保与柜买中心在2015年12月共同筹设成立基富通,希望打造出结合数位金融、兼具智能与人性化的一站式基金网路行销平台,「基富通看好FinTech金融科技潮流,希望提供多元管道,让投资者更能体会金融结合科技的优点,透过这样一站式基金销售平台,降低投资门槛,理财并非有钱人才有的权益,理财观念不分年龄,即使还没出社会的学生,都可以提早学习理财,从最基本的定期定额扣款开始,一个月只投几千块也是理财。过去想接触理财,如果资本太少银行是不受理的,但如今透过FinTech金融科技,小额也可以做理财规划。」
林修铭认为金融科技的诞生,让大家对销售模式有了更多想像,希望透过基富通这样一站式基金销售平台,让投资者更更能体会金融结合科技的优点。
提供客制化投资组合 率先建制线上开户系统基富通目前拥有将近6万用户,平均年龄为44岁,最大特点为品项齐全,线上提供超过3,000档基金,且没金管会核准不能上架,且能依投资者条件量身订作,推荐最适合的投资组合;然而基富通最大优势,为建制首创的线上开户系统,让开户这件事变得更简单。
但林修铭坦承这是一项艰钜挑战,「开户其实就两件事:让银行知道是你本人,然后才能从网银扣款,光是要确认这两件事就困难重重,首先必须列印一大堆个人资料,包括存摺、身分证…影本等,然后在经历繁复的电话照会过程,总共至少要花4天以上,即使到科技先进的今天,银行开户过程要全数位化,无论科技或法规上都面临很大挑战,既然过程无法省略,但我们可以想办法优化。」
▲基富通最大特点为品项齐全,提供超过3,000档基金,且能依投资者条件量身订作,无论你是菜鸟或老手,都能找到最适合的投资组合。
于是基富通积极与各大主管机关与财经公司沟通,经过两年努力总算有结果,建制了首创的线上开户系统,「如今只要使用晶片金融卡,就能完成身份确认,今年初我们与华南银行合作,申办过程只要输入帐号密码,然后再以手机号码即可完成身份认证,前后加起来不超过20分钟、且整个过程无纸化,光是去年用晶片金融卡新开户的就占25%,这对金融界来说是重大突破,最近我们正在举办招商说明会,希望能与更多银行合作,预计明年只要透过行动装置,就能全程完成开户。」
▲基富通建制了首创的线上开户系统,使用晶片金融卡就能完成身份确认,前后加起来不超过20分钟,对金融界来说是重大突破。
积极释出API 盼透过异界合作创造更多经济价值努力开启最艰难的一条路,林修铭认为是为整个金融市场做基础建设,「毕竟各行各业很常遇到实名认证机会,但台湾目前还没有相关机构,过去必需仰赖多重人力,只为了确认一个人身份,我认为非常不符合成本效益,或许大家可以一起思考如何解决这个问题。」大数据当道,基富通也尝试开放API,希望能发展更多异业结盟,「目前平台还是以机器人和智能工具为主,因此希望开放API吸引新创团队合作,创造更多附加价值。」
▲基富通积极举办全民基金投资模拟竞赛,望鼓励年轻人提早开始规划投资理财。
锁定年轻族群,基富通积极举办全民基金投资模拟竞赛,「基金投资模拟竞赛是针对大学生设计,虽然学生没太多钱投资,但可以透过模拟竞赛方式这样的机会,也许从每个月3,000元开始,如果买的是石油相关基金,即使平常不开车,也会特别关注石油市场变化,虽然投入的钱不多,但却更关注全球经济发展,从中获取的知识,价值早已超出投入的3,000元,我们会不定期到各大专院校演讲,希望鼓励年轻人提早开始规划投资理财。」
林修铭也随时强调金融的本质是管理众人资产,与客户之间最重要是彼此信赖,才能创造出最高的绩效。
过去金融水管只存在消费者与传统银行之间,但随着FinTech金融科技概念兴起,如今金融行为都可能发生在任何有网路的地方,「金融机构朝多元发展已成必然趋势,传统银行有理专帮忙固然方便,不过随着网路发达与资讯普及,人人都可以透过自主学习培养理财能力,我希望透过基富通这样的平台,普惠投资理财观念给更多人。但科技再如何先进,还是必须回归金融的本质,那就是管理众人资产,与客户之间最重要是彼此信赖,才有机会创造最高的绩效。」
在学习云原生的时候,我们不可避免的会接触到 CNCF ,这里简单梳理一下。
云原生计算基金会 (CNCF) 承载着全球技术基础设施的关键组件。CNCF 汇集了世界顶级的开发者、最终用户和供应商,并举办了最大的开源开发者大会。CNCF 是非营利性 Linux 基金会的一部分。
云原生技术使组织能够在现代动态环境(例如公共云、私有云和混合云)中构建和运行可扩展的应用程序。容器、服务网格、微服务、不可变基础设施和声明式 API 是这种方法的例证。
这些技术使松散耦合的系统具有d性、可管理性和可观察性。与强大的自动化相结合,它们使工程师能够以最少的工作量频繁且可预测地进行高影响力的更改。
Cloud Native Computing Foundation 旨在通过培育和维持一个由供应商中立的开源项目生态系统来推动这种范式的采用。我们将最先进的模式民主化,使每个人都可以使用这些创新。
CNCF 项目具有沙盒、孵化或毕业的成熟度级别,对应于跨越鸿沟图的创新者、早期采用者和早期多数层。成熟度级别是 CNCF 的一个信号,即什么样的企业应该采用不同的项目。项目通过向 CNCF 的技术监督委员会证明其可持续性来提高其成熟度:它们已被采用、健康的变化率以及来自多个组织的提交者;已采用 CNCF 行为准则 ;并获得并保持了核心基础设施倡议 最佳实践徽章 。完整的详细信息在 毕业标准 v11 中 。
下图是截至2021年10月25日的从CNCF毕业的项目,里面有广为所知的项目:Kubernetes, Helm, Prometheus等等。
开放银行作为银行发展的一种新的战略思维与战略转型的方向,在全球引起了开放银行热潮——国内外银行机构纷纷布局开放银行战略。在第三章中我们曾经提到了开放银行的可能的建设模式,那这些建设模式在实践中如何应用、不同的商业银行应该使用什么模式进行建设都是我们所关心的问题。在这一章,我们将介绍国内外不同商业银行的开放银行建设案例,通过这些案例,深究实践中的开放银行,能够让我们刚好地抱把握开放银行的现状、思考商业银行的未来,同时对于上述问题,我们也能有一个更好的答案。
商业银行各自发展并不均衡,所以在建设开放银行方面有着不同的模式。我们在第三章提到了四种可能的开放银行建设模式: 自建、投资、合作、联盟 ,纵观这四种发展模式,主要存在两个重要的影响因素 : 风险承受能力与行业影响力 ,例如,风险承受能力高、行业影响力强的商业银行可以采用自建模式,而风险承受能力较低、行业影响力较弱的商业银行可以采用联盟模式。
这四种模式基本可以包含所有商业银行的发展状况,实践中也有一些银行依据这些模式进行建设。
开放银行这一概念起源于英国,但是在实践应用上欧美各国都纷纷走在前列。整体来说, 欧美国家的开放银行应用实践分为两类: 一类是风险承受能力高、具有行业影响力的大型银行自主搭建开放银行平台 ,例如花旗银行、BBVA银行等; 另一类是有一定的风险承受能力的中小型银行与与第三方合作,借助外部力量融入金融 科技 圈,以提高自身的技术创新能力和效率 ,例如德国的Solaris Bank、美国的Yodlee等。
(一) 花旗银行
花旗银行(Citibank)是花旗集团旗下的一家零售银行,于1812年6月16日成立,总部位于美国纽约。前身是纽约城市银行(City Bank of New York)。花旗集团的客户遍布全球各地,目前已经为在全球一百多个国家为约二亿客户提供服务,服务群体主要是个人、机构、企业和政府部门。服务方面,花旗为客户提供提供广泛的金融产品服务从消费银行服务及信贷、企业、投资银行服务、以及经纪、保险和资产管理等,这些众多服务,非任何其它金融机构可以比拟。
美国政府没有为开放银制定具体的监管规定,基本采用发布指导性意见以促进开放银行在美国的发展。 花旗银行作为美国一家“百年银行”,见证了太多银行的 历史 兴衰,如今面临银行的转型发展,花旗银行积极进行开放银行实践,走在行业前列,其建设模式可以概括为“以自建为主,以合作为辅”:以自建的API开发者中心为核心,同时辅之以与外部金融 科技 公司的合作。
如今,花旗银行在已经在美国、墨西哥、英国、波兰、俄国、澳大利亚、中国香港、中国台湾、泰国、越难、印度、印度尼西亚、马来西亚、菲律宾、新家比、阿联酋等16个国家或地区提供开放银行服务。
1 花旗银行API开发者中心—— 11种API
2016年11月,花旗银行在全球推出花旗API开发者中心(API Developer Hub),这是花旗银行对开放银行的一次重要实践。这一实践,花旗银行主要推出了11大类API产品:提供账户信息、ATM分支定位器、授权、yhk、客户信息、保险、资金转移、用户引导、积分支付、服务。
1) 账户信息
账户信息API产品允许开发者检索已授权到相应应用程序的花旗客户的账户信息和交易信息。
2) ATM分支定位器
ATM分支定位器API产品允许开发者获取特定国家或地区的ATM和分支机构位置。
3) 授权
授权API产品能够验证花旗客户账户并授权第三方应用程序访问账户数据。
4) yhk
yhkAPI产品给予花旗客户管理xyk和借记卡的能力。
5) 客户信息
客户信息API产品允许开发者检索并获得花旗客户档案数据,如姓名、电话、地址、电子邮箱等基本信息。
6) 保险
保险API产品允许保险平台获取符合保险预定条件的花旗银行客户账户。
7) 资金转移
资金转移API产品帮助花旗客户能够在不同账户和机构之间进行资金转移。
8) 用户引导
用户引导API产品允许开发者或第三方为新客户启动基本的开户流程。
9) 积分支付
积分支付API产品使应用程序能够接受花旗客户以花旗奖励积分支付购买费用,以便花旗客户在第三方平台上使用花旗积分支付。
10) 服务
服务API产品允许花旗客户可以在第三方平台上浏览花旗银行账单、修改ATM密码。
11) 实用程序
实用程序API产品允许开发者或第三方应用程序检索某些特定区域市场的字段属性、验证数组等,以简化跨国多市场应用程序的开发并识别差异。
以上这些API产品已经在16个国家和地区进行提供,其中账户信息、客户信息、积分支付的访问是这16个国家均可访问的,其他的7大类API产品的访问权在各地区有所差异。
2 开发者中心—— 五个 *** 作步骤
外部合作者、开发者想要调用花旗银行的API产品,需要先进行开发者中心的相关步骤。花旗银行的开发者中心由一个提供模拟测试数据表的沙盒组成,这一沙盒为开发者提供了与实际相同的经营环境,开发者可以在此模拟API调用。在投入生产之前,把公共API放进沙盒中在保护客户数据的前提下验证产品。
花旗银行开发者中心的 *** 作流程主要包括五个步骤:注册、获取客户ID和密钥、授权、沙盒测试、投入生产后的进一步 探索 。
1) 注册
开发者在构建API之前需要用自己的邮箱在开发者中心网站进行注册;提交注册信息后,花旗审核通过后,会向注册人发送邀请回执链接,在规定时间内点击链接,跟随链接中的流程完成注册,激活后便可以按照流程登陆账户。
2) 获取客户ID和密钥
开发者在在API密钥工作区注册应用程序、完成申请后,可以获得客户ID和客户密钥。客户ID是应用程序的公共标识符,在请求信息的时候以确认客户的身份;客户密钥是应用程序的私有标识符,在API的身份验证步骤中以如却客户的身份。
3) 授权
在测试API以前,需要对客户进行API身份验证。验证有两类:如果开发者只是想要调用花旗点数或者提交产品应用,不需要花旗提供识别信息或财务 历史 的使用(如交换奖励积分或提交产品应用),需要进行双足验证;如果开发者想要获取某些特定客户的敏感数据(如查询余额或者查看个人信息等),需要对客户进行三足验证。
4) 沙盒测试
开发者选择想要调用的API接口并开始沙盒中进行测试。首先,根据花旗银行开放者中心的API文档展示的流程进行格式化,然后,利用开发者的访问令牌以及该API所需的信息,最后,使用API沙盒数据构建应用程序。
5) 投入生产后的进一步 探索
结束测试后,开发者可以向花旗银行提交开发的产品,如果开发者与花旗双方认为可以合作,经过花旗的调查后,双方将一起进行测试,双方认为有较大的合作空间的时候,可以进一步合作并投向实际经营。
外部开发者通过以上的五个步骤即可对花旗银行的API进行调用,从而获取海量的客户数据。这五个流程 *** 作清晰明了,开发者中心凭借其自身的开放性和便捷性,上限一个月后就吸引了1500位开发者。例如,财捷(Intuit)和澳洲航空公司(Qantas Airways)就是花旗API产品的合作开发者,同花旗一起开发基于开放API的服务。
财捷是一家以个人财务软件为主的高 科技 公司,财捷在调用花旗一行的账户管理API之后,其用户能够更加流畅和安全地向财捷授权获取自己在花旗银行的账户数据,包括余额、交易 历史 、账单到期日等,还能够选用信息图表的方式随时随地地查看这些数据。
澳洲航空公司是澳大利亚第一大航空公司,在与花旗银行合作后,能够通过开发者中心调用70多个API,获取相关金融数据。根据这些数据,澳洲航空公司推出了优质白金xyk服务以及Qantas Money应用程序。其用户可以更加便捷地既能获得澳洲航空会员计划奖励权益,又能实时监控xyk余额以及飞行里程数积分。
3 融合与协作
花旗银行作为一家白楠国际大行,但是对于金融 科技 却总是展现出其积极拥抱的一面。对于开放银行建设,花旗在除了自身 探索 外,还积极加强外部合作。
1) 花旗创投
2017年,花旗银行举办了香港金融 科技 大奖赛(Citi HK Fintech Challenge 2017),成立了风投基金“花旗创投” ,5年内在区块链、数据分析、个人财务、财富管理、金融服务软件、支付结算、监管 科技 、贷款等八个领域的23家金融 科技 公司合作,其中还包括R3、DAH、Kensho、Betterment、Plaid和Chain等知名金融 科技 公司。花旗也因此被CB Insight评为美国10大银行对金融 科技 分类投资的榜首。
2) Fintergate
花旗与金融 科技 公司的合作 ,创造了“Fintergate”这一新词,即Fintech和integrate,意味着同金融高 科技 的融合。如今花旗已经先后和Mastercard、Wonder、BestBuy、Virgin Money、PayPal打成合作关系。
2016年,花旗和Wonder合作,对其开放花旗点数API,用户在Wonder App上使用花旗xyk支付的时候,可以使用点数积分代替现金支付。2017年,花旗与在线支付公司PayPal公司合作,花旗和PayPal的用户在PC端、手机端与实体店使用PayPal进行支付。
3) 花旗移动挑战
花旗银行在对外探求方面早已开始,在2014年 , 花旗推出“花旗移动挑战”全球黑客和加速项目,以更加广泛地获得外部金融创意。 这一项目滋阴了来自拉美、美国、欧洲、中东、非洲和亚太超过100多个国家的数千名开发者。
作为创业公司代名词的以色列,成为花旗的合作目标,2013年11月,花旗在该国推出第一个金融加速项目。该项目为其四个月,其独特特点是花旗将对接受此项目的企业不做投资,因为该项目旨在对参与加速项目的企业提供自主性,为项目中的金融 科技 创业公司可以利用花旗提供的专业导师资源,并帮助其获得约35亿美元的创业启动资金。为了进一步广泛地拓展创新资源,2015年花旗与全球最大的孵化器Plug and Play达成合作。
花旗作为风险承受能力高、行业影响力大的国际大银行,是JP Morgan Chase、Captial One等大银行的代表,它为大银行应该如何进行开放银行建设提供了一份优秀的答卷,“以自建为主,以合作为辅”的模式为我们提供了众多可实践的经验。
作者 | 张瑞婷 张瑛恺
指导老师 | 孙运传
以上就是关于什么是POW和POS,二者区别联系全部的内容,包括:什么是POW和POS,二者区别联系、什么叫对冲基金、Kafka架构及基本原理简析等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)