海量数据库解决方案的内容简介(海量数据查询方案)

海量数据库解决方案的内容简介(海量数据查询方案),第1张

简单的说几句吧。其实这个解决方案呢,主要是要先考虑成本问题,其他的,技术问题其实都很容易解决,但是企业应用上,最大的限制就是成本。下面以ORACLE数据库为例,简单说说。希望对你有所帮助。(数据库类型并不重要,解决方案都是大同小异。)

1、基于存储层的容灾复制方案

这种技术的复制机制是通过基于SAN的存储局域网进行复制,复制针对每个IO进行,复制的数据量比较大;系统可以实现数据的同步或异步两种方式的复制。对大数据量的系统来说有很大的优势(每天日志量在60G以上),但是对主机、 *** 作系统、数据库版本等要求一致,且对络环境的要求比较高。

2、基于逻辑卷的容灾复制方案

这种技术的机制是通过基于TCP/IP的网络环境进行复制,由 *** 作系统进程捕捉逻辑卷的变化进行复制。其特点与基于存储设备的复制方案比较类似,也可以选择同步或异步两种方式,对主机的软、硬件环境的一致性要求也比较高,对大数据量的应用比较有优势。其目标系统如果要实现可读,需要创建第三方镜像。个人认为这种技术和上面提到的基于存储的复制技术比较适合于超大数据量的系统,或者是应用系统的容灾复制。

3、基于oracleredolog的逻辑复制方式

使用这种方式的主要有一些第三方的软件,以及oracle自己的DATAGUARD中的logicalStandby。目前,国外已经有了很多比较成熟的产品及成功案例,国内也有类似的产品,但在产品的成熟程度和成功案例上跟国外还有一定的差距。

使用oracle以外的独立进程,捕捉redologfile的信息,将其翻译成sql语句,再通过网络传输到目标端数据库,在目标端数据库执行同样的sql。如果其进程赶不上oracle日志切换,也可以捕捉归档日志中的内容。也有的产品在源端以事务为单位,当一个事务完成后,再把它传输到目标端。所有的产品一般都是以表为单位进行复制,同时也支持大部分DDL的复制(主要在oracle9i环境中)。

数据库的吞吐量太大时,其实据会有较大的延迟,当数据库每天的日量达到60G或更大时,这种方案的可行性交差;实施的过程可能会有一些停机时间,来进行数据的同步和配置的激活;复制环境建立起来以后,对数据库结构上的一些修改需要按照规定的 *** 作流程进行,有一定的维护成本。

本文的重点不是在如何解决高并发的问题,而是希望从业务角度去分析,12306 的理想模型应该是怎么样的。网上目前谈 12306 的文章貌似都是千篇一律的只谈技术,不谈业务分析和如何建模的。所以我想写一下自己的设计和大家交流学习。

1、需求概述

12306 这个系统,核心要解决的问题是网上售票。涉及到 2 个角色使用该系统:用户、铁道部。用户的核心诉求是查询余票、购票;铁道部的核心诉求是售票。购票和售票其实是一个场景,对用户来说是购票,对铁道部来说是售票。因此,我们要设计一个在线的网站系统,解决用户的查询余票、购票,以及铁道部的售票这 3 个核心诉求。看起来,这 3 个场景都是围绕火车票展开的。

查询余票:用户输入出发地、目的地、出发日三个条件,查询可能存在的车次,用户可以看到每个车次经过的站点名称,以及每种座位的余票数量。

购票:购票分为订票和付款两个阶段,本文重点分析订票的模型设计和实现思路。

其实还有很多其他的需求,比如给不同的车次设定销售座位数配额,以及不同的区段设置不同的限额。但相比前面两个需求来说,我觉得这个需求相对次要一些。

2、需求分析

确实,12306 也是一个电商系统,而且看起来商品就是票了。因为如果把一张票看成是一个商品,那购票就类似于购买商品,然后每张票都有库存,商品也有库存的概念。但是如果我们仔细想想,会发现 12306 要复杂很多,因为我们无法预先确定好所有的票,如果非要确定,那只能通过穷举法了。

我们以北京西到深圳北的 G71 车次高铁为例(这里只考虑南下的方向,不考虑深圳北到北京西的,那是另外一个车次,叫 G72),它有 17 个站(北京西是 01号站,深圳北是 17号站),3 种座位(商务、一等、二等)。表面看起来,这不就是 3 个商品吗?G71 商务座、G71 一等座、G71 二等座。大部分轻易喷 12306 的技术人员(包括某些中等规模公司的专家、CTO)就是在这里栽第一个跟头的。实际上,G71 有 1363=408 种商品(408 个 SKU),怎么算来的?如下:

如果卖北京西始发的,有 16 种卖法(因为后面有 16 个站),北京西到:保定、石家庄、郑州、武汉、长沙、广州、虎门、深圳。。。。都是一个独立的商品,同理,石家庄上车的,有 15 种下车的可能,以此类推,单以上下车的站来计算,有 136 种票:16+15+14+2+1=136。每种票都有 3 种座位,一共是 408 个商品。

为了方便后面的讨论,我们先明确一下票是什么?

一张票的核心信息包括:出发时间、出发地、目的地、车次、座位号。持有票的人就拥有了一个凭证,该凭证表示持有它的人可以坐某个车次的某个座位号,从某地到某地。所以,一张票,对用户来说是一个凭证,对铁道部来说是一个承诺;那对系统来说是什么呢?不知道。这就是我们要分析业务,领域建模的原因,我们再继续思考吧。

明白了票的核心信息后,我们再看看 G71 这个车次的高铁,可以卖多少张票?

讨论前先说明一下,一辆火车的物理座位数(站票也可以看成是一种座位,因为站票也有数量配额)不等于可用的最大配合。所有的物理座位不可能都通过 12306 网站来销售,而是只会销售一部分,比如 40%。其余的还是会通过线下的方式销售。不仅如此,可能有些站点上车的人会比较多,有些比较少,所以我们还会给不同的区间配置不同的限额。

比如 D31 北京南至上海共有 765 张,北京南有 260 张,杨柳青有 80 张,泰安有 76 张。如果杨柳青的 80 张票售完就会显示无票,就算其他站有票也会显示无票的。每个车次肯定会有各种座位的配额和限额的配置的,这种配置我目前无法预料,但我已经把这些规则都封装近车次聚合根里了,所有的配置策略都是基于座位类型、站点、区间配置的。关于票的配置抽象出来,我觉得主要有 3 种:

某个区段最多允许出多少张;

某个区段最少允许出多少张;

某个站点上车的最多多少张。

当用户订票时,把用户指定的区段和这 3 种配置条件进行比较,3 个条件都满足,则可以出票。不满足,则认为无票了。下面举个例子:

ABCDEFG,这是所有站点。座位总配额是 100,假设 B 站点上车,E 站下车的人比较少,那我们就可以设定 BE 这个区段最多只能出 10 张票。所以,只要是用户的订票是在这个区段内的,就最多出 10 张。再比如,一列车次,总共 100 个座位配额,希望全程票最少满足 80 张,那我们只要给 AG 这个区段设定最少 80 张。那任何订票请求,如果是子区间的,就不能超过 100-80,即 20 张。这两种条件必须同时满足,才允许出票。

但是,不管如何做配额和限额,我们总是针对某个车次进行配置,这些配置只是车次内部售票时的一些额外的判断条件(业务规则),不影响车次模型的核心地位和对外暴露的功能。所以,为了本文讨论的清楚起见,我后续的讨论都不涉及配额和限额的问题,而是认为任何区段都可以享受火车最大的物理座位数。

并且,为了讨论问题方便,我们减少一些站点来讨论。假设某个车次有 A,B,C,D 四个站点。那 001 这个人购买了 A,B 这个区间,系统会分配给 001 一个座位 x;但是因为 001 坐到 B 站点后会下车,所以相当于 x 这个座位又空出来了,也就是说,从 B 站点开始,系统又可以认为 x 这个座位是可用的。所以,我们得出结论:同一个座位,其实可以同时出售 AB,BC 这两张票。通过这个简单的分析,我们知道,一列火车虽然只有有限的座位数,比如 1000 个座位。但可以卖出的票远远不止 1000 个。

还是以 A,B,C,D 四个站点为例,假如火车总共有 1000 个座位,那 AB 可以卖 1000 张,BC 也可以卖 1000 张,同样,CD 也可以卖 1000 张。也就是说,理论上最多可以卖出 3000 张票。但是如果换一种卖法,所有人都是买 ABCD 的票,也就是说所有的票都是经过所有站点的,那就是最多只能卖出 1000 张票了。而实际的场景,一定是介于 1000 到 3000 之间。然后实际的 G71 这个车次,有 17 个站,那到底可以卖出多少个票,大家应该可以算了吧。理论上这 17 个站中的任意两个站点之间所形成的线段,都可以出售为一张票。我数学不好,算不太清楚,麻烦有数学好的人帮我算算,呵呵。

通过上面的分析,我们知道一张票的本质是某个车次的某一段区间(一条线段),这个区间包含了若干个站点。然后我们还发现,只要区间不重叠,那座位就不会发生竞争,可以被回收利用,也就是说,可以同时预先出售。

另外,经过更深入的分析,我们还发现区间有 4 种关系:

不重叠;

部分重叠;

完全重叠;

覆盖。

不重叠的情况我们已经讨论过了,而覆盖也是重叠的一种。所以我们发现如果重叠,比如有两个区间发生重叠,那重叠部分的区间(可能夸一个或多个站点)是在争抢座位的。因为假设一列火车有 100 个座位,那每个原子区间(两个相邻站点的连线),最多允许重叠 99 次。

所以,经过上面的分析,我们知道了一个车次能够出售一张车票的核心业务规则是什么?就是:这张车票所包含的每个原子区间的重叠次数加 1 都不能超过车次的总座位数,实际上重叠次数 +1 也可以理解为线段的厚度。

3、模型设计

上面我分析了一下票的本质是什么。那接下来我们再来看看怎么设计模型,来快速实现购票的需求,重点是怎么设计商品聚合以及减库存的逻辑。

传统电商的思路

如果按照普通电商的思路,把票(站点区间)设计为商品(聚合根),然后为票设计库存数量。我个人觉得是很糟糕的。因为一方面这种聚合根非常多(上面的 G71 就有 408 个);另一方面,即便枚举出来了,一次购票也一定会影响非常多其他聚合根的库存数量(只要被部分或全部重叠的区间都受影响)。这样的一次订单处理的复杂度是难以评估的。而且这么多聚合根的更新要在一个事务里,这不是为难数据库吗?而且,这种设计必然带来大量的事务的并发冲突,很可能导致数据库死锁。

总之,我认为这种是典型的由于领域模型的设计错误,导致并发冲突高、数据持久化落地困难。或者如果要解决并发问题,只能排队单线程处理,但是仍然解决不了要在一个事务里修改大量聚合根的尴尬局面。

听说 12306 是采用了 Pivotal Gemfire 这种高大上的内存数据库,我对这个不太了解。我不可想象要是不使用内存数据库,他们要怎么实现车次内的票之间的数据强一致性(就是保证所有出售的票都是符合上面讨论的业务规则的)?所以,这种设计,我个人认为是思维定势了,把火车票看成是普通电商的商品来看待。所以,我们有时做设计又要依赖于经验,又要不能被以往经验所束缚,真的不容易,关键还是要根据具体的业务场景多多深入分析,尽量分析抽象出问题的本质出来,这样才能对症下药。那是否有其他的设计思路呢?

我的思路

1、聚合设计

通过上面的分析我们知道,其实任何一次购票都是针对某个车次的,我认为车次是负责处理订票的聚合根。我们看看一个车次包含了哪些信息?一个车次包括了:

车次名称,如 G71;

座位数,实际座位数会分类型,比如商务座 20 个,一等座 200 个;二等座 500 个;我们这里为了简化问题,可以暂时忽略类型,我认为这个类型不影响核心的模型的设计决策。需要格外注意的是:这里的座位数不要理解为真实的物理座位数,很有可能比真实的座位数要少。因为我们不可能把一个车次的所有座位都在网上通过 12306 来出售,而是只出售一部分,具体出售多少,要由工作人员人工指定。

经过的站点信息(包括站点的 ID、站点名称等),注意:车次还会记录这些站点之间的顺序关系;

出发时间;看过 GRASP 九大模式中的信息专家模式的同学应该知道,将职责分配给拥有执行该职责所需信息的类。

我们这个场景,车次具有一次出票的所有信息,所以我们应该把出票的职责交给车次。另外学过 DDD 的同学应该知道,聚合设计有一个原则,就是:聚合内强一致性,聚合之间最终一致性。经过上面的分析,我们知道要产生一张票,其实要影响很多和这个票对应的线段相交的其他票的可用数量。因为所有的站点信息都在车次聚合内部,所以车次聚合内部自然可以维护所有的原子区间,以及每个原子区间的可用票数(相当于是库存数)。当一个原子区间的可用票数为 0 的时候,意味着火车针对这个区间的票已经卖完了。所以,我们完全可以让车次这个聚合根来保证出票时对所有原子区间的可用票数的更新的强一致性。对于车次聚合根来说,这很简单,因为只是几次简单的内存 *** 作而已,耗时可以忽略。一列火车假如有 ABCD 四个站点,那原子区间就是 3 个。对于 G71,则是 16 个。

2、怎么判断是否能出票?

基于上面的聚合设计,出票时扣减库存的逻辑是:

根据订单信息,拿到出发地和目的地,然后获取这段区间里的所有的原子区间。然后尝试将每个原子区间的可用票数减 1,如果所有的原子区间都够减,则购票成功;否则购票失败,提示用户该票已经卖完了。是不是很简单呢?知道了出票的逻辑,那退票的逻辑也就很简单了,就是把这个票的所有原子区间的可用票数加 1 就 OK 了。如果我们从线段的厚度的角度去考虑,那出票时,每个原子区间的厚度就是 +1,退票时就是减一。就是相反的 *** 作,但本质是一样的。

所以,通过这样的思路,我们将一次订票的处理控制在了一个聚合根里,用聚合根内的强一致性的特性保证了订票处理的强一致性,同时也保证了性能,免去了并发冲突的可能性。传统电商那种把票单做类似商品的核心聚合根的设计,我当时第一眼看到就觉得不妥。因为这违背了 DDD 强调的强一致性应该由聚合根来保证、聚合根之间的最终一致性通过 Saga 来保证的原则。

还有一个很重要的概念我想说一下我的看法,就是座位和区间的关系。因为有些朋友和我讲,考虑座位号的问题,虽然都能减 1,座位号也必须是同一个。我觉得座位是全局共享的,和区段无关(也许我的理解完全有误,请大家指正)。座位是一个物理概念,一个用户成功购买了一张票后,座位就会少一个,一张票唯一对应一个座位,但是一个座位有可能会对应多张票;而区间是一个逻辑上的概念,区间的作用有两个:1)表示票的出发地和目的地;2)记录票的可用数额。如果区间能连通(即该区间内的每个原子区间的可用数额都大于 0),则表示允许拥有一个座位。所以,我觉得座位和票(区间)是两个维度的概念。

3、如何为票分配座位?

我觉得车次聚合根内部应该维护所有该车次已经售出的票,已经出售的票的的本质是区间和座位的对应关系。系统处理订票时,用户提交过来的是一段区间。所以,系统应该做两个事情:

先根据区间去判断是否有可用的座位;

如果有可用座位,则再通过算法去选择一个可用的座位;

当得到一个可用座位后,就可以生成一张票了,然后保存这个票到车次聚合根内部即可。下面举个例子:

假设现在的情况是座位有 3 个,站点有 4 个:

座位:1,2,3

站点:abcd

票的卖法 1:

票 1:ab,1

票 2:bc,2

票 3:cd,3

票 4:ac,3

票 5:bd,1

这种选座位的方式应该比较高效,因为总是优先从座位池里去拿座位,只有在万不得已的时候才会去回收可重复利用的票。

上面的 4,5 两个票,就是考虑回收利用的结果。

票的卖法 2:

票 1:ab,1

票 2:bc,1

票 3:cd,1

票 4:ac,2

票 5:bd,3

这种选座位的方式应该相对低效,因为总是优先会去扫描是否有可回收的座位,而扫描相对直接从座位池里去拿票总是成本相对要高的。

上面的 2,3 两个票,就是考虑回收利用的结果。

但是,优先从座位池里拿票的算法有缺陷,就是会出现虽然第一步判断认为有可用的座位,但是这个座位可能不是全程都是同一个座位。举例:

假设现在的情况是座位有 3 个,站点有 4 个:

座位:1,2,3

站点:abcd

票的卖法 3:

票 1:ab,1

票 2:bc,2

票 3:cd,3

现在如果有人要买 ad 的票,那可用的座位有 2,或者 3。但是无论是 2 还是 3,都要这个乘客中途换车位。比如卖给他座位 2,那他 ab 是坐的座位 2,但是 bc 的时候要坐座位 1 的。否则拿票 2 的那个人上车时,发现座位 2 已经有人了。而通过优先回收利用的算法,是没这个问题的。

所以,从上面的分析我们也知道选座位的算法该怎么写了,就是采用优先回收利用座位的算法。我认为不管我们这里怎么设计算法,都不影响大局,因为这一切都只发生在车次聚合根内部,这就是预先设计好聚合根,明确出票职责在哪个对象上的好处。

4、模型分析总结

我认为票不是核心聚合根,票只是一次出票的结果,一个凭证而已。

12306 真正的核心聚合根应该是车次,车次具有出票的职责,一次出票具体做的事情有:

判断是否可出票;

选择可用的座位;

更新一次出票时所有原子区间的可用票数,用于判断下次是否能出票;

维护所有已售出的票,用于为选择可用座位提供依据。

通过这样的模型设计,我们可以确保一次出票处理只会在一个车次聚合根内进行。这样的好处是:

不需要依赖数据库事务就能实现数据修改的强一致性,因为所有修改只在一个聚合根内发生;

在保证数据强一致性的同时还能提供很高的并发处理能力,具体设计见下面的架构设计。

4、架构设计

我觉得 12306 这样的业务场景,非常适合使用 CQRS 架构;因为首先它是一个查多写少、但是写的业务逻辑非常复杂的系统。所以,非常适合做架构层面的读写分离,即采用 CQRS 架构。而且应该使用数据存储也分离的 CQRS。这样 CQ 两端才可以完全不需要顾及对方的问题,各自优化自己的问题即可。我们可以在 C 端使用 DDD 领域模型的思路,用良好设计的领域模型实现复杂的业务规则和业务逻辑。而 Q 端则使用分布式缓存方案,实现可伸缩的查询能力。

1、订票的实现思路

同时借助像 ENode 这样的框架,我们可以实现 in-memory + Event Sourcing 的架构。Event Sourcing 技术,可以让领域模型的所有状态修改的持久化统一起来,本来要用 ORM 的方式保存聚合根最新状态的,现在只需要简单的通用的方式保存一个事件即可(一次订票只涉及一个车次聚合根的修改,修改只产生一个事件,只需要持久化一个事件(一个 JSON 串)即可,保证了高性能,无须依赖事务,而且通过 ENode 可以解决并发问题)。

我们只要保存了聚合根每次变化的事件(事件的结构怎么设计,本文不做多的介绍了,大家可以思考下),就相当于保存了聚合根的最新状态。而正是由于 Event Sourcing 技术的引入,让我们的模型可以一直存活在内存中,即可以使用 in-memory 技术。不要小看 in-memory 技术,in-memory 技术在某些方面对提高命令的处理性能非常有帮助。

比如就以我们车次聚合根处理出票的逻辑,假设某个车次有大量的命令发送到分布式消息队列,然后有一台机器订阅了这个队列的消息,然后这台机器处理这个车次的订票命令时,由于这个车次聚合根一直在内存,所以就省去了每次要去数据库取出聚合根的步骤,相当于少了一次数据库 IO。

这样的好处是,因为一个车次能够真正出售的票是有限的,因为座位就那么几个,比如就 1000 个座位,估计一般正常情况也就出个 2000 个左右的票吧(具体能出多少张票要取决于区间的相交程度,上面分析过)。也就是说,这个聚合根只会产生 2000 个事件,也就是说只会有 2000 个订票命令的处理是会产生事件,并持久化事件;而其余的大量命令,因为车次在内存计算后发现没有余票了,就不会做任何修改,也不会产生领域事件,这样就可以直接处理下一个订票命令了。这样就可以大大提高处理订票命令的性能。

另外一个问题我觉得还需要提一下,因为用户订票成功后,还需要付款。但用户有可能不去付款或者没有在规定的时间内完成付款。那这种情况下,系统会自动释放该用户之前订购的票。所以基于这样的需求,我们在业务上需要支持业务级别的 2pc。即先预扣库存,也就是先占住这张票一定时间(比如 15 分钟),然后付款成功后再真实给你这张票,系统做真正的库存修改。

通过这样的预扣处理,可以保证不会出现超卖的情况。这个思路其实和传统电商比如淘宝这样的系统类似,我就不多展开了,我之前写的 Conference 案例也是这样的思路,大家有兴趣的可以去看一下我之前录制的视频。

2、查询余票的实现思路

我觉得余票的查询的实现相对简单。虽然对于 12306 来说,查询的请求占了 80%,提交订单的请求只占 20%。但查询由于对数据没有修改,所以我们完全可以使用分布式缓存来实现。我们只需要精心设计好缓存的 key 即可;缓存 key 的多少要看成本,如果所有可能的查询都设计对应的 key,那时间复杂度为 1,查询性能自然高;但代价也大,因为 key 多了。如果想 key 少一点,那查询的复杂度自然要上去一点。所以缓存设计无非就是空间换时间的思路。然后,缓存的更新无非就是:自动失效、定时更新、主动通知 3 种。通过 CQRS 架构,由于 CQ 两端是事件驱动的,当 C 端有任何状态变化,都会产生对应的事件去通知 Q 端,所以我们几乎可以做到 Q 端的准实时更新。

同时由于 CQ 两端的完全解耦,Q 端我们可以设计多种存储,如数据库和缓存(Redis 等);数据库用于线下维护关系型数据,缓存用户实时查询。数据库和缓存的更新速度相互不受影响,因为是并行的。对同一个事件,可以 10 台机器负责更新缓存,100 台机器负责更新数据库。即便数据库的更新很慢,也不会影响缓存的更新进度。这就是 CQRS 架构的好处,CQ 的架构完全不同,且我们随时可以重建一种新的 Q 端存储。不知道大家体会到了没有?

关于缓存 key 的设计,我觉得主要从查询余票时传递的信息来考虑。12306 的关键查询是:出发地、目的地、出发日期三个信息。我觉得有两种 key 的设计思路:

直接设计了该查询条件的 key,然后快速拿到车次信息,直接返回;这种方式就是要求我们系统已经枚举了所有车次的所有可能出现的票(区间)的缓存 key,相信你一定知道这样的 key 是非常多的。

不是枚举所有区间,而是把每个车次的每个原子区间(相邻的两个站点所连成的直线)的可用票数作为 key。这样,key 就非常少了,因为车次假如有 10000 个,然后每个车次平均 15 个区间,那也就 15W 个 key 而已。当我们要查询时,只需要把用户输入的出发地和目的地之间的所有原子区间的可用票数都查出来,然后比较出最小可用票数的那个原子区间。则这个原子区间的可用票数就是用户输入的区间的可用票数了。当然,到这里我提到考虑出发日期。我认为出发日期是用来决定具体是哪个车次聚合根的。同一个车次,不同的日期,对应的聚合根实例是不同的,即便是同一天,也可能有多个车次聚合根,因为有些车次一天有几班的,比如上午 9 点发车的一班,下午 3 点发车的一般。所以,我们也只要把日期也作为缓存 key 的一部分即可。

总结

本文完全是凭自己对 12306 这个网站的核心业务的简单思考而得到的一些设计结果。如果真正的 DDD 领域建模,更多的是要和业务一线的工作人员、领域专家进行深入沟通,才能更深入的了解该领域内的业务知识,从而才能设计出更靠谱的领域模型和架构设计。

非常惭愧,我没有上 12306 买过火车票,家离的比较近,就算要买也是家人给我买:)所以,本文所分享的内容难免是纸上谈兵。但我觉得 12306 这个系统的业务确实比传统的电商系统要复杂,且并发又这么高。所以,我觉得这个系统真的很值得大家重视模型的设计,而不只是只关注技术层面的实现。

数据库系统解决数据处理的需要而发展起来的一种较为理想的数据处理的核心机构。

数据库系统对数据的存储的问题得到了很好的解决。计算机的高速处理能力和大容量存储器提供了实现数据管理自动化的条件。

数据库系统是为适应数据处理的需要而发展起来的一种较为理想的数据处理系统,也是一个为实际可运行的存储、维护和应用系统提供数据的软件系统,是存储介质 、处理对象和管理系统的集合体。

扩展资料:

数据库系统的特点:

1、数据的结构化,数据的共享性好,数据的独立性好,数据存储粒度小,数据管理系统,为用户提供了友好的接口。

2、数据库系统的核心和基础,是数据模型,现有的数据库系统均是基于某种数据模型的。

3、数据库系统的核心是数据库管理系统。

4、数据库系统一般由数据库、数据库管理系统(DBMS)、应用系统、数据库管理员和用户构成。DBMS是数据库系统的基础和核心。

数据库系统的基本要求:

1、能够保证数据的独立性。数据和程序相互独立有利于加快软件开发速度,节省开发费用。

2、冗余数据少,数据共享程度高。

3、系统的用户接口简单,用户容易掌握,使用方便。

4、能够确保系统运行可靠,出现故障时能迅速排除;能够保护数据不受非受权者访问或破坏;能够防止错误数据的产生,一旦产生也能及时发现。

参考资料来源:百度百科-数据库系统

1如果是同一服务器:

假设 另一个数据库名为'数据库B',并且当然用户对两个数据库都有对应权限

select into [table] from [数据库B][所有者][表名]

2如果不在同一服务器

select into [table] from opendatasource('sqloledb','data source=服务器名或IP;user id=登陆名;password=口令')数据库B表名

在执行的时候,要注意两个表的标示要写完整:数据库名用户名表名

例如:

insert into db1yonghu1bm

select from db2yonghu2bm

db1和db2是数据库名,yonghu1和yonghu2是数据库的用户名,bm是表名。

“12306软件买票显示IPC”,恕不能完全正确的回答你。因为本人在选择火车出行的时候,也都是选择12306官方app购票,但是从来也没有出现过显示“IPC”的现象。针对你这个问题,我刚才也特地查询了很多信息,均没有搜到与“12306软件买票显示IPC”相关的任何信息。但是有一些关于“IPC”的解读,以下观点仅代表个人猜测。

IPC(Inter-Process Communication,进程间通信)。主要适用于计算机领域,即 CPU 每一时钟周期内所执行的指令多少) IPC代表了一款处理器的设计架构,一旦该处理器设计完成之后,IPC值就不会再改变了。在这里,IPC值的高低起到了决定性的作用,而频率似乎不再高于一切。CPU性能=IPC(CPU每一时钟周期内所执行的指令多少) 频率(MHz时钟速度),也就是说,影响CPU性能的是频率和IPC在影响CPU性能的。

所以,据本人猜测,如果你的12306账号是正常的话,且在之前有正常购票的记录,那么很有可能是你手机或电脑的网络出现了问题,或者手机、电脑CPU等硬件出现了问题,你可以初步尝试着退出再重新登录12306账号,或者重启下网络,或者把手机、电脑关机重启后,再重新打开12306软件,尝试能否恢复正常。

恕本人不是计算机软件专业,也没有经历过这种现象,所以对于这个问题问题不能正确解读,以上说法也纯属个人猜测,如果能瞎猫碰上死耗子般的帮到了你,我将感觉非常荣幸,如果无效请直接忽略,最后愿你能顺利的买到目的地的车票。

现在的出行是越来越方便,但是火车依旧是我们大家主流的出行交通工具,那么在购票这一块的话,其实也是变化很大的,从之前的线下购票,但现在的网络购票,而这其中12306就是一个非常重要的购票渠道,那么下面和大家一起来说一说12306显示“IPC”的意思。

12306显示“IPC”究竟是什么意思,对于用户来说有何作用

在12306中购票的时候,我也是经常购买火车票的用户了,但是很几乎从来没有遇到过出现“IPC”的标志,可能对于用户来说,确实有一些太过于专业的符号了,但是我们经过查阅大量的资料宣示,其实这个“IPC”的标志就是在用户购买火车票的时候,如果连续的进行查票或者购票的话,那么是需要等待系统进行处理。

而有的时候会遇到一些比较紧急的事情,但是由于在软件的系统库存储不足,所以会导致一些用户的查询请求或者购买请求会出现一定的问题,从而导致12306的系统出现故障,在用户所使用的12306软件界面出现“IPC”的样式。

其实现在的 科技 也已非常的发达,我们作为用户在购票的时候,很少会出现这样的问题,对于在使用12306购票的过程中,我们可能会遇到一些404页面的崩溃情况发生,但是一般情况下,我们只需要进行删除后台,重新启动就可以恢复正常。

在购票的时候,遇到“IPC”或者404等现象的时候,应该如何正确处理

如果说用户们在购票的时候,出现“IPC”或者404等界面奔溃的情况,我们作为用户又应该如何进行处理,其实方法也是非常简单的。

其一:我们直接的对这款软件的后台进行删除清理,然后在重新启动。这也是目前最为简单的一种方法,可以说能够解决大多数的问题。

其二:在使用12306软件购票的时候,我们需要错过用户购票的高峰期,比如说一些节假日前后都是用户购票的高峰期,我们都是需要进行错过的,这样也是能够有效的避免软件界面崩溃的情况出现。

从来没有出现过IPC,但是出现过“503”或者403等,这种情况发生后,即使我们卸载、重新安装都不能解决,一般出现在了乘客订票后无法完成付款的时候。

除了403之外,还出现过503故障问题,询问客服,客服告知就是系统问题,可以通过微信、携程等第三方网站进行购票。其实,12306出现故障的因素很多,我们猜想的是,如果出现了故障,基本上是因为,因为用户量过大,导致了抢票的人数过多导致的服务器的崩溃,遇到这种情况,只能等12306自行修复了。

我们再回到原题,所谓的IPC,百度百科中的解释是:IPC(Inter-Process Communication)进程间通信,提供了各种进程间通信的方法。又称网络摄像机。因此,如果出现了IPC,很可能是系统出错了,日志报错了而已。

我们平常遇到12306问题的时候,还是建议直接在第三方平台进行购买,或者错开高峰期,因为这就是因为服务器不能承受大量数据导致的。

你确定出现的字是IPC?根据官方的解释IPC ( Instruction Per Clock, 即 CPU 每一时钟周期内所执行的指令多少) IPC代表了一款处理器的设计架构,一旦该处理器设计完成之后,IPC值就不会再改变了。

如果在12306软件上出现了IPC那就是代表着他表现出来的是他的处理器的架构设计?这完全牛头不对马嘴。除非有一种可能会出现这样的情况,而且还是不好的可能。

前面我们说道IPC代表的是处理器的设计架构,一般情况下稳定以后就不会再发生改变。如果在使用软件的过程中出现这种事,那只能代表你的手机或者是软件出现了问题。这时候就看是那些问题了。

如果是手机出现问题的话,那也就是说你不能正常的使用软件,会出现12306闪退、手机与12306不兼容等问题。 如果你用的是电脑,那么也会出现这种情况。

如果是软件出问题,那基本上你就不能进行购票服务,买不了票或者说是无法下单。 到底是哪个问题主要看你的使用的设备是什么反应。

其实目前来讲买票的方式有很多,很少用12306官方的软件进行购票。其实说实话,12306软件并不怎么好用,反而是第三方软件更让人满意。言归正传,对于问题而言,只需要针对问题进行解决就好了。删除软件重新下载,或者去维修设备。

一般情况下,很少见会出现这样的问题,从目前的情况来看,题主这也是第一次遇到啊。

    题主所说的问题,大概在2012年左右才会发生,当时12306铁路购票,刚刚上线,由于无法满足同时大量的查询、购票,导致12306订票系统瘫痪,提示“IPC"等软件调试信息,让用户等待。

    什么是IPC?

    简单来说,IPC是应用程序进程之间的通信机制,主要有信号量、消息队列、共享内存等,实现进程之间的通信。

    这里拿12306购票来说,火车票的数量是有限的,如果数据库不够优化,每次购票都要使用事务,会导致后续的查询排队,直接导致前端请求变慢,如果用户这时更快的去刷票,而不是等待请求处理完,会导致恶行循环。为了让事务尽快结束,或者干脆不用事务,那么就需要使用系统IPC等锁方案。

    12306已经很少再”瘫痪"

    我们发现,近些年来12306很少再瘫痪了,即便是春运等高峰期买票,也不会发生系统无法登陆,系统繁忙之类的错误,很大一部分原因是,12306将余票查询模块放到了阿里云,采用了阿里的技术应对大流量的网络购票。

    12306购票90%以上的流量来自于余票查询,主要采取的措施是:

    总之,12306订票系统经过多年的发展,已经非常完善,可以应对春运等这样大流量的订票,不会发生系统瘫痪等问题,这背后离不开阿里云技术的支持。

从来没有遇到过,可否提供ipc

就是软件的时候写进入的日志输出呗。很明显是报错了。

IPC备案 《互联网信息服务管理办法》指出互联网信息服务分为经营性和非经营性两类。国家对经营性互联网信息服务实行许可制度;对非经营性互联网信息服务实行备案制度。未取得许可或者未履行备案手续的,不得从事互联网信息服务。《非经营性互联网信息服务备案管理办法》于2005年3月20日起施行。办法指出在中华人民共和国境内提供非经营性互联网信息服务,应当依法履行备案手续。未经备案,不得在中华人民共和国境内从事非经营性互联网信息服务。

在购票的时候,遇到“IPC”或者404等现象的时候,应该如何正确处理

如果说用户们在购票的时候,出现“IPC”或者404等界面崩溃的情况,我们作为用户又应该如何进行处理,其实方法也是非常简单的。

其一:我们直接的对这款软件的后台进行删除清理,然后在重新启动。这也是目前最为简单的一种方法,可以说能够解决大多数的问题。

其二:在使用12306软件购票的时候,我们需要错过用户购票的高峰期,比如说一些节假日前后都是用户购票的高峰期,我们都是需要进行错过的,这样也是能够有效地避免软件界面崩溃的情况出现。

火车票我不清楚,但是机票的订票系统没法自己做,因为在线订票得需要连接中航信的数据库读取航班销售情况的数据,你没有接口是读取不了的

如果有这个接口(IBE原始接口)看需要做一个什么样类型的订票系统,是分销平台还是普通的网络销售,分销平台自己开发,少则3W,多则20W也是有可能

普通的直营网站售票系统从两三千元到十几万不等

以上就是关于海量数据库解决方案的内容简介(海量数据查询方案)全部的内容,包括:海量数据库解决方案的内容简介(海量数据查询方案)、不就是一个订票网站吗 12306 的核心模型设计思路究竟复杂在哪里、数据库系统要解决什么问题等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/sjk/10630288.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-10
下一篇 2023-05-10

发表评论

登录后才能评论

评论列表(0条)

保存