你好,我在贴吧看到你提的同样问题,很高兴为你解答;
journaling只是redo
log,mongo会删除没用的log,不能做备份使用。对于备份,可以做定期(比如一天一次),这样数据不会全毁而只是恢复到前一天的版本,当然,数据就会丢很多了。
如果 Windows 7 拒绝连接 MongoDB,则可能是因为 MongoDB 服务未正确安装或配置。以下是一些解决方法:
1 首先,请确定 MongoDB 服务是否已经正确安装并正在运行。可以在服务管理器中搜索“MongoDB服务”,查看它是否正常启动并正在运行。
2 根据 MongoDB 的配置文件和网络设置,检查网络端口是否未被防火墙以及其他安全保护程序拦截。
3在 MongoDB 中,确保已配置权限和证书,以避免有任何权限问题。可以使用 MongoDB 自带的权限管理工具,创建相应的权限角色和证书,以确保安全性。
4确认使用的 MongoDB 版本是否与系统架构兼容,并使用正常的连接字符串和驱动程序来连接 MongoDB。可以参考官方 MongoDB 文档,查看相应的驱动程序信息和配置要求。
5如果无法自行解决,可以寻求专业的技术支持,以诊断问题并解决连接 MongoDB 的问题。
请注意,在任何更改配置之前都要提取数据管理备份,以便在解决问题后恢复数据库的状态。
高可用是MongoDB最核心的功能之一,相信很多同学也是因为这一特性才想深入了解它的。
那么本节就来说下MongoDB通过哪些方式来实现它的高可用,然后给予这些特性我们可以实现什么程度的高可用。
相信一旦提到高可用,浮现在大家脑海里会有如下几个问题:
那么,带着这些问题,我们继续看下去,看完大家应该会对这些问题有所了解了。
MongoDB高可用的基础是复制集群,复制集群本质来说就是一份数据存多份,保证一台机器挂掉了数据不会丢失。
一个副本集至少有3个节点组成:
从上面的节点类型可以看出,一个三节点的复制集群可能是PSS或者PSA结构。
PSA结构优点是节约成本,但是缺点是Primary挂掉之后,一些依赖 majority(多数)特性的写功能出问题,因此一般不建议使用。
复制集群确保数据一致性的核心设计是:
从上面4点我们可以得出 MongoDB 高可用的如下结论:
MongoDB宕机重启之后可以通过checkpoint快速恢复上一个60s之前的数据。
MongoDB最后一个checkpoint到宕机期间的数据可以通过Journal日志回放恢复。
Journal日志因为是100ms刷盘一次,因此至多会丢失100ms的数据
(这个可以通过WriteConcern的参数控制不丢失,只是性能会受影响,适合可靠性要求非常严格的场景)
如果在写数据开启了多数写,那么就算Primary宕机了也是至多丢失100ms数据(可避免,同上)。
分布式系统必须要面对的一个问题就是数据的一致性和高可用,针对这个问题有一个非常著名的理论就是CAP理论。
CAP理论的核心结论是:一个分布式系统最多只能同时满足一致性(Consistency)、可用性(Availability)和分区容错性(Partition tolerance)这三项中的两项。
关于CAP理论在网上有非常多的论述,这里也不赘述。
CAP理论提出了分布式系统必须面临的问题,但是我们也不可能因为这个问题就不用分布式系统。
因此,BASE(Basically Available基本可用、Soft state软状态、Eventually consistent最终一致性)理论被提出来了。
BASE理论是在一致性和可用性上的平衡,现在大部分分布式系统都是基于 BASE理论设计的,当然MongoDB也是遵循此理论的。
MongoDB为了保证可用性和分区容错性,采用的是副本集的方式,这种模式就必须要解决的一个问题就是怎样快速在系统启动和Primary发生异常时选取一个合适的主节点。
这里潜在着多个问题:
MongoDB的选举算法是基于Raft协议的改进,Raft协议将分布式集群里面的节点有3种状态:
leader:就是Primary节点,负责整个集群的写 *** 作。
candidate:候选者,在Primary节点挂掉之后,参与竞选的节点。只有选举期间才会存在,是个临时状态。
follower:就是Secondary节点,被动的从Primary节点拉取更新数据。
节点的状态变化是:正常情况下只有一个leader和多个flower,当leader挂掉了,那么flower里面就会有部分节点成为candidate参与竞选。
当某个candidate竞选成功之后就成为新的leader,而其他candidate回到flower状态。
具体状态机如下:
Raft协议中有两个核心RPC协议分别应用在选举阶段和正常阶段:
请求投票:选举阶段,candidate向其他节点发起请求,请求对方给自己投票。
追加条目:正常阶段,leader节点向follower节点发起请求,告诉对方有数据更新,同时作为心跳机制来向所有follower宣示自己的地位。
如果follower在一定时间内没有收到该请求就会启动新一轮的选举投票。
Raft协议规定了在选举阶段的投票规则:
一个节点,在一个选举周期(Term)内只能给一个candidate节点投赞成票,且先到先得。
只有在candidate节点的oplog领先或和自己相同时才投赞成票。
一轮完整的选举过程包含如下内容:
以上就是目前掌握的MongoDB的选举机制,其中有个问题暂时还未得到解答,就是最后一个,怎样确保选出的Primary是最合适的那一个
因为,从前面的协议来看,存在一个逻辑bug:由于follower转换成candidate是随机并行的,再加上先到先得的投票机制会导致选出一个次优的节点成为Primary。
针对Raft协议的这个问题,下来查询了一些资料,结论是:
Raft协议确实不保证选举出来的Primary节点是最优的。
MongoDB通过在选举成功,到新Primary即位之前,新增了一个 catchup(追赶) *** 作来解决。
即在节点获取投票胜利之后,会先检查其它节点是否有比自己更新的oplog,如果没有就直接即位,如果有就先把数据同步过来再即位。
MongoDB的主从同步机制是确保数据一致性和可靠性的重要机制。其同步的基础是oplog,类似MySQL的binlog,但是也有一些差异,oplog虽然叫log但并不是一个文件,而是一个集合(Collection)。
同时由于 oplog 的并行写入,存在尾部乱序和空洞现象,具体来说就是oplog里面的数据顺序可能是和实际数据顺序不一致,并且存在时间的不连续问题。
为了解决这个问题,MongoDB采用的是混合逻辑时钟(HLC)来解决的,HLC不止解决乱序和空洞问题,同时也是用来解决分布式系统上事务一致性的方案。
主从同步的本质实际上就是,Primary节点接收客户端请求,将更新 *** 作写到oplog,然后Secondary从同步源拉取oplog并本地回放,实现数据的同步。
同步源是指节点拉取oplog的源节点,这个节点不一定是Primary,链式复制模式下就可能是任何节点。
节点的同步源选取是一个非常复杂的过程,大致上来说是:
在同步源选取时有些特殊情况:
用户可以为节点指定同步源。
如果关闭链式复制,所有Secondary节点的同步源都是Primary节点。
如果从同步源拉取出错了,会被短期加入黑名单。
整个拉取和回放的逻辑非常复杂,这里根据自己的理解简化说明,如果想了解更多知识可以参考《MongoDB复制技术内幕》
节点有一个专门拉取oplog的线程,通过Exhausted cursor从同步源拉取 oplog。拉取下来之后,并不会执行回放执行,而是会将其丢到一个本地
的阻塞队列中。
然后有多个具体的执行线程,从阻塞队列中取出oplog并执行。
在取出过程中,同一个Collection的oplog一定会被同一个线程取出执行,线程会尽可能的合并连续的插入命令。
整个回放的执行过程,大致为先加锁,然后写本店oplog,然后将oplog刷盘(WAL机制),最后更新自己的最新opTime。
MongoDB全方位知识图谱
>
安装MongoDB数据库软件包可以通过apt-get实现。但我们修要安装官方提供MongoDB软件源。 修改apt的sourcelist文件,增加10gen的设置。 如果我的回答没能帮助您,请继续追问。
1备份恢复工具介绍:
mongoexport/mongoimport
mongodump/mongorestore
2备份工具区别在哪里?
mongoexport/mongoimport 导入/导出的是JSON格式或者CSV格式。
mongodump/mongorestore 导入/导出的是BSON格式。
JSON可读性强但体积较大,BSON则是二进制文件,体积小但对人类几乎没有可读性。
23
在一些mongodb版本之间,BSON格式可能会随版本不同而有所不同,所以不同版本之间用mongodump/mongorestore可能不会成功,具体要看版本之间的兼容性。
当无法使用BSON进行跨版本的数据迁移的时候,使用JSON格式即mongoexport/mongoimport是一个可选项。
跨版本的mongodump/mongorestore个人并不推荐,实在要做请先检查文档看两个版本是否兼容。
24
JSON虽然具有较好的跨版本通用性,但其只保留了数据部分,不保留索引,账户等其他基础信息。使用时应该注意。
25
mongoexport不支持普通导出单个db的所有的collection
mongodump支持普通导出单个db的所有的collection
3应用场景总结:
mongoexport/mongoimport
1、异构平台迁移 mysql <---> mongodb
2、同平台,跨大版本:mongodb2x ---> mongodb3x
mongodump/mongorestore
日常备份恢复时使用
mongoDB中的mongoexport工具可以把一个collection导出成JSON格式或CSV格式的文件。
你可以通过参数指定导出的数据项,也可以根据指定的条件导出数据。
mongodb中的mongoimport工具可以把一个特定格式文件中的内容导入到指定的collection中。
该工具可以导入JSON格式数据,也可以导入CSV格式数据。
如果要导入CSV格式文件中的内容,则需要通过--type参数指定导入格式。
注意: -headerline:指明第一行是列名,不需要导入
如果提供的js脚本是带insert的语句,需要登陆mongo shell,使用load()函数执行
mongoexport 带条件导出数据
>
以上就是关于求助,mongodb如何恢复误删数据全部的内容,包括:求助,mongodb如何恢复误删数据、window7拒绝连接MongoDB怎么办、【mongoDB】mongoDB的高可用、一致性等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)