CDH6.3配置HDFS高可用,多NameNode

CDH6.3配置HDFS高可用,多NameNode,第1张

搭建HDFS的NameNode集群, 在单个NameNode宕机或繁忙时, 可以做故障转移和压力平摊; 配置的过程比较复杂, 网上的可查资料也很少

开启了高可用, 不需要SecondaryNameNode, 该角色并不具备故障转移的功能, 可以理解为一个备份点, 解读Secondary NameNode的功能 ;

在只有一个NameNode的情况下, 必须配置SecondaryNameNode; 但多个NameNode的时候, 如果没删除会报错校验不通过, 这里先忽略不理

建议NameNode进行一次格式化, DataNode的数据目录进行清空, 生产环境慎重 *** 作 重启的时候DataNode放在最后执行, 确保所有的节点都是正常的, 通过Hadoop的UI可以查看准确的状态(9870端口); 如果在日志种出现如下报错, Block pool ID needed, but service not yet registered with NN
可尝试在每台DataNode将错误的文件删掉(/dfs/dn/current), 日志中有详细的打印, 删除之后节点状态恢复正常

执行hdfs的增删改查命令做测试, 如cat,ls,put,mkdir等, 通过即为正常

NameNode和Failover Controller所在的机器要一一对应, NameNode还要执行zkfc命令进行初始化, 在运行Controller要开启故障转移, 并要确保初始化Zk的命令
去NameNode的机器执行离开安全的 *** 作

/var/run的权限过大, 把/var/run/hdfs-sockets目录删掉或重新授权

在不开启高可用的时候, 必须配置SecondaryNameNode

官方NameNode高可用配置说明
解读Secondary NameNode的功能
Cannot find any valid remote NN to service request

zookeeper宕机后,因为消费者会缓存提供者的信息,所以应用不会有问题。但是,此时提供者和消费者都无法重连zookeeper,因为dubbo貌似配置的zkclient不会重连zookeeper,所以一旦重启一台服务提供者,那么这台就从服务消费者的缓存中消失了,此时服务消费者又连不上zookeeper,所以如果同时重启,消费者就没有提供者可用了,所以只能重启一台提供者后,再重启一个消费者,交错重启。

1、配置文件同步

2、主从切换

3、分布式队列

4、分布式锁

Zookeeper 作为一个分布式的服务框架,主要用来解决分布式集群中应用系统的一致性问题,它能提供基于类似于文件系统的目录节点树方式的数据存储,但是 Zookeeper 并不是用来专门存储数据的,它的作用主要是用来维护和监控你存储的数据的状态变化。

通过监控这些数据状态的变化,从而可以达到基于数据的集群管理,后面将会详细介绍 Zookeeper 能够解决的一些典型问题,这里先介绍一下,Zookeeper 的 *** 作接口和简单使用示例。

常用接口列表

客户端要连接 Zookeeper 服务器可以通过创建 orgapachezookeeper ZooKeeper 的一个实例对象,然后调用这个类提供的接口来和服务器交互。
前面说了 ZooKeeper 主要是用来维护和监控一个目录节点树中存储的数据的状态,所有我们能够 *** 作 ZooKeeper 的也和 *** 作目录节点树大体一样,如创建一个目录节点,给某个目录节点设置数据,获取某个目录节点的所有子目录节点,给某个目录节点设置权限和监控这个目录节点的状态变化。

读大学的时候我们就从数据结构课本中就知道数组和链表的区别和优缺点。
假设有如下数据:
数组A=[1,2,3,4,5,6,7,8,9,10],
链表L=[1->2->4->6->8->10]。
数组A中所有的元素都遵循一个全局的规范,即根据地址(对应小标索引)顺序而形成的一个集合,由于是全局的规范那么从整体全局角度很容易找到其中每个元素(从感觉上来说就是有一种全局的知识)。
而链表L中每个元素都只关注前面是谁后面是谁(局部知识),所以没找一个元素必须从头索引起来。

带有全局知识的集合便于被外界使用但是维护成本高。比如你像4后面添加一个元素12必须把后面的元素依次往后移动(维持原来的集合规范)。
带有局部知识的集合不便于外界找到内部元素但是维护成本低,比如你在4后面添加一个元素5,4->5->6那么只需要修改4,5的箭头指向即可。

更形象的说,数组更像这样一个场景:老师依照次序给学生安排座位,这种场景下老师对每个学生坐在哪里了如指掌。链表更像是每个学生自发的,每个人只坐在自己喜欢的人后面。

在分布式系统中,数据经过路由存储到其中的一个节点。那么怎么路由呢?最简单的办法是求余,求余路由规则为:(data%nodecount)余数为0的数据放在编号为node0节点(依次,余数为1的数据放在编号为node1的节点,余数为2放在编号为node2节点)。
假设我们有如下数据 1 3 6 9 10 12 14 15,3台服务器node0,node1,node2。
根据(data% count(node))规则,数据分布如下:node1(3 6 9 12 15), node1(1 10),node2(14)。
假设某一时刻node2宕机了,那么1 3 6 9 10 12 14 15 应该的分布如下:
node1(1 3 9 15),node2(6 10 12)。而数据14 随着node2宕机在缓冲区中消息。
此时要移动的数据为(1 6 10 12)
由于其路由规则 (data % count(node))依赖于节点数量这个全局知识所以当全局规则变动的时候 原有整个系统需要重新编排维持原有条件。

为了解决由于节点宕机导致大部分数据都需要移动的话,需要把全局规则变成局部规则。像链表一样一个节点挂了只对相邻节点有影响。依此想法可以把所有节点组成一个链表(环状的链表) A->B->C->D ,当C挂掉的时候只需要把本应该落地到C节点的数据依顺序落地到下一个节点D就行。

一致性hash的均匀性:
由于外部数据不确定性经过hash()函数后数据分布可能非常不均匀, 假设有一串数据(1 3 5 7 8 10 11 15)经过hash(data%(2)) 之后,大部分(1 3 5 7 11 15)数据 都分布在node1,只有(8 10)分布在node2上。
那么我们可以抽出一层逻辑节点,(1 3 5 7 8 10 11 15) ---> 数据与逻辑节点 对应 ---> 逻辑节点与物理节点对应。
为什么有了逻辑节点数据就会相对均匀呢?理由如下:
1逻辑节点数量一般比物理节点多比如32 个,比如(1 3 5 7 8 10 11 15 32 33 35)%32 求余后会均匀分布在逻辑节点里。逻辑节点数量比较多分布会相对均匀和平滑。
2下一步我们保证逻辑节点与物理节点,我们可以动态维持逻辑节点与物理节点的映射。比如新加一台机器C4,此时发现某一些区间逻辑节点相对比较少(负责区域比较多,对应压力也会比较大),我们可以单一的把该C4拆分成几个逻辑节点把这几个逻辑节点插入进去(单独一一维护逻辑节点与物理节点的映射)。 由于每个节点负责一个区间,新加入节点只会分担相邻节点的数据(而对其他节点没有影响)。

这是我由局部和全局哲学反思 计算机中的设计。全局对整体更容易控制具有全局的知识,但是当变更时候要维持体系一致性需要的代价就高。


欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/yw/13328783.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-07-15
下一篇 2023-07-15

发表评论

登录后才能评论

评论列表(0条)

保存