如何在RHEV平台中新建ISO存储域

如何在RHEV平台中新建ISO存储域,第1张

在RHEV3.3平台建立一个新的数据中心后,发现不能重复使用默认的ISO_DOMAIN,需要重新建立一个ISO存储域。通过了解相关文档,方法如下:

1、首先登陆RHEVM管理机服务器,在home目录下新建ISO文件夹,,并将该文件夹共享:

执行命令如下:

[root@localhost iso]# cd /home/ [root@localhost home]# ls exp lost+found nfs_rhev [root@localhost home]# mkdir ISO [root@localhost home]# chmod 777 ISO/ [root@localhost home]# ls exp ISO lost+found nfs_rhev [root@localhost home]# vi /etc/exports [root@localhost home]# [root@localhost home]# [root@localhost home]# exportfs -r [root@localhost home]# exportfs /var/lib/exports/iso 0.0.0.0/0.0.0.0 /home/nfs_rhev 0.0.0.0/0.0.0.0 /home/exp 0.0.0.0/0.0.0.0 /home/ISO 0.0.0.0/0.0.0.0

2、执行完毕后登陆管理平台,在平台中新建存储域:

3、添加完成后激活该ISO存储域,添加成功:

4、添加默认的驱动程序:在RHEVM上执行如下命令:

[root@localhost home]# engine-iso-uploader --iso-domain=ISO_DOMAIN_HB upload /usr/share/virtio-win/virtio-win.iso /usr/share/virtio-win/virtio-win_x86.vfd /usr/share/virtio-win/virtio-win_amd64.vfd /usr/share/rhev-guest-tools-iso/rhev-tools-setup.iso Please provide the REST API password for the admin@internal oVirt Engine user (CTRL+D to abort): Uploading, please wait... INFO: Start uploading /usr/share/virtio-win/virtio-win.iso INFO: /usr/share/virtio-win/virtio-win.iso uploaded successfully INFO: Start uploading /usr/share/virtio-win/virtio-win_x86.vfd INFO: /usr/share/virtio-win/virtio-win_x86.vfd uploaded successfully INFO: Start uploading /usr/share/virtio-win/virtio-win_amd64.vfd INFO: /usr/share/virtio-win/virtio-win_amd64.vfd uploaded successfully INFO: Start uploading /usr/share/rhev-guest-tools-iso/rhev-tools-setup.iso INFO: /usr/share/rhev-guest-tools-iso/rhev-tools-setup.iso uploaded successfully

5、添加成功后,新建主机即可发现已经加载了相关驱动程序。

据初步分析,红帽ovirt超融合目前的架构应该是要和raid卡配合用才能达到理想的效果。ovirt超融合支持raid卡的JBOD(直通模式)、raid5、raid6、raid10模式,针对每一种模式ovirt在gluster这个层面做了性能优化(具体细节还不得知),这也是为什么ovirt超融合部署时要正确的选择对应硬件raid卡配置的模式。

ovirt超融合支持全SSD、全HDD、HDD+SSD缓存这三种存储配置模式,用raid卡将所有磁盘组成一个盘暴露给gluster创建成存储卷进行管理,当然也可以建多个raid实现三种模式的共存,原版默认情况下是只能启用其中一种(我们先遵循这种方式),ovirt中是在一个盘上创建多个存储卷。

ovirt超融合的思路应该是尽可能用raid卡去管理磁盘、用gluster去管理节点,raid卡负责本机节点上的磁盘层面上的高可用,gluster利用副本负责集群中本节点的高可用,如此一来就简单多了:

1、我们重点关心节点而不是每个磁盘,降低管理磁盘的复杂度,扩容盘、替换盘这些让raid卡去干(要求raid卡要支持在线扩容,即使raid卡支持扩容还需要ovirt做对应的工作,目前是不支持的);

2、不再为磁盘个数纠结,只需要能够满足做raid的数量要求即可(当然要兼顾性能需求),盘数灵活;

3、数据盘可以是单块直通、做raid0或多块做raid5、6、10,系统盘可以是单块直通、做raid0或用两块做raid1,缓存盘可以是单块直通、做raid0或两块做raid1,根据这种情况我们制定几个推荐配置即可,比如安全要求高的就系统盘、缓存盘都做raid1,普通测试场景就可以单盘不做raid(不带raid卡的机器也可以用);

4、ovirt超融合gluster虽然是三副本,但有一个副本是起仲裁作用,几乎不占空间,所以在空间占用上是相当于两副本(另外现在支持压缩去重功能,存储空间的问题能够得到改善);

5、目前我们还是要先按官方推荐,3节点起步,3节点扩展;

6、关于磁盘状态监测我们通过raid卡的接口来做,没有raid卡则不支持此功能。

总体来说就是磁盘管理交给raid卡,gluster集群负责节点的高可用。

关于raid卡和JBOD:

有多种解释和理解,我总结了下:

1、JBOD类似于raid0,可以将多块盘组成一个,但是是顺序写入(一块盘写满写另一块),而不是raid0的分布式写入,所以性能上不如raid0;

2、某些raid卡中,JBOD就代表直通模式,可以每块磁盘都配成JBOD直通使用,也可以多块磁盘配成一个大盘直通使用。lsi的卡是这样,但有些oem它的厂商写的是non-raid,例如dell服务器。non-raid也代表直通模式。一般JBOD和其它raid模式不能同时用。

3、某些raid卡中,hba模式就是直通模式,adaptec的卡是这样,oem它的厂商例如dell也是这样叫的,另外adaptec有的卡是支持raid和hba直通同时用的。

4、raid卡厂商主要有lsi和Adaptec(被pmc收购了)两家,大部分服务器厂家都是oem它们的卡或用的它们的芯片,包括超微和浪潮。

oVirt 3.4 oVirt 3.5 oVirt 3.6 一个可以连接到 ...针对于运行在节点主机上的虚拟主机:每个虚拟主机最小...添加存储设备将在安装完成后,在Web管理界面..


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/bake/11252146.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-14
下一篇 2023-05-14

发表评论

登录后才能评论

评论列表(0条)

保存