Board logo

标题: 在 IBM AIX 上构建一个双节点的 IBM GPFS 集群准备 [打印本页]

作者: look_w    时间: 2018-1-8 10:27     标题: 在 IBM AIX 上构建一个双节点的 IBM GPFS 集群准备

概述本文的目的是为在 AIX 上安装和配置一个简单的双节点 GPFS 集群提供一个分步指南。下图提供了集群配置的可视化表示形式。
图 1. 集群配置的可视化表示形式GPFSGPFS 提供了一个真正的 “共享文件系统” 功能,具有卓越的性能和可伸缩性。GPFS 允许一组计算机通过一个公共的存储区域网络(SAN)基础架构、一个网络或混合连接类型来同时访问一组公共的文件数据。GPFS 提供了存储管理、信息生命周期管理工具和集中式管理,还允许从提供了一个全局命名空间的远程 GPFS 集群对文件系统进行共享访问。
GPFS 提供了数据分层、复制和其他许多高级特性。根据您的需要,配置可能很简单,也可能很复杂。
为 GPFS 准备好 AIX 环境我们假设,您已经为 GPFS 购买了必要的许可和软件。如果有可用的 GPFS 软件介质,那么可以将 GPFS 文件集复制到需要运行 GPFS 的每个 AIX 节点上。
在本文中,每个分区都是利用 AIX version 7.1, Technology Level 2, Service Pack 1 构建的:
1
2
# oslevel -s
7100-02-01-1245




每个 AIX 系统都被配置为有 7 个 SAN 磁盘。一个磁盘用于 AIX 操作系统(rootvg),其余 6 个磁盘供 GPFS 使用。
1
2
3
4
5
6
7
8
# lspv
hdisk0          00c334b6af00e77b                    rootvg          active
hdisk1          none                                none
hdisk2          none                                none
hdisk3          none                                none
hdisk4          none                                none
hdisk5          none                                none
hdisk6          none                                none




SAN 磁盘(将与 GPFS 一起使用)被分配到两个节点(也就是说,在这两个分区之间共享它们)。两个 AIX 分区都配置了虚拟光纤通道适配器,并通过 SAN 访问它们的共享存储,如下图所示。
图 2. 部署图使用 chdev 命令,对每个 hdisk 更改以下属性,如下表所示。
AIX 设备名称大小(以 GB 为单位)AIX 磁盘设备类型算法queue_depthreserve_policyhdisk050Hitachi MPIO Disk VSPround_robin32no_reservehdisk150Hitachi MPIO Disk VSPround_robin32no_reservehdisk250Hitachi MPIO Disk VSPround_robin32no_reservehdisk350Hitachi MPIO Disk VSPround_robin32no_reservehdisk450Hitachi MPIO Disk VSPround_robin32no_reservehdisk550Hitachi MPIO Disk VSPround_robin32no_reservehdisk650Hitachi MPIO Disk VSPround_robin32no_reserve
lsattr 命令可用于验证每个属性是否被设置为正确的值:
1
2
3
4
# lsattr -El hdisk6 –a queue_depth –q algorithm –a reserve_policy
algorithm       round_robin        Algorithm                        True
queue_depth     32                 Queue DEPTH                      True
reserve_policy  no_reserve         Reserve Policy                   True




下一步是配置 Secure Shell (SSH),使这两个节点可以互相通信。在构建 GPFS 集群时,必须确保集群中的节点拥有正确配置的 SSH,这样它们就不再需要进行密码身份验证。这需要配置 Rivest-Shamir-Adleman algorithm (RSA) 密钥对,以完成 root 用户 SSH 配置。需要在两个方向上对 GPFS 集群中的所有节点进行此配置。
GPFS 中的 mm 命令需要在身份验证后才能工作。如果没有正确配置密钥,这些命令每次都会提示您输入 root 密码,并且 GPFS 集群可能会失败。测试此配置的一个好方法是,确保 ssh 命令可以不受到 root 密码请求的阻碍,继续正常工作。
您可以参考在 AIX 上  :
可以在每个节点上使用以下命令,确认各节点都能够使用 SSH 进行彼此(无阻碍的)通信:
1
2
3
4
5
aixlpar1# ssh aixlpar1a date
aixlpar1# ssh aixlpar2a date
     
aixlpar2# ssh aixlpar2a date
aixlpar2# ssh aixlpar1a date




若 SSH 正常工作,则为 root 用户配置 WCOLL (Working Collective) 环境变量。例如,创建一个文本文件,以每行一个节点的形式列出所有节点:
1
2
3
# vi /usr/local/etc/gfps-nodes.list
aixlpar1a
aixlpar2a




将节点文件复制到集群中的所有节点。
将以下条目添加到 root 用户 .kshrc 文件。这将允许 root 用户在 GPFS 集群中的所有节点上使用 dsh 或  mmdsh 命令来执行命令。
1
export WCOLL=/usr/local/etc/gfps-nodes.list




应该修改 root 用户 PATH ,确保系统管理员可以使用所有 GPFS mm 命令。将以下条目添加到 root 用户的 .kshrc 文件。
1
export PATH=$PATH:/usr/sbin/acct:/usr/lpp/mmfs/bin




文件 /etc/hosts 在 GPFS 集群中的所有节点上都应该是一致的。每个节点的每个 IP 地址都必须被添加到每个集群节点上的 /etc/hosts。即使在每个节点上都配置了域名系统(DNS)的时候,也建议这样做。例如:
1
2
3
4
5
6
7
8
9
# GPFS_CLUSTER1 Cluster - Test

# # GPFS Admin network  - en0
10.1.5.110  aixlpar1a aixlpar1
10.1.5.120  aixlpar2a aixlpar2

# # GPFS Daemon - Private Network  – en1   
10.1.7.110   aixlpar1p
10.1.7.120   aixlpar2p






欢迎光临 电子技术论坛_中国专业的电子工程师学习交流社区-中电网技术论坛 (http://bbs.eccn.com/) Powered by Discuz! 7.0.0