首页 | 新闻 | 新品 | 文库 | 方案 | 视频 | 下载 | 商城 | 开发板 | 数据中心 | 座谈新版 | 培训 | 工具 | 博客 | 论坛 | 百科 | GEC | 活动 | 主题月 | 电子展
返回列表 回复 发帖

在 Linux 上使用基于内核的虚拟机虚拟化 IBM DB2 pureScale 特性-3

在 Linux 上使用基于内核的虚拟机虚拟化 IBM DB2 pureScale 特性-3

步骤 5. 部署 DB2 pureScale 实例DB2 pureScale 实例的布局由需要具有所需先决条件的虚拟机客户机的数量所决定。您可以根据 InfiniBand* 和 RDMA 通过 Ethernet 网络创建多个实例。这些实例由成员和耦合设施 (CF) 组成。对于分配给客户机虚拟机的 PCI-E 设备,每个客户机至少应有一个 InfiniBand或 RoCE 适配器以及一个 Fibre Channel 适配器或端口。注意,所有客户机都必须能够访问共享存储器。如需了解创建实例的详细信息,请参阅  Web 页面。
样例配置根据上述解决方案模块信息,我们的示例使用 3 个 System x3850 服务器,每个服务器有 4 个套接字,每个套接字有 8 个核心。每个物理服务器有 7 个 PCI 插槽。有了这 3 个服务器,我们就可以用它们的专用光纤通道和具有 RDMA 能力的适配器来创建 12 个 KVM 客户机。如  所示,我们用 12 个 KVM 客户机创建 4 个 DB2 pureScale 实例。其中两个实例基于 InfiniBand*,另外两个基于 RoCE。每个实例由两个成员和一个 CF 组成。
图 1. 高级基础架构硬件和软件
根据  所示的布局,用于配置 4 个 DB2 pureScale 实例的硬件如 表 3 所示。如需了解这些组件最新的支持版本,请参阅 。
表 3. 硬件配置硬件类型组件4 个套接字/32 个核心的 IBM System x3850 X5 服务器和 Intel Xeon X7560 处理器 - 7 个 PCI-E Gen2 插槽
vendor_id:GenuineIntel
模块名称:Intel(R) Xeon(R) CPU X7560 @ 2.27GHz
cpu MHz:1064.000
                       缓存大小:24576 KB
cpu 核心:8
标志:fpu vme de pse tsc msr pae mce cx8 apic mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good xtopologynonstop_tsc aperfmperf pni dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm dca sse4_1 sse4_2 x2apic popcnt lahf_lm ida epb dts tpr_shadow vnmi flexpriority ept vpid
- 2 个 ConnectX VPI PCIe 2.0 5GT/s - InfiniBand* QDR / 10Gb Ethernet
- 2 个 ConnectX EN 10GbE、PCIe 2.0 5GT/s
- 2 个基于 ISP2532 的 8Gb PCI Express HBA Fibre Channel
- 2 个集成的 1Gb Ethernet 端口Mellanox IS5030 QDR InfiniBand* 交换机36 个端口IBM 系统存储器 SAN40B-440 个端口IBM (BNT) 10Gb Ethernet - G8124 – RoCE24 个端口IBM Storwize® V7000- 18 个 300GB 10K RPM 2.5" SAS HDD
- 6 个 300GB 2.5" SAS SSD (eML)
根据 DB2 为 x86 和 x64 架构所支持的虚拟化环境,使用 图 4 所示的软件等级。
表 4. 最低软件配置软件版本*Red Hat Enterprise Linux 6.2 — 主机和客户机
  • 2.6.32-220.4.2.el6.x86_64 内核
  • 对于 InfiniBand* 支持,安装 Infiniband 支持包
  • 对于 RoCE,除了 InfiniBand 包,还需 Red Hat 的高性能网络包
KVM 虚拟机管理程序qemu-kvm-0.12.1.2-2.209.el6_2.4.x86_64带 pureScale 特性的 IBM DB210.1, FP1Mellanox 固件2.9.1200
共享存储为了通过各种存储级别的虚拟机隔离磁盘使用,创建  和  分别所示的 Mdisks 和池。通常,磁盘布局及其大小取决于数据库的大小和日志活动等因素。
图 2. 每个池的 Mdisks为简单起见,我们只使用一个共享磁盘来包含实例、数据库和日志数据,该磁盘全部位于 SSD 驱动器上。对于生产型数据库,布局可能所有不同。如需了解推荐的存储配置,请参阅 。
图 3. 分配给 Mdisks 的容量分配给虚拟机客户机的虚拟 CPU为了实现性能优化和工作负载隔离,最好的做法是把虚拟机的整组虚拟 CPU (VCPUs) 固定在一组主机 CPU 上,这些主机位于相同的 NUMA 域或是一个 CPU 套接字中。lscpu 命令将报告哪些主机 CPU 属于哪个 NUMA 或 CPU 套接字域。如 图 4 所示,我们已将 VCPU 分配给客户机。在主机上运行的进程允许在任何 CPU 上运行;但是,VCPU 总是被安排在一个特定的主机 CPU 上。调整虚拟机的大小和数量,以便 VCPU 的总数与主机所提供的物理 CPU 数量相等。作为最佳实践,我们分配的 VCPU 数量不多于主机 CPU,因为过度使用 CPU 资源会损害性能。我们也确保每个虚拟机的 VCPU 不分配在同一个主机 NUMA 域。
图 4. 图 4. 分配给虚拟机的虚拟 CPU性能度量虚拟化对性能有一定影响。为了了解虚拟化对 DB2 pureScale 实例的影响,我们使用物理的和虚拟化的环境实例来度量 OLTP 类型的工作负载的吞吐量。
对于裸机服务器,我们使用 3 个物理服务器创建一个 DB2 pureScale 实例,其中两个服务器指定为成员,另一个指定为 CF。考虑到每个服务器有 4 个套接字,每个套接字有 8 个核心,我们禁用了 3 个套接字以使相同 NUMA 节点上的主机 CPU 数为 16,并把每个物理服务器的内存降为 64GB。这样就能在物理的和虚拟化的环境中保持相似的特征。
TPC-E 基准测试模拟了经纪公司的 OLTP 工作负载。我们为 DB2 pureScale 环境在内部使用了相似的基准测试。远程客户端驱动工作负载来模拟 OLTP 类工作负载。工作负载是读和写分别为 70 和 30 的混合模式。每次运行会产生多个线程和客户机数量来模拟真实应用程序访问 DB2 pureScale 数据库。在成功运行的最后,基准测试会产生一些报告,包括每次运行的每秒事务量。一旦裸机服务器的度量数据收集完成,我们就根据上文介绍的  配置 4 个虚拟化实例。这 4 个虚拟化的 DB2 pureScale 实例的 CPU 核心、内存和 CPU 标志与物理服务器相同。
如 所示,两个同时运行的虚拟化实例的每秒聚合事务展示了一个虚拟化实例的吞吐量提高了 1.8 倍。根据吞吐量度量,使用 PCI 透传的虚拟化 DB2 pureScale 实例比裸机实例的吞吐量少 22%。一些关键的 Linux 性能特征(如 CPU 利用率和磁盘响应时间)反映了 22% 的性能损失。这类权衡是典型的基于过去经验的虚拟化系统。
图 5. 虚拟化实例的聚合吞吐量结束语DB2 pureScale 虚拟化提供了灵活的方法来将多个 DB2 pureScale 应用程序整合在同一个物理硬件上,并使您最大限度地利用该硬件。正如大多数工作负载一样,是否进行虚拟化的决策取决于性能优化和灵活性以及使用率和成本之间的权衡。有了 DB2 pureScale,每个操作系统仅允许一个实例,这样就能增加灵活值。通过选择在 Red Hat Enterprise Linux KVM 上虚拟化 DB2 pureScale,您将得到操作系统隔离、CF 隔离、GPFS 和磁盘隔离的额外好处,但这在使用其他多租户方法的 DB2 pureScale 中是不可能实现的。虚拟化为您的 System x 服务器带来了改进的基础架构 ROI,并且本文展示了如何在 System x 服务器上虚拟化 IBM DB2 pureScale 的解决方案模板和详细步骤。
注意* InfiniBand 是在实验室环境中进行测试,直至本文撰写之时还未支持生产。
佛山思海网络  十七年优质运营商
中国联通与佛山思海网络年底大带宽优惠大促销!价格低低低
中国电信、中国联通、双线服务器托管、租用优惠促销!
品质服务器托管、租用大特惠!
稳定流畅 24*7售后技术在线
欢迎咨询QQ:81721488 0757-22630313
广东佛山电信千兆独享服务器租用低至16999/月!数量有限,赶快抢购 !-思海网络
返回列表