首页 | 新闻 | 新品 | 文库 | 方案 | 视频 | 下载 | 商城 | 开发板 | 数据中心 | 座谈新版 | 培训 | 工具 | 博客 | 论坛 | 百科 | GEC | 活动 | 主题月 | 电子展
返回列表 回复 发帖

深入研究一种适合 SAS Foundation 混合工作负载的新的软件定义融合基础架构(2)

深入研究一种适合 SAS Foundation 混合工作负载的新的软件定义融合基础架构(2)

可扩展性测试:20-test 混合分析工作负载
可扩展性测试的执行方式是,线性扩展工作负载和节点 - 将 20-test 工作负载从 1 个节点(包含 20 个并发测试)扩展到 4 个节点(包含                80 个并发测试,每个节点 20 个并发测试)。在扩展工作负载时,后端存储和计算保持不变。1、2、3 和 4 节点测试分别运行总计 20、40、60                和 80 个混合分析工作负载测试。还对 30-test 混合分析工作负载执行了类似的可扩展性测试,同样从 1 个节点扩展到 4 个节点。
用于可扩展性测试的 LPAR 的配置包括:
  • 16 个核心(专用模式)用于两个 LPAR,15 个核心(专用模式)用于另外两个 LPAR
  • SMT4
  • 每个 LPAR 分配 96 GB 内存
  • 每个 LPAR 1 个 40GbE 端口
  • 适合 Spectrum Scale 文件系统(SASWORK、SASDATA 和 SASUTIL)的 16 MB 块大小
图 5. 20-test 可扩展性测试的性能指标摘要图 5 总结了对 20-test 工作负载进行可扩展性测试的结果。图 6 到图 10 中的图表提供了在测试期间实现的 I/O 吞吐量。
图 6. 扩展到 4 个节点时的平均和累积真实时间图 7. 单节点上的 20-test 工作负载的 I/O 吞吐量点击查看大图
图 8. 扩展到 2 个节点时的 20-test 工作负载的 I/O 吞吐量(总共 40                    个测试)
图 9. 扩展到 3 个节点时的 20-test 工作负载的 I/O 吞吐量(总共 60                    个测试)
图 10. 扩展到 4 个节点时的 20-test 工作负载的 I/O 吞吐量(总共 80                    个测试)
对以 56GbE 速度运行的 Mellanox 结构的测试本节将介绍 Mellanox 结构、它在环境中的配置,以及测试结果。
带 ESS 的 Mellanox 56GbE 结构通过使用特征码为 EC3A/EC3B 的适配器和 8831-NF2 交换机(通过电缆 EB40-EB42 和 EB4A-EB4G                连接), IBM Power IO 产品组合可以为一个基于 ESS 的存储解决方案构建一个以 40GbE 速度运行的完整端到端                Mellanox 结构。这样做可以提供一个可靠、低延迟(端口间的延迟约为 330ns)、基于以太网的 TCP/IP 存储结构。
这个存储部署的重要部分是,Mellanox 交换机可以在 Mellanox 中仅采用 56GbE                模式运行该结构。通过将交换机上每个端口的线路速度入口更改为 56000,可以从现有网络硬件中获得 40%                的额外带宽,而无需任何进一步投资。使用的布线必须能以 56GbE 速度运行。使用的适配器能自动与交换机就速度进行协商。
在实验室环境中,调整了网络交换机、主机和客户端的端口来以 56GbE 速度运行,并反复执行测试来查看性能改善。
当 Mellanox 结构以 56GbE 速度运行时,执行了以下测试来测量相较于 40GbE 速度的性能提升。
  • 使用 gpfsperf 工具的 I/O 测试
  • 单节点上的 30-test 工作负载以及 4 个节点上的可扩展性测试
在 4 个节点上使用 gpfsperf 工具的 I/O 测试结果
作为 Spectrum Scale 部署的一部分,可使用一些现有的性能工具(比如 gpfsperf 和                    nsdperf)来帮助验证系统性能。请参阅本文的“部分引用的 Spectrum Scale 文档,了解关于这些工具的更多信息。gpfsperf                工具可用于度量 Spectrum Scale (GPFS) 文件系统上的读、写和读/写 I/O 性能。在网络端口以 40GbE 和 56GbE                速度运行时,使用了该工具来度量 I/O 吞吐量。该工具同时在所有 4 个节点上运行,以便对网络和 ESS 存储施加压力。图 11 展示了端口以                40GbE 和 56GbE 速度运行时的 I/O 吞吐量的比较。
图 11. 结构以 40GbE 和 56GbE 速度运行时,使用测试工具实现的 I/O                    吞吐量的比较
使用 gpfsperf 工具的测试结果表明,无需任何额外的基础架构或升级现有网络基础架构,整体读/写 I/O 吞吐量 (70:30)                获得了 8% 到 10% 的提升。在测试期间,ESS GL4 存储的 I/O 吞吐量达到了极限。
返回列表