首页
|
新闻
|
新品
|
文库
|
方案
|
视频
|
下载
|
商城
|
开发板
|
数据中心
|
座谈新版
|
培训
|
工具
|
博客
|
论坛
|
百科
|
GEC
|
活动
|
主题月
|
电子展
注册
登录
论坛
博客
搜索
帮助
导航
默认风格
uchome
discuz6
GreenM
»
MCU 单片机技术
»
PowerPC
» 深入研究一种适合 SAS Foundation 混合工作负载的新的软件定义融合基础架构(2)
返回列表
回复
发帖
发新话题
发布投票
发布悬赏
发布辩论
发布活动
发布视频
发布商品
深入研究一种适合 SAS Foundation 混合工作负载的新的软件定义融合基础架构(2)
发短消息
加为好友
look_w
当前离线
UID
1066743
帖子
8283
精华
0
积分
4142
阅读权限
90
在线时间
233 小时
注册时间
2017-6-23
最后登录
2019-5-18
论坛元老
UID
1066743
1
#
打印
字体大小:
t
T
look_w
发表于 2017-12-8 08:42
|
只看该作者
深入研究一种适合 SAS Foundation 混合工作负载的新的软件定义融合基础架构(2)
可扩展性测试:20-test 混合分析工作负载
可扩展性测试的执行方式是,线性扩展工作负载和节点 - 将 20-test 工作负载从 1 个节点(包含 20 个并发测试)扩展到 4 个节点(包含 80 个并发测试,每个节点 20 个并发测试)。在扩展工作负载时,后端存储和计算保持不变。1、2、3 和 4 节点测试分别运行总计 20、40、60 和 80 个混合分析工作负载测试。还对 30-test 混合分析工作负载执行了类似的可扩展性测试,同样从 1 个节点扩展到 4 个节点。
用于可扩展性测试的 LPAR 的配置包括:
16 个核心(专用模式)用于两个 LPAR,15 个核心(专用模式)用于另外两个 LPAR
SMT4
每个 LPAR 分配 96 GB 内存
每个 LPAR 1 个 40GbE 端口
适合 Spectrum Scale 文件系统(SASWORK、SASDATA 和 SASUTIL)的 16 MB 块大小
图 5. 20-test 可扩展性测试的性能指标摘要
图 5 总结了对 20-test 工作负载进行可扩展性测试的结果。图 6 到图 10 中的图表提供了在测试期间实现的 I/O 吞吐量。
图 6. 扩展到 4 个节点时的平均和累积真实时间
图 7. 单节点上的 20-test 工作负载的 I/O 吞吐量
点击查看大图
图 8. 扩展到 2 个节点时的 20-test 工作负载的 I/O 吞吐量(总共 40 个测试)
图 9. 扩展到 3 个节点时的 20-test 工作负载的 I/O 吞吐量(总共 60 个测试)
图 10. 扩展到 4 个节点时的 20-test 工作负载的 I/O 吞吐量(总共 80 个测试)
对以 56GbE 速度运行的 Mellanox 结构的测试本节将介绍 Mellanox 结构、它在环境中的配置,以及测试结果。
带 ESS 的 Mellanox 56GbE 结构通过使用特征码为 EC3A/EC3B 的适配器和 8831-NF2 交换机(通过电缆 EB40-EB42 和 EB4A-EB4G 连接), IBM Power IO 产品组合可以为一个基于 ESS 的存储解决方案构建一个以 40GbE 速度运行的完整端到端 Mellanox 结构。这样做可以提供一个可靠、低延迟(端口间的延迟约为 330ns)、基于以太网的 TCP/IP 存储结构。
这个存储部署的重要部分是,Mellanox 交换机可以在 Mellanox 中仅采用 56GbE 模式运行该结构。通过将交换机上每个端口的线路速度入口更改为 56000,可以从现有网络硬件中获得 40% 的额外带宽,而无需任何进一步投资。使用的布线必须能以 56GbE 速度运行。使用的适配器能自动与交换机就速度进行协商。
在实验室环境中,调整了网络交换机、主机和客户端的端口来以 56GbE 速度运行,并反复执行测试来查看性能改善。
当 Mellanox 结构以 56GbE 速度运行时,执行了以下测试来测量相较于 40GbE 速度的性能提升。
使用
gpfsperf
工具的 I/O 测试
单节点上的 30-test 工作负载以及 4 个节点上的可扩展性测试
在 4 个节点上使用 gpfsperf 工具的 I/O 测试结果
作为 Spectrum Scale 部署的一部分,可使用一些现有的性能工具(比如
gpfsperf
和
nsdperf
)来帮助验证系统性能。请参阅本文的“部分引用的 Spectrum Scale 文档,了解关于这些工具的更多信息。
gpfsperf
工具可用于度量 Spectrum Scale (GPFS) 文件系统上的读、写和读/写 I/O 性能。在网络端口以 40GbE 和 56GbE 速度运行时,使用了该工具来度量 I/O 吞吐量。该工具同时在所有 4 个节点上运行,以便对网络和 ESS 存储施加压力。图 11 展示了端口以 40GbE 和 56GbE 速度运行时的 I/O 吞吐量的比较。
图 11. 结构以 40GbE 和 56GbE 速度运行时,使用测试工具实现的 I/O 吞吐量的比较
使用
gpfsperf
工具的测试结果表明,无需任何额外的基础架构或升级现有网络基础架构,整体读/写 I/O 吞吐量 (70:30) 获得了 8% 到 10% 的提升。在测试期间,ESS GL4 存储的 I/O 吞吐量达到了极限。
收藏
分享
评分
回复
引用
订阅
TOP
返回列表
工业控制
电商论坛
Pine A64
资料下载
方案分享
FAQ
行业应用
消费电子
便携式设备
医疗电子
汽车电子
工业控制
热门技术
智能可穿戴
3D打印
智能家居
综合设计
示波器技术
存储器
电子制造
计算机和外设
软件开发
分立器件
传感器技术
无源元件
资料共享
PCB综合技术
综合技术交流
EDA
MCU 单片机技术
ST MCU
Freescale MCU
NXP MCU
新唐 MCU
MIPS
X86
ARM
PowerPC
DSP技术
嵌入式技术
FPGA/CPLD可编程逻辑
模拟电路
数字电路
富士通半导体FRAM 铁电存储器“免费样片”使用心得
电源与功率管理
LED技术
测试测量
通信技术
3G
无线技术
微波在线
综合交流区
职场驿站
活动专区
在线座谈交流区
紧缺人才培训课程交流区
意见和建议