Linux   发布时间:2022-04-01  发布网站:大佬教程  code.js-code.com
大佬教程收集整理的这篇文章主要介绍了linux – SSD磁盘和10 Gbe网络的iSCSI性能不佳大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。

概述

iSCSI目标 Ubuntu 14.04(Trusty Tahr)具有16 gb ram和16核CPU作为LVM支持的iSCSI目标,使用三个三星SSD磁盘,每个磁盘使用带有板载缓存的LSI 6 Gbit / s控制器可以达到65k IOPs. 目标SSD磁盘基准测试: fio --filename=/dev/sdd --direct=1 --sync=1 --rw=write --bs=4k -
iSCSI目标 @H_502_2@Ubuntu14.04(Trusty Tahr)具有16 gb ram和16核cpu作为LVM支持的iSCSI目标,使用三个三星SSD磁盘,每个磁盘使用带有板载缓存的LSI 6 Gbit / s控制器可以达到65k IOPs.

@H_502_2@目标SSD磁盘基准测试:

fio --filename=/dev/sdd --direct=1 --sync=1 --rw=write --bs=4k --numjobs=10 --iodepth=1 --runtime=60 --time_based --group_reporTing --name=ssd-max

iops=65514
@H_502_2@使用三个Samsung 850 EVO SSD在硬件RAID 0中配置sdd的位置.

@H_502_2@引发剂

@H_502_2@我在具有32 GB RAM和8个核心cpu的Ubuntu 14.04客户端上导出了500G LUN.

@H_502_2@导出LUN的基准测试

fio --filename=/dev/sdg --direct=1 --sync=1 --rw=write --bs=4k --numjobs=10 --iodepth=1 --runtime=60 --time_based --group_reporTing --name=client-max

iops=2400
@H_502_2@在进行DAS和通过网络时,性能显着下降,我预计至少有10k IOPs.

@H_502_2@目标和启动器之间的通信小于1毫秒,而iperf显示网络吞吐量为9.2 Gbit / s.

@H_502_2@我知道4k写入会对性能产生影响,因为每个数据在写入磁盘之前必须通过启动器和目标的网络堆栈,但这是从65k到2k的不可接受的下降.

@H_502_2@问题出在哪里?我在目标和启动器之间有一个10Gbit/s Ethernet NIC.有任何想法吗?

解决方法

简短回答:这是网络延迟和串行工作负载的结果(通过使用direct = 1,sync = 1和iodepth = 1强制执行). @H_502_2@答案很长:使用direct = 1,sync = 1和iodepth = 1,您创建了一个串行工作负载,因为在上一次写入提交和确认之前,新写入不能排队.换句话说,写入提交率严格依赖于网络延迟.两台机器之间的简单ping可以超过0.2ms,当使用更高级别的协议作为TCP(以及其上面的iSCSI)时更是如此.假设总网络延迟大约为0.33ms,则最大IOPS值约为3000.这不虑其他延迟源(es:磁盘本身),因此它与您记录的内容一致.

@H_502_2@试试这个:执行第一个没有–direct = 1 –sync = 1的基准测试,另一个使用这些选项,但是将iodepth增加到32个请求.然后@L_262_32@报告结果.

大佬总结

以上是大佬教程为你收集整理的linux – SSD磁盘和10 Gbe网络的iSCSI性能不佳全部内容,希望文章能够帮你解决linux – SSD磁盘和10 Gbe网络的iSCSI性能不佳所遇到的程序开发问题。

如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。