Тестування продуктивності HP P2000 MSA G3

одній з наших минулих статей, присвяченій продуктивності дискових систем серверів, ми розповіли про методику тестування та підбір інструменту.

Зараз же, вирішили порівняти продуктивність СГД початкового рівня і масиву на контролері P410. Нагадаю, що цікавлять нас параметри: IOPS — кількість дискових операцій в секунду (чим більше, тим краще) і latency — час обробки операції (чим менше, тим краще).

Конфігурація стенду:Шасі HP C7000
Блейд BL460C G6
HP Proliant DL360 Gen7
Пара світчів AE372A
Полиця HP StorageWorks P2000 G3 MSA
Пара контролерів AP837B
Диски 2.5" HP 146Gb SAS 15k 6G HDD (512547-B21, 512544-001)




Тестували все тієї ж утилітою fio під Debian GNU/Linux за методикою, описаною в попередній статті, використовуючи той же самий інструментарій. Так само звертаємося до raw-device через libaio.

$cat ~/fio/oltp.conf
[oltp-db]
blocksize=8k
rwmixread=70
rwmixwrite=30
rw=randrw
percentage_random=100
ioengine=libaio
direct=1
buffered=0
time_based
runtime=2400


Конфігурація наступна: обсяг LUN'ов дорівнює обсягу Vdisk'a і у всіх конфігураціях використовується RAID10, включений multipathing, підключення через Fiber Channel.

#multipath -ll
3600c0ff000199b069319335601000000 dm-1 HP,P2000G3 FC/iSCSI
size=956G features='1 queue_if_no_path' hwhandler='0' wp=rw
|-+- policy='service-time 0' prio=50 status=active
| |- 0:0:0:8 sdc 8:32 active ready running
| `- 2:0:0:8 sdg 8:96 active ready running
`-+- policy='service-time 0' prio=10 status=enabled
|- 0:0:1:8 sde 8:64 active ready running
`- 2:0 і 1:8 sdi 8:128 active ready running


Тестували з нарощуванням кількості потоків від 16 до 256, щоб відловити, де починаються брак продуктивності. Тривалість кожного тесту 40 хвилин.

Отже, розглянемо результати на прикладі профілю OLTP-DB, проілюструвавши залежність IOPS і чуйності системи від кількості потоків:

Розмір блоку 4KB, 70%/30% читання/запис, 100% випадковий доступ



Дивлячись на верхній графік, стає зрозуміло, як можна оцінити продуктивність системи у відриві від latency: як тільки зростання кількості IOPS застопорився, ми отримали результат і далі зростатиме тільки latency.

Несподіваним виявилося, що масив з восьми дисків показує більш високу продуктивність, ніж СГД з тією ж кількістю носіїв, і особливо добре це помітно з ростом навантаження. MSA P2000 забуксувала на 64 потоках, тоді як зростання кількості IOPS'ів на контролері P410 припинився на 128.

Також чудово видно залежність продуктивності системи від кількості жорстких дисків в масиві. Тут, думаю коментарі зайві.

А висновок з цього можна зробити наступний: дану СГД має сенс використовувати, коли потрібна велика гнучкість розподілу дискового простору між віртуальними або фізичними серверами і потрібна можливість підключити велику кількість жорстких дисків, в тому числі і через полки розширення. Проте, сподіватися на те, що все це буде працювати швидше локального дискового масиву сервера з тим же кількістю дисків, на жаль, не доводиться.

І, як завжди, викладаємо детальний файл з результатами.

Джерело: Хабрахабр

0 коментарів

Тільки зареєстровані та авторизовані користувачі можуть залишати коментарі.