Что такое raid-массив, и почему он вам нужен

Возможности расширения и апгрейда

Давайте поговорим о больших цифрах: каждое головное устройство контроллер Dorado 5000 V6 поддерживает до 48 внешних портов, к нему можно подключить 5 полок с NVME SSD или 7 полок с SAS SSD общим числом до 200 накопителей (включая те, что установлены в ГУ).

Но самое интересное — это программа FlashEver, которая доступна для клиентов Huawei. Суть её заключается в том, что в течение 10 лет вы можете менять узлы вашей СХД на новые без остановки сервисов. Например, приобретя Dorado 5000 V6, со временем вы сможете заменить контроллеры на V7, плюс — так же сможете менять и дисковые полки вместе с накопителями, и не обязательно менять с утилизацией старой полки. В одной СХД допускается использование дисковых полок разных поколений (от V6 и выше), и естественно, что замена производится без остановки ваших сервисов, «на горячую», а СХД продолжит работать.

В пределах вашей организации вы можете осуществлять федерацию СХД, объединяя в единую сеть Dorado V6, V7 и V8, общим числом контроллеров — до 128. Вы можете перемещать между ними данные без потери связи с хостами, используя отказоустойчивый кластер хранения данных.

Конструкция OceanStor 2200 V3

Конструктивно, Huawei OceanStor 2200 V3 выполнен по традиционной для SAN-устройств двухконтроллерной схеме active-active с полным дублированием компонентов. Шасси могут иметь как 12 отсеков для 3.5-дюймовых носителей, так и 25 отсеков для 2.5-дюймовых дисков или SSD. Система хранения работает только с брендированными жесткими дисками Huawei, и вендор в настоящее время предлагает только SAS-12G носители, в том числе NL-SAS на 7200 RPM большого объема и SSD.

На этапе конфигурации стоит учитывать, что для OceanStor 2200 V3 нет 3.5″ SAS винчестеров со скоростью вращения шпинделя 10 и 15 тысяч оборотов в минуту — эти диски доступны только в 2.5-дюймовом формате, так что если головное устройство имеет 3.5″ отсеки, для скоростных SAS дисков придется покупать SFF полку расширения. Что же до SSD, то они доступны в обоих форматах с одинаковым объемом.

По умолчанию, OceanStor 2200 V3 поставляется с двумя контроллерами, имеющими по 1 активному слоту для модулей хост-адаптеров с интерфейсом PCI Express 4x 3.0. Сам контроллер имеет на борту 4 порта 1Gbps Ethernet с поддержкой агрегации каналов, что само по себе уже дает неплохую скорость канала «наружу», и позволяет вообще отказаться от дополнительных интерфейсов, если производительность не критична.

В контроллерах используются 16-ядерные процессоры, но ни тип CPU, ни их характеристики, производитель не раскрывает. Для энергонезависимости ОЗУ установлены CBU — модули, содержащие мощные суперконденсаторы. При аварийном отключении питания, содержимое кэша записывается на SSD-диск в контроллере и может храниться там сколь угодно долго до следующего включения системы. Модули CBU рассчитаны на весь срок эксплуатации устройства и не требуют обслуживания. Объем памяти так же имеет большое значение: OceanStor 2200 V3 может работать как NAS, задействуя файловый доступ по протоколам NFS, CIFS, HTTP и FTP. Так вот, для реализации этого функционала требуется, чтобы общий объем памяти СХД составлял 32 гигабайта, так что если вам нужен файловый доступ — заказывайте Huawei OceanStor 2200 V3 с максимальным объемом памяти.

Для управления СХД на каждом контроллере установлены аж 3 порта RJ45. Первые два — для доступа к web-интерфейсу и через консоль из командной строки. Отличаются они тем, что на первом можно поменять IP-адрес, а на втором он задан жестко, чтобы инженер не искал его при обслуживании. А третий — это вообще COM-порт для прямого подключения к терминалу (кабель RJ45-DB9 поставляется в комплекте).

Если проектом предполагается высокоскоростное подключение, то у Huawei для вас есть 8 типов модулей хост-адаптеров для оптической и медной среды:

  • 4 Port 1Gb ETH I/O module (BASE-T)
  • 4 Port Smart I/O module (SFP+, 8Gb FC)
  • 4 Port Smart I/O module (SFP+, 10Gb ETH/FCoE (VN2VF) FC/Scale-out)
  • 4 Port Smart I/O module (SFP+, 16 Gb FC)
  • 2 Port Smart I/O module (SFP+, 10Gb ETH/FCoE (VN2VF) FC/Scale-out)
  • 2 Port Smart I/O module (SFP+, 16Gb FC)
  • 4 Port 10Gb ETH I/O module (RJ45)
  • 8 Port 8Gb FC I/O module (со встроенными трансиверами)

В нашей тестовой СХД были установлены 2 хост-адаптера с парт-номером V3L-SMARTIO8FC, в списке выше они выделены жирным. Все адаптеры Smart I/O поддерживают 8FC/16FC и 10G Ethernet, и скорость ограничивается лишь комплектными трансиверами. То есть, единожды приобретя 8-гигабитный Smart I/O хост-адаптер, вы впоследствии можете поменять SFP-модули на 16-гигабитные и получить более высокую производительность интерфейса, но надо учитывать, что при подключении по FibreChannel, все порты хост-платы должны работать на одной скорости. При подключении через iSCSI поддерживается прямой доступ к памяти iWARP/RDMA, о чем радостно сообщает гипервизор VMware ESXi при установке хранилища.

Все компоненты охлаждаются силами двух сдвоенных вентиляторов, установленных в блоках питания. Отсутствие дополнительных вентиляторов позволило уменьшить глубину корпуса до 488 мм. Чувствуется забота об окружающей среде и счетах за электроэнергию, но гораздо важнее, что Huawei OceanStor 2200 V3 работает так тихо, что её можно устанавливать в одном пространстве с персоналом, в закрытый телекоммуникационный шкаф.

Лицевая панель ничего интересного не представляет, и лучшее, что можно сделать — закрыть её декоративной накладкой, оставив на виду индикацию состояния, кнопку питания и светящийся ID устройства, который очень полезен, когда вы стоите перед несколькими одинаковыми устройствами и не можете отличить их друг от друга. А ведь действительно — головные устройства и дисковые полки Huawei выглядят как братья-близнецы, и раз уж мы про них вспомнили, давайте поговорим о масштабировании.

Автоматическое уменьшение Thin LUN-ов

Еще одна интересная технология — SmartThin Data Shrinking, оптимизация места, занимаемого LUN-ами. В общем-то, это развитие принципа Thin Provision для логических томов, с той лишь разницей, что контроллер СХД автоматически определяет нулевые блоки данных и исключает их из логического диска. Мы создали 10-гигабайтный тестовый LUN, чтобы посмотреть, как работает это работает, затем записали на него 9.5 Гб данных и тут же удалили их.

Как видно на скриншотах, даже после опустошения содержимого LUN-а, на дисковом пространстве он занимает всего 10% от своего максимального объема. Если вспомнить, что традиционные LUN-ы типа Thin Provision даже после удаления своего содержимого имеют свойство разрастаться до максимально заданного объема, результат Huawei OceanStor 2200 V3 впечатляет, ведь единожды «раздув» логический диск, а затем удалив с него лишнюю информацию, вам не нужно пересоздавать LUN заново, чтобы освободить место на СХД. Работа Data Shrinking осуществляется не «на лету», и требует какого-то времени. В нашем случае место освобождалось со скоростью примерно 1 Гб/мин.

Технологии хранения данных

Применительно к OceanStor 5000 V6 можно сказать, что здесь и RAID не RAID, и LUN не LUN, потому что в основе СХД лежит патентованная технология блочной виртуализации, которую мы очень подробно рассматривали блочную виртуализацию в нашем обзоре Huawei OceanStor Dorado 2800 V3. В рамках этой статьи лишь напомним вам, что вместо реальных SSD дисков в RAID-массивах участвуют «чанки» — нарезки дискового пространства с каждого SSD. Благодаря такой конструкции, СХД не привязана ни к объёму ни к числу накопителей, и если например, вы создали RAID 5 из 8 SSD, то в этом массиве последовательно могут отказать до 5 накопителей: каждый раз СХД будет восстанавливать массив, используя свободный объём на дисках, оставляя массив в рабочем состоянии. Главное условие — чтобы в процессе массового вылета накопители давали время на восстановление и данных было не больше чем имеется свободного объёма.

Кстати, улучшения по сравнению с гибридными OceanStor здесь состоят в том, что LUN-ы и дисковые пулы (RAID-массивы) создаются моментально, а в полках расширения пулами заведуют собственные процессоры, так что «голова» лишь даёт команду полке: «починить RAID» и больше в процессе не участвует, высвобождая ресурсы процессоров под другие задачи.

Тест: скорость восстановления массива RAID 5, 8 SSD x 7.68 Tb

Вылет первого диска

48 минут

Вылет второго диска

1 час 57 минут

Вылет третьего диска

24 минуты

Возвращение диска в массив, ребилд до изначального состояния

мгновенно

Для массива, имеющего изначально 8 накопителей по 7.68 Тб каждый, ребилд в течение часа-двух — это очень хороший показатель. На вылете третьего SSD закончилось свободное место на пуле, ребилд длился всего 24 минуты, после чего СХД честно предупредила, что отключения ещё одного SSD массив не выдержит, поэтому испытание было решено проводить

Обратите внимание, что при установке обратно вылетевших дисков, перестройка массива фактически не производится: весь объём становится доступен сразу

Это не единственный плюс технологии блочной виртуализации. Компании Huawei удалось снизить износ SSD за счёт адаптации механизмов сборки мусора (Garbage Collection): контроллер распределяет данные по спискам блокам флэш-накопителя в зависимости от частоты их изменения. Сортируя данные по типу на часто изменяемые и редко изменяемые, контроллеру удается снизить время выполнения сборки мусора, подсовывая алгоритму именно те области, где обычно хранятся «горячие» данные. Это помогает снизить эффект Write Amplification (WA) на 60% по сравнению с обычным использованием SSD в массиве. Кроме того, за счёт использования аггрегации операций ввода/вывода на уровне контроллера (происходит запись так называемых полных страйпов — Full Stripe), удалось сократить количество дополнительных операций чтения/записи, присущих традиционным RAID-массивам.

Таким образом, эффект Raid Penalty (о котором вы можете прочитать здесь) в Huawei Dorado 5000 V6 нивелируется полностью. Кроме того, в СХД имеется технология глобального выравнивания износа SSD, а для дополнительной надёжности предлагается массив RAID-TP, выдерживающий вылет до 3 дисков с сохранением первоначального объёма

Так что, можно сказать, что вопросу жизнестойкости SSD здесь уделено повышенное внимание. В то же время, в нашем тестировании примерно за неделю SSD диски объёмом 7.68 Тб показали износ на уровне 0.1%, что я считаю слишком большим показателем для такого объёма

RAID 2.0+ — блочная виртуализация HDD

Традиционный RAID массив можно сравнить со стеной, где каждый кирпичик — это жесткий диск или SSD. Кирпичики желательно иметь одного типа и размера, и если вытащить один или два — стена зашатается, а если три — рухнет даже RAID 6, забрав с собой все хранимые данные. В традиционные RAID-массивы нет смысла объединять одновременно диски на 7200 и 10 000 RPM, при замене «кирпичика» восстановление массива может занимать до нескольких дней, внутри массива все диски — равнозначные, и если вы распределяете данные на «холодные», «теплые» и «горячие», то будьте добры выделить SSD для «горячих» данных и создать отдельный RAID массив на 10/15K SAS HDD — для «теплых» данных. Конечно, вам потребуется еще зарезервировать 2 или 3 диска разных типов для горячей подмены, но таковы реалии традиционных RAID-ов, и с этим приходится мириться даже в очень дорогих СХД.

Совсем другое дело, когда вы берете совершенно разные жесткие диски и/или SSD и делите их пространство на равные блоки, ну допустим по 128 килобайт. И вот уже из этих блоков вы собираете RAID массив по любой из традиционных схем — от простого зеркала RAID 1 до RAID 60. В двнном случае контроллер оперирует не физическими носителями, а пространством внутри них, и здесь перед вами открываются поистине неограниченные возможности. Самое простое — это возможность создать несколько одновременных RAID-массивов разного типа на одном пуле жестких дисков. Это могло бы пригодиться для создания небольшой быстрой дисковой группы, но технологии пошли дальше — контроллер Huawei OceanStor 2200 V3 сам умеет разделять данные на «горячие» и «холодные» и перемещать их внутри одного RAID-массива на более скоростные носители — 15K HDD или SSD. В терминологии компании-разработчика технология RAID 2.0+ делит пространство дисковой группы на чанки, чанковые группы и экстенты. В настройках СХД эти термины не встречаются, так что если вам интересно как это работает, предлагаем вам слайды из презентации производителя.

Надежность собранных массивов — это предмет гордости Huawei: представьте себе — мало того, что восстановление 12-дискового массива занимает 30-40 минут, мало того, что вообще можно обходиться без Hot Spare диска (в качестве горячей подмены выступает не физический диск, а свободное пространство пула), так ещё и традиционный RAID 5 выдержит падение двух, трех, четырех, или… девяти жестких дисков — было бы свободное место. При каждом выходе из строя HDD, контроллер OceanStor 2200 V3 автоматически перераспределяет данные на незанятые области винчестеров, и через 30-40 минут ваш массив снова жив-здоров, и лишившись одного HDD, вполне себе переживет выход из строя следующего жесткого диска. Давайте протестируем эту особенность живучести массива!

К нам в лабораторию Huawei OceanStor 2200 V3 пришла в конфигурации с 12 жесткими дисками NL-SAS объемом по 2 Тб. Для тестирования все диски объединились в общий пул, внутри которого был собран RAID 5 с одним виртуальным Hot Spare диском. Полезный объем массива составил 20 Тб, внутри которых были созданы 10 LUN-ов общим объемом 9.6 Тб. Мы последовательно отключали по одному винчестеру, замеряя время восстановления массива.

Система выдержала выход из строя 6 дисков в 12-дисковом RAID 5, причем после поломки пятого HDD, массив восстановился в состояние Online, а на а шестом отключенном винчестере свободное место закончилось, и ребилд произошёл лишь частично, оставив массив в деградированном, но рабочем состоянии.

Что делать в этом случае? Ответ напрашивается сам собой: удалив один из LUN-ов, мы освободили место и процесс реконструкции запустился дальше. На этом было решено прекратить тестирование, поскольку выход из строя даже 50% жестких дисков в СХД на практике не встречается никогда, но Huawei OceanStor 2200 V3 выдержит и такой сценарий, лишь бы диски не вылетали одновременно.

Интерфейс управления

Что же касается интерфейса управления, то здесь Huawei, как мне кажется, всё слишком сильно упростил. Из приятных моментов — намного легче стал процесс монтирования LUN-ов хостам: теперь вам не обязательно создавать группы LUN-ов, группы портов и группы хостов: создали LUN, выбрали хост — и он примонтирован. В области репликации и создания снэпшотов по расписанию путаница осталась: вы создаёте группы защиты, в них добавляете группы LUN-ов, настраиваете частоту создания моментальных снимков… и если потом вы захотите удалить LUN, то вам придётся всё это откатывать в обратном порядке, вручную, на каждый этап открывая новую вкладку в интерфейсе.

Из неприятных моментов — интерфейс явно рассчитан на роботов, а не на людей. Ну вот допустим, было бы логично информацию о реконструкции дискового пула вынести на стартовую страницу: всё же не рядовое событие, но нет же — она спрятана в одну короткую строчку в свойствах самого дискового пула. И так во всём: настроек, связанных с хранением данных, нет практически никаких. Вы можете выбирать пресет для LUN-а при его создании (база данных, VDI или общий пул для VMware), но погрузиться в параметры — никак.

Текущий мониторинг и состояние компонентов головного устройства в традиционном стиле. Здесь вы можете покликать на диски, блок питания, интерфейсные порты и трансиверы, и посмотреть скорость, дату изготовления, версию прошивки и серийный номер узла.

При том, что сама СХД остаётся крайне неинформативной, Dorado 5000 V6 имеет очень сильную статистику сбора метрик производительности: буквально для каждого порта, каждого диска, каждого пула и LUN-а вы можете получать скоростные показатели и хранить их историю сколь угодно долго. Я так думаю, что Web-интерфейс по замыслу Huawei, остаётся здесь только для настройки хостов и LUN-ов, а вся статистика должна идти в обработанном виде через облачный сервис.

Тестирование

В нашей конфигурации с NL-SAS дисками, Huawei OceanStor 2200 V3 не претендует на звание чемпиона по производительности, так что заранее делаем поправку на отсутствие SSD кэша и более-менее быстрых магнитных носителей.

Для тестирования мы использовали тестовый стенд следующей конфигурации:

  • Сервер 1
    • IBM System x3550
    • 2 x Xeon X5355
    • 20 GB RAM
    • VMWare ESXi 6.0
    • RAID 1 2x SAS 146 Gb 15K RPM HDD
    • Intel X520-DA2
  • Сервер 2
    • IBM System x3550
    • 2 x Xeon X5450
    • 20 GB RAM
    • VMWare ESXi 6.0
    • RAID 1 2x SAS 146 Gb 15K RPM HDD
    • Mellanox ConnectX-2
  • Система хранения
    • Huawei OceanStor 2200 V3:
    • 16 GB RAM
    • 2 x SmartIO 4 SFP+ FC 16 Gbps / ETH 10 Gbps
    • 12x HDD NL-SAS 7200 RPM 2 Tb
    • RAID 5
  • Софт
    • Debian 9 Stretch
    • Без патчей Intel Meltdown/Spectre
    • Бенчмарк VDBench 5.04.6

Серверы подключались непосредственно к двум хост-адаптерам СХД кабелями типа DirectAttach, Intel XDACBL3M. На тестовых серверах под управлением VMWare ESXi разворачивалось 8 виртуальных машин с гостевыми системами Debian 9 x64, для которых на системе хранения выделялись 8 одинаковых LUN-ов. Каждая виртуальная машина подключалась по iSCSI к собственному LUN-у, используя 10-гигабитный сетевой порт как аплинк виртуального коммутатора VMKernel Switch. На каждой виртуальной машине был запущен бенчмарк VDBench, который управлялся с выделенного устройства.

Перед запуском основного теста проводится предварительное заполнение пространства LUN-ов в течение 120 минут, чтобы исключить влияние новых чистых HDD и фрагментации данных на скорость. Начинаем с теста 4K Random Access с разным количеством потоков, чтобы определить, на каком количестве тредов будем проводить основное тестирование.

Результаты показывают, что при нагрузке 8 клиентов по 64 треда (итого 512 потоков) скорость начинает незначительно снижаться и сильно растет глубина очереди. Значит, будем тестировать в режиме 8 виртуальных машин по 64 потока на каждой.

Скорость случайного доступа вполне предсказуема, при этом все операции записи четко ложатся в кэш контроллера, и практически не зависят от нагрузки. Посмотрим на случайный доступ при размере транзакции 64 Кб, тест, который рекомендовано проводить для Microsoft SQL Server.

Неожиданно обрадовал тест на чтение, показавший лишь 30% снижение скорости по сравнению с тестом случайного чтения 4Кб блоков. Посмотрим, что с последовательным чтением.

Последовательный доступ немного разочаровывает: 12 дисков типа NL-SAS могут и должны дать более 1 гигабайта в секунду, но ни чтение, ни запись и близко не подходят к этой цифре. Предполагаю, что это связано именно с блочной виртуализацией, а точнее с распределением чанков по физическим дискам.

Паттерны Real World задач

От синтетических тестов перейдем к эмуляции реальных задач. Тестовый пакет VDbench позволяет запускать паттерны, снятые программами I/O трейсинга с реальных задач. Грубо говоря, специальный софт записывает, каким образом приложение, будь то база данных или еще что-либо, работают с файловой системой: процент записи и чтения с разным сочетанием случайных и последовательных операций и разным размером блока записи и чтения. Мы использовали паттерны, снятые специалистами компании Pure Storage для четырех кейсов: VSI (Virtual Storage Infrastructure), VDI (Virtual Desktop Infrastructure), SQL и Oracle Database. Тест проводился при 16 тредах для каждой виртуальной машины, что создавало глубину запросов примерно равной 64.

От виртуальных приложений переходим к базам данных

Жесткие диски типа NL-SAS, конечно, не предназначены для баз данных и виртуальных приложений, и Huawei OceanStor 2200 V3 в нашей конфигурации можно использовать для баз данных, если нагрузка на дисковую систему составляет примерно 800 IOPS, дальше сильно растет задержка.

SSD и карты расширения

Huawei Dorado 5000 V6 использует накопители с интерфейсом PCI Express собственной разработки Huawei. Эти накопители имеют немного иной тип корпуса толщиной всего 9.5 мм, что позволило разместить на фронтальной панели рекордные 36 накопителей с горячей заменой, в полтора раза больше чем в стандартных корпусах высотой 2U под 2.5-дюймовые SSD!

Во-вторых, Huawei применил в этих дисках собственный контроллер, оптимизированный для минимальной задержки. В итоге типичное время доступа СХД в операциях чтения/записи составляет 0.1 мс! Да, речь идёт о всей СХД и доступу от Front-End интерфейса до диска, установленного в полке расширения.

Huawei называет эти диски Palm SSD, и толщина — не единственный их плюс: каждый накопитель имеет два физических порта для подключения к бэкплейну вместо одного большого порта у SAS дисков. Это позволило установить сами Backplane горизонтально, параллельно материнской плате, что улучшило вентиляцию и теплоотвод. На момент подготовки обзора, максимальный объём одного Palm SSD составлял внушительные 15.36 Тб.

Для защиты содержимого кэша используются мощный литий-ионные аккумуляторы, в которые как картриджи устанавливаются блоки питания. Следует иметь ввиду, что замена аккумуляторов возможна только при отключении соответствующего блока питания, что никак не сказывается на работоспособности СХД.

Интерфейсные карты остались без изменений с прошлых поколений Dorado, и в общем-то, здесь ничего особенного: каждый контроллер поддерживает установку шести интерфейсных плат для Front-End подключений. Сегодня это могут быть:

  • 4-портовый 8/16/32 Gb FC/FC-NVMe 4-портовый 8/16/32 Gb FC
  • 4-портовый 10/25 Ethernet
  • 2-портовый 40/100 Gb ETH

Для подключения сети управления используются сменные модули с интерфейсами 1GBase-T и RS-232. Для интерконнекта между шасси контроллеров применяются 4-портовые 25G RDMA хост-адаптеры.

Для связи с дисковыми полками каждый контроллер использует два 100-гигабитных RDMA порта. Ещё раз хочу напомнить, что в Dorado 5000 V6 используются активные полки с собственными процессорами, которые сами выполняют ребилд массивов в случае поломки.

Обратите внимание как выглядят RDMA-платы: просто кусок печатной платы с дорожками, ни контроллеров, ни памяти, ни какой-то другой их обвязки. Для передачи данных по прямому пути «память-память» никакие контроллеры не нужны, и это вершина современных технологий

Сервис eService: мониторинг с предиктивным анализом

Я уже говорил, что как по мне, так интерфейс Dorado 5000 V6 крайне неинформативен, благо у вас есть возможность мониторить работу СХД через облачный сервис eService. При регистрации устройства, оно начинает отправлять телеметрию в «облако», одновременно становясь на учёт к службе техподдержки Huawei.

Каждый алерт прежде чем отобразиться в системе, проходит инспекцию в облаке, и вместе со степенью важности, вам даётся рекомендация, что делать. Например, у нас при вылете SSD из массива, сервис порекомендовал закрыть Alert и не беспокоиться понапрасну — система перестроила RAID на свободном месте и вернулась в здоровое состояние

Но при регистрации в сервисе я специально связывался с техподдержкой и просил отключить нашу систему от мониторинга персоналом, иначе бы они начали звонить и согласовывать время приезда на замену вылетевшего SSD. Данный сервис предоставляется с системой по умолчанию и сильно облегчает работу IT-персонала: даже если вы что-то пропустили или недосмотрели, Huawei за вами присматривает, и в случае поломки уже едет к вам с заменой.

Конечно, eService в каких-то моментах более информативен, чем СХД: он оценивает всю вашу инфраструктуру (включая серверы Huawei) и предсказывает возникновение бутылочных горлышек, строит паттерны интенсивности доступа к ресурсам, и что более важно — предсказывает выход из строя каких-то частей оборудования. В нашем случае он показывал только вероятность поломки SSD, которая на новых дисках была нулевой

Но «под капотом» сервиса скрыт массивный анализ более 500 000 дисков по различным инсталляциям, чья метрика анализировалась в течении 600 дней. В результате поломку накопителя eService предсказывает аж за 14 дней до её наступления с вероятностью 80% и всего 0.1% ложных срабатываний. Круто? Ещё бы!

Но опять же, с точки зрения системного администратора: графиков много, а такой информации, как температура компонентов, нет нигде. Есть общая температура по контроллерам, но ни по дискам ни по процессору вам эти значения не достать: система собирает их, анализирует у себя в облаке, но не говорит. Как только что-то выйдет за рамки — сработает сигнал, и вам позвонит технический специалист Huawei.

В том же окне eService вы можете пообщаться в чате со специалистами техподдержки, составить отчёт и посмотреть логи. В общем, единственное чего здесь не хватает — это подробной аналитики по скорости узлов СХД: она есть в Web-интерфейсе, и поражает детальностью. Вы можете получать информацию в виде графиков по загрузке и времени доступа портов, дисков, пулов, LUN-ов, памяти, кэшей и т.д. Отчёт можно сохранить в .pdf формате или .csv.

Кстати, для сбора логов используется отдельная программа, которая без прерывания работы СХД, проводит весь спектр тестов и проверок и сохраняет отчёт в архиве, который вы потом загружаете в сервис службы поддержки, при рассмотрении обращений.

Экономическая эффективность

Начинаем считать деньги с того, что измеряем энергопотребление собранной СХД в режиме простоя и под нагрузкой.

Энергопотребление меняется очень слабо, что характерно для машины с большим количеством жестких дисков. Так же нельзя сказать, что Huawei OceanStor 2200 V3 хоть как-то ощутимо нагревается — система охлаждения в течение всего теста работает на минимальной скорости — отлично!

Политика Huawei относительно лицензий такова, что они устанавливаются на весь период эксплуатации устройства, но через 3 года прекращается поддержка и обновления расширенных функций. В нашей конфигурации использовалась одна базовая лицензия Basic Software for Block, включающая следующие функции:

  • Device Management
  • HyperSnap
  • HyperCopy
  • SmartThin
  • SmartMotion
  • SmartErase, SmartConfig, SystemReporter, UltraPath

Эту лицензию приобретать не надо — указанный функционал доступен сразу при покупке устройства.

Список лицензируемых функций, которые не включены в расчет стоимости:

  • Performance Speedup Solution Suit (примерно 458 тысяч рублей)
    • SmartTier
    • SmartQoS
    • SmartCache
  • Integration Migration Solution Suit (примерно 390 тысяч рублей)
    • SmartVirtualization
    • SmartMigration
    • HyperMirror
  • Data Protection Software Suit (примерно 400 тысяч рублей)
    • HyperClone
    • HyperReplication

Эти функции включаются при покупке отдельной лицензии на функцию или пакета лицензий.

Стоимость системы хранения без затрат на электричество составила 390 750 рублей, что очень дешёво для такого устройства в сборе вместе с жесткими дисками.

И за счет своей низкой цены, Huawei OceanStor 2200 V3 показывает очень высокий коэффициент стоимости гигабайта для головного устройства.

Выводы

Обычно при разработке СХД, производитель учитывает возможности чипов сторонних производителей, которые он будет использовать в устройстве, а так же алгоритмы работы с данными, которые он задействует в программном слое. В случае с Huawei всё иначе: компания не была ограничена чужими рамками и создавала собственные чипы для контроллеров SSD, для хост-адаптеров, собственные процессоры и собственный искусственный интеллект. От начала и до конца, это закрытая разработка, не использующая сторонний код и уж тем более Open-Source решения. Это всегда лучше с точки зрения безопасности, но в то же время намного затратнее с точки зрения сил производителя. Какие-то моменты производитель просто не успел сделать к финальному релизу, и среди них — файловый доступ, который появится здесь только в 2021 году вместе с обновлением прошивки.

Понятно, что перевод с x86 на ARM64 — это слишком сложная задача даже для такого гиганта, как Huawei, но зато и возможности это даёт потрясающие. Где вы ещё видели СХД, имеющую 256 физических ядер в корпусе высотой 2U? Да ещё и такую, где в каждой полке стоит свой процессор Kunpeng 920, который ускоряет перестройку массивов? У Huawei свои процессоры, и компания не привязана к ценовой политике кого-то ещё, поэтому здесь со всей своей щедростью она может увеличивать производительность AI-модуля, повышать количество ядер или частоты в контроллерах, менять скорости интерфейсов. Это настоящий плюс собственной экосистемы, которую компания строит исключительно на собственных разработках. Итоговые решения впечатляют: и предиктивный анализ, и возможность апгрейда и федерации ресурсов, и равномерный износ SSD и бессмертный RAID-массив, который всегда будет в состоянии Optimal, пока у вас не закончится свободное место.

В целом, на сегодня Huawei Dorado 5000 V6 совмещает в себе все наработки IT-индустрии за последние 20 лет, и может быть использовано в mission-critical приложениях, генерирующих высокую нагрузку на SAN-сеть.

Михаил Дегтярёв (aka LIKE OFF)20/11.2020

Рейтинг
( Пока оценок нет )
Понравилась статья? Поделиться с друзьями:
Все для ПК
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: