Yet Another Blog about NetApp

Блог о технологиях NetApp и системах хранения данных в целом

Data ONTAP как пиво

Dave Hitz, один из создателей компании NetApp, расшарил отличное видео:

Data ONTAP was inspired by beer. The idea was that data should flow freely, just like beer flowing from a tapped keg. Except imagine a pervasive beer infrastructure that lets you get your favorite brew from any faucet at any sink
Dave Hitz, Co-founder NetApp

Для удобства собрал все известные кодовые названия в таблицу. Теперь можно смело начинать все это пробовать :)
В некоторых случаях кодовое название это не конкретное пиво, а название пивоварни. Возможно 15-20 лет назад они производили только одно пиво. Ну и некоторые пивоварни являются частью крупных конгломератов.

Версия Год Кодовое название Пивоварня
9.4 2018 Kalyani Black United Breweries (Индия)
9.3 2018 Fat Tire New Belgium Brewing (США)
9.2 2017 Harpoon IPA Harpoon (США)
9.1 2016 Longboard Kona Brewing (США)
9.0 2016 Longboard Kona Brewing (США)
8.3 2014 Fullsteam FULLSTEAM BREWERY (США)
8.2 2013 Sierra Nevada Sierra Nevada Brewing (США)
8.1 2011 Rolling Rock Latrobe Brewing (США)
8.0 2009 BoilerMaker Это коктейль из пива и виски. Почти Ёрш, но не совсем.
7.3 2008 IronCity Pittsburgh Brewing (США)
7.2 2006 GordonBiersch Gordon Biersch Brewing (США)
7.1 2005 Tsingtao Tsingtao Brewery (Китай)
7.0 2004 Anchorsteam Anchor Brewing Company (США)
6.5 2004 Scrimshaw North Coast Brewing (США)
6.4 2003 FullSail Full Sail Brewing (США)
6.3 2002 Krakus Zywiec Breweries PLC (Польша)
6.2 2002 RedHook Redhook Ale Brewery (США)
6.1 2001 Victoria Bitter Carlton & United Breweries (Австралия)
6.0 2000 Guinness St. James’s Gate Brewery (Ирландия)
5.3 1999 Beck’s Beck’s Brewery (Германия)
5.2 1998 Dos Equis XX Cuauhtémoc Moctezuma Brewery (Мексика)
5.1 1998 Foster’s Foster’s Group (Австралия)
2018   beer   Data ONTAP   Dave Hitz

AFF A800 — первый end-to-end NVMe all flash массив на рынке

Небольшая вводная часть, в которой даже присутствует подобие аналитики рынка

8 мая NetApp выпустил очередную версию ONTAP и представил несколько новых систем хранения, в том числе первую доступную на рынке end-to-end NVMe-oF all-flash СХД AFF A800.
Я решил разделить информацию об ONTAP и новым железе на два поста. Сейчас поговорим про новое железо. И тут у нас не только A800. Про ONTAP 9.4 в этом посте.

NetApp AFF A800 — первый доступный на рынке enterprise end-to-end NVMe all flash массив. Сильное заявление, проверять я его конечно не буду.

Да, я знаю про Dell EMC PowerMax, который был анонсирован буквально неделю назад. Но вот какая незадача — NVMe на фронтенде, то есть NVMe-oF, в нём еще нет. А появится поддержка NVMe-oF в PowerMax только в начале 2019 года.

Давайте сразу поговорим про других производителей enterprise СХД на рынке. Тут не будет речи о стартапах, потому что у них довольно серьезное отставание по функциональности в сравнении с устоявшимися на рынке игроками.

IBM. Добавили поддержку NVMeF over InfiniBand для FlashSystem 900. Внутри flash-модули, если я не ошибаюсь, подключаются по PCIe. Но мы помним, что NVMe — это не только PCIe, но и новый протокол, который полностью заменяет SCSI.
Анонсировали поддержку NVMe-oF для IBM FlashSystem 900/A9000/A9000R, IBM FlashSystem V9000, IBM Storwize V7000, IBM SAN Volume Controller (SVC). End-to-end NVMe массива доступного на рынке нет.

Pure Storage имеют //X70 c NVMe модулями. У них были показательные тесты NVMe-oF с Cisco, использовали RoCEv2 40GbE. Когда будет доступно простым смертным неизвестно. End-to-end NVMe массива доступного на рынке нет.

У Huawei уже давно доступна на рынке система OceanStor Dorado5000 V3, но пока никаких вестей про NVMe-oF. End-to-end NVMe массива доступного на рынке нет.

HPE буквально вчера анонсировали обновление для линейки Nimble. Говорят, что они готовы к NVMe и SCM (Storage Class Memory), но всё будет происходить в три этапа.

  • NVMe и SCM как кэш на чтение
  • NVMe SSD
  • NVMe-oF

В каком порядке неизвестно, а в новых системах пока стоят SATA SSD. End-to-end NVMe массива доступного на рынке нет.

Если я где-то ошибся и о чём-то не упомянул, то буду рад любым комментарием.

А что же NetApp? А NetApp за прошедшие месяцы успел отгрузить более 20ПБ NVMe SSD. Как так? В каждой системе FAS последнего поколения есть Flash Cache на базе NVMe. Кроме того уже более 8 месяцев доступна система EF570 с поддержкой NVMe-oF по InfiniBand.

8 месяцев назад NetApp уже рассказывал про планы на NVMe и SCM. Была демонстрация работы NVMe-oF на A300 и AFF 8020. А SCM в первую очередь планируется использовать как кэш на чтение в all-flash массивах. Кроме этого есть планы по использованию server-side Software-Defined Memory решения компании Plexistor, которую NetApp не так давно приобрёл, совместно с СХД. То есть мы видим последовательную и планомерную работу по внедрению новых технологий хранения с сохранением совместимости с существующими решениями.

А после небольшого вступления мы опять возвращаемся к NetApp AFF A800 — первому доступному на рынке enterprise end-to-end NVMe all flash массиву.

AFF A800

  • HA-пара выдаёт 1.3 млн IOPS случайного чтения c задержкой 500µs
  • Минимальная задержка в 200µs
  • 34ГБ/сек чтения на пару контроллеров с NVMe-oF
  • 25ГБ/сек чтения на пару контроллеров по NFS
  • 11.4 млн IOPS случайного чтения в 24-узловом кластере при использовании NAS
  • Более 300ГБ/сек чтения в 24-узловом кластере при использовании NAS

И если вы побежали сравнивать заявленную маркетинговую производительность с Dell EMC PowerMax, то подождите. В ближайшее время обещают опубликовать результат тестирования A800 в SPC-1. Я думаю такой радости от Dell EMC мы не дождёмся. И имейте в виду, что заявленные Dell EMC 10 млн IOPS для PowerMax указаны для профиля 8K RRH, что означает random read hit 8K блоком — случайное чтение со 100% попаданием в кэш.

Ну а теперь подробнее. A800 работает на ONTAP 9.4. Значит доступна вся богатая функциональность ONTAP, а также работа в кластере с существующими системами.
Так A800 выглядит спереди без крышки. NVMe SSD синенькие.

А так сзади:

Тут без сюрпризов в дизайне корпуса контроллеров. Видно, что за основу взяли конструкцию контроллеров A700s. Но теперь в корпусе 4U имеем 48 дисков. На старте продаж доступны диски ёмкостью 1.9, 3.8 и 7.6ТБ. Позже будут и 15.3ТБ SSD, что даёт более 2.5ПБ+ эффективной ёмкости всего в 4U.

Сетевые интерфейсы

Из ethernet-интерфейсов доступны 100GbE, 25GbE и 10GbE. Это будут отдельные сетевые карты. Сетевая карта на 100GbE поддерживает и 40GbE. Пока эти интерфейсы только для файловых протоколов и iSCSI. FCoE и NVMe-oF на них не поддерживается.

NVMe-oF работает по Fibre Channel. Для NVMe-oF поддерживаются скорости 32/16Gb, для обычного FC — 32/16/8Gb.

Кластерный и HA-интерконнект по отдельным 100GbE портам. Для кластерного интерконнекта можно использовать и 40GbE. А в случае апгрейдов текущих кластеров можно использовать и 10GbE. И да, повторюсь, А800 можно использовать в существующих кластерах с уже существующими не NVMe системами.

Для 100GbE кластерных сетей доступен новый для NetApp коммутатор Cisco Nexus 3232C.

Надеюсь, что в будущем появится поддержка NVMe-oF по RoCE. 100GbE и 25GbE порты есть, осталось реализовать это в ПО.

Storage

48 внутренних NVMe SSD. Они теперь голубенькие, чтобы не перепутать с обычными SSD. Вставить их в SAS полки не получится. Новые системы продаются на выбор с 24, 36 или 48 дисками. Внешних NVMe полок нет. Думаю, что это временно. Если купить систему с неполным набором дисков, то новые диски можно докупать паками по 6 штук. Кстати, хорошая аналогия с пивом, которое тоже часто продаётся six-pack’ами. А NetApp любит пиво.

Но к A800 можно подключать SAS полки. В первую очередь это сделано для апгрейдов старых AFF систем. Поддерживаются DS224C и DS2246 с IOM12. Можно подключить до 8 полок.

Для подключения внутренних дисков используется 4 PCIe Gen3 коммутатора, от каждого идёт по 24 полосы к 12 NVMe SSD. Поэтому изменился принцип заполнения шасси дисками. Шасси разделено на 4 квадранта. Вот как будет выглядеть шасси с 24 дисками, в которое добавили еще 6 дисков.

Прочие приятные мелочи

A800 поддерживает ADP. И поддерживает MetroCluster IP. А MetroCluster IP теперь работает с ADP. Правда это только для AFF систем. (Исправлено. До этого было написано, что для всех систем с поддержкой MCC IP).

Для high-end систем требуется иметь достаточно объёмные root агрегаты. Они должны быть не меньше объема оперативной памяти контроллеров, так как в случае паники контроллера в root агрегат сохраняется core dump, который техподдержка используется для выяснения причин паники. Объем оперативной памяти A800 — 1280ГБ. Но минимальный размер root агрегата всего 187ГБ. Core dump теперь сохраняется на флешке, с которой грузится контроллер.

Для NVlog’а теперь используются NVDIMM, а не NVRAM. Это позволяет еще больше сократить задержки на запись, так как шина памяти “отзывчивее”, чем PCIe.

С выходом ONTAP 9.4 NVMe-oF доступен A700/A700s/A300. На 60% выше производительность и на 50% ниже задержки.

Новые модели начального уровня

На смену FAS2600/A200 приходят FAS2700/A220.
То же самое шасси, но более мощный процессор, в два раз больше ядер. Прирост производительности на 20-30%.

В FAS2700 чуть больше изменений. Теперь там NVMe Flash Cache на джва ТБ. Есть два набора портов — 8xUTA2 или 8x10GbE BASE-T. UTA2 порты теперь поддерживают iSCSI Data Center Bridging (DCB). BASE-T порты не поддерживают FCoE. Только iSCSI, NFS, SMB.

На этом всё про A800. Готов ответить на вопросы в комментариях или в нашем уютном телеграм-чате — https://t.me/storagediscussions
А для получения оперативных новостей про NetApp и просто интересные ссылки подписывайтесь на канал https://t.me/storagetalks

2018   AFF   AFF A220   AFF A800   NVMe   NVMeF

ONTAP 9.4

8 мая NetApp выпустил очередную версию ONTAP и представил несколько новых систем хранения, в том числе первую доступную на рынке end-to-end NVMe all-flash СХД AFF A800. Да я в курсе про Dell EMC PowerMax, о ней мы еще поговорим в посте про A800.
Я решил разделить информацию об ONTAP и новым железе на два поста. Сейчас поговорим про новую версию ONTAP.

Прошло полгода с выхода ONTAP 9.3 и настало время следующей версии. ONTAP 9.4 — это обычный не LTS (Long Term Service) релиз. Подробнее про модель поддержки разных релизов на support-сайте, потребуется логин. Если кратко, то на LTS-релизы патчи выпускаются в течение 3 лет, на обычные релизы — в течение года.

Что нового в 9.4?

Обновления можно разделить на 4 категории:

  • Облака
  • Безопасность
  • FlexGroup
  • Общие изменения

Облака

FabricPool теперь работает не только со снепшотами, но и с обычными данными.
Для тех кто не знает, что это, есть пост на Хабре.
SSD до сих пор дорогие, NVMe SSD, кстати еще дороже, SCM тоже никто дёшево продавать не будет, так что варианты удешевления хранения данных на all-flash появляются разные.
До 9.4 в объектное хранилище можно было отправлять данные из снепшотов и из томов-получателей при использовании SnapMirror/Vault, которые по определению неактивные. Теперь эта технология работает и для активных, но холодных данных. Политика для активных данных называется auto. По умолчанию данные отправляются в облако, если к ним не было никаких обращений в течение 31 дня. За это отвечает опция tiering-minimum-cooling-days. Её можно менять в диапазоне от 2 до 63 дней.

Кроме того есть отличия в том, когда блоки из облачного слоя становятся снова горячими.
Политика snapshot-only:
При любом чтении блоков из облачного слоя блок становится горячим и остаётся на SSD.
Политика auto:
Блоки со случайным чтением становятся горячими и остаются на SSD.
Блоки с последовательным чтением остаются холодными и не копируются на SSD.
Политика backup:
При любых операциях блоки остаются холодными.

В качестве облачного/объектного слоя к поддержке AWS и StorageGRID добавилась поддержка Azure Blob Storage. Есть возможность использоваться любые другие приватные или публичные объектные хранилища, но делать это можно только после подтверждения со стороны NetApp.

FabricPool с самого начала работал на ONTAP Cloud. При чем там возможен тиринг между HDD и S3 (st1 и S3). Теперь поддерживается FabricPool и на ONTAP Select. И в качестве performance слоя можно использовать HDD, но рекомендуется все же SSD.

Самое время напомнить какие системы и в каких конфигурациях вообще поддерживают FabricPool.
FabricPool работает на уровне агрегата. К агрегату добавляется capacity слой. Внутри агрегата для каждого тома в отдельности применяются политики или не применяются.
Поддерживаются AFF, all-SSD агрегаты на FAS, ONTAP Cloud и ONTAP Select.
Не поддерживаются Flash Pool и HDD агрегаты на FAS. Не поддерживается MetroCluster.

Отсоединить capacity слой от агрегата можно только разрушив последний. Поэтому очень полезно появление в Object Store Profiler’а. Функциональность в ONTAP, которая позволяет проверить latency и throughput до облачного слоя перед тем, как присоединять его к агрегату.
Вызывается командами storage aggregate object-store profiler start в advanced режиме.

Произошли изменения и в дефрагментации облачного слоя. Прежде чем отправлять холодные блоки в облако они собираются в единый 4МБ объект. Из облака блоки могут читаться объектами от 4КБ до 1МБ. До версии 9.4 4МБ объект удалялся из облака только, если все его блоки становились горячими. Теперь это поведение изменено. Можно менять порог количества блоков без ссылок, при котором начинается дефрагментация 4МБ объекта. За это отвечает опция -unreclaimed-space-threshold в команде storage aggregate object-store modify. Например, если это значение равно 20%, то дефрагментация объекта начнётся, когда 80% данных из этого объекта переедут назад в performance слой. Изменяя значение опции, можно соблюсти баланс между затратами на хранение объектов и тратами за обращение к объектам при дефрагментации. Напомню, что у AWS и Azure есть плата не только за хранение объектов, но  и за операции с ними. Значения по умолчанию для разных типов capacity слоя отличаются:

  • 15% Azure Blob Storage
  • 20% Amazon S3
  • 40% StorageGRID

Теперь в capacity слое сохраняется выгода от inline data compaction, вдобавок к дедупликации и компрессии.

При использовании FabricPool со StorageGRID необходимо устанавливать в ONTAP сертификаты для шифрования управляющего трафика и запросов к API. Теперь необходимость наличия сертификатов можно отключать в тестовых целях.

Безопасность

Очень много изменений с точки зрения безопасности. Часть из них связана с шифрованием и на территории России и некоторых других стран СНГ работать не будет.

Первая функция под названием Secure Purge. Необходима для соответствия требованиям GDPR. Она позволяет “криптографически” удалять файлы из томов зашифрованных с помощью NVE (NetApp Volume Encryption). Пока нет подробной информации по работе этой функции и я могу только догадываться о том, как всё устроено. Упоминается, что файл невозможно будет восстановить, так как ключ шифрования будет удален. В NVE используется отдельный ключ шифрования для каждого FlexVol. Думаю, что том будет заново шифроваться с новым ключом, исключая удаляемый файл.

Protected Controller Reboot — для систем, которые используют Onboard Key Manager (OKM) можно включить требование пароля для загрузки системы. Если пароль не ввести, то в случае с NSE (NetApp Storage Encryption, использование SED дисков) система просто не загрузится, а с NVE тома будут в оффлайне. Защищает на тот случай, если у вас украли сразу весь массив ;-)

Хранение данных OKM на внешнем USB-носителе. Без USB-носителя система с NSE не загрузится, NVE — тома останутся в оффлайне. Для работы ONTAP USB-носитель уже не нужен. Функция доступна только после подтверждения от вендора, так как используется какой-то механизм для защиты от клонирования USB-носителей и не все его поддерживают.

Теперь про функциональность, которая доступна для всех стран.
Валидация образа ONTAP во время апгрейда. Все образы ONTAP всегда подписывались, но проверки во время апгрейда не было. Теперь будет.

Для новых платформ будет поддерживаться UEFI Secure Boot, то есть образ ONTAP будет проверятся во время каждый загрузки. Говорят в полях встречали системы с хакнутыми образами ОС, теперь так не получится. Для работы UEFI Secure Boot не нужен TPM-модуль.

FlexGroup

Более 120ПБ данных уже хранят клиенты NetApp с использованием FlexGroup. Про них я рассказывал в этом посте. С тех пор прошло много времени и функциональность FlexGroup сильно продвинулась вперед. Сейчас поддерживаются NFS 3, SMB 2, SMB 3. В 9.3 добавили поддержку Qtree, SnapVault, Unified SnapMirror (XDP), QoS Max.
В 9.4 добавили следующее:

  • Поддержку FPolicy и аудита
  • Адаптивный QoS aka A-QoS. QoS-политики, которые работают со значениями IOPS/TB и динамически меняют потолок для файла/тома с изменением его размера.
  • QoS Min. Такие политики работают только на AFF.
  • Увеличили лимиты для SnapMirror.

Подробнее про FlexGroup можно почитать в TR-4571. NetApp FlexGroup Volume Best Practices and Implementation Guide.

Кстати, с использованием FlexGroups был показан отличный результат в тесте SPEC SFS2014.

Общие изменения

Тут всё такое “вкусное”, что даже не знаю с чего начать.

Улучшили работу дедупликации:

  • Улучшения в работе фоновой дедупликации на уровне агрегата.
  • Дедупликация между снепшотами и активными данными. До этого релиза данные в снепшотах не дедуплицировались, поэтому всегда рекомендовалось настраивать расписание так, чтобы снепшоты совершались после дедупликации.
  • На томах получателях SnapMirror/Vault автоматически включены политики инлайн и фоновой дедупликации.

Появилась поддержка SMB Multichannel:
Обещают до 90% повышения производительность на high-end системах. Всё за счёт более эффективного использования ядер, утилизации сетевых карт и использования множества TCP/IP сессий.

Fast Drive Zeroing — моментальный zeroing дисков вне зависимости от их типа и размера. Но есть нюансы:

  • Работает только на свежих инсталляциях 9.4 или на системах, которые были реинициализированы с 9.4.
  • Такую систему нельзя даунгрейдить до 9.3 и ниже.

В OnCommand System Manager добавили поддержку Application Aware Data Management (AppDM) для MS SQL. Это те самые мастера в разделе Applications & Tiers в меню слева. И теперь работать с ними можно через REST API.

Каждый FlexVol теперь поддерживает 1023 снепшота.

Для текущих систем стали доступны 30TB SSD.

Ну и пожалуй самое главное изменение — для обновления ONTAP теперь не нужен ftp или web-сервер, образ можно загружать сразу в браузере.

На этом всё про ONTAP 9.4. Готов ответить на вопросы в комментариях или в нашем уютном телеграм-чате — https://t.me/storagediscussions
А для получения оперативных новостей про NetApp и просто интересные ссылки подписывайтесь на канал https://t.me/storagetalks

2018   9.4   FabricPool   FlexGroups   ONTAP   ONTAP 9

Сайзинг Flash Pool

Попробуем разобраться как подобрать нужное количество SSD-кэша для систем NetApp. Эти советы подойдут тем, у кого уже используется NetApp или есть возможность взять систему в тест. Даже демо-система без SSD дисков, позволит понять насколько эффективно будет работать кэш с вашими данными.

К сожалению, универсального ответа на вопрос «Как понять процент “горячих” данных?» без тестирования на реальном оборудовании у меня нет. Если кто-то поделится таким рецептом для каких-либо приложений, буду рад.

Как понять насколько эффективно работает Flash Pool в текущей конфигурации? Какая ёмкость SSD-кэша в Flash Pool будет оптимальной, если вы только собираетесь добавлять кэш к обычному агрегату?

Поговорим про AWA — Automated Workload Analyzer. Инструмент, который помогает получить ответы на эти вопросы.

Некоторую статистику по работе FlashPool можно увидеть в OnCommand System Manager. Но она не особо информативна и, например, не позволяет понять какие тома больше используют кэш, а каким он в принципе не нужен.

Куда больше информации можно получить, запустив AWA. Это часть ONTAP. Появилась эта функциональность в Data ONTAP 8.2.1 и доступна для 7-mode и cluster-mode. AWA собирает и анализирует статистику по определенному агрегату. На основе собранных данных рекомендует оптимальный размер SSD-кэша, показывает предполагаемые показатели cache hit rate для рекомендуемой ёмкости Flash Pool и аналогичные показатели при меньшем размере кэша. С выходом Data ONTAP 8.3.1 можно посмотреть информацию в разрезе томов на агрегате.

AWA — это по сути 3 node-shell команды:

- wafl awa start
- wafl awa print
- wafl awa stop

Вот как это выглядит на практике (вывод можно копировать):

Последовательность действий следующая. Сначала мы запускам AWA для агрегата. Ждём 24 часа, а ещё лучше несколько дней. Останавливаем работу AWA. Желательно, чтобы в период работы AWA на СХД была типичная нагрузка. В процессе можно смотреть результаты работы, используя wafl awa print. Можно запускать анализ сразу нескольких агрегатов одновременно. Максимально работа AWA “отъест” 2% CPU, независимо от количества анализируемых агрегатов и не более 0.2% от кэша контроллера на каждый агрегат.

Для просмотра информации по томам используется опция -t. Если добавить после неё число n, то выведется информация по n самым нагруженным томам.

AWA можно запускать на агрегатах, где уже используется Flash Pool.

Само собой, результат работы AWA, показанный выше далёк от того, что можно увидеть в реальной жизни. Я запускал это на симуляторе.

Вот например, как выглядят результаты работы AWA на «боевой» системе после сбора статистики в течение 2 недель. Это FAS8040 у клиента, который предоставляет облачные услуги.

### FP AWA Stats ###

                     Host NA-Store-A                    Memory 28342 MB
            ONTAP Version NetApp Release 8.2.1 Cluster-Mode: Fri Mar 21 14:48:58 PDT 2014
              AWA Version 1
           Layout Version 1
               CM Version 1

Basic Information

                Aggregate aggr_SAS
             Current-time Fri May 13 15:14:56 FET 2016
               Start-time Fri Apr 29 00:21:37 FET 2016
      Total runtime (sec) 1263213
    Interval length (sec) 600
          Total intervals 2111
        In-core Intervals 1024

Summary of the past 1023 intervals
                                   max
          Read Throughput      247.095 MB/s
         Write Throughput      274.819 MB/s
       Cacheable Read (%)       78.298 %
      Cacheable Write (%)       35.510 %
 Max Projected Cache Size     5888.973 GB
   Projected Read Offload       60.000 %
  Projected Write Offload       28.000 %

Summary Cache Hit Rate vs. Cache Size

       Size        20%        40%        60%        80%       100%
   Read Hit     46.000     52.000     55.000     59.000     60.000
  Write Hit     26.000     26.000     26.000     26.000     28.000

The entire results and output of Automated Workload Analyzer (AWA) are
estimates. The format, syntax, CLI, results and output of AWA may
change in future Data ONTAP releases. AWA reports the projected cache
size in capacity. It does not make recommendations regarding the
number of data SSDs required. Please follow the guidelines for
configuring and deploying Flash Pool; that are provided in tools and
collateral documents. These include verifying the platform cache size
maximums and minimum number and maximum number of data SSDs.

### FP AWA Stats End ###

Что мы можем понять из этого вывода?

  • Read throughput and write throughput: Это максимальные показатели throughput из всех 10-минутных интервалов. Учитывается случайная и последовательная нагрузки.
  • Cacheable read and cacheable write: Это показатели из интервала, который имеет максимальные значения cache hit. Причём это может быть интервал отличный от интервала из предыдущего пункта. Flash Pool кэширует все случайные операции чтения на агрегате, то есть Cacheable Read (%) это процент случайного чтения с агрегата. Значение Cacheable Write (%) показывает операции записи, которые могут попасть в Flash Pool при использовании политики по-умолчанию “random-write” (это случайные операции перезаписи). Вообще про работу Flash Pool и доступные политики я сделаю отдельный пост. Когда-нибудь.
  • Max projected cache size: Это то, ради чего и запускается AWA — рекомендуемый размер кэша для агрегата. Чем дольше работал AWA, тем выше это значение может быть.
  • Summary cache hit rate vs. cache size: Это таблица показывает показатели cache hit при использовании меньшего объема кэша, чем указано в Max projected cache size. Иногда на значение Max projected cache size может влиять нетипичная нагрузка в течение некоторых интервалов. И в таблице можно будет увидеть, что меньшее количество кэша может дать такую же выгоду.

Рекомендую не забывать использовать AWA с новыми только настраиваемыми системами с SSD под Flash Pool. NetApp не даёт возможности удалить диски из агрегатов, в том числе используемые для кэша, без разрушения агрегата. Поэтому, чтобы в будущем не было “мучительно больно” из-за неправильного распределения кэша, лучше разбить диски по агрегатам, а добавление кэша отложить. В течение пары недель собрать статистику с помощью AWA, и на основе этой информации оптимально сконфигурировать Flash Pool.

AWA можно использовать и для сайзинга Flash Cache. Для этого надо обращать внимание только на показатели связанные с чтением, так как Flash Cache работает только как кэш на чтение.





2016   AWA   Flash Cache   Flash Pool   SSD   tutorial

NetApp Innovation Russia 2016

8 ноября состоится ежегодная конференция NetApp для клиентов и партнёров.
Расскажут про новую линейку оборудования, про интеграцию с актуальными технологиями на рынке — OpenStack, контейнеры. Будут демонстрации и примеры решения реальных задач у заказчиков. Например, обновление систем без миграции данных с помощью Copy-Free Transition, резервное восстановление с помощью Microsoft Azure Site Recovery.
Ну и самое главное, ради чего стоит посещать такие мероприятия — живое общение.

Доступная на данный момент программа.

Регистрация

2016   Innovation   netapp   Russia
Ctrl + ↓ Ранее