Разное

Raid iscsi: iSCSI хранилище для небогатых / Хабр

Содержание

Для чего нужен SCSI ?

Для чего нужен интерфейс SCSI

Прежде чем переходить к тестированию, наверное, стоит остановиться и поговорить немного подробнее об интерфейсе SCSI. Он довольно редко встречается в домашних компьютерах, хотя и обладает рядом достоинств. Главным из них является возможность одновременного подключения и работы до 15 устройств. По мере своего развития интерфейс SCSI претерпел ряд изменений. Если первый был 8-разрядным, то затем произошел переход на 16-разрядный. Теоретически в особом случае максимальная длина кабеля может составлять до 25 м. По скорости передачи данных также наблюдался плавный прогресс от 20 Мбайт/с в UltraSCSI к 40 Мбайт в Ultra WideSCSI и к 80 Мбайт в Ultra2SCSI. Самый новый интерфейс Ultra160/m SCSI обеспечивает передачу данных со скоростью до 160 Мбайт/c. В случае использования дифференциального подключения в низковольтном варианте LVD (Low Voltage Differential) допустимая длина кабеля составляет 15 м. Причиной редкого использования интерфейса SCSI дома является, как правило, достаточность интерфейса IDE с его 4 потенциальными возможными устройствами, а также такой серьезный фактор, как значительно более высокая цена SCSI-устройств.

Что такое Fibre Channel

Fibre Channel — стандарт интерфейса передачи данных последовательным способом в режиме полного дуплекса. Помимо высокой скорости передачи данных — до 200 Мбайт/с — расстояние, на которое они могут передаваться в случае использования оптиковолоконной связи, может составлять 10 км. При этом поддерживаются такие популярные протоколы передачи данных, как SCSI, IP, Token Ring, Ethernet и т. д. Fibre Channel может быть использован в сетях различной топологии.

SCSI-контроллер

Для того чтобы реализовать интерфейс SCSI, вам понадобится его контроллер. Он существует в двух ипостасях: либо он уже интегрирован на системной плате, либо вы приобретаете его отдельно, как и произошло в нашем случае. Мы использовали PCI SCSI-контроллер Tekram DC-390U2W — наиболее совершенную модель этой линии.

Особенности
  • Основные характеристики контроллера Tekram DC-390U2W
  • Чип SCSI:
    • · Symbios Logic SYM53C895 Ultra2 SCSI
    • · Symbios Logic SYM53C141 Bus Isola-tion IC
  • Поддерживаемые протоколы:
    • · Ultra2 LVD
    • · Ultra Wide SCSI
    • · Ultra & SCSI-2
  • Максимальная скорость передачи данных — 80 Мбайт/с
  • Максимальное количество устройств — 15
  • Внутренние коннекторы:
    • · 68-Pin Ultra2 LVD SCSI
    • · 68-Pin Ultra Wide SCSI
    • · 50-Pin Ultra/SCSI-2
  • Внешний коннектор:
  • 68-Pin Ultra2 LVD SCSI
  • Кабели в комплекте:
    • · Int. Ultra2 Twisted Pair
    • · Int. Ultra Wide
    • · Int. SCSI-2
  • Аксессуары в комплекте:
    • · Руководство по эксплуатации
    • · Дискеты с драйверами
    • · Ultra2 терминатор
    • · Внешний 50-Pin переходник
Условия тестирования

Тестирование жесткого диска Quantum Atlas 10K объемом 9,1 Гбайт происходило в следующей конфигурации:

  • системная плата ASUS P2B BIOS ver. 1008;
  • процессор Pentium III 450 МГц
  • графический адаптер ATI Xpert98 8 Мбайт;
  • системный диск Quantum Fireball EL 7,6 Мбайт, UltraDMA 33;
  • SCSI-контроллер Tekram DC-390U2W.

Сам тестируемый диск размечен одним разделом FAT32.

В качестве операционной системы использовалась Windows 98. Тестирование проводилось тестовым пакетом Ziff Davis WinBench 99 ver. 1.1.

Результаты тестирования

Полученные результаты по тесту WinBench 99:

  • Business Disk WinMark — 4750 тыс. байт/с;
  • High-End Disk WinMark — 16 600 тыс. байт/с;
  • Disk Transfer Rate (Begining) — 25 900 тыс. байт/с;
  • Disk Transfer Rate (End) — 16 600 тыс. байт/с;
  • Disk Access — 8,94 мс;
  • Disk CPU Utilization — 5,17%.

Глядя на итоговые цифры, можно сказать, что они по большинству показателей раза в полтора превышают стандартные диски IDE и, естественно, выше, чем у SCSI-дисков со скоростью вращения 7200 об/мин. Освоен очередной 10 000-й рубеж скорости, а все лучшее тут же становится ориентиром для других производителей, не желающих уступать в конкурентной борьбе. Все это в конечном итоге благотворно сказывается на нас — пользователях и на общем прогрессе в сфере дисковых накопителей.

Сеть хранения данных — Storage area network

Сеть, обеспечивающая доступ к консолидированному хранилищу данных на уровне блоков

Сеть хранения данных ( SAN ) или сеть хранения представляет собой компьютерную сеть , которая обеспечивает доступ к консолидированной, хранения данных на уровне блоков . Сети SAN в основном используются для доступа к устройствам хранения, таким как дисковые массивы и ленточные библиотеки, с серверов, поэтому устройства воспринимаются операционной системой как хранилища с прямым подключением . SAN обычно представляет собой выделенную сеть устройств хранения, недоступных через локальную сеть (LAN).

Хотя SAN обеспечивает доступ только на уровне блоков, файловые системы, построенные на основе SAN, действительно обеспечивают доступ на уровне файлов и известны как файловые системы с общим диском .

Архитектуры хранения

Fibre Channel SAN соединяет серверы с хранилищем через коммутаторы Fibre Channel.

Сети хранения данных (SAN) иногда называют сетью за серверами и исторически развивались на основе централизованной модели хранения данных , но со своей собственной сетью данных . SAN — это, в простейшем случае, выделенная сеть для хранения данных. Помимо хранения данных, сети SAN позволяют выполнять автоматическое резервное копирование данных, а также мониторинг хранилища, а также процесс резервного копирования. SAN — это комбинация аппаратного и программного обеспечения. Он вырос из архитектур мэйнфреймов, ориентированных на данные , где клиенты в сети могут подключаться к нескольким серверам , хранящим различные типы данных. Для масштабирования емкости хранилища по мере роста объемов данных было разработано хранилище с прямым подключением (DAS), в котором к серверам были подключены дисковые массивы или просто связка дисков (JBOD). В этой архитектуре можно добавить устройства хранения для увеличения емкости хранения. Однако сервер, через который осуществляется доступ к устройствам хранения, является единственной точкой отказа , и большая часть пропускной способности сети LAN используется для доступа, хранения и резервного копирования данных. Чтобы решить проблему единой точки отказа, была реализована архитектура общего хранилища с прямым подключением , где несколько серверов могли получить доступ к одному и тому же устройству хранения.

DAS была первой сетевой системой хранения данных и до сих пор широко используется там, где требования к хранению данных не очень высоки. На его основе была разработана архитектура сетевого хранилища (NAS), в которой один или несколько выделенных файловых серверов или устройств хранения доступны в локальной сети. Таким образом, передача данных, особенно для резервного копирования, по-прежнему происходит по существующей локальной сети. Если за один раз хранилось более терабайта данных, пропускная способность LAN становилась узким местом. Поэтому были разработаны сети хранения данных, в которых к локальной сети была подключена выделенная сеть хранения данных, а терабайты данных передаются по выделенной высокоскоростной сети с высокой пропускной способностью. В сети SAN устройства хранения взаимосвязаны. Передача данных между устройствами хранения, например, для резервного копирования, происходит за серверами и должна быть прозрачной. В архитектуре NAS данные передаются по протоколам TCP и IP через Ethernet . Для сетей SAN были разработаны различные протоколы, такие как Fibre Channel , iSCSI , Infiniband . Поэтому в сетях SAN часто есть собственная сеть и устройства хранения, которые необходимо покупать, устанавливать и настраивать. Это делает сети SAN дороже, чем архитектуры NAS.

Составные части

Двухпортовая плата адаптера хост-шины FC 8 Гбит / с

У SAN есть свои собственные сетевые устройства, такие как коммутаторы SAN. Для доступа к SAN используются так называемые серверы SAN, которые, в свою очередь, подключаются к хост-адаптерам SAN . Внутри SAN может быть соединен ряд устройств хранения данных, например дисковые массивы с поддержкой SAN, JBODS и ленточные библиотеки .

Уровень хоста

Говорят, что серверы, обеспечивающие доступ к SAN и ее устройствам хранения, образуют уровень хоста SAN. Такие серверы имеют хост-адаптеры, которые представляют собой карты, которые подключаются к слотам на материнской плате сервера (обычно слотам PCI) и работают с соответствующей прошивкой и драйвером устройства . Через хост-адаптеры операционная система сервера может обмениваться данными с запоминающими устройствами в сети SAN.

В развертываниях Fibre Channel кабель подключается к хост-адаптеру через преобразователь гигабитного интерфейса (GBIC). GBIC также используются в коммутаторах и устройствах хранения в сети SAN, и они преобразуют цифровые биты в световые импульсы, которые затем могут передаваться по кабелям Fibre Channel. И наоборот, GBIC преобразует входящие световые импульсы обратно в цифровые биты. Предшественник GBIC назывался гигабитным канальным модулем (GLM).

Слой ткани

Уровень фабрики состоит из сетевых устройств SAN , в том числе коммутаторов SAN , маршрутизаторов, протокольных мостов, шлюзов и кабелей. Сетевые устройства SAN перемещают данные внутри SAN или между инициатором , например портом HBA сервера, и целью , например, портом устройства хранения.

Когда SAN были впервые построены, концентраторы были единственными устройствами, поддерживающими Fibre Channel , но были разработаны коммутаторы Fibre Channel, и теперь концентраторы редко встречаются в SAN. Коммутаторы имеют преимущество перед концентраторами в том, что они позволяют всем подключенным устройствам обмениваться данными одновременно, поскольку коммутатор предоставляет выделенный канал для соединения всех своих портов друг с другом. Когда SAN были впервые построены, Fibre Channel нужно было реализовать через медные кабели, в наши дни в SAN используются многомодовые оптоволоконные кабели .

Сети SAN обычно строятся с резервированием, поэтому коммутаторы SAN подключаются с помощью резервных каналов. Коммутаторы SAN соединяют серверы с устройствами хранения и, как правило, работают без блокировки, что позволяет передавать данные по всем подключенным проводам одновременно. Коммутаторы SAN предназначены для резервирования и настроены в ячеистой топологии . Один коммутатор SAN может иметь всего 8 портов и до 32 портов с модульными расширениями. Так называемые коммутаторы класса «директор» могут иметь до 128 портов.

В коммутируемых сетях SAN используется протокол коммутируемой матрицы Fibre Channel FC-SW-6, в соответствии с которым каждое устройство в сети SAN имеет жестко заданный адрес всемирного имени (WWN) в адаптере главной шины (HBA). Если устройство подключено к SAN, его WWN регистрируется на сервере имен коммутатора SAN. Вместо WWN или всемирного имени порта (WWPN) поставщики запоминающих устройств SAN Fibre Channel могут также жестко указать всемирное имя узла (WWNN). Порты устройств хранения часто имеют WWN, начинающийся с 5, а адаптеры шины серверов — с 10 или 21.

Уровень хранения

Fibre Channel — это многоуровневая технология, которая начинается на физическом уровне и переходит через протоколы к протоколам верхнего уровня, таким как SCSI и SBCCS.

Сериализованный протокол интерфейса малых компьютерных систем (SCSI) часто используется поверх протокола коммутируемой фабрики Fibre Channel в серверах и устройствах хранения SAN. Интерфейс Интернет-малых компьютерных систем (iSCSI) через Ethernet и протоколы Infiniband также могут быть реализованы в сетях SAN, но часто соединяются с SAN Fibre Channel. Однако доступны устройства хранения Infiniband и iSCSI, в частности дисковые массивы.

Считается, что различные устройства хранения в сети SAN образуют уровень хранения . Он может включать в себя различные жесткие диски и магнитные ленты , в которых хранятся данные. В сетях SAN дисковые массивы объединены через RAID , благодаря чему многие жесткие диски выглядят и работают как одно большое запоминающее устройство. Каждому запоминающему устройству или даже разделу на этом запоминающем устройстве назначен номер логической единицы (LUN). Это уникальный номер в SAN, и каждый узел в SAN, будь то сервер или другое устройство хранения, может получить доступ к хранилищу через LUN. LUN позволяют сегментировать емкость хранилища SAN и реализовывать средства управления доступом. Конкретному серверу или группе серверов может быть, например, предоставлен доступ только к определенной части уровня хранения SAN в форме LUN. Когда запоминающее устройство получает запрос на чтение или запись данных, оно проверяет свой список доступа, чтобы установить, разрешен ли узлу, идентифицированному его LUN, доступ к области хранения, также идентифицированной LUN. Маскирование LUN ​​- это метод, при котором адаптер главной шины и программное обеспечение SAN сервера ограничивают LUN, для которых принимаются команды. При этом LUN, которые в любом случае не должны быть доступны серверу, маскируются. Другой метод ограничения доступа к серверу для определенных устройств хранения SAN — это управление доступом на основе фабрики или зонирование, которое должно быть реализовано на сетевых устройствах SAN и серверах. Таким образом, доступ к серверу ограничен устройствами хранения, которые находятся в определенной зоне SAN.

Сетевые протоколы

Большинство сетей хранения используют протокол SCSI для связи между серверами и дисковыми накопителями. Слой сопоставления с другими протоколами используется для формирования сети:

  • ATA через Ethernet (AoE) , отображение ATA через Ethernet
  • Протокол Fibre Channel (FCP), наиболее известный из них, представляет собой отображение SCSI через Fibre Channel.
  • Fibre Channel через Ethernet (FCoE)
  • ESCON через Fibre Channel ( FICON ), используемый мэйнфреймами
  • HyperSCSI , отображение SCSI через Ethernet
  • Отображение iFCP или SANoIP для FCP через IP
  • iSCSI , отображение SCSI через TCP / IP
  • Расширения iSCSI для RDMA (iSER), отображение iSCSI через InfiniBand
  • Сетевое блочное устройство , отображение запросов узлов устройства в UNIX-подобных системах через потоковые сокеты, такие как TCP / IP
  • Протокол SCSI RDMA (SRP), еще одна реализация SCSI для транспорта RDMA

Сети хранения также могут быть построены с использованием технологий SAS и SATA . SAS произошел от системы хранения с прямым подключением SCSI. SATA произошла от хранилища с прямым подключением IDE . Устройства SAS и SATA можно объединить в сеть с помощью расширителей SAS .

Примеры составных протоколов с использованием SCSI:

Программного обеспечения

SAN в первую очередь определяется как сеть специального назначения. Ассоциация сетей хранения данных (SNIA) определяет SAN как «сеть, основной целью которой является передача данных между компьютерными системами и элементами хранения». Но SAN состоит не только из инфраструктуры связи, но и из уровня управления программным обеспечением . Это программное обеспечение организует серверы, устройства хранения и сеть, чтобы данные можно было передавать и хранить. Поскольку SAN не является хранилищем с прямым подключением (DAS), устройства хранения в SAN не принадлежат и не управляются сервером. Потенциально емкость хранилища данных, к которой может получить доступ один сервер через сеть SAN, бесконечна, и эта емкость хранилища также может быть доступна другим серверам. Более того, программное обеспечение SAN должно обеспечивать прямое перемещение данных между устройствами хранения в сети SAN с минимальным вмешательством сервера.

Программное обеспечение для управления SAN устанавливается на одном или нескольких серверах, а клиенты управления — на устройствах хранения. К программному обеспечению для управления SAN были разработаны два подхода: внутриполосное управление означает, что данные управления между сервером и устройствами хранения передаются в той же сети, что и данные хранилища. В то время как внеполосное управление означает, что данные управления передаются по выделенным каналам. Программное обеспечение для управления SAN будет собирать данные управления со всех устройств хранения на уровне хранения, включая информацию о сбоях чтения и записи, узких местах емкости хранилища и сбоях устройств хранения. Программное обеспечение для управления SAN может интегрироваться с протоколом простого управления сетью (SNMP).

В 1999 году был представлен открытый стандарт для управления устройствами хранения и обеспечения взаимодействия — Общая информационная модель (CIM). Веб-версия CIM называется Web-ориентированным управлением предприятием (WBEM) и определяет объекты устройств хранения SAN и обрабатывает транзакции. Использование этих протоколов включает диспетчер объектов CIM (CIMOM) для управления объектами и взаимодействиями и позволяет централизованно управлять устройствами хранения SAN. Базовое управление устройствами для сетей SAN также может быть достигнуто с помощью спецификации интерфейса управления хранилищем (SMI-S), где объекты и процессы CIM зарегистрированы в каталоге. Затем программные приложения и подсистемы могут использовать этот каталог. Также доступны управляющие программные приложения для настройки устройств хранения SAN, что позволяет, например, настраивать зоны и номера логических устройств (LUN).

В конечном итоге сетевые устройства SAN и устройства хранения доступны от многих поставщиков. Каждый поставщик SAN имеет собственное программное обеспечение для управления и настройки. Общее управление в сетях SAN, включающих устройства от разных поставщиков, возможно только в том случае, если поставщики предоставляют интерфейс прикладного программирования (API) для своих устройств другим поставщикам. В таких случаях программное обеспечение для управления SAN верхнего уровня может управлять устройствами SAN от других поставщиков.

Поддержка файловых систем

В SAN данные передаются, хранятся и доступны на уровне блоков. Таким образом, SAN не обеспечивает абстракцию файлов данных , а только хранение и операции на уровне блоков . Но файловые системы были разработаны для работы с программным обеспечением SAN для обеспечения доступа на уровне файлов . Они известны как файловая система с общим диском (файловая система SAN). Серверные операционные системы поддерживают свои собственные файловые системы на собственных выделенных, не общих LUN, как если бы они были локальными для себя. Если несколько систем просто попытаются совместно использовать LUN, они будут мешать друг другу и быстро повредить данные. Для любого запланированного совместного использования данных на разных компьютерах внутри LUN требуется программное обеспечение, такое как файловые системы SAN или кластерные вычисления .

В СМИ и развлечениях

Системы видеомонтажа требуют очень высокой скорости передачи данных и очень малой задержки. Сети SAN в сфере мультимедиа и развлечений часто называют бессерверными из-за характера конфигурации, при которой клиенты рабочего стола рабочего процесса видео (получение, редактирование, воспроизведение) размещаются непосредственно в сети SAN, а не подключаются к серверам. Управление потоком данных осуществляется распределенной файловой системой, такой как StorNext от Quantum. Контроль использования полосы пропускания для каждого узла, иногда называемый качеством обслуживания (QoS), особенно важен при редактировании видео, поскольку он обеспечивает справедливое и приоритетное использование полосы пропускания в сети.

Качество обслуживания

SAN Storage QoS позволяет рассчитывать и поддерживать желаемую производительность хранилища для сетевых клиентов, получающих доступ к устройству. Вот некоторые факторы, влияющие на качество обслуживания SAN:

На QoS в системе хранения SAN может повлиять неожиданное увеличение трафика данных (всплеск использования) от одного пользователя сети, что может вызвать снижение производительности для других пользователей в той же сети. Это можно назвать «эффектом шумного соседа». Когда службы QoS включены в системе хранения SAN, можно предотвратить «эффект шумного соседа» и точно спрогнозировать производительность сетевого хранилища.

Использование QoS хранилища SAN отличается от использования избыточного выделения ресурсов диска в среде SAN. Избыточное выделение ресурсов может использоваться для обеспечения дополнительной емкости для компенсации пиковых нагрузок сетевого трафика. Однако там, где сетевые нагрузки непредсказуемы, избыточное выделение ресурсов может в конечном итоге привести к полному использованию всей полосы пропускания и значительному увеличению задержки, что приведет к снижению производительности SAN.

Виртуализация хранилища

Виртуализация хранилища — это процесс абстрагирования логического хранилища от физического хранилища. Ресурсы физического хранилища объединяются в пулы хранения, из которых создается логическое хранилище. Он предоставляет пользователю логическое пространство для хранения данных и прозрачно обрабатывает процесс сопоставления его с физическим местоположением, концепция, называемая прозрачностью местоположения . Это реализовано в современных дисковых массивах, часто с использованием проприетарной технологии производителя. Однако цель виртуализации хранилища — сгруппировать несколько дисковых массивов от разных поставщиков, разбросанных по сети, в одно устройство хранения. Таким образом, единым запоминающим устройством можно управлять единообразно.

Смотрите также

Ссылки

внешние ссылки

СХД DEPO Storage включены в Реестр отечественной вычислительной техники

Интеграция
Инфраструктура


, Текст: Владимир Бахур

Линейка систем хранения данных, которая производится российской компанией «Депо компьютерс», получила заключение Минпромторга РФ № 42138/11 от 18.06.2020. Заключение подтверждает производство СХД линейки DEPO Storage на территории Российской Федерации в соответствии с постановлением Правительства РФ №719. Российским заказчикам теперь доступны высокотехнологичные системы хранения данных ДЕПО, созданные в России и соответствующие условиям постановления Правительства РФ от 21 декабря 2019 г. № 1746.

Системы хранения данных линейки DEPO Storage, построенные на серверной материнской плате ДЕПО российского производства и отечественном ПО RAIDIX, представляют собой программно-определяемые СХД общего назначения с поддержкой файлового и блочного доступа к данным.

Единая точка управления системами хранения данных линейки DEPO Storage позволяет ИТ-службе компании в короткие сроки предоставлять бизнес-пользователям ресурсы хранения для приложений и сервисов. Одновременная поддержка файлового и блочного доступа к данным упрощает организацию корпоративного хранилища и даёт возможность использовать одно устройство хранения для решения широкого круга задач.

В линейку входят системы хранения данных DEPO Storage 3412SLR и DEPO Storage 3424SLR с одним контроллером, которые предназначены для использования в качестве сетевого хранилища (NAS) в корпоративных сетях или в качестве специализированного узла сети хранения данных предприятия (SAN). Эти системы хранения позволяют консолидировать большие массивы информации и обеспечивать высокую скорость доступа к ним.

Также в линейке представлена двухконтроллерная СХД (модель DEPO Storage 6424DLR), архитектура которой обеспечивает максимальную отказоустойчивость и непрерывный доступ к критически важным данным и сервисам.

Благодаря особенностям аппаратной архитектуры и возможностям используемого программного обеспечения, новые СХД DEPO Storage позволяют эффективно решать задачи хранения данных для систем видеонаблюдения, для платформ виртуализации и для создания файловых хранилищ.

В качестве программной платформы используется российское программное обеспечение RAIDIX, которое внесено в Единый реестр российских программ для электронных вычислительных машин и баз данных. Управляющая платформа позволяет создавать гибридные и all-flash СХД с высокоскоростным блочным (SAN) и файловым (NAS) доступом. В СХД могут одновременно использоваться жесткие диски (HDD) и твердотельные накопители (SSD). Особая архитектура программного массива RAIDIX позволяет добиваться максимальной производительности на жестких HDD в условиях интенсивной потоковой нагрузки. При работе с твердотельными накопителями RAIDIX использует ERA Engine — инновационный программный массив с технологиями параллелизации вычислений и lockless-архитектуры. Он позволяет системе получать скорость, соотносимую с пределом производительности используемых flash-накопителей. При этом высокая скорость операций ввода-вывода и минимальное время отклика обеспечиваются даже в режиме смешанной нагрузки. ПО RAIDIX поддерживает самые современные и востребованные протоколы доступа к данным, интерфейсы дисков, уровни массивов RAID и платформы виртуализации.

СХД линейки DEPO Storage масштабируются путем подключения дисковых полок. К одной системе хранения можно подключить до 600 жестких или твердотельных накопителей разных форм-факторов, общий объем хранения данных можно расширить до 7 Петабайт. Для ускорения работы приложений поддерживается кэширование данных с использованием высокоскоростных твердотельных дисков с интерфейсом NVMe.

СХД линейки DEPO Storage валидированы для работы с российскими решениями в области виртуализации. В частности, СХД могут использоваться в качестве дополнительного хранилища данных для российской гиперконвергентной вычислительной платформы СКАЛА-Р и для российской программно-аппаратной платформы виртуализации ДЕПО Атлант.

«Стремительное развитие цифровых технологий, охватывающих сегодня практически все сферы деятельности, привело к взрывному росту объема данных. Во многих отраслях информация стала ключевым фактором успешного развития, – сказал Дмитрий Черкасов, генеральный директор «Депо компьютерс». – Системы хранения данных «Депо компьютерс» предоставляют российским заказчикам надежную и доступную альтернативу импортным решениям».

Хранилища данных (Persistent Volumes) в Kubernetes

В предыдущих статьях мы установили и немного научились работать с кластером kubernetes. При этом я не рассмотрел вопрос с хранением данных, а вынес его в отдельную тему. Сегодня как раз хранение данных в кластере Kubernetes я и рассмотрю. Настраиваются эти хранилища в кластере с помощью абстракции под названием Persistent Volumes.


Онлайн-курс по Kubernetes – для разработчиков, администраторов, технических лидеров, которые хотят изучить современную платформу для микросервисов Kubernetes. Самый полный русскоязычный курс по очень востребованным и хорошо оплачиваемым навыкам. Курс не для новичков – нужно пройти
.

Цели статьи

  1. Рассказать об устройстве внутренностей кластера Kubernetes для работы с дисками.
  2. Описать основные абстракции, которые необходимо настроить, чтобы использовать файловые хранилища.
  3. На примере NFS показать принцип работы Kubernetes с внешними хранилищами.
  4. Рассказать, как в кластере Kubernetes использовать локальные диски нод.

Работа с дисками в Kubernetes

Работа с дисковыми томами в Kubernetes проходит по следующей схеме:

  1. Вы описываете типы файловых хранилищ с помощью Storage Classes и Persistent Volumes. Они могут быть совершенно разными от локальных дисков до внешних кластерных систем и дисковых полок.
  2. Для подключения диска к поду вы создаете Persistent Volume Claim, в котором описываете потребности пода в доступе к хранилищу — объем, тип и т.д. На основе этого запроса используются либо готовые PV, либо создаются под конкретный запрос автоматически с помощью PV Provisioners.
  3. В описании пода добавляете информацию о Persistent Volume Claim, который он будет использовать в своей работе.

Что такое Persistent Volumes

Условно Persistent Volumes можно считать аналогом нод в самом кластере Kubernetes. Допустим, у вас есть несколько разных хранилищ. К примеру, одно быстрое на SSD, а другое медленное на HDD. Вы можете создать 2 Persistent Volumes в соответствии с этим, а затем выделять подам место в этих томах. Кубернетис поддерживает огромное количество подключаемых томов с помощью плагинов.

Вот список наиболее популярных:

  • NFS
  • iSCSI
  • RBD
  • CephFS
  • Glusterfs
  • FC (Fibre Channel)

Полный список можно посмотреть в документации.

Persistent Volume Claim

PersistentVolumeClaim (PVC) есть не что иное как запрос к Persistent Volumes на хранение от пользователя. Это аналог создания Pod на ноде. Поды могут запрашивать определенные ресурсы ноды, то же самое делает и PVC. Основные параметры запроса:

  • объем pvc
  • тип доступа

Типы доступа у PVC могут быть следующие:

  • ReadWriteOnce – том может быть смонтирован на чтение и запись к одному поду.
  • ReadOnlyMany – том может быть смонтирован на много подов в режиме только чтения.
  • ReadWriteMany – том может быть смонтирован к множеству подов в режиме чтения и записи.

Ограничение на тип доступа может налагаться типом самого хранилища. К примеру, хранилище RBD или iSCSI не поддерживают доступ в режиме ReadWriteMany.

Один PV может использоваться только одним PVС. К примеру, если у вас есть 3 PV по 50, 100 и 150 гб. Приходят 3 PVC каждый по 50 гб. Первому будет отдано PV на 50 гб, второму на 100 гб, третьему на 150 гб, несмотря на то, что второму и третьему было бы достаточно и 50 гб. Но если PV на 50 гб нет, то будет отдано на 100 или 150, так как они тоже удовлетворяют запросу. И больше никто с PV на 150 гб работать не сможет, несмотря на то, что там еще есть свободное место.

Из-за этого нюанса, нужно внимательно следить за доступными томами и запросами к ним. В основном это делается не вручную, а автоматически с помощью PV Provisioners. В момент запроса pvc через api кластера автоматически формируется запрос к storage provider. На основе этого запроса хранилище создает необходимый PV и он подключается к поду в соответствии с запросом.

Storage Classes

StorageClass позволяет описать классы хранения, которые предлагают хранилища. Например, они могут отличаться по скорости, по политикам бэкапа, либо какими-то еще произвольными политиками. Каждый StorageClass содержит поля provisioner, parameters и reclaimPolicy, которые используются, чтобы динамически создавать PersistentVolume.

Можно создать дефолтный StorageClass для тех PVC, которые его вообще не указывают. Так же storage class хранит параметры подключения к реальному хранилищу. PVC используют эти параметры для подключения хранилища к подам.


Важный нюанс. PVC зависим от namespace. Если у вас SC будет с секретом, то этот секрет должен быть в том же namespace, что и PVC, с которого будет запрос на подключение.

Работа с PV в кластере

Проверим, есть ли у нас какие-то PV в кластере.

# kubectl get pv
No resources found.

Ничего нет. Попробуем создать и применить какой-нибудь PVC и проверим, что произойдет. Для примера создаем pvc.yaml следующего содержания.

---
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
  name: fileshare
spec:
  accessModes:
  - ReadWriteMany
  resources:
    requests:
      storage: 1Gi

Просим выделить нам 1 гб пространства с типом доступа ReadWriteMany. Применяем yaml.

# kubectl apply -f pvc.yaml

Ждем немного и проверяем статус pvc.

# kubectl get pvc
NAME        STATUS    VOLUME   CAPACITY   ACCESS MODES   STORAGECLASS   AGE
fileshare   Pending                                                     3m33s

Статус pending. Проверяем почему так.

# kubectl get pvc

no persistent volumes available for this claim and no storage class is set

Все понятно. Запрос находится в ожидании, так как у нас в кластере нет ни одного PV, который бы удовлетворял запросу. Давайте это исправим и добавим одно хранилище для примера на основе внешнего nfs сервера.

NFS хранилище в качестве Persistence Volume

Для простоты я взял в качестве хранилища PV nfs сервер. Для него не существует встроенного Provisioner, как к примеру, для Ceph. Возможно в будущем я рассмотрю более сложный пример с применением хранилища на основе ceph. Но перед этим надо будет написать статью про установку и работу с ceph.

Создаем yaml файл pv-nfs.yaml с описанием Persistence Volume на основе NFS.

apiVersion: v1
kind: PersistentVolume
metadata:
  name: my-nfs-share
spec:
  capacity:
    storage: 10Gi
  accessModes:
    - ReadWriteMany
  persistentVolumeReclaimPolicy: Retain
  nfs:
    server: 10.1.4.39
    path: /mnt/nfs

Reclaim Policy

persistentVolumeReclaimPolicy — что будет происходить с pv после удаления pvc. Могут быть 3 варианта:

  1. Retain — pv удален не будет.
  2. Recycle — pv будет очищен.
  3. Delete — pv будет удален.

Так как у нас нет Provisioner для nfs, удалять автоматически pv не получится. Так что у нас только 2 варианта — либо оставлять данные (retain), либо очищать том (recycle).

Все остальное и так понятно, описывать не буду. Добавляем описанный pv в кластер kubernetes.

# kubectl apply -f pv-nfs.yml

Проверяем список pv и pvc

# kubectl get pv
# kebectl get pvc

Мы просили в pvc только 1 Гб хранилища, но в pv было только хранилище с 10 Гб и оно было выдано. Как я и говорил раньше. Так что в случае ручного создания PV и PVC нужно самим следить за размером PV.

Подключаем хранилище к поду

Теперь подключим наш PVC в виде volume к какому-нибудь поду. Опишем его в конфиге pod-with-nfs.yaml

kind: Pod
apiVersion: v1
metadata:
  name: pod-with-nfs
spec:
  containers:
    - name: app
      image: alpine
      volumeMounts:
      - name: data
        mountPath: /mnt/nfs
      command: ["/bin/sh"]
      args: ["-c", "sleep 500000"]
  volumes:
  - name: data
    persistentVolumeClaim:
      claimName: fileshare

Применяем.

# kubectl apply -f pod-with-nfs.yaml

Затем проверяйте статус запущенного пода.

# kubectl get pod
NAME           READY   STATUS              RESTARTS   AGE
pod-with-nfs   0/1     ContainerCreating   0          80s

У меня он не стартовал. Я решил посмотреть из-за чего.

# kubectl describe pod pod-with-nfsУвидел в самом конце в разделе Messages ошибку:
Events:
  Type     Reason       Age    From                 Message
  ----     ------       ----   ----                 -------
  Warning  FailedMount  4m10s  kubelet, kub-node-1  MountVolume.SetUp failed for volume "my-nfs-share" : mount failed: exit status 32
Mounting command: systemd-run
Mounting arguments: --description=Kubernetes transient mount for /var/lib/kubelet/pods/3918714a-87eb-4e66-81cb-0f311461f47d/volumes/kubernetes.io~nfs/my-nfs-share --scope -- mount -t nfs 10.1.4.39:/mnt/nfs /var/lib/kubelet/pods/3918714a-87eb-4e66-81cb-0f311461f47d/volumes/kubernetes.io~nfs/my-nfs-share
Output: Running scope as unit run-980498.scope.
mount: wrong fs type, bad option, bad superblock on 10.1.4.39:/mnt/nfs,
       missing codepage or helper program, or other error
       (for several filesystems (e.g. nfs, cifs) you might
       need a /sbin/mount. helper program)

       In some cases useful info is found in syslog - try
       dmesg | tail or so.

Я сразу понял в чем проблема. На ноде, где стартовал под, не были установлены утилиты для работы с nfs. В моем случае система была Centos и я их установил.

# yum install nfs-utils nfs-utils-lib

После этого в течении минуты pod запустился. Зайдем в его консоль и посмотрим, подмонтировалась ли nfs шара.

# kubectl exec -it pod-with-nfs sh

Как видите, все в порядке. Попробуем теперь что-то записать в шару. Снова заходим на под и создаем текстовый файл.

# kubectl exec -it pod-with-nfs sh
# echo "test text" >> /mnt/nfs/test.txt

Теперь запустим еще один под и подключим ему этот же pvc. Для этого просто немного изменим предыдущий под, обозвав его pod-with-nfs2.

kind: Pod
apiVersion: v1
metadata:
  name: pod-with-nfs2
spec:
  containers:
    - name: app
      image: alpine
      volumeMounts:
      - name: data
        mountPath: /mnt/nfs
      command: ["/bin/sh"]
      args: ["-c", "sleep 500000"]
  volumes:
  - name: data
    persistentVolumeClaim:
      claimName: fileshare

Запускаем под и заходим в него.

# kubectl apply -f pod-with-nfs2.yaml
# kubectl exec -it pod-with-nfs2 sh
# cat /mnt/nfs/test.txt
test text

Все в порядке, файл на месте. С внешними хранилищем в Kubernetes закончили. Расскажу дальше, как можно работать с локальными дисками нод, если вы хотите их так же пустить в работу.

Local Persistent Volume — хранилище Kubernetes на локальных дисках

Локальные тома, как и nfs, не имеют встроенного провизионера, так что нарезать их можно только вручную, создавая PV. Есть внешний provisioner — https://github.com/kubernetes-sigs/sig-storage-local-static-provisioner, но лично я его не проверял.

Создаем SC sc-local.yaml.

kind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
  name: local-storage
provisioner: kubernetes.io/no-provisioner
volumeBindingMode: WaitForFirstConsumer

Создаем вручную PV pv-local-node-1.yaml, который будет располагаться на kub-node-1 в /mnt/local-storage. Эту директорию необходимо вручную создать на сервере.

apiVersion: v1
kind: PersistentVolume
metadata:
  name: pv-local-node-1
spec:
  capacity:
    storage: 10Gi
  volumeMode: Filesystem
  accessModes:
  - ReadWriteOnce
  persistentVolumeReclaimPolicy: Retain
  storageClassName: local-storage
  local:
    path: /mnt/local-storage
  nodeAffinity:
    required:
      nodeSelectorTerms:
      - matchExpressions:
        - key: kubernetes.io/hostname
          operator: In
          values:
          - kub-node-1

Создаем PVC pvc-local.yaml для запроса сторейджа, который передадим поду.

---
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
  name: local-volume
spec:
  storageClassName: "local-storage"
  accessModes:
  - ReadWriteOnce
  resources:
    requests:
      storage: 10Gi

И в завершении создадим тестовый POD pod-with-pvc-local.yaml для проверки работы local storage.

kind: Pod
apiVersion: v1
metadata:
  name: pod-with-pvc-local
spec:
  containers:
    - name: app
      image: alpine
      volumeMounts:
      - name: data
        mountPath: /mnt
      command: ["/bin/sh"]
      args: ["-c", "sleep 500000"]
  volumes:
  - name: data
    persistentVolumeClaim:
      claimName: local-volume

Применяем все вышеперечисленное в строго определенном порядке:

  1. SC
  2. PV
  3. PVC
  4. POD
# kubectl apply -f sc-local.yaml
# kubectl apply -f pv-local-node-1.yaml
# kubectl apply -f pvc-local.yaml
# kubectl apply -f pod-with-pvc-local.yaml

После этого посмотрите статус всех запущенных абстракций.

Проверим, что Local Persistent Volume правильно работает. Зайдем в под и создадим тестовый файл.

# kubectl exec -it pod-with-pvc-local sh
# echo "local srorage test" >> /mnt/local.txt

Теперь идем на сервер kub-node-1 и проверяем файл.

[root@kub-node-1 local-storage]# cat /mnt/local-storage/local.txt 
local srorage test

Все в порядке. Файл создан.

Если у вас возникли какие-то проблемы с POD, то в PVC будет ошибка:

waiting for first consumer to be created before binding

И в это же время в поде:

0/6 nodes are available: 1 node(s) didn't find available persistent volumes to bind, 5 node(s) had taints that the pod didn't tolerate.

Возникли ошибки из-за того, что в описании PV я ошибся в названии сервера, где будет доступен local storage. В итоге pod запускался, проверял pvc, а pvc смотрел на pv и видел, что адрес ноды с pv не соответствует имени ноды, где будет запущен pod. В итоге все висело в ожидании разрешения этих несоответствий.

С локальным хранилищем разобрались, можно использовать в работе.

Заключение


Не понравилась статья и хочешь научить меня администрировать? Пожалуйста, я люблю учиться. Комментарии в твоем распоряжении. Расскажи, как сделать правильно!

На наглядных примерах я показал, как можно работать с данными в кластере Kubernetes. Можно использовать как отказоустойчивые внешние хранилища для размещения постоянных данных. А можно сырые диски на серверах и использовать кластер для работы какой-то распределенной базы данных или сервиса, которые сами следят за количеством копий данных и распределяют их по нодам.

В последнем случае можно использовать самое обычное железо для кластера Kубернетиса, без рейд контроллеров и дублирования дорогих и быстрых SSD дисков. Необходимо только следить за количеством реплик приложения на нодах, чтобы их количество было достаточно для стабильной работы системы.

Два этих подхода можно комбинировать. Внешние хранилища для холодных данных и внутренние SSD диски для кэшей.

Другие статьи на тему Kubernetes:

На этом у меня все. Надеюсь мой цикл статей по k8s был для вас полезен.

Онлайн курс по Kubernetes

Онлайн-курс по Kubernetes – для разработчиков, администраторов, технических лидеров, которые хотят изучить современную платформу для микросервисов Kubernetes. Самый полный русскоязычный курс по очень востребованным и хорошо оплачиваемым навыкам. Курс не для новичков – нужно пройти вступительный тест.

Если вы ответите «да» хотя бы на один вопрос, то это ваш курс:

  • устали тратить время на автоматизацию?
  • хотите единообразные окружения?;
  • хотите развиваться и использовать современные инструменты?
  • небезразлична надежность инфраструктуры?
  • приходится масштабировать инфраструктуру под растущие потребности бизнеса?
  • хотите освободить продуктовые команды от части задач администрирования и автоматизации и сфокусировать их на развитии продукта?

Сдавайте вступительный тест по и присоединяйтесь к новому набору!.

Помогла статья? Подписывайся на telegram канал автора

Анонсы всех статей, плюс много другой полезной и интересной информации, которая не попадает на сайт.

Требования для тестирования аппаратных RAID-систем (iSCSI)

  • 7 минут на чтение

В этой статье

В этом разделе описаны задачи, которые необходимо выполнить перед тестированием аппаратного RAID-массива хранения данных Internet SCSI (iSCSI) с помощью Windows Hardware Lab Kit (Windows HLK):

Требования к оборудованию

Для тестирования аппаратного RAID-массива iSCSI вам потребуется следующее оборудование.Вам может потребоваться дополнительное оборудование, если тестовое устройство предлагает другие функции. Чтобы определить, применяются ли дополнительные требования к оборудованию, см. Описание каждого теста, отображаемого для устройства в Windows HLK Studio.

Примечание

Все оборудование (кроме тестового устройства, монитора, клавиатуры, мыши и дисковода гибких дисков) должно быть указано в каталоге Windows.

  • 1 тестовый компьютер, соответствующий требованиям Windows HLK. Дополнительные сведения см. В разделе Предварительные требования Windows HLK.Кроме того, этот компьютер должен включать:

    • 1 BIOS с расширенным интерфейсом настройки и питания (ACPI), совместимый с логотипом, с включенным по умолчанию ACPI.

    • Двухъядерный или аналогичный процессор и 4 гигабайта (ГБ) памяти для клиентских операционных систем Windows (например, Windows 8, Windows 7 и Windows Vista).

    • Четырехъядерный или аналогичный процессор и 6 ГБ памяти для операционных систем Windows Server.

    Эквивалентный процессор — это любой процессор, который в Windows выглядит так, как если бы он содержал указанное количество процессоров.Вы можете достичь этого статуса с помощью одного или нескольких физических микропроцессоров.

  • 1 система хранения iSCSI RAID (тестовое устройство).

    Примечание

    Система RAID должна представлять собой единый шкаф, состоящий из контроллера массива, включенного во внешнюю подсистему с жесткими дисками. Или это должен быть внешний контроллер массива, который подключается к RAID JBOD. Система RAID не может состоять только из контроллера на основе соединения периферийных компонентов (PCI) и 1 RAID JBOD.

  • По крайней мере, один сетевой адаптер Ethernet 1 ГБ или адаптер шины хоста (HBA) iSCSI.

  • Один коммутатор Ethernet 1 ГБ.

  • 1 загрузочный жесткий диск с расширенными технологиями (ATA) или SCSI с минимальной емкостью 36 ГБ.

Для сертификации вашего продукта для использования на серверах тестовый компьютер должен поддерживать четыре процессора и минимум 1 ГБ ОЗУ. Эти системные возможности необходимы для проверки функциональности Rebalance, D3 State и Multiple Processor Group устройства и драйвера.Вам не нужен компьютер с более чем 64 процессорами для тестирования вашего устройства. Кроме того, в серверных системах, используемых для тестирования устройств или драйверов, перед тестированием должно быть установлено ядро ​​сервера. Для получения дополнительной информации см. Параметры установки Windows Server.

Если вы используете пул тестовых компьютеров для тестирования устройства, по крайней мере, 1 компьютер в пуле должен содержать 4 процессора и не менее 1 ГБ ОЗУ. Кроме того, этот компьютер должен содержать устройство и драйвер, которые вы хотите протестировать.Пока драйвер одинаков на всех компьютерах в пуле, система создает расписание для всех тестовых компьютеров.

Для тестов, которые не включают драйвер для тестирования, например, тестов для жесткого диска, планировщик Windows HLK ограничивает тесты, которые проверяют функциональность ребалансировки устройства и драйвера, состояния D3 и нескольких групп процессоров, для запуска в тесте по умолчанию компьютер. На этом компьютере необходимо вручную настроить несколько групп процессоров. Компьютер по умолчанию — это первый тестовый компьютер в списке.Убедитесь, что первый тестовый компьютер в списке соответствует минимальным требованиям к оборудованию.

Примечание

За исключением драйверов паравиртуализации (как определено в документе WHCP Policies and Processes), вы не можете использовать какие-либо формы виртуализации при тестировании физических устройств и связанных с ними драйверов для сертификации или подписи сервера. Продукты виртуализации не поддерживают базовые функции, необходимые для прохождения тестов, относящихся к нескольким группам процессоров, управлению питанием устройства, функциональности PCI устройства и другим тестам.

Примечание

Настройка нескольких групп процессоров
Необходимо установить значение размера группы процессоров для тестирования Hardware Lab Kit драйверов устройств Windows Server 2008 R2 и более поздних версий для сертификации. Это делается путем запуска bcdedit в окне командной строки с повышенными привилегиями с использованием параметра / set.

Команды для добавления настроек группы и перезапуска следующие:

  bcdedit.exe / установить размер группы 2
bcdedit.exe / установить groupaware на
shutdown.exe -r -t 0 -f
  

Команды для удаления настроек группы и перезагрузки следующие:

  bcdedit.exe / deletevalue размер группы
bcdedit.exe / deletevalue groupaware
shutdown.exe -r -t 0 -f
  

Примечание

Настройка целостности кода

Функция безопасности на основе виртуализации (VBS) в Windows Server 2016 должна быть сначала включена с помощью диспетчера сервера.

Как только это произойдет, необходимо создать и установить следующий ключ реестра:

  HKLM \ System \ CurrentControlSet \ Control \ DeviceGuard
HypervisorEnforcedCodeIntegrity: REG_DWORD
0 или 1 (отключено, включено)
  

Требования к программному обеспечению

Для тестирования аппаратного RAID-массива необходимо следующее программное обеспечение:

  • Драйвера для тестового устройства.

  • Последние фильтры или обновления Windows HLK.

  • Файлы символов Windows. Они доступны на веб-сайте файлов символов.

  • Последняя версия программного обеспечения Microsoft® iSCSI Software Initiator.

  • Последняя версия Microsoft iSNS Server.

  • Microsoft .NET Framework 1.1.

Программный инициатор iSCSI и .NET Framework доступны в Центре загрузки Microsoft.

Настройка тестового компьютера

Чтобы настроить тестовый компьютер для тестирования RAID-массива iSCSI, выполните следующие действия:

  1. Установите сетевой адаптер Gigabit Ethernet или iSCSI HBA на тестовый компьютер.

  2. Подключите коммутатор Gigabit Ethernet к источнику питания.

    Примечание

    Не подключайте коммутатор к другой сети.

  3. Подключите сетевой адаптер Gigabit Ethernet или iSCSI HBA на тестовом компьютере к коммутатору.

  4. Подключите дисковую систему хранения к коммутатору.

  5. Установите соответствующую операционную систему Windows на тестовый компьютер (в раздел в формате NTFS, имеющий не менее 36 ГБ на жестком диске), а затем настройте компьютер для тестовой сети. Тестовая сеть — это сеть, содержащая Windows HLK Studio и Windows HLK Controller.

  6. Если тестовое устройство поддерживает Microsoft Multipath I / O (MPIO), установите любые драйверы multipath и создайте соединения и несколько сеансов, выбрав Enable Multi-Path I / O .

  7. Загрузите и установите .NET Framework 1.1.

  8. Настройте целевое устройство на использование одностороннего (цель аутентифицирует инициатора) протокола аутентификации с подтверждением соединения (CHAP).

    Если ваше устройство поддерживает взаимный CHAP, также настройте устройство на использование взаимного CHAP.

    Примечание

    При настройке устройства для использования CHAP необходимо указать пароль длиной от 12 до 16 символов. Если вы настраиваете устройство для использования как одностороннего CHAP, так и взаимного CHAP, вы должны указать разные пароли для цели и инициатора.

  9. Войдите в систему хранения на целевом диске с установленным постоянным входом.

    Важно

    Необходимо войти в систему на целевом устройстве iSCSI, которое используется для тестирования, иначе тесты не будут работать должным образом.

    Для среды тестирования с несколькими путями, если несколько портов (IP-адресов) относятся к одному целевому хранилищу, вы должны убедиться, что по крайней мере 2 сеанса iSCSI подключены через IP-адрес во время тестирования.

  10. Щелкните Start , а затем щелкните Run .

  11. Введите diskmgmt.msc и нажмите клавишу ВВОД.

  12. Убедитесь, что тестовые диски настроены как базовые.

  13. Создайте три раздела в формате NTFS размером более 2 ГБ каждый и менее 4 ГБ каждый.

    При однократном входе в систему должны отображаться все эти разделы.

  14. Установите программное обеспечение iSNS в тестовой системе и настройте целевой объект для использования сервера iSNS.

  15. Если ваше устройство поддерживает дайджест и вы должны его настроить, настройте тестовое устройство для поддержки дайджеста.

  16. Свяжите свои тома в Favorite Targets (Windows Vista) или Bound Volumes (Windows Server 2003) на вкладке iSCSI Initiator Properties .

  17. Убедитесь, что компьютер может читать или записывать в тестовый массив RAID.

  18. Установите клиентское приложение Windows HLK на тестовый компьютер.

  19. Используйте Windows HLK Studio для создания пула компьютеров, а затем переместите тестовый компьютер в этот пул.

Перед началом тестирования убедитесь, что тестовый компьютер находится в состоянии готовности. Если тест требует, чтобы вы установили параметры перед его запуском, для этого теста появится диалоговое окно. Для получения дополнительной информации просмотрите конкретную тему теста.

Некоторые тесты Windows HLK требуют вмешательства пользователя. Когда вы запускаете тесты для отправки, рекомендуется запускать автоматические тесты в блоке отдельно от ручных тестов. Это предотвращает прерывание ручным тестом завершения автоматического теста.

Предупреждение

При тестировании устройств хранения мы настоятельно рекомендуем выполнить все тесты основных характеристик устройства перед началом тестирования хранилища. Тесты хранилища изменят конфигурацию вашего тестового устройства, оставив устройство в состоянии, непригодном для поддержки тестов Device Fundamentals. Следующие конфигурации предоставляют шаги для создания тома на тестовом устройстве хранения. Это важно для завершения основной части тестирования устройства (DevFund).

Конфигурация на основе функций

Если ваше устройство поддерживает какие-либо функции, описанные в этом разделе, обновите соответствующие шаги настройки в дополнение к общим шагам настройки на основе интерфейса в разделе «Настройка тестового компьютера».В зависимости от форм-фактора вашего устройства возможны незначительные модификации.

См. Раздел «Предварительные требования для тестирования аппаратных систем Raid (Fibre Channel, SAS, SCSI, Serial ATA)» выше для конфигурации на основе функций. Эти функции также применимы к системам аппаратного RAID-массива iSCSI.

Обзор целевого сервера

iSCSI | Документы Microsoft

  • 2 минуты на чтение

В этой статье

Применимо к: Windows Server 2016, Windows Server 2012 R2, Windows Server 2012

В этом разделе представлен краткий обзор iSCSI Target Server, службы ролей в Windows Server, которая позволяет сделать хранилище доступным через протокол iSCSI.Это полезно для предоставления доступа к хранилищу на вашем сервере Windows для клиентов, которые не могут взаимодействовать через собственный протокол совместного использования файлов Windows, SMB.

iSCSI Target Server идеально подходит для следующего:

  • Сетевая и бездисковая загрузка Используя сетевые адаптеры с возможностью загрузки или загрузчик программного обеспечения, вы можете развернуть сотни бездисковых серверов. С iSCSI Target Server развертывание происходит быстро. По данным внутреннего тестирования Microsoft, 256 компьютеров были развернуты за 34 минуты.Используя разностные виртуальные жесткие диски, вы можете сэкономить до 90% дискового пространства, которое использовалось для образов операционных систем. Это идеально подходит для крупных развертываний идентичных образов операционных систем, например, на виртуальных машинах с Hyper-V или в кластерах высокопроизводительных вычислений (HPC).

  • Хранилище серверных приложений Некоторым приложениям требуется блочное хранилище. iSCSI Target Server может предоставить этим приложениям постоянно доступное блочное хранилище.Поскольку хранилище доступно удаленно, оно также может консолидировать блочное хранилище для центральных офисов или филиалов.

  • Гетерогенное хранилище iSCSI Target Server поддерживает сторонние инициаторы iSCSI, что упрощает совместное использование хранилища на серверах в смешанной программной среде.

  • Среда разработки, тестирования, демонстрации и лабораторных работ Когда iSCSI Target Server включен, компьютер под управлением операционной системы Windows Server становится доступным по сети устройством блочного хранения.Это полезно для тестирования приложений перед развертыванием в сети хранения данных (SAN).

Требования к хранилищу блоков

Включение iSCSI Target Server для предоставления блочного хранилища использует вашу существующую сеть Ethernet. Никакого дополнительного оборудования не требуется. Если высокая доступность является важным критерием, подумайте о настройке кластера высокой доступности. Для кластера высокой доступности требуется общее хранилище — оборудование для хранилища Fibre Channel или массив хранения с последовательным подключением SCSI (SAS).

Если вы включаете гостевую кластеризацию, вам необходимо предоставить хранилище блоков. Любые серверы, работающие под управлением программного обеспечения Windows Server с iSCSI Target Server, могут предоставлять блочное хранилище.

См. Также

Целевое блочное хранилище iSCSI, инструкции
Что нового в iSCSI Target Server в Windows Server

Распределенный RAID через ISCSI — MyLinuxPlace

В ранней публикации build-raid-over-network-share я
показал, как построить распределенный RAID по сети с использованием CIFS (samba или общий ресурс Windows).
Теперь я хотел показать вам аналогичный метод с использованием ISCSI.
ISCSI — это протокол, поддерживаемый всеми версиями ОС Windows, Linux, BSD, Solaris, AIX, OSX и другими ОС.
В этом руководстве я собираюсь использовать CentOS 6. у нас будет 3 узловых сервера в качестве цели iscsi и один сервер в качестве инициатора
, который будет управлять RAID, а также действовать как цель для созданного устройства RAID.
Объяснение очень краткое и не охватывает все настройки ISCSI, для повышения производительности
Я рекомендую прочитать документацию для каждой отдельной ОС дистрибутива.Другое предложение:
настоятельно рекомендуется использовать резервный сетевой интерфейс с выделенной VLAN для ISCSI, так как он может загружать сеть большим трафиком.
настройки узла (выполните этот шаг на всех узлах)
1. установите scsi-target-utils

 # yum -y установить scsi-target-utils 

2. создать файл устройства

 # dd if = / dev / zero of = / mydrive.file bs = 1M count = 1024 

3. Отредактируйте /etc/tgt/targets.conf и добавьте новый целевой lun.
убедитесь, что каждый сервер использует идентификатор uniq iqn

 <целевой iqn.2013-05: node1.0>
резервный магазин /mydrive.file
 

4. запустить службу tgtd

 # service tgtd start 

5. на сервере-инициаторе (наш mdadm raid master) поиск устройств iscsi

 # iscsiadm -m discovery -t sendtargets -p 192.168.122.11
192.168.122.11:3260,1 iqn.2013-05: node1.0
# iscsiadm -m discovery -t sendtargets -p 192.168.122.12
192.168.122.12:3260,1 iqn.2013-05: узел2.0
# iscsiadm -m discovery -t sendtargets -p 192.168.122.13
192.168.122.13:3260,1 iqn.2013-05: node3.0 

6. Запустите сервис iscasi и познакомьтесь с новыми устройствами

 # service iscsi start 

* команда «fdisk -l» теперь может отображать новые устройства scsi, в моем случае это sda, sdb, sdc
— время для создания мягкого RAID —
1. установить mdadm

 # yum search mdadm 

2. Создайте новое устройство RAID

 # mdadm --create --verbose / dev / md0 --level = 5 --raid-devices = 3 / dev / sda / dev / sdb / dev / sdc 

с этого момента у вас может быть новое устройство RAID с именем / dev / md0, которое вы можете использовать,
* update
— хорошая идея добавить запасное устройство в рейд, а еще лучше использовать сам инициатор (хост, на котором запущен mdadm)
, поэтому я создаю новое устройство с помощью команды dd, затем создаю устройство цикла, затем добавляю его в рейд

 dd if = / dev / zero of = / myfile.img bs = 1M count = 100
losetup -v / dev / loop1 /myfile.img
mdadm --add / dev / md0 / dev / loop1 

Итак, теперь RAID может выглядеть так:

 Номер Major Minor RaidDevice State
0 8 0 0 активная синхронизация / dev / sda
1 8 16 1 активная синхронизация / dev / sdb
3 8 32 2 активная синхронизация / dev / sdc
4 7 1 - запасной / dev / loop1 

RAID SUBSYSTEM

iscsi — Скачать PDF

бесплатно

1 iscsi RAID SUBSYSTEM Руководство по установке и настройке, редакция 1.2 P / N: PW

2 Содержание Глава 1 Введение Основные характеристики Технические характеристики Терминология Основные понятия RAID Глава 2 Начало работы Упаковка, отгрузка и доставка Распаковка подсистемы Определение частей подсистемы iscsi RAID Вид спереди Вид сзади Светодиодные индикаторы состояния окружающей среды Интеллектуальная функциональная панель Подключение подсистемы iscsi к сети Включение питания Установка жестких дисков Индикатор состояния жесткого диска iscsi Введение Методы управления Консоль с веб-интерфейсом Дистанционное управление Последовательный порт Корпус с защищенной оболочкой Модуль управления ЖК-дисплеем (LCM) Системный зуммер Глава 3 Руководство по веб-интерфейсу Интерфейс иерархии графического интерфейса управления Быстрая установка Настройка системы Имя системы IP-адрес Язык входа Конфиг

3 3.4.5 Пароль Дата Почта SNMP Messenger Системный журнал событий Сервер журнала событий iscsi Конфигурация объекта Свойство Сетевой адаптер Сеанс Учетная запись CHAP Конфигурация тома Диаграмма взаимосвязи томов Группа томов физического диска Объем данных пользователя Том Кэш Номер логического устройства Примеры Управление корпусом Конфигурация SES Монитор оборудования Жесткий диск S.M.A.R.T. Функция Поддержка Техническое обслуживание системы ИБП Информация об обновлении Сброс до конфигурации по умолчанию Импорт и экспорт Завершение работы Выйти Глава 4 Расширенные операции Восстановление VG Миграция и расширение Мгновенный снимок / откат расширения UDV Создать снимок Тома

4 4.4.2 Автоматический откат моментального снимка Поддержка роуминга диска Microsoft MPIO и MC / S Приложение … 77 A. Список сертификации B. Уведомления о событиях C. Известные проблемы D. Инициатор Microsoft iscsi E. Инструкции по настройке транкинга / LACP F. Настройка MPIO и MC / S Инструкции G. Инструкции по установке QLogic QLA4010C H. Этапы установки для большого объема (TB)

5 Глава 1 Введение Хост-системы подсистемы iscsi RAID могут подключаться к подсистеме iscsi RAID с использованием протокола iscsi.Подсистема iscsi RAID может быть настроена на любой уровень RAID. Подсистема iscsi RAID обеспечивает надежную защиту данных для серверов, также доступна функция RAID 6. Функция RAID 6 допускает отказ двух жестких дисков без какого-либо влияния на существующие данные. Данные могут быть восстановлены с оставшихся дисков с данными и четностью. (Данные могут быть восстановлены с остальных дисков / дисков.) Snapshot-on-the-box — это полностью пригодная для использования копия определенного набора данных, содержащая изображение данных в том виде, в каком оно появилось в определенный момент времени, что означает репликация данных на определенный момент времени.Он обеспечивает согласованные и мгновенные копии томов данных без простоя системы. Моментальный снимок подсистемы iscsi RAID может хранить до 32 снимков для всех томов данных. Функция отката предназначена для простого восстановления данных, созданных ранее в моментальных снимках, при непрерывном использовании тома для дальнейшего доступа к данным. Доступ к данным является обычным, включая чтение / запись, без каких-либо последствий для конечных пользователей. Терминология «на коробке» подразумевает, что она не требует установки каких-либо проприетарных агентов на стороне хоста.Моментальный снимок делается на целевой стороне и выполняется RAID-контроллером iscsi. Он не будет потреблять процессорное время хоста, поэтому сервер выделен для конкретного или другого приложения. Моментальные копии можно делать вручную или по расписанию каждый час или каждый день, в зависимости от модификации. Подсистема iscsi RAID — это наиболее экономичная подсистема дисковых массивов с полностью интегрированными высокопроизводительными возможностями и возможностями защиты данных, которые соответствуют или превосходят самые высокие отраслевые стандарты, а также лучшее решение для обработки данных для пользователей малого и среднего бизнеса.5

6 1.1 Основные характеристики 2 порта GbE поддерживают независимый доступ, переключение при отказе или балансировку нагрузки (объединение портов 802.3ad, LACP) Поддержка jumbo-фреймов iscsi Поддержка Microsoft Multipath I / O (MPIO) Поддерживает уровни RAID 0, 1, 0+ 1, 3, 5, 6, 10, 30, 50, 60 и JBOD Локальное N-стороннее зеркало: расширение до уровня RAID 1, N копий диска. Глобальные и выделенные диски горячего резерва Политика кэширования сквозной записи или обратной записи для различных приложений Выделенное или общее выделение кэша для использования тома Поддерживает более 2 ТБ на набор томов (поддержка 64-битной LBA) Поддерживает создание моментальных снимков томов вручную или по расписанию (до 32 моментальный снимок) Механизм отката моментального снимка Миграция тома в режиме онлайн без простоя системы Расширение тома в сети Мгновенная доступность тома RAID и фоновая инициализация Поддерживает S.Диски M.A.R.T, NCQ и OOB Staggered Spin-up 6

7 1.2 Технические характеристики Форм-фактор: 19-дюймовая стойка высотой 2U RAID-процессор: Intel IOP bit Уровень RAID: 0, 1, 0 + 1, 3, 5, 6, 10, 30, 50, 60 и JBOD N-way зеркало (N копий диска) Кэш-память: 512 МБ ~ 2 ГБ DDR II Количество каналов (хост + диск): Интерфейс шины хоста: 1 Гбит / с Интерфейс шины Ethernet-накопителей: 3 Гбит / с SATA II Лотки для дисков с горячей заменой: Двенадцать ( 12) 1-дюймовые лотки Управление доступом к хосту: чтение-запись и только чтение Поддерживает аутентификацию CHAP 802.Группирование портов 3ad, поддержка LACP Поддержка Jumbo-фреймов Максимальный логический том: до 256 Максимальное количество подключений к хосту: до 32 Максимальное количество кластеров хостов: до 8 для одного логического тома Снимок тома вручную / по расписанию: до 32 Поддержка механизма отката моментальных снимков Поддерживает Microsoft Multipath Ввод-вывод (MPIO) Поддерживает службу виртуальных дисков Microsoft (VDS) Поддерживает службы теневого копирования томов Microsoft Windows (VSS) Глобальный / выделенный кэш, настраиваемый по тому Глобальные и выделенные диски горячего резервирования Онлайн-миграция томов Расширение наборов томов в Интернете Настраиваемый размер полосы Мгновенный том RAID поддержка доступности и фоновой инициализации 7

8 Поддерживает более 2 ТБ на том Онлайн-проверка согласованности Автоматическое переназначение плохих блоков S.M.A.R.T. поддержка Обнаружение вставки / извлечения нового диска Автоматическое восстановление тома Роуминг массива Звуковой сигнал Защита паролем Подключение ИБП с возможностью горячей замены: Два (2) блока питания 350 Вт с pfc Вентиляторы охлаждения: 2 Резервные батареи (опция) Требования к питанию: 90 ~ 264 В переменного тока полный диапазон, 8A ~ 4A, 47 Гц ~ 63 Гц Относительная влажность окружающей среды: 10% ~ 85% Рабочая температура без конденсации: 10 ° C ~ 40 ° C (50 ° F ~ 104 ° F) Физические размеры: 88 (В) x 482 (Ш) x 650 (Г) мм Вес: 13,5 кг (без приводов) 8

9 1.3 Терминология В документе используются следующие термины: RAID PD VG UDV CV LUN GUI Ширина RAID, копия RAID, строка RAID (ячейка RAID в одной строке) WT WB RAID — это сокращение от Redundant Array of Independent Disks. Существуют разные уровни RAID с разной степенью защиты данных, доступностью данных, производительностью в среде хоста. Физический диск принадлежит диску-члену одной определенной группы томов. Группа томов. Коллекция съемных носителей или физических дисков. Один VG состоит из набора UDV и владеет одним атрибутом уровня RAID.Объем пользовательских данных. Каждый VG можно разделить на несколько UDV. UDV из одного VG используют один и тот же уровень RAID, но могут иметь разную емкость тома. Объем кеша. Подсистема iscsi RAID использует встроенную память в качестве кеш-памяти. Вся оперативная память (кроме той части, которая занята контроллером) может использоваться как кэш. Пользователь может разделить кеш для одного UDV или для всех UDV. Каждый UDV будет связан с одним CV для транзакции данных. Каждому CV может быть назначен разный размер кэш-памяти. Номер логической единицы.Номер логического устройства (LUN) — это уникальный идентификатор, используемый в соединении iscsi, который позволяет ему различать отдельные устройства (каждое из которых является логической единицей). Графический интерфейс пользователя. Ширина, копия и строка RAID используются для описания одного VG. Например: 1. Один том RAID 0 с 4 дисками: ширина RAID = 4; Копия RAID = 1; Ряд RAID = 1. 2. Один том с 3-сторонним зеркалированием: ширина RAID = 1; Копия RAID = 3; Ряд RAID = 1. 3. Один том RAID 10 на 3 тома RAID 1 с 4 дисками: ширина RAID = 1; Копия RAID = 4; Ряд RAID = 3. Политика записи в кэш со сквозной записью.Метод кэширования, при котором о завершении запроса записи не сообщается, пока данные не будут безопасно сохранены на энергонезависимом носителе. Все данные синхронизируются как в кэше данных, так и на физических дисках, к которым осуществляется доступ. Политика записи в кэш с обратной записью. Метод кэширования, при котором о завершении запроса на запись сообщается, как только данные оказываются в кэше, а фактическая запись на энергонезависимые носители происходит позже. Это увеличивает производительность записи в системе, но необходимо нести риск несогласованности данных между кэшем данных и физическими дисками за один короткий промежуток времени.9

10 RO DS GS DC GC DG S.M.A.R.T. WWN HBA MPIO MC / S S.E.S NIC iscsi LACP MTU CHAP isns Установите для тома доступ только для чтения. Выделенные запасные диски. Запасные диски используются только одной конкретной группой VG. Другие не могли использовать эти выделенные запасные диски для каких-либо целей восстановления. Диски Global Spare. GS используется для восстановления. Если некоторым группам VG необходимо использовать глобальные резервные диски для восстановления, они могут получить запасные диски из общего пула запасных дисков для таких требований.Выделенный кеш. Глобальный кеш. Режим DeGraded. Не все диски-члены массива работают, но массив может отвечать на запросы чтения и записи приложений на свои виртуальные диски. Технология самоконтроля, анализа и отчетности. Всемирное имя. Адаптер главной шины. Многопутевый ввод / вывод. Несколько подключений за сеанс Службы SCSI Enclosure. Карта сетевого интерфейса. Интерфейс малых компьютерных систем Интернета. Протокол управления агрегацией каналов. Максимальный блок передачи. Протокол аутентификации с вызовом рукопожатия.Дополнительный механизм безопасности для управления доступом к системе хранения iscsi через порты данных iscsi. Служба имен хранилищ в Интернете. 10

11 1.4 Концепции RAID Основы RAID Основная идея RAID (избыточный массив независимых дисков) состоит в объединении нескольких недорогих дисков в массив дисков для получения производительности, емкости и надежности, превышающих производительность одного большого диска.Массив дисков отображается на главном компьютере как один логический диск. Первоначально были определены пять типов архитектур массивов, от RAID 1 до RAID 5; каждый обеспечивает отказоустойчивость диска с различными компромиссами в функциях и производительности. В дополнение к этим пяти архитектурам массивов с избыточностью стало популярным называть массив дисков без избыточности массивами RAID 0. Чередование дисков Основой технологии RAID является чередование дисков. Это метод объединения нескольких дисков в одно логическое хранилище.При чередовании дисковое пространство каждого диска разбивается на полоски, размер которых может составлять от одного сектора (512 байт) до нескольких мегабайт. Эти полосы затем чередуются в последовательности вращения, так что объединенное пространство поочередно состоит из полос с каждого диска. Конкретный тип операционной среды определяет, следует ли использовать большие или маленькие полосы. Большинство операционных систем сегодня поддерживают одновременные операции ввода-вывода на нескольких дисках. Однако, чтобы максимизировать пропускную способность для дисковой подсистемы, нагрузка ввода-вывода должна быть сбалансирована по всем дискам, чтобы каждый диск мог быть максимально занят.В системе с несколькими дисками без чередования загрузка дискового ввода-вывода никогда не сбалансирована идеально. Некоторые диски будут содержать файлы данных, к которым часто обращаются, а некоторые диски будут доступны редко. Разделив диски в массиве полосами достаточно большого размера, чтобы каждая запись полностью попадала в одну полосу, большинство записей можно равномерно распределить по всем дискам. Это позволяет загружать все диски в массиве в ситуациях большой нагрузки. Эта ситуация позволяет всем дискам работать одновременно над разными операциями ввода-вывода и, таким образом, максимизировать количество одновременных операций ввода-вывода, которые может выполнять массив.11

12 Определение уровней RAID RAID 0 обычно определяется как группа чередующихся дисков без контроля четности или избыточности данных. Массивы RAID 0 могут быть сконфигурированы с большими полосами для многопользовательских сред или небольшими полосами для однопользовательских систем, которые обращаются к длинным последовательным записям. Массивы RAID 0 обеспечивают лучшую эффективность хранения данных и производительность среди всех типов массивов.Недостатком является то, что если один диск в массиве RAID 0 выходит из строя, выходит из строя весь массив. RAID 1, также известный как зеркальное отображение дисков, представляет собой просто пару дисков, на которых хранятся повторяющиеся данные, но которые отображаются на компьютере как один диск. Хотя чередование не используется в одной паре зеркальных дисков, несколько массивов RAID 1 можно разделить вместе, чтобы создать один большой массив, состоящий из пар зеркальных дисков. Все записи должны идти на оба диска зеркальной пары, чтобы информация на дисках оставалась идентичной.Однако каждый отдельный диск может выполнять одновременные независимые операции чтения. Таким образом, зеркалирование удваивает производительность чтения по сравнению с одним диском без зеркального отображения, а производительность записи остается неизменной. RAID 1 обеспечивает лучшую производительность среди всех типов резервированных массивов. Кроме того, при отказе диска происходит меньшее снижение производительности, чем в массивах RAID 5. В массиве RAID 3 данные распределяются по группам дисков, но один диск в группе предназначен для хранения информации о четности. RAID 3 полагается на встроенный ECC в каждом секторе для обнаружения ошибок.В случае сбоя диска восстановление данных выполняется путем вычисления исключающего ИЛИ (XOR) 12

13 информация, записанная на остальных дисках. Записи обычно охватывают все диски, что оптимизирует скорость передачи данных. Поскольку каждый запрос ввода-вывода обращается к каждому диску в массиве, массивы RAID 3 могут одновременно удовлетворить только один запрос ввода-вывода. RAID 3 обеспечивает наилучшую производительность для однопользовательских однозадачных сред с длинными записями.Для массивов RAID 3 требуются приводы с синхронизированным шпинделем, чтобы избежать снижения производительности из-за коротких записей. Массивы RAID 5 с небольшими полосами могут дать производительность, аналогичную массивам RAID 3. В RAID 5 информация о четности распределяется по всем дискам. Поскольку выделенного диска с контролем четности нет, все диски содержат данные, и операции чтения могут перекрываться на каждом диске в массиве. Операции записи обычно обращаются к одному диску данных и одному диску четности. Однако, поскольку разные записи хранят свою четность на разных дисках, операции записи обычно могут перекрываться.Двухуровневый RAID обеспечивает баланс между повышенной доступностью данных, присущей RAID 1 и RAID 5, и повышенной производительностью чтения, присущей чередованию дисков (RAID 0). Эти массивы иногда называют RAID 0 + 1 или RAID 10 и RAID 0 + 5 или RAID

.

14 RAID 6 похож на RAID 5 в том, что защита данных достигается путем записи информации о четности на физические диски в массиве.Однако с RAID 6 используются два набора данных четности. Эти два набора разные, и каждый набор занимает емкость, эквивалентную емкости одного из составляющих дисков. Основное преимущество RAID 6 — высокая доступность данных. Любые два диска могут выйти из строя без потери важных данных. В итоге: RAID 0 является самым быстрым и эффективным типом массива, но не обеспечивает отказоустойчивости. Для RAID 0 требуется как минимум два диска. RAID 1 — лучший выбор для отказоустойчивых сред с критичной производительностью. RAID 1 — единственный вариант обеспечения отказоустойчивости, если используется не более двух дисков.RAID 3 можно использовать для ускорения передачи данных и обеспечения отказоустойчивости в однопользовательских средах с доступом к длинным последовательным записям. Однако RAID 3 не допускает наложения нескольких операций ввода-вывода и требует наличия дисков с синхронизированным шпинделем, чтобы избежать снижения производительности из-за коротких записей. RAID 5 с небольшим размером полосы обеспечивает аналогичную производительность. RAID 5 сочетает в себе эффективное, отказоустойчивое хранилище данных с хорошими характеристиками производительности. Однако производительность записи и производительность во время сбоя диска ниже, чем у RAID 1.Операции восстановления также требуют больше времени, чем с RAID 1, потому что также восстанавливается информация о четности. Для массивов RAID 5 требуется как минимум три диска. RAID 6, по сути, является расширением уровня RAID 5, который обеспечивает дополнительную отказоустойчивость за счет использования второй независимой схемы распределенной четности (двумерной четности). Данные распределяются на уровне блоков по набору дисков, как и в RAID 5, и второй набор четности вычисляется и записывается на все диски; RAID 6 обеспечивает чрезвычайно высокую отказоустойчивость данных и может выдерживать одновременные отказы нескольких дисков.Это идеальное решение для критически важных приложений. 14

15 Управление RAID Подсистема может реализовывать несколько различных уровней технологии RAID. Уровни RAID, поддерживаемые подсистемой, показаны ниже. Уровень RAID Описание Мин. Диски 0 1 N-образное зеркало JBOD Обеспечивается чередование блоков, что обеспечивает более высокую производительность, чем с отдельными дисками. Избыточности нет.Диски парные и зеркальные. Все данные 100% дублируются на эквивалентном диске. Полностью избыточный. Расширение до уровня RAID 1. Имеет N копий диска. Данные распределяются по нескольким физическим дискам. Защита по четности используется для избыточности данных. Данные распределяются по нескольким физическим дискам. Защита по четности используется для избыточности данных. Данные распределяются по нескольким физическим дискам. Защита по четности используется для избыточности данных. Требуется N + 2 дисков для реализации из-за схемы двумерной четности. Зеркальное отображение двух дисковых массивов RAID 0.Этот уровень обеспечивает чередование и избыточность посредством зеркалирования. Чередование двух дисковых массивов RAID 1. Этот уровень обеспечивает зеркалирование и избыточность через чередование. Комбинация уровней RAID 0 и 3. Этот уровень лучше всего реализовать на двух дисковых массивах RAID 3 с чередованием данных по обоим дисковым массивам. RAID 50 обеспечивает функции как RAID 0, так и RAID 5. RAID 50 включает как четность, так и чередование дисков между несколькими дисками. RAID 50 лучше всего реализовать на двух дисковых массивах RAID 5 с чередованием данных по обоим дисковым массивам.RAID 60 обеспечивает функции как RAID 0, так и RAID 6. RAID 60 включает как четность, так и чередование дисков между несколькими дисками. RAID 60 лучше всего реализовать на двух дисковых массивах RAID 6 с чередованием данных по обоим дисковым массивам. Аббревиатура Just a Bunch Of Disks. JBOD требуется как минимум один жесткий диск

16 Глава 2 Приступая к работе 2.1 Упаковка, отгрузка и доставка Перед извлечением подсистемы из транспортной коробки необходимо визуально проверить физическое состояние транспортной коробки.Распакуйте подсистему и убедитесь, что все содержимое транспортной коробки находится на месте и находится в хорошем состоянии. Внешнее повреждение транспортной коробки может указывать на повреждение ее содержимого. При обнаружении повреждений не снимайте компоненты; обратитесь к дилеру, у которого вы приобрели подсистему, для получения дальнейших инструкций. 2.2 Распаковка подсистемы В комплект поставки входят следующие элементы: подсистема iscsi RAID Два шнура питания Три кабеля Ethernet LAN Один внешний нуль-модемный кабель Справочное руководство по установке Запасные винты и т. Д.Если какой-либо из этих элементов отсутствует или поврежден, обратитесь за помощью к своему дилеру или торговому представителю. 16

17 2.3 Определение частей подсистемы iscsi RAID На приведенных ниже иллюстрациях показаны различные части подсистемы. Вид спереди Вид сзади 17

18 1.Порт источника бесперебойного питания (ИБП) (только APC Smart UPS) Подсистема может поставляться с дополнительным портом ИБП, позволяющим подключать устройство APC Smart UPS. Подключите кабель от устройства ИБП к порту ИБП, расположенному на задней панели подсистемы. Это автоматически позволит подсистеме использовать функции и возможности ИБП. 2. Порт R-Link: удаленное соединение через RJ-45 Ethernet для удаленного управления. Подсистема оснащена одним портом LAN 10/100 Ethernet RJ45. Вы используете веб-браузер для управления подсистемой RAID через Ethernet для удаленной настройки и мониторинга.3. Порт монитора. Подсистема оборудована последовательным портом монитора, позволяющим подключать ПК или терминал. 4. Индикатор сбоя вентилятора. В случае отказа вентилятора этот светодиод загорится красным. 5. Модуль охлаждающего вентилятора Два нагнетательных вентилятора расположены в задней части подсистемы. Они обеспечивают достаточный воздушный поток и рассеивание тепла внутри корпуса. Если вентилятор не работает, светодиод сбоя вентилятора загорится красным и раздастся звуковой сигнал. 6. Индикатор включения питания. Зеленый светодиодный индикатор указывает на то, что питание включено. 7. Индикатор включения питания системы Зеленый светодиодный индикатор указывает на то, что питание включено.8. Блок питания 1 ~ 2 Два блока питания (блок питания 1 и блок питания 2) расположены в задней части подсистемы. Включите питание этих блоков питания, чтобы включить подсистему. Светодиод питания на передней панели загорится зеленым. Если блок питания не работает или блок питания не был включен, индикатор сбоя питания загорится красным и раздастся звуковой сигнал. 18

19 2.3.3 Светодиоды состояния окружающей среды Детали Светодиод питания Светодиод сбоя питания Светодиод сбоя вентилятора Светодиод перегрева Светодиод предупреждения о напряжении Светодиод доступа Функция Зеленый светодиод указывает на то, что питание включено. При выходе из строя резервного блока питания этот светодиод станет КРАСНЫМ и раздастся звуковой сигнал. Когда вентилятор выходит из строя, этот светодиод становится красным, и раздается звуковой сигнал. Если в системе возникнут температурные отклонения (температура слота жесткого диска выше 45 C), этот светодиод станет КРАСНЫМ и раздастся звуковой сигнал. Раздастся звуковой сигнал, предупреждающий об отклонении от нормы напряжения, и этот светодиод станет красным.Этот светодиод будет мигать синим, когда RAID-контроллер занят / активен. 19

20 2.3.4 ЧАСТИ интеллектуальной функциональной панели Кнопки со стрелками вверх и вниз Кнопка выбора Кнопка выхода ФУНКЦИЯ ВЫХОДА Используйте клавиши со стрелками вверх или вниз для просмотра информации на ЖК-экране. Это также используется для перехода между каждым меню при настройке подсистемы. Используется для входа в выбранный вами вариант.Нажмите эту кнопку, чтобы вернуться в предыдущее меню. 2.4 Подключение подсистемы iscsi к вашей сети Чтобы подключить модуль iscsi к сети, вставьте кабель, поставляемый с устройством, в сетевое соединение (LAN1) на задней панели модуля iscsi. Другой конец вставьте в соединение Gigabit BASE-T Ethernet на сетевом концентраторе или коммутаторе. При необходимости вы можете подключить другой сетевой порт LAN2. Для удаленного управления устройством iscsi подключите порт R-Link к вашей сети. 20

21 2.5 Включение 1. Подключите все шнуры питания к разъему питания переменного тока, расположенному на задней стороне подсистемы. 2. Включите выключатель питания 1, и индикатор питания на передней панели загорится зеленым. 2.6 Установка жестких дисков В этом разделе описывается физическое расположение жестких дисков, поддерживаемых подсистемой, и даются инструкции по установке жесткого диска. Подсистема поддерживает горячую замену, что позволяет устанавливать или заменять жесткий диск во время работы подсистемы. а. Выдвиньте пустой лоток для диска.Потяните ручку наружу, чтобы извлечь держатель из корпуса. б. Снимите скобу перед установкой жесткого диска. c. Поместите жесткий диск в лоток для диска. d. Установите крепежные винты с каждой стороны, чтобы закрепить диск в лотке. 21

22 эл. Вставьте лоток в прорезь до щелчка. Индикатор состояния жесткого диска загорится зеленым, если подсистема включена. f. Нажмите на рычаг, пока не услышите щелчок защелки. грамм. Если индикатор питания жесткого диска не загорелся зеленым, убедитесь, что жесткий диск в хорошем состоянии.Если к жесткому диску нет доступа, индикатор доступа к жесткому диску не загорится. Светодиод мигает только при обращении к нему. Индикатор состояния жесткого диска Части Функция Светодиодные индикаторы состояния жесткого диска Зеленый светодиод указывает на то, что питание включено, и состояние жесткого диска для этого слота удовлетворительное. Если жесткий диск неисправен в этом слоте или жесткий диск неисправен, индикатор горит оранжевым. Индикаторы доступа к жесткому диску. Эти индикаторы будут мигать синим при обращении к жесткому диску. 22

23 2.7 Введение в iscsi iscsi (Internet SCSI) — это протокол, который инкапсулирует команды и данные SCSI (интерфейс малых компьютерных систем) в пакеты TCP / IP для связывания устройств хранения с серверами через общие IP-инфраструктуры.iscsi обеспечивает высокопроизводительные сети хранения данных по стандартным IP-сетям, таким как LAN, WAN или Интернет. IP SAN — это настоящие SAN (сети хранения данных), которые позволяют нескольким серверам подключаться к бесконечному количеству томов хранения, используя iscsi по сетям TCP / IP. IP SAN может масштабировать емкость хранилища с помощью систем хранения любого типа и марки. Кроме того, использование любого типа сети (Ethernet, Fast Ethernet, Gigabit Ethernet) и объединение операционных систем (Microsoft Windows, Linux, Solaris и т. Д.) В сети SAN.IP-SAN также включают механизмы безопасности, репликации данных, многопутевости и высокой доступности. Протокол хранения, такой как iscsi, имеет два конца соединения. Эти цели — инициатор и цель. В iscsi мы называем их инициатором iscsi и целью iscsi. Инициатор iscsi запрашивает или инициирует любое соединение iscsi. Он запрашивает все операции SCSI, такие как чтение или запись. Инициатор обычно находится на стороне хоста / сервера (инициатор iscsi HBA или iscsi SW). Целью iscsi является само устройство хранения или устройство, которое контролирует и обслуживает тома или виртуальные тома.Целевой объект — это устройство, которое выполняет команды SCSI или связывает его с подключенным устройством хранения. Целями iscsi могут быть диски, ленты, RAID-массивы, ленточные библиотеки и т. д. Хост 1 (инициатор) NIC Хост 2 (инициатор) iscsi HBA IP SAN iscsi device 1 (target) iscsi device 2 (target) Стороне хоста требуется iscsi инициатор. Инициатор — это драйвер, который обрабатывает трафик SCSI по iscsi. Инициатор может быть программным или аппаратным (HBA). См. Список сертификации HBA-адаптеров iscsi в Приложении A.Собственные инициаторы ОС или другие программные инициаторы используют стандартный стек TCP / IP и оборудование Ethernet, а HBA-адаптеры iscsi используют собственные стеки iscsi и TCP / IP. Аппаратный iscsi HBA (ы) предоставит свой инструмент инициатора. См. Руководство пользователя HBA производителя. Microsoft, Linux и Mac предоставляют программный драйвер инициатора iscsi. Ниже приведены доступные ссылки: 23

24 1. Ссылка для загрузки инициатора программного обеспечения Microsoft iscsi: befd1319f825 & displaylang = en Процедура установки инициатора Microsoft iscsi см. В Приложении D.2. Также доступен инициатор iscsi для Linux. Для разных ядер существуют разные драйверы iscsi. Если вам нужна последняя версия инициатора iscsi Linux, посетите проект Open-iSCSI для получения большей информации об обновлениях. Проекты Linux-iSCSI (sfnet) и Open-iSCSI были объединены 11 апреля. Веб-сайт Open-iSCSI: Open-iSCSI README: Особенности: Поддерживаемые ядра: Группы Google: Open-iSCSI Wiki: 3. Инициатор ATTO iscsi доступен для Mac. Веб-сайт: Методы управления Существует три метода управления для управления подсистемой iscsi RAID, описанные ниже: Веб-интерфейс Подсистема iscsi RAID поддерживает графический пользовательский интерфейс для управления системой.Обязательно подключите кабель LAN к порту R-Link. По умолчанию IP-адрес порта управления установлен на DHCP, и адрес DHCP отображается на LCM; Пользователь может сначала проверить LCM на IP, затем открыть браузер и ввести DHCP-адрес: (DHCP-адрес является динамическим, и пользователю может потребоваться повторная проверка каждый раз после перезагрузки.) Когда служба DHCP недоступна, система использует нулевую конфигурацию. (Zeroconf), чтобы получить IP-адрес. Например, на LCM. Подсистема iscsi RAID получает DHCP-адрес от DHCP-сервера iscsi-model или (https: соединение с зашифрованным протоколом Secure Sockets Layer (SSL).Имейте в виду, что https работает медленнее, чем http.) 24

25 Щелкните любую функцию в первый раз; появится диалоговое окно для аутентификации текущего пользователя. Имя для входа: admin Пароль по умолчанию: Или войдите в систему с учетной записью только для чтения, которая позволяет только просматривать конфигурацию и не может изменять настройки. Имя для входа: user Пароль по умолчанию: Последовательный порт консоли. Для подключения порта консоли используйте модемный кабель NULL. Настройка консоли: скорость передачи данных:, 8 бит, 1 стоповый бит и отсутствие четности.Тип терминала: vt100 Имя входа: admin Пароль по умолчанию: Remote Control Secure Shell SSH (безопасная оболочка) требуется для удаленного входа в систему. Программное обеспечение клиента SSH доступно на следующем веб-сайте: SSHWinClient WWW: Putty WWW: Имя хоста: (проверьте свой DHCP-адрес в этом поле.) Имя входа: admin Пароль по умолчанию: ПРИМЕЧАНИЕ. Серия RAID iscsi поддерживает SSH только для удаленного доступа. контроль. Для использования SSH IP-адрес и пароль требуются для входа в систему. 25

26 2.9 Модуль управления ЖК-дисплеем корпуса (LCM) Есть четыре кнопки для управления LCM (модулем управления ЖК-дисплеем). Это: (вверх) (вниз) (Escape) (Enter) После загрузки системы следующий экран показывает IP-адрес порта управления и название модели: iscsi-model Press, функции LCM: Отключение сигнала тревоги, сброс / выключение, быстрая установка, Просмотр настройки IP, изменение конфигурации IP и сброс на значение по умолчанию будут вращаться при нажатии (вверх) и (вниз). Когда происходит событие уровня ПРЕДУПРЕЖДЕНИЕ или ОШИБКА, LCM показывает журнал событий, чтобы предоставить пользователям более подробную информацию с передней панели.В следующей таблице приводится описание функций. Информация о системе Сброс / выключение приглушения сигнала тревоги Быстрая установка Просмотр настроек IP Изменить конфигурацию IP Сброс до значений по умолчанию Просмотр системной информации о версии прошивки и размере ОЗУ. Отключить сигнал тревоги при возникновении ошибки. Сбросьте или выключите контроллер. Три быстрых шага для создания объема. Пожалуйста, обратитесь к разделу 3.3 для работы с веб-интерфейсом. Отображение текущего IP-адреса, маски подсети и шлюза. Установите IP-адрес, маску подсети и шлюз. Есть 2 варианта: DHCP (получить IP-адрес от DHCP-сервера) или установить статический IP-адрес.Сброс до значения по умолчанию устанавливает пароль по умолчанию:, а IP-адрес по умолчанию устанавливается в качестве настройки DHCP. IP-адрес по умолчанию: (DHCP) Маска подсети по умолчанию: Шлюз по умолчанию:

.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *