Server cluster: Кластер серверов — что это такое серверный кластер
Кластер серверов — что это такое серверный кластер
Кластер серверов (Server Cluster) — это определенное количество серверов, объединенных в группу и образующих единый ресурс. Данное решение позволяет существенно увеличить надежность и производительность системы.
Сгруппированные в локальную сеть несколько компьютеров можно назвать аппаратным кластером, однако, суть данного объединения — повышение стабильности и работоспособности системы за счет единого программного обеспечения под управлением модуля (Cluster Manager).
Общая логика кластера серверов создается на уровне программных протоколов и дает возможность:
- управлять произвольным количеством аппаратных средств с помощью одного программного модуля;
- добавлять и усовершенствовать программные и аппаратные ресурсы, без остановки системы и масштабных архитектурных преобразований;
- обеспечивать бесперебойную работу системы, при выходе из строя одного или нескольких серверов;
- синхронизировать данные между серверами — единицами кластера;
- эффективно распределять клиентские запросы по серверам;
- использовать общую базу данных кластера.
По сути, главной задачей кластера серверов, является исключение простоя системы. В идеале, любой инцидент, связанный с внешним вмешательством или внутренним сбоем в работе ресурса, должен оставаться незамеченным для пользователя.
При проектировании систем с участием серверного кластера необходимо учитывать возможности клиентского программного обеспечения по идентификации кластера и совместной работе с командным модулем (Cluster Manager). В противном случае вероятна ситуация, при которой попытка программы-клиента с помощью модуля получить доступ к данным ресурса через другие сервера может получить отказ (конкретные механизмы в данном случае зависят от возможностей и настроек кластера и клиентского оборудования).
Принято считать, что кластеры серверов делятся на две модели:
- Первая — это использование единого массива хранения информации, что дает возможность более быстрого переподключения при сбое. Однако в случае с объемной базой данных и большим количеством аппаратных единиц в системе, возможно падение производительности.
- Вторая — это модель, при которой серверы независимы, как и их периферия. В случае отказа перераспределение происходит между серверами. Здесь ситуация обратная — трафик в системе более свободен, однако, усложняется и ограничивается пользование общей базой данных.
В обоих случаях, существуют определенные и вполне эффективные инструменты для решения проблем, поэтому выбор конкретной модели кластера неограничен ничем, кроме требований к архитектуре системы.
Смотрите также: Сервер под «1С» в аренду
Серверные кластеры: виды, особенности и преимущества
Обзор
Кластер серверов представляет собой группу из нескольких машин, которые объединены в единый аппаратно-программный ресурс. Для соединения отдельных серверов в кластер применяются высокоскоростные каналы связи. Пользователи и приложения видят их как единую высокопроизводительную и надежную систему. В зависимости от назначения выделяют три вида кластеров.
Отказоустойчивый кластер / High-Availability cluster (HA)
Это кластер высокой доступности, в котором при отказе одного сервера его функции перенимают на себя другие машины в кластере. Таким образом, сервисы и приложения продолжают работать без остановки благодаря аппаратной избыточности. Чтобы построить отказоустойчивую структуру, требуется минимум два физических сервера с системами хранения данных. В рамках СХД дисковое пространство распределяется между всеми серверами, а для управления виртуальными машинами используют специальное ПО – гипервизор. Виртуальные машины, запущенные на серверах кластера, работают по следующему принципу: если одна из них выходит из строя, в работу автоматически включается вторая.
Применение: везде, где требуется непрерывная работа бизнес-сервисов и поддержка важных баз данных (банк, биржа, круглосуточное производство), электронные торговые площадки.
Преимущества: надежность, высокая доступность сервисов и приложений, сокращение потерь из-за простоев в работе.
Кластер с балансировкой нагрузки / Load balancing cluster
В пределах этого кластера нагрузка, которую создают сервисы и приложения, равномерно распределяется между доступными машинами. Так исключается простой одного сервера, пока второй работает на пределе возможностей. Для распределения запросов в кластере используется один или несколько входных вычислительных узлов, через которые задачи перенаправляются с одной машины на другую.
Применение: ЦОД, комплексы для ERP/CRM-систем, сервисы биллинга в телекоммуникационных системах.
Преимущества: масштабируемость, возможность использования недорогих серверов стандартной архитектуры.
Вычислительный кластер / High-Performance Computing cluster
Кластер построен на основе нескольких серверов, объединенных высокоскоростными линиями передач и специальным ПО. На выходе образуется единая система для комплексных вычислений. Каждый сервер в таком кластере обрабатывает задачу, которая автоматически выделяется ему из общего объема работы.
Применение: аналитика, сбор и обработка данных для Big Data, системы искусственного интеллекта, нейронные сети.
Преимущества: высокая производительность в ресурсоемких задачах, выполнение параллельных вычислений.
Специалисты компании ITELON имеют необходимый опыт и компетенцию для подбора высокопроизводительного кластерного решения для вашего бизнеса. Они разработают и внедрят отказоустойчивую высокопроизводительную систему, используя оборудование ведущих вендоров и современные технологии виртуализации. Мы рекомендуем использовать серверы HPE ProLiant DL380 Gen10 (2U), Dell PowerEdge R740 (2U), Fujitsu PRIMERGY RX2540 M4, Lenovo System x3650 M5 (2U).
Кластер серверов — Национальная библиотека им. Н. Э. Баумана
Материал из Национальной библиотеки им. Н. Э. Баумана
Последнее изменение этой страницы: 13:52, 31 января 2019.
Кластер серверов – группа серверов, объединённых высокоскоростными каналами связи, представляющая с точки зрения пользователя единый аппаратный ресурс. Кластер — слабо связанная совокупность нескольких вычислительных систем, работающих совместно для выполнения общих приложений, и представляющихся пользователю единой системой. Один из первых архитекторов кластерной технологии Грегори Пфистер дал кластеру следующее определение: «Кластер – это разновидность параллельной или распределённой системы, которая:
- состоит из нескольких связанных между собой компьютеров;
- используется как единый, унифицированный компьютерный ресурс».
Возможности
Возможностями при использовании кластерами серверов являются:
- управлять произвольным количеством аппаратных средств с помощью одного программного модуля;
- добавлять и усовершенствовать программные и аппаратные ресурсы, без остановки системы и масштабных архитектурных преобразований;
- обеспечивать бесперебойную работу системы, при выходе из строя одного или нескольких серверов;
- синхронизировать данные между серверами – единицами кластера;
- эффективно распределять клиентские запросы по серверам;
- использовать общую базу данных кластера.
По сути, главной задачей кластера серверов, является исключение простоя системы. В идеале, любой инцидент, связанный с внешним вмешательством или внутренним сбоем в работе ресурса, должен оставаться незамеченным для пользователя.
При проектировании систем с участием серверного кластера необходимо учитывать возможности клиентского программного обеспечения по идентификации кластера и совместной работе с командным модулем (Cluster Manager). В противном случае вероятна ситуация, при которой попытка программы-клиента с помощью модуля получить доступ к данным ресурса через другие сервера может получить отказ (конкретные механизмы в данном случае зависят от возможностей и настроек кластера и клиентского оборудования).
Модели формирования
Принято считать, что кластеры серверов делятся на две модели:
- Первая – это использование единого массива хранения информации, что дает возможность более быстрого переподключения при сбое. Однако в случае с объемной базой данных и большим количеством аппаратных единиц в системе, возможно падение производительности.
- Вторая – это модель, при которой серверы независимы, как и их периферия. В случае отказа перераспределение происходит между серверами. Здесь ситуация обратная – трафик в системе более свободен, однако, усложняется и ограничивается пользование общей базой данных.
В обоих случаях, существуют определенные и вполне эффективные инструменты для решения проблем, поэтому выбор конкретной модели кластера неограничен ничем, кроме требований к архитектуре системы.[Источник 1]
Виды
Различают следующие основные виды кластеров:
- отказоустойчивые кластеры (High-availability clusters, HA, кластеры высокой доступности)
- кластеры с балансировкой нагрузки (Load balancing clusters)
- вычислительные кластеры (High performance computing clusters, HPC)
- системы распределенных вычислений
Отказоустойчивые кластеры
Несомненно, основной характеристикой в кластере является отказоустойчивость. Это подтверждает и опрос пользователей: 95% опрошенных ответили, что в кластерах им необходимы надежность и отказоустойчивость. Однако не следует смешивать эти два понятия. Под отказоустойчивостью понимается доступность тех или иных функций в случае сбоя, другими словами, это резервирование функций и распределение нагрузки. А под надежностью понимается набор средств обеспечения защиты от сбоев.
Такие требования к надежности и отказоустойчивости кластерных систем обусловлены спецификой их использования. Приведем небольшой пример. Кластер обслуживает систему электронных платежей, поэтому если клиент в какой-то момент останется без обслуживания для компании-оператора, это ему будет дорого стоить. Другими словами, система должна работать в непрерывном режиме 24 часа в сутки и семь дней в неделю (7Ѕ24). При этом отказоустойчивости в 99% явно не достаточно, так как это означает, что почти четыре дня в году информационная система предприятия или оператора будет неработоспособной.
Это может показаться не таким уж и большим сроком, учитывая профилактические работы и техническое обслуживание системы. Но сегодняшнему клиенту абсолютно безразличны причины, по которым система не работает. Ему нужны услуги. Итак, приемлемой цифрой для отказоустойчивости становится 99,999%, что эквивалентно 5 минутам в год. Таких показателей позволяет достичь сама архитектура кластера. Приведем пример серверного кластера: каждый сервер в кластере остается относительно независимым, то есть его можно остановить и выключить (например, для проведения профилактических работ или установки дополнительного оборудования), не нарушая работоспособность кластера в целом. Тесное взаимодействие серверов, образующих кластер (узлов кластера), гарантирует максимальную производительность и минимальное время простоя приложений за счет того, что:
- в случае сбоя программного обеспечения на одном узле приложение продолжает функционировать (либо автоматически перезапускается) на других узлах кластера;
- сбой или отказ узла (или узлов) кластера по любой причине (включая ошибки персонала) не означает выхода из строя кластера в целом;
- профилактические и ремонтные работы, реконфигурацию и смену версий программного обеспечения в большинстве случаев можно осуществлять на узлах кластера поочередно, не прерывая работу приложений на других узлах кластера.
Возможные простои, которые не в состоянии предотвратить обычные системы, в кластере оборачиваются либо некоторым снижением производительности (если узлы выключаются из работы), либо существенным сокращением (приложения недоступны только на короткий промежуток времени, необходимый для переключения на другой узел), что позволяет обеспечить уровень готовности в 99,99%.
Масштабируемость
Высокая стоимость кластерных систем обусловлена их сложностью. Поэтому масштабируемость кластера довольно актуальна. Ведь компьютеры, производительность которых удовлетворяет сегодняшние требования, не обязательно будет удовлетворять их и в будущем. Практически при любом ресурсе в системе рано или поздно приходится сталкиваться с проблемой производительности. В этом случае возможно два варианта масштабирования: горизонтальное и вертикальное. Большинство компьютерных систем допускают несколько способов повышения их производительности: добавление памяти, увеличение числа процессоров в многопроцессорных системах или добавление новых адаптеров или дисков. Такое масштабирование называется вертикальным и позволяет временно улучшить производительность системы. Однако в системе будет установлено максимальное поддерживаемое количество памяти, процессоров или дисков, системные ресурсы будут исчерпаны. И пользователь столкнется с той же проблемой улучшения характеристик компьютерной системы, что и ранее.
Горизонтальное масштабирование предоставляет возможность добавлять в систему дополнительные компьютеры и распределять работу между ними. Таким образом, производительность новой системы в целом выходит за пределы предыдущей. Естественным ограничением такой системы будет программное обеспечение, которые вы решите на ней запускать. Самым простым примером использования такой системы является распределение различных приложений между разными компонентами системы. Например, вы можете переместить ваши офисные приложения на один кластерный узел приложения для Web на другой, корпоративные базы данных – на третий. Однако здесь возникает вопрос взаимодействия этих приложений между собой. И в этом случае масштабируемость обычно ограничивается данными, используемыми в приложениях. Различным приложениям, требующим доступ к одним и тем же данным, необходим способ, обеспечивающий доступ к данным с различных узлов такой системы. Решением в этом случае становятся технологии, которые, собственно, и делают кластер кластером, а не системой соединенных вместе машин. При этом, естественно, остается возможность вертикального масштабирования кластерной системы. Таким образом, за счет вертикального и горизонтального масштабирования кластерная модель обеспечивает серьезную защиту инвестиций потребителей.
В качестве варианта горизонтального масштабирования стоит также отметить использование группы компьютеров, соединенных через коммутатор, распределяющий нагрузку (технология Load Balancing). Здесь стоит отметить невысокую стоимость такого решения, в основном слагаемую из цены коммутатора (6 тыс. долл. и выше – в зависимости от функционального оснащения) и хост-адаптер (порядка нескольких сот долларов за каждый; хотя, конечно, можно использовать и обыкновенные сетевые карты). Такие решения находят основное применение на Web-узлах с высоким трафиком, где один сервер не справляется с обработкой всех поступающих запросов. Возможность распределения нагрузки между серверными узлами такой системы позволяет создавать на многих серверах единый Web-узел.
Вычислительные кластеры
Часто решения, похожие на вышеописанные, носят названия Beowulf-кластера. Такие системы прежде всего рассчитаны на максимальную вычислительную мощность. Поэтому дополнительные системы повышения надежности и отказоустойчивости просто не предусматриваются. Такое решение отличается чрезвычайно привлекательной ценой, и, наверное, поэтому наибольшую популярность приобрело во многих образовательных и научно-исследовательских организациях.
Проект Beowulf появился в 1994 году – возникла идея создавать параллельные вычислительные системы (кластеры) из общедоступных компьютеров на базе Intel и недорогих Ethernet-сетей, устанавливая на эти компьютеры Linux и одну из бесплатно распространяемых коммуникационных библиотек (PVM, а затем MPI). Оказалось, что на многих классах задач и при достаточном числе узлов такие системы дают производительность, сравнимую с суперкомпьютерной. Как показывает практика, построить такую систему довольно просто. Все, что для этого нужно, это высокопроизводительный коммутатор и несколько подсоединенных к нему рабочих станций (серверов) с установленной операционной системой Linux. Однако этого недостаточно. Для того чтобы эта груда железа ожила, необходимо специальное программное обеспечение для параллельных вычислений.
Наиболее распространенным интерфейсом параллельного программирования в модели передачи сообщений является MPI (Message Passing Interface).
Название «Интерфейс передачи сообщений» говорит само за себя. Это хорошо стандартизованный механизм для построения параллельных программ в модели обмена сообщениями. Существуют бесплатные и коммерческие реализации почти для всех суперкомпьютерных платформ, а также для сетей рабочих станций UNIX и Windows NT. В настоящее время MPI – наиболее широко используемый и динамично развивающийся интерфейс своего класса. Рекомендуемая бесплатная реализация MPI – пакет MPICH, разработанный в Аргоннской Национальной Лаборатории. Стандартизацией MPI занимается MPI Forum. Последняя версия стандарта – 2.0. В этой версии к MPI добавлены такие важные функции, как динамическое управление процессами, односторонние коммуникации (Put/Get), параллельный ввод-вывод.
Постоянный спрос на высокие вычислительные мощности обусловил появление привлекательного для многих производителей рынка. Некоторые из них разработали собственные технологии соединения компьютеров в кластер. Наиболее известные из них – Myrinet производства MyriCom и cLAN фирмы Giganet. Myrinet является открытым стандартом. Для его реализации MyriCom предлагает широкий выбор сетевого оборудования по сравнительно невысоким ценам. На физическом уровне поддерживаются сетевые среды SAN (System Area Network), LAN (CL-2) и оптоволокно.
Технология Myrinet дает высокие возможности масштабирования сети и в настоящее время очень широко используется при построении высокопроизводительных кластеров. Giganet занимается разработкой программных и аппаратных средств для непосредственного взаимодействия центральных процессорных устройств серверов кластера на гигабитных скоростях, минуя функции ОС. Стоимость решения составляет: около 2500 долл. – за 8-портовый коммутатор, 150 долл. – за адаптер для Myrinet, около 6250 долл. – за 8-портовый коммутатор и 800 долл. – за адаптер для Giganet. Последняя, кстати, получила на выставке Microsoft Tech Ed 2000 премию «Best of Show». В качестве примера приведем реализацию Beowulf-кластера в Институте высокопроизводительных вычислений и баз данных Министерства науки и технической политики РФ.
Кластер, получивший название «ПАРИТЕТ», создан на базе общедоступных комплектующих для персональных компьютеров и рабочих станций и обеспечивает суммарную пиковую производительность 3,2 GFLOP/sec. Кластер состоит из четырех двухпроцессорных вычислительных узлов, на базе процессоров Intel Pentium II/450MHz. На каждом узле установлена оперативная память объемом 512 Мбайт и 10-гигабайтный жесткий диск на интерфейсе Ultra Wide SCSI. Вычислительные узлы кластера объединены высокопроизводительным коммутатором Myrinet (каналы с пропускной способностью 1,28 Гбайт/с, полный дуплекс). Имеется также резервная сеть, используемая для управления и конфигурирования (100 Mbit Fast Ethernet). На узлах вычислительного кластера установлена операционная система Linux (дистрибутив Red Hat 5,2). Для программирования параллельных приложений используются интерфейсы передачи сообщений MPI/PVM.[Источник 2]
Источники
создание отказоустойчивого кластера | Microsoft Docs
-
- Чтение занимает 12 мин
В этой статье
Область применения: Windows Server 2019, Windows Server 2016, Windows Server 2012 R2 и Windows Server 2012Applies to: Windows Server 2019, Windows Server 2016, Windows Server 2012 R2, and Windows Server 2012
В этом разделе описывается, как создать отказоустойчивый кластер с помощью оснастки диспетчера отказоустойчивости кластеров или Windows PowerShell. This topic shows how to create a failover cluster by using either the Failover Cluster Manager snap-in or Windows PowerShell. В нем рассматривается типичное развертывание, при котором объекты-компьютеры для кластера и связанные с ним кластерные роли создаются в доменных службах Active Directory (AD DS).The topic covers a typical deployment, where computer objects for the cluster and its associated clustered roles are created in Active Directory Domain Services (AD DS). Если вы развертываете кластер Локальные дисковые пространства, см. раздел развертывание Локальные дисковые пространства.If you’re deploying a Storage Spaces Direct cluster, instead see Deploy Storage Spaces Direct.
Также можно развернуть кластер, отсоединенный Active Directory.You can also deploy an Active Directory-detached cluster. Этот метод развертывания позволяет создать отказоустойчивый кластер без разрешений на создание объектов-компьютеров в AD DS или необходимости запрашивать эти объекты-компьютеры в AD DS. This deployment method enables you to create a failover cluster without permissions to create computer objects in AD DS or the need to request that computer objects are prestaged in AD DS. Он возможен только посредством Windows PowerShell и рекомендуется только в определенных сценариях.This option is only available through Windows PowerShell, and is only recommended for specific scenarios. Дополнительные сведения см. в разделе о развертывании отсоединенного от Active Directory кластера.For more information, see Deploy an Active Directory-Detached Cluster.
Контрольный список: Создание отказоустойчивого кластераChecklist: Create a failover cluster
Проверка предварительных требованийVerify the prerequisites
Перед началом работы проверьте выполнение следующих необходимых условий.Before you begin, verify the following prerequisites:
- Убедитесь в том, что все серверы, которые нужно добавить в качестве узлов кластера, работают под управлением одной и той же версии Windows Server. Make sure that all servers that you want to add as cluster nodes are running the same version of Windows Server.
- Изучите требования к оборудованию, чтобы убедиться в том, что ваша конфигурация поддерживается.Review the hardware requirements to make sure that your configuration is supported. Подробнее см. в разделе Требования к оборудованию для отказоустойчивой кластеризации и варианты хранилища.For more information, see Failover Clustering Hardware Requirements and Storage Options. Если вы создаете кластер Локальные дисковые пространства, см. статью Локальные дисковые пространства требования к оборудованию.If you’re creating a Storage Spaces Direct cluster, see Storage Spaces Direct hardware requirements.
- Чтобы добавить кластерное хранилище во время создания кластера, убедитесь, что все серверы имеют доступ к хранилищу.To add clustered storage during cluster creation, make sure that all servers can access the storage. (Кластерное хранилище можно добавить и после создания кластера. )(You can also add clustered storage after you create the cluster.)
- Убедитесь в том, что все серверы, которые нужно добавить в качестве узлов кластера, присоединены к одному и тому же домену Active Directory.Make sure that all servers that you want to add as cluster nodes are joined to the same Active Directory domain.
- (Необязательно.) Создайте подразделение и переместите в него учетные записи компьютеров для серверов, которые нужно добавить в качестве узлов кластера.(Optional) Create an organizational unit (OU) and move the computer accounts for the servers that you want to add as cluster nodes into the OU. Мы рекомендуем размещать отказоустойчивые кластеры в собственном подразделении в AD DS.As a best practice, we recommend that you place failover clusters in their own OU in AD DS. Это позволит лучше контролировать параметры групповой политики и шаблона безопасности, применяемые к узлам кластера.This can help you better control which Group Policy settings or security template settings affect the cluster nodes. Изоляция кластеров в собственном подразделении также помогает предотвратить случайное удаление объектов-компьютеров кластера.By isolating clusters in their own OU, it also helps prevent against accidental deletion of cluster computer objects.
Кроме того, проверьте выполнение указанных ниже требований к учетным записям.Additionally, verify the following account requirements:
- Убедитесь в том, что учетная запись, которую вы хотите использовать для создания кластера, принадлежит пользователю домена с правами администратора на всех серверах, которые нужно добавить в качестве узлов кластера.Make sure that the account you want to use to create the cluster is a domain user who has administrator rights on all servers that you want to add as cluster nodes.
- Убедитесь, что выполняется одно из следующих условий:Make sure that either of the following is true:
- У пользователя, создающего кластер, есть разрешение на создание объектов-компьютеров для подразделения или контейнера, в котором размещаются серверы, которые войдут в кластер. The user who creates the cluster has the Create Computer objects permission to the OU or the container where the servers that will form the cluster reside.
- Если у пользователя нет разрешения на создание объектов-компьютеров , попросите администратора домена предварительно подготовить объект-компьютер кластера.If the user does not have the Create Computer objects permission, ask a domain administrator to prestage a cluster computer object for the cluster. Подробнее см. в разделе Подготовка кластерных объектов-компьютеров в доменных службах Active Directory.For more information, see Prestage Cluster Computer Objects in Active Directory Domain Services.
Установка средства отказоустойчивости кластеровInstall the Failover Clustering feature
Средство отказоустойчивости кластеров необходимо установить на всех серверах, которые будут добавлены как узлы отказоустойчивого кластера.You must install the Failover Clustering feature on every server that you want to add as a failover cluster node.
Установка средства отказоустойчивости кластеровInstall the Failover Clustering feature
Запустите диспетчер серверов.Start Server Manager.
В меню Управление выберите команду Добавить роли и компоненты .On the Manage menu, select Add Roles and Features .
На странице перед началом выполнения нажмите кнопку Далее .On the Before you begin page, select Next .
На странице Выбор типа установки выберите Установка на основе ролей или компонентов , а затем нажмите кнопку Далее .On the Select installation type page, select Role-based or feature-based installation , and then select Next .
На странице Выбор целевого сервера выберите сервер, на котором требуется установить компонент, и нажмите кнопку Далее . On the Select destination server page, select the server where you want to install the feature, and then select Next .
На странице Выбор ролей сервера щелкните Далее .On the Select server roles page, select Next .
На странице Выбор компонентов установите флажок Отказоустойчивая кластеризация .On the Select features page, select the Failover Clustering check box.
Чтобы установить средства управления отказоустойчивыми кластерами, выберите Добавить компоненты , а затем нажмите кнопку Далее .To install the failover cluster management tools, select Add Features , and then select Next .
На странице Подтверждение выбранных вариантов установки нажмите кнопку установить . On the Confirm installation selections page, select Install .
После установки средства отказоустойчивости кластеров не нужно перезапускать сервер.A server restart is not required for the Failover Clustering feature.После завершения установки нажмите кнопку Закрыть .When the installation is completed, select Close .
Повторите эту процедуру на каждом сервере, который необходимо добавить как узел отказоустойчивого кластера.Repeat this procedure on every server that you want to add as a failover cluster node.
Проверка конфигурацииValidate the configuration
Перед созданием отказоустойчивого кластера настоятельно рекомендуется проверить конфигурацию, чтобы убедиться в том, что оборудование и его настройки совместимы с отказоустойчивой кластеризацией.Before you create the failover cluster, we strongly recommend that you validate the configuration to make sure that the hardware and hardware settings are compatible with failover clustering. Корпорация Майкрософт поддерживает кластерное решение, только если конфигурация прошла все проверочные тесты и все оборудование сертифицировано для версии Windows Server, под управлением которой работают узлы кластера.Microsoft supports a cluster solution only if the complete configuration passes all validation tests and if all hardware is certified for the version of Windows Server that the cluster nodes are running.
Примечание
Для выполнения всех тестов необходимы по крайней мере два узла.You must have at least two nodes to run all tests. Если имеется только один узел, выполнение многих важных тестов хранилища невозможно.If you have only one node, many of the critical storage tests do not run.
Выполнение тестов проверки кластераRun cluster validation tests
На компьютере, на котором установлены средства управления отказоустойчивыми кластерами из средств удаленного администрирования сервера, или на сервере, на котором установлено средство отказоустойчивости кластеров, запустите диспетчер отказоустойчивости кластеров. On a computer that has the Failover Cluster Management Tools installed from the Remote Server Administration Tools, or on a server where you installed the Failover Clustering feature, start Failover Cluster Manager. Чтобы сделать это на сервере, запустите диспетчер сервера, а затем в меню Сервис выберите Диспетчер отказоустойчивости кластеров .To do this on a server, start Server Manager, and then on the Tools menu, select Failover Cluster Manager .
В области Диспетчер отказоустойчивости кластеров в разделе Управление выберите проверить конфигурацию .In the Failover Cluster Manager pane, under Management , select Validate Configuration .
На странице Перед началом работы нажмите кнопку Далее .On the Before You Begin page, select Next .
На странице Выбор серверов или кластера в поле введите имя введите NetBIOS-имя или полное доменное имя сервера, который планируется добавить в качестве узла отказоустойчивого кластера, а затем нажмите кнопку добавить .On the Select Servers or a Cluster page, in the Enter name box, enter the NetBIOS name or the fully qualified domain name of a server that you plan to add as a failover cluster node, and then select Add . Повторите этот шаг для каждого сервера, который нужно добавить.Repeat this step for each server that you want to add. Чтобы добавить несколько серверов одновременно, разделяйте их имена запятой или точкой с запятой.To add multiple servers at the same time, separate the names by a comma or by a semicolon. Например, введите имена в формате
server1.contoso.com, server2.contoso.com
.For example, enter the names in the formatserver1.contoso. com, server2.contoso.com
. По завершении нажмите кнопку Далее .When you are finished, select Next .На странице Параметры тестирования выберите выполнить все тесты (рекомендуется) , а затем нажмите кнопку Далее .On the Testing Options page, select Run all tests (recommended) , and then select Next .
На странице Подтверждение нажмите кнопку Далее .On the Confirmation page, select Next .
На странице «Проверка» показано состояние выполняющихся тестов.The Validating page displays the status of the running tests.
На странице Сводка выполните одно из указанных ниже действий.On the Summary page, do either of the following:
Если результаты показывают, что тесты успешно завершены и конфигурация подходит для кластеризации, и вы хотите создать кластер немедленно, убедитесь, что установлен флажок создать кластер, использующий проверенные узлы , и нажмите кнопку Готово . If the results indicate that the tests completed successfully and the configuration is suited for clustering, and you want to create the cluster immediately, make sure that the Create the cluster now using the validated nodes check box is selected, and then select Finish . Затем перейдите к шагу 4 процедуры Создание отказоустойчивого кластера.Then, continue to step 4 of the Create the failover cluster procedure.
Если результаты указывают на наличие предупреждений или сбоев, выберите Просмотреть отчет , чтобы просмотреть сведения и определить, какие проблемы необходимо исправить.If the results indicate that there were warnings or failures, select View Report to view the details and determine which issues must be corrected. Имейте в виду, что предупреждение в результатах определенного проверочного теста указывает на то, что данный аспект отказоустойчивого кластера поддерживается, но может не соответствовать рекомендациям. Realize that a warning for a particular validation test indicates that this aspect of the failover cluster can be supported, but might not meet the recommended best practices.
Подробнее о проверочных тестах оборудования см. в разделе Проверка оборудования для отказоустойчивого кластера.For more information about hardware validation tests, see Validate Hardware for a Failover Cluster.
Создание отказоустойчивого кластера.Create the failover cluster
Чтобы выполнить это действие, убедитесь в том, что учетная запись пользователя, с помощью которой вы вошли в систему, соответствует требованиям, указанным в подразделе Проверка предварительных требований этого раздела.To complete this step, make sure that the user account that you log on as meets the requirements that are outlined in the Verify the prerequisites section of this topic.
Запустите диспетчер серверов.Start Server Manager.
В меню Сервис выберите Диспетчер отказоустойчивости кластеров . On the Tools menu, select Failover Cluster Manager .
В области Диспетчер отказоустойчивости кластеров в разделе Управление выберите создать кластер .In the Failover Cluster Manager pane, under Management , select Create Cluster .
Откроется мастер создания кластеров.The Create Cluster Wizard opens.
На странице Перед началом работы нажмите кнопку Далее .On the Before You Begin page, select Next .
Если появится страница Выбор серверов , в поле введите имя введите NetBIOS-имя или полное доменное имя сервера, который планируется добавить в качестве узла отказоустойчивого кластера, а затем нажмите кнопку добавить .If the Select Servers page appears, in the Enter name box, enter the NetBIOS name or the fully qualified domain name of a server that you plan to add as a failover cluster node, and then select Add . Повторите этот шаг для каждого сервера, который нужно добавить.Repeat this step for each server that you want to add. Чтобы добавить несколько серверов одновременно, разделяйте их имена запятой или точкой с запятой.To add multiple servers at the same time, separate the names by a comma or a semicolon. Например, введите имена в формате server1.contoso.com; server2.contoso.com .For example, enter the names in the format server1.contoso.com; server2.contoso.com . По завершении нажмите кнопку Далее .When you are finished, select Next .
Примечание
Если вы решили создать кластер сразу после выполнения проверки в процедуре Проверка конфигурации, страница Выбор серверов не отображается.If you chose to create the cluster immediately after running validation in the configuration validating procedure, you will not see the Select Servers page. Проверенные узлы автоматически добавляются в мастер создания кластеров, так что вводить их еще раз не нужно. The nodes that were validated are automatically added to the Create Cluster Wizard so that you do not have to enter them again.
Если ранее вы пропустили проверку, появится страница Предупреждение проверки .If you skipped validation earlier, the Validation Warning page appears. Настоятельно рекомендуется выполнить проверку кластера.We strongly recommend that you run cluster validation. Корпорация Майкрософт поддерживает только те кластеры, которые прошли все проверочные тесты.Only clusters that pass all validation tests are supported by Microsoft. Чтобы выполнить проверочные тесты, выберите Да , а затем нажмите кнопку Далее .To run the validation tests, select Yes , and then select Next . Завершите работу мастера проверки конфигурации, как описано в разделе Проверка конфигурации.Complete the Validate a Configuration Wizard as described in Validate the configuration.
На странице Точка доступа для администрирования кластера выполните указанные ниже действия. On the Access Point for Administering the Cluster page, do the following:
В поле Имя кластера введите имя, которое необходимо использовать для администрирования кластера.In the Cluster Name box, enter the name that you want to use to administer the cluster. Перед этим изучите приведенную ниже информацию.Before you do, review the following information:
- В процессе создания кластера это имя регистрируется в качестве объекта-компьютера кластера (также известного как объект имени кластера или CNO ) в доменных службах Active Directory.During cluster creation, this name is registered as the cluster computer object (also known as the cluster name object or CNO ) in AD DS. Если для кластера указано имя NetBIOS, объект CNO создается в том же расположении, в котором находятся объекты-компьютеры узлов кластера.If you specify a NetBIOS name for the cluster, the CNO is created in the same location where the computer objects for the cluster nodes reside. Это может быть контейнер «Компьютеры» (по умолчанию) или подразделение.This can be either the default Computers container or an OU.
- Чтобы указать другое расположение для CNO, можно ввести различающееся имя подразделения в поле Имя кластера .To specify a different location for the CNO, you can enter the distinguished name of an OU in the Cluster Name box. Например: CN=ClusterName, OU=Clusters, DC=Contoso, DC=com .For example: CN=ClusterName, OU=Clusters, DC=Contoso, DC=com .
- Если администратор домена предварительно подготовил CNO в подразделении, отличном от того, в котором размещаются узлы кластера, укажите различающееся имя, предоставленное администратором домена.If a domain administrator has prestaged the CNO in a different OU than where the cluster nodes reside, specify the distinguished name that the domain administrator provides.
Если на сервере нет сетевого адаптера, настроенного на использование DHCP, для отказоустойчивого кластера необходимо настроить один или несколько статических IP-адресов. If the server does not have a network adapter that is configured to use DHCP, you must configure one or more static IP addresses for the failover cluster. Установите флажок напротив каждой сети, которую необходимо использовать для управления кластером.Select the check box next to each network that you want to use for cluster management. Выберите поле адреса рядом с выбранной сетью, а затем введите IP-адрес, который нужно назначить кластеру.Select the Address field next to a selected network, and then enter the IP address that you want to assign to the cluster. Этот IP-адрес (или адреса) будет связан с именем кластера в службе доменных имен (DNS).This IP address (or addresses) will be associated with the cluster name in Domain Name System (DNS).
Примечание
Если вы используете Windows Server 2019, у вас есть возможность использовать имя распределенной сети для кластера.If you’re using Windows Server 2019, you have the option to use a distributed network name for the cluster. Имя распределенной сети использует IP-адреса рядовых серверов вместо использования выделенного IP-адреса для кластера.A distributed network name uses the IP addresses of the member servers instead of requiring a dedicated IP address for the cluster. По умолчанию Windows использует имя распределенной сети, если обнаруживает, что вы создаете кластер в Azure (поэтому вам не нужно создавать внутренний балансировщик нагрузки для кластера) или обычный статический или IP-адрес, если вы работаете в локальной среде.By default, Windows uses a distributed network name if it detects that you’re creating the cluster in Azure (so you don’t have to create an internal load balancer for the cluster), or a normal static or IP address if you’re running on-premises. Дополнительные сведения см. в разделе имя распределенной сети.For more info, see Distributed Network Name.
- По завершении нажмите кнопку Далее .When you are finished, select Next .
Просмотрите параметры на странице Подтверждение . On the Confirmation page, review the settings. По умолчанию установлен флажок Добавление всех допустимых хранилищ в кластер .By default, the Add all eligible storage to the cluster check box is selected. Снимите его в указанных ниже случаях.Clear this check box if you want to do either of the following:
- Хранилище следует настроить позднее.You want to configure storage later.
- Вы планируете создать кластерные дисковые пространства с помощью диспетчера отказоустойчивости кластеров или командлетов отказоустойчивой кластеризации Windows PowerShell, но еще не создали дисковые пространства в файловых службах и службах хранилища.You plan to create clustered storage spaces through Failover Cluster Manager or through the Failover Clustering Windows PowerShell cmdlets, and have not yet created storage spaces in File and Storage Services. Подробнее см. в разделе Развертывание кластерных дисковых пространств.For more information, see Deploy Clustered Storage Spaces.
Нажмите кнопку Далее , чтобы создать отказоустойчивый кластер.Select Next to create the failover cluster.
На странице Сводка убедитесь в том, что отказоустойчивый кластер успешно создан.On the Summary page, confirm that the failover cluster was successfully created. Если возникли какие либо предупреждения или ошибки, просмотрите сводный вывод или выберите Просмотреть отчет , чтобы просмотреть весь отчет.If there were any warnings or errors, view the summary output or select View Report to view the full report. Нажмите кнопку Готово .Select Finish .
Чтобы убедиться в том, что кластер создан, проверьте, указано ли его имя в разделе Диспетчер отказоустойчивости кластеров в дереве навигации.To confirm that the cluster was created, verify that the cluster name is listed under Failover Cluster Manager in the navigation tree. Можно развернуть имя кластера, а затем выбрать элементы в разделе узлы , хранилище или сети , чтобы просмотреть связанные ресурсы.You can expand the cluster name, and then select items under Nodes , Storage or Networks to view the associated resources.
Имейте в виду, что на успешную репликацию имени кластера в службе DNS может потребоваться некоторое время.Realize that it may take some time for the cluster name to successfully replicate in DNS. После успешной регистрации и репликации DNS при выборе всех серверов в Диспетчер сервера имя кластера должно быть указано как сервер с состоянием управляемости в сети .After successful DNS registration and replication, if you select All Servers in Server Manager, the cluster name should be listed as a server with a Manageability status of Online .
После создания кластера можно выполнить такие действия, как проверка конфигурации кворума кластера и создание общих томов кластера — CSV (необязательно).After the cluster is created, you can do things such as verify cluster quorum configuration, and optionally, create Cluster Shared Volumes (CSV). Дополнительные сведения см. в статьях сведения о кворуме в Локальные дисковые пространства и использование общих томов кластера в отказоустойчивом кластере.For more information, see Understanding Quorum in Storage Spaces Direct and Use Cluster Shared Volumes in a failover cluster.
Создание кластерных ролейCreate clustered roles
После создания отказоустойчивого кластера можно создать кластерные роли для размещения кластерных рабочих нагрузок.After you create the failover cluster, you can create clustered roles to host cluster workloads.
Примечание
Для кластерных ролей, требующих точки доступа клиента, в доменных службах Active Directory создается виртуальный объект-компьютер (VCO). For clustered roles that require a client access point, a virtual computer object (VCO) is created in AD DS. По умолчанию все объекты VCO для кластера создаются в том же контейнере или подразделении, что и объект CNO.By default, all VCOs for the cluster are created in the same container or OU as the CNO. Имейте в виду, что после создания кластера объект CNO можно переместить в любое подразделение.Realize that after you create a cluster, you can move the CNO to any OU.
Вот как можно создать кластерную роль:Here’s how to create a clustered role:
Чтобы на каждом узле отказоустойчивого кластера установить роль или компонент, необходимый для кластерной роли, используйте диспетчер сервера или Windows PowerShell.Use Server Manager or Windows PowerShell to install the role or feature that is required for a clustered role on each failover cluster node. Например, чтобы создать кластерный файловый сервер, установите роль файлового сервера на всех узлах кластера.For example, if you want to create a clustered file server, install the File Server role on all cluster nodes.
В таблице ниже приведены кластерные роли, которые можно настроить в мастере высокой доступности, и соответствующие роли или компоненты сервера, которые необходимо установить.The following table shows the clustered roles that you can configure in the High Availability Wizard and the associated server role or feature that you must install as a prerequisite.
Кластерная рольClustered Role Необходимая роль или компонентRole or Feature Prerequisite Сервер пространства именNamespace Server Пространства имен (часть роли файлового сервера)Namespaces (part of File Server role) Сервер пространства имен DFSDFS Namespace Server Роль DHCP-сервераDHCP Server role Координатор распределенных транзакций (DTC)Distributed Transaction Coordinator (DTC) NoneNone Файловый серверFile Server Роль файлового сервераFile Server role Универсальное приложениеGeneric Application НеприменимоNot applicable Универсальный сценарийGeneric Script НеприменимоNot applicable Универсальная службаGeneric Service НеприменимоNot applicable Брокер реплики Hyper-VHyper-V Replica Broker Роль Hyper-VHyper-V role Целевой сервер iSCSIiSCSI Target Server Сервер цели iSCSI (часть роли файлового сервера)iSCSI Target Server (part of File Server role) iSNS-серверiSNS Server Компоненты службы iSNS-сервераiSNS Server Service feature служба очередей сообщенийMessage Queuing Компонент службы очереди сообщенийMessage Queuing Services feature Другой серверOther Server NoneNone Виртуальная машинаVirtual Machine Роль Hyper-VHyper-V role WINS-серверWINS Server Компонент WINS-сервераWINS Server feature В диспетчер отказоустойчивости кластеров разверните узел имя кластера, щелкните правой кнопкой мыши элемент роли и выберите пункт настроить роль .In Failover Cluster Manager, expand the cluster name, right-click Roles , and then select Configure Role .
Для создания кластерной роли выполните последовательность действий, предлагаемую мастером высокой доступности.Follow the steps in the High Availability Wizard to create the clustered role.
Чтобы проверить, создана ли кластерная роль, на панели Роли убедитесь в том, что роль имеет состояние Выполняется .To verify that the clustered role was created, in the Roles pane, make sure that the role has a status of Running . На панели «Роли» также указан узел владельца.The Roles pane also indicates the owner node. Чтобы протестировать отработку отказа, щелкните правой кнопкой мыши роль, выберите пункт переместить , а затем выберите пункт выбрать узел .To test failover, right-click the role, point to Move , and then select Select Node . В диалоговом окне Перемещение кластерной роли выберите нужный узел кластера и нажмите кнопку ОК .In the Move Clustered Role dialog box, select the desired cluster node, and then select OK . В столбце Узел владельца убедитесь в том, что узел владельца изменился.In the Owner Node column, verify that the owner node changed.
Создание отказоустойчивого кластера с помощью Windows PowerShellCreate a failover cluster by using Windows PowerShell
Следующие командлеты Windows PowerShell выполняют те же функции, что и предыдущие процедуры, описанные в этом разделе.The following Windows PowerShell cmdlets perform the same functions as the preceding procedures in this topic. Введите каждый командлет в отдельной строке, даже если кажется, что из-за ограничения возможностей форматирования они переносятся по словам на другую строку.Enter each cmdlet on a single line, even though they may appear word-wrapped across several lines because of formatting constraints.
В приведенном ниже примере устанавливается средство отказоустойчивости кластеров.The following example installs the Failover Clustering feature.
Install-WindowsFeature –Name Failover-Clustering –IncludeManagementTools
В приведенном ниже примере запускаются все проверочные тесты кластера на компьютерах с именами Server1 и Server2 .The following example runs all cluster validation tests on computers that are named Server1 and Server2 .
Test-Cluster –Node Server1, Server2
Примечание
Командлет Test-Cluster выводит результаты в файл журнала в текущем рабочем каталоге.The Test-Cluster cmdlet outputs the results to a log file in the current working directory. Например: C:\Users <username> \AppData\Local\Temp.For example: C:\Users<username>\AppData\Local\Temp.
В приведенном ниже примере создается отказоустойчивый кластер с именем MyCluster и узлами Server1 и Server2 ; ему присваивается статический IP-адрес 192.168.1.12 , и в него добавляются все подходящие дисковые пространства.The following example creates a failover cluster that is named MyCluster with nodes Server1 and Server2 , assigns the static IP address 192.168.1.12 , and adds all eligible storage to the failover cluster.
New-Cluster –Name MyCluster –Node Server1, Server2 –StaticAddress 192.168.1.12
В приведенном ниже примере создается такой же отказоустойчивый кластер, что и в предыдущем примере, но в него не добавляются подходящие дисковые пространства.The following example creates the same failover cluster as in the previous example, but it does not add eligible storage to the failover cluster.
New-Cluster –Name MyCluster –Node Server1, Server2 –StaticAddress 192.168.1.12 -NoStorage
В приведенном ниже примере создается кластер с именем MyCluster в подразделении Cluster домена Contoso.com .The following example creates a cluster that is named MyCluster in the Cluster OU of the domain Contoso.com .
New-Cluster -Name CN=MyCluster,OU=Cluster,DC=Contoso,DC=com -Node Server1, Server2
Примеры добавления кластерных ролей см. в разделах Add-ClusterFileServerRole и Add-ClusterGenericApplicationRole.For examples of how to add clustered roles, see topics such as Add-ClusterFileServerRole and Add-ClusterGenericApplicationRole.
После создания отказоустойчивого кластера с отключенным AD создайте резервную копию сертификата с возможностью экспорта закрытого ключа.After the AD Detached failover Cluster is created backup the certificate with private key exportable option. Откройте MMC = =>файл = =>добавить оснастку «Удалить» в = =>Certificates =>=>локальный компьютер = =>службы кластеров = =>Certificates = =>Клуссвк\персонал = =>выбор сертификата — щелкните правой кнопкой мыши = =>Export = =>далее = =>Да экспорт закрытого ключа = =>формат PfX = =>выбрать пароль или добавить группу = =>следующий = =>выберите путь, по которому нужно сохранить сертификат = =>далее = =>готово.Open MMC ==>File ==>Add remove Snap in ==>Certificates==>Services Accounts==>Next==>Local Computer==>Cluster Service==>Certificates==>Clussvc\Personal==>Select Certificate right click==>export ==>Next==>Yes export the Private Key ==>PfX Format==>Choose Password or you can add group ==>Next==>Select path where you want to store certificate==>Next ==>Finish. «Дополнительные сведения описаны во внутренней статье https://internal.support.services.microsoft.com/en-US/help/4569891 «»More details have been documented in Internal Article https://internal.support.services.microsoft.com/en-US/help/4569891»
Дополнительные сведенияMore information
Отказоустойчивая кластеризация | Microsoft Docs
-
- Чтение занимает 2 мин
-
В этой статье
Применяется к: Windows Server 2019, Windows Server 2016Applies to: Windows Server 2019, Windows Server 2016
Отказоустойчивый кластер — это группа независимых компьютеров, которые работают совместно в целях повышения доступности и масштабируемости кластерных ролей (ранее называемых кластерными приложениями и службами).A failover cluster is a group of independent computers that work together to increase the availability and scalability of clustered roles (formerly called clustered applications and services). Кластерные серверы (называемые «узлы») соединены физическими кабелями и программным обеспечением.The clustered servers (called nodes) are connected by physical cables and by software. При сбое на одном из узлов кластера его функции немедленно передаются другим узлам (этот процесс называется отработкой отказа).If one or more of the cluster nodes fail, other nodes begin to provide service (a process known as failover). Кроме того, за кластерными ролями ведется профилактическое наблюдение, чтобы обеспечить их правильную работу.In addition, the clustered roles are proactively monitored to verify that they are working properly. Если они не работают, выполняется перезагрузка или перемещение на другой узел.If they are not working, they are restarted or moved to another node.
Отказоустойчивые кластеры также предоставляют функции общего тома кластера (CSV), которые образуют согласованное распределенное пространство имен, используемое кластерными ролями для доступа к общему хранилищу со всех узлов.Failover clusters also provide Cluster Shared Volume (CSV) functionality that provides a consistent, distributed namespace that clustered roles can use to access shared storage from all nodes. Благодаря функции отказоустойчивой кластеризации пользователи сталкиваются с минимальным количеством проблем в работе службы.With the Failover Clustering feature, users experience a minimum of disruptions in service.
Отказоустойчивая кластеризация имеет много возможностей практического применения, в том числе следующие:Failover Clustering has many practical applications, including:
- Высокодоступное или постоянно доступное хранилище файловых ресурсов общего доступа для приложений, таких как Microsoft SQL Server и виртуальные машины Hyper-V.Highly available or continuously available file share storage for applications such as Microsoft SQL Server and Hyper-V virtual machines
- Высокодоступные кластерные роли, выполняемые на физических серверах или виртуальных машинах, установленных на серверах, на которых выполняется Hyper-V.Highly available clustered roles that run on physical servers or on virtual machines that are installed on servers running Hyper-V
Инструкция по настройке кластера MS SQL Server 2012 на Windows Server 2016
Задача: Создать высокодоступное или постоянно доступное хранилище файловых ресурсов общего доступа для Microsoft SQL Server.
Тип конфигурации: Active/passive.
Шаг 1 — Подготовка и требования к оборудованию
Основные требования к аппаратному и программному обеспечению:
- Наличие минимум 2-х узлов (аппаратных или виртуальных), Система Хранения Данных
- MS Windows Server, MS SQL Server
- СХД
- iSCSI-диск для баз данных
- iSCSI диск для MSDTC
- Quorum-диск
Тестовый стенд:
- ВМ под управлением ОС: Windows Server 2016 с ролями AD DS, DNS (D54TEST-DC)
- Хранилище iSCSI*
- Две ВМ под управлением ОС: Windows Server 2016 (для кластера D54TEST-SQL1 и D54TEST-SQL2)
- ВМ управлением ОС: Windows Server 2016 с поднятой службой сервера 1С (Для теста не обязательно)
В первую очередь необходимо ввести в домен наши сервера D54TEST-SQL1 и D54TEST-SQL2; На этих серверах нужно поднять роль «Отказоустойчивая кластеризация».
Далее запускаем «Диспетчер отказоустойчивости кластеров» и переходим в «Мастер создания кластеров», где нам необходимо сконфигурировать отказоустойчивый кластер: Создать общий ресурс (Quorum) и MSDTC (iSCSI).
Шаг 2 – Установка MS SQL Server
Рекомендуем выполнять дальнейшие действия от Доменного Администратора
Монтируем и запускаем образ MS SQL Server 2012. Далее выбираем вариант установки нового экземпляра кластера:
Вводим лицензионный ключ и нажимаем далее:
Соглашаемся с лицензионным соглашением:
Загружаем обновление и ждем выполнения установки файлов установки.
Затем проходим тест на правила поддержки конфигурации:
Выбираем роль установки:
Далее выбираем необходимые нам компоненты из списка:
Проходим проверку правил компонентов:
Далее нам необходимо выбрать уникальное сетевое имя для вашего кластера MS SQL Server. Идентификатор экземпляра можно оставить по дефолту:
Проходим проверку требований к свободному месту на диске:
Выбираем сконфигурированный нами ранее список хранилищ данных:
Указываем диск расположения баз данных нашего будущего кластера:
Для конфигурации сетевого интерфейса кластера рекомендуем задавать статический адрес:
Вводим данные доменного администратора (Рекомендуется использовать отдельную учетную запись для MSSQL сервера, но для нашего тестового сервера в этом нет необходимости):
Задаем необходимую директорию хранения общих файлов кластера:
Выбираем необходимый способ авторизации на MSSQL сервере (в нашем случае используется смешанный режим):
Проходим ещё две проверки и наблюдаем за процессом установки:
Наконец приступаем к установке (процесс может занять длительное время):
Конфигурирование первой ноды кластера завершена, о чем свидетельствует данное окно:
Шаг 3 – добавление второй ноды в кластер MSSQL
Для настройки отказоустойчивости нашего кластера нам необходимо добавить вторую ноду.
На втором сервере монтируем, запускаем инсталятор MSSQL и выбираем пункт, который указан в скриншоте:
- Проходим базовое тестирование;
- Внимательно вводим наш лицензионный ключ;
- Принимаем лицензионное соглашение;
- Проходим тесты по выполнению требований для установки второй ноды;
Выбираем в какой кластер добавлять ноду:
Проверяем правильность заполнения сетевых настроек кластера:
Указываем уч.данные пользователя, которые использовали ранее:
Проведение тестирования инсталятором, процесс установки и итоговый результат:
Добавление второй ноды в кластер завершено.
Шаг 4 – Проверка Работоспособности
Необходимо убедиться, что роль отказоустойчивого кластера MSSQL добавлена. Для этого переходим в оснастку «Диспетчер отказоустойчивого кластера»:
На данный момент у нас используется первый сервер кластера (D54TEST-SQL1) в случае сбоя произойдет переключение на вторую ноду (D54TEST-SQL2)
Далее проверим, что сам кластер у нас работает. Для этого подключимся через консоль MSSMS к кластеру сервера MSSQL. При запуске указываем имя нашего нового кластера. Вводим учетные данные (в нашем случае мы используем доменную авторизацию)
Обнаруживаем базы которые крутятся в кластере (Для примера мы создали тестовую базу. После установки чистого кластера на нем будут присутствовать только системные базы данных)
Наша задача реализована – кластер полностью сконфигурирован. Работа с кластерным MSSQL ничем не отличается от обычной. Особенность — в надежности такого решения.
Кластерное решение
для непрерывности вашего бизнеса
- YouTube
- Твиттер
- +44 203519 2527 | +371 6707 2222 | +7 495280 1600
- cs @ deac.eu
СЕРВИСЫ
РЕШЕНИЯ
ЦЕНТРЫ ДАННЫХ
НАСЧЕТ НАС
ПОДДЕРЖКА
ПАРТНЕРЫ
КОНСУЛЬТАЦИИ
- Облачные сервисы
- виртуальных серверов (VPS)
- Виртуальный рабочий стол (DaaS)
- Хостинг веб, VPS, DNS и электронной почты
- Службы удаленных рабочих столов
- Облачная платформа для удаленной работы
- Специальные серверы
- Аренда выделенного сервера
- Кластеры серверов
- Колокационные услуги
- Размещение серверов и оборудования
- Аренда стойки
- Сетевые службы
- Виртуальная частная сеть (VPN)
- Уровень 2
- IP-транзит
- Сеть доставки контента (CDN)
- Потоковое мультимедиа
- IP-телефония (VoIP)
- Интернет-обмен
- Экспертные услуги
- Сервер, сетевое администрирование и мониторинг
- SLA Сервис
- Перенос данных
- Консоль управления SCCM
- Настройка и оптимизация производительности базы данных
- хранить
- Облачные решения
- Частное облако
- Гибридное облако
- Публичное и гибридное облако
- виртуальных серверов (VPS)
- Облачные бизнес-решения
- Службы удаленных рабочих столов
- Решения по безопасности данных
- Veeam и IBM Spectrum Backup
- Служба защиты и нейтрализации DDoS-атак
- Аварийное восстановление
- Непрерывность бизнеса
- Программное обеспечение как услуга (SaaS)
- SAP
- SQL-сервер
- Электронная почта Microsoft Exchange
- Решения для больших данных
- Облачный хостинг больших данных для Интернета вещей
- Экспертные услуги
- Сеть, администрирование и мониторинг серверов
- SLA Сервис
- Перенос данных
- Консоль управления SCCM
- Настройка и оптимизация производительности базы данных
- Дата-центры
- Дата-центр Рига DC1
- Дата Центр Москва
- Дата-центр Франкфурт
- Дата-центр Рига DC2
- Дата-центр Амстердам
- Дата-центр Стокгольм
- Дата-центр Лондон
- Дата Центр Киев
- Сеть
Источник питания
Установка центра обработки данных
Кластерные серверы лицензий
Кластерные серверы
— это группы компьютеров, которые объединены для повышения доступности, надежности и масштабируемости.Функциональность кластеризации Microsoft существует в:
- Windows Server 2019
- Windows Server 2016
- Windows Server 2012 R2
Кластеризация сервера лицензий позволяет пользователям продолжать работу в случае сбоя, не прерывая доступ к критически важным приложениям. Когда активный узел на сервере лицензий с поддержкой кластера выходит из строя аппаратно, переключение происходит автоматически. Ресурсы снова становятся доступными через несколько секунд.
Типичная конфигурация кластера имеет как минимум один активный и один пассивный (резервный) сервер.Когда активный сервер в кластере выходит из строя, право собственности на ресурсы в кластере передается резервному (пассивному) серверу. Обычно пользователи не могут определить, когда один сервер в кластере переключается на другой.
Когда активный узел кластерного сервера лицензий выходит из строя, это не влияет на пользователей, подключенных к продукту Citrix. Продукт может ненадолго войти в льготный период лицензирования, и событие может быть записано в журнал событий продукта.
Важно
Если Citrix Licensing установлен в кластерной среде и включен брандмауэр Windows, подключение может завершиться ошибкой.Удаленное подключение к консоли или проверка лицензий работают до тех пор, пока в кластере не произойдет переключение. Правила исключений для CITRIX.exe и lmadmin.exe создаются во время установки лицензирования, но не работают после отработки отказа кластера. Чтобы обойти эту проблему, создайте исключения для компонентов лицензирования на вкладке «Исключения» панели брандмауэра Windows. Создайте исключение для каждого из следующих портов:
- Номер порта сервера лицензий: 27000
- Номер порта демона поставщика: 7279
- Веб-службы для порта лицензирования: 8083
Лицензирование Citrix в кластере
Как и большинство кластеров, частная сеть используется для отправки контрольных сигналов, команд и информации о состоянии между узлами кластера.Если соединение прерывается, узлы пытаются восстановить соединение сначала через частную сеть, а затем через общедоступную. На следующей диаграмме показано развертывание лицензирования с поддержкой кластера:
Связь в кластерной среде лицензирования:
Только один узел может использовать ресурсы в кластере в любой момент времени. Если вы уже развернули Citrix Licensing и хотите перенести развертывание на сервер с поддержкой кластера, помните о следующих моментах:
- Поскольку вы уже создали файлы лицензий, которые ссылаются на определенное имя сервера, вы должны дать клиентской точке доступа то же имя, что и исходный сервер лицензий.Если нет, то повторно разместите файлы лицензий с новым именем кластера серверов лицензий.
Важно:
С 4 ноября 2020 г. внесены изменения в процесс «Возврат и изменение лицензий Citrix». С помощью этого нового процесса вы не можете вернуть или изменить свои лицензии через портал Manage Licenses на
Citrix.com
и My Licensing Tools на Partner Central.Дополнительные сведения и список вариантов использования см. В следующей статье базы знаний: https: // support.citrix.com/article/CTX285157.
- Имена хостов в файлах лицензий чувствительны к регистру; поэтому имена клиентских точек доступа должны быть в том же регистре, что и имена хостов в файле лицензии. Если это не так, вы должны повторно разместить файлы лицензий с правильным использованием заглавных букв в именах. Вы можете использовать диспетчер отказоустойчивого кластера, чтобы убедиться, что имя точки доступа клиента совпадает с именем хоста, указанным в файле лицензии. Регистр имени кластера и хоста не является проблемой, если вы используете Studio в XenDesktop или Simple License Service (из меню «Пуск» на сервере лицензий) для загрузки лицензий.
- Направьте все установки продукта (например, серверы с Citrix XenDesktop), обслуживаемые старым сервером лицензий, на новый кластер серверов лицензий. Измените параметры связи продукта так, чтобы они использовали имя точки доступа клиента в качестве имени сервера лицензий. Для получения информации о редактировании параметров взаимодействия на стороне продукта см. Документацию продукта.
Требования для кластерных серверов лицензий
В следующем списке перечислены требования для настройки сервера лицензий в кластере Microsoft:
- Citrix Licensing не поддерживает кластерные общие тома или сторонние продукты для управления томами для кластеров.
- Перед настройкой Citrix Licensing для кластеризации Microsoft необходимо иметь полнофункциональную кластерную среду Microsoft. Citrix Licensing Services одновременно работает только на одном узле.
- Для кластеризации сервера лицензий следуйте этим требованиям кластера в дополнение к любым требованиям Microsoft к оборудованию и кластеризации в целом.
- Установите лицензию на кластер с помощью установщика сервера лицензий CitrixLicensing.exe.
- При установке Citrix Licensing в кластере укажите имя клиентской точки доступа.Вам будет предложено ввести имя сервера лицензий во время установки продукта.
- Мы рекомендуем использовать идентичное оборудование сервера лицензий для каждого узла в кластере. В частности, Citrix рекомендует два сетевых адаптера на каждом узле, а на серверах один диск настроен как общий.
- Убедитесь, что на каждом узле есть два сетевых адаптера. Один для подключения к общедоступной сети, а другой для частной кластерной сети «узел-узел». Мы не поддерживаем использование одного сетевого адаптера для обоих подключений.
- Общедоступный и частный IP-адреса должны находиться в разных подсетях, поскольку служба кластеров распознает только один сетевой интерфейс для каждой подсети.
- Метод разрешения имен, например DNS, WINS, HOSTS или LMHOSTS, необходим для разрешения имени точки доступа клиента.
- Каждый сервер, образующий кластер, должен находиться в одном домене.
- Установите статические IP-адреса для соединителя частной сети.
- Мы рекомендуем использовать Citrix Licensing Manager для выделения лицензий кластеру.
- При создании файла лицензии на сайте citrix.com используйте имя клиентской точки доступа при запросе идентификатора хоста.
- После загрузки файла лицензии скопируйте его в папку F: \ Program Files \ Citrix \ Licensing \ MyFiles (где F: общий диск для кластера) на сервере лицензий и перечитайте его.
Важно
Citrix рекомендует устанавливать статические IP-адреса для всех сетевых адаптеров в кластере, как частных, так и общедоступных.При использовании протокола динамической конфигурации хоста (DHCP) для получения IP-адресов доступ к узлам кластера может стать недоступным, если DHCP-сервер выйдет из строя. Если вы должны использовать DHCP для вашего общедоступного сетевого адаптера, используйте длительные периоды аренды, чтобы гарантировать, что динамически назначаемый адрес аренды остается действительным, даже если служба DHCP временно потеряна, или выполняет резервирование DHCP.
Обзор процесса кластеризации
Следующие шаги описывают общий процесс установки и настройки лицензирования на сервере с поддержкой кластера.Эти шаги предполагают, что вы настроили кластеризацию на оборудовании, на котором собираетесь установить сервер лицензий.
- Создайте группу ресурсов кластера. Назначьте клиентскую точку доступа и общее хранилище группе ресурсов. Убедитесь, что первый узел контролирует ресурсы кластера, а созданная вами группа ресурсов указывает на первый узел.
- На первом узле кластера запустите программу установки Citrix Licensing, CitrixLicensing.exe, от имени администратора. Установите его на первом узле на общем диске кластера (не на кворумном диске).Не снимайте флажок Последний узел в кластере.
- Переместите ресурсы с активного узла в кластере на второй узел.
- Установите сервер лицензий на втором узле в то же общее расположение, что и первый узел. В кластер можно добавить более двух узлов.
- При установке сервера лицензий на последнем узле кластера убедитесь, что вы установили флажок Последний узел в кластере.
- Получите файлы лицензий, в которых в качестве имени хоста указывается имя клиентской точки доступа сервера лицензий.После получения файлов лицензий вы должны добавить их на сервер лицензий, а затем перечитать.
- Настройте продукт Citrix на использование имени точки доступа клиента, а не имени узла кластера серверов лицензий.
Важно
При отказе кластерного сервера лицензий служба кластера переименовывает lmgrd_debug.log в имя узла, на котором ранее размещались службы. Затем он запускает службы на новом активном узле и создает lmgrd_debug.журнал.
Официальная версия этого контента на английском языке. Некоторая часть документации Citrix переведена на компьютер только для вашего удобства. Citrix не контролирует контент, переведенный с помощью машин, который может содержать ошибки, неточности или неподходящий язык. Не дается никаких гарантий, явных или подразумеваемых, в отношении точности, надежности, пригодности или правильности любых переводов, сделанных с английского оригинала на любой другой язык, или того, что ваш продукт или услуга Citrix соответствует любому содержимому, переведенному с помощью машин. , и любая гарантия, предоставленная в соответствии с применимым лицензионным соглашением с конечным пользователем или условиями обслуживания, или любым другим соглашением с Citrix, что продукт или услуга соответствует какой-либо документации, не применяется в той степени, в которой такая документация была переведена на компьютер.Citrix не несет ответственности за любой ущерб или проблемы, которые могут возникнуть в результате использования переведенного машинным способом содержимого.
DIESER DIENST KANN ÜBERSETZUNGEN ENTHALTEN, DIE VON GOOGLE BEREITGESTELLT WERDEN. GOOGLE LEHNT Jede AUSDRÜCKLICHE ОДЕР STILLSCHWEIGENDE GEWÄHRLEISTUNG В BEZUG АУФ DIE Übersetzungen AB, EINSCHLIESSLICH JEGLICHER GEWÄHRLEISTUNG МЭД GENAUIGKEIT, Zuverlässigkeit UND JEGLICHER STILLSCHWEIGENDEN GEWÄHRLEISTUNG МЭД MARKTGÄNGIGKEIT, МЭД EIGNUNG FÜR Einen BESTIMMTEN Zweck UND DER NICHTVERLETZUNG VON RECHTEN DRITTER.
CE SERVICE PEUT CONTENIR DES TRADUCTIONS FOURNIES PAR GOOGLE. GOOGLE EXCLUT TOUTE GARANTIE RELATIVE AUX TRADUCTIONS, EXPRESSE OU IMPLICITE, Y COMPRIS TOUTE GARANTIE D’EXACTITUDE, DE FIABILITÉ ET TOUTE GARANTIE IMPLICITE DE QUALITÉ MARCHANDE, D’ADÉQUATION D’REULER UN US.
ESTE SERVICIO PUEDE CONTENER TRADUCCIONES CON TECNOLOGA DE GOOGLE. GOOGLE RENUNCIA A TODAS LAS GARANTÍAS RELACIONADAS CON LAS TRADUCCIONES, TANTO IMPLÍCITAS COMO EXPLÍCITAS, INCLUIDAS LAS GARANTÍAS DE EXACTITUDONE, FIABILIDAD Y OTRAS GARANTÍAS PARTUS INPLCITAS DEERADIC UNDERCIABIL EN
本 服务 可能 包含 Google 提供 技术 支持 的 翻译 。Google 对 这些 翻译 内容 不做 明示 或 暗示 的 保证 , 包括 对 准确性 、 可靠性 的 任何 以及 适销 性 和 非 性的 任何 暗示 保证。
こ の サ ー ビ ス に は, Google が 提供 す る 翻 訳 が 含 ま れ て い る 可能性 が あ り ま す .Google は 翻 訳 に つ い て, 明示 的 か 黙 示 的 か を 問 わ ず, 精度 と 信 頼 性 に 関 す る あ ら ゆ る 保証, お よ び 商品性, 特定 目的 への 適合 性 、 第三者 の 権 利 を 侵害 な い こ と に 関 す る る 的 的 保証 を 含 め 、 ま せ ん。
ESTE SERVIO PODE CONTER TRADUÇÕES FORNECIDAS PELO GOOGLE. О GOOGLE SE EXIME DE TODAS AS GARANTIAS RELACIONADAS COM AS TRADUES, EXPRESSAS OU IMPLÍCITAS, INCLUINDO QUALQUER GARANTIA DE PRECISÃO, CONFIABILIDADE E QUALQUER GARANTIA IMPLÍCITA DE COMERCIALIZAO, ADERAITA DE COMERCIALIZAO.
Пошаговая инструкция по кластеризации
Windows Server 2012 — кластеризация для простых смертных
Эта статья является первой из серии статей о кластеризации Windows Server 2012. В этой первой статье рассматриваются основные первые шаги любого кластера, независимо от того, кластеризуете ли вы Hyper-V, отказоустойчивые кластеры SQL Server, файловые серверы, целевой сервер iSCSI. или другие. В следующих статьях будут рассмотрены более подробные инструкции для каждого типа ресурса кластера, но следующая информация применима ко ВСЕМ кластерам.
Я предполагаю, что вы немного знаете о кластерах и о том, зачем вам их создавать, поэтому я не буду вдаваться в подробности в этой конкретной публикации. Я также предполагаю, что вы знакомы с Windows Server 2012 и базовыми вещами, такими как DNS, AD и т. Д. Также стоит отметить, что в Windows Server 2012 отказоустойчивый кластер поставляется с каждым выпуском, в отличие от Windows Server 2008 R2 и более ранних версий, где отказоустойчивый кластер был только включен. в Enterprise Edition и выше.
Эта конкретная серия будет посвящена базовому кластеру с двумя узлами, где у нас есть два сервера (с именами ПЕРВИЧНЫЙ и ВТОРИЧНЫЙ) под управлением Windows Server 2012 в домене Windows Server 2012 (контроллер домена с именем DC).Также предполагается, что ПЕРВИЧНЫЙ и ВТОРИЧНЫЙ могут взаимодействовать друг с другом через два сетевых соединения, которые я помечал ОБЩЕСТВЕННОЕ и ЧАСТНОЕ. В производственных сценариях эти сетевые соединения должны проходить через совершенно другое сетевое оборудование (коммутаторы, маршрутизаторы и т. Д.), Чтобы исключить любую единую точку отказа.
Эта серия статей будет написана в очень простом, пошаговом стиле, который проведет вас через процесс в виде упорядоченного списка с основными инструкциями и множеством снимков экрана, которые помогут проиллюстрировать процедуру там, где это необходимо.Итак, начнем с самого начала …
Добавьте функцию отказоустойчивой кластеризации на все серверы, которые вы хотите добавить в кластер.
- Откройте панель управления Server Manager (этот шаг 1 st необходимо будет выполнить как на ПЕРВИЧНОМ, так и на ВТОРИЧНОМУ)
- Щелкните Добавить роли и функции.
Выберите установку на основе ролей или функций
Выберите сервер, на котором вы хотите включить функцию отказоустойчивого кластера
- Пропустить страницу ролей сервера
- На странице «Функции» выберите «Отказоустойчивая кластеризация» и нажмите «Далее», а затем подтвердите установку.
- Прежде чем мы начнем настраивать кластер, нам нужно подумать, какое хранилище будет использовать кластер.Традиционно кластеры будут использовать своего рода SAN, но в Windows 2012 не все кластеры будут использовать SAN. Например, если вы строите кластер для поддержки групп доступности AlwaysOn SQL Server, ваше хранилище будет реплицировано с помощью SQL Server, что устраняет необходимость в SAN. Кроме того, поскольку SMB 3.0 поддерживается в качестве кластерного хранилища для Hyper-V и SQL Server, у вас может не быть традиционного SAN для хранения. И давайте не будем забывать, что кластерные дисковые пространства с общими дисками SAS также возможны в Windows Server 2012.В дополнение к опциям, упомянутым выше, вы также можете использовать локальные диски и 3 решения для репликации на основе хоста rd , такие как DataKeeper Cluster Edition, что является отличной альтернативой, о которой я довольно часто пишу в блогах.
Для целей этой публикации я предполагаю, что у вас нет общего хранилища. Однако, если у вас есть общее хранилище на этом этапе, вам следует настроить хранилище таким образом, чтобы у вас были выделены LUN (ы) и совместно использовались с каждым из узлов кластера, при этом один LUN используется в качестве диска-свидетеля, а остальные LUN могут использоваться для приложения, которое вы хотите кластеризовать.Вместо диска-свидетеля для нашего кворума я собираюсь использовать тип кворума-свидетеля узла и файлового ресурса, который я объясню позже.
- Теперь, когда отказоустойчивый кластер включен на каждом сервере, вы можете открыть диспетчер отказоустойчивого кластера на своем ПЕРВИЧНОМ сервере. Первое, что нам нужно сделать, это запустить «Проверить конфигурацию», чтобы мы могли определить любые потенциальные проблемы, прежде чем мы начнем. Нажмите Проверить кластер.
Выполните действия мастера проверки конфигурации, как показано в следующих шагах.
- Выберите серверы для кластеризации
- Запустите все тесты (в зависимости от того, какие роли вы установили на серверах, вы можете получить больше или меньше тестов. Например, если Hyper-V включен, есть новые тесты, специфичные для Hyper-V для кластеров)
- Предполагая, что кластер «прошел» валидацию, у вас должен быть отчет, похожий на мой. Вы заметите, что мой отчет содержит «предупреждения», но без ошибок. Для вас важно просмотреть отчет и понять, какие предупреждения могут присутствовать, но вы можете двигаться дальше, если вы понимаете предупреждения и они имеют смысл для вашей конкретной среды.Если вы провалили проверку, вы ДОЛЖНЫ исправить ошибки, прежде чем двигаться дальше. Щелкните Просмотреть отчет, чтобы просмотреть отчет
- Вы увидите, что все мои предупреждения относятся к хранилищу, поэтому меня это не волнует, поскольку я не настроил какое-либо общее хранилище, поэтому я ожидаю, что некоторые из этих сообщений будут выдавать предупреждения.
Как только проверка завершится без ошибок, вы автоматически попадете в мастер создания кластера.Пройдите через этот мастер, как показано ниже, чтобы создать базовый кластер.
- На этом первом экране вы выберете имя для своего кластера и IP-адрес, который будет связан с этим именем в DNS. Это имя — просто имя, используемое для управления вашим кластером — это НЕ то имя, которое ваши клиенты будут использовать для подключения к кластеризованным ресурсам, которые вы в конечном итоге создадите. Как только вы создадите эту точку доступа, в AD будет создан новый компьютерный объект с этим именем и будет создана запись DNS A с этим именем и IP-адресом.
- На экране подтверждения вы увидите выбранное имя и IP-адрес. Вы также увидите новый вариант отказоустойчивой кластеризации Windows Server 2012… «Добавить все подходящее хранилище в кластер». Лично я не уверен, почему это выбрано по умолчанию, так как этот параметр может действительно запутать. По умолчанию этот выбор добавит все общее хранилище (если оно настроено) в кластер, но я также видел, как в кластер добавляются только локальные, необщие диски.Я предполагаю, что они хотят упростить поддержку симметричного хранилища, но, как правило, любые решения репликации на основе хоста или массива будут иметь некоторые довольно конкретные инструкции о том, как добавить симметричное хранилище в кластер, и, как правило, этот вариант добавления всех дисков в кластер — это скорее помеха, чем помощь, когда дело касается асимметричного хранилища. В нашем случае, поскольку у меня нет настроенного общего хранилища и я не хочу, чтобы кластер автоматически добавлял какие-либо локальные диски в кластер, я снял флажок с параметра Добавить все подходящее хранилище в кластер.
- После того, как вы нажмете «Далее», вы увидите, что кластер завершил процесс создания, но могут появиться некоторые предупреждения. В нашем случае предупреждения, вероятно, связаны с конфигурацией кворума, о которой мы позаботимся на следующем шаге. Щелкните «Просмотреть отчет», чтобы просмотреть предупреждения.
Вы видите, что предупреждение говорит об изменении типа кворума.
Поскольку у нас нет общего хранилища, мы не будем использовать кворум большинства узлов и дисков, как предлагается.Вместо этого мы будем использовать кворум большинства узлов и общих файловых ресурсов. Следующие шаги помогут нам настроить кворум большинства узлов и файлов.
- Файловый ресурс-свидетель должен быть настроен на сервере, который не является частью кластера. Свидетель общего файлового ресурса — это базовый файловый ресурс, к которому имя компьютера кластера (в нашем случае MYCLUSTER) имеет доступ для чтения и записи. Первый шаг включает создание этого файлового ресурса. В нашем примере мы собираемся создать файловый ресурс на нашем DC и предоставить MYCLUSTER доступ для чтения / записи к нему.
- Общий файловый ресурс не обязательно должен находиться на сервере Windows 2012, но он должен находиться на сервере Windows в том же домене, что и кластер. Важно помнить, что для созданного нами имени компьютера кластера требуется доступ для чтения и записи как на уровне общего ресурса, так и на уровне NTFS. Ниже приведены несколько снимков экрана, которые проведут вас через этот процесс на сервере DC, который работает под управлением Windows Server 2012 в моей лаборатории.
- Теперь, когда у нас есть общий файловый ресурс, созданный на DC, мы вернемся к ПЕРВИЧНОМУ и с помощью диспетчера отказоустойчивого кластера изменим тип кворума, как показано в следующих шагах.
Если случайно этот мастер дает сбой, скорее всего, это связано с разрешениями для общего файлового ресурса. Убедитесь, что вы предоставили имя компьютера кластера разрешения на чтение и запись на ОБЕИХ файловых ресурсах и уровне безопасности (NTFS), и повторите попытку.
Теперь у вас есть базовый двухузловой кластер, и вы готовы перейти к следующему этапу… созданию ресурсов кластера. В следующем посте я опубликую серию статей о том, как кластеризовать различные ресурсы, начиная с SQL 2012.
Нравится:
Нравится Загрузка …
Связанные
Пошаговая инструкция по кластеризации Windows Server 2012
.