Разное

Windows hyper v server: Испытайте Microsoft Hyper-V Server 2019 в Microsoft Evaluation Center

Содержание

Архитектура Hyper-V: Глубокое погружение / Хабр

Всем занять свои места! Задраить люки! Приготовиться к погружению!
В этой статье я попытаюсь рассказать об архитектуре Hyper-V еще подробнее, чем я сделал это ранее.

Что же такое – Hyper-V?

Hyper-V – это одна из технологий виртуализации серверов, позволяющая запускать на одном физическом сервере множество виртуальных ОС. Эти ОС именуются «гостевыми», а ОС, установленная на физическом сервере – «хостовой». Каждая гостевая операционная система запускается в своем изолированном окружении, и «думает», что работает на отдельном компьютере. О существовании других гостевых ОС и хостовой ОС они «не знают».
Эти изолированные окружения именуются «виртуальными машинами» (или сокращенно — ВМ). Виртуальные машины реализуются программно, и предоставляют гостевой ОС и приложениям доступ к аппаратным ресурсам сервера посредством гипервизора и виртуальных устройств. Как уже было сказано, гостевая ОС ведет себя так, как будто полностью контролирует физический сервер, и не имеет представления о существовании других виртуальных машин. Так же эти виртуальные окружения могут именоваться «партициями» (не путать с разделами на жестких дисках).
Впервые появившись в составе Windows Server 2008, ныне Hyper-V существует в виде самостоятельного продукта Hyper-V Server (де-факто являющегося сильно урезанной Windows Server 2008), и в новой версии – R2 – вышедшего на рынок систем виртуализации Enterprise-класса. Версия R2 поддерживает некоторые новые функции, и речь в статье пойдет именно об этой версии.

Гипервизор

Термин «гипервизор» уходит корнями в 1972 год, когда компания IBM реализовала виртуализацию в своих мэйнфреймах System/370. Это стало прорывом в ИТ, поскольку позволило обойти архитектурные ограничения и высокую цену использования мэйнфреймов.
Гипервизор – это платформа виртуализации, позволяющая запускать на одном физическом компьютере несколько операционных систем. Именно гипервизор предоставляет изолированное окружение для каждой виртуальной машины, и именно он предоставляет гостевым ОС доступ к аппаратному обеспечению компьютера.
Гипервизоры можно разделить на два типа по способу запуска (на «голом железе» или внутри ОС) и на два типа по архитектуре (монолитная и микроядерная).

Гипервизор 1 рода

Гипервизор 1 типа запускается непосредственно на физическом «железе» и управляет им самостоятельно. Гостевые ОС, запущенные внутри виртуальных машин, располагаются уровнем выше, как показано на рис.1.

Рис.1 Гипервизор 1 рода запускается на «голом железе».

Работа гипервизоров 1 рода непосредственно с оборудованием позволяет достичь большей производительности, надежности и безопасности.

Гипервизоры 1 рода используются во многих решениях Enterprise-класса:

  • Microsoft Hyper-V
  • VMware ESX Server
  • Citrix XenServer

Гипервизор 2 рода

В отличие от 1 рода, гипервизор 2 рода запускается внутри хостовой ОС (см. рис.2).

Рис.2 Гипервизор 2 рода запускается внутри гостевых ОС

Виртуальные машины при этом запускаются в пользовательском пространстве хостовой ОС, что не самым лучшим образом сказывается на производительности.

Примерами гипервизоров 2 рода служат MS Virtual Server и VMware Server, а так же продукты десктопной виртуализации – MS VirtualPC и VMware Workstation.

Монолитный гипервизор

Гипервизоры монолитной архитектуры включают драйверы аппаратных устройств в свой код (см. рис. 3).

Рис. 3. Монолитная архитектура

Монолитная архитектура имеет свои достоинства и недостатки. Среди достоинств можно отметить:

  • Более высокую (теоретически) производительность из-за нахождения драйверов в пространстве гипервизора
  • Более высокую надежность, так как сбои в работе управляющей ОС (в терминах VMware – «Service Console») не приведет к сбою всех запущенных виртуальных машин.

Недостатки же у монолитной архитектуры следующие:

  • Поддерживается только то оборудование, драйверы на которое имеются в гипервизоре. Из-за этого вендор гипервизора должен тесно сотрудничать с вендорами оборудования, чтобы драйвера для работы всего нового оборудования с гипервизором вовремя писались и добавлялись в код гипервизора. По той же причине при переходе на новую аппаратную платформу может понадобиться переход на другую версию гипервизора, и наоборот – при переходе на новую версию гипервизора может понадобиться смена аппаратной платформы, поскольку старое оборудование уже не поддерживается.
  • Потенциально более низкая безопасность – из-за включения в гипервизор стороннего кода в виде драйверов устройств. Поскольку код драйверов выполняется в пространстве гипервизора, существует теоретическая возможность воспользоваться уязвимостью в коде и получить контроль как над хостовой ОС, так и над всеми гостевыми.

Самым распространенным примером монолитной архитектуры является VMware ESX.

Микроядерная архитектура

При микроядерной архитектуре драйверы устройств работают внутри хостовой ОС.
Хостовая ОС в этом случае запускается в таком же виртуальном окружении, как и все ВМ, и именуется «родительской партицией». Все остальные окружения, соответственно – «дочерние». Единственная разница между родительской и дочерними партициями состоит в том, что только родительская партиция имеет непосредственный доступ к оборудованию сервера. Выделением памяти же и планировкой процессорного времени занимается сам гипервизор.

Рис. 4. Микроядерная архитектура

Достоинства у такой архитектуры следующие:

  • Не требуются драйвера, «заточенные» под гипервизор. Гипервизор микроядерной архитектуры совместим с любым оборудованием, имеющим драйверы для ОС родительской партиции.
  • Поскольку драйверы выполняются внутри родительской партиции – у гипервизора остается больше времени на более важные задачи – управление памятью и работу планировщика.
  • Более высокая безопасность. Гипервизор не содержит постороннего кода, соответственно и возможностей для атаки на него становится меньше.

Самым ярким примером микроядерной архитектуры является, собственно, сам Hyper-V.

Архитектура Hyper-V

На рис.5 показаны основные элементы архитектуры Hyper-V.

Рис.5 Архитектура Hyper-V

Как видно из рисунка, гипервизор работает на следующем уровне после железа – что характерно для гипервизоров 1 рода. Уровнем выше гипервизора работают родительская и дочерние партиции. Партиции в данном случае – это области изоляции, внутри которых работают операционные системы. Не нужно путать их, к примеру, с разделами на жестком диске. В родительской партиции запускается хостовая ОС (Windows Server 2008 R2) и стек виртуализации. Так же именно из родительской партиции происходит управление внешними устройствами, а так же дочерними партициями. Дочерние же партиции, как легко догадаться – создаются из родительской партиции и предназначены для запуска гостевых ОС. Все партиции связаны с гипервизором через интерфейс гипервызовов, предоставляющий операционным системам специальный API. Если кого-то из разработчиков интересуют подробности API гипервызовов — информация имеется в MSDN.

Родительская партиция

Родительская партиция создается сразу же при установке системной роли Hyper-V. Компоненты родительской партиции показаны на рис. 6.
Назначение родительской партиции следующее:

  • Создание, удаление и управление дочерними партициями, в том числе и удаленное, посредством WMI-провайдера.
  • Управление доступом к аппаратным устройствам, за исключением выделения процессорного времени и памяти – этим занимается гипервизор.
  • Управление питанием и обработка аппаратных ошибок, если таковые возникают.

Рис.6 Компоненты родительской партиции Hyper-V

Стек виртуализации

Следующие компоненты, работающие в родительской партиции, в совокупности называют стеком виртуализации:

  • Служба управления виртуальными машинами (VMMS)
  • Рабочие процессы виртуальных машин (VMWP)
  • Виртуальные устройства
  • Драйвер виртуальной инфраструктуры (VID)
  • Библиотека интерфейсов гипервизора

Помимо этого, в родительской партиции работают еще два компонента. Это провайдеры служб виртуализации (VSP) и шина виртуальных машин (VMBus).
Служба управления виртуальными машинами
В задачи службы управления виртуальными машинами (VMMS) входит:

  • Управление состоянием виртуальных машин (включено/выключено)
  • Добавление/удаление виртуальных устройств
  • Управление моментальными снимками

При запуске виртуальной машины VMMS создает новый рабочий процесс виртуальной машины. Подробнее о рабочих процессах будет рассказано далее.

Так же именно VMMS определяет, какие операции разрешено выполнять с виртуальной машиной в настоящий момент: к примеру, если происходит удаление снапшота, то применить снапшот в течение операции удаления она не даст. Подробнее о работе с моментальными снимками (снапшотами) виртуальных машин можно почитать в соответствующей моей статье.

Если говорить более детально – то VMMS управляет следующими состояниями виртуальных машин:

  • Starting
  • Active
  • Not Active
  • Taking Snapshot
  • Applying Snapshot
  • Deleting Snapshot
  • Merging Disk

Другие задачи управления – Pause, Save и Power Off – выполняются не службой VMMS, а непосредственно рабочим процессом соответствующей виртуальной машины.
Служба VMMS работает как на уровне пользователя, так и на уровне ядра как системная служба (VMMS.exe) и зависит от служб Remote Procedure Call (RPC) и Windows Management Instrumentation (WMI). Служба VMMS включает в себя множество компонент, среди которых имеется и WMI-провайдер, предоставляющий интерфейс для управления виртуальными машинами. Благодаря этому можно управлять виртуальными машинами из командной строки и с помощью скриптов VBScript и PowerShell. System Center Virtual Machine Manager так же использует этот интерфейс для управления виртуальными машинами.

Рабочий процесс виртуальной машины (VMWP)

Для управления виртуальной машиной из родительской партиции запускается особый процесс – рабочий процесс виртуальной машины (VMWP). Процесс этот работает на уровне пользователя. Для каждой запущенной виртуальной машины служба VMMS запускает отдельный рабочий процесс. Это позволяет изолировать виртуальные машины друг от друга. Для повышения безопасности, рабочие процессы запускаются под встроенным пользовательским аккаунтом Network Service.
Процесс VMWP используется для управления соответствующей виртуальной машиной. В его задачи входит:
Создание, конфигурация и запуск виртуальной машины
Пауза и продолжение работы (Pause/Resume)
Сохранение и восстановление состояния (Save/Restore State)
Создание моментальных снимков (снапшотов)
Кроме того, именно рабочий процесс эмулирует виртуальную материнскую плату (VMB), которая используется для предоставления памяти гостевой ОС, управления прерываниями и виртуальными устройствами.

Виртуальные устройства

Виртуальные устройства (VDevs) – это программные модули, реализующие конфигурацию и управление устройствами для виртуальных машин. VMB включает в себя базовый набор виртуальных устройств, включающий в себя шину PCI и системные устройства, идентичные чипсету Intel 440BX. Есть два типа виртуальных устройств:

  • Эмулируемые устройства – эмулируют определенные аппаратные устройства, такие, к примеру, как видеоадаптер VESA. Эмулируемых устройств достаточно много, к примеру: BIOS, DMA, APIC, шины ISA и PCI, контроллеры прерываний, таймеры, управление питанием, контроллеры последовательных портов, системный динамик, контроллер PS/2 клавиатуры и мыши, эмулируемый (Legacy) Ethernet-адаптер (DEC/Intel 21140), FDD, IDE-контроллер и видеоадаптер VESA/VGA. Именно поэтому для загрузки гостевой ОС может использоваться только виртуальный IDE-контроллер, а не SCSI, который является синтетическим устройством.
  • Синтетические устройства – не эмулируют реально существующие в природе железки. Примерами служат синтетический видеоадаптер, устройства взаимодействия с человеком (HID), сетевой адаптер, SCSI-контроллер, синтетический контроллер прерывания и контроллер памяти. Синтетические устройства могут использоваться только при условии установки компонент интеграции в гостевой ОС. Синтетические устройства обращаются к аппаратным устройствам сервера посредством провайдеров служб виртуализации, работающих в родительской партиции. Обращение идет через виртуальную шину VMBus, что намного быстрее, чем эмуляция физических устройств.
Драйвер виртуальной инфраструктуры (VID)

Драйвер виртуальной инфраструктуры (vid.sys) работает на уровне ядра и осуществляет управление партициями, виртуальными процессорами и памятью. Так же этот драйвер является промежуточным звеном между гипервизором и компонентами стека виртуализации уровня пользователя.

Библиотека интерфейса гипервизора

Библиотека интерфейса гипервизора (WinHv.sys) – это DLL уровня ядра, которая загружается как в хостовой, так и в гостевых ОС, при условии установки компонент интеграции. Эта библиотека предоставляет интерфейс гипервызовов, использующийся для взаимодействия ОС и гипервизора.

Провайдеры служб виртуализации (VSP)

Провайдеры служб виртуализации работают в родительской партиции и предоставляют гостевым ОС доступ к аппаратным устройствам через клиент служб виртуализации (VSC). Связь между VSP и VSC осуществляется через виртуальную шину VMBus.

Шина виртуальных машин (VMBus)

Назначение VMBus состоит в предоставлении высокоскоростного доступа между родительской и дочерними партициями, в то время как остальные способы доступа значительно медленнее из-за высоких накладных расходах при эмуляции устройств.
Если гостевая ОС не поддерживает работу интеграционных компонент – приходится использовать эмуляцию устройств. Это означает, что гипервизору приходится перехватывать вызовы гостевых ОС и перенаправлять их к эмулируемым устройствам, которые, напоминаю, эмулируются рабочим процессом виртуальной машины. Поскольку рабочий процесс запускается в пространстве пользователя, использование эмулируемых устройств приводит к значительному снижению производительности по сравнению с использованием VMBus. Именно поэтому рекомендуется устанавливать компоненты интеграции сразу же после установки гостевой ОС.
Как уже было сказано, при использовании VMBus взаимодействие между хостовой и гостевой ОС происходит по клиент-серверной модели. В родительской партиции запущены провайдеры служб виртуализации (VSP), которые являются серверной частью, а в дочерних партициях – клиентская часть – VSC. VSC перенаправляет запросы гостевой ОС через VMBus к VSP в родительской партиции, а сам VSP переадресовывает запрос драйверу устройства. Этот процесс взаимодействия абсолютно прозрачен для гостевой ОС.

Дочерние партиции

Вернемся к нашему рисунку с архитектурой Hyper-V, только немного сократим его, поскольку нас интересуют лишь дочерние партиции.

Рис. 7 Дочерние партиции

Итак, в дочерних партициях могут быть установлены:

  • ОС Windows, с установленными компонентами интеграции (в нашем случае – Windows 7)
  • ОС не из семейства Windows, но поддерживающая компоненты интеграции (Red Hat Enterprise Linux в нашем случае)
  • ОС, не поддерживающие компоненты интеграции (например, FreeBSD).

Во всех трех случаях набор компонент в дочерних партициях будет немного различаться.

ОС Windows с установленными компонентами интеграции

Операционные системы Microsoft Windows, начиная с Windows 2000 поддерживают установку компонент интеграции. После установки Hyper-V Integration Services в гостевой ОС запускаются следуюшие компоненты:

  • Клиенты служб виртуализации. VSC представляют собой синтетические устройства, позволяющие осуществлять доступ к физическим устройствам посредством VMBus через VSP. VSC появляются в системе только после установки компонент интеграции, и позволяют использовать синтетические устройства. Без установки интеграционных компонент гостевая ОС может использовать только эмулируемые устройства. ОС Windows 7 и Windows Server 2008 R2 включает в себя компоненты интеграции, так что их не нужно устанавливать дополнительно.
  • Улучшения. Под этим имеются в виду модификации в коде ОС чтобы обеспечить работу ОС с гипервизором и тем самым повысить эффективность ее работы в виртуальной среде. Эти модификации касаются дисковой, сетевой, графической подсистем и подсистемы ввода-вывода. Windows Server 2008 R2 и Windows 7 уже содержат в себе необходимые модификации, на другие поддерживаемые ОС для этого необходимо установить компоненты интеграции.

Так же, компоненты интеграции предоставляют следующий функционал:

  • Heartbeat – помогает определить, отвечает ли дочерняя партиция на запросы из родительской.
  • Обмен ключами реестра – позволяет обмениваться ключами реестра между дочерней и родительской партицией.
  • Синхронизация времени между хостовой и гостевой ОС
  • Завершение работы гостевой ОС
  • Служба теневого копирования томов (VSS), позволяющая получать консистентные резервные копии.

ОС не из семейства Windows, но поддерживающая компоненты интеграции

Существуют так же ОС, не относящиеся к семейству Windows, но поддерживающие компоненты интеграции.На данный момент – это только SUSE Linux Enterprise Server и Red Hat Enterprise Linux. Такие ОС при установке компонент интеграции используют VSC сторонних разработчиков для взаимодействия с VSC по VMBus и доступа к оборудованию. Компоненты интеграции для Linux разработаны компанией Microsoft совместно с Citrix и доступны для загрузки в Microsoft Download Center. Поскольку компоненты интеграции для Linux были выпущены под лицензией GPL v2, ведутся работы по интеграции их в ядро Linux через Linux Driver Project, что позволит значительно расширить список поддерживаемых гостевых ОС.

Вместо заключения

На этом я, пожалуй, закончу свою вторую статью, посвященную архитектуре Hyper-V. Предыдущая статья вызвала у некоторых читателей вопросы, и надеюсь, что теперь я на них ответил.
Надеюсь, что чтение не было слишком скучным. Я достаточно часто использовал «академический язык», но это было необходимо, поскольку тематика статьи предполагает очень большой объем теории и практически нуль целых нуль десятых практики.

Выражаю огромную благодарность Mitch Tulloch и Microsoft Virtualization Team. На основе их книги Understanding Microsoft Virtualization Solutions и была подготовлена статья.

Установка и настройка Hyper-V Server 2019

В этой статье мы создадим виртуальную машину с Windows Server 2019 и развернем там Hyper-V Server. Попутно разберемся что нового появилось в этой версии.

Hyper-V — это платформа виртуализации от Microsoft, которая распределяет ресурсы одного физического сервера между набором виртуальных серверов. Чтобы создать среду для Hyper-V Server 2019, закажем выделенный сервер. Для этого в меню Серверы и оборудование выберем нужный сервер.

В нашем примере — это сервер по тарифу EL11-SSD с процессором Intel® Xeon® E-2236 3.4 ГГц, ОЗУ 32 ГБ DDR4 и двумя дисками SSD по 480 ГБ каждый. Далее выбираем операционную систему Windows 2019 — подойдут версии 2019 Datacenter (64-bit) и 2019 Standard (64-bit). В обоих случаях можно добавить роль Hyper-V.

Далее нажимаем Заказать и Оплатить. Деньги списываются с личного счёта.

Установка сервера занимает время, поэтому, чтобы его не тратить впустую, расскажем о новых функциях в Windows Server 2019 относительно Hyper-V.

Что нового в Hyper-V Server 2019

Любопытная особенность Hyper-V Server 2019 — это то, что первоначально эта версия была Hyper-V Server 2016 R2, вышедшая в конце 2018 года. Но из-за неприемлемого количества багов, она была отозвана и полноценно вышла уже в 2019 году под новой версией. А теперь, давайте разберем нововведения данного релиза.

Во-первых — это обновленная консоль администратора Windows Admin Center (WAC). Теперь она доступна через веб-интерфейс. Из браузера стало возможным управлять виртуальными машинами, сервисами на них, запускать скрипты PowerShell, инициировать RDP-сессии и выполнять прочие операции. Во-вторых, появилась возможность работать с окружением Linux. Работает через специальный слой совместимости Windows Subsystem for Linux (WSL) на уровне ядра ОС. Таким образом, можно запускать bash-скрипты или бинарные файлы ELF без необходимости входа на виртуальный сервер через консольный клиент (например, Putty или SecureCRT).

Во-вторых, улучшились механизмы безопасности. Windows Defender теперь имеет на борту поддержку Advanced Threat Protection. Этот механизм умеет блокировать доступ к файлам и папкам из недоверенных источников (например, для защиты от вирусов-шифровальщиков), защищает от вредоносных процессов, сетевых атак, а также поддерживает шифрование сетевых соединений между виртуальными машинами.

В-третьих, улучшилась поддержка экранированных виртуальных машин. Теперь внутри них можно запускать Linux-подобные системы: RHEL, SUSE, Ubuntu. Кроме этого, такими машинами теперь можно управлять при помощи VMConnect и PowerShell Direct.

В-четвертых, появилась служба миграции хранилища. Этот инструмент позволяет мигрировать с устаревших версий Windows Server: 2003, 2008 или 2012. Можно мигрировать даже AD со всеми пользователями и настройками.

В-пятых и далее: улучшились инструменты репликации, работа с географически распределенными серверами, функции дедупликации, появилась поддержка Kubernetes и многое другое. Подробнее о нововведениях можно узнать на соответствующей странице Microsoft.

А пока мы рассказывали о новых возможностях гипервизора, установка сервера завершилась и можно приступать к настройке Hyper-V.

Как установить Hyper-V Server 2019

Для установки Hyper-V в образе Windows Server есть соответствующая роль, которую нужно активировать. Для этого откроем консоль управления сервером и нажмем Add Roles and Features. Появится меню, в котором нужно выбрать Hyper-V.

Далее нажать на Add Features для добавления необходимых инструментов.

Далее нужно настроить роль Hyper-V: Virtual Switches, Migration и Default Stores.

На экране Virtual Switches нужно выбрать сетевой интерфейс, который будет использоваться платформой виртуализации в качестве виртуального коммутатора. В нашем примере — Intel Ethernet l210 #2. Важно не задействовать под это основной сетевой интерфейс, который будет использоваться для физического доступа к управлению сервером.

Следующая настройка — Migration. Для целей демонстрации здесь можно оставить всё по умолчанию.

Default Stores — также оставляем по умолчанию.

Когда всё готово к установке — можно нажимать кнопку Install. После завершения установки потребуется перезагрузка.

После перезагрузки сервера, через командную строку можно открыть утилиту sconfig и посмотреть возможные настройки Hyper-V Server. Об этом в следующем разделе.

Как настроить Hyper-V Server утилитой sconfig

Утилита sconfig имеет интерфейс командной строки.

Важными пунктами являются:

  • Domain/Workgroup — настроено при создании сервера.
  • Computer Name — настроено при создании сервера.
  • Configure Remote M

Windows Server 2019 — роль Hyper-V

На сервере Windows Server 2019 потребовалось запустить виртуальную машину посредством Hyper-V. Установим роль Hyper-V на сервер Windows Server 2019 и создадим какую-нибудь виртуальную машину.

Я буду все действия выполнять на свежем сервере Windows Server 2019 Standard Evaluation. Сервер развёрнут на гипервизоре VMware ESXi. Да-да, я понимаю, что на виртуалке поднимать систему виртуализации не самая здравая идея, но всё это в тестовых целях.

Установка роли Hyper-V на сервере Windows Server 2019

Открываем Server Manager. Manage > Add Roles and Features

Открывается мастер установки ролей. Попадаем в раздел Before You Begin.

Это информационная страница, Next.

Попадаем в раздел Installation Type. Здесь нужно выбрать тип установку. Выбираем «Role-based or feature-based installation». Next.

Попадаем в раздел Server Selection. Здесь нужно выбрать сервер, на который будем устанавливать роль. Я выбираю текущий сервер. Next.

Попадаем в раздел Server Roles. Находим роль Hyper-V, выделяем галкой. Нам предлагают установить фичи, которые необходимы для работы Hyper-V, соглашаемся. Add Features.

Облом. Я словил ошибку:

Hyper-V cannot be installed: The processor does not have required virtualization.

Для роли Hyper-V требуется процессор, поддерживающий функции виртуализации. Поддержка аппаратной виртуализации может быть отключена в BIOS, в этом случае нужно перезагрузить сервер и в BIOS включить поддержку виртуализации. Это могут быть опции:

  • Intel — Intel Virtualization Technology
  • AMD — SVM Mode

У меня сервер аппаратный на базе VMware, я выключаю его и перехожу к настройкам виртуальной машины.

В настройках CPU включаю галку «Expose hardware assisted virtualization to the guest OS».

Включаю сервер. Снова проходим ту же процедуру. Открываем Server Manager. Manage > Add Roles and Features. Выбираем «Role-based or feature-based installation». Находим роль Hyper-V, выделяем галкой. Нам предлагают установить фичи, которые необходимы для работы Hyper-V, соглашаемся. Add Features.

В этот раз всё проходит успешно. Next.

Попадаем в раздел Features, здесь нам ничего не нужно. Next.

Попадаем в раздел Hyper-V. Здесь рассказывается для чего используется Hyper-V. Кроме того, на этой странице есть важная информация.

  • Перед установкой роли Hyper-V следует решить, какую сетевую карту сервера вы будете подключать к виртуальному коммутатору.
  • После установки роли Hyper-V для управления виртуальными машинами используйте Hyper-V Manager.

Next.

Попадаем в раздел Virtual Switches. Для работы виртуальных машин требуется связать виртуальный коммутатор в сетевой картой сервера, если вы хотите выпустить виртуальный машины в сеть. У меня выбор не очень большой, выделяю единственную сетевую карту. Next.

Попадаем в раздел Migration. Здесь настраивается миграция виртуальных машин. У меня будет один сервер с Hyper-V, поэтому никаких миграций не предусмотрено. Next.

Попадаем в раздел Default Stores. Здесь можно настроить папки по умолчанию для хранения виртуальных дисков и файлов настроек виртуальных машин. Next.

Попадаем в раздел Confirmation. Проверяем что у нас будет установлено. Здесь же ставим галку, чтобы сервер при необходимости перезагрузился. Install.

Начинается процесс установки роли Hyper-V.

Сервер перезагружается.

После перезагрузки роль продолжает устанавливаться.

Установка роли Hyper-V успешно завершена. Close.

В Administrative Tools появляется Hyper-V Manager.

Настройка виртуального коммутатора Hyper-V

Запускаем Hyper-V Manager.

В списках серверов Hyper-V есть текущий сервер ILAB-DC. Нажимаем на него.

Список виртуальных машин пуст. Перед созданием новой виртуалки нужно настроить виртуальный коммутатор. По идее он уже должен быть настроен, т.к. мы при установке роли Hyper-V ставили галку для привязки виртуального коммутатора к физическому сетевому адаптеру. Но проверить не помешает, были случаи, когда виртуальный коммутатор на привязывался к физическому адаптеру. Такое случается, когда роль Hyper-V устанавливается несколько раз. В этом случае зайдите в настройки физического адаптера и снимите галку со всего где есть слово «Hyper-V», после этого физический адаптер можно снова привязать к виртуальному коммутатору из оснастки Hyper-V Manager.

Нажимаем Virtual Switch Manager…

У меня один виртуальный коммутатор «vmxnet3 Ethernet Adapter — Virtual Switch». Виртуальный коммутатор может работать в трёх режимах:

  • External network
    Предоставляет виртуальным машинам доступ к физической сети для взаимодействия с серверами и клиентами во внешней сети. Позволяет виртуальным машинам на одном сервере Hyper-V взаимодействовать друг с другом.
    • Allow management operating system to share this network adapter (Разрешить управляющей операционной системе предоставлять общий доступ к этому сетевому адаптеру)
      Выберите этот параметр, если вы хотите разрешить узлу Hyper-V совместно использовать виртуальный коммутатор и сетевую карту или группу сетевых адаптеров с виртуальной машиной. Если этот параметр включен, узел может использовать любые параметры, настроенные для виртуального коммутатора, такие как параметры качества обслуживания (QoS), параметры безопасности или другие функции виртуального коммутатора Hyper-V.
    • Enable single-root I/O virtualization (SR-IOV) (Включить виртуализацию SR-IOV)
      Выберите этот параметр, только если вы хотите разрешить трафику виртуальной машины обходить коммутатор виртуальной машины и перейти непосредственно к физическому сетевому адаптеру. Сетевой адаптер должен поддерживать SR-IOV.
  • Internal network
    Разрешает обмен данными между виртуальными машинами на одном сервере Hyper-V, а также между виртуальными машинами и сервером Hyper-V.
  • Private network
    Разрешает обмен данными только между виртуальными машинами на одном сервере Hyper-V. Частная сеть изолирована от всего внешнего сетевого трафика на сервере Hyper-V. Этот тип сети полезен, если необходимо создать изолированную сетевую среду, например изолированный тестовый домен.

SR-IOV (Single Root Input/Output Virtualization, виртуализация ввода-вывода с единым корнем) — технология виртуализации устройств, позволяющая предоставить виртуальным машинам прямой доступ к части аппаратных возможностей устройства.

При необходимости можно включить поддержку VLAN.

Настраиваю виртуальный коммутатор, вернее, ничего не меняю, меня устраивают текущие настройки. OK.

Создание виртуальной машины в Hyper-V

Пришло время создать первую виртуальную машину. Открываем Hyper-V Manager.

New > Virtual Machine…

Открывается мастер создания виртуальных машин. Попадаем в раздел Before You Begin. Здесь нет ничего интересного. Next.

Попадаем в раздел Specify Name and Location. Указываем имя виртуалки. При необходимости можно изменить папку, в которой будут храниться файлы виртуалки. Next.

Попадаем в раздел Specify Generation. Выбор поколения зависит от того, какую операционную систему на виртуальной машине вы хотите установить, и метод загрузки, который вы хотите использовать для развертывания виртуальной машины. Виртуальные машины поколения 1 поддерживают большинство гостевых операционных систем. Виртуальные машины поколения 2 поддерживают большинство 64-разрядных версий Windows, Linux и FreeBSD. Рекомендуется выбрать поколение 2 за исключением случаев когда:

  • Виртуальный жесткий диск, с которого требуется выполнить загрузку, не совместим с UEFI.
  • Поколение 2 не поддерживает операционную систему, которую нужно запустить на виртуальной машине.
  • Поколение 2 не поддерживает метод загрузки, который вы хотите использовать.

Next.

Попадаем в раздел Assign Memory. Выделяем память для виртуалки. Динамическая память забирается у сервера, как ни странно, динамически, т.е. сколько нужно, столько и забирается. Если галку не поставить, то вся выбранная память серверу будет недоступна. Next.

Попадаем в раздел Configure Networking. Выбираем виртуальный коммутатор. У меня он один. Next.

Попадаем в раздел Connect Virtual Hard Disk. Здесь создаём жёсткий диск, можно выбрать папку для его хранения. Можно подключить существующий жёсткий диск. Можно не подключать жёсткий диск. Я создаю новый диск объёмом 40 ГБ. Next.

Попадаем в раздел Installation Options. Здесь можно примонтировать образ установочного диска, я сделаю это позже. Next.

Попадаем в раздел Summary. Проверяем параметры. Finish.

Начинается процесс создания виртуальной машины.

Виртуальная машина создана, она выключена (State = Off).

Установка операционной системы на виртуальную машину Hyper-V

Теперь примонтируем ISO образ к виртуальной машине и попробуем начать процесс установки операционной системы.

Выделяем виртуалку, нажимаем Settings.

Переходим в раздел SCSI Controller. Видим, что в нём находится только жёсткий диск. Справа выбираем DVD Drive, Add.

У виртуальной машины появляется виртуальный DVD Drive. Выбираем Image file, выбираем ISO образ для установки операционной системы. Apply.

Правой кнопкой на виртуалку, Connect.

Открывается консоль виртуалки. ISO образ можно также вставить/извлечь в меню Mediz > DVD Drive. Включаем виртуалку, Start.

Виртуальная машина включается.

Загружается ISO образ и мы можем установить операционную систему, дальше вы справитесь.

Заключение

Мы с вами на сервере Windows Server 2019 установили роль Hyper-V, настроили виртуальный коммутатор и создали первую виртуальную машину. Подключили виртуальный дисковод и загрузились с установочного ISO образа операционной системы.

Добро пожаловать в волшебный мир виртуализации Hyper-V.

Отказоустойчивый кластер Hyper-V Server 2019 — ITsberg.ru

Сегодня опишу процесс построения отказоустойчивого кластера из двух серверов на основе Microsoft Hyper-V Server 2019 и с общим блочным хранилищем.

Упрощённое описание инфраструктуры кластера:

У каждого сервера по четыре сетевых интерфейса. Два сетевых интерфейса гигабитные — будут объединены в агрегированный канал, на котором будет создан виртуальный коммутатор Hyper-V, и через него же будет осуществляться доступ к кластеру.
Два других сетевых интерфейса (10 GB каждый) так же будут объединены агрегированный канал. Здесь будут построены виртуальные сети для доступа к общим блочным хранилищам, сеть Live Migration и Cluster Shared Volume. Доступ к этим сетям будет только у кластера.
Интерфейсы подключены к разным коммутаторам для обеспечения отказоустойчивости, сети изолированы друг от друга.

Почему именно Microsoft Hyper-V Server 2019? Эта ОС бесплатна, её функционала достаточно для обеспечения отказоустойчивого выполнения виртуальных машин, а что касается вопроса, какой гипервизор лучше — на эту тему в интернете навалом статей и нет однозначного ответа. Мне нравится работать с Hyper-V и его возможностей хватает для задач подавляющего большинство компаний.

После установки ОС на хост-сервер всплывает интересный нюанс: к Hyper-V Server 2019 не удастся подключиться по RDP, т.к. данный функционал Microsoft убрали из этой версии ОС. Для настройки у нас остаются четыре метода:
Прямой доступ к серверу.
Powershell Remoting (WinRM)
Приложение «Диспетчер серверов» от Microsoft
Windows Admin Center, тоже от Microsoft.
Так же есть несколько сторонних утилит, к примеру PsTools от Sysinternals.

Sconfig выглядит так, доступен на локальной консоли:

Конфигурирование серверов буду производить в Windows Admin Center.

Подготовка хостов

Итак, что входит в предварительную настройку хоста при подготовке его к включению в кластер:
Настройка сетевых интерфейсов
Введение сервера в домен
Установка необходимых ролей и компонентов
Подключение сетевого хранилища (в нашем случае — iSCSI-диски)
Установка обновлений ОС

Все операции выполняются от имени учётной записи пользователя домена (Domain User), имеющей права администратора на обоих серверах.
Так же у этой учётной записи должны быть права Create Computer в том OU или контейнере, в котором находятся серверы, из которых будем собирать кластер.
Чаще всего данные операции выполняются пользователем с правами Domain Admin.

С самого начала необходимо настроить доступ к сети чтобы присоединить сервер к домену. Как собрать кластер без доменной инфраструктуры — описано в этой статье.

Т.к. sconfig, предлагаемый нам при логине, не имеет функционала для настройки агрегирования каналов, выходим из него в командную строку и запускаем powershell (последний пункт меню в sconfig — Exit to Command line). Powershell запускается из командной строки командой powershell. Даже скриншоты делать не буду чтобы описать запуск PS подробнее.

Получаем список сетевых адаптеров:

Get-NetAdapter |Format-Table -Autosize

В данный момент поднято три интерфейса. Интерфейсы QLogic (ifIndex 3 и 9) — одногигабитные, их и будем объединять в «сеть доступа». Третий поднятый интерфейс — по нему я в данный момент подключен к серверу. После настройки сети доступа будет необходимо переключиться на управление через неё и тогда можно будет настраивать сеть кластера на интерфейсах Intel, по 10Gb каждый.

Первым делом объединяем интерфейсы QLogic в агрегированный канал, тип объединения будет LACP.

New-NetLbfoTeam -Name "LACP_LAN" -TeamMembers "Ethernet 2", "Ethernet 4" -TeamingMode LACP -LoadBalancingAlgorithm Dynamic

Теперь, если снова написать Get-NetAdapter, увидим новый сетевой интерфейс с именем LACP_LAN

Чтобы два раза не ходить, сразу на этот интерфейс повесим виртуальный коммутатор для клиентского доступа

New-VMSwitch -Name "HV_LAN" -AllowManagementOS $True -NetAdapterName "LACP_LAN"

Созданный VMSwitch появился в списке сетевых адаптеров — значит всё сделано правильно. Если у вас применяется разделение на виртуальные сети — указываем VLAN ID на созданном интерфейсе:

Set-VMNetworkAdapterVlan -ManagementOS -VMNetworkAdapterName "HV_LAN" -Access -VlanId 10

И задаём IP адрес и прочие настройки сети (тут важно не перепутать и указать правильный ifIndex, в нашем случае — 22)

New-NetIPAddress -InterfaceIndex 24 -IPAddress 192.168.1.224 -PrefixLength 24 -DefaultGateway 192.168.1.1
Set-DnsClientServerAddress -InterfaceIndex 24 -ServerAddress 192.168.1.220

Всё, можно переключаться на сеть доступа и работать уже через неё.
Вводим сервер в домен и переименовываем как нам необходим (если ещё не переименовали). Удобнее всего это делать через sconfig, там всё предельно просто. Из powershell sconfig вызывается командой «sconfig».
sconfig sconfig sconfig

Список сетевых интерфейсов теперь такой:

Интерфейсы 10Gb от Intel подключены в разные коммутаторы, на случай, если один из коммутаторов откажет. На их основе настроим агрегированный канал с несколькими виртуальными сетями для доступа к блочному дисковому хранилищу по протоколу iSCSI и для работы кластера.

New-NetLbfoTeam -Name "LACP_CL" -TeamMembers "Ethernet", "Ethernet 3" -TeamingMode SwitchIndependent -LoadBalancingAlgorithm Dynamic

В данной ситуации необходимо применить режим объединения SwitchIndependent, т.к. физические интерфейсы подключены к разным коммутаторам и управлять агрегированием будет операционная система, а не коммутатор. Но мы создали один виртуальный интерфейс, а нам необходимо минимум две раздельные сети для стабильного функционирования кластера (всё по заветам MS) и хотя-бы одна сеть для iSCSI. Не рекомендуется смешивать iSCSI и сеть доступа.
Разделять сети будем посредством VLAN. Т.е. нам необходимо взять виртуальный интерфейсLACP_CL, собранный на прошлом шаге, и собрать на нём ещё три виртуальных интерфейса, каждый в своём VLAN’е.

Так же я хочу включить поддержку Jumbo-frame на физических интерфейсах сети кластера — это позволит передавать более крупные пакеты по сети, что немного уменьшит нагрузку на коммутаторы и сетевые интерфейсы.

Set-NetAdapterAdvancedProperty -Name "Ethernet" -DisplayName "Jumbo Packet" -DisplayValue "4088 bytes" -PassThru

Set-NetAdapterAdvancedProperty -Name "Ethernet 3" -DisplayName "Jumbo Packet" -DisplayValue "4088 bytes" -PassThru

Создаём виртуальные интерфейсы с VLAN’ами.

Add-NetLbfoTeamNic -Team "LACP_CL" -Name "LACP_CL_CSV" 11

Этой командой мы добавили виртуальный сетевой интерфейс с именем «LACP_CL_CSV» с VLAN’ом 11 к интерфейсу «LACP_CL». Делаем то же самое для для остальных VLAN’ов:

Add-NetLbfoTeamNic -Team "LACP_CL" -Name "LACP_CL_LM" 12
Add-NetLbfoTeamNic -Team "LACP_CL" -Name "LACP_CL_3200" 32

В результате получается такой список интерфейсов и остаётся настроить IP-адреса.
Т.к. интерфейсов уже довольно много, удобнее будет отсортировать вывод, к примеру, в алфавитном порядке:

Get-NetAdapter |Sort-Object Name |Format-Table -AutoSize

Выполняем командлет присвоения IP-адреса, внимательно подставляя свои адреса и номера интерфейсов:

New-NetIPAddress -InterfaceIndex "ifIndex" -IPAddress "IP-address" -PrefixLength 24

Если где-то ошиблись, удалить созданные виртуальные адаптеры можно командой, где «VLAN» — номер VLAN.

Remove-NetLbfoTeamNic -Team "Team-name" -VlanID "VLAN"

Ставим роли и службы:

Install-WindowsFeature failover-clustering, rsat-clustering, rsat-role-tools, rsat-hyper-v-tools, hyper-v-powershell

Теперь iSCSI

Сначала необходимо перевести сервис iSCSI-инициатора в режим автоматического запуска и запустить его:

Set-Service -Name msiscsi -StartupType automatic
Start-service msiscsi

Для работы с дисковыми устройствами по протоколу iSCSI необходимо настроить так называемый iSCSI target portal:

New-IscsiTargetPortal -TargetPortalAddress 192.168.130.102 -InitiatorPortalAddress 192.168.130.112

Где:
TargetPortalAddress — IP адрес устройства, к которому подключаемся
ItiniatorPortalAddress — IP адрес сетевого интерфейса, которым смотрим в сеть iSCSI, т.е. IP-адрес интерфейса на Hyper-V сервере. В нашем случае это адрес интерфейса с именем LACP_CL_3200.
Посмотреть на доступные iSCSI-таргеты можно комадлетом

Get-IscsiTarget

Подключаем доступные iSCSI-таргеты:

Get-IscsiTarget |Connect-IscsiTarget -IsPersistent $true -IsMultipathEnabled:$true

Либо можно вызвать обычную графическую консоль командой

iscsicpl

Всё то же самое необходимо выполнить и на втором сервере.

Можно начинать работать с дисками.

Для того, чтобы диски можно было добавить в кластер как общее дисковое хранилище — диски должны быть отформатированы в NTFS и должны быть доступны на обоих серверах.
Нам понадобится минимум два диска — диск-свидетель кворума и диск для хранения виртуальных машин. Диск-свидетель может быть небольшим, хватит объёма в 1 GB.
Командлет Get-Disk возвращает список доступных дисков на данном сервере:

Get-Disk|Format-Table -Autosize

Начнём работу с диска номер 4, объёмом 1GB:

Initialize-Disk -Number 4
New-Partition -DiskNumber 4 -DriveLetter Q -UseMaximumSize
Format-Volume -DriveLetter Q -FileSystem NTFS

По необходимости то же самое делаем с остальными дисками. В результате получается такая картина:

Перезагружаем оба сервера.

Всё, основные вещи на серверах сделаны, можно приступать к сборке кластера.

Собираем кластер

Кластер будем собирать используя Failover Cluster Manager.

Если проводить настройки будем с какого-либо подходящего стороннего сервера — предварительно необходимо установить на него средства удалённого управления отказоустойчивым кластером: Failover Cluster Management Tools и Failover Cluster Module for Windows Powershell

Install-WindowsFeature RSAT-Clustering-Mgmt, RSAT-Clustering-Powershell

Если будем настраивать с десктопной ОС — все необходимые модули ставятся во время установки средств удалённого администрирования сервера. Взять их можно на сайте Microsoft: https://www.microsoft.com/ru-RU/download/details.aspx?id=45520

Теперь можем запустить Failover Cluster Manager и заняться непосредственно сборкой кластера. Прежде всего необходимо проверить конфигурацию серверов, из которых мы всё это будем собирать. В Failover cluster Manager’е есть подходящий функционал — в разделе Management ссылочный пункт «Validate Cluster»:

Запускаем мастер проверки конфигурации, указываем наши серверы, в следующем пункте оставляем отметку Run all tests, жмём пару раз Next и ждём завершения тестов.

Важный момент: Если запустить проверку кластера на уже действующем кластере — все запущенные роли кластера аварийно остановятся, т.к. общие дисковые пространства будут отключены для проведения проверки.

После проведения проверки можно посмотреть отчёт, понятно — в отчёте не должно быть ошибок.
Отчёт записывается в текущий рабочий каталог, например C:\Users\UserName\AppData\Local\Temp

Когда удостоверились что конфигурация серверов выполнена правильно — можно приступать к непосредственному созданию кластера. Запускаем мастер создания кластера (Create Cluster), добавляем серверы.
На шаге Access Point for Administering the Cluster в поле Cluster Name указываем имя создаваемого кластера и чуть ниже в таблице указываем IP-адрес кластера. При создании кластера это имя будет зарегистрировано в AD как cluster computer object (или cluster name object, CNO).

Нажимаем далее и подтверждаем создание.

Созданный кластер должен появиться в списке слева в Failover Cluster Manager’е. Если этого не произошло — нажимаем Connect to Cluster и подключаемся к нему.

Теперь кластер необходимо настроить: добавить кластерные хранилища, разграничить сети и, собственно, добавить роли,которые будут исполняться на нашем кластере.

Начинаем с сетей кластера. Раскрываем древовидное представление в менеджере и выбираем Networks:

Такое представление не очень информативно, я предпочитаю переименовать все Cluster Network # в соответствии с их назначением.

Что означает столбец Cluster Use:
Cluster Only — эта сеть будет использоваться только для рабочих нагрузок кластера (CSV или Live Migration)
None — кластер не будет использовать эту сеть. Через эти сетевые адаптеры у нас подключены iSCSI диски с общих блочных хранилищ и за работу с ними отвечает операционная система.
Cluster and Clients — Эту сеть могут использовать как кластер, так и клиенты. Кластер данную сеть будет использовать для отслеживания доступности и работы нод кластера (т.н. HeartBeat-пакеты, ранее для этих целей было необходимо создавать отдельную сеть). Ну через эту же сеть будет осуществляться доступ к администрированию кластера и к виртуальным машинам, развёрнутым в кластере.

Теперь нужно настроить дисковые массивы и диск-свидетель кворума.

Идём в Storage — Disks и должны тут увидеть несколько дисков, подключенных и подготовленных на стадии подготовки серверов.

Если дисков в списке нет — их необходимо добавить. Нажимаем Add Disks и выбираем необходимые нам диски из списка предложенных. Если же система говорит что No disks Suitable for cluster disks were found… значит где-то ошиблись при подготовке дисков. Мастер проверки должен был об этом написать.
Диски необходимо отформатировать в NTFS, назначить им букву и добавить в список.

Диск-свидетель. Для него будем использовать диск объёмом 1GB, в моём случае это Cluster Disk 1.
Для настройки свидетеля необходимо выбрать сам кластер и в разделе Actions нажать More-Actions — Configure Cluster Quorum Settings… Снова откроется соответствующйи мастер.
В мастере на шаге Select Quorum Configuration Options выбираем Select the quorum witness. На следующем шаге — Configure a disk witness.
Так же есть возможность использовать свидетель кворума на основе сетевой папки общего доступа (необходимое условие — протокол SMB3.0, либо использовать «облачный» свидетель кворума).
Мы будем использовать диск-свидетель, полученный по iSCSI с дисковой полки.
На следующем шаге выбираем хранилище, на котором разместим свидетель кворума.
В списке дисков можно посмотреть что изменилось. Так же я переименовал диск свидетель, чтобы не путаться в дальнейшем (делается так же, как и с сетями кластера):

Теперь необходимо добавить общее хранилище (Cluster Shared Volume, CSV).
В разделе Disks выбираем диск, из которого хотим сделать CSV и жмём Add to Cluster Shared Volume.

После добавления диска в CSV на системном диске каждого хоста кластера в директории C:\ClusterStorage автоматически создаётся объект с именем Volume#, в нашем случае — Volume1. Опять же, для удобства его можно переименовать.

Ну вот вроде бы и всё что хотел рассказать о создании кластера Hyper-V на основе Microsoft Hyper-V Server 2019.
Не обязательно кластер собирать именно так, как я описал в этой статье, вариантов конфигурации множество, может отличаться конфигурация сети (разные варианты обеспечения отказоустойчивости, хоть вообще всё через один коммутатор соединяй — работать будет, но крайне не желательно так делать), тип общего дискового хранилища (SAN или NAS, разные протоколы) и .т.д. Я описал, по моему мнению, один из универсальных вариантов.

P.S. Как работать с кластером, в двух словах: ПКМ на пункт Roles — Configure Role, выбрать из списка Virtual Machine и выбрать необходимые ВМ, уже развёрнутые на одном из хостов кластера.

Установка и настройка роли Hyper-V в Windows Server 2012 R2

В статье подробно описан процесс установки и настройки роли Hyper-V, создание виртуальной машины, а также настройка сетевого взаимодействия и запуск виртуальной машины на Windows Server 2012 R2.

Для установки роли Hyper-V на Windows Server 2012 R2 потребуется компьютер, под управлением Windows Server 2012 R2 (О том как установить Windows Server 2012 R2 можно прочитать в данной статье: «Установка и активация Windows Server 2012 R2 c USB флешки» ).

 

I. Установка роли Hyper-V на Windows Server 2012 R2

1. Откройте окно диспетчера сервера и выберите пункт Добавить роли и компоненты (Рис.1).

Рис.1

.

2. В появившемся окне нажмите Далее (Рис.2).

Рис.2

.

3. Выберите пункт Установка ролей и компонентов, затем нажмите Далее (Рис.3).

Рис.3

.

4. Выберите сервер на который будет производиться установка роли, затем нажмите Далее (Рис.4).

Рис.4

.

5. Поставьте галочку напротив Hyper-V (Рис.5).

Рис.5

.

6. Мастер установки ролей предупредит, что для установки роли Hyper-V нужно установить несколько компонентов. Нажмите Добавить компоненты (Рис.6).

Рис.6

.

7. Убедитесь, что после установки необходимых компонентов напротив Hyper-V стоит галочка, затем нажмите Далее (Рис.7).

Рис.7

.

8. На этапе добавления компонентов оставьте все значения по умолчанию и нажмите Далее (Рис.8).

Рис.8

.

9. Ознакомьтесь с дополнительной информацией касательно Hyper-V, затем нажмите Далее (Рис.9).

Рис.9

.

10. Мастер добавления ролей и компонентов предложит настроить сеть и выбрать сетевые адаптеры, ничего не выбирайте (настройку можно будет произвести позднее) и нажмите Далее (Рис.10).

Рис.10

.

11. Настройку миграции тоже можно произвести позднее, нажмите Далее (Рис.11).

Рис.11

.

12. Оставьте настройки по умолчанию и нажмите Далее (Рис.12).

Рис.12

.

13. Нажмите Установить (Рис.13).

Рис.13

.

14. Начнётся процесс установки (Рис.14).

Рис.14

.

15. После окончания установки нажмите Закрыть, затем перезагрузите сервер (Рис.15).

Рис.15

.

16. После перезагрузки откройте Диспетчер серверов, в левой колонке Вы увидите пункт Hyper-V (Рис.16). На этом установка роли Hyper-V в Windows Server 2012 R2 закончена.

Рис.16

.

II. Создание виртуальной машины в Hyper-V

1. Откройте Диспетчер серверов, затем Средства и выберите Диспетчер Hyper-V (Рис.17).

Рис.17

.

2. В открывшемся окне нажмите Создать (Рис.18).

Рис.18

.

3. В открывшемся меню выберите Виртуальная машина… (Рис.19).

Рис.19

.

4. В открывшемся окне Мастера создания виртуальной машины нажмите Далее (Рис.20).

Рис.20

.

5. В поле Имя введите имя для новой виртуальной машины (прим. в данном руководстве это DemoVM), затем нажмите Далее (Рис.21).

Рис.21

.

6. Выберите поколение виртуальной машины, затем нажмите Далее (Рис.22).


ВАЖНО! Поколение созданной виртуальной машины невозможно изменить! Если Вы выбираете Поколение 2, то в качестве гостевых операционных систем следует использовать: Windows Server 2012, Windows Server 2012 R2, Windows 8 64-bit, Windows 8.1 64-bit, Windows 10 64-bit, Linux. Для всех остальных операционных систем выбирайте Поколение 1.

Рис.22

.

7. Поставьте галочку напротив Использовать для этой виртуальной машины динамическую память, затем нажмите Далее (Рис.23).

Рис.23

.

8. В окне настроек сети — нажмите Далее (Рис.24).

Рис.24

.

9. Выберите пункт Создать виртуальный жесткий диск, затем установите размер диска, после чего нажмите Далее (Рис.25).

Рис.25

.

10. Выберите пункт Установить операционную систему позднее, затем нажмите Далее (Рис.26).

Рис.26

.

11. Для создания виртуальной машины и закрытия мастера нажмите Готово (Рис.27). На этом создание виртуальной машины завершено.

Рис.27

.

III. Настройка сетевого взаимодействия

1. Откройте Диспетчер Hyper-V и выберите Диспетчер виртуальных коммутаторов (Рис.28).

Рис.28

.

2. Выберите необходимый тип виртуального коммутатора (прим. описание для каждого типа указаны в диспетчере виртуальных коммутаторов ниже. В данном руководстве будет использоваться Внешний тип виртуального коммутатора), затем нажмите ОК (Рис.29).

Рис.29

.

3. В поле Имя введите имя для виртуального коммутатора (прим. в данном руководстве это Demo Virtual switch). Выберите пункт Внешняя сеть и укажите Сетевое подключение, затем поставьте галочку напротив Разрешить управляющей операционной системе предоставлять общий доступ к этому сетевому адаптеру, нажмите Применить и ОК (Рис.30).

Рис.30

.

4. В появившемся окне предупреждения нажмите Да (Рис.31).

Рис.31

.

5. Откройте Диспетчер Hyper-V, выберите виртуальную машину (прим. в данном руководстве это DemoVM), откройте меню (пр. кнопкой мыши) и выберите Параметры… (Рис.32).

Рис.32

.

6. В окне Параметров выберите Сетевой адаптер, затем укажите виртуальный коммутатор (прим. в данном руководстве это Demo Virtual switch) (Рис.33).

Рис.33

.

7. После того как Вы выбрали виртуальный коммутатор, нажмите Применить, затем ОК (Рис.34). На этом настройка сети завершена.

Рис.34

.

IV. Запуск виртуальной машины в Hyper-V

1. Откройте Диспетчер Hyper-V и выберите Параметры… (Рис.35).

Рис.35

.

2. Выберите DVD-дисковод, затем пункт Файл образа и нажмите Обзор… (Рис.36).

Рис.36

.

3. Выберите ISO-образ операционной системы (прим. в данном руководстве, в качестве примера, используется Windows Server 2012 R2) и нажмите Открыть (Рис.37).

Рис.37

.

4. Нажмите Применить, затем ОК (Рис.38).

Рис.38

.

5. В Диспетчере Hyper-V выберите виртуальную машину, вызовите меню (пр. кнопкой мыши) и нажмите Пуск (Рис.39).

Рис.39

.

6. Сделайте двойной клик на названии виртуальной машины, после чего откроется окно запущенной виртуальной машины (Рис.40).

Рис.40

.

Установка и настройки роли Hyper-V, создание виртуальной машины, а также настройка сетевого взаимодействия и запуск виртуальной машины на Windows Server 2012 R2 произведены! Надеемся, что данное руководство было для Вас полезно!

.

Поделиться ссылкой:

Похожее

Виртуализация 2.0 – Microsoft Hyper-V, установить роль на сервер

Виртуализация 2.0 – Microsoft Hyper-V

Установка Hyper-V в Windows Server 2012

Microsoft Hyper-V, известный как Windows Server Virtualization, является собственным («голым») гипервизором. Он может создавать виртуальные машины в системах x86-64, работающих под управлением ОС Windows, начиная с Windows 8. Hyper-V заменяет Windows Virtual PC в качестве компонента виртуализации оборудования клиентских выпусков Windows NT. Серверный компьютер, на котором работает Hyper-V, может быть настроен для предоставления отдельным виртуальным машинам одной или нескольких сетей.

Hyper-V был впервые выпущен вместе с Windows Server 2008 и Windows 7 и с тех пор стал доступен бесплатно для всех версий Windows Server и некоторых клиентских операционных систем.

Давайте посмотрим, как установить роль Hyper-V в Windows Server 2012, выполнив следующие шаги.

Шаг 1. Чтобы установить роль Hyper-V, перейдите в «Диспетчер серверов» → Управление → Добавить роли и компоненты.

Виртуализация 2.0 – Microsoft Hyper-V

Шаг 2 – Нажмите «Далее».

Шаг 3 – Выберите «Установка на основе ролей или функций» → нажмите «Далее».

Шаг 4 – Мы локально установим роль Hyper-V как «Выберите сервер из пула серверов» → нажмите «Далее».

Шаг 5 – Из списков ролей проверьте роль сервера «Hyper-V» → нажмите «Добавить компоненты» во всплывающем окне → нажмите «Далее».

Шаг 6 – Нажмите «Далее».

Шаг 7 – Выберите физические сетевые адаптеры вашего сервера, которые будут участвовать в виртуализации и отвечать за коммутацию сети → нажмите «Далее».

Шаг 8 – В разделе «Миграция» оставьте настройки по умолчанию → нажмите «Далее».

Шаг 9 – Выберите путь, куда вы хотите сохранить файл → нажмите «Далее».

Шаг 10 – Нажмите «Установить» и дождитесь окончания установки.

Установка Hyper-V на рабочей станции Windows 10

Чтобы установить его в версиях Windows 7, 8, 10, необходимо проверить, поддерживает ли ваш компьютер виртуализацию. Ниже приведены основные требования –

  • Windows 10 Pro или Enterprise 64-разрядная операционная система.
  • 64-разрядный процессор с трансляцией адресов второго уровня (SLAT).
  • 4 ГБ оперативной памяти как минимум.
  • Поддержка аппаратного виртуализации на уровне BIOS.

В моем случае у нас есть ноутбук HP Probook 450 G3 , который его поддерживает.

Прежде чем продолжить установку, выполните следующие действия.

Шаг 1. Убедитесь, что в настройках BIOS включена поддержка аппаратной виртуализации, как показано ниже.

Шаг 2 – Введите в строке поиска «включить или отключить функции Windows» и нажмите на эту функцию, как показано ниже.

Шаг 3 – Выберите и включите Hyper-V.

Создание виртуальной машины с Hyper-V

В этом разделе мы узнаем, как создать виртуальную машину. Для начала нам нужно открыть диспетчер Hyper-V, а затем выполнить шаги, указанные ниже.

Шаг 1 – Перейдите в «Диспетчер серверов» → Нажмите «Диспетчер Hyper-V».

Шаг 2 – Нажмите «Создать» на левой панели или на кнопке «Действия».

Шаг 3 – Дважды щелкните «Виртуальная машина…»

Шаг 4 – Откроется новая таблица → Введите Имя вашего нового компьютера → нажмите «Далее».

Шаг 5 – Откроется новая таблица, где вы должны выделить память. Имейте в виду, что вы не можете выбрать больше памяти, чем физически.

Шаг 6 – В раскрывающемся списке «Соединение» выберите физический сетевой адаптер → нажмите «Далее».

Шаг 7 – Теперь пришло время создать виртуальный жесткий диск, если он у вас уже есть, выберите второй вариант.

Шаг 8 – Выберите образ ISO, который должен быть установлен → нажмите «Готово».

Шаг 9 – После нажатия на финиш, вы получите следующее сообщение, как показано на скриншоте ниже.

Шаг 10 – Чтобы подключиться к виртуальной машине, щелкните правой кнопкой мыши на созданной машине → нажмите «Подключиться…»

Шаг 11 – После этого установка вашего ISO будет продолжена.

Настройка сети с помощью Hyper-V

Hyper-V vSwitch – это программный коммутатор сетевого трафика Ethernet уровня 2. Это позволяет администраторам подключать виртуальные машины к физическим или виртуальным сетям. Он доступен по умолчанию в рамках установки Hyper-V Manager и содержит расширенные возможности для обеспечения безопасности и отслеживания ресурсов.

Если вы попытаетесь создать виртуальную машину сразу после процесса настройки, вы не сможете подключить ее к сети.

Чтобы настроить сетевую среду, вам нужно выбрать Virtual Switch Manager на правой боковой панели Hyper-V Manager, как показано на скриншоте ниже.

Диспетчер виртуальных коммутаторов помогает настроить vSwitch и глобальные сетевые параметры, которые просто позволяют вам изменить «диапазон MAC-адресов» по ​​умолчанию, если вы видите какую-либо причину для этого.

Создать виртуальный коммутатор легко и доступно три типа vSwitch, которые описаны ниже:

  • Внешний vSwitch свяжет физический сетевой адаптер хоста Hyper-V с виртуальным, а затем предоставит доступ вашим виртуальным машинам за пределами хоста. Это означает, что ваша физическая сеть и интернет (если ваша физическая сеть подключена к интернету).
  • Внутренний vSwitch следует использовать для построения независимой виртуальной сети, когда вам необходимо подключить виртуальные машины друг к другу, а также к гипервизору.
  • Private vSwitch создаст виртуальную сеть, в которой все подключенные виртуальные машины будут видеть друг друга, но не хост Hyper-V. Это полностью изолирует виртуальные машины в этой песочнице.

Внешний vSwitch свяжет физический сетевой адаптер хоста Hyper-V с виртуальным, а затем предоставит доступ вашим виртуальным машинам за пределами хоста. Это означает, что ваша физическая сеть и интернет (если ваша физическая сеть подключена к интернету).

Внутренний vSwitch следует использовать для построения независимой виртуальной сети, когда вам необходимо подключить виртуальные машины друг к другу, а также к гипервизору.

Private vSwitch создаст виртуальную сеть, в которой все подключенные виртуальные машины будут видеть друг друга, но не хост Hyper-V. Это полностью изолирует виртуальные машины в этой песочнице.

Здесь мы выбрали «Внешний», а затем «Создать виртуальный коммутатор». Будет открыта таблица с настройкой vSwitch, где мы будем заполнять поля, как показано ниже

  • Имя – это имя, которое мы будем указывать для идентификации vSwitch.
  • Примечания – это описание для нас, как правило, мы ставим дружественные описания, которые следует понимать.
  • Тип подключения – внешний, как объяснено ранее, и выбирает физическую сетевую карту на моем сервере.

Имя – это имя, которое мы будем указывать для идентификации vSwitch.

Примечания – это описание для нас, как правило, мы ставим дружественные описания, которые следует понимать.

Тип подключения – внешний, как объяснено ранее, и выбирает физическую сетевую карту на моем сервере.

Как только все это введено, нажмите «ОК».

Выделение процессоров и памяти для виртуальной машины с использованием Hyper-V

В этом разделе мы увидим задачу выделения ресурсов ЦП, памяти и дисков виртуальным машинам, работающим на сервере. Ключ к распределению ресурсов процессора или любого другого типа в Hyper-V – помнить, что все относительно.

Например, Microsoft выпустила несколько рекомендаций по виртуализации Exchange Server. Одна из вещей, которые были перечислены, заключалась в том, что общие системные требования для Exchange Server одинаковы, независимо от того, запущен ли Exchange на виртуальной машине или на выделенном сервере.

Чтобы выделить одну из функций, упомянутых выше, нам нужно нажать на вкладку «Настройки…» на правой панели.

Чтобы выделить больше памяти для выбранной виртуальной машины, нажмите на вкладку «Память» в левой части экрана. У вас также будет «Startup RAM», где вы можете выделить столько памяти, сколько у вас есть физически для виртуальной машины → Нажмите «Ok».

Чтобы выделить больше процессоров, нажмите на вкладку «Процессор» в левой части панели. Затем вы можете ввести количество виртуальных процессоров для вашей машины.

Если вам нужно расширить, сожмите емкость виртуального жесткого диска. Нажмите на «IDE контроллер 0» на левой боковой панели → нажмите «Изменить».

Как только все вышеперечисленные изменения будут выполнены, нажмите «Далее».

Выберите один из вариантов в зависимости от ваших потребностей (все они имеют свои описания), а затем нажмите «Далее».

Нажмите «Готово» и дождитесь окончания процесса.

Использование контрольных точек в Hyper-V

Контрольные точки в Hyper-V называются моментальными снимками, и они помогают нам вернуть машину в желаемое состояние, которое мы имели в прошлом.

Чтобы создать контрольную точку, мы должны следовать приведенным ниже шагам.

Шаг 1 – Выберите виртуальную машину, нажав на нее. На левой боковой панели нажмите «Контрольная точка».

Шаг 2. Следующая контрольная точка будет создана с соответствующей датой и временем в главной консоли диспетчера Hyper-V.

источник

WP Window Shopper — Обзор и коробки продуктов для партнерских сайтов — плагин WordPress

WP Window Shopper — это самый простой способ создавать красивые коробки продуктов и управлять ими без каких-либо знаний в области программирования. Создавайте коробки продуктов, используя шаблоны многократного использования, и размещайте их с короткими кодами в своем контенте или на боковых панелях.

СИСТЕМА ШАБЛОНОВ И ЯЩИКОВ
Создайте многоразовый шаблон и используйте его для создания новых ящиков за считанные секунды. Знания в области программирования не требуются. Вы можете стилизовать шаблоны, регулируя размер блока, цвета, размер шрифта, границы, значки, кнопки и выбирая, какие элементы блока будут ссылаться на вашу цель.После того, как вы создали шаблон, вы можете использовать его для создания своих коробок. Начните с выбора одного из ваших шаблонов и выберите заголовок, описание, изображение, CTA и целевую ссылку. Перед сохранением ящика у вас будет возможность назначить ему одну или несколько категорий, чтобы упростить организацию ящиков в дальнейшем. Нажмите «Сохранить» и перейдите к панели управления плагином. Здесь вы увидите шорткод, который можно разместить в своем контенте или на боковых панелях, используя классический редактор HTML или блоки HTML Gutenberg.

ГЛОБАЛЬНЫЕ ШАБЛОНЫ WPWS
При использовании глобальной системы шаблонов WPWS изменения, внесенные в шаблон, распространяются на все подключенные ящики продуктов. Если вы хотите внести какие-либо изменения в стиль любого из ваших блоков, все, что вам нужно сделать, это перейти на панель инструментов шаблона и нажать «изменить» рядом с шаблоном, который вы хотите изменить. После того, как вы внесли изменения и нажали «сохранить», все поля, созданные с помощью этого шаблона, получат обновление стиля. Кроме того, каждый шаблон имеет уникальный класс CSS, поэтому, если вам кажется, что в параметрах стиля чего-то не хватает, вы можете легко добавить его с помощью CSS.Если вы забыли, какой шаблон вы использовали для создания определенного окна, вы можете проверить это на панели инструментов WPWS.

WPWS DASHBOARD
Просмотрите все коробки с продуктами в едином списке. Сортировка, категоризация, редактирование и управление ими интуитивно понятным и масштабируемым способом. Вы увидите шорткоды, шаблон, которому назначен блок, к каким категориям они относятся и когда в последний раз были изменены. Если вы хотите изменить ссылку, изображение или что-то еще, вы можете легко сделать это здесь.

ПРЕИМУЩЕСТВА
* Увеличение рейтинга кликов и комиссионных
* Простая работа с множеством разных продавцов
* Управляйте всеми коробками продуктов в одном окне
* Создавайте красивые шаблоны парой кликов
* Стилизуйте каждый шаблон индивидуально с помощью настраиваемого CSS (необязательно )
* Поместите их в свой контент / виджеты с шорткодами
* Легко переключайте ссылки глобально за считанные секунды

КАК НАЧАТЬ
1.Установите плагин со своей панели управления WordPress и активируйте его
2. Выберите вкладку «Window Shopper» на левой стороне
3. Нажмите «Создать новый» в разделе шаблона и настройте параметры стиля для вашей ссылки
4. Нажмите «Далее» »В правом нижнем углу экрана и, наконец, назовите и сохраните свой шаблон
5. Затем нажмите« Создать новый »в разделе Product Box на панели инструментов WPWS
6. Выберите ранее созданный шаблон и введите ссылку, заголовок и описание
7. Нажмите «Далее» в правом нижнем углу экрана и, наконец, назовите и сохраните поле
8.Щелкните вкладку «Коробки продуктов» и скопируйте шорткод только что созданного блока
9. Теперь вы можете разместить этот шорткод в своем контенте с помощью классического редактора HTML или блока Гутенберга HTML

Нажмите здесь, чтобы увидеть демо-версию плагина!

Первоначальная настройка сервера Windows

Последнее обновление 15 июня 2019 г.

Объектив

При установке Windows Server 2012, 2012 R2 или 2016 на VPS подключение к удаленному рабочему столу иногда может быть отключено, как и ответ протокола ICMP.

Это руководство покажет вам, какие настройки необходимо изменить, чтобы снова включить подключение к удаленному рабочему столу и ICMP.

Требования

  • VPS с установленным Windows Server 2012, 2012 R2 или 2016
  • доступ к панели управления OVH

Инструкции

Шаг 1. Войдите в KVM

Для доступа к KVM вашего VPS, пожалуйста, следуйте руководству VPS KVM

Шаг 2. Настройте параметры Windows

На первом экране настройки вам нужно будет настроить параметры для Страна / регион , Язык и Раскладка клавиатуры .Когда вы это сделаете, нажмите Далее .

Затем выберите пароль для учетной записи администратора. Введите его дважды, затем нажмите Готово .

Windows применит ваши настройки. Когда это будет сделано, вы увидите следующий экран. На этом этапе вам нужно будет нажать кнопку Отправить CtrlAltDel , чтобы войти в систему.

На экране входа в систему введите пароль, созданный для учетной записи администратора, и нажмите клавишу Next на клавиатуре.

Шаг 3. Измените брандмауэр Windows

После завершения установки и входа в систему перейдите к Администрирование , затем Брандмауэр Windows с повышенной безопасностью .

Затем вам нужно будет включить ICMP и правила подключения к удаленному рабочему столу (щелкните правой кнопкой мыши -> Включить правило) .

Теперь ваш сервер будет настроен для подключения к удаленному рабочему столу.

Дальше

Присоединяйтесь к нашему сообществу пользователей на https: // community.ovh.com/en/.


Эти руководства также могут вас заинтересовать …

Документация

— Shopper WP

Эти инструкции объяснят вам , как настроить и , настроить все функции настройки в Shopper Theme .

Эта документация описывает установку и использование этой темы, поэтому мы рекомендуем вам прочитать этот документ и держать его под рукой для справки. Если у вас есть какие-либо вопросы по вашей теме или вам нужна помощь, свяжитесь с нами, и наш специальный персонал службы поддержки будет рад помочь вам.

Как установить тему Shopper?

  1. Войдите на свой сайт WordPress и откройте панель администратора.
  2. Перейдите на вкладку « Внешний вид ».
  3. Выберите вкладку « Темы ».
  4. Нажмите « Добавить новый »
  5. Искать « Shopper » (Выбрать)
  6. Нажмите « Установить »
  7. Дождитесь завершения, нажмите « Активировать », и вы готовы к использованию темы.

Как установить надстройку Shopper Pro?

  1. Во-первых, вы должны загрузить дополнительный файл « Shopper Pro » со своей панели управления, войдя в свою учетную запись.
    Панель инструментов участника
  2. После того, как вы загрузили его, вам необходимо войти на свой веб-сайт, затем перейти к плагину -> добавить новый -> загрузить файл дополнения -> активировать плагин.

Лицензия на активацию Shopper Pro:

  • Прежде чем вы сможете активировать лицензию надстройки Shopper Pro , вам, вероятно, понадобится лицензионный ключ. Итак, чтобы получить эти ключи, вам необходимо войти в свою учетную запись -> вкладка «Лицензия» -> нажать на поле ключей (чтобы показать лицензионные ключи) -> скопировать все лицензионные ключи.
  • После активации плагина « Shopper Pro » и копирования лицензионных ключей затем перейдите на панель администратора => Shopper Pro => Настройки => вкладка «Лицензия» => введите лицензионный ключ => нажмите «Активировать лицензию».

Настройка темы

В

Shopper была создана удобная панель опций, позволяющая пользователю управлять своим макетом и стилями. Ниже у нас есть подробности с руководством для вас.

Домашняя страница

Используйте этот параметр, чтобы обновить макеты и элементы управления главной страницы.

  1. Макеты
    Используйте эту опцию, чтобы выбрать макет домашней страницы.
  2. Элементы управления
    Используйте эту опцию для перемещения (перетаскивание) и включения / выключения элементов управления на домашней странице для макета.
  3. Настройки элементов управления
    Используйте эту опцию для редактирования заголовка, ограничения количества сообщений и настройки макета столбцов для элементов управления домашней страницы.
  4. Настройки карусели
    Используйте этот параметр, чтобы включить / отключить ползунок публикации карусели в элементах управления домашней страницы.
  5. Ящик героя
    Используйте эту опцию, чтобы выбрать макет героя и добавить элементы ящика героя.

Используйте эту опцию для обновления раздела заголовка темы.

  • Фоновое изображение заголовка
    Используйте эту опцию, чтобы добавить фоновое изображение заголовка.
  • Цвет фона
    Используйте эту опцию для изменения / выбора цвета фона заголовка.
  • Цвет текста и Цвет ссылки и Цвет ссылки при наведении
    Используйте эту опцию для изменения / выбора цветов текста и ссылки в разделе заголовка.
  • Верхняя навигация
    Используйте эту опцию, чтобы изменить / выбрать цвета фона, текста и ссылки, а также наведения ссылки в верхней части раздела навигации.
  • Основная навигация
    Используйте эту опцию для изменения / выбора цвета фона и текста в главном разделе навигации.

Используйте этот параметр для обновления раздела нижнего колонтитула темы.

  • Цвет фона
    Используйте этот параметр для изменения / выбора цвета фона нижнего колонтитула.
  • Цвет фона виджета
    Используйте эту опцию для изменения / выбора цветов виджета в нижнем колонтитуле.
  • Цвет заголовка
    Используйте этот параметр, чтобы изменить / выбрать цвета раздела «Заголовок» в нижнем колонтитуле.
  • Цвет текста
    Используйте этот параметр для изменения / выбора цвета текста в нижнем колонтитуле.
  • Столбцы виджета нижнего колонтитула
    Используйте этот параметр, чтобы выбрать количество виджетов нижнего колонтитула столбца.
  • Нижний колонтитул Авторское право
    Скрыть / Показать и вставить произвольный текст в нижний колонтитул.

Блог

Используйте этот параметр, чтобы обновить макеты блога и настройки темы.

  1. Общие настройки
    Общие параметры позволяют управлять общим местоположением на вашем веб-сайте. Ниже представлен вариант, с которым вы легко справитесь.
    • Макеты сообщений
      • Используйте этот параметр для выбора сетки или списка макета.
    • Длина отрывка
      • Используйте этот параметр, чтобы ограничить количество слов, отображаемых в сообщениях блога или архиве.
    • Выдержка конечного текста
      • Настройте свой собственный конечный текст после отрывка.
    • Мета-информация (отмечено, что вы хотите скрыть):
      • Дата
      • Автор
      • Категории
      • Теги
      • Количество комментариев
    • Стили пагинации
      • Используйте этот параметр для настраиваемых стилей нумерации страниц (, цифра , , старые / новые, , Загрузить еще, и Автоматическая бесконечная прокрутка ).
    • Наверх
      • Используйте эту опцию для включения / выключения кнопки возврата к началу страницы.
  2. Единая настройка
    Используйте эту опцию для настройки отдельной публикации, например:
    • Навигация по сообщениям (Включено / Выключено)
    • Автор биографии (Включено / отключено)
    • Комментарий
      • Выделить Комментарий автора
      • Скрыть комментарий к дате
    • Похожие сообщения
      • Включено / отключено
      • Установить номер соответствующего поста
      • Выберите таксономию связанных сообщений
      • Выберите макет связанной публикации
  3. Схема
    • Общий вид боковой панели (левая / правая / без боковой панели)
    • Положение эскиза (слева / справа / вверху содержимого)

Маг.

In Shop Option позволит вам управлять макетами товаров , Категории товаров и Добавить в корзину и оформить заказ раздел.Ниже приведены варианты, которыми вы легко можете управлять.

  1. Категория Страница
    • Макет категории
      • Макет: выбор макета боковой панели страницы категории.
      • Отображение товаров: выбор стиля отображения товаров.
      • Продукт на странице: укажите количество продуктов на странице.
      • Продукт в строке: укажите количество продуктов в строке.
    • Верхний / нижний колонтитул
      • Показать заголовок категории: скрыть / показать заголовок категорий.
      • Показать фильтр товаров: скрыть / отобразить фильтр товаров путем сортировки.
      • Пагинация продукта: Скрыть / показать пагинацию продуктов
      • Позиция навигации: установка положения навигации по страницам.
  2. Страница продукта
    • Галерея
      • Стиль изображения продукта: выберите макет страницы с описанием продукта.
    • Обзор продукта
      • Выравнивание текста : Установите выравнивание текста описания продукта.
      • Показать мета / категорию: Скрыть / показать мета-категорию и тег.
      • Показать значки общего доступа: скрыть / показать значки общего доступа.
    • Кнопка «В корзину»
      • Макет: выберите макет кнопки «Добавить в корзину».
      • Цвет: выберите цвет фона, текста и наведите курсор на кнопку.
      • Стиль: выберите стиль границы и контура кнопки.
      • Добавить в корзину ярлык: Установите текст кнопки.
  3. Тележка и касса
    • Макет тележки / кассы
      • Установить макет тележки и кассы.
    • Тележка
      • Содержимое боковой панели корзины: Добавьте содержимое в общую корзину.
      • После содержимого корзины: добавьте содержимое внизу страницы корзины.
    • Касса
      • Содержание боковой панели оформления заказа: добавьте содержимое на боковую панель страницы оформления заказа.

Фон

In Background Option позволит вам управлять фоновым изображением и цветом фона.

  1. Фоновое изображение
    • Установить изображение в качестве фона сайта.
  2. Цвет фона
    • Выбрать цвет фона сайта.

Цвет

In Color Option позволит вам управлять цветом заголовка, ссылки и текста веб-сайта.

  1. Цвет заголовка
    • Установить цвет для каждого заголовка сайта.
  2. Цвет текста
    • Установить цвет текста на сайте
  3. Ссылка / акцентный цвет
    • Установить цвет ссылки на сайте

Пуговицы

In Button Option позволит вам управлять кнопкой веб-сайта.

  1. Цвет фона
    • Установить цвет фона кнопки.
  2. Цвет текста
    • Установить цвет текста на кнопке.
  3. Альтернативный цвет фона кнопки
  4. Альтернативный цвет текста кнопки

Участник

In Sharer Option позволит вам управлять социальным ресурсом.

  1. Включить социальные сети
    • Скрыть / показать социальную долю.
  2. Имя пользователя Twitter
    • Добавить профиль учетной записи имени пользователя Twitter — ваше имя пользователя @ будет добавлено в твиты для совместного использования ваших сообщений (необязательно).
  3. Положения кнопки социального обмена
    • Установить положение кнопки обмена
  4. Установите флажок для включения кнопок социальных сетей
    • Отметил тип социальных сетей для включения в кнопку «Поделиться».
  5. Выбрать тему
    • Выбрать стиль темы для кнопки «Поделиться»
  6. Социальный стиль общения
    • Выберите стиль границы и контура кнопки.
  7. Показать количество
    • Скрыть / показать счетчик на кнопке общего доступа.
  8. Всплывающее окно
    • Выберите тип целевой кнопки, чтобы открыть общий ресурс в новом окне.
  9. Показать этикетку
    • Скрыть / показать ярлык кнопки социальной сети.

Типографика

In Typography Option позволит вам управлять шрифтами, размером шрифта и высотой строки в теле и заголовке.

.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *