Ubuntu proxmox: Backup и перенос linux сервера с помощью Veeam Agent for Linux
Backup и перенос linux сервера с помощью Veeam Agent for Linux
Есть множество способов выполнить резервное копирование отдельной информации или целых серверов. Я хочу рассказать о самом простом способе полного бэкапа сервера и переноса его на другое железо, если будет такая необходимость. Делается все это очень просто, без лишних телодвижений с помощью бесплатного Veeam Agent for Linux FREE.
Если у вас есть желание научиться строить и поддерживать высокодоступные и надежные системы, рекомендую познакомиться с онлайн-курсом «DevOps практики и инструменты» в OTUS. Курс не для новичков, для поступления нужно пройти .
Введение
Ранее я уже неоднократно рассматривал вопрос резервного копирования данных или целых серверов linux. Конкретно в этих статьях:
Забэкапить сразу весь сервер можно, например, с помощью Duplicity. Но вот восстановить его на другом железе будет не так просто. Помимо данных нужно будет, как минимум, позаботиться о разметке диска, установке загрузчика. На это необходимо затратить некоторые усилия и немного разбираться в теме initramfs и grub. Сам я не очень разбираюсь в нюансах работы этих инструментов и очень не люблю с ними возиться.
Некоторое время назад появился отличный бесплатный продукт для бэкапа всего сервера целиком. Речь идет о Veeam Agent for Linux FREE. С его помощью можно сделать полный backup сервера, положить его куда-нибудь по smb или nfs, потом загрузиться с live cd и восстановить из бэкапа на другом железе.
Сразу расскажу о некоторых нюансах работы бесплатной версии, с которыми столкнулся в процессе эксплуатации замечательного продукта от veeam.
- Бэкап можно сделать либо всего сервера сразу, либо отдельного диска, либо отдельных папок и файлов. При выборе бэкапа всего диска или сервера, нельзя задать исключения для отдельных папок или файлов. Это очень неудобно, но увы и ах, таков функционал. Исключения можно сделать только если вы делаете бэкап на уровне папок.
- Бэкап можно положить локально на соседний раздел, если делаете резервную копию раздела, локально в папку — если делаете бэкап файлов и папок. Если бэкапите всю систему целиком, то удаленно по smb и nfs. К сожалению, по ftp или sftp программа не работает.
В качестве хранилища для архивов может выступать репозиторий Veeam Backup & Replication. Но я не рассматриваю этот вариант, так как в данном случае использую только бесплатное решение.
Мне очень хотелось настроить резервную копию всего сервера на Яндекс.Диск, но, к сожалению, у меня это не получилось из-за технических ограничений. Яндекс.Диск подключается к системе через webdav. Для того, чтобы сделать резервную копию всей системы, нужно бэкапить либо всю систему сразу, либо образ диска. Если у вас небольшой веб сервер, то скорее всего на нем только один раздел. На этом же разделе хранится кэш, который использует webdav для передачи файлов. Без кэша он работать не умеет.
Думаю вы уже поняли, в чем проблема сделать полный backup сервера с помощью Veeam Agent for Linux на Яндекс.Диск по webdav. Вы не сможете добавить в исключения папку с кэшом от webdav. В итоге, во время бэкапа с помощью veeam будет расти папка с кэшом webdav, которая, в свою очередь, будет бэкапиться. В итоге, свободное место на диске зако
Про бэкапы в Proxmox VE / Блог компании Selectel / Хабр
В статье «Магия виртуализации: вводный курс в Proxmox VE» мы успешно установили на сервер гипервизор, подключили к нему хранилище, позаботились об элементарной безопасности и даже создали первую виртуальную машину. Теперь разберем как реализовать самые базовые задачи, которые приходится выполнять, чтобы всегда иметь возможность восстановить работу сервисов в случае сбоя.
Штатные инструменты Proxmox позволяют не только выполнять резервное копирование данных, но и создавать наборы предварительно настроенных образов операционных систем для быстрого развертывания. Это не только помогает при необходимости создать новый сервер для любого сервиса за несколько секунд, но также и уменьшает время простоя до минимального.
Рассказывать о необходимости создания бэкапов мы не будем, поскольку это очевидно и уже давно является аксиомой. Остановимся на некоторых неочевидных вещах и особенностях.
Сначала рассмотрим каким образом сохраняются данные при процедуре резервного копирования.
Алгоритмы резервного копирования
Начнем с того, что Proxmox имеет неплохой штатный инструментарий для создания резервных копий виртуальных машин. Он позволяет легко сохранить все данные виртуальной машины и поддерживает два механизма сжатия, а также три метода создания этих копий.
Разберем вначале механизмы сжатия:
- Сжатие LZO. Алгоритм сжатия данных без потерь, придуманный еще в середине 90-х годов. Код был написан Маркусом Оберхеймером (реализуется в Proxmox утилитой lzop). Основной особенностью этого алгоритма является очень скоростная распаковка. Следовательно, любая резервная копия, созданная с помощью этого алгоритма, может при необходимости быть развернута за минимальное время.
- Сжатие GZIP. При использовании этого алгоритма резервная копия будет «на лету» сжиматься утилитой GNU Zip, использующей мощный алгоритм Deflate, созданный Филом Кацем. Основной упор делается на максимальное сжатие данных, что позволяет сократить место на диске, занимаемое резервными копиями. Главным отличием от LZO является то, что процедуры компрессии/декомпреcсии занимают достаточно большое количество времени.
Режимы архивирования
Proxmox предлагает на выбор системному администратору три метода резервного копирования. С помощью них можно решить требуемую задачу, определив приоритет между необходимостью простоя и надежностью сделанной резервной копии:
- Режим Snapshot (Снимок). Этот режим можно еще назвать как Live backup, поскольку для его использования не требуется останавливать работу виртуальной машины. Использование этого механизма не прерывает работу VM, но имеет два очень серьезных недостатка — могут возникать проблемы из-за блокировок файлов операционной системой и самая низкая скорость создания. Резервные копии, созданные этим методом, надо всегда проверять в тестовой среде. В противном случае есть риск, что при необходимости экстренного восстановления, они могут дать сбой.
- Режим Suspend (Приостановка). Виртуальная машина временно «замораживает» свое состояние, до окончания процесса резервного копирования. Содержимое оперативной памяти не стирается, что позволяет продолжить работу ровно с той точки, на которой работа была приостановлена. Разумеется, это вызывает простой сервера на время копирования информации, зато нет необходимости выключения/включения виртуальной машины, что достаточно критично для некоторых сервисов. Особенно, если запуск части сервисов не является автоматическим. Тем не менее такие резервные копии также следует разворачивать в тестовой среде для проверки.
- Режим Stop (Остановка). Самый надежный способ резервного копирования, но требующий полного выключения виртуальной машины. Отправляется команда на штатное выключение, после остановки выполняется резервное копирование и затем отдается команда на включение виртуальной машины. Количество ошибок при таком подходе минимально и чаще всего сводится к нулю. Резервные копии, созданные таким способом, практически всегда разворачиваются корректно.
Выполнение процедуры резервирования
Для создания резервной копии:
- Переходим на нужную виртуальную машину.
- Выбираем пункт Резервирование.
- Нажимаем кнопку Резервировать сейчас. Откроется окно, в котором можно будет выбрать параметры будущей резервной копии.
- В качестве хранилища указываем то, которое мы подключали в предыдущей части.
- После выбора параметров нажимаем кнопку Резервирование и ждем, пока резервная копия будет создана. Об этом будет говорить надпись TASK OK.
Теперь созданные архивы с резервными копиями виртуальных машин станут доступны для скачивания с сервера. Самым простым и банальным способом копирования является SFTP. Для этого воспользуйтесь популярным кроссплатформенным FTP-клиентом FileZilla, который умеет работать по SFTP-протоколу.
- В поле Хост вводим IP-адрес нашего сервера виртуализации, в поле Имя пользователя вводим root, в поле Пароль — тот, который был выбран при установке, а в поле Порт указываем «22» (либо любой другой порт, который был задан для SSH-подключений).
- Нажимаем кнопку Быстрое соединение и, если все данные были введены правильно, то в активной панели Вы увидите все файлы, расположенные на сервере.
- Переходим в директорию /mnt/storage. Все создаваемые резервные копии будут лежать в поддиректории «dump». Они будут иметь вид:
- vzdump-qemu-номер_машины-дата-время.vma.gz в случае выбора метода GZIP;
- vzdump-qemu-номер_машины-дата-время.vma.lzo в случае выбора метода LZO.
Резервные копии рекомендуется сразу скачивать с сервера и сохранять в надежном месте, например, в нашем облачном хранилище. Если распаковать файл с разрешением vma, одноименной утилитой, идущей в комплекте с Proxmox, то внутри будут файлы с расширениями raw, conf и fw. В этих файлах содержится следующее:
- raw — образ диска;
- conf — конфигурация VM;
- fw — настройки файервола.
Восстановление из резервной копии
Рассмотрим ситуацию, когда виртуальную машину случайно удалили и требуется ее экстренное восстановление из резервной копии:
- Открываем хранилище, на котором лежит резервная копия.
- Переходим на вкладку Содержимое.
- Выбираем нужную копию и нажимаем кнопку Восстановление.
- Указываем целевое хранилище и ID, который будет присвоен машине, после завершения процесса.
- Нажимаем кнопку Восстановление.
Как только восстановление завершится, VM появится в списке доступных.
Клонирование виртуальной машины
Для примера, предположим, что в компании требуется внести изменения в какой-либо критичный сервис. Такое изменение реализуется через внесение множества правок в конфигурационные файлы. Результат при этом непредсказуем и любая ошибка способна вызвать сбой сервиса. Чтобы подобный эксперимент не затронул работающий сервер, рекомендуется выполнить клонирование виртуальной машины.
Механизм клонирования создаст точную копию виртуального сервера, с которой допустимо проводить любые изменения, при этом не затрагивая работу основного сервиса. Затем, если изменения будут успешно применены, новая VM запускается в работу, а старая выключается. В этом процессе есть особенность, о которой всегда следует помнить. На клонированной машине IP-адрес будет точно таким же, как и у исходной VM, то есть при ее запуске возникнет конфликт адресов.
Расскажем, как избежать такой ситуации. Непосредственно перед выполнением клонирования, следует внести изменения в конфигурацию сети. Для этого необходимо временно изменить IP-адрес, но не перезапускать сетевой сервис. После выполнения клонирования на основной машине следует вернуть настройки обратно, а на клонированной машине задать любой другой IP-адрес. Тем самым мы получим две копии одного и того же сервера на разных адресах. Это позволит быстро ввести новый сервис в работу.
Если этим сервисом является веб-сервер, то достаточно только изменить А-запись у Вашего DNS-провайдера, после чего запросы клиентов по этому доменному имени будут направляться уже на адрес клонированной виртуальной машины.
Кстати, Selectel предоставляет всем своим клиентам услугу размещения любого количества доменов на NS-серверах бесплатно. Управление записями осуществляется как с помощью нашей панели управления, так и с помощью специального API. Подробнее об этом читайте в нашей базе знаний.
Клонирование VM в Proxmox является очень простой задачей. Для ее выполнения необходимо выполнить следующие действия:
- Перейти на нужную нам машину.
- Выбрать из меню More пункт Clone.
- В открывшемся окне заполнить параметр Имя.
- Выполнить клонирование нажатием кнопки Clone.
Этот инструмент позволяет сделать копию виртуальной машины не только на локальном сервере. Если несколько серверов виртуализации объединить в кластер, то с помощью этого инструмента можно сразу переместить созданную копию на нужный физический сервер. Полезной функцией является выбор дискового хранилища (параметр Target Storage), что очень удобно при перемещении виртуальной машины с одного физического носителя на другой.
Форматы виртуальных накопителей
Расскажем подробнее об используемых в Proxmox форматах накопителей:
- RAW. Самый понятный и простой формат. Это файл с данными жесткого диска «байт в байт» без сжатия или оптимизации. Это очень удобный формат, поскольку его легко смонтировать стандартной командой mount в любой linux-системе. Более того это самый быстрый «тип» накопителя, так как гипервизору не нужно его никак обрабатывать.
Серьезным недостатком этого формата является то, что сколько Вы выделили места для виртуальной машины, ровно столько места на жестком диске и будет занимать файл в формате RAW (вне зависимости от реально занятого места внутри виртуальной машины).
- QEMU image format (qcow2). Пожалуй, самый универсальный формат для выполнения любых задач. Его преимущество в том, что файл с данными будет содержать только реально занятое место внутри виртуальной машины. Например, если было выделено 40 Гб места, а реально было занято только 2 Гб, то все остальное место будет доступно для других VM. Это очень актуально в условиях экономии дискового пространства.
Небольшим минусом работы с этим форматом является следующее: чтобы примонтировать такой образ в любой другой системе, потребуется вначале загрузить особый драйвер nbd, а также использовать утилиту qemu-nbd, которая позволит операционной системе обращаться к файлу как к обычному блочному устройству. После этого образ станет доступен для монтирования, разбиения на разделы, осуществления проверки файловой системы и прочих операций.
Следует помнить, что все операции ввода-вывода при использовании этого формата программно обрабатываются, что влечет за собой замедление при активной работе с дисковой подсистемой. Если стоит задача развернуть на сервере базу данных, то лучше выбрать формат RAW.
- VMware image format (vmdk). Этот формат является «родным» для гипервизора VMware vSphere и был включен в Proxmox для совместимости. Он позволяет выполнить миграцию виртуальной машины VMware в инфраструктуру Proxmox.
Использование vmdk на постоянной основе не рекомендуется, данный формат самый медленный в Proxmox, поэтому он годится лишь для выполнения миграции, не более. Вероятно в обозримом будущем этот недостаток будет устранен.
Работа с образами дисков
В комплекте c Proxmox есть очень удобная утилита, под названием qemu-img. Одной из ее функций является конвертирование образов виртуальных дисков. Чтобы воспользоваться им, достаточно открыть консоль гипервизора и выполнить команду в формате:
qemu-img convert -f vmdk test.vmdk -O qcow2 test.qcow2
В приведенном примере, vmdk-образ виртуального накопителя VMware под названием test будет преобразован в формат qcow2. Это очень полезная команда, когда требуется исправить ошибку при изначальном выборе формата.
Благодаря этой же команде можно принудительно создать нужный образ, используя аргумент create:
qemu-img create -f raw test.raw 40G
Такая команда создаст образ test в формате RAW, размером 40 Гб. Теперь он годится для подключения к любой из виртуальных машин.
Изменение размера виртуального диска
И в заключение покажем как увеличить размер образа диска, если по каким-то причинам места на нем перестало хватать. Для этого воспользуемся аргументом resize:
qemu-img resize -f raw test.raw 80G
Теперь наш образ стал размером 80 Гб. Посмотреть подробную информацию об образе можно с помощью аргумента info:
qemu-img info test.raw
Не стоит забывать, что само расширение образа не увеличит размер раздела автоматически — просто добавит доступное свободное пространство. Для увеличения раздела воспользуйтесь командой:
resize2fs /dev/sda1
где /dev/sda1 — нужный раздел.
Автоматизация создания резервных копий
Использование ручного способа создания резервных копий — задача весьма трудоемкая и занимает много времени. Поэтому Proxmox VE содержит в себе средство для автоматического резервного копирования по расписанию. Рассмотрим, как это сделать:
- Используя веб-интерфейс гипервизора, открываем пункт Датацентр.
- Выбираем пункт Резервирование.
- Нажимаем кнопку Добавить.
- Задаем параметры для планировщика.
- Отмечаем галочкой пункт Включить.
- Сохраняем изменения, используя кнопку Создать.
Теперь планировщик будет автоматически запускать программу резервного копирования в точно указанное время, исходя из заданного расписания.
Заключение
Нами были рассмотрены штатные способы резервного копирования и восстановления виртуальных машин. Их использование позволяет без особых проблем сохранять все данные и экстренно восстановить их в случае нештатной ситуации.
Конечно, это не единственный возможный способ сохранения важных данных. Существует множество инструментов, например, Duplicity, с помощью которых можно создавать полные и инкрементные копии содержимого виртуальных серверов на базе Linux.
При выполнении процедур резервного копирования всегда следует учитывать, что они активно нагружают дисковую подсистему. В связи с этим выполнять эти процедуры рекомендуется в моменты минимальной нагрузки, чтобы избежать задержек при выполнении операций ввода-вывода внутри машин. Следить за статусом задержек дисковых операций можно непосредственно из веб-интерфейса гипервизора (параметр IO delay).
Добавление и удаление хранилища ZFS в Proxmox VE. — Хомячье логово
Содержание:
1. Введение.
1.1. Описание файловой системы.
1.2. Пулы хранения.
1.3. Встроенное сжатие.
1.4. Секторы.
2. Подключаем диск в системе.
3. Добавление нового хранилища.
4. Удаление хранилища.
5. Оригиналы источников информации.
1. Введение.
1.1. Описание файловой системы.
ZFS (Zettabyte File System) — файловая система, изначально созданная в Sun Microsystems для операционной системы Solaris. Эта файловая система поддерживает большие объёмы данных, объединяет концепции файловой системы и менеджера логических дисков (томов) и физических носителей, новаторскую структуру данных на дисках, легковесные файловые системы (англ. lightweight filesystems), а также простое управление томами хранения данных. ZFS является проектом с открытым исходным кодом и лицензируется под CDDL (Common Development and Distribution License).
Основное преимущество ZFS — это её полный контроль над физическими и логическими носителями. Зная, как именно расположены данные на дисках, ZFS способна обеспечить высокую скорость доступа к ним, контроль их целостности, а также минимизацию фрагментации данных. Это позволяет динамически выделять или освобождать дисковое пространство на одном или более носителях для логической файловой системы. Кроме того, имеет место переменный размер блока, что лучшим образом влияет на производительность, параллельность выполнения операций чтения-записи, а также 64-разрядный механизм использования контрольных сумм, сводящий к минимуму вероятность незаметного разрушения данных.
В Proxmox VE с помощью ZFS можно позволить себе репликацию данных на другой гипервизор, миграцию виртуальной машины/LXC контейнера, доступ к LXC контейнеру с хост-системы и так далее.
1.2. Пулы хранения.
В отличие от традиционных файловых систем, которые располагаются на одном устройстве и, следовательно, при использовании более чем на одном устройстве для них требуется менеджер томов, ZFS строится поверх виртуальных пулов хранения данных, называемых zpool. Пул построен из виртуальных устройств (vdevs), каждое из которых является либо физическим устройством, либо зеркалом (RAID 1) одного или нескольких устройств, либо (RAID Z) — группой из двух или более устройств. Ёмкость всех vdevs затем доступна для всех файловых систем в zpool.
Для ограничения пространства, доступного конкретной файловой системе или тому, может быть установлена квота. Кроме того, возможно использование дискового резервирования (лимита) — это гарантирует, что всегда будет оставаться некоторый доступный объём для конкретной файловой системы или тома.
Каждый пул хранения состоит из одного или нескольких виртуальных устройств (virtual device, vdev). В свою очередь, каждый vdev включает одно или несколько реальных устройств. Большинство виртуальных устройств используются для простого хранения данных, но существует несколько вспомогательных классов vdev, включая CACHE, LOG и SPECIAL. Каждый из этих типов vdev может иметь одну из пяти топологий: единое устройство (single-device), RAIDz1, RAIDz2, RAIDz3 или зеркало (mirror).
RAIDz1, RAIDz2 и RAIDz3 — это особые разновидности того, что назовут RAID двойной (диагональной) чётности. 1, 2 и 3 относятся к тому, сколько блоков чётности выделено для каждой полосы данных. Вместо отдельных дисков для обеспечения чётности виртуальные устройства RAIDz полуравномерно распределяют эту чётность по дискам. Массив RAIDz может потерять столько дисков, сколько у него блоков чётности; если он потеряет ещё один, то выйдет из строя и заберет с собой пул хранения.
В зеркальных виртуальных устройствах (mirror vdev) каждый блок хранится на каждом устройстве в vdev. Хотя наиболее распространённые двойные зеркала (two-wide), в зеркале может быть любое произвольное количество устройств — в больших установках для повышения производительности чтения и отказоустойчивости часто используются тройные. Зеркало vdev может пережить любой сбой, пока продолжает работать хотя бы одно устройство в vdev.
Одиночные vdev по своей сути опасны. Такое виртуальное устройство не переживёт ни одного сбоя — и если используется в качестве хранилища или специального vdev, то его сбой приведёт к уничтожению всего пула. Будьте здесь очень, очень осторожны.
Виртуальные устройства CACHE, LOG и SPECIAL могут быть созданы по любой из вышеперечисленных топологий — но помните, что потеря виртуального устройства SPECIAL означает потерю пула, поэтому настоятельно рекомендуется избыточная топология.
1.3. Встроенное сжатие.
Механизм копирования при записи также упрощает систему встроенного сжатия. В традиционной файловой системы сжатие проблематично — как старая версия, так и новая версия изменённых данных находятся в одном и том же пространстве.
Если рассмотреть фрагмент данных в середине файла, который начинает свою жизнь как мегабайт нулей от 0x00000000
и так далее — его очень легко сжать до одного сектора на диске. Но что произойдёт, если мы заменим этот мегабайт нулей на мегабайт несжимаемых данных, таких как JPEG или псевдослучайный шум? Неожиданно этому мегабайту данных потребуется не один, а 256 секторов по 4 КиБ, а в этом месте на диске зарезервирован только один сектор.
У ZFS нет такой проблемы, так как изменённые записи всегда записываются в неиспользуемое пространство — исходный блок занимает только один сектор 4 КиБ, а новая запись займёт 256, но это не проблема — недавно изменённый фрагмент из «середины» файла был бы записан в неиспользуемое пространство независимо от того, изменился его размер или нет, поэтому для ZFS это вполне штатная ситуация.
Встроенное сжатие ZFS отключено по умолчанию, и система предлагает подключаемые алгоритмы — сейчас среди них LZ4, gzip (1-9), LZJB и ZLE.
- LZ4 — это потоковый алгоритм, предлагающий чрезвычайно быстрое сжатие и декомпрессию и выигрыш в производительности для большинства случаев использования — даже на довольно медленных CPU.
- GZIP — почтенный алгоритм, который знают и любят все пользователи Linux-систем. Он может быть реализован с уровнями сжатия 1-9, с увеличением степени сжатия и использования CPU по мере приближения к уровню 9. Алгоритм хорошо подходит для всех текстовых (или других чрезвычайно сжимаемых) вариантов использов
Резервное копирование и восстановление данных в Proxmox VE
В статье «Магия виртуализации: вводный курс в Proxmox VE» мы успешно установили на сервер гипервизор, подключили к нему хранилище, позаботились об элементарной безопасности и даже создали первую виртуальную машину. Теперь разберем как реализовать самые базовые задачи, которые приходится выполнять, чтобы всегда иметь возможность восстановить работу сервисов в случае сбоя.
Штатные инструменты Proxmox позволяют не только выполнять резервное копирование данных, но и создавать наборы предварительно настроенных образов операционных систем для быстрого развертывания. Это не только помогает при необходимости создать новый сервер для любого сервиса за несколько секунд, но также и уменьшает время простоя до минимального.
Рассказывать о необходимости создания бэкапов мы не будем, поскольку это очевидно и уже давно является аксиомой. Остановимся на некоторых неочевидных вещах и особенностях.
Сначала рассмотрим каким образом сохраняются данные при процедуре резервного копирования.
Алгоритмы резервного копирования
Начнем с того, что Proxmox имеет неплохой штатный инструментарий для создания резервных копий виртуальных машин. Он позволяет легко сохранить все данные виртуальной машины и поддерживает два механизма сжатия, а также три метода создания этих копий.
Разберем вначале механизмы сжатия:
1. Сжатие LZO. Алгоритм сжатия данных без потерь, придуманный еще в середине 90-х годов. Код был написан Маркусом Оберхеймером (реализуется в Proxmox утилитой lzop). Основной особенностью этого алгоритма является очень скоростная распаковка. Следовательно, любая резервная копия, созданная с помощью этого алгоритма, может при необходимости быть развернута за минимальное время.
2. Сжатие GZIP. При использовании этого алгоритма резервная копия будет «на лету» сжиматься утилитой GNU Zip, использующей мощный алгоритм Deflate, созданный Филом Кацем. Основной упор делается на максимальное сжатие данных, что позволяет сократить место на диске, занимаемое резервными копиями. Главным отличием от LZO является то, что процедуры компрессии/декомпреcсии занимают достаточно большое количество времени.
Режимы архивирования
Proxmox предлагает на выбор системному администратору три метода резервного копирования. С помощью них можно решить требуемую задачу, определив приоритет между необходимостью простоя и надежностью сделанной резервной копии:
1. Режим Snapshot (Снимок). Этот режим можно еще назвать как Live backup, поскольку для его использования не требуется останавливать работу виртуальной машины. Использование этого механизма не прерывает работу VM, но имеет два очень серьезных недостатка — могут возникать проблемы из-за блокировок файлов операционной системой и самая низкая скорость создания. Резервные копии, созданные этим методом, надо всегда проверять в тестовой среде. В противном случае есть риск, что при необходимости экстренного восстановления, они могут дать сбой.
2. Режим Suspend (Приостановка). Виртуальная машина временно «замораживает» свое состояние, до окончания процесса резервного копирования. Содержимое оперативной памяти не стирается, что позволяет продолжить работу ровно с той точки, на которой работа была приостановлена. Разумеется, это вызывает простой сервера на время копирования информации, зато нет необходимости выключения/включения виртуальной машины, что достаточно критично для некоторых сервисов. Особенно, если запуск части сервисов не является автоматическим. Тем не менее такие резервные копии также следует разворачивать в тестовой среде для проверки.
3. Режим Stop (Остановка). Самый надежный способ резервного копирования, но требующий полного выключения виртуальной машины. Отправляется команда на штатное выключение, после остановки выполняется резервное копирование и затем отдается команда на включение виртуальной машины. Количество ошибок при таком подходе минимально и чаще всего сводится к нулю. Резервные копии, созданные таким способом, практически всегда разворачиваются корректно.
Выполнение процедуры резервирования
Для создания резервной копии:
1. Переходим на нужную виртуальную машину.
2. Выбираем пункт Резервирование.
3. Нажимаем кнопку Резервировать сейчас. Откроется окно, в котором можно будет выбрать параметры будущей резервной копии.
4. В качестве хранилища указываем то, которое мы подключали в предыдущей части.
5. После выбора параметров нажимаем кнопку Резервирование и ждем, пока резервная копия будет создана. Об этом будет говорить надпись TASK OK.
Теперь созданные архивы с резервными копиями виртуальных машин станут доступны для скачивания с сервера. Самым простым и банальным способом копирования является SFTP. Для этого воспользуйтесь популярным кроссплатформенным FTP-клиентом FileZilla, который умеет работать по SFTP-протоколу.
1. В поле Хост вводим IP-адрес нашего сервера виртуализации, в поле Имя пользователя вводим root, в поле Пароль — тот, который был выбран при установке, а в поле Порт указываем «22» (либо любой другой порт, который был задан для SSH-подключений).
2. Нажимаем кнопку Быстрое соединение и, если все данные были введены правильно, то в активной панели Вы увидите все файлы, расположенные на сервере.
3. Переходим в директорию /mnt/storage. Все создаваемые резервные копии будут лежать в поддиректории «dump». Они будут иметь вид:
- vzdump-qemu-номер_машины-дата-время.vma.gz в случае выбора метода сжатия GZIP;
- vzdump-qemu-номер_машины-дата-время.vma.lzo для использования метода LZO.
Резервные копии рекомендуется сразу скачивать с сервера и сохранять в надежном месте, например, в нашем облачном хранилище. Если распаковать файл с разрешением vma, одноименной утилитой, идущей в комплекте с Proxmox, то внутри будут файлы с расширениями raw, conf и fw. В этих файлах содержится следующее:
- raw — образ диска;
- conf — конфигурация VM;
- fw — настройки файервола.
Восстановление из резервной копии
Рассмотрим ситуацию, когда виртуальную машину случайно удалили и требуется ее экстренное восстановление из резервной копии:
1. Открываем хранилище, на котором лежит резервная копия.
2. Переходим на вкладку Содержимое.
3. Выбираем нужную копию и нажимаем кнопку Восстановление.
4. Указываем целевое хранилище и ID, который будет присвоен машине, после завершения процесса.
5. Нажимаем кнопку Восстановление.
Как только восстановление завершится, VM появится в списке доступных.
Клонирование виртуальной машины
Для примера, предположим, что в компании требуется внести изменения в какой-либо критичный сервис. Такое изменение реализуется через внесение множества правок в конфигурационные файлы. Результат при этом непредсказуем и любая ошибка способна вызвать сбой сервиса. Чтобы подобный эксперимент не затронул работающий сервер, рекомендуется выполнить клонирование виртуальной машины.
Механизм клонирования создаст точную копию виртуального сервера, с которой допустимо проводить любые изменения, при этом не затрагивая работу основного сервиса. Затем, если изменения будут успешно применены, новая VM запускается в работу, а старая выключается. В этом процессе есть особенность, о которой всегда следует помнить. На клонированной машине IP-адрес будет точно таким же, как и у исходной VM, то есть при ее запуске возникнет конфликт адресов.
Расскажем, как избежать такой ситуации. Непосредственно перед выполнением клонирования, следует внести изменения в конфигурацию сети. Для этого необходимо временно изменить IP-адрес, но не перезапускать сетевой сервис. После выполнения клонирования на основной машине следует вернуть настройки обратно, а на клонированной машине задать любой другой IP-адрес. Тем самым мы получим две копии одного и того же сервера на разных адресах. Это позволит быстро ввести новый сервис в работу.
Если этим сервисом является веб-сервер, то достаточно только изменить А-запись у Вашего DNS-провайдера, после чего запросы клиентов по этому доменному имени будут направляться уже на адрес клонированной виртуальной машины.
Кстати, Selectel предоставляет всем своим клиентам услугу размещения любого количества доменов на NS-серверах бесплатно. Управление записями осуществляется как с помощью нашей панели управления, так и с помощью специального API. Подробнее об этом читайте в нашей базе знаний.
Клонирование VM в Proxmox является очень простой задачей. Для ее выполнения необходимо выполнить следующие действия:
1. Перейти на нужную нам машину.
2. Выбрать из меню More пункт Clone.
3. В открывшемся окне заполнить параметр Имя.
4. Выполнить клонирование нажатием кнопки Clone.
Этот инструмент позволяет сделать копию виртуальной машины не только на локальном сервере. Если несколько серверов виртуализации объединить в кластер, то с помощью этого инструмента можно сразу переместить созданную копию на нужный физический сервер. Полезной функцией является выбор дискового хранилища (параметр Target Storage), что очень удобно при перемещении виртуальной машины с одного физического носителя на другой.
Форматы виртуальных накопителей
Расскажем подробнее об используемых в Proxmox форматах накопителей:
1. RAW. Самый понятный и простой формат. Это файл с данными жесткого диска «байт в байт» без сжатия или оптимизации. Это очень удобный формат, поскольку его легко смонтировать стандартной командой mount в любой linux-системе. Более того это самый быстрый «тип» накопителя, так как гипервизору не нужно его никак обрабатывать.
Серьезным недостатком этого формата является то, что сколько Вы выделили места для виртуальной машины, ровно столько места на жестком диске и будет занимать файл в формате RAW (вне зависимости от реально занятого места внутри виртуальной машины).
2. QEMU image format (qcow2). Пожалуй, самый универсальный формат для выполнения любых задач. Его преимущество в том, что файл с данными будет содержать только реально занятое место внутри виртуальной машины. Например, если было выделено 40 Гб места, а реально было занято только 2 Гб, то все остальное место будет доступно для других VM. Это очень актуально в условиях экономии дискового пространства.
Небольшим минусом работы с этим форматом является следующее: чтобы примонтировать такой образ в любой другой системе, потребуется вначале загрузить особый драйвер nbd, а также использовать утилиту qemu-nbd, которая позволит операционной системе обращаться к файлу как к обычному блочному устройству. После этого образ станет доступен для монтирования, разбиения на разделы, осуществления проверки файловой системы и прочих операций.
Следует помнить, что все операции ввода-вывода при использовании этого формата программно обрабатываются, что влечет за собой замедление при активной работе с дисковой подсистемой. Если стоит задача развернуть на сервере базу данных, то лучше выбрать формат RAW.
3. VMware image format (vmdk). Этот формат является «родным» для гипервизора VMware vSphere и был включен в Proxmox для совместимости. Он позволяет выполнить миграцию виртуальной машины VMware в инфраструктуру Proxmox.
Использование vmdk на постоянной основе не рекомендуется, данный формат самый медленный в Proxmox, поэтому он годится лишь для выполнения миграции, не более. Вероятно в обозримом будущем этот недостаток будет устранен.
Работа с образами дисков
В комплекте c Proxmox есть очень удобная утилита, под названием qemu-img. Одной из ее функций является конвертирование образов виртуальных дисков. Чтобы воспользоваться им, достаточно открыть консоль гипервизора и выполнить команду в формате:
qemu-img convert -f vmdk test.vmdk -O qcow2 test.qcow2
В приведенном примере, vmdk-образ виртуального накопителя VMware под названием test будет преобразован в формат qcow2. Это очень полезная команда, когда требуется исправить ошибку при изначальном выборе формата.
Благодаря этой же команде можно принудительно создать нужный образ, используя аргумент create:
qemu-img create -f raw test.raw 40G
Такая команда создаст образ test в формате RAW, размером 40 Гб. Теперь он годится для подключения к любой из виртуальных машин.
Изменение размера виртуального диска
И в заключение покажем как увеличить размер образа диска, если по каким-то причинам места на нем перестало хватать. Для этого воспользуемся аргументом resize:
qemu-img resize -f raw test.raw 80G
Теперь наш образ стал размером 80 Гб. Посмотреть подробную информацию об образе можно с помощью аргумента info:
qemu-img info test.raw
Не стоит забывать, что само расширение образа не увеличит размер раздела автоматически — просто добавит доступное свободное пространство. Для увеличения раздела воспользуйтесь командой:
resize2fs /dev/sda1
где /dev/sda1 — нужный раздел.
Автоматизация создания резервных копий
Использование ручного способа создания резервных копий — задача весьма трудоемкая и занимает много времени. Поэтому Proxmox VE содержит в себе средство для автоматического резервного копирования по расписанию. Рассмотрим, как это сделать:
1. Используя веб-интерфейс гипервизора, открываем пункт Датацентр.
2. Выбираем пункт Резервирование.
3. Нажимаем кнопку Добавить.
4. Задаем параметры для планировщика.
Практическое изучение Proxmox 6 | Реальные заметки Ubuntu & Mikrotik
Прочитано:
1 651
Предлагаю структурированные заметки по практическому использованию/внедрению гипервизора на базе связки Debian 10 + Proxmox 6:
Что есть контейнер — это такой мини образ операционной системы Linux (увы, но Windows не поддерживается), любой из доступных который запускается на одном узле Proxmox. Контейнер или же LXC (Linux Containers) — не использует виртуальные машины, а создает виртуальное окружение с собственным пространством процессов и сетевым стеком. Накладные расходы на память, процессов и диск ниже чем если бы использовалась полноценная операционная система. https://lin.ekzorchik.ru/2020/05/20/using-lxc-containers-in-proxmox-6/ |
Оказывается есть и такое, хотя чему удивляться если даже в ESXi можно настроить, что в случае каких либо проблем отсылать уведомление на почту системному администратору. Но вот полностью как у VMware сделать как мне кажется нельзя, только в рамках резервного копирования виртуальных машин на гипервизоре Debian 10 + Proxmox 6. Ну да ладно, посмотрим как настраивается взаимодействие Debian 10 + Proxmox 6 + msmtp, а нет, как оказалось в последствии не пакет msmtp участвует в работе гипервизора Proxmox 6, а Postfix. https://lin.ekzorchik.ru/2020/05/06/proxmox-6-email-interaction-setup/ |
Задача: Хочу в своей локальной сети поднять NFS сервис, как общий ресурс для виртуальных машин гипервизора Debian 10 + Proxmox 6. Это одна из частей большой заметки, про то как познакомиться к кластером из двух нод Proxmox 6 А вот сервис NFS будет развернут на обычном компьютере и конечно же под Ubuntu 18.04 Server, а вот диски под это дело у меня буду M.2, т.е. я по-сути смогу смоделировать как будто бы у меня выделенное хранилище. https://lin.ekzorchik.ru/2020/04/30/shared-nfs-storage-for-proxmox-6/ |
Задача: Активировать возможность авторизации через SSH учетной записи root на гипервизоре Debian 10 + Proxmox 6 Зачем это нужно? Просто у меня моя система Debian 10 устанавливается в локальной сети по сети через сервис Fog Project + файл ответов, а следовательно я могу подключаться только под учетной записью Login: ekzorchik https://lin.ekzorchik.ru/2020/04/29/ssh-root-access-to-proxmox/ |
Сейчас создадим виртуального пользователя который не будет явно значится в системе Debian 10, а только в сервисе Proxmox 6 и права его будут полными, как если бы я авторизовывался под учетной записью root. Теперь с работы я буду подключаться только так к домашнему полигону, а в случаях когда нужна консоль ноды можно будет переключиться на User name: root, Realm: Linux PAM standard authentication, т.к. только так есть доступ к самому серверу/ноде. https://lin.ekzorchik.ru/2020/01/02/access-to-proxmox-and-only-in-proxmox/ |
Задача: Проработать связку phpldapadmin + Proxmox Нужно это для того, чтобы все сервисы контролируемый у меня дома развернутые на HP MicroServer Gen8 имели единый центр доступа через учетные записи, по сути своя служба каталогов Active Directory, но не на Windows, а на Ubuntu 18.04 Server. К тому же сейчас январские праздники, значит есть время провести его с пользой. К тому же я себе для своего полигона на базе Proxmox 6 прикупил оперативной памяти: Модуль памяти CORSAIR Vengeance CMZ8GX3M1A1600C10 DDR3 — 8Гб 1600, DIMM, Ret x4 — а это более продуктивное тестирование. Ладно пора переходить к делу. Необходимые действия: |
Proxmox VE — Обновляемся с 5 до 6 версии |
Здравствуйте, Уважаемые читатели!
В июле 2019 года вышло обновление для Proxmox VE 6.0
Я не спешил с обновлением, ведь как известно “работает не трогай”. Но в итоге мой энтузиазм и понимание того, что не стоит сидеть на задворках развития системы, дали свои плоды. Я решил, что обновлению быть, чтобы система была в актуальном состоянии. Ведь существует риск того, что при переходах через версию, могут быть серьезные проблемы.
На тот момент пока я решился уже вышла версия Proxmox VE 6.1 в декабре 2019 года.
Что нового в 6 версии?
Оригинал – Roadmap#Proxmox_VE_6.1 | Roadmap#Proxmox_VE_6.0
Перевод – Релиз Proxmox VE 6.1 | Релиз Proxmox VE 6.0
Из основных примечательных изменений:
- Пакетная база синхронизирована с Debian 10.2
- Ядро Linux обновлено до версии 5.3
- Дополнительное ядро Linux 5.0 на основе пакетов из Ubuntu 19.04 с поддержкой ZFS
- Обновлены версии LXC до 3.2, QEMU до 4.1.1 и ZFS до 0.8.2;
- Разрешено применение файлов .img в качестве альтернативы образам .iso (хм… RouterOS CHR под The Dude без конвертации в qcow2 ?)
- Переработан интерфейс для просмотра логов
Остальное можете почитать в патчнотах.
Обновление с 5 на 6
Я начал обновление имея версию Virtual Environment 5.4-13
Обновление лучше всего проводить при непосредственном доступе к PVE. Т.е. или SSH, или IPMI на серверной материнке, или монитор и клавиатура.
Если работаете по SSH, запускайте команду в screen или tmux, иначе при обрыве связи можете получить нерабочую систему и придется все восстанавливать.
Отключаем все виртуальные машины, делаем бекап всей PVE системы или не делаете, если не боитесь.
Обновляемся до последней версии PVE 5
apt update
apt dist-upgrade -y
После процедуры обновления запускаем утилиту pve5to6. Пока никаких изменений не будет, это просто утилита для проверки готовности системы к обновлению.
Еще раз убедимся, что все виртуальные машины остановлены и продолжим.
pve5to6
Результат выполнения команды
= CHECKING VERSION INFORMATION FOR PVE PACKAGES =
Checking for package updates..
PASS: all packages uptodate
Checking proxmox-ve package version..
PASS: proxmox-ve package has version >= 5.4-2
Checking running kernel version..
PASS: expected running kernel '4.15.18-21-pve'.
= CHECKING CLUSTER HEALTH/SETTINGS =
SKIP: standalone node.
= CHECKING HYPER-CONVERGED CEPH STATUS =
SKIP: no hyper-converged ceph setup detected!
= CHECKING CONFIGURED STORAGES =
PASS: storage 'local' enabled and active.
PASS: storage 'local-backup' enabled and active.
PASS: storage 'local-zfs' enabled and active.
= MISCELLANEOUS CHECKS =
INFO: Checking common daemon services..
PASS: systemd unit 'pveproxy.service' is in state 'active'
PASS: systemd unit 'pvedaemon.service' is in state 'active'
PASS: systemd unit 'pvestatd.service' is in state 'active'
INFO: Checking for running guests..
PASS: no running guest detected.
INFO: Checking if the local node's hostname 'pve1' is resolvable..
INFO: Checking if resolved IP is configured on local node..
PASS: Resolved node IP '192.168.88.6' configured and active on single interface.
INFO: Check node certificate's RSA key size
PASS: Certificate 'pve-root-ca.pem' passed Debian Busters security level for TLS connections (4096 >= 2048)
PASS: Certificate 'pve-ssl.pem' passed Debian Busters security level for TLS connections (2048 >= 2048)
INFO: Checking KVM nesting support, which breaks live migration for VMs using it..
PASS: KVM nested parameter not set.
= SUMMARY =
TOTAL: 16
PASSED: 14
SKIPPED: 2
WARNINGS: 0
FAILURES: 0
Вы могли заметить, что я не использую Кластер и Ceph, потому два пункта у меня были пропущены при проверке.
Если вы выполняли установку по моей инструкции, то необходимо заменить в /etc/apt/sources.list и /etc/apt/sources.list.d/pve-no-subscription.list ветку обновлений со stretch на buster
Сделаем это с помощью команды sed
sed -i 's/stretch/buster/g' /etc/apt/sources.list
sed -i 's/stretch/buster/g' /etc/apt/sources.list.d/pve-no-subscription.list
Проверим командой cat
cat /etc/apt/sources.list
deb http://ftp.ru.debian.org/debian buster main contrib
deb http://ftp.ru.debian.org/debian buster-updates main contrib
# security updates
deb http://security.debian.org buster/updates main contrib
cat /etc/apt/sources.list.d/pve-no-subscription.list
# proxmox no subscriptions repo
deb http://download.proxmox.com/debian/pve buster pve-no-subscription
Далее стандартная процедура проверки обновления.
apt update
663 packages can be upgraded
И начала выполнения обновления до 6 версии.
apt dist-upgrade -y
Ждем скачивания и начала выполнения установки. Я ждал долго, видимо канал репозитория был ограничен.
Получаем уведомление и нажимаем Enter для продолжения
Предупреждение
Еще попросят подтвердить раскладку клавиатуры. Т.к. я работаю с английской, то оставил выбор на English (US)
Подтверждаем раскладку кливиатуры
Получаем уведомление с предложением изменения файла /etc/issue
Выбираем N
Поступает запрос на перезапуск сервисов. Соглашаемся на перезапуск.
Соглашаемся на перезапуск служб и сервисов
Т.к. у меня стояли еще дополнительные сервисы, появилось еще несколько запросов на обновление файлов конфигураций:
/etc/nginx/nginx.conf
/etc/default/snmpd
/etc/apt/sources.list.d/pve-no-subscription.list
Во всех случаях я ответил N т.к. менять ничего не собирался.
После окончания процесса установки, выполняем перезагрузку подав команду
reboot
Дожидаемся загрузки и проверяем систему. Видим новую версию в WEB GUI, что означает успешное обновление!
Версия изменилась
Убираем окно о подписке(снова)
Правда снова появляется окно предлагающее оформить подписку на платную тех.поддержку и enterprice репозиторий.
Нам это не нужно и мы снова подаем ряд команд, чтобы его убрать.
Делаем резервную копию файла
cp /usr/share/javascript/proxmox-widget-toolkit/proxmoxlib.js /usr/share/javascript/proxmox-widget-toolkit/proxmoxlib.js.bak
Меняем переменную
sed -i "s/getNoSubKeyHtml:/getNoSubKeyHtml_:/" /usr/share/javascript/proxmox-widget-toolkit/proxmoxlib.js
Теперь ничего не будет нам мешать.
Вот и весь процесс обновления Proxmox VE. Ничего сложного 🙂
Благодарю за ваше время!
Всего хорошего на просторах Интернета 😉
Выразить благодарность автору
Если Вам не безразлична судьба блога или Вы просто хотите отблагодарить Автора за его труд, смело переходите на страницу Поддержки, там описана вся информация, по тому, как это сделать. Заранее благодарен вам за данную инициативу!
Установка
— документация Proxmox Backup 0.9.6-1
Proxmox Backup разделен на серверную и клиентскую части. Серверная часть
может быть установлен либо с помощью графического установщика, либо поверх
Debian из предоставленного репозитория пакетов.
Системные требования
Мы рекомендуем использовать высококачественное серверное оборудование при запуске Proxmox Backup в
производство. Чтобы еще больше снизить влияние отказавшего хоста, вы можете настроить
периодическая, эффективная, инкрементная синхронизация хранилища данных
с других экземпляров Proxmox Backup Server.
Минимальные требования к серверу, для оценки
Эти минимальные требования предназначены только для целей оценки и не должны
используется в производстве.
- CPU: 64-битный ( x86-64 или AMD64 ), 2+ ядра
- Память (RAM): 2 ГБ RAM
- Жесткий диск: более 8 ГБ.
- Сетевая карта (NIC)
Рекомендуемые системные требования сервера
- ЦП: современный 64-разрядный ЦП AMD или Intel, минимум 4 ядра
- Память: минимум 4 ГиБ для ОС, кэша файловой системы и сервера Proxmox Backup Server
демоны.Добавьте хотя бы еще один ГиБ на место для хранения ТиБ. - Хранилище ОС:
- 32 ГиБ или более, свободное пространство для хранения
- Используйте аппаратный RAID с защищенным от батареи кешем записи ( BBU ) или
резервная настройка ZFS (ZFS несовместима с аппаратным RAID
контроллер).
- Хранилище резервных копий:
- Для наилучших результатов используйте только твердотельные накопители
- Если используются жесткие диски: настоятельно рекомендуется использовать кеш метаданных, например,
добавить зеркало специального устройства ZFS.
- Резервные сетевые карты (NIC) с пропускной способностью Multi-GBit / s
Поддерживаемые веб-браузеры для доступа к веб-интерфейсу
Для доступа к пользовательскому веб-интерфейсу сервера мы рекомендуем использовать один из
следующие браузеры:
- Firefox, выпуск текущего года или последний выпуск расширенной поддержки
- Chrome, выпуск текущего года
- Версия Edge
- Safari, выпуск текущего года
, поддерживаемая в настоящее время Microsoft
Репозитории пакетов Debian
Все системы на базе Debian используют APT в качестве инструмента управления пакетами.Списки
репозитории определены в /etc/apt/sources.list
и найдены файлы .list
в каталоге /etc/apt/sources.d/
. Обновления можно устанавливать напрямую
с помощью инструмента командной строки apt
или через графический интерфейс.
APT sources.list
файлов перечисляют по одному репозиторию пакетов в каждой строке, причем
предпочтительный источник указан первым. Пустые строки игнорируются, а символ #
в любом месте строки отмечает оставшуюся часть этой строки как комментарий.В
информацию, доступную из настроенных источников, получает apt
.
обновление
Файл: /etc/apt/sources.list
deb http://ftp.debian.org/debian buster main contrib deb http://ftp.debian.org/debian buster-updates основной вклад # обновления безопасности deb http://security.debian.org/debian-security buster / updates main contrib
Кроме того, вам потребуется репозиторий пакетов от Proxmox для получения обновлений Proxmox Backup.
На этапе бета-тестирования Proxmox Backup будет доступен только один репозиторий (pbstest).
имеется в наличии.После выпуска репозиторий Enterprise для производственного использования и
Репозиторий без подписки будет предоставлен.
SecureApt
Файлы Release в репозиториях подписаны GnuPG. APT использует
эти подписи, чтобы убедиться, что все пакеты получены из надежного источника.
Если вы устанавливаете Proxmox Backup Server из официального образа ISO,
ключ проверки уже установлен.
Если вы устанавливаете Proxmox Backup Server поверх Debian, загрузите и установите
ключ со следующими командами:
# wget http: // download.proxmox.com/debian/proxmox-ve-release-6.x.gpg -O /etc/apt/trusted.gpg.d/proxmox-ve-release-6.x.gpg
Затем проверьте контрольную сумму SHA512 с помощью:
# sha512sum /etc/apt/trusted.gpg.d/proxmox-ve-release-6.x.gpg
Результат должен быть:
acca6f416917e8e11490a08a1e2842d500b3a5d9f322c6319db0927b2901c3eae23cfb5cd5df6facf2b57399d3cfa52ad7769ebdd75d9b204549ca147da526/product/gtrus-dex-dx-dd-dd-bdd-d9-bd-d9-bd-bd-bd-bd-bd-bd-bd-bd-bd-bd-bd-bd-bd-bd-b.hd
и md5sum:
# md5sum / etc / apt / доверенный.gpg.d / proxmox-ve-release-6.x.gpg
Здесь вывод должен быть:
f3f6c5a3a67baf38ad178e5ff1ee270c /etc/apt/trusted.gpg.d/proxmox-ve-release-6.x.gpg
Бета-репозиторий Proxmox Backup
Во время публичной бета-версии есть репозиторий под названием pbstest
. Вот этот
содержит последние пакеты и активно используется разработчиками для тестирования новых
функции.
Вы можете получить доступ к этому репозиторию, добавив следующую строку в
/ etc / apt / sources.список
:
sources.list запись для pbstest
deb http://download.proxmox.com/debian/pbs buster pbstest
Если вы установили Proxmox Backup Server из официального ISO бета-версии, вы должны
этот репозиторий уже настроен в
/etc/apt/sources.list.d/pbstest-beta.list
Установка сервера
Сервер резервного копирования хранит фактические данные резервного копирования и предоставляет графический веб-интерфейс.
для различных задач управления, таких как управление дисками.
Примечание
Всегда нужен резервный сервер. Невозможно использовать
Proxmox Backup без серверной части.
Образ диска (файл ISO), предоставленный Proxmox, включает полную систему Debian
(«Buster» для версии 1.x), а также все необходимые пакеты для сервера Proxmox Backup.
Программа установки проведет вас через процесс установки и позволит
вы разбили локальный диск (-ы), примените базовые конфигурации системы
(например, часовой пояс, язык, сеть) и установите все необходимые пакеты.Предоставленный ISO поможет вам начать работу всего за несколько минут, и это
рекомендуемый метод для новых и существующих пользователей.
В качестве альтернативы сервер Proxmox Backup может быть установлен поверх
существующая система Debian.
Установите Proxmox Backup с помощью установщика
Загрузите ISO с https://www.proxmox.com/downloads.
В него входят:
- Установщик сервера Proxmox Backup, который разбивает локальную
диск (ы) с ext4, ext3, xfs или ZFS, и устанавливает операционную
система - Полная операционная система (Debian Linux, 64-разрядная версия)
- Наше ядро Linux с поддержкой ZFS
- Полный набор инструментов для управления резервными копиями и всеми необходимыми ресурсами
- Графический веб-интерфейс управления
Примечание
В процессе установки весь сервер
используется по умолчанию, и все существующие данные удаляются.
Установите сервер Proxmox Backup на Debian
Proxmox поставляется как набор пакетов Debian, которые можно установить поверх
стандартная установка Debian. После настройки
Репозитории пакетов Debian, вам необходимо запустить:
# apt-get update # apt-get install proxmox-backup-server
Приведенные выше команды сохраняют текущее ядро (Debian) и устанавливают минимальную
набор необходимых пакетов.
Если вы хотите установить тот же набор пакетов, что и установщик
делает, используйте следующее:
# apt-get update # apt-get install proxmox-backup
Это установит все необходимые пакеты, ядро Proxmox с ZFS
поддержка и набор общих и полезных пакетов.
Осторожно
Установка Proxmox Backup поверх существующего Debian
установка выглядит простой, но предполагает, что базовая система и локальная
Хранилище настроено правильно. В общем это нетривиально, особенно
когда используется LVM или ZFS. Конфигурация сети полностью зависит от вас
также.
Примечание
- Вы можете получить доступ к веб-интерфейсу Proxmox Backup Server с помощью
- в вашем веб-браузере, используя HTTPS на порту 8007. Например, на
https: //
Установите сервер Proxmox Backup на Proxmox VE
После настройки
Репозитории пакетов Debian, вам необходимо запустить:
# apt-get update # apt-get install proxmox-backup-server
Осторожно
Установка резервного сервера прямо на гипервизор
не рекомендуется.Безопаснее использовать отдельный физический
сервер для хранения резервных копий. В случае отказа сервера гипервизора вы можете
все еще доступ к резервным копиям.
Примечание
Вы можете получить доступ к веб-интерфейсу Proxmox Backup Server через Интернет.
браузер, используя HTTPS на порту 8007. Например, на https: //
Proxmox Linux VM базовый уровень
Последняя редакция 31 июля 2016 г.
Я хотел создать руководство по созданию базовой виртуальной машины Linux, которое можно было бы расширить для других руководств по приложениям, которые я планирую создать.Независимо от потребностей конкретных приложений, многие основные функции остаются неизменными, поэтому имеет смысл избегать повторения информации в каждом руководстве.
Мне лично нравится Debian, и в последнее время я использую дистрибутив CrunchBangPlusPlus, который построен на Debian Jessie и настроен с оконным менеджером Openbox, а также с рядом других полезных дополнений без излишнего раздувания. Я предпочитаю использовать облегченную установку Linux, которая помогает снизить требования к ресурсам до разумного минимума и снизить нагрузку на хост-машину.
Это руководство будет основано на моей базовой установке Proxmox 4.2, которая гарантирует, что базовая конфигурация хоста настроена правильно для поддержки надежного использования, включая инициируемые ИБП выключения, правильную синхронизацию времени в сети, отправку отчетов по электронной почте и т. Д.
Загрузить CrunchBangPlusPlus iso
Загрузите ISO-образ CrunchBangPlusPlus отсюда.
Загрузить ISO в Proxmox
Загрузите файл ISO в Proxmox.
- Перейдите в StorageView> DataCenter> Proxmox> Local (Proxmox), выберите Content и затем нажмите Upload.
- Выберите файл CrunchBangPlusPlus.ISO, который вы только что скачали, и нажмите «Загрузить», чтобы передать его на хост Proxmox.
- Перейдите в ServerView> DataCenter> Proxmox
- Щелкните «Create VM» в самой верхней строке меню.
Настройка виртуальной машины
- Узел = proxmox
- VM ID = уникальный ID номер
- Name = уникальное имя виртуальной машины
- Пул ресурсов = пусто
- Нажмите Далее
Настроить тип ВМ
- Выберите Linux 4.X / 3.X / 2.6 Ядро
- Нажмите Далее
Настройка источника образа ВМ
- Выберите Использовать образ диска CD / DVD (iso)
- Хранилище = локальное
- ISO-образ = Выделите CrunchBangPlusPlus.iso, который вы загрузили в Proxmox.
- Нажмите Далее
Настройка типа и емкости жесткого диска виртуальной машины
Выделите достаточно места, чтобы удовлетворить предполагаемые требования к виртуальной машине. Позже легко увеличить выделенное дисковое пространство, а уменьшить — немного сложнее.
- Шина = VirtIO, Устройство = 0
- Хранилище = local-lvm
- Размер диска (ГБ) = Требуемый размер диска
- Кэш — по умолчанию (без кеша)
- Нет резервной копии = []
- Сбросить = []
- поток ввода-вывода = []
- Нажмите Далее
Настройка ЦП ВМ
Распределите сокеты и ядра в зависимости от требований к обработке для предполагаемого назначения виртуальных машин.
- Розетки = Количество розеток
- Ядер = Количество ядер
- Включить NUMA = []
- Тип = По умолчанию (kvm64)
- Всего ядер = Сумма выделяемых ядер
- Нажмите Далее
Настройка конфигурации памяти ВМ
Выделите достаточно памяти для поддержки предполагаемой цели ВМ.Я лично предпочитаю тщательно управлять ресурсами моего хост-компьютера и установить пул памяти фиксированного размера
- Используемая память фиксированного размера
- Память (МБ) = Распределение памяти
- Нажмите Далее
Настройка конфигурации сети виртуальной машины
Согласно моему базовому руководству по установке, мои материнские платы 1gig NIC используются для обработки трафика Proxmox, такого как интерфейс управления, резервное копирование и т. Д., Это отображается как vmbr0 .Вторая 10-гигабайтная сетевая карта используется для трафика, специфичного для виртуальной машины, и отображается как vmbr10 и vmbr20 , представляя соответственно VLAN 10 (MGMT) и VLAN 20 (VPN LAN).
- Мостовой режим
- Тег VLAN = нет VLAN
- Мост = vmbr20
- Брандмауэр = []
- = VirtIO (паравиртуализированная)
- MAC-адрес = авто
- Ограничение скорости (МБ / с) = без ограничений
- Множественные очереди = пусто
- Отключить = []
- Нажмите Далее
Модель
Подтвердите правильность конфигурации виртуальной машины
Подтвердите детали и нажмите Готово, чтобы продолжить.
Через несколько секунд ваша виртуальная машина должна быть создана. Перейдите в ServerView> proxmox, где вы сможете выбрать новую виртуальную машину.
В заголовке ВМ нажмите Пуск, чтобы запустить ВМ.
Затем вы можете щелкнуть Консоль, и вам должно быть представлено другое окно с меню загрузки установщика Debian.
Установите Debian
CrunchBangPlusPlus построен на основе Debian, сейчас мы рассмотрим базовую установку Debian.
Выберите графическую установку
Выберите язык
Выберите предпочтительный язык установки и нажмите Продолжить
Выберите ваше местоположение
Выберите свое местоположение и нажмите Продолжить
Выбрать раскладку
Выберите раскладку клавиатуры и нажмите «Продолжить»
Некоторые файлы теперь будут скопированы на ваш загрузочный диск, а оборудование будет обнаружено и настроено…
Установить имя хоста
Введите имя хоста, в этом примере я использовал «crashplan».Нажмите «Продолжить», чтобы продолжить.
Настройка пользователя
Введите полное имя пользователя, в моем случае я использую «cp» в качестве системного пользователя и нажимаю «Продолжить»
Установить имя пользователя
Выберите имя пользователя для только что созданного пользователя. Я снова буду использовать «cp». Нажмите «Продолжить», чтобы продолжить.
Установить пароль
Выберите надежный пароль и введите его дважды. Нажмите «Продолжить», чтобы продолжить.
Установить часовой пояс
Установите желаемый часовой пояс и нажмите «Продолжить», чтобы продолжить.
Диски разделов
Теперь системный диск будет обнаружен, и мы можем начать разбиение на разделы. Учитывая предполагаемое использование этой базовой линии виртуальной машины, нет необходимости в каких-либо изысках. Мы будем использовать все выделенное дисковое пространство. Простая пошаговая установка позаботится о создании основного раздела и небольшого пространства подкачки. если вы начинаете замечать, что используется своп, вероятно, стоит увеличить объем оперативной памяти, чтобы уменьшить это.
Выберите Guided — используйте весь диск и нажмите Continue, чтобы продолжить
Выбрать диск
В нашей системе только один диск, поэтому выберите «vda» и нажмите «Продолжить», чтобы продолжить.
Выбрать схему разбиения
Мы продолжим и установим все файлы в один раздел. Нет необходимости усложнять эту настройку, учитывая ее ограниченное использование. Выберите «Все файлы в одном разделе» и нажмите «Продолжить», чтобы продолжить.
Подтверждение обзора
Убедитесь, что вас устраивает информация о разделах, и если да, нажмите «Продолжить», чтобы продолжить. Вы можете видеть, что система предоставила небольшое пространство подкачки 401,6 МБ, а остальная часть дискового пространства назначена основному разделу.
Выделите «Завершить разбиение на разделы и записать изменения на диск» и нажмите «Продолжить», чтобы продолжить.
Последнее подтверждение перед уничтожением содержимого диска, выберите «Да» и нажмите «Продолжить», чтобы продолжить.
Разбиение на разделы будет продолжено … После короткого ожидания мы можем перейти к настройке диспетчера пакетов.
Настроить диспетчер пакетов
Нам нужно будет постоянно обновлять нашу систему и устанавливать некоторые программы, поэтому настройте диспетчер пакетов, выделив область и нажав Продолжить, чтобы продолжить.
и снова выберите ближайшее к вам зеркало архива Debian.
Нажмите «Продолжить», чтобы продолжить.
Установить grub
Чтобы наша виртуальная машина загрузилась, нам нужно установить загрузчик grub на основной системный диск. Поскольку это единственная ОС, мы можем продолжить и установить ее в главную загрузочную запись. Выберите «Да» и нажмите «Продолжить», чтобы продолжить.
Выделите наш единственный диск «/ dev / vda» и нажмите «Продолжить», чтобы продолжить запись загрузчика grub на наш диск.
Установка завершена!
Поздравляем, теперь у вас есть базовая рабочая виртуальная машина Linux. Нажмите «Продолжить» для перезагрузки. CrunchBangPlusPlus должен загрузиться через экран входа в систему, где вы можете ввести свое имя пользователя и пароль для входа в среду рабочего стола.
На данном этапе у нас есть рабочий стол Linux. Вы можете видеть на экране информации о системе на заднем плане, что CrunchBangPlusPlus впечатляюще работает с менее чем 200 МБ ОЗУ и занимает 2.2 ГБ дискового пространства. Его можно уменьшить и дальше, но он настолько легкий, что я не думал, что оно того стоит.
Закройте окно cpbb-welcome или введите q, чтобы закрыть его. Конфигуратор предлагает несколько изящных дополнительных шагов настройки, но в основном они излишни для наших базовых требований. Однако важные шаги отражены в этом руководстве.
Щелкните правой кнопкой мыши рабочий стол CBPP и откройте окно терминала.
Позволяет установить пароль root. Не забудьте использовать надежный пароль для этой учетной записи.
Начнем с обновления нашей установки Debian.
sudo apt-get update
sudo apt-get dist-upgrade
Мне нравится возможность напрямую подключаться к моим виртуальным машинам по SSH, это может быть выполнено с помощью простой аутентификации по паролю или ключей SSH, которые более безопасны, но требуют немного больше работы.
Установить SSH
Установите SSH с помощью sudo apt-get install ssh
и запустите службу с помощью sudo /etc/init.d/ssh start
Пароль аутентификации
Чтобы дополнительно разрешить вход в систему с правами root.Очевидно, что это потенциальная проблема безопасности, поэтому подумайте, действительно ли вам это нужно. В противном случае вы можете войти в систему через обычного пользователя и перейти в систему с правами root с помощью команды su
.
Отредактируйте конфигурацию SSH с помощью sudo nano / etc / ssh / sshd_config
и отредактируйте строку PermitRootLogin
на
Перезапустить службу SSH
Введите sudo /etc/init.d/ssh restart
В окне терминала введите sudo nano / etc / ntp.conf
и отредактируйте раздел, в котором подробно описаны серверы NTP. Закомментируйте серверы по умолчанию, добавив перед ними хэш и свой локальный источник, в моем случае это мой маршрутизатор pfSense с IP-адресом 192.168.20.1.
# pool.ntp.org соответствует примерно 1000 NTP-серверам нижнего уровня. Ваш сервер будет
# выбирать новый набор каждый раз при его запуске. Пожалуйста, рассмотрите возможность присоединения к
# пул:
# сервер 0.debian.pool.ntp.org iburst
# сервер 1.debian.pool.ntp.org iburst
# сервер 2.debian.pool.ntp.org iburst
# сервер 3.debian.pool.ntp.org iburst
сервер 192.168.20.1 iburst
Перезапустите службу NTP с помощью sudo /etc/init.d/ntp restart
и убедитесь, что она правильно запущена с помощью sudo /etc/init.d/ntp status
.
Убедитесь, что ваш сервер синхронизируется правильно, введя ntpq -p
, например
$ нтпк -п
удаленный refid st t при достижении опроса задержка смещения задержки
================================================== ============================
* 192.168.20.1 198.60.22.240 2 u 10 256 377 0,213 1,114 0,127
«*» рядом с удаленным адресом означает, что системные часы синхронизируются с часами NTP.
Хосту Promxmox требуется возможность правильно и безопасно выключать виртуальные машины. Это достигается с помощью команд ACPI. Без установленного и настроенного ACPI Proxmox не может инициировать безопасное завершение работы виртуальной машины либо автоматически из-за события UPS, либо из-за взаимодействия пользователя с интерфейсом Proxmox.Без правильно настроенного ACPI вы увидите ошибки в списке задач виртуальной машины, например
ОШИБКА ЗАДАЧИ: команда '/ bin / nc6 -l -p 5900 -w 10 -e' / usr / sbin / qm vncproxy 103 2> / dev / null '' не выполнена: код выхода 1
Установить необходимое программное обеспечение
Введите команду sudo apt-get install acpi-support
, чтобы установить поддержку ACPI.
Изменить сценарий выключения
Мы отредактируем событие кнопки питания, чтобы инициировать команду выключения. Введите sudo nano / etc / acpi / events / powerbtn-acpi-support
и отредактируйте файл, чтобы он содержал.
событие = кнопка [/] питание
действие = / sbin / shutdown -h -P сейчас
, затем запустите службу, введя sudo /etc/init.d/acpid start
, например
$ sudo /etc/init.d/acpid start
[ok] Запуск acpid (через systemctl): acpid.service.
, вы можете проверить, правильно ли он запустился, введя sudo /etc/init.d/acpid status
, например
$ sudo /etc/init.d/acpid status
● acpid.service - демон событий ACPI
Загружен: загружен (/ lib / systemd / system / acpid.оказание услуг; отключен)
Активен: активен (работает) с сб. 23.07.2016 18:01:55 EDT; 50-е годы назад
Основной PID: 443 (acpid)
CGroup: /system.slice/acpid.service
└─443 / usr / sbin / acpid
23 июля, 18:01:55 crashplan acpid [443]: запуск с netlink и входным слоем
23 июля 18:01:55 crashplan acpid [443]: загружено 27 правил.
23 июля 18:01:55 crashplan acpid [443]: ожидание событий: регистрация событий отключена
Проверить сценарий выключения
Вы должны попытаться инициировать завершение работы клиента виртуальной машины из пользовательского интерфейса Proxmox и убедиться, что все работает правильно.Будем надеяться, что виртуальная машина выключится быстро и четко сообщит «ОК» в журнале событий, а не предыдущую «Ошибка, выход виртуальной машины / сбой при отключении питания».
Если у вас возникли проблемы, возможно, вам потребуется перезапустить службу, введя sudo /etc/init.d/acpid start
N.B: Ввиду важности надлежащих процедур выключения во время отключения электроэнергии я рекомендую проверить полный стек выключения ИБП, чтобы убедиться, что он работает должным образом.
Изначально я установил свои общие ресурсы через fstab, но это вызвало у меня некоторые проблемы.По моему опыту, похоже, что fstab запускается до того, как сеть полностью заработает и будет готова принимать попытки подключения, и поэтому некоторые папки могут не подключаться правильно. У меня были некоторые проблемы с этим при настройке моей виртуальной машины Crashplan, и я нашел решение autofs гораздо более надежным решением.
Я сосредоточусь здесь на одной конкретной папке под названием «Данные», но ее должно быть легко экстраполировать при необходимости.
Предварительные требования для установки
Установите пакеты autofs, CIFS и smbclient с помощью следующей команды.
sudo apt-get install autofs smbclient cifs-utils
Проверьте SMB, запустив smbclient -L
, где hostname — это, например, имя вашего сервера, на котором размещены общие ресурсы.
$ smbclient -L freenas
Домен = [WORKGROUP] OS = [Windows 6.1] Сервер = [Samba 4.3.6-GIT-UNKNOWN]
Имя общего доступа Тип Комментарий
--------- ---- -------
Диск с данными
IPC $ IPC Сервис IPC (FreeNAS Server)
Домен = [WORKGROUP] ОС = [Windows 6.1] Сервер = [Samba 4.3.6-GIT-UNKNOWN]
Комментарий сервера
--------- -------
Сервер FREENAS FreeNAS
NGUVUWIN8 Win8
Мастер рабочей группы
--------- -------
РАБОЧИЕ ГРУППЫ FREENAS
Настроить autofs
Отредактируйте главный файл конфигурации autofs, введя sudo nano /etc/auto.master
Добавьте в конец файла следующее: / mnt /etc/auto.smb-shares
, поэтому файл выглядит так
# Образец авто.основной файл
# Это карта автомонтирования и имеет следующий формат
# ключ [-mount-options-separated-by-comma] расположение
# Подробную информацию о формате смотрите в autofs (5).
#
# / misc /etc/auto.misc
#
# ПРИМЕЧАНИЕ: монтирования, выполненные с карты хостов, будут монтироваться с
# параметры "nosuid" и "nodev", если только "suid" и "dev"
# опции явно указаны.
#
# / net -hosts
#
# Включите /etc/auto.master.d/*.autofs
#
+ каталог: /etc/auto.master.d
#
# Включите центральную мастер-карту, если ее можно найти с помощью
# nsswitch sources.#
# Обратите внимание, что если есть записи для / net или / misc (как
# выше) во включенной главной карте любые ключи, которые
# то же самое не будет видно, поскольку первый увиденный ключ чтения принимает
# приоритет.
#
+ auto.master
/ mnt /etc/auto.smb-shares
Файл учетных данных
Чтобы избежать сохранения имени пользователя и паролей общих папок в файле конфигурации, мы создадим файл учетных данных в папке user
, введя sudo nano /home/
.Замените
именем вашего текущего пользователя.
Этот файл должен быть заполнен только именем пользователя и паролем, используемыми для доступа к общей папке, без пробелов по обе стороны от знака «=». Например
имя пользователя = nguvu
пароль = mystrongpassword
Уменьшите права доступа к этому файлу, введя sudo chmod 600 /home/
. Снова замените
на имя вашего текущего пользователя.
Вам понадобится файл учетных данных для каждой доступной вам общей папки, у которой разные имя пользователя и пароль.
Настроить акции
Теперь мы создадим файл конфигурации, который определяет папки, которые мы хотим, чтобы autofs монтировал для нас, введя sudo nano /etc/auto.smb-shares
Введите в этот файл следующую строку
Data -fstype = cifs, ro, credentials = / home / /.smbcredentials: // freenas / Data
Данные
— это имя папки, к которой относится строка.
fstype
— это тип файловой системы общего доступа, в нашем случае CIFS
ro
монтирует общий ресурс как доступный только для чтения, rw
будет монтировать как чтение / запись
учетные данные
указывает файл, содержащий имя пользователя и пароль для использования для авторизации. Обратите внимание, что вы не можете использовать «~» здесь для обозначения домашней папки пользователя.
: // freenas / Data
— сетевое расположение общего ресурса
Должно быть достаточно просто экстраполировать эту строку на другие общие ресурсы, к которым вы хотите получить доступ.
Запуск и проверка autofs
Запустите autofs, введя sudo /etc/init.d/autofs start
и подтвердив его статус с помощью sudo /etc/init.d/autofs status
$ sudo /etc/init.d/autofs start
[ok] Запуск autofs (через systemctl): autofs.service.
$ sudo /etc/init.d/autofs статус
● autofs.service - LSB: автоматическое монтирование файловых систем по запросу.
Загружено: загружено (/etc/init.d/autofs)
Активен: активен (работает) с Sun 2016-07-24 00:04:54 EDT; 31мин назад
CGroup: / system.slice / autofs.service
└─1998 / usr / sbin / automount --pid-file /var/run/autofs.pid
24 июля, 00:04:54 crashplan autofs [1993]: Запуск автомонтирования ....
Теперь убедитесь, что у нас есть доступ к настроенному каталогу,
$ cd / mnt / Данные
$ ls -l
всего 0
drwxrwxrwx 283 root root 0 ноя 15 2015 приложения
drwxrwxrwx 2 root root 0 17 июля 19:43 FreeNAS
drwxrwxrwx 7 root root 0 18 октября 2014 Linux
drwxrwxrwx 122 root root 0 17 июля, 19:41 Приложения для Macintosh
drwxrwxrwx 4 root root 0 17 июл 19:45 pfSense
drwxrwxrwx 3 2001 root 0 17 июл 19:33 Proxmox
Папка / mnt / Data отключится после определенного периода активности, но будет повторно подключаться всякий раз, когда это потребуется пользователю или приложению.
Отладка
Если вам необходимо получить дополнительную информацию о том, что происходит с autofs, вы можете включить подробный вход, отредактировав файл / etc / default / autofs
и установив в строке LOGGING значение VERBOSE
OR DEBUG
.
Руководство по установке Debian GNU / Linux
Proxmox
- Установить [14]
- КВМ
- OpenVZ
- Xen
- XenServer
- LXC
- OpenVZ 7
- Proxmox
- Virtuozzo
- Главный сервер
- Добавить сервер
- Мастер миграции
- Мульти виртуализация
- ZFS
- Руководство по импорту SolusVM
- Администратор [85]
- Создание VPS
- Управление VPS
- Добавить новое хранилище
- Мост KVM
- Создать шаблон ОС
- Высокая доступность
- Добавить шаблон ОС
- Планы резервного копирования
- Биллинг [1]
- Параметры выставления счетов
- Восстановление резервных копий VPS
- Резервные копии баз данных
- Руководство по импорту Proxmox
- Импорт в Virtualizor XenServer
- Настройки Xen
- PowerDNS
- Настроить PowerDNS
- Настроить обратный DNS
- LetsEncrypt
- Тонкая настройка EMPS
- VLAN
- Двухфакторная аутентификация (панель администратора)
- Стандартные веб-порты
- NoVNC
- Добавить дополнительный компакт-диск
- Спасательный режим
- Войдите в VPS из панели администратора
- Немедленное обновление
- Добавление плана
- Подсети IPv6
- Внутренняя сеть
- Добавить пул IP
- NAT
- Группы серверов
- Добавить IP
- Добавить сертификат SSL
- Заметки администратора
- Администратор ACL
- Изменить лицензию IP
- Обновить Virtualizor
- Изменение порядка загрузки
- Клон VPS
- Настройка параметров электронной почты
- Раскладки клавиатуры
- Настройка темы
- Отключить флаги DD
- Hetzner Дополнительные IP-адреса
- Импорт OpenVZ VPS
- Libguestfs CentOS 7.3 исправления
- Перегрузка памяти
- Процессы
- ППС
- Готовые шаблоны ОС
- Рецепты
- Обновить лицензию
- Ремонтная база данных
- Сброс ключей API
- Восстановить базу данных
- Ограничить панель администратора
- Кластеризация серверов
- Обновление лицензии VPS
- Частная лицензия
- Бессрочная лицензия
- Использование диска сервера
- Статистика сервера
- Услуги
- Tun Tap
- Статистика VPS
- Миграция графического интерфейса
- Настройка OVH
- Группы томов
- Миграция QCOW2
- Миграция контейнера OpenVZ
- Переход с Parallels Virtuozzo
- Добавить пользователя
- Управление ISO
- Шаблоны ОС
- Управление переадресацией домена VPS
- Как сделать языковой пакет
- Добавить ISO
- Webuzo
- Универсальный поиск
- Основные настройки
- Настройки ведомого
- Удалить резервную копию на VPS удалить
- Биллинг [13]
- Модуль WHMCS
- Модуль WHMCS для торговых посредников
- Модуль WHMCS для создания учетных записей посредников
- Модуль лицензирования WHMCS
- Крючок для лицензирования WHMCS
- WHMCS Преобразование V1 в V2
- Блеста Модуль
- Рекапча
- Virtualizor Облачная биллинговая система
- Опыт конечного пользователя в облачном биллинге
- Интегрировать платежный шлюз
- Покупка лицензии Virtualizor
- Пробная лицензия Virtualizor
Модуль
- Конечный пользователь [23]
- Список VPS
- Управление VPS
- Изменить пароль учетной записи
- Изменить имя хоста
- Переустановите ОС
- Двухфакторная аутентификация (панель конечного пользователя)
- Конечный пользователь ISO
Переход с Ubuntu ZFS + VirtualBox на Proxmox VE — CareTech Computing
Несколько лет назад я построил клиентский сервер для размещения нескольких виртуальных машин и управления большим пулом хранения для задач NAS, хранилища резервных копий и т. Д.В то время я выбрал Ubuntu Server 14.04 LTS в качестве хост-системы, отчасти потому, что я был знаком с Ubuntu Server, но во многом потому, что Ubuntu с большей готовностью поддерживал ZFS, чем другие дистрибутивы. Для наших потребностей в хранилище я установил четыре жестких диска Western Digital Red емкостью 3 ТБ и настроил массив RAIDZ2 (чтобы любые два диска могли выйти из строя сразу без потери данных), используя ZFS для Ubuntu. Судя по всему, ZFS теперь включена в официальные репозитории Ubuntu, что неплохо; Я помню, что мне приходилось получать его от PPA. Во всяком случае, чтобы заставить ZFS работать, понять ее основы и настроить пулы хранения, я сильно опирался на звездную документацию, предоставленную Аароном Топонсе.
Тогда я выбрал VirtualBox в качестве хоста виртуализации, опять же из-за того, что он знаком и прост в использовании. Для управления VirtualBox вам нужен графический интерфейс, поэтому я установил LXDE на сервер Ubuntu для простого и легкого графического интерфейса. Когда я построил сервер, я выбрал материнскую плату SuperMicro с IPMI, чтобы я мог управлять этим сервером из любой точки сети, как если бы я физически сидел перед ним.
В целом, эта система работала хорошо и делала то, что предполагалось; но со временем различные факторы заставили меня переосмыслить свою стратегию и захотеть повторить ее.Во-первых, по какой-то причине я никогда не разбирался, моя хост-система Ubuntu произвольно перезагружалась. Это расстраивало и довольно раздражало, потому что, когда он отключается для перезагрузки, все пять виртуальных машин, которые он размещает, конечно же, отключаются. Мой почтовый сервер, моя АТС и несколько других хостов были внезапно недоступны во время перезагрузки системы — и это могло быть в любой час дня или ночи. Время между нежелательными перезагрузками может составлять три дня или три недели. Обычно виртуальные машины восстанавливаются сами по себе, но не всегда; и у сервера был странный способ выбрать самые неподходящие моменты, чтобы бросить проблемы.(Обычно, когда я уезжал с семьей в поездку или был вне офиса в течение дня и должен был делать что-то, кроме работы за компьютером!) Однажды должно было быть обновление ядра, которое не позволило запустить необходимую ZFS модуль обновляется, и после одной из этих случайных перезагрузок при подключении хоста zpool был недоступен. Мне пришлось перезагрузиться и выбрать более старое ядро, чтобы все снова заработало. Поговорим о сильном давлении с последующим сильным облегчением! Так что я устал от необходимости присматривать за сервером, никогда не зная, когда он выберет перезагрузку из ясного голубого неба и потребует немного внимания.
Также казалось немного глупым запускать полную операционную систему только для того, чтобы действовать как хост для других машин … Мне нужна была живая резервная копия всего сервера, на которую я мог бы переключиться, если мне когда-нибудь понадобится … Я хотел способ надежное резервное копирование моих виртуальных машин, возможность быстро развернуть резервную копию любой машины в случае сбоя оборудования или данных … Хотя все это, вероятно, можно было бы сделать за несколько часов установки пакетов и редактирования файла конфигурации (не говоря уже о кучах часов на DuckDuckGo, форумах и вики), у меня нет много свободного времени, чтобы возиться с чем-то вроде этого, и он просто должен работать надежно.Мне стал нужен графический веб-интерфейс для управления моими пулами хранения, виртуальными машинами, моментальными снимками, репликацией и многим другим. Proxmox казался идеально подходящим.
Но что это за работа по переносу нескольких терабайт данных и примерно полдюжины виртуальных машин с Ubuntu / VirtualBox на Proxmox? Как и в любой другой работе, это шаг за шагом: и, как и любая другая работа в ИТ, все заключается в том, чтобы не сжечь мосты, поэтому, если что-то взорвется, вы можете вернуться к предыдущей конфигурации и разработать лучшую стратегию миграции.Когда что-то идет не так, как планировалось, возможность быстро вернуться к прежней конфигурации и повторить попытку — это непередаваемое снятие стресса!
- Сначала я удалил моментальные снимки виртуальной машины VirtualBox, чтобы файлы виртуального жесткого диска содержались в одном файле, а не распределялись по нескольким файлам; когда мы перейдем к преобразованию файлов VDI в формат, совместимый с Proxmox, мы захотим, чтобы они были всего одним файлом, а не распределены по нескольким разностным изображениям. Для этого выберите виртуальную машину и нажмите кнопку «Снимки»; выберите по одному снимку за раз и нажмите кнопку «Удалить» на панели инструментов.Согласно этому потоку, не имеет значения, в каком порядке вы удаляете снимки, хотя может быть быстрее начать сначала снизу. (Не уверен, что «нижний» означает сначала самый старый или буквально означает «нижний конец списка».) Объединение разностных изображений может занять некоторое время, так что наберитесь терпения — и найдите что-нибудь еще, чем можно заняться, пока вы ждете.
- На всякий случай я сделал резервную копию всего тома ZFS на другой машине. Это заняло несколько часов и заняло много места на целевой машине; но я был параноиком по поводу потери данных.
- Теперь пришло время экспортировать zpool и выключить сервер Ubuntu. Экспорт в основном закрывает все операции чтения-записи и отключает пул от системы, чтобы его можно было импортировать на другой хост позже. В этой статье представлены отличные сведения об экспорте и импорте ZFS. Я никогда физически не перемещал том ZFS с одного сервера на другой и немного нервничал по этому поводу. Мой пул zfs называется «пещерой», поэтому я выполнил эту команду:
zpool экспортная каверна
Я получил сообщение с жалобой на то, что одну из файловых систем в пуле не удалось размонтировать; ZFS отказалась экспортировать том.Я попробовал использовать флаг -f, чтобы принудительно выполнить экспорт, но без особого успеха. Не зная, как еще освободить том для размонтирования, я перезагрузил сервер, сразу же вошел в систему и снова попробовал «zpool exoprt cavern»; на этот раз это сработало. Запущенный «zfs list» теперь не показывает активных пулов zfs.
- Когда все это было сделано, пришло время установить Proxmox. Я выключил сервер и установил новый SSD для системного диска, чтобы я мог быстро вернуться к Ubuntu с простой заменой жесткого диска на случай, если что-то испортится — помните, не сжигайте мосты! — и установил Proxmox с флешки.Сама установка прошла очень гладко и быстро, за исключением проблемы с графическим установщиком, который не любил SuperMicro VGA: установщик Proxmox VE показывал условия лицензии и кнопку Прервать, но в правой части экрана, где Принять / Далее / Кнопки продолжения должны были быть, были отрезаны; так что через установщик щелкнуть было невозможно. Это ставило меня в тупик, пока я не нашел совет на форумах Proxmox: используйте Alt + N для следующего и т. Д. N не работал на экране лицензии, поэтому я нажимал кнопки, пока он не продолжился.Я попробовал Alt + O для ОК; Alt + Y для Да; Alt + C для принятия (A уже используется для отмены, поэтому избегайте этого!). Я забыл, какой из них действительно помог, но после того, как условия лицензии были согласованы, Alt + N продвинул меня через установщик. Достаточное количество экрана показало, что я могу выбрать часовой пояс и некоторые другие важные детали. Установка прошла очень быстро, и в качестве последнего шага нужно было перезагрузить систему (я думаю, что на этот раз Alt + R сработал).
- Момент истины: можем ли мы импортировать zpool? После перезагрузки я зашел в терминал с именем пользователя root и паролем, указанным при установке.Эта команда завершилась почти мгновенно:
ZFS импорт каверна
Ошибок нет! Неужели это так просто? Посмотрим, что происходит:
zfs список
И — красивое зрелище — там был zpool, как и в системе Ubuntu. Были установлены различные файловые системы; пул был смонтирован в / cavern так же, как и в Ubuntu. Так быстро весь том ZFS был активен в новой операционной системе, все файлы были полностью нетронутыми. Очевидно, переместить том ZFS проще, чем переместить жесткий диск и установить его на другой компьютер.Очень впечатляюще!
- Чтобы сделать наше хранилище ZFS доступным для Proxmox, нам нужно добавить его в графический интерфейс. Используя веб-браузер с рабочей станции в сети, направьте запрос HTTPS через порт 8006 на IP-адрес сервера Proxmox. Например, если вашему хосту Proxmox назначен IP-адрес 192.168.5.200, ваш адрес будет выглядеть так:
https://192.168.5.200:8006
Продолжайте после предупреждения о самозаверяющем сертификате и войдите в систему с именем пользователя «root» и паролем, указанным во время установки.Выберите «Datacenter» в левом столбце, затем щелкните вкладку «Хранилище» справа от нее; на панели инструментов щелкните раскрывающееся меню Добавить и выберите ZFS. Дайте новому хранилищу описательный идентификатор (я назову свой «vms» и выберите пул ZFS, который вы хотите использовать.
Я тоже купил лицензию и применил. Это несложно выяснить, и как только лицензионный ключ будет отправлен вам по электронной почте, его легко применить, щелкнув хост Proxmox (узел под «Datacenter» в дереве слева), а затем щелкнув вкладку «Подписка»; затем нажмите Загрузить ключ подписки.
Когда Proxmox запущен и наш том ZFS доступен, пришло время создать виртуальные машины и импортировать файлы изображений VirtualBox. Это будет тема следующей статьи Proxmox, которая выйдет в ближайшее время.
Как подключить виртуальную машину к Интернету с помощью Proxmox VE — статьи
Proxmox VE (виртуальная среда) — это сервер с открытым исходным кодом на основе Debian, который позволяет системным администраторам развертывать виртуальные машины (виртуальные машины) и контейнеры и управлять ими. В этой статье мы рассмотрим подключение виртуальной машины Proxmox к Интернету.
Предварительные требования
- Выделенный сервер под управлением Proxmox VE
- Failover IP через OVHcloud
Темы
Создание виртуального MAC-адреса для резервного IP-адреса с помощью OVHcloud Manager
В этом разделе мы создадим адрес vMAC (виртуальный MAC), который будет использоваться сетевым адаптером (сетевой интерфейсной картой), который Proxmox создает для виртуальной машины. Для начала войдите в OVHcloud Manager. На левой боковой панели выберите опцию IP .
Выберите IP-адрес аварийного переключения, который вы хотите настроить для своей виртуальной машины, и нажмите кнопку с многоточием ( … ) справа от него. Затем выберите опцию Добавить виртуальный MAC из раскрывающегося меню.
Во всплывающем меню установите «Тип» на «ovh» и введите имя своей виртуальной машины.
Наконец, нажмите кнопку Подтвердить , чтобы начать создание адреса vMAC.
Примечание: Подождите до трех минут, пока vMAC заполнится в OVHcloud Manager.
Добавление виртуального MAC-адреса к сетевой карте виртуальной машины в Proxmox VE
На этом этапе мы будем связывать адрес vMAC, который мы создали в предыдущем разделе, с интерфейсом, который Proxmox назначил виртуальной машине.
Предупреждение: Следующие инструкции применимы к ранее созданной виртуальной машине с уже установленной ОС. Если вы еще не создали виртуальную машину, просмотрите параметры на странице виртуальной машины Qemu / KVM от Proxmox, создайте виртуальную машину и установите ОС.
Для выполнения этого шага виртуальная машина должна быть выключена.
В Proxmox перейдите в раздел «Оборудование» виртуальной машины, которую вы хотите подключить к Интернету:
Отсюда нажмите Сетевое устройство вариант:
Затем нажмите кнопку Изменить . В поле «MAC-адрес:» введите адрес vMAC, созданный в предыдущем разделе:
Затем запустите виртуальную машину, поскольку теперь вы готовы к настройке сетевого интерфейса.Запустите виртуальную машину, поскольку теперь вы готовы к настройке сетевого интерфейса. На следующем этапе мы настроим сетевые параметры в ОС нашей виртуальной машины. Эти шаги могут отличаться в зависимости от используемой вами ОС. Щелкните правильную ссылку ниже, чтобы перейти к инструкциям для выбранной вами ОС:
Debian 10 | Ubuntu 18.04 | Ubuntu 16.04 | CentOS 7 | CentOS 6.x | Windows Server 2019
Настройка сетевых параметров на виртуальной машине Debian 10
На этом этапе мы настроим параметры нашего интерфейса.Для этого необходимо сначала открыть файл конфигурации интерфейса. Сделайте это в любом текстовом редакторе с помощью следующей команды:
$ sudo vi / и т.д. / сеть / интерфейсы
Отредактируйте файл интерфейсов, чтобы он выглядел следующим образом:
# Этот файл описывает сетевые интерфейсы, доступные в вашей системе # и как их активировать. Для получения дополнительной информации см. Interfaces (5).
source /etc/network/interfaces.d/*
# Петлевой сетевой интерфейс авто лоу iface lo inet loopback # Основной сетевой интерфейс авто Ens192 iface ens192 inet static адрес 192.0.2.1 маска сети 255.255.255.0 шлюз 203.0.113.254 DNS-серверы 208.67.222.222 208.67.220.220
В этом файле замените следующую информацию в соответствии с инструкциями:
- 1. Если вы не знаете имя своего интерфейса, вы можете найти его с помощью следующей команды:
$ ip добавить
- 2. Рядом с «адресом» замените «192.0.2.1» на IP-адрес аварийного переключения, к которому вы добавили vMAC в OVHcloud Manager.
- 3. Рядом с «шлюзом» заменить «203.0,113 «с первыми тремя октетами IP-адреса вашего выделенного сервера с последним октетом» 254 «. Например, если IP-адрес вашего выделенного сервера был 1.2.3.4, вы должны использовать 1.2.3.254 в качестве шлюза.
- 4. Перечисленные DNS-серверы относятся к OpenDNS. Не стесняйтесь использовать другие серверы имен, если захотите.
Теперь вам нужно будет подключить сетевой адаптер. Для этого введите следующую команду:
$ sudo набор IP-ссылок ens192 вверх
Наконец, перезапустите сетевую службу с помощью следующей команды:
$ sudo systemctl перезапуск сети
Чтобы проверить, что виртуальная машина полностью подключена к Интернету, выполните команду ping.com. Если вы получили ответ, можете начинать. Если вы этого не сделаете, перезапустите виртуальную машину и повторите попытку проверки связи.
Настройка сетевых параметров в виртуальной машине Ubuntu 18.04
Canonical, разработчик Ubuntu, реализовал использование
ИгорьШагаев : 22.06.2015 : 1 |
| ||||||
! | |||||||
треугольник : 13.02.2007 : 7 |
| ||||||
ИгорьШагаев : 22.06.2015 : 1 |
| ||||||
треугольник : 13.02.2007 : 7 |
| ||||||
ИгорьШагаев : 22.06.2015 : 1 |
| ||||||
WingDog Windows guru : 23.10.2002 : 276 |
| ||||||
треугольник : 13.02.2007 : 7 |
| ||||||
ИгорьШагаев : 22.06.2015 : 1 |
| ||||||
WingDog Windows guru : 23.10.2002 : 276 |
| ||||||
ИгорьШагаев : 22. |