Замена диска в raid 1: Как заменить диск в RAID 1? — Хабр Q&A
Как заменить диск в RAID
Допустим, у сервера 2 диска: /dev/sda и /dev/sdb. Эти диски собраны в софтверный RAID1 с помощью утилиты mdadm --assemble
.
Один из дисков вышел из строя, например, это /dev/sdb. Повержденный диск нужно заменить.
Примечание: перед заменой диска желательно убрать диск из массива.
Удаление диска из массива
Проверьте, как размечен диск в массиве:
cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sda3[0] sdb3[1]
975628288 blocks super 1.2 [2/2] [UU]
bitmap: 3/8 pages [12KB], 65536KB chunk
md0 : active raid1 sda2[2] sdb2[1]
999872 blocks super 1.2 [2/2] [UU]
unused devices: <none>
В данном случае массив собран так, что md0 состоит из sda2 и sdb2, md1 — из sda3 и sdb3.
На этом сервере md0 — это /boot, md1 — своп и корень.
lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
loop0 7:0 0 985M 1 loop
sda 8:0 0 931.5G 0 disk
├─sda1 8:1 0 1M 0 part
├─sda2 8:2 0 977M 0 part
│ └─md0 9:0 0 976.4M 0 raid1
└─sda3 8:3 0 930.6G 0 part
└─md1 9:1 0 930.4G 0 raid1
├─vg0-swap_1 253:0 0 4.8G 0 lvm
└─vg0-root 253:1 0 925.7G 0 lvm /
sdb 8:16 0 931.5G 0 disk
├─sdb1 8:17 0 1M 0 part
├─sdb2 8:18 0 977M 0 part
│ └─md0 9:0 0 976.4M 0 raid1
└─sdb3 8:19 0 930.6G 0 part
└─md1 9:1 0 930.4G 0 raid1
├─vg0-swap_1 253:0 0 4.8G 0 lvm
└─vg0-root 253:1 0 925.7G 0 lvm /
Удалите sdb из всех устройств:
mdadm /dev/md0 --remove /dev/sdb2
mdadm /dev/md1 --remove /dev/sdb3
Если разделы из массива не удаляются, то mdadm не считает диск неисправным и использует его, поэтому при удалении будет выведена ошибка, что устройство используется.
В этом случае перед удалением пометьте диск как сбойный:
mdadm /dev/md0 -f /dev/sdb2
mdadm /dev/md1 -f /dev/sdb3
Снова выполните команды по удалению разделов из массива.
После удаления сбойного диска из массива запросите замену диска, создав тикет с указанием s/n сбойного диска. Наличие downtime зависит от конфигурации сервера.
Определение таблицы разделов (GPT или MBR) и ее перенос на новый диск
После замены поврежденного диска нужно добавить новый диск в массив. Для этого надо определить тип таблицы разделов: GPT или MBR. Для этого используется gdisk.
Установите gdisk:
apt-get install gdisk -y
Выполните команду:
gdisk -l /dev/sda
Где /dev/sda — исправный диск, находящийся в RAID.
Для MBR в выводе будет примерно следующее:
Partition table scan:
MBR: MBR only
BSD: not present
APM: not present
GPT: not present
Для GPT примерно следующее:
Partition table scan:
MBR: protective
BSD: not present
APM: not present
GPT: present
Перед добавлением диска в массив на нем нужно создать разделы в точности такие же, как и на sda. В зависимости от разметки диска это делается по-разному.
Обратите внимание! Первым пишется диск, на который копируется разметка, а вторым — с которого копируют. Если перепутать их местами, то разметка на изначально исправном диске будет уничтожена.
Копирование разметки для GPT
Для копирования разметки GPT:
sgdisk -R /dev/sdb /dev/sda
Присвойте диску новый случайный UUID:
sgdisk -G /dev/sdb
Обратите внимание! Здесь первым пишется диск, с которого переносим разметку, а вторым — на который переносим.
Копирование разметки для MBR
Для копирования разметки MBR:
sfdisk -d /dev/sda | sfdisk /dev/sdb
Если разделы не видны в системе, то можно перечитать таблицу разделов командой:
sfdisk -R /dev/sdb
Добавление диска в массив
Если на /dev/sdb созданы разделы, то можно добавить диск в массив:
mdadm /dev/md0 -a /dev/sdb2
mdadm /dev/md1 -a /dev/sdb3
После добавления диска в массив должна начаться синхронизация. Скорость зависит от размера и типа диска (ssd/hdd):
cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sda3[1] sdb3[0]
975628288 blocks super 1.2 [2/1] [U_]
[============>........] recovery = 64.7% (632091968/975628288) finish=41.1min speed=139092K/sec
bitmap: 3/8 pages [12KB], 65536KB chunk
md0 : active raid1 sda2[2] sdb2[1]
999872 blocks super 1.2 [2/2] [UU]
unused devices: <none>
Установка загрузчика
После добавления диска в массив нужно установить на него загрузчик.
Если сервер загружен в нормальном режиме или в infiltrate-root (в примере мы зашли в него ранее), то это делается одной командой:
grub-install /dev/sdb
Если сервер загружен в recovery или rescue-режиме (т.е. с live cd), то для установки загрузчика:
Смонтируйте корневую файловую систему в /mnt:
mount /dev/md2 /mnt
Смонтируйте boot:
mount /dev/md0 /mnt/boot
Смонтируйте /dev, /proc и /sys:
mount --bind /dev /mnt/dev mount --bind /proc /mnt/proc mount --bind /sys /mnt/sys
Выполните chroot в примонтированную систему:
chroot /mnt
Установите grub на sdb:
grub-install /dev/sdb
Затем попробуйте загрузиться в нормальный режим.
Как заменить диск, если он сбойный
Диск в массиве можно условно сделать сбойным с помощью ключа --fail (-f)
:
mdadm /dev/md0 --fail /dev/sda1
или
mdadm /dev/md0 -f /dev/sda1
Сбойный диск можно удалить с помощью ключа --remove (-r)
:
mdadm /dev/md0 --remove /dev/sda1
или
mdadm /dev/md0 -r /dev/sda1
Добавить новый диск в массив можно с помощью ключей --add (-a)
и --re-add
:
mdadm /dev/md0 --add /dev/sda1
или
mdadm /dev/md0 -a /dev/sda1
Ошибка при восстановлении загрузчика после замены диска в RAID1
При установке grub может возникнуть ошибка следующего содержания:
root #grub-install --root-directory=/boot /dev/sda
Could not find device for /boot/boot: not found or not a block device
В таком случае выполните:
root #grep -v rootfs /proc/mounts > /etc/mtab
Замена диска в RAID 1/10
Диски в рейдах время от времени выходят из строя, и их конечно же приходится заменять. Короткая инструкция по замене дисков в программном рейде, на примере RAID 1. Допустим что у нас в сервере установлено два диска и на них следующим образом собран рейд:
/dev/sda1 /dev/sdb1 - /dev/md0 /dev/sda2 /dev/sdb2 - /dev/md1
Диск /dev/sdb выходит из строя и мы будем его заменять. Для начала, последовательно удалим из рейда партации проблемного диска:
# mdadm --manage /dev/md0 --fail /dev/sdb1 # mdadm --manage /dev/md0 --remove /dev/sdb1 # mdadm --manage /dev/md1 --fail /dev/sdb2 # mdadm --manage /dev/md1 --remove /dev/sdb2
Заглядываем в /proc/mdstat и убеждаемся что партации извлечены [U_]:
md0 : active raid1 sda1[0] 24418688 blocks [2/1] [U_] md1 : active raid1 sda2[0] 24418688 blocks [2/1] [U_]
Далее, если сервер поддерживает горячую замену — выдёргиваем нужный диск и ставим новый. Если горячей замены сервер не поддерживает, выключаем его, заменяем диск и включаем обратно. При замене не забываем, что по объёму диск должен быть идентичен тому что был установлен ранее. Загрузив сервер, копируем разметку с рабочего диска на наш новый. Сделать это можно с помощью gdisk, либо с помощью sfdisk (использовать нужно что-то одно!):
# sfdisk -d /dev/sda | sfdisk /dev/sdb
Или:
# sgdisk -R /dev/sdb /dev/sda # sgdisk -G /dev/sdb
Убеждаемся что разбивка на старом и новом диске идентична, и добавляем партации нового диска в рейд:
# mdadm --manage /dev/md0 --add /dev/sdb1 # mdadm --manage /dev/md1 --add /dev/sdb2
Проверяем /proc/mdstat, видим что синхронизация данных уже началась:
md0 : active raid1 sda1[0] sdb1[1] 24418688 blocks [2/1] [U_] [=>...................] recovery = 19.9% (9692672/48837376) finish=2.7min speed=197535K/sec md1 : active raid1 sda2[0] sdb2[1] 24418688 blocks [2/1] [U_] [=>...................] recovery = 3.2% (1572096/48837376) finish=1.8min speed=186512K/sec
И отправляемся пить чай, в ожидании завершения процесса. В ходе синхронизации возможно повышение нагрузки на дисковую подсистему, так что лучше всего в это время минимизировать какие-либо ресурсоёмкие операции.
@SysadminNotes
Замена диска в програмном RAID1 в Linux
Оглавление:
- I. Удаление диска из массива
II. Добавление диска в массив после замены
1. Определение таблицы разделов(GPT или MBR) и перенос её на новый диск
2. Добавление диска в массив
III. Установка загрузчика
У нас есть сервер в котором 2 диска: /dev/sda и /dev/sdb. Эти диски собраны у нас в софтверный RAID1 с помощью mdadm. Один из дисков вышел из строя, в нашем случае это /dev/sdb.
I. Удаление диска из массива
Перед заменой диска желательно убрать диск из массива. Для начала проверим как размечен диск в массиве:
# cat /proc/mdstat
Personalities : [raid1] [raid0] [raid6] [raid5] [raid4]
md2 : active raid1 sda4[0] sdb4[1]
1456504640 blocks super 1.2 [2/2] [UU]
md1 : active raid1 sda3[0] sdb3[1]
7996352 blocks super 1.2 [2/2] [UU]
md0 : active raid1 sda2[0] sdb2[1]
499392 blocks super 1.2 [2/2] [UU]
unused devices: <none>
В данном случае массив собран так. Что md0 состоит из sda2 и sdb2, md1 из sda3 и sdb3, md2 из sda4 и sdb4. На этом сервере md0 это /boot, md1 — своп, md2 — корень. Убираем sdb из всех устройств.
# mdadm /dev/md0 --remove /dev/sdb2
# mdadm /dev/md1 --remove /dev/sdb3
# mdadm /dev/md2 --remove /dev/sdb4
Если разделы из массива не удаляются, это как в нашем случае. Mdadm не считает диск неисправным и использует его, и при удалении мы увидим ошибку, что устройство используется. В этом случае перед удалением помечаем диск как сбойный.
# mdadm /dev/md0 -f /dev/sdb2
# mdadm /dev/md1 -f /dev/sdb3
# mdadm /dev/md2 -f /dev/sdb4
А затем снова выполним команды по удалению разделов из массива.
Все, мы удалили сбойный диск из массива. Теперь можем писать в датацентр запрос на замену диска.
II. Добавление диска в массив после замены
1. Определение таблицы разделов(GPT или MBR) и перенос её на новый диск
После замены поврежденного диска нужно добавить новый диск в массив. Для этого надо определить какая у нас таблица разделов: GPT или MBR. Для этого будем использовать gdisk
Установим gdisk:
# apt-get install gdisk -y
Выполняем:
# gdisk -l /dev/sda
Где /dev/sda — исправный диск находящийся в raid.
В выводе будет примерно это для MBR:
Partition table scan:
MBR: MBR only
BSD: not present
APM: not present
GPT: not present
И примерно это для GPT:
Partition table scan:
MBR: protective
BSD: not present
APM: not present
GPT: present
Перед добавлением диска в массив нам нужно на нем создать разделы в точности такие же как и на sda. В зависимости от разметки диска это делается по разному.
Копирование разметки для GPT:
# sgdisk -R /dev/sdb /dev/sda
Здесь надо быть внимательным. Первым пишется диск на который копируется разметка, а вторым с которого копируют. Если перепутать их местами, то разметка на изначально исправном диске будет уничтожена.
Даем диску новый случайный UIDD:
# sgdisk -G /dev/sdb
Копирование разметки для MBR:
# sfdisk -d /dev/sda | sfdisk /dev/sdb
Здесь наоборот первым пишется диск с которого переносим разметку, а вторым на который переносим.
Если разделы не видны в системе, то можно перечитать таблицу разделов командой:
# sfdisk -R /dev/sdb
2. Добавление диска в массив
Когда мы создали разделы на /dev/sdb, то можно добавлять диск в массив.
# mdadm /dev/md0 -a /dev/sdb2
# mdadm /dev/md1 -a /dev/sdb3
# mdadm /dev/md2 -a /dev/sdb4
III. Установка загрузчика
После добавления диска в массив нужно установить на него загрузчик. Если сервер загружен в нормальном режиме, то это делается одной командой:
# grub-install /dev/sdb
Если сервер загружен в recovery или rescue, т.е с live cd, то установка загрузчика выглядит следующим образом.
Монтируем корневую файловую систему в /mnt:
# mount /dev/md2 /mnt
Монтируем boot:
# mount /dev/md0 /mnt/boot
Монтируем /dev, /proc и /sys:
# mount --bind /dev /mnt/dev
# mount --bind /proc /mnt/proc
# mount --bind /sys /mnt/sys
Затем делаем chroot в примонтированную систему:
# chroot /mnt
И устанавливаем grub на sdb:
# grub-install /dev/sdb
Теперь можно попробовать загрузится в нормальный режим.
P.S.
Если при установке загрузчика возникнет ошибка Could not find device for /boot/boot: not found or not a block device то вам сюда.
Замена нерабочего жесткого диска на RAID 1
Замена нерабочего жесткого диска на RAID 1
В данной теме «Замена нерабочего жесткого диска на RAID 1» поговорим как легко можно заменить полетевший жесткий диск на вашем raid1 массиве (зеркало).
Чтобы посмотреть какой у вас установлен raid и работает ли он вообще, используйте:
# cat /proc/mdstat
У вас должно появится картинка, примерного содержания, я ее приведу ниже.
Рабочий raid1 который мы проверили с помощью mdstat
На рисунке видно что рейд состоит из 4-х разделов ( sdb1,sdb2,sdb3,sdb4) и он полностью рабочий ( работают оба диска- это видно по опции [UU]). У меня всего 4 объединенных массива на которых: md0,md1,md2,md3.
Предположим что у нас вышел из строя диск с меткой /dev/sdb, определить можно это когда мы видим [U_] или [_U] — это собственно означает что наш массив не синхронизирован. Покажу как выглядит нерабочий массив, на наглядном скриншоте у низу все хорошо видно.
Нерабочий raid1
Все изменения мы будем вносить в программный raid1 с нашей рабочей ОС ( на живую так сказать). Если вы увидели у себя нечто подобное как на рисунке выше, то пришло время заменять диск.
Убираем нерабочий ХДД из системы, а можно это сделать выполнив команды для каждого раздела по отдельности:
# mdadm /dev/md0 -r /dev/sdb1 # mdadm /dev/md1 -r /dev/sdb2 # mdadm /dev/md2 -r /dev/sdb3 # mdadm /dev/md3 -r /dev/sdb4
Не всегда может выполнить эти команды ( бывают разные случаи), если появились ошибки не расстраивайтесь, выполняйте все как написано!
Чтобы показать все диски у вашем входящем массиве (допустим в md0):
# mdadm --detail /dev/md0
Есть случаи что жёсткий диск бывает повреждённый частично, например, у него показывается статус [U_] и это только у массива /dev/md0, а все остальные массивы имеют статус [UU] — то есть они работают, то выполните команду для этого случая:
# mdadm /dev/md1 -r /dev/sdb2
Нечего не выйдет, т.к устройство /dev/md1 в норме. Исправить можно командой:
# mdadm --manage /dev/md1 --fail /dev/sdb2
Это даст возможность поменять статус RAID-а на [U_]. Сейчас мы подготовим новый жёсткий диск для нашего рейда1 — это нужно сделать для того что 2 HDD в массиве должны содержать одинаковые разбиения, т.к существует 2 основных типа таблиц для раздела(ов) (GPT и MBR), то нужно использовать нужные программы для копирования этих таблиц разделов между собой.
GPT используют для дисков у которых более 2ТБ (для примера, EX4 и EX6).
Если Вы используете HDD с GPT
На HDD хранится пару копий таблиц разделов GUID (GPT), по этому для того чтобы можно отредактировать их есть программы, которые поддерживают GPT, например такие как parted или такие как GPT fdisk. Программа sgdisk из GPT fdisk (она имеется в Rescue-системе и готова к использованию) которая позволяет простым и удобным способом скопировать вашу таблицу разделов на новый подключенный жёсткий диск. Для примера нам нужно скопировать все таблицы разделов с диска sda на диск sdb, то нужно выполнить:
# sgdisk -R /dev/sdb /dev/sda
Далее, ХДД нужно присвоить новый и случайный UUID следующей командой:
# sgdisk -G /dev/sdb
После этого HDD можно добавить в массив, а в завершении необходимо установить на него загрузчик.
Если Вы используете жёсткий ХДД с MBR
Любую таблицу разделов можно просто скопировать на новый диск с помощью утилиты sfdisk:
# sfdisk -d /dev/sda | sfdisk /dev/sdb
собственно /dev/sda — это источник, а /dev/sdb — ХДД (новый) назначения.
(Опционально): если разделы не видны в системе, то таблица разделов должна быть перечитана ядром:
# sfdisk -R /dev/sdb
Конечно же, разделы можно создать вручную с помощью fdisk, cfdisk или других инструментов. Разделы должны иметь тип Linux raid autodetect (ID fd). Сейчас уже можно добавить новый жесткий диск, как только вы удалили повреждённый диск, можно добавлять новый. Проделать это нужно для каждого раздела:
# mdadm /dev/md0 -a /dev/sdb1 # mdadm /dev/md1 -a /dev/sdb2 # mdadm /dev/md2 -a /dev/sdb3 # mdadm /dev/md3 -a /dev/sdb4
Только созданный новый HDD уже часть массива, и теперь массив будет выполнять синхронизацию.Данная процедура займет определенное время ( все зависит от объема ваших дисков). Наблюдать за происходящим можно выполнив команду:
# cat /proc/mdstat
синхронизация нового raid1 масива
Собственно последним этапом будет установка загрузчика, если вы производите починку на живую ( с под загруженной ОС), то достаточно запустить grub-install на новом жёстком диске, например можно это сделать следующим образом (если юзаете GRUB2,):
# grub-install /dev/sdb
Если используете Grub1 ( это старая версия grub) то нужно выполнить немного больше шагов.
- Нужно будет запустить консоль grub: grub
- Затем нужно будет указать раздел, на котором лежит /boot: root (hd0,1) (/dev/sda2 = (hd0,1)),
- затем нужно будет записать загрузчик в MBR выполнив: setup (hd0)
- Чтобы сохранить загрузчик на втором жёстком диске надо:
- Указать grub чтобы переключиться на sdb: device (hd0) /dev/sdb
- Выполняем потом шаги 2 и 3
- Выходим из консоли grub: quit
установка grub1 на новый ХДД
Замена нерабочего жесткого диска на RAID 1 завершена! Спасибо что читаете https://linux-notes.org/
Замена сбойного диска в корне ZFS RAID 1 Proxmox 3.4.
Статья не претендует на образцово-показательную, но как рабочий HOWTO пойдет. Итак, имеем сбойный (сдохший) винт в зеркальном рейде на ZFS и этот рейд держит корень всей системы Proxmox. Глаза боятся – руки делают. Поехали!
Выключаемся и вынимаем сбойный винт, на его место ставим новый, точно такой же по размеру, винт. Было бы не плохо иметь винт не только такой же по размеру, но и такого же производителя и модели для большей производительности рейда. Включаемся. Если сбойный винт не был /dev/sda, то естественно загрузка произойдет без всяких проблем. Если это был как раз таки /dev/sda, то руками грузимся с /dev/sdb. Для этого указываем в bios или во время загрузки с какого устройства грузиться. Увы, в Proxmox установщик не привязывает диски по меткам, а привязывает к их реальному «местонахождению» в системе. Загрузились. Увидели сию картину: zpool status rpool
. Приступаем к подготовке новенького диска. Для начала его нужно разбить так же как и тот исправный, с которого загрузились. Смотрим какая картина на исправном диске. Допустим, что исправный /dev/sda: parted -s /dev/sda print
Копируем разметку с исправного винта (sda) на новый: sgdisk -R /dev/sdb /dev/sda
. Присваиваем новому диску случайный UUID: sgdisk -G /dev/sdb
Проверяем что у нас получилось. Вывод по разделам parted -s /dev/sda print
и parted -s /dev/sdb print
должны быть одинаковы.
Добавляем загрузчик на новенький винт и обновляем GRUB:grub-install /dev/sdb –recheck
update-grub
update-initramfs -u
Указываем какой диск мы собираемся заменить:zpool replace rpool /dev/sdb3
Добавляем диск в рейд:zpool online rpool /dev/sdb3
Готово! Осталось пронаблюдать за процессом синхронизации: zpool status rpool
Радует что ZFS не будет синхронизировать нули, а только полезное пространство. Поэтому ZFS произведёт синхронизацию гораздо быстрее, чем mdadm.
Автор: Денис Кузаков.
Вопросы? Заметки? Пишем в комментариях и Денис или я ответим на них.
Что нового в Proxmox VE 3.4?
Связи времён:
ZFS в Ubuntu.
LXC 1.0: Хранилище контейнеров. Возможности ZFS для создания снимков.
Балансировка виртуальных машин в Proxmox.
Дата последней правки: 2015-05-27 09:24:17
Замена отказавшего жёсткого диска в программном RAID в Linux
Рассмотрим как заменить неисправный жесткий диск ( диск с S.M.A.R.T. ошибками ) в массиве Linux RAID 1 без потери данных. Для работы с схемами разделов будем использовать gdisk. для проверки S.M.A.R.T. используем утилиту smartctl из пакета smartmontools
Для начала установим GDISK.
Debian и Ubuntu
apt-get install gdisk
RedHat(CentOS)
yum install gdisk
Установка SMARTCTL
Debian и Ubuntu
sudo apt-get install smartmontools
RedHat(CentOS)
yum install smartmontools
1. Вводная
Есть 2-ва жестких диска, с разделами /dev/sda и /dev/sdb, с разделами /dev/sda1, /dev/sda2, /dev/sda3 и /dev/sdb1, /dev/sdb2, /dev/sdb3.
/dev/sda1 and /dev/sdb1 загрузочный диск
/dev/sda2 and /dev/sdb2 создают массив RAID1 /dev/md1.
/dev/sda3 and /dev/sdb3 создают массив RAID1 /dev/md2.
/dev/sda2 + /dev/sdb2 = /dev/md1
/dev/sda3 + /dev/sdb3 = /dev/md2
Необходимо заменить 2-й диск /dev/sdb
2. Как узнать что необходимо заменить диск
Проверяем исправность массива
cat /proc/mdstat
В штатном режиме видим [UU], если видим [U_] — 2-й диск не исправен
smartctl -q errorsonly -a /dev/sdb
В зависимости от ошибок принимаем решение о замене диска.
3. Удаление неисправного жесткого диска
Для удаления /dev/sdb, пометим /dev/sdb2 и /dev/sdb3 как неисправные и удалим их из соответствующих массивов RAID (/dev/md1 и /dev/md2).
Для начала отметим /dev/sdb2 как неисправный:
mdadm --manage /dev/md1 --fail /dev/sdb2
mdadm --manage /dev/md2 --fail /dev/sdb3
Проверяем
cat /proc/mdstat
Вывод
Personalities : [raid1]
md1 : active raid1 sda2[0] sdb2[1] (F)
1047552 blocks super 1.2 [2/2] [U_]
bitmap: 0/1 pages [0KB], 65536KB chunk
md2 : active raid1 sda3[0] sdb3[1] (F)
3905836032 blocks super 1.2 [2/2] [U_]
bitmap: 5/30 pages [20KB], 65536KB chunk
unused devices:
Удаляем разделы из массива
mdadm --manage /dev/md1 --remove /dev/sdb2
mdadm --manage /dev/md2 --remove /dev/sdb3
Вывод
Personalities : [raid1]
md1 : active raid1 sda2[0]
1047552 blocks super 1.2 [2/1] [U_]
bitmap: 0/1 pages [0KB], 65536KB chunk
md2 : active raid1 sda3[0]
3905836032 blocks super 1.2 [2/1] [U_]
bitmap: 5/30 pages [20KB], 65536KB chunk
unused devices:
В случае если не поддерживается горячая замена диска то выключаем систему
shutdown -h now
заменяем жесткий диск ( объем нового диска должен быть не меньше исходного )
4. Добавляем новый жесткий диск
После загрузки системы производим перенос схемы разделов с 1-го диска на новый диск, для того используем gdisk
Создаем резервную копию разделов в папку /root/
sgdisk --backup=/root/sda.partitiontable /dev/sda
sgdisk --backup=/root/sdb.partitiontable /dev/sdb
Копируем схему и рандомизируем GUID на новом жестком диске
sgdisk -R /dev/sdb /dev/sda
sdgisk -G /dev/sdb
Сравниваем разделы
sgdisk -p /dev/sda
sgdisk -p /dev/sdb
Добавляем /dev/sdb2 в /dev/md1 и /dev/sdb3 в /dev/md2
mdadm --manage /dev/md1 --add /dev/sdb2
mdadm: re-added /dev/sdb2
mdadm --manage /dev/md1 --add /dev/sdb3
mdadm: re-added /dev/sdb3
2-й диск добавлен в массив и началась синхронизация Вывод mdstat при синхронизации
Personalities : [raid1]
md1 : active raid1 sda2[0] sdb2[1]
1047552 blocks super 1.2 [2/1] [U_]
[========>] recovery = 99.9% (1047052/1047552) finish=2.8min speed=127535K/sec
md2 : active raid1 sda3[0] sdb3[1]
3905836032 blocks super 1.2 [2/1] [U_]
[========>] recovery = 99.9% (3905830032/3905836032) finish=2.8min speed=127535K/sec
unused devices:
По успешному завершению синхронизации
Personalities : [raid1]
md1 : active raid1 sda2[0] sdb2[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md2 : active raid1 sda3[0] sdb3[1]
3905836032 blocks super 1.2 [2/2] [UU]
bitmap: 5/30 pages [20KB], 65536KB chunk
unused devices:
5. Копируем загрузочный диск
dd if=/dev/sda1 of=/dev/sdb1
Proxmox 6.1: Создание ZFS RAID1 на системном диске, корректная замена диска при Degraded pool RAID.
Полную установку Proxmox в этой статье рассматривать не
будем, таких мануалов полно на просторах интернета. Если же кому-то будет
интересно, пишите в комментариях.
Proxmox из коробки позволяет создать на выбор софтварный рэйд и
установить на него систему, что довольно неплохо и удобно. Именно это мы
сегодня и сделаем, развернем ZFS RAID
1 и установим на него ОС, так же рассмотрим, как действовать при выходе одного
из дисков.
В момент установки, практически в самом начале, будет
предложено выбрать системный диск, на который в последствие установится
операционная система Proxmox.
Нажимаем кнопку “Options”, выбираем ZFS RAID 1 и два диска из которых он будет состоять, после чего нажимаем OK.
После установки первым делом проверим наличие обновлений, но перед этим пропишем бесплатный репозиторий, так как у нас нет платной подписки.
В /etc/apt/sources.list.d/pve-enterprise.list закомментируем коммерческий репозиторий и добавим беслпатный.
deb http://download.proxmox.com/debian jessie pve-no-subscription
Далее выполним команды:
apt-get update && apt-get upgrade
apt-get update && apt-get upgrade |
Теперь авторизуемся на сервере и посмотрим командой lsblk разделы
которые нам сделал Proxmox.
Далее командой zpool status посмотрим на наш pool.
rpool — название нашего ZFS пула.
При установке proxmox добавляет загрузчик на оба диска,
поэтому при отключении одного со второго система загружается нормально, но
статус ZFS пула меняется на degraded и при подключении диска обратно,
пул начинает снова нормально функционировать.
Ну теперь собственно перейдем к замене. Если у вас “железный” RAID и есть поддержка горячей замены дисков, то сервер можете не выключать, но я эту процедуру делаю на виртуальной машине поэтому выключу сервер и заменю один из дисков. Допустим у нас сбойный диск будет /dev/sdb. Убедимся, что на новом диске нет разделов.
Копируем таблицу разделов 1:1 с исправного диска /dev/sda, после чего проверяем командой lsblk.
sgdisk -R /dev/sdb /dev/sda
sgdisk -R /dev/sdb /dev/sda |
Генерируем уникальные UUID для /dev/sdb
sgdisk -G /dev/sdb
<img src=»http://lemiro.ru/wp-content/uploads/2020/02/2020-02-02_12-59-23.png» alt=»»>
sgdisk -G /dev/sdb <img src=»http://lemiro.ru/wp-content/uploads/2020/02/2020-02-02_12-59-23.png» alt=»»> |
Устанавливаем загрузчик на новый диск и обновляем GRUB:
grub-install
—target=i386-pc —recheck /dev/sdb
Осталось заменить сбойный диск в массиве, тут можно действовать несколькими способами, либо по названию раздела (/dev/sdb3), либо через UUID раздела (/dev/disk/by-partuuid/88a27dda-fe1e-4a3d-9dee-16cc6f0d7379). UUID раздела можно узнать выполнив команду:
Ls – l /dev/disk/by-partuuid/
Ls – l /dev/disk/by-partuuid/ |
Я сделаю через UUID.
zpool
replace rpool 16056317260985057598
/dev/disk/by-partuuid/88a27dda-fe1e-4a3d-9dee-16cc6f0d7379
Теперь нужно только дождаться окончания репликации диска и
все, наш RAID снова в порядке.
[решено] Замена вышедшего из строя диска RAID-1 — Dell Hardware
У меня PowerEdge 2950, и disk0 в конфигурации RAID-1 вышел из строя. Это диск ОС, поэтому система не загружается. Я могу получить доступ к BIOS через DRAC5. Рейд находится в «деградированном» состоянии. Диск находится в состоянии «Сбой». Это диск:
TN937 HARD DRIVE, 146G, SERIAL ATTACHED SCSI, DU, 15K, 3.5,
SEAGATE, 15K
Могу ли я заменить его на:
300 ГБ 15000 об / мин SA SCSI 6 Гбит / с 3,5-дюймовый жесткий диск с возможностью горячей замены
Если да, могу ли я просто вставить новый жесткий диск при включенной системе? Затем мне перейти в PD Mgmt, выбрать диск и «восстановить»?
Могу ли я заменить другой диск на идентичный »
300 ГБ 15 000 об / мин SA SCSI 6 Гбит / с 3.5in Hotplug Hard Drive «?
Вы бы порекомендовали купить восстановленный диск, идентичный тому, который вышел из строя?
Спасибо !!
EDIT: Я смог загрузиться! Я предполагаю, что он сидел на» последнем известном config «и не пропустил этого. Наконец-то я заставил DRAC работать (проблема с java / sslv3), и он загрузился нормально. Спасибо, что сообщили мне, что я должен ожидать его загрузки!
Отредактировано 19 сентября 2016 г. в 15:34 UTC
Булава
OP
Da_Schmoo
Этот человек — проверенный профессионал.
подтвердите ваш аккаунт
чтобы ИТ-специалисты увидели, что вы профессионал.
18 сентября 2016 г., 16:33 UTC
Я думаю, у вас проблемы посерьезнее, чем неисправный диск. Raid-1 по-прежнему должен загружаться с отказом одного диска. Исключением является использование программного обеспечения Raid через Windows, которое не отражает весь диск — загрузочный раздел или файлы, необходимые для загрузки, не отражаются на втором диске, поэтому в случае сбоя основного диска второй не загрузится. без какого-либо ремонта.<- это может быть не так для всех версий Windows Server, но с некоторыми была проблема, и я не помню подробностей.
Кроме того, если вы хотите использовать идентичный диск для замены вышедшего из строя, вам необходимо убедиться, что на нем установлена такая же прошивка — часто геометрия диска изменяется между версиями прошивки на одной и той же модели диска, и если замена составляет один сектор меньше, ваш Raid не будет восстанавливаться. Обычно я заменяю вышедшие из строя диски на диски следующего большего размера, чтобы избежать этой проблемы.
Как заменить вышедший из строя жесткий диск в программном массиве RAID 1?
Просмотры сообщений:
3 470
Можно ли заменить неисправный диск из RAID 1? Какие шаги?
Здесь я подробно объясняю шаги по замене неисправного диска из программного массива RAID 1 . Как известно RAID 1 означает зеркалирование.
Здесь у меня два жестких диска / dev / sda и / dev / sdd с разделами / dev / sda1, / dev / sda2, / dev / sda3, / dev / sda5, / dev / sda6, / dev / sda7 и / dev / sda8 , а также / dev / sdd1, / dev / sdd2, / dev / sdd3, / dev / sdd5, / dev / sdd6, / dev / sdd7 и / dev / ssd8 .
Так строится массив RAID:
/ dev / sda1 и / dev / sdd1 составляют массив / dev / md0 RAID 1 / dev / sda2 и / dev / sdd2 составляют массив / dev / md3 RAID 1 / dev / sda3 и / dev / sdd3 составляют массив / dev / md5 RAID 1 / dev / sda5 и / dev / sdd5 составляют массив / dev / md4 RAID 1 / dev / sda6 и / dev / sdd6 составляют массив / dev / md2 RAID 1 / dev / sda7 и / dev / sdd7 составляют массив / dev / md1 RAID 1 / dev / sda8 и / dev / sdd8 составляют массив / dev / md6 RAID 1
Это можно определить с помощью следующей команды:
# cat / proc / mdstat
Здесь неисправный диск — / dev / sdd, и нам нужно его заменить.С помощью команды cat / proc / mdstat мы также можем получить подробную информацию о деградации массива. Вот пример:
[адрес электронной почты защищен] [~] # cat / proc / mdstat Личности: [raid1] md0: активный raid1 sdd1 [1] sda1 [0] 305088 блоков [2/2] [UU] md3: активный raid1 sdd2 [2] (F) sda2 [0] 57673280 блоков [2/1] [U_] md4: активный raid1 sdd5 [1] sda5 [0] 26217984 блока [2/2] [UU] md2: активный raid1 sdd6 [1] sda6 [0] 8385792 блоков [2/2] [UU] md1: активный raid1 sdd7 [1] sda7 [0] 4192832 блоков [2/2] [UU] md6: активный raid1 sdd8 [2] (F) sda8 [0] 1830518272 блока [2/1] [U_] md5: активный raid1 sdd3 [1] sda3 [0] 26217984 блока [2/2] [UU] неиспользуемые устройства:
Вместо UU , если вы видите « _ » (подчеркивание), это унизительный привод.Здесь, в данном примере, хотя «_» находится на второй позиции, вы можете увидеть «F» рядом с sdd2 и sdd8 , чтобы мы могли подтвердить, что / dev / sdd не работает. Вы также можете запустить smartctl для / dev / sdd , чтобы подтвердить это. Проверьте наличие ошибок ATA в выводе smartctl.
Здесь сбой / dev / sdd2 и / dev / sdd8 . Нам нужно пометить диск как неисправный и для других массивов, а затем удалить его из массивов RAID.
Пометка жесткого диска как неисправного и извлечение его
Вот команда, чтобы пометить диск как неисправный:
# mdadm --manage / dev / md0 --fail / dev / sdd1
То же самое проделать и с другими приводами.
Вот пример вывода после его выполнения для других массивов RAID:
Снятие привода
Чтобы удалить неисправные диски из массива RAID, используйте следующую команду:
# mdadm --manage / dev / md0 --remove / dev / sdd1
Повторите это для других приводов.Вот пример снимка экрана с результатами:
После удаления неисправного диска из массива RAID будет отображаться только один жесткий диск, вы можете увидеть его из cat / proc / mdstat
Теперь пора выключить сервер и связаться с вашим DC для замены диска. Для выключения:
#shutdown -h сейчас
Замените неисправный / dev / sdd на новый 🙂 Он должен быть точно такого же размера, как и старый.(То есть, если старый диск 1 ТБ, то новый также должен быть 1 ТБ)
После замены неисправного диска загрузите сервер. Теперь нам нужно создать разделы на новом диске с точной копией другого диска / devc / sda, так как это RAID1. Для этого мы можем использовать команду sfdisk.
# sfdisk -d / dev / sda | sfdisk / dev / sdd
Здесь все разделы на / dev / sda будут скопированы на новый — / dev / sdd
Теперь вы можете выполнить следующую команду, чтобы проверить, имеют ли оба жестких диска одинаковые разделы:
# fdisk -l
Добавить диски в RAID-массив
Далее нам нужно добавить новые разделы в RAID-массивы, для этого мы используем следующую команду:
# mdadm --manage / dev / md0 --add / dev / sdd1
Повторите это также для других RAID-массивов.
Когда вы закончите добавлять диски в RAID-массивы, синхронизация начнется автоматически.
Вот и все, теперь вы заменили / dev / sdd !
Есть вопросы? оставить комментарий!!
Parted — полезная информация!
Недавно мне пришлось поработать на сервере на основе «Parted». Не всегда у нас будет возможность работать на «разделенных» серверах. Поэтому я подумал о том, чтобы задокументировать это.Parted — это команда, которая помогает вам изменять разделы жесткого диска. Это больше, чем команда, это утилита GNU. Используя Parted, мы можем добавлять, удалять и редактировать разделы вместе с расположенными на них файловыми системами.
Более того, предположим, что придумайте критерии, по которым вам нужно разделить жесткий диск объемом 6 ТБ на сервере Linux. Скорее всего, мы подумаем об утилите fdisk. Я должен извиниться, потому что fdisk не может разбивать жесткие диски размером более 2 ТБ на сервере Linux. Fdisk разделит только до 2 ТБ, а около 4 ТБ останется неиспользованным.ПОДРОБНЕЕ…
Как мне восстановить мой RAID-массив?
Чтобы восстановить массив RAID, необходимо заменить физический диск идентичным диском на том же контроллере RAID. Хотя стандартные уровни RAID обычно согласованы в отрасли, их реализация варьируется в зависимости от производителя. RAID-массивы обычно недоступны, когда они перемещены на другой контроллер, и данные могут быть невосстановимыми, если диски вышли из строя или были отформатированы или к ним обращался другой контроллер RAID.
Если RAID-контроллер вышел из строя, вы должны получить точно такую же модель RAID-контроллера.
Примечание: Если диск или диски были повреждены, возможно, что массив RAID будет невозможно восстановить.
RAID не следует рассматривать как замену для резервного копирования ваших данных. Если критически важные данные попадают в массив RAID, вам следует создать резервную копию данных на другом физическом диске или логическом наборе дисков.
Восстановите массив RAID
В следующих режимах RAID восстановление возможно с использованием того же StarTech.com продукт. Обратитесь к следующей таблице, чтобы узнать о подходящем методе восстановления RAID-массива.
Режим RAID | Максимальное количество отказавших дисков | Процедура |
RAID 1 | Для восстановления нужен только один диск. |
Массив будет восстановлен и будет доступен во время процесса восстановления. |
RAID 3 | Отказ одного диска будет восстановлен. |
Примечание: Не меняйте порядок дисков.
|
RAID 5 | Отказ одного диска будет восстановлен. |
Примечание: Не меняйте порядок дисков.
|
RAID 10 | Только один диск в зеркальном наборе может выйти из строя. |
Примечание: Не меняйте порядок дисков.
|
Часто задаваемые вопросы о восстановлении данных RAID 1
Часто задаваемые вопросы о конфигурациях жесткого диска RAID 1 (зеркального)
Q: Каково определение тома «RAID 1»?
A: «RAID 1» относится к «избыточному массиву недорогих (или независимых) дисков», который был установлен в наборе накопителей уровня 1 или зеркальном.Том RAID 1 — это набор дисков, которые настроены для одновременной записи данных на 2 тома. Эта конфигурация обеспечивает полное резервирование данных в случае отказа диска.
В: Что подразумевается под термином «зеркальное отображение»?
A: В зеркальном томе (RAID 1) точно такая же информация, которая записывается на один диск, также записывается на второй диск, создавая «зеркальное отображение» или клон исходного жесткого диска.
В: Какое количество дисков необходимо для тома RAID 1?
A: Для создания и обслуживания тома RAID 1 необходимо как минимум два (2) жестких диска.В отличие от некоторых других конфигураций RAID, тома RAID 1 требуют использования четного числа дисков.
В: В чем разница между «аппаратной» и «программной» конфигурациями RAID 1?
A: В программном томе RAID 1 жесткие диски используют стандартный контроллер дисков, а программная утилита обеспечивает управление дисками в томе. Том RAID 1, для управления которым используется оборудование, будет иметь физический контроллер (либо как карту расширения, либо как часть материнской платы), который обеспечивает зеркальное отображение данных на жестких дисках в томе.
В: Каковы положительные причины для настройки дисков как RAID 1?
A: Набор RAID 1 (зеркалирование) обеспечивает избыточность или защиту от отказа одного из дисков во время использования. При использовании дискового тома RAID 1 информация записывается на первый диск, а затем на второй (или «зеркальный») диск одновременно. Если один из жестких дисков в зеркальном томе выходит из строя, оставшийся жесткий диск можно использовать как отдельный диск без потери информации.Подобно тому RAID 0 (чередующемуся), томам RAID 1 требуется как минимум два (2) диска.
В: Каковы аргументы против конфигураций RAID 1?
A: RAID 1 (зеркалирование) приводит к потере половины физической емкости накопителей, составляющих том. Например, если два (2) жестких диска по 500 ГБ настроены как том RAID 1, для хранения данных доступно только 500 ГБ. При использовании одних и тех же дисков в конфигурации RAID 0 (с чередованием) общий объем хранилища данных будет равен 1000 ГБ (или примерно 1 терабайт).Кроме того, если поврежденные или поврежденные данные записываются на один диск, они также записываются на второй диск. Многие люди ошибочно полагают, что они полностью защищены от потери данных с помощью тома RAID 1, но ничто не может быть дальше от истины. Том RAID 1 обеспечивает определенную защиту от потери данных, но не устраняет необходимость в регулярном резервном копировании критически важных данных.
В: Можно ли объединить RAID 1 с другим типом RAID, например, с RAID 0?
A: Комбинация зеркальной конфигурации с добавленным чередованием называется RAID 1 + 0 (также называется RAID 10).В этом сценарии конфигурация обеспечивает зеркальное отображение (RAID 1) на двух (2) или более дисках и «чередует» данные в реальном времени на второй набор зеркальных дисков. Эта уникальная комбинация обеспечивает избыточность данных и некоторые преимущества в скорости, но делает это за счет полезного пространства для хранения. Том, созданный как том RAID 1 + 0, обеспечивает немного большую защиту данных, чем RAID 0 + 1, и для его настройки потребуется как минимум четыре (4) жестких диска.
В: Можно ли восстановить данные с переформатированного тома RAID 1?
A: Часто информацию еще можно восстановить, в зависимости от того, как диски были переформатированы.Переформатирование на высоком уровне (например, с использованием Windows) создаст то, что будет выглядеть как новый «чистый» том, но исходные данные все равно будут на диске в «свободном и доступном» пространстве. Процедура низкоуровневого форматирования (выполняемая с помощью программного обеспечения контроллера) перезапишет каждый сектор и в процессе уничтожит исходные данные.
В: Можно ли использовать служебные программы для восстановления данных для восстановления моего RAID 1?
A: Возможно, но это не самый безопасный подход.Для большинства программ восстановления данных требуется, чтобы головки чтения / записи постоянно перемещались по областям исходного диска, которые в случае физического повреждения могут сделать поверхности бесполезными и не подлежат восстановлению. Самый безопасный метод восстановления данных с отказавшего или поврежденного тома RAID 1 (или с любого устройства хранения) — это создание блочной копии каждого сектора на каждом жестком диске. Скопированный образ затем используется для восстановления исходного тома и восстановления необходимых файлов и каталогов. Этот подход, хотя и требует больше времени, поддерживает и сохраняет физическую целостность носителя и ограничивает количество обращений к исходному диску.
Q: При использовании RAID 1, если оба зеркальных диска выйдут из строя, можно ли восстановить данные?
A: Во многих ситуациях данные можно будет восстановить. Качество и целостность восстановленных данных будет зависеть от степени повреждения каждого отказавшего устройства хранения. Если зеркальный том работал правильно до точки отказа, то должны быть идентичные копии данных как минимум на двух (2) дисках, что обеспечит 2 шанса на восстановление одних и тех же данных.
См. Также:
Вернуться к основному FAQ
Ubuntu Server 18.04 — Замена вышедших из строя RAID-дисков
RAID — очень полезная технология, поскольку она может помочь вашему серверу выжить после отказа одного диска. RAID — это не решение для резервного копирования, а скорее средство защиты, которое, надеюсь, избавит вас от необходимости перезагружать сервер. Идея, лежащая в основе RAID, заключается в избыточности, так что данные зеркалируются или распределяются между несколькими дисками. В большинстве конфигураций RAID вы можете пережить потерю одного диска, поэтому, если диск выходит из строя, вы обычно можете заменить его, повторно синхронизировать и вернуться к нормальному состоянию.Сам сервер продолжит работать, даже если будет неисправный диск. Однако потеря дополнительных дисков, скорее всего, сразу же приведет к сбою. Когда RAID-диск выходит из строя, вам нужно будет заменить этот диск как можно быстрее, надеюсь, до того, как выйдет из строя другой диск.
Живой установщик по умолчанию для Ubuntu Server не предлагает вариант настройки RAID, но альтернативный установщик поддерживает. Если вы хотите настроить сервер Ubuntu, ознакомьтесь с приложением в конце этого руководства.
Чтобы проверить состояние конфигурации RAID, вы должны использовать следующую команду:
cat / proc / mdstat
Исправный RAID-массив
На этом снимке экрана у нас есть массив RAID 1 с двумя дисками.Мы можем сказать это по активной части вывода raid1. На следующей строке мы видим это:
.
[UU]
Вы не поверите, но это относится к исправному массиву RAID, что означает, что оба диска подключены к сети и работают правильно. Если какой-либо из Us изменится на подчеркивание, это означает, что диск отключен, и нам нужно будет его заменить. Вот снимок экрана, на котором показаны выходные данные той же команды на сервере с отказавшим диском RAID:
Вывод статуса RAID при неисправном накопителе
Как видно на скриншоте, у нас проблема.Диск / dev / sda находится в сети, но / dev / sdb отключен. Так что нам делать? Во-первых, нам нужно убедиться, что мы понимаем, какой диск работает, а какой из них неисправен. Мы уже знаем, что неисправен диск / dev / sdb , но когда мы открываем корпус сервера, мы не узнаем, какой именно диск / dev / sdb . Если мы вытащим не тот диск, мы можем сделать эту проблему намного хуже, чем она есть. Мы можем использовать команду hdparm , чтобы получить немного больше информации с нашего диска.Следующая команда предоставит нам информацию о / dev / sda , диске, который в настоящее время все еще функционирует нормально:
судо hdparm -i / dev / sda
Вывод команды hdparm
Причина, по которой мы выполняем эту команду для работающего диска , заключается в том, что мы хотим убедиться, что понимаем, какой диск НЕ следует удалять с сервера. Кроме того, неисправный накопитель может не реагировать на наши попытки получить с него информацию.В настоящее время / dev / sda работает нормально, поэтому мы не захотим отключать кабели, подключенные к этому диску, в любой момент. Если у вас есть RAID-массив с более чем двумя дисками, вам нужно выполнить команду hdparm для каждого из них. Из вывода команды hdparm мы видим, что / dev / sda имеет серийный номер 45M4B24AS . Заглянув внутрь корпуса, мы можем сравнить серийный номер на этикетке дисков и убедиться, что мы не извлекаем диск с этим серийным номером.
Затем, если у нас уже есть запасной диск, мы захотим выключить сервер. В зависимости от того, для чего используется сервер, нам может потребоваться сделать это в нерабочее время, но обычно мы не можем удалить диск во время работы сервера. Как только он выключится, мы можем сузить круг, какой диск / dev / sdb (или любое другое обозначение, которое имеет сбойный диск), и заменить его. Затем мы можем включить сервер (в этот раз загрузка, вероятно, займет гораздо больше времени; этого следовало ожидать, учитывая нашу текущую ситуацию).
Однако простое добавление заменяющего диска не решит эту проблему автоматически. Нам нужно добавить новый диск в наш массив RAID, чтобы он принял его и перестроил RAID. Это ручной процесс. Первым шагом в восстановлении массива RAID является определение обозначения, которое получил наш новый диск, чтобы мы знали, какой диск мы собираемся добавить в массив. После загрузки сервера выполните следующую команду:
судо fdisk -l
Вы увидите следующий результат:
Проверка текущих дисков с помощью fdisk
Из вывода должно быть очевидно, какой диск новый. / dev / sda — это наш исходный диск, а / dev / sdb — это тот, который был только что добавлен. Чтобы сделать это более очевидным, мы можем видеть из вывода, что / dev / sda имеет раздел типа Linux raid autodetect . / dev / sdb не имеет этого.
Итак, теперь, когда мы знаем, какой диск новый, мы можем добавить его в наш RAID-массив. Во-первых, нам нужно скопировать таблицы разделов с первого диска на новый. Следующая команда сделает это:
sudo sfdisk -d / dev / sda | сфдиск sudo / dev / sdb
По сути, мы клонируем таблицу разделов с / dev / sda (рабочий диск) на / dev / sdb (тот, который мы только что заменили).Если вы запустите ту же команду fdisk, которую мы запускали ранее, вы должны увидеть, что у них обоих есть разделы типа Linux raid autodetect now:
судо fdisk -l
Теперь, когда о таблице разделов позаботились, мы можем добавить замененный диск в наш массив с помощью следующей команды:
судо mdadm --manage / dev / md0 --add / dev / sdb1
Вы должны увидеть результат, подобный следующему:
mdadm: добавлен / dev / sdb1
С помощью этой команды мы, по сути, добавляем диск / dev / sdb1 в массив RAID, обозначенный как / dev / md0 .В последней части вы хотите убедиться, что выполняете эту команду с правильным обозначением массива. Если вы не знаете, что это такое, вы увидите это в выходных данных команды fdisk , которую мы выполнили ранее.
Теперь мы должны убедиться, что RAID-массив восстанавливается правильно. Мы можем проверить это с помощью той же команды, которую мы всегда используем для проверки статуса RAID:
cat / proc / mdstat
Проверка статуса RAID после замены диска
На выходе предыдущего снимка экрана вы можете видеть, что массив RAID находится в режиме восстановления.Сам режим восстановления может занять довольно много времени, иногда даже в одночасье, в зависимости от того, сколько данных требуется для повторной синхронизации. Вот почему очень важно как можно скорее заменить диск RAID. После завершения восстановления массив RAID помечается как работоспособный, и теперь вы можете отдыхать спокойно.
Диагностика и замена неисправного жесткого диска (выделенный сервер Linux с программным RAID)
В следующем примере предполагается, что второй жесткий диск (sdb) необходимо заменить. Во время проверки статуса, например, отображается следующий статус программного RAID:
[root @ host ~] # cat / proc / mdstat
Personalities: [raid1]
md3: active raid1 sda3 [0] sdb3 [ 2]
439553856 блокирует super 1.0 [2/1] [UU]
md1: активный raid1 sdb1 [2] sda1 [0]
19529600 блокирует super 1.0 [2/1] [UU]
неиспользуемые устройства: <нет>
В этом примере второй жесткий диск (sdb) все еще интегрирован в RAID и, следовательно, все еще работает.
Вручную пометьте устройство Raid как «неисправное», чтобы удалить его из RAID
Чтобы пометить неисправный диск как неисправный, чтобы его можно было удалить из RAID, введите следующую команду:
[root @ host ~] # mdadm PATHm_OFTHE_RAID_ARRAYS -f PATH_OFTHE_HARD_DRIVE
В приведенных ниже примерах жесткие диски sdb3 и sdb1 помечены как неисправные:
[root @ host ~] # mdadm / dev / mdddm 9: / dev / sdb3 неисправен в / dev / md3
[root @ host ~] # mdadm / dev / md1 -f / dev / sdb1
mdadm: set / dev / sdb1 неисправен в / dev / md1
После ввода команды , RAID имеет следующий статус:
[root @ host ~] # cat / proc / mdstat
Персоналии: [raid1]
md3: active raid1 sda3 [0] sdb3 [2] (F)
439553856 блокирует super 1 .0 [2/1] [U_]
md1: активный raid1 sdb1 [2] (F) sda1 [0]
19529600 блокирует super 1.0 [2/1] [U_]
неиспользуемые устройства: <нет>
Удалить Разделение / из нескольких устройств
Чтобы удалить раздел из нескольких устройств, введите следующую команду:
[root @ host ~] # mdadm -r / PATH_OFTHE_RAID_ARRAYS / PATH_OFTHE_HARD_DRIVE
В приведенных ниже примерах жесткие диски sdb3 и sdb1 удаляются с нескольких устройств md3 и md1 соответственно:
[root @ host ~] # mdadm -r / dev / md3 / dev / sdb3
mdadm: горячее удаление / dev / sdb3 из / dev / md3
[root @ host ~] # mdadm -r / dev / md1 / dev / sdb1
mdadm: горячее удаление / dev / sdb1 из / dev / md1
Затем проверьте состояние RAID.В этом примере RAID, подготовленный для замены диска, имеет следующее окончательное состояние:
[root @ host ~] # cat / proc / mdstat
Personalities: [raid1]
md3: active raid1 sda3 [0]
439553856 блокирует супер 1.0 [2/1] [U_]
md1: активный raid1 sda1 [0]
19529600 блокирует super 1.0 [2/1] [U_]
неиспользуемых устройств: <нет>
Проверка используемых разделов подкачки
Проверить какие разделы подкачки используются операционной системой. Для этого введите следующую команду:
[root @ host ~] # cat / proc / swaps
Имя файла Тип Размер Используемый приоритет
/ dev / sda2 partition 9765884 0-1
/ dev / sdb2 partition 9765884 0-2
В качестве альтернативы вы можете использовать следующую команду, чтобы проверить, какие разделы подкачки определены в fstab:
[root @ host ~] # grep swap / etc / fstab
/ dev / sda2 none swap sw
/ dev / sdb2 none swap swap sw
Отключить раздел подкачки на неисправном устройстве
Деактивировать раздел подкачки на неисправном жестком диске, чтобы его можно было заменить.Для этого введите следующую команду:
[root @ host ~] # swapoff PATH_OFTHE_HARD_DRIVE
Пример:
[root @ host ~] # swapoff / dev / sdb2
Заменить зеркальный диск (RAID 1) на динамическом диске на Большой?
Заменить зеркальный диск (RAID 1) на
Динамический диск с большим?
Программные зеркальные диски — это зеркальные тома на динамических дисках. Зеркальный
том, также известный как том RAID-1, является отказоустойчивым томом, который дублирует
данные на двух разных физических дисках и обеспечивает избыточность данных за счет использования двух
идентичные копии (зеркала) тома.
Невозможно настроить зеркальный диск на компьютерах под управлением Windows.
Vista, XP и Windows 2000 Professional. Следующие операционные системы Windows
позволяют реализовать зеркальную конфигурацию накопителя:
Windows 7/8 Professional, Enterprise и Ultimate
Windows 2000 Server и Advanced Server
Windows Server 2003 (все редакции, 32/64-бит)
Windows Server 2008 (все выпуски, 32/64-разрядная версия)
Windows Server 2011, 2012
После создания зеркального диска в указанной выше системе вы можете обнаружить, что его емкость не может
соответствовать вашим растущим требованиям к хранению данных.В таком случае самый простой способ решить эту проблему.
Проблема заключается в замене зеркального привода.
Как заменить динамический зеркальный привод на больший?
Заменить
динамический зеркальный диск с большим, вам нужно добавить два больших диска в свой
системы и преобразовать их в динамические диски. В следующем разделе будет Windows 2003
например, и предоставить два метода для замены динамического зеркального диска на более крупный,
выберите наиболее удобный вариант.
Способ 1. Замените зеркальный диск оснасткой «Управление дисками».
Снимите зеркало с зеркального диска (диск 2). Щелкните правой кнопкой мыши зеркальный диск и
в раскрывающемся меню выберите « Remove Mirror ». Во всплывающем диалоговом окне
выберите Диск 2 и нажмите « Удалить зеркало ».Добавьте зеркало на больший диск (Диск 3). После шага 1 зеркальный диск
становится простым объемом. Щелкните правой кнопкой мыши простой том и выберите « Добавить.
Зеркало «в раскрывающемся меню. Во всплывающем диалоговом окне выберите Диск 3.
и нажмите « Добавить зеркало ».Повторите шаг 1, чтобы удалить зеркало с другого зеркального диска (Диск 1).
Повторите шаг 2, чтобы добавить зеркало на другой диск большего размера (Диск 4).
Поскольку Windows Disk Management не может расширить динамический зеркальный диск на
нераспределенные пространство. Однако есть надежный менеджер разделов — AOMEI Partition Assistant Professional. Он оснащен инструментом Dynamic Disk Manager, который позволяет напрямую изменять размер динамического зеркального отображения.
води как хочешь.
Метод 2: Замените зеркальный диск на AOMEI Dynamic Disk Manager
В качестве полнофункционального решения для управления динамическими дисками и разделами, AOMEI Dynamic Disk
Менеджер позволяет создавать / удалять / форматировать динамический том, изменять размер
динамический диск, усадка
динамический объем, движение
объемный срез, удлинить
объем динамической системы, перемещение
часть тома, добавить диск в
RAID, удалить
диск из RAID и конвертировать
динамический диск на базовый диск для Windows 7/8 / Vista / XP / 2000 и Windows Server
2000/2003/2008/2011/2012 (как 32 бит, так и 64 бит).
Шаг 1: Установите и запустите AOMEI Partition Assistant Professional и щелкните «Динамический диск», чтобы запустить его мастер «Диспетчер динамических дисков». Затем выберите « Move Volume Slice » в левом мастере.
панель.
Step2: Во всплывающем окне нажмите « Next », чтобы пропустить первую страницу и
выберите динамический том (E: Mirrored Drive). Затем нажмите « Next », чтобы продолжить.
Step3: Отметьте «Мне нужно переместить срез тома из…» и выберите зеркальный том на
Диск 2.Затем нажмите « Next », чтобы продолжить.
Step4: Выберите диск большего размера для замены. Затем нажмите « Finish », чтобы
вернуться в главное окно.
Шаг 5: Повторите шаги выше и замените зеркальный том на Диске 3 на
диск большего размера на диске 5.
Step6: Щелкните правой кнопкой мыши зеркальный диск и выберите « Изменить размер / переместить том ».
Во всплывающем окне перетащите правый ползунок вправо, чтобы развернуть зеркальный диск в
нераспределенные пространство.Затем нажмите « Ok », чтобы вернуться в главное окно.
Step7: И последнее, но не менее важное: все изменения перечислены « Ожидает подтверждения»
Операции ». Чтобы применить и сохранить изменения, необходимо нажать« Подтвердить »на
панель инструментов.
По сравнению со способом 1, в AOMEI Partition Assistant Professional проще, быстрее и безопаснее заменить зеркальный диск на другой.
больший.
.