Исправление ошибок данных synology

Copyright © 2023 Synology Inc. Все права защищены.

Положения и условия
|
Конфиденциальность
|
Настройки файлов cookie
|

Россия — Русский

Copyright © 2023 Synology Inc. Все права защищены.

Положения и условия
|
Конфиденциальность
|
Настройки файлов cookie
|

Россия — Русский

Руководство пользователя Synology NAS

Под управлением DSM 6.2

31 Глава 5: Управление объемом хранения

Расширение пула ресурсов хранения путем замены дисков

Для SHR, RAID 1, RAID 5, RAID 6, RAID 10 и RAID F1 емкость пулов ресурсов хранения можно расширить

путем замены жестких дисков меньшего объема на диски большего объема. При расширении емкости с
помощью этого метода необходимо заменять жесткие диски по одному. После замены одного жесткого
диска пул ресурсов хранения необходимо восстановить, прежде чем приступать к замене следующего

жесткого диска. Для получения дополнительных инструкций см. Справку DSM.

Какой жесткий диск необходимо заменить первым, см. в следующей таблице.

SHR (Synology Hybrid RAID)

Если емкость всех дисков одинакова, следует заменить

не менее двух дисков. В противном случае емкость

пула ресурсов хранения не увеличится.

Если емкость жестких дисков различна, то новые диски

должны быть не меньше самого большого из

существующих дисков. Помимо этого, для оптимизации

использования хранилища сначала нужно заменить

диски самого малого объема.

RAID 1, RAID 5, RAID 6, RAID 10

При замене жестких дисков в пулах ресурсов хранения

данных типов RAID сначала необходимо заменить диск

самой меньшей емкости для максимального

использования диска.

Расширение пула ресурсов хранения путем добавления дисков

Для SHR, JBOD, RAID 5, RAID 6 и RAID F1 емкость хранилища для пулов ресурсов хранения можно
расширить, добавив дополнительные жесткие диски, если в Synology NAS есть пустые отсеки для жестких

дисков. Для получения дополнительных инструкций см. Справку DSM.

Сведения о минимальном размере новых жестких дисков см. в следующей таблице.

Минимальный размер жесткого диска

SHR

Емкость добавляемого диска должна быть не меньше

самого большого диска в пуле ресурсов хранения или

быть равной любому диску в пуле ресурсов хранения.

Например, если том SHR состоит из трех дисков

емкостью 2, 1,5 и 1 ТБ, то емкость нового диска должна

быть не меньше 2 ТБ или равняться 1,5 ТБ либо 1 ТБ.

RAID 5, RAID 6, RAID F1

Емкость добавляемого диска должна быть не меньше

самого малого диска в пуле ресурсов хранения.

Например, если том состоит из трех дисков емкостью 2,

1,5 и 1 ТБ, то емкость нового диска должна быть не

меньше 1 ТБ.

Исправление ошибок данных файловой системы или

RAID

Исправление ошибок данных файловой системы или RAIDэто функция организации данных,

позволяющая проверять пулы ресурсов хранения и устранять обнаруженную несогласованность данных.
Функцию исправления ошибок данных RAID можно использовать с пулами ресурсов хранения,
использующими SHR (из трех или более дисков), RAID 5, RAID 6 или RAID F1. Исправление ошибок
данных файловой системы можно выполнить только на томах в файловой системе Btrfs.
Рекомендуется регулярно выполнять исправление ошибок данных RAID или файловой системы, чтобы

поддерживать их согласованность и избежать утери критически важных данных в случае отказа диска.

Для получения дополнительных инструкций см. Справку DSM.

Уважаемый Igr_ua

Благодарю за терпение и потраченное на меня время.

Пожалуйста :)

Теперь к вопросам…

(пока собирался, на часть вопросов ответы уже дали)

Прежде всего внимательно изучаем содержимое файла /etc/fstab и содержимое файла /proc/mdstat. Если нужно, то записываем на листик исходные данные.

Из этих файлов вы узнаете много нужного в дальнейшем (пример содержимого файлов здесь

Проверка RAID разделов NAS на ошибки файловой системы

1. Останавливаем все сервисы

Как? Тупо из web интерфейса? Или есть какие-нибудь волшебные команды?

Да. Тупо из интерфейса.

2. Проверяем под каким номером RAID

mdadm -D /dev/md0 (md1, md2 и т.д.)

это мы уже узнали из файлов /etc/fstab и /proc/mdstat, но можно и проверить

2. Отмонтируем раздел

umount /volume1

Как определить правильно какую циферку ставить после volume? Если у меня в менеджере хранение написано «раздел 1» то и в этой команде тоже должно быть volume1?

Это тоже видно из тех же файлов.

Иногда может возникнуть ситуация, что раздел не захочет размонтироваться. Вроде бы и все сервисы остановили, пакеты отключили, но….

Тогда, заходим в терминал (через putty или кому как удобней) и смотрим активные процессы.

Это можно сделать с помощью команды Top либо ps.

после этого останавливаем процесс:

killall имя_процесса

3. Останавливаем RAID

mdadm -S /dev/md0

4. Проверяем раздел

e2fsck -f /dev/md0

если e2fsck отработала и вернула код «0» — значит все в порядке.

Запуск проверки раздела с автоматическим исправлением ошибок

e2fsck -p /dev/md0

да.

5. Монтируем раздел обратно

mount /dev/md0 /volume1

не получится, т.к. перед этим необходимо собрать массив

Create — создание RAID-массива из нескольких дисков (с суперблоком на каждом устройстве).

Assemble — сборка (ранее созданного) массива и его активация. Диски из которых собирается массив могут указываться явно или будет выполнен их автоматический поиск. mdadm проверяет, образуют ли компоненты корректный массив.

Пример:

mdadm —assemble -R —force /dev/md3 /dev/sdc3 /dev/sdd3

mdadm -Cf /dev/md2 -R -n 3 —level=linear /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3 (это пример… не повторять буквально!!!!)

пример для массива JBOD — здесь — пункты 7-12

Вот после этого, когда собрали массив, монтируем его в систему.

6. Запустить все службы и программы на NAS

Как? И нужно ли? Может просто перезагрузить NAS?

Это зависит от того, какие цели вы преследуете.

Когда мне надо было вытаскивать данные, то я коробку не перегружал.

Если вам работать как обычно — лучше перегрузить (мало ли какие процессы вы пришибли вручную в п.2)

7. Перезагрузить NAS.

где-то так….

з.ы. про mdadm — тут

Осталось в заключении добавить, что все что вы делаете с собственным массивом, вы делаете на собственный страх и риск… :)

Как сказал Daxlerod, вам следует использовать инструменты SMART, однако вам также необходимо выполнить то, что называется очисткой данных.

Если вы еще этого не сделали, создайте группу дисков. Чтобы очистка данных была доступна, вам нужно как минимум 3 диска, по крайней мере, 1 резервный диск и как минимум 2 диска с данными. Подождите, пока группа дисков полностью синхронизируется, затем выполните очистку данных.

Начиная с версии Synology OS v4.2, очистка данных доступна из

Storage Manager -> Disk Group -> Manage -> Start data scrubbing

Это займет часы, поскольку он читает все сектора всех дисков и выполняет некоторые математические операции, чтобы увидеть, правильно ли складываются данные контрольной суммы. Вы можете использовать NAS, пока это происходит, но это будет немного медленнее. Многие люди запускают очистку данных раз в месяц. Лично я выполняю очистку данных один раз в неделю, а рабочую — в выходные, а домашнюю — в течение недели, пока я на работе.

Есть хорошая статья под названием Scrub Synology RAID-диски, в которой также рассказывается, как запустить средство проверки файловой системы, называемое fsck, даже если в веб-интерфейсе для этого нет опции.

Изменить: вышеуказанная страница, кажется, ушел, но в основном сказал

Команды для выполнения автономного fsck:

syno_poweroff_task
fsck.ext4 -pvf /dev/vg[x]/volume_[y]

Задача отключения питания выполняет некоторые размонтирования (том 1 и т.д.). Затем вы выполняете обычный Linux fsck.

Однако, читая еще несколько страниц, таких как https://forum.synology.com/enu/viewtopic.php?f=39&t=83186 и http://www.cyberciti.biz/faq/synology-complete-fsck-file-system- check-command/ кажется, что они изменились в DSM 5+. Кто-то предлагает использовать опцию -d (отладка) в задаче выключения, например

syno_poweroff_task -d

В то время как сайт киберцити предлагает использовать lsof, чтобы найти то, что использует том, используйте сценарии отключения службы в /usr/syno/etc/rc.d/ перед использованием команды umount .

Обратите внимание, что все это требует, чтобы вы вошли в окно NAS, если вам не нравится командная строка linux, а затем, возможно, сделайте запрос в Synology, чтобы добавить кнопку fsck в веб-интерфейс.

background image

Руководство пользователя Synology NAS

Под управлением DSM 6.2

32 Глава 5: Управление объемом хранения

SSD TRIM

Если том состоит только из SSD (твердотельных накопителей), рекомендуется включить SSD TRIM.

Данная функция позволяет повысить скорость чтения и записи томов, созданных на SSD, что позволит

повысить эффективность и срок службы SSD.
Перед настройкой SSD TRIM ознакомьтесь с подробными инструкциями и дополнительными

ограничениями в

Справке DSM

.

Примечание.

Функция SSD TRIM доступна только на некоторых моделях Synology NAS и типах RAID.

Некоторые модели SSD не поддерживают выполнение SSD TRIM на томах RAID 5 и RAID 6. См. список

совместимости на веб-сайте

www.synology.com

.

Управление жесткими дисками

На вкладке

HDD/SSD

можно отслеживать состояние жестких дисков, установленных в Synology NAS, а

также организовывать и анализировать производительность и состояние дисков. Чтобы открыть эту

вкладку, выберите

Диспетчер хранения

и нажмите

HDD/SSD

. Для получения дополнительных

инструкций см.

Справку DSM

.

Включение поддержки записи в кэш

Включение поддержки записи в кэш повышает производительность Synology NAS. Эта функция

поддерживается только для некоторых моделей жестких дисков. Для обеспечения защиты данных при

поддержке записи в кэш настоятельно рекомендуется использовать устройство ИБП. Также

рекомендуется правильно выключать систему после каждого использования. Отключение записи в кэш

уменьшит вероятность потери данных при сбое питания, но сократит производительность.

Запуск тестов S.M.A.R.T.

Тесты S.M.A.R.T. для дисков изучают жесткий диск и сообщают о его состоянии, предупреждая о

возможных сбоях диска. При обнаружении ошибок рекомендуется сразу заменить диск. Также можно

запланировать автоматическое выполнение тестов S.M.A.R.T., создав задачи.

Проверка информации о диске

В разделе

Диспетчер хранения

>

HDD/SSD

>

HDD/SSD

нажмите стрелку вниз рядом с именем жесткого

диска, чтобы просмотреть название модели, серийный номер, версию микропрограммы и общий размер

жесткого диска.

Кэш SSD

Диски с кэшем SSD

1

можно установить и монтировать в конфигурации только для чтения (RAID 0) или

чтения-записи (RAID 1, RAID 5, RAID 6), чтобы увеличить скорость чтения и записи для тома. В разделе

Диспетчер хранения

>

Кэш SSD

можно создать кэш и просмотреть информацию о нем.

Сведения об установке SSD см. в Руководстве по установке оборудования для вашей модели Synology

NAS. Для получения дополнительных сведений об управлении SSD см.

Справку DSM

или

Техническую

документацию по кэшу SSD Synology

.

———

1

Кэш SSD поддерживается только в некоторых моделях. Для получения дополнительной информации посетите

страницу

www.synology.com

.

How to properly do a filesystem check (fsck or e2fck) on Synology DSM 6.0 e.g. DS414

I tried a lot of instructions and tutorials to do a file system check on a Synology DSM 6 device e.g the DS414.

The first step involves unmounting the partition you want to check e.g. the /volumes/ path before you can file system check it.

All the instructions I found are inaccurate, too old (most are for DSM 4 or 5), do not work or a dangerous. I just could not get the unmounting to work!

Presteps are install ipckg using instructions found here: https://github.com/basmussen/ds414-boostrap-dsm5
then install the packages less, lsof, mlocate

E.g. the common advice:

shuts down all services including telnet and the web interface etc. but it also shutsdown my ssh server and the webserver making the box completely inaccessible while still powered on -> you need to hard reset the box

the other common advice to just do a

and then kill the PID of the processes using the volume. Problem with this is that most services are watched by the system so if you kill them, they just restart again after a sec.

Here is my solution:

Get the list of services associated with your volume you want to fs check:

Or make the list more clear with:

lsof /volume1/ | sed 1d | cut -d" " -f1 | sort | uniq

e.g.

anvil
ash
cnid_dbd
cut
dovecot
img_backu
log
master
php56-fpm
pickup
postgres
qmgr
s2s_daemo
sed
sh
sort
syno_mail
afpd
cnid

If you are a bit into Linux you can spot/group these services into categories:

php5/httpd/apache2/nginx = searchterms httpd,nginx
postgres = searchterms postgres
dovecot/syno_mail = searchterm mail
...

to generally find services by name use the following syntax

find /usr/syno/etc.defaults/rc.sysv/ | grep -i <service name>
synoservicecfg --status | grep enable | grep -i <service name>

e.g.

find /usr/syno/etc.defaults/rc.sysv/ | grep -i postgres
synoservicecfg --status | grep enable | grep -i nginx

So my approach was to spot a service which sounds promising, stop it and then run
lsof /volume1/ | sed 1d | cut -d" " -f1 | sort | uniq to see if this service vanishes from the list.
So all in all I found the following services which I had to stop.

shutdown postgres — postgesql

/usr/syno/etc.defaults/rc.sysv/pgsql.sh stop

stop php5

synoservicecfg --stop pkgctl-PHP5.6 

shutdown Mailserver

synoservicecfg --stop pkgctl-MailServer

shutdown backups (img_backu)

synoservicecfg --stop synobackupd
synoservicecfg --stop pkgctl-HyperBackupVault
synoservicecfg --stop pkgctl-synobackupd
synoservicecfg --stop pkgctl-HyperBackup
synoservicecfg --stop pkgctl-HyperBackupVault
synoservicecfg --stop pkgctl-TimeBackup

shutdown s2sdaemon

synoservicecfg --stop s2s_daemon

others: afp and cnid_dbd

Since I could not find any service definition file for those I simply killed the processes using good old kill command, which did not restart luckily within a minute or so.

disconnect the system user

now the last thing what was still in the list were some user cwd processes connected, as the /home folder was part of the /volumes1 folder:

sh      8480  Oli  cwd    DIR  253,1     4096 154796037 /volume1/homes/Oli
sudo    9104 root  cwd    DIR  253,1     4096 154796037 /volume1/homes/Oli
ash     9105 root  cwd    DIR  253,1     4096 154796037 /volume1/homes/Oli
lsof    9209 root  cwd    DIR  253,1     4096 154796037 /volume1/homes/Oli
lsof    9209 root  txt    REG  253,1   125544 369233175 /opt/sbin/lsof
lsof    9210 root  cwd    DIR  253,1     4096 154796037 /volume1/homes/Oli
lsof    9210 root  txt    REG  253,1   125544 369233175 /opt/sbin/lsof

Solution here was to logout your user and login the true root user using sshthen you can finally umount those beasts:

umount /opt
umount /volume1

then finally run your fsck diagnostic etc.

fsck.ext4 -fv /dev/mapper/vol1-origin

done!

Руководство пользователя 

Synology NAS 

Под управлением DSM 

6.1 

  37 

Глава 6: Управление объемом хранилища с помощью блоков RAID Group10F 

Расширение блоков RAID Group 

Емкость хранения блоков RAID Group можно постепенно расширять, устанавливая дополнительные 

жесткие диски или диски большего размера. Благодаря этой функции можно расширить емкость RAID 

Group дисков в соответствии с бюджетом, не опасаясь за возможную потерю данных.  
В разделах ниже приводятся базовые сведения о расширении блоков RAID Group. Для получения 

дополнительных инструкций см. 

Справку DSM

Расширение блоков RAID Group путем установки жестких дисков большего 

размера 

Можно расширить емкость хранения блоков RAID Group, заменив существующие жесткие диски на диски 

большего размера. Данная функция доступна для RAID 1, RAID 5 и RAID 6. Связанные тома или iSCSI 
LUN 

на RAID Group для одного тома или iSCSI LUN будут расширены автоматически. 

Расширение блоков RAID Group путем установки дополнительных жестких 

дисков 

Можно расширить емкость хранения блоков RAID Group, устанавливая и добавляя дополнительные 

жесткие диски. Данная функция доступна для JBOD, RAID 5 и RAID 6.  
Для блоков RAID Group с общей емкостью менее 64 ТБ система увеличивает емкость автоматически. Для 

блоков RAID Group с общей емкостью более 64 ТБ выберите 

Управление 

Расширить

, чтобы увеличить 

емкость RAID Group. 

Исправление ошибок данных файловой системы или 
RAID 

Исправление ошибок данных файловой системы или RAID — это функция организации данных, 

позволяющая проверять тома или группы дисков и устранять обнаруженную несогласованность данных. 

Исправление ошибок данных RAID можно использовать с томами или группами дисков, использующими 

SHR (из трех или более дисков), RAID 5 или RAID 6. Исправление ошибок данных файловой системы 

можно выполнить только на томах в файловой системе Btrfs. Рекомендуется регулярно выполнять 

исправление ошибок данных RAID или файловой системы, чтобы поддерживать их согласованность и 

избежать утери критически важных данных в случае отказа диска. 
Для получения дополнительных инструкций по исправлению ошибок данных RAID или файловой системы 

см. 

Справку DSM

Управление томами 

Тома являются базовыми пространствами хранения, на которых пользователь может создавать общие 

папки, iSCSI LUN (обычный файл), сохранять данные и устанавливать пакеты. Перед созданием тома в 

Synology NAS сначала создайте хотя бы один блок RAID Group. 

Создание томов 

Чтобы создать тома, выберите 

Диспетчер хранения 

Том

и нажмите 

Создать

. Для получения 

дополнительных инструкций см. 

Справку DSM

background image

Руководство пользователя Synology NAS

Под управлением DSM 6.2

31 Глава 5: Управление объемом хранения

Расширение пула ресурсов хранения путем замены дисков

Для SHR, RAID 1, RAID 5, RAID 6, RAID 10 и RAID F1 емкость пулов ресурсов хранения можно расширить

путем замены жестких дисков меньшего объема на диски большего объема. При расширении емкости с

помощью этого метода необходимо заменять жесткие диски по одному. После замены одного жесткого

диска пул ресурсов хранения необходимо восстановить, прежде чем приступать к замене следующего

жесткого диска. Для получения дополнительных инструкций см.

Справку DSM

.

Какой жесткий диск необходимо заменить первым, см. в следующей таблице.

Тип RAID

Примечания

SHR (Synology Hybrid RAID)

Если емкость всех дисков одинакова, следует заменить

не менее двух дисков. В противном случае емкость

пула ресурсов хранения не увеличится.

Если емкость жестких дисков различна, то новые диски

должны быть не меньше самого большого из

существующих дисков. Помимо этого, для оптимизации

использования хранилища сначала нужно заменить

диски самого малого объема.

RAID 1, RAID 5, RAID 6, RAID 10

При замене жестких дисков в пулах ресурсов хранения

данных типов RAID сначала необходимо заменить диск

самой меньшей емкости для максимального

использования диска.

Расширение пула ресурсов хранения путем добавления дисков

Для SHR, JBOD, RAID 5, RAID 6 и RAID F1 емкость хранилища для пулов ресурсов хранения можно

расширить, добавив дополнительные жесткие диски, если в Synology NAS есть пустые отсеки для жестких

дисков. Для получения дополнительных инструкций см.

Справку DSM

.

Сведения о минимальном размере новых жестких дисков см. в следующей таблице.

Тип RAID

Минимальный размер жесткого диска

SHR

Емкость добавляемого диска должна быть не меньше

самого большого диска в пуле ресурсов хранения или

быть равной любому диску в пуле ресурсов хранения.

Например, если том SHR состоит из трех дисков

емкостью 2, 1,5 и 1 ТБ, то емкость нового диска должна

быть не меньше 2 ТБ или равняться 1,5 ТБ либо 1 ТБ.

RAID 5, RAID 6, RAID F1

Емкость добавляемого диска должна быть не меньше

самого малого диска в пуле ресурсов хранения.

Например, если том состоит из трех дисков емкостью 2,

1,5 и 1 ТБ, то емкость нового диска должна быть не

меньше 1 ТБ.

Исправление ошибок данных файловой системы или

RAID

Исправление ошибок данных файловой системы или RAID — это функция организации данных,

позволяющая проверять пулы ресурсов хранения и устранять обнаруженную несогласованность данных.

Функцию исправления ошибок данных RAID можно использовать с пулами ресурсов хранения,

использующими SHR (из трех или более дисков), RAID 5, RAID 6 или RAID F1. Исправление ошибок

данных файловой системы можно выполнить только на томах в файловой системе Btrfs.
Рекомендуется регулярно выполнять исправление ошибок данных RAID или файловой системы, чтобы

поддерживать их согласованность и избежать утери критически важных данных в случае отказа диска.

Для получения дополнительных инструкций см.

Справку DSM

.

Пару недель как начала появляться ошибка:

«В разделе 1 обнаружена ошибка файловой системы»

SMART и состояние жестких дисков — в норме. Но ошибка не уходит, не помогает ни ребут наса, ни проверка. Обратил внимание на надпись (см. скрин) «Исправление ошибок данных файловой системы не поддерживается» файловая система EXT4.

Неужели это ограничения EXT4 и как Как можно исправить?

Диски собраны в RAID10.

gUyHClJ.png

На самосборном NAS-е установлена DSM 5.2-5967, загрузка через XPEnoboot_DS3615xs_5.2-5967.1.

В системе 8 дисков по 4 ТБ, RAID6.

Единственное применение этого НАС-а — ежедневные бэкапы с других серверов SYNOLOGY, больше на нем ничего не крутится, совсем.

В какой-то момент один диск отказал (Crashed), и том вошел в статус Degraded.

И тут же посыпались ошибки файловой системы :sad:

Появляется окно File System Check, перезагружаю систему, она довольно долго что-то делает, потом опять становится доступной, но почти сразу после загрузки опять появляется это окно.

И так продолжается уже довольно долго.

При этом все бэкапы кроме одного единственного продолжают нормально бэкапиться и добавляться (все бэкапы инкрементные).

И только с одним проблемы — при очередной попытке сделать бэкап выдается ошибка, а на этом сервере бэкапов снова вылезает окно об ошибках файловой системы.

Кто с таким сталкивался? Что делать?

Может быть есть возможность как-то руками запустить полную проверку файловой системы из командной строки, залогинившись под админом?

P.S.

Немаловажное уточнение: этот проблемный бэкап — это бэкап корпоративной почты.

Там есть папка с аттачами, в которой на данный момент находится более 250 тысяч файлов общим объемом 190 гигов.

Может быть дело в этой папке?

Но в то же время на другом аналогичном сервере она работает каждый день, и проблем с ней до сих пор (3*тьфу) не возникало.

P.P.S.

Примерно месяц назад такая же проблема была еще с одним бэкапом на этом же сервере, но тот бэкап был ничем не примечателен.

Дело кончилось тем, что пришлось грохнуть весь куст бэкапов за год (там было около 280 последовательных бэкапов), и начать все заново.

Но это же не выход?

Помогите пожалуйста решить проблему. Что-то непонятное творится :sad:

P.P.P.S.

В официальную техподдержку уже обращался, но там сразу затребовали серийник.

Давать им серийник от реально работающего другого нашего настоящего сервера Synology я что-то постеснялся,

поэтому переписку пришлось прервать и сказать что бэкапы грохнули и работаем дальше :sad:

Возможно, вам также будет интересно:

  • Исправление ошибок горе мастеров 9 букв сканворд
  • Исправление ошибок выявленных до даты представления бухгалтерской отчетности
  • Исправление ошибок вов циркл
  • Исправление ошибок вов квест
  • Исправление ошибок во всех экземплярах инвентаризационных описей

  • Понравилась статья? Поделить с друзьями:
    0 0 голоса
    Рейтинг статьи
    Подписаться
    Уведомить о
    guest

    0 комментариев
    Старые
    Новые Популярные
    Межтекстовые Отзывы
    Посмотреть все комментарии