Обсуждение:Создание отказоустойчивого сетевого хранилища ГИС данных: различия между версиями
Перейти к навигации
Перейти к поиску
(→Имхошечки: новая тема) |
(→Моя копеечка: новая тема) |
||
Строка 9: | Строка 9: | ||
# На скриншоте копирование в 10 раз медленнее чем в тесте с dd. Почему так? Где узкое место? | # На скриншоте копирование в 10 раз медленнее чем в тесте с dd. Почему так? Где узкое место? | ||
[[Участник:Aleksandr Dezhin|Aleksandr Dezhin]] 02:06, 4 июня 2012 (MSD) | [[Участник:Aleksandr Dezhin|Aleksandr Dezhin]] 02:06, 4 июня 2012 (MSD) | ||
== Моя копеечка == | |||
С Сашей согласен практически по всем моментам.<br /> | |||
Добавлю: | |||
* XFS может сжирать неимоверные объемы при восстановлении. Но при работе с большими файлами она конечно изумительна | |||
* Samba хороша если вокруг только окна. Если есть возможность, то неплохо поюзать nfs. Это все таки и ядерный модуль и кэширование блоков на уровне ядра | |||
* Если это действительно отказоустойчивое решение, то время восстановления до рабочего состояния должно быть адекватным. Сколько понадобиться времени, чтобы восстановить систему с убитого системного диска? Может следует держать бэкап системного раздела где-то еще? Либо разориться на зеркальный диск для него? | |||
* имхо проца на веб-сервер и БД не хватит. smbd при активной нагрузке может съедать и 25% ядра на один поток, и это не потолок. помножим на raid5 и на 10-15 пользователях получаем серьезную нагрузку. хотя тут наверное раньше встанет горлышко сети. | |||
По отличиям в скорости - имхо это 100Мб сеть. С не очень хорошим рутером :) |
Версия от 11:11, 4 июня 2012
Очень интересно :) --Amuriy 00:26, 1 мая 2012 (MSD)
Имхошечки
- Вряд-ли получившееся решение можно назвать отказоустойчивым. Единственное что здесь резервируется - это жесткие диски, и то только с данными. Все остальное - точки отказа: мат. плата, блок питания. Мне кажется получилось типичное решение SOHO уровня.
- В случае с RAID, задача мониторинга становиться очень актуальной. Если его нет, то отказ одного из дисков можно заметить очень не скоро. Можно даже дотянуть до отказа второго с полным разрушением массива.
- XFS обладает очень неприятным поведением при некорректном отключении жесткого диска, например в случае отказа по питанию. UPS только частично решает эту проблему. Ext4 вроде бы тоже поддерживает увеличение размера на лету.
- На скриншоте копирование в 10 раз медленнее чем в тесте с dd. Почему так? Где узкое место?
Aleksandr Dezhin 02:06, 4 июня 2012 (MSD)
Моя копеечка
С Сашей согласен практически по всем моментам.
Добавлю:
- XFS может сжирать неимоверные объемы при восстановлении. Но при работе с большими файлами она конечно изумительна
- Samba хороша если вокруг только окна. Если есть возможность, то неплохо поюзать nfs. Это все таки и ядерный модуль и кэширование блоков на уровне ядра
- Если это действительно отказоустойчивое решение, то время восстановления до рабочего состояния должно быть адекватным. Сколько понадобиться времени, чтобы восстановить систему с убитого системного диска? Может следует держать бэкап системного раздела где-то еще? Либо разориться на зеркальный диск для него?
- имхо проца на веб-сервер и БД не хватит. smbd при активной нагрузке может съедать и 25% ядра на один поток, и это не потолок. помножим на raid5 и на 10-15 пользователях получаем серьезную нагрузку. хотя тут наверное раньше встанет горлышко сети.
По отличиям в скорости - имхо это 100Мб сеть. С не очень хорошим рутером :)