Обсуждение:Создание отказоустойчивого сетевого хранилища ГИС данных: различия между версиями
Перейти к навигации
Перейти к поиску
(→Моя копеечка: новая тема) |
м (→Моя копеечка) |
||
Строка 19: | Строка 19: | ||
* имхо проца на веб-сервер и БД не хватит. smbd при активной нагрузке может съедать и 25% ядра на один поток, и это не потолок. помножим на raid5 и на 10-15 пользователях получаем серьезную нагрузку. хотя тут наверное раньше встанет горлышко сети. | * имхо проца на веб-сервер и БД не хватит. smbd при активной нагрузке может съедать и 25% ядра на один поток, и это не потолок. помножим на raid5 и на 10-15 пользователях получаем серьезную нагрузку. хотя тут наверное раньше встанет горлышко сети. | ||
По отличиям в скорости - имхо это 100Мб сеть. С не очень хорошим рутером :) | По отличиям в скорости - имхо это 100Мб сеть. С не очень хорошим рутером :)<br /> | ||
[[Участник:Yellow-sky|Yellow-sky]] 15:23, 4 июня 2012 (MSD) |
Текущая версия от 12:23, 4 июня 2012
Очень интересно :) --Amuriy 00:26, 1 мая 2012 (MSD)
Имхошечки
- Вряд-ли получившееся решение можно назвать отказоустойчивым. Единственное что здесь резервируется - это жесткие диски, и то только с данными. Все остальное - точки отказа: мат. плата, блок питания. Мне кажется получилось типичное решение SOHO уровня.
- В случае с RAID, задача мониторинга становиться очень актуальной. Если его нет, то отказ одного из дисков можно заметить очень не скоро. Можно даже дотянуть до отказа второго с полным разрушением массива.
- XFS обладает очень неприятным поведением при некорректном отключении жесткого диска, например в случае отказа по питанию. UPS только частично решает эту проблему. Ext4 вроде бы тоже поддерживает увеличение размера на лету.
- На скриншоте копирование в 10 раз медленнее чем в тесте с dd. Почему так? Где узкое место?
Aleksandr Dezhin 02:06, 4 июня 2012 (MSD)
Моя копеечка
С Сашей согласен практически по всем моментам.
Добавлю:
- XFS может сжирать неимоверные объемы при восстановлении. Но при работе с большими файлами она конечно изумительна
- Samba хороша если вокруг только окна. Если есть возможность, то неплохо поюзать nfs. Это все таки и ядерный модуль и кэширование блоков на уровне ядра
- Если это действительно отказоустойчивое решение, то время восстановления до рабочего состояния должно быть адекватным. Сколько понадобиться времени, чтобы восстановить систему с убитого системного диска? Может следует держать бэкап системного раздела где-то еще? Либо разориться на зеркальный диск для него?
- имхо проца на веб-сервер и БД не хватит. smbd при активной нагрузке может съедать и 25% ядра на один поток, и это не потолок. помножим на raid5 и на 10-15 пользователях получаем серьезную нагрузку. хотя тут наверное раньше встанет горлышко сети.
По отличиям в скорости - имхо это 100Мб сеть. С не очень хорошим рутером :)
Yellow-sky 15:23, 4 июня 2012 (MSD)