http://searchsmbstorage.techtarget.com/tip/Five-ways-to-control-
RAID-rebuild-times
)
о том, что на восстановление сравнительно небольшого массива
из 5 дисков по 500 Гбайт ушло 24 часа.
580
Часть VI. Linux на сервере
процесс репликации. Преимущество очевидно — не нужно ждать, пока админист-
ратор заменит сломавшийся диск, не говоря уже о скорости самой репликации. На
рис. 40.1 показана диаграмма времени репликации классического RAID уровня 1 и
кластера PStorage, построенного на базе 7 и 14 серверов. Используются SATA-
диски на 1 Тбайт, а скорость передачи данных по сети (теоретическая) составляет
1 Гбит/с.
Полагаю, результаты не нуждаются в каких-либо комментариях.
Рис. 40.2.
Сравнение разных программных систем хранения данных (иллюстрация
с ресурса
http://www.yet.org/2012/12/staas/)
Рис. 40.1.
Время репликации 1 Тбайт
Глава 40. Программные системы хранения данных
581
Мы здесь не станем рассматривать, чем отличаются различные программные сис-
темы хранилищ. Если вам все-таки интересно, рекомендую ознакомиться с кратким
сравнением
(http://www.yet.org/2012/12/staas/),
по результатам которого становит-
ся понятно, что самым универсальным вариантом на сегодняшний день является
система Ceph (рис. 40.2). Она позволяет покрыть все потребности современного
предприятия. Если вам нужен NAS, SAN, распределенная файловая система и хра-
нилище объектов, то ваш выбор — Ceph.
40.3. Распределенная система
хранения данных Ceph
Итак, Ceph — это распределенная система хранения данных с открытым исходным
кодом, обеспечивающая высокую производительность, надежность и масштаби-
руемость. Система Ceph хранит объекты на распределенном компьютерном класте-
ре и предоставляет интерфейсы для хранения файлов, блоков, объектов.
Ceph построена на следующих архитектурных принципах:
□ не должно быть единой точки отказа;
□ система должна работать на общедоступных аппаратных средствах;
□ все компоненты системы должны быть масштабируемыми;
□ решение должно быть основано на открытом программном обеспечении;
□ все должно быть самоуправляемым — везде, где это возможно.
Ceph позволяет достичь высокой производительности, неограниченной масштаби-
руемости, отказаться от архаичных систем хранения данных. Ceph — это унифици-
рованное решение для хранения данных уровня предприятия, работающее на обыч-
ных аппаратных средствах, что делает его экономически эффективной и много-
функциональной системой хранения данных.
Можно долго и относительно скучно описывать архитектуру Ceph, объяснять тер-
мины, но об этом написано множество материалов, ссылки на которые будут при-
ведены в конце этой главы.
В сопровождающем книгу электронном архиве (см.
приложение
) вы найдете два
файла:
3.gif
и
4.gif
. Считайте, что это третья и четвертая иллюстрации к этой главе.
На рис.
3.gif
показано, как работает Ceph в штатном режиме, а на рис.
4.gif
— что
произойдет с Ceph в случае сбоя. При выходе из строя любого узла (или диска) сис-
тема Ceph не только обеспечит сохранность данных, но и сама восстановит поте-
рянные на других узлах копии — до тех пор, пока вышедшие из строя узлы или
диски не заменят рабочими. Нужно отметить, что, в отличие от RAID, ребилд про-
исходит без секунды простоя и полностью незаметен для клиентов. Потеря одной
из копий объекта приводит к переходу объекта в состояние degraded. После этого
копия объекта переносится на рабочий узел и выполняется ремаппинг. Новая карта
будет содержать новое расположение потерянной копии объекта. Все это выполня-
582
Do'stlaringiz bilan baham: |