@@ -104,18 +104,16 @@ CephFS
104
104
------------
105
105
* Tiering vs bcache vs dm-cache + инструкции по дмкешу.
106
106
* почему дедупликация крайне затруднена в архитектуре Ceph
107
- * В filestore всё полностью пишется в журнал. WAL используется как
107
+ *
108
+ .. _filestore_wal :
109
+
110
+ В filestore всё полностью пишется в журнал. WAL используется как
108
111
writeback-cache по сути. Один write в rados превращается в два сисколла write
109
112
-- один в журнал (с синком) и один в основное хранилище. Основное хранилище фсинкается
110
113
время от времени. Запись в журнал линейная, а в основное хранилище рандомная. При записи
111
114
в хранилище поможет параллельность которую может диск (например, NCQ). При записи в журнал
112
115
параллельность не используется, поэтому диск под журнал для файлстора надо бенчить именно
113
- так:
114
-
115
- .. code-block :: sh
116
-
117
- $ fio --ioengine=libaio --sync 1 --direct=1 --name=test \
118
- --bs=4k --iodepth=1 --readwrite=write --runtime 60 --filename=/dev/sdXX
116
+ так: wal_bench _.
119
117
120
118
* при выносе журнала или БД на отдельный диск теряется возможность перевставлять диски в
121
119
другой нод. При старте ОСД (бай дефолт есть параметр) обновляет себя в крушмапе.
@@ -164,15 +162,9 @@ CephFS
164
162
165
163
* если много - юсадж памяти, перегрузка сети
166
164
167
- Бенчмаркинг
168
- -----------
169
165
170
- * Как бенчмаркить сам цеф и рбд. какие типовые кейсы. говорят, фио врёт про рбд
171
- (надо исходники посмотреть рбд драйвера).
172
- * что иопсы равны самым медленным иопсам серди актинг сета.
173
- * как бенчить радос. нужно сопоставить рассчетное и фактическое. ибо всегда можно создать
174
- нагрузку которая задосит кластер.
175
- * RBD надо бенчить на зааллокейченном диске.
166
+ .. include :: bench.rst
167
+
176
168
177
169
Мониторинг
178
170
----------
0 commit comments