.\" Man page generated from reStructuredText.
.
.TH "CEPH-BLUESTORE-TOOL" "8" "Jan 23, 2022" "dev" "Ceph"
.SH NAME
ceph-bluestore-tool \- bluestore administrative tool
.
.nr rst2man-indent-level 0
.
.de1 rstReportMargin
\\$1 \\n[an-margin]
level \\n[rst2man-indent-level]
level margin: \\n[rst2man-indent\\n[rst2man-indent-level]]
-
\\n[rst2man-indent0]
\\n[rst2man-indent1]
\\n[rst2man-indent2]
..
.de1 INDENT
.\" .rstReportMargin pre:
. RS \\$1
. nr rst2man-indent\\n[rst2man-indent-level] \\n[an-margin]
. nr rst2man-indent-level +1
.\" .rstReportMargin post:
..
.de UNINDENT
. RE
.\" indent \\n[an-margin]
.\" old: \\n[rst2man-indent\\n[rst2man-indent-level]]
.nr rst2man-indent-level -1
.\" new: \\n[rst2man-indent\\n[rst2man-indent-level]]
.in \\n[rst2man-indent\\n[rst2man-indent-level]]u
..
.SH 提纲
.nf
\fBceph\-bluestore\-tool\fP \fIcommand\fP
[ \-\-dev \fIdevice\fP ... ]
[ \-i \fIosd_id\fP ]
[ \-\-path \fIosd path\fP ]
[ \-\-out\-dir \fIdir\fP ]
[ \-\-log\-file | \-l \fIfilename\fP ]
[ \-\-deep ]
\fBceph\-bluestore\-tool\fP fsck|repair \-\-path \fIosd path\fP [ \-\-deep ]
\fBceph\-bluestore\-tool\fP qfsck       \-\-path \fIosd path\fP
\fBceph\-bluestore\-tool\fP allocmap    \-\-path \fIosd path\fP
\fBceph\-bluestore\-tool\fP restore_cfb \-\-path \fIosd path\fP
\fBceph\-bluestore\-tool\fP show\-label \-\-dev \fIdevice\fP ...
\fBceph\-bluestore\-tool\fP prime\-osd\-dir \-\-dev \fIdevice\fP \-\-path \fIosd path\fP
\fBceph\-bluestore\-tool\fP bluefs\-export \-\-path \fIosd path\fP \-\-out\-dir \fIdir\fP
\fBceph\-bluestore\-tool\fP bluefs\-bdev\-new\-wal \-\-path \fIosd path\fP \-\-dev\-target \fInew\-device\fP
\fBceph\-bluestore\-tool\fP bluefs\-bdev\-new\-db \-\-path \fIosd path\fP \-\-dev\-target \fInew\-device\fP
\fBceph\-bluestore\-tool\fP bluefs\-bdev\-migrate \-\-path \fIosd path\fP \-\-dev\-target \fInew\-device\fP \-\-devs\-source \fIdevice1\fP [\-\-devs\-source \fIdevice2\fP]
\fBceph\-bluestore\-tool\fP free\-dump|free\-score \-\-path \fIosd path\fP [ \-\-allocator block/bluefs\-wal/bluefs\-db/bluefs\-slow ]
\fBceph\-bluestore\-tool\fP reshard \-\-path \fIosd path\fP \-\-sharding \fInew sharding\fP [ \-\-sharding\-ctrl \fIcontrol string\fP ]
\fBceph\-bluestore\-tool\fP show\-sharding \-\-path \fIosd path\fP
.fi
.sp
.SH 描述
.sp
\fBceph\-bluestore\-tool\fP 工具可在 BlueStore 例程上执行底层管理操作。
.SH 命令
.sp
\fBhelp\fP
.INDENT 0.0
.INDENT 3.5
显示帮助
.UNINDENT
.UNINDENT
.sp
\fBfsck\fP [ \-\-deep ]
.INDENT 0.0
.INDENT 3.5
对 BlueStore 元数据进行一致性检查。如果加了 \fI\-\-deep\fP ，还会读取所有对象数据并核对校验和。
.UNINDENT
.UNINDENT
.sp
\fBrepair\fP
.INDENT 0.0
.INDENT 3.5
运行一致性检查，\fI并且\fP修复所有可修复的错误。
.UNINDENT
.UNINDENT
.sp
\fBqfsck\fP
.INDENT 0.0
.INDENT 3.5
对 BlueStore 元数据进行一致性检查，比对分配器数据
（有 RocksDB CFB 就用它、没有用分配信息文件）与 ONode 状态。
.UNINDENT
.UNINDENT
.sp
\fBallocmap\fP
.INDENT 0.0
.INDENT 3.5
进行与 qfsck 相同的检查，然后保存一个新的分配信息文件
（此命令默认被禁用了，需要特意编译）。
.UNINDENT
.UNINDENT
.sp
\fBrestore_cfb\fP
.INDENT 0.0
.INDENT 3.5
回退新 NCB 代码做出的更改（通过重启 Ceph 或运行 allocmap 命令）、
并恢复 RocksDB B Column\-Family (allocator\-map) 。
.UNINDENT
.UNINDENT
.sp
\fBbluefs\-export\fP
.INDENT 0.0
.INDENT 3.5
把 BlueFS 内容（即 RocksDB 文件）导出到一个输出目录。
.UNINDENT
.UNINDENT
.sp
\fBbluefs\-bdev\-sizes\fP \-\-path \fIosd path\fP
.INDENT 0.0
.INDENT 3.5
打印出设备尺寸，即 BlueFS 所认为的尺寸。
.UNINDENT
.UNINDENT
.sp
\fBbluefs\-bdev\-expand\fP \-\-path \fIosd path\fP
.INDENT 0.0
.INDENT 3.5
让 BlueFS 检查它的块设备尺寸，并且，如果发现它们扩大了，
把那些额外空间也用起来。请注意，在空闲空间足够的前提下，
只有 BlueFS 新建的文件才会被分配到首选块设备；
而已经存在的、溢出到慢速设备上的文件会在 RocksDB 压缩时逐渐删除。
换句话说，如果有数据溢出到了慢速设备上，
它会随着时间的推移被挪到高速设备上。
.UNINDENT
.UNINDENT
.sp
\fBbluefs\-bdev\-new\-wal\fP \-\-path \fIosd path\fP \-\-dev\-target \fInew\-device\fP
.INDENT 0.0
.INDENT 3.5
给 BlueFS 增加 WAL 设备，如果已有 WAL 设备此命令就会失败。
.UNINDENT
.UNINDENT
.sp
\fBbluefs\-bdev\-new\-db\fP \-\-path \fIosd path\fP \-\-dev\-target \fInew\-device\fP
.INDENT 0.0
.INDENT 3.5
给 BlueFS 增加 DB 设备，如果已有 DB 设备此命令就会失败。
.UNINDENT
.UNINDENT
.sp
\fBbluefs\-bdev\-migrate\fP \-\-dev\-target \fInew\-device\fP \-\-devs\-source \fIdevice1\fP [\-\-devs\-source \fIdevice2\fP]
.INDENT 0.0
.INDENT 3.5
把一个或多个源设备上的 BlueFS 数据移动到目标设备，
成功后源设备（除了主要的那个）将被删除。
目标设备可以是已加入集群的、或新设备。稍后，
它将被加进 OSD ，以替换某一个源设备。
遵循下面的替换规则（按优先级，匹配到即停止）：
.INDENT 0.0
.INDENT 3.5
.INDENT 0.0
.IP \(bu 2
如果源列表中有 DB 卷——目标设备替换它；
.IP \(bu 2
如果源列表中有 WAL 卷——目标设备替换它；
.IP \(bu 2
如果源列表中只有慢速卷——操作不允许，
要显式地用 new\-db 、 new\-wal 命令分配。
.UNINDENT
.UNINDENT
.UNINDENT
.UNINDENT
.UNINDENT
.sp
\fBshow\-label\fP \-\-dev \fIdevice\fP [...]
.INDENT 0.0
.INDENT 3.5
出示设备标签。
.UNINDENT
.UNINDENT
.sp
\fBfree\-dump\fP \-\-path \fIosd path\fP [ \-\-allocator block/bluefs\-wal/bluefs\-db/bluefs\-slow ]
.INDENT 0.0
.INDENT 3.5
展示分配器中的所有空闲区域。
.UNINDENT
.UNINDENT
.sp
\fBfree\-score\fP \-\-path \fIosd path\fP [ \-\-allocator block/bluefs\-wal/bluefs\-db/bluefs\-slow ]
.INDENT 0.0
.INDENT 3.5
会收到一个 0\-1 之间的数字，用于表示分配器中碎片的质量。
0 表示所有空闲空间都在一个块中的情形； 1 表示最糟糕的碎片散布情形。
.UNINDENT
.UNINDENT
.sp
\fBreshard\fP \-\-path \fIosd path\fP \-\-sharding \fInew sharding\fP [ \-\-resharding\-ctrl \fIcontrol string\fP ]
.INDENT 0.0
.INDENT 3.5
更改 BlueStore 内 RocksDB 的分片配置。
分片建立在 RocksDB 列族基础之上。
此选项方便你测试 \fInew sharding\fP 的性能，而无需重新部署 OSD 。
重分片一般都耗时绵长，需要遍历整个 RocksDB 键名空间、
并把其中某些挪到别的列族。
\fB\-\-resharding\-ctrl\fP 选项便于你对重分片过程进行性能控制。
中断重分片会妨碍 OSD 的正常运行；中断重分片不会损坏数据；而且随时可以继续之前的重分片，或者选用其它分片方案，
包括回退到最初的那个。
.UNINDENT
.UNINDENT
.sp
\fBshow\-sharding\fP \-\-path \fIosd path\fP
.INDENT 0.0
.INDENT 3.5
罗列出当前正被应用到 BlueStore 的 RocksDB 的分片。
.UNINDENT
.UNINDENT
.SH 选项
.INDENT 0.0
.TP
.B \-\-dev *device*
把设备 \fIdevice\fP 加进涉及到的设备列表中。
.UNINDENT
.INDENT 0.0
.TP
.B \-i *osd_id*
以 OSD \fIosd_id\fP 的身份进行操作。
连接到监视器以实现 OSD 的特定选项。
如果监视器不可用，加上 \-\-no\-mon\-config 选项直接从 ceph.conf 读取。
.UNINDENT
.INDENT 0.0
.TP
.B \-\-devs\-source *device*
把设备 \fIdevice\fP 加进迁移操作涉及到的源设备列表中。
.UNINDENT
.INDENT 0.0
.TP
.B \-\-dev\-target *device*
指定用于迁移操作或新增设备的目标设备 \fIdevice\fP ，以便新增
DB/WAL 。
.UNINDENT
.INDENT 0.0
.TP
.B \-\-path *osd path*
指定一个 osd 路径。大多数情况下，设备列表都是从 \fIosd path\fP
里的符号链接推断出来的。通常比显式地用 \-\-dev 指定几个设备要简单些。
.UNINDENT
.INDENT 0.0
.TP
.B \-\-out\-dir *dir*
bluefs\-export 的输出目录。
.UNINDENT
.INDENT 0.0
.TP
.B \-l, \-\-log\-file *log file*
记录日志的文件
.UNINDENT
.INDENT 0.0
.TP
.B \-\-log\-level *num*
调试日志级别。默认是 30 （极其详细）， 20 是非常详细，
10 是详细， 而 1 是不怎么详细。
.UNINDENT
.INDENT 0.0
.TP
.B \-\-deep
深度洗刷、修复（读取并校验对象数据，而不只是元数据）
.UNINDENT
.INDENT 0.0
.TP
.B \-\-allocator *name*
适用于 \fIfree\-dump\fP 和 \fIfree\-score\fP 操作。选择分配器。
.UNINDENT
.INDENT 0.0
.TP
.B \-\-resharding\-ctrl *control string*
提供了对重分片过程的控制手段，指示多久刷一次 RocksDB 递归器，以及提交给 RocksDB 的批次应该是多大。
选项格式为：
<iterator_refresh_bytes>/<iterator_refresh_keys>/<batch_commit_bytes>/<batch_commit_keys> 。
默认值： 10000000/10000/1000000/1000
.UNINDENT
.SH CEPH.CONF 附加选项
.sp
OSD 接受的任何配置选项都可以传给 \fBceph\-bluestore\-tool\fP 。
当不能访问监视器、 ceph.conf ， \fB\-i\fP 选项也不能用时，
用此方法提供必要的配置选项很有用。
.SH 设备标签
.sp
每个 BlueStore 块设备都有一个单独的块标签，位于设备起始处。
你可以用此命令查看标签内容：
.INDENT 0.0
.INDENT 3.5
.sp
.nf
.ft C
ceph\-bluestore\-tool show\-label \-\-dev *device*
.ft P
.fi
.UNINDENT
.UNINDENT
.sp
主设备会有很多元数据，包括以前在 OSD 数据目录下存储的小文件内的信息。
辅助设备（ db 和 wal ）只含有必需的最少字段
（ OSD UUID 、尺寸、设备类型、创建时间）。
.SH OSD 目录启动
.sp
你可以给一个 OSD 数据目录生成些数据，
借此才能用 \fIprime\-osd\-dir\fP 启动 BlueStore OSD ：
.INDENT 0.0
.INDENT 3.5
.sp
.nf
.ft C
ceph\-bluestore\-tool prime\-osd\-dir \-\-dev *main device* \-\-path /var/lib/ceph/osd/ceph\-*id*
.ft P
.fi
.UNINDENT
.UNINDENT
.SH 拯救 BLUEFS 日志
.sp
有些版本的 BlueStore ，它的 BlueFS 日志会增长得非常巨大 ——
以至于 OSD 都没法启动了。
如果启动用了很长时间却在 _replay 函数里失败了，那就是遇到了这种状态。
.sp
这情况可以这样修复：
.INDENT 0.0
.INDENT 3.5
.sp
.nf
.ft C
ceph\-bluestore\-tool fsck \-\-path *osd path* \-\-bluefs_replay_recovery=true
.ft P
.fi
.UNINDENT
.UNINDENT
.sp
建议您首先检查一下拯救过程是否会成功：
.INDENT 0.0
.INDENT 3.5
.sp
.nf
.ft C
ceph\-bluestore\-tool fsck \-\-path *osd path* \e
    \-\-bluefs_replay_recovery=true \-\-bluefs_replay_recovery_disable_compact=true
.ft P
.fi
.UNINDENT
.UNINDENT
.sp
如果上面的 fsck 成功了，就可以施行修复过程。
.SH 使用范围
.sp
\fBceph\-bluestore\-tool\fP 是 Ceph 的一部分，这是个伸缩力强、开源、分布式的存储系统，更多信息参见 \fI\%https://docs.ceph.com\fP 。
.SH 参考
.sp
ceph\-osd(8)
.SH COPYRIGHT
2010-2014, Inktank Storage, Inc. and contributors. Licensed under Creative Commons Attribution Share Alike 3.0 (CC-BY-SA-3.0)
.\" Generated by docutils manpage writer.
.
