Mercurial > hg > Papers > 2021 > mk-thesis
comparison paper/chapter/technology_overview.tex @ 12:a93bf4babe74
update tex
author | Ken Miyahira <e175733@ie.u-ryukyu.ac.jp> |
---|---|
date | Thu, 14 Jan 2021 15:46:59 +0900 |
parents | 00b7356a0706 |
children | 0c823bf36b20 |
comparison
equal
deleted
inserted
replaced
11:00b7356a0706 | 12:a93bf4babe74 |
---|---|
92 コンテナイメージは Singularity Image Format (以下, sif) と呼ばれる単一ファイルベースのため, アーカイブや共有が容易である。 | 92 コンテナイメージは Singularity Image Format (以下, sif) と呼ばれる単一ファイルベースのため, アーカイブや共有が容易である。 |
93 | 93 |
94 \section{Ceph} | 94 \section{Ceph} |
95 Ceph は, RedHat 社が開発, 提供する分散ファイルシステムである。 | 95 Ceph は, RedHat 社が開発, 提供する分散ファイルシステムである。 |
96 Ceph は分散オブジェクトストレージであるRADOS (Reliable Autonomic Distributred Object Storage) がベースとなっている (図\ref{fig:ceph})。 | 96 Ceph は分散オブジェクトストレージであるRADOS (Reliable Autonomic Distributred Object Storage) がベースとなっている (図\ref{fig:ceph})。 |
97 オブジェクトストレージはデータをオブジェクトという単位でやり取りをするストレージシステムである。 | |
98 複数のストレージを束ねて利用できるオブジェクトストレージが分散オブジェクトストレージである。 | |
99 RAODS では, Object Storage Daemon (OSD) にデータ格納する。 | |
100 オブジェクトの配置には, クラスタマップを元に Controlled Replication Under Scalable Hashing (CRUSH) アルゴリズムによりオブジェクトの格納先を選択する。 | |
101 配置の計算に必要とする情報はごくわずかであるため, Cephクラスタ内のすべてのノードは保存されている位置を計算できる。 | |
102 そのため, データの読み書きが効率化される。また, CRUSH はデータをクラスタ内のすべてのノードに均等に分散しようとする。 | |
103 \par | |
97 RODOS はクラスタに保存されるデータの管理を待ち受け, 保存オブジェクトへのアクセス方法として Object Gateway, RADOS Block Device (以下, RBD), CephFS がある。 | 104 RODOS はクラスタに保存されるデータの管理を待ち受け, 保存オブジェクトへのアクセス方法として Object Gateway, RADOS Block Device (以下, RBD), CephFS がある。 |
98 Object Gateway は HTTP REST 経由でクラスタに保存されるオブジェクトへ直接アクセスが可能である。 | 105 Object Gateway は HTTP REST 経由でクラスタに保存されるオブジェクトへ直接アクセスが可能である。 |
99 RBD はブロックデバイスとしてアクセスが可能で, libvirt を組み合わせてVMのディスクとして使用できる。 | 106 RBD はブロックデバイスとしてアクセスが可能で, libvirt を組み合わせてVMのディスクとして使用できる。 |
100 また, RBDドライバを搭載したOSにマップし ext4 や XFS などでフォーマットして利用できる。 | 107 また, RBDドライバを搭載したOSにマップし ext4 や XFS などでフォーマットして利用できる。 |
101 CephFS は POSIX互換のファイルシステムである。 | 108 CephFS は POSIX互換のファイルシステムである。 |