comparison paper/chapter/new_system.tex @ 21:26a9f492bb21

update system
author Ken Miyahira <e175733@ie.u-ryukyu.ac.jp>
date Mon, 25 Jan 2021 22:16:03 +0900
parents
children 53dc8a409077
comparison
equal deleted inserted replaced
20:cfe8f0abdacb 21:26a9f492bb21
1 \chapter{教育計算機システムの構築}
2
3 本章では, 2020年9月に行われたシステム更新, 演習や研究用に利用できる仮想環境について述べる。。
4
5 \section{新システムのオンプレミス環境}
6 新システムでは, 表\ref{tb:newserver}の汎用サーバを4台採用した。
7 旧システムのストレージはHDDであったが, SSDの大容量化, 低価格化によりSSDを搭載した。
8 また, 演習や研究等で利用できるようGPUも搭載した。
9
10 \begin{table}[H]
11 \begin{center}
12 \caption{新システムの物理サーバ}
13 \begin{tabular}{|c|c|} \hline
14 CPU & Intel Xeon Gold 6238 (2.10GHz/22Core) \\ \hline
15 CPUユニット数 & 2 \\ \hline
16 GPU & Nvidia Tesla V100S \\ \hline
17 メモリ & 512GB\\ \hline
18 SAS SSD & 5TB \\ \hline
19 NVMe SSD & 1.5TB \\ \hline
20 \end{tabular}
21 \label{tb:newserver}
22 \end{center}
23 \end{table}
24
25 次にユーザのデータなどを補完するために, 表\ref{tb:newdiskserver}のストレージサーバを2台採用した。
26 2台のストレージサーバにはCephを構築するため, RAIDを構成せず利用する。
27 そのため, 旧システムでは全体容量が40TBだったが, 新システムでは90TBと増加した。
28
29 \begin{table}[H]
30 \begin{center}
31 \caption{新システムのストレージサーバ}
32 \begin{tabular}{|c|c|} \hline
33 CPU & Intel Xeon Silver 4208\\ \hline
34 メモリ & 32GB \\ \hline
35 SAS HDD & 300GB/15000rpm x 2 \\ \hline
36 NLSAS HDD & 4TB/7200rpm x 12 \\ \hline
37 \end{tabular}
38 \label{tb:newdiskserver}
39 \end{center}
40 \end{table}
41
42 \subsection{Virtual Machine}
43 旧システムではVMベースでシステムを構築していたが, 新システムではコンテナベースでの構築行った。
44 しかし, VM貸出サービスであるAkatsuki, ie-virshは利用を継続する。
45 また, ie-virshは新たに以下の機能を追加した。
46 \begin{itemize}
47 \item 手元のPCのVMをデプロイするだけでなく, VMのテンプレートから差分で新しくVMを作成する
48 \item 作成したVMのリソースを変更する
49 \end{itemize}
50 新システムでは旧サーバと比べディスク容量が増加したため, VMイメージを汎用サーバのディスクドライブに保存することで, VMの起動速度を高速化を図ることができる。
51 旧システムではVMの作成は申請が必要であったが, 利用者は申請をせずVMを作成できるように機能を追加した。
52 しかし, 利用者が制限なくVMを作成するとディスクリソースを圧迫する恐れがある。
53 そこで, VMの作成にはクローンではなく差分で作成することで, VMイメージサイズを小さくすることができる。
54
55 \subsection{コンテナ}
56 新システムでもVM貸出サービスを継続するが, 新しく搭載されるGPUをVMで利用するためにはPCIパススルーなどの設定が必要となる。
57 しかし, PCIパススルーでは, VMとGPUが1対1の関係になるため, GPU希望する利用者全てに割り当てることができない。
58 また, 貸出VMは利用者の好み環境構築ができる反面, VMを作成するごとに同じような作業が必要となり利用者の手間となる。
59 そこで, アプリケーションの実行環境として採用されているコンテナ技術を利用する。
60 \par
61 システムは学生や教授などが利用するため, マルチユーザで利用できるコンテナエンジンが必要となる。
62 そのため, コンテナエンジンにはマルチユーザに対応しているPodmanとSingularityを採用する。
63 Podmanは開発段階でもあるため一部機能が不安定だったり, 設定が上書きされる場合がある。
64 管理するシステム管理チームの学生の教育には適しているが, 演習や研究用で利用するには適さない場合がある。
65 そのため, HPC環境に設計されているSingularityも同時に利用する。
66 \par
67 %ie-podman の事書きたいね
68
69 \subsection{ファイルシステム}
70 旧システムではVMのイメージをクラスタファイルシステムであるGFS2に保存し運用していた。
71 このGFS2の運用には別途クラスタを構成する必要があるため, 単一障害が発生により多くのサービスに影響を与えることがあった。
72 また, ユーザのホームディレクトリもVMでGFS2をマウントしNFSで提供されていた。
73 そのため, NFSを提供するVMが停止することでユーザへの影響があった。
74 そこで, 新システムではVMイメージの保存には汎用サーバのディスクドライブ, ユーザのホームディレクトリにCephを採用する。
75 \par
76 新システムでは汎用サーバにSAS SSDが5TBと旧システムより多く搭載されている。
77 2台のサーバに演習や研究用で利用する貸出VMのイメージを保存し, 残り2台には本コースで利用しているサービスを提供するVMを保存する。
78 汎用サーバに保存することで, 単一障害時の影響を小さくすることができる。
79 Cephは自己修復と自己管理機能を持つため, 信頼性の高いファイルシステムとして利用できる。
80 そのため, ユーザのホームディレクトリを配置するファイルシステムとして利用する。
81 また, CephはObject Gateway, ブロックデバイス, POSIX互換のファイルシステムなど, 用途によって柔軟にアクセス方法を変更できる。
82 ブロックデバイスとしてアクセスすることでVMイメージのバックアップとしても利用できる。
83
84 \subsection{構成}
85 新システムでは, 各サーバに演習や研究用で利用できるPodmanとSingularityを用い, ジョブスケジューラであるSlurmを用いて管理を行う。
86 汎用サーバ1台をSlurmのコントローラ/計算ノードとし, 残りは計算ノードとすることで, システムのリソースを最大限利用可能にする。
87 Cephはディスクサーバのみで構成するのではなく, 汎用サーバ3台をMON, MDSとすることで, 最大1台の障害を許容できるため, 利用者への影響を少なくできる。
88 これらの技術を用いて構成したシステム構成図を図\ref{fig:system}に示す。
89 \begin{figure}[H]
90 \begin{center}
91 \includegraphics[width=150mm]{fig/system.pdf}
92 \end{center}
93 \caption{システム構成図}
94 \label{fig:system}
95 \end{figure}