Cluster Suite の概要

68
Red Hat Enterprise Linux 5 Cluster Suite の概要 Red Hat Enterprise Linux 5 対応の Red Hat Cluster Suite エディッション 3 Last Updated: 2017-10-16

Transcript of Cluster Suite の概要

Red Hat Enterprise Linux 5

Cluster Suite の概要

Red Hat Enterprise Linux 5 対応の Red Hat Cluster Suite

エディッション 3

Last Updated: 2017-10-16

Red Hat Enterprise Linux 5 Cluster Suite の概要

Red Hat Enterprise Linux 5 対応の Red Hat Cluster Suiteエディッション 3

[email protected]

法律上の通知法律上の通知

Copyright © 2009 Red Hat, Inc.

This document is licensed by Red Hat under the Creative Commons Attribution-ShareAlike 3.0Unported License. If you distribute this document, or a modified version of it, you must provideattribution to Red Hat, Inc. and provide a link to the original. If the document is modified, all RedHat trademarks must be removed.

Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert,Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.

Red Hat, Red Hat Enterprise Linux, the Shadowman logo, JBoss, OpenShift, Fedora, the Infinitylogo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and othercountries.

Linux ® is the registered trademark of Linus Torvalds in the United States and other countries.

Java ® is a registered trademark of Oracle and/or its affiliates.

XFS ® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the UnitedStates and/or other countries.

MySQL ® is a registered trademark of MySQL AB in the United States, the European Union andother countries.

Node.js ® is an official trademark of Joyent. Red Hat Software Collections is not formally relatedto or endorsed by the official Joyent Node.js open source or commercial project.

The OpenStack ® Word Mark and OpenStack logo are either registered trademarks/service marksor trademarks/service marks of the OpenStack Foundation, in the United States and othercountries and are used with the OpenStack Foundation's permission. We are not affiliated with,endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.

All other trademarks are the property of their respective owners.

概要概要

Red Hat Cluster Suite 概要 は Red Hat Enterprise Linux 5 対応の Red Hat Cluster Suite に関する概要を提供します。

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

目次目次

はじめにはじめに1. フィードバック

第第1章章 RED HAT CLUSTER SUITE 概要概要1.1. クラスタの基礎1.2. RED HAT CLUSTER SUITE INTRODUCTION1.3. CLUSTER INFRASTRUCTURE

1.3.1. クラスタ管理1.3.2. ロック管理1.3.3. Fencing1.3.4. クラスタ設定システム

1.4. ハイアベイラビリティサービス管理1.5. RED HAT GFS

1.5.1. より良いパフォーマンスとスケーラビリティ1.5.2. パフォーマンス、スケーラビリティ、経済価格1.5.3. 経済性とパフォーマンス

1.6. クラスタ論理ボリュームマネージャ1.7. グローバルネットワークブロックデバイス1.8. LINUX 仮想サーバー

1.8.1. Two-Tier LVS Topology1.8.2. Three-Tier LVS Topology1.8.3. Routing の方法

1.8.3.1. NAT Routing1.8.3.2. ダイレクト routing

1.8.4. 固執とファイアウォールマーク1.8.4.1. Persistence1.8.4.2. ファイアウォールマーク

1.9. クラスタ管理ツール1.9.1. Conga1.9.2. クラスタ管理 GUI

1.9.2.1. Cluster Configuration Tool1.9.2.2. Cluster Status Tool

1.9.3. コマンドライン管理ツール1.10. LINUX 仮想サーバー管理 GUI

1.10.1. CONTROL/MONITORING1.10.2. GLOBAL SETTINGS1.10.3. REDUNDANCY1.10.4. VIRTUAL SERVERS

1.10.4.1. 仮想サーバー サブセクション1.10.4.2. 実サーバー サブセクション1.10.4.3. EDIT MONITORING SCRIPTS Subsection

第第2章章 RED HAT CLUSTER SUITE コンポーネントの要約コンポーネントの要約2.1. クラスタコンポーネント2.2. MAN ページ2.3. 互換ハードウェア

付録付録A 改訂履歴改訂履歴

索引索引

23

4456788

121416171819

20232426282930313232333333353637383940414344454648

51515760

61

62

目次目次

1

はじめに

このドキュメントでは、Red Hat Enterprise Linux 5 対応の Red Hat Cluster Suite に関する高度な概要を提供しており、 以下のような構成になっています:

1章Red Hat Cluster Suite 概要

2章Red Hat Cluster Suite コンポーネントの要約

このドキュメント内の情報は概要ですが、読者には Red Hat Enterprise Linux の実用知識が要求される内容であるため、 この情報を十分に理解する為にはサーバーコンピューティングの概念を理解する必要があります。

Red Hat Enterprise Linux の使用に関する詳細情報については、以下の資料を参照してください:

『Red Hat Enterprise Linux インストールガイド』 — Red Hat Enterprise Linux 5 のインストールに関する 情報を提供します。

『Red Hat Enterprise Linux 』 — Red Hat Enterprise Linux 5 の導入、設定、及び管理についての 情報を提供します。

Red Hat Enterprise Linux 5 対応の Red Hat Cluster Suite に関する詳細については、以下の資料を参照してください:

『Red Hat Cluster の設定と管理』 — Red Hat Cluster コンポーネントの インストール、設定、及び管理に関する情報を提供します。

『LVM Administrator's Guide: Configuration and Administration』 — Provides a description ofthe Logical Volume Manager (LVM), including information on running LVM in a clusteredenvironment.

『Global File System: 設定と管理』 — Red Hat GFS (Red Hat Global File System) のインストール、設定、及び維持に関する情報を提供します。

『Global File System 2 : 設定と管理』 — Red Hat GFS2 (Red Hat Global File System 2) のインストール、設定、維持に関する情報を提供します。

『デバイスマッパーマルチパスの使用法』 — Red Hat Enterprise Linux 5 に於ける デバイスマッパーマルチパス機能の使用についての情報を提供します。

『Global File System を持つ GNBD の使用法』 — Red Hat GFS を 持つ GNBD (Global NetworkBlock Device)の使用法に関する概要を提供します。

『Linux 仮想サーバー管理』 — LVS (Linux Virtual Server)での 高度パフォーマンスシステムとサービスの設定に関する情報を提供します。

『Red Hat Cluster Suite リリースノート』 — Red Hat クラスタセット の 現在のリリースノートに関する情報を提供します。

Red Hat Cluster Suite ドキュメントと Red Hat ドキュメントは、HTML と PDF 形式で、オンラインでhttp://www.redhat.com/docs/ から入手できます。 また Red Hat Enterprise Linux ドキュメント CD のRPM 形式で取得可能です。

Cluster Suite の概要の概要

2

1. フィードバック

誤字や脱字を見つけた場合や、このドキュメントをより良くするためのご提案などがございましたら、弊社までご連絡ください。Bugzilla (http://bugzilla.redhat.com/bugzilla/) より、コンポーネントDocumentation-cluster に対してご報告ください。

Be sure to mention the document's identifier:

Cluster_Suite_Overview(EN)-5 (2008-12-11T15:49)

By mentioning this document's identifier, we know exactly which version of the guide you have.

このドキュメントを改善する提案をお持ちの場合は、出来るだけ詳細に説明をお願いします。 誤字/脱字を発見された場合は、弊社で素早くその位置を発見できるようにそのセクション番号や 周囲の文脈も含めて頂くようにお願いします。

はじめにはじめに

3

第1章 RED HAT CLUSTER SUITE 概要クラスタ化したシステムは、基幹実稼働サービスへ信頼性、拡張性、可用性を提供します。 Red HatCluster Suite を使用することで、パフォーマンス、ハイアベイラビリティ、ロードバランシング、拡張性、 ファイル共有、そして経済性等のニーズに対応するクラスタを構成することができます。 この章では、Red Hat Cluster Suite のコンポーネントと機能の概要を提供し、以下のようなセクションで 構成されています:

「クラスタの基礎」

「Red Hat Cluster Suite Introduction」

「Cluster Infrastructure」

「ハイアベイラビリティサービス管理」

「Red Hat GFS」

「クラスタ論理ボリュームマネージャ」

「グローバルネットワークブロックデバイス」

「Linux 仮想サーバー」

「クラスタ管理ツール」

「Linux 仮想サーバー管理 GUI」

1.1. クラスタの基礎

クラスタとは一緒に稼働してタスクを実行する二つ以上のコンピュータ(ノード、 又は メンバー と呼ぶ)です。クラスタには四つの主要タイプがあります:

ストレージ

ハイアベイラビリティ(高度可用性)

ロードバランシング

ハイパフォーマンス

ストレージクラスタはクラスタ内のサーバー全機に渡って安定したファイルシステムイメージを 提供し、サーバー群が同時に単独の共有ファイルシステムに対し読み取りと書き込みが出来るように します。ストレージクラスタは、アプリケーションのインストールとパッチングを1つのファイル システムに制限することによりストレージ管理を簡素化します。また、クラスタ全域のファイル システムを持つため、ストレージクラスタはアプリケーションデータの冗長コピーの必要性を解消し、 バックアップと災害時復帰を簡素化します。Red Hat Cluster Suite は Red Hat GFS を通じてストレージクラスタリングを 提供します。

ハイアベイラビリティクラスタは、ネックとなる単一故障箇所を排除し、 操作不能になった場合に1つのクラスタノードから他のノードにフェイルオーバーする ことにより、連続的にサービスの可用性を提供します。標準的にハイアベリラビリティクラスタ内の サービスはデータの読み込みと書き込みをします(read-write マウントのファイルシステム経由)。そのため、 1つのクラスタノードが別のクラスタノードからサービスの制御を引き継ぐ時点では、ハイアベリラビリティクラスタはデータ統合性を維持する必要があります。ハイアベリラビリティクラスタ内のノード故障は クラスタ外部のクライ

Cluster Suite の概要の概要

4

アントからは見えません。(ハイアベリラビリティクラスタは時にはフェイルオーバー クラスタと呼ばれる)Red Hat Cluster Suite は、そのハイアベリラビリティクラスタサービス管理コンポーネントを通じてハイアベリラビリティクラスタリングを提供します。

ロードバランシングクラスタはネットワークサービス要求を複数のクラスタノードに分配して、 クラスタノード群内の要求負担のバランスを取ります。ロードバランシングは、要求負担に応じて ノード数を調節することが出来るため、コスト効率の良い拡張性を提供します。ロードバランシングクラスタ 内の1つのノードが操作不能になった場合、ロードバランシングソフトウェアが故障を検知して、要求を他のクラスタノードに転送します。ロードバランシングクラスタ内のノード故障はクラスタ外部の クライアントからは見えません。Red Hat Cluster Suite は LVS (Linux Virtual Server) を通じてロードバランシングを 提供します。

ハイパフォーマンスクラスタはクラスタノード群を使用して、同時演算を実行します。 ハイパフォーマンスクラスタにより、アプリケーションは並行して稼働することが できるようになるため、アプリケーションのパフォーマンスが向上します。(ハイパフォーマンス クラスタは、演算クラスタ、あるいはグリッドコンピューティングとも呼ばれます)

注記注記

前述の文章で要約されているクラスタタイプは基本的な設定を反映しています。 ユーザーのニーズにはこれらのクラスタタイプの組み合わせが必要かも知れません。

1.2. RED HAT CLUSTER SUITE INTRODUCTION

Red Hat Cluster Suite (RHCS) は、ユーザーのニーズに応じてパフォーマンス、ハイアベイラビリティ、ロードバランシング、拡張性 ファイル共有、及び経済性の為のさまざまな設定で導入できるソフトウェアコンポーネントの統合セットです。

RHCS consists of the following major components (refer to 図1.1「Red Hat Cluster SuiteIntroduction」):

クラスタインフラストラクチャ — クラスタとして一緒に動作するように ノード群に基本的な機能:設定ファイル管理、メンバーシップ管理、ロック管理、及び フェンシングを提供します。

ハイアベイラビリティサービス管理 — 1つのノードが操作不能になった場合に そのクラスタノードから別のクラスタノードにサービスのフェイルオーバーを提供します。

クラスタ管理ツール — Red Hat クラスタのセッティング、設定、及び管理の為の 設定/管理ツールです。このツールは、クラスタインフラストラクチャコンポーネント、ハイアベイラビリティとサービス管理のコンポーネント、及びストレージで使用するための物です。

LVS (Linux Virtual Server)— IP ロードバランシングを提供する Routing ソフトウェアです。LVS は LVS サーバー群の背後にある実サーバー(real server)に対してクライアント要求を均等に分配する 冗長サーバーのペアとして稼働します。

オプションパッケージの一部である(しかし Red Hat Cluster Suite の一部でないでない) 以下のコンポーネントで、Red Hat Cluster Suite を補足することができます。

Red Hat GFS (Global File System) — Red Hat Cluster Suite と共に使用する為のクラスタファイルシステム を提供します。GFS の使用により複数ノードは、ストレージがローカル的に各クラスタノードに 接続しているかのようにブロックレベルでストレージを共有することができるようになります。

CLVM (Cluster Logical Volume Manager)— クラスタストレージの ボリューム管理を提供します。

第第1章章 RED HAT CLUSTER SUITE 概要概要

5

注記注記

When you create or modify a CLVM volume for a clustered environment, youmust ensure that you are running the clvmd daemon. For further information,refer to 「クラスタ論理ボリュームマネージャ」.

GNBD (Global Network Block Device)— ブロックレベルストレージをイーサネットに エキスポートする GFS の補助コンポーネントです。これはブロックレベルのストレージを Red HatGFS で使用可能にする経済的な方法です。

For a lower level summary of Red Hat Cluster Suite components and optional software, refer to 2章RedHat Cluster Suite コンポーネントの要約.

図図1.1 Red Hat Cluster Suite Introduction

注記注記

図1.1「Red Hat Cluster Suite Introduction」 includes GFS, CLVM, and GNBD, which arecomponents that are part of an optional package and not part of Red Hat Cluster Suite.

1.3. CLUSTER INFRASTRUCTURE

Red Hat Cluster Suite クラスタインフラストラクチャは、コンピュータ(ノード、又はメンバーと呼ぶ)の集合体が クラスタとして一緒に動作するように基本的機能を提供します。クラスタインフラストラクチャを 使用してクラスタが構成されると、ユーザーのクラスタリングニーズに合うように Red HatCluster Suite の他の コンポーネントを使用できます。(例えば、GFS ファイルシステム上で共有ファイル用のクラスタをセットしたり、サービス フェイルオーバーを設定したりできます)クラスタインフラストラクチャは、以下のような 機能を発揮します:

クラスタ管理

Cluster Suite の概要の概要

6

ロック管理

Fencing

クラスタ設定管理

1.3.1. クラスタ管理

Cluster management manages cluster quorum and cluster membership. CMAN (an abbreviation forcluster manager) performs cluster management in Red Hat Cluster Suite for Red Hat Enterprise Linux5. CMAN is a distributed cluster manager and runs in each cluster node; cluster management isdistributed across all nodes in the cluster (refer to 図1.2「CMAN/DLM Overview」).

CMAN keeps track of cluster quorum by monitoring the count of cluster nodes. If more than half thenodes are active, the cluster has quorum. If half the nodes (or fewer) are active, the cluster does nothave quorum, and all cluster activity is stopped. Cluster quorum prevents the occurrence of a "split-brain" condition — a condition where two instances of the same cluster are running. A split-braincondition would allow each cluster instance to access cluster resources without knowledge of theother cluster instance, resulting in corrupted cluster integrity.

定員数は、イーサネットを通じてクラスタノード間のメッセージの交信により決定されます。 オプションとして、定員数は、イーサネット経由、及び及び 定員数ディスクを通じたメッセージの交信の組み合わせによって決定できます。イーサネット 経由の定員数では、定員数はノード投票数の50% プラス1です。定員数ディスク経由の定員数では、 定員数はユーザー指定の条件で構成されます。

注記注記

デフォルトで、各ノードは定数員投票を1つ持ちます。オプションとして、 ユーザーはノードが1票以上を持つように設定することができます。

CMAN は、他のクラスタノードからのメッセージを監視することによりメンバーシップの 動きを追跡します。クラスタメンバーシップが変化すると、クラスタマネージャは、他の インフラストラクチャコンポーネントに通知を出します。これらのコンポーネントがその後 必要な処置をします。例えば、ノード A がクラスタに参加して、ノード B とノード C が既に マウントしている GFS ファイルシステムをマウントする場合、ノード A が GFS ファイルシステムを 使用するためには、追加のジャーナルとロック管理が必要となります。1つのクラスタノードが 指定時間以内にメッセージを送信しないと、クラスタマネージャはクラスタからそのノードを 削除し、そのノードがもうメンバーでないことを他のクラスタインフラストラクチャコンポーネントに 通達します。その後、他のクラスタインフラストラクチャコンポーネントは、そのノードがクラスタの メンバーでない通知に対して起こす行動を決定します。例えば、フェンシングがメンバーでなくなった ノードを フェンス(遮断)してしまいます。

第第1章章 RED HAT CLUSTER SUITE 概要概要

7

図図1.2 CMAN/DLM Overview

1.3.2. ロック管理

Lock management is a common cluster-infrastructure service that provides a mechanism for othercluster infrastructure components to synchronize their access to shared resources. In a Red Hatcluster, DLM (Distributed Lock Manager) is the lock manager. As implied in its name, DLM is adistributed lock manager and runs in each cluster node; lock management is distributed across allnodes in the cluster (refer to 図1.2「CMAN/DLM Overview」). GFS and CLVM use locks from the lockmanager. GFS uses locks from the lock manager to synchronize access to file system metadata (onshared storage). CLVM uses locks from the lock manager to synchronize updates to LVM volumes andvolume groups (also on shared storage).

1.3.3. Fencing

Fencing is the disconnection of a node from the cluster's shared storage. Fencing cuts off I/O fromshared storage, thus ensuring data integrity. The cluster infrastructure performs fencing through thefence daemon, fenced.

CMAN がノードの1つが故障したと判定すると、CMAN はそのノードが故障したことを 他のクラスタインフラストラクチャコンポーネントに通達します。その故障の通達を受けた fenced はそのノードをフェンス(遮断)します。他のインフラストラクチャ コンポーネントはどんな行動を取るべきか判定します — 即ち、復元に必要となるすべてを実行します。 例えば、DLM と GFS はノード故障の通知を受けると、fenced が故障ノードの フェンスを完了したことを検知するまで活動を休止します。故障ノードが フェンスされたことを確認した時点で DLM と GFS はその復元を実行します。DLM は故障ノードのロックを解除し、GFS は故障ノードの ジャーナルを取り戻します。

フェンシング プログラムは、クラスタ設定ファイルからどの方法を使用すべきかを決定します。 クラスタ設定ファイル内の二つの主要素が フェンシング方法を定義します: フェンシングエージェントとフェンシングデバイスです。フェンシングプログラムはクラスタ設定ファイルに指定されているフェンシングエージェントを 呼び出します。その フェンシングエージェントは、そこで フェンシングデバイス を介してノードの フェンス を します。フェンシング が完了した時点で フェンシングプログラムはクラスタマネージャに通知を出します.

Red Hat Cluster Suite は各種の フェンシング 方法を提供します:

パワーフェンシング — 操作不能なノードの電源を切る為にパワーコントローラを使用する フェンシング 方法。

Cluster Suite の概要の概要

8

ファイバーチャンネルスイッチ フェンシング — 操作不能なノードにストレージを 接続するようなファイバーチャンネルポートを無効にする フェンシング 方法。

GNBD fencing — A fencing method that disables an inoperable node's access to a GNBD server.

他のフェンシング — 操作不能なノードの I/O や電源を無効にする他のフェンシング 方法が数種あり、 その中には IBM Bladecenters、PAP、DRAC/MC、HP ILO、 IPMI、IBM RSA II、その他が含まれます。

図1.3「Power Fencing Example」 shows an example of power fencing. In the example, the fencingprogram in node A causes the power controller to power off node D. 図1.4「Fibre Channel SwitchFencing Example」 shows an example of Fibre Channel switch fencing. In the example, the fencingprogram in node A causes the Fibre Channel switch to disable the port for node D, disconnecting nodeD from storage.

図図1.3 Power Fencing Example

第第1章章 RED HAT CLUSTER SUITE 概要概要

9

図図1.4 Fibre Channel Switch Fencing Example

フェンシング 方法の指定はクラスタ設定ファイルを編集して、クラスタ内の各ノード用に フェンシング方法の名前、フェンシングエージェント、及び フェンシングデバイスを割り当てることで 構成されます。

The way in which a fencing method is specified depends on if a node has either dual power supplies ormultiple paths to storage. If a node has dual power supplies, then the fencing method for the node mustspecify at least two fencing devices — one fencing device for each power supply (refer to 図1.5「Fencing a Node with Dual Power Supplies」). Similarly, if a node has multiple paths to FibreChannel storage, then the fencing method for the node must specify one fencing device for each pathto Fibre Channel storage. For example, if a node has two paths to Fibre Channel storage, the fencingmethod should specify two fencing devices — one for each path to Fibre Channel storage (refer to 図1.6「Fencing a Node with Dual Fibre Channel Connections」).

Cluster Suite の概要の概要

10

図図1.5 Fencing a Node with Dual Power Supplies

第第1章章 RED HAT CLUSTER SUITE 概要概要

11

図図1.6 Fencing a Node with Dual Fibre Channel Connections

ノードは単独フェンシング 法か、又は複数フェンシング 法で設定することができます。 ノードを単独フェンシング 法で設定する場合は、そのノードを フェンスするには, その フェンシング 法のみが使用できます。ノードを 複数 フェンシング 法で設定すると、 フェンシング 法は、クラスタ設定ファイル内に指定してある フェンシング 法の順に従って 1つの フェンシング 法から次の フェンシング 法へと順送り(cascaded) と なります。ノードが故障すると、そのノード用にクラスタ設定ファイル内に指定された最初の フェンシング 法でノードをフェンスします。最初の フェンシング 法が機能しない場合、そのノード用に指定してある 次の フェンシング 法が使用されます。全ての フェンシング 法が機能しない状態になると、最初の フェンシング 法に戻りそのノードがフェンスされるまで、クラスタ設定ファイル内に指定された順で フェンシング 法を繰り返します。

1.3.4. クラスタ設定システム

The Cluster Configuration System (CCS) manages the cluster configuration and provides configurationinformation to other cluster components in a Red Hat cluster. CCS runs in each cluster node andmakes sure that the cluster configuration file in each cluster node is up to date. For example, if acluster system administrator updates the configuration file in Node A, CCS propagates the update fromNode A to the other nodes in the cluster (refer to 図1.7「CCS Overview」).

Cluster Suite の概要の概要

12

図図1.7 CCS Overview

Other cluster components (for example, CMAN) access configuration information from theconfiguration file through CCS (refer to 図1.7「CCS Overview」).

図図1.8 Accessing Configuration Information

第第1章章 RED HAT CLUSTER SUITE 概要概要

13

クラスタ設定ファイル (/etc/cluster/cluster.conf) は、以下のようなクラスタ特性を説明するXML ファイルです。

クラスタ名 — ノードがクラスタに参加した時点、又はクラスタから フェンスされた時点の クラスタ名、クラスタ設定ファイルの改訂レベル、及び基本 フェンスタイミングプロパティを 表示します。

クラスタ — クラスタの各ノードを表示して、それぞれのノードのノード名、 ノード ID、定員投票数、及び フェンシング 方法を指定します。

フェンスデバイス — クラスタ内のフェンスデバイスを表示します。パラメータは フェンスデバイスのタイプに応じて変化します。例えば、フェンスデバイスで使用されるパワー コントローラ用には、クラスタ設定がパワーコントローラの名前、その IP アドレス、ログイン、 及びパスワードを定義します。

管理されたリソース — クラスタサービスを作成するのに必要なリソースを表示します。 管理されたリソースには、フェイルオーバードメインの定義、リソース(例、IP アドレス)、 及びサービスが含まれています。それと共に、管理されたリソースはクラスタサービスと、 クラスタサービスのフェイルオーバー動作を定義します。

1.4. ハイアベイラビリティサービス管理

ハイアベイラビリティサービス管理は、Red Hat クラスタ内にハイアベイラビリティ クラスタサービス を作成し管理する能力を提供します。Red Hat クラスタ内でハイアベイラビリティサービス管理用の基幹となる コンポーネント、rgmanager は、新規状態の アプリケーションでコールドフェイルオーバーを実装します。Red Hat クラスタ内では、アプリケーションは 他のクラスタリソースと一緒に設定されて、ハイアベイラビリティクラスタサービスを構成します。 ハイアベイラビリティクラスタサービスは、クラスタクライアントに表面的な邪魔をせずに1つのノードから 別のノードにフェイルオーバーをすることが出来ます。クラスタサービスフェイルオーバーは、クラスタ ノードが失敗したり、又はクラスタシステム管理者がサービスを1つのクラスタから別のクラスタに移動 した場合に発動します。(例えば、クラスタノードの計画停止など)

ハイアベイラビリティサービスを作成するには、それをクラスタ設定ファイル内で設定する 必要があります。クラスタサービスは、クラスタ リソースで構成 されています。クラスタリソースとは、クラスタ設定ファイル内で作成し、管理する組み立て土台と なる要素です。 — 例えば、 IP アドレス、アプリケーションの初期化スクリプト、あるいは、 Red Hat GFS 共有パーティションなど。

You can associate a cluster service with a failover domain. A failover domain is a subset of cluster nodesthat are eligible to run a particular cluster service (refer to 図1.9「フェイルオーバードメイン」).

注記注記

フェイルオーバードメインは、運用には必要ありませんありません。

クラスタサービスはデータの統合性を維持するために、一度に1つのクラスタノード上だけで実行 できます。フェイルオーバードメイン内ではフェイルオーバーの優先度を指定することができます。 フェイルオーバー優先度の指定は、フェイルオーバードメイン内の各ノードに優先度を割り当てる ことで構成されます。この優先度のレベルがフェイルオーバーの順番 — クラスタがフェイル オーバーをするノードの順 — を決めます。フェイルオーバー優先度を指定しないと、クラスタは フェイルオーバードメイン内のどのノードにでもフェイルオーバーをすることになります。また、 クラスタサービスがその関連したフェイルオーバードメインのノードでのみ実行するように制限を 指定することも出来ます。(無制限のフェイルオーバードメインと関連付けがある場合、クラスタサービスは フェイスオーバードメインのメンバーが利用できない場合に、どのクラスタノード上でも開始できるように なります。)

Cluster Suite の概要の概要

14

In 図1.9「フェイルオーバードメイン」, Failover Domain 1 is configured to restrict failover within thatdomain; therefore, Cluster Service X can only fail over between Node A and Node B. Failover Domain 2is also configured to restrict failover with its domain; additionally, it is configured for failover priority.Failover Domain 2 priority is configured with Node C as priority 1, Node B as priority 2, and Node D aspriority 3. If Node C fails, Cluster Service Y fails over to Node B next. If it cannot fail over to Node B, ittries failing over to Node D. Failover Domain 3 is configured with no priority and no restrictions. If thenode that Cluster Service Z is running on fails, Cluster Service Z tries failing over to one of the nodesin Failover Domain 3. However, if none of those nodes is available, Cluster Service Z can fail over to anynode in the cluster.

図図1.9 フェイルオーバードメインフェイルオーバードメイン

図1.10「Web Server Cluster Service Example」 shows an example of a high-availability cluster servicethat is a web server named "content-webserver". It is running in cluster node B and is in a failoverdomain that consists of nodes A, B, and D. In addition, the failover domain is configured with a failoverpriority to fail over to node D before node A and to restrict failover to nodes only in that failoverdomain. The cluster service comprises these cluster resources:

IP アドレスリソース — IP アドレス 10.10.10.201.

An application resource named "httpd-content" — a web server application init script /etc/init.d/httpd (specifying httpd).

A file system resource — Red Hat GFS named "gfs-content-webserver".

第第1章章 RED HAT CLUSTER SUITE 概要概要

15

図図1.10 Web Server Cluster Service Example

クライアントは、IP アドレス 10.10.10.201 を通じてクラスタサービスにアクセスし、 ウェブサービスアプリケーションや httpd-content との相互交流を可能にします。 httpd-content アプリケーションはgfs-content-webserver ファイルシステムを使用します。 ノード B が故障状態になれば content-webserver クラスタサービスはノード D に フェイルオーバーすることになります。ノード D が利用できない状態か、あるいはそれが 故障した場合は、サービスはノード A にフェイルオーバーします。フェイルオーバーは、 クラスタクライアントに目に見えた妨害なしに達成されます。クラスタサービスは、フェイルオーバー 以前と同じように、同じ IP アドレスを通じて別のクラスタノードからアクセスすることができます。

1.5. RED HAT GFS

Red Hat GFS はノード群で構成されるクラスタが、そのノード間で共有されるブロックデバイスへの同時アクセスを可能にするクラスタファイルシステムです。GFS は Linux カーネルファイルシステムインターフェイスの VFS レイヤーと直接的に接触するネイティブなファイルシステムです。GFS は クラスタ内で最適な操作の為に分配型メタデータと複数ジャーナルを使用します。ファイルシステムの統合性を維持するために、GFS はロックマネージャを使用して I/O をコーディネートします。ノードの 1つが GFS ファイルシステム上でデータを変更すると、その変更はすぐにファイルシステムを使用している 他のクラスタノードに見えるようになります。

Red Hat GFS, を使用すると、以下のような特典により最大限のアプリケーションアップタイムを 達成することができます:

データインフラストラクチャの簡素化

Cluster Suite の概要の概要

16

クラスタ全体の為にアプリケーションのインストールとパッチ。

アプリケーションデータの冗長コピー(複製)の必要性の排除

多くのクライアントによるデータへの同時 read/write アクセスの有効化

バックアップと災害時復帰の簡素化(1つのファイルシステムのみをバックアップ、又は復帰)

ストレージリソース使用の最大化、ストレージ管理コストの最小化

パーティション毎ではなく、全体としてストレージを管理

データ複製の必要性解消で総合的ストレージ需要の低減

随時サーバーやストレージを追加して無段階的にクラスタを拡張

パーティション設定ストレージに複雑な技術は不要

共通ファイルシステムにマウントすることで随時サーバーをクラスタに追加

Red Hat GFS を実行しているノードは、Red Hat Cluster Suite の設定/管理ツールで、設定され管理されています。 ボリューム管理は CLVM (Cluster Logical Volume Manager) によって管理されています。Red Hat GFS は Red Hat クラスタ内の GFS ノード間でのデータ共有を提供します。GFS は Red Hat クラスタ内の GFS ノード全域に渡って単独の安定したファイルシステムネームスペースを提供します。GFS の使用で、アプリケーションは背後にあるストレージ構造の知識なしにインストールと実行が できるようになります。また、GFS は割り当てや、複数ジャーナルやマルチパスサポートなどの エンタープライズ環境で特に要求される機能も提供します。

GFS は使用中のストレージ環境に於けるパフォーマンス、スケーラビリティ、及び経済性の ニーズに応じてネットワーキングストレージに柔軟な方法を提供します。この章では、かなり 基本的な短縮型の情報をユーザーの GFS 理解の骨組みとして提供しています。

You can deploy GFS in a variety of configurations to suit your needs for performance, scalability, andeconomy. For superior performance and scalability, you can deploy GFS in a cluster that is connecteddirectly to a SAN. For more economical needs, you can deploy GFS in a cluster that is connected to aLAN with servers that use GNBD (Global Network Block Device) or to iSCSI (Internet Small ComputerSystem Interface) devices. (For more information about GNBD, refer to 「グローバルネットワークブロックデバイス」.)

以下のセクションでは、パフォーマンス、スケーラビリティ、及び 経済性の為にユーザーのニーズに適合する GFS を導入する方法の例を提供しています:

「より良いパフォーマンスとスケーラビリティ」

「パフォーマンス、スケーラビリティ、経済価格」

「経済性とパフォーマンス」

注記注記

この GFS 導入例は、基本設定を反映しています; ユーザーのニーズは、例で示してある設定の 組み合わせを必要とする可能性があります。

1.5.1. より良いパフォーマンスとスケーラビリティ

第第1章章 RED HAT CLUSTER SUITE 概要概要

17

You can obtain the highest shared-file performance when applications access storage directly. TheGFS SAN configuration in 図1.11「GFS with a SAN」 provides superior file performance for shared filesand file systems. Linux applications run directly on cluster nodes using GFS. Without file protocols orstorage servers to slow data access, performance is similar to individual Linux servers with directlyconnected storage; yet, each GFS application node has equal access to all data files. GFS supports over300 GFS nodes.

図図1.11 GFS with a SAN

1.5.2. パフォーマンス、スケーラビリティ、経済価格

Multiple Linux client applications on a LAN can share the same SAN-based data as shown in 図1.12「GFS and GNBD with a SAN」. SAN block storage is presented to network clients as blockstorage devices by GNBD servers. From the perspective of a client application, storage is accessed asif it were directly attached to the server in which the application is running. Stored data is actually onthe SAN. Storage devices and data can be equally shared by network client applications. File lockingand sharing functions are handled by GFS for each network client.

Cluster Suite の概要の概要

18

図図1.12 GFS and GNBD with a SAN

1.5.3. 経済性とパフォーマンス

図1.13「ストレージに直接接続の GFS と GNBD」 shows how Linux client applications can takeadvantage of an existing Ethernet topology to gain shared access to all block storage devices. Clientdata files and file systems can be shared with GFS on each client. Application failover can be fullyautomated with Red Hat Cluster Suite.

第第1章章 RED HAT CLUSTER SUITE 概要概要

19

図図1.13 ストレージに直接接続のストレージに直接接続の GFS とと GNBD

1.6. クラスタ論理ボリュームマネージャ

CLVM (Cluster Logical Volume Manager)は LVM2 のクラスタ全域版を提供します。CLVM は 単独ノード上では、LVM2 と同じ機能を提供します。しかし、Red Hat クラスタ内で全てのノードに ボリュームを利用できるようにします。CLVM で作成された論理ボリュームはクラスタ内の 全てのノードに論理ボリュームが利用できるようにします。

The key component in CLVM is clvmd. clvmd is a daemon that provides clustering extensions to thestandard LVM2 tool set and allows LVM2 commands to manage shared storage. clvmd runs in eachcluster node and distributes LVM metadata updates in a cluster, thereby presenting each cluster nodewith the same view of the logical volumes (refer to 図1.14「CLVM Overview」). Logical volumescreated with CLVM on shared storage are visible to all nodes that have access to the shared storage.CLVM allows a user to configure logical volumes on shared storage by locking access to physicalstorage while a logical volume is being configured. CLVM uses the lock-management service providedby the cluster infrastructure (refer to 「Cluster Infrastructure」).

注記注記

Red Hat Cluster Suite で共有ストレージを使用するには、クラスタ論理ボリュームマネージャデーモン (clvmd) か高可用論理ボリューム管理エージェント (HA-LVM) が稼働していなければなりません。運用上の理由で clvmd デーモン や HA-LVM を使用できない場合や、適切なエンタイトルメントを持っていない場合は、データ破損の恐れがあるため共有ディスク上で単一インスタンスの LVM を使用しないでください。ご質問やご不明な点などがありましたら、Red Hat のサービス担当者までご連絡ください。

注記注記

CLVM を使用するには、クラスタ全域のロッキングの為に /etc/lvm/lvm.conf に少々の変更をする必要があります。

Cluster Suite の概要の概要

20

図図1.14 CLVM Overview

You can configure CLVM using the same commands as LVM2, using the LVM graphical user interface(refer to 図1.15「LVM Graphical User Interface」), or using the storage configuration function of theConga cluster configuration graphical user interface (refer to 図1.16「Conga LVM Graphical UserInterface」) . 図1.17「Creating Logical Volumes」 shows the basic concept of creating logical volumesfrom Linux partitions and shows the commands used to create logical volumes.

図図1.15 LVM Graphical User Interface

第第1章章 RED HAT CLUSTER SUITE 概要概要

21

図図1.16 Conga LVM Graphical User Interface

Cluster Suite の概要の概要

22

図図1.17 Creating Logical Volumes

1.7. グローバルネットワークブロックデバイス

GNBD (Global Network Block Device )は TCP/IP 上で Red Hat GFS へのブロックデバイスアクセスを 提供します。GNBD は概念的には NBD と似ていますが、GNBD は GFS 特有であり GFS との使用専用に チューンされています。GNBD はより強健な技術へのニーズ — ファイバーチャンネル、又はsingle-initiator SCSI — が必要でなく、コスト制限がある場合に役にたちます。

GNBD consists of two major components: a GNBD client and a GNBD server. A GNBD client runs in anode with GFS and imports a block device exported by a GNBD server. A GNBD server runs in anothernode and exports block-level storage from its local storage (either directly attached storage or SANstorage). Refer to 図1.18「GNBD 概要」. Multiple GNBD clients can access a device exported by aGNBD server, thus making a GNBD suitable for use by a group of nodes running GFS.

第第1章章 RED HAT CLUSTER SUITE 概要概要

23

図図1.18 GNBD 概要概要

1.8. LINUX 仮想サーバー

Linux Virtual Server (LVS) は実サーバーのセット内での IP ロードのバランスを とるための統合ソフトウェアコンポーネントセットです。 LVS は同一設定の二つの コンピュータペア上で稼働します。その1つはアクティブな LVS router として、 もう1つは バックアップの LVS router として機能します。アクティブな LVS router は 以下の二つの役割を持ちます:

実サーバー全部に渡ってロードのバランスを取る

それぞれの実サーバー上のサービスの統合性を確認する

バックアップ LVS router はアクティブな LVS router を監視して、アクティブな LVS router が 失敗した場合に入れ替わります。

図1.19「Components of a Running LVS Cluster」 provides an overview of the LVS components andtheir interrelationship.

Cluster Suite の概要の概要

24

図図1.19 Components of a Running LVS Cluster

pulse デーモンはアクティブとバックアップの両方の LVS router で稼働します。 バックアップ LVSrouter 上では pulse は、アクティブ router の公共 インターフェイスに ハートビート(heartbeat) を送信し、アクティブ router が 正常に機能していることを確認します。アクティブ LVS router 上では pulse は lvs デーモンを開始して、バックアップ LVS router からの ハートビート のクエリに反応します。

開始されると、lvs デーモンは ipvsadm ユーティリティを コールしてカーネル内の IPVS (IP VirtualServer) routing 表の設定と管理をします。そしてそれぞれの 実サーバー上で設定済みの各仮想サーバーの為の nanny プロセスを開始します。 それぞれの nanny プロセスは1つの実サーバー上で設定済のサービスの状態を チェックし、lvs デーモンに対し、その実サーバー上のサービスが正常であるかどうかを 伝えます。異常動作が検知された場合、lvs デーモンは、IPVS routing 表から その実サーバーを排除するように ipvsadm に指示します。

バックアップ LVS router がアクティブ LVS router から反応を受理しない場合、バックアップ LVSrouter は send_arp をコールして、全ての仮想 IP アドレスを、バックアップ LVS router の NIC ハードウェアアドレス(MAC アドレス)に再割り当てをして、コマンドを 公共とプライベートの両方のネットワークインターフェイスを通じてアクティブ LVS router に送信して アクティブ LVS router 上の lvs デーモンをシャットダウンし、更に バックアップ LVS router 上の lvs デーモンを開始して設定済仮想サーバーからの 要求を受理することにより、フェイルオーバーに取り掛かります。

ホスト化されたサービスへアクセスしている外部ユーザー(例えば、ウェブサイトやデータベース アプリケーション)には、LVS は 1つのサーバーと見えます。しかし、ユーザーは実際には、 LVS routerの背後にある実サーバー群にアクセスしていることになります。

LVS 内には、実サーバー間でデータを共有するための組み込みコンポーネントがない為、 二つのオプションがあります:

第第1章章 RED HAT CLUSTER SUITE 概要概要

25

実サーバー全体に渡ってデータの同期を取る。

共有データアクセス用のトポロジーへ第三レイヤーを追加する。

一番目のオプションは、多数のユーザーが実サーバー上でアップロードしたり、データを変更したりする のを許可しないサーバーに適切なものです。実サーバーが多数のユーザーに、e-commerce ウェブサイトなどの データを修正することを許可する場合は、第三レイヤーの追加が望まれます。

実サーバー間でデータを同期化する方法は沢山あります。例えば、シェルスクリプトを使用して 更新したウェブページを実サーバーに同時に送ることができます。また、rsync などの プログラムを使用して、決まった間隔で全てのノードに渡って変更データを複製することもできます。しかし、 ユーザーが頻繁にファイルをアップロードしたりデータベーストランザクションを発行したりする環境では、 スクリプトの使用、又はデータ同期化用の rsync コマンドは効率的に機能しません。 そのため、多くのアップロードやデータベーストランザクションや同様のトラフィックを持つ実サーバーには、three-tiered トポロジー がデータ同期化に最適となります。

1.8.1. Two-Tier LVS Topology

図1.20「Two-Tier LVS Topology」 shows a simple LVS configuration consisting of two tiers: LVSrouters and real servers. The LVS-router tier consists of one active LVS router and one backup LVSrouter. The real-server tier consists of real servers connected to the private network. Each LVS routerhas two network interfaces: one connected to a public network (Internet) and one connected to aprivate network. A network interface connected to each network allows the LVS routers to regulatetraffic between clients on the public network and the real servers on the private network. In 図1.20「Two-Tier LVS Topology」, the active LVS router uses Network Address Translation (NAT) todirect traffic from the public network to real servers on the private network, which in turn provideservices as requested. The real servers pass all public traffic through the active LVS router. From theperspective of clients on the public network, the LVS router appears as one entity.

Cluster Suite の概要の概要

26

図図1.20 Two-Tier LVS Topology

LVS router に到着するサービス要求は virtual IP、いわゆる VIP アドレスへ 届けられます。これは、サイトの管理者が www.example.com などの 完全修飾ドメイン名と関連づける公共的に巡回可能なアドレスで、1つ又は複数の 仮想サーバー[1] に割り当てられます。VIP アドレスは フェイルオーバー中に 1つの LVS router から他の LVS router に移行します。その方法で、浮動浮動 IP アドレスアドレス と して知られるVIP アドレスの存在を維持することに注意して下さい。

VIP アドレスは LVS router を公共ネットワークに接続するのと同じデバイスにエイリアス名を付けることができます。例えば、eth0 がインターネットに接続されている場合、複数の仮想サーバーが eth0:1 にエイリアス化することができます。別の方法としては、各仮想サーバーは サービス毎に別のデバイスと関連付けすることが出来ます。例えば、HTTP トラフィックは eth0:1 上で、そして FTPトラフィックは eth0:2 上で処理することができます。

一度に1つの LVS router のみがアクティブになることができます。アクティブ LVS router の 役目は、仮想 IP アドレスから実サーバーへサービス要求を転送することです。この転送は八つの ロードバランシングアルゴリズムの1つを基にしています:

ラウンドロビンスケジューリング(Round-Robin Scheduling) — 各要求を順番に実サーバー群に 配布していきます。 このアルゴリズムを使用すると、全ての実サーバーが、容量やロードに関係無く同等に 取り扱われることになります。

能力別ラウンドロビンスケジューリング(Weighted Round-Robin Scheduling )— 各要求を順番に実サーバー群に配布して行きますが、より大きな能力を持つサーバーにより 多くの仕事を提出します。この能力は、先ずユーザー割り当ての能力値で表示され、その後 動的なロード情報によって上下に調節されます。これは、サーバー群内に決定的な能力の差が存在する場合に適切な選択となります。しかし、要求のロードが劇的に変化した場合、大能力として 割り当てられたサーバーがその公平な要求分担以上に反応する可能性があります。

第第1章章 RED HAT CLUSTER SUITE 概要概要

27

最低稼働機接続 (Least-Connection)— より少ないアクティブ接続を持つ実サーバーに、より多くの要求を分配します。これは動的スケジューリングアルゴリズムの一種で、要求ロードに多くの変動がある場合に より良い選択となるものです。各サーバーノードがおよそ同等の能力を持つ実サーバー群に最適です。 実サーバーが別々の能力を持っている場合は、能力別最低稼働機接続スケジューリング(weighted least-connection scheduling)が最適な選択となります。

能力別最低稼働機接続スケジューリング(weighted least-connection scheduling)(デフォルト) — 能力と比較して少ないアクティブ接続を持つサーバーにより多くの要求を分配します。この能力はユーザー設定の分別により表示されており、動的ロード情報によって上下に調節されます。能力分別の追加により、このアルゴリズムは 実サーバー群が異なる能力のハードウェアを含んでいる場合に理想的になります。

ローカリティベース最低稼働機接続スケジューリング(Locality-Based Least-ConnectionScheduling )— 目的地 IP に対して少ないアクティブ接続を持つサーバーに、より多くの要求を分配します。このアルゴリズムは プロキシキャッシュサーバークラスタ内で使用するためのものです。これは目的地サーバーが能力以上に 稼働していないで、そのロードの半分しか担当していないサーバーがない場合に その IP アドレス用のパケットをそのアドレスのサーバーに回送します。その場合、 IP アドレス は最低稼働の実サーバーに割り当てられます。

複製スケジューリング付きローカリティベース最低稼働機接続スケジューリング (Locality-Based Least-Connection Scheduling with Replication Scheduling )— 目的地 IP に対して少ないアクティブ接続を持つサーバーに、より多くの要求を分配します。この アルゴリズムもプロキシキャッシュサーバークラスタ内で使用するためのものです。ローカリティベース 最低稼働機接続スケジューリングとの相異点は、目的地 IP アドレスを実サーバーノードのサブセットにマッピングすることです。要求は最低数の接続を持つサブセット内のサーバーへ回送されます。この 目的地 IP の全てのノードがそれらの能力以上に稼働している場合、実サーバー群全体から最低接続を持つ 実サーバーをその目的地 IP 用の実サーバーのサブセットへ追加することにより、目的地 IPアドレス用に新規の サーバーを複製します。そして実サーバーのサブセットからは最大ロードを持つノードを排除して過大複製を 防止します。

ソースハッシュスケジューリング(Source Hash Scheduling)— 静的ハッシュ表内の ソースIP を観察して実サーバー群に要求を分配します。このアルゴリズムは複数ファイアウォールを持つ LVS router 用のものです。

また、アクティブ LVS router は、簡単な send/expect スクリプト を通じて 実サーバー上の特定サービスの総合健全性を動的に監視します。HTTPS や SSL などの動的データを 必要とするサービスの健全性チェックを手助けするためには、外部の実行ファイルを呼び出すことも できます。実サーバー上のサービスが異常稼働している場合、アクティブ LVS router はそれが 正常稼働に戻るまでそのサーバーへのジョブ回送を停止します。

バックアップ LVS router はスタンバイシステムの役目を果たします。LVS router は定期的に 主要外部公共インターフェイスを通じて、又はフェイルオーバーの状態ではプライベート インターフェイスを通じてハートビートを交信します。バックアップ LVS router が指定時間内に ハートビートメッセージを受信しなかった場合は、フェイルオーバーを開始してアクティブ LVS router の 役割を受け持ちます。フェイルオーバーの期間中、バックアップ LVS router は、ARP spoofing として知られる技術を使用して故障した router によってサービスされていた VIP アドレスを引き受けます。ARP spoofing では、バックアップ LVS router が 故障ノード宛になっている IP パケット用の目的地であると自己宣言します。故障ノードがアクティブな サービスを回復すると、バックアップ LVS router は再度、バックアップの役割に戻ります。

The simple, two-tier configuration in 図1.20「Two-Tier LVS Topology」 is suited best for clustersserving data that does not change very frequently — such as static web pages — because the individualreal servers do not automatically synchronize data among themselves.

1.8.2. Three-Tier LVS Topology

Cluster Suite の概要の概要

28

図1.21「Three-Tier LVS Topology」 shows a typical three-tier LVS configuration. In the example, theactive LVS router routes the requests from the public network (Internet) to the second tier — realservers. Each real server then accesses a shared data source of a Red Hat cluster in the third tier overthe private network.

図図1.21 Three-Tier LVS Topology

このトポロジーは、アクセス可能なデータが中心的なハイアベイラビリティがあるサーバーに保存されて、エキスポートされた NFS ディレクトリか Samba 共有を 経由して各実サーバーによってアクセスされるような多忙の FTP サーバーに よく適しています。このトポロジーはまた、トランザクション用の中心的なハイアベイラビリティデータベースにアクセスする ウェブサイトに推薦されるものです。更には、Red Hat クラスタのあるアクティブ・アクティブ設定を使用して、 それらの両方の役目を同時に果たす為の1つのハイアベイラビリティクラスタを設定することができます。

1.8.3. Routing の方法

第第1章章 RED HAT CLUSTER SUITE 概要概要

29

NAT (Network Address Translation)routing か、又は LVS のダイレクト routing を 使用することができます。以下のセクションでは、NAT routing と LVS のダイレクト routing に ついて簡単に説明しています

1.8.3.1. NAT Routing

図1.22「LVS Implemented with NAT Routing」 , illustrates LVS using NAT routing to move requestsbetween the Internet and a private network.

図図1.22 LVS Implemented with NAT Routing

この例の中では、アクティブ LVS router 内に二つの NIC があります。インターネット用の NIC はeth0 に 実 IP アドレス を持ち、浮動 IP アドレスは eth0:1 に エイリアス化されています。プライベートネットワーク用の NIC は eth1 に実 IP アドレスを持ち 浮動 IP アドレスは eth1:1 にエイリアス化されています。フェイルオーバー状態になると インターネットに面している仮想インターフェイスとプライベートネットワークに面している 仮想インターフェイスは、同時にバックアップ LVS router に引き取られます。プライベート ネットワーク上の全ての実サーバーは、アクティブ LVS router と通信するためにデフォルトルート として NAT router 用の浮動 IP を使用します。それによりインターネットからの要求へ反応する 機能が損傷されないようにします。

In the example, the LVS router's public LVS floating IP address and private NAT floating IP address arealiased to two physical NICs. While it is possible to associate each floating IP address to its physicaldevice on the LVS router nodes, having more than two NICs is not a requirement.

このトポロジーを使用すると、アクティブ LVS router は要求を受理してそれを適切なサーバーに 回送します。実サーバーは、それから要求をプロセスしてパケットを LVS router に返します。 LVS routerは NAT を使用して、パケット内の実サーバーのアドレスを LVS router 公共 VIP アドレスに入れ替えま

Cluster Suite の概要の概要

30

す。このプロセスは、実サーバーの実 IP アドレスが要求側の クライアントには隠されているため、IPmasquerading(変装) を呼ばれます。

NAT routing を使用すると、実サーバーは種々のオペレーティングシステムを実行している どんなコンピュータでもありえます。NAT routing の主な不利事項は、それが発信と来信の 両方の要求をプロセスするため、大規模施設内では LVS router が ボトルネックとなる 可能性があることです。

1.8.3.2. ダイレクトダイレクト routing

ダイレクト routing は、NAT routing に比べて向上したパフォーマンスの利点を提供します。 ダイレクト routing を使用すると、LVS router を通じた発信パケットをプロセスするのではなく、 実サーバーがパケットをプロセスして直接要求元のユーザーに回送します。ダイレクト routing は LVS router の仕事を来信パケットの処理のみに分業することでネットワークのパフォーマンス問題の 可能性を低減します。

図図1.23 LVS Implemented with Direct Routing

標準的なダイレクト routing LVS 設定では、LVS router は来信するサーバー要求を仮想 IP (VIP) を 介して受理し、スケジューリングアルゴリズムを使用して、その要求を実サーバーに回送します。それぞれの 実サーバーは要求を処理しその反応を、LVS router を迂回して直接クライアントに送信します。

第第1章章 RED HAT CLUSTER SUITE 概要概要

31

ダイレクト routing の使用により、実サーバーからクライアントに送信パケットを回送させる為の LVSrouter に、大きなロード下ではボトルネックとなり得る余計な負担をかけずに、実サーバー内のスケーラビリティ増強が 可能になります。

LVS でダイレクト routing を使用する利点は数多くありますが、それには限度があります。 ダイレクトrouting と LVS に関して最も一般的な問題は ARP (Address Resolution Protocol)(アドレス解決プロトコル)です。

In typical situations, a client on the Internet sends a request to an IP address. Network routers typicallysend requests to their destination by relating IP addresses to a machine's MAC address with ARP. ARPrequests are broadcast to all connected machines on a network, and the machine with the correctIP/MAC address combination receives the packet. The IP/MAC associations are stored in an ARPcache, which is cleared periodically (usually every 15 minutes) and refilled with IP/MAC associations.

ダイレクト routing LVS 設定内の ARP 要求での問題は、IP アドレスへのクライアント要求が 要求の処理の為に MAC アドレスに関連付けを必要とする理由で、LVS router の仮想 IP アドレス router も MACに関連付けが必要となることです。しかし、LVS router と実サーバーの両方共、 同じ VIP を持つため、ARP 要求はこの VIP に関連のある全てのノードにブロードキャストされ ます。これは幾つかの問題の原因となります。VIP が実サーバーの1つに直接関連付けがあり要求を 直接処理してしまうこと、LVS router を完全に迂回することにより LVS 設定の目的を無駄にしてしまう ことなどです。クライアント要求に迅速に対応できる強力な CPU を持つ LVS router の使用でもこの問題を 必ずしも解決はしません。LVS router が多大なロード下にある場合、それは少使用の実サーバーよりも 遅い ARP 要求反応を示す可能性があります。少使用の実サーバーがより早く反応して、要求クライアントの ARP キャッシュ内の VIP に割り当てられます。

この問題を解決する為に、来信する要求は要求を正しく処理し実サーバー群に送信する LVS router ののみみに、 VIP を関連付けする必要があります。 これは、arptables パケットフィルタリングツールを使用することで 達成できます。

1.8.4. 固執とファイアウォールマーク

ある特定の状況では、クライアントにとっては LVS ロードバランシングアルゴリズムに その要求を利用可能な最善のサーバーに送信させるよりも、同じ実サーバーに何回も再接続することが 望ましいことがあります。そのような状況の例として、複数画面のウェブ形式、クッキー、SSL、FTP 接続などがあります。そのようなケースでは、クライアントは、コンテキストを維持するためにトランザクションが 同じサーバーで処理されない限りは正常に動作しない可能性があります。LVS はこれを取り扱う為に 二種類の異なる機能を提供します: 固執(persistence) と ファイアウォールマーク(firewallmarks) です。

1.8.4.1. Persistence

有効になっている場合、「固執」はタイマーのような役割をします。クライアントが サービスに接続すると、LVS は 指定された期間の間だけ最後の接続を記憶しています。 その同じクライアント IP アドレスがその期間内に再度接続すると、以前に接続していた 同じサーバーに送られます。— ロードバランシング機構を迂回するわけです。 接続がこの期間以後に発生すると、設置済のスケジュール規則に応じて処理されます。

固執により、より高度な固執を持つアドレスを制御するツールとして、サブネットマスクを指定して、クライアントの IP アドレステストに適用することで、そのサブネットへの接続をグループ化できるように なります。

異なるポートに指定された接続のグループ化は、FTP などのように通信のために複数のポートを 使用するプロトコルには重要になります。しかし、固執は異なるポートに指定された接続を一緒に グループ化する問題を扱うには最も効率的ではありません。このような状況では ファイアウォールマーク の使用が最適です。

Cluster Suite の概要の概要

32

1.8.4.2. ファイアウォールマークファイアウォールマーク

ファイアウォールマークは、あるプロトコルやプロトコルに関係したグループの為に使用される ポートをグループ化する簡単で効率的な方法です。例えば、LVS が e-commerce サイトを実行するように導入されている場合、ポート 80 で HTTP 接続を束にして、ポート 443 で セキュアな HTTPS 接続を束に するのにファイアウォールマークを使用できます。それぞれのプロトコル用の仮想サーバーに同じファイア ウォールマークを割り当てることにより、接続が開いた後に LVS router が全ての要求を同じ実サーバーに 転送するため、トランザクションの状態情報は保存されることになります。

この効率と使い勝手の為に、LVS の管理者は、接続のグループ化については可能な限り 固執よりもファイアウォールマークを使用すべきです。しかし、それでもファイアウォール マークと共に仮想サーバーに固執を追加してクライアントが確実に十分な期間だけ同じサーバーに 再接続されるようにすべきです。

1.9. クラスタ管理ツール

Red Hat Cluster Suite は Red Hat クラスタの設定と管理のために各種のツールを提供します。このセクションでは、 Red Hat Cluster Suite で利用できる管理ツールについての概要を提供しています:

「Conga」

「クラスタ管理 GUI」

「コマンドライン管理ツール」

1.9.1. Conga

Conga とは、Red Hat クラスタとストレージ用の中央化した 設定と管理を提供するソフトウェアコンポーネントのセットです。Conga は 以下のような主要機能を提供します:

クラスタとストレージの管理用単独ウェブインターフェイス

クラスタデータとサポートパッケージの自動化した導入

既存のクラスタとの簡単な統合

再認証の不要

クラスタステータスとログの統合

ユーザー権限に関するきめ細かな制御

Conga 内の主要コンポーネントは、luci と ricci で、これらは別々にインストール出来ます。luci は 1つのコンピュータ上で稼働して、ricci を介して複数のクラスタとコンピュータと 交信します。ricci はそれぞれのコンピュータ(クラスタのメンバーか、 単独のコンピュータ)上で稼働するエージェントであり、Conga により管理 されます。

luci は、ウェブブラウザを通じてアクセス可能で、以下のような タブを介してアクセスできる三つの機能を提供します:

ホームベースホームベース — コンピュータの追加と削除、ユーザーの追加と削除、 及び、ユーザー特権の設定の為のツールを提供します。システム管理者のみがこのタブにアクセスを 許可されます。

クラスタクラスタ — クラスタの作成と設定用のツールを提供します。 luci の各インスタンスが、そのluci で セットアップされたクラスタを一覧表示します。システム管理者がこのタブ上のすべてのクラスタを 管理します。他のユーザーは、そのユーザーが管理する権限(管理者が許可)を

第第1章章 RED HAT CLUSTER SUITE 概要概要

33

持つクラスタのみを 管理することができます。

ストレージストレージ — ストレージのリモート管理の為のツールを 提供します。このタブ上のツールで、クラスタに所属するかしないかに関係無くいずれかのコンピュータ上の ストレージを管理することができます。

クラスタあるいはストレージを管理するために、管理者はクラスタかコンピュータを luci サーバーに追加(あるいは 登録)します。 クラスタかコンピュータが luci に登録されると、各コンピュータのFQDN ホスト名 又は、 IP アドレスが luci データベース内に保存されます。

1つの luci インスタンスのデータベースは別の luci インスタンスから充填することができます。この機能が luci サーバー インスタンスの複製手段を提供して、パスの効率的なアップグレードとテストを提供します。luci インスタンスのインストールをした場合、そのデータベースは 空のままです。しかし新規の luci サーバーを導入する時に、 既存の luci サーバーから luci データベースの 一部又は全てをインポートすることができます。

各 luci インスタンスは初期インストール時に1人のユーザー— 「管理者」を持っています。管理者ユーザーのみがシステムを luci サーバーに 追加することができます。また、管理者ユーザーは追加のユーザーアカウントを作成して、どのユーザーが luci データベースに登録されているクラスタとコンピュータにアクセスできるかを 決定できます。クラスタとコンピュータをインポートできるのと同様に、新規の luci サーバー内でユーザーをバッチ操作としてインポートすることが可能です。

コンピュータが、管理対象の luci サーバーに追加される場合、 認証は一度だけなされます。その後は認証は必要ありません。(証明証が CA により剥奪されない限りは) その後は、luci インターフェイスを通じてクラスタとストレージを リモート的に設定と管理ができます。luci と ricci は互いに XML 経由で交信します。

以下の図では、三つの主要な luci タブである ホームベースホームベース タブ、クラスタクラスタ タブ、 ストレージストレージ タブを示しています。

Conga に関する詳細情報については Red Hat クラスタの設定と管理クラスタの設定と管理 及び、オンラインで閲覧できるluci サーバーを参照してください。

図図1.24 luci ホームベースホームベース タブタブ

Cluster Suite の概要の概要

34

図図1.25 luci クラスタクラスタ タブタブ

図図1.26 luci ストレージストレージ タブタブ

1.9.2. クラスタ管理 GUI

第第1章章 RED HAT CLUSTER SUITE 概要概要

35

This section provides an overview of the system-config-cluster cluster administration graphicaluser interface (GUI) available with Red Hat Cluster Suite. The GUI is for use with the clusterinfrastructure and the high-availability service management components (refer to 「ClusterInfrastructure」 and 「ハイアベイラビリティサービス管理」). The GUI consists of two majorfunctions: the Cluster Configuration Tool and the Cluster Status Tool . The Cluster ConfigurationTool provides the capability to create, edit, and propagate the cluster configuration file(/etc/cluster/cluster.conf). The Cluster Status Tool provides the capability to manage high-availability services. The following sections summarize those functions.

「Cluster Configuration Tool」

「Cluster Status Tool」

1.9.2.1. Cluster Configuration Tool

You can access the Cluster Configuration Tool (図1.27「Cluster Configuration Tool」) through the Cluster Configuration tab in the Cluster Administration GUI.

図図1.27 Cluster Configuration Tool

Cluster Configuration Tool は、設定ファイル (/etc/cluster/cluster.conf) 内のクラスタ設定コ

Cluster Suite の概要の概要

36

ンポーネントを、左側パネルの階級式グラフィカル表示で 示します。コンポーネント名の左側にある三角のアイコンはこのコンポーネントに割り当てられた単数、又は複数の 従属コンポーネントを持つことを示します。この三角アイコンをクリックすると、そのコンポーネントの ツリー配下の部分が 展開したり、閉じたりします。GUI 内に表示されたコンポーネントは以下のように 要約できます:

クラスタノードクラスタノード — クラスタノードを表示します。ノードは、 クラスタノードクラスタノード の下に従属要素として名前別に表示されます。右枠の 下部(プロパティプロパティ の下)にある設定ボタンを使用すると、ノードの追加、 ノードの削除、ノードプロパティの編集、そして各ノードの フェンシングメソッドの設定が可能になります。

フェンスデバイスフェンスデバイス — フェンスデバイスを表示します。フェンスデバイスは フェンスデバイス群フェンスデバイス群の下に従属要素として表示されています。右枠の下部 (プロパティプロパティ の下)にある設定ボタンを使用すると、フェンスデバイスの追加、 フェンスデバイスの削除、フェンスデバイスプロパティの編集が可能になります。フェンスデバイスは 各ノード用に フェンシング (このノードこのノード用の用の フェンシング管理フェンシング管理 ボタンで)を 設定する前に先に定義付けをする必要があります。

管理されたリソース管理されたリソース — フェイルオーバードメイン、リソース、 及びサービスを表示します。

フェイルオーバードメインフェイルオーバードメイン — ノード故障の事態にハイアベイラビリティサービスを 実行する為に使用されるクラスタノードの単独、又は複数のサブセットを設定する為のものです。 フェイルオーバードメインは フェイルオーバードメイン群フェイルオーバードメイン群 の下に従属要素として 示されています。右枠の下部(プロパティプロパティ の下)にある設定ボタンを使用すると、 フェイルオーバードメインの作成(フェイルオーバードメインフェイルオーバードメイン が選択された場合)や、 フェイルオーバードメインプロパティの編集(フェイルオーバードメインが選択された場合)が可能になります。

リソースリソース — ハイアベイラビリティサービスで使用される共有リソースの設定の ためのものです。共有リソースはファイルシステム、IP アドレス、NFS マウントとエキスポート、そして クラスタ内のどのハイアベイラビリティサービスにも利用できるユーザー作成のスクリプトで構成されます。 リソースは リソース群リソース群 の下に従属要素として示してあります。右枠の下部 (プロパティプロパティ の下)にある設定ボタンを使用すると、リソースの作成 (リソースリソースが選択された場合)や、リソースプロパティの編集 (リソースが選択された場合)が可能になります。

注記注記

Cluster Configuration Tool はプライベートリソースも設定する能力を 提供します。プライベートリソースとは、1つのサービスでの使用のみに設定されるリソースのことです。 プライベートリソースは GUI で サービスサービス コンポーネント内で設定する ことができます。

サービスサービス — ハイアベイラビリティサービスを作成し設定するためのものです。 サービスはリソース(共有かプライベート)の割り当て、フェイルオーバードメインの割り当て、 そしてサービスの復元ポリシーの定義付けにより設定されます。サービスは サービス群サービス群 の下に従属要素として示してあります。右枠の下部(プロパティプロパティ の下)にある 設定ボタンを使用すると、サービスの作成(サービスサービス が選択された場合)や サービスプロパティの編集(サービスが選択された場合)が可能になります。

1.9.2.2. Cluster Status Tool

You can access the Cluster Status Tool (図1.28「Cluster Status Tool」) through the ClusterManagement tab in Cluster Administration GUI.

第第1章章 RED HAT CLUSTER SUITE 概要概要

37

図図1.28 Cluster Status Tool

Cluster Status Tool に表示されているノードとサービスは クラスタ設定ファイル(/etc/cluster/cluster.conf) によって決定されます。 Cluster Status Tool を使用して、ハイアベイラビリティサービスの 有効化、無効化、再開始、又は移動などが実行できます。

1.9.3. コマンドライン管理ツール

In addition to Conga and the system-config-cluster Cluster Administration GUI, command linetools are available for administering the cluster infrastructure and the high-availability servicemanagement components. The command line tools are used by the Cluster Administration GUI and initscripts supplied by Red Hat. 表1.1「コマンドラインツール」 summarizes the command line tools.

表表1.1 コマンドラインツールコマンドラインツール

Cluster Suite の概要の概要

38

コマンドラインコマンドラインツールツール

使用物使用物 目的目的

ccs_tool — クラスタ設定システムツール

ClusterInfrastructure

ccs_tool はクラスタ設定ファイルへのオンライン更新をする為の プログラムです。クラスタインフラストラクチャコンポーネントの作成と編集(例えば、クラスタの作成、 ノードの追加と削除)の機能を提供します。このツールに関する詳細情報については ccs_tool(8) man ページを 参照してください。

cman_tool — クラスタ管理ツール

ClusterInfrastructure

cman_tool は CMAN クラスタマネージャを管理するプログラムです。 これはクラスタに参加、クラスタから退出、ノードのキル、又はクラスタ内のノードの予想定数員投票への 変更などの機能を提供します。このツールに関する詳細情報には、cman_tool(8) man ページを参照して 下さい。

fence_tool —フェンス ツール

ClusterInfrastructure

fence_tool はデフォルトフェンスドメインに参加したり退出したりする為の プログラムです。これは特にフェンスデーモン (fenced) を開始してドメインに参加し、fenced をキルしてドメインから 退出をします。このツールに関する詳細情報には、fence_tool(8) man ページを参照してください。

clustat — クラスタステータスユーティリティ

ハイアベイラビリティサービス管理コンポーネント

clustat コマンドはクラスタのステータスを表示します。これは メンバーシップ情報、定員数表示、及び全ての設定済ユーザーサービスの状態を示します。 このツールに関する詳細情報については clustat(8) man ページを参照してください。

clusvcadm — クラスタユーザーサービス管理ユーティリティ

ハイアベイラビリティサービス管理コンポーネント

clusvcadm コマンドの使用で、クラスタ内のハイアベイラビリティサービスの 有効化、無効化、転送、及び再起動ができるようになります。このツールに関する詳細情報についてはclusvcadm(8) man ページを参照してください。

1.10. LINUX 仮想サーバー管理 GUI

このセクションでは、Red Hat Cluster Suite で利用できる LVS 設定ツール — Piranha ConfigurationTool の概要を提供しています。Piranha Configuration Tool はウェブブラウザグラフィカルユーザーインターフェイス(GUI) で、LVS 用の設定ファイル — /etc/sysconfig/ha/lvs.cf の作成への形成化したアプローチを提供します。

Piranha Configuration Tool にアクセスするには、アクティブな LVS router 上で 稼働している piranha-gui サービスが必要です。ウェブブラウザを 使用すれば、ローカル、又はリモートでPiranha Configuration Tool にアクセスすることが できます。URL: http://localhost:3636 の使用でローカルでアクセスできます。 ホスト名、又は実 IP アドレスに続く :3636 の使用で、リモートでアクセスできます。 リモートで Piranha Configuration Tool にアクセスしている場合、root ユーザーとしてアクティブ LVS router への ssh 接続が必要になります。

Starting the Piranha Configuration Tool causes the Piranha Configuration Tool welcome page to bedisplayed (refer to 図1.29「The Welcome Panel」 ). Logging in to the welcome page provides access tothe four main screens or panels: CONTROL/MONITORING, GLOBAL SETTINGS, REDUNDANCY, and VIRTUAL SERVERS. In addition, the VIRTUAL SERVERS panel contains four subsections. The CONTROL/MONITORING panel is the first panel displayed after you log in at the welcome screen.

第第1章章 RED HAT CLUSTER SUITE 概要概要

39

図図1.29 The Welcome Panel

以下のセクションでは、Piranha Configuration Tool 設定ページの 簡単な説明を提供しています。

1.10.1. CONTROL/MONITORING

制御制御/監視監視 パネルでは、ランタイムステータスを表示します。 これは、pulse デーモンのステータス、LVS routing 表、 及び、LVS 派生の nanny プロセスを表示します。

Cluster Suite の概要の概要

40

図図1.30 The CONTROL/MONITORING Panel

Auto update

秒単位間隔で更新秒単位間隔で更新 テキストボックス(デフォルト値は 10秒)内に 設定されたユーザー設定の間隔で自動的に更新されるステータス表示を有効にします。

10秒以下の間隔で自動更新を設定することは推奨できません。そのような設定をすると、 ページが頻繁に更新をし過ぎて、自動更新自動更新 間隔を再設定するのが 困難になります。この問題に遭遇した場合は、単にもう一つのパネルをクリックして、 その後に 制御制御/監視監視 に戻ります。

Update information now

ステータス情報の手動更新を提供します。

CHANGE PASSWORD

このボタンをクリックすると、Piranha Configuration Tool 用の管理パスワードの 変更に関する情報があるヘルプ画面に移動します。

1.10.2. GLOBAL SETTINGS

The GLOBAL SETTINGS panel is where the LVS administrator defines the networking details for theprimary LVS router's public and private network interfaces.

第第1章章 RED HAT CLUSTER SUITE 概要概要

41

図図1.31 The GLOBAL SETTINGS Panel

The top half of this panel sets up the primary LVS router's public and private network interfaces.

Primary server public IP

主要 LVS ノード用の公共 rout 可能な 実 IP アドレス。

Primary server private IP

主要 LVS ノード上の代替ネットワークインターフェイスの為の実 IP アドレスです。このアドレスは バックアップ router 用の代替ハートビートチャンネル専用として使用されます。

Use network type

Selects で NAT routing の選択

The next three fields are specifically for the NAT router's virtual network interface connected theprivate network with the real servers.

NAT Router IP

このテキストフィールド内のプライベート浮動 IPです。この 浮動 IP は実サーバー用の ゲートウェイとして使用されるものです。

NAT Router netmask

If the NAT router's floating IP needs a particular netmask, select it from drop-down list.

Cluster Suite の概要の概要

42

NAT Router device

eth1:1 などの浮動 IP アドレス用のネットワークインターフェイスデバイス名を定義します。

1.10.3. REDUNDANCY

冗長冗長 パネルの使用で、バックアップ LVS router ノードの設定と 各種ハートビート監視オプションのセットアップをすることができます。

図図1.32 The REDUNDANCY Panel

Redundant server public IP

バックアップ LVS router 用の公共 実 IP アドレス

Redundant server private IP

The backup router's private real IP address.

パネルの残りの部分はハートビートチャンネルの設定用で、主要ノードの故障を監視するためにバックアップノードにより使用されます。

Heartbeat Interval (seconds)

ハートビートの間隔 — バックアップノードが主要 LVS ノードの機能ステータスをチェックする 間隔 — を秒数で設定します。

第第1章章 RED HAT CLUSTER SUITE 概要概要

43

Assume dead after (seconds)

主要 LVS ノードが指定秒数後に反応しないと、バックアップ LVS router ノードがフェイルオーバーを 開始します。

Heartbeat runs on port

ハートビートが主要 LVS ノードと交信するためのポートを設定します。ここが空白の場合、デフォルトでは 539 にセットされています。

1.10.4. VIRTUAL SERVERS

仮想サーバー仮想サーバー パネルは、現在定義されている仮想サーバーのそれぞれの 情報を提供します。表内の項目には、仮想サーバーのステータス、サーバー名、サーバーに 割り当てられた仮想 IP、仮想 IP のネットマスク、サービスの交信先のポート番号、使用するプロトコル、 及び、仮想デバイスインターフェイスがあります。

図図1.33 The VIRTUAL SERVERS Panel

仮想サーバー仮想サーバー パネル内に表示された各サーバーは、そこから出る 画面、すなわち サブセクション 上で設定することができます。

サービスを追加するには、追加追加 ボタンをクリックします。 サービスを削除するには、仮想サーバー横のラジオボタンをクリックしてサービスを選択し、 削除削除 ボタンをクリックします。

表内の仮想サーバーを有効/無効にするには、そのラジオボタンをクリックしてから、 有効有効/無効にす無効にするる ボタンをクリックします。

Cluster Suite の概要の概要

44

仮想サーバーを追加した後は、左側にあるラジオボタンをクリックすることにより その設定が可能になり、編集編集 ボタンのクリックで 仮想サーバー仮想サーバー サブセクションを表示することができます。

1.10.4.1. 仮想サーバー仮想サーバー サブセクションサブセクション

The VIRTUAL SERVER subsection panel shown in 図1.34「The VIRTUAL SERVERS Subsection」allows you to configure an individual virtual server. Links to subsections related specifically to thisvirtual server are located along the top of the page. But before configuring any of the subsectionsrelated to this virtual server, complete this page and click on the ACCEPT button.

図図1.34 The VIRTUAL SERVERS Subsection

Name

仮想サーバーを識別する為の説明的名前です。この名前はマシンのホスト名ではないではない ですから、説明的で判り易くします。HTTP などの仮想サーバーによって使用されるプロトコルを参照する名前も 可能です。

Application port

サービスアプリケーションがそれを通じてリッスンするポートの番号。

Protocol

ドロップダウンメニュー内に UDP か TCP の選択を提供します。

Virtual IP Address

The virtual server's floating IP address.

第第1章章 RED HAT CLUSTER SUITE 概要概要

45

Virtual IP Network Mask

ドロップダウンメニュー内のこの仮想サーバー用のネットマスク。

Firewall Mark

複数ポートプロトコルを束ねる場合、又は別々でも関連したプロトコル用の複数ポート仮想サーバーを 作成する場合に、入力するファイアウォールマーク用の整数です。

Device

仮想仮想 IP アドレスアドレス フィールド内に定義された浮動 IP アドレスをバインドするネットワークデバイスの名前です。

公共浮動 IP アドレスは公共ネットワークに接続されたイーサネットインターフェイスに エイリアス化する必要があります。

Re-entry Time

実サーバー故障後にアクティブ LVS router が、実サーバーを使用する試みをするまでの 秒数を定義する整数値です。

Service Timeout

実サーバーが停止してしまって利用不可と判定されるまでの秒数を定義した整数値です。

Quiesce server

Quiesce サーバーサーバー ラジオボタンが選択されている時には、最低稼働機接続の表がゼロに再設定されており、新規の実サーバーノードがオンラインに来るとまるで全ての実サーバーが初めてクラスタに追加されるかのように、アクティブ LVS router が 要求を出すことができます。このオプションは新規サーバーが、クラスタに参加する時に多数の接続で負荷超過になることを防止します。

Load monitoring tool

LVS router は、rup 又は ruptime を使用することで 各種実サーバー上のロードを監視することができます。ドロップダウンメニューから rup が選択されると、各実サーバーは rstatd サービスを実行することになります。 ruptime が選択されると、各実サーバーは rwhod サービスを実行することになります。

Scheduling

ドロップダウンメニューからの優先スケジューリングアルゴリズムです。デフォルトでは、 能力別能力別最低稼働機接続(最低稼働機接続(Weighted least-connection)) になります。

固執固執

クライアントのトランザクション中に仮想サーバーへの固執接続が必要な場合に使用されます。 このテキストフィールド内には、接続時間切れまでの許容不活動時間を秒数で指定します。

Persistence Network Mask

固執を特定のサブネットへ限定するために、ドロップダウンメニューから適切な ネットワークマスクを選択します。

1.10.4.2. 実サーバー実サーバー サブセクションサブセクション

Cluster Suite の概要の概要

46

パネル上部にある 実サーバー(実サーバー(REAL SERVER)) サブセクション リンクをクリックすると、実サー実サーバーの編集(バーの編集(EDIT REAL SERVER)) サブセクションが表示されます。特定の仮想サービス用の物理サーバーホストのステータスが 表示されます。

図図1.35 The REAL SERVER Subsection

Click the ADD button to add a new server. To delete an existing server, select the radio button beside itand click the DELETE button. Click the EDIT button to load the EDIT REAL SERVER panel, as seen in図1.36「The REAL SERVER Configuration Panel」 .

第第1章章 RED HAT CLUSTER SUITE 概要概要

47

図図1.36 The REAL SERVER Configuration Panel

このパネルは三つの入力フィールドで構成されています:

Name

実サーバー用の説明的名前

注記注記

この名前は、マシンのホスト名ではありませんありません。 判り易くて認識し易い名前にしてください。

Address

The real server's IP address. Since the listening port is already specified for the associated virtualserver, do not add a port number.

Weight

An integer value indicating this host's capacity relative to that of other hosts in the pool. The valuecan be arbitrary, but treat it as a ratio in relation to other real servers.

1.10.4.3. EDIT MONITORING SCRIPTS Subsection

ページ上部にある 監視スクリプト(監視スクリプト(MONITORING SCRIPTS)) リンクを クリックします。監視スクリ監視スクリプトの編集(プトの編集(EDIT MONITORING SCRIPTS)) サブセクションを使用すると、管理者は send/expect

Cluster Suite の概要の概要

48

ストリングシーケンスを指定して仮想サーバー用の サービスがそれぞれの実サーバー上で機能していることを確認できるようになります。これは、また管理者が 動的に変化するデータを必要とするサービスをチェックするためのスクリプトをカスタム化することができる 場所でもあります。

図図1.37 The EDIT MONITORING SCRIPTS Subsection

Sending Program

より高度なサービス確認の為に、このフィールドを使用してサービス確認スクリプトへの パスを指定することができます。この機能は、HTTPS や SSL などの動的に変化するデータを 必要とするサービスに特に役に立ちます。

この機能を使用するには、テキスト応答を返すスクリプトを書いて、それを実行ファイルとして 設定して、送信プログラム送信プログラム フィールド内にそこまでのパスを入力 します。

注記注記

外部プログラムが 送信プログラム送信プログラム フィールドに入った場合は、 送信送信 フィールドは無視されます。

Send

このフィールド内の各実サーバーに送信する為の nanny デーモン用の ストリングです。デフォルトで「送信」フィールドは HTTP 用に完了しています。ユーザーの ニーズに応じてこの値は変更することが出来ます。このフィールドを空白のまま残すと、 nanny デーモンはポートを開く試みをして、それが成功すると サービスが実行中だと想定します。

第第1章章 RED HAT CLUSTER SUITE 概要概要

49

このフィールドには、1つの送信シーケンスのみが許可されます。そしてそれは 表示可能な ASCII文字と以下のようなエスケープ文字のみを含むことが出来ます:

新しい行の為の \n

改行の為の \r

タブの為の \t

次に続く文字をエスケープする \

Expect

サーバーが正常に機能している場合に、サーバーが返すテキスト応答です。ユーザーが 送信プログラムを書いた場合は、それが成功した時に送信するように指示している 応答を入力してください。

[1] 仮想サーバーとは、特定の仮想 IP 上でリッスンするように設定された サービスです。

Cluster Suite の概要の概要

50

第2章 RED HAT CLUSTER SUITE コンポーネントの要約この章では、Red Hat Cluster Suite コンポーネントの要約を提供し、以下のようなセクションで構成されています:

「クラスタコンポーネント」

「Man ページ」

「互換ハードウェア」

2.1. クラスタコンポーネント

表2.1「Red Hat Cluster Suite ソフトウェアサブシステムコンポーネント」 summarizes Red HatCluster Suite components.

表表2.1 Red Hat Cluster Suite ソフトウェアサブシステムコンポーネントソフトウェアサブシステムコンポーネント

機能機能 コンポーネントコンポーネント 説明説明

Conga luci リモート管理システム - 管理ステーション

ricci リモート管理システム - 管理下ステーション

Cluster ConfigurationTool

system-config-cluster グラフィカル環境でクラスタ設定の管理に使用するコマンド。

CLVM (Cluster LogicalVolume Manager)

clvmd LVM メタデータを分配するデーモンはクラスタ全域に渡り更新をします。これはクラスタ内の 全てのノードで稼働中である必要があり、クラスタ内ノードの1つでこのデーモンが稼働していない 場合は、エラーが発生します。

lvm LVM2 ツール。LVM2 用のコマンドラインツールを提供します。

system-config-lvm LVM2 用のグラフィカルユーザーインターフェイスを提供します。

lvm.conf LVM 設定ファイル。完全なパスは /etc/lvm/lvm.conf. です。

第第2章章 RED HAT CLUSTER SUITE コンポーネントの要約コンポーネントの要約

51

CCS (ClusterConfiguration System)

ccs_tool ccs_tool はクラスタ設定システム(CCS)の一部です。 これは、CCS 設定ファイルのオンラインアップデートを実行するのに使用されます。更に、 クラスタ設定ファイルを GFS 6.0 (及びそれ以降) で作成されたCCS アーカイブから Red Hat Cluster Suiteのこのリリースで使用される XML 形式設定形式にアップグレードするのにも 使用されます。

ccs_test ccsd を介して設定ファイルから情報を取り出すのに使用される 診断とテストのコマンド。

ccsd 全てのクラスタノードで稼働し、クラスタソフトウェアに設定ファイルデータを 提供する CCS デーモン。

cluster.conf これがクラスタ設定ファイルです。完全なパスは /etc/cluster/cluster.conf

CMAN (ClusterManager)

cman.ko CMAN 用のカーネルモジュール

cman_tool これは、CMAN に対する管理用フロントエンドです。CMAN の開始と停止をし、投票(votes)などの内部パラメータの変更をすることができます。

dlm_controld カーネル内の dlm を管理する為の cmaninit スクリプトで開始されるデーモン; ユーザーによる使用はありません。

gfs_controld カーネル内の gfs を管理する為の cmaninit スクリプトで開始されるデーモン; ユーザーによる使用はありません。

group_tool フェンシング、 DLM、 GFS 及びデバグ情報取得に関連したグループのリストを得るのに使用 されます; RHEL 4 で cman_tool services 提供したものを 含みます。

groupd openais/cman と dlm_controld/gfs_controld/fenced の間にインターフェイスを与える為に cman init スクリプトで開始されるデーモン; ユーザーによる使用はありません。

機能機能 コンポーネントコンポーネント 説明説明

Cluster Suite の概要の概要

52

libcman.so.<version number>

cman.ko と交流する必要のあるプログラム用のライブラリ。

rgmanager (ResourceGroup Manager)

clusvcadm 手動で、クラスタ内のユーザーサービスを有効化、無効化、移動、再開始するのに使用されるコマンド。

clustat ノードメンバーシップと実行中のサービスを含むクラスタのステータス表示に使用される コマンド。

clurgmgrd サービスの開始、無効化、移動、再開始を含むユーザーサービス要求の処理に使用されるデーモン。

clurmtabd クラスタ化した NFS マウント表の処理に使用されるデーモン。

Fence fence_apc APC パワースイッチ用の フェンス エージェント

fence_bladecenter Telnet インターフェイスのある IBMBladecenter 用の フェンス エージェント

fence_bullpap Bull Novascale PAP (PlatformAdministration Processor)インターフェイス用の フェンス エージェント

fence_drac Dell Remote Access Card 用の フェンシング エージェント

fence_ipmilan LAN 上にある IPMI(Intelligent PlatformManagement Interface)で制御されるマシン用の フェンス エージェント

fence_wti WTI パワースイッチ用の フェンス エージェント

fence_brocade Brocade ファイバーチャンネルスイッチ用の フェンス エージェント

fence_mcdata McData ファイバーチャンネルスイッチ用の フェンス エージェント

fence_vixel Vixel ファイバーチャンネルスイッチ用のフェンス エージェント

機能機能 コンポーネントコンポーネント 説明説明

第第2章章 RED HAT CLUSTER SUITE コンポーネントの要約コンポーネントの要約

53

fence_sanbox2 SANBox2 ファイバーチャンネルスイッチ用の フェンス エージェント

fence_ilo HP ILO インターフェイス用の フェンスエージェント(旧名 fence_rib)

fence_rsa IBM RSA II 用の I/O フェンシング エージェント

fence_gnbd GNBD ストレージで使用される フェンスエージェント

fence_scsi SCSI 固執予約用の I/O フェンシング エージェント。

fence_egenera Egenera BladeFrame システムで使用される フェンス エージェント

fence_manual 手動交流の為の フェンス エージェント。注注記記: このコンポーネントは実稼働環境用にはサポートがありません。

fence_ack_manual fence_manual エージェント用のユーザーインターフェイス。

fence_node 単独ノード上で I/O フェンシング を実行するプログラム。

fence_xvm Xen 仮想マシン用の I/O フェンシング エージェント

fence_xvmd Xen 仮想マシン用の I/O フェンシング エージェントホスト。

fence_tool フェンス ドメインに参加と退出をするプログラム。

fenced I/O フェンシング デーモン

DLM libdlm.so.<version number>

DLM (Distributed Lock Manager)サポート用のライブラリ

GFS gfs.ko GFS ファイルシステムを実装するカーネルモジュールであり、GFS クラスタノード上に ロードされます。

機能機能 コンポーネントコンポーネント 説明説明

Cluster Suite の概要の概要

54

gfs_fsck アンマウントされた GFS ファイルシステムを修理するコマンド

gfs_grow マウントされた GFS ファイルシステムを拡張するコマンド

gfs_jadd マウントした GFS ファイルシステムへジャーナルを追加するコマンド

gfs_mkfs ストレージデバイス上に GFS ファイルシステムを作成するコマンド

gfs_quota マウントした GFS ファイルシステム上で割り当てを管理するコマンド

gfs_tool GFS ファイルシステムを設定、又はチューンするコマンド。このコマンドは ファイルシステムについて種々の情報を収集することもできます。

mount.gfs mount(8) と呼ばれるマウントヘルパー;ユーザーによる使用はありません。

GNBD gnbd.ko クライアント上で GNBD デバイスドライバーを実装するカーネルモジュール

gnbd_export GNBD サーバー上で GNBD の作成、エキスポート、及び管理をするコマンド

gnbd_import GNBD クライアント上で GNBD のインポートと管理をするコマンド

gnbd_serv ノードがローカルストレージをネットワーク上にエキスポートできるようにするサーバーデーモン。

機能機能 コンポーネントコンポーネント 説明説明

第第2章章 RED HAT CLUSTER SUITE コンポーネントの要約コンポーネントの要約

55

LVS pulse This is the controlling process which startsall other daemons related to LVS routers.At boot time, the daemon is started by the /etc/rc.d/init.d/pulse script. Itthen reads the configuration file /etc/sysconfig/ha/lvs.cf. On theactive LVS router, pulse starts the LVSdaemon. On the backup router, pulsedetermines the health of the active routerby executing a simple heartbeat at a user-configurable interval. If the active LVSrouter fails to respond after a user-configurable interval, it initiates failover.During failover, pulse on the backup LVSrouter instructs the pulse daemon on theactive LVS router to shut down all LVSservices, starts the send_arp program toreassign the floating IP addresses to thebackup LVS router's MAC address, andstarts the lvs daemon.

lvsd lvs デーモンは、 pulse によって コールされるとアクティブな LVS router 上で稼働します。このデーモンは設定ファイル /etc/sysconfig/ha/lvs.cf を読み込み、IPVS routing 表の構築と維持の為に ipvsadm ユーティリティをコールし、そして各設定済の LVS サービスの 為に nanny プロセスを割り当てます。nannyが 実サーバーの停止を報告した場合、lvsは ipvsadm に対して、IPVS routing 表からその実サーバーを取り除くように指示します。

ipvsadm このサービスはカーネル内の IPVS routing表をアップデートします。 lvs デーモンは、ipvsadm をコールすることにより、LVS をセットアップして管理し、IPVSrouting 表内のエントリの追加、変更、削除をします。

nanny nanny 監視デーモンはアクティブな LVSrouter 上で稼働します。 このデーモンを通じて、アクティブな LVS router はそれぞれの実サーバーの健全性を決定し、 オプションとして、その担当負荷を監視します。別のプロセスがそれぞれの実サーバー上で定義された 各サービス用に稼働します。

機能機能 コンポーネントコンポーネント 説明説明

Cluster Suite の概要の概要

56

lvs.cf これは、LVS 設定ファイルです。このファイル用の完全パスは /etc/sysconfig/ha/lvs.cf です。直接的に、又は間接的に全てのデーモンはこのファイルからその設定情報を取り寄せます。

Piranha Configuration Tool これは、LVS の監視、設定、及び管理用のウェブベースのツールです。これが /etc/sysconfig/ha/lvs.cf LVS 設定ファイルを維持する為の デフォルトのツールとなります。

send_arp このプログラムは、浮動 IP アドレスがフェイルオーバーの間に1つのノードから別のノードに移動する場合に ARP ブロードキャストを送信します。

Quorum ディスク qdisk CMAN / Linux クラスタ用のディスクベースの定員数(quorum)デーモン。

mkqdisk クラスタ Quorum ディスクユーティリティ。

qdiskd クラスタ Quorum ディスクデーモン。

機能機能 コンポーネントコンポーネント 説明説明

2.2. MAN ページ

このセクションでは、追加の資料として Red Hat Cluster Suite に関連した man ページを一覧表示 します。

クラスタインフラストラクチャ

ccs_tool (8) - CCS 設定ファイルのオンライン更新をするのに使用されるツール

ccs_test (8) - クラスタ設定システムを実行する為の診断ツール

ccsd (8) - CCS クラスタ設定ファイルにアクセスするのに使用するデーモン

ccs (7) - クラスタ設定システム

cman_tool (8) - クラスタ管理ツール

cluster.conf [cluster] (5) - クラスタ製品用の設定ファイル

qdisk (5) - CMAN / Linux-クラスタ用のディスクベースの定員数(quorum)デーモン

mkqdisk (8) -クラスタ Quorum ディスクユーティリティ

qdiskd (8) - クラスタ Quorum ディスクデーモン

第第2章章 RED HAT CLUSTER SUITE コンポーネントの要約コンポーネントの要約

57

fence_ack_manual (8) - 手動 I/O フェンシング の一部として演算子によって実行されるプログラム

fence_apc (8) - APC MasterSwitch 用の I/O フェンシング エージェント

fence_bladecenter (8) - IBM Bladecenter 用の I/O フェンシング エージェント

fence_brocade (8) - Brocade FC スイッチ用の I/O フェンシング エージェント

fence_bullpap (8) - PAP 管理コンソールにより制御されている Bull FAME アーキテクチャ用の I/O フェンシング エージェント

fence_drac (8) - Dell リモートアクセスカード用の フェンシング エージェント

fence_egenera (8) - Egenera BladeFrame 用の I/O フェンシング エージェント

fence_gnbd (8) - GNBD ベースの GFS クラスタ用の I/O フェンシング エージェント

fence_ilo (8) - HP Integrated Lights Out カード用の I/O フェンシング エージェント

fence_ipmilan (8) - IPMI over LAN で制御されているマシン用の I/O フェンシング エージェント

fence_manual (8) - 手動 I/O フェンシング の一部として fenced により実行されるプログラム

fence_mcdata (8) - McData FC スイッチ用の I/O フェンシング エージェント

fence_node (8) - 単独ノード上で I/O フェンシング を実行するプログラム

fence_rib (8) - Compaq Remote Insight Lights Out カード用の I/O フェンシング エージェント

fence_rsa (8) - IBM RSA II 用の I/O フェンシング エージェント

fence_sanbox2 (8) - QLogic SANBox2 FC スイッチ用の I/O フェンシング エージェント

fence_scsi (8) - SCSI 固執予約用の I/O フェンシング エージェント

fence_tool (8) - fence ドメインに参加と退出をするプログラム

fence_vixel (8) - Vixel FC スイッチ用の I/O フェンシング エージェント

fence_wti (8) - WTI ネットワークパワースイッチ用の I/O フェンシング エージェント

fence_xvm (8) - Xen 仮想マシン用の I/O フェンシング エージェント

fence_xvmd (8) - Xen 仮想マシン用の I/O フェンシング エージェントホスト

fenced (8) - I/O フェンシング デーモン

ハイアベイラビリティサービス管理

clusvcadm (8) - クラスタユーザーサービス管理ユーティリティ

clustat (8) - クラスタステータスユーティリティ

Clurgmgrd [clurgmgrd] (8) - リソースグループ(クラスタサービス)マネージャデーモン

Cluster Suite の概要の概要

58

clurmtabd (8) - クラスタ NFS リモートマウント表デーモン

GFS

gfs_fsck (8) - オフライン GFS ファイルシステムチェッカー

gfs_grow (8) - GFS ファイルシステムの拡張

gfs_jadd (8) - ジャーナルを GFS ファイルシステムに追加

gfs_mount (8) - GFS マウントオプション

gfs_quota (8) - GFS ディスク割り当てを処理

gfs_tool (8) - gfs ioctl コールへのインターフェイス

clvm (Cluster Logical Volume Manager)

clvmd (8) - クラスタ LVM デーモン

lvm (8) - LVM2 ツール

lvm.conf [lvm] (5) - LVM2 用の設定ファイル

lvmchange (8) - 論理ボリュームマネージャの属性を変更

pvcreate (8) - LVM による使用の為のディスク、又はパーティションの初期化

lvs (8) - 論理ボリュームに関するレポート情報

GNBD (Global Network Block Device)

gnbd_export (8) - GNBD をエキスポートする為のインターフェイス

gnbd_import (8) - クライアント上の GNBD ブロックデバイスを処理

gnbd_serv (8) - gnbd サーバーデーモン

LVS

pulse (8) - クラスタノードの健全性を監視するハートビートデーモン

lvs.cf [lvs] (5) - lvs 用の設定ファイル

lvscan (8) - 論理ボリューム用のスキャン(全ディスク)

lvsd (8) - Red Hat クラスタリングサービスを制御するデーモン

ipvsadm (8) - Linux 仮想サーバー管理

ipvsadm-restore (8) - 標準入力から IPVS 表を復元

ipvsadm-save (8) - IPVS 表を標準出力に保存

nanny (8) - クラスタ内のサービスステータスを監視するツール

send_arp (8) - 新しい IP アドレス / MAC アドレスマッピングのネットワークを通知するツール

第第2章章 RED HAT CLUSTER SUITE コンポーネントの要約コンポーネントの要約

59

2.3. 互換ハードウェア

Red Hat Cluster Suite コンポーネント(例えば、サポートのあるフェンスデバイス、ストレージデバイス、及びファイバー チャンネルスイッチなど)と互換性のあるハードウェアに関する情報には、http://www.redhat.com/cluster_suite/hardware/ で入手できるハードウェア設定ガイドラインをご覧ください。

Cluster Suite の概要の概要

60

付録A 改訂履歴

改訂改訂 3-7.400 2013-10-31 Rüdiger LandmannRebuild with publican 4.0.0

改訂改訂 3-7 2012-07-18 Anthony TownsRebuild for Publican 3.0

改訂改訂 1.0-0 Tue Jan 20 2008 Paul Kennedyポイントリリースの集約

付録付録A 改訂履歴改訂履歴

61

索引

C

cluster

displaying status, Cluster Status Tool

cluster administration

displaying cluster and service status, Cluster Status Tool

cluster component compatible hardware, 互換ハードウェア互換ハードウェア

cluster component man pages, Man ページページ

cluster components table, クラスタコンポーネントクラスタコンポーネント

Cluster Configuration Tool

accessing, Cluster Configuration Tool

cluster service

displaying status, Cluster Status Tool

command line tools table, コマンドライン管理ツールコマンドライン管理ツール

compatible hardware

cluster components, 互換ハードウェア互換ハードウェア

Conga

overview, Conga

Conga overview, Conga

F

feedback, フィードバックフィードバック

I

introduction, はじめにはじめに

other Red Hat Enterprise Linux documents, はじめにはじめに

L

LVS

direct routing

requirements, hardware, ダイレクトダイレクト routing

requirements, network, ダイレクトダイレクト routing

requirements, software, ダイレクトダイレクト routing

routing methods

NAT, Routing の方法の方法

three tiered

Cluster Suite の概要の概要

62

high-availability cluster, Three-Tier LVS Topology

M

man pages

cluster components, Man ページページ

N

NAT

routing methods, LVS, Routing の方法の方法

network address translation (参照参照 NAT)

O

overview

economy, Red Hat GFS

performance, Red Hat GFS

scalability, Red Hat GFS

P

Piranha Configuration Tool

CONTROL/MONITORING, CONTROL/MONITORING

EDIT MONITORING SCRIPTS Subsection, EDIT MONITORING SCRIPTS Subsection

GLOBAL SETTINGS, GLOBAL SETTINGS

login panel, Linux 仮想サーバー管理仮想サーバー管理 GUI

necessary software, Linux 仮想サーバー管理仮想サーバー管理 GUI

REAL SERVER subsection, 実サーバー実サーバー サブセクションサブセクション

REDUNDANCY, REDUNDANCY

VIRTUAL SERVER subsection, VIRTUAL SERVERS

Firewall Mark , 仮想サーバー仮想サーバー サブセクションサブセクション

Persistence , 仮想サーバー仮想サーバー サブセクションサブセクション

Scheduling , 仮想サーバー仮想サーバー サブセクションサブセクション

Virtual IP Address , 仮想サーバー仮想サーバー サブセクションサブセクション

VIRTUAL SERVERS, VIRTUAL SERVERS

R

Red Hat Cluster Suite

components, クラスタコンポーネントクラスタコンポーネント

T

索引索引

63

table

cluster components, クラスタコンポーネントクラスタコンポーネント

command line tools, コマンドライン管理ツールコマンドライン管理ツール

Cluster Suite の概要の概要

64