| Turbolinux CLUSTERPRO FAQ集 |

ここでは、Turbolinux CLUSTERPROに関して頂戴するお問い合わせで、よくあるご質問をいくつか掲載しています。
ここでは、Turbolinux CLUSTERPROに関して頂戴するお問い合わせで、よくあるご質問をいくつか掲載しています。
データミラー版で必要となるディスク本数について
|
 |
データミラー版で必要となるディスク本数について教えてください。 |
|
 |
データミラー版では、グループごとにディスクが必要となりますので、必要となるグループ数分、ディスクが必要となります。最大で、8 グループの管理が可能です。また、1 グループで管理できるパーティション数は、15 となります。 |
|
|
|
|
|
|
対象製品 |
: |
Turbolinux 8 CLUSTERPRO LE |
|
|
|
Turbolinux 7 CLUSTERPRO LE |
|
|
|
Turbolinux CLUSTERPRO Server 6 Lite |
|
データミラー版での複数グループ運用について
|
 |
データミラー版で複数のグループ運用を行うことは可能ですか?
また、双方向運用は可能ですか? |
|
 |
グループのミラーセットには次のような制約が発生しますので、複数のミラーセットが必要になります。
「別々のグループから同一のミラーセットを共有することはできませんので、複数グル ープが必要な運用形態では、グループごとのミラーセットが必要になります。」
よって、双方向運用には、OS 以外に 2 つのミラーセットが必要になります。 |
|
|
|
|
|
|
対象製品 |
: |
Turbolinux 8 CLUSTERPRO LE |
|
|
|
Turbolinux 7 CLUSTERPRO LE |
|
|
|
Turbolinux CLUSTERPRO Server 6 Lite |
|
管理マネージャをファイアウォール超えに設置する方法
|
 |
管理マネージャをファイアウォール超えに設置することは可能でしょうか? |
|
 |
ファイアウォール超えも可能です。クラスタノードおよび管理マネージャ間で、デフォルトでは次のポートが空いていれば可能となります。
| マネージャ |
|
サーバ |
|
| ポート番号 |
プロトコル |
方向 |
ポート番号 |
プロトコル |
備考 |
| 20008 |
UDP |
<- |
|
|
|
|
|
-> |
20009 |
TCP |
|
|
|
-> |
20010 |
UDP |
*1 |
|
|
-> |
20021 |
UDP |
ブロードキャスト
*2 |
| 20021 |
UDP |
<- |
|
|
|
|
|
-> |
20021 |
TCP |
|
|
|
-> |
20020 |
TCP |
|
|
|
-> |
20090 |
TCP |
データミラー版のみ |
|
|
|
|
|
*1 |
CLUSTERPROのマニュアル(システム構築ガイド)では、プロトコルがTCPと記載されていますが、これは誤記で、ポート番号20010はUDPを使用します。 |
|
*2 |
CLUSTERPROのマニュアル(システム構築ガイド)では、ブロードキャストと記述していますが、誤記で、ブロードキャストではありません。 |
|
|
|
|
対象製品 |
: |
Turbolinux 8 CLUSTERPRO SE |
|
|
|
Turbolinux 7 CLUSTERPRO SE |
|
|
|
Turbolinux CLUSTERPRO Server 6 |
|
|
|
Turbolinux 8 CLUSTERPRO LE |
|
|
|
Turbolinux 7 CLUSTERPRO LE |
|
|
|
Turbolinux CLUSTERPRO Server 6 Lite |
|
共有ディスクのディジーチェーンおよびマルチ LUN 構成について
|
 |
「クラスタ生成ガイド」の『共有ディスク』に記載されている以下の記述は本当でしょうか?
|
|
1) |
2 台以上の共有ディスクを同一 SCSI バス上に接続する接続形態はサポート対象外です。 |
|
|
2) |
アレイ装置内の複数 LUN 構成はサポート対象外です。 |
|
|
 |
次の通りです。
|
|
1) |
システム構成そのものは評価頂いた上で動作するのであれば問題ありません。ただし、次のような観点から上記を記述しています。
異常が発生した共有ディスクに引きずられて、正常な共有ディスクにまで影響を受けてしまう可能性がある。
使用する共有ディスクが上記制限に引っかからないようであれば、使用することは可能です。ただし、十分な評価を行った上で使用するようにしてください。 |
|
|
2) |
Linux
の標準カーネル設定では、カーネルパラメータ Multiple LUN が OFF
に設定されており、起動時にカーネルパラメータ
"max_scsi_luns" を与えないと 2 個目以降の LUN が見えなくなってしまう場合があるため記述しています。
基本的には、ディスクアレイ装置自体で複数 LUN 構成をサポートし、かつクロスコールおよびデュアルポート機構をサポートしていれば問題ありません。ただし、こちらについても十分な評価を行った上で使用するようにしてください。 |
|
|
|
|
|
|
|
対象製品 |
: |
Turbolinux 8 CLUSTERPRO SE |
|
|
|
Turbolinux 7 CLUSTERPRO SE |
|
|
|
Turbolinux CLUSTERPRO Server 6 |
|
Linuxカーネルのアップデートについて
|
 |
kernel
をアップデートすることは可能ですか?
|
|
 |
2002年12月3日現在、各製品ごと以下セキュリティ
kernel アップデートに対応しております。
| 製品名 |
kernel |
| Turbolinux 8 CLUSTERPRO LE |
2.4.18-13 |
| Turbolinux 8 CLUSTERPRO SE |
2.4.18-13 |
| Turbolinux 7 CLUSTERPRO LE |
2.4.18-13 |
| Turbolinux 7 CLUSTERPRO SE |
2.4.18-13 |
| Turbolinux CLUSTERPRO Server 6 Lite |
2.2.18-18 |
| Turbolinux CLUSTERPRO Server 6 |
2.2.18-18 |
上記 kernel に対応するためには、各製品のモジュールアップデートが必要となりますので、以下弊社 URL よりダウンロードしてください。
https://service.turbolinux.co.jp/tech/orders/update_cpro.php
尚、各製品のモジュールアップデートには、製品のシリアル番号を使用してのユーザ登録が必要となりますので、ご注意ください。
|
|
|
|
|
|
|
対象製品 |
: |
Turbolinux 8 CLUSTERPRO SE |
|
|
|
Turbolinux 7 CLUSTERPRO SE |
|
|
|
Turbolinux CLUSTERPRO Server 6 |
|
|
|
Turbolinux 8 CLUSTERPRO LE |
|
|
|
Turbolinux 7 CLUSTERPRO LE |
|
|
|
Turbolinux CLUSTERPRO Server 6 Lite |
|
ハードウェアRAID構成でのデータミラー版の使用について
|
 |
データミラー版をハードウェア RAID で構成することは可能か?
|
|
 |
データミラー版では、OS/CLUSTERPRO/アプリケーションを構成するディスクとフェイルオーバリソースとするミラーディスクを物理的に分けて構成する必要があり、ハードウェア RAID
で構成する場合には、次のようにマルチ LUN
構成にする必要があります。
LUN0 ・・・ OS、CLUSTERPRO、アプリケーション
LUN1 ・・・ ミラーデバイス
|
|
|
|
|
|
|
対象製品 |
: |
Turbolinux 8 CLUSTERPRO LE |
|
|
|
Turbolinux 7 CLUSTERPRO LE |
|
|
|
Turbolinux CLUSTERPRO Server 6 Lite |
|
Xeon ハイパースレッド環境でのライセンスカウントについて
|
 |
Turbolinux 7 CLUSTERPRO SE/LE より、CLUSTERPRO
サーバを稼働させるPC合計分の CPU
ライセンスが必要になるが、Xeon
ハイパースレッド(Hyper Thread)のライセンスカウントはどのようになるのか?
|
|
 |
ハイパースレッドの場合は、論理 CPU 数ではなく、物理 CPU 数でのカウントとなります。
|
|
|
|
|
|
|
対象製品 |
: |
Turbolinux 8 CLUSTERPRO SE |
|
|
|
Turbolinux 8 CLUSTERPRO LE |
|
|
|
Turbolinux 7 CLUSTERPRO SE |
|
|
|
Turbolinux 7 CLUSTERPRO LE |
|
|

Last modified : Thu Aug 28 JST 2003 # 1