2008-06-25タイトル: | LINUXの使い方 | |
投稿者: | 管理者 | 00010_01_01_ |
本文 | サーバの進歩について整理してみると、いろいろな見方があると思うが、以下私見。 1. CPUがひとつのサーバ一台に全てのサービスを実装 ⇒能力増強や障害対応に不安 2. 複数のCPUを持つサーバに全てのサービスを実装 ⇒1の問題を少し緩和 3. 複数のCPUを持つ複数のサーバで単独のサービスを分担 ⇒2より更に進化 ただし、データ量が多いと限界 4. 複数のCPUを持つ複数のサーバで特定のサービスは動的に負荷分散 ⇒3の問題も大幅に解消 5. 複数のCPUを持つバーチャルサーバで動的に負荷分散しながら無停止処理 ⇒負荷分散のひとつに障害による停止対策も加わり更に安定 のように、進化しているようだ。(費用対効果により、必ずしも5が最良とはいえないが) 最近は、回線もバーチャル化する方向に進んでいる。バーチャル化とは、簡単に言えば携帯番号のポータビリティに類似している。携帯の場合は、通話先の携帯の会社が変わっても、機種が変わっても気にせずにダイヤルすればよいことになった。サーバの場合は、バーチャル化によりハードやソフトの違いを利用する上では同じにする。この方式により、時々マスコミで問題になる能力不足や故障によるシステム障害が、日頃はどこかに埋没している能力を障害などで必要になったときのみ活性化することで、かなり防げるようになる。ポイントは、バーチャルをリアルに変換する標準化の実装である。これができないと絵餅である。標準化と競争は、並立しづらい面もあるのだが。 |