ArcGIS Server のデータ格納の検討事項

ArcGIS Server の導入時には、GIS サービスのソース データを格納する場所を選択する必要があります。このトピックでは、ArcSDE ジオデータベースとファイル ジオデータベースを使用するのに適切なシナリオについて説明します。

ArcSDE ジオデータベースを使用する場合とファイル ジオデータベースを使用する場合

一般的に、サービスのソース データを管理するには、エンタープライズ ArcSDE ジオデータベースを使用することをお勧めします。ArcSDE は、高い可用性のサポート、バックアップとリカバリ、同時実行性、スケーラビリティを提供し、高いスループットを発揮できる傾向があります。しかし、これは、企業が専門のデータベース管理者(DBA)を置き、エンタープライズ ArcSDE ジオデータベースを最適化、調整、管理できることが前提です。

企業内に DBA がいなくて、公開するデータが比較的に静的な場合は、ファイル ジオデータベースの使用が適している場合もあります。一般的に、ファイル ジオデータベースは特別な構成や調整をしなくても、優れたパフォーマンスを発揮します。GIS データの特性によっては、エンタープライズ ArcSDE ジオデータベースがファイル ジオデータベースのパフォーマンスを上回るには、特別な最適化やチューニングが必要な場合もあります。

ファイル ジオデータベースを使用することを選択する前に、バージョニング、ジオデータベースのレプリケーション、履歴管理など、ArcSDE ジオデータベースの一部の機能 は、ファイル ジオデータベースで使用できないことに注意してください。また、ログ機能、バックアップとリカバリ、フェイルオーバー構成など、標準の DBMS 機能もファイル ジオデータベースでは使用できません。

ファイル ジオデータベースの検討事項

データ ソースとしてファイル ジオデータベースを使用する場合、ファイル ジオデータベースの同一コピーを各 SOC コンピュータに配置する必要があります。たとえば、異なるサーバ上に 3 つの SOC がある分散 ArcGIS Server の場合、各 SOC は専用のファイル ジオデータベースのコピーにアクセスする必要があります。SOC は、ネットワークを介して同じファイル ジオデータベースにアクセスしないようにしてください。

このような構成にすることで、異なる ArcGIS Server コンポーネント間のネットワーク通信トラフィックを最小化し、ファイル ジオデータベースにアクセスするときの I/O の競合を抑えることができます。ファイル ジオデータベースを共有することで I/O の競合が発生する要因としては、マップ サービスのレイヤの数や、ファイル ジオデータベースのデータの性質、およびファイル ストレージ デバイスなどがあります。

ファイル ジオデータベースは、同時プロセスによって読み取り専用モードでアクセスされた場合にも問題なく機能しますが、負荷が高い間も編集によってロックされます。このため、ファイル ジオデータベースが公開用ジオデータベース(一方向レプリケーション ワークフロー)である場合は、レプリカの同期は、マップ サービスがアクティブでない期間に行うか、マップ サービスで使用されないように、ファイル ジオデータベースを解放してから行う必要があります。ジオデータベースの解放は、サービスを停止して行います。SOC が複数ある場合は、SOC コンピュータを SOM から一時的に切断して、ファイル ジオデータベースを更新した後に再接続します。

ファイル ジオデータベースとマップ キャッシュ

ファイル ジオデータベースは、マップ キャッシュのシナリオでもうまく機能します。キャッシュ上で動作する各コンピュータ上に同一のファイル ジオデータベースを配置することで、ネットワーク上で発生する多くの ArcSDE データベースへの呼び出しをなくすことができます。これにより、データベースの負荷を軽減し、キャッシュを高速化できます。

これらのファイル ジオデータベースは、ArcSDE からの一方向レプリケーションを使用して作成できます。また、キャッシュされるマップの投影にレプリケートすることもできます。一般的な例は、ArcGIS Online、Bing Maps、および Google Maps で使用される WGS 1984 Web メルカトル(Auxiliary Sphere)投影法の Web マップのキャッシュです。これは、ArcSDE のエンタープライズ データセットを格納する投影法として通常はお勧めしませんが、ファイル ジオデータベースから Web マップをキャッシュするのには優れた投影法です。


3/6/2012