Knox への接続

Apache Knox Gateway を使用すると、Knox セキュリティ レイヤを経由して Hadoop サービスにアクセスできます。

この接続により、Enterprise Big Data モジュールのステージを使用して Enterprise Designer にフローを作成し、Knox 経由で Hadoop との間でデータを読み書きすることができます。

  1. 次のいずれかのモジュールを使用して [データ ソース] ページにアクセスします。
    Management Console:
    http://server:port/managementconsole という URL を使用して Management Console にアクセスします。ここで、serverSpectrum™ Technology Platform サーバーのサーバー名または IP アドレス、portSpectrum™ Technology Platform が使用する HTTP ポートです。
    注: デフォルトの HTTP ポートは 8080 です。
    [リソース] > [データ ソース] に移動します。
    Metadata Insights:
    http://server:port/metadata-insights という URL を使用して Metadata Insights にアクセスします。ここで、serverSpectrum™ Technology Platform サーバーのサーバー名または IP アドレス、portSpectrum™ Technology Platform が使用する HTTP ポートです。
    注: デフォルトの HTTP ポートは 8080 です。
    [接続] に移動します。
  2. [接続を追加] ボタン をクリックします。
  3. [名前] フィールドに、接続の名前を入力します。任意の名前にすることができます。
    注: 接続をいったん保存すると、名前の変更は不可能になります。
  4. [タイプ] フィールドで、[ゲートウェイ] を選択します。
  5. [ゲートウェイ タイプ] フィールドで、[Knox] を選択します。
  6. [ホスト] フィールドに、このゲートウェイを実行している HDFS クラスタ内ノードのホスト名または IP アドレスを入力します。
  7. [ポート] フィールドに、Knox ゲートウェイのポート番号を入力します。
  8. [ユーザ名] フィールドに、Knox ゲートウェイのユーザ名を入力します。
  9. [パスワード] フィールドに、Knox ゲートウェイへのアクセスを認証するパスワードを入力します。
  10. [ゲートウェイ名] フィールドに、アクセスする Knox ゲートウェイの名前を入力します。
  11. [クラスタ名] フィールドに、アクセスする Hadoop クラスタの名前を入力します。
  12. [プロトコル] フィールドで、webhdfs を選択します。
  13. [サービス名] フィールドに、アクセスする Hadoop サービスの名前を入力します。
  14. 接続をテストするには、[テスト] をクリックします。
  15. [保存] をクリックします。

HDFS クラスタへの Knox 接続を定義した後で、この接続を Enterprise Designer において、Read from File ステージと Write to File ステージで使用できます。ソースまたはシンク ステージでファイルを定義するときに [リモート マシン] をクリックすると、HDFS クラスタを選択できます。