Filter Spark ジョブの使用
-
AdvanceMatchFactory
のインスタンスを、その静的メソッドgetInstance()
を使用して作成します。 -
Filter ジョブの入力と出力の詳細を指定します。以下の手順に従って、
FilterDetail
を指定するProcessType
のインスタンスを作成することによって、これを行います。このインスタンスは、SparkProcessType タイプを使用する必要があります。-
GroupbyOption
のインスタンスを作成することによって、レコードのグループ化に使用する列を指定します。GroupbySparkOption のインスタンスを使用して、Group-By 列を指定します。 -
FilterConfiguration
のインスタンスを作成することによって、ジョブの統合ルールを生成します。このインスタンスの中で、ConsolidationCondition
のインスタンスを使用して統合条件を定義し、論理演算子を使用して条件を組み合わせます。ConsolidationCondition
の各インスタンスは、ConsolidationRule
インスタンスとそれに対応するConsolidationAction
インスタンスを使用して定義されます。注:ConsolidationRule
の各インスタンスは、SimpleRule
の 1 つのインスタンスによって定義するか、または、子のSimpleRule
インスタンスとネストされたConjoinedRule
インスタンスが、論理演算子で結合された階層を使用して定義できます。列挙 JoinType、および列挙 Operationを参照してください。 -
FilterDetail
のインスタンスを作成します。JobConfig
タイプのインスタンスと、上で作成したGroupbyOption
インスタンスおよびFilterConfiguration
インスタンスを、コンストラクタの引数として渡します。JobConfig
パラメータは、SparkJobConfig タイプのインスタンスである必要があります。 -
inputPath
インスタンスのFilterDetail
フィールドを使用して、入力ファイルの詳細を設定します。- テキスト入力ファイルの場合は、適切なコンストラクタを呼び出して、関連する詳細な入力ファイル情報を指定して
FilePath
のインスタンスを作成します。 - ORC 入力ファイルの場合、ORC 入力ファイルのパスを引数に指定して
OrcFilePath
のインスタンスを作成します。 - PARQUET 入力ファイルの場合、PARQUET 入力ファイルのパスを引数に指定して ParquetFilePath のインスタンスを作成します。
- テキスト入力ファイルの場合は、適切なコンストラクタを呼び出して、関連する詳細な入力ファイル情報を指定して
-
FilterDetail
インスタンスのoutputPath
フィールドを使用して、出力ファイルの詳細を設定します。- テキスト出力ファイルの場合は、適切なコンストラクタを呼び出して、関連する詳細な出力ファイル情報を指定して
FilePath
のインスタンスを作成します。 - ORC 出力ファイルの場合、ORC 出力ファイルのパスを引数に指定して
OrcFilePath
のインスタンスを作成します。 - PARQUET 出力ファイルの場合、PARQUET 出力ファイルのパスを引数に指定して ParquetFilePath のインスタンスを作成します。
- テキスト出力ファイルの場合は、適切なコンストラクタを呼び出して、関連する詳細な出力ファイル情報を指定して
-
jobName
インスタンスのFilterDetail
フィールドを使用して、ジョブの名前を設定します。 -
FilterDetail
インスタンスのcompressOutput
フラグを true に設定して、ジョブの出力を圧縮します。
-
-
Spark ジョブを作成して実行するには、先ほど作成した
AdvanceMatchFactory
のインスタンスを使用してそのメソッドrunSparkJob()
を呼び出します。ここで、上のFilterDetail
のインスタンスを引数として渡します。runSparkJob()
メソッドはジョブを実行し、ジョブのレポート カウンタのMap
を返します。 - カウンタを表示することにより、ジョブに対する統計レポートを表示します。