Advanced Transformer

Advanced Transformer ジョブは、テーブルまたは正規表現を使用して、一連のデータ列をスキャンして複数のフィールドに分割します。このコンポーネントは、特定の語、あるいは語の右側または左側から指定した数だけ単語を抽出します。抽出データと非抽出データを既存のフィールドまたは新しいフィールドに配置できます。

例えば、次の住所フィールドから一組の情報を抽出し、その情報を別のフィールドに配置するとします。

2300 BIRCH RD STE 100

これを行うには、語 STE と語 STE の右側にあるすべての単語を抽出する Advanced Transformer を作成することができます、分離されるフィールド:

2300 BIRCH RD

設定ファイル

これらの表には、Advanced Transformer ジョブを実行する前に指定する必要があるパラメータと値が記載されています。

表 1. inputFileConfig
パラメータ 説明
pb.bdq.input.type 入力ファイルの種類。値は TEXTORCPARQUET のいずれかです。
pb.bdq.inputfile.path 入力ファイルを HDFS 上に置いたパス。例: /user/hduser/sampledata/advancedtransformer/input/AdvancedTransformer_Input.txt
textinputformat.record.delimiter テキスト タイプの入力ファイルで使用されるファイル レコード区切り文字。例えば、LINUXMACINTOSH、またはWINDOWS
pb.bdq.inputformat.field.delimiter カンマ (,) またはタブなど、入力ファイルで使用されるフィールドまたは列の区切り文字。
pb.bdq.inputformat.text.qualifier 入力ファイルの列またはフィールドのテキスト修飾子 (存在する場合)。
pb.bdq.inputformat.file.header 入力ファイルで使用されるヘッダーのカンマ区切りの値。
pb.bdq.inputformat.skip.firstrow 最初の行をスキップするかどうか。値は True または False です。True はスキップを示します。
pb.bdq.inputfile.field.mapping 入力ファイルで使用されているヘッダーの値を、更新された値でマップします。
注: これはオプションのパラメータです。
表 2. advancedTransformerConfig
パラメータ 説明
pb.bdq.job.type これは、ジョブを定義する定数値です。このジョブの値は、AdvTransformer です。
pb.bdq.job.name ジョブの名前。デフォルトは AdvanceTransformerSample です。
pb.bdq.dnm.advtransformer.configuration Advanced Transformer 設定を定義する Json 文字列。これは、スキャンや分割のために評価するソース入力フィールド、抽出されたデータを置く出力フィールド、トークン化する特殊文字、実行する抽出のタイプなどの詳細を指定します。
pb.bdq.reference.data リファレンス データを配置している場所のパス。例: {"referenceDataPathLocation":"LocaltoDataNodes","dataDir":"/home/data/referenceData"}
表 3. advancedTransformerConfigHDFSRefData(DataDownloader)
パラメータ 説明
pb.bdq.job.type これは、ジョブを定義する定数値です。このジョブの値は、AdvTransformer です。
pb.bdq.job.name ジョブの名前。デフォルトは AdvanceTransformerSample です。
pb.bdq.dnm.advtransformer.configuration Advanced Transformer 設定を定義する Json 文字列。これは、スキャンや分割のために評価するソース入力フィールド、抽出されたデータを置く出力フィールド、トークン化する特殊文字、実行する抽出のタイプなどの詳細を指定します。
pb.bdq.reference.data HDFS 上にあるリファレンス データのパスとデータ ダウンローダのパス。例: {"referenceDataPathLocation":"HDFS","dataDir":"/home/data/dm/referenceData","dataDownloader":{"dataDownloader":"HDFS","localFSRepository":"/local/download"}}
表 4. mapReduceConfig
MapReduce 設定パラメータを指定します。
ジョブでの必要性に応じて、mapreduce.map.memory.mbmapreduce.reduce.memory.mbmapreduce.map.speculative などの MapReduce パラメータをカスタマイズします。
注: このファイルは MapReduce ジョブでのみ使用します。
表 5. OutputFileConfig
パラメータ 説明
pb.bdq.output.type 出力が TEXTORC、または PARQUET 形式の場合に指定します。
pb.bdq.outputfile.path HDFS で出力ファイルを生成するパス。例: /user/hduser/sampledata/ advancedtransformer/output
pb.bdq.outputformat.field.delimiter カンマ (,) またはタブなどの出力ファイルのフィールドまたは列の区切り文字。
pb.bdq.output.overwrite 値が true のとき、出力フォルダはジョブが実行されるたびに上書きされます。
pb.bdq.outputformat.headerfile.create 出力ファイルにヘッダーが必要な場合は、true を指定します。
Parquet ファイルのプロパティ
parquet.compression ページの圧縮に使用する圧縮アルゴリズム。UNCOMPRESSEDSNAPPYGZIPLZO のいずれかを指定します。

デフォルトは UNCOMPRESSED です。

parquet.block.size メモリにバッファリングされる行グループのサイズ。

値を大きくするほど読み込み時の I/O が向上しますが、書き込み時のメモリ消費が大きくなります。

デフォルトのサイズは 134217728 バイト (= 128 * 1024 * 1024) です。

parquet.page.size ページはブロックを構成し、単一レコードにアクセスするために完全に読み込む必要がある最小単位です。
デフォルトのサイズは 1048576 バイト (= 1 * 1024 * 1024) です。
注: ページ サイズが小さすぎると、圧縮に支障が生じます。
parquet.dictionary.page.size デフォルトのサイズは 1048576 バイト (= 1 * 1024 * 1024) です。
parquet.enable.dictionary 辞書エンコーディングの有効または無効を指定する boolean 値 (True または False)。デフォルトは True です。
parquet.validation デフォルトの boolean 値は False です。
parquet.writer.version Writer のバージョンを指定します。PARQUET_1_0 または PARQUET_2_0 を指定する必要があります。デフォルトは PARQUET_1_0 です。
parquet.writer.max-padding デフォルト設定は、パディングなし、行グループ サイズの 0% です。
parquet.page.size.check.estimate デフォルトの boolean 値は True です。
parquet.page.size.row.check.min デフォルト値は 100 です。
parquet.page.size.row.check.max デフォルト値は 10000 です。