SparkJobConfig

Zweck

Zum Festlegen von Hadoop-Konfigurationen für einen Spark-Auftrag.
Anmerkung: Standardmäßig wird die RDD-Datenstruktur für alle Spark-Aufträge verwendet. Legen Sie zum aktivieren der DataSet-API den Parameter pb.bdq.spark.job.dataset.enable als wahr fest.