SparkJobConfig
Zweck
Zum Festlegen von Hadoop-Konfigurationen für einen Spark-Auftrag.Anmerkung: Standardmäßig wird die RDD-Datenstruktur für alle Spark-Aufträge verwendet. Legen Sie zum aktivieren der DataSet-API den Parameter pb.bdq.spark.job.dataset.enable als wahr fest.