Módulo Big Data Integration

Nuevas actividades

Run Hadoop MapReduce Job

La actividad Run Hadoop MapReduce Job ejecuta cualquier trabajo MapReduce en un clúster Hadoop. Ahora puede ejecutar un trabajo MapReduce usando Big Data Quality SDK de Spectrum o cualquier trabajo MapReduce externo.

Submit Spark Job

La actividad Submit Spark Job ejecuta un trabajo Spark de Big Data Quality SDK de Spectrum o cualquier trabajo Spark externo.

El controlador del trabajo Spark puede ejecutarse ya sea en un clúster Hadoop o en un clúster Spark. Para ejecutar un trabajo Spark en un host del clúster o en un sistema del cliente, puede usar YARN o Spark.

Spark Sorter

La nueva actividad Spark Sorter usa bibliotecas Apache Spark para clasificar cantidades enormes de registros.

Nuevo origen de datos de puerta de enlace Knox

Ahora puede agregar conexiones a los servicios Hadoop autenticados por Knox a través de Management Console. Una vez que se crea una conexión de puerta de enlace Knox, puede usar la conexión para acceder a los datos de los clústeres Hadoop asociados a través de la puerta de enlace Knox.