Servidor

Sistemas operativos

Sistema operativo compatible Notas

Windows Server 2012

Windows Server 2012 R2
Windows Server 2016

Sistemas operativos incompatibles según el módulo

Todos los módulos son compatibles con los sistemas operativos Windows señalados en la sección anterior.

Espacio en disco

Nueva instalación Actualizar
  • El disco donde instalará Spectrum™ Technology Platform debe tener 4 GB de espacio libre para instalar todos los módulos o menos si se instalan menos módulos.
  • El disco donde se encuentra la carpeta "temp" debe tener al menos 10 GB de espacio libre para que el proceso de instalación pueda extraer los archivos necesarios. Podría requerir más según las opciones que pretenda instalar. De ser necesario, modifique la variable de entorno TEMP (Windows) o la variable de entorno IATEMPDIR (Unix y Linux) para utilizar una ubicación con espacio suficiente.
  • El disco donde instalará Spectrum™ Technology Platform debe tener un espacio libre igual a tres veces el tamaño de la instalación actual. Para determinar el tamaño de la instalación actual, mira el tamaño de la carpeta en la que instaló Spectrum™ Technology Platform.
  • Si desea añadir módulos como parte de la actualización, necesitará 3 GB para instalar todos los módulos o menos si se va a instalar menos módulos.
  • El disco donde se encuentra la carpeta "temp" debe tener al menos 10 GB de espacio libre más cuatro veces el tamaño de la instalación actual. Por ejemplo, si la instalación actual es de 5 GB, necesitaría 30 GB de espacio en la carpeta "temp": (4 x 5 GB) + 10 GB = 30 GB. De ser necesario, modifique la variable de entorno TEMP (Windows) o la variable de entorno IATEMPDIR (Unix y Linux) para utilizar una ubicación con espacio suficiente.
Nota: Si va a instalar un módulo que utiliza una base de datos de referencia, como una base de datos postal, una base de datos de geocodificación o tablas de normalización de datos, necesitará espacio para estos datos. El espacio total en disco varía según los módulos y bases de datos que está instalando.

Memoria

  • Requisito básico de memoria: 16 GB
  • El módulo Data Normalization y el módulo Universal Name requieren memoria adicional si se usan estas bases de datos de nombres:
    • Paquete Plus para árabe: 5.5 GB
    • Paquete Plus para idiomas asiáticos - Chino: 32 MB
    • Paquete Plus para idiomas asiáticos - Japonés: 1.6 GB
    • Paquete Plus para idiomas asiáticos - Coreano: 8 MB
    • Nombres básicos: 1.1 GB
  • El requisito mínimo de memoria para el módulo Machine Learning es 1 GB de RAM. La asignación (proceso de java – memoria jvm) debe ser entre tres y cuatro veces el tamaño del archivo de entrada que se usa en los trabajos en los que se crean modelos.

    Para aumentar la memoria JVM del módulo Machine Learning, abra el archivo %install_home%\server\modules\machinelearning\java.vmargs y defina los parámetros -Xmx y -Xms de tal manera que -Xmx tenga entre tres y cuatro veces el tamaño del archivo de entrada usado en los trabajos en los que se crean modelos; por ejemplo:

    -Xmsdefinitionm -Xmxdefinitiong

Requisitos adicionales

  • Se requieren derechos de administrador Windows para instalar .
  • Para utilizar la aplicación mejorada de notificación de la bandeja del sistema, el servidor debe tener .NET Framework versión 3.5 SP1 (también conocida como 3.5.1) o superior. En las versiones actuales de Windows Server, se incluye la versión requerida de .NET Framework.

Requisitos de sistema para los módulos Enterprise Geocoding y Global Geocoding

  • Los requisitos del sistema de los módulos Enterprise Geocoding y Global Geocoding:
    • Mínimos: RAM de 16 GB, 4 CPU, almacenamiento de 100 GB
    • Recomendados: RAM de 32 GB, 8 CPU, almacenamiento de 200 GB suficiente para todos los conjuntos de datos.

La cantidad de memoria RAM dependerá de cuántos usuarios tenga en el sistema y de cuántos conjuntos de datos se carguen.

Requisitos para el módulo Big Data Integration

Para las etapas que usan Hadoop, que son Read from Hive File, Read from Hadoop Sequence, Write to Hadoop Sequence y Write to Hive File, y para las actividades Run Hadoop MapReduce Job y Run Hadoop Pig:
  • Hadoop versión 2.6 y superior.
Para las actividades que usan Spark, que son Submit Spark Job y Spark Sorter:
  • Spark 2.0.1 y superior.