Serveur
Systèmes d'exploitation
Système d'exploitation pris en charge | Remarques |
---|
Systèmes d’exploitation non pris en charge par module
Le tableau suivant indique les systèmes d’exploitation qui ne sont pas pris en charge par des modules spécifiques.
Module | Non pris en charge |
---|---|
Module Analytics Scoring |
HP-UX 11.31 (Itanium) Solaris 10 (SPARC uniquement), Solaris 11 (SPARC uniquement) |
Module Enterprise Geocoding (U.S.) | |
Module Enterprise Tax | |
Module GeoEnrichment | |
Module Global Geocoding | |
Module Machine Learning |
HP-UX 11.31 (Itanium) Solaris 10 (SPARC uniquement), Solaris 11 (SPARC uniquement) |
Espace disque
Nouvelle installation | Mise à niveau |
---|---|
|
|
Remarque : Si vous installez un module qui utilise une base de données de référence, comme une base de données postale, une base de données de géocodage ou des tables de standardisation de données, vous avez besoin d'espace pour ces données. L'espace disque total dépend des modules et des bases de données que vous installez.
Mémoire
- Mémoire de base requise : 16 Go
- Le module Enterprise Geocoding requiert 500 Mo de mémoire supplémentaire pour le premier géocodeur non américain ainsi que 250 Mo supplémentaires pour chaque géocodeur non américain supplémentaire, exception faite de :
- l’Allemagne, l’Australie et le Royaume-Uni, nécessitant 1 Go de mémoire supplémentaire chacun ;
- le Japon nécessite 2 Go de mémoire supplémentaire.
- Les modules Data Normalization et Universal Name requièrent davantage de mémoire si vous utilisez les bases de données de noms suivantes :
- Pack Arabic Plus : 5,5 Go
- Pack Asian Plus - Chinois : 32 Mo
- Pack Asian Plus - Japonais : 1,6 Go
- Pack Asian Plus - Coréen : 8 Mo
- Core Names : 1,1 Go
Exigences supplémentaires
Exigences pour le module Big Data Integration
Pour les stages utilisant Hadoop, qui sont Read from Hive File, Read from Hadoop Sequence, Write to Hadoop Sequence et Write to Hive File, et pour les activités Run Hadoop MapReduce Job et Run Hadoop Pig :- Hadoop version 2.6 et versions ultérieures.
- Spark 2.0.1 et versions ultérieures.