Server
Betriebssysteme
Unterstütztes Betriebssystem | Hinweise |
---|---|
AIX 7.1 | |
AIX 7.2 | |
CentOS 6.x | |
CentOS 7.x |
MrSID-Rasterbilder erfordern auf diesem Betriebssystem libpng12.so. |
HP-UX 11.31 (Itanium) | |
Oracle Linux 6.x | |
Oracle Linux 7.x | |
Red Hat Enterprise Linux 6.x | |
Red Hat Enterprise Linux 7.x | |
Solaris 11 (nur SPARC) | |
SUSE Enterprise Linux Server 11.x | Erfordert Folgendes: zypper install libstdc++33-32bit zlib-32bit |
SUSE Enterprise Linux Server 12.x
|
Erfordert Folgendes: glibc-2.9 or glibc-2.11 zypper install libstdc++33-32bit zlib-32bit |
Ubuntu 14.04 LTS |
Erforderliche Laufzeitbibliotheken werden wie folgt installiert:
|
Ubuntu 16.04 LTS |
Erforderliche Laufzeitbibliotheken werden wie folgt installiert: apt-get install libstdc++5:i386 zlib1g:i386 |
Ubuntu 18.04 LTS |
Erforderliche Laufzeitbibliotheken werden wie folgt installiert:
|
Windows Server 2012 |
|
Windows Server 2012 R2 | |
Windows Server 2016 |
Nicht unterstützte Betriebssysteme nach Modul
Alle Module unterstützen die Windows-Betriebssysteme, die im vorherigen Abschnitt aufgeführt sind.
In der folgenden Tabelle sind die Betriebssysteme aufgeführt, die für einzelne Module nicht unterstützt werden.
Modul | Nicht unterstützt |
---|---|
Advanced Scoring-Modul | AIX 7.1, 7.2 HP-UX 11.31 (Itanium) Solaris 11 (nur SPARC) |
Enterprise Geocoding-Modul (USA) |
SUSE Enterprise Linux Server 12.x |
Enterprise Tax-Modul | Solaris 11 (nur SPARC) SUSE Enterprise Linux Server 12.x Ubuntu (alle Versionen) |
GeoConfidence-Modul | HP-UX 11.31 (Itanium) |
GeoEnrichment-Modul |
SUSE Enterprise Linux Server 12.x Ubuntu (alle Versionen) |
Global Geocoding-Modul | SUSE Enterprise Linux Server 12.x (keine Unterstützung für US-amerikanische Geocoder) Ubuntu (alle Versionen) |
Schritte „Closest Site“ und „Legacy Point in Polygon“ des Location Intelligence-Moduls | HP-UX 11.31 (Itanium) Oracle Linux 6.x Red Hat Enterprise Linux 6.x, 7.x Solaris 11 (nur SPARC) SUSE Enterprise Linux Server 11.x, 12.x Ubuntu (alle Versionen) |
Machine Learning-Modul |
AIX 7.1, 7.2 HP-UX 11.31 (Itanium) Solaris 11 (nur SPARC) |
Microsoft Dynamics CRM-Modul | Ubuntu (alle Versionen), 16.04 LTS |
SAP-Modul | Ubuntu (alle Versionen) |
SugarCRM-Modul | Ubuntu (alle Versionen) |
Universal Addressing-Modul |
Ubuntu (alle Versionen) |
Universal Addressing-Modul – Validate Address AUS | Läuft nur unter Windows. |
Universal Addressing-Modul – Validate Address Global |
Ubuntu (alle Versionen) HP-UX 11.31 (Itanium) |
Festplattenspeicher
Neue Installation | Aktualisierung |
---|---|
|
|
Arbeitsspeicher
- Grundlegender Arbeitsspeicherbedarf: 16 GB
- Für das Data Normalization-Modul und das Universal Name-Modul ist zusätzlicher Arbeitsspeicher erforderlich, wenn Sie die Datenbanken mit folgenden Namen verwenden:
- Arabic Plus Pack: 5,5 GB
- Asian Plus Pack: Chinesisch: 32 MB
- Asian Plus Pack: Japanisch: 1,6 GB
- Asian Plus Pack: Koreanisch: 8 MB
- Core Names: 1,1 GB
-
Der Arbeitsspeicherbedarf für das Machine Learning-Modul beträgt mindestens 1 GB RAM. Die Zuweisung (Java-Prozess – JVM-Speicher) sollte drei bis vier Mal größer als die Eingabedatei sein, die für Aufträge zur Erstellung von Modellen verwendet wird.
Öffnen Sie zum Erhöhen des JVM-Speichers des Machine Learning-Moduls die Datei %install_home%\server\modules\machinelearning\java.vmargs und stellen Sie die Parameter -Xmx und -Xms so ein, dass -Xmx drei bis vier Mal so groß wie die Eingabedatei ist, die in Aufträgen zur Erstellung von Modellen verwendet wird. Zum Beispiel:
-Xmsdefinitionm -Xmxdefinitiong
Zusätzliche Anforderungen
- Bei allen Unix- und Linux-Systemen ist ein Mindestwerte für Dateideskriptoren erforderlich. Prüfen Sie das aktuelle Installationshandbuch auf empfohlene Einstellungen. Dies kann durch Ausführen des Befehls ulimit festgelegt werden: ulimit –n
limitsettingAnmerkung: Legen Sie ulimit nicht auf unlimited fest. Dies könnte Probleme mit Systemressourcen und Sicherheitsalarme auslösen, die zu einem Fehlschlagen der Installation führen.
- Die Begrenzung der Dateigröße muss für die Installation von Spectrum™ Technology Platform auf 2 GB festgelegt werden. Verwenden Sie zum Festlegen der Begrenzung der Dateigröße den Befehl ulimit:
ulimit -f 4194304
Dies ist nur für die Ausführung des Installationsprogramms erforderlich. Für die Ausführung von Spectrum™ Technology Platform nach der Installation ist dies nicht erforderlich.
- Unter CentOS und Ubuntu müssen Sie die maximale Anzahl von Speicherkartenbereichen erhöhen. Öffnen Sie dazu die Datei /etc/sysctl.conf und legen Sie vm.max_map_count auf 262144 fest. Starten Sie dann das System neu und führen Sie sysctl vm.max_map_count aus, um zu überprüfen, ob die Einstellung aktualisiert wurde.
- Vor der Installation von Spectrum™ Technology Platform müssen Sie AdoptOpenJDK nur für IBM AIX herunterladen und installieren – sowohl die 32-Bit-Version als auch die 64-Bit-Version. Wenn Sie dieses JDK nicht besitzen, können Sie es über folgende Website herunterladen und installieren:
- Nur für IBM AIX müssen Sie mit IBM JDK/JRE die Eigenschaften in spectrum.https.encryption.excludeCipherSuites anwenden. Weitere Informationen finden Sie im -Administrationshandbuch.
- Für die Installation von Spectrum™ Technology Platform sind Windows-Administratorrechte erforderlich.
- Damit die erweiterte Benachrichtigungsanwendung für die Taskleiste des Systems verwendet werden kann, muss auf dem Server .NET Framework ab Version 3.5 SP1 (auch bekannt als 3.5.1) installiert sein. Im Lieferumfang von aktuellen Windows Server-Versionen ist die erforderliche Version von .NET Framework enthalten.
Systemanforderungen für Enterprise Geocoding- und Global Geocoding-Module
- Systemanforderungen für das Enterprise Geocoding-Modul und das Global Geocoding-Modul:
- Minimum: 16 GB RAM, 4 CPU, 100 GB Speicherplatz
- Empfohlen: 32 GB RAM, 8 CPU, 200 GB Speicherplatz (ausreichend für alle Datasets).
Die RAM-Menge hängt davon ab, wie viele Benutzer sich im System befinden und wie viele Datasets geladen werden.
Anforderungen an das Big Data Integration-Modul
Bei den Schritten in Hadoop (nämlich Read from Hive File, Read from Hadoop Sequence, Write to Hadoop Sequence und Write to Hive File) und den Aktivitäten Run Hadoop MapReduce Job und Run Hadoop Pig:- Hadoop ab Version 2.6
- Spark ab Version 2.0.1