Date post: | 14-Aug-2018 |
Category: |
Documents |
Upload: | nguyenkhuong |
View: | 230 times |
Download: | 0 times |
Mehrere SAP-Systeme auf einem Server unter Verwendung von Solaris Zones/Resourcemanagement
Dipl.-Ing. Michael AhrensSenior Architekt & SAP Technologie ConsultantSun Microsystems GmbH
2
Solaris ContainerKein eigenes OS, sondern isolierte Anwendungsumgebung(en) auf Basis eines bestehenden Solaris 10 Betriebssystems.
• OS-Virtualisierung> eine OS-Instanz> viele Ausführungsumgebungen
• Flexibele, software-definierte Grenzen> “Can't see outside zone”> “Can't affect activity outside zone”
• Einfache Isolation> Netzwerk, Disk, Memory, CPU,
Prozesse, Umgebung
• Jeder Container hat seine eigene Identität (/etc/...)
Server
OS
App
LokaleZone
LokaleZone
LokaleZone
Globale Zone
3
Solaris 10 Container (I)
• Skalierbar> Bis zu 8192 Container bei marginalem Performance Einfluss.
• Standard> Im Solaris enthalten. Keine zusätzliche Software Installation oder
Lizenzenkosten.
• Administration> Nur EIN Betriebssystem für zahlreiche Anwendungsumgebungen zu
pflegen.
• Sicherheit> EAL4+ Security Zertifizierung.
• Durchgängigkeit> Für alle Solaris 10 Plattformen verfügbar. Vom Entry Server bis zum
HighEnd Server. Für x64 und UltraSPARC.
4
• “Resizable”> Solaris Resource Management. DYNAMISCH.
• Share> Mehr als nur den Solaris Kernel vorgeben ...
• Flexibilität> Container verschieben zwischen Servern, Container clonen, ...
Solaris 10 Container (II)
5
Container erstellen
Zone “demo”
# zpool create demopool mirror c0t15d4 c0t15d5# zfs create demopool/demo# zfs set mountpoint=/export/zones/demo demopool/demo
# zonecfg -z demo create set zonepath=/export/zones/demo add net set physical=bge0 set address=192.168.20.84/24 end verify commit exit# zoneadm -z demo install
Daten● Container (zonepath)● Applikationen
ZFS Pool
Shared Storage (SAN/NAS)
Local Storage
Solaris 10
6
Container „resizen“
Kapazitäten lassen sich dynamisch (online) den Containern zuordnen.
• Garantierte Kapazität> Solaris Resource Manager
(CPU shares)
• Feste Obergrenze> CPU Sets, IP Quality of
Service (ipqos), Memory resource capping deamon (rcapd)
Zone “demo01”
Zone “demo02”
7
Container verschieben
Zone “demo”Zone “demo” Zone “demo”shutdown/detach
export import
Zone “demo”attach/boot
# zlogin demo /usr/sbin/shutdown ...# zoneadm -z demo detach# zpool export demopool
# zpool import demopool# zoneadm -z demo attach -F# zoneadm -z demo boot
Daten● Container (zonepath)● Applikationen
ZFS Pool
Local Storage
Solaris 10
Local Storage
Solaris 10
Shared Storage (SAN/NAS)
8
Container „clonen“ oder kopieren
Zone “demo”
copy/modifyzone description
clone data
Zone “demo2”
boot
# zonecfg -z demo export -f /tmp/demo.cfg# zonecfg -z demo2 -f /tmp/demo.cfg# zonecfg -z demo2 set zonepath=/export/zones/demo2# zonecfg -z demo2 remove net address=192.168.20.80/24# zonecfg -z demo2 "add net; set address=192.168.20.138/24; set physical=bge0; end; commit; exit -F"
# zoneadm -z demo halt# zfs snapshot demopool/demo@fordemo2# zoneadm -z demo boot# zfs clone demopool/demo@fordemo2 pool1/demo2# zfs set mountpoint=/export/zones/demo2 pool1/demo2(remark: change /etc/hosts here ...)
# zoneadm -z demo2 attach -F# zoneadm -z demo2 boot
Daten● Container (zonepath)● Applikationen
ZFS Pool
Daten● Container (zonepath)● Applikationen
● Container (zonepath)● Applikationen
ZFS PoolShared Storage (SAN/NAS)
Local Storage
Solaris 10
9
Konsolidierung !!
Heute Morgen
ERP System
BW System
Portal Standardisiertes OS
Container
ERP System
Container
BW System
Container
Portal
10
Flexibilisierung !!
• Bereitstellung isolierter Anwendungsumgebungen (Container) in wenigen Minuten
• Relokation eines Containers (inkl. Applikationen) bei Bedarf:> Optimierung der Utilization als Regelkreislauf> Disaster Recovery
• Schnelles und automatisiertes Kopieren/Clonen eines Containers (inkl. Applikationen)
erstellen
verschieben
kopieren
11
Ja, aber ...
ERP System
BW System
Portal
✗ „Ein Serverausfall betrifft zuviele Applikationen gleichzeitig.“
✔ Statistisch bleibt die Verfügbarkeit einer Applikation gleich.
✔Wenige Server/OS Instanzen (statt vieler Kleiner) lassen sich jedoch besser gegen potentielle Ausfälle schützen.
✔Container lassen sich im Falle eines Serverausfalls im Grid restarten (verschieben).
12
Ja, aber ...
ERP System
BW System
Portal
✗ „Wartungsfenster für Server sind schwierig zu organisieren. Viele Endanwender sind gleichzeitig betroffen.“
✔ In Summe werden weniger Wartungsfenster benötigt, da weniger Server und OS Instanzen zu pflegen sind.
✔Konflikte lassen sich durch gezielte Relokation von Containern im Vorfeld vemeiden oder entschärfen.
✔Keep it up: Solaris Live Upgrade für das Patchen UND Upgrade !!
13
Ja, aber ...
ERP System
BW System
Portal
✗ „Ein identischer Patch-Stand ist für unsere Applikationen nicht machbar.“
✔ Genau ein einziger „minimum recommended patch level“ für ALLE SAP-Anwendungen auf Solaris 10.
✔ Nur durch Standardisierung lassen sich Sparpotentiale ausschöpfen.
✔ Ansonsten: Braten Sie die „extra Wurst“ ...
14
Ja, aber ...
ERP System
BW System
Portal
✗ „Unsere SAP Systeme benötigen definierte und zugeteilte Hardware Kapazitäten.“
✔ Kapazitäten lassen sich dynamisch (i.a online) den Containern zuordnen:➢ Garantierte Kapzität : Solaris
Resource Manager➢ Feste Obergrenzen : CPU Sets,
(Memory Sets), IP Quality of Service (ipqos), resource capping deamon (rcapd)
✔ SAP & Oracle Memory Management
15
Ja, aber ...
ERP System
BW System
Portal
✗ „Aus Sicherheitsgründen muss unser HR auf einem eigenem Server laufen.“
✔ Sicherheit ist „EAL4+“-Zertifiziert
Original Auszug aus dem „Security Target“.(www.sun.com/software/security/securitycert/#sol10)Zone Security Properties:● Services can be isolated from each other;● Potentially risky software can be quarantine;● Processes in Zones can't send signals to other
Zones (even if they have proc_session or proc_owner);
● System memory cannot be shared between Zones;
● Untrusted parties can be isolated to contain potential damage by a breach; and
● Each Zone can only see those processes running within it (except Global Zone)
SAP NW Portal "MOVE" ohne DowntimeSolaris 10 Container Technologie & SAP
Betrieb eines SAP NetWeaver Portals (EP) in einem Solaris 10 Container(Whole "root" zone)
FRAGE 1Wie kann ich die
SAP Portal Instanz (CI)auf eine neue
Hardware umziehen ?
SAP NW Portal "MOVE" ohne Downtime Solaris 10 Container Technologie & SAP
MoveContainer mit
Portal CI wird
auf T2000
verschoben.
Auf verschiedeneSysteme !
Vorausetzung:Solaris 10 + gleicher
Patchstand
SAP NW Portal "Cloning" ohne Downtime Solaris 10, Snapshot (ZFS) Technologie & SAP
Container mit
Portal CI auf
T2000.
FRAGE2Wie kann ich AKTUELLE
Entwicklungs- oderSchulungsysteme
in SEKUNDEN erzeugen ?
SAP NW Portal "Cloning" ohne Downtime Solaris 10, Snapshot (ZFS) Technologie & SAP
Container mit
Portal CI auf
T2000.
Auf einem solchenClone kann ich dann auch
Upgrades durchführen und testen !Clone
SAP NW Portal "Cloning" ohne Downtime Solaris 10, Snapshot (ZFS) Technologie & SAP
Container mit
Portal CI auf
T2000.
FRAGE2Wie kann ich AKTUELLE
Entwicklungs- oderSchulungsysteme
in SEKUNDEN erzeugen ?
ALT
NEU
Clone +Upgrade
SAP NW Portal "Cloning" ohne DowntimeSolaris 10, Snapshot (ZFS) Technologie & SAP
Container mit
Portal CI auf
T2000.
Und anschließendden CLONE in Sekunden
LIVE schalten !D.h. Upgrade ohne Risiko
mit minimalster Downtime !
ALT
NEU
22
• Business Continuity> Seit Produktivsetzung KEINE
ungeplanten Systemauszeiten
• Agilität> Seit Projektstart etwa 100
Systemkopien. Vollautomatisch !!
• Betrieb> Nur 7 OS-Instanzen für 45 SAP
Systeme. Entsprechend geringer administrativer Aufwand.
• Optimierte Ressourcennutzung> Durchschnittlich zwischen 40% und
70%
Kundenbeispiel BARMER
23
Kundenbeispiel: ...bank (I)
Derzeitiges Modell. Starre “1:1”-Zuordnung von Applikation und Server.
Average CPU utilization [%]
Peak
CPU
utili
zatio
n [%
]
Unix-Server: CPU Utilization
24
• Optimierte Resourcen Auslastung
• Horizontal und vertikal skalierbar
• Flexibele Reaktion auf veränderte Anforderungen möglich Pe
ak C
PU u
tiliz
atio
n [%
]
Average CPU utilization [%]
Unix-Server: CPU Utilization mit Solaris 10 Containern
Kundenbeispiel: ...bank (II)
Mehrere SAP-Systeme auf einem Server unter Verwendung von Solaris Zones/Resourcemanagement