zur letzten seite

80
© SIGMA Chemnitz GmbH / 2007-05-30; Kottwitz, Jörg - 1 - zur letzten Seite Mit Strategie zur dynamischen IT >> Ihr Ansprechpartner Mathias Wolf SIGMA Chemnitz GmbH Bereichsleiter Systemtechnik Am Erlenwald 13 09128 Chemnitz Hochverfügbare IT Infrastrukturen 11.06.2008

Upload: ide

Post on 09-Jan-2016

23 views

Category:

Documents


0 download

DESCRIPTION

Mit Strategie zur dynamischen IT. Hochverfügbare IT Infrastrukturen. >> Ihr Ansprechpartner Mathias Wolf SIGMA Chemnitz GmbH Bereichsleiter Systemtechnik Am Erlenwald 13 09128 Chemnitz. 11.06.2008. zur letzten Seite. Wir über uns. - PowerPoint PPT Presentation

TRANSCRIPT

Page 1: zur letzten Seite

© S

IGM

A C

hem

nitz

Gm

bH /

200

7-05

-30;

Kot

twitz

, Jö

rg

- 1 -

zur letzten Seite

Mit Strategie zur dynamischen IT

>> Ihr Ansprechpartner

Mathias WolfSIGMA Chemnitz GmbH

Bereichsleiter SystemtechnikAm Erlenwald 1309128 Chemnitz

Hochverfügbare IT Infrastrukturen

11.06.2008

Page 2: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 2 -

SIGMA in Chemnitz: Gesellschaft für Systementwicklungund Datenverarbeitung mbH

SIGMA in Stuttgart: Software und Consulting GmbH

Gründung: Mai 1990

Mitarbeiter: 45

Jahresumsatz: ca. 6 Mio. €

Wir über uns

zurück zur 1. Seite

Page 3: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 3 -

Geschäftsfelder unserer Sparten

zurück zur 1. Seite

Service· IT-technische Innovationen· Infrastrukturlösungen und erstklassiger SupportBeratung· Ganzheitliche Prozessunterstützung und –optimierung· organisatorische Managementberatung· unternehmensweite SoftwarelösungenEmbedded Lösungen· Hochqualifizierte Eigenentwicklungen · Individuallösungen im Soft- und HardwarebereichSIGMA in Leonberg· Betriebswirtschaftliche Standardsoftware· Produktdatenmanagement

Page 4: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 4 -

Partner und Lösungen

zurück zur 1. Seite

Page 5: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 5 -

Inhalt

zurück zur 1. Seite

Hochverfügbare IT- Infrastrukturen

Katastrophenschutz

Technologien zur Daten- und Hochverfügbarkeit

Praxisbeispiele

Page 6: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 6 -

Infrastruktur allgemein

…..

Win2003Mainframe LinuxUnix / Solaris

Client / Netzwerkbereich(Datenvisualisierung)

Serverbereich (Datenverarbeitung)

Bandllaufwerke

Plattenspeicher / Flash-Speicher

Jukebox / Plattenarchive

Storagebereich (Datenspeicherung)

Backupbereich (Datensicherung)

Page 7: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 7 -

zurück zur 1. Seite

Quellen: International Data Corporation, Gartner Group und Contingency Planning Research

0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000 5500 6000 6500

Brokerage

Credit Card Sales

Telecommunications

Banking

Pay per View

Home Catalog Sales

Airline Reservation

[1000 $]

$ 89,500

$ 90,000

$ 150,000

$ 360,000

$ 370,000

$ 2,600,000

$ 6,450,000

Durch Ausfallzeiten der IT verursachte Kosten

Pro Stunde !

Page 8: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 8 -

Konsequenzen eines Ausfalles

Es gilt also, Ausfallzeiten zu minimieren !

Mögliche Konsequenzen eines Ausfalls:

- Umsatzeinbußen

- Geschäftsverluste

- Kosten für Wartung- und Service - Kosten für Rollback einer Aktion

- Strafen

- Rechtliche Folgen

- Verlust von Kunden

- Imageverlust

- Verlust von Menschenleben

zurück zur 1. Seite

Page 9: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 9 -

zurück zur 1. Seite

HW –SW Fehler

Sabotage

Infrastruktur

Naturkatastrophen

Quelle: Disaster Recovery Strategies, IBM Redbook SG24-6844-00, 2002

Mögliche Gründe für Ausfallzeiten

Page 10: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 10 -

permanent laufende

Anwendung

Redundanz von HW

Komponenten

Anwendung nur “kurz”

unterbrochen

Permanenz des Services

Permanenz des Systems

SLA Qualität

Plattform Qualität

Ein System gilt als hochverfügbar, wenn eineAnwendung auch im Fehlerfall weiterhin verfügbar istund ohne unmittelbaren menschlichen Eingriff weiter

genutzt werden kann.

Anwender nimmt keine oder nur eine kurze Unterbrechung wahr.

Hochverfügbarkeit (HA – High Availability) bezeichnetdie Fähigkeit eines Systems, bei Ausfall einer seiner Komponenten einen uneingeschränkten Betrieb zu

gewährleisten.

zurück zur 1. Seite

Hochverfügbarkeit- was ist das ?

Page 11: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 11 -

Definition Verfügbarkeit

zurück zur 1. Seite

Erhöhung der Verfügbarkeit eines Systems, definiert durch IEEE als

x 100 (%).

Eine Hochverfügbarkeits-Konfiguration dient dazu, ungeplante Unterbrechungen (d.h. Ausfälle einzelner Betriebsmittel), sowie geplante Ausfallzeiten (z. B. HW-Wartungsfenster, Einbringen von SW-Korrekturen oder neuer SW) mit einer möglichst kurzen Unterbrechung des Produktionsbetriebes zu überstehen.

Betriebsdauer – Ausfallzeit

Betriebsdauer

Page 12: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 12 -

Verfügbarkeit

zurück zur 1. Seite

Gesamtverfügbarkeit eines IT-Systems ist die geschlossene Betrachtung von

Hardware und

Software

Hochverfügbarkeit ist keine spezielle Technologie, sie ist vielmehr ein Ziel, dass für die spezielle Situation in einer Firma maßgeschneidert werden muss. Sie ist eine Kombination aus Strategien, Technologien, Training der Mitarbeiter und verschiedenen Serviceprozessen, um Unterbrechungen zu minimieren.

In der Praxis unterscheidet man zwischen geplanten und ungeplanten Unterbrechungen.

Page 13: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 13 -

Geplante / ungeplante Unterbrechung

zurück zur 1. Seite

Quelle: Metagroup

Anwendungen8 %

Andere9 %

DB Backup52 %

Software13 %

Netzwerk10 %

Hardware8 %

Bedienung25 %

Software30 %

Anwendungen27 %

Andere3 %

Hardware15 %

geplante Unterbrechungen

Etwa 90%

ungeplante Unterbrechungen

Etwa 10%

Page 14: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 14 -

zurück zur 1. Seite

Verfügbarkeit Ausfallzeit / Jahr

99.99 %99.99 %

99.9 %99.9 %

99 %99 %

52 min.52 min.

8,8 Std.8,8 Std.

99.999 %99.999 % 5 min.5 min.

3,7 Tage3,7 Tage

KonventionellKonventionell

Hoch- verfügbar

Verfügbarkeitsstufen

Page 15: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 15 -

zurück zur 1. Seite

Aber: Wann gilt ein System wieder als “verfügbar”?

Power On Diagnose läuft durch ?

System Prompt/ Adminshell ist da?

Service für den Endbenutzer steht zur Verfügung ?

Klasse Bezeichnung Verfügbarkeit Downtime pro Jahr

2 Stabil 99.0% 3,7 Tage3 Verfügbar 99.9% 8,8 Stunden4 Hochverfügbar 99.99% 52,2 Minuten5 Fehlerunempfindlich 99.999% 5,3 Minuten6 Fehlertolerant 99.9999% 32 Sekunden7 Fehlerresistent 99.99999% 3 Sekunden

Die berühmten Neunen…

Page 16: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 16 -

Lüfter, Netzteile, Steckkarten, Raid-SystemeNetzwerk- und Kontrolleranschlüsse

Auswahl Komponenten Qualität im Design und in Produktion,

Hardwaremanagement, Monitoring & Warnung vor Ausfällen,Fehlerkorrektur Hauptspeicher (ECC)

Hot plug / hot spare Lüfter, AC/DC, Platten, Tape Laufwerke, PCI boards,

Clustering

Automatic Server Restart,Rekonfiguration

Remote Management

Redundanz

Fehlerkorrektur und

Vermeidung

Hot swapMechanismen

Failover –Lösungen(no single Point of

failure)Automatische

Isolation von defekten Komponenten

zurück zur 1. Seite

Verfügbarkeitsmaßnahmen

Page 17: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 17 -

zurück zur 1. Seite

• Mit heutiger Technologie kann eine Verfügbarkeit von mehr als 99.99 % nur mittels eines Clusters erreicht werden.

• Maßnahmen:

HW- und SW-mäßige Redundanz aller für die Produktion notwendigen Betriebsmittel,

Softwaremäßige Überwachung der Betriebsmittel,

Automatisierte Reaktionen auf Hard- und Softwarefehler(z.B. Verlagerung der Produktion auf ein anderes System, oder Rekonfigurationen),

Bei geplanten Unterbrechungen kommandogesteuert die automatisierte Ausführung der notwendigen Aktionen, sowie

Organisatorische Maßnahmen (Kompetenz der Mitarbeiter, Verbesserung der Service-Qualität, HV-Leitstand, Betriebsführungskonzept).

Hochverfügbarkeit Maßnahmen

Page 18: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 18 -

Katastrophenschutz (KS)

Im IT-Bereich ist Katastrophenschutz diejenige Vorsorge, welche nach einer teilweisen oder vollständigen Zerstörung eines Rechenzentrums die Wiederaufnahme der Produktion und damit der geschäftskritischen Anwendungen ermöglicht. 

Unter einer Katastrophe soll der Ausfall eines Rechenzentrums durch Stromausfall oder Zerstörung (Brand, Wassereinbruch, Explosion, Erdbeben, Sturm, Sabotage etc.), oder etwas spezifischer der Ausfall eines Hosts und der räumlich in der Nähe aufgestellten Speicherperipherie oder auch nur von Teilen der Speicherperipherie, die aktuelle Produktionsdaten enthält, verstanden werden.

zurück zur 1. Seite

Page 19: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 19 -

zurück zur 1. Seite

Katastrophen führen zu einem Abbruch des Produktionsbetriebs und erfordern die Verfügbarkeit aller Betriebsmittel, die für die Wiederaufnahme des Produktionsbetriebs erforderlich sind, auf einem Standby-RZ.

Unter Standby-RZ versteht man ein räumlich mehr oder weniger weit entferntes RZ mit einer Hardware- und Software-Ausstattung, so dass die nach den KS-Anforderungen des Kunden relevanten Anwendungen des Produktions-RZs darauf ablauffähig sind.

Auf den Systemen im Standby-RZ können im Normalbetrieb Anwendungen laufen, die im Katastrophen-Fall (mit geringerer Performance) weiterlaufen, oder (bei weniger hohen Verfügbarkeitsanforderungen) terminiert werden.

Katastrophenschutz (KS)

Page 20: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 20 -

Charakterisierung:

HV und KS schließen sich nicht aus; sie können vielmehr hervorragend kombiniert werden.Idealzustand:

Das wesentliche Merkmal von KS besteht darin, dass im Idealzustand über HV hinausgehend die für die Aufrechterhaltung des Produktionsbetriebes redundanten Betriebsmittel und Daten räumlich entfernt und damit gegenüber zerstörenden Einwirkungen am Produktionsort geschützt sind.

HV + räumliche Trennung = BC

HV = „Single failure recovery“

KS = „Site failure recovery“

BC-Cluster

Kombination von HV und KS

zurück zur 1. Seite

Page 21: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 21 -

zurück zur 1. Seite

Business Continuity (HV und KS):

Der Kunde will keine Störung seiner Geschäfts-prozesse, auch nicht im Katastrophen-Fall.

HV ohne KS:

Risiko einer Katastrophe wird vom Kunden in Kauf genommen.

KS ohne HV:

Rasche Wieder-aufnahme des Betriebs nach Ausfall eines RZs ist so wichtig, dass der Kunde dafür das Risiko von Ausfallzeiten in Kauf nimmt.

HV KS

BC

Kombination von HV und KS

Page 22: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 22 -

Business Continuity (BC)

zurück zur 1. Seite

Business Continuity:

Die wichtigen Geschäftsprozesse

des Kunden sollen möglichst wenig

gestört werden.

Die Störungen können vielfältige Gründe haben und werden üblicherweise kategorisiert nach

Zerstörung eines RZs:Störungen

innerhalb eines RZs: Hochverfügbarkeit

Katastrophenschutz

Page 23: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 23 -

Vom Einzelsystem zum BC-Cluster

Einzelsystem HV-Cluster BC-Cluster (HV+KS)

Netz Netz

Local Site

RAID RAID

Netz

RAID

Remote Site

zurück zur 1. Seite

Page 24: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 24 -

Konfigurationsbereiche

Ziel: Verfügbarkeiten von mindestens 99.99 %.Hierzu muss man die folgenden Konfigurationsbereiche einbeziehen:

Server-Bereich

Storage-Bereich

Client / Netz-Bereich

Win2003Mainframe LinuxUnix / Solaris

…..

…..

EMC2 HP / IBM / Storagtek Tape

…..

Netapp

zurück zur 1. Seite

Page 25: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 25 -

Anforderungen an ein HV-Konzept

zurück zur 1. Seite

Durchführung folgender Aktionen ‒ gemäß den HV-Anforderungen des Kunden ‒ für jeden Bereich:

Etablierung eines Clusters von Systemen

Redundante Auslegung der Plattenspeicher mit Datenspiegelung,

Redundante Auslegung der Netzkomponenten inkl. der Netzanschlüsse für die Server,

Im Fehlerfall (idealerweise) automatische, bzw. bei geplanten Unterbrechungen gezielte Verlagerung von Anwendungen (inkl. ihren Umgebungen) auf ein anderes System (Standby System)

Restart der Anwendungen auf diesem System.

Page 26: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 26 -

Geplante Unterbrechungen

zurück zur 1. Seite

BeispieleEinführung, Austausch oder

Upgrade von Hardware-komponenten (inkl. Wartung)

Einführung, Austausch oder Upgrade von Software-komponenten (in System- und Anwendersoftware), und/oder die

Einführung von Software-Korrekturen (in System- und Anwendersoftware).

Vorteile eines HV-ClustersAm Standby-System kann man vor der

Verlagerung einen Update/Upgrade des Betriebssystems oder der Anwendersoftware durchführen, ohne die Produktion zu stören,

Falls gewünscht, können der Software-Update bzw. Upgrade auf dem ehemaligen Produktionssystem nachgezogen und danach die Anwendungen zu einem unkritischen Zeitpunkt dahin zurückverlagert werden, und

Wenn nach der Verlagerung auf das Standby-System Probleme auftreten, kann automatisch auf das ehemalige Produktionssystem mit dem bisherigen Software-Stand zurückgeschaltet werden.

Page 27: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 27 -

Ungeplante Unterbrechungen

BeispieleEin Fehler in einer Hardware-

Komponente wie einer CPU, einem peripheren Controller oder Gerät, oder einer Datenverbindung,

Ein Fehler im Betriebssystem oder Netz,

Ein Fehler in der Anwendung,Ein Bedienfehler des Operators oder

System Administrators, und/oderDie Zerstörung des gesamten

Rechenzentrums(“Katastrophen-Fall”). 

VorteileAutomatische und rasche Ausfallerkennung ggf. automatische Übernahme der Produktion (Applikation) mit allen betroffenen Betriebsmitteln auf ein anderes System, und ggf. automatischer Restart der zur Produktion gehörenden Anwendungen an diesem SystemDie Ausfallerkennung selbst kann auf den verschiedenen Plattformen unterschiedlich realisiert sein.

zurück zur 1. Seite

Page 28: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 28 -

Disaster Recovery Technologien

zurück zur 1. Seite

Datensicherung mit RAID TechnikBackup-SystemeContinuous Data Protection (CDP)ClusterImageReplikationVirtualisierung

Page 29: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 29 -

Disaster Recovery Technologien

zurück zur 1. Seite

Datensicherung mit RAID TechnikBackup-SystemeContinuous Data Protection (CDP)ClusterImageReplikationVirtualisierung

Page 30: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 30 -

RAID Systeme

zurück zur 1. Seite

              sind eine Kombination aus mehreren (austauschbaren) Festplatten. Die

Bezeichnung RAID steht dabei für Redundant Array of Independent Disks.

Die RAID-Systeme sind ausfallsicher, der Ausfall eines Einzellaufwerks gefährdet weder den Gesamtbetrieb noch die Daten. Hierfür verwendet das System einen Teil der Gesamtkapazität zum Speichern der Parity-Informationen.

 

Page 31: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 31 -

RAID Level 0

zurück zur 1. Seite

                 RAID 0 fasst mehrere Laufwerke zu einem großen logischen Laufwerk zusammen. Die Daten werden im Stripping Verfahren, abhängig von der Blockgröße, auf alle Platten verteilt. Bei diesem Verfahren können zwar Kapazität und Geschwindigkeit maximal genutzt werden, allerdings ohne Redundanz.

Page 32: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 32 -

RAID Level 1

zurück zur 1. Seite

                 Durch Mirroring (Plattenspiegelung) werden die Daten einer oder mehrerer Platten auf die gleiche Anzahl zusätzlicher Platten übertragen. Eine höhere Lesegeschwindigkeit wird erreicht, da die Requests auf 2 Platten aufgeteilt werden können, die unabhängig voneinander arbeiten. (50 % der Kapazität werden für die Redundanz genutzt.)

Page 33: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 33 -

RAID Level 3/4

zurück zur 1. Seite

                 Level 3/4 speichert alle Parity-Informationen auf einer Festplatte. Die Daten  werden im Stripping Verfahren auf die restlichen Platten verteilt. RAID 3 bietet eine hohe Transferrate und relativ kurze Zugriffszeiten. RAID Level 4 funktioniert wie Level 3, jedoch mit einem Stripping Faktor von einem Block und mehr, was noch bessere Zugriffsmöglichkeiten bewirkt. (10-20% der Kapazität werden für die Redundanz genutzt.)

Page 34: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 34 -

RAID Level 5

zurück zur 1. Seite

                 RAID Level 5 verteilt Daten und Parity-Informationen gleichmäßig, blockbereichsweise auf die Platten. Damit ist jedes Laufwerk für einen bestimmten Blockbereich Parity-Laufwerk. Dadurch werden Lesezugriffe noch schneller.

Page 35: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 35 -

RAID 0+1

zurück zur 1. Seite

Kombination aus unterschiedlichen RAID-Level

Page 36: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 36 -

RAID Level 10

zurück zur 1. Seite

Kombination aus unterschiedlichen RAID-Level

Page 37: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 37 -

Disaster Recovery Technologien

zurück zur 1. Seite

Datensicherung mit RAID TechnikBackup-SystemeContinuous Data Protection (CDP)ClusterImageReplikationVirtualisierung

Page 38: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 38 -

Disaster Recovery Technologien

zurück zur 1. Seite

Magnetbandspeichersind abnehmbar und gehen Sturzfolgen immun sind sehr preiswertbieten ihnen die Möglichkeit, all ihre Daten

an einem gesicherten Ort abzulegen bieten fast immer Rückwärtskompatibilität

Magnetbänder sind auch heute noch das beste Medium für einfache und sichere Archivierung

Title > 2 > 3 > 4 > 5 > 6 > 7 > 8 > 9 > 10 > 11 > 12 > 13 > 14 > 15 > 16 > 17 > 18

Page 39: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 39 -

Disaster Recovery Technologien

zurück zur 1. Seite

Datensicherung mit RAID TechnikBackup-SystemeContinuous Data Protection (CDP)ClusterImageReplikationVirtualisierung

Page 40: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 40 -

A

B

C

A

B

C

Snap 1

Snapshot™ Technologie (NetApp)

– Copy pointers only– No data movement

Blocks in LUN or File

Blocks on the Disk

A

B

C

zurück zur 1. Seite

Take snapshot 1

Page 41: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 41 -

A

B

C

Snap 1

Snapshot™ Technologie (NetApp)

Blocks on the Disk

A

B

C

A

B

C

B1

B1

Take snapshot 1

Continue writing data– Write data anywhere

Blocks in LUN or File

zurück zur 1. Seite

Page 42: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 42 -

A

B1

C

A

B

C

Snap 1

Snapshot™ Technologie (NetApp)

Blocks on the Disk

B

A

B

C

A

C

B1

B1

Snap 2

A

B

C

Snap 1

Continue writing data

Take snapshot 2– Copy pointers only– No data movement

Blocks in LUN or File

zurück zur 1. Seite

Take snapshot 1

Page 43: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 43 -

A

B1

C

Snap 2

A

B

C

Snap 1

Snapshot™ Technologie (NetApp)

Blocks on the Disk

A

B

C

A

B

C

Continue writing data

Take snapshot 2

Continue writing data– Write data anywhere

B1

B1

C2

C2

Blocks in LUN or File

zurück zur 1. Seite

Take snapshot 1

Page 44: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 44 -

A

B1

C2

Snap 3

A

B1

C

Snap 2

Snapshot™ Technologie (NetApp)

Blocks on the Disk

A

B

C

A

B

C

Continue writing data Take snapshot 2

Continue writing data

Take snapshot 3

Simplicity of model =– Best disk utilization– Fastest performance– Unlimited snapshots

B1

B1

C2

C2

Blocks in LUN or File

zurück zur 1. Seite

Take snapshot 1

Page 45: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 45 -

Vollständige Integration in Windows Explorer

– seit Windows XP mit ServicePack 2 – Standard in Windows 2003

zurück zur 1. Seite

Page 46: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 46 -

Einblick in einen SnapShot

zurück zur 1. Seite

Page 47: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 47 -

Disaster Recovery Technologien

zurück zur 1. Seite

Datensicherung mit RAID TechnikBackup-SystemeContinuous Data Protection (CDP)ClusterImageReplikationVirtualisierung

Page 48: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 48 -

Servercluster

Hochverfügbarkeit & Skalierbarkeit fürFile-, Mail-, Web-, Directory-ServerERP und Datenbankanwendungen

Ausgefeilte Überwachung und Recovery

Schützt gegen jede Art von Ausfällen (System,Applikation, HW/SW-Komponenten)

Unterbrechungsfreier Datenzugriff

Einfache Handhabung: GUIs und Wizards für Installation und BetriebWächst mit den Anforderungen –Erweiterbarkeit im laufenden Betrieb

zurück zur 1. Seite

Page 49: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 49 -

Clustering- diverse Grundformate und Nutzen

• Failover Cluster active/passive oder active/active Varianten

• HA der Applikation durch Failover keine Dienstunterbrechung,Verfügbarkeit der Daten durch Shared disk-Array, HA der Daten durch Storage-Mirrors

• Nutzen: relative kurze Wiederherstellzeit für Applikation, Dienstebereitschaft abhängig von Datenbereitstellungszeit !!

shared Disk Array

zurück zur 1. Seite

Page 50: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 50 -

Clustering- diverse Grundformate und Nutzen

shared Disk Array

Scalable ClusterAnwendung läuft parallel im Cluster, HA durch ParallelitätHA der Applikation durch Resync der Instanzen Keine DiensteunterbrechungShared Data-Lockmanagement, HA der Datendurch Storage- Mirrors

Nutzen: Keine Diensteunterbrechung, da takeover statt failover,aufwändigeres Datenmanagement wegen “shared

data“

zurück zur 1. Seite

Page 51: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 51 -

Clustering- diverse Grundformate und Nutzen

Shared Disk Array

Load Balance Cluster Anwendung läuft multiple im Cluster, Lastverteilung auf Clusterknoten, HA der Applikation durch Restart und any-to-any failover sehr geringe Dienstunterbrechung, evtl schlechtere Dienstequalität,

Nutzen: geringe Diensteunterbrechung, Skalierung der Applikationen

Load Dispatcher

zurück zur 1. Seite

Page 52: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 52 -

FCP, ISCSI, NFS, CIFS, HTTP. FTP

A

A

Speichercluster

zurück zur 1. Seite

Page 53: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 53 -

FCP, ISCSI, NFS, CIFS, HTTP. FTP

B‘

A

A

Speichercluster

zurück zur 1. Seite

Page 54: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 54 -

FCP, ISCSI, NFS, CIFS, HTTP. FTP

A

A

B

B

Speichercluster

zurück zur 1. Seite

Page 55: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 55 -

FCP, ISCSI, NFS, CIFS, HTTP. FTP

A

A

B

B

Speichercluster

zurück zur 1. Seite

Page 56: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 56 -

FCP, ISCSI, NFS, CIFS, HTTP. FTP

A

A

B

B

B‘ A‘

Speichercluster

zurück zur 1. Seite

Page 57: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 57 -

FCP, ISCSI, NFS, CIFS, HTTP. FTP

A

A‘

B

B‘

Speichercluster

zurück zur 1. Seite

Page 58: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 58 -

FCP, ISCSI, NFS, CIFS, HTTP. FTP

A B‘ A‘ B

Speichercluster

zurück zur 1. Seite

Page 59: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 59 -

Was ist X10sure

zurück zur 1. Seite

x10sure bietet Hochverfügbarkeit für Windows-Server

und -Anwendungen• Bei Serverausfall springt automatisch das

Ersatzsystem ein konsolidiert isolierte Server & Anwendungen

• Server und Speicher sind gemeinsam nutzbar und redundant ausgelegt

Komponenten• Windows / Linux Server• VMware Virtual Machines als Option• FibreCAT & NetApp Storage• x10sure Software

x10sure bietet N:1-Verfügbarkeit und gemeinsam nutzbare Ressourcen

Page 60: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 60 -

N+1 Verfügbarkeit

zurück zur 1. Seite

SAN-Storage

– x10sure überwacht Server und Speicher

– Bei Ausfall automatischer FAILOVER auf Ersatzsystem

– Speichersystem und Speicherzugriff kann redundant ausgelegt und automatisch wiederhergestellt werden

1

2

3

4

5

6

4

Ersatz Server

Produktiv-Server

Server-Images

2

3

4

5

6

1

Ausfall

x10sure

x10sure bietet dynamische Verfügbarkeit

Page 61: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 61 -

zurück zur 1. Seite

Phase #1Speicherkonsolidierung

Phase #2Server-Konsolidierung

& -Virtualisierung

Phase #3Überwachung

& Wiederherstellung

– Anwendungs- + Datenkonsolidierung

– Migration der kompletten Software

– “Remote-Boot” aus Zentralspeicher

– TCO-Einsparungen• gemeinsam genutzten

Speicher• mehr Datensicherheit• zentrale, einfachere

Verwaltung

– Konsolidierung + Virtualisierung

– Serverkonsolidierung mit homogenen Formaten

– Virtualisierung für optimale Auslastung + Hardwarereduktion

– Effiziente Nutzung und einfachere Verwaltung der Server

– Dynamic Service Levels

– N:1-HV senkt Investitionen

– Automatische Überwachung & Wiederherstellung

– Ausfallzeit geht runter, Zuverlässigkeit & Produktivität aller Anwendungen rauf

Wertschöpfung

Wie gelangt man durch x10sure zur strukturierten und zuverlässigen IT ?

Page 62: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 62 -

Disaster Recovery Technologien

zurück zur 1. Seite

Datensicherung mit RAID TechnikBackup-SystemeContinuous Data Protection (CDP)ClusterImageReplikationVirtualisierung

Page 63: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 63 -

• Dezentrale Server Landschaft– Unterschiedliche Server

Modelle– Unterschiedliche Ausstattung

der Server– Dezentrale Datenhaltung

Komplexität und niedrige Effizienz

• Daraus resultierende Probleme– Kaum Synergien beim Handling– Vielfältige Varianten bei OS und

Treibern– Komplexe Sicherungsverfahren

unflexible Skalierbarkeit Überkapazitäten

Hoher Verwaltungsaufwand

Begrenzte Wachstumsmöglichkeiten

Einschränkungen bei HV

Ausgangssituation

zurück zur 1. Seite

Page 64: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 64 -

– Schlecht ausgelastete Server

– Hohe Komplexität bei Hochverfügbarkeit

– Kaum Flexibilität bei Lastschwankungen

– Keine Dynamik in der Skalierung

Ohne Virtualisierung

zurück zur 1. Seite

Page 65: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 65 -

Traditionell

Hardware

OS

Application

Virtualisiert

Hardware

OS

Application

Virtualisierung macht Software unabhängig von Hardware

Virtualisierung präsentiert Hardwareresourcen in einer Art, dass man auf diese optimaler zugreifen kann als in ihrer originären Form

Virtualisierung

Virtualisierungsschicht

zurück zur 1. Seite

Page 66: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 66 -

Mit Virtualisierung

zurück zur 1. Seite

Page 67: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 67 -

Virtualisierungsprodukte

zurück zur 1. Seite

Page 68: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 68 -

Zielkalkulation VM ware Host

zurück zur 1. Seite

ΣAnzahl Zielsysteme= NPH • FPH • CPH • ZiellastHost

ΣS für die Summe aller Server

NPS Anzahl Prozessoren des zu konsolidierenden Servers

FPS Taktfrequenz Prozessoren der zu konsolidierenden Server

CPS, CPH CPU Faktor

LastPS gemessene Last der zu konsolidierenden Server

NPH Anzahl Prozessoren Host

FPH Taktfrequenz Prozessoren Host

ZiellastHost kalkulatorische Auslastung

ΣS (NPS • FPS • CPS • LastPS)

CPU Faktor

mono core: 1

dual core: 1,5

dual core LV: 1,25

quad core: 2,5

quad core LV: 1,75

Page 69: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 69 -

Virtuelle Tape Librarys

Lokale libraries

UNIX W2K / Linux

SAN

Mainframe

Virtual Tape Appliance

ESCON / FC

Cen

tric

Sto

r

Remote libraries

Viele virtuelle Laufwerke

ServerPlattformen

Intelligenz

RealeLaufwerke &

Librariescentricstor_virtueller_rundgang_de.exe

zurück zur 1. Seite

Page 70: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 70 -

Praxisbeispiele

zurück zur 1. Seite

Bsp. 1 - Kunde mit dezentraler inhomogener IT Infrastruktur

Bsp. 2 - Kunde mit nicht redundanter Infrastruktur

Bsp. 3 - Kunde mit nicht hochverfügbarer Infrastruktur

Page 71: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 71 -

zurück zur 1. Seite

Beispiel 1 - Ist-Zustand

Standort 3

Hauptstandort

Standort 4

Standort 2

Company Connect 2 Mbit/s

ADSL 2000

ADSL 1000

ADSL 768

Server (4)- R/3 System FI, MM, PP- R/3 Server anKapazitätsgrenze- Datenaustausch- Speditionssystem unterNovell- verschiedene Serverunter verschiedenenBetriebssystem mitverschiedenen Aufgaben

Clients (ca. 45)- verschiedene MSBetriebssysteme- verschiedene MSAnwendungen- vereinzelt CAD-Anwendungen- verschiedene andereAnwendungen

Probleme:- Auswertungen SAP R/3- Austausch von Daten- e-mail Verkehr:abgewickelt über 1&1,Datenaustauscht erfolgt imWesentlichen über e-mail,Sicherheit nichtgewährleistet- Maschinenverwaltung- Beherrschbarkeit- Datenhaltung lokal oderlokal in denNiederlassungen

Server (1)PPS:Fremd PPS

Clients (ca. 4)

Clients (?)Server (1)

Clients (?)Server (1)Fremd PPS

Beispielunternehmen

Auslandsniederlass. 2Auslandsniederlass. 1

Sehr stark heterogenes Netz, sowohl imNetzwerk, Hardware- und Softwarebereich

GeschäftsführungInhaber

VPN Zugang

Page 72: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 72 -

zurück zur 1. Seite

Beispiel 1 - Ist-Zustand

Page 73: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 73 -

Beispiel 2 – nr. Infrastruktur

zurück zur 1. Seite

SIGMAChemnitzGmbH

Systemtechnik

Netzwerkstruktur Ist-Stand

FileserverDatensicherung 4 GB Applikationsserver

"Marvin"

WebserverInternetProvider

PC zur Datensicherungbzw.externesFestplattensystem

Page 74: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 74 -

Beispiel 2 – nr. Infrastruktur

zurück zur 1. Seite

SIGMAChemnitzGmbH

Systemtechnik

Netzwerkstruktur Var. 2

Clusterknoten 1FileserverApplikationsserver "Marvin"ExchangeserverDatensicherung ArcservLTO III Laufwerk

E-Mail ServerWEB-Server

Internet

CITRIXTerminalserverload ballancing

FirewallAntispamAntivir

DMZ

Clusterknoten 2FileserverApplikationsserver "Marvin"Exchangeserver

CITRIXTerminalserverload ballancing

2 x Switch mit UplinkGlasfaser und Leitungsredundanz

2 x Switch mit UplinkGlasfaser und Leitungsredundanz

Storage FC SX 60 Storage FC SX 60

4 GB FCData Duplex Manager

4 GB FCData Duplex Manager

DC 2 DC 1

Serverraum neu Serverstandort vorhanden

Komplette Ausfallsicherheit„Clusterbildung“,2 getrennte Rechenzentren

Page 75: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 75 -

Bsp. 3 keine HV-Infrastruktur

TX300

FCAT S80

RAID10

7x36GB

TX300

MSCSLP9802 LP9802

Page 76: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 76 -

Bsp. 3 keine HV-Infrastruktur

ca. 800m

TX300

FCAT S80

FC-Switch (Fabric A)

FC-Switch (Fabric B)

RAID10

7x36GB

TX300

FCAT SX80

RAID10

7x73GB

MSCS

FC-Switch (Fabric B)

FC-Switch (Fabric A)

LP1050 LP1050 LP1050 LP1050

Page 77: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 77 -

Zusammenfassung

zurück zur 1. Seite

Sicherung der Daten

Sicherung der Applikation

Sicherung des Standortes

Wiederanlauf Kosten

RAID Plattensysteme

Periodische Bandsicherung

Periodische Plattensicherung

Kontinuierliche Sicherung auf Platte

Speichersysteme NAS / SAN

Imaging von Systemen

Applikationscluster

Standby Failover

Virtualisierung

Ausfallrechenzentrum

Page 78: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 78 -

Zusammenfassung

zurück zur 1. Seite

Sicherung der Daten

Sicherung der Applikation

Sicherung des Standortes

Wiederanlauf Kosten

RAID Plattensysteme ja ja nein Kein Ausfall gering

Periodische Bandsicherung

ja ja ja, wenn Bänder verlagert werden

langsam gering

Periodische Plattensicherung

ja ja ja, über Speichersysteme

mittel gering

Kontinuierliche Sicherung auf Platte

ja nein ja, über Speichersysteme

mittel gering

Speichersysteme NAS / SAN

integrierte Mirroring-Funktion

Ja, mittels Virtualisierung

ja, FC oder Ethernet-connect

schnell hoch

Imaging von Systemen bedingt ja ja, bei Verlagerung der Images

mittel gering

Applikationscluster nein ja ja, FC oder Ethernet-connect

Schnell für Applikationen

mittel

Standby Failover ja ja ja schnell mittel

Virtualisierung ja (Mirroring) Ja (Failover) ja schnell mittel

Ausfallrechenzentrum ja ja ja schnell extrem

Page 79: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 79 -

www.sigma-chemnitz.de

zurück zur 1. Seite

Page 80: zur letzten Seite

© S

IGM

A C

hem

nit

z G

mb

H /

20

08

-01

-30

/ E

rste

ller:

Kott

wit

z, Jörg

; W

olf

. M

ath

ias

- 80 -

Danke für Ihre Aufmerksamkeit

zurück zur 1. Seite

Haben Sie Fragen?Kontakte:SIGMA Chemnitz GmbH SIGMA Software und Consulting GmbHAm Erlenwald 13 Mollenbachstr. 2509128 Chemnitz 71229 LeonbergTel.: 0371/ 2371-0 Tel.: 07152/ 335393-0http://www.sigma-chemnitz.de http://www.sigmagmbh.de