cesvip 20110127

Download Cesvip 20110127

If you can't read please download the document

Upload: alessandro-grandi

Post on 16-Apr-2017

657 views

Category:

Education


0 download

TRANSCRIPT

TECNICO DI RETI INFORMATICHE SPECIALIZZATO IN SICUREZZA DELLE RETI

RIF. P.A. 2010 - 948/RER

Abbiamo visto che la nostra struttura fisica deve possedere, nella sua visione ottimale, i seguenti requisiti:

Relazioni on-demand fra i componenti

Agilit strutturale

Azzeramento degli sprechi delle risorse

Conformit agli SLA definiti

Allineamento ai BP

I fattori da considerare, nella valutazione di un componente fisico della rete (in particolare, un server) dovranno quindi necessariamente essere:

Scalabilit (orizzontale e verticale)

Ottimizzazione del consumo delle risorse

Affidabilit

Integrit

Obiezione 1) E il problema dell'interoperabilit dei sistemi?

L'aumento del livello di astrazione ha portato alla definizione di protocolli e standard di livello pi alto possibile, rendendo di fatto la struttura hardware-indipendent. Il mercato dominato da middleware cross-platform, gli standard sono aperti, le alternative infinite. Anche con riferimento ai sistemi legacy

Obiezione 2) E la potenza di elaborazione?

Il concetto di raw power stato sorpassato da scalabilit e ottimizzazione delle risorse (anche dal punto di vista energetico). La capacit di elaborazione deve essere on-demand come la struttura. Lo sviluppo tecnologico segue gli stessi driver: le architetture cpu diventano multi-core e distribuite, frequenza e n. di core diventano dinamici.

.

Conclusione

Siamo in grado di scegliere il sistema che ha il minor numero di vincoli ambientali ammissibile (ovvero solo quelli posti dalla nostra unit di business)

Il mio dominio di scelta deve ammettere il numero massimo di architetture sia come cardinalit (tecnologie) che di ordinalit (dimensioni)

Il limite all'evoluzione del sistema fissato dalla capacit di scalare verso l'alto, dato un workload; ma un limite anche l'incapacit di preservare le risorse in condizioni non di picco, dato lo stesso workload

E' fondamentale aumentare la parcellizzazione dei sistemi per ottenere la massima percentuale di utilizzo delle componenti fisiche

E' FONDAMENTALE L'INTRODUZIONE DI UN LAYER CHE PERMETTA DI SCORPORARE IL SERVER FISICO DA QUELLO LOGICO

.

.

HYPERVISOR (aka VMM, Virtual Machine Manager)

Hypervisor

Classificazione tradizionale (Robert P. Goldberg)

Tipo 1 (bare metal) L'hypervisor viene eseguito direttamente sull'hardware per regolarne l'accesso e monitorare i sistemi guest. I sistemi guest sono presenti al secondo livello.

Type 2 (or hosted) L'hypervisor viene eseguito all'interno di un sistema operativo convenzionale. L'hypervisor quindi al secondo livello di astrazione, i guest al terzo.

. gl

Hypervisor di tipo 1

Bare metal, ospitato direttamente dall'hardware

Necessita di modifiche ai S.O. Guest (syscall) o di un layer di binary translation

Unico mediatore per le risorse

Pu necessitare di predisposizioni hardware (CPU)

Massimo livello di isolamento dell'hardware (non possibile accedervi direttamente)

Hypervisor di tipo 2

Ospitato all'interno di un S.O.

E' mediatore dei livelli superiori, ma non esclusivo

Non necessita di modifiche ai S.O. Guest (syscall)

E' mantenuta la possibilit di accedere direttamente all'hw della macchina, tramite il S.O. host

Overhead maggiore rispetto al tipo 1, dovuto a un layer aggiuntivo

Hardware e S.O. guest, possono avere differente metodologie di comunicazione, in base alle caratteristiche dell'hypervisor e dell'hardware

Ho quindi a disposizione diverse modalit per l'esecuzione del codice, che originano le diverse tecnologie di virtualizzazione:

Virtualizzazione

Paravirtualizzazione

Partizionamento

. l

Virtualizzazione completa

Virtualizzazione completa Guest e hardware usano identiche interfacce (istruzioni macchina). Siamo in presenza di un binary translator o di istruzioni cpu specifiche per la virtualizzazione

Paravirtualizzazione

Paravirtualizzazione Guest e hardware usano istruzioni funzionalmente simili ma non identiche, i sistemi guest usano hypercall

Partizionamento

Virtualizzazione completa Guest e hardware usano identiche interfacce (istruzioni macchina).

Comparazione hypervisor

TipoVirt.Paravirt.Partiz.Arch.VMware vSphere hv (ESX)1**x86XEN1**x86 / POWER / Z MS Hyper-V1*x86 IBM PowerVM / IVM / ZVM1*POWER / ZOracle VM Server SPARC 1*SPARCHPIntegrity VM 1*Itanium Oracle VirtualBox2*x86VMware Server2*x86User Mode Linux2x86KVM (RHEV) 2 **x86MS Virtual Server2*x86

Ora che abbiamo una panoramica delle tecnologie con cui possibile implementare il concetto di server logico (sia fisico che virtuale) per ridurre lo spreco di risorse

Passiamo a vedere le tecnologie con le quali possibile legarli, per il raggiungimento dei requisiti di:

ScalabilitAffidabilit

. l

Cluster distribuiti (load balancing, failover active-active)

Distribuzione dell'elaborazione su un gruppo di server (nodi) connessi tramite rete

Necessita di componenti di mediazione a livello di rete (VIP e bilanciatori)

Necessita di componenti di replica/condivisione a livello di risorse

Permette un aumento di affidabilit in base all'ordinalit dell'insieme

Permette lo scaling (quasi) lineare della potenza elaborativa all'aumentare del numero dei nodi

Aumenta la complessit di gestione

Cluster distribuiti (load balancing, failover active-active)

Cluster HA (failover active-passive)

Distribuzione di funzioni diverse su piu nodi. Tramite monitoraggio, i nodi sono in grado di rilevare i failover dei reciproci e assumerne le funzioni

Necessita di componenti di replica a livello rete

Necessita di componenti di condivisione delle risorse

Lo scopo la riduzione dei downtime

Introduzione di un livello verticale di affidabilit

Cluster HA (failover active-passive)

Tecniche di fault-tolerance per le componenti hw

L'unico metodo disponibile per l'aumento dell'affidabilit delle macchine (oltre all'evoluzione dei processi produttivi) la RIDONDANZA DEI COMPONENTI

Ci implica un aumento di complessit della macchina, e soprattutto l'aumento dei COSTI

Per questo motivi, il grado di affidabilit di un elaboratore (quasi) direttamente proporzionale alla ridondanza dei suoi componenti, e quindi al costo.

. l

.

Sistemi Intel/AMD x86-64

Intel Xeon o AMD Opteron fino a 2,6 Ghz

Max 12 core/socket

Max 8 socket

Max 1 TB RAM

S.O Windows/Linux/Solaris

Sistemi POWER

IBM POWER6 o POWER7 fino a 6.1 Ghz

Max 8 core/socket

Max 128 socket

Max 4 TB RAM

Sistemi SPARC

Sun Sparc64 VII o Txxx fino a 3 Ghz

Max 16 core/socket

Max 64 socket

Max 1 TB RAM

Una breve panoramica sulle architetture hw...

Posizionamento teniche fault-tolerance

l

Entry level

Power supply

Network

Midrange

Power supply

Network (spare)

Memory (spare)

CPU (spare)

Enterprise

Power supply

Cooling

Network - LEHA - Spare

Memory

- Oscillatori - Spare chip - Memory RAID - Spare

Bus interconnect

CPU- Registri- Lock-stepping- Memory controller- Chipset- Spare

Storage e dischi

Differenziazione in base al posizionamento:

Locale (tightly-coupled)

vs

Distribuito (loosely-coupled)

. l

Lo storage locale: il raid

. l

Lo storage locale: le tecnologie dei dischi

. l

Lo storage distribuito: i filesystem di rete e le reti di storage

Lo storage distribuito necessario per superare le limitazioni di flessibilit imposte dall'interazione fisica fra dischi/server, con particolare riferimento a:

Condivisione di volumi

Rilocazione dei volumi

Replica dei volumi

Deduplica dei dati

Semplificazione della gestione

. l

Lo storage distribuito: SAN

Storage Area Network una retecostituita esclusivamente da dispositivi di memorizzazione di massa, utilizzabili dai client tramite incapsulamento dei comandi di controllo (es: SCSI) dentro protocolli di rete

Il 99% delle tecnologie SAN utilizza i seguenti protocolli:

Fibre Channel Protocol utilizza il protocollo FC per l'incapsulamento dei comandi SCSI.

ISCSI utilizza il protocollo TCP per l'incapsulamento dei comandi SCSI

. l

Lo storage distribuito: SAN

Storage Area Network una retecostituita esclusivamente da dispositivi di memorizzazione di massa, utilizzabili dai client tramite incapsulamento dei comandi di controllo (es: SCSI) dentro protocolli di rete

Il 99% delle tecnologie SAN utilizza i seguenti protocolli:

Fibre Channel Protocol utilizza il protocollo FC per l'incapsulamento dei comandi SCSI.

ISCSI utilizza il protocollo TCP per l'incapsulamento dei comandi SCSI

. l

Lo storage distribuito: SAN FCP

Rete dedicata su protocollo FC

Rame o Fibra

Maggiori prestazioni

Topologia switched-fabric

. l

Lo storage distribuito: SAN iSCSI

Rete LAN esistente (TCP/IP)

Rame

Minori prestazioni e costi

Topologia di rete esistente

. l

Comparazione fra i modelli

Lo storage distribuito: NAS

Network Attached storage consente la condivisione delle aree di storage con gli host, tramite protocolli e filesystem di rete. Non c' incapsulamento: il fs esposto direttamente al S.O sulla rete ethernet. E' un semplice device di rete.

I filesystem pi utilizzati sono:

NFS, SMB e CIFS per utilizzi general-purpose

GPFS, AFS e FUSE per applicazioni ad alto throughput

. l

Modello concettuale utilizzo fs condivisi