gartner

20
EFFICIENZA E OTTIMIZZAZIONE DIVENTANO NATIVE NELLO STORAGE IBM Featuring research from

Upload: pragma-progetti

Post on 06-Dec-2014

623 views

Category:

Technology


3 download

DESCRIPTION

Efficienza e ottimizzazione diventano native nello storage IBM

TRANSCRIPT

Page 1: Gartner

EFFICIENZA E OTTIMIZZAZIONE DIVENTANO NATIVE NELLO STORAGE IBM

Featuring research from

Page 2: Gartner

2

NELL’EFFICIENZA LA CHIAVE PER GESTIRE I DATICrescono di pari passo le fonti e la quantità di informazioni da analizzare e avere a disposizione. Di converso, stagnano o si riducono i budget a disposizione dell’IT. La quadratura del cerchio si trova nell’adozione di uno storage capace di rendere disponibile ciò che serve in modo autonomo e dinamico.

Per chi si occupa di storage, la sfida di questo periodo congiunturale appare legata soprat-

tutto alla necessità di gestire e archiviare quanti-tà crescenti di dati ma allo stesso tempo, erogare servizi su standard qualitativi più elevati e tenere i costi sotto controllo.

Il punto di partenza di ogni riflessione rimanda inevitabilmente al concetto di Big Data, ovvero alla moltiplicazione senza sosta di dati da elabo-rare, che arrivano dalle fonti più disparate. IBM stima che il 90% dei dati oggi in circolazione sia-no stati creati solo negli ultimi due anni.

Mentre le fonti di divulgazione e circolazione delle informazioni continuano ad aumentare, il budget per l’IT in generale e lo storage di conse-guenza non seguono certo lo stesso andamento.

Inevitabilmente, dunque, il modo per far fronte alle necessità del periodo passa per la ricerca di efficienza nell’infrastruttura. D’altra parte, le stime dicono che ancora oggi l’utilizzo della capacità a disposizione si trova mediamente al di sotto del 50%, soprattutto a causa dell’imple-mentazione, sedimentata negli anni, di soluzioni poco flessibili.

Nella visione olistica di IBM, l’efficienza dello storage si realizza assommando diversi elemen-ti. I dati devono trovarsi nel posto più indicato rispetto al loro livello di criticità o consultazio-ne. Sui dispositivi ad alte prestazioni, certamen-te più costosi, è opportuno far risiedere solo ciò che riveste maggiore importanza, spostando il

resto su sistemi più economici. Più questi pro-cessi vengono automatizzati e maggiore è l’effi-cienza che si ottiene. Per non continuare ad ag-giungere capacità, inoltre, appare opportuno far leva sulla virtualizzazione e il cloud, ma anche su tecnologie di compressione, deduplica, thin provisioning e thin replication.

I recentissimi annunci, che puntano a realizzare una infrastruttura storage di nuova generazione, integrano tutti questi aspetti, confermando il concetto di disponibilità “by design” che già contraddistingue la gamma di server PureSy-stems. La possibilità di preservare gli investi-menti già effettuati, facendoli però convogliare in una logica votata alla ricerca costante dell’ef-ficienza, in combinazione con la presenza nativa di elementi di automazione e virtualizzazione, consente alle aziende di essere già pronte ad af-frontare anche le sfide che il mercato proporrà negli anni a venire.

Page 3: Gartner

3

INFRASTRUTTURA INFORMATIVA E BIG DATA PANORAMICA SULLE PRINCIPALI INIZIATIVEIl concetto di infrastruttura informativa deve evolversi per consentire alle imprese di gestire le informazioni in quanto prezioso asset aziendale, alla luce dei nuovi modelli di distribuzione dei dati e delle sfide imposte dalla crescita esplosiva di questi ultimi. Il presente documento descrive i passi critici e gli ostacoli da affrontare per superare questa sfida.

Dagli archivi Gartner:

ANALISIL’infrastruttura informativa è costituita da un in-sieme di funzionalità tecnologiche per suppor-tare obiettivi di gestione delle informazioni. Con il termine “Big Data” si fa riferimento a informa-zioni caratterizzate da dimensioni estremamen-te elevate, eterogeneità, complessità ed esigen-ze di elaborazione rapida.

L’approssimarsi di sfide incombenti è indicato dalle previsioni secondo le quali entro il 2015 i dispositivi intelligenti nel mondo saranno 200 miliardi ed entro il 2020 il numero di dati invia-ti via Web ogni giorno sarà pari a 275 esabyte, nonché dal crescente desiderio di utilizzare e-

mail, documenti, audio e video. Per adottare un approccio strategico alla gestione delle informa-zioni che consideri i dati come asset da sfruttare per ottenere un vantaggio competitivo, è neces-saria un’infrastruttura informativa ben organiz-zata, agile ed efficace. Le tradizionali tecnologie di gestione delle informazioni non sono in grado di far fronte all’esplosivo volume di dati etero-genei presenti in molte aziende. Il grande valo-re e le potenziali responsabilità che si celano in questi dati sta suscitando un nuovo interesse verso l’infrastruttura informativa. Le nuove ten-denze in tale infrastruttura cambieranno il modo di concentrare e distribuire tecnologie e com-petenze di gestione delle informazioni, con l’o-

Page 4: Gartner

4

biettivo di migliorare radicalmente l’efficacia in termini di costi, agilità, trasparenza di gestione e uso degli asset informativi.

Fattori d’importanza dell’infrastruttura informativa e dei progetti basati sui Big Data:

A) Per i CIO

I “Big Data” rappresentano per i CIO una stra-ordinaria opportunità per aggiungere valore all’attività aziendale attraverso il recupero di dati analitici e l’identificazione di modelli dalla grande quantità di informazioni disponibili. Per ottenere questo vantaggio, i CIO devono:• Collaborarecon i leaderaziendaliper iden-

tificare le opportunità rilevanti e sviluppa-re una visione condivisa sulle informazioni dell’impresa, tenendo conto delle fonti di in-formazioni più recenti quali social network e tecnologie operative.

• Indirizzare le proprie organizzazioni verso lamodernizzazione dell’infrastruttura informati-va e l’allineamento di tecnologie e competen-ze di gestione delle informazioni per ottenere una base coerente e agile per l’accesso, la di-stribuzione e il controllo delle informazioni.

• Gestire l’infrastruttura informativa e i pro-getti basati sui Big Data come competenze e programmi continui invece che come pro-getti discreti a breve termine. I progetti basa-ti sui Big Data non possono essere conside-rati come avulsi dal lavoro di gestione delle informazioni (e dell’infrastruttura correlata) già in corso nell’azienda.

B) Per i Responsabili IT

La modernizzazione dell’infrastruttura informa-tiva e la preparazione a gestire progetti basati sui Big Data richiederanno ai responsabili IT di:• Valutare lacuneesovrapposizioninelle tec-

nologie di gestione delle informazioni e svi-luppare un piano di razionalizzazione o di in-cremento delle capacità in sede.

• Fissaregliobiettividiunavisionestrategicaper l’infrastruttura informativa attraverso uno schema di funzionalità IT. I responsabili IT po-tranno quindi realizzare una roadmap mirata a sostenere le esigenze informative in modo efficiente e indipendente dalle applicazioni.

• Comprenderecheconiltermine“BigData”si fa riferimento a molto di più che a volumi di dati poiché dimensioni elevate, eteroge-

neità, complessità e velocità contribuiscono alla nascita di sfide impegnative in termini di gestione delle informazioni.

• Verificare che vi siano competenze, ruoli estrutture organizzative adeguati per sfrutta-re queste tendenze chiave. Infrastruttura in-formativa e progetti basati sui Big Data non sono da ricondurre solo alla tecnologia, poi-ché un approccio esclusivamente tecnologi-co non garantisce alcun successo.

GESTIONE DELL’INIZIATIVA DI INFRASTRUTTURA INFORMATIVA E DEI PROGETTI BASATI SUI BIG DATA MEDIANTE QUESTO APPROCCIO STRUTTURATO

Strategia e pianificazione: redigere una bozza di atto costitutivo in allineamento con gli obiettivi aziendali con lo scopo di ottenere un consenso sulla visione e sul compito alla base del progetto. Delineare l’ambito del progetto e definirne risor-se, budget e sistemi di governance. Integrare tut-to questo nei piani IT strategici e aziendali.

Creazione di una soluzione: definire l’architettura, la tecnologia e gli standard del progetto. Model-lare i requisiti aziendali e descrivere nel dettaglio le specifiche per la distribuzione della soluzione. Suggerire procedure per l’implementazione del progetto. Definire i dettagli del processo e i criteri di calcolo dei risultati. Comunicare il piano.

Selezione della soluzione: impostare requisiti ed emettereRFP.Analizzareleinformazionidelmer-cato.Valutareleopzionidifornitorieproviderdiservizi. Scegliere tecnologie e fornitori/provider di servizi. Negoziare accordi sui livelli di servizio e contratti.

Implementazione: fornire personale e gestirne l’implementazione. Coordinare la distribuzione della soluzione. Creare l’ambiente di sviluppo e eseguire test. Richiedere il feedback degli utenti. Monitorare i rischi.

Azione ed evoluzione: realizzare e gestire l’im-plementazione. Effettuare analisi sulla base di feedback, rischi e cambiamenti dei requisiti aziendali. Misurare le prestazioni. Monitorarne l’uso e la conformità. Sviluppare competenze e definire le prassi migliori per gli utenti. Perfezio-nare i processi di governance.

Fonte Gartner: Ricerca G00214426, Ted Friedman, 22 July 2011

Page 5: Gartner

5

COME STA EVOLVENDO IL CICLO DI VITA DEI DATI

La gestione del ciclo di vita delle informazioni è costru-

ita ancora intorno a miti, come la perdita progressiva di valore nel tempo dei dati e la prevedi-bilità delle modalità di accesso da parte degli utenti. La mag-gior parte delle infrastrutture storage sono costruite intorno a queste convinzioni, che in re-altà oggi valgono assai poco. Il successo di un business si basa sempre di più sulla capa-cità di elaborare rapidamente i dati, analizzarli, renderli dispo-nibili come e quando servono. E in questo contesto è impor-tante avere una corretta stra-tegia in campo tecnologico, che non si limiti ad accumulare dispositivi e capacità nei data center, ma punti sulla raziona-lizzazione, l’utilizzo ottimizzato

di quanto già a disposizione e la definizione di percorsi che tengano conto di quanto serve oggi e, nei limiti del possibile, anche di quanto potrà accade-re domani. In sintesi un’infra-struttura che possa evolvere realmente in funzione delle stesse esigenze. Della realtà presente sul mercato italiano e dell’evoluzione tecnologica in corso, abbiamo parlato con Giovanni Calvio. Quanto vale ancora oggi l’assioma “storage = capa-cità” e nient’altro? In qua-le misura nella realtà delle aziende, soprattutto italia-ne, la risposta all’aumento progressivo dei dati da gestire si concretizza sem-plicemente nell’aggiunta di nuovi dispositivi?

Non solo in Italia ma un po’ in tutto il mondo, spesso si con-tinua a pensare che l’informa-zione perda valore nel tempo e soprattutto che le modalità utilizzate da ciascun utente per accedere all’informazione sia-no sempre prevedibili. Questo presupposto porta alla convin-zione che periodicamente ci sia bisogno di nuova capacità all’interno di un data center. Invece, il futuro richiede un approccio diverso allo storage. Sempre più, infatti, sono le ne-cessità del business a guidare il flusso delle informazioni e da qui nascono le opportunità le-gate allo smarter computing, al cloud e alla business analytics. Abbiamo sempre più bisognodi conoscere meglio il valore

e la qualità dei dati presenti e, soprattutto, occorre capi-re quali sono le nuove moda-lità che gli utenti usano per accedere alle informazioni. I driver di business, oggi, stan-no spingendo in tre direzioni: potenziamento dell’agilità dei sistemi, miglioramento della capacità di prendere decisioni in azienda e semplificazione delle operazioni ottimizzando i workload presenti nel data center. Rendere più efficiente lo storage significa anche es-sere pronti a soddisfare i futuri bisogni, che crescono nel tem-po in maniera imprevedibile.

Quali sono, rispetto allo scenario descritto, le esigenze o le evoluzioni che accomunano le grandi aziende e quelle medio-piccole e dove invece si evidenziano ancora importanti differenze?

Ci sono oggi più analogie che elementi distintivi. Le esigen-ze e le sfide sono abbastanza

Secondo Giovanni Calvio, manager of Storage Platform di IBM Italia, le aziende oggi hanno la necessità stringente di poter elaborare e analizzare rapidamente le informazioni necessarie per prendere decisioni strategiche. Uno storage razionalizzato ed efficiente deve supportare questa esigenza primaria.

Page 6: Gartner

6

simili anche se chiaramente nei grandi data center ci sono maggiori risorse a disposizio-ne e un budget in valore asso-luto più importante. Tuttavia, in questo momento è dalla fa-scia medio-bassa del mercato che arriva una maggiore spin-ta all’innovazione. Nelle realtà più piccole le strutture sono più snelle e la reattività è più immediata. Di conseguenza, i budget limitati portano a indi-viduare nuovi approcci e nuo-ve soluzioni.

Quali sono, in ambito storage, i fattori di maggior interesse per le imprese?

Certamente sono molto senti-ti i temi del consolidamento e del miglioramento delle per-formance, soprattutto in dire-zione della velocità di accesso ai dati. Sta emergendo grande interesse per le nuove modali-tà di archiviazione dei dati, in particolare per le tecnologie di deduplica. La tendenza è quel-la di virtualizzare l’infrastrut-tura storage, cercando di pro-teggere gli investimenti fatti e

utilizzando al meglio quanto è già presente nei data center, evitando in questo modo di acquisire capacità in eccesso. Quando si realizzano progetti di consolidamento, general-mente si affronta anche il tema della data protection e data re-tention, utilizzando tecniche automatiche di ottimizzazione della capacità.

Quanto sono consapevoli le imprese di possedere capacità inutilizzata e di poter recuperare spazio senza dover aggiungere nuovo storage?

Per essere sinceri, ben poche aziende sono in grado di valu-tare correttamente i loro livelli di utilizzo delle risorse storage. Per IBM invece si tratta di un punto focale e la nostra offerta va proprio in questa direzione. Da circa un paio di anni, IBM offre ai propri clienti la possi-bilità di effettuare un’analisi precisa del livello di efficienza del proprio storage in modalità completamente gratuita. Esa-minando i risultati degli studi, chiamati Storage Infrastructu-

re Optimization, emerge che in media il 50% della capacità storage presente in un data-center è inutilizzato.

E allora da dove si può partire per avere uno storage più efficiente?

Sicuramente dal consolida-mento, anche se un primo vero passo in direzione dell’efficien-za si compie con il tiering del dato, rendendolo automatico o utilizzandolo in modo nativo all’interno dei sistemi. In que-sto modo, si migliora l’efficien-za su ogni singolo carico appli-cativo, evitando investimenti onerosi, come nel caso dell’ac-quisto di dischi allo stato solido per il solo obiettivo di aumen-tareleperformance.Aquestosi può aggiungere tutto quanto concerne la compressione del dato, che può avvenire a mon-te dello storage primario e non ha impatti sulle applicazioni o sui carichi di lavoro che stanno funzionando. Si prepara così il terreno per la virtualizzazione, un passaggio che prima o poi occorre affrontare, soprattutto per chi pensa a un orizzonte fu-

I passi da seguire per ottimizzare i carichi di lavoro

Fonte: IBM Fonte: IBM

Fonte: IBM

Page 7: Gartner

7

Cloud e virtualizzazione si integrano nell’infrastruttura storage

Gli effetti dell’evoluzione verso Big Data e Business Analytics

Fonte: IBM

Fonte: IBM

turo orientato al cloud. Due anni fa di Big Data non si parlava af-fatto e oggi, invece, è un tema all’ordine del giorno. Ma fra altri due o tre anni cosa succederà? Per questo è importante costru-ire un’infrastruttura che serva a proteggere gli investimenti fatti anche in funzione di future evoluzioni oggi sconosciute. Le richieste degli utenti continue-ranno ad aumentare e saranno sempre diverse, le decisioni di business saranno sempre più

immediate e legate alla qualità e al valore del dato e i budget andranno mantenuti leggeri. In questo contesto IBM si sente in grado di dare risposte concrete nell’interesse del business delle imprese: parliamo di un’azien-da che vanta oltre cent’anni di esperienza nella soluzione di problemi complessi, ha sempre investito considerevoli risorse economiche nella ricerca & svi-luppo, ha creato soluzioni avan-zate per il mondo enterprise per

poi declinarle per le esigenze delle piccole e medie imprese... La nostra strategia per lo sto-rage è chiara e coerente e la ricchezza della nostra offerta può rispondere ad ogni tipo di esigenza, in funzione dei diver-si budget. I dati ci confermano che il mercato ha compreso il valore delle nostre soluzioni e apprezza la nostra coerenza e i risultati che abbiamo ottenuto sul mercato italiano sono il no-stro fiore all’occhiello.

Page 8: Gartner

8

L’ORGANIZZAZIONE DELLO STORAGE CONTA PIÙ DELLA CAPACITÀPer molto tempo, alla crescita dei dati in azienda è stata associata la progressiva aggiunta di nuovi dispositivi di memorizzazione. L’esplosione degli ultimi anni sta rendendo sempre più importante la definizione di una strategia basata sull’analisi di quanto circola in azienda e una gestione maggiormente proattiva.

I crescenti volumi di informa-zioni da gestire in azienda,

gli obblighi collegati ai temi della governance e complian-ce normativa e la ridondanza dei dati sono fattori che stanno spingendo i responsabili dei si-stemi informativi alla ricerca di soluzioni storage che, nell’ac-cezione cara a IBM, potremmo definire “smart”, ovvero intelli-genti, efficienti e flessibili allo stesso tempo.

Non solo i CIO, ma anche i re-sponsabili di linee di business o il top management hanno compreso come lo storage e la protezione dei dati siano com-ponenti critiche di un’evolu-zione tecnologica sempre più connessa alla gestione dei big data, al cloud computing e alle applicazioni analitiche. Questi elementi fanno anche parte del trend verso “l’internet delle cose”, ovvero il complesso di informazioni che risiede in un crescente numero di sensori e microchip integrati negli og-getti della nostra vita quotidia-na. L’obiettivo è rendere tutte queste cose interconnesse, in modo da ottenere un livello più alto di “intelligenza”.

L’efficienza dello storage e la protezione dei dati critici sono

indispensabili per le aziende che vogliono stare al passo, mentre i dati da trattare e ana-lizzare continuano a crescere. In base a un’indagine condot-ta da IBM nel 2011, il 57% dei decision maker dell’IT hanno ammesso che la propria orga-nizzazione ha bisogno di un nuovo approccio allo storage, utile per gestire la crescita fu-tura.

La materia è peraltro com-plessa e può essere esamina-ta da differenti punti di vista. Storicamente, si è portati a considerare il problema es-senzialmente dal punto di vista del supporto fisico. È da oltre vent’anni che le nuove quanti-tà di dati creati sono utilizzati e veicolati in formato digitale. I concetti di “disco” e “storage” sono stati per lungo tempo considerati quasi sinonimi ed è sulla capacità che si è concen-trata a lungo la ricerca. Dagli obsoleti floppy e hard disk del-le prime generazioni, si sono succedute nel tempo nuove tecnologie concentrate sulla densità dei supporti e l’acces-so ai dati in essi contenuti. Ancora oggi una consistenteattenzione è dedicata a questi aspetti, come dimostrano svi-luppi recenti proprio della ri-

cerca IBM, in particolare con la memoria Racetrack, che com-bina i benefici degli hard drive magnetici con quelli a stato solido, per arrivare a poter ela-borare imponenti quantità di dati memorizzati in meno di un miliardesimo di secondo.

I dati collegati ai carichi di lavoroBig data, tuttavia, non signifi-ca automaticamente “bigger storage”. Non ci può e non ci deve essere una correlazione diretta fra la quantità di dati da gestire e i Terabyte a dispo-sizione in azienda, anche se il costo dell’hardware è diminui-to negli anni. Questo ha spinto molte realtà ad ampliare sem-plicemente la capacità, una scelta certamente più comoda rispetto a una seria analisi dei dati immagazzinati, quali di questi sono critici e per quali motivi, quali vadano conser-vati, dove e per quanto tempo. Proprio l’esplosione dei dati alla quale stiamo assistendo, invece, dovrebbe indurre le aziende a definire una strate-gia storage basata sulla cura dei dati e la loro gestione proattiva lungo tutto il ciclo di vita. La selezione, la valu-tazione e l’organizzazione dei

Page 9: Gartner

9

dati sono elementi-chiave del lavoro necessario per rendere i dati stessi accessibili e inter-pretabili dalle persone giuste in azienda, in base a ruoli e pri-vilegi assegnati.

Il tema dei Big Data rappresen-ta al momento l’elefante nel-la stanza e le proiezioni degli analisti parlano di un aumento dell’800% nei prossimi cinque anni. Per affrontare corretta-mente la sfida, l’IT deve farsi saggia e attivare una strategia a livelli, necessaria per rendere le informazioni più importanti più accessibili delle altre. I dati devono essere pertanto collo-cati nel posto giusto e collega-ti ai carichi di lavoro essenziali per il business aziendale. Quan-to realmente utile e a maggiore tasso di fruizione va collocato su dispositivi a tecnologia più avanzata, per garantire presta-zioni ed efficienza, anche se a

costo più elevato, lasciando su supporti come i nastri i dati da conservare per motivi di leg-ge o di opportunità, ma poco critici per il business ordinario dell’azienda. Laddove possibi-le, poi, occorre creare un mag-gior livello di interazione fra le informazioni, consolidando silos preesistenti ma senza in-cidere necessariamente sulla capacità a disposizione, quindi attraverso processi di virtualiz-zazione o fruizione in modalità cloud.

L’utilizzo di una logica a livelli è critica per cercare di ridurre i costi. Questo significa non solo collocare, per esempio, i dati fondamentali su dispo-sitivi a stato solido e quelli non strutturati usati una volta sola su nastri, ma anche fare in modo che gli spostamen-ti verso l’alto o il basso della piramide possa avvenire in

modo il più possibile auto-matizzato. Sfruttare al meglio i dispositivi a bassa velocità abbassa i costi di utilizzo e di consumo energetico, miglio-rando l’efficienza complessiva dell’infrastruttura. Allo stessomodo, la deduplica può essere ormai considerata una modali-tà standardizzata per ridurre la quantità di storage necessaria per la gestione di grandi set di dati, al pari della compressio-ne, ben sapendo che la prima si adatta in modo particolare ai file di testo, mentre la seconda può essere impiegata per do-cumenti audio e video.

Il disegno dello storage come “sistema efficiente”, attraver-so l’ottimizzazione dell’infra-struttura, l’automazione dei processi e il corretto calcolo del TCO rappresenta oggi uno dei principali fattori di vantag-gio competitivo.

Page 10: Gartner

10

LA VISIONE DI IBMSI PROIETTA NEL FUTUROMesso a punto un concetto di infrastruttura storage che si basa sulle evoluzioni portate avanti negli ultimi anni, ma è già pronta ad accogliere le sfide che arriveranno in futuro. La chiave di volta sta nella disponibilità nativa di elementi come il right tiering, la virtualizzazione e tecniche evolute di compressione in tempo reale.

Il mutevole mondo nel quale viviamo rende at-tuali in un dato momento problematiche che

solo qualche tempo prima non venivano nem-meno prese in considerazione. Il fenomeno della moltiplicazione dei dati da gestire per un’azien-da non è nuovo di per sé, ma temi come i Big Data o gli strumenti di analisi evoluta non erano due anni fa al centro dell’attenzione dei manager quanto lo sono oggi. Ed è possibile, se non pro-babile, che fra due o tre anni qualche altro tema o stringente esigenza avrà spostato altrove il cen-tro dell’interesse.

Il tema della gestione dei dati è fra quelli che me-glio si adattano a questo genere di riflessioni. La crescita dei volumi è un dato di fatto ampiamen-te documentato: il clima competitivo e le diffi-coltà congiunturali hanno elevato il valore delle informazioni e le aspettative di manager e utenti sulla capacità dell’IT di saper fornire quanto ser-ve per fare analisi e prendere decisioni in modo rapido ed efficace. Per chi governa i sistemi in-formativi, con budget essenzialmente piatti, la necessità di gestire dati in continua crescita si scontra con una complessità infrastrutturale dettata dalla presenza di architetture poco fles-sibili ereditate dal passato e dall’incremento del-la complessità derivata dallo sviluppo della vir-tualizzazione e dell’interconnessione di sistemi e dispositivi di varia natura.

Un’evoluzione basata sui business driver Un approccio solo reattivo a queste sfide porta inevitabilmente a una pura crescita dei costi, in particolare dello storage rispetto a quelli IT ge-nerali. Individuare le inefficienze e ottimizzare i processi può essere un buon punto di partenza, ma le esigenze presenti e future richiedono un nuovo approccio allo storage, fatto di intelligen-za, efficienza e automazione.

Su queste basi, IBM ha costruito la propria visio-ne orientata a un’infrastruttura storage di nuova generazione, un concetto, prima ancora che un insieme di tecnologie, con focalizzazione sulle aree di potenziale riduzione dei costi e la predi-sposizione “nativa” agli sviluppi che arriveranno anche a medio e lungo termine. L’ottimizzazione dei carichi di lavoro esistenti, il miglioramento dell’agilità che passa attraverso l’adozione del cloud computing e l’integrazione fra Business AnalyticseBigDatasonoibusinessdrivercheoggi maggiormente coinvolgono lo storage. Qualcosa di nuovo arriverà di certo a medio ter-mine. Come prepararsi a questo percorso?

La risposta di IBM sta in una proposta infra-strutturale nella quale l’efficienza dello storage è integrata a livello di progettazione, l’ottimiz-zazione avviene in modo automatizzato, la vir-tualizzazione è presente nativamente e tutti i processi sono guidati da policy definite e stret-tamente legate alle applicazioni. In questo modo si ottiene una riduzione dello spazio fisico occu-pato fino all’80% e della complessità fino al 30%, un aumento dell’utilizzo di quanto esistente fino al 30%, performance applicative triplicate e una diminuzione dei costi fino al 50%.

L’ottimizzazione dei carichi di lavoro esistenti può essere certamente un buon punto di partenza. Anche IBM ha preso da qui lemosse per pro-porre già oggi alle aziende tecnologie e soluzioni utili per aumentare l’efficienza dello storage. La gestione dinamica e distribuita multilivello (con IBMEasyTiereActiveCloudEngine)eletecnolo-gie di compressione, deduplica, thin provisioning e thin replication consentono di muovere i dati sui dispositivi più adatti in base alle esigenze di utilizzo e consultazione, così come di ridurre lo spazio fisico occupato.

Page 11: Gartner

11

Per chi sta valutando o sperimentando il cloud computing, la virtualizzazione nativa e una ge-stione policy-driven consentono di ottenere una maggiore automazione nell’erogazione dei ser-vizi, il monitoraggio e l’ottimizzazione dinamica in tempo reale delle capacità. Discorso analogo può essere fatto per le esigenze di integrazione fraBusinessAnalyticseBigData.

La visione per una infrastruttura storage di nuo-va generazione di IBM guarda però anche avan-ti, alle sfide che arriveranno nei prossimi anni, per far sì che già oggi l’infrastruttura storage sia preparata ad accoglierle. L’efficienza, dunque, viene realizzata già nella progettazione, attra-verso la presenza di caratteristiche avanzate e preinstallate, utili per eliminare complessità e barriere all’ingresso. La tecnologia Real-time Compression, integrata nativamente nei sistemi StorwizeV7000,eSANVolumeControllersonoesempi indirizzati alla riduzione degli spazi.

Lo storage del futuro, poi, dovrà anche ottimiz-zarsi “da solo” in modo intelligente e automati-co, per allinearsi alla velocità del business, au-mentare il throughput delle applicazioni critiche e supportare nuovi carichi, come i desktop vir-tuali, per fare un esempio. IBM integra tecnolo-giediauto-ottimizzazionecomeXIV(automazio-ne del load balancing e della qualità del servizio) e Easy Tier (che andrà a estendere il supporto

Gli ultimi aGGiornamenti di Gamma

La nuova visione IBM per una infrastruttura storage di nuova generazione è corroborata da numerosi aggiornamenti nella gamma di prodotti.

I prodotti della gamma IBM Storwize V7000 integrano la tecnologia Real-time Compression, che consente di utilizzare la compressione anche per i dati di produzione, a differenza di quanto accade nei prodotti concorrenti, che ne consentono l’uso solo per i dati a bassa attività. Sono stati aggiunti, inoltre, il supporto di Fibre Channel over Ethernet e del clustering a quattro vie. Le stesse migliorie sono state apportate alla versione 6.4 di SAN Volume Controller, che in più ag-giunge la migrazione trasparente dei volumi virtuali fra nodi SVC, in modo da massimizzare la fles-sibilità delle configurazioni.

Tivoli Storage Productivity Center, invece, nella versione 5.1 offre una nuova interfaccia integrata Web-based, il supporto per la gestione basata su cloud dello storage, nonché del reporting e delle capacità analitiche basati su Cognos. A ciò si aggiunge la possibilità per le applicazioni di rilevare automaticamente e fare il provisioning dei file con dispositivi SONAS e Storwize V7000 Unified.

Sono stati infine migliorati i sistemi storage DS3500 e DCS3700, per aziende piccole e medie che ne-cessitano di migliorare il tempo di backup e le prestazioni dello storage in caso di ripristino, cose che avvengono attraverso le tecnologie Enhanced FlashCopy e Adaptive Disk Pooling. Potenziato anche il supporto per ambienti server VMware in chiave di comunicazione fra gli host e gli array storage.

anche al di fuori dell’ambiente storage, in-tegrandosi con le memorie dei server e con l’operatività delle applicazioni di business).

Lo storage recepisce le policy aziendaliLe infrastrutture storage di nuova generazio-ne hanno le stesse caratteristiche delle so-luzioniIBMPureFlexSystemeSmartCloud,in grado cioè di fornire un’ottimizzazione integrata end-to-end, mentre l’IBM Storage Service Catalog stabilisce il legame fra i re-quisiti-utente e le capacità dell’IT, aiutando ad accrescere i livelli di servizi e la soddisfa-zione dei clienti, controllando anche i costi.

I data center, infine, lavorano in base a spe-cifiche policy. Le performance applicative, la schedulazione dei backup o i requisiti di conservazione dei dati sono personalizzati in base alle esigenze di ogni organizzazione. Una volta definite, le policy dovrebbero essere fa-cili da replicare e automatizzare. Lo storage presente e futuro deve quindi essere policy-driven, ad esempio per migrare file inattivi su dispositivi di livello più basso o replicare i dati fra sistemi per velocizzare gli accessi. Tivoli Storage Productivity Center e SAN VolumeController lavorano insieme per implementa-re una politica di “right tiering”, che fin qui era impossibile in un data center dinamico.

Page 12: Gartner

12

LE MOSSE PER OTTENEREUNO STORAGE EFFICIENTEPartendo dal concetto più esteso di smarter computing, IBM invita a spostare il focus dalla pura memorizzazione dei dati alla capacità di allocarli nel posto più utile per il loro reperimento usando la virtualizzazione per migliorare la capacità di provisioning dei sistemi già presenti nell’infrastruttura aziendale.

Nell’It dei nostri giorni, niente appare più impor-

tante del concetto di efficienza. Ci sono altre parole d’ordine ricorrenti, come riduzione dei costi, qualità del servizio, intel-ligenza. Oppure cloud compu-ting, virtualizzazione e conso-lidamento, se scendiamo sul terreno più pratico. Ma tutto discende dalla capacità di “fare le cose nel modo giusto”, per parafrasare il guru del mana-gement Peter Drucker, ovvero avere una visione d’assieme delle infrastrutture da gestire e organizzarle in modo da soddi-sfare le richieste che vengono dal top management di un’a-zienda o dalle linee di business, cercando il miglioramento con-tinuo e non la semplice crescita incontrollata delle risorse.

La trasformazione di questa visione in realtà passa per IBM attraverso il concetto di Smar-ter Computing, che non si ap-plica solo allo storage, ma si estende ad altre aree-chiave dell’It, come l’elaborazione delle informazioni, il software applicativo e le analisi. Rende-re concreto questo concetto implica la massima attenzione su aspetti come l’automazio-ne, l’integrazione e il cloud.

La ricerca di efficienza in am-bito storage si traduce per IBM

nell’invito a spostare il focus dalla semplice necessità di me-morizzare i dati alla capacità di allocarli nel posto più utile per il loro reperimento e utilizzo, recuperando spazio con una compressione che può avveni-re anche in tempo reale e uti-lizzando la virtualizzazione per migliorare la capacità di utiliz-zo e provisioning dei sistemi già presenti nell’infrastruttura aziendale.

In base ai valori medi ottenu-ti da analisi di mercato e da studi condotti presso propri clienti, IBM ha potuto stimare che una maggiore efficienza nell’utilizzo dello storage con-sente di sfruttare le risorse a

disposizione fino al doppio ri-spetto alla norma, ottenendo anche una riduzione del 38% nella capacità fisica richiesta e fino all’80% delle esigenze gestionali. Da questi valori, si può facilmente comprendere come uno storage efficiente generi vantaggio competitivo. L’obiettivo si può raggiungere partendo dal disegno infra-strutturale, costruito su criteri di ottimizzazione per singoli carichi di lavoro e un TCO che possa far leva sull’automazio-ne dei processi (tiering, provi-sioning), sulla virtualizzazione, sull’erogazione dei servizi in modalità cloud e su tecnologie evolute per la compressione e la deduplica dei dati.

Page 13: Gartner

13

una completa Gamma di sistemi

Le soluzioni per lo storage efficiente proposte da IBM com-binano la tecnologia di una gamma hardware completa (che spazia dai sistemi entry-level a quelli high-end di fa-scia enterprise) con specifiche funzionalità per la virtualiz-zazione, il tiering automatico e il thin provisioning, fra le altre cose.

L’offerta di sistemi midrange si sostanzia nelle famiglie Storwize V7000 e DS di fascia più bassa. La prima rappre-senta gli array di riferimento per il midmarket, con capacità da 300 GB fino a 1.4 PB (configurazioni cluster) e perfor-mance da 8 Gbps Fibre Channel e 1 Gbps iSCSI. L’evolu-zione più recente riguarda la combinazione fra lo storage di tipo NAS basato su file con quello di tipo SAN basato su blocchi. Storwize V7000 Unified ottimizza l’utilizzo della ca-pacità a disposizione e migliora il provisioning, aggiungen-do la presenza di una singola interfaccia-utente per l’ammi-nistrazione dei dispositivi. I pool storage, inoltre, possono essere condivisi fra carichi di lavoro per blocchi e per file.

Sempre orientati al mercato intermedio, le gamme DS3000 e DS5000 sono progettate per soddisfare le esi-genze di sistemi aperti di oggi e di domani, stabilendo un nuovo standard per la longevità del ciclo di vita, con schede di interfaccia host sostituibili a caldo. L’architet-tura hardware di settima generazione, inoltre, garantisce alte prestazioni, scalabilità multidimensionale e protezio-ne degli investimenti.

Le famiglie DS8000 e XIV sono invece rivolte al mercato di fascia alta. I DS8000 beneficiano da poco dell’integrazione con la più recente evoluzione di Easy Tier a tre livelli, che consente di avere sempre e in automatico il miglior bilanciamento di flussi e prestazioni fra i disposi-tivi SSD (più potenti ma anche onerosi), i moduli disco di fascia enterprise e quelli nearline (a costi più bassi) anche nella versione con crittografia integrata. I requisiti prestazionali sono soddisfatti al minor costo possibile sempre garantendo la qualità del servizio.

La serie IBM XIV indirizza le sfide connesse allo storage su tutto lo spettro applicativo, includendo le soluzioni di virtualizzazione, database, analytics e protezione dei dati. L’architettura GRID a massiccio parallelismo rende XIV la piattaforma ideale per il cloud computing e gli ambienti virtualizzati.

Fra i sistemi di file storage di IBM spicca la soluzione Scale Out Network Attached Storage (SONAS), che virtualizza e consolida file multipli in un singolo file system enterprise-wide, riducendo così il Total Cost of Ownership e i costi di capitale, aumentando l’efficienza operativa. Al di là della scalabilità in-trinseca della piattaforma, di recente si è aggiunta l’integrazione di Active Cloud Engine, motore di file management basato su policy che rende efficiente la condivisione e la collaborazione tanto su scala locale (all’interno di un’azienda) che globale (su siti multipli). In ambito Nas, si aggiungono all’offerta anche i prodotti modulari della serie N, mentre i virtual tape TS si indirizzano alle esigenze di protezio-ne e conservazione dei dati a basso costo.

Page 14: Gartner

14

La centralità del tiering automaticoLe soluzioni per l’efficienza dello storage messe a punto da IBM si possono raggruppare in diverse categorie, tutte funzio-nali al disegno complessivo. È importante, come abbiamo già sottolineato, che i dati venga-no collocati sui dispostivi più adatti in ragione del loro utiliz-zo e della loro criticità. Nell’i-deale piramide utilizzabile come metafora dell’infrastrut-tura storage di un’azienda, alla base troviamo le librerie di nastri (fisici o virtuali) che fungono da archivio per i dati che necessitano di essere con-servatiper lungo termine.Viavia che si sale, troveremo hard disk drive di capacità e di pre-stazioni, flash disk o dischi allo stato solido, nei quali collocare i dati di maggior peso e impor-tanza per l’azienda. Detto che IBM offre una gamma comple-ta di dispositivi hardware che coprono ogni elemento della piramide (si veda box in que-ste pagine), è nelle tecnologie integrate che si possono trova-re gli elementi differenziali in termini di efficienza.

Il tiering dello storage, ad esempio, non è di per sé un

concetto nuovissimo, ma l’e-voluzione verso l’automazione ne sta rapidamente allargando il potenziale. Tecnicamente, la tecnologia consente di muove-re automaticamente differenti blocchi di dati attraverso i vari livelli dell’architettura, in base alle policy definite per ragioni di business o di compliance e studiate per ottenete la massi-ma ottimizzazione del provisio-ning. IBM Easy Tier si occupa proprio di queste funzionalità in modo dinamico. Nata sui dispositivi di fascia enterpri-se, la tecnologia è stata estesa anche ai prodotti midrange. La possibilità di spostare auto-maticamente i dati da dischi di prestazione a dischi di ca-pacità, in base alle esigenze di business e ai volumi logici, consente di arrivare a triplicare le prestazioni complessive pur usando dischi allo stato solido solo nel 2% del totale.

Active Cloud Engine, invece,è un motore che costituisce la base dei sistemi di file stora-ge SONAS (Scale-Out NAS) econsente agli utenti di gestire elevati numeri di file in modo efficiente, individuando rapi-damente i dati di interesse e li rende disponibili laddove è

necessario. Il motore, basato su policy, è abbinato a un file system che consente di ge-stire i dati in modo semplice e scalabile. Con Active CloudEngine, la gestione risulta effi-ciente tanto a livello locale che globale. Nel primo caso, dato un posizionamento iniziale, lo spostamento avviene in modo trasparente fra i pool interni ed esterni, mentre vengono impo-stati automaticamente backup, restore e replica interna e/o remota. Nel secondo caso, si ottiene una significativa ridu-zione dei costi di rete, con la memorizzazione dei file in siti remoti prima dell’effettiva rice-zione della richiesta (garanzia di alta disponibilità e accesso rapido), ma anche l’eliminazio-ne della replica dei file nei siti remoti.

Sul lato dell’ottimizzazione del-le capacità, un notevole passo avanti è stato compiuto con la disponibilità della tecnologia Real Time Compression, che consente di lavorare solo sui blocchi necessari, tipicamente sui dati di primaria importanza, senza degrado di prestazioni. In questo modo, si ottiene la pos-sibilità di ospitare una volume di dati fino a cinque volte supe-riore rispetto alle soluzioni tra-dizionali, guadagnando ulterio-re efficienza lungo il ciclo di vita deidati.Agendosolosuquelliprimari, anche tutte le succes-sive copie, backup, archiviazio-ni, snapshot e replica saranno compresse. L’operazione viene eseguita alla prima memoriz-zazione, rendendo possibile un minor invio di dati fisici ai siste-mi storage. Le appliance Real Time Compression si adattano aNASnonsoloIBM(NSeries),ma anche di altri produttori e può comprimere file e databa-se primari fino all’80%.

Page 15: Gartner

15

IBM PORTA L’HYPERVISORNEL MONDO DELLO STORAGECombinando SAN Volume Controller con Tivoli Storage Productivity Center, Big Blue propone una soluzione dedicata di virtualizzazione che può integrare anche array di altri produttori. Così si pongono le basi per l’evoluzione verso il cloud.

In molte realtà, la virtualizzazione è un concetto che è stato inizialmente applicato soprattutto

alla componente dei server presenti nei sistemi informativi. Molti dei benefici che se ne posso-no ricavare – dal miglioramento dell’utilizzo delle risorse alla flessibilità, dai tempi di risposta alla mobilità dei carichi di lavoro fino al disaster reco-very – possono tuttavia risultare limitati se solo una parte dell’infrastruttura viene coinvolta nel processo. Ecco perché la virtualizzazione dello storage è una componente critica dell’evoluzione dei sistemi informativi e costituisce anche uno dei fondamenti per un’efficace implementazione del cloud computing.

Nell’ambitodellesoluzionipropostedaIBM,SANVolumeController(SVC)rappresentalatecnolo-gia dedicata di maggior peso storico. Il prodotto, network-based,risiedeinunaSANesiconnetteasistemieterogeneiattraversoiSCSIoFibreChan-nel.Finoaottonodipossonoessereconfiguratiin cluster per ottenere scalabilità sull’ampiezza di bandaosullacapacità.OgnimoduloSVCinclu-de la replica fra sistemi storage e il mirroring fra unità localioremote. Inoltre,SVCutilizzaun’in-terfaccia graficamodellata su IBMXIV StorageSystem, progettata per rendere facile l’utilizzo e semplificare il provisioning.

Lungo la strada tracciata, IBM è arrivata a pro-porre un concetto di hypervisor dello storage che si allinea a quanto già disponibile nel mondo dei server. Dietro quello che è stato battezzato Sto-rage Hypervisor si cela una combinazione di sof-tware storage, che integra le necessarie funzioni di virtualizzazione dello storage e di software di gestione, in modo da fornire il framework auto-matico e centralizzato per tutte le risorse storage virtualizzate. Il prodotto che agisce praticamen-te per rendere efficace questa combinazione è

sempreSANVolumeController,mentreil“re-gista” è IBM Tivoli Storage Productivity Center. A questo, IBM aggiunge Tivoli Storage FlashCopy Manager, sottolineando come la capaci-tà di snapshot integrata con le applicazioni di business ed incorporata nel prodotto sia un in-grediente essenziale dello storage hypervisor.

Ottimizzazione con il thin provisioningIn questo modo, è possibile creare un singolo pool di dispositivi gestiti che possono essere distribuiti su differenti array (anche di differenti produttori). Lo storage virtualizzato (anche su array singolo) funziona in modo diverso rispet-to ai metodi tradizionali di condivisione in una SAN.Disolito, infatti,ogniapplicazionevieneallocata in una porzione dello storage fisico disponibile, in base alle necessità specifiche. Questa modalità tende però a lasciare spazio libero inutilizzato. Il thin provisioning dello sto-rage hypervisor, invece, mette a disposizione delle applicazioni spazio virtuale utilizzabile a piacimento, fino al limite dello storage fisico di-sponibile. Inoltre, esso disaccoppia i servizi sto-rage (mirroring o replica, per esempio) dai sot-tostanti media fisici. Queste funzionalità sono

Page 16: Gartner

16

molto importanti per attività come la protezione dei dati, il backup locale o il disaster recovery remoto. In un ambiente gestito da hypervisor, i servizi storage accompagnano i dati e questi pos-sono essere spostati virtualmente da un’istanza fisica all’altra.

Dovrebbe essere ovvio che un amministra-tore che utilizzi lo schema hypervisor per lo storage, debba dedicare il proprio tempo a com-pitiamaggiorvaloreaggiunto.IBMSVCabilitalavirtualizzazione, mentre Tivoli Storage Producti-vity Center non solo automatizza la gestione dei cambiamenti, ma la rende possibile a un livello più granulare. Il processo di gestione fa sì che i dati vengano indirizzati su volumi virtuali attra-verso multipli livelli di storage (dalle memorie flashSSDaidispositiviFC/SASfinoaquelliSATA)

edifferentisistemi,comegliIBMXIVeDS8000,ma anche array di altri produttori.

In prospettiva, il successo di un’evoluzione verso il cloud storage si ottiene attraverso un processo graduale, che inizia proprio con la disponibilità di un’infrastruttura virtualizzata e resa efficiente. Questi aspetti, combinati con la gestione auto-matizzata, possono fornire un catalogo di servizi con capacità di self-provisioning, collaborazione e abilitazione verso il concesso di pay-per-use. Una cloud privata di storage offre numerosi van-taggi agli utenti, a partire dall’erogazione più effi-cace dei servizi, con livelli più elevati e un miglior utilizzo degli asset. Gli ambienti storage virtua-lizzati e dotati di capacità avanzate di deduplica, compressione e self-tuning sono meglio predi-sposti per il passaggio alla cloud privata.

il nastro compie 60 anni

Mentre le imprese di tutto il mondo lottano con le incessanti ondate di dati che piombano nei loro data center, qualcuno potrebbe chiedersi come siamo arrivati a questo punto. E se da un lato vi è stato un gran numero di innovazioni nella storia dell’informatica, dall’altro è giusto dire che lo storage digita-le così come lo conosciamo oggi non esisterebbe se IBM non avesse creato il nastro nel maggio di sessant’anni fa. L’innovazione ha consentito agli enormi calcolatori di salvare i loro risultati in modo digitale su bobine di nastro magnetico, anziché su schede perforate o carta. Man mano che questi sistemi aumentavano le proprie prestazioni, le relative soluzioni di archiviazione non erano sostenibili.

Per rispondere a questa esigenza IBM ricorse al nastro magnetico. La tecnologia, che veniva utilizzata per registrare l’audio, sembrava promettente per i massicci sistemi di calcolo, ma il nastro non era suf-ficientemente durevole. Quando si utilizzavano grandi bobine di nastro per acquisire i dati dei compu-ter, i potenti motori delle unità nastro, che si avviavano e si arrestavano bruscamente, ne provocavano facilmente la rottura.

Gli ingegneri affrontarono questo problema in modo diretto. E il 21 maggio 1952, quando l’azienda rilasciò il suo primo computer di produzione, l’IBM 701, questo era accompagnato da un sistema di archiviazione che rappresentava una rivoluzione nel nastro magnetico. L’IBM 726 era un colosso da 424 chilogrammi, poggiato sul pavimento, che risolveva il problema della rottura grazie all’uso di una “colonna sotto vuoto”, che creava un tampone di nastro libero tra gli avvii e gli arresti.

L’innovazione della colonna sotto vuoto non fu solo un successo, ma venne adottata dalla maggior parte dei produttori di unità nastro ad alte prestazioni, facendone una delle tecnologie informatiche più impiegate del XX secolo.

Le sfide del 2012 non sono certo quelle del 1952. Oggi dinamiche rivoluzionarie, come social media, mobile computing, Big Data e regolamentazione, si intrecciano e creano un ingorgo del traffico digitale di dimensioni epiche. Secondo alcuni, la quantità di informazioni che dovrà essere archiviata in modo digitale supererà gli 8 Zettabyte (ossia 8 miliardi di Terabyte) entro il 2015. Queste tendenze e previsioni costringono ogni settore a esaminare le proprie infrastrutture di storage con un’attenzione senza pre-precedenti. Ma il nastro resiste ancora e IBM continua a investirci.

Page 17: Gartner

17

LA SOLUZIONE DI SGMPER GESTIRE I BIG DATA

SGM è per dimensioni e fat-turato il più grande asso-

ciatoalGruppoExpertinItaliaed opera nel mercato dell’e-lettronica di consumo con il marchio “MarcoPolo Expert”.Lo confermano alcuni numeri chiave: 68 megastore di pro-prietà, 5 negozi in franchising, 700 clienti distributori, oltre 2 milioni di carte fedeltà, 1.700 dipendenti.

I valori dell’azienda sono ri-masti invariati nel tempo e ne hanno guidato l’evoluzione e la crescita: attenzione alla persona, qualunque sia il suo ruolo (cliente, dipendente o fornitore); centralità del clien-te; meritocrazia sia all’interno dell’organizzazione sia verso

gli interlocutori esterni; inno-vazione continua sia nelle tec-nologie che nei processi con l’obiettivo di essere un punto di riferimento nel mercato, alla portata di tutti.

Il modello di business è in grado di cogliere veloce-mente le opportunità del mercato e trasferirle in ma-niera veloce ed efficiente su tutti i canali di vendita.

Il risultato sono circa 14 milio-ni di articoli venduti ogni anno e 38.000 ogni giorno: pratica-mente vengono acquistati 37 elettrodomestici al minuto.

L’esigenzaOggi SGM vuole essere un’a-zienda multicanale totalmen-te integrata: non deve esser-ci separazione tra il negozio ed il web, tra clienti della di-stribuzione e clienti del det-taglio che, magari, hanno solo un contatto attraverso il call center.

Per raggiungere questo obiet-tivo SGM ha avviato una serie di progetti che puntano es-senzialmente su cinque fattori chiave: un’efficace comunica-zione interna, semplice e bi-direzionale; un nuovo format commerciale; la logistica, che mette a disposizione di tutti i punti di vendita un magazzino virtuale che è la somma del magazzinocentralediForlìeditutti i prodotti disponibili pres-so i punti vendita; un progetto di espansione in franchising

per selezionare i rivenditori più in sintonia con SGM e integrar-li nella rete del gruppo; il nego-zio del futuro, con tecnologie e layout all’avanguardia per es-sere sempre più in sintonia con le esigenze e le aspettative del cliente finale.

L’infrastruttura tecnologica e i vantaggiL’impianto ICT, si basa su siste-mi hardware aperti e scalabili, due Power Systems e blade IBM. Per far fronte al volume crescen-te dei dati da gestire ed elaborare oggi SGM ha scelto la piattafor-maXIVproprioperlesuecarat-teristiche di scalabilità dinamica, auto riparazione in caso di gua-sto tecnico e grandi prestazioni ottimali, tutti requisiti che riduco-no la complessità gestionale tipi-camente correlata agli ambienti a rapida crescita. L’architettura è anche concepita per ottimizzare in maniera automatica l’utilizzo delle risorse di tutti i componenti all’interno del sistema, permet-tendo così una semplificazione delle attività di gestione e con-figurazione nonché un conside-revole miglioramento delle pre-stazioni e della disponibilità di informazioni.

L’architettura software è af-facciata sul DB2 e le soluzioni WebSphere in ambito Web e middleware aiutano la pubbli-cazione e l’integrazione dei dati. La soluzione IBM DataStage ha trovato un’ottima collaborazio-ne con la sottostante piattafor-maXIVcheneaiutalavelocitàdi spostamento del dato.

Quello della grande distribuzione è uno dei mercati dove il volume di dati da elaborare e analizzare in funzione del business sta aumentando con maggior intensità. Il più grande associato al Gruppo Expert in Italia ha rinnovato il sistema informativo puntando su scalabilità e azzeramento dei fermi macchina

Page 18: Gartner

18

In SGM il sistema informati-vo riveste un ruolo strategi-co, per rispondere in maniera puntuale alla domanda della clientela e per anticiparne le esigenze. L’azienda si trova a dover gestire grandi quanti-tà di dati rilevanti e continua-mente freschi provenienti da canali distributivi diversi, senza poter dedicare tempo alle ma-nutenzioni e agli spostamenti. La decisione, inevitabile, di rin-novare le architetture esistenti ha fatto perno sull’esigenza pri-maria della scalabilità, ma an-che sulla possibilità di azzerare i fermi macchina e consentire rapide rivisitazioni d’uso. In so-stanza, l’IT di SGM doveva po-

ter contare su un’infrastruttura tecnologica in grado di evolve-re in maniera dinamica rispetto alle esigenze del business, che consentisse di accedere velo-cemente ai dati a seconda delle necessità di ogni specifico mo-mento.

Un’implementazionerapida ed efficienteSe la tecnologia deve essere un abilitatore del business, è necessario che sia utilizzabile facilmente e deve consentire rapidamente l’analisi del dato e dell’informazione. La sem-plicità d’uso deve essere vista prioritariamente orientata al utente del sistema ma conse-

guentemente lo deve essere anche per chi, operando sulle tecnologie, ne deve fornire la soluzione tecnica in tempi ra-pidi.

LapiattaformaXIVèstatalari-sposta completa alle richieste di SGM in ambito storage. Non solo. L’installazione e la mes-sa in produzione del nuovo sistema sono state realizzate in tempi estremamente brevi, con un impiego ridotto di ri-sorse umane, senza alcun im-patto sulle attività del gruppo, facendo sì che un importante cambio di tecnologia fosse re-alizzata con un’azione traspa-rente all’utente finale.

Page 19: Gartner

19

CONSOLIDAMENTO E SICUREZZA IN CASA TREVALLI COOPERLAT Trevalli Cooperlat è nata nel 1982 su iniziati-

va della Confcooperative Marche tra nove cooperative agricole e ha seguito negli anni un percorso di crescita continua fatto di nuove ac-quisizioni, tanto da diventare oggi una grande realtà agroalimentare che raggruppa undici coo-perative agricole e opera in nove regioni italiane. Ne fanno parte oltre mille allevatori, mentre il fat-turato supera i 220 milioni di euro.

All’IT di Trevalli Cooperlat viene richiesto ingenerale un servizio che possa gestire veloce-mente i cambiamenti strutturali e logistici che l’azienda persegue per il proprio business in ter-mini di accorpamenti, acquisizioni, dislocazioni, razionalizzazioni. Occorre, inoltre, far fronte alla crescente informatizzazione dei reparti produtti-vi con sistemi sicuri e sempre accessibili, gover-nare i costi di gestione del data center, avere a disposizione strumenti per la tutela dell’integrità delle informazioni, per la continua disponibilità delle informazioni per le strutture autorizzate e per la costante valutazione delle possibili debo-lezze del sistema informativo aziendale.

Questi sono gli elementi che hanno convinto il management di Trevalli Cooperlat a ristruttura-re la propria infrastruttura informatica, in modo tale da renderla flessibile e pronta a rispondere velocemente ai cambiamenti, aperta alle nuove tecnologie e scalabile velocemente in termini di processore, memoria e disco e performance.

Dopo un iniziale assessment infrastrutturale af-fidato a IBM, la soluzione progettuale scelta da Trevalli Cooperlat, fornita e realizzata con il sup-portodelbusinesspartnerEUROLAB,prevedel’utilizzo di soluzioni tecnologiche innovative, che spaziano dal consolidamento di tutti i ses-santa server fisiciWindows/Linux in ambienteVMware su un IBMBladeCenterH con 2 lameHX5aquellodeitresistemiiSeriesperSAPat-traverso l’inserimento, nello stesso BladeCenter H, di una lama POWER7 PS702 a 6 core.

Dal punto di vista dello storage, ora un unico sistema IBMStorwizeV7000contienesia i vo-lumi open che i volumi iSeries con disponibilità di32,5TbsudischiSAS2e2,7TbsuSSDconattiva funzionalità Easy Tier. IBMSANVolumeController(SVC)sioccupadellavirtualizzazionedello storage, integrando le funzionalità di thin provisioning e flash copy, la prima per avere la possibilità di assegnare anche grandi volumi a macchine di test andando oltre le capacità reali assegnate e la seconda per una nuova politica di backup, che permetta di minimizzare l’indispo-nibilità dei sistemi per queste funzioni.

La revisione delle politiche di backup sfrutta le potenzialità di IBM Tivoli Storage Manager per poter gestire direttamente gli snapshot dell’am-bienteVMwareperilmondoopen.elaflashcopydiSANVolumeControllerperilmondoiSeries.L’infrastruttura di backup ha uno storage pool a disco di 20Tb su un sistema IBM DS3500, 2 tape IBM TS3200 rispettivamente uno per il mondo open con 4 drive e l’altro per i sistemi iseries con 2 drive, connessione in fibra 4GB con un lama IBM HS22 che funge da server Tivoli.

Il nuovo data center ha portato a significativi ri-sparmi energetici, con una riduzione dei consu-mi di circa il 33%.

Page 20: Gartner

20

Se desiderate maggiori informazioni o approfondimenti,

visitate i seguenti indirizzi:

www.ibm.com/systems/it/storage/http://www.ibm.com/systems/storage/index.html

IBM e il logo IBM, sono marchi registrati di International Business Machines Corporation in diversi Paesi del mondo. La lista aggiornata dei marchi registrati di IBM è disponibile sul sito www.ibm.com/legal/copytrade.shtml, alla voce “Copyright and trademark information”.

Intel, il logo Intel, Intel Inside e Intel Xeon sono marchi registrati di Intel Corporation o delle sue filiali negli Stati Uniti e/o in altri Paesi. Linux è un marchio registrato di Linus Torvalds negli Stati Uniti e/o in altri Paesi.

Altre denominazioni ivi citate possono essere marchi registrati dei rispettivi titolari.

Questa pubblicazione è fornita solo a titolo informativo. Le informazioni sono soggette a modifiche senza preavviso. Per le informazioni più aggiornate sui prodotti e sui servizi IBM visitate la home page di IBM Italia.

© Copyright IBM Corporation 2012. Tutti i diritti riservati.

Efficienza e ottimizzazione diventano native nello storage IBM. La fornitura editoriale di IBM è indipendente dall’analisi di Gartner. Tutta la ricerca Gartner è protetta da © 2012 di Gartner, Inc. Tutti i diritti riservati. Tutto il materiale Gartner è utilizzato con il consenso di Gartner. L’uso o la pubblicazione della ricerca Gartner non indica l’approvazione da parte di Gartner dei prodotti e/o delle strategie di IBM. La riproduzione o la distribuzione di questa pubbli-cazione in qualsiasi forma, senza previo consenso scritto, è vietata. Le informazioni contenute in questo documento sono state ottenute da fonti ritenute attendibili. Gartner non fornisce alcuna garanzia sull’accuratezza, la completezza o l’adeguatezza di tali informazioni. Gartner declina ogni responsabilità in caso di errori, omissioni o inadeguatezza delle informazioni qui contenute o delle relative interpretazioni. Le opinioni qui espresse sono soggette a modifiche senza preavviso. Sebbene la ricerca Gartner possa prendere in esame aspetti legali correlati, Gartner non fornisce consulenza o servizi di natura legale e la sua ricerca non deve essere interpretata come tale. Gartner è una società pubblica e tra i suoi azionisti possono figurare aziende e finanziatori con interessi economici nelle entità di cui si occupa la ricerca Gartner. Del consiglio di amministrazione Gartner possono far parte alcuni senior manager di queste aziende o di questi fondi. La ricerca realizzata da Gartner è indipendente dall’organizzazione di ricerca e non subisce influenze né pressioni da parte delle aziende, dei finanziatori o dei loro responsabili. Per ulteriori informazioni sull’indipendenza e l’integrità della ricerca Gartner, consultare “Gui-ding Principles on Independence and Objectivity” (Principi guida di indipendenza e obiettività) sul sito Web http://www.gartner.com/technology/about/ombudsman/omb_guide2.jsp.