a 30 anni dal primo numero, - eng.it · people do.” (jonathan gray) a 30 anni dal primo numero,...

28

Upload: phungthuan

Post on 08-Nov-2018

218 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione
Page 2: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

“DATASETS CAN’T CHANGE THE WORLD. PEOPLE DO.” (Jonathan Gray)

A 30 anni dal primo numero, torna Ingenium sul web.Lo festeggiamo con un numero speciale cartaceo!

NGENIUM COME INGEGNO. Perché è l’ingegno che governa l’innovazione. Da monografia cartacea a web magazine, è tornato Ingenium, la storica rivista aziendale di Engineering che, nata 30 anni fa, è stata un punto di riferimento informativo e culturale sui temi tecnologici più innovativi fino al 2000.Un percorso che parte quindi da molto lontano, da quella carta alla quale torniamo oggi con questo numero speciale in occasione del Kick-Off 2017.Un percorso che, pur nel cambiamento degli strumenti disponibili, dei contesti di riferimento e dello scenario complessivo, non ha cambiato direzione: supportare il processo di crescita e di evoluzione delle organizzazioni attraverso la tecnologia.

Il nuovo Ingenium adotta la grammatica del web 2.0 e dei social media, ma non dimentica l’attenzione all’approfondimento, allo scambio, alla funzione di supporto e guida per quanti quotidianamente fanno dell’innovazione una leva di crescita.Affronta il tema della digital transformation partendo dalla cultura del dato. Lo fa parlando di persone, di società, di tecnologie e di mercato, attraverso la storia di chi operail cambiamento quotidianamente e la vision di chi genera la trasformazione con il proprio lavoro.

Vuole essere un alleato per chi fa innovazione, fornendo spunti, idee, strumenti interpretativi e chiavi di lettura, ma anche un luogo di scambio e confronto sui temi cruciali per la crescita delle aziende e, con esse, della società e del Paese.

Per il nuovo progetto editoriale che si avvale del contributo di molti autori tra colleghi, docenti universitari e opinion leader abbiamo scelto un partner qualificato come Tech Economy, un portale di informazione, punto di riferimento fondamentale per comprendere l’innovazionee i processi di cambiamento nel nostro Paese e a livello internazionale.

Ho lavorato alla rivista precedente per diversi anni e sono convinta che un’azienda come Engineering, che oggi come allora fa innovazione e contribuisce a costruire il futuro, possa e debba essere anche un luogo di incontro e dibattito sui temi della trasformazione digitale.

M. Concetta Lattanzio@concilattanzio

Responsabile Editoriale Ingenium

Direttore Comunicazione Engineering

Stefano Epifani@stefanoepifani Direttore Responsabile Ingenium

Chief Editor Tech Economy

Page 3: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

>> L’innovazione parte dalla nostra capacità di analizzare processi, mercati, tendenze e persone.

PARTE DALLA NOSTRA CAPACITÀ DI LEGGERE IL CONTESTO e comprenderne la direzione. Parte, talvolta, dalla capacità di anticipare il cambiamento. E per anticipare il cambiamento servono dati, informazioni, conoscenza.Quei dati, quell’informazione e quella conoscenza che rappresentano spesso il principale cruccio delle organizzazioni - dalle più semplici alle più complesse - che si rendono conto che la gestione di tali elementi è un driver strategico,ma che di rado riescono a concentrarsi realmente sul problema. Un po’ perché le perline colorate sono più attraenti e fanno più scena, un po’ perché la prima reazione ai problemi più gravi è spesso un poco risolutivo fenomeno di rimozione. Un po’, in fondo, perchè è difficile ammettere chein un momento in cui dovremmo parlare di come la digital transformation stia cambiando il senso delle cose siamo ancora fermi a ragionare di automazione dei processi. Quegli stessi processi che mentre tentiamo di automatizzarli sono totalmente cambiati, con lo sconfortante risultato di automatizzare, nella migliore delle ipotesi, processi estinti.

>> Insomma, per parlare davvero di innovazione e di trasformazione digitale non si può non partire dalla sostanza delle cose: i dati.

IL MODO IN CUI ESSI POSSONO E DEVONO ESSERE ELABORATI per estrarre informazione. Le modalitàcon le quali tale informazione si trasforma in conoscenza. Big Data, Social Media, Internet of Things, Industry 4.0, Sharing Economy sono tutte realtà (e qualche buzzword) che ruotano attorno a questo semplice, fondamentale e troppo spesso ignorato punto. Per questo Engineering e Tech Economy hanno deciso di sviluppare un nuovo progetto editoriale, Ingenium: nome noto a chi ruota attorno al mondo di Engineering, che con questa iniziativa rinnova in chiave di rete un’esperienza che fa parte della sua tradizione, conscia del fatto che la tradizione non è altro che un’innovazioneche ha avuto successo.

il dato al centro della trasformazione digitale

INNOVAZIONE CHIAMA CULTURA DEL DATO, INFORMAZIONE E CONOSCENZA

PESSO, TROPPO SPESSO, quando qualcuno ci indica la luna finiamo per concentrarci sul dito. E così, pensando alla digital transformation, ci vengono in mente droni, stampanti 3D, sistemi di digital manifacturing, e chi più ne ha più ne metta. Peccato, però, che si rischi di perdere di vista la reale essenza delle cose. Senza la quale, al di là degli effetti speciali e delle meraviglie tecnologiche che talvolta sembrano avere sull’innovatore incauto lo stesso effetto delle biglie colorateper gli indiani (pardon, per i nativi americani), nulla funzionerebbe. Ciò che è alla base di tutto: il dato.Innovazione e trasformazione digitale, concetti e temi di cui tanto (troppo) si parla oggi, nulla potrebbero se non ci si basasse sulla necessità di gestire dati per creare informazione e generare conoscenza. Le prime vittime della trasformazione digitale sono coloro, gli innovatori incauti appunto, che si convincono o si lasciano convincere da loschi druidi del cacciavite che l’innovazione parta dalle tecnologie. Nulla di più sbagliato.

3

Stefano Epifani@stefanoepifani Direttore Responsabile Ingenium

Chief Editor Tech Economy

“DATASETS CAN’T CHANGE THE WORLD. PEOPLE DO.” (Jonathan Gray)

A 30 anni dal primo numero, torna Ingenium sul web.Lo festeggiamo con un numero speciale cartaceo!

NGENIUM COME INGEGNO. Perché è l’ingegno che governa l’innovazione. Da monografia cartacea a web magazine, è tornato Ingenium, la storica rivista aziendale di Engineering che, nata 30 anni fa, è stata un punto di riferimento informativo e culturale sui temi tecnologici più innovativi fino al 2000.Un percorso che parte quindi da molto lontano, da quella carta alla quale torniamo oggi con questo numero speciale in occasione del Kick-Off 2017.Un percorso che, pur nel cambiamento degli strumenti disponibili, dei contesti di riferimento e dello scenario complessivo, non ha cambiato direzione: supportare il processo di crescita e di evoluzione delle organizzazioni attraverso la tecnologia.

Il nuovo Ingenium adotta la grammatica del web 2.0 e dei social media, ma non dimentica l’attenzione all’approfondimento, allo scambio, alla funzione di supporto e guida per quanti quotidianamente fanno dell’innovazione una leva di crescita.Affronta il tema della digital transformation partendo dalla cultura del dato. Lo fa parlando di persone, di società, di tecnologie e di mercato, attraverso la storia di chi operail cambiamento quotidianamente e la vision di chi genera la trasformazione con il proprio lavoro.

Vuole essere un alleato per chi fa innovazione, fornendo spunti, idee, strumenti interpretativi e chiavi di lettura, ma anche un luogo di scambio e confronto sui temi cruciali per la crescita delle aziende e, con esse, della società e del Paese.

Per il nuovo progetto editoriale che si avvale del contributo di molti autori tra colleghi, docenti universitari e opinion leader abbiamo scelto un partner qualificato come Tech Economy, un portale di informazione, punto di riferimento fondamentale per comprendere l’innovazionee i processi di cambiamento nel nostro Paese e a livello internazionale.

Ho lavorato alla rivista precedente per diversi anni e sono convinta che un’azienda come Engineering, che oggi come allora fa innovazione e contribuisce a costruire il futuro, possa e debba essere anche un luogo di incontro e dibattito sui temi della trasformazione digitale.

M. Concetta Lattanzio@concilattanzio

Responsabile Editoriale Ingenium

Direttore Comunicazione Engineering

Stefano Epifani@stefanoepifani Direttore Responsabile Ingenium

Chief Editor Tech Economy

Page 4: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

LEGGENDO IL RAPPORTO “THE FUTURE OF JOBS DEL WORLD ECONOMIC FORUM” possiamo trovare un dato interessante ed anche un po’ inquietante: il 65% dei bambini che attualmente entrano nelle scuole primarie farà dei lavori completamente nuovi, lavori che oggi non esistono ancora. A pensarci bene questo non è poi così strano, se infatti proviamo a guardare indietro di una decina d’anni, moltissimi lavori che oggi consideriamo normali, non esistevano affatto. Solo per rimanere in ambito tecnologico possiamo citare: lo sviluppatore di app, il social media manager, il venditore di pubblicità sui social network, il pilota certificato di droni e multi-rotori, ecc. Noi stessi, con tutta probabilità, abbiamo dovuto mutare la nostra professionalità ed aumentare le nostre competenze per far fronte ai cambiamenti tecnologici e sociali che si sono verificati negli ultimi anni. Inoltre chi opera nel campo tecnologico e dell’innovazione deve essere il più possibile preparato non soltanto per curarela propria professionalità, ma anche per aiutare i propri clienti ad affrontare nel modo migliore il loro posizionamento su un mercato in veloce trasformazione, sia dal punto di vista tecnologico che da quello dei nuovi modelli di business che verranno. Vediamo quindi cosa possiamo aspettarci in termini tecnologici dai prossimi anni, dandoci come orizzonte il 2030.

Il futuro che ci aspettaMassimo Canducci@mcanducci

Laureato in Scienze dell’Informazione e in Tecnologia della Comunicazione, è Innovation Manager in Engineering dove si occupa di innovazione in tutti i suoi aspetti, dalla collaborazione e coordinamento di progetti di ricerca, alla consulenza e formazione specializzata. Professore a contratto di Innovation Management all’Università di Torino e di Consultancy and Soft Skills all’Università di Pavia, fa parte dell’Advisory Board di Uninfo e del Consiglio Direttivo dell’Università di Firenze.

ROBOTICA AL SERVIZIO DEL CONSUMATORE. Siamo abituatia pensare ai robot come macchine veloci ed efficienti in grado di automatizzare intere catene di produzione o linee logistiche. L’esperienza accumulata in decenni di perfezionamento industriale consentirà di avere macchine al servizio diretto del consumatore, sostituendo in molti casi l’uomo in compiti di servizio, ad esempio il commesso in un punto vendita. Già oggi ci sono esempi di punti vendita semi-automatici in cui il consumatore si serve in autonomia e paga da solo alla cassa oppure, come nel caso degli shop Amazon sperimentali, non effettua direttamente il pagamento, ma si ritroverà la spesa addebitata automaticamente sulla sua carta di credito. Nel prossimo futuro avremo invece macchine in grado di gestire un punto vendita in modo simile a come farebbe una persona in carne ed ossa, questa modalità troverà applicazione primaria in contesti particolari come la vendita dei farmaci, degli alcolici o dei tabacchi. Si tratta infatti di verificare che il consumatore abbia effettivamente la titolarità per acquistare quel prodotto e in che quantità. Inoltre, grazie alla raccolta automatica dei dati di vendita, sarà possibile effettuare analisi dettagliate sui comportamenti dei consumatori.

MILLE MILIARDI DI OGGETTI CONNESSI. Quello che oggi concepiamo come Internet of Things sarà in effetti più vicinaal concetto di Internet of Everything. L’aumento enorme di oggettistica connessa dipenderà da diversi fattori: la diminuzione del costodei sensori, l’aumento della potenza di calcolo dei chip a paritàdi dimensione, il diminuire del consumo energetico, il miglioramento delle prestazioni delle batterie, l’adozione completa di IPv6 che consentirà di avere circa 3,4 x 1038 indirizzi IP pubblici disponibili. Questo scenario consentirà di avere circa mille miliardi di oggetti connessi alla rete: dal frigorifero in grado di fare la spesa autonomamente, alle scarpe da corsa capaci di avvisare l’utilizzatore quando è ora di sostituirle, dai singoli pacchi che vengono speditiper posta o tramite corriere e che potranno essere rintracciatiin qualunque parte del mondo si trovino, ai vestiti in grado di fornire

alla rete informazioni su clima, qualità dell’aria, traffico ed eventi straordinari. Qualunque oggetto fisico sarà potenzialmente collegabile alla rete con l’obiettivo di fornire servizi o di raccogliere dati da mettere a disposizione della rete stessa.

BIG DATA. Tutto questo aumenterà di diversi ordini di grandezzala quantità di dati resi disponibili alla rete, si stima che l’universo dei dati a disposizione si espanderà dagli attuali 10 zettabyte a circa 200 zettabyte entro il 2030 (200 miliardi di terabyte), dati che dovranno essere gestiti ed utilizzati nel modo migliore. Dal punto di vista concettuale saremo in grado di prevenire e controllare qualunque tipo di fenomeno, naturale o sociale, per il quale esistano abbastanza informazioni ed adeguati modelli matematici. Potremo avere una migliore consapevolezza su come utilizziamo il nostro tempo e le nostre risorse, i nostri parametri vitali saranno costantemente monitorati in modo da avvisarci di potenziali comportamenti pericolosi ed eventuali situazioni di rischio per la nostra salute ci verranno notificate con molto anticipo, in modo da poter consultare al più presto il nostro medico di fiducia. Questi dati consentiranno di individuare comportamenti criminali in alcuni casi anche prima che il crimine si verifichi realmente. Saremo in grado di predire dove alcuni crimini potranno essere compiuti ed anche quali profili personali e comportamentali avrannole vittime ed i criminali. Una volta resi pubblici, questi dati avranno effetto anche sul mercato immobiliare delle varie zone delle città, in quanto a zone più pericolose si assoceranno prezzi delle case più bassi e viceversa.La manipolazione e la gestione di queste enormi quantità di dati verranno effettuate con strumenti sempre meno costosi, alcuni stati inizieranno a censire la popolazione utilizzando i dati disponibili ed aggiorneranno in questo modo i dati ufficiali del censimento della popolazione. Sempre di più chi controlla il dato avrà influenza e potere, sia dal punto di vista del condizionamento diretto, sia da quello dell’efficacia dei messaggi promozionali che saranno sempre più orientati direttamente alla singola persona, uscendo dalla logica attuale basata sui target di utenza.

INTELLIGENZA ARTIFICIALE E ADVANCED MACHINE LEARNING.La dimensione e la varietà dei dati disponibili consentirà di realizzare strumenti “intelligenti” in grado di prendere decisioni, ma anche di apprendere nuovi comportamenti da attuare sulla base degli eventi. Utilizzando i dati esistenti, attraverso il riconoscimento di specifici pattern comportamentali e con l’utilizzo di reti neurali artificiali, i sistemi di Advanced Machine Learning saranno sempre più in grado di utilizzare algoritmi adattativi, capaci cioè di modificare il loro comportamento non soltanto in funzione della conoscenza di base, ma anche dall’esperienza accumulata in precedenza.Questo consentirà alle macchine di relazionarsi con l’uomo in modo sempre più indistinguibile da un vero essere umano, ci avvicineremo sempre più, quindi, a macchine in grado di superare il test di Turing, macchine esperte, adattative ed in grado di utilizzare sempre più il linguaggio naturale. Questo tipo di tecnologia consentirà di utilizzare queste macchine con estrema efficienza in compiti anche complessi come il prendere decisioni societarie. Mentre oggi si utilizza la Data Analytics come strumento di ausilio nel prendere decisioni, entro pochi anni alcune decisioni strategiche di grandi aziende nel mondo potrebbero essere assunte direttamente da questi sistemi, con o senza il controllo e l’approvazione dell’uomo.

VEICOLI INTELLIGENTI E AUTONOMI. Il numero di autovetture a guida autonoma sulle strade aumenterà in modo sensibile, i dubbi e le incertezze causate dalla mancanza del controllo umano verranno superati dai dati a disposizione, che dimostreranno che questi veicoli risulteranno enormemente più sicuri dei veicoli tradizionali. Saranno tutti connessi ad un’unica rete, a questa forniranno tutti i dati rilevati dalla sensoristica di bordo e dalla stessa rete preleveranno tutti i dati necessari ad ottimizzare il percorso, sia dal punto di vista dell’efficienza nei consumi che da quello della sicurezza. Non saranno necessariamente autovetture, potranno essere anche mezzi di trasporto merci su strada e anche veicoli volanti come droni e multi-rotori, tutti connessi alla stessa rete e tutti fornitori e consumatori di dati utili all’efficienza ed alla sicurezza.Saranno tutti veicoli elettrici in grado di determinare in autonomia come e dove ricaricarsi e sarà virtualmente impossibile che si verifichi un incidente tra due di essi.

“Cosa possiamo aspettarci in termini tecnologici dai prossimi anni, dandoci come orizzonte il 2030?”

IL FUTURO CHE CI ASPETTA sarà quindi costellato da rilevanti cambiamenti tecnologici che avranno impatto sui nostri comportamenti e determineranno nuove modalità con cui ci relazioneremo con la tecnologia. L’unionedi sensori biologici, dati, intelligenza artificiale e advanced machine learning consentirà di valutare molto meglio le nostre condizioni di salute e di intercettare in anticipo eventuali segnali di pericolo. Allo stesso tempo però, questa enorme mole di dati presente sulla rete indurrà a riflettere su tematiche di sicurezza ed inviolabilitàdelle informazioni personali e su quelle legate alla privacy. Se da un lato i veicoli autonomi ci trasporteranno ovunque a prezzi bassissimi, va considerato che la nostra posizione geografica sarà sempre un dato presente sulla rete, così come le nostre condizioni di salute, i nostri consumi e le nostre preferenze in vari ambiti, anche personali. Sarà quindi necessario normare l’utilizzo di questi dati, anche per impedire che vengano usati per scopi legati al controllo non democratico delle popolazioni.

UN ALTRO ASPETTO DA CONSIDERARE CON ATTENZIONE è l’impatto occupazionale: la distribuzione di robot per svolgere compiti fisici e ripetitivi e la disponibilità di macchine intelligenti in grado di prendere decisioni complesse e strategiche, sono fenomeni che potrebbero causare una diminuzione della forza lavoro in molti ambiti. Se sapremo gestire questo fenomeno non avremo una riduzione del numero dei lavoratori, ma a cambiare sarà la natura stessa del lavoro. Le persone dovranno acquisire nuove abilità ed è quindi, già oggi, compitodella scuola indirizzare correttamente i ragazzi alle competenze necessarie per vivere e lavorare nel futuro checi aspetta, un futuro che molti di noi non vedono l’ora di conoscere.

SOCIETY VISION

4

Page 5: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

Il futuro che ci aspetta

INTELLIGENZA ARTIFICIALE E ADVANCED MACHINE LEARNING.La dimensione e la varietà dei dati disponibili consentirà di realizzare strumenti “intelligenti” in grado di prendere decisioni, ma anche di apprendere nuovi comportamenti da attuare sulla base degli eventi. Utilizzando i dati esistenti, attraverso il riconoscimento di specifici pattern comportamentali e con l’utilizzo di reti neurali artificiali, i sistemi di Advanced Machine Learning saranno sempre più in grado di utilizzare algoritmi adattativi, capaci cioè di modificare il loro comportamento non soltanto in funzione della conoscenza di base, ma anche dall’esperienza accumulata in precedenza.Questo consentirà alle macchine di relazionarsi con l’uomo in modo sempre più indistinguibile da un vero essere umano, ci avvicineremo sempre più, quindi, a macchine in grado di superare il test di Turing, macchine esperte, adattative ed in grado di utilizzare sempre più il linguaggio naturale. Questo tipo di tecnologia consentirà di utilizzare queste macchine con estrema efficienza in compiti anche complessi come il prendere decisioni societarie. Mentre oggi si utilizza la Data Analytics come strumento di ausilio nel prendere decisioni, entro pochi anni alcune decisioni strategiche di grandi aziende nel mondo potrebbero essere assunte direttamente da questi sistemi, con o senza il controllo e l’approvazione dell’uomo.

VEICOLI INTELLIGENTI E AUTONOMI. Il numero di autovetture a guida autonoma sulle strade aumenterà in modo sensibile, i dubbi e le incertezze causate dalla mancanza del controllo umano verranno superati dai dati a disposizione, che dimostreranno che questi veicoli risulteranno enormemente più sicuri dei veicoli tradizionali. Saranno tutti connessi ad un’unica rete, a questa forniranno tutti i dati rilevati dalla sensoristica di bordo e dalla stessa rete preleveranno tutti i dati necessari ad ottimizzare il percorso, sia dal punto di vista dell’efficienza nei consumi che da quello della sicurezza. Non saranno necessariamente autovetture, potranno essere anche mezzi di trasporto merci su strada e anche veicoli volanti come droni e multi-rotori, tutti connessi alla stessa rete e tutti fornitori e consumatori di dati utili all’efficienza ed alla sicurezza.Saranno tutti veicoli elettrici in grado di determinare in autonomia come e dove ricaricarsi e sarà virtualmente impossibile che si verifichi un incidente tra due di essi.

IL FUTURO CHE CI ASPETTA sarà quindi costellato da rilevanti cambiamenti tecnologici che avranno impatto sui nostri comportamenti e determineranno nuove modalità con cui ci relazioneremo con la tecnologia. L’unionedi sensori biologici, dati, intelligenza artificiale e advanced machine learning consentirà di valutare molto meglio le nostre condizioni di salute e di intercettare in anticipo eventuali segnali di pericolo. Allo stesso tempo però, questa enorme mole di dati presente sulla rete indurrà a riflettere su tematiche di sicurezza ed inviolabilitàdelle informazioni personali e su quelle legate alla privacy. Se da un lato i veicoli autonomi ci trasporteranno ovunque a prezzi bassissimi, va considerato che la nostra posizione geografica sarà sempre un dato presente sulla rete, così come le nostre condizioni di salute, i nostri consumi e le nostre preferenze in vari ambiti, anche personali. Sarà quindi necessario normare l’utilizzo di questi dati, anche per impedire che vengano usati per scopi legati al controllo non democratico delle popolazioni.

UN ALTRO ASPETTO DA CONSIDERARE CON ATTENZIONE è l’impatto occupazionale: la distribuzione di robot per svolgere compiti fisici e ripetitivi e la disponibilità di macchine intelligenti in grado di prendere decisioni complesse e strategiche, sono fenomeni che potrebbero causare una diminuzione della forza lavoro in molti ambiti. Se sapremo gestire questo fenomeno non avremo una riduzione del numero dei lavoratori, ma a cambiare sarà la natura stessa del lavoro. Le persone dovranno acquisire nuove abilità ed è quindi, già oggi, compitodella scuola indirizzare correttamente i ragazzi alle competenze necessarie per vivere e lavorare nel futuro checi aspetta, un futuro che molti di noi non vedono l’ora di conoscere.

OGGETTI STAMPATI IN 3D. Le tecnologie di stampa 3D saranno rivoluzionate dalla possibilità di stampare oggetti complessi e nuovi materiali in tempi sempre più brevi e con costi sempre più bassi. Questo consentirà di stampare in 3D oggetti di uso comune, indipendentemente da forma e materiali, inoltre non sarà più necessario modificare le linee di produzione per inserire variazioni ai prodotti, sarà sufficiente modificare i modelli di stampa.Questo tipo di tecnologia consentirà di “stampare” anche tessuti biologici fino ad arrivare alla produzione di veri e propri organi semplici funzionanti. La stampa di materiale biologico misto a materiale tecnologico consentirà la produzione di chip di varia natura (stimolatori cardiaci o i sensori di rilevamento dei parametri vitali) in grado di essere impiantati senza il rischio di rigetto.Un ulteriore passo avanti si avrà con l’utilizzo di materiali a memoria di forma, grafene, nuove tipologie di polimeri e nano compositi. Questi materiali innovativi, dei quali non si conoscono ancora tutte le caratteristiche e le potenzialità, potranno essere stampati in 3D insieme a materiali biologici, tecnologici e tradizionali, aprendo le porte ad utilizzi al momento impensabili.

DISPOSITIVI PERSONALI. Quello che oggi siamo abituati a chiamare smartphone cambierà sempre più natura e caratteristiche diventando il vero centro di controllo della nostra vita reale, così come della nostra presenza virtuale. La componente telefonica perderà progressivamente di importanza, diventando una delle varie forme di comunicazione abilitate dal dispositivo. Le migliorate capacità di calcolo, l’eccezionale durata della batteria e l’enorme spazio di archiviazione metteranno questi dispositivi al centro della nostra esistenza. Il concetto di “sincronizzazione” dei dati tra un dispositivo personale ed un computer, come lo intendiamo oggi, perderà di significato in quanto le postazioni fisse non avranno più capacità computazionale né spazio di archiviazione, forniranno unicamente dispositivi di input e display. Tutta la potenza di calcolo, di archiviazione ed i software saranno forniti direttamente dal nostro dispositivo personale che sarà collegato in modalità wireless alle appendici tecnologiche che ci serviranno di volta in volta. Il concetto stesso di “spazio di archiviazione” perderà significato, tutti i nostri dati e le nostre applicazioni saranno su spazi cloud costantemente sincronizzati ed automaticamente soggetti a backup. La qualità della connettività migliorerà sempre più nel tempo diventando una commodity di cui non dovremo più preoccuparci.

5

LEGGENDO IL RAPPORTO “THE FUTURE OF JOBS DEL WORLD ECONOMIC FORUM” possiamo trovare un dato interessante ed anche un po’ inquietante: il 65% dei bambini che attualmente entrano nelle scuole primarie farà dei lavori completamente nuovi, lavori che oggi non esistono ancora. A pensarci bene questo non è poi così strano, se infatti proviamo a guardare indietro di una decina d’anni, moltissimi lavori che oggi consideriamo normali, non esistevano affatto. Solo per rimanere in ambito tecnologico possiamo citare: lo sviluppatore di app, il social media manager, il venditore di pubblicità sui social network, il pilota certificato di droni e multi-rotori, ecc. Noi stessi, con tutta probabilità, abbiamo dovuto mutare la nostra professionalità ed aumentare le nostre competenze per far fronte ai cambiamenti tecnologici e sociali che si sono verificati negli ultimi anni. Inoltre chi opera nel campo tecnologico e dell’innovazione deve essere il più possibile preparato non soltanto per curarela propria professionalità, ma anche per aiutare i propri clienti ad affrontare nel modo migliore il loro posizionamento su un mercato in veloce trasformazione, sia dal punto di vista tecnologico che da quello dei nuovi modelli di business che verranno. Vediamo quindi cosa possiamo aspettarci in termini tecnologici dai prossimi anni, dandoci come orizzonte il 2030.

Il futuro che ci aspettaMassimo Canducci@mcanducci

Laureato in Scienze dell’Informazione e in Tecnologia della Comunicazione, è Innovation Manager in Engineering dove si occupa di innovazione in tutti i suoi aspetti, dalla collaborazione e coordinamento di progetti di ricerca, alla consulenza e formazione specializzata. Professore a contratto di Innovation Management all’Università di Torino e di Consultancy and Soft Skills all’Università di Pavia, fa parte dell’Advisory Board di Uninfo e del Consiglio Direttivo dell’Università di Firenze.

ROBOTICA AL SERVIZIO DEL CONSUMATORE. Siamo abituatia pensare ai robot come macchine veloci ed efficienti in grado di automatizzare intere catene di produzione o linee logistiche. L’esperienza accumulata in decenni di perfezionamento industriale consentirà di avere macchine al servizio diretto del consumatore, sostituendo in molti casi l’uomo in compiti di servizio, ad esempio il commesso in un punto vendita. Già oggi ci sono esempi di punti vendita semi-automatici in cui il consumatore si serve in autonomia e paga da solo alla cassa oppure, come nel caso degli shop Amazon sperimentali, non effettua direttamente il pagamento, ma si ritroverà la spesa addebitata automaticamente sulla sua carta di credito. Nel prossimo futuro avremo invece macchine in grado di gestire un punto vendita in modo simile a come farebbe una persona in carne ed ossa, questa modalità troverà applicazione primaria in contesti particolari come la vendita dei farmaci, degli alcolici o dei tabacchi. Si tratta infatti di verificare che il consumatore abbia effettivamente la titolarità per acquistare quel prodotto e in che quantità. Inoltre, grazie alla raccolta automatica dei dati di vendita, sarà possibile effettuare analisi dettagliate sui comportamenti dei consumatori.

MILLE MILIARDI DI OGGETTI CONNESSI. Quello che oggi concepiamo come Internet of Things sarà in effetti più vicinaal concetto di Internet of Everything. L’aumento enorme di oggettistica connessa dipenderà da diversi fattori: la diminuzione del costodei sensori, l’aumento della potenza di calcolo dei chip a paritàdi dimensione, il diminuire del consumo energetico, il miglioramento delle prestazioni delle batterie, l’adozione completa di IPv6 che consentirà di avere circa 3,4 x 1038 indirizzi IP pubblici disponibili. Questo scenario consentirà di avere circa mille miliardi di oggetti connessi alla rete: dal frigorifero in grado di fare la spesa autonomamente, alle scarpe da corsa capaci di avvisare l’utilizzatore quando è ora di sostituirle, dai singoli pacchi che vengono speditiper posta o tramite corriere e che potranno essere rintracciatiin qualunque parte del mondo si trovino, ai vestiti in grado di fornire

alla rete informazioni su clima, qualità dell’aria, traffico ed eventi straordinari. Qualunque oggetto fisico sarà potenzialmente collegabile alla rete con l’obiettivo di fornire servizi o di raccogliere dati da mettere a disposizione della rete stessa.

BIG DATA. Tutto questo aumenterà di diversi ordini di grandezzala quantità di dati resi disponibili alla rete, si stima che l’universo dei dati a disposizione si espanderà dagli attuali 10 zettabyte a circa 200 zettabyte entro il 2030 (200 miliardi di terabyte), dati che dovranno essere gestiti ed utilizzati nel modo migliore. Dal punto di vista concettuale saremo in grado di prevenire e controllare qualunque tipo di fenomeno, naturale o sociale, per il quale esistano abbastanza informazioni ed adeguati modelli matematici. Potremo avere una migliore consapevolezza su come utilizziamo il nostro tempo e le nostre risorse, i nostri parametri vitali saranno costantemente monitorati in modo da avvisarci di potenziali comportamenti pericolosi ed eventuali situazioni di rischio per la nostra salute ci verranno notificate con molto anticipo, in modo da poter consultare al più presto il nostro medico di fiducia. Questi dati consentiranno di individuare comportamenti criminali in alcuni casi anche prima che il crimine si verifichi realmente. Saremo in grado di predire dove alcuni crimini potranno essere compiuti ed anche quali profili personali e comportamentali avrannole vittime ed i criminali. Una volta resi pubblici, questi dati avranno effetto anche sul mercato immobiliare delle varie zone delle città, in quanto a zone più pericolose si assoceranno prezzi delle case più bassi e viceversa.La manipolazione e la gestione di queste enormi quantità di dati verranno effettuate con strumenti sempre meno costosi, alcuni stati inizieranno a censire la popolazione utilizzando i dati disponibili ed aggiorneranno in questo modo i dati ufficiali del censimento della popolazione. Sempre di più chi controlla il dato avrà influenza e potere, sia dal punto di vista del condizionamento diretto, sia da quello dell’efficacia dei messaggi promozionali che saranno sempre più orientati direttamente alla singola persona, uscendo dalla logica attuale basata sui target di utenza.

INTELLIGENZA ARTIFICIALE E ADVANCED MACHINE LEARNING.La dimensione e la varietà dei dati disponibili consentirà di realizzare strumenti “intelligenti” in grado di prendere decisioni, ma anche di apprendere nuovi comportamenti da attuare sulla base degli eventi. Utilizzando i dati esistenti, attraverso il riconoscimento di specifici pattern comportamentali e con l’utilizzo di reti neurali artificiali, i sistemi di Advanced Machine Learning saranno sempre più in grado di utilizzare algoritmi adattativi, capaci cioè di modificare il loro comportamento non soltanto in funzione della conoscenza di base, ma anche dall’esperienza accumulata in precedenza.Questo consentirà alle macchine di relazionarsi con l’uomo in modo sempre più indistinguibile da un vero essere umano, ci avvicineremo sempre più, quindi, a macchine in grado di superare il test di Turing, macchine esperte, adattative ed in grado di utilizzare sempre più il linguaggio naturale. Questo tipo di tecnologia consentirà di utilizzare queste macchine con estrema efficienza in compiti anche complessi come il prendere decisioni societarie. Mentre oggi si utilizza la Data Analytics come strumento di ausilio nel prendere decisioni, entro pochi anni alcune decisioni strategiche di grandi aziende nel mondo potrebbero essere assunte direttamente da questi sistemi, con o senza il controllo e l’approvazione dell’uomo.

VEICOLI INTELLIGENTI E AUTONOMI. Il numero di autovetture a guida autonoma sulle strade aumenterà in modo sensibile, i dubbi e le incertezze causate dalla mancanza del controllo umano verranno superati dai dati a disposizione, che dimostreranno che questi veicoli risulteranno enormemente più sicuri dei veicoli tradizionali. Saranno tutti connessi ad un’unica rete, a questa forniranno tutti i dati rilevati dalla sensoristica di bordo e dalla stessa rete preleveranno tutti i dati necessari ad ottimizzare il percorso, sia dal punto di vista dell’efficienza nei consumi che da quello della sicurezza. Non saranno necessariamente autovetture, potranno essere anche mezzi di trasporto merci su strada e anche veicoli volanti come droni e multi-rotori, tutti connessi alla stessa rete e tutti fornitori e consumatori di dati utili all’efficienza ed alla sicurezza.Saranno tutti veicoli elettrici in grado di determinare in autonomia come e dove ricaricarsi e sarà virtualmente impossibile che si verifichi un incidente tra due di essi.

“Cosa possiamo aspettarci in termini tecnologici dai prossimi anni, dandoci come orizzonte il 2030?”

IL FUTURO CHE CI ASPETTA sarà quindi costellato da rilevanti cambiamenti tecnologici che avranno impatto sui nostri comportamenti e determineranno nuove modalità con cui ci relazioneremo con la tecnologia. L’unionedi sensori biologici, dati, intelligenza artificiale e advanced machine learning consentirà di valutare molto meglio le nostre condizioni di salute e di intercettare in anticipo eventuali segnali di pericolo. Allo stesso tempo però, questa enorme mole di dati presente sulla rete indurrà a riflettere su tematiche di sicurezza ed inviolabilitàdelle informazioni personali e su quelle legate alla privacy. Se da un lato i veicoli autonomi ci trasporteranno ovunque a prezzi bassissimi, va considerato che la nostra posizione geografica sarà sempre un dato presente sulla rete, così come le nostre condizioni di salute, i nostri consumi e le nostre preferenze in vari ambiti, anche personali. Sarà quindi necessario normare l’utilizzo di questi dati, anche per impedire che vengano usati per scopi legati al controllo non democratico delle popolazioni.

UN ALTRO ASPETTO DA CONSIDERARE CON ATTENZIONE è l’impatto occupazionale: la distribuzione di robot per svolgere compiti fisici e ripetitivi e la disponibilità di macchine intelligenti in grado di prendere decisioni complesse e strategiche, sono fenomeni che potrebbero causare una diminuzione della forza lavoro in molti ambiti. Se sapremo gestire questo fenomeno non avremo una riduzione del numero dei lavoratori, ma a cambiare sarà la natura stessa del lavoro. Le persone dovranno acquisire nuove abilità ed è quindi, già oggi, compitodella scuola indirizzare correttamente i ragazzi alle competenze necessarie per vivere e lavorare nel futuro checi aspetta, un futuro che molti di noi non vedono l’ora di conoscere.

SOCIETY VISION

4

Page 6: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

Fino alla fine di ottobre 2014, Pearse è stato vicecapo di gabinetto del Vicepresidente Neelie Kroes, Commissario europeo uscente per l’Agenda Digitale, a cui prestava consulenza per lo sviluppo e l’implementazione della politica in materia di reti e di servizi di comunicazione elettronica, banda larga, spettro e altre politiche connesse. In precedenza, Pearse era stato a capo dell’Unità per la Politica dello Spettro Radio della Commissione Europea, DG CONNECT. Le sue responsabilità comprendevano lo sviluppo e l’implementazione di politiche per un utilizzo efficiente dello spettro e un approccio coordinato nella gestione delle frequenze nell’UE. Ciò includeva anche lo sviluppo di misure di armonizzazione dello spettro nel campo delle comunicazioni elettroniche, incluso il dividendo digitale, e in altri settori del mercato interno, tra cui trasporti e ricerca.

Pearse O’Donohue @podcloudeu

È Direttore Responsabile per i Future Networks e Capo dell’Unità “Cloud and Software” di DG CONNECT presso la CommissioneEuropea, dove è responsabiledello sviluppo strategicoe dell’implementazione della politicain materia di cloud computinge di software e servizi.

TECH INTERVIEW

INTERVISTA A PEARSE O’DONOHUE

•• NEL 2011 LA COMMISSIONE EUROPEA HA LANCIATO L’INIZIATIVA “Future Internet Public-Private Partnership (FI-PPP)” volta ad affrontare le sfide di natura tecnologica, commerciale, sociale e amministrativa che dovranno essere superate per consentire all’Internet del Futuro di supportare la “società in rete” di domani. L’ultima fase dell’iniziativa FI-PPP (Fase 3) si è conclusa a settembre 2016 e i risultati sono pronti e già disponibili per la strategia go-to-market di FIWARE. È importante sottolineare la particolarità dell’approccio utilizzato rispetto ad altre Partnership Pubbliche-Private, focalizzate sulla realizzazione ed espansione di piattaforme “core” open source che creano strumenti specifici nell’ottica di uno sviluppo orientato alle PMI. Anche dopo l’iniziativa FI-PPP, il progetto FIWARE continua a supportare la competitività globale dell’economia dell’UE attraverso l’introduzione di un’infrastruttura innovativa volta a realizzare e diffondere in modo economicamente efficiente servizi Internet innovativi che assicurano un’elevata qualità del servizio e garanzie di sicurezza.FIWARE copre tutti i grandi temi che si trovano oggi ad affrontare gli sviluppatori (cloud, Internet delle Cose, Big Data, sicurezza, …) in un ambiente integrato facile da utilizzare. FIWARE continua la sua missione con l’organizzazione di eventi destinati al pubblico per estendere la community di utilizzatori e, grazie all’istituzione della FIWARE Foundation (soci fondatori: Atos, Engineering, Orange e Telefónica – n.d.r.), contribuire a promuovere, migliorare, tutelare e validare le tecnologie FIWARE e le attività della community, supportando gli utenti finali, gli sviluppatori e gli altri stakeholder nell’intero ecosistema.

•• FIWARE È UNA PIATTAFORMA OPEN SOURCE INDIPENDENTE che definisce degli standard che consentono a tutte le tipologie di imprese e industrie di realizzare e condividere soluzioni “smart” trasferibili e interoperabili in tutto il mondo. Uno degli aspetti rilevanti che differenziano FIWARE dai principali concorrenti è rappresentato dal suo essere una piattaforma aperta e royalty-free, con una definizione standard e implementazioni di riferimento, semplice da integrare con il sistema esistente e con le altre tecnologie.Il programma FIWARE non si propone soltanto di fornire tecnologie alternative aperte, ma anche di creare un innovativo ecosistema aperto che offra maggiori opportunità a tutti gli stakeholder. Ad esempio, nell’ambito del programma FIWARE, abbiamo creato il FIWARE Lab, un’istanza della piattaforma FIWARE disponibile per la libera sperimentazione, dove i fornitori di applicazioni e gli sviluppatori di servizi possono sviluppare e testare i loro prodotti direttamente con dati e utenti reali. I FIWARE Lab e la strategia go-to-market di FIWARE sono già operativi a livello globale per promuovere FIWARE in tutto il mondo e supportare il successo degli ecosistemi FIWARE locali.

DAL SUO PUNTODI VISTA, QUALI SONOI PRINCIPALI ASPETTICHE CONTRIBUIRANNO AL POTENZIALE SUCCESSO DI FIWARESUL MERCATO?

COME PREVEDEDI ATTUARELA PROMOZIONE E DIFFUSIONE DEI RISULTATI DEL FI-PPP?

QUALI SONOI VANTAGGI OFFERTI DA FIWARE AL MERCATO?

COME CONSIDERA IL RUOLO DELLA FIWARE FOUNDATION?

6

per la condivisione di “soluzioni smart” tra impreseFIWARE

Page 7: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

Fino alla fine di ottobre 2014, Pearse è stato vicecapo di gabinetto del Vicepresidente Neelie Kroes, Commissario europeo uscente per l’Agenda Digitale, a cui prestava consulenza per lo sviluppo e l’implementazione della politica in materia di reti e di servizi di comunicazione elettronica, banda larga, spettro e altre politiche connesse. In precedenza, Pearse era stato a capo dell’Unità per la Politica dello Spettro Radio della Commissione Europea, DG CONNECT. Le sue responsabilità comprendevano lo sviluppo e l’implementazione di politiche per un utilizzo efficiente dello spettro e un approccio coordinato nella gestione delle frequenze nell’UE. Ciò includeva anche lo sviluppo di misure di armonizzazione dello spettro nel campo delle comunicazioni elettroniche, incluso il dividendo digitale, e in altri settori del mercato interno, tra cui trasporti e ricerca.

•• NEL 2011 LA COMMISSIONE EUROPEA HA LANCIATO L’INIZIATIVA “Future Internet Public-Private Partnership (FI-PPP)” volta ad affrontare le sfide di natura tecnologica, commerciale, sociale e amministrativa che dovranno essere superate per consentire all’Internet del Futuro di supportare la “società in rete” di domani. L’ultima fase dell’iniziativa FI-PPP (Fase 3) si è conclusa a settembre 2016 e i risultati sono pronti e già disponibili per la strategia go-to-market di FIWARE. È importante sottolineare la particolarità dell’approccio utilizzato rispetto ad altre Partnership Pubbliche-Private, focalizzate sulla realizzazione ed espansione di piattaforme “core” open source che creano strumenti specifici nell’ottica di uno sviluppo orientato alle PMI. Anche dopo l’iniziativa FI-PPP, il progetto FIWARE continua a supportare la competitività globale dell’economia dell’UE attraverso l’introduzione di un’infrastruttura innovativa volta a realizzare e diffondere in modo economicamente efficiente servizi Internet innovativi che assicurano un’elevata qualità del servizio e garanzie di sicurezza.FIWARE copre tutti i grandi temi che si trovano oggi ad affrontare gli sviluppatori (cloud, Internet delle Cose, Big Data, sicurezza, …) in un ambiente integrato facile da utilizzare. FIWARE continua la sua missione con l’organizzazione di eventi destinati al pubblico per estendere la community di utilizzatori e, grazie all’istituzione della FIWARE Foundation (soci fondatori: Atos, Engineering, Orange e Telefónica – n.d.r.), contribuire a promuovere, migliorare, tutelare e validare le tecnologie FIWARE e le attività della community, supportando gli utenti finali, gli sviluppatori e gli altri stakeholder nell’intero ecosistema.

•• FIWARE È UNA PIATTAFORMA OPEN SOURCE INDIPENDENTE che definisce degli standard che consentono a tutte le tipologie di imprese e industrie di realizzare e condividere soluzioni “smart” trasferibili e interoperabili in tutto il mondo. Uno degli aspetti rilevanti che differenziano FIWARE dai principali concorrenti è rappresentato dal suo essere una piattaforma aperta e royalty-free, con una definizione standard e implementazioni di riferimento, semplice da integrare con il sistema esistente e con le altre tecnologie.Il programma FIWARE non si propone soltanto di fornire tecnologie alternative aperte, ma anche di creare un innovativo ecosistema aperto che offra maggiori opportunità a tutti gli stakeholder. Ad esempio, nell’ambito del programma FIWARE, abbiamo creato il FIWARE Lab, un’istanza della piattaforma FIWARE disponibile per la libera sperimentazione, dove i fornitori di applicazioni e gli sviluppatori di servizi possono sviluppare e testare i loro prodotti direttamente con dati e utenti reali. I FIWARE Lab e la strategia go-to-market di FIWARE sono già operativi a livello globale per promuovere FIWARE in tutto il mondo e supportare il successo degli ecosistemi FIWARE locali.

•• LA MISSIONE PRINCIPALE È SVILUPPARE UN ECOSISTEMA APERTO E SOSTENIBILE di piattaforme standard dalle specifiche pubbliche e royalty-free che faciliteranno lo sviluppo di nuove Applicazioni Smart in diversi settori. Il ruolo della FIWARE Foundation, ufficialmente istituita, è garantire e proteggere FIWARE e potenziare il coinvolgimento degli adopters.Organo giuridico indipendente, fornisce risorse condivise per supportare la missione di FIWARE attraverso la promozione, il miglioramento, la tutela e la validazione delle sue tecnologie e delle attività dei membri della sua community, inclusi gli utenti finali, gli sviluppatori e gli altri stakeholder nell’intero ecosistema. La FIWARE Foundation ha una struttura aperta: chiunque può unirsi contribuendo a una gestione trasparente delle attività FIWARE e crescendo nella gerarchia sulla base del merito.

•• FIWARE DISPONE DI DIVERSE CARATTERISTICHE COMMERCIALIZZABILI in grado di garantire il successo del programma e delle imprese che lo utilizzano: la piattaforma FIWARE è estremamente facile da usare e offre vantaggi significativi rispetto alle piattaforme esistenti per l’applicazione in diverse aree, ad esempio le smart city. Grazie alla sua struttura open source e alla disponibilità di specifiche aperte, questa infrastruttura semplifica l’erogazione di servizi on-line da parte di sviluppatori, fornitori di servizi e organizzazioni pubbliche e private.FIWARE è una tecnologia aperta, disponibile gratuitamente, che richiede un tempo di adozione estremamente breve. Nel caso delle smart city, ad esempio, trattandosi di una tecnologia open source, FIWARE consente alle amministrazioni comunali di evitare il vendor lock-in, proteggendo il loro investimento e fornendo informazioni di contesto in tempo reale su quanto sta accadendo in città. FIWARE è anche un importante vettore per la digitalizzazione dell’industria europea, un’alternativa rapida ed economica per start-up, PMI e industria.

QUALI SONOI VANTAGGI OFFERTI DA FIWARE AL MERCATO?

COME CONSIDERA IL RUOLO DELLA FIWARE FOUNDATION?

per la condivisione di “soluzioni smart” tra imprese

Fino alla fine di ottobre 2014, Pearse è stato vicecapo di gabinetto del Vicepresidente Neelie Kroes, Commissario europeo uscente per l’Agenda Digitale, a cui prestava consulenza per lo sviluppo e l’implementazione della politica in materia di reti e di servizi di comunicazione elettronica, banda larga, spettro e altre politiche connesse. In precedenza, Pearse era stato a capo dell’Unità per la Politica dello Spettro Radio della Commissione Europea, DG CONNECT. Le sue responsabilità comprendevano lo sviluppo e l’implementazione di politiche per un utilizzo efficiente dello spettro e un approccio coordinato nella gestione delle frequenze nell’UE. Ciò includeva anche lo sviluppo di misure di armonizzazione dello spettro nel campo delle comunicazioni elettroniche, incluso il dividendo digitale, e in altri settori del mercato interno, tra cui trasporti e ricerca.

Pearse O’Donohue @podcloudeu

È Direttore Responsabile per i Future Networks e Capo dell’Unità “Cloud and Software” di DG CONNECT presso la CommissioneEuropea, dove è responsabiledello sviluppo strategicoe dell’implementazione della politicain materia di cloud computinge di software e servizi.

TECH INTERVIEW

INTERVISTA A PEARSE O’DONOHUE

•• NEL 2011 LA COMMISSIONE EUROPEA HA LANCIATO L’INIZIATIVA “Future Internet Public-Private Partnership (FI-PPP)” volta ad affrontare le sfide di natura tecnologica, commerciale, sociale e amministrativa che dovranno essere superate per consentire all’Internet del Futuro di supportare la “società in rete” di domani. L’ultima fase dell’iniziativa FI-PPP (Fase 3) si è conclusa a settembre 2016 e i risultati sono pronti e già disponibili per la strategia go-to-market di FIWARE. È importante sottolineare la particolarità dell’approccio utilizzato rispetto ad altre Partnership Pubbliche-Private, focalizzate sulla realizzazione ed espansione di piattaforme “core” open source che creano strumenti specifici nell’ottica di uno sviluppo orientato alle PMI. Anche dopo l’iniziativa FI-PPP, il progetto FIWARE continua a supportare la competitività globale dell’economia dell’UE attraverso l’introduzione di un’infrastruttura innovativa volta a realizzare e diffondere in modo economicamente efficiente servizi Internet innovativi che assicurano un’elevata qualità del servizio e garanzie di sicurezza.FIWARE copre tutti i grandi temi che si trovano oggi ad affrontare gli sviluppatori (cloud, Internet delle Cose, Big Data, sicurezza, …) in un ambiente integrato facile da utilizzare. FIWARE continua la sua missione con l’organizzazione di eventi destinati al pubblico per estendere la community di utilizzatori e, grazie all’istituzione della FIWARE Foundation (soci fondatori: Atos, Engineering, Orange e Telefónica – n.d.r.), contribuire a promuovere, migliorare, tutelare e validare le tecnologie FIWARE e le attività della community, supportando gli utenti finali, gli sviluppatori e gli altri stakeholder nell’intero ecosistema.

•• FIWARE È UNA PIATTAFORMA OPEN SOURCE INDIPENDENTE che definisce degli standard che consentono a tutte le tipologie di imprese e industrie di realizzare e condividere soluzioni “smart” trasferibili e interoperabili in tutto il mondo. Uno degli aspetti rilevanti che differenziano FIWARE dai principali concorrenti è rappresentato dal suo essere una piattaforma aperta e royalty-free, con una definizione standard e implementazioni di riferimento, semplice da integrare con il sistema esistente e con le altre tecnologie.Il programma FIWARE non si propone soltanto di fornire tecnologie alternative aperte, ma anche di creare un innovativo ecosistema aperto che offra maggiori opportunità a tutti gli stakeholder. Ad esempio, nell’ambito del programma FIWARE, abbiamo creato il FIWARE Lab, un’istanza della piattaforma FIWARE disponibile per la libera sperimentazione, dove i fornitori di applicazioni e gli sviluppatori di servizi possono sviluppare e testare i loro prodotti direttamente con dati e utenti reali. I FIWARE Lab e la strategia go-to-market di FIWARE sono già operativi a livello globale per promuovere FIWARE in tutto il mondo e supportare il successo degli ecosistemi FIWARE locali.

DAL SUO PUNTODI VISTA, QUALI SONOI PRINCIPALI ASPETTICHE CONTRIBUIRANNO AL POTENZIALE SUCCESSO DI FIWARESUL MERCATO?

COME PREVEDEDI ATTUARELA PROMOZIONE E DIFFUSIONE DEI RISULTATI DEL FI-PPP?

QUALI SONOI VANTAGGI OFFERTI DA FIWARE AL MERCATO?

COME CONSIDERA IL RUOLO DELLA FIWARE FOUNDATION?

6

per la condivisione di “soluzioni smart” tra impreseFIWARE

Page 8: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

All’interno della singola impresa>> Un primo livello di ragionamento ha a che fare con l’utilizzo di dati e informazioni per migliorare e anche rivoluzionare il funzionamento di una singola impresa. Ciò può avvenire a vari livelli.1. Grazie all’uso intelligente di dati e informazioni è possibile sviluppare nuove generazioni di prodotti in gradodi adattarsi o comunque comportarsi in modo “intelligente”, in funzione del contesto e delle scelte dell’utente. È il caso, per esempio, di prodotti complessi e costosi come le più moderne automobili o di oggetti molto più semplicied economici come un controllore domestico (come ad esempio Nest).2. Oggetti e sistemi intelligenti abilitano servizi a maggiore valore aggiunto. È il caso, per esempio, delle assicurazioni auto che sono state rivoluzionate dall’avvento delle “black-box” montate a bordo dei veicoli e che sono in grado da un lato di intervenire in caso di emergenze e, dall’altro, di monitorare il comportamento e le abitudini di guida dell’utente e conseguentemente tarare costi e coperture.3. Dati e informazioni possono infine essere utilizzati per migliorare i processi dell’azienda. Si pensi per esempioai sistemi di monitoraggio e controllo predittivo che oggi è possibile utilizzare nella gestione di impianti e infrastrutture complesse come una rete di distribuzione elettrica o una linea ferroviaria ad alta velocità.Tutto ciò sta già accadendo, non è solo sogno o ambizione. Le imprese stanno cambiando e sempre più cambieranno anche a causa dell’influenza che queste grandi quantità di informazioni e di dati inevitabilmente hanno su tutti gli ambiti e settori di ogni azienda moderna.

Tra imprese>> Lo scambio e la condivisione delle informazioni cambia anche il modo di rapportarsi tra imprese di sviluppo di servizi integrati. Per esempio, l’ecosistema digitale E015 creato per Expo 2015 rende possibile sviluppare nuove applicazionie servizi che sfruttano diverse fonti e sorgenti informative prodotte da una molteplicità di soggetti pubblici e privati. Allo stesso tempo, sono sempre più significativi i casi di aziende che operano in distretti o filiere industriali e che utilizzano le tecnologie digitali per fornire servizi di filiera integrati e a maggiore valore aggiunto.Più in generale, la condivisione e la fruizione di informazioni e dati rappresentano il meccanismo abilitante lo sviluppodi smart city e smart communities. Un altro ambito molto interessante è lo sviluppo di servizi evoluti per impresee consumatori che si basano sull’integrazione di fonti informative di una molteplicità di imprese. Interessanti a questo proposito sono i casi di Weve nel Regno Unito e di Ezakus in Francia, società che sfruttano una molteplicità di fonti informative di diverse aziende per fornire servizi evoluti di advertising e CRM.

Nelle amministrazioni pubbliche>> Le amministrazioni pubbliche detengono una mole enorme di informazioni su cittadini, imprese, territorio e, in generale, ogni ambito della vita sociale, economica e culturale di una nazione. Tali dati possono essere utilizzati sia per migliorare in modo anche radicale il funzionamento stesso delle amministrazioni, sia per offrire informazionie servizi evoluti al pubblico, ai cittadini e alle imprese.

Per i cittadini e la società in generale>> I singoli cittadini e le diverse realtà culturali e sociali possono utilizzare dati e informazioniper intervenire in tutti gli ambiti della vita economica e sociale di un Paese. Non esistono limiti ai possibili campie settori di applicazione: dal volontariato e servizi di pubblica utilità, a nuovi servizi di assistenza e promozione sociale.

Opportunità e sfide nell’uso dei dati e delle informazioni

Alfonso Fuggetta@alfonsofuggetta

Dopo la laurea presso il Politecnico di Milano nel 1982, ha lavorato per una società di consulenza software dal 1980 al 1988, quando entra,come ricercatore senior, in CEFRIEL, azienda che promuove e sostiene l’innovazione nelle imprese e le amministrazioni pubbliche.Professore associato presso il Politecnico di Milano, viene promosso a professore ordinario e, dopo aver ricoperto i ruoli di Vicedirettore e di Direttore Scientifico presso il CEFRIEL, nel 2005 ne viene nominato amministratore delegato.

Questo decennio è sostanzialmente caratterizzato come l’epoca dell’informazione, dove ogni attività umana è stata digitalizzata ed è quindi in grado di produrre dati. Ma quali sono le opportunità e le sfide che da questa straordinaria disponibilità di informazione si possono generare a favore di imprese, amministrazioni pubbliche e cittadini?

SOCIETY VISION

>> I dati che continuamente creiamo e le informazioni che ne derivano possono sicuramente essere utilizzati a vantaggio delle attività che diversi soggetti svolgono.

Proprietà del dato>> Il primo e più scottante tema è quello della proprietà del dato. In prima battuta, sembrerebbe abbastanza intuitivo che tale proprietà debba restare in capo al soggetto che lo ha generato o caratterizzato. Tuttavia, esistono molti casi dove questa proprietà non appare così nettamente determinata, o per motivazioni di carattere operativo o per motivi di interesse pubblico. Per esempio, di chi è la proprietà del dato relativo al transito di un’auto privata su una spira magnetica (posizionata sotto il manto stradale) o sotto una telecamera che rileva il traffico su tratto di strada di una città? Il cittadino potrebbe essere tracciato e quindi reclamare la proprietà di quel dato. Al tempo stesso si tratta di informazioni che hanno una rilevanza notevole sia per motivi di sicurezza (dato singolo) che di gestione delle infrastrutture stradali (dati aggregati). È indubbio quindi che questo tema costituisca certamente un elemento critico che deve essere ulteriormente studiato e approfondito.

Privacy>> La privacy delle informazioni è un’altra questione particolarmente critica e scottante. Quali sono gli ambiti possibili di divulgazione e utilizzo di un dato, anche in relazione alla sua proprietà? Con quali vincoli e sotto quali condizioni e abilitazioni si può utilizzare un’informazione per offrire servizi commerciali? È indubbio che lo sviluppo dei sistemi di proliferazione e di pubblicità digitale dipende in modo decisivo dalle norme e dalle regole esistenti o future in campo di privacy.

Glossari e ontologie>> Perché informazioni e dati possano essere utilizzati in modo efficace è necessario disporre di strumenti che rendano possibile da un lato confrontarli e dall’altro interpretarli. In altri termini, è necessario sviluppare modelli e schemi interpretativi che diano significato e senso condiviso alle informazioni e ai dati che vengono raccolti. Questa sfida è alla base delle attività di ricerca e innovazione in tema di glossari dati, ontologia e semantica. In assenza di tali decisivi contributi, qualunque fonte informativa perde di senso e utilità in quanto vengono a mancare gli schemi interpretativi sulla base dei quali valorizzarli e utilizzarli.

L’interpretazione della conoscenza>> La disponibilità di dati non corrisponde necessariamente né all’avere informazioni utili né a sostenere modelli decisionali o applicazioni realmente efficaci. Il dato deve essere studiato, interpretato ed elaborato per estrarne conoscenza utile e applicabile nello specifico contesto applicativo. Ciò richiede una multidisciplinare commistione di tecniche informatiche, modelli matematico-statistici e conoscenza di dominio. È solo dal virtuoso incontro di queste tre discipline che diventa possibile dare senso e utilità a dati che altrimenti potrebbero restare del tutto inutili o poco significativi.

Cooperazione e interoperabilità>> Dati e informazioni devono poter essere scambiati tra soggetti diversi. È un tema critico e importante soprattutto (ma non solo) nel campo delle pubbliche amministrazioni: perché un cittadino deve comunicare la stessa informazione a due amministrazioni diverse? Perché le amministrazioni non comunicano e si scambiano informazioni direttamente? È un problema, appunto, di interoperabilità e di interazioni tra soggetti diversi. Tale tema estende e completa quanto discusso a proposito di semantica, ontologia e glossari dati, introducendo per l’appunto il problema della interoperabilità tra sistemi informatici indipendenti.

I modelli di business>> Infine, un’ultima ma certamente non meno importante sfida riguarda i modelli economici secondo i quali sostenere investimenti, e sfruttare e valorizzare dati e informazioni. Ovviamente, la pubblicità e i processi ad essa collegata costituiscono lo snodo attorno al quale ruota la gran parte dei modelli di business oggi disponibili. Certamente, è necessario capire se possano essere altre le forme secondo le quali costruire modelli di business che consentano lo sviluppo dell’intero ecosistema della conoscenza e garantiscano la valorizzazione delle diverse forme di dati e informazioni rese disponibili dallo sviluppo delle tecnologie digitali.

8

SFIDE

Opportunità

Page 9: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

All’interno della singola impresa>> Un primo livello di ragionamento ha a che fare con l’utilizzo di dati e informazioni per migliorare e anche rivoluzionare il funzionamento di una singola impresa. Ciò può avvenire a vari livelli.1. Grazie all’uso intelligente di dati e informazioni è possibile sviluppare nuove generazioni di prodotti in gradodi adattarsi o comunque comportarsi in modo “intelligente”, in funzione del contesto e delle scelte dell’utente. È il caso, per esempio, di prodotti complessi e costosi come le più moderne automobili o di oggetti molto più semplicied economici come un controllore domestico (come ad esempio Nest).2. Oggetti e sistemi intelligenti abilitano servizi a maggiore valore aggiunto. È il caso, per esempio, delle assicurazioni auto che sono state rivoluzionate dall’avvento delle “black-box” montate a bordo dei veicoli e che sono in grado da un lato di intervenire in caso di emergenze e, dall’altro, di monitorare il comportamento e le abitudini di guida dell’utente e conseguentemente tarare costi e coperture.3. Dati e informazioni possono infine essere utilizzati per migliorare i processi dell’azienda. Si pensi per esempioai sistemi di monitoraggio e controllo predittivo che oggi è possibile utilizzare nella gestione di impianti e infrastrutture complesse come una rete di distribuzione elettrica o una linea ferroviaria ad alta velocità.Tutto ciò sta già accadendo, non è solo sogno o ambizione. Le imprese stanno cambiando e sempre più cambieranno anche a causa dell’influenza che queste grandi quantità di informazioni e di dati inevitabilmente hanno su tutti gli ambiti e settori di ogni azienda moderna.

Tra imprese>> Lo scambio e la condivisione delle informazioni cambia anche il modo di rapportarsi tra imprese di sviluppo di servizi integrati. Per esempio, l’ecosistema digitale E015 creato per Expo 2015 rende possibile sviluppare nuove applicazionie servizi che sfruttano diverse fonti e sorgenti informative prodotte da una molteplicità di soggetti pubblici e privati. Allo stesso tempo, sono sempre più significativi i casi di aziende che operano in distretti o filiere industriali e che utilizzano le tecnologie digitali per fornire servizi di filiera integrati e a maggiore valore aggiunto.Più in generale, la condivisione e la fruizione di informazioni e dati rappresentano il meccanismo abilitante lo sviluppodi smart city e smart communities. Un altro ambito molto interessante è lo sviluppo di servizi evoluti per impresee consumatori che si basano sull’integrazione di fonti informative di una molteplicità di imprese. Interessanti a questo proposito sono i casi di Weve nel Regno Unito e di Ezakus in Francia, società che sfruttano una molteplicità di fonti informative di diverse aziende per fornire servizi evoluti di advertising e CRM.

Nelle amministrazioni pubbliche>> Le amministrazioni pubbliche detengono una mole enorme di informazioni su cittadini, imprese, territorio e, in generale, ogni ambito della vita sociale, economica e culturale di una nazione. Tali dati possono essere utilizzati sia per migliorare in modo anche radicale il funzionamento stesso delle amministrazioni, sia per offrire informazionie servizi evoluti al pubblico, ai cittadini e alle imprese.

Per i cittadini e la società in generale>> I singoli cittadini e le diverse realtà culturali e sociali possono utilizzare dati e informazioniper intervenire in tutti gli ambiti della vita economica e sociale di un Paese. Non esistono limiti ai possibili campie settori di applicazione: dal volontariato e servizi di pubblica utilità, a nuovi servizi di assistenza e promozione sociale.

Proprietà del dato>> Il primo e più scottante tema è quello della proprietà del dato. In prima battuta, sembrerebbe abbastanza intuitivo che tale proprietà debba restare in capo al soggetto che lo ha generato o caratterizzato. Tuttavia, esistono molti casi dove questa proprietà non appare così nettamente determinata, o per motivazioni di carattere operativo o per motivi di interesse pubblico. Per esempio, di chi è la proprietà del dato relativo al transito di un’auto privata su una spira magnetica (posizionata sotto il manto stradale) o sotto una telecamera che rileva il traffico su tratto di strada di una città? Il cittadino potrebbe essere tracciato e quindi reclamare la proprietà di quel dato. Al tempo stesso si tratta di informazioni che hanno una rilevanza notevole sia per motivi di sicurezza (dato singolo) che di gestione delle infrastrutture stradali (dati aggregati). È indubbio quindi che questo tema costituisca certamente un elemento critico che deve essere ulteriormente studiato e approfondito.

Privacy>> La privacy delle informazioni è un’altra questione particolarmente critica e scottante. Quali sono gli ambiti possibili di divulgazione e utilizzo di un dato, anche in relazione alla sua proprietà? Con quali vincoli e sotto quali condizioni e abilitazioni si può utilizzare un’informazione per offrire servizi commerciali? È indubbio che lo sviluppo dei sistemi di proliferazione e di pubblicità digitale dipende in modo decisivo dalle norme e dalle regole esistenti o future in campo di privacy.

Glossari e ontologie>> Perché informazioni e dati possano essere utilizzati in modo efficace è necessario disporre di strumenti che rendano possibile da un lato confrontarli e dall’altro interpretarli. In altri termini, è necessario sviluppare modelli e schemi interpretativi che diano significato e senso condiviso alle informazioni e ai dati che vengono raccolti. Questa sfida è alla base delle attività di ricerca e innovazione in tema di glossari dati, ontologia e semantica. In assenza di tali decisivi contributi, qualunque fonte informativa perde di senso e utilità in quanto vengono a mancare gli schemi interpretativi sulla base dei quali valorizzarli e utilizzarli.

L’interpretazione della conoscenza>> La disponibilità di dati non corrisponde necessariamente né all’avere informazioni utili né a sostenere modelli decisionali o applicazioni realmente efficaci. Il dato deve essere studiato, interpretato ed elaborato per estrarne conoscenza utile e applicabile nello specifico contesto applicativo. Ciò richiede una multidisciplinare commistione di tecniche informatiche, modelli matematico-statistici e conoscenza di dominio. È solo dal virtuoso incontro di queste tre discipline che diventa possibile dare senso e utilità a dati che altrimenti potrebbero restare del tutto inutili o poco significativi.

Cooperazione e interoperabilità>> Dati e informazioni devono poter essere scambiati tra soggetti diversi. È un tema critico e importante soprattutto (ma non solo) nel campo delle pubbliche amministrazioni: perché un cittadino deve comunicare la stessa informazione a due amministrazioni diverse? Perché le amministrazioni non comunicano e si scambiano informazioni direttamente? È un problema, appunto, di interoperabilità e di interazioni tra soggetti diversi. Tale tema estende e completa quanto discusso a proposito di semantica, ontologia e glossari dati, introducendo per l’appunto il problema della interoperabilità tra sistemi informatici indipendenti.

I modelli di business>> Infine, un’ultima ma certamente non meno importante sfida riguarda i modelli economici secondo i quali sostenere investimenti, e sfruttare e valorizzare dati e informazioni. Ovviamente, la pubblicità e i processi ad essa collegata costituiscono lo snodo attorno al quale ruota la gran parte dei modelli di business oggi disponibili. Certamente, è necessario capire se possano essere altre le forme secondo le quali costruire modelli di business che consentano lo sviluppo dell’intero ecosistema della conoscenza e garantiscano la valorizzazione delle diverse forme di dati e informazioni rese disponibili dallo sviluppo delle tecnologie digitali.

>> La straordinaria quantità di informazioni e dati che lo sviluppo delle tecnologie digitali rende disponibili è certamente una grandiosa opportunità di crescita per ogni ambito della nostra società. Tuttavia, è indubbio che questa pervasiva, capillare e continua capacità di monitoraggio e analisi del comportamento di singoli e di intere comunità possa anche costituire una sfida e un rischioche non possono essere in alcun modo minimizzati o sottovalutati. Inoltre, non basta disporre dei “dati grezzi” per abilitare e mettere in campo servizi evoluti a maggiore valore aggiunto.Il dato di per sé è inutile se non viene elaborato e interpretato.

>> Per questi motivi, accanto allo sviluppo di nuovi prodotti e servizi che valorizzino la disponibilità e la creazione di queste immense quantità di informazioni, devono essere previste anche quelle azioni che in modo permanente studino e approfondiscano gli aspetti critici e le sfide che ci troviamo ad affrontare.

9

SFIDE

All’interno della singola impresa>> Un primo livello di ragionamento ha a che fare con l’utilizzo di dati e informazioni per migliorare e anche rivoluzionare il funzionamento di una singola impresa. Ciò può avvenire a vari livelli.1. Grazie all’uso intelligente di dati e informazioni è possibile sviluppare nuove generazioni di prodotti in gradodi adattarsi o comunque comportarsi in modo “intelligente”, in funzione del contesto e delle scelte dell’utente. È il caso, per esempio, di prodotti complessi e costosi come le più moderne automobili o di oggetti molto più semplicied economici come un controllore domestico (come ad esempio Nest).2. Oggetti e sistemi intelligenti abilitano servizi a maggiore valore aggiunto. È il caso, per esempio, delle assicurazioni auto che sono state rivoluzionate dall’avvento delle “black-box” montate a bordo dei veicoli e che sono in grado da un lato di intervenire in caso di emergenze e, dall’altro, di monitorare il comportamento e le abitudini di guida dell’utente e conseguentemente tarare costi e coperture.3. Dati e informazioni possono infine essere utilizzati per migliorare i processi dell’azienda. Si pensi per esempioai sistemi di monitoraggio e controllo predittivo che oggi è possibile utilizzare nella gestione di impianti e infrastrutture complesse come una rete di distribuzione elettrica o una linea ferroviaria ad alta velocità.Tutto ciò sta già accadendo, non è solo sogno o ambizione. Le imprese stanno cambiando e sempre più cambieranno anche a causa dell’influenza che queste grandi quantità di informazioni e di dati inevitabilmente hanno su tutti gli ambiti e settori di ogni azienda moderna.

Tra imprese>> Lo scambio e la condivisione delle informazioni cambia anche il modo di rapportarsi tra imprese di sviluppo di servizi integrati. Per esempio, l’ecosistema digitale E015 creato per Expo 2015 rende possibile sviluppare nuove applicazionie servizi che sfruttano diverse fonti e sorgenti informative prodotte da una molteplicità di soggetti pubblici e privati. Allo stesso tempo, sono sempre più significativi i casi di aziende che operano in distretti o filiere industriali e che utilizzano le tecnologie digitali per fornire servizi di filiera integrati e a maggiore valore aggiunto.Più in generale, la condivisione e la fruizione di informazioni e dati rappresentano il meccanismo abilitante lo sviluppodi smart city e smart communities. Un altro ambito molto interessante è lo sviluppo di servizi evoluti per impresee consumatori che si basano sull’integrazione di fonti informative di una molteplicità di imprese. Interessanti a questo proposito sono i casi di Weve nel Regno Unito e di Ezakus in Francia, società che sfruttano una molteplicità di fonti informative di diverse aziende per fornire servizi evoluti di advertising e CRM.

Nelle amministrazioni pubbliche>> Le amministrazioni pubbliche detengono una mole enorme di informazioni su cittadini, imprese, territorio e, in generale, ogni ambito della vita sociale, economica e culturale di una nazione. Tali dati possono essere utilizzati sia per migliorare in modo anche radicale il funzionamento stesso delle amministrazioni, sia per offrire informazionie servizi evoluti al pubblico, ai cittadini e alle imprese.

Per i cittadini e la società in generale>> I singoli cittadini e le diverse realtà culturali e sociali possono utilizzare dati e informazioniper intervenire in tutti gli ambiti della vita economica e sociale di un Paese. Non esistono limiti ai possibili campie settori di applicazione: dal volontariato e servizi di pubblica utilità, a nuovi servizi di assistenza e promozione sociale.

Opportunità e sfide nell’uso dei dati e delle informazioni

Alfonso Fuggetta@alfonsofuggetta

Dopo la laurea presso il Politecnico di Milano nel 1982, ha lavorato per una società di consulenza software dal 1980 al 1988, quando entra,come ricercatore senior, in CEFRIEL, azienda che promuove e sostiene l’innovazione nelle imprese e le amministrazioni pubbliche.Professore associato presso il Politecnico di Milano, viene promosso a professore ordinario e, dopo aver ricoperto i ruoli di Vicedirettore e di Direttore Scientifico presso il CEFRIEL, nel 2005 ne viene nominato amministratore delegato.

Questo decennio è sostanzialmente caratterizzato come l’epoca dell’informazione, dove ogni attività umana è stata digitalizzata ed è quindi in grado di produrre dati. Ma quali sono le opportunità e le sfide che da questa straordinaria disponibilità di informazione si possono generare a favore di imprese, amministrazioni pubbliche e cittadini?

SOCIETY VISION

>> I dati che continuamente creiamo e le informazioni che ne derivano possono sicuramente essere utilizzati a vantaggio delle attività che diversi soggetti svolgono.

Proprietà del dato>> Il primo e più scottante tema è quello della proprietà del dato. In prima battuta, sembrerebbe abbastanza intuitivo che tale proprietà debba restare in capo al soggetto che lo ha generato o caratterizzato. Tuttavia, esistono molti casi dove questa proprietà non appare così nettamente determinata, o per motivazioni di carattere operativo o per motivi di interesse pubblico. Per esempio, di chi è la proprietà del dato relativo al transito di un’auto privata su una spira magnetica (posizionata sotto il manto stradale) o sotto una telecamera che rileva il traffico su tratto di strada di una città? Il cittadino potrebbe essere tracciato e quindi reclamare la proprietà di quel dato. Al tempo stesso si tratta di informazioni che hanno una rilevanza notevole sia per motivi di sicurezza (dato singolo) che di gestione delle infrastrutture stradali (dati aggregati). È indubbio quindi che questo tema costituisca certamente un elemento critico che deve essere ulteriormente studiato e approfondito.

Privacy>> La privacy delle informazioni è un’altra questione particolarmente critica e scottante. Quali sono gli ambiti possibili di divulgazione e utilizzo di un dato, anche in relazione alla sua proprietà? Con quali vincoli e sotto quali condizioni e abilitazioni si può utilizzare un’informazione per offrire servizi commerciali? È indubbio che lo sviluppo dei sistemi di proliferazione e di pubblicità digitale dipende in modo decisivo dalle norme e dalle regole esistenti o future in campo di privacy.

Glossari e ontologie>> Perché informazioni e dati possano essere utilizzati in modo efficace è necessario disporre di strumenti che rendano possibile da un lato confrontarli e dall’altro interpretarli. In altri termini, è necessario sviluppare modelli e schemi interpretativi che diano significato e senso condiviso alle informazioni e ai dati che vengono raccolti. Questa sfida è alla base delle attività di ricerca e innovazione in tema di glossari dati, ontologia e semantica. In assenza di tali decisivi contributi, qualunque fonte informativa perde di senso e utilità in quanto vengono a mancare gli schemi interpretativi sulla base dei quali valorizzarli e utilizzarli.

L’interpretazione della conoscenza>> La disponibilità di dati non corrisponde necessariamente né all’avere informazioni utili né a sostenere modelli decisionali o applicazioni realmente efficaci. Il dato deve essere studiato, interpretato ed elaborato per estrarne conoscenza utile e applicabile nello specifico contesto applicativo. Ciò richiede una multidisciplinare commistione di tecniche informatiche, modelli matematico-statistici e conoscenza di dominio. È solo dal virtuoso incontro di queste tre discipline che diventa possibile dare senso e utilità a dati che altrimenti potrebbero restare del tutto inutili o poco significativi.

Cooperazione e interoperabilità>> Dati e informazioni devono poter essere scambiati tra soggetti diversi. È un tema critico e importante soprattutto (ma non solo) nel campo delle pubbliche amministrazioni: perché un cittadino deve comunicare la stessa informazione a due amministrazioni diverse? Perché le amministrazioni non comunicano e si scambiano informazioni direttamente? È un problema, appunto, di interoperabilità e di interazioni tra soggetti diversi. Tale tema estende e completa quanto discusso a proposito di semantica, ontologia e glossari dati, introducendo per l’appunto il problema della interoperabilità tra sistemi informatici indipendenti.

I modelli di business>> Infine, un’ultima ma certamente non meno importante sfida riguarda i modelli economici secondo i quali sostenere investimenti, e sfruttare e valorizzare dati e informazioni. Ovviamente, la pubblicità e i processi ad essa collegata costituiscono lo snodo attorno al quale ruota la gran parte dei modelli di business oggi disponibili. Certamente, è necessario capire se possano essere altre le forme secondo le quali costruire modelli di business che consentano lo sviluppo dell’intero ecosistema della conoscenza e garantiscano la valorizzazione delle diverse forme di dati e informazioni rese disponibili dallo sviluppo delle tecnologie digitali.

8

SFIDE

Opportunità

Page 10: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

L'informazione rappresenta oggi la forza trainante delle Città del Futuro, elemento fondamentale per generare innovazione sostenibile: possiamo dire che l’informazione è (anche) un “bene pubblico” con la caratteristica peculiare data dal fatto che il suo consumo da parte di un individuo non ne riduce la disponibilità per gli altri, anzi ne amplifica il potenziale valore.

Una CITTÀ di dati open, closed, free, linked, big...

Lanfranco Marasso@lmarasso

Ingegnere, Ph.D. al Politecnico di Milano, è attualmente Direttore del Programma Smart City di Engineering. Da oltre 25 anni si occupa di progetti di innovazione in Italia e all’estero nel settore pubblico, avendo ricoperto ruoli di direzione e di amministrazione in aziende private, pubbliche e nel Comune di Parma. È stato professore a contratto dell’Università Roma Tre, dello IUAV di Venezia e del Politecnico di Milano. Partecipa ai lavori di iniziative europee quali AIOTI (Alliance Internet Of Thing Innovation), FIWARE ed ENOLL (European Network of Living Lab). È Chairman del TF7 - Smart City di BDVA (Big Data Value Association) e del WG3.7 Smart City di ECSO (European Cyber Security Organisation).

SOCIETY EXPERIENCE

Paolo Nesi@paolonesi

È chair del DISIT Lab dell’Università degli Studi di Firenze e Prof. Ordinario di Sistemi di Elaborazione. Ha coordinato svariati progetti di ricerca e innovazione della Commissione Europea, nazionali e regionali. Attualmente coordina Sii-Mobility MIUR Smart City nazionale mobilità e trasporti, RESOLUTE H2020 sulla resilienza nelle infrastrutture critiche e dei sistemi di trasporto. DISIT Lab partecipa a vari progetti su big data, smart city, smart cloud, industria 4.0.

IL PROGETTO È NATO NEL 2013 come ontologia per le smart city: una soluzione che intende migliorare la qualità della vita abilitando la creazione di servizi innovativi, per la mobilità la sicurezza, il turismo, la riduzione dei consumi e dei costi, e potenziare la capacità delle persone e della Città di reagire a eventi avversi non previsti.

QUESTI OBIETTIVI AMBIZIOSI possono essere raggiunti andando a creare servizi tramite algoritmi di intelligenza artificiale sulla base di dati presenti nelle nostre città. Non solo gli open data, ma anche i dati raccolti da operatori di trasporto, commercio, turismo, beni culturali, educazione, meteo, ambiente; e quelli che possono provenire dai sensori nella città (IOT, Internet delle Cose), dai social media e dai cittadini stessi tramite app e sistemi di partecipazione.

OLTRE AI DATI STATICI che non cambiano, o cambiano raramente, vi sono i dati dinamici (real time) che producono flussi continui di informazione. Sono proprio questi che suscitano maggior interesse per gli utenti finali poiché permettono di poter avere informazioni, predizioni e deduzioni in tempo reale. Per esempio, stato e predizioni su parcheggi, traffico, consumi, ambientc. Su tale base si sviluppano soluzioni per la diagnosi precoce di eventi critici.

AL MOMENTO KM4CITY, come base di conoscenza a servizi di vari progetti, copre con i suoi dati tutta la Toscana in termini di informazioni stradali, punti di interesse (cultura, turismo, alloggi, ristorazione, educazione, commercio: circa 300.000 POI classificati in 500 categorie), servizi di trasporto pubblico (da 16 operatori), benzinai, informazioni sul triage di ospedali, flussi traffico da circa 800 sensori, oltre 200 parcheggi e social media tramite TwitterVigilance: centinaia di migliaia di nuovi dati complessi al giorno.

LE PRINCIPALI PROBLEMATICHE che sono state affrontate e risolte sono legate alla gestione della complessità dell’acquisizione di dati eterogenei (diverse sorgenti, protocolli, standard, formati), ai volumi di questi dati chearrivano in continuo dalla Città e dalle App, alla loro qualità e discontinuità; configurando in queso modo il problema smart city nello spazio dei Big Data.

LA MANCANZA D’INTEROPERABILITÀ e la qualità limitata dei dati sono gestite in KM4City tramite strumenti di data mining per aggregare i dati e correggere i problemi entro parametri accettabili. Sulla base di conoscenza in KM4City sono quindi messi in esecuzione svariati algoritmi di data analytics che si basano su intelligenza artificiale e statistica per la produzione anche in tempo reale di predizioni, suggerimenti, stimoli verso i cittadini e i decisori pubblici.

I DATI, CHE AGGREGATI COSTITUISCONO INFORMAZIONE e quindi conoscenza, sono quindi al centro di qualsiasi processo/servizio delle Città, e il miglioramento della loro gestione e distribuzione è un tassello fondamentale per abilitare politiche efficaci di innovazione urbana. Dimensione tecnologica e dimensione sociale si devono fondere, quindi, impiegando strumenti ICT per aumentare le prestazioni nella co-creazione, co-gestione ed erogazione dei servizi urbani, siano essi pubblici, di pubblica utilità o privati. E ciò può essere assicurato solo attraverso la partecipazione attiva di tutti i soggetti che, insieme, costituiscono la Città. In questo ambito Engineering gioca un ruolo di primo piano per l’innovazione a stretto contatto con tutti i fornitori di servizi per il territorio (comuni, ospedali, utilities, trasporti, energia, …) e la neonata Municipia esprime proprio questo momento di sintesi e di prossimità sul territorio a scala urbana.

ENGINEERING È ANCHE UN PLAYER PRIMARIO NELLA RICERCA E INNOVAZIONE, nazionale ed europea, avendoun ruolo determinante nelle più importanti iniziative continentali sulle Service Open Platform (FIWARE), sull’Internet delle Cose (AIOTI), sulla sicurezza (EOS e ECSO) e, nello specifico, sul valore aggiunto dei big data nei domini rilevantidella società contemporanea.Engineering infatti è tra i membri fondatori della Big Data Value Association (www.bdva.eu), a guida industriale, che conta più di 160 membri distribuiti in tutta Europa e rappresenta la controparte privata alla Commissione Europea nell'implementazione del programma Big Data Value PPP (Private Public Partnership). Il coinvolgimento aziendale nella BDVA copre diversi aspetti che vanno dalla presenza nel Board of Directors per la gestione strategica dell’associazione e i rapporti con la Commissione Europea, al coinvolgimento o gestione di gruppi di lavoro specifici.

ATTUALMENTE ENGINEERING SI PONE ALLA GUIDA DI GRUPPI quali Smart Cities, Smart Manufacturing Industry e Business che, a partire da un rilevante interesse internazionale, stanno attirando una notevole partecipazione dei membri dell’Associazione. In aggiunta a questi gruppi, l’azienda contribuisce all'evoluzione di temi quali healthcare, media e finanza, oltre che a tematiche più trasversali come quelle tecniche, legali e sociali.

UNA DELLE ESPERIENZE PIÙ SIGNIFICATIVE IN ITALIA è stata concettualizzata e realizzata dall’Università di Firenze per il Comune: il progetto KM4City (Knowledge Model for the City), di cui il Professor Paolo Nesi è coordinatore.

.............................................................................................................................................................................10

Quali sono i beneficiari del progetto KM4City? KM4City è un esempio di come un uso intelligente dei dati possa supportare la Città per pianificare e sviluppare nuovi servizi. Può essere replicato in altri territori?

Come si alimenta KM4City?

Perché KM4City è un riferimento nello scenario internazionale?

KM4City può diventare un asset importante a supporto della pianificazioneurbana?

I prossimi passi?

KM4City - Knowledge Model for the City

L’ESPERIENZA KM4CITY: INTERVISTA A PAOLO NESI, COORDINATORE DEL PROGETTO

Page 11: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

L'informazione rappresenta oggi la forza trainante delle Città del Futuro, elemento fondamentale per generare innovazione sostenibile: possiamo dire che l’informazione è (anche) un “bene pubblico” con la caratteristica peculiare data dal fatto che il suo consumo da parte di un individuo non ne riduce la disponibilità per gli altri, anzi ne amplifica il potenziale valore.

Una CITTÀ di dati open, closed, free, linked, big...

IL PROGETTO È NATO NEL 2013 come ontologia per le smart city: una soluzione che intende migliorare la qualità della vita abilitando la creazione di servizi innovativi, per la mobilità la sicurezza, il turismo, la riduzione dei consumi e dei costi, e potenziare la capacità delle persone e della Città di reagire a eventi avversi non previsti.

QUESTI OBIETTIVI AMBIZIOSI possono essere raggiunti andando a creare servizi tramite algoritmi di intelligenza artificiale sulla base di dati presenti nelle nostre città. Non solo gli open data, ma anche i dati raccolti da operatori di trasporto, commercio, turismo, beni culturali, educazione, meteo, ambiente; e quelli che possono provenire dai sensori nella città (IOT, Internet delle Cose), dai social media e dai cittadini stessi tramite app e sistemi di partecipazione.

OLTRE AI DATI STATICI che non cambiano, o cambiano raramente, vi sono i dati dinamici (real time) che producono flussi continui di informazione. Sono proprio questi che suscitano maggior interesse per gli utenti finali poiché permettono di poter avere informazioni, predizioni e deduzioni in tempo reale. Per esempio, stato e predizioni su parcheggi, traffico, consumi, ambientc. Su tale base si sviluppano soluzioni per la diagnosi precoce di eventi critici.

AL MOMENTO KM4CITY, come base di conoscenza a servizi di vari progetti, copre con i suoi dati tutta la Toscana in termini di informazioni stradali, punti di interesse (cultura, turismo, alloggi, ristorazione, educazione, commercio: circa 300.000 POI classificati in 500 categorie), servizi di trasporto pubblico (da 16 operatori), benzinai, informazioni sul triage di ospedali, flussi traffico da circa 800 sensori, oltre 200 parcheggi e social media tramite TwitterVigilance: centinaia di migliaia di nuovi dati complessi al giorno.

LE PRINCIPALI PROBLEMATICHE che sono state affrontate e risolte sono legate alla gestione della complessità dell’acquisizione di dati eterogenei (diverse sorgenti, protocolli, standard, formati), ai volumi di questi dati chearrivano in continuo dalla Città e dalle App, alla loro qualità e discontinuità; configurando in queso modo il problema smart city nello spazio dei Big Data.

LA MANCANZA D’INTEROPERABILITÀ e la qualità limitata dei dati sono gestite in KM4City tramite strumenti di data mining per aggregare i dati e correggere i problemi entro parametri accettabili. Sulla base di conoscenza in KM4City sono quindi messi in esecuzione svariati algoritmi di data analytics che si basano su intelligenza artificiale e statistica per la produzione anche in tempo reale di predizioni, suggerimenti, stimoli verso i cittadini e i decisori pubblici.

I principali beneficiari sono gli utenti della città (cittadini, studenti, pendolari e turisti), e ovviamente gli operatori e le pubbliche amministrazioni.

KM4City è completamente open source, può essere facilmente replicato in altre regioni ed aree. È inoltre un sistema completamente aperto nel quale si possono facilmente aggiungere nuovi dati e processi. La stessa ontologia è open come tutto il resto. I sistemi server side sono sviluppati in linguaggi aperti come Java, PHP, Javascript, ETL, Python, ecc. La piattaforma KM4City è modulare e scalabile, nel senso che una piccola amministrazione può installare e utilizzare anche solo le parti di suo interesse. Tutto il sistema di acquisizione dati è in grado di ingerire/aggregaredati statici e real time in standard multipli con soluzioni completamente scalabili in cloud oppure nei data center delle pubbliche amministrazioni.

KM4City si alimenta con open data, grafi strade e dati real time, provenienti da open data, gestoridella mobilità, social network come Twitter, da qualsiasi tipo di sensori nella città e anche dalle app e quindi dagli utenti finali stessi.

Non spetta a noi dire che KM4City è un riferimento internazionale. L’ontologia e quindi il modello KM4City sono stativalutati come i più completi da vari enti. Inoltre, le soluzioni KM4City sono utilizzate da vari progetti europei e nazionali che contribuiscono anche al suo ampliamento come modello e strumenti. Fra questi progetti sono: Sii-Mobility (smart city nazionale MIUR, mobilità e trasporti, con svariate sperimentazioni in quasi tutta la Toscana), RESOLUTE H2020 della Commissione Europea (per lo studio e la messa in opera di soluzioni di resilienza dei sistemi di trasporto, con sperimentazione a Firenze e Atene), REPLICATE H2020 della Commissione Europea (per l’introduzione di soluzioni di mobilità sostenibile, IOT ed energia integrata, nel contesto del pianosmart city Europeo), GHOST del MIUR… e altri ancora.

Certamente, visto che con i suoi algoritmi è in grado di produrre matrici di origine-destinazione sui flussi veicoli e anche sulle persone (con il contributo di RESOLUTE), crea modelli predittivi sui flussi, sui parcheggi e sulle persone. Accumula dati e conoscenza su come gli utenti della città la usano e su come la città vive ed evolve.Sulla base di conoscenza si stanno attivando strumenti per il supporto alle decisioni, per la valutazione del rischio e anche per la valutazione della resilienza.

Saremo impegnati nell’allargamento della sperimentazione con Sii-Mobility a molte aree della Toscana su aspetti di mobilità e trasporti, a Firenze e Atene su aspetti di resilienza dei sistemi di trasporto. Nel dettaglio dei dati, in base alle richieste che riceviamo, stiamo allargando la base di conoscenza in mododa coprire più regioni fino ad arrivare all’intero territorio nazionale.

I DATI, CHE AGGREGATI COSTITUISCONO INFORMAZIONE e quindi conoscenza, sono quindi al centro di qualsiasi processo/servizio delle Città, e il miglioramento della loro gestione e distribuzione è un tassello fondamentale per abilitare politiche efficaci di innovazione urbana. Dimensione tecnologica e dimensione sociale si devono fondere, quindi, impiegando strumenti ICT per aumentare le prestazioni nella co-creazione, co-gestione ed erogazione dei servizi urbani, siano essi pubblici, di pubblica utilità o privati. E ciò può essere assicurato solo attraverso la partecipazione attiva di tutti i soggetti che, insieme, costituiscono la Città. In questo ambito Engineering gioca un ruolo di primo piano per l’innovazione a stretto contatto con tutti i fornitori di servizi per il territorio (comuni, ospedali, utilities, trasporti, energia, …) e la neonata Municipia esprime proprio questo momento di sintesi e di prossimità sul territorio a scala urbana.

ENGINEERING È ANCHE UN PLAYER PRIMARIO NELLA RICERCA E INNOVAZIONE, nazionale ed europea, avendoun ruolo determinante nelle più importanti iniziative continentali sulle Service Open Platform (FIWARE), sull’Internet delle Cose (AIOTI), sulla sicurezza (EOS e ECSO) e, nello specifico, sul valore aggiunto dei big data nei domini rilevantidella società contemporanea.Engineering infatti è tra i membri fondatori della Big Data Value Association (www.bdva.eu), a guida industriale, che conta più di 160 membri distribuiti in tutta Europa e rappresenta la controparte privata alla Commissione Europea nell'implementazione del programma Big Data Value PPP (Private Public Partnership). Il coinvolgimento aziendale nella BDVA copre diversi aspetti che vanno dalla presenza nel Board of Directors per la gestione strategica dell’associazione e i rapporti con la Commissione Europea, al coinvolgimento o gestione di gruppi di lavoro specifici.

ATTUALMENTE ENGINEERING SI PONE ALLA GUIDA DI GRUPPI quali Smart Cities, Smart Manufacturing Industry e Business che, a partire da un rilevante interesse internazionale, stanno attirando una notevole partecipazione dei membri dell’Associazione. In aggiunta a questi gruppi, l’azienda contribuisce all'evoluzione di temi quali healthcare, media e finanza, oltre che a tematiche più trasversali come quelle tecniche, legali e sociali.

UNA DELLE ESPERIENZE PIÙ SIGNIFICATIVE IN ITALIA è stata concettualizzata e realizzata dall’Università di Firenze per il Comune: il progetto KM4City (Knowledge Model for the City), di cui il Professor Paolo Nesi è coordinatore.

.............................................................................................................................................................................11

Quali sono i beneficiari del progetto KM4City? KM4City è un esempio di come un uso intelligente dei dati possa supportare la Città per pianificare e sviluppare nuovi servizi. Può essere replicato in altri territori?

Come si alimenta KM4City?

Perché KM4City è un riferimento nello scenario internazionale?

KM4City può diventare un asset importante a supporto della pianificazioneurbana?

I prossimi passi?

KM4City - Knowledge Model for the City

L’ESPERIENZA KM4CITY: INTERVISTA A PAOLO NESI, COORDINATORE DEL PROGETTO

L'informazione rappresenta oggi la forza trainante delle Città del Futuro, elemento fondamentale per generare innovazione sostenibile: possiamo dire che l’informazione è (anche) un “bene pubblico” con la caratteristica peculiare data dal fatto che il suo consumo da parte di un individuo non ne riduce la disponibilità per gli altri, anzi ne amplifica il potenziale valore.

Una CITTÀ di dati open, closed, free, linked, big...

Lanfranco Marasso@lmarasso

Ingegnere, Ph.D. al Politecnico di Milano, è attualmente Direttore del Programma Smart City di Engineering. Da oltre 25 anni si occupa di progetti di innovazione in Italia e all’estero nel settore pubblico, avendo ricoperto ruoli di direzione e di amministrazione in aziende private, pubbliche e nel Comune di Parma. È stato professore a contratto dell’Università Roma Tre, dello IUAV di Venezia e del Politecnico di Milano. Partecipa ai lavori di iniziative europee quali AIOTI (Alliance Internet Of Thing Innovation), FIWARE ed ENOLL (European Network of Living Lab). È Chairman del TF7 - Smart City di BDVA (Big Data Value Association) e del WG3.7 Smart City di ECSO (European Cyber Security Organisation).

SOCIETY EXPERIENCE

Paolo Nesi@paolonesi

È chair del DISIT Lab dell’Università degli Studi di Firenze e Prof. Ordinario di Sistemi di Elaborazione. Ha coordinato svariati progetti di ricerca e innovazione della Commissione Europea, nazionali e regionali. Attualmente coordina Sii-Mobility MIUR Smart City nazionale mobilità e trasporti, RESOLUTE H2020 sulla resilienza nelle infrastrutture critiche e dei sistemi di trasporto. DISIT Lab partecipa a vari progetti su big data, smart city, smart cloud, industria 4.0.

IL PROGETTO È NATO NEL 2013 come ontologia per le smart city: una soluzione che intende migliorare la qualità della vita abilitando la creazione di servizi innovativi, per la mobilità la sicurezza, il turismo, la riduzione dei consumi e dei costi, e potenziare la capacità delle persone e della Città di reagire a eventi avversi non previsti.

QUESTI OBIETTIVI AMBIZIOSI possono essere raggiunti andando a creare servizi tramite algoritmi di intelligenza artificiale sulla base di dati presenti nelle nostre città. Non solo gli open data, ma anche i dati raccolti da operatori di trasporto, commercio, turismo, beni culturali, educazione, meteo, ambiente; e quelli che possono provenire dai sensori nella città (IOT, Internet delle Cose), dai social media e dai cittadini stessi tramite app e sistemi di partecipazione.

OLTRE AI DATI STATICI che non cambiano, o cambiano raramente, vi sono i dati dinamici (real time) che producono flussi continui di informazione. Sono proprio questi che suscitano maggior interesse per gli utenti finali poiché permettono di poter avere informazioni, predizioni e deduzioni in tempo reale. Per esempio, stato e predizioni su parcheggi, traffico, consumi, ambientc. Su tale base si sviluppano soluzioni per la diagnosi precoce di eventi critici.

AL MOMENTO KM4CITY, come base di conoscenza a servizi di vari progetti, copre con i suoi dati tutta la Toscana in termini di informazioni stradali, punti di interesse (cultura, turismo, alloggi, ristorazione, educazione, commercio: circa 300.000 POI classificati in 500 categorie), servizi di trasporto pubblico (da 16 operatori), benzinai, informazioni sul triage di ospedali, flussi traffico da circa 800 sensori, oltre 200 parcheggi e social media tramite TwitterVigilance: centinaia di migliaia di nuovi dati complessi al giorno.

LE PRINCIPALI PROBLEMATICHE che sono state affrontate e risolte sono legate alla gestione della complessità dell’acquisizione di dati eterogenei (diverse sorgenti, protocolli, standard, formati), ai volumi di questi dati chearrivano in continuo dalla Città e dalle App, alla loro qualità e discontinuità; configurando in queso modo il problema smart city nello spazio dei Big Data.

LA MANCANZA D’INTEROPERABILITÀ e la qualità limitata dei dati sono gestite in KM4City tramite strumenti di data mining per aggregare i dati e correggere i problemi entro parametri accettabili. Sulla base di conoscenza in KM4City sono quindi messi in esecuzione svariati algoritmi di data analytics che si basano su intelligenza artificiale e statistica per la produzione anche in tempo reale di predizioni, suggerimenti, stimoli verso i cittadini e i decisori pubblici.

I DATI, CHE AGGREGATI COSTITUISCONO INFORMAZIONE e quindi conoscenza, sono quindi al centro di qualsiasi processo/servizio delle Città, e il miglioramento della loro gestione e distribuzione è un tassello fondamentale per abilitare politiche efficaci di innovazione urbana. Dimensione tecnologica e dimensione sociale si devono fondere, quindi, impiegando strumenti ICT per aumentare le prestazioni nella co-creazione, co-gestione ed erogazione dei servizi urbani, siano essi pubblici, di pubblica utilità o privati. E ciò può essere assicurato solo attraverso la partecipazione attiva di tutti i soggetti che, insieme, costituiscono la Città. In questo ambito Engineering gioca un ruolo di primo piano per l’innovazione a stretto contatto con tutti i fornitori di servizi per il territorio (comuni, ospedali, utilities, trasporti, energia, …) e la neonata Municipia esprime proprio questo momento di sintesi e di prossimità sul territorio a scala urbana.

ENGINEERING È ANCHE UN PLAYER PRIMARIO NELLA RICERCA E INNOVAZIONE, nazionale ed europea, avendoun ruolo determinante nelle più importanti iniziative continentali sulle Service Open Platform (FIWARE), sull’Internet delle Cose (AIOTI), sulla sicurezza (EOS e ECSO) e, nello specifico, sul valore aggiunto dei big data nei domini rilevantidella società contemporanea.Engineering infatti è tra i membri fondatori della Big Data Value Association (www.bdva.eu), a guida industriale, che conta più di 160 membri distribuiti in tutta Europa e rappresenta la controparte privata alla Commissione Europea nell'implementazione del programma Big Data Value PPP (Private Public Partnership). Il coinvolgimento aziendale nella BDVA copre diversi aspetti che vanno dalla presenza nel Board of Directors per la gestione strategica dell’associazione e i rapporti con la Commissione Europea, al coinvolgimento o gestione di gruppi di lavoro specifici.

ATTUALMENTE ENGINEERING SI PONE ALLA GUIDA DI GRUPPI quali Smart Cities, Smart Manufacturing Industry e Business che, a partire da un rilevante interesse internazionale, stanno attirando una notevole partecipazione dei membri dell’Associazione. In aggiunta a questi gruppi, l’azienda contribuisce all'evoluzione di temi quali healthcare, media e finanza, oltre che a tematiche più trasversali come quelle tecniche, legali e sociali.

UNA DELLE ESPERIENZE PIÙ SIGNIFICATIVE IN ITALIA è stata concettualizzata e realizzata dall’Università di Firenze per il Comune: il progetto KM4City (Knowledge Model for the City), di cui il Professor Paolo Nesi è coordinatore.

.............................................................................................................................................................................10

Quali sono i beneficiari del progetto KM4City? KM4City è un esempio di come un uso intelligente dei dati possa supportare la Città per pianificare e sviluppare nuovi servizi. Può essere replicato in altri territori?

Come si alimenta KM4City?

Perché KM4City è un riferimento nello scenario internazionale?

KM4City può diventare un asset importante a supporto della pianificazioneurbana?

I prossimi passi?

KM4City - Knowledge Model for the City

L’ESPERIENZA KM4CITY: INTERVISTA A PAOLO NESI, COORDINATORE DEL PROGETTO

Page 12: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

Flavia Marzano@flavia_marzano

Laureata a Pisa in Scienze dell'Informazione, da più di 25 anni opera per l'innovazione della PA. Docente in Tecnologie per la PA presso Università di Bologna, Torino, Roma Sapienza e Link Campus University dove ha ideato e dirige il Master Smart Public Administration. Social network manager, esperta di comunità virtuali, fondatrice e Presidente (dimissionaria) di Stati Generali dell'Innovazione, ideatrice e animatrice della rete WISTER (Women for Intelligent and Smart Territories). Oggi è Assessora Roma Semplice.

INTERVISTA A FLAVIA MARZANO

Innovare per semplificare tanto da poter associare la parola Semplice a una città complessa come Roma. Questo il compito non banale che si è data Flavia Marzano, informatica, docente universitaria di tecnologie per la PA, impegnata da sempre nel mondo del volontariato a favore dell’innovazione e ora Assessora alla Semplificazione con delega al progetto smart city del Comune di Roma.

SONO TRASCORSI POCO PIÙ DI SETTE MESI da quando la Sindaca mi ha proposto l’incarico di Assessora a Roma Semplice. Una sfida senza dubbio impegnativa che ho accolto riconoscendovi una preziosa opportunitàper mettere a disposizione di Roma e dei romani competenze ed esperienze maturate in quella che, oggi, definiscola mia “vita professionale precedente” in cui per quasi trent’anni ho lavorato come “tecnica” al fianco delle amministrazioni “alzando la palla” alla politica. Un onere ma soprattutto un grande onore.Recentemente mi è stato detto che “Roma Semplice” rappresenta una contraddizione in termini, una sortadi ossimoro. Per rispondere a questa osservazione mi piace partire dalla definizione contenuta nelle Linee programmatiche 2016-2021 per il Governo di Roma Capitale: “Roma è semplice se diventa un luogo dove l’esercizio dei diritti e il rispetto dei doveri siano facili per tutti e dove tutti possano contribuire al miglioramento. È questa la visione che guida le attività che abbiamo intrapreso con l’Assessorato Roma Semplice in questi mesi, a partire da quattro macro aree di intervento: open government, competenze digitali, agenda digitale (servizi digitali, semplificazione processi interni all’Amministrazione, connettività), smart city.

INNANZITUTTO COME DOVEROSO ADEMPIMENTO AGLI OBBLIGHI NORMATIVI. In secondo luogo perchéla pubblicazione da parte della PA dei dati in formato aperto e riusabile è un intervento strategico al fine non solodi valorizzare il patrimonio di informazioni pubbliche in possesso delle amministrazioni ma anche per garantire trasparenza, accountability e partecipazione, temi prioritari all’interno del programma di governo di Roma Capitale.In questo contesto, come Assessorato Roma Semplice siamo al lavoro per definire un nuovo programma strategico che preveda la riorganizzazione del portale Open Data del Comune di Roma, anche attraverso possibili accordi di partenariato con altri enti territoriali. I principali obiettivi, inseriti all’interno dell’Agenda Digitale di Roma Capitale, sono:• rendere accessibili e riusabili i dati dell’Amministrazione e, in generale, su Roma• rendere comprensibili per i cittadini i dati principali dell’Amministrazione• promuovere il riuso dei dati per la realizzazione di servizi da parte delle imprese• promuovere il coinvolgimento dei city-user e, in generale, degli stakeholder, nell’identificazione dei dati da aprire.

PERCHÉ OPEN DATA IN UN ENTE LOCALE?

INNOVAZIONE FA RIMA CON SEMPLIFICAZIONE?

IL PROGETTO PIÙINTERESSANTE SU OPEN DATA VISTO?

COME POSSONO I BIG DATA AIUTARE LA PA NEL GESTIRE AL MEGLIO LE RISORSE PUBBLICHE?

DA SOSTENITRICE CONVINTA DELL'OPENNESS, QUALI I VANTAGGI DELL’APERTURA E DELLA CONDIVISIONE DI DATI E SOPRATTUTTO DELLA CONOSCENZA?

QUALI I DATI PIÙ UTILI E PIÙ DIFFICILI DA PUBBLICARE SECONDO LA SUA ESPERIENZA?

InNOVAZIONE fa rima con semplificazione

PEOPLE EXPERIENCE

Page 13: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

Innovare per semplificare tanto da poter associare la parola Semplice a una città complessa come Roma. Questo il compito non banale che si è data Flavia Marzano, informatica, docente universitaria di tecnologie per la PA, impegnata da sempre nel mondo del volontariato a favore dell’innovazione e ora Assessora alla Semplificazione con delega al progetto smart city del Comune di Roma.

SONO TRASCORSI POCO PIÙ DI SETTE MESI da quando la Sindaca mi ha proposto l’incarico di Assessora a Roma Semplice. Una sfida senza dubbio impegnativa che ho accolto riconoscendovi una preziosa opportunitàper mettere a disposizione di Roma e dei romani competenze ed esperienze maturate in quella che, oggi, definiscola mia “vita professionale precedente” in cui per quasi trent’anni ho lavorato come “tecnica” al fianco delle amministrazioni “alzando la palla” alla politica. Un onere ma soprattutto un grande onore.Recentemente mi è stato detto che “Roma Semplice” rappresenta una contraddizione in termini, una sortadi ossimoro. Per rispondere a questa osservazione mi piace partire dalla definizione contenuta nelle Linee programmatiche 2016-2021 per il Governo di Roma Capitale: “Roma è semplice se diventa un luogo dove l’esercizio dei diritti e il rispetto dei doveri siano facili per tutti e dove tutti possano contribuire al miglioramento. È questa la visione che guida le attività che abbiamo intrapreso con l’Assessorato Roma Semplice in questi mesi, a partire da quattro macro aree di intervento: open government, competenze digitali, agenda digitale (servizi digitali, semplificazione processi interni all’Amministrazione, connettività), smart city.

INNANZITUTTO COME DOVEROSO ADEMPIMENTO AGLI OBBLIGHI NORMATIVI. In secondo luogo perchéla pubblicazione da parte della PA dei dati in formato aperto e riusabile è un intervento strategico al fine non solodi valorizzare il patrimonio di informazioni pubbliche in possesso delle amministrazioni ma anche per garantire trasparenza, accountability e partecipazione, temi prioritari all’interno del programma di governo di Roma Capitale.In questo contesto, come Assessorato Roma Semplice siamo al lavoro per definire un nuovo programma strategico che preveda la riorganizzazione del portale Open Data del Comune di Roma, anche attraverso possibili accordi di partenariato con altri enti territoriali. I principali obiettivi, inseriti all’interno dell’Agenda Digitale di Roma Capitale, sono:• rendere accessibili e riusabili i dati dell’Amministrazione e, in generale, su Roma• rendere comprensibili per i cittadini i dati principali dell’Amministrazione• promuovere il riuso dei dati per la realizzazione di servizi da parte delle imprese• promuovere il coinvolgimento dei city-user e, in generale, degli stakeholder, nell’identificazione dei dati da aprire.

LATO CITTADINI LE MAGGIORI RICHIESTE DI DATI riguardano, come è comprensibile, i servizi pubblici, la mobilità, la mappatura dei cantieri per semplificare la viabilità, i dati sul pendolarismo e il turismo, quelli sull’accessibilità e la sostenibilità ambientale. Si tratta di dati di cui l’amministrazione dispone e su cui siamo al lavoro per renderli completamente aperti e riutilizzabili.A questo proposito segnalo che il 4 marzo prossimo, in occasione dell’International Open Data Day 2017 e della Settimana Nazionale dell’Amministrazione Aperta promossa dal Dipartimento della Funzione Pubblica, l’Assessorato Roma Semplice invita cittadini, imprese, organizzazioni della società civile, esperti di Open Data ad un incontro di co-progettazione in Campidoglio, dalle 9 alle 15, in sala della Protomoteca.L’obiettivo dell’Amministrazione Capitolina è avviare un percorso partecipato sull’apertura e il riuso dei dati pubblici, definendo insieme ai partecipanti una roadmap condivisa. A partire dai dati già disponibili sul portale Open Datae da altri che lo saranno in occasione dell’incontro, saranno formati gruppi di lavoro per definire quali siano i dati più significativi e il loro possibile utilizzo per promuovere innovazione sociale e processi di co-progettazione anche attraverso sperimentazioni pratiche sui dati disponibili.

TRA LE NUMEROSE ESPERIENZE VIRTUOSE di apertura dei dati realizzate nel corso degli ultimi anni sia a livello internazionale che nazionale, cito volentieri il catalogo Open Data del Trentino, uno dei portali che considero tra i più evoluti dal punto di vista non solo della quantità e qualità dei dataset disponibili ma anche per gli strumenti tecnologici di visualizzazione dei dati offerti.

L’ANALISI DEI BIG DATA ATTRAVERSO L’IMPIEGO DELLA SENTIMENT ANALYSIS, ad esempio, consente una più facile comprensione delle informazioni che, sebbene non strutturate, possono contribuire alla creazione di un “cruscotto decisionale”, uno strumento impiegabile dalla politica per assumere decisioni di indirizzo e, al tempo stesso, al servizio delle strutture dell’amministrazione e dei dirigenti per supportarli in una gestione più oculata ed efficiente delle risorse pubbliche, fornendo loro un quadro maggiormente dettagliato e ricco rispetto all’analisi dei semplici dati aperti.

DA SEMPRE, NEL CORSO DELLA MIA “VITA PROFESSIONALE PRECEDENTE” prima menzionata, ho cercato di portare nella politica locale e nazionale il concetto di condivisione. Condivisione di dati, di conoscenza, di esperienze. Un impegno che ho perseguito lavorando con altre persone e associazioni e che ha condotto a traguardi importanti su FOIA, Open Data, Software Libero, solo per citarne alcuni. Un impegno che, chiaramente, prosegue con pari convinzione nelle mie attuali vesti di Assessora mantenendo viva la collaborazione con le associazioni e in generale con gli stakeholder, fondamentali nella funzione di raccordo tra l’amministrazione e i cittadini di cui raccolgono le istanze.Rappresentanze delle Associazioni di categoria e della società civile sono state, infatti, coinvolte nel percorso partecipativo che l’Assessorato Roma Semplice ha perseguito per la definizione dell’Agenda Digitale di Roma Capitale. Per incentivare l'interazione tra l’Amministrazione e i cittadini secondo i princìpi dell’Open Government e della democrazia partecipata è stata, inoltre, aperta una consultazione sia on-line - tramite l’Ideario - chein presenza, con tavoli di approfondimento e confronto.Condivisione, trasparenza e partecipazione possono e devono, dunque, diventare elementi costitutivi e identitari dell’Amministrazione. Obiettivi, questi, che non possono prescindere dall’accessibilità dei dati che consente al cittadino la possibilità di conoscere, verificare e valutare con consapevolezza l’operato della macchina pubblica. In questo contesto le nuove tecnologie si pongono come strumento di facilitazione del processo di acquisizione delle informazioni, garantendo così il coinvolgimento dei cittadini nelle scelte dell’Amministrazione.

IL PROGETTO PIÙINTERESSANTE SU OPEN DATA VISTO?

COME POSSONO I BIG DATA AIUTARE LA PA NEL GESTIRE AL MEGLIO LE RISORSE PUBBLICHE?

DA SOSTENITRICE CONVINTA DELL'OPENNESS, QUALI I VANTAGGI DELL’APERTURA E DELLA CONDIVISIONE DI DATI E SOPRATTUTTO DELLA CONOSCENZA?

QUALI I DATI PIÙ UTILI E PIÙ DIFFICILI DA PUBBLICARE SECONDO LA SUA ESPERIENZA?

13

InNOVAZIONE fa rima con semplificazione

Per sintetizzare le attività che l’Assessorato Roma Semplice sta portando avanti sul fronte dell’Openness abbiamo iniziato a declinare un nostro personale alfabeto: l’Open ABC.

Open A è Open Agenda: la mia agenda è pubblica, aperta, condivisa e consultabile on-line direttamentedalla pagina istituzionale dell'Assessorato; chiunque può sapere dove sono, chi incontro, quale è il calendario dei miei appuntamenti.Open B è Open Budget: i Bilanci della Pubblica Amministrazione, come è noto, devono essere pubbliciper legge. Attraverso la piattaforma OpenBilanci, i Bilanci di Roma Capitale degli ultimi 10 annisono stati resi più facilmente leggibili e comprensibili anche per i non addetti ai lavori grazie ad apposite infografiche esplicative.Open C è Open Code: lo scorso ottobre la Giunta ha approvato una delibera che prevede l’utilizzodel software libero e la migrazione progressiva dagli attuali sistemi informatici dell’amministrazione capitolinaverso soluzioni Open Source.Un alfabeto che vogliamo arricchire e popolare anche guardando alle esperienze delle altre amministrazioni italiane su questi temi per mettere in comune l’innovazione. “Mettiamo in Comune l’Innovazione” è il titolo dell’iniziativa a cui abbiamo dato avvio lo scorso ottobre a Roma e che in questi mesi è proseguita attraverso un roadshow che ha coinvolto numerose città italiane tra cui Bologna,Reggio Calabria, Milano con l’obiettivo di aprire un spazio di condivisione e confronto tra gli Assessori all'innovazione e al Digitale di tutti i Comuni italiani.Prossimo appuntamento romano il 20 Marzo in Campidoglio, Sala della Protomoteca.

Flavia Marzano@flavia_marzano

Laureata a Pisa in Scienze dell'Informazione, da più di 25 anni opera per l'innovazione della PA. Docente in Tecnologie per la PA presso Università di Bologna, Torino, Roma Sapienza e Link Campus University dove ha ideato e dirige il Master Smart Public Administration. Social network manager, esperta di comunità virtuali, fondatrice e Presidente (dimissionaria) di Stati Generali dell'Innovazione, ideatrice e animatrice della rete WISTER (Women for Intelligent and Smart Territories). Oggi è Assessora Roma Semplice.

INTERVISTA A FLAVIA MARZANO

Innovare per semplificare tanto da poter associare la parola Semplice a una città complessa come Roma. Questo il compito non banale che si è data Flavia Marzano, informatica, docente universitaria di tecnologie per la PA, impegnata da sempre nel mondo del volontariato a favore dell’innovazione e ora Assessora alla Semplificazione con delega al progetto smart city del Comune di Roma.

SONO TRASCORSI POCO PIÙ DI SETTE MESI da quando la Sindaca mi ha proposto l’incarico di Assessora a Roma Semplice. Una sfida senza dubbio impegnativa che ho accolto riconoscendovi una preziosa opportunitàper mettere a disposizione di Roma e dei romani competenze ed esperienze maturate in quella che, oggi, definiscola mia “vita professionale precedente” in cui per quasi trent’anni ho lavorato come “tecnica” al fianco delle amministrazioni “alzando la palla” alla politica. Un onere ma soprattutto un grande onore.Recentemente mi è stato detto che “Roma Semplice” rappresenta una contraddizione in termini, una sortadi ossimoro. Per rispondere a questa osservazione mi piace partire dalla definizione contenuta nelle Linee programmatiche 2016-2021 per il Governo di Roma Capitale: “Roma è semplice se diventa un luogo dove l’esercizio dei diritti e il rispetto dei doveri siano facili per tutti e dove tutti possano contribuire al miglioramento. È questa la visione che guida le attività che abbiamo intrapreso con l’Assessorato Roma Semplice in questi mesi, a partire da quattro macro aree di intervento: open government, competenze digitali, agenda digitale (servizi digitali, semplificazione processi interni all’Amministrazione, connettività), smart city.

INNANZITUTTO COME DOVEROSO ADEMPIMENTO AGLI OBBLIGHI NORMATIVI. In secondo luogo perchéla pubblicazione da parte della PA dei dati in formato aperto e riusabile è un intervento strategico al fine non solodi valorizzare il patrimonio di informazioni pubbliche in possesso delle amministrazioni ma anche per garantire trasparenza, accountability e partecipazione, temi prioritari all’interno del programma di governo di Roma Capitale.In questo contesto, come Assessorato Roma Semplice siamo al lavoro per definire un nuovo programma strategico che preveda la riorganizzazione del portale Open Data del Comune di Roma, anche attraverso possibili accordi di partenariato con altri enti territoriali. I principali obiettivi, inseriti all’interno dell’Agenda Digitale di Roma Capitale, sono:• rendere accessibili e riusabili i dati dell’Amministrazione e, in generale, su Roma• rendere comprensibili per i cittadini i dati principali dell’Amministrazione• promuovere il riuso dei dati per la realizzazione di servizi da parte delle imprese• promuovere il coinvolgimento dei city-user e, in generale, degli stakeholder, nell’identificazione dei dati da aprire.

PERCHÉ OPEN DATA IN UN ENTE LOCALE?

INNOVAZIONE FA RIMA CON SEMPLIFICAZIONE?

IL PROGETTO PIÙINTERESSANTE SU OPEN DATA VISTO?

COME POSSONO I BIG DATA AIUTARE LA PA NEL GESTIRE AL MEGLIO LE RISORSE PUBBLICHE?

DA SOSTENITRICE CONVINTA DELL'OPENNESS, QUALI I VANTAGGI DELL’APERTURA E DELLA CONDIVISIONE DI DATI E SOPRATTUTTO DELLA CONOSCENZA?

QUALI I DATI PIÙ UTILI E PIÙ DIFFICILI DA PUBBLICARE SECONDO LA SUA ESPERIENZA?

InNOVAZIONE fa rima con semplificazione

PEOPLE EXPERIENCE

Page 14: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

LA CRESCENTE RICHIESTA DI SOLUZIONI talvolta generosamente etichettate come Big Data porta spessocon sé un’aspettativa di soluzione per antichi malumori legati alla gestione del dato, confondendo a volte la tecnologia con le attività progettuali da mettere in campo per raggiungere il proprio obiettivo. Sul piano tecnologico, dimensionando adeguatamente il cluster da attuare, si possono giocare volume e velocità, intendendo quest’ultima come tempo di risposta di un sistema in esercizio, ma non come rapidità del processo di approvvigionamento dei dati,in cui subentrano altri fattori che andiamo a considerare.

NELLA TRADIZIONALE DISTINZIONE TRA SISTEMI produttori di dati (i cosiddetti operazionali o transazionali) e sistemi di analisi, si è spesso tentati di unificare i due livelli, sostanzialmente spostando l’analisi sul piano operativo stesso (operational intelligence, real-time), per rimediare ai limiti di questa distinzione che porta lunghe attese e costi difficili da comprendere per portare in produzione una nuova informazione. Ma basare interamente i sistemi di analisisul livello operazionale ha comunque delle controindicazioni (elevati costi delle appliance in-memory) e presenta dei limiti (carico concorrente tra operazionale e analitico, parzialità dell’operazionale se non si opera con un unico ERPma con molteplici soluzioni gestionali) che hanno contribuito a contenere questa tendenza. Con l’avvento dei Big Data, sistemi distribuiti e scalabili che non richiedono un hardware pregiato, sembra essere stata offerta una via più percorribile per il superamento di questa distinzione ed è facile pensare che il datawarehouse possa diventare obsoleto, superato da un più vasto data lake contenente tutto il dato originale, a livello operativo.

Quando i Big Data diventano Valore?

Grazia Cazzin@gcazzin

Direttore degli SpagoBI Labs e responsabile dell’offerta del Centro di Competenza Big Data, nella Direzione Ricerca e Innovazione del Gruppo Engineering. È fondatrice e project leader della suite Open Source SpagoBI della Big Data Initiative, del consorzio internazionale OW2 e dell’Hadoop User Group italiano. Ha una consolidata e pluriennale esperienza su temi quali lo sviluppo di applicazioni aziendali, la modellazione dati, il datawarehousing, l’analisi dimensionale e la business intelligence. È stata docente esterna di Business Intelligence e Sistemi Direzionali presso l’Università degli Studi di Torino, Facoltà di SMFN, nel corso di laurea in Informatica.

SE IL POTENZIALE di un data lake con il dato operazionale privo di limiti temporali è confrontabile a quello del datawarehouse,non è vero che attuare quel potenziale sia un’attività marginale o semplicemente risolvibile dal cambio di infrastruttura. La modellazione dati che viene fatta in un datawarehouse imprimegià una prima semantica e una rete di controlli (integrità referenziale) che definiscono anche il livello minimo di qualità garantitadel dato che viene caricato.

A questo va aggiunto che normalmente il datawarehouse risolveanche altri tipi di problematiche quali ad esempio:• il raccordo storico tra anagrafiche che cambiano nel tempo (lo stesso oggetto logico che cambia codice di anno in anno)• la variabilità delle caratteristiche di uno stesso oggetto nel tempo (l’appartenenza ad un gruppo, ad un portafoglio, ad una unità organizzativa)• il raccordo tra dati e anagrafiche che provengono da sistemi diversi (lo stesso cliente che ha un identificativo diverso nel CRM o nel sistema di billing)• il raccordo tra dati e anagrafiche che provengono da aziende diverse nel caso di fusioni e acquisizioni.Nessun data lake, anche se in grado di ricevere i dati operazionalidi tutti i sistemi di un’azienda per un tempo tendente all’infinito,

risolverà di per sé le questioni appena citate, che sono problematiche derivanti dai dati stessi e non dall’infrastruttura o paradigma ospite.Per cui, anche volendo seguire la strada dell’abbandono dei datawarehouse, bisognerà sviluppare sul data lake tutta una seriedi processi di trasformazione e derivazione dai dati primari al finedi garantire la stessa coerenza, funzionalità informativa, possibilitàdi incrocio e revisione storica che è solito aspettarsi oggi da un datawarehouse. Proprio perché le problematiche del dato non sono risolte da una piattaforma tecnologica, anche le questioni di qualità dell’informazione si ripropongono sul data lake esattamente comesi presentano sulle architetture tradizionali, con l’unica differenza che non abbiamo più alcuna barriera strutturale in ingresso.

I sistemi Big Data sono fatti innanzitutto per accogliere dati (come una grande staging area), indipendentemente dal loro formato, origine e qualità. Per trasformarli in informazione di valore bisogna però affrontare tutte le problematiche enunciate fin qui, con approcci e tecniche magari diverse, più orientate all’utilizzo finale che ad una coerenza complessiva, ma comunque con attività e costi da considerare.Se poi, come auspichiamo, si vira verso i Big Data anche per accogliere dati nuovi, esterni al dominio strettamente aziendale,le problematiche si amplificano ancora ma aprono anche interessantie nuove opportunità.

Quali opportunità con i Big Data?LA SFIDA INNOVATIVA dei Big Data viene colta appieno dalle iniziative che non si richiudono in un discorso di pura tecnologia e non rimangono confinate nel perimetro dell’IT. Le opportunità più interessanti nascono quando si lavora con dati nuovi o si opera in modo nuovo su dati vecchi o si fanno contemporaneamente le due cose, cercando di arricchire l’informazione già governata con altri dati, interni o esterni che siano. Il primo passo che apre ad un dato esterno è fatto solitamente dal marketing, che vuole valutare la reputazione del brand o il sentimento diffuso verso una certa iniziativa. Questo è certamente uno spazio importante, ma limitato ai soggetti con cui si ha già una qualche relazione, costruendo un’informazione quasi autoreferenziale. Si può fare un passo avanti cercando di costruire informazioni di contesto allargate, grazie all’integrazione di contenuti anche non strettamente riconducibili al proprio perimetro informativo (open data, social, meteo, data set a pagamento, linked data). Poiché però non si tratta mai di informazioni puntuali su soggetti singoli chiaramente identificabili, possono sembrare informazioni inutilizzabili qualora si sia ancora nell’idea che l’unico dato fruibile sia quello in perfetto raccordo con i proprio sistemi, quello in cui sia possibile identificare un soggetto reale e ricondurlo ad una propria istanza anagrafica (cosa peraltro che potrebbe generare qualche problema di violazione della privacy da più parti). Basterebbe però invertire l’approccio e pensare di generalizzare il proprio dato quel tanto che basta a renderlo confrontabile con un dato esterno, operando sostanzialmente per cluster. A questo livello l’informazione utilizzabile è molta e va ad arricchire il cluster magari

con dati di reddito, di spesa, di propensione a certi tipologie di attività e così via. Non si potrà mai dire che un cliente (di cui si conoscono con certezza solo le informazioni minime atte a regolare un contratto), poichè cade in un certo cluster, guadagni sicuramente una certa cifra o spenda realmente in un determinato modo. Si potrà però affermare con un ragionevole grado di accuratezza, che persone che assomigliano molto ad un dato cliente, hanno solitamente una certa fascia di redditoe sono più o meno propensi ad acquistare alcune categorie di prodotti. Lo stesso si potrebbe fare esaminando il territorio da un punto di vista più alto: dei propri clienti si ha magari l’indirizzo di residenza ma niente di più circa la zona in cui questi vivono. Li si potrebbe però collocare territorialmente e, ad un livello meno puntuale (non per indirizzo ma per quartiere, città, provincia, regione), arricchire l’informazione con indicatori demografici (numero di abitanti per tipologia: sesso, fascia di età, nazionalità italiana/straniera) o legati al tessuto sociale e industriale (grado di scolarizzazione, tasso di occupazione, numero di PMI) e così via.

SOLO COSÌ È POSSIBILE RACCOGLIERE gli elementi per fare un’analisi completa della propria forza di attrazione reale, più che confrontando l’anno corrente con il precedente.

SOLO COSÌ È POSSIBILE ANDARE OLTRE le usuali domande prestazionali (Ho raggiunto gli obiettivi? Ho contenuto le perdite? Ho massimizzato i ricavi? Ho efficientato i processi?) per affrontarecon nuove armi le domande più sfidanti, volte a impostare politiche di sviluppo più che di contenimento (Ho colto tutte le opportunità? Ho perso qualche treno? Sono dentro un cambiamento lento che non sto cogliendo? C’è una domanda che non sto captando?).

Approcci e tecniche per affrontare le problematiche di gestione del dato e trasformarlo in informazione di valore.

TECH FOCUS

� però necessario chiarirecosa la tecnologia può risolvere e dove rimane un semplice, seppur utile, supporto.

Si sta allargando anche il vero e proprio MERCATO DEI DATI o dei servizi basati sui dati, a conferma del loro valore non astratto ma BEN MONETIZZABILE per il quale il PREFISSO BIG non caratterizza neanche più la piattaforma tecnologica.

14

Page 15: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

LA CRESCENTE RICHIESTA DI SOLUZIONI talvolta generosamente etichettate come Big Data porta spessocon sé un’aspettativa di soluzione per antichi malumori legati alla gestione del dato, confondendo a volte la tecnologia con le attività progettuali da mettere in campo per raggiungere il proprio obiettivo. Sul piano tecnologico, dimensionando adeguatamente il cluster da attuare, si possono giocare volume e velocità, intendendo quest’ultima come tempo di risposta di un sistema in esercizio, ma non come rapidità del processo di approvvigionamento dei dati,in cui subentrano altri fattori che andiamo a considerare.

NELLA TRADIZIONALE DISTINZIONE TRA SISTEMI produttori di dati (i cosiddetti operazionali o transazionali) e sistemi di analisi, si è spesso tentati di unificare i due livelli, sostanzialmente spostando l’analisi sul piano operativo stesso (operational intelligence, real-time), per rimediare ai limiti di questa distinzione che porta lunghe attese e costi difficili da comprendere per portare in produzione una nuova informazione. Ma basare interamente i sistemi di analisisul livello operazionale ha comunque delle controindicazioni (elevati costi delle appliance in-memory) e presenta dei limiti (carico concorrente tra operazionale e analitico, parzialità dell’operazionale se non si opera con un unico ERPma con molteplici soluzioni gestionali) che hanno contribuito a contenere questa tendenza. Con l’avvento dei Big Data, sistemi distribuiti e scalabili che non richiedono un hardware pregiato, sembra essere stata offerta una via più percorribile per il superamento di questa distinzione ed è facile pensare che il datawarehouse possa diventare obsoleto, superato da un più vasto data lake contenente tutto il dato originale, a livello operativo.

Quali opportunità con i Big Data?LA SFIDA INNOVATIVA dei Big Data viene colta appieno dalle iniziative che non si richiudono in un discorso di pura tecnologia e non rimangono confinate nel perimetro dell’IT. Le opportunità più interessanti nascono quando si lavora con dati nuovi o si opera in modo nuovo su dati vecchi o si fanno contemporaneamente le due cose, cercando di arricchire l’informazione già governata con altri dati, interni o esterni che siano. Il primo passo che apre ad un dato esterno è fatto solitamente dal marketing, che vuole valutare la reputazione del brand o il sentimento diffuso verso una certa iniziativa. Questo è certamente uno spazio importante, ma limitato ai soggetti con cui si ha già una qualche relazione, costruendo un’informazione quasi autoreferenziale. Si può fare un passo avanti cercando di costruire informazioni di contesto allargate, grazie all’integrazione di contenuti anche non strettamente riconducibili al proprio perimetro informativo (open data, social, meteo, data set a pagamento, linked data). Poiché però non si tratta mai di informazioni puntuali su soggetti singoli chiaramente identificabili, possono sembrare informazioni inutilizzabili qualora si sia ancora nell’idea che l’unico dato fruibile sia quello in perfetto raccordo con i proprio sistemi, quello in cui sia possibile identificare un soggetto reale e ricondurlo ad una propria istanza anagrafica (cosa peraltro che potrebbe generare qualche problema di violazione della privacy da più parti). Basterebbe però invertire l’approccio e pensare di generalizzare il proprio dato quel tanto che basta a renderlo confrontabile con un dato esterno, operando sostanzialmente per cluster. A questo livello l’informazione utilizzabile è molta e va ad arricchire il cluster magari

con dati di reddito, di spesa, di propensione a certi tipologie di attività e così via. Non si potrà mai dire che un cliente (di cui si conoscono con certezza solo le informazioni minime atte a regolare un contratto), poichè cade in un certo cluster, guadagni sicuramente una certa cifra o spenda realmente in un determinato modo. Si potrà però affermare con un ragionevole grado di accuratezza, che persone che assomigliano molto ad un dato cliente, hanno solitamente una certa fascia di redditoe sono più o meno propensi ad acquistare alcune categorie di prodotti. Lo stesso si potrebbe fare esaminando il territorio da un punto di vista più alto: dei propri clienti si ha magari l’indirizzo di residenza ma niente di più circa la zona in cui questi vivono. Li si potrebbe però collocare territorialmente e, ad un livello meno puntuale (non per indirizzo ma per quartiere, città, provincia, regione), arricchire l’informazione con indicatori demografici (numero di abitanti per tipologia: sesso, fascia di età, nazionalità italiana/straniera) o legati al tessuto sociale e industriale (grado di scolarizzazione, tasso di occupazione, numero di PMI) e così via.

SOLO COSÌ È POSSIBILE RACCOGLIERE gli elementi per fare un’analisi completa della propria forza di attrazione reale, più che confrontando l’anno corrente con il precedente.

SOLO COSÌ È POSSIBILE ANDARE OLTRE le usuali domande prestazionali (Ho raggiunto gli obiettivi? Ho contenuto le perdite? Ho massimizzato i ricavi? Ho efficientato i processi?) per affrontarecon nuove armi le domande più sfidanti, volte a impostare politiche di sviluppo più che di contenimento (Ho colto tutte le opportunità? Ho perso qualche treno? Sono dentro un cambiamento lento che non sto cogliendo? C’è una domanda che non sto captando?).

Si sta allargando anche il vero e proprio MERCATO DEI DATI o dei servizi basati sui dati, a conferma del loro valore non astratto ma BEN MONETIZZABILE per il quale il PREFISSO BIG non caratterizza neanche più la piattaforma tecnologica.

15

LA CRESCENTE RICHIESTA DI SOLUZIONI talvolta generosamente etichettate come Big Data porta spessocon sé un’aspettativa di soluzione per antichi malumori legati alla gestione del dato, confondendo a volte la tecnologia con le attività progettuali da mettere in campo per raggiungere il proprio obiettivo. Sul piano tecnologico, dimensionando adeguatamente il cluster da attuare, si possono giocare volume e velocità, intendendo quest’ultima come tempo di risposta di un sistema in esercizio, ma non come rapidità del processo di approvvigionamento dei dati,in cui subentrano altri fattori che andiamo a considerare.

NELLA TRADIZIONALE DISTINZIONE TRA SISTEMI produttori di dati (i cosiddetti operazionali o transazionali) e sistemi di analisi, si è spesso tentati di unificare i due livelli, sostanzialmente spostando l’analisi sul piano operativo stesso (operational intelligence, real-time), per rimediare ai limiti di questa distinzione che porta lunghe attese e costi difficili da comprendere per portare in produzione una nuova informazione. Ma basare interamente i sistemi di analisisul livello operazionale ha comunque delle controindicazioni (elevati costi delle appliance in-memory) e presenta dei limiti (carico concorrente tra operazionale e analitico, parzialità dell’operazionale se non si opera con un unico ERPma con molteplici soluzioni gestionali) che hanno contribuito a contenere questa tendenza. Con l’avvento dei Big Data, sistemi distribuiti e scalabili che non richiedono un hardware pregiato, sembra essere stata offerta una via più percorribile per il superamento di questa distinzione ed è facile pensare che il datawarehouse possa diventare obsoleto, superato da un più vasto data lake contenente tutto il dato originale, a livello operativo.

Quando i Big Data diventano Valore?

Grazia Cazzin@gcazzin

Direttore degli SpagoBI Labs e responsabile dell’offerta del Centro di Competenza Big Data, nella Direzione Ricerca e Innovazione del Gruppo Engineering. È fondatrice e project leader della suite Open Source SpagoBI della Big Data Initiative, del consorzio internazionale OW2 e dell’Hadoop User Group italiano. Ha una consolidata e pluriennale esperienza su temi quali lo sviluppo di applicazioni aziendali, la modellazione dati, il datawarehousing, l’analisi dimensionale e la business intelligence. È stata docente esterna di Business Intelligence e Sistemi Direzionali presso l’Università degli Studi di Torino, Facoltà di SMFN, nel corso di laurea in Informatica.

SE IL POTENZIALE di un data lake con il dato operazionale privo di limiti temporali è confrontabile a quello del datawarehouse,non è vero che attuare quel potenziale sia un’attività marginale o semplicemente risolvibile dal cambio di infrastruttura. La modellazione dati che viene fatta in un datawarehouse imprimegià una prima semantica e una rete di controlli (integrità referenziale) che definiscono anche il livello minimo di qualità garantitadel dato che viene caricato.

A questo va aggiunto che normalmente il datawarehouse risolveanche altri tipi di problematiche quali ad esempio:• il raccordo storico tra anagrafiche che cambiano nel tempo (lo stesso oggetto logico che cambia codice di anno in anno)• la variabilità delle caratteristiche di uno stesso oggetto nel tempo (l’appartenenza ad un gruppo, ad un portafoglio, ad una unità organizzativa)• il raccordo tra dati e anagrafiche che provengono da sistemi diversi (lo stesso cliente che ha un identificativo diverso nel CRM o nel sistema di billing)• il raccordo tra dati e anagrafiche che provengono da aziende diverse nel caso di fusioni e acquisizioni.Nessun data lake, anche se in grado di ricevere i dati operazionalidi tutti i sistemi di un’azienda per un tempo tendente all’infinito,

risolverà di per sé le questioni appena citate, che sono problematiche derivanti dai dati stessi e non dall’infrastruttura o paradigma ospite.Per cui, anche volendo seguire la strada dell’abbandono dei datawarehouse, bisognerà sviluppare sul data lake tutta una seriedi processi di trasformazione e derivazione dai dati primari al finedi garantire la stessa coerenza, funzionalità informativa, possibilitàdi incrocio e revisione storica che è solito aspettarsi oggi da un datawarehouse. Proprio perché le problematiche del dato non sono risolte da una piattaforma tecnologica, anche le questioni di qualità dell’informazione si ripropongono sul data lake esattamente comesi presentano sulle architetture tradizionali, con l’unica differenza che non abbiamo più alcuna barriera strutturale in ingresso.

I sistemi Big Data sono fatti innanzitutto per accogliere dati (come una grande staging area), indipendentemente dal loro formato, origine e qualità. Per trasformarli in informazione di valore bisogna però affrontare tutte le problematiche enunciate fin qui, con approcci e tecniche magari diverse, più orientate all’utilizzo finale che ad una coerenza complessiva, ma comunque con attività e costi da considerare.Se poi, come auspichiamo, si vira verso i Big Data anche per accogliere dati nuovi, esterni al dominio strettamente aziendale,le problematiche si amplificano ancora ma aprono anche interessantie nuove opportunità.

Quali opportunità con i Big Data?LA SFIDA INNOVATIVA dei Big Data viene colta appieno dalle iniziative che non si richiudono in un discorso di pura tecnologia e non rimangono confinate nel perimetro dell’IT. Le opportunità più interessanti nascono quando si lavora con dati nuovi o si opera in modo nuovo su dati vecchi o si fanno contemporaneamente le due cose, cercando di arricchire l’informazione già governata con altri dati, interni o esterni che siano. Il primo passo che apre ad un dato esterno è fatto solitamente dal marketing, che vuole valutare la reputazione del brand o il sentimento diffuso verso una certa iniziativa. Questo è certamente uno spazio importante, ma limitato ai soggetti con cui si ha già una qualche relazione, costruendo un’informazione quasi autoreferenziale. Si può fare un passo avanti cercando di costruire informazioni di contesto allargate, grazie all’integrazione di contenuti anche non strettamente riconducibili al proprio perimetro informativo (open data, social, meteo, data set a pagamento, linked data). Poiché però non si tratta mai di informazioni puntuali su soggetti singoli chiaramente identificabili, possono sembrare informazioni inutilizzabili qualora si sia ancora nell’idea che l’unico dato fruibile sia quello in perfetto raccordo con i proprio sistemi, quello in cui sia possibile identificare un soggetto reale e ricondurlo ad una propria istanza anagrafica (cosa peraltro che potrebbe generare qualche problema di violazione della privacy da più parti). Basterebbe però invertire l’approccio e pensare di generalizzare il proprio dato quel tanto che basta a renderlo confrontabile con un dato esterno, operando sostanzialmente per cluster. A questo livello l’informazione utilizzabile è molta e va ad arricchire il cluster magari

con dati di reddito, di spesa, di propensione a certi tipologie di attività e così via. Non si potrà mai dire che un cliente (di cui si conoscono con certezza solo le informazioni minime atte a regolare un contratto), poichè cade in un certo cluster, guadagni sicuramente una certa cifra o spenda realmente in un determinato modo. Si potrà però affermare con un ragionevole grado di accuratezza, che persone che assomigliano molto ad un dato cliente, hanno solitamente una certa fascia di redditoe sono più o meno propensi ad acquistare alcune categorie di prodotti. Lo stesso si potrebbe fare esaminando il territorio da un punto di vista più alto: dei propri clienti si ha magari l’indirizzo di residenza ma niente di più circa la zona in cui questi vivono. Li si potrebbe però collocare territorialmente e, ad un livello meno puntuale (non per indirizzo ma per quartiere, città, provincia, regione), arricchire l’informazione con indicatori demografici (numero di abitanti per tipologia: sesso, fascia di età, nazionalità italiana/straniera) o legati al tessuto sociale e industriale (grado di scolarizzazione, tasso di occupazione, numero di PMI) e così via.

SOLO COSÌ È POSSIBILE RACCOGLIERE gli elementi per fare un’analisi completa della propria forza di attrazione reale, più che confrontando l’anno corrente con il precedente.

SOLO COSÌ È POSSIBILE ANDARE OLTRE le usuali domande prestazionali (Ho raggiunto gli obiettivi? Ho contenuto le perdite? Ho massimizzato i ricavi? Ho efficientato i processi?) per affrontarecon nuove armi le domande più sfidanti, volte a impostare politiche di sviluppo più che di contenimento (Ho colto tutte le opportunità? Ho perso qualche treno? Sono dentro un cambiamento lento che non sto cogliendo? C’è una domanda che non sto captando?).

Approcci e tecniche per affrontare le problematiche di gestione del dato e trasformarlo in informazione di valore.

TECH FOCUS

� però necessario chiarirecosa la tecnologia può risolvere e dove rimane un semplice, seppur utile, supporto.

Si sta allargando anche il vero e proprio MERCATO DEI DATI o dei servizi basati sui dati, a conferma del loro valore non astratto ma BEN MONETIZZABILE per il quale il PREFISSO BIG non caratterizza neanche più la piattaforma tecnologica.

14

Page 16: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

MARKET INTERVIEW

16

Dati, strumenti di business intelligence e analytics al servizio dell’Automotive

Innovare nel settore auto

Inizia in questo modo il colloquio con Luigi Falasco, Direttore dei Sistemi Informativi di Renault Italia. Negli ultimi anni anche nel settore automobilistico l’attenzione si è gradualmente spostata dal prodotto al consumatore, per cui è necessaria un’analisi attenta dei bisogni della persona ma soprattutto delle sue aspettative, per fornire un’esperienza di acquisto ad hoc, omnichannel, in grado di massimizzare le probabilità d’acquisto e di riacquisto. Quali i percorsi intrapresi da Renault Italia in tal senso?

IL CONCETTO DI DRIVING EXPERIENCE, così come i bisogni dei conducenti, sono in continua evoluzione e a dimostrarlo c’è la crescita continua dell’utilizzo delle auto connesse: 27 milioni sul mercato mondiale attuale, cifra destinata a triplicare entro il 2020. I servizi di Infotainment, Security, Maintenance, Driving Style e Navigation offronoun valore aggiunto tangibile. Investire in tecnologie che permettano al guidatore di comunicare con la casa madre, il servizio assistenza, il dealer o l’officina più vicina, oppure di ottenere informazioni personalizzate in base ai propri bisogni direttamente nell’abitacolo, garantirà sempre più agli OEM (Original Equipment Manufacturer) maggiore competitività ed il rafforzamento del legame tra brand ed utente, favorendo la loro interazione anche dopo l’acquisto e migliorando il customer journey. Anche per noi come per molte altre aziende uno degli obiettivi principali è migliorarela customer experience con un programma molto vasto per accogliere il cliente. Negli ultimi 3 anni stiamo sviluppando molto l’attività del CRM per personalizzare le offerte migliori al cliente che tengano in maggior conto i bisogni, le esigenze e i tempi del cliente stesso.

Quali le strategie messe in atto da Renault?

STIAMO PROCEDENDO ALL’INTERNO DELL’AZIENDA ad un utilizzo spinto della business intelligence e diffondendo al tempo stesso tool per facilitare il lavoro dei colleghi, ad esempio automatizzando la redazionedi report attraverso il recupero e l’analisi dei dati e previsioni di business, andando in profondità nell’analisi delle dinamiche commerciali. Esaminando l’efficacia storica di vari tipi di azioni promozionali cerchiamo anche di capire quanto l’utilizzo possa essere realmente efficace.L’integrazione di mondo reale e digitale è necessaria non solo per permettere al consumatore di utilizzare diversi canali per l’acquisto, ma anche e soprattutto per facilitare la comparazione e la valutazione dei prodotti, e per migliorare la showroom experience. Creare una strategia omnichannel significa essere pronti a soddisfare gusti, bisognied aspettative del cliente, durante tutto il customer journey, dalla valutazione all’acquisto, alla creazione di loyalty, e con qualsiasi touchpoint.

Quali i progetti più importanti ai quali state lavorando?

INSIEME A ENGINEERING ABBIAMO PROGETTATO L’AREA CUSTOMER INTERACTION 2.0, ovvero uno spazio innovativo all’insegna della multimedialità e delle tecnologie digitali. Abbiamo immaginato quella che può esserela “Concessionaria del Futuro” che potrà riconoscere e accogliere il cliente in maniera personalizzata all’ingressoin concessionaria, notificare aila forza vendita l’arrivo di un cliente, gestire i messaggi pubblicitari e informativiin maniera mirata in concessionaria e le offerte post-visita, aumentare l’appeal delle vetture esposte in basealle informazioni richieste dal cliente interessato all’acquisto, gestire i sondaggi e i questionari di gradimento. Sempre in questo contesto di sviluppo abbiamo deciso di implementare in una delle nostre concessionarie un progetto pilota sull’analisi dei dati di frequentazione degli showroom attraverso l’utilizzo di una tecnologia innovativa che traduce il flusso di visitatori in un algoritmo per un conteggio anonimo ma univoco. L’analisi dell’affluenza che avviene attraverso dispositivi video non prevede lo stoccaggio di immagini per rispetto della privacy dei visitatori. Indubbiamente però questa tipologia di analisi è molto utile per approfondire la dinamica commerciale, mettendo in collegamento in maniera diretta l’attivazione di azioni promozionali con l’affluenza nei punti di vendita. Ad esempio lo scorso weekend abbiamo organizzato una due giorni di porte aperte e grazie a questo progetto abbiamo rilevato un incremento intorno al 50-60% di visitatori. L’analisi di questo flusso ci consente di conoscere meglio le attese dei clienti e avvicinarli maggiormentee più efficacemente all’offerta Renault.

Quali sono gli obiettivi raggiunti in termini di rafforzamento del brand aziendale?

DALLE NOSTRE INDAGINI DI SODDISFAZIONE DEL CLIENTE abbiamo raggiunto un ottimo posizionamento per la raccomandabilità, raggiungendo una percentuale di oltre l’80% sia in vendita sia in post-vendita, che è ancora in crescita. In Italia la percentuale di fedeltà media nei confronti dell’acquisto dell’auto è intorno al 35% quindi c’è molto lavoro da fare per posizionarsi meglio sul mercato. Il fatto che più di 8 clienti su 10 siano risultati soddisfatti non solo del prodotto ma anche della cura ed assistenza è per noi un risultato importante. Un tratto che ci contraddistingue come azienda è indubbiamente l’apertura all’innovazione anche al fine di sviluppare una migliore user experience.

Qual è nel vostro settore il valore aggiunto dei dati e dell’analisi dei dati?

UN FATTORE CHIAVE PER IL SUCCESSO DELLE NOSTRE INIZIATIVE è l’integrazione delle informazioni: i dati raccolti, ovviamente con il consenso dei clienti, devono poter essere correlati e analizzati nel complesso dei sistemi informativi aziendali (preventivazione e vendite, CRM, interventi di officina, dati provenienti dalle vetture connesse, logistica, stock, customer care, competitività, web analytics, questionari di customer satisfaction). Una corretta analisi dei dati permette una migliore conoscenza con la quale è possibile fare correlazioni tra efficacia risorse e vendite finali. In merito ai dati commerciali c’è ovviamente un interesse in termini di efficaciama oggi di dati commerciali ne abbiamo fin troppi. Quello che stiamo cercando di ottenere sono dati di qualità che vanno isolati, attraverso strumenti di business intelligence, dall’enorme flusso al fine di poter riconoscere il trend commerciale. La ridefinizione dei processi ha impatti positivi anche in termini economici: in Renault Italia ad esempio con un investimento di 50 mila euro su uno strumento integrato di business intelligence siamo riusciti a coprire quasi tutte le necessità di analisi dell’azienda in tutti i vari reparti.

Un brand oggi per essere vincente deve saper comunicare chiaramente i propri punti di forza al cliente, offrendo i migliori servizi al momento giusto, nel posto giusto, alla persona giusta, attraverso il canale giusto. Anche le automobili non vengono più scelte esclusivamente in base al rapporto prezzo/prestazioni. È necessario passare da un approccio orientato al CRM ad uno orientato alla Customer Experience.

Luigi Falasco@renaultitalia

Luigi Falasco fa parte del Comitato di Direzione di Renault Italia S.p.A. dal 2004. Una prima esperienza come Direttore Cliente poi, a fine 2007, ha ricevuto l’incarico di Direttore Sistemi Informativi Renault e Nissan, sempre all’interno del Comitato di Direzione. Ha diretto con successo la Filiale Renault di Milano e seguito l’avviamento di filiali sul territorio nazionale. Ha maturato una notevole esperienza come manager per la gestione delle relazioni con il Cliente, introducendo strumenti innovativi per l’implementazione del settore e-business e ottenendo successi crescenti in termini di CRM, Customer Satisfaction e fidelizzazione.

Intervista a Luigi Falasco di Renault Italia

>> CONCESSIONARIA DEL FUTURO

Page 17: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

17

Inizia in questo modo il colloquio con Luigi Falasco, Direttore dei Sistemi Informativi di Renault Italia. Negli ultimi anni anche nel settore automobilistico l’attenzione si è gradualmente spostata dal prodotto al consumatore, per cui è necessaria un’analisi attenta dei bisogni della persona ma soprattutto delle sue aspettative, per fornire un’esperienza di acquisto ad hoc, omnichannel, in grado di massimizzare le probabilità d’acquisto e di riacquisto. Quali i percorsi intrapresi da Renault Italia in tal senso?

IL CONCETTO DI DRIVING EXPERIENCE, così come i bisogni dei conducenti, sono in continua evoluzione e a dimostrarlo c’è la crescita continua dell’utilizzo delle auto connesse: 27 milioni sul mercato mondiale attuale, cifra destinata a triplicare entro il 2020. I servizi di Infotainment, Security, Maintenance, Driving Style e Navigation offronoun valore aggiunto tangibile. Investire in tecnologie che permettano al guidatore di comunicare con la casa madre, il servizio assistenza, il dealer o l’officina più vicina, oppure di ottenere informazioni personalizzate in base ai propri bisogni direttamente nell’abitacolo, garantirà sempre più agli OEM (Original Equipment Manufacturer) maggiore competitività ed il rafforzamento del legame tra brand ed utente, favorendo la loro interazione anche dopo l’acquisto e migliorando il customer journey. Anche per noi come per molte altre aziende uno degli obiettivi principali è migliorarela customer experience con un programma molto vasto per accogliere il cliente. Negli ultimi 3 anni stiamo sviluppando molto l’attività del CRM per personalizzare le offerte migliori al cliente che tengano in maggior conto i bisogni, le esigenze e i tempi del cliente stesso.

Quali le strategie messe in atto da Renault?

STIAMO PROCEDENDO ALL’INTERNO DELL’AZIENDA ad un utilizzo spinto della business intelligence e diffondendo al tempo stesso tool per facilitare il lavoro dei colleghi, ad esempio automatizzando la redazionedi report attraverso il recupero e l’analisi dei dati e previsioni di business, andando in profondità nell’analisi delle dinamiche commerciali. Esaminando l’efficacia storica di vari tipi di azioni promozionali cerchiamo anche di capire quanto l’utilizzo possa essere realmente efficace.L’integrazione di mondo reale e digitale è necessaria non solo per permettere al consumatore di utilizzare diversi canali per l’acquisto, ma anche e soprattutto per facilitare la comparazione e la valutazione dei prodotti, e per migliorare la showroom experience. Creare una strategia omnichannel significa essere pronti a soddisfare gusti, bisognied aspettative del cliente, durante tutto il customer journey, dalla valutazione all’acquisto, alla creazione di loyalty, e con qualsiasi touchpoint.

Quali i progetti più importanti ai quali state lavorando?

INSIEME A ENGINEERING ABBIAMO PROGETTATO L’AREA CUSTOMER INTERACTION 2.0, ovvero uno spazio innovativo all’insegna della multimedialità e delle tecnologie digitali. Abbiamo immaginato quella che può esserela “Concessionaria del Futuro” che potrà riconoscere e accogliere il cliente in maniera personalizzata all’ingressoin concessionaria, notificare aila forza vendita l’arrivo di un cliente, gestire i messaggi pubblicitari e informativiin maniera mirata in concessionaria e le offerte post-visita, aumentare l’appeal delle vetture esposte in basealle informazioni richieste dal cliente interessato all’acquisto, gestire i sondaggi e i questionari di gradimento. Sempre in questo contesto di sviluppo abbiamo deciso di implementare in una delle nostre concessionarie un progetto pilota sull’analisi dei dati di frequentazione degli showroom attraverso l’utilizzo di una tecnologia innovativa che traduce il flusso di visitatori in un algoritmo per un conteggio anonimo ma univoco. L’analisi dell’affluenza che avviene attraverso dispositivi video non prevede lo stoccaggio di immagini per rispetto della privacy dei visitatori. Indubbiamente però questa tipologia di analisi è molto utile per approfondire la dinamica commerciale, mettendo in collegamento in maniera diretta l’attivazione di azioni promozionali con l’affluenza nei punti di vendita. Ad esempio lo scorso weekend abbiamo organizzato una due giorni di porte aperte e grazie a questo progetto abbiamo rilevato un incremento intorno al 50-60% di visitatori. L’analisi di questo flusso ci consente di conoscere meglio le attese dei clienti e avvicinarli maggiormentee più efficacemente all’offerta Renault.

Quali sono gli obiettivi raggiunti in termini di rafforzamento del brand aziendale?

DALLE NOSTRE INDAGINI DI SODDISFAZIONE DEL CLIENTE abbiamo raggiunto un ottimo posizionamento per la raccomandabilità, raggiungendo una percentuale di oltre l’80% sia in vendita sia in post-vendita, che è ancora in crescita. In Italia la percentuale di fedeltà media nei confronti dell’acquisto dell’auto è intorno al 35% quindi c’è molto lavoro da fare per posizionarsi meglio sul mercato. Il fatto che più di 8 clienti su 10 siano risultati soddisfatti non solo del prodotto ma anche della cura ed assistenza è per noi un risultato importante. Un tratto che ci contraddistingue come azienda è indubbiamente l’apertura all’innovazione anche al fine di sviluppare una migliore user experience.

Qual è nel vostro settore il valore aggiunto dei dati e dell’analisi dei dati?

UN FATTORE CHIAVE PER IL SUCCESSO DELLE NOSTRE INIZIATIVE è l’integrazione delle informazioni: i dati raccolti, ovviamente con il consenso dei clienti, devono poter essere correlati e analizzati nel complesso dei sistemi informativi aziendali (preventivazione e vendite, CRM, interventi di officina, dati provenienti dalle vetture connesse, logistica, stock, customer care, competitività, web analytics, questionari di customer satisfaction). Una corretta analisi dei dati permette una migliore conoscenza con la quale è possibile fare correlazioni tra efficacia risorse e vendite finali. In merito ai dati commerciali c’è ovviamente un interesse in termini di efficaciama oggi di dati commerciali ne abbiamo fin troppi. Quello che stiamo cercando di ottenere sono dati di qualità che vanno isolati, attraverso strumenti di business intelligence, dall’enorme flusso al fine di poter riconoscere il trend commerciale. La ridefinizione dei processi ha impatti positivi anche in termini economici: in Renault Italia ad esempio con un investimento di 50 mila euro su uno strumento integrato di business intelligence siamo riusciti a coprire quasi tutte le necessità di analisi dell’azienda in tutti i vari reparti.

Un brand oggi per essere vincente deve saper comunicare chiaramente i propri punti di forza al cliente, offrendo i migliori servizi al momento giusto, nel posto giusto, alla persona giusta, attraverso il canale giusto. Anche le automobili non vengono più scelte esclusivamente in base al rapporto prezzo/prestazioni. È necessario passare da un approccio orientato al CRM ad uno orientato alla Customer Experience.

>> CONCESSIONARIA DEL FUTURO

ACCOGLIENZA PERSONALIZZATA CLIENTE

NOTIFICA INGRESSO CLIENTE A FORZA VENDITA

CONTENUTI MULTIMEDIALI PERSONALIZZATI (ESTERNO/INTERNO VETTURA)

BROCHURE INTERATTIVA

CONTEGGIO INGRESSI E PROFILAZIONE ANONIMA E STATISTICA

TRACCIATURA PERCORSI E DEFINIZIONE HEAT MAPS

MISURAZIONE TEMPI DI PERMANENZA

DIGITAL SIGNAGE INTERATTIVO

MISURAZIONE EFFICACIA MESSAGGI

PROMOZIONI PERSONALIZZATE SALES & AFTER SALES

MARKET INTERVIEW

16

Dati, strumenti di business intelligence e analytics al servizio dell’Automotive

Innovare nel settore auto

Inizia in questo modo il colloquio con Luigi Falasco, Direttore dei Sistemi Informativi di Renault Italia. Negli ultimi anni anche nel settore automobilistico l’attenzione si è gradualmente spostata dal prodotto al consumatore, per cui è necessaria un’analisi attenta dei bisogni della persona ma soprattutto delle sue aspettative, per fornire un’esperienza di acquisto ad hoc, omnichannel, in grado di massimizzare le probabilità d’acquisto e di riacquisto. Quali i percorsi intrapresi da Renault Italia in tal senso?

IL CONCETTO DI DRIVING EXPERIENCE, così come i bisogni dei conducenti, sono in continua evoluzione e a dimostrarlo c’è la crescita continua dell’utilizzo delle auto connesse: 27 milioni sul mercato mondiale attuale, cifra destinata a triplicare entro il 2020. I servizi di Infotainment, Security, Maintenance, Driving Style e Navigation offronoun valore aggiunto tangibile. Investire in tecnologie che permettano al guidatore di comunicare con la casa madre, il servizio assistenza, il dealer o l’officina più vicina, oppure di ottenere informazioni personalizzate in base ai propri bisogni direttamente nell’abitacolo, garantirà sempre più agli OEM (Original Equipment Manufacturer) maggiore competitività ed il rafforzamento del legame tra brand ed utente, favorendo la loro interazione anche dopo l’acquisto e migliorando il customer journey. Anche per noi come per molte altre aziende uno degli obiettivi principali è migliorarela customer experience con un programma molto vasto per accogliere il cliente. Negli ultimi 3 anni stiamo sviluppando molto l’attività del CRM per personalizzare le offerte migliori al cliente che tengano in maggior conto i bisogni, le esigenze e i tempi del cliente stesso.

Quali le strategie messe in atto da Renault?

STIAMO PROCEDENDO ALL’INTERNO DELL’AZIENDA ad un utilizzo spinto della business intelligence e diffondendo al tempo stesso tool per facilitare il lavoro dei colleghi, ad esempio automatizzando la redazionedi report attraverso il recupero e l’analisi dei dati e previsioni di business, andando in profondità nell’analisi delle dinamiche commerciali. Esaminando l’efficacia storica di vari tipi di azioni promozionali cerchiamo anche di capire quanto l’utilizzo possa essere realmente efficace.L’integrazione di mondo reale e digitale è necessaria non solo per permettere al consumatore di utilizzare diversi canali per l’acquisto, ma anche e soprattutto per facilitare la comparazione e la valutazione dei prodotti, e per migliorare la showroom experience. Creare una strategia omnichannel significa essere pronti a soddisfare gusti, bisognied aspettative del cliente, durante tutto il customer journey, dalla valutazione all’acquisto, alla creazione di loyalty, e con qualsiasi touchpoint.

Quali i progetti più importanti ai quali state lavorando?

INSIEME A ENGINEERING ABBIAMO PROGETTATO L’AREA CUSTOMER INTERACTION 2.0, ovvero uno spazio innovativo all’insegna della multimedialità e delle tecnologie digitali. Abbiamo immaginato quella che può esserela “Concessionaria del Futuro” che potrà riconoscere e accogliere il cliente in maniera personalizzata all’ingressoin concessionaria, notificare aila forza vendita l’arrivo di un cliente, gestire i messaggi pubblicitari e informativiin maniera mirata in concessionaria e le offerte post-visita, aumentare l’appeal delle vetture esposte in basealle informazioni richieste dal cliente interessato all’acquisto, gestire i sondaggi e i questionari di gradimento. Sempre in questo contesto di sviluppo abbiamo deciso di implementare in una delle nostre concessionarie un progetto pilota sull’analisi dei dati di frequentazione degli showroom attraverso l’utilizzo di una tecnologia innovativa che traduce il flusso di visitatori in un algoritmo per un conteggio anonimo ma univoco. L’analisi dell’affluenza che avviene attraverso dispositivi video non prevede lo stoccaggio di immagini per rispetto della privacy dei visitatori. Indubbiamente però questa tipologia di analisi è molto utile per approfondire la dinamica commerciale, mettendo in collegamento in maniera diretta l’attivazione di azioni promozionali con l’affluenza nei punti di vendita. Ad esempio lo scorso weekend abbiamo organizzato una due giorni di porte aperte e grazie a questo progetto abbiamo rilevato un incremento intorno al 50-60% di visitatori. L’analisi di questo flusso ci consente di conoscere meglio le attese dei clienti e avvicinarli maggiormentee più efficacemente all’offerta Renault.

Quali sono gli obiettivi raggiunti in termini di rafforzamento del brand aziendale?

DALLE NOSTRE INDAGINI DI SODDISFAZIONE DEL CLIENTE abbiamo raggiunto un ottimo posizionamento per la raccomandabilità, raggiungendo una percentuale di oltre l’80% sia in vendita sia in post-vendita, che è ancora in crescita. In Italia la percentuale di fedeltà media nei confronti dell’acquisto dell’auto è intorno al 35% quindi c’è molto lavoro da fare per posizionarsi meglio sul mercato. Il fatto che più di 8 clienti su 10 siano risultati soddisfatti non solo del prodotto ma anche della cura ed assistenza è per noi un risultato importante. Un tratto che ci contraddistingue come azienda è indubbiamente l’apertura all’innovazione anche al fine di sviluppare una migliore user experience.

Qual è nel vostro settore il valore aggiunto dei dati e dell’analisi dei dati?

UN FATTORE CHIAVE PER IL SUCCESSO DELLE NOSTRE INIZIATIVE è l’integrazione delle informazioni: i dati raccolti, ovviamente con il consenso dei clienti, devono poter essere correlati e analizzati nel complesso dei sistemi informativi aziendali (preventivazione e vendite, CRM, interventi di officina, dati provenienti dalle vetture connesse, logistica, stock, customer care, competitività, web analytics, questionari di customer satisfaction). Una corretta analisi dei dati permette una migliore conoscenza con la quale è possibile fare correlazioni tra efficacia risorse e vendite finali. In merito ai dati commerciali c’è ovviamente un interesse in termini di efficaciama oggi di dati commerciali ne abbiamo fin troppi. Quello che stiamo cercando di ottenere sono dati di qualità che vanno isolati, attraverso strumenti di business intelligence, dall’enorme flusso al fine di poter riconoscere il trend commerciale. La ridefinizione dei processi ha impatti positivi anche in termini economici: in Renault Italia ad esempio con un investimento di 50 mila euro su uno strumento integrato di business intelligence siamo riusciti a coprire quasi tutte le necessità di analisi dell’azienda in tutti i vari reparti.

Un brand oggi per essere vincente deve saper comunicare chiaramente i propri punti di forza al cliente, offrendo i migliori servizi al momento giusto, nel posto giusto, alla persona giusta, attraverso il canale giusto. Anche le automobili non vengono più scelte esclusivamente in base al rapporto prezzo/prestazioni. È necessario passare da un approccio orientato al CRM ad uno orientato alla Customer Experience.

Luigi Falasco@renaultitalia

Luigi Falasco fa parte del Comitato di Direzione di Renault Italia S.p.A. dal 2004. Una prima esperienza come Direttore Cliente poi, a fine 2007, ha ricevuto l’incarico di Direttore Sistemi Informativi Renault e Nissan, sempre all’interno del Comitato di Direzione. Ha diretto con successo la Filiale Renault di Milano e seguito l’avviamento di filiali sul territorio nazionale. Ha maturato una notevole esperienza come manager per la gestione delle relazioni con il Cliente, introducendo strumenti innovativi per l’implementazione del settore e-business e ottenendo successi crescenti in termini di CRM, Customer Satisfaction e fidelizzazione.

Intervista a Luigi Falasco di Renault Italia

>> CONCESSIONARIA DEL FUTURO

Page 18: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

>> I termini Cloud e Big Data sono in voga da tempoe vengono spesso associati generando a volte incertezze e malintesi, sia involontari che studiati a tavolino, da parte di fornitori di prodotti o servizi a fini promozionali e di marketing. Vale quindi la pena soffermarsi a riflettere sulle reali potenzialità offerte da questo scenario.

>> Il fenomeno dei Big Data, supportato da tecnologie che hanno come capostipite il progetto open source Hadoop che ha recentemente compiuto 10 anni di vita, è talmente consolidato che la società di ricerca Gartner, da qualche anno, lo identifica come una pratica e non come una tecnologia emergente.

>> Nella realtà però richiede di superare difficoltà legate all’individuazione di scenari analitici ragionevoli e profittevoli, alla molteplicità di competenze specifiche richieste a chi deve sviluppare le soluzioni, alla scelta tra i diversi strumenti software disponibili e infine all’individuazione dell’infrastruttura hardware e software di supporto.

utile nella gestionedei Big Data ?

Cloud TECH FOCUS

QUALI LE OPPORTUNITÀ E I RISCHI DI QUESTA SCELTA

Big Data e Cloud

SECONDO FORBES, ENTRO IL 2020 ogni essere umano genererà 1,7 Mb di informazioni al secondo, e un terzo di queste sarà gestito in cloud. Da una recente ricerca condotta su 1.400 aziende in 77 Paesi da un produttore di soluzioni analitiche su Hadoop emerge che il 53% degli intervistati ha già rilasciato la propria piattaforma Big Data in cloud e che il 72% ha in programma di farlo in un futuro prossimo. Fin qui si tratta di un ragionamento causa-effetto abbastanza scontato e inequivocabile: portiamo i Big Data sul cloud per facilitarne la gestione.

Ma ci sono diversi aspetti da considerare e non tutti portano vantaggi sicuri. Il cloud possiede caratteristiche intrinseche particolarmente appetibili per la gestione dei Big Data, quali la disponibilità di risorse a richiesta e la facilità di approvvigionamento (on demand/fast provisioning), l’elasticità (capacità di adattarsi a mutevoli carichi di lavoro) e la flessibilità dell’infrastruttura, la possibilità di ottenere un time-to-market vantaggioso e quella di abilitare una spesa costruita in funzione dell’effettivo utilizzo delle risorse (pay-as-you-go capacity).

La possibilità data dal cloud di acquisire in tempi rapidissimi macchine virtuali su cui misurare la propria soluzione Big Data è efficace e riduce i tempi di avviamento del progetto oltre ad agevolare eventuali sperimentazioni tecnologiche o la realizzazione di attività dimostrative (proof of concept). Scegliendo opportunamente i fornitori della tecnologia - i cloud provider - possiamo conoscere i costi a priori e contenerli senza sprechi o brutte sorprese.Va considerato che esistono diverse modalità di fruizione del cloud e anche per questo va fatta una scelta oculata.

Monica Franceschini@twittmonique

Con più di quindici anni di esperienza su tecnologie Java, ha sviluppato progetti per l’industria, la finanza, le telco e la pubblica amministrazione ed è stata membro del team SpagoBI Labs in ambito Business Intelligence. Ora è responsabile della definizione delle architetture Big Data per il Big Data and Analytics Competency Center di Engineering. Si occupa principalmente di guidare il Gruppo nello sviluppo di progetti e POCs, di offrire servizi di consulenza ai clienti e di coadiuvare la fase di pre-vendita apportando il contributo sulle tecnologie Big Data. Eroga corsi interni e per i clienti per conto della Scuola di IT & Management “Enrico Della Valle” e svolge inoltre attività di sostegno alla diffusione delle competenze di Engineering in questo contesto, sia a livello nazionale che internazionale.

¿

18

Page 19: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

>> I termini Cloud e Big Data sono in voga da tempoe vengono spesso associati generando a volte incertezze e malintesi, sia involontari che studiati a tavolino, da parte di fornitori di prodotti o servizi a fini promozionali e di marketing. Vale quindi la pena soffermarsi a riflettere sulle reali potenzialità offerte da questo scenario.

>> Il fenomeno dei Big Data, supportato da tecnologie che hanno come capostipite il progetto open source Hadoop che ha recentemente compiuto 10 anni di vita, è talmente consolidato che la società di ricerca Gartner, da qualche anno, lo identifica come una pratica e non come una tecnologia emergente.

>> Nella realtà però richiede di superare difficoltà legate all’individuazione di scenari analitici ragionevoli e profittevoli, alla molteplicità di competenze specifiche richieste a chi deve sviluppare le soluzioni, alla scelta tra i diversi strumenti software disponibili e infine all’individuazione dell’infrastruttura hardware e software di supporto.

QUALI LE OPPORTUNITÀ E I RISCHI DI QUESTA SCELTA

Big Data as a Service?

CLOUD PROVIDER come IBM, Microsoft e Amazon espongono servizi Big Data adottando soluzioni proprietarie o open source in grado di soddisfare le molteplici esigenze di progetto. L’offerta è vastissima e valida e solleva sia dalla responsabilità della scelta, delegandola di fatto all’autorevolezza data dal brand del fornitore, sia dalla gestione e manutenzione delle soluzioni software.

La platea di opzioni resa disponibile dai cloud provider resta comunque limitata rispetto a quella a disposizione dell’attività progettuale di definizione di un’architettura. Paradossalmente ciò può risultare confortante e rassicurante per un architetto IT, vista la notevole mole di strumenti tra i quali è chiamato a scegliere. Un’ulteriore considerazione, che riguarda soprattutto la possibilità di fruizione dei Big Data in modalità servizio (Big Data-as-a-Service) riguarda il cosiddetto lock-in, ovvero la difficoltà di svincolarsi da un fornitoredi tecnologia senza sopportare costi notevoli. Vincolarsi ad una scelta tecnologica, in una fase di vivacità del panorama Big Data e delle molteplici opportunità che questo offre, potrebbe rivelarsi estremamente controproducente, anche nell’arco di un breve periodo temporale.

E la protezione dei dati?

UNA DELLE PRINCIPALI PROBLEMATICHE legate all’adozione di infrastrutture cloud per ospitare i Big Data è la protezione dei dati. Molti settori, in particolare quello finanziario, spesso rinunciano al cloud per il timore di violazioni ai propri dati, sia per quanto riguarda il traffico in rete, sia per la dislocazione fisica degli stessi. Un altro aspetto da considerare riguarda la rispondenza alle normative relative alla privacy che sono differenti nei diversi Paesi. L’archiviazione di informazioni sensibili sulla nuvola, se può offrire costi inferiori rispetto ad altre soluzioni, è assoggetta alle pratiche di sicurezza dettate dal service provider.

Una possibile soluzione, che non consente di usufruire appieno dei vantaggi economici offerti dal cloud pubblico, è quella di affidarsi a fornitori di cloud privati o di cloud ibridi (hybrid clouds). Quest’ultima opzione consente di concentrare le attività più delicate e i dati sensibili su private cloud (che nella soluzione on-premises può risiedere anche presso il proprietario delle informazioni) e conservare sul cloud pubblico quelle provenienti da dati esterni che, anche a fronte di un volume consistente, richiedono minore protezione, consentendo di ottenere comunque un sufficiente risparmio economico.

Big Data e Cloud

SECONDO FORBES, ENTRO IL 2020 ogni essere umano genererà 1,7 Mb di informazioni al secondo, e un terzo di queste sarà gestito in cloud. Da una recente ricerca condotta su 1.400 aziende in 77 Paesi da un produttore di soluzioni analitiche su Hadoop emerge che il 53% degli intervistati ha già rilasciato la propria piattaforma Big Data in cloud e che il 72% ha in programma di farlo in un futuro prossimo. Fin qui si tratta di un ragionamento causa-effetto abbastanza scontato e inequivocabile: portiamo i Big Data sul cloud per facilitarne la gestione.

Ma ci sono diversi aspetti da considerare e non tutti portano vantaggi sicuri. Il cloud possiede caratteristiche intrinseche particolarmente appetibili per la gestione dei Big Data, quali la disponibilità di risorse a richiesta e la facilità di approvvigionamento (on demand/fast provisioning), l’elasticità (capacità di adattarsi a mutevoli carichi di lavoro) e la flessibilità dell’infrastruttura, la possibilità di ottenere un time-to-market vantaggioso e quella di abilitare una spesa costruita in funzione dell’effettivo utilizzo delle risorse (pay-as-you-go capacity).

La possibilità data dal cloud di acquisire in tempi rapidissimi macchine virtuali su cui misurare la propria soluzione Big Data è efficace e riduce i tempi di avviamento del progetto oltre ad agevolare eventuali sperimentazioni tecnologiche o la realizzazione di attività dimostrative (proof of concept). Scegliendo opportunamente i fornitori della tecnologia - i cloud provider - possiamo conoscere i costi a priori e contenerli senza sprechi o brutte sorprese.Va considerato che esistono diverse modalità di fruizione del cloud e anche per questo va fatta una scelta oculata.

19

“Tutto dovrebbe essere reso il più semplicepossibile, ma non piùsemplicistico.”- Albert Einstein

>> I termini Cloud e Big Data sono in voga da tempoe vengono spesso associati generando a volte incertezze e malintesi, sia involontari che studiati a tavolino, da parte di fornitori di prodotti o servizi a fini promozionali e di marketing. Vale quindi la pena soffermarsi a riflettere sulle reali potenzialità offerte da questo scenario.

>> Il fenomeno dei Big Data, supportato da tecnologie che hanno come capostipite il progetto open source Hadoop che ha recentemente compiuto 10 anni di vita, è talmente consolidato che la società di ricerca Gartner, da qualche anno, lo identifica come una pratica e non come una tecnologia emergente.

>> Nella realtà però richiede di superare difficoltà legate all’individuazione di scenari analitici ragionevoli e profittevoli, alla molteplicità di competenze specifiche richieste a chi deve sviluppare le soluzioni, alla scelta tra i diversi strumenti software disponibili e infine all’individuazione dell’infrastruttura hardware e software di supporto.

utile nella gestionedei Big Data ?

Cloud TECH FOCUS

QUALI LE OPPORTUNITÀ E I RISCHI DI QUESTA SCELTA

Big Data e Cloud

SECONDO FORBES, ENTRO IL 2020 ogni essere umano genererà 1,7 Mb di informazioni al secondo, e un terzo di queste sarà gestito in cloud. Da una recente ricerca condotta su 1.400 aziende in 77 Paesi da un produttore di soluzioni analitiche su Hadoop emerge che il 53% degli intervistati ha già rilasciato la propria piattaforma Big Data in cloud e che il 72% ha in programma di farlo in un futuro prossimo. Fin qui si tratta di un ragionamento causa-effetto abbastanza scontato e inequivocabile: portiamo i Big Data sul cloud per facilitarne la gestione.

Ma ci sono diversi aspetti da considerare e non tutti portano vantaggi sicuri. Il cloud possiede caratteristiche intrinseche particolarmente appetibili per la gestione dei Big Data, quali la disponibilità di risorse a richiesta e la facilità di approvvigionamento (on demand/fast provisioning), l’elasticità (capacità di adattarsi a mutevoli carichi di lavoro) e la flessibilità dell’infrastruttura, la possibilità di ottenere un time-to-market vantaggioso e quella di abilitare una spesa costruita in funzione dell’effettivo utilizzo delle risorse (pay-as-you-go capacity).

La possibilità data dal cloud di acquisire in tempi rapidissimi macchine virtuali su cui misurare la propria soluzione Big Data è efficace e riduce i tempi di avviamento del progetto oltre ad agevolare eventuali sperimentazioni tecnologiche o la realizzazione di attività dimostrative (proof of concept). Scegliendo opportunamente i fornitori della tecnologia - i cloud provider - possiamo conoscere i costi a priori e contenerli senza sprechi o brutte sorprese.Va considerato che esistono diverse modalità di fruizione del cloud e anche per questo va fatta una scelta oculata.

Monica Franceschini@twittmonique

Con più di quindici anni di esperienza su tecnologie Java, ha sviluppato progetti per l’industria, la finanza, le telco e la pubblica amministrazione ed è stata membro del team SpagoBI Labs in ambito Business Intelligence. Ora è responsabile della definizione delle architetture Big Data per il Big Data and Analytics Competency Center di Engineering. Si occupa principalmente di guidare il Gruppo nello sviluppo di progetti e POCs, di offrire servizi di consulenza ai clienti e di coadiuvare la fase di pre-vendita apportando il contributo sulle tecnologie Big Data. Eroga corsi interni e per i clienti per conto della Scuola di IT & Management “Enrico Della Valle” e svolge inoltre attività di sostegno alla diffusione delle competenze di Engineering in questo contesto, sia a livello nazionale che internazionale.

¿

18

Page 20: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

In un precedente articolo di Ingenium pubblicato nella versione on-line abbiamo fatto conoscenza con alcuni strumenti e tecniche di Project Management Analytics, utili per far emergere dai dati di progetto regolarità e andamenti di supporto al processo decisionale.

Il passo successivo è derivare dai pattern di dati delle inferenze, per sviluppare modelli regressivi/predittivi attraverso il contributo della AI (Artificial Intelligence). La crescente disponibilità a basso costo di algoritmi di machine e deep learning determinerà presto l’evoluzione dei software di Project Management da sistemi di supporto alle decisioni a veri e propri sistemi intelligenti.

Project Management e Intelligenza Artificiale

Marco Caressa@mcaressa

Ingegnere nucleare ceduto a titolo definitivo all’informatica. 25 anni di coding, progettazione, ricerca e management ICT in Engineering Ingegneria Informatica. Attualmente si occupa di ingegneria dell’offerta, attraverso la proposizione di soluzioni architetturali e tecnologicheinnovative sulle diverse aree di mercato. PMP®, PMI-ACP®, appassionato di Project Management tradizionale e “agile”. Blogger, trainer, mentor e coach per la preparazione alla certificazione PMP. È intervenuto in diversi eventi formativi e webinar di settore per la Scuola di IT & Management di Engineering, per il Project Management Institute e per la LUISS University.

NEI MODELLI DI ANALYTICS, sia quelli statistici come il PERT o il Metodo Monte Carlo, sia quelli algebrici come la tecnica AHP, i dati di partenza provengono da misure sul progetto (work performance raw data) o sono indicati manualmente da esperti umani. In una simulazione Monte Carlo potete partire da una three-point estimation, che probabilmente avreste fatto comunque per valutare tempi e costi di progetto. E siete sempre voi che attribuite i pesi numerici ai diversi fattori di decisione nella tecnica AHP.Le vostre valutazioni di esperti umani possono derivare dall’esperienza - il cosiddetto “expert judgement” - oppure dal confronto con dati storici di sintesi, che possono essere usati a scopo predittivo in modo automatico. La premessa fondamentale è l’archiviazione in un database storico dei dati di progetto nella maniera più dettagliata e strutturata possibile (per esempio i dati di stima, i dati effettivi di tempi, costi e risorse utilizzati su ciascuna attività nei progetti precedenti, magari raggruppati per aree tematiche o tipologia di progetto).

LA CONOSCENZA CONTENUTA NEI DATI STORICI può essere utilizzata per sviluppare un modello predittivo con metodi di Machine Learning (ML), come reti neurali, alberi di decisione o SVM (Support Vector Machine). Alcuni domini del Project Management di maggiore applicazione del ML sono il Quality Management (defect prediction), il Risk Management, il Time & Cost Management. Ad esempio, un approccio predittivo ai tempi e costi di progetto richiede la messa a punto di una “funzione o modello predittivo” attraverso la scelta di uno specifico metodo di ML che, in accordo ai dati storici, possa fornire in output la previsione di tempi e costi, sia per l’intero progetto che per specifiche attività. In molti casi si tratta di una seconda giovinezza di metodi e approcci, un tempo confinati in nicchie di ricerca a causa della loro complessità computazionale, oggi divenuti praticabili grazie al costante calo dei costi di storage e capacità di calcolo, come i metodi di Deep Learning, essenzialmente basati su reti neurali (note dagli anni ’60) molto più grandie complesse di un tempo.

Analytics + Machine Learning = PMBot?UN BOT È UN’APPLICAZIONE di Intelligenza Artificiale che, semplificando molto, raccoglie e analizza dati, evidenziando pattern e imitando – con l’obiettivo di migliorarli – comportamenti umani. Sono già disponibili bot per ordinare cibo o prenotare un volo on-line, o chatbot che sostituiscono sistemi di assistenza on-line tradizionali.Un bot può essere programmato per imparare dalle vostre best practice. Può utilizzare algoritmi di machine learning per comprendere come lavorate, come analizzate i problemi, come prendete decisioni, per diventare a tutti gli effetti una vostra estensione, un vero e proprio assistente virtuale.Immaginate di aver fatto un assessment dei rischi di progetto. Ciascun rischio individuato può avere impatto su obiettivi, tempi, costi, change management. Un ipotetico PMBot potrebbe analizzare diversi scenari in tempo reale o quasi reale per suggerire il miglior piano di mitigazione dei rischi in base alle priorità e alle best practice di contesto. Potrebbe simulare l’impatto dello specifico rischio su tempi e costi di progetto, inviando l’esito dell’analisi sul vostro smartphone mentre camminate per recarvi alla riunione di pianificazione col vostro team, aiutandovi a prendere decisioni migliori e più informate in base ad un’analisi dei dati la più accurata possibile.

ConclusioniAFFIANCANDO AGLI STRUMENTI di Project Management Analytics statistici e algebrici i metodi e algoritmi di Machine Learning, in sé non nuovi ma oggi disponibili a costi sempre più bassi, il vostro ruolo di “capo progetto umano” cambierà. Parzialmente liberati dai vostri PMbot, potrete concentrarvi sui task non ripetitivi e difficilmente automatizzabili, come la comunicazione con gli stakeholder e la gestione del team. Insomma, in tutte quelle attività dove creatività, intuito e la vostra esperienza di Project Manager saranno insostituibili per molto tempo ancora. Per rendere possibile tutto questo, però, dovete prepararvi per tempo, raccogliendo e archiviando con struttura e granularità adeguate i dati dei vostri progetti: in essi è racchiusa gran parte della conoscenza che vi occorre.

COME I METODI E GLI ALGORITMI DI MACHINE LEARNING POSSONO AFFIANCARE

GLI STRUMENTI DI PROJECT MANAGEMENT ANALYTICS PIÙ TRADIZIONALI

Cosa potete fare già oggi e cosa potrete fare presto con l’AI, partendo dai dati di progetto, per automatizzare un numero sempre maggiore di funzioni e attività di Project Management?

20

TECH FOCUS

Page 21: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

In un precedente articolo di Ingenium pubblicato nella versione on-line abbiamo fatto conoscenza con alcuni strumenti e tecniche di Project Management Analytics, utili per far emergere dai dati di progetto regolarità e andamenti di supporto al processo decisionale.

Il passo successivo è derivare dai pattern di dati delle inferenze, per sviluppare modelli regressivi/predittivi attraverso il contributo della AI (Artificial Intelligence). La crescente disponibilità a basso costo di algoritmi di machine e deep learning determinerà presto l’evoluzione dei software di Project Management da sistemi di supporto alle decisioni a veri e propri sistemi intelligenti.

NEI MODELLI DI ANALYTICS, sia quelli statistici come il PERT o il Metodo Monte Carlo, sia quelli algebrici come la tecnica AHP, i dati di partenza provengono da misure sul progetto (work performance raw data) o sono indicati manualmente da esperti umani. In una simulazione Monte Carlo potete partire da una three-point estimation, che probabilmente avreste fatto comunque per valutare tempi e costi di progetto. E siete sempre voi che attribuite i pesi numerici ai diversi fattori di decisione nella tecnica AHP.Le vostre valutazioni di esperti umani possono derivare dall’esperienza - il cosiddetto “expert judgement” - oppure dal confronto con dati storici di sintesi, che possono essere usati a scopo predittivo in modo automatico. La premessa fondamentale è l’archiviazione in un database storico dei dati di progetto nella maniera più dettagliata e strutturata possibile (per esempio i dati di stima, i dati effettivi di tempi, costi e risorse utilizzati su ciascuna attività nei progetti precedenti, magari raggruppati per aree tematiche o tipologia di progetto).

LA CONOSCENZA CONTENUTA NEI DATI STORICI può essere utilizzata per sviluppare un modello predittivo con metodi di Machine Learning (ML), come reti neurali, alberi di decisione o SVM (Support Vector Machine). Alcuni domini del Project Management di maggiore applicazione del ML sono il Quality Management (defect prediction), il Risk Management, il Time & Cost Management. Ad esempio, un approccio predittivo ai tempi e costi di progetto richiede la messa a punto di una “funzione o modello predittivo” attraverso la scelta di uno specifico metodo di ML che, in accordo ai dati storici, possa fornire in output la previsione di tempi e costi, sia per l’intero progetto che per specifiche attività. In molti casi si tratta di una seconda giovinezza di metodi e approcci, un tempo confinati in nicchie di ricerca a causa della loro complessità computazionale, oggi divenuti praticabili grazie al costante calo dei costi di storage e capacità di calcolo, come i metodi di Deep Learning, essenzialmente basati su reti neurali (note dagli anni ’60) molto più grandie complesse di un tempo.

Analytics + Machine Learning = PMBot?UN BOT È UN’APPLICAZIONE di Intelligenza Artificiale che, semplificando molto, raccoglie e analizza dati, evidenziando pattern e imitando – con l’obiettivo di migliorarli – comportamenti umani. Sono già disponibili bot per ordinare cibo o prenotare un volo on-line, o chatbot che sostituiscono sistemi di assistenza on-line tradizionali.Un bot può essere programmato per imparare dalle vostre best practice. Può utilizzare algoritmi di machine learning per comprendere come lavorate, come analizzate i problemi, come prendete decisioni, per diventare a tutti gli effetti una vostra estensione, un vero e proprio assistente virtuale.Immaginate di aver fatto un assessment dei rischi di progetto. Ciascun rischio individuato può avere impatto su obiettivi, tempi, costi, change management. Un ipotetico PMBot potrebbe analizzare diversi scenari in tempo reale o quasi reale per suggerire il miglior piano di mitigazione dei rischi in base alle priorità e alle best practice di contesto. Potrebbe simulare l’impatto dello specifico rischio su tempi e costi di progetto, inviando l’esito dell’analisi sul vostro smartphone mentre camminate per recarvi alla riunione di pianificazione col vostro team, aiutandovi a prendere decisioni migliori e più informate in base ad un’analisi dei dati la più accurata possibile.

ConclusioniAFFIANCANDO AGLI STRUMENTI di Project Management Analytics statistici e algebrici i metodi e algoritmi di Machine Learning, in sé non nuovi ma oggi disponibili a costi sempre più bassi, il vostro ruolo di “capo progetto umano” cambierà. Parzialmente liberati dai vostri PMbot, potrete concentrarvi sui task non ripetitivi e difficilmente automatizzabili, come la comunicazione con gli stakeholder e la gestione del team. Insomma, in tutte quelle attività dove creatività, intuito e la vostra esperienza di Project Manager saranno insostituibili per molto tempo ancora. Per rendere possibile tutto questo, però, dovete prepararvi per tempo, raccogliendo e archiviando con struttura e granularità adeguate i dati dei vostri progetti: in essi è racchiusa gran parte della conoscenza che vi occorre.

21

In un precedente articolo di Ingenium pubblicato nella versione on-line abbiamo fatto conoscenza con alcuni strumenti e tecniche di Project Management Analytics, utili per far emergere dai dati di progetto regolarità e andamenti di supporto al processo decisionale.

Il passo successivo è derivare dai pattern di dati delle inferenze, per sviluppare modelli regressivi/predittivi attraverso il contributo della AI (Artificial Intelligence). La crescente disponibilità a basso costo di algoritmi di machine e deep learning determinerà presto l’evoluzione dei software di Project Management da sistemi di supporto alle decisioni a veri e propri sistemi intelligenti.

Project Management e Intelligenza Artificiale

Marco Caressa@mcaressa

Ingegnere nucleare ceduto a titolo definitivo all’informatica. 25 anni di coding, progettazione, ricerca e management ICT in Engineering Ingegneria Informatica. Attualmente si occupa di ingegneria dell’offerta, attraverso la proposizione di soluzioni architetturali e tecnologicheinnovative sulle diverse aree di mercato. PMP®, PMI-ACP®, appassionato di Project Management tradizionale e “agile”. Blogger, trainer, mentor e coach per la preparazione alla certificazione PMP. È intervenuto in diversi eventi formativi e webinar di settore per la Scuola di IT & Management di Engineering, per il Project Management Institute e per la LUISS University.

NEI MODELLI DI ANALYTICS, sia quelli statistici come il PERT o il Metodo Monte Carlo, sia quelli algebrici come la tecnica AHP, i dati di partenza provengono da misure sul progetto (work performance raw data) o sono indicati manualmente da esperti umani. In una simulazione Monte Carlo potete partire da una three-point estimation, che probabilmente avreste fatto comunque per valutare tempi e costi di progetto. E siete sempre voi che attribuite i pesi numerici ai diversi fattori di decisione nella tecnica AHP.Le vostre valutazioni di esperti umani possono derivare dall’esperienza - il cosiddetto “expert judgement” - oppure dal confronto con dati storici di sintesi, che possono essere usati a scopo predittivo in modo automatico. La premessa fondamentale è l’archiviazione in un database storico dei dati di progetto nella maniera più dettagliata e strutturata possibile (per esempio i dati di stima, i dati effettivi di tempi, costi e risorse utilizzati su ciascuna attività nei progetti precedenti, magari raggruppati per aree tematiche o tipologia di progetto).

LA CONOSCENZA CONTENUTA NEI DATI STORICI può essere utilizzata per sviluppare un modello predittivo con metodi di Machine Learning (ML), come reti neurali, alberi di decisione o SVM (Support Vector Machine). Alcuni domini del Project Management di maggiore applicazione del ML sono il Quality Management (defect prediction), il Risk Management, il Time & Cost Management. Ad esempio, un approccio predittivo ai tempi e costi di progetto richiede la messa a punto di una “funzione o modello predittivo” attraverso la scelta di uno specifico metodo di ML che, in accordo ai dati storici, possa fornire in output la previsione di tempi e costi, sia per l’intero progetto che per specifiche attività. In molti casi si tratta di una seconda giovinezza di metodi e approcci, un tempo confinati in nicchie di ricerca a causa della loro complessità computazionale, oggi divenuti praticabili grazie al costante calo dei costi di storage e capacità di calcolo, come i metodi di Deep Learning, essenzialmente basati su reti neurali (note dagli anni ’60) molto più grandie complesse di un tempo.

Analytics + Machine Learning = PMBot?UN BOT È UN’APPLICAZIONE di Intelligenza Artificiale che, semplificando molto, raccoglie e analizza dati, evidenziando pattern e imitando – con l’obiettivo di migliorarli – comportamenti umani. Sono già disponibili bot per ordinare cibo o prenotare un volo on-line, o chatbot che sostituiscono sistemi di assistenza on-line tradizionali.Un bot può essere programmato per imparare dalle vostre best practice. Può utilizzare algoritmi di machine learning per comprendere come lavorate, come analizzate i problemi, come prendete decisioni, per diventare a tutti gli effetti una vostra estensione, un vero e proprio assistente virtuale.Immaginate di aver fatto un assessment dei rischi di progetto. Ciascun rischio individuato può avere impatto su obiettivi, tempi, costi, change management. Un ipotetico PMBot potrebbe analizzare diversi scenari in tempo reale o quasi reale per suggerire il miglior piano di mitigazione dei rischi in base alle priorità e alle best practice di contesto. Potrebbe simulare l’impatto dello specifico rischio su tempi e costi di progetto, inviando l’esito dell’analisi sul vostro smartphone mentre camminate per recarvi alla riunione di pianificazione col vostro team, aiutandovi a prendere decisioni migliori e più informate in base ad un’analisi dei dati la più accurata possibile.

ConclusioniAFFIANCANDO AGLI STRUMENTI di Project Management Analytics statistici e algebrici i metodi e algoritmi di Machine Learning, in sé non nuovi ma oggi disponibili a costi sempre più bassi, il vostro ruolo di “capo progetto umano” cambierà. Parzialmente liberati dai vostri PMbot, potrete concentrarvi sui task non ripetitivi e difficilmente automatizzabili, come la comunicazione con gli stakeholder e la gestione del team. Insomma, in tutte quelle attività dove creatività, intuito e la vostra esperienza di Project Manager saranno insostituibili per molto tempo ancora. Per rendere possibile tutto questo, però, dovete prepararvi per tempo, raccogliendo e archiviando con struttura e granularità adeguate i dati dei vostri progetti: in essi è racchiusa gran parte della conoscenza che vi occorre.

COME I METODI E GLI ALGORITMI DI MACHINE LEARNING POSSONO AFFIANCARE

GLI STRUMENTI DI PROJECT MANAGEMENT ANALYTICS PIÙ TRADIZIONALI

Cosa potete fare già oggi e cosa potrete fare presto con l’AI, partendo dai dati di progetto, per automatizzare un numero sempre maggiore di funzioni e attività di Project Management?

20

TECH FOCUS

Page 22: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

COMPLESSITÀ COLLETTIVITÀ IDENTITÀ DIVERSITÀ

Morena Pietraccini

Dario Fabbri

Andrea Salvaggio

Valerio Lupi

Piero Luisi

Carlo Riccucci

Marco Breda

Alessandro Pandozy

Giovanni Leva

Andrea Peron

Lorenzo Coslovi

Vito Morreale

Maurizio Mariani

Alessio Derme

Marco Zanuttini

Nel kick-off 2017 sono presentati i progetti più significativi dell'ultimo anno.Li raccontano:

22

Page 23: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

Auditorium Parco della Musica Roma, 27 febbraio 2017

SPECIALEKICK-OFFENGINEERING2017

#KICKOFF_ENG2017

23

COMPLESSITÀ COLLETTIVITÀ IDENTITÀ DIVERSITÀ

Morena Pietraccini

Dario Fabbri

Andrea Salvaggio

Valerio Lupi

Piero Luisi

Carlo Riccucci

Marco Breda

Alessandro Pandozy

Giovanni Leva

Andrea Peron

Lorenzo Coslovi

Vito Morreale

Maurizio Mariani

Alessio Derme

Marco Zanuttini

Nel kick-off 2017 sono presentati i progetti più significativi dell'ultimo anno.Li raccontano:

22

Page 24: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

Roma, 27 febbraio 2017Auditorium Parco della Musica

.......................................................................................................................................................... ..........................................................................................................................................................

.......................................................................................................................................................... ..........................................................................................................................................................

LA PARTNERSHIP di Engineering con Comau, società specializzata in automazione e robot di saldatura, prevede la realizzazione di un framework applicativo per la raccolta in cloud dei dati dei macchinari e l’analisi degli stessi, mediante l’uso di algoritmi di machine learning, per analizzarne il comportamento e l’andamento. Gli algoritmi relazionano questi valori con gli eventi significativi che si manifestano in campo, come fermate, degrado delle prestazioni, malfunzionamenti e guasti, al fine di definire modelli predittivi in grado di prevedere e anticipare eventuali nuove situazioni di guasti e degrado, riducendo così le perdite produttive all’interno della fabbrica.

Morena Pietraccini @mpietracciniEngineering

IL PROGETTO “GIUDICO” (Giustizia Digitale Contabile) rappresenta il principale sistema informativo della Corte dei Conti e permette la gestione completa dell’operatività delle Sezioni e delle Procure. Consente alle varie tipologie di utenza della Corte dei Conti (amministrativi, magistrati e procuratori) l’esecuzione dei workflow di lavorazione della documentazione e delle comunicazioni, a partire dalla fase istruttoria fino al monitoraggio dell’esecuzione delle decisioni. Fornisce, inoltre, agli avvocatila possibilità di accedere al fascicolo di giudizio e ai cittadini di consultare le sentenze attraverso funzioni di ricerca semantica. La versione realizzata fornirà tutti gli strumenti necessari all'attuazione del processo contabile telematico.

Dario Fabbri @darfabbri Engineering

Andrea Salvaggio @randazzos75Engineering

Piero Luisi@piero_luisi Engineering

IL PROGETTO RAPPRESENTA per Engineering la prima esperienza di realizzazione dell’intero sistema di telecomunicazioni che costituisce l’infrastruttura tecnologica del sistema informatico delle metropolitane. Nove i sottosistemi componenti: rete di dati, telefonia, comunicazioni radio, sistema di supervisione e controllo e di diffusione sonora, informazioni ai passeggeri, bigliettazione, videosorveglianza e controllo accessi. La data di rilascio improrogabile (l’apertura delle Olimpiadi di Rio 2016), l’ambiente multiculturale, i valori in gioco, la complessità delle interfacce e le difficoltà strutturali sono stati gli elementi caratterizzanti il contesto all’interno del quale il progetto si è inserito.

Valerio Lupi @valeriolupi74 Engineering

KICK-OFF ENGINEERING

2017

SPECIALE

KICK-OFF ENGINEERING

2017

SPECIALE

24

TRE PROGETTI ACCOMUNATI dallo stesso metodo, il design partecipativo, e orientati verso un comune obiettivo: creare servizi digitali per il grande pubblico dall’esperienza d’uso efficace e appagante. • Il progetto SUS riguarda la realizzazione ex-novo del portale web unico che i cittadini sardi utilizzeranno per avvalersi di tuttii servizi on-line offerti dalla Regione.Il suo design supporta stili di navigazione differenti e permette accessi alternativi e multidimensionali ai servizi. • Varese Digitale è un progetto di trasformazione digitale dei servizi pubblici dell’Area Vasta di Varese, in cui tuttii fornitori del territorio (Comune, Università, Utility, Trasporti) partecipano alla costruzione dell’ecosistema di servizi digitali rivolti al cittadino e all’impresa.• Il sistema Allerta Meteo è l’ambiente digitale per la gestione delle informazionie delle comunicazioni con cui la Protezione Civile locale avverte, in modalità multicanale, la cittadinanza dell’approssimarsi del rischio causato da fenomeni ambientali prevedibili e monitorabili.

COMPLESSITÀ COMPLESSITÀ COMPLESSITÀ COLLETTIVITÀ

DIGITAL WORKPLACEINITIATIVE

INNOVARE NELLA PUBBLICA AMMINISTRAZIONE

SISTEMA TLCPER LA LINEA 4 DI METRO RIO

DESIGN PARTECIPATIVOCliente e utenti coinvolti per progetti innovativi

Page 25: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

Roma, 27 febbraio 2017Auditorium Parco della Musica

.......................................................................................................................................................... ..........................................................................................................................................................

.......................................................................................................................................................... ..........................................................................................................................................................

LA PARTNERSHIP TRIENNALE con il MAXXI - Museo delle Arti del XXI secolo - instaurata da Engineering nel 2016, prevedela realizzazione di progetti innovativi e strategici. I primi due realizzati:• JACK Contemporary arts tv, una web tv internazionale dedicata all’arte contemporanea che vede, già al momento del lancio, la presenza di 14 istituzioni di 7 Paesi diversi• Virtual MAXXI, una mostra in realtà virtuale esposta permanentemente presso il museo, per la quale Engineering ha curato oltrealla realizzazione dell’app fruita dai visitatori anche la digitalizzazione dei plastici architettonici oggetto della mostra.Con questa collaborazione, Engineering offre un contributo alla diffusione dell’arte e della cultura nel nostro Paese, anche nell’ottica del percorso di responsabilità sociale intrapreso dall’azienda da alcuni anni.

Alessandro Pandozy @bitglueagency bitglue

Piero Luisi@piero_luisi Engineering

Carlo Riccucci @carloriccucci Engineering

L'ISTITUTO OGNI ANNO eroga finanziamenti a fondo perduto a imprese per progetti di miglioramento dei livelli di salute e sicurezza nei luoghi di lavoro. Le concessioni rispettano criteri di precedenza temporale delle richieste e di positività delle verifiche tecniche, amministrative e di correttezza realizzativa. Insieme a INAIL sono state pensate e realizzate diverse analisi avanzate, usando tecniche di data mining per capire se i progetti finanziati sono stati efficaci nella riduzione degli infortuni, per prevedere l’esito delle richieste di finanziamento, per esplorare i motivi alla base della loro promozione, bocciatura o ritiro. Sono state impiegate tecniche di elaborazione avanzata dei testi (text mining), in gradodi estrarre e rappresentare il significato in essi contenuto in una forma adatta ai trattamenti successivi. Attraverso di esse e impiegando anche altri algoritmi, tra cui quelli di classificazione e di costruzione di mappe e grafi, si è potuto dare una risposta alla domanda di importanza capitale che il cliente si poneva: “Sì, il finanziamento è utile, gli infortuni si riducono”.

Marco Breda @erbremar Engineering

IL PROGETTO RAPPRESENTA per Engineering la prima esperienza di realizzazione dell’intero sistema di telecomunicazioni che costituisce l’infrastruttura tecnologica del sistema informatico delle metropolitane. Nove i sottosistemi componenti: rete di dati, telefonia, comunicazioni radio, sistema di supervisione e controllo e di diffusione sonora, informazioni ai passeggeri, bigliettazione, videosorveglianza e controllo accessi. La data di rilascio improrogabile (l’apertura delle Olimpiadi di Rio 2016), l’ambiente multiculturale, i valori in gioco, la complessità delle interfacce e le difficoltà strutturali sono stati gli elementi caratterizzanti il contesto all’interno del quale il progetto si è inserito.

KICK-OFF ENGINEERING

2017

SPECIALE

25

TRE PROGETTI ACCOMUNATI dallo stesso metodo, il design partecipativo, e orientati verso un comune obiettivo: creare servizi digitali per il grande pubblico dall’esperienza d’uso efficace e appagante. • Il progetto SUS riguarda la realizzazione ex-novo del portale web unico che i cittadini sardi utilizzeranno per avvalersi di tuttii servizi on-line offerti dalla Regione.Il suo design supporta stili di navigazione differenti e permette accessi alternativi e multidimensionali ai servizi. • Varese Digitale è un progetto di trasformazione digitale dei servizi pubblici dell’Area Vasta di Varese, in cui tuttii fornitori del territorio (Comune, Università, Utility, Trasporti) partecipano alla costruzione dell’ecosistema di servizi digitali rivolti al cittadino e all’impresa.• Il sistema Allerta Meteo è l’ambiente digitale per la gestione delle informazionie delle comunicazioni con cui la Protezione Civile locale avverte, in modalità multicanale, la cittadinanza dell’approssimarsi del rischio causato da fenomeni ambientali prevedibili e monitorabili.

COLLETTIVITÀ COLLETTIVITÀ COLLETTIVITÀ

DESIGN PARTECIPATIVOCliente e utenti coinvolti per progetti innovativi

ANALYTICS PER INAIL Un caso di successo

JACK CONTEMPORARYARTS TV E VIRTUAL MAXXI

Roma, 27 febbraio 2017Auditorium Parco della Musica

.......................................................................................................................................................... ..........................................................................................................................................................

.......................................................................................................................................................... ..........................................................................................................................................................

LA PARTNERSHIP di Engineering con Comau, società specializzata in automazione e robot di saldatura, prevede la realizzazione di un framework applicativo per la raccolta in cloud dei dati dei macchinari e l’analisi degli stessi, mediante l’uso di algoritmi di machine learning, per analizzarne il comportamento e l’andamento. Gli algoritmi relazionano questi valori con gli eventi significativi che si manifestano in campo, come fermate, degrado delle prestazioni, malfunzionamenti e guasti, al fine di definire modelli predittivi in grado di prevedere e anticipare eventuali nuove situazioni di guasti e degrado, riducendo così le perdite produttive all’interno della fabbrica.

Morena Pietraccini @mpietracciniEngineering

IL PROGETTO “GIUDICO” (Giustizia Digitale Contabile) rappresenta il principale sistema informativo della Corte dei Conti e permette la gestione completa dell’operatività delle Sezioni e delle Procure. Consente alle varie tipologie di utenza della Corte dei Conti (amministrativi, magistrati e procuratori) l’esecuzione dei workflow di lavorazione della documentazione e delle comunicazioni, a partire dalla fase istruttoria fino al monitoraggio dell’esecuzione delle decisioni. Fornisce, inoltre, agli avvocatila possibilità di accedere al fascicolo di giudizio e ai cittadini di consultare le sentenze attraverso funzioni di ricerca semantica. La versione realizzata fornirà tutti gli strumenti necessari all'attuazione del processo contabile telematico.

Dario Fabbri @darfabbri Engineering

Andrea Salvaggio @randazzos75Engineering

Piero Luisi@piero_luisi Engineering

IL PROGETTO RAPPRESENTA per Engineering la prima esperienza di realizzazione dell’intero sistema di telecomunicazioni che costituisce l’infrastruttura tecnologica del sistema informatico delle metropolitane. Nove i sottosistemi componenti: rete di dati, telefonia, comunicazioni radio, sistema di supervisione e controllo e di diffusione sonora, informazioni ai passeggeri, bigliettazione, videosorveglianza e controllo accessi. La data di rilascio improrogabile (l’apertura delle Olimpiadi di Rio 2016), l’ambiente multiculturale, i valori in gioco, la complessità delle interfacce e le difficoltà strutturali sono stati gli elementi caratterizzanti il contesto all’interno del quale il progetto si è inserito.

Valerio Lupi @valeriolupi74 Engineering

KICK-OFF ENGINEERING

2017

SPECIALE

KICK-OFF ENGINEERING

2017

SPECIALE

24

TRE PROGETTI ACCOMUNATI dallo stesso metodo, il design partecipativo, e orientati verso un comune obiettivo: creare servizi digitali per il grande pubblico dall’esperienza d’uso efficace e appagante. • Il progetto SUS riguarda la realizzazione ex-novo del portale web unico che i cittadini sardi utilizzeranno per avvalersi di tuttii servizi on-line offerti dalla Regione.Il suo design supporta stili di navigazione differenti e permette accessi alternativi e multidimensionali ai servizi. • Varese Digitale è un progetto di trasformazione digitale dei servizi pubblici dell’Area Vasta di Varese, in cui tuttii fornitori del territorio (Comune, Università, Utility, Trasporti) partecipano alla costruzione dell’ecosistema di servizi digitali rivolti al cittadino e all’impresa.• Il sistema Allerta Meteo è l’ambiente digitale per la gestione delle informazionie delle comunicazioni con cui la Protezione Civile locale avverte, in modalità multicanale, la cittadinanza dell’approssimarsi del rischio causato da fenomeni ambientali prevedibili e monitorabili.

COMPLESSITÀ COMPLESSITÀ COMPLESSITÀ COLLETTIVITÀ

DIGITAL WORKPLACEINITIATIVE

INNOVARE NELLA PUBBLICA AMMINISTRAZIONE

SISTEMA TLCPER LA LINEA 4 DI METRO RIO

DESIGN PARTECIPATIVOCliente e utenti coinvolti per progetti innovativi

Page 26: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

.......................................................................................................................................................... ..........................................................................................................................................................

.......................................................................................................................................................... ..........................................................................................................................................................

L’ADOZIONE DEL PARADIGMA della content creation per attività di marketing in ambito B2B è l’elemento di innovazione che ha permesso ad HPE EMEA di ottenere un’importante crescita in termini di promozione dei propri prodotti e dei servizi offerti dei partner. Tale risultato è stato possibile favorendo lo sviluppo di una community on-line che consentisse al vendor e ai suoi partner di contribuire, con contenuti di qualità e valore, alla realizzazione di una vetrina web per stimolare lo sviluppo di nuove opportunità nell’obiettivo comune di crescita del business.L’abilitatore tecnologico di queste iniziative è uno strumento CMS dedicato, sviluppato su platform cloud che permette con facilità di pubblicare su portale web i contenuti a disposizione strutturati e collegati tra loro,per moltiplicarne spontaneamentela consultazione amplificandone l’impatto.

Lorenzo Coslovi @webresultsit WebResults

Vito Morreale @vitomorreale Engineering

IL PROGETTO, TERMINATO NEL 2015 ha rappresentato il punto di partenza perla costruzione di una piattaforma open source per la scoperta, il monitoraggio, l’analisie l’investigazione di sorgenti dati multimodali e disponibili su Internet, a supportodegli organi investigativi e di Intelligenceper l’identificazione e la prevenzionedi attività criminali e terroristiche on-line.La piattaforma si basa su tecniche innovative di text mining, audio analysis, video/image analysis, information fusion e intelligenza artificiale, il cui utilizzo integrato consentedi fare emergere situazioni di potenziale pericolo che la valutazione disgiunta delle singole sorgenti non riuscirebbe ad evidenziare, come ad esempiola segnalazione di frasi e contenuti testuali minacciosi su forum, blog e chat, soggetti pericolosi in contenuti multimedialipubblicati su social media, oggettipericolosi in immagini e video, relazionitra individui sospetti.

Giovanni Leva@giovanni7218 Engineering

LA RAPIDA EVOLUZIONE e diffusione delle nuove piattaforme digitali, al pari delle rivoluzioni in corso nel settore Automotive, presentano nuove opportunità di business, aprono scenari innovativi legati ai processi di vendita e rendono possibile l’ingresso di nuovi operatori di mercato dal mondo della tecnologia. Il mondo fisico e quello digitale devono essere integrati: questo è l’aspetto che contraddistingue “ENG4AUTO”, il brand lanciato alla fine del 2016 che caratterizza l’offerta di Engineering a supporto della Digital Transformation e della Customer Experience nei processi di vendita e post-vendita per i Brand Automotive, sia che si tratti di produttori che di filiali nazionali di produttori esteri.

Andrea Peron @andreaxon Engineering

KICK-OFF ENGINEERING

2017

SPECIALE

KICK-OFF ENGINEERING

2017

SPECIALE

26

IL PROGETTO SVILUPPATO PER BNL Italia e sponsorizzato dalla capogruppo BNP Paribas, è il sistema di CRM adottato dall’Area Commerciale della Divisione Corporate. La soluzione implementata su piattaforma Microsoft Dynamics 365 prevede un tool user friendly per la gestione del piano di azione commerciale da parte delle figure commerciali della Divisione, per la gestione delle opportunità e delle relazioni commerciali con i clienti, e per il monitoraggio, con reporte cruscotti, della pipeline commerciale.Il tool rende più semplice la pianificazionedegli obiettivi e la gestione delle opportunitàcommerciali, facilita la condivisionedelle informazioni tra tutti gli attoricoinvolti e alleggerisce le figure commercialidella banca dalle incombenze di alcuneattività di reportistica. Questa iniziativa rientra in un programma lavori DATA&CRM che ha l’obiettivo di realizzare la knowledge bank del futuro e una maggiore organizzazione e gestione dei dati sui clienti del gruppo BNP Paribas. Il progetto pilota italiano farà da benchmark per le altre banche dei mercati domestici.

IDENTITÀ IDENTITÀ IDENTITÀ DIVERSITÀ

LA KNOWLEDGE BANK DEL FUTURODeal management per BNL

IN VIAGGIO ALLA CONQUISTA DELL’AUTOMOTIVE

STORYLOOP Content creationper B2B marketing

SINTESYS: SECURITY INTELLIGENT SYSTEMS

Roma, 27 febbraio 2017Auditorium Parco della Musica

Page 27: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

.......................................................................................................................................................... ..........................................................................................................................................................

.......................................................................................................................................................... ..........................................................................................................................................................

NEGLI ULTIMI ANNI il modo di fruiredei contenuti è cambiato radicalmentee ne sono testimonianza i servizidi TV on-demand come NETFLIX e TIM Vision e i servizi di musica on-line come Spotify e TIM Music. La sfida di Engineering,in collaborazione con TIM, è quelladi utilizzare lo stesso concetto e applicarloal mondo dei videogames per realizzareun servizio innovativo basato su tecnologie cloud: accedere ad un ampio catalogodi giochi costantemente in evoluzione utilizzando una semplice applicazioneclient installata su un set-top box androido un pc, demandando tutte le attività computazionali ai server remoti.

Maurizio Mariani @mmariani77 Engineering

Alessio Derme @aderme Telecom Italia

L’ADOZIONE DEL PARADIGMA della content creation per attività di marketing in ambito B2B è l’elemento di innovazione che ha permesso ad HPE EMEA di ottenere un’importante crescita in termini di promozione dei propri prodotti e dei servizi offerti dei partner. Tale risultato è stato possibile favorendo lo sviluppo di una community on-line che consentisse al vendor e ai suoi partner di contribuire, con contenuti di qualità e valore, alla realizzazione di una vetrina web per stimolare lo sviluppo di nuove opportunità nell’obiettivo comune di crescita del business.L’abilitatore tecnologico di queste iniziative è uno strumento CMS dedicato, sviluppato su platform cloud che permette con facilità di pubblicare su portale web i contenuti a disposizione strutturati e collegati tra loro,per moltiplicarne spontaneamentela consultazione amplificandone l’impatto.

Vito Morreale @vitomorreale Engineering

IL PROGETTO, TERMINATO NEL 2015 ha rappresentato il punto di partenza perla costruzione di una piattaforma open source per la scoperta, il monitoraggio, l’analisie l’investigazione di sorgenti dati multimodali e disponibili su Internet, a supportodegli organi investigativi e di Intelligenceper l’identificazione e la prevenzionedi attività criminali e terroristiche on-line.La piattaforma si basa su tecniche innovative di text mining, audio analysis, video/image analysis, information fusion e intelligenza artificiale, il cui utilizzo integrato consentedi fare emergere situazioni di potenziale pericolo che la valutazione disgiunta delle singole sorgenti non riuscirebbe ad evidenziare, come ad esempiola segnalazione di frasi e contenuti testuali minacciosi su forum, blog e chat, soggetti pericolosi in contenuti multimedialipubblicati su social media, oggettipericolosi in immagini e video, relazionitra individui sospetti.

NEL PROSSIMO FUTURO si assisterà alla rivoluzione dell’era “Post-App”, una trasformazione radicale del mondo delle App attualmente conosciute. I dispositivi e le interfacce delle applicazioni saranno sempre più integrati con Realtà Aumentata e Virtuale, tecnologie in via di consolidamento anche nelle soluzioni realizzate da OverIT. Tra queste, Geocall Work Force Management racchiude al suo interno le più recenti innovazioni tecnologiche, tra cui la Realtà Aumentata, che produce un aumento della percezione dell’ambiente in cui l’operatore lavora e riduce la complessità delle operazioni da eseguire, e la Realtà Virtuale, che eleva di un ulteriore livello la modalità di presentazione delle informazioni nello svolgimento dei lavori. AR e VR: l’innovazione virtuale che semplifica l’esecuzione delle attività operative sul campo.

Marco Zanuttini @overitspa OverIT

KICK-OFF ENGINEERING

2017

SPECIALE

27

DIVERSITÀ DIVERSITÀ DIVERSITÀ

SINTESYS: SECURITY INTELLIGENT SYSTEMS

LA RIVOLUZIONE DELL’ERA “POST-APP”

CLOUD GAMING

Roma, 27 febbraio 2017Auditorium Parco della Musica

.......................................................................................................................................................... ..........................................................................................................................................................

.......................................................................................................................................................... ..........................................................................................................................................................

L’ADOZIONE DEL PARADIGMA della content creation per attività di marketing in ambito B2B è l’elemento di innovazione che ha permesso ad HPE EMEA di ottenere un’importante crescita in termini di promozione dei propri prodotti e dei servizi offerti dei partner. Tale risultato è stato possibile favorendo lo sviluppo di una community on-line che consentisse al vendor e ai suoi partner di contribuire, con contenuti di qualità e valore, alla realizzazione di una vetrina web per stimolare lo sviluppo di nuove opportunità nell’obiettivo comune di crescita del business.L’abilitatore tecnologico di queste iniziative è uno strumento CMS dedicato, sviluppato su platform cloud che permette con facilità di pubblicare su portale web i contenuti a disposizione strutturati e collegati tra loro,per moltiplicarne spontaneamentela consultazione amplificandone l’impatto.

Lorenzo Coslovi @webresultsit WebResults

Vito Morreale @vitomorreale Engineering

IL PROGETTO, TERMINATO NEL 2015 ha rappresentato il punto di partenza perla costruzione di una piattaforma open source per la scoperta, il monitoraggio, l’analisie l’investigazione di sorgenti dati multimodali e disponibili su Internet, a supportodegli organi investigativi e di Intelligenceper l’identificazione e la prevenzionedi attività criminali e terroristiche on-line.La piattaforma si basa su tecniche innovative di text mining, audio analysis, video/image analysis, information fusion e intelligenza artificiale, il cui utilizzo integrato consentedi fare emergere situazioni di potenziale pericolo che la valutazione disgiunta delle singole sorgenti non riuscirebbe ad evidenziare, come ad esempiola segnalazione di frasi e contenuti testuali minacciosi su forum, blog e chat, soggetti pericolosi in contenuti multimedialipubblicati su social media, oggettipericolosi in immagini e video, relazionitra individui sospetti.

Giovanni Leva@giovanni7218 Engineering

LA RAPIDA EVOLUZIONE e diffusione delle nuove piattaforme digitali, al pari delle rivoluzioni in corso nel settore Automotive, presentano nuove opportunità di business, aprono scenari innovativi legati ai processi di vendita e rendono possibile l’ingresso di nuovi operatori di mercato dal mondo della tecnologia. Il mondo fisico e quello digitale devono essere integrati: questo è l’aspetto che contraddistingue “ENG4AUTO”, il brand lanciato alla fine del 2016 che caratterizza l’offerta di Engineering a supporto della Digital Transformation e della Customer Experience nei processi di vendita e post-vendita per i Brand Automotive, sia che si tratti di produttori che di filiali nazionali di produttori esteri.

Andrea Peron @andreaxon Engineering

KICK-OFF ENGINEERING

2017

SPECIALE

KICK-OFF ENGINEERING

2017

SPECIALE

26

IL PROGETTO SVILUPPATO PER BNL Italia e sponsorizzato dalla capogruppo BNP Paribas, è il sistema di CRM adottato dall’Area Commerciale della Divisione Corporate. La soluzione implementata su piattaforma Microsoft Dynamics 365 prevede un tool user friendly per la gestione del piano di azione commerciale da parte delle figure commerciali della Divisione, per la gestione delle opportunità e delle relazioni commerciali con i clienti, e per il monitoraggio, con reporte cruscotti, della pipeline commerciale.Il tool rende più semplice la pianificazionedegli obiettivi e la gestione delle opportunitàcommerciali, facilita la condivisionedelle informazioni tra tutti gli attoricoinvolti e alleggerisce le figure commercialidella banca dalle incombenze di alcuneattività di reportistica. Questa iniziativa rientra in un programma lavori DATA&CRM che ha l’obiettivo di realizzare la knowledge bank del futuro e una maggiore organizzazione e gestione dei dati sui clienti del gruppo BNP Paribas. Il progetto pilota italiano farà da benchmark per le altre banche dei mercati domestici.

IDENTITÀ IDENTITÀ IDENTITÀ DIVERSITÀ

LA KNOWLEDGE BANK DEL FUTURODeal management per BNL

IN VIAGGIO ALLA CONQUISTA DELL’AUTOMOTIVE

STORYLOOP Content creationper B2B marketing

SINTESYS: SECURITY INTELLIGENT SYSTEMS

Roma, 27 febbraio 2017Auditorium Parco della Musica

Page 28: A 30 anni dal primo numero, - eng.it · PEOPLE DO.” (Jonathan Gray) A 30 anni dal primo numero, torna Ingenium sul web. ... torniamo oggi con questo numero speciale in occasione

www.ingenium-magazine.it@ingeniumTW

Direttore ResponsabileStefano Epifani

Responsabile Editoriale M. Concetta Lattanzio

Caporedattore Sonia Montegiove

Coordinamento Editoriale Marcello Migliavacca

Progetto grafico e impaginazione Bonifacio PontonioElena Minafra Roberto Luciani

StampaIntese Grafiche Brescia