future bright - a data driven reality
DESCRIPTION
ÂTRANSCRIPT
FUTURE BRIGHT
A DATA DRIVEN REALITY
In samenwerking met
5 Voorwoord door Karel Kinders
7 Inleiding door Jeroen Dijkxhoorn
10 HR-dienstverlener Securex gaat voor 100 procent betrouwbare CRM
14 Data-integratie evolueert door big data en open source
18 Infographic Data Management
20 Rijkswaterstaat krijgt geïntegreerd inzicht in prestaties
24 Ronald Damhof maakt datamanagement bespreekbaar met Datakwadrantenmodel
32 Onze Lieve Vrouwe Gasthuis en Sint Lucas Andreas Ziekenhuis integreren hun data
36 DSM krijgt grip op Master Data
42 Wie is uw datahoeder?
46 Jyll Dyché over haar boek The New IT
48 Kredietverzekeraar integreert kwaliteitsratio’s in risicobepaling
52 Kwaliteitsslag cruciaal voor data
56 Feu Vert haalt waarde uit klantdata
60 Real-time gefundeerde beslissingen laten de wereld sneller draaien
64 Gelre Ziekenhuizen legt fundament onder informatievoorziening
69 Over SAS
71 Colofon
INHOUDSOPGAVE
VOORWOORD
Voor u ligt alweer de zevende uitgave van Future Bright, met dit keer als thema A Data Driven Reality. De datagedreven samenleving wordt sneller dan veel mensen denken realiteit. Dit dankzij ontwikkelingen als The Internet of Things, wat het mogelijk maakt om processen die nu nog handmatig plaatsvinden verregaand te automatiseren. Tegelijkertijd ziet analistenbureau Forrester de opkomst van The Age of the Customer. Klanten laten digitaal een spoor na, en ze verwachten van hun leveranciers dat ze die informatie gebruiken om hen een beter en relevanter maatwerkaanbod te doen.
De impact van deze twee ontwikkelingen is groot. Veel bestuurders beginnen zich dat nu ook te realiseren.
Maar ze nemen nog weinig gestructureerde actie om hun organisatie echt klaar te maken voor deze Data
Driven Reality. Dat snappen wij heel goed, want hoe pak je dit aan? Waar begin je?
Binnen organisaties ontstaat het besef dat eerst het fundament op orde moet worden gebracht.
Tegelijkertijd zien ze veel laaghangend fruit dat met projecten op het gebied van big data analytics
geplukt kan worden. Hoe verhouden deze werelden zich tot elkaar? Welke geïnvesteerde euro levert het
snelst rendement op?
Met dit boek bieden wij u nieuwe inzichten. Aan de hand van interviews met klanten, experts en
vakgenoten op het gebied van informatie management laten we u zien welke stappen u moet zetten om
data management een centrale rol toe te kennen in uw organisatie, zodanig dat u zowel uw fundament op
orde heeft, en ook in staat bent data te benutten voor innovatie.
Wij wensen u veel inspiratie toe in deze nieuwe realiteit.
Karel Kinders
Managing Director
SAS Nederland
6
7
INLEIDING
Jeroen Dijkxhoorn
DIRECTOR ANALYTICAL
PLATFORM CENTER OF
EXCELLENCE BIJ SAS
8
Het feit dat data in het verleden een bijproduct was van het proces resulteerde in databases met
behoorlijk wat fouten en omissies. Dat werd opgevangen doordat er altijd wel een validatieslag
plaatsvond op het moment dat iemand iets met de data wilde doen. Want als dan bleek dat veel data
onjuist was, werden ineens alle inspanningen gericht op het aanvullen van ontbrekende data, het
corrigeren van foute data en/of het opschonen van vervuilde databases. Daar kwam altijd menselijke
interventie aan te pas.
Data zet volautomatisch processen in gangDie manier van werken wordt problematisch nu databronnen in toenemende mate gekoppeld wor-
den en processen op willekeurige momenten kunnen starten. Waar bijvoorbeeld vroeger de marke-
teer het moment bepaalde waarop een e-mailmarketingcampagne werd gedaan, zijn het nu triggers
die de klant afgeeft waarop u wilt inspelen. Hoe beter u snapt welke reis de klant aflegt (de customer
journey) hoe makkelijker het wordt om op die triggers in te spelen en hoe relevanter u als organisatie
voor uw klanten wordt. Dit vraagt dat u in richtlijnen (policies) vastlegt hoe uw organisatie reageert
als uw klant of prospect bepaalde informatie aanvraagt of zich inschrijft voor een e-mailnieuwsbrief.
Het vervolgtraject vindt daarna volautomatisch plaats, zonder menselijke interventie en dus ook
zonder die validatieslag die vroeger dan nog plaatsvond. Controleren op correctheid van data zal dus
automatisch moeten plaatsvinden, door services die overal in het proces ingezet kunnen worden.
Hierbij kunnen we onderscheid maken tussen datavalidatie (het technisch corrigeren van data in een
fysieke datastroom) en datakwaliteit (het verifiëren op de functionele correctheid).
Data Driven RealityWaar organisaties vroeger gedreven werden door processen, worden ze nu gedreven door data. Dit
maakt dat de impact van een fout die niet wordt herkend meteen groot kan zijn. Deze kan niet meer
handmatig worden gecorrigeerd, waardoor de fout op meerdere plekken doorwerkt. Toezicht op de
datakwaliteit wordt daardoor veel belangrijker. Dit is ook de reden waarom wet- en regelgeving
nieuwe eisen stelt aan datakwaliteit. Toezichthouders willen vandaag de dag data, geen rapporten.
Dit vraag om een Data Driven Organization. We komen terecht in een Data Driven Reality.
Al vanaf het moment dat er databases zijn, praten we over datakwaliteit. Een onderwerp dat lange tijd weinig aandacht kreeg om de simpele reden dat procesefficiëntie altijd belangrijker was dan de volledigheid en juistheid van data. Data was een bijproduct van het proces. Die tijd ligt achter ons. De toekomst is aan datagedreven organisaties.
INLEIDING
Technologie is in deze ontwikkeling het probleem niet. Het feit dat het centrale toezicht op de con-
sistentie van datadefinities – Data Governance – ontbreekt is dat wel. Dit is typisch een taak van een
Chief Data Officer, die veel organisaties nog ontberen.
Age of the Customer en Internet of Things zijn drijfverenHoog tijd om actie te ondernemen, want in The Age of the Customer moet u flexibel kunnen inspelen
op triggers die klanten geven. Dit vraagt om een 360 graden-beeld van de klant. We praten daar al
jaren over, maar het is er nog altijd niet omdat klantdata verspreid staan over verschillende syste-
men. Door het ontbreken van toezicht op datadefinities kan die data niet bij elkaar worden gebracht.
Ook de ontwikkelingen die The Internet of Things met zich meebrengen is een drijfveer. Dit gaat zor-
gen voor een nieuwe stroom aan data die u graag wilt gebruiken om uw processen te optimaliseren
en verregaand te automatiseren. Ook dit vraagt om een goede visie op datamanagement.
Combinatie van verschillende soorten dataWelke van de twee genoemde realiteiten voor u ook de primaire drijfveer is, in beide situaties wordt
het steeds belangrijker om 100 procent betrouwbare data te combineren met data die een mate van
onzekerheid in zich hebben. Denk bijvoorbeeld aan weersvoorspellingen of sentimentanalyse van
social media. Hoe is het mogelijk om deze ongestructureerde data, veelal opgeslagen in Hadoop-
clusters, op een relevante manier te combineren met gestructureerde data die100 procent juist zijn,
zoals de routeplanning van vrachtwagenchauffeurs of data over aankoopgedrag?
Kostentechnisch is het onhaalbaar om al die data in een en dezelfde database op te slaan. Maar
ook organisatorisch is dat erg onwenselijk, zoals Ronald Damhof, zelfstandig consultant informatie
management, verderop in dit boek uitlegt. Er zit immers een groot verschil in data waarmee u zich
moet verantwoorden bij toezichthouders en data die u gebruikt om te experimenteren, op zoek naar
ideeën voor innovatie. Toch moeten die verschillende manieren van datagebruik bij elkaar worden
gebracht, zonder de data zelf meteen fysiek op één hoop te gooien.
Deze complexiteit vraagt om een eenduidig logisch datamodel en eenduidige datadefinities. Zonder
deze datadefinities en zonder goed stewardship op data is het onmogelijk om in te spelen op de
kansen die zich nu in de markt voordoen en waar concurrenten massaal op inspelen. Het is daarom
geen vraag meer of u hiermee gaat beginnen, maar wanneer. Ons advies is: vandaag nog. Data is uw
belangrijkste asset. Handel daarnaar en doe er wat mee, voordat een concurrent of een nieuwe spe-
ler op uw markt u voor is. ■
9
“Waar organisaties vroeger gedreven werden door processen, worden ze nu gedreven door data”
Jeroen Dijkxhoorn
INLEIDING
10
OPSCHONEN VAN DE RELATIEDATABASE EN DAARNA SCHOON HOUDEN
HR-DIENSTVERLENER
SECUREX GAAT VOOR
100 PROCENT
BETROUWBARE CRM
CASE
11
Zoals zoveel bedrijven ervoer ook HR-dienstverlener Securex problemen met zijn CRM-database. Daardoor had het bedrijf te weinig marketingdata, die bovendien ook nog eens steeds onbetrouwbaarder werd. Securex heeft daarom zijn database opgeschoond en up-to-date gemaakt met het SAS Data Management-platform. Dat wordt nu ook ingezet als waakhond om de accuratesse en consistentie van wijzigingen en nieuw ingevoerde data te controleren. Het resultaat is een veel completere database met verbeterde contactdata.
CASE
12
Securex is een HR-bedrijf dat actief is in België, Frankrijk en Luxemburg. Klanten variëren van grote
bedrijven tot kleine en middelgrote ondernemingen en zelfstandigen. De dienstverlening strekt zich
uit van payrolling, werknemersverzekeringen, personeelsmanagement, HR-consulting tot en met
gezondheids- en veiligheidsadvies. Securex heeft ongeveer 1600 medewerkers die in bijna 30 kan-
toren werken en samen meer dan een kwart miljoen klanten bedienen.
Data-inconsistentie leidt tot frustratiesIedere vorm van data-inconsistentie leidt tot frustratie bij iedereen die erbij betrokken is. Aan de ene
kant zijn medewerkers continu bezig om klantdata te controleren, te updaten en aan te vullen, terwijl
aan de andere kant de marketingafdeling een database aanschaft en integreert in het CRM-systeem
ten behoeve van een marketingcampagne. “Iedere aanpassing van data kan leiden tot fouten of
inconsistenties”, ziet Jacky Decoster, business architect bij Securex. “Omdat er zoveel verschillende
medewerkers en afdelingen betrokken zijn bij klantdata, ontstaan er makkelijk problemen, zoals een
klant die twee keer wordt ingevoerd of onvolledige contactinformatie (een ontbrekende voornaam,
geslacht, e-mailadres of telefoonnummer). Dit is frustrerend, vooral voor de marketingafdeling die
een campagne wil draaien. Veel e-mails komen onbezorgd terug omdat het e-mailadres niet meer
klopt, mails worden twee keer naar dezelfde persoon gestuurd, of er staat een verkeerde aanhef in
de mail. Dit schaadt natuurlijk onze reputatie.”
Hoewel Securex al sinds 2004 met een centrale SAP CRM-database werkt, zijn de problemen de laat-
ste jaren alleen maar groter geworden. Decoster: “Klachten komen zowel van onze eigen medewer-
kers als van klanten. Het was duidelijk dat we iets hieraan moesten doen. En dat we daarbij moesten
kiezen voor een effectieve en overtuigende werkwijze.”
SAS Data Management succesvol geïmplementeerdHet probleem van de slechte datakwaliteit stond hoog op de agenda toen Securex het Client+ pro-
gramma startte. Dit veranderproject bestond uit de migratie van het van veel maatwerk voorziene
SAP CRM-systeem naar de cloud-gebaseerde en derhalve volledig gestandaardiseerde Salesforce.com
omgeving. Securex besloot om bij de migratie het SAS Data Management-platform in te zetten. Een
goede keus, zo bleek achteraf. “SAS Data Management heeft ons in staat gesteld om zeer nauw-
gezet de data op te schonen voordat ze in de nieuwe database werden geüpload. De data zijn vol-
automatisch gestandaardiseerd, dubbele waarden zijn samengevoegd en ontbrekende informatie
is aangevuld. SAS Data Management heeft ingebouwde tools zoals de automatische definitie van
metadata, fuzzy matching, het ontleden van namen in voor- en achternaam en eventueel tussen-
voegsel, betrouwbare vaststelling van geslacht, standaardisering van telefoonnummers en analyse
van e-mailadressen. Daarmee zijn al onze uitdagingen volledig afgedekt. We hebben op dit moment
vrijwel al onze data overgezet en tot nu toe hebben we nog geen enkele klacht ontvangen van de
marketingafdeling. Het is een grote verbetering en het zou ondenkbaar zijn om dit zonder SAS Data
Management te realiseren.”
Permanente waakhond voor datakwaliteitDecoster benadrukt echter dat het verbeteren van de datakwaliteit geen eenmalige actie mag zijn.
Het moet een continu proces zijn. Dat is ook de reden waarom Securex voor een veelomvattende
CASE
benadering heeft gekozen, waarbij ook de marketing- en salesprocessen zijn bekeken. Onderdeel
hiervan is het bewustmaken van medewerkers van hun invloed op de kwaliteit van de database
op het moment dat zij data toevoegen of wijzigen. Zij moeten dat zo zorgvuldig mogelijk doen. SAS
Data Management wordt gebruikt als waakhond voor datakwaliteit. Decoster zegt: “Je kunt nooit 100
procent zeker zijn dat alle data die wordt ingevoerd helemaal correct is, ook al zijn mensen getraind
en bewust van hun invloed. Daarom doen wij regelmatige consistentiechecks met SAS Data Manage-
ment, iedere week zelfs. Onze volgende stap is om een near real-time check in te voeren. Op het
moment dat iemand data toevoegt of wijzigt, wordt het aangepaste record meteen naar SAS Data
Management gestuurd ter controle, een proces dat slechts een paar seconden duurt.”
Robuuste architectuur en grote flexibiliteitDecoster heeft niets dan lof voor de robuuste architectuur en grote flexibiliteit van het SAS Data
Management-platform. Het systeem kan worden geïntegreerd in iedere softwareomgeving. Er bestaat
zelfs een aantal gecertificeerde standaardkoppelingen naar de meest gebruikte CRM-pakketten,
waaronder Salesforce.com. Daardoor hoeft er geen maatwerk interface ontwikkeld te worden. Verder
wordt alle functionaliteit geleverd volgens ‘stored procedures’. En is zeker dat iedere transactie veilig
en betrouwbaar is.
SAS Data Management heeft een zeer krachtige data profiler. “Deze stelt ons in staat om aange-
kochte databases te controleren en het risico in te schatten dat er datavervuiling ontstaat als we deze
integreren in ons CRM-systeem”, zegt Decoster. De software beschikt bovendien over een krachtige
tool om batch jobs te definiëren om de aangekochte data op te schonen en de te standaardiseren.
Decoster besluit met het noemen van een laatste voordeel: de software is eenvoudig in gebruik. “De
leercurve voor SAS Data Management is heel kort. Met twee dagen training konden wij gebruikmaken
van alle functionaliteit die voor ons nodig is.” ■
13
“Het verbeteren van de datakwaliteit mag geen eenmalige actie zijn, maar is een continu proces”
Jacky Decoster
CASE
14
INTERVIEW
“Big data bestaat voor mij niet.” Een opmerkelijke uitspraak voor een expert in data-integratie. “Het is relatief. Het zegt iets over waar je vandaan komt.” Deze ontwikkeling biedt kansen. Maar het zorgt ook voor veel nieuwe uitdagingen, onder meer op het gebied van data-integratie.
15
INTERVIEW
De man die openlijk twijfelt aan het bestaan van ‘big’ data is pre-sales consultant André Molenaar
van SAS Nederland. Molenaar legt uit dat ‘big’ voor een kleine kruidenier iets heel anders is dan voor
een grote onderneming. “Er geldt dus geen ondergrens voor ‘big’ data”, argumenteert hij.
Molenaars collega Rein Mertens, teamleider pre-sales, beaamt dit. “Big data is alles wat valt buiten
de comfortzone van een organisatie om te verwerken.” Daarbij draait het er ook om hoe omvattend
de databronnen zijn en vooral hoe snel de informatie is te integreren om er dan nieuwe actiegerichte
inzichten uit te kunnen halen.
De vraag rijst hierdoor of big data dan niet gebonden is aan de ‘mate van volwassenheid’ van een
organisatie. Als het nét buiten de comfortzone ligt, is het dan niet een kwestie van uitbreiden, van
opgroeien? “Ja, het is een kwestie van volwassenwording”, zegt Mertens.
Nieuwe visie op dataMolenaar valt bij: “Bedrijven kijken vandaag de dag anders tegen data aan dan een paar jaar gele-
den. Kijk bijvoorbeeld naar de logdata van webservers. Die machines slaan in hun logbestanden het
opvragen van en doorklikken op webpagina’s op. Vanaf welke IP-adressen gebeurt dit? Met welke
cookiedata? Enzovoorts.” Allemaal gegevens die best waarde in zich kunnen hebben. Al relativeert
Molenaar dit: “Het gros van de logdata kun je eigenlijk weggooien. Alleen weet je niet welk deel je
precies kunt weggooien.” Bovendien is er ook een verschuiving in de waarde van dergelijke gegevens
over surfgedrag. Wat vroeger zeker gewist kon worden, blijkt nu juist vaak waardevol te zijn.
DATA-INTEGRATIE EVOLUEERT DOOR BIG DATA EN OPEN SOURCE
Hadoop ‘onder de motorkap’
16
Waar het een paar jaar geleden nog niet interessant was welke andere pagina’s een website bezoeker
zoal bezocht, kan dat nu juist cruciaal zijn. “Neem bijvoorbeeld real-time recommendations waar veel
online retailers mee werken. Of profielverrijking, zodat je als leverancier beter snapt waar de behoef-
ten van klanten liggen.”
Deze marketingtoepassingen van big data hebben voor een bredere visie op het nut van data-
integratie gezorgd. Organisaties zien dat er meerwaarde zit in het koppelen van de websitedata aan
de traditionele informatiebronnen zoals een CRM-systeem. Ze zien dat het niet alleen gaat om een
eenzijdige import van websitelogs in een CRM-applicatie, maar dat er voor betere benutting tweerich-
tingsverkeer én een bredere scope nodig is.
Groeiende databergen versus opslagkostenOp het eerste gezicht lijkt de groei van de data die bedrijven vergaren, opslaan en correleren wellicht
geen groot probleem. De opslagcapaciteit van opslagmedia blijft maar toenemen en de prijs per
gigabyte is aan neerwaartse druk onderhevig. Alsof harde schijven gehoorzamen aan een eigen
versie van de bekende Wet van Moore. Maar die vlieger gaat niet helemaal op. Want niet alleen is
de groeicurve van capaciteitstoename voor opslag minder steil dan die voor processors, ook is die
opslaggroei niet in staat de data-explosie echt voor te blijven.
Bijkomend probleem voor het omgaan met de informatie-explosie is software. Specifiek: database-
software. Veel van de opdoemende databergen zijn niet zomaar op te slaan in een relatief dure
gestructureerde database of in een kostbaar datawarehouse. Want in die enorme databergen kan
weliswaar goud zitten, maar het is nog onbekend hoeveel en wáár. Bovendien zijn veel van die data
ook nog eens ongestructureerd.
Hadoop volgt pad van Linux Hier komt de open source-software Hadoop om de hoek kijken. Dat is een goedkope oplossing,
draaiend op goedkope standaardhardware waarin vele petabytes aan data zijn op te slaan en te
verwerken. Hoe krachtig het is? Hadoop is gebaseerd op technieken die zoekreus Google zelf heeft
ontwikkeld om het internet te indexeren.
“Hadoop volgt nu het pad van Linux”, vertelt Molenaar. “De markt adopteert het gaandeweg voor
serieuzere toepassingen.” Beide technologieën komen uit een hele andere wereld dan de reguliere
bedrijfswereld en vereisen in de kern nogal wat technische kennis, ook van gebruikers. “Er was eerst
ook angst voor Linux”, aldus Mertens. Maar voor dit veelgebruikte open source-besturingssysteem
zijn er jaren terug al partijen opgekomen als Red Hat, die de kernsoftware combineren met zakelijke
toepassingen en dat prepareren in één zakelijk zó in te zetten geheel. Voor Hadoop begint dat proces
van zakelijke ‘packaging’ nu ook. SAS-manager Mertens wijst op Cloudera en Hortonworks, die hij ver-
gelijkt met Red Hat voor de bedrijfsadoptie van Linux.
“Hadoop lijkt nu nog complex voor veel bedrijven”, zegt Molenaar. “In de regel hebben zij namelijk
aparte technische mensen nodig. Niet alleen voor installatie en configuratie, maar ook voor onder-
houd en zelfs het dagelijks gebruik. Ervaren programmeurs die naast code-skills ook beheerderstalen-
ten hebben plus de kennis en kunde van data-analisten. Een zeldzame en dus kostbare optelsom van
kwaliteiten.”
INTERVIEW
Hadoop naar de massa brengenOndanks die complexiteit is Hadoop in trek, want “het biedt zoveel voordelen”, stelt Molenaar. SAS
springt hier dan ook op in. Mertens vertelt dat het bedrijf technologie zoals Hadoop benut “maar dan
onder de motorkap”. De complexiteit van die software wordt dan afgedekt met voor bedrijven beken-
de processen en programmatuur. Klanten kunnen zich dan richten op het daadwerkelijke gebruik van
de tools voor data-integratie, in plaats van dat ze eerst nog experts nodig hebben op het gebied van
de onderliggende software.
SAS heeft daarom zijn aanbod op het gebied van Data Management uitgebreid met een oplossing
om het gebruiksgemak te verhogen van het onder-de-motorkap-draaiende Hadoop: SAS Data Loader
for Hadoop. Hiermee kun je diepgaand graven in de beschikbare databerg. De opgeslagen data in
Hadoop is dan veel eenvoudiger te prepareren en ontginnen. Door data-analisten en zelfs door gewo-
ne gebruikers. Iederéén kan goud winnen. ■
17
INTERVIEW
In die enorme databergen kan weliswaar goud zitten maar het is nog onbekend hoeveel en wáár
Rein Mertens HEAD OF ANALYTICAL
PLATFORM
18
DATA MANAGEMENT
19
20
Jacorien Wouters
PROGRAMMAMANAGER
NETWERKMANAGEMENT
INFORMATIESYSTEEM
BIJ RIJKSWATERSTAAT
CASE
21
RIJKSWATERSTAATKRIJGT GEÏNTEGREERD INZICHT IN PRESTATIES
Rijkswaterstaat is verantwoordelijk voor het hoofdwegennet, het hoofdvaarwegennet en het hoofdwatersysteem van ons land. Om verantwoording af te kunnen leggen aan het Ministerie van Infrastructuur en Milieu, de Tweede Kamer en om de interne organisatie aan te sturen bij operationele processen, is het belangrijk om op tijd over de juiste informatie te beschikken en deze zowel intern als extern te kunnen ontsluiten. Hiervoor ontwikkelde Rijkswaterstaat het Netwerkmanagement Informatiesysteem (NIS).
Rijkswaterstaat startte een aantal jaren geleden met het ontwikkelen van het NIS. Het systeem
moest geïntegreerd inzicht bieden in de prestaties die Rijkswaterstaat levert, met als doel
scherper te kunnen sturen en beter inzicht te krijgen in de prestaties. In het aanbestedings
traject werd gekozen voor de oplossingen van SAS, omdat deze in staat zijn het hele proces van
bron tot browser te ondersteunen. Zo maakt Rijkswaterstaat voor het NIS gebruik van SAS
Business Intelligence en SAS Data Management.
“Het NIS is inmiddels één van de belangrijkste informatiebronnen voor de aansturing van
Rijkswaterstaat”, vertelt Jacorien Wouters, programmamanager van het NIS. “De grootste twee
informatiestromen over de netwerken van onze organisatie komen hierin samen: prestaties van
de netwerken en gegevens over onze assets zoals wegen, bruggen, maar bijvoorbeeld ook de
Waddenzee. Hier is een intensief proces van dataintegratie aan vooraf gegaan.”
Wegen- en vaarwegenneten de prestaties ervanintegraal inzichtelijk
CASE
22
Betere beslissingenBij de start van het NIS waren de gegevens uit verschillende applicaties verspreid over de informatie
systemen van de tien verschillende Regionale Diensten van Rijkswaterstaat. Het NIS haalt inmiddels
periodiek gegevens op uit meer dan veertig bronsystemen. De kracht van het systeem is onder meer
de mogelijkheid om gegevens te combineren en in grafieken en kaartbeelden te presenteren. Dit
geeft snel en duidelijk inzicht in de prestaties van de individuele diensten en van Rijkswaterstaat in
zijn geheel. De cijfers in het NIS hebben een officiële status. Dit is intern van groot belang, maar ook
extern aangezien Rijkswaterstaat drie keer per jaar rapporteert aan het Ministerie over de status van
specifieke Prestatie Indicatoren oftewel PIN’s. Hierover zijn voor een begrotingsperiode van vier jaar
afspraken gemaakt in een Service Level Agreement.
Complexere analysesNiet alleen de sturing is verbeterd, ook de toegang tot de informatie is sterk vereenvoudigd, getuige
de toename van het aantal gebruikers van het NIS binnen Rijkswaterstaat. Wouters: “Informatie die
voorheen slechts door een paar medewerkers uit een specifiek bronbestand kon worden gehaald is
via de NISportal nu beschikbaar voor alle medewerkers binnen Rijkswaterstaat.”
CASE
Zij vervolgt: “Het inzicht in de onderliggende gegevens helpt ons efficiënter te werken en daarmee
op termijn kosten te besparen. Daarnaast levert de eenduidige wijze van rapporteren tijdwinst op. Er
zijn geen discussies meer over de definities of de cijfers: er is één versie van de waarheid. Doordat
informatie met het NIS makkelijker beschikbaar is kunnen we ook sneller en beter bijsturen. Vroeger
rapporteerden we drie keer per jaar over de prestaties en kwamen er soms zaken aan het licht waar
je liever direct actie op had ondernomen. Nu kunnen we meteen ingrijpen.”
OntwikkelingenAfgelopen jaar heeft Rijkswaterstaat SAS geïmplementeerd en daarmee een stap gemaakt in het ver
beteren van de datakwaliteit. Verder wordt gestart met het gebruik van SAS Visual Analytics. Wouters:
“Omdat er nu simpelweg meer inzicht is in de informatie kan ons bestuur geavanceerdere beslissin
gen nemen. We gaan steeds verder in het combineren van informatie waardoor ook verbanden die
we eerst niet hadden gelegd zichtbaar worden.” ■
23
“Het inzicht in de onderliggende gegevens helpt ons efficiënter te werken en daarmee op termijn kosten te besparen. Daarnaast levert de eenduidige wijze van rapporteren tijdwinst op. Er zijn geen discussies meer over de definities of de cijfers: er is één versie van de waarheid.”
Jacorien Wouters
CASE
Ronald Damhof
ONAFHANKELIJK
CONSULTANT
INFORMATIE
MANAGEMENT
24
INTERVIEW
25
“Maak datamanagement bespreekbaar in de hele organisatie”
Onafhankelijk consultant Informatie Management
Ronald Damhof ontwikkelde het Datakwadrantenmodel
Het vakgebied datamanagement staat bol van het jargon. De meeste business managers hebben geen idee wat al die termen betekenen, laat staan dat ze hen helpen te snappen welke data nu precies welke waarde hebben en hoe ze hiermee moeten omgaan. Om een bedrijfsbrede discussie over data mogelijk te maken, ontwikkelde Ronald Damhof het Datakwadrantenmodel.
INTERVIEW
26
Damhof werkt als onafhankelijk consultant Informatie Management voor grote organisaties zoals
Ahold, De Nederlandsche Bank, de Belastingdienst, Alliander en vele organisaties in de financiële
sector en de gezondheidszorg. Het zijn data-intensieve organisaties die steeds beter beseffen dat de
kwaliteit van hun werk in toenemende mate wordt bepaald door de kwaliteit van hun data. Maar
hoe kom je vanuit dat besef tot een goede datastrategie? Een strategie die iedereen in de organisatie
snapt, van de bestuurder in de boardroom tot aan de engineer bij ICT?
Om het onderwerp datamanagement bespreekbaar te maken, ontwikkelde Damhof een kwadranten-
model.
To push or to pull?Damhof begint met het uitleggen van een begrip dat iedereen in het voortgezet onderwijs wel voor-
bij heeft zien komen: het klantorderontkoppelpunt. Dit heeft betrekking op de mate waarin de vraag
impact heeft op het productieproces. Als voorbeeld noemt hij het maken van een luxueus jacht. Het
productieproces begint pas als de order van de klant bekend is. Het klantorderontkoppelpunt ligt bij
de start van het productieproces. Daartegenover staan bijvoorbeeld lucifers. Als een klant lucifers wil
hebben, gaat hij naar de supermarkt en koopt hij ze. Als hij zwarte lucifers wil, heeft hij pech gehad.
Het klantorderontkoppelpunt ligt helemaal aan het eind van het productieproces. De productie van
een auto echter heeft een standaardgedeelte en een maatwerkgedeelte. De klant kan nog aangeven
dat hij een specifieke kleur wil, leren bekleding, andere velgen et cetera. Het klantorderontkoppel-
punt ligt ergens in midden van het productieproces. Damhof: “Ook met het maken van een rapport,
dashboard of analytische omgeving is er sprake van een klantorderontkoppelpunt dat ergens in dat
midden ligt.”
The Data Push Pull Point
INTERVIEW
Push/Supply/Source driven
• Mass deployment• Control > Agility• Repeatable & predictable processes• Standardized processes• High level of automation• Relatively high IT/Data expertise
All facts, fully temporal Truth, Interpretation, Context
• Piece deployment• Agility > Control• User-friendliness• Relatively low IT expertise• Domain expertise essential
Business Rules Downstream
Pull/Demand/Product driven
27
Het klantorderontkoppelpunt splitst het productieproces in twee stukken: een push- en een pull-kant,
ook wel een aanbodgedreven deel en een vraaggedreven deel. Push-systemen zijn erop gericht
schaalvoordelen te halen bij toename van volume en vraag, waarbij de (data)kwaliteit van het pro-
duct gewaarborgd blijft. Aan de andere kant zijn er pull-systemen die vraaggedreven zijn. Verschil-
lende type gebruikers willen vanuit hun eigen expertise en context de data kneden tot ‘hun’ product,
hun waarheid.
Opportunistisch of systematisch ontwikkelen?Op de Y-as projecteert Damhof de dimensie ontwikkelstijl. “Daarmee bedoel ik: hoe ontwikkel je een
informatieproduct? Dat kun je systematisch doen; dan zijn de gebruiker en de ontwikkelaar twee
verschillende personen en pas je een defensieve governance toe, gericht op controle en compliance.
Alles wat engineers hebben geleerd om software op gedegen wijze voort te brengen wordt hier in
praktijk gebracht. Je ziet dit vaak bij gecentraliseerde, bedrijfsbreed toegepaste data, bijvoorbeeld
financiële data en data die aan toezichthouders wordt gerapporteerd.”
Je kunt ook een opportunistische ontwikkelstijl gebruiken. “In dat geval zijn de ontwikkelaar en de
gebruiker vaak één en dezelfde persoon. Denk aan de data scientist die wil innoveren met data, die
analytische modellen wil maken en wil beproeven. Denk ook aan situaties waar snelheid van levering
essentieel is. De governance is hierbij offensief, dat wil zeggen dat de focus ligt op flexibiliteit en aan-
pasbaarheid.”
Hoe kom je tot een datastrategie?
The Development Style
INTERVIEW
Systematic
• User and developer are separated• Defensive Governance; focus on control and compliance• Strong focus on non-functionals; auditability, robustness, traceability, ….• Centralised and organisation-wide information domain• Configured and controlled deployment environment (dev/tst/acc/prod)
• User and developer are the same person or closely related• Offensive governance; focus on adaptability & agility• Decentralised, personal/workgroup/department/theme information domain• All deployment is done in production
Opportunistic
28
DatakwadrantenmodelGecombineerd leveren deze twee dimensies het volgende plaatje op.
Damhof: “In kwadrant I vindt je de keiharde feiten. Deze data kan in haar volle ruwe omvang op
begrijpelijke wijze ter beschikking worden gesteld aan de kwadranten II en IV. Data in kwadrant I
worden geproduceerd door sterk gestandaardiseerde systemen en processen, zodat ze volstrekt voor-
spelbaar en repeteerbaar zijn.”
Daar diagonaal tegenover, in kwadrant IV, staan data die worden gekenmerkt door innovatie en
prototyping. “In dit kwadrant werken de data scientists, die eigenlijk maar drie dingen vragen:
data, computerkracht en coole software.” Steeds vaker worden er aparte afdelingen als Innovation
Labs opgezet om data scientists volop te laten experimenteren en analyseren met de data. Met als
doel innovatie. “Je hebt dit type datamanagement nodig om goede ideeën op te doen en te testen.
Als iets werkt, dan is het vervolgens zaak om dit concept vanuit het vierde kwadrant omhoog te
krijgen naar het tweede kwadrant, want pas als je de data systematisch kunt genereren en analy-
seren dan kun je er ook schaalvoordelen mee behalen in je business. Dan kun je ze bedrijfsbreed
gaan toepassen.”
Damhof gaat verder: “Te vaak spreek ik data scientists die hele gave inzichten verkrijgen in een soort
sandbox-omgeving. Maar ze vergeten of zijn niet in staat die inzichten ten gelde te maken in een pro-
ductiesituatie. Ze krijgen hun inzichten maar niet van kwadrant IV naar kwadrant II. Hier komt gover-
nance om de hoek kijken.” En daar ligt voor veel organisaties de grote uitdaging, weet Damhof. “Als
je managers dit model uitlegt en vraagt waar hun prioriteit ligt, dan zeggen ze allemaal dat ze eerst
het fundament op orde moeten maken, het eerste kwadrant. Maar vraag je waar ze hun geld nu in
A Data Deployment Quadrant
INTERVIEW
Systematic
Opportunistic
Development Style
Data Push/Pull Point Pull/Demand/Product drivenPush/Supply/Source driven
IVIII
III
“Shadow IT, Incubation, Ad-hoc,
Once off”
Facts Context
Research, Innovation &
Prototyping Design
29
investeren, waar ze nu innoveren, dan is het vaak in het vierde kwadrant. Dat ze zich bezighouden
met deze meer experimentele en exploratieve vorm van datamanagement is mooi, maar dat kan pas
als je fundament klopt. Anders heb je een hypermodern toilet dat niet is aangesloten op het riool, dat
wordt dus een hele vieze bende.”
Vraag de gemiddelde data scientist wat hem het meeste tijd kost en zijn antwoord zal zijn om de
data op het juiste kwalitatieve niveau te krijgen. Laat dit nu net het doel van kwadrant I zijn. “Een
data scientist met krachtige analytische software, veel computerkracht én hoogwaardige data gaat
pas echt een verschil maken.”
Betrouwbaarheid versus flexibiliteit“Managers willen nog weleens roepen dat systemen betrouwbaar en flexibel moeten zijn, maar dit
zijn communicerende vaten. En heel betrouwbaar en robuust systeem is minder flexibel. En bij een
extreem flexibel systeem moeten de eisen ten aanzien van de betrouwbaarheid worden verlaagd”,
vertelt Damhof. “Het Datakwadrantenmodel maakt dit voor managers inzichtelijk. In kwadrant I gaat
betrouwbaarheid boven flexibiliteit en in kwadrant II en IV gaat flexibiliteit boven betrouwbaarheid.”
Er zijn dan ook nogal wat verschillende soorten expertise en competenties nodig om data optimaal te
kunnen uitnutten.
Expertise en competentiesJe ziet vaak dat organisaties van één persoon expertise en competenties vragen die het gehele kwa-
drant afdekken. Die mensen zijn er niet. Medewerkers in kwadrant I hebben een engineering profiel.
Het zijn informatie- en data engineers, opgeleid in data-architectuur en data modellering. “Let op, dit
is dus niet het klassieke IT-profiel. Dit zijn engineers die model-gedreven kunnen ontwikkelen en de
noodzaak van conceptueel en logisch modelleren goed begrijpen.” Deze expertise is zeer schaars. Daar
staan de kwadranten II en IV tegenover. “Daar zijn mensen nodig met een expertise in het betreffende
business domein aangevuld met Business Intelligence-competenties en/of analytische competenties.”
Feiten en waarheidDamhof noemt kwadrant I van het model ook wel ‘the single version of the facts’. Die feiten worden
vervolgens ter beschikking gesteld van medewerkers in kwadrant II en IV. Zij kunnen daarmee hun
“Nu organisaties steeds meer data genereren, kunnen ze hier niet langer slordig mee omgaan. Dit is dé tijd om datamanagement en de daarbij behorende governance goed op poten te zetten.
Het Datakwadrantenmodel helpt daarbij”Ronald Damhof
INTERVIEW
30
eigen waarheden maken. Omdat in deze rechterhelft van het model dezelfde feiten worden gebruikt
om meerdere waarheden te creëren – afhankelijk van de context en de achtergrond van de gebruiker
van de data – noemt Damhof deze helft wel ‘the multiple version of the truth’. Bedenk daarbij ook
dat de ‘truth’ over tijd nogal eens verandert. Damhof: “Je hoort bedrijven vaak praten over ‘the single
version of the truth’, maar die bestaat helemaal niet. Het hangt van de context, jouw zienswijze, ach-
tergrondkennis en ervaringen af hoe je bepaalde feiten interpreteert.”
Kwadrant IIIHet kwadrant dat weinig genoemd is, maar wel ongelooflijk belangrijk is, is kwadrant III. Het is het
kwadrant van databronnen die niet onder governance staan. Een ad-hoc download die je doet van
een Open Data Provider, een lijstje in Excel dat je wilt gebruiken, een set van contra-informatie die je
op een cd hebt ontvangen. Damhof: “Sterker nog, misschien wil je in dit kwadrant wel governed data
uit kwadrant I combineren met een eigen dataset in kwadrant IV, prima!”
De reis door de kwadrantenOm waarde uit data te halen kun je verschillende bewegingen maken in het model. Je kunt van een
op feiten gebaseerd datamanagement toegroeien naar een model waarin ook de context belangrijk
is (van kwadrant I naar II). “Eigenlijk is dit de klassieke reis van ‘ontsluit data en maak een informa-
tieproduct”, zegt Damhof. Dit werkt echter vaak slecht omdat dit traject uitgaat van bekende eisen
en wensen van de gebruiker. “En dat weet die gebruiker echt niet van tevoren.” Veel organisaties
kiezen voor een meer agile gedreven vorm. Van kwadrant I naar kwadrant IV naar kwadrant II. Laat
de medewerkers in kwadrant IV op iteratieve wijze met de data in kwadrant I/III komen tot een
informatieproduct. En alleen als het van belang is om dit onder beheer te brengen, dan promoveer je
het product naar kwadrant II.
“Binnen organisaties gaat het vaak over ‘the single version of the truth’, maar die bestaat helemaal niet. Er is een ‘single version of the
facts’ en er zijn meerdere ‘truths’”Ronald Damhof
31
Het is ook mogelijk om vanuit kwadrant III te bewegen naar IV. “Je hebt je eigen datasetjes en je wilt
wat proberen? Prima…”, zo zegt Damhof. De enige beweging die een organisatie nooit en te nimmer
mag maken is die van kwadrant III naar kwadrant II. “Want in dat geval gebruik je data waarvan je
niet helemaal zeker bent omdat er geen goede governance op wordt toegepast op een manier die
wel om die governance vraagt. Een voorbeeld is een compliance rapport voor de toezichthouder dat
je wilt maken met data waar geen governance op staat. Dat moet je niet willen.”
Maak datamanagement bespreekbaarDamhof merkt in zijn dagelijkse praktijk dat zijn datakwadrantenmodel organisaties helpt om te pra-
ten over datamanagement. “Bij mijn huidige klant, De Nederlandsche Bank, hoor ik tegenwoordig
regelmatig de kreten: ‘ik wil dit dataproduct graag van kwadrant IV naar kwadrant II brengen’, ‘we
moeten eerst de data in kwadrant I zetten’, ‘degene die de data aanlevert is toch echt verantwoorde-
lijk voor de data in kwadrant I’, ‘ik wil wat ruimte om data in kwadrant III tijdelijk op te slaan’. Ieder-
een weet dan wat dat betekent. Dat is nieuw, op die manier heeft de organisatie nog nooit over data
nagedacht. En dat geldt eigenlijk voor vrijwel ieder data-intensief bedrijf. Organisaties praten al heel
lang over ‘data als een asset’, maar in de praktijk gaan ze op een heel ongestructureerde manier met
data om, waardoor ze die asset nooit ten gelde maken. Nu organisaties steeds meer data genereren,
kunnen ze niet langer zo slordig ermee omgaan. Dit is dé tijd om datamanagement goed op poten te
zetten. Het datakwadrantenmodel helpt daarbij.” ■
How we produce, process variants
INTERVIEW
Systematic
Opportunistic
Development Style
DataPush/Pull Point Pull/Demand/Product drivenPush/Supply/Source driven
IVIII
III
“Shadow IT, Incubation, Ad-hoc,
Once off”
Facts Context
Research, Innovation & Design
32
CASE
De fusieplannen van Onze Lieve Vrouwe Gasthuis (OLVG) en Sint Lucas Andreas Ziekenhuis worden realiteit. Rob van Bruggen, hoofd bedrijfsinformatie bij OLVG, zet zijn tanden in het samenbrengen van de data van deze twee ziekenhuizen. Welke lessen heeft hij tot nu toe geleerd en wat is zijn advies aan anderen?
33
“GEEF IEDER DATABLOKJE EEN EENDUIDIGE NAAM WAAR IEDEREEN ZICH AAN HOUDT”
Het advies van Rob van Bruggen, hoofd bedrijfsinformatie bij OLVG:
CASE
34
De integratie van de data van twee ziekenhuizen is een grote uitdaging. Hoewel de ziekenhuisproces-
sen op hoofdlijnen vergelijkbaar zijn, zitten er behoorlijk wat verschillen in de details en de manier
waarop activiteiten worden geregistreerd. Dat was voor het OLVG en het Sint Lucas Andreas Ziekenhuis
niet anders.
De lessen van data-integratieData loopt door alle gelederen van de organisatie van een ziekenhuis. Deze data omzetten naar
overzichtelijke inzichten voor het management en de Raad van Bestuur van het ziekenhuis, zorgver-
zekeraars en inspecteurs van onder andere het NIAZ vraagt om een consistente basis. Van Bruggen is
projectleider van een groot project om de belangrijkste data van de beide ziekenhuizen bij elkaar te
brengen: financiële data, organisatorische data en medische data. Op basis van zijn praktijkervaringen
is zijn belangrijkste advies aan anderen die voor een data-integratieproject staan:
“Denk goed na over hoe je de analyselaag opbouwt – dat wil zeggen de feiten en de dimensies – en
zorg ervoor dat je ieder datablokje een eenduidige naam geeft waar iedereen zich aan houdt.”
Van Bruggen geeft een voorbeeld: “In één van de databronnen stond het veld ‘specialist’. Het andere
ziekenhuis gebruikte de term ‘zorgspecialist’. Je weet bij specialist niet wat daarmee wordt bedoeld:
is het een medisch specialist, of kan dit ook betrekking hebben op een senior verpleegkundige? Wat
is de rol van die specialist: is hij behandelaar en eindverantwoordelijk, is hij operateur maar is een
Rob van Bruggen
HOOFD
BEDRIJF SINFORMATIE
CASE
35
andere arts eindverantwoordelijk, of is hij doorverwijzer? In ons datamodel hebben wij nu gekozen
voor ‘zorgverlener’ als naam voor de kolom. In het onderliggende data-element wordt gespecificeerd
wat de rol van die zorgverlener bij deze patiënt is. Dergelijke informatie duidelijk en consistent vast-
leggen, is voor het ziekenhuis van belang maar ook de zorgverzekeraar.”
Automatische controles op kwaliteit van dataOmdat met de hoeveelheid tabellen en kolommen waar de beide ziekenhuizen mee werken data-
kwaliteit niet handmatig valt te controleren, vinden er drie geautomatiseerde controles plaats. Iedere
dag wordt automatisch de metadata uitgelezen en gecontroleerd. Een andere automatische controle
is die op de aantallen rijen in de bronsystemen en het datawarehouse. Zo wordt duidelijk of alle data
wel volledig in het datawarehouse zijn overgenomen. Tot slot vindt er een controle plaats op de
hoeveelheid wijzigingen in de historische data. Van Bruggen: “Wij houden ook de historie bij, zodat
we kunnen terugzoeken wie wat heeft vastgelegd. Stel nu dat er ineens een heleboel wijzigingen in
de datastructuur van die historie zijn, dan is de kans groot dat er een wijziging is aangebracht in de
datastructuur van het bronsysteem. Wij krijgen daar automatisch een seintje van, zodat we daar zicht
op houden.”
Voor self service moet de basis op orde zijnDe fusie en het daarop volgende data-integratieproject betekent dat de medewerkers van het Sint
Lucas Andreas Ziekenhuis dezelfde mogelijkheden krijgen op het gebied van data-analyse als de
medewerkers van het OLVG. Dit laatste ziekenhuis heeft al enkele jaren een self service portal, die
intensief wordt gebruikt door medisch specialisten, verpleegkundigen, afdelingshoofden en leden van
de Raad van Bestuur. Het BI-team gaat ook de medewerkers van het Lucas Andreas begeleiden in
deze nieuwe manier van werken.
Om ervoor te zorgen dat het team alle vragen aan kan, is het volgens Van Bruggen belangrijk dat de
basis op orde is. “We zien in het OLVG dat wij niet meer worden gevraagd om eenvoudige lijstjes te
maken, zoals het aantal patiënten met een bepaald BMI die een bepaalde poli hebben bezocht. Iede-
re gebruiker weet hoe hij zelf zo’n lijstje kan genereren. We worden alleen nog ingeschakeld voor
complexe vragen als trendanalyses of het maken van bepaalde voorspellingen. Het is nu de kunst
om de medewerkers van het Lucas Andreas ook zover te krijgen dat ze zelf aan de slag gaan met self
service BI. Dit vraagt om een basis die goed op orde is: de datastructuur, de naamgeving, betrouw-
baarheid, controleerbaarheid, et cetera. Hoe beter die basis staat, hoe makkelijker het voor gebruikers
is om zelf rapporten te genereren. Als medewerkers dat zelf doen, dan houden wij als BI-team de
handen vrij voor de complexe analyses.” ■
“Denk goed na over hoe je de analyselaag opbouwt – dat wil zeggen de feiten en de dimensies”
Rob van Bruggen
CASE
36
CASE
37
DSM is doordrongen van de waarde van een goede datakwaliteit. De mondiale onderneming die vanuit wetenschappelijke basis actief is op het gebied van gezondheid, voeding en materialen heeft al succesvol datakwaliteit doorgevoerd en bouwt daarop voort met SAS Master Data Management (MDM).
DSM KRIJGT GRIP OP MASTER DATA
DSM voert MDM in, voortbouwend op successen
met datakwaliteit
CASE
38
MDM is een methode om bedrijfskritische data centraal te beheren voor decentraal gebruik. Daarbij
worden fouten en discrepanties aangepakt in de zogeheten Master Data: entiteiten als klantnamen,
materiaalsoorten, toeleveranciers en andere datazaken die dwars door divisies en IT-systemen heen
worden gebruikt. Consistentie in die kritieke bedrijfsdata is nodig om efficiënt te kunnen opereren.
DSM krijgt met MDM grip op de ERP-systemen die het met grote overnames de afgelopen jaren in
huis heeft gehaald.
Van staatsmijnen naar chemie en het milieu“We hebben 25.000 werknemers, maar vijf jaar terug waren dat er een stuk minder”, zegt Bart Geurts,
manager Master Data Shared Services bij DSM. Geurts noemt de overname van Roche Vitamins in 2003
één van de grote aankopen die zorgden voor die groei.
Tegenwoordig is DSM de grootste vitaminemaker ter wereld en dat brengt andere datavereisten met
zich mee. “Het belang van goede datakwaliteit is heel groot, voor voedselveiligheid, gezondheid en
voor smaak. Voor bulkchemie producten is dit minder kritisch.”
Geurts verwijst daarmee naar de oorsprong van DSM, dat is voortgekomen uit de Nederlandse Staats-
mijnen. “Oude bedrijven weten dat ze, om te overleven, zichzelf moeten heruitvinden.” DSM heeft
zichzelf meerdere keren opnieuw uitgevonden: van mijnen naar petrochemie. En vervolgens de afge-
lopen jaren van fijne chemie naar life sciences en material sciences.
DSM in de huidige vorm richt zich op opkomende markten en op klimaat & energie. Geurts noemt als
voorbeeld lichtere materialen in auto’s als vervanging van staal, zodat ze zuiniger rijden. Daarnaast
ontwikkelt het concern ook producten die worden gefabriceerd op basis van enzymen in plaats van
olie. Kortom, andere activiteiten en andere markten, waardoor het bedrijf andere vereisten heeft ten
aanzien van bedrijfsdata.
Completer overzicht van de eigen organisatieDe vele overnames die voor deze transformatie zijn gepleegd, brachten naast nieuwe activiteiten en
mensen ook veel nieuwe IT-systemen met zich mee. Waaronder een groot aantal ERP-systemen, ver-
telt de manager. Bij het samenvoegen van die data kwam naar boven dat er ‘errors’ zitten in de vele
verschillende IT-systemen. Geen zware fouten, maar discrepanties die pas naar boven kwamen door
het gecombineerd gebruik van data en systemen.
Geurts noemt als voorbeeld de personeelsviering van het nieuwe bedrijfslogo. “Bij het versturen van
de uitnodiging voor dat bedrijfsbrede evenement waren we 800 man ‘vergeten’. De oorzaak was een
incompleet overzicht in de HR-omgeving. En zo waren er meer inconsistenties”, zegt Geurts. Bijvoor-
“Het belang van goede datakwaliteitis heel groot, voor gezondheid en voor veiligheid”
Bart Geurts
CASE
39
Bart Geurts
MANAGER
MASTER DATA SHARED
SERVICES DSM
CASE
40
beeld vervuiling in de gegevens van toeleveranciers. Dezelfde leverancier kan in verschillende landen
andere namen hanteren. In de diverse systemen van een multinational kan zo’n bedrijf dan te boek
staan als schijnbaar verschillende bedrijven.
MDM koppelen aan bedrijfsprocessenEerder heeft DSM al successen geboekt met het optimaliseren van datakwaliteit . Op basis van die
positieve ervaring en resultaten werd de opstap gemaakt naar een centrale MDM-aanpak. Geurts
geeft aan dat de bedrijfsdata wel goed genoeg is voor transacties die binnen een bepaalde silo
plaatsvinden, zoals een land of bedrijfsdivisie. “Maar zodra er cross-divisie wordt gewerkt, duiken er
soms problemen op.” ERP-leveranciers doen ook wel aan MDM, maar Geurts vertelt dat de focus daar-
bij teveel op de individuele silo’s ligt. Daarom koos DSM voor de MDM-oplossing van SAS.
Geurts benadrukt het belang van de koppeling tussen MDM en de business processen. Daarmee
wordt namelijk het nut voor de organisatie als geheel en voor de individuele divisies die elk in hun
silo opereren duidelijker. Belangrijke vraagstukken die spelen zijn: wie binnen de organisatie moet de
eigenaar zijn van het MDM-proces? Wie speelt welke rol? En welke KPI’s (key performance indicators)
worden gehanteerd? Een mogelijke bedrijfsbrede KPI voor MDM is het meten hoe lang het duurt voor-
dat één bestelling van een klant is verwerkt, uitgeleverd en gefactureerd.
‘Think big, act small’Het opzetten van het MDM-proces en het adresseren van de vraagstukken daarbij was volgens Geurts
het gemakkelijkste gedeelte. Hij omschrijft dat als: “bedacht op de sofa”. Toen kwam de fase van uit-
voering, waarbij er bewust is gekozen voor een relatief klein begin. “We hebben een pilot gedaan bij
de sourcing-afdeling: think big, act small.” Overigens is dat ‘klein’ geheel relatief. Het grote DSM telt
verspreid over de wereld zes sourcing front offices en twee back offices.
Bij deze kleine pilot werd als eerste de inconsistenties qua toeleveranciers aangepakt. De data over
vendors, waar ook doublures tussen zaten, is opgeschoond door onder meer het toepassen van ver-
schillende taalalgoritmen in het SAS MDM-product. “De complexiteit zit in de details”, weet de mana-
ger uit ervaring.
Welke data is kritiek voor je business?Naast het aanpakken van de vervuiling in de toeleveranciersdata werden ook stappen gezet op ande-
re Master Data onderdelen. Aan de betrokken kantoren is de vraag gesteld: welke data zijn kritiek
voor jouw business? “Want we konden niet alle data analyseren.” Dat zou namelijk een te grote ope-
ratie worden en een te zware belasting op die systemen vormen. Bovendien sloeg de vraag welke
data kritiek zijn een brug tussen het MDM-initiatief en de betrokken bedrijfsonderdelen. Zíj bepaalden
immers zelf de selectie van data die cruciaal zijn voor hun eigen processen. Zo’n selectie is vanwege
de reikwijdte van Master Data nodig. Master Data is bij DSM gedefinieerd als alles wat ten grondslag
ligt aan processen en transacties. Op het eerste oog kan elke fout dan inefficiëntie veroorzaken, maar
in hoeverre dit ook gebeurt ligt aan het soort data. “Als het telefoonnummer van een salespersoon bij
een toeleverancier incorrect is, dan kun je wellicht nog gewoon mailen”, legt Geurts uit. Zo’n uitwijk is
er niet wanneer bijvoorbeeld een bankrekeningnummer of een leveranciersadres niet klopt.
CASE
41
Fouten voorkomenOp basis van deze zelfbepaalde kritieke data door de betrokken units zijn vervolgens data rules
opgesteld. “Dat kostte ongeveer een half jaar, waarna de implementatie in zo’n drie weken werd
voltooid.” Een duidelijk zichtbaar voordeel dat DSM dankzij MDM heeft behaald, is het voorkomen
van fouten. Geurts noemt als voorbeeld een bestelling die wordt geboekt op naam van de verkeerde
afdeling.
Verder voert DSM een verbetering in voor de invoer van gegevens van toeleveranciers. Mensen
maken namelijk wel eens fouten in het opzoeken van een bestaande toeleverancier of het invoeren
van een nieuwe. Wanneer het opzoeken bijvoorbeeld niet succesvol is, wordt er een nieuwe entry
aangemaakt die in wezen een doublure is. Aan die invoer wordt nu een algoritme gekoppeld dat con-
troleert en dan de indiener vraagt: “Is dit wellicht de leverancier die je bedoelt?”. Naast deze interne
voordelen behaalt DSM ook externe voordelen. “Wat als er een fout zit in een product of materiaal?
Dan willen wij meteen weten in welke producten dat zit.” Snelheid is hierbij essentieel.
Keep on checkingBelangrijk is ook om data na de initiële implementatie van MDM te blijven controleren. “Keep on
checking! Anders heb je na twee of drie maanden weer problemen”, waarschuwt Geurts. MDM is
immers een continu proces, dat actief moet blijven om te voorkomen dat er opnieuw fouten ontstaan
die naderhand gefikst moeten worden. “Dat wil je niet, want dat verstoort je bedrijfsproces.” Het is
zaak om alle betrokkenen in de organisatie daarvan te doordringen. ■
CASE
42
INTERVIEW
WIE IS UW DATAHOEDER?
Data governance helpt met toekomstige informatie-ontginning
43
Een leek kan concluderen dat datakwaliteit en data governance op hetzelfde neerkomen. Dat is echter
niet het geval, hoewel er natuurlijk wel een sterke relatie is tussen de twee disciplines. “Datakwaliteit
is het uitvoeren van kwaliteitsregels. Data governance is breder”, begint technologieconsultant
Bas Dudink van SAS Nederland zijn uitleg. “Wie is er verantwoordelijk voor de kwaliteit van data?
Welke verantwoordelijkheden zijn er op dat vlak? Welke afspraken zijn hierover gemaakt?”
Waar komt uw data vandaan?Datakwaliteit gaat over bijvoorbeeld de juistheid van postadressen en personeelsbestanden. Om te
beklijven heeft een kwaliteitsslag op dat gebied afspraken nodig en toezicht op de naleving ervan.
Datakwaliteit is dan ook uit te voeren als een onderdeel van data governance, maar de twee zijn
niet onlosmakelijk met elkaar verbonden. Data governance kan namelijk vanuit diverse richtingen
komen. Het kan komen vanuit een bredere behoefte van de organisatie of vanuit opgelegde wet- en
regelgeving. Dudink noemt het Basel-akkoord en de daaruit voortgekomen regulering voor financiële
instanties. Banken krijgen daarmee de verplichting om te antwoorden op de vraag: Waar komt uw
data vandaan? In de praktijk gebeurt al hetzelfde voor fabrieken, die bepaalde standaarden hanteren
- of moeten hanteren - voor de materialen die zij gebruiken.
Data governance gaat verder dan de herkomst van gegevens. Het omvat ook metadata en standaar-
den voor de formaten waarin gegevens worden aangeleverd, verwerkt en eventueel weer doorge-
geven. Dat doorgeven geldt voor andere organisaties, zowel externe partners als interne afdelingen,
maar ook voor toekomstige afnemers. Bijvoorbeeld voor informatietoepassingen die nu wellicht nog
niet bekend of in zicht zijn. Daarmee overstijgt data governance afdelingen en bedrijfsprocessen. De
omgang met data is nu vaak nog ingeperkt in de silo van een bepaalde bedrijfsactiviteit of -divisie.
Het gebruik is dan ingericht op de huidige gang van zaken. “De primaire, dagelijkse processen lopen
meestal wel”, schetst Dudink de praktijksituatie. “Maar voor nieuwe activiteiten of voor overkoepe-
lende zaken als risicobeperking, zijn dan aanpassingen vereist.”
Meer management consultancy dan techHet hoeden van data komt grotendeels neer op non-ICT-zaken als bedrijfsprocessen, organisatieproce-
dures, werkafspraken en controle op de naleving ervan. Een securitycomponent hoort hier ook bij: wie
heeft toegang tot welke gegevens, hoe zijn die beveiligd? “Het is meer management consultancy:
procedures opstellen”, geeft de SAS-expert aan. De technologiecomponent bedraagt naar zijn schat-
ting een bescheiden 10 tot 20 procent van het totaal dat een data governance-project omvat.
Kernvraag is hoe een organisatie met zijn gegevens omgaat, bijvoorbeeld om risico’s af te dekken.
Dat is een zaak die niet voor een enkele activiteit of divisie moet gelden. Goed uitgevoerde data
INTERVIEW
De wereld van data gaat veel verder dan domweg verzamelen en te gelde maken. Dat laatste vereist namelijk datakwaliteit en vaak komt dan beheer om de hoek kijken. Geen traditioneel IT-beheer, maar ‘datahoeden’. Doet uw organisatie al aan data governance, en wie is dan uw datahoeder?
44
governance neemt ook de toekomst in ogenschouw, zodat eventuele toekomstige afnemers van
gegevens gemakkelijk en consistent bediend worden. Bijvoorbeeld voor nieuwe partnerships of voor
nieuwe activiteiten.
Een koppeling met datakwaliteit lijkt hierbij logisch en kan voor de langere termijn voordelen opleve-
ren. Het alleen verbeteren van datakwaliteit zonder daar governance bij te betrekken, kan namelijk
verzanden in een incidentele actie. Het wordt een operatie die óf telkens herhaald moet worden, óf
waarvan het effect op een gegeven moment kan wegzinken. Een datahoeder kan dit voorkomen.
Stukje afsnijden vanwege KPI’s Wanneer een werknemer, leidinggevende of afdeling wordt afgerekend op bepaalde targets dan zul-
len die natuurlijk de focus zijn van deze partij. Indien daar een verantwoordelijkheid bij zit voor een
activiteit waar niet op wordt afgerekend, dan zal die taak bij drukte of krapte logischerwijs het onder-
spit delven. Logisch, zakelijk, carrièregericht, maar lang niet altijd goed voor het bedrijf.
Zoals bijvoorbeeld het geval was bij een callcenter. Zij gebruikten de wachttijd van klanten als hun
belangrijkste KPI (Key Performance Indicator). Om op dat punt goed te blijven scoren, is tijdens een
erg drukke kerstperiode besloten om bepaalde invulvelden in het CRM-systeem ‘even’ leeg te laten.
Een bochtje afsnijden voor resultaat, of de hand lichten met bedrijfsprocessen?
Als er geen consequenties worden gekoppeld aan dit gedrag is de kans aanwezig dat de tijdelijke
aard van het weglaten van invulvelden vroeg of laat permanent wordt. Want het scheelt tijd en ver-
hoogt dus de performance voor de bewuste afdeling en de betrokken manager. En zelfs als dit som-
bere scenario geen werkelijkheid wordt, is de schade al aangericht. Want wie gaat er naderhand nog
die ontbrekende gegevens controleren, en eventueel alsnog invoeren? Er is dus een gat geslagen,
een leemte in de dataschatkist. Een datahoeder had de organisatie kunnen beschermen tegen dit
praktijkgedrag van het eigen callcenter.
Fouten niet langer benedenstrooms aanpakkenEen ander praktijkvoorbeeld is het facturerings- en betalingsproces van een instelling in de gezond-
heidszorg. De tijd tussen factureren en betalen was lang en werd zelfs langer. Uit onderzoek bleek de
eigenlijke oorzaak: de facturen bevatten foute verrichtingen. Vervolgens stelt de zorgverzekeraar die
fouten aan de kaak, waardoor de zorgorganisatie in een tijd-rovend proces terechtkomt. Het moet
telkens onderzoek doen naar de facturen waardoor de daadwerkelijke betaling substantieel wordt
vertraagd.
In plaats van het constant benedenstrooms corrigeren van de foute facturen koos de gezondheids-
zorginstelling ervoor om het probleem bovenstrooms aan te pakken. Reeds bij de invoer van de
verrichting bij de patiënt worden verschillende datakwaliteitsregels afgevuurd en krijgt de invoerder
directe feedback op zijn keuze, met de mogelijkheid om direct te corrigeren. De consequentie is
dat de betaaltermijnen van facturen meetbaar korter zijn geworden. Bijkomende voordelen waren
bovendien dat managementrapportages, analyses maar ook de relatie met de zorgverzekeraar zijn
verbeterd.
Het is eigenlijk een kinderlijk eenvoudig, universeel principe: datgene wat je bovenstrooms verbetert
verdien je benedenstrooms dubbel en dwars terug. Maar als dit dan zo logisch is, waarom zien we dit
principe dan zo weinig terug in het management van de data in organisaties? Waarom beginnen we
met het maken van complexe datawarehouses (zuiveringsinstallaties) in plaats van het zuiveren van
het water aan de bron?
INTERVIEW
Holistische aanpakData governance kan voorkomen dat er leegtes ontstaan in de dataschatkist en dat constant tijdro-
vend bijsturen vereist is. Hoe pak je dit aan? Het begin van data governance is volgens Dudink een
tapdans. Stap één is veelal datakwaliteit. Aangezien dáár het daadwerkelijke probleem zit. Het begint
echter met besef binnen een bedrijf voordat die eerste stap gezet kan worden. Dat besef kan er zijn,
en datakwaliteit kan dan verbeterd worden, alleen is er daarmee dan geen zicht op het bredere pers-
pectief. “Datakwaliteit wordt dan stapje voor stapje gedaan”, vertelt de SAS-consultant. Het advies is
om een holistische aanpak te hanteren voor data governance.
De tijdigheid van waarde Dat klinkt op zichzelf wellicht complex, maar bij data governance komt er méér om de hoek kijken.
Het heeft hordes die verder gaan dan simpelweg ICT en databeheer. “Ja, data governance is niet
makkelijk, zelfs complex”, noemt expert Dudink het. Het gaat om theorie versus praktijk. In theorie is
data belangrijk; zowel de kwaliteit ervan als het toezicht daarop. In de praktijk is dat belang niet altijd
overal even goed vastgelegd. Er is niet altijd geïdentificeerd wie de hoeder van welke data hoort
te zijn. Daarbij speelt niet alleen wie er verantwoordelijk is, maar ook of er wel waarde aan wordt
gehecht. Of eigenlijk: of er wel op tijd waarde aan wordt gehecht. “Stel dat je dak lekt, maar de zon
schijnt”, licht Dudink het aspect van tijdigheid toe. “Wanneer het begint te regenen, is het eigenlijk al
te laat.”
Data governance is niet eenvoudig. Het is een bedrijfsbrede operatie die ICT overstijgt en die zaken
raakt als business operations, bedrijfscultuur en HR. Maar uiteindelijk kan data governance in de data-
driven wereld van nu juist weer bedrijfsbreed voordeel geven. ■
45
INTERVIEW
“Datgene wat je bovenstrooms verbetert, verdien je benedenstrooms dubbel en dwars terug. Maar als dit zo logisch is, waarom beginnen we dan zo vaak met het maken van complexe datawarehouses in plaats van het
zuiveren aan de bron?” Bas Dudink
46
En ik zie dat anderen ook die neiging hebben. Het maakt niet uit of ik met klanten praat over analy-
tics, CRM, data of ‘the digital enterprise’, altijd stellen ze vroeg of laat de vraag: wie is de eigenaar,
business of IT?
Deze vraag over eigenaarschap van IT-gerelateerde projecten speelt in bedrijven wereldwijd. Het lijkt
erop alsof iedereen gefocust is op anderen: wie moet hier eigenaarschap over nemen? Wie kijgt de
credits hiervoor? Uit wiens budget komt het?
Door te kijken naar bedrijven die succesvol het gat dichten tussen business en IT, zag ik dat zij op drie fronten overeen kwamen:
» Deze bedrijven hadden leiders die begrepen dat het verantwoordelijk maken van bepaalde
mensen of het veranderen van organisatiestructuren niet voldoende is voor een digitale trans-
formatie. Het gaat erom dat je IT inzet om ook daadwerkelijk op een andere manier te gaan
werken, volgens nieuwe processen. Alleen dan verzeker je dat verandering ook wordt geadop-
teerd door de medewerkers.
THE NEW IT
Jill Dyché VICE PRESIDENT
SAS BEST PRACTICES
Iemand verdeelde de wereld ooit in twee typen mensen: degenen die anderen graag categoriseren in twee typen en degenen die dat niet doen. Ik was lange tijd een van die mensen uit de eerste categorie. Ik verdeelde managers onder in business gefocust of op technologie gefocust.
COLUMN
47
» Deze bedrijven hielden bij hun digitale transformatie rekening met de
cultuur. Van oudsher wordt er vaak ofwel top-down ofwel bottom-up
gewerkt. Ook zorgden ze ervoor dat nieuwe processen en een nieuwe
manier van werken weliswaar nieuw genoeg waren om uitdagend te zijn,
maar tegelijkertijd niet te ver af stonden van wat medewerkers gewend
waren. Anders zou deze verandering kunnen worden gesaboteerd of lam-
lendigheid kunnen veroorzaken.
» Leiders in deze bedrijven veranderden niet omdat zij daar persoonlijk nu zoveel voordeel bij
hadden. Ze veranderden omdat ze zagen dat trends zoals digitaal zakendoen een nieuwe bena-
dering noodzakelijk maken.
Gebruikmakende van de trend dat digitaal zakendoen en innovatie de primaire drijfveren zijn voor
make-or-break veranderingen, heb ik in mijn meest recente boek geschreven over praktijksituaties
waarin succesvolle leiders niet alleen IT hebben getransformeerd, maar ook technologie op volledig
nieuwe manieren hebben ingezet. In ‘The New IT: How business leaders are enabling strategy in the
digital age’ komen verandermanagers aan het woord die de loopgraven hebben verlaten en nu op de
bühne staan om hun verhaal te vertellen.
Wat ik van hen heb geleerd, heb ik allemaal beschreven in dit boek. In een notendop: » Als uw IT maar twee snelheden kent, dan bent u in grote problemen.
» De vraag ‘wat voor type CIO bent u?’ mist het punt. De echte vraag is: ‘wat voor type organisatie
leidt u? Hoe moet die eruit zien?’
» Samenwerken door iedereen in een kamer samen te brengen is niet meer goed genoeg. Ster-
ker, het kan gevaarlijk zijn.
» De bedrijfsstrategie en de IT-strategie kunnen op één pagina met elkaar in lijn worden gebracht.
» Hiërarchie wordt vervangen door een organisatievorm zonder management, maar wel met hele
duidelijke taken. En homogeniteit door diversiteit.
» Innovatie moet niet worden gedaan door een eliteteam dat in een ander gebouw zit en sushi
krijgt bij de lunch. Iedereen moet onderdeel uitmaken van innovatie!
» Er zijn meer mensen die praten over digitaal dan dat er mensen zijn die het daadwerkelijk doen.
» U hoeft niet in Silicon Valley gevestigd te zijn om deel uit te maken van de revolutie. Sterker,
misschien kunt u daar wel beter helemaal niet zitten.
In ‘The New IT’ laten managers van onder meer Medtronic, Union Bank, Men’s Warehouse, Swedish
Health, Principal Financial en Brooks Brothers zien dat het niet langer gaat om business versus IT. Nee,
het gaat over business mogelijk gemaakt door IT. ■
Het gaat niet langer om business versus IT. Het gaat over business mogelijk gemaakt door IT
COLUMN
48
CASE
Crédito y Caución is al sinds de oprichting van het bedrijf in 1929 marktleider in Spanje op het gebied
van kredietverzekeringen. Momenteel bedraagt het marktaandeel circa 60 procent. Het bedrijf draagt
bij aan economische groei door bedrijven te beschermen tegen het risico dat klanten die op krediet
aankopen doen hun facturen niet betalen. Sinds 2008 maakt ook de Atradius Group, actief in Spanje,
Portugal en Brazilië, onderdeel uit van het bedrijf.
Het risicoanalysesysteem van het bedrijf heeft al meer dan 100 miljoen records verwerkt. De systemen
monitoren meer dan 10.000 transacties per dag. Op basis hiervan wordt continu de solvabiliteit van het
door de klant verzekerde portfolio berekend. Deze solvabiliteit bepaalt de limiet die Crédito y Caución
afgeeft aan de klant. Het is dus van cruciaal belang om een goede inschatting te maken van het risico
dat klanten van klanten hun facturen niet betalen, en op basis hiervan weer een juiste berekening
te maken van de limiet die Crédito y Caución klanten oplegt. Om dit goed te kunnen doen heeft de
krediet verzekeraar uitgebreide informatie nodig over de klanten van klanten. Het spreekt voor zich dat
de kwaliteit van deze data bepalend is voor het juist inschatten van het risico op niet betalen.
Voor een kredietverzekeraar is het van levensbelang om een goede inschatting te maken van de kans dat facturen niet worden betaald. Maar hoe doe je dat als je weet dat de kwaliteit van je data matig is? Crédito y Caución heeft van datakwaliteit een speerpunt gemaakt. Een kijkje in hun keuken.
CRÉDITO Y CAUCIÓN VOEGT DATAKWALITEIT TOE AAN MANAGEMENTMODEL
Kredietverzekeraar integreert kwaliteitsratio’s in risicobepaling
49
CASE
50
Aanpassen aan nieuwe regelsZoals alle Europese verzekeringsmaatschappijen moet ook Crédito y Caución voldoen aan het op risi-
co’s gebaseerde toezichthoudende raamwerk voor de verzekeringsindustrie. Dit raamwerk bestaat uit
de Solvency II richtlijn en de daarbij horende Implementing Technical Standards and Guidelines. Naast
financiële eisen stelt Solvency II ook eisen aan de kwaliteit van data die door verzekeringsmaatschap-
pijen wordt gebruikt. Dit onderwerp is niet langer optioneel; datakwaliteit is essentieel om te voldoen
aan de eisen van de EU.
Crédito y Caución heeft Solvency II compliance aangepakt door een visie te ontwikkelen die veel
verder gaat dan wat de EU eist. “Informatie is onze belangrijkste asset”, zegt Miguel Angel Serantes,
IT development manager bij Crédito y Caución. “Wij zijn experts in het lokaliseren, opslaan en analy-
seren van data, alsook in het verkrijgen van business intelligence uit deze informatie. De uitdaging
waar Solvency II ons voor stelde, hebben wij aangegrepen als moment om een kans te creëren voor
het incorporeren van kwaliteitsratio’s in ons informatiemanagement en in onze processen en proce-
dures. Wij komen niet simpelweg tegemoet aan de eisen die de wet stelt, maar we zijn gedreven om
overal in onze data management-processen alles te doen wat nodig is om een hoge datakwaliteit te
garanderen.”
De eerste stap: datakwaliteit vaststellenDe eerste stap bestond uit het uitvoeren van een assessment om de datakwaliteit vast te stellen. “We
gebruikten daarvoor de assessment-optie in de oplossing van SAS”, vertelt Serantes. “De resultaten
vertelden ons dat we nog een weg te gaan hadden. Dat is ook niet zo vreemd omdat veel data die
wij gebruiken – denk aan bedrijfsnamen, telefoonnummers en belastingcodes – worden aangeleverd
door derden. Er zit nogal wat variëteit in de kwaliteit van de door hen aangeleverde data. We beslo-
ten daarom om een data management kwaliteitsmodel te implementeren en kozen als IT-oplossing
voor SAS. Die software integreerden we in ons eigen managementsysteem.”
Serantes en zijn team ontwikkelden de fundering voor een datamanagement beleid door vast te stel-
len aan welke criteria data moet voldoen voordat deze mag worden opgenomen in de systemen. Die
criteria waren dat data accuraat en compleet moet zijn en passend bij het doel dat Crédito y Caución
ermee heeft. Het team stelde verschillende niveaus vast van eigenaarschap van data, zodat duidelijk
werd wie verantwoordelijk was voor de inhoud, de definitie, het gebruik en de administratie van
data. Voor iedere categorie van data werden compliancyratio’s vastgesteld zodat het mogelijk werd
om via een systeem van indicatoren voor ieder stukje data het kwaliteitsniveau te bepalen.
Een evoluerend procesCrédito y Caución koos om verschillende redenen voor SAS, vertelt Serantes. “SAS levert al jaren
lang informatie management software aan ons bedrijf. De relatie is altijd zeer soepel geweest. Er
werkt zelfs een SAS-team bij ons in huis. Die mensen werken nauw samen met onze IT-afdeling. Dit
heeft enorm bijgedragen aan de efficiënte integratie van SAS Data Management in onze informatie
management systemen. Het is een oplossing die past bij onze behoeften. De software maakt het
mogelijk om criteria op te stellen en attributen te definiëren om de kwaliteit van data te bepalen.
De oplossing heeft bovendien opties om eenvoudig een assessment te doen, problemen te ontdek-
ken die zich voordoen met datakwaliteit en onvolkomenheden te corrigeren. De software maakt
het mogelijk om een langetermijnstrategie te implementeren en onze datakwaliteit permanent te
monitoren.”
CASE
51
Het uitrollen van het datakwaliteitscontrolesysteem duurde ongeveer een jaar, hoewel het volgens
Serantes een proces is dat nooit eindigt. Bij Crédito y Caución ontwikkelt het zich ook nog steeds.
De voordelen van het datakwaliteitscontrolesysteem en de technische oplossing die is geïmplemen-
teerd zijn duidelijk. “Om te beginnen hebben we een data policy die heel duidelijk is en die iedereen
in het bedrijf kent”, zegt Serantes. “We weten wat we met welke data doen en wie verantwoordelijk
is voor ieder gebied van data. We kennen de zwakheden in de data en we weten hoe we data moe-
ten corrigeren. SAS geeft ons bovendien inzichten in de oorzaak van inaccurate data. We verwachten
dat we in de toekomst nog meer voordelen gaan behalen, zoals bijvoorbeeld de definitie van kwali-
teitsdoelen voor iedere stukje data. Dit stelt ons in staat om te focussen op die controles die relevant
zijn voor onze business.”
Het doel van Crédito y Caución is om 100 procent kwaliteit te behalen in het managen van data die
door het bedrijf zelf worden gegenereerd, want bij die data kan het bedrijf ook rigoureuze controle-
maatregelen nemen. Over data die wordt aangekocht bij externe bronnen heeft Crédito y Caución
geen directe controle. Het doel is daar om standaardisatiecriteria op te stellen om zo te zorgen voor
de maximaal haalbare kwaliteit. ■
CASE
Miguel Angel Serantes
IT DEVELOPMENT
MANAGER BIJ
CRÉDITO Y CAUCIÓN
“Informatie is onze
belangrijkste asset”
Miguel Angel Serantes
52
Tijd is geld, en tegenwoordig is data ook geld. Gegevens zijn hun ‘gewicht’ in goud waard. Het lijkt aannemelijk dat de kwaliteit van data geen issue (meer) moet zijn. Dat spreekt toch voor zich? “Ja, dat zou je wel denken”, zegt technologieconsultant Bas Dudink van SAS Nederland. “Maar de datakwaliteit is per definitie slecht.”
INTERVIEW
Data-expert Dudink weet de vinger op de zere plek te leggen van de vaak lage kwaliteit van data die
bedrijven vergaren en benutten. “Datakwaliteit is slecht omdat iedereen dezelfde data gebruikt”, zegt
hij. Dat klinkt wellicht tegenstrijdig maar is het niet. Enerzijds komt het erop neer dat data van lage
kwaliteit gebruikt en hergebruikt wordt. Dus compleet met fouten, onvolledigheden, en gebrek aan
context. Over dat laatste zegt Dudink beslist: “Data zonder betekenis heeft geen nut.”
Anderzijds houdt het gebruik van dezelfde data door iedereen in dat voor verschillende gebruiksvor-
men en bedrijfsdoeleinden wordt geput uit dezelfde databron. Dat klinkt weliswaar als een zinnige
aanpak, ook vanuit beheeroogpunt en gegevensinvoer. Maar verschillende toepassingen vereisen
verschillende kwaliteitsniveaus van verschillende datavelden. Voor bijvoorbeeld toezending van pro-
ducten aan een afnemer doen diens adresgegevens er zeker toe, maar het bankrekeningnummer
niet. Voor facturering is dat juist andersom. En dit is nog een simplistisch voorbeeld, met datavelden
die vrij opvallend zijn en in de praktijk wel aandacht krijgen. Of zouden moeten krijgen.
KWALITEITSLAG CRUCIAAL OM GOUD TE DELVEN UIT DATA
53
INTERVIEW
54
Lastiger wordt het bij kleinere dingen die toch grote gevolgen kunnen hebben. Denk aan leveringen
tussen bedrijven met verschillende divisies, waarbij het ene bedrijfsonderdeel zaken doet met het
andere. Subtiele verkoop- en/of inkoopverschillen kunnen grote variaties ten gevolge hebben. Geeft
de ene divisie of de ene landsvestiging een bepaalde korting, of hanteert het andere leverings- of
betalingstermijnen? De data van prijzen, voorwaarden en termijnen kan uiteenlopen en daarmee een
lage kwaliteit vertegenwoordigen.
Het gevaar van onwetendheidDudink voorziet zijn boute bewering dat datakwaliteit per definitie slecht is dan ook van een nuan-
cering: “Het zit in de ‘eye of the beholder’. Wat voor de één goed genoeg is, hoeft dat helemaal niet
te zijn voor de ander. Het gaat om besef.” Het ergste is namelijk niet eens zozeer dat gegevens niet
allemaal in orde zijn. Nee, het ergste is de onwetendheid daarover. “Ignorance is bliss”, haalt Dudink
een bekende wijsheid aan. Denken dat data correct en volledig zijn, om dan op basis daarvan te han-
delen en beslissingen te nemen, dát is het grote gevaar.
Bijkomend probleem is de misplaatste notie die veel ondernemingen hebben dat ze geen databedrijf
zijn. Terwijl eigenlijk elk bedrijf dat wel is, zeker nu! Dit geldt ook voor bijvoorbeeld een productiebe-
drijf. Het hele fabricageproces en het ontwerp van een productielijn is namelijk gebaseerd op data. Na
ontwerp volgt in de praktijk vaak aanpassing: optimalisaties door ervaring opgedaan. Repeatability en
verbetering, vat Dudink samen, dat zijn de kernhandelingen die drijven op goede data.
Goede data leidt tot goede bedrijfsprocessen. Pas als de data op orde zijn, valt er op businessniveau
te automatiseren. Een organisatie moet daarvoor dus wel besef hebben van de eigen datakwaliteit.
“Ze moeten weten dat ze iets niet weten.” IT-leveranciers die data-oplossingen bieden, zitten dan
ook meer in de consultingsferen dan in puur en alleen de softwarewereld. “Wij leveren niet alleen
software, maar bieden ook advies.”
Verder gaan dan fouten wegpoetsenDataverbetering staat dus los van tools en systemen. Het is vooral een kwestie van analyse: hoe komt
welke data binnen bij een bedrijf, op welke manier en door wie aangeleverd? Dat zijn nogal funda-
mentele vragen, die kunnen tornen aan gevestigde processen en procedures. Of zelfs aan partners,
want wie durft er ronduit te zeggen dat een toeleverancier of afnemer slechte data heeft doorgege-
ven? Toch is dat nogal eens het geval.
“Als data niet klopt, moet je dat niet slechts aanpassen. Je moet het proces uitpluizen: waar komt de
foute data vandáán?” Maar al te vaak wordt datakwaliteit gezien als een manier om fouten weg te
poetsen. Daar speelt soms ook ego mee: de behoefte om een organisatie neer te zetten als geoliede
machine. “De schijn ophouden”, noemt Dudink dat. Een goede aanpak van datakwaliteit gaat veel
verder, veel dieper.
In de praktijk geniet datakwaliteit geen grote populariteit. Als het gaat om lichtende voorbeelden,
organisaties die vooroplopen met het verbeteren van hun datakwaliteit, dan wijst Dudink naar diege-
nen die daartoe zijn gedwongen door regelgeving. “Als aandacht voor datakwaliteit niet hoeft, dan
INTERVIEW
55
doen de meesten het liever niet.” Regels en wetten die betere data afdwingen, doen dat om een
concrete reden: risicobeheersing. Het wekt dan ook geen verbazing dat financiële instellingen zoals
banken en verzekeraars tot de voorhoede horen.
Zonder de stok van regelgeving heeft een organisatie een ‘champion’ voor datakwaliteit nodig.
“Iemand die verspilling ziet, die de meerwaarde beseft van het aanpakken daarvan.” Het lastige is
dat zo iemand een breed overzicht nodig heeft over de organisatie, plus inzicht en macht om veran-
dering door te voeren. “Liefst een CIO”, vat Dudink bondig samen.
Basistip: begin kleinOndanks die noodzaak voor een hooggeplaatste aanvoerder voor - of trekker van - datakwaliteit is
het aan te raden om met een klein project te beginnen. Waarbij klein afhankelijk is van de omvang
de organisatie, en dus een relatief begrip is. Dudink adviseert om een begin te maken met bewust
zo’n klein project als kiem. Een kweekvijver annex leerschool. Waarbij dan de projectinitiërende
hogere manager top-down visie heeft om dat te combineren met een bottom-up aanpak. Juist die
combinatie is nodig om de gewenste kwaliteitsverhoging voor bedrijfsdata te krijgen. ■
“Wat voor de één goed genoeg is, hoeft dat helemaal niet te zijn voor de ander. Datakwaliteit is slecht omdat iedereen dezelfde data gebruikt”
Bas Dudink
INTERVIEW
56
CASE
DE BETROUWBAARHEIDEN KWALITEIT VANDATA VERBETEREN
Retailer Feu Vert zet Data Management in om waarde te
halen uit klantdata
57
CASE
58
Van banden en velgen tot aanhangwagens en dakkoffers, Feu Vert verkoopt het al meer dan 40 jaar.
Het bedrijf is dé benchmark voor de sector. Om dat ook te blijven, implementeerde de organisatie
een veelomvattend vijfjarenplan dat moet leiden tot groei. Onderdeel daarvan is een plan dat zich
focust op marketingdata. “We hebben gekozen voor Master Data Management om enerzijds onze
groeistrategie te ondersteunen en anderzijds het beheer van marketingdata weer terug in huis te
halen”, zegt Marie-Pierre Dussolliet-Berthod, CRM-manager bij Feu Vert. “Zo kunnen we onze groei
versnellen, gebaseerd op meer kennis van onze klanten, waardoor we onze aanbiedingen meer op
maat kunnen maken.”
Eén centrale klantdatabaseFeu Vert en SAS hebben er zes maanden over gedaan om één centrale klantdatabase te maken,
gebruikmakende van het Data Management-platform en Master Data Management. Dit project
maakte het ook mogelijk om een data governance programma te starten en klantdata te verbeteren,
waardoor klanten beter worden gekwalificeerd. Dit heeft geleid tot lagere kosten per klantcontact.
De nieuwe klantendatabase is de hoeksteen in Feu Verts marketing informatie systeem. Hier komen
alle operationele applicaties samen die met klantdata werken, zoals het ERP-systeem, loyaliteits-
programma’s, e-commerce en klantenservice. De Master Data Management-oplossing stelt Feu Vert
in staat om de kwaliteit van klantdata te consolideren en waar mogelijk te verbeteren. Bovendien
worden aan de meer statische CRM-data nu klantdata toegevoegd uit operationele systemen. Die
“Door alle kennis over klanten samen te brengen kunnen we gerichter met ze communiceren”
Marie-Pierre Dussolliet-Berthod
Feu Vert is een van de grootste leveranciers van auto-accessoires en -onderdelen in Europa, met 400 vestigingen op het hele continent waarvan 300 in Frankrijk. Om de betrouwbaarheid en kwaliteit van data over circa 10 miljoen klanten te verhogen, zet de organisatie Master Data Management in.
CASE
59
bronnen samen leveren input aan het marketing decision making system. Feu Verts data gover-
nance-strategie helpt het bedrijf bovendien om diepgaande analyses te maken van alle data in de
marketing database, zodat marketingcampagnes nog beter aansluiten bij behoeften in de markt.
Gepersonaliseerde marketing“Om effectieve en winstgevende marketing en communicatie mogelijk te maken, moeten bedrijven
wel kiezen voor een gerichte en gepersonaliseerde benadering van klanten”, zegt Serge Boulet, Mar-
keting Directeur bij SAS Frankrijk. “Wij helpen organisaties om een master data hub te ontwikkelen.
Daarin komt alle klantdata samen, zodat je inzicht krijgt in de wensen en behoeften van individuele
klanten en het mogelijk wordt om relevant met ze te communiceren. Op die manier verhogen we de
klanttrouw en de winstgevendheid.” ■
CASE
60
INTERVIEW
REAL-TIME GEFUNDEERDE BESLISSINGEN MAKEN HET VERSCHIL
Datastromen analyseren en daar operationele besluiten op baseren
Snel, sneller, snelst. Dat is het credo van de moderne tijd. Dankzij IT kan en gaat alles veel sneller. Maar nu dreigt de data-explosie bijna teveel te worden. Goede analyse vergt immers tijd. Dat kan echter sneller. Event Stream Processing (ESP) en Decision Management geven een extra versnelling.
61
INTERVIEW
We genereren steeds meer data, slaan steeds meer data op, koppelen steeds meer gegevens en
willen steeds complexere analyses uitvoeren. “In bepaalde omgevingen krijg je zóveel gegevens dat
het niet meer uitvoerbaar lijkt”, zegt Andrew Pease, principal business solutions manager, Analytical
Platform bij SAS. “Alles opslaan kan dan toch te duur zijn, ondanks de alsmaar dalende kosten van
opslag.” Bovendien gaat het om meer dan alleen de opslagkosten. De analysekosten spelen ook mee,
vooral als die analyse achteraf plaatsvindt. Soms is er dan sprake van mosterd na de maaltijd; van
een analyse die te laat komt om er nog baat bij te hebben.
De oplossing is om real-time de data te filteren met Event Stream Processing (ESP) en er vervolgens
een geautomatiseerd beslissingsproces op toe te passen met Decision Management-functionaliteit.
Het automatiseren gebeurt op basis van de bedrijfsprocessen, waarbij er een ingebouwde koppeling
is met de tactische en strategische beslissingsniveaus. Een beslissing op de werkvloer of dicht bij de
klant is dan automatisch te nemen en strookt met de ‘hogere’ doelen van de organisatie.
Trends en afwijkingen op boorplatformen Pease noemt als voorbeeld van ESP de data-input van sensoren op boorplatformen. Trillingen kunnen
daar worden opgevangen om in die data afwijkingen te detecteren. Afwijkingen kunnen aangeven
dat er iets misgaat, dus is het zaak de analyse binnen een relatief kort tijdsbestek te doen. Belangrijk
daarbij is focus en scope. “Je moet vooraf wel bepalen wat je wilt weten.” De SAS-expert legt uit dat
het heus niet nodig is om trillingen elke seconde of elke minuut te analyseren. Een vast tijdsbestek
per uur kan afdoende zijn. Het gaat erom de trends en afwijkingen eruit te vissen. Op basis daarvan
kun je ook prognoses stellen. ESP kan dus voorspellende informatie geven.
Belbundels en extra zendmasten Een ander voorbeeld is de dagelijkse datapraktijk van telecom operators. “Telecombedrijven zijn
enorme stockpiles van data”, aldus Pease. Elke keer dat er een telefoongesprek plaatsvindt, zijn daar
zo’n 20 tot 30 call-detailrecords bij betrokken. “Maar die zijn niet allemaal belangrijk.” Uit het analy-
seren van de juiste databrokjes valt wel veel belangrijke informatie te halen.
Voor de hand liggend is om het belgedrag van de klant te analyseren om die een betere bundel te
kunnen aanbieden. Het belgedrag hoeft daarvoor niet zeer nauwgezet te worden bijgehouden; de
61
De toegevoegde waarde van Event Stream Processing is de mogelijkheid om in real- time grote hoeveelheden bijvoorbeeld transactie- of sensordata te monitoren en te analyseren, waardoor er onmiddellijk op bepaalde situaties kan worden gereageerd of worden ingegrepen.
Event Stream Processing
62
grote lijn is vaak voldoende. “Als de klant op langere termijn teveel betaalt, wordt het risico dat hij
weggaat groter.” Ook kan naar aanleiding van verbroken verbindingen worden besloten extra zend-
masten te plaatsen. Een telecomaanbieder kan dankzij analyse van verbroken verbindingen precies
bepalen waar de gebreken in de dekking of capaciteit zitten. Zodat een extra zendmast geplaatst kan
worden op exact díe plek waar er teveel dropped calls zijn.
Beursfraude du moment opvangen De financiële wereld zit al een versnelling hoger dan de meeste andere sectoren. Zo gaat de aande-
lenhandel geautomatiseerd en supersnel. ESP kan daar helpen fraude vroegtijdig te detecteren, geeft
Pease aan. De huidige razendsnelle handel verloopt te snel voor volledige opslag, laat staan voor
tijdige analyse van die datastromen.
“Het is dus zaak alleen de uitschieters op te slaan, de verdachte transacties.” Pease verwijst naar het
vorig jaar verschenen boek Flash Boys, over de zogeheten flash traders (of: high-frequency traders).
Auteur Michael Lewis beschrijft daarin een wel heel erg somber beeld van de handelswereld, waarin
de snelheid van data cruciaal is. Hoe sneller de data, hoe beter de prijs van een koop of verkoop. Ter-
wijl er ook kritiek op dit non-fictie boek is, zitten er vele interessante lessen en waarheden in.
Pease vertelt over de sluwe truc van een Canadese trader die zijn handel in aandelen opdeelde in
diverse stukken. Hij selecteerde daarbij een tweede server die net twee kilometer dichterbij de beurs
lag en zorgde voor een exact getimede vertraging zodat zijn diverse orders op hetzelfde moment
aankwamen bij de diverse clearing houses. Zo wist hij bulkhandel te bedrijven zonder dat zijn verkoop
voor een lagere koers en daardoor lagere opbrengst zorgde. Sluw en nauwelijks detecteerbaar.
Snelle stromen bijbenen “Tegenwoordig gaan bepaalde datastromen zó snel dat het teveel data is om volledig te analyseren”,
zegt Pease. De verwerking kost immers ook tijd. Net zoals de dalende opslagprijzen niet geheel com-
penseren voor de data-explosie, zo houdt de vooruitgang in rekenkracht niet altijd gelijke pas met de
analysemogelijkheden. De sluwe truc voor aandelenhandel via servertiming is dus nauwelijk detec-
teerbaar, tenzij ESP wordt ingezet. Dan zijn de snelle datastromen enigszins behapbaar.
De behoefte aan snelle of tijdige analyse neemt alleen maar toe. Dankzij de komst van steeds meer
nieuwe toepassingen, steeds meer sensoren die data vergaren en steeds meer businessmodellen
INTERVIEW
Het doel van Decision Management is om organisaties te verbeteren door ze in staat te stellen om sneller slimmere (operationele) beslissingen te nemen. Dit kan door gebruik te maken van alle beschikbare informatie in combinatie met het (geautomatiseerd) toe-passen van analytische modellen en afgeleide business rules. Dit moet worden afgewo-gen tegen de beschikbare tijd en de eventuele risico’s.
Decision Management
63
die vertrouwen op analyse. Voorheen was gedegen analyse het belangrijkste. Nu heeft snelheid een
minstens zo’n groot belang. Deze ontwikkelingen spelen vooral in de financiële sector, in de telecom-
wereld en in de manufacturing, weet de SAS-expert.
Bierbrouwen en de juiste kaas bij de wijn Fabricagebedrijven plaatsen steeds vaker sensoren in hun productie-omgevingen. Dit vindt plaats bij
bijvoorbeeld fabricage van technologisch complexe en hoogwaardige producten. Maar de toepas-
sing is veel breder. Het wordt bijvoorbeeld ook toegepast bij bierproductie: brouwers meten of er
natte hop is binnengekomen. Op basis van die waarneming wordt de verwerking van de grondstof
getimed. Daarnaast valt het onderhoud van de brouwketels beter in te plannen.
ESP wordt naast manufacturing ook voor andere sectoren ingezet, zoals in de retail. Hetzelfde geldt
voor Decision Management. Pease noemt de interessante mogelijkheden van scannergebruik door
supermarktklanten. Heeft iemand aan het begin van de winkel een wijntje in de boodschappenwagen
gelegd? Dan moet die klant nu een aanbod krijgen voor een bijpassende kaas. Dat passende aanbod
kan eventueel gedaan worden door een prijsaanbieding te doen. Het achterliggende IT-systeem weet
dat er momenteel een overschot is aan kaas die bijna de uiterste verkoopdatum heeft bereikt. Ver-
koop tegen een lagere prijs kan dus gunstig zijn. De winkel moet hiervoor wel een goede inventaris
hebben van de voorraad, inclusief de houdbaarheid daarvan. Het gaat hier niet zozeer om terabytes
maar vooral om snelheid: voordat de klant bij de kassa is. “Het gaat om de juiste aanbieding op het
juiste moment.”
Telkens toetsen aan de bedrijfsstrategie De juistheid van het aanbod moet ook overeenkomen met de centrale bedrijfsstrategie. De kern van
Decision Management is het centraliseren en standaardiseren van de strategie, zodat elke beslissing
in overeenstemming is met de bedrijfsstrategie. Is een aanbieding van de marketingafdeling wel in
lijn met de risk-afdeling? In het geval van een klant die veel aankopen doet, mag de aanbieding wel
wat scherper zijn, mede met het oog op de waarde die zo’n klant heeft voor de langere termijn. Om
dit adequaat te managen moet een organisatie dus wel zijn business rules goed definiëren. “Je moet
ze op één punt invoeren en wijzigen.” Vervolgens is het zaak die regels consistent toe te passen in
alle systemen en activiteiten van een organisatie. Alleen zo kun je de diverse silo’s van een organisa-
tie overstijgen om effectief aan Decision Management te kunnen doen. ■
“Voorheen was gedegen analyse het belangrijkst. Nu heeft snelheid een minstens zo’n groot belang”
Andrew Pease
INTERVIEW
64
CASE
Informatievoorziening en gegevensmanagement zijn in relatief korte tijd belangrijk geworden voor ziekenhuizen. Financiële verantwoording, verantwoording over de geleverde zorg en de kwaliteit hiervan richting patiënt, verzekeraar en instanties, het delen van medische informatie met andere schakels in de zorgketen, en in de nabije toekomst patiënten die hun eigen data verzamelen met e-health apparatuur en verwachten dat ze die bij hun dokter kunnen aanleveren. Het zijn ontwikkelingen die vragen om een stevig fundament onder allerlei vormen van data management. Voor business intelligence en analytics legt Gelre Ziekenhuizen dat verband in samenwerking met SAS.
65
CASE
Gelre ziekenhuizen is een topklinisch ziekenhuis met vestigingen in Apeldoorn en Zutphen. Het zie-
kenhuis is op diverse deelgebieden al jaren bezig met Business Intelligence (BI). Natuurlijk op finan-
cieel administratief gebied, maar er lopen ook innovatieve projecten op het terrein van onder andere
patiëntenlogistiek en het optimaliseren van de OK-planning. Aan BI-manager Martin Genuit de taak
om al die initiatieven bij elkaar te brengen. En daarvoor zet hij eerst een stap terug. “We zien dat
gegevensmanagement een heel belangrijk instrument wordt om een grote bijdrage te leveren aan
het verbeteren van de zorgprocessen, de kwaliteit hiervan en om de kosten van zorg te verlagen. Dat
bereik je alleen als je data met elkaar in verband kunt brengen. Als je bijvoorbeeld kunt traceren wat
een betere OK-planning doet met je financiële resultaat, doorlooptijden en kwaliteit van zorg. Daarom
is een eerste belangrijke stap om invulling te geven aan gegevensmanagement. Dat wil zeggen:
aan het geheel van activiteiten dat nodig is om onze organisatie op het juiste moment over de juiste
gegevens te laten beschikken.”
Direct terugkoppelingOm business intelligence en analytics een centralere rol in de organisatie te geven, valt de afdeling BI
niet langer onder de financiële afdeling, maar rechtstreeks onder de Raad van Bestuur. Er zijn nauwe
samenwerkingsrelaties met ICT en AO/IC (administratieve organisatie/interne controle).
Medewerkers registreren natuurlijk al jaren, maar vaak zonder dat ze zicht hadden op de kwaliteit van
de door hen ingevoerde data. Ze hadden evenmin zicht op wat er daarna met die informatie gebeur-
de. Daarom implementeert Gelre ziekenhuizen momenteel SAS Heartbeat. “Wat we daarmee willen
bereiken is dat we een vinger aan de pols houden bij de registratie en het gebruik van data. We
willen medewerkers via op hen toegespitste rapportages laten zien wat ze registreren, zodat ze ook
zien wat de gevolgen zijn van een verkeerde registratie of een registratie die te laat gebeurt. Vroeger
kregen ze vaak pas weken later een seintje dat een registratie waarschijnlijk foutief was. Dan konden
ze niet meer terughalen wat er wel had moeten staan. Het doel van de implementatie van SAS Heart-
65
Gegevensmanagement cruciaal in verbeteren zorgkwaliteit en verlagen kosten
GELRE ZIEKENHUIZEN LEGT STEVIG FUNDAMENT ONDER INFORMATIEVOORZIENING
66
beat is dat er direct controle plaatsvindt op een registratie, zodat medewerkers direct terugkoppeling
krijgen op basis van triggers.” Een trigger kan een vermoedelijk onjuiste registratie zijn, maar ook een
vergeten stap in een zorgpad of een plotselinge verslechtering van een KPI.
De meerwaarde hiervan is het grootst als registreren onderdeel is van het bedrijfsproces. “Dat kunnen
we nog veel verder verbeteren door bijvoorbeeld te gaan werken met mobiele apps voor verpleeg-
kundigen, zodat zij aan het bed bij de patiënt informatie kunnen invoeren”, weet Genuit. “Voor dit
soort toepassingen moet je je gegevensmanagement op orde hebben. Dat is het fundament en dat is
wat we nu aan het leggen zijn.”
Vertaling van logische naar fysieke dataGenuit wijst erop dat gegevensmanagement een breed begrip is waar veel onder valt: welke gege-
vensverzamelingen hebben we? Wie is de eigenaar van die gegevens? Wie houdt de gegevens bij?
Waar staat de data en in welke vorm? Waar worden de data voor gebruikt? Wat zijn de voorwaarden
voor gebruik? Wat is de kwaliteit van de data? En hoe wordt die bewaakt? Hoe is de structuur van
data? En welke relaties liggen er tussen gegevens?
Het levert voor een ziekenhuis een complex landschap op, waarbij duidelijk wordt dat degene die de
data registreert vaak niet degene is die de data daarna ook het meest intensief gebruikt. Bovendien
zit er een verschil tussen de logische data (de betekenis ervan) en de fysieke (de vorm waarin het
“Met SAS Heartbeat krijgen we meer controle op de registraties. We kunnen signaleren als iets afwijkt van wat we verwachten, zodat we foute registraties sneller kunnen opsporen en verbeteren”
Martin Genuit
CASE
67
moet worden vastgelegd). De BI-afdeling loopt door haar taken dagelijks tegen deze complexiteit
aan. Hij ziet het als een verantwoordelijkheid van alle informatie georiënteerde afdelingen binnen
het ziekenhuis om daar gezamenlijk wat aan te doen. Hij geeft weer een voorbeeld: “Artsen moeten
DBC-codes registreren. De gebruikte coderingstelsels zijn niet aan bij hun taal. Daardoor ervaren zij
registreren als een last. Er zijn diverse ook landelijke initiatieven om te zorgen voor een vertaalslag,
zodat de arts kan registreren in zijn jargon, terwijl die registratie toch in DBC-taal in het systeem
terecht komt.”
Zo ver is het nog niet. “Dit vergt dat we niet alleen inzicht hebben in ons gegevenslandschap, maar
dat we ook onze gegevenscatalogus op orde hebben. We hebben een gegevenswoordenboek nodig
dat we kunnen gebruiken bij de vertaling. Dat woordenboek moet uiteraard ook aansluiten op lande-
lijke gegevenscatalogi.”
Controle op registratiesDit zal nog behoorlijk wat inspanning vergen. Daarom begint Gelre ziekenhuizen bij het begin: het
verhogen van de datakwaliteit. Dat wil zeggen het verzamelen, controleren en verrijken van data uit
bronregistraties en externe bronnen. Hierin speelt SAS Heartbeat een cruciale rol. Genuit: “Met Heart-
beat krijgen we meer controle op de registraties zelf. We kunnen signaleren als iets afwijkt van wat
we verwachten, zodat we foute registraties sneller kunnen opsporen en verbeteren.”
De tweede stap is om door middel van datavisualisatie het gebruik van data te laten toenemen. “Nu
maken we nog rapporten oude stijl. Dat wil zeggen: weinig aantrekkelijk, vaak laat opgeleverd en
vooral gericht op managementinformatie. Met SAS Visual Analytics maken we aantrekkelijke dash-
boards die in één oogopslag inzicht geven. We beginnen met dashboards voor de managementlagen,
maar uiteindelijk willen we via self service BI iedere medewerker de mogelijkheid geven om zijn
eigen visuele rapportages te maken, ook medisch specialisten en verpleegkundigen”, vertelt Genuit.
De derde stap moet nog worden gezet, dat is die naar data science. Maar om die stap in de toekomst
te kunnen zetten, is het fundament nodig dat nu wordt gelegd. Genuit ziet diverse mogelijkheden.
“Denk bijvoorbeeld aan process mining: het analyseren en visualiseren van bedrijfsprocessen aan de
hand van de data in je systeem. We willen dit jaar voorzichtig enkele pilots starten om te zien welke
verbetermogelijkheden dit zou kunnen opleveren. Een ander voorbeeld is het gebruik van big data in
klinische beslissingen, bijvoorbeeld welke behandelmethode heeft bij deze patiënt met deze speci-
fieke kenmerken de beste kans van slagen?”
Belang van datakwaliteitBij de uitrol kiest Genuit voor een combinatie van top-down en bottom-up. “We moeten top-down
een structuur neerleggen en afspraken maken over wie wat op welke wijze registreert. Maar de
ideeën hoe informatie kan worden toegepast moeten vanaf de werkvloer komen. Het mooie is dat
we met de implementatie van SAS Heartbeat en Visual Analytics dat bewustzijn vanzelf creëren,
want medisch specialisten en verpleegkundigen worden nu geconfronteerd met de gevolgen van
een onjuiste of ontijdige registratie. Ze zien ook dat data kan helpen de kwaliteit van hun werk te
verhogen.
De stip op de horizon is helder. De route er naartoe ligt nog niet helemaal vast. “Het wordt een span-
nend leertraject. Eén ding is zeker: we kunnen heel veel winst behalen als we de data die we toch al
moeten vastleggen beter gaan gebruiken. We werken nu hard aan de fundering. Dat geeft een ste-
vige basis voor alle plannen die we op termijn hebben.” ■
CASE
69
OVER SAS
SAS begrijpt dat data vrijwel alles aanstuurt. Wij willen u graag helpen dit op de juiste manier te doen. Is uw
data eenvoudig toegankelijk, schoon, geïntegreerd en op de juiste manier opgeslagen? Weet u welke typen
data in uw organisatie worden gebruikt en door wie? En heeft u een geautomatiseerde methode die inko-
mende data valideert voordat deze in uw databases wordt opgeslagen?
Beter beslissingen nemen
Dagelijks worden er in uw organisatie duizenden, misschien wel tienduizenden of honderdduizenden beslui-
ten genomen. Alledaagse beslissingen die onderdeel zijn van een proces: kunnen we deze klant deze lening
verstrekken? Welk aanbod doe ik een klant die ons contactcenter belt? Tactische beslissingen, zoals: waar
ligt het optimum tussen preventief en reactief onderhoud van machines? Als we van de vijftien smaken er
vijf willen schrappen, welke vijf moeten dat dan zijn? Maar ook strategische beslissingen over de koers van
uw organisatie. Bijvoorbeeld: in welke product-marktcombinaties willen we aanwezig zijn? Bij al die beslis-
singen speelt informatie een rol. Hoe beter de kwaliteit van de onderliggende data, hoe beter de beslissin-
gen zijn die u neemt.
Uw data onder controle
Ervoor zorgen dat data compleet, juist en tijdig zijn, is een complex karwei. Een karwei dat gelukkig voor een
groot deel kan worden geautomatiseerd. Besteed minder tijd aan het vergaren en onderhouden van informa-
tie en meer tijd aan het runnen van uw bedrijf met SAS Data Management. Deze oplossing is gebouwd op een
uniform platform en ontworpen met zowel de business als IT in het achterhoofd. Het is de snelste, makkelijk-
ste en meest veelomvattende manier om uw data onder controle te krijgen. SAS Data Management beschikt
over in-memory en in-database performanceverbeteringen, die het voor u mogelijk maken real-time te
beschikken over betrouwbare informatie.
Processen inrichten
Met een robuust data management-platform alleen bent u er niet. Als het gaat om master data management,
data-integratie, datakwaliteit, data governance en data federation, spelen ook processen en gedrag een
belangrijke rol. Wij kunnen u helpen om dit goed in te richten. Want het op orde maken van uw data is geen
eenmalige activiteit, maar een continu proces.
Bent u geïnspireerd geraakt en wilt u weten hoe u meer uit uw data
kunt halen? Neem dan contact met ons door een e-mail te sturen naar:
[email protected]. Of bezoek onze website: www.sas.com/nl.
71
Realisatie: SAS Nederland
Redactie: Ilanite Keijers
Fotografie:Eric Fecken
Auteurs:Jasper BakkerJill DychéMirjam Hulsebos Chantal Schepers
Cover:Philips van Tol
Vormgeving:Alain Cohen
Drukwerk:Sijthoff Media Groep
Projectbegeleiding:SAS Nederland
Het boek Future Bright – A Data Driven Reality – is gemaakt in opdracht van SAS Nederland. Alle informatie uit deze uitgave mag uitsluitend worden overgenomen, gekopieerd of gereproduceerd met expliciete toestemming van de directie van SAS Nederland en met bronvermelding. SAS Nederland is niet verantwoordelijk voor uitspraken gedaan door geïnterviewde personen uit dit boek.
COLOFON