Softline Group Northern Europe // Knowledge Base // Data Quality vs Data Quantity: part 2 – End point solution vs. Platform

Data Quality vs Data Quantity: part 2 – End point solution vs. Platform

In deel één van dit blog, zijn we ingegaan op hoe belangrijk context is als het gaat om het interpreteren van data. En een van de meest opvallende contextuele veranderingen die we de laatste tijd bij onze klanten zien, is het verschil in datakwaliteit & management tooling tussen endpoint oplossingen en platform oplossingen. In het verleden was een endpoint oplossing voor ITAM de standaard, maar het gebeurt meer en meer dat ITAM wordt beheerd binnen een platform, een module van een platform of wordt gekoppeld aan een platform. En dat brengt zo zijn eigen uitdagingen met zich mee.

Endpoint oplossing

Een ITAM implementatie met een endpoint oplossing is vaak een ‘greenfield’ situatie. Een ITAM project start, een nieuwe server wordt geïnstalleerd, de tooling wordt geïnstalleerd en vervolgens worden één voor één de agents en databronnen aangesloten en wordt de oplossing stap voor stap beheersbaar opgebouwd. De bronnen die aangesloten gaan worden zijn meestal van te voren bekend. De gebruikersgroep van de ITAM oplossing is relatief klein en vaak al onderdeel van het projectteam. De stakeholders en hun wensen zijn redelijk goed van tevoren bekend.

Alle fasen van dataverwerking vinden plaats binnen de omgeving van de endpoint oplossing. Discovery, consolidatie, normalisatie en consumptie vinden plaats binnen een platform waarover de organisatie zelf de controle heeft. Zelfs wanneer databronnen worden toegevoegd voor consumptie, gaat het alleen om het binnenhalen van informatie. Het is redelijk gecontroleerd.

Platform oplossing

Wanneer organisaties beginnen te werken aan een platformimplementatie, bevat het doelplatform meestal al data, en worden we onmiddellijk geconfronteerd met alle klassieke uitdagingen die we in deel 1 hebben besproken. Een platform heeft ook al gebruikers, processen en belanghebbenden. Er zijn mensen die werken met asset data of die een incident proces hebben, rapporteren of zelfs een change proces hebben. Dit maakt de dynamiek anders, niet alleen tijdens de implementatiefase - er moet immers veel meer geanalyseerd worden als de data gecombineerd worden - maar ook tijdens de RUN fase nadat het project is overgedragen aan de ‘business as usual’.

Een ander verschil is dat de data vaak door verschillende groepen worden verbruikt. Niet alleen door het ITAM team, maar ook door bestaande belanghebbenden die de tooling gebruiken. Zelfs wanneer slechts één extra component van een platform wordt geactiveerd, kan het zijn dat sommige onderdelen nog moeten worden geïntegreerd en dat ITAM niet de enige is die discovery, consolidatie, normalisatie en verrijking uitvoert.

Wanneer twee verschillende tools worden gecombineerd, bijvoorbeeld wanneer een extra connector of een ITAM tool aan het platform wordt toegevoegd, ontstaat een extra uitdaging: Waar moet de verbinding worden gemaakt? Moet dat tijdens een vroege fase van dataverzameling binnen discovery, of op een later moment tijdens consolidatie of normalisatie, of misschien helemaal aan het eind? En wat prevaleert? Wat zijn de criteria voor normalisatie, ontdubbeling en verrijking? Maar de uitdagingen blijven niet beperkt tot de implementatiefase. Tijdens de RUN fase hebben we gemerkt dat het ITAM team de belangrijkste stakeholder is tijdens het beheer van een platform en dat er veel andere teams en individuen zijn om rekening mee te houden. Vanuit een technisch standpunt heeft een platform zijn eigen uitrolcadans en ITAM heeft geen andere keuze dan te volgen. Dit alles zorgt ervoor dat de dynamiek heel anders is dan bij een endpoint implementatie. Dus dat vraagt natuurlijk ook om een heel andere benadering van stakeholder management.
 

Mogelijkheden voor stakeholder management

Toch zijn er niet alleen uitdagingen, maar ook kansen! Op het moment dat tooling wordt gebruikt om data te verrijken en tooling wordt gecombineerd, komt meestal aan het licht wat er werkelijk speelt binnen een organisatie, vooral op het gebied van data eigendom. Zo kan een impactanalyse helpen bij het bepalen van de belangrijke vraag wie eigenaar is van welke data. Hetzelfde geldt voor de dekking van de tooling: als twee of meer(!) verschillende bronnen worden gecombineerd, is de kans dat ze één op één overeenkomen kleiner dan 1. Daarnaast kunnen er binnen de organisatie verschillende opvattingen bestaan over het 'single point of truth', ook wel de 'gouden bron' genoemd. Een vraag die vaak een grote politieke of zelfs emotionele component heeft. Het brengt ook impliciete of expliciete keuzes aan het licht die binnen het ITAM scoping proces zijn gemaakt.

De sleutel is om deze uitdagingen niet uit de weg te gaan, maar ze te omarmen als startpunt voor discussies. Het kan u helpen op uw weg naar volwassenheid en een katalysator zijn voor verdere ontwikkeling. De context die verborgen was, wordt nu duidelijk.

Onze contextbewuste consultants zijn u graag van dienst bij al uw data uitdagingen, dus aarzel niet om contact met ons op te nemen. (De hoogwaardige contactdata vindt u hieronder)

Of lees deel 1 van deze serie: "Big Data" uitdagingen