Achtergrond
Giga-ambities leiden vaak tot rampspoed.

Geschreven door Andy Patrizio

Zijn big data-projecten de nieuwe ERP-mislukkingen?

IT-projecten gaan inmiddels traditioneel veelal de mist in. Er liggen veel gevaren op de loer en bij de uitvoering zijn er dikwijls meer obstakels dan zaken die goed gaan. Dat geldt ook voor big data.

Uit onderzoek van McKinsey blijkt dat 45 procent van de grote IT-projecten het budget overschrijdt en 7 procent te laat wordt afgerond. Daarnaast levert 56 procent niet op wat ervan verwacht werd. Bij 17 procent werden de risico's zo groot dat het voortbestaan van de organisatie in gevaar brachten.

In het verleden waren het vooral ERP-projecten die mislukten, maar die rol lijkt te zijn overgenomen door projecten die als 'big data-project' of 'cloudproject' betiteld mogen worden. Een verontrustend rapport van CapGemini laat zien dat slechts 13 procent van de big data-projecten in productie gaat. Maar 27 procent van alle big data-initiatieven wordt door respondenten als 'succesvol' omschreven. Slechts 8 procent ziet ze als 'zeer succesvol'.

Voor cloud ondervond Enterprise Management Associates Inc. (EMA) dat slechts 12 procent van de organisaties zonder problemen een cloudtraject doorloopt. 88 procent loopt tegen problemen aan, met name op gebied van het beheersbaar houden van kosten, het verkrijgen van prestaties en zorgen voor de juiste ondersteuning.

Waarom is de hoeveelheid mislukkingen zo groot? Er zijn verschillende redenen te geven, maar een gedeelde oorzaak is dat bedrijven zonder goed na te denken in cloud of big data stappen.

Het begint met een goede businesscase. Stel jezelf de vraag welke diensten moeten profiteren? Veel bedrijven doen dit niet. Daarnaast gaat het niet alleen om technologie, maar ook om mensen en processen. Vaak geven organisaties aan dat ze een private cloud willen en kopen ze de technologie, maar vergeten ze procesveranderingen door te voeren en mensen te betrekken.

Gordon Haff, directeur cloudstrategie bij Linux-leverancier Red Hat, onderschrijft deze hypothese. "Ik zie veel projecten rond big data mislukken omdat ze geen helder doel hebben en er geen weg is uitgestippeld naar een doel."

"Veel organisaties starten een big data project omdat ze denken dat ze het moeten doen en denken niet na over de vraag waarom. Uiteraard slagen ze dan niet", zegt hij.

Het doet Haff denken aan de hype rond datawarehousing en open-source van tien jaar geleden. "Er heerst het gevoel dat met alle beschikbare data, er iets mee gedaan moet worden, ook al weten we niet welke vragen we moeten stellen of de juiste modellen te definiëren die van toepassing zijn."

Begin bij stap 1

De eerste stap binnen een big data of cloudproject zou de vraag moeten zijn: 'Hebben we dit echt nodig?' Er kunnen meerdere reden zijn om het niet de doen: er is niet genoeg data om een big data-systeem te rechtvaardigen, er kan afhankelijkheid zijn van ERP die niet in de cloud past of er is sprake van regels die vereisen dat de data on-premises blijft.

Businessgebruikers willen cloud omdat het belangrijk lijkt, maar de businesscase ontbreekt. Ze vragen zich niet af of ze de aanvullende flexibiliteit bovenop virtualisatie wel nodig hebben en of het past bij de workloads die ze draaien. Dit is dodelijk.

Het is duidelijk dat het niet goed vaststellen van businessbehoeften een voorname reden vormt voor het falen van big data- en cloudiniatieven. Maar er zijn meer redenen. Denk bijvoorbeeld aan ineffectieve coördinatie tussen de business- en technologieafdelingen van een organisatie, het moeten omgaan met verdeelde silo's data, ineffectieve coördinatie van analytics-initiatieven, te weinig geld voor de big data-initiatieven en te zeer moeten blijven vertrouwen op legacysystemen, zegt Jeff Hunter, specialist business information management bij CapGemini.

Hij merkt dat klanten zeggen big data te willen, terwijl ze in feite niet meer willen dan een brug slaan tussen de silo's data. "Hebben ze echt big data nodig om de volgende generatie analytics te gebruiken? Het antwoord is wellicht nee, maar kunnen ze het dan wel gebruiken voor BI en besluitvorming?", stelt Hunter.

CapGemini adviseert zulke bedrijven hun prioriteiten te herzien en in plaats van big data om grote big data-sets te maken de bestaande problemen op gebied van ERP, CRM en andere traditionele afgescheiden datasilo's eerst te verhelpen.

"Een cliënt heeft bijvoorbeeld 50 databases met klantdata in de hele wereld staan, in verschillende formaten voor verschillende apps. Als je dat probleem eerst voor ze oplost, wordt de discussie over big data betekenisvoller en aantrekkelijker voor de klant", zegt de adviseur.

Ontbrekende vaardigheden

Dan is er nog ook de bekende big data skills gap, waarover inmiddels al veel geschreven is. Als je teamleden niet beschikken over de juiste vaardigheden in cloud of big data, kun je er al min of meer vanuit gaan dat je project gaat mislukken.

"Technologieën binnen big data verschillen enorm met de dataplatforms waarmee mensen gewend zijn te werken", zegt CEO en mede-oprichter Yaniv Mor van big data-implementatiespecialist Xplenty. "SQL staat binnen big data niet op de voorgrond, maar iedereen beschikt over SQL-vaardigheden. Ook is big data enorm afhankelijk van open-source technologie, iets wat voor een Microsoft-man compleet nieuw kan zijn. Je moet dus nieuwe mensen inhuren die kostbaar zijn en lastig te vinden. Of je bestaande medewerkers gaan trainen."

Maar dat leidt weer tot een nieuw probleem. Organisaties zien cloud of big data vaak als aanvulling op bestaande technologie. Maar een cloudproject kan een bestaande gevirtualiseerde infrastructuur niet aanvullen.

Hoewel clouds veelal virtualisatie gebruiken, vereisen ze wel nieuwe manieren van werken en nieuwe technologie. Enterprise virtualisatie en cloud-native infrastructuur zijn geoptimaliseerd voor verschillende workloads. Cloud biedt beschikbaarheid via software, schaalt op en is fundamenteel gebaseerd op een meer dynamische en losgekoppelde architectuur. Dat verschilt sterk met traditionele IT-infrastructuur, waar het draait om één keer implementeren en daarna niet meer aanraken.

Ook veranderen bedrijven hun processen of operationeel model niet bij een overstap naar cloud, wat een doodzonde is. 80 tot 90 procent van wat naar Amazon Web Services (AWS) is gebracht is geen nieuwe content. Het gaat vaak om horizontaal opgeschaalde loads die geen lang leven zijn beschoren.

De gemiddelde levensduur van een VM binnen een on-premises omgeving is een paar jaar. Toen het nog fysieke machines waren een decennium. Een VM op Amazon houdt het maar enkele dagen of weken uiy. Het probleem is dat veel bedrijven een VM op AWS zetten en deze vergeten te verwijderen als het werk klaar is. Ze krijgen rekeningen voor idle-tijd die niet nodig zijn. Analisten schatten in dat 30 tot 50 procent van de kosten die bedrijven in de publieke cloud maken onnodig zijn vanwege dit soort kinderlijke fouten.

Wat te doen?

Wat kun je als bedrijf verder doen om het risico op falen te verkleinen? Er zijn een aantal stappen te bedenken, waarvan sommige weinig tot zelfs geen geld kosten.

"Vraag jezelf af of je big data überhaupt nodig hebt", zegt Mor. "Rond big data leeft zoveel hype dat ik geloof dat veel mensen niet begrijpen wat ze met een big data-project opschieten, dus ze weten niet wat ze eruit moeten halen."

De volgende stap is een leider aanstellen die een visie kan opstellen en uitdragen die bij het project past, zegt Hunter. "De visie is belangrijker dan het leiderschap. Het kan vanuit ieder niveau komen. Het gaat om een visie die helder articuleert waarom big data belangrijk is en welke toekomst het heeft voor de organisatie en die door iedereen geaccepteerd wordt", zegt hij.

Stap drie is onderkennen dat er twee typen applicaties en infrastructuren bestaan: traditioneel en cloud. Beide willen hebben zonder de fundamentele verschillen te kennen, leidt tot problemen.

"Cloudimplementaties moeten zich richten op cloud-native workloads die tegelijkertijd een brug slaan naar klassieke IT-services, workflows en datastores en zorgen voor uniform beheer. Ze moeten niet proberen alles voor alle applicaties te zijn", zegt Haff.

Organisaties moeten zich realiseren dat er geen ideale manier van IT-delivery bestaat. 'Bimodale IT' is de nieuwe norm. Dit betekent dat je moet gaan wennen aan verschillende architecturen on-premises en daarbuiten. In plaats van alles in één grote architectuur gieten, dien je gaan nadenken over het beheer van heterogene architecturen en bronnen.

Het slotadvies is: begin klein. Probeer met een big data-project niet direct alle problemen op te lossen. "Kies één businesscase en zorg ervoor dat je databronnen beperkt zijn tot enkele sources. Definieer exact wat je uit het project wilt halen. Je moet echt klein beginnen", zegt Mor.