Data Science always on!

Door Jan Roekens | 04-03-2020

In het Customer Experience werkveld vormen tekst mining en proces mining een mooie basis voor allerhande klantinzichten. Wat echter opvalt is dat het overgrote deel van de experimenten nooit de laptop verlaten van de data scientist. Theo van der Steen, Underlined, vertelt in zijn blog welke ICT principes kunnen worden toegepast om meer inzichten te krijgen. 


door Theo van der Steen, Underlined

Hoe komt het dat In de afgelopen jaren hebben veel Data Science afdelingen het licht gezien en hebben veel professionals nu een functie die direct aan Data Science is te linken. Er wordt driftig geëxperimenteerd met machine learning & deep learning (A.I.) technieken en mining technieken, zoals proces mining & tekst mining. Zo ook in het Customer Experience werkveld, waar zeker tekst mining en proces mining een mooie basis vormen voor allerhande klantinzichten. Wat echter opvalt is dat het overgrote deel van de experimenten nooit de laptop verlaten van de data scientist.

Ik las laatst een studie dat 90% van alle data science toepassingen leeft op de laptop van een data scientist. Grote vraag die ik daarbij heb; in een wereld die agile word en organisaties die elke 3 weken weer verder willen vernieuwen, op basis van een data driven aanpak, hoe ga je dit doen als er geen productie principes worden toegepast op data science?

Ik geloof in het principe dat Data Science Always must be ON!

Zeker voor Data Science toepassingen in Customer Experience, waar de Customer Experience professional en het management grip willen krijgen op de ontwikkelingen in de relatie met klanten. Door de complexiteit in deze relatie en de inmiddels ontelbare mogelijkheden om met klanten samen te werken is het zonder data science niet meer te doen om nog inzicht te krijgen, waarom klanten bepaalt gedrag vertonen en welke kansen er liggen om hierop in te spelen.

Binnen Underlined werken we daarom met data science oplossingen die always on moeten kunnen zijn! Dit betekent dat de algoritmen niet alleen kwalitatief goed moeten zijn, maar ook in staat moeten zijn om altijd beschikbaar te zijn met hoge betrouwbaarheid en performance. Om dit te doen hanteren we uit de ICT bekende principes om dit mogelijk te maken. De belangrijkste hierbij, zijn:

  • Werken op basis van OTAP principes voor release management, waarin Ontwikkeling, Test & Acceptatie en Productie van Data Science toepassingen fysiek en logisch gescheiden zijn. Niet alleen zijn de omgevingen gescheiden ook de rollen voor model ontwikkeling en beheer zijn fysiek en logisch gescheiden. Dit geeft dezelfde voordelen die binnen ICT bij software ontwikkeling al een bekend gegeven zijn, namelijk hogere kwaliteit, continuïteit en beschikbaarheid van de oplossing (eventueel vast te leggen in een service level agreement).
  • Werken op basis van altijd beschikbare Data Science modellen, die worden gekoppeld met externe “afnemers” (bijv. software, of een Analytical ETL dienst) die de verrijkte informatie willen verwerken of visualiseren. Deze afnemers krijgen de door de Data Science modellen aangeboden functionaliteit en verrijkte data output aangeboden, op basis van losely coupled principes (bijv. via API’s).
  • Werken op basis van het Business Intelligence principe; Extract Transfer en Load (ETL), maar dan voor een Data Science toepassing. Voor data science en analytics zijn specifieke ETL producten beschikbaar die uitermate goed in staat zijn om met specifieke eigenschappen van data science modellen om te gaan (bijv. knime.org). Dit Analytical ETL principe maakt het mogelijk om Data Science toepassingen te maken die ruwe data, volledig automatisch, verschillende Data Science modules kan laten passeren om tot het gewenste inzicht te komen, waardoor er modulair gewerkt kan worden.
  • Werken op basis van library principes, waardoor een set aan data science oplossingen (modules) ontstaat die op zichzelf, maar ook in samenhang met elkaar kunnen worden gebruikt. Denk bijv. bij het inzichtelijk maken van een klantreis aan wat je nodig hebt. Dan kan je te maken hebben met;

    • het aan elkaar verbinden van een webbezoek, chat sessie, een polis mutatie (procesafhandeling) en een gegeven klantfeedback formulier op dit contact en/of proces,
    • die vervolgens moeten worden omgezet naar journey elementen die de onderdelen verbinden aan de relevante klantreis,
    • waarbij door middel van verschillende tekst mining toepassingen de essentie word gehaald uit de feedback enquête en bijv. de chat sessie,
    • om deze vervolgens op basis van een impact & driver model te duiden op hun impact op de NPS,
      In dit voorbeeld zijn meerdere data science modulen nodig om te komen tot een goede verrijkte data set die met data visualisatie kan worden omgezet naar inzichten en management informatie.

  • Scale to fit! Afhankelijk van het volume en de frequentie waarin data verwerkt moet gaan worden volstaan andere oplossingen. Python en R zijn geweldig om te experimenteren en om laag frequente analyses te doen, echter wanneer er richting een volcontinue Data Science model wordt gewerkt zijn Python en R niet meer toereikend om enige performance te bieden. Het is dan meer waarschijnlijk dat op basis van programmeertalen als Java of bijv. C-Sharp gewerkt wordt.

Underlined werkt reeds 8 jaar aan oplossingen voor Data Driven CX en heeft veel kennis op het gebied van Data Science toepassingen in dit werkveld. Hierbij maken we de combinatie om vanuit een logisch Insights Framework continue te ontwikkelen aan relevante Data Science toepassingen, die met betrouwbare performance, schaalbaar kunnen worden toegepast om de klantbeleving inzichtelijk te maken. Deze data science modulen zijn, zowel als verlengstuk op uw eigen data science architectuur te gebruiken of als turn-key cloud oplossing voor Data Driven CX. Belangrijkste vraag; wat wilt u uitbesteden vs. wat wilt u zelf doen voor uw data driven CX productie omgeving?

Bron: Auteur Theo van der Steen, Partner Underlined

Auteur: Jan Roekens, Hoofdredacteur

Deze artikelen vind je vast ook interessant

Ook de laatste bytes ontvangen?