Antingen stödjer din webbläsare inte javascript, eller är javascript inaktiverat. Denna webbplats fungerar bäst om du aktiverar javascript.

Pdb-Bloggen

Pdb sätter människor, idéer och organisationer i rörelse genom verksamhetsutvecklande IT-lösningar. Här skriver vi om den typen av problem vi kan lösa, om intressanta händelser i IT-världen och om hur det är att jobba på Pdb. Välkommen!

RSS

PdbTalks | Hur kan vi tillämpa dataanalys och Machine Learning i kommersiella verksamheter?

PdbTalks | Hur kan vi tillämpa dataanalys och Machine Learning i kommersiella verksamheter?

Tuve Löfström är forskare på Jönköping University och samarbetar med Pdb i forskningsprojektet DATAMINE. Forskningen kretsar kring maskininlärning, dataanalys och algoritmutveckling inom maskininlärning.

Här kan du se inspelningen från hans föreläsning på PdbTalks i januari 2018. Nedan finns också ett sammandrag av föreläsningen ifall du föredrar att läsa.

  


 

Hur kan vi tillämpa dataanalys och Machine Learning i kommersiella verksamheter?

Vad har Ellos, International Space Station, WHO och golfklubbar gemensamt? De har alla tillämpat dataanalys och Machine Learning för att förbättra sina verksamheter – och de gör det med exakt samma metod.

 

Dataanalys ger konkurrenskraft

Dataanalys är centralt för svenska företags konkurrenskraft. Det visar en studie från Handelsrådet som är inriktad på handel men samtidigt visar att det går att generalisera till andra branscher och andra domäner inom industrin. Vi ser det mer och mer, efterfrågan är väldigt stor på dataanalysområdet.

 

Fokus på ökad kundförståelse

Det håller på att ske ett skifte från CRM och BI (beslutsstöd) som verktyg för ökad kundförståelse till Big Data, Data Analytics och Artificiell Intelligens. Inom dataanalys används maskininlärning för att utforma modellerna och algoritmerna.


Intressant nog är att det inte längre bara de tekniktunga företagen som spenderar stor del av sin omsättning på forskning utan även företag som Amazon lägger stor del av sin omsättning på sin forskning. En stor del av forskningen handlar om just dataanalys: Hur man kan jobba med dataanalys utifrån sina flöden, kundrelationer osv. Amazon var också en av de första som gjorde dataanalys till en del av sin affärsmodell. Det säger en del om varför det går så bra för dem.


Så vi backar lite, hur går det till när man jobbar med dataanalys?

Dataanalys


Steg 1 – Förbereda data för analys


Första steget tar mycket tid – att förbereda data för analys. Identifiera data, hämta ut data, slå samman data, kvalitetssäkra data osv. Men gör man det stort och ordentligt i början kan man leva vidare på det senare.


Steg 2 - Modellering


Sedan kommer en modelleringsbit som består av många olika moment, bland annat:

  • Deskriptiv modellering: Vi gör en statistisk prövning, stämmer det vi ser?
  • Responsmodellering: vilka kunder kommer med största sannolikhet beställa något från vår katalog?
  • Predicering: Försäljnings- och kampanjprognoser, churn - vilka kunder kommer lämna oss.
  • Klustring: Finns det grupper som har liknande beteende? Vilka varor säljs tillsammans?

 

Steg 3 – Applicera och automatisera (maskininlärning)


Slutligen, när man byggt sina modeller vill man applicera dem och automatisera dem i systemet. Machine Learning är metoden för att dra slutsatser från stora mängder data.
En förutsättning för allt det här är att vi har data som har hög kvalitet.

 

Big Data


90% av den data som existerar idag har skapats under de senaste två åren. Men när mängden data blir så stor att standardsystem inte längre klarar av att samla in, bearbeta och behandla den inom rimlig tid benämns det som Big Data. Man måste specialutveckla nya system för att bearbeta datan. Det som är big data idag kommer vara standard om två år och nya lösningar krävs då. Detta kräver exceptionell teknik.

 

Datakvalitet är avgörande


När vi går framåt och dataanalys blir en naturlig del av en arbetsprocess så kommer datan att vara hårdvaluta och kvaliteten på den datan avgör hur väl vi lyckas. Det är inte förmågan att samla in data eller att bearbeta data som blir avgörande utan kvaliteten på datan.


Datakvalitet är svårt, tar tid att både etablera och underhålla. Det kan också vara svårt att se vad man saknar. Ofta vill vi göra olika typer av aggregeringar men där finns också risker att vi förlorar insikter. Sedan finns det en risk i att man förändrar processerna för att samla in data vilket gör att det blir svårt att använda den historiska data man redan använder för att göra prognoser. Då får man börja om från scratch. Det kan vara relevant ibland men man ska vara medveten om att förändringarna man gör kan påverka nyttan man kan ha av datan framåt.

 

Machine Learning är metoden för att dra slutsatser från stora mängder data.


Det vi forskar om är teknikerna kring detta: Maskininlärningsalgoritmer. De är oftast generella så vi kan applicera samma tekniker på helt olika problem.
Ett exempel på detta är prediktiv modellering. Det är när vi har en algoritm där vi använder historisk data för att förutsäga eller förklara något. Detta kan användas på olika sätt, tex:

  • Responsmodellering – hur ska vi utveckla marknadsföringen baserat på den respons vi tidigare fått.
  • Churn-prediktioner – förutsägelse av vilka som kommer sluta vara kunder och hur de ska behandlas
  • Försäljningsprognoser
  • Feldetektering
  • Kundvärdesprognoser
  • Lagerprognosticering
    Osv


Det finns olika tekniker att välja bland men alla är generella och är inte beroende av vilket problem, eller vilken verksamhet, vi försöker adressera.

 

Forskningsprojekt som använder prediktiv modellering


För att illustrera detta ytterligare är här en del av de projekt vi haft och har. Alla dessa projekt och företag inom vitt skilda domäner jobbar med samma teknik – prediktiv modellering.


• I projektet DADEL jobbade vi tillsammans med AztraZeneca, WHO och Karolinska Institutet. Vi använde patientdata och historik för att hitta biverkningseffekter hos patienter.


• Tillsammans med Ellos, Eton och Vinga of Sweden jobbar vi med datadriven innovation inom handeln.


• Vi jobbar med att reducera bränsleförbrukning i Scanias lastbilar.


• FBI, framtidens Business Intelligence, är ett projekt tillsammans med Ica och Willys där vi vill skapa större kundförståelse och förbättra prognoser.


• Vi har haft en liten del i ett stort EU-projekt där bland andra Tate Museum och Space Application Services var partners. Vi fick data från ISS (International Space Station) för att identifiera fel i deras system


• I Golf-projektet jobbar vi med PGA-instruktörer och golfklubbar för att försöka beskriva vad som kännetecknar en bra golfsving


Väldigt olika områden men samma teknik i alla projekt.

 

Sammanfattningsvis:

Det viktigaste är egentligen inte att välja rätt algoritm eller system utan man ska ha kunskap om vad det finns för möjligheter och kunna identifiera lämpliga användningsområden i den egna verksamheten.

Dataanalys kräver inte gigantiska investeringar i hårdvara, analysverktyg och konsulttjänster. Numera finns det färdiga, avancerade system som man kan komma med långt med, även som mindre aktör.


För att lyckas med dataanalys på lång sikt krävs ett kontinuerligt kvalitetsarbete – data med hög kvalitet är en förutsättning.

 


 
Tuve Löfström är forskare på Jönköping University och samarbetar med Pdb i forskningsprojektet DATAMINE. Forskningen kretsar kring maskininlärning, dataanalys och algoritmutveckling inom maskininlärning.

Denna sammanfattning är skriven av Beata Stigmarker.


Kommentarer