Analytics 3.0

Virksomheter som er engasjerte i Business Intelligence og analyse så mye endre seg ved gjennombruddet for Big Data.

Nå endres bildet på nytt ved at man bygger analysekraft inn i produkter og tjenester.  Her ser vi litt på utviklingen fra starten på “Analytics” og til 3.0, samt kommer med noen subjektive vurderinger avslutningsvis.

Business Analytics startet så smått på femtitallet med løsninger som klarte å skaffe data og analysere disse med datidens verktøy.

Med fremveksten av moderne HW og SW, fikk bedriften datakraft, datavolum og analyseverktøy som ble utviklet og raffinert over en periode på om lag 50 år.  Denne perioden dreide seg i stor grad om å skape et grunnlag for bedre styring gjennom å integrere bedriftens interne data.  Man integrerte data fra produksjons-, økonomi- og salgsstøttesystemer.  I store deler av denne perioden var det kun de største virksomhetene som hadde ressurser til investere i egne løsninger.  Dette bestod som regel i kostbare skreddersømsløsninger.  Ut over 90-tallet og til om lag midten av 2000-tallet ble løsningene tilgjengelig for mindre virksomheter. Mange gode standardverktøy ble lansert fra en rekke internasjonale leverandører.  Thomas Davenport kaller denne perioden for Analytics 1.0.

Fremveksten av internett, sensorteknologi, nettbutikker, elektronisk betalingsformidling, mobilitet og sosiale nettverk har resultert i en kraftig vekst i eksterne data.  Vi legger igjen elektroniske sport nær sagt over alt.  Google, eBay, Amazon, LinkedIn og Facebook er eksempler på aktører som har basert sin forretning på å innhente og analysere opplysninger om oss.  Opplysninger som selges tilbake til oss gjennom utvikling av nye tjenester tilgjengelig på intranett.  Eksempler på LinkedIn er Jobs You Might Be Interested In, Groups You May Like, Network Updates og Year In Review.

Tjenestene krever enorm datakraft, og aktørene benytter seg av både privat og public cloud-teknologi.  Det er forholdsvis ustrukturerte data som krever nye typer databaser.

Denne perioden vi nå er inne i kaller mange fagfolk, deriblant Davenport, for Analytics 2.0 – eller Big Data-perioden.

Analytics 3.0 markeres tidsskillet hvor store virksomheter utover Silicon Valleys IT-virksomheter utvikler produkter og tjenester basert på Big Data. Dette gjelder på tvers av bransjer, både i privat og offentlig sektor. Det er her «Internet of Things» virkelig vil få utbredelse.

Det tradisjonsrike tyske selskapet Bosch ble etablert på slutten av 1800-tallet.  Nå har virksomheten etablert en rekke initiativer på tvers av forretningsområdene for å gi kundene bedre produkter og tjenester: Intelligent flåtestyring, intelligent ladeinfrastruktur, intelligent energistyring (ref smart city-initiativer, bla fra IBM og NCE i Halden) og avansert analyse av videoer fra overvåkingskameraer.

General Electrics produksjonsenheter har optimalisert vedlikeholds-/serviceintervallene for kapitalvarer som turbiner, lokomotiv, jetmotorer og MR-utstyr gjennom smarte sensorer som pusher data tilbake til analyseverktøy.  Faktisk har GE tatt dette så langt at de har etablert egne produkter; Predix og Predictivity. Disse verktøyene selges nå til andre industrier.

UPS leverer i gjennomsnitt 16 millioner pakker hver dag (!). I samtlige 46 000 varebiler har de sensorer som måler hastighet, retning, bremseaktivitet, m.m.  Datafangsten logges i online-kart og avanserte algoritmer som brukes til optimalisering av både den enkelte sjåførs atferd, men også den akkumulerte transportmengde.  I 2011 sparte de i gjennomsnitt 3500 km i årlig kjørelengde på hver bil.  Man sparer drivstoff og miljø.

 

Hva kreves av virksomheter for å få positiv effekt av Analytics 3.0?

Virksomheter må integrere store mengde interne og eksterne data – både strukturerte og ustrukturerte. Bruker vi eksemplet fra UPS, må man hente inn informasjon fra nye sensorer til optimeringsmodellene, som gjør at UPS kan overvåke KPIer som drivstoffnivå, containerlokalisering/-kapasitet og kjøremønster.  Dette brukes til å øke effektiviteten av rutenettet, redusere drivstofforbruk og ikke minst redusere ulykkesrisikoen.

Big-data-verktøyet fra 2.0-perioden (der vi vel ennå er?) har stor prosesseringskraft.  For å trekke veksler på denne kraften, må også omsetningen av datainnsikten i optimaliseringsprosjektene gå hurtigere.  Eksempelvis med UPS; data om pakker fanges flere ganger daglig.  Da kan man ikke vente ukesvis med å endre atferd/realisere gevinsten.

De mest innovative virksomhetene har utviklet beslutningsdashboard for sine ansatte basert på rik datafangst.  Procter & Gambles ansatte bruker dette på dag-til-dag-beslutninger.

Tidlige generasjoners BI-løsninger var typisk deskriptive.  Dvs de forklarte historien.  Mer moderne BI-løsninger var prediktive.  Dvs de brukte historiske data til å forklare fremtiden.  Analytics 3.0 benytter begge disse i tillegg til Prescriptiv analyse.  Dvs modeller for å beskrive optimale handlinger/beslutninger.

 

Er så Analytics 3.0 løsningen for alle?

Neppe.  Det krever mye storskala-testing og for mange store investeringer.  Det er tilfeller der data er tilsynelatende korrelerte, men underliggende årsaker er annerledes enn en enkel årsak/virkningssammenheng-analyse viser.

Analytics 3.0 gjør det mulig å flytte beslutningene til kundefronten.  Er medarbeiderne og lederne komfortable med dette?

Bedriftseksemplene fra Silicon Valley er unntak i forhold til mainstream.  Facebook og Amazon er bygget på og rundt Big Data fra begynnelsen av.  Dette preger kulturen, bedriftskompetansen, strategien og produktene. Mer tradisjonell industri må gjennom en omstillingsprosess som mange ikke vil mestre med nåværende ledelse.

 

 

 

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google photo

You are commenting using your Google account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s