Monthly Archives: november 2014

Big data for bedre og raskere læring

Selv i 2014 er det bare 8 % av norske grunnskoleelever som bruker ”data” på skolen hver dag, mens 75% av dem er daglige brukere på hjemmebane. Og da har de vel ikke en gang regnet med at smarttelefonen også er en datamaskin. Norske skoler er blant dem som har mest datautstyr og best nettverkstilgang i hele verden, men likevel blant de dårligste til å bruke det.[1] Måten læreprosesser designes på i skolen er med andre ord relativt lite endret for det store flertall av elever, selv om det meste av samfunnet ellers er blitt digitalisert.

Thoms Nordal, professor i pedagogikk har funnet ut at norske elever sitter 60 % av tiden alene og arbeider med arbeidsplan, og Kunnskapsdepartementet sier at ”forelesningen”, det vil si kateterundervisning er den dominerende formidlingsformen (Krokan 2012).

I en tradisjonell matematikktime vil læreren typisk gå gjennom et tema på tavla, så vil elevene øve seg på dette temaet etterpå gjennom å regne oppgaver. I sin gjennomgang må læreren velge hvilket nivå hun skal legge sin forklaring på, og vanligvis velges et nivå som kanskje ligger litt for høyt for de svakeste elevene og for lavt for de flinkeste elevene. Så får heller noen av de svakeste spesialundervisning for å kompensere for manglende læring i klassesituasjonen.

Ved å bruke big data kan en slik læresituasjon endres fullstendig, noe Knewton[2] er et eksempel på. Knewton utvikler systemer som tester elevenes kompetanse på det aktuelle området. På den måten kan de vite eksakt hva hver enkelt elev behersker godt, hva de er usikre på og hva de mangler forståelse for. Deretter henter systemet digitale læringsressurser fra en database der det finnes mange alternative forklaringer og fremstillinger for hvert enkelt kompetansemål. En forklaring på et matematisk prinsipp kan være en tekst, en annen kan være en video, en tredje en animasjon, en fjerde en simulering eller kanskje et spill osv.

Prinsippet i Knewton og det som kalles adaptiv læring er at systemet leter etter en virtuell tvilling, en som ligner mest mulig på den personen som skal ha en individuelt tilpasset læringssti. Systemet prøver å finne en person som hadde samme skåre i testene ved starten av læreprosessen som den nye eleven, og så spør den hva som fungerte best for de tidligere elevene som var i samme situasjon. Dernest hentes den aktuelle læringsressursen fra systemet og presenteres for eleven Etter at eleven har gått gjennom de aktuelle læringsressursene gjøres det en ny test og en ny vurdering, slik at elevene på hvert eneste testpunkt blir presentert for en unik læringssti.

Slike systemer for adaptiv læring bruker en recommender engine eller en anbefalelsesalgoritme for å plukke ut de aktuelle læringsobjektene. Noen av disse systemene er igjen basert på statistisk clusteranalyse, som finner ut hvilke enheter i analysen, i dette tilfellet elever, som er mest lik hverandre. Så brukes rett og slett erfaringene som tidligere elever har vært gjennom for å skreddersy en unik læringssti for hver enkelt elev.

Dette er nøyaktig samme prinsipp som Amazon, Netflix eller Spotify bruker når de skal gi deg anbefalinger om hvilke bøker, filmer eller musikk du kommer til å like. Og det virker som bare det.

Bruken av slike systemer i skolen vil ha dramatiske konsekvenser for både lærere og elever. For elevene vil konsekvensene være at hver eneste en av dem får et spesialtilpasset læringsopplegg som tar utgangspunkt i hva de kan fra før, hvordan de lærer best og andre faktorer en ønsker å inkludere i analysen, for eksempel om de lærer best alene eller i samspill med andre. Om dette siste er tilfellet kan slikt samspill initieres av systemet. Med et slikt system blir fenomenet ”spesialundervisning” borte, fordi alle får spesialundervisning og unike læreprosesser.

For lærerne vil det også ha konsekvenser, fordi de ikke lenger vil bruke mye av tiden sin på instruksjon / forelesning, personlig veiledning eller å ”rette” oppgaver som elevene har gjort.

Slike systemer påvirker med andre ord både måten tjenester ytes på, måten vi organiserer tjenesteytingen og måten vi leder disse prosessene på. Hva dette vil ha å si i det lange løp vet vi ikke så mye om ennå, for vi er helt i startgropen med å ta slike systemer i bruk.

Dette er et eksempel på at big data, her med elevers læreprosesser som eksempel, endrer måten vi utfører arbeidsoppgavene våre på. Big data gir rom for nye aktører fordi dette er disruptive tjenester (Christensen 1995) i forhold til de tradisjonelle tjenestene. Big data skaper også tapere, og det er dem som ikke skjønner rekkevidden av slike nye tjenester, som bruker mer tid på å motarbeide dem enn å skjønne hvordan de fungerer og hvilke konsekvenser bruken av dem har og som generelt er skeptiske til endring og til ny teknologi spesielt.

For dette er nok et eksempel på hvordan ny teknologi endrer samfunnet og dets organisasjoner.

[1] http://www.iea.nl/fileadmin/user_upload/Publications/Electronic_versions/ICILS_2013_International_Report.pdf Lest 26.11.2014.

[2] http://www.knewton.com/ Lest 27.11.2014.

6 kommentarer

Filed under refleksjon

Hva har LadyGaga og Google til felles?

 Her er et utdrag fra kommende bok om Forretningsmodeller og forretningsutvikling. Kommentarer og innspill mottas med takk. Dette er den innledende delen av kapittel om big data

Bruk av big data som forretningsmodell

Hva har Google og Lady Gaga til felles? La meg begynne med Lady Gaga, som allerede i 2008 var en av de første artistene som begynte å bruke Twitter og siden er blitt blant dem med aller flest følgere.

Twitter og Facebook er tjenester artistene har liten kontroll over i det lange løp, fordi disse tjenestetilbyderne kan endre vilkårene for bruk. Derfor har LadyGaga drevet trafikken til sin egen tide, til LittleMonsters.com,[1] for da kan de bruke stordataene denne trafikken etterlot seg til å skape nye produkter.

Analysestaben til LadyGaga kunne for eksempel bestemme hvilke sanger som skulle spilles på en konsert ut fra hva publikum i det bestemte geografiske området hadde på sine spillelister på Spotify. Hun har brukt bilder skapt av sine tilhengere som motiver på T-skjorter og på den måten drevet opp salget av tilleggsvarer med over 30 %.[2]

Gjennom å analysere oppslag på Wikipedia, Twittermeldinger og andre sosiale medier kan musikkbransjen gjennom tjenesten Next Big Sound[3] finne ut om det er noen sammenheng mellom den aktuelle musikkens salgstall og omtale i sosiale medier, data dette de kan utnytte til å lage prognoser for salg av ny musikk basert på omtale disse får i sosiale medier. Slik kan plateselskapene plukke ut fremtidens vinnere.

Next Big Sound er i 2014 også blitt til Next Big Book, hele konseptet er flyttet over til analyser av bøker og forfattere i samarbeid med forlaget Macmillian. De fant at det var ”absolute overlapping correlation between traffic to an author`s Wikipedia site to book sales.”[4] Så hvorfor gjør en disse analysene? Fordi forlag så vel som plateselskaper ønsker å skape produkter publikum vil like, og ved å sjekke hva de mener gjennom sosiale medier finner en også en indikator på hva de senere vil like. Som gründeren av tjenesten, Alexander S White sa, -”If we can accurately measure where peope are spending their time and attention, we can better forecast where they will spend their money.” Dermed kan de bruke disse dataene til å målrette annonsering gjennom digitale medier og på den måten konsentrere innsatsen om områder der de for eksempel har lite salg fra før.

Spotify har også teamet opp med Next Big Sound slik at artister selv kan se hvilke sanger som er mest populære, i hvilke geografiske områder de blir spilt mest, samt demografiske data for lytterne. Artistene får tilgang til en dashboard med slik informasjon fremstilt i grafer.

Big data generer nye tjenester

Google har lenge brukt data som brukerne legger igjen når de bruker ulike tjenester til å skape nye og bedre tjenester. En av disse finner du i Google maps. der du kan se hvilke veier det lønner seg å kjøre til enhver tid, avhengig av hvor mye trafikk det er på de enkelte veiene. Disse dataene henter Google fra de mange telefonene som befinner seg på veiene. Androidtelefonene, som det jo er flest av, er utstyrt med Googles eget operativsystem. Her finner du Google maps som er forhåndsinstallert til å dele trafikkdata. Dermed blir trafikkinformasjon crowdsourcet[5] og brukt til å gi oss alle bedre navigasjonstjenester.

Mens vanlige GPSer vil vise oss korteste eller raskeste vei, gir Google oss nøyaktige estimater for hvor lang tid reisen vil ta gitt nåværende eller fremtidig trafikkbelastning For tjenesten vil lagre data og vise hvor lang tid en bestem distanse tar på et hvilke som helst tidspunkt basert på analyser av historiske data.

Disse dataene kan også brukes til å rute bilene på måter som gjør at den totale trafikken spres over flere alternative veier på en optimal måte. Det vil si at det bygges en form for kunstig intelligens inn i tjenesten, en algoritme som optimaliserer trafikkflyt basert på data fra hver enkelt telefon. Men forskere tror at dette ligger litt frem i tid.[6]

Gjennom oppkjøp av israelske Waze i 2013 har Google fått en tjeneste som utnytter trafikkdataene på enda smartere måter gjennom hva de kaller en ”sosiale GPS”. Waze kan lastes ned gratis på alle plattformer og vil gi samme navigasjonsegenskaper med ”turn-by-turn”, talemeldinger etc. Gjennom Waze er det innført elementer av gamification ved at en kan samle poeng i appen, for eksempel ved å rapportere om ulykker på veiene eller ved å ”kjøre over” figurer som finnes på kartene. I Waze kan brukerne også snakke med hverandre gjennom appen, få vite hvorfor det er kø på en bestemt strekning eller få vite hva bensinprisene er på nærliggende bensinstasjoner. Slik kombineres big data samlet inn automatisk fra ”dingsenes” GPS-enhet med crowdsourcede data som brukerne selv sender inn til systemene.

Og kombinasjonen Google Adwords og Waze gjør at Google også lett kan tilby lokasjonsbaserte annonser, og for eksempel gjøre oss oppmerksomme på ulike kjøpstilbud av varer og tjenester vi har signalisert interesse for, for eksempel ved at vi har søkt etter disse på Google, når vi kjører.

Big data skaper nye forretningsmuligheter og forbedrer tradisjonelle forretningsprosesser ved at data fra eller om andre forbrukere også kan benyttes til å skreddersy bedre tjenester for oss. Men det er også en annen side av denne utviklingen

Storebror ser deg.

Mange tenker at dette er litt skummelt. At Google kan kartlegge hvor du reiser fra og hvor du reiser til, hvor lang tid det tar og de vet hvem du reiser sammen med dersom det finnes flere smarttelefoner i den samme bilen.

En slik kartlegging av våre reisevaner vil mange finne ubehagelig. Google har derfor en mekanisme for å anonymisere disse dataene, slik at systemet ikke vet nøyaktig identiteten til hver av dem som avgir data. De oppgir også at de anonymiserer reisene og ikke lagrer data fra begynnelsen og slutten av reisen. Om dette er betryggende eller ikke avhenger av hvilken tillit vi har til aktørene.

Sett i lys av koblingen mellom amerikanske sikkerhetsmyndigheter (NSA) og de store amerikanske sosiale medieselskapene som ble avslørt av Eward Snowden, er det helt klart rom for at slik informasjon også kan misbrukes. I følge en Kanadisk undersøkelse som omfattet 23000 personer over hele verden, hadde 60 % hørt om Snowden, men bare 39% av disse hadde tatt praktiske forhåndsregler for å beskytte sine data på nett.[7]

Overvåkings og sitterhetsaspektene ved big data bringer selvsagt mer omfattende problemstillinger til torgs enn folks bekymring for hva dataene kan brukes til, men praksis viser altså at folk flest ikke er særlig bekymret for dette og at de fleste ser ut til å mene at de positive virkningene av å få slike data som blant annet Google tilbyr gjennom navigasjonstjenestene er mer positive enn de mulige truslene slike data kan utgjøre.

[1] https://littlemonsters.com/ Lest 25.11.2014.

[2] Historien i innledningen og dette eksempelet er hentet fra denne artikkelen http://smartdatacollective.com/bernardmarr/283251/what-uber-and-lady-gaga-can-teach-you-about-analytics Lest 25.11.2014.

[3] https://www.nextbigsound.com/ Sjekket 25.11.2014.

[4] Se omtale i denne artikkelen i New York Times http://www.nytimes.com/2014/05/26/business/media/music-data-analyst-turns-sights-to-books.html?_r=0 Lest 25.11.2014.

Sitat hentet fra denne artikkelen på NYT http://www.nytimes.com/2014/05/26/business/media/music-data-analyst-turns-sights-to-books.html?_r=0 Lest 25.11.2015.

[5] Du kan lese om hvordan dette foregår i denne artikkelen: http://www.theconnectivist.com/2013/07/how-google-tracks-traffic/ Lest 25.11.2014.

[6] http://www.theconnectivist.com/2013/07/how-google-tracks-traffic/

[7] http://www.theguardian.com/technology/2014/nov/25/edward-snowden-privacy-open-thread Lest 25.11.2014.

1 kommentar

Filed under refleksjon

Fotobransjen er også endret

Både Amazon, eBay, Google, Apple og Spotify er globale aktører som sammen med en rekke andre virksomheter har bidratt til å endre konkurransesituasjonen i de berørte bransjene. De er distuptive innovatører (Christensen 1995) som til dels har feid tidligere aktører og konkurrenter av konkurransearenaen. De har skapt nye tjenester, skreddersydd for digitale konsumenter som er intensive brukere av sosiale medier. Og de har endret måten vi konsumerer både litterære tekster, musikk og film på.

I tillegg har de endret hele bransjer, som blant annet fotobransjen. Hvem husker Kodak, Agfa og Polaroid nå? Kodak gikk konkurs for noen år siden, og da den tidligere toppsjefen ble intervjuet av en norsk avis og spurt hvorfor de greide å gå konkurs når det faktisk var de selv som fant opp digitalkameraet[1] svarte han at de ble arrogante. De tjente så enormt mye penger på å selge film og kameraer og utstyr for film, at de ikke ønsket å ødelegge denne verdikjeden. Ja i følge forskere ved Harvard var 85 % av alle solgte kameraer og 90 % av all film solgt i USA i 1976 fra Kodak.[2] Og de tenkte at hvis ikke de som hadde funnet opp digitalkameraene satset på dem selv, ville ingen andre gjøre det heller. Og de tok feil.

På samme måte som det ikke var musikkbransjen som endre musikkbransjen, er det heller ikke fotobransjen som har endret måten vi tar og bruker bilder på. Og siden det første bildet i verden ble tatt av den franske oppfinneren Joseph Nièpce i 1826 har utviklingen eskalert år for år.

Det første bildet av et menneske er fra 1838, 12 år etter det første fotografiet. Fem til år 1900 regner med en at det ble tatt ”noen få millioner bilder” i verden, men i 1900 lanserte Kodag Brownie, et kamera som kostet bare en dollar og var den tids disruptive innovasjon. På 1930-tallet ble det tatt over en milliard bilder årlig, og i 1960 om lag 3 milliarder bilder, hvorav 55 % var av babier. I 1970 var det økt til 10 milliarder, i 1980 til 25 milliarder, i 1990 til 57 milliarder og i 2000 til 86 milliarder bilder årlig i verden.[3]

Fra da av kom digitalkameraene og smarttelefonene, og i 2012 ble det tatt over 380 milliarder bilder i verden. I 2012 rundet Instagram en milliard bilder og 20 % av bildene som ble tatt det året ble lastet opp på Facebook. Var det rart Facebook kjøpte Instagram? Og er det rart at bilder blir brukt på en annen måte enn tidligere?

I 2014 handlet det om selfies, eller om hvordan vi iscenesetter oss selv ved hjelp av teknologi, som Jill Walker Rettbergs (2014)[4] bok handlet om. Mens vi tok bilde av våre nyfødte i 1960, tok vi bilder av oss selv i 2014. Og for å få til det trengte vi nytt utstyr, vi trengte utstyr til å holde kameraet på mer enn en armlengdes avstand. Derfor ble selfistangen oppfunnet. Og det stopper sikkert ikke der.

[1] Du kan lese intervjuet i Aftenposten fra 21. Oktober 2014 her http://www.aftenposten.no/okonomi/Kodak-var-verdens-mektigste-fotoselskap-med-145000-pa-lonningslisten-Sa-raknet-alt-7748387.html Lest 17.11.2014.

[2] Det kan du lese mer om i dette Harvard Business School Caset http://isites.harvard.edu/fs/docs/icb.topic667366.files/Kodak%20and%20the%20Digital%20Revolution%20A.pdf Lest 17.11.2014.

[3] Tallene er hentet fra denne fotomontasjen. http://www.buzzfeed.com/hunterschwarz/how-many-photos-have-been-taken-ever-6zgv Lest 16.11.2014.

[4] Denne boken er antakelig også den første norske fagboken som er utgitt med Open Access lisens, hvilket betyr at du kan laste den ned og lese den gratis. http://jilltxt.net/books/ Lest 16.11.2014.

Dette er et lite kapittel fra boken «Forretningsmodeller og forretningsutvikling» under arbeid. Kommentarer og ideer mottas med takk. Det er selvsagt ikke noen uttømmende analyse av sektoren, men et bidrag til å forså hva digitalisering gjør med ulike aktører.

2 kommentarer

Filed under refleksjon

Alibaba og de digitale røverne

Utkast til tekst til ny bok om «Forretningsmodeller og forretningsutvikling» – om noen har ideer og kommentarer hører jeg gjerne fra dere.

Alibaba er et kinesisk ehandelseventyr uten like. De håndterer både business-to-business, consumer-to-consumer og business-to-consumer salg gjennom ulike plattformer. Ved børslanseringen 19 september 2014 ble selskapet verdsatt til ufattelige 231 milliarder dollar, mer enn både eBay og Amazon tilsammen.[1]

Alibabas portal for forbrukervarer i Kina Taobao , er blant verdens 20 mest besøkte tjenester og har vareutvalg tilsvarende Amazon og eBay. I mars 2013 hadde de i følge Wikipedia listet opp 760 millioner produkter.[2]

Alibaba er svært store i kina, og de stod for 80 % av nasjonens online salg i september 2014.[3] 16. November 2014 solgte de for ufattelige 9,3 milliarder dollar i løpet av ene eneste dag, hvorav 2 milliarder alene i løpet av den første timen.[4] De har etablert et eget betalingssystem, AliPay, som i følge Marketwatch er verdens største mobile betalingssystem[5] med flere transaksjoner enn PayPal. I 2013 hadde de over 100 millioner registrerte mobile brukere som til sammen hadde gjort 2,78 milliarder transaksjoner. Det er altså grunn til å følge med på den digitale invasjonen fra øst, der nye tjenester bidrar til å synliggjøre asiatiske produsenter på måter som kan gjøre vestlige importledd overflødige i en rekke bransjer.

Når AliBaba er listet på børsen i USA, og Yahoo er en av de største investorene i selskapet, er det også grunn til å tro at de vil få langt større innflytelse i vestlige land enn de hadde pr 2014. Hva vil konsekvensene av at kinesiske og andre asiatiske selskaper har tilgang til en infrastruktur for handel som knyttes inn i sosiale medier, som skaper nettverkseffekter, som er skalerbar uten sidestykke og som senker kundenes transaksjonskostnader dramatisk være? Og hva vil fenomenet ”bransjeglidning”, det vil si at virksomheter som Amazon går fra å være bokhandel til å bli et omfattende handelshus og VG går fra å være avis til også å være TV-stasjon samtidig som de tilbyr en rekke andre nye tjenester en ikke forbinder med tradisjonelle aviser, hva vil dette a å si for hva AliBaba kommer til å være om noen år? Hvordan kan deres forretningsmodeller påvirker norske og vestlige virksomheter, for for eksempel Apple, eller Komplett eller Elkjøp? Og hva betyr det at Alibaba allerede høsten 2014 var etablert som aktør i helsesektoren gjennom kinesiske ”Future Hospital” der over 50 sykehus allerede bruker AliPays kontosystem, skyløsninger og store dataplattformer?[6]

Og hva skal en si til etableringen av China Smart Logistic Network,[7] utbygging av et logistikknett startet av Alibaba der målet er at de skal kunne levere varer til de 2000 største byene i Kina samme dag som varene bestilles. Kostnadene ved nettverket er beregnet til over 100 milliarder kroner.

[1] http://www.reuters.com/article/2014/09/19/us-alibaba-ipo-idUSKBN0HD2CO20140919 Lest 14.11.2014.

[2] Wikipedia har en oversikt over hva selskapet tilbyr på   http://en.wikipedia.org/wiki/Taobao Om vil kikke nærmere på dem finnes en engelskspråklig guide som viser hvordan du kan handle her: https://www.techinasia.com/tmall-taobao-english-how-to-guide/

[3] http://www.reuters.com/article/2014/09/19/us-alibaba-ipo-idUSKBN0HD2CO20140919 Lest

[4] http://www.slate.com/blogs/moneybox/2014/11/11/alibaba_singles_day_china_s_e_commerce_giant_did_9_billion_in_sales_in_one.html Lest 17.11.2014.

[5] http://blogs.marketwatch.com/thetell/2014/02/10/sorry-paypal-chinas-alipay-is-worlds-no-1/ Lest 14.11.2014.

[6] http://www.slate.com/blogs/moneybox/2014/11/11/alibaba_singles_day_china_s_e_commerce_giant_did_9_billion_in_sales_in_one.html Lest 17.11.2014.

[7] http://techcrunch.com/2013/05/28/alibaba-csn/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Techcrunch+%28TechCrunch%29 Lest 17.11.2014.

Kommentar som ikke inngår i manus: om de er digitale røvere, så er de i alle fall av den snille sorten. Og det de kommer til å stikke av med er norske butikkers omsetning. For det blir vanskelig å selge varer importert fra Kina, når kineserne selv bygger et europeisk distribusjonsnettverk og sender varene billigere fra Nederland, enn om du skulle få sendt det fra Asker til Oslo. Det er hva Dealextreme gjør for tiden. Og hvor lang tid tror du det tar før de har Alibaba i hælene?

4 kommentarer

Filed under refleksjon

Vil du vite mer om Google?

Her er et utkast til kapittelet om Google til boken «Forretningsmodeller og forretningsutvikling i det digitale nettsamfunnet» (arbeidstittel). Om du har innspill, kommentarer etc setter jeg stor pris på å høre fra deg. Lenkene i teksten her er ikke å finne i selve boken, bare fotnotene

I tillegg til Amazon og eBay har særlig Google bidratt til at vi i dag utfører en rekke gjøremål annerledes enn tidligere. Oppbyggingen av gode søketjenester har vært viktig i utviklingen av tjenester på nettet.

Hver gang vi bruker Googles søketjeneste kontrollerer selskapet også hva vi faktisk får se på skjermen. Hvilke av de gjenfunnede elementene skal vises først? Hvordan skal reglene for sortering være? Og hva kan vises i tillegg til funnene fra søket? Slike spørsmål ble viktige i utviklingen av Googles tjenester.

Når det er så enormt store datamengder som faller innenfor rammene av hva vi har søkt etter, blir evnen til å sortere på relevans svært viktig. Tradisjonelt har bibliotekarer vært opptatt av å måle gjenfinningsgrad og presisjon. Gjenfinningsgraden viser hvor stor andel av de aktuelle dokumentene en har funnet. Etter hvert som universet av aktuelle dokumenter vokser, blir det imidlertid viktigere å finne de mest relevante treffene enn å finne alle aktuelle. Presisjon blir viktigere enn gjenfinningsgrad.

Google ble skapt av Sergej Brin og Larry Page med utgangspunkt i arbeider de gjorde som studenter på Stanford. De var 22 og 23 år gamle da de lagde en søketjeneste de kalte BackRub. Siden endret de navn til Google, som egentlig var et ordspill skapt med utgangspunkt i googol, det tallet som har hundre nuller etter 1. Historien sier at visjonen var å organisere den uendelige mengden av data som Internett var i ferd med å bli allerede på slutten av 1990-tallet. Og høsten 1998 ble de kåret til beste søkemotor av PC Magazine, som skrev at the site has an uncanny knack for returning extremely relevant results. På den tiden hadde Google indeksert 25 millioner dokumenter, et svimlende stort antall, men likevel bare en liten brøkdel av dagens mengde.

Etter hvert som forbrukerne endret vaner, og søk etter produkter og leverandører ble en vanlig del av kjøpsprosessen, ble det også viktigere for dem som skulle selge noe å bli gjenfunnet. Dermed oppstod et nytt fag, søkemotoroptimalisering. Hvordan greie å havne på toppen av Googles liste? Dette var ikke helt trivielt, siden Googles algoritmer var deres største forretningshemmelighet, og i tillegg ble endret flere ganger hver uke. Den eneste måten å finne ut hvordan en skulle komme best ut, var å eksperimentere med ulike design på nettsidene. En fant ut at den viktigste faktoren som bestemte hvem som skulle presenteres øverst på trefflistene var selve teksten som stod på nettsiden. Tekst i tittelfelt <T1> telte mer enn tekst i selve dokumentet, og tekst i starten av dokumentet telte mer enn tekst i slutten. Dermed måtte en også skrive tekstene på spesielle måter for å bli gjenfunnet. I tillegg var det også slik at sider som mange lenket til kom høyere opp på trefflistene enn sider som ingen lenket til. Dette var en genial idé. Med dette påfunnet kunne de utnytte at andre folk allerede hadde vurdert kvaliteten på nettsidene. Sider som mange lenket til, måtte jo ha et innhold som de fant attraktivt? Dette var en ny måte å utnytte nettverkseffekter på i utviklingen av digitale tjenester. Algoritmen for dette kalte Google Pagerank (sjekk nettsteds Pagerank her), oppkalt etter Larry Page.

Siden Pagerank bruker både antallet inngående lenker og et slags mål for hvilken ”status” de som lenker til siden har, er det også i prinsippet mulig å jukse seg til en høyere posisjon enn en ellers ville ha fått, ved selv å bidra til eller ved selv å opprette sider som peker til den siden en ønsker skal komme øverst i søkene, men slik optimalisering er ulovlig, så selv om det er mulig å manipulere sin Pagerank, er det bestemte regler som gjelder for tilpasningene.

Søkemotoroptimalisering handler altså om å skape nettsider som har størst mulig sjanse for å bli gjenfunnet. De som både vet at dette er viktig og samtidig skjønner hvordan de skal gjøre det vil dermed ha større sannsynlighet enn andre for å bli gjenfunnet for eksempel når forbrukere søker etter bestemte produkter, tjenester eller leverandører.

En viktig side av Googles suksess er også deres evne til kontinuerlig innovasjon, og ikke minst deres personalpolitikk. Alle ansatte kan bruke 20 % av tida si til «egne» prosjekter, og arbeidsplassene ble skapt på måter som gjorde det unødvendig å forlate dem for å ivareta daglige gjøremål. Her er barnehage, treningsstudio, frisør, hundepasser og en kantine som best beskrives som en gourmetrestaurant. Arbeidsplassene ble utformet med tanke på å fostre kreative løsninger, samarbeid og utvikling av nye tjenester. Dette siste har da også preget Googles utvikling på 2000-tallet.

De skapte Adwords, et selvbetjent annonsenettverk som plasserte annonser på søkesidene. Søkte du etter blomster i søkemotoren, fikk du annonser for blomster samtidig. Etter hvert ble annonsene også plassert på andre nettsider, på blogger og andre steder folk besøkte. Her kunne en dra fordeler av den lange halen, fordi transaksjonskostnadene ved å håndtere annonsene var redusert til nesten ingen ting.

Google bidro også til å utvikle andre forretningsmodeller for annonser. Annonsørene slapp å betale for å ha annonsene på sidene, de betalte bare dersom noen faktisk klikket på dem. Pay per klikk økte relevansen av oppmerksomhet også, og verdien av annonsene ble større for annonsørene. Produktet annonse ble endret fra å være en mulig eksponering av budskapet til å bli en faktisk respons, en aktiv handling fra disse kundene.

Annonsesystemene er siden utviklet kontinuerlig og omfatter også TV-annonser, avisannonser, annonser på mobiltelefoner og mye mer. Og ikke bare det, nesten alle inntektene til Google kommer fra disse annonsene. Googles forretningsmodell er derfor basert på du og alle som bruker Google skal klikke på annonsene. Derfor er det også viktig at de kan finne sider du vil være interessert i, slik at sannsynligheten for at du også klikker på annonsene vil øke. For å få til dette tar Google derfor også hensyn til din tidligere søkehistorie når de sorterer trefflisten. Enkelt sakt er det slik at det du har klikket på før får du mer av, noe som i seg selv kan være problematisk. Eli Pariser (2012) viste i boken Filter Bubble: How the New Personalized Web Is Changing What We Read and How We Think hvordan trefflistene hos Google og nyhetsstrømmen hos Facebook ble manipulert slik at vi stadig fikk mer av det vi tidligere hadde likt og enda verre: det andre i våre nettverk likte. Konsekvensene var at vi ble oversvømmet av ”morsomme” virale videoer av katter, barn og kjendiser, mens stoff om klimaendringer, innvandring, tigging, fattigdom og krig ble nedprioritert. Om du skulle lure på det finnes det imidlertid søkemotorer som ikke manipulerer denne feeden, for eksempel DuckDuckGo,[1] som ikke lagrer dine tidligere søk og bare har fokus på resultatene du mest sannsynlig søker etter uten fokus på at de skal selge deg noe i den samme situasjonen, slik Google gjør.

Når folks kjøpsatferd endret seg, så en også at det var behov for andre redskaper som kunne brukes til å analysere hva folk gjorde på de enkelte nettstedene. Google skapte derfor Analytics, en tjeneste som kan lage detaljerte rapporter over aktiviteter på servere. Dette er en svært viktig nyskaping fordi en nå kan finne ut hva de enkelte brukerne faktisk gjør på alle mulige nettsteder. Dermed kan en optimalisere tjenestene, slik at flere for eksempel fullfører en handel og ikke bare forlater en halvfull handlekurv.

I 2006 lanserte de Google Checkout. Finn det med Google, kjøp det med Google Checkout ble slagordet. Gjennom Checkout tok Google på seg rollen som tiltrodd tredjeperson. De tok ansvaret dersom handelen med en Googlepartner ikke forløp som forventet, og de innførte en enkel betalingsløsning. På denne måten bidro de ikke bare til å bygge ny infrastruktur for netthandel, men også med å overføre sin egen tillit til dem som tok i bruk Checkout. Checkout ble i november 2013 erstattet av Google Wallet, en tjeneste som bruker NFC (near field communication) slik at en bare trenger å holde mobiltelefonen inntil en betalingsterminal for å overføre penger. Denne tjenesten ble også integrert med Gmail, slik at brukere av Gmail faktisk kunne sende penger i en epost.[2]

Google har også vært ledende i utviklingen av en rekke nettbaserte tjenester. Dette har de dels gjort ved å utvikle selv, og dels ved å kjøpe andre selskaper og tjenester som de inkluderte i porteføljen. Gmail og Google Driv er blant eksemplene. Dette er fullverdige kontorstøttesystemer som kan benyttes av store bedrifter såvel som privatpersoner. Og det er tjenester som understøtter de nye organisasjonstypene, der nettverk, åpenhet og deling erstatter den gamle hierarkiske tenkningen som var mest framherskende i tidligere organisasjonsmodeller.

Slike tjenester er i stor grad blitt commoditytjenester, og da vil de i henhold til teorien bli gratis tilgjengelige dersom de er digitale og markedet virker fritt. Effektene av dette så vi for fullt mot utgangen av det første tiåret i det andre årtusenet, og Google var en av de aktørene som bidro til å endre det tradisjonelle konkurransebildet mest dramatisk. Pengene kom ikke lenger fra salg av produkter og tjenester, men fra annonser, fra mer spesialiserte tjenester, egne tilpasninger og så videre.

Google utviklet også tjenester for bildebehandling og video. Picasa lar deg organisere, redigere, lagre og vise fram bildene dine både på egen PC og på nettet. YouTube ble kjøpt i 2006 og inkludert i porteføljen av tjenester. Dette vokste til å bli verdens største nettverk for deling av video og film, og har bidratt til å skape helt nye sjangere av innhold basert på remix, deling og gjentatt bruk. Både den amerikanske presidenten og Paven hadde egne kanaler på YouTube.

På YouTube har over 250 millioner sett Meghan Trainor fremføre ”All About That Bass”,[3] mens bare noen få har sett hennes aller første opptreden[4] med sangen og litt flere versjonen som er spilt inn med instrumenter[5] en kan finne i mange klasserom. Og jazzversjoen? Den finnes også blant de mange cover- og remixversjonene[6] du kan se på YouTube.

Slik har Google fortsatt utviklingen. Google Earth var innovative i å kombinere satellittfoto med kart, de lagde stjernekart, kart over månen, kart spesielt for syklister og de sendte biler verden rundt for å ta 360 graders bilder. På den måten kan du faktisk oppleve en ukjent gate i en ukjent by.

Google kjøpte også Waze, en ”sosial” GPS som sender data fra brukerne til Googles servere, slik at de til enhver tid kan vite hva trafikkbelastningen er på nesten alle veier. Noen[7] har beskrevet Wase som ”crowdsoursing meets Google maps”, fordi data fra millioner av mobiltelefoner som befinner seg i trafikken blir aggregert til nyttige trafikktjenester. Slik blir ”big data” også en del av tjenestetilbudet, igjen en innovativ tjeneste som er nyttig og som lett kan finansieres for eksempel ved at brukerne får tilbud om produkter og tjenester fra tjenesteytere langs veiene vi kjører. Google bygger altså infrastruktur for nye tjenester, som kan annonsefinansieres, finansieres via alliansemodeller eller via kommisjoner fra kjøp og salg av tjenester som profileres i skjermbildene.

Denne strategien kan Google gjenta på område etter område. Derfor tilbyr de gratis verktøy der du kan tegne ditt eget hus på omtrent samme digitale plattform som arkitektene bruker. De tilbyr tjenester der du kan samle dine egne helsedata, for Google tenker langsiktig. De ønsker å fylle roller som det er vanskelig for andre aktører å fylle, og blant annet helsesektoren er en arena der det har vært svært vanskelig å bygge ut effektive IT-baserte styringssystemer. Årsakene til dette er sammensatte, men en viktig årsak er hensynet til personvernet. Dette hensynet trenger ikke Google å ta, siden de er en utenlandsk aktør i Norge og siden de baserer seg på at bruken av tjenestene skal være frivillig og skje på initiativ fra brukeren.

Med Googles kultur og historie vil de antakelig fortsette å være innovative i mange år framover, selv om denne utviklingen også har sine skyggesider. Den viktigste av disse er faren for at Google vil utvikle naturlige monopol på en rekke områder, og dermed blir fristet til å utnytte sin monopolstilling kommersielt. En annen er faren for misbruk av data om enkeltpersoner når de sitter på så store mengder detaljert informasjon om våre ulike transaksjoner. De vet hva vi søker på på nettet. Og har du installert Google på din egen desktop, vet de også hva du har på PC-en din. Bruker du gMail vet de hva du skriver epost om, til hvem osv.

George Orwells visjon om storebror blir fort bare barnematen i forhold til hva Google faktisk vet om deg og kan gjøre om de bestemmer seg for å utnytte dette på en negativ måte. Det er det imidlertid lite sannsynlig at de kommer til å gjøre, fordi det de aller mest er avhengige av, er brukernes tillit. Derfor har de antakelig ikke råd til å operere med skjulte agendaer.

[1] https://duckduckgo.com/ Lest 13.11.2014.

[2] http://www.w3reports.com/2013/05/15/attach-real-money-in-gmail-with-google-wallet/ Lest 14.11.2014.

[3] https://www.youtube.com/watch?v=7PCkvCPvDXk

[4] https://www.youtube.com/watch?v=IyVQtPkMM0M

[5] https://www.youtube.com/watch?v=lc9MzCcmNCU

[6] https://www.youtube.com/watch?v=iyTTX6Wlf1Y

[7] http://business.time.com/2013/06/10/heres-why-google-wants-to-buy-waze-a-red-hot-map-app-for-1-billion/ Lest 14.11.2014

1 kommentar

Filed under refleksjon

Cappelen med Open Access publisering

I går lanserte Cappelen at de vil samarbeide med Co-Action Publishing og Caroline Sutton om å utvikle Open Access publiseringssystemer. Prof Jill Walker Rettberg er antakelig den første i Norge som har publisert en fagbok på et stort anerkjent forlag m Open Access. Det kan du lese mer om her.

Det viktigste med Open Access er at det nå blir gratis for leserne å få tilgang til artikler som publiseres i norske vitenskapelige tidsskrifter. Forskningsrådet har stilt som krav at utgivere som mottar støtte må bruke Open Access fra 2017, så utgiverne må endre praksis.

Det betyr antakelig at vi kommer til å betale for å få artiklene våre vurdert av redaksjonen, peer reviewed og publisert. Gjennom å digitalisere selve arbeidsprosessene kan forlagene spare noe ressurser, dessuten er det jo stort sett ansatte ved universiteter, høgskoler og forskningsinstitutter som skriver slike artikler, og det er deres kollegaer som er fagfeller, så mesteparten av arbeidet gjøres av offentlige ansatte. Nå som vi ikke lenger trenger grafiske designere, det administrative koordineringsarbeidet blir mindre og systemene håndterer selve publiseringsprosessen, er det andre egenskaper vi kommer til å etterspørre. Feks kunnskap om hvordan en skal greie å spre kjennskap til artiklene. Og her kommer antakelig sosiale medier inn. Da må vi forskere bli flinke til å bygge nettverk gjennom Twitter, Facebook og LinkedIn slik at mange også kommer til å lese artiklene våre.

Når folk handler på Amazon, gjøre over 1/3 av handlene ut fra venners anbefalinger. Slik kommer det til å gå med tidsskriftene også. Lenker vi sender til hverandre med anbefaling om hva våre venner bør lese blir viktige. Det samme blir ulike kuratortjenester som Scoop og Paper.li.

Så gratulerer til Cappelen som tar tyren ved hornene. Jeg jobber med en bok om digital forretningsutvikling som kommer på Cappelen til våren. Jeg håper vilkårene for å publisere den kan endres fra de tradisjonelle standardkontraktene, og at forlaget faktisk bidrar i en større del av verdikjeden, også etter at selve bokmaterialet er ferdig. Men det skal jeg skrive mer om en annen gang.

Legg igjen en kommentar

Filed under refleksjon

Amazon forstått i norsk perspektiv

Amazon

Amazon var lenge forbildet for dem som skulle starte netthandel, og virksomheten har siden starten i 1995 vært drevet av vekst, innovasjon og kontinuerlig forretningsutvikling. I boken om grunnleggeren Jeff Bezos forteller Ann Byers (2006) at Bezos valgte navnet Amazon fordi dette var verdens største elv. Han hadde lest om at oppstarten av Apple ble gjort i en garasje og ønsket å gjøre det samme selv. Kontorpultene lagde han av to dørblader og noen meter 2”*4”, fordi det hele skulle se enkelt ut. Bezos visste hva han ville og han visste en ting til: at han ville bli kopiert.

Butikken begynte som en ren bokhandel på nett og vokste raskt, ikke minst grunnet det store utvalget av bøker, gode logistikksystemer og svært gode systemer for å finne fram til aktuelle boktitler.

Amazon begynte tidlig å bruke en teknologi kalt collaborative filtering, som bygger på statistikkens clusteranalyse. Denne teknikken går ut på å analysere dataene med tanke på å finne grupper av brukere som er like på en eller annen måte. Det kan være at de har kjøpt de samme varene, at de har sett på de samme bøkene i nettbokhandelen, at de har oppgitt å ha de samme interessene, eller noe annet som binder dem sammen.

Når jeg ser på en boks nettside, vil systemet alltid komme med anbefalte bøker som også kan være av interesse. «De som kjøpte denne boken, kjøpte også …», og så listes gjerne flere alternativer opp. Disse bøkene er ikke tilfeldig valgt, men hentet fra det clusteret av kunder som har kjøpt den første boka jeg så på. Dermed er det også relativt høy sannsynlighet for at jeg vil fatte interesse for de bøkene som anbefales. Dette systemet har Amazon vært en foregangsbedrift både i å bygge ut og benytte i handelsløsningen sin, og det er dette som i stor grad også har bidratt til long-tail-økonomien.

Ideene bak ”den lange halen” ble analysert av prof Erik Brynjolfsson (2013) ved MIT og kollegaer som studerte den økonomiske effekten av at bokhandlere økte varetilbudet i nettbutikkene. De fant at de bøkene som solgte bare i noen få eksemplarer var svært viktige for butikkens økonomi, og siden nettbutikker kunne ha et betydelig større vareutvalg enn de tradisjonelle bokhandlerne kunne ha, ble også de økonomiske konkurranseparametrene forskjellige. Dette ble nærmere analysert av Chris Anderson (2006) i boken The Long Tail: Why the Future of Business Is Selling Less of More. I denne boken fant Anderson at nettbutikkenes mulighet for å håndtere bøker som selges i få eksemplarer med lage kostnader var en enorm konkurransefordel, og ikke bare det: Det var også slik at anbefalelsesalgoritmene satte bøker som var gitt ut for lang tid tilbake i sirkulasjon igjen, fordi de ble assosiert med nyutgitte bøker. ”Den lange halen” har dermed vært en viktig årsak til den enorme veksten Amazon har stått for.

Amazon var også tidlig innovative på andre områder, og grunderen Jeff Besos ble kåret til årets person av Time Magazine i 1999. Blant annet var de først ute med å lansere one-click-shopping. Det vil si at når du er registrert i databasen og har funnet en aktuell bok du vil kjøpe, trenger du bare å klikke på one-click-ikonet, så får du varen rett hjem i postkassen til deg. Dette er en forretningsprosess som ble designet for å gjøre det lettere å fullføre netthandelen. Studier av trafikken på serverne viste nemlig at langt de fleste som puttet bøker i handlekurven, ikke fullførte handelen, men avbrøt den. Så mye som 60–85 % av brukerne gjorde dette. Andelen som gjorde dette ble signifikant mindre etter at enklikksmekanismen ble innført.

Amazons historie er også en historie om kampen mellom nykommeren i markedet og den etablerte aktøren, Barnes and Nobles (BN), med over 1000 bokhandlere over det meste av USA. Og en av de første disputtene kom til å stå om one-click-fenomenet.

BN hadde nemlig lansert en tilsvarende mekanisme, som de kalte Express lane, en slags hurtigkasse. I express lane kunne kundene putte varene i handlekurven og trykke på express-lane-ikonet når de var ferdige, så ble varene sendt rett hjem til kjøperen. De hadde med andre ord lagd et tilsvarende system som det Amazon hadde.

Bare 23 dager etter at Amazon hadde fått sitt patent, saksøkte de BN for bruken av sin express lane, og resultatet ble at BN måtte fjerne denne mekanismen fra nettbutikken sin, etter å ha klagd saken inn for en appelldomstol.

Amazon var også spesiell i utviklingen av sine forretningsmodeller. De kalkulerte allerede fra starten med at det ville gå mange år før de kom til å tjene penger, så de var i startfasen svært avhengige av investorenes tillit både til organisasjonen og forretningsmodellen. Først i slutten av 2002 greide de å skape et overskudd på den løpende driften.

En annen side ved Amazon var at de raskt utfordret det etablerte bransjebegrepet. En bokhandel drev tidligere ikke med annet enn bøker og kanskje papir og kontorrekvisita, men Amazon startet med salg av musikk CD-er, video og DVD og etter hvert også med forbrukerelektronikk, leker, sportsutstyr, smykker og klokker, musikkinstrumenter og mange andre produkter. De ble mer et handelshus enn en bokhandel, og utfordret derfor også aktører innen mange bransjer med sine lave priser og effektive distribusjon.

I 2001 lanserte Amazon en markedsplass som gjorde at også private personer kunne bruke systemene til å selge brukte bøker og andre artikler. Den gamle bokhandelen var dermed også blitt til et distribuert antikvariat, der bøkene befant seg hjemme hos de enkelte eierne, men der registeret over dem var koblet til Amazons katalog.

Fra starten var også Amazon først med å etablere affiliate nettverk. Dette begynte med en dame som nylig var blitt skilt og som hadde leste «alle» bøkene om skilsmisse. Da fant hun ut at noen var gode og andre dårlige, og på sin nettside lagde hun også lenker til de aktuelle bøkene på Amazon. Da hun så hvor stor trafikk det var fra sin egen nettside til Amazon, tenkte hun at det ville være rimelig om Amazon ga henne en kompensasjon for at hun sendte kunder til dem. Hun skrev et brev til Besos og fikk en avtale om å bli Amazon affiliate. For hver kunde som kom fra hennes nettsted og kjøpte en bok eller flere på Amazon, fikk hun inntil 10 % av kjøpesummen. Ifølge Amazon hadde de i 2007 omtrent 900 000 associates over hele verden, og hele 40 % av salget kom fra dette nettverket. Dette systemet ble utvidet gjennom tjenester der affiliatene kunne lage en liten nettbutikk på sine egne nettsider og selge utvalgte produkter fra Amazon på disse. På denne måten ble e-handel en plugginnmodul som kunne knyttes til alle mulige nettsystemer, enten dette var enkle blogger eller mer sofistikerte publiseringsløsninger.

Hvis en ikke ville nøye seg med en slik enkel løsning der Amazons egne produkter selges, kunne en gjøre bruk av Amazons WebStore[1], der en kunne skape sin egen nettbutikk drevet av Amazons teknologi. For 60 dollar i måneden kunne en ha et ubegrenset antall «egne» butikker med egen layout og logo, og en betalte i tillegg 7 % av omsetningen i avgift, en avgift som inkluderte både kredittkortkostnader og forsikring mot svindel. Prisene på tjenesten indikerer at commodifiseringen av slike tjenester hadde kommet langt. I 2014 kostet det 79 $ pr måned å ha butikken, mens den variable kostnaden var sunket til 2 % av omsetningen. Amazon ble dermed ikke bare en nettbutikk, men også en leverandør av infrastruktur for netthandel.

Både affiliateordningen og anbefalingssystemene er teknologier og organisatoriske mekanismer som gjør bruk av nettverksøkonomiens prinsipper. På denne måten bidrar de begge til å skape eksponentiell vekst, og er med på å forklare hvorfor Amazon har greid å bli verdens største handelshus på nett. En annen mekanisme som understøtter det samme, er anledningen til å lage omtaler av produktene eller til å publisere dine «topplister». Her er det brukernes egne data som danner grunnlaget for produktvalget, og jo flere brukere av nettstedet, jo flere omtaler av bøkene fikk en også. Disse dataene har vært viktige for kundene med tanke på hvilke produkter de skulle velge.

Både en bok og en CD har preg av å være erfaringsgoder. Det vil si at du kan ikke se på utsiden av den om den er god eller faller i din smak. Du må faktisk konsumere den, på samme måte som du må med mat, for å se om det er noe du liker. I de fysiske butikkene kan en jo prøvesmake mat, før en kjøper det en vil ha med hjem, og en kan prøvelytte på musikken. Problemet på nettet er at hvis du først får høre hele musikkstykket eller lese hele boka, trenger du jo ikke å kjøpe det, for når det er digitalt, er det alltids måter å lagre det på på egen maskin.

Amazon innførte imidlertid i 2003 en mekanisme som gjorde det mulig å søke i teksten i bøkene. I 2007 ble det mulig å søke i fritekst i mer enn en kvart million bøker fra over 130 forlag. For å unngå å bli saksøkt for ulovlig distribusjon av materiale som er beskyttet opphavsrettslig, utviklet de teknologier som begrenset hvor mange sider en enkelt person kunne få se uten å betale for det, og som slo av print-funksjonen på datamaskinen som ble brukt til å se på sidene.

Ett av særtrekkene ved Amazon er den kontinuerlige innovasjonen som de har drevet helt siden starten. I 2005 etablerte de sin egen varemerkeserie, Pinzon, med produkter innen tekstil- og husholdningssegmentet. En interessant historie her er hvor selve navnet Pinzon kommer fra og hvordan det er knyttet til Amazon. Vicente Yáñez Pinzón var en spansk oppdagelsesreisende som oppdaget Amazonelven, så forbindelsen til Amazon er altså rimelig tydelig.

Siden har Amazon skapt S3, som er en servertjeneste som gjør det enkelt å lagre store datamengder for dem som tilbyr tjenester på nettet. Denne servertjenesten brukes av en rekke store bedrifter, slik som Dropbox. Tjenesten gjør at også norske digitale tjenesteytere kan lagre sine data og installere nødvendig software på serverne. Etter hvert som de trenger mer kapasitet på lagring og databehandling kan de bare koble dette inn på svært enkle måter. Slik kan en bygge tjenester som er svært skalerbare, om en har globale ambisjoner, eller om en ønsker å lave kostnader på teknologisiden i en oppstartsfase.

Amazon har også etablert FPS, Flexible Payment Service[2], en egen betalingstjeneste som gjør det mulig å benytte forskjellige betalingsmodeller, blant annet mikrobetalinger. Unbox ble lansert i mars 2007, en tjeneste som gjør det mulig å leie video på nettet, og i september samme år lanserte de sin egen musikkbutikk, der du kunne kjøpe MP3-filer., CDer eller vinylplater dersom dette er tilgjengelig. Unbox er senere blitt til Amazon Instant Video.[3]

Innovasjonen av forretningsmodeller for distribusjon av varene har fortsatt gjennom utviklingen av Prime, et system som gjør at du får gratis eller redusert frakt på varer du handler. Dette var i 2007 innført i USA, Japan, England og Tyskland, senere Italia, Canada og andre land..

En organisasjon som Amazon kan lett ses på som både imperialismens og kommersens høyborg, men de etablerte faktisk allerede i 2001 et honor system som gjør det mulig å donere penger til ulike formål. I 2004 kunne en for eksempel donere penger til de amerikanske presidentkandidatenes kampanjer, til veldedige og humanitære organisasjoner som Røde Kors, eller som hjelp i forbindelse med katastrofer som orkanen Katarina, til 11. septemberofrene eller en rekke andre formål. I løpet av ett år ga over 160 000 personer i alt mer enn 13 millioner dollar bare til Røde Kors. Amazon framstår dermed også som mye mer enn en kommersiell organisasjon, og greier med dette ikke bare å samle inn penger til ulike gode formål, men også å vise at de er seg sitt samfunnsansvar bevisst.

Den store innovasjonen i 2007 var lanseringen av Kindle, en leseplate for bøker. Faktisk var den noe langt mer enn dette, den varslet starten på en revolusjon i forlagssektoren, en omveltning på linje med MP3-spillernes påvirkning på musikksektoren.

Kindle var utstyrt med en høyoppløselig skjerm som gjorde det mulig å lese med god ergonomi. Alle bøker skulle være tilgjengelige i løpet av maksimum ett minutt, og de fleste skulle ikke koste mer enn 9.99 dollar et prinsipp som senere er forlatt. I tillegg ble tjenesten integrert med sosiale medier og en kunne enkelt dele sitater og refleksjoner med andre lesere. Kindle selv kommuniserte i USA trådløst med Amazons servere over telenettet, og var derfor uavhengig av tilgang til Internett gjennom en PC eller trådløs sone.

Kindle ble starten på på utvikling av en rekke ”dingser” som skulle skape bedre opplevelser og enklere tilgang til det digitale innholdet enn hva de andre gjorde. Amazon lagde både en tablet-PC, en telefon og TV, de siste lansert i 2014.

I tillegg har de aktiviteter på en rekke andre områder. De har utviklet TV-serier med ambisjon om å etablere egne produksjoner, de har etablert Amazon Game Studios med tanke på å utvikle dataspill, et marked som for øvrig er større enn musikkmarkedet globalt. Spillmarkedet er så stort at Grand Teft Auto alene omsatte mer den første måneden etter at det var lansert enn musikkbransjens samlede globale inntjening.[4] Ved inngangen til 2015 regnet Gartner med at dataspill omsettes for mer enn 100 milliarder dollar årlig, langt over både film- og musikkbransjens omsetning. Så det er ikke så rart at Amazon ønsket en bit av dette markedet også.

Amazon har lyktes med det meste de har startet med, og de har vært normdannende for forståelsen av hva e-handel egentlig handler om. Det handler ikke primært om å kunne putte varene i en digital handlekurv etter mønster fra de fysiske butikkene, men om å etablere en helt ny kjøpsprosess og kjøpsopplevelse, basert på de digitale teknologienes egenskaper og muligheter og på nettverksøkonomiens og den digitale økonomis premisser.

En «fiasko» har de imidlertid, og det var etableringen av en egen auksjon i 1999, den fikk de aldri suksess med. Denne nisjen var okkupert av en annen aktør som også hadde ambisjoner om å bli stor, eBay. De har også vært kritisert for å gi sine ansatte dårlige arbeidsforhold, og særlig i Tyskland har dette fått stor oppmerksomhet og en stor andel av de ansatte har streiket en rekke ganger i protest mot ansettelsesvilkår og arbeidsforhold.[5] Ved lageret i amerikanske Allentown blir de ansatte undersøkt med metalldetektorer og deres personlige eiendeler undersøkt både når de går til lunch og når de slutter for dagen, en undersøkelse som innebærer at de må stå i kø mellom to og tjue minutter hver gang.[6]

Amazon har også vært kritisert for at de har lansert for aggresive kjøpsmekanismer i apps rettet mot barn, der barn har kjøpt tilleggstjenester og funksjonalitet i spillene uten at deres foresatte har visst om det.

Kanskje er utviklingen en funksjon av at Amazon er blitt så enormt store, at det er nødvendig med omfattende kontrollmekanismer for å sikre en forsvarlig drift og at det er vanskelig å unngå enkelte overtramp i virksomheter som er så omfattende? Kanskje er det også en funksjon av at Amazons forretningsstrategier er endret. Sommeren 2014 opplevde for eksempel forlag som ikke ga etter for Amazons prispress at deres bøker ble ”forsinket” eller var meldt midlertidig utsolgt. Eller har det kanskje skjedd noe med Bezos holdning til sine forretningspartnere, noe i alle fall dette sitatet fra The New Yorker kan tyde på, – ”that Amazon should approach these small publishers the way a cheetah would pursue a sickly gazelle”.[7]

[1] http://webstore.amazon.com/ Lest 12.11.2014.

[2] https://payments.amazon.com/help/81845 Lest 12.11.2014.

[3] http://www.amazon.com/Instant-Video/b?node=2858778011 Lest 12.11.2014.

[4] http://www.metalinjection.net/videogames/grand-theft-auto-v-outsells-entire-music-industry Lest 12..11.2014.

[5] Se for eksempel dette oppslaget i WSJ http://online.wsj.com/articles/amazon-workers-in-germany-extend-strike-action-1401725008 Lest 12.11.2014.

[6] http://www.newyorker.com/magazine/2014/02/17/cheap-words?currentPage=all Lest 12.11.2014.

[7]

Denne teksten er utkast til et delkapittel til boken «Forretningsmodeller og forretningsutvikling i det digitale nettsamfunnet (arbeidstittel) som skal komme ut før sommeren 2015. Er det noen som har forslag til endringer og forbedringer?

1 kommentar

Filed under refleksjon

Læringsanalyse som nytt fag

Kronikk publisert i Adressa 5.11.2014 og Gemini 6.11.2014

Tenk om alle bøker, aviser og tidsskrifter du har lest kunne «lagre» blikket ditt. Om de «visste» hvor lang tid du har brukt på hver artikkel, hver side, hvert avsnitt.

Og tenk deg at denne informasjonen ble lagret for alle lesere og at den var tilgjengelig for forfatterne og forlagene. Da kunne en finne ut hva vi likte og ikke likte å lese, hva vi skjønte fort og hva vi måtte lese flere ganger før vi forsto det. Dette er hva som skjer når vi leser i digitale medier. Og analysen av disse dataene er i ferd med å skape et nytt fag, læringsanalyse.

Digitale læremidler og læreprosesser etterlater digitale spor, smuler som vil forme mønstre når vi studerer tusenvis av personer som har gått gjennom sidene. Hva kan vi bruke dem til, og hva kan vi lære av dette?

Det første er at vi kan finne ut hva det er lett å lese, hva det er lett å lære noe av og hva vi bør forsøke å forbedre. Dette kalles for diskursanalyse, en analyse som har som mål å forbedre læremidler. Ved å koble oppgaver som registrerer studentenes forståelse med tekstene og læringsobjektene som var grunnlag for selve læreprosessen, kan vi gradvis luke ut eller forbedre forklaringer som ikke gir tilstrekkelig klarhet. Slike analyser brukes både av Amazon og av Netflix, disse siste når de skal forbedre filmer og TV-serier, eller skape helt nye slik som House of Cards. Denne serien er utviklet blant annet gjennom å analysere stordata der seervaner fra 33 millioner Netflixbrukere danner grunnlaget for design av serien. Slike analyser vil også bli brukt i design av fremtidens læremidler.

Adaptiv analyse handler om å tilpasse læremidler individuelt til dem som skal lære. I en adaptiv analyse kartlegges studentenes kunnskap eller kompetanse om et emne, slik at de kan få tilbud om nøyaktig de læringsobjektene som er ment å fylle kompetansegapene. Slike analyser kan også «lære» av tidligere studenter som har vært i samme situasjon tidligere, en kan analysere hvilke læringsløp som har fungert best for disse og foreslå den samme læringsløypen for nye kandidater.

Adaptiv analyse handler om å finne grupper av brukere som er lik hverandre, omtrent slik Amazon og de store handelsaktørene gjør når du handler på nett. Da får du se at «de som har kjøpt dette produktet har også kjøpt …» og så får du gjerne tre valg. I praksis gjør en bruk av statistikkens clusteranalyse og det som er kalt «recommender engines», -algoritmer som kan gi forslag til hvilke valg du bør gjøre basert på erfaringer fra andre brukere. Dette gjør Tripadvisor, Netflix, Spotify og en rekke andre aktører allerede i dag, så hvorfor ikke gjøre det med læremidler også?

Et tredje tema i læringsanalysen handler om å forstå sosiale nettverk. Fra teorier om læring vet vi at sosial samhandling er viktig i mange situasjoner, og at det å delta i slik samhandling har verdi også utover det rent læringsmessige. Gjennom å analysere samhandling i nettverk, som nye digitale læringsressurser bidrar til å utvikle og ta i bruk, kan vi også finne ut hvem som står utenfor det sosiale fellesskapet, hvem som påvirker hvem, hvem de ulike bruker tid sammen med og mye mer. Dette kalles sosial nettverksanalyse og vil kunne være en integrert del av et «intelligent læringsløp».

Til sammen gir disse tre analysemetodene muligheter for å skape helt nye læreprosesser og læresituasjoner. For å greie å få til dette i praksis trenger vi også flere typer kompetanse. Vi trenger kunnskap om hvordan ulike mennesker lærer best i ulike situasjoner og teorier om læring. Vi trenger også noen som kan lage algoritmene som analyserer stordataene som etterlates når tusenvis av mennesker skal lære omtrent det samme. Derfor må pedagoger, psykologer, matematikere, informatikere og kybernetikere samarbeide om å lage de nye løsningene.

I prosjektet «smart læring» ved NTNU har vi intensjon om å få til et slikt samarbeid. En slik satsing er også del av NTNUs nye strategiske satsingsområde, der «muliggjørende teknologier» er ett av flere hovedområder. Også norske bedrifter er invitert til å være med i utviklingen, og Gyldendal er allerede i gang med å utvikle adaptive læresystemer i matematikk for grunnskolen i samarbeid med den ledende amerikanske aktøren på området, Knewton.

For å skape fremtidens gode skole trenger vi mer kunnskap om slike læreprosesser, om hvordan digitale tjenester kan bidra til bedre læring og ikke minst: hvordan vi skal greie å ta dette i bruk i større skala i norsk skole. Kan hende er det teknologi og ikke sideblikk til den finske skolen som er medisinen for å gjøre det bedre i Pisa også?

Et utvalg har foreslått at det etableres et senter for læringsanalyse i Norge, slik at vi kan arbeide systematisk med å utvikle det teoretiske grunnlaget for systemene, samt etablere en praksisnær utviklingslab med nærhet til norsk skole. Et slikt senter kan involvere bedrifter som arbeider med utdanningsteknologi, for det finnes rundt 30 bedrifter i IKT-Norges gruppe for EdTech. NTNU ønsker å bidra til en positiv utvikling på dette feltet i samspill med andre berørte aktører.

Legg igjen en kommentar

Filed under refleksjon