Magma topp logo Til forsiden Econa

Gjermund Lanestedt er seniorrådgiver i Guide Consulting A/S. Han er cand. agric. fra Norges Landbrukshøgskole og har en Master of Managementgrad fra Handelshøyskolen BI. Lanestedt har tidligere bl. a. vært IT-sjef i Miljøverndepartementet.

Bendik Bygstad er IT-sjef ved Teknologisk Institutt og høgskolelektor II ved Den polytekniske høgskolen. Han har en magistergrad i sosiologi, og har tidligere arbeidet som rådgiver bl. a. i ISI A/S.

Ti år med PC-er og klient/server-teknologi

et eksperiment til 150 milliarder kroner?

De siste 15 årene har kontorsektoren investert tungt i IT, særlig i PC-er i nett med Microsofts programvare. For kontorarbeidere i rike land er nå Office-produktene standardutrustning. Men det er vanskelig å påvise de forventede gevinstene av denne satsingen. Dette er av analytikere kalt «produktivitetsparadokset». Denne artikkelen lanserer en forklaring på dette paradokset som i enkelhet går ut på at vi i overgangen fra sentraliserte løsninger til PC-basert IT-miljø valgte feil teknologi. Vi vil forsøke å vise hvordan dette var et feilgrep, og se på motivene hos aktørene i beslutningsprosessene. Deretter skal vi forsøke å beregne hva feilgrepet har kostet det norske samfunnet.

«Selv etter ti års forbedringsarbeid er PC-en i dag fortsatt upålitelig.»«De store investeringene har rett og slett ikke gitt avkastninger i den grad en har forutsatt, fordi teknologien medførte store interne, ikke-planlagte kostnader.»

HVA KOSTER EGENTLIG IT?

Det foreligger flere mer eller mindre systematiske undersøkelser av hva informasjonsteknologien koster virksomhetene. Bransjens mest refererte kostnadsmodell utarbeides av analysefirmaet Gartner Group, som opererer med begrepet Total Cost of Ownership, eller TCO. For den teknologien som er dominerende i bedriftsmarkedet i dag, nemlig lokalnettilknyttede PC-er med klient/server-løsninger, beregner Gartner Group at kostnaden per PC og år ligger på oppimot 100 000 kroner. For de som har registrert at PC-prisene har sunket de siste ti årene, kan dette virke mye. Gartner Group inkluderer selvsagt både maskin- og programvare samt vedlikeholds- og administrasjonskostnader. Størstedelen av kostnadene ligger imidlertid hos sluttbrukeren selv. Kostnader her knyttes typisk til opplæring, brukerstøttebehov, nabohjelp og feil bruk av utstyr og løsninger. Det må nevnes at Gartner Groups TCO-begrep representerer et kvalifisertanslag og ikke noen vitenskapelig formel eller metode. Mange mener likevel at det er det beste vi har, og TCO er som begrep bredt anerkjent i IT-bransjen. Vi legger dette til grunn for våre beregninger.

KORT HISTORIKK: FRA STORMASKIN TIL WEBTEKNOLOGI

Det synes nødvendig å sette klient/server-teknologien inn i et historisk perspektiv. I grove trekk kan vi nå identifisere fire generasjoner informasjonsteknologi. Disse er vist i tabell 1.

De ulike teknologigenerasjonene har hatt sine spesielle kjennetegn, kostnadsmodeller og tidstypiske drivkrefter. Vi skal her se spesielt på det vi kan kalle klient/server-perioden (1988-98). Klient/server er en teknologi hvor maskiner med egen prosesseringskapasitet (PC-er) ute hos brukerne samspiller tett med sentrale tjenermaskiner som ivaretar felles funksjoner som tilgang til programvare, datalagring, backup, kommunikasjon, utskrift etc. Samspillet foregår over et lokalt datanettverk som tillater et samvirke mellom PC-ens (klient) og sentralmaskinenes (server) operativsystemer. Programvaren som benyttes, er designet for å utnytte de ytelsesmessige og andre fordelene som oppgavedeling mellom PC og sentralmaskin har.

figur

Tabell 1: Fire IT-generasjoner

1988-98: TI ÅR MED KLIENT/SERVER

På slutten av 80-tallet var PC-en introdusert, men ennå ikke anerkjent. Dominerende teknologi var sentrale minimaskiner og «dumme» terminaler. Skjermene var grønne og applikasjonene nokså grå, og brukernes sult etter grafikk og mer spennende programvare var økende. IBMs PC kom i 1981. Den ga muligheter for en global programvareindustri. Brukerne oppdaget dette og begynte å kjøpe PC-er på lokale budsjetter. Lokalt anskaffede PC-er skapte gradvis et press på EDB-avdelingene. Fra 1988 steg PC-salget, blant annet stimulert av «killer»-applikasjonen Excel fra Microsoft. Ifølge salgsstatistikken ble det i tiåret som fulgte, investert minst 70 milliarder i PC-teknologien bare i Norge. Vi har valgt å dele tiåret inn i tre ulike faser med hver sine kjennetegn:

Fase 1 (1988-92): Teknologien etableres

1988: Excel 1.0.

1989: Lokalnett blir rimelig og vanlig.

1990: Microsoft lanserer Windows 3.0.

1991: Klient/server-arkitekturen slår gjennom i konsulentmiljøene.

1992: Databaseløsninger tilpasset klient/ server blir tilgjengelige.

figur

Figur 1: I fase 1 bringer ivrige pilotbrukere av PC-teknologi Microsofts programvare inn i bedriften.

Tidlig i fasen anskaffes PC-ene stort sett lokalt av entusiaster, ofte mot EDB-avdelingens ønsker. Toneangivende EDB-miljøer mener PC-ene er både gøyale og nyttige, men at den virkelige databehandlingen skjer på minimaskinplattformen. Dette endres i 1990/91, da Windows 3.0 kommer. Raskt oppdager IT-sjefer og konsulenter at nyutvikling av programvare nå skjer i PC-miljøene, og at minimaskinenes dager er talte. Det skrives nye IT-strategier som anbefaler overgang til rene PC-miljøer. Hovedargumentet er lavere investeringskostnader og mer fornøyde brukere (figur 1).

Det fantes motforestillinger. Rolf Skår, administrerende direktør i Norsk Data (ND), argumenterte for at det som virkelig var forretningskritisk, var gode, koordinerende avdelingsløsninger, og at PC-arkitekturen ikke kunne løse dette. På dette tidspunktet var de fleste ND-kundene leie av skyhøye priser og monopolistisk arroganse, og de ønsket seg ut av NDs klør. Skår ble derfor ledd ut av en hel bransje, og bunnen gikk ut av selskapet i 1989/90.

Fase 2 (1993-95): Microsofts glansperiode

1993: Bedriftene innfører klient/server-løsninger som sentrale virksomhetssystemer. Word vinner over WordPerfect som tekstbehandler.

1994: MS Office og elektronisk post innføres i stor skala i bedriftene.

figur

Figur 2: I fase 2 (fra 1993) blir Microsoft IT-avdelingens strategiske partner. Nå blir standardisering på Microsoft-produkter sentralt

1995: I en global kampanje lanserer Microsoft Windows 95 (figur 2).

I denne perioden blir Microsoft dominerende programvareleverandør og fester grepet innenfor en rekke applikasjonsområder. IT-avdelingene må nå integrere PC-miljøet med de mer virksomhetskritiske anvendelsene. Dette er vanskelig, men løses i stor grad gjennom å standardisere på Microsoft-produkter der de finnes. Microsoft tilrettelegger for denne prosessen gjennom lavere programvarepriser. Leverandører av administrativ programvare, f.eks. IBM, SNI og Agresso, legger i perioden om programvarestrategien slik at systemene nå kan kjøres på klient/server-teknologi og integreres med Microsoft-produktene. Det er nesten for godt til å være sant - en slags dataalderens nirvana: Brukerne får et mangfold av programvare, mens IT-avdelingene knytter ressursene sammen i stadig bedre og billigere nettverksløsninger.

figur

Figur 3: I fase 3 dominerer Microsoft bransjen. Problemene blir tydeligere, og i tillegg til legale problemer i USA taper de tillit hos brukere og IT-avdeling

Fase 3 (1996-98): PC-krisen

1996: Net-PC lanseres som alternativ til den «fete» og komplekse Microsoft-PC-en. Webleserkrigen mellom Netscape og Microsoft starter.

1997: Java slår gjennom som alternativt teknisk miljø.

1998: Microsoft lanserer Windows Terminal Server. Formålet er å få PC-en til å fungere som en minimaskin!

I 1996 har Microsoft erobret posisjonen som verdens ledende IT-firma, og Bill Gates er blitt verdens rikeste mann. Men problemene med teknologien blir nå synlige. I stedet for at Microsoft-standardiseringen stabiliserer teknologien, skjer det motsatte: PC-miljøene forblir teknisk ustabile, og flommen av nye versjoner oppleves i økende grad som et administrativt mareritt for IT-avdelingene og etter hvert også for brukerne.

Samtidig kommer Internetts gjennombrudd med en helt ny teknologi (web), som raskt framstår som et alternativ til Microsoft. På disse utfordringene svarer Microsoft, som de har hatt for vane, aggressivt med nye produkter og lave priser. Det er karakteristisk for Microsofts evne til å omstille seg at de kun brukte noen måneder på å forstå at de hadde undervurdert Internett-teknologien, for deretter å lansere egne produkter (MS Explorer). Stemningen ble likevel en annen. Amerikanske myndigheter starter med basis i antitrustlovgivningen en prosess mot Microsoft, og nettet oversvømmes av anti-Bill-Gates-vitser. På et par år er Microsoft gått fra å være problemløseren til å bli en skyteskive.

HVA ER EGENTLIG GALT MED PC-TEKNOLOGIEN?

For oss er det i dag klart at klient/server ikke bare er en dyr og problematisk teknologi, men at den i utgangspunktet erfeil utformet og svært krevende å administrere på en god måte i større nettverksmiljøer. Hovedproblemet er at PC-en er nettopp det forkortelsen står for, altså enpersonlig computer. Den var egentlig aldri laget for å operere i et sammensatt driftsmiljø. Når den likevel ble brukt til dette, tok ikke Microsoft fullt ut konsekvensene av det, men videreutviklet teknologien med hovedfokus på personlig produktivitet. Dette forklarer de formidable administrasjonskostnadene.

For det første ble PC-ens programvare utrolig kompleks. Den skal bl.a. samspille med databaser på sentrale servermaskiner. Siden det meste av programvaren ligger lokalt, blir hundrevis av små programfiler etter hvert strødd rundt på harddisken. En liten endring på en av disse kan gjøre hele PC-en ustabil. Selv etter ti års forbedringsarbeid er PC-en i dag fortsatt upålitelig. Dette har produsert mye adrenalin hos Windows-brukere rundt om i verden - og et betydelig behov for systemstøtte (support).

For det andre skapte det en vanskelig situasjon for IT-avdelingen: Hver gang det skal innføres en ny versjon av programvaren (og i et vanlig driftsmiljø skjer dette ofte), må deler av programmet installeres fysisk påalle PC-ene. Installasjonen kompliseres gjerne av at brukerne har foretatt egne installasjoner, og tar gjerne en time per PC. Senere kom programvare som foretar «automatisk» installasjon, men miljøet rundt denne programvaren er så komplekst at den er kilde til en rekkenye problemer ...

For det tredje ble PC-en svært sårbar for kreativ klåfingrethet: Det finnes knapt to like PC-er i bedriften etter at brukerne har «forbedret» PC-en med nedlastede filer, programmer fra sønnen eller skjermsparere fra leverandøren. Resultatet er etter en tid at PC-en blir ustabil, begynner å «gå i heng» og gir ubegripelige feilmeldinger (av typen«Programmet har gjort en ulovlig operasjon og vil bli avsluttet»). Hva skjer da? Først ringer brukeren supportpersonalet, som ikke svarer siden de er opptatt med lignende problemer andre steder. Så forstyrres kollegaene, som strømmer til for å banne over PC-problemene - og står slik gamle dagers kommunearbeidere sto rundt spaden med gode løsningsforslag.

Vår konklusjon: PC-en er utmerket til hjemmekontoret, men klient/server-teknologien forbedrifter er en feildesign.

HVA HAR TI ÅR MED KLIENT/SERVER KOSTET BEDRIFTENE?

For å få et svar på dette har vi (i tabell 2) sammenstilt foreliggende salgsstatistikk og Gartner Groups TCO-modeller for ulike generasjoner av Windows-plattformen (Gartner Group 1996 og 1998).

Tabell 2: Beregnede PC-kostnader (TCO) for norske bedrifter 1989-98

Vi har her tatt noen forutsetninger: For det første har vi sagt at det ikke var PC-er før 1989, noe som selvsagt er galt. Siden vi ønsker å holde oss i nedre grense for kostnadsberegningene, antas dette likevel å være en grei forenkling i denne sammenheng. Vi har videre lagt til grunn en avskrivning av utstyret over fire år i begynnelsen av perioden og tre år i slutten av perioden. Til slutt forteller tilgjengelig salgsstatistikk (bl.a. fra PC World Express) oss at bedriftsmarkedet står for 60-70 % av PC-salget i perioden. På basis av dette har vi beregnet totalt antall PC-er solgt til norske bedrifter og de totale kostnader dette tilsvarer dersom en legger TCO-modellene til grunn. Tallene er ikke justert for endret kroneverdi.

figur

Tabell 2

På grunnlag av disse tallene og forutsetningene kommer vi til at 90-årenes «PC-eventyr» har kostet norske bedrifter ca. 350 milliarder kroner. Rundt 70 milliarder av dette har gått til PC- og programvareindustrien, kanskje først og fremst de store selskapene IBM, Intel, Compaq og Microsoft. Dette er Norges bidrag til at disse selskapene har fått en så dominerende plass i verdensøkonomien; de fire selskapene hadde i 1998 en samlet omsetning på over 150 milliarder dollar, og to av dem hører i dag med til de fem amerikanske bedriftene med størst markedsverdi. Eneren Microsoft er alene verdsatt til 418 milliarder dollar!

Resten av kostnadene, dvs. ca. 280-290 milliarder, er i henhold til Gartner Groups modell kostnader knyttet til løpende administrasjon og teknisk vedlikehold/support samt til sluttbrukernes operasjoner. Denne siste delen er den største, bortimot 40 % av kostnadene ved å ha en PC, og er knyttet til slike ting som opplæring og kurs, instruksjoner av brukere, kollega- og nabobistand, selvstudier, problemløsning, feilhåndtering/feilretting, generell «fikling» og tapt produktivitet i arbeidet. Av de totalt 350 milliarder kronene PC-eventyret har kostet gjennom disse ti årene, er altså ca. 140 milliarder brukerkostnader.

Programvareprodusentene Oracle, Sun Microsystems og IBM har lansertNC som konsept. Dette er en datamaskin som har minimalt med egen prosessorkraft, diskplass og hukommelse, og som er designet for å være tilknyttet nettverket (fortrinnsvis Internett). NC-en baserer seg i stor grad på datakraften til tjenermaskiner (servere) knyttet til nettet. Data lagres sentralt på tjenermaskinene, og nye programmer lastes ned fra tjenermaskinen. NC-en er ofte basert på prosessortypen RISC og har en webleser og et operativsystem basert på programspråket Java som sine grunnleggende komponenter. EnNet-PC er et konsept som Microsoft og Intel har lansert. Net-PC-en er en «nedskalert» PC basert på vanlig PC-arkitektur med prosessor fra Intel etc. Net-PC-en er også designet for å være tilknyttet nettet, og som NC-en har den ingen diskettstasjon, CD-ROM-stasjon eller andre ting som kan gjøre brukeren i stand til å endre konfigurasjon eller legge til filer etc. Maskinens disklager benyttes kun som mellomlager. I motsetning til NC-en har Net-PC-en Windows som operativsystem. MicrosoftsZero Administration Kit (ZAK) er en sentral komponent i denne sammenheng. ZAK gir konfigurasjonskontroll over virksomhetens PC-er og installerte applikasjoner og gjør IT-personellet i stand til å fastlegge systemprofiler, f.eks. slik at en viss gruppe brukere får «låst» sin PC til bestemte applikasjoner og derved ikke kan gjøre andre ting, slik som å benytte andre programmer, installere eller fjerne filer etc. Gartner Group (1998) viser at en teknologiplattform bestående av Net-PC-er med ZAK eller Java-baserte NC-er kan redusere kostnadene per bruker (TCO) med oppimot 35 % i forhold til en vanlig Windows 95-installasjon. Særlig vil sluttbrukerrelaterte kostnader reduseres vesentlig. Net-PC og NC er teknologier som på mange måter nærmer seg minimaskinløsningene som var vanlige på 80-tallet. TCO er et nytt og empirisk verktøy, og det er ikke benyttet til å se på kostnadene for de teknologiene som var utbredt for ti år siden (som f.eks. NDs Sintran-løsninger). Gartner Groups TCO-modeller for ulike varianter av PC-baserte løsninger er allment tilgjengelige og kjente, men det er ikke like enkelt å få tilgang til beregninger av alternative teknologier. International Data Corporation har TCO-modeller (Baptist) som viser at en NC har en totalkostnad per bruker og år som er 24 % høyere enn for et miljø basert på stormaskin og IBM 3270-terminaler. Dette innebærer at forskjellene mellom IBMs tradisjonelle kontorløsninger og den kostnadskrevende Windows 3.1 nærmest tilsvarer en dobling av kostnadene per bruker og år. En stor del av dette er kostnader knyttet til sluttbrukerrelaterte problemer. Vi går i vårt resonnement ut fra at TCO for de tidligere minimaskin- og terminalbaserte løsningene i hvert fall lå lavere enn for dagens Net-PC og NC, og mer i nærheten av andre tradisjonelle og kontormiljøaktuelle plattformer som IBM 3270 og AS 400.

Spørsmålet blir naturlig nok om vi ved å beholde 80-tallets teknologier noen år inn på 90-tallet ville spart oss for store kostnader. I etterkant er det selvsagt vanskelig å beregne nøyaktig hva et annet hendelsesforløp ville ført med seg i så måte; alternative teknologier ville også hatt en brukerrelatert kostnadskomponent. Selv om dette blir et hypotetisk resonnement, gjør vi likevel et forsøk. Sammenligner vi TCO for de teknologiene som var dominerende før 1990, med de teknologiene vi faktisk tok i bruk utover i 90-årene, får vi en indikasjon på potensialet for besparelser. På basis av ovennevte tall og beregninger kan vi si at minimaskinteknologien representerer en 40-45 % lavere kostnad enn PC-teknologien. Noen vil hevde at dette ikke er en realistisk sammenligning, fordi PC-ene hadde en lang rekke applikasjoner som minimaskinene manglet. Vi tror imidlertid at vi ville ha løst omtrent de samme oppgavene selv med færre farger og færre vinduer å klikke på. For de fleste har ikke den store programvaretilgangen PC-eventyret har skapt, egentlig endret det primære fokuset for IT-anvendelser i kontormiljøet, nemlig tekstbehandlingsverktøy og enkle kontorstøttefunksjoner som vi også hadde tilgang til på minimaskinplattformen. En stor del av de innsparingene vi her kan se mulighetene for, ville vært på kursbudsjetter, lønnsbudsjetter (støttepersonell) og bedre produktivitetsutvikling (mindre brukertrøbbel, mindre «dødtid»). En del av innsparingen ville også vært knyttet til at utstyret kunne holdes lengre i bruk enn det som er tilfelle med PC-teknologien. Hadde vi hatt is i magen da vi sto overfor valgene, ville det ha ført til en samlet kostnadsbesparelse over denne tiårsperioden på i størrelsesorden150 milliarder kroner i norske kontormiljøer! Slik sett kan vi si at det er hevet over tvil at årene 1988-98 har representert et kostbart teknologisk eksperiment.

På 80-tallet var Norsk Datas Sintran-teknologi dominerende i store deler av kontorsektoren i Norge. Det er ikke mulig å få fram TCO-tall for denne teknologien, men vi som jobbet i bransjen den gang, vet at IT-budsjettene da faktisk var noe lavere. På tross av skyhøye priser på utstyret var både maskiner og terminaler i bruk i flere år enn dagens PC-er. Da Miljøverndepartementet solgte sitt Sintran-utstyr i 1990/91, var størstedelen av terminalskjermene (som den gang kostet 20-25 000) fra 1984 og 1985. Selv om en tar hensyn til at IT-bruken var mindre utbredt i organisasjonene den gang, er det likevel et viktigere faktum at driftsorganisasjonen klarte seg med færre IT-ansatte i minimaskinverdenen. Gjennom hele 80-tallet hadde Miljøverndepartementet (med 250-300 brukere) kun 2-3 årsverk knyttet til IT, mens IT-seksjonen fra 1993 og framover omfattet 8-9 årsverk. Aller viktigst er likevel at sluttbrukerkostnadene den gang var langt mer beskjedne. Av applikasjoner var det stort sett bare Notis-WP som var i omfattende bruk. Det var svært sjelden at IT-støtten behøvde å gå ut til de ansattes kontorer for å gi støtte knyttet til bruk av utstyret eller applikasjonene. Driftsoppgavene på datarommene dominerte over brukerstøtteoppgavene.

HVA ER NYTTEN?

Så er spørsmålet: Hva har norske bedrifter og organisasjoner fått for de 150 milliardene? Noen vil hevde at vi har lært opp de ansatte, dvs. store deler av det norske folk, til å bruke moderne datateknologi. Vi vil mene at dette i tilfelle har vært en lite målrettet opplæring: Vi blir jo neppe særlig klokere av å «mekke» i og for seg. Det skulle i så fall innebære at vi ville blitt bedre bilførere av å kjøre gamle og teknisk dårlige biler, eller at vi ville bli enda bedre IT-brukere dersom PC-teknologien hadde værtenda dårligere.

Har de 150 milliardene kanskje bidratt til å gjøre medarbeiderne merkreative? Det er selvsagt vanskelig å avvise dette helt, men vi stiller oss skeptiske til at så mye teknisk og lite styrt eller målrettet fikling skulle øke kreativiteten på verdifulle områder, muligens med unntak for enkelte programvaregenier.

Nei, vi klarer ikke å se noen åpenbar nytte her; 150 milliarder synes rett og slett å ha blitt borte i tapt produksjon. Etter vårt syn er dette med på å forklare hvorfor kontorsektoren ikke har vist større produktivitetsvekst. De store investeringene har rett og slett ikke gitt avkastninger i den grad en har forutsatt, fordi teknologien medførte store interne, ikke-planlagte kostnader. I USA er produktivitetsveksten fra 1974 (da den første PC-en kom) og fram til i dag på bare 1,2 prosent årlig i snitt (Minasi 1998). Produktivitetsveksten var faktisk høyere i årene før PC-en fikk stor utbredelse.

ER VI BLITT LURT - OG I SÅ FALL AV HVEM?

Så kan man spørre: Er dette en sammensvergelse? Er vi blitt lurt av Bill Gates, Intel og Compaq til å investere milliarder av kroner i en teknologi som er en feildesign? Etter vår oppfatning er det vanskelig å laste Microsoft eller de andre kommersielle aktørene for å ha laget «det brukerne ville ha». De har, innenfor sitt konsept, utviklet en lang rekke flotte produkter. De færreste av oss ønsker f.eks. å bytte ut Word, Excel eller PowerPoint. At produsentene overutviklet og oversolgte teknologien, gjør dem ikke til kjeltringer.

Derimot ser vi konturene av et spill der aktørene bidro til svært omfattende satsinger på klient/server-teknologi i starten av tiåret, og der det er deutilsiktede konsekvensene som i dag dominerer bildet:

Microsoft ogIntel ønsket å overta IBMs hegemoni i IT-bransjen, og klarte det delvis. Microsoft er blitt verdens høyest prisede selskap. Fra midten av 90-tallet ble imidlertid problemene med denne teknologien stadig mer synlige, og mot slutten av 90-årene ble tilliten sterkt svekket. Annen teknologi (enklere og mer nettsentrisk) er nå på vei inn i bedriftene.

Databransjen, særlig konsulentfirmaene og guruene i businesstidsskriftene, var overbevist om at bransjens nirvana var i sikte. Resultatet ble en motepreget og for rask aksept av en umoden teknologi. I ettertid synes det å ha vært en utbredt og ukritisk entusiasme både i datapressen, hos kunder og leverandører med hensyn til hva nye IT-løsninger kunne bidra med for virksomhetene.

Brukerne fikk all den programvaren de ønsket, og mer til. På slutten av 90-tallet satt de fleste IT-brukere med en fantastisk kraftig datamaskin på skrivepulten - med en kompleksitet de ikke hadde bedt om, og som produsentene ikke kunne stabilisere.

IT-sjefene og deres sjefer sitter igjen med et tungt ansvar for feilinvesteringene. De lot seg presse av programvarehungrige brukere og en programvareindustri som spilte på kontorsektorens behov for produktivitetsverktøy på slutten av 80-tallet. Ledernes vilje til å avskrive tidligere minimaskinteknologi ble mer en respons på teknologiske moter og tidens strømninger enn beslutninger tuftet på gjennomtenkte lønnsomhetskalkyler. Til deres forsvar må det sies at det nok var de færreste som følte at de hadde noe særlig valg, for «alle» foretok jo de samme beslutningene.

Hva er så grunnen til denne saueflokkmentaliteten? Det er etter vårt syn urimelig å kalle Microsoft en monopolist, for det har hele tiden vært alternativer, og det finnes fremdeles en rekke bedrifter som bruker helt annen teknologi. Vi har ikke noe enkelt svar på dette, for samspillet mellom aktørene er både globalt og komplekst. Fra den enkelte virksomhets side blir teknologiskiftene ofte et spørsmål om et slags «tvunget klubbmedlemskap»: Du kan godt melde deg inn i en annen klubb (dvs. velge en annen teknologi), men det er både upraktisk og utrendy. Hvis du velger en annen basisteknologi, kan du få problemer med å utveksle data og rekruttere kompetanse, og hvis du velger en annen e-postløsning, får de andre problemer med å lese e-posten din. Dessuten må du forsvare en beslutning som er utrendy. Det blir som å ankomme Fearnley-regattaen i en seilerjakke fra Dressmann -ingen gjør det!

HVA HAR VI LÆRT?

For det første har vi lært - enda en gang - at teknologi i seg selv ikke gir nytte, bare kostnader. Vi har også lært, bl.a. av Gartner Group, at valg av feil teknologi kan medføre ikke-planlagte interne kostnader av en slik størrelse at de faktisk får nasjonale konsekvenser for produktiviteten. De teknologiene vi nå vurderer ti år etterpå, er igjen basert på minst mulig kostnad ute på kontorpultene. Teknologien er nett- og websentrert, og det snakkes om tynne klienter. «Tynn» refererer seg til at det er lite utstyr og konfigureringsmulighet på klientsiden (såkalte NC-er eller Net-PC-er), i motsetning til de «fete» PC-ene som har all verdens utstyr (CD-ROM, stor harddisk, diskettstasjon, lokalt modem etc.), en enorm lagrings- og prosesseringskapasitet og svært mange muligheter for brukeren til selv å konfigurere og utforme sin arbeidsplass. Som i minimaskinenes tidsalder fokuserer vi nå igjen i større grad på teknologiens rolle i virksomhetens forretningsprosesser og ikke så mye på hva IT-eksperter og enkeltbrukere synes er kjekt å ha.

For det andre har vi lært at skiftende allianser mellom ulike aktører og konstellasjoner er en overraskende sterk drivkraft for teknologiutviklingen. Så vidt vi kan se i den perioden vi har analysert, er disse alliansene i liten grad drevet av hva som er strategisk riktig for bedriften, men heller av kortsiktig posisjonering og interne makt- og profesjonsforhold.

Dette er en kjent problemstilling i organisasjonslitteraturen som reiser mange praktiske spørsmål. Vi vil i denne omgang nøye oss med å komme med følgende konklusjon: Det er lite sannsynlig at denne utfordringen kan løses ved enda sterkere styring og bedre forankring i toppledelsen. Vi tror at det toget er gått, fordi teknologiutviklingen går for fort og er for kompleks. Svaret blir heller å finne i en annen måte å organisere på: Investeringer i IT må i framtiden knyttes nærmere til enkeltprosjekter i forretningsenhetene, med kort avskrivningstid og gevinstrealisering som en integrert og selvsagt del av prosjektet.

Vi bør vel også tilføye at disse lærdommene representerer den dyreste voksenopplæringen i Norge i dette tiåret!

  • Galliers, B. & Baets, W. (1997):Information Technology and Organizational Transformation. London: John Wiley & Sons.
  • Haraldsen, A (1998):IT på norsk. Oslo: Tano Aschehoug.
  • Minasi, M. (1998): Just What is TCO Anyway?Windows NT Magazine, juli 1998, s. 120-121.
  • Parker, M. & Benson, G. (1988):Information economics: linking business performance to information technology. London: Prentice-Hall.
  • Gartner Groups research notes, herunder note nr. MRR-0198-05 (1998) og note nr. MRR-0396-2 (1996).
  • Baptist, Larry: Bluebird: Cost Control for client/server systems. OS/2 Bay Area User Group Home Page (www.os2baug.org).
  • Computerworld 1989/99
  • PC World Express 1997-99

© Econas Informasjonsservice AS, Rosenkrantz' gate 22 Postboks 1869 Vika N-0124 OSLO
E-post: post@econa.no.  Telefon: 22 82 80 00.  Org. nr 937 747 187. ISSN 1500-0788.

RSS