Magma topp logo Til forsiden Econa

Når virkelig verdi er så vanskelig å beregne, er det da overhodet relevant i regnskapet?

figur-author

Sammendrag

Forskningen har stort sett konkludert med at virkelig verdi er den beste målingen av eiendeler og gjeld i regnskapet. Regnskapsstandardene IASB og IFRS har fulgt dette prinsippet, og derfor krever flere og flere IFRS-regnskapsstandarder verdsettelse til virkelig verdi. Vi har nylig også fått en egen standard for måling av virkelig verdi: fair value-standarden IFRS 13. Man har konkludert med at virkelig verdi er mer relevant, selv om historisk kostbasert, for eksempel eksakt innkjøpspris, er mer pålitelig (reliable). Dette reflekteres i relevance–reliability-debatten. I de fleste tilfeller er man imidlertid som regnskapsprodusent (i mangel av markedspriser) avhengig av å gjøre egne verdiberegninger basert på estimater på fremtidige kontantstrømmer.

Nyere forskning viser imidlertid at vi er svært dårlige på å lage estimater, og følgelig svært dårlige på verdiberegninger. Det betyr at vi må regne med at mange av de balanseførte verdiene (og dermed resultatene og egenkapitalen i regnskapet) er vesentlig feil. Men hvordan kan da virkelig verdi – hvis tallene er så upålitelige – være relevant?

Artikkelen drøfter først bakgrunnen for innføring av mer virkelig verdi i regnskapet. Deretter ser vi på nyere forskning og litteratur som viser hvorfor vi er dårlige til å predikere.

1. Bakgrunn for hvorfor virkelig verdi foretrekkes i (IFRS-)regnskapene

Det man ønsker å måle i regnskapets resultat, er hvordan bedriften ‘gjør det’, mens man i balansen ønsker å se på verdiene selskapet besitter. Da er det teoretisk stort sett bare ett mål som duger; virkelige verdier og rentabilitet på virkelige verdier:

  • Rene nominelle størrelser er lite relevante: Det at bedriften bare går med nominelt overskudd, tilfredsstiller ikke en investor; han skal jo ha avkastning på kapitalen sin, avkastning på det han skjøt inn i selskapet, det han betalte for aksjene, og så videre. Da har man bare et teoretisk mål, rentabiliteten på verdiene i selskapet i forhold til investorenes avkastningskrav: Er rentabiliteten høyere enn avkastningskravet, er investor fornøyd. Er avkastningskravet ti prosent på verdier på 1 000, krever investor et resultat på 100. Er resultatet tolv prosent (120), er investor fornøyd.
  • Ut fra det ovenstående skjønner vi også at investoren er lite interessert i å måle avkastningen på historiske tallstørrelser/verdier: Da investoren satt med investeringen ved årets begynnelse, kunne han velge å selge aksjene sine. Når han så velger å sitte med aksjene ett år til, må han minst få et resultat lik avkastningskravet. Tilsvarende er det for bedriften: I teorien (og det er i teorien!) kan bedriften ved årets begynnelse velge å selge ut virksomheten sin / alle eiendelene sine eller fortsette å drive ett år til. Da må virksomheten få et resultat (lik økning i verdi av virksomheten = verdiøkning av alle eiendelene inklusive goodwill) minst lik avkastningskravet.
  • Basert på denne tankerekken bør alle størrelser i balansen ifølge teorien måles til virkelig verdi. Ved å stille et avkastningskrav til disse verdiene og den samlede verdien av alle aktiva, vet man hvilket resultat bedriften bør produsere. Akademia har vært sterkt representert i utarbeidelsen av standardene FASB og IASB, og derfor har disse teoretiske argumentene fått sterkt gjennomslag i regnskapsreglene.
  • Det skal imidlertid umiddelbart påpekes at rammeverket til IASB «Framework» ikke lister opp fair value som den foretrukne metode, men lister opp flere likeverdige målemetoder. Dette skyldes nok primært at rammeverket er flere tiår gammelt og ikke har blitt oppdatert. Ti år etter man startet oppdateringsjobben, har man fremdeles ikke klart å lande et nytt prinsipielt rammeverk. I mellomtiden har de nye standardene oftere og oftere landet på virkelig verdi som den foretrukne metode. Dette er også forankret i prinsippnotater i samarbeidsprosjektet som ble gjennomført mellom IASB og IASB for cirka ti år siden, der fair value klart utpekes som den fortrukne metode.

Imidlertid identifiserer regnskapsprodusenten og praktikeren straks noen alvorlige svakheter ved bruk av virkelig verdimåling i regnskapet:

  • Skal man måle rentabilitet og stille krav til hele virksomheten, må man få balanseført og målt alle aktiva. I ‘gamle dager’ var dette kanskje enkelt: I etterkrigstiden holdt det å få tak i produksjonsmidlene – maskiner og fabrikken – og så var markedet så desperat etter varer at de fleste verdier lå i disse harde realaktiva. Realaktiva representerte med andre ord det meste av verdien i balansen og bedriften, og kostpris (eventuelt justerte kostpriser /gjenanskaffelseskost) var et godt utgangspunkt for måling. I mange bedrifter ligger mye av verdiene i immaterielle eiendeler, som enten er svært vanskelige å måle eller er vanskelige å definere og plassere i en balanse i det hele tatt. Tenk på en snekker: Det lille han har i balansen av verktøy, er ikke så interessant; det er hans kvalifikasjoner, effektivitet, kundegruppe og så videre som skaper verdier. Vår virksomhet, EY (Ernst & Young), har nesten ikke realaktiva. Våre aktiva er våre medarbeidere og partnere, vårt renommé og varemerke, våre kunder og vår infrastruktur i systemer/nettverk/kunnskapsdeling og så videre. Tilsvarende er det for virksomheter som Google, Twitter og Amazon. Det kan og stilles spørsmål ved om måling av enkeltaktiva gir mening: I Amazon er det vel nettopp samspillet mellom kundedatabasen og markedsposisjonen samt bevisstheten om og kompetansen til å koble dette som gir verdi: Amazon utnytter sin kompetanse til å få kunder som kjøpte bok x, til å kjøpe andre bøker ved å forstå og anbefale hvilke bøker de liker. Hvordan skal man presist definere de ulike delkomponentene, og hvordan måle dem? Det er en tilnærmet håpløs oppgave! I dag har svært mange virksomheter de vesentligste verdier som ikke måles i en IFRS-balanse (inklusive egenutviklet merkevare, FoU, og så videre).figur
Figur 1: Styringsrenten og Norges Banks rentebaner.
  • Skal man måle virkelig verdi pålitelig, er man avhengig av gode målemodeller. Etter alle disse årene er vi ennå ikke sikre på hvilke måle- og verdsettelsesmodeller som er de beste eller riktigste ut fra hvordan markedet foretar prising. Er CapM egentlig en god modell som gjenspeiler investors adferd? Er en nåverdi-modell av kontantstrøm i virksomheten den rette for en aksje? For å måle forventninger investorene har til fremtidig avkastning, må vi regne på det med å bruke en modell vi tror er riktig, og dette fører til et sirkelresonnement. Når vi tester forventet avkastning i markedet, tester vi også selve modellen, og vi vet ikke hva som er riktig (Roll 1977).
  • Skal man gjøre en verdsettelse av en bedrift og teste om verdien er høyere eller lavere enn aksjekursen (med andre ord relevant måling ut fra et investorperspektiv), må man kunne lage gode prognoser på kontantstrømmer, eller resultater fremover. Som oftest gjør man det ved å se på historiske resultattrender. Men som vi skal se i det følgende: Historiske resultater som inneholder betydelige resultateffekter av (tilfeldige) verdiendringer, er dårlig egnet til å identifiserer en underliggende trend som kan brukes til prognoser.

2. Vi er dårlige til å predikere/lage estimater

Det begynte svært bra. Fra tidlig i forrige århundre ble det utviklet statistiske metoder for prediksjon: forventningsrettede kontantstrømmer (som handlet om ikke bare å velge det mest sannsynlige utfall, men vurdere sannsynlighetsfordelingene på ulike utfall), bruk av scenarioteknikker (med ulike klare alternativer, hver med sine sannsynligheter), bruk og forfining av Bayes teorem, som kan klargjøre tanken der vi ofte trekker forhastede konklusjoner. Derfor var man lenge såre fornøyd med verdsettelses- og prognosefag.

Senere forskning har imidlertid skapt sterke anfektelser når det gjelder vår evne til presis statistisk presisjon, herunder prediksjon av fremtidige resultater/kontantstrømmer (blant annet Armstrong 1986, Clement og Winkler 1986, Mahmoud 1984, Makridakis mfl. 1982, Makridakis 1986, Diefenback 1972, Michail, Asquith og Au 2002, Womack 1996).

Spesielt forskeren Philip Tetlock har arbeidet mye med å teste hvor gode vi er til å predikere i praksis. Blant annet har han arrangert flere turneringer hvor personer skulle predikere ulike utfall. En av de første involverte 284 økonomer, statsvitere, etterretningsanalytikere og journalister, der det ble samlet inn nesten 28 000 spådommer. Resultatene var oppsiktsvekkende. Den gjennomsnittlige ‘ekspert’ gjorde det bare ubetydelig bedre enn det som var resultatet av tilfeldig gjetning.

Ragnar Nymoen så på noe så ‘enkelt’ som Norges Banks egen evne til å predikere inflasjonen fremover. Han kom til nedslående resultater som er presentert i artikkelen med den megetsigende tittelen «A recent forecast failure». Holbergfondene har siden fulgt opp denne rapporten med den illustrative figuren over.

 

Aksjeanalytikere bør være de beste til å predikere bedriftens fremtidige resultater, på grunn av både sin spesialutdanning og faktur, at de bruker mesteparten av arbeidstiden sin på nettopp denne oppgaven. Forskning (blant annet Røstberg, Steinsvik og Sønderland 2001) viser imidlertid at for eksempel norske analytikere er svært dårlige på dette. Ett år før estimatåret er prediksjonsfeilen på resultatet i gjennomsnitt på cirka 50 prosent, mens det like før offentliggjøring av resultatene er på 25 prosent! Undersøkelser fra McKinsey & Company finner tilsvarende (men noe bedre) resultater for amerikanske analytikere.

3. Hvorfor er vi så dårlige til å lage gode estimater for virkelig verdi?

Vi er altså dårlige til å lage prognoser. Da er det interessant å forstå hvorfor vi er så dårlige til å lage estimater og dermed beregne virkelig verdi. Det er forsket mye på dette de senere år. Resultatene er blant annet godt og underholdende beskrevet i bøker som Nate Silvers The signal and the noise, Daniel Kahnemans Thinking, fast and slow og Talebs Black swan.

Nedenfor har jeg prøvd å systematisere områdene og hovedårsakene som disse forfatterne trekker frem som forklaring på vår dårlige prediksjonsevne, og jeg har delt dem opp i følgende punkter:

  • Vi påvirkes utilbørlig av et utgangsnivå (ofte dagens nivå eller det andre mener) (anchoring).
  • Vi forlenger trender og/eller anvender historien på en annen situasjon i dag.
  • Vi leter etter mønstre som ikke finnes (predicting the unpredictable).
  • Vi glemmer at det finnes sorte svaner og stoler for mye på normalfordeling.
  • Vi forutsetter uavhengighet i forhold som ikke er uavhengige.
  • «This time it’s different»: Vi lager nye forklaringer som er umulige å teste, mens ting i realiteten er (mer eller mindre) som før.
  • Vi tror vi kan predikere et eksakt tall (magic bullet), og glemmer naturlige feilmarginer i alle estimater.

Disse punktene vil jeg utdype i det følgende.

1. Vi påvirkes utilbørlig av et utgangsnivå (ofte dagens nivå)

Dette er den typiske feilen, ifølge forskerne (Kahneman): Vi tror at dagens nivå er det vi kan vente oss fremover. Daniel Kahneman forklarer denne tendensen med en menneskelig svakhet: Hjernen generaliserer ut fra siste hendelser. Har det vært fint vær den siste uken, mener vi at hele sommeren har vært topp (thinking fast). Vi tror dessuten at det vil vare en stund fremover. Teoretisk lærer vi for eksempel at en aksjeverdi inneholder all historisk og tilgjengelig informasjon, og derfor er den beste prediksjon på fremtidsverdien (rentejustert). Imidlertid er mange størrelser/verdier tilfeldige (random) innenfor intervaller, selv om forventningsverdiene ikke er det det: været om en måned, aksjepriser, avlingsstørrelsen, og så videre. Dagens verdi/situasjon er dermed ikke noe pålitelig mål for fremtiden.

Trym Riksen illustrerte dette veldig godt nylig i en artikkel i Dagens Næringsliv der han viser hvordan gjennomsnittet av analytikerne i USA stort sett estimerer at resultatvekst for neste år vil bli lik siste år (målt som gjennomsnitt av resultatveksten for foretak i Standard & Poors 500), selv om faktisk vekst svinger mye fra år til år (se figur 2).

figur

Effekten der man henger seg opp i ett tall, som oftest det vi ser i dag, kalles forankring. Det er velkjent i psykologien og slår altså utilbørlig inn på våre prediksjoner. Hvordan vi blir absurd opphengt i et utgangstall, vises av Kahneman i et eksperiment utført av Förster, Mussweiler og Strack, der en gruppe blir spurt hvor gammel Gandhi var da han døde. Halve gruppen blir spurt som en del av spørsmålet om han var over eller under ni år, resten blir spurt om han var over eller under 140 år. Til tross for disse absurde «rettledningene», svarer gruppen som får «hintet» om ni år, i gjennomsnitt 17 år lavere dødsalder enn den andre gruppen!

Ille er det også når vi overser klart sykliske markeder og tror dagens pris varer evig. Vi synes at fallet i oljepris de siste måneder, ned mot 70–80 amerikanske dollar per fat, er et ‘dramatisk’ avvik fra det ‘normale’ nivået på vel 100 dollar. Da glemmer vi lett at oljeprisen lå på +/–80 dollar fatet så sent som i 2010, og på +/–20 dollar fatet fra 1997 til 2004, for så å stige jevnt opp til 140 dollar i 2008. Vi glemmer at oljeprisen for en stor del er styrt av konjunkturene og av OPEC og med andre ord ‘skal’ svinge og er uforutsigbar / politisk styrt. Råvaremarkeder er sykliske markeder. Knapphet på varen, for eksempel laksen, gjør at prisen stiger til over 40 kroner kiloen. Når prisen er så høy og pengene strømmer inn, setter oppdretteren ut mye fisk i merdene, støttet av velvillige banker. 18 måneder senere, når utsettet er slaktemodent, er det typisk altfor mye laks fordi alle andre oppdrettere har gjort det samme, og prisene stuper. Det samme mønsteret kan sees i bransjer som supply, tank og rigg.

Vi mennesker er usikre av natur og flokkdyr som sjelden ønsker å stikke oss ut. Dette forklarer også anchoring-effekten, som gjør at analytikerne alle har en tendens til å flokke seg rundt og skape et konsensus.

2. Vi forlenger trender

Beslektet med det første punktet er fenomenet der vi forlenger dagens trender når vi predikerer: Har veksten i kinesisk økonomi vært på åtte prosent de siste ti årene, predikerer vi at den vil fortsette med det, og er sjokkert om den faller til seks prosent.

Kahneman mener at en hovedforklaring på at vi (feilaktig) antar at dagens trender vil fortsette, er at vi ikke forstår eller ikke bruker tilstrekkelig tid på å forstå de underliggende forklaringsfaktorene og driverne til trendene. Er driverne forbigående? En klassisk anekdote om feilaktig trendforlengelse som ‘alle’ ler av (men som vi kanskje likevel gjør om og om igjen): Kalkunen predikerer at den vil leve evig fordi det har gått så fint til nå … og ‘nå’ er to dager før høsttakkefesten (Thanksgiving) …

Et mer alvorlig eksempel på at man ikke forstår de underliggende forklaringsfaktorer, og tror at veksten varer evig: De fleste har fått med seg befolkningseksplosjonen i verden. Bare siden 1950 har befolkningen i verden vokst fra i overkant av 2,5 milliarder til dagens tall på over sju milliarder mennesker. 1900-tallet var det århundret da befolkningsøkningen var den høyeste i menneskehetens historie, både i prosent og absolutte tall. Mange forskere kom på 1980- og 1990-tallet med prognoser som viste at verdens befolkning trolig ville øke til både 15 og 20 milliarder, og sågar opp mot 30 milliarder i 2050, med påfølgende katastrofale konsekvenser. Så sent som i år 2000 kom FN med en prognose på at vi ville være nesten 13 milliarder mennesker i 2030, basert på en trendforlengelse. I 2010 kom FN med en oppdatert prognose hvor man i hoved- (mellomscenarioet) nå prognostiserer en utflating på rundt eller i underkant av ti milliarder. Hva skjedde – og hvordan kunne man ta så feil (30 prosent)?

Hovedårsaken til befolkningsveksten er mye lavere dødelighet (og spesielt lavere barnedødelighet), som igjen kan forklares med vekst i matproduksjon og en medisinsk revolusjon. Ved høy dødelighet får familien mange barn fordi de er vant til at du måtte føde fem til sju barn for at vel to barn (det som skal til for å holde befolkningen oppe) skal leve opp. Som vi imidlertid kjenner til fra de aller fleste industrialiserte (vestlige) land, har fødselsraten falt dramatisk, til +/– to barn per kvinne, så mye at befolkningsveksten i en del land er negativ. Dette til tross for at vi har bedre økonomi enn noensinne til å fø opp flere barn. Men det tar en tid, ofte minst en generasjon, før foreldrene tør å stole på at de kun trenger to barn til å videreføre familien. I denne mellomperioden hvor de fleste av de fem til sju barna faktisk vokser opp, får vi en voldsom befolkningsvekst, som så flater ut igjen når fødselsraten faller til cirka to, med andre ord en klassisk S-kurve. Dette har skjedd i land etter land hvor (barne-)dødeligheten har falt, og forventes nå som en global trend. Hadde trendforskere tatt inn denne underliggende forklaringsvariabelen i sine prognoser på et tidligere tidspunkt (og dataene lå der!), hadde de neppe estimert med trendforlengelse.

Tilsvarende feilaktig trendfremskrivning gjorde man i USA da boligprisene hadde økt jevnt og trutt fra 1995 til 2007 (doblet seg i realpris), og låntakere, banker og andre trodde at prisveksten kom til å vare ved. Man glemte å se på historien, som viste at boligprisene i realpriser stort sett har vært uforandret i USA siden 1890 (Schiller-indeksen). Driverne for prisøkningen var her barneøkningen (jevnfør over, som da etter hvert flatet ut), at flere ønsket å eie sitt eget hus (som økte fra 44 prosent til 62 prosent, men som så flatet ut, og neppe kan ende på over 100 prosent …). Videre har rekordlave renter kombinert med god tilgang på lån bidratt sterkt. Det er med andre ord flere faktorer som måtte bremse utviklingene, eller som i seg selv er sykliske. Derfor var det urealistisk å spå fortsatt kraftig realvekstoppgang i boligprisene.

En siste farlig variant av trendforlengelse er out of sample-problemet. Det er når vi bruker et historisk datasett til å lage en prognose i dag, på et forhold som ikke er det samme som det de historiske dataene representerer. Dette kan illustreres ved å bruke misligholdsdata for banklån fra et annet land – og så ut fra det lage en misligholdsmodell eller prediksjon over mislighold for lån i Norge.

Nate Silver mener det var dette som skjedde da amerikanske boliglån ble vurdert som så godt som sikre: Ratingbyråene ga sin beste rating, AAA, på mange av de finansielle instrumentene, basert på amerikanske pantesikrede boliglån. Ratingbyråene bør basere sine ratinger på at de har historiske data på lån av samme type eller i samme situasjon som det de skal rate, og ut fra statistiske analyser si noe om risikoen for at et konkret lån med spesielle karakteristika i dag kan gå i mislighold fremover hvis historien gjentar seg. Problemet oppstår når det ikke finnes historiske data, fordi de finansielle instrumentene (CDO og liknende) man skal vurdere, ikke fantes tidligere. Dataene var dessuten hentet fra en unik boligoppgangstid i perioden fra 1980 til 2005, mens mislighold jo oftest oppstår ved prisnedgang. Parallellen er: Du har kjørt tilnærmet skadefritt i 30 år, men aldri i beruset tilstand. Nå skal du kjøre, men i lettere beruset tilstand. Da hjelper ikke historiske data for å analysere skaderisikoen. Dette er det såkalte out of sample-problemet.

3. Vi leter etter mønstre som ikke finnes

Forskning består stort sett av å stille en hypotese og deretter finne data for å bevise hypotesen (egentlig falsifisere; finne ut at det ikke kan være andre forklaringer, gjennom motbevis). Menneskets natur gjør at vi ofte finner data som passer til hypotesen (Kahneman). Dette er en parallell til hvordan hjernen takler for mye informasjon, slik den ofte gjør. Hver dag når vi er ute og går, blar i en avis og liknende, treffer massive synsinntrykk øyet og hjernen. Hjernen har imidlertid en egen evne til å fokusere bevisst eller ubevisst på det vi er opptatt av, eller nylig har konsentrert oss om. Alle har vel opplevd at øyet fanger annonsen om det produktet en nettopp har kjøpt. Slik er det også i analyser: Man ser ofte det man er på jakt etter. John P. Ioannidis skrev en kontroversiell artikkel om dette i 2005 – «Why most published research findings are false» – hvor han blant annet konkluderte med at de fleste medisinske forskningsresultater ville feile i den virkelige verden. Bayer Laboratories testet ut en rekke forskningsresultater og klarte kun å replikere en tredjedel av resultatene.

Den eksplosive økningen i mengden tilgjengelige data, big data, forsterker dette problemet, ifølge Avin Toffler. I boken Future shock (1970) skriver han at for mye informasjon utløser en forsvarsmekanisme der hjernen tenderer til å forenkle informasjonen slik at den passer til våre forutinntatte holdninger.

Ved prediksjon og verdsettelse betyr dette altså at vi – ubevisst – lager ‘objektive’ verdsettelser som passer våre mønstre eller forutinntatte holdninger. Se på figur 3a: Er virkeligheten en bue (og hvilken bue?) ut fra de få observasjonene her, eller er det en rett strek?

Figur 3A: Riktig tilpasset.

figur

Figur 3B: Overtilpasning.

figur

Et annet fenomen er overtilpasning (figur 3b): Vi lager en modell ut fra innsamlede data (som altså bare er et utvalg) som tilsynelatende er mye mer presis, men i virkeligheten fjerner oss fra det reelle, underliggende mønsteret (se figur over til høyre). Nate Silver antyder at det kanskje var dette som skjedde da man bygget atomreaktoren i Fukushima: Kanskje en ‘overfitted’ jordskjelvmodell ga for lav sannsynlighet for et skjelv som kunne skape bølger nok til å ødelegge atomkraftverket (se figur 4) – mens virkeligheten var at modellen var lineær (med andre ord en rett strek). I så tilfelle bygget man atomkraftverket for svakt som en følge av overfitting.

Figur 4: Tilpasninger som i Tohoku- jordskjelvet.

figur

Siste fenomen nevnt her, er tendensen til å ‘predict the unpredictable’ vi lager modeller eller mønstre av noe underliggende til tross for at det ikke finnes mønstre eller modeller. En del fenomener er umulig å spå fordi det underliggende er kaos – de er dynamiske og ikke-lineære. Et eksempel på dette er været. Det er umulig å spå været presist flere måneder frem, selv om man klarer det brukbart en dag eller to frem. Etter hvert som forskere lærer mer om været, og datakraft og raffinement vokser, kan prognosehorisonten bli forskjøvet noe. Men det vil alltid være noe som meteorologene ikke kan se, selv i teorien.

En parallell vi kjenner til fra aksjemarkedet, er at aksjeavkastningen er tilfeldig, med andre ord uforutsigbar, selv om forventningen er lik avkastningskravet. Vi kjenner riktignok til momentumeffekten, altså at en opptur eller en eventuell nedtur har en tendens til å vare ved en kort stund, og mean reversion (at en høy avkastning etterfølges av en svakere, som da i sum gir en normal avkastning) i det mellomlange bildet. Men som i meteorologien oppstår det faktur at avkastningen grunnleggende er tilfeldig. Likevel prøver smartinger til stadighet å lage modeller for å predikere meravkastning i aksjemarkedet.

4. Vi glemmer de svarte svanene og stoler for mye på normalfordelingen

Nassim Taleb ble berømt for sin bok The Black Swan utgitt i 2007. Den beskriver hvordan sjeldne fenomener og hendelser kan ha ekstrem innvirkning, men mye viktigere: Den viser at disse fenomenene oppstår mye hyppigere enn vi forventer og legger til grunn i våre modeller. Vi har en tendens til å finne overforenklede forklaringer på disse enkelthendelsene i ettertid, og unngår dermed å endre modellene våre. Som han sier: ‘Det mest overraskende er ikke størrelsen på våre historiske prediksjonsfeil, men fraværet av bevissthet om dem.’ Talebs oppskrift er riktignok ikke å endre modellene våre, men å gjøre dem robuste nok til å takle de negative og kunne utnytte de positive sidene.

‘Synderen’ i modellene våre heter ofte normalfordeling. De fleste økonomiske modeller forutsetter normalfordeling. Dette henger sammen med et matematisk fenomen som kalles sentralgrenseteoremet. Resultatet innebærer at summen av et stort antall uavhengige variabler er tilnærmet normalfordelt uavhengig av hvilken fordeling disse hadde i utgangspunktet. Derfor forutsettes en god del empiriske resultater å være normalfordelt. Dette er på langt nær tilfellet; i mange tilfeller finnes det eksempelvis naturlige nedre grenser (for eksempel null), men ikke tilsvarende øvre grenser.

En praktisk årsak til at normalfordeling er så mye brukt, er at den er så lett å regne med og har veldig ‘gode’ egenskaper. Dette er den farlige forklaringen. Hvis vi bruker normalfordeling fordi det er enkelt, men anvender den på feil forhold, kan det gi dramatiske konsekvenser om denne antagelsen er feil. Ifølge Taleb er hovedproblemet at vi lager altfor snevre utfall. Vi tror gjerne at best case- og worst case-utfall ligger innenfor si +/–20–30 prosent av normaltilfellet, og har dermed et begrenset verdiintervall. I virkelighetens verden påviser Taleb at det ofte er mye større forskjell mellom ulike scenarier og utfall. Et enkelt eksempel: Vi beregner et base case-resultat for en bedrift på ti enheter. Med ‘hele’ 30 prosent resultatvariasjon varierer da utfallene mellom 7 og 13. Men bedriften kan jo godt gå med underskudd! Taleb anbefaler derfor at vi lager scenarier ved å starte med ytterverdiene og så bevege oss mot normalen, istedenfor å begynne med normalen og så bevege oss i +/–-intervaller utover.

5. Vi forutsetter uavhengighet for forhold som ikke er uavhengige

I tillegg til at mange økonomimodeller forutsetter normalfordeling, forutsetter også mange av modellene at variablene er uavhengige. For eksempel forutsetter man som oftest i den vanligste verdsettelsesmodellen, NPV eller diskonterte kontantstrømmer, at hvert enkelt år består av uavhengige kontantstrømmer. Det vet vi ikke er riktig! Har bedriften hatt et godt resultat i ett år, er det mest sannsynlig at resultatet neste år beveger seg ut fra dette resultatet, med andre ord at det fortsatt er godt, pluss/minus en endring. Mange utfall er binære – enten lykkes man med forskningen eller det nye produktet eller markedsfremstøtet, eller så lykkes man ikke. Og så vil fortsettelsen være helt avhengig av dette binære utfallet.

Nate Silver viser hvordan en feilaktig forutsetning kanskje var hovedårsaken til hele finanskrisen i 2007: Nemlig at ratingbyråene feilaktig forutsatte uavhengighet for mislighold på grupper av boliglån. Ratingbyråene ga beste rating, AAA, på mange av de finansielle instrumentene basert på amerikanske pantesikrede boliglån, herunder såkalte CDO-er (collateralized debt obligations), som er en samling av ulike lån eller deler av ulike lån i én pakke. Dette betyr at de antok at kun 0,12 prosent av disse lånene (1 av 850) ville bli misligholdt i løpet av fem år. I virkeligheten ble minst 28 prosent av CDO-ene misligholdt – det vil si mer enn 200 ganger høyere enn det som var prediksjonen.

Anta følgende: Du har fem lån, hvert med fem prosent sannsynlighet for mislighold i løpet av fem år. Dersom disse er helt uavhengige av hverandre (diversifisert), er sannsynligheten for at alle feiler på fem prosent i femte potens, altså ⅓. 200 000. Men dersom lånene er 100 prosent korrelerte, er sannsynligheten for mislighold på fem prosent – altså 160 000 ganger mer risikabelt. Ratingbyråene antok stort sett at mislighold nesten ikke var korrelerte, slik tilfellet hadde vært i oppgangstider. Dermed kunne B+-ratede lån, hvert med 20 prosent sannsynlighet for mislighold i en pakke, akkurat klare å bli AAA-ratet. Men i nedgangstider er mislighold sterkt korrelert: Huspriser synker, mange blir arbeidsledige, aksjepriser (= folks sparekapital) synker samtidig. Men modellene var ikke laget slik.

Dette var en grov faglig feil. Det ratingbyråene skulle og burde ha gjort, var å se på mislighold og korrelasjoner i land der boligprisene hadde falt, for eksempel i Japan, Norge og andre. Men det gjorde de ikke.

Å si at ratingbyråenes modell var feil, ville imidlertid være det samme som å si at det var deres feil at ratingen ble feil. I stedet ble skylden lagt på eksterne hendelser og på en boligboble som var ‘umulig’ å forutse. ‘S&P is not alone in having been taken by surprise.’ Men mange hadde sett boligboblen: Schiller, Dean Baker, Paul Krugman og flere. Boligboblen hadde vært diskutert mer enn ti ganger per dag i amerikanske aviser i årene før finanskrisen. Ratingbyråenes jobb er nettopp å jobbe med sannsynligheter knyttet til kjente trusler.

Ratingbyråene ga folk falsk trygghet: De uttalte seg om risiko basert på noe man vet noe sikkert om, som at sjansen for å slå en sekser på en terning er 1/6. I realiteten uttalte de seg om usikkerhet, det vi ikke vet noe om. Skal du kjøpe en bruktbil – men ikke får lov til å undersøke bilen – vil du gi en lav pris på grunn av usikkerheten. Legger selger derimot frem en NAF-test, er du villig til å betale mer. Akkurat det skjedde med CDO-ene: Selger la frem ratingbyråenes AAA-rating og fikk en bedre pris. Og hvorfor gjorde ikke ratingbyråene jobben sin? Ratingbyråene tjente enorme summer på rating av alle de nye lånetypene som oppstod. S&P og Moody’s ratet over 97 prosent av alle CDO-ene. Moody’s økte inntektene fra rating av strukturerte produkter med over 800 prosent fra 1997 til 2007, og mer enn halvparten av inntektene deres kom herfra i 2007. Jo flere CDO-er som ble utstedt, desto mer penger tjente de. ‘Perhaps they did not want the music to stop.’

Vi er opplært til å tro at vi kan diversifisere bort risiko. Ved å investere i mange nok ulike aksjer – egentlig i nok ulike uavhengige risikoer – reduserer vi risikoen betydelig. Derfor investerte fondsforvaltere i ulike deler av verden på 2000-tallet, i den tro at risikoen for et samlet sjokk var minimal. I mellomtiden var økonomien i mange tilfeller blitt global. Kinas vekst var avhengig av USAs konsumvekst. Brasils økonomiske vekst basert på råvare- og metalleksport var avhengig av Kinas import, og så videre. Da finanskrisen rammet, traff den så å si alle markeder samtidig. Det var ingen steder å gjemme seg. Risikoen var også mye større enn modellene forutså, fordi markedene i virkeligheten var sterkt avhengig av hverandre.

6. ‘This time it’s different’: Vi lager nye forklaringer som er umulige å teste, mens ting i realiteten er (mer eller mindre) som før

Den siste faktoren kan synes ulogisk, nemlig at vi ofte lager nye teorier eller forklaringer når vi finner data som tilsynelatende ikke stemmer med våre modeller – mens ting i realiteten er som før: De fem foregående punktene handler mye om tendensen vi har til å misbruke statistikk, ta dagens utgangspunkt, forlenge, finne jevne mønstre og tvinge tall inn i modeller. Men innimellom er tallmaterialet vi ser, tilsynelatende så langt utenfor modellene våre at vi ikke klarer å ‘tvinge’ det innenfor. Da tyr vi lett til nye forklaringer, men uten at vi egentlig har en ny god, teoretisk modell å henge det opp på. ‘This time it’s different’ er blant de dyreste ordene i historien, noe figur 5 illustrerer.

Figur 5

figur

Disse ordene lød eksempelvis like før dotcom-boblen brast i 1999. Børsmarkedene hadde steget gjennom hele 1990-tallet, men selskapenes inntjening, og spesielt internettselskapenes, økte på ingen måte i samme takt. P/E-forholdet for amerikanske børser økte fra historisk normale på 15–20 til over 40. Var alle økonomiske lover opphevet? Var det en boble? Nei, det dukket opp nye akademiske forklaringer – et lavt avkastningskrav på grunn av lavere markedsrisikopremie kunne forklare det meste: Lavere avkastningskrav gir høyere aksjeverdi. På 1990-tallet mente man at selskapenes regnskap hadde blitt mye bedre og transparente. Mye mer og bedre informasjon ble gitt til markedet, slik at risikoen var lavere. Samtidig hadde investormarkedene blitt globale, slik at en investor nå enkelt kunne investere i veldig mange (uavhengige (sic …)) markeder og på den måten spre risikoen. smalt aksje markedene. Det viste seg blant annet at en rekke selskapers regnskap – med Enron i spissen – var villedende. Det viste seg at man ikke fikk ned risikoen når markedene var globaliserte, men at alt hang sammen med alt. So this time it was not different.

På 2000-tallet hørte vi at høy vekst og lav rente (og dermed lavt avkastningskrav) hang sammen, i motsetning til tidligere vedtatte sannheter. Gammel lærdom var at når verden er i vekst, blir det etter hvert knapphet på ressurser og kapital, og renten skal dermed opp. Men ikke denne gangen: I Kina var det ‘uendelig’ tilgang på billig arbeidskraft, og global tilgang på kapital gjorde markedet og dermed tilgangen mye større. Frislippet og deregulering av blant annet amerikanske banker førte riktig nok til kraftig økt tilgang på kapital, mens lave renter medførte at privatpersoner og institusjoner desperat lette etter investeringsmuligheter. Men dette ga i sum overinvesteringer som måtte lede til ubalanse i tilbud og etterspørsel. Og tilgangen på ressurser var ikke uendelig: Råvareprisene steg kraftig, og lønningene – også i Kina – blant relevant og faktisk nyttbar arbeidskraft steg. Så sprakk boblen i 2009.

Vær på vakt når du hører noen si ‘This time it’s different’.

7. Regnskapet som en magic bullet – det ENE riktige tallet – men der vi glemmer naturlige feilmarginer

Regnskap består i å føre opp ETT tall for virkelig verdi. IFRS krever at ledelsen skal beregne seg frem til det mest sannsynlige tallet, og bokføre det. Nylig kom Finanstilsynet med kritikk av Statoil fordi de mente at Statoil opererte med usikkerhetsintervaller der selskapet ikke foretok opp- eller nedskrivninger dersom bokført verdi lå ganske nær det beregnede (usikre) estimatet av virkelig verdi. Jeg skal ikke ta stilling til denne konkrete saken, men det er i hvert fall trist og naivt dersom standardsettere lager regler basert på overbevisningen om at virkelig verdi er en eksakt vitenskap og beregningsmetode.

Nate Silver kaller troen på at man kan gi ett eksakt estimat for et ukjent utfall, for the magic bullet. Vi vet at i alle estimater og i all statistikk basert på utvalg er det usikkerhet. Det betyr at alle estimater angis med et usikkerhetsintervall. Typisk ser man i de senere år i meningsmålinger, hvor tallene oppgis med feilmarginer, typisk er to til fire prosentpoeng. Derfor er det ikke overraskende eller uttrykk for feilprediksjon når for eksempel partiet Venstre får tre prosent oppslutning i det endelige valget, og ikke fem prosent, slik meningsmålingene viste. Forskjellen er riktignok på 40 prosent, to prosentpoeng feil fra fem prosent, men godt innenfor feilmarginen på to til fire prosentpoeng. Poenget er at vi som oftest glemmer hvor mye som er en normal feilmargin.

Kanskje burde vi oppgi alle regnskap og balanser med feilmarginintervall i regnskapet! Men det er det jo ingen som liker: ‘Vi tjente 550 millioner i fjor, med en usikkerhetsmargin på pluss/minus 70 millioner, så det kunne for så vidt like godt vært 480 millioner.’ Det ville vært faglig korrekt, men verken finansmarkedet eller andre av bedriftens interessenter synes å etterlyse denne typen ærlighet. Vi må likevel minne oss selv om at det ligger atskillig usikkerhet og feilmarginer i verdivurderinger – også i regnskapet.

Oppsummering

Ovenfor har jeg gjennomgått at vi er dårlige til å predikere, og følgelig dårlige til å lage verdivurderinger. Videre har jeg gjennomgått noe nyere forskning som forklarer hvorfor vi er så dårlige til å predikere.

Vi må altså anta at mange av verdiene i et regnskaps balanse, der selskapet selv har beregnet virkelig verdi, er feil. Og da har jeg ikke en gang tatt inn det forhold at det er en betydelig risiko for at ledelsen ubevisst eller bevisst er biased (oftest for positive) i sine vurderinger, fordi de naturlig har positiv tro på selskapet.

Så det store spørsmålet er da: Hva er nytten og relevansen av å ha et regnskap der man bruker størrelser for virkelig verdi, når størrelsene er så upålitelige?

  • Diefenback, R.E. (1972). How Good Is Institutional Brokerage Research. Financial Analyst Journal, 28(1): 54–60.
  • Kahneman, D. (2011). Thinking, Fast and Slow. New York: Farrar, Straus and Giroux.
  • Michail, M.B., P. Asquith og A. Au (2002). Information Content of Equity Analysts Reports. Arbeidsdokument. MIT.
  • Nymoen, R. (2004). A Recent Forecast Failure. Arbeidsdokument.
  • Silver, N. (2012). The Signal and the Noise. New York: Penguin Press HC.
  • Nassim, N.T. (2007). The Black Swan. New York: Random House Trade Paperbacks.
  • Roll, R. (1977). A critique of the asset pricing theory’s tests. Journal of Financial Economics, 4(2):129–176.
  • Womack, K.L. (1996). Do Broker Analysis’ Recommendations Have Investment Value? Journal of Finance, 51(1):137–166.

© Econas Informasjonsservice AS, Rosenkrantz' gate 22 Postboks 1869 Vika N-0124 OSLO
E-post: post@econa.no.  Telefon: 22 82 80 00.  Org. nr 937 747 187. ISSN 1500-0788.

RSS