Estimering

Dersom vi er ute etter å finne gjennomsnittsvekta på fisk i et oppdrettsanlegg, kan vi ta opp all fisken, veie hvert individ, og ut fra det beregne gjennomsnittet, slik vi lærte i avsnittet om måltall i statistikk. Vi undersøker da hele populasjonen,

I praksis vil imidlertid en slik fremgangsmåte være lite hensiktsmessig. I stedet gjør vi et utvalg, og gir på bakgrunn av dette et anslag av vekta.

Vi kan nøye oss med å ta opp én enkelt fisk, men intuitivt skjønner vi at det vil være bedre å ta opp flere og basere anslaget på gjennomsnittsvekta.

I artikkelen om sentralgrenseteoremet så vi at hvis vi har n variabler som er uavhengige og har samme fordeling, med forventning μ og varians σ2, vil gjennomsnittet av variablene være tilnærmet normalfordelt med forventning $\mu$ og varians $\frac{\displaystyle \sigma^2}{\displaystyle n}$. Vi antydet at n burde være > 30 for at tilnærmingen skulle være god, men hvis vi kan anta at variablene i utgangspunktet er tilnærmet normalfordelt, kan vi fire på dette kravet.

Sørger vi for at fisken vi tar opp blir valgt tilfeldig, vil altså variansen til gjennomsnittsvekta være $\frac{\displaystyle \sigma^2}{\displaystyle n}$, der n er antall fisk vi har veid og σ2 variansen til vekta i fiskepopulasjonen. Jo flere fisk vi veier, jo større blir nevneren i brøken, og jo mindre blir variansen til gjennomsnittet.

Å anslå verdier basert på undersøkelser kaller vi å estimere. For å angi et estimat, bruker vi en estimator. For å indikere at en variabel er en estimator, bruker vi en «hatt», for eksempel er $\hat \theta$ en estimator for $\theta$.

Dersom en estimator gir den forventede verdien til en variabel, det vil si at $E(\hat \theta) = \theta$, kalles estimatoren forventningsrett. I motsatt fall er den forventningsskjev.

Målemodellen

I målemodellen baserer vi estimater på måling av verdier, for eksempel vekta til fisk. En forventningsrett estimator for forventningen, μ, er da gjennomsnittet, $\hat \mu = \overline X$. Har vi gjort n målinger av X, har vi altså

$\fbox{$\hat \mu = \overline X = \frac{\displaystyle X_1 + X_2 + \dots + X_n}{\displaystyle n}$}$
 
Eksempel 1:

Vi har tatt opp og veid 13 laks fra et oppdrettsanlegg. Laksene veide
3,9, 3,6, 5,1, 4,8, 3,7, 3,2, 4,6, 5,4, 3,0, 4,2, 3,8, 4,4 og 4,1 kg.

Et forventningsrett estimat for gjennomsnittsvekta til all laksen i anlegget er da gjennomsnittet av veiingene:

$\hat \mu = \overline X = {\large \frac{3{,}9 + 3{,}6 + 5{,}1 + 4{,}8 + 3{,}7 + 3{,}2 + 4{,}6 + 5{,}4 + 3{,}0 + 4{,}2 + 3{,}8 + 4{,}4 + 4{,}1}{13}} \approx 4{,}14$. Altså om lag 4,14 kg.

Oppgave 1:

En enhet i en bedrift produserer støtfangere. Dagsproduksjonen på seks tilfeldig valgte dager er
210, 220, 210, 225, 220 og 217 enheter. Beregn et forventningsrett estimat for hvor mange støtfangere som produseres daglig.

Se løsningsforslag

Som vi nevner i artikkelen om måltall i statistikk, er det imidlertid sjelden vi beregner gjennomsnitt for hånd. I stedet bruker vi statistikkfunksjoner på en kalkulator, eller funksjonen gjennomsnitt i Excel eller GeoGebra.

Rapportering

Hvor sikkert et estimat er, sier imidlertid ikke $\hat \mu$ noe om, men estimater har naturligvis en usikkerhet knyttet til seg. Rimelig nok er denne usikkerheten avhengig av antall målinger estimatet er basert på. Jo færre målinger, jo mer usikkert estimat. Usikkerheten er også avhengig av standardavviket, σ, til populasjonen vi estimerer i. Jo større σ er, jo større er spredningen, og jo mer usikkert er estimatet. Dersom σ er 0, har vi ikke spredning, og en enkelt måling vil gi et estimat uten usikkerhet.

Når vi angir et estimat, er det vanlig å angi usikkerheten til estimatet, på formen «estimert verdi pluss/minus standardavviket til estimatoren».

Dersom estimatoren er gjennomsnittet av n målinger, er altså variansen til estimatoren $\frac{\displaystyle \sigma^2}{\displaystyle n}$, og følgelig standardavviket til estimatoren $\frac{\displaystyle \sigma}{\displaystyle \sqrt n}$. Så i målemodellen har vi

$\fbox{Rapportering: $\hat \mu \pm \frac{\displaystyle \sigma}{\displaystyle \sqrt n}$}$
 
Eksempel 2:

I eksempel 1 fant vi at gjennomsnittsvekta på 13 laks vi tok opp var om lag 4,14 kg.

Hvis standardavviket til vekta i fiskepopulasjonen er σ = 0,7, vil en rapportering av estimatet til gjennomsnittsvekta derfor bli

$4{,}14 \pm \frac{\displaystyle 0{,}7}{\displaystyle \sqrt{13}} \approx 4{,}14 \pm 0{,}19$

Oppgave 2:

I oppgave 1 estimerte vi dagsproduksjonen av støtfangere basert på at produksjonen i seks forskjellige dager var henholdsvis 210, 220, 210, 225, 220 og 217 enheter. Anta at standardavviket til produksjonen er σ = 5,8, og angi estimert gjennomsnitt i form av en rapportering.

Se løsningsforslag

Av og til kjenner vi en populasjons standardavvik, for eksempel hvis avviket skyldes dokumenterte unøyaktigheter i et måleinstrument. Men som regel er standardavviket ukjent, og må estimeres, det også.

Det vil da være naturlig å ta utgangspunkt i det standardavviket vi kan beregne ut fra de målingene vi har gjort, utvalgsstandardavviket. I artikkelen om måltall i statistikk så vi at hvis vi har gjort n målinger av X og beregnet at gjennomsnittet er X, er utvalgsstandardavviket gitt ved

$S = \sqrt \frac{\displaystyle \sum_{i = 1}^n(X_i – \overline X)^2}{\displaystyle n – 1}$

Som vi nevnte i artikkelen om måltall i statistikk, er det imidlertid sjelden vi beregner standardavvik for hånd. I stedet bruker vi statistikkfunksjoner på en kalkulator, eller funksjonen stdav.s i Excel eller stdav i GeoGebra.

Utvalgsstandardavviket kalles ofte også det empiriske standardavviket, fordi det er basert på empiri, erfaring.

Utvalgsvariansen, S2 vil være et forventningsrett estimat for variansen i en fordeling, σ2. På grunn av at kvadratrotfunksjonen ikke er lineær, vil imidlertid ikke utvalgsstandardavviket, S, som estimat for standardavviket, σ, være forventningsrett. Feilen er imidlertid så liten at det er vanlig å bruke utvalgsstandardavviket som estimator for en fordelings standardavvik:

$\hat \sigma = S$

Formelen for rapportering blir da
$\fbox{Rapportering: $\hat \mu \pm \frac{\displaystyle S}{\displaystyle \sqrt n}$}$

Eksempel 3:

I eksempel 1 fant vi at gjennomsnittsvekta på 13 laks fra et oppdrettsanlegg var
3,9, 3,6, 5,1, 4,8, 3,7, 3,2, 4,6, 5,4, 3,0, 4,2, 3,8, 4,4 og 4,1 kg.

Et estimat for standardavviket til vekta er da

$\hat \sigma = S \approx 0{,}711$, beregnet ved hjelp av stdav.s i Excel.

En rapportering av gjennomsnittsvekta blir derfor

$4{,}14 \pm \frac{\displaystyle 0{,}711}{\displaystyle \sqrt{13}} \approx 4{,}14 \pm 0{,}20$

Oppgave 3:

I oppgave 1 så vi at dagsproduksjonen av støtfangere på seks tilfeldig valgte dager i en bedrift var 210, 220, 210, 225, 220 og 217 enheter.

Estimer standardavviket til produksjonen, og presenter estimert gjennomsnitt i form av en rapportering.

Se løsningsforslag

Konfidensintervaller

Å estimere en gjennomsnittsverdi kaller vi å angi et punktestimat, fordi vi anslår et punkt på tallinjen som gjennomsnittet. Vi skal nå se på konfidensintervaller, der vi angir et intervall på tallinjen som vi med en viss sannsynlighet anslår at gjennomsnittet ligger i. For eksempel at gjennomsnittsvekten på laks i eksempel 1 med 95 % sannsynlighet ligger mellom 3,8 og 4,5 kg.

For å finne ut hvordan vi bestemmer grensene i et konfidensintervall, starter vi med å se på en standard normalfordeling, altså en normalfordeling der forventningen er 0 og variansen 1.

Figuren under viser en standard normalfordelingskurve der 95 % av arealet under kurven er markert. Det vil si at hvis vi gjentatte ganger velger en tilfeldig variabel fra denne fordelingen, vil den 95 % av gangene havne innenfor det fargede området, altså mellom –z og z. Arealet er gitt ved G(z) – G(-z) = 0,95. Det vil si at G(z) – [1 – G(z)] = 0,95 ⇒ 2G(z) = 0,95 + 1 ⇒ G(z) = 0,975.

Normalfordelingskurve med 95 % av arealet under kurven markert.

Når vi tidligere har brukt normalfordelingstabellen, har vi kjent z og brukt tabellen til å finne G(z). Nå skal vi gå andre veien. Vi kjenner G(z) og skal finne z. Vi leter i tabellen og finner 0,9750 i rad 1,9 og kolonne 0,06:

Baklengs oppslag i normalfordelingstabell

Det vil si at z = 1,96 og følgelig –z = -1,96. Vi ser at det stemmer bra med figuren over.

I figuren under er 99 % av arealet markert. Arealet her er gitt ved G(z) – G(-z) = 0,99. Det vil si at G(z) – [1 – G(z)] = 0,99 ⇒ 2G(z) = 0,99 + 1 ⇒ G(z) = 0,995.

Normalfordelingskurve med 99 % av arealet under kurven markert.

I normalfordelingstabellen finner vi ikke nøyaktig 0,995, men G(2,57) = 0,9949 og G(2,58) = 0,9951. Vi tar gjennomsnittet og setter z = 2,575 og –z = -2,575. Vi ser at det stemmer bra med figuren over.

Det betyr at for en standard normalfordelt variabel er [-1,96, 1,96] et 95 % konfidensintervall, og [-2,58, 2,58] er et 99 % konfidensintervall.

I artikkelen om normalfordelingen så vi at hvis vi hadde en variabel, X, som var normalfordelt N(μ, σ2), standardiserte vi variabelen ved å beregne $Z = \frac{\displaystyle X – \mu}{\displaystyle \sigma}$, som er normalfordelt N(0, 1).

Nå går vi andre veien. Vi har en Z som er normalfordelt, N(0, 1), og beregner X = Z · σ + μ, som er normalfordelt, N(μ, σ2).

Et 95 % konfidensintervall for en fordeling som er N(μ, σ2) blir derfor

[μ – 1,96 · σ, μ + 1,96 · σ]

Eller mer kompakt uttrykt som μ ± 1,96 · σ.

Vi ser at intervallet er sentrert rundt forventningen, μ, og blir bredere jo større σ blir. Det er rimelig. Jo større standardavvik, jo mer usikkert er estimatet, og jo bredere må intervallet være for at vi skal være 95 % sikre på at det rommer gjennomsnittet.

Da vi estimerte gjennomsnitt i en populasjon, så vi at standardavviket til estimatet var $\frac{\displaystyle \sigma}{\displaystyle \sqrt n}$.

Hvis gjennomsnittet av n målinger i en fordeling med standardavvik σ er X, blir derfor et 95 % konfidensintervall for gjennomsnittet

$[\overline X \, – 1{,}96 \cdot  \frac{\displaystyle \sigma}{\displaystyle \sqrt n}, \, \overline X + 1{,}96 \cdot  \frac{\displaystyle \sigma}{\displaystyle \sqrt n}]$

Eller på kompakt form
$\overline X \pm 1{,}96 \cdot \frac{\displaystyle \sigma}{\displaystyle \sqrt n}$

Vi ser at bredden på et konfidensintervall ikke bare avhenger av σ, men også av antall målinger. Jo flere målinger, jo smalere blir konfidensintervallet.

Vi så i figuren over at i et 95 % og et 99 % konfidensintervall er grensen for z henholdsvis om lag 1,96 og 2,58. Tilsvarende kan vi finne at grensen er om lag 1,65 for et 90 % konfidensintervall.

I kortform:

$\fbox{$\begin{align}\, \\
&\text{Konfidensintervaller:}\\
&\, \\
&\text{90 %: } \overline X \pm 1{,}65 \cdot \frac{\displaystyle \sigma}{\displaystyle \sqrt n} \\
&\text{95 %: } \overline X \pm 1{,}96 \cdot \frac{\displaystyle \sigma}{\displaystyle \sqrt n} \\
&\text{99 %: } \overline X \pm 2{,}58 \cdot \frac{\displaystyle \sigma}{\displaystyle \sqrt n} \\
\end{align}$}$

Vi ser at intervallene blir bredere jo høyere konfidens vi ønsker.

Eksempel 4:

I eksempel 1 fant vi at gjennomsnittsvekta på 13 laks vi tok opp var om lag 4,14 kg.

Hvis vi vet at populasjonen er normalfordelt med standardavvik σ = 0,7, vil vi få følgende 90 %, 95 % og 99 % konfidensintervaller for laksens gjennomsnittsvekt:

90 %: $4{,}14 \pm 1{,}65 \cdot \frac{\displaystyle 0{,}7}{\displaystyle \sqrt{13}} \approx 4{,}14 \pm 0{,}32 = [3{,}82, 4{,}46]$

95 %: $4{,}14 \pm 1{,}96 \cdot \frac{\displaystyle 0{,}7}{\displaystyle \sqrt{13}} \approx 4{,}14 \pm 0{,}38 = [3{,}76, 4{,}52]$

99 %: $4{,}14 \pm 2{,}58 \cdot \frac{\displaystyle 0{,}7}{\displaystyle \sqrt{13}} \approx 4{,}14 \pm 0{,}50 = [3{,}64, 4{,}64]$

Oppgave 4:

I oppgave 1 estimerte vi dagsproduksjonen av støtfangere basert på at produksjonen i seks forskjellige dager var henholdsvis 210, 220, 210, 225, 220 og 217 enheter. Anta at produksjonen er normalfordelt med standardavvik σ = 5,8, og angi 95 % og 99 % konfidensintervaller for gjennomsnittsproduksjonen.

Se løsningsforslag

Vi har nå sett på 90 %, 95 % og 99 % konfidensintervaller, men andre prosenter er selvsagt også mulig. Det generelle uttrykket er

$\fbox{$\begin{align} &\text{Konfidensintervall:} \\
&\overline X \pm {\large z_{\Large \frac{\alpha^\phantom 1}{2}}} \cdot \frac{\displaystyle \sigma}{\displaystyle \sqrt n} \end{align}$}$

Her representerer α den prosentdelen som ligger utenfor konfidensintervallet. Halvparten av α ligger til venstre for, og halvparten av α til høyre for intervallet, som vist under:

Illustrasjon av alfa som brukes i konfidensintervaller

$\pm {\large z_{\Large \frac{\alpha^\phantom 1}{2}}}$ er da z-verdiene i yttergrensene av det fargede området.

I et k % konfidensintervall er altså ${\large \frac{\alpha}{2}} = {\large \frac{1 – k}{2}}$, for eksempel ${\large \frac{1 – 0{,}95}{2}} = 0{,}025$ i et 95 % konfidensintervall og ${\large \frac{1 – 0{,}99}{2}} = 0{,}005$ i et 99 % konfidensintervall.

Da vi skulle finne intervallet [-z, z] som utgjorde et 95 % og 99 % konfidensintervall i en standard normalfordeling, gjorde vi et baklengs oppslag i normalfordelingstabellen for å finne z. Dette er tungvint, og det er derfor laget ferdige, omvendte tabeller. I en slik tabell slår vi opp a, og får ut z, slik at arealet under kurven til høyre for z er a.

Dette kalles kvantiltabeller eller fraktiltabeller for normalfordelingen, en kvantiltabell for normalfordelingen finnes på dette nettstedet.

Eksempel 5:

Vi er interessert i å finne et 98 % konfidensintervall for gjennomsnittsvekten til laksen fra eksempel 1.

Vi får at ${\large \frac{\alpha}{2}} = {\large \frac{1 – 0{,98}}{2}} = 0{,}01$. Vi slår opp 0,010 i (kvantil)normalfordelingstabellen og får 2,3263.

Vi har altså at ${\large z_{\Large \frac{\alpha^\phantom 1}{2}}} = {\large z}_{0{,}01}^\phantom 1 \approx 2{,}3263$.

I eksempel 1 fant vi at gjennomsnittsvekten til n = 13 laks var 4,14 kg. Hvis laksepopulasjonen er normalfordelt med standardavvik σ = 0,7, blir altså et 98 % konfidensintervall

$4{,}14 \pm 2{,}33 \cdot \frac{\displaystyle 0{,}7}{\displaystyle \sqrt{13}} \approx 4{,}14 \pm 0{,}45 = [3{,}69, 4{,}59]$

Oppgave 5:

Bruk metoden fra eksempel 5 til å finne et 97 % konfidensintervall for laksens gjennomsnittsvekt.

Se løsningsforslag

I Excel og GeoGebra finnes egne funksjoner for baklengs oppslag i normalfordelinger, norm.inv i Excel og InversNormalfordeling i GeoGebra. Med disse er det imidlertid $1 – {\large \frac{\alpha}{2}}$ vi slår opp, vi angir altså arealet under normalfordelingskurven til venstre for, ikke til høyre for, ${\large \frac{\alpha}{2}}$.

Funksjonene er inverser av funksjonene norm.fordeling og FordelingNormal, som vi presenterte i artikkelen om normalfordelingen. Der oppga vi en grenseverdi, og fikk ut sannsynligheten for at en normalfordelt, tilfeldig variabel var mindre eller lik denne grenseverdien. I de inverse funksjonene oppgir vi sannsynligheten, og får ut grenseverdien. I tillegg må vi også gi inn normalfordelingens forventningsverdi og standardavvik. Excel har også en funksjon, norm.s.inv, som er inversen til norm.s.fordeling. Her trenger vi ikke oppgi forventningsverdi eller standardavvik, verdiene 0 og 1 brukes automatisk. Noe tilsvarende finnes ikke i GeoGebra.

Disse funksjonene er imidlertid ikke veldig interessante når vi skal beregne bredden på konfidensintervaller. Har vi en datamaskin tilgjengelig, kan vi bruke Excel eller GeoGebra til å beregne denne bredden direkte.

I Excel bruker vi funksjonen konfidens.norm, der vi gir inn $\alpha$, samt fordelingens varians og antall elementer i utvalget. (Vi gir altså inn $\alpha$, ikke ${\large \frac{\alpha}{2}}$.) Excel beregner da avstanden fra utvalgets gjennomsnitt til intervallgrensene. I GeoGebra bruker vi sannsynlighetskalkulatoren, slik det er beskrevet i artikkelen om statistikk med GeoGebra.

Eksempel 6:

Med basis i data fra lakseveiningen i eksempel 1, skal vi bruke Excel til å beregne grensene i et 95 % og et 99 % konfidensintervall for laksens gjennomsnittsvekt. Vi har altså veid 13 fisk og funnet et gjennomsnitt på 4,14 kg. Populasjonen er normalfordelt med standardavvik 0,7.

Skriver vi =konfidens.norm(1-0,95; 0,7; 13) i Excel, får vi ut 0,38. Et 95 prosent konfidensintervall blir derfor om lag

[4,14 – 0,38, 4,14 + 0,38] = [3,76, 4,52].

Skriver vi =konfidens.norm(1-0,99; 0,7; 13) i Excel, får vi ut 0,50. Et 99 prosent konfidensintervall blir derfor om lag

[4,14 – 0,50, 4,14 + 0,50] = [3,64, 4,64].
 

RegnearkÅpne et regneark som beregner 90 – 99 % (normal)konfidensintervaller

 
Oppgave 6:

Bruk Excel til å beregne et 98 % konfidensintervall for gjennomsnittsproduksjonen av støtfangere fra oppgave 1. Vi har altså dagsproduksjoner på henholdsvis 210, 220, 210, 225, 220 og 217 enheter, og vet at produksjonen er normalfordelt med standardavvik 5,8.

Se løsningsforslag

Konfidensintervaller ved ukjent standardavvik

Når vi har brukt normalfordelingen til å lage konfidensintervaller for et estimat i en populasjon, har vi forutsatt at standardavviket til populasjonen, σ, er kjent. Av og til kjenner vi en populasjons standardavvik, for eksempel hvis avviket skyldes dokumenterte unøyaktigheter i et måleinstrument. Men som regel er standardavviket ukjent, og må estimeres, det også.

Det vil da være naturlig å ta utgangspunkt i det standardavviket vi kan beregne ut fra de målingene vi har gjort, nemlig utvalgsstandardavviket, S, og estimere σ som

$\hat \sigma = S$

I artikkelen Måltall i statistikk så vi at hvis vi har gjort n målinger av en variabel X og beregnet at gjennomsnittet er X, er utvalgsstandardavviket, S, gitt ved

$S = \sqrt \frac{\displaystyle \sum_{i = 1}^n(X_i – \overline X)^2}{\displaystyle n – 1}$

Som vi nevnte samtidig, er det imidlertid sjelden vi beregner standardavvik for hånd. I stedet bruker vi statistikkfunksjoner på en kalkulator, eller funksjonen stdav.s i Excel eller stdev i GeoGebra.

Bruk av utvalgsstandardavviket innebærer imidlertid at vi innfører en usikkerhet, noe som medfører at normalfordelingen gir et for smalt intervall. I stedet for normalfordelingen bruker vi da en t-fordeling, også kalt Students t-fordeling. t-fordelingen er ikke én enkelt kurve, men en familie med kurver som blir lavere og bredere jo høyere usikkerhet vi har. Denne usikkerheten måler vi i frihetsgrader, v, der økende antall frihetsgrader gir synkende usikkerhet.

Figuren under viser et plott av tre t-kurver med frihetsgrader på henholdsvis v = 1, v = 5 og v = 30, tegnet med henholdsvis grønn, blå og rød linje. Figuren viser også en normalfordelingskurve, tegnet med svart, prikkete linje. Vi ser at t-kurven nærmer seg normalkurven når antall frihetsgrader øker. Ved 30 frihetsgrader er kurvene så å si overlappende.

Plott av normalfordeling og t-fordelinger med 1, 5 og 30 frihetsgrader.

Når vi skal bruke t-fordelingen ut fra et utvalgsstandardavvik basert på n målinger, setter vi antall frihetsgrader, v, lik antall målinger minus 1, v = n – 1.

t-kurven blir altså bredere jo færre målinger vi har.

Vi har tidligere sett hvordan vi brukte en kvantiltabell for normalfordelingen til å slå opp a og få ut z, slik at arealet under kurven til høyre for z var a. En kvantiltabell for t-fordelingen er tilsvarende, men vi må i tillegg til a også angi antall frihetsgrader, v. På dette nettstedet finnes en kvantiltabell for t-fordelingen. Tabellen går opp til 30 frihetsgrader. Har vi flere frihetsgrader, er t-fordelingen så nærme normalfordelingen at vi i stedet kan bruke kvantiltabellen for normalfordelingen.

Eksempel 7:

I eksempel 3 målte vi vekta på 13 laks, og fant at gjennomsnittet var X ≈ 4,14 kg og utvalgsstandardavviket S ≈ 0,71 kg.

Skulle vi brukt normalfordelingen til å lage et 95 % konfidensintervall for vekta, ville vi basert oss på z0,025 ≈ 1,96, og fått:

$4{,}14 \pm 1{,}96 \cdot {\large \frac{0{,}71}{\sqrt{13}}} \approx [3{,}75, 4{,}53]$.

Men siden vi baserer oss på utvalgsstandardavviket, bruker vi i stedet (kvantil)t-fordelingstabellen med a = 0,025 og v = 13 – 1 = 12. Vi finner at t0,025 (12) ≈ 2,179 og får:

$4{,}14 \pm 2{,}179 \cdot {\large \frac{0{,}71}{\sqrt{13}}} \approx [3{,}71, 4{,}57]$.

Konfidensintervallet blir litt bredere enn da vi brukte normalfordelingen, dette gjenspeiler usikkerheten ved at bruk av utvalgsstandardavviket basert på så lite som 13 målinger.

Oppgave 7:

I oppgave 1 og 2 fant vi, basert på 6 tilfeldige observasjoner at gjennomsnittlig antall produserte støtfangere var X= 217 stk, og produksjonens utvalgsstandardavvik S = 6 stk. Lag og sammenlikn et 95 % konfidensintervall basert på normalfordeling med ett basert på t-fordeling.

Se løsningsforslag

Når standardavviket til en populasjon er ukjent, beregner vi altså et konfidensintervall som

$\fbox{$\begin{align} &\text{Konfidensintervall:} \\
&\overline X \pm {\large t_{\Large \frac{\alpha^\phantom 1}{2} \,(v)}} \cdot \frac{\displaystyle S}{\displaystyle \sqrt n} \end{align}$}$

Excel og GeoGebra har mange funksjoner for oppslag i t-fordeling, tilsvarende de som finnes for oppslag i normalfordeling.

I artikkelen om normalfordelingen presenterte vi Excel-funksjonen norm.fordeling og GeoGebra-funksjonen FordelingNormal, som beregner P(Xx) i en vilkårlig normalfordeling. Motsvarende i t-fordelingen heter henholdsvis t.fordeling og FordelingT. I t-fordelingen antas forventningen å være 0 og standardavviket 1, så det trenger vi ikke oppgi. I stedet må vi oppgi antall frihetsgrader. I norm.fordeling er parameterne x, antall frihetsgrader, og sann/usann for kumulativ/ikke-kumulativ sannsynlighet. I FordelingT oppgir vi først antall frihetsgrader, deretter x og true/false for kumulativ/ikke-kumulativ. true/false kan sløyfes, da benyttes kumulativ sannsynlighet, som er det vanligste.

I denne artikkelen presenterte vi inversene til funksjonene nevnt over, norm.inv i Excel og InversNormalfordeling i GeoGebra. Motsvarende for t-fordelingen heter t.inv og InversTFordeling. I Excel er første parameter sannsynligheten og andre antall frihetsgrader, omvendt i GeoGebra.

I denne artikkelen har vi også sett hvordan vi kunne bruke funksjonen konfidens.norm i Excel og sannsynlighetskalkulatoren i GeoGebra til å beregne grensene i et konfidensintervall.

I Excel bruker vi funksjonen konfidens.t til å beregne bredden av et konfidensintervall basert på en t-fordeling. Vi gir da inn α, standardavvik og utvalgsstørrelse. I GeoGebra bruker vi sannsynlighetskalkulatoren, slik det er beskrevet i artikkelen om statistikk med GeoGebra.

Eksempel 8:

I eksempel 7 fant vi at et 95 % konfidensintervall for gjennomsnittsvekta til 13 laks med gjennomsnittsvekt 4,14 og utvalgsstandardavvik 0,711 var

$4{,}14 \pm 2{,}179 \cdot {\large \frac{0{,}71}{\sqrt{13}}} \approx [3{,}71, 4{,}57]$

For å beregne det samme i Excel, skriver vi =konfidens.t(1-0,95; 0,71; 13) og får ut 0,43. Et 95 prosent konfidensintervall blir derfor om lag

[4,14 – 0,43, 4,14 + 0,43] = [3,71, 4,57].
 

RegnearkÅpne et regneark som beregner 90 – 99 % (t)konfidensintervaller

 
Oppgave 8:

I oppgave 7 beregnet vi, basert på 6 tilfeldige observasjoner med gjennomsnitt 217 og utvalgsstandardavvik 6 et 95 % konfidensintervall basert på t-fordeling. Gjør den samme beregningen i Excel.

Se løsningsforslag

Når vi eksempler og oppgaver har forutsatt at populasjonene er normalfordelte, er det fordi vi har gjort beregninger basert på ganske få målinger. Hvis vi øker antall målinger til 30 eller mer, kan vi imidlertid fire på dette kravet. Sentralgrenseteoremet garanterer at gjennomsnittene i alle tilfeller vil være tilnærmet normalfordelte.

Binomisk modell

Det vi har gjort så langt, har vært basert på gjennomsnitt. Av og til er imidlertid ikke gjennomsnittet interessant, vi er i stedet ute etter å estimere sannsynligheten for at elementer i en populasjon har en gitt egenskap. Vi antar at hvert element enten har eller ikke har egenskapen, og at det er uavhengighet mellom elementene. Vi har derved en binomisk modell. I en binomisk modell bruker vi symbolet $\hat p$ til å estimere sannsynligheten p. Trekker vi n elementer fra populasjonen, og X av disse har den gitte egenskapen, er en forventningsrett estimator
$\hat p = {\large \frac{X}{n}}$.

Standardavviket til estimatoren baseres ikke på et utvalgsstandardavvik, men på at variansen i en binomisk fordeling er Var(X) = np(1-p), slik vi så i artikkelen om forventning og varians.

Ved å bruke regnereglene vi lærte i denne artikkelen, kan vi finne variansen til estimatoren:

$Var(\hat p) = Var(\frac{\displaystyle X}{\displaystyle n}) = {(\frac{\displaystyle 1}{\displaystyle n})}^2Var(X) = {(\frac{\displaystyle 1}{\displaystyle n})}^2(np(1 – p)) = \frac{\displaystyle p(1 – p)}{\displaystyle n}$.

Og standardavviket til estimatoren blir $\sqrt \frac{\displaystyle p(1 – p)}{\displaystyle n}$

Vi ser at standardavviket blir 0 når $\hat p = 1$ eller $\hat p = 0$, rimelig nok, siden vi da ikke har spredning i det hele tatt. Størst standardavvik får vi når $\hat p = 0{,}5$.

Nå er jo ikke $p$ kjent, dette er jo den ukjente variabelen vi skal estimere, så vi tilnærmer $p$ med den estimerte sannsynligheten, $\hat p$.

Formelen for rapportering i denne modellen blir da

$\fbox{Rapportering: $\overline X \pm \sqrt \frac{\displaystyle \hat p(1 – \hat p)}{\displaystyle n}$}$

Og et konfidensintervall angis som

$\fbox{$\begin{align}&\text{Konfidensintervall:} \\
&\hat p \pm {\large z_{\Large \frac{\alpha^\phantom 1}{2}}} \cdot \sqrt{ \frac{\displaystyle \hat p(1 – \hat p)}{\displaystyle n}} \end{align}$}$

I målemodellen så vi at vi kompenserte for usikkerheten ved at variansen ikke var kjent ved å bruke t-fordeling i stedet for normalfordeling. Det gjør vi ikke i den binomiske modellen, vi forutsetter i stedet at vi har minst 30 målinger, slik at normalfordelingen gir en god nok tilnærming.

Eksempel 9:

Når vi kaster en vanlig mynt 50 ganger, er forventningsverdien til antall kron 50 · 0,5 = 25. Store avvik fra dette kan tyde på at det er noe juks med mynten.

Vi kaster en mynt vi mistenker er jukset med 50 ganger, og får 33 kron.

Vi estimerer da sannsynligheten for kron med $\hat p = {\large \frac{X}{n}} = {\large \frac{33}{50}}= 0{,}66$.

Vi estimerer standardavviket til estimatoren med $\sqrt{\large \frac{\hat p(1- \hat p)}{n}} = \sqrt{\large \frac{0{,}66(1 – 0{,}66)}{50}} \approx 0{,}067$.

En rapportering av denne sannsynligheten blir da

$0{,}66 \pm 0{,}067$

Så ønsker vi å finne 95 % og 99 % konfidensintervaller for den estimerte sannsynligheten.

Fra tidligere eksempler vet vi at vi i et 95 % konfidensintervall har

${\large z_{\Large \frac{\alpha^\phantom 1}{2}}} \approx 1{,}96$

og i et 99 % konfidensintervall har

${\large z_{\Large \frac{\alpha^\phantom 1}{2}}} \approx 2{,}58$

Så et 95 % konfidensintervall blir 0,66 ± 1,96 · 0,067 ≈ [0,53, 0,79].

Og et 99 % konfidensintervall blir 0,66 ± 2,58 · 0,067 ≈ [0,49, 0,83].

Vi ser at et 95 % konfidensintervall ikke fanger opp sannsynligheten for en normal mynt, som er 0,5, men 99 % intervallet gjør det så vidt. Det betyr at estimatet med 95 % sikkerhet indikerer at mynten er jukset med, men ikke med 99 % sikkerhet.

Oppgave 9:

En bedrift som produserer mobilladere, tester 2000 tilfeldige ladere, og finner ut at 35 av dem er defekte.

Finn et estimat for hvor stor sannsynligheten er for at en vilkårlig lader er defekt, og angi resultatet som en rapportering.

Finn deretter et 95 % konfidensintervall for estimatet.

Se løsningsforslag

Å beregne konfidensintervaller i en binomisk modell i Excel er tungvint, men sannsynlighetskalkulatoren i GeoGebra gjør dette enkelt , slik det er beskrevet i artikkelen om statistikk med GeoGebra.

Kilder

  • Ubøe, J. (2011). Statistikk for økonomifag. Gyldendal akademisk
  • Hagen, Per C. (2000). Innføring i sannsynlighetsregning og statistikk. Cappelen akademisk
  • Bhattacharyya, G, Johnson, R.A. (1977) Statistical concepts and methods. John Wiley & Sons

Misforståelser i sannsynlighet

Som vi nevnte i artikkelen om introduksjon til sannsynlighet, er magefølelsen ofte ikke å stole på når det gjelder sannsynlighet. I denne artikkelen skal vi se på noen mulige misoppfatninger.

Størrelse på sannsynligheter

I oppgave 1 i artikkelen om introduksjon til sannsynlighet så vi at sannsynligheten for at minst to av 20 vilkårlige biler har samme to sluttsifre i registreringsnummeret er om lag 87 %. Det er altså betydelig større sannsynlighet for like sifre enn for ikke like sifre. En typisk magefølelse vil basere seg på at 20 av 100 mulige sifre gir en sannsynlighet på $\large \frac{20}{100}$, altså 20 %.

Men vi regner altså ikke dette ut på denne måten. Som vi viste i artikkelen om sammensatte hendelser,  ser vi på komplementhendelsen, som består i at ingen av bilene har to like sluttsifre. Da må sifrene til første bil ikke gjentas blant de 19 neste, sifrene til andre bil ikke gjentas blant de 18 neste, og så videre. Vi føler intuitivt at sannsynligheten for at dette skjer ikke er særlig stor, og den blir${\large \frac{100}{100}} \cdot {\large \frac{99}{100}} \cdot {\large \frac{98}{100}} \cdot \, \dots \, \cdot {\large \frac{81}{100}} \approx 0{,}1304$, ca. 13 %. Og sannsynligheten for det motsatte, altså minst to biler med samme to sluttsifre blir om lag 100 % – 13 % = 87 %.

I en tilsvarende situasjon spør vi hvor sannsynlig det er at minst to elever i en klasse på 30 har samme fødselsdag. Magefølelsen sier kanskje at denne sannsynligheten ikke er særlig stor, fordi 30 av 365 mulige datoer bør gi en sannsynlighet på ${\large \frac{30}{365}} \approx 0{,}0822$, altså om lag 8 %. Men argumentet for sannsynligheten til komplementhendelsen er den samme som for bilsifrene. Første elevs fødselsdag må ikke gjentas blant 29 andre. Andre elevs fødselsdag må ikke gjentas blant 28 andre, og så videre. Som vi så i oppgave 2 i artikkelen om sammensatte hendelser, var sannsynligheten for dette om lag 28 %, og sannsynligheten for at minst to elever har samme fødselsdag derved om lag 100 % – 28 % = 72 %.

Regnearket under inneholder en simulering av 20 bilsifre og 30 fødselsdager, der verdiene trekkes tilfeldig ved hjelp av funksjonen tilfeldigmellom. Like verdier markeres med en X. Trykk F9 for å generere nye verdier.

RegnearkÅpne regneark med simulering av bilsifre og fødselsdager

 
I oppgave 2 i artikkelen om introduksjon til sannsynlighet så vi på det såkalte Monty Hall-problemet, oppkalt etter TV-verten Monty Hall. I Monty Halls TV-show, Let′s make a deal, skal en deltaker velge én av tre dører. Bak en av dørene er en bil, bak de to andre dørene er det ikke noe av verdi. Deltakeren velger en dør. Monty, som vet hvor bilen er, åpner så en av dørene uten noe bak, og deltakeren får muligheten til å bytte dør. Feilen mange gjør er å tro at det ikke er noen vits i å bytte dør, fordi sannsynligheten uansett er en tredel. Men faktum er at å bytte dør dobler vinnersjansene.

Når deltakeren har pekt ut en dør, er sannsynligheten for at bilen befinner seg bak den døren en tredel, og sannsynligheten for at den befinner seg bak en av de to andre dørene er to tredeler. De to tredelene fordeler seg med en tredel på hver dør. Men idet Monty åpner en dør, faller sannsynligheten for at bilen er bak denne døren til 0. Sannsynligheten på to tredeler forskyves da over på den siste døren, og deltakeren dobler vinnersjansene ved å bytte. Dette er illustrert under, der deltakeren velger dør nummer 3, og Monty åpner dør nummer 2.

Illustrasjon av Monty Hall-problemet før Monty åpner en dør

Deltakeren velger dør nummer 3

Illustrasjon av Monty Hall-problemet etter at Monty har åpnet en dør

Monty åpner dør nummer 2

 

I en vitenskapelig studie av Granberg & Brown valgte bare 12 % av forsøkspersonene å bytte dør. I en undersøkelse gjort på Discovery-programmet Mythbusters valgte ingen å bytte. De begrunnet med magefølelse, og at de likte å stå på sine valg.

Monty Hall-problemet er for øvrig et eksempel på problemer der løsningen blir enklere å forstå hvis en gjør noe veldig stort eller veldig lite. La oss overdrive og si at det er 1000 dører i stedet for 3. Deltakeren velger 1 dør og Monty åpner 998 andre han vet det ikke er noe bak. Prinsippet er ikke endret, men nå er det blitt mye tydeligere at deltakeren øker sjansene ved å bytte dør.

I oppgave 3 i artikkelen om introduksjon til sannsynlighet så vi på paradokset med de falske positive. Når en får positivt utslag på en sykdomstest som er 99 % sikker, er det fort å tro at det er 99 % sannsynlighet for at en er syk. Men 99 % sikker betyr ikke bare at testen i ett tilfelle blant 100 syke ikke klarer å påvise sykdommen, men også at den feilaktig påviser sykdom i ett tilfelle blant 100 friske. Hvis sykdommen er sjelden, finnes det mange flere friske en syke, derfor er det flest friske som blir feildiagnostisert.
(I dette eksemplet var det samme feilprosent for friske og syke, i praksis vil en medisinsk test gjerne ha forskjellige feilprosenter for de to tilfellene.)

RegnearkÅpne et regneark der du kan eksperimentere med parametere blant de falske positive
 

Uavhengige og avhengige hendelser

Erfaringsmessig vet mange at sannsynligheten for å få kron ti ganger på rad når vi kaster en mynt, er liten. Hvis vi har fått kron ni ganger på rad, og så spør hva sannsynligheten er for å få en kron til, vil noen derfor påstå at den er svært liten. Men dette er selvsagt en feilslutning. De enkelte kastene er uavhengige av hverandre, og sannsynligheten for å få kron er en halv i hvert enkelt kast, uavhengig av hvor mange kron vi har fått tidligere. Den lave sannsynligheten for ti kron på rad ligger i at vi i utgangspunktet har et krav om at vi må oppnå noe med sannsynlighet en halv ti ganger etter hverandre.

Lottotall er et annet eksempel på feilvurdering av avhengighet. Hvilke lottotall som blir trukket i en spilleomgang er helt uavhengig av hvilke som ble trukket i spilleomgangen før. Like fullt hadde avisa VG en periode en oversikt over lottotallenes «formkurver», det vil si en tabell over hvor ofte tallene hadde forekommet i de siste trekningene.

Ganske morsomt / tragisk at Norsk Tipping selv har en artikkel om at noen tall i spillet Extra trekkes oftere enn andre, selv om alle tallene naturligvis har like stor sannsynlighet for å bli trukket ut. Dette påpeker de også til slutt i artikkelen, og poengterer derved at deres egen artikkel er meningsløs.

Tre vanlige feilslutninger er

  • En hendelse står for tur. Hvis for eksempel tallet 3 ikke har vært med i lottorekkene på ti uker, er det stor sannsynlighet for at det blir trukket ut neste gang.
     
  • Sannsynligheten for en hendelse er brukt opp. Hvis for eksempel tallet 3 har vært med i de siste fem lottorekkene, er det liten sannsynlighet for at det blir trukket ut neste gang.
     
  • En hendelse er «i form». Hvis for eksempel tallet 3 har vært med i de siste fem lottorekkene, er det «i form» og har økt sannsynlighet for å bli trukket ut neste gang. Dette argumentet kan det imidlertid være et visst hold i. Hvis en hendelse opptrer hyppigere enn den beregnede sannsynligheten skulle tilsi, kan det tyde på at sannsynligheten faktisk er høyere enn beregnet, noe vi skal se nærmere på i artikkelen om hypotesetesting. Ei lottokule som dukker opp for ofte, kan ha økt sannsynlighet for å bli trukket ut fordi vekta avviker fra normalen. I praksis skjer imidlertid ikke dette, lottokulenes vekt og form kontrolleres jevnlig av Justervesenet.

I eksemplene over er det feilaktig gjort antakelser om avhengighet mellom uavhengige hendelser. Men det motsatte er også mulig, å anta uavhengighet mellom avhengige hendelser. Og avhengigheter er ikke alltid like lette å oppdage, så her er det fort å gå fem på.

Som eksempel kan vi ta kortspillet Krig.

En kortstokk deles på midten, og to personer får hver sin halvpart med billedsiden ned. Så snur de om kort etter kort på likt, og høyeste kort vinner. Hvis de får kort med lik valør, er det «Krig». Hva er da sannsynligheten for at det blir «krig» på første kort? Det er fort å anta at sannsynligheten er en trettendedel, om lag 7,7 %, fordi kortstokken har tretten valører. Og slik ville det vært hvis spillerne hadde hver sin komplette kortstokk. Men siden de deler en stokk, vil det, når den ene spilleren får opp en valør, bare være tre kort med samme valør igjen til den andre. Hvis for eksempel den ene spilleren får opp ruter konge, vil det kunne bli «krig» bare på spar, kløver eller hjerter konge. Det er altså tre gunstige blant i alt femtien gjenværende kort. Sannsynligheten blir derfor tre femtien-deler, om lag 5,9 %.

Andre eksempler på avhengige hendelse er været på etterfølgende dager og pokerhender. Sannsynligheten for hva de andre har varierer med hva en har selv.

Mønstre og regelmessighet

I TV-programmet Siffer ba programleder Jo Røislien to mennesker plassere en del gjenstander tilfeldig utover en stor flate. De sørget da omhyggelig for at ingen mønstre oppstod. Mens da han selv bare slengte gjenstandene tilfeldig utover, lot det til å oppstå mønstre. Det er altså en tendens til å tro at mønstre ikke kan oppstå ved tilfeldigheter, noe som er feil.

I Lotto er alle tallkombinasjonene like sannsynlige. Men siden det finnes en misoppfatning om at mønstre ikke oppstår ved tilfeldigheter, tror noen likevel at ei Lotto-rekke med et tydelig mønster som 1-2-3-4-5-6-7 er mindre sannsynlig enn ei rekke uten mønster, som 3-11-7-22-33-2-8. Blant de følgende tre seriene med myntkast vil nummer 1 gjerne bli rangert som mest sannsynlig, deretter nummer 2, og så nummer 3, på grunn av den økende graden av system.

  1. kron-mynt-mynt-kron-mynt-kron
     
  2. kron-kron-kron-mynt-mynt-mynt
     
  3. kron-kron-kron-kron-kron-kron

Men med en rettferdig mynt har alle seriene samme sannsynlighet, ${({\large \frac{1}{2}})}^6 = {\large \frac{1}{64}}$, om lag 1,6 %. Det betyr imidlertid ikke at det er like sannsynlig å få seks kron som å få tre mynt og tre kron. Sannsynligheten for tre mynt og tre kron er ${\large \frac{20}{64}}$, altså 20 ganger høyere enn sannsynligheten for seks kron. Dette skyldes at det finnes tjue forskjellige serier med tre mynt og tre kron, mens det bare finnes én enkelt serie med seks kron.

Sjeldne hendelser

Det er en misoppfatning at en hendelse med svært liten sannsynlighet aldri vil inntreffe. Men slik er det ikke. Sannsynligheten for å vinne hovedgevinsten i Lotto er for eksempel mindre enn sannsynligheten for å slippe en ball fra et vindu på toget mellom Oslo og Trondheim og treffe ei bøtte som står et vilkårlig sted langs sporet. Likevel er det som regel én eller flere vinnere hver uke.

Tallrekka under viser 102 simulerte terningkast:

2, 6, 2, 3, 5, 3, 3, 4, 6, 3, 3, 6, 1, 4, 1, 5, 6, 1, 3, 4, 2, 5, 4, 2, 2, 3, 3, 5, 4, 5, 4, 5, 1, 4, 5, 4, 4, 6, 5, 3, 2, 4, 3, 4, 1, 6, 6, 3, 2, 3, 4, 1, 3, 5, 6, 6, 6, 5, 2, 2, 6, 3, 2, 1, 5, 2, 3, 5, 2, 1, 6, 6, 4, 3, 3, 1, 3, 3, 6, 3, 4, 3, 5, 6, 5, 4, 3, 3, 4, 2, 1, 5, 6, 1, 3, 2, 3, 1, 2, 2, 3, 5.

Sannsynligheten for at akkurat denne rekka skulle dukke opp er ${({\large \frac{1}{6}})}^{102} \approx 4,252 \cdot 10^{-80}$. Hvis alle atomene i det synlige universet hadde et nummer, og to personer valgte hvert sitt atom vilkårlig, ville dette tallet være noe rundt sannsynligheten for at begge valgte samme atom. Så lite sannsynlig er det å få akkurat denne rekka, allikevel dukket den opp. Vi kan selvsagt fortsette å fylle på med terningkast, og etter hvert som lengden øker nærmer sannsynligheten for akkurat den rekka seg null. Likevel er den der. I artikkelen om normalfordelingen skal vi se at hendelser kan inntreffe selv om de har sannsynlighet 0.

Utvalgsstørrelse

En feil noen gjør er å trekke konklusjoner basert på for små utvalg. Ved et stort antall terningkast med en rettferdig terning forventer vi å få i gjennomsnitt 3,5. For eksempel er gjennomsnittet av kastene i forrige avsnitt om lag 3,55. Avvik fra gjennomsnittet kan tyde på at terningen ikke er rettferdig. Dersom en terning for eksempel er manipulert til å gi ekstra mange seksere, vil vi kunne forvente at gjennomsnittet ligger høyere enn 3,5. Men kaster vi en terning fem ganger og får et gjennomsnitt som er alt for høyt, kan vi allikevel ikke trekke noen konklusjon. Utvalget på fem kast er altfor lite.

Mer presist sagt er det veldig stor usikkerhet knyttet til små utvalg, men denne usikkerheten avtar når utvalgets størrelse øker. Det finnes ikke noen magisk grense der en går fra veldig usikker til veldig sikker, men i mange sammenhenger regnes utvalg på mindre enn 30 som små.

Generelt sier store talls lov at jo flere forsøk vi gjør, jo nærmere vil vi i gjennomsnitt komme det forventede resultatet. Det er altså ikke slik noen tror at det er like sannsynlig å få 550 kron eller mer ved 1000 kast med en rettferdig mynt, som det er å få 55 kron eller mer ved 100 kast. Selv om forholdstallet er det samme, ${\large \frac{550}{1000}} = {\large \frac{55}{100}}$, er 550 et mye mindre sannsynlig avvik fra gjennomsnittet på 500 enn 55 er fra gjennomsnittet på 50. Sannsynlighetene er henholdsvis om lag 0,07 % og 13,6 %. Gjør vi mange forsøk med 1000 myntkast, vil antall kron i så mye som 99,84 % av tilfellene ligge mellom 450 og 550, men gjør vi mange forsøk med 100 myntkast, vil antall kron i bare om lag 68 % av tilfellene ligge mellom 45 og 55.
 

SkjermfilmSe filmen «Misforståelser i sannsynlighet»
 

Kilder

  • Røislien J., Nome M. (2011). Siffer. Versal forlag