se s.14 http://home.phys.ntnu.no/brukdef/underv ... gerTFY.pdf

Vi har kan for enkelhetensskyld si vi har [tex]n[/tex] målepunkter
med avstand [tex]x_1\,,\,\ldots\,,\,x_n[/tex]. Målet blir å beregne
L/n med så lav usikkerhet som mulig.
I heftet er det eksempler på to ulike måter å gjøre dette på. Den
første metoden går ut på å ta lengden av hele intervallet å dele
på antall punkter, som gir en usikkerhet på
[tex]\Delta L_1 = \frac{\Delta x \sqrt{2}}{N - 1} \qquad (1)[/tex]
mens om vi hadde målt hver avstand [tex]x_1[/tex] til [tex]x_n[/tex] individuelt
og funnet middelverdien forså å dele på antall punkter ville
usikkerheten blitt
[tex]\Delta L_2 = \frac{\Delta x \sqrt{2}}{\sqrt{N-1}}\,\qquad(2)[/tex]
lab assistenten vår sa at metode [tex](1)[/tex] villle gi en høyere usikkerhet enn [tex](2)[/tex]
men med å sette inn tallverdier ser jo jeg selvsagt at det er omvendt.
Ved å sette inn noen høvelige verdier.
Hvilken metode gir faktisk lavest usikkerhet?
Håper noen ønsker å forklare dette, var lita komplisert