5.5. A statisztikai becslések minőségét ellenőrző eljárások

Az eddig elmondottak összefoglalásából kiemelhetjük, hogy a méréseink összessége, (a kísérleti anyag) valószínűségi változók realizációjának tekinthető, így az ebből levezett minőségi vagy mennyiségi jellemzők (a paraméterek) maguk is valószínűségi változók.

Az előző fejezetben láttuk, hogy ezeknek a jellemzőknek a meghatározásához olyan  becslési eljárást választottunk (a maximum likelihood becslést), amely ezeknek a jellemzőknek, a paramétereknek (legalább aszimptotikusan) torzítatlan és legkisebb szórású (effektív) becsléseit adják. Ebben a fejezetben, a mennyiségi interpretáción keresztül bemutatjuk a becsült paraméterek statisztikai jellemzőinek a kiszámítási módját.

A statisztikus megközelítés szemszögéből a becsült paraméterek statisztikus jellemzőinek meghatározása ugyanolyan fontos eleme az inverziónak, mint a maguknak a paramétereknek a meghatározása. Ebből a szempontból az inverzió nem teljes addig, amíg ezeket a statisztikai jellemzőket is meg nem határoztuk.

Ebben a fejezetben csak a mennyiségi interpretáció esetét tárgyaljuk. A minőségi interpretáció esete nagy hasonlóságot mutat a statisztikai próbák elméletével, amit ez a jegyzet nem tárgyal. Az összetett (mennyiségi-minőségi) interpretáció esetét a mennyiségi interpretáció után, csak vázlatosan tárgyaljuk.

A mennyiségi interpretáció során, az alkalmazott maximum likelihood becslés segítségével meghatároztuk a modellünkben szereplő paraméterek becsült értékeit (). Ahogy említettük, ezek maguk is valószínűségi változókból (a mérésekből) származtatott mennyiségek. Az ezekre a valószínűségi változókra vonatkozó legteljesebb információt ezeknek a mennyiségeknek (a paramétereknek) az eloszlásfüggvénye szolgáltatja. A teljes eloszlásfüggvényt általában nem tudjuk meghatározni. Feltételezve, hogy a paraméterek normális eloszlásúak, elegendő az első két momentumukat ismerni az eloszlás pontos leírásához.

Az első momentum a várható érték. Egy becslés torzítatlansága azt jelenti, hogy a becsült paraméter várható értéke megegyezik a paraméter elméleti értékével. Ez a feltétel általában nem teljesül, hanem csak az aszimptotikus torzítatlanság. A gyakorlatban sok mérés és kevés meghatározandó paraméter esetén ez általában teljesül, és egy paraméter becsült várható értéke megegyezik az adott paraméter elméleti értékével.

A becsléseinkkel szemben a torzítatlanság mellett a másik elvárásunk az effektivitás volt, vagyis hogy a becsült paraméterek szórása minimális legyen. Optimálisnak tekintettük azokat a becsléseket, amelyek ezt (a torzítatlanság mellett) megvalósították. Minthogy ilyen becsléseket nehéz konstruálni, általában normális eloszlásúnak tekinthető véletlen komponens modell esetén a maximum likelihood becslést használjuk, tudva, hogy az általa szolgáltatott becslés csak szuboptimális. Az optimális (effektív) becslés tehát az elérhető legkisebb szórással becsli a paramétereket, a gyakorlatban használt maximum likelihood becslés viszont ennél nagyobb szórással.

Vizsgáljuk meg a paraméterek szórását leíró mennyiségeket! Említettük, hogy egy többváltozós normális eloszlást egyértelműen megad a várható értékek vektora és a centrális momentumokból képzett kovariancia mátrix. Eszerint a paraméterek kovariancia mátrixa, az a mennyiség, amit meg kell határoznunk az effektivitás vizsgálatához.

Egy valószínűségi vektorváltozó függvényeként előállt vektorváltozó kovarianciamátrixát (3.88) a hibaterjedést leíró fejezetben meghatároztuk.  Az ottani eredmények a valószínűségi változók lineáris függvényeire vonatkoznak, így azokat a lineáris additív terű modellekre változtatás nélkül alkalmazhatjuk. A (3.88) képletet – a jelen fejezetben használt jelölésekkel – az alábbi alakba írhatjuk:

(5.81)

Ahol az A mátrix a (5.27) egyenletben szereplő alak (struktúra) mátrix, R pedig a mérés kovariancia-mátrixa, ait a mérési hibákból képezhetünk. Felhasználva az lineáris additív modellt, – amelyben a kovarianciamátrixot az egységnyi súlyú mérés szórásának és a súlymátrixnak a szorzataként írjuk fel – a paraméterek kovariancia mátrixa tehát:

(5.82)

A nem lineáris elméleti terű modellekre is felhasználhatjuk a fenti eredményt. Ehhez használjuk fel a direkt feladat Taylor-sorfejtését a paraméterek becsült () értékénél (az elsőrendű tagig végezve a sorfejtést):

(5.83)

Mivel az f függvény egy K elemű vektor (K mérésünk van) és ezt az S darab paraméter szerint deriváljuk, a mennyiség egy K×S méretű mátrix. Ez a mátrix a (5.81) egyenletben behelyettesíthető az A mátrix helyére (ami ugyancsak a direkt feladatnak a paraméterek szerinti deriváltja), aminek a segítségével tetszőleges alakú direkt feladat esetén meghatározható a paraméterek kovariancia mátrixa:

(5.84)

Ez az eredmény központi jelentőségű az inverzióelméletben.

A paraméterek kovariancia mátrixát számos esetben csak közelítőleg tudjuk kiszámolni. A gyakorlatban előforduló esetek közül nagyon sokban, a mérések kovariancia mátrixát (R) csak közelítőleg ismerjük. Sok esetben csak az egyes mérések szórásnégyzeteit ismerjük, a mérések közötti kovarianciákról nincsenek előzetes ismereteink. Ekkor az R mátrixot egy olyan diagonális (csak főátlóban elemeket tartalmazó) mátrixszal közelítjük, aminek a főátlójában az egyes mérések szórásnégyzetei szerepelnek. Más esetekben az egyes mérések között a mérési pontok fizikai távolsága, vagy a mérések időpontjai között eltelt idő alapján csökkenő korrelációt tételezünk fel. Ebben az esetben az R mátrix a főátlótól távolodva egyre kisebb abszolútértékű elemeket tartalmaz.

Az egyenletben szereplő deriváltak meghatározása bizonyos feladatok esetén analitikusan is megadható, de összetett direkt feladat esetén numerikus deriválással is ki lehet számolni a deriváltakat. Amennyiben a direkt feladatban szereplő függvény kellően sima, akkor az egyoldali differenciával közelítjük a deriváltat. Bonyolultabb esetben a kétoldali (három pontos) numerikus deriválást kell alkalmazni.

Amennyiben előzetes ismereteink alapján feltételezhetjük, hogy a hibakomponens nem normális eloszlású, és az adott problémára fel tudjuk írni a likelihood függvényt, akkor a likelihood függvény segítségével általánosságban fel tudjuk írni a paramétereink kovariancia mátrixát, -t amelynek elemeit az alábbi egyenlőség definiálja:

(5.85)

ahol az i és j indexek 1,2,…, S értékeket vesznek fel (S a modellparaméterek száma). Az  függvény a problémához felírt likelihood függvény, aminek a paraméterek szerinti második deriváltjait a paraméterek inverzióval becsült értékénél () számítjuk. Az M(...) függvény itt is a várható érték képzést jelenti.