Strona główna

Dokładność pomiaru i błąd w przetwarzaniu sygnału pomiarowego


Pobieranie 37.84 Kb.
Data19.06.2016
Rozmiar37.84 Kb.

Komputerowa analiza systemów pomiarowych



WYKŁAD IX
Dokładność pomiaru i błąd w przetwarzaniu sygnału pomiarowego




  • Miary błędów systematycznych i losowych

  • Propagacja błędów

  • Wrażliwość wyniku pomiaru a błąd

  • Algorytmy obliczeniowe a propagacja błędów

  • Informacyjne podejście do analizy dokładności

Miary dokładności w przestrzeni wyników pomiaru


Wynik pomiaru można widzieć jako estymatę (oszacowanie) parametru obiektu lub sygnału. Przykładem takiej estymaty jest wynik działania definicyjnego algorytmu wartości skutecznej (nieliniowe przetwarzanie danych pomiarowych), algorytmu wyznaczania średniej (przetwarzanie liniowe – filtracja FIR) czy wyznaczania stałej czasowej z odpowiedzi skokowej (np. liniowym algorytmem LS). Przy takim ujęciu problemu, do analizy dokładności pomiaru można użyć aparatu statystyki matematycznej.

Do podstawowych czynników ograniczających dokładność estymacji parametrów sygnałów/obiektów należą:



  • zakłócenia zmiennych pomiarowych (danych estymacyjnych),

  • reżim pomiaru zmiennych,

  • własności statystyczne i numeryczne algorytmu estymacji,

  • niedoskonałe własności statyczne i dynamiczne sprzętu pomiarowego.

Inaczej mówiąc, błąd wyniku pomiaru ma źródła w błędach statycznych i dynamicznych przetwarzania sygnałów pomiarowych oraz w zakłóceniach zawartych w sygnałach pomiarowych lub powstających w elementach systemu pomiarowego. Wartość błędu pojedynczego pomiaru nie jest znana „z góry”, przed przeprowadzeniem pomiaru. Wartości wyników pomiaru w serii pomiarów będą się różnić między sobą a wartość średnia z tych pomiarów będzie różna od rzeczywistej wartości mierzonej. Z tych względów wprowadza się miary błędów, dające informację o możliwym błędzie w danych warunkach pomiarowych. Opis błędu pomiaru zawiera dwie składowe: systematyczną b, opisującą wspólną dla poszczególnych wyników odchyłkę od wartości mierzonej i losową , opisującą rozrzut wyników wokół wartości średniej.



Matematycznie obydwie składowe są definiowane z użyciem parametrów statystycznych wartości oczekiwanej b i wariancji 2 błędu pomiaru traktowanego jak zmienna losowa. Wielkością łączącą obydwie składowe błędu w jedną wielkość skalarną jest błąd średniokwadratowy s2.



Z powyższych definicji wynika, że jeśli przedział rozrzutu wyników pomiaru zawiera wszystkie możliwe wyniki pomiarów, to dla każdego wyniku pomiaru błąd  spełnia warunek . Jeśli zmienna losowa wyniku pomiaru jest modelowana rozkładem o nieskończonych granicach (jak np. rozkład normalny) to powyższa zależność dotyczy określonego procenta wyników pomiarów (np. dla normalnego (gaussowskiego) rozkładu gęstości wyników pomiarowych przedział ± zawiera statystycznie 63% wyników z serii pomiarów).


Propagacja błędów i niedokładności


W ogólnym przypadku nieliniowej zależności wyniku pomiaru od danych pomiarowych dokładne obliczenia propagacji błędów wymagałyby przekształcania rozkładów danych pomiarowych na rozkład wyniku. W praktyce sprowadza się problem do zależności liniowej (linearyzacja w punkcie).

Przykład: Klasyczne wzory propagacji błędów pomiarowych


Klasyczna analiza propagacji błędów w pomiarach pośrednich opiera się na rozwinięciu zależności wielkości mierzonej y od n wielkości pomiarowych xi w szereg Taylora do pierwszego wyrazu (linearyzacja).

Błędy systematyczne kontrolowane (poprawka)

Błędy systematyczne niekontrolowane

Błędy losowe nieskorelowane

Błędy losowe skorelowane (macierz kowar. x)









Tu trzeba zwrócić uwagę na fakt, że w trakcie rzeczywistego pomiaru wartość mierzona jest nieznana, zaś w symulacji procesu pomiarowego wartość mierzona jest zadawana, a więc znana. Wynika z tego inne traktowanie składowej systematycznej błędu w teorii pomiarów i w symulacyjnym badaniu systemów pomiarowych. Teoria pomiarów nakazuje eliminowanie składowej systematycznej błędu, jeśli jej wartość jest znana, z wyniku pomiaru przez odjęcie poprawki [norma ISO 1993]. W badaniach symulacyjnych obydwie składowe, systematyczna i losowa, mogą być analizowane i mogą być przedmiotem optymalizacji poprzez dobór parametrów sprzętu (np. pasma, filtrów przeciwzakłóceniowych, korektorów) lub przez zabiegi programowe (np. uśrednianie, filtracja cyfrowa, korekcja programowa).



Przykład: Projektowanie algorytmu obliczeniowego wg różnych miar błędu

Zadaniem projektowym jest skonstruowanie optymalnego estymatora wartości oczekiwanej zmiennej losowej x w postaci ważonej średniej (III.9) z N wartości zmiennej losowej x. Współczynnik a jest parametrem projektowym, który ma być dobrany dla zapewnienia minimalnej wartości wybranego wskaźnika jakości. Założono, że zmienna losowa x ma rozkład o parametrach i 2 i niesprecyzowanej postaci.





Obliczając minimum błędu średniokwadratowego względem parametru a:





otrzymuje się wynik:



Optymalna wartość a jest zależna od wartości oczekiwanej i wariancji 2 zmiennej x. Wartość zaprojektowana przy założeniu braku obciążenia wynosi a0=1. Jest to wartość niezależna od i (klasyczny estymator średniej).



Zależnie od wyboru miary błędu (co nazywamy błędem) dostaniemy różne projekty optymalne.

Przykład: Propagacja zakłóceń przy liniowej transformacji danych (wyjście wielowymiarowe)

Transformata DFT (w szczególności algorytm FFT) to liniowa zespolona transformacja (przekształcenie) danych z przestrzeni Euklidesowej (wektor próbek czasowych) do przestrzeni z dyskretną bazą Fouriera (wektor próbek częstotliwościowych). Jak zachowują się zakłócenia pomiarowe nałożone na transformowany sygnał ? Czy zakłócenia skorelowane pomiędzy poszczególnymi próbkami czasowymi będą skorelowane pomiędzy próbkami częstotliwościowymi ? Policzmy:



- próbki rzeczywiste o zerowej wartości oczekiwanej dla uproszczenia zapisu

- macierz zespolona transformaty DFT (uwaga na normowanie)

- transformacja danych



(indeks H - zespolona transpozycja sprzężona)

Niby nic ciekawego, ale: Obustronna transformata macierzy Toeplitza dąży asymptotycznie ze wzrostem N do macierzy diagonalnej, z wartościami na diagonali równymi transformacie wartości definiujących macierz Toeplitza (pierwszy wiersz i pierwsza kolumna).

Macierz kowariancyjna jest macierzą Toeplitza (ma strukturę „przesuwną”) dla procesów stacjonarnych więc asymptotycznie zakłócenia w dziedzinie częstotliwości są nieskorelowane i mają wariancję równą gęstości widmowej mocy zakłóceń przy danej częstotliwości.

Opis dokładności wielowymiarowego wyniku pomiaru


Pomiar wielowymiarowy, kiedy wynikiem pomiaru jest zestaw wartości kilku wielkości mierzonych jednocześnie, wymaga rozszerzenia opisu błędów i miar tych błędów. Jeśli przedstawimy wynik pomiaru w postaci wektora wartości poszczególnych wielkości mierzonych, to opis błędu będzie miał postać macierzową uwzględniającą wektor błędów systematycznych b oraz rozrzut poszczególnych elementów wektora wyników i współzależność losową elementów wektora wyniku opisane macierzą kowariancji .

Odpowiednikiem przedziału rozrzutu wartości jest w przypadku wielowymiarowym ograniczony przez pewną hiperpowierzchnię obszar, którego punkty spełniają nierówność:

W przypadku dwuwymiarowym hiperpowierzchnią ograniczającą jest elipsa, której wymiary i położenie są określone przez wektor błędu systematycznego b i macierz kowariancyjną wyników pomiaru.






Przykładowa elipsa rozrzutu przy dokładnej wartości wektora pomiarów , wartości oczekiwanej i pewnej macierzy kowariancji.

Przykładowy obszar rozrzutu dla wyników pomiarów (elipsa) i zbiór wyników pomiarów (punkty).

Skalarne miary dokładności wielowymiarowego wyniku pomiaru


Odpowiedniki kryterium błędu średniokwadratowego dla przypadku wielowymiarowego nie są jednoznaczne i nie ma powszechnie uznanych miar błędu łącznego dla tego przypadku. Przykładowe definicje miar mają postać:





W przypadku jednowymiarowym (tj. z jednym wielkością mierzoną), podane miary przyjmują postać powszechnie uznanego błędu średniokwadratowego.

Problemem do rozwiązania jest oszacowanie składowych niedokładności, tzn. macierzy kowariancyjnej i wektora obciążenia. Metoda definicyjna (analityczna) bywa trudna do zastosowania, kiedy algorytm jest skomplikowany. Alternatywnie, dysponując zbiorem wyników estymacji, co jest łatwe w badaniach symulacyjnych, możemy użyć estymatorów statystycznych poszukiwanych wielkości.







Przykład: Obliczenia analityczne dokładności estymatora LS

Policzmy obciążenie i macierz kowariancyjną estymatora LS dla modelu pomiarów , gdzie jest zakłóceniem pomiarowym niezależnym w każdym pomiarze, o zerowej wartości oczekiwanej i stałej wariancji we wszystkich pomiarach.



Obciążenie jest więc równe zeru, a sam estymator jest nieobciążony.

Zauważmy, że odchyłka estymaty może być wyrażona w funkcji zakłóceń , tj. .

Kowariancja estymat wynosi:



ale zakładamy identyczny i niezależny rozkład zakłóceń o zerowej wartości oczekiwanej i wariancji 2:



(macierz NxN)

to macierz kowariancyjna ma wartość:

Estymator najmniejszej sumy kwadratów jest więc estymatorem nieobciążonym i ma macierz kowariancji estymat , ale tylko wtedy, gdy zakłócenia pomiarów Y są wzajemnie niezależne, o zerowej wartości oczekiwanej i o tej samej wariancji i rozkładzie (ang. independent identically distributed, i.i.d.).

Matematyka propagacji dokładności w przypadku estymacji efektywnej


Jak widzimy na poprzedniej stronie, obliczenia analityczne w nawet mało skomplikowanym przypadku estymacji liniowej nie są banalnie proste. To dlatego, że jesteśmy silnie związani z konkretnym algorytmem obliczeniowym, który lepiej lub gorzej wykorzystuje dane pomiarowe. Na szczęście jest możliwość uwolnienia się od konkretnych zależności. Korzysta się tu z twierdzenia Rao Craméra o dolnym ograniczeniu macierzy kowariancji dowolnego estymatora nieobciążonego ( jest wektorem estymowanych parametrów, wektorem ich estymat).

Nierówność macierzową należy rozumieć w sensie dodatniej określoności różnicy macierzy. Powszechność takiego podejścia, mimo że zakłada ono stosowanie pewnego abstrakcyjnego estymatora nieobciążonego i najefektywniejszego, związana jest z łatwością wyznaczania elementów macierzy informacyjnej. W ogólnym przypadku macierz informacyjna jest dana zależnością



gdzie L jest logarytmem naturalnym funkcji wiarygodności, tj. funkcji warunkowej gęstości prawdopodobieństwa obserwacji przy danym wektorze parametrów i sygnale pobudzającym u.

W szczególnych przypadkach, przy założeniach dotyczących modelu identyfikowanego obiektu i modelu sygnałów zakłócających, zależność ta przyjmuje specyficzne, prostsze do obliczeń, postacie.

Przykład: Przypadek szczególny - zakłócenia o rozkładzie normalnym

Załóżmy ogólny model nieliniowy zależności wyjścia obiektu od wejścia, parametrów i zakłóceń:



Przyjmijmy model zakłóceń  w postaci szumu addytywnego o rozkładzie normalnym N(0, V), gdzie V jest macierzą kowariancji zakłóceń o wymiarach NxN (N jest ilością zakłóconych pomiarów). Łączna gęstość prawdopodobieństwa danych pomiarowych:





gdzie g jest wektorem wartości odpowiedzi modelu g w punktach obserwacji. Po podwójnym zróżniczkowaniu powyższej zależności i wyznaczeniu wartości oczekiwanej uzyskujemy (szczegóły np. w [Kay 1993]):



A więc wracamy do problemu wrażliwości danych pomiarowych (wyjścia obiektu) na mierzone (estymowane) parametry.


Przykład: Funkcja wiarygodności dla obiektu statycznego (model liniowy) z gaussowskimi zakłóceniami i.i.d.


Identyczne wyrażenie na macierz kowariancji estymat (ale z równością) uzyskaliśmy dla estymacji klasycznym algorytmem najmniejszej sumy kwadratów. Wnioskujemy, że przy podanych założeniach estymator LS jest efektywny (wiemy że jest nieobciążony), tzn. osiąga największą możliwą w zadanych warunkach dokładność.



Wrażliwość danych pomiarowych na mierzone wielkości a funkcja wiarygodności

Problem wrażliwości odpowiedzi obiektu na zmiany jego parametrów można również przedstawić operując funkcjami gęstości prawdopodobieństwa obserwacji w punkcie lub w funkcji zmiennej niezależnej. Rysunki (a), (b) ilustrują różnice występujące pomiędzy funkcjami gęstości prawdopodobieństwa obserwacji odpowiedzi obiektu opisanego transmitancją drugiego rzędu, w funkcji zmiennej niezależnej (czas i częstotliwość), przy losowych zakłóceniach tych obserwacji o rozkładzie normalnym z zerową wartością oczekiwaną i odchyleniem standardowym równym 5% maksymalnej wartości odpowiedzi. Na rysunkach można wyróżnić przedziały wartości zmiennych niezależnych o dobrej i złej rozróżnialności funkcji gęstości prawdopodobieństwa.




a) dla odpowiedzi czasowej


b) dla odpowiedzi częstotliwościowej

Kwadrat różnicy funkcji gęstości prawdopodobieństwa obserwacji odpowiedzi obiektu w przestrzeni zmiennej niezależnej (odpowiednio czas [s] i pulsacja [rad/s]) i odpowiedzi obiektu y, przy zmianie parametru T2 o +10% i 10% od wartości nominalnej.



Skąd się biorą problemy z identyfikacją metodą minimalizacji odległości odpowiedzi (strojony model) ?


Identyfikacja metodą strojonego modelu zmierza do minimalizacji odległości między odpowiedzią modelu i zarejestrowaną odpowiedzią obiektu. Popularna miara odległości odpowiedzi to suma kwadratów. Sam problem minimalizacji to nieliniowa najmniejsza suma kwadratów (nonlinear least squares, NLS). Kryterium dopasowania odpowiedzi ma postać:

gdzie: - odpowiedzi obiektu I modelu w chwili czasowej ti

Nowoczesne metody minimalizacji korzystają z kwadratowej aproksymacji minimalizowanego kryterium w pobliżu minimum (algorytmy Newtona). Głównym problemem minimalizacji jest więc iteracyjne obliczanie macierzy hessjanu (macierzy drugich pochodnych kryterium względem parametrów minimalizacji). Problemem jest uwarunkowanie tej macierzy, czyli wrażliwość wyniku na zaburzenie danych. Dla kryterium NLS obliczanie macierzy hessjanu jest uproszczone do iloczynu macierzy gradientu, ponieważ po dwukrotnym zróżniczkowaniu J uzyskujemy wyrażenie na hessjan w bieżącym punkcie przestrzeni parametrów:



Zauważamy zbieżność tego wyrażenia z postacią macierzy informacyjnej w przypadku zakłóceń i.i.d. Zależność pomiędzy hessjanem i macierzą kowariancyjną ma więc postać:



Płaska dolina kryterium -> małe wartości hessjanu -> złe uwarunkowanie -> duża wariancja estymat parametrów



Katedra Metrologii AGH Kraków 2004


©snauka.pl 2016
wyślij wiadomość