Właściwości energetyczne sygnałów

Slides:



Advertisements
Podobne prezentacje
Przetworniki pomiarowe
Advertisements

Temat: Funkcja wykładnicza
Wykład 6: Filtry Cyfrowe – próbkowanie sygnałów, typy i struktury f.c.
Wykład 5: Dyskretna Transformata Fouriera, FFT i Algorytm Goertzela
Zmienne losowe i ich rozkłady
Materiały pochodzą z Platformy Edukacyjnej Portalu
Kodowanie sygnałów audio w dziedzinie częstotliwości
MODULACJE KĄTA FAZOWEGO HARMONICZNEGO SYGNAŁU NOŚNEGO
Sygnały i układy liniowe
Przekształcenie Hilberta
Dystrybucje (delta Diraca)
Filtracja sygnałów „Teoria sygnałów” Zdzisław Papir.
Właściwości przekształcenia Fouriera
Zbieżność szeregu Fouriera
Teoria Sygnałów Literatura podstawowa:
Wykład XI.
Stałe i zmienne 1 Definicja Literałem (literal) nazywamy wartość danej jawnie pisaną w programie Przykład Ada.Float_Text_Io.Put ( ); Definicja Stałą
Wykład no 6 sprawdziany:
Próbkowanie sygnału analogowego
Analiza matematyczna - Ciągi liczbowe wykład I
Metody badawcze w psychologii
FUNKCJE.
Automatyka Wykład 3 Modele matematyczne (opis matematyczny) liniowych jednowymiarowych (o jednym wejściu i jednym wyjściu) obiektów regulacji.
Teoria sterowania Wykład 3
Automatyka Wykład 3 Modele matematyczne (opis matematyczny) liniowych jednowymiarowych (o jednym wejściu i jednym wyjściu) obiektów, elementów i układów.
Elementy Rachunku Prawdopodobieństwa i Statystyki
Wykład 5 Charakterystyki czasowe obiektów regulacji
Cele i rodzaje modulacji
Podstawy automatyki 2012/2013Transmitancja widmowa i charakterystyki częstotliwościowe Mieczysław Brdyś, prof. dr hab. inż.; Kazimierz Duzinkiewicz, dr.
Rozważaliśmy w dziedzinie czasu zachowanie się w przedziale czasu od t0 do t obiektu dynamicznego opisywanego równaniem różniczkowym Obiekt u(t) y(t) (1a)
Karol Rumatowski Automatyka
Sieci bayesowskie Wykonali: Mateusz Kaflowski Michał Grabarczyk.
PODSTAWY TELEINFORMATYKI
WPŁYW WYBRANYCH CZYNNIKÓW NA CHARAKTERYSTYKI PRZETWORNICY BOOST
Niels Bohr Postulaty Bohra mają już jedynie wartość historyczną, ale właśnie jego teoria zapoczątkowała kwantową teorię opisu struktury atomu. Niels.
Zegary Atomowe. Częstotliwość i zegary Piewsze zegary atomowe Definicja sekundy Cezowy zegar atomowy Rubidowy zegar atomowy Zastosowanie Stabilność zegarów.
Sieci komputerowe Wprowadzenie Adam Grzech Instytut Informatyki
Odczytywanie własności funkcji na podstawie jej wykresu
Miernictwo Elektroniczne
Co to jest dystrybuanta?
Paweł Piech, Marcin Świątkowski, Mateusz Maciejewski III TM
Teoria promieniowania cieplnego
Miernictwo Elektroniczne
 Ekonometria – dziedzina zajmująca się wykorzystaniem specyficznych metod statystycznych dostosowanych do badań nieeksperymentalnych.  Ekonometria to.
W.7. PRZEMIANA CZĘSTOTLIWOŚCI
Dekompozycja sygnałów Szereg Fouriera
Odporność na szum MODULACJE AMPLITUDY
Treści multimedialne - kodowanie, przetwarzanie, prezentacja Odtwarzanie treści multimedialnych Andrzej Majkowski 1 informatyka +
Maciej Gwiazdoń, Mateusz Suder, Szymon Szymczk
W5_Modulacja i demodulacja AM
Przekształcenie Fouriera
Metody Matematyczne w Inżynierii Chemicznej Podstawy obliczeń statystycznych.
ISS – D1: Podstawy dyskretnych UAR Pojęcia podstawowe.
Odporność na szum Pojęcia podstawowe
Światłowody.
Modulacje Amplitudy Modulacja i detekcja
Szeregi czasowe Ewolucja stanu układu dynamicznego opisywana jest przez funkcję czasu f(t) lub przez szereg czasowy jego zmiennych dynamicznych. Szeregiem.
DTFT (10.6). (10.7) Przykład 10.1 Przykład 10.2 (10.3)
Podstawy fizjologii i ergonomii pracy
Ekonometria Metody estymacji parametrów strukturalnych modelu i ich interpretacja dr hab. Mieczysław Kowerski.
1. Transformator jako urządzenie elektryczne.
PTS Przykład Dany jest sygnał: Korzystając z twierdzenia o przesunięciu częstotliwościowym:
Efekt fotoelektryczny
Metale i izolatory Teoria pasmowa ciał stałych
Promieniowanie rentgenowskie
Wprowadzenie do zmiennych
Witaj w quizie Wybierz dziedzinę.
Podstawy automatyki I Wykład /2016
The Discrete-Time Fourier Transform (DTFT)
Wstęp do układów elektronicznych
Zapis prezentacji:

Właściwości energetyczne sygnałów Definicja energii i mocy sygnału Energia sygnału w dziedzinie częstotliwości Moc sygnału w dziedzinie częstotliwości Zmienna losowa, proces losowy Analiza widmowa procesów losowych Podsumowanie, przykłady „Teoria sygnałów” Zdzisław Papir

Definicja energii sygnału i(t) = x(t) u(t) = x(t) E R = 1  Sygnał nazywamy energetycznym, jeżeli E < . „Teoria sygnałów” Zdzisław Papir

Definicja mocy sygnału i(t) = x(t) u(t) = x(t) P = E/T R = 1  Sygnał nazywamy sygnałem mocy, jeżeli P < . „Teoria sygnałów” Zdzisław Papir

T Uśrednianie po czasie v(t) t0 t0 + T Uśrednianie po czasie zastępuje wielkość fluktuującą wielkością stałą równoważną w sensie całki oznaczonej. „Teoria sygnałów” Zdzisław Papir

Moc sygnału okresowego Moc sygnału okresowego jest równa jego mocy za jeden okres. „Teoria sygnałów” Zdzisław Papir

Moc sygnału okresowego - sygnał harmoniczny „Teoria sygnałów” Zdzisław Papir

Energia sygnału w dziedzinie częstotliwości Twierdzenie Parsevala Widmowa gęstość energii (widmo gęstości energii): „Teoria sygnałów” Zdzisław Papir

Funkcja korelacji dla sygnału energetycznego „Teoria sygnałów” Zdzisław Papir

Funkcja korelacji dla sygnału energetycznego Widmowa gęstość energii dla sygnałów rzeczywistych jest funkcją parzystą: Funkcja korelacji jest parzysta: Funkcja korelacji jest ograniczona z maksimum R(0): „Teoria sygnałów” Zdzisław Papir

Funkcja korelacji jako miara podobieństwa sygnałów „Teoria sygnałów” Zdzisław Papir

Funkcja korelacji jako miara podobieństwa sygnałów Nierówność Schwarza „Teoria sygnałów” Zdzisław Papir

Funkcja korelacji jako miara podobieństwa sygnałów Z nierówności Schwarza: wynika: Współczynnik  jest określany jako współczynnik korelacji czyli podobieństwa sygnałów x(t) oraz (t). „Teoria sygnałów” Zdzisław Papir

Funkcja korelacji jako miara podobieństwa sygnałów Analiza korelacji (podobieństwa) może uwzględniać przesunięcie sygnałów względem siebie. Funkcja interkorelacji sygnałów x(t) oraz (t): Funkcja autokorelacji sygnału x(t): „Teoria sygnałów” Zdzisław Papir

Funkcja korelacji i widmowa gęstość energii - filtracja Widmowa gęstość energii jest modyfikowana przez kwadrat ch-aki a-cz. Cha-ka f-cz nie zmienia widmowej gęstości energii. „Teoria sygnałów” Zdzisław Papir

Moc sygnału w dziedzinie częstotliwości Twierdzenie Parsevala widmo gęstości mocy „Teoria sygnałów” Zdzisław Papir

Moc sygnału w dziedzinie częstotliwości Widmowa gęstość mocy (widmo gęstości mocy): Funkcja autokorelacji sygnału mocy: posiada identyczne właściwości jak funkcja autokorelacji sygnału energetycznego, w szczególności: „Teoria sygnałów” Zdzisław Papir

R Zmienna losowa   x() Zmienna losowa x jest w istocie rzeczy funkcją (losową) przyporządkowującą zdarzeniom elementarnym liczby (rzeczywiste). W zastosowaniach telekomunikacyjnych mamy do czynienia ze zmiennymi losowymi w takich sytuacjach jak: napięcie w układzie elektronicznym (z uwzględnieniem szumów), liczba rozmów telefonicznych w ustalonym przedziale czasu czy liczba przekłamanych bitów w słowie kodowym. Zmiena losowa jest wygodnym modelem, gdy nie jesteśmy w stanie uchwycić w modelu wszystkich mechanizmów. „Teoria sygnałów” Zdzisław Papir

R  A Dystrybuanta zmiennej losowej i Pr{x()  x} x „Teoria sygnałów” Zdzisław Papir

Gęstość prawdopodobieństwa zmiennej losowej Dystrybuanta zmiennej losowej Kształt funkcji gęstości prawdopodobieństwa wskazuje na „preferowany” zakres wartości zmiennej losowej x. „Teoria sygnałów” Zdzisław Papir

Momenty zmiennej losowej Wartość średnia zmiennej losowej Wartość średniokwadratowa zmiennej losowej Wariancja zmiennej losowej Odchylenie standardowe zmiennej losowej „Teoria sygnałów” Zdzisław Papir

Momenty zmiennej losowej x Odchylenie standardowe jest miarą rozrzutu wartości zmiennej losowej wokół jej wartości średniej. x Im mniejsza jest wartość współczynnika rozproszenia zmiennej losowej cx, tym bardziej zmienna losowa „przypomina” stałą deterministyczną (cx = 0). „Teoria sygnałów” Zdzisław Papir

Zmienna losowa normalna + +2 - +3 -2 -3 „Teoria sygnałów” Zdzisław Papir

Procesy losowe   x(t,) x(t,) x(t,) x(t,) x(t=const,=var) – zmienna losowa x(t=var,=const) – realizacja procesu losowego x(t=var,=var) – zbiór realizacji procesu losowego x(t=const,=const) – liczba Realizacja procesu losowego x(t,) jest zwykłym, deterministycznym przebiegiem czasowym; losowość procesu nie jest nieodłączną właściwością tej funkcji, a przejawia się wyłącznie w losowym jej wyborze. „Teoria sygnałów” Zdzisław Papir

Gęstości prawdopodobieństwa procesu losowego Gęstość prawdopodobieństwa I rzędu Gęstość prawdopodobieństwa II rzędu „Teoria sygnałów” Zdzisław Papir

Wartości średnie procesu losowego Wartość średnia procesu losowego Wartość średniokwadratowa procesu losowego Funkcja autokorelacji procesu losowego Funkcja autokowariancji procesu losowego „Teoria sygnałów” Zdzisław Papir

Wartości średnie procesu losowego Wartości średnie procesu są średnimi „po zbiorze” (ensamble averages), gdyż są wyliczane dla ustalonych chwil czasu ze zbioru wszystkich realizacji procesu losowego na podstawie rozkładu wartości procesu reprezentowanych przez gęstości prawdopodobieństwa. Wartości średnie „po czasie” (time averages) są wyliczane z pojedynczych realizacji procesu losowego. „Teoria sygnałów” Zdzisław Papir

Wartości średnie „po czasie” procesu losowego Wartość średnia „po czasie” procesu losowego Autokorelacja „po czasie” procesu losowego Symbol ~ podkreśla, że operacja uśredniania po czasie została wykonana dla pojedynczej realizacji procesu losowego. Wartość średnia po czasie jest zmienną losową, a autokorelacja po czasie jest procesem losowym. „Teoria sygnałów” Zdzisław Papir

Wartości średnie „po czasie” procesu losowego Wartość średnia „po czasie” procesu losowego Autokorelacja „po czasie” procesu losowego Istnienie granic wartości średniej po czasie oraz autokorelacji po czasie gwarantują twierdzenia ergodyczne. Konsekwencja: realizacje procesu losowego są sygnałami mocy. „Teoria sygnałów” Zdzisław Papir

Stacjonarny proces losowy Proces losowy jest stacjonarny (w szerszym sensie), jeżeli jego wartość średnia nie zależy od czasu: a funkcja korelacji zależy wyłącznie od długości horyzontu obserwacji , a nie od jego położenia na osi czasu czasu (t, t + ): „Teoria sygnałów” Zdzisław Papir

Ergodyczny proces losowy Losowy proces stacjonarny jest ergodyczny, jeżeli jego wartości średnie po zbiorze są równe wartościom średnim po czasie. Ergodyczność wartości średniej Ergodyczność funkcji korelacji „Teoria sygnałów” Zdzisław Papir

Analiza widmowa procesów losowych Realizacje procesu losowego są sygnałami mocy, więc każdej realizacji można przyporządkować funkcję korelacji własnej, a przez przekształcenie Fouriera widmo gęstości mocy: „Teoria sygnałów” Zdzisław Papir

Uśrednione widmo gęstości mocy procesu losowego Uśrednione widmo gęstości mocy procesu losowego otrzymujemy w wyniku uśredniania (w zbiorze realizacji) widm gęstości mocy poszczególnych realizacji. „Teoria sygnałów” Zdzisław Papir

Uśrednione widmo gęstości mocy procesu losowego Uśrednione widmo gęstości mocy procesu losowego jest trans- formatą Fouriera funkcji korelacji uśrednionej po czasie. Twierdzenie Wienera – Chinczyna Widmo gęstości mocy stacjonarnego procesu losowego jest transformatą Fouriera funkcji korelacji. „Teoria sygnałów” Zdzisław Papir

Uśrednione widmo gęstości mocy procesu losowego – metoda alternatywna Widmo gęstości mocy deterministycznego sygnału mocy: Widmo gęstości mocy procesu losowego: można otrzymać w wyniku uśredniania (po zbiorze) widm gęstości mocy poszczególnych realizacji, a te są deterministycznymi sygnałami mocy. „Teoria sygnałów” Zdzisław Papir

Podsumowanie Twierdzenie Parsevala pozwala wyznaczyć energię/moc sygnału w dziedzinie częstotliwości. Widmowa gęstość energii/mocy określa energię/moc sygnału przypadającą na poszczególne częstotliwości sygnału. Widmowa gęstość energii/mocy jest transformatą Fouriera funkcji autokorelacji. Funkcja autokorelacji opisuje podobieństwo sygnału do jego opóźnionej w czasie repliki. Funkcja autokorelacji sygnału mocy jest określona podobnie do funkcji autokorelacji sygnału energii; definicja uwzględnia dodatkowo uśrednianie po czasie. Filtracja sygnału powoduje przekształcenie widmowej gęstości energii/mocy przez kwadrat cha-ki a-cz. Realizacje procesu losowego są deterministycznymi sygnałami mocy. Uśrednione widmo gęstości mocy procesu losowego jest transformatą Fouriera funkcji autokorelacji (uśrednionej – w przypadku procesów losowych niestacjonarnych). „Teoria sygnałów” Zdzisław Papir

Właściwości widma gęstości energii/mocy Widmo gęstości energii/mocy jest zawsze transformatą Fouriera funkcji autokorelacji: Widmo gęstości energii/mocy pozwala określić energię/moc sygnału w wybranym pasmie częstotliwości oraz energię/moc całkowitą: Widmo gęstości energii/mocy jest funkcją parzystą dla sygnałów rzeczywistych: „Teoria sygnałów” Zdzisław Papir

Podsumowanie – właściwości funkcji autokorelacji Niezależnie od rodzaju sygnału (deterministyczny, losowy) funkcje autokorelacji, aczkolwiek definiowane w odmienny sposób posiadają identyczne właściwości. Deterministyczny sygnał energii: Deterministyczny sygnał mocy: „Teoria sygnałów” Zdzisław Papir

Podsumowanie – właściwości funkcji autokorelacji Niezależnie od rodzaju sygnału (deterministyczny, losowy) funkcje autokorelacji, aczkolwiek definiowane w odmienny sposób posiadają identyczne właściwości. Niestacjonarny proces losowy: Stacjonarny proces losowy: „Teoria sygnałów” Zdzisław Papir

Przykład – modulacja amplitudy „Teoria sygnałów” Zdzisław Papir

Przykład – kod transmisyjny bipolarny NRZ +1 -1 t x(t) nT (n+1)T an Symbole an są niezależne. „Teoria sygnałów” Zdzisław Papir

Kod transmisyjny bipolarny NRZ - funkcja korelacji +1 (p – q)2 -T T- 2T- 3T-  „Teoria sygnałów” Zdzisław Papir

Kod transmisyjny bipolarny NRZ - funkcja korelacji +1 (p – q)2 -T T- 2T- 3T- „Teoria sygnałów” Zdzisław Papir

Kod transmisyjny bipolarny NRZ - uśredniona funkcja korelacji & widmowa gęstość mocy +1 t -T T- T 2T- 2T 3T- 3T 4T „Teoria sygnałów” Zdzisław Papir

Kod transmisyjny bipolarny NRZ - widmowa gęstość mocy f [Hz] Widmo gęstości mocy sygnału cyfrowego jest skupione w pasmie 0 < f < 1/T; twierdzenie Nyquista orzeka, że pasmo dwukrotnie węższe 0 < f < 1/2T jest wystarczające. „Teoria sygnałów” Zdzisław Papir

Kody transmisyjne - kod Millera „0” zachowanie polaryzacji przy przejściu „1”  „0” zmiana polaryzacji przy przejściu „0”  „0” „1” zachowanie polaryzacji przy przejściu „1”  „1” zachowanie polaryzacji przy przejściu „0”  „1” 1 „Teoria sygnałów” Zdzisław Papir

Kody transmisyjne - kod Millera „1” „0” Właściwości kodu Millera: eliminacja składowych n-cz widma istotny poziom timing content koncentracja widma w wąskim pasmie sekwencje „0...” lub „1...” – rozproszenie widma sekwencja „0 1 1...” – istotny poziom składowej dc „Teoria sygnałów” Zdzisław Papir

Kody transmisyjne - kod Millera kod bipolarny NRZ kod Millera „Teoria sygnałów” Zdzisław Papir

Przykład – szum gaussowski   ~THz  Szum biały ma płaskie widmo gęstości mocy w bardzo szerokim zakresie częstotliwości. Funkcja korelacji szumu białego ma charakter impulsowy; wartości szumu białego w dowolnie bliskich chwilach czasu nie są skorelowane ze sobą. „Teoria sygnałów” Zdzisław Papir

Przykład – szum gaussowski  W  ~THz Idealny filtr pasmowo- przepustowy Szum gaussowski po filtracji jest nadal szumem gaussowskim. „Teoria sygnałów” Zdzisław Papir