Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

1 Kodowanie informacji Kodowanie Przyporządkowanie elementom jakiegoś alfabetu ciągów binarnych. Kodowanie może mieć różne cele: Zmniejszenie objętości.

Podobne prezentacje


Prezentacja na temat: "1 Kodowanie informacji Kodowanie Przyporządkowanie elementom jakiegoś alfabetu ciągów binarnych. Kodowanie może mieć różne cele: Zmniejszenie objętości."— Zapis prezentacji:

1 1 Kodowanie informacji Kodowanie Przyporządkowanie elementom jakiegoś alfabetu ciągów binarnych. Kodowanie może mieć różne cele: Zmniejszenie objętości danych – kompresja. Zapewnienie odporności na błędy – kody korekcyjne. Zapewnienie poufności danych – kryptografia.

2 2 Rodzaje kodów Kody sta ł ej d ł ugo ś ci – np. kody ASCII o d ł ugo ś ci 8 bit ó w. (Poniewa ż d ł ugo ść jest sta ł a nie ma k ł opotu z podzia ł em na znaki.) Kody o różnej długości – kody prefiksowe, kod Morsea. (Ważne jest zapewnienie, że kody da się prawidłowo odczytać.)

3 3 Nierówność Krafta-McMillana jest warunkiem, który musi spełniać kod, aby był jednoznacznie dekodowalny bez opóźnienia. Jest to warunek konieczny, ale nie wystarczający, tak więc istnieją kody które spełniają tą nierówność, lecz nie są jednoznacznie dekodowalne bez opóźnienia. gdzie: r - wartościowość kodu (np. dla kodu binarnego r=2), K - ilość sygnałów elementarnych, l i - długość i-tego sygnału elementarnego

4 4 Przykład: Mamy więc dla wszystkich kodów r=2, K=4, gdyż nasze kody mają czteroelementowy alfabet wiadomość a 1, a 2, a 3, a 4. Dla kodu A, otrzymujemy 1, więc nierówność jest spełniona. Dodatkowo widzimy, że ma on wszystkie ciągi kodowe o stałej długości i do tego każdy z nich jest inny. Na tej podstawie wnioskujemy, że jest to kod jednoznacznie dekodowalny, bez opóźnienia. kod A kod B kod C a1a a2a a3a3 110 a4a4 11

5 5 Dla kodu B lewa strona wynosi 1, więc ponownie spełniona jest nierówność Krafta-McMillana, lecz widzimy, że czwarte słowo kodowe jest przedrostkiem słowa trzeciego, co eliminuje go z naszych rozważań. Natomiast dla kodu C lewa strona wynosi 9/8, czyli nierówność nie jest spełniona, możemy więc jednoznacznie określić, że nie jest to kod jednoznacznie dekodowalny bez opóźnienia.

6 6 Metody kompresji obrazów 1. Zapotrzebowanie na kompresję. 2. Zarys historii technik kompresji. 3. Techniki kompresji bezstratnej: Metody Huffmana, Kodowanie arytmetyczne, Kodowanie słownikowe, Metody predykcyjne. 4. Kompresje stratne: Kodowanie transformacyjne, Kompresja fraktalna, Kodowanie pasmowe (falkowe)

7 7 Czy kompresja jest obrazów jest potrzebna? Do zapisu standardowego obrazu telewizyjnego potrzeba ponad 1,7 MB (RGB). Przy wyświetlaniu 25 obrazów w ciągu sekundy, potrzeba ~42 MB. Zatem na płycie CD można zapisać ok. 17s filmu. Zaś na płycie DVD (17 GB) można zapisać ok. 7 minut filmu. Celem kodowania kompresyjnego obrazu jest redukcja ilości informacji w nim zawartej (tzw. redundancji)

8 8 Zapotrzebowanie na kompresję Powstające coraz nowocześniejsze systemy generacji, rekonstrukcji, przetwarzania i analizy obrazów w astronomii, medycynie, poligrafii, sztukach graficznych, sądownictwie, reklamie, produkcji przemysłowej, rynek multimedialny (np. koncerty na żywo w internecie, telekonferencje, teleedukacja) itd. Nie ma technik kompresji, które są optymalne w każdym zastosowaniu. Różnorodność analizowanych danych, zarówno co do ogólnej czy lokalnej charakterystyki zbioru wartości, jak też sposobu ich wykorzystania powoduje, że dla różnych typów danych należy stosować dopasowane do ich własności algorytmy w celu uzyskania maksymalnej skuteczności kompresji.

9 9 Kompresją danych nazywa się proces przekształcenia pierwotnej reprezentacji zbioru danych (dane wejściowe) w inną reprezentację o mniejszej liczbie bitów (kod wyjściowy), a odwrotny proces rekonstrukcji oryginalnego zbioru danych na podstawie reprezentacji skompresowanej (kodu wejściowego) nazywany jest dekompresja. Zwykle w procesie kompresji występują dwie kolejne fazy, które odnoszą się do całego zbioru lub poszczególnych jego części: modelowanie - wykorzystując pewne metryczne zależności w przestrzeni danych, transformuje wartości danych w pewne symbole, kodowanie binarne - wykorzystuje się utworzone wcześniej symbole.

10 10 Przykład: Prosty algorytm kodowania długości sekwencji (ang. RLE – run length encoding). Niech zbiór danych w reprezentacji oryginalnej O będzie następujący: O={5, 5, 5, 4, 4, 11, 11, 11, 11, 11, 7}. Wówczas pośrednia reprezentacja tego zbioru M = {3 x 5, 2 x 4, 5 x 11, 1 x 7}.

11 11 Jeśli przyjmiemy teraz zasadę, iż ta pośrednia reprezentacja jest kodowana binarnie tak, że na pierwszych czterech bitach zapisywana jest liczba wystąpień danego symbolu, a na następnych czterech wartość tegoż symbolu, wówczas kod wyjściowy K wygląda następująco: K={ , , , }. Można zauważyć, że długość oryginalnej reprezentacji danych wynosząca 44 bity (przy założeniu 4-bitowej reprezentacji pojedynczego symbolu) została zmniejszona do 32 bitów nowej, skompresowanej reprezentacji.

12 12 Można wyróżnić dwie zasadnicze kategorie metod kompresji danych: bezstratne – (odwracalne) gdzie zrekonstruowany po kompresji zbiór danych jest numerycznie identyczny ze zbiorem oryginalnym z dokładnością do pojedynczego bitu stratne – (nieodwracalne) gdzie zrekonstruowany zbiór danych jest jedynie przybliżeniem oryginału. Jeżeli F=F, (T=S-1) to kompresja jest bezstratna Jeżeli F F, (T S-1) to kompresja jest stratna

13 13 Efektywność kompresji Zdolność do maksymalnego zmniejszenia rozmiaru nowej reprezentacji kompresowanych danych w stosunku do rozmiaru pierwotnego zbioru danych. Miary liczbowe tak rozumianej efektywności: stopień kompresji CR - stosunek liczby bitów reprezentacji obrazu oryginalnego do liczby bitów reprezentacji obrazu skompresowanego procent kompresji: średnia bitowa BR - średnia ilość bitów skompresowanej reprezentacji danych przypadająca na element oryginalnego zbioru danych. redundancja

14 14 Efektywność kompresji cd. Innymi kryteriami efektywności mogą być: iloczyn: czas x średnia bitowa, rodzaj powstających zniekształceń przy kompresji stratnej i ich poziom przy danym CR, iloczyn: miara zniekształceń x średnia bitowa, odporność tworzonego kodu na zakłócenia w czasie transmisji, zdolność do uzyskania w procesie kompresji założonej z góry wartości CR... Efektywność czy skuteczność metod kompresji to najczęściej zdolność do osiągnięcia w procesie kompresji możliwie dużych wartości CR lub CP, czy tez możliwie malej średniej bitowej BR.

15 15 Zarys historii technik kompresji Sformułowanie przez C. Shannona pod koniec lat czterdziestych XX w. pojęcia entropii jako miary informacji, nadmiarowości, modeli źródeł informacji itp to zręby współczesnych technik kompresji danych. Opublikowanie 1952 r. przez D.A. Huffmana pracy, w której przedstawia algorytm tworzenia optymalnego kodu dla zbioru danych przy założeniu przyporządkowania każdemu symbolowi alfabetu źródła modelującego ten zbiór danych całkowitej liczby bitów. Metoda ta była dominującą aż do lat osiemdziesiątych w dziedzinie bezstratnych metod kompresji. W latach 1977 i 1978 panowie Lempel i Ziv opublikowali dwa algorytmy bezstratnej kompresji, które stały się podstawą nowej grupy technik tzw. słownikowego kodowania - algorytmy nazwano LZ 77 i LZ 78. Doczekały się one praktycznej realizacji dopiero w 1984 r. przez Welcha – algorytm LZW. Stały się one podstawą tak znanych i powszechnie stosowanych kompresorów jak: Unix Compress, ARC, PKZIP, LHarc, ARJ.

16 16 Miara ilości informacji Entropia obrazu f(x,y) jest zdefiniowana jako: gdzie p(I i ) - prawdopodobieństwo wystąpienia poziomu jasność I i w obrazie. Logarytm o podstawie 2, to entropia określa średnią liczbę bitów potrzebnych do zakodowania każdego poziomu jasności obrazu. Przykładowe wartości entropii dla różnych obrazów: E = 7.01 E = 5.31

17 17 Kodowanie Huffmana Jedna z najprostszych i łatwych w implementacji metod kompresji bezstratnej. Została opracowana w 1952 roku przez Amerykanina Davida Huffmana. Algorytm Huffmana nie należy do najefektywniejszych systemów bezstratnej kompresji danych, dlatego też praktycznie nie używa się go samodzielnie. Często wykorzystuje się go jako ostatni etap w różnych systemach kompresji, zarówno bezstratnej jak i stratnej, np. MP3 lub JPEG. Pomimo, że nie jest doskonały, stosuje się go ze względu na prostotę oraz brak ograniczeń patentowych.

18 18 Dany jest alfabet źródłowy (zbiór symboli) oraz zbiór stowarzyszonych z nim prawdopodobieństw Symbolami są najczęściej bajty (chociaż mogą to być też np. pary znaków). Prawdopodobieństwa mogą zostać z góry określone dla danego zestawu danych, np. poprzez wyznaczenie częstotliwości występowania znaków w tekstach danego języka. Częściej jednak wyznacza się je indywidualnie dla każdego zestawu danych. Kodowanie Huffmana polega na utworzeniu słów kodowych (ciągów bitowych), których długość jest odwrotnie proporcjonalna do prawdopodobieństwa p i. Tzn. im częściej dane słowo występuje (może wystąpić) w ciągu danych, tym mniej zajmie bitów. Kompresja polega na zastąpieniu symboli otrzymanymi kodami.

19 19 Własności kodu: kod Huffmana jest kodem prefiksowym; oznacza to, że żadne słowo kodowe nie jest początkiem innego słowa; jeśli prawdopodobieństwa są różne, tzn. p j > p i, to długość kodu dla symbolu x j jest niewiększa od kodu dla symbolu x i ; słowa kodu dwóch najmniej prawdopodobnych symboli mają równą długość; dwa najdłuższe symbole różnią się tylko jednym, ostatnim bitem.

20 20 Algorytm statycznego kodowania Huffmana 1.Określ prawdopodobieństwo (lub częstość występowania) dla każdego symbolu ze zbioru S. 2.Utwórz listę drzew binarnych, które w węzłach przechowują pary: symbol, prawdopodobieństwo. Na początku drzewa składają się wyłącznie z korzenia. 3.Dopóki na liście jest więcej niż jedno drzewo powtarzaj: usuń z listy dwa drzewa o najmniejszym prawdopodobieństwie zapisanym w korzeniu. wstaw nowe drzewo, w którego korzeniu jest suma prawdopodobieństw usuniętych drzew, natomiast one same stają się jego lewym i prawym poddrzewem. Korzeń drzewa nie przechowuje symbolu.

21 21 Drzewo, które pozostanie na liście, jest nazywane drzewem Huffmana – prawdopodobieństwo zapisane w korzeniu jest równe 1, natomiast w liściach drzewa zapisane są symbole. Algorytm Huffmana jest algorytmem niedeterministycznym ponieważ nie określa w jakiej kolejności wybierać drzewa z listy, jeśli mają takie samo prawdopodobieństwo. Nie jest również określone, które z usuwanych drzew ma stać się lewym bądź prawym poddrzewem. Jednak bez względu na przyjęte rozwiązanie średnia długość kodu pozostaje taka sama.

22 22 1.Każdej lewej krawędzi drzewa przypisz 0, prawej 1 (można też odwrotnie). 2.Przechodź w głąb drzewa od korzenia do każdego liścia (symbolu): 3.Jeśli skręcasz w prawo dopisz do kodu bit o wartości 1. 4.Jeśli skręcasz w lewo dopisz do kodu wartości 0. Długość słowa kodowego jest równa głębokości symbolu w drzewie, wartość binarna zależy od jego położenia w drzewie. Na podstawie drzewa Huffmana tworzone są słowa kodowe według algorytmu:

23 23 Przykład Mamy symbole A,B,C,D o prawdopodobieństwach wystąpienia odpowiednio [0.1, 0.2, 0.3, 0.4]. 0.1 A 0.2 B 0.3 C 0.4 D Łączymy węzły odpowiadające symbolom (A) i (B). Teraz mamy (A + B) = 0.3, (C) = 0.3, (D) = A 0.2 B 0.3 C 0.4 D 0.3

24 24 Łączymy węzły odpowiadające drzewku (A + B) oraz (C). Teraz mamy ((A + B) + C)=0.6 i (D) = D 0.3 C 0.1 A 0.2 B

25 25 Łączymy węzły odpowiadające drzewku ((A + B) + C) oraz (D). Teraz mamy tylko jeden wolny węzeł - drzewko (((A + B) + C) + D) = D 0.3 C 0.1 A 0.2 B

26 26 Obliczamy kody znaków: A = lewo, lewo, lewo= 000 B = lewo, lewo, prawo = 001 C = lewo, prawo = 01 D = prawo = 1 średnia długość kodu wyniesie: Jest to mniej niż 2 bity potrzebne w trywialnym kodowaniu o stałej długości znaku.

27 27 wynosi: E = 0.1log log log log = optymalne kodowanie powinno charakteryzować się taką właśnie średnią długością kodu. Jednak widać, że jest ona większa - efektywność wynosi w tym przypadku. Z kolei entropia źródła

28 28 Praktyczne zastosowanie Jednym z głównych problemów stosowania statycznego algorytmu Huffmana jest konieczność transmisji całego drzewa lub całej tablicy prawdopodobieństw (zwykle to drugie jako bardziej efektywne). Lepszą kompresję, kosztem jednak bardzo szybkiego wzrostu wymagań pamięciowych, uzyskuje się kodując kilka kolejnych znaków na raz, nawet jeżeli nie są one skorelowane.

29 29 Przykład kodowania po 2 znaki naraz Symbole to tak jak wtedy - A,B,C,D o prawdopodobieństwach wystąpienia odpowiednio [0.1, 0.2, 0.3, 0.4]. Jeśli liczba symboli jest nieparzysta, robimy coś z pierwszym lub ostatnim symbolem. Nie jest to w praktyce duży problem. Zastępujemy symbole parami symboli: AA, AB, AC, AD, BA, BB, BC, BD, CA, CB, CC, CD, DA, DB, DC, DD o prawdopodobieństwach odpowiednio: [0.01, 0.02, 0.03, 0.04, 0.02, 0.04, 0.06, 0.08, 0.03, 0.06, 0.09, 0.12, 0.04, 0.08, 0.12, 0.16].

30 30 (AA + AB) = 0.03 (BA + AC) = 0.05 (CA + (AA + AB)) = 0.06 (BB + AD) = 0.08 (DA + (BA + AC)) = 0.09 (BC + CB) = 0.12 ((CA + (AA + AB)) + BD) = 0.14 (DB + (BB + AD)) = 0.16 ((DA + (BA + AC)) + CC) = 0.18 (CD + DC) = 0.24 Drzewko rośnie po kolei:

31 31 ((BC + CB) + ((CA + (AA + AB)) + BD)) = 0.26 (DD + (DB + (BB + AD))) = 0.32 (((DA + (BA + AC)) + CC) + (CD + DC)) = 0.42 (((BC + CB) + ((CA + (AA + AB)) + BD)) + (DD + (DB + (BB + AD)))) = 0.58 ((((DA + (BA + AC)) + CC) + (CD + DC)) + (((BC + CB) + ((CA + (AA + AB)) + BD)) + (DD + (DB + (BB + AD))))) = 1.0

32 32 Zatem odpowiednim parom znaków odpowiadają: AA AB AC AD BA BB BC BD CA CB CC CD DA DB DC DD - 110

33 33 Średnia liczba bitów przypadająca na parę symboli to 3.73, a więc średnia liczba bitów na symbol to Jest to znacznie lepsza kompresja niż poprzednio. Używając większej liczby znaków można dowolnie przybliżyć się do kompresji maksymalnej, jednak znacznie wcześniej wyczerpie się pamięć, ponieważ wymagania pamięciowe rosną wykładniczo do liczby kompresowanych jednocześnie symboli.

34 34 Algorytm dynamicznego kodowania Huffmana Dynamiczne kodowanie Huffmana to kodowanie danych o nieznanej statystyce. Statystykę buduje się w miarę napływania danych i co znak lub co daną liczbę znaków poprawia drzewo Huffmana. Zaletą kodowania dynamicznego jest to, że nie ma potrzeby przesyłania drzewa kodów. Zamiast tego identyczną procedurę poprawiania drzewa muszą przeprowadzać zarówno koder jak i dekoder.

35 35 Algorytmy kompresji bezstratnej dobrze kompresują "typowe" dane, czyli takie w których występuje znaczna nadmiarowość informacji (redundancja). Pewne rodzaje danych są bardzo trudne lub niemożliwe do skompresowania: strumienie liczb losowych (niemożliwe do skompresowania), strumienie liczb pseudolosowych (w praktyce trudne, choć teoretycznie bardzo dobrze kompresowalne), dane skompresowane za pomocą tego samego lub innego algorytmu (w praktyce trudne).

36 36 Najczęściej używane metody kompresji bezstratnej można podzielić na słownikowe i statystyczne, choć wiele metod lokuje się pośrodku: metody słownikowe poszukują dokładnych wystąpień danego ciągu znaków, np. zastępują 'the ' krótszą ilością bitów niż jest potrzebna na zakodowanie 4 niezwiązanych znaków. Jednak znajomość symbolu 'the ' nie pociąga za sobą usprawnień w kompresowaniu 'they' czy 'then'. metody statystyczne używają mniejszej ilości bitów dla częściej występujących symboli, w przypadku praktycznie wszystkich oprócz najprostszych metod, prawdopodobieństwa zależą od kontekstu. A więc np. dla 'h' występującego po 't' używają mniejszej ilości bitów niż dla innych znaków w tym kontekście.

37 37 Techniki kompresji bezstratnej: Konstrukcja różnych metod kodowania polega zasadniczo na określeniu sposobu realizacji dwu etapów bezstratnego procesu kompresji: modelowania i binarnego kodowania. Znajdowanie odpowiednich modeli źródeł danych, opisujących z dobrym przybliżeniem przekazywane rzeczywiste zbiory (strumienie) danych, umożliwią konstruowanie efektywnych technik kompresji. Przy konstruowaniu źródeł informacji należy wykorzystać wszelką informację dostępną a priori, aby uprościć model statystyczny niewiadomej, czyli rzeczywistej informacji. Przyjmując model probabilistyczny zakładamy, ze informacja jest realizacją pewnej zmiennej losowej (procesu losowego) o określonych własnościach statystycznych.

38 38 Najprostszą postacią źródła informacji S jest dyskretne źródło bez pamięci DMS, które jest całkowicie zdefiniowane przez swój alfabet A S ={a 1, a 2,...,a n } oraz P S ={p 1, p 2,...,p n }, gdzie p i =P(s=a i ), p i 0 i np..: A S ={0,1} oraz Źródło z pamięcią CSM jest określone poprzez: alfabet symboli A S ={a 1, a 2,...,a n }, zbiór wartości kontekstu X S ={x 1, x 2,...,x m }, prawdopodobieństwa warunkowe P(a i x j ) dla i =1,2,...,n, j=1,2,...,m, przy czym: N(a i,x j ) - liczba łącznych wystąpień kontekstu x, i symbolu a i, N(x j ) – liczba wystąpień kontekstu x j. zasada określania kontekstu w każdej chwili czasowej przez funkcję f( ) symboli już wyemitowanych przez źródło. np..: A S ={0, 1,..., 255}, X S ={31, 95, 159, 223} gdzie:

39 39 Kodowanie arytmetyczne to metoda kodowania źródłowego dyskretnych źródeł sygnałów, stosowana jako jeden z systemów w bezstratnej kompresji danych. Została wynaleziona przez Petera Eliasa około 1960 roku. Ideą tego kodu jest przedstawienie ciągu wiadomości jako podprzedziału przedziału jednostkowego [0,1) wyznaczonego rekursywnie na podstawie prawdopodobieństw wystąpienia tychże wiadomości generowanych przez źródło. Ciąg kodowy reprezentujący kodowane wiadomości jest binarnym zapisem wartości z wyznaczonego w ten sposób przedziału.

40 40 Kodowanie Weźmy alfabet a, b, c z prawdopodobieństwami 0,7; 0,1; 0,2. Zakodujmy tekst abc. Na początku mamy przedział: [0, 1). Kodujemy a i otrzymujemy przedział [0, 0.7). Kodujemy b i otrzymujemy przedział [0.49, 0.56). Kodujemy c i otrzymujemy przedział [0.546, 0.56). Za znacznik możemy przyjąć

41 41 Własności Dla ustalonej długości tekstu n, każdy ciąg jest odwzorowany na przedział rozłączny z przedziałami odpowiadającymi innym ciągom. Gwarantuje to jednoznaczność kodowania. Wygenerowanie znacznika dla konkretnego ciągu nie wymaga wyznaczania bądź pamiętania znaczników innych ciągów.

42 42 Rodzaje redundancji (nadmiarowości) definiowane przy kompresji obrazów: Redundancja kodu, Redundancja przestrzenna (geometryczna), Redundancja psychowizualna.

43 43 Redundancja kodu: Średnia długość słowa kodowego obrazu wynosi: gdzie m(I i ) - długość słowa wykorzystywana do zakodowania poziomu jasności I i Optymalna liczba bitów wykorzystywana do kodowania poziomów jasności w obrazie jest równa entropii. m 1 avg = 3; m 2 avg = 2,7; E = 2,651 CR = 1,11; R = 0,099 ok. 10% danych w kodzie #1 jest nadmiarowych Przykład:

44 44 Metody Huffmana: Właściwości kodu Huffmana: kod o zmiennej długości, zapewnia teoretycznie minimalną średnią liczbę symboli wykorzystywanych do kodowania, ma zerową pamięć - kodowanie kolejnych symboli jest niezależne, jest wzajemnie jednoznaczny w przyporządkowaniu symbolu i kodu.

45 45 Redundancja przestrzenna (geometryczna) Wykorzystuje się fakt, że poziomy jasności sąsiednich punktów obrazu są ze sobą silnie skorelowane Kodowanie RL – obraz kodowany jest za pomocą par liczb (I, g) gdzie I oznacza poziom jasności, zaś g jest długością ciągu punktów obrazu o jasności I. Przykład kodowania RL obraz 6x6, 4 poziomy jasności: ciągi RL: (1,4); (3,3); (0,2); (2,5); (3,2); (0,7); (3,11); (1,2) czyli do zakodowania obrazu potrzeba 8*3=24 bajty ( I - 1 bajt, g - 2 bajty) reprezentacja obrazu: 6x6=36 bajtów CR = 36/24 = 1,5

46 46 Wykorzystuje się specyficzne właściwości układu wzrokowego człowieka; Niektóre cechy obrazu charakteryzują się mniejszą wrażliwością w porównaniu z innymi elementami obrazu

47 47

48 48 Kompresja JPEG DCT dzieli obraz wideo na bloki po 64 punkty każdy, co tworzy blok 8 x 8. Każdy tak utworzony blok jest kompresowany indywidualnie.

49 49 Kompresja JPEG 3 kanały RGB zastępujemy dwoma kanałami barw i kanałem jaskrawości Odrzucenie części pikseli z kanału barw Podział na bloki 8x8 Wykonanie DCT na każdym bloku Zastąpienie liczb zmiennoprzecinkowych liczbami całkowitymi (kompresja stratna) Obraz oryginalny rozmiar: b

50 50 Kompresja JPEG Kompresja silna do poziomu około 25% rozmiar: b Kompresja bardzo silna do poziomu około 5% rozmiar: b

51 51 Zastosowanie analizy Fouriera do filtracji obrazów Oryginał Zniekształcony funkcją o sinusoidalnym kształcie

52 52 Zastosowanie analizy Fouriera do filtracji obrazów Po wykonaniu transformaty Fouriera Wyzerowanie wartości odpowiedzialnych za częstotliwości zniekształceń

53 53 Zastosowanie analizy Fouriera do filtracji obrazów OryginałObraz po wykonaniu odwrotnej transformaty Fouriera

54 54 Miary błędu wnoszone przez kompresję stratną: 1. Średnia różnica: 2. Zawartość strukturalna (ang. Structual Content): 3. Znormalizowana korelacja wzajemna (ang. Normalized Cross-Correlation):

55 55 4. Jakość korelacji (Correlation Quality): 5. Maksymalna różnica (Maximum Difference), zwana też szczytowym błędem bezwzględnym (Peak Absolute Error-PAE): 6. Wierność obrazu (Image Fidelity): 7. Błąd średniokwadratowy (Mean Square Error): 8. Szczytowy błąd średniokwadratowy (Peak Mean Square Error):

56 56 9. Normalizowany błąd bezwzględny (Normalized Absolute Error): 10. Znormalizowany błąd średniokwadratowy (Normalized Mean Square Error): 11. Stosunek sygnału do szumu (Signal to Noise Ratio):

57 Szczytowy stosunek sygnału do szumu (Peak Signal to Noise Ratio): przy czym wartość jest zwykle stała (niezależna od obrazu) i wynosi np. 255 dla danych 8 bitowych. gdzie: i oznaczają wartości pikseli odpowiednio obrazu oryginalnego i przekształconego. M, N – wymiary analizowanych obrazów

58 58 Metody predykcyjne - prognozujące Predykcja to wybór, w ramach danego układu, najbardziej prawdopodobnej drogi rozwoju wyróżnionego zjawiska w nadchodzącym okresie, gdzie podstawę tego wyboru stanowi dotychczasowy przebieg tego zjawiska i aktualny stan układu. Im bardziej zróżnicowane prawdopodobieństwa wystąpienia symboli tym większą kompresję można uzyskać.


Pobierz ppt "1 Kodowanie informacji Kodowanie Przyporządkowanie elementom jakiegoś alfabetu ciągów binarnych. Kodowanie może mieć różne cele: Zmniejszenie objętości."

Podobne prezentacje


Reklamy Google