Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Dźwięk i jego przetwarzanie

Podobne prezentacje


Prezentacja na temat: "Dźwięk i jego przetwarzanie"— Zapis prezentacji:

1 Dźwięk i jego przetwarzanie
Opracował Michał Dugiełło

2 Pojęcie dźwięku Dźwięk – wrażenie słuchowe spowodowane falą akustyczną rozchodzącą się w ośrodku sprężystym (ciele stałym, płynie, gazie). Częstotliwości fal, które są słyszalne dla człowieka, zawarte są w paśmie między wartościami granicznymi od ok. 16 Hz do ok. 20 kHz.

3 Prędkość rozchodzenia się dźwięku dla różnych ośrodków:
Powietrze m/s Rtęć m/s Woda m/s Lód m/s Beton m/s Stal m/s m/s Szkło m/s

4 Przebieg transmisji dźwięku
NOŚNIK MIKROFON REJESTRATOR DŹWIĘKU URZĄDZENIE ODTWARZAJĄCE GŁOŚNIK

5 Cechy dźwięku Do podstawowych cech dźwięku możemy zaliczyć: wysokość dźwięku głośność dźwięku czas trwania dźwięku barwa dźwięku Cechy te związane są ściśle z odpowiednimi parametrami fali akustycznej.

6 Prędkość dźwięku Prędkość dźwięku w określonym ośrodku jest prędkością rozchodzenia się w nim zaburzenia mechanicznego. Prędkość dźwięku w substancjach zależy od prędkości przekazywania kolejnym cząsteczkom tej substancji prędkości cząsteczek zwiększonej ciśnieniem dźwięku. Dla małych natężeń dźwięku ta dodatkowa prędkość jest znacznie mniejsza od prędkości ruchu cieplnego cząsteczek, dlatego prędkość dźwięku nie zależy od jego natężenia.

7 Wysokość dźwięku Ciała drgające wykonują więcej lub mniej drgań na sekundę, zależnie od rodzaju materiału i od wymiarów fizycznych. Przykładowo struna krótka i cienka wykonuje tysiące drgań na sekundę i wydaje dźwięk wysoki. Natomiast struna gruba i długa wykazuje kilkadziesiąt drgań na sekundę, wydając dźwięk niski. A więc wysokość dźwięku zależna jest od ilości drgań na sekundę: im większa częstotliwość drgań, tym wyższy jest dźwięk i przeciwnie - im mniejsza częstotliwość drgań, tym dźwięk jest niższy.

8 Drgania z przedziału 16-300Hz określa się jako niskie
Drgania z przedziału Hz określa się jako niskie kHz określa się jako wysokie. Ludzkie ucho najbardziej reaguje na dźwięku z zakresu Hz. Interwał – relacja między dźwiękami: interwał harmoniczny – dwóch współbrzmiących, interwał melodyczny – następujących po sobie. Oktawa – podstawowy interwał dający wrażenie tego samego, lecz wyższego dźwięku. Półton – 1/12 oktawy; jest to podstawowa miara odległości muzycznej.

9

10 Głośność dźwięku Głośność – cecha wrażenia słuchowego, która umożliwia odróżnianie dźwięków cichszych i głośniejszych. Jest pojęciem psychoakustycznym i nie może być utożsamiana z parametrami fizycznymi, chociaż od nich zależy, np. od ciśnienia, struktury widmowej, czasu trwania.

11 Przy stałym natężeniu dźwięki niskie i wysokie wydają się cichsze niż średnie, ponieważ ucho jest wrażliwsze na dźwięki średnie. Wrażenie jednakowej głośności przedstawiają krzywe izofoniczne (kolejny slajd). Fon - jednostka poziomu głośności dźwięku. Poziom głośności dowolnego dźwięku w fonach jest liczbowo równy poziomowi natężenia (wyrażonego w decybelach) tonu o częstotliwości 1 kHz, którego głośność jest równa głośności tego dźwięku.

12

13 Czas trwania dźwięku Czas trwania dźwięku zależy od czasu, w jakim drga ciało; z chwilą, gdy ciało przestaje drgać, gdy drgania zanikają, zanika również i dźwięk. Czas trwania dźwięku przedłuża się pozornie, gdy dźwięk zostaje zagrany w dużym pomieszczeniu o ścianach odbijających falę dźwiękową, np. w kościele. Fala dźwiękowa odbija się wówczas od ścian, tworząc zjawisko pogłosu.

14 Barwa dźwięku Barwa dźwięku – cecha dźwięku, która pozwala odróżnić brzmienia różnych instrumentów lub głosu. Uzależniona jest od ilości, rodzaju i natężenia tonów składowych. Barwa danego instrumentu może zmieniać się nieznacznie w zależności od: sposobu wzbudzania drgań (pociągnięcie smyczkiem, szarpnięcie lub uderzenie), siły wzbudzenia (zatem i głośności dźwięku), częstotliwości (różne struny mogą wydawać dźwięki nieco różniące się barwą).

15 Częstotliwość dźwięku
Częstotliwość jest to liczba powtórzeń zmiany ciśnienia środowiska w jednostce czasu. Ruch falowy można najprościej zobrazować za pomocą sinusoidy. Okres – czas jednej, pełnej zmiany (cyklu)

16 Natężenie dźwięku Energia dźwięku rozprzestrzenia się wraz z falą akustyczną powodując chwilowe wzrosty i spadki ciśnienia atmosferycznego. Różnice te są zwane ciśnieniem akustycznym, a mierzone są w Pascalach. Dla lepszej prezentacji wprowadzono również specjalną jednostkę – decybel. Poniższa tabelka przedstawia wartości ciśnienia akustycznego dla wybranych dźwięków:

17 Widmo dźwięku Widmo akustyczne (widmo dźwięku) – rozkład natężenia składowych dźwięku w zależności od częstotliwości tych składowych. Widmo jest jednak znacznym, choć wygodnym uproszczeniem. W rzeczywistości - przy naturalnym, złożonym dźwięku - obejmuje raczej całe zakresy częstotliwości z wyraźnie uwypuklonymi pasmami.

18 Inną formą graficznej reprezentacji jest tzw
Inną formą graficznej reprezentacji jest tzw. spektrogram, czyli widmo przedstawione w układzie współrzędnych: częstotliwość-czas. Każdy odcień szarości odpowiada tu innej wartości amplitudy. Najcelniejszym obrazem dźwięku, w pełni uwzględniającym jego istotę, a więc zmienność amplitudy i częstotliwości w czasie, jest widmo trójwymiarowe.

19 Składowe harmoniczne Sygnał analogowy, a także każdy sygnał cyfrowy, jest paczką fal sinusoidalnych o różnych częstotliwościach nazywanych składowymi harmonicznymi. Bezbłędna transmisja sygnału analogowego polega na przesłaniu na odległość wszystkich jego składowych, bez zmiany proporcji ich amplitud i z jednakowym opóźnieniem. Nie jest to jednak wykonalne, ponieważ przeszkadzają temu zarówno tłumienie jak i opóźnienia sygnału w fizycznie realizowalnych torach transmisyjnych. Przesyłany torem przewodowym sygnał ulega zatem zniekształceniom tłumieniowym, które mogą być eliminowane za pomocą kosztownych układów korekcji.

20 Zniekształcenia Zniekształcenie jest każdym odstępstwem dźwięku od jego oryginalnego brzmienia. Urządzenia elektroniczne, ale również ucho, mogą zmienić dźwięk, pozbawiając go niektórych elementów lub wzbogacając o nowe, wcześniej w nim nieobecne. Z tego względu zniekształcenia te można podzielić na: linearne (liniowe), ograniczające pasmo lub powodujące podbicie albo osłabienie pewnych zakresów częstotliwości składowych; nielinearne (nieliniowe), dodające nowe przytony, których rezultatem może być charakterystyczne "chrypienie" dźwięku; fazowe, powodowane różnicami czasowymi w przenoszeniu różnych częstotliwości i zmieniające wrażenie naturalności; zniekształcenia dynamiki, zmniejszające różnicę między najgłośniejszymi a najcichszymi dźwiękami.

21 Za różnego rodzaju zniekształcenia odpowiedzialne są niedoskonałe komponenty urządzeń. Pojawienie się ich może być obecne na każdym etapie wędrówki dźwięku. Im wyższa klasa zastosowanych urządzeń, tym mniejsze zakłócenia i zniekształcenia dźwięku.

22 Zniekształcenia linearne
Zniekształcenia linearne powstają wówczas, gdy na drodze sygnału fonicznego poszczególne jego składowe są niejednakowo tłumione i niejednakowo opóźniane. W wyniku tych zniekształceń charakterystyka przenoszenia danych urządzeń nie jest liniowa w całym paśmie częstotliwości. Zniekształcenia linearne odczuwane są jako zmiana brzmienia i barwy dźwięku. Dla urządzeń powszechnego użytku przyjmuje się pasmo częstotliwości od 100 Hz do Hz.

23 Zniekształcenia nielinearne
Zniekształcenia nielinearne powstają w układach z elementami nieliniowymi (lampy, tranzystory, transformatory, cewki z rdzeniami itp.). Zniekształcenia te polegają na wprowadzeniu do dźwięku dodatkowych tonów harmonicznych. Są one odczuwane jako chrypienia. Miarą zniekształceń nieliniowych jest współczynnik zawartości harmonicznych wyrażony w procentach.

24 Przyjmuje się następujące dopuszczalne wartości współczynnika zawartości harmonicznych urządzeń elektroakustycznych przy ich pełnym wysterowaniu: do 0,3% ­ dla urządzeń profesjonalnych, takich jak: mikrofony, wzmacniacze napięciowe itp., do 3% ­ dla urządzeń profesjonalnych, takich jak: głośniki, wzmacniacze mocy, magnetofony i gramofony, do 5% ­ dla urządzeń elektroakustycznych powszechnego użytku.

25 Zniekształcenia fazowe
Powodowane przez różne zwykle dla każdej częstotliwości opóźnienia, zniekształcenia fazowe objawiają się zmianą kształtu, a więc i brzmienia zniekształcanego dźwięku. Z reguły wyższe częstotliwości są opóźniane bardziej niż niższe. Jeśli dla grupy sygnałów o różnych częstotliwościach ich opóźnienie odniesione do czasu przejścia tonu 1000 Hz zmieści się w granicach od l do 8 milisekund, ucho tego nie zauważy. Po przekroczeniu tych wartości dźwięk ulegnie degradacji, tracąc swą naturalność.

26 Inne zniekształcenia Zniekształcenia dynamiki - zmniejszają różnicę pomiędzy najgłośniejszymi a najcichszymi dźwiękami. Zniekształcenia tłumieniowe - Przesyłany torem przewodowym sygnał ulega zniekształceniom tłumieniowym, które mogą być eliminowane za pomocą kosztownych układów korekcji. Przydźwięk sieciowy - niskie buczenie, źródłem przydźwięku najczęściej są zmienne napięcia w obwodach zasilających wzmacniacza

27 Zniekształcenia odbiciowe
Fala jednokrotnie odbita ma kierunek ruchu przeciwny do fali docelowej i nazywana jest echem pierwotnym. Fala dwukrotnie odbita porusza się w kierunku zgodnym z falą docelową, lecz z opóźnieniem w stosunku do niej, i nazywana jest echem wtórnym. Echo wtórne dociera do odbiornika z opóźnieniem i zakłóca sygnały użyteczne wysłane przez źródło po upływie czasu tego opóźnienia, powodując ich zniekształcenia odbiciowe.

28 Szumy Biały - energia rozłożona równomiernie, intensywność szumu białego teoretycznie jest statystycznie równomierna w całym paśmie – od zera do nieskończoności, ale w praktyce przyjmuje się do rozważań tylko pewne zakresy częstotliwości (w akustyce jest to zazwyczaj pasmo słyszalne (od kilkunastu Hz do 20kHz Różowy - energia skupiona w niskich częstotliwościach Brązowy - energia takiego szumu skupiona jest w zakresie małych częstotliwości w stopniu jeszcze większym, niż to się dzieje w szumie różowym Niebieski - energia skupiona w wysokich częstotliwościach

29 Cyfrowe przetwarzanie dźwięku
Dziedzina cyfrowego przetwarzania sygnałów zajmująca się przetwarzaniem sygnałów fonicznych w postaci cyfrowej. Obejmuje w szczególności: poprawę jakości sygnału (usuwanie zakłóceń oraz zniekształceń, czyli zastosowanie filtrów), zmianę reprezentacji sygnału (np. konwersję częstotliwości próbkowania, zmianę rozdzielczości bitowej), dostosowywanie parametrów sygnału do określonych zastosowań (korekcję barwy dźwięku, normalizację, kompresję dynamiki), wytwarzanie efektów specjalnych (np. pogłos), kompresję danych.

30 Cyfrowe przetwarzanie dźwięku rozwinęło się od lat 70
Cyfrowe przetwarzanie dźwięku rozwinęło się od lat 70., gdzie ze względu na ograniczoną moc maszyn cyfrowych konieczne było przetwarzanie wsadowe danych cyfrowych reprezentujących dźwięk, zapisywanych na nośnikach magnetycznych i mechanicznych. Obecnie cyfrowe przetwarzanie dźwięku może odbywać się zarówno wsadowo jak i w czasie rzeczywistym, za pomocą dedykowanych urządzeń (procesorów sygnału) jak i specjalistycznego oprogramowania uruchamianego na mikrokomputerach ogólnego przeznaczenia.

31 Urządzenia Urządzenia wykorzystywane do cyfrowego przetwarzania dźwięku: uniwersalne (programowalne) procesory sygnałowe procesory sygnałowe dedykowane do określonej funkcji Urządzenia do zapisu i archiwizacji sygnału: magnetofony DAT magnetofony wielośladowe rejestratory dyskowe rejestratory z pamięcią Flash nośniki optyczne CD, CD-R/RW, DVD-R/RW oraz SACD

32 Procesor sygnałowy Procesor sygnałowy (DSP z ang. Digital Signal Processor, procesor DSP) oznacza klasę specjalizowanych procesorów do cyfrowej obróbki sygnałów. Charakteryzują się rozdzielonymi pamięciami programu i danych (architektura harwardzka), możliwością równoczesnego odczytu instrukcji i danych, sprzętowym dostosowaniem do wykonywania operacji najczęściej występujących przy przetwarzaniu sygnałów i potokowym przetwarzaniem instrukcji.

33 Dziękuję za uwagę!


Pobierz ppt "Dźwięk i jego przetwarzanie"

Podobne prezentacje


Reklamy Google