wtorek, 26 lipca 2016

Zapętlenie zakłóceń

Opisywanie zjawisk akustycznych polega na próbie ujęcia zjawiska odbywającego się w pewnym sensie w wielu wymiarach jednocześnie. Odbicia dźwięku są zapętlone dlatego, że chociaż dźwięk odbija się sukcesywnie pokonując coraz większy dystans, a to zajmuje pewien czas, ale jednak wszystkie odbicia z tego przedziału czasowego nakładają się na dźwięk bezpośredni jednocześnie.


Na rysunku są zaznaczone odbicia, które pojawią się po tym jak dźwięk źródłowy ustanie. Odbicia po pewnym okresie zanikają, aż pozostaje tylko tło szumu otoczenia. Jednak słuchając muzyki ona wciąż gra, bez przerwy, dlatego każdy rodzaj odbić, od pierwszych po późniejsze, aż do całkowitego rozproszenia czyli włączając w to także szum tła, są obecne jednocześnie.

Każde zdarzenie dźwiękowe skutkuje odbiciami dźwięku. Faktycznie te zdarzenia należałoby narysować jako nakładające się na siebie. Jeśli się je rozbije na elementy składowe, łatwo zauważyć, że w chwili T występuje pełne spektrum odbić. Wobec tego w każdym momencie na dźwięk bezpośredni nakładają się wszystkie rodzaje odbić jakie występują w pomieszczeniu począwszy od bezpośrednich, najgłośniejszych, aż do ogona pogłosowego i szumu. Rysunek przedstawia bardzo niewielką ilość dźwięków odbitych. W rzeczywistości wszystko dzieje się z większą szybkością i "gęstością". Same dźwięki nie mają charakteru impulsowego, ale zazwyczaj charakteryzuje je dość długi okres stanu ustalonego, który trwa często nawet więcej niż sekundę. Jak widać żaden dźwięk nie będzie słyszany bez nakładających się odbić, jedynie ostatni będzie wolny od pogłosu wywołanego pierwszym dźwiękiem.

Dlatego, że w czasie słuchania muzyki wszystkie odbicia są obecne permanentnie, więc wszystkie jednocześnie nakładają się na każdy moment odtwarzania. Dlatego właśnie, że odbicia są zapętlone w czasie, trzeba o nich myśleć właśnie jak o wszystkich naraz nakładających się na każdą chwilę nagrania. Więc nakłada się na muzykę całkiem sporo śmieci.

Wobec tego widać, że zakłócenia mają prawie taką samą głośność jak sygnał. W związku z tym, że zakłócenia mają głośność zbliżoną do oryginalnego sygnału ktoś może stwierdzić, że to niemożliwe, bo przecież to by było słychać, a nie słychać.

Słychać, ale budowa i działanie ucha jest specyficzna i uwzględnia tak wysoki poziom zakłóceń, że słyszenie w takich warunkach jest możliwe i subiektywnie sprawia wrażenie, że żadnych zakłóceń nie ma.

Jak to się dzieje zostało już opisane we wcześniejszych postach.

poniedziałek, 18 lipca 2016

Problem z pozostaniem na Ziemi czyli jitter 20 pikosekund

Czy ktoś czytał kiedyś deklaracje jakiegoś audiofila, że słyszy jitter 2 pikosekund? A może artykuł o tym, że można usłyszeć jitter 20 pikosekund? Jeśli nie, to nie ma problemu. Problem mają autorzy. Pierwszy ma zbyt wybujałą wyobraźnię, a drugi źle zinterpretował wyniki obliczeń.

Jak można dojść do tak absurdalnego wniosku, że jitter 20 pikosekund jest słyszalny? W ten sposób, że nakładając poziom zakłóceń na krzywą Fletchera-Munsella trafia on dokładnie na sam dół krzywej poziomu słyszalności. Czyli zakłócenie ma poziom prawie -10 dB. Warto pamiętać, że 0 dB SPL nie znaczy, że zmiany w ciśnieniu wynoszą zero, więc stąd biorą się ujemne db. Faktycznie taki poziom dźwięku można usłyszeć w komorze bezechowej, gdzie panuje absolutna cisza. Pytanie jest jednak następujące: poziom zakłóceń to około -10 dB, a co z sygnałem?

Jitter 20 pikosekund ma głośność tak małą, że jest najmniejszą głośnością, którą można w ogóle słyszeć. Nie jest zaznaczony na rysunku, ale wypada w najniższym punkcie najniższego wykresu tuż nad osią. Tak cichych dźwięków można nie usłyszeć nigdy o ile się nie było w komorze dźwiękoszczelnej. Hałas otoczenia rzadko kiedy jest mniejszy niż 30 dB chyba, że ktoś mieszka w jaskini w środku puszczy.

Zniekształcenia nie istnieją w oderwaniu od przetwarzanego sygnału. Jeśli są zniekształcenia, to jest też sygnał, który został zniekształcony. Dlatego takie teoretyzowanie, że jeśli człowiek - chyba bardzo młody i zdrowy, dodajmy - słyszy poniżej zera dB, tzn. słyszy ujemne decybele, to nie znaczy, że usłyszy taki poziom zakłóceń. Nie usłyszy, bo fundamentalna będzie stokilkadziesiąt dB głośniejsza.

Żeby rzecz była jasna. Ktoś umyślił sobie, że skoro zakłócenia są na poziomie jeszcze słyszalnym, to po usunięciu sygnału je się da usłyszeć. Ale problem w tym, że musi grać muzyka, żeby były zakłócenia. Nie ma opcji wyciszenia muzyki, czyli zlikwidowanie sygnału, po to, żeby słuchać samych zakłóceń.

Można usłyszeć odgłos przeskakującej iskry w świecy zapłonowej, ale na to trzeba ją wykręcić z silnika. Natomiast nie da się tego usłyszeć, jak silnik pracuje.

To jest właśnie problem teoretyków. Tak jak nie ma sensu mówić o odgłosach świecy bez pracy silnika, tak nie ma sensu mówić o zakłóceniach bez sygnału czy muzyki.

W dobrej jakości przetworniku jitter rzędu 200 ps jest bardzo dobrą wartością i z całą pewnością jest niemożliwy do usłyszenia.

0,1 ns = 100 ps.

piątek, 15 lipca 2016

Współdzielenie częstotliwości

Dwa przedmioty materialne raczej nie mogą zajmować jednocześnie w tej samej przestrzeni, natomiast fale mogą. Do litrowego naczynia można wlać litr płynu i więcej się w objętości naczynia nie zmieści. Jeśli chodzi o fale, można wlać do litrowej przestrzeni litr fal, potem następny litr i okaże się, że dalej jest litr, albo ze jest pusto.

Fale cechuje to, że jednocześnie w tej samej przestrzeni może ich być wiele. Słyszymy np. kontrabas i skrzypce. W tej samej przestrzeni i w tym samym czasie są fale o różnych częstotliwościach.

Fala dźwiękowa jest zmianą ciśnienia atmosferycznego, a więc przedmiotem materialnym, i dotyczą jej te same reguły, które mówią, że dwa przedmioty materialne nie mogą się znaleźć jednocześnie w tym samym miejscu. Ale wcześniej zostało powiedziane, że mogą. Fale różnych częstotliwości mogą znaleźć się jednocześnie w tej samej przestrzeni. Nie mogą się znajdować jednocześnie w tej samej przestrzeni różne fale o takiej samej częstotliwości.

Można zsumować ze sobą ton 1 kHz i 440 Hz. Nie ma żadnego problemu, żeby następnie odfiltrować jedno od drugiego. Nie jest możliwe zsumowanie ze sobą dwu przebiegów o tej samej częstotliwości i ich ponowne rozdzielenie. Jeśli zsumujemy dwa tony 1 kHz o różnych amplitudach otrzymamy ton 1 kHz o amplitudzie większej, mniejszej, takiej samej lub ciszę. W zależności od miejsca "spotkania" w przestrzeni ciśnienie będzie się dodawać lub znosić.

Jeśli połączy się dwa realne dźwięki, których spektrum częściowo się pokrywa, dojdzie do sytuacji, kiedy dwa obiekty zajmują tą samą przestrzeń. Wobec tego dublujące się sinusoidy o jednakowych częstotliwościach nałożą się na siebie i zredukują do jednej.

Jeśli dźwięk zawiera 10 sinusoid, a inny dźwięk również zawiera 10 sinusoid i jeśli po 5 sinusoid w każdym z dźwięków ma tą samą częstotliwość, to po ich połączeniu otrzymamy sumę zawierającą 15 sinusoid. 15 a nie 20. To znaczy jeśli np. pierwszy dźwięk będzie miał częstotliwości ABCDEFGHIJ a drugiego FGHIJKLMNO to po zsumowaniu obu nie otrzymamy dźwięku ABCDEFGHIJFGHIJKLMNO  tylko dźwięk ABCDEFGHIJKLMNO. Przykładowo jeśli oba dźwięki mają w sobie ton 1 kHz, to suma tych dźwięków nie będzie zawierać dwóch tonów 1 kHz tylko jeden będący ich sumą, albo tej częstotliwości zabraknie.

Dodanie dwóch lub więcej dźwięków nie oznacza podwojenia lub zwielokrotnienia. Część wspólna zostanie zmodyfikowana. Dźwięki wzajemnie wpływają na siebie i zmieniają tym samym swą barwę, modulację itd. Efekt jest nieodwracalny i powoduje redukcję ilości informacji.

O tym, że sumowanie wiąże się z redukowaniem świadczy np. dodawanie głośności różnych źródeł. Jeśli się zsumuje dwie takie same głośności, otrzyma się sumę większą o 3 dB a nie 6 dB.

Od strony praktycznej widać, że sama natura dźwięku chroni nas przed przeciążeniem sensorycznym. Najważniejszą barierą jednak jest ucho, a dokładniej budowa i działanie ślimaka.

wtorek, 5 lipca 2016

Jak pozostać audiofilem

Zostać audiofilem jest łatwo. Sposób jest prosty, mianowicie trzeba się określić. Deklarujesz audiofilizm i zostajesz audiofilem. Natychmiast.

Bycie audiofilem polega na wszystkosłyszeniu.

Są ludzie, którzy poddają wszystkosłyszenie w wątpliwość. Często wykonują przeróżne testy. Bywa i tak, że w takich testach uczestniczy wiele osób. Setki, nawet tysiące.

Kiedy po wykonaniu badań i testów na wielu tysiącach osób okazuje się, że wszystkosłyszenie nie istnieje, a wszystkie pretensje audiofili są warte tylko tyle ile jest wart papier, na którym zostały napisane powstaje pewien dysonans. Dysonans pomiędzy światem realnym i wyobrażonym.

Wydawać by się mogło, że wobec faktów audiofilizm powinien przestać istnieć. Wprawdzie dotyczy on coraz węższego grona osób, ale jednak istnieje.

Co zatem robią audiofile, skoro nie mają żadnych argumentów? Skoro przez pięćdziesiąt lat żadnemu audiofilowi nie udało się potwierdzić nigdy i w żaden sposób swoich pretensji do wszystkosłyszenia?

Audiofile nie czytają dokumentów przeczących ich tezom. A jak już je czytają, to czytają je w sposób dość szczególny. Przykładowo ktoś miał coś usłyszeć. Wykonał 100 prób i 50 razy się pomylił. Ktoś inny pomylił się 51 razy. Ale znalazł się ktoś, kto zgadł 51 razy. W związku z tym audiofile ogłaszają całemu światu, że wszystkosłyszenie istnieje.

Ciekawa sprawa, że wszystkie testy polegają na odróżnieniu próbki A od próbki B. W związku z tym zawsze szansa na zgadniecie wynosi 50/50. Takie same rezultaty można osiągnąć rzucając monetą. Jednak czemuś nikt nie wpadł na pomysł żeby odróżniać A od B i od C oraz od D. Powiedzmy są do odróżnienia próbki mp3, AAC, CD i tzw. "dźwięk o wysokiej rozdzielczości".

Mając cztery próbki już nie da się mówić o rzucie monetą. Albo słyszysz, albo nie. A przecież audiofile twierdząc, że pomiędzy CD i high-resolution jest różnica jak pomiędzy dniem i nocą, no to powinni odróżniać jedno od drugiego... i trzeciego i czwartego.

Ale takiego testu nie zrobi nikt. Nigdy.

Rezultat takiego testu z czterema próbkami zawsze będzie tylko jeden. Audiofile nie słyszą nic, żadnych różnic. A wszystkie ich pretensje można potłuc o kant, powiedzmy, obłości.

Ale póki co muszą ignorować fakty.

Aby im to zadanie ułatwić działy marketingu pracują w dzień i chyba nawet w nocy.

DODANE 6 lipca.

Jeśli 4 próbki to za dużo, to można robić test z trzema: ABCX. Chodzi o to, żeby zlikwidować podobieństwo wyników do rzutu monetą. W teście z trzema próbkami nie można uzyskać wyniku 50% jeśli się zgaduje i w ogóle nic nie słucha.

Wykonanie testu z czterema próbkami dźwięku nawet kilka razy z rzędu, nie potrzeba nawet wykonać 10 prób, wykaże, że testowani nie potrafią usłyszeć żadnych różnic.

sobota, 2 lipca 2016

Integracja odbić dźwięku na zasadzie kompresji wielopasmowej w ślimaku

W każdym pomieszczeniu mieszkalnym dźwięk odbija się wielokrotnie. Jednak w pomieszczeniach o typowych rozmiarach tych odbić nie słychać w zasadzie wcale. Można np. klasnąć w dłonie i przekonać się, że faktycznie "coś słychać" poza klaśnięciem, jednak w czasie rozmowy, wykonywania różnych czynności, a zwłaszcza w podczas słuchania muzyki odbić raczej nie słychać.

Problem w dyskusjach dotyczących jakości odtwarzania muzyki polega na tym, że właśnie dlatego, że odbić nie słychać traktuje się je jako niewystępujące i przyjmuje, że słyszy się wszystko, co odtwarzają głośniki w czystej formie czyli przez nic niezakłóconej. Z drugiej strony wiadomo, że pomieszczenie można podzielić na 3 strefy, przy czym w strefie dalekiego odsłuchu występują zasadniczo same odbicia. Ponadto wrażenia odsłuchowe w strefie dźwięku bezpośredniego i w strefie dalekiej są zbliżone. Nawet słuchając muzyki w pokoju obok słyszy się wyraźnie większość instrumentów i wokali, a ze zrozumieniem mowy nie ma żadnych kłopotów.

Wobec tego, że w strefie dalekiej dźwięk bezpośredni może stanowić 0,001%, a wrażenia słuchowe są takie, że odbić nie słychać jakby ich w ogóle nie było, niektórzy przyjmują, że słuch eliminując odbicia odrzuca 99,999% wszystkich bodźców słuchowych. Wyeliminowanie praktycznie rzecz biorąc całości dźwięku w taki sposób, że pozostały minimalny ułamek brzmi czysto, wyraźnie i dobrze oddaje wrażenie dźwięku bezpośredniego jest niewykonalne.

"Wyczyszczenie" czyli odrzucenie 99,999% zakłóceń nie jest możliwe przy użyciu jakiejkolwiek, techniki obliczeniowej. To jest niewykonalne przede wszystkim z tego powodu, że w czasie analizy dźwięku nie da się ustalić co jest dźwiękiem bezpośrednim, a co odbitym. Natomiast można zintegrować odbicia w taki sposób, że otrzyma się w wyniku tego procesu dźwięk sprawiający wrażenie bezpośredniego.

Nie jest możliwe, że słuch eliminuje 99,999% wrażeń akustycznych, np. żeby uniknąć przeciążenia sensorycznego. Faktycznie, gdyby każdy dźwięk był słyszany kilkaset razy, byłoby to bardzo uciążliwe. Ponadto każde odbicie dociera z innego miejsca, więc stracilibyśmy możliwość ustalenia kierunku, bo byłoby słyszane kilkaset razy za każdym razem z innej strony. Również nie jest prawdą, że słyszy się tylko dźwięk bezpośredni. Nie ma sensu wykazywać fałszywości tego założenia, wystarczy przyjrzeć się dowolnemu wykresowi wodospadowemu.

Rys. 1. Wykres wodospadowy czyli praktycznie rzecz ujmując - wykres odbić dźwięku w pomieszczeniu.

Wodospad pokazuje generalnie same odbicia, bo dźwięk bezpośredni jest zaledwie pierwszą warstwą.

Nałożenie na siebie tylko trzech sygnałów sinusoidalnych daje w efekcie coś zupełnie nieprzypominającego elementy składowe.

Rys. 2. Sygnał kompleksowy składający się z trzech sinusoid.

Podział sygnału na pasma pokazuje co składa się na dany dźwięk. Dzieląc dźwięk na pasma wiadomo, że w określonym czasie występują sinusoidy o określonych częstotliwościach i amplitudach. Problem w tym, że nie będziemy mieć żadnych danych co do tego, w którym momencie dana sinusoida jest początkiem jednego dźwięku i równocześnie końcem innego. Żeby wiedzieć kiedy dany dźwięk zaczyna się i kończy czyli jak długo trwa, trzeba go słuchać jako sygnał kompleksowy i słuchać świadomie. Taką zdolnością nie jest obdarzony żaden program komputerowy i dlatego nie można napisać algorytmu "kasującego" odbicia i "pozostawiającego" tylko dźwięk bezpośredni.

Załóżmy, że słuchamy dźwięku z rysunku 2, który jest faktycznie trójdźwiękiem składającym się z częstotliwości 1760, 880 i 440 Hz. Jeśli w trójdźwięku są zsumowane 3 sinusoidy o różnych częstotliwościach, tak samo dźwięk bezpośredni i odbicia będą się składać z tych trzech częstotliwości. Jeśli wykonalibyśmy podział na pasma słyszanego dźwięku, czyli sumy odbić, to w każdym z pasm zobaczylibyśmy taki przebieg:

Rys. 3. Fluktuacja amplitudy sygnału w wybranym paśmie spowodowana nakładaniem się na siebie odbić. Grafika pokazuje przykładowe fluktuacje dla częstotliwości 880 Hz, dla pozostałych częstotliwości z rysunku 2, tzn. 1760 i 440 Hz wykres byłby bardzo podobny.

Dlatego, że odbicia docierają w pewnych odstępach czasu i pokonują różne drogi są poprzesuwane w fazie. Niektóre odbicia, zwłaszcza najwcześniejsze, będą zgodne w fazie, więc będą się wzmacniały, inne będą się znosiły. Dlatego w każdym paśmie zauważymy pewną fluktuację głośności.


Rys. 4. Przebieg głośności sygnału w czasie. Dźwięk źródłowy ma stałą głośność. Nie potrafimy usłyszeć zarówno pierwszego skoku głośności po nałożeniu się odbić, jak również nie słyszymy dalszej mikrofluktuacji głośności dźwięku.


Gdyby słuch miał większą rozdzielczość w odniesieniu do tych szybkich skoków amplitudy, to moglibyśmy słyszeć, kiedy docierają do nas poszczególne odbicia. Możliwa jest jednak modulacja amplitudy, której słuch nie jest w stanie wykryć.


Rys. 5. słyszenie zmian w amplitudzie tonu 1 kHz i szumu białego.

Dla głośności 40 dB nie są słyszalne modulacje poziomu o wartości 6%. Im sygnał jest głośniejszy, tym mniejsza modulacja jest zauważalna. W odniesieniu do rysunku 3 jeśli modulacja amplitudy nie przekroczy pewnej wartości, to wrażenie będzie takie, jakby sygnał miał niezmienną głośność, którą wyznaczają dwie zielone linie.

Słuch jest dość mało czuły na krótko trwające impulsy. Dźwięk trwający krótko musi być znacznie głośniejszy niż identyczny dźwięk, który jest dłuższy. Również czułość na transjenty nie jest mocną stroną słuchu. Krótkie transjenty muszą być głośniejsze od porównywalnych dłuższych dźwięków.

Elementem anatomicznym pełniącym funkcję podzielenia sygnału kompleksowego na pasma (czyli wykonanie FFT) i złagodzenia mikro-fluktuacji (modulacji) amplitudy jest ślimak.

Rys. 6. Ślimak.

Rysunek przedstawia różne miejsca na błonie podstawnej, które odpowiadają za przetwarzanie określonych częstotliwości. Ślimak jest elementem w którym następuje podział na pasma, bo inne miejsca odpowiadają za przetwarzanie innej częstotliwości, natomiast różna długość słupka cieczy i różna podatność błony podstawnej oraz zmieniające się dynamicznie właściwości przetwarzania drgań przez komórki słuchowe powodują, że dla każdej częstotliwości występuje inny stopień tłumienia mikrofluktuacji amplitudy.

Z powyższego wynika, że w wyniku zmniejszenia możliwości śledzenia zmian amplitudy sygnału można doprowadzić to tego, że sumaryczny sygnał zebrany w nerwie słuchowym będzie sprawiał wrażenie, jakby dźwięk był pozbawiony odbić i składał się tylko z dźwięku bezpośredniego. Dlatego, że nie zdajemy sobie sprawy, że docierają do nas wciąż nowe odbicia, a wydaje się nam, że słyszymy jeden dźwięk, również nie zdając sobie sprawy z występowania odbić nie wiemy, że docierają one za każdym razem z innego kierunku. Dlatego źródło takiego mechanizmu słyszenia nie ma swej przyczyny w tym, żeby nie rozróżniać odbić i nie dlatego, żeby nie słyszeć tego samego dźwięku jako wiele jego kopii, ale po to, żeby nie dezorientowały nas różne kierunki, z których te odbicia docierają. Konieczność uzyskania jednoznacznej informacji co do lokalizacji źródła dźwięku jako produkt uboczny daje to, że nie słyszymy powtórzeń.

Odbicia są zasadniczo opóźnionym dźwiękiem bezpośrednim o nieco innej barwie. Integrację odbić można rozumieć również w ten sposób, jak to miałoby miejsce, kiedy grupa kilkuset osób recytuje jakiś tekst. Dlatego, że wszyscy mówią w tym samym czasie te same słowa nie mamy żadnych problemów z ich zrozumieniem. Brzmienie słów jest inne kiedy mówi jedna osoba lub kilkaset, jednak czytelność słów nie będzie w żaden sposób zakłócona. Dlatego nawet w strefie dalekiego odsłuchu dźwięk wydaje się być czysty i klarowny. Dopiero gdy czas docierania odbić różni się bardzo znacznie wystąpi efekt jakby niektóre osoby spóźniały się w stosunku do innych w takim stopniu, że wypowiadają jednocześnie różne słowa. Wtedy już wystąpi pogorszenie zrozumiałości i czytelności. W odniesieniu do typowych pomieszczeń taka sytuacja nie wystąpi nigdy. W odniesieniu do jednoczesnego wypowiadania słów przez wiele osób trzeba dodać, że w tym przypadku mówią różne osoby o różnej barwie głosu itd. Faktycznie odbicia są jakby głosem jednej osoby, przy czym są bardzo nieznacznie niezsynchronizowane w czasie. Trzeba pamiętać o efekcie Haasa, który występuje jeśli przesunięcie wynosi 35-50 ms.

O ile hipoteza o wpływie dodatkowej masy cieczy w ślimaku, podatności błony podstawnej itd. może być faktycznym wyjaśnieniem zjawiska, możliwe jest jednak, że te czynniki nie mają znaczenia, dlatego że odbicia następują w minimalnych odstępach czasu. Pomiędzy czasem dotarcia do organu słuchu poszczególnych odbić są różnice mierzone w tysięcznych częściach sekundy.

Przyczyny niewrażliwości słuchu ma mikrofluktuacje amplitudy mogą wymagać zbadania. Jednak bez względu na ich mechanizm ta właściwość słuchu ma działanie, którego znaczenie jest bardzo duże i w ogóle umożliwia orientację w otaczających nas dźwiękach.

Integracja odbić nie jest jedynym zjawiskiem psychoakustycznym. Również nie należy interpretować tego w ten sposób, że skoro prawie 100% dźwięków to odbicia, to zostaną one zsumowane do czegoś przypominającego dźwięk bezpośredni. Najważniejszym czynnikiem powodującym, że nie słychać powtórzeń jest maskowanie. Zamaskowane jest wszystko, co jest cichsze od dźwięku głównego o około 50 dB. Ponadto integracja odbić ma miejsze tylko w czasie trwania dźwięku źródłowego i trwa jeszcze tylko przez kilkadziesiąt ms po jego ustaniu. Kiedy dźwięk zasadniczy się urwie usłyszymy odbicia bez problemu, chociaż również nie wszystkie, bo jedne odbicia, te silniejsze, będą maskować słabsze.

Natomiast integracja odbić na zasadzie redukcji fluktuacji amplitudy po wcześniejszym podziale na poszczególne częstotliwości przypomina działanie kompresora wielopasmowego. Różnice polegają na tym, że kompresor wykorzystuje się przede wszystkim do uzyskania większej głośności, natomiast ucho stara się w mikroskali utrzymać jednakową głośność.