Autor: Eddy Bøgh Brixen | Redakcja: SKENE
Cyfrowe bezprzewodowe systemy bezprzewodowe wykorzystują fakt, że sygnał cyfrowy nie wymaga wysokiego stosunku sygnału do szumu. Dzięki temu możliwa jest stała jakość odbioru przy znacznie bardziej zmiennym sygnale docierającym do anteny odbiorczej, niż miałoby to miejsce w przypadku czysto analogowej modulacji FM. Zazwyczaj stosunek sygnału do szumu mieści się w zakresie 100–125 dB.
Stosuje się różne strategie optymalizacji konwersji analogowo-cyfrowej w celu uproszczenia procesu. Zakres dynamiki mikrofonu może łatwo przekroczyć 100 dB. Dlatego można przyjąć jedną z dwóch strategii: albo dostosować sygnał analogowy do przetwornika, albo przetwornik do sygnału analogowego. Pierwsza strategia zakłada ustawienie poziomu sygnału analogowego tak, aby mieścił się w zakresie dynamicznym, dostępnym w domenie cyfrowej. Druga strategia wykorzystuje przetworniki kaskadowe (czyli „piętrowo” połączone przetworniki), co pozwala objąć cały zakres dynamiki mikrofonu.
W dzisiejszych w pełni cyfrowych systemach transmisji większość producentów stosuje kaskadowe przetworniki, co oznacza, że nie ma potrzeby ustawiania wzmocnienia w nadajniku – zakres dynamiki tych przetworników przewyższa zakres dynamiki podłączonych mikrofonów lub źródeł dźwięku. Może być jednak wskazane dostosowanie poziomu wyjściowego po stronie odbiornika, aby skompensować niski poziom sygnału, który teraz może być przesyłany bez ograniczeń – jest to jednak kwestia dopasowania poziomu / cyfrowego trim-u, a nie ustawienia wzmocnienia.
Niestety, istnieją ograniczenia dotyczące ilości danych, które można przesłać. Ilość informacji jest głównie determinowana przez częstotliwość próbkowania i rozdzielczość (liczbę bitów na próbkę) zdigitalizowanego sygnału. Na przykład: jeśli częstotliwość próbkowania wynosi 48 kHz, a rozdzielczość 24 bity, to liczba bitów na sekundę wynosi 48 000 × 24, co daje 1 152 000 bps (bitów na sekundę), czyli 1,1 Mbps (megabita na sekundę).
Dodatkowo potrzebne są dane nadmiarowe (redundantne), aby zapewnić stabilne połączenie nawet w przypadku chwilowych zakłóceń (drop-outów). Całkowita ilość przesyłanych danych może sięgnąć około 1,5 razy więcej niż sama informacja audio. W tym przypadku głębia bitowa wynosi około 1,6 Mbps. Niestety, przy obecnych technologiach modulacji przesłanie takiej ilości danych jest niemożliwe.
Zbyt duża ilość danych sprawia, że nośna (fala radiowa) zajmuje znacznie więcej przestrzeni w paśmie niż standardowa modulacja analogowa. Dodatkowym skutkiem ubocznym jest skrócenie zasięgu systemu cyfrowego, jeśli ilość przesyłanych danych jest zbyt wysoka.
Po digitalizacji sygnału audio należy zastosować algorytmy redukcji danych. Typowa redukcja mieści się w zakresie od 6:1 do 8:1. Oznacza to, że transmitowana jest tylko jedna szósta lub jedna ósma pierwotnej ilości danych. Redukcja ta odbywa się zazwyczaj poprzez tzw. kodowanie percepcyjne. Kodowanie percepcyjne organizuje bity w taki sposób, aby zminimalizować słyszalność zniekształceń i artefaktów. Przykładem dźwięku kodowanego percepcyjnie jest MP3.
Niektóre marki stosują kodek APT-X Live, gdzie sygnał 24-bitowy o częstotliwości próbkowania 48 kHz przesyłany jest z prędkością 144 kbps (zamiast 1125 kbps). Inne firmy opracowały własne, zastrzeżone kodeki, jak np. SeDAC firmy Sennheiser. (CODEC to skrót od angielskich słów COding i DECoding – kodowanie i dekodowanie).
Większość systemów szyfruje już zdigitalizowany sygnał audio (AF), co uniemożliwia nieautoryzowany podsłuch, nawet jeśli fale radiowe sięgną dalej niż zamierzano. Ma to szczególne znaczenie w zastosowaniach korporacyjnych i rządowych, gdzie istotna jest poufność przekazu.
Po stronie odbiornika sygnał cyfrowy jest przywracany do pierwotnego formatu liniowego – zazwyczaj przy użyciu przetwornika częstotliwości próbkowania (SRC). Dobre systemy cyfrowe pozwalają uzyskać znakomity zakres dynamiki, minimalne zniekształcenia oraz wysoką spójność odbieranego sygnału audio.
Nic nie jest za darmo – jednym z problemów systemów cyfrowych jest to, że CODEC (oraz inne zastosowane procesy) wprowadza opóźnienie do sygnału – każda cyfrowa obróbka wymaga czasu. Najlepsze kodeki potrzebują co najmniej 2–3 ms (milisekundy) od wejścia mikrofonowego do wyjścia audio (AF) w odbiorniku. W niektórych systemach latencja sięga 7–8 ms. Do tego dochodzi jeszcze ewentualne opóźnienie w sieci. Dla porównania: latencja w czysto analogowych systemach wynosi 0 ms.
Cyfrowe informacje – „zera” i „jedynki” – muszą zostać zmodulowane na nośnej fali radiowej (RF). Można zastosować różne techniki:
Metody te są przedstawione graficznie na poniższym rysunku:
Rysunek 4.01a – Zasada działania modulacji z przeskokiem amplitudy (ASK).
Rysunek 4.01b – Zasada działania modulacji z przeskokiem częstotliwości (FSK).
Rysunek 4.01c – Zasada działania modulacji fazy (PSK).
Wymienione wcześniej systemy oferują maksymalną przepustowość transmisji na poziomie 150 kbps, co stanowi ograniczenie. Dlatego powszechnie stosuje się tzw. modulację wyższego rzędu, jak na przykład QPSK (Quadrature Phase-Shift Keying), która zwiększa głębie bitową. Zobacz rysunek poniżej.
Rysunek 4.02 – Zasada działania modulacji QPSK (Quadrature Phase-Shift Keying). Podstawowa idea polega na tym, że żadna wartość nie kończy się na zerze.
Po prawej stronie: diagram czasowy dla QPSK. Strumień danych binarnych pokazany jest pod osią czasu. Dwie składowe sygnału z przypisanymi bitami znajdują się na górze, a całkowity sygnał złożony – na dole.
Można również zastosować bardziej zaawansowane techniki kodowania, takie jak: różnicowo kodowana modulacja fazy binarna, czwórkowa, 8- i 16-fazowa: DBPSK, DQPSK, D8PSK, D16PSK, oraz kwadraturowa modulacja amplitudy 8- i 16-stopniowa: D8QAM, D16QAM –
wszystko to w celu zwiększenia transferu danych w dostępnej przestrzeni częstotliwościowej przypisanej do jednego kanału mikrofonowego.
Wyzwanie związane z modulacją polega na uniknięciu nadmiernej modulacji nośnej, co mogłoby zakłócić sąsiednie kanały. Zasadniczo kanały cyfrowe zajmują więcej miejsca niż kanały analogowe.
Poniżej znajduje się ilustracja pokazująca typową różnicę w zajmowanym paśmie pomiędzy kanałem analogowym a cyfrowym.
Rysunek 4.03. Nośna modulowana analogowo i cyfrowo. Nośna modulowana cyfrowo zazwyczaj zajmuje więcej miejsca niż nośna modulowana analogowo.
Częstotliwość transmisji może być wybierana indywidualnie zarówno w nadajniku, jak i odbiorniku. Jednak zakres dostępnych częstotliwości może się różnić. Niektóre marki oferują kilka modeli urządzeń, aby objąć cały dostępny zakres pasma UHF. Inne marki oferują modele szerokopasmowe, dzięki czemu jedno urządzenie może obsługiwać całe dostępne pasmo przeznaczone dla mikrofonów bezprzewodowych (i systemów odsłuchowych IEM), czyli nawet 400 MHz lub 800 MHz.
Odstęp między kanałami (channel spacing) definiuje maksymalną liczbę kanałów audio, jaką można uruchomić w jednym systemie.
Rysunek 4.04 – Szerokość pasma systemów bezprzewodowych.
Najczęstszy odstęp między kanałami w systemach budżetowych to około 600 kHz; w systemach wyższej klasy – około 400 kHz. Wówczas można korzystać np. z trybu High-Density, ale odbywa się to kosztem mniejszego pasma przenoszenia dźwięku (np. 14 kHz), większej latencji, ograniczonej mocy nadawczej, a co za tym idzie – mniejszego zasięgu.
Upakowanie większej liczby kanałów w trybie dużej gęstości zwykle komplikuje też układy intermodulacji, ponieważ więcej nadajników mikrofonowych może znajdować się blisko siebie i powodować (bardzo) niepożądane zakłócenia lub zanik sygnału.
Wireless Multichannel Audio System to nowa technologia wykorzystująca tylko jeden kanał transmisji (8 MHz w Europie, 6 MHz w obu Amerykach). Jest to system dwukierunkowy – umożliwia zarówno nadawanie, jak i odbiór. Odbiór może być wykorzystywany np. w systemach odsłuchu dousznego (IEM).
Kanał 8 MHz pozwala na przesył do 32 kanałów wyjściowych i 32 kanałów wejściowych. Przy mniejszej liczbie kanałów można zwiększyć jakość audio lub ograniczyć pasmo. Ostateczna jakość sygnału (zakres częstotliwości, szumy, latencja) wyznacza granice wydajności kanałów w systemie. Maksymalna moc wynosi 50 mW.
Dwukierunkowy charakter WMAS pozwala na to, by jeden bodypack służył jednocześnie jako mikrofon bezprzewodowy (lub do instrumentu) i odsłuch douszny.
System przeznaczony jest głównie do użytku wewnętrznego, ponieważ odbiór opiera się na odbiciach fal radiowych w pomieszczeniu. Technologię WMAS wprowadziły firmy Sennheiser i Shure.
Niektóre marki i systemy bezprzewodowe wykorzystują połączenie technik analogowych i cyfrowych (np. Wisycom, Lectrosonics). Przykładowo, sygnał jest konwertowany do postaci cyfrowej w nadajniku w celu przetwarzania, a następnie z powrotem na analogowy do modulacji nośnej. Po stronie odbiornika sygnał ponownie jest przekształcany do postaci cyfrowej.
Główną zaletą cyfrowego przetwarzania w nadajnikach jest możliwość użycia zaawansowanych kompanderów, oferujących bardzo wysoką jakość dźwięku – przy jednoczesnym zachowaniu wąskiego zajmowanego pasma RF, niemal zerowej latencji oraz pracy bliżej poziomu szumu tła w otoczeniu radiowym.
Podczas gdy cyfrowe systemy zwykle wymagają minimum 14–15 dB zapasu od poziomu szumów, systemy transmisji Wisycom mogą działać już przy zapasie rzędu 3–5 dB, co zapewnia większą niezawodność sygnału nawet w bardzo trudnym i zatłoczonym środowisku RF.
Dzięki temu realny zasięg transmisji jest większy – nie traci się sygnału z powodu ograniczeń mocy nadawczej w porównaniu z poziomem szumów, co często stanowi ograniczenie w czysto cyfrowych systemach.