Jest coś takiego w ludziach, co powoduje ciągłe i powtarzające się przeinaczanie faktów. Czasem ze strachu, czasem z powodu niewiedzy, a czasem bo po prostu tak im bardziej pasuje. Dotyczy to wszelkich zakątków życia ludzkiego, natury i świata, w tym także technologii. Chcąc walczyć z tym zjawiskiem postanowiłem zebrać w jedno miejsce wszelkie znalezione, spotkane i zasłyszane mity ze świata Wi-Fi.
Spodziewam się, że moje zamiary mogą zostać określone mianem walki z wiatrakami, ale najwyższy czas położyć kres nieprawdzie i rozpocząć bezprzewodową krucjatę. Przygotowania do tej publikacji trwały dłuższy czas, choć można je nazwać utajonymi. Przez wiele miesięcy sam lekceważyłem problem, wmawiając sobie incydentalność tego zjawiska. Gdy jednak postanowiłem zebrać wszystkie mity w całość okazało się, że jest ich cała masa. I do tego możemy je spotkać każdego dnia!
Mit nr 1 – łączenie przepustowości wielu częstotliwości
Jakiś czas temu przeglądałem w internecie oferty domowych routerów bezprzewodowych. Po sprawdzeniu asortymentu kilku popularnych sklepów internetowych zwróciłem uwagę na często występujący parametr o nazwie zbliżonej do „maksymalna prędkość łącza bezprzewodowego”. Na mojej twarzy dało się widzieć narastające zdziwienie. Pomyślałem sobie – jak to możliwe, że router Wi-Fi o charakterystyce 3×3:3 (3 anteny nadawcze, 3 anteny odbiorcze, 3 strumienie przestrzenne) potrafi osiągnąć prędkość do 1900 Mbps!? Postanowiłem szybko upewnić się co do moich myśli sprawdzając indeks MCS, czyli tabelę prędkości transmisji bezprzewodowej.
Co się okazało? Wniosek pierwszy – nie myliłem się, maksymalna prędkość transmisji dla tego modelu urządzenia wynosiła teoretycznie 1300 Mbps, korzystając z częstotliwości 5 GHz i wielu pobocznych założeń niemożliwych do spełnienia w praktyce. Wniosek drugi – twórcy opisu możliwości tego urządzenia postanowili połączyć maksymalne prędkości z obu dostępnych częstotliwości, czyli 600 Mbps na 2.4 GHz i 1300 Mbps na 5 GHz! I to faktycznie sumarycznie daje wynik końcowy 1900 Mbps. Czy takie przedstawienie sprawy jest miarodajnym odzwierciedleniem faktycznych możliwości urządzenia? Absolutnie nie, klient bezprzewodowy korzysta wyłącznie z jednej częstotliwości w danym momencie. Więc z punktu widzenia klienta, a to przecież interesuje nas najbardziej, powinniśmy patrzeć na możliwości przepustowości tylko na jednym paśmie. Ahh ten marketing!
Mit nr 2 – prędkość teoretyczna a praktyczna
Drugi mit jest niejako powiązany z poprzednim. Chodzi o różnicę pomiędzy prędkościami teoretycznymi i praktycznymi dla połączeń bezprzewodowych. Skąd wynika rozbieżność?
Zacznijmy od wyjaśnienia czym tak naprawdę jest prędkość teoretyczna. Jest to matematycznie obliczona maksymalna prędkość zależna między innymi od takich parametrów jak:
- rodzaj modulacji,
- rodzaj kodowania,
- szerokość kanału,
- długość interwału Short Guard.
Do tego trzeba jeszcze dodać najważniejsze wymaganie. Tak obliczona prędkość teoretyczna odnosi się do warunków idealnych, czy też sterylnych, czyli takich bez interferencji, bez kolizji, bez retransmisji. Praktycznie niemożliwe do osiągnięcia nawet w warunkach laboratoryjnych.
A jak wygląda rzeczywistość? W praktyce jakość transmisji bezprzewodowej, a więc i prędkość, zależą od wielu czynników zewnętrznych, które określę jednolicie jako stan medium bezprzewodowego. Będzie to zatem ilość urządzeń Wi-Fi działających w pobliżu, obecność zewnętrznych źródeł interferencji, poziom szumu, utylizacja kanału i wiele, wiele innych. Realnie osiągane wyniki mogą być nawet dwa razy niższe od tych teoretycznych.
Mit nr 3 – Wi-Fi szkodzi zdrowiu
Jakiś czas temu polski internet obiegło zdjęcie posta umieszczonego na popularnym portalu społecznościowym. Autor posta szukał sposobu na nakłonienie sąsiadów do rezygnacji z Wi-Fi, powołując się na wyniki badań stwierdzających zły wpływ tego rodzaju komunikacji na ciążę. No i się zaczęło! Fakty kontra mity! Badania naukowców amerykańskich kontra wyniki testów niezależnych fundacji.
Nie jest to jedyny przypadek. Mi w pamięci została prośba jednego z klientów o „automatyczne wyłączenie Wi-Fi, wtedy gdy nikt z niego nie korzysta”. Tutaj powodem również było zapoznanie się z wynikami jakichś badań, które miały stwierdzić zły wpływ Wi-Fi na nasze zdrowie. Czy zatem faktycznie jest czego się obawiać?
Na chwilę obecną nie ma wiarygodnych badań stwierdzających zły wpływ technologii Wi-Fi, a w szczególności fali elektromagnetycznej o częstotliwościach 2.4 GHz i 5 GHz, na życie i zdrowie ludzkie. Możliwe jest natomiast, że o negatywnych skutkach dowiemy się gdy będzie już za późno, np. za 20 lat. Na tę chwilę jednak jest to mit. Do tego można dodać, że ilość mocy na jaką jesteśmy narażeni podczas codziennego korzystania z Wi-Fi jest mniejsza od ilości mocy generowanej podczas rozmowy przez telefon komórkowy.
Inna sprawa to uzależnienie od Wi-Fi. Problem ten wydaje się realny, ale jednocześnie jest bardziej złożony. Z pewnością można go połączyć z uzależnieniem od internetu, urządzeń elektronicznych i wielu innych dobrodziejstw tego świata.
Mit nr 4 – ukrywanie SSID to sposób na bezpieczne Wi-Fi
To jedno z najczęściej powtarzanych nieporozumień z zakresu bezpieczeństwa sieci Wi-Fi. I faktycznie dla laika to może wydawać się proste i przejrzyste. No bo co może robić opcja o nazwie „ukryj nazwę sieci”, jak nie chować ją przed ludzkim (i sprzętowym!) wzrokiem?
W wielkim uproszczeniu tak to właśnie działa. Ukryta sieć bezprzewodowa jest zazwyczaj niewidoczna dla systemu operacyjnego. Specjalnie użyłem określenia „zazwyczaj”, ponieważ na przestrzeni lat i kolejnych platform i systemów ulegało to zmianie. Reasumując można napisać, że generalnie nasze urządzenia w domyślnej konfiguracji nie pokażą w ogóle takich sieci, a niektóre pokażą jedynie informację o obecności sieci ukrytej (bez nazwy).
Gdzie zatem leży haczyk? W szczegółach. Zacznijmy od tego, że ukrywanie SSID, czyli nazwy sieci bezprzewodowej, nie jest uwzględnione w standardzie IEEE 802.11. Zatem wszelkie tego rodzaju implementacje są twórczością producentów sprzętu sieciowego. Uruchomienie takiej opcji spowoduje, że w ramkach Beacon i Probe Response pole SSID będzie puste (będzie miało wartość null). Jednakże sposób działania Wi-Fi wymusza, żeby dokładna nazwa SSID była obecna we wszystkich innych ramkach!
Mamy zatem sytuację, w której wystarczy na kilka sekund włączyć oprogramowanie do zbierania ramek Wi-Fi, np. Wireshark, by zobaczyć dokładne SSID każdej ukrytej sieci. Proste i szybkie. Dlatego moim zdaniem nie można uznać tej metody za jakiekolwiek zabezpieczenie sieci Wi-Fi. Zgodzę się natomiast, że może to być dobry pomysł by chociaż nie rozpraszać i nie wzbudzać zainteresowania wśród niegroźnych domowników lub pracowników. Czego oko nie widzi, tego sercu nie żal 😉
Mit nr 5 – filtrowanie adresów MAC to sposób na bezpieczne Wi-Fi
Zacznijmy od przybliżenia tego pomysłu. Cel jest taki, by utworzyć na routerze Wi-Fi tzw. whitelistę adresów MAC mogących brać udział w komunikacji bezprzewodowej. Jest to zatem typowe filtrowanie ramek po adresie MAC. Adresy będące na liście są dozwolone, wszystkie pozostałe ramki są odrzucone i klient spoza listy nie podłączy się do sieci bezprzewodowej nawet znając hasło.
Wydaje się proste i logiczne. Znowu jednak odpowiedź znajdziemy w szczegółach. Prawdą jest, że producenci kart sieciowych w znakomitej większości pozwalają na zmianę adresu MAC. Mówiąc dokładniej, ten adres w warstwie drugiej modelu ISO/OSI, który według założeń powinien być unikalny, możesz dowolnie zmieniać. Pozostaje tylko dowiedzieć się na jaki adres zrobić zmianę…
Już się domyślasz? Dowolne oprogramowanie do zbierania ramek Wi-Fi i mamy odpowiedź. Adresy MAC zawsze są wysyłane we wszystkich ramkach w formie clear-text, więc ponownie jest to kwestia kilku sekund na poznanie adresów działających, a zatem dozwolonych w sieci.
Oczywiście podmiana adresu MAC nie gwarantuje dostępu do sieci bezprzewodowej. Wciąż większy priorytet mają ewentualne zabezpieczenia typu PSK czy dot1x. Czy jest zatem jakiś przypadek, w którym stosowanie filtrowania po adresach MAC jest przydatne? Tak, wtedy gdy mamy pewność co do braku możliwości podmiany adresu MAC na urządzeniach klienckich i chcemy w pewien sposób je odseparować. Nie sprawdzi się to jednak jako zabezpieczenie sieci Wi-Fi, ponieważ nie mamy wpływu na urządzenia spoza naszej organizacji lub domu.
Mit nr 6 – ograniczanie puli adresów IP
Sprawa trochę podobna do poprzedniego mitu, tym razem chodzi jednak o adresy z warstwy trzeciej modelu ISO/OSI. Zacznijmy ponownie od przedstawienia szczegółów pomysłu. Przydział adresów IP dla klientów może odbywać się w sposób manualny, poprzez ręczne wpisanie odpowiedniego adresu na urządzeniu końcowym. Szybszym i przyjemniejszym, a przez to bardziej naturalnym wyborem jest jednak wykorzystanie usługi DHCP do automatycznego przydzielania adresów IP. Taka usługa może być uruchomiona na routerze Wi-Fi, a pomysłem jest ograniczenie zakresu puli dostępnych adresów do minimalnej potrzebnej ilości. Dla przykładu – wiemy, że z sieci w jednym momencie będą korzystać maksymalnie trzy urządzenia, więc ograniczamy ilość dostępnych adresów właśnie do trzech.
Proste? Tak. Logiczne? Niby tak. Skuteczne? Nie. Zacznijmy od początku. Żeby była mowa o jakiejkolwiek komunikacji na poziomie warstwy trzeciej, musi dojść do uwierzytelnienia klienta na poziomie protokołów warstwy drugiej. Dopiero wtedy klientowi może być przydzielony adres IP i jego ruch danych będzie dozwolony na routerze Wi-Fi. I mówiąc wprost, jeśli nieuprawniona osoba ma dostęp do sieci Wi-Fi i została poprawnie uwierzytelniona to… z pewnością adres IP nie będzie stanowić wyzwania. Wtedy to taka osoba może z łatwością zobaczyć adres sieci używanej przez klientów i przydzielić sobie adres statycznie nawet spoza puli DHCP.
Do głowy przychodzą możliwości ukrócenia tego w postaci np. listy ACL. To wszystko to jednak dodatkowy narzut konfiguracyjny i utrudnienie życia nie tylko administratora sieci, lecz często też jej użytkowników. Zdecydowanie lepiej poświęcić czas na sprawdzone metody zabezpieczeń.
Mit nr 7 – ogranicz moc transmisji by być bezpiecznym
Celem takiego działania jest ograniczenie mocy transmisji na routerze Wi-Fi. Dzięki temu sygnał sieci bezprzewodowej ma się rozchodzić tylko na wyznaczonym obszarze, np. w ramach danego budynku lub mieszkania. Generalnie tylko w tych pomieszczeniach, co do których mamy pewność względem osób w nich przebywających. Poza tym obszarem sygnał z routera Wi-Fi będzie już na tyle słaby, że nie będzie użyteczny. „Sprawdziłem to na moim laptopie i potwierdzam” – powiedział admin sieci.
Musimy wrócić do fundamentów Wi-Fi, czyli do specyfiki rozchodzenia się fali elektromagnetycznej oraz sposobów na uzyskanie z niej użytecznej informacji. Po szczegóły odsyłam Cię do dedykowanego artykułu na ten temat.
W wielkim skrócie chodzi o to, że musimy umieć wyodrębnić zera i jedynki w otrzymanym sygnale. Żeby było to możliwe, otrzymany sygnał musi być dostatecznie silny i dobrej jakości. W przytoczonej na początku sytuacji z pomocą przychodzi antena kierunkowa o wysokiej czułości, czyli o wysokim zysku. Wtedy to osoba oddalona nawet o kilkaset metrów może być w stanie „usłyszeć” marny sygnał, ale korzystając z silnej anteny kierunkowej wzmocnić go na tyle by uzyskać z niego cenne informacje. Tak samo transmisja w drugą stronę – antena kierunkowa wyśle sygnał z taką mocą, że doleci do routera Wi-Fi.
Z punktu widzenia zwykłego użytkownika, a nawet admina badającego sprawę zwykłym laptopem, sieć nie jest dostępna już za ścianą budynku. Jednakże odrobina sprzętu potrafi zrobić różnicę i zniwelować przeszkodę w postaci odległości od źródła sygnału.
Mit nr 8 – zwiększenie mocy transmisji zawsze poprawi szybkość Wi-Fi
Kolejna kwestia zahaczająca o fundamenty działania sieci Wi-Fi, a w szczególności zasady wyboru odpowiedniego kodowania dla konkretnej transmisji danych. Założenie jest takie, że zwiększając moc nadawania na routerze Wi-Fi zawsze uzyskamy większe prędkości na połączeniu bezprzewodowym. Dla sprecyzowania, chodzi o zwiększenie mocy źródłowej, czyli tej generowanej aktywnie przez same urządzenie. W tym przypadku antena nie ulega zmianie.
Zastanówmy się najpierw, co uzyskamy w rezultacie takiego działania. Na pewno moc sygnału otrzymanego przez klienta będzie większa. Może to być zauważone chociażby poprzez zwiększenie ilości pełnych kresek na ikonie statusu Wi-Fi. Nie zapominajmy jednak, że mówimy tu o transmisji dwukierunkowej. I jest to kluczowe dla zrozumienia i obalenia tej teorii.
Chodzi o transmisję w drugą stronę, czyli od klienta do routera Wi-Fi. Urządzenia końcowe mają to do siebie, że zasadniczo mają mniejszą dostępną moc transmisji od typowych urządzeń sieciowych, zwłaszcza klasy Enterprise. Zatem z punktu widzenia klienta, sytuacja się nie zmienia. Jego moc nadawania nie uległa poprawie, więc nadal będzie używał tego samego kodowania, co dotychczas.
No właśnie, a jakiego kodowania? Takiego, które wybrał automatycznie bazując między innymi na ilości dotychczas dokonanych retransmisji, co pośrednio zależy od mocy transmisji, odległości od odbiorcy sygnału itp. Im gorsze kodowanie, tym większa szansa na dostarczenie pełnej i niezakłóconej informacji do odbiorcy, ale jednocześnie niższa prędkość samej transmisji.
Prawdą jest, że przepływ danych w normalnym użyciu nie jest symetryczny i więcej informacji pobieramy niż wysyłamy. Reasumując jednak, ogólna kondycja połączenia Wi-Fi nie zawsze ulegnie poprawie.
I tym oto sposobem dotarliśmy do końca pierwszej ósemki mitów. Nie są to w żadnym wypadku najważniejsze bądź najczęściej spotykane nieporozumienia. Ot, takie moje subiektywne spostrzeżenia.
Mam zapytanie co do prędkości teoretycznej sieci WiFi. Czy przypadkiem teoretyczna prędkość to nie jest suma prędkości upload i download? Bo nigdy nie udało mi się uzyskać więcej niż połowa prędkości oferowanej przez dany standard. Przy standardzie 802.11 n bez mimo, przy wyłączonym szyfrowaniu można uzyskać 74 Mbps z groszami i wydaje mi się że to jest totalny maks i nie da się osiągnąć wyniku wyższego niż połowa prędkości teoretycznej.
Cześć Roman. Prędkość teoretyczna (a w zasadzie zgodnie z nazewnictwem w świecie Wi-Fi powinniśmy mówić o Data Rate) odnosi się do transmisji tylko w jednym kierunku. Jest wiele czynników wpływających na tak duże różnice pomiędzy prędkościami teoretycznymi, a tymi uzyskiwanymi w praktyce. Są to między innymi:
– fakt, że mamy do czynienia z rywalizacyjnym dostępem do medium
– wysyłanych jest wiele ramek typu management/control
– występują interferencje, kolizje, błędy, a w konsekwencji wymagane są retransmisje
– i wiele, wiele innych.
Faktem jest, że zazwyczaj w praktyce osiągniemy tylko ~50% teoretycznej prędkości. Ten wynik może być jeszcze gorszy jeśli warunki RF (utylizacja kanału, noise floor, etc.) są bardzo niekorzystne w miejscu odbywania się transmisji.
Było o mitach zabezpieczeń wifi to może jakiś artykuł o zabezpieczeniach ? 🙂
Cześć Adrian, masz na myśli AAA, dot1x, EAP, RSN itd? Może dobre praktyki zabezpieczania Wi-Fi? 😉
No właśnie. Może dobre praktyki zabezpieczenia.
Nurtuje mnie takie oto pytanie. Mamy do routera podpięte pięć urządzeń przez wi-fi. Cztery obsługują standard 802.11ac, a jedno 802.11a. Czy router dostosuje się do najstarszego standardu i wszystkie pięć urządzeń będzie działało na niższej prędkości?
Cześć Marcin. Krótko mówiąc – nie. Standard 802.11ac jest kompatybilny wstecznie z 802.11a, zatem każde z urządzeń będzie wysyłać z najlepszą możliwą dla siebie prędkością w danej chwili.
Nie do końca. Pojawienie się na tym samym kanale urządzenia nadającego z niższą technologią spowoduje spowolnienie calego tego kanału tak aby starsze urządzenie było w stanie zrozumieć komunikację.
Nie do końca. Przytoczony przypadek – 802.11ac i 802.11a – to protokoły używające OFDM, zatem preambuła i nagłówek PLCP będą zrozumiałe dla wszystkich stacji końcowych. A co jeśli pojawiłoby się starsze urządzenie, np. 802.11b/g? Nic, bo działają na innych częstotliwościach.
Natomiast mechanizm zapewniający kompatybilność wsteczną np. pomiędzy 802.11g i 802.11b, używa RTS/CTS lub CTS-to-self w postaci .11b, po których następuje transmisja danych normalnie dla .11g. W tym przypadku przepustowość spada ale data rates ramek danych nie ulegają zmianie 😉
Jeśli chodzi o moc sygnału nie zawsze ma to wpływ polepszenie pokrycia obszaru i wzrostu prędkości połączenia, to wszystko jest zależne od np. odbić, materiału jaki znajduje się w budynku (np. dużo elementów metalowych w konstrukcji budynku), zakłócenie innych urządzeń nie tylko w pasmach częstotliwości ale również w harmonicznych tego sygnału ma bardzo duży wpływ na zasięg tutaj ważnym parametrem jest SNR (signal-noise ratio). Duży wpływ maja odbicia fali zwłaszcza pomieszczeniu lub np. hali fabrycznej, magazynowej.
Innym nie wspomnianym mitem jest używanie dowolnych kanałow w przypadku 2.4GHz powinno używać kanałów 1,6,11. Nawet jesli używasz pasma 10 lub 20 Mhz i stosować się do DFS. Jaki to ma wpływ oczywiście SNR jeśli wszystkie sieci WiFi nadają na określonych kanałach. Problem zaczyna się w sytuacji gdy drugi AP nadaje na kanale 2 z pasmem 20Mhz a inny wifi nadaje szerszym pasmem na 40Mhz na kanale 1 i musi wysłać prośbe o retransmisje bo cos mu nadaje i zakłóca cześć jego pasma , ale nie wie co (bo to co nadaje tamten jest dla niego nie czytelne) i zakłóca jego sygnał. W przypadku gdy obie sieci wifi beda na kanale 1 AP wyłapie ramke i stwierdzi ze jest nie jego i ja odrzuci. W druga strona zadziała tak samo. To samo dotyczy 5Ghz. NIestety wiekszość ludzi która nie ma pojecia jak działa WiFi myśli że jesli wepnę na kanał który nie jest zajety to bede mieć lepszy transfer bo pasmo jest czystea a tak nie jest. Robiłem testy na Mikrotiku RB493 i 2011, a także na kontrolerze CIsco WLC5508 i AP CAP2602 i 2702 zreszta Cisco zaleca aby używać kanałów 1,6,11 dla 2.4GHz.
Cześć Sebastian. Temat nakładania się kanałów na 2.4 GHz dodaję do listy na kolejną część mitów, dzięki!
PS. Ale DFS to tylko na 5 GHz, prawda? 😉
DFS dotyczy kanału 5GHz i choć uwaga jest ok to włożona w miejsce 2,4GHz nie ma zastosowania.
Szacunek za zwrócenie uwagi na architekturę jednego kanału (Virtual Cell). Pozwala ona często w warunkach magazynowych z dużą interferencją i problemem roamingowym opanować sieć. Oczywiście ma też swoje ograniczenia ale layering choć kosztowny pozwala lepiej zaplanować (mikro)segmentację urządzeń w sieci bezprzewodowej.
Trochę niedoceniane rozwiązanie i przez wielu z góry skazywane na pożarcie 😉 ale wystarczy przemyśleć chociażby przykłady, które przytoczyłeś, i już można znaleźć dobre zastosowanie.
jak się ma używanie klientów \”g\” wspólnie z \”n\” czy się \’gryzą\’ czy spada przepustowość wszystkich do \”g\” ?
Witam. Troszkę się gryzą ale są w stanie działać razem w jednej sieci. Przepustowość wszystkich nie spada do .11g, za to dzieje się coś o wiele efektywniejszego. Stacja .11n włączy \”protection mechanism\”, czyli najpierw korzystając z RTS/CTS albo CTS-to-Self poinformuje wszystkie stacje dookoła o zamiarze transmisji. Ramki RTS/CTS i CTS-to-self to nadmiarowe ramki, które dodatkowo wysyłane są korzystając z Minimum Data Rate. I stąd właśnie spowolnienie działania sieci. Gdy jednak ten proces się zakończy stacja .11n wyśle swoją ramkę danych ze swoją nominalną prędkością a reszta stacji będzie czekać na zakończenie tej transmisji. Jako że prędkości w .11n są już całkiem spore to spadek wydajności sieci będzie mniej widoczny niż w starszym przypadku – czyli gdy .11g nadaje a w sieci pojawia się stacja .11b 😉
A ja mam pytanie odnośnie anten w urządzeniach typu klient.
Czy jeśli w laptopie miałem fabrycznie zamontowaną kartę WiFi pracującą tylko w paśmie 2,4 Ghz i max w technologi n, to czy po wymianie karty na nowszą pracującą na 2,4 oraz 5Ghz i w technologi ax, muszę również wymienić anteny zamontowane w klapie laptopa aby w pełni wykorzystać możliwości nowej karty? (Pomińmy problem w różnicach gniazd antenowych na kartach WiFi).
Świetne pytanie. Nie byliśmy do końca pewni naszej odpowiedzi ale po przeszukaniu różnych źródeł i przedyskutowaniu tego zagadnienia odpowiedź brzmi – TO ZALEŻY 😂 Anteny są różne. Niektóre są zoptymalizowane do pracy na jednej częstotliwości, inne natomiast dobrze poradzą sobie na różnych częstotliwościach. Antena optymalizowana dla 2,4 GHz ma szansę zadziałać na 5 GHz, ale jakość jej pracy jest niepewna. Dlatego w tym opisanym przypadku dowiedziałbym się czy obecne anteny są w jakikolwiek sposób certyfikowane do pracy również na 5 GHz. Jeśli nie są to sugerowałbym wymianę na anteny dual-band. Zawsze można też przetestować na żywym organizmie po wymianie samej karty 😉