LTE długoterminowa ewolucja sieci mobilnych

Prace nad standardem LTE rozpoczęły się w 2004 roku w ramach organizacji 3GPP (3rd Generation Partnership Project). O organizacji 3GPP wspominano w poprzednich artykułach. Inicjatywa ta narodziła się z potrzeby stworzenia technologii, która mogłaby sprostać wykładniczo rosnącemu zapotrzebowaniu
na przepustowość w sieciach mobilnych. Już w tamtym czasie zauważono, że sieci 3G, oparte głównie na UMTS i CDMA2000, mimo że są przełomem technologicznym, to zaczynały wykazywać ograniczenia w kontekście obsługi zaawansowanych usług multimedialnych, transmisji danych i rosnących potrzeb użytkowników.

Pierwsza specyfikacja LTE została opublikowana w grudniu 2008 roku jako część Release 8 standardów 3GPP. Z kolei specyfikacje bardziej zaawansowanego rozwiązania LTE-Advanced ukazały się w marcu 2011 roku w ramach Release 10, natomiast LTE-Advanced Pro w marcu 2016 roku w Release 13.

Skrót LTE oznacza Long Term Evolution, czyli „długotrwałą ewolucję”. Warto dodać, że w czasie prac nad standardem w branży żartobliwie rozwijano ten akronim jako Long Time Employment („długotrwałe zatrudnienie”). Nawiązywało to do wysokiego poziomu technicznej złożoności rozwiązania oraz do faktu, że LTE było dojrzałą technologicznie implementacją łączności szerokopasmowej – pozbawioną wielu „chorób wieku dziecięcego” i wzbogaconą o doświadczenia wyniesione z wcześniejszych systemów 3G/UMTS, będących prekursorami mobilnego Internetu szerokopasmowego. Już wtedy spodziewano się, że LTE będzie wykorzystywane ponad dekadę.

Oczywiście LTE często określa się mianem technologii 4G, choć – ujmując to bardziej precyzyjnie – jego pierwsze wersje stanowiły raczej pomost między trzecią a czwartą generacją sieci komórkowych. Zostawmy jednak marketing na boku.

Historycznie rozwój LTE rozpoczął się od prac nad wymaganiami dla nowego interfejsu radiowego. W tym celu powołano projekt „Evolved UTRA (E-UTRA)”, gdzie skrót UTRA oznacza Universal Terrestrial Radio Access i odnosi się do interfejsu radiowego wykorzystywanego w UMTS/3G.

(Warto nie mylić E-UTRA z E-UTRAN, które oznacza całą sieć dostępową LTE, czyli m.in. stacje bazowe eNodeB oraz warstwę RAN – Radio Access Network).

Rodzina standardów radiowych LTE, która miała na dłuższą metę rozwiązać dwa problemy 3G: rosnący apetyt na dane oraz zbyt dużą złożoność i opóźnienia, odziedziczone po epoce dominacji usług głosowych. Z punktu widzenia użytkownika LTE oznacza po prostu szybszy Internet mobilny, z punktu widzenia architektury – to przejście na sieć w pełni pakietową (all-IP), z uproszczonym dostępem radiowym (radio access) i rdzeniem sieci (core) zaprojektowanym i zoptymalizowanym pod transmisję danych.

Innowacje względem 3G/UMTS:

  1. Technika OFDMA i SC-FDMA

Fundamentalną zmianą wprowadzoną przez LTE było zastąpienie techniki WCDMA, stosowanej w UMTS, przez OFDMA (Orthogonal Frequency Division Multiple Access) w łączu w dół (downlink) oraz SC-FDMA (Single Carrier Frequency Division Multiple Access) w łączu w górę (uplink). OFDMA dzieli dostępne pasmo na wiele wąskich, ortogonalnych podnośnych, co znacząco poprawia efektywność widmową oraz odporność na zakłócenia międzysymbolowe. Zakłócenia międzysymbolowe oraz tzw. „oddychanie komórki” (cell breathing) były istotnym problemem w sieciach UMTS/3G – wraz ze wzrostem liczby aktywnych użytkowników rósł poziom interferencji, przez co efektywny zasięg komórki mógł się zmniejszać, a użytkownicy na jej granicy musieli nadawać z większą mocą lub byli przełączani do sąsiednich komórek. W praktyce oznaczało to intensywniejszą pracę terminali użytkownika (UE – User Equipment), większe zużycie energii z baterii, a mimo to także możliwa była utrata zasięgu w szczególnie zatłoczonych miejscach, takich jak galerie handlowe, stadiony czy biura.

Właśnie dlatego w LTE dla transmisji uplink zastosowano SC-FDMA, które wybrano ze względu na niższy PARP (Peak-to-Average Power Ratio) stosunek mocy szczytowej do średniej sygnału. W telegraficznym skrócie parametr PARP opisuje jak duże są chwilowe „piki” mocy sygnału w porównaniu z jego wartością średnią. Im wyższy PAPR, tym trudniej efektywnie wysterować wzmacniacz mocy w nadajniku, ponieważ musi pracować z większym „zapasem” liniowości wzmacniacza (dalej od obszaru nasycenia), co obniża sprawność i zwiększa zużycie energii — szczególnie istotne w urządzeniach mobilnych zasilanych bateryjnie.

  1. Ulepszone mechanizmy wyboru schematu kodowania

W LTE istotnym usprawnieniem względem 3G było zastosowanie bardziej elastycznego i wydajnego mechanizmu doboru modulacji i kodowania (AMC – Adaptive Modulation and Coding), który w sposób dynamiczny dostosowuje parametry transmisji do aktualnych warunków radiowych. Podobnie jak w systemach 3G, wykorzystywane są modulacje QPSK, 16-QAM oraz 64-QAM, jednak w LTE ich użycie jest ściślej powiązane z harmonogramowaniem zasobów w domenie czasu i częstotliwości oraz z bieżącą oceną jakości kanału. W rezultacie LTE może znacznie sprawniej przełączać się pomiędzy trybem „odpornym” (niższe modulacje przy słabym sygnale), a trybem „wysokiej przepływności” (wyższe modulacje przy dobrych warunkach), co bezpośrednio przekłada się na lepsze wykorzystanie dostępnego pasma. W późniejszych rozszerzeniach standardu, określanych często jako LTE-Advanced Pro („4.5G”), wprowadzono także 256-QAM, umożliwiające przesyłanie większej liczby bitów w jednym symbolu, co dodatkowo zwiększa maksymalne prędkości transmisji głównie w pobliżu stacji bazowej oraz w środowiskach o wysokiej jakości sygnału.

3. Technologia MIMO
LTE wprowadza zaawansowane techniki wieloantenowe MIMO (Multiple Input Multiple Output), które polegają na jednoczesnym wykorzystaniu wielu anten nadawczych i odbiorczych. W praktyce pozwala to lepiej wykorzystać propagację wielodrogową (odbicia sygnału od przeszkód), która w starszych systemach była traktowana głównie jako źródło zakłóceń. Dzięki MIMO sieć może zwiększać przepustowość oraz jakość transmisji bez konieczności poszerzania pasma częstotliwości.

Najczęściej wykorzystywane w LTE konfiguracje to 2×2 MIMO oraz 4×4 MIMO, gdzie pierwsza liczba oznacza liczbę anten po stronie stacji bazowej (eNodeB), a druga po stronie terminala (UE). W sprzyjających warunkach radiowych MIMO umożliwia transmisję wielu niezależnych strumieni danych równocześnie (spatial multiplexing), co prowadzi do wzrostu szczytowej przepływności. Gdy warunki radiowe są gorsze (np. duża odległość od stacji bazowej lub silne zakłócenia), MIMO może działać w trybie poprawy niezawodności transmisji (spatial diversity), zwiększając odporność na zaniki sygnału i redukując liczbę retransmisji, co pozytywnie wpływa na stabilność połączenia.

W kolejnych ewolucjach standardu rozwinięto bardziej zaawansowane rozwiązania, takie jak MU-MIMO (Multi-User MIMO), które umożliwia jednoczesną obsługę wielu użytkowników w tym samym zasobie czasowo-częstotliwościowym, dzięki separacji przestrzennej sygnałów. W uproszczeniu wynika to z faktu, że terminale znajdujące się w różnych lokalizacjach są „widoczne” z perspektywy anten stacji bazowej pod innymi kątami, co pozwala kierować do nich równoległe wiązki. Dzięki temu rośnie pojemność komórki
i poprawia się efektywność wykorzystania zasobów radiowych, szczególnie w obszarach o dużym zagęszczeniu użytkowników.

W kolejnych ewolucjach standardu rozwinięto bardziej zaawansowane rozwiązania, takie jak MU-MIMO (Multi-User MIMO), które umożliwia jednoczesną obsługę wielu użytkowników w tym samym zasobie czasowo-częstotliwościowym, dzięki separacji przestrzennej sygnałów. W uproszczeniu wynika to z faktu, że terminale znajdujące się w różnych lokalizacjach są „widoczne” z perspektywy anten stacji bazowej pod innymi kątami, co pozwala kierować do nich równoległe wiązki. Dzięki temu rośnie pojemność komórki i poprawia się efektywność wykorzystania zasobów radiowych, szczególnie w obszarach o dużym zagęszczeniu użytkowników.

Architektura pakietowa
LTE zostało zaprojektowane jako sieć całkowicie oparta na protokole IP. Oznacza to, że wszystkie usługi, włącznie z głosem (realizowanym poprzez VoLTE – Voice over LTE), są transmitowane jako pakiety danych. Ta fundamentalna zmiana uprościła architekturę sieci i umożliwiła bardziej efektywne wykorzystanie zasobów.

Architektura LTE składa się z dwóch głównych komponentów: sieci dostępowej E-UTRAN (Evolved Universal Terrestrial Radio Access Network) oraz sieci rdzeniowej EPC (Evolved Packet Core). Ta dwupoziomowa struktura zastąpiła bardziej złożoną architekturę UMTS.

Sieć dostępowa E-UTRAN składa się ze stacji bazowych nazywanych eNodeB (evolved NodeB). W przeciwieństwie do architektury UMTS, gdzie NodeB były stosunkowo prostymi elementami kontrolowanymi przez RNC (Radio Network Controller), eNodeB przejmują większość funkcji inteligentnych z sieci rdzeniowej Core. Stacje eNodeB są połączone między sobą interfejsem umożliwiającym szybkie przekazywanie połączeń (handover).

Sieć rdzeniowa EPC składa się z kilku kluczowych elementów. MME (Mobility Management Entity) odpowiada za sygnalizację i kontrolę, w tym uwierzytelnianie użytkowników, zarządzanie mobilnością i sesją. S-GW (Serving Gateway) pełni funkcję lokalnego węzła przekierowania ruchu użytkownika. P-GW (PDN Gateway) zapewnia połączenie z zewnętrznymi sieciami pakietowymi, takimi jak Internet i przydziela
adresy IP, HSS (Home Subscriber Server) przechowuje dane abonentów, stanowiąc rozwinięcie HLR z sieci 2G/3G.

Przepustowość i opóźnienia
LTE oferuje znacząco wyższe prędkości transmisji w porównaniu do sieci 3G/ UMTS, co wynika zarówno z zastosowania wydajniejszych technik dostępu radiowego (OFDMA/SC-FDMA), jak i bardziej elastycznego planowania zasobów w czasie i częstotliwości. W warunkach teoretycznych maksymalna przepustowość w łączu w dół może sięgać do 300 Mb/s (przy szerokości kanału 20 MHz oraz wieloantenowej konfiguracji
MIMO 4×4), podczas gdy HSPA+ w UMTS osiągało maksymalnie 42 Mb/s. Co ważne, LTE dużo skuteczniej skaluje się wraz ze wzrostem obciążenia komórki oraz pozwala bardziej efektywnie współdzielić zasoby radiowe pomiędzy użytkowników, co w praktyce przekłada się na lepsze doświadczenie w zatłoczonych lokalizacjach.

Równie istotną zmianą jest redukcja opóźnień (latencji). W LTE typowa latencja wynosi około 10–20 ms, podczas gdy w sieciach 3G często było to 50–100 ms. Wynika to m.in. z krótszych interwałów transmisyjnych, szybszego harmonogramowania pakietów oraz bardziej „spłaszczonej” architektury sieci (mniej etapów pośrednich w torze przesyłu danych). Niższe opóźnienia mają kluczowe znaczenie dla aplikacji czasu rzeczywistego, takich jak wideorozmowy, gry online, usługi interaktywne, zdalna praca czy sterowanie urządzeniami, ponieważ poprawiają tzw. responsywność i zmniejszają odczuwalne „lagi”.

Nazewnictwo i klasyfikacja
Kwestia nazewnictwa LTE bywa źródłem nieporozumień. Pierwsze wersje LTE (Release 8 i 9) nie spełniały pierwotnych wymogów ITU dla technologii 4G (IMTAdvanced), które zakładały przepustowość rzędu 100 Mb/s dla użytkowników mobilnych oraz nawet 1 Gb/s w scenariuszach o niskiej mobilności. Z tego względu LTE bywa określane jako 3.9G lub Pre-4G. Mimo tego, w praktyce rynkowej (i marketingowej) nazwa 4G bardzo szybko zaczęła funkcjonować jako synonim LTE, ponieważ oferowało ono wyraźny skok jakościowy w porównaniu do HSPA+ w UMTS/3G.

Dopiero LTE-Advanced, wprowadzone w Release 10, było formalnym krokiem w stronę „pełnoprawnego” 4G, ponieważ zawierało mechanizmy pozwalające znacząco zwiększyć przepustowość i pojemność sieci. Jednym z kluczowych usprawnień LTE-Advanced była agregacja nośnych (CA – Carrier Aggregation), którą operatorzy często komunikują jako 4G+ lub LTE+.

Carrier Aggregation to połączenie kilku kanałów radiowych (tzw. component carriers) w jeden „wirtualny” kanał o większej przepustowości. CA pozwala na „sumowanie zasobów z kilku różnych pasm równocześnie, co pozwala przede wszystkim na zwiększenie przepływności pobierania danych (downlink), a w niektórych przypadkach także uplink.

Podsumowanie
LTE stanowi przełom w historii telekomunikacji mobilnej. Technologia ta nie tylko zapewniła użytkownikom nieporównywalnie szybszy dostęp do internetu, ale również stworzyła podwaliny pod współczesny ekosystem usług mobilnych. LTE idealnie wpisało się w okres dynamicznego zwiększania dostępnej mocy obliczeniowej, co pozwoliło na rozwój smartfonów i aplikacji mobilnych (ekosystem Android, iOS, itd).

Na rozwój LTE istotny wpływ miało uwolnienie pasma radiowego UHF po telewizji analogowej, możliwe dzięki przejściu na telewizję cyfrową (DVB-T). Telewizja cyfrowa wykorzystuje widmo radiowe efektywniej, co pozwoliło przeznaczyć część zwolnionych zasobów częstotliwości na potrzeby łączności mobilnej. W Europie określano to jako cyfrową dywidendę „digital divident”. Wyróżnia się dwa etapy tego procesu:

  • DD1 (Digital Divident 1) to pasmo 800 MHz (790-862MHz)
  • DD2 (Digital Divident 2) to pasmo 700 MHz (694-790 MHz)

To „niskie” pasmo (w porównaniu np. do 2600 MHz) pozwoliło na budowę większych komórek zasięgowych, zapewniając lepszą penetrację sygnału wewnątrz budynków oraz – co szczególnie ważne – pozwalając na tańsze pokrycie zasięgiem terenów wiejskich i tras komunikacyjnych. Podsumowując 700 MHz i 800 MHz odpowiadają za zasięgi LTE, a pasma 1800MHz, 2100 MHz i 2600 MHz zapewniają głównie pojemność sieci w obszarach zurbanizowanych.

Na koniec warto dodać branżową refleksję, że w praktyce przyjęło się postrzegać systemy łączności o nieparzystych numerach generacji jako technologie bardziej „przełomowe” i pokazujące potencjał nowych rozwiązań i wywołujące efekt wow (np. 3G czy 5G), natomiast generacje o parzystych numerach częściej stają się dojrzałymi, dopracowanymi standardami szeroko wdrożonymi w praktyce (2G i 4G). Oczywiście jest to pewne uproszczenie, ale dobrze oddaje obserwację, że to właśnie „parzyste” generacje na rynku istnieją dłużej niż poprzedzający ich prekursorzy.

Krystian Górski

Czytaj dalej