• Przegląd Telekomunikacyjny

    Obejmuje zagadnienia naukowo-techniczne i techniczne dotyczące: elektroniki, teletransmisji, komutacji, radiokomunikacji, radiofonii i telewizji, technik multimedialnych, miernictwa.

2018-8-9

zeszyt-5602-przeglad-telekomunikacyjny-2018-8-9.html

 
W numerze m.in.:
Warstwa fizyczna sieci dostępu radiowego 5G według wydania 15 standardów 3GPP DOI:10.15199/59.2018.8-9.2
(Krzysztof WESOŁOWSKI)

W najbliższych latach wiele krajów rozwiniętych, w tym Polskę, czeka kolejna rewolucja technologiczna. Będzie nią wprowadzenie systemów i sieci bezprzewodowych piątej generacji (5G). O wadze tego procesu świadczy inicjatywa Ministerstwa Cyfryzacji pod nazwą Strategia 5G dla Polski, w której są zaangażowani najważniejsi operatorzy telekomunikacyjni, firmy sektora ICT oraz przedstawiciele środowiska akademickiego, prowadzącego badania w zakresie systemów i sieci radiokomunikacji ruchomej. W ramach tej inicjatywy opracowano dokument wydany pod auspicjami Ministerstwa Cyfryzacji pt. Strategia 5G dla Polski [1]. Przedstawia on stan wiedzy w momencie jego powstania, istotny dla wdrożenia sieci 5G w Polsce, w terminach zgodnych z planami Unii Europejskiej. Chociaż dokument ten jest niezwykle cenny, powstał przed ukazaniem się wydania 15 standardów 3GPP (3rd Generation Partnership Project) przez stowarzyszenie siedmiu instytucji standaryzacyjnych z USA, Chin, Korei, Indii, Japonii oraz Europy (ETSI) [2]. Warto więc przedstawić przyszłe działanie jednego z ciekawszych segmentów sieci 5G, tj. sieci dostępu radiowego RAN (Radio Access Network), a w szczególności jej warstwy fizycznej. Ta właśnie część sieci 5G jest przedmiotem niniejszego artykułu. Podstawowe scenariusze działania sieci 5G Sieć 5G ma służyć komunikacji w bardzo zróżnicowanych sytuacjach, wymagających często spełnienia przeciwstawnych wymagań względem szybkości transmisji, wprowadzanego opóźnienia, niezawodności itp. Rozróżnia się trzy podstawowe grupy zastosowania sieci 5G. Są to: - eMBB (enhanced Mobile Broadband) - transmisja o bardzo wysokiej przepływności, dużej efektywności widmowej w systemach o szerokim pokryciu terenu i dużej gęstości terminali, służąca do przekazywania m.in. treści multimedialnych o wysokich wymaganiach jakościowych; - mMTC (massive Machine-Type Communications) - masowa transmisja od/do wielu tanich urządzeń o zasilaniu bateryjnym o wielole... więcej»

Rozmieszczenie obszaru zaników w jednoczęstotliwościowej sieci SFN na przykładzie sieci DAB+ DOI:10.15199/59.2018.8-9.6
(Ryszard J. ZIELIŃSKI)

O głębokości zaniku sygnału, spowodowanego wielodrogowością w modelu dwudrogowym w przypadku sieci jednoczęstotliwościowej, decydują wielkości natężenia pola elektromagnetycznego (e-m) wokół anteny odbiornika od sąsiednich nadajników DAB+. Jeżeli w danym obszarze dominują dwa sygnały pochodzące z dwóch sąsiednich nadajników, to poziomy mocy i fazy tych sygnałów decydują o poziomie zaniku. W tym przypadku znane są również ściśle miejsca geometryczne punktów, w których występują najgłębsze zaniki. W przypadku większej liczby interferujących ze sobą sygnałów o porównywalnych poziomach, pochodzących od większej liczby nadajników, miejsce geometryczne występowania największych zaników nie jest już tak dokładnie zdeterminowane. Zależy ono od liczby i położenia nadajników i musi być wyznaczane indywidualnie. W przypadku dwóch interferujących ze sobą sygnałów, pochodzących od dwóch nadajników, należy się spodziewać, że najgłębsze zaniki wystąpią w obszarze pomiędzy tymi nadajnikami, w którym poziomy sygnałów są porównywalne. Jeżeli nadajniki te mają takie same parametry emisyjne, to obszar występowania maksymalnych zaników będzie położony w przybliżeniu w połowie odległości od tych nadajników. Tego typu przypadek będzie rozważany w dalszej części artykułu. ZANIKI W SIECI SFN DAB+ Z DWOMA NADAJNIKAMI Wypad kowy rozkład nat ężenia pola elektrycznego W artykule [4] przedstawiono sposób wyznaczania miejsc występowania największych zaników. Są one spowodowane superpozycją dwóch sygnałów w fazach przesuniętych o nieparzystą wielokrotność kąta π/2, odpowiadającą różnicy długości dróg propagacji od nadajników do analizowanego punktu, równą nieparzystej wielokrotności połowy długości fali: . (1) Zostanie przedstawiony rozkład poziomu natężenia pola elektrycznego na określonych trasach, który uwzględnia interferencję fal, nie ograniczając się jedynie do miejsc występ... więcej»

Badania i analiza zaników w sieciach WBAN typu body-to-body pracujących w różnych środowiskach propagacyjnych DOI:10.15199/59.2018.8-9.7
(Sławomir J. Ambroziak, Kenan Turbić, Luís M. Correia)

W ostatnich latach sieci WBAN (Wireless Body Area Networks) zyskują coraz większą popularność, głównie dzięki szerokim możliwościom ich zastosowania, m.in. w ochronie zdrowia, rozrywce czy też rozwiązaniach wojskowych. Konieczne jest więc dostarczenie odpowiednich narzędzi, służących do planowania tego typu sieci, m.in. dokładnych modeli kanału radiowego, uwzględniających wiele zjawisk propagacyjnych, których skutkiem są m.in. zaniki sygnału odbieranego [1]. Jednym z typów sieci WBAN jest tzw. sieć B2B - body-to-body, w której węzły znajdują się na ciele dwóch różnych użytkowników. Komunikacja B2B może również następować w przypadku, kiedy węzły koordynujące dwóch niezależnych sieci WBAN komunikują się ze sobą, co może znaleźć zastosowanie m.in. rozwiązaniach przeznaczonych dla strażaków i grup ratowniczych [2]. Tematyka sieci B2B nie jest dotychczas licznie reprezentowana w literaturze przedmiotu. Można jednak znaleźć nieliczne prace poświęcone modelowaniu kanału radiowego na podstawie badań pomiarowych [2-4]. W celu opracowania odpowiednich modeli, umożliwiających charakteryzowanie kanału radiowego, badania te powinny być kontynuowane. W artykule przedstawiono badania zaników w sieciach WBAN typu body-to-body, oparte na wynikach pomiarów tłumienia systemowego (zdefiniowanego w [5]), przeprowadzonych w zamkniętym i otwartym środowisku propagacyjnym przy częstotliwości 2,45 GHz. Przedstawiono analizę porównawczą zaników sygnału radiowego występujących w różnych środowiskach propagacyjnych oraz dla różnych scenariuszy ruchu obu użytkowników sieci [6]. W drugiej części artykułu przedstawiono krótki opis stanowiska pomiarowego i analizowanych scenariuszy, w trzeciej zaś analizę zaników. Podsumowania treści dokonano w części czwartej. BADANIA POMIAROWE Analizę zaników, przedstawioną w artykule, przeprowadzono na podstawie wyników badań pomiarowych, przeprowadzonych w jednym z korytarzy Wydziału Elektroniki, Telekomunikacji i I... więcej»

Świadomość sytuacyjna cyberzagrożeń DOI:10.15199/59.2018.8-9.3
(Adam KOZAKIEWICZ)

W miarę jak społeczeństwo staje się coraz bardziej uzależnione od połączonych systemów informatycznych, staje się też coraz podatniejsze na ataki internetowe. Indywidualna ochrona poszczególnych systemów, oparta na analizie odbieranych i wysyłanych komunikatów, nie jest już wystarczająca. Potrzebne są nowe, holistyczne podejścia, biorące pod uwagę informacje zebrane z wielu różnych źródeł, łącznie zapewniających lepsze zrozumienie intencji atakujących, ich metod i możliwości, a także ewolucji czynników ryzyka. Wobec coraz bardziej zaawansowanych i zorganizowanych zagrożeń oraz rosnącego poziomu złożoności użytkowanych sieci i systemów, podstawą obrony staje się posiadanie odpowiedniej świadomości sytuacyjnej. Ilość, jakość i aktualność informacji wykorzystywanych do przeciwdziałania zagrożeniom decyduje o możliwości skutecznej reakcji, zapobiegania i zwalczania internetowych zagrożeń. Tymczasem, jak potwierdzają raporty ENISA (European Network and Information Security Agency) [5] [6], to właśnie w zakresie tych zdolności wśród europejskich podmiotów występują szczególnie niebezpieczne braki. Nasze sieci są często bronione przy użyciu skutecznych narzędzi, jednak bez świadomości, przed czym jest to obrona, a więc bez możliwości w pełni skutecznego wykorzystania zabezpieczeń. W artykule przedstawiono europejski projekt badawczy SISSDEN. Jego celem jest zwiększenie ilości i jakości informacji dostępnych dla zagrożonych sieci i zwiększenie świadomości sytuacyjnej na wszystkich szczeblach decyzyjnych. ZAGROŻENIA A Ś WIADOMOŚĆ SYTUACYJNA Zagrożenia iich koszt Każdy podłączony do Internetu komputer jest obecnie potencjalną ofiarą cyberprzestępczości. Ponieważ wiele skutecznych nawet ataków pozostaje niezauważonych, dokładna liczba ofiar PRZEGLĄD TELEKOMUNIKACYJNY  ROCZNIK XCI  WIADOMOŚCI TELEKOMUNIKACYJNE  ROCZNIK LXXxVII  nr 8-9/2018 563 jest nieznana, choć niektóre źródła (np. [4] w przypadku siec... więcej»

Nowy algorytm adaptacji uwzględniający metryki jakości postrzeganej przez użytkownika dla adaptacyjnego strumieniowania wideo DOI:10.15199/59.2018.8-9.5
(Piotr TRUSZCZYŃSKI, Andrzej BĘBEN)

Adaptacyjne strumieniowanie obrazów wideo HAS (HTTP Adaptive Video Streaming) [1], [2] jest obecnie powszechnie wykorzystywane przez dostawców usług wideo, np. YouTube, Netflix. Głównym celem metod HAS jest zapewnienie ciągłości odtwarzania obrazu wideo przez dostosowywanie jakości pobieranego wideo do warunków ruchowych panujących na ścieżce przekazu oraz aktualnego obciążenia serwera strumieniującego. W takim systemie podstawowym elementem odtwarzacza jest algorytm adaptacji. Odpowiada on za wyznaczenie reprezentacji wideo dla pobieranych kolejno jego segmentów. Istniejące obecnie algorytmy adaptacji dążą do wyboru reprezentacji o najwyższej przepływności bitowej, zakładając bezpośrednią zależność pomiędzy jakością wideo a przepływnością bitową. Należy jednakże zwrócić uwagę, iż wybór reprezentacji wideo o najwyższej przepływności niekoniecznie prowadzi do maksymalizacji jakości postrzeganej przez użytkownika. Przyczyną tego jest znaczne zróżnicowanie jakości zakodowanych segmentów, wynikające ze stosowanych metod kodowania oraz wpływ efektów zmiany reprezentacji (częstości, amplitudy) na jakość QoE. W artykule zaproponowano nowy algorytm, który bezpośrednio uwzględnia wartości metryk QoE do adaptacji, opracowano prototyp, implementując proponowany algorytm w odtwarzaczu dash.js oraz przeprowadzono eksperymenty w infrastrukturze badawczej PLLAB, których celem jest porównanie efektywności proponowanego rozwiązania. ANALIZA ALGORYTMÓW ADAPTACJI Celem algorytmów adaptacji jest dostosowanie reprezentacji pobieranych segmentów wideo do aktualnych warunków ruchowych na ścieżce przekazu oraz do obciążenia serwerów strumieniujących wideo. Można wyróżnić trzy podstawowe klasy algorytmów adaptacji [2]. - Algorytmy RBA (Rate-Based Adaptation) oparte na estymowaniu dostępnej przepływności bitowej. Wybierają one reprezentację wideo o przepływności bitowej nieprzekraczającej estymowanej przepływności bitowej dostępnej w sieci. Oszacow... więcej»

2018-7

zeszyt-5584-przeglad-telekomunikacyjny-2018-7.html

 
W numerze m.in.:
Nowe warunki świadczenia usług telekomunikacyjnych o podwyższonej opłacie (Premium Rate) DOI:10.15199/59.2018.7.1
(Stanisław PIĄTEK)

Charakterystyka usług o podwyższonej opłacie Przedsiębiorcy telekomunikacyjni - poza usługami o charakterze transmisyjnym - dostarczają również takie usługi, których podstawowym składnikiem jest dodatkowe świadczenie znacznie podnoszące ich cenę. Dostawcą dodatkowego świadczenia (np. informacyjnego, rozrywkowego, rozliczeniowego) jest z reguły odrębny podmiot współpracujący z przedsiębiorcą telekomunikacyjnym. Usługi te są określane w praktyce i w literaturze zagranicznej jako Premium Rate Services (PRS), Special Rate Services (SRS) [1], natomiast w polskim prawie jako usługi o podwyższonej opłacie lub usługi telekomunikacyjne z dodatkowym świadczeniem. Wzbudzają one zainteresowanie regulatora i ustawodawcy głównie z powodu powtarzających się naruszeń praw i interesów abonentów, korzystających z tych usług. Mimo tego, że rzeczywista skala naruszeń jest niewielka w porównaniu z wartością całego rynku wymienionych usług, to medialny oddźwięk spraw tego rodzaju wywołuje co pewien czas gwałtowną reakcję władz państwowych. Polega ona na modyfikowaniu warunków prawnych świadczenia usług. Usługi o podwyższonej opłacie są fragmentarycznie regulowane przepisami prawa Unii Europejskiej [2]. Wymagania dotyczące tych usług są głównie inicjatywą krajowego ustawodawcy. W dniu 12 grudnia 2018 r. wejdzie w życie kolejna nowelizacja ustawy Prawo telekomunikacyjne [3]. Wprowadza ona bardzo rygorystyczne warunki świadczenia omawianych usług. Dotychczasowe warunki zostały określone ustawą nowelizującą Prawo telekomunikacyjne z 16 września 2011 r. [4]. Część z nich weszła w życie w grudniu 2011 r., natomiast powinności TELE-RADIO-ELEKTRONIKA-INFORMATYKA ROK ZAŁOŻENIA 1928  ROCZNIK XCI  ISSN 1230-3496 7/2018 * Wydział Zarządzania Uniwersytetu Warszawskiego, e-mail: spiatek@wz.uw.edu.pl Stanisław PIĄTEK* Nowe warunki świadczenia usług telekomunikacyjnych o podwyższonej opłacie (Premium Rate) New conditions concerning the provi... więcej»

Sterowanie optycznymi sieciami transportowymi za pomocą programowalnego interfejsu opartego na języku modelowania YANG DOI:10.15199/59.2018.7.2
(Arkadiusz Potrykus, Rafał Szwedowski, Paweł Kaczmarek, Sylwester Kaczmarek)

Over a decade many standardization initiatives as well as research activities were focused on bringing SDN concepts into transport world. Majority of them is focused on the interface between orchestrator or client SDN controller and transport network controller as the component, which is most fragile from the interoperability perspective. This paper aims on presenting the results of an industrial research on two practical realizations. Main objective is to provide a deeper technical insight to both. Regardless of many different directions within standardization bodies since a few past years we can observe a strong paradigm shift towards model-based interfaces. This led to dominant role of interfaces derived from YANG [1] modeling language, exposed over RESTCONF [2] or NETCONF [3] protocols. They naturally move center of gravity of interface definition from complex and very often binary protocol structures towards much simpler textbased models separated from common transport mechanism. Moreover, models can be classified into two major groups device scope also known as disaggregated or direct models and networks scope also referred as abstracted or aggregated [4][5]. This paper focuses on the second group and is organized into four major parts. Chapter two provides theoretical introduction into the world of two selected IETF TEAS TE models. Chapter three gives a deeper dive into the used controller - ONOS. From the theoretical point of view experiment was agnostic to software platform, however interpretation of the results always requires existing reference implementation. In the following chapter four and five the authors concentrate on presenting practical results of the conducted proof of concept. TEAS TE MODELS Traffic Engineering Architecture and Signaling (TEAS) Working Group is well known for defining Multiprotocol Label Switching (MPLS) and Generalized-MPLS (GMPLS) traffic engineering architecture along with standardiz... więcej»

Uziemianie obiektów telekomunikacyjnych DOI:10.15199/59.2018.7.4
(Karol ANISEROWICZ)

Spełnienie zasad kompatybilności elektromagnetycznej w obiektach telekomunikacyjnych jest istotne z powodu funkcji przez nie pełnionych. Jednym z ważnych aspektów kompatybilności elektromagnetycznej jest ochrona odgromowa, szczególnie wówczas, gdy obiekty zawierają konstrukcje o dużej wysokości (maszty antenowe, wieże) lub są podłączone do rozległych sieci przewodzących. Ochrona przed oddziaływaniem piorunowych impulsów elektromagnetycznych dotyczy zarówno aparatury elektronicznej, jak i bezpieczeństwa ludzi. Jednym z podstawowych środków ochrony odgromowej jest uziemianie. Mimo dość dużej liczby publikacji na ten temat, ogólny stan wiedzy o uziomach jest mały, a przeciętny elektronik często wręcz lekceważy to zagadnienie. Może to być związane m.in. z brakiem tych zagadnień w programach studiów dla inżynierów elektroników. Ponadto poziom artykułów publikowanych w pismach branżowych, prac prezentowanych na konferencjach, a szczególnie w Internecie, jest nierówny. Nierzadkie są publikacje, których autorzy opierają się bardziej na swoich wyobrażeniach niż na lekturze norm lub książek [1-12]. Niestety, jakość tłumaczenia norm pozostawia wiele do życzenia. Panuje przy tym spore zamieszanie pojęciowe, związane z kilkoma funkcjami pełnionymi przez uziomy oraz z myleniem uziemień z połączeniami wyrównawczymi (ekwipotencjalizacją). Stąd wynikła potrzeba napisania niniejszego artykułu. Uziemienia pełnią następujące główne funkcje: - ochronną, - odgromową, - roboczą. Funkcja ochronna uziemienia - jako jednego ze środków ochrony przeciwporażeniowej - polega na zapewnieniu, że różnica potencjałów pomiędzy dowolnym przewodzącym przedmiotem a powierzchnią ziemi nie przekracza wartości uznawanej za bezpieczną przy dotknięciu (napięcie dotykowe). Dotyczy ona również zapewnienia bezpiecznej wartości różnicy potencjałów między stopami (napięcie krokowe). Analogiczną funkcję pełnią połączenia wyrównawcze, jednak powierzchnią odniesienia dla ... więcej»

Zastosowanie filtrów cyfrowych w procesie "wybielania" szumu kolorowego DOI:10.15199/59.2018.7.3
(Andrzej JAKUBIAK)

Sygnały użyteczne, wygenerowane w urządzeniu nadawczym systemu telekomunikacyjnego, zanim dotrą do odbiornika, przebywają pewną drogę w przestrzeni nazywanej kanałem transmisyjnym lub obszarem propagacji. W tej przestrzeni pojawiają się dodatkowe sygnały, które mogą utrudnić lub nawet uniemożliwić prawidłowy odbiór informacji. Sygnały te, nazywane ogólnie zakłóceniami, mogą być pochodzenia naturalnego (szum termiczny, odbicia od powierzchni ziemi, odbicia od zjawisk atmosferycznych itp.) lub wytwarzane celowo (man-made), a dodatkowym źródłem zakłóceń mogą być same urządzenia nadawcze i odbiorcze. Zakłócenia, ze względu na mechanizm ich powstawania, mają charakter wektorów losowych modelowanych procesem stochastycznym o odpowiednich właściwościach probabilistycznych. Jednym z ważniejszych modeli probabilistycznych zakłóceń jest tzw. szum biały. Jeżeli dodatkowo wektor takiego zakłócenia zawiera znaczną liczbę elementów składowych, to na mocy centralnego twierdzenia granicznego wartości chwilowe jego amplitudy mają gaussowski rozkład prawdopodobieństwa i mamy wówczas do czynienia z szumem białym gaussowskim. Jest to model umożliwiający projektowanie optymalnych (odpornych na zakłócenia) systemów telekomunikacyjnych zarówno metodami analitycznymi, jak i symulacyjnymi, ale w większości przypadków odbiegający od rzeczywistości. Realne zakłócenia na ogół nie mają cech szumu białego (najczęściej jest to tzw. szum kolorowy), co znacznie komplikuje, a nawet uniemożliwia prowadzenie obliczeń projektowych. W takim przypadku efektywną metodą jest zastosowanie procedur "wybielających", czyli takiego przetworzenia szumu kolorowego, żeby jego właściwości były bliskie właściwościom szumu białego. Wybrane metody wybielania szumu kolorowego stanowią zasadniczy temat niniejszego artykułu. SZUM B IAŁY I SZUM KOLOROWY Szum biały jest szczególnym procesem stochastycznym, którego widmo gęstości mocy SN(w) ma pewną stałą wartość N0 w całym zakres... więcej»

Media lokalne: społeczne, narodowe, obywatelskie? DOI:10.15199/59.2018.7.5
(Witold GRABOŚ)

Oligopol Na polskim rynku telewizyjnym od lat panuje oligopol. Telewizja publiczna, grupa Polsat i grupa TVN zdominowały rynek, co stwierdza KRRiT niezależnie od jej kadencji i składu osobowego. Polskie prawo medialne nie zabrania łączenia działalności nadawczej z brokerską. Największe komercyjne grupy telewizyjne mają własne domy mediowe. Dysponują także sieciami nadawczymi. To stwarza sytuację, w której mali nadawcy albo godzą się na uzależniającą współpracę, albo zmuszeni są do sprzedania programu. W polskim prawie medialnym nie ma przepisów kontrolujących kumulację kapitału medialnego, a przepisy dotyczące pozycji znaczącej nadawcy są nieefektywne. Jednym ze skutków afery Rywina była liberalizacja obrotu rynkowego koncesjonowanymi programami. Koncesja - dobro niezbywalne może zmienić właściciela za zgodą KRRiT. Krajowa Rada nie ma żadnych kompetencji kontrolno-regulacyjnych, jeśli polską stację kupuje podmiot unijny. Nawet wtedy, gdy jego właścicielem jest kapitał spoza Unii. Pomimo politycznych haseł repolonizacji mediów, obcy kapitał medialny raczej umacnia swą pozycję. Za sumę 14,6 milliarda dolarów USA Discovery Communications przejął od Scripps Networks Interactive grupę TVN. Podmiot ten kupił też od Agory większość udziałów kanału tematycznego na multipleksie ósmym. Tendencje kumulacyjne potwierdza także sprzedaż przez grupę ZPR pakietu telewizyjnych kanałów cyfrowych Polsatowi. Na rynku radiowym dominują cztery grupy: RMF, Eurozet, Time i Agora. Proces tzw. sieciowania, a de facto przejmowania małych stacji i uniformizacji programowej już się dokonał. Do rzadkości należą nadawcy, którzy ocalili własną niezależność właścicielską i programową. Zubożony obraz Mało spolaryzowany rynek medialny kreuje uproszczony i zubożony obraz rzeczywistości, wpływa na świadomość społeczną i jakość demokracji. Media korporacyjne z natury wspierają zachowawczą polityk... więcej»

2018-6

zeszyt-5532-przeglad-telekomunikacyjny-2018-6.html

 
W numerze m.in.:
ANALIZA MOŻLIWOŚCI WYKORZYSTANIA TRANSFORMACJI FALKOWEJ DO DETEKCJI NIEZAJĘTYCH PASM CZĘSTOTLIWOŚCI DOI:10.15199/59.2018.6.71
(Krzysztof Bronk, Dominik Rutkowski, Błażej Wereszko, Kacper Wereszko2, Krzysztof Żurek)

1. WSTĘP Technika radia kognitywnego jest jedną z interesujących i rozwijanych obecnie gałęzi radiokomunikacji. Od około 10 lat wzrasta też zainteresowanie wykorzystaniem transformacji falkowych (ang. Wavelet Transform - WT), które w odróżnieniu od transformacji Fouriera pozwalają nie tylko badać charakterystyki widmowe (globalne w odniesieniu do sygnału stacjonarnego i periodycznego), lecz także charakterystyki lokalne, które mogą być zmienne w czasie i nadają się do analizy sygnałów niestacjonarnych. Znane są publikacje i zastosowania związane z wykorzystaniem WT do analizy sygnałów w systemach badań sejsmicznych, sonarowych, w medycynie, w telekomunikacji (kompresja sygnałów mowy i obrazów, redukcja PAPR w systemach komórkowych) oraz w mechanice i elektrotechnice [2]. Niniejszy artykuł jest kontynuacją badań zaprezentowanych w [4, 9], skupiających uwagę na możliwościach zastosowania radia kognitywnego dla potrzeb e-nawigacji. W wymienionych pracach poddano analizie metody wykrywania widma częstotliwości (ang. spectrum sensing), bazujące na detekcji energii oraz detekcji cyklostacjonarności sygnału. Niniejszy etap pracy miał na celu skupienie uwagi na teorii transformacji falkowych, implementacji oprogramowania realizującego analizę falkową sygnałów radiowych, a następnie zbadanie możliwości jej wykorzystania do celów wykrywania niezajętych zasobów częstotliwości na potrzeby radia kognitywnego. 2. DETEKCJA NIEZAJĘTYCH PASM CZĘSTOTLIWOŚCI Z UŻYCIEM TRANSFORMACJI FALKOWEJ Rozważana detekcja polega na wyborze, na podstawie pomiarów i ich przetwarzania, jednej z dwóch hipotez, świadczącej o zajętości lub braku zajętości pasma radiowego, przy czym tylko jedna z nich może być w danej chwili prawdziwa [3]:  hipoteza ℋ0: 𝑥(𝑡) = 𝑤(𝑡), gdy w paśmie występuje wyłącznie szum,  hipoteza ℋ1: 𝑥(𝑡) = 𝑠(𝑡) + 𝑤(𝑡), gdy w paśmie... więcej»

EFEKTYWNOŚĆ WYWŁASZCZANIA Z ZASOBÓW RADIOWYCH W SYSTEMIE LTE DOI:10.15199/59.2018.6.46
(Michał Wągrowsk, Sylwia Curzytek, Dawid Mieszczak )

1. WSTĘP Dobrze zaprojektowana i zwymiarowania sieć komórkowa powinna pracować stabilnie i bez przeciążeń. Natężenie i gęstość ruchu generowanego są jednak czynnikami zmiennymi w czasie i podatnymi na zdarzenia losowe, dlatego nawet jeśli planowanie sieci poprawnie uwzględnia dane statystyczne nt. ruchu oferowanego, to mogą zdarzyć się sytuacje, w których mimo wszystko dochodzi do wyczerpania dostępnych zasobów radiowych i sieć w pewnym obszarze zaczyna działać w warunkach przeciążenia. Na wypadek takiej sytuacji operator powinien dysponować odpowiednimi narzędziami do zapewnienia użytkownikom realizacji usług zgodnie z zawartymi umowami, które to z kolei mogą różnicować priorytety ważności zarówno użytkowników jak i samych usług. Operator może określić własną politykę obsługi różnych grup abonentów (np. VIP, biznes, służby, abonenci właśni i obcy) oraz nadawać priorytety usługom (np. połączenia alarmowe, usługi głosowe, transmisja danych o różnych wymaganiach jakościowych). Wg odpowiednio zdefiniowanej hierarchii ważności, w sytuacji przeciążenia, jakość odpowiednich usług może być ograniczana, a w wyjątkowych sytuacjach połączenia z najmniej znaczącymi użytkownikami mogą być zrywane na rzecz tych o znaczeniu kluczowym. W artykule przedstawiono typowe i rozszerzone możliwości systemu LTE w zakresie obsługi połączeń o różnych priorytetach, w sytuacji niewystarczających zasobów radiowych, na bazie implementacji oferowanej przez firmę Nokia. W rozdziale 2 opisano realizację wywłaszczania z zasobów oraz zestaw parametrów wykorzystywanych typowo do różnicowania użytkowników i usług. W rozdziale 3 przedstawiono specjalną funkcjonalność stacji bazowych, umożliwiającą nadawanie połączeniom priorytetów opartych dodatkowo na identyfikatorach sieci PLMN, umożliwiającą różnicowanie zasad dostępu do zasobów sieci w sytuacji współdzielenia infrastruktury dostępowej przez wielu operatorów. W rozdziale 4 scharakteryzowano środowisko ... więcej»

SZYBKA SYNTEZA WIDOKÓW WIRTUALNYCH DLA SYSTEMÓW TELEWIZJI SWOBODNEGO PUNKTU WIDZENIA DOI:10.15199/59.2018.6.41
(Adrian Dziembowski, Jakub Stankowski)

1. WSTĘP Głównym założeniem telewizji swobodnego punktu widzenia (FTV - free-viewpoint television) jest udostepnienie użytkownikowi możliwości płynnej zmiany punktu i kierunku widzenia [5], [15]. W przypadku wyboru punktu widzenia, którego położenie nie pokrywa się z położeniem którejkolwiek z kamer, konieczna jest synteza widoku wirtualnego (rys. 1). W związku z powyższym, opracowanie szybkiego i wydajnego algorytmu syntezy widoków wirtualnych jest kluczowe dla systemów telewizji swobodnego punktu widzenia. Rys. 1. Widok wirtualny względem widoków rzeczywistych 2. OPIS ALGORYTMU W celu uzyskania najwyższej możliwej jakości syntezowanych widoków wirtualnych, w zaproponowanym algorytmie użyto hybrydowej metody syntezy, łączącej zalety syntezy w przód (forward synthesis) [3] i wstecz (backward synthesis) [4], [7] Synteza wstecz pozwala na przefiltrowanie głębi widoku wirtualnego przed rzutowaniem informacji o kolorze, redukując tym samym wpływ niepoprawnie wyznaczonych, niespójnych map głębi. Wymaga ona jednak dwukrotnego rzutowania punktów - raz z widoków rzeczywistych na widok wirtualny i raz w stronę przeciwną. Synteza w przód wymaga wyłącznie jednego rzutowania każdego punktu, przez co jest operacją szybszą. W zaproponowanym hybrydowym podejściu punkty rzutowane są wyłącznie raz, a dzięki zapamiętaniu dokładnych pozycji, z których były one rzutowane możliwe jest uzyskanie podobnego efektu, jaki dałaby filtracja mapy głębi widoku wirtualnego. 2.1. Rzutowanie i łączenie głębi Każdy punkt w dowolnym widoku rzeczywistym może być reprezentowany poprzez wektor m=[x y z 1], gdzie x i y wyrażają pozycję danego punktu w widoku rzeczywistym, a z stanowi odpowiadającą mu wartość głębi. Podczas rzutowania głębi każdy punkt widoku rzeczywistego jest rzutowany do widoku wirtualnego zgodnie ze wzorem: 𝐦𝐕 = 𝐦 ⋅ 𝐏𝐕 ⋅ 𝐏𝐑 -1 , (1) gdzie mV = [xv yv zv 1] jest wektor... więcej»

BADANIE WŁAŚCIWOŚCI KODÓW KOREKCYJNYCH W ASPEKCIE ICH ZASTOSOWANIA W SYSTEMACH 5G DOI:10.15199/59.2018.6.49
(Michał Sybis, Krzysztof Wesołowski)

1. WPROWADZENIE Kodowanie kanałowe realizowane za pomocą kodów korekcyjnych jest niezbędne w cyfrowych systemach radiowych ze względu na trudne warunki transmisyjne występujące w zasadniczej większości takich systemów. Jest to szczególnie istotne w przypadku transmisji danych. Kody korekcyjne są stosowane we wszystkich cyfrowych systemach komórkowych. W systemach 2G takich jak GSM/GPRS/EDGE zastosowano kody splotowe z dekoderami Viterbiego [1]. W systemach 3G UMTS/HSPA/ HSPA+ kody splotowe są stosowane w cyfrowej transmisji mowy, zaś turbokody [2], [3] w transmisji danych, w której opóźnienie nie jest krytyczne. W systemach LTE i LTE Advanced [4] również stosuje się turbokody. Po wynalezieniu turbokodów bazujących na systematycznych kodach splotowych, przeplocie i dekodowaniu iteracyjnym, opracowano także inne kody o jakości działania bliskiej granicy Shannona, takie jak kody LDPC (ang. Low-Density Parity Check) [5], [6]. Kody te zostały zastosowane w standardach takich systemów jak DVB-T2 [7], DVBS2 [8] czy WiMAX [9]. Kody LDPC również wymagają dekodowania iteracyjnego i podobnie jak w przypadku turbokodów, ich wymagania obliczeniowe zależą od liczby wykonanych iteracji. W 2009 roku Erdal Arikan zaproponował nową klasę kodów - kody polaryzacyjne [10], które osiągają asymptotycznie granicę Shannona wraz ze wzrostem ich długości, co ich wynalazca dowiódł teoretycznie. Systemy radiokomunikacyjne 5G są obecnie bliskie standaryzacji. Jak wiemy, można je podzielić pod względem typów oferowanych usług na następujące rodzaje: wzbogacony, mobilny dostęp szerokopasmowy (eMBB - ang. enhanced Mobile Broadband), komunikacja o bardzo wysokiej niezawodności i małym opóźnieniu (URLLC - ang. Ultra-Reliable Low Latency Communications) i masowa komunikacja pomiędzy maszynami i urządzeniami (mMTC - ang. massive Machine Type Communications). Każdy z typów systemów prezentuje zasadniczo inne wymagania pod względem kodowania korekcyjnego ... więcej»

METODA IDENTYFIKOWANIA INTERFEJSÓW SPRZĘTOWYCH (SEIM) W SYSTEMACH WSPÓŁMIEJSCOWYCH DOI:10.15199/59.2018.6.65
(Marek Bugaj Marian Wnuk Rafał Przesmycki)

1. WSTĘP System współmiejscowy jest to system będący systemem kompatybilnym wewnętrznie. Systemem takim możemy nazwać zbiór źródeł sygnałów elektromagnetycznych oraz relacji między nimi i ich atrybutami. Relację między źródłami reprezentują oddziaływanie ich między sobą (oddziaływanie wewnętrzne) oraz oddziaływanie względem otoczenia (oddziaływanie zewnętrzne). . Cechą dystynktywną pracy poszczególnych interfejsów jest jego częstotliwość pracy oraz poziom emisyjności pozwalające na identyfikację danego interfejsu sprzętowego. Kolejna z takich cech jest widmo emisji promieniowanej będące odwzorowaniem emisji zaburzeń promieniowanych. Cechy te są jedynymi wspólnymi cechami dla rozpatrywanych interfejsów sprzętowych. Biorąc pod uwagę powyższe istnieje możliwość zbudowania bazy danych zawierającej cechy dystynktywne interfejsów sprzętowych, która w łatwy sposób wspomoże proces identyfikacji poszczególnych interfejsów sprzętowych urządzenia informatycznego. Realizacja problemu identyfikacji poszczególnych interfejsów sprzętowych urządzenia informatycznego przyczyni się do usprawnienia prac prowadzonych w zakresie ochrony informacji przetwarzanych w systemach informatycznych oraz realizacji zadań regulowanych Ustawą o ochronie informacji niejawnych. Dodatkowo wykorzystując wiedzę o cechach dystynktywnych poszczególnych interfejsów sprzętowych możliwe jest ograniczenie na wyznaczonych częstotliwościach emisji promieniowanej przez producentów sprzętu informatycznego już na etapie projektowania tego sprzętu poprzez dodatkowe zabezpieczenia. 2. METODY OKREŚLANIA CECH DYSTYNKTYWNYCH W niniejszym rozdziale przedstawiono i omówiono trzy opracowane metody określania cech dystynktywnych interfejsów sprzętowych w urządzeniach informatycznych. Dzięki przedstawionym metodom możliwe jest również określenie wzorcowych widm częstotliwościowych dla poszczególnych urządzeń informatycznych, które mogą służyć do analizy możliwości identyfika... więcej»

2018-5

zeszyt-5503-przeglad-telekomunikacyjny-2018-5.html

 
W numerze m.in.:
Synteza generatorów indeksów metodami dekompozycji liniowej i funkcjonalnej DOI:10.15199/59.2018.5.3
(Tadeusz ŁUBA, Tomasz MAZURKIEWICZ)

Metody projektowania funkcji generowania indeksów, ze względu na ważne zastosowania (dystrybucja adresów IP, skanowanie wirusów, wykrywanie niepożądanych danych), są ostatnio przedmiotem intensywnych badań naukowych. Celem tych badań jest metodyka syntezy logicznej układów cyfrowych, umożliwiających wyodrębnianie właściwych danych z ogromnej masy danych niepotrzebnych. Dane te są wprowadzane do układu w postaci binarnych wektorów reprezentujących silnie nieokreślone funkcje boolowskie o dużej liczbie argumentów. Synteza takich funkcji jest wyzwaniem dla twórców algorytmów redukcji i kompresji argumentów, któremu nie potrafią sprostać nawet najlepsze zespoły na świecie. Na przykład cytowana w [8] funkcja boolowska (10 wektorów, 40 argumentów), obliczona przez Sasao [18], jest redukowana do 5 zmiennych. Program Lightning, opracowany przez dyplomanta Ośrodka Kształcenia na Odległość Politechniki Warszawskiej, oblicza dla tej funkcji 2261 reduktów 4-argumentowych. Warto podkreślić, że wspomniany program może wygenerować tablicę prawdy tej funkcji dla każdego reduktu. Badania omawiane w artykule dotyczą zarówno standardowych metod syntezy logicznej, jak też metod heurystycznych, wykorzystujących zaawansowane miary złożoności obliczeniowej. W pierwszym przypadku rozwijane są przede wszystkim modele zależności funkcjonalnych funkcji boolowskich, takie jak redukcja argumentów oraz dekompozycja funkcjonalna, a w drugim poszukiwane są metody z zakresu teorii ciał skończonych, a w szczególności metody dekonwolucji [1]. W związku z różnorodnością tych metod, przy jednoczesnym coraz powszechniejszym i ważniejszym ich zastosowaniu, głównym celem artykułu jest przegląd tych metod, umożliwiający czytelnikowi odpowiedni wybór. Z tych powodów omawiane są zarówno metody i algorytmy dekompozycji liniowej, jak też dekompozycji funkcjonalnej, stwarzającej szanse opracowania uniwersalnych metod syntezy generatorów indeksów. Pełne wykorzystanie t... więcej»

Wykorzystywanie sztucznej inteligencji dla pożytku społecznego (Piotr Szymczak, Andrzej M. Wilk)
Pod koniec lutego 1865 roku, na zaproszenie cesarza Napoleona III, przybyli do Paryża reprezentanci dwudziestu państw, aby wziąć udział w pierwszej międzynarodowej konferencji telegraficznej, która rozpoczęła się 1 marca tegoż roku. Konferencja ta musiała być bardzo dobrze przygotowana, skoro już 17 maja 1865 r., w Salonie Zegarowym, jednej z najwspanialszych sal Quai d'Orsay, doszło do uroczystego podpisania międzynarodowego porozumienia o utworzeniu pierwszej na świecie, nowoczesnej organizacji międzynarodowej, która przyjęła nazwę Międzynarodowego Związku Telegraficznego. Po upływie 153 lat jego następca - Międzyn... więcej»

Głębokie sieci neuronowe i ich zastosowania w eksploracji danych DOI:10.15199/59.2018.5.2
(Stanisław OSOWSKI)

W ostatnich latach ogromny postęp w eksploracji danych dokonał się za pośrednictwem tak zwanego głębokiego uczenia. Głębokie uczenie dotyczy wielowarstwowych sieci neuronowych, które pełnią jednocześnie funkcję generatora cech diagnostycznych dla analizowanego procesu oraz finalną funkcję klasyfikatora bądź układu regresyjnego. Uzyskuje się w ten sposób doskonałe narzędzie zastępujące człowieka przede wszystkim w trudnej dziedzinie opisu procesu za pomocą specjalizowanych deskryptorów, których stworzenie wymaga dużych zdolności eksperckich. Okazuje się przy tym, że takie podejście do bezinterwencyjnej metody generacji cech jest o wiele skuteczniejsze od stosowanych tradycyjnie metod generacji deskryptorów. Umożliwia przy tym poprawę dokładności działania systemu. Z tego powodu technologia sieci głębokich stała się ostatnio bardzo szybko jednym z najbardziej popularnych obszarów w dziedzinie nauk komputerowych. Za protoplastę tych sieci można uznać zdefiniowany na początku lat dziewięćdziesiątych wielowarstwowy neocognitron Fukushimy [1]. Prawdziwy rozwój tych sieci zawdzięcza się jednak profesorowi LeCun [2], który zdefiniował podstawową strukturę i algorytm uczący specjalizowanej sieci wielowarstwowej, zwanej Convolutional Neural Network (CNN). Obecnie CNN stanowi podstawową strukturę stosowaną na szeroką skalę w przetwarzaniu obrazów. Tymczasem powstało wiele odmian sieci, będących modyfikacją struktury podstawowej CNN (np. UNN), jak również sieci różniących się zasadniczo od CNN. Przykładem mogą być autoenkoder (AE), jako wielowarstwowe, nieliniowe uogólnienie liniowej sieci PCA [3], sieci rekurencyjne typu LSTM (Long Short- -Term Memory) [4], stanowiące skuteczne rozwiązanie problemu propagacji wstecznej w czasie lub ograniczona (wielowarstwowa) maszyna Boltzmanna RBM (Restricted Boltzmann Machine) używana w sieciach głębokiej wiarygodności DBN (Deep Belief Network) [5]. Cechą wspólną tych rozwiązań, zwłaszcza w przypadk... więcej»

Sztuczna inteligencja - wyzwaniem XXI wieku DOI:10.15199/59.2018.5.1
(Andrzej M. WILK)

Sztuczna Inteligencja - cudowne dziecko czy golem XXI wieku ? Sztuczna inteligencja, znana częściej pod angielskim akronimem AI (Artificial Intelligence)1), stanowi przedmiot badań i prac prowadzonych od ponad pół wieku w stale rosnącej liczbie laboratoriów, centrów i instytutów, zarówno uczelnianych, jak i przemysłowych. Stopniowo coraz więcej rozwiązań osiąga dojrzałość techniczną i jest wdrażanych w praktyce. Jako decydujący moment dla uświadomienia problemu badawczego AI uznaje się podanie w 1950 r. przez Alana Turinga propozycji testu. Określa się w nim wymagania, umożliwiające uznanie, że maszyna "myśli", a właściwie, że w procesie komunikacji może skutecznie udawać człowieka. Samo pojęcie sztucznej inteligencji zaproponował dopiero w 1956 r. John McCarthy podczas pierwszej specjalistycznej konferencji w Dartmouth, która zainicjowała szeroko zakrojone prace poświęcone tej nowej tematyce. W pierwszej fazie fascynacji AI, już w 1959 r., w Massachusetts Institute of Technology (USA) powstało AI Laboratory, które w wyniku przekształceń połączyło się w 2003 r. z utworzonym w 1963 r. Laboratory for Computer Science, tworząc Computer - Science and Artificial Intelligence Laboratory. Z kolei na Uniwersytecie Stanford odpowiednie laboratorium - The Stanford Artificial Intelligence Laboratory (SAIL) - powstało w 1962 r. Stanowi ono obecnie znaczące centrum doskonałości w dziedzinie badań, nauczania, teorii i praktyki w zakresie sztucznej inteligencji. Oczywiście, intensywność badań prowadzonych nad AI i ich szczegółowe ukierunkowanie były zależne od możliwości dostępnej techniki komputerowej i stanu rozwoju innych dyscyplin naukowych, istotnych dla rozumienia procesów postrzegania zmysłowego, myślenia i podejmowania decyzji. W poszczególnych latach, od końca lat pięćdziesiątych XX wieku do chwili obecnej, były okresy intensywnego finansowania i dynamicznego rozwoju oraz okresy "posuchy". Lata prowadzonych szerokim frontem prac ... więcej»

Głowica o napędzie pneumatycznym do zaciągania dodatkowego kabla światłowodowego - wdrożenie DOI:10.15199/59.2018.5.5
(Dariusz CIERPIŃSKI)

Pojęcie Polska Cyfrowa staje się rzeczywistością dzięki dużym inwestycjom w zakresie szerokopasmowej infrastruktury dostępowej wspieranym przez rządowy program POPC - Program Operacyjny Polska Cyfrowa. Ma on ostatecznie wymazać z mapy Polski obszary pozbawione dostępu do usług szerokopasmowych. Usługi te stają się motorem napędowym gospodarki, rozwijając ją o 1,3 procenta przypadającego na każde przyłączone kolejne 10 procent gospodarstw domowych [1]. Dostęp do usług szerokopasmowych to szansa na rozwój telepracy dla ludzi z obszarów wiejskich lub ludzi niepełnosprawnych, co pozytywnie wpływa na wyrównywanie szans społecznych. Poza rozwojem sieci dostępowych FTTH (Fiber to the Home - światłowód do domu) do bram cywilizacji zbliża się technologia 5G, która zapewni użytkownikom dostęp do usług szerokopasmowych w sposób mobilny z przepływnościami, przekraczającymi obecnie nasze możliwości wykorzystania. Zwiększenie przepływności łączy dostępowych wraz z ich wzrostem liczbowym pogłębi presję na stały dynamiczny wzrost wymagań transmisyjnych w obrębie sieci szkieletowej, która będzie musiała zapewnić klientom szerokopasmowym dostęp do źródeł danych w centrach rozsianych po całej Polsce i na całym świecie. Rozwiązanie to może pochodzić z dwóch kierunków: od inwestycji sprzętowych - instalacji urządzeń o najwyższych przepływnościach 100 lub 400 Gbit/s oraz ... więcej»

2018-4

zeszyt-5485-przeglad-telekomunikacyjny-2018-4.html

 
W numerze m.in.:
Modelowanie i implementacja układu sekwencera sygnałów ładunkowych z detektora GEM dla szybkiego systemu diagnostyki gorącej plazmy tokamakowej DOI:10.15199/59.2018.4.2
(Piotr KOLASIŃSKI, Krzysztof POŹNIAK, TOMASZ CZARSKI, Maryna CHERNYSHOVA, Michał GĄSKA, Paweł LINCZUK, Grzegorz KASPROWICZ, Rafał KRAWCZYK, Andrzej WOJEŃSKI, Wojciech ZABOŁOTNY)

Rolą współczesnych systemów diagnostycznych gorącej plazmy tokamakowej jest nie tylko zapewnienie szybkiego, wydajnego monitoringu zjawisk zachodzących w plazmie (m.in. prędkości rotacji, temperatury jonowej, koncentracji domieszek itp.), ale także niskolatencyjnego procesu sterowania uwięzieniem plazmy w polu magnetycznym (tj. pracy systemu w trybie sprzężenia zwrotnego). Zadania te wymagają zastosowania szybkich detektorów, umożliwiających wykrycie promieniowania plazmy z bardzo dużą częstością oraz użycia wielokanałowych, wydajnych obliczeniowo i niskolatencyjnych elektronicznych systemów pomiarowych pracujących w trybie czasu rzeczywistego. Wymagania te wynikają z potrzeby długotrwałego oraz powtarzalnego utrzymania procesu kontrolowanej syntezy termojądrowej następującej w gorącej plazmie tokamakowej w celu pozyskania nowego, bezpiecznego i bardzo wydajnego źródła energii. Dotychczasowe rozwiązania obrazowania zanieczyszczeń w plazmie zapewniały akwizycję danych pomiarowych w trakcie procesu wytwarzania i utrzymania plazmy, natomiast udostępnienie i analiza danych odbywały się w tzw. trybie off-line, tzn. już po zakończeniu eksperymentu. W artykule, tytułem wprowadzenia, omówiono zasadę działania systemu diagnostyki zanieczyszczeń pierwszej generacji zrealizowanego dla tokamaka JET. Wykorzystanie układów FPGA (Field-Programmable Gate Array) umożliwiło implementację szybkich procesów numerycznego przetwarzania sygnałów oraz procesu histogramowania wykonywanego równolegle dla wszystkich 256 kanałów pomiarowych detektora GEM (Gas Electron Multiplier), pracujących w zakresie miękkiego promieniowania X. Dzięki temu osiągnięto rozdzielczość czasową 10 ms dla serii kilku tysięcy kolejno wykonywanych rozkładów widmowych [1]. Konieczność dalszego zwiększenia rozdzielczości czasowej obrazowania do 1 ms (lub mniejszej), wraz z realizacją analizy spektralnej w czasie rzeczywistym (w tzw. trybie on-line), leży u podstaw budowy syst... więcej»

Metryki oceny jakości klasyfikacji DOI:10.15199/59.2018.4.3
(Cezary Jankowski )

Od powstania pierwszej strony WWW [18] w grudniu 1990 roku nie upłynęło jeszcze nawet 30 lat, a Internet od tamtego czasu zmienił się diametralnie. Przestał być domeną wybranych naukowców i wojskowych. Stał się powszechny i wszechobecny. Obecnie można obserwować rozwój dostępu mobilnego, związanego z rosnącą wciąż popularnością smartfonów. Ich sprzętowe możliwości obliczeniowe są porównywalne z komputerami sprzed kilku lat. Wiele rodzjów aktywności przenosi się do Internetu. Ogłoszenia drobne opuszczają zajmowane przez lata łamy gazet. Serwisy społecznościowe mają coraz większe znaczenie w relacjach międzyludzkich. Sklepy internetowe oferują atrakcyjne ceny, oszczędzając na braku stacjonarnych punktów sprzedaży. Również reklamodawcy przechodzą z tradycyjnych mediów do sieci. Zachęca ich między innymi wizja profilowania użytkowników, a zatem przedstawiania im spersonalizowanych treści. Rezultatem tych zmian jest ciągle rosnąca ilość danych, gromadzonych przez organizacje oraz firmy. Gromadzenie tych danych nie jest jednak celem samym w sobie. Znaczenie ma dopiero informacja. Istotna jest możliwość uogólnienia, znalezienia pewnych wzorców oraz reguł. Istnieje potrzeba odkrywania wiedzy z baz danych (Knowledge Discovery in Databases) [16]. Pewne zagadnienia implikują istnienie wyróżnionego atrybutu - decyzji. Przykładem może być zagadnienie budowy filtru antyspamowego. Klasą decyzyjną będzie w tym przypadku etykieta spam lub poprawna wiadomość. Inne zagadnienie może dotyczyć prognozowania odsetka rozwiązanych umów z operatorem telekomunikacyjnym [7, 14]. Problemy, mające wyróżnioną zmienną, są określane mianem nauczania nadzorowanego (supervised learning). W zależności od zbioru wartości atrybutu decyzyjnego można wyróżnić klasyfikację - dyskretny, skończony zbiór wartości (jak w przypadku wspomnianego filtru antyspamowego) oraz regresję - ciągły zbiór wartości (jak w przypadku prognozy odsetka rozwiązanych umów). Istnieje tak... więcej»

Dziewięćdziesięciolecie Przeglądu Telekomunikacyjnego 1928 – 2018 (Krystyn PLEWKO, Bogdan ZBIERZCHOWSKI)
Zarys historii Z inicjatywy Stowarzyszenia Teletechników Polskich (STP), zaledwie dwa lata po jego powstaniu, a więc przed 90 laty, ukazał się pierwszy zeszyt miesięcznika - Przegląd Teletechniczny (marzec-kwiecień 1928 r.). Była to realizacja zapisu w statucie tego Stowarzyszenia dotycząca powołania czasopisma. Miesięcznik ten - organ STP - był wydawany przy wsparciu Ministerstwa Poczt i Telegrafów. Cztery lata później - w roku 1932 - w zeszytach Przeglądu Teletechnicznego pojawił się dodatek pt.: Wiadomości Teletechniczne, który w roku 1935 przekształcił się w samodzielny miesięcznik. W roku 1939 Stowarzyszenie Teletechników Polskich połączyło się ze Stowarzyszeniem Elektryków Polskich, a oba miesięczniki - zachowując swoją odrębność - zmieniły nazwę na Przegląd Telekomunikacyjny i Wiadomości Telekomunikacyjne. Historia tych czasopism jest spleciona z losami wielu innych o tematyce telekomunikacyjnej, radiowej lub pocztowej. Związki te zilustrowano na rys. 1. Warto zauważyć, że w wymienionym okresie oba te miesięczniki dwukrotnie łączyły się ze sobą: po raz pierwszy w roku 1959, gdy Wiadomości Telekomunikacyjne (pod nazwą Tele- -Radio) zostały włączone do Przeglądu i po raz wtóry w roku 1992, gdy Wiadomości połączyły się z Przeglądem, zachowując swoją odrębność wewnątrz wspólnego zeszytu. W tej formule czasopismo to istnieje już od 27 lat (patrz literatura). Od roku 1950 Przegląd Telekomunikacyjny wraz z Wiadomościami Telekomunikacyjnymi był wydawany przez Wydawnictwo Czasopism Technicznych NOT, a obecnie jest wydawany przez Wydawnictwo Czasopism i Książek Technicznych SIGMA-NOT Sp. z o.o. Miesięczniki te były i - po połączeniu - są do dzisiaj organem Stowarzyszenia Elektryków Polskich, prezentując na swoich łamach tematykę Sekcji Technik Informacyjnych (dawniej Telekomunikacji) i Sekcji Radiotechniki SEP. Prze- * były redaktor naczelny Przeglądu Telekomunikacyjnego oraz Wiadomości Telekomunikacyjnych, a także PTiWT ** ... więcej»

XXIV PLEBISCYT O TYTUŁ ZŁOTEGO INŻYNIERA
Dnia 28 lutego 2018 r. w Warszawskim Domu Technika NOT na uroczystej Gali ogłoszono wyniki XXIV Plebiscytu Złoty Inżynier. Diamentowym Inżynierem tegorocznej edycji plebiscytu został Antoni Greń, członek Zarządu FCA Poland, dyrektor Zakładu w Tychach. Złoty Inżynier to nagroda przyznawana wybitnym inżynierom, twórcom techniki, wynalazcom i organizatorom życia gospodarczego kraju, która popularyzuje ich osiągnięcia. Nagroda promuje dokonania polskich inżynierów i zwraca uwagę na ich rolę w budowaniu innowacyjnej i konkurencyjnej gospodarki. Tytuły przyznawane są w kategoriach: high-tech, zarządzanie, menedżer, ekologia, nauka i jakość, a także w kategorii młody inżynier. Od X edycji plebiscytu przyznawane są tytuły Honorowych Złotych Inżynierów absolwentom uczelni technicznych z dyplomem inżyniera, którzy sukces odnieśli w innych dziedzinach, takich jak kultura i sztuka, sport, działalność społeczna, charytatywna, religijna, a także gospodarcza, ale niezwiązanych z inżynierskim wykształceniem zawodowym. Organizatorem plebiscytu Złoty Inżynier jest redakcja dwutygodnika Przegląd Techniczny - gazety inżynierskiej (wydawanego od 1866 r.) oraz Federacja Stowarzyszeń Naukowo-Technicznych Naczelna Organizacja Techniczna. Patronem medi... więcej»

Synteza wysokiego poziomu dla układów FPGA z wykorzystaniem metody partycjonowania grafów DOI:10.15199/59.2018.4.1
(Radosław CIESZEWSKI, Krzysztof POŹNIAK, Ryszard Romaniuk)

Synteza wysokiego poziomu HLS (High-Level Synthesis) jest nazywana także syntezą algorytmiczną lub syntezą behawioralną. To zautomatyzowany proces projektowania, interpretujący opis algorytmiczny przedstawiony w postaci języka wysokiego poziomu. Zadaniem procesu HLS jest implementacja algorytmu w zadanym sprzęcie - najczęściej w układzie FPGA (Field-Programmable Gate ArrayI) lub ASIC (Application-Specific Integrated Circuit). Synteza wysokiego poziomu stanowi przedmiot intensywnych badań od późnych lat siedemdziesiątych [1]. Pierwsze narzędzia HLS były tworzone dla wielu różnych języków umożliwiających opis algorytmiczny, jak np. Occam. Najnowsze, otwarte i komercyjne narzędzia zbudowane są na bazie języków wysokiego poziomu (High Level Description Language), takich jak ANSI C / C ++ / SystemC / System Verilog/ Java / Python [2,11-23]. Większość narzędzi analizuje kod wejściowy i konwertuje go do języka opisu sprzętu HDL (Hardware Description Language) na poziomie abstrakcji RTL (Register Transfer Level). Powszechnie używanymi językami opisu sprzętu są VHDL, Verilog i SystemVerilog. Kod wyjściowy jest następnie syntetyzowany do poziomu bramek za pomocą narzędzia do syntezy logicznej. Celem syntezy wysokiego poziomu jest umożliwienie projektantowi sprawnego zaprojektowania złożonego układu. Projektant tworzy algorytm na wysokim poziomie abstrakcji, podaje parametry wejściowe, a następnie narzędzie HLS automatycznie dokonuje implementacji. Kontrolę nad optymalizacją architektury sprzętowej zapewniają wewnętrzne algorytmy narzędzia HLS. architektura układów FPGA, która umożliwia realizację równoległych operacji logicznych i arytmetycznych, dla określonego rodzaju algorytmów umożliwia osiąganie lepszych wydajności niż w przypadku standardowych mikroprocesorów, gdzie co najwyżej kilka bloków logiczno-arytmetycznych wykonuje swoje zadania sekwencyjnie. Dlatego układy FPGA stanowią optymalne rozwiązanie dla algorytmów równoległych ... więcej»

2018-2-3

zeszyt-5448-przeglad-telekomunikacyjny-2018-2-3.html

 
W numerze m.in.:
Integracja mechanizmów transportowych dla sieci o nieciągłej i sporadycznej łączności w systemie netBaltic DOI:10.15199/59.2018.2-3.6
(Wojciech GUMIŃSKI)

Sprawdzenie możliwości zapewnienia szerokopasmowego dostępu do Internetu na obszarze Morza Bałtyckiego z wykorzystaniem samoorganizującej się sieci wieloskokowej było podstawowym celem projektu Internet na Bałtyku [1, 2, 3]. Gęstość jednostek na Morzu Bałtyckim, dostępne zasięgi transmisji i krzywizna ziemi powodują, że zasięg takiej sieci nie może pokrywać całego obszaru morza [7]. Część jednostek musi pływać na obszarach pozbawionych łączności z lądem. Dla tych obszarów w ramach projektu Internet na Bałtyku opracowano algorytmy dostarczania wiadomości w warunkach sporadycznej i przerywanej łączności [6]. Rozwiązanie to, utrzymane w konwencji sieci DTN (Delay Tolerant Networking) [4, 5], zostało dopasowane do wybranego zestawu przykładowych usług możliwych do realizacji w systemie. Jak wynika z analizy historycznych danych systemu AIS (Automatic Identification System) oraz przeprowadzonych na ich podstawie symulacji [7], przerwy w transmisji na wybranych akwenach Bałtyku mogą trwać nawet od kilku do kilkudziesięciu godzin. Takie warunki uniemożliwiają funkcjonowanie tradycyjnych protokołów transportowych, wymagających ciągłej i dwukierunkowej łączności. Aby zapewnić działanie usług w strefie braku ciągłej łączności z lądem (strefa C projektu), zaproponowano architekturę (usługową) z wykorzystaniem serwera proxy dla usług i jednokierunkowej transmisji kompletnych paczek wiadomości zawierających wszystkie niezbędne dla danej usługi dane[6]. MODUŁ TRANSPORTOWY Najważniejszym elementem architektury z wykorzystaniem serwera proxy jest moduł transportowy. Jego zadaniem jest przekazywanie paczek wiadomości niezależnie od ich treści. Moduł ten odpowiada za przekazywanie wiadomości, zabezpieczenie ich treści przed modyfikacjami oraz zapewnienie poufności transmisji - od źródła do celu (end-to-end). Realizacja tych zadań wymaga integracji modułu transportowego z pozostałymi elementami systemu netBaltic. Integracja zmechanizmami samo... więcej»

Metody oceny jakości łączy bezprzewodowych wykorzystywanych w systemie netBaltic DOI:10.15199/59.2018.2-3.2
(Krzysztof BRONK, Rafał NISKI, Kacper WERESZKO, Krzysztof ŻUREK)

Jednym z głównych zadań w projekcie netBaltic [13] jest budowa heterogenicznej sieci teleinformatycznej na morzu, która w sposób automatyczny będzie analizowała stan dostępnych łączy bezprzewodowych oraz dokonywała wyboru tego łącza, które w danej chwili będzie najbardziej korzystne z punktu widzenia aktualnych warunków w kanale radiowym. W tym celu opracowano mechanizm oceny jakości łączy międzywęzłowych dla urządzeń znajdujących się w różnych strefach zasięgu systemu. Mechanizm ten umożliwi wybór optymalnego pod względem jakości łącza bezprzewodowego dla danej usługi. Ocena przydatności różnego rodzaju łączy bezprzewodowych będzie odbywała się na podstawie porównania wartości parametru LQI (Link Quality Indicator), wyznaczanej dla każdego z systemów dostępnych w danym miejscu i czasie. Zastosowanie tego samego kryterium do oceny jakości różnych systemów umożliwi bezpośredni sposób porównania jakości oferowanych przez nie usług bezprzewodowej transmisji danych. Opisana w artykule koncepcja mechanizmu oceny jakości łączy powstała w wyniku analizy danych zgromadzonych podczas kampanii pomiarowych realizowanych w ramach projektu na wodach Morza Bałtyckiego [7, 9] oraz badań i testów prowadzonych w środowisku laboratoryjnym [8, 10]. Przedstawiono definicję parametru LQI oraz sposób jego wyznaczania dla sieci 3G i LTE w strefie A systemu netBaltic [11, 12], w której statki komunikują się z wykorzystaniem lądowej infrastruktury operatorów komórkowych oraz dla sieci WiFi w strefach B i C, gdzie statki nie mają bezpośredniej łączności z brzegiem i jedynym mechanizmem komunikacji jest łączność statek-statek. Metoda oceny jakości łączy WiFi może być również wykorzystana do oceny jakości nadbrzeżnej (np. portowej) infrastruktury sieci dostępowych do łączności w relacji ląd-statek w strefie A. W dalszej części artykułu przedstawiono poglądową koncepcję budowy węzła systemu netBaltic z uwzględnieniem mechanizmu oceny jakości łączy. De... więcej»

Heterogeniczne środowisko testowe na potrzeby weryfikacji mechanizmów systemu netBaltic DOI:10.15199/59.2018.2-3.8
(Michał HOEFT, Krzysztof GIERŁOWSKI)

Jednym z głównych założeń projektu netBaltic [1] było opracowanie mechanizmów umożliwiających realizację komunikacji szerokopasmowej z wykorzystaniem mechanizmów samoorganizacji sieci w środowisku heterogenicznym. Pierwsze etapy realizacji projektu, w których sprawdzano zasadność wprowadzania proponowanych rozwiązań, zakładały wykorzystanie w pełni kontrolowanych środowisk symulacyjnych, wirtualnych oraz laboratoryjnych [2]. Podnosząc poziom gotowości technologicznej, w ostatnich etapach projektu netBaltic wprowadzono weryfikację w środowisku zbliżonym do rzeczywistego. Weryfikacja obejmowała testy poprawności funkcjonowania poszczególnych komponentów, prawidłowości ich integracji oraz wzajemnego oddziaływania w systemie złożonym ze stacji bazowych różnych technik transmisji rozlokowanych na lądzie i testowych węzłów systemu umieszczonych na jednostkach pływających. Wiele przeprowadzonych testów dotyczyło obszaru Bałtyku Południowego, w szczególności Zatoki Gdańskiej i Zatoki Puckiej. W trakcie testów opracowano i zaimplementowano testowe węzły systemu netBaltic, zainstalowane następnie na jednostce badawczej Instytutu Oceanologii PAN s/y Oceania [3] wraz z łodziami RIB znajdującymi się na jej pokładzie oraz na łodzi motorowej Sonda II. Sieć nabrze żna Istotnym elementem infrastruktury testowej wykorzystywanej w procesie weryfikacji mechanizmów opracowanych w projekcie netBaltic była infrastruktura nabrzeżna, obejmująca stacje bazowe i punkty dostępowe różnych technik transmisji. W szczególności zaadaptowano następujące rozwiązania: - system D-STAR ze stacją bazową umieszczoną na dachu budynku WETI Politechniki Gdańskiej, jako przykład wąskopasmowego systemu dalekozasięgowego, pracującego w paśmie 1.2 GHz; - szerokopasmowy system WiMAX ze stacją bazową umieszczoną na dachu budynku WETI Politechniki Gdańskiej, wdrożony jako część instalacji testowej projektu Wireless City Gdańsk; - infrastrukturę LTE publicznego operatora tele... więcej»

Potencjał wdrożeniowy systemu netBaltic - scenariusze wykorzystania i perspektywy dalszego rozwoju DOI:10.15199/59.2018.2-3.9
(Józef WOŹNIAK, Marcin WICHOROWSKI, Mariusz MISZEWSKI, Krzysztof NOWICKI, Mirosław DARECKI, Michał HOEFT, Krzysztof GIERŁOWSKI)

Stan bieżący, potrzeby i oczekiwania dotyczące e-nawigacjii systemów łączności Oczekuje się, że morskie systemy łączności, wspierając w pierwszej kolejności usługi e-nawigacji, umożliwią także transmisję głosu/wideo oraz wymianę różnorodnych informacji (przekaz e-maili, przeglądanie stron internetowych, dostęp do materiałów dydaktycznych i wiele innych) za pośrednictwem globalnej infrastruktury informacyjnej [1]. Jak wskazano w [2], około 80% światowego handlu jest transportowane przez jednostki morskie, co podkreśla znaczenie komunikacji morskiej dla rozwoju gospodarczego. Ponadto wiele innych działań morskich, w tym np. rybołówstwo, eksploatacja morza, liczne badania stanu i zasobów morskich czy turystyka, zwiększają znaczenie systemów łączności morskiej i konieczność oferowania komunikacji szerokopasmowej. Analiza wymaganych przez IMO (International Maritime Organization) systemów i usług pokazuje jednak, że obecne podejście do systemów łączności na morzu koncentruje się (prawie wyłącznie) na dostarczaniu zestawu usług krytycznych związanych z bezpieczeństwem, zaprojektowanych i znormalizowanych tak, by były niezawodnie realizowane z użyciem kanałów danych o niskiej czy wręcz bardzo niskiej przepustowości [3]. Usługi dodatkowe, takie jak pobieranie cyfrowych map nawigacyjnych, częsta aktualizacja map pogodowych [4], automatyczna optymalizacja trasy lub różne zdalne usługi monitorowania i utrzymania, nie wspominając już o dostępie do Internetu w celu poprawy komfortu pracy załogi i podróży pasażerów, wymagają znacznie bardziej wydajnych systemów komunikacyjnych. Analiza stanu aktualnego wskazuje na brak w tym zakresie kompleksowych i niezawodnych rozwiązań umożliwiających realizację nowych zadań. W 2005 roku IMO opublikowała koncepcję znaną jako e-nawigacja [1,5]. Koncepcja ta harmonizuje gromadzenie, integrację, wymianę, prezentację i analizę informacji morskich na pokładzie i na lądzie drogą elektroniczną w celu poprawy ... więcej»

Projekt netBaltic - cele i zaproponowane rozwiązania DOI:10.15199/59.2018.2-3.1
(Józef WOŹNIAK, Michał HOEFT, Krzysztof GIERŁOWSKI, Krzysztof NOWICKI)

Projekt netBaltic: Internet na Bałtyku - Realizacja wielosystemowej, samoorganizującej się szerokopasmowej sieci teleinformatycznej na morzu dla zwiększenia bezpieczeństwa żeglugi poprzez rozwój usług e-nawigacji był realizowany przy istotnym 32 PRZEGLĄD TELEKOMUNIKACYJNY  ROCZNIK XCI  WIADOMOŚCI TELEKOMUNIKACYJNE  ROCZNIK LXXxVII  nr 2-3/2018 w pełni zautomatyzowane i efektywne wykorzystanie dostępnych zasobów sieciowych - oferowanego pasma, optymalnego zasięgu czy też aktualnej topologii sieci. Zgodnie z opisami prezentowanymi na wcześniejszych etapach realizacji i prezentacji projektu, strefa A obejmuje wody znajdujące się w zasięgu bezpośredniej łączności z infrastrukturą nabrzeżną. Komunikacja w tej strefie przebiega w standardowy sposób, typowy dla systemów łączności bezprzewodowej. Łącze radiowe jest traktowane jako bezprzewodowe łącze dostępowe. Jak wykazały liczne testy, zasięg transmisji, obserwowany dla poszczególnych technik, silnie zależy od parametrów transmisyjnych, stanu morza oraz oprzyrządowania systemu (rodzajów anten, wysokości ich lokalizacji itp.) [5]. Każdorazowo jednak terminale, znajdujące się na obszarze strefy A, mają możliwość swobodnego dostępu do Internetu. Z uwagi na potrzebę integracji w systemie wielu technik transmisji, a jednocześnie uniezależnienie realizowanych procedur samoorganizacji i wyznaczania tras od fizycznych implementacji systemów dostępowych, wyposażenie każdego węzła systemu rozszerzono o specjalizowany interfejs logiczny (warstwa 2.5) ukrywający interfejsy fizyczne wykorzystywane w niższych warstwach stosu sieciowego [6]. Strefa B obejmuje obszary, z których bezpośrednia komunikacja z lądową infrastrukturą komunikacyjną nie jest możliwa, lecz obecność jednostek wyposażonych w terminale systemu umożliwia utworzenie tam samoorganizującej się sieci kratowej, w której dane użytkowników mogą być przekazywane wieloskokowo. Tym samym terminale, mające ... więcej»

2018-1

zeszyt-5395-przeglad-telekomunikacyjny-2018-1.html

 
W numerze m.in.:
Dostarczanie rozwiązań chmurowych "szytych na miarę" DOI:10.15199/59.2018.1.4
(Wojciech Michalski)

Komisja Europejska dostrzega ogromny potencjał w rozwoju chmury obliczeniowej, który powinien być wykorzystany na rzecz pobudzenia wydajności gospodarek państw członkowskich UE. W przyjętej we wrześniu 2012 r. strategii [1] założono wykorzystanie chmury obliczeniowej przez przedsiębiorstwa i administrację publiczną właśnie w tym celu. Działania KE związane z wprowadzeniem w życie tej strategii zostały podane w Europejskiej Agendzie Cyfrowej. Oczekiwane korzyści wymieniono natomiast w komunikacie KE w sprawie wykorzystania potencjału chmury obliczeniowej w Europie oraz w dokumencie roboczym KE do tego komunikatu. Dla osiągnięcia celów tej strategii istotne są takie działania, jak: - uporządkowanie dużej liczby różnych norm, - opracowanie bezpiecznych i uczciwych warunków zawierania umów na usługi w chmurze, w tym umów o gwarantowanym poziomie usług, - ustanowienie modelu europejskiego partnerstwa na rzecz chmur obliczeniowych z udziałem państw członkowskich i podmiotów branżowych. Do rozwiązania kwestii wynikających z tych działań powołano grupę ekspertów. W jej skład wchodzą przedstawiciele dostawców usług przetwarzania w chmurze, konsumentów i MŚP oraz środowisk akademickich i prawniczych. Ich zadaniem jest opracowanie warunków umów, umożliwiających konsumentom oraz małym i średnim przedsiębiorstwom korzystanie z większym zaufaniem z usług świadczonych w modelu chmury obliczeniowej. Producenci, którzy podjęli wyzwanie rzucone przez Komisję Europejską, stosują zróżnicowane strategie dostarczania klientom swoich rozwiązań chmurowych. Niektórzy, tacy jak Cisco, mający w swojej ofercie pakiet firmowych urządzeń sieciowych i dedykowane oprogramowanie, kierują ofertę do klientów, któ-... więcej»

Ewolucja technik dostarczania sygnału telewizyjnego na przykładzie Winogradzkiej Telewizji Kablowej DOI:10.15199/59.2018.1.2
(Borys Owczarzak, Piotr Zwierzykowski)

W sieciach telewizji kablowej od wielu lat sukcesywnie wprowadzana jest oferta usługi dostępu do Internetu. Zauważyli to również nadawcy sygnału telewizyjnego, którzy obecnie udostępniają sygnały telewizyjne także za pośrednictwem sieci teleinformatycznych. Wykorzystanie tego typu sieci do dystrybucji sygnału telewizyjnego wiąże się jednak z koniecznością zapewnienia komunikacji z nadawcami różnych programów telewizyjnych. Rozwiązanie to jest bardziej złożone od tradycyjnego podejścia, które opiera się na standardach DVB-S/S22) oraz DVB-T (Digital Video Broadcasting - Terrestrial). 2) DVB-S (Digital Video Broadcasting-Satellite) - standard cyfrowego przesyłu telewizji satelitarnej [2] 1) WTvK jest operatorem od wielu lat działającym w Poznaniu. Sieć operatora obejmuje 22 tys. mieszkańców jednej z największych dzielnic Poznania. Obecnie firma ma w swojej ofercie ponad 200 kanałów cyfrowych (zarówno SD, jak i HD). PRZEGLĄD TELEKOMUNIKACYJNY  ROCZNIK XCI  nr 1/2018 9 nowymi kanałami telewizyjnymi towarzyszy dynamiczny rozwój technologii sieci teleinformatycznych. Efektem tego jest coraz większa przepływność sieci, której towarzyszy obniżenie kosztów budowy i eksploatacji sieci teleinformatycznych. Dostrzegli to i wykorzystali operatorzy i dostawcy treści dla sieci telewizji kablowych, zapewniając odbiór strumieni telewizyjnych o wiele lepszej jakości. Na rys. 1 przedstawiono komponenty sygnału telewizyjnego kanału TVP 1 HD nadawanego przez: satelitę HotBird z transpondera numer 13, naziemny nadajnik w Śremie oraz przez IP z punktu wymiany ruchu PWR PLIX4) w Warszawie. Do oceny jakości kanału telewizyjnego najczęściej wykorzystuje się przepływność sygnału wizyjnego (komponent AVC/H.2645) Video). Komponent ten w przypadku kanału TVP 1 HD (tabela 1) dostępny po IP wynosi 9,8 Mbit/s i jest ponad trzy razy większy od sygnału przesyłanego naziemnie (3,0 Mbit/s) i prawie dwa razy większy od sygnału przesyłanego sateli... więcej»

Katedra Telekomunikacji Morskiej na Wydziale Elektrycznym Akademii Morskiej w Gdyni DOI:10.15199/59.2018.1.1
(Beata Pałczyńska, Andrzej Łuksza, Andrzej Borys)

Rys historyczny Katedra Telekomunikacji Morskiej w Akademii Morskiej w Gdyni w obecnym kształcie powstała w 2005 roku w wyniku reorganizacji Wydziału Elektrycznego. Wówczas Katedrę Radioelektroniki Morskiej podzielono na dwie nowe: Katedrę Telekomunikacji Morskiej i Katedrę Elektroniki Morskiej. Historia Katedry sięga jednak roku 1969, kiedy w strukturze Wyższej Szkoły Morskiej (WSM) w Gdyni powstał na Wydziale Elektrycznym Zespół Elektroniki, kierowany przez doc. mgr. inż. Olgierda Teisseyre’a. W 1973 roku zamiast dotychczasowych zespołów powołano instytuty, m.in. Instytut Automatyki i Radiokomunikacji Morskiej, w którym funkcję kierownika pełnił doc. dr inż. Jerzy Wieland. Od 1980 roku zaczyna funkcjonować samodzielny Instytut Radiokomunikacji Morskiej, kierowany kolejno przez doc. dr. inż. Jerzego Czajkowskiego (1980-1982) i doc. dr. inż. Macieja Walaszka (1982-1987), przemianowany cztery lata później na Instytut Radioelektroniki Morskiej. Funkcję dyrektora tego Instytutu od roku 1987 pełnił dr hab. inż. Wiesław Sieńko. W 1993 roku zamiast istniejącego instytutu powołano Katedrę Radioelektroniki Morskiej, której kolejnymi kierownikami byli doc. dr inż. Jerzy Czajkowski (1993-1997) oraz dr hab. inż. Janusz Zarębski (1997-2005) [1]. Kompetencje kadry naukowo -dydakty cznej Pierwszym kierownikiem Katedry Telekomunikacji Morskiej (KTM) został dr hab. inż. Wiesław Sieńko, profesor nadzwyczajny Akademii Morskiej w Gdyni (AMG). Prof. W. Sieńko jest absolwentem Wydziału Elektroniki Politechniki Gdańskiej (WE PG), a w latach 1967-1987 był nauczycielem akademickim WE PG. Od roku 1987 jest pracownikiem Wydziału Elektrycznego WSM w Gdyni, gdzie w latach 1993-1999 pełnił funkcję dziekana Wydziału Elektrycznego. 4 PRZEGLĄD TELEKOMUNIKACYJNY  ROCZNIK XCI  nr 1/2018 - badania nad wykorzystaniem sieci neuronowych jako narzędzi w programowaniu optymalizacyjnym oraz struktur neuroprocesorów [8, 9]. Prace naukowo-ba... więcej»

O złożoności problemu wyznaczania podstawy logarytmu dyskretnego w schemacie Diffi'ego-Hellmana DOI:10.15199/59.2018.1.3
(Andrzej Paszkiewicz)

W schemacie podziału sekretu Diffi'ego-Hellmana w grupie multiplikatywnej reszt modulo liczba pierwsza zasadniczym i najbardziej pracochłonnym problemem jest wybór generatora tej grupy. W pracy [4] szczegółowo rozpatrzono ten problem, wykonując serię rozległych eksperymentów z wykorzystaniem lokalnych sieci komputerowych oraz otwartego środowiska Internet. W krytycznej fazie eksperymentu uczestniczyło ponad 400 stacji roboczych, głównie komputerów IBM PC, będących w użytkowaniu studentów. Z przeprowadzonych badań, które zakończyły się w kwietniu 2007 roku, wynika, że generatory grup multiplikatywnych modulo liczba pierwsza (zwane też pierwiastkami pierwotnymi modulo liczba pierwsza) wyrażają się małymi liczbami naturalnymi. Na przykład liczby 2, 3 lub 5 są najmniejszymi pierwiastkami pierwotnymi w ok. 74% przypadków. Jeżeli dołączy się do tego zbioru liczbę 6, wówczas obejmie on prawie 80% wszystkich liczb pierwszych. Nie jest to jednak reguła, ponieważ zdarzają się przypadki, w których nawet dla małych liczb pierwszych (liczb, które dają się zapisać na 64 bitach) ich najmniejszy pierwiastek wydaje się znacznie odbiegać od ich statystycznego zachowania. Ponadto z badań wynika, że gęstości liczb pierwszych, dla których najmniejszy generator (najmniejszy pierwiastek pierwotny) jest równy danej liczbie naturalnej, dążą do pewnych ustalonych wartości, które można efektywnie policzyć przy założeniu prawdziwości hipotezy Riemanna o funkcji dzeta nad pewnymi ciałami Kummera. Zgodność wyników uzyskanych doświadczalnie z wynikami uzyskanymi na drodze teoretycznej jest zdumiewająca. Z badań wynika, że wielkość najmniejszego pierwiastka pierwotnego modulo liczba pierwsza jest funkcją wielomianowo zależną od logarytmu tej liczby. Warunkowe wyniki teoretyczne szacują tę złożoność jako funkcję zależną od kwadratu logarytmu naturalnego liczby pierwszej [4]. Badania numeryczne pokazują, że może to być funkcja wolniej rosnąca, niż kwad... więcej»

Od telefonizacji do cyfryzacji
W dniu 14 grudnia 2017 roku Krajowa Komisja Kwalifikacyjna Polskiej Izby Inżynierów Budownictwa nadała Dariuszowi Cierpińskiemu tytuł rzeczoznawcy budowlanego w telekomunikacji przewodowej, w zakresie projektowania i kierowania robotami budowlanymi (patrz strona następna). Dariusz Cierpiński jest trzecią osobą, której nadano tak prestiżowy tytuł w budownictwie telekomunikacyjnym w okresie ostatnich trzech lat. Obecnie grono rzeczoznawców budowlanych w telekomunikacji na terenie Polski liczy jedynie 43 osoby. Rzeczoznawca budowlany jest ekspertem w zakresie prawa budowlanego oraz budownictwa. Jego rolą jest sporządzanie opinii oraz ekspertyz z zakresu budownictwa. Może sprawować funkcję biegłego sądowego, a jego opinie traktowane są jako dowody w sprawach. Na podstawie ustawy o samorzą... więcej»

Redakcja:
ul. Ratuszowa 11, pok. 637
00-950 Warszawa
tel.: +48 22 670-08-20
faks: 22 619-86-99
e-mail: przeg.tel@sigma-not.pl, przeg.tel@interia.pl
www: http://przegladtelekomunikacyjny.pl

Czasopisma Wydawnictwa SIGMA-NOT można zaprenumerować w jednym z następujących wariantów: 

· Prenumerata roczna, półroczna i kwartalna czasopism w wersji papierowej,

· Prenumerata roczna w wersji PLUS (wersja papierowa i dostęp do Portalu Informacji Technicznej www.sigma-not.pl w ramach zaprenumerowanego tytułu),

· Prenumerata ulgowa – z rabatem wg cennika (przysługuje osobom fizycznym, należącym do stowarzyszeń naukowo-technicznych oraz studentom i uczniom szkół zawodowych),

· Prenumerata ciągła w wersji PLUS – z 10% rabatem na każdy zaprenumerowany tytuł uzyskiwanym po podpisaniu umowy z Wydawnictwem SIGMA-NOT, przedłużanej automatycznie z roku na rok aż do momentu złożenia rezygnacji,

· Prenumerata zagraniczna – wysyłka czasopisma za granicę za dopłatą 100% do ceny prenumeraty krajowej.

 

Cennik prenumeraty 30 tytułów Wydawnictwa SIGMA-NOT (2015 rok)

 

Prenumeratę można zamówić bezpośrednio w Zakładzie Kolportażu Wydawnictwa SIGMA-NOT:

telefonicznie: (22) 840 30 86 lub 840 35 89 lub faksem: (22) 891 13 74, 840 35 89, 840 59 49

mailem: prenumerata@sigma-not.pl lub na stronie: www.sigma-not.pl

listownie: Zakład Kolportażu Wydawnictwa SIGMA-NOT Sp. z o.o., ul. Ku Wiśle 7, 00-707 Warszawa

oraz dokonując wpłaty na konto Wydawnictwa SIGMA-NOT Sp. z o.o.:
ul. Ratuszowa 11, 00-950 Warszawa, skr. poczt. 1004,
nr konta 24 1020 1026 0000 1002 0250 0577

 

Ogólne warunki prenumeraty czasopism fachowych Wydawnictwa SIGMA-NOT

 

Prenumeratorzy, którzy mają wykupioną prenumeratę u innego kolportera, mogą dokupić dostęp do Portalu w cenie 90 zł (netto) na rok, po przedstawieniu dowodu wpłaty na prenumeratę. Należy go przesłać do Zakładu Kolportażu wraz z zamówieniem na dostęp do Portalu Informacji Technicznej: mailem: kolportaz@sigma-not.pl lub faksem 22 891 13 74 

 

Informacja

Jeżeli zamawiana prenumerata, obejmuje numery na przełomie roku 2015/2016, to otrzymają Państwo dwie faktury. Jedna faktura na numery z 2015 roku, natomiast druga na numery z 2016 roku wg cennika na 2015 rok.

Formularze zamówienia na prenumeratę czasopism Wydawnictwa SIGMA-NOT dostępne są  na stronach poszczególnych tytułów, a formularz zbiorczy (umożliwiający zaprenumerowanie od razu kilku tytułów) – po kliknięciu w pole poniżej. 

·  FORMULARZ ZAMÓWIENIA - CZASOPISMA WYDAWNICTWA SIGMA-NOT

 

Prenumerata ciągła

Ta oferta, wprowadzona została z myślą o Państwa wygodzie, to tak zwana Prenumerata ciągła w wersji PLUS. Państwo zamawiacie nasze czasopisma tylko raz, a prenumerata przedłużana jest przez nas automatycznie z roku na rok, aż do momentu złożenia przez Państwa rezygnacji. Korzystając z tej oferty, nie musicie Państwo pamiętać pod koniec każdego roku o odnowieniu prenumeraty na rok następny, a ponadto Wydawnictwo SIGMA-NOT udzieli Państwu 10% bonifikaty na prenumerowane tytuły oraz na dostęp do Portalu Informacji Technicznej.

· FORMULARZ ZAMÓWIENIA Prenumeraty Ciągłej (plik .pdf)

 

Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach), do Zakładu Kolportażu Wydawnictwa SIGMA-NOT, ul. Ku Wiśle 7, 00-707 Warszawa.

 

Czasopisma innych wydawców można zaprenumerować w Zakładzie Kolportażu Wydawnictwa SIGMA-NOT w wariantach

· prenumerata roczna w wersji papierowej,

· prenumerata ulgowa – z rabatem wg cennika (przysługuje osobom fizycznym, należącym do stowarzyszeń naukowo-technicznych oraz studentom i uczniom szkół zawodowych.

· FORMULARZ ZAMÓWIENIA - CZASOPISMA INNYCH WYDAWCÓW

Wydawnictwo SIGMA-NOT proponuje Państwu usługi w zakresie publikacji reklam, ogłoszeń lub artykułów sponsorowanych na łamach wszystkich wydawanych przez siebie czasopism. Nie ograniczamy jednak naszych usług do jedynie papierowej formy. Oferujemy Państwu również możliwość emisji na naszym Portalu Informacji Technicznej www.sigma-not.pl oraz stronach redakcyjnych poszczególnych tytułów. Służymy pomocą edytorską przy tworzeniu materiałów promocyjnych.

Pozostajemy do Państwa dyspozycji i chętnie odpowiemy na wszystkie pytania.

KONTAKT:

Dział Reklamy i Marketingu
ul. Ratuszowa 11
00-950 Warszawa skr. poczt. 1004
tel./faks: 22 827 43 65 
e-mail: reklama@sigma-not.pl

Pliki do pobrania:

Druk zamówienia wraz z warunkami zamieszczania reklam.

Cennik ogłoszeń i reklam kolorowych oraz czarno-białych w czasopismach Wydawnictwa

Cennik e-reklam na stronach Portalu Informacji Technicznej

Warunki techniczne umieszczania e-reklamy na stronach Portalu Informacji Technicznej

Wydawnictwo SIGMA-NOT, należące do Federacji Stowarzyszeń Naukowo-Technicznych - Naczelnej Organizacji Technicznej, to największy polski wydawca prasy fachowej o ukierunkowaniu technicznym. Jako zorganizowana oficyna działa od 1949 r., a najstarszy wydawany tytuł - „Przegląd Techniczny” - liczy sobie 150 lat.

W portfolio Wydawnictwa SIGMA-NOT znajdują się obecnie 32 unikalne tytuły prasy fachowej. Czasopisma te działają na wielu płaszczyznach i są skierowane do wszystkich zainteresowanych tematami naukowo-technicznymi zarówno zawodowo, jak i czysto hobbystycznie, poszerzając ich kulturę techniczną. Czyta je miesięcznie ponad 200 tys. osób, które mogą w nich odnaleźć interesujące ich artykuły o nowinkach technicznych, najświeższych osiągnięciach naukowych, popularnych problemach w danej dziedzinie, a także analizy rynku, komentarze do bieżących wydarzeń gospodarczych oraz relacje z imprez i konferencji naukowo-technicznych.

Ofertę Wydawnictwa poszerzają publikacje książkowe; obecnie w sprzedaży jest pozycja książkowa „22 zadania służby BHP – standardy działania” autorstwa Lesława Zielińskiego oraz "ADR, REACH, CLP Niebezpieczne Chemikalia Poradnik" Bolesława Hancyka.

Poza czasopismami i książkami, nieprzerwanie od 1952 r. SIGMA-NOT wydaje również „Terminarz Technika” – wygodny kalendarz, zawierający - poza kalendarium - podstawowe informacje techniczne, świetnie znany już trzem pokoleniom polskich inżynierów.

Wszystkie artykuły opublikowane w czasopismach SIGMA-NOT począwszy od 2004 roku dostępne są także w wersji elektronicznej na Portalu Informacji Technicznej www.sigma-not.pl, który przeglądają Państwo w tej chwili. Każdy artykuł można kupić poprzez sms, e-płatności, lub posługując się tradycyjnym przelewem, a także w ramach dostępu do „Wirtualnej Czytelni”. Prenumeratorzy czasopism w wersji PLUS mogą korzystać za pośrednictwem „Wirtualnej Czytelni” z bazy artykułów zaprenumerowanego tytułu bez ograniczeń.

Wydawnictwo SIGMA-NOT ma w swoich strukturach Drukarnię oraz Zakład Kolportażu, które świadczą także usługi klientom zewnętrznym.

Zapraszamy do lektury i współpracy!

Wydawnictwo Czasopism i Książek Technicznych SIGMA-NOT Sp. z o.o.
ul. Ratuszowa 11 tel.: 22 818 09 18, 22 818 98 32
00-950 Warszawa, skr. poczt. 1004 e-mail: sekretariat@sigma-not.pl

Kontakt w sprawie zakupów internetowych - tel. 601318457, sigmanot@gmail.com

NIP: 524-030-35-01
Numer KRS: 0000069968
REGON: 001408973
Sąd Rejonowy dla m.st. Warszawy XIII Wydział Gospodarczy
Numer konta bankowego: Bank PKO BP 86 1020 1042 0000 8102 0010 2582
Numer konta bankowego dla prenumeraty: Bank PKO BP 24 1020 1026 0000 1002 0250 0577

Szanowni Państwo,
poniżej udostępniamy link zawartością archiwalnej strony czasopisma
Archiwalna strona www