53
Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie” Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin 1 Materiały dydaktyczne Technologie informacyjne Semestr VI Wykłady

Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

  • Upload
    vothuan

  • View
    224

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

1

Materiały dydaktyczne

Technologie informacyjne

Semestr VI

Wykłady

Page 2: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

2

Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe.

Zagadnienia tematyczne: A. Powstanie Internetu; B. Podstawowe elementy Internetu; C. Funkcje Internetu; D. Usługi informacyjne w Internecie;

Zagadnienie: 1.A Powstanie Internetu

Historia Internetu zaczyna się w końcu lat sześćdziesiątych, a dokładnie w roku 1967 gdy, Departament Obrony Stanów Zjednoczonych rozpoczyna projekt badawczy realizowany przez agencję ARPA (Advanced Research Projects Agency), mający na celu stworzenie sieci komunikacyjnej dla celów wojskowych. Przewodnią ideą tej konferencji było ustalenie, czy możliwe jest za pomocą komputerów skonstruowanie takiej sieci łączności, która by nie posiadała central, lecz umożliwiała automatyczne wyszukiwanie połączeń między dowództwem i oddziałami polowymi nawet przy dużym stopniu zniszczenia infrastruktury telekomunikacyjnej kraju. Okazało się to potencjalnie możliwe. Najciekawsze rozwiązanie zaproponował Alex McKenize z Uniwersytetu Stanford, który zaproponował ideę pakietu informacji z przypisanym do niej adresem, który by automatycznie krążył po sieci "szukając" swojego odbiorcy tak, jak to się dzieje z listami pocztowymi. ARPA zdecydowała się wesprzeć projekt Alexa McKenzie, który stworzył kilkudziesięcioosobowy zespół, pracujący na Uniwersytecie Stanford, Uniwersytecie California, i Uniwersytecie Stanowym Utah. Zespół ten stworzył zręby protokołu TCP (pierwotnie nazwanego IMP) oraz w 1968 wykonał pokaz automatycznego routingu połączeń w sieci liczącej kilkanaście serwerów rozproszonych na tych trzech uniwersytetach. W roku 1969 powstaje sieć ARPAnet. W dwa lata później łączy piętnaście instytucji rządowych i akademickich. W roku 1973 stworzone zostają połączenia międzynarodowe, do Wielkiej Brytanii i Norwegii. Rok później Ray Tomlinson tworzy program do przesyłania elektronicznych wiadomości po sieci (e-mail). W roku 1979 powstają grupy dyskusyjne Usenet, drugi z filarów dzisiejszego Intenretu.

Dla naukowców uniwersyteckich nie mających połączenia z ARPAnet stworzona zostaje w 1981 roku sieć CSNET (Computer Science NETwork). W 1982 roku ARPA wprowadza jako standard dla swej sieci protokół TCP/IP. W tym samym roku powstaje w Europie sieć EUnet, pozwalająca korzystać z usług poczty elektronicznej i Usenet. W 1983 roku stworzona zostaje brama (gateway) pomiędzy ARPAnet, a CSNET; fakt ten uważa się za początek istnienia Internetu, jaki dzisiaj znamy. Rozwój Internetu przedstawiono w tab. 1.

Rozwój Internetu Tabela 1

Rok Rozwój Internetu

1969

Agencja Zaawansowanych Projektów Badawczych Departamentu Obrony Stanów Zjednoczonych (DARPA – Defense Advanced Research Projects Agency) sfinansowała prace badawcze i rozwojowe prowadzące do stworzenia sieci z komutacją pakietów (ARPANET).

1971 R.Tomlinson tworzy program do przesyłania poczty elektronicznej (adres: user@server ).

1973 Powstają sieci w W.Brytanii i Norwegii połączone z siecią ARPANET łączami satelitarnymi.

Page 3: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

3

1979 Powstają pierwsze grupy dyskusyjne Usenet.

1981 Dla naukowców uniwersyteckich nie mających połączenia z ARPAnet stworzona zostaje w 1981 roku sieć CSNET (Computer Science NETwork).

1982

ARPA wprowadza jako standard dla swej sieci protokół TCP/IP. W tym samym roku powstaje w Europie sieć EUnet, pozwalająca korzystać z usług poczty elektronicznej i Usenet.

1983

Protokoły TCP/IP zostały przyjęte jako Standardy Wojskowe; implementacja TCP/IP w systemie operacyjnym UNIX BSD; ARPANET staje się siecią TCP/IP.

1983

ARPANET rozpada się na sieć MILNET (sieć Departamentu Obrony) oraz ARPANET (przestała istnieć w 1990 r.). Termin Internet służył do określenia obu tych sieci.

1983 Powstaje EARN (European Academic and Research Network ).

1984 Wprowadzenie usługi DNS (Domain Name System); w sieci około 1000 serwerów.

1986 Powstaje NSFNET (National Science Foundation NET ), ame- rykańska sieć szkieletowa o przepustowości 56 kb/s.

1988 Powstaje kanał IRC (Internet Relay Chat)

1989 Fizyk Tim Berners-Lee przedstawił projekt prezentacji informacji przy użyciu hipertekstu (HTML).

1991

Naukowcy z CERN-u (Europejska Organizacja Badań Jądrowych) opracowali standard WWW, zniesiono zakaz używania Internetu do celów komercyjnych; kwiecień - powstaje protokół Gopher; 17 sierpnia 1991 r. Rafał Pietrak, fizyk z Uniwersytetu Warszawskiego, nawiązał łączność w oparciu o protokół IP z Janem Sorensenem z Uniwersytetu w Kopenhadze; grudzień - w USA powstaje pierwszy serwer poza Europą zwany SLAC (Stanford Linear Accelerator Center); 20 grudnia - Polska zostaje przyłączona do Internetu.

1994 Premiera przeglądarki Netscape Navigator.

1995

Powstaje pierwszy polski portal: Wirtualna Polska; 23 sierpnia - prezentacja nowej przeglądarki internetowej na bazie kodu Mosaica - Internet Explorer; 3 września rusza eBay.

1996 Powstaje pierwszy komunikator internetowy - ICQ.

1997 Oficjalna premiera PHP, powstaje JavaScript, domena Google.com zostaje zarejestrowana.

2000 -

2008

15/08/2000 - powstaje polski komunikator Gadu-Gadu; 15/01/2001 - powstaje Wikipedia; 26/09/2001 - powstaje polska Wikipedia 10/10/2001 - powstaje komunikator Tlen; 2004 - powstaje pierwszy międzynarodowy program do prowadzenia rozmów głosowych Skype; 4/02/2004 - powstaje serwis Facebook; 17/02/2004 - indeks Google przekroczył 6 miliardów elementów; 9/11/2004 - powstaje przeglądarka Mozilla Firefox; 02/2005 - powstaje serwis YouTube;

Page 4: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

4

11/11/2006 - powstaje serwis Nasza-klasa; 09/2008 - powstaje przeglądarka Google Chrome.

Zagadnienie: 1.B Podstawowe elementy Internetu

Głównym założeniem Internetu jest, aby każdy komputer pracujący w dowolnej części Internetu mógł nawiązać łączność z dowolnym komputerem znajdującym się w sieci. Kształt współczesnych sieci komputerowych jest określony ze względu na potrzebę wspólnego użytkowania urządzeń wchodzących w ich skład, tj.: urządzeń transmisji, urządzeń dostępu, urządzeń wzmacniania i przesyłania sygnału. Oprócz połączonych sieci, opartych o protokoły TCP/IP, pozostałymi dwoma elementami składowymi Internetu jest społeczność, która używa i rozwija tą sieć oraz zbiór zasobów znajdujących się w tej sieci. Elementy te są ściśle ze sobą powiązane. Używanie Internetu to nic innego jak działanie członków społeczności przy pomocy sieci, mające na celu odnalezienie i wykorzystanie znajdujących się w niej zasobów informacyjnych.

Wszystkie te elementy rozwijają się, podlegają ciągłym zmianom ilościowym i jakościowym. Sprzęt komputerowy i oprogramowanie wykorzystywane w Internecie rozwija się niezwykle szybko, stając się narzędziem coraz potężniejszym i zarazem coraz łatwiejszym w użyciu.

Społeczność internetowa ma globalny zasięg i staje się nie tylko coraz liczniejsza, ale także coraz bardziej zaawansowana technicznie; pojawiają się w niej nowe specjalności i grupy skupione wokół rozmaitych usług informacyjnych tworzących Internet. Do końca roku 2009 liczbę użytkowników Internetu szacuje się na ponad jeden miliard osiemset milionów na całym świat (rys. 1).

Rys. 1. Liczba użytkowników Internetu w ujęciu globalnym, dane na 31/12/2009r. W Polsce liczbę użytkowników szacuje się na około 20 milionów, co stanowi ponad 52%

populacji kraju (rys. 2).

Page 5: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

5

Rys. 2. Liczba użytkowników Internetu w Polsce, dane z 30 września 2009r.

Zwiększa się także liczba zasobów informacyjnych, pojawiają się nowe ich kategorie, tak że prawdziwym problemem jest znalezienie nowości czy przegląd dostępnych informacji na dany temat. Rolę przewodnika w Internecie pełnią przeglądarki i wyszukiwarki internetowe. Zagadnienie: 1.C Funkcje Internetu

Internet jest często opisywany pewną kombinacją terminów zaczynających się w języku angielskim na literę c: communication, commerce, community, content, i określają jego podstawowe funkcje.

Porozumiewanie się (communication) to jedna z najbardziej podstawowych i najpopularniejszych funkcji Internetu, realizowana przez głównie przez usługę poczty elektronicznej, w mniejszym stopniu przez grupy dyskusyjne czy rozmaite formy pogawędek (Web-chat, ICQ, GG, Skype). Jej istotą jest przekazywanie informacji i kontakt dwojga lub większej liczby ludzi. Potrzebne są tu konta i serwery pocztowe, systemy pogawędek oraz oprogramowanie do nich. Jest to obszar działania dostawców usług internetowych i producentów oprogramowania.

Handel i usługi (commerce) to obiecująca, stale rozwijająca się płaszczyzna Internetu. Istnieją tu ograniczenia techniczne i mentalne, tym większe w Polsce, skupiającej się jeszcze na prostym handlem za gotówkę. Internet jest miejscem działalności gospodarczej, zarówno handlowej (sprzedaży i aukcji), jak i usługowej (bankowość internetowa, ubezpieczenia). Sprzedaż przez Internet stanowi pewną specyficzną formę sprzedaży wysyłkowej.

Page 6: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

6

Największym atutem sprzedaży przez Internet są mniejsze koszty operacyjne sklepu internetowego w porównaniu ze sklepem istniejącym fizycznie oraz większy asortyment towarów - idący na świecie w miliony, a w Polsce w dziesiątki tysięcy pozycji. Największym problemem jest promocja takiego sklepu, a także - jak można to zaobserwować w Polsce -) jakość prezentacji oferty.

Ze sprzedażą przez Internet wiąże się oferowanie oprogramowania sklepów internetowych, zarówno gotowego, jak i przygotowywanego na zamówienie.

Wspólnota (community) to coraz bardziej doceniana funkcja Internetu, polegająca na umożliwieniu grupie ludzi spotkania się w pewnym wirtualnym miejscu i wymianie poglądów, informacji czy odczuć. Może to być grupa dyskusyjna, lista dyskusyjna (oraz ich kombinacje, w tym z dostępem przez World Wide Web), rozmaicie rozwiązane miejsca pogawędek (kanał IRC i podobne).

Zawartość albo po prostu informacja (content) to prawdopodobnie najszerzej wykorzystywana właściwość Internetu, w ostatnich latach wyprzedzająca pocztę elektroniczną. Jest realizowana głównie przez usługę World Wide Web oraz uzupełniające ją usługi multimedialne, takie jak Real Audio czy Microsoft NetShow.

Internet stanowi bogate źródło informacji - o wydarzeniach, produktach, firmach, kursach akcji i walut, prognozach pogody. Można tu zamieszczać szybko zmieniające się dane takie jak kursy walut, najświeższe wiadomości, artykuły, hasła encyklopedyczne dotyczące opisów państw, pojęć czy biogramów. Co więcej, informacje te mogą być ze sobą połączone odnośnikami hipertekstowymi, tworząc niespotykany nigdzie indziej konglomerat.

Na umieszczaniu zawartości zarabia dostawca usług internetowych, tworząc tak zwaną witrynę firmy. Czasem dokonuje tego we współpracy ze studiem graficznym specjalizującym się w projektowaniu stron World Wide Web (Web design).

Drugą sferą tej działalności jest tworzenie serwisów informacyjnych w nadziei na zysk ze sprzedaży dostępu do nich, ich powierzchni reklamowej lub usług z nimi związanych. Tak właśnie postępują twórcy portali. Zagadnienie: 1.D Usługi informacyjne w Internecie

Internet nie jest organizmem jednolitym. Istnieją w nim różne usługi informacyjne, sposoby korzystania z zasobów Internetu czy sposoby prezentowania informacji. Różnią się one wymaganiami technicznymi - oprogramowaniem, a czasem także sprzętem komputerowym koniecznym do korzystania z danej usługi, co wiąże się z pewnym wymaganym poziomem wiedzy użytkowników. Różnią się także ilością użytkowników, a przede wszystkim formą przekazu i celem, w jakim są wykorzystywane.

Najważniejsze z nich to poczta elektroniczna, World Wide Web, grupy dyskusyjne Usenet, FTP.

Poczta elektroniczna (e-mail) to usługa posiadająca najwięcej użytkowników, polegająca na wymianie elektronicznych listów (e-mail messages) między dwoma osobami. Jest to odpowiednik wymiany listów na papierze. Przesyłanie sobie wiadomości w postaci elektronicznej ma wiele dobrych stron. Nie zmusza obu stron do podejmowania konwersacji w jednym czasie, jak to dzieje się z telefonem. List elektroniczny łatwiej jest wysłać: piszemy go na komputerze i jednym klawiszem wysyłamy, bez szukania koperty, znaczka i spacerów do skrzynki pocztowej. Jest to bardzo szybka forma komunikacji.

Do otrzymywania i wysyłania listów elektronicznych potrzebny jest program poczty elektronicznej i to pracujący we właściwym standardzie wymiany poczty. W Internecie używany jest standard SMTP (Simple Mail Transfer Protocol). Jego rozszerzeniem jest MIME (Multipurpose

Page 7: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

7

Internet Mail Extensions), pozwalające dołączać do listów pliki, zaznaczać tekst innym kolorem, wprowadzać do niego wytłuszczenie i pochylenie.

Aby uczynić pocztę internetową bardziej bezpieczną wymyślono szereg najróżniejszych programów kodujących. Godnym polecenia jest PGP, który umożliwia przesyłanie poczty w specjalnym zakodowanym formacie. Dodatkowo pozwala na cyfrowy podpis, dzięki któremu adresat naszego listu będzie miał pewność, że list pochodzi od nas i nikt go nie modyfikował po naszym podpisie. World Wide Web to usługa równie popularna niż poczta elektroniczna, ale bardzo głośna dzięki środkom masowego przekazu, polegająca na zapoznawaniu się z treścią połączonych ze sobą multimedialnych stron (Web pages) oraz ich tworzeniu. Jej odpowiednikiem mogą być gazety i książki. World Wide Web jest używana do publikacji informacji w formie elektronicznej. Może przesadą jest stwierdzenie, że jest ona największą rewolucją w sposobach publikacji od czasu wynalezienia maszyny drukarskiej - ale tylko niewielką przesadą. Każdy, kto posiada połączenie z siecią może zapełnić kawałek miejsca w "pajęczynie", budując własną stronę (home page), zyskując przez to szansę, że jego punkt widzenia poznają tysiące ludzi z całego świata.

Jest to sieć dokumentów powiązanych ze sobą odnośnikami hipertekstowymi, dokumentów multimedialnych, zawierających oprócz tekstu także grafikę, dźwięk, sekwencje wideo. Dokumenty te są umieszczone na serwerach HTTP (HyperText Transfer Protocol). Do odczytywania dokumentów czy też stron World-Wide Web przeznaczone są przeglądarki. Dokumenty World-Wide Web pisane są przy użyciu języka HTML, a najbardziej popularnym formatem graficznym jest GIF.

Grupy dyskusyjne Usenet (newsgroups) to mająca mniejszy zasięg, choć szybko rozwijająca się usługa pozwalająca na publiczne dyskusje w grupach poświęconych różnym zagadnieniom, podobna w wykorzystaniu do poczty elektronicznej; pokrewną usługą są listy dystrybucyjne, różniące się od grup sposobem rozsyłania wiadomości i dostępnością. Za odpowiednik można by przyjąć kluby dyskusyjne czy też wszelkiego rodzaju uporządkowane dyskusje.

Na świecie istnieje ponad dziesięć tysięcy grup dyskusyjnych na prawie każdy temat, zorganizowanych w całą hierarchię, widoczną w ich nazwach. W Polsce istnieje niemal dwieście grup dyskusyjnych i kilkanaście serwerów, na których są przechowywane.

Zapis działania grupy dyskusyjnej ma postać zbioru listów, z których każdy posiada temat, nadawcę i datę wysłania. Odpowiedzi (replies) na poruszane tematy powiązane są z pierwszym listem na dany temat. Wypowiedzi w dyskusji przechowywane są tylko przez pewien czas, zwykle tydzień, inaczej uczestnicy dyskusji szybko utonęliby w powodzi informacji. Niektóre grupy mają swoje archiwa w postaci dokumentów World-Wide Web.

Do korzystania z grup dyskusyjnych stworzono specjalne programy; można jednak i tu używać przeglądarek Netscape Navigator czy Internet Explorer; oba programy mają wbudowane moduły dyskusyjnych. Wystarczy znaleźć serwer grup dyskusyjnych blisko siebie i wybrać te grupy, które nas interesują.

Biblioteki plików FTP (File Transfer Protocol) to możliwość uzyskania programów, plików z grafiką lub dźwiękiem z zorganizowanych tematycznie bibliotek plików komputerowych (FTP sites), często powiązana ze stronami World Wide Web. Jest to odpowiednik wszelakiego rodzaju składowisk, sklepów, wypożyczalni, gdzie można wyszukać i otrzymać potrzebne rzeczy. Wysyłanie plików razem z pocztą jest dobre dla porozumiewania się dwóch osób. Przy większej liczbie użytkowników lepiej jest stworzyć bibliotekę plików i uczynić ją dostępną dla wszystkich (lub tylko dla wybranych).

Biblioteka plików jest zakładana na komputerze podłączonym do sieci, na którym pracuje program - serwer FTP. Całość - pliki, komputer i oprogramowanie, nazywana jest po prostu serwerem

Page 8: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

8

FTP albo miejscem (site) FTP, czasem też biblioteką FTP. Użytkownik ma do dyspozycji inny program - klient FTP, który pozwala na połączenie się z danym komputerem, wędrówkę po katalogach i wybieranie plików do przegrania. Starsze programy FTP były obsługiwane w trybie tekstowym, podobnie jak ARJ czy ZIP, trzeba było znać tu sporo "zaklęć" - poleceń i ich opcji. Nowe - pracują w trybie graficznym, z plikami i katalogami postępujemy jak w środowiskach graficznych takich jak Microsoft Windows.

Na świecie stworzono tysiące serwerów FTP. Na wielu z nich przechowywane są programy shareware. Producenci sprzętu i oprogramowania mają swoje własne serwery, gdzie dostępne są wersje demonstracyjne programów, najnowsze sterowniki (do kart wideo czy dźwiękowych, drukarek...) i materiały informacyjne. Do przeszukiwania bibliotek FTP i znajdowania konkretnych plików wraz z miejscami, skąd można je przegrać służy system Archie, który możemy używać przy pomocy specjalnego programu - klienta Archie.

Za transmisję plików w Internecie odpowiedzialny jest protokół FTP (File Transfer Protocol), pozwala on na dwustronne przesyłanie plików pomiędzy połączonymi ze sobą maszynami i odpowiada za ich prawidłowe funkcjonowanie, np. formularze na internetowych stronach itp., których zawartość jest następnie wysyłana do serwera, dane te są przetwarzane przez odpowiedni program czy też skrypt na samym serwerze.

Protokół FTP był zaprojektowany do następujących zastosowań: - do przesyłania, podtrzymania wspólnego używania plików (programy komputerowe lub dane); - do podtrzymania zdalnego używania komputerów; - do aktualizowania wersji programów na serwerach plików; - do dokładnej i skutecznej transmisji plików. Literatura

1. Krzysztof Pikoń, ABC Internetu, Helion, 2007. 2. Maria Sokół, Internet. Przewodnik, Helion , 2004. 3. INTERNET praktyczny przewodnik, Pascal, 2000.

Page 9: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

9

Temat 2 (2 godziny): Sieci komputerowe. Typy i topologie sieci LAN.

Zagadnienia tematyczne: A. Sprzęt sieciowy; B. Typy sieci; C. Topologie sieci LAN;

Sieć lokalna (LAN – Local Area Network) jest siecią przeznaczoną do łączenia ze sobą

stanowisk komputerowych znajdujących się na małym obszarze. Umożliwia ona wymianę plików oraz komunikatów pomiędzy użytkownikami, współużytkowanie zasobów udostępnionych w sieci np. plików i drukarek, a także korzystanie z innych usług. Sieci, w których funkcje serwerów i stacji roboczych nie są sztywno rozdzielone, nazywane są sieciami peer-to-peer, co w pewnym stopniu określa równoważność współpracujących komputerów. Zagadnienie: 2.A Sprzęt sieciowy.

W skład każdej dowolnej sieci komputerowej wchodzą, serwery, stacje robocze, karty sieciowe, kable oraz oprogramowanie sieciowe i użytkowe. Ponieważ współczesne produkty sprzętowe są zgodne z międzynarodowymi standardami, w tej samej sieci można wykorzystywać sprzęt różnych producentów.

Serwery Serwery to urządzenia funkcjonalne i urządzenia fizyczne. Serwerem może być moduł oprogramowania działający na zwykłym komputerze biurowym, „czarna skrzynka” posiadająca na zewnątrz tylko gniazdko zasilające i gniazdko do sieci Ethernet, a także komputer wielkości sporej lodówki z wentylatorami i chłodzeniem cieczą. Serwery zazwyczaj wyspecjalizowane są w wykonywaniu określonych funkcji, na które wskazuje przymiotnik dołączany do ich nazwy. Wyróżnić więc można serwery plików, serwery wydruków, serwery aplikacji i inne.

Jednym z podstawowych i dobrze znanych rodzajów serwerów jest serwer plików, który jest scentralizowanym mechanizmem składowania plików, z których korzystać mogą grupy użytkowników. Składowanie plików w jednym miejscu zamiast zapisywania ich w wielu różnych urządzeniach klienckich daje wiele korzyści, takich jak: - centralna lokalizacja -wszyscy użytkownicy korzystają z jednego, ustalonego magazynu współdzielonych plików, co nie wymusza wśród uzytkowników przeszukiwać wielu miejsc; - zabezpieczenie źródła zasilania - składowanie plików w centralnym serwerze umożliwia w celu utraty danych zastosowania urządzeń typu „UPS" nieprzerywalnego podtrzymywania napięcia (ang. Uninterruptible. Power Supply); - zorganizowane archiwizowanie danych - składowanie udostępnianych plików w jednym, wspólnym miejscu znacznie ułatwia tworzenie ich kopii zapasowych; - szybkość - standardowy serwer stanowi dużo bardziej niż typowy komputerklient niezawodną i w pełni konfigurowalną platformę. Przekłada się to bezpośrednio na znaczną, w stosunku do sieci równorzędnej, poprawę wydajności odczytywania plików. Serwery wydruków to serwery używane do współdzielenia drukarek przez użytkowników sieci lokalnej. Za pośrednictwem serwera wydruków, można udostępnić jedna lub kilka drukarek każdemu użytkownikowi sieci. Każda drukarka przyłączona do serwera wydruków ma swoja własną listę kolejności, czyli kolejkę, która informuje o porządku, w jakim wszystkie żądania są tymczasowo zapisywane i czekają na wydrukowanie. Żądania zwykle przetwarzane

Page 10: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

10

są w kolejności, w jakiej zostały otrzymane. Systemy operacyjne klientów, takie jak Windows 95 oraz Windows NT dla stacji roboczej (NT Workstation) firmy Microsoft umożliwiają udostępnianie (współdzielenie) drukarek.

Równie często serwery służą jako centralne składy oprogramowania użytkowego, są to tzw. serwery aplikacji. Aby móc uruchomić określony program, klient musi nawiązać w sieci połączenie z takim serwerem. Aplikacja jest następnie uruchamiana, ale nie na komputerze-kliencie, lecz na rzeczonym serwerze. Serwery umożliwiające klientom pobieranie kopii programów do uruchomienia na komputerach lokalnych to serwery plików. Serwery aplikacji umożliwiają organizacji zmniejszenie kosztów zakupu oprogramowania użytkowego. Koszty nabycia i konserwacji jednej, wielodostępnej kopii programu są zwykle dużo niższe od kosztów nabycia i konserwacji kopii instalowanych na pojedynczych komputerach.

Karty sieciowe Karta sieciowa, zwana także kartą adaptera LAN lub kartą interfejsu sieciowego (Network Interface Card – NIC) instalowana jest w złączu rozszerzeń lub na płycie głównej (systemowej) komputera klasy PC. Każda karta NIC posiada własny, unikatowy w skali światowej adres fizyczny, znany jako adres MAC, przyporządkowany w momencie jej produkcji przez producenta, zazwyczaj umieszczony na stałe w jej pamięci ROM. Karta sieciowa dokonuje konwersji niskonapięciowego strumienia danych równoległych z komputera na mocniejszy strumień danych szeregowych w kablu sieciowym i odwrotnie (rys. 3).

Rys. 3. Schemat karty sieciowej Do sterowania transmisją danych w kablu sieciowym karta sieciowa używa protokołów sterowania z dostępem do nośników. Wyróżniamy trzy rodzaje kart: wewnętrzne, zewnętrzne oraz PCMCIA.

Page 11: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

11

Kable Skrętka nieekranowana (UTP – Unshielded Twisted Pair). Kabel typu UTP (rys. 4) jest zbudowany ze skręconych z sobą par przewodów i tworzy linię zrównoważoną (symetryczną).

Rys. 4. Nieekranowana skrętka dwużyłowa (Unshielded Twisted Pair – UTP)

Tego typu kabel jest powszechnie stosowany w sieciach informatycznych i telefonicznych, przy czym istnieją różne technologie splotu, a poszczególne skrętki mogą mieć inny skręt. Dla przesyłania sygnałów w sieciach komputerowych konieczne są skrętki kategorii 3 (10 Mb/s) i kategorii 5 (100 Mb/s), przy czym powszechnie stosuje się tylko tą ostatnią. Nieekranowana skrętka dwużyłowa to ekonomiczna alternatywa dla sieci Ethernet z kablem koncentrycznym i dla sieci Token-Ring. Skręcenie przewodów zapewnia ekranowanie od zewnętrznych zakłóceń elektromagnetycznych. Nieekranowaną skrętkę dwużyłową zakańcza się zwykle modułowymi złączami RJ-45. Złącza używane ze skrętką UTP są tanie i – przy odrobinie doświadczenia i odpowiedniej staranności – łatwe w instalacji. W sieciach 10Base-T używa się tylko dwu par przewodów, pierwsza para wykorzystuje styki 1 i 2, a para druga styki 3 i 6. Nigdy nie ma tu potrzeby przekładania i krzyżowania par. W rzeczywistości należy uważać, aby nie pomieszać przewodów z różnych par, bo można w ten sposób utracić efekt ekranowania polem elektrycznym uzyskiwany przez skręcenie przewodów parami.

Przy podłączaniu przewodów do wtyczki RJ-45 powszechnie używa się określonej kolejności ośmiu przewodów. Spośród kilku możliwych obecnie najbardziej popularne są: EIA/TIA (rys. 5), Lucent/AT&T 258A, 356A i standard 10Base-T.

Page 12: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

12

Rys. 5. Standard EIA/TIA połączenia skrętki nieekranowanej UTP do wtyczki RJ-45 Skrętka foliowana (FTP – Foiled Twisted Pair). Jest to skrętka ekranowana za pomocą folii z przewodem uziemiającym (rys. 6).

Rys. 6. Ekranowana skrętka dwużyłowa (Shielded Twisted Pair – STP) Przeznaczona jest głównie do budowy sieci komputerowych umiejscowionych w ośrodkach o dużych zakłóceniach elektromagnetycznych. Stosowana jest również w sieciach Gigabit Ethernet (1 Gb/s) przy wykorzystaniu wszystkich czterech par przewodów. Skrętka ekranowana STP różni się od skrętki FTP tym, że ekran jest wykonany w postaci oplotu i zewnętrznej koszulki ochronnej. Jej zastosowanie wzrasta w świetle nowych norm europejskich EMC w zakresie emisji EMI (ElectroMagnetic Interference).

Poza wyżej wymienionymi można spotkać także hybrydy tych rozwiązań: FFTP – każda para przewodów otoczona jest osobnym ekranem z folii, cały kabel jest również pokryty folią.

Page 13: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

13

SFTP – każda para przewodów otoczona jest osobnym ekranem z folii, cały kabel pokryty jest oplotem. Kabel współosiowy (koncentryczny). Składa się z dwóch przewodów koncentrycznie umieszczonych jeden wewnątrz drugiego, co zapewnia większą odporność na zakłócenia a tym samym wyższą jakość transmisji. Jeden z nich wykonany jest w postaci drutu lub linki miedzianej i umieszczony w osi kabla (czasami zwany jest przewodem gorącym), zaś drugi (ekran) stanowi oplot. Powszechnie stosuje się dwa rodzaje kabli koncentrycznych – o impedancji falowej 50 i 75 , przy czym te pierwsze stosuje się m.in. w sieciach komputerowych (rys. 7).

Rys. 7. Kabel koncentryczny RG-8 Zastosowanie znalazły dwa rodzaje kabli koncentrycznych: - cienki Ethernet (Thin Ethernet) – (sieć typu 10Base-2) – kabel RG-58 o średnicy ¼” i dopuszczalnej długości segmentu sieci wynoszącej 185 m., stosowany nadal zwłaszcza tam, gdzie istnieje potrzeba połączenia na odległość większą niż 100 m. - gruby Ethernet (Thick Ethernet) – (sieć typu 10Base-5) – kable RG-8 i RG-11 o średnicy ½” i dopuszczalnej długości segmentu wynoszącej 500 m., nie stosowany obecnie, lecz można go spotkać jeszcze w bardzo starych sieciach. Oba kable mają impedancję falową 50 . Należy dodać, że impedancja kabla jest ściśle związana z impedancją urządzeń do niego podłączonych. Nie można więc bezkarnie stosować w sieciach komputerowych np. telewizyjnego kabla antenowego (o impedancji falowej 75 ), gdyż wykonana w ten sposób sieć najprawdopodobniej nie będzie po prostu działać. Zalety kabla koncentrycznego: - jest mało wrażliwy na zakłócenia i szumy; - nadaje się do sieci z przesyłaniem modulowanym (szerokopasmowym); - jest tańszy niż ekranowany kabel skręcany.

Obecnie kabel współosiowy jest stosowany tylko w bardzo małych sieciach (do 3-4 komputerów) stawianych możliwie najniższym kosztem. Wadą tego rozwiązania jest dosyć duża (w porównaniu z siecią na skrętce) awaryjność instalacji. Wykorzystywany jest również czasem do łączenia ze sobą skupisk stacji roboczych okablowanych w technologii gwiazdy zwłaszcza tam, gdzie odległość

Page 14: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

14

koncentratorów od siebie przekracza 100 m i nie jest wymagane stosowanie prędkości wyższych niż 10 Mb/s. Kabel światłowodowy Transmisja światłowodowa polega na prowadzeniu przez włókno szklane promieni optycznych generowanych przez laserowe źródło światła. Ze względu na znikome zjawisko tłumienia, a także odporność na zewnętrzne pola elektromagnetyczne, przy braku emisji energii poza tor światłowodowy, światłowód stanowi obecnie najlepsze medium transmisyjne. Kabel światłowodowy składa się z jednego do kilkudziesięciu włókien światłowodowych. Medium transmisyjne światłowodu stanowi szkło krzemionkowe (światłowody kwarcowe) lub fluorkowe ewentualnie włókna plastikowe (światłowody polimerowe), wykonane z polimerów: PMMA (polimetakrylanu metylu), FP (fluoropolimerów) albo PS (polistyrenu). Rzadziej stosuje się światłowody ciekłokrystaliczne (fotoniczne) i półprzewodnikowe. Dla promieni świetlnych o częstotliwości w zakresie bliskim podczerwieni współczynnik załamania światła w płaszczu jest mniejszy niż w rdzeniu, co powoduje całkowite wewnętrzne odbicie promienia i prowadzenie go wzdłuż osi włókna. Zewnętrzną warstwę światłowodu stanowi tzw. bufor wykonany zazwyczaj z akrylonu poprawiający elastyczność światłowodu i zabezpieczający go przed uszkodzeniami. Jest on tylko osłoną i nie ma wpływu na właściwości transmisyjne światłowodu (rys. 8).

Rys. 8. Przekrój światłowodu

Wyróżnia się światłowody jedno- oraz wielomodowe. Światłowody jednomodowe oferują większe pasmo przenoszenia oraz transmisję na większe odległości niż światłowody wielomodowe. Niestety koszt światłowodu jednomodowego jest wyższy. Zazwyczaj przy transmisji typu full-duplex stosuje się dwa włókna światłowodowe do oddzielnej transmisji w każdą stroną, choć spotykane są rozwiązania umożliwiające taką transmisję przy wykorzystaniu tylko jednego włókna.

W porównaniu z przewodami miedzianymi kable światłowodowe mają wiele zalet, a w tym całkowitą niewrażliwość na zakłócenia elektryczne, małą średnicę, pozwalającą na bezproblemową instalację w kanałach budynku oraz możliwość szybkiej transmisji dużych ilości danych na znaczne odległości. Zagadnienie: 2.B Typy sieci.

Typ sieci opisuje sposób, w jaki przyłączone do sieci zasoby są udostępniane. Zasobami mogą być klienci, serwery lub inne urządzenia, pliki itd.., które do klienta lub serwera są przyłączone Wśród sieci komputerowych rozróżnia się następujące typy sieci: - równorzędne (każdy-z-każdym);

Page 15: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

15

- oparte na serwerach (klient-serwer); - mieszane.

Sieć typu każdy-z-każdym obsługuje nieustrukturalizowany dostęp do zasobów sieci. Każde urządzenie w tego typu sieci może być jednocześnie zarówno klientem, jak i serwerem. Wszystkie urządzenia takiej sieci są zdolne do bezpośredniego pobierania danych, programów i innych zasobów. Innymi słowy, każdy komputer pracujący w takiej sieci jest równorzędny w stosunku do każdego innego - w sieciach tego typu nie ma hierarchii (rys. 9).

Rys. 9. Typ sieci każdy-z-każdym

Korzystanie z sieci równorzędnej daje wiele, przedstawionych poniżej korzyści: 1. Sieci typu każdy-z-każdym są w miarę łatwe do wdrożenia i w obsłudze. Są bowiem niczym więcej jak tylko zbiorem komputerów- klientów, obsługiwanych przez sieciowy system operacyjny umożliwiający udostępnianie równorzędne. Tworzenie sieci każdy-z-każdym wymaga jedynie dostarczenia i zainstalowania koncentratora (lub koncentratorów) sieci LAN, komputerów, okablowania oraz systemu operacyjnego pozwalającego na korzystanie z tej metody dostępu do zasobów. 2. Sieci typu każdy-z-każdym są bardzo tanie w eksploatacji. Nie wymagają one drogich i skomplikowanych serwerów dedykowanych, nad którymi należy roztaczać administracyjną opiekę i które trzeba klimatyzować. 3. Brak dedykowanych serwerów eliminuje również towarzyszące im wydatki związane z zatrudnianiem i szkoleniem pracowników, jak również z dodatkowymi kosztami tworzenia pomieszczeń klimatyzowanych wyłącznie dla serwerów. 4. Sieci typu każdy-z-każdym mogą być ustanawiane przy wykorzystaniu prostych systemów operacyjnych, takich jak Windows for Workgroups, Windows98 czy Windows NT. 5. Brak hierarchicznej zależności sprawia, że sieci każdy-z-każdym są dużo odporniejsze na błędy aniżeli sieci oparte na serwerach. Teoretycznie w sieci typu klient-serwer serwer jest pojedynczym punktem defektu. Pojedyncze punkty defektu są miejscami, których niesprawność spowodować może awarię całej sieci. W sieciach typu każdy-z-każdym uszkodzenie jednego komputera powoduje niedostępność jedynie przyłączonej do niego części zasobów sieci.

Sieci każdy-z-każdym niosą ze sobą również ryzyko i ograniczenia. Niektóre z nich dotyczą sfer bezpieczeństwa, wydajności i administracji. Sieć każdy-z-każdym charakteryzuje się następującymi słabościami z zakresu bezpieczeństwa: 1. Użytkownicy muszą pamiętać wiele haseł, zwykle po jednym dla każdego komputera wchodzącego w skład sieci.

Page 16: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

16

2. Brak centralnego składu udostępnianych zasobów zmusza użytkownika do samodzielnego wyszukiwania informacji. Niedogodność ta może być ominięta za pomocą metod i procedur składowania, przy założeniu jednak, że każdy członek grupy roboczej będzie się do nich stosować. 3. Bezpieczeństwo całej sieci jest tak chronione jej najsłabiej zabezpieczony w niej komputer. 4. Obciążenie czynnościami administracyjnymi w sieci każdy-z-każdym jest mniejsze niż w sieci klient-serwer, to jest ono rozłożone na wszystkich członków grupy. Jest to przyczyną powstawania niektórych problemów logistycznych. Najpoważniejszym jest nieskoordynowane i niekonsekwentne tworzenie kopii zapasowych danych oraz oprogramowania;

Sieci typu każdy-z-każdym mają dwa główne zastosowania. Pierwsze - są one idealne dla małych instytucji z ograniczonym budżetem technologii informacyjnych i ograniczonymi potrzebami współdzielenia informacji. Drugie - to zastosowanie tego rodzaju sieci do ściślejszego współdzielenia informacji w ramach grup roboczych wchodzących w skład większych organizacji.

Sieci oparte na serwerach wprowadzają hierarchię, która ma na celu zwiększenie sterowalności różnych funkcji obsługiwanych przez sieć w miarę, jak zwiększa się jej skala. Często sieci oparte na serwerach nazywa się sieciami typu klient-serwer (rys. 10).

Rys. 10. Typ sieci klient-serwer

W sieciach klient-serwer zasoby często udostępniane gromadzone są w komputerach odrębnej warstwy zwanych serwerami. Serwery zwykle nie mają użytkowników bezpośrednich. Są one raczej komputerami wielodostępnymi, które regulują udostępnianie swoich zasobów szerokiej rzeszy klientów.

Sieci oparte na serwerach są dużo bezpieczniejsze niż sieci równorzędne, charakteryzują się większą wydajnością. Zwykle serwer cechuje się większą mocą przetwarzania, większą ilością pamięci i większym, szybszym dyskiem twardym niż komputer-klient. Dzięki temu żądania komputerów-klientów mogą być obsłużone lepiej i szybciej. Sieć serwerowa ma jedno tylko ograniczenie: zainstalowanie i obsługa tego rodzaju sieci kosztuje dużo więcej niż sieci typu każdy-z- każdym. Owa różnica w cenie wynika przede wszystkim z kosztów sprzętu i oprogramowania oraz kosztów obsługi sieci (potrzeba zatrudnienia wyszkolonego

Page 17: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

17

pracownika specjalnie do administrowania i obsługi sieci). Ostatnią przyczyną wyższych kosztów sieci serwerowej jest większy koszt ewentualnego czasu przestoju. W sieci każdy-z-każdym wyłączenie lub uszkodzenie jednego komputera powoduje niewielkie jedynie zmniejszenie dostępnych zasobów sieci lokalnej. Natomiast w sieci lokalnej opartej na serwerze, uszkodzenie serwera może mieć znaczny i bezpośredni wpływ na praktycznie każdego uczestnika sieci. Powoduje to zwiększenie potencjalnego ryzyka użytkowego sieci serwerowej.

Sieci mieszane to sieci będące mieszanką sieci równorzędnych (każdy-z-każdym) i serwerowych (opartych na serwerze). Przykładem tego rodzaju sieci jest sieć o architekturze serwerowej grupującej centralnie zasoby, które powinny być ogólnodostępne. W ramach takiej organizacji sieci, udostępnianie zasobów wewnątrz lokalnych grup roboczych może nadal odbywać się na zasadzie dostępu równorzędnego. Zagadnienie: 2.C Topologie sieci LAN.

Topologia LAN określa sposób wzajemnego połączenia stacji w sieci. Rozróżnia się topologie fizyczne i logiczne. Topologia fizyczna określa sposób fizycznego połączenia stacji i urządzeń sieciowych. Topologia logiczna zaś sposób ich komunikacji między sobą. Wyróżnia się następujące najczęściej stosowane fizyczne topologie LAN: - magistrali (bus) – wszystkie stacje robocze w sieci dołączone są do jednej wspólnej szyny (rys. 11), - pierścienia (ring) – stacje sieciowe podłączone są do okablowania tworzącego pierścień. Topologię pierścienia stosuje się w technologiach Token Ring/IEEE 802.5 i FDDI (rys. 12), - gwiazdy (star) – kable sieciowe połączone są w jednym wspólnym punkcie, w którym znajduje się koncentrator lub przełącznik (rys. 13), - drzewiasta (tree) – (hierarchiczna gwiazda) – jest strukturą podobną do topologii gwiazdy z tą różnicą, że są tu możliwe gałęzie z wieloma węzłami, - mieszana – stanowi połączenie sieci o różnych topologiach. Sieci LAN typu magistrala (Ethernet 10Base-2) Zbudowane są z wykorzystaniem kabla koncentrycznego o impedancji 50 – RG-58 (tzw. cienki koncentryk). Długość jednego segmentu sieci (czyli od jednego końca do drugiego) nie powinna dla cienkiego koncentryka przekraczać 185 m (w pewnych warunkach – zastosowanie dobrych kart sieciowych, dobrej jakości kabla oraz małym poziomie zakłóceń zewnętrznych – możliwe jest osiągnięcie połączenia nawet na odległość do 300 m, lecz nie jest to zalecane, a tym bardziej objęte normami). Komputery są dołączone do kabla za pomocą trójników. Każdy segment sieci musi być ponadto na końcach wyposażony w terminatory o oporności przystosowanej do impedancji falowej kabla (powszechnie jest to 50 ). Prędkość połączenia jest ograniczona do 10 Mb/s zaś minimalna długość segmentu wynosi 0,5 m. Jeden segment nie powinien zawierać więcej, niż 30 komputerów ze względu na duży spadek wydajności sieci przy dalszym ich zwiększaniu. Zalety: - stosunkowo niski koszt instalacji w porównaniu z siecią zbudowaną w oparciu o skrętkę. Wady: - trudności w lokalizowaniu usterki zwłaszcza przy większej liczbie komputerów; - podłączenie nowego stanowiska wymaga rozpięcia kabla; - awaria lub rozpięcie kabla skutkuje unieruchomieniem całego segmentu sieci; - niezawodność jest niższa, niż sieci opartych na skrętce; - prędkość przesyłu danych ograniczona do 10 Mb/s.

Page 18: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

18

S D

Rys. 11. Topologia magistrali Sieci LAN typu pierścień Pierwszą topologią pierścieniową była topologia prostej sieci równorzędnej. Każda przyłączona do sieci stacja robocza ma w ramach takiej topologii dwa połączenia: po jednym do każdego ze swoich najbliższych sąsiadów. Połączenie takie musiało tworzyć fizyczną pętlę, czyli pierścień. Dane przesyłane były wokół pierścienia w jednym kierunku. Każda stacja robocza działała podobnie jak wzmacniak, pobierając i odpowiadając na pakiety do niej zaadresowane, a także przesyłając dalej pozostałe pakiety do następnej stacji roboczej wchodzącej w skład sieci. Pierwotna, pierścieniowa topologia sieci LAN umożliwiała tworzenie połączeń równorzędnych między stacjami roboczymi. Połączenia te musiały być zamknięte; czyli musiały tworzyć pierścień. Korzyść płynąca z takich sieci LAN polegała na tym, że czas odpowiedzi był możliwy do ustalenia. Im więcej urządzeń przyłączonych było do pierścienia, tym dłuższy był ów czas. Ujemna strona tego rozwiązania polegała na tym, że uszkodzenie jednej stacji roboczej najczęściej unieruchamiało całą sieć pierścieniową.

Rys. 12. Topologia pierścienia

Page 19: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

19

Sieci LAN typu gwiazda (Ethernet - 10Base-T, Fast Ethernet - 100Base-TX) Jest powszechnie stosowana ze względu na dużo mniejszą awaryjność, niż sieć zbudowana w oparciu o kabel koncentryczny. Długość kabla od koncentratora do komputera nie powinna przekraczać 100 m. Praktyka dowodzi jednak, że sieć 10Base-T działa w sprzyjających warunkach do około 150 metrów zaś 100Base-TX do około 120 metrów (przy zastosowaniu dobrej jakości kart sieciowych i dobrego kabla, jego ekranowania oraz niskich zakłóceniach zewnętrznych). Należy jednak pamiętać, że w obu przypadkach przekroczona jest norma długości i nie należy robić takich rzeczy w zastosowaniach profesjonalnych. Zalety: - łatwa instalacja (standardowo instalowane w nowych budynkach); - duża niezawodność; - awaria bądź rozpięcie kabla powoduje tylko odcięcie jednego stanowiska; - stosunkowa łatwość lokalizacji usterki. Wady: - ograniczona długość odcinków kabla z uwagi na małą odporność na zakłócenia; - większy koszt instalacji niż w przypadku kabla koncentrycznego.

Sieć 100Base-TX jest (podobnie, jak 10Base-T) oparta o transmisję przy wykorzystaniu dwóch par skrętki. Pozostałe dwie nie są wykorzystywane aczkolwiek nie zaleca się ich stosowania do innych celów (np. podłączenia jeszcze jednego komputera) ze względu na możliwość powstania zakłóceń pomiędzy liniami. W 1999 roku został ostatecznie zdefiniowany przez normę IEEE 802.3ab standard 1000Base-T umożliwia on transmisję z szybkością 1000 Mb/s przez skrętkę kategorii 5 na odległość do 100 m.

SD

19 20 2 1 22 2 3 2413 1 4 15 1 6 1 7 1 87 8 9 1 0 11 1 21 2 3 4 5 6

43 44 4 5 46 4 7 4837 3 8 39 4 0 4 1 4 231 3 2 33 3 4 35 3 62 5 2 6 2 7 2 8 29 3 0

Rys. 13. Topologia gwiazdy

Połączenia w sieci LAN o małych rozmiarach i topologii gwiazdy rozchodzą się z jednego wspólnego punktu. Każde urządzenie przyłączone do takiej sieci może inicjować dostęp do nośnika niezależnie od innych przyłączonych urządzeń. Topologie gwiazdy stały się dominującym we współczesnych sieciach LAN rodzajem topologii. Są one elastyczne, skalowalne i stosunkowo tanie w porównaniu z bardziej skomplikowanymi sieciami LAN o ściśle regulowanych metodach dostępu.

Page 20: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

20

Gwiazdy przyczyniły się do dezaktualizacji magistral i pierścieni, formując tym samym podstawy pod ostateczną (obecnie przynajmniej) topologię sieci LAN -topologię przełączaną. Literatura

1. Mark Sportach, Sieci komputerowe. Księga Eksperta, Helion, 1999. 2. Andrew S. Tanenbaum, Sieci komputerowe, Helion, 2004. 3. Peter Kuo, John Pence, Sieci komputerowe oparte na Windows NT i 98, Helion, 2000.

Page 21: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

21

Temat 3 (2 godziny): Sieci komputerowe. Sieci lokalne.

Zagadnienia tematyczne: A. Oznaczenia standardów sieci; B. Sposoby transmisji i adresowania; C. Urządzenia sieciowe;

Zagadnienie: 3.A Oznaczenia standardów sieci.

Standard sieci Ethernet został zdefiniowany przez IEEE (Institute of Electrical and Electronic Engineers) w normie o oznaczeniu 802.3. Oryginalna norma 802.3 definiuje standard sieci oznaczony jako 10Base-5. Kolejne odmiany tej technologii oznaczane są dodatkowymi przyrostkami literowymi. Są to między innymi: 802.3a (10Base-2), 802.3i (10Base-T), 802.3j (10Base-F), 802.3u (100Base-T4, 100Base-TX, 100Base-FX), 802.3z (1000Base-F), 802.3ab (1000Base-T), 802.3ae (10000Base-F).

Spis wszystkich norm z rodziny 802.3 można znaleźć na witrynie internetowej IEEE pod adresem http://standards.ieee.org.

Ogólny schemat oznaczania przepływności oraz rodzaju medium stosowanego w sieciach Ethernet składa się z następujących części: - przepustowości wyrażonej w Mb/s – 10, 100, 1000; - rodzaj transmisji:

- Base – transmisja w paśmie podstawowym (Baseband Network) - Broad – transmisja przy wykorzystaniu częstotliwości nośnej (Broadband Network)

- rodzaj zastosowanego medium - 2 – cienki kabel koncentryczny (Thin Ethernet) - 5 – gruby kabel koncentryczny (Thick Ethernet) - T – skrętka (Twisted Pair) - F – światłowód (Fiber Optic)

- dodatkowe oznaczenie - X – transmisja po jednej parze w każdą stronę (dla 100Base-T i 100Base- - 4 – transmisja przy wykorzystaniu 4 par na raz oraz kabla miedzianego kat. 3, 4 lub 5 (dla 100Base-T) - L – zwiększona długość segmentu do 2000 m (dla 10Base-F)

Nie są to oczywiście wszystkie możliwe oznaczenia, a jedynie te najczęściej stosowane. Zagadnienie: 3.B Sposoby transmisji i adresowania.

Protokół IP opisuje każdy węzeł w sieci za pomocą adresu numerycznego. IP opiera się na metodzie adresowania wykorzystującej serię czterech liczb oddzielonych kropkami, zwanych oktetami. Typowy adres IP może wyglądać tak:

212.14.30.254 Liczby w adresie IP nazywają się oktetami, ponieważ w postaci binarnej mają one osiem bitów.

Te osiem bitów daje w sumie 256 kombinacji, więc każdy oktet przedstawia liczbę od 0 do 255. Twórcy obecnego systemu adresowania IP zajmują się przejrzystą i ekonomiczną dystrybucją bloków adresów wśród organizacji o różnej wielkości. Ustanowione zostały trzy klasy adresów, a przynależność do danej klasy wskazuje wartość pierwszego oktetu w adresie IP. – jeśli pierwszy oktet ma wartość z zakresu od 1 do 127, adres należy do klasy A; –jeśli pierwszy oktet ma wartość od 128 do 191, adres należy do klasy B;

Page 22: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

22

– jeśli wartość pierwszego oktetu leży w przedziale od 192 do 223, adres należy do klasy C (rys. 14).

Rysunek 14. Schemat adresowania numerami IP

W adresach klasy A tylko pierwszy oktet wskazuje adres sieci; pozostałe trzy oktety opisują

unikatowy adres węzła w sieci. Więc choć jest tylko 127 adresów sieci klasy A, każdy taki adres może obejmować w przybliżeniu 17 milionów węzłów. Jak nietrudno zgadnąć, adresy klasy A zostały przyznane organizacjom rządowym i wielkim instytucjom. Adresy klasy B używają pierwszych dwóch oktetów do wskazania adresu sieci i ostatnich dwóch jako unikatowego węzła sieci. Z uwagi na większą długość, adresów klasy C jest więcej, ale w ramach każdego można unikatowo opisać tylko około 65 000 węzłów. W adresach klasy C używa się pierwszych trzech oktetów jako adresu sieciowego i tylko ostatniego oktetu jako adresu węzła. Stąd wiele dostępnych adresów klasy C, ale każdy z nich może być użyty tylko do 264 węzłów. W rzeczywistości adresy klasy A są już dawno zajęte, a adresy klasy B są rzadkością. Chociaż wiele adresów klasy C jest wciąż dostępnych, w przypadku sieci z wieloma węzłami może pojawić się potrzeba kilku takich adresów. Wolne bloki adresów IP są rzadkością z powodu nieefektywności w systemie klas. Jeśli mała firma z kilkunastoma węzłami chce się podłączyć do Internetu, jedynym wyjściem jest przyznanie jej adresu klasy C. To z kolei daje tej firmie kontrolę nad ponad dwustoma adresami węzłów, z których nikt inny nie będzie mógł skorzystać.

Każda dowolna stacja w sieci lokalnej może rozpocząć transmisję w sieci tylko wtedy, gdy medium transmisyjne nie jest zajęte (czyli, gdy nie nadaje w tym samym momencie żadna inna stacja), więc potrzebna jest metoda umożliwiająca współpracę wielu komputerów w sieci lokalnej. Protokoły LAN używają jednej z następujących metod dostępu do medium: - CSMA/CD (Carrier Sense Multiple Access with Collision Detection – wielodostęp z rozpoznawaniem stanu kanału oraz wykrywaniem kolizji) – stacje chcące nadawać konkurują między sobą o dostęp do medium. Stacja może zacząć nadawanie jeśli stwierdzi, że medium transmisyjne nie jest w danym momencie zajęte. Jeżeli jednak zdarzy się tak, że po stwierdzeniu braku zajętości medium dwie stacje zaczną nadawać jednocześnie (czyli nastąpi kolizja), sytuacja taka jest wykrywana, zaś transmisja jest ponawiana po losowym odstępie czasu. Metoda ta wykorzystywana jest w sieciach Ethernet. - Token Passing – (przekazywanie znacznika) – stacje sieciowe uzyskują dostęp do medium w zależności od tego, gdzie w aktualnej chwili znajduje się tzw. token (przekazywana pomiędzy komputerami specjalna ramka sterująca).Tą metodę dostępu stosuje się w sieciach Token Ring i FDDI.

Wyróżnia się trzy sposoby transmisji i adresowania w LAN:

Page 23: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

23

1. Transmisja pojedyncza (Unicast) – stacja nadawcza adresuje pakiet używając adresu stacji odbiorczej. Pojedynczy pakiet jest wysyłany przez stację nadawczą do stacji odbiorczej. 2. Transmisja grupowa (Multicast) – stacja nadawcza adresuje pakiet używając adresu multicast. Pojedynczy pakiet danych jest wysyłany do grupy stacji sieciowych (określonej przez adres multicast). 3. Transmisja rozgłoszeniowa (Broadcast) – stacja nadawcza adresuje pakiet używając adresu broadcast. W tym typie transmisji pakiet jest wysyłany do wszystkich stacji sieciowych.

Współdziałanie produktów różnych producentów wymaga, aby różne platformy rozpoznawały się wzajemnie oraz wiedziały, w jaki sposób mogą się ze sobą komunikować i współdzielić dane. Wymogi te przyczyniły się do rozwoju uniwersalnych standardów dotyczących każdego aspektu sieciowego przetwarzania danych. Potrzeba standaryzacji zwiększyła wysiłki organizacji zajmujących się normalizowaniem. Dziś za określanie krajowych i międzynarodowych standardów regulujących różne aspekty technologii informatycznych odpowiedzialnych jest wiele różnych organizacji. Najczęściej współpracują one ze sobą w celu ustanowienia jak najbardziej uniwersalnego zbioru standardów.

Na początku lat siedemdziesiątych organizacja ISO Międzynarodowa Organizacja Normalizacyjna (International Standards Organization) z siedzibą w Genewie opracowała standardowy model systemów komunikacji danych i nazwała go modelem Współdziałania systemów otwartych (Open Systems Interconnection – OSI). Model OSI składa się z siedmiu warstw, opisujących procesy zachodzące podczas połączenia terminala z komputerem lub komputera z innym komputerem. Model ten został opracowany z myślą o ułatwieniu budowy systemów, w których mogłyby ze sobą współpracować urządzenia pochodzące od różnych producentów.

O modelu OSI można myśleć, jak o wielowarstwowym torcie, takim jak przedstawiony na rysunku 15. Podstawą wszystkich wyższych warstw jest znajdująca się najniżej warstwa fizyczna, którą tworzą przewody i złącza.

Rys. 15. Warstwy modelu OSI

Page 24: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

24

Warstwy OSI: - warstwa 7 – Aplikacji. Jest bramą, przez którą procesy aplikacji dostają się do usług sieciowych. Ta warstwa prezentuje usługi, które są realizowane przez aplikacje (przesyłanie plików, dostęp do baz danych, poczta elektroniczna itp.). - warstwa 6 – Prezentacji danych. Odpowiada za format używany do wymiany danych pomiędzy komputerami w sieci. Na przykład kodowanie i dekodowanie danych odbywa się w tej warstwie. Większość protokołów sieciowych nie zawiera tej warstwy. - warstwa 5 – Sesji. Pozwala aplikacjom z różnych komputerów nawiązywać, wykorzystywać i kończyć połączenie (zwane sesją). Warstwa ta tłumaczy nazwy systemów na właściwe adresy (na przykład na adresy IP w sieci TCP/IP). - warstwa 4 – Transportu. Jest odpowiedzialna za dostawę wiadomości, które pochodzą z warstwy aplikacyjnej. U nadawcy warstwa transportu dzieli długie wiadomości na kilka pakietów, natomiast u odbiorcy odtwarza je i wysyła potwierdzenie odbioru. Sprawdza także, czy dane zostały przekazane we właściwej kolejności i na czas. W przypadku pojawienia się błędów warstwa żąda powtórzenia transmisji danych. - warstwa 3 – Sieciowa. Kojarzy logiczne adresy sieciowe i ma możliwość zamiany adresów logicznych na fizyczne. U nadawcy warstwa sieciowa zamienia duże pakiety logiczne w małe fizyczne ramki danych, zaś u odbiorcy składa ramki danych w pierwotną logiczną strukturę danych. - warstwa 2 – Łącza transmisyjnego (danych). Zajmuje się pakietami logicznymi (lub ramkami) danych. Pakuje nieprzetworzone bity danych z warstwy fizycznej w ramki, których format zależy od typu sieci: Ethernet lub Token Ring. Ramki używane przez tą warstwę zawierają fizyczne adresy nadawcy i odbiorcy danych. - warstwa 1 – Fizyczna. Przesyła nieprzetworzone bity danych przez fizyczny nośnik (kabel sieciowy lub fale elektromagnetyczne w przypadku sieci radiowych). Ta warstwa przenosi dane generowane przez wszystkie wyższe poziomy.

Warstwy 1 do 4 są to tzw. warstwy niższe (transport danych) zaś warstwy 5 do 7 to warstwy wyższe (aplikacje). Model OSI nie odnosi się do jakiegokolwiek sprzętu lub oprogramowania. Zapewnia po prostu strukturę i terminologię potrzebną do omawiania różnych właściwości sieci. Uproszczony czterowarstwowy model sieci TCP/IP.

Siedmiowarstwowy model OSI nie jest dokładnym wykazem – daje jedynie wskazówki, jak

organizować wszystkie usługi sieciowe. W większości zastosowań przyjmuje się model warstwowy usług sieciowych, który może być odwzorowany w modelu odniesienia OSI. Na przykład model sieciowy TCP/IP można adekwatnie wyrazić przez uproszczony model odniesienia. Aplikacje sieciowe zazwyczaj zajmują się trzema najwyższymi warstwami (sesji, prezentacji i aplikacji) siedmiowarstwowego modelu odniesienia OSI. Stąd te trzy warstwy mogą być połączone w jedną zwaną warstwą aplikacyjną. Dwie najniższe warstwy modelu OSI (fizyczną i łącza transmisyjnego) także można połączyć w jedną warstwę. W efekcie otrzymujemy uproszczony czterowarstwowy model: - warstwa 4 – Aplikacyjna – poczta, transmisja plików, telnet; - warstwa 3 – Transportu – TCP (Transmission Control Protocol) – protokół sterujący transmisją; - warstwa 2 – Sieciowa – IP (Internet Protocol) – protokół internetowy; - warstwa 1 – Fizyczna – Ethernet (karta sieciowa i połączenia sieciowe). W każdej z tych warstw informacje są wymieniane przez jeden z wielu protokołów sieciowych.

Page 25: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

25

Protokoły sieciowe. Protokół sieciowy wyjaśnia cały uprzednio uzgodniony przez nadawcę i odbiorcę proces wymiany danych na określonej warstwie modelu sieciowego. W uproszczonym czterowarstwowym modelu sieciowym można wyróżnić następujące protokoły:

- Protokoły warstwy fizycznej: Ethernet, Token Ring - Protokoły warstwy sieciowej: protokół internetowy (IP) będący częścią zestawu protokołów TCP/IP - Protokoły warstwy transportu: protokół sterowania transmisją w sieci (TCP/IP) i protokół datagramów użytkownika (UDP), które są częścią zestawu protokołów TCP/IP - Protokoły warstwy aplikacyjnej: protokół przesyłania plików (FTP), prosty protokół przysłania poczty (SMTP), usługi nazewnicze domen (DNS), telnet, protokół przesyłania hipertekstu (HTTP), prosty protokół zarządzania siecią (SNMP), które także są częścią zestawu protokołów TCP/IP

Określenie „zestaw protokołów” oznacza dwa lub więcej protokołów z tych warstw, które stanowią podstawę sieci. Kilka najlepiej znanych zestawów protokołów to: - zestaw protokołów IPX/SPX („międzysieciowa wymiana pakietów”/ sekwencyjna wymiana pakietów”) używany przez system Novell Netware - NetBIOS i NetBEUI („rozszerzony interfejs użytkownika podstawowego sieciowego systemu wejścia/wyjścia”) zaprojektowane przez firmę IBM, wykorzystywany m.in. przez system operacyjny Microsoftu. Ponadto NetBIOS może być tunelowany dowolnym innym protokołem np. IPX lub TCP/IP - zestaw protokołów TCP/IP („protokół kontroli transmisji”/„protokół internetowy”) używany powszechnie w Internecie oraz sieciach lokalnych mających do niego dostęp.

Podstawowym protokołem w sieci Internet jest protokół TCP/IP. Najniżej w hierarchii stoi protokół IP (Internet Protocol). Pakietowy sposób przesyłu danych wymaga, aby informacje przesyłaną podzielić na ściśle określone części - pakiety. Każdy z takich pakietów, dzięki protokołowi IP, otrzymuje nagłówek, który pełni rolę etykiety adresowej. Znajdują się tam takie informacje jak: adres nadawcy i odbiorcy, długość pakietu, suma kontrolna i inne. Z danych tych korzystają m.in. routery, aby właściwie dostarczyć dane do adresata. Jednak protokół IP "nie interesuje się" co się dzieje z pakietami po wysłaniu, dlatego potrzebny jest dodatkowy protokół TCP (Transmission Control Protocol), który jest nadrzędny wobec IP i dba o to, aby pakiety dotarły w całości do adresata. Do każdego pakietu dołącza on swoją część nagłówka, w której m.in. numeruje wszystkie wychodzące pakiety i oczekuje odpowiedzi od serwera adresata czy wszystkie przesyłki dotarły, jeżeli nie, ponawia wysyłanie zagubionych części. W nagłówku TCP znajduje się również nr portu, który identyfikuje określoną usługę w sieci. Po dotarciu do serwera docelowego, serwer właśnie po tym numerze stwierdza, który z programów ma zająć się obsługą otrzymanych danych. Zagadnienie: 3.C Urządzenia sieciowe.

Sieci komputerowe buduje się z biernych i aktywnych urządzeń sieciowych. Bierne urządzenia sieciowe to komponenty systemów okablowania strukturalnego. Do aktywnych urządzeń sieci LAN należą: - regenerator (repeater) – jest urządzeniem pracującym w warstwie fizycznej modelu OSI, stosowanym do łączenia segmentów kabla sieciowego. Regenerator odbierając sygnały z jednego segmentu sieci wzmacnia je, poprawia ich parametry czasowe i przesyła do innego segmentu. Może łączyć segmenty sieci o różnych mediach transmisyjnych.

Page 26: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

26

- koncentrator (hub) – jest czasami określany jako wieloportowy regenerator. Służy do tworzenia fizycznej gwiazdy przy istnieniu logicznej struktury szyny lub pierścienia. Pracuje w warstwie 1 (fizycznej) modelu OSI. Pakiety wchodzące przez jeden port są transmitowane na wszystkie inne porty. Wynikiem tego jest fakt, że koncentratory pracują w trybie half-duplex (transmisja tylko w jedną stronę w tym samym czasie). - przełącznik (switch) – są urządzeniami warstwy łącza danych (warstwy 2) i łączą wiele fizycznych segmentów LAN w jedną większą sieć. Przełączniki działają podobnie do koncentratorów z tą różnicą, że transmisja pakietów nie odbywa się z jednego wejścia na wszystkie wyjścia przełącznika, ale na podstawie adresów MAC kart sieciowych przełącznik uczy się, a następnie kieruje pakiety tylko do konkretnego odbiorcy co powoduje wydatne zmniejszenie ruchu w sieci. W przeciwieństwie do koncentratorów, przełączniki działają w trybie full-duplex (jednoczesna transmisja w obu kierunkach). Przełączniki działają w oparciu o jeden z dwóch trybów pracy: cut through (przełączanie bezzwłoczne) oraz store&forward (zapamiętaj i wyślij). - przełącznik VLAN – jest odmianą przełącznika umożliwiającą tworzenie wirtualnych sieci LAN, których stanowiska są zlokalizowane w różnych punktach (sieciach, podsieciach, segmentach), zaś w sieć wirtualną łączy je jedynie pewien klucz logiczny. Sieć taka pozwala optymalizować natężenie ruchu pakietów w poszczególnych częściach sieci. Możliwa jest również łatwa zmiana konfiguracji oraz struktury logicznej takiej sieci. - most (bridge) – służy do przesyłania i ew. filtrowania ramek między dwoma sieciami przy czym sieci te niekoniecznie muszą być zbudowane w oparciu o takie samo medium transmisyjne. Śledzi on adresy MAC umieszczane w przesyłanych do nich pakietach. Mosty nie mają dostępu do adresów warstwy sieciowej, dlatego nie można ich użyć do dzielenia sieci opartej na protokole TCP/IP na dwie podsieci IP. To zadanie mogą wykonywać wyłącznie routery. Analizując adresy sprzętowe MAC, urządzenie wie, czy dany pakiet należy wyekspediować na drugą stronę mostu, czy pozostawić bez odpowiedzi. Mosty podobnie jak przełączniki przyczyniają się w znacznym stopniu do zmniejszenia ruchu w sieci. - router – urządzenie wyposażone najczęściej w kilka interfejsów sieciowych LAN, porty obsługujące sieć WAN, pracujący wydajnie procesor i oprogramowanie zawiadujące ruchem pakietów przepływających przez router. W sieciach lokalnych stosowane są, gdy sieć chcemy podzielić na dwie lub więcej podsieci. Segmentacja sieci powoduje, że poszczególne podsieci są od siebie odseparowane i pakiety nie przenikają z jednej podsieci do drugiej. W ten sposób zwiększamy przepustowość każdej podsieci. - transceiver – urządzenie nadawczo-odbiorcze łączące port AUI (Attachment Unit Interface) urządzenia sieciowego z wykorzystywanym do transmisji typem okablowania. Poza wysyłaniem i odbieraniem danych realizuje on funkcje wykrywania kolizji (przy jednoczesnym pojawieniu się pakietów danych), nie dopuszcza do przesyłania zbyt długich (>20 ms) pakietów danych (Jabber function) oraz wykrywa przerwy w linii światłowodowej. Literatura

1. Mark Sportach, Sieci komputerowe. Księga Eksperta, Helion, 1999. 2. Andrew S. Tanenbaum, Sieci komputerowe, Helion, 2004. 3. Peter Kuo, John Pence, Sieci komputerowe oparte na Windows NT i 98, Helion, 2000.

Page 27: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

27

Temat 4 (2 godziny): Sieci komputerowe. Sieci rozległe.

Sieci rozległe WAN - Wide Area Network połączą sieci lokalnych, bez względu na dzielące je odległości. Projektowanie, budowanie i administrowanie sieciami WAN wymaga opanowania zupełnie innych umiejętności niż w przypadku administrowania aplikacjami typu klient-serwer i sieciami lokalnymi. W sieciach rozległych wykorzystuje się: - urządzenia transmisji, - sprzęt komunikacyjny, w tym jednostki CSU i DSU, - adresowanie międzysieciowe, - protokoły routingu.

Dla każdej z powyższej grupy można wybierać z zaskakująco szerokiej gamy dostępnych technologii. Ponadto, każda technologia istnieje w kilku odmianach zależnych od producentów, modeli i konfiguracji. Przed wybraniem producentów i określonych produktów każda technologia powinna zostać sprawdzona pod kątem możliwych do osiągnięcia wydajności względem stawianych wymagań i spodziewanego obciążenia sieci WAN. Najbogatszą gamę rozwiązań dostępnych dla projektanta i budowania sieci WAN stanowią urządzenia transmisji. Istniejące urządzenia mają różne przepustowości, występują w wielu odmianach, a także różnią się kosztami. Na przykład przepustowość (szerokość pasma) urządzeń transmisji może wahać się od 9,6 kilobita na sekundę (Kbps) do ponad 44,736 megabitów na sekundę (Mbps). Owe urządzenia transmisji obsługują strumień cyfrowych informacji, płynący ze stałą i z góry określoną szybkością transmisji. Urządzenia te mogą korzystać z różnorodnych nośników fizycznych. takich jak skrętka dwużyłowa czy kable światłowodowe, a także obsługują wiele formatów ramek.

Również sposób realizowania połączeń jest różny, zależnie od danego urządzenia. Istnieją dwa podstawowe typy urządzeń: urządzenia komutowania obwodów oraz komutowania pakietów.

Topologia sieci WAN opisuje organizację urządzeń transmisyjnych względem lokalizacji połączonych za ich pomocą. Istnieje wiele różnych topologii, z których każda charakteryzuje się innym wskaźnikiem kosztów, wydajności i możliwości rozbudowy. Ponadto topologie bezpośrednio bazujące na urządzeniach transmisyjnych mogą charakteryzować się dodatkową specjalizacją funkcjonalną.

Najbardziej rozpowszechnionymi topologiami stosowanymi w sieciach WAN są: • każdy z każdym, • pierścienia, • gwiazdy, • oczek pełnych, • oczek częściowych, • wielowarstwową, w tym dwu- i trójwarstwową, • hybrydową. Literatura

1. Mark Sportach, Sieci komputerowe. Księga Eksperta, Helion, 1999. 2. Andrew S. Tanenbaum, Sieci komputerowe, Helion, 2004. 3. Peter Kuo, John Pence, Sieci komputerowe oparte na Windows NT i 98, Helion, 2000.

Page 28: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

28

Temat 5 (2 godziny): Sieci komputerowe.

Zagadnienia tematyczne: A. Wykorzystanie sieci; B. Administracja i bezpieczeństwo; C. Rozwiązywanie problemów;

Zagadnienie: 5.A Wykorzystanie sieci..

Siecią komputerową określa się każdą grupę rozproszonych ale połączonych ze sobą komputerów, w której możliwa jest ciągła wymiana danych. Do głównych zadań sieci komputerowej należą: – zapewnienie współpracy wielu użytkownikom (np. zapewnienie możliwości tworzenia grup naukowo-badawczych pracujących nad tym samym problemem a pracujących w różnych instytucjach); – usprawnianie pracy (poprzez zwiększenie niezawodności wykonywanych operacji i równomierne wykorzystanie możliwości sprzętu; dotyczy to nie tylko sfery finansowej czy wojskowej, lecz także naukowej i usługowej - archiwizowanie danych, rezerwacje lotów, usługi biblioteczne itd.); – usprawnianie komunikacji poprzez ułatwienie przepływu informacji, umożliwienie korzystania z odległych źródeł danych, usprawnienie zbierania, przetwarzania, rozpowszechniania oraz wykorzystania danych różnego rodzaju i wagi na dowolnie określonym terytorium.

Zagadnienie: 5.B Administracja i bezpieczeństwo.

Administrowanie sieci komputerowej zajmuje się administrator sieci, zajmujący się budowaniem, integracją oraz obsługą sieci komputerowych opartych na różnych architekturach. Szczegółowe zadania administratora to zarządzanie sieciami komputerowymi w firmie lub w instytucji, nadzorowanie pracy składników sieci (serwery, rutery, terminale, komputery osobiste) oraz pracowników przy nich zatrudnionych. Administrator tworzy sieci lokalne i integruje mniejsze całości w większe, a potem - jeśli jest taka potrzeba - łączy je z Internetem.

Głównymi zadaniami administratora sieci to: – zapewnienie bezawaryjnej pracę sprzętu, – obsługa systemy poczty elektronicznej, – obsługa serwerów WWW, – zarządzanie zasobami sieci komputerowej, – szkolenie użytkowników sieci na temat zagrożeń i problemów sieci, – zapewnienie sieci komputerowej bezpieczeństwa poprzez system haseł i innych zabezpieczeń (np. skanerów antywirusowych, zapór ogniowych i innych).

Bezpieczeństwo sieci komputerowych obejmuje poprawne zaprojektowanie sieci komputerowej, dobór odpowiedniego oprogramowania oraz wdrożenie wielu zabezpieczeń mających na celu zabezpieczenie danych krążących w sieci pomiędzy jej węzłami oraz zgromadzonymi w bazach danych informacji dostępnych za pośrednictwem sieci.

Wśród podstawowych zagrożeń sieci komputerowych do najczęstszych należą: włamania do systemów komputerowych, wirusy komputerowe, sparing, itp. Rozróżnia się cztery podstawowe typy ataków na bezpieczeństwo sieci komputerowych: – przerwanie (interuption) – atak ten uniemożliwia normalne korzystanie z zasobów sieciowych;

Page 29: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

29

– modyfikacja (modification) – osoba nieuprawniona dokonuje dowolnej modyfikacji zasobów sieciowych; – przechwycenie (interception) –umożliwia uzyskanie dostępu do zasobów sieciowych przez osoby nieuprawnione; – podrobienie (fabrication) – polega na wprowadzeniu fałszywych informacji do systemu komputerowego. W celu zapewnienia odpowiedniego bezpieczeństwa sieci komputerowych stosuje się następujące mechanizmy zabezpieczające: – szyfrowanie informacji; – uwierzytelnienie informacji (stosowanie podpisu cyfrowego); – ochronę przez wirusami; – identyfikację i uwierzytelnienie osób uprawnionych; – zabezpieczenie danych znajdujących się w sieci (archiwizacja na taśmach, dyskach magnetycznych, płytach CD, DVD); – zabezpieczenia przed awarią stacji dyskowych (technika zapisu lustrzanego – mirroring, techniki macierzy dyskowej RAID). Zagadnienie: 5.C Rozwiązywanie problemów.

Sieci komputerowe mają w swojej strukturze różne elementy: drukarki, monitory, komputery PC, telefony IP, serwery, urządzenia pamięci masowej, sprzęt sieciowy, oprogramowanie zabezpieczające, aplikacje sieciowe, aplikacje korporacyjne, aplikacje usprawniające pracę biura i inne. Typowymi problemami występującymi w sieciach komputerowych dotyczą kwestii podłączenia użytkowników i wolno działających sieci.

Za brak połączenia użytkowników odpowiada najczęściej: – uszkodzone lub zanieczyszczone okablowanie lub urządzenia końcowe, nadmierne tłumienie sygnału, niedostateczna przepustowość złączy kablowych, zakłócenia sygnału radiowego (w sieciach bezprzewodowych). – uszkodzone urządzenia sieciowe, nieprawidłowe lub nieoptymalne konfiguracje urządzeń, kwestie uwierzytelniania i przyłączania, niedostateczna przepustowość sieci. – nadmierne wykorzystanie, zbyt wiele błędów, nieprawidłowo przypisane członkostwo VLAN, kwestie pierwszeństwa ruchu (CoS/QoS). Prawidłowe rozwiązanie każdego problemu należy rozwiązywać według poniższego algorytmu: – diagnostyka problemu – ustalenie zakresu problemu i dokładne zdefiniowanie jego charakteru; – analiza problemu – bezpośrednia obserwacja problemu i jego przebieg; – znalezienie przyczyny – określenie, z jakim urządzeniem, połączeniem lub aplikacją jest on powiązany; – rozwiązanie problemu – rozwiązaniem problemu może być wymiana urządzenia sieciowego, karty sieciowej, kabla lub innego komponentu fizycznego. Jeśli problem leży po stronie oprogramowania, konieczne może być zastosowanie poprawki, ponowna instalacja aplikacji lub komponentu, względnie wyleczenie zainfekowanego pliku. Jeśli natomiast problem tkwi w koncie wybranego użytkownika, konieczna może być zmiana ustawień zabezpieczeń lub skryptów logowania. Literatura

1. Mark Sportach, Sieci komputerowe. Księga Eksperta, Helion, 1999. 2. Andrew S. Tanenbaum, Sieci komputerowe, Helion, 2004. 3. Peter Kuo, John Pence, Sieci komputerowe oparte na Windows NT i 98, Helion, 2000.

Page 30: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

30

Temat 6 (2 godziny): GSM/GPRS. Wiadomości podstawowe.

GSM (ang. Global System for Mobile Communications) – najpopularniejszy obecnie standard telefonii komórkowej. Sieci oparte na tym systemie telekomunikacji oferują usługi związane z transmisją głosu, danych (na przykład dostęp do Internetu) i wiadomości w formie tekstowej lub multimedialnej. Historię rozwoju GSM przedstawiono w tabeli 2.

Rozwój GSM Tabela 2

Rok Historia GSM

1978 Rezerwacja pasma o częstotliwości 900 MHz dla nowego europejskiego standardu telefonii komórkowej.

1982

Utworzenie wewnątrz Europejskiej Konferencji ds. Poczty i Telekomunikacji (CEPT) nowego gremium standaryzującego pod nazwą Groupe Special Mobile (GSM) w celu stworzenia europejskiego standardu radiokomunikacji w paśmie 900MHz.

1984-1986 Prace nad wydajnością różnych technik transmisyjnych. Przeprowadzenia testów prototypów radiowych urządzeń cyfrowych w okolicach Paryża.

1987

Podjęcie oficjalnej decyzji o akceptacji cyfrowej technologii transmisyjnej – kombinacji wąskopasmowego FDMA (Frequency Division Multiple Access) i TDMA (Time Division Multiple Access)

1988 Rozpoczęcie wydawania przez CEPT pierwszych specyfikacji technicznych GSM. GSM oficjalnie oznacza Global System for Mobile communication.

1989 Groupe Special Mobile przekształca się w Europejski Instytut Standartów Telekomunikacyjnych (ETSI).

1990 Zamknięcie pierwszej fazy GSM900, co umożliwiło rozpocząć produkcję sprzętu i budowę opartych na nim siec

1991 Wydanie specyfikacji technicznych systemu DCS 1800 (Digital Communication System).

1992 Rozpoczęcie pierwszych prac komercyjnych sieci GSM. 1993 Uruchomienie pierwszego komercyjnego systemu DCS. 1995 Przyjęcie systemu GSM przez stany Zjednoczone dla częstotliwości 1900 MHz. 1996 Wydanie pierwszych specyfikacji HSCSD (High Speer Circuit Switched Data). 1998 Wydanie pierwszych specyfikacji usługi GPRS (General Packet Radio Service).

Głównymi założeniami systemu GSM było:

- połączenia do sieci łączem radiowym (dwukierunkowe łącze na żądanie), połączenie telefonu z siecią dzięki systemowi stacji bazowych. Jako dostęp do kanału radiowego wybrano cyfrową transmisję za pomocą technologii FDMA i TDMA; - pełna mobilność użytkowników sieci; - zabezpieczenie przed nieuprawnionym dostępem do sieci (autoryzacja dostępu do usług, ochrona tożsamości abonenta, szyfrowanie informacji, identyfikacja terminala); - dodatkowe elementy infrastruktury sieci odpowiedzialne za przechowywanie informacji o aktualnym położeniu abonenta, śledzenie jego zmian i utrzymywanie odpowiedniej jakości transmisji nawet podczas przemieszczania się użytkownika telefonu; - roaming, czyli możliwość korzystania z obcych sieci GSM.

Page 31: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

31

General Packet Radio Service (GPRS) – to rozszerzenie starszej technologii GSM do pakietowego przesyłania danych. Oferowana w praktyce prędkość transmisji rzędu 30-80 kb/s umożliwia wysyłanie plików video, obrazów, plików dźwiękowych oraz korzystania z Internetu poprzez aktywne witryny WAP. Użytkownik płaci w niej za faktycznie wysłaną lub odebraną ilość bajtów, a nie za czas, w którym połączenie było aktywne. GPRS nazywane jest często technologią 2.5G, ponieważ stanowi element ewolucji GSM (jako telefonii komórkowej drugiej generacji) do sieci w standardzie 3G.

Podstawowe założenia związane z technologią GPRS zawarte w specyfikacji 3GPP zakładały, że: - technologia ma umożliwiać przesyłanie danych pomiędzy dwoma punktami (Point-To-Point) lub rozsyłanie ich do większej ilości odbiorców (Point-To-Multipoint); - do transmisji danych pomiędzy telefonem komórkowym a siecią operatorzy mogą wykorzystywać istniejącą sieć radiową używaną do transmisji głosu w systemie GSM; - wewnątrz sieci GSM, centrale (MSC) używane do komutowania połączeń głosowych nie będą angażowane w przesyłanie danych, powstanie niezależna sieć, której elementy będą odpowiedzialne za komutację pakietów i za kontakt z zewnętrznymi sieciami (w tym z Internetem); - elastyczność w kształtowaniu taryf: sprzedaż usług korzystających z transmisji GPRS może bazować na naliczaniu opłat za ilość odebranych i przesłanych danych, na stałej, periodycznej opłacie, może również być zależna od źródła, z którego pobierane są dane.

Literatura

1. Aleksander Simon, Marcin Walczyk, Sieci komórkowe GSM/GPRS. Usługi i bezpieczeństwo, Xylab, 2002.

2. Krzysztof Wesołowski, Systemy radiokomunikacji ruchowej, WKŁ, 2006.

Page 32: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

32

Temat 7 (2 godziny): GSM/GPRS. Architektura sieci.

Sieć GSM jest zespołem współpracujących ze sobą urządzeń, których podstawowym zadaniem jest dostarczenie usługi telekomunikacyjnej dla mobilnych abonentów sieci.

Sieć GSM składa się z trzech głównych części (rys. 16): - urządzeń komutacyjno-sieciowych (Network and Switching System. NSS); - zespołu urządzeń stacji bazowych (Base Stadion System, BSS); - zespołu urządzeń eksploatacji i utrzymania (Operation and Maintenance System, OMS).

Rys. 16. Architektura sieci GSM

W skład urządzeń komutacyjno-sieciowych sieci GSM wchodzą:

Centrala systemu ruchomego (Mobile services Switching Center, MSC) Mobile Switching Centre (MSC) jest cyfrową centralą telefoniczną przystosowaną do pracy w sieci GSM. Jest odpowiedzialna za zestawianie połączeń i koordynacje współpracy pomiędzy elementami sieci. Liczba central w sieci zależy od ilości abonentów i generowanego przez nich obciążenia sieci.

Dostępowa centrala systemu ruchomego (Gateway MSC, GMSC) Gateway Mobile Switching Centre (GMSC) jest to centrala MSC z dodatkową funkcjonalnością

odpowiedzialną za kontaktowanie się z rejestrem abonentów własnych (HLR). Każda rozmowa podczas zestawiania połączenia do abonenta danej sieci musi być przeroutowana do jednego z GMSC należącego do niej (nawet gdy abonent jest w tym czasie w roamingu w innej sieci) w celu zebrania informacji o użytkowniku, którego numer wybrano w celu rozpoczęcia rozmowy.

Rejestr abonentów własnych (Home Location Register, HLR) Home Location Register (HLR - rejestr stacji własnych) jest bazą danych, która przechowuje

informacje o abonentach, którzy należą do danej sieci. Między innymi numer IMSI, MSISDN, informacje o wykupionych usługach, informacje o MSC, które aktualnie obsługuje abonenta, informacje o jego statusie (np. telefon jest wyłączony, telefon jest włączony do sieci). Ilość HLR w sieci zależy od ilości abonentów, na przykład sieci dużych europejskich operatorów jest obsługiwane są przez około 20 HLR.

Page 33: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

33

Rejestr abonentów przyjezdnych (Visitor Location Register, VLR) Visitor Location Register (VLR - rejestr abonentów przyjezdnych) - baza danych związana z

MSC. W sieci istnieją zawsze pary MSC-VLR. Baza ta przechowuje informacje o abonentach, którzy w danym momencie znajdują się na obszarze obsługiwanym przez to MSC. Część z tych informacji jest kopiowana z HLR w momencie, gdy abonent pojawia się w "zasięgu" danego MSC, inne, takie jak jego lokalizacja są zmieniane już później.

Centrum autoryzacji AuC (Authentication Centre)

Authentication Centre (AuC) to element sieciowy przechowujący dane abonentów danej sieci, na bazie których dokonuje uwierzytelnienia numeru IMSI i zezwala danemu abonentowi logującemu się do sieci na korzystanie z zasobów radiowych. Authentication Centre powiązane jest z HLR, ich liczba zależy od ilości użytkowników danej sieci.

Rejestr terminali ruchomych (Equipment Identity Register EIR) Equipment Identity Register EIR jest bazą związaną z zapewnieniem bezpieczeństwa sieciowego. Przechowuje on numery identyfikacyjne urządzeń komórkowych (karty GSM lub PCMCIA, służących jako terminale GSM w komputerach przenośnych), które z różnych względów (kradzież, uszkodzenie, brak homologacji) nie powinny być dopuszczone do użytkowania w sieci. Sprawdzenie statusu numeru identyfikacyjnego terminala dokonuje EIR na żądanie centrali MSC, która w zapytaniu przesyła numer IMEI aparatu abonenta. Rezultat (brak restrykcji, dostęp warunkowy, dostęp zabroniony, brak informacji) zwracany jest do centrali, która decyduje o kontynuacji lub przerwaniu połączenia. EIR jest opcjonalną bazą danych i niektórzy operatorzy w ogóle nie wprowadzają tego węzła sieciowego.

Flexible Number Register (FNR) Flexible Number Register (FNR) - opcjonalny element sieci wykorzystywany w mechanizmie

Number Portability, znanym jako "przenoszenie numeru pomiędzy operatorami". Jest to baza danych wszystkich abonentów w sieciach GSM w danym kraju. Przechowuje informacje o numerze abonenta, który dzięki temu można zachować zmieniając sieć; aktualnym operatorze, którego abonent jest klientem; numer, pod który należy przekierować rozmowę (poprzez GMSC) do tego operatora.

Centrum SMSC (Short Messege Sernice Center SMSC) SMS Center (SMSC) - element sieci biorący udział w przesyłaniu SMS-ów pomiędzy abonentami i przechowujący te wiadomości, które nie mogą być w danej chwili dostarczone. Np. abonent jest poza zasięgiem lub ma wyłączony telefon. W skład urządzeń stacji bazowych sieci GSM wchodzą:

Stacja Bazowa (ang. Base Transceiver Station, BTS) Stacja Bazowa (rys. 17) jest elementem sieci (tzw. stacją przekaźnikową), który jest interfejsem

pomiędzy telefonem komórkowym a siecią GSM.

Page 34: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

34

Rys. 17. Stacja bazowa sieci GSM

Dzięki systemowi anten transmituje i odbiera na kilku częstotliwościach (liczba zależąca od konfiguracji sprzętowej i oprogramowania) zakodowany cyfrowo sygnał. Częstotliwości używane przez stacje bazowe obsługujące sąsiadujące komórki różnią się, aby nie dochodziło do interferencji fal radiowych. Zwykle od kilkudziesięciu do kilkuset stacji bazowych jest podłączonych do jednego Kontrolera Stacji Bazowych.

Kontroler Stacji Bazowych (ang. Base Station Controler, BSC) Kontroler Stacji Bazowych (ang. Base Station Controler, BSC) jest elementem sieci,

odpowiedzialnym za zarządzanie stacjami bazowymi, oraz transmisję danych pomiędzy stacjami bazowymi a resztą sieci. Z poziomu BSC Operator zarządza radiową częścią sieci, zmieniając parametry poszczególnych stacji bazowych. BSC odpowiedzialne też jest za przydzielanie telefonowi komórkowemu wolnej szczeliny czasowej na odpowiedniej częstotliwości oraz za śledzenie jakości rozmowy. W razie jej pogorszenia, np. gdy abonent oddala się od obsługującej go stacji bazowej, zostanie przydzielona mu inna częstotliwość obsługiwana przez inną stację bazową, oraz odpowiednia szczelina czasowa. Mechanizm ten nazywa się handover. Kilka BSC jest podłączonych do jednego MSC.

Telefon komórkowy (Stacja ruchoma, Mobile Stadion, MS) Mobile Station (MS) używana jest przez abonenta do dwustronnej komunikacji z innymi

użytkownikami systemu GSM lub użytkownikami sieci zewnętrznych, przy wykorzystaniu usług oferowanych przez sieć GSM. Telefon GSM charakteryzowany jest przez wiele parametrów

Page 35: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

35

technicznych, takich jak maksymalna moc transmisji, czułość, możliwość transmisji wielokanałowej i itp.

Elementy sieci GPRS (rys. 18).

Rys. 18. Stacja bazowa sieci GPRS Stacja Bazowa (ang. Base Transceiver Station, BTS)

Stacja bazowa – do transmisji GPRS używane są stacje bazowe wykorzystywane w klasycznej sieci GSM. Należy tylko dokonać aktualizacji oprogramowania stacji bazowej (zwykle robi się to zdalnie z poziomu Kontrolera Stacji Bazowych), co umożliwi jej obsługę nowych rodzajów kanałów radiowych oraz nowego sposobu kodowania sygnału.

Kontroler Stacji Bazowych (ang. Base Station Controler, BSC) Base Station Controller to element sieci GSM kontrolujący zazwyczaj od kilkudziesięciu do

kilkuset stacji bazowych. Obecnie BSC dostarczane są z oprogramowaniem obsługującym zarówno klasyczną transmisję głosu w GSM jak i transmisję danych GPRS. Podczas wdrażania technologii GPRS, dokonuje się konfiguracji samych kontrolerów i obsługujących ten rodzaj transmisji stacji bazowych, dodatkowo w BSC umieszczany jest specjalny sprzęt komputerowy Packet Control Unit (PCU), który odpowiedzialny jest za obsługę ruchu pakietowego. Niektórzy dostawcy oferują Package Control Unit jako osobny element sieci, może on być podłączony wtedy do kilku BSC.

Centrala systemu ruchomego (Mobile services Switching Center, MSC) Mobile Switching Centre to centrale telefoniczne biorące udział w zestawianiu połączeń

głosowych w GSM. Z każdym MSC związany jest Visitor Location Register, baza danych, która przechowuje między innymi położenie abonenta w postaci Location Area.

Rejestr abonentów własnych (Home Location Register, HLR) Home Location Register to baza danych przechowująca informacje o abonentach mających

subskrypcję w danej sieci. Część informacji związana jest z subskrypcją funkcjonalności GPRS: IMSI, MSISDN, adres SGSN (SS7 i IP), które kontroluje obszar, na którym znajduje się abonent, sposób naliczania opłat za transmisję (np. prepaid, abonament, taryfa płaska), informacja czy SMS-y mają być przesyłane za pomocą GPRS, QoS, informację o usługach związanych z technologią GPRS bazujących na platformie sieci inteligentnych i inne.

Page 36: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

36

Węzeł sieci inteligentnej Service Control Point (SCP) Service Control Point to główny element platformy związanej z sieciami inteligentnymi. Może

być na nim umieszczony na przykład serwis, który zarządza naliczaniem opłat za korzystanie z transmisji GPRS użytkownikom rozliczającym się w systemie Prepaid.

Centrala pakietowa GPRS (Serving GPRS Support Node, SGSN) Serving GPRS Support Node jest elementem sieci GPRS odpowiedzialnym za zarządzanie

terminalami będącymi na kontrolowanym przez siebie terenie. Element ten jest też odpowiedzialny za uwierzytelnianie terminala włączającego się do sieci. Podczas transmisji uczestniczy w przesyłaniu pakietów (w obie strony) pomiędzy terminalem a siecią GPRS. Liczba SGSN w sieci zależy od ruchu pakietowego generowanego przez abonentów.

Dostępowa centrala pakietowa (Gateway GPRS Support Node, GGSN) Gateway GPRS Support Node jest elementem sieci działającym jak router łączący sieć GPRS i

zewnętrzną sieć (np. Internet lub sieć LAN użytkownika). Gdy użytkownik terminala chce skorzystać z zasobów zewnętrznej sieci, GGSN przydziela mu numer IP (z własnej puli numerów lub dostarczony przez serwer z zewnętrznej sieci), dodatkowo na czas sesji aktywuje tzw. PDP, który zawiera numer IMSI terminala, przydzielony mu numer IP oraz adres IP SGSN, które kontroluje obszar, na którym znajduje się użytkownik.

Kontroler pakietów (Packet Control, PCU) Packet Control Unit jest odpowiedzialny za prawidłową obsługę ruchu pakietowego w radiowej

części sieci. Przydziela terminalom GPRS kanały radiowe, buforuje dane przesłane przez SGSN, przekazując je do odpowiedniej stacji bazowej dodając informację, która umożliwi terminalowi zidentyfikowanie swoich danych. PCU może być (w zależności od dostawcy) zaimplementowany jako dodatkowy sprzęt w BSC bądź jako niezależny element sieci obsługujący jedno lub więcej BSC. Literatura

1. Aleksander Simon, Marcin Walczyk, Sieci komórkowe GSM/GPRS. Usługi i bezpieczeństwo, Xylab, 2002.

2. Krzysztof Wesołowski, Systemy radiokomunikacji ruchowej, WKŁ, 2006.

Page 37: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

37

Temat 8 (3 godziny): GSM/GPRS. Rodzaje połączeń i sygnałów. Rodzaje połączeń i sygnałów to tzw. teleusługi, które w sieciach GSM/GPRS można podzielić na: – podstawowe – dostępne dla wszystkich użytkowników sieci; – dodatkowe – zmodyfikowane lub rozszerzone usługi podstawowe; – o wartości dodanej – wprowadzające do usługi podstawowej dodatkową wartość.

Usługi podstawowe to takie, które dostępne są dla wszystkich użytkowników sieci GSM/GRPR bez żadnych dodatkowych warunków. Najbardziej popularnymi usługami podstawowymi jest telefonia głosowa i SMS. Inne usługi podstawowe przedstawiono w tabeli 3.

Usługi podstawowe Tabela 3

Usługa Opis Telefonia głosowa Dwukierunkowa komunikacja głosowa

Połączenia alarmowe Połączenie uprzywilejowane do numeru 112, 997, 998, 999 i inne.

DTMF Sygnalizacja Dual Tone Mutli Frequency, używana do zdalnego sterowania urządzeń typu automatyczna sekretarka, systemów obsługi klienta, itp.

SMS

Short Message Sernice – możliwość wysyłania i odbioru prostych alfanumerycznych wiadomości tekstowych, lub informacji specyficznych (prognoza pogody, sytuacja na drogach).

Teletekst Synchroniczna transmisja tekstu, oferująca znacznie rozszerzony zbiór znaków alfanumerycznych (duże i małe litery, znaki narodowe, inne).

Wideotekst Dupleksowa transmisja asynchroniczna obrazów i informacji w trybie tekstowym, semigraficznym lub graficznym.

Usługi dodatkowe modyfikują lub rozszerzają usługi podstawowe i w związku z tym nie mogą być oferowane samodzielnie. Muszą one być dostarczone razem lub w powiązaniu z usługami podstawowymi. Ta sama usługa dodatkowa może być oferowana w powiązaniu z różnymi usługami podstawowymi. Przykłady usług dodatkowych podano w tabeli 4.

Page 38: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

38

Usługi dodatkowe Tabela 4

Usługa Opis

Przenoszenie połączeń Zapewnia możliwość przeniesienia połączenia przychodzącego na inny numer telefoniczny lub faksowy. Przeniesienie połączenia może być realizowane bezwarunkowo lub pod określonymi warunkami.

Blokowanie połączeń

Zapewnia możliwość blokowania połączeń przychodzących lub wychodzących. Zablokowane mogą być wszystkie połączenia lub tylko te, które spełniają konkretne warunki.

Informacja o opłacie Zapewnia możliwość informowania użytkownika o wysokości opłaty za połączenie.

Połączenia oczekujące Zapewnia możliwość powiadomienia użytkownika o połączeniu przychodzącym i umożliwia jego odbiór, odrzucenie lub zignorowanie.

Zawieszenie połączenia Zapewnia możliwość zawieszenie aktualnego połączenia. Połączenie

konferencyjne Zapewnia możliwość zestawienia połączenia wielostronnego pomiędzy ograniczoną liczbą użytkowników.

Identyfikacja linii

wywołującej

Zapewnia możliwość wyświetlenia (CLIP) lub zastrzeżenia wyświetlenia (CLIR) numeru linii wywołującej. Usługa CLIP wyświetla numer PSTN/ISDN lub MSISDN osoby dzwoniącej na terminal wzywanego abonenta. Usługa CLIR zapobiega ujawnieniu numeru osoby dzwoniącej i jest nadrzędną w stosunku do usługi CLIP.

Zamknięta grupa użytkowników

Zapewnia możliwość formowania grup użytkowników, w których dostęp telefoniczny jest ograniczony wyłącznie do członków grupy.

Usługi o wartości dodanej oferowane są przez operatora sieci zapewniają dostarczenie

abonentowi informacji lub rozrywki. Usługi takie są z reguły interaktywne i pozwalają użytkownikowi wybór z przygotowanego uprzednio menu. Przykłady usług o wartości dodanej obejmują m.in.: – połączenia o taryfie specjalnej (0 700 …); – połączenia międzynarodowe; – przeprowadzanie transakcji bankowych; – otrzymywanie notowań giełdowych; – zamawianie biletów; – otrzymywanie serwisów informacyjnych; – usługi rozrywkowe (horoskopy, gry, inne). Bardzo ważna usługą w sieciach GSM/GPRS jest usługa lokalizacyjna, obowiązująca w krajach UE od 1 stycznia 2009 roku, która pozwala określić położenie abonenta z dokładnością nie gorszą niż 125 metrów. System lokalizacji telefonów komórkowych (Mobile Positioning System, MPS) składa się z urządzeń które zbierają dane lokalizacyjne i obliczają pozycję używając map cyfrowych.

W skład MPS wchodzi: – centrum obsługi usług lokalizacyjnych (Serving Mobile Location Center, SMLC), które jest odpowiedzialne za gromadzenie danych, obliczanie pozycji i nadzorowanie LMU, jeśli ich obecność jest konieczna dla wybranej technologii. – bramka dla bezprzewodowych usług lokalizacyjnych (Gateway Mobile Location Center, GMLC) zapewnia interfejs dla klientów z zewnątrz. Jest odpowiedzialna za autoryzację zewnętrznych

Page 39: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

39

użytkowników, wysyłanie zapytań do HLR o przybliżoną pozycję użytkownika i w końcu za wysłanie zapytań o dokładną pozycję telefonu do SMLC. – moduł ustalenia pozycji (Location Measurement Unit, LMU) zapewnia dodatkowe dane potrzebne w niektórych technikach określenia pozycji.

Do najbardziej popularnych technik pozycjonowania użytkownika sieci GSM/GPRS zaliczamy: – technikę wykorzystującą globalny numer komórki (CGI); – technikę wykorzystującą rozszerzony numer komórki (E-CGI); – technikę wykorzystującą pomiar czasu transmisji sygnału (UL-TOA); – technikę wykorzystującą zaobserwowania różnicy czasu (E-OTD); – technikę wykorzystującą pomiar kąta przybycia sygnału (AOA); – technikę wykorzystującą GPS (A-GPS).

W tabeli 5 zestawiono porównanie różnych technik lokalizacji abonenta. Najczęściej stosowanymi metodami są E-OTD i A-GPS.

Porównanie metod lokalizacji Tabela 5

Metoda

Dokładność

Dostępność

Czas do pierwszego

wyniku

Wpływ na telefon

Wpływ na sieć

CGI zróżnicowana 50 m ÷ 30 km

cała sieć

< 1s

brak Niewielki, tylko oprogramowanie

E-CGI zróżnicowana 100 m ÷ 1 km

cała sieć

< 1s

brak Niewielki, tylko oprogramowanie

UL-TOA

dobra 40 m ÷ 150 m

miasto, w budynkach: dobra,

wieś: słaba

sekundy

brak

poważny, drogie moduły

E-OTD

dobra 40 m ÷ 150 m

miasto, w budynkach: dobra,

wieś: słaba

sekundy

niski

średni, moduły LMU

AOA

dobra 50 m ÷ 150 m

miasto, w budynkach: dobra,

wieś: słaba

< 1s

brak

poważny, drogie matryce,

anteny

A-GPS

bardzo dobra 5 m ÷ 50 m

w budynkach: zadowalająca,

wieś: słaba

< 1s

poważny, odbiornik

GPS

średni, odbiorniki GPS

Literatura

1. Aleksander Simon, Marcin Walczyk, Sieci komórkowe GSM/GPRS. Usługi i bezpieczeństwo, Xylab, 2002.

2. Krzysztof Wesołowski, Systemy radiokomunikacji ruchowej, WKŁ, 2006.

Page 40: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

40

Temat 9 (2 godziny): GSM/GPRS. Nowe technologie EDGE i UMTS.

EDGE (Enhanced Data rates for GSM Evolution) – technologia używana w sieciach GSM do przesyłania danych. Jest ona rozszerzeniem dla technologii GPRS, poprawiony został w niej interfejs radiowy, dzięki czemu uzyskano około trzykrotne polepszenie przepływności (w większości obecnych systemów teoretycznie do 236,8 kbit/s) oraz możliwość dynamicznej zmiany szybkości nadawania pakietów w zależności od warunków transmisji. Specyfikacja technologii EDGE jest rozwijana przez konsorcjum standaryzacyjne 3GPP, które odpowiedzialne jest za rozwój standardów GSM i UMTS. EDGE nazywana jest czasami technologią 2,5G, ponieważ stając się częścią możliwości oferowanych przez GSM, jest elementem ewolucji pomiędzy tymi dwoma standardami. Okazuje się jednak, że może być stosowana także w innych sieciach, w których dostęp radiowy bazuje na technologii TDMA, przykładem mogą być sieci IS-136, popularne w USA.

EDGE jest technologią związaną z przesyłaniem danych i jako taka nie oferuje konkretnych usług, ale możliwości dla ich dostarczania. Dzięki znacznemu zwiększeniu szybkości transferu danych (w porównaniu z poprzednikiem - GPRS), wiele usług dostępnych wcześniej, może być dostarczane z lepszą jakością, mogą pojawić się też nowe, zarezerwowane do tej pory dla systemów UMTS.

Technologia EDGE bazuje na infrastrukturze telekomunikacyjnej używanej w sieci GSM/GPRS. Do obsługi ruchu pakietowego wewnątrz sieci używana jest sieć szkieletowa zbudowana dla potrzeb transmisji GPRS.

Podobnie jak sieci GSM/GPRS sieci EDGE składają się z: – stacji bazowych – do transmisji EDGE używane są stacje bazowe wykorzystywane w klasycznej sieci GSM/GPRS. Należy tylko dokonać aktualizacji oprogramowania stacji bazowej (zwykle robi się to zdalnie z poziomu Kontrolera Stacji Bazowych) oraz zainstalować dodatkowy hardware (obsługiwany jest nowy rodzaj modulacji - 8-PSK); – kontrolerów stacji bazowych – elementy sieci GSM kontrolujący zazwyczaj od kilkudziesięciu do kilkuset stacji bazowych. Podczas wdrażania technologii EDGE, dokonuje się aktualizacji software oraz konfiguracji samych kontrolerów i obsługujących ten rodzaj transmisji stacji bazowych; – kontrolera pakietów – odpowiedzialnego za prawidłową obsługę ruchu pakietowego w radiowej części sieci. Przydziela terminalom EDGE kanały radiowe, buforuje dane przesłane przez SGSN, przekazuje je do odpowiedniej stacji bazowej dodając informację, która umożliwi terminalowi zidentyfikowanie 'swoich' danych. PCU może być (w zależności od dostawcy) zaimplementowany jako dodatkowy hardware w BSC bądź jako niezależny element sieci obsługujący jedno lub więcej BSC. – centrali pakietowej GPRS SGSN – za zarządzanie terminalami będącymi na kontrolowanym przez siebie terenie. Jeśli terminal zmieni położenie i znajdzie się w innym Routing Area, fakt ten zostanie odnotowany w SGSN. Element ten jest też odpowiedzialny za uwierzytelnianie terminala włączającego się do sieci. Podczas transmisji uczestniczy w przesyłaniu pakietów (w obie strony) pomiędzy terminalem a siecią GPRS/EDGE. Liczba SGSN w sieci zależy od ruchu pakietowego generowanego przez abonentów. – dostępowej centrali pakietowej GGSN – działającej jako router łączący sieć GPRS/EDGE i zewnętrzną sieć (np. Internet lub sieć LAN użytkownika). Gdy użytkownik terminala chce skorzystać z zasobów zewnętrznej sieci, GGSN przydziela mu adres IP.

Transmisja w technologii EDGE pomiędzy stacją bazową a terminalem, może być przedstawiona na podstawie trzech warstw: – Radio Link Control (RLC) - warstwa, w której sprawdzana jest poprawność transmisji oraz inicjowana retransmisja w przypadku błędów w analizowanych blokach danych;

Page 41: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

41

– Media Access Control (MAC) - z tą warstwą związane są procedury synchronizujące korzystanie wielu terminali z tych samych kanałów radiowych, oraz umożliwiające terminalowi nadawanie i odbieranie w kilku kanałach; – warstwy fizycznej

– dane kodowane są przed wysłaniem, metoda kodowania zależy od wyboru jednego z dziewięciu schematów modulacji i kodowania (MCS-1 - MCS-9); – dane przesyłane są dzięki modulacji fali nośnej.

Obecnie, na rynku dostępnych jest coraz więcej urządzeń (telefony komórkowe i modemy na kartach PCMCIA), które umożliwiają abonentom korzystanie z transmisji w technologii EDGE. Specyfikacja 3GPP definiuje trzy klasy terminali GPRS/EDGE. Klasa A - terminal może jednocześnie obsługiwać transmisje związane z komutacją łączy (transmisja głosu, SMS - usługi oferowane w klasycznej sieci GSM), jak i z komutacją pakietów (czyli transmisją EDGE) - tzw. Dual Transfer Mode (DTM). Klasa B - terminal może włączyć się do sieci jako użytkownik obu rodzajów transmisji (klasycznej GSM i GPRS/EDGE) oraz nasłuchiwać na odpowiednim kanale radiowym zgłoszenia związanego z rozpoczęciem rozmowy, oczekującym SMS (klasyczne usługi GSM) lub rozpoczęciem nadawania pakietów (usługa GPRS). W momencie, gdy zostanie zestawiony jeden z rodzajów transmisji, możliwości związane z obsługą drugiego rodzaju stają się nieaktywne (aż do przerwania transmisji). Do klasy B należy większość oferowanych obecnie telefonów komórkowych. Klasa C - terminal może obsługiwać tylko transmisję GPRS/EDGE lub oba rodzaje (klasyczne usługi GSM i GPRS), ale w tym drugim przypadku podczas włączania do sieci automatycznie lub manualnie jest ustawiany w tryb związany z obsługą tylko jednego rodzaju transmisji. Do tej klasy terminali należą na przykład modemy GPRS na kartach PCMCIA używanych w laptopach.

UMTS (Universal Mobile Telecommunications System, Uniwersalny System Telekomunikacji Ruchomej) – najpopularniejszy obecnie standard telefonii komórkowej trzeciej generacji.

Sieci budowane na bazie tego standardu oferują swoim użytkownikom możliwość wykonywania połączeń głosowych, wideorozmów, wysyłania wiadomości tekstowych oraz przesyłania danych. Dzięki zaimplementowanym w nich technologiom HSDPA i HSUPA (będących częścią standardu UMTS) użytkownicy mogą uzyskać transfer z przepływnością 21,6 Mbit/s podczas odbierania informacji i 5,76 Mbit/s podczas wysyłania danych.

UMTS jest następcą standardu GSM (oba standardy są rozwijane przez konsorcjum standaryzacyjne 3GPP), podczas jego projektowania pozostawiono bez większych zmian sieć szkieletową, wprowadzono natomiast zasadnicze zmiany w sieci radiowej. Dzięki nowemu interfejsowi radiowemu, możliwe jest lepsze wykorzystanie dostępnych zasobów radiowych, zapewnienie lepszego współczynnika Quality of Service i zaoferowanie lepszej przepływności danych. Najpopularniejszą technologią używaną dla potrzeb dostępu do sieci radiowej jest WCDMA dlatego często używa się określenia sieci WCDMA zamiennie z sieci UMTS (często stosuje się też nazwy typu sieci HSDPA dla sieci budowanych w standardzie UMTS, które mają zaimplementowaną tę technologię). Sieci w obu standardach mogą ze sobą współpracować, dostępne są telefony pracujące zarówno jako terminale GSM jak i UMTS, możliwy jest handover (czyli przeniesienie aktywnego połączenia bez zrywania rozmowy/transmisji) pomiędzy oboma rodzajami sieci dla poruszającego się użytkownika. Usługi dostępne w sieciach GSM są też dostępne w UMTS, większość usług zdefiniowanych dla użytkowników UMTS jest dostępna (niektóre z gorszą jakością) po zalogowaniu się do sieci GSM. Ponieważ GSM jest obecnie najpopularniejszym standardem sieci komórkowych, UMTS okazał się najczęściej wybieranym rozwiązaniem, na którym oparto budowę sieci trzeciej generacji.

Page 42: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

42

Usługi sieci UMTS: – odpowiedniki usług sieci GSM (głos, wiadomość tekstowa wiadomość multimedialna); – szybki dostęp do Internetu (od 384 kbps do 14,4 Mbps), przy użyciu technologii MIMO (Multiple Input Multiple Output) do 21 Mbps; – połączenia wideo; – telewizja, radio, muzyka, wideo; – większa odporność na zakłócenia (zalety wykorzystania transmisji z rozpraszaniem widma).

Przykłady usług w systemie UMTS przedstawiono w tabeli 6.

Porównanie metod lokalizacji Tabela 6

Usługa Przepustowość [kbit/s]

Dopuszczalne opóźnienie [ms]

Telefonia 4,75 ÷ 12,2 40 Dane w paśmie akustycznym 2,4 ÷ 164 200 Dźwięk Hi-Fi 940 200 Wideotelefonia 64 ÷ 144 40 ÷ 90 Krótkie wiadomości/przywołanie 1,2 ÷ 9,6 100 Poczta elektroniczna 0 ÷ 384 Wiele minut Transmisja rozsiewcza lub do grupy abonentów 1,2 ÷ 9,6 100 Poszukiwanie w sieci internetowej 16 ÷ 64 sekundy Dostęp do baz danych 2,4 ÷ 768 200 Telezakupy 2,4 ÷ 768 90 Gazeta elektroniczna 2,4 ÷ 2000 200 Zdalne sterowanie 1,2 ÷ 9,6 100 Lokalizacja i nawigacja 64 100

Literatura

1. Aleksander Simon, Marcin Walczyk, Sieci komórkowe GSM/GPRS. Usługi i bezpieczeństwo, Xylab, 2002.

2. Krzysztof Wesołowski, Systemy radiokomunikacji ruchowej, WKŁ, 2006.

Page 43: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

43

Temat 10 (3 godziny): GPS. Technologia, Działanie. System GPS (Global Positioning System) został zbudowany I uruchomiony jako pierwszy, z przeznaczeniem do celów wojskowych. Podstawowymi założeniami systemu nawigacji satelitarnej była: – możliwość wyznaczenia położenia w czasie rzeczywistym, – niezależność od warunków w których system jest wykorzystywany i odporność na zakłócenia zarówno przypadkowe jak i celowe, – możliwość wystrzelenia 5 pocisków z niezależnych platform, naprowadzanych za pomocą systemu, która ma trafić w cel z dokładnością 5 m, – cena jednego odbiornika (nie mogła przekraczać 10000 USD w 1977 r.), – dostępność na całej kuli ziemskiej, – synchronizacja czasu na poziomie 1 μs, – nielimitowana liczba użytkowników, – niewykrywalność odbiornika (brak komunikacji odbiornika z satelitą, wyznaczenie pozycji ma być możliwe wyłącznie w wyniku nasłuchu).

Historię rozwoju systemu GPS przedstawiono w tabeli 7.

Historia rozwoju GPS Tabela 7

Rok Historia GPS

1973 Zatwierdzenie podjęcia prac nad stworzeniem satelitarnego systemu nawigacyjnego, opartego na systemie TRANSIT, TIMATION i 621B U.S. Air Force i U.S. Navy.

1974-1979 Faza testu systemu GPS.

1977 Pierwsze testy urządzeń nawigacyjnych jeszcze przed wprowadzeniem satelitów na orbity okołoziemskie. Próby i testy przeprowadzone zostały za pomocą pseudosatelitów, którymi były naziemne stacje nadawcze imitujące satelity.

1978-1985 Wprowadzenie na orbity jedenastu satelitów Block I. 1979 Podjęcie decyzji o budowie kompletnego systemu GPS.

1980

Start pierwszego satelity Block I z sensorami do rozpoznania wybuchów atomowych, po podpisaniu porozumienia między USA i Związkiem Radzieckim o zaprzestaniu prób z bombami atomowymi na ziemi, w wodzie i w kosmosie.

1980-1982 W tych latach finanse GPS były w stałym zagrożeniu, z uwagi na brak koncepcji jego przyszłościowego finansowania. Groziło to przerwaniem realizacji tego projektu.

1983

Po zestrzeleniu samolotu koreańskich linii lotniczych KAL 007 nad terytorium Związku Radzieckiego, czego przyczyną była pomyłka pilota, uznano, że GPS powinien zostać udostępniony do zastosowań cywilnych.

1989 Pierwszy satelita Block II został wprowadzony na orbitę rozpoczynając swoją pracę.

1990-1991 Chwilowo wyłączono S.A. (selective availability) w czasie I wojny w Zatoce Perskiej, celem wykorzystania cywilnych nawigatorów (za mała ilość wojskowych urządzeń). Dnia 01.07.1991 S.A. został powtórnie włączony.

8/12/1993 Do wiadomości publicznej podano, że GPS jest gotowy do eksploatacji (Initial Operational Capability, IOC).

marzec 1994 Ostatni satelita Block II został wprowadzony na orbitę zamykając prace nad uruchomieniem systemu GPS.

17/05/1995 System GPS osiągnął pełną operatywność (Full Operational Capability, FOC). Wyłączono definitywnie S.A., co pozwala na korzystanie z dokładności nawigacji 20

Page 44: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

44

1/05/2000 m zamiast dotychczasowej 100 m. 20/03/2004 Start pięćdziesiątego satelity GPS.

25/09/2005

Na orbitę zostaje wprowadzony satelita typu IIR-M (Block 2 Replacement Modernized; unowocześniony Block II, satelita rezerwowy). Ten satelita, jako pierwszy umożliwia użycie sygnałów M dla wojska i sygnałów L2C dla służb cywilnych.

1998 Wydanie pierwszych specyfikacji usługi GPRS (General Packet Radio Service).

GPS czyli Globalny System Pozycjonowania (Global Positioning System) jest systemem satelitarnym zapewniającym precyzyjne wyznaczanie pozycji, prędkości i czasu. Dwadzieścia cztery satelity NAVSTAR obiegające Ziemię zapewniają nieprzerwaną dostawę sygnału radiowego który, po odebraniu przez specjalny odbiornik umożliwia wyliczenie bieżącej pozycji. Sygnał ten jest dostępny na całym globie, korzystanie z niego jest bezpłatne. Dokładność pomiaru waha się od centymetra (odbiorniki geodezyjne, pomiar różnicowy - Differential GPS) do stu metrów (proste odbiorniki nawigacyjne bez korekcji różnicowej). Satelity obiegają Ziemię dwa razy dziennie i rozmieszczone na sześciu orbitach na wysokości około 20 000 km nad Ziemią (rys. 19).

Rys. 19. Konfiguracja satelitów systemu GPS.

Zasada działania systemu opiera się na pomiarze odległości pomiędzy satelitą, który porusza się po ściśle wyznaczonej orbicie a odbiornikiem. Znana odległość od satelity lokuje odbiornik na sferze o promieniu równym zmierzonej odległości. Znana odległość od dwóch satelitów lokuje odbiornik na okręgu będącym przecięciem dwu sfer. Kiedy odbiornik zmierzy odległość od trzech satelitów, istnieją tylko dwa punkty, w których może się on znajdować. Jeden z tych punktów można wykluczyć jako znajdujący się zbyt wysoko lub poruszający się zbyt szybko i w ten sposób wyznaczyć swoją pozycję. Należy tylko poznać odległość od satelitów emitujących bardzo słabe sygnały (o mocy zbliżonej do szumu tła), i to z centymetrową dokładnością. Dokonuje się tego poprzez pomiar czasu. Każdy z satelitów posiada cztery zegary atomowe, którymi synchronizuje wysyłany sygnał. Jedyne, co pozostaje zmierzyć odbiornikowi, to opóźnienie sygnału odebranego z poszczególnych satelitów.

Niestety, odbiornik GPS nie dysponuje własnym zegarem atomowym a tylko dokładnym zegarem kwarcowym, więc staje przed na pozór nierozwiązywalnym zadaniem: ma stwierdzić, która jest godzina (z dokładnością do nanosekundy) dysponując tylko sygnałem otrzymanym z satelitów, z których każdy podaje inny czas. Dokonuje się tego odbierając sygnał nie od trzech, a od czterech

Page 45: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

45

satelitów. Można wówczas wyliczyć zarówno rzeczywisty czas, jak i położenie. Opisana metoda pomiaru daje błąd poniżej 10 metrów. Do niedawna, dokładność taką mogły uzyskać tylko amerykańskie odbiorniki wojskowe. Odbiorniki cywilne musiały się zadowolić kodem C/A, w którym sygnał czasu był umyślnie zakłócany poprzez Departament Obrony USA. Stąd też występował spadek dokładności do ok. 50-100 metrów. Zakłócenia wprowadzone sztucznie do systemu nazywały się SA (Selective Availability) i sprawiały, że każdy samodzielny odbiornik GPS, pozostawiony w bezruchu, stopniowo wykazywał zmiany pozycji. Dokładność taka jest wystarczająca tylko do nawigacji; dlatego wymyślono metodę obejścia problemu zakłócania sygnału. Metodą tą jest pomiar względny (DGPS - Differential GPS) Zasada jest prosta: jeżeli ustawi się GPS w ustalonym punkcie, to na skutek zakłócenia sygnału pozycja przez niego wyznaczona będzie się ciągle zmieniać. Jeżeli obliczymy różnicę pomiędzy zmierzoną przez odbiornik pozycją, a pozycją rzeczywistą odbiornika to otrzymamy tzw. wektor błędu (rys. 20).

Rys. 20. Pomiar względny (DGPS).

Decyzją władz Stanów Zjednoczonych 1 maja 2000 roku o północy czasu EDT zagłuszanie

sygnału z satelitów GPS zwane ograniczonym dostępem (Selective Availability - SA) zostało wyłączone. SA (ograniczony dostęp) było to celowe zmniejszanie dokładności systemu GPS w celu zapobiegnięcia wykorzystaniu go przez wrogie armie w celach taktycznych. Stany Zjednoczone zdecydowały wyłączyć SA od 1 maja 2000 roku. Wcześniej jednak zdarzało się, że chwilowo rezygnowano z jego stosowania np. podczas wojny w Zatoce Perskiej i podczas inwazji na Haiti, ponieważ wówczas armia nie posiadała dostatecznej liczby odbiorników wojskowych i korzystano również z odbiorników cywilnych. Odbiorniki wojskowe mogą korzystać z odszyfrowanego kodu P i uzyskiwać dokładność około 20 m.

Usunięcie SA jest bardzo korzystne dla obecnych i przyszłych użytkowników odbiorników GPS. Przede wszystkim spowodowało ono zdecydowane polepszenie dokładności wyznaczania pozycji ze 100 do 10-20 metrów, czyli prawie dziesięciokrotnie. Zauważalna jest również poprawa dokładności określania prędkości. Lepsza dokładność (rzędu 1-5 metrów) może być nadal osiągnięta poprzez zastosowanie korekcji różnicowej (DGPS), która pozwala wyeliminować inne błędy systemu takie, jak błędy zegarów i orbit satelitów, błędy spowodowane opóźnieniem jonosferycznym i troposferycznym, szumem odbiornika i odbiciem. Odbiorniki GPS automatycznie przystosowują się do wyznaczania pozycji w nowych warunkach po usunięciu SA, a zatem żaden upgrade ani też zmiany

Page 46: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

46

w sprzęcie nie są konieczne. spowoduje usunięcia jego cech militarnych. Nowe technologie, będące w posiadaniu armii umożliwiają.

Literatura

1. Jacek Januszewski, Systemy satelitarne GPS Galileo i inne, PWN, 2007. 2. Janusz Narkiewicz, GPS i inne satelitarne systemy nawigacyjne, WKŁ, 2007.

Page 47: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

47

Temat 11 (3 godziny): GPS. Urządzenia satelitarne. W skład GPS wchodzą trzy główne segmenty: – kosmiczny, – nadzoru, – użytkowników.

Segment kosmiczny GPS składa się z 24 satelitów, w tym 3 aktywnych satelitów zapasowych. W praktyce, ilość dostępnych satelitów przekracza zazwyczaj tą liczbę. Satelity rozmieszczone są na sześciu orbitach kołowych, po cztery na każdej, na wysokości około 20200 km. Płaszczyzny orbit nachylone są pod kątem 55 stopni do równika. Czas obiegu orbity jest równy połowie doby gwiazdowej. Obserwator na Ziemi zaobserwuje tą samą konstelację satelitów codziennie, o prawie tej samej porze. Każdego dnia powtarza się ona o cztery minuty wcześniej z powodu różnicy pomiędzy długościami doby słonecznej i gwiazdowej. Satelity rozmieszczone są tak, iż co najmniej 5 z nich powinno być widocznych z każdego punktu Ziemi z prawdopodobieństwem 0.9996. Taka konfiguracja umożliwia, z małymi wyjątkami, wyznaczenie współrzędnych dowolnego miejsca na powierzchni Ziemi w dowolnym momencie doby. Na nielicznych i niewielkich obszarach wyznaczenie pozycji trójwymiarowej jest niemożliwe w okresie nie dłuższym niż około 20 minut w ciągu doby.

Pierwsze operacyjne satelity, oznaczone jako Blok I to satelity o numerach (SVN) od 1 do 11, projektu Rockwell International. Startowały z bazy Vandenberg AFB w Kalifornii przy użyciu rakiet Atlas E/F w latach 1978 – 1985 (tab. 8).

Zestawienie satelitów Blok I Tabela 8

Oznaczenie Data wysłania

Status

SVN01/PRN04 22/02/1978 Aktywowany 29/03/1978. Wyłączony 17/08/1985. SVN02/PRN07 13/05/1978 Aktywowany 14/07/1978. Wyłączony 12/02/1988. SVN03/PRN06 06/10/1978 Aktywowany 13/11/1978. Wyłączony 18/05/1992. SVN04/PRN08 10/12/1978 Aktywowany 08/01/1979. Wyłączony w maju 1990. SVN05/PRN05 09/02/1980 Aktywowany 27/02/1980. Wyłączony 11/05/1984. SVN06/PRN09 26/04/1980 Aktywowany 16/05/1980. Wyłączony 06/03/1991. SVN07 18/12/1981 Próba umieszczenia na orbicie zakończona niepowodzeniem. SVN08/PRN11 14/07/1983 Aktywowany 10/08/1983. Wyłączony 04/05/1993.

SVN09/PRN13

13/06/1984 Aktywowany 19/07/1984. Wyłączony 28/02/1994. Przeniesiony na wyższą orbitę 20/06/1994.

SVN10/PRN12

08/09/1984 Aktywowany 03/09/1984. Wyłączony 18/11/1995. Przeniesiony na wyższą orbitę 26/03/1996.

SVN11/PRN03 09/10/1985 Aktywowany 30/10/1985. Wyłączony 13/04/1994.

Satelity Bloku I umieszczono na orbitach kołowych, na wysokości około 20 000 km, z okresem obiegu wynoszącym 12-godzin. Ich parametru orbitalne są zbliżone do satelitów Bloku II, różnią się jedynie kątem nachylenia, który dla Bloku I wynosi 63 stopnie.

Satelity Bloku II, o numerach (SVN) od 13 do 21, umieszczano na orbitach od lutego 1989 do października 1990. Powinny one zapewnić poprawną pracę przez okres 14 dni bez kontaktu z segmentem kontroli (Control Segment - CS). Satelity Bloku IIR (R od replacement) o numerach SVN od 41 do 62 są produkcji General Electric. Satelity Bloku IIR są zaprojektowane tak, aby mogły

Page 48: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

48

pracować przez okres co najmniej 14 dni bez kontaktu z segmentem kontroli oraz do 180 dni w trybie autonomicznej nawigacji (AUTONAV) dzięki technice automatycznego wyznaczania odległości pomiędzy satelitami. Obecnie segment satelitarny tworzy 27 satelitów serii II, IIA i IIR (24 operacyjne - 3 rezerwowe). Czas pracy satelity serii IIR wynosi około 7,5 roku. Przez ten czas satelita pokonuje odległość 1 miliarda 74 milionów km.

Satelita Navstar serii II R składa się z dziewięciu podstawowych systemów (rys. 21): – system wprowadzania na orbitę, – system kontroli wysokości i prędkości, – system kontroli reakcji, – system śledzenia, telemetrii i sterowania, – system nawigacyjny, – system wykrywania wybuchów jądrowych, – system kontroli termicznej, – blok zasilania, – konstrukcji nośnej.

Rys. 21. Satelita Navstar serii II R

System wprowadzania na orbitę służy do wprowadzania satelity z orbity parkingowej, na której został umieszczony przez rakietę nośną, na kołową orbitę roboczą. Jest to zadanie dwóch silników napędowych: PAM-D, który wprowadza satelitę na orbitę eliptyczną i jest odrzucany, oraz silnika STAR 37 XF(na rysunku widocznego poniżej zespołu anten), który zaczyna pracę w apogeum tej orbity i inicjuje ruch po orbicie kołowej.

System kontroli wysokości i prędkości utrzymuje korpus satelity w odpowiednim położeniu względem Ziemi i Słońca. Składa się z bezwładnościowego układu odniesienia, podsystemu optycznego do sterowania ustawieniem ogniw słonecznych i czujników promieniowania ziemskiego. Polecenia zmiany położenia lub orientacji całego satelity kierowane są do systemu kontroli reakcji, który steruje zespołem hydrazynowych silników korekcyjnych (20 silników po 0,045 kG ciągu i 2 silniki po 2,25 kG). Małe silniki korekcyjne są zgrupowane w modułach RCS (Reaction Control System). Mniejsze korekty orientacji satelity są wykonywane przez system krążków reakcyjnych.

Page 49: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

49

System śledzenia i kontroli obejmuje wszystkie układy służące do telemetrii, aktywnej lokalizacji, zdalnego sterowania i kontroli systemów satelity. System nawigacyjny to zespół urządzeń realizujących zasadnicze zadania satelity Navstar, czyli utrzymywanie czasu oraz generowanie i emitowanie sygnałów SPS i PPS. Sercem są cztery atomowe wzorce czasu: dwa rubidowe i dwa cezowe, wzajemnie się uzgadniające. Wybór zegara zasadniczego odbywa się zdalnie, na sygnał głównej stacji kontrolnej. Zegar cezowy wymaga konserwacji ("pompowania") około dwa razy do roku co powoduje wyłączenie satelity na średnio 18 godzin. Zespół anten składa się z dwunastu elementów promieniujących o długości 62 i średnicy 7 cm. Elementy anteny są wykonane z laminatu grubości 0.5 cm i metalizowane. Dla otrzymania właściwego kształtu charakterystyki promieniowania anteny są ustawione w dwa koncentryczne okręgi: wewnętrzny (4 elementy) o średnicy 15 cm i zewnętrzny (8 elementów) o średnicy 44 cm. Wewnętrzne anteny mają nieci wyższe podstawy. Anteny okręgu wewnętrznego i zewnętrznego są zasilane w przeciwfazie, z tym, że 90 procent mocy dostaje okrąg zewnętrzny. System antenowy satelitów IIR i IIF jest uzupełniony przez dziewięć anten UHF, rozmieszczonych dookoła kręgu anten nawigacyjnych.

System wykrywania wybuchów jądrowych NUDET (Nuclear Detonation Detection System) dysponuje czujnikami promieniowania X, detektorem impulsu elektromagnetycznego i radiometrem optycznym.

System kontroli termicznej zapewnia izolację cieplną systemów satelity od ekstremalnych warunków panujących na wysokich orbitach. Złocona zewnętrzna folia izolacyjna nadaje satelitom dość elegancki kolor.

Literatura

1. Jacek Januszewski, Systemy satelitarne GPS Galileo i inne, PWN, 2007. 2. Janusz Narkiewicz, GPS i inne satelitarne systemy nawigacyjne, WKŁ, 2007.

Page 50: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

50

Temat 12 (3 godziny): GPS. Urządzenia naziemne.

W skład urządzeń naziemnych systemu GPS wchodzą urządzenia: – segmentu nadzoru – segmentu użytkownika.

Segment nadzoru Segment nadzoru składa się z Głównej Stacji Nadzoru (MCS - Master Control Station) w Bazie

Sił Powietrznych Falcon w Colorado Springs i stacji monitorujących na Hawajach, w Kwajalein, Diego Garcia i Ascesion (rys. 22).

Rys. 22. Rozmieszczenie na Ziemi stacji nadzoru GPS.

Wszystkie stacje monitorujące wyposażone są w anteny do łączności dwustronnej z satelitami. Stacje monitorujące biernie śledzą wszystkie widoczne satelity. Dane ze stacji monitorujących przesyłane są do MCS gdzie wyznaczane są efemerydy satelitów i parametry ich zegarów. MCS okresowo przesyła satelitom efemerydy i poprawki zegara w celu ich retransmisji w depeszy nawigacyjnej.

Segment użytkowników Segment użytkowników składa się z różnorodnych wojskowych i cywilnych odbiorników GPS

zaprojektowanych tak, by odbierać, dekodować i przetwarzać sygnały GPS. Są to odbiorniki samodzielnie funkcjonujące lub wbudowane w inne systemy. Zastosowania obejmują nawigację (powietrzną, morską, lądową), wyznaczanie pozycji, transfer czasu, pomiary geodezyjne i wiele innych. Ze względu na wielorakie zastosowania odbiorniki różnią się funkcjami i konstrukcją. Burzliwy rozwój techniki GPS stał się możliwy dzięki rozwojowi mikroelektroniki i elektronicznej techniki obliczeniowej. Na początku lat osiemdziesiątych, urządzenia odbiorcze Globalnego Systemu Pozycyjnego ważyły kilkanaście kilogramów, zajmowały objętość rzędu kilkuset litrów. Przełom nastąpił w momencie, gdy postęp w wytwarzaniu układów scalonych umożliwił wykorzystanie cyfrowych technik przetwarzania sygnału. We współczesnych odbiornikach układy analogowe wykorzystywane są jedynie w celu wzmocnienia sygnału. Dla potrzeb cyfrowego przetwarzania sygnału wykorzystuje się specjalizowane mikroukłady próbkujące sygnał z częstotliwością do kilkudziesięciu MHz. Pracę tych mikroukładów nadzorują procesory o bardzo dużej szybkości przetwarzania danych. Regułą jest implementowanie w odbiornikach GPS oprogramowania wielozadaniowego pracującego w czasie rzeczywistym. Przełączanie zadań odbywa się z częstotliwością rzędu 1 kHz. Współczesne najmniejsze i najprostsze odbiorniki, przeznaczone dla

Page 51: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

51

potrzeb nawigacyjnych ważą nie więcej niż kilkaset gram i mogą być trzymane w dłoni. Tak to już w technice jest, że o wartości najwspanialszego systemu decydują nie testy laboratoryjne, lecz opinia użytkowników. A tę użytkownik wyrabia sobie na podstawie tego, przez co "rozmawia" z systemem. W GPS segment użytkownika tworzą odbiorniki, które przetwarzają sygnały z satelity na trójwymiarowe współrzędne położenia, prędkość, czas itp. Ilość, dokładność oraz postać prezentowanych danych zależą od przeznaczenia i rodzaju odbiornika.

Istnieje wiele typów odbiorników GPS. Począwszy od odbiorników ręcznych wielkości telefonu komórkowego, poprzez profesjonalne zestawy do nawigacji i geodezji, do wysokiej klasy modułów GPS, sprzężonych z systemami nawigacyjnymi samolotów komunikacyjnych i wojskowych. Szeroko stosuje się także moduły GPS w postaci kart komputerowych PC, PCMCIA, a nawet VME (dla dużych komputerów pracujących pod kontrolą systemu UNIX).

Odbiornik GPS jest w sumie ogromną i skomplikowaną maszyną. To, że można za względnie nieduże pieniądze sobie go sprawić, i jest to nieduże coś z ekranikiem, nie wymagające klimatyzacji i godzinnego dostrajania, jest zasługą rozwoju techniki cyfrowej. Jednoukładowy specjalizowany komputer kieszonkowego odbiornika ma moc obliczeniową, której by się niejeden pecet nie powstydził.

Poniżej wymieniono najistotniejsze cechy odbiornika GPS: 1. Dokładność wyznaczania pozycji, prędkości i czasu - szanujący się producent do odbiornika dołączy wydruk testów tego egzemplarza. 2. Ilość śledzonych satelitów - minimum to cztery, jednak wtedy utrata sygnału jednego z nich (zajście satelity za horyzont czy przeszkodę terenową) powoduje przerwanie ciągłości nawigacji trójwymiarowej (akwizycja sygnału innego satelity i powrót do nawigacji trójwymiarowej może zająć do 2 minut), Praktyczne minimum to 5 satelitów, ale najbezpieczniejsze jest śledzenie wszystkich (do 12) widocznych satelitów (All-In-View). 3. Czas akwizycji - czas od włączenia do pierwszego wyznaczenia pozycji. 4. Czas reakwizycji - do wznowienia pomiarów po chwilowym zaniku sygnału satelitarnego. 5. Dopuszczalne przyśpieszenia, którym poddany może zostać odbiornik bez zerwania śledzenia sygnału. 6. Czułość odbiornika - prawie wszystkie konstrukcje charakteryzują się wystarczającą czułością, ale warto pamiętać, że im niższa wartość minimalnego sygnału, tym lepszy odbiornik. 7. Stosunek sygnał/szum - minimalny stosunek sygnału do szumu, przy którym odbiornik może jeszcze prawidłowo śledzić sygnał satelitarny (zasada ta sama, co powyżej). 8. Odporność na sygnały zakłócające - konstrukcja anteny powinna zmniejszać wpływ sygnałów odbitych. Poza tym uczciwsi producenci podają natężenie zakłóceń elektromagnetycznych, przy których odbiornik jeszcze pracuje poprawnie. 9. Odporność na warunki środowiskowe.

Literatura

1. Jacek Januszewski, Systemy satelitarne GPS Galileo i inne, PWN, 2007. 2. Janusz Narkiewicz, GPS i inne satelitarne systemy nawigacyjne, WKŁ, 2007.

Page 52: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

52

Temat 13 (2 godziny): GPS. Wykorzystanie systemów GPS.

System GPS jest technologią znajdującą obecnie coraz szersze zastosowanie. Na świecie jest teraz ponad 4 miliony użytkowników GPS, a oczekuje się, że rynek zastosowań GPS podwoi się w najbliższych trzech latach z 8 bilionów dolarów do ponad 16 bilionów dolarów. Niektóre z wspomnianych zastosowań to: komunikacja lotnicza, drogowa, kolejowa, nawigacja morska, precyzyjne rolnictwo i kopalnictwo, eksploatacja ropy naftowej, badania i zarządzanie środowiskiem, telekomunikacja, elektroniczny transfer danych, konstrukcje, rekreacja i ratownictwo.

Zależnie od stosowanej techniki przetwarzania sygnału i danych, rezultaty pomiarów wykonywanych z wykorzystaniem sygnałów satelitów GPS charakteryzują się różną dokładnością i dostępnością. Najważniejsze z kategorii cywilnych zastosowań GPS to:

Wyznaczanie w czasie rzeczywistym pozycji obiektów lądowych, morskich, lotniczych, kosmicznych. Czas trwania pomiaru jest bardzo krótki, zazwyczaj nie przekracza sekundy, typowa dokładność

jest rzędu kilkudziesięciu metrów, przy wykorzystaniu technik różnicowych osiąga wielkości submetrowe. Uzyskane informacje wykorzystywane mogą być między innymi dla potrzeb nawigacyjnych, w systemach nadzoru ruchu obiektów.

Systemy informacji geograficznej. Tworzenie baz informacji geograficznej, szybkie pomiary kartograficzne. Odbiorniki,

wyposażone w odpowiednie oprogramowanie umożliwiają rejestrację informacji o terenie skojarzonej z aktualną pozycją. Opracowanie informacji z odbiornika GPS ma miejsce zazwyczaj po sesji pomiarowej, z wykorzystaniem danych zarejestrowanych przez odbiornik i stację referencyjną. Pojedynczy pomiar trwa od kilku do kilkudziesięciu sekund, uzyskiwana dokładność wyznaczenia pozycji jest rzędu metra lub lepsza.

Pomiary geodezyjne Static, Fast Static Dla potrzeb geodezyjnych wyznacza się wektory o długościach do kilkuset kilometrów, przy

dokładności pomiaru długości wektora rzędu kilku milimetrów. Pomiar taki wykonuje się przy użyciu pary odbiorników, czas wykonania pomiaru wynosi, zależnie od odległości pomiędzy odbiornikami i warunków widoczności satelitów, do kilkudziesięciu minut. Pomiary wykonywane techniką GPS stanowią istotną konkurencję dla pomiarów geodezyjnych wykonywanych metodami tradycyjnymi a przy tworzeniu sieci wyższego rzędu są regułą ze względu na dokładność i niskie koszty. Pomiary geodezyjne Kinematic, Stop & Go W pomiarach tego typu wykorzystuje się fakt, iż przemieszczenia anteny odbiornika GPS, nie tracącej kontaktu z sygnałami satelitarnymi mogą być natychmiast wyznaczone z dużą dokładnością. Rozpoczynając pomiar od punktu o znanych współrzędnych, możemy wyznaczać pozycje kolejnych punktów z dokładnością centymetrową, z czasem pobytu na punkcie rzędu sekund. Zasadniczą różnicą, istotną dla użytkownika przy wyborze odpowiedniego typu urządzenia, jest sposób inicjalizacji pomiarów kinematycznych. Odbiorniki dwu-częstotliwościowe mogą być inicjalizowane w locie (On-The-Fly), w praktyce oznacza to, iż odbiornik może rozpoczynać i kontynuować pracę w trybie kinematycznym bez potrzeby umieszczania anteny na punkcie o znanych współrzędnych. Dla inicjalizacji odbiornika jedno-częstotliwościowego niezbędne jest umieszczenie anteny na punkcie o znanych współrzędnych. W braku takiego punktu niezbędne jest wykonanie pomiaru metodą Static lub Fast Static. Różnice pomiędzy odbiornikami jedno i dwu-częstotliwościowymi stają się jaskrawsze przy pomiarach wykonywanych na średnich i dużych odległościach. Błąd odbiornika jedno-częstotliwościowego wzrasta szybciej wraz ze wzrostem odległości od bazy niż błąd odbiornika dwu-częstotliwościowego.

Real Time Kinematic

Page 53: Materiały dydaktyczne Technologie informacyjne Semestr VI ... · Temat 1 (2 godziny): Sieci komputerowe. Wiadomości podstawowe. ... Oprócz połączonych sieci, ... innego jak działanie

Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Projekt „Rozwój i promocja kierunków technicznych w Akademii Morskiej w Szczecinie”

Akademia Morska w Szczecinie, ul. Wały Chrobrego 1-2, 70-500 Szczecin

53

Jest to najbardziej zaawansowana technologia różnicowa. Wymaga łącza radiowego o dużej szybkości, jednak umożliwia wyznaczanie pozycji w czasie rzeczywistym z dokładnością centymetrową. Jej zasięg ograniczony jest do promienia kilkunastu kilometrów od stacji bazowej.

Wyznaczanie orientacji Odbiornik GPS wykorzystujący sygnały dochodzące z kilku anten wyznaczać może orientację

obiektu, np. przechylenia boczne i wzdłużne okrętu, samolotu.

Literatura 1. Jacek Januszewski, Systemy satelitarne GPS Galileo i inne, PWN, 2007. 2. Janusz Narkiewicz, GPS i inne satelitarne systemy nawigacyjne, WKŁ, 2007.