Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Internet. 1961-1965 HISTORIA SIECI – pierwsze kroki 1961 L. Kleinrock z Massachusetts Institute of Technology przedstawia zarys teorii przełączania pakietów.

Podobne prezentacje


Prezentacja na temat: "Internet. 1961-1965 HISTORIA SIECI – pierwsze kroki 1961 L. Kleinrock z Massachusetts Institute of Technology przedstawia zarys teorii przełączania pakietów."— Zapis prezentacji:

1 Internet

2 HISTORIA SIECI – pierwsze kroki 1961 L. Kleinrock z Massachusetts Institute of Technology przedstawia zarys teorii przełączania pakietów. Instytucja RAND Corporation (Research and Development) dostała zlecenie od Sił Powietrznych USA, zbudowania sieci komunikacji głosowej, która przetrwa atak atomowy J.C.R. Licklider z Massachusets Institute for Technology (MIT) opracowuje koncepcję oplecenia ziemi globalną siecią telekomunikacyjną. Ponadto Paul Baran z RAND Corporation utworzył model sieci oparty na wymianie danych w małych pakietach. Powstały więc kolejne koncepcje będąca zalążkiem Internetu T. Merril i L.G. Roberts za pomocą linii telefonicznej łączą między Massachusetts a Kalifornią dwa komputery. Początkowo istniały tylko sieci izolowane. Każda z nich wykorzystywała swój własny sposób komunikacji, stworzony przez firmę administracyjną. Łączenie poszczególnych sieci było bardzo drogie albo wręcz niemożliwe.

3 HISTORIA SIECI – powstanie Internetu Lata 60-te - Izolowane systemy komputerowe ARPANET - Advanced Research Project Agency Network zdefiniowanie protokołu przesyłania plików - FTP, oraz logowania – TELNET, zainicjowanie pierwszego europejskiego połączenia poprzez sieć pomiędzy Anglią a Norwegią UUCP - UNIX to UNIX copy USENET - Users Network - to ogólnoświatowy system grup dyskusyjnych ARPANET obejmuje 400 serwerów na uniwersytetach, w rządzie i armii Stanów Zjednoczonych CSNET - Computer Science Network BITNET - Because It's Time Network - łącząca uczelnie w USA Powstają emotikony ;-) FidoNet, ARPAnet zostaje rozdzielony na dwie części: militarną - MILNET oraz cywilną - ARPAnet, Internet (TCP/IP) NSFNET - National Science Foundation Network. Na potrzeby Internetu opracowano hierarchiczny system unikatowych nazw domenowych i protokołów DNS (Domain Name System) OSI - Open System Interconnection GOSIP - Government OSI Profile. Powstaje Internet Relay Chat (IRC) liczba komputerów w Internecie przekracza , do Internetu dołącza Kanada, Finlandia, Niemcy ARPANET kończy swoją działalność.

4 : naukowcy z CERNu opracowali standard WWW (World Wide Web). Zniesiono zakaz używania Internetu do celów komercyjnych. wiosna – w Polsce powstaje NASK (Naukowa i Akademicka Sieć Komputerowa). 17 sierpnia 1991 r. Rafał Pietrak, fizyk z Uniwersytetu Warszawskiego, nawiązał łączność w oparciu o protokół IP z Janem Sorensenem z Uniwersytetu w Kopenhadze. 20 grudnia - Polska zostaje przyłączona do Internetu. kwiecień - powstaje protokół Gopher 1992: TP S.A. uruchamia sieć pakietową POLPAK 1993: 11 czerwca 1993 decyzja Komitetu Badań Naukowych o budowie Miejskich Sieci Komputerowych w jedenastu ośrodkach akademickich: w Warszawie, Krakowie, Poznaniu, Wrocławiu, Toruniu, Gdańsku, Katowicach/Gliwicach, Łodzi, Szczecinie, Rzeszowie i Lublinie oraz przyznaniu funduszy na budowę sieci szkieletowej NASK. powstaje pierwsza przeglądarka WWW umożliwiająca oglądanie graficznych stron - Mosaic. powstaje Tucows - jedna z większych składnic oprogramowania shareware, freeware i demo. powstaje pierwszy polski MUD - Studnia Dusz.

5 1994: kwiecień - powstaje portal Yahoo!. w czerwcu powstaje pierwszy w Polsce komercyjny BBS - Maloka BBS. Premiera przeglądarki Netscape Navigator. 1995: Powstaje pierwszy polski portal: Wirtualna Polska, 23 sierpnia 1995 prezentacja nowej przeglądarki internetowej na bazie kodu Mosaica - Internet Explorer. Rusza wyszukiwarka stron AltaVista. 1996: TP S.A. uruchamia usługę anonimowego dostępu, firma Polbox od listopada oferuje pierwsze w Polsce darmowe konta , a następnie WWW. Powstaje portal Onet.pl. Powstaje wyszukiwarka HotBot. 1997: oficjalna premiera PHP.

6 1998: Powstaje Google. 1999: Powstają pierwsze polskie komunikatory: Gadu-Gadu i Tlen.pl. Powstaje portal Interia.pl oraz portal O : Powstaje pierwszy międzynarodowy program głosowy Skype 15 stycznia - powstaje Wikipedia, 26 września - polska Wikipedia

7 USŁUGI INTERNETU Dostawca usługi Internetu (ISP – po angielsku Internet Service Provider), czasem skrótowo tylko provider (wym. prowajder), często oprócz łącza do Internetu oferuje następujące usługi dodane: hosting stron internetowych WWW lub serwerów internetowych FTP; pocztę elektroniczną ( ) na swoim portalu lub serwerze. Jeżeli ISP je oferuje, to ich koszt może być wliczony w koszt usługi podstawowej. Samo korzystanie z Internetu nie wymaga wykupienia żadnych innych dodatkowych usług od ISP. Obojętnie czy w domu czy w kafejce internetowej można bez dodatkowych opłat: przeglądać strony internetowe – WWW; transferować pliki – FTP, P2P; korzystać z darmowych skrzynek poczty elektronicznej; dyskutować w grupach dyskusyjnych Usenetu.

8 Oprócz wyżej wymienionych, Internet umożliwia dostęp do szerokiej gamy usług takich jak m.in.: dyskusje internetowe (grupy dyskusyjne, owe listy dyskusyjnych, fora dyskusyjne) rozmowy tekstowe w czasie rzeczywistym (IRC) komunikatory internetowe (Gadu-Gadu, ICQ, Jabber, Skype, Tlen) telefonia internetowa (VoIP - ang. Voice over Internet Protocol) radio internetowe telewizja internetowa telekonferencje faksowanie sklepy internetowe aukcje internetowe giełda internetowa bankowość elektroniczna gry online

9 Internet (z angielskiego, dosł. międzysieć) - globalna ogólnoświatowa sieć komputerowa logicznie połączona w jednorodną sieć adresową opartą na protokole IP (Internet Protocol), do komunikacji używająca TCP/IP (ang. Transmission Control Protocol/Internet Protocol), dostarcza lub wykorzystuje usługi wyższego poziomu oparte na telekomunikacji i związanej z nią infrastrukturze. Połączenie komputera z Internetem Przyłączenie komputera do Internetu możliwe jest z wykorzystaniem wielu technologii, które pozwalają urządzeniu komunikować się z pobliską bramką posiadającą stałe połączenie z innymi systemami w Internecie. Typowe rozwiązania wykorzystują linie telefoniczne (modemy, cyfrowe linie ISDN, modemy ADSL), inne technologie przewodowe (transmisja przez sieci energetyczne, telewizję kablową) oraz bezprzewodowe (GPRS, łącza satelitarne, Wi-Fi). Aby pracować w Internecie, komputer musi być w stanie komunikować się z innymi systemami przez protokoły z rodziny TCP/IP, a także posiadać oprogramowanie klienckie pozwalające na praktyczne wykorzystanie usług oferowanych przez innych użytkowników.

10 Wyszukiwanie i ściąganie danych z internetu 1.Systemy indeksujące 2.P2P Peer-to-peer 3.FTP 4.Torrent BitTorrent – protokół wymiany i dystrybucji plików przez Internet, którego celem jest odciążenie łączy serwera udostępniającego pliki. Jego największą zaletą w porównaniu do protokołu HTTP jest podział pasma pomiędzy osoby, które w tym samym czasie pobierają dany plik. Oznacza to, że użytkownik w czasie pobierania wysyła fragmenty pliku innym użytkownikom.

11 Web 2.0 Web określenie serwisów internetowych, powstałych po 2001 roku, w których działaniu podstawową rolę odgrywa treść generowana przez użytkowników danego serwisu. Ten termin został spopularyzowany dzięki firmie O'Reilly Media, która w 2004 roku zorganizowała szereg konferencji poświęconych temu nowemu trendowi internetowemu. Wbrew numeracji wersji oprogramowania, Web 2.0 nie jest nową World Wide Web ani Internetem, ale ulepszeniem, innym sposobem na wykorzystanie jego dotychczasowych zasobów. Uważa się, że serwisy Web 2.0 zmieniają paradygmat interakcji między właścicielami serwisu i jego użytkownikami, oddając tworzenie większości treści w ręce użytkowników. Strony Web 2.0 mają tendencję do korzystania z nowych technik takich jak XHTML, SOAP, AJAX, XUL, RDF, dużo częstsze wykorzystywanie kanałów RSS i Atom oraz bardzo szerokie rozpropagowanie Webservices.

12 Cechy Web 2.0 Techniczne wykorzystanie mechanizmu wiki, blogów udostępnianie interfejsów XML, które umożliwiają innym stronom i programom korzystanie z danych Web 2.0 (przede wszystkim przez RSS i Atom) używanie nowych technologii, jak np. AJAX czy Ruby on Rails Społeczne generowanie treści przez użytkowników, użycie folksonomii tworzenie się wokół serwisów rozbudowanych społeczności wykorzystanie kolektywnej inteligencji wykorzystanie otwartych licencji, jak Creative Commons czy GNU GFDL Wygląd pastelowe barwy gradienty zaokrąglenia duże czcionki efekt "mokrej podłogi"

13 Adres IP (Internet Protocol address) to unikatowy numer przyporządkowany urządzeniom sieci komputerowych, protokół IP. Adresy IP są wykorzystywane w Internecie oraz sieciach lokalnych. Adres IP zapisywany jest w postaci czterech oktetów w postaci dziesiętnej oddzielonych od siebie kropkami, np. adres IP: Adresowanie IPv4 W IPv4, czyli obecnym standardzie adresowania internetu, adres IP to liczba 32-bitowa (od 0 do ).

14 Liczby w adresie IP nazywają się oktetami, ponieważ w postaci binarnej mają one osiem bitów. Te osiem bitów daje w sumie 256 kombinacji, więc każdy oktet przedstawia liczbę od 0 do 255. Najpopularniejszy sposób zapisu adresów IP, to przedstawianie ich jako 4 dziesiętnych liczb od 0 do 255 oddzielonych kropkami. W rzeczywistości komputery traktują adres Wikipedii jako liczbę 32-bitową: Taki zapis jest mało czytelny, wobec czego stosuje się podział adresu IP na cztery oktety. Adres Wikipedii zapisujemy binarnie: po czym każdą grupę 8-bitów przekształcamy do postaci dziesiętnej: Przykładowe adresy trzech komputerów w danej podsieci: Komputer 1: Komputer 2: Komputer 3:

15 Ogólne zasady adresowania IP Podczas nadawania adresów IP należy przestrzegać następujących reguł: Wszystkie stacje w jednym fizycznym segmencie sieci powinny mieć ten sam identyfikator sieci Część adresu IP określająca pojedynczą stację musi być odmienna dla każdej stacji w segmencie sieci Identyfikatorem sieci nie może być wartość ta jest zarezerwowana do celów diagnostycznych Identyfikator stacji nie może składać się z samych jedynek - jest to adres rozgłaszania dla sieci lokalnej Identyfikator sieci nie może składać się z samych zer - jest to oznaczenie sieci lokalnej Identyfikator stacji również nie może składać się z samych zer - jest to oznaczenie sieci wskazanej przez pozostałą część adresu i nie może zostać przypisane pojedynczej stacji

16 Adresy w sieci lokalnej Trzy następujące pule adresów IP zostały zarezerwowane do użytku w sieciach lokalnych, oddzielonych serwerami proxy lub zaporami firewall: od do od do od do Celem ich utworzenia było zapewnienie sieciom nie przyłączonym do Internetu puli adresów niewchodzących w konflikt z żadnymi adresami będącymi w użyciu w Internecie. Sieciom korzystającym z tych pul nie zagraża, w razie późniejszego przyłączenia do Internetu, przypadkowy konflikt z inną siecią obecną w Internecie.

17 Klasy adresów IP A0Sieć.Stacja.Stacja.Stacja B10Sieć.Sieć.Stacja.Stacja C110Sieć.Sieć.Sieć.Stacja D1110Adres multiemisji E11110Zarezerwowany do użycia w przyszłość

18 Znaczenie masek podsieci Maska podsieci (ang. SNM - subnet mask) jest wykorzystywana do określania, ile bitów adresu IP wskazuje sieć, a ile stację w tej sieci. Dla adresów klas A, B i C wykorzystywane są maski domyślne: klasa A klasa B klasa C Maska podsieci klasy A wskazuje, że sieciowa część adresu to pierwsze 8 bitów. Pozostałe 24 bity określają stację w tej sieci. Jeżeli adresem stacji jest , to wykorzystanie maski domyślnej określa adres sieci jako Częścią adresu wskazującą stację jest

19

20 DNS - nazwy zamiast liczb Wszystkie komputery w sieci TCP/IP identyfikowane są za pomocą jednoznacznego adresu IP. Jego postać liczbowa o długości 32 bitów jest skomplikowana i łatwo o błąd podczas wpisywania. Z tego powodu już w roku 1984 utworzono system nazw domen Domain Name System (DNS). To właśnie dzięki niemu można połączyć się z hostem, używając przynależnej nazwy domeny. DNS to rozproszona baza danych, której głównymi komponentami są serwery nazw. Zarządzają informacjami o odwzorowaniu, co polega na wzajemnym przyporządkowaniu adresów IP i nazw komputerów. Gdy jeszcze nie było Internetu obecnej postaci, a ARPAnet łączył kilkaset komputerów, wszystkie informacje o hostach mieściły się w jednym pliku. Plik ten musiał się znajdować w każdym komputerze podłączonym do sieci ARPAnet; zawierał wszystkie informacje związane z odwzorowaniem. System nazw domen usunął podstawowe wady tablic nazw opartych na plikach: DNS daje się łatwo rozszerzać, ma postać rozproszonej bazy danych i gwarantuje, że informacje o nowych komputerach i zmianach w razie potrzeby dotrą do wszystkich użytkowników Internetu.

21

22 URL (ang. Uniform Resource Locator) oznacza ujednolicony format adresowania zasobów (informacji, danych, usług), stosowany w Internecie i w sieciach lokalnych. protokół://adres_serwera:port/ścieżka_dostępu http – protokół dostępu do zasobu – adres serwera wiki/URL – ścieżka dostępu do zasobu ftp://ftp.onet.pl/PUB

23 PROTOKOŁY Warstwa aplikacji ADSP (AppleTalk) APPC AFP (AppleTalk) DAP DLC DNS 53 ed2k FTAM FTP 20,21 Gopher HTTP 80 HTTPS 443 IMAP 143 IRC 194,529 Named Pipes NCP 524 NetBIOS 137,138,139 NWLink NBT NNTP 119 NTP 123 PAP POP3 110 RPC RTSP SNMP 161,162 SMTP 25 SMB SSL/TLS SSH 22 TDI Telnet 23 X.400 X.500 XDR ZIP (AppleTalk) (Cyfry w indeksie oznaczają numery portu) Warstwa transportowa ATP (AppleTalk) NBP (AppleTalk) NetBEUI RTP RTMP (AppleTalk) SPX TCP UDP SCTP Warstwa sieciowa IP ICMP IPsec NAT IPX NWLink NetBEUI DDP (AppleTalk) Warstwa dostępu do sieci ARP 10BASE-T WiFi ADSL Ethernet EtherTalk Fibre Channel ISDN LocalTalk (AppleTalk) NDIS ODI PPP RS-232 SLIP Token Ring TokenTalk (AppleTalk) V.90

24 Telnet to standard protokołu komunikacyjnego używanego w sieciach komputerowych do obsługi odległego terminala w architekturze klient-serwer. Telnet jest usługą (programem) pozwalającą na zdalne połączenie się komputera (terminala) z oddalonym od niego komputerem (serwerem) przy użyciu sieci, wykorzystując do tego celu protokół TCP-IP oraz standardowo przypisany port 23. Umożliwia on zatem ustanowienie użytkownikowi zdalnej sesji na serwerze tak jak gdyby siedział tuż przed nim. Protokół obsługuje tylko terminale alfanumeryczne, co oznacza, że nie obsługuje myszy ani innych urządzeń wskazujących. Nie obsługuje także graficznych interfejsów użytkownika. Wszystkie polecenia muszą być wprowadzane w trybie znakowym w wierszu poleceń. Polecenia wydawane za pomocą naszego komputera przysłane są poprzez sieć serwera, na którym zainstalowane jest oprogramowanie serwera telnetu. W odpowiedzi serwer odsyła nam komunikaty, które następnie wyświetlane są na naszym ekranie.

25 SSH (ang. secure shell) to standard protokołów komunikacyjnych używanych w sieciach komputerowych TCP-IP, w architekturze klient-serwer. W ścisłym znaczeniu SSH to tylko następca protokołu telnet, służącego do terminalowego łączenia się ze zdalnym komputerem. SSH różni się od telnetu tym, że transfer wszelkich danych jest zaszyfrowany, oraz możliwe jest rozpoznawanie użytkownika na wiele różnych sposobów. W szerszym znaczeniu SSH to wspólna nazwa dla całej rodziny protokołów, nie tylko terminalowych, lecz także służących do przesyłania plików (SCP, SFTP), zdalnej kontroli zasobów, tunelowania i wielu innych zastosowań. Wspólną cechą wszystkich tych protokołów jest identyczna z ssh technika szyfrowania danych i rozpoznawania użytkownika. Obecnie protokoły z rodziny SSH praktycznie wyparły wszystkie inne "bezpieczne" protokoły takie jak np: Rlogin i RSH Znane implementacje SSH to zamknięty ssh.com, oparty na licencji Open Source OpenSSH oraz wersja protokołu stosowana w programie PuTTY. VNC (ang. Virtual Network Computing) - system przekazywania obrazu z wirtualnego, bądź fizycznego środowiska graficznego. Prosty pakiet serwer+klient jest dostępny pod najpopularniejsze systemy operacyjne z trybem graficznym, jak: Linux, Windows, BSD, MacOS, OS/2, Solaris, AmigaOS, SCO i wiele innych. Klienty VNC są dostępne nawet dla urządzeń typu PDA i niektórych telefonów komórkowych.

26 FTP (ang. File Transfer Protocol) - protokół typu klient-serwer, który umożliwia przesyłanie plików z i na serwer poprzez sieć TCP/IP. Serwer FTP, zależnie od konfiguracji, może pozwalać na dostęp do jego zawartości bez podawania hasła. Zamiast niego powinno się podawać adres e- mail (wg netykiety). Często jednak nie jest to przestrzegane własnie ze względu na anonimowy charakter usługi. Większość serwerów FTP loguje jednak każde połączenie i IP klienta. SFTP (ang. SSH File Transfer Protocol) – protokół pozbawiony wad, które posiada zwykły FTP. Przesyłając plik dzięki protokołowi FTP uzyskujemy dobre przepływności, ale nie zyskujemy bezpieczeństwa, nasze hasła nie są szyfrowane. Secure copy (ang. bezpieczne kopiowanie) lub SCP oznacza bezpieczny transfer plików pomiędzy lokalnym a zdalnym lub między zdalnymi komputerami, używając protokołu Secure Shell (SSH). Skrót SCP odnosi się do dwóch powiązanych ze sobą rzeczy: protokół SCP oraz polecenie scp. Programy pod windows: WinScp, TotalCommander, Wiersz poleceń - FTP

27 HTTP HTTP (ang. Hypertext Transfer Protocol - protokół przesyłania dokumentów hypertekstowych) to protokół sieci WWW (ang. World Wide Web). Obecną definicję HTTP stanowi RFC Za pomocą protokołu HTTP przesyła się żądania udostępnienia dokumentów WWW i informacje o kliknięciu odnośnika oraz informacje z formularzy. Zadaniem stron WWW jest publikowanie informacji - natomiast protokół HTTP właśnie to umożliwia. Protokół HTTP jest tak użyteczny, ponieważ udostępnia znormalizowany sposób komunikowania się komputerów ze sobą. Określa on formę żądań klienta dotyczących danych oraz formę odpowiedzi serwera na te żądania. Jest zaliczany do protokołów bezstanowych (ang. stateless) z racji tego, że nie zachowuje żadnych informacji o poprzednich transakcjach z klientem (po zakończeniu transakcji wszystko "przepada"). Pozwala to znacznie zmniejszyć obciążenie serwera, jednak jest kłopotliwe w sytuacji, gdy np. trzeba zapamiętać konkretny stan dla użytkownika, który wcześniej łączył się już z serwerem. Najczęstszym rozwiązaniem tego problemu jest wprowadzenie mechanizmu cookies. Inne podejścia to m.in. sesje po stronie serwera, ukryte parametry (gdy aktualna strona zawiera formularz) oraz parametry umieszczone w URL-u. HTTP standardowo korzysta z portu nr 80 (TCP).

28 HTTPS (ang. HyperText Transfer Protocol Secure) to szyfrowana wersja protokołu HTTP. Zamiast używać w komunikacji klient-serwer niezaszyfrowanego tekstu, szyfruje go za pomocą technologii SSL. Zapobiega to przechwytywaniu i zmienianiu przesyłanych danych. HTTPS działa domyślnie na porcie nr 443 w protokole TCP. Wywołania tego protokołu zaczynają się od https:, a zwykłego połączenia HTTP od Protokół HTTP jest warstwę wyżej (na transporcie SSL), najpierw następuje więc wymiana kluczy SSL, a dopiero później żądanie HTTP. Powoduje to, że jeden adres IP może serwować tylko jedną domenę lub też tylko subdomeny danej domeny (zależnie od certyfikatu). TLS (ang. Transport Layer Security) – przyjęte jako standard w Internecie rozwinięcie protokołu SSL (ang. Secure Socket Layer), w swojej pierwotnej wersji zaprojektowanego przez firmę Netscape Communications Corporation. TLS ma na celu zapewnienie poufności i integralności transmisji danych oraz zapewnienie uwierzytelnienia, opiera się na szyfrach asymetrycznych oraz certyfikatach standardu X.509. Zaletą protokołu jest fakt, że działa on na warstwie TCP, więc można go łatwo zastosować do zabezpieczenia protokołów warstwy aplikacyjnej (np.: telnet, HTTP, gopher, POP3, IMAP, NNTP).

29 HTML (ang. Hyper Text Markup Language, pl. hipertekstowy język znaczników), to język składający się ze znaczników (ang. tags) oraz reguł ich poprawnego stosowania (gramatyki, syntaktyki), stosowany do pisania stron WWW. Wraz z rozwojem sieci WWW, a zwłaszcza jej upowszechnianiem, pojawiła się potrzeba dołączania do tekstów tabel, grafiki i plików multimedialnych, w wyniku czego zaczęły powstawać kolejne wersje HTML-u. Wersje te były rozwijane przez firmy produkujące przeglądarki stron WWW, bez wzajemnych konsultacji, co doprowadziło do częściowej niekompatybilności wersji HTML-u zaimplementowanych w przeglądarkach różnych producentów. Próbą odpowiedzi na tę sytuację było stworzenie W3C czyli World Wide Web Consortium, organizacji która zajmuje się ustanawianiem wspólnych standardów HTML- u, a także innych zagadnień związanych z pisaniem stron WWW. Jego pierwsza wersja została opracowana przez Tima Berners-Lee w 1989 roku, który w tym czasie był konsultantem do spraw oprogramowania pracującym dla CERN. Tytuł strony Nagłówek pierwszego poziomu Akapit (z ang. paragraph) i jeszcze trochę tekstu w następnym wierszu a to link do Wikipedii.

30 JavaScript JavaScript jest nowym językiem skryptowym dla dokumentów internetowych. Skrypty napisane za pomocą JavaScript mogą być umieszczane bezpośrednio na stronach HTML. Język daje obszerne możliwości wzbogacania stron w interesujące elementy. Na przykład można zdefiniować reakcję na zainicjowane przez czytelnika działania. Niektóre efekty jeszcze niedawno były możliwe jedynie przy użyciu CGI, teraz również w JavaScript. My first JavaScript! To jest normalny dokument HTML. document.write("To jest JavaScript!") I znowu dokument HTML. function pushbutton() { alert("Hello!"); }

31 CGI (ang. Common Gateway Interface) to znormalizowany interfejs, umożliwiający komunikację pomiędzy oprogramowaniem serwera WWW a innymi programami znajdującymi się na serwerze. Zazwyczaj program serwera WWW wysyła do przeglądarki statyczne dokumenty HTML. Za pomocą programów CGI można dynamicznie (na żądanie klienta) generować dokumenty HTML uzupełniając je np. treścią pobieraną z bazy danych. Kaskadowe arkusze stylów (ang. Cascading Style Sheets, CSS) to język służący do opisu sposobu renderowania stron WWW. CSS został opracowany przez organizację W3C w 1996 r. Arkusz stylów CSS to lista dyrektyw (tzw. reguł) ustalających w jaki sposób ma zostać renderowana przez przeglądarkę internetową zawartość wybranego elementu (lub elementów) (X)HTML lub XML. XML (ang. Extensible Markup Language) to uniwersalny język formalny przeznaczony do reprezentowania różnych danych w ustrukturalizowany sposób. XML jest niezależny od platformy, co umożliwia łatwą wymianę dokumentów pomiędzy różnymi systemami i znacząco przyczyniło się do popularności tego języka w dobie Internetu. XHTML (ang. Extensible HyperText Markup Language, rozszerzalny hipertekstowy język znaczników) jest to język służący do tworzenia stron WWW ogólnego przeznaczenia. XHTML jest następcą języka HTML. Specyfikacje XHTML przygotowuje organizacja W3C. PHP– refleksywny skryptowy język programowania zaprojektowany do generowania dynamicznych stron internetowych. PHP najczęściej interpretuje skrypty po stronie serwera WWW, ale może być również używany z poziomu wiersza poleceń oraz w aplikacjach pracujących w trybie graficznym za pomocą biblioteki GTK+.

32 World Wide Web Consortium, w skrócie W3C, to organizacja, która zajmuje się ustanawianiem standardów pisania i przesyłu stron WWW. Została założona 1 października 1994 roku przez Tima Berners-Lee, twórcę WWW oraz autora pierwszej przeglądarki internetowej i serwera WWW. Najważniejsze zagadnienia, którymi zajmowała się lub zajmuje W3C HTML/XHTML/XForms - podstawowy język znaczników, stosowany do pisania stron WWW, CSS - kaskadowe arkusze stylów, DOM - Document Object Model - ustanowienie jednolitego systemu, w jaki sposób przeglądarki zarządzają wyświetlaniem i indeksowaniem elementów stron WWW, XML - język znaczników, na podstawie którego tworzone są aplikacje XML, HTTP - protokół przesyłania stron WWW, SVG - Scalable Vector Graphics - ogólny format grafiki wektorowej, która ma zastąpić technologię Flash, SMIL/TimeText - Synchronized Multimedia Integration Language - język, przy pomocy którego (wewnątrz XML) będzie można swobodnie manipulować plikami multimedialnymi i tekstem, XSL/XSLT/XPath/XPointer - style, transformacje i inne techniki z tym związane, WAI - dostępność stron WWW, i wiele, wiele innych.

33 WebMail WebMail to rozwiązanie idealne dla podróżujących. Do obsługi poczty wystarczy dowolna przeglądarka Internetowa. Po prostu wpisujemy adres serwera WebMail obsługującego naszą skrzynkę, a po połączeniu przedstawiamy się (login, nazwa użytkownika) i podajemy hasło. Wadą może być konieczność utrzymywania połączenia z Internetem przez cały czas w trakcie czytania i pisania listów (w przypadku połączenia stałego w firmie czy na uczelni nie stanowi to problemu). Niewątpliwą zaletą jest natomiast fakt, że nie pozostawiamy po sobie żadnych konfiguracji albo zapomnianych haseł. IMAP (Internet Message Access Protocol) to internetowy protokół pocztowy zaprojektowany jako następca POP3. W przeciwieństwie do POP3, który umożliwia jedynie pobieranie i kasowanie poczty, IMAP pozwala na zarządzanie wieloma folderami pocztowymi oraz pobieranie i operowanie na listach znajdujących się na zdalnym serwerze. IMAP pozwala na ściągnięcie nagłówków wiadomości i wybranie, które z wiadomości chcemy ściągnąć na komputer lokalny. Pozwala na wykonywanie wielu operacji, zarządzanie folderami i wiadomościami.

34 Zagrożenia płynące z Internetu Bezpieczeństwo to zagadnienie istotne zarówno dla firm jak i dla indywidualnych użytkowników. Internet to znakomite narzędzie zarówno do dystrybucji informacji o sobie jak i otrzymywaniu ich od innych, jednak z wszelkimi dobrodziejstwami globalnej sieci związana jest również pokaźna liczba zagrożeń. Przestępstwa komputerowe takie jak kradzież informacji czy celowe niszczenie danych to tylko niektóre z nich. Najlepszym sposobem uniknięcia takiego biegu wydarzeń jest podjęcie działań prewencyjnych związanych z pozbawieniem możliwości uzyskania dostępu przez sieć do maszyny. To pole zastosowań dla firewalli (ścian ogniowych, zapór ogniowych). Ogólnie metody włamań można podzielić na: ataki z zewnątrz sieci lokalnej ataki z wnętrza sieci lokalnej ataki pośrednie

35 Ataki z zewnątrz Są to ataki, których najczęstszą formą są zakłócenia stabilnej pracy. Przejmowanie kontroli nad systemami odbywa się z zewnątrz sieci lokalnej, na przykład z Internetu. Można w tym celu wykorzystać lukę w systemie zabezpieczeń, błąd serwisu sieciowego lub po prostu słaby poziom zabezpieczeń firmy. Do najczęstszych tego typu ataków należą: Ataki na poszczególne komputery, bądź serwer główny - to jeden z najczęstszych typów ataków. Konsekwencjami są zwykle przerwy w pracy sieci lokalnej, uszkodzenie poszczególnych (bądź wszystkich) końcówek serwera, a co za tym idzie, całej sieci; co powoduje wielogodzinne przerwy w pracy. Ataki na serwer http - to ataki, których efektem jest utrata danych witryny internetowej lub uzupełnienie jej treściami kompromitującymi firmę.

36 Spoofing (maskarada) Metoda ta stosowana jest zwykle przez doświadczonych i wyrafinowanych włamywaczy. Polega na podszyciu się włamywacza pod jednego z użytkowników systemu, który posiada własny numer IP (numer identyfikujący użytkownika). Technika ta ma na celu omijanie wszelkich zabezpieczeń, jakie zastosował administrator w sieci wewnętrznej. Jest bardzo skuteczna nawet, gdy bywa wykorzystywana przeciwko markowym firewallom, switchom i ruterom. Dzięki niej możliwe jest "udawanie" dowolnego użytkownika, a co za tym idzie "podszywanie" się i wysyłanie sfałszowanych informacji. Ze swego komputera haker może dokonać przekierowania źródłowego adresu IP i "podszyć się" pod komputer sieciowy.

37 Ataki z wnętrza sieci Ataki z wnętrza sieci należą do jednych z groźniejszych. Włamanie następuje z wnętrza sieci lokalnej poprzez wykorzystanie konta jakiegoś użytkownika, czy też luki w zabezpieczeniach systemu autoryzacji użytkowników. Najczęściej włamania tego typu są udziałem pracowników firmy, a nie użytkowników komputerów spoza jej obrębu, gdyż dostęp do końcówki Sieci takiej osoby rzadko pozostaje zauważony. Ataki pośrednie Hakerzy stosują tu dość wyrafinowane metody, czego najlepszym przykładem są konie trojańskie. To grupa ataków najtrudniejszych do wykrycia. "Podłożenie" konia trojańskiego otwierającego dostęp do całej sieci może odbyć się za pośrednictwem poczty elektronicznej czy też podczas ściągania programu, który pochodzi z niepewnego źródła. Użytkownik prawie nigdy nie jest świadom tego, że ściągając na przykład najnowszą wersję odtwarzacza plików mp3 faktycznie otwiera dostęp do swojego komputera, a potem całej Sieci osobom niepowołanym.

38 Packet sniffing (podsłuchiwanie pakietów) Jest to metoda zdobywania systemu polegająca na przechwytywaniu przesyłanych przez sieć niezaszyfrowanych informacji. Można w ten sposób zdobyć hasło użytkownika i uzyskać dostęp do danego konta. Ataki polegające na "biernym węszeniu" stały się powszechne w Internecie. Stanowią one zazwyczaj wstęp do aktywnego przechwytywania cudzych plików. Aby rozpocząć tego rodzaju atak, haker musi zdobyć identyfikator i hasło legalnego użytkownika, a następnie zalogować się do Sieci. Kiedy wykona już te posunięcia, może bezkarnie podglądać i kopiować transmisje pakietów, zdobywając jednocześnie informacje o funkcjonowaniu danej sieci lokalnej. Ataki korzystające z autoryzowanego dostępu Są to ataki często stosowane przez osoby próbujące się włamać do sieci opartych na systemie operacyjnym, korzystającym z mechanizmu autoryzowanego dostępu (takim jak UNIX, VMS i Windows NT). Duże niebezpieczeństwo niesie ze sobą tworzenie plików zawierających nazwy serwerów, do których można uzyskać dostęp bez podawania hasła.

39

40 Czym jest firewall? Firewall składa się z pewnej liczby komponentów sieciowych (sprzętowych i programowych) w punkcie styku dwóch sieci. Zapewnia zachowanie reguł bezpieczeństwa między siecią prywatną, a niezabezpieczoną siecią publiczną, na przykład Internetem. Właśnie ta zapora decyduje, które z usług w sieci prywatnej dostępne są z zewnątrz i z jakich usług niezabezpieczonej sieci publicznej można korzystać z poziomu sieci prywatnej. Aby firewall był skuteczny, cały ruch danych między siecią prywatną a Internetem musi przechodzić przez niego. Firewall nie jest, jak router, bastion host czy inne urządzenie, częścią sieci. Jest jedynie komponentem logicznym, który oddziela sieć prywatną od publicznej. Bez firewalla każdy host w sieci prywatnej byłby całkowicie bezbronny wobec ataków z zewnątrz.

41 Funkcje firewalla Firewall spełnia wiele funkcji, których zakres może obejmować: kontrolę dostępu do usług systemu, ograniczenie liczby dostępnych usług, kontrolowanie połączeń sieciowych, skanowanie serwisów sieciowych, wykrywanie i eliminowanie prób włamania do systemu, zabezpieczenie przesyłanych informacji, nadzorowanie pracy routerów, ochronę systemu przed niebezpiecznymi programami, ukrywanie struktury wewnętrznej systemu, monitorowanie bieżącego stanu komunikacji sieciowej, rejestrowanie ważnych zdarzeń, równoważenie obciążenia serwerów.


Pobierz ppt "Internet. 1961-1965 HISTORIA SIECI – pierwsze kroki 1961 L. Kleinrock z Massachusetts Institute of Technology przedstawia zarys teorii przełączania pakietów."

Podobne prezentacje


Reklamy Google