Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Budowa i działanie komputera

Podobne prezentacje


Prezentacja na temat: "Budowa i działanie komputera"— Zapis prezentacji:

1 Budowa i działanie komputera
Krzysztof Chabuda klasa II „a”

2 Co to jest komputer? KOMPUTER - elektroniczna maszyna licząca (z ang. compute – obliczać), urządzenie elektroniczne służące do automatycznego przetwarzania informacji (danych), przedstawionych cyfrowo (tzn. za pomocą odpowiednio zakodowanych liczb). Jednostka centralna Klawiatura, myszka Zestaw komputerowy Monitor Współczesny komputer to zespół urządzeń wewnętrznych oraz zewnętrznych złożony w tzw. zestaw komputerowy, gdzie rodzaje zastosowanych urządzeń określają przeznaczenie oraz zdolności operacyjne komputera.

3 Rodzaje komputerów Ogólny podział komputerów:
superkomputery stosowane w nauce duże komputery (ang. mainframe) stosowane np. w bankowości minikomputery (najczęściej jako serwery) stosowane do obsługi mniejszych przedsiębiorstw, grup użytkowników, sieci komputerowych. mikrokomputery przeznaczone dla pojedynczego użytkownika (IBM, Macintosh) IBM ZSieries 990 – komputer klasy „mainframe”. Superkomputery zajmują ogromne pomieszczenia, posiadają dziesiątki a nawet setki procesorów. HP 9000 – serwer do zastosowań sieciowych

4 Rodzaje komputerów Mikrokomputery, komputery osobiste (PC):
Stacjonarne komputery osobiste: desktop oraz tower Laptop, notebook - przenośny komputer UltraPC – lekkie stacjonarno-przenośne komputery osobiste Terminal roboczy – pełni funkcję komunikatora pomiędzy użytkownikiem a dużym komputerem (lub superkomputerem) Palmtop – komputer mieszczący się w dłoni, pełni funkcję notesu elektrycznego

5 Podstawowe komponenty komputera stacjonarnego
monitor płyta główna procesor pamięć operacyjna karty rozszerzeń zasilacz napęd optyczny dysk twardy mysz klawiatura Dalej

6 Monitor Monitor wyświetla informacje optyczne pozwalające oglądać wyniki pracy komputera. Jest on  podłączony do karty graficznej komputera. Wróć

7 Monitor kineskopowy (CRT)
W tylnej części monitora kineskopowego znajduję się działo elektronowe (1), które emituje elektrony (2) w kierunku ekranu pokrytego od wewnątrz warstwą luminoforu . Miejsce, w którym elektrony uderzają w warstwę luminoforu, świeci w kolorze zależnym od rodzaju substancji, z której wykonano luminofor. Za pomocą pola elektrycznego (wytworzonego przez zespół kondensatorów) i/lub pola magnetycznego (wytworzonego przez zespół cewek indukcyjnych) wiązka elektronów jest skupiana (2) oraz odchylana (3) w sposób, który umożliwia zaświecenie każdego punktu na ekranie monitora. Monitory czarno-białe posiadają jedno działo elektronowe oraz jednorodną warstwę luminoforu. Kolorowe monitory posiadają zespół trzech dział elektronowych oraz maskę (4) wraz z odpowiednio złożoną warstwą luminoforu (5). Każdy ze świecących punktów na ekranie składa się z trzech subpunktów (czerwony, zielony i niebieski). Odpowiednia kombinacja jasności świecenia tych subpunktów luminoforu pozwala otrzymać praktycznie każdy kolor na ekranie monitora. Wróć

8 Monitor ciekłokrystaliczny (LCD)
Monitor ciekłokrystaliczny to urządzenie wyświetlające obraz w oparciu o mechanizm zmiany polaryzacji światła na skutek zmian orientacji uporządkowania cząsteczek chemicznych pozostających w fazie ciekłokrystalicznej, pod wpływem przyłożonego pola elektrycznego. Wróć

9 Płyta główna Płyta główna jest podstawowym komponentem komputera, umożliwiającym komunikację wszystkim pozostałym komponentom i modułom. Wróć Widok z boku Schemat działania płyty głównej BIOS

10 Wróć

11 Schemat działania płyty głównej
Głównym elementem płyty głównej jest chipset składający się zazwyczaj z dwóch układów - zwanych mostkami. mostek północny zajmuje się wymianą danych miedzy pamięcią a procesorem, oraz steruje magistralą AGP lub graficzną PCI-Express. mostek południowy odpowiada za współpracę z pozostałymi urządzeniami takimi jak: dyski twarde, napędy optyczne, zintegrowane audio i LAN, karty rozszerzeń, USB itp. Chipset to pojedynczy moduł lub zestaw specjalizowanych układów scalonych, odpowiadających za realizację określonych zadań w urządzeniach elektronicznych zainstalowanych na płycie głównej komputera. Jako medium komunikacyjne umożliwia wymianę danych pomiędzy procesorem i pamięcią operacyjną oraz buforową, kartą graficzną, portami wejścia/wyjścia i innymi elementami. Jego właściwości decydują o możliwościach i wyposażeniu płyty głównej utworzonej w większości na jego bazie. Od niego zależy odpowiednia współpraca z kartami AGP, obsługa trybów UltraDMA oraz zgodność z takimi, a nie innymi rodzajami procesorów. Chipset zwyczajowo, a często i fizycznie, podzielony jest na dwie części, zwane mostem północnym (north bridge) i południowym (south bridge). Część "północna" to kontroler systemowy łączący jednostkę centralną (CPU) z pamięcią operacyjną i buforową (cache), szyną AGP i PCI oraz częścią "południową". North brigde zapewnia również bezproblemową współpracę szyn działających z różnymi częstotliwościami (procesora, pamięci MHz, AGP - 66 MHz, PCI - 33 MHz). Dzięki niemu możliwa jest zatem współbieżna, potokowa wymiana informacji pomiędzy wspomnianymi komponentami. Część "południowa" pozwala z kolei na dołączenie do procesora portów wejścia/wyjścia: równoległego, szeregowego RS232C, szeregowej magistrali USB itp. Umożliwia również dopięcie do komputera urządzeń wejścia (mysz, klawiatura) oraz komunikację z kartami korzystającymi z magistrali ISA. Pośród wielu ważnych funkcji mostka "południowego" należy wspomnieć także o możliwościach, jakie pojawiły się stosunkowo niedawno - pomiaru istotnych parametrów systemu (napięcia zasilania, temperatury procesora, obrotów wentylatorów) oraz zapewnieniu zgodności z nową specyfikacją zarządzania energią - ACPI. W skład chipsetu wchodzi najczęściej od jednego do czterech odrębnych układów (chipów) rozmieszczonych czasem w różnych częściach płyty. W zależności od rodzaju, chipsetu może on zawierać następujące elementy: - kontroler pamięci operacyjnej (RAM), korekcji błędów, szybkości taktowania magistrali pamięci oraz dopuszczalnej ilości pamięci RAM; - kontroler pamięci cache L2; - kontroler procesora, w tym także obsługa cache pierwszego poziomu L1 (Każdy chipset jest przystosowany do pracy tylko z określonym typem (typami) procesorów, z tąd w procesie wytwarzania najpierw opracowywany jest procesor, a następnie konstruuje się dla niego odpowiedni chipset wykorzystujący jego możliwości takie jak np. częstotliwość taktowania); - kontroler magistrali PCI, ISA - szerokość magistrali, częstotliwość taktowania; - kontroler IDE/EIDE; - kontroler przerwań IRQ; - kontroler kanałów DMA; - zegar czasu rzeczywistego RTC; - kontroler klawiatury; - kontroler myszy - port (PS/2); - kontroler napędu dysków elastycznych (FDD); - kontroler portu równoległego (złącze Centronics); - kontroler portów szeregowych (RS232, USB); - oszczędne zarządzanie energią (power management). Do właściwości chipsetu należy również możliwość obsługi systemów składających się z więcej niż jednego procesora (architektura SMP Symmetric Multi-Processing). Rola chipsetu polega wówczas na takim zarządzaniu procesorami, aby jednocześnie wykorzystywały różne zadania i nie "wchodziły sobie wzajemnie w drogę". Rozwiązanie takie wykorzystywane jest głównie w serwerach sieciowych, od których wymagana jest wysoka efektywność i szybkość. Producenci dążą aby coraz więcej kontrolerów było wbudowanych bezpośrednio w układ(y) chipsetu, a także zmierzają do zmniejszenia liczby wchodzących w jego skład układów, zachowując jednocześnie jego techniczne możliwości. Chipset jako integralna część całej płyty jest z nią nierozerwalnie związana, związku z czym niemożliwa jest jego wymiana tak ja to ma miejsce z innymi elementami komputera. Wymiana chipsetu jest więc równoznaczna z wymianą całej płyty głównej. Wróć

12 BIOS BIOS, Basic Input-Output System, program zapisany na stałe w pamięci ROM komputera. Jest on uruchamiany jako pierwszy po włączeniu komputera. Jego zadaniem jest testowanie sprzętu, uruchomienie systemu operacyjnego. W BIOSie użytkownik może ustawić parametry systemu takie jak zainstalowany w systemie sprzęt (dyski, pamięć operacyjna itp.), na podstawie których kontrolowane jest przesyłanie danych między poszczególnymi składnikami systemu. BIOS (ang. Basic Input/Output System - Podstawowy System Wejścia/Wyjścia). Koncepcja architektury komputerów PC opiera się na budowie modułowej. Podstawą jest tu płyta główna, która zawiera wszystkie układy,  urządzenia potrzebne do pracy systemu. Drugim ważnym elemetem jest pamięć główna ROM zawierająca system BIOS. Jest on integralną częścią każdej płyty i nie może być wymieniany pomiędzy innymi różnymi płytami. BIOS z punktu systemu operacyjnego likwiduje różnice pomiędzy układowymi rozwiązaniami płyty. Oferuje on również procedury obsługi standardowych układów i urządzeń wejścia/wyjścia, z których może korzystać zarówno system operacyjny, jak i programista.    Podstawowe zadania BIOS-u to: - przeprowadzenie po restarcie testów podstawowych układów i urządzeń systemu, zwanych aututestem po włączeniu zasilania - POST (Post On Self Test), - inicjalizacja pracy systemu (instrukcje pobierane podczas startu pracy procesora, programowanie układów programowalnych, takich jak sterowniki przerwań czy DMA, wpisanie wartości początkowych do struktur systemowych w pamięci, na przykład inicjacja tablicy wektorów przerwań), - zapewnienie w postaci programów obsługi przerwań (programowych bądź sprzętowych), procedur obsługi (sterowników) podstawowych, standardowych urządzeń systemu. - niwelacja z punktu widzenia systemu operacyjnego, różnic konstrukcyjnych płyt głównych pochodzących od różnych producentów.    BIOS jest podstawowym systemem obsługi i jest zestawem programów przechowywanych w pamięci nieulotnej ROM (w nowszych rozwiązaniach EEROM lub NOVRAM) w zakresie wysokich adresów, przy końcu pierwszego megabajtu pamięci, zajmując ostatnie 128kB tego obszaru.     Kwestia poprawności działania systemu zależy od poprawności skonfigurowania właście BIOS-u. Mniej popularne systemy operacyjne (OS/2, BeOS, Linux) nie potrafią poprawnie współpracować z każdą konfiguracją BIOS-u.  Z funkcji BIOS-u bardzo intensywnie korzysta DOS, natomiast większość rozbudowanych systemów operacyjnych wykorzystuje go tylko podczas startu komputera, używając następnie własnych sterowników, które bezpośrednio komunikują sie bezpośrednio z częściami składowymi komputera. W czasie startu systemu BIOS musi nie tylko rozpoznać i poprawnie zainstalować różne urządzenia, ale od czasu wprowadzenia magistrali PCI i technologii PnP spoczywa na nim dodatkowy obowiązek rozdziału zasobów systemowych. Wymagane do tego informacje o konfiguracji zapisywane są w obszarze ESCD (Extended System Configuration Data), który zajmuje obszar 4kB. Tłumaczy to jednocześnie, dlaczego obecnie stosowane są układy flash-ROM w miejsce popularnych dawniej pamięci EPROM (EPROM nie umożliwiały one zapisu danych). Rysunek przedstawia organizację pamięci BIOS-ROM zapisanej w module flash-ROM oraz jej podział. Najnowsze BIOS-y ze względu na brak miejsca w pamięci flash muszą być częściowo kompresowane. Konieczność dekompresji takiego oprogramowania wyjaśnia, dlaczego BIOS tego typu musi być odwzorowany w pamięci operacyjnej (shadowing).     Do części składowych BIOS-u należą: komórki pamięci i wraz z układami współpracującymi (zegar czasu rzeczywistego, rejestry sterujące, port adresowy i port danych). Układ taki zawiera w sobie dane o konfiguracji sprzętowej, kalendarz i zegar czasu rzeczywistego. W informacji sprzętowej jest określona: - liczba i rodzaj zainstalowanych napędów, - parametry dysków twardych, - dane o zainstalowanej pamięci i jej szczegółowej konfiguracji, - konfiguracja i przydział przerwań IRQ i DMA. Zapamiętane dane o konfiguracji przechowywane są w pamięci dostatecznie długo przy pomocy baterii lub małego akumulatorka, doładowywanego zwykle z zasilacza sieciowego komputera. Nowoczesne baterie litowe mają trwałość określaną przez producentów 10 lat. Często spotykanym rozwiązaniem jest zitegrowanie układu scalonego z zasilaczem. Często w instrukcjach b.starych komputerach było zalecenie uruchamiania komputera nie rzadziej niż co dwa tygodnie.     Informacje o zainstalowanym sprzęcie odczytywane są każdorazowo przy starcie komputera i zapisywane w pamięci ROM procedury testowej POST (Power On Self Test) i porównywane ze stanem faktycznym. Zostaje również zainicjalizowanie pracy zegara systemowego DOS-u. Całość funkcji BIOS-u jest realizowana przy pomocy układu MC wraz 64 komórkowa pamięcią CMOS-RAM (niektóre komputery posiadają większą). Stwiedzenie błędu podczas któregokolwiek z testów jest sygnalizowane odpowiednim komunikatem oraz sygnałem dźwiękowym. Sposób zgłaszania błędów jest uzależniony od konkretnego BIOS-u. Ponadto po wykryciu błędów na poziomie podstawowych układów dalsze testy sa wstrzymywane. W systemie istnieje wiele układów wymagających zaprogramowanie sposobu pracy, a więc wpisania pewnych warunków początkowych, słów sterujących. Zaprogramowanie tych układów po restarcie jest zadaniem procedur zawartych w BIOS-ie. Oprócz tego, rozwiązania płyt głównych poszczególnych producentów umożliwiają wybór dodatkowych możliwości, decydujących o sposobie pracy systemu. Przykładem może być określenie ilości  stanów oczekiwania przy dostępie do pamięci czy włączenie lub wyłączenie opcji Shadow BIOS. Wyboru tych opcji dokonujemy przy pomocy programu zwanego SETUP-em, będącego również częścią składową BIOS-u, a uruchamianego na nasze życzenie w trakcie uruchamiania komputera, a więc i pracy układów płyty głównej. Ewolucja systemów operacyjnych PC spowodowała, że obecnie jedyną rolą BIOS-u jest załadowanie systemu operacyjnego (z różnych względów Windows oraz inne systemy operacyjne dla PC prawie nie wykorzystują podczas pracy funkcji BIOS-u). Tym niemniej, ze względu na przyjętą w Standardzie PC zasadę wstecznej zgodności, BIOS musi być wciąż obecny. Chociaż bardzo niewiele używany, jest niezbędny do działania komputera.      BIOS przechowywany jest we wbudowanej na płycie głównej pamięci. W dzisiejszych konstrukcjach jest to oczywiście pamięć typu Flash ROM, której zawartość może być dowolnie modyfikowana za pomocą odpowiedniego oprogramowania. Zapewnia to użytkownikowi możliwość załadowania nowej wersji BIOS-u, potrzebnej np. przy zmianie procesora na nowszy i szybszy, ale... stwarza szansę dla wirusów. Znane są już wirusy, które potrafią uszkodzić lub zmodyfikować BIOS. Nic zatem dziwnego, że konstruktorzy płyt głównych zaczęli stosować rozmaite rozwiązania, chroniące BIOS przed uszkodzeniami - np. blokadę możliwości zapisu do pamięci, zawierającej dwie kopie BIOS-u.      W tej samej pamięci, co BIOS, przechowywany jest również inny ważny program "wbudowany" w płytę główną. Jest to tzw. SETUP, czyli narzędzie programowe umożliwiające zapisanie charakterystyki konfiguracji komputera. Setup współczesnej płyty pozwala na wiele modyfikacji ustawień poszczególnych parametrów, a przy właściwym wykorzystaniu tych możliwości wydajność komputera może wyraźnie wzrosnąć w stosunku do ustawień fabrycznych (default).   Organizacja pamięci BIOS-ROM Wróć

13 Wróć

14 Budowa procesora PROCESOR stanowi główny element komputera, jest odpowiedzialny za przetwarzanie informacji. Budowa procesora Układy sterujące Arytmometr Rejestry Układy sterujące odpowiadają za dostarczenie arytmometrowi danych do obliczeń z pamięci operacyjnej, oraz przekazywanie wyników obliczeń z powrotem do pamięci oraz właściwą kolejność przetwarzania W arytmometrze odbywają się wszystkie obliczenia realizowane przez komputer. W rejestrach procesora przechowuje się adresy wybranych miejsc pamięci operacyjnej oraz dane i wyniki obliczeń PROCESOR stanowi główny element komputera, ponieważ jest odpowiedzialny za przetwarzanie informacji. Składa się on z układów sterujących, arytmometru oraz rejestrów . Układy sterujące odpowiadają za: dostarczenie arytmometrowi danych do obliczeń z pamięci operacyjnej, przekazywanie wyników obliczeń z powrotem do pamięci oraz właściwą kolejność przetwarzania. W arytmometrze odbywają się wszystkie obliczenia realizowane przez komputer. W rejestrach procesora przechowuje się adresy wybranych miejsc pamięci operacyjnej oraz dane i wyniki obliczeń. W wyróżnionym rejestrze nazywanym licznikiem rozkazów jest umieszczany adres miejsca w pamięci wewnętrznej zawierającego bieżący rozkaz dla procesora. Praca procesora odbywa się w tzw. cyklach rozkazowych. Przebieg jednego cyklu rozkazowego można opisać za pomocą następującego algorytmu: - Zawartość miejsca pamięci wewnętrznej wskazywanego przez licznik rozkazów LR zostaje przesłana do układów sterujących procesora, - W układach sterujących następuje rozdzielenie otrzymanej informacji na dwa pola: pole operacji i pole argumentów. Pole operacji zawiera adres rozkazu, który należy wykonać. Pole argumentów zawiera adresy, pod którymi są przechowywane dane oraz adres przeznaczenia wyniku. - Na podstawie wyznaczonych adresów następuje przesłanie z pamięci wewnętrznej argumentów do odpowiednich rejestrów, a na podstawie adresu rozkazu arytmometr wykonuje odpowiednie działanie (operację arytmetyczną lub logiczną) na zawartościach rejestru. - Wynik przetwarzania (wynik wykonanej operacji) jest wysyłany do pamięci wewnętrznej pod adres przeznaczenia wyniku. - Następuje zmiana wartości licznika rozkazów LR tak, aby wskazywał on kolejny rozkaz dla procesora. Wykonywanie obliczeń może zostać przerwane. Jeżeli procesor otrzyma sygnał informujący go o żądaniu obsługi przerwania następuje przerwanie obliczeń, zapamiętanie stanu licznika rozkazów i wykonanie podprogramu (procedury) obsługi przerwania. Dalsze zachowanie się procesora jest uzależnione od podprogramu obsługującego przerwanie. Oprócz przerwań nadchodzących z zewnątrz procesora (np. odczyt znaku z klawiatury) są przerwania wewnętrzne procesora. Jednym z takich przerwań może być przerwanie jego pracy w przypadku, gdy procesor odczyta rozkaz dzielenia dowolnej liczby przez liczbę 0. Mikroprocesor jest skomplikowanym automatem, który może wykonywać kilkaset dosyć prostych czynności - tzn. rozkazów maszynowych. Każdy rozkaz ma własny kod, liczbę zapisaną w jednym lub kilku bajtach. Procesor pobiera z pamięci kolejne bajty traktując je jako rozkazy lub dane i wykonuje zaprogramowane operacje. Wszystkie mikroprocesory zawierają podobne elementy: układ sterowania i synchronizacji, który kontroluje pracę procesora i wytwarza sygnały potrzebne do sterowania niektórymi elementami komputera arytmometr, czyli układ, który wykonuje operacje arytmetyczne i logiczne (niektóre procesory mają kilka arytmometrów) rejestry, tj. układy pamięci wewnętrzne szyny łączące elementy procesora Podstawowymi rejestrami, które znajdują się w każdym mikroprocesorze, są: licznik rozkazów - zawiera on adres następnego rozkazu do wykonania rejestr rozkazów - zawiera kod aktualnie wykonywanego rozkazu akumulator, jest używany w czasie wykonywania rozkazów arytmetycznych, logicznych, I/O i in.; niektóre procesory mają kilka takich rejestrów rejestr znaczników - zawiera dodatkowe informacje o wyniku operacji arytmetyczno-logicznych, np. "wynik równy zeru" Oprócz tego procesor ma kilka (kilkanaście) rejestrów używanych w czasie wykonywania niektórych rozkazów, np. wskaźnik stosu służący do adresowania pamięci. Do budowy systemu komputerowego oprócz procesora, pamięci i układów I/O potrzeba kilkunastu innych układów scalonych pośredniczących między poszczególnymi elementami systemu, np. buforów i wzmacniaczy szyn, zegarów, układów zarządzania pamięcią itd. Niekiedy te dodatkowe układy umieszcza się razem z mikroprocesorem w jednym układzie scalonym. Procesor pobiera z pamięci kod rozkazu wskazywanego przez licznik rozkazów i umieszcza go w rejestrze rozkazów. Układ sterowania dekoduje go i na jego podstawie steruje pracą rejestrów, układu arytmetyczno-logicznego oraz wewnętrznych szyn. Wykonanie instrukcji jest podzielone na kilka faz. Pierwszą fazą jest pobranie z pamięci kodu. Następnie, jeśli dany rozkaz tego wymaga pobiera się z pamięci lub rejestrów dane, tzw. argumenty - sposób uzyskiwania argumentów nazywa się trybem adresowania. Jeśli argument można uzyskiwać na wiele sposobów, czyli procesor ma dużo trybów adresowania, to programowanie jest łatwiejsze i bardziej efektywne. Wreszcie wykonuje się operacje (np. dodawania) i wynik umieszcza w jednym z rejestrów procesora lub w pamięci. Zawartość licznika rozkazów jest zwiększona, mikroprocesor pobiera z pamięci następny rozkaz programu. Opisana procedura ulega zmianie, gdy nastąpi tzw. przerwanie (ang. interrupt). Powoduje je sygnał podany z urządzenia zewnętrznego do procesora. Przerywa on wtedy wykonywanie programu. zapamiętana zostaje zawartožć licznika rozkazów i rozpoczyna się wykonywanie programu obsługi przerwań. Adres tego programu jest niekiedy ustalony, w innych przypadkach jest przesyłany przez specjalny układ przerwań. Takie przerwania są wykożystywane do współpracy z urządzeniami I/O. Przerwanie możę być także spowodowane wykonaniem specjalnego rozkazu maszynowego (przerwanie programowe). Adres programu obsługi przerwania jest w takim przypadku ustalony. Przerwania programowe służą zwykle do wywoływania programów systemu operacyjnego. Po zakończeniu obsługi przerwania wznawiane jest wykonywanie przerwanego programu. Wszystkie operacje wykonywane przez procesor synchronizowane są impulsami przychodzącymi z zegara. Jedna instrukcja jest wykonywana w czasie kilku taktów zegara. Dlatego, gdy jego częstotliwość jest większa, procesor pracuje szybciej. Rozkazy wykonywane przez mikroprocesory można podzielić na następujące grupy: przesłania bajtu lub kilku bajtów z pamięci do rejestrów, z rejestrów do pamięci lub między rejestrami przesłania bajtu lub ciągu bajtów między rejestrami i układami I/O arytmetyczne (dodawanie, odejmowanie, niekiedy mnożenie i dzielenie - dotyczy tylko liczb całkowitych o ograniczonej długości, np. 16 bitów) logiczne (porównywanie, iloczyn logiczny itd.) przetwarzanie ciągu bajtów (tylko proste operacje, np. przepisywanie lub porównywanie) sterujące (tzn. zmieniające zawartość licznika rozkazów, np. skoki, wywołanie podprogramów, przerwania programowe) sterujące pracą systemu komputerowego, np. zatrzymanie procesora. Zakres działania niektórych rozkazów jest ograniczony. W szczególności argumentem rozkazów arytmetyczno-logicznych może być zawartość rejestrów procesora. Dotyczy to szczególnie starszych procesorów. Obecnie dąży się do tego, by procesor mógł wykonywać wsszystkie operacje na danych wszystkich typów (tzn. na adresach, bajtach, dwubajtowych słowach itd.), odczytywanych z pamięci lub rejestrów przy zastosowaniu dowolnego trybu adresowania. Mikroprocesory różnią się między sobą zbiorem (listą) rozkazów oraz organizacją rejestrów. Dlatego programy napisane w języku procesora jednego typu nie mogą być wykonywane przez inny mikroprocesor. Wróć

15 Działanie procesora BU – blok komunikacyjny
Prefetch – sortowanie i kolejkowanie kodu IU – dekodowanie ciągu poleceń EU – układ wykonawczy ALU – moduł obróbki liczb stałoprzecinkowych Schemat blokowy procesora BU Prefetch IU (Dekoder) ROM AU MMU CU ALU FPU EU Adres Dane Kod programu CU – blok sterowania przetwarzania modułu ALU FPU – moduł obróbki liczb zmiennoprzecinkowych AU – jednostka adresowania MMU – jednostka zarządzania pamięcią Procesor, CPU (Central Processing Unit) to najważniejsza jednostka każdego komputera, będąca najczęściej pojedynczym mikroprocesorem, połączonym z płytą główną za pomocą specjalnego gniazda typu ZIF lub Slot, i składający się z jednostki arytmetyczno logicznej (ALU), jednostki sterującej i koprocesora numerycznego (FPU). Procesor ma za zadanie przetwarzać i wykonywać typowe operacje arytmetyczno logiczne, jakie dochodzą do niego poprzez pamięć operacyjną, a ilość takich operacji waha się w granicach od kilkuset do milionów na sekundę. Powszechną miarą czasu działań, wykonywanych przez procesory są mikrosekundy (1 us = 0, s) i nanosekundy (1 ns = 0, s), czyli milionowe i miliardowe części sekundy. Podstawowe bloki funkcjonalne tworzące procesor to: rejestry, jednostka arytmetyczno-logiczna, układ sterowania, dekoder rozkazów, jednostka zmiennoprzecinkowa oraz umieszczana w niektórych procesorach pamięć robocza L1. Natomiast podstawowymi parametrami technicznymi są: liczba bitów np. 8,16, 32, 64 bity, szerokość szyny adresowej, lista rozkazów i częstotliwość zegara taktującego mierzona w MHz. Ogół procesorów jest obecnie wytwarzany w postaci układów o niezwykle wysokim stopniu scalenia setek tysięcy a nawet milionów tranzystorów na jednej płytce krzemu. Kupując w sklepie procesor, zwraca się zwykle uwagę na jego częstotliwość pracy, gdyż wpływa ona bezpośrednio na moc obliczeniową systemu. Wartość ta, podawana w megahercach, w dużej mierze zależy od technologii wykonania samego układu scalonego, a więc od szerokości ścieżek. Obecnie mikroprocesory wytwarzane są najczęściej w technologii 0,25 lub 0,18 mikrometra. Wszystkie współczesne CPU mają podobną architekturę wewnętrzną, opartą na superskalarnym jądrze RISC. Zgodność z listą rozkazów x86 (lub inną CISC-ową) uzyskuje się, tłumacząc instrukcje na wewnętrzny język procesora. Sygnały Kontrolne i sterujące Wróć

16 Pamięć podręczna Cache to podręczna pamięć procesora. Charakteryzuje się wyjątkowo krótkim czasem dostępu. Jest ona używana do przechowywania danych, które będą w niedługim czasie przetwarzane. Rozróżniamy dwa rodzaje pamięci Cache: Pierwszego poziomu (Cache L1) zintegrowana z procesorem z którym porozumiewa się z częstotliwością równą częstotliwości wewnętrznej procesora, Tego typu pamięć ma zwykle pojemność od 16 do 64 KB. Pamięć Cache Drugiego poziomu (Cache L2) znajdująca się zwykle na płycie głównej gdzie z procesorem porozumiewa się z częstotliwością taktowania zewnętrznego. W nowoczesnych komputerach jej pojemność wynosi zwykle 512, a czasem nawet 1024 KB. Coraz szybciej taktowane procesory wymagają coraz szybszych układów pamięci. Czas przetwarzania jednego rozkazu nie jest zwykle dłuższy od pojedynczego cyklu zegarowego (5ns przy częstotliwości 200 MHz). Na cóż może jednak zdać się taki procesor jeśli czas oczekiwania na kolejna porcję danych z pamięci wynosi np. 50 ns. Dla zlikwidowania tego wąskiego gardła wprowadzona została pamięć podręczna stanowiąca bufor o krótkim czasie dostępu (poniżej 10 ns). Rozwiązanie to jest ekonomicznie uzasadnionym kompromisem pomiędzy dużą i tanią pamięcią główną i wspierającą ją, mała i szybką i nie aż tak drogą pamięć Cache. Rozwiązanie takie jest możliwe ze względu na jedna cenną właściwość przez komputery PC kodu: jest on stosunkowo spójny. Procesor porusza się przez dłuższy czas w tym samym rejonie pamięci a nie skacze chaotycznie po całym obszarze. Analizowane rozkazy są ułożone w pamięci sekwencyjnie, a bloki danych też nie są świadomie rozpraszane po całej przestrzeni adresowej. Kontroler Cache CPU Pamięć podręczna wspomaga pamięć główną Pamięć Wróć

17 Pamięć operacyjna Pamięć operacyjna – urządzenie służące do przechowywania danych operacyjnych. Rodzaje pamięci: ROM – (tylko do odczytu) służy do przechowywania stałych elementów oprogramowania RAM – (do odczytu i zapisu) można w niej zapisywać i odczytywać informacje, wymaga stałego zasilania aby podtrzymywać przechowywane dane Rodzaje pamięci ze względu na budowę: SIMM FPM (Single Inline Memory Module), (Fast Page Mode) – 30 pinowe SIMM EDO RAM (Extended Data Output), (Random Access Memory) – 72 pinowe DIMM SDRAM (Double Inline Memory Module), (Synchronous Dynamic Random Access Memory) pinowe DDR SDRAM (Double Data Rate) - 184 pinowe RIMM RDRAM (Rambus Dynamic Random Access Memory) DDR2 SDRAM (Double Data Rate 2). FPM (Fast Page Mode) - pamięć w modułach jest dzielona na strony, wiersze, i kolumny. Procesor odwołując się do wybranej komórki musi przekazać jednostce zarządzania adres wiersza i kolumny. W modułach FPM przy odczycie bądź zapisie kolejnych komórek (w ramach jednego rzędu) każdorazowo podawany jest adres każdej z kolumn. EDO RAM (Extended Data Output Random Access Memory) - moduły te funkcjonują na podobnej zasadzie co FPM, jednak adresowanie następnej w kolejności komórki jest tu możliwe już w trakcie odczytywania danych z poprzedniej co w konsekwencji przyczynia się do zwiększenia szybkości odczytu danych o jakieś 10 do 15%. Pamięci tego typu stosowane są w komputerach zarówno jako pamięć operacyjna, jak i jako pamięć kart graficznych. SDRAM (Synchronous Dynamic Random Access Memory) - to zsynchronizowana z taktem zegara systemowego pamięć operacyjna typu DRAM, dzięki czemu radykalnie została zwiększona szybkość transmisji danych między pamięcią a procesorem, oraz skrócony został czas dostępu (odczytu) do około 10 ~ 12 nanosekund. Pamięci tego typu stosowane są w komputerach zarówno jako pamięć operacyjna, jak i jako pamięć kart graficznych. W nowoczesnych komputerach PC pamięć SDRAM montowana jest najczęściej w postaci 64-bitowych (bez parzystości czy korekcji błędów) lub 72-bitowych modułów (z parzystością i korekcją błędów) DIMM. Jej najszybsze odmiany działają z prędkością 100 lub 144 MHz, (tzw. moduły PC100). RDRAM (Rambus DRAM) - oparty jest na technologii wąskiej i szybkiej 8-bitowej magistrali danych ASIC oraz na właściwym module RDRAM (Rambus Dynamic Random Access Memory). Moduł RDRAM obsługuje częstotliwość taktowania zewnętrznego do 250 MHz i pozwala na przesyłanie danych z prędkością zbliżoną do 400 MB/s. Tak duża szybkość możliwa jest do osiągnięcia w modułach Rambus DRAM dzięki krótkim ścieżkom sygnałów oraz bardzo niskiemu napięciu zasilania równemu 0,6 V. SIMM FPM 30-pinowe SIMM typu FPM Używane były w komputerach z procesorem klasy 486. W układach tych poszczególne komórki tworzyły matryce pogrupowane na tzw. strony. W chwili gdy potrzebne systemowi dane znajdowały się na tej samej stronie, część adresu wskazującą na nią wystarczyło podać raz, a później przekazywać jedynie numery potrzebnych komórek. Niestety przy czasie dostępu rzędu 60–70 nanosekund układy te już dawno osiągnęły kres swoich możliwości. SIMM EDO RAM 72-pinowe SIMM PS/2 typu EDO Rozwiązaniem, które na pewien czas zagościło w naszych komputerach, stały się kości EDO. Dzięki prostej sztuce, polegającej na zastosowaniu dodatkowego buforowania, uzyskano możliwość podtrzymywania informacji na wyjściu danych, gdy w tym czasie na wejściu adresowym mógł się już pojawić adres nowej komórki pamięci. W efekcie dostęp do następnej porcji informacji był realizowany w trakcie odczytu poprzedniej, czyli – szybciej. Uzyskany w ten sposób 10–20 procentowy wzrost wydajności wystarczył na jakiś czas, jednak nie na długo. Potrzebna była nowa jakość, nowa technologia, którą zapewniły dopiero pamięci SDRAM. DIMM SDRAM 168-pinowy DIMM typu SDRAM Pamięci typu FPM oraz EDO pracowały asynchronicznie, co oznacza, że nie były taktowane zewnętrznym zegarem, a informacja ukazywała się "po jakimś czasie". Natomiast pamięć SDRAM pracuje synchronicznie, czyli udostępnia informacje zgodnie z taktem zewnętrznego zegara. Dzięki tej metodzie oraz wewnętrznej dwubankowej konstrukcji kości uzyskały czas dostępu rzędu 15 nanosekund – wystarczający do pracy z częstotliwością 66MHz. Z czasem pojawiły się SDRAM-y 12 nanosekundowe, a później – w chwili wprowadzenia na rynek pierwszych procesorów współpracujących z szyną 100 MHz – 10 nanosekundowe, zgodnie ze specyfikacją PC–100. DDR SDRAM 184-pinowy DDR typu SDRAM Rozwinięciem konstrukcji SDRAM-ów są pamięci DDR SDRAM, w których dane przesyłane są na obydwu zboczach sygnału zegarowego. Oznacza to,  że przy ustawionej częstotliwości pracy płyty głównej np. 133MHz pamięć ta pracuje efektywnie z podwojoną częstotliwością czyli 266MHz. RIMM RDRAM   Opracowane przez kalifornijską firmę RAMBUS. Odczyt danych realizowany jest częściowo sekwencyjnie, co wynika z podzielenia matrycy DRAM na osiem jednakowych części. W jednym takcie zegarowym zostaje odczytana informacja tylko z pojedynczego bloku pamięci. Kolejne dane z następnego banku pobierane są przy późniejszych cyklach zegarowych. Po odczytaniu wszystkich ośmiu bitów dane są "wysyłane" na zewnątrz pamięci w postaci pojedynczego pakietu. Przy stosowanym obecnie 400MHZ zegarze płyty głównej (efektywne 800Mhz) i 16 bitowej szynie danych przepustowość Rambusów wynosi 1,6 GB/s (3,2GB/s.). Olbrzymia szybkość pamięci zostaje jednak okupiona przedłużonym czasem dostępu do danych. DDR2 SDRAM Pamięć DDR2 charakteryzuje się wyższą efektywną częstotliwością taktowania (533, 667, 800, 1066 MHz) oraz niższym poborem prądu. Podobnie jak DDR pamięć DDR2 wykorzystuje do przesyłania danych wznoszące i opadające zbocze sygnału zegarowego. Wróć

18 Wróć

19 Karta graficzna Karta graficzna, jeden z najważniejszych komponentów zestawu komputerowego. Karta graficzna może być zintegrowana z płytą główną komputera, częściej jest to osobna karta rozszerzeń (jak na rys.). Najważniejszymi parametrami karty graficznej są: szybkość pracy, ilość pamięci, rozdzielczość i ilość kolorów wyświetlanego obrazu i inne. Karta graficzna składa się z czterech podstawowych elementów: płytki drukowanej, głównego procesora, pamięci wideo, układu RAMDAC (który często jest zintegrowany z procesorem w jednej obudowie) Karty graficzne budowane są na następujące magistrale: ISA, PCI, AGP Jej zadaniem jest przetwarzanie danych podawanych przez komputer do postaci zrozumiałej dla monitora .Liczba wyświetlanych jednocześnie kolorów zależy od możliwości zainstalowanej w komputerze karty graficznej. Naturalnie wraz ze wzrostem liczby kolorów maleje szybkość przetwarzania obrazu. Rozdzielczość obrazu mówi o tym, z ilu punktów (pikseli) się on składa. Jej wartością jest liczba punktów obrazu w linii pomnożona przez liczbę linii. Im wyższa jest ta wartość, tym ostrzejszy obraz możemy uzyskać. Za standard w Windows przyjmuje się rozdzielczość 800/600 punktów. Żaden komputer PC nie nadaje się do pracy bez karty graficznej. Jakość obrazu zależy przede wszystkim od jego częstotliwości odświeżania: im częściej odświeżany jest w czasie jednej sekundy obraz, tym spokojniej jest on postrzegany przez ludzkie oko(nie zauważalne jest migotanie obrazu). Częstotliwość odświeżania obrazu mierzona jest w hercach. Aby otrzymać w pełni stabilny obraz , konieczne jest co najmniej 72-krotne (72 Hz ) odświeżenie obrazu w ciągu każdej sekundy.  Karta rozszerzeń, umiejscawiana na płycie głównej poprzez gniazdo PCI lub AGP, która odpowiada w komputerze za obraz wyświetlany przez monitor.Karty graficzne różnią się między sobą szybkością pracy, wielkością pamięci RAM, wyświetlaną rozdzielczością obrazu, liczbą dostępnych kolorów oraz częstotliwością odświeżania obrazu.  Każda karta graficzna składa się z czterech podstawowych elementów: płytki drukowanej, głównego procesora, pamięci wideo i układu RAMDAC (który często jest zintegrowany z procesorem w jednej obudowie) Procesor        Procesor na karcie graficznej wspomaga setki różnych funkcji, z trójwymiarowymi włącznie. Układy takie pomagają procesorowi komputera rysować linie, trójkąty, prostokąty, potrafią wygenerować obraz trójwymiarowy, pokryć go odpowiednią tzw. teksturą (powierzchnią), stworzyć efekt mgły itd. Procesor karty graficznej komunikuje się z pamięcią wysyłając i pobierając z niej informacje o obrazie w tzw. paczkach, przy czym wielkość tych paczek zależy od procesora karty. Procesory 64-bitowe wysyłają paczki 64-bitowe (8-bajtowe), za  128-bitowe paczki 16 bajtowe.To czy procesor jest 64-bitowy czy 128-bitowy, praktycznie nie powoduje dwukrotnej różnicy prędkości na korzyść układów 128-bitowych. Przewaga zaczyna być widoczna przy pracy w wyższych rozdzielczościach. Pamięć wideo         Każda karta graficzna ma własną pamięć RAM, w której przechowuje potrzebne informacje o obrazie. Obecnie wielkość tej pamięci to średnio 8 MB (jeszcze do niedawna przeciętna pamięć wynosiła 512 Kb), a coraz częściej 16 lub 32 Mb. W pamięci tej przechowywane są dane o każdym punkcie obrazu, a także tekstury (w postaci map bitowych) oraz dane o głębi (z pamięci jest w tym celu wydzielany tzw. bufor Z). Układ ramdac         Układ RAMDAC pobiera dane o obrazie wygenerowanym przez procesor karty graficznej. Dane te są w postaci zbioru różnokolorowych punktów. Następnie RAMDAC zamienia je na sygnały analogowe i wysyła do monitora. Im szybszy RAMDAC, tym więcej potrafi wysłać informacji w ciągu sekundy co ma bezpośredni wpływ na częstotliwość odświeżania (jest to liczba pojedynczych obrazów, jakie wyświetla monitor w ciągu sekundy. Częstotliwość 60Hz oznacza, że w ciągu sekundy na ekranie monitora rysowanych jest 60 pełnych obrazów. Oko ludzkie przestaje odróżniać "skoki" między obrazami już przy szybkości ok. 25 obrazów na sekundę, więc częstotliwość 60 Hz wydawałaby się aż za duża. Jak się okazuje w praktyce, przy 60Hz prawie nie widać migotania obrazu, ale nasze oczy się męczą. Dlatego do pracy przy komputerze powinnimy ustawiać częstotliwość co najmniej 75Hz, zaś im więcej tym lepiej. Warto przy tym wiedzieć, że ustawienie częstotliwości większej niż 85Hz nie ma już wpływu na nasz wzrok.  Złącze umożliwiające osadzenie karty na płycie głównej Gniazdo podłączenia monitora Główne zadanie karty graficznej to przetwarzanie obrazu cyfrowego generowanego przez układy komputera na sygnał „zrozumiały” dla monitora (może to być sygnał: analogowy lub cyfrowy). Wróć

20 Zasilacz komputera Zasilacz, czyli PSU (z ang. Power Supply Unit), dostosowuje napięcie, prostuje prąd płynący z sieci (Polska 230V), do potrzeb komputera na złącza ATX i inne. Standardowe napięcia to 3,3V, 5V i 12V, reszta to tzw. napięcia kontrolne, które służą do np. załączania zasilacza. Wyróżniamy wiele złącz wyjściowych z zasilacza: -24 pin - obecnie stosowany do zasilania płyt głównych w standardzie ATX -20 pin - w starszych płytach, tez standardu ATX -4 pin - MOLEX do zasilania CD-ROMu, HDD itp. -6 pin - stosowany do zasilania regulatorów napięcia na procesorze VMC. Wnętrze zasilacza Wróć

21 Karta dźwiękowa Karta dźwiękowa, zwana też kartą muzyczną, jest to karta rozszerzeń umożliwiająca pracę z dźwiękiem na komputerze klasy PC. Dzięki nim można zarówno odtwarzać dźwięk, jak i tworzyć pliki dźwiękowe. Do karty dźwiękowej podłącza się takie urządzenia jak głośniki, wzmacniacz czy mikrofon bądź urządzenie MIDI (np. syntezator). Karty dźwiękowe budowane są na następujące magistrale: ISA, PCI Złącze umożliwiające osadzenie karty na płycie głównej Karta rozszerzeń pozwalająca na odgrywanie oraz nagrywanie na komputerze dźwięku w formie plików muzycznych. Karty muzyczne umożliwiają także podłączenie do nich głośników, wzmaczniacza, mikrofonu oraz urządzeń MIDI. Obecnie w prawie każdym pececie znajduje się jakaś karta dźwiękowa. Najważniejszą jej częścią składową, jest przetwornik A/D-D/A (analog/digital-digital/analog), zmieniający sygnał analogowy w cyfrowy i odwrotnie, odpowiedzialny za nagrywanie i odtwarzanie plików WAV. Proces nagrywania nazywany jest samplingiem. Poziom (głośność) sygnału wejściowego, pochodzącego np. z mikrofonu lub wejścia LINE IN jest mierzony w określonych odstępach czasu, zaś wynik pomiaru zapisywany w pliku WAV. Znajduje się w nim również informacje o parametrach nagrania, mających wpływ na jakość dźwięku i zapotrzebowanie na wolne miejsce na dysku. Są to: Rozdzielczość: określa, czy wartości pomiarowe zapisywane w pliku WAV mają zajmować 1 czy 2 bajty (8 czy 16 bitów). W jednym bajcie można zapisać wartości od 0 do 255, natomiast w dwóch bajtach wartości od 0 fo Obecnie nawet najtańsze na rynku karty są już 16 bitowe. Częstotliwość próbkowania: odstępy czasowe, w których dokonywany jest pomiar poziomu sygnału wejściowego. Częstotliwość próbkowania podawana jest w kilohercach(kHz), 1 kHz odpowiada 1000 pomiarów na sekundę. Najczęściej spotyka się karty próbkujące z częstotliwościami 8, 11, 22, 44,1, 48 kHz. Najwyższy ton, jaki można nagrać odpowiada połowie wartości częstotliwości próbkowania. W przypadku karty posiadającej częstotliwość 44,1 kHz będzie to ok Hz. Ucho ludzkie potrafi odbierać dźwięki o częstotliwości do ok Hz. Syntezator MIDI W przeciwieństwie do przedstawionego powyżej układu analogowego syntezator nie reprodukuje dźwięków nagranych wcześniej, lecz sam je wytwarza, korzystając z parametrów i listy nagrań (plików MIDI). W zależności od kart można uzyskiwać dźwięki stosując jedną z dwóch technik: Synteza FM: przekształca polecenia programowe na dźwięki poprzez generowanie napięć elektrycznych (krzywe o przebiegach sinusoidalnych, piłokształtnych czy prostokątnych). Poprzez manipulację głośnością oraz nakładanie wielu krzywych próbuje się naśladować brzmienie prawdziwych instrumentów, co jednak niezbyt się udaje. Synteza WAVETABLE: jest nowocześniejszą i bardziej zbliżoną brzmieniowo do oryginalnych instrumentów. W procesie syntezy falowej procesor wykorzystuje cyfrową próbkę (sample) dźwięku danego instrumentu, przechowywaną najczęściej w postaci pliku WAV w specjalnym układzie pamięci ROM. W niektórych kartach zastosowano inne rozwiązanie: próbkę można wczytać z dysku do pamięci RAM. W zależności od "wytycznych" z pliku MIDI, plik WAV przeliczany jest na dźwięk o odpowiedniej wysokości i długości. Budowa karty dźwiękowej Do niedawna karty dźwiękowe współpracowały jedynie z magistralą ISA. W dzisiejszych komputerach podstawową szyną danych stała się szyna PCI. W konsekwencji większość modeli kart jest dostępna na rynku w wersji PCI. Do komunikacji z pecetem, każda karta dźwiękowa potrzebuje co najmniej trzech zasobów: adresu I/O, przerwania oraz kanału DMA. Za pomocą adresu I/O komputer kontaktuje się z kartą, gdy chce jej przekazać rozkazy. Z kolei karta zgłasza pecetowi potrzebę przesłania danych poprzez odpowiednie przerwanie. Gniazda wejścia i wyjścia sygnałów dźwiękowych Główne zadanie karty dźwiekowej to przetwarzanie sygnałów cyfrowych na analogowe (przy odtwarzaniu dźwięków) lub odwrotnie (przy nagrywaniu dźwięków) Wróć

22 Karta sieciowa Karta sieciowa, karta rozszerzeń niezbędna do podłączenia komputera do sieci LAN. Do karty sieciowej można podłączyć kabel koncentryczny lub kabel typu skrętka łączący komputer z siecią. Często karty mają możliwość podłączenia dwóch różnych typów kabla. Najważniejszym parametrem karty sieciowej jest jej prędkość transmisji, może ona wynosić 10 lub 100 Mbps. Diody sygnalizacyjne Karty sieciowe budowane są na następujące magistrale: ISA, PCI Złącze umożliwiające osadzenie karty na płycie głównej Gniazdo kabla sieciowego Antena transmisyjna Najnowsze karty sieciowe obsługują już nie tylko sieci kablowe ale także sieci radiowe. Wróć

23 Wróć

24 Napęd CD-ROM CD-ROM, Compact Disk Read-Only Memory, popularny dysk kompaktowy zastosowany w komputerze jako pamięć tylko odczytywalna. Dane na dysku CD-ROM zachowywane są w formacie binarnym jako mikroskopijne wgłębienia w powierzchni dysku, za pomocą bardzo cienkiej wiązki lasera emitowanej przez napęd CD-ROM dane mogą być odczytywane. Na płycie CD może zmieścić się do 700 MB danych. Napęd CD-ROM CD-RW, Compact Disk Read-Write, jest dyskiem CD umożliwiającym wielokrotny zapis (do 1000x). Do zapisu tego nosnika stosowane są specjalne napędy które obsługują także tradycyjne nosniki Wróć Nośnik CD-RW

25 Napęd DVD DVD, Digital Versatile Disc, rodzaj nośnika danych, przypominający płytę CROM. Ilość danych zapisanych na płycie DVD jest jednak dużo większa. Istnieje kilka możliwych sposobów nagrywania płyty DVD różniących się pojemnością płyty. Można na niej nagrać aż do 17 GB danych. Napęd DVD przypomina budową CD-ROM Sposób zapisu danych na płycie DVD Podstawowa różnica pomiędzy CD a DVD polega na tym że DVD zapisane jest po obu stronach przy dodatkowo większej gęstości zapisu. Do odtwarzania DVD (w przeciwieństwie do CD) potrzeba sprzętowego urządzenia do dekodowania informacji zapisanych na nośniku. W 1994 r. po ukazaniu się pierwszych napędów CD-ROM, firmy zaczęły szukać nowej technologii pozwalającej na udoskonalenie płyty kompaktowej. W tym okresie powstały dwa odrębne projekty. Jednemu z nich przewodniczyła Toshiba, która zaproponowała zwiększenie gęstości zapisu i wykorzystanie obu stron istniejących krążków. W ten sposób powstały płyty SD (SuperDensity). Na czele drugiej grupy stanął Philips i Sony. Ich rozwiązanie nazwane MMCD (MultiMedia CD) zakładało stworzenie dwóch lub więcej warstw na jednej stronie płyty, zaś dane odczytywane miały być przez wiązkę laserową o zmiennej długości fali. Przedstawiony stan rzeczy nie trwał zbyt długo. Pod koniec 1994 roku, aby uniknąć kreowania odrębnych formatów firmy zgodziły się na połączenie swoich myśli technicznych. W ten sposób powstał projekt dysku DVD - dwustronnego, dwuwarstwowego zapisu o wysokiej gęstości. Napędy DVD-ROM odczytują kolejno z wewnętrznej i zewnętrznej warstwy płyty. Początkowo obszar zastosowań dla nowego nośnika widziano głównie w przemyśle filmowym, maksymalna pojemność 17 GB pozwalała bowiem na nagranie 481 minut w formacie MPEG-2 z trzema ścieżkami audio. Nowy standard kompresji wymaga dużych mocy obliczeniowych do odkodowania informacji, dlatego komputerowe napędy DVD-ROM sprzedawane są ze specjalnymi kartami. W standardowych odtwarzaczach wszystkie niezbędne komponenty montowane są w jednej obudowie. Szybko okazało się, że pojemności oferowane przez płyty DVD idealnie nadają się także do zastosowań rynku komputerowego. Dlatego też pierwotna nazwa Digital Video Disk kojarzona z dyskami zawierającymi jedynie filmy coraz częściej ze względu na uniwersalność nośnika zamieniana jest na Digital Versatile Disk. Niestety, na ustanowieniu jednego standardu problemy się nie zakończyły. Najwięcej zamieszania wprowadziły różne stosowane na świecie formaty zapisu obrazu (PAL, NTSC, SECAM) oraz dźwięku. Dlatego też mapa świata podzielona została na 6 regionów, dla których oba wspomniane parametry są jednakowe. Mapa regionów Taki podział pozwolił na ustanowienie lokalnych specyfikacji zapisu danych na dyski "filmowe". Teoretycznie płyta oznaczona kodem jednego regionu będzie mogła być odtworzona tylko przez odpowiednie wersje odtwarzaczy. Kody są jednak opcjonalne, dlatego w praktyce istnieją dwa sposoby na uniwersalny zapis danych. Pierwszy wykorzystuje możliwość umieszczenia wszystkich kodów i nagrania na płytę sześciu różnych wersji tego samego filmu. Drugi, stosowany częściej dla płyt DVD-ROM, cechuje brak odpowiedniego wpisu, co umożliwia odtwarzanie w napędzie dowolnego pochodzenia. Z czasem pojawił się także kolejny problem. Po przegranej próbie skutecznego zabezpieczenia kaset do tradycyjnych magnetowidów, producenci filmowi zażądali skutecznej ochrony praw autorskich. Wprowadzono zatem odpowiedni system, który wprowadza do sygnału zakłócenia eliminowane później przez kartę dekodera. Podczas kopiowania płyty, użytkownik będzie mógł przenieść jedynie dane, zaś informacje o rodzaju zakłóceń, jako niedostępne nie zostaną skopiowane. Uniemożliwi to odtworzenie kopii w jakimkolwiek odtwarzaczu DVD-R – najnowsze napędy obsługujące płyty DVD umożliwiają ich nagrywanie Wróć Nośnik DVD-R umożliwiający zapis

26 Dysk twardy Dysk stały, dysk twardy (angielskie hard disk), pamięć dyskowa, w której nośnik magnetyczny jest nałożony na bardzo cienką warstwą (kilka µm) na niewymienną, sztywną płytę zwaną talerzem (lub zespół płyt na jednej osi), zamkniętą w hermetycznej obudowie. Pozwala na zapisywanie danych na stałe, bez ich utraty po odłączeniu zasilania. Dysk twardy Obecnie produkuje się dyski o pojemnościach Od kilkuset megabajtów do kilkuset gigabajtów Budowa Dysk twardy składa się z następujących części: -obudowy, której zadaniem jest ochrona znajdujących się w niej elementów przed uszkodzeniami mechanicznymi a także przed wszelkimi cząsteczkami zanieczyszczeń znajdujących się w powietrzu. Jest to konieczne, gdyż nawet najmniejsza cząstka "kurzu" ma wymiary większe niż odległość pomiędzy głowicą a powierzchnią nośnika, tak więc mogłaby ona zakłócić odczyt danych, a nawet uszkodzić powierzchnię dysku. -elementów elektronicznych, których celem jest kontrola ustalenia głowicy nad wybranym miejscem dysku, odczyt i zapis danych oraz ich ewentualna korekcja. Jest to w zasadzie osobny komputer, którego zadaniem jest "jedynie" obsługa dysku. -nośnika magnetycznego, umieszczonego na wielu wirujących "talerzach" wykonanych najczęściej ze stopów aluminium. Zapewnia to ich niewielką masę, a więc niewielką bezwładność co umożliwia zastosowanie silników napędowych mniejszej mocy, a także szybsze rozpędzanie się "talerzy" do prędkości roboczej. -elementów mechanicznych , których to zadaniem jest szybkie przesuwanie głowicy nad wybrane miejsce dysku realizowane za pomocą silnika krokowego. Wskazane jest stosowanie materiałów lekkich o dużej wytrzymałości co dzięki małej ich bezwładności zapewnia szybkie i sprawne wykonywanie postawionych zadań. Opisane elementy można zobaczyć na zdjęciu obok. Wydajność Na komfort pracy z systemem komputerowym duży wpływ ma wydajność dysku twardego. Efektywna prędkość z jaką dysk dostarcza dane do pamięci komputera, zależy od kilku podstawowych czynników. Największy wpływ na wydajność mają elementy mechaniczne, od których nawet najwolniejsza elektronika jest o dwa rzędy wielkości szybsza. Fundamentalne znaczenie ma prędkość ustawiania głowicy nad wybraną ścieżką, ściśle związana ze średnim czasem dostępu. Równie istotnym parametrem jest prędkość obrotowa dysku, rzutująca na opóźnienia w dostępie do wybranego sektora i prędkość przesyłania danych z nośnika do zintegrowanego z dyskiem kontrolera. Dopiero w następnej kolejności liczy się maksymalna prędkość transferu danych do kontrolera czy wielkość dyskowego cache'u. Ogromne znaczenie ma prędkość obrotowa dysku. Zależność jest prosta: im szybciej obracają się magnetyczne talerze, tym krócej trwa wczytanie sektora przy takiej samej gęstości zapisu. Mniejsze jest także opóźnienie, czyli średni czas oczekiwania, aż pod ustawionym nad właściwym cylindrem głowicą "przejedzie" oczekiwany sektor. W przeciwieństwie do nowoczesnych CD-Rom'ów dyski twarde obracają się ze stałą prędkością, osiągając od 3600 do 7200 rpm (revolutions per minute). Lepszym pod względem prędkości obrotowej okazał się model firmy Seagate, Cheetah ST pierwszy dysk na świecie wirujący z prędkością obr/min. Pierwsze, zewnętrzne ścieżki są wyraźnie dłuższe od położonych w osi dysku. W nowoczesnych napędach są one pogrupowane w kilka do kilkunastu stref, przy czym ścieżki w strefach zewnętrznych zawierają więcej sektorów. Ponieważ dysk wczytuje całą ścieżkę podczas jednego obrotu, prędkość transferu danych na początkowych obszarach dysku jest największa. W związku z tym informacje podawane przez prostsze programy testujące transfer dysku są często zbyt optymistyczne w stosunku do rzeczywistej średniej wydajności napędu. Media transfer rate- prędkość przesyłania danych z nośnika do elektroniki dysku zależy od opóźnień mechanicznych oraz gęstości zapisu. Gęstość tę równolegle do promienia dysku mierzy się liczbą ścieżek na cal (TPI), zaś prostopadle (wzdłuż ścieżki) obrazuje ją liczba bitów na cal (BPI). Obie wartości można wydatnie zwiększyć stosując technologię PRML. Technologia PRML Większość napędów jeszcze do niedawna podczas odczytu danych używała techniki zwanej peak detection (wykrywanie wartości ekstremalnych). W miarę wzrostu gęstości zapisu rozróżnienie sąsiednich wartości szczytowych sygnału od siebie nawzajem i od tak zwanego tła stawało się coraz trudniejsze. Problem ten rozwiązywano wstawiając pomiędzy sąsiadujące szczyty ("jedynki") rozdzielające chwile ciszy ("zera"). Takie postępowanie sprowadzało się do kodowania zerojedynkowych ciągów za pomocą ciągów bardziej przejrzystych, czyli łatwiej identyfikowalnych, lecz z konieczności dłuższych. To oczywiście obniżało efektywną gęstość zapisu, a w konsekwencji także wydajność napędu. Z pomocą przyszła opracowana na potrzeby długodystansowej komunikacji w przestrzeni kosmicznej technologia PRML (Partical Response Maximum Likelihood). Pochodzący z głowicy odczytującej analogowy sygnał jest próbkowany i zamieniany na postać cyfrową. Uzyskaną w ten sposób próbkę analizuje się algorytmem Viterbi. Sprawdza on wszystkie kombinacje danych, które mogły wygenerować zbliżony ciąg i wybiera tę najbardziej prawdopodobną. Najlepsze efekty daje połączenie technologii PRML z magnetorezystywną głowicą odczytującą ze względu na dobrą jakość generowanego przez nią sygnału analogowego. Głowica magnetorezystywna (MRH) wykorzystuje inne zjawisko fizyczne niż standardowe głowice, zbliżone konstrukcją do stosowanych w zwykłych magnetofonach. Element czytający MRH jest wykonany z substancji zmieniającej oporność w polu magnetycznym, więc namagnesowanie bezpośrednio rzutuje na natężenie płynącego przez głowicę MR prądu. Istotną zaletą technologii MR jest większa czułość, pozwalająca na radykalne zwiększenie gęstości zapisu, a co za tym idzie - wzrost pojemności napędu przy zachowaniu jego rozmiarów. Dyski twarde korzystające z kombinacji technologii PRML z głowicami MR charakteryzują się największą dziś gęstością zapisu. System Wydajność dysku w dużej mierze zależy także od rozwiązań zastosowanych w samym komputerze i kontrolującym go systemie operacyjnym. Znaczenie ma prędkość procesora, wielkość pamięci operacyjnej i cache'u, prędkość transferu danych o pamięci czy narzut czasowy wprowadzany przez BIOS. Zastosowany system plików do "czystego" czasu transferu zbiorów dokłada swoje narzuty związane z administracją zajętym i wolnym miejscem na dysku. Źle dobrany, lub zbyt mały lub za duży rozmiar programowego bufora dyskowego również może wyraźnie wydłużyć czas reakcji dysku. Interfejs Od dawna trwają spory na temat "wyższości" jednego z dwóch najpopularniejszych interfejsów IDE (ATA) i SCSI. Nie ulegają jednak wątpliwości podstawowe wady i zalety każdego z nich. Interfejs IDE zdobył ogromną popularność ze względu na niską cenę zintegrowanego z napędem kontrolera, praktycznie dominujący rynek komputerów domowych. Jego pozycję umocniło się pojawienie się rozszerzonej wersji interfejsu - EIDE. Zwiększono w niej liczbę obsługiwanych urządzeń z 2 do 4, zniesiono barierę pojemności 540 MB, wprowadzono też protokół ATAPI umożliwiający obsługę innych napędów, np. CD-ROM. Maksymalna przepustowość złącza wzrosła z 3,33 MB/s do 16,6 MB/s, znacznie przekraczając możliwości dzisiejszych napędów. Limit ten uległ kolejnemu przesunięciu w momencie pojawienia się specyfikacji Ultra DMA/33, zwiększającej przepustowość do 33,3 MB/s. Interfejs SCSI pozwalający na obsługę początkowo 7, a później 15 urządzeń, znalazł zastosowanie głównie w serwerach i systemach high-end, wymagających dużych możliwości rozbudowy. Do jego zalet należy możliwość obsługi różnych urządzeń (nagrywarek, skanerów, napędów MOD, CD-ROM i innych). Urządzenia pracujące z różną prędkością nie przeszkadzają sobie tak bardzo, jak w przypadku złącza IDE. Wadą interfejsu SCSI jest natomiast jego wyraźnie większa komplikacja, a w konsekwencji cena samych napędów i kontrolerów. Pierwsza wersja SCSI pozwalała na maksymalny transfer 5 MB/s, wkrótce potem wersja FAST SCSI-2 zwiększyła tę wartość do 10 MB/s. Kolejny etap rozwoju standardu SCSI to rozwiązanie Ultra SCSI. Jego zastosowanie podnosi maksymalną prędkość transferu danych FAST SCSI-2 z 10 na 20 MB/s. Transfer w 16 bitowej technologii Wide wzrasta również dwukrotnie - z 20 MB/s dla Fast Wide SCSI-2 do 40 MB/s w przypadku Ultra Wide SCSI-2. Obecnie spotyka się trzy rodzaje złączy służących do podłączania dysków SCSI. Najlepiej znane jest gniazdo 50-pinowe, przypominające wyglądem złącze IDE, lecz nieco od niego dłuższe i szersze. Złączami tego typu dysponują dyski z najstarszymi, 8 bitiwymi interfejsami. Napędy wyposażone w 16 bitowe interfejsy Wide można rozpoznać po charakterystycznym gnieździe o trapezoidalnym kształcie, do którego dołącza się 68-pinową taśmę sygnałową. Wydajność dzisiejszych napędów nie przekracza możliwości żadnego z interfejsów. Prawdą jest jednak, że SCSI znacznie lepiej sprawdza się w środowiskach wielozadaniowych. Poza tym najszybsze dyski o prędkości obrotowej 7200, a ostatnio i rpm wykonywane są tylko w wersjach z najszybszymi mutacjami interfejsu SCSI - Ultra Wide. Najszybsze z dysków ATA osiągają "zaledwie" 5400 rpm, co nie daje im równych szans. Słowniczek do dysku twardego Pratycja (partition) obowiązkowy poziom organizacji przestrzeni dyskowej. Partycje dzielą dysk twardy na rozłączne obszary, którym system operacyjny przypisuje litery napędów. Rozróżniamy przy tym partycje pierwotne (primary) i rozszerzone (extended). Pliki systemowe, uruchamiające system operacyjny muszą znajdować się na jednej z partycji pierwotnych- tych ostatnich może być maksymalnie cztery. Natomiast liczba partycji rozszerzonych jest praktycznie nieograniczona. Aby z którejś z partycji pierwotnej można było załadować system operacyjny trzeba ją uaktywnić. Można do tego celu użyć albo DOS-owego programu FDISK albo programu zarządzającego inicjalizacją komputera (bootmanager). Informacje o wielkości i rodzaju partycji przechowuje tabela partycji w pierwszym sektorze dysku. Klaster (cluster) jednostka alokacji, najmniejsza logiczna jednostka zarządzana przez FAT i inne systemy plików. Fizycznie klaster składa się z jednego lub kilku sektorów. FAT (File Allocation Table) tabel alokacji plików, która powstaje przy formatowaniu partycji dosowym rozkazem "format". FAT przechowuje informacje o odwzorowaniu plików na numery klastrów. Ścieżki (tracks) koncentrycznie położone okręgi na każdym talerzu twardego dysku, które podzielone są z kolei na sektory. Cylindry (cylindres) zbiór wszystkich sektorów dysku twardego, osiągalnych bez przemieszczenia głowicy. Termin często lecz błędnie, stosowany jako zamiennik ścieżki- także w setupie BIOS'u. Sektory(sectors) najmniejsze adresowalne jednostki na twardym dysku. Całkowitą liczbę sektorów otrzymujemy, mnożąc liczbę głowic przez liczbę ścieżek razy liczbę sektorów na ścieżce. Geometria napędu sposób podziału dysku na cylindry, sektory, ścieżki i głowice. Zwykle rzeczywista (fizyczna) geometria napędu przeliczana jest przez elektronikę napędu w łatwiejszą do zarządzania geometrię logiczną. IDE (Integrated Device Equipment) przestarzały już dzisiaj standard interfejsu dla dysków twardych AT-Bus. EIDE (Enhaced Integrated Device Equipment) rozszerzenie standardu IDE o szybsze protokoły transmisyjne i obsługę dużych dysków (powyżej 512 MB). Określenia związane z interfejsem EIDE, zintegrowanego z każdą nowoczesną płytą główną, są nieco pogmatwane. Znani producenci dysków twardych tacy jak Western Digital (EIDE) czy Seagate lub Quantum (ATA2, ATAPI, Fast ATA) używają różnych nazw dla tych samych protokołów i funkcji. Te odmienne określenia dla interfejsów różnią się tylko trybem transmisji danych, z których jeden wyznaczany jest przez PIO-Mode, a drugi przez DMA-Mode. ATA-3 zaś oznacza najszybszy wariant omawianego interfejsu, obejmujący również funkcję dla SMART służące do wykrywania błędów w pracy napędu. PIO-Mode tryb programowo kontrolowanego wprowadzania i wyprowadzania danych (program I/O) w jakim napęd pracuje, decyduje o szybkości przesyłania danych między dyskiem a pamięcią. W standardzie ATA teoretyczna prędkość transmisji waha się pomiędzy 3,3 (Mode 0) a 8,3 (Mode 2) MB/s. ATA-2 osiąga w trybie Mode 3 11,1 MB/s, a w trybie Mode 4 nawet 16,6 MB/s. DMA-Mode (Direct Memory Access) bezpośredni dostęp do pamięci, oznacza, że dane między pamięcią operacyjną a dyskiem twardym są przesyłane bez udziału procesora. Elegancko i szybko działa to zresztą tylko z interfejsem PCI wbudowanym w nowoczesne płyty główne. Dotychczasowe chipsety osiągają przepustowość danych sięgającą 16,6 MB/s w przypadku ATA-2, zaś nowsze wspierają już Ultra DMA/33 i dochodzą do 33,3 MB/s. SMART (Self Monitoring Analysis And Reporting Technology) nowa technika diagnostyczna, pozwalająca na rozpoznanie błędów w napędach dyskowych powstających w trakcie ich pracy. Zadaniem jej i współpracujących z nią narzędzi jest ostrzeganie w porę o grożącej utracie danych. ATAPI (At Attachment Packet Interface) protokół pomiędzy interfejsem EIDE i podłączonymi do niego urządzeniami peryferyjnymi. ULTRA ATA najnowsza wersja specyfikacji ATA dopuszczająca transfer danych z prędkością 33,3 MB/s; wymaga by komputer był zgodny ze specyfikacją ULTRA DMA/33. SCSI (Small Computer System Interface) standard dla interfejsów urządzeń i magistral systemowych o dużej prędkości transmisji. Systemy magistrali SCSI mają różne szerokości szyny. SCSI 2 ostatni oficjalnie ogłoszony przez ANSI standard; opisuje złącza z 8 bitową szyną danych, prędkość transferu 20 MB/s, definiuje komunikaty SCSI i strukturę komend. Fast SCSI zgodny ze SCSI 2 tryb transmisji danych z prędkością 10Msłów/s. Oznacza to że informacje są wystawiane na szynę z częstotliwością 10 MHz. Jeśli szyna danych ma szerokość 8 bitów transfer wynosi 10 MB/s, dla szyny 16 bitowej jest to 20 MB/s. Wide SCSI implementacja SCSI z szyną danych o szerokości 16 bitów; zastosowanie dwukrotnie większej szerokość magistrali danych oznacza automatycznie wyższą prędkość przesyłania danych. Głowice magnetyczne są umieszczone ruchomo nad warstwami nośnika, nie dotykając płyty. Konstrukcja mechaniczna dysku stałego wymaga dużej precyzji, ale zapewnia bardzo dużą pojemność pamięci oraz mały czas dostępu. Płyty – nośnik danych Głowice magnetyczne Wnętrze dysku twardego Wróć

27 Mysz Mysz (z ang. mouse) – urządzenie wskazujące używane podczas pracy z interfejsem graficznym systemu komputerowego. Rodzaje myszy: - ze względu na rodzaj komunikacji z komputerem dzielimy je na przewodowe i bezprzewodowe, -ze względu na sposób odczytywania informacji dzielimy je na mechaniczne i optyczne. Mysz przewodowa, kulkowa. Wróć Mysz bezprzewodowa, optyczna.

28 Klawiatura Klawiatura służy do wprowadzania informacji do komputera. Dzielimy je na tradycyjne i multimedialne Klawiatury tradycyjne zawierające 104 klawisze standardowe i dodatkowo trzy klawisze ułatwiające obsługę niektórych funkcji systemu Windows i aplikacji pod nim pracujących. W typowych klawiaturach możemy wyróżnić blok podstawowy, tworzony głównie przez klawisze służące do pisana tekstów, blok funkcyjny (klawisze F1...F12), blok specjalny (m.in. klawisz Print Screen, Scroll Lock, Insert, Delete), blok kursora zawierający klawisze ruchu kursora, blok numeryczny pozwalający na szybkie wprowadzanie danych liczbowych. Klawiatura tradycyjna Klawiatury multimedialne są wyposażone w dodatkowe narzedzia ułatwiające obsługę programów mulimedialnych (np. regulację głośności, przewijanie ekranów itp.). Klawiatura multimedialna Wróć

29 Pamięć podręczna (CACHE) Magistrala lokalna PCI
Architektura komputera z magistralą PCI i AGP Procesor Płyta główna Pamięć podręczna (CACHE) Monitor Sterowniki układów pamięci (chipset): interfejs magistrali PCI, Interfejs magistrali AGP (IRQ, DMA) Pamięć RAM Karta graficzna Magistrala AGP Karta dźwiękowa Karta telewizyjna Pamięć lokalna Magistrala lokalna PCI Interfejs Magistrali zewnętrznej Karta sieciowa Kontroler dysków Interfejs magistrali SCSI Urządzenia SCSI Magistrala SCSI Standardowe Urządzenia wejścia i wyjścia Magistrala ISA, EISA Lub MCA

30 Co się dzieje gdy włączymy komputer?
zaczyna pracować zasilacz, rozpędza się dysk twardy startuje płyta główna, a przede wszystkim program BIOS BIOS sprawdza parametry urządzeń wbudowanych do komputera jeśli testy wypadną pomyślnie BIOS szuka urządzenia na którym jest zainstalowany system operacyjny (OS), najczęściej jest to dysk twardy komputera po znalezieniu OS BIOS oddaje mu kontrole nad dalszym działaniem system operacyjny ładuje (kopiuje) z dysku twardego do pamięci operacyjne (RAM) swoje moduły – niezbędne do działania następnie system ładuje sterowniki kart graficznych, sieciowych, dźwiękowych, dodatkowe sterowniki obsługi dysku i inne sterowniki urządzeń system przenosi do RAM interfejs graficzny GUJ komputery pracujące w sieci próbują w tym czasie nawiązać łączność z innymi jednostkami na zakończenie system wczytuje czcionki, ustawienia i tematy pulpitu oraz programy folderu autostart

31 Koniec


Pobierz ppt "Budowa i działanie komputera"

Podobne prezentacje


Reklamy Google