Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

1 1 Wprowadzenie System rozproszony jest kolekcją niezależnych, autonomicznych komputerów, które dla użytkownika prezentują się jak jeden komputer. Można.

Podobne prezentacje


Prezentacja na temat: "1 1 Wprowadzenie System rozproszony jest kolekcją niezależnych, autonomicznych komputerów, które dla użytkownika prezentują się jak jeden komputer. Można."— Zapis prezentacji:

1 1 1 Wprowadzenie System rozproszony jest kolekcją niezależnych, autonomicznych komputerów, które dla użytkownika prezentują się jak jeden komputer. Można wyróżnic dwa aspekty tej definicji: –sprzętowy – komputery są autonomiczne –użytkownika – dla użytkownika system sprawia wrażenie jakby pracował na jednym komputerze.

2 2 2 Klasyfikacja Architektur Równoległych ze względu na mechanizm sterowania - SIMD - MIMD ze względu na organizacje przestrzeni adresowej - architektura message-passing - architektura ze współdzielona pamięcią - UMA - NUMA Ze względu na charakter sieci połączeniowej - statyczne - dynamiczne ze względu ziarnistość procesora - coarse-grain - medium-grain - fine-grain

3 3 3 Sieć połączeniowa P M P M P M Sieć połączeniowa P P P M M M UMA NUMA Architektura ze współdzieloną pamięcią

4 4 4 Typowa architektura message-passing Sieć Połączeniowa P M P M P M P M P M P - Procesor M - Pamięć

5 5 5 Dynamiczne sieci połączeniowe System z przełącznicą krzyżową Architektura szynowa Wielostanowa sieć połączeń

6 6 6 P0P0 P1P1 P2P2 P3P3 P p-1 M0M0 M1M1 M2M2 M3M3 M0M0 Element przełączający P4P4 System z przełącznicą krzyżową

7 7 7 Architektura Szynowa Pamięć Główna Procesor Szyna

8 8 8 Wielostanowa sieć połączeń Stan 1Stan 2Stan n 0 1 p b-1 Procesory Banki Pamięci

9 9 9 Koszt & Wydajność Koszt Wydajność Liczba procesorów przełącznicawielostanowa szyna wielostanowa przełącznica

10 10 Sieć Omega Przełączenie proste Przełączenie krzyżowe

11 11 Sieci Statyczne Sieć pełna Sieć typu gwiazda Sieć typu magistrala Sieć typu Ring Sieć typu Mesh – krata (2D, 3D, z zapętleniami) Sieć typu Hypercube (Hiperkostka)

12 12 Sieci Statyczne Dwu-wymiarowa siec typu MeshDwu wymiarowa sieć Mesh z zapętleniami Sieć typu magistralaSieć typu ring Siec pełna Sieć typu gwiazda

13 13 Sieci Statyczne Trzy wymiarowa sieć typu Mesh (krata) Procesor Element przełączający Sieć typu drzewo binarne

14 14 0-D hypercube 1-D hypercube 2-D hypercube 3-D hypercube D hypercube Sieć Hypercube (hiperkostka)

15 15 Miary Wydajności Czas wykonania równoległego (Tpar) jest czasem pomiędzy momentem rozpoczęcia obliczeń do momentu gdy ostatni procesor zakończy obliczenia Przyspieszenie (S) jest definiowane jako stosunek czasu niezbędnego do rozwiązania problemu z wykorzystaniem jednego procesora (Tseq) do czasu potrzebnego do rozwiązania tego samego problemu z wykorzystaniem systemu równoległego o "p" procesorach (Tpar) –względne - Tseq jest czasem wykonania algorytmu równoległego na jednym z procesorów systemu wieloprocesorowego –rzeczywiste - Tseq jest czasem wykonania najlepszego algorytmu sekwencyjnego na jednym z procesorów systemu równoległego –bezwględne - Tseq jest czasem wykonania najlepszego algorytmu sekwencyjnego na najlepszym komputerze sekwencyjnym

16 16 Miary Wydajności Efektywność programu równoległego (E) jest definiowana jako stosunek przyśpieszenia do liczby procesorów Koszt jest zwykle definiowany jako iloczyn równoległego czasu przetwarzania i liczby procesorów. Skalowalność systemu równoległego jest miarą jego zdolności do zwiększenia przyśpieszenia proporcjonalnie do liczby procesorów.

17 17 Amdahls Law – software approach Kiedy wykonujemy program równoległy możemy wyróżnić dwie części: część sekwencyjną (Pseq), która musi się wykonywać tylko na jednym procesorze oraz część równoległą (1-Pseq), która jest wykonywana niezależnie na wielu procesorach. Załóżmy, że jeśli wykonujemy ten program na jednym procesorze czas jego wykonania wynosi t 1 (czas wykonania sekwencyjnego). Niech p oznacza liczbę procesorów użytych podczas równoległego wykonania programu, wtedy jego czas wykonania równoległego wyraża się wzorem: Stąd przyspieszenie wyraża się wzorem

18 18 Gustafson Speedup Załóżmy, że czas wykonania programu równoległego z uzyciem p procesorów wyraża się wzorem Pseq + Ppar = 1, gdzie Pseq oznacza sekwencyjną część programu, a Ppar równoległą. Czas wykonania sekwencyjnego (z użyciem jednego procesora) wynosi Pseq + p*Ppar Stąd otrzymujemy następująca formułę na przyspieszenie

19 19 Skalowalność Systemów Równoległych Rozważmy problem dodawania n liczb z wykorzystaniem architektury Hypercube W pierwszym kroku każdy z procesorów dodaje lokalnie n/p liczb, w kolejnych krokach połowa z wyliczonych sum częściowych jest przesyłana do sąsiednich procesorów i następnie wykonywana jest operacja dodawania. Procedura się kończy gdy jeden wyróżniony procesor wyliczy sumę końcową (p oznacza liczbę procesorów) Załóżmy, że czasy dodania dwóch liczb oraz komunikacji pomiędzy sąsiednimi procesorami są równe i wynoszą jedną umowną jednostkę czasu. Stąd dodanie n/p liczb na każdym z procesorów wynosi n/p - 1 Podobnie p sum częściowych jest dodawanych w log 2 p krokach (jedno dodawanie i jedno przesłanie)

20 20 Skalowalność Systemów Równoległych Stąd łączny czas przetwarzania równoległego może być aproksymowany przez: Ponieważ czas wykonania sekwencyjnego można aproksymować przez n wzory na przyspieszenie i efektywność są następujące: Powyższe równania mogą być użyte do wyliczenia przyspieszenia i efektywności dla każdej pary n i p.

21 21 Skalowalność Systemów Równoległych n = 320 n = 64 n = 192 n = 512 zależność liniowa p S Przyśpieszenie w funkcji liczby procesorów

22 22 Skalowalność Systemów Równoległych Efektywność jako funkcja n i p n p = 1 p = 4 p = 8 p = 16 p = Dla danego problemu o stałym rozmiarze, przyspieszenie nie rośnie liniowo wraz ze zwiększającą się liczba procesorów Dla stałej liczby procesorów rośnie przyspieszenie i efektywność gdy zwiększamy rozmiaru problemu.

23 23 Skalowalność Systemów Równoległych System równoległy jest skalowalny jeśli utrzymuje stałą efektywność przy jednoczesnym zwiększanie się liczby procesorów oraz rozmiaru problemu. Skalowalność systemu równoległego jest miarą jego zdolności do zwiększenia przyśpieszenia proporcjonalnie do liczby procesorów. Skalowalność odzwierciedla zdolność systemu równoległego do efektywnego wykorzystania zwiększającej się liczby procesorów.

24 24 Inne problemy Który z komputerów jest lepszy ? O ile ? Czy każdy z programów jest równie ważny ?


Pobierz ppt "1 1 Wprowadzenie System rozproszony jest kolekcją niezależnych, autonomicznych komputerów, które dla użytkownika prezentują się jak jeden komputer. Można."

Podobne prezentacje


Reklamy Google