Pobierz prezentację
Pobieranie prezentacji. Proszę czekać
OpublikowałWłodzimierz Drożyński Został zmieniony 11 lat temu
1
Krajowy Klaster Linuxowy CLUSTERIX jako platforma gridowa do obliczeń wielkiej skali
Roman Wyrzykowski Instytut Informatyki Teoretycznej i Stosowanej Politechnika Częstochowska
2
Plan Geneza, status, główne założenia projektu i architektura
Instalacja pilotowa Oprogramowanie zarządzające (middleware) - technologie i architektura - integracja klastrów dynamicznych - system zarządzania zasobami i zadaniami - zarządzanie kontami użytkowników - intefejs dostępowy – portale gridowe Aplikacje pilotowe Uruchamianie aplikacji numerycznych na przykładzie systemu NuscaS Podsumowanie
3
Klastry komputerów PC-Linux
Klastry komputerów PC stanowią obecnie dominujący typ systemów równoległych, przede wszystkim ze względu na ich niższy koszt niż tradycyjne superkomputery Kluczowa rola oprogramowania Open Source, takiego jak system operacyjny LINUX Klastry komputerów PC w Polsce - pierwszy w TASK - październik 2000 r. drugi w Politechnice Częstochowskiej - styczeń 2001 r. od 2003 roku dynamiczny rozwój na terenie całej Polski Różnorodne architektury procesorów - Intel, AMD, i 64-bitowe
4
Klaster ACCORD w PCz
5
ACCORD: Architektura
6
Narzędzia do zarządzania i monitorowania klastra
Web Condor Interface Kompletny system do zarządzania i monitorowania klastra zintegrowany z www
7
POLSKIE PROJEKTY SIECIOWE – PIONIER (1Q05)
SIECI NOWEJ GENERACJI POLSKIE PROJEKTY SIECIOWE – PIONIER (1Q05) Podobne rozwiązanie USA: National Lambda Rail
8
SIECI NOWEJ GENERACJI - PORÓWNANIE
National Lambda Rail PIONIER Docelowo mil światłowodu Transport: Cisco (max Gbit/s) 4 lambdy (10G Ethernet LAN PHY): sieć przełączanego Ethernetu 10Gbit/s (usługi typu LAN i połączenia na poziomie 1Gbit/s) krajowa sieć IP połączenie dla projektów badawczych (projekty obliczeniowe, teleprezencja itp.), Internet2 – eksperymentalna dla badań nad nowymi usługami sieciowymi 3000 km (docelowo 6000 km) ADVA (max Gb/s) 1 lambda (10GEth LAN PHY ) TAK kanały wirtualne, 2 lambdy – 3Q06
9
Status projektu CLUSTERIX
Projekt celowy MNiI „CLUSTERIX - Krajowy Klaster Linuxowy (National Cluster of Linux Systems)” Uczestniczy 12 jednostek z całej Polski (MAN-y i KDM-y) Politechnika Częstochowska jako koordynator Faza badawczo-rozwojowa: Faza wdrożeniowa: – Ogólny koszt – zł, w tym dotacja MNiI zł, reszta to wkład własny uczestników projektu
10
Partnerzy Politechnika Częstochowska (koordynator)
Poznańskie Centrum Superkomputerowo-Sieciowe (PCSS) Akademickie Centrum Komputerowe CYFRONET AGH, Kraków Trójmiejska Akademicka Sieć Komputerowa w Gdańsku (TASK) Wrocławskie Centrum Sieciowo-Superkomputerowe (WCSS) Politechnika Białostocka Politechnika Łódzka UMCS w Lublinie Politechnika Warszawska Politechnika Szczecińska Uniwersytet Opolski Uniwersytet w Zielonej Górze
11
Założenia projektu Głównym celem realizacji projektu jest opracowanie narzędzi oraz mechanizmów umożliwiających wdrożenie produkcyjnego środowiska gridowego, W konfiguracji bazowej udostępnia ono infrastrukturę lokalnych klastrów PC-Linux o architekturze 64-bitowej, połączonych szybką siecią kręgosłupową zapewnianą przez sieci PIONIER Do infrastruktury bazowej podłączone zostaną zarówno istniejące, jak i nowe klastry, o zróżnicowanej architekturze 32- i 64-bitowej W wyniku powstanie rozproszony klaster PC nowej generacji o dynamicznie zmieniającej się wielkości, w pełni operacyjny i zintegrowany z istniejącymi usługami, udostępnionymi przez inne projekty powstałe w ramach programu PIONIER
12
Realizowane zadania · Utworzenie środowiska produkcyjnego
Dostarczenie narzędzi i mechanizmów pozwalających na dynamiczną i automatyczną rekonfigurację infrastruktury Umożliwi dołączanie kolejnych klastrów lokalnych 32- lub 64-bitowych Instalacja pilotowa stanowi bazową infrastrukturę szkieletową połączoną siecią PIONIER Rozwój oprogramowania narzędziowego Zarządzanie danymi System rozdziału zasobów z predykcją, monitorowanie Zarządzanie kontami użytkowników i organizacjami wirtualnymi Bezpieczeństwo Zarządzanie zasobami sieciowymi, IPv6 Interfejs użytkownika oraz administratora Dynamiczne równoważenie obciążenia, mechanizm punktów kontrolnych Rozwój aplikacji gridowych Modelowanie zjawisk termomechanicznych w krzepnących odlewach Symulacja przepływów transonicznych wokół skrzydła samolotu Symulacje wielkiej skali przepływu krwi w mikrokapilarach metodą cząstek Modelowanie molekularne Dynamiczna wizualizacja terenu 3D z danych przestrzennych ·
13
CLUSTERIX: Architektura
14
Instalacja pilotowa (1)
12 klastrów lokalnych stanowi szkielet systemu Klastry lokalne budowane w oparciu o 64-bitowe procesory Intel Itanium2 1,4 GHz wyposażone w pamięci podręczne o wielkości 3 MB 2 lub 4 GB pamięci operacyjnej RAM na procesor Komunikacja wewnątrz klastrów lokalnych oparta o Gigabit Ethernet i InfiniBand (lub Myrinet) Komunikacja pomiędzy klastrami lokalnymi odbywa się za pomocą dedykowanych kanałów 1 Gb/s udostępnianych przez sieć PIONIER
15
Instalacja pilotowa (2)
252 x IA-64 w szkielecie 800 x IA-64 w konfiguracji testowej - 4,5 TFLOPS 3000+ km włókien optycznych o przepustowości 10Gbps (technologia DWDM) w pełni wdrożone protokoły IPv4 oraz IPv6 Gdańsk Szczecin Białystok Poznań Warszawa Zielona Góra Łódź Lublin Wrocław Częstochowa Opole Kraków
16
CLUSTERIX: Architektura sieci
Local Cluster Switch Clusterix Storage Element PIONIER Core Switch Bezpieczny dostęp do sieci zapewniają routery ze zintegrowaną funkcjonalnością firewalla Użycie dwóch VLAN-ów umożliwia separację zasobów obliczeniowych od szkieletu sieci Wykorzystanie dwóch sieci z dedykowaną przepustowością 1 Gbps pozwala poprawić efektywność zarządzania ruchem w klastrach lokalnych Access Node 1 Gbps Backbone Traffic Computing Nodes Internet Network Communication & NFS VLANs Internet Network Access Router Firewall
17
Oprogramowanie zarządzające systemem CLUSTERIX - technologie
Tworzone oprogramowanie bazuje na Globus Toolkit 2.4 oraz WEB serwisach - możliwość powtórnego wykorzystania tworzonego oprogramowania - zapewnia interoperacyjność z innymi systemami gridowymi na poziomie serwisów Technologia Open Source, w tym LINUX (Debian, jadro 2.6.x) oraz systemy kolejkowe (Open PBS, SGE) - oprogramowanie Open Source jest bardziej podatne na integrację zarówno z istniejącymi, jak i z nowymi produktami - dostęp do kodu źródłowego projektu ułatwia dokonywania zmian i ich publikację - większa niezawodność i bezpieczeństwo Szerokie wykorzystanie istniejących modułów programowych, np. brokera zadań z projektu GridLab, po dokonaniu niezbędnych adaptacji i rozszerzeń
19
Integracja klastrów dynamicznych: Założenia
Klastry dynamiczne (zewnętrzne) mogą być w prosty sposób (automatycznie) dołączane do szkieletu systemu CLUSTERIX aby: zwiększyć dostępną moc obliczeniową wykorzystać zasoby klastrów zewnętrznych w momentach, gdy są one nieobciążone (noce, weekendy …) zapewnić skalowalność infrastruktury systemu
20
Integracja klastrów dynamicznych: Architektura
PIONIER Backbone Switch Local Switch Nowe klastry weryfikowane pod względem: zainstalowanego oprogramowania certyfikatów SSL Komunikacja za pośrednictwem routera/firewalla System Monitorujący automatycznie wykrywa nowe zasoby Nowe klastry udostępniają moc obliczeniową dla użytkowników Internet Clusterix Core Router Firewall Dynamic Resources
21
Dołączenie klastra dynamicznego
Nodes Firewall/ router Access node Backbone network Switch Local switch Access node Istotny – publiczny węzeł dostępowy Struktura wewnętrzna klastra dynamicznego – nieistotna z punktu widzenia procesu dołączania Nodes DYNAMIC CLUSTER Internet Klaster dynamiczny powinien utworzyć połączenie ze szkieletem za pośrednictwem sieci Internet Połączenie via firewall z węzłem dostep. szkieletu Monitoring system Cały proces zarządzany przez system monitorujący Clusterix-a JIMS
22
Podsumowanie: Instalacja szkieletowa:
procesów Itanium2 rozproszonych pomiędzy klastrami lokalnymi na terenie Polski Możliwość dołączenia klastrów dynamicznych z zewnątrz (klastry na Uczelniach, w kampusach) - maksymalna instalacja zawierająca 800+ procesorów Itanium2 (4,5 Tflops) – jeszcze bez wykorzystania procedury automatycznego dołączenia
23
Wykonanie zadania w systemie CLUSTERIX
User Interface Virtual User Account System Broker - GRMS CDMS Portal Globus SSH Session Server SSH Session Server PBS/Torque, SGE Checkpoint restart USER Grid
24
GRMS (1) GRMS (Grid Resource Management System) jest systemem zarządzania zasobami i zadaniami w projekcie CLUSTERIX Został stworzony w ramach projektu GridLab Głównym zadaniem systemu GRMS jest zarządzanie całym procesem zdalnego zlecania zadań obliczeniowych do różnych systemów kolejkowych obsługujących klastry lokalne GRMS został zaprojektowany jako zbiór niezależnych komponentów zajmujących się różnymi aspektami procesu zarządzania zasobami, wykorzystujących serwisy niskiego poziomu
25
GRMS (2) GRMS bazuje na serwisach dostępnych w pakiecie Globus (GRAM, GridFTP) oraz w systemie zarządzania danymi CDMS i systemie monitorującym JIMS GRMS udostępnia interfejs w formie web-serwisu (GSI- enabled), przez który mogą się do niego odwoływać wszyscy klienci (portale, klienci linii komend lub aplikacje) Wszystkie wymagania użytkowników są specyfikowane przy pomocy specjalnych dokumentów XML, nazywanych opisami zadań GJD (GRMS Job Description), przy czym są one wysyłane do GRMS’a jako komunikaty SOAP poprzez połączenia GSI
26
Funkcjonalność systemu GRMS
Z punktu widzenia końcowego użytkownika funkcjonalność systemu GRMS można podzielić na: zlecanie zadań użytkownika i ich kontrolowanie listowanie zadań użytkownika z uwzględnieniem zadanych kryteriów zarządzanie zadaniami – migracja, zatrzymywanie, wznowienie, usuniecie pobieranie informacji o zadaniach znajdowanie zasobów spełniających wymagania użytkownika zarządzanie powiadamianiem (notyfikacja)
27
<grmsjob appid="psolidify">
<simplejob> <resource> <localrmname>pbs</localrmname> <hostname>access.pcss.clusterix.pl</hostname> </resource> <executable type="mpi" count="6"> <file name="exec" type="in"> <url>file:////home/users/olas/opt/bin/psolidify</url> </file> <arguments> <value>/home/users/olas/calc/solid/large/40000/40000</value> </arguments> <stdout> <url>gsiftp://access.pcz.clusterix.pl/~/tmp/zad/out</url> </stdout> <stderr> <url>gsiftp://access.pcz.clusterix.pl/~/tmp/zad/err</url> </stderr> </executable> </simplejob> </grmsjob >
28
Zarządzanie kontami użytkowników w Gridach
Klaster lokalny Grid !!! Główne (z naszej perspektywy) problemy to: Problemy z zarządzaniem kontami użytkowników Kwestia rozliczenia wykorzystanych zasobów Niekompatybilność systemów kolejkowych Problemy z transferem plików Integracja użytkowników z systemem w sposób przezroczysty i wygodny jest niezbędna w celu osiągnięcia maksymalnych korzyści. Totally different issues come up while connecting remote, independent domains (sites) Even a simple approach generates many problems mentioned below. The two mentioned: ... We tried to figure out.
29
System Wirtualnych Użytkowników (VUS)
Dotychczas użytkownik musiał posiadać oddzielne konto fizyczne na każdej maszynie john jsmith smith acc01 foo js System zarządzania zasobami + System Wirtualnych Użytkowników What we see is the lack of distributed operating system, what will not appear, unfortunately in the near future.
30
VUS dla Gridu Globus PBS
31
VUS dla Gridu Zbiór ogólnodostępnych kont, które mogą być przyporządkowane kolejnym zadaniom Możliwość zgłaszania zadań do innych maszyn i klastrów lokalnych Automatyczny transfer plików Uproszczona administracja kontami użytkowników Pełna informacja rozliczeniowa o wykorzystaniu kont
32
Architektura systemu W systemie Globus istnieje mechanizm odwzorowania kont lokalnych do kont w systemie Globus, jednakże zadaniem administratora jest założenie kont lokalnych i wprowadzenie odwzorowania. Żeby umożliwić inny sposób autoryzacji należy wymienić moduł gatekeeper, który jest odpowiedzialny za autoryzację i przydział lokalnego konta. W naszym systemie gatekeeper zostanie zastąpiony modułem GAM (Globus Authorization Module). Proces rozliczania wykorzystania zasobów powinien być rozszerzony w stosunku do standardowego systemowego accountingu. Należy zapewnić odwzorowanie z nazw kont lokalnych na nazwę rzeczywistego użytkownika. Należy też dopuścić możliwość zapisywania informacji rozliczeniowych nieuwzględnionych w standardowym systemie accountingu. Informacje rozliczeniowe powinny być przesyłane do odpowiednich serwerów organizacji wirtualnych. Zbieraniem i przetwarzaniem informacji rozliczeniowych będzie zajmował się moduł GAS (Grid Accounting Service) Każda organizacja wirtualna musi utrzymywać swój serwer, który będzie przechowywał listę użytkowników wraz z ich prawami, oraz informacje rozliczeniowe dotyczące użytkowników tej organizacji. Zarządzaniem danymi wirtualnych organizacji będzie zajmował się moduł VOIS (Virtual Organization Information System). Zasoby (superkomputery, klastry, inne urządzenia fizyczne) mogą być pogrupowane w logiczną grupę odpowiadającą np. działowi firmy, jednostce naukowej, czy miastu. Każda taka logiczna grupa może utrzymywać własny serwer, który będzie zajmował się zbieraniem i przetwarzaniem informacji rozliczeniowych dotyczących wszystkich jej systemów. Odpowiedzialny za to będzie moduł SAIS (Site Account Information System)
33
Autoryzacja - przykład
Clusterix TUC Cyfronet PSNC scientists operators programmers staff Lab_users Clusterix TUC Cyfronet PSNC Scientists operators programmers staff Lab_users VO hierarchy VO admins security policy Account groups Node admin security policy Grid Node guests common power login:
34
VUS: Podsumowanie Pozwala stworzyć produkcyjne środowisko gridowe
Łączy lokalne i globalne polityki zarządzania kontami Redukuje narzuty na administrację Udostępnia pełną informację na temat wykorzystania zasobów Wspiera różnorodne scenariusze dostępu do Gridu – dla użytkownika końcowego, właściciela zasobów, managera organizacji
35
Wykonanie zadania w systemie CLUSTERIX
User Interface Virtual User Account System Broker - GRMS CDMS Portal Globus SSH Session Server SSH Session Server PBS/Torque, SGE Checkpoint restart USER Grid
36
Bazowy scenariusz wykonywania zadań w systemie CLUSTERIX
Użytkownik zleca zadanie do systemu GRMS za pośrednictwem np. portalu, przekazując opis zadania GJD GRMS wybiera optymalny zasób do uruchomienia zadania, zgodnie z opisem zadania (hardware/software) VUS odpowiada za mapowanie uprawnień użytkownika (user credentials) na konta fizyczne w klastrach lokalnych Transfer danych wejściowych i plików wykonywalnych (staging): a) dane wejściowe opisywane przy pomocy logicznego lub fizycznego pobierane są z systemu CDMS ( CLUSTERIX Data Management System) b) pliki wykonywalne, w tym również skrypty (GRMS + CDMS) Wykonanie zadania Po zakończeniu zadania wyniki przekazywane są do CDMS; wykorzystywane konta fizyczne są „czyszczone” przez VUS
37
Interfejs dostępowy: Portale gridowe
Wymagania w stosunku do interfejsu dostępowego : - możliwość łatwego dostosowania do potrzeb użytkowników - wydajność - bezpieczeństwo Opracowano SSH Session Framework z następującymi właściwościami: - oparcie interfejsu GUI o interfejs „command-line” - wykorzystanie portletów GridSphere oraz parserów zdefiniowanych w języku XML - architektura rozproszona - łatwa adaptacja istniejących aplikacji do wykonywania w Gridzie - instalacja przezroczysta dla systemu gridowego (run-time) - niezawodność - wsparcie dla VRML, X3D, SVG, formatów graficznych (jpeg, png)
42
Aplikacje pilotowe Ponad 20 aplikacji użytkownika końcowego
Wśród zaproponowanych aplikacji można wyróżnić następujące typy zadań: zadania jednoprocesowe sekwencja zadań jednoprocesowych zadania równoległe uruchamiane na jednym klastrze lokalnym sekwencja zadań równoległych uruchamianych na jednym klastrze lokalnym meta-aplikacje rozproszone uruchamiane na więcej niż jednym klastrze lokalnym - MPICH-G2
43
W.Dzwinel, K.Boryczko AGH, Institute of Computer Science
Symulacje wielkiej skali przepływów krwi w mikrokapilarach (dyskretne modele cząstkowe) W.Dzwinel, K.Boryczko AGH, Institute of Computer Science
44
(5x106 cząstek, 16 procesorów)
Powstawanie skrzepów krwi (5x106 cząstek, 16 procesorów)
45
Przewidywanie struktur białek
Adam Liwo, Cezary Czaplewski, Stanisław Ołdziej Department of Chemistry, University of Gdansk
46
Critical Assessment of Techniques for Protein Structure Prediction
Selected UNRES/CSA results from 6th Community Wide Experiment on the Critical Assessment of Techniques for Protein Structure Prediction December 4-8, 2004 left - experimental structure, right - predicted structure
47
Symulacje przepływów w aeronautyce - autorskie oprogramowanie HADRON
Prof. Jacek Rokicki Politechnika Warszawska Abstract Within the past several years, SPM systems able to manipulate individual atoms or molecules have been developed and implemented. It is reasonable to expect this trend to continue and, most likely, accelerate. As a result, we might expect SPM systems to be able to assemble individual atoms or molecules mechanically into nano-materials and nano-devices at some point in the near future. Finally, we hope SPM will one day be able to realize atom-by-atom assembly of novel materials and devices, image the higher orders structure of nano-systems, and provide video rate imaging with atomic resolution. With this recently developed ability to measure, manipulate and organize matter on the atomic scale, a revolution seems to take place in science and technology. And unfortunately, wherever structures smaller than one micrometer are considered the term nanotechnology comes into play. But nanotechnology comprises more than just another step toward miniaturization. Even today, one tendency is clearly visible: nanotechnology makes design the most important part of any development process. Therefore, the intention of this paper is to give an overview into the procedures, techniques, problems and difficulties arising with computational nano-engineering and how CLUSTERIX project can help design process.
48
Symulacje wielkiej skali zagadnień 3D mechaniki płynów
Projekt HiReTT ( ) 36 x 106 węzłów 3060 x 106 równań nielin.
49
Michał Wróbel, Aleksander Herman TASK & Politechnika Gdańska
Nano-Technologie Michał Wróbel, Aleksander Herman TASK & Politechnika Gdańska Abstract Within the past several years, SPM systems able to manipulate individual atoms or molecules have been developed and implemented. It is reasonable to expect this trend to continue and, most likely, accelerate. As a result, we might expect SPM systems to be able to assemble individual atoms or molecules mechanically into nano-materials and nano-devices at some point in the near future. Finally, we hope SPM will one day be able to realize atom-by-atom assembly of novel materials and devices, image the higher orders structure of nano-systems, and provide video rate imaging with atomic resolution. With this recently developed ability to measure, manipulate and organize matter on the atomic scale, a revolution seems to take place in science and technology. And unfortunately, wherever structures smaller than one micrometer are considered the term nanotechnology comes into play. But nanotechnology comprises more than just another step toward miniaturization. Even today, one tendency is clearly visible: nanotechnology makes design the most important part of any development process. Therefore, the intention of this paper is to give an overview into the procedures, techniques, problems and difficulties arising with computational nano-engineering and how CLUSTERIX project can help design process.
50
XMD testing target: a planetary gear device containing 8297 atoms (C, F, H, N, O, P, S and Si) designed by K. E. Drexler and R. Merkle XMD - pakiet oprogramowania Open Source do symulacji zagadnień dynamiki molekularnej dla nano-urządzeń oraz nano-systemów
51
Politechnika Częstochowska Tomasz Olas olas@icis.pcz.pl
Pakiet NuscaS Politechnika Częstochowska Tomasz Olas Dziedziny zastosowań: różnorodne zjawiska termomechaniczne: przepływ ciepła, krzepniecie odlewów, naprężenia, pękanie odlewów na gorąco, itd.
52
Modelowanie krzepnięcia odlewów
Siatka MES oraz jej dekompozycja
53
Scenariusze wykorzystania zasobów w środowisku gridowym
Grid jako zbiór zasobów: broker zadań znajduje zasób (klaster lokalny) spełniający wymagania użytkownika, który zostaje wykorzystany do uruchomienia zadania Równoległe uruchomienie w środowisku gridowym (meta-aplikacja): standardowe równoległe zadanie obliczeniowe zostaje uruchomione na geograficznie odległych zasobach aplikacja dostosowuje się do środowiska Grid, na którym zostaje uruchomiona, w celu zwiększenia efektywności obliczeń
54
MPICH-G2 W systemie CLUSTERIX do uruchamiania meta-aplikacji wykorzystywane jest środowisko MPICH-G2 jako gridowa implementacja standardu MPI (wersja 1.1) Opiera się ona na Globus Toolkit, który służy do autoryzacji, tworzenia procesów i ich kontroli MPICH-G2 umożliwia połączenie wielu systemów komputerowych (klastrów), potencjalnie o o różnej architekturze, w celu uruchomienia aplikacji MPI W celu zwiększenia wydajności możliwe jest wykorzystan9ie lokalnych wersji MPI dostosowanych do konkretnych architektur sieciowych (np. MPICH-GM)
55
CLUSTERIX jako system heterogeniczny
Hierarchiczna architektura systemu CLUSTERIX Złożoność zagadnienia przystosowania aplikacji do jej efektywnego wykonania w środowisku CLUSTERIX Konstrukcja komunikatora w MPICH-G2 może być wykorzystana w celu uwzględnienia hierarchicznej architektury systemu, umożliwiając adaptację zachowania aplikacji do właściwości takiej architektury
56
System NuscaS – zrównoleglanie obliczeń
57
Równoległe rozwiązywanie układu równań (1)
Zastosowano metodę sprzężonych gradientów Algorytm zaproponowany przez Meisela i Meyera z jednym punktem synchronizacji Zaimplementowano nakładanie się w czasie operacji obliczeniowych i komunikacyjnych
58
Równoległe rozwiązywanie układu równań (2)
59
Wyniki wydajnościowe (1)
60
Wyniki wydajnościowe (2)
61
Podsumowanie (1) W chwili obecnej pierwsza wersja oprogramowania zarządzającego dla systemu CLUSTERIX jest już dostępna Trwa intensywne testowanie modułów oprogramowania i ich współdziałania Demo na SC’05 Bardzo istotne dla nas: - przyciągnięcie perspektywicznych użytkowników z nowymi aplikacjami - włączenie nowych klastrów dynamicznych - działalność szkoleniowa
62
Podsumowanie (2) Pokazano że środowisko CLUSTERIX jest wydajną platformą do wykonywania obliczeń numerycznych Pełne wykorzystanie jego potencjału przez meta-aplikacje wymaga w większości przypadków uwzględnienia jego hierarchicznej struktury Plany na najbliższą przyszłość (NuscaS) - wersja równoległa systemu NuscaS 3D - checkpointing - wdrożenie kompleksowej aplikacji z równoległością na wielu poziomach przeznaczonej do modelowania pękania odlewów na gorąco
63
Hot Tearing modeling ... Manager module Microscopic application
Solidification application (parallel application using MPI) Manager module Stress application (parallel application using MPI) ... Microscopic application (sequential) Microscopic application (sequential) Microscopic application (sequential) Microscopic application (sequential)
65
www: https://clusterix.pl
Dziękuję za uwagę ! www: Roman Wyrzykowski
Podobne prezentacje
© 2024 SlidePlayer.pl Inc.
All rights reserved.