Krajowy Klaster Linuxowy CLUSTERIX jako platforma gridowa do obliczeń wielkiej skali Roman Wyrzykowski Instytut Informatyki Teoretycznej i Stosowanej Politechnika.

Slides:



Advertisements
Podobne prezentacje
Migrating Desktop Podsumowanie projektu
Advertisements

Polska Infrastruktura Informatycznego Wspomagania Nauki w Europejskiej Przestrzeni Badawczej Intuicyjny interfejs do zasobów projektu PL-Grid Migrating.
Architektura SAP R/3 Wybrane zagadnienia.
Polska Infrastruktura Informatycznego Wspomagania Nauki w Europejskiej Przestrzeni Badawczej Polska Infrastruktura Gridowa - przestrzeń badawcza dla użytkowników.
Sieci VLAN.
SIECI KOMPUTEROWE WYKŁAD 10. RÓWNOWAŻENIE OBCIĄŻEŃ
Usługa powszechnej archiwizacji PLATON-U4
1 Linux jako system wielozadaniowy i wielodostępny.
ADAM Active Directory w trybie aplikacyjnym
Agnieszka Lewandowska, Cezary Mazurek, Marcin Werla
SYSTEM ZARZĄDZANIA DANYMI PCSS 2003/2004 START.
Uwierzytelnianie i autoryzacja dostępu do portali
POZNAŃ SUPERCOMPUTING AND NETWORKING CENTER 1 Stan oraz koncepcje zadań realizowanych przez PCSS w ramach projektu LDAP PCSS, Lipiec 2002.
Systemy operacyjne Bibliografia:
Czym jest ISA 2004 Microsoft Internet Security and Acceleration Server 2004 jest zaawansowaną zapora filtrującą ruch w warstwie aplikacji. Razem z zaporą.
Longhorn - Usługi terminalowe
Artur Szmigiel Paweł Zarębski Kl. III i
SIECI KOMPUTEROWE PIOTR MAJCHER PODSTAWOWE POJĘCIA.
Alliance 8300 Zintegrowany system zarządzania bezpieczeństwem
Heterogeniczne procesory wielordzeniowe w urządzeniach audio
Zastosowanie technologii CUDA w sztucznej inteligencji
WebSphere Everyplace Micro Environment IBM Workplace Client Technology, Micro Edition Monika Nawrot, Tomasz Jadczyk, Tomasz Sadura KI, EAIiE, AGH.
Zarządzanie Kontami Użytkowników w Systemie Globus
System Użytkowników Wirtualnych
Uwierzytelnianie i autoryzacja System Użytkowników Wirtualnych Michał Jankowski Paweł Wolniewicz
WP 2.1 Zdalny dostęp do bibliotek naukowych Realizujący : PCSS i TASK Osoby kontaktowe: Maciej Brzeźniak Rafał Tylman
POZNAŃ SUPERCOMPUTING AND NETWORKING CENTER WP 2.1 Zdalny dostęp do bibliotek naukowych Udział w projekcie: 6,51% Osoby kontaktowe: PCSS: Maciej Brzeźniak.
? Rosnące potrzeby użytkowników Rozmiar problemu Czas Komputer domowy
Zadanie: Integracja oprogramowania w gminach i starostwie
Roman Wyrzykowski Instytut Informatyki Teoretycznej i Stosowanej
Rozwój aplikacji przy wykorzystaniu ASP.NET
Stanisław Jerzy Niepostyn, Ilona Bluemke Instytut Informatyki,
… iSCSI … Windows Server 2012 Łukasz Dylewski.
Wirtualna baza SQL zgodna z SQL Server SQL as a Service
Opracował : Przemysław Drzymała
Jaka jest wydajność najszybszego superkomputera na świecie? Gflopów procesorów Intel EM64T Xeon X56xx 2930 MHz (11.72 GFlops) GB.
Przeznaczenie produktu Opis funkcjonalności
Budowa systemu komputerowego
Temat 1: Podstawowe pojęcia dotyczące lokalnej sieci komputerowej
Temat 4: Rodzaje, budowa i funkcje urządzeń sieciowych.
Rozdział 1: Wprowadzenie do systemu Windows 2000 i podstaw sieci
Maszyna wirtualna ang. virtual machine, VM.
Zaprojektowanie i wykonanie prototypowego systemu obiegu dokumentów (workflow) dla Dziekanatu Wydziału z wykorzystaniem narzędzi open-source i cloud computing.
POZNAŃ SUPERCOMPUTING AND NETWORKING CENTER Systemy zarządzania w środowisku rozproszonym Mirosław Kupczyk
System synchronizacji oraz współdzielenia plików pomiędzy wieloma użytkownikami oraz urządzeniami poprzez sieć Internet Rafał Olszewski Promotor: Mgr inż.
Bazy danych, sieci i systemy komputerowe
Sieci komputerowe.
Halina Tarasiuk Politechnika Warszawska, Instytut Telekomunikacji
Sieci komputerowe.
Narzędzia klienta usługi archiwizacji Warsztaty „Usługa powszechnej archiwizacji” Michał Białoskórski, CI TASK Bartłomiej Balcerek, WCSS.
Toruń 28/ Finansowanie w ramach aktywności 2.3 (Budowa infrastruktury dla nauki) – Konkurs 2.3/1/2013/POIG Okres realizacji: –
PIONIER — zaproszenie do współpracy Małgorzata Kozłowska Podsekretarz Stanu w Komitecie Badań Naukowych
Podstawy języka skryptów
Sposoby zdalnego sterowania pulpitem
POZNAŃ SUPERCOMPUTING AND NETWORKING CENTER 1 Zastosowanie LDAP w usługach WWW i Portali PCSS, 2002.
WSPM - Wirtualny System Plików Multimedialnych Igor BOKUN, Stanisław STRELNIK, Krzysztof ZIELIŃSKI Katedra Informatyki Akademia Górniczo-Hutnicza.
Sprawozdanie Projekt celowy „Wdrożenie protokołu LDAP w akademicko-naukowych sieciach komputerowych” Jerzy Żenkiewicz Uczelniane Centrum Informatyczne.
Wdrożenie Foglight w Urzędzie Dozoru Technicznego
Moduł e-Kontroli Grzegorz Dziurla.
Podział sieci komputerowych
WYŻSZA SZKOŁA INFORMATYKI I ZARZĄDZANIA z siedzibą w Rzeszowie WYDZIAŁ INFORMATYKI STOSOWANEJ VPN TYPU KLIENT-SERWER, KONFIGURACJA NA MICROSOFT ISA 2006.
Środowisko wspomagania automatycznej instalacji GNU/Linux „Multistart” Marta Szcześniak.
WYŻSZA SZKOŁA INFORMATYKI I ZARZĄDZANIA z siedzibą w Rzeszowie WYDZIAŁ INFORMATYKI STOSOWANEJ VPN TYPU KLIENT-SERWER, KONFIGURACJA NA MICROSOFT ISA 2006.
Infrastruktura PLGrid – wspieramy polskich naukowców
Zintegrowany monitoring infrastruktury IT w Budimex
Komisja Torowa IGKM „Techniczne i środowiskowe aspekty rozwoju tramwaju i metra w Warszawie” System monitorowania zwrotnic tramwajowych sterowanych automatycznie.
Projekt STARGARDZKI INTERNET SZEROKOPASMOWY planowany do realizacji ze środków Regionalnego Programu Operacyjnego Województwa Zachodniopomorskiego na.
The CC1 system Prywatna chmura The CC1 system
Hipertekst HTML WWW.
- Krajowe Repozytorium Obiektów Nauki i Kultury
Zapis prezentacji:

Krajowy Klaster Linuxowy CLUSTERIX jako platforma gridowa do obliczeń wielkiej skali Roman Wyrzykowski Instytut Informatyki Teoretycznej i Stosowanej Politechnika Częstochowska

POLSKIE PROJEKTY SIECIOWE – PIONIER (1Q05) Podobne rozwiązanie USA: National Lambda Rail SIECI NOWEJ GENERACJI

Status projektu CLUSTERIX  Projekt celowy MNiI „CLUSTERIX - Krajowy Klaster Linuxowy (National Cluster of Linux Systems)”  Uczestniczy 12 jednostek z całej Polski (MAN-y i KDM-y)  Politechnika Częstochowska jako koordynator  Faza badawczo-rozwojowa:  Faza wdrożeniowa: –  Ogólny koszt – zł, w tym dotacja MNiI zł, reszta to wkład własny uczestników projektu

Partnerzy  Politechnika Częstochowska (koordynator)  Poznańskie Centrum Superkomputerowo-Sieciowe (PCSS)  Akademickie Centrum Komputerowe CYFRONET AGH, Kraków  Trójmiejska Akademicka Sieć Komputerowa w Gdańsku (TASK)  Wrocławskie Centrum Sieciowo-Superkomputerowe (WCSS)  Politechnika Białostocka  Politechnika Łódzka  UMCS w Lublinie  Politechnika Warszawska  Politechnika Szczecińska  Uniwersytet Opolski  Uniwersytet w Zielonej Górze

Założenia projektu  Głównym celem realizacji projektu był opracowanie narzędzi oraz mechanizmów umożliwiających wdrożenie produkcyjnego środowiska gridowego,  W konfiguracji bazowej udostępnia ono infrastrukturę lokalnych klastrów PC-Linux o architekturze 64-bitowej, połączonych szybką siecią kręgosłupową zapewnianą przez sieci PIONIER  Do infrastruktury bazowej mogą być podłączane zarówno istniejące, jak i nowe klastry, o zróżnicowanej architekturze 32- i 64-bitowej  W wyniku powstaje rozproszony klaster PC nowej generacji o dynamicznie zmieniającej się wielkości, w pełni operacyjny i zintegrowany z istniejącymi usługami, udostępnionymi przez inne projekty powstałe w ramach programu PIONIER

Utworzenie środowiska produkcyjnego – Dostarczenie narzędzi i mechanizmów pozwalających na dynamiczną i automatyczną rekonfigurację infrastruktury – Umożliwi dołączanie kolejnych klastrów lokalnych 32- lub 64- bitowych – Instalacja pilotowa stanowi bazową infrastrukturę szkieletową połączoną siecią PIONIER Rozwój oprogramowania narzędziowego – Zarządzanie danymi – System rozdziału zasobów z predykcją, monitorowanie – Zarządzanie kontami użytkowników i organizacjami wirtualnymi – Bezpieczeństwo – Zarządzanie zasobami sieciowymi, IPv6 – Interfejs użytkownika oraz administratora – Dynamiczne równoważenie obciążenia, mechanizm punktów kontrolnych Rozwój aplikacji gridowych – Modelowanie zjawisk termomechanicznych w krzepnących odlewach – Symulacja przepływów transonicznych wokół skrzydła samolotu – Symulacje wielkiej skali przepływu krwi w mikrokapilarach metodą cząstek – Modelowanie molekularne – Dynamiczna wizualizacja terenu 3D z danych przestrzennych  Zrealizowane zadania

CLUSTERIX: Architektura

Instalacja pilotowa (1)  12 klastrów lokalnych stanowi szkielet systemu  Klastry lokalne budowane w oparciu o 64-bitowe procesory Intel Itanium2 1,4 GHz wyposażone w pamięci podręczne o wielkości 3 MB  2 lub 4 GB pamięci operacyjnej RAM na procesor  Komunikacja wewnątrz klastrów lokalnych oparta o Gigabit Ethernet i InfiniBand (lub Myrinet)  Komunikacja pomiędzy klastrami lokalnymi odbywa się za pomocą dedykowanych kanałów 1 Gb/s udostępnianych przez sieć PIONIER

Instalacja pilotowa (2)  252 x IA-64 w szkielecie  800 x IA-64 w konfiguracji testowej - 4,5 TFLOPS  km włókien optycznych o przepustowości 10Gbps (technologia DWDM)  w pełni wdrożone protokoły IPv4 oraz IPv6 Gdańsk Szczecin Poznań Zielona Góra Wrocław Opole Częstochowa Kraków Łódź Lublin Warszawa Białystok

Oprogramowanie zarządzające systemem CLUSTERIX - technologie  Tworzone oprogramowanie bazuje na Globus Toolkit 2.4 oraz WEB serwisach - możliwość powtórnego wykorzystania tworzonego oprogramowania - zapewnia interoperacyjność z innymi systemami gridowymi na poziomie serwisów  Technologia Open Source, w tym LINUX (Debian, jadro 2.6.x) oraz systemy kolejkowe (Open PBS, SGE) - oprogramowanie Open Source jest bardziej podatne na integrację zarówno z istniejącymi, jak i z nowymi produktami - dostęp do kodu źródłowego projektu ułatwia dokonywania zmian i ich publikację - większa niezawodność i bezpieczeństwo  Szerokie wykorzystanie istniejących modułów programowych, np. brokera zadań z projektu GridLab, po dokonaniu niezbędnych adaptacji i rozszerzeń

Integracja klastrów dynamicznych  Klastry dynamiczne (zewnętrzne) mogą być w prosty sposób (automatycznie) dołączane do szkieletu systemu CLUSTERIX aby: –zwiększyć dostępną moc obliczeniową –wykorzystać zasoby klastrów zewnętrznych w momentach, gdy są one nieobciążone (noce, weekendy …) –zapewnić skalowalność infrastruktury systemu

Dołączenie klastra dynamicznego Nodes Firewall/ router Access node Backbone network Switch Local switch Internet  Klaster dynamiczny powinien utworzyć połączenie ze szkieletem za pośrednictwem sieci Internet Monitoring system  Cały proces zarządzany przez system monitorujący Clusterix-a  Struktura wewnętrzna klastra dynamicznego – nieistotna z punktu widzenia procesu dołączania Nodes DYNAMIC CLUSTER Access node  Istotny – publiczny węzeł dostępowy  Połączenie via firewall z węzłem dostep. szkieletu

Grid PBS/Torque, SGE Globus Broker - GRMS Checkpoint restart Virtual User Account System CDMS User Interface USER SSH Session Server Portal SSH Session Server Wykonanie zadania w systemie CLUSTERIX

 GRMS (Grid Resource Management System) jest systemem zarządzania zasobami i zadaniami w projekcie CLUSTERIX  Został stworzony w ramach projektu GridLab  Głównym zadaniem systemu GRMS jest zarządzanie całym procesem zdalnego zlecania zadań obliczeniowych do różnych systemów kolejkowych obsługujących klastry lokalne  Wszystkie wymagania użytkowników są specyfikowane przy pomocy specjalnych dokumentów XML, nazywanych opisami zadań GJD (GRMS Job Description), przy czym są one wysyłane do GRMS’a jako komunikaty SOAP poprzez połączenia GSI GRMS

pbs access.pcss.clusterix.pl file:////home/users/olas/opt/bin/psolidify /home/users/olas/calc/solid/large/40000/40000 gsiftp://access.pcz.clusterix.pl/~/tmp/zad/out gsiftp://access.pcz.clusterix.pl/~/tmp/zad/err

Klaster lokalny  Grid !!! Niektóre problemy to:  Problemy z zarządzaniem kontami użytkowników  Kwestia rozliczenia wykorzystanych zasobów  Niekompatybilność systemów kolejkowych  Problemy z transferem plików Integracja użytkowników z systemem w sposób przezroczysty i wygodny jest niezbędna w celu osiągnięcia maksymalnych korzyści. Zarządzanie kontami użytkowników w Gridach

Dotychczas użytkownik musiał posiadać oddzielne konto fizyczne na każdej maszynie System Wirtualnych Użytkowników (VUS) john jsmith smith acc01 foo jsmith js System zarządzania zasobami+ System Wirtualnych Użytkowników

 Zbiór ogólnodostępnych kont, które mogą być przyporządkowane kolejnym zadaniom  Możliwość zgłaszania zadań do innych maszyn i klastrów lokalnych  Automatyczny transfer plików  Uproszczona administracja kontami użytkowników  Pełna informacja rozliczeniowa o wykorzystaniu kont  Wspiera różnorodne scenariusze dostępu do Gridu – dla użytkownika końcowego, właściciela zasobów, managera organizacji VUS dla Gridu

Grid PBS/Torque, SGE Globus Broker - GRMS Checkpoint restart Virtual User Account System CDMS User Interface USER SSH Session Server Portal SSH Session Server Wykonanie zadania w systemie CLUSTERIX

1.Użytkownik zleca zadanie do systemu GRMS za pośrednictwem np. portalu, przekazując opis zadania GJD 2.GRMS wybiera optymalny zasób do uruchomienia zadania, zgodnie z opisem zadania (hardware/software) 3.Transfer danych wejściowych i plików wykonywalnych: a) dane wejściowe opisywane przy pomocy adresu logicznego lub fizycznego - pobierane są z systemu CDMS czyli CLUSTERIX Data Management System (lub węzła dostępowego) przy współudziale GRMS b) pliki wykonywalne, w tym również skrypty 4.VUS odpowiada za mapowanie uprawnień użytkownika (user credentials) na konta fizyczne w klastrach lokalnych 5.Wykonanie zadania 6.Po zakończeniu zadania wyniki przekazywane są do CDMS; wykorzystywane konta fizyczne są „czyszczone” przez VUS Bazowy scenariusz wykonywania zadań w systemie CLUSTERIX

Interfejs dostępowy: Portale gridowe  Wymagania w stosunku do interfejsu dostępowego : - możliwość łatwego dostosowania do potrzeb użytkowników - wydajność - bezpieczeństwo  Opracowano SSH Session Framework z następującymi właściwościami: - oparcie interfejsu GUI o interfejs „command-line” - wykorzystanie portletów GridSphere oraz parserów zdefiniowanych w języku XML - architektura rozproszona - łatwa adaptacja istniejących aplikacji do wykonywania w Gridzie - instalacja przezroczysta dla systemu gridowego (run-time) - niezawodność - wsparcie dla VRML, X3D, SVG, formatów graficznych (jpeg, png)

 Ponad 20 aplikacji użytkownika końcowego  Wśród zaproponowanych aplikacji można wyróżnić następujące typy zadań: -zadania jednoprocesowe -sekwencja zadań jednoprocesowych -zadania równoległe uruchamiane na jednym klastrze lokalnym -sekwencja zadań równoległych uruchamianych na jednym klastrze lokalnym -meta-aplikacje rozproszone uruchamiane na więcej niż jednym klastrze lokalnym - MPICH-G2 Aplikacje pilotowe

Przewidywanie struktur białek Adam Liwo, Cezary Czaplewski, Stanisław Ołdziej Department of Chemistry, University of Gdansk

Selected UNRES/CSA results from 6 th Community Wide Experiment on the Critical Assessment of Techniques for Protein Structure Prediction December 4-8, 2004 left - experimental structure, right - predicted structure

 Grid jako zbiór zasobów: broker zadań znajduje zasób (klaster lokalny) spełniający wymagania użytkownika, który zostaje wykorzystany do uruchomienia zadania  Równoległe uruchomienie w środowisku gridowym (meta-aplikacja): –standardowe równoległe zadanie obliczeniowe zostaje uruchomione na geograficznie odległych zasobach –aplikacja dostosowuje się do środowiska Grid, na którym zostaje uruchomiona, w celu zwiększenia efektywności obliczeń Scenariusze wykorzystania zasobów w środowisku gridowym

MPICH-G2  W systemie CLUSTERIX do uruchamiania meta-aplikacji wykorzystywane jest środowisko MPICH-G2 jako gridowa implementacja standardu MPI (wersja 1.1)  Opiera się ona na Globus Toolkit, który służy do autoryzacji, tworzenia procesów i ich kontroli  MPICH-G2 umożliwia połączenie wielu systemów komputerowych (klastrów), potencjalnie o o różnej architekturze, w celu uruchomienia aplikacji MPI  W celu zwiększenia wydajności możliwe jest wykorzystan9ie lokalnych wersji MPI dostosowanych do konkretnych architektur sieciowych (np. MPICH-GM)

CLUSTERIX jako system heterogeniczny  Hierarchiczna architektura systemu CLUSTERIX  Złożoność zagadnienia przystosowania aplikacji do jej efektywnego wykonania w środowisku CLUSTERIX  Konstrukcja komunikatora w MPICH-G2 może być wykorzystana w celu uwzględnienia hierarchicznej architektury systemu, umożliwiając adaptację zachowania aplikacji do właściwości takiej architektury

System NuscaS – zrównoleglanie obliczeń

Równoległe rozwiązywanie układu równań

NuscaS NuscaS Single-site Performance

NuscaS NuscaS Cross-site Performance

Cross-site versus Single-site Performance nodes nodes

Prediction of Protein Structure Prediction of Protein Structure Performance results (1) TASKPB + PCzTASK+PB+PCz ptime [s]p p

Prediction of Protein Structure Prediction of Protein Structure Performance results (2) TASK + PB + PCz + WCSS Ptime [s]

Dziękuję za uwagę ! www: Roman Wyrzykowski

Agenda (1) Część teoretyczna: do 11:00 1.Wprowadzenie. 2.GRMS – system zarządzania zadaniami 3.CDMS – system zarządzania danymi 4.Wystawianie certyfikatów; VUS – System Użytkowników Wirtualnych 5.Interfejs portalowy dla systemu ClusteriX 6.Wprowadzenie do biblioteki MPICH-G2 11:00 – 11:30 Przerwa

Agenda (2) Część praktyczna: od 11:30 Uruchamianie zadań w środowisku gridowym 1.Uzyskiwanie certyfikatów. 2.Uruchamianie przykładowych zadań z użyciem interfejsu graficznego (portalu) 3.Zlecanie zadań do wykonania na gridzie z wykorzystaniem klienta tekstowego GRMS 13:30 – 14:15 Przerwa na lunch