Jacek Kitowski i Łukasz Dutka ACK CYFRONET AGH, Kraków, Polska

Slides:



Advertisements
Podobne prezentacje
16 décembre 2013 Slide N° 1 5 mars 2009 Slide N° 1 Urbact Secretariat URBACT II Europejski Program Współpracy Terytorialnej dla Zrównoważonego.
Advertisements

PITWIN – Portal Innowacyjnego Transferu Wiedzy w Nauce
Migrating Desktop Podsumowanie projektu
innowacyjna wielkopolska
Słabe strony administracji publicznej wg Narodowej Strategii Spójności 2007
Projekty systemowe wspierające kierunki zmian w kształceniu zawodowym
Myślenie innowacyjne w obszarze polityki społecznej a projekty finansowane ze środków Unii Europejskiej.
Polska Infrastruktura Informatycznego Wspomagania Nauki w Europejskiej Przestrzeni Badawczej Intuicyjny interfejs do zasobów projektu PL-Grid Migrating.
Polska Infrastruktura Informatycznego Wspomagania Nauki w Europejskiej Przestrzeni Badawczej Polska Infrastruktura Gridowa - przestrzeń badawcza dla użytkowników.
Dzień Otwarty Cyfronetu 12 listopada 2007 Polski Grid Polski Grid: Ogólnopolska Infrastruktura Gridowa dla Nauki Jacek Kitowski Instytut Informatyki AGH-UST.
Rozwój Polskiej Infrastruktury Gridowej w ramach Projektu PL-Grid
Jacek Kitowski and Łukasz Dutka ACK CYFRONET AGH, Cracow
X Ogólnopolska Konferencja Automatyzacja Bibliotek Publicznych Modele współpracy bibliotek publicznych – czy razem możemy więcej, szybciej, lepiej? Warszawa.
Strategia rozwoju społeczeństwa informacyjnego w Polsce do roku 2013
Usługa powszechnej archiwizacji PLATON-U4
PARTNERSTWO na rzecz rozwoju rynku pracy powiatu starogardzkiego Projekt 50+ doświadczenie.
Agnieszka Lewandowska, Cezary Mazurek, Marcin Werla
Life Science Kluster Kraków Kraków, ul. Gronostajowa 7
SYSTEM ZARZĄDZANIA DANYMI PCSS 2003/2004 START.
– projekt CrossGrid, finansowany przez KE i KBN-MNiI
Plan działania Wrocław, PLAN DZIAŁANIA – STATUS DOKUMENTU W SYTEMIE REALIZACJI DOPRECYZOWANIE ZAPISÓW PO KL SzOP PD -
Ministerstwo Polityki Społecznej DEPARTAMENT POŻYTKU PUBLICZNEGO październik – listopad 2005 r.
1 Zintegrowany Program Operacyjny Rozwoju Regionalnego Sektorowy Program.
Program Operacyjny Kapitał Ludzki Priorytet IV Szkolnictwo wyższe i nauka Działanie 4.2 Patrycja Dukaczewska.
Administracja zintegrowanych systemów zarządzania
‘Wykorzystanie technologii obliczeń
Praca Inżynierska „Analiza i projekt aplikacji informatycznej do wspomagania wybranych zadań ośrodków sportowych” Dyplomant: Marcin Iwanicki Promotor:
1 Regionalny Program Operacyjny Województwa Podlaskiego na lata projekt Urząd Marszałkowski Województwa Podlaskiego Departament Polityki Regionalnej.
Wykład 2 Cykl życia systemu informacyjnego
WP 2.1 Zdalny dostęp do bibliotek naukowych Realizujący : PCSS i TASK Osoby kontaktowe: Maciej Brzeźniak Rafał Tylman
POZNAŃ SUPERCOMPUTING AND NETWORKING CENTER WP 2.1 Zdalny dostęp do bibliotek naukowych Udział w projekcie: 6,51% Osoby kontaktowe: PCSS: Maciej Brzeźniak.
1 PRZYGOTOWANIA DO 7. PROGRAMU RAMOWEGO UE REGIONY WIEDZY I INNOWACJI RESEARCH POTENTIAL = CENTERS OF EXCELLENCE ANDRZEJ SIEMASZKO KRAJOWY PUNKT KONTAKTOWY.
dr Zbigniew E. Zieliński Wyższa Szkoła Handlowa
Federacja Bibliotek Cyfrowych: Stan obecny i kierunki rozwoju
Jaka jest wydajność najszybszego superkomputera na świecie? Gflopów procesorów Intel EM64T Xeon X56xx 2930 MHz (11.72 GFlops) GB.
Projekty systemowe i konkursowe realizowane przez Ministerstwo Edukacji Narodowej na rzecz kształcenia zawodowego i ustawicznego Katowice, 29 października.
Program eCentra - propozycja Bartosz Mioduszewski.
Partner w Projekcie Uniwersytet Łódzki Wydział Zarządzania Katedra Zarządzania Miastem i Regionem.
Zaprojektowanie i wykonanie prototypowego systemu obiegu dokumentów (workflow) dla Dziekanatu Wydziału z wykorzystaniem narzędzi open-source i cloud computing.
POZNAŃ SUPERCOMPUTING AND NETWORKING CENTER Systemy zarządzania w środowisku rozproszonym Mirosław Kupczyk
Program Operacyjny Kapitał Ludzki
Zamojskie Centrum Dialogu Społecznego
Jak robić to efektywnie?
Halina Tarasiuk Politechnika Warszawska, Instytut Telekomunikacji
Możliwości finansowania współpracy nauki i biznesu
Projekt rozwojowy finansowany przez MNiSW pt.: Geoinformatyczny system zabezpieczenia działań operacyjnych związanych z ochroną portów od strony morza.
Toruń 28/ Finansowanie w ramach aktywności 2.3 (Budowa infrastruktury dla nauki) – Konkurs 2.3/1/2013/POIG Okres realizacji: –
INNOpomorze INNOwacyjne powiązania IV edycja projektu
Prywatna chmura obliczeniowa w IFJ PAN
Implementacja standardu FitSM w Infrastrukturze PLGrid
Wdrożenie telefonii IP na Uniwersytecie Warszawski Piotr Michalski Konferencja Promująca Projekt.
Jak powstaje chmura? Maciej Nabożny, Miłosz Zdybał
Eksploatacja zasobów informatycznych przedsiębiorstwa.
Sprawozdanie Projekt celowy „Wdrożenie protokołu LDAP w akademicko-naukowych sieciach komputerowych” Jerzy Żenkiewicz Uczelniane Centrum Informatyczne.
Grid Dziedzinowy: HEP (High Energy Physics) Andrzej Olszewski ACK Cyfronet, Kraków Spotkanie Techniczne PL-Grid PLUS, Zawiercie, 8-11 kwiecień 2014.
Departament Rozwoju Obszarów Wiejskich Ministerstwo Rolnictwa i Rozwoju Wsi Krajowa Sieć Obszarów Wiejskich.
Wdrożenie Foglight w Urzędzie Dozoru Technicznego
SYRIUSZ – KONFERENCJA PSZ 2011 Panel dyskusyjny - nowoczesne zarządzanie urzędem – wprowadzenie Dariusz Woźniak.
Infrastruktura PLGrid – wspieramy polskich naukowców
Pomorski System Wsparcia i Współpracy Organizacji Pozarządowych cele, narzędzie.
Zintegrowany monitoring infrastruktury IT w Budimex
Zarządzanie partnerstwem z wykorzystaniem zasad dotyczących współpracy w zespołach wirtualnych/ rozproszonych. Włodawski Obszar Funkcjonalny Gmina Miejska.
IX Konferencja "Uniwersytet Wirtualny: model, narzędzia, praktyka" Kazimierz Wiatr, Marek Kwaśniewski, Maria Wielgus ACK CYFRONET AGH Iwona Wendel Urząd.
ARCHITEKTURA SOA JAKO KLUCZ DO CYFROWEJ TRANSFORMACJI Agata Kubacka, Poczta Polska Tomasz Gajewski, Poczta Polska Jerzy Niemojewski, Savangard © 2016 Software.
LEŚNE CENTRUM INFORMACJI - PLATFORMA INFORMACYJNA MONITORINGU ŚRODOWISKA PRZYRODNICZEGO PROJEKT WSPÓŁFINANSOWANY ZE ŚRODKÓW EUROPEJSKIEGO FUNDUSZU ROZWOJU.
Projekt InMoST Podsumowanie dotychczasowych działań oraz plany na kolejny rok Projekt InMoST Podsumowanie dotychczasowych działań oraz plany na kolejny.
InMoST Wielkopolska sieć współpracy w zakresie innowacyjnych metod wytwarzania oprogramowania Termin realizacji: – Innowacyjne metody.
The CC1 system Prywatna chmura The CC1 system
„Metodologia Zarządzania Cyklem Projektu (PCM) — klucz do sukcesu
IV Konferencja Naukowo-Techniczna "Nowoczesne technologie w projektowaniu, budowie.
Zapis prezentacji:

Aktualne postępy i osiągnięcia Polskiej Inicjatywy Gridowej w ramach Projektu PL-Grid Jacek Kitowski i Łukasz Dutka ACK CYFRONET AGH, Kraków, Polska Instytut Informatyki AGH-UST we współpracy z Partnerami Projektu PL-Grid I Konferencja i3: internet - infrastruktury - innowacje Poznań, 4-6 listopada, 2009

Podziękowania ACK Cyfronet AGH ICM PCSS WCSS TASK Kazimierz Wiatr Michał Turała Marian Bubak Tomasz Szepieniec Marcin Radecki Mariusz Sterzel Karol Krawentek Agnieszka Szymańska Andrzej Oziębło Tadeusz Szymocha Alex Kusznir Zofia Mosurska Teresa Ozga Aleksandra Mazur ICM Piotr Bała Maciej Filocha PCSS Norbert Meyer Krzysztof Kurowski Mirosław Kupczyk WCSS Józef Janyszek Bartłomiej Balcerek Paweł Dziekoński TASK Mścisław Nakonieczny Jarosław Rybicki Rafał Tylman

Plan wystąpienia Narodowa Inicjatywa Gridowa w Polsce Motywacja Uzasadnienie i Podstawy Stan Zaawansowania Projekt PL-Grid – Rezultaty Podsumowanie Podejście e-Science do badań naukowych Działania integracyjne zachodzące w świecie

Oczekiwania ze strony Środowisk Naukowych E-Science: wspólne badania naukowe wspierane przez zaawansowane, rozproszone obliczenia – rozszerzenie paradygmatu Nauk Obliczeniowych Wielodyscyplinarne i międzynarodowe Wymagające postępów w zakresie informatyki i nauk obliczeniowych Cel: aby umożliwić badania naukowe wyższej jakości we wszystkich dziedzinach Nauka na poziomie systemowym: uwzględnienie wielu zjawisk, elementy komunikują się ze sobą i są od siebie zależne, eksperymenty in silico Aby generować, interpretować i analizować obszerne zasoby danych Pochodzące z eksperymentów, obserwacji i symulacji Przy wykorzystaniu zarządzania jakością, wysokiej niezawodności i dokumentowania Aby tworzyć i badać modele symulacyjne Obliczenia i dane wieloskalowe Wiarygodne, ekonomicznie uzasadnione, o istotnym znaczeniu Aby umożliwić dynamiczną, rozproszoną współpracę środowisk naukowych Przez współdzielenie wiedzy i zasobów Z wykorzystaniem bezpieczeństwa, wiarygodności, zarządzania i elastyczności M. Atkinson, e-Science (...), Grid2006 & 2-nd Int.Conf.e-Social Science 2006, National e-Science Centre UK I. Foster, System Level Science and System Level Models, Snowmass, August 1-2, 2007

Konsorcjum PL-Grid Konsorcjum składa się z pięciu polskich centrów obliczeniowych, reprezentujących środowiska naukowe Uczestnictwo w Międzynarodowych i Krajowych Projektach i we współpracy ~35 międzynarodowych projektów FP5, FP6, FP7 dotyczących Gridów (50% wspólnych) ~15 polskich projektów (50% wspólnych) Istniejące potrzeby polskich środowisk naukowych ~75% publikacji w pięciu środowiskach Nowoczesne zasoby obliczeniowe Lista Top500 Europejskie/światowe działania integracyjne EGEE I-III, EGI_DS, EGI, e-IRG, PRACE, DEISA, OMII, Eksperci w F3 EU: „Research Infrastructure”, Projekty Infrastrukturalne Narodowa Szerokopasmowa Infrastruktura Sieciowa dla wspomagania nauki (dzięki Narodowemu Projektowi Ponier) Porozumienie podpisane w styczniu 2007

European Grid Initiative (EGI) National Grid Initiative (NGI) PL-Grid Projekt PL-Grid Polska Infrastruktura Informatycznego Wspomagania Nauki w Europejskiej Przestrzeni Badawczej European Grid Initiative (EGI) National Grid Initiative (NGI) PL-Grid Odpowiedź na potrzeby polskich naukowców i bieżących aktywności gridowych w Polsce, w innych krajach europejskich i na całym świecie Motywacja Podejście E-Science do badań naukowych Działająca inicjatywa EGI we współpracy z NGIs Projekt PL-Grid (2009-2012) Wystąpienie o dofinansowanie w ramach Programu Operacyjnego Innowacyjna Gospodarka, Działanie 2.3 (we wrześniu 2008) Decyzja o przyznaniu finansowania – 2 marca 2009 (w ramach Europejskich Funduszy Strukturalnych)

Infrastruktura gridowa (usługi gridowe) PL-Grid Założenia Projektu W ramach Polskiego Gridu tworzona jest wspólna bazowa infrastruktura – podobnie do rozwiązań zastosowanych w innych krajach. Dziedzinowe systemy gridowe – włącznie z usługami i narzędziami zorientowanymi na specyficzne typy aplikacji – będą konstruowane na tej infrastrukturze. Dziedzinowe systemy gridowe mogą być później rozwijane i zarządzane w ramach odrębnych projektów. Efektywne wykorzystanie dostępnych środków finansowych. Stworzenie infrastruktury gridowej w pełni kompatybilnej i interoperabilnej z gridem europejskim i światowym. Plany umożliwienia obliczeń HPC i klastrowych. Infrastruktura gridowa (usługi gridowe) PL-Grid Aplikacja Klastry Komputery dużej mocy Repozytoria danych Krajowa sieć komputerowa PIONIER Grid Dziedzinowy Zaawansowane Platformy Usługowe

Elementy i Funkcjonalność Oprogramowanie PL-Grid będzie obejmować: narzędzia użytkownika portale, systemy zarządzania i monitorowania aplikacji, systemy wizualizacji wyników i inne zgodne z używanym w Projekcie oprogramowaniem niższych warstw; biblioteki programistyczne; systemy wirtualnych organizacji: podsystemy certyfikatów i kont, rozliczanie wykorzystania zasobów, podsystem bezpieczeństwa; systemy zarządzania danymi: katalogi metadanych, zarządzanie replikami, transfer plików; systemy zarządzania zasobami: zarządzanie zadaniami, monitorowanie aplikacji, usług gridowych i infrastruktury, zarządzanie licencjami, zarządzanie lokalnymi zasobami. Warstwa dostępowa tworzenia aplikacji Usługi gridowe Zasoby System wirtualnych organizacji i bezpieczeństwa Podstawowe usługi gridowe LCG/gLite (EGEE) UNICORE (DEISA) Inne systemy gridowe Rozproszone repozytoria danych Krajowa sieć komputerowa Rozproszone zasoby obliczeniowe Użytkownicy Portale gridowe, narzędzia programistyczne W obrębie Projektu będą funkcjonować 3 rodzaje infrastruktury: produkcyjna, badawcza, deweloperska/testowa.

Planowana realizacja celów Projekt PL-Grid jest podzielony na kilka zadań Główne wskaźniki projektu: Moc obliczeniowa: 215 Tflops Pamięć dyskowa: 2500 TB

Centrum Operacyjne: Zadania Koordynacja działań operacyjnych Zarządzanie i rozliczanie wykorzystania zasobów Współpraca z EGI i DEISA (obliczenia HPC i klastrowe) Analiza wymagań użytkowników dotyczących działania infrastruktury Uruchomienie infrastruktury: Produkcyjnej Deweloperskiej Badawczej Do rozważenia w przyszłości: Chmury obliczeniowe Chmury danych Chmury wewnętrzne i zewnętrzne Aspekty wirtualizacji Zespół EGI Middleware EGI produkcyjny Middleware EGI testowy

Centrum Operacyjne: Rezultaty PL-Grid VO (vo.plgrid.pl) w pełni działająca Wirtualne zasoby produkcyjne dla użytkowników PL-Grid w 4 centrach (Gdańsk, Kraków, Poznań, Wrocław) Gotowe narzędzia do monitorowania infrastruktury (wykrywania problemów) - oparte na Nagios i EGEE SAM Gotowe grupy wsparcia, narzędzia i procedury działań zgodne z EGEE/EGI - mające na celu osiągnięcie wysokiej dostępności zasobów Baza wiedzy dla problemów dotyczących działania infrastruktury Narzędzie śledzenia błędów – planowane do uruchomienia w listopadzie 2009 Tymczasowa procedura rejestracji użytkowników Portal rejestracji użytkowników w przygotowaniu (pierwszy prototyp planowany do uruchomienia w w końcu października 2009) Rozliczanie wykorzystania zasobów zintegrowane z EGEE PCSS WCSS To co widac na pierwszym slajdzie: mapka z ośrodkami - nic szczególnego, no ale jest. Widac, ze nie ma Warszawy.   Zielone prostokaty to widok z narzedzia monitorujacego http://gridmap.cern.ch/gm ktore sprawdza stan zasobow, mierzy ich wielkosc i w zaleznosci od tego rysuje proporcjonalny kwadrat w odpowiednim kolorze. Pokazany jest obszar w nomenklaturze EGEE "CentralEurope" do ktorego nalezy Polska. Mamy tam 4 osrodki (TASKU prawie nie widac bo ma udostepnione 8 CPU) na zielono. To, co jest wazne, to to, ze monitorowanie jest robione specyficznie dla PL-Grid VO, czyli zielony kwadrat oznacza, ze ten sajt jest w pelni funkcjonalny dla usera PL-Grid VO. To nie jest takie trywialne, bo jesli chce sie monitorowac w ramach PL-Grid VO to trzeba ustanowic cala infrastrukturę do tego, najpierw narzedzie do regularnego zlecania testow, Broker przez ktorego to pojdzie, zadbac o publikacje tych wynikow do centralnej bazy danych i zeby wszystkei narzedzia "widziały" PL-Grid VO. Niewiele VO ma takie "facility" - jestesmy jedną z nielicznych obok takich gigantów jak Atlas, LHCb, Alice i CMS. Biale kwadraty oznaczaja sajty na ktorych PL-Grid VO nie jest zasupportowana. Na samym dole jest tez tabelka prezentujaca availability i reliability Polskich sajtow tez wzgledem PL-Grid VO. Availability jest liczone tak: a = czas_kiedy_sajt_byl_dostepny/total_czas Na dostępność sajtu wpłwają: usterki wykryte przez monitoring oraz przestoje (planowe i nieplanowe). Jest to liczone miesięcznie. Reliability jset liczone tak jak availability z tym, ze czas planowych przestojow jest traktowany tak, jakby sajt byl dostępny. Cyfronet

Centrum Operacyjne: Plany Rejestracja Użytkowników dostęp dla każdej osoby zarejestrowanej jako pracownik naukowy – www.opi.org.pl portal przygotowywany (uruchomienie planowane w końcu października 2009) dostęp do zasobów w oparciu o granty – przydzielanie praw do wykorzystania X CPUhours i TB przestrzeni dyskowej usługi dostępowe – sposób na dostęp do zasobów w konkretnym centrum obliczeniowym Infrastruktura Badawcza PL-Grid – “zasoby na żądanie” – umożliwia zgłaszanie żądań dotyczących użycia maszyn do różnych celów: aby zainstalować grid middleware dla celów testowych dla programistów – aby zbudować środowisko testowe dla przeprowadzenia jakichkolwiek innych badań naukowych wymagających zasobów gridowych procedury są w trakcie tworzenia Umożliwienie dostępu do zasobów UNICORE niewielka liczba maszyn dedykowanych dla UNICORE’a integracja UNICORE’a i gLite’a – przy wykorzystaniu tych samych zasobów

Rozwój oprogramowania i narzędzi: Rezultaty Programiści badawczy: 20+ Główne zespoły badawcze: 8 Zaangażowane centra obliczeniowe: 5 Dedykowane maszyny fizyczne i wirtualne: 30+ Testowane infrastruktury: EGEE, DEISA Nowe infrastruktury i rozszerzenia: QosCosGrid, GridSpace Obecne aplikacje będące w fazie integracji i procedur testowych: 10+ Obecne narzędzia użytkownika będące w fazie integracji i procedur testowych: 5+ Aktywna komunikacja z nowymi społecznościami użytkowników w Polsce: www.plgrid.pl/ankieta

Rozwój oprogramowania i narzędzi: Plany Bliższa współpraca ze społecznościami użytkowników i programistów reprezentujących różne dziedziny naukowe (w oparciu o wyniki uzyskane przy pomocy naszej ankiety) Adaptacja technik wirtualizacji polepszających użyteczność, odporność na uszkodzenia, tworzenie punktów kontrolnych i zarządzanie klastrami Webowe GUI oparte na Liferay i Vine Toolkit, umożliwiające dostęp do istniejących i rozszerzonych usług e-Infrastruktury Testy wydajnościowe różnych wielko-skalowych między-klastrowych aplikacji równoległych przy użyciu ko-alokacji i zaawansowanych technik rezerwacji Dalsza analiza rozwiązań dotyczących zarządzania gridem, monitorowania i bezpieczeństwa Wspólne repozytorium oprogramowania i zasady wdrażania Przykładowe usługi, narzędzia i aplikacje dostępne jako wirtualne skrzynki z różnymi konfiguracjami Główne punkty kontrolne i oś czasu: Jesteśmy tutaj VI 09 IX 09 IX 10 IV 11 I 12

Wsparcie użytkownika i szkolenia: Rezultaty i Plany Główne zadanie: Uruchomienie usługi „helpdesk”, przeprowadzanie szkoleń dla użytkowników i realizacja wsparcia dla użytkowników Pomoc przy efektywnym wykorzystaniu istniejącej infrastruktury, włącznie z wyborem aplikacji odpowiednich dla problemów użytkowników oraz uruchamianiem obliczeń na gridzie PL-Grid jest infrastrukturą zorientowaną na użytkownika; zespoły wsparcia i szkoleń będą ściśle współpracowały z użytkownikami Obecnie: Zespół wsparcia użytkowników został utworzony Rozpoczęło się już wewnętrzne szkolenie dla zespołu wsparcia Wybrano licencjonowane aplikacje, wymagane przez użytkowników, celem instalacji na infrastrukturze PL-Grid Przeprowadzone zostało pierwsze szkolenie dla użytkowników. Plany: Cykle szkoleń dla początkujących i zaawansowanych użytkowników gridu

Warstwa Bezpieczeństwa PL-Grid: Rezultaty Zdefiniowane wytyczne dotyczące bezpieczeństwa dla planowanej architektury Zdefiniowana polityka bezpieczeństwa dla instalacji lokalnych elementów infrastruktury Przegląd systemów zgłaszających incydenty, celem wybrania najbardziej odpowiedniego GGUS - Global Grid User Support RTIR - Request Tracking for Incident Response DIHS - Distributed Incident Handling System Architektura i prototyp systemu do bezpośredniego mapowania użytkowników i rozpowszechniania danych uwierzytelniających użytkownika.

Warstwa Bezpieczeństwa PL-Grid: Plany Ustanowienie NGI-wide CERT Zastosowanie polityk bezpieczeństwa do lokalnych instalacji infrastruktury Stworzenie i wdrożenie systemu monitorującego zgodność polityki bezpieczeństwa lokalnych instalacji infrastruktury sprawdzającego czy oprogramowanie (jądro, usługi) są aktualne sprawdzającego porty nasłuchowe, reguły systemów bezpieczeństwa monitorującego listy suid/sgid i integralność Stworzenie rozproszonego systemu korelacji alarmów zbudowanego ponad czujnikami sieciowymi i komputera-hosta.

Podsumowanie: Działania Krótkoterminowe Utworzenie PL-Grid VO przy użyciu lokalnych zasobów Partnerów oraz zasobów EGEE Zapewnienie środków dla pokrycia kosztów działania Zapewnienie środków dla podtrzymania bieżącej współpracy międzynarodowej Długoterminowe – realizowane w sposób ciągły Wdrożenie oprogramowania i narzędzi Wsparcie użytkownika i szkolenia Dostarczenie, utrzymanie i rozbudowa koniecznej infrastruktury Rozwój i implementacja nowych paradygmatów obliczeniowych i integracja środowisk Obliczenia typu HPC i rozproszone (HPCaaS, IaaS, SaaS….) Cloud Computing (wewnętrzne-zewnętrzne, chmury obliczeniowe, chmury danych) paradygmat SOA, wykorzystanie wiedzy … „Internet Przyszłości” w sposób zdefiniowany przez EC w Programie Roboczym

Dziękuję za uwagę Zapraszamy na stoisko Projektu PL-Grid http://plgrid.pl Dziękuję za uwagę Zapraszamy na stoisko Projektu PL-Grid