Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Hitachi Data Protection Suite powered by CommVault Jerzy Adamiak Konsultant systemów pamięci masowych Alstor.

Podobne prezentacje


Prezentacja na temat: "Hitachi Data Protection Suite powered by CommVault Jerzy Adamiak Konsultant systemów pamięci masowych Alstor."— Zapis prezentacji:

1 Hitachi Data Protection Suite powered by CommVault Jerzy Adamiak Konsultant systemów pamięci masowych Alstor

2 Commvault – informacje o firmie
Ponad 16,000 klientów 1,900 nowych klientów w ostatnim roku Poziom satysfakcji klientów rzędu 97% Ponad 1,300 pracowników na całym świecie Spółka notowana na NASDAQ: CVLT Kapitał ponad 300 millionów USD, brak zadłużenia Obrót w FY millionów USD Wartość giełdowa 3,2 mld USD Przychody CAGR 27%

3 Jak nas oceniają CommVault pozycjonowany jako lider w ćwiartce “Leaders” wg Gartner’s 2011 Magic Quadrant for Enterprise Disk-Based Backup and Recovery 2011 Info-Tech Research Group’s Champion for Enterprise Backup Software 2011 DCIG Best in Class Virtual Server Backup Software 2011 Microsoft Server Platform Partner of the Year CommVault named to Fortune Magazine’s 2010 list, “Tech Stocks for the Next 10 Years”

4 Najlepsze rozwiązanie do backupu
W najnowszym (z czerwca 2012 roku) raporcie Gartnera dotyczącym rozwiązań backupowych klasy Enterprise oprogramowanie CommVault Simpana zostało sklasyfikowane 1-szym miejscu ! Oprogramowanie firmy CommVault zostało tak wysoko ocenione głównie ze względu na: ciągły rozwój, integrację i wykorzystywanie sprzętowych rozwiązań replikacji i kopii migawkowych sprawdzone rozwiązanie deduplikacji danych z możliwością przechowywania danych w postaci zdeduplikowanej na taśmie szerokie wsparcie dla platform wirtualizacyjnych.

5 klienci Need snapshot knowledge of customers on this slide in speaker notes.

6 Architektura oprogramowania Simpana Klucz do rzeczywistej unifikacji zarządzania danymi

7 Tradycyjne rozwiązania
Kiedy rozwiązanie staje się częścią problemu Backup/ Restore Big & Small Data Centers Archive , Files, eDiscovery & Compliance Data Reduction Deduplication & Compression Enterprise Reporting SRM, Backup Command Central Replication Management & CDP Control Data Encryption Desktop / Laptop

8 Zmiana modelu Unifikacja poprzez jednolite podejście
Pliki Bazy danych Wiadomości WWW Źródła TCO Zakup Backup Replikacja Archiwizacja Migracja Urządzenia Sprzęt The key benefits of our unified approach include lower costs, improved performance, greater scalability and faster and more advanced services and troubleshooting Best in class solutions combined with unification Look at all the common elements collapsed into one common engine: gives us a very unique advantage in the market Will tell you why this translates into more functionality, better performance and lower TCO than competitive offerings in the market Ludzie Unifikacja zmniejsza koszt Materiały

9 Hitachi Data Protection Suite powered by CommVault®
3/28/2017 Hitachi Data Protection Suite powered by CommVault® Pojedyńcza, skalowalna platforma Common Technology Engine™ (CTE – wspólna technologia) oznacza optymalizację środków Łatwość implementacji, wdrożenia i szkolenia Wydajność Ścisła integracja z aplikacjami i systemami operacyjnymi umożliwiająca wybiórcze odtwarzanie Technologia backupów pełnych syntetycznych Możliwości klasy Enterprise Backup i odtwarzanie Archiwizacja z HSM plików i i Replikacja typu CDP Deduplikacja Wyszukiwanie Szyfrowanie i bezpieczeństwo Zarządzanie kopiami migawkowymi i replikacją Transformacja danych w informację biznesową Wyszukiwanie informacji dla celów dowodowych Wyszukiwanie i odtwarzanie danych przez użytkownika Podgląd pozwalający zarządzać wzrostem ilości danych Notes: Data under unified management control can be made more easily accessible to business users, with intuitive search access and resource management. CommVault provides Add-in software within Outlook client systems, to make it easy for users to search and find archived data – for legal discovery and business use, as well as for self-serve recovery of messages. Resource management provides executive-summary reporting and analysis of primary and secondary data storage, to improve planning and effective use of storage resources. The net result is improved business productivity and better competitiveness, because business users have the information that they need – when they need it – in order to make better decisions, provide better service to their customers, and to share files and information. Business planners also have better information to use to plan storage requirements in advance – and get better pricing from their vendors. Wspólna platforma to największa wartość rozwiązania CommVault/HDPS

10 Niektóre najważniejsze technologie będące częścią wspólnej platformy
Platforma wykorzystująca polityki Szyfrowanie z zarządzaniem kluczami Poziomy pamięci masowej Disk2Disk2T Bezpieczeństwo oparte o role Wsparcie wirtualizacji Zoptymizowani agenci dla Microsoft AD, Sharepoint, Exchange, SQL Wbudowana deduplikacja danych Indeksacja treści Wbudowane opcje odtwarzania Automatyczne wykrywanie i podłączanie sprzętowych kopii migawkowych Klasyfikowanie danych Migracja danych/HSM Udostępnianie danych dla celów prawnych E-Discovery Odtwarzanie na poziomie obiektu Wyszukiwanie/odtwarzanie przez użytkownika

11 Platforma HDPS Efektywne zarządzanie danymi
Inteligentna klasyfikacja danych klienta Eliminuje fazę skanowania dla zadań backupu systemu plików i aplikacji GridStor Przełączanie i równoważenie obciążenia w sieci SAN Automatyzacja polityk tworzenia kopii Jednoczesna, dodatkowa, kaskadowo; selektywna, wg zadań, niezależne czasy retencji Szyfrowanie W trakcie lub po Indeksacja treści Danych online, backupowych i archiwalnych Deduplikacja W trakcie lub po; z szyfrowaniem i kompresją; zarówno dla backupu i archiwizacji, także na taśmie Raportowanie Wbudowane, natychmiastowe sprawdzenie Poprawności wykonania zadań, współczynnika poprawnych zadań i wiele innych, wysyłanie poprzez Niezrównane Inteligentne Zarządzanie danymi Serwery aplikacyjne Backup lub Archiwizacja Logiczne zbiory kopii SIDB Tydz 1 Kopia SIS Tydz 2 Tydz 3 Kopia fizycznego obiektu w ścieżce danych Cyfrowa sygnatura obiektu DaneOnline Indeksacja treści Pełen tekst, metadata, SID Inteligetny klient Dane Offline Backup/Archiwizacja Tradycyjnie Inteligentnie Centrum danych Serwer backupu D2D Kopie selektywne Kopie wybiórcze Kopie wg zadań So What? Smart Client – what if you could reduce your backup window by 30% by eliminating server scans GridStor – what if backup and archive jobs automatically reverted to a redundant path, no failed backups, no extrra admin Policy Automation – what if a single product managed all of your backup, archive and replica copies. What is archiving jobs could automatically be copied from disk to tape for dr and longer term retention and data automatically recovered. Think that could reduce disk/tape requirements, free up admin time, and make data more highly accessible? Encryption – what if you woke up and saw your company’s name in the headlines associated with lost backup tapes? Would you feel better knowing the data was encrypted? Content Indexing – what if end users or legal could perform their own search through backup, archive or online data? Would that save significant costs associated with external eDiscovery? Single Instance Storage – What if you could keep data on disk longer through SIS? Would that improve recovery times, would that help you save on disk costs? Biblioteki dyskowe D2T Opcjonalne urządzenie taśmowe

12 Deduplikacja – technologia nr 1 na rynku
Deduplikacja jest nr 1 w zgłaszanych potrzebach i planowanych wydatkach użytkowników wg badań InfoPro’s Wave Survey Drivers behind the need for data dedupe: 1. Increased Data Growth of 30-50% / year Incremental acquisition costs Unable to meet SLA times 2. Data Centers are at capacity (bottlenecks in space, cooling, power) Adoption of Virtual Servers Both VMware and Microsoft Hyper-V 3. Compliance Requirements Financial, Healthcare/Pharma, Legal, etc. 4. Higher uptime requirements Shrinking backup windows 12

13 HDPS: Inteligentna deduplikacja
Zintegrowana Deduplikacja jest wbudowana w rozwiązanie Globalna Obejmuje wszystkie dane backupowe i archiwalne na wszystkich poziomach i nośnikach w ramach jednej Polityki wykorzystania Pamięci Masowej (Storage Policy) Skalowalna Architektura platformy pozwala na deduplikację pomiędzy dowolną liczbą magazynów danych Trwała Rozszerza możliwość przechowywania danych w postaci zdeduplikowanej nie tylko na dysku lecz także na taśmie Świadoma Deduplikacja ze znajomością typu danych zapewnia lepszą redukcję ilości danych i pozwala na bezpośrednie odtworzenie danych z dowolnego poziomu pamięci masowej Improved data recovery Get faster recovery, recover files, s or documents faster because no block assembly is required. Meet your improved recovery point objectives with more recovery points. Store more recovery point copies for maximum recoverability. Enjoy the benefits of rapid file access. Use distributed indexes, which provide faster access to data. Rapid restores of single files, s, and documents allow you to meet or exceed your recovery-time objectives. Meet SLAs and eDiscovery requirements. Locate and access data faster and more easily. Faster restores from backup and archive enable you to meet SLAs and eDiscovery requirements. Improved Storage Cost-Efficiency Eliminate duplicate files, s, and redundant data across replicas, backup and archive. Reduce demands on resources and costs while maximizing the business value of your storage infrastructure. Reduce storage footprint. Reduce initial storage acquisition cost and improve intervals between storage capacity upgrades. Optimize network utilization. Send only incremental backup data; client-side compression reduces the size of the data and further enhances efficiency and savings. Improved Manageability and Performance Manage more data with less storage and fewer committed resources. Reduce your data storage footprint. Store more recovery points on disks. Reduce demands for power, space and cooling. Go green and save. Optimize your WAN and achieve more reliable backup and recovery. Send significantly less data over the network, because CommVault deduplication and data compression is performed at the client. See improvements in network and WAN bandwidth performance. Enjoy single-platform, hardware-neutral simplicity. Manage our unique, single architecture—which keeps compressed data on shared storage resources—from a single dashboard. Avoid hardware lock-in while receiving from CommVault all the proven products and services you need, including design and implementation services. 13

14 Zdeduplikowane w locie na poziomie bloków kopie w pamięci masowej
Wbudowana deduplikacja- zarządzanie danymi w ramach ich całego cyklu życia Urządzenia sprzętowe deduplikacji- zarządzanie danymi ograniczone do zapisu na urządzenie MA DD Dużo więcej 10x Prześlij więcej Podobna ilość miejsca na dysku 20:1 Dużo mniej ponad 90% Deduplikacja podczas transmisji Prześlij mniej 100% Dane Deduplikacja w urządzeniu Transfer pełnych 100% danych, dłuższe okno backupowe C Kompresja u źródła oznacza o 50% mniejszy transfer, szybszy backup Zapis 100% danych – ograniczenia związane przepustowością interfejsu – problemy ze skalowalnością, więcej urządzeń, dłuższy backup Podczas deduplikacji zoptymalizowanych danych zapisywane są tylko unikalne segmenty – redukując dane o ponad 90% – szybszy zapis MA Dane z powrotem „napełnione” do 100% pierwotnej wielkości, kopiowane ze zredukowaną prędkością, więcej taśm i napędów Deduplikacja i kompresja na dysku – dane zredukowane o ponad 90% Globalny skalowalny magazyn deduplikacji Zachowuje deduplikację danych na dysku I taśmie, ponad 90%+ redukcja danych na taśmie > mniej napędów Show me how you do it? Good technical illustration of the process behind our embedded deduplication DD C DD Deduplikacja danych C Kompresja danych Agent Backupu/Archiwizacji MA Mechanizm transferu danych MediaAgent 14

15 “Dopasowany do zawartości” kontra “Zmienny” Różny sposób tworzenia segmentów, ale….
Strumień danych backupowych dopasowany wg zawartości Dopasowanie do zawartości Segment dopasowany wg zawartości – instancja (hash) Meta-dane, tagi, indeksy Obrazy Bazy danych Pliki Pomiń “Dopasowane do zawartości” Doskonale wiedząc co jest zawartością contents, segmenty bloków są dopasowywane eliminując powtarzające się wzory i omijając znaczniki Obejmuje także szyfrowanie i kompresję poprawiając deduplikację MA Nieznany strumień danych backupowych Zmienny segment– instancja (hash) “Zmienne algorytmy” Brak wiedzy o zawartości, strumień jest na ślepo dzielony, wymagając dodatkowych procesów aby zwiększyć możliwość odnalezienia powtarzających się wzorów Tagi i meta-dane mogą wpłynąć na dopasowanie, wymagając przez to dodatkowych procesów co zwiększa opóźnienie Kompresja lub szyfrowanie „rozbija” deduplikację Show me how you do it? Good technical illustration of the process behind our embedded deduplication

16 Pamięć masowa zoptymalizowana do danych Redukcja długookresowych kosztów backupów i archiwóww
Dane nie zmieniają się w niekończoność Nowa opcja deduplikacji która przesuwa dane na podręczną pamięć masową bez zwiększania rozmiaru danych do pełnej wielkości pierwotnej. Kopia typu ”silo” w sposób przezroczysty przesuwa zbiór zdeduplikowanych danych z dysku na taśmę – zachowując przy tym wszystkie korzyści związane z posługiwaniem się taśmami Kopia składa się ze zbiorów „magazynów typu silo” zdefiniowanych przez maks. limity czasu/rozmiaru z oddzielną bazą deduplikacji Podczas odtwarzania składniki są automatycznie przesuwane z powrotem z taśmy na dysk 80 TB Backupy 85 TB Backupy DDB-2 Magazyn maks. wiek/rozmiar 4.0TB 6.0 TB 6 TB Kopia magazynu SP SILO DDB-1 Magazyn maks. wiek/rozmiar 5 TB 5.0 TB 0.3 TB When the datasets start to age beyond the need for fast online access (example 1st half vs. 2nd half of the year) a specialized export to tape can move the collection in the compressed state to tape for long term archving When restores are needed the system will automatically determine the right components to bring back to the disk cache to open it up for random access. Each Set (defined by the SIDB instance is a “Silo”) which is composed of a number of library volumes, in small restores only the volumes get restaged to cache for random access on disk No loss in indexing or restore/recovery awareness 5.0 TB 16

17 Przykład zastosowania 1: Deduplikacja danych backupowych
Backup z deduplikacją Simpana Deduplikacja CommVault Zmniejszenie rozmiaru początkowego backupu Znaczna redukcja następnych backupów Znaczące oszczędności przestrzeni dyskowej W rezultacie, można zapisać więcej Punktów Odtwarzania w celu Szybkiego Odtworzenia Backup Oszczędności pamięci masowej Serwer backupu Pamięć masowa This is an animated slide Initially, CommVault’s deduplication significantly reduces the amount of data being backed up on the disks. All the subsequent backups are reduced in sizes resulting in significant amount of storage space savings. As a result, you can now store more recovery points on disks to meet your recovery point objectives (RPO) with shorter recovery time objectives (RTO) Serwery Window / Unix Heterogeniczna pamięć masowa NetApp FAS Centrum danych

18 Przykład zastosowania 2: Deduplikacja danych archiwizowanych
Zastosowanie deduplikacji do przechowywania plików zarchiwizowanych Deduplikacja zarchiwizowanych danych przechowywanych na dysku Znaczące oszczędności przestrzeni dyskowej Replikacja kopii punktów w czasie przy minimalnym wykorzystaniu pasma do lokalizacji DR używając CommVault CDR Odzyskanie przestrzeni na podstawowej pamięci masowej Serwery Window / Unix Simpana LokalizacjaDR Podstawowa pamięć masowa CDR This is an animated slide Deduplication performed on archived data stored on disks. It significantly reduces the storage footprint. Additionally, this benefits the DR use case using CommVault CDR as data transmitted over the WAN is optimized. Oszczędność pasma Deduplikacja CommVault Pamięć masowa Pamięć masowa

19 Maksymalizacja liczby Punktów Odtwarzania możliwych do przechowywania w puli B2D
Implementacja strategii pomyślnego wykonywania backupów i odtwarzania w celu Przechowywania większej liczby punktów odtwarzania z krótszym czasem odtwarzania (RTO) Zapewnienia najszybszego odtworzenia z kopii na dysku dla: Pojedynczego elementu Groupy elementów Kompletnego odtworzenia systemu Szybki dostęp do danych odblokowuje prawdziwy potencjał „ekologiczny” rozwiązania – oszczędzając zarówno pieniądze jak i energię – poprzez przesuwanie „kopii archiwalnych” na wymienne nośniki o niskim koszcie Pula B2D: Liczba dziennych Punktów Odtwarzania dostępnych do szybkiego odtworzenia Why do you want to move to a B2D strategy? More reliable, faster backups, faster restores! The Simpana deduplication capabilities ensure you can maximize on your investment in a disk-based protection solution by driving up your storage efficiency while delivering both more reliable and faster backups and restores. Employing client-side intelligence, each backup job creates a fully indexed recovery point “image” of the versioned contents of the directories, folders, mailboxes and/or document libraries while transferring only the changed data instances from that client to the storage policy copy. Those instances will be deduplicated against any current copies already stored on disk to preserve a rapid restore capability. In most cases the restore speed and backup speeds are the practically the same due to our unique disk-optimized storage format. This ensures that file-deduplication will not serious impact your ability to meet fast restores and recovery time objectives (RTO). Unlocking the benefits of the unique CommVault distributed indexing scheme allows the user to browse or search against the managed content collection and quickly recover the entire system, a folder or directory, a particular file or a version of that file from that collection. Each incremental job updates a composite point-in-time recovery image representing the makeup of the source content area providing a full system recovery view which has the same indexed items as would a FULL backup job. Therefore the indexing model further ensures that rapid recovery time objectives can be met by only restoring the single set active files picked from a collection of many underlying backup jobs. The B2D Pool comparison illustrates the number of daily recovery points that can be stored in a in a fixed disk footprint across the three backup strategies. As more redundant data copies are removed from the disk store – by using Full & Incremental backups or file-deduplication backups – the number of recovery points increases dramatically – ensuring that your organization can meet and beat its recovery SLAs. This above comparison chart illustrates the approximate number of days of recovery points that can be fit into the B2D Disk footprint based on the assumptions above. The B2D disk footprint is a ratio of the original production store size (i.e. 2.0 B2D would equal a disk library that is twice the size of your single production backup copy size ).

20 Współdzielony Indeks/Katalog
Zawansowana ochrona zdalnych lokalizacji z deduplikacją po stronie klienta 3/28/2017 Pojedyncza konsola zarządzająca Deduplikacja po stronie klienta Redukcja danych w sieci WAN Zastąpienie lokalnych napędów taśmowych przez lokalny D2D na małej macierzy ZDALNA LOKALIZACJA Lokalny backup i odtwarzanie ZDALNA LOKALIZACJA Centralny backup i odtwarzanie Wykorzystanie CDR w celu replikacji zmienionych i zdeduplikowanych bloków do centralnej lokalizacji Lokalna pamięć masowa mfa/cifs CENTRUM DANYCH 5 dni Problemy: Wzrost danych w zdalnych lokalizacjach nie daje się opanować ? Ograniczone pasmo sieci pomiędzy centralna a zdalnymi lokalizacjami ? Okno backupowe za małe żeby zbackupować dane ? Niespełnione SLA przy odtwarzaniu zdalnych lokalizacji ? Niemożność zarządzania napędami taśmowymi w zdalnej lokalizacji – brak personelu, taśmy w garażu klienta ? Rozwiązanie: Lokalny backup na dysk i odtwarzanie na dysk z wykorzystaniem małej macierzy dyskowej Wykorzystanie deduplikacji po stronie klienta Przesyłanie przez sieć WAN tylko zmienionych segmentów Korzyści: Lokalna zdeduplikowana kopia na macierzy dyskowej Zwiększenie niezawodności backupu Optymalizacja wykorzystania pamięci masowej i sieci WAN Wykorzystanie infrastruktury centrum danych w celu zcentralizowanej kontroli Eliminacja potrzeby używania napędów taśmowych w zdalnych lokalizacjach Możliwość sprawnego odtworzenia na poziomie plików jak i całego systemu Tylko unikalne segmenty mfa/cifs GLOBALNA POLITYKA PAMIĘCI MASOWEJ Tylko unikalne segmenty Sprawdzenie cyfrowej sygnatury Odtwarzanie w jednym kroku Again, tons of info here, highlights are use dedupe at the local site to reduce the amount of data moving over the net to the central site. Remove the need for local tape. Keep a fast recovery copy on local disk at the remote site. CDP to the central site to get the data in the central backup and DR procedures. Use disk and dedupe to use the storage efficiently. Współdzielony Indeks/Katalog Globalna baza deduplikacji Sprawdzenie Skatalogowanie Zapis na dysk DYSKOWA PULA DEDUPLIKACJI PULA ZDEDUPLIKOWANYCH DANYCH NA TAŚMIE ARCHIWUM DŁUGO-TERMINOWE

21 Wsparcie dla komputerów typu desktop zapewnia pełną ochronę
3/28/2017 Wsparcie dla komputerów typu desktop zapewnia pełną ochronę  Zdalna/cicha instalacja WBA  Zdalne “wypychanie” przyrostowych/ skompresowanych danych, w zależności od dostępności sieci 7 Samodzielne / bądź nie, odtwarzanie danych  Regularne backupy z centralnego węzła do centrum danych In 8.0, we extend our CDP capabilities to include workstations and laptops. Walk the viewer through the builds on the slides. Remote install. Schedule push of incremental and compressed data. Central backup. All data stored in dedupe across storage tiers. Automated archive of data based on policies. Self service restores.  Dane przechowywane w postaci zdeduplikowanej, na wszystkich poziomach pamięci masowej  Maksymalizacja wartości ze scentralizowanych danych  Zautomatyzowana, oparta o polityki migracja danych 21 21

22 Ochrona komputerów typu desktop
FS Clients with Source-side Dedupe (Win, Lx, Mac) Cells at 5,000 clients FS Clients using Source Side Deduplication Opportunistic Schedule (qualified on client state) Client Group 1 > Proxy 1 Client Group 2 > Proxy 2 1 FSiDA SSDD FSiDA SSDD FSiDA SSDD FSiDA SSDD FSiDA SSDD 1 HTTP/S sessions for all data pipes Eliminate VPN dependencies HTTP/s Port 443 HTTP/s Port 443 2 DMZ Proxy-1 Proxy-2 2 CTE 3 Global dedupe at SP aligned with SLA level needs DASH /DR Options Dedicate or Shared Cells (GRC) All copy, tiering options DASH FULL, DASH Copy, Cloud Full Cell 5,000 clients 1-2 MA, SP-DDB Pool(s) MA-DDB CommServe 3 Protection Copies Storage Policy Global Dedupe All Backups DASH COPY to DR TAPE or CLOUD COPY for vault

23 Terminarz wykonywania backupów – DLO
Nowe reguły uruchamiania zadań zoptymalizowane dla klientów mobilnych Jeśli warunki nie spełnione – automatyczne uruchamianie po 72 godzinach

24 Nowa konsola webowa odzyskiwania– DLO
Konsola web komputerów Desktop: Dla użytkowników końcowych Run and configure basic backup policy (content, filters, schedule) Manage “your” clients ( you are a designated owner ) User can browse/find and restore files from any backup on any client they have authorized access

25 3/28/2017 Deduplikacja serwerów wirtualnych rozwiązania „bez agentów” dla VMware oraz Hyper-V VMware ESX Microsoft Hyper-V Odtworzenie w pojedynczym kroku Odtworzenie w pojedynczym kroku Zdeduplikowane backupy Zamontowanie Zdeduplikowane backupy Zamontowanie What’s New? NEW Universal Virtual Server agent  unlimited VM’s per ESX Server No Agents required on ESX servers Single-pass backup, single file restores Use block-delta backups to move only changed VMDK blocks + Dedupe to store less on disk and tape Why is this important? Moving changed blocks + dedupe uses MUCH less storage / network No scripting means simple deployment VM1 VM2 VM3 VM1 VM2 VM3 Media Agent HDPS Serwer backupowy Media Agent HDPS Serwer backupowy Bez agentów w VM, bez skryptów Automatyczne wykrywanie nowych VM, VMotion Odtwarzanie na poziomie pliku, dysku czy wolumenu 25

26 Zarządca środowiska wirtualnego Virtual Infrastructure
Problemy związane z wirtualizacją Dlaczego wirtualizacja komplikuje ochronę danych Pula maszyn wirtualnych Dodawanie VM zwiększa obciążenie na fizycznych serwerach Tradycyjni agenci backupowi w VM wprowadzają dodatkowe obciążenie Operacje skanowania i backupu mogą przyblokować host Rozkład maszyn wirtualnych VM łatwe do wdrożenia, jednakże trudno zapanować nad politykami ochrony danych na każdej VM Ograniczone opcje odtwarzania Trudne do zbalansowania SLA dotyczące odtwarzania całych maszyn lub pojedynczych plików Apl OS Pliki OS Pliki OS Apl OS Pliki OS Pliki OS Apl OS Pliki OS Apl OS Apl OS Pliki OS Apl OS Apl OS Pliki OS Zarządca środowiska wirtualnego Virtual Infrastructure Fizyczne serwery ` Magazyn danych

27 Wirtualna infrastruktura Virtual Infrastructure
Uniwersalny agent serwerów wirtualnych – Vmware Wykorzystanie VCB do zmniejszenia obciążenia serwera Instalowany na fizycznym Proxy serwerze Universal Virtual Server iDataAgent Vmware Consolidated Backup (VCB) Media Agent naWindows Backup zatrzymuje na chwilę VM, wykonuje snapshot i montuje obraz na serwerze VCB Proxy Obsługa trybów SAN, NBD oraz HotAdd UVS iDA backupuje na Storage Policy, indeksując pojedyncze pliki i foldery Pozwala na odtworzenie obrazów całych VM, wolumenów lub pojedynczych plików i folderów. Wymaga VM Converter Pula maszyn wirtualnych Pliki OS Apl OS Pliki OS Apl OS Pliki OS Pliki OS Apl OS Pliki OS Apl OS Pliki OS Wirtualna infrastruktura Virtual Infrastructure Serwery ESX Lub VCB Proxy Odtwarzanie ` Magazyn danych Backup Indeks CV listujący indywidualne pliki i foldery* Biblioteka taśmowa z opcjonalna deduplikacją Biblioteka dyskowa z opcjonalną deduplikacją Backup danych VM na dysk Lub na taśmę MA Zamontowanie snapshotów VM * Granularne indeksowanie i odtworzenie możliwe tylko dla środowisk Windows

28 Klasyfikacja retencji danych (EU)
Dziś 6 mcy 1 rok 2 lata 3 lata 5 lat 7 lat 10+ lat Prawne Akty prawne Zapisy odnoszące się do dzieci do osiągnięcia wieku 21 lat Kontrakty / Umowy 6 lat, wg uzgodnień - 12 lat po zakończeniu kontraktu Finansowe Usługi Regulacje podatku dochodowego Podatki, wpłaty - min 6 lat Zarządzanie podatkami Wynagrodzenia – 6 lat Zapisy finansowe Zniszczyć po 7 latach Zarządzanie Dane firmy Wszystkie zapisy na zawsze Dane księgowe 3 lata dla firm prywatnych, 6 lat dla publicznych Zdrowie & Bezpieczeństwo Reg. dot. substancji niebezpiecznych 40 lar od dat ostatniego zapisu Reg. dot. promieniowania jonizującego Do czasu osiągnięcia przez osobę 75 lat lub min. 50 lat Zapisy wypadków – 3 lata BHP Działanie substancji szkodliwych– 5 lat, osobiste 40 lat (nadzór zdrowia) Ochrona danych Dane personalne – zniszczyć po 6 latach Dane kadrowe Oceny zniszczyć po 5 latach Absencja/chor. zniszczyć po 3 latach Informacje osobiste Jak długo niezbędne

29 Definiowanie złożonych polityk archiwizacyjnych
Aktywna archiwizacja (HSM) Opanowanie wzrostu ilości/wielkości i 20%+/rok przy śr. wielkości wiad./zał %+ “Nieskończona skrzynka” balans między możliwością obsługi a dostępem użytkownika; PST nie zadziałają i dodają ryzyko (wsparcie/wyszukiwanie), musi działać przezroczyście dla użytkowników Spełnienie SLA okno odtwarzania zmniejsza się, podczas gdy ilość danych rośnie…łamie prawa fizyki Elastyczność polityki muszą być łatwe do skonfigurowania dla grup użytkowników; pojedyncze globalne polityki są zbyt szerokie Zarządzanie skrzynką pocztową Archiwizacja wymagana przepisami Przechowywanie: przechwytywanie, zachowywanie i wyszukiwanie w celu odtworzenia wszystkich maili Sprawność: przezwyciężenie problemów związanych z odtwarzaniem ze starszych backupów; zbyt drogo, zbyt długo Przepisy: zapewnienie zgodności z przepisami – audyt, bezpieczeństwo, nie zmienność danych, czas przechowywania Zapewnienie użytkownikom możliwości wyszukiwania i odtwarzania informacji bez pomocy ze strony działu IT Wymagane przepisami przechowywanie wszystkich maili Agent archiwizacji danych

30 Polityki wykorzystania różnych poziomów pamięci masowej – redukcja kosztów posiadania w miarę starzenia się danych Oparte o polityki przesuwanie obiektów danych (pliki, wiadomości, dokumenty) do zwirtualizowanego środowiska pamięci masowej drugiego poziomu Inteligentne „resztki” („stub”) zapewniają przenośność i przezroczystość pozwalając na odtwarzanie z dowolnej kopii danych Wyszukiwanie obejmuje wszystkie elementy (niezależnie od „resztek”) Dopasowanie wymagań dotyczących dostępu do zmniejszającego się TCO zarządzanych danych Wolumen Odtworzenie Resztek D:\mydocs\... Wolne Używane Przeglądaj i Odzyskaj Odtwarzanie Resztek Zmigrowany Wolumen Używane Wolne Poziom 1 DyskATA Poziom 2 Kasowanie CTE Dane Polityki Zarządzanie pamięcią Odzyskiwanie Raportowanie As storage tiers are introduced – you can more effectively apply ILM constructs – ensuring declining levels of responsiveness (seconds, minutes, hours) across media tiers Wyszukiwanie z indeksowaniem i odtwarzanie Szukanie Taśma - W lokalizacji AuxCopy Kasowanie Poziom 3 Taśma – Poza lokalizacją/DR AuxCopy Miesiące………….Lata Polityka klientów Polityka pamięci masowej

31         Składniki archiwum
Inne 10% 18% Duplikaty 24% Aktywne, znane, aktualne 48% Nieaktualne Polityka przesuwania danych Polityka dotycząca przesuwania zawartości Deduplikacja zawartości Indeksowanie treści Wstawienie wskaźnika do „resztki” Synchronizacja z klientem Archiwizacja offline Wyszukiwanie Wyszukiwanie przez użytkowników Synchronizacja Źródło Outlook, Lotus, SharePoint, Windows Explorer Resztki z archiwum Poziomy pamięci z deduplikacją Exchange, PST, Domino, SharePoint CIFS, UNIX, NFS Archiwizacja , plików Zarchiwizowane dane

32 Indeksowanie treści i wyszukiwanie
Indeksowanie danych online Systemy plików MS MS Exchange Wyszukiwanie Przez uzytkownika Znajdź Śledź Kopiuj Przesuń Indeksowanie danych offline Archiwizacja, Backup, Replikacja Na wszystkich źródłach Na wszystkich poziomach eDiscovery Wyszukiwanie korporacyjne

33 Podsumowanie korzyści z rozwiązania
Przechowywanie Heterogeniczna platforma Skalowalność Deduplikacja Indeksowanie Poziomy pamięci masowej Adaptacyjna inteligencja Analiza polityk Elastyczność Zunifikowane zarządzanie danymi Archiwizacja i backup Bezpieczeństwo Szyfrowanie Uwierzytelnianie Dostęp Łatwość wyszukiwania Pełna zawartość Klasyfikowanie Automatyzacja Przegląd i adnotacje Kontrola Indywidualne czy korporacyjne Wydajność Szybkość przetwarzania Wyszukiwanie a odtwarzanie eDiscovery Przetrzymywanie prze dłuższy okres dokumentów dla celów prawnych Szeroki zakres (Archiwum, Backup)

34 Pytania?


Pobierz ppt "Hitachi Data Protection Suite powered by CommVault Jerzy Adamiak Konsultant systemów pamięci masowych Alstor."

Podobne prezentacje


Reklamy Google