Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.


24.05.2019

Konferencja IT Manager of...

W dniach 12–14 czerwca w Sopocie odbędzie się konferencja IT Manager of Tomorrow 2019. To...
24.05.2019

Ochrona sieci

Fortinet FortiOS 6.2
24.05.2019

Mniejsza złożoność

Rittal VX25 Ri4Power
24.05.2019

All-in-one NAS

QNAP TDS-16489U R2
24.05.2019

Układy SoC

AMD Ryzen Embedded R1000
23.05.2019

Wzmocniony model

Panasonic Toughbook FZ-N1
23.05.2019

Szybsze sieci

D-Link Smart Mesh Wi-Fi AC1900/AC2600/AC3000
23.05.2019

Curved 4K

Samsung LU32R590
14.05.2019

Bezpłatna konferencja OSEC...

Jako patron medialny serdecznie zapraszamy na bezpłatną konferencję OSEC Forum 2019, któa...

Hiperkonwergencja w odsłonie Microsoftu

Data publikacji: 22-03-2019 Autor: Mikołaj Kujawa
Tagi:    windows
Rys. 1. Ideologia działania...

Storage Spaces Direct (Windows Server 2016) to kolejne dziecko Microsoftu po Storage Spaces (Windows Server 2012 R2). Poprzednie rozwiązanie umożliwiało zbudowanie „worka na dane” poprzez podpięcie półek dyskowych JBOD (Just Bunch of Disks) do grupy serwerów. Każdy serwer musiał być podpięty do każdej półki. W kolejnej odsłonie Microsoft umożliwił korzystanie z dysków lokalnych serwerów, tym samym znacznie ułatwiając implementację.

 

Dla kogo jest przeznaczony Storage Spaces Direct? Dla zdalnych lokalizacji, gdzie chcemy uruchomić parę wirtualnych maszyn. Instalujemy 2–3 serwery rackowe z dyskami lokalnymi, które dają nam zasoby zarówno typu compute, jak i typu storage. Rozwiązanie jest skierowane też do środowisk deweloperskich oraz testowych, dla których możemy zbudować klaster do 16 węzłów, jeśli chcemy połączyć compute i storage (hyper-converged). Lub wybieramy osobno zasoby typu compute oraz osobno storage (converged). Przy drugiej opcji budujemy klaster np. z trzech serwerów i za pomocą roli Scale Out File Server wystawiamy dyski CSV do pozostałych serwerów Hyper-V poprzez SMB 3.0. Pierwsze rozwiązanie wydaje się korzystniejsze, gdyż zapewnia większą liczbę IOPS-ów (input/output operations per second) – im więcej serwerów, tym większa liczba dysków, a to przekłada się na „lepsze” IOPS-y. Rozwiązanie nadaje się również dla środowisk produkcyjnych. W tej opcji najlepiej sprawdzają się środowiska terminalowe oraz stacje VDI (Virtual Desktop Infrastructure). Generalnie jest to rozwiązanie, w którym wysoką dostępność realizuje się także w warstwie aplikacji. Tym samym zmniejszamy ryzyko wystąpienia przerwy w dostępności. Porównanie rozwiązań hyper-converged oraz converged (disaggregated) przedstawiono na rys. 2.

> NA CZYM IMPLEMENTOWAĆ?

Do instalacji potrzebujemy Windows Server 2016 DataCenter. Wersja ta jest potrzebna na tych węzłach, gdzie chcemy wirtualizować przestrzeń dyskową. Przy rozwiązaniu disaggregated możemy pokryć np. trzy serwery licencją DataCenter, a pozostałe serwery Hyper-V licencją standard i uruchamiać na nich np. stacje VDI.

Zanim wybierzemy sprzęt, na którym chcemy instalować S2D (Storage Spaces Direct), odwiedźmy stronę windowsservercatalog.com i sprawdźmy, czy nasz sprzęt jest certyfikowany. Jest to bardzo ważne i pozwoli nam uniknąć przykrych niespodzianek. Zalecana konfiguracja powinna być certyfikowana pod Windows Server Software-Defined, Software-Defined Data Center (SDDC) Standard lub Software-Defined Data Center (SDDC) Premium: tinyurl.com/storage-req.

Kolejna ważna kwestia: jak spiąć rozwiązanie z naszą infrastrukturą sieciową? Jeśli dostawca oferuje nam „bundle” serwery, okablowanie oraz przełączniki sieciowe, to warto z tego skorzystać. Przy takim rozwiązaniu mamy gwarancję, że wszystkie komponenty zostały ze sobą przetestowane. Praktyka jednak pokazuje, że w wielu organizacjach istnieje przywiązanie do konkretnego producenta urządzeń sieciowych i musimy się wpisać w zastaną sytuację. Co wtedy?

Aby rozwiązanie S2D mogło działać, potrzebujemy karty sieciowej min. 10 Gbps, najlepiej z funkcją RDMA (Remote Direct Memory Access). Dzięki tej funkcji uzyskamy znaczący uzysk na wydajności całego rozwiązania. Dwaj najwięksi gracze w tej technologii to Mellanox (technologia Roce v2) oraz Chelsio (technologia iWARP). Jest jeszcze Cavium, który pozwala na wybór jednego z dwóch powyższych trybów (Universal RDMA).

Jeśli nie znamy się na zaawansowanej konfiguracji urządzeń sieciowych lub nie chcemy dostosowywać naszych przełączników sieciowych do obsługi RoCE, to wybieramy technologię iWARP. Wówczas nie dokonujemy konfiguracji przełączników, która jest niezbędna do poprawnej pracy RoCE. Od pewnego czasu firma Microsoft rekomenduje iWARP właśnie z uwagi na negatywne doświadczenia klientów, którzy wybrali RoCE. iWarp korzysta z protokołu TCP, tym samym od strony przełączników nie wymaga specyficznej konfiguracji.

Wracając do konfiguracji sprzętowej: tym, czego potrzebujemy do rozpoczęcia przygody z S2D (Storage Spaces Direct), są najlepiej trzy serwery ra­ckowe z dyskami lokalnymi oraz kartą sieciową wspierającą RDMA. Pamiętajmy, aby dyski lokalne wykorzystywane do przechowywania danych były podpięte przez kontroler dyskowy z opcją Pass-Through. To bardzo ważne, aby system operacyjny widział dyski jako SATA/SAS, ponieważ jeśli będzie je widział jako RAID, nie wykorzystamy ich przy budowie klastra.

> JAK DBAĆ O NASZE DANE?

Jeżeli będziemy przestrzegać paru podstawowych zasad, możemy być spokojni o nasze dane. Przede wszystkim zawsze przy wykonywaniu zmian na hoście pauzujmy węzeł, wybierając opcję Drain Roles.

Załóżmy, że mamy trzy serwery i tworzymy wolumeny w trybie Three-way mirror (o nim w dalszej części artykułu), który chroni nasze dane przed dwiema awariami. W pierwszym serwerze uszkadza nam się jeden dysk (pierwsza awaria), drugi serwer traci zasilanie (druga awaria). Zostajemy z działającym trzecim serwerem – teraz nie wolno go restartować, gdyż możemy stracić dostęp do danych. Więcej szczegółów tutaj: tinyurl.com/storage-und.

Na co uważać podczas wgrywania aktualizacji systemowych przez Failover Cluster-Aware Updating? Mechanizm ten jest znanym od Windows Server 2012 sposobem aktualizacji serwerów i pilnuje zachowania spójności podczas wgrywania aktualizacji: najpierw wymigrowuje wirtualne maszyny z hosta, następnie przenosi właścicielstwo danego wolumenu CSV (Cluster Shared Volume) na inny host. Dobrze jest uzbroić się w cierpliwość i mieć świadomość, że między aktualizacjami kolejnych hostów jest przerwa czasowa. Co wówczas robi serwer? Dosynchronizowuje dane dla poszczególnych wolumenów. Mechanizm zapewnia w ten sposób spójność danych.

 

[...]

 

Pasjonat rozwiązań wirtualizacyjnych oraz tematyki wydajnościowej. Posiada certyfikacje firm Citrix i Microsoft. Prelegent na konferencjach poświęconych technologii Citrix i wirtualizacji. Przygodę z rozwiązaniem Storage Spaces rozpoczął w 2015 roku. Obecnie produkcyjnie zarządza rozwiązaniem Storage Spaces Direct. 

Artykuł pochodzi z miesięcznika: IT Professional

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2019 Presscom / Miesięcznik "IT Professional"