Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.


06.12.2018

Niższe moce

UPS Eaton 9SX
03.12.2018

Monitory dla MŚP

AOC E1
29.11.2018

Wykrycie szkodliwego...

Sophos Intercept X Advanced
27.11.2018

Automatyzacja zabezpieczeń

Red Hat Ansible Automation
23.11.2018

Nieograniczona skalowalność

SUSE Enterprise Storage 5.5
20.11.2018

Dwa procesory Threadripper

AMD Ryzen Threadripper 2970WX i 2920X
16.11.2018

Dla biznesu i edukacji

Optoma 330USTN
13.11.2018

Superszybki dysk SSD

Patriot Evolver
09.11.2018

Ograniczenie kosztów

Canon imageRUNNER ADVANCE 525/615/715

Platforma Cisco HyperFlex

Data publikacji: 10-01-2018 Autor: Marek Sokół
Rys. 1. Interfejs dedykowanej...

W poprzednim artykule opisaliśmy historię powstania, dostępne konfiguracje sprzętowe oraz możliwości platformy HyperFlex. Teraz sprawdzimy, jak rozwiązanie działa w praktyce, zaczynając od procesu instalacji, poprzez opis interfejsów zarządzających, na testach odporności na awarie komponentów kończąc.

Zapoznawszy się z ideą hiperkonwergencji oraz jej implementacją w postaci produktu Cisco HyperFlex, przyjrzymy się, jak rozwiązanie to sprawuje się w praktyce.

 

Wszystkie testy wykonywaliśmy na platformie hybrydowej, a część mieliśmy okazję powtórzyć na klastrze all flash. Platforma sprzętowa zbudowana była z czterech serwerów Cisco HX240c M4SX, dwóch przełączników Fabric Interconnect z portami 10 GbE, podłączonych do przełączników sieciowych portami 1 GbE (topologia zgodna z rys. 2 z poprzedniego artykułu).

Pojedyncze serwery składały się z:

 

  • dwóch procesorów Intel E5-2690 (14 rdzeni obliczeniowych);
  • 512 GB RAM;
  • dysku SSD 480 GB;
  • sześciu dysków HDD 1,2 TB;
  • dwóch połączeń 10 GbE prowadzących do dwóch urządzeń Fabric Interconnect.


Dostępny system all flash składał się z węzłów o następujących parametrach:

 

  • dwa procesory Intel E5-2698, po 20 rdzeni obliczeniowych każdy;
  • 256 GB RAM;
  • dysk SSD 800GB na potrzeby przyśpieszania operacji zapisów;
  • sześć dysków SSD 960 GB dla warstwy magazynowania danych;
  • dwa połączenia 40 GbE prowadzące do dwa Fabric Interconnect.

 

Testowany system Hyperflex był w wersji 2.5. Warto odnotować małą liczbę kabli wymaganych dla pojedynczego węzła w klastrze – niezbędne są tylko dwa podłączenia zasilania i dwa połączenia sieciowe oraz, ewentualnie, dodatkowe podłączenia dla KVM (monitor oraz USB dla klawiatury i myszy).

> Instalacja klastra

Mając przygotowane fizyczne połączenia pomiędzy komponentami klastra, możemy przystąpić do jego uruchomienia. Przypominając założenia z poprzedniego artykułu, następujące komponenty powinny być uruchomione niezależnie od klastra:

 

  • vCenter;
  • DHCP;
  • NTP;
  • DNS;
  • Active Directory.


Dodatkowo potrzebujemy jeszcze jednego komponentu, jakim jest Hyperflex Installer – jest to dedykowana maszyna wirtualna z zainstalowanymi wszelkimi elementami niezbędnymi do uruchomienia systemu, udostępniająca interfejs WWW z intuicyjnym kreatorem. Po uruchomieniu maszyny i zalogowaniu się do interfejsu mamy dostępne trzy opcje: utworzenie klastra zwykłego lub klastra Edge, a  także rozszerzenie istniejącego klastra.

Nawet w przypadku nowej instalacji możemy skorzystać z pliku odpowiedzi utworzonego podczas innych instalacji, co pozwoli zmniejszyć ilość wprowadzanych danych. Podczas instalacji zrekonfigurowane zostaną: USC Manager zarządzający Fabric Interconnectami i szablonami serwerów UCS, vCenter oraz hosty ESXi (zainstalowane jeszcze w fabryce zgodnie z zamówieniem klienta), dlatego w pierwszym kroku należy wprowadzić dane dostępowe do wspomnianych narzędzi. Następnie weryfikujemy listę automatycznie wykrytych serwerów w środowisku, definiujemy parametry serwerów, którymi zarządza UCS Manager, nazwy i numery VLAN-ów, zakres adresów MAC, a także adres interfejsu CIMC służącego do zarządzania pojedynczymi serwerami oraz ustanawiania połączenia poprzez wbudowany KVM.

Także tu mamy możliwość zdefiniowania dostępów do macierzy dyskowych pozwalających na dostęp do danych poprzez protokoły iSCSI i FC. W kolejnym kroku definiujemy parametry dla hostów ESXi, które wejdą w skład klastra. Kluczowe na tym etapie jest, by  nazwy, z których korzystamy, już były wprowadzone do konfiguracji serwerów DNS. W następnym kroku definiujemy adresy IP dla najważniejszych elementów klastra hiperkonwergentnego – kontrolerów wirtualnych. W ostatnim kroku decydujemy o wartości parametru Replication Factor (domyślnie przyjmuje wartość 3), podajemy adresy serwerów NTP, DNS, strefę czasową oraz decydujemy, czy włączyć funkcję Auto Support. Po zakończeniu tego etapu rozpoczyna się automatyczny wieloetapowy proces instalacji klastra HyperFlex.

[...]

Autor jest administratorem systemów IT. Zajmuje się infrastrukturą sieciowo-serwerową, pamięciami masowymi oraz wirtualizacją. Posiada tytuły VCP, MCP oraz CCNA

Artykuł pochodzi z miesięcznika: IT Professional

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2013 Presscom / Miesięcznik "IT Professional"