Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



20.12.2018

Większa moc

QNAP Mustang-200
20.12.2018

Nowa era Wi-Fi

NETGEAR Nighthawk AX8
20.12.2018

Szybkie skanowanie

Brother ADS-1700W i ADS-1200
06.12.2018

Niższe moce

UPS Eaton 9SX
03.12.2018

Monitory dla MŚP

AOC E1
29.11.2018

Wykrycie szkodliwego...

Sophos Intercept X Advanced
27.11.2018

Automatyzacja zabezpieczeń

Red Hat Ansible Automation
23.11.2018

Nieograniczona skalowalność

SUSE Enterprise Storage 5.5
20.11.2018

Dwa procesory Threadripper

AMD Ryzen Threadripper 2970WX i 2920X

Maxta – zarządzanie pamięcią masową

Data publikacji: 26-11-2018 Autor: Marek Sokół

Hiperkonwergencja jest terminem stosunkowo nowym, opisującym w technologii trend do upraszczania zarządzania np. pamięciami masowymi. Popularność tego podejścia została zauważona przez znanych graczy – producentów serwerów i wspomnianych pamięci, którzy przygotowują własne realizacje. Dołączenie do peletonu nie wymaga jednak produkcji sprzętu, można również być dostawcą oprogramowania. To właśnie brak wysokiego progu wejścia pozwala mniejszym firmom przygotowywać autorskie rozwiązania i zwiększać konkurencję w tym obszarze rynku.

 

Skrótowiec HCI (Hyper-converged Infrastructure) stał się rozpoznawalny w środowisku osób związanych z infrastrukturą serwerową. Liderem w tej niszy technologicznej jest Nutanix – opisywana kilkukrotnie na łamach naszego miesięcznika firma, która rzuciła wyzwanie tradycyjnej architekturze pamięci SAN, pokazując nowe elastyczne podejście do infrastruktury pamięci masowych. Wirtualizacja serwerów bazuje na urządzeniach, które mogą ulec awarii, a gdy ta następuje, wykorzystany zostaje inny serwer, który udostępnia swoje zasoby maszynie wirtualnej. Chociaż dopuszczalna jest chwilowa przerwa w pracy maszyny wirtualnej, jakiekolwiek problemy z dostępem do jej danych nie są tolerowane, dlatego serwery fizyczne jako elementy zbyt zawodne nie zajmują się przechowywaniem danych. Fakt ten wpłynął na intensywny rozwój technologii pamięci masowych, tworząc duży silos technologiczny, który doskonale wypełnia wymagania wysokiej dostępności danych. Niestety parametry jakościowe nie idą w parze z elastycznością ani z ekonomią. Jest to szczególnie odczuwalne w porównaniu z szybkością dostarczania usług przez dostawców chmury publicznej.

> ZMIANA KONCEPCJI

Rozwój sieci SAN wynika z zawodności pojedynczych serwerów – statystycznie biorąc, będzie to awaria jednego z kilku, kilkunastu czy kilkudziesięciu serwerów. Jednoczesna niedostępność połowy serwerów w praktyce oznaczałaby dużą awarię, którą byłaby objęta również warstwa pamięci masowych. Na bazie tych obserwacji pojawiła się idea przechowywania danych maszyn wirtualnych na wewnętrznych dyskach serwerów, ale co istotne, zawsze na kilku serwerach. Przy takiej zmianie koncepcji awaria pojedynczego serwera nie grozi utratą danych. Pozostało jeszcze zaprojektować mechanizm transparentnego przełączania węzłów dostarczających dane oraz stworzyć ze wszystkich dysków w serwerach duży logiczny byt, który byłby zarządzany jako wspólny zasób. Tak w największym skrócie powstała i została zrealizowana wizja hiperkonwergencji pamięci masowych, której główną zaletą jest elastyczność bazująca na wielokrotnym wykorzystaniu pojedynczego elementu – serwera z dyskami. Łatwość rozbudowy infrastruktury, utrzymania czy naprawy jest poszukiwaną przez wiele firm przewagą konkurencyjną. Analizy rynkowe mówią o coraz szybciej rosnącym udziale HCI, sugerując jednocześnie znaczne zmniejszenie tradycyjnych form udostępniania pamięci masowych na przestrzeni kolejnych kilku lat. Spośród rozwiązań zaprojektowanych przez największych graczy należy wymienić VMware vSAN, DellEMC VxRail czy Cisco HyperFlex. Z kolei HP, aby do swojego portfolio dołączyć rozwiązanie HCI, kupiło bardzo prężnie rozwijającą się firmę SimpliVity.

> CZAS NA MAXTA

Hiperkonwergentna infrastruktura pamięci masowych wpisuje się w trend software-defined-storage – pamięci definiowanych programowo. Lekkim odstępstwem jest tu wspomniane SimpliVity, które wymaga zakupu i instalacji dodatkowego sprzętu. Opisywany trend bazuje na działającej już platformie wirtualizacyjnej, do której dokłada software’ową warstwę logiczną realizującą założenie hiperkonwergencji. Tego typu rozwiązania dostarczane są przez wielu dostawców, jedną z takich firm jest założona w 2009 r. i działająca w Europie od 2016 r. firma Maxta z siedzibą w Santa Clara. W 2015 r. została ona uwzględniona w przygotowanym przez Gartnera raporcie „Cool Vendors in Storage”.

Premiera produktu Maxta Storage Platform (MxSP) miała miejsce w 2013 r. Rok później udostępniona została druga wersja platformy, w której dodano m.in. takie funkcje jak: automatyczna ochrona danych, tzw. rack awareness czy integracja z Windows VSS. W trzeciej generacji produktu wprowadzono takie nowości jak nowy interfejs użytkownika, zarządzanie ochroną danych na poziomie maszyny wirtualnej oraz ujednolicone zarządzanie dla VMware. Produkt jest intensywnie rozwijany, w sierpniu br. wydana została kolejna wersja kompatybilna z KVM platformy RedHat. Firma aktualnie zatrudnia ponad 100 osób, corocznie podwaja przychody oraz liczbę klientów. Dostarczanie rozwiązania dla kilku platform wirtualizacyjnych jest krokiem minimalizującym ryzyko. VMware już ogłosiło zamknięcie swojego środowiska dla dostawców innych rozwiązań sieciowych, mogących zastąpić przełącznik rozproszony, dostarczany przez VM­ware w ramach najwyższych licencji. Istnieje zatem ryzyko, że ochraniając swój produkt, jakim jest vSAN, firma może zacząć utrudniać pracę innym dostawcom HCI.

[...]

Autor jest administratorem systemów IT. Zajmuje się infrastrukturą sieciowo-serwerową, pamięciami masowymi oraz wirtualizacją. Posiada tytuły VCP, MCP oraz CCNA

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2013 Presscom / Miesięcznik "IT Professional"