5 lat WYDANIE SPECJALNE
listopad 2018
VADEMECUM VAR-ÓW I INTEGRATORÓW
DANE W PRZEDSIĘBIORSTWIE - ZARZĄDZANIE I OCHRONA
listopad 2018
ISSN 1640-9183
Dane w przedsiębiorstwie - zarządzanie i ochrona
V4_cover.indd 1
20.11.2018 12:48
SZUKASZ PRACOWNIKÓW W BRANŻY IT?
Mając konto na CRN.pl, możesz BEZPŁATNIE zamieszczać OFERTY PRACY w naszym portalu.
N A J L E P I E J
ok_197x265_OfertaPracy_na_CRNpl_0918.indd 1
P O I N F O R M O W A N Y
P O R T A L
W
B R A N Ż Y
I T
26.09.2018 12:25
SPIS TREŚCI
Vademecum 4/2018 ROZMOWA Z... Scottem Sinclairem, starszym 6 analitykiem rynku pamięci masowych w Enterprise Strategy Group SYSTEMY PRZECHOWYWANIA DANYCH 10 Pamięci masowe: 5 trendów na 2019 r. 13 OceanStor – macierze dla małych i dużych (Huawei, Veracomp) 14 Bezpieczne przechowywanie danych z Fujitsu 15 Agent Veeam dla okienek (Veracomp) 16 Macierze dyskowe Lenovo i NetApp 18 Wiele danych w małym urządzeniu (Netgear) 19 Jedna chmura nie zawsze wystarczy (Veritas, Veracomp) 20 Najskuteczniejsza jest zbalansowana ochrona (Acronis) 21 QSAN – bezkompromisowe „kostki” (EPA Systemy) MACIERZE ALL-FLASH 22 Nowe życie pamięci flash dzięki NVMe 25 Wydajny NAS tylko z SSD (Synology) 26 ETERNUS AF: duża wydajność w małej obudowie (ABC Data)
Ilustracje AdobeStock
ORGANIZACJA PRZETWARZANIA DANYCH 28 Serwery i systemy operacyjne, czyli stare po nowemu 32 Alstor Secure Data Solutions: specjalnie dla centrów danych 34 Systemy warte zaufania (Cisco) 35 Red Hat: łatwiejsza konteneryzacja (Veracomp) ZAPASOWE CENTRA DANYCH I KOLOKACJA 36 Komercyjne centrum danych: sojusznik czy konkurent? 39 Strategia migracji do chmury (Atman)
40 41
Data Space – bezpieczna infrastruktura IT w zasięgu ręki Chmura hybrydowa: wiele korzyści dla MŚP (Aruba Cloud)
ZARZĄDZANIE OBIEGIEM DOKUMENTÓW I INFORMACJI 42 Druk: efektywność w cenie 45 MPS obniży koszty druku u klientów integratorów (Brother) 46 Dlaczego warto sprzedawać skanery dokumentowe Fujitsu? (Alstor SDS) CIĄGŁOŚĆ PRACY FIRMY 48 Dane zawsze pod ręką 51 QNAP gwarantuje ciągłość pracy 52 Bezpieczny znaczy dostępny (Sophos) 53 Gwarancja dostępności środowisk wirtualnych i chmurowych (Veeam) ZARZĄDZANIE POUFNYMI DANYMI UŻYTKOWNIKÓW 54 Od klasyfikacji do anonimizacji 57 Wpływ RODO na zarządzanie IT (Axence) SZYFROWANIE DANYCH I OCHRONA PRZED WYCIEKAMI 58 Dane bezpieczne, czyli zaszyfrowane 61 Poufne dane dobrze chronione (Kingston) ZARZĄDZANIE CYKLEM ŻYCIA NOŚNIKÓW 62 Od zasad do technologii 65 D.LAB – przyszłość niszczenia danych (Diskus) 67 Kasowanie danych w trosce o środowisko (Wiperapp EP) DOLINA KRZEMOWA 68 Backup: startupy zarządzają danymi 70
Indeks firm
VADEMECUM CRN listopad 2018
V4_spis tresci.indd 3
3
20.11.2018 17:53
EDYTORIAL
Danymi zarządzą maszyny
S
ztuczna inteligencja (AI) i uczenie maszynowe (zwane też czasem „głębokim uczeniem”) to obecnie tematy tak popularne, jak niemal dekadę temu chmura. Mało kto wówczas rozumiał, czemu miała służyć i jakie płyną z niej korzyści biznesowe. Niemniej wszyscy liczący się gracze twierdzili, że ją oferują lub z niej korzystają. Dziś podobnie jest ze sztuczną inteligencją – rok 2019 z pewnością będzie czasem, gdy określenie to będzie odmieniane przez wszystkie przypadki. Już dziś większość firm z branży IT twierdzi, że ich rozwiązania bazują właśnie na AI. Ale czy za tym przyjdą, jak to ma miejsce w przypadku chmury, konkretne zastosowania biznesowe i związane z nimi korzyści? I najważniejsze: czy będzie można na tym zarobić? Wszyscy producenci na świecie, którzy chociaż „otarli się” o sztuczną inteligencję, twierdzą, że po prostu nie ma takiej branży, która by nie skorzystała na uczeniu maszynowym. Automatycznie skorzysta na tym również branża IT. A że sukces biznesowy w dzisiejszych czasach bazuje głównie na innowacyjności, zasiewane przez dostawców ziarno trafia na bardzo podatny grunt. Pozostaje tylko pytanie o granicę, gdzie kończą się algorytmy, a zaczyna się uczenie maszynowe i bazująca na nim sztuczna inteligencja. Bo to właśnie ta kwestia budzi obecnie wiele kontrowersji i pytań o to, czy producenci nie nazywają swoich rozwiązań sztuczną inteligencją mniej lub bardziej na wyrost… Pewne jest jednak, że na świecie mamy jednak coraz więcej przykładów jej zastosowania. Armia USA używa uczenia maszynowego, aby przewidzieć, kiedy transportery opancerzone będą wymagały naprawy. Czujniki zainstalowane wewnątrz silników pojazdów rejestrują temperaturę i obroty, a następnie przesyłają je do oprogramowania. Zaimplementowane w nim funkcje szukają wzorców w danych, które mogą wskazywać na
prawdopodobieństwo zbliżającej się awarii silnika, takiej jaka zdarzyła się w innych pojazdach. Podobne mechanizmy są też zaimplementowane w samochodach Tesli, a z pewnością stosowanie ich rozważają inni producenci pojazdów. Coraz większe znaczenie ma sztuczna inteligencja w ochronie zdrowia. Jako że większość badań bazuje na obserwacji zjawisk biologicznych i „ubieraniu” ich w statystyczne modele, algorytmy głębokiego uczenia są w stanie zauważyć trendy i niuanse, na które człowiek być może nigdy nie zwróciłby uwagi. W tym kontekście ciekawy eksperyment przeprowadzili analitycy Google’a. W swoich badaniach brali pod uwagę stan i historię zdrowia przyjmowanych do szpitali pacjentów. Dzięki sztucznej inteligencji w rezultacie byli w stanie przewidzieć – z 95-proc. dokładnością – prawdopodobieństwo śmierci takiej osoby w ciągu najbliższych 24 godzin. Dzięki takiemu „wyrokowi” lekarze zyskują świadomość, że muszą bardziej skupić się na pomocy danemu pacjentowi, bo być może w ten sposób uratują mu życie. W podobny sposób podejmowane są próby analizy prawdopodobieństwa zmian kursu akcji na giełdzie. Sztuczna inteligencja, która już stosowana jest w różnego rodzaju chatbotach, będzie też w stanie np. rozpoznać nastrój rozmówcy i w taki sposób dobierać słowa w komunikatach, aby „rozbroić” jego emocje. A to niejedyny sposób, w jaki mogą ją wykorzystać twórcy rozwiązań IT. Dwoją się oni i troją, aby zbudować nowy rynek i przekonać do niego innowacyjnych odbiorców. A to oznacza, że już wkrótce integratorzy mogą spodziewać się konkretnych zapytań od takich właśnie klientów.
Fot. Adrian Stykowski
Dzięki AI można przewidzieć, czy i kiedy pacjent umrze.
4
KRZYSZTOF JAKUBIK redaktor prowadzący
VADEMECUM CRN listopad 2018
V_04_18_edytorial.indd 4
20.11.2018 14:19
RODZAJE DANYCH I WYDAJNOŚĆ W PAMIĘCIACH MASOWYCH Dane mogą być zapisywane na nośnikach pamięci masowych na trzy sposoby – blokowy, plikowy i obiektowy (nie są to jednak odpowiedniki systemów plików). Każdy z tych sposobów ma inne zastosowanie oraz swoje wady i zalety. SPOSOBY ZAPISU I DOSTĘPU DO DANYCH W PAMIĘCIACH MASOWYCH Blok
Plik
Obiekt
Opis
zbiór danych przechowywanych na dysku lub taśmie
sekwencja bajtów z danymi zapisana na dysku, taśmie lub płycie optycznej
plik uzupełniony o rozszerzoną, definiowaną przez użytkownika tabelę metadanych
Cechy
objętość, adres na nośniku
objętość, nazwa, data/czas utworzenia lub modyfikacji, uprawnienia dostępu, struktura hierarchiczna (katalogi)
brak struktury hierarchicznej (katalogów) i systemu plików, lokalizacja określona w macierzy bloków danych, wyszukiwanie obiektu według metadanych
Zastosowanie
bazy danych, systemy transakcyjne, obsługa wirtualnych maszyn, środowiska analityczne
gromadzenie nieustrukturyzowanych danych, np. dokumentów, multimediów, kodu wykonywalnego
usługi chmurowe, serwisy internetowe, systemy współpracy online
Charakterystyka komunikacji z hostem
bezpośredni dostęp do nośnika (dysku, grupy dysków w macierzy lub taśm w napędzie czy w bibliotece)
dostęp przez system plików (m.in. FAT, exFAT, NTFS, ext, btrfs, ZFS, UDF) zawierający wskazania sektorów, w których znajdują się poszczególne fragmenty pliku
bezpośredni dostęp do nośnika (dysku, grupy dysków w macierzy dyskowej)
Protokoły dostępu
SCSI, Fibre Channel, SATA, NVMe
CIFS, NFS, SMB
REST, SOAP
Zalety
duża wydajność
łatwość udostępniania plików użytkownikom sieci
wysoka skalowalność i możliwość stosowania w systemach rozproszonych
Wady
– możliwość uzyskania wysokiej dostępności tylko dzięki zapewnieniu redundancji wszystkich elementów (nośników, kontrolerów, łączy sieciowych) – utrudnione stosowanie poza centrum danych firmy
– ograniczona skalowalność – brak możliwości definiowania metadanych przez użytkowników
– nieprzystosowane do przechowywania często zmieniających się danych transakcyjnych – metadane mogą zawierać więcej informacji niż same dane (np. informacje wrażliwe), więc także powinny podlegać ścisłej ochronie
DEFINICJE DOTYCZĄCE WYDAJNOŚCI PAMIĘCI MASOWYCH Czas odpowiedzi, czas reakcji, opóźnienie
Input-Output Per Second (IOPS)
To trzy różne parametry, które często są mylone (także w oficjalnej dokumentacji producentów).
Liczba wykonanych operacji wejścia-wyjścia na sekundę. W zależności od sytuacji może dotyczyć operacji zapisu, odczytu albo obu naraz. Parametr ten stosuje się wobec bloków i plików, ale nigdy wobec obiektów. Wartość IOPS zależy od rodzaju nośnika (od najszybszego: pamięć RAM, SSD, HDD) oraz wielkości bloku danych, który poddany jest pomiarom – im mniejszy blok, tym więcej IOPS. Najczęściej w środowisku testowym stosuje się bloki 4 kB, a w rzeczywistym 8 kB dla baz danych i 32 kB dla maszyn wirtualnych.
Opóźnienie (latency) to czas poświęcony na obsługę danego zadania przez kontroler w serwerze i macierzy, sieć, nośnik i oprogramowanie, wyrażany w jednostce czasu, najczęściej w milisekundach, do zobrazowania problemu czasem stosuje się też współczynnik procentowy, przedstawiający liczbę transakcji zrealizowanych w założonym dopuszczalnym czasie opóźnienia. Im większe opóźnienie, tym mniej IOPS będzie można uzyskać (najczęściej poprawę mogą przynieść wymiana rodzaju nośnika, np. z HDD na SSD oraz wdrożenie szybszej infrastruktury sieciowej). Czas odpowiedzi (response time) obliczany jest od momentu wysłania żądania przez serwer do momentu otrzymania danych z systemu pamięci masowych – jest to suma opóźnień wszystkich elementów, które wykorzystane są do połączenia serwera z pamięcią masową. Czas reakcji (reaction time) obliczany jest od momentu wysłania zapytania przez serwer do momentu rozpoczęcia udzielania odpowiedzi przez pamięć masową. Wszystkie te parametry są ważne dla zadań obliczeniowych o charakterze losowym, nie mają większego znaczenia dla obsługi dużych plików i sekwencyjnego transferu danych.
Jitter
Niepożądane krótkookresowe odchylenie od ustabilizowanych parametrów, np. opóźnienia. Może być spowodowany nadmiarem żądań zapisu danych, błędami odczytu, obciążeniem macierzy w związku z odbudową struktury RAID itp. Zjawisko to – jeśli występuje często – w dużym stopniu negatywnie wpływa na wydajność pamięci masowych, co łatwo odczuć głównie podczas odtwarzania online treści multimedialnych. Niektóre aplikacje oraz aktywne urządzenia sieciowe mają wbudowane mechanizmy anti-jitter. VADEMECUM CRN listopad 2018
infografika.indd 5
5
20.11.2018 13:04
NA TEMAT
FLASH
bierze wszystko
– Zawsze trzeba korzystać z najnowszych technik gromadzenia danych, a spośród dostawców usług wybierać tych o najlepszej reputacji, którzy najpewniej będą działać także za 20–30 lat – mówi SCOTT SINCLAIR, STARSZY ANALITYK RYNKU PAMIĘCI MASOWYCH W ENTERPRISE STRATEGY GROUP. CRN W poprzedniej dekadzie na rynku pamięci masowych dla przedsiębiorstw nie działo się zbyt wiele fascynujących rzeczy. Za to w obecnej mamy do czynienia niemal z rewolucją. Którą z zaprezentowanych w ostatnich latach innowacji należy uznać za najważniejszą? SCOTT SINCLAIR Z pewnością powszechne wykorzystanie pamięci flash we wszystkich obszarach związanych z IT. Chociaż trzeba zrobić zastrzeżenie, że technologia ich produkcji znana jest od kilku dekad, a w ostatnich latach tylko ją zmodyfikowano, co pozwoliło na zwiększenie pojemności i trwałości oraz obniżenie ceny. Dzięki temu pamięci flash przyniosły znaczące zmiany w dziedzinie IT – zarówno przyspieszenie pracy już funkcjonujących aplikacji, jak i powstanie zupełnie nowych zastosowań informatyki, głównie w zakresie uczenia maszynowego. Skorzystały na tym
6
wywiad.indd 6
też rozwiązania Internetu rzeczy, bo niewskazane byłoby montowanie mechanicznego dysku w urządzeniach z sensorami, zainstalowanych często w miejscu, gdzie panują niesprzyjające warunki środowiskowe. Bez pamięci flash trudno sobie wyobrazić także wszelkie urządzenia mobilne. Wyprodukowano nawet twarde dyski wielkości karty Compact Flash, które miały być montowane w telefonach i aparatach cyfrowych, lecz z oczywistych powodów pomysł się nie sprawdził. Ale nośniki flash także nie są niezawodne… Kilka lat temu wiele dyskutowało się o trwałości danych zapisanych w ich komórkach pamięci. W końcu producenci zadeklarowali, że problem już nie istnieje. Czy słusznie? Rzeczywiście, dziesięć lat temu, gdy coraz powszechniej zaczęto stosować dys-
ki SSD, było wiele wątpliwości co do ich trwałości, a klienci często zgłaszali utratę danych. Problem dotyczył przede wszystkim bardzo szybkiego zużywania się komórek pamięci podczas zapisu. Wcześniej to zjawisko trudno było zaobserwować, bo np. w telefonach komórkowych dane były wówczas głównie odczytywane, a zapisywane rzadko. Natomiast w ostatnich latach producenci kości pamięci wykonali naprawdę tytaniczną pracę, by zwiększyć ich trwałość. Pomogli im producenci dysków i znajdujących się w nich kontrolerów, którzy usprawnili algorytmy zaimplementowane po to, aby w każdej komórce pamięci dane były zapisywane z odpowiednią, równomierną częstotliwością, co wydłuża czas życia nośnika. Pozytywne skutki tych działań zaobserwowali klienci. W ubiegłym roku, gdy pytaliśmy w badaniu o przyczynę wyboru pamięci flash, na pierwszym
VADEMECUM CRN listopad 2018
20.11.2018 15:56
miejscu wskazywali wzrost wydajności, ale na drugim – niezawodność i trwałość nośników. Nadal jednak można odnieść wrażenie, że dyski SSD to bomba, tylko z opóźnionym zapłonem… W pewnym sensie tak, ale jej „wybuch” jest mocno oddalony w czasie, a do tego następuje w momencie łatwym do przewidzenia. Można ocenić stopień zużycia dysków SSD i przewidzieć koniec ich życia lub awarię. Kontroler w nośniku na bieżąco raportuje, ile danych zostało na nim zapisanych od samego początku używania oraz przez ile czasu dysk pracował. Dzięki temu administrator wie, że w danym miesiącu powinien wymienić konkretne dyski w centrum danych, bo przekroczone zostały limity i zdecydowanie rośnie ryzyko utraty danych. To nigdy nie było możliwe w przypadku mechanicznych napędów. Mogły ulec uszkodzeniu na wiele różnych sposobów, a przewidzenie awarii praktycznie nie wchodziło w grę, nawet mimo wprowadzania w nich mechanizmów typu S.M.A.R.T. W firmach przetwarzających duże ilości danych konieczne jest dobieranie rodzajów nośników do typu przechowywanych informacji. W przypadku wirtualizacji i baz danych stosuje się dyski flash. Dla plików, do backupu i rzadziej odczytywanych danych lepsze są mechaniczne napędy, a do archiwizacji i niektórych rodzajów backupu – taśmy. Czy ten podział zmieni się w ciągu najbliższych lat? Jak wpłyną na niego nowe sposoby wykorzystania technik IT, np. Internetu rzeczy? Tego typu podział nadal wydaje się naturalny. Co więcej, gdybym usłyszał to pytanie 3–4 lata temu, powiedziałbym, że ze względu na pojawianie się coraz nowszych rodzajów danych, sposobów ich zapisu i dostępu do nich, konieczne będzie stosowanie jeszcze większej liczby rodzajów nośników. Jeśli wybór takich produktów będzie duży, łatwiej będzie dobrać właściwy. Ale rzeczywistość okazała się inna. Po pierwsze, administratorzy wiedzą tylko w przybliżeniu, jakiej wydajności potrzebują do przechowywania konkretnych danych. Z tego powodu
firmy mają tendencje do przeinwestowywania i kupowania na zapas – czasem zostanie on wykorzystany, a czasem nie. Po drugie, bardzo staniały pamięci flash i wiemy, że ten proces będzie postępować. I to one zostaną podzielone na kilka kategorii względem zapewnianej wydajności, co będzie przydatne w przypadku nowatorskich rozwiązań IT.
Mechaniczny dysk umrze wcześniej niż taśma, ale na pewno nie stanie się to w ciągu najbliższej dekady. To oznacza, że któryś z nośników wkrótce umrze śmiercią naturalną. Tylko który pierwszy – taśma czy dysk? Pamiętam, jak 15 lat temu eksperci branży IT mówili, że taśma już umarła. A dziś wszyscy wiemy, że to nieprawda, bo taśmy nadal są szeroko wykorzystywane. Uważam, że pierwszy umrze dysk, ale na pewno nie stanie się to w ciągu najbliższej dekady. W zakresie korzyści użytkowych taśmy są nie do pobicia. Należy do nich długoterminowe przechowywanie danych niewymagające poboru prądu, także poza siedzibą przedsiębiorstwa i to przez dekady. Dzięki taśmom firmy mogą też łatwiej dostosować się do coraz bardziej restrykcyjnego prawa, zobowiązującego do archiwizowania bardzo dużej ilości informacji. Oprócz tego łatwiejsze jest zwiększanie pojemności nośnika taśmowego niż twardego dysku. Gdy nie będzie dysków, firmy będą skazane na korzystanie z macierzy all-flash. Te jednak nadal są bardzo drogie, co skłania klientów raczej do inwestowania w rozwiązania hybrydowe z dyskami SSD funkcjonującymi jako warstwa o największej wydajności i pamięcią flash jako cache o dużej pojemności… Macierze all-flash na pewno będą tanieć, chociaż nie tak bardzo jak konsumenckie nośniki SSD. Na wyższą cenę wpły-
wa konieczność zapewnienia bardzo wysokiej trwałości zapisu i wydajności przetwarzania udostępnianych serwerom danych. Zresztą czy są drogie, to kwestia względna i moim zdaniem mocno zależna od kosztów pracy na danym rynku. W USA i w Europie Zachodniej wynagrodzenia administratorów są bardzo wysokie, więc inwestuje się w rozwiązania, które nie wymagają wielkiego zaangażowania pracowników działu IT. W krajach azjatyckich, gdzie ludzka praca jest bardzo tania, obserwujemy odwrotny trend. Polska i inne kraje Europy Środkowo-Wschodniej są pośrodku. Ale nie ma co się dziwić, że firmy – gdy koszt pracy nie jest zbyt wysoki – wolą zainwestować w kilka warstw nośników pamięci masowych w infrastrukturze IT (co oczywiście prowadzi do rozproszenia zasobów), bo stać je na zatrudnienie specjalistów do zarządzania nimi. Po prostu taniej jest kupić serwery z zainstalowanymi nawet kilkoma dyskami SSD o wysokiej pojemności i połączonymi w RAID, niż inwestować w macierz all-flash oraz infrastrukturę sieci SAN. Przez kilkadziesiąt lat funkcjonowania taśm i dysków na rynku pamięci masowych można było wiele razy usłyszeć o rewolucji w rozwiązaniach do przechowywania danych, które miały wyeliminować wszystkie stare rodzaje nośników. Mówiono o dyskach holograficznych, pamięci, w której wartości bitów byłyby odzwierciedlane przez kierunek obrotu atomów, nośnikach zapewniających zapis magnetyczny, ale zdecydowanie szybszy odczyt optyczny itp. Czy w ciągu najbliższej dekady nastąpi przełom, w wyniku którego pamięci flash zyskają popularność tylko na chwilę? Nie sądzę. Prowadzone są prace nad pamięcią RAM, której zawartość nie będzie tracona w momencie odcięcia zasilania. Ale to rozwiązanie także bazuje na koncepcji flash. Przełomu raczej należy spodziewać się w związku z sieciami, przetwarzaniem danych oraz aplikacjami. Do tej pory to twarde dyski stanowiły wąskie gardło w infrastrukturze IT. Pojawienie się szybkich nośników flash, szczególnie wykorzystujących VADEMECUM CRN listopad 2018
wywiad.indd 7
7
20.11.2018 15:56
NA TEMAT protokół NVMe, spowodowało, że wąskim gardłem stały się wszystkie pozostałe elementy infrastruktury. Obecnie specjaliści intensywnie pracują nad zwiększeniem przepustowości serwerów oraz sieci i z tym nie będzie dużego problemu. Natomiast wyzwanie stanowi oprogramowanie, którego architektura z reguły uwzględnia fakt, że stosunkowo niewiele danych znajduje się w szybkiej pamięci operacyjnej. Zakłada się, że reszta jest na twardym dysku, a z niego dane są pobierane dość powoli. Dziś producenci komputerów pracują nad kwantowym przetwarzaniem danych, rośnie popularność chmury publicznej, więc wszystko wskazuje na to, że za 10–20 lat trzeba będzie „przepisać” całe oprogramowanie, jakie istnieje na świecie. Może wówczas faktycznie wszystkie systemy IT staną się „software-defined”? Patrząc z technicznego punktu widzenia, można uznać, że to już się stało. Sprzęt coraz bardziej traci na znaczeniu, a firmy konkurują głównie w zakresie oprogramowania. Widać to szczególnie wyraźnie w funkcjach macierzy dyskowych. Producenci zapewniają możliwość wymiany kontrolerów w działającym urządzeniu, wdrożenie nowych rodzajów nośników, replikację danych. Tymczasem informacje zgromadzone w macierzy muszą być dostępne dla serwerów nieprzerwanie, co może zapewnić tylko oprogramowanie sterujące jej pracą. Rewolucją w zarządzaniu macierzami dyskowymi miała być ich wirtualizacja – najpierw w postaci wirtualizatorów sprzętowych, a potem programowych. Ostatnio jednak jakoś o tym cicho… Wirtualizacja pamięci masowych była pomyślana jako rozwiązanie problemu w sytuacji, gdy firma zainwestowała w różne projekty, w wyniku których nabyła funkcjonujące oddzielne macierze różnej kategorii i od różnych producentów. Dzięki wirtualizacji zyskiwała możliwość połączenia tych macierzy w jeden zasób i udostępnienia ich serwerom z zestawem dodatkowych funkcji, m.in. automatycznego przenoszenia danych między nośnikami o różnej wydajności. Tymczasem dzisiaj coraz częściej przedsiębior-
8
wywiad.indd 8
Wszystko wskazuje na to, że za 10–20 lat trzeba będzie „przepisać” całe oprogramowanie, jakie istnieje na świecie.
wydajności. Wiele ankietowanych przez nas firm przyznaje też, że ogromny problem sprawia im przenoszenie danych na nową macierz dyskową. To wiąże się z kosztami i przerwami w pracy. Tymczasem wirtualizacja w znacznym stopniu upraszcza ten proces. Wystarczy podłączyć nową macierz i zlecić powolne przenoszenie danych, a cały czas można korzystać z tych zgromadzonych na starej macierzy. Dopiero po zakończeniu kopiowania i zweryfikowaniu poprawności tego procesu, przełącza się serwery na nową macierz, a starą odłącza lub wykorzystuje do przechowywania mniej znaczących danych, np. kopii zapasowych.
Czy to znaczy, że nie warto interesować się już tego typu rozwiązaniami? Warto, ponieważ przedsiębiorstwa „odkryły” inne rodzaje zastosowań wirtualizacji pamięci masowych. Wirtualizatory potrafią połączyć w jeden zasób np. znajdującą się w serwerze kartę PCIe z pamięcią flash, będącą obecnie najszybszym nośnikiem dla aplikacji, z dyskami w macierzy. Dzięki temu administrator unika ogromnej pracy polegającej na ręcznym przypisywaniu aplikacji i danych konkretnym nośnikom oraz nieustannego strojenia całego środowiska pod kątem
Jak w tę koncepcję wpisują się obiektowe pamięci masowe, które też wykorzystują swego rodzaju wirtualizację danych? To bardzo interesująca dziedzina i szybko się rozwija. Skoncentrowano się w niej nie na bitach i bajtach, ale na charakterze przechowywanych danych, dzięki czemu użytkownicy mogą sami decydować jakimi metadanymi opisać dany obiekt. Wyeliminowano wiele ograniczeń związanych głównie z wielkością woluminu w tradycyjnym systemie plików oraz przypisywaniem reguł poszczególnym
stwa mają tylko jedną centralną macierz z bardzo wieloma funkcjami i z nośnikami pogrupowanymi w warstwy według wydajności, więc pierwotny cel stosowania wirtualizacji stał się w dużej mierze nieaktualny.
VADEMECUM CRN listopad 2018
20.11.2018 15:56
SCOTT SINCLAIR pełni funkcję starszego analityka rynku pamięci masowych w agencji badawczej Enterprise Strategy Group. Od kilkudziesięciu lat doradza klientom z listy Fortune 500 w kwestiach przechowywania i zabezpieczania danych. Uzyskał tytuł licencjata (bachelor) w dziedzinie inżynierii komputerowej na Vanderbilt University w Nashville, a następnie ukończył studia magisterskie z administracji biznesowej w McCombs School of Business, działającej pod auspicjami University of Texas w Austin.
plikom i ich grupom. Obiektowe pamięci masowe znajdują zastosowanie przede wszystkim w chmurze publicznej, w której z definicji mamy do czynienia z obiektami, a nie z plikami. Widzimy, że obecnie coraz więcej aplikacji instalowanych lokalnie wyposażanych jest w interfejs umożliwiający łączenie ich z obiektowymi usługami chmurowymi. Taki sposób zarządzania informacjami zyskuje popularność i być może wkrótce stanie się dominujący w firmowych środowiskach IT. Coraz więcej przedsiębiorstw rozpoczyna świadczenie usług typu Storage as a Service. Jakie są praktyczne zastosowania tego modelu poza oczywistymi, takimi jak backup online i gromadzenie dużych repozytoriów nieaktywnych plików? Naturalnym ograniczeniem usług StaaS dla przedsiębiorstw są opóźnienia w transmisji danych między ich infrastrukturą IT a chmurą, więc w wielu przypadkach się nie sprawdzą. Ale gdy firma korzysta np. z ulokowanych w chmurze serwerów wirtualnych, oczywiście powinna mieć dostęp do pamięci masowej zlokalizowanej jak najbliżej tych serwerów, czyli również w chmurze. W dużej mierze to czy firma będzie korzystać
z usług chmurowych zależy także od wewnętrznych procesów w przedsiębiorstwie, regulacji prawnych, dostępności ekspertów itd. Jakiś czas temu przeprowadziliśmy badanie dotyczące chmur hybrydowych. Pytaliśmy, dlaczego firmy niektóre dane pozostawiają w swojej siedzibie. Najczęstszą odpowiedzią było: „dla większego bezpieczeństwa danych”. A gdy zapytaliśmy, dlaczego część z nich przenoszą do chmury, najczęściej odpowiedź brzmiała... „dla większego bezpieczeństwa danych”. To idealnie obrazuje, że jeśli przedsiębiorstwo nie ma wystarczających zasobów, aby zapewnić danym ochronę, korzysta z chmury. Ale jeśli jest pewne wewnętrznego systemu bezpieczeństwa, zostawia te dane u siebie. Przeciwnicy chmury publicznej często posługują się przykładami przedsiębiorstw, które przeniosły swoją działalność do chmury i po pewnym czasie z niej zrezygnowały… Takich przypadków nie jest dużo, poza tym każdy jest inny. Z reguły rezygnacja z chmury wynika z braku strategii dotyczącej IT w firmie. Widzę dwie najczęściej pojawiające się przyczyny. Pierwsza jest związana z kwestiami prawnymi – przedsiębiorstwo uległo marketingowym namowom dostawców usług, a dopiero później zorientowało się, że niektórych rodzajów danych po prostu nie wolno przechowywać u zewnętrznych operatorów. Druga przyczyna to brak umiejętności porównania zalet środowiska on-premise i chmurowego oraz odniesienia ich do własnych potrzeb. Specjaliści coraz częściej podkreślają wyzwania związane z backupem danych. Okna backupowe kurczą się lub znikają zupełnie. Niektórzy twierdzą, że w ogóle chcieliby wyeliminować kopie zapasowe i zastąpić je replikacją. Czy rzeczywiście jest tak źle? Backup od lat stanowi jedno z większych wyzwań dla firm – zarówno w warstwie technicznej, jak i mentalnej. Zawsze proces ten był dla nich rodzajem polisy ubezpieczeniowej, kosztem, który nigdy się nie zwróci, jeśli przedsiębiorstwo nie doświadczy katastrofy. Dlatego m.in. dziś występuje trend wykorzystywania kopii
backupowych nie tylko do przywracania systemu do pracy w przypadku awarii. Zgromadzone dane administratorzy starają się wykorzystywać w środowisku testowym i deweloperskim. Analitycy informacji w firmie korzystają z okazji do przeprowadzenia badań na wykonanych kopiach danych bez obciążania głównych serwerów. Osoby odpowiedzialne za utrzymanie ciągłości pracy przedsiębiorstw naciskają, aby w przypadku awarii można było od razu korzystać z danych z kopii backupowej w taki sposób, jakby były zgromadzone w zasobie podstawowym. A co do warstwy technicznej, backupu nie da się uniknąć. Replikacja tu nie pomoże, bo jeśli dane zostaną uszkodzone, niepoprawnie zmodyfikowane lub zawirusowane, w takiej właśnie postaci zostaną zreplikowane. Drugim obok backupu trudnym zagadnieniem, zresztą często z nim mylonym, jest archiwizacja. Problem polega na tym, że coraz więcej regulacji prawnych zobowiązuje firmy i instytucje do przechowywania danych przez całe dekady. Oczywiście muszą regularnie kopiować je na nowe media i utrzymywać w możliwych do odczytania formatach. Czy są na rynku narzędzia, które uczynią ten proces łatwiejszym? Generalnie rozwiązaniem problemu są wspomniane już obiektowe pamięci masowe. Ich oprogramowanie „rozumie” dane, którymi zarządza, potrafi też przypisać im odpowiednie okresy retencji, czyli zobowiązania do przechowywania informacji w niezmienionej formie. Oczywiście trzeba przenosić dane na nowe nośniki. Często ma miejsce absurdalna sytuacja: w firmie przechowuje się archiwa na taśmach sprzed 10–15 lat, a obok znajdują się szczelnie zafoliowane napędy taśmowe, które – jak wierzą administratorzy – umożliwią kiedyś odczytanie tych nośników. Dlatego trzeba zawsze korzystać z najnowszych technik gromadzenia danych, a spośród dostawców usług obiektowego przechowywania danych wybierać tych o najlepszej reputacji, którzy najpewniej będą działać także za 20–30 lat.
ROZMAWIAŁ
KRZYSZTOF JAKUBIK VADEMECUM CRN listopad 2018
wywiad.indd 9
9
20.11.2018 15:56
SYSTEMY PRZECHOWYWANIA DANYCH
PAMIĘCI MASOWE: 5 trendów na 2019 r. Od lat producenci starają się uprościć ofertę pamięci masowych, zgodnie z oczekiwaniami przedsiębiorstw, ale obserwacja rynkowych trendów pokazuje, że do sukcesu daleko. Analiza tego, co przyniesie klientom największe korzyści, nadal leży zatem po stronie integratorów. KRZYSZTOF JAKUBIK
W
ybór właściwego rozwiązania pamięci masowej do firmowego środowiska IT od zawsze stanowił wyzwanie. Wśród parametrów, które trzeba wziąć pod uwagę jest wydajność kontrolera i nośników, skalowalność, sposób udostępniania zgromadzonych danych użytkownikom oraz możliwość współpracy urządzenia z wykorzystywanymi w przedsiębiorstwie aplikacjami. Tymczasem rynek pamięci masowych staje się coraz bardziej nieprzewidywalny. Inwestowanie w rozwiązania dostawców spoza pierwszej dziesiątki okazało się trochę ryzykowne – w ciągu ostatnich kilku lat większość tego typu firm została kupiona przez konkurencję lub innych producentów z branży (taki los podzieliły m.in.: 3par, BlueArc, Brocade, Data Domain, Dot Hill Systems, Isilon, Nimble Storage, SanDisk, Sepaton, SolidFire, sTec, Storwize, Tegile Systems, Texas Memory Systems, Whiptail i XtremIO).
10
Wisienką na torcie było oczywiście przejęcie EMC przez Della w 2015 r. Klienci natomiast często wyrażają obawy, że zniknięcie z rynku producenta rozwiązania, które kupili, może wywołać perturbacje: brak wsparcia, dostępności części zamiennych, aktualizacji oprogramowania etc. Nastroju nie poprawiają im nawet deklaracje, że kupujący będzie honorował umowy utrzymania zawarte przez nabywaną firmę. Zniknięciu ponad 20 ważnych graczy z rynku pamięci masowych w ciągu ostatniej dekady towarzyszą zintensyfikowane prace prowadzone głównie przez producentów kości pamięci nad zmianami sposobu zapisywania danych na nośnikach oraz uzyskiwania dostępu do nich. To rodzi kolejne obawy, że kupione urządzenie po dwóch latach może być przestarzałe, a koszty utrzymania wsparcia technicznego – zbliżyć do wartości nowego rozwiązania. Niestety, wszystko wskazuje na to, że tego typu dylematów
klienci będą mieli wiele. Dlatego rola ich doradców z zakresu IT stała się nie do przecenienia.
1. FLASH BĘDZIE
WSZĘDZIE
O tym, że przyszłość rynku storage związana jest z kośćmi pamięci typu NAND chyba nikogo nie trzeba przekonywać. Powstające z ich wykorzystaniem dyski flash są dziś na tyle tanie, że kupowanie komputera bez SSD nie ma już sensu. Oczywiście opłata za jednostkę pojemności wciąż jest w nich kilkukrotne wyższa niż w przypadku dysków mechanicznych, ale liczba korzyści płynących ze stosowania półprzewodnikowych pamięci do trwałego przechowywania danych jest znacząca. – Technologia produkcji kości pamięci, których zawartość nie ulega utracie po odłączeniu zasilania, cały czas jest rozwijana – prognozuje Wojciech Wróbel, Presales Manager w Fujitsu. – Komórki TLC przechowujące trzy bity informacji, stosowane
VADEMECUM CRN listopad 2018
txt_przechowywanie danych.indd 10
20.11.2018 19:16
są już przez wszystkich dostawców pamięci flash dla przedsiębiorstw. Trwają też intensywne prace nad układami QLC, w których zapisywane będą 4 bity. Standardem stały się też już kości 3D NAND, charakteryzujące się kilkoma nałożonymi na siebie warstwami komórek pamięci. Dzięki temu zdecydowanie wzrosła pojemność pojedynczych dysków SSD. Obecnie producenci macierzy wprowadzają do oferty nośniki o pojemności 30 TB, a więc już dwukrotnie większej niż zapewnia najbardziej pojemny twardy dysk. Natomiast pojawienie się zapowiedzianych przez nich dysków 60 i 120 TB to tylko kwestia czasu. Od kilku lat intensywnie promowane są macierze all-flash (więcej na ten temat w artykule „Nowe życie pamięci flash dzięki NVMe”, str. 22), ale wzrost ich sprzedaży nie jest tak imponujący, jak zakładali to ich producenci. Konieczność zastosowania bardzo wydajnych kontrolerów, szybkich kart sieciowych i – przede wszystkim – wielu dysków z pamięcią flash o wzmocnionej trwałości spowodowała, że ceny tego typu urządzeń nadal wynoszą setki tysięcy złotych. Usprawiedliwia to tylko fakt, że korzyści z ich stosowania jest wiele – mniejszy pobór prądu, oszczędność miejsca w serwerowni i łatwość uzyskania wysokiej wydajności z zastosowaniem mniejszej niż w przypadku HDD liczby nośników. Jednak konieczność poniesienia dużego kosztu na zakup macierzy all-flash robi swoje. Dlatego klienci ostrożnie podchodzą do tych urządzeń. Nie pomagają nawet próby „obudowania” oferty dodatkowymi bonusami. Ostatnio popularne stały się gwarancje, w ramach których producenci zapewniają uzyskanie przez klienta konkretnego współczynnika kompresji i deduplikacji. Z reguły wynosi on 3:1 lub 5:1 (w przypadku, gdy gwarancja nie zostanie dotrzymana, producent zobowiązuje się do dostawy bezpłatnych dysków flash, które zapewnią obiecaną pojemność). Niektórzy producenci gwarantują też teoretycznie bezpłatną wymianę kontrolera macierzy na nowszy model co kilka lat. Teoretycznie, bo gwarancja taka obowiązuje tylko wtedy, gdy klient regularnie korzysta z usług wsparcia, a więc rozliczając się za nie, bierze na siebie koszt wymiany kontrolera. Finalnie efekt jest taki, że przedsiębiorstwa zainteresowane są głównie inwesty-
cjami w macierze hybrydowe. Możliwość zainstalowania w nich dysków SSD i stworzenia tzw. warstwy 0 jest wystarczająca w większości przypadków, gdy konieczne jest zwiększenie wydajności macierzy, a firmy nie stać na rozwiązanie typu all-flash. Rosnącą popularnością cieszą się też karty rozszerzeń PCIe do macierzy, na których zainstalowane są kości pamięci flash, wykorzystywane jako cache odczytu.
wiadająca za bezpieczeństwo danych będzie wykorzystywała pamięć masową jako jeden z elementów do zapewniania ochrony, np. będzie korzystała z kopii migawkowych do odzyskiwania plików i przywracania komputera do pracy po skutecznym zaszyfrowaniu jego dysku w wyniku działania ransomware’u.
3. STORAGE W CHMURACH 2. JESZCZE
LEPSZA OCHRONA DANYCH
W macierze dyskowe standardowo wbudowuje się coraz więcej mechanizmów zapewniających bezpieczeństwo informacji. Do nowych funkcji należy m.in. ochrona nie tylko przed zwykłą utratą danych, ale także przed skutkami ataków cyberprzestępców. Najlepiej z zapewnieniem bezpieczeństwa radzą sobie obecnie wielofunkcyjne serwery NAS takich firm jak QNAP, Synology czy Netgear.
Urządzenie po dwóch latach od kupna może być przestarzałe, a koszty wsparcia technicznego – zbliżyć do wartości nowego rozwiązania. Na bogatej liście działającego w nich software’u znajduje się m.in. oprogramowanie antywirusowe oraz narzędzia umożliwiające backup online do chmury. We wszystkich systemach dyskowych duży wpływ na wyższy poziom ochrony ma zastosowanie pamięci flash jako nośnika danych. Dzięki temu wiele procesów odbywa się szybciej, jak np. odtworzenie struktury RAID, wykonanie kopii migawkowych czy kontrola spójności bloków danych lub systemów plików. Producenci macierzy dyskowych coraz aktywniej współpracują też z dostawcami oprogramowania do backupu i innych narzędzi ochronnych. Już wkrótce można spodziewać się szeregu certyfikowanych pakietów, dzięki którym aplikacja odpo-
Pierwsze próby przechowywania danych w publicznej chmurze (StaaS – Storage as a Service,), do których zapewniony miał być szybki i gwarantowany dostęp, wywoływały tylko uśmiech politowania. Nawet gdy korzystano z oferty usługodawcy, którego siedziba znajdowała się niedalekiej odległości od klienta, czas dostępu do danych wynosił kilkanaście lub kilkadziesiąt milisekund (a więc kilkukrotnie więcej niż w przypadku macierzy dyskowej zainstalowanej lokalnie). Szybkość transferu danych też pozostawiała wiele do życzenia, a poza tym trudno było zagwarantować jego stabilność. Oferta przechowywania danych w chmurze nie cieszyła się dużym zainteresowaniem, klienci czekali, aż wypracowane zostaną nowe modele biznesowe, które usprawiedliwią ten model – zarówno pod względem biznesowym, jak i operacyjnym. Ten czas nadszedł właśnie teraz. Łącza internetowe są znacznie lepszej jakości, mamy też coraz więcej krajowych dostawców usług StaaS, co zapewnia nie tylko szybszy dostęp do danych, ale też gwarantuje zgodność z restrykcyjnym europejskim prawem. Przechowywanie danych w zewnętrznej serwerowni zyskało też sens w sytuacji, gdy dostęp do nich jest niezbędny dla dużej liczby pracowników wykonujących swoje obowiązki poza siedzibą firmy. Wówczas zapewnienie gwarantowanej łączności z zewnętrznym centrum danych jest łatwiejsze niż budowa infrastruktury wysokiej dostępności (z uwzględnieniem podwójnego łącza internetowego, zasilania, klimatyzacji itd.) w lokalnej, firmowej serwerowni. Coraz częściej dochodzi też do sytuacji, że – aby zapewnić sobie gwarancję szybkiego dostępu do danych – firmy chcą mieć możliwość bezpośredniego przesyłania danych między chmurami różnych dostawców, bez pobierania ich do VADEMECUM CRN listopad 2018
txt_przechowywanie danych.indd 11
11
20.11.2018 19:16
SYSTEMY PRZECHOWYWANIA DANYCH
Zdaniem specjalisty Grzegorz Bielawski, Country Manager, QNAP
Jerzy Adamiak konsultant ds. systemów pamięci masowych, Alstor
JERZY ADAMIAK W przypadku pamięci masowych duży sens ma wykorzystanie sztucznej inteligencji. Silniki AI zapewniają nowe sposoby analizy danych – wykorzystywane są przede wszystkim do optymalizacji mechanizmów deduplikacji i kompresji, zwiększania wydajności macierzy dzięki priorytetyzacji zdań w zależności od potrzeb aplikacji, uproszczenia działań administracyjnych i ich automatyzacji oraz zwiększenia poziomu ochrony macierzy i zgromadzonych w niej danych. Algorytmy głębokiego uczenia mogą też pomóc administratorom w podejmowaniu decyzji, które dane mogą trafić do chmury publicznej, a które powinny pozostać na macierzach zgromadzonych w siedzibie firmy.
Maciej Kaczmarek VAR Account Manager, Netgear
lokalnego repozytorium i wysyłania z powrotem. Dostawcy usług zauważyli już tę potrzebę, więc w najbliższym czasie można spodziewać się ich reakcji – współpracy z konkurentami bądź udostępnienia otwartych interfejsów zapewniających transfer danych między chmurami. Taką operację umożliwiają już niektóre aplikacje do backupu i archiwizacji danych w przedsiębiorstwach.
4. SIEĆ
MA ZNACZENIE
Pojawienie się w centrach danych szybkich pamięci flash (których prędkość jeszcze wzrośnie dzięki interfejsowi NVMe i pamięci RAM bazującej na kościach NAND) spowodowało, że nośniki informacji przestały być wąskim gardłem, a stała się nim sieć. Co prawda, istnieje wiele rozwiązań infrastruktury sieciowej, które gwarantują szybki i pozbawiony opóźnień transfer danych, ale nie są one często wykorzystywane w firmach, a już na pewno nie w małych i średnich.
12
GRZEGORZ BIELAWSKI Przeprowadzone przez naszych inżynierów eksperymenty dowiodły, że mechanizm wykonywania kopii migawkowych z powodzeniem może być wykorzystywany do odzyskiwania danych zaszyfrowanych przez ransomware. Wystarczy regularnie wykonywać kopie zapasowe plików z komputerów na serwer NAS, w którym włączona jest funkcja migawek. Po zaobserwowaniu działania ransomware’u, zarażony komputer oraz serwer NAS należy odłączyć od sieci, usunąć z komputera złośliwy kod szyfrujący pliki przy pomocy oprogramowania antywirusowego, a następnie połączyć z serwerem NAS i korzystając z menedżera migawek odzyskać wszystkie pliki.
MACIEJ KACZMAREK Z badań analityków wynika, że ilość danych w firmach rośnie przynajmniej o 10 proc. rocznie, a wyjątkiem nie jest wcale przyrost rzędu 25 proc. Na tak duży wzrost wpływ ma fakt, że przedsiębiorstwa realizują coraz więcej projektów, w których podstawą są cyfrowe dane. Natomiast jeżeli wśród nich znajdą się pliki multimedialne, ilość potrzebnego miejsca na dane nagle rośnie wykładniczo. Przestrzeń w serwerowni, szczególnie w mniejszych firmach, jest ograniczona. Dlatego warto jest rozszerzyć swoje portfolio rozwiązań o macierze, których projektanci zadbali o oszczędność zajmowanego przez nie miejsca.
Wciąż są drogie i dość skomplikowane we wdrożeniu i obsłudze. Wygląda jednak na to, że jeśli klienci potrzebują wydajnej pamięci masowej, będą zmuszeni także do rozbudowy sieci. Jeszcze większym wyzwaniem będzie sytuacja, w której zapotrzebowanie na tę wydajność będzie rosło w czasie. Takim firmom powinno się rekomendować urządzenia uniwersalne, w których można instalować porty sieciowe o różnej prędkości (w tym 40/100 Gb/s), a także aktualizować oprogramowanie, gdy pojawią się nowe protokoły ( jak np. wprowadzany właśnie na rynek NVMe over Fabrics (NVMe-oF).
5. TROSKA O JAKOŚĆ Dziedziną często pomijaną w przypadku pamięci masowych jest tzw. jakość usługi (Quality of Service). Parametr ten porównuje czas, w którym następuje reakcja macierzy na żądanie serwera lub komputera dotyczące dostarczenia danych, z tym, czego oczekują administratorzy. Zdefinio-
wane przez nich szybkości transferu oczywiście będą bardzo różne w zależności od sytuacji. Podczas gdy dla użytkownika nie ma większego znaczenia, czy jego dokument otworzy się lub zapisze w ciągu pół sekundy czy dwóch, tak dla serwera transakcyjnego wydłużenie czasu wykonania operacji z jednej milisekundy do dwóch oznacza utratę połowy wydajności. Większość macierzy umożliwia analizę parametrów QoS i przedstawienie danych w postaci statystycznej. Ale ewentualne dostrojenie systemu, gdy jego wydajność nie jest satysfakcjonująca, należy do administratora i niestety, nie jest to proste zadanie. Dlatego warto zainteresować się macierzami, które mają wbudowany mechanizm Auto QoS. Jest on realizowany przez oprogramowanie w kontrolerze macierzy, które automatycznie priorytetyzuje zadania zapisu i odczytu oraz dobiera z dostępnej puli nośniki o odpowiedniej wydajności. Tak, aby w pierwszej kolejności sprostać zdefiniowanym przez administratora wymogom QoS.
VADEMECUM CRN listopad 2018
txt_przechowywanie danych.indd 12
20.11.2018 19:16
OceanStor macierze dla małych i dużych
Macierze Huawei świetnie sprawdzają się jako repozytorium danych w środowiskach chmur prywatnych i publicznych. Network bazującej na protokole Fibre Channel. Urządzenia zapewniają płynny transfer z przepustowością do 16 lub 32 Gb/s na każdym porcie, dzięki czemu nadają się do budowy nowoczesnego i niezawodnego centrum danych.
MACIERZE
HYBRYDOWE
Na ofertę macierzy hybrydowych Huawei dla przedsiębiorstw składają się zarówno urządzenia dla małych firm, jak i systemy z 16 kontrolerami, mieszczące niemal 10 tys. dysków. Podstawę portfolio macierzy Huawei stanowi rodzina OceanStor 5000 V5. Urządzenia te umożliwiają zapis bloków i plików, są wyposażone w maksymalnie osiem kontrolerów, 4 TB pamięci cache i 1,5 tys. dysków twardych klasy korporacyjnej. Model wyższej klasy – OceanStor 6800 V5 – zapewnia wydajność do 1 mln IOPS, jest wyposażony w maksymalnie osiem kontrolerów, 8 TB pamięci cache i 3,2 tys. dysków. Dla największych przedsiębiorstw Huawei produkuje macierze OceanStor 18000 V5. Bazują one na architekturze SmartMatrix 2.0, są wyposażone w maksymalnie 16 kontrolerów, 16 TB pamięci cache i 9,6 tys. dysków. Producent oferuje też unikalny system do przechowywania danych z monitoringu wizyjnego – macierz OceanStor 2800 V5. Zawiera ona do 96 GB pamięci cache oraz 750 dysków klasy enterprise, dzięki czemu przyjmuje obraz z nawet 1,6 tys. strumieni wideo.
MACIERZE
ALL-FLASH
Także oferta macierzy all-flash Huawei jest bardzo rozbudowana. Urządzenia z rodziny OceanStor Dorado V3 zostały zaprojektowane dla firm wymagających największej wydajności do obsługi m.in. baz danych, środowisk wirtualnych serwerów i desktopów. Wybrane modele umożliwiają zainstalowanie najszybszych obecnie nośników pamięci flash bazujących na protokole NVMe. W macierzach Dorado V3 można zainstalować aż 16 kontrolerów, co zapewni wydajność nawet rzędu 7 mln IOPS (to obecnie najwydajniejsza macierz na świecie). Zastosowana architektura FlashLink gwarantuje znaczne skrócenie czasu reakcji macierzy – nie przekracza on 0,5 ms. Uruchamiane w macierzowych kontrolerach oprogramowanie obsługuje deduplikację i liniową kompresję, co zapewnia redukcję objętości zapisanych danych w proporcji minimum 3:1. Wybrane modele (5000, 6800 i 18000) hybrydowych macierzy z rodziny OceanStor V5 także oferowane są w wersji all-flash (oznaczone są literą F, np. OceanStor 6800F V5). Mają takie same funkcje jak macierze hybrydowe, wyposażone również w napędy mechaniczne, ale dzięki zastosowaniu wyłącznie dysków flash znacznie zwiększono ich wydajność. Macierze dyskowe Huawei oraz wszystkie pozostałe rozwiązania dla przedsiębiorstw tego producenta, dostępne są w dystrybucyjnej ofercie Veracompu.
Dodatkowe informacje: MICHAŁ WIELGUS, PRODUCT MANAGER, VERACOMP, MICHAL.WIELGUS@VERACOMP.PL VADEMECUM CRN listopad 2018
adv Veracomp Huawei.indd 13
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMAMI HUAWEI I VERACOMP.
P
ortfolio pamięci masowych firmy Huawei zawiera wiele modeli zróżnicowanych pod kątem wydajności, pojemności, skalowalności i funkcjonalności. Dzięki temu klienci mogą dobrać właściwą macierz do środowiska IT każdej wielkości, a także do specjalistycznych zadań takich jak Big Data czy wysoko wydajne przetwarzanie (HPC) oraz wykorzystania w wielu gałęziach przemysłu i w ochronie zdrowia. We wszystkich modelach pamięci masowych Huawei można stosować dyski z pamięcią flash, co daje wzrost wydajności macierzy o kilka rzędów wielkości w porównaniu z zapewnianą przez urządzenia z dyskami mechanicznymi. Producent dba, aby wszystkie oferowane przez niego urządzenia – jeśli tylko jest to możliwe – były uniwersalne, zapewniały dostęp blokowy i plikowy (SAN i NAS) oraz ochronę zgromadzonych danych w postaci migawek (snapshot). Dzięki temu sprawdzają się w dwóch najpopularniejszych obecnie zastosowaniach macierzy dyskowych w przedsiębiorstwach – do przechowywania baz danych oraz środowisk wirtualizacyjnych. W ofercie Huawei znajduje się również oprogramowanie OceanStor DJ umożliwiające zarządzanie środowiskiem pamięci masowych i usługami świadczonymi z ich użyciem. Jedną z funkcji tego systemu jest konsolidacja zasobów pamięci masowych Huawei (wirtualizacja), a następnie przydzielanie ich serwerom aplikacyjnym zgodnie ze zdefiniowanymi przez administratora wymogami dotyczącymi wydajności. Huawei ma w asortymencie także dziesięć różnych modeli przełączników z rodziny OceanStor SNS służących do budowy infrastruktury sieci Storage Area
13
20.11.2018 11:58
SYSTEMY PRZECHOWYWANIA DANYCH
Bezpieczne przechowywanie danych
z Fujitsu Rozwiązania Fujitsu z rodziny ETERNUS CS zapewniają ochronę danych na różne sposoby. Producent wprowadził ostatnio do oferty system CS8050, który opracowany został w dwóch wersjach – do backupu oraz do archiwizacji danych. że można je przetrzymywać poza siedzibą firmy, co zapewnia ich ochronę i odtworzenie w przypadku katastrofy, np. pożaru, zalania lub zawalenia się budynku. Nie zostaną też zaszyfrowane w przypadku ataku ransomware. Oprogramowanie CS8050 VTL zapewnia stworzenie 32 wirtualnych napędów taśmowych oraz zarządzanie wirtualnymi (do 20 tys.) oraz fizycznymi (do 500) taśmami. Możliwa jest także asynchroniczna replikacja danych do innego urządzenia z rodziny ETERNUS CS8050 (dodatkowa ochrona dla danych przechowywanych w siedzibie firmy) lub ETERNUS CS8000 w celu centralnego przechowywania danych z oddziałów. Informacje przed przesłaniem są kompresowane, aby przyspieszyć ich transfer. Aby móc korzystać z replikacji nie trzeba kupować dodatkowych licencji.
ARCHIWIZACJA BACKUP
NA WIRTUALNĄ TAŚMĘ
System ETERNUS CS8050, dostarczony klientowi w wersji wirtualnej biblioteki taśmowej, zapewnia nawet 14 TB przestrzeni dyskowej na dane, które będą podlegały backupowi. Urządzenie przyjmuje dane z maksymalną prędkością 1,4 TB/godz. przez cztery porty Fibre Channel 32 Gb/s. CS8050 VTL zapewnia także backup w modelu dysk-dysk-taśma dzięki możliwości podłączenia do niego ośmiu fizycznych napędów taśmowych LTO Ultrium (generacje od 3. do 8.) oraz jednej biblioteki. Obsługiwanych jest kilkadziesiąt urządzeń firm Fujitsu, IBM, Oracle/StorageTek, Quantum/ADIC i Spectra Logic. Przechowywanie danych na zewnętrznych nośnikach ma tę zaletę,
14
Wojciech Wróbel Presales Manager, Fujitsu
System ETERNUS CS8050 został zaprojektowany z myślą o mniejszych firmach lub oddziałach dużych przedsiębiorstw, które są obsługiwane przez integratorów oraz resellerów z wartością dodaną. Mimo ograniczonej skalowalności, zapewnia wszystkie funkcje systemu CS8000, który przeznaczony jest dla największych przedsiębiorstw i nieustannie rozwijany już przez prawie 20 lat. Naszą przewagę zwiększa też fakt, że jako jedna z nielicznych firm na rynku zapewniamy klientom możliwość zgłaszania uwag bezpośrednio do działu deweloperskiego. Większość tych uwag jest uwzględniana podczas tworzenia kolejnych wersji oprogramowania.
W NAS-IE
Urządzenie ETERNUS CS8050 NAS przeznaczone jest do pracy jako serwer plików do długoterminowej archiwizacji danych. Produkowane są wersje o pojemności 28, 42, 56 i 70 TB, z dwoma lub czterema portami sieciowymi Ethernet 1 lub 10 Gb/s, umożliwiają przechowywanie 200 mln plików w 256 woluminach NAS. Dane mogą być przesyłane z wykorzystaniem protokołów NFS lub CIFS. Dzięki funkcji kopii migawkowej (snapshot) zapewniona jest archiwizacja także poprzednich wersji zapisanych plików oraz replikacja danych do innej macierzy działającej w modelu NAS, bez obciążania łączy transferem „pełnych” danych. W serwerze CS8050 NAS wdrożono funkcję Soft WORM (Write Once, Read Many), która gwarantuje, że przez określo-
ny czas nie da się edytować ani skasować wskazanych plików, folderów lub całych woluminów - ich czas retencji może być zaprogramowany nawet na 200 lat. Dzięki temu firmy i instytucje, które muszą spełniać określone wymogi prawne związane z długotrwałą archiwizacją, mogą działać zgodnie z przepisami, nie ponosząc znaczących dodatkowych wydatków na organizację i funkcjonowanie archiwum.
Dodatkowe informacje: WOJCIECH WRÓBEL, PRESALES MANAGER, FUJITSU, WOJCIECH.WROBEL@TS.FUJITSU.COM
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ FUJITSU.
N
ajnowsze rozwiązanie Fujitsu ETERNUS CS8050 może funkcjonować jako wirtualna biblioteka taśmowa (VTL) oraz serwer plików (NAS). Wersje różnią się preinstalowanym oprogramowaniem zarządzającym. System przeznaczony jest dla firm średniej wielkości lub oddziałów dużych przedsiębiorstw, które korzystają z fizycznej i wirtualnej infrastruktury IT. Bazuje na znajdującej się w ofercie Fujitsu od wielu lat platformie ETERNUS CS8000, sprawdzonej w wielu centrach danych we współpracy z najpopularniejszymi na rynku pakietami do backupu i archiwizacji, m.in. firm Atempo, Commvault, Dell EMC, IBM, Micro Focus, Veeam i Veritas.
VADEMECUM CRN listopad 2018
adv Fujitsu.indd 14
20.11.2018 19:01
Agent Veeam dla okienek Oferta firmy Veeam nie ogranicza się tylko do narzędzi zabezpieczających środowiska wirtualne. Już od paru lat producent zapewnia także oprogramowanie do ochrony danych przechowywanych na serwerach i w komputerach osobistych.
Nowości w wersji Veeam Agent dla Microsoft Windows 2.2
VADEMECUM CRN listopad 2018
adv Veracomp Veeam.indd 15
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMAMI VEEAM I VERACOMP.
P
ortfolio firmy Veeam zoJedną z ciekawszych stało rozszerzone z uwafunkcji tego oprogragi na fakt, że – z powodu mowania jest ochrona skomplikowanej sytuacji licenurządzeń USB przed rancyjnej, wymogów prawnych • Współpraca z najnowszymi wersjami oprogramowania Microsoft somware’em szyfrują• Scentralizowane wdrażanie agentów Veeam i zarządzanie nimi lub ograniczeń sprzętowych cym pliki. Po wykonaniu (wymagane rozwiązanie Veeam Backup & Replication) – niektórych fizycznych serwekopii danych na pendri• Kopie zapasowe w usłudze Microsoft OneDrive rów i stacji roboczych nie możve’a lub przenośny dysk • Funkcja wykonywania kopii tylko zmienionych bloków danych na poddać wirtualizacji. Rośnie nośnik ten jest logicznie więc ryzyko utraty przechowyodłączany od systemu operacyjnego, dzięki czewanych na nich danych lub dostępu do nich w wyniku awarii sprzętu, w systemie Windows. Ważna dla nich jest mu oprogramowanie typu cryptolocker błędów logicznych na twardym dysku lub też możliwość integracji obu rodzajów śro- nie może zakodować zapisanych właśnie dowisk – lokalnego i chmurowego. plików. W nowej wersji oprogramowania zaszyfrowania przez ransomware. Dlatego powstało oprogramowanie Z tego względu Veeam Agent dla Micro- wprowadzono także możliwość zabezVeeam Agent dla Microsoft Windows soft Windows zapewnia tworzenie back- pieczania danych z urządzeń mobilnych – prosty agent kopii zapasowych, które- upu z wykorzystaniem funkcji Veeam i komputerów przenośnych. W przypadgo zadaniem jest zabezpieczanie plików ze Cloud Connect, czyli umieszczanie ko- ku braku połączenia z internetem kopia stacji roboczych, fizycznych oraz działają- pii zapasowych w chmurze zewnętrzne- zapasowa tworzona jest w lokalnej pamięcych w chmurze serwerów, a także urzą- go usługodawcy korzystającego z narzędzi ci podręcznej, a gdy zostanie ono odzydzeń końcowych użytkowników łączących Veeam. Nowością w tym oprogramowa- skane, następuje synchronizacja danych się zdalnie z firmową infrastrukturą. niu jest funkcja Veeam Restore to Micro- z centralnym repozytorium backupu. Oprogramowanie firmy Veeam znajduje W oprogramowaniu wykorzystano ten soft Azure, która zapewnia przywracanie sam sprawdzony mechanizm zarządza- lub przenoszenie systemów operacyjnych się w dystrybucyjnej ofercie Veracompu. nia zabezpieczanymi danymi, jaki stoso- i danych z lokalnych serwerów fizycznych wany jest w rozwiązaniu Veeam Backup i urządzeń końcowych z systemem Win& Replication (działanie obu narzędzi dows bezpośrednio na platformę Micromożna zintegrować w przypadku, gdy soft Azure. Wszystkie dane przesyłane do Veeam Backup & Replication działa w śro- chmury są szyfrowane jeszcze przed transdowisku wirtualnym VMware vSphere misją, bez jakiegokolwiek negatywnego lub Microsoft Hyper-V). Po wykonaniu wpływu na operacje backupu. Veeam udostępnia darmową wersję pierwszej pełnej kopii zapasowej Veeam próbną (na trzy miesiące, bez ograniAgent dla Microsoft Windows tworzy ko- OCHRONA DLA WSZYSTKICH czeń funkcjonalnych) oprogramowania pie przyrostowe i umieszcza w nich tylko PRACOWNIKÓW Veeam Agent dla Microsoft Windows nowe bloki danych oraz bloki zmienio- Veeam Agent dla Microsoft Windows znaoraz całkowicie bezpłatny pakiet ne od czasu utworzenia ostatniej kopii. komicie nadaje się do ochrony komputeVeeam Backup Free Edition Dzięki temu kopie zapasowe są tworzone rów, niezależnie od tego, czy pracownicy do backupu komputerów. szybko i zajmują minimalną ilość miejsca znajdują się w biurze, w domu, czy w trasie. Jednak dbanie o łączność z urządzeniami w pamięci masowej. użytkowników pozostających poza siecią firmową bywa poważnym problemem, któKOPIE ZAPASOWE W CHMURZE Chociaż coraz więcej firm przechowuje ry naraża na niebezpieczeństwo bezcenswoje dane w chmurach publicznych, ta- ne firmowe dane — zwłaszcza jeśli pomoc Dodatkowe informacje: kich jak Microsoft Azure czy Amazon Web administratorów nie jest dostępna od ręki. BARTOSZ NIEZABITOWSKI, PRODUCT MANAGER, Services, wciąż potrzebują korzystać z na- Veeam Agent dla Microsoft Windows poVERACOMP, BARTOSZ.NIEZABITOWSKI@VERACOMP.PL rzędzi do backupu i odzyskiwania danych maga także w takiej sytuacji.
15
20.11.2018 12:45
SYSTEMY PRZECHOWYWANIA DANYCH
Macierze dyskowe Lenovo i NetApp We wrześniu br. Lenovo i NetApp ogłosiły y rozpoczęcie globalnej strategicznej współpracy dotyczącej systemów pamięci masowych. e Jednocześnie zaprezentowano nowe macierze dyskowe w ofercie Lenovo, w których we NetApp. wykorzystane jest oprogramowanie systemowe
W
spółpraca Lenovo z firmą NetApp zaowocowała pojawieniem się dwóch typów nowych macierzy – hybrydowych (umożliwiających instalację dysków HDD i SSD) oraz w wersji all-flash. Zapewniają dużą wydajność oraz integralność danych przechowywanych w środowisku lokalnym i w chmurze oraz ich bezpieczeństwo. Urządzenia są wytwarzane we wszystkich regionalnych centrach produkcyjnych Lenovo, co gwarantuje elastyczność łańcucha dostaw. Nowe macierze dyskowe Lenovo podzielono na dwie rodziny – ThinkSystem DE i DM (w każdej są trzy modele hybrydowe i dwa all-flash). Urządzenia wyposażono w rozbudowane oprogramowanie
zarządzające oraz pakiet Lenovo XClarity Administrator, który upraszcza ich wdrożenie w infrastrukturze centrum danych przedsiębiorstwa i zintegrowanie z innymi rozwiązaniami Lenovo. Macierze z rodziny DE zapewniają zapis wyłącznie blokowy, z bardzo dużą wydajnością. Natomiast modele DM umożliwiają także zapis plików i charakteryzują się większą skalowalnością oraz zaawansowanymi funkcjami w zakresie optymalizacji składowania danych i niezawodności dostępu do danych.
WYDAJNIE I BEZPIECZNIE Macierze z rodziny ThinkSystem DE charakteryzuje wyjątkowa wydajność. Model all-flash DE4000F zapewnia 300
tys. operacji wejścia-wyjścia na sekundę (IOPS) i przepustowość 10 GB/s, natomiast model DE6000F – odpowiednio 1 mln IOPS i 21 Gb/s. Urządzenia są przeznaczone do pracy z aplikacjami przetwarzającymi duże zbiory danych, systemami wideonadzoru i rozwiązaniami IoT. Dzięki w pełni redundantnym ścieżkom I/O, zaawansowanym funkcjom ochrony i rozbudowanym rozwiązaniom diagnostycznym zapewniają dostępność danych na poziomie 99,9999 proc. W poszczególnych modelach macierzy DE zastosowano różne kontrolery, w efekcie różnią się wydajnością, ilością pamięci cache oraz liczbą dysków, które można udostępnić w sieci SAN. Do podstawowego urządzenia z kontrolerem
Macierze dyskowe Lenovo ThinkSystem DE2000H
DE4000H
Maks. pojemność (PB)
Porty I/O
DM3000H
DM5000H
DM7000H
DM5000F
DM7000F
blokowy (SAN) / plikowy (NAS)
192 HDD lub 120 SSD
240 HDD lub 120 SSD
96 SSD
120 SSD
144 HDD lub 144 SSD
144 HDD lub 144 SSD
480 HDD lub 480 SSD
144 SSD
384 SSD
0,57
2,3
2,88
1,47
1,84
1,4
1,2
4,8
2
5,9
brak
6 macierzy w modelu SAN lub 12 w NAS
16
16
32
FC 16 Gb iSCSI 10 Gb SAS 12 Gb
FC 16/32 Gb iSCSI 10/25 Gb SAS 12 Gb
FC 32 Gb, iSCSI 10/25 Gb SAS 12 Gb
System operacyjny
16
DE6000F
96 HDD lub 96 SSD
Skalowalność scale-out Pamięć cache (GB)
DE4000F
blokowy (SAN)
Format zapisu Maks. liczba dysków (razem z półkami dyskowymi)
DE6000H
ThinkSystem System Manager
16
128
FC 16/32 Gb iSCSI 10/25 Gb SAS 12 Gb
64
64
256
FC 8/16 Gb iSCSI 10 Gb SAS 12 Gb
64
256
FC 16/32 Gb iSCSI 10/40 Gb SAS 6/12 Gb NetApp ONTAP
VADEMECUM CRN listopad 2018
Vad_04_18_adv_Lenovo.indd 16
20.11.2018 11:56
ELASTYCZNOŚĆ I SKALOWALNOŚĆ
Wyróżnikiem macierzy z rodziny ThinkSystem DM jest wyjątkowa elastyczność konfiguracji i skalowalność. Mogą być wykorzystywane na dwa sposoby – jako zasób dla serwerów w sieci Storage Area Network lub serwery plików Network Attached Storage. Dzięki zastosowaniu modelu scale-out (tzw. skalowania horyzontalnego) producent ułatwił zwiększenie wydajności środowiska pamięci masowych budowanego z wykorzystaniem systemów DM. Można połączyć nawet sześć urządzeń (hybrydowych i all-flash) w trybie SAN oraz 12 w trybie NAS i uzyskać w ten sposób łączną pojemność odpowiednio – 35 lub 70 PB. Wszystkie macierze ThinkSystem DM są wyposażone w system operacyjny NetApp ONTAP, który gwarantuje bezpieczeństwo i wysoką dostępność danych, oczekiwaną w środowiskach klasy enterprise. Zastosowano w nich najnowsze rozwiązania, m.in. karty sieciowe z por-
>>> Trzy pytania do… Skąd pomysł na współpracę z firmą NetApp? Nasza dotychczasowa oferta pamięci masowych nie zawierała macierzy, które zapewniałyby dostęp plikowy, możliwy był tylko blokowy dostęp do danych, co ograniczało zastosowanie tych urządzeń głównie do baz danych i środowisk wirtualizacyjnych. To był poważny problem utrudniający realizację wielu projektów i wygrywanie przetargów. Eksperymentowaliśmy trochę z oprogramowaniem typu software defined storage, ale dostrzegliśmy, że klienci rzadko inwestują w taki model tworzenia środowiska pamięci masowych, częściej decydują się na rozwiązania hiperkonwergentne. Dlatego, chcąc utrzymać ofertę klasycznych macierzy dyskowych, zdecydowaliśmy się na współpracę z NetAppem, który dostarcza oprogramowanie macierzowe dołączane do produkowanych przez nas urządzeń. W jakim modelu biznesowym rozwiązania te będą wprowadzane na rynek? Nowe macierze będą oferowane pod marką Lenovo, chociaż nie ukrywamy oczywiście, że bazują na rozwijanym od lat i sprawdzonym oprogramowaniu fir-
tami Ethernet 40Gb oraz Fibre Channel 32Gb, a także protokół NVMe over Fibre Channel, dzięki czemu zagwarantowano minimalizację opóźnień i maksymalizację wydajności macierzy. Połączone w klaster urządzenia DM7000F w testach przetwarzały dane z prędkością nawet 4 mln IOPS. Modele ThinkSystem DM oferowane są wraz z pakietem oprogramowania o bardzo bogatej funkcjonalności. Zapewnia ono m.in. kompresję danych przeprowadzaną bez znacznego wpływu na wydajność macierzy, deduplikację oraz inteligentne kompaktowanie danych, polegające na układaniu ich w blokach w taki sposób, aby jak najefektywniej wykorzystać przestrzeń dyskową. W efekcie można uzyskać nawet pięciokrotną redukcję objętości danych zapisywanych na nośnikach.
Jakuba Roguskiego, Senior Sales Engineera, BI & Infrastructure, Lenovo Data Center Group
my NetApp. Zresztą porozumienie zostało podpisane niedawno i stanowi, że zakres współpracy między naszymi firmami będzie rozszerzany. Zyskamy m.in. prawo do odsprzedaży największych systemów storage firmy NetApp, jakich Lenovo w ogóle nie ma w ofercie. Pewne jest natomiast, że wszystkie produkty pod marką Lenovo będą rozprowadzane wyłącznie przez nasz kanał dystrybucyjny i certyfikowanych partnerów, a my bierzemy pełną odpowiedzialność za pomoc techniczną dotyczącą tych produktów. Czy zatem obecni partnerzy Lenovo muszą spełniać jakieś konkretne wymogi, aby sprzedawać nowe macierze? Nie prowadzimy certyfikacji dotyczącej wyłącznie systemów pamięci masowych. Nasi partnerzy, którzy chcą uzyskać status wyższy od podstawowego, muszą co roku zdawać egzaminy ze znajomości wszystkich rozwiązań w ofercie Lenovo. W tej chwili pracujemy nad wprowadzeniem do treści szkoleń wiedzy o nowych macierzach, więc pytania z nimi związane pojawią się już w najbliższym cyklu egzaminów.
Synchroniczną replikację zapewnia dołączone do macierzy oprogramowanie MetroCluster. Gwarantuje ono, że w przypadku awarii nastąpi bardzo szybkie przełączenie na macierz zapasową, a ryzyko utraty danych jest sprowadzone praktycznie do zera. Autoryzowanymi dystrybutorami rozwiązań Lenovo w Polsce są firmy: AB, Arrow ECS, Ingram Micro i Tech Data.
Dodatkowe informacje: JAKUB ROGUSKI, SENIOR SALES ENGINEER, BI & INFRASTRUCTURE, LENOVO DATA CENTER GROUP, JROGUSKI@LENOVO.COM VADEMECUM CRN listopad 2018
Vad_04_18_adv_Lenovo.indd 17
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ LENOVO.
można podłączać kolejne półki dyskowe, zwiększając tym samym pojemność całego systemu. Dzięki wbudowanej funkcji Dynamic Drive Pool zdecydowanie uproszczono zarządzanie przestrzenią dyskową w macierzy oraz łączenie dysków w strukturę RAID. W przypadku awarii któregoś z nośników zapasowy napęd jest automatycznie podłączany do puli RAID. Znacznie przyspieszono także proces odbudowywania struktury macierzy, gdy jeden z dysków odmówi posłuszeństwa. Ochrona danych w macierzach ThinkSystem DE jest zapewniana dzięki mechanizmowi odpowiadającemu za tworzenie kopii migawkowych (snapshot) oraz kopie całych woluminów. Urządzenia mają również funkcję wykonywania asynchronicznych i synchronicznych (tylko modele DE6000H/DE6000F) kopii lustrzanych całej macierzy. Dodatkowe oprogramowanie umożliwia szyfrowanie danych na dyskach i zarządzanie kluczami kodującymi. Wszystkie wymienione funkcje zapewniono dzięki opracowanym przez NetApp mechanizmom, które zostały zaimplementowane w oprogramowaniu macierzowym stworzonym przez Lenovo.
17
20.11.2018 11:56
SYSTEMY PRZECHOWYWANIA DANYCH
Wiele danych w małym urządzeniu Netgear zadbał o to, aby w serwerach NAS zwiększyć gęstość upakowania informacji. W związku z tym wprowadził do oferty pojemne macierze dyskowe, dzięki którym przedsiębiorstwa mogą zaoszczędzić miejsce w serwerowni.
W
małych i średnich firmach jednym z największych problemów związanych z IT jest niewystarczająca ilość miejsca na urządzenia IT. Często brakuje wręcz wydzielonego pomieszczenia na serwerownię. Dlatego administratorzy doceniają każdą inicjatywę prowadzącą do oszczędności miejsca. W odpowiedzi na pojawiającą się potrzebę Netgear wprowadził do oferty serwer ReadyNAS 2312, który jest pierwszym urządzeniem NAS umożliwiającym instalację 12 dysków 3,5” w obudowie o wysokości 1U (zwykle w tego typu urządzeniach mieszczą się tylko cztery dyski). Maksymalna pojemność serwera wynosi aktualnie 144 TB. Z kolei dla firm, które potrzebują znacznie większej przestrzeni dyskowej Netgear stworzył serwer ReadyNAS 4360X. To macierz dyskowa w obudowie rack o wysokości 4U, przystosowana
do instalacji aż 60 dysków 3,5-calowych. Dzięki temu maksymalna łączna pojemność macierzy wyniesie 720 TB (przy zastosowaniu nośników 12 TB), a po dołączeniu dwóch modułów rozszerzających EDA4000 – aż 1,32 PB.
OCHRONA NA RÓŻNE SPOSOBY
Netgear zapewnia kilka mechanizmów wykonywania backupu, które są bardzo proste w konfiguracji, dzięki czemu poradzi sobie z tym nawet początkujący administrator. Dołączone do macierzy oprogramowanie do backupu oraz wbudowana funkcja migawek (snapshot) sprawiają, że bardzo łatwo odzyskać wszystkie pliki zaszyfrowane na komputerach użytkowników przez ransomware. Kopie migawkowe przechowywane są w wydzielonej logicznie przestrzeni dyskowej serwera, w której nie można dokonywać zmian z poziomu systemu plików.
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ NETGEAR.
5-stopniowa ochrona danych w serwerach Netgear ReadyNAS • Nielimitowana liczba kopii migawkowych – elastyczność w tworzeniu reguł polityki wykonywania backupu. • Wykorzystanie koncepcji prywatnej i publicznej chmury – dane łatwo udostępnić użytkownikom znajdującym się poza firmą z zainstalowanego w niej serwera (chmura prywatna), mogą też być kopiowane w celu zabezpieczenia lub dalszego udostępniania w usługach chmury publicznej. • Mechanizmy XRAID oraz Instant Provisioning – gwarancja bezproblemowego zwiększania pojemności macierzy, z zachowaniem pełnego bezpieczeństwa danych. • Ochrona przed entropijnym zanikiem danych (BitRot) – zabezpieczenie przed tzw. odwróconym bitem, który może spowodować trwałe uszkodzenie pliku. • Wbudowany antywirus – ochrona w czasie rzeczywistym przed złośliwym oprogramowaniem.
18
Siłą rzeczy nie będzie tego w stanie zrobić także złośliwy kod ransomware. Urządzenia ReadyNAS mają również funkcję tworzenia hybrydowej kopii zapasowej. Zgromadzone dane mogą być przesyłane na inny serwer oraz do chmury. Producent zapewnił zgodność z szeregiem usług chmurowych, m.in. Amazon, Dysk Google, Dropbox, OneDrive oraz Azure. Przyznanie przez VMware wszystkim modelom serwerów ReadyNAS w obudowie rack certyfikatu dowodzi, że gwarantują bezpieczne przechowywanie i wydajne przetwarzanie danych. Potwierdza on zgodność tych urządzeń z oprogramowaniem wirtualizującym VMware vSphere ESXi 6.0 oraz zapewnianą przez nie wydajność obsługi maszyn wirtualnych w przypadku dużego obciążenia serwera. Współpracę ze środowiskiem wirtualnym ułatwia także możliwość przechowywania nieograniczonej liczby kopii migawkowych, funkcja thin provisioning i efektywna obsługa protokołu iSCSI. Serwery Netgear ReadyNAS są objęte 5-letnią gwarancją producenta, zapewniona jest też ich wymiana w trybie NBD. Klienci mogą skorzystać z wielu form pomocy technicznej podczas instalacji i konfiguracji urządzeń, np. świadczonej telefonicznie oraz za pośrednictwem czatu prowadzonego na stronie producenta w języku polskim. Natomiast na profilu firmy w serwisie YouTube zamieszczono liczne filmy instruktażowe. Autoryzowanymi dystrybutorami firmy Netgear w Polsce są: AB, ABC Data, Action i Veracomp.
California USA
Dodatkowe informacje: MACIEJ KACZMAREK, VAR ACCOUNT MANAGER, NETGEAR, MACIEJ.KACZMAREK@NETGEAR.COM
VADEMECUM CRN listopad 2018
adv netgear.indd 18
20.11.2018 11:48
Jedna chmura nie zawsze wystarczy
P
olskie przedsiębiorstwa w coraz większym stopniu korzystają z usług informatycznych w chmurze publicznej. Jest to atrakcyjne kosztowo, zapewnia elastyczność i szybkość uruchamiania nowych usług, co przekłada się na coraz większe zainteresowanie ofertą usługodawców. Ale z drugiej strony chęć skorzystania z zasobów chmurowych rodzi wiele pytań. Gdzie będą przechowywane firmowe dane? Czy będą bezpieczne? Co stanie się z nimi, gdy dostawca usług w chmurze zakończy działalność lub firma przestanie korzystać z chmury? Czy można łatwo zmienić dostawcę usług w chmurze? Klientom, którzy podczas negocjacji z integratorami podnoszą te kwestie, warto przedstawić założenia strategii wielochmurowej (multi-cloud). Według niej tam, gdzie to możliwe, należy korzystać z zasobów więcej niż jednego dostawcy dla danej usługi. Przykładem może być długoterminowe przechowywanie archiwów, związane z koniecznością posiadania minimum dwóch kopii danych.
W FIRMIE I W CHMURZE Zapis danych w chmurze dostawcy zwykle jest darmowy, a klient z reguły płaci za zajętą przestrzeń oraz przesyłanie danych poza główne miejsce składowania. Niestety, koszt transferu danych między dostawcami usług chmurowych jest obecnie bardzo wysoki, co niejednokrotnie stanowi barierę wejścia do chmury. Veritas Technologies pomaga częściowo rozwiązać ten problem dzięki rozwiązaniu Access, za pomocą którego umożliwia zbudowanie platformy długoterminowego archiwum z optymalnym pod względem kosztowym wykorzystaniem zasobów wielu dostawców chmurowych. Jest to system typu Scale-Out NAS, stworzony zgodnie z koncepcją Software Defined Storage.
Bartosz Niezabitowski Product Manager, Veracomp
Chmura stała się kolejnym miejscem przetwarzania danych, o którym trzeba pamiętać w kontekście wszystkich aspektów zapewnienia im bezpieczeństwa. Veracomp wspólnie z firmą Veritas Technologies pomaga integratorom w stworzeniu oferty dla przedsiębiorstw, która ułatwi korzystanie z usług w chmurze oraz zastosowanie modelu multi-cloud. Dostają oni do dyspozycji szereg zintegrowanych narzędzi zapewniających skuteczne zarządzanie danymi oraz przywracanie dostępu do nich w przypadku awarii.
Kolejnym przykładem jest wykorzystanie zasobów obliczeniowych chmury przez aplikacje biznesowe, działające w środowisku zwirtualizowanym. Veritas Technologies umożliwia stworzenie optymalnego planu awaryjnego dla firm korzystających zarówno z zasobów lokalnych, jak i z zasobów różnych dostawców chmurowych. Rozwiązanie Veritas Resiliency Platform w pełni automatyzuje proces zabezpieczania danych z aplikacji biznesowych i przełączania pomiędzy środowiskami lokalnymi i/lub chmurowymi w przypadku awarii i braku dostępu do nich.
OCHRONA TAKŻE DLA
i w plikach PST oraz jak wycofać się z usługi, ponosząc jak najmniejsze koszty przesłania danych. Często rozważaną kwestią jest też dostęp do archiwalnych wiadomości oraz możliwości przeszukiwania archiwum w przypadku rezygnacji z usługi chmurowej. Veritas ma gotową odpowiedź na to wyzwanie. Rozwiązanie do archiwizacji poczty elektronicznej Veritas Enterprise Vault zapewnia przeniesienie danych z serwerów pocztowych oraz plików PST do archiwum z zachowaniem dostępu użytkowników do elementów ze skrzynki pocztowej. Gdy przedsiębiorstwo już korzysta z usługi w chmurze, Enterprise Vault zapewnia ciągłe przekierowywanie ruchu pocztowego do archiwum, które może znajdować się w serwerowni firmy lub w chmurze innego dostawcy. Gdy klient przestanie korzystać z usług chmury jednego usługodawcy, może uniknąć kosztownego oraz czasochłonnego przesyłania danych, ponieważ cały czas zachowuje dostęp do wszystkich wiadomości w archiwum. Veritas Technologies ma w ofercie także narzędzia do przeszukiwania i klasyfikacji danych znajdujących się w poczcie elektronicznej i załącznikach, co umożliwia przedsiębiorstwom automatyzację wielu procesów związanych z zarządzaniem danymi. Oprogramowanie Veritas Technologies dostępne jest w dystrybucyjnej ofercie Veracompu.
POCZTY
Najpopularniejszą usługą w chmurze jest poczta elektroniczna. Rozpoczęcie korzystania z niej jest łatwe, ale taki projekt migracji do chmury stwarza wiele wyzwań. Administratorzy często zastanawiają się, co zrobić z dotychczasową pocztą przechowywaną na serwerach pocztowych
Dodatkowe informacje: LEONID VENGLINSKI, SYSTEM ENGINEER, VERITAS TECHNOLOGIES, LEONID.VENGLINSKI@VERITAS.COM BARTOSZ NIEZABITOWSKI, PRODUCT MANAGER, VERACOMP, BARTOSZ.NIEZABITOWSKI@VERACOMP.PL VADEMECUM CRN listopad 2018
Vad_04_18_adv Veracomp Veritas.indd 19
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMAMI VERITAS I VERACOMP.
Veritas Technologies nieustannie wzbogaca portfolio produktów i usług, które ułatwiają zarządzanie danymi średnich i dużych firm przechowywanymi w jednej lub wielu chmurach obliczeniowych.
19
21.11.2018 10:35
SYSTEMY PRZECHOWYWANIA DANYCH
Najskuteczniejsza jest zbalansowana ochrona Oczekiwania dotyczące funkcjonalności oprogramowania zabezpieczającego dane często stoją w sprzeczności z poziomem zapewnianej przez nie ochrony. Kompromisowe rozwiązanie problemu przedstawiła firma Acronis.
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ ACRONIS.
J
eszcze nigdy w cyfrowym świecie dane nie były wystawione na tak wiele zagrożeń. Największe nadal stanowią ludzie – badania dowodzą, że w 62 proc. przypadków utrata informacji ma miejsce z powodu ludzkiego błędu. Ale ich przyczyną często są też awarie sprzętu, zaszyfrowanie przez ransomware czy kradzież lub zgubienie urządzenia przenośnego. Ochrona przed wszystkimi zagrożeniami stała się bardzo trudna, a zwykła zapasowa kopia danych zdecydowanie przestała wystarczać. Acronis przez ostatnie lata przeprowadził wiele rozmów z użytkownikami środowisk IT. Na ich podstawie zdefiniował pięć obszarów, wokół których powinny być podejmowane działania ochronne. Zbudowane w ten sposób środowisko określone zostało skrótem SAPAS: – Safety (ochrona) – gwarancja wykonania zawsze dostępnej kopii zapasowej, – Accessibility (dostępność) – łatwy dostęp do danych z dowolnego miejsca i w dowolnym czasie, – Privacy (prywatność) – zablokowanie możliwości uzyskania nieuprawnionego dostępu do danych, – Authenticity (autentyczność) – możliwość łatwego udowodnienia, że wykonana kopia jest w 100 proc. wierna oryginałowi, – Security (bezpieczeństwo) – zabezpieczenie przed zagrożeniami zewnętrznymi i złośliwym kodem. – Tylko właściwe podejście do wszystkich tych obszarów zapewni firmie pełną cyberochronę – podkreśla Artur Cyganek, dyrektor polskiego oddziału Acronis. – Ale łatwo nie jest, bowiem zintensyfikowane działania w jednym obszarze często powodują nieskuteczność działań w innym – dodaje.
20
Przykładowo, gdy wykonywanych jest wiele kopii danych, a w oryginalnym pliku zostanie wprowadzona zmiana, wyzwaniem jest sprawdzenie, czy została odzwierciedlona we wszystkich kopiach (utrudnia to spełnienie warunku łatwej dostępności kopii). Z drugiej strony przechowywanie wielu kopii danych utrudnia zagwarantowanie ich prywatności (rośnie ryzyko wycieku). Natomiast w sytuacji, gdy zapewniona zostanie pełna prywatność (przechowywana jest tylko jedna zapasowa kopia danych), rośnie ryzyko utraty danych, gdy uszkodzona zostanie także kopia. Poza tym trudno zapewnić weryfikację ich autentyczności, bo zawsze wiąże się to z koniecznością wykonywania dodatkowych kopii.
zabezpieczanych danych na dodatkowe ryzyko. Pakiet ten zawiera zarówno oprogramowanie do backupu środowisk hybrydowych, jak i mechanizmy ochrony danych przed atakami ransomware. Wykorzystując to rozwiązanie, zabezpieczać można cały system (obraz dysku, także aktywnego) lub wybraną partycję. Dane te mogą być odtworzone na tym samym (w przypadku uszkodzenia systemu) lub nowym nośniku (gdy użytkownik chce wymienić dysk na bardziej pojemny lub na pamięć flash). Możliwe jest także wykonywanie kopii z urządzeń mobilnych oraz do chmury, a także synchronizacja zbioru plików w różnych urządzeniach. Ich prywatność zapewniona jest dzięki silnemu szyfrowaniu 256-bitowym kluczem AES wygenerowanym na podstawie hasła wybranego przez użytkownika. Najnowsza wersja Acronis Backup współpracuje z ponad 20 najbardziej popularnymi systemami operacyjnymi i platformami wirtualizacyjnymi, m.in.: Windows, Office 365, Azure, Linux, macOS X, Oracle, VMware, Hyper-V, Red Hat Virtualization, Linux KVM, Citrix XenServer, iOS oraz Android. Rozwiązanie oferowane jest w dwóch wersjach: Standard i Advanced. Autoryzowanymi dystrybutorami oprogramowania Acronis w Polsce są firmy: Clico, Ingram Micro i Systemy Informatyczne ITXON.
KOMPROMISOWE ROZWIĄZANIE
Oprogramowanie Acronis Backup 12.5 umożliwia wyjście z tej z pozoru patowej sytuacji. Zapewnia bardzo bogatą funkcjonalność, a mimo to nie wystawia
Dodatkowe informacje: ARTUR CYGANEK, DYREKTOR POLSKIEGO ODDZIAŁU ACRONIS, ARTUR.CYGANEK@ACRONIS.COM
VADEMECUM CRN listopad 2018
adv acronis.indd 20
21.11.2018 10:36
QSAN – bezkompromisowe „kostki” Dzięki nowej rodzinie produktów XCube oferta rozwiązań pamięci masowych firmy QSAN osiągnęła bardzo wysoki poziom. Klienci nie muszą już decydować się na kompromis między ceną a wydajnością, jakością, funkcjonalnością i profesjonalną obsługą.
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMAMI QSAN TECHNOLOGY I EPA SYSTEMY.
M
acierze dyskowe podłączane do sieci SAN zawsze były filarem oferty tajwańskiej firmy QSAN. Ich portfolio w ubiegłym roku całkowicie zostało zmienione. Nowe modele z rodziny XCubeSAN zostały zaprojektowane do przechowywania danych z najważniejszych dla przedsiębiorstw aplikacji, które wymagają wysokiej dostępności – znajdują zastosowanie w centrach danych, w przetwarzaniu wysokowydajnym (HPC), w środowiskach wirtualizacyjnych oraz w obróbce multimediów. Macierze XCubeSAN zawierają wszystkie komponenty konieczne do zapewnienia redundancji oraz wysokiej wydajności: podwójne aktywne kontrolery, cache w pamięci flash, łączność światłowodową, oprogramowanie umożliwiające podział nośników na warstwy, replikację i wiele innych. Ta rodzina produktów ma bardzo korzystny stosunek ceny do wydajności oraz zapewnia o 20 proc. większą szybkość odczytu i zapisu niż konkurencyjne rozwiązania znanych marek (według wyników testów porównawczych przeprowadzonych przez serwis Storagereview). QSAN jest znany również z bardzo wydajnych serwerów XCubeNAS, wyposażonych w system plików ZFS. Dzięki bogatej funkcjonalności, unikalnej wśród tego typu urządzeń dla małych i średnich firm, stanowią świetne rozwiązanie dla przedsiębiorstw z tego sektora. Zapewniają m.in.
pracę w trybie WORM (Write Once, Read Many – jednorazowy zapis plików z blokadą ich kasowania lub modyfikacji), jak też korzystanie z szyfrowanych dyskow SED (SelfEncrypting Drives), rozbudowanego narzędzia firmy Acronis do backupu plików oraz wielu innych modułów, które sprawiają, że zdają egzamin w instytucjach obciążonych wieloma regulacjami prawnymi. Bardzo dobrze sprawdzają się w środowisku wirtualizacyjnym – potwierdziły to testy wydajności przeprowadzone przez amerykański serwis TweakTown. Wdrożenie i konfiguracja macierzy QSAN są bardzo proste. Producent nie zastosował w nich blokady na dyski od konkretnych dostawców, dzięki czemu partnerzy mogą wybrać napędy dla swoich klientów, korzystając z listy kwalifikowanych nośników. – Przez ostatnie lata QSAN bardzo aktywnie angażował się w budowanie relacji z partnerami strategicznymi oraz tworzenie portfolio profesjonalnych usług wsparcia – mówi Victor Khen, Sales Manager w QSAN. – W efekcie otrzymaliśmy certyfikaty zgodności od takich firm jak Microsoft,
Łukasz Chęć Product Manager QSAN, EPA Systemy
Resellerzy z wartością dodaną i integratorzy, którzy dla swoich klientów szukają profesjonalnych systemów do przechowywania danych, powinni zainteresować się ofertą firmy QSAN. Odbiorcy w Polsce coraz częściej poszukują rozwiązań, które zapewnią im nie tylko funkcjonalność typu „wszystko w jednym”, ale też wysoką dostępność danych i ich bezpieczeństwo, wydajność potwierdzoną niezależnymi testami, a jednocześnie bardzo korzystną cenę i elastyczność obsługi.
Citrix, VMware, Veeam, Commvault, a to ułatwia resellerom i integratorom wdrażanie naszych rozwiązań w różnych środowiskach. Rozszerzyliśmy także funkcjonalność serwerów dzięki wbudowaniu w nie oprogramowania Acronis do tworzenia kopii zapasowych oraz DataCore do wirtualizacji pamięci masowych. Intensywny rozwój produktów oraz podjęte działania marketingowe zapewniły firmie QSAN zrealizowanie wielu wdrożeń z wykorzystaniem jej rozwiązań i rozpoczęcie świadczenia szeregu profesjonalnych usług. W licznych krajach, m.in. w Polsce, oferowana jest pomoc inżyniera w trybie Next Business Day. Przyjedzie do klienta następnego dnia po zgłoszeniu problemu i będzie dysponował wszelkimi częściami zapasowymi potrzebnymi do ewentualnej naprawy urządzenia. Wyłącznym dystrybutorem QSAN w Polsce jest szczecińska firma EPA Systemy.
Dodatkowe informacje: ŁUKASZ CHĘĆ, PRODUCT MANAGER QSAN, EPA SYSTEMY, L.CHEC@EPASYSTEMY.PL VADEMECUM CRN listopad 2018
adv EPA QSAN.indd 21
21
20.11.2018 11:41
MACIERZE ALL-FLASH
NOWE ŻYCIE pamięci flash dzięki NVMe Macierzami all-flash interesuje się coraz więcej klientów, są też intensywnie promowane przez producentów. Ale ich sprzedaż do łatwych nie należy – integratorzy koniecznie powinni doskonale znać funkcje tych produktów oraz umieć zasymulować korzyści, które usprawiedliwią ich niemałą cenę.
M
acierze dyskowe wyposażone wyłącznie w dyski z pamięcią flash są obecne na rynku od niemal dwóch dekad. Pionierem w tej dziedzinie był Texas Memory Systems (kupiony w sierpniu 2012 r. przez IBM). Produkty RamSan tej marki były postrzegane jako rozwiązanie bardzo niszowe, ale też ciekawy przykład nowej generacji pamięci masowych. Długo oczekiwany boom nastąpił dopiero kilka lat temu. Jak grzyby po deszczu zaczęły wyrastać startupy oferujące macierze tylko z dyskami flash. W pewnym momencie wyglądało wręcz na to, że tradycyjni dostawcy rozwiązań bazujących na klasycznych dyskach mogą poczuć się zagrożeni, choć przez długi
22
czas wydawali się ignorować nowopowstający rynek. Prawdopodobnie było to jednak działanie z premedytacją – czekali cierpliwie, aż nowe podmioty wyedukują klientów w zakresie macierzy all-flash, ponosząc duże koszty na marketing i rozwój produktów, aby później kupić je za korzystną cenę i zintegrować ich urządzenia z własną ofertą. Pierwszego zakupu dokonało EMC (w maju 2012 r. producent nabył izraelskie XtremIO, a potem w 2015 r. firmę DSSD), następnie wspomniany IBM, a potem Cisco, które w 2013 r. przejęło Whiptail (zaprzestało jednak produkcji macierzy all-flash w 2015 r.). Nieco później do „ataku” ruszył NetApp, kupując w 2015 r. SolidFire, a w jego ślady w 2017 r.
poszły HPE (przejęło Nimble Storage) oraz Western Digital (zostając właścicielem Tegile Systems). W międzyczasie niemal wszyscy producenci klasycznych macierzy dyskowych zaprezentowali także ich wersje w wydaniu all-flash – z reguły z nieco usprawnionym kontrolerem, większą pamięcią cache, ale z taką samą podstawową funkcjonalnością. Obecnie nie ma producenta na rynku storage, który nie miałby w ofercie macierzy all-flash. Ale z dawnych startupów na rynku liczą się tylko dwa podmioty, wymienione przez Gartnera w kwadracie liderów: Pure Storage i Kaminario. Analitycy zalecają zwrócenie uwagi także na Tintri (wizjoner) i X-IO
Ilustracja AdobeStock
KRZYSZTOF JAKUBIK
VADEMECUM CRN listopad 2018
txt macierze all-flash.indd 22
20.11.2018 17:54
Technologies (niszowy gracz). Pozostałe firmy (ze szczególnym wskazaniem na Violin Memory, jednego z pierwszych graczy na rynku all-flash), albo są na granicy bankructwa, albo już nie istnieją. Sytuację na rynku macierzy all-flash można już zatem uznać za ustabilizowaną i dojrzałą. Przez długi czas spekulowano jeszcze, kto kupi firmę Pure Storage, ale przedstawiciele zarządu tego producenta wielokrotnie podkreślali, że nie dopuszczą do jego przejęcia przez inny podmiot. Pewności siebie dodaje im zresztą najwyższa pozycja w magicznym kwadrancie Gartnera dotyczącym dostawców macierzy all-flash. Poza tym każdy z poważnych graczy na rynku storage ma już kompletną ofertę, więc inwestycja w Pure Storage nie miałoby większego sensu.
sywane są i odczytywane miliony bardzo małych plików. Wówczas skrócenie czasu dostępu do nich, a to jest główna zaleta nośników flash, może znacznie wpłynąć na ogólną wydajność ich przetwarzania. Macierze all-flash zupełnie nie sprawdzają się też w rozwiązaniach monitoringu wideo. Zapis w nich ma charakter ciągły, i do tego wykonywany jest w trybie sekwencyjnym, a odczyt jest wyjątkowo rzadki. Zdecydowanie tańsza będzie zwykła macierz lub serwer NAS, a do tego trzeba też pamiętać o zainstalowaniu specjalnych dysków, których mechanika przystosowana została do ciągłego zapisu (zwykłe twarde dyski zostały zaprojektowane z założeniem, że zapis i odczyt będą odbywały się w równych proporcjach).
JAK ZADBAĆ O KOMÓRKI? PO CO KLIENTOWI
ALL-FLASH?
Od strony funkcjonalnej macierze all-flash mogą być wykorzystywane do tych samych zastosowań co systemy dyskowe, ale na razie nie ma to sensu ze względów ekonomicznych. Rozwiązania te zapewniają ogromny wzrost wydajności pracy aplikacji, uzyskany dzięki skróceniu o kilka rzędów wielkości czasu dostępu do danych. Można to zauważyć głównie w przypadku operacji losowego ich odczytu, które są charakterystyczne przede wszystkim dla baz danych, dużych systemów transakcyjnych oraz środowisk wirtualnych serwerów i desktopów. Ma to duże znaczenie, szczególnie w przypadku wirtualnych maszyn. Nawet jeśli wewnątrz nich ruch ma charakter sekwencyjny, to dla macierzy dyskowej praca kilku takich maszyn wygląda podobnie jak w przypadku losowego odczytu i zapisu (zjawisko to określane jest mianem I/O blender). Do czego natomiast nie należy stosować macierzy all-flash? Na pewno do przechowywania plików ani ich backupu, szczególnie w typowym środowisku biurowym. W takim przypadku niewielki wzrost wydajności nie zrekompensuje znacznie wyższej ceny samego urządzenia, jak i znajdujących się w nim nośników. Wyjątek mogą stanowić jedynie rozwiązania IoT oraz różnego typu systemy analityczne, w których zapi-
Pamięci flash mają jedną podstawową wadę – ich komórki podczas każdej operacji zapisu tracą elektroniczne właściwości, co sprawia, że w pewnym momencie nie będą w stanie przechowywać danych. Ich trwałość określana jest w cyklach zapisu i kasowania. W popularnych obecnie dyskach liczba takich cykli, w ramach których dostawca pamięci gwarantuje trwałość danych, określana jest na poziomie tysiąca. To niewiele, ale w praktyce, dla zwykłych konsumentów, jest to wartość wystarczająca. Problem rodzi się wówczas, gdy dane są zapisywane i kasowane bardzo często. Dlatego w nośnikach SSD znajdują się specjalne kontrolery wyposażone w oprogramowanie, które dba o równomierne rozłożenie zapisu danych na całym nośniku. W ten sposób minimalizowane jest prawdopodobieństwo częstego wykorzystania tych samych komórek pamięci. Dodatkowy problem stanowi fakt, że w pamięciach flash nie można tak po prostu skasować danych z jednej komórki. Gdy zajdzie taka konieczność trzeba wymazać zawartość całego sektora. Dlatego, gdy zapełniona zostanie pojemność nośnika, a część danych zostanie przeznaczona do skasowania, oprogramowanie kontrolera musi analizować, które sektory można oczyścić w całości, a z których sektorów należy przekopiować część potrzebnych jeszcze danych
Magdalena O’Dwyer Product Manager, Synology
Dyski z interfejsem NVMe zdecydowanie są nośnikiem przyszłości. Ich wydajność jest w zupełności wystarczająca do dzisiejszych zastosowań, a wiemy, że producenci w tej kwestii nie powiedzieli jeszcze ostatniego słowa i prace rozwojowe wciąż trwają. Moduły NVMe już dziś są powszechnie stosowane w zwykłych serwerach NAS jako cache, a wprowadzenie ich jako podstawowego nośnika w rozwiązaniach all-flash to tylko kwestia czasu.
do innego sektora. Proces ten nazywa się z angielskiego zbieraniem śmieci (garbage collection) i niestety znacząco wpływa na wydajność pamięci flash. Pierwsze dyski SSD miały małą pojemność oraz wysoką cenę w przeliczeniu na gigabajt, co blokowało wzrost ich popularności. Przez długi czas w nośnikach przeznaczonych do zastosowań korporacyjnych królowały kości wyprodukowane w technologii SLC (Single-Level Cell – jeden bit na komórkę) i MLC (Multi-Level Cell – dwa bity na komórkę). Dopiero od dwóch lat popularność zyskują tańsze kości TLC (Triple-Level Cell), w których jedna komórka jest w stanie przechować trzy bity informacji. Planowane jest też stworzenie kości QLC (Quadriple-Level Cell), ale pierwsze prototypy są wciąż na tyle nietrwałe, że nie nadają się do profesjonalnych zastosowań. Natomiast dzięki zwiększonej w ten sposób gęstości zapisu w macierzach all-flash pojawiają się dziś dyski o pojemności nawet 30 TB.
WYZWANIA I PARADOKSY Ponieważ nośniki zawierające pamięć flash nadal są dość drogie, producenci zaczęli wyposażać macierze all-flash w mechanizmy umożliwiające zmniejszenie objętości przechowywanych danych – kompresję i deduplikację. Kompresja sprawdza się dobrze w przypadku każdego rodzaju danych, które VADEMECUM CRN listopad 2018
txt macierze all-flash.indd 23
23
20.11.2018 17:54
MACIERZE ALL-FLASH nie są zaszyfrowane lub skompresowane z natury ( jak pliki multimedialne czy zdjęcia), a szczególnie w bazach danych. Deduplikacja natomiast doskonale działa w środowiskach wirtualnych, a przede wszystkim wobec wirtualizacji desktopów. Jednak równoległe korzystanie z obu tych technik nie ma większego sensu, bo ilość odzyskanej przestrzeni będzie wówczas bardzo niewielka. Poza tym, zarówno deduplikacja, jak też kompresja, wpływają negatywnie na wydajność, a więc „zabijają” główną korzyść, dla której firmy inwestują w macierze all-flash. Dobierając macierz all-flash dla klienta trzeba baczną uwagę zwracać na to, czy podawane przez producenta parametry dotyczące pojemności nie są wyliczone właśnie z zastosowaniem kompresji i/lub deduplikacji (często dostępne na stronach internetowych producentów kalkulatory korzyści dokonują obliczeń z włączonymi tego typu opcjami, co jest oczywistą manipulacją). Siłą rzeczy dane te nie będą wiarygodne, bo współczynniki skuteczności obu tych procesów nie będą znane, póki macierz nie zostanie zasilona właściwymi danymi klienta. Dlatego podczas porównywania urządzeń zawsze należy zwracać uwagę na rzeczywistą, „surową” pojemność (raw capacity). Ważnym parametrem, który może mieć wpływ na finalną cenę – zarówno zakupu, jak też użytkowania – jest kwestia oprogramowania do zarządzania macierzą. W wielu przypadkach jest ono dołączane do urządzenia gratis i nielimitowane w żaden sposób. Jednak niektórzy dostawcy stosują model znany z klasycznych macierzy dyskowych, gdzie cena udzielonych licencji może być zależna od pojemności nośników czy liczby kontrolerów.
NVME BIERZE WSZYSTKO Interfejsy SATA/SAS stosowane w dyskach SSD wprowadzają wiele ograniczeń związanych z transferem danych, a wśród nich najbardziej znaczącym jest limit jego prędkości. Dlatego już dekadę temu rozpoczęto prace zarówno nad nowym protokołem transmisji danych, jak też nowym interfejsem urządzeń. Dzięki
24
temu powstał protokół NVMe (Non-Volatile Memory Express) oraz interfejs M.2 pozwalający na podłączenie pamięci flash bezpośrednio do magistrali PCIe. Jednym z podstawowych ograniczeń twardych dysków jest to, że w danym momencie są w stanie przetwarzać tylko jedno żądanie (głowica dysku nie jest w stanie znajdować się w dwóch miejscach w tym samym czasie), a więc transfer danych ma charakter sekwencyjny. Dlatego też interfejsy stosowane w dyskach w ogóle nie przewidują możliwości równoległego przesyłania większej ilości danych, z czym w ogóle nie ma problemu w przypadku pamięci flash. Tam w jednym cyklu teoretycznie możliwe jest wykonanie nawet 64 tys. żądań odczytu, do czego jeszcze dziś nie są gotowe same procesory, magistrale komputerów ani aplikacje, teoretycznie wydajność pamięci flash daje nam więc duży zapas.
Podczas porównywania parametrów macierzy all-flash należy zwracać uwagę na rzeczywistą, „surową” pojemność. W firmach, które korzystają z serwerów i pamięci masowych wyposażonych w nośniki NVMe, wąskie gardło często stanowi infrastruktura sieciowa. Dlatego już dwa lata temu zaprezentowano pierwszą wersję protokołu sieciowego NVMe-oF (NVM Express over Fabrics), który będzie w pełni zgodny z protokołem NVMe i w żaden sposób nie będzie ograniczał wydajności tych nośników. Obecnie sterowniki większości nowych kart sieciowych są już zgodne z NVMe-oF, więc gdy te nośniki zaczną zyskiwać należną im popularność, nie powinno być problemów z ich wdrażaniem. Protokół NVMe przynosi ogromną korzyść w przypadku macierzy dyskowych. Eliminacja interfejsów i podłączenie nośników bezpośrednio do magistrali kontrolera macierzowego pozwoli na uzyskanie dużej wydajności za ułamek ceny,
Mirosław Chełmecki dyrektor działu serwerów i pamięci masowych, Veracomp
Zaawansowane cechy i funkcje macierzy all-flash powodują, że ich sprzedaż nie należy do najprostszych. Konieczna jest ciągła edukacja klientów i prezentowanie zalet tego typu rozwiązań, z których rzadko zdają sobie sprawę. Jedną z dobrych praktyk, jaką zawsze proponujemy współpracującym z nami integratormom, jest wypożyczenie macierzy all-flash i przetestowanie jej zalet w środowisku IT potencjalnego klienta końcowego.
którą obecnie trzeba zapłacić za urządzenie z setkami dysków. Nośniki bazujące na protokole NVMe bardzo dobrze przyjmują się obecnie jako moduły pamięci masowej w rozwiązaniach infrastruktury hiperkonwergentnej oraz dyski w zainstalowanych tam serwerach. Powoli trafiają też do macierzy dyskowych – większość producentów zapowiedziało wprowadzenie modeli z takimi nośnikami na rynek w 2019 r. Natomiast w ogromnej większości firm barierę będzie w tym przypadku stanowiła posiadana infrastruktura sieciowa oraz wykorzystywane w niej protokoły (CIFS i NFS dla serwerów NAS oraz FC i iSCSI w sieciach SAN). Dlatego realnych korzyści z dysków NVMe oraz protokołu NVMe-oF należy zatem spodziewać się dopiero w perspektywie kilku najbliższych lat. Stosowanie dysków NVMe w infrastrukturze serwerowej ma obecnie ograniczony sens także ze względu na architekturę aplikacji. Większość z nich nie jest gotowa na otrzymywanie tak dużej ilości danych w tak krótkim czasie. Zastosowane w oprogramowaniu algorytmy są „świadome”, że dane będą spływały umiarkowanie powoli ze zwykłych twardych dysków, więc one też nie muszą się spieszyć. Dlatego, aby uzyskać pełną korzyść z nowych rodzajów nośników, klienci powinni sprawdzić czy na tą swego rodzaju rewolucję gotowe jest też ich oprogramowanie.
VADEMECUM CRN listopad 2018
txt macierze all-flash.indd 24
20.11.2018 17:54
Wydajny NAS tylko z SSD Synology już od dwóch lat ma w ofercie serwery NAS, których kontrolery zostały przystosowane do współpracy wyłącznie z dyskami SSD. Świetnie nadają się do przechowywania i udostępniania plików z maszyn wirtualnych, baz danych oraz poczty elektronicznej. Najszybszym serwerem NAS all-flash marki Synology jest FlashStation FS3017 – zapewnia ponad 200 tys. IOPS. Wyposażono go w dwa 6-rdzeniowe procesory Intel Xeon E5–2620 v3 2,4 GHz i 64 GB pamięci RAM (maks. 512 GB). Obudowa urządzenia mieści 24 dyski, ale – podobnie jak w przypadku modelu FS2017 – dzięki półkom dyskowym pojemność można rozszerzyć do 72 nośników.
BEZPIECZNE DANE Z RAID F1 Unikalną cechą serwerów all-flash NAS firmy Synology jest zaimplementowany algorytm RAID F1. Został opracowany przez tajwańskiego producenta z uwagi na fakt, że trwałość komórek pamięci w dyskach SSD ulega degradacji po wykonaniu określonej liczby cykli zapisu. Jest to szczególnie groźne, gdy dyski połączone są w strukturę RAID – równomierny zapis danych może doprowadzić do awarii wielu dysków SSD w zbliżonym czasie, co wiązałoby się z nieodwracalną utratą wszystkich danych. RAID F1 rozwiązuje ten problem dzięki specjalnemu algorytmowi, który dba o to, aby dane na dyskach w macierzy RAID były zapisywane nierównomiernie. W ten sposób zużycie poszczególnych napędów, wiążące się z koniecznością ich wymiany, jest zróżnicowane w czasie, więc maleje ryzyko utraty danych. Nie wpływa to jednak negatywnie na wydajność – jest zbliżona do wydajności struktury RAID 5, stosowanej w tradycyjnych macierzach dyskowych. Ciekawostkę stanowi zastosowanie mechanizmu, który analizuje stopień zużycia każdego dysku SSD. Te, których żywotność zbliża się do końca, są wykorzystywane najintensywniej, aby jak najszybciej doprowadzić do konieczności ich wymiany.
FUNKCJONALNOŚĆ BEZ KOMPROMISÓW
Wszystkie serwery Synology FlashStation mają taką samą rozbudowaną funkcjonalność, jak pozostałe urządzenia w ofercie producenta. Zastosowano w nich system plików nowej generacji Btrfs, który zapewnia integralność danych oraz wykorzystuje elastyczne i skuteczne narzędzia do ich ochrony i odzyskiwania. Dzięki funkcji Snapshot Replication możliwe jest wykonanie 65 tys. kopii migawkowych dowolnych folderów z całego systemu oraz 1024 kopii zapasowych folderów współużytkowanych. Dla korzystających z urządzeń Synology bardzo ważna jest oferowana od roku funkcja Virtual Machine Manager. Zapewnia uruchamianie bezpośrednio na serwerze FlashStation wirtualnych maszyn korzystających z jego mocy obliczeniowej, pamięci i przestrzeni dyskowej. Ale urządzenia te można stosować także do przechowywania maszyn wirtualnych zarządzanych przez wirtualizatory OpenStack oraz dostarczane przez firmy VMware, Microsoft i Citrix. Serwery all-flash Synology są objęte 5-letnią gwarancją, która zapewnia wymianę sprzętu oraz pomoc techniczną świadczoną przez e-mail i telefon. Wszystkie modele biznesowe objęte są również bezpłatną obejmującą cały kraj usługą Synology Replacement Service (SRS), w ramach której zapewnione jest dostarczenie urządzenia zastępczego już następnego dnia roboczego od momentu zgłoszenia awarii.
Dodatkowe informacje: MAGDALENA O’DWYER, PRODUCT MANAGER, SYNOLOGY, MAGDALENAD@SYNOLOGY.COM VADEMECUM CRN listopad 2018
adv_Synology.indd 25
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ SYNOLOGY.
W
portfolio Synology znajdują się obecnie trzy modele NAS-ów z rodziny FlashStation, w których administratorzy mogą samodzielnie instalować dyski SSD. Producent na swojej stronie internetowej publikuje obszerne listy kompatybilnego sprzętu dla każdego urządzenia oraz wskazuje nośniki, które zdecydowanie nie powinny być stosowane ze względu na zaobserwowane problemy. Do wszystkich serwerów FlashStation można podłączyć dodatkowe półki dyskowe, zainstalować karty rozszerzeń z modułami SSD M.2 funkcjonującymi jako cache oraz karty sieciowe 10 Gbit Ethernet. Podstawowym modelem all-flash NAS w ofercie Synology jest FlashStation FS1018. Wyposażono go w 2-rdzeniowy procesor Intel Pentium D1508 2,6 GHz z funkcją Turbo Boost oraz 8 GB pamięci RAM DDR4 ECC (maks. 32 GB). W serwerze można zainstalować 12 dysków SSD (SATA 2,5”) oraz dołączyć do niego dwie jednostki rozszerzające DX1215 (po 12 dysków HDD lub SSD). Wydajność FS1018 to ponad 40 tys. IOPS podczas losowego zapisu bloków o wielkości 4 kB. Kolejnym modelem jest przeznaczony do instalacji w szafie rack serwer FlashStation FS2017, z 8-rdzeniowym procesorem Intel Xeon D-1541 i 16 GB pamięci RAM (maks. 128 GB). Można w nim zainstalować 24 dyski SSD (maks. 72 nośniki HDD/SSD przy wykorzystaniu dwóch jednostek rozszerzających RX2417sas). Wydajność tego urządzenia wynosi ponad 90 tys. IOPS.
25
19.11.2018 15:30
MACIERZE ALL-FLASH
ETERNUS AF:
duża wydajność w małej obudowie Wydajność, bezpieczeństwo danych, duża funkcjonalność i niska cena – połączenie tych czterech elementów w macierzach all-flash wydawało się praktycznie niemożliwe. Inżynierowie w japońskich centrach badań i rozwoju Fujitsu pokazali jednak, że są specjalistami w przełamywaniu barier.
N
owe macierze all-flash Fujitsu ETERNUS AF – modele AF250 S2 i AF650 S2 – wywodzą się z obecnej na rynku od ponad dekady rodziny urządzeń hybrydowych ETERNUS DX. Zachowały większość funkcji oferowanych przez wcześniejsze generacje urządzeń, w tym wyjątkowo cenione przez klientów zapewnienie ciągłości pracy sklastrowanych systemów podczas awarii jednego z nich. Dużą popularnością cieszy się też mechanizm dostrajania parametrów macierzy Auto QoS, gwarantujący aplikacjom dostęp do danych w zdefiniowanym przez administratora czasie.
W
ZALEŻNOŚCI OD POTRZEB
Model ETERNUS AF250 S2 jest przeznaczony do stosowania w środowiskach IT klasy entry, w których działają systemy wirtualizacyjne, mocno obciążone serwery poczty elektronicznej oraz wymagające szybkiego dostępu do danych aplikacje analityki biznesowej. Urządzenie zapewnia losowy odczyt danych z prędkością nawet 430 tys. IOPS (bloki 4 kB) i transfer danych 12 GB/s (bloki 128 kB). Maksymalnie pomieści 48 dysków SSD. Z kolei ETERNUS AF650 S2 należy do klasy midrange. Oznacza to, że zapewnia wydajność wystarczającą nawet dla bardzo dużych baz danych i aplikacji analitycznych. Losowy odczyt danych odbywa się w tym modelu z prędkością 810 tys. IOPS, a transfer – 23 GB/s. Po dołącze-
niu półek dyskowych do macierzy można zainstalować w niej aż 192 dyski SSD.
WYDAJNOŚĆ W KORZYSTNEJ
CENIE
Zapewniana przez macierze Fujitsu wydajność plasuje je w grupie najlepszych urządzeń na rynku pamięci masowych. Szczególnie korzystnie rozwiązania te wyglądają natomiast, gdy porówna się szybkość działania, jaką gwarantują, z ich ceną. Wyróżnikiem macierzy tej marki jest też czas dostępu do danych. Podczas gdy większość producentów chwali się wynikiem poniżej 1 milisekundy, rozwiązania ETERNUS AF w niektórych testach uzyskują wynik rzędu 0,06 ms. – Organizacja Storage Performance Council prowadzi niezależne testy macierzy Fujitsu od wielu lat. Na stronie spcresults.org, gdzie publikowane są ich wyniki, można zobaczyć, że w kwestii wy-
dajności w czołówce były macierze z każdej generacji systemu ETERNUS. Kwestia szybkości przesyłania danych była i jest priorytetem japońskich inżynierów projektujących rozwiązania Fujitsu. Dbają, aby wewnętrzna architektura macierzy nie wykonywała żadnych działań, które nie są niezbędne do zaspokojenia potrzeb klienta – mówi Artur Capiga, inżynier wsparcia technicznego w ABC Data. Twórcy macierzy ETERNUS AF zadbali również o zapewnienie optymalnego wykorzystania przestrzeni dyskowej. Dlatego wyposażono je w mechanizmy kompresji i deduplikacji. Mając na uwadze, że ich działanie może w pewnym stopniu wpływać na wydajność, producent zapewnił opcję wyłączenia tych mechanizmów lub ograniczenia ich działania do wybranych woluminów danych. Co istotne, ograniczenie liczby cykli zapisu oszczędza także nośniki flash, zapewniając ich dużą trwałość.
MACIERZ ALL-FLASH POBIERA TYLE ENERGII ELEKTRYCZNEJ CO ŚREDNIEJ KLASY SERWER.
26
VADEMECUM CRN listopad 2018
adv ABC Data Fujitsu.indd 26
19.11.2018 14:48
BOGATA
Macierze z rodzin ETERNUS DX i AF są ze sobą w pełni kompatybilne i mogą być zarządzane za pomocą tego samego, dostępnego bezpłatnie oprogramowania ETERNUS SF. Dzięki temu firma korzystająca już z rozwiązań Fujitsu nie musi ponosić dodatkowych kosztów szkolenia administratorów. Replikacja danych między obydwoma rodzajami urządzeń odbywa się bowiem bez problemu. W przypadku rozwiązań ETERNUS AF imponująca jest liczba funkcji. Administratorzy mają do dyspozycji m.in. deduplikację i kompresję, a także darmowe kopie migawkowe (snapshot) oraz możliwość rozbudowy macierzy AF250 do AF650, w trakcie której dane pozostają na dyskach (data-in-place). Oznacza to, że nie ma konieczności ich formatowania, ani też rekonfigurowania oprogramowania. Funkcja Advanced Copy zapewnia z kolei zdalną replikację danych na inną macierz flash lub hybrydową z rodziny Fujitsu ETERNUS. Może służyć także do wykonywanego bez pośrednictwa serwera backupu danych. Dla przedsiębiorstw bardzo ważne są także funkcje klastrowania (Storage Cluster) i automatycznego przełączania na macierz zapasową w przypadku awarii urządzenia podstawowego (Transparent Failover). Zapewniają one synchroniczne replikowanie danych z jednej macierzy na drugą, dzięki czemu na obu urządzeniach znajduje się ta sama kopia danych. Wówczas, w przypadku awarii jednej macierzy, druga automatycznie przejmuje jej zadania. Warto jednak zwrócić uwagę, że maksymalna odległość między urządzeniami jest ograniczona przez czas obiegu danych dla replikacji synchronicznej. Nie może on przekroczyć 10 ms, co oznacza, że w praktyce replikacja może być wykorzystana tylko w przypadku środowisk lokalnych, kampusowych i metropolitarnych. Przy większych odległościach można prowadzić replikację asynchroniczną, ale niedostępna jest wówczas funkcja Transparent Failover. Macierze dyskowe Fujitsu znajdują się w ofercie ABC Data. Dystrybutor zapewnia integratorom szkolenia i pomoc w sprzedaży tych urządzeń, ich wdrożeniach oraz utrzymywaniu.
>>> Trzy pytania do… CRN Czy polscy klienci są gotowi zapłacić wyższą cenę za systemy pamięci masowych, które zapewniają zdecydowany wzrost wydajności? ARTUR CAPIGA W ostatnich latach obserwujemy ewolucję opinii klientów w tej kwestii, chociaż zmiana podejścia z kierowania się w wyborze wydajnością, a nie tylko ceną, to dość powolny proces. Obecnie najpopularniejsze są macierze hybrydowe, w których obok zwykłych dysków mechanicznych instaluje się nośniki z pamięcią flash. Fujitsu jest jedną z niewielu firm, która nie ogranicza liczby dysków SSD w macierzy hybrydowej, więc wraz ze wzrostem zapotrzebowania użytkowników na wydajność można montować ich więcej. Natomiast stosowanie typowych macierzy all-flash wciąż jest dość sporadyczne, mimo że w wielu przypadkach po prostu się opłaca. Produkt ten można przyrównać do bolidu Formuły 1, który, jeśli chodzi o przyspieszenie, po prostu nie ma sobie równych. Macierze all-flash zapewniają najwyższą wydajność, zwiększaną dodatkowo dzięki zastosowaniu bardzo szybkich kontrolerów. Jak przekonywać klientów do wyboru macierzy all-flash jako alternatywy dla systemów z dyskami mechanicznymi lub konsumenckich nośników SSD? Warto zwrócić ich uwagę przede wszystkim na znacznie większą trwałość rozwiązań korporacyjnych. Dyski stosowane w desktopach lub laptopach zapewniają w całym cyklu swojego życia zapis kilkudziesięciu lub kilkuset terabajtów danych. W firmach zapis danych o takiej objętości ma miejsce często w ciągu kilku miesięcy. W przedsiębiorstwach dysponujących dużymi ilościami danych, do których musi być zapewnio-
Artura Capigi, inżyniera wsparcia technicznego w ABC Data
ny bardzo szybki dostęp, znaczenie będzie miała też pojemność nośników. Producenci mechanicznych dysków dopiero zbliżają się do pojemności 15 TB w przypadku jednego urządzenia, podczas gdy SSD o tej pojemności oferowane są już od dwóch lat. Fujitsu wprowadza właśnie możliwość korzystania z dysków 30 TB. Efektem jest zmniejszenie rozmiaru całego systemu pamięci masowych, co daje ogromną oszczędność miejsca w centrum danych. Nie bez znaczenia jest również ograniczony pobór energii elektrycznej – cała macierz all-flash pobiera jej tyle co średniej klasy serwer. W jakiego typu zastosowaniach macierze all-flash najlepiej spełnią swoje zadanie? Przede wszystkim w bazach danych. Dobór wystarczająco wydajnego systemu pamięci masowych zawsze był bolączką dla administratorów. Dochodziło wręcz do pewnych paradoksów, kiedy dla zapewnienia wymaganej wydajności stosowano kilkadziesiąt lub kilkaset twardych dysków, których pojemność była wykorzystywana tylko w niewielkim stopniu. Tymczasem już kilka lub kilkanaście dysków SSD zagwarantuje odpowiednią wydajność, a ich pojemność wciąż będzie wystarczająca. All-flash sprawdza się też w środowiskach wirtualizacyjnych. Jednak w takim przypadku konieczne jest przeprowadzenie eksperymentalnego wdrożenia i sprawdzenie go we własnym centrum danych, ponieważ ze względu na wyższą cenę tych rozwiązań korzyść nie zawsze będzie odpowiednio duża. Natomiast nadal nie ma większego sensu stosowanie tego modelu do przechowywania plików, a zwłaszcza biurowych dokumentów. Dla użytkowników nie ma znaczenia, czy zostaną one otwarte lub zapisane w sekundę czy w pół.
Więcej informacji: ABC DATA, UL. DANISZEWSKA 14, 03-230 WARSZAWA, TEL. (22) 676-09-00, ABCDATA-VALUEPLUS@ABCDATA.EU VADEMECUM CRN listopad 2018
adv ABC Data Fujitsu.indd 27
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ ABC DATA.
FUNKCJONALNOŚĆ OPROGRAMOWANIA
27
19.11.2018 14:48
ORGANIZACJA PRZETWARZANIA DANYCH
Serwery i systemy operacyjne, czyli stare po nowemu Gdy produkty oferowane na rynku coraz mniej różnią się pod względem technicznym, na plan pierwszy wychodzą koszty utrzymania rozwiązań i usługi posprzedażowe. TOMASZ JANOŚ
W
serwerach od lat obowiązywał podział na modele wieżowe, rackowe oraz kasetowe (blade). Nie znaczy to wcale, że będzie tak już zawsze. Kariera serwerów typu blade, które przez pewien czas były bardzo popularne, wydaje się dobiegać końca. Producenci albo całkowicie rezygnują
28
z ich wytwarzania, albo ograniczają ich wybór w ofercie. – Dzieje się tak, ponieważ przede wszystkim nastąpił duży wzrost prędkości transferu w sieciach SAN i Ethernet. Przyspieszeniu nie sprostały architektury, np. midplane, czyli układów łączących serwery i przełączniki w obudowach – twierdzi
Sebastian Perczyński, Presales Consultant z Fujitsu. Pojawiła się zatem potrzeba zastosowania nowych obudów, a to kłóci się z ideą konstrukcji kasetowej, która miała zapewniać skalowalność wyłącznie przez wymianę modułów serwerowych. Na spadek zainteresowania serwerami blade wpływa
VADEMECUM CRN listopad 2018
txt_przetwarzanie danych.indd 28
20.11.2018 14:36
też przejście od klasycznej wirtualizacji do rozwiązań chmurowych i definiowanych programowo (Software Defined). W takim przypadku konieczne jest dostosowanie sprzętu do najnowszych technik (Ethernetu 100 Gb/s, FC 32/64 Gb/s, dysków NVMe). A tę cechę mają klasyczne serwery rackowe i zyskujące coraz większą popularność platformy dla środowisk chmurowych. Serwery rackowe umożliwiają realizowanie koncepcji SDI (Software Defined Infrastructure) i HCI (HyperConverged Infrastructure), spełniających potrzebę upraszczania infrastruktury serwerowo-pamięciowej. Dzięki nowym trendom nie trzeba się długo zastanawiać, jakie wykorzystać serwery i macierze, w jakich grupach i konfiguracjach, z jakimi dyskami, bo wiele potrzebnych funkcji zapewnia oprogramowanie urządzeń.
Kod stworzony przez programistów realizuje dużą część zadań dotąd ręcznie wykonywanych przez administratorów. Nie trzeba się martwić o zwymiarowanie systemu pod kątem potrzeb firmy, bo klient dostaje gotowe rozwiązanie, przetestowane i certyfikowane. W dodatku dające się łatwo skalować przez dokładanie kolejnych takich samych węzłów. Klienci coraz częściej poszukują rozwiązań Software Defined Ready, takich jak serwery rackowe. Urządzenia te zapewniają dostosowywanie posiadanych zasobów do dynamicznie zmieniającego się zapotrzebowania ze strony obsługiwanego oprogramowania. Wyróżnia je możliwość dużej koncentracji mocy obliczeniowej i skalowalność. – Dlatego ten typ serwerów cieszy się dziś ogromnym zainteresowaniem ze strony klientów – twierdzi Rafał Szczypiorski, Business Development Manager, Global Compute and Networking w Dell EMC. Wśród nowych trendów technicznych w świecie serwerów za istotną zmianę można uznać coraz częstsze używanie dysków NVMe, dużo szybszych od standardowych nośników. Są znacząco droższe, ale uzyskiwany wzrost wydajności w przypadku środowisk HPC (High Performance Computing), rozwiązań hiperkonwergentnych itp. uzasadnia poniesione koszty. – To największa zmiana w serwerach w ostatnim czasie. Na rynku pojawiają się wciąż nowe platformy umożliwiające montowanie szybkich dysków NVMe – podkreśla Krzysztof Szablowski, Engineers Team Leader w S4E.
JAK
SIĘ WYRÓŻNIĆ , KIEDY NIE MA CZYM?
Ponieważ serwery bazują na standardowych rozwiązaniach (wszyscy korzystają z komponentów Intela, rzadziej AMD), ich producentom trudno się wyróżnić. Produkty Intela niezmiennie są wybierane najczęściej, bo klienci, którzy rozbudowują firmowe środowiska, tworząc chociażby klastry, np. z wykorzystaniem wirtualizatorów VMware, chcą zadbać o homogeniczność infrastruktury. Dokupują więc sprzęt podobny do tego, ja-
Tomasz Pietrzak Infrastructure Solutions Group Manager, Dell EMC
Polski rynek serwerów już od kilku lat rośnie bardzo dynamicznie, a nowych klientów stale przybywa. Odbywa się to wbrew wcześniejszym przewidywaniom, które głosiły spadek lub w najlepszym wypadku stagnację sprzedaży tych produktów, spowodowane wzrostem popularności chmury publicznej. Co istotne, dotyczy to każdego segmentu odbiorców tych urządzeń – nie tylko największych przedsiębiorstw, ale także średnich i małych firm, które również dostrzegają nowe możliwości wykorzystania serwerów. Tym bardziej, że ceny rozwiązań serwerowych znacznie się obniżyły a do tego są one bardzo łatwo skalowalne.
ki już posiadają, który w zdecydowanej większości jest wyposażony w procesory rynkowego potentata. – Jeśli serwery mają w środku to samo, producenci nie mają dużego pola do popisu. Mogą się wyróżnić bardziej funkcjonalnym firmware'em. Próbują też grać ceną, ale w sytuacji stosowania komponentów od tego samego dostawcy również tutaj mają małe pole manewru – zauważa Krzysztof Szablowski. Dlatego serwery to nie jest łatwy rynek. W dodatku producenci przyzwyczaili klientów do częstych zniżek. W efekcie ceny katalogowe urządzeń różnych dostawców niewiele się obecnie różnią. A niskie ceny oznaczają spadek zainteresowania dostawców mniejszymi projektami, na których trudniej zarobić. Z drugiej strony kłopot jest też z projektami największymi, bo wielcy dostawcy usług w chmurze publicznej sami składają sobie serwery z zamówionych komponentów. Budują sprzęt, który zapewni im największą elastyczność i najprostszą administrację rozwiązaniami. W przypadku tysięcy serwerów będzie to miało przełożenie na znacząco mniejszy koszt zakupu i eksploatacji. Na szczęście sprawdza się to tylko u gigantów, bo VADEMECUM CRN listopad 2018
txt_przetwarzanie danych.indd 29
29
20.11.2018 14:36
ORGANIZACJA PRZETWARZANIA DANYCH nawet właściciele centrów danych wybierają oferty tradycyjnych dostawców serwerów. – Kupują od producenta, bo potrzebują supportu. Nie dysponują takimi zasobami ludzkimi, by mogli we własnym zakresie zająć się obsługą tworzonej samodzielnie infrastruktury – wyjaśnia Krzysztof Szablowski. To dowód, że na serwer trzeba patrzeć całościowo, zwracać uwagę nie tylko na sprzęt, ale także na dołączone do niego usługi wsparcia. Nie można więc zapominać o serwisie. Rafał Szczypiorski przekonuje, że dobra obsługa posprzedażna przynosi ogromne korzyści i może zaważyć na wyborze oferty przez klienta. Dlatego pojawiają się nowe metody świadczenia pomocy technicznej wychodzące naprzeciw oczekiwaniom klientów. – Idealnym przykładem jest możliwość nadania odpowiedniego priorytetu zgłoszenia przez samego klienta. To nie serwis decyduje jak ważne jest zgłoszenie, a klient – mówi przedstawiciel Dell EMC.
Nie bez znaczenia dla klientów podejmujących decyzje biznesowe jest też dostępność i jakość oprogramowania zarządzającego. Nie wystarcza już takie, które zapewnia zarządzanie jedynie serwerami. Klienci potrzebują narzędzi uniwersalnych, dzięki którym jednocześnie mogą objąć zarządzaniem również środowisko pamięci masowej oraz sieciowe. – Idealnym rozwiązaniem wydaje się być możliwość definiowania profili dla określonych grup sprzętowych, zgodnie z którymi każde nowe urządzenie po podłączeniu do sieci zostanie automatycznie skonfigurowane – twierdzi Sebastian Perczyński. W obliczu mającego nastąpić ogromnego wzrostu cen energii elektrycznej wyróżnikiem oferty może być energooszczędność serwerów. Wyższa cena prądu bardzo wpłynie na koszt utrzymania serwerów, a w efekcie docelowej usługi przez nie realizowanej. Dlatego klienci będą szukać konstrukcji serwerowych, które zapewnią im niższe rachunki za energię.
Czym różni się wirtualizacja od konteneryzacji? Gdy rosła moc obliczeniowa i pojemność serwerów, tradycyjnie uruchamiane aplikacje przestały wykorzystywać wszystkie dostępne zasoby. Dlatego powstała koncepcja konsolidowania wielu systemów i aplikacji w ramach jednego fizycznego serwera za pomocą wirtualizacji, to znaczy użycia oprogramowania do emulowania wielu systemów sprzętowych. Hypervisor, czyli wirtualizator, tworzy warstwę między sprzętem a maszynami wirtualnymi, których zakładanie i uruchamianie umożliwia. Mogą one być wyposażone w różne systemy operacyjne, a mimo wszystko działać na tym samym serwerze fizycznym – każda ma własne pliki binarne, biblioteki i aplikacje, które obsługuje. Dlatego pojedyncza maszyna wirtualna jest „ciężka”, bywa, że ma wiele gigabajtów. Wirtualizacja systemu operacyjnego zyskała na popularności w ostatniej dekadzie, umożliwiając przewidywalne działanie maszyn wirtualnych i łatwe ich przenoszenie z jednego środowiska serwerowego do innego. Wykorzystywana w ostatnim czasie coraz powszechniej konteneryzacja także gwarantuje uruchamianie wielu izolowanych systemów, ale w ramach tego samego systemu operacyjnego hosta. Działając na serwerze fizycznym, każdy kontener współużytkuje jądro systemu operacyjnego, takiego jak Linux czy Windows, a zazwyczaj także pliki binarne i biblioteki. Współużytkowane komponenty przeznaczone są tylko do odczytu. W rezultacie kontenery są wyjątkowo „lekkie”. Ich rozmiar może być liczony w megabajtach, a nie gigabajtach, natomiast ich uruchomienie zajmuje zaledwie kilka sekund, a nie minut, jak w przypadku maszyn wirtualnych. Konteneryzacja odciąża administratorów IT i to nawet bardziej niż wirtualizacja. Skoro bowiem kontenery używają tego samego systemu operacyjnego, wsparcia (m.in. dostarczania aktualizacji, poprawek) wymaga tylko jeden system operacyjny.
30
– Powinno wzrosnąć zainteresowanie ekonomicznymi technikami chłodzenia, zapewnianymi przez producentów serwerów jak również oferowanymi przez niezależnych dostawców – twierdzi Krzysztof Szablowski.
SERWEROWE
SYSTEMY
OPERACYJNE
System operacyjny zawsze pełnił taką samą rolę – zapewniał aplikacjom dostęp do zasobów sprzętowych. Ostatnie lata nie przyniosły w tej kwestii żadnych zmian. – Bezpieczeństwo, stabilność, wydajność i skalowalność – oto, czego oczekuje się od nowoczesnego systemu operacyjnego. Ma dobrze pracować w maszynie fizycznej, wirtualnej, instancji chmurowej lub wykorzystywany pasywnie jako obraz kontenera – tłumaczy Wojciech Furmankiewicz, Regional Manager, CEE w Red Hat. Obecne systemy operacyjne ewoluują, zmieniają postać z monolitycznej na modułową. Projektując kolejne wersje, twórcy zmierzają do tego, żeby użytkownicy nie musieli instalować całego oprogramowania, tylko wybierać to, co w danym momencie jest im potrzebne. Bardzo istotne stają się funkcje ułatwiające utrzymanie systemu. Ponieważ podczas wprowadzania zmian i aktualizacji nie da się uniknąć błędów, przydatna jest możliwość szybkiego powrotu do poprzedniego stanu, w którym problem nie występował. Pomocna będzie także opcja instalowania poprawek, przede wszystkim związanych z lukami w zabezpieczeniach i stabilnością systemu, bez konieczności wyłączania go. – Gdy w przedsiębiorstwie trzeba czekać nawet miesiąc na okno serwisowe i przez ten czas systemu nie można zaktualizować, taka funkcja bardzo się przydaje – twierdzi Tomasz Surmacz, dyrektor handlowy w SUSE Polska. Ma to znaczenie zwłaszcza w przypadku systemów udostępnianych na zewnątrz, w których poprawki związane z podniesieniem poziomu bezpieczeństwa muszą być wprowadzane natychmiast po ich wydaniu. Ważnym zadaniem serwerowego systemu operacyjnego jest również łatwe
VADEMECUM CRN listopad 2018
txt_przetwarzanie danych.indd 30
20.11.2018 14:36
budowania klastrów serwerów – zarówno w trybie active-active, jak również active-passive. Klastry można uruchamiać w jednej sieci lokalnej, ale też w miejscach oddalonych o wiele kilometrów, gdzie serwery są wykorzystywane zdalnie, budując w ten sposób środowisko HA (High Availability). Podobnie jak w przypadku innych komponentów, które składają się na środowisko IT, istotnym aspektem serwerowego systemu operacyjnego jest koszt utrzymania. Jego znaczenie ciągle rośnie, bo na rynku jest coraz trudniej o fachowy personel informatyczny, a pracy w dziale IT przybywa. W związku z tym coraz potrzebniejsze są narzędzia wspierające administratorów w codziennych obowiązkach, a producenci systemów operacyjnych dołączają do nich rozwiązania ułatwiające zarządzanie infrastrukturą centrum danych, nie tylko uruchomioną za pomocą ich oprogramowania. Dzięki tym narzędziom można zoptymalizować administrowanie całym środowiskiem oraz zwiększyć jego ochronę, np. uzyskując kontrolę nad usuwaniem luk w zabezpieczeniach. Za pomocą oprogramowania w centrum danych realizowana jest obecnie – wspomniana już przy okazji serwerów – idea Software Defined Infrastructure. Buduje się infrastrukturę, używając standardowych elementów sprzętowych,
czyli serwerów z dyskami, a całą „inteligencję” wnosi oprogramowanie. Na bazie systemu operacyjnego dostarczane są m.in. usługi zwirtualizowanej sieci i pamięci masowej dla chmury prywatnej, narzędzia do zarządzania infrastrukturą definiowaną programowo oraz coraz ważniejsze usługi kontenerowe. Dzięki tym ostatnim można elastycznie korzystać z oprogramowania – bardzo szybko i niezależnie od infrastruktury instalować i uruchamiać aplikacje oraz wymuszać ich zamknięcie, zgodnie z aktualnymi potrzebami.
WIRTUALIZACJA
KONTRA KONTENERYZACJA
Rośnie trend wykorzystywania kontenerów wszędzie, gdzie tylko to możliwe. To efekt m.in. ich lekkości, szybkości uruchamiania, bardziej optymalnego użycia zasobów oraz łatwości budowania nowych aplikacji w atrakcyjnej architekturze mikrousług. Stosowanie tych rozwiązań wpływa na obniżenie kosztów utrzymania infrastruktury i poprawę zwinności biznesu. Dlaczego zatem jeszcze nie wszystko jest jeszcze skonteneryzowane? Jak wyjaśnia Wojciech Furmankiewicz, konteneryzacja polega na współużytkowaniu jądra systemu węzła przez wiele aplikacji pracujących w odizolowanych
Zdaniem integratora Dzianis Kaszko. Sales & Marketing Director, Comtegra To, które serwery są w danym momencie tańsze, wynika z polityki dostawców, ich programów cenowych i lojalnościowych. Zdarza się, że serwer o bardzo podobnych parametrach kosztuje mniej u producenta A, ale w konfiguracji z innymi komponentami tańszy jest u producenta B. Bardzo często ważnym kryterium wyboru (zwłaszcza dla przedsiębiorstw z dużymi środowiskami IT) są koszty zarządzania. Jeśli klient ma kilkadziesiąt serwerów jednego producenta i administruje nimi za pomocą stworzonego dla nich rozwiązania, dokupienie kolejnych maszyn innej marki rodzi problemy. Musiałby zarządzać nimi, używając dodatkowych narzędzi. Bardziej ekonomiczny jest zatem zakup droższych o kilka procent urządzeń tego samego dostawcy i zachowanie spójnego środowiska. Nie mniej ważna jest jakość serwisu. Generalnie w ostatnim czasie można było zaobserwować jej spadek, więc vendorzy, którzy nie obniżyli poziomu usług, zaczynają wygrywać. Klient docenia fakt, że jego problemy rozwiązywane są w Polsce, nie musi czekać dwa tygodnie na jakiś komponent itp. Ma to dla niego ogromne znaczenie, zwłaszcza jeśli jego środowisko produkcyjne musi działać w trybie 24/7. Kolejną ważną rzeczą, którą może wyróżnić się producent, jest krótszy termin dostawy.
Wojciech Furmankiewicz Regional Manager CEE, Red Hat
Już dawno minęły czasy, kiedy system operacyjny był instalowany ręcznie w pełnej postaci. Obecnie liczy się maksymalna unifikacja i automatyzacja procesu powoływania nowych środowisk. System operacyjny jest jednym z elementów definiowanych jako Infrastructure as a Code. Powinien zapewniać zautomatyzowaną konfigurację urządzeń sieciowych, systemów pamięci masowej oraz ich integrację z zewnętrznymi elementami budowanej infrastruktury.
procesach. Dlatego, po pierwsze, wersja jądra jest taka sama dla wszystkich, a po drugie, awaria jądra oddziałuje na setki gęsto upakowanych wykorzystujących je kontenerów. W przypadku uruchamiania nowoczesnych aplikacji, które są zaprojektowane do pracy w takim środowisku, ma to niewielkie znaczenie. – Jeśli jednak firmowe systemy są bardziej tradycyjne, wymagają specyficznej wersji jądra i źle znoszą awarię systemu, lepsza będzie w ich przypadku wirtualizacja – wyjaśnia przedstawiciel Red Hata. Jej cechą nadrzędną jest dowolność wersji i rodzaju systemu w przypadku każdej pracującej aplikacji. W efekcie awaria jednej maszyny wirtualnej nie ma wpływu na inne. Na jednym hoście mogą pracować zarówno systemy Linux, jak i Windows. – Dlatego przedsiębiorstwa są zmuszone utrzymywać te „ciężkie” obiekty i opiekować się ich złożonym cyklem życia. To kompromis wynikający z bilansu zysków i start – twierdzi Wojciech Furmankiewicz. W efekcie firmy są skazane na wiele różnych platform, środowiska hybrydowe, wielochmurowe oraz takie, które ciągle wymagają przeznaczonych dla nich maszyn fizycznych. W tak złożonej infrastrukturze niezbędne są sprawne systemy zarządzania i automatyzacji procesów, które ułatwią utrzymywanie środowisk, zarówno kontenerowych, jak i wirtualnych. VADEMECUM CRN listopad 2018
txt_przetwarzanie danych.indd 31
31
20.11.2018 14:36
ORGANIZACJA PRZETWARZANIA DANYCH
Alstor Secure Data Solutions: specjalnie dla centrów danych W ciągu ostatnich kilku lat oferta dystrybutora była sukcesywnie rozbudowywana o kolejne produkty z zakresu rozwiązań sieciowych i komponentów infrastruktury IT. W konsekwencji w 2017 r. wyodrębniono dział Alstor SDS, którego zadaniem jest kompleksowa realizacja projektów dla małych i średnich firm oraz dużych przedsiębiorstw.
W
ofercie Alstor Secure Data Solutions znajduje się kilka podstawowych grup produktów: komponenty infrastruktury IT dla centrów danych i sieci informatycznych, pamięci masowe, rozwiązania do archiwizacji, zarządzania i zapewniania bezpieczeństwa IT, jak również elementy do budowy systemów obiegu dokumentów. Firma zapewnia partnerom kompleksową obsługę przed i po sprzedaży, włącznie z doradztwem, pomocą podczas wdrożeń i obsługą serwisową (również pogwarancyjną).
sieci. Określane jest ono jako SDP (Security Delivery Platform) lub VDP (Visibility Delivery Platform). Z kolei Allegro Packets specjalizuje się w narzędziach do analizy sieci. Allegro Network Multimeter to innowacyjne urządzenie ułatwiające rozwiązywanie problemów sieciowych. Jest mniejsze, szybsze i bardziej praktyczne od podobnych narzędzi oferowanych przez innych producentów. Najmniejszy model jest niewiele większy od smartfona, a ma funkcje bogato wyposażonych serwerów. Potrafi przejrzyście zobrazować nawet skomplikowaną architekturę sieciową.
URZĄDZENIA SIECIOWE, ZARZĄDZANIE SIECIAMI I ICH MONITORING
Zarządzanie współczesnymi sieciami jest złożone i czasochłonne. Dlatego takie znaczenie ma dobór narzędzi umożliwiających monitorowanie sieci i identyfikowanie pojawiających się w nich problemów. Do oferty Alstor SDS trafiło ostatnio kilka marek, które wyróżniają się na tle bogatej oferty sieciowej na rynku. Garland Technology oraz Cubro to producenci niezawodnych, skalowalnych urządzeń i akcesoriów sieciowych zapewniających takie funkcje jak inteligentne filtrowanie, równoważenie obciążeń, agregacja i monitorowanie ruchu oraz wydobywanie metadanych, które poprawiają funkcjonowanie sieci i zwiększają jej wydajność. Obie firmy uznawane są za czołowych dostawców sieciowych TAP-ów (punktów dostępowych), kontrolerów NPB (Network Packet Brokers) oraz analizatorów sieci (Network Probes). Urządzenia tych producentów tworzą środowisko umożliwiające efektywne działanie systemów bezpieczeństwa (IPS, IDC, SIEM itp.) oraz rozwiązań do analizy i monitoringu
32
Do oferty Alstor SDS trafił również produkt firmy Endace, czyli Endace Probe – wielofunkcyjna platforma analityczna i rejestrator sieci. Rozwiązanie umożliwia obsługę zewnętrznych aplikacji przeznaczonych do analityki sieci. Dzięki stuprocentowej dokładności rejestrowania wydarzeń, platforma dostarcza rzetelne dane wykorzystywane do badań związanych z zagrożeniami w cyberprzestrzeni. Posługując się Endace Probe, można łatwo określić, które dane zostały naruszone, oraz dokonać szybkiej analizy problemów związanych z wydajnością sieci lub konkretnej aplikacji. Endace Probe gwarantuje pełne przechwytywanie i zapis pakietów bez utraty któregokolwiek z nich (w połączeniach sieciowych od 10 Mb/s do 100 Gb/s). Oferowane funkcje zapewniają śledzenie ruchu w czasie rzeczywistym, a opcja odtwarzania umożliwia analizę danych historycznych. W ofercie Alstor SDS jest też pełna gama rozwiązań serwerowo-macierzowych, które zapewniają zapisywanie, przechowywanie i archiwizację strumienia danych z sieci. Daje to pełną kontrolę nad pakietami, umożliwia późniejsze ich odtworzenie oraz analizę w momencie zagrożenia atakami lub włamaniami.
VADEMECUM CRN listopad 2018
adv Alstor SDS.indd 32
19.11.2018 12:17
BEZPIECZNA I ŁATWO DOSTĘPNA SERWEROWNIA Vertiv jest wiodącym dostawcą rozwiązań dla centrów danych oraz rozproszonej infrastruktury przetwarzania danych (tzw. edge computing). W ofercie producenta znajdują się również szafy rack, listwy zasilające (standardowe i inteligentne PDU) oraz rozwiązania zasilania gwarantowanego (UPS-y jedno-fazowe). Wszystkie wymienione produkty znajdują się w ofercie Alstor SDS, autoryzowanego dystrybutora Vertiv w Polsce. Wśród najważniejszych rozwiązań tego producenta znajduje się grupa produktów określana terminem Out-of-Band IT Management. Za pośrednictwem połączenia przewodowego lub bezprzewodowego umożliwiają one centrom danych i laboratoriom testowym zarządzanie zasobami sieci oraz IT, praktycznie z dowolnego miejsca. Dzięki możliwości zdalnego wykrywania, rozwiązywania problemów i naprawy sprzętu, zapewniana jest nieprzerwana praca środowiska IT. Omawiane rozwiązanie gwarantuje też pozapasmowe zarządzanie firmowym centrum przetwarzania danych, począwszy od konfiguracji serwerów przez naprawę sprzętu IT aż po kontrolę zasilania – nawet w przypadku awarii sieci. Minimalizuje całkowite koszty użytkowania środowiska IT w wyniku konso-
lidacji operacji zarządzania danymi i systemem. Wpływa również na oszczędność miejsca oraz eliminuje potrzebę stosowania osobnej klawiatury, monitora wideo i myszy dla każdego serwera w centrum danych.
HIPERKONWERGENCJA W MODZIE – PROŚCIEJ, SZYBCIEJ, BEZPIECZNIEJ W ofercie Alstor SDS znajdują się hiperkonwergentne rozwiązania dwóch producentów: StarWind i Syneto. StarWind Virtual SAN to wirtualizator, zaprojektowany z myślą o zapewnieniu wysokiej dostępności środowisk pamięci masowych, natomiast Syneto HYPER Series umożliwia wykonywanie backupu i replikacji środowisk wirtualnych. Obie firmy są pionierami w dziedzinie wirtualizacji pamięci masowej. Zajmują się produkcją i udoskonalaniem rozwiązań wykorzystujących koncepcje, z których inni międzynarodowi producenci IT korzystają zwykle dużo później.
Oprogramowanie StarWind Virtual SAN stworzono z myślą o użytkownikach posiadających już serwery i pamięci masowe. Firmom, które budują swoją infrastrukturę wirtualizacji od podstaw, producent oferuje hiperkonwergentne urządzenie StarWind HCA (HyperConverged Appliance), wyposażone w oprogramowanie StarWind Virtual SAN. Na tle innych systemów typu Software Defined Storage StarWind wyróżnia się łatwiejszym zarządzaniem, niższą ceną, wyższą wydajnością i bogatszym zestawem funkcji. Z kolei Syneto zaprezentowało nowe podejście do hiperkonwergencji, tworząc pierwszą infrastrukturę IT typu all in one o nazwie HYPER Series. Rozwiązanie to zaprojektowano tak, by skupiało wszystkie usługi IT potrzebne dla działania małych firm, dzięki czemu nie muszą inwestować w sprzęt i oprogramowanie (producenci innych hiperkonwergentnych rozwiązań koncentrują się na skalowalności i dostosowaniu ich do potrzeb dużych przedsiębiorstw z listy „Fortune 1000”). HYPER Series łączy wszystkie usługi IT i narzędzia potrzebne firmie w jednej platformie, która może zastąpić rozproszone wirtualne aplikacje, rozwiązania sieciowe i pamięci masowe. Co więcej, rozwiązanie ma wbudowane automatyczne funkcje Disaster Recovery, natychmiastowego lokalnego odzyskiwania wirtualnych maszyn/plików, natywne usługi współużytkowania plików oraz gwarantuje zwiększoną wydajność aplikacji.
Dodatkowe informacje: MARCIN CICHECKI, BUSINESS UNIT DIRECTOR, ALSTOR SDS, M.CICHECKI@ALSTOR.COM.PL VADEMECUM CRN listopad 2018
adv Alstor SDS.indd 33
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ ALSTOR SDS.
Mellanox Technologies to wiodący dostawca kompleksowej infrastruktury sieci Ethernet i InfiniBand dla środowisk serwerowych, pamięci masowych i rozwiązań hiperkonwergentnych. W ofercie ma szeroką gamę produktów sieciowych o najwyższej jakości, w tym karty sieciowe, przełączniki oraz oprogramowanie. Urządzenia Mellanox bazują na technologii Open Ethernet, są wydajne (konstrukcja zoptymalizowana pod kątem prędkości, gęstości portów i niskich opóźnień), energooszczędne, standaryzowane (bazujące na protokołach warstwy 2. i 3.) i skalowalne liniowo. Dzięki temu zapewniają łatwość zarządzania i jego niskie koszty nawet w sieciach o bardzo dużej skali, składających się z tysięcy węzłów. Zastosowanie otwartych interfejsów w rozwiązaniach producenta umożliwiło instalację oprogramowania firm trzecich na „czystych” urządzeniach. Produkty Mellanox Open Ethernet zapewniają wdrażanie sieci definiowanych programowo (Software Defined Networking), zarządzanie nimi oraz równoważenie obciążeń za pomocą standardowych API i wtyczek, dzięki czemu użytkownik ma do dyspozycji wydajne i ujednolicone rozwiązania. Alstor SDS oferuje również karty sieciowe różnych standardów oraz szeroką gamę przełączników Ethernet, Infiniband, SDN oraz PoE.
33
19.11.2018 12:17
ORGANIZACJA PRZETWARZANIA DANYCH
Systemy warte zaufania Dbałość o detale przy projektowaniu rozwiązań i usług IT, szczególnie dotyczące bezpieczeństwa informacji, bardzo popłaca. Dzięki stawieniu czoła temu wyzwaniu można wytworzyć jedną z najcenniejszych w relacjach biznesowych wartości – zaufanie.
F
unkcjonowanie w skali globalnej dostawców usług, przedsiębiorstw i różnego typu placówek rządowych w coraz większym stopniu jest uzależnione od niezakłóconej pracy złożonych sieci komputerowych i telekomunikacyjnych. Ważna jest nie tylko jakość i wydajność używanych rozwiązań. Nieodzowne jest też zaufanie do dostawcy sprzętu, oprogramowania lub usług, czyli przekonanie o etyczności jego działań, dochowaniu należytej rzetelności w tworzeniu produktów i świadczonym później wsparciu. Zaufanie ma ogromne znacznie w kontekście istniejących w cyberprzestrzeni zagrożeń. Z uwagi na fakt, że cyberprzestępcy stają się coraz bardziej agresywni i pozbawieni skrupułów, przedsiębiorstwa muszą współpracować z godnym zaufania dostawcą rozwiązań IT, który ułatwi ochronę ich zasobów.
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z CISCO SYSTEMS.
JAK CISCO
DBA O REPUTACJĘ?
Producent od wielu lat stosuje najlepsze praktyki branżowe, aby zapewnić pełną integralność cyklu rozwoju swoich produktów oraz ich całkowite bezpieczeństwo. Cisco wdrożyło szeroki zestaw powiązanych ze sobą praktyk, procedur i sposobów kontroli, aby wprowadzić techniczne i logiczne zabezpieczenia na każdym etapie łańcucha dostaw swoich produktów. Działania te odbywają się w trzech podstawowych obszarach: innowacyjność w zakresie bezpieczeństwa, ochrona w warstwie technicznej oraz weryfikacja funkcjonowania rozwiązań w celu wykrywania ewentualnych anomalii (bezpieczeństwo logiczne). Już na etapie produkcji zadbano m.in. o to, aby wszystkie procesy były powtarzalne i ściśle określone, co znacznie zmniejsza ryzyko wystąpienia anomalii, które mogą
34
Cechy, którymi powinny charakteryzować się godne zaufania systemy IT z Deklaracja dostawców produktów i usług, że są zaprojektowane, wyprodukowane, sprzedawane i serwisowane zgodnie z dokumentacją. z Podjęcie przez producentów odpowiednich kroków w celu zabezpieczenia tworzonych rozwiązań przed podrabianiem, wpływaniem na sposób ich funkcjonowania lub instalowaniem nieautoryzowanych funkcji, np. backdoor. z Wbudowane i głęboko zintegrowane funkcje gwarantujące bezpieczeństwo, a nie dodawane jako nakładki na „etycznie neutralne” sprzęt i oprogramowanie (pozbawione wielu funkcji ochronnych, pozostawiające decyzję o sposobie ich wykorzystywania i zabezpieczania użytkownikom). Wśród mechanizmów ochronnych powinny być: zaszyfrowana komunikacja wewnętrzna, kontrola dostępu do zasobów w chronionych rozwiązaniach i sposobu ich użytkowania, a także weryfikacja zarządzania regułami polityki bezpieczeństwa. z Gotowość producentów rozwiązań i dostawców usług do nieustannego rozwijania ich funkcji oraz wprowadzania nowych metod ochronnych w reakcji na zmieniające się potrzeby klientów oraz pojawianie się nowych rodzajów zagrożeń. z Transparentność procesów tworzenia oraz utrzymywania sprzętu i oprogramowania przez dostawcę; dane dostępne publicznie w jednym miejscu, bez konieczności logowania się. z Utrzymywanie przez dostawcę własnego, publicznie dostępnego zespołu bezpieczeństwa odpowiedzialnego za pełne portfolio produktowe, który reaguje na zgłoszenia i współpracuje z innymi firmami na rynku, aby wykrywać i eliminować podatności, które pojawiły się w produkcie po premierze.
wpłynąć na bezpieczeństwo użytkowania produktów. Stosowane są w nich bardzo silne, skalowalne algorytmy kryptograficzne, które dzięki szyfrowaniu gwarantują bezpieczeństwo przetwarzanych i przesyłanych informacji. Wprowadzono też mechanizmy, które zapewniają weryfikację autentyczności wykorzystywanego przez klienta sprzętu i oprogramowania. Wszystkie produkty są poddawane odpowiednim procesom certyfikacji, jeżeli tylko jest to wymagane przez prawo w poszczególnych krajach. W tym zakresie przedstawiciele Cisco ściśle współpracują z organami rządowymi i normalizacyjnymi w każdym państwie, dzięki czemu zdejmują ten obowiązek z klientów.
Świat nie jest jednak idealny. Aby zapewnić likwidację zgłaszanych luk i transparentnie dokumentować je w rejestrze, Cisco utrzymuje zespół Product Security Incident Response Team, odpowiedzialny za reagowanie na każde zgłoszenie o potencjalnej luce w oprogramowaniu lub sprzęcie producenta. Grupa ta aktywnie współpracuje z różnymi organizacjami, aby być w stanie reagować szybciej na nowe zdarzenia.
Dodatkowe informacje: ŁUKASZ BROMIRSKI, DYREKTOR TECHNICZNY, CISCO SYSTEMS, LUKASZ.BROMIRSKI@CISCO.COM
VADEMECUM CRN listopad 2018
Vad_04_18_adv Cisco.indd 34
19.11.2018 15:04
Red Hat: łatwiejsza konteneryzacja W
ykorzystanie konteneryzacji sprawia, że aplikacje są dużo „lżejsze” od zainstalowanych w środowisku wirtualnym. Łatwiej też je skalować i przenosić między chmurą publiczną a infrastrukturą wdrożoną u klienta. OpenShift wyposażono w wiele narzędzi, które umożliwiają zarządzanie i monitorowanie kontenerów oraz znajdujących się w nich aplikacji. Rozwiązanie sprawdzi się także w sytuacji, gdy zasoby serwerów (węzłów), na których pracują kontenery, będą w pełni wykorzystane. Z kolei Ansible to narzędzie wykorzystywane w firmach stosujących metodykę DevOps do automatyzacji zarządzania konfiguracją oprogramowania. Ma wiele zalet, m.in. współpracuje z systemami operacyjnymi Windows i Linux oraz najpopularniejszymi rozwiązaniami chmurowymi, takimi jak: Amazon AWS, Google Cloud Platform i Microsoft Azure.
OPENSHIFT KONTRA KUBERNETES Klienci często podnoszą kwestię nabywania subskrypcji pakietu Red Hat OpenShift, bo istnieją przecież społecznościowe (do pobrania bezpłatnie) rozwiązania open source Docker i Kubernetes. Tymczasem wersja wspierana przez Red Hat jest wyposażona w znacznie więcej funkcji (dlatego nazywana jest często „Enterprise Kubernetes”) i korzyści ze stosowania jej jest znacznie więcej. OpenShift jest łatwiejszy w obsłudze. Wyposażono go w kompletną infrastrukturę do uruchamiania Kubernetes: system operacyjny, obsługę pamięci masowych i sieci w różnych środowiskach oraz narzędzia do budowania, wdrażania (CI/CD), monitoringu i agregacji lo-
Mateusz Tokarczyk Product Manager, Veracomp
Red Hat włożył mnóstwo pracy w to, aby oprogramowanie OpenShift spełniało rygorystyczne wymogi firm, którym zależy na wysokiej dostępności aplikacji i ich bezpieczeństwie. Inżynierowie producenta rozbudowali oprogramowanie w modelu open source – w którego rozwój sami zresztą też się angażują – o nowe funkcje, zapewnili jego niezawodność i wprowadzili szereg reguł gwarantujących ochronę danych przetwarzanych w kontenerach.
gów dla aplikacji skonteneryzowanych. Ponadto jest to rozwiązanie zbudowane w modelu multitenant, co zapewnia separację logiczną poszczególnych użytkowników (tenant) – od warstwy infrastruktury aż do uprawnień dostępu do aplikacji. Bardzo ciekawy i ważny zestaw funkcji w OpenShift, których nie ma w Kubernetes, zapewnia moduł do zarządzania obrazami kontenerów – Image Streams. Bez niego np. zmiana jednego tagu dla obrazu kontenera wiąże się z koniecznością pobrania całego obrazu, skorzystania z zewnętrznej aplikacji (np. Skopeo) w celu dokonania zmiany i ponownego przesłania obrazu na serwer. Dostępne są też narzędzia do szybkiego wdrażania nowych wersji obrazów w środowisku produkcyjnym. Nie bez znaczenia są kwestie dotyczące bezpieczeństwa. OpenShift ma w tej dziedzinie znacznie bardziej rygorystycz-
ne reguły polityki ochronnej niż Kubernetes. Przykładowo większość obrazów kontenerów w hubie Dockera nie zostanie uruchomionych w OpenShift, jako że zabronione jest otwieranie kontenerów z prawami roota. Warunku tego często nie spełniają nawet kontenery udostępniane na zasadach open source przez twórców oprogramowania, co wprawia w zakłopotanie część użytkowników. Tę regułę łatwo zmienić w OpenShift, niemniej jednak fakt, że domyślnie wprowadzona jest taka blokada, dobrze świadczy o podejściu producenta do zabezpieczania środowisk IT w korporacjach. Platforma OpenShift standardowo zawiera mechanizmy umożliwiające kontrolę dostępu do zasobów bazującą na rolach (role based access control). Ich stosowanie jest konieczne w środowiskach produkcyjnych średniej i dużej wielkości (nie ma takiej potrzeby w środowiskach deweloperskich i testowych, gdzie z reguły wykorzystywany jest Kubernetes). OpenShift ma także mechanizmy uwierzytelniania i autoryzacji i zapewnia bezproblemową współpracę z Active Directory oraz innymi aplikacjami firm trzecich oraz oprogramowaniem open source. Więcej informacji o różnicach pomiędzy OpenShift i Kubernetes można znaleźć na stronie www.openshift.com/ learn/topics/kubernetes.
Dodatkowe informacje: MATEUSZ TOKARCZYK, PRODUCT MANAGER, VERACOMP, MATEUSZ.TOKARCZYK@VERACOMP.PL MARCIN GWÓŹDŹ, BUSINESS DEVELOPMENT MANAGER, VERACOMP, MARCIN.GWOZDZ@VERACOMP.PL VADEMECUM CRN listopad 2018
adv Veracomp Red Hat.indd 35
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMAMI RED HAT I VERACOMP.
Red Hat OpenShift Container Platform służy do kompleksowego zarządzania cyklem życia aplikacji skonteneryzowanych – począwszy od budowania obrazu kontenera, aż po jego wdrożenie i utrzymanie produkcyjne. Rozwiązanie bazuje na dostępnym na zasadach open source systemie Kubernetes umożliwiającym automatyczne wdrażanie (także w dużej skali) aplikacji kontenerowych i zarządzanie nimi.
35
20.11.2018 12:39
ZAPASOWE CENTRA DANYCH I KOLOKACJA
Ilustracja AdobeStock
Komercyjne centrum danych – sojusznik czy konkurent? Z usług zewnętrznych centrów danych w coraz większym stopniu będą korzystać klienci. Integrator, bazując na infrastrukturze operatora, może sam stworzyć dla nich ofertę usług albo uzupełnić jego portfolio o swoje usługi. TOMASZ JANOŚ
F
irmy mają coraz większe problemy z zatrudnieniem specjalistów IT (szacuje się, że w Polsce brakuje od 30 do 50 tys. informatyków). Gdy trudno znaleźć kogoś, kto miałby zająć się firmową infrastrukturą, trzeba sięgnąć po zewnętrznych usługodawców. Mogą oni zapewnić nie tylko usługi zarządzane, ale też infrastrukturę. Operatorzy centrów danych, ze swoją kompleksową ofertą, szukają pomocy w dotarciu do klientów u partnerów. Liczą na integratorów, którzy nawiązali wiele kontaktów podczas wcześniejszych, tradycyjnie realizowanych projektów i mogą pomóc komercyjnym centrom danych w promocji modelu usługowego. Operatorzy przekonują ich, że wobec nieuchronnych zmian na rynku lepiej się z tym zjawiskiem sprzymierzyć niż je zwalczać. Do oferowanych od lat kolokacji i hostingu serwerów centra danych dodały nowe usługi, w których wykorzystuje się wirtualizację i cloud computing. Stworzyły ofertę pod kątem Disaster Recovery i środowisk hybrydowych (łączących zasoby IT klienta z zewnętrzną infrastrukturą). Proponują także klientom tworzenie zapasowych centrów danych i backup w formie usługi. Planujący współpracę z nimi integrator powinien rozważyć kilka kwestii.
36
Wybór dostawcy usług powinien być poprzedzony dokładną weryfikacją jego oferty pod względem technicznym i kompetencyjnym. Centra danych to obiekty przemysłowe, które w związku z przeznaczeniem muszą być zaprojektowane w taki sposób, aby zapewniały stabilność działania i eliminowały ryzyko występowania pojedynczych punktów awarii. Oznacza to, że podstawą weryfikacji dostawcy jest przegląd jego infrastruktury obejmujący takie obszary jak: łączność, zasilanie i chłodzenie. Ważne jest także sprawdzenie oferowanych przez niego narzędzi do ochrony danych, redundancji rozwiązań oraz sposobu zarządzania. Pozwala to wyeliminować dostawców niespełniających oczekiwanego przez klienta poziomu bezpieczeństwa i jakości usług. Dopełnieniem analizy technicznej jest weryfikacja kompetencji zatrudnionych przez operatora pracowników. To trudny element do weryfikacji. Jednym ze sposobów jego przeprowadzenia są bezpośrednie spotkania i zapoznanie się z wynikami audytów dotyczących konkretnych dziedzin, m.in. architektury sieci i procedur bezpieczeństwa. – Dzięki osobistym spotkaniom i ocenie przygotowania rozwiązań do konkretnych zastosowań łatwo sprawdzić, z kim przyjdzie nam współpracować – wyjaśnia Tomasz Sobol, CMO w Beyond.pl.
VADEMECUM CRN listopad 2018
txt_centra danych_TJ.indd 36
22.11.2018 14:51
Bez względu na to, czy klient chce skorzystać tylko z usługi hostingu, czy zamierza stworzyć Disaster Recovery Center, najważniejszym kryterium wyboru dostawcy powinna być ocena jego niezawodności, rzetelności oraz dojrzałości technicznej i stabilności infrastruktury. – Aby to sprawdzić, najlepiej odwiedzić centrum danych, zobaczyć, jak operator podchodzi do bezpieczeństwa i jaką infrastrukturą faktycznie dysponuje – mówi Robert Mikołajski, kierownik produktu w Atmanie. Największe znaczenie ma poziom stabilności i dostępności oferowanych usług. Zazwyczaj jest wyrażany w gwarancji SLA w skali roku. Najlepsze ośrodki oferują stabilność usług na poziomie 99,99 proc., co oznacza mniej niż godzinę braku dostępności usług w skali roku. Pamiętajmy jednak, że same deklaracje operatorów centrów danych to za mało. – Bardzo przydatne w ocenie jakości usług są uzyskane przez placówkę certyfikaty potwierdzone zewnętrznymi audytami – stwierdza Łukasz Ozimek, dyrektor zarządzający w Exea Data Center. Certyfikaty, przyznawane po serii rygorystycznych testów, stanowią dowód przystosowania infrastruktury do nieprzerwanej pracy, co wprost przekłada się na dostępność oferowanych usług. Nie mniej ważne są rozwiązania w centrach danych. Redundancja infrastruktury, rozwiązania high availability oraz dostępność usług wielu operatorów telekomunikacyjnych to podstawowe warunki, które powinien spełniać każdy operator.
WSKAZANA ELASTYCZNOŚĆ I SKALOWALNOŚĆ Przeniesienie własnych zasobów do zewnętrznego centrum danych może być dla klienta dobrym momentem na zmianę stosowanej do tej pory infrastruktury i zbudowania środowiska IT od nowa. Nie każda firma jest jednak gotowa na taką transformację. – Dlatego właśnie podczas weryfikacji dostawców należy wziąć pod uwagę, czy jest możliwość wyboru usługi oraz przejścia na inne rozwiązania niż dotychczas stosowane w dogodnym dla klienta czasie – twierdzi Tomasz Sobol. To ważne, bo pod pojęciem chmury obliczeniowej funkcjonuje dziś wiele różnych rozwiązań: chmury globalne, takie jak AWS, Google czy Microsoft Azure, chmury open source (OpenStack, KVM) i bazujące na licencjonowanym oprogramowaniu VMware. Różnią się nie tylko ceną, ale także wydajnością, dostępnymi platformami PaaS i SaaS oraz możliwością integracji z innymi zasobami. Niezależnie od wyboru rozwiązania, od dostawcy usług wymaga się zapewnienia odpowiedniego zarządzania infrastrukturą i dodatkowych usług. Nie ma sensu podpisywać długoletniej umowy z firmą, która nie gwarantuje w miarę upływu czasu wprowadzania nowszych rozwiązań. Bardzo ważnym kryterium wyboru dostawcy hostingu, kolokacji lub usług zapasowego centrum danych powinna być jego zdolność do rozwijania i proponowania usług uzupełniających. – Dobrym przykładem jest gotowość do łączenia kolokacji z chmurą obliczeniową, szczególnie że rośnie znaczenie rozwiązań hybrydowych – zauważa Robert Mikołajski.
Przedsiębiorstwa korzystają na ogół z usług różnych dostawców, z których każdy specjalizuje się w innym obszarze, na przykład: telekomunikacji, systemów bezpieczeństwa, przygotowania planów awaryjnych czy chmury obliczeniowej. Przeniesienie danych do zewnętrznego centrum danych nie powinno zmuszać do zakończenia współpracy z dotychczasowymi usługodawcami. – Operator powinien umożliwić klientowi decydowanie o tym, z kim współpracuje i kto ma opiekować się poszczególnymi elementami jego firmowej infrastruktury, nie tylko w dziedzinie telekomunikacji – ocenia przedstawiciel Atmana.
WYMOGI DISASTER RECOVERY CENTER Zapasowe centrum danych, w przeciwieństwie do kolokacji, jest usługą szytą na miarę, wymagającą odwzorowania środowiska IT klienta w zewnętrznym centrum danych oraz zaangażowania wysoko wykwalifikowanych specjalistów od zarządzania infrastrukturą IT. W Disaster Recovery Center można wydzielić warstwy przesyłania, przechowywania i przetwarzania danych. O ile przesyłanie i przechowywanie są bardziej neutralne technologicznie, o tyle przetwarzanie wymaga stworzenia identycznego środowiska jak to działające w firmie użytkownika DRC. – W praktyce centrum danych musi zaoferować klientowi zarządzanie chmurą prywatną tego samego producenta (VMware, Proxmox itp.), analogiczne do wykorzystywanych przez niego rozwiązań pamięci masowe oraz zapewnić dobre połączenie z jego firmą – wyjaśnia Marcin Kowalski, Head of Product w Data Space. W przypadku usług z zakresu Disaster Recovery profesjonalny operator powinien zagwarantować klientowi dywersyfikację rozwiązań obejmującą różne lokalizacje, techniki, partnerów i scenariusze awaryjne. Chodzi tutaj zarówno o przygotowanie alternatywnego miejsca pracy w przypadku, gdy nie będzie można pracować w firmowym budynku, jak i zapewnienie szybkiej zmiany środowiska IT w momencie, gdy podstawowe przestanie być dostępne. – Warto stawiać na tych operatorów, którzy dysponują szeregiem scenariuszy działań awaryjnych, pozwalających klientowi decydować o tym, która infrastruktura ( jego własna, kolokowana, wynajmowana czy zasoby w chmurze) ma służyć jako podstawowe centrum danych, a która jako awaryjne – uważa Robert Mikołajski. Nie we wszystkich przedsiębiorstwach środowisko informatyczne musi mieć zagwarantowane nieprzerwane działanie. Za to wszystkie (przynajmniej w teorii) firmy potrzebują usługi backupu, zapewniającej odtworzenie danych w przypadku ich uszkodzenia lub utraty. Może być świadczona przez zewnętrznych usługodawców z wykorzystaniem komercyjnych centrów danych. – Daje się ją wtedy w pełni zautomatyzować, dzięki czemu administratorzy są zwolnieni z obowiązku ręcznego uruchamiania procesów backupowych, a kopie zapasowe mogą być wykonywane według precyzyjnie określonego harmonogramu – tłumaczy Marcin Zmaczyński, Head of Marketing CEE w Aruba Cloud. VADEMECUM CRN listopad 2018
txt_centra danych_TJ.indd 37
37
22.11.2018 14:51
ZAPASOWE CENTRA DANYCH I KOLOKACJA
W opinii branży Robert Mikołajski, kierownik produktu, Atman
Marcin Zmaczyński, Head of Marketing CEE, Aruba Cloud
ROBERT MIKOŁAJSKI Decydując się na dostawcę usług DRC, hostingu czy kolokacji, trzeba mieć pewność, że dysponuje on zespołem fachowców, którzy oferują coś więcej niż tylko serwis techniczny. Przede wszystkim powinni spełniać rolę doradców technologicznych. Dzięki doświadczeniu w realizacji projektów zaspokajających potrzeby klientów z różnych branż, taki fachowiec nie tylko wie, czego potrzebuje np. przedsiębiorstwo e-commerce. Jest także w stanie doradzić, co zrobić, by dane środowisko IT działało szybciej, sprawniej i było bardziej elastyczne. MARCIN ZMACZYŃSKI Możliwość wykorzystania wielu miejsc do przechowywania kopii zapasowych klienta oraz awaryjnego przywracania jego systemów IT pozwala, w przypadku wystąpienia incydentu, zapewnić wyższy poziom niezawodności niż gdy klient korzysta z usług tylko jednego centrum danych. Nasi klienci mogą podzielić infrastrukturę według potrzeb, np. wybrać jedno miejsce do składowania kopii zapasowych, zaś w innym centrum danych wykupić usługę Disaster Recovery.
Tomasz Sobol, CMO, Beyond.pl
Marcin Kowalski, Senior Product Manager, Data Space
Łukasz Ozimek, dyrektor zarządzający, Exea Data Center
TOMASZ SOBOL Przed dokonaniem wyboru centrum danych należy ocenić operatora, biorąc pod uwagę kilka podstawowych kryteriów, a następnie wyniki skonfrontować z długoterminową strategią oraz specyfiką biznesową własnego przedsiębiorstwa oraz klientów. Pozwoli to uniknąć ślepych zaułków, które mogłyby się pojawić w trakcie długoletniej współpracy z daną placówką. Przykładem może być wybór dostawcy, który nie umożliwia elastycznego rozszerzania usług, w efekcie czego w przyszłości mogą być konieczne przenosiny do innego centrum danych. MARCIN KOWALSKI Kolokacja to podstawowa usługa dla centrum danych i baza dla wszystkich innych usług. To dojrzały rynek i żeby na nim przetrwać potrzeba albo perfekcji w działaniu, albo czynników wyróżniających ofertę operatora. Mogą nimi być przyjazne procedury dostępu do obiektu, udostępnienie narzędzi klientowi na miejscu, pomoc przy instalacji urządzeń i migracji systemów, czy też sprawnie działająca i kompleksowa usługa „zdalnych rąk”, czyli opieka doświadczonych inżynierów nad serwerem lub grupą serwerów klienta. ŁUKASZ OZIMEK Rynek profesjonalnych usług centrów danych w Polsce stale dojrzewa. Obserwujemy coraz większe zaufanie do firm zewnętrznych. Pamiętajmy jednak, że powierzenie danych takiemu przedsiębiorstwu wymaga odpowiedniego przygotowania. I to niezależnie od tego, czy przedmiotem współpracy będą usługi hostingowe, kolokacja serwerów czy utworzenie zapasowego centrum danych.
HOSTING, CZYLI WŁASNA STRONA I SKLEP Hosting to przede wszystkim serwery WWW i e-commerce, natomiast centra danych dostarczają usługi dostosowane do potrzeb klientów, umożliwiają monitorowanie stabilności działania e-sklepów i serwisów internetowych oraz chronienie przechowywanych na serwerach danych. Ich klientem jest reseller uruchamiający biznes w internecie. – Firmy handlowe rozważające rozpoczęcie działalności w obszarze e-commerce mają kilka opcji do wyboru: budowę własnego sklepu internetowego od podstaw, skorzystanie z platformy open source lub usługę w modelu subskrypcyjnym – mówi Michał Giernatowski, E-commerce Project Manager w ABC Data. – Ostatnia z tych metod jest zdecydowanie najprostsza i najmniej pracochłonna. Działalność sklepu można zainaugurować nawet w kilka dni.
38
Jest to możliwe, ponieważ przedsiębiorstwo decydujące się na model SaaS, dostaje „do ręki” w pełni funkcjonalny e-sklep wyposażony w rozbudowane funkcje, skalowalny hosting, zapewniający integracje z niezbędnymi zasobami i oprogramowaniem. Co istotne, integracja z systemami dystrybutorów lub platformami e-commerce oraz aktualizacje oprogramowania i wsparcie techniczne są zawarte w standardowej umowie z usługodawcą i objęte miesięcznym abonamentem. Oczywiście jest też druga strona medalu. W przypadku takich sklepów są zazwyczaj nieco mniejsze możliwości dostosowania ich do wymagań klientów i rozwoju w porównaniu z platformami projektowanymi i budowanymi od podstaw. Natomiast wzbogacenie o ponadstandardowe funkcje zazwyczaj oznacza dodatkowe opłaty.
VADEMECUM CRN listopad 2018
txt_centra danych_TJ.indd 38
22.11.2018 14:51
Strategia migracji do chmury Firmy integratorskie i usługodawcy powinni być gotowi do pomocy swoim klientom w analizie opłacalności przeniesienia ich środowisk IT do chmury. ciami masowymi czy aplikacjami. Z drugiej strony starsze oprogramowanie, zaprojektowane do pracy bezpośrednio w typowym środowisku IT, może się okazać znacząco droższe w utrzymaniu w zasobach chmurowych. Mogą też pojawić się koszty pośrednie, np. związane ze wzmożonym transferem danych.
3. WYBÓR ODPOWIEDNIEGO DOSTAWCY
1. WYBÓR RODZAJU CHMURY Aby zdecydować, czy firma będzie pracować w chmurze, należy szczegółowo przyjrzeć się potrzebom użytkowników. Przestarzałe aplikacje, najważniejsze dla funkcjonowania przedsiębiorstwa środowiska produkcyjne albo zawierające dane wyjątkowo wrażliwe (np. numery kart kredytowych) niekoniecznie powinny być umieszczone w zasobach chmury publicznej. Można zatem rozważyć przeniesienie ich do chmury prywatnej ulokowanej we własnej serwerowni lub wydzielonej chmury prywatnej w centrum danych firmy trzeciej. Mogą też pozostać w dotychczasowej infrastrukturze.
2. OCENA
KOSZTÓW
Przeniesienie zasobów do chmury publicznej umożliwia ograniczenie wydatków na infrastrukturę IT i licencje oprogramowania, a także kosztów związanych z zatrudnianiem pracowników, potrzebnych np. do zarządzania serwerami, sieciami, pamię-
Dostawcy usług chmury publicznej oferują skalowalne środowiska w modelu pay-per-use (płacisz za to, z czego korzystasz). Ale konsekwencją jest brak pełnej kontroli zasobów i korzystanie ze środowiska działającego w modelu multitenancy (dla wielu użytkowników jednocześnie), na co nie mogą pozwolić sobie placówki ochrony zdrowia, banki itp. Dla takich klientów zdecydowanie bardziej atrakcyjne są rozwiązania w chmurze prywatnej. Zdarza się jednak, że potrzeby klienta nie są jednorodne i najlepszym rozwiązaniem byłaby elastyczna chmura publiczna dla części zasobów oraz przetwarzanie pozostałych danych w środowisku prywatnym lub hybrydowym. Warto wziąć też pod uwagę dostęp do narzędzi ułatwiających migrację, a następnie zarządzanie zasobami w chmurze, oraz warunki korzystania z usług wykwalifikowanego, doświadczonego personelu dostawcy, gotowego pomóc we wszystkich fazach migracji.
Jakub Bryła kierownik produktu, Atman
Rozwiązania chmurowe stają się coraz bardziej popularne, wiele firm już stoi przed wyzwaniem, jak przenieść aplikacje i dane z jednej chmury obliczeniowej do drugiej. Co więcej, pojawia się czasem potrzeba migracji pomiędzy dwoma różnymi usługodawcami albo dwiema różnymi architekturami czy też różnymi rodzajami chmur. W praktyce może się to okazać bardzo trudne, dlatego warto skorzystać z doświadczenia usługodawców, którzy wielokrotnie z sukcesem stosowali różnego rodzaju narzędzia, procesy i techniki.
Atman Cloud Atman Cloud to usługa typu Virtual Private Cloud (VPC), bazująca na narzędziach OpenStack, zapewniająca miejsce do składowania danych i moc obliczeniową. Usługodawca – Atman – oferuje fachowe doradztwo i obsługę gwarantującą bezpieczeństwo i stabilny dostęp do wirtualnej infrastruktury serwerowej. Więcej informacji na www.atman.pl/cloud.
4. MODYFIKACJA ORGANIZACJI PRACY I POLITYKI BEZPIECZEŃSTWA
Podjęcie decyzji o przeniesieniu zasobów IT do chmury obliczeniowej zazwyczaj istotnie zmienia metody zarządzania środowiskiem IT i wymaga ingerencji w dotychczasowe reguły polityki bezpieczeństwa. Zmienia się bowiem zakres odpowiedzialności – część przejmuje dostawca usługi, co należy precyzyjnie określić i zawrzeć w umowie. Dotyczy to także procesów zabezpieczania danych i budowy środowiska wraz z mechanizmami jego odtwarzania po awarii, z wykorzystaniem usług w chmurze dostawcy.
5. HARMONOGRAM
DZIAŁAŃ
Po podjęciu decyzji, które zasoby będą przeniesione do chmury, a które zostają w dotychczasowym środowisku, należy opracować harmonogram, ze wskazaniem czasu potrzebnego na poszczególne etapy. Sugerowane jest w pierwszej kolejności przenoszenie aplikacji i danych mniej ważnych, a na końcu zasobów istotnych lub wymagających specjalnego podejścia z uwagi na zachowanie ciągłości działania systemów produkcyjnych.
Dodatkowe informacje: JAKUB BRYŁA, KIEROWNIK PRODUKTU, ATMAN, JAKUB.BRYLA@ATMAN.PL
VADEMECUM CRN listopad 2018
adv Atman.indd 39
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ ATMAN.
M
igracja danych i aplikacji do chmury wymaga odpowiedniego przygotowania i rozważenia wielu czynników, szczególnie w przypadku dużych firm. Analiza powinna objąć zarówno wykorzystywane do tej operacji narzędzia, dostępność ekspertów (własnych i wynajmowanych), modyfikację wewnętrznej polityki bezpieczeństwa, jak i koszty.
39
19.11.2018 14:43
ZAPASOWE CENTRA DANYCH I KOLOKACJA
Data Space – bezpieczna infrastruktura IT w zasięgu ręki Klienci coraz częściej proszą o profesjonalną pomoc w skonfigurowaniu skrojonego na miarę środowiska centrum danych. Właśnie taką ofertę ma Data Space.
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ DATA SPACE.
W
tradycyjnym modelu funkcjonowania centrum danych klient korzysta z usługi kolokacji oraz zapewnionego zasilania i chłodzenia. Następnie, w zależności od potrzeb, zawiera umowę dotyczącą dostępu do internetu (np. przez światłowód), kupuje sprzęt, który potem instaluje, konfiguruje i serwisuje. Wreszcie, samodzielnie zajmuje się pełną administracją. Większość z tych zadań wymaga specjalistycznej wiedzy i doświadczenia, a to oznacza konieczność wynagradzania pracowników, którzy i tak przez większość czasu nie są potrzebni. Dlatego firmy coraz częściej odchodzą od modelu self-hosted i korzystania z kolokacji na rzecz zakupu konkretnych usług. Oferta Data Space to nie tylko powierzchnia centrum danych, ale przede wszystkim centrum usług, z których klient może wybierać rozwiązania na swoją miarę. Operator, jako jedyny na polskim rynku, zapewnia cały ekosystem – od kolokacji przez sieć, prąd, porty sieciowe, sprzęt, serwery dedykowane, chmury prywatne, filtrowanie ruchu, DevOps as a Service po integrację całego środowiska z infrastrukturą dostawców chmury i firm telekomunikacyjnych.
Marcin Kowalski Senior Product Manager, Data Space
Zgłosiła się do nas firma działająca w branży fintech, która potrzebowała kompletnej usługi, objętej rygorystyczną umową SLA. Zanim złożyliśmy ofertę nasi pracownicy starannie przeanalizowali środowisko klienta. Wykryli następujące problemy: brak skalowalności, niską odporność na awarie pamięci masowych, długi czas przywracania systemu do pracy po awarii. Zaproponowaliśmy usługę, w ramach której przejęliśmy w całości odpowiedzialność za utrzymanie w sprawności oprogramowania tworzonego przez klienta, kontaktowanie się z jego zespołami deweloperskimi, dobór sprzętu oraz bieżącą analizę obciążenia i propozycje ewentualnych zmian. Dzięki temu firma otrzymała platformę, która zapewni jej stabilny rozwój – możliwość elastycznego skalowania, bardzo wysoką odporność na awarie sprzętowe oraz realizację polityki backupowej zgodnie z założeniami biznesowymi.
To klienci Data Space decydują, które elementy dostarczą sami, a co otrzymają w pakiecie. Ma to znaczenie w przypadku firm, które otrzymują dofinansowanie na budowę infrastruktury IT, bowiem współpraca z Data Space może bazować na dwóch umowach: jednej dotyczącej sprzedaży i dostarczenia sprzętu, jego serwisu i utrzymania oraz drugiej, obejmującej administrowanie tym środowiskiem. Dzięki takiemu podejściu można dokładniej określić odpowiedzialność za sprawne działanie środowiska oraz przestrzegać Usługi
Platforma Chmura prywatna Chmura hybrydowa Serwisy klientów Automatyzacja Storage Oprogramowanie
Administracja IT Chmura prywatna Chmura hybrydowa Zarządzanie chmurą publiczną
Infrastruktura
rygorystycznych standardów bezpieczeństwa i SLA. Analiza potrzeb odbiorców usług pozwala dopasować rozwiązanie do wykorzystywanych przez nich wcześniej systemów i utrzymywać infrastrukturę w pełnej sprawności przez całą dobę. Według szacunków Data Space, klienci, którym operator pomógł wybrać optymalne rozwiązanie, obserwują zmniejszenie całkowitych kosztów IT o 18–42 proc. w porównaniu z poprzednim modelem działania. W przypadku migracji systemów funkcjonujących w chmurach publicznych oszczędności mogą sięgnąć nawet 70 proc. Więcej informacji o wdrożeniach zrealizowanych przez Data Space można znaleźć na stronie www.dataspace.pl. Firma współpracuje z wieloma resellerami, którzy otrzymują prowizję za wspólne realizowanie projektów u klientów końcowych.
Bare-metal Urządzenia sieciowe Macierze
Sieć Sieć wewnętrzna i zewnętrzna Redundantna i wydajna ajna Do oS Anty DDoS
Data Center D Serwerownia er Z Zasilanie hł Chłodzenie Red Redundancja
40
Dodatkowe informacje: DARIUSZ MAKOWSKI, BUSINESS DEVELOPMENT DIRECTOR, DATA SPACE, DARIUSZ.MAKOWSKI@DATASPACE.PL
VADEMECUM CRN listopad 2018
adv Data Store.indd 40
20.11.2018 19:09
Chmura hybrydowa: wiele korzyści dla MŚP
P
odejmując decyzję o miejscu przechowywania firmowych danych, należy uwzględniać aspekty finansowe i techniczne. W przypadku dużych przedsiębiorstw, o pokaźnym budżecie, analiza kryteriów jest stosunkowo prosta. Jak jednak wygląda sytuacja w przypadku małych i średnich firm? Takie podmioty wybór uzależniają najczęściej od kwestii związanych z regulacjami prawnymi, ceny oraz oczekiwanego poziomu bezpieczeństwa IT. Zaletą rozwiązań chmurowych jest możliwość łączenia ich z własnym centrum danych i stosowania obu modeli równocześnie. Najbardziej wrażliwe informacje można przechowywać na własnych serwerach, natomiast pozostałe powierzyć przedsiębiorstwom oferującym usługi chmurowe. Dzięki zapewnianemu obecnie wysokiemu poziomowi zabezpieczeń, ulokowanie zasobów na zewnątrz, u sprawdzonego usługodawcy, daje gwarancję, że dane będą właściwie chronione, a dostęp do nich będą mieć wyłącznie pracownicy firmy. Znaczna część przedsiębiorców nadal jednak przechowuje je u siebie. Wyniki badania „Użytkowanie usług chmurowych w przedsiębiorstwach działających w Polsce”, przeprowadzonego na zlecenie Aruba Cloud, świadczą, że odsetek usług IT działających w lokalnej infrastrukturze wynosi w firmach 69 proc., natomiast pozostała część (31 proc.) znajduje się w chmurze. Są jednak branże, w których występuje skokowy wzrost zapotrzebowania na moc obliczeniową wynikający z czasowego zwiększenia się popytu na daną usługę. Wtedy warto rozważyć najbardziej elastyczną opcję, czyli chmurę hybrydową, która pozwala dowolnie dodawać
Marcin Zmaczyński Head of Marketing CEE, Aruba Cloud
Praktycznie każda mała lub średnia firma ma cenne biznesowe dane, które musi przechowywać w sposób uniemożliwiający dostęp do nich osobom z zewnątrz. Najlepszym rozwiązaniem wydaje się zainwestowanie we własną infrastrukturę IT zapewniającą optymalny poziom bezpieczeństwa. Wtedy można zyskać przeświadczenie, że przechowywane informacje są odpowiednio chronione i mamy nad nimi pełną kontrolę. Jednak jest to rozwiązanie kosztowne, które wymaga ponoszenia wydatków na utrzymanie i unowocześnianie infrastruktury IT. Konieczne jest też szkolenie pracowników, aby byli przygotowani na awarię systemu i posiadali kwalifikacje pozwalające przeciwdziałać cyberzagrożeniom.
lub ograniczać zasoby. Tego typu usługi świadczone są przez firmę Aruba Cloud. Dzięki nim nie trzeba finansować zakupu własnych serwerów, co w przypadku zmiany koniunktury generuje niepotrzebne koszty, np. związane z opłatami leasingowymi. Chmura hybrydowa zapewnia też dużą skalowalność i moc obliczeniową chmury publicznej, dzięki którym firmy mogą sprawnie realizować nadprogramowe zadania, a płacić tylko za wykorzystane zasoby. Rozszerzając firmową infrastrukturę o usługi chmury publicznej, klient może
równocześnie łatwo sprostać zwiększonemu zapotrzebowaniu na zasoby, a newralgiczne dane pozostawić bezpieczne w chmurze prywatnej. Ten model staje się coraz bardziej popularny, głównie ze względu na możliwość redukowania kosztów oraz przekazywania części zobowiązań (również z zakresu bezpieczeństwa) doświadczonemu personelowi. Warto zainteresować się nie tylko hybrydowym modelem chmury, ale także innymi usługami świadczonymi przez Aruba Cloud. Jedną z nich jest Backup as a Service (BaaS), który zapewnia odtworzenie danych w przypadku ich uszkodzenia lub utraty. Cieszącą się coraz większym zainteresowaniem odmianą tej usługi jest Disaster Recovery as a Service (DRaaS), w ramach którego operator, na bazie własnej infrastruktury, oferuje stworzenie zapasowego centrum danych w celu przechowywania replikowanych danych. Rozwiązanie to przeznaczone jest przede wszystkim dla firm wymagających nieprzerwanej dostępności usług (głównie hostowanych aplikacji i systemów plików). Firma Aruba Cloud jest otwarta na budowanie długotrwałych relacji w ramach programu partnerskiego. Większość usług dostępnych jest w modelu white-label i ma zapewniony interfejs API, dzięki czemu integratorzy mogą oferować je pod własną marką lub wykorzystać do sprzedaży np. oprogramowania SaaS.
Dodatkowe informacje: MARCIN ZMACZYŃSKI, HEAD OF MARKETING CEE, ARUBA CLOUD, MARCIN.ZMACZYNSKI@ARUBACLOUD.PL VADEMECUM CRN listopad 2018
adv Aruba Cloud.indd 41
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ ARUBA CLOUD.
Firmy chcące jak najlepiej zabezpieczyć swoje dane często stają przed trudnym wyborem, na jaki rodzaj infrastruktury postawić – przechowywać dane lokalnie czy w chmurze? Wybór jest tym trudniejszy, że każda z tych metod ma swoje zalety.
41
21.11.2018 10:37
Ilustracja AdobeStock
ZARZĄDZANIE OBIEGIEM DOKUMENTÓW I INFORMACJI
DRUK: efektywność w cenie W Polsce firmy zamierzające zarabiać na usługach zarządzania drukiem wciąż nie mają łatwego zadania. Nadal są klienci, których trzeba przekonywać do tego rozwiązania. Najlepiej skupić się na pokazywaniu konkretnych, wymiernych korzyści. ANDRZEJ GONTARZ
J
est co najmniej kilka czynników, które powodują, że dokumenty drukowane długo jeszcze nie znikną z przedsiębiorstw i instytucji. Po pierwsze, paradoksalnie, przyczynia się do tego sam rozwój technik cyfrowych. Dzięki nim wzrasta łatwość tworzenia informacji, co prowadzi do zwiększenia liczby dokumentów, które potem trafiają do obiegu. Nawet jeśli tych drukowanych jest dużo mniej niż tych elektronicznych, ich liczba nie spada, a może nawet rośnie. Trudno o dokładne obliczenia, bo nikt nie prowadzi badań w tym zakresie, ale wskazują też na to inne przesłanki. Przykładowo, według raportu firmy Quocirca „Print 2025 Spotlight Report: Millennials Matter” najmłodsze pokolenia kadry menedżerskiej, wychowane już w dobie powszechnej informatyzacji i dostępu do internetu, o dziwo nie wyobrażają sobie biura przyszłości bez druku… Na wycofanie druku z biur nie pozwolą w najbliższym czasie również obowiązujące przepisy, które w przypadku wielu
42
różnych dokumentów wciąż jeszcze wymagają formy papierowej. Do tego dochodzą kwestie psychologiczne. Korzystanie z materiałów drukowanych jest często wygodniejsze, a także bardziej efektywne. Wyniki badań dowodzą, że w wielu przypadkach łatwiej zapamiętać i zrozumieć tekst przeczytany z kartki niż z ekranu komputera. Szczególnie, gdy zawiera bardziej zaawansowane treści niż np. dane do faktury. Nie stracą wagi również aspekty społeczno-kulturowe. Dlatego chociażby wiele umów nadal będzie podpisywanych w formie papierowej, bo zapewnia to większy prestiż i podkreśla znaczenie aktu zawarcia porozumienia.
W
JEDNYM OBIEGU
Zmieniają się natomiast – i z pewnością nadal będą się zmieniać – oczekiwania klientów dotyczące urządzeń drukujących. Użytkownicy biznesowi zwracają coraz większą uwagę
VADEMECUM CRN listopad 2018
txt_zarzadzanie dokumentami.indd 42
20.11.2018 13:06
Piotr Baca
Zdaniem integratora
Country Manager, Brother
Alan Pajek, wiceprezes zarządu, Ediko Coraz częściej zarządzanie drukiem oraz optymalizację obiegu dokumentów przedsiębiorcy powierzają zewnętrznym podmiotom. Skuteczną realizację tych zadań mogą zapewnić wyłącznie wykwalifikowani integratorzy, świadczący usługi zarządzania drukiem w modelu Managed Print Services. To coraz popularniejsze rozwiązanie zapewniające efektywne zarządzanie procesami druku i stanowiące bezpośrednią odpowiedź na bolączki związane z funkcjonowaniem środowiska druku dokumentów, takie jak: zakup materiałów eksploatacyjnych we właściwym czasie, niedostateczna przejrzystość kosztów druku, czy też potrzeba cyklicznego serwisu urządzeń. Te działania tylko niepotrzebnie angażują zespół IT. Decydując się na usługę MPS, przedsiębiorstwo może odciążyć swój personel techniczny i skupić się na podstawowej działalności biznesowej. Uniknie przy tym przestojów i niespodziewanych kosztów.
na jakość wydruków. Wyraźnie widoczny jest trend odchodzenia od sprzętu zapewniającego tylko czarne-białe wydruki. Wzrost zainteresowania drukowaniem w kolorze spowodowany jest tym, że wiele firm, szczególnie z sektora MŚP, używa drukarek nie tylko do drukowania dokumentów biurowych, lecz także do samodzielnego tworzenia materiałów promocyjnych i marketingowych. Coraz większą popularność zyskują urządzenia wielofunkcyjne. Klienci przestają się zadowalać drukarkami, chcą używać „kombajnów” służących nie tylko do drukowania, ale również do kopiowania, skanowania i archiwizacji dokumentów. Wynika to między innymi z coraz bardziej widocznej w firmach potrzeby korzystania z cyfrowego systemu zarządzania obiegiem dokumentów obejmującego zarówno materiały drukowane, jak też elektroniczne. Dzięki temu można o wiele łatwiej znaleźć dokument, który ma być wydrukowany i tym samym szybciej dotrzeć do niezbędnej informacji, bez względu na to, w jakich zasobach się znajduje. W związku z tym klienci coraz częściej oczekują, że urządzenia będą miały funkcje umożliwiające digitalizację dokumentów. W wielu współczesnych skanerach są już wbudowane programy do rozpoznawania tekstu (OCR), ułatwiające automatyzację wielu procesów biznesowych, np. w zakresie zarządzania obiegiem faktur i realizowania płatności. Powoli rośnie także zainteresowanie drukiem mobilnym. Szczególnie firmy zatrudniające pracowników działających w terenie zaczynają doceniać to użyteczne rozwiązanie. Sprawdzi się jednak również w przestrzeni biurowej – pracownicy będą mogli zdalnie, ze smartfona, zlecać wydruk na dowolnej drukarce w przedsiębiorstwie. Z tym wiąże się wyzwanie w postaci takiego przygotowania cyfrowej wersji dokumentu, by przed zleceniem wydruku można go było łatwo sprawdzić na smartfonie, tablecie i specjalistycznym terminalu mobilnym.
Digitalizacja dokumentów jest wyjątkowo istotnym procesem dla przedsiębiorstw, które cenią szybkość i łatwość dostępu do danych. Ponadto coraz ważniejsze stają się uproszczone procesy przepływu informacji (workflow), które umożliwiają podejmowanie decyzji w zależności od treści dokumentu. Dlatego skanowanie staje się podstawowym warunkiem wejścia dokumentu w „zdigitalizowany świat” firmy lub instytucji. Skanery i urządzenia wielofunkcyjne są już standardowo wyposażane w systemy, które „czyszczą” dokument, żeby był maksymalnie przejrzysty, a także wykonują jego digitalizację za pomocą oprogramowania OCR. To gwarantuje przedsiębiorstwu automatyczne katalogowanie dokumentów we właściwym miejscu w jego zasobach. Oferta w zakresie zarządzania drukiem skupia się na wyposażeniu w optymalnie działające urządzenia drukujące i skanujące oraz dostarczeniu bezpiecznych rozwiązań obiegu dokumentów.
Producenci urządzeń do druku i przetwarzania obrazu muszą więc dostosowywać coraz mocniej swój sprzęt do wymogów i warunków cyfrowego środowiska pracy. W tej perspektywie powinni patrzeć na swój biznes również resellerzy i integratorzy działający na rynku szeroko pojętego druku. Urządzenia drukujące nie znikną z użytku firmowego, ale będą musiały coraz mocniej wpisywać się w system jednolitego, cyfrowego obiegu dokumentów.
PRIORYTETY
BIZNESOWE
Z biznesowego punktu widzenia kluczowa jest optymalizacja kosztów druku. Przedsiębiorstwa oczekują wysokiej jakości i dużej wydajności urządzeń drukujących, a jednocześnie ograniczania kosztów ich użytkowania. Dlatego coraz większego znaczenia nabiera oprogramowanie do efektywnego zarządzania wydrukami. Klienci szukają rozwiązań, które zapewniają optymalizację zleceń drukowania. Chodzi zarówno o aplikacje pozwalające jak najlepiej dobierać opcje wykonywania wydruków przez poszczególne zespoły, działy czy wręcz pojedynczych pracowników, jak i narzędzia do monitorowania pracy urządzeń drukujących. Do takich rozwiązań zaliczają się systemy kolejkujące oraz służące do ograniczania druku i umożliwiające zdalne drukowanie na dowolnym urządzeniu w firmie. Producenci i dostawcy przekonują, że optymalizacji kosztów sprzyja usługowy model druku. Użytkownicy płacą w tym przypadku za rzeczywiście wykonane wydruki lub uiszczają ryczałt obejmujący określoną liczbę kopii, skanów i wydruków, a za dodatkowe dokumenty płacą osobno. Usługodawca natomiast zobowiązuje się do pełnej obsługi i serwisu sprzętu, zaopatrzenia w materiały eksploatacyjne, utrzymania urządzeń w stałej gotowości do pracy oraz administrowania oprogramowaniem do zarządzania VADEMECUM CRN listopad 2018
txt_zarzadzanie dokumentami.indd 43
43
20.11.2018 13:06
ZARZĄDZANIE OBIEGIEM DOKUMENTÓW I INFORMACJI wydrukami. Tym samym zdejmuje z administratorów IT wiele zadań. Z kolei integratorowi taki kontrakt zapewnia stały, z góry określony dochód. Może on zaoferować klientom także system zarządzania cyfrowym obiegiem dokumentów oraz inne usługi. Przekonanie klientów do takiego rozwiązania nie jest jednak łatwe, chociażby ze względu na przyzwyczajenie do posiadania urządzeń na własność oraz obawy związane z oddaniem kontroli nad urządzeniami i procesami w ręce podmiotu zewnętrznego. Oferta resellerów i integratorów, chcących świadczyć taką usługę, musi być zatem bardzo dobrze przemyślana i rzetelnie przygotowana. Główny nacisk trzeba położyć na pokazanie wymiernych korzyści biznesowych. Jedną z najlepszych zachęt jest perspektywa podniesienia efektywności pracy z wydrukami i optymalizacji związanych z tym kosztów.
WIĘKSZE
BEZPIECZEŃSTWO
Do zlecenia kompleksowego zarządzania środowiskiem druku w ramach modelu MPS można także zachęcać, wykazując zwiększenie poziomu bezpieczeństwa danych zamieszczonych w drukowanych bądź skanowanych dokumentach. Podłączone do sieci drukarki mogą stać się celem ataków tak samo jak inne systemy komputerowe w firmach, a znajdujące się w pamięci tych urządzeń informacje mogą dotyczyć istotnych aspektów funkcjonowania przedsiębiorstwa, są zatem łakomym kąskiem dla hakerów. Osiągnięcie odpowiedniego poziomu bezpieczeństwa umożliwia m.in. oprogramowanie do kompleksowego zarządzania drukiem i obiegiem dokumentów w przedsiębiorstwie. Zapewnia monitorowanie procesów drukowania i skanowania, precyzyjne wskazanie użytkowników urządzeń drukujących i przydzielanie im dokładnie określonych praw dostępu do poszczególnych zasobów informacji. Dzięki temu wiadomo, co kto może zrobić oraz co i jak faktycznie robi. To ogranicza pole do ewentualnych nadużyć i nieuprawnione lub lekkomyślne wykorzystywanie przetwarzanych w procesie drukowania danych. Wśród innych, możliwych do zaoferowanie klientowi usług w zakresie bezpieczeństwa może też znaleźć się szyfrowanie danych przesyłanych do urządzeń drukujących. Odpowiednio zabezpieczone i monitorowane mogą być połączenia z urządzeniami drukującymi. Wyspecjalizowany usługodawca będzie miał dzięki temu możliwość blokowania złośliwego oprogra-
Rozwój technologii wpływa na zmianę preferencji Specjaliści prognozują wzrost zainteresowania drukarkami atramentowymi w zastosowaniach biznesowych. Wiąże się to z udoskonaleniem techniki ich działania. Istotną zaletą tych urządzeń ma być znacznie mniejsze niż w przypadku drukarek laserowych zużycie energii, a jednocześnie zachowanie wysokiej jakości druku. Z danych IDC wynika, że w IV kw. 2017 r. sprzedano na świecie 28,1 mln urządzeń drukujących, czyli o 1,2 proc. więcej niż przed rokiem. W opinii autorów raportu to efekt zwiększenia się o 3,3 proc. popytu na drukarki atramentowe.
44
Błażej Kowalkiewicz Product Manager, Alstor SDS
Do stworzenia systemu obiegu dokumentów oraz profesjonalnego, cyfrowego ich archiwum niezbędne jest zarówno odpowiednie oprogramowanie, jak i urządzenia do digitalizacji zasobów papierowych. Obecnie na rynku są: proste skanery typu flatbed, urządzenia wielkoformatowe, skanery produkcyjne (do szybkiego, automatycznego przetwarzania dużych ilości dokumentów) oraz modele typowo biurowe, wśród których znajduje się sprzęt różnego typu, np. mobilny i sieciowy. Rozwiązania techniczne w tym obszarze zmierzają w kierunku pełnej automatyzacji. Oznacza to, że użytkownicy będą mieli mniej możliwości wyboru w procesie skanowania, a co za tym idzie, zmaleje liczba popełnianych przez nich błędów. Wiele skanerów po skonfigurowaniu zapewnia wybór gotowego profilu. Celem producentów jest bowiem zaoferowanie urządzeń, które same wykonają wymagane czynności, bez ingerencji uzytkownika.
mowania, gdyby pojawiło się w sieci. Dodatkową ochronę środowiska druku zapewni kontrolowanie dostępu do sprzętu drukującego – stosowanie kart pracowniczych, czy też przydzielanie kodów lub haseł.
W
STRONĘ USŁUG
Wydaje się, że w najbliższym czasie funkcjonować wciąż będą równolegle różne modele systemów drukowania w środowiskach biznesowych. Niektórzy specjaliści uważają wręcz, że tradycyjny rynek urządzeń drukujących jeszcze długo będzie miał się całkiem dobrze. Chociaż zdarza się i tak (również na polskim rynku), że firmy, zazwyczaj duże, kupują urządzenia drukujące lub skanujące oraz oprogramowanie do ich obsługi, by potem oddać je w zarządzanie firmie zewnętrznej. Inne stosowane przez użytkowników sposoby korzystania z rozwiązań do druku to outsourcing, dzierżawa czy leasing sprzętu. W zakresie upowszechnienia modelu MPS wciąż jest wiele do zrobienia. Szacuje się, że na świecie z usług zarządzania drukiem korzysta około 50 proc. przedsiębiorstw. Kolejne 25 proc. zamierza zainwestować w rozwiązania tego rodzaju w najbliższym czasie. To nadal duże pole do popisu dla integratorów zainteresowanych tego rodzaju aktywnością biznesową. Z kolei połowa polskich firm z sektora MŚP deklaruje, że nie jest zainteresowana usługami zarządzania drukiem. Rodzimi integratorzy i resellerzy, którzy działają na tym rynku, twierdzą jednak, że przedsiębiorcy, którzy zdecydowali się na model usługowy, już z niego nie rezygnują. W Polsce jest już wielu dostawców, którzy zdecydowaną większość przychodów czerpią z usług zarządzania drukiem. Taka formuła daje im gwarancję stałych, regularnych dochodów oraz przewidywalność biznesu w co najmniej kilkuletnim okresie.
VADEMECUM CRN listopad 2018
txt_zarzadzanie dokumentami.indd 44
20.11.2018 13:06
MPS obniży koszty druku
u klientów integratorów Brother ma pełne portfolio monochromatycznych i kolorowych drukarek oraz urządzeń wielofunkcyjnych, dzięki którym partnerzy producenta mogą świadczyć klientom usługi zarządzania drukiem.
Dopasowane rozwiązanie Elementem każdej umowy na usługi zarządzania drukiem jest gwarancja pomocy ze strony doradców ds. sprzedaży. Partner producenta, na bazie analizy potrzeb klienta, może przeprowadzić następujące działania mające na celu stworzenie w jego firmie zoptymalizowanego środowiska druku: 1. ocena — rozpoznanie preferencji klienta dotyczących druku; 2. optymalizacja — analiza aktualnych wymagań w zakresie druku i rekomendacja urządzeń niezbędnych do zwiększenia wydajności; 3. wdrożenie — dostarczenie i instalacja nowych urządzeń; 4. monitorowanie i kontrola — założenie konta na portalu internetowym, zawierającym informacje na temat stopnia zużycia materiałów eksploatacyjnych, liczby wydrukowanych stron i kosztów.
ją korzystanie z najnowszych urządzeń. Zmniejszają też zakres obowiązków administratorów IT, którzy przestają być odpowiedzialni za wsparcie użytkowników i konserwację sprzętu drukującego, dzięki czemu mają więcej czasu na inne ważne zadania, np. związane z dbaniem o bezpieczeństwo firmowych zasobów. W ramach oferowanej przez firmę Brother i jej partnerów usługi MPS klienci rozliczają się za eksploatację i serwis urządzeń wyłącznie na podstawie liczby wykonanych wydruków w formule „pay-per-click”. Jest to jedyny koszt, jaki ponoszą. Usługa może być wyceniana na podstawie liczby wykonanych wydruków lub można ustalić limit, po przekroczeniu którego naliczane są dodatkowe opłaty. Prosty w obsłudze portal internetowy zapewnia aktualizowane na bieżąco informacje o zużyciu materiałów eksploatacyjnych, przeglądanie zamówień oraz kontrolowanie kosztów. Stworzenie środowiska druku bazującego na usługach może być poprzedzone szczegółową analizą, która uwzględnia nie tylko aspekty procesu drukowania. Pod uwagę brany jest także np. plan budynku oraz trasa pokonywana przez pracowników w celu dotarcia do urządzenia drukującego. Na podstawie tych informacji tworzony jest zoptymalizowany plan rozmieszczenia wielofunkcyjnych urządzeń: większych w miejscach, gdzie wykonuje się dużą liczbę wydruków, i mniejszych, zaspokajających niewielkie, związane z codzienną pracą potrzeby. Usługi zarządzania drukiem w Polsce świadczone są przez partnerów firmy Brother. Odpowiadają oni za stworzenie oferty, negocjacje z klientem, instalację sprzętu i jego serwis. Narzędziem do wspierania partnerów i klientów koń-
Paweł Lechicki MPS Coordinator, Brother
Bardzo ważna jest edukacja rynku w zakresie korzyści wynikających z korzystania z usług zarządzania drukiem, które stanowią naturalny kierunek rozwoju tego segmentu. Jeszcze do niedawna zainteresowane nimi były głównie duże firmy, ponieważ sens ich zastosowania polegał na osiągnięciu efektu skali. Sytuacja jednak uległa zmianie i obecnie z usług MPS mogą korzystać nawet kilkuosobowe firmy. Główną ich zaletą jest nie tylko zapewnienie panowania nad kosztami wydruków, ale także uniknięcie konieczności serwisowania sprzętu, co administratorzy w firmach wskazują jako jeden z najmniej lubianych obowiązków. Z posiadanych przez nas danych wynika, że ponad 90 proc. umów na zarządzanie drukiem jest powtórnie podpisywanych po wygaśnięciu, co dowodzi jak ważne jest dbanie o klienta w okresie obowiązywania umowy.
cowych jest specjalny portal, w którym klient podpisuje umowę bezpośrednio z producentem ( jest on następnie odpowiedzialny za dostawy materiałów eksploatacyjnych do siedziby użytkownika). Partner natomiast co miesiąc otrzymuje od firmy Brother stosowną prowizję.
Dodatkowe informacje: BIURO@BROTHER.PL VADEMECUM CRN listopad 2018
adv Brother.indd 45
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ BROTHER.
P
rzeprowadzone na zlecenie firmy Brother badania dowodzą, że firmy wydają na drukowanie więcej niż pierwotnie zakładano w ich budżetach. Tymczasem przedsiębiorstwa działające w warunkach coraz większej konkurencji szukają skutecznych sposobów na kontrolę wydatków. Kwestie związane z drukiem to dziedzina, w której o wprowadzenie programu oszczędnościowego jest wyjątkowo łatwo. Wystarczy skorzystać z oferowanych już od lat na rynku usług zarządzania drukiem (Managed Print Services). Zapewniają one całkowitą przejrzystość kosztową procesu drukowania, a jednocześnie gwarantu-
45
20.11.2018 19:01
ZARZĄDZANIE OBIEGIEM DOKUMENTÓW I INFORMACJI
Dlaczego warto sprzedawać skanery dokumentowe Fujitsu? Fujitsu, lider rynku skanerów dokumentowych, nieustannie analizuje potrzeby klientów wynikające z nowych trendów biznesowych. Dzięki temu urządzenia producenta zawierają wiele innowacyjnych rozwiązań, przez co rośnie szansa zdobycia przez firmy partnerskie kontraktu u klienta.
R
esellerom i integratorom, którzy są zainteresowani wprowadzeniem do własnej oferty skanerów dokumentowych oraz świadczeniem usług związanych z zarządzaniem cyklem życia informacji, producent skanerów Fujitsu (PFU) proponuje udział w programie partnerskim Imaging Channel Program. Dzięki niemu zyskają dostęp do zasobów, które ułatwią rozwiązywanie problemów klientów i pomogą im funkcjonować w dynamicznie zmieniającej się rzeczywistości biznesowej. Usprawnią dzielenie się dokumentami i informacjami, zapewnią możliwość zdalnej pracy oraz zredukują ilość papieru w biurze. – Zdobycie profesjonalnej i rozległej wiedzy dotyczącej kwestii związanych ze skanowaniem dokumentów i późniejszym zarządzaniem nimi ma szczególne znaczenie wobec faktu, że na rynku jest bardzo wiele zwykłych, tanich skanerów – mówi Błażej Kowalkiewicz, Product Manager w firmie Alstor SDS, która jest dystrybutorem skanerów Fujitsu w Polsce. – Ale projektanci tych urządzeń nie skupiają się na kwestiach związanych z procesami biznesowymi, które sprzęt ma wspierać. Dlatego wprowadzane w nim innowacje rzadko dotyczą ergonomii użytkowania. My edukujemy partnerów także w zakresie rozwiązywania konkretnych problemów klientów niezwiązanych z aspektami technicznymi, ale dotyczących współpracy i mobilności ich personelu oraz korzystania z usług w chmurze. Na firmy, które dołączą do Imaging Channel Program, czeka wiele korzyści, co ułatwi rozszerzenie działalności o rozwią-
46
zania do zarządzania obiegiem dokumentów. Partnerzy mają zapewnione wsparcie w zakresie edukacji (bogata biblioteka dokumentów, filmów i webinariów), działań marketingowych (specjalne fundusze, narzędzia komunikacyjne dla mediów społecznościowych, pomoc w opracowywaniu opisów wdrożeń u klientów) oraz sprzedażowych (dostęp do planów rozwoju oferty, system rejestracji kontraktów, rabaty projektowe, urządzenia demonstracyjne). Certyfikowani partnerzy mogą liczyć także na dodatkowe wynagrodzenie ich zaangażowania i wysiłku włożonego w oferowanie rozwiązań Fujitsu. Dla uczestników programu Imaging Rewards producent przygotował wiele nagród – sprzęt elektroniczny, ekskluzywne wyjazdy wakacyjne, vouchery na różnego typu atrakcje itp. Aby otrzymywać nagrody, trzeba rejestrować sprzedaż skanerów Fujitsu na portalu partnerskim oraz zdobyć certyfikat w przynajmniej jednej z czterech specjalizacji: – ScanSnap – oferowanie skanerów z rodziny Fujitsu ScanSnap, – Network – skanowanie dokumentów z wykorzystaniem skanerów sieciowych, – Workgroup & Departmental – sprzedaż i wdrażanie rozwiązań skanujących dla grup roboczych i departamentów, – Production – konsultacje eksperckie, sprzedaż i wdrażanie systemów skanowania wysokowydajnego. Istnieją dwa rodzaje certyfikatów związanych ze sprzedażą skanerów dokumentowych, które resellerom i integratorom przyznaje Fujitsu. Pracownikom tych firm przyznawany jest tytuł Certified Imaging Professional. Do jego uzyskania konieczne jest ukończenie wybranych kursów dostępnych w portalu partnerskim producenta i zdanie egzaminu online. Z kolei firma wpółpracująca z producentem może postarać się o uzyskanie statusu Specialist Imaging Partner. W tym celu powinna zatrudniać minimum dwóch pracowników z tytułem Certified Imaging Professional oraz osiągnąć roczny poziom sprzedaży uzgodniony z Fujitsu.
VADEMECUM CRN listopad 2018
adv Alstor Fujitsu.indd 46
20.11.2018 18:58
NIE TYLKO SKANERY Oprócz urządzeń skanujących Fujitsu zapewnia także różnego typu współpracujące z nimi oprogramowanie, sprzedawane pod marką PaperStream. Podstawową aplikacją jest PaperStream IP – sterownik TWAIN i ISIS, dzięki któremu integracja skanerów dokumentowych Fujitsu z posiadanym przez klienta oprogramowaniem biurowym jest bardzo prosta i nie ma potrzeby jego wymiany na inne. PaperStream IP potrafi analizować zeskanowane dokumenty, aby wydobyć z nich najistotniejsze informacje. Dokonuje tego dzięki zastosowaniu zaawansowanych technik cyfrowego oczyszczania (m.in. eliminowania wzorzystego tła) i rozbudowanym mechanizmom rozpoznawania znaków (OCR). Sterownik automatycznie obraca zeskanowany obraz, kadruje go, wypełnia tłem dziurki (np. z dziurkacza) i oderwane krawędzie. Możliwe jest także usuwanie kolorów z dokumentów, dzięki czemu późniejszy wydruk jest bardziej czytelny, a zawierające je pliki zabierają mniej miejsca. Dla administratorów przygotowane zostało oprogramowanie Scanner Central Admin, które umożliwia tworzenie profili skanowanych dokumentów oraz zdalne aktualizowanie aplikacji PaperStream IP we wszystkich miejscach w firmie, gdzie została zainstalowana. Natomiast PaperStream NX Manager to oprogramowanie serwerowe, które umożliwia integrację skanerów z różnymi systemami i aplikacjami klienta. W środowiskach, w których wykorzystywanych jest wiele tego typu urządzeń, gwarantuje scentralizowane zarządzanie funkcjami uwierzytelniania użytkownika, menu zadań i innymi ustawieniami skanowania. Zapewnia to znaczne obniżenie kosztów instalacji i obsługi sprzętu oraz jego większą wydajność. Użytkownicy mogą skanować i zapisywać dokumenty bez użycia komputera (np. z urządzeń mobilnych). Oprogramowanie PaperStream NX Manager umożliwia użytkownikom zapisywanie zeskanowanych obrazów w wybranych przez nich formatach (PDF, TIFF, JPEG) oraz takich usługach jak SharePoint lub SharePoint Online, serwer FTP lub FTPS albo serwer poczty e-mail. W przypadku użycia interfejsu API zeskanowane obrazy można także zapisywać w systemach klienta. Aplikacja NX Manager zapewnia też użytkownikom wgląd w stan wszystkich procesów skanowania dokumentów i powiadamia o wszelkich błędach.
• fi-7600 – model A4, skanuje dokumenty w orientacji poziomej w formacie A4 z szybkością 100 str./min lub dwustronnie 200 obrazów/min (w rozdzielczości odpowiednio 200 lub 300 dpi). Urządzenie jest przystosowane do pracy w trybie ciągłym: podajnik ADF mieści 300 arkuszy na raz, co znacznie poprawia wydajność obróbki dużej liczby dokumentów. Ponadto umożliwia też skanowanie wielu różnych rodzajów dokumentów, takich jak karty plastikowe, koperty, długie dokumenty i pisma na cienkim papierze. • fi-7700 – funkcjonalność podobna jak w modelu fi-7600, ale dodatkowo wyposażony jest w płaski skaner A3 (304,8 mm x 457,2 mm). • fi-6400 – model A3, skanuje dokumenty z szybkością 100 str./min lub dwustronnie 200 obrazów/min w rozdzielczości 300 dpi w trybie panoramicznym A4 (85 str./min lub 170 obrazów/min w trybie portretowym A4). Wyposażony jest w automatyczny podajnik dokumentów ADF mieszczący 500 arkuszy A4. Dzięki zastosowaniu zaawansowanego mechanizmu pobierania i separacji kartek skanuje dokumenty o różnych właściwościach fizycznych: od rozmiaru A8 do A3, na papierze o gramaturze 20–209 g/m2. Dostępna jest też funkcja ręcznego podawania materiałów do zeskanowania i przetwarzania dokumentów długich (do 3048 mm). Skaner fi-6400 można kupić z zainstalowanym imprinterem, który wykonuje określony nadruk na zeskanowanych dokumentach. • fi-6800 – funkcjonalność podobna jak w fi-6400, ale szybszy (130 str./min lub 200 obrazów/min) w trybie panoramicznym i, oprócz USB, wyposażony w port UW SCSI. • fi-5950 – model A3, skanuje dokumenty z szybkością 135 str./min lub dwustronnie 270 obrazów/min w rozdzielczości 200 dpi w trybie panoramicznym A4 (105 str./min lub 210 obrazów/min w trybie portretowym A4). Ma automatyczny podajnik dokumentów ADF mieszczący 500 arkuszy A4. Wyposażony w port USB 2.0 oraz Ultra SCSI, a także kartę CGA Kofax Hardware VRS.
Dodatkowe informacje: BŁAŻEJ KOWALKIEWICZ, PRODUCT MANAGER, ALSTOR, B.KOWALKIEWICZ@ALSTOR.COM.PL VADEMECUM CRN listopad 2018
adv Alstor Fujitsu.indd 47
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMAMI FUJITSU I ALSTOR.
Wybrane skanery przemysłowe fi rmy Fujitsu
47
20.11.2018 18:58
CIĄGŁOŚĆ PRACY PRZEDSIĘBIORSTWA
DANE
zawsze pod ręką
Zmiany zachodzące w świecie nowych technologii to woda na młyn dostawców rozwiązań do ochrony danych. To także duże pole do popisu dla integratorów zainteresowanych realizacją zaawansowanych projektów.
W
edług IDC do 2025 r. mieszkańcy naszego globu wygenerują 160 ZB danych, czyli 10 razy więcej niż obecnie. Aż 90 proc. z nich wymagać będzie ochrony, co stanowi niezbyt dobrą informację dla działów IT. Jak trudnym zadaniem jest skuteczne zabezpieczenie danych przekonali się już najwięksi giganci: IBM, Apple, GitLab, czy AWS. CNN ochrzciło 2017 „rokiem, w którym wydawało się, że nic nie jest bezpieczne”. Opisało przy okazji, jak firmy i instytucje sektora publicznego dawały się ogrywać hakerom. Warto jednak zauważyć, że bieżący rok przyniósł poprawę sytuacji, choć trudno popadać w hurraoptymizm. Według Risk Based Security od stycznia do końca czerwca na świecie odnotowano 2308 wycieków informacji, w wyniku których wyparowało 2,6 mld rekordów. Bardzo dużo, ale jednak o 3,4 mld mniej niż w pierwszym półroczu 2017 r. Czyżby firmy zaczynały doceniać wartość informacji? Krzysztof Rybiński, wykładowca akademicki i Chief Ideator w Synerise, przyznaje, że dzisiaj dostęp do danych jest tak samo ważny dla sukcesu firm jak finansowanie. Nie bez przyczyny coraz częściej w branży nowych technologii dyskutuje się o systemach wysokiej dostępności (high availability).
48
Najbardziej precyzyjni w określaniu dostępności danych są providerzy data center. Przykładowo współczynnik niezawodności 99,999 proc. oznacza, że system może mieć 5-minutową przerwę w ciągu całego roku. Natomiast w materiałach reklamowych pojęcie wysokiej dostępności jest nadużywane. Dlatego zawsze warto sprawdzić w specyfikacji technicznej, jak producent je definiuje. Szum marketingowy sprawia, że część klientów bezgranicznie ufa systemom wysokiej dostępności. Zastosowanie tej klasy produktów ogranicza do minimum ryzyko wystąpienia przestojów związanych z awarią sprzętu, oprogramowania lub spowodowanych błędami ludzkimi. Nie zdają jednak egzaminu w przypadkach, kiedy trzeba zmierzyć się z żywiołami natury. Niestety, szefowie przedsiębiorstw wychodzą z założenia, że skoro wydali mnóstwo pieniędzy na system, nie muszą poświęcać czasu i środków na opracowanie planu odzyskiwania danych po awarii. Tymczasem posiadając system wysokiej dostępności, nadal można stracić dane klienta. Analitycy Storage Switzerland szacują, że 30–40 proc. firmowych danych jest przechowywanych na urządzeniach końcowych. Nie są w żaden sposób archiwizowane ani kontrolowane przez działy IT. W najbliższych latach specjaliści od ochro-
ny danych muszą obniżyć ten niechlubny wskaźnik. Niestety, wielu przedsiębiorców wciąż przekłada na później zarówno opracowanie nowej strategii ochrony danych, jak i zakup związanych z tym innowacyjnych rozwiązań. Jednak o ile klienci nie są należycie przygotowani na radykalne zmiany, o tyle producenci starają się iść z duchem czasu. – Dostawcy rozwiązań do backupu muszą zapewnić kontrolę nad danymi rozproszonymi w różnych systemach i środowiskach. Niemal każde nowe rozwiązanie do backupu umożliwia zastosowanie konsoli bądź media agenta w środowisku wirtualnym lub chmurze. Największą trudnością jest zaś zachowanie kompatybilności nowych produktów z archaicznymi wersjami systemów – ocenia Krzysztof Szablowski, S4Engineers Team Leader. Działy IT muszą dbać nie tylko o ochronę danych znajdujących się na fizycznych czy wirtualnych maszynach w firmowej serwerowni, ale również informacji przechowywanych na dysku laptopa i dokumentacji fotograficznej w pamięci smartfona. W strategii ich bezpieczeństwa należy przywiązywać dużą wagę do stacji roboczych oraz notebooków, bowiem znajdują się na nich pliki ważne dla prowadzenia biznesu i spełniania wymogów RODO. Problem polega na tym, że przenośne urządzenia nie zawsze
Ilustracja AdobeStock
WOJCIECH URBANEK
VADEMECUM CRN listopad 2018
txt_ciaglosc_pracy firmy.indd 48
20.11.2018 12:57
są podłączone do korporacyjnej sieci, a tym samym wymykają się kontroli działów IT. Bardzo często osoby pracujące zdalnie zyskują zbyt dużą swobodę w zakresie doboru aplikacji, co niekorzystnie wpływa na bezpieczeństwo firmowych danych. Tymczasem zmasowane ataki skierowane przeciwko użytkownikom komputerów nabierają na sile. Cyberprzestępcy w ubiegłym roku wytoczyli ciężkie działa w postaci ransomware’u. Petya i WannaCry siały prawdziwe spustoszenie w sieci. Przy czym zagrożenie nie mija: Cybersecurity Ventures prognozuje, że firmy i instytucje zapłacą w 2018 r. okupy o łącznej wartości 8 mld dol. Co ciekawe, część ataków ransomware zaczyna się od wyszukania i zaszyfrowania kopii zapasowych. Dostawcy oprogramowania do backupu stacji roboczych i notebooków nie składają broni, cały czas wzbogacając funkcje produktów. – Zmiany podążają w kierunku lepszej ochrony przed atakami hakerów. Jednym ze sposobów jest bezpieczna wymiana plików między pracownikami, bez wykorzystywania zewnętrznych serwisów. Nie mniej ważne jest zapewnienie sprawnego przeszukiwania zgromadzonych danych i określenia ich zgodności z przepisami RODO. W systemach ochrony danych pojawiają się też zaawansowana analityka i funkcje zbliżone do Data Loss Protection – mówi Przemysław Mazurkiewicz, EMEA East System Engineering Director w firmie Commvault.
CHMURA RATUJE
DANE
Producenci starają się zapewnić skuteczną ochronę zasobów znajdujących się w różnych środowiskach: fizycznych, wirtualnych i chmurowych. W ostatnim czasie rosnącą popularnością cieszą się usługi backupu w chmurze. Według firmy badawczej Market Research Future w 2023 r. globalna wartość tego segmentu rynku wyniesie 5,66 mld dol., a roczne tempo wzrostu w latach 2017–2023 sięgnie 21 proc. Optymistyczne prognozy wynikają z faktu, że bezpośrednie tworzenie kopii zapasowych do repozytorium znajdującego się w chmurze publicznej eliminuje kłopoty związane ze skalowalnością i ogranicza wydatki na infrastrukturę. W najbliższych latach wzrośnie zapotrzebowanie na zaawansowane rozwiąza-
Zdaniem integratora Tomasz Spyra, prezes Rafcom Systemy backupu ewoluują w kierunku rozwiązań sprzętowych. O nie też najczęściej pytają klienci. Najbardziej istotne zmiany, jakie pojawiły się w tej grupie produktów, obejmują mechanizmy backupu zmienionych bloków dyskowych połączone z całościową deduplikacją. Znacząco skracają czas tworzenia kopii zapasowych oraz zapewniają ochronę zasobów znajdujących się poza siedzibą firmy.
Sławomir Marcisz, architekt IT, Netology Rozwiązania do backupu rozwijają się w kierunku coraz szerszego wsparcia procesu zarządzania danymi przez ich zabezpieczenie od chwili powstania przez archiwizację nieużywanych zasobów aż po usuwanie zbędnych plików. W przypadku stacji roboczych dostępne są narzędzia zabezpieczające przed nieuprawnionym dostępem w przypadku zagubienia sprzętu, np. funkcje szyfrowania czy zdalnego usuwania danych.
nia jednocześnie wykonujące niezliczoną liczbę zadań związanych z tworzeniem kopii zapasowych i zapewniające powierzchnię dyskową do ich przechowywania. Poza tym duże i średnie przedsiębiorstwa muszą zapanować nad tysiącami punktów końcowych. Niegdyś pracownik korzystał wyłącznie z komputera PC, obecnie także ze smartfona i tabletu. Nowe wyzwania często przekraczają możliwości klasycznej architektury, w której kluczową rolę spełniał przeznaczony do backupu serwer, odbierający dane z punktów końcowych. Chmura publiczna zaczyna więc być postrzegana przez ekspertów jak idealne środowisko do tworzenia kopii zapasowych. Dostawcy oprogramowania do backupu bardzo szybko dostrzegli potencjał środowiska chmurowego. Ich produkty są dostosowane do nowych reguł i spełniają wymagania w zakresie bezpieczeństwa zarówno w danych znajdujących się w firmowych zasobach, jak i w Amazon Web Service, Microsoft Azure, Google Cloud Platform lub IBM Bluemix. – Zauważam powolną ewolucję w kierunku chmury. Ważne, że na rynku są już rozwiązania, które zapewniają szybkie i bezpieczne tworzenie kopii zapasowych i replikacji w chmurze wybranego dostawcy. Takie produkty oferują m.in. Veeam, Commvault czy Veritas – mówi Paweł Bociąga, prezes zarządu Symmetry. Warto przy tym zwrócić uwagę na fakt, że integratorzy chętnie włączają do oferty backup w formie usługi. Wielu z nich właśnie w ten sposób rozpoczyna swoją przy-
godę z chmurą. Na tej zasadzie działa Netology, współpracując z operatorem centrów danych 3S. Innym dostawcą usług backupu i odzyskiwania danych jest warszawski integrator Engave. Przedsiębiorcy współpracujący z rodzimymi dostawcami zawsze mogą liczyć na indywidualne podejście, co w przypadku globalnych usługodawców raczej nie jest możliwe.
BACKUP
DLA
SAAS
SaaS to obecnie najpopularniejsza usługa chmurowa. Gartner szacuje, że wartość globalnego rynku oprogramowania jako usługi wyniesie na koniec bieżącego roku 74 mld dol. Dla porównania łączne przychody ze sprzedaży usług chmury publicznej osiągną w 2018 r. 186 mld dol. Na pierwszy rzut oka SaaS wydaje się idealnym rozwiązaniem – klient otrzymuje od ręki nowe oprogramowanie w postaci usługi i nie ponosi wydatków na jego zakup, jak też nie musi martwić się o aktualizacje. Ale, jak zwykle, diabeł tkwi w szczegółach. Według IDG Research aż 95 proc. użytkowników SaaS jest przekonanych, że obowiązki związane z backupem i odzyskiwaniem danych spoczywają na barkach usługodawców. Tymczasem Microsoft, Google czy Salesforce stosują zasady ograniczonej odpowiedzialności. W efekcie operator odpowiada wprawdzie za utratę danych w przypadku awarii własnego sprzętu lub oprogramowania, klęski żywiołowej i przerwy w dostawach energii. Natomiast umywa ręce, gdy przyczyną VADEMECUM CRN listopad 2018
txt_ciaglosc_pracy firmy.indd 49
49
20.11.2018 12:57
CIĄGŁOŚĆ PRACY PRZEDSIĘBIORSTWA
W opinii branży Tomasz Krajewski, Regional Presales Manager, Eastern EMEA, Veeam
Artur Cyganek, dyrektor regionalny na kraje Europy Wschodniej, Acronis
ARTUR CYGANEK Współczesne środowiska informatyczne są dużo bardziej dynamiczne niż jeszcze kilka lat temu. Często mamy do czynienia z rozwiązaniami hybrydowymi, rozproszonymi między wieloma różnymi platformami. Użytkownicy poszukują narzędzi, które za pomocą jednego spójnego interfejsu zapewnią wykonanie backupu z lokalnej maszyny wirtualnej działającej na dowolnej platformie wirtualizacyjnej, serwera fizycznego, laptopa oraz wirtualnego prywatnego serwera umieszczonego w dowolnej chmurze.
Sławomir Karpiński, prezes zarządu Connect Distribution
kłopotów jest błąd pracownika klienta, ale także atak hakerski. Wbrew pozorom nie są to sporadyczne przypadki – aż 77 proc. użytkowników SaaS w ciągu roku dotknęła utrata danych. Takie firmy bezpowrotnie tracą dokumenty bądź muszą słono płacić za ich odzyskanie (np. w Salesforce ceny tej usługi zaczynają się od 10 tys. dol.). Część dostawców oprogramowania do backupu (Barracuda, Kasseya, Veeam Software, Odaseva, Veritas) wykazuje zainteresowanie tym segmentem rynku. Zapewniają najczęściej zabezpieczenia dla Office 365, Salesforce’a oraz Google Suite.
BACKUP
WIRTUALNYCH MASZYN
Wirtualizacja serwerów przestała być nośnym tematem, co wcale nie oznacza, że ten segment rynku zastygł w bezruchu. Wprawdzie VMware vSphere i Hyper-V nadal pozostają najpopularniejszymi platformami, ale klienci poszukują alternatywnych rozwiązań. Z badań Enterprise Strategy Group wynika, że ponad 60 proc. instytucji korzysta z więcej niż jednego hiperwizora. W ostatnim czasie szczególnie duże wzięcie
50
TOMASZ KRAJEWSKI Brak dostępu do danych oraz proces ich odzyskiwania powinny trwać jak najkrócej, gdyż przestoje można przeliczyć na realnie stracone pieniądze i nierzadko decydują one o być albo nie być firmy. Może się okazać, że trwający trzy dni przestój doprowadzi do jej upadku. Do tego nieplanowane przestoje opóźniają inicjatywy cyfrowej transformacji. Tak twierdziło blisko dwie trzecie respondentów zeszłorocznego, szóstego branżowego Veeam Availability Report. Ponadto aż 82 proc. firm zmaga się z tzw. deficytem dostępności, czyli różnicą między potrzebami użytkowników a możliwościami ich zaspokojenia przez dział IT.
SŁAWOMIR KARPIŃSKI Spektakularne ataki ransomware zburzyły spokój wielu administratorów, którzy polegali na tradycyjnym backupie na nośnikach dyskowych. Okazało się bowiem, że dyski te mogą być równie łatwo zaszyfrowane jak systemy produkcyjne. Ponadto uwidocznił się znany od lat problem, że nie wszystkie firmy regularnie testują procedury odtworzenia z backupu. Choć dysponowały oprogramowaniem i przestrzenią do tworzenia kopii zapasowych, przywrócenie systemu było niemożliwe lub czas odtworzenia nieakceptowalny. Dlatego coraz większą popularność zdobywają alternatywne sposoby zabezpieczaenia danych, jak chociażby replikacja najważniejszych maszyn wirtualnych do oddalonego centrum zapasowego w chmurze prywatnej lub publicznej.
mają produkty dostępne w ramach otwartego oprogramowania, a najbardziej KVM. Wysyp platform wirtualizacyjnych nie pozostaje bez wpływu na rozwiązania do tworzenia kopii zapasowych. Z jednej strony na rynku debiutują nowi gracze, tacy jak HYCU, opracowujący systemy backupu wyłącznie dla Nutanixa, z drugiej doświadczeni producenci wzbogacają swoje rozwiązania o funkcje do obsługi kolejnych hiperwizorów. Zresztą tego typu działań oczekują od nich integratorzy. – Istniejących rozwiązań do backupu w przypadku Hyper-V oraz vSphere jest bardzo wiele. W moim przekonaniu warto zainteresować się wprowadzeniem tego rodzaju systemów na platformach bazujących na systemie Linux, jak KVM oraz Xen. I tego należałoby oczekiwać od kolejnej generacji rozwiązań do backupu maszyn wirtualnych – mówi Paweł Bociąga. W podobnym tonie wypowiada się Tomasz Spyra, prezes Rafcomu. Według niego jednym z wyzwań stojących przed producentami jest dostarczenie rozwiązania do zabezpieczania środowisk wirtualne, niezależnie od ich wielkości i platformy.
Plany rozwojowe producentów nie ograniczają się do poszerzania współpracy z kolejnymi platformami wirtualizacyjnymi. Jednym z najważniejszych zadań jest wsparcie procesów migracji w taki sposób, żeby móc odtwarzać kopie zapasowe z firmowej serwerowni w chmurze publicznej. To ważne, bowiem większość przedsiębiorców już wkrótce będzie korzystać nie tylko z własnych centrów danych, ale również ze środowisk chmurowych Azure, AWS lub lokalnych dostawców usług. Przemysław Mazurkiewicz zwraca przy tym uwagę, że nowoczesny backup maszyn wirtualnych powinien także uwzględniać ochronę rozwiązań kontenerowych, zwiększenie automatyzacji oraz minimalizację niekontrolowanego wzrostu liczby maszyn wirtualnych. Generalnie rynek rozwiązań do ochrony danych otwiera szerokie możliwości przed integratorami, którzy nie boją się wyzwań. Zmiany w tym segmencie mają bardzo dynamiczny charakter. Najważniejsi gracze, a także startupy, wprowadzają w życie innowacyjne pomysły zarządzenia zasobami cyfrowymi.
VADEMECUM CRN listopad 2018
txt_ciaglosc_pracy firmy.indd 50
20.11.2018 12:57
QNAP gwarantuje ciągłość pracy Od początku działalności QNAP dba o to, aby dane zgromadzone na serwerach NAS tej marki były bezpieczne i zawsze dostępne. Przedsiębiorstwa mogą liczyć na bardzo bogaty zestaw funkcji ochronnych oraz rozbudowany pakiet opcji gwarancyjnych.
Ż
BACKUPU
NIGDY ZA WIELE
Podstawową i wciąż przez wielu niedocenianą funkcją ochronną jest backup. Serwery QNAP zostały przetestowane we współpracy z większością popularnych profesjonalnych aplikacji do tworzenia kopii zapasowych oraz ze stosowanym w systemie macOS mechanizmem Time Machine. Producent zapewnia także proste, niewymagające dodatkowej licencji rozwiązanie do tworzenia kopii zapasowych i przywracania danych z laptopów i komputerów stacjonarnych z systemem Windows — QNAP NetBak Replicator. Oprogramowanie to służy do wykonywania kopii plików metodą przyrostową (kopiowane są tylko te pliki, które zostały zmodyfikowane po utworzeniu ostatniej kopii zapasowej), co pozwala oszczędzić czas i miejsce na dysku. Umożliwia również tworzenie migawek VSS w systemie Windows Server w celu wykonania kopii zapasowej maszyn wirtualnych Hyper-V lub baz danych SQL Server. Urządzenia QNAP zapewniają nie tylko wszechstronne narzędzia do backupu, ale również wiele metod tworzenia pełnych kopii zapasowych zawartości samego NAS-a. Dzięki temu użytkownicy uzyskują dodatkową ochronę danych na wypadek awarii.
Opcje i warunki gwarancji serwerów QNAP Standardowa Rozszerzenie Advanced Next Next Business gwarancja gwarancji Replacement Business Day Day Onsite Wsparcie przez telefon
X
X
X
V
V
Priorytetowe rozpatrzenie zgłoszenia
X
X
V
V
V nast. dzień roboczy**
Wysyłka sprawnego urządzenia
X
X
3 dni*
nast. dzień roboczy**
Dostarczenie sprawnego urządzenia przez pracownika QNAP
X
X
X
X
nast. dzień roboczy**
2/3/5 lat
rozszerzenie do 5 lat
2/3/5 lat
od 1 do 5 lat
od 1 do 5 lat
Dostępne opcje długości gwarancji
* Czas wysyłki do Polski może wpłynąć na wydłużenie czasu dostawy. ** W przypadku gwarancji Next Business Day i Next Business Day Onsite zgłoszenie musi być zweryfikowane i zatwierdzone przez dział serwisu do godziny 14 w dni powszednie od poniedziałku do piątku. Zgłoszenia zatwierdzone w późniejszych godzinach są realizowane w kolejnym dniu roboczym.
Kopie te są tworzone w czasie rzeczywistym (zgodnie z ustalonym wcześniej harmonogramem) na innych zdalnych serwerach QNAP NAS lub serwerach FTP przy użyciu standardowego protokołu rsync lub usługi QNAP RTRR. Umożliwia ona monitorowanie plików przez źródłowy serwer NAS (dotyczy to też plików w folderach kopii zapasowych aplikacji Qsync i Time Machine) oraz synchronizację zmian na serwerze docelowym. Stosowany w NAS-ach firmy QNAP system QTS zapewnia też tworzenie kopii zapasowych w różnych chmurach publicznych klasy korporacyjnej (np. Microsoft Azure, Amazon Glacier, Amazon S3, Dropbox, ElephantDrive, Google Drive i IBM SoftLayer). Współpracuje też z rozwiązaniami służącymi do przechowywania danych w chmurze prywatnej, zgodnymi z systemem OpenStack Swift i protokołem WebDAV.
GWARANCJA
opcje Next Business Day oraz Next Business Day Onsite, dzięki którym otrzymają sprawne urządzenie kolejnego dnia roboczego od momentu zgłoszenia awarii (w opcji Onsite pracownik QNAP dostarczy nowy sprzęt i odbierze uszkodzony). Obydwoma rodzajami gwarancji można objąć wszystkie modele w obudowie rack oraz modele pięciownękowe lub większe w obudowie tower. Decyzji o rozszerzeniu gwarancji należy dokonać w ciągu 90 dni od daty zakupu urządzenia. Wszystkie pakiety gwarancyjne proponowane przez QNAP zapewniają naprawę sprzętu, wsparcie przez help desk i e-mail, dostęp do aktualizacji i repozytorium dodatkowego oprogramowania. Szczegółowe różnice między nimi zaprezentowane są w tabeli powyżej. Autoryzowanymi dystrybutorami rozwiązań QNAP w Polsce są: AB, ABC Data, Action, EPA Systemy i Konsorcjum FEN.
WEDŁUG POTRZEB
Od września 2018 QNAP oferuje nowe pakiety gwarancyjne, dzięki którym awaria urządzenia nie spowoduje wielodniowego przestoju w pracy przedsiębiorstwa. Użytkownicy mogą wykupić
Dodatkowe informacje: GRZEGORZ BIELAWSKI, COUNTRY MANAGER, QNAP, GBIELAWSKI@QNAP.COM VADEMECUM CRN listopad 2018
adv_QNAP.indd 51
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ QNAP.
adna firma nie jest w pełni odporna na utratę cennych danych, konieczne jest więc odpowiednie przygotowanie na taką ewentualność. Niezbędnym elementem jest opracowanie kompleksowego planu tworzenia kopii zapasowych danych oraz ich odzyskiwania, a także przywracania całego środowiska do pracy po awarii. Rozwiązania zapewniane przez QNAP zostały zaprojektowane tak, aby użytkownicy łatwo mogli stworzyć i wdrożyć procedury zapewniające ciągłość biznesową firmy.
51
20.11.2018 19:18
CIĄGŁOŚĆ PRACY PRZEDSIĘBIORSTWA
Bezpieczny znaczy dostępny Na dostępność systemów IT bardzo duży wpływ ma poziom zapewnianego im bezpieczeństwa. Przerwy w pracy mogą nastąpić z wielu powodów: ataku ransomware, konieczności odizolowania serwera lub komputera od sieci w celu wyeliminowania zagrożenia albo przywrócenia całego środowiska z kopii backupowej po awarii.
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ SOPHOS.
S
tabilna łączność między elementami infrastruktury IT ma fundamentalne znaczenie dla nieprzerwanego funkcjonowania przedsiębiorstw. W dzisiejszych czasach praca bez dostępu do internetu (np. bez poczty elektronicznej) jest praktycznie niemożliwa. To woda na młyn cyberprzestępców. Nic więc dziwnego, że korzystają z wielu narzędzi komunikacyjnych, aby zmanipulować swoją przyszłą ofiarę i przeprowadzić atak z wykorzystaniem złośliwego oprogramowania. Zaczyna się od zwykłego phishingu, a później, w zależności od rodzaju złośliwego kodu, zaczyna się eksploracja urządzeń podłączonych do firmowej sieci w poszukiwaniu luk, które można wykorzystać. Często wystarczy jeden, zbyt słabo zabezpieczony komputer lub telefon, aby sprawić przedsiębiorstwu problemy. Dla branży rozwiązań ochronnych największym wyzwaniem jest jednak to, że producenci z reguły nie są w stanie objąć „wzrokiem” całej istoty problemu, lecz skupiają się na jego wycinku. Dla przykładu, pakiety antywirusowe, których celem jest zabezpieczenie urządzeń końcowych, praktycznie nie zauważają, co dzieje się wokół, poza systemem operacyjnym, w którym są uruchomione. Tak samo firewalle – stosują wiele zaawansowanych metod filtrowania ruchu pochodzącego z internetu, ale są bezradne, gdy złośliwy kod zostanie przyniesiony na urządzeniu, które zostanie podłączone do sieci lokalnej wewnątrz firmy. Nie są też w stanie sprawdzić, czy na urządzeniach końcowych jest np. aktualna wersja bazy danych oprogramowania antywirusowego. To oznacza, że mimo ogromnego rozwoju technicznego, za którym nieustan-
52
nie podążają także cyberprzestępcy, sytuacja w branży rozwiązań ochronnych jest podobna jak 10 czy 20 lat temu. Brak komunikacji między systemami zabezpieczającymi powoduje, że niemożliwe jest globalne spojrzenie na bezpieczeństwo, gdyż atakujący może nagle rozpocząć działania z wielu stron. Według przeprowadzonych przez Sophos badań aż 83 proc. menedżerów IT na świecie przyznało, że w ciągu ostatniego roku ataki stały się trudniejsze do powstrzymania.
BEZPIECZNE BICIE
SERCA
Sophos stworzył rozwiązanie Sophos Security Heartbeat, które zwiększa bezpieczeństwo infrastruktury IT dzięki zsynchronizowanej wymianie szczegółowych informacji pomiędzy osprzętem sieciowym a urządzeniami końcowymi, takimi jak komputery, tablety czy smartfony. Gdy wyposażony w ten mechanizm firewall wykryje podejrzany ruch, powiadamia urządzenie końcowe. Zainstalowany na nim agent natychmiast reaguje, identyfikuje podejrzany proces i kontroluje go, a w wielu przypadkach automatycznie blokuje jego wykonywanie. Informacje o zidentyfikowanym procesie i podjętych działaniach, wraz z nazwą komputera oraz zalogowanego użytkownika, są przekazywane do firewalla oraz do działu IT. Z kolei oprogramowanie klienckie na urządzeniach końcowych bez przerwy wysyła informacje o zachodzących zdarzeniach firewallowi. Gdy wykryte zostaną jakieś problemy, np. próba uruchomienia podejrzanego kodu, firewall stosuje odpowiednie reguły polityki bezpieczeństwa, by odizolować takie urządzenie lub ograniczyć jego wpływ na pracę sieci. Taki model komunika-
Maciej Kotowicz, Channel Account Executive Poland, Sophos
Brak globalnego podejścia do zagadnień bezpieczeństwa to duże wyzwanie dla zespołów IT w przedsiębiorstwach. W przypadku skumulowanego ataku ogromną trudność sprawia im skorelowanie znajdujących się na serwerach, w komputerach i logach firewalla informacji dotyczących działań podjętych przez cyberprzestępców. Brak automatyzacji powoduje, że administratorzy tracą cenne godziny, podczas których atak jest kontynuowany (a ze względu na skupienie nad rozwiązywaniem problemu mogą nie być świadomi tego faktu), bądź firma nie może działać, gdyż nie ma dostępu do kluczowych usług IT.
cji zapewnia efektywność pracy administratorów, szczególnie gdy konieczne jest przeprowadzenie skrupulatnego dochodzenia. To, co do tej pory zajmowało godziny lub dni na analizy, jest w pełni zautomatyzowane, a dzięki temu czas operacji został zredukowany do sekund. Autoryzowanymi dystrybutorami rozwiązań Sophos w Polsce są firmy AB i Konsorcjum FEN.
Dodatkowe informacje: MACIEJ KOTOWICZ, CHANNEL ACCOUNT EXECUTIVE POLAND, SOPHOS, MACIEJ.KOTOWICZ@SOPHOS.COM
VADEMECUM CRN listopad 2018
adv Sophos.indd 52
19.11.2018 15:28
Gwarancja dostępności środowisk wirtualnych i chmurowych
D
ane mają ogromne znaczenie dla przedsiębiorstw, ale z zarządzaniem nimi wiążą się bardzo duże wyzwania. Oprócz gwałtownego wzrostu ilości danych (co roku na świecie się ona podwaja) i ich wielkiego rozproszenia na różnych urządzeniach i w chmurze, największym wyzwaniem jest zapewnienie takiej ochrony, która nie dopuści do utraty danych, a także do niepowołanego dostępu do nich. Veeam Hyper-Availability Platform to zestaw zaawansowanych narzędzi, które pomagają rozwinąć mechanizmy zarządzania danymi i uwzględnić ich „zachowanie” w środowisku IT. Dzięki temu zabezpieczanie informacji oraz gwarantowanie ich wysokiej dostępności jest dużo prostsze zarówno w przypadku każdej aplikacji, jak i infrastruktury chmurowej.
W skład tej platformy wchodzą między innymi takie rozwiązania jak Veeam Availability Suite oraz Veeam Agent dla Microsoft Windows i Linuxa. Zapewniają one tworzenie kopii zapasowych i odzyskiwanie danych, a także ich replikację oraz automatyczne przywracanie dostępu w przypadku wystąpienia awarii (przełączanie na tryb awaryjny). Aplikacje zostały wyposażone w otwarty interfejs, dzięki któremu można zintegrować je z hiperwizorami firm VMware, Microsoft i Nutanix, systemami pamięci masowej Cisco, Dell EMC, HPE, Huawei, IBM, Infinidat, NetApp i Pure Storage oraz oprogramowaniem Microsoftu (m.in. Exchange, Active Directory, SharePoint, SQL) i Oracle. Wykorzystując oprogramowanie Veeam, dane można zabezpieczać także w środowisku chmurowym. Producenta łączy strategiczne partnerstwo z operatorami
Tomasz Krajewski Presales Manager Eastern EMEA, Veeam Software
W Polsce wciąż pokutuje przekonanie sprzed paru lat, że gwarantowana ciągłość prowadzenia biznesu równoznaczna jest z wysoką dostępnością systemów IT – infrastruktury centrum danych i usług. Zapomina się natomiast, że wysoka dostępność powinna obejmować również dane. O ile w przypadku rozwiązań sprzętowych gwarancja nieprzerwanej pracy zapewniana jest przez producenta, o tyle w przypadku danych to ich administratorzy powinni stworzyć odpowiednie procedury, dzięki którym nie dojdzie do utraty dostępu do danych albo przerwy będą trwały bardzo krótko. W edukacji klientów w jakimś stopniu pomagają wprowadzone ostatnio regulacje prawne, w tym RODO, ale doceniamy też znaczenie wspólnych działań edukacyjnych podejmowanych razem z partnerami, którzy najlepiej znają swoich klientów i są w stanie opracować dla nich najbardziej skuteczne reguły polityki bezpieczeństwa.
takich usług, jak Amazon Web Services, Microsoft Cloud i IBM Cloud. Oprogramowanie Veeam jest zgodne także z ponad 18 tys. usług chmurowych na świecie. Ponadto specjalne rozwiązanie Veeam Backup dla Microsoft Office 365 eliminuje ryzyko utraty kontroli nad danymi przechowywanymi w ramach usługi Office 365 (w tym w aplikacjach Exchange Online, SharePoint Online i OneDrive dla Firm) oraz utratą dostępu do nich. Firma Veeam przygotowała również zestaw narzędzi dla usługodawców, które zapewniają szczegółowy wgląd w infrastrukturę IT ich klientów. Veeam ONE umożliwia planowanie i przeprowadzanie działań związanych z zabezpieczaniem danych oraz opracowywaniem raportów z przebiegu tych działań. Z kolei korzystając z rozwiązania Veeam Availability Console, usługodawcy mogą zapewnić klientom wgląd w informacje dotyczące ich środowiska IT oraz sprawdzenie tego, w jakim stopniu zagwarantowana jest jego wysoka dostępność. Dla administratorów oprogramowania Microsoft System Center przygotowano ułatwiający zarządzanie nim pakiet Veeam Management Pack dla System Center.
Dodatkowe informacje: SYLWESTER DERDA, MARKETING MANAGER BALTICS & SEE, VEEAM SOFTWARE, SYLWESTER.DERDA@VEEAM.COM VADEMECUM CRN listopad 2018
adv Veeam.indd 53
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ VEEAM SOFTWARE.
Dzięki oprogramowaniu firmy Veeam przedsiębiorstwa mogą zapewnić sobie wysoką dostępność lokalnych i chmurowych usług IT oraz bezproblemowe korzystanie z nich.
53
20.11.2018 11:51
Ilustracja AdobeStock
ZARZĄDZANIE POUFNYMI DANYMI UŻYTKOWNIKÓW
Od klasyfikacji do anonimizacji Podlegająca regulacjom prawnym ochrona kluczowych danych i informacji stwarza szerokie pole do działania dla integratorów i resellerów. Perspektywy biznesowe dotyczą wielu obszarów i etapów procesu ochrony firmowych zasobów. ANDRZEJ GONTARZ
P
olskie prawo obejmuje ochroną kilka rodzajów informacji. Ustawa o ochronie informacji niejawnych określa zasady zabezpieczania czterech grup informacji: zastrzeżonych, poufnych, tajnych i ściśle tajnych. Są również przepisy dotyczące ochrony informacji będących różnego rodzaju tajemnicą: państwową, służbową i zawodową, czyli m.in. lekarską i adwokacką. Wyodrębnione zostały tajemnice związane z funkcjonowaniem poszczególnych branż i sektorów gospodarki, np. bankowa oraz telekomunikacyjna. Do innych, prawnie chronionych należą też: tajemnica korespondencji i negocjacji, statystyczna i geologiczna. Osobno uregulowano ochronę danych osobowych. Zasady bezpiecznego przetwarzania danych osobowych określa obowiązują-
54
ce od maja 2018 r. unijne rozporządzenie o ochronie danych osobowych (RODO). Zgodnie z jego art. 5 (ust. 1, lit. f ), dane osobowe muszą być przetwarzane „w sposób zapewniający odpowiednie bezpieczeństwo danych osobowych, w tym ochronę przed niedozwolonym lub niezgodnym z prawem przetwarzaniem oraz przypadkową utratą, zniszczeniem lub uszkodzeniem, za pomocą odpowiednich środków technicznych lub organizacyjnych”. Rozporządzenie nie precyzuje jednak, w jaki konkretnie sposób i za pomocą jakich narzędzi ochrona ma być realizowana. Wybór, jak w przypadku wielu innych kwestii związanych z RODO, należy do administratora danych. Przepisy mówią jedynie o konieczności zastosowania środków adekwatnych do oszacowanego ryzyka
i istniejących uwarunkowań, m.in. dostępnych rozwiązań technicznych. Być może kryteria wyboru rozwiązań zabezpieczających zostaną w przyszłości doprecyzowane w branżowych kodeksach dobrych praktyk lub rekomendacjach zatwierdzanych przez prezesa Urzędu Ochrony Danych Osobowych. Na razie istnieje duża swoboda działania. Z perspektywy integratorów i resellerów otwiera to wiele możliwości biznesowych. Daje szansę proponowania nowych, adekwatnych dla sytuacji konkretnej firmy rozwiązań. Warunek jest jeden: trzeba dokonać analizy ryzyka i zastosować właściwe środki do ochrony. Być może w niektórych przypadkach będzie to wymagało stworzenia lub modyfikacji polityki bezpieczeństwa, w czym firmy informatyczne również mogą pomóc.
VADEMECUM CRN listopad 2018
txt_ochrona poufnych danych.indd 54
20.11.2018 19:02
KLASYFIKACJA DANYCH UŁATWIA OCHRONĘ
Zapewnienie autoryzowanego dostępu do danych osobowych wymaga przede wszystkim ich zidentyfikowania i określenia, gdzie się znajdują. Potrzebne też jest ustalenie, w jakich procesach mogą być wykorzystywane oraz kto i w jakim zakresie może mieć do nich dostęp. Potem trzeba opracować zasady dostępu, które będą obowiązywać w firmie, i konsekwentnie je egzekwować. Ważne jest m.in. wprowadzenie mechanizmów kontrolnych. Przydatne w tych wszystkich działaniach będą systemy do klasyfikacji danych obecnie oferowane jako składnik systemów klasy Data Loss Prevention albo jako osobne, niezależne oprogramowanie. Zarządzanie informacją o przetwarzanych danych to mniej popularny, ale równie ważny aspekt gwarancji bezpieczeństwa. To również okazja dla resellerów i integratorów na rozwój biznesu w obszarach jeszcze mniej obleganych niż rynek rozwiązań do szyfrowania dysków, identyfikacji złośliwego oprogramowania czy ochrony dostępu. Klasyfikacja danych może też być zresztą znakomitym wsparciem procesów szyfrowania, uzupełnieniem systemów zapobiegających wyciekowi danych oraz wzbogaceniem innych rodzajów zabezpieczeń. Pomaga nie tylko w ochronie danych osobowych, ale też wszystkich innych, ważnych dla firmy informacji i dokumentów. Systemy do klasyfikacji danych pozwalają indeksować przetwarzane zasoby pod kątem ich znaczenia dla bezpieczeństwa firmy. Dzięki temu wzmacnia się ich ochronę. W przypadku danych osobowych system może automatycznie zablokować dostęp pracownikowi, który nie jest upoważniony do ich przetwarzania (np. uniemożliwić wydruk lub wysłanie jako załącznika w poczcie elektronicznej). To samo dotyczy dokumentów z innymi rodzajami informacji niejawnych albo określonych jako newralgiczne dla danego przedsiębiorstwa i instytucji. Zasadniczego znaczenia nabiera więc nie tylko kształtowanie nawyku bezpiecznych zachowań wśród pracowników, lecz także przekazywanie im wiedzy o kryteriach właściwego katalogowania przetwarzanych zasobów. Jednoznacz-
txt_ochrona poufnych danych.indd 55
Norma bezpieczeństwa Zachowanie poufności, integralności i dostępności informacji to podstawy bezpieczeństwa informacji na gruncie normy ISO 27001. Mogą być brane pod uwagę także inne elementy: autentyczność, rozliczalność, niezaprzeczalność i niezawodność. Poufność oznacza, że dane są utrzymywane w tajemnicy, a dostęp do nich mają tylko ci, którzy powinni. Integralność (spójność) gwarantuje, że dane nie zostały zmienione, uszkodzone lub zniszczone przez osobę nieupoważnioną.
na, precyzyjna klasyfikacja zwiększa bowiem trafność podejmowanych przez system decyzji w zakresie udostępniania poszczególnych kategorii danych właściwym grupom użytkowników.
K AŻDEMU
WEDŁUG UPRAWNIEŃ
Każda firma powinna dysponować ogólnymi, powszechnie obowiązującymi zasadami uprawnionego, autoryzowanego korzystania z różnych, odpowiednio sklasyfikowanych rodzajów danych. Reguły te muszą mieć odzwierciedlenie w zatwierdzonej polityce bezpieczeństwa. Zgodnie z wytycznymi ITIL, zarządzanie uprawnieniami do dostępu pomaga w kontrolowaniu poufności, integralności i dostępności zasobów. Daje gwarancję, że tylko upoważnieni użytkownicy będą z nich korzystać w określonym zakresie i je modyfikować. Chroni przed posługiwaniem się danymi w sposób nieuprawniony i przez nieuprawnione osoby. Istnieje cała gama rozwiązań zapewniających kontrolowany dostęp do danych. Można posłużyć się szyfrowaniem, pseudonimizacją, skorzystać z systemów uwierzytelniania dostępu, blokowania nieuprawnionego dostępu, zarządzania tożsamością i kontami uprzywilejowanymi. Podstawą efektywnego wykorzystania każdego z tych narzędzi jest określenie jasnych, precyzyjnych reguł korzystania z różnych rodzajów czy zbiorów danych przez poszczególnych użytkowników
20.11.2018 19:02
ZARZĄDZANIE POUFNYMI DANYMI UŻYTKOWNIKÓW w określonych procesach biznesowych. Przykładowo, dostęp do bazy z danymi osobowymi lub do systemu przetwarzającego dane osobowe może być nadany wyłącznie osobie posiadającej upoważnienie do przetwarzania danych osobowych, na dodatek w odpowiednim zakresie, adekwatnym do funkcji danego systemu lub zawartości bazy danych. Pomocne, szczególnie w dużych firmach, będą z pewnością centralne bazy użytkowników. Dzięki nim łatwiej kontrolować, kto do jakich danych powinien mieć dostęp i w jaki sposób z niego korzysta. W przypadku dużej liczby użytkowników i różnorodności nadawanych im uprawnień coraz większego znaczenia nabierają systemy zarządzania tożsamością użytkowników. Warto w tym zakresie korzystać z systemów klasy Identity Management lub Identity and Access Management. Pozwalają bowiem zarządzać dostępem przez przydzielenie użytkowników do określonych grup oraz wyznaczenie im indywidualnych ról. Można też za ich pomocą wyznaczać zakres dostępu do poszczególnych danych, zarządzać uprawnieniami do dostępu, administrować logami i hasłami użytkowników oraz innymi metodami ich uwierzytelniania. Monitorowaniu dostępu uprzywilejowanych użytkowników służą systemy klasy Privileged Access Management. Można za ich pomocą m.in. generować jednorazowe hasła dostępu i kierować całą polityką haseł (wyznaczać poziom skomplikowania, częstotliwość zmiany itp.). Z kolei kontrolę nad dostępem do sieci lokalnej ułatwiają rozwiązania typu Network Access Control. Zarządzanie dostępem jest tak rozległą dziedziną, że oprócz standardowych narzędzi na rynku cały czas jest miejsce na nowe rozwiązania. Tym bardziej że dobór sposobów zabezpieczenia firmowych zasobów przed nieuprawnionym wykorzystaniem zależy w dużej mierze od specyficznych uwarunkowań i właściwości działania poszczególnych przedsiębiorstw. Każda propozycja, która zwiększa bezpieczeństwo przetwarzanych danych, może liczyć na zainteresowanie ze strony potencjalnych nabywców. Wciąż nie traci aktualności założenie, że szanse sprzedaży rosną,
56
Zdaniem integratora Marcin Szymański, dyrektor Działu Technicznego, Softinet RODO wymaga zabezpieczania danych osobowych przechowywanych na urządzeniach wykorzystywanych do pracy, w szczególności laptopach, telefonach i tabletach. W związku z tym obserwujemy zwiększony wzrost zainteresowania rozwiązaniami do szyfrowania danych oraz zarządzania urządzeniami mobilnymi (MDM). Szyfrowanie zapewnia szybkie, punktowe zabezpieczanie przetwarzanych danych. Na bardziej zaawansowane komercyjne rozwiązania, typu DLP czy SIEM, stać jedynie firmy dysponujące znacznym budżetem na inwestycje IT. Szyfrowanie spełnia podstawowe potrzeby użytkowników mających bardziej ograniczone środki. Żadne narzędzia i żadne rozwiązania nie zastąpią jednak wiedzy użytkowników. Potrzebna jest stała edukacja w zakresie bezpieczeństwa informacji oraz egzekwowanie zasad bezpieczeństwa. Nierozważny użytkownik może być większym zagrożeniem niż brak odpowiednich rozwiązań technicznych.
Michał Malczewski, Sales Director, Integrity Partners Wprowadzone regulacje prawne i rosnąca świadomość konsekwencji naruszenia poufności danych osobowych w coraz większym zakresie kierują uwagę klientów na narzędzia do monitorowania i zarządzania dostępem do najważniejszych zasobów, m.in. do identyfikacji danych wrażliwych. Zainteresowaniem cieszą się również rozwiązania pozwalające realizować prawo bycia zapomnianym. Służyć temu mogą np. narzędzia umożliwiające dynamiczną anonimizację danych bez zmian kodu aplikacji.
gdy oferta wdrożenia konkretnego systemu czy oprogramowania wzbogacona jest projektem dostosowania jego funkcji do dobrze rozpoznanych potrzeb odbiorcy.
ANONIMY POZA OCHRONĄ Szczególną formą ochrony danych osobowych jest anonimizacja. Zapewnia dostęp do informacji pozbawionych cech jednostkowych. Polega na usunięciu wszystkich danych, które umożliwiałyby identyfikację osoby, której dotyczą. Przykładem anonimizacji danych jest usunięcie identyfikatorów, np. imienia, nazwiska, adresu zamieszkania, numeru telefonu. Można się nią posłużyć, by zapewnić dostęp do danych statystycznych, a jednocześnie chronić dane osobowe. Jest więc przydatna w przypadku analizy trendów biznesowych, budowania strategii marketingowych, tworzenia programów lojalnościowych, planowania zakupów i określania celów sprzedażowych. Bywa też wykorzystywana w sytuacji, gdy z systemu informatycznego nie można usunąć całego rekordu. Dane zanonimizowane nie są już danymi osobowymi, więc nie podlegają przepisom RODO. Anonimizację, w prze-
ciwieństwie do pseudonimizacji, cechuje bowiem nieodwracalność. Zakłada się, że po jej wykonaniu nie da się już zidentyfikować konkretnych osób fizycznych. Natomiast dane speudonimizowane można, wykorzystując dodatkowe informacje, przypisać konkretnej osobie. Dlatego podlegają ochronie prawnej. W RODO pseudonimizacja wymieniona jest jako jeden ze środków technicznych i organizacyjnych dla podwyższenia bezpieczeństwa danych. Rozporządzenie nie zawiera natomiast definicji anonimizacji. Pojęcie to występuje jednak w ustawie o świadczeniu usług drogą elektroniczną i oznacza nieodwracalne uniemożliwienie zidentyfikowania określonej osoby. Podobnie anonimizacja określona została również w normie PN-ISO/IEC 29100. Istnieje wiele różnych technik anonimizacji danych: randomizacja, dodanie zakłóceń, permutacja, prywatność różnicowa, uogólnienie lub osłabienia atrybutów, agregacja, k-anonimizacja i będąca jej rozszerzeniem l-dywersyfikacja. Narzędzia do anonimizacji danych bywają częścią różnych systemów informatycznych, np. klasy ERP czy CRM. Mogą też być oferowane jako samodzielne programy.
VADEMECUM CRN listopad 2018
txt_ochrona poufnych danych.indd 56
20.11.2018 19:02
Wpływ RODO na zarządzanie IT Unijne rozporządzenie zaleca, aby przedsiębiorstwa zwracały szczególną uwagę na bezpieczeństwo i kontrolę dostępu do danych osobowych przechowywanych w zasobach IT. W spełnieniu tych wymogów pomoże oprogramowanie Axence nVision.
B
Łukasz Szefler kierownik sprzedaży partnerskiej, Axence
Przez ostatni rok uzyskaliśmy wzrost sprzedaży o 56 proc. To dobry sygnał dla resellerów z wartością dodaną oraz integratorów do rozpoczęcia współpracy z nami i dynamicznego rozwoju biznesu. Dotychczasowi partnerzy doceniają przejrzysty model współpracy, atrakcyjne rabaty oraz wysokiej jakości oprogramowanie. Dostarczamy solidny fundament do realizacji projektów IT – sprzedaży oprogramowania i świadczenia własnych usług z wykorzystaniem rozwiązań Axence. Proponujemy klarowny program partnerski, w którym obowiązują trzy poziomy: Reseller, Silver Partner oraz Gold Partner. Do każdego z nich firmy są kwalifikowane na podstawie kompetencji sprzedażowych i technicznych. Zapewniamy szkolenia, wsparcie procesu sprzedażowego oraz działania wynagradzające najbardziej zaangażowanych partnerów. Ci, którzy aktywnie i z sukcesami promują rozwiązania Axence, mogą liczyć na dodatkowe bonusy.
WIĘKSZE
BEZPIECZEŃSTWO DANYCH W NVISION 10
Oprogramowanie Axence nVision 10 zaprojektowane zostało z dużą dbałością o bezpieczeństwo informacji, ze szczególnym uwzględnieniem danych osobowych. W nowej wersji dodano szereg mechanizmów, które zapewniają wyższy poziom ochrony. Najważniejszy jest fakt, że wszelkie dane osobowe (również pochodzące z modułu do monitorowania aktywności pracowników) zostały odseparowane od informacji o konfiguracji urządzenia, z którego korzysta użytkownik. Umożliwia to skuteczną kontrolę dostępu do tych danych oraz zabezpieczenie ich przed nieautoryzowanym dostępem. Poziom bezpieczeństwa podnosi też wprowadzenie pełnego szyfrowania TLS wszystkich połączeń pomiędzy agentami, serwerem i konsolą. Dostęp do informacji o użytkownikach oraz danych z monitoringu mogą uzyskiwać wyłącznie wybrani administratorzy. Weryfikowany jest też czas przechowywania tych informacji, zgodnie ze zdefiniowanym w RODO wymogiem, aby nie
przechowywać ich dłużej niż to niezbędne. Danymi można zarządzać całkowicie niezależnie od urządzenia – we wcześniejszych wersjach oprogramowania Axence nVision były one na stałe powiązane z komputerem. W nowej wersji dane dotyczące każdego pracownika gromadzone są w jednym miejscu (obiekt w oprogramowaniu reprezentuje konkretną osobę), niezależnie od tego, na ilu komputerach był zalogowany. Dzięki temu zachowana jest integralność informacji, umożliwiony wgląd w nie oraz zagwarantowane skuteczne usuwanie na życzenie wszystkich danych dotyczących określonej osoby (spełnienie zawartego w RODO wymogu zapewnienia prawa do bycia zapomnianym). Axence nVision 10 umożliwia też szerszy zakres kontroli dostępu przez administratorów systemu.
Dodatkowe informacje: ŁUKASZ SZEFLER, KIEROWNIK SPRZEDAŻY PARTNERSKIEJ, AXENCE, LUKASZ.SZEFLER@AXENCE.NET VADEMECUM CRN listopad 2018
adv Axence.indd 57
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ AXENCE.
ezpieczeństwo danych oraz zarządzanie uprawnieniami należą do kluczowych zagadnień związanych z IT po wprowadzeniu RODO. Rozporządzenie formułuje obowiązki administratorów i podmiotów przetwarzających dane osobowe, np. w zakresie zgłaszania incydentów naruszenia bezpieczeństwa danych. Precyzuje wymogi dotyczące zabezpieczania danych, którego podstawą ma być analiza ryzyka. Określa kary, jakie mogą zostać nałożone za naruszenie przepisów. Zarządzanie infrastrukturą sieciową oraz dbanie o bezpieczeństwo danych ułatwia oprogramowanie Axence nVision. Jest to zintegrowane rozwiązanie, złożone z pięciu modułów obejmujących zakresem działania monitorowanie sieci i użytkowników, inwentaryzację sprzętu i oprogramowania, zdalną pomoc techniczną oraz ochronę danych przed wyciekiem. W najnowszej wersji – Axence nVision 10 – kluczowa staje się rola użytkownika systemu (lub pracownika). Oprogramowanie gromadzi informacje o jego aktywności, niezależnie od tego, na jakim urządzeniu (lub urządzeniach) w danym momencie pracuje. Metoda ta zastąpiła konfigurację bazującą na wykorzystaniu agentów powiązanych ze stacjami roboczymi. Teraz wszystkie uprawnienia dostępu, reguły polityki blokowania aplikacji, stron internetowych oraz ustawienia monitorowania aktywności „podążają” automatycznie za pracownikiem i są dostępne niezależnie od tego, na którym komputerze pracuje. Każdy nowy pracownik automatycznie otrzymuje dostęp do infrastruktury IT zgodnie z domyślnymi regułami polityki bezpieczeństwa. Zapewnia to przestrzeganie zasad ochrony danych w przedsiębiorstwie bez ryzyka, że nowy pracownik otrzyma przypadkowo nadmierne uprawnienia lub nie będzie właściwie monitorowany.
57
20.11.2018 19:45
SZYFROWANIE DANYCH I OCHRONA PRZED WYCIEKAMI
Dane BEZPIECZNE,
czyli ZASZYFROWANE Zabezpieczanie danych przed wyciekiem i ich szyfrowanie wymuszają nie tylko przepisy.
K
lienci często uważają, że szyfrowanie i DLP nie przyniosą im wymiernych korzyści. Twierdzą, że implementacja tych rozwiązań będzie uciążliwa zarówno dla pracowników, jak i dla kierownictwa. Trzeba więc przekonująco przedstawić konsekwencje braku zabezpieczeń. Pokazać, że skuteczna ochrona z pewnością nie sparaliżuje firmy, za to umożliwi jej działanie w sposób bardziej uporządkowany i zgodny z polityką bezpieczeństwa. O ile kiedyś szyfrowanie danych dotyczyło głównie kluczowych instytucji państwowych, o tyle dziś muszą o nie zadbać praktycznie wszyscy. Wraz z wprowadzeniem RODO przedsiębiorstwa zobowiązane są zgłaszać wszelkie naruszenia bezpieczeństwa danych osobowych. Jeśli informacje były przechowywane i przesyłane w postaci zaszyfrowanej, praw-
58
dopodobieństwo ich niewłaściwego wykorzystania radykalnie maleje, a z nim ryzyko ukarania firmy bardzo wysoką grzywną. Oczywiste jest bowiem, że naruszenie bezpieczeństwa danych nie polega tylko na tym, że w niekontrolowany sposób opuszczają one przedsiębiorstwo. Muszą mieć jeszcze formę umożliwiającą ich użycie. Argumentem za stosowaniem szyfrowania są nie tylko nowe przepisy (a właściwie przewidziane w nich kary), ale także konsekwencje utraty tak cennego zasobu, jakim są dane. Przetwarzane i przenoszone przez pracowników informacje stanowią często know-how firmy, bo są to m.in. projekty, bazy klientów, nawet zestawienia finansowe. Do klientów integratorów docierają doniesienia medialne o głośnych naruszeniach bezpieczeństwa informacji i wynikających z nich stratach finansowych oraz reputacyj-
nych. I w mniejszym lub większym stopniu muszą robić na nich wrażenie. A przecież zabezpieczenie zasobów za pomocą kryptografii to nie jest – jakby powiedzieli Amerykanie – rocket science. Zaszyfrować da się dziś niemal wszystko (choć oczywiście nie w każdym przypadku mamy do czynienia z taką potrzebą). Niemniej ochrona metodą szyfrowania powinna być częścią strategii bezpieczeństwa każdej firmy. Żeby się tak stało resellerzy i integratorzy muszą podjąć zadanie edukacji klientów oraz pokazać im wynikające z tego korzyści. To tym łatwiejsze, że na rynku jest dostępnych bardzo wiele rozwiązań, a szyfrowania można dokonywać zarówno sprzętowo, jak i programowo. Często jest oferowane w ramach pakietów ochrony punktów końcowych, ale dostępne są też bardziej wyspecjalizowane i zaawansowane narzędzia.
Ilustracja AdobeStock
TOMASZ JANOŚ
VADEMECUM CRN listopad 2018
txt_szyfrowanie danych.indd 58
20.11.2018 19:02
PRZEDE WSZYSTKIM URZĄDZENIA MOBILNE Za bardzo bezpieczne rozwiązanie można uznać pełne szyfrowanie dysków na komputerach mobilnych. W przypadku zagubienia lub kradzieży zaszyfrowanego laptopa bez loginu i hasła nikt nie będzie miał dostępu do znajdujących się na nim informacji. Nie da się go uruchomić, a dane będą bezpieczne nawet po wyjęciu dysku z komputera i próbie uruchomienia go w innym systemie. Przedsiębiorstwa potrzebują też bezpiecznych smartfonów i tabletów. Nie powinno być z tym większego problemu w przypadku urządzeń firmowych, którymi można zarządzać zgodnie z określoną polityką bezpieczeństwa, m.in. instalować tylko dozwolone aplikacje. W przypadku BYOD trzeba włożyć więcej wysiłku w edukację wyposażonych pracowników. Kwestia ochrony poufnych danych na urządzeniach prywatnych to jednak spore wyzwanie. Z pomocą przychodzi funkcja szyfrowania wbudowana w smartfony, którą należy aktywować za zgodą pracownika. Jakiś czas temu producenci oprogramowania do zarządzania urządzeniami mobilnymi (Mobile Device Management) oraz niektórzy dostawcy smartfonów wprowadzili w nich opcję umieszczania oraz szyfrowania danych i aplikacji biznesowych w zabezpieczonych kontenerach. Jednak efektywność tej metody zależy od sposobu korzystania z kontenerów. Chociaż zapewniają bezpieczeństwo, często dzieje się to kosztem wygody obsługi. Z tego powodu nie są odpowiednie dla wszystkich użytkowników, urządzeń i zastosowań. Lansowany jest więc kompromis między stosowaniem firmowych, w pełni kontrolowanych urządzeń a modelem BYOD. W optymalnym pod tym względem modelu COPE (Corporate Owned, Personally Enabled), zakładającym użycie urządzeń pracodawcy dostosowanych do prywatnych celów, w praktyce ochrona sprowadza się do wymuszenia pewnych ustawień zabezpieczeń, wstępnego skonfigurowania kont użytkowników oraz stworzenia kontrolowanego sklepu z aplikacjami. Do ochrony przed wyciekiem informacji konieczne staje się szyfrowanie
Zdaniem integratora Adam Kuligowski, wiceprezes zarządu, SIDIO Szyfrowanie zapewnia poufność i integralność danych, co jest szczególnie ważne w sytuacji, gdy coraz częściej struktura przedsiębiorstw, w tym utrzymywanych przez nie aplikacji, jest rozproszona. Oferujemy klientom rozwiązanie do szyfrowania plików, np. tych, które zgodnie z polityką bezpieczeństwa mogą być używane na zewnątrz firmy. Dzięki niemu można je zaszyfrować w dowolnym miejscu i czasie. Proponujemy też szyfrowanie komunikacji SMTP, czyli e-maili wychodzących z przedsiębiorstwa. Nie mogę jednak powiedzieć, że takie rozwiązania wdrażamy masowo. Choć klienci pytają nas o szyfrowanie, nie idzie za tym wyraźny wzrost sprzedaży tego rodzaju narzędzi ochronnych
przenośnych pamięci. Są one najbardziej narażone są na zgubienie i kradzież. Dlatego producenci odnotowują rosnącą popularność szyfrowanych pamięci USB. – Klienci coraz częściej zastanawiają się nie nad tym, czy kupować pamięci szyfrowane, tylko jakie wybrać – mówi Robert Sepeta, Business Development Manager w Kingston Technology. Na rynku jest duży wybór pamięci USB, dostosowanych do potrzeb każdego klienta, od osób prywatnych, przez małe i średnie firmy po największe korporacje, banki i instytucje administracji publicznej. Klienci o ograniczonych budżetach znajdą pamięci za kilkadziesiąt złotych, które w zupełności spełnią podstawową funkcję ochrony. Posiadający bardziej wrażliwe dane i chcący znacząco podnieść poziom bezpieczeństwa, mogą zdecydować się na certyfikowane rozwiązania dla przedsiębiorstw. Choć szyfrowania wymagają przede wszystkim urządzenia mobilne, to także komputery stacjonarne i serwery mogą być przedmiotem kradzieży, a na pewno znajdujące się na nich dane. Warto je więc objąć tego rodzaju ochroną. Tym bardziej, że w przyszłości ułatwi ona proces wycofywania starego sprzętu z użycia. Jeśli zostanie zastosowane szyfrowanie, podczas recyklingu komputerów łatwiejsze jest czyszczenie dysków i ma się pewność, że firmowe informacje nie wpadną w niepowołane ręce.
KLUCZEM
JEST KLASYFIKACJA
DANYCH
Najbardziej skuteczne będzie takie wdrożenie szyfrowania i całościowej ochrony przed wyciekiem danych, aby te procesy wymagały minimalnej interakcji admi-
nistratora i użytkownika. Jednak żadna implementacja rozwiązań zabezpieczających informacje nie zakończy się sukcesem bez skutecznej polityki klasyfikowania danych i ustalenia reguł dostępu do nich. To niezbędne w ochronie informacji, w której najsłabszym ogniwem zawsze jest autoryzowany użytkownik końcowy. – Aby firmy i instytucje mogły skutecznie zabezpieczać swoje dane, należy przede wszystkim ograniczyć dostęp do danych osobowych i innych wrażliwych informacji pracownikom, którzy takiego dostępu nie potrzebują – twierdzi Robert Sepeta. Jeśli klient zastanawia się, które dane powinny być szyfrowane, można zadać mu kilka prostych pytań. Czy gdyby te informacje były na papierze, do pozbycia dokumentacji użyłby niszczarki? Czy gdyby dane przypadkowo wyciekły do internetu, spowodowałyby szkody dla jego pracowników lub klientów? Jeśliby na któreś z tych lub podobne pytanie odpowiedział twierdząco, powinien pomyśleć o stosowaniu szyfrowania. Często klienci obawiają się, że na skutek wprowadzenia szyfrowania komputery będą działać wolniej i zużywać więcej energii. Tymczasem korzystanie z tego zabezpieczenia nie wiąże się z wyraźnym spadkiem wydajności urządzeń, a tym samym produktywności pracowników. Do szyfrowania nie trzeba też kupować sprzętu najnowszej generacji. Od dawna procesory dysponują zestawem instrukcji służących do sprzętowej akceleracji szyfrowania. Z kolei urządzenia pamięci masowej są wyposażane w specjalne procesory, które zajmują się szyfrowaniem i deszyfrowaniem danych na poziomie VADEMECUM CRN listopad 2018
txt_szyfrowanie danych.indd 59
59
20.11.2018 19:02
SZYFROWANIE DANYCH I OCHRONA PRZED WYCIEKAMI
W opinii branży Maciej Kotowicz, Channel Account Executive Poland, Sophos
Robert Sepeta, Business Development Manager, Kingston Technology
ROBERT SEPETA W ostatnich latach, dzięki wielu kampaniom na rzecz zwiększania bezpieczeństwa informacji, znacząco wzrosła wiedza użytkowników pamięci USB o konieczności ich ochrony. Nasza sprzedaż szyfrowanych pamięci wzrosła w 2018 r. prawie dwukrotnie w stosunku do notowanej w zeszłym roku, Oczywiście wpływ na to miało wejście w życie RODO w krajach Unii Europejskiej, ale trend jest światowy, bo również w innych regionach dużo większa liczba klientów decyduje się na zakup takich pamięci.
Krzysztof Rachwalski, Country Manager, Citrix
kontrolera lub dysku. W rezultacie system operacyjny nie jest nawet „świadomy”, że dane są szyfrowane, a tego rodzaju ochrona działa w tle jak antywirus. W przypadku wdrażania szyfrowania w przedsiębiorstwie ważna jest dostępność dodatkowych kluczy odszyfrowujących. Nie można bowiem stworzyć systemu, w którym nie da się odzyskać danych szyfrowanych przez pracowników. Klucz główny (master key) zapewni działowi IT dostęp do zawartości komputerów, w razie gdy ich użytkownicy zapomną hasła lub opuszczą firmę. Szyfrowania, a zwłaszcza całościowej ochrony przed wyciekiem danych (DLP), nie wprowadza się z marszu, lecz w sposób przemyślany, by nie paraliżować firmy, ale też by nie pozostawiać luk, przez które dane nadal będą wyciekać. Skuteczna implementacja wymaga wewnętrznej polityki ochrony danych, w stworzeniu której pomóc powinien integrator. Do zapewniania skutecznej ochrony nie jest konieczne szyfrowanie wszystkich danych, lecz tylko tych najwrażliwszych. Do zabezpieczenia pozostałych wystar-
60
MACIEJ KOTOWICZ Oczywiste jest, że jeśli w nowych regulacjach prawnych szyfrowanie wymieniane jest wśród narzędzi ochrony, klienci zaczynają szukać rozwiązań, które do tego służą. Oprócz własnych mechanizmów bezpieczeństwa mogą one zapewniać zarządzanie narzędziami dostarczanymi wraz z systemami operacyjnymi, takimi jak BitLocker Microsoftu i FileVault firmy Apple. Ponieważ użytkownicy mają już je w swoich komputerach, życie administratora jest ułatwione, bo może zwiększyć ochronę bez instalowania kolejnego oprogramowania.
KRZYSZTOF RACHWALSKI Środowisko biznesowe jest coraz bardziej złożone. Mamy nie tylko dużą różnorodność urządzeń, ale i miejsc przechowywania danych oraz metod pracy. Zabezpieczenie infrastruktury przedsiębiorstwa wymaga zastosowania kombinacji wielu rozwiązań, począwszy od wirtualizacji, by scentralizować zasoby w centrum danych, przez technologie do szyfrowania danych w firmowej sieci i analizy przepływu informacji (np. systemy DLP) po rozwiązania EMM, wspomagające elastyczne formy pracy. Te ostatnie mają funkcje zarządzania nie tylko urządzeniami mobilnymi i aplikacjami (MDM, MAM), ale również dostępem do danych oraz zasobów firmy (MCM i MicroVPN). W konsekwencji można stworzyć bezpieczne cyfrowe środowisko pracy i w pełni chronić przedsiębiorstwo.
czą odpowiednie metody uwierzytelniania i kontrola dostępu.
SZYFROWANE ATAKI
Coraz więcej przedsiębiorstw korzysta z mechanizmów szyfrowania w celu ochrony najważniejszych informacji, ale muszą również sobie zdawać sprawę z zagrożeń, które mogą ukrywać się w zaszyfrowanych plikach. Szacuje się, że aż 75 proc. ruchu w internecie jest szyfrowane za pomocą protokołu SSL, a w przypadku branż, w których prawo tego wymaga, wskaźnik ten może być jeszcze wyższy. Dlatego eksperci zajmujący się bezpieczeństwem oceniają, że nawet w połowie ataków mogą być wykorzystywane zaszyfrowane pakiety. Mimo to, jak pokazują badania, zdecydowana większość przedsiębiorstw używa firewalli, rozwiązań IPS lub UTM, które nie odszyfrowują ruchu SSL, zostawiając otwartą drogę dla ukrytych zagrożeń. Wirusy miewają formę niebezpiecznych załączników do wiadomości e-mail, plików pobieranych z witryny
HTTPS oraz złośliwych plików w komunikatorach internetowych i na serwisach społecznościowych. Trzeba jednak wiedzieć, że odszyfrowywanie ruchu SSL w celu wykrycia zagrożenia to poważne wyzwanie dla systemów informatycznych. Po pierwsze, może powodować duże problemy z wydajnością sieci. Bywa, że włączenie głębokiej inspekcji pakietów (DPI) wraz z innymi funkcjami ochronnymi zmniejsza przepustowość firewalla nawet o 80 proc. Po drugie, narzędzia deszyfrujące i sprawdzające zaszyfrowany ruch kosztują więcej od produktów bez tych funkcji. Rozwiązaniem pierwszego problemu będzie odpowiednio wydajne rozwiązanie, a także inteligentne zarządzanie ruchem w celu poprawy skuteczności inspekcji, polegające na ograniczaniu przepływu poddawanego kontroli (przez wykluczanie z tego procesu pakietów z zaufanych źródeł itp.). W drugim przypadku trzeba przekonać klienta, że w związku z działalnością, jaką prowadzi, tego typu ochrona przyniesie mu wymierne korzyści.
VADEMECUM CRN listopad 2018
txt_szyfrowanie danych.indd 60
20.11.2018 19:02
Poufne dane Konieczność dostosowania się przedsiębiorstw do wymogów RODO spowodowała, że coraz większym zainteresowaniem cieszą się nośniki danych zapewniające szyfrowanie zgromadzonych informacji.
R
ozporządzenie RODO nakłada na firmy obowiązek potwierdzenia, że zastosowano „odpowiednie środki techniczne i organizacyjne” w celu zapewnienia bezpieczeństwa informacji. Dlatego Kingston rekomenduje przedsiębiorstwom stworzenie wewnętrznych procedur, które nakazują korzystanie z szyfrowanych nośników, a także ograniczenie możliwości korzystania z portów USB w komputerach stacjonarnych i laptopach. Szyfrowane powinny być także dyski instalowane w komputerach, co zapewnia poufność danych w sytuacji, gdy np. laptop zostanie zgubiony lub skradziony. Dlatego Kingston wprowadził do oferty rodzinę dysków SSD oznaczoną symbolem UV500, które wyposażono w mechanizm sprzętowego szyfrowania 256-bitowym kluczem AES oraz system zarządzania bezpieczeństwem danych TCG Opal 2.0. Są to pierwsze dyski SSD w asortymencie Kingstona z układem pamięci NAND 3D, które można zaszyfrować w całości. Dyski UV500 są oferowane w trzech formatach – SSD SATA 2,5”, M.2 2280 i mSATA. Dzięki bardzo wydajnemu kontrolerowi Marvell 88SS1074 zapewniają odczyt i zapis z szybkością sięgającą odpowiednio 520 i 500 MB/s, czyli ok. 10 razy większą niż gwarantuje dysk twardy 7200 obr./min. Jeszcze bardziej imponująca jest maksymalna liczba operacji wejścia-wyjścia na sekundę – 79 tys. IOPS podczas odczytu i 45 tys. IOPS podczas zapisu (w modelu M.2 2280 o pojemności 960 GB). Modele SATA 2,5” mają po-
jemność od 120 do 1920 GB, M.2 2280 – od 120 do 960 GB, a mSATA – od 120 do 480 GB. Nowe dyski objęto ograniczoną 5-letnią gwarancją i bezpłatnym wsparciem technicznym firmy Kingston. Producent określił też całkowitą liczbę bajtów, które można zapisać na dysku bez ryzyka utraty danych (TBW). Wynosi ona w przpadku poszczególnych modeli: 120 GB – 60 TB, 240 GB – 100 TB, 480 GB – 200 TB, 960 GB – 480 TB i 1920 GB – 800 TB.
SZYFROWANIE TAKŻE NA USB Używanie przenośnych nośników USB zwiększa ryzyko utraty danych. Korporacje i duże przedsiębiorstwa z oddziałami na całym świecie próbują wyeliminować to zagrożenie, zabraniając pracownikom korzystania z takich urządzeń.
Robert Sepeta Business Development Manager, Kingston Technology
Szyfrowanie nie służy wyłącznie do ochrony danych przed nieuprawnionym dostępem, ale umożliwia również zadbanie o wizerunek marki i reputację firmy. Nawet po zgubieniu lub kradzieży nośnika do informacji na nim nie można uzyskać dostępu, nie występuje zatem przypadek naruszenia bezpieczeństwa danych, a w konsekwencji nie pojawiają się doniesienia na ten temat na forum publicznym.
Nie zdają sobie jednak sprawy, że stwarza to wiele innych problemów – użytkownicy albo ignorują zakaz, albo pracują mniej efektywnie. Zdaniem specjalistów firmy i instytucje powinny wymagać od pracowników używania wyłącznie szyfrowanych napędów USB, które zapewniają zarówno dużą produktywność, jak i ochronę informacji. Firma Kingston już od wielu lat oferuje pendrive’y z rodziny IronKey i DataTraveler (o pojemności od 4 do 128 GB), szyfrowane sprzętowo 256-bitowym kluczem AES w trybie XTSe. Można nimi zarządzać przy użyciu specjalnego oprogramowania (m.in. przypisywać nazwy, a następnie je lokalizować za pomocą konsoli administratora, podobnie jak to ma miejsce w przypadku funkcji znajdowania zgubionego telefonu). Wszystkie dane z utraconego dysku USB można także zdalnie usunąć. Jeśli użytkownik lub administrator uruchomi tę opcję, pliki zostaną usunięte w momencie włożenia nośnika do gniazda dowolnego komputera stacjonarnego lub laptopa podłączonego do internetu, a z samego USB już nigdy nie da się skorzystać. Pendrive’y DataTraveler oraz IronKey są objęte 5-letnią gwarancją (tylko model DataTraveler 2000 ma 3-letnią) i bezpłatną pomocą techniczną. Autoryzowanymi dystrybutorami szyfrowanych pamięci Kingstona w Polsce są: AB, ABC Data, Action, Also, Alstor i Tech Data. Więcej informacji pod adresem: kingston.com/encryptedsecurity.
Dodatkowe informacje: ROBERT SEPETA, BUSINESS DEVELOPMENT MANAGER, KINGSTON TECHNOLOGY, RSEPETA@KINGSTON.EU VADEMECUM CRN listopad 2018
adv Kingston.indd 61
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ KINGSTON TECHNOLOGY.
dobrze chronione
61
19.11.2018 15:10
ZARZĄDZANIE CYKLEM ŻYCIA NOŚNIKÓW
Od ZASAD do TECHNOLOGII Swoją wiarygodność biznesową można podnieść dzięki procedurom stosowanym podczas niszczenia danych. Są równie ważne jak używane do tego urządzenia i programy.
C
yfrowa transformacja zwiększa znaczenie danych. Kiedy zaś stają się strategicznym zasobem przedsiębiorstwa, rośnie z kolei znaczenie ich właściwej ochrony. W sytuacji, kiedy analiza odpowiednich informacji może zadecydować o przewadze konkurencyjnej firmy, trzeba zrobić wszystko, aby firmowe zasoby nie dostały się w niepowołane ręce. Temu ma służyć właściwe obchodzenie się z nośnikami danych także po zakończeniu ich „służby”. Metody archiwizacji i przechowywania dysków oraz usuwania z nich danych, kiedy już się zużyją, są stale udoskonalane. Tam jednak, gdzie w grę wchodzą kwestie bezpieczeństwa, kluczowego znaczenia nabierają także procedury – stałe zasady postępowania. To one pozwalają na minimalizację ryzyka i zapewnienie stałego, kontrolowanego poziomu ochrony. Mogą również pomóc resellerom i integratorom w kontaktach z klientami. Stanowią bowiem istotny punkt odniesienia w razie podejmowania wiążących decyzji
62
inwestycyjnych. Jeśli zarządzanie cyklem życia nośników danych zostanie potraktowane jak element procesu budowania i obsługi systemów informatycznych w firmie, łatwiej będzie wdrożyć potrzebne rozwiązania bądź zainstalować przydatne narzędzia. Jeszcze lepiej, jeśli zostanie wpisane w całościową, zatwierdzoną przez zarząd politykę bezpieczeństwa. Warto więc, aby integratorzy wspierali klientów w tworzeniu procedur postępowania z nośnikami danych i znajdującymi się na nich zapisami. Istnienie spisanego zestawu reguł lub instrukcji postępowania przynosi bowiem korzyści obu stronom. Użytkownikom zapewnia osiągnięcie wyższego poziomu bezpieczeństwa, a dostawcom stałość i przewidywalność zamówień. Jeśli w firmie obowiązują standardy archiwizowania i przechowywania nośników danych, osobie odpowiedzialnej za bezpieczeństwo łatwiej jest podejmować decyzje o zakupie właściwych zabezpieczeń. Z kolei sprzedającemu lub świadczące-
mu usługi łatwiej będzie wybrać i zaproponować adekwatne do ustalonych wymogów rozwiązanie. Może to dotyczyć np. sejfów do przechowywania dysków i taśm, które nie są jeszcze dzisiaj zbyt powszechnie stosowane, szczególnie w MŚP. Charakteryzują się specjalną konstrukcją, która pozwala na umieszczenie nośników w sposób chroniący je przed fizycznym zniszczeniem. Mają różne klasy odporności ogniowej, gwarantują także określony poziom ochrony przed zalaniem wodą. Podobna sytuacja ma miejsce w przypadku walizek do transportu kopii zapasowych. Oferowane na rynku pojemniki zapewniają ochronę przed ogniem, wodą, zapyleniem, a nawet przed wstrząsami. Mogą być wyposażone w GPS pozwalający na monitorowanie ich położenia oraz systemy alarmowania w przypadku próby nieuprawnionego otwarcia. Producenci montują też specjalne czujniki w obudowach dysków chroniące nośniki przed dostaniem się do środka niepowołanych osób.
Ilustracja AdobeStock
ANDRZEJ GONTARZ
VADEMECUM CRN listopad 2018
txt_nosniki.indd 62
20.11.2018 13:13
Tomasz Filipów
Zdaniem integratora
dyrektor zarządzający, Diskus
Ryszard Kołacz, prezes zarządu, Veganet Usuwanie danych z pamięci flash staje się coraz częściej poruszanym tematem. Nośniki te wciąż są stosunkowo drogie, ale zainteresowanie nimi bardzo szybko rośnie, zarówno ze strony użytkowników profesjonalnych, jak i domowych. Perspektywiczny jest szczególnie rynek konsumencki. Telefon komórkowy to dziś więcej niż standard. Nawet jeśli tylko część właścicieli będzie chciała chronić swoje dane, i tak potencjał rozwoju rynku niszczenia danych jest olbrzymi. Duże znaczenie ma uświadamianie użytkownikom, że każdy przechowuje na swoim smartfonie ważne informacje, m.in. hasła do mediów społecznościowych, e-maile, SMS-y, zdjęcia, dane lokalizacyjne itp. Trzeba je więc chronić, choćby przez skuteczne usuwanie z pamięci w telefonach.
PRAWO WYMAGA SKUTECZNOŚCI Klienci nie zawsze dysponują (i nie zawsze muszą dysponować) wiedzą o oferowanych na rynku rozwiązaniach. Jeżeli jednak potrafią określić swoje wymagania, integratorowi łatwiej będzie pomóc im we właściwym wyborze. W zdefiniowaniu potrzeb przydadzą się obowiązujące w firmie procedury i instrukcje. Ze względu na regularną wymianę sprzętu dużego znaczenia nabierają wewnętrzne, firmowe regulacje dotyczące niszczenia nośników i usuwania z nich danych. Powinny zawierać ściśle określone zasady postępowania obowiązujące w całej firmie, m.in. zdefiniowania kategorii niszczonych nośników i klasy ich ochrony. Muszą być również wskazane miejsca niszczenia danych oraz rodzaj używanych do tego urządzeń bądź oprogramowania. W opracowywaniu procedur i instrukcji pomogą istniejące normy i standardy. Przykładowo, norma ISO 27001 wymaga, aby w systemie zarządzania bezpieczeństwem informacji były określone i przestrzegane sposoby skutecznej likwidacji danych. Zarządzanie nośnikami pamięci zostało też opisane w kodeksie postępowania dla działów informatyki (Informa-
Obserwujemy ostatnio zwiększone zainteresowanie szyfrowaniem dysków, głównie ze strony dużych firm. Kupują nośniki od razu z wbudowanym mechanizmem szyfrowania albo dokupują osobne narzędzie. Coraz więcej przedsiębiorstw, a w przypadku instytucji publicznych już większość, wymaga też, aby uszkodzony dysk pozostawał u klienta. Nie ma możliwości zabrania go do serwisu czy na wymianę. Musi pozostać u właściciela, a do dalszego użytkowania trzeba dostarczyć inny, nowy nośnik. Większość producentów oferuje już dzisiaj taką możliwość za dodatkową opłatą. Ten sposób ochrony danych przez klientów staje się powoli standardem.
Piotr Skowroński, Presales Director, SimplicITy Dane to klucz do biznesu. Świadomość wagi zawartości różnych nośników (dysków w macierzy i w stacji roboczej księgowej, pendrive’a w laptopie prezesa, smartfona administratora) stanowi o bezpieczeństwie i efektywności firmy. Zarządzanie nośnikami winniśmy zatem zacząć od zarządzania danymi. W tym celu w każdym przedsiębiorstwie i instytucji należy stosować rozwiązania zapewniające przeskanowanie, indeksację i klasyfikację danych, zarówno strukturalnych, jak i nieustrukturyzowanych. Są produkty ułatwiające wprowadzenie polityki zarządzania informacją – Information Lifecycle Management – której częścią są założenia dotyczące backupu, archiwizacji, zapobiegania wyciekowi danych, szyfrowania oraz usuwania danych. Bezpieczna i efektywna polityka zarządzania nośnikami powinna wynikać ze świadomości wagi firmowych danych.
tion Technology Infrastructure Library), który zawiera zbiór zaleceń, jak efektywnie oferować usługi informatyczne. Również wiele obowiązujących w naszym kraju przepisów wymaga skutecznego usuwania danych, żeby ich odzyskanie lub odtworzenie nie było możliwe. Prawo nie precyzuje jednak, w jaki sposób należy tego dokonać. Wybór konkretnej metody zniszczenia nośników lub usuwania danych pozostawiono w gestii administratora lub właściciela danych. Istniejące regulacje, głównie branżowe (np. ustawa o rachunkowości, ordynacja podatkowa, prawo pracy), mówią o tym, jak długo dane mają być przechowywane. Nakazują niszczenie określonych dokumentów lub informacji, również w formie elektronicznej, gdy nie są już potrzebne do prowadzenia działalności, wygasła zgoda na ich przetwarzanie, minął ustawowy okres ich obowiązkowego przechowywania lub podlegają ustawowej ochronie. Do opracowania zasad postępowania z danymi osobowymi, w tym ich usuwania w przypadku realizacji prawa do bycia zapomnianym, zobowiązuje od maja 2018 r. unijne rozporządzenie o ochronie danych osobowych. Już dzisiaj widać efekty je-
go wprowadzenia w postaci zwiększonego zainteresowania niszczeniem danych. Firmy zaczęły dokładniej sprawdzać, co się dzieje z danymi na wycofywanych z użycia nośnikach, a szykuje się jeszcze zmiana przepisów branżowych w związku z projektem ustawy o zmianie niektórych ustaw w związku z wejściem w życie RODO.
WIARYGODNY PARTNER W CENIE Z biznesowego punktu widzenia ważne jest stosowanie właściwych procedur i zasad postępowania również przez firmy świadczące usługi niszczenia nośników i usuwania danych. Przestrzegane standardy mogą uwiarygodnić usługodawcę w oczach potencjalnego klienta i przekonać go do zamówienia usługi. Oczywiście, najważniejsze jest posiadanie przez firmę oferującą usuwanie danych odpowiedniego sprzętu i oprogramowania. Powinny gwarantować należyte wykonanie zadania. Parametry i możliwości techniczne stosowanych urządzeń czy narzędzi programistycznych muszą być przy tym adekwatne do wymagań klienta. Technika to jednak nie wszystko. Duże znaczenie mają również procedury VADEMECUM CRN listopad 2018
txt_nosniki.indd 63
63
20.11.2018 13:13
ZARZĄDZANIE CYKLEM ŻYCIA NOŚNIKÓW stosowane w procesie niszczenia danych. Chodzi tu m.in. o zapewnienie bezpiecznego odbioru i transportu nośników. Odpowiednie warunki muszą panować też w miejscu niszczenia danych, bez względu na to, czy odbywa się to w siedzibie klienta, w budynku usługodawcy, czy w specjalnym samochodzie (mobilnym punkcie usuwania danych). W każdym przypadku niezbędne jest określenie zasad dostępu do danych, zarówno ze strony pracowników zleceniodawcy, jak i wykonawcy usługi. Wiarygodność firmy świadczącej usługi niszczenia danych podnoszą niewątpliwie certyfikaty. W niektórych sytuacjach jej pracownicy będą musieli wykazać się poświadczeniami dopuszczenia do dostępu do informacji niejawnych. Również usługodawca musi mieć prawo do wydawania certyfikatów dotyczących niszczenia danych. Taki dokument to niejednokrotnie warunek podpisania umowy z klientem.
RÓŻNORODNOŚĆ METOD Stosowanie właściwych procedur i standardów jest ważne również z powodu braku jednoznacznych opinii w sprawie skuteczności dostępnych metod niszczenia nośników i usuwania danych. Zdania na temat efektywności poszczególnych sposobów są cały czas podzielone. Do powszechnie stosowanych należy metoda programowa, która polega na wielokrotnym (nawet kilkudziesięciokrotnym) nadpisywaniu utrwalonych na nośniku danych losowo generowanymi ciągami liczb. Po jej zastosowaniu dysk nadaje się do dalszego użytkowania. Chętnie więc wykorzystywana jest przez firmy, które
przekazują swój sprzęt komputerowy kolejnym użytkownikom, a także w sytuacji, gdy trzeba użyć wyczyszczony nośnik do innych celów. Poszczególne rodzaje wykorzystywanego do usuwania danych oprogramowania bazują na różnych algorytmach sterujących procesem nadpisywania danych. Dane można też zniszczyć metodą magnetyczną, za pomocą urządzenia demagnetyzującego (ang. degausser). Wytwarzane przez nie pole magnetyczne niszczy strukturę namagnesowania nośnika. Impulsy elektromagnetyczne muszą mieć odpowiednią siłę, aby spowodować rzeczywiste zniszczenie danych. Generalnie im bardziej pojemny nośnik, tym mocniejsze impulsy trzeba zastosować. W związku z tym, że demagnetyzery wytwarzają różne natężenia pola magnetycznego, nie każdy może być użyty do niszczenia danych na każdym dysku. Zniszczenia danych można dokonać także przez fizyczne zniszczenie samego nośnika. Istnieje cała gama metod mechanicznych, które pozwalają na: zgniecenie, zmielenie, przecięcie, sprasowanie, rozdrobnienie lub przewiercenie nośnika danych. Do mniej popularnych należą metody: termiczna (spalenie w temperaturze powyżej 1000 st. C), radioaktywna (oddziaływanie promieniowaniem jonizującym), pirotechniczna (zastosowanie ładunków wybuchowych), chemiczna (za pomocą odczynnika chemicznego zmieniającego strukturę nośnika danych). W przypadku stosowania którejś z metod fizycznych potrzebna jest duża dokładność, by nie pozostawić fragmentów nośników w stanie umożliwiającym odczytanie danych.
Dane z odzysku W polityce bezpieczeństwa należy zawrzeć procedury odzyskiwania danych na wypadek ich utraty. Firmy powinny mieć ustalone zasady postępowania w takich kryzysowych sytuacjach. Rolą świadczących usługi odzyskiwania danych może być wsparcie w opracowaniu skutecznych instrukcji działania. Ułatwią one korzystanie z pomocy wyspecjalizowanych podmiotów. W internecie można znaleźć wiele darmowych narzędzi do odzyskiwania danych. Sprawdzić się one mogą jednak tylko w prostych przypadkach. Zazwyczaj potrzebna jest pomoc fachowca z odpowiednią wiedzą oraz umiejętnościami i dysponującego bardziej zaawansowanymi narzędziami. W dużych firmach dane są z reguły lepiej chronione niż w małych, ale i tam zdarzają się sytuacje wymagające interwencji specjalistów od odzyskiwania danych.
64
Bogusław Seredyński Project Manager, WiperApp EP
Dwie rozpowszechnione metody przechowywania danych – elektromagnetyczna (dyski HDD) i półprzewodnikowa (dyski SSD) – wymagają odrębnego podejścia i różnych, bardzo trudnych technik oczyszczania. Na razie niewiele jest firm, które potrafią sprostać temu zadaniu. Do dzisiaj wyzwaniem i nierozwiązanym problemem jest nieodwracalne, selektywne usuwanie wybranych plików w taki sposób, by nie było konieczne fizyczne zniszczenie nośnika. Na razie nikt sobie z tym nie poradził.
INFORMACJE ZAPEWNIĄ KONTROLĘ
Ułatwieniem w zarządzaniu cyklem życia nośników będzie z pewnością dostęp do aktualnych informacji o nich: gdzie są przechowywane, jakie dane zawierają, kiedy powinny być poddane utylizacji, w jaki sposób należy je zniszczyć itp. Pomocny bywa w tym specjalny system zarządzania informacją o nośnikach. Może, na przykład, przypominać o zbliżającym się terminie usunięcia danych, co pozwoli przedsiębiorstwu ustrzec się przed karami za niezgodne z prawem przechowywanie zasobów i pomóc zaoszczędzić czas potrzebny na poszukiwanie nośników czy danych. Uzyskana dzięki wspomnianemu systemowi wiedza ma ogromne znaczenie w sytuacjach awaryjnych, ale też ułatwia codzienne zarządzanie wykorzystaniem dysków i taśm. Oferowanie takich rozwiązań może być również okazją do dodatkowego zarobku dla resellerów lub integratorów. Wiele systemów storage’owych jest już wyposażonych w takie oprogramowanie. Istnieje też cała paleta osobnych produktów umożliwiających zarządzanie informacją o danych i nośnikach. W interesie dostawców jest pokazywanie korzyści i ułatwień wynikających z ich stosowania. Może więc warto poszerzyć o nie ofertę.
VADEMECUM CRN listopad 2018
txt_nosniki.indd 64
20.11.2018 13:13
D.LAB – przyszłość niszczenia danych
D
iskus od początku swojej działalności zajmuje się dystrybucją nośników danych, naturalne było więc, że prace w nowym centrum badawczo-rozwojowym także będą obejmowały tę dziedzinę. – Od dawna chcieliśmy tworzyć własne produkty, bo tylko w ten sposób możemy zachować kontrolę od momentu ich zaprojektowania przez proces produkcji do sprzedaży i wsparcia – tłumaczy Tomasz Filipów, dyrektor zarządzający firmy Diskus. – Widzieliśmy, że dystrybucja nośników przynosi coraz mniej zysków, więc zajęliśmy się sprzedażą (poza rozwiązaniami z dziedziny pamięci masowych oraz dla centrów danych) demagnetyzerów. Ale wciąż nie byliśmy zadowoleni z tego, co w dziedzinie niszczenia danych oferuje rynek. Dlatego zdecydowaliśmy się na zaprojektowanie i produkcję własnych urządzeń, sprzedawanych obecnie w ponad 30 krajach świata pod marką ProDevice. Są to zarówno degaussery, jak i niszczarki nośników danych. Szybki rozwój oraz pojawiające się nowe pomysły skłoniły zarząd do przeniesienia firmy do nowej, większej siedziby, w której stworzono profesjonalne laboratorium badawcze. Na początek przyjęto, że jego działalność będzie skupiona na dwóch obszarach: innowacyjnych metodach usuwania danych z pamięci typu
flash oraz produkcji pierwszych na świecie demagnetyzerów z technologią PPMS, generujących pole elektromagnetyczne o mocy do 55 tys. gaussów.
Realizacja tych zadań wymaga nie tylko bogatej wiedzy i doświadczenia, ale także zaplecza technicznego. D.LAB to obiekt o powierzchni ok. 800 m2 (samo laboratorium to ok. 220 m2), w pełni przystosowany do prac naukowo-badawczych. Doboru aparatury pomiarowej dokonano we współpracy z wybitnymi specjalistami z krakowskiej Akademii Górniczo-Hutniczej oraz warszawskiego Instytutu Technologii Elektronowej. Zbieranie i dokumentowanie wyników badań z urzą-
Tomasz Filipów dyrektor zarządzający, Diskus
Dzięki środkom pozyskanym z Narodowego Centrum Badań i Rozwoju chcemy stworzyć nieistniejącą do tej pory na świecie metodę niszczenia nośników z pamięcią flash: telefonów komórkowych, pendrive’ów i dysków SSD. Zakładamy, że – podobnie jak w demagnetyzerach, których sposób działania nie jest skuteczny w przypadku pamięci flash – będziemy wysyłać pewien impuls do urządzenia, co poskutkuje zniszczeniem struktury kości pamięci. W niedalekiej przyszłości planujemy wprowadzić na rynek urządzenie korporacyjne, jak również przeznaczone dla klientów indywidualnych.
dzeń pomiarowych odbywa się za pomocą oprogramowania OMS D.LAB. W centrum stworzono także tzw. klatkę Faradaya – wydzielone, specjalistyczne pomieszczenie, całkowicie uziemione, skonstruowane w celu niwelowania zakłóceń pochodzących z zewnątrz. Dzięki idealnemu tłumieniu sygnałów możliwe jest przeprowadzanie w nim badań kompatybilności elektromagnetycznej wytwarzanych przez Diskus i wprowadzanych na rynek produktów. Bogato wyposażono też serwerownię centrum, której zadaniem jest obsługa urządzeń pracujących w chmurze, a bezpieczeństwo energetyczne całego budynku zapewniają profesjonalne UPS-y oraz agregat prądotwórczy z systemem samoczynnego załączania rezerwy. Nad bezpieczeństwem czuwa również system kamer wideo, kontroli dostępu oraz klimatyzacji wykorzystującej wodę lodową. Całość sprzężona jest z systemem monitoringu warunków środowiskowych, czujnikami dymu oraz zalania. W obiekcie, oprócz projektów badawczych, realizowane są także usługi dla klientów. W placówce znajduje się specjalistyczne pomieszczenie, spełniające wszelkie normy bezpieczeństwa, w którym m.in. przeprowadzane są prace związane z usuwaniem danych: demagnetyzacja i fizyczne niszczenie nośników, a także naprawa bibliotek taśmowych wszystkich wiodących producentów. Całość prac związana z niszczeniem danych nagrywają kamery, a klient dostaje pełny raport z wykonanej usługi, z certyfikatem potwierdzającym poprawność przeprowadzonych prac.
Dodatkowe informacje: TOMASZ FILIPÓW, DYREKTOR ZARZĄDZAJĄCY, DISKUS, INFO@DISKUS.PL
VADEMECUM CRN listopad 2018
adv Diskus.indd 65
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ DISKUS.
Centrum Badawczo-Rozwojowe D.LAB w Wieliczce koło Krakowa to najnowsza inwestycja firmy Diskus. Powstało w reakcji na rosnące w szybkim tempie zapotrzebowanie rynku związane m.in. z koniecznością usuwania danych z nośników z pamięcią flash – dysków SSD, pendrive’ów oraz urządzeń mobilnych.
65
20.11.2018 18:59
ZAPISZ SIĘ NA BEZPŁATNY NEWSLETTER
POLSKA
OTRZYMASZ 3 RAZY W TYGODNIU: • najświeższe informacje o trendach w kanale sprzedaży rozwiązań IT w Polsce i na świecie • zapowiedzi najważniejszych konferencji i wydarzeń dla resellerów i integratorów IT • wiedzę dotyczącą biznesu, wspomagającą rozwój Twojej firmy
Jak to zrobić? To proste. Mając konto* na CRN.PL: 1. zaloguj się 2. kliknij Prenumerata 3. kliknij ikonę NEWSLETTER CRN 4. i zapisz wprowadzone zmiany
JEŚLI NIE PAMIĘTASZ HASŁA DO SWOJEGO KONTA… • możesz je odzyskać na stronie: www.crn.pl/reset • możesz wysłać mail na adres prenumerata@crn.pl z prośbą o włączenie newslettera Z otrzymywania newslettera można w każdej chwili zrezygnować, edytując profil swojego konta na CRN.pl lub wysyłając mail na adres prenumerata@crn.pl
* Jeśli jeszcze nie masz konta na crn.pl możesz je założyć na stronie www.crn.pl/login
N A J L E P I E J P O I N F O R M OWA N E P I S M O W B R A N Ż Y I T ! 197x265Newsletter_CRN_1118.indd 1
13.11.2018 12:43
Kasowanie danych w trosce o środowisko
N
ależąca do CebITgroup wrocławska firma Wiperapp EP od blisko pięciu lat pracuje nad najbardziej skutecznym, bo elektronicznym, bezpiecznym dla komputerowych nośników pamięci kasowaniem danych. Jej flagowym produktem jest Wiperapp – modułowe oprogramowanie służące do nieodwracalnego usuwania informacji, zgodne ze standardem NIST 800–88 (rewizją 1) oraz spełniające wymagania FBI, CIA, FMV oraz ABW. Dzięki temu można go używać do celów prywatnych i z powodzeniem stosować w firmach i instytucjach państwowych. Ma to szczególne znaczenie tam, gdzie usuwane informacje są chronione prawem (dane osobowe lub stanowiące tajemnicę służbową, zawodową itd.). W takich przypadkach konieczne jest postępowanie zgodne z obowiązującymi procedurami. Nowoczesne metody usuwania danych, wykorzystywane przez Wiperapp, uniemożliwiają ich odzyskanie nawet za pomocą najbardziej zaawansowanych narzędzi, ale nie ograniczają trwałości nośników (szczególnie dysków SSD). Te, z których dane usunięto z użyciem oprogramowania Wiperapp, zostały wysłane do wiodących firm zajmujących się odzyskiwaniem danych. Żadna nie odniosła sukcesu.
W oprogramowanie Wiperapp zostało wbudowane też narzędzie do audytów sprzętu. Zbiera ono WIPERBOX UMOŻLIWIA BEZPOWROTNE USUWANIE DANYCH Z KOMPUTERÓW, informacje na temat DO KTÓRYCH ZOSTANIE PODŁĄCZONY. wszystkich podłączonych do sieci komputerów oraz przekazuje użytkownikowi pełną zapewniający bezprzewodową komunikaspecyfikację techniczną każdego z nich. cję z serwerem Wiperbox. Umożliwia bezpieczne usuwanie danych z komputerów, SPRZĘT DO NISZCZENIA w których nie ma zainstalowanej karty sieCiekawostką, która może zainteresować wie- ciowej, ale są wyposażone w port USB. Nalu klientów, jest Wiperbox. To miniaturowy daje się też do usuwania danych z systemów serwer z zainstalowaną aplikacją Wiperapp, komputerowych, których nośniki informacji umożliwiający bezpowrotne usuwanie da- ze względów bezpieczeństwa nie mogą być nych z komputerów, do których zostanie wynoszone poza siedzibę firmy lub instytupodłączony (bezpośrednio kablem RJ-45 cji (np. używane przez banki, wojsko, policję, lub przez przełącznik w ramach wydzielo- służby specjalne itd.). nej sieci). Dzięki temu nie trzeba korzystać Dla firm, które chcą jednocześnie kaz internetu – komputery zawierające poufne sować dane z wielu twardych dysków dane (a takie przede wszystkim powinny być w centrach danych, przeznaczone jest bezpowrotnie kasowane) nie powinny mieć rozwiązanie Wiperack. Współpracuje dostępu do globalnej sieci. Wiperbox jest z nośnikami o różnych rozmiarach, rówprzeznaczony dla przedsiębiorstw, w których nież zainstalowanymi w macierzach dyszachodzi potrzeba usunięcia danych z bardzo kowych lub ramkach, dzięki czemu nie dużej liczby komputerów (do 250). Świetnie trzeba ich demontować. Wiperack mosprawdza się w firmach zajmujących się od- że być wyposażony w zasilacz UPS, aby sprzedażą używanych komputerów. zapewnić bezproblemowy proces kasoKolejne urządzenie to Wiperair – minia- wania, który zostanie zakończony nawet turowy, mieszczący się w kieszeni moduł w przypadku awarii zasilania. Rozwiązania sprzętowe zaprojektowane przez firmę Wiperapp EP zostały zgłoszoMarcin Wyrwas ne do Urzędu Patentowego RP. Resellerzy prezes zarządu Wiperapp EP i integratorzy zainteresowani ich odsprzedażą lub nabyciem do własnego użytku Dzisiaj najpowszechniejszą w Polsce procedurą kasowania danych jest i w celu świadczenia usług powinni konfizyczne zniszczenie nośnika. Metoda ta ma jednak dwie wady: specjalitaktować się bezpośrednio z producentem.
styczne laboratoria potrafią odzyskać dane w teoretycznie beznadziejnych przypadkach, więc ten sposób usuwania informacji może okazać się nieskuteczny. Poza tym w wyniku takiego procesu powstają duże ilości elektrośmieci. Uważamy, że wszyscy jesteśmy odpowiedzialni za środowisko, w którym żyjemy. Dlatego staramy się tworzyć rozwiązania w taki sposób, aby umożliwić dalsze korzystanie z nośników danych.
Dodatkowe informacje: BOGUSŁAW SEREDYŃSKI, PROJECT MANAGER, WIPERAPP EP, BOGUSLAW.SEREDYNSKI@CEBITGROUP.PL VADEMECUM CRN listopad 2018
adv WiperApp.indd 67
ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ WIPERAPP EP.
W niektórych przypadkach nawet fizyczne zniszczenie nośnika nie chroni przed niepowołanym dostępem do danych. Dlatego zalecane jest korzystanie z profesjonalnych rozwiązań, zgodnych z przyjętymi na świecie standardami.
67
20.11.2018 18:59
Backup: startupy zarządzają danymi
Ilustracja AdobeStock
DOLINA KRZEMOWA
Nowa fala startupów wnosi ożywczy powiew na rynek rozwiązań do ochrony danych. Koncepcje funkcjonowania ich produktów wychodzą daleko poza zakres standardowych czynności związanych z backupem. WOJCIECH URBANEK
I
nnowacyjne pomysły młodych firm mają nie tylko ułatwić zarządzanie danymi, ale również powstrzymać wzrost wydatków na ten cel. Największą zmorą administratorów IT jest przyrost danych nieustrukturyzowanych. W latach 2016–2021 ich ilość będzie się zwiększała w tempie 20 proc. rocznie w środowiskach lokalnych i 34 proc. w chmurze publicznej. Ale to niejedyny problem, z którym muszą borykać się działy informatyczne. Nie mniej uciążliwe są dynamiczne zmiany zachodzące w świecie techniki, gdzie co rusz pojawiają się nowe trendy. W ostatnim czasie wiele dyskutuje się o konteneryzacji, bazach danych NoSQL, hiperkonwergencji oraz SaaS. Niewykluczone, że niebawem pojawią się kolejne rewolucyjne idee. Chwili wytchnienia administratorom sieci nie dają też hakerzy uderzający z coraz większą siłą. Klasyczny przykład sta-
68
nowi ransomware. Według analityków Cybersecurity Ventures komputerowi przestępcy dwa lata temu przeprowadzali tego typu ataki średnio co 40 sek., w przyszłym roku będą uderzać co 14 sek. Nic dziwnego, że inwestorzy z Doliny Krzemowej zaczynają łaskawym okiem patrzeć na startupy opracowujące produkty przeznaczone do zarządzania danymi, ich przechowywania i ochrony. Zresztą, jak dowodzi historia rynku pamięci masowych, autorami największych innowacji w tej klasie rozwiązań byli szerzej nieznani gracze. Firmy Avamar, Data Domain oraz Veeam opracowały systemy wyznaczające nowe kierunki na rynku ochrony danych. Czy podobnie będzie w przypadku Rubrika, Cohesity i innych? Jeszcze do niedawna operatorzy centrów danych musieli walczyć z rozrastającymi się silosami. Odseparowane
i tworzące wyspy serwery, pamięci masowe oraz sprzęt sieciowy wymagały opieki specjalistów, a na dodatek zajmowały coraz większą powierzchnię i pochłaniały mnóstwo energii elektrycznej. Prawdopodobnie pogromcą silosów będzie infrastruktura hiperkonwergentna, łącząca w jednym „pudełku” moc obliczeniową, pamięć masową, sprzęt sieciowy i oprogramowanie. Prekursorem tego trendu jest firma Nutanix, obecnie notowana na Nowojorskiej Giełdzie Papierów Wartościowych. Jednym z jej założycieli, a jednocześnie CTO, był Aron Mohit. W 2013 r. opuścił Nutanix i utworzył kolejny startup – Cohesity. Czym zajmuje się nowe przedsiębiorstwo Mohita, w które fundusze venture capital do tej pory zainwestowały, jak na razie, 410 mln dol.? Cohesity zamierza uprościć procesy związane z obsługą
VADEMECUM CRN listopad 2018
txt_Dolina Krzemowa.indd 68
20.11.2018 12:59
danych znajdujących się w środowisku lokalnym i chmurze. W tym celu wprowadziła na rynek system Cohesity Data Platform. To konwergentne rozwiązanie do ochrony danych, konsolidujące procesy związane z tworzeniem kopii zapasowych, archiwizacją, a także przechowywaniem plików i obiektów oraz analityką biznesową. Aron Mohit zaznacza, że system nie zajmuje się jedynie danymi pochodzącymi z aplikacji krytycznych. – Stanowią one zaledwie 20 proc. wszystkich zasobów cyfrowych używanych przez firmy. To wierzchołek góry lodowej, a nas interesuje to, co znajduje się pod powierzchnią wody – wyjaśnia Aron Mohit. Cohesity Data Platform wykorzystuje skalowalną architekturę bazującą na rozproszonych systemach plików Google. Wybór tego rozwiązania nie jest dziełem przypadku, bowiem Aron Mohit spędził cztery lata w tym koncernie z Mountain View, gdzie pracował nad projektem Google FS. System wspiera hiperwizory VMware, Linux KVM, Microsoft Hyper-V i Nutanix AHV, chroni dane z urządzeń NAS NetApp, Dell EMC Isilon, Pure Storage FlashBlade i wielu innych, obsługujących protokoły NFS oraz SMB. Startup sprzedaje produkt w formie oprogramowania lub jako rozwiązanie sprzętowe. W tej drugiej opcji klient otrzymuje skonfigurowany serwer z klasycznymi dyskami oraz pamięcią flash. Producent oferuje kilka konfiguracji urządzenia, a jego maksymalna powierzchnia dyskowa wynosi 176 TB HDD i 7,68 TB SSD. Najgroźniejszym konkurentem Cohesity w walce o pieniądze klientów oraz inwestorów jest Rubrik. Opracowany przez tę firmę system Alta 4 chroni dane pochodzące zarówno z natywnych aplikacji chmurowych, jak i z tradycyjnego oprogramowania. Twórcom przyświecała ta sama idea, którą kierował się Aron Mohit. Nie ma w tym nic dziwnego, bowiem część założycieli Rubrika wywodzi się z Nutanixa. Alta 4 zarządza procesami backupu i odzyskiwania danych, archiwizacji, a także oferuje indeksowe wyszukiwanie informacji oraz narzędzia do analityki biznesowej. Platforma jest kompatybilna z hiperwizorami VMware, Microsoft Hyper-V i Nutanix AHV. Firma oferuje opcje sprzętowe o zróżnicowanych parametrach, w najbardziej
rozbudowanej wersji pojemność wynosi 120 TB HDD oraz 1,6 TB SSD. Warto zaznaczyć, że w przypadku produktów Rubrika i Cohesity istnieje możliwość budowania klastrów, co zapewnia znaczne zwiększenie pojemności systemów. Rubrika różni od największego konkurenta to, że jego rozwiązanie umożliwia tworzenie kopii zapasowych dla nierelacyjnych baz danych. Startup z Mountain View rozszerzył swoje portfolio o ten produkt, przejmując na początku bieżącego roku firmę Datos IO.
Na rynku pamięci masowych autorami największych innowacji byli do tej pory nieznani szerzej gracze. Rubrik powstał w 2014 r. i zebrał od funduszy venture capital 292 mln dol. Firmę wycenia się na 1,3 mld dol., i tym samym należy do grona tzw. jednorożców, czyli technologicznych startupów, które osiągnęły wartość przynajmniej 1 mld dol. Kilka miesięcy temu przeszedł do niej John Chambers, który objął funkcję doradcy zarządu. Były prezes i twórca sukcesu Cisco jest też jednym z inwestorów startupu. – Platforma Rubrika to przyszłość zarządzania danymi. Firma podąży śladami takich gigantów jak Cisco, SAP, Dell i Oracle – utrzymuje John Chambers. Cohesity oraz Rubrik próbują przenieść wzorce z segmentu rozwiązań infrastrukturalnych do świata danych. Przez wiele lat systemy backupu traktowano jak swojego rodzaju polisę ubezpieczeniową. Platformy obu przedsiębiorstw wyznaczają nowe trendy w zakresie ochrony i zarządzania zasobami cyfrowymi, eliminując do niezbędnego minimum oprogramowanie i sprzęt przeznaczone do archiwizacji, tworzenia kopii zapasowych oraz odzyskiwania danych.
ZARZĄDZANIE W CHMURZE
DANYMI
Rosnąca popularność usług chmurowych przyczynia się do zmiany sposobu zarzą-
dzania danymi. Jednak wielu przedsiębiorców nie do końca zdaje sobie z tego sprawę. O ile w przypadku tradycyjnej infrastruktury jest jasne, kto ponosi jaką odpowiedzialność za sprzęt i dane, o tyle w przypadku modeli IaaS, PaaS czy SaaS pojawia się wiele wątpliwości. – Użytkownikom usług chmurowych wydaje się, że podpisując umowę z ich dostawcą, pozbywają się problemów związanych z danymi. Ale tak nie jest – tłumaczy Sovan Bin, CEO i założyciel Odaseva. Zarządzanie zasobami cyfrowymi i prawami do nich, dostępem do konta, a także opieka nad urządzeniami końcowymi to obowiązki spoczywające na użytkowniku, niezależnie od tego, z jakiej infrastruktury korzysta. Odaseva, startup działający od sześciu lat, nie tylko przypomina użytkownikom chmury publicznej o konieczności kontroli danych, ale oferuje specjalne oprogramowanie – Odaseva Data Management Cloud – przeznaczone do backupu i odzyskiwania danych oraz sprawdzania zgodności systemu ich ochrony z RODO. System zapewnia wyodrębnianie danych osobowych z plików CSV, z wyłączaniem rekordów biznesowych lub pól należących do firmy. Takie podejście umożliwia niezależne zarządzanie danymi osobowymi i biznesowymi. Produkt przeznaczony jest dla użytkowników Salesforce’a i oferowany jako SaaS. Odaseva zdecydowała się na tę grupę docelową z dwóch powodów: dużej popularności oprogramowania, a także wcześniejszych doświadczeń zawodowych Sovana Bina, który przepracował w Salesforce pięć lat na stanowisku architekta systemu. Z Odaseva Data Management Cloud korzysta 2 mln użytkowników, w tym pracownicy Toyoty oraz General Electric. Co ciekawe, Salesforce w oficjalnych materiałach informacyjnych zaleca stosowanie zewnętrznych narzędzi do backupu. Rubrik, Cohesity i Odaseva to niejedyni nowi gracze w segmencie ochrony danych, na których należy zwrócić uwagę. Ciekawe rozwiązania przeznaczone do konsolidacji backupu tworzonego z kilku źródeł w jednym urządzeniu oferuje np. Igneous Systems. Warto też bliżej przyjrzeć się firmie Datrium założonej przez Briana Bilesa, ojca sukcesu Data Domain. VADEMECUM CRN listopad 2018
txt_Dolina Krzemowa.indd 69
69
20.11.2018 12:59
Indeks firm 3S Data Center....................................................49 AB .......................................................17, 18, 51, 52, 61 ABC Data.............................18, 26, 27, 38, 51, 61 Acronis.......................................................20, 21, 50 Action.............................................................18, 51, 61 Advantech ..............................................................72 Allegro Packets....................................................32 Allied Telesis...........................................................72 Also ...............................................................................61 Alstor SDS .........12, 32, 33, 44, 46, 47, 61, 72 Amazon Web Services....................15, 48, 53 AMD ............................................................................29 Apcon ........................................................................72 Apple .........................................................................48 Arrow ECS ...............................................................17 Aruba Cloud ........................................... 37, 38, 41 Atempo......................................................................14 Atman ........................................................37, 38, 39 Avamar.....................................................................68 Axence...............................................................55, 57 Barracuda Networks.......................................50 Beyond.pl........................................................36, 38 Brother .............................................................43, 45 Cisco Systems .............................22, 34, 53, 69 Citrix ............................................................ 21, 25, 60 Clico............................................................................20 Cohesity...........................................................68, 69 Commvault...............................................14, 21, 49 Comtegra .................................................................31 Connect Distribution ......................................50 Cubro..................................................................32, 72 DataCore Software ............................................21 Data Domain ................................................68, 69 Data Space ............................................37, 38, 40 Datrium ....................................................................69 Dell EMC ....................10, 14, 22, 29, 30, 53, 69 Diskus ................................................................63, 65 Eaton ..........................................................................72 Ediko ..........................................................................43 Endace.......................................................................32
COMPUTER RESELLER NEWS POLSKA WYDANIE SPECJALNE, listopad 2018 ISSN 1640-9183 REDAKCJA: 02-674 Warszawa, ul. Marynarska 15 tel. (22) 360-38-00, redakcja@crn.pl, www.CRN.pl Tomasz Gołębiowski (redaktor naczelny) tomasz.gołebiowski@crn.pl, tel. (22) 44-88-991 Krzysztof Jakubik (redaktor prowadzący) krzysztof.jakubik@crn.pl, tel. (22) 244-29-23 Dorota Smusz (sekretarz redakcji) dorota.smusz@crn.pl, tel. (22) 44-88-933 Andrzej Gontarz, andrzej.gontarz@crn.pl Tomasz Janoś, tomasz.janos@crn.pl
70
indeks.indd 70
Engave......................................................................49 Enterprise Strategy Group............................. 6 EPA Systemy....................................................21, 51 ExaGrid......................................................................72 Exea Data Center .......................................37, 38 Fujitsu....................10, 14, 26, 27, 28, 46, 47, 72 Garland Technology.................................32, 72 GitLab........................................................................48 Google ......................................................................49 HGST...........................................................................72 HPE ......................................................................22, 53 Huawei................................................................13, 53 IBM ....................................................... 14, 22, 48, 53 Igneous Systems ...............................................69 Infinidat .....................................................................53 Infortrend.................................................................72 Ingram Micro ..................................................17, 20 Inspur..........................................................................72 Integrity Partners............................................... 56 Intel.......................................................................29, 72 Ivanti............................................................................72 Kaminario ................................................................22 Kasseya ....................................................................50 Kingston ........................................... 59, 60, 61, 72 Konsorcjum FEN .........................................51, 52 Lantronix ..................................................................72 Lenovo................................................................. 16, 17 Mellanox Technologies ...........................33, 72 Micro Focus.............................................................14 Microsemi ................................................................72 Microsoft ....................................15, 21, 25, 49, 53 NetApp ................................................16, 17, 22, 53 Netgear ..........................................................11, 12, 18 Netology .................................................................49 Nutanix .............................................50, 53, 68, 69 Odaseva...........................................................50, 69 Opengear ................................................................72 Oracle ......................................................... 14, 53, 69 Overland Tandberg...........................................72 Panasonic ................................................................72
REKLAMA: Sekretariat Biura Reklamy 22 360 36 03, reklama@burdamedia.pl
Wojciech Urbanek, wojciech.urbanek@crn.pl KIEROWNIK PROJEKTU VADEMECUM: Jacek Goszczycki, jacek.goszczycki@burdamedia.pl ILUSTRACJA NA OKŁADCE: AdobeStock FOTOGRAFIE: archiwum KOREKTA: Lidia Sadowska-Szlaga KIEROWNIK PRODUKCJI: Darek Jahn, darek.jahn@burdamedia.pl KOORDYNATOR PRODUKCJI: Jan Kutyna, jkutyna@burdamedia.pl PRENUMERATA: Jacek Sołtyk, prenumerata@crn.pl
Proxmox ...................................................................37 Pure Storage..........................................22, 23, 53 QNAP .....................................................................11, 51 QSAN Technology..............................................21 Quantum...................................................................14 Rafcom.............................................................49, 50 Red Hat ......................................................30, 31, 35 Rubrik ................................................................68, 69 S4E...............................................................................29 S4Engineers .........................................................48 Salesforce .............................................. 49, 50, 69 Samsung ..................................................................72 SAP .............................................................................69 SIDIO.......................................................................... 59 SimplicITy ............................................................... 63 Socomec..................................................................72 Softinet..................................................................... 56 Sophos .............................................................52, 60 Spectra Logic.................................................14, 72 StarWind Software ...................................33, 72 SuperMicro .............................................................72 SUSE ..........................................................................30 Symmetry ..............................................................49 Synerise ...................................................................48 Syneto................................................................33, 72 Synology .....................................................11, 23, 25 Systemy Informatyczne ITXON ..............20 Tech Data ............................................................17, 61 Tintri.............................................................................22 Toshiba ......................................................................72 Veeam Software ... 14, 15, 21, 49, 50, 53, 68 Veganet ................................................................... 63 Veracomp.............................13, 15, 18, 19, 24, 35 Veritas Technologies.................14, 19, 49, 50 Vertiv...................................................................33, 72 Violin Memory ......................................................23 VMware................................18, 21, 25, 29, 37, 53 WD ...............................................................................22 Wiperapp EP ................................................64, 67 X-IO Technologies..............................................22
WYDAWCA: Burda Media Polska Sp. z o.o. 02-674 Warszawa, Marynarska 15 www.burdamedia.pl Chief Commercial Officer: Michał Helman Sales Director: Małgorzata Nocuń-Zygmuntowicz Deputy Sales Director: Katarzyna Nowakowska Senior Business Manager: Olga Sztąberska, olga.sztaberska@burdamedia.pl Brand Manager: Ewa Korzańska, ewa.korzanska@burdamedia.pl
Sales Team Manager: Agata Myśluk agata.mysluk@burdamedia.pl PROJEKTY SPECJALNE: Senior Project Manager: Jacek Goszczycki jacek.goszczycki@burdamedia.pl Reklamy przyjmowane są w siedzibie wydawnictwa. Za treść ogłoszeń redakcja nie ponosi odpowiedzialności. © Copyright 2018 Burda Media Polska sp. z o.o. Wszelkie prawa zastrzeżone. Computer Reseller News Polska contains articles under license from The Channel Company. © 2018 The Channel Company. All rights reserved. Burda Media Polska należy do: Ogólnopolskiego Stowarzyszenia Wydawców i Izby Wydawców Prasy
VADEMECUM CRN listopad 2018
21.11.2018 10:37
PRENUMERATA BEZPŁATNEGO MAGAZYNU WYŁĄCZNIE DLA FIRM Z BRANŻY IT
Załóż konto na stronie CRN.pl
wypełniając odpowiedni formularz Prenumerata jest aktualna przez 12 miesięcy. Pod koniec tego okresu wysyłane jest przypomnienie o możliwości jej przedłużenia.
Więcej informacji: tel. 22 36 03 992, prenumerata@crn.pl
NAJLEPIEJ POINFORMOWANE PISMO W BRANŻY IT! Autoreklama_CRN1118.indd 1
15.11.2018 09:46
Od pamięci masowych do rozwiązań sieciowych
Infrastruktura IT i Data Center `` `` `` ``
serwery konsol i KVM zasilacze bezprzerwowe UPS szafy RACK oraz listwy zasilające oprogramowanie do zarządzania IT i Data Center
Pamięci masowe i archwizacja `` urządzenia taśmowe, RDX, macierze i serwery NAS `` skalowalny backup dyskowy z deduplikacją danych `` platformy i komponenty serwerowe `` platformy hiperkonwergentne, rozwiązania Software Designed Storage
Pobierz katalog
CRN Vademecum - Alstor SDS (2018-10).indd 4
Zarządzanie i bezpieczeństwo IT
Sieci informatyczne
`` oprogramowanie do zarządzania infrastrukturą IT, aktualizacjami, zasobami informatycznymi (ITAM) i usługami (ITSM) `` szyfrowane pamięci masowe do środowisk wymagających najwyższego stopnia zabezpieczeń
`` `` `` ``
Przetwarzanie dokumentów `` kompaktowe skanery biurowe A4 i A3 `` skanery sieciowe `` skanery wysokonakładowe i wielkoformatowe `` oprogramowanie
inteligentny monitoring sieci specjalizowane karty sieciowe TAP – Testowe Punkty Dostępowe zaawansowane rozwiązania sieciowe
Usługi `` wsparcie w zakresie projektowania inwestycji `` usługi doradcze i wdrożeniowe `` serwis gwarancyjny i pogwarancyjny
www.alstorsds.pl | biuro@alstorsds.pl
2018-10-31 09:30:57