Vademecum VAR-ów i integratorów Q4/2017

Page 1

ISSN 1640-9183

WYDANIE SPECJALNE

listopad 2017

RODO BACKUP SZYFROWANIE RANSOMWARE PRAWO

Dane w przedsiębiorstwie ZARZĄDZANIE I OCHRONA


Data Storage, Security & Performance

Serie XS 1200 XS 3200 XS 5200

Macierze SAN iSCSI / Fibre Channel dla biznesu 4096 migawek w każdej macierzy w standardzie

Serie XN 3000 XN 5000 XN 7000 XN 8000

Dyski sieciowe NAS dla prawdziwego biznesu System ZFS, auto-tiering i wirtualizator w każdym serwerze

WIĘCEJ INFORMACJI NA WWW.QSAN.COM Dystrybucja w Polsce:

EPA Systemy Sp. z o.o. www.epasystemy.pl email: qsan@epasystemy.pl tel. 91-4315360


SPIS TREŚCI

Vademecum 4/2017 ROZMOWA Z... Wojciechem Wiewiórowskim, 6 zastępcą Europejskiego Inspektora Ochrony Danych i opiniodawcą Rozporządzenia o Ochronie Danych Osobowych WYDAJNOŚĆ SYSTEMÓW PRZECHOWYWANIA DANYCH 10 Inwestuj w dyski SSD w najszybszej warstwie 14 Infortrend – pamięci masowe dla małych i dużych serwerowni 15 Macierze Fujitsu – gwarancja wydajności i skalowalności 16 Wysoka dostępność i ciągłość biznesowa w macierzach Huawei ZARZĄDZANIE CYKLEM ŻYCIA NOŚNIKÓW 18 Zabezpieczanie nośników: wygrają wiarygodni partnerzy 22 Laboratorium Diskusa zniszczy każdy bit danych 23 Dane prawie zawsze da się odzyskać (Iviter) BACKUP ŚRODOWISK WIRTUALNYCH Realny backup dla wirtualnych maszyn 28 Ochrona maszyn wirtualnych nie musi być droga (QNAP) 29 Gwarancja stałej dostępności w środowiskach chmurowych (Veeam) 30 Backup wirtualnych maszyn bez wewnętrznych agentów (IBM, Boat.Systems)

Fot. © vege, © WaD, © Gorodenkoff– Fotolia.com

24

BACKUP I ARCHIWIZACJA USŁUG CHMUROWYCH 32 Chmura chroni dane 35 Synology – wszystkie opcje są możliwe 36 Backup w chmurze – na dobre i na złe (Aruba Cloud)

ZAPASOWE CENTRA DANYCH I KOLOKACJA 38 U klienta, u integratora, czy w chmurze? 41 Ochrona danych na każdym poziomie (Beyond.pl) 42 Alstor – od pamięci masowych do rozwiązań sieciowych SYSTEMY POCZTOWE – ZARZĄDZANIE I BACKUP 44 Resellerzy mogą zarabiać na systemach pocztowych 47 Sophos kompleksowo ochroni pocztę ZARZĄDZANIE OBIEGIEM DOKUMENTÓW I INFORMACJI 48 Cyfrowy obieg dokumentów: szerokie pole do popisu 51 Kompetencje mają kluczowe znaczenie w ochronie dokumentów (Ricoh) OCHRONA PRZED RANSOMWARE 52 Po pierwsze: nie płacić! 55 F-Secure: wielu zagrożeń można uniknąć SZYFROWANIE DANYCH I OCHRONA PRZED WYCIEKAMI 56 Coraz więcej przepisów sprzyja rozwojowi biznesu związanego z szyfrowaniem danych 59 Pendrive może być bezpiecznym nośnikiem (Kingston) 60 Jak zapewnić poufność danym? (ABC Data) PRAWO 62 RODO: od ogółu do szczegółu 66

Indeks firm

VADEMECUM CRN listopad 2017

3


EDYTORIAL

Legislacyjne wsparcie

N

admiar regulacji prawnych szkodzi – te słowa jak mantrę powtarzają ekonomiści, analitycy rynku i klienci. Także Roman Kluska podczas swoich publicznych wystąpień podkreśla, że gdyby na początku lat 90. ubiegłego wieku funkcjonowało takie prawo jak obecnie, prawdopodobnie Optimus nigdy by nie powstał. Prawo nierzadko paraliżuje działania biznesowe, zmusza do niepotrzebnych wydatków oraz uczestniczenia w nudnych szkoleniach bądź zatrudniania wysoko opłacanych prawników. Z tak postawioną tezą można by się zgodzić. Ale pod warunkiem, że żylibyśmy w idealnym świecie. A tak nie jest, nigdy nie było i nie będzie. Niestety, faktem jest, że nadmiar obywatelskiej swobody rodzi patologie i ryzyko nadużyć. Szczęśliwi ci, którzy mogą funkcjonować w społeczeństwie wolnym od takich postępków. Ale przy coraz powszechniejszej globalizacji, granice zaczynają się zacierać. Dlatego można uznać za usprawiedliwione tworzenie nowych regulacji, i to obowiązujących w wielu krajach. Mam na myśli oczywiście nowe Rozporządzenie o Ochronie Danych Osobowych. Jestem dużym zwolennikiem tego aktu (i to z kilku powodów, o czym za chwilę), mając jednocześnie świadomość jak bardzo i często niepotrzebnie zbiurokratyzowane są ustawodawcze placówki Unii Europejskiej. Wolnoamerykanka dotycząca używania danych osobowych z pewnością musi być zakończona. Dostępne dziś narzędzia analityczne i wysoka moc obliczeniowa serwerów dają niebezpieczną możliwość łączenia ze sobą informacji o obywatelach, które przechowywane osobno niewiele znaczą. Można by uznać, że takie profilowanie ma sens przy próbach precyzyjnego dostosowania np. przekazu reklamowego do rzeczywistych potrzeb odbiorcy. Chociaż i tu może pojawić się nadużycie w postaci zawyżania ceny w zależności od siły na-

bywczej klienta. Ale gdy za profilowanie zabierają się agencje ubezpieczeniowe, aby uznaniowo podwyższyć składkę tym, u których ryzyko wystąpienia o odszkodowanie jest większe, to taka gra jest po prostu nie fair. Czy RODO to idealny akt prawny? Na razie jest za wcześnie, aby to ocenić. Przyznać trzeba jednak, że jest rozwiązaniem przemyślanym. Jak podkreśla Wojciech Wiewiórowski, zastępca Europejskiego Inspektora Ochrony Danych, bazuje ono na najlepszych praktykach z ostatnich 20 lat. Podczas prac nad dokumentem wzięto pod uwagę wiele komentarzy środowisk biznesowych, wśród których najważniejszym było, aby nie tworzyć zbyt szczegółowych regulacji prowadzących do paraliżu przedsiębiorstw. I, na koniec, trzeba również trochę egoistycznie spojrzeć prawdzie w oczy: nowe prawo daje zarobić integratorom z branży IT. Chociaż Wojciech Wiewiórowski sam przyznał, że sytuacja ta bywa obecnie nadużywana przez niektórych dostawców, generalnie jest to zjawisko pozytywne, bo stymuluje rynek, skłania do inwestowania w nowoczesne rozwiązania oraz analizowania procesów biznesowych i organizacyjnych w przedsiębiorstwach. Obok RODO przykładem dużego legislacyjnego wsparcia dla branży IT jest Rekomendacja D Komisji Nadzoru Finansowego, a także obowiązek prowadzenia elektronicznej dokumentacji medycznej od początku 2019 r. Pozostaje więc zachęcić integratorów do uważnego śledzenia zmian w obowiązującym prawie i dostosowywania do nich swojej oferty. Klienci bardzo szybko docenią możliwość współpracy z kompetentnym partnerem.

Fot. Marek Zawadzki

Prawo daje zarobić. Wystarczy grać fair, aby zdobyć szacunek i zaufanie klientów.

4

VADEMECUM CRN listopad 2017

KRZYSZTOF JAKUBIK redaktor prowadzący


UTRATA PAMIĘCI USB Z DANYMI TO PROBLEM PONAD POŁOWY FIRM W POLSCE 60% OSÓB KORZYSTA W PRACY Z TRZECH LUB WIĘCEJ PAMIĘCI USB WIĘCEJ NIŻ 5 PAMIĘCI USB

54%

OSÓB, KTÓRE UDZIELIŁY ODPOWIEDZI POTWIERDZA, ŻE W FIRMIE DOSZŁO DO PRZYPADKU UTRATY PAMIĘCI USB

3–5 1–2 0 Odsetek osób korzystających z danej liczby pamięci USB

32% zgubionych pamięci USB

ZAPISYWANIE PRYWATNYCH PLIKÓW NA SŁUŻBOWEJ PAMIĘCI USB:

TAK 25%

3% ukradzionych pamięci USB

32%

61% uszkodzonych pamięci USB

PLAN ZMIAN W FIRMIE W ZWIĄZKU Z OGÓLNYM ROZPORZĄDZENIEM O OCHRONIE DANYCH OSOBOWYCH

ANKIETOWANYCH ZAJMUJĄCYCH NAJWYŻSZE SZCZEBLE KIEROWNICZE UTRACIŁO PRZYNAJMNIEJ RAZ PAMIĘĆ SŁUŻBOWĄ Z DANYMI

NIE 75%

CO CZWARTY PRACOWNIK UTRACIŁ PRZYNAJMNIEJ JEDNĄ PAMIĘĆ USB

5% - więcej niż 9 utraconych pamięci USB 7% - 3–5 utraconych pamięci USB 14% - 1–2 utraconych pamięci USB 74% - nie utraciło żadnych pamięci USB

4% nieznana przyczyna zaginięcia

TAK 63%

NIE 30%

10% osób określiło działania swojej firmy w związku z zaostrzeniem prawa ochrony danych na „brak zaangażowania”, a 22% jako „bardzo wysokie zaangażowanie”. 22% 7% 14% 11% 7%

JAKIEGO RODZAJU DANE PRACOWNICY ZAPISUJĄ NA PAMIĘCIACH USB?

14% 3% 5%

79% dane służbowe, ale niepoufne

26%

24%

dane prywatne

dane służbowe, poufne lub wrażliwe

2% 5% 10%

0

1 2

3

4

5 6 7

8 9 10

ZABEZPIECZENIA STOSOWANE W FIRMACH W CELU OCHRONY PAMIĘCI USB 46% Zabezpieczone miejsce przechowywania

37% Szyfrowanie programowe

21% Szyfrowanie sprzętowe

24% Brak zabezpieczeń

Wyniki na podstawie badania „Pamięci USB w użyciu firmowym” przeprowadzonego przez agencję badawczą IPSOS, na zlecenie firmy Kingston, wśród osób odpowiedzialnych za wdrożenia IT w firmach.


NA TEMAT

RODO: skorzystamy

na tym wszyscy

WOJCIECH WIEWIÓROWSKI, zastępca Europejskiego Inspektora Ochrony Danych i opiniodawca wchodzącego w życie w 2018 r. Rozporządzenia o Ochronie Danych Osobowych 6

VADEMECUM CRN listopad 2017


CRN Jaka była rola Europejskiego Inspektora Ochrony Danych w tworzeniu RODO? WOJCIECH WIEWIÓROWSKI W kwestiach związanych z ochroną danych osobowych EIOD jest organem nadzorczym wobec instytucji europejskich – Parlamentu, Rady i różnych agencji. Jest też organem opiniującym treść uchwalanych aktów prawnych i tak właśnie było w przypadku RODO. Wspieraliśmy opiniami obecnych w Parlamencie Europejskim przedstawicieli partii politycznych, którzy tworzyli to rozporządzenie oraz sprawozdawcę przedstawiającego je na forum Parlamentu. Ja swoją rolę jako zastępca EIOD pełnię od końca 2014 r., ale wcześniej, jeszcze jako Generalny Inspektor Ochrony Danych Osobowych w Polsce, brałem aktywny udział w pracach tzw. Grupy Roboczej Artykułu 29., która zrzesza wszystkie organy ochrony danych z krajów UE. Wówczas przede wszystkim rekomendowaliśmy porzucenie obowiązującej dyrektywy o ochronie danych osobowych oraz tworzonych lokalnie ustaw we wszystkich krajach członkowskich i zastąpienie ich jednym rozporządzeniem europejskim.

stety, obecna sytuacja nie pozwala na stworzenie europejskiej superustawy, dotyczącej całości kwestii ochrony danych osobowych, bo w poszczególnych krajach różnie przedstawiają się kwestie proceduralne lub na przykład związane z kontrolą sądową. Dlatego ta nowa ustawa będzie jedynie regulowała zagadnienia, których rozporządzenie nie objęło wprost. CRN Czy polska ustawa może w jakiś sposób anulować postanowienia RODO, na przykład wysokość kar, które – trzeba przyznać – są dość znaczące? WOJCIECH WIEWIÓROWSKI Absolutnie nie ma takiej możliwości. Polska ustawa jest tylko uzupełnieniem unijnego rozporządzenia i nie może go zmienić. Jeśli chodzi o kary, polski parlament nie ma prawa wpływania na ich wysokość, ale może ustalić procedurę ich nakładania i określić zasady kontroli sądowej nad organem, który będzie je wyznaczał. W przyszłości będzie to Urząd Ochrony Danych Osobowych, dziś jest to GIODO.

Odpowiedzialność za zabezpieczenie danych przyjmuje na siebie dostawca usługi, nawet jeśli nie figuruje w umowie z klientem, bo jest podwykonawcą.

CRN Jakie niedoskonałości miał poprzedni model? Dlaczego nie sprawdziła się dyrektywa? WOJCIECH WIEWIÓROWSKI Podstawowa różnica między dyrektywą a rozporządzeniem w prawie europejskim jest taka, że dyrektywa wyznacza jedynie cele, które mają być osiągnięte, natomiast sposób ich osiągnięcia pozostawia państwom członkowskim. Każde z nich wydaje akty prawne, które wprowadzają tę dyrektywę do krajowego systemu. Tak było też w Polsce – dyrektywa zaczęła obowiązywać w Unii w 1995 roku, a 20-lecie polskiej ustawy o ochronie danych osobowych obchodziliśmy w bieżącym roku. To bardzo dobrze, że została przyjęta już wtedy, choć jeszcze nie należeliśmy do UE, byliśmy dopiero kandydatem. CRN Czy oznacza to, że w każdym kraju były inne zasady ochrony danych? WOJCIECH WIEWIÓROWSKI Dokładnie tak. Poza tym legislatorzy w różnych krajach różnie rozumieli dyrektywę. W efekcie mamy obecnie 28 różnych systemów prawnych, bo tyle jest państw członkowskich, które się od siebie różnią, niekiedy bardzo znacząco. Już pod koniec pierwszej dekady XXI wieku wszyscy byli zatem przekonani, że ten model trzeba zmienić. Rozwinęły się nowe technologie, zmieniło się otoczenie prawne i gospodarcze przetwarzania danych osobowych, ale zmiany konieczne były również dlatego, że jeżeli Europa ma być jednym wspólnym rynkiem, powinna mieć jedną regulację prawną w tym zakresie. CRN Będziemy więc mieli rozporządzenie obowiązujące we wszystkich krajach UE. Dlaczego zatem polski parlament pracuje nad kolejną ustawą o ochronie danych osobowych? WOJCIECH WIEWIÓROWSKI Jest ona potrzebna, ponieważ wprowadza to rozporządzenie do polskiego porządku prawnego. Nie-

CRN Czy nowe rozporządzenie burzy to, co było wcześniej, czy jest kontynuacją dobrych praktyk wypracowanych przez 20 lat? WOJCIECH WIEWIÓROWSKI Uważam, że jest kontynuacją. Spośród stosowanych w Europie praktyk wybraliśmy te, które najlepiej się sprawdziły, ale w wybranych krajach pewne zmiany będą miały charakter wręcz rewolucyjny. W Polsce zaskakuje wysokość kar, ale takie sankcje dziś są zupełnie normalne w Hiszpanii czy Wielkiej Brytanii. Były też kraje, jak np. Finlandia, w których organy ochrony danych nie miały żadnych możliwości karania. Dużą zmianą jest rezygnacja z prowadzenia ogólnopolskiego rejestru systemów przetwarzających dane osobowe. Jego istnienie miało sens w latach 90. ubiegłego wieku, gdy często trzeba było tłumaczyć ludziom, że mają i przetwarzają dane osobowe. Dziś dane osobowe ma praktycznie każdy. CRN No właśnie, zdefiniujmy zatem to podstawowe pojęcie zbioru danych osobowych. Mam telefon komórkowy, w którym jest lista kontaktów: imiona, nazwiska, firmy, numery telefonów itd. Oprócz tego producent telefonu proponuje mi backup tych danych w chmurze. Czy jest to zbiór danych osobowych według nowego rozporządzenia i czy, jako osoba prowadząca działalność gospodarczą, muszę podejmować jakieś specjalne działania w celu ich ochrony? WOJCIECH WIEWIÓROWSKI Tu jest kilka bardzo ważnych kwestii. W nowym rozporządzeniu pojęcie danych osobowych nie zmienia się wobec stosowanego w dyrektywie z 1995 r. Mówimy o nich, nie tylko gdy mamy takie informacje jak imię i nazwisko, ale także gdy mamy inne dane umożliwiające zidentyfikowanie osoby, na przykład PESEL, a niekiedy ledwie adres e-mail. Wobec tego każdy z nas ma w telefonie zbiór danych osobowych i je przetwarza. Natomiast zarówno dyrektywa, jak i rozporządzenie przewidywały, że nie odnoszą się do tego typu list wykorzystywanych VADEMECUM CRN listopad 2017

7


NA TEMAT w ramach użytku osobistego i domowego. Ale sytuacja jest inna, gdy – jak w podanym przykładzie – użytkownik telefonu prowadzi jednocześnie działalność gospodarczą i ma na takiej liście dane kontrahentów lub klientów. Jak wspomniałem, nie ma już obowiązku zgłaszania posiadania takiej bazy, ale należy wykazać się należytą dbałością o poufność zgromadzonych w niej informacji. Poza tym wszyscy wiemy, że dziś telefony wyglądają zupełnie inaczej niż 20 lat temu i ich możliwości przechowywania i przetwarzania danych są znacznie większe. W związku z tym może się okazać, że dane przechowywane w telefonie komórkowym bądź w jakimś systemie informatycznym, z którym telefon będzie się łączył, mają charakter zbioru danych osobowych, o którego ochronę należy szczególnie zadbać.

WOJCIECH WIEWIÓROWSKI Oczywiście spodziewaliśmy się, że rynek silnie zareaguje na to rozporządzenie. Widzimy też, że dla wielu firm oznacza możliwość zaproponowania „nowego” produktu i usługi, które tak naprawdę oferowali już wcześniej, ale teraz podkreślają, że zapewnia zgodność z RODO. Niewątpliwie nadeszły też żniwa dla tych, którzy zawodowo zajmują się ochroną danych osobowych. Ogólnie rzecz biorąc, trzeba się cieszyć, że wszyscy wokół podkreślają znaczenie tego rozporządzenia. Ale warto też podkreślić, że w czasie jego opracowywania mieliśmy do czynienia z bardzo dużym zaangażowaniem różnych podmiotów zgłaszających sugestie, jak to nowe prawo ma wyglądać. Obecnie Grupa Robocza Artykułu 29. opracowuje wytyczne, które ułatwią interpretację przepisów. Do dwóch pierwszych dokumentów z tymi wskazówkami, wydanych w ubiegłym roku, wpłynęło w ciągu miesiąca około stu wniosków z uwagami w kilkunastu językach, w tym po polsku. Składały je przedsiębiorstwa lub grupy przedsiębiorców, izby handlowe, stowarzyszenia itd. Wszystkie musiały być rozpatrzone przy opracowywaniu ostatecznych wersji wytycznych.

Każdy z nas ma w telefonie zbiór danych osobowych i je przetwarza.

CRN Czy zatem w momencie utraty telefonu należy zgłosić ten fakt i oczekiwać sankcji? WOJCIECH WIEWIÓROWSKI To zależy od rodzaju danych, które są w nim przechowywane, systemów, do jakich można uzyskać z niego dostęp, oraz rodzaju zabezpieczeń (czy telefon miał szyfrowanie, blokadę ekranu itd.). Z urządzeń mobilnych – smartfonów i tabletów – coraz częściej korzystają na przykład lekarze i przechowują tam nie tylko dane identyfikacyjne pacjentów, ale też dotyczące ich zdrowia, dziś chyba najbardziej wrażliwe i szczególnie chronione. Podobna jest sytuacja adwokatów. Może się więc okazać, że zgodnie z nowym rozporządzeniem konieczne będzie zgłoszenie utraty telefonu i ocena ryzyka wycieku informacji.

CRN Czy można wskazać grupy osób lub podmiotów, które będą głównymi beneficjentami – z założenia lub nie – rozporządzenia, o którym rozmawiamy? WOJCIECH WIEWIÓROWSKI W pewnym sensie wszyscy jesteśmy beneficjentami tego rozwiązania prawnego, bo przestajemy mówić, że istnieją geograficzne granice przetwarzania danych osobowych. W ten sposób dochodzimy do sytuacji, w której system ochrony danych osobowych w Niemczech, Czechach lub na Słowacji będzie dokładnie taki sam jak u nas. Podobnie możliwość dochodzenia swoich roszczeń wobec jakiegoś podmiotu, który nieprawidłowo przetwarza dane, stanie się niezależna od tego, czy ma on siedzibę w Sewilli, czy w Sanoku. Natomiast z biznesowego punktu widzenia rozporządzenie pomoże najbardziej małym i średnim przedsiębiorcom, którzy chcą oferować usługi poza granicami kraju, w ramach rynku europejskiego. Kończymy z sytuacją, w której wszystkie obowiązki administracyjne musiały być wypełniane przez takie firmy – według różnych systemów prawnych – we wszystkich państwach członkowskich EU, w których prowadziły one działalność. CRN Można też odnieść wrażenie, że największym beneficjentem stała się branża IT. Dziś dostawcy zaawansowanych rozwiązań praktycznie nie rozmawiają o niczym innym…

8

VADEMECUM CRN listopad 2017

CRN Czy te wytyczne będą zawierały propozycje konkretnych działań, które firmy powinny podjąć, żeby zapewnić sobie zgodność z postanowieniami RODO? WOJCIECH WIEWIÓROWSKI Wielu przedsiębiorców oczekuje, że w wytycznych pojawią się wskazania, co zrobić w konkretnej sytuacji. Tak nie będzie, nie należy spodziewać się checklist, z których będzie można po prostu wykreślić, co jest już zrobione. Natomiast kilka zestawów wytycznych, które są przygotowywane przez Grupę Artykułu 29., zostało uzupełnionych o klasyczne FAQ, czyli pytania i odpowiedzi najczęściej zadawane przez obywateli oraz przez przedstawicieli organizacji publicznych, społecznych i podmiotów niekomercyjnych. CRN Czy coś stoi na przeszkodzie tworzeniu takich checklist? Kto powinien się tym zająć? WOJCIECH WIEWIÓROWSKI Przez cały czas tworzenia rozporządzenia słyszeliśmy od przedsiębiorców: nie przeregulujcie, nie próbujcie ustalić, w jaki sposób mamy coś robić u siebie w firmach, bo nie macie pojęcia, jak wyglądają nasze procesy biznesowe i narzędzia, których używamy. Zdaję sobie sprawę, że wciąż bardzo wiele podmiotów w kontekście ochrony danych według wytycznych RODO nawet nie wie, od czego zacząć. Przede wszystkim chciałbym im doradzić kontakt z działającymi w ich branży organizacjami, izbami gospodarczymi, stowarzyszeniami itp. Każda branża sama powinna wskazać dziedziny, w których mogą wystąpić problemy, oraz postarać się wypracować dobre praktyki lub wskazywać przykładowe rozwiązania. Natomiast ze strony organów ochrony danych i Komisji Europejskiej możemy się spodziewać szablonów przygotowanych dla tych najmniejszych, na przykład dla osób prowadzących indywidualnie działalność gospodarczą i potrzebujących bardzo prostych rozwiązań, które pomogą zgłosić incydent zagrożenia bezpieczeństwa danych albo przeprowadzić wstępną ocenę ryzyka.


CRN Wiele wątpliwości u specjalistów IT wzbudza kwestia ko- mach backupu online, to w przypadku niedochowania należynieczności usuwania danych osobowych z kopii backupowych, tej staranności w zabezpieczeniu danych (i ich wycieku) przez gdy obywatel chce skorzystać z prawa do bycia zapomnianym. tę ostatnią firmę, to ona będzie odpowiedzialna, a nie końcowy Czasem te kopie są wykonywane na nośnikach jednorazowego użytkownik. Powstaje swego rodzaju łańcuch odpowiedzialnozapisu i jedynym sposobem usunięcia danych jest zniszczenie ści, który trzeba szczegółowo opisać podczas definiowania ocenośnika. Czy RODO rozwiązuje jakoś tę kwestię? ny ryzyka i wpływu całego przedsięwzięcia na ochronę danych WOJCIECH WIEWIÓROWSKI Takie wątpliwości zgłaszano już osobowych. wcześniej w kwestii żądania poprawienia danych osoby, a teraz dotyczą one także prawa do usunięcia danych. Chodzi CRN Jak często będą prowadzone kontrole w podmiotach o sytuację, gdy dane były poprawiane w bazie produkcyjnej podejrzewanych o niedostosowanie się do wymogów RODO? lub usuwane z niej, ale pozostawały w niezmienionej formie WOJCIECH WIEWIÓROWSKI To zależy od rozwiązań krajowych, ale w kopii zapasowej. W przypadku wystąpienia problemu z bazą nie należy się spodziewać dużych zmian. Mam jedynie nadziei konieczności jej odtworzenia z backupu, ję, że wzmocnione zostaną organy ochrousunięte lub zmodyfikowane dane wrany danych osobowych – będzie większa cały i znów były przetwarzane – wbrew liczba inspektorów i będą lepiej przygotoprawu i woli ich właściciela. Rzecznicy wani do prowadzenia inspekcji. Gdy pełniłem funkcję GIODO, mieliśmy tylko kilku ochrony danych nie zakładali, że musi specjalistów od przeprowadzania inspeknastąpić modyfikacja także kopii backcji w skomplikowanym systemie informaupowych, bo często jest to niemożliwe tycznym i to nie był stan, który należałoby z przyczyn technicznych. Jako rozwiąuznać za wskazany. Byliśmy w stanie skonzanie problemu rekomendowali wprotrolować kilkaset systemów informatyczwadzenie procedur organizacyjnych, zgodnie z którymi w momencie wykonanych rocznie, a powinniśmy kilkadziesiąt nia backupu rozpoczyna się proces twotysięcy. Żeby wyobrazić sobie skalę problerzenia listy wprowadzonych od tej pory mu, wystarczy pomyśleć o przeprowadzezmian. Gdy dojdzie do konieczności odniu inspekcji systemów informatycznych tworzenia danych z kopii, należy odpow placówkach ochrony zdrowia. Ponieważ przetwarzają one najbardziej wrażliwiednimi metodami organizacyjnymi nanieść również zanotowane zmiany. Dowe dane, uważam, że istnieje konieczność piero po tej operacji można dopuścić bazę prowadzenia regularnej ich kontroli we WOJCIECH WIEWIÓROWSKI pełni z danymi osobowymi do ponownego użytwszystkich krajach członkowskich Unii obecnie funkcję zastępcy Europejku produkcyjnego. Europejskiej, chociażby po to, żeby wieskiego Inspektora Ochrony Danych, dzieć, jakie problemy tam występują. a w latach 2010–2014 był GeneralCRN Gdy firma korzysta z wielu rozwiąnym Inspektorem Ochrony Danych zań i usług, w przypadku problemów CRN A jak przebiega taka kontrola? Osobowych w Polsce. W 1995 r. ukończęsto pojawia się kwestia przerzucania WOJCIECH WIEWIÓROWSKI Podobnie jak czył studia na Wydziale Prawa i Adodpowiedzialności. Jakie rozwiązania kontrola legalności oprogramowania, ale ministracji Uniwersytetu Gdańskiego, przewiduje RODO, gdy dojdzie do wyrzadziej dochodzi do zajęcia mienia, do a w 2000 r. uzyskał stopień doktora cieku danych i trudno ustalić winnego? którego zresztą uprawniona jest tylko nauk prawnych. Specjalizuje się w inWOJCIECH WIEWIÓROWSKI Na szczęście policja. Nie oznacza to również, że naleformatyce prawniczej, prawie nowych większość sytuacji jest prostych, a podział ży udostępnić hasła administratorskie intechnologii i informatyzacji adminikompetencji i odpowiedzialności czytelny. spektorowi, który pojawia się w biurze, bo stracji publicznej. Oczywiście zdajemy sobie sprawę, że nie to byłoby naruszeniem przepisów dotyczązawsze tak jest, więc sporo kwestii trzeba cych ochrony danych. Natomiast z pewnobędzie rozstrzygać w momencie, gdy problem się pojawi. Rozpo- ścią trzeba umożliwić kontrolę z poziomu administratora, czyli rządzenie idzie o kilka kroków dalej niż dyrektywa, gdyż przewi- stworzyć osobne konto z uprawnieniami administratora, z któduje, że mogą być wykonawcy i podwykonawcy umowy, a w tym rego będzie korzystał inspektor przeprowadzający kontrolę. kontekście przetwarzający i „podprzetwarzający” dane osobo- Oczywiście obowiązuje go tajemnica zawodowa – to jest w nowe. W sytuacji, gdy jest wielu dostawców usług, a oprócz tego wych polskich przepisach wykonawczych lepiej opisane niż było korzysta się z chmury publicznej, kwestie odpowiedzialności po- w ustawie o ochronie danych osobowych. Dlatego przedsiębiorwinny być szczegółowo opisane, ale zakłada się, że przyjmuje ją ca nie powinien się martwić, że ujawnienie danych inspektorowi na siebie bezpośrednio wykonujący usługę, a egzekwuje ją zle- spowoduje, iż poufne informacje firmowe zostaną wykradzione. cający. Zatem gdy obsługujące użytkownika przedsiębiorstwo ROZMAWIAŁ IT przechowuje w swoim centrum danych kopie backupowe, KRZYSZTOF JAKUBIK ale dodatkowo zleca ich przechowywanie firmie trzeciej w raVADEMECUM CRN listopad 2017

9


Inwestuj w dyski SSD w najszybszej warstwie

Problemy z wydajnością pamięci masowych mogą wystąpić w różnych miejscach infrastruktury IT. Wykrycie wąskich gardeł oraz ich wyeliminowanie zawsze należały do trudnych zadań. Specjalizujący się w tej dziedzinie integratorzy mogą liczyć na duże zyski – zdobędą bezcenne dziś zaufanie klienta, u którego rozbudowa posiadanego środowiska może zastąpić konieczność wdrożenia nowego rozwiązania. KRZYSZTOF JAKUBIK

O

soby odpowiedzialne za systemy pamięci masowych w firmach regularnie spotykają się z problemem wydajności zgłaszanym przez użytkowników bądź administratorów baz danych, poczty elektronicznej czy środowisk wirtualnych. Co prawda, problem nie zawsze musi leżeć po stronie macierzy dyskowych, bo często przyczynia się do niego niewystarczająco wydajna infrastruktura sieciowa. Niemniej istnieje szereg działań, których można spróbować,

10

VADEMECUM CRN listopad 2017

aby zagwarantować większą wydajność pamięci masowych w firmie klienta. Tym bardziej, że ich administratorzy, a więc pośrednio także integratorzy, często muszą iść na kompromis. Zwykle oczekuje się od nich systematycznego wzrostu pojemności środowiska storage, który nie spowoduje utraty wydajności. Niestety, z reguły nie jest to takie proste. Do tego dochodzą kwestie budżetowe – gwarancja wydajności zwykle wiąże się z koniecznością zakupu szybszych dysków i kontrole-

rów. Różnica w ich cenie (w procentowym ujęciu) z reguły jest większa, niż wzrost uzyskanej wydajności.

PRĘDKOŚĆ OBROTOWA NIE ZAWSZE MA ZNACZENIE

Zanim na rynek trafiły dyski SSD, producenci spędzili wiele czasu nad stworzeniem napędów mechanicznych o odpowiednio wysokiej wydajności. Kontrolery dysków oraz wbudowane w nie interfejsy raczej

Fot. © andranik123 – Fotolia.com

WYDAJNOŚĆ SYSTEMÓW PRZECHOWYWANIA DANYCH


nie stanowiły wąskiego gardła, a był nim mechanizm, na który składają się talerze oraz głowice odczytujące dane. Na szybkość odczytu ma wpływ przede wszystkim prędkość obrotowa talerza (RPM), a także jego wielkość. Im większa średnica, tym dłuższe ruchy musi wykonywać głowica, co też wpływa na wydajność dysku. Dlatego w najszybszych napędach stosowane są tylko 2,5-calowe talerze. Pierwsze dyski (60 lat temu!) kręciły się w prędkością 1,2 tys. obrotów na minutę. Obecnie w komputerach stosuje się napędy 5,4 tys. obr./min lub o 33 proc. szybsze (7,2 tys. obr./min). Natomiast w serwerach i macierzach dyskowych wykorzystywane są głównie dyski SAS lub Fibre Channel o prędkości 10 i 15 tys. obr./min (ich producenci twierdzą, że osiągnęli fizyczną granicę prędkości). Tam, gdzie nie jest potrzebna duża wydajność, stosowane są też napędy z interfejsem SAS, ale o prędkości 7,2 tys. obr./min (tzw. near line SAS, NL-SAS). Trochę zamieszania w dziedzinie wydajności wprowadziły dyski hybrydowe, w których jako pamięć cache wysokiej pojemności stosowane są kości flash. Wszyscy producenci napędów (Seagate, Toshiba, WD) oferują modele o prędkości 5,4 tys. obr./min. Natomiast ich przedstawiciele podkreślają, że dzięki pamięci cache efektywna, możliwa do zaobserwowania wydajność może być nawet lepsza niż w zwykłych dyskach 7,2 tys. obr./min. Warto jednak zaznaczyć, że efekt przyspieszenia można uzyskać tylko w sytuacji, gdy na dyskach przechowywany jest system operacyjny i aplikacje, bowiem z reguły same dane nie są odczytywane tak często, aby trafić do pamięci cache hybrydowego napędu. Trzeba też pamiętać, że dyski hybrydowe są przeznaczone do użytku konsumenckiego, więc ich trwałość nie jest wystarczająca do tego, by stosować je w serwerach (np. do obsługi środowiska wirtualnych desktopów, gdzie często odczytywane są te same pliki systemowe, które znajdują się wewnątrz wirtualnych maszyn).

SSD NIE ZAWSZE SZYBKO SIĘ ZWRÓCI

Mogłoby się wydawać, że naturalną odpowiedzią na wyzwania związane z wydajnością systemów pamięci masowych

Pięć działań, które pomogą wyeliminować wąskie gardła z pamięci masowych 1. ZWRÓĆ UWAGĘ NA WYDAJNOŚĆ ZWIĄZANĄ Z LICZBĄ OPERACJI WEJŚCIA-WYJŚCIA NA SEKUNDĘ (IOPS), bowiem to najczęściej spotykane wąskie gardło w pamięciach masowych. Najbardziej podatne na ten problem są bazy danych, poczta elektroniczna, środowiska wirtualne i backupowe, w których trzeba wykonać kopię danych w określonym czasie (okno backupowe). Najskuteczniejszym rozwiązaniem problemu z często obserwowanym powolnym, ale systematycznym wzrostem ilości przetwarzanych danych jest wdrożenie warstw w systemie pamięci masowej oraz skorzystanie z oprogramowania do automatycznego przenoszenia danych między warstwami, w zależności od częstotliwości ich odczytu. Czasem jednak warto rozważyć wdrożenie nowej macierzy, w której wszystko będzie większe i szybsze – kontrolery, pamięć cache, interfejsy, dyski itd. 2. ZADBAJ O SKRÓCENIE CZASU REAKCJI – to pomoże w środowiskach, w których następuje losowy dostęp do danych w trybie ciągłym (bazy danych, maszyny wirtualne). Najłatwiej jest je uzyskać przez wymianę kontrolera macierzowego na szybszy (niestety, większość urządzeń na to nie pozwala) lub instalację dysków SSD, w których opóźnienie w dostępie do danych jest ok. 300 razy krótsze niż w zwykłych mechanicznych dyskach. Jednak instalacja dysków SSD w macierzy z wolnym kontrolerem nie ma sensu, więc także w tym przypadku często konieczne może się okazać kupno nowego rozwiązania. 3. ZAPEWNIJ ODPOWIEDNIĄ PRZEPUSTOWOŚĆ SIECI, bowiem nawet najlepszej wydajności serwery NAS lub macierze SAN mogą dostarczać dane zbyt wolno, jeśli wąskie gardło będzie stanowiła sieć. W infrastrukturze niskiej jakości mogą być gubione ramki i pakiety z danymi, co prowadzi do konieczności powtórzenia transmisji. Warto również skorzystać z zapewnionej przez wiele macierzy funkcji agregacji portów sieciowych. 4. SPRAWDŹ, CZY PRZYPADKIEM NIEWYSTARCZAJĄCA WYDAJNOŚĆ SERWERÓW NIE WPŁYWA NA SZYBKOŚĆ PRACY PAMIĘCI MASOWYCH. Może tak się zdarzyć, gdy na serwerach często wykonywane są długotrwałe prace porządkowe, jak partycjonowanie i przeindeksowywanie baz danych. Wówczas macierze znajdują się pod stałym obciążeniem, co skutkuje ich mniejszą efektywną wydajnością. 5. OBSERWUJ WSZYSTKIE PARAMETRY ŚRODOWISKA PAMIĘCI MASOWYCH. Większość problemów z wydajnością można przewidzieć dzięki wczesnemu wykryciu i przeciwdziałaniu im w zalążku. Szczególną uwagę trzeba zwracać na to, czy ze wzrostem ilości danych wskazana jest inwestycja zapewniająca wzrost wydajności macierzy. Nie jest to konieczne np. w przypadku rozwiązań archiwizacyjnych, ale może skutkować dłuższym czasem wyszukania informacji w większym archiwum. Wiele problemów sprawiają też sieci, dlatego trzeba być w stałym kontakcie z ich administratorem.

są nośniki wykorzystujące kości pamięci flash. Mimo że zaczęto je stosować w infrastrukturze serwerowej już 20 lat temu, to dopiero od około pięciu lat widać prawdziwy wzrost ich popularności. Jednak, aby dzięki pamięciom flash skutecznie zwiększyć wydajność systemu pamięci masowych, potrzeba wiele wysiłku, testów i… pieniędzy. Producenci rozwiązań bazujących na nośnikach flash

przedstawiają wiele wyliczeń, w których udowadniają, że mimo wysokiej ceny ich zastosowanie zwraca się w dłuższym okresie. Dzięki większej wydajności pojedynczego napędu, do wydajnej pracy aplikacji potrzeba mniej dysków SSD niż mechanicznych, a więc mniej miejsca w serwerowni i energii poświęcanej zarówno na zasilanie, jak też klimatyzowanie całego systemu. VADEMECUM CRN listopad 2017

11


WYDAJNOŚĆ SYSTEMÓW PRZECHOWYWANIA DANYCH Teoretycznie dostawcy mają więc rację, chociaż dysproporcja w cenach rozwiązań, w których stosowane są dyski HDD i SSD, nadal jest olbrzymia. Między innymi dlatego producenci nie ustają w wysiłkach, by wprowadzić na rynek kości pamięci flash produkowane w nowych technologiach – obecnie w jednej komórce mogą być przechowywane trzy bity, a już mówi się o możliwości zmieszczenia tam czterech. Ale większa pojemność, która ma zapewnić niższą cenę, negatywnie wpływa na… wydajność, z powodu której w ogóle klienci są zainteresowani pamięciami flash. Dlatego na pełną dojrzałość tego modelu przechowywania danych trzeba jeszcze poczekać. Obecnie w systemach pamięci masowych stosowanych jest wiele półśrodków, aby zapewnić właściwy balans między pojemnością, wydajnością i ceną. Popularność zdobywają różne mechanizmy gwarantujące redukcję ilości przechowywanych danych, głównie deduplikacja i kompresja. Ma to sens o tyle, że z racji zapewnianego przez pamięć flash szybkiego losowego dostępu do danych, najczęściej przechowywane są w niej bazy danych i maszyny wirtualne. Te pierwsze świetnie poddają się kompresji, zaś drugie – deduplikacji. Łyżką dziegciu w beczce miodu w tym przypadku jest jednak fakt, że wszystkie mechanizmy redukcyjne także wpływają negatywnie na wydajność, więc konieczne jest zapewnienie odpowiednio szybkich kontrolerów macierzowych. Z tego powodu część producentów tradycyjnych macierzy dyskowych, w których można zainstalować dyski HDD i SSD, zaprezentowała modele z szybszymi kontrolerami i wyłącznie nośnikami SSD (all-flash).

Jerzy Adamiak konsultant ds. systemów pamięci masowych, Alstor

Znaczny wzrost wydajności środowiska pamięci masowych mogą zapewnić wirtualizacyjne rozwiązania programowe. Ułatwiają one połączenie w jeden system wielu różnych rodzajów nośników – kart pamięci w serwerach, macierzy all-flash i tradycyjnych. Dzięki prowadzonej analizie częstotliwości wykorzystania danych automatycznie decydują o przechowywaniu bloków danych na nośniku o odpowiedniej wydajności. Zapewniają także znacznie niższy koszt użytkowania całego środowiska storage

PRZECENIANY IOPS, NIEDOCENIANY CZAS REAKCJI

Z oczywistych powodów w przypadku pamięci flash nie mówimy już o prędkości obrotowej. Ale nadal pozostały dwa ważne parametry, które wpływają na wydajność całego systemu przechowywania danych. Niestety, każdy dostarcza tylko częściowych informacji, a na dodatek uzyskanymi wynikami można łatwo manipulować, z czego dość skrzętnie korzystają działy marketingu niektórych producentów. Głównym parametrem, którym można opisać wydajność każdego urządzenia pamięci masowych, jest liczba wykonanych operacji wejścia-wyjścia na sekundę (Input-Output Per Second). Aby pomiar liczby IOPS był porównywalny, musi być dokonany dla ustalonej wielkości bloku danych. I tu pojawia się pierwszy problem, utrudniający wybór właściwego urządzenia do potrzeb klienta. Wśród dostawców macierzy all-flash przyjęło się, że podawana jest maksymalna liczba IOPS obliczona tylko w przypadku odczytu danych (bez zapisu, który trwa znacznie dłużej niż odczyt) przechowywanych w blokach o wielkości 4 kB i bez wykorzystania pamięci cache. Tymczasem w najczęściej spotyka-

nych scenariuszach użycia następuje około 70 proc. operacji odczytu i 30 proc. zapisu, a poza tym blok danych o wielkości 4 kB prawie nigdy nie jest stosowany – najczęściej wykorzystuje się bloki 8 kB dla baz danych i 32 kB dla wirtualizacji. Poza tym zdecydowanie ważniejszym a często pomijanym parametrem jest tzw. czas reakcji (response time), który opisuje czas zmierzony od wysłania żądania informacji przez aplikację do momentu jej otrzymania. Pomiar tego czasu też nastręcza trudności, bowiem parametr ten proporcjonalnie zależy od liczby IOPS – im więcej operacji wejścia-wyjścia (większe obciążenie macierzy), tym dłuższy czas odpowiedzi. Ale mimo wszystko zapewnia on lepsze wyobrażenie o ogólnej wydajności danego urządzenia, bo opisuje nie tylko właściwości nośnika, ale też kontrolera macierzowego. Kolejnym parametrem, podawanym czasami przez producentów, jest transfer mierzony w czasie (GB/s). To też jest trik marketingowy, bowiem przy macierzach all-flash nie ma on żadnego znaczenia. Dostawcy podają wysokie wartości tego parametru, które można uzyskać tylko wykorzystując macierze all-flash do

Zastosowanie różnych nośników w warstwowych systemach pamięci masowych Warstwa 0

Warstwa 1

Warstwa 2

Warstwa 3

dyski SSD

szybkie dyski twarde (10/15 tys. RPM) z interfejsem FC lub SAS

dyski twarde SAS o dużej pojemności

dyski SATA i taśmy

Charakterystyka

bardzo duża wydajność IOPS, krótki czas reakcji, umiarkowana pojemność, kompaktowe rozmiary, mały pobór prądu, wysoka cena

średnia wydajność IOPS, umiarkowany czas reakcji, dobry stosunek ceny do wydajności

niska wydajność, duża pojemność za niską cenę przy szybkim dostępie losowym do danych

duża pojemność i bardzo niski koszt

Zastosowanie

bazy danych, indeksy wyszukiwania, wirtualne maszyny, aplikacje online

bazy danych, wirtualne maszyny, aplikacje online, serwery WWW, serwery NAS

pliki multimedialne (filmy, zdjęcia, audio), kopie zapasowe D2D

kopie zapasowe przeznaczone do długotrwałego przechowywania, cyfrowe archiwa

Rodzaj nośnika

12

VADEMECUM CRN listopad 2017


backupu lub streamingu wideo, do czego z ekonomicznego punktu widzenia w ogóle się nie nadają. Warto zwrócić także uwagę na interfejsy przyłączeniowe. W macierzach all-flash najczęściej stosowany jest interfejs Fibre Channel. Praktycznie wszystkie modele wyposażone są też w interfejs iSCSI, ale uważany jest on za zbyt wolny i niepraktyczny, ponieważ wydłuża czas odpowiedzi. W kilku modelach można też spotkać interfejs FCoE – jest on wystarczający do wielu zastosowań, ale nie tak szybki jak FC ( jedno łącze FC 16 Gb/s zapewnia krótszy czas odpowiedzi niż dwa zagregowane łącza FCoE 10 Gb/s). W niektórych macierzach zastosowano także łącze Infiniband, z którego korzysta się przede wszystkim w środowiskach wysokowydajnego przetwarzania (HPC).

Sposoby wykorzystania pamięci flash w systemach IT KARTA PCIE Z PAMIĘCIĄ FLASH INSTALOWANA W SERWERZE APLIKACYJNYM Za: najlepsza wydajność (pamięć niewspółużytkowana, bezpośrednie podłączenie do magistrali), brak zajmowanej przestrzeni w serwerowni, umożliwia zredukowanie ilości pamięci RAM w serwerze.

Przeciw: mała pojemność (setki gigabajtów), tworzy odizolowane „wyspy” pamięci flash w każdym serwerze, wysoka cena, trudna w zarządzaniu oraz zabezpieczaniu zgromadzonych danych.

PAMIĘĆ FLASH (NA KARCIE PCIE LUB W DYSKACH SSD) JAKO CACHE W KLASYCZNEJ MACIERZY DYSKOWEJ Za: znaczne skrócenie czasu odpowiedzi, większa trwałość mechanicznych dysków (dzięki zmniejszeniu liczby cykli zapisu i odczytu).

Przeciw: z reguły jest to cache tylko do odczytu, brak wzrostu wydajności podczas przesyłania losowych danych, efekty widoczne dopiero po kilku tygodniach pracy produkcyjnej

WARSTWA DYSKÓW SSD W KLASYCZNEJ MACIERZY DYSKOWEJ

ZAPOTRZEBOWANIE NA WARSTWY W PAMIĘCIACH MASOWYCH

Według statystyk największą ilość miejsca w systemie storage zajmują tzw. dane nieaktywne (cold data), które albo nigdy nie zostaną odczytane, albo będzie to następowało wyjątkowo rzadko. Stąd pomysł na podzielenie systemów pamięci masowych na warstwy, w których na szybszych (lecz droższych) nośnikach przechowywane są najczęściej odczytywane dane, zaś na tych wolniejszych informacje archiwalne oraz inne, do których dostęp potrzebny jest rzadko. Dzięki takiemu rozwiązaniu administratorzy nie muszą już tworzyć statystyk wykorzystania poszczególnych danych i ich migracji. W praktyce jednak mechanizm ten nie działa w tak prosty sposób. Mimo że proces migracji danych pomiędzy warstwami jest zautomatyzowany, nadal konieczne jest sprawowanie nad nim kontroli, aby

Za: umożliwia przechowywanie na dyskach SSD często odczytywanych danych, a na dyskach HDD wszystkich pozostałych, kosztuje mniej niż macierz all-flash.

Przeciw: by uzyskać znaczny wzrost wydajności, w macierzy powinien być wdrożony mechanizm automatycznego przenoszenia danych między warstwami (tiering).

MACIERZ ALL-FLASH (Z DYSKAMI SSD LUB SPECJALNYMI MODUŁAMI Z PAMIĘCIĄ FLASH) Za: najbardziej wydajne rozwiązanie pamięci masowych, bardzo mały pobór prądu, bardzo szybka odbudowa struktury RAID po awarii.

nie „wylać dziecka z kąpielą”. Wykonywana przez kontroler ciągła analiza częstotliwości odczytu małych bloków danych jest nieekonomiczna – wymagałaby zbyt wiele pamięci i wiązałaby się z nadmiernym obciążeniem procesorów w kontrolerze. Dlatego bloki analizowanych danych są dość duże (od 1 do 500 MB), a ich migracja następuje powoli, gdy macierz nie jest obciążona bieżącą pracą produkcyjną. Efekty

Magdalena O’Dwyer Product Manager, Synology

Oferowane obecnie na rynku serwery NAS zapewniają wydajność, która jest w stanie zaspokoić potrzeby naprawdę dużych przedsiębiorstw. Dzięki możliwości zainstalowania dysków SSD nie ma problemu z przechowywaniem na nich kilkudziesięciu lub nawet kilkuset aktywnych wirtualnych maszyn, których kopię można wykonywać na podłączony przez sieć drugi serwer NAS.

Przeciw: wysoki koszt zakupu, ograniczona liczba scenariuszy użycia, w których zastosowanie macierzy all-flash ma sens.

związane ze wzrostem wydajności widać więc dopiero po długim czasie i nie da się tu zaobserwować efektu „wow”, który występuje często przy macierzach all-flash. Wszystkie przedstawione okoliczności nie powinny jednak zniechęcać do sprzedaży pamięci masowych. Integratorzy, którzy wyspecjalizują się w tej dziedzinie, mogą liczyć na duże zyski nie tylko z wdrożeń, ale także usług związanych utrzymaniem, dostarczaniem dodatkowych nośników, zapewnianiem replikacji, obsługą transportu kopii backupowych itd. Warto też przekonywać przyszłych użytkowników do prowadzenia testów w ramach projektu proof of concept. Większość producentów jest świadomych, że dobór macierzy zapewniającej wydajność odpowiednią dla danego klienta stanowi duże wyzwanie, więc bez problemu udostępnia modele testowe z przeznaczonej do tego celu puli. VADEMECUM CRN listopad 2017

13


WYDAJNOŚĆ SYSTEMÓW PRZECHOWYWANIA DANYCH

Infortrend – pamięci masowe dla małych i dużych serwerowni Macierze dyskowe Infortrend są na polskim rynku od wielu lat. Mają wierne grono użytkowników, którzy cenią je przede wszystkim za jakość wykonania, niezawodność pracy oraz atrakcyjną cenę.

Z

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ INFORTREND.

ałożona w 1993 r. firma Infortrend Technology jest dostawcą wysokiej jakości sieciowych pamięci masowych, skoncentrowanym na ich jakości, niezawodności oraz korzystnej cenie. Firma zajmuje się wyłącznie tą grupą produktów, a jej bogata oferta ma solidne technologiczne podstawy, zagwarantowane przez wewnętrzny zespół badań i rozwoju. Specjaliści producenta nieustannie pracują nad wszystkimi aspektami związanymi z pamięciami masowymi – sprzętem, firmware’em, oprogramowaniem oraz integracją systemów. Co więcej, aby zapewnić doskonałość produktów, systemy Infortrend są projektowane i produkowane we własnych fabrykach na Tajwanie. Dzięki zgodności z różnymi protokołami przesyłania danych rozwiązania Infortrend mogą być stosowane w sieciach

pomocą w instalacji i konfiguracji urządzeń oraz zapewniają ich diagnostykę. Działania te są koordynowane przez centralę producenta, w której dział wsparcia współpracuje z ekspertami technicznymi w celu szybkiego rozwiązania problemu. Storage Area Network (SAN), wykorzystywane jako serwery Network Attached Storage (NAS) oraz podłączane bezpośrednio do komputerów (Direct Attached Storage, DAS). Dodatkowo, aby spełnić wymagania najczęściej wykorzystywanych w firmie aplikacji, macierze zostały przetestowane pod kątem zgodności z systemami operacyjnymi Windows Server i oprogramowaniem wirtualizacyjnym Microsoft Hyper-V. Infortrend zapewnia klientom profesjonalną sieć wsparcia, która świadczy usługi na całym świecie 24 godziny na dobę. Jej eksperci służą użytkownikom

Macierz w muzeum Warszawskie Muzeum Historii Żydów Polskich POLIN poszukiwało niezawodnej macierzy, dzięki której mogłoby przechowywać dane z cyfrowego archiwum i środowiska wirtualizacyjnego oraz wykonywać ich kopie bezpieczeństwa. Poprzednio wykorzystywane rozwiązanie nie było już wystarczające pod względem wydajności i pojemności, powstała więc potrzeba wdrożenia nowego, gotowego do rozbudowy w przyszłości. Muzeum, po przejrzeniu ofert większości dostawców pamięci masowych, zdecydowało się na system firmy Infortrend. – Naszym zadaniem było znalezienie niedrogiego rozwiązania, które może być wdrożone w istniejącej infrastrukturze i łatwo dopasowane do rosnących potrzeb muzeum – mówi Tomasz Sperczak, dyrektor działu IT w Muzeum Historii Żydów Polskich. – Doskonałym wyborem dla naszej placówki okazała się macierz Infortrend EonStor DS 3060, która zapewnia bardzo dobrą wydajność, możliwość rozbudowy i niski koszt użytkowania. Macierz EonStor DS 3060 pozwala na wykorzystanie przestrzeni nawet 360 dysków podłączonych do kontrolera za pomocą półek dyskowych. Rozwiązanie to może służyć także do wykonywania backupu zgromadzonych danych oraz wirtualnych maszyn Hyper-V.

14

VADEMECUM CRN listopad 2017

OFERTA DLA KAŻDEGO Infortrend ma w portfolio wiele modeli pamięci masowych, w których zastosowano najnowsze rozwiązania zapewniające uzyskanie wysokiej wydajności, niezawodność i łatwość użycia. Główne rodziny produktów to macierze klasy unified storage (EonStor GS, EonStor GSe, EonStor GSe Pro), serwery pamięci masowych (EonServ) oraz serwery NAS (EonStor DS). Najpopularniejszą macierzą dyskową w ofercie producenta jest urządzenie EonStor DS 1016R, o wysokości 3U, wyposażone w 16 kieszeni na dyski oraz dwa redundantne kontrolery wysokiej dostępności. Natomiast jednym z najnowszych modeli jest EonStor GS 3060R, przeznaczony dla firm dysponujących serwerowniami o ograniczonej powierzchni, w których następuje bardzo szybkie wzrost ilości przetwarzanych danych. W urządzeniu o wysokości 4U można zainstalować do 60 dysków z interfejsem SAS 12 Gb/s. Autoryzowanymi dystrybutorami macierzy Infortrend w Polsce są firmy Alstor i Veracomp.

Dodatkowe informacje: LUCIE KLAUDOVA, SALES ACCOUNT MANAGER, INFORTREND, LUCIE.KLAUDOVA@INFORTREND.COM


Macierze Fujitsu

– gwarancja wydajności i skalowalności Systemy macierzowe Fujitsu ETERNUS gwarantują nie tylko bardzo wysoką wydajność przetwarzania danych. Są też wyposażone w wiele funkcji zapewniających nieprzerwaną pracę, a więc ciągły dostęp do danych.

Wojciech Wróbel Presales Manager Fujitsu

W firmach, w których następuje ciągły wzrost ilości danych, ważne jest zagwarantowanie skalowalności i możliwości rozbudowy w kontrolowany – także finansowo – sposób. Często na sprawność działania aplikacji ma wpływ spadek wydajności systemu dyskowego, dlatego konieczne jest również zapewnienie mechanizmu QoS, który zsynchronizuje zarządzanie danymi i udostępnianie ich serwerom ze zdefiniowanymi wcześniej priorytetami biznesowymi.

podczas gdy zwykle współczynnik ten wynosi 60 proc. Na wydajność urządzeń pozytywnie wpływa także funkcja automatycznego zarządzania jakością dostarczanych usług (Automated Quality of Service). Dzięki niej administrator może wskazać aplikację, która powinna mieć dostarczane dane bez jakichkolwiek opóźnień – o wprowadzenie odpowiednich zmian konfiguracyjnych i optymalizacyjnych zadba wbudowane w macierz oprogramowanie. Wszystkie dane zgromadzone w systemach dyskowych Fujitsu mogą być też poddane deduplikacji i kompresji. Spójna koncepcja macierzy ETERNUS zapewnia ten sam system zarządzania dla wszystkich urządzeń z rodziny, także tych starszej generacji, co gwarantuje kompatybilność danych na nośnikach oraz eliminuje konieczność prowadzenia szkoleń dla administratorów. Natomiast możliwość połączenia dwóch systemów w klaster zapewnia ciągłość działania wszystkich usług dzięki automatycznemu przełączaniu z jednej macierzy na drugą w przypadku awarii (funkcja Transparent Failover).

JESZCZE WYDAJNIEJ Z SSD Wszystkie hybrydowe macierze Fujitsu mogą być w 100 proc. wypełnione dyskami SSD i w ten sposób zagwarantować jeszcze większą wydajność systemu pamięci masowych. Jednak ze względu na błyskawiczny wzrost zainteresowania klientów macierzami all-flash producent przygotował ofertę także w tym zakresie. Urządzenia z rodziny ETERNUS AF (modele AF250 i AF650) zachowały większość funkcji macierzy dyskowych

Macierze dyskowe Fujitsu ETERNUS DX i AF uzyskały rekordowe wyniki w testach SPC-1 – zarówno w zakresie efektywności kosztowej (cena jednostki IOPS), jak i czasu dostępu do danych (znacznie poniżej 1 ms). Wszystkie raporty z testów można pobrać ze strony SPC.

ETERNUS DX, w tym najbardziej doceniane przez klientów automatyczne przełączanie sklastrowanych systemów podczas awarii jednego z nich oraz mechanizm gwarantujący wysoką wydajność przetwarzanych danych. Niemal wszystkie zaawansowane funkcje dostępne są w dołączonym do macierzy oprogramowaniu, więc nie trzeba ponosić dodatkowych kosztów licencyjnych ani opłat za przestrzeń dyskową, którą ono zarządza. Wszystkie macierze z rodzin DX i AF są ze sobą w pełni kompatybilne i mogą być zarządzane za pomocą tego samego oprogramowania. Bez problemu można też prowadzić replikację danych między obydwoma rodzajami urządzeń. Dystrybutorami rozwiązań Fujitsu w Polsce są firmy: AB, ABC Data, Action, Ingram Micro i Veracomp.

Dodatkowe informacje: WOJCIECH WRÓBEL, PRESALES MANAGER FUJITSU, WOJCIECH.WROBEL@TS.FUJITSU.COM VADEMECUM CRN listopad 2017

15

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ FUJITSU.

W

ydajność ma ogromne znaczenie, gdy macierze, na których przechowuje się dane, są mocno obciążone. Dlatego trzeba zapewnić odpowiedni zapas mocy obliczeniowej, który zagwarantuje, że serwery nie będą „walczyły” o dostęp do zasobów urządzenia. Kontrolery macierzy Fujitsu z rodziny ETERNUS DX (system hybrydowy) oraz AF (all-flash) zostały zaprojektowane w taki sposób, aby zapewnić wydajność o 20–30 proc. większą niż w porównywalnych konkurencyjnych rozwiązaniach. Potwierdzają to niezależne badania Storage Performance Council. Dzięki temu ich użytkownicy mogą bezpiecznie zapełnić nawet 90 proc. przestrzeni dyskowej bez obaw o spadek wydajności macierzy,


WYDAJNOŚĆ SYSTEMÓW PRZECHOWYWANIA DANYCH

Wysoka dostępność i ciągłość biznesowa

w macierzach all-flash Huawei Nową rodzinę macierzy all-flash Huawei OceanStor Dorado V3 wyróżniają dwie cechy – wyjątkowa wydajność oraz solidność wykonania. Urządzenia są przygotowane do przechowywania przede wszystkim baz danych oraz maszyn wirtualnych.

W

2017 r. do oferty Huawei trafiły dwa modele macierzy all-flash z nowej rodziny OceanStor Dorado V3. Ich maksymalna wydajność sięga 4 mln operacji wejścia-wyjścia na sekundę (IOPS) przy stabilnym czasie odpowiedzi (latency) na poziomie 0,5 ms. Wbudowana w te urządzenia funkcja HyperMetro umożliwia tworzenie klastrów active-active gwarantujących 99,9999 proc. dostępności macierzy. Z kolei mechanizmy deduplikacji i kompresji zapewniają redukcję objętości przechowywanych danych w proporcji 3:1, co wpływa na obniżenie kosztu użytkowania całego rozwiązania o 50 proc. W modelach OceanStor Dorado5000 V3 oraz OceanStor Dorado6000 V3 można obecnie zainstalować odpowiednio 100 lub 200 dysków SSD z interfejsem SAS 12 Gb/s. Macierz Dorado5000 V3 jest też dostępna w wersji z dyskami NVMe, w której można stosować maksymalnie 25 dysków NVMe. Urządzenia różnią się wydajnością (Dorado6000 V3 ma dwa procesory w kontrolerze a także dwukrotnie więcej pamięci cache). W obu macierzach zainstalowane są na wstępie co najmniej dwa kontrolery, a producent deklaruje, że niebawem będzie można rozszerzyć ich liczbę aż do 16, co zapewni liniowe skalowanie wydajności. Dzięki temu możliwe stanie się też ośmiokrotne zwiększenie pojemności (do odpowiednio 200 dysków NVMe i 800 dysków SSD w macierzy Dorado5000 V3 oraz 2400 dysków SSD w modelu Dorado6000 V3).

16

VADEMECUM CRN listopad 2017

ELASTYCZNOŚĆ ZAPEWNIA CIĄGŁOŚĆ BIZNESOWĄ

W wielu firmach prędkość i skala rozwoju biznesu są trudne do przewidzenia, co przekłada się na wyzwania związane z przechowywaniem danych. Dlatego warto zainwestować w skalowalny – zarówno pod względem wydajności, jak i pojemności – system pamięci masowych. Macierze all-flash OceanStor Dorado V3 zapewniają dużą elastyczność w budowaniu środowiska wysokiej dostępności. Gdy konieczne jest korzystanie z drugiego urządzenia, na które wykonywana jest kopia danych, z reguły pracuje ono w trybie pasywnym i rozpoczyna działanie tylko wtedy, gdy podstawowa macierz ulegnie awarii. Aby ochronić klientów przez nadmiernymi wydatkami, Huawei zapewnił kompatybilność macierzy all-flash i hybrydowych rozwiązań dyskowych z rodziny OceanStor V3. Dzięki temu replikacja może odbywać się między urządzeniami obu grup, co gwarantuje dużą oszczędność i tylko niewielki spadek wydajności w momencie awarii macierzy all-flash.

Niemałym wyzwaniem dla administratorów jest też rozbudowa już funkcjonującego środowiska pamięci masowych np. o macierze all-flash. Dlatego urządzenie OceanStor Dorado V3 wyposażono w moduł wirtualizacyjny, dzięki któremu możliwa jest migracja danych z ponad 300 modeli macierzy dyskowych różnych producentów bez przerywania ich pracy. Zadbano też o bezpieczeństwo – wykonywanie kopii migawkowych (snapshot) nie wpływa na wydajność całego rozwiązania w trakcie tego procesu.

ZAPROJEKTOWANE OD PODSTAW Większość oferowanych na rynku macierzy all-flash powstało na bazie klasycznych, dyskowych rozwiązań pamięci masowych. Z tego powodu nie są w stanie w pełni wykorzystać potencjału dysków SSD. W macierzy Huawei OceanStor Dorado5000 V3 zastosowano architekturę bazującą na dwukrotnie wydajniejszym niż SAS protokole NVMe, w której nie ma wymogu stosowania konwersji

Parametry wydajnościowe macierzy OceanStor Dorado V3 Opóźnienie (μs) 135

Wydajność (IOPS)

Transfer danych (MB/s) 1000

200 tys.

700

40 20 tys. Odczyt

Zapis

Odczyt

Zapis

Odczyt

Zapis


struktury sieci SAN, jedynie zmienić tryb działania karty i zainstalować odpowiednie moduły optyczne: Ethernet 10 Gb/s lub Fibre Channel 8/16 Gb/s. Dzięki temu zabiegowi zredukowano o jedną trzecią ilość potrzebnego okablowania, a liczbę kontrolerów sieciowych – o 75 proc.

Z DBAŁOŚCI O TRWAŁOŚĆ DANYCH W przypadku wprowadzonych na rynek pierwszych modeli dysków SSD występował problemem trwałości – zużywały się zbyt szybko podczas zapisu danych. I chociaż jakość stosowanych kości pamięci jest dziś nieporównywalnie wyższa, problem w całości nie zniknął. Huawei opatentował mechanizm, dzięki któremu komórki pamięci flash podczas działania macierzy zużywają się znacznie wolniej. Dłuższy czas życia nośnika zapewniono w taki sposób, że metadane (czyli najczęściej modyfikowane informacje) przechowywane są oddzielnie od zwykłych danych, które zmieniane są bardzo rzadko. W rezultacie komórki pamięci z danymi mają zagwarantowany dłuższy żywot. Natomiast dla metadanych przewidziano duży zapas przestrzeni pamięci flash, który może być wykorzystany w przypadku zużycia się często wykorzystywanych komórek. Taki model zapisu danych wpływa również pozytywnie na wydajność macierzy.

GWARANTOWANA OSZCZĘDNOŚĆ PRZESTRZENI

Deduplikacja i kompresja prowadzone w czasie rzeczywistym umożliwiają odzyskanie przestrzeni dyskowej zajmowanej przez powtarzające się dane. W efekcie dają oszczędności na TCO sięgające nawet 50 proc. Znacznie mniej bowiem trzeba wydać na sprzęt do prze-

Dodatkowe informacje: MIROSŁAW CHMIEL, IT PRODUCT MANAGER, HUAWEI, MIREK.CHMIEL@HUAWEI.COM VADEMECUM CRN listopad 2017

17

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ HUAWEI.

SCSI-SAS, skrócona jest ścieżka transmisji danych i znacznie zmniejszone opóźnienie ich odczytu. Inżynierowie Huawei zdecydowali się też na zaprojektowanie i stworzenie własnych dysków SSD (są wykorzystywane w obu modelach macierzy OceanStor Dorado V3 i hybrydowych macierzach dyskowych OceanStor V3), w których zastosowano algorytm Flash Translation Layer, umożliwiający przyspieszenie odczytu i zapisu danych, a także skrócenie opóźnienia – nawet do 40 μs (wtedy wynosi ono 20 proc. mniej niż średnia w branży). Gdy w macierzy dyskowej stosowane są nośniki wysokiej pojemności, proces odbudowy struktury RAID po wymianie jednego z nich trwa dość długo, a związane z tym obciążenie pozostałych dysków może doprowadzić do awarii kolejnego. Dlatego już wiele lat temu powstał standard RAID-6 umożliwiający utrzymanie dostępu do danych nawet w przypadku jednoczesnej awarii dwóch napędów. Zdarzały się jednak przypadki, gdy w trakcie procesu odbudowy awarii ulegał trzeci dysk. Dlatego w macierzach OceanStor Dorado V3 producent zaimplementował własne rozwiązanie RAID-TP (Triple Parity), dzięki któremu gwarantowane jest bezpieczeństwo danych przy awarii trzech dysków. Dodatkowo skrócony został czas rekonstrukcji struktury RAID, w efekcie dla 1 TB danych wynosi on 30 minut. W macierzach OceanStor Dorado V3 wykorzystywane są specjalne karty sieciowe SmartIO bazujące na opracowanej przez Huawei implementacji najbardziej popularnych protokołów komunikacyjnych. Cechą charakterystyczną tych kart jest możliwość elastycznego przełączania trybów pracy. Dlatego, w sytuacji gdy firma potrzebuje zmiany protokołów komunikacyjnych, nie trzeba wymieniać całej infra-

chowywania danych, mniej płaci się za prąd i utrzymanie systemu. Huawei gwarantuje klientom, że w macierzach OceanStor Dorado V3 współczynnik redukcji danych wyniesie przynajmniej 3:1. Podkreśla jednocześnie, że są to bardzo bezpieczne szacunki, ponieważ w przypadku baz danych lub maszyn wirtualnych będzie on znacznie większy. A to powoduje, że w efekcie na dyskach SSD można przechować gigabajt danych za podobne pieniądze jak na zwykłych napędach niepoddanych deduplikacji i kompresji, zapewniając jednocześnie dużo większą wydajność. Jeśli klient (lub firma świadcząca usługi IT klientom), stosując nowe macierze Huawei, nie uzyska obiecanego współczynnika redukcji danych (przynajmniej 3:1), producent w ramach programu Huawei OceanStor Dorado V3 Effective Capacity Guarantee zapewnia za darmo dyski flash o brakującej pojemności. Ma to sprawić, że użytkownicy będą mogli przechowywać trzykrotnie więcej danych, niż wynosi fizyczna pojemność nośników, za którą zapłacili. Aby skorzystać z programu, konieczne jest zweryfikowanie aktualnego współczynnika redukcji danych za pomocą specjalnego narzędzia dostarczanego przez Huawei. Należy też spełnić szereg warunków. Deduplikacja i kompresja muszą być włączone dla wszystkich woluminów w systemie pamięci masowych. Całkowita objętość danych, które są wewnętrznie skompresowane lub nie poddają się kompresji (grafika, wideo, pliki XML, dane szyfrowane i naukowe), nie może przekroczyć 10 proc. Przed dostarczeniem klientowi dodatkowych nośników, inżynierowie Huawei sprawdzą, czy system jest poprawnie skonfigurowany. Z programu mogą skorzystać przedsiębiorstwa, które dokonały zakupu lub złożyły zamówienie na nowe macierze OceanStor Dorado V3 przed końcem 2017 r.


Fot. © freshidea – Fotolia.com

ZARZĄDZANIE CYKLEM ŻYCIA NOŚNIKÓW

Zabezpieczanie nośników: wygrają wiarygodni partnerzy

Rośnie ilość danych, a wraz z nią potrzeba świadomego i odpowiedzialnego zarządzania nośnikami, na których są przechowywane firmowe informacje. Resellerzy mogą świadczyć tego typu usługi, ale powinni się do tego starannie przygotować. ANDRZEJ GONTARZ

S

kuteczny zapis danych na wymiennym nośniku to dopiero połowa sukcesu. Na drugą składa się gwarancja, że dane te nie zostaną utracone w niekontrolowany sposób. Ma to szczególne znaczenie w firmach, które na wymiennych dyskach, taśmach lub płytach przechowują informacje niejawne lub wrażliwe. Ich zarząd powinien być szczególnie zainteresowany sprawdzonymi metodami dbania o takie nośniki informacji, a final-

18

VADEMECUM CRN listopad 2017

nie stworzeniem polityki zarządzania cyklem ich życia. Szczególnie w kontekście wymagań stawianych przez nowe unijne rozporządzenie o ochronie danych osobowych (RODO). Resellerzy i integratorzy mogą liczyć na przychody nie tylko ze sprzedaży nośników. Istnieje szereg akcesoriów, na oferowaniu których można dodatkowo zarobić. Natomiast ci, którzy będą chcieli się w tej dziedzinie wyspecjalizować,

mogą postawić na usługi związane z archiwizacją nośników (włącznie z odczytem potrzebnych w danej sytuacji danych), ich długotrwałym składowaniem, przewożeniem i profesjonalnym niszczeniem. Wśród dużej liczby oferowanych rozwiązań do fizycznej ochrony nośników wyróżnić można specjalne rodzaje sejfów. Wybrane modele zapewniają zabezpieczenie przed kradzieżą, działaniem


czynników fizycznych (np. wody i ognia), upadkiem z wysokości, eksplozją, a nawet impulsem elektromagnetycznym. Do zabezpieczenia takiego sejfu wykorzystywane są różnego rodzaju zamki (elektroniczny z wyświetlaczem, mechaniczny z kluczem lub ich kombinacja) oraz czytniki linii papilarnych. Polityka bezpieczeństwa danych w każdym przedsiębiorstwie powinna zakładać przechowywanie kopii danych poza siedzibą, gdzie znajduje się serwerownia. W przypadku przetwarzania danych niejawnych konieczne jest zapewnienie bezpiecznego transportu nośników z backupem. Zapewniają go specjalne walizki, których charakterystyczną cechą jest wyprofilowana przestrzeń w komorze, co ogranicza ryzyko uszkodzenia nośników spowodowanego wstrząsami i uderzeniami. Niektóre modele mogą zapewniać także ochronę przed wysoką temperaturą, kurzem i wilgocią. Walizki mogą być zamykane na zamek ochronny, kłódkę, mieć zakładaną plombę albo być wyposażone w moduł GPS, zapewniający śledzenie w czasie rzeczywistym aktualnej lokalizacji umieszczonych w niej nośników. Warto oczywiście pamiętać, że dla zachowania spójności i kompletności systemu bezpieczeństwa informacji firmy powinny dysponować też procedurami odzyskiwania danych na wypadek ich nieprzewidzianej utraty. Dlatego resellerzy i integratorzy zawczasu powinni nawiązać kontakt z profesjonalnym laboratorium odzyskiwania danych i porozumieć się w sprawie potencjalnej współpracy, gdyż w sytuacji awaryjnej na tego typu formalności po prostu nie będzie czasu.

SKUTECZNIE I NIEODWRACALNIE Właściciele firm coraz częściej mają świadomość, że niepotrzebnych nośników danych nie można tak po prostu wyrzucić do kosza lub przekazać komuś innemu do dalszego użytkowania. Mogą się bowiem na nich znajdować istotne dla prowadzonej działalności lub chronione prawem informacje. Nie mówiąc o tym, że zasady utylizacji tego typu produktów są ściśle określone w przepisach o ochronie środowiska naturalnego. To, rzecz jasna,

otwiera kolejne możliwości działania dla firm z branży IT. Proces niszczenia danych kończy cykl życia nośnika, ale żeby przeprowadzić go skutecznie, trzeba poznać wiele arkanów tej sztuki. Istnieje ponad dwadzieścia szczegółowych branżowych regulacji, które zawierają ogólnie sformułowane, ale jednocześnie mocno restrykcyjne wymagania dotyczące np. pozbywania się informacji. Trudno się więc dziwić, że firmy świadczące usługi usuwania danych bądź niszczenia ich nośników dostosowują się do powszechnie znanych norm i standardów, m.in. norm ISO – 27001, 17799 oraz 27040. Uwzględniane są też standardy NATO-wskie. Dużego znaczenia nabierają w tej sytuacji wewnętrzne, firmowe instrukcje i procedury niszczenia danych. Powinny zawierać ściśle określone zasady definiowania kategorii niszczonych nośników, jak również wskazywać metody skutecznego usuwania danych i przeznaczone do tego urządzenia.

Gdzie trafiają Twoje nośniki danych..

Iwo Czerniawski właściciel Iviter (Klinika Danych)

W niemal każdym przypadku utraty danych istnieje szansa na ich odzyskanie. Przeznaczone do tego celu narzędzia są dostępne na rynku. Trzeba jednak umieć poprawnie się nimi posłużyć, dlatego kluczowe znaczenie ma wiedza i doświadczenie. Jest też oczywiście granica uszkodzenia danych, po przekroczeniu której nie da się ich odzyskać. Do każdego przypadku trzeba jednak podchodzić w sposób indywidualny. Nie ma dwóch takich samych sytuacji. Wkraczamy do działania zazwyczaj wtedy, gdy standardowe procedury działania zostały już wykorzystane. Firmowe działy IT zgłaszają się do nas często z telefonami komórkowymi prezesów czy członków zarządów, którzy utracili dane, bo nie robili backupu w chmurze z obawy przed inwigilacją. Każdy z nas ma dzisiaj smartfona w kieszeni z coraz większą ilością danych. Ich ochrona będzie więc coraz bardziej zyskiwać na znaczeniu.

...gdy ich już nie potrzebujesz?

VADEMECUM CRN listopad 2017

19


ZARZĄDZANIE CYKLEM ŻYCIA NOŚNIKÓW W polskim prawie także jest wiele regulacji, które nakazują niszczenie określonych dokumentów lub informacji, również w formie elektronicznej, gdy nie są już potrzebne do prowadzenia działalności firmy lub instytucji, skończyła się zgoda na przetwarzanie danych, minął ustawowy okres ich obowiązkowego przechowywania lub podlegają ustawowej ochronie. Przepisy te nie precyzują jednak, w jaki sposób należy dokonać usunięcia cyfrowych danych lub zniszczenia ich nośników. Generalnie chodzi o to, aby pozbycie się danych było skuteczne i uniemożliwiało ich odtworzenie bądź odzyskanie. Wybór metody pozostaje w gestii ich administratora lub właściciela, inaczej niż w przypadku przepisów dotyczących dokumentacji papierowej, które określają nawet dopuszczalną wielkość skrawka rozdrobnionego papieru. Obowiązująca ustawa o ochronie danych osobowych nakazuje nieodwracalne kasowanie danych z urządzeń i nośników elektronicznych, które są przeznaczone do likwidacji, zostaną przekazane użytkownikowi nieuprawnionemu do przetwarzania informacji, a także są oddawane do naprawy. Podobne wymagania dotyczące sposobów niszczenia danych zawarte są w wielu innych polskich przepisach (patrz ramka na stronie obok). Każdy z nich wskazuje rodzaj danych, których usunięcie ma nastąpić w sposób uniemożliwiający ich odtworzenie.

Zdaniem integratora  Łukasz Durkalec, dyrektor ds. technicznych, Advatech Niektórzy błędnie kojarzą integratora IT wyłącznie z procesem tworzenia czegoś nowego – spektakularne wdrożenia, nowe generacje urządzeń, konsolidacje i przecinanie wstęgi. Tymczasem doświadczony integrator towarzyszy klientowi w całym cyklu życia jego infrastruktury i danych. Od narodzin, przez rozwój, aż po nieunikniony zmierzch. Wartość danych na nośniku może być wielokrotnie większa od wartości samego nośnika, dlatego bardzo często standardowe usługi wymiany dysków lub taśm nie wchodzą w grę. Usługi serwisowe lub modernizacyjne są ściśle związane z udokumentowanym niszczeniem danych przez demagnetyzację lub fizyczne kruszenie nośników.

LOGICZNIE CZY FIZYCZNIE? Czy dostępne dzisiaj na rynku metody i technologie usuwania oraz niszczenia danych gwarantują rezultaty oczekiwane przez ustawodawców? Zdania na temat skuteczności i zakresu efektywnego wykorzystania poszczególnych sposobów utylizacji danych są podzielone. Zawsze istnieje ryzyko, że dzięki umiejętnemu wykorzystaniu najnowszej wiedzy i zastosowaniu nowoczesnych narzędzi uda się komuś odtworzyć zapisane dane. Oczywiście, zasadne w takiej sytuacji jest zawsze pytanie o stosunek wysokości poniesionych nakładów i środków do wartości uzyskanych rezultatów. Jedną z metod usuwania zawartości dysków jest metoda programowa. Polega ona na wielokrotnym (w niektórych przypadkach nawet 35-krotnym) nadpisywaniu plików na nośniku przypadkowymi wartościami, losowo wygenerowanymi ciągami liczbowymi. Po

Jakub Stępniak Key Account Manager, Diskus

Niszczenie danych metodą programową – przez nadpisanie danych – jest skuteczne pod warunkiem, że wykorzystuje się do tego odpowiednie oprogramowanie. Najbardziej skuteczne, certyfikowane programy zazwyczaj dużo kosztują i nie wszystkich na nie stać. Poza tym niszczenie dysków w ten sposób zajmuje dużo czasu, a nie każda firma może sobie na to pozwolić. Metody programowej nie da się zastosować w przypadku dysków uszkodzonych. Skuteczna jest wówczas demagnetyzacja, która jest wskazana również wtedy, gdy dyski ulegają zmieleniu. Nawet ze zmielonych fragmentów można bowiem odczytać dane, potrzeba do tego dużo czasu i odpowiedniego sprzętu, ale jest to wykonalne. Programowo nie da się też zniszczyć pamięci flash. Wynika to z jej konstrukcji. Ma ona pamięć nadmiarową, do której zwykłe oprogramowanie nie ma dostępu. W tym przypadku skuteczną metodą jest w niszczenie mechaniczne – zgniatanie lub mielenie.

20

VADEMECUM CRN listopad 2017

zastosowaniu tej metody nośnik nadaje się do dalszego użytkowania. Stąd też jest ona często używana przez firmy, które przekazują swój sprzęt komputerowy innym użytkownikom. Do stosowania metody programowej potrzebne jest oczywiście specjalne oprogramowanie. Poszczególne jego rodzaje bazują na różnych algorytmach sterujących nadpisywaniem danych. Do najczęściej stosowanych algorytmów należą: amerykański US DoD 5220.22-M, niemiecki VSITR oraz algorytm Gutmanna. W użyciu są także amerykańskie algorytmy NAVSO P-5239–26 RLL i MFM oraz rosyjski GOST P50739–95. Przy stosowaniu omawianej metody trzeba jednak uzbroić się w cierpliwość. Trzykrotne nadpisywanie dysku o dużej pojemności może zająć cały dzień. Można też niszczyć dane metodą magnetyczną (degaussing). Polega ona na wykorzystaniu urządzenia, które wytwarza pole niszczące strukturę nośnika. Wykorzystywane impulsy elektromagnetyczne muszą być odpowiednio silne, aby spowodować rzeczywiste zniszczenie danych. Im bardziej pojemny nośnik, tym generalnie powinny być mocniejsze. Demagnetyzery wytwarzają pole magnetycznego o różnym natężeniu, więc nie każdy może być użyty do niszczenia danych na nośniku każdego rodzaju. Niektóre z nich, zwłaszcza te gorszej jakości, ulegają też zużyciu, co może skutkowaćsłabnięciem wytwarzanego przez nie pola magnetycznego. Zniszczenia danych można dokonać nie tylko poprzez ich usunięcie z nośnika, lecz także poprzez jego fizyczne zniszczenie. Stosowanych jest kilka metod utylizacji sprzętu, czyli:


– termiczna – spalenie w temperaturze powyżej tysiąca stopni Celsjusza (osiągalna np. w piecu hutniczym), – radioaktywna – oddziaływanie promieniowaniem jonizującym, – pirotechniczna – przez zastosowanie ładunków wybuchowych – chemiczna – użycie odczynnika chemicznego zmieniającego strukturę nośnika danych (na przykład rozpuszczenie w odpowiednio spreparowanej cieczy), – mechaniczna – nośniki są zgniatane, sprasowywane, mielone, cięte na kawałki, rozdrabniane lub przewiercane. Ryzyko związane z fizycznym niszczeniem nośników wynika z możliwości niedokładnego wykonania całego procesu lub błędu na jednym z etapów. W wyniku tych działań nadal pozostają fragmenty nośników, z których można odczytać dane. Świadczą o tym chociażby przykłady skutecznego odzyskania danych z dysków zniszczonych po ataku na World Trade Center w 2001 r. lub z promu kosmicznego Columbia po jego katastrofie w 2003 r.

PROCEDURY ZWIĘKSZAJĄ WIARYGODNOŚĆ

Resellerzy i integratorzy, którzy chcieliby świadczyć usługi usuwania danych bądź niszczenia nośników, muszą więc bardzo starannie się do tego przygotować. Podstawą jest, oczywiście, zaopatrzenie się w odpowiedniej jakości sprzęt i oprogramowanie. Narzędzia, którymi będzie się posługiwać usługodawca, muszą być adekwatne do zadań, których będzie chciał się podjąć. Parametry wykorzystywanych urządzeń to będą pierwsze informacje, o które poprosi potencjalny klient. Trzeba będzie go przekonać, że zapewniają maksymalną w danej sytuacji skuteczność działania. Sam sprzęt lub specjalistyczne oprogramowanie jednak nie wystarczą. Duże znaczenie mają również procedury i zasady postępowania stosowane w procesie niszczenia plików. To właśnie one mogą niejednokrotnie przekonać klienta do skorzystania z usług. Ważne są jasno określone zasady dostępu do danych zarówno przez pracowników usługodawcy, jak i przedstawicieli zleceniodawcy. Odpowiednie wymogi musi spełniać również

Wybrane przepisy, które wymagają bezpowrotnego usuwania danych • ustawa o ochronie danych osobowych, • rozporządzenie ministra spraw wewnętrznych i administracji w sprawie dokumentacji przetwarzania danych osobowych oraz warunków technicznych i organizacyjnych, jakim powinny odpowiadać urządzenia i systemy informatyczne służące do przetwarzania danych osobowych, • ustawa o rachunkowości, • rozporządzenie ministra zdrowia w sprawie rodzajów, zakresu i wzorów dokumentacji medycznej oraz sposobu jej przetwarzania, • rozporządzenie ministra pracy i polityki społecznej w sprawie warunków, sposobu oraz trybu gromadzenia i usuwania danych w ramach Elektronicznego Krajowego Systemu Monitoringu Orzekania o Niepełnosprawności, • ustawa o ochronie informacji niejawnych, • rozporządzenie ministra spraw wewnętrznych w sprawie przetwarzania informacji przez policję.

miejsce niszczenia danych – bez względu na to, czy proces ten jest przeprowadzany w siedzibie klienta, w firmie świadczącej usługę czy w mobilnym punkcie niszczenia. Ważne jest także zapewnienie bezpiecznego odbioru i transportu nośników. Firma świadcząca usługi niszczenia danych musi zatrudniać odpowiednio przeszkolonych pracowników. Wiarygodności jej działaniom dodają też posiadane certyfikaty zgodności z określonymi normami czy standardami działania w tym zakresie. W niektórych sytuacjach wymagane mogą być także poświadczenia wymogów dostępu do informacji niejawnych. Należy także być przygotowanym na wydawanie, po każdorazowym zniszczeniu nośnika, certyfikatu skasowania danych, który jest zazwyczaj warunkiem podpisania umowy z klientem.

Oto co może z nich zostać:

Niszczarka dysków twardych HSM HDS150

handlowy@hsm.eu www.hsm.eu

VADEMECUM CRN listopad 2017

21


ZARZĄDZANIE CYKLEM ŻYCIA NOŚNIKÓW

Laboratorium Diskusa

zniszczy każdy bit danych Diskus, zapewniający pełną ofertę nośników danych, świadczy także związane z nimi usługi, w tym ich profesjonalne niszczenie.

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ DISKUS.

D

ane mogą być bezpowrotnie usuwane na wiele sposobów – metodą programową (wielokrotne nadpisanie), za pomogą silnego impulsu magnetycznego (degaussing) lub przez fizyczne zniszczenie nośnika. Diskus gwarantuje skuteczność i bezpieczeństwo całego procesu, co zostało potwierdzone m.in. certyfikatem ISO 9001:2015-10. Niszczenie nośników jest przeprowadzane przez przeszkolonych pracowników, legitymujących się dokumentem poświadczenia bezpieczeństwa wydanym przez delegaturę ABW. Dokument ten jest rękojmią zachowania tajemnicy informacji niejawnych, oznaczonych klauzulą „poufne”. Jest też gwarantem, że gdy podczas świadczenia usługi zachodzi konieczność wejścia do systemów kontrahenta, współpraca zawsze bazuje na ściśle ustalonych zasadach, zapewniających pełne bezpieczeństwo danych. Usuwanie danych metodą demagnetyzacji z jednej taśmy lub dysku twardego zajmuje mniej niż 10 sekund, dlatego cała operacja trwa relatywnie krótko, nawet jeśli obejmuje duże cyfrowe archiwum.

Z DOJAZDEM DO KLIENTA

Diskus zapewnia także wiele usług dodatkowych, np. wypożyczenie walizek transportowych, filmowanie procesu niszczenia danych, plombowanie przesyłek, fizyczne zniszczenie i przekazanie do utylizacji skasowanych nośników danych. Każdy etap niszczenia danych jest odpowiednio dokumentowany, a klient ma całkowitą kontrolę nad całym procesem. Po zakończeniu usługi wystawiany jest stosowny certyfikat, potwierdzający poprawność skutecznego skasowania danych. Zawiera on m.in. takie informacje jak: data, czas i miejsce odbioru nośników oraz ich zniszczenia, precyzyjne dane identyfikacyjne nośników oraz podpisy członków komisji nadzorującej proces, w tym przynajmniej jednego przedstawiciela Diskusa oraz firmy klienta.

Tomasz Filipów dyrektor zarządzający, Diskus

Usługami profesjonalnego niszczenia danych zainteresowanych jest coraz więcej podmiotów, o czym może świadczyć fakt, że w naszym MobileITlab kwartalnie trwale usuwamy dane z ponad 10 tys. nośników. Pośrednikiem w realizacji tych usług są resellerzy, którzy mają bezpośredni kontakt z klientem i najlepiej znają jego potrzeby. Natomiast dzięki rozporządzeniu RODO, które ma obowiązywać od maja 2018 r., spodziewamy się jeszcze większego popytu na nasze usługi i produkty. Dlatego w grudniu przenosimy się do własnego laboratorium badawczo-rozwojowego, w którym będziemy opracowywać nowe, jeszcze bardziej wydajne i skuteczne metody usuwania danych. Oficjalne otwarcie planowane jest na styczeń 2018 r.

22

VADEMECUM CRN listopad 2017

Usługi niszczenia danych świadczone są przede wszystkim w siedzibie firmy Diskus. Klienci zainteresowani nimi mogą wypożyczyć specjalistyczne walizki do transportu nośników danych. Ale proces niszczenia może być przeprowadzony w dowolnym miejscu – dzięki pierwszemu na świecie w pełni wyposażonemu mobilnemu centrum laboratoryjnemu MobileITlab. Została w nim wydzielona strefa do świadczenia usług bezpowrotnego niszczenia danych, wyposażona w specjalistyczny sprzęt: – demagnetyzer ProDevice ASM120, – niszczarkę nośników danych, rozdrabniającą je na skrawki o szerokości 15 mm (spełnia wymogi normy DIN 66399, gwarantującej poziom bezpieczeństwa T-5 dla taśm i H-5 dla dysków twardych), – fizyczną niszczarkę dysków twardych, taśm, telefonów komórkowych i tabletów (spełnia wymogi norm DIN 66399: H3 oraz DMS 2008/level A), – automatyczną niszczarkę płyt CD/ /DVD i talerzy dysków (gwarantuje stopień bezpieczeństwa wg norm DIN 32757–1:3 i DIN 66399:P-3/O-2/T-3/E-2). W laboratorium zamontowano kamery monitorujące wnętrze oraz otoczenie pojazdu. Wszystkie czynności mogą odbywać się zarówno w obecności przedstawiciela klienta, jak i – dzięki możliwości uzyskania dostępu przez Internet do systemu monitoringu – pod jego zdalnym nadzorem.

Dodatkowe informacje: TOMASZ FILIPÓW, DYREKTOR ZARZĄDZAJĄCY, DISKUS, DISKUS@DISKUS.PL


Dane

prawie zawsze da się odzyskać

Klinika Danych to marka, pod którą firma Iviter świadczy profesjonalne usługi odzyskiwania danych z wszelkich nośników oraz naprawy różnego rodzaju sprzętu elektronicznego. Iviter aktywnie współpracuje z resellerami z branży IT.

O

WARTO ZOSTAĆ PARTNEREM

nawet najtrudniejszy problem techniczny. W tej chwili zatrudnionych jest blisko 30 specjalistów z różnych dziedzin (łącznie ze współpracownikami zewnętrznymi) i stale prowadzona jest rekrutacja na stanowiska serwisantów-elektroników oraz opiekunów klienta. – Elektronika zawsze stanowiła moją pasję, a w realizacji marzeń pomogło mi też wyższe wykształcenie muzyczne i zainteresowanie konstrukcjami audio – mówi Iwo Czerniawski, właściciel firmy Iviter. –Dzięki temu w stosunkowo krótkim czasie udało mi się stworzyć profesjonalną firmę serwisową, bez udziału inwestorów. Stawiamy na innowacje. Już teraz pod marką Ivichem produkujemy preparaty chemiczne do lutowania np. aluminium oraz stali nierdzewnej. Mamy bardzo ambitne plany na przyszłość – chcemy m.in. uruchomić własną produkcję elektroniki. Jesteśmy zainteresowani również zagadnieniami związanymi z eksploracją kosmosu i planujemy podjęcie współpracy z różnymi partnerami na świecie także w tym zakresie.

Zarząd Ivitera podkreśla, że ofertę firmy należy traktować jako kompleksową obsługę w zakresie wsparcia serwisowego. Jej pracownicy są w stanie odzyskać dane z każdego nośnika i przywrócić sprawność każdego rodzaju sprzętu elektronicznego, dzięki czemu współpracujące firmy nigdy nie usłyszą, że jakiegoś urządzenia nie da się naprawić. Dzięki temu resellerzy mogą rozszerzyć zakres serwisowej obsługi klientów o kolejne rodzaje urządzeń, niezwiązane z branżą IT, takich jak ekspresy do kawy, sprzęt audio czy RTV, i czerpać zyski także z tego tytułu. Współpracujący z Iviterem partnerzy mają przypisanego konkretnego opiekuna, który zajmuje się koordynacją zleceń. Ci, z którymi współpraca ma charakter trwały, mogą liczyć na priorytetowe traktowanie zgłoszeń. Inżynierowie Ivitera, jeśli zajdzie taka potrzeba, włączają się w rozmowy z klientami końcowymi i prowadzą je w imieniu partnerów. Zapewniają także wsparcie merytoryczne w konsultacjach dotyczących kwestii technicznych. Iviter dba o promocję partnerów za pomocą swoich kanałów marketingowych, zapewnia również ich prezentację na stronie internetowej. Resellerzy mogą korzystać z przygotowanych materiałów promocyjnych oraz logotypów. Więcej informacji na stronach: www.iviter.pl i www.klinikadanych.pl

Dodatkowe informacje: IWO CZERNIAWSKI, WŁAŚCICIEL, IVITER, INFO@KLINIKADANYCH.PL VADEMECUM CRN listopad 2017

23

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ IVITER.

ferta Ivitera w zakresie odzyskiwania danych jest bardzo bogata. Klinika Danych pomaga w przypadku uszkodzeń twardych dysków (mechanicznych , elektronicznych i logicznych) oraz usterek pamięci flash w każdej postaci (kart pamięci, dysków SSD, smartfonów, tabletów). Firma odzyskuje też dane z macierzy RAID, nawet w bardzo trudnych przypadkach. Zajmuje się także informatyką śledczą, zwłaszcza w zakresie analiz nośników w urządzeniach mobilnych. Klinika Danych podejmuje się zleceń bardzo trudnych, również ekspresowych. Wysoka skuteczność działań została potwierdzona wieloma referencjami, m.in. od Związku Banków Polskich, Politechniki Warszawskiej i innych licznych uczelni oraz instytucji i firm. Iviter korzysta także z pomocy firm partnerskich, m.in. z Izraela oraz Rosji, które wspomagają jego działania w trudniejszych sytuacjach. Oprócz odzyskiwania danych Iviter świadczy też usługi w zakresie profesjonalnego serwisu urządzeń elektronicznych. Naprawiane są komputery, laptopy, urządzenia mobilne, sprzęt audio, RTV, AGD, ekspresy do kawy, aparaty fotograficzne i obiektywy. Firma dysponuje potężnym zapleczem technicznym, dzięki któremu oferuje serwis sprzętu radiowego, profesjonalnego sprzętu kosmetycznego, a także urządzeń z zakresu automatyki przemysłowej. W laboratorium Ivitera znajduje się pełen osprzęt do lutowania BGA, mikroskopy stereoskopowe, wysokiej klasy urządzenia pomiarowe: oscyloskopy, analizatory widma wysokiej częstotliwości i wiele innych. Firmę Iviter stworzono z myślą o skupieniu w jednym miejscu najwybitniejszych techników, specjalistów z różnych dziedzin, którzy dzięki działaniu w jednej grupie są w stanie rozwiązać każdy,


BACKUP ŚRODOWISK WIRTUALNYCH

dla wirtualnych maszyn Jednym z kluczowych obecnie wyzwań, jakie stoją przed twórcami oprogramowania do backupu, jest ochrona danych na maszynach wirtualnych. WOJCIECH URBANEK

W

irtualizacja nie tylko zmieniła reguły w centrach danych. Jednocześnie wymusiła na twórcach narzędzi do ochrony danych opracowanie nowych rozwiązań. Szczególnie ciekawy przypadek stanowi rynek oprogramowania do backupu. Producenci tego typu software’u zaczęli szukać złotego środka, który zapewniałby zachowanie równowagi między wydajnością środowiska wirtualnego a jego bezpieczeństwem. Najsprytniejsi okazali się młodzi gracze, którzy opracowali wyspecjalizowane oprogramowanie służące wyłącznie do backupu maszyn wirtualnych. Jednym z jego wyróżników jest brak tzw. agentów, powszechnie stosowanych w klasycznych produktach. Tego typu rozwiązanie użyte w wirtualnym środowisku spowalnia proces tworzenia kopii zapasowych

24

VADEMECUM CRN listopad 2017

– tłumaczą twórcy wyspecjalizowanych systemów. Do rywalizacji z nowymi producentami, wśród których pierwsze skrzypce gra Veeam Software, szybko włączyły się firmy specjalizujące się w tworzeniu oprogramowania do backupu serwerów fizycznych, rozbudowując swoje systemy o dodatkowe funkcje związane z obsługą „wirtualek”. Konkurencja w tym segmencie rynku zapowiada się zatem nad wyraz interesująco, tym bardziej, że do głosu zaczynają dochodzić również startupy (Rubrik, Cohesity) oferujące kompleksowe rozwiązania, których możliwości wykraczają daleko poza backup maszyn fizycznych i wirtualnych. – Nie interesują nas jedynie aplikacje krytyczne, stanowiące około 20 proc danych. Zajmujemy się całą resztą cyfrowych zaso-

bów – tłumaczy Mohit Aron, CEO Cohesity, a wcześniej jeden z założycieli Nutanixa. Smaczku całej sytuacji dodają także nowe trendy pojawiające się na rynku IT. Chmura, Internet rzeczy oraz wirtualizacja bazująca na kontenerach sprawiają, że programiści pracujący nad kolejnymi wersjami oprogramowania, będą musieli uwzględnić nie tylko lawinowy przyrost ilości danych, ale także pracę aplikacji w zróżnicowanych, często trudnych warunkach.

KARTY NIE ZOSTAŁY ROZDANE

Wirtualizacja serwerów już dawno przestała być wiodącym tematem w branży IT. Śledząc dane statystyczne, można wręcz odnieść wrażenie, że dostawcy doszli

Fot. © everythingpossible – Fotolia.com

Realny backup


niemal do ściany. Analitycy z Gartnera szacują, że 75 proc. przedsiębiorstw korzysta z wirtualnych maszyn, a niektóre z nich deklarują, iż zwirtualizowały nawet 90 proc. serwerów. Ale jest i dobra wiadomość – globalne przychody z wirtualizacji tych ostatnich wciąż rosną. W 2016 r. osiągnęły poziom 5,6 mld dol., czyli prawie 6 proc. więcej niż rok wcześniej – informuje Gartner. – Blisko 80 proc. kierowanych do nas zapytań wiąże się z zabezpieczeniem środowisk mieszanych. Wirtualizacja zadomowiła się już na dobre w świadomości klientów. Wielu z nich chętnie przenosi swoje fizyczne serwery na maszyny wirtualne – mówi Damian Przygodzki, Senior Systems Engineer w ABC Data. Innym ciekawym trendem, który wpłynie na funkcjonalność aplikacji do tworzenia kopii zapasowych, jest rosnąca liczba platform wirtualizacyjnych. Do Microsoftu i VMware’u dołączają kolejne firmy, co spotyka się z pozytywnym przyjęciem rynku. Przedsiębiorstwa nie zamierzają bowiem wirtualizować infrastruktury wyłącznie za pomocą produktów oferowanych przez rynkowych liderów. Integratorzy dostrzegają też inne wyzwania, które stoją przed producentami aplikacji. Najczęściej wskazują na problemy w zakresie wydajności. Z jednej strony konsolidacja ma swoje plusy, ale z drugiej nagromadzenie wielu maszyn na jednym hoście obciąża system. Tym bardziej, że na serwerach zaczynają się już pojawiać wirtualne maszyny o pojemności kilku terabajtów. – Macierze dyskowe nie zawsze radzą sobie z obsługą maszyn o dużej pojemności. Najczęściej dotyczy to systemów iSCSI, które mają nieprawidłowo skonfigurowaną architekturę LAN. Optymalnym rozwiązaniem byłby system zabezpieczający środowiska wirtualne, niezależnie od ich wielkości, w taki sposób, żeby można je było łatwo skalować i rozbudowywać, w zależności od potrzeb użytkownika – mówi Tomasz Spyra, CEO Rafcom.

WYMIANA SYSTEMÓW Wielu przedsiębiorców, którzy poszukują systemów do backupu maszyn wirtualnych, staje przed dylematem: wybrać

uniwersalne rozwiązanie chroniące jednocześnie serwery fizyczne i wirtualne czy wyspecjalizowany system przeznaczony do ochrony „wirtualek”. Z tym drugim rozwiązaniem zazwyczaj jest utożsamiany Veeam, choć firma nie chce być zaszufladkowana jako wytwórca jednej kategorii produktów – Rozwiązania Veeam mają za sobą znaczący okres rozwoju. Obecnie nie oferujemy oprogramowania tylko do backupu maszyn wirtualnych. Zapewniamy dostępność środowisk lokalnych, chmury publicznej i hybrydowej – tłumaczy Tomasz Krajewski, Systems Engineers Manager Eastern Europe w Veeam Software. Nie zmienia to faktu, że przedsiębiorstwa uczestniczące w globalnym badaniu Enterprise Strategy Group zauważają różnice występujące między poszcze-

gólnymi aplikacjami do backupu. Większość, bo 58 proc respondentów, deklaruje, że korzysta z ujednoliconych rozwiązań, 42 proc. zaś twierdzi, że używa wyspecjalizowanych narzędzi. Niemniej jednak z punktu widzenia integratora bardziej interesujące są informacje dotyczące satysfakcji użytkowników. Niemal połowa firm jest zadowolona z wykorzystywanego oprogramowania i nie planuje w najbliższym czasie jego wymiany. W grupie szczęśliwców 36 proc. stanowią firmy chronione przez wielofunkcyjne systemy, a 13 proc. to właściciele rozwiązań do backupu wirtualnych maszyn. Warto zaznaczyć, że dane odnoszą się do sposobów zabezpieczeń, nie zaś konkretnych produktów. Badanie ESG pokazało też, że istnieje całkiem liczna grupa rozczarowanych

Zdaniem integratora q  Magdalena Idzik-Fabiańska, Executive Director, Infonet Projekt Świadomość klientów dotycząca potrzeby backupu wirtualnych serwerów jest dość duża i cały czas rośnie. Odnotowujemy też większe zapotrzebowanie na rozwiązania pełniące funkcję zapasowych centrów danych (DR Site). Największą barierą hamującą sprzedaż oprogramowania do backupu maszyn wirtualnych jest cena. To ona stanowi główne zagadnienie w dyskusjach przedsprzedażowych. Dopiero w dalszej kolejności brana jest pod uwagę niezawodność rozwiązania oraz prostota konfiguracji i zarządzania. Według mnie nasycenie polskiego rynku systemami backupu maszyn wirtualnych jest bardzo duże i ciężko znaleźć miejsce dla nowego gracza. Uważam natomiast, że dla innowacyjnego i kosztowo efektywnego rozwiązania zawsze znajdzie się miejsce. Dlatego warto być na czasie i testować nowe produkty. q  Tomasz Spyra, CEO, Rafcom Największą przeszkodą w sprzedaży oprogramowania do backupu maszyn wirtualnych jest nie tyle brak świadomości klientów, ale przekonanie ich do odpowiedniego dobrania komponentów. Firmy nie do końca zdają sobie sprawę, że system backupu jest tak wydajny jak jego najwolniejszy element. Często spotykam się z sytuacjami, że klienci jako repozytorium do składowania kopii zapasowych wykorzystują najtańsze systemy NAS. W rezultacie system pracuje wolno i nie zawsze stabilnie. Czasami zdarza się, że polityka bezpieczeństwa na papierze jest idealna, ale ze względu na zastosowanie nieodpowiednich narzędzi staje się niemożliwa do realizacji. q  Agnieszka Koziorowska, architektka Systemów IT, Komputronik Biznes Śledzimy na bieżąco rynek światowy, szukając produktów, które zapewnią niezbędną elastyczność – także pod kątem ceny i podejścia do licencjonowania. Wierzę, że w przyszłości, oprócz jeszcze skuteczniejszego kompresowania i deduplikacji danych, producenci będą kładli nacisk na minimalizację obciążenia systemów produkcyjnych procesem backupu. Obszarem do zainteresowania dla nowych firm tworzących produkty ochrony mogłaby się stać zaawansowana analityka i zarządzanie danymi przechowywanymi w kopiach zapasowych.

VADEMECUM CRN listopad 2017

25


BACKUP ŚRODOWISK WIRTUALNYCH

Kierunek rozwoju rynku oczami dostawców Artur Cyganek, dyrektor polskiego oddziału Acronis

Krzysztof Szablowski, S4Engineers Team Leader

KRZYSZTOF SZABLOWSKI Coraz więcej departamentów IT interesuje się chmurą obliczeniową, rozwiązaniami IoT, DevOps czy BigData. Te obszary wymagają od aplikacji backupowych innego podejścia, bardziej elastycznego, ponieważ systemy te pierwotnie były opracowywane pod kątem archiwizacji tradycyjnych rozwiązań i nie uwzględniały chociażby wirtualizacji. W obecnych czasach przedsiębiorstwa maksymalnie wykorzystują środowisko IT, aby uzyskać jak najniższy współczynnik TCO. Niestety często zapominają o tym, że proces backupu wpływa na wydajność systemu.

Tomasz Krajewski, Systems Engineers Manager Eastern Europe, Veeam Software

użytkowników. Co trzecie przedsiębiorstwo zadeklarowało, że przymierza się do wymiany oprogramowania. W gronie niezadowolonych 19 proc. używa specjalistycznych narzędzi do archiwizacji, a 14 proc. wielofunkcyjnych rozwiązań. Gwoli ścisłości należy dodać, że 18 proc. uczestników badania ESG nie określiło poziomu zadowolenia z systemów, z których korzysta.

POLSKA PRZESTRZEŃ DO ROZWOJU

Czy podobne nastroje występują w naszym kraju? Wprawdzie większość integratorów uważa, że polski rynek jest nasycony, ale wciąż istnieje miejsce dla nowych rozwiązań. Przykładowo S4E, mimo że od dawna dystrybuuje systemy Dell EMC oraz Commvault, wzbogaciło ofertę o produkty Storware vProtect oraz dsmISI. Krakowski VAD wychodzi z założenia,

26

ARTUR CYGANEK Nasze rozwiązania będą rozwijać się w kierunku rozwiązań chmurowych, aby zapewnić klientom ochronę danych ulokowanych w usługach dostarczanych przez wielu operatorów. Oczywiście wsparcie dla tradycyjnych środowisk wirtualnych również będzie jednym z ważniejszych kierunków rozwoju. Zagadnienia związane z obsługą szerokiej gamy wirtualizatorów, backupem bez wykorzystania agentów oraz integracją z systemami pamięci masowych wykorzystywanymi przez platformy wirtualne (SAN Storage) to najważniejsze kierunki rozwoju. Środowiska wirtualne stają się coraz bardziej popularne zarówno wśród firm z większą infrastrukturą, jak i w mniejszych firmach, które do tej pory wykorzystywały jedynie platformy fizyczne. Właśnie te ostatnie stanowią największą potencjalną szansę dla resellerów.

VADEMECUM CRN listopad 2017

TOMASZ KRAJEWSKI Przyszłość rozwiązań do backupu to przede wszystkim możliwość przenoszenia maszyn wirtualnych pomiędzy środowiskami lokalnymi a chmurą. Dzisiaj klienci niekoniecznie chcą budować zapasowe ośrodki centrów danych, aby zagwarantować sobie 100-proc. dostępność i odporność na awarie. Wolą w tym celu skorzystać z oferty głównych graczy rynku chmury publicznej, takich jak Microsoft czy AWS. Dzięki temu mogą uruchamiać instancje maszyn wirtualnych i płynnie przenosić usługi, np. w przypadku dużego obciążenia lokalnej infrastruktury lub awarii podstawowego ośrodka centrum danych.

że odbiorcy są na tyle zróżnicowani, iż warto dysponować szerokim portfolio produktów. Dell EMC oraz Commvault mają spełniać oczekiwania klientów poszukujących kompleksowych rozwiązań. Z kolei Storware vProtect zapewnia backup siedmiu różnych środowisk wirtualnych, a dsmISI jest polecany do tworzenia kopii zapasowych wyjątkowo dużej ilości danych. Paweł Bociąga, prezes zarządu Symmetry, zwraca uwagę na zróżnicowanie cenowe produktów. Biorąc pod uwagę „wrażliwość cenową” rodzimych przedsiębiorców, ma to niepoślednie znaczenie w rozmowach handlowych. – Produkty Dell EMC, Commvault, IBM i Veritas są dość drogie, a ich obsługa niekiedy bardzo złożona. Z moich obserwacji wynika, że na rodzimym rynku jest coraz większy popyt na rozwiązania „lekkie” i proste w utrzymaniu. Dlatego na lidera wyrasta Veeam Software. Pojawiają się również nowi gracze, tacy jak Rubrik

czy Actifio, co pozwala przypuszczać, że na rynku rozwiązań do zabezpieczenia danych istnieje duża przestrzeń do dalszego rozwoju – twierdzi Paweł Bociąga. Warto wspomnieć, że resellerzy z reguły nie najwyżej oceniają jakość narzędzi do backupu, które można zwykle spotkać u klientów. Często są to rozwiązania przestarzałe, niedopasowane pod względem wydajności do środowiska wirtualnego, pozbawione pełnego procesu automatyzacji zadań czy deduplikacji na źródle.

SZUKANIE NISZY Większość integratorów skupia się na dostarczaniu rozwiązań do ochrony dwóch najbardziej popularnych platform wirtualizacyjnych – vSphere i Hyper-V. Niemniej jednak w ostatnim czasie wzrasta zainteresowanie alternatywnymi rozwiązaniami, takimi jak produkty Citrix, Oracle, Red Hat oraz Huawei.


Na fali wznoszącej znajdują się także bazujące na KVM systemy open source – Acropolis i Proxmox. – Największym wyzwaniem dla producentów oprogramowania do backupu jest rosnące znaczenie oraz liczba środowisk wykorzystujących rozwiązania open source. Coraz więcej firm obok klasycznych platform do wirtualizacji zaczyna wykorzystywać produkty dostępne w ramach otwartego oprogramowania – mówi Radosław Wierchowicz, dyrektor działu rozwiązań chmurowych w Engave. Co istotne, przedsiębiorstwa chcą mieć wolność wyboru i nie zamierzają dokonywać wirtualizacji infrastruktury za pomocą rozwiązania jednego dostawcy. Według badań przeprowadzonych przez Enterprise Strategy Group niemal 65 proc. firm oraz instytucji korzysta z więcej niż jednego hiperwizora, a 49 proc. planuje zacząć korzystać z następnego wirtualizatora w ciągu najbliższych 12–18 miesięcy. Backup maszyn wirtualnych tworzonych z wykorzystaniem mniej znanych platform wirtualizacyjnych wydaje się być ciekawym obszarem dla integratorów. W tym przypadku jednak istnieje duże prawdopodobieństwo, że środowiska budowane na bazie niszowych rozwiązań nie będą całkowicie kompatybilne z oprogramowaniem do tworzenia kopii zapasowych. Dlatego firmy IT zainteresowane działaniem w tym segmencie muszą mieć wysokiej klasy zaplecze techniczne, które zapewnia indywidualne podejście do każdego projektu. – Sytuacja nie wygląda najlepiej, ponieważ systemy backupu nadal nie oferują zaawansowanych funkcji na platformy open source. Największą bolączką pozostaje sprawny i szybki backup oraz skuteczne odtwarzanie danych – twierdzi Paweł Bociąga. Jedno z największych wyzwań, stojących przed twórcami systemów do backupu, wiąże się z uporządkowaniem danych i aplikacji rozproszonych na serwerach fizycznych, wirtualnych czy w chmurze. Integratorzy oczekują też pełnej automatyzacji procesów backupu, postępującej integracji z usługami chmurowymi oraz możliwości współpracy z rozwiązaniami Software Defined Storage.

SZUKASZ PRACOWNIKÓW W BRANŻY IT?

Mając konto na CRN.pl, możesz BEZPŁATNIE zamieszczać OFERTY PRACY w naszym portalu.

NAJLEPIEJ POINFORMOWANY PORTAL W BRANŻY IT

VADEMECUM CRN listopad 2017

27


BACKUP ŚRODOWISK WIRTUALNYCH

Ochrona maszyn wirtualnych nie musi być droga

Oprogramowanie NAKIVO Backup & Replication umożliwia wykonywanie kopii bezpieczeństwa maszyn wirtualnych Hyper-V oraz VMware. Świetnie współpracuje z serwerami NAS firmy QNAP, tworząc bardzo wydajne rozwiązanie do ochrony danych.

Z

abezpieczenie środowisk wirtualnych Microsoft Hyper-V oraz VMware, a także wirtualnych instancji w chmurze Amazon EC2, stanowi pewne wyzwanie. Jednak dzięki oprogramowaniu NAKIVO Backup & Replication, nawet gdy klient korzysta z wielu zwirtualizowanych systemów, nie musi się obawiać o utratę danych w przypadku awarii bądź innych niepożądanych zdarzeń. W zagwarantowaniu ciągłości

Grzegorz Bielawski

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ QNAP.

Country Manager, QNAP

Backup maszyn wirtualnych jest bardzo wymagający pod względem wydajności wszystkich elementów biorących udział w tym procesie – hostów, pamięci masowych oraz sieci. Najlepszym sposobem na odciążenie całego środowiska i przyspieszenie backupu jest wyeliminowanie różnych elementów pośrednich. Dzięki instalacji oprogramowania NAKIVO Backup & Replication na serwerze NAS hostującym maszyny wirtualne wydajność ich backupu jest bardzo duża. Kopie zapisywane są bezpośrednio na dyskach umieszczonych w serwerze, a więc nie przesyła się ich przez sieć, która – wykorzystując protokoły NFS i CIFS – powoduje dodatkowe opóźnienia. Takie rozwiązanie sprawia, że cały proces może być nawet dwukrotnie szybszy niż w przypadku tradycyjnych rozwiązań.

28

VADEMECUM CRN listopad 2017

pracy pomagają funkcje usprawniające i przyspieszające tworzenie kopii bezpieczeństwa, ale też późniejszy proces odtwarzania całych maszyn wirtualnych lub pojedynczych zasobów. NAKIVO Backup & Replication to rozwiązanie wykonujące kopie typu image-based backup. Oznacza to, że nie trzeba instalować oprogramowania w każdej maszynie wirtualnej oraz na serwerze, co ułatwia wdrożenie, ale także oszczędza czas administratora potrzebny na konfigurację procesu backupu. Takie aplikacje jak Exchange, Active Directory, MS SQL czy Oracle wymagają do pracy bazy danych. Jeżeli działają one w maszynach wirtualnych, ich backup stanowi wyzwanie, ponieważ konieczne jest zapewnienie spójności podczas tworzenia kopii bazy. Gwarantuje to NAKIVO, dzięki zgodności z oprogramowaniem wirtualizacyjnym VMware, a także Hyper-V – współpracującym z usługą Microsoft Volume Shadow Copy (VSS) działającą wewnątrz maszyny wirtualnej.

IDEALNA PARA Oprogramowanie NAKIVO Backup & Replication można w prosty sposób zainstalować na serwerach NAS firmy QNAP (narzędzie to jest dostępne w sklepie QNAP App Center). Dzięki zestawowi użytecznych funkcji zapewnia ono oszczędność przestrzeni dyskowej podczas wykonywania kopii wirtualnych maszyn. Nie ma konieczności stosowania plików wymiany danych (swap) ani partycjonowania przestrzeni, a mechanizm deduplikacji w obrębie całego repozytorium eliminuje bloki z powta-

rzającymi się danymi (deduplikacja sama w sobie jest najbardziej efektywna właśnie w przypadku wirtualnych maszyn i backupu). Następnie każdy unikalny blok danych jest automatycznie kompresowany, co także wpływa na zminimalizowanie rozmiaru kopii zapasowej. Oprogramowanie NAKIVO zapewnia tzw. wieczny backup przyrostowy (forever incremental), w ramach którego śledzi zmiany w blokach danych i wykonuje kopie tylko tych zmienionych. W przypadku backupu przyrostowego maszyn wirtualnych działających w VMware wykorzystywany jest mechanizm Changed Block Tracking (NAKIVO zostało wyposażone we własny sterownik CBT, który umożliwia backup w darmowej wersji oprogramowania VMware ESXi), a w środowisku Hyper-V – narzędzie Resilient Change Tracking. NAKIVO w połączeniu z QNAP zapewniają także znacznie niższą cenę (nawet pięciokrotnie) całego środowiska backupowego w porównaniu z cenami tradycyjnych rozwiązań o podobnej charakterystyce sprzętowej, przeznaczonych do backupu wirtualnych maszyn. Oprogramowanie NAKIVO może być instalowane w większości modeli serwerów QNAP, nawet w urządzeniach tak podstawowej klasy jak TS-473.

Dodatkowe informacje: GRZEGORZ BIELAWSKI, COUNTRY MANAGER, QNAP, GBIELAWSKI@QNAP.COM


Gwarancja stałej dostępności

w środowiskach chmurowych

B

iznesowa ciągłość działania to dla użytkowników gwarancja, że usługi cyfrowe, z których korzystają, będą dostępne w dowolnym miejscu i czasie. Możliwe jest to jednak tylko wtedy, gdy dział IT dysponuje narzędziami do natychmiastowego przekazywania danych między chmurami – także prywatnymi i publicznymi. Veeam dostarcza odpowiednie rozwiązania, które działają niezależnie od sprzętu oraz rodzaju chmury. Wspólnie z partnerami zapewnia też narzędzia do wszechstronnej analizy, monitoringu oraz przeszukiwania danych, jak też uproszczonego zarządzania nimi, automatyzacji pracy i wiele innych. W 2017 r. Veeam zlecił przeprowadzenie badania, w ramach którego rozmawiano z 50 decydentami ds. informatyki ze średnich i dużych przedsiębiorstw w Polsce. Niestety, jego wyniki nie napawają optymizmem. 71 proc. respondentów przyznaje, że wszelkiego rodzaju przestoje – będące skutkiem cyberataków, awarii infrastruktury, niesprawności sieci lub katastrof naturalnych – wywierają negatywny wpływ na procesy transformacji cyfrowej i opóźniają inicjatywy z tego zakresu. Jednocześnie dyrektorzy IT są świadomi niewystarczających mechanizmów i strategii ochrony przed nieplanowanymi przestojami informatycznymi. Jedynie 56 proc. z nich jest pewnych, że stosowane w ich firmie rozwiązanie IT potrafi przywrócić do działania zwirtualizowaną infrastrukturę IT w czasie określonym w umowie SLA. Przyznają, że ponad połowa prób odzyskania danych trwa zbyt długo (43 proc.) lub skutkuje odzyskaniem niekompletnych informacji (41 proc.).

Andrzej Niziołek starszy menedżer regionalny w północnej i południowej części Europy Wschodniej, Veeam Software

IT w działających w Polsce firmach wciąż funkcjonuje w oderwaniu od potrzeb biznesowych. Przedsiębiorstwa w ponad połowie przypadków nie potrafią odtworzyć danych i usług w czasie określonym umowami SLA lub do założonego w nich docelowego punktu przywracania danych. W dodatku firmy tolerują zaskakująco długie przerwy w dostępie do aplikacji, które średnio wynoszą blisko 5 godzin. Oczekiwania klientów takich przedsiębiorstw są jednak coraz większe, a gdy dołoży się do tego presję globalnej konkurencji, integratorzy zyskują kolejny argument, dzięki któremu mogą przekonać odbiorców do uznania dbałości o stałą dostępność IT za jeden z głównych priorytetów firmy.

Z CHMURY I DO CHMURY Najnowsza wersja pakietu Veeam Availability Suite zapewnia stałą dostępność każdego elementu systemu oraz platformę dla klientów biznesowych do zarządzania danymi w różnych typach chmur. Dzięki obsłudze wszystkich typów środowisk IT – fizycznych (tradycyjnych lub zwirtualizowanych) oraz w chmurach (prywatnych, publicznych, hybrydowych czy zarządzanych oraz SaaS) – nowy pakiet jeszcze lepiej pomaga firmom dbać o nieprzerwaną dostępność aplikacji. Jedną z nowości oferowanych w ramach pakietu jest współpraca z coraz

popularniejszym wśród klientów systemem Amazon Web Services. Ponieważ trafia do niego coraz więcej aplikacji o znaczeniu krytycznym, potrzebna jest zaawansowana ochrona danych. Zapewnia ją pierwsze na rynku bezagentowe rozwiązanie do backupu Veeam Availability dla AWS, dostarczane dzięki strategicznemu partnerstwu Veeam z N2WS. Zmniejsza ono ryzyko utraty możliwości korzystania z aplikacji oraz zapewnia ochronę danych przechowywanych w AWS przed przypadkowym usunięciem, szkodliwą działalnością oraz nieplanowanymi przestojami. Producent rozszerzył także swoją platformę, dzięki której klienci korzystają z gwarantowanej dostępności środowisk IT – Veeam Always-On Cloud Availability Platform. Specjalnie dla niej stworzono rozwiązanie Veeam Agent dla Microsoft Windows, które zapewnia stałą dostępność serwerów fizycznych i desktopów, bazujących na systemie Windows, jak również aplikacji działających w Microsoft Azure, AWS oraz innych chmurach publicznych. W ramach tej platformy Veeam współpracuje z różnymi partnerami, do których ostatnio dołączyli kolejni dostawcy pamięci masowych: IBM, Lenovo i Infinidat. Dystrybutorami produktów Veeam Software w Polsce są firmy: Tech Data oraz Veracomp.

Dodatkowe informacje: SYLWESTER DERDA, MARKETING MANAGER POLAND, BALTICS & SEE, VEEAM SOFTWARE, SYLWESTER.DERDA@VEEAM.COM VADEMECUM CRN listopad 2017

29

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ VEEAM SOFTWARE.

Dzięki pakietowi Veeam Availability Suite integratorzy mogą zapewnić przedsiębiorstwom bezproblemowe korzystanie z lokalnych i chmurowych usług IT.


BACKUP ŚRODOWISK WIRTUALNYCH

Backup wirtualnych maszyn bez wewnętrznych agentów Efektywne zabezpieczanie danych przechowywanych w środowisku wirtualnym stanowi wyzwanie w związku ze znacznymi różnicami wobec tradycyjnych rozwiązań. Przeszkody wyeliminuje oprogramowanie IBM Spectrum Protect Plus.

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMAMI IBM I BOAT.SYSTEMS.

T

rudno dziś znaleźć środowisko IT, w którym nie jest zwirtualizowana przynajmniej część infrastruktury. Nieustanie rosnąca wydajność sprzętu, możliwość dynamicznej alokacji zasobów, uruchomienia wielu instancji systemów operacyjnych na jednej platformie i mniejsza wrażliwość na problemy w warstwie sprzętowej – to główne argumenty, które przekonały użytkowników do aktywnego korzystania z wirtualizacji. Jednak, mimo wielu jej zalet, nadal konieczne jest regularne wykonywanie kopii bezpieczeństwa. W środowiskach wirtualnych sposób prowadzenia backupu odbiega od tradycyjnego. Nie jest konieczne stosowanie agentów wewnątrz chronionej maszyny wirtualnej, aby zapewnić spójność kopiowanych danych. Dzięki integracji z mechanizmami wirtualizatora i systemu operacyjnego maszyny wirtualnej, oprogramowanie chroniące środowisko wykrywa, które elementy systemu zostały zmienione od momentu wykonania ostatniej kopii zapasowej, i tym samym konieczne jest ich zabezpieczenie. Umożliwia to odzyskiwanie nie tylko pełnego obrazu maszyny wirtualnej, lecz również pojedynczych plików i obiektów. Dla współczesnego oprogramowania backupowego nie powinny stanowić problemu zainstalowane w maszynach wirtualnych aplikacje bazodanowe i serwery poczty elektronicznej. Ma ono zapewnić ochronę aplikacji w formie kopii migawkowej zintegrowanej z mechanizmami regularnego oczyszczania przestrzeni dla logów transakcyjnych. Takie podejście powoduje, że eliminuje się konieczność dodatkowej ochrony przez agenta znajdującego się w maszynie wirtualnej, co znacznie skraca czas wykonywania kopii bezpieczeństwa, i to bez wpływu na poziom ochrony.

30

VADEMECUM CRN listopad 2017

Przemysław Jagoda członek zarządu Boat.Systems

IBM Spectrum Protect Plus jawi się jako bardzo interesująca propozycja na rynku. Wieloletnie doświadczenie tego producenta w zakresie zabezpieczania danych owocuje systemem stabilnym i oferującym ogromne możliwości skalowania, co potwierdzają nasze wewnętrzne testy. Oprogramowanie to będzie stanowiło ciekawą alternatywę popularnych rozwiązań, co moim zdaniem może doprowadzić do zachwiania obecnego układu sił na rynku produktów do backupu wirtualnych maszyn.

W dobie zagrożeń atakami typu ransomware i wchodzenia w życie regulacji dotyczących ochrony danych osobowych system kopii zapasowej powinien zapewnić także replikowanie zgromadzonych danych do ośrodka zapasowego oraz wykonywanie kopii zapasowej na nośniki taśmowe, co znacząco zwiększa szanse przywrócenia danych. Dodając do tego możliwość uruchomienia maszyny bezpośrednio z kopii backupowej, bez jej pełnego odtwarzania, można zagwarantować użytkownikom niemal natychmiastowe przywrócenie dostępu do danych.

rządzania, prostota konfiguracji ustawień ochronnych dla maszyn wirtualnych i możliwość przywracania zasobów bez angażowania osób odpowiedzialnych za backup w firmie. Przejrzysty system delegowania uprawnień i integracja z mechanizmami Active Directory sprawiają, że uprawnienia do korzystania z funkcji oprogramowania mogą być elastycznie dzielone między administratorów i inżynierów z działu wsparcia. W Spectrum Protect Plus zaimplementowano mechanizmy deduplikacji i kompresji danych, wieczny backup przyrostowy oraz predefiniowane reguły polityki retencji danych. Ponieważ reguły te mogą być kształtowane elastycznie, administrator sam decyduje, ile danych przechowuje na jakich nośnikach. Użytkownicy oprogramowania docenią też codzienne raporty o stanie środowiska i możliwość dostosowania ich zawartości do własnych potrzeb. Oprogramowanie Spectrum Protect Plus będzie oferowane w postaci gotowych szablonów dla środowisk wirtualnych oraz jako instalatory dla maszyn fizycznych, co znacznie upraszcza fazę wdrożenia i znacząco skraca czas potrzebny na produkcyjne uruchomienie rozwiązania. Przeprowadzone testy pokazały, że oscyluje on w granicach 15 minut od pobrania wersji instalacyjnej.

BOGACTWO FUNKCJI I PROSTA KONFIGURACJA

Już wkrótce w portfolio IBM pojawi się nowy produkt – Spectrum Protect Plus – do zabezpieczania środowisk wirtualnych. Cechuje go minimalistyczny, a dzięki temu bardzo czytelny interfejs do za-

Dodatkowe informacje: PRZEMYSŁAW JAGODA, CZŁONEK ZARZĄDU BOAT.SYSTEMS, PRZEMEK@BOAT-SYSTEMS.PL MICHAŁ JANIK, CZŁONEK ZARZĄDU BOAT.SYSTEMS, MICHAL@BOAT-SYSTEMS.PL



BACKUP I ARCHIWIZACJA USŁUG CHMUROWYCH

Ch mu ra chroni dane

Przedsiębiorstwa przełamują strach przed chmurą i coraz chętniej przechowują dane u zewnętrznych usługodawców. To trend, od którego nie ma odwrotu.

W

ostatnich miesiącach wydarzenia na rynku pamięci masowych przybrały dość nieoczekiwany obrót. IDC podaje, że w II kw. br. przychody ze sprzedaży macierzy dyskowych dla firm skurczyły się o 5,4 proc. wobec notowanych w analogicznym okresie ub.r. Spadkowa tendencja występuje już od kilku kwartałów. Analitycy przewidują, że w latach 2016–2019 wartość segmentu tradycyjnych macierzy SAN oraz NAS będzie się zmniejszać o 12 proc. rocznie. Dell EMC, NetApp czy HPE muszą coraz ostrzej konkurować z usługodawcami: Amazonem, Google’em, Microsoftem i setkami małych providerów. Analitycy z MarketsandMarkets prognozują, że

32

VADEMECUM CRN listopad 2017

w 2021 r. wartość rynku cloud storage zbliży się do 75 mld dol. Dla porównania w 2016 r. wynosiła niespełna 24 mld dol. Niekwestionowanym liderem w tym segmencie jest Amazon, który uruchomił pierwszą usługę Amazon Simple Storage Service (Amazon S3) już w 2006 r. Gartner szacuje, że serwis gromadzi o 1,6 razy więcej danych niż cała konkurencja razem wzięta. Koncern oferuje szerokie portfolio usług: S3 (pamięć obiektowa), Glacier (archiwizacja), Elastic Block Store (blokowa pamięć masowa), Elastic File System (dane przechowywane w postaci plików), Snowball Edge (urządzenie do przesyłania 100 TB danych z możliwością lokalnego przetwarzania) i Snowmobile (przechowywanie i transport danych).

W gruncie rzeczy to właśnie AWS wyznacza najważniejsze trendy na rynku usług przechowywania danych w chmurze, a innowacje wprowadzane przez firmę Jeffa Bezosa często są powielane przez konkurentów. Grupę pościgową tworzą Microsoft, Google oraz IBM. Analitycy twierdzą, że największe szanse na dogonienie lidera ma pierwszy z wymienionych koncernów. Na platformie Microsoft Azure klienci mogą wybrać jedną z kilku opcji, począwszy od usług Block Storage, podobnie jak w przypadku Amazona bazujących na pamięci masowej, przez możliwość przechowywania plików i bloków po bazy danych NoSQL. Od czasu, kiedy stery w firmie przejął Satya Nadella, Microsoft otwiera się na współpracę z zewnętrzny-

Fot. © WaD – Fotolia.com

WOJCIECH URBANEK


mi dostawcami. Chmura Azure wspiera system Linux, Dockera, a ostatnio koncern z Redmond nawiązał bliską współpracę z NetAppem, uruchamiając usługę Network File System (NFS). Na uwagę zasługuje też oferta IBM, który prawdziwą przygodę z chmurą rozpoczął po przejęciu firmy SoftLayer. Big Blue od 2016 r. promuje swoje usługi chmurowe pod marką Bluemix. Innym ważnym wydarzeniem był ubiegłoroczny zakup Cleversafe – wiodącego dostawcy w segmencie pamięci obiektowej. Niedawno IBM wzbogacił ofertę o usługę COS (Cloud Object Storage). Oczywiście swojej szansy w chmurze szuka też Dell EMC. Tajną bronią tego dostawcy ma być Virtustream, startup przejęty przez EMC w 2015 r. Serwis Virtustream Storage Cloud jest przeznaczony dla specyficznych odbiorców – dużych światowych koncernów, instytucji sektora publicznego i usługodawców.

BACKUP RZĄDZI W CHMURZE Klasyczne macierze dyskowe nie są jedynymi produktami z segmentu pamięci masowych, które tracą udział w rynku. Według IDC w II kw. br. sprzedaż urządzeń do backupu PBBA (Purpose-Built Backup Appliance) spadła ilościowo o 15 proc., a wartościowo o 16 proc. (rok do roku). Analitycy tłumaczą taki stan rzeczy m.in. rosnącą popularnością backupu w chmurze. Agencja MarketsandMarkets przewiduje, że na koniec 2017 r. wartość tego rynku wyniesie 1,3 mld dol., a do 2022 r. wzrośnie ponadtrzykrotnie, do 4,1 mld dol. Na zwiększenie popytu wpływa kilka czynników, m.in. lawinowy przyrost wytwarzanych danych, niższe koszty tworzenia kopii zapasowych niż w środowisku lokalnym, adaptacja SaaS oraz potrzeba ochrony przed rozprzestrzeniającym się ransomware’em. Według badań, przeprowadzonych w 2016 r. przez „Storage Magazine” wśród specjalistów zajmujących się zarządzaniem i administracją pamięciami masowymi, backup to najpopularniejsza usługa wśród firm przechowujących zasoby cyfrowe w chmurze. Na pierwszym miejscu wymieniło ją aż 57 proc. respondentów. W dalszej kolejności ankietowani

Różne oblicza backupu online Usługodawcy działający w segmencie usług chmurowych, a także dostawcy oprogramowania poszukują różnego rodzaju nisz na rynku. Jednym z ciekawszych przykładów jest backup dla usług SaaS. Wśród usługobiorców panuje błędne przekonanie, że dostawca aplikacji w chmurze pokrywa wszystkie potrzeby w zakresie ochrony danych. Firmy bezpowrotnie tracą dokumenty bądź muszą słono płacić za ich odzyskanie. Dlatego aplikacje oraz usługi backupu i odzyskiwania danych dla użytkowników SaaS zyskują coraz większe zainteresowanie. Kopie zapasowe są w tym przypadku przechowywane w prywatnej chmurze, a w razie potrzeby istnieje możliwość szybkiego odzyskania danych.

podawali odzyskiwanie danych po awarii (54 proc.) oraz archiwizację (36 proc). Co ciekawe, użytkownicy backupu online zgłaszają zapotrzebowanie na stosunkowo niewielką pojemność. Najwięcej, bo 40 proc. ankietowanych tworzy kopie zapasowe dla danych poniżej 10 TB, a 16 proc. dla 10–49 TB. Najmniej liczną grupę (7 proc.) stanowią klienci, którzy zamawiają powierzchnię dyskową powyżej 1 PB.

ARCHIWIZACJA ONLINE ŁAMIE STEREOTYPY

O ile duża popularność usług backupu oraz awaryjnego odzyskiwania danych nie stanowi zaskoczenia, o tyle może zaskakiwać wysoka pozycja w badaniach archiwizacji. Chmura jest dobrym miejscem do archiwizacji z co najmniej kilku powodów. Dzięki niej przedsiębiorcy nie muszą inwestować w system przeznaczony do magazynowania setek terabajtów danych i zapewniać jego konserwacji. A gdy ich zasoby rosną, wystarczy, że cyklicznie powiększają archiwum przez zamawianie kolejnych terabajtów u usługodawcy. Najbardziej popularną usługą archiwizacji w chmurze jest Amazon Glacier, a już

wkrótce może jej zagrozić Microsoft oferujący Azure Blob Storage z warstwami „archiwalna” lub „chłodna”. Rynek archiwizacji online otwiera zupełnie nowe możliwości przed integratorami, którzy mogą budować chmury dla klientów. Powszechne dążenie do digitalizacji dokumentów w przedsiębiorstwach, postępująca cyfryzacja służby zdrowia oraz rosnące potrzeby administracji w tym zakresie sprawią, że zamówień w najbliższych latach raczej nie zabraknie. Wiele wskazuje, że archiwizacja w chmurze podtrzyma przy życiu taśmy. Wprawdzie użytkownicy nie zamierzają długo czekać na dostęp do cyfrowych archiwów, ale najnowsze formaty zapisu LTO-7 lub LTO-8 zapewniają bardzo dobre parametry zarówno pod względem pojemności, jak i szybkości transferu danych. W sierpniu media obiegła informacja o rekordzie pobitym przez IBM oraz Sony, którym udało się zmieścić 201 gigabajtów na jednym calu kwadratowym. To oznacza, że na pojedynczej taśmie mieści się 300 terabajtów nieskompresowanego materiału. – W rozwiązaniach do backupu znaczenie taśm spada, aczkolwiek nadal będą wykorzystywane do archiwizacji. To wciąż najtańszy z dostępnych nośników. Średni koszt

Zdaniem integratora q  Radosław Wierchowicz, dyrektor Działu Rozwiązań Chmurowych, Engave

Nie obawiamy się rywalizacji z Amazonem czy Microsoftem. Engave budują ludzie, których klienci znają i cenią za wiedzę i doświadczenie. Potrafimy sprawnie poruszać się po lokalnym rynku. Nasza firma dopasuje, doradzi i pomoże wdrożyć rozwiązanie, które najbardziej odpowiada wymaganiom klienta. Duzi gracze dają wybór konkretnych usług, ale klient zazwyczaj nie może ich nawet lekko zmodyfikować. Poza tym najwięksi gracze nie gwarantują wysokich, często wyśrubowanych poziomów SLA dla środowisk chmurowych.

VADEMECUM CRN listopad 2017

33


BACKUP I ARCHIWIZACJA USŁUG CHMUROWYCH Wolfgang May, Channel Manager na region Europy Środkowej i Wschodniej, Barracuda Networks

WOLFGANG MAY Według nas przyszłość backupu i archiwizacji wiąże się z chmurą i modelem usługowym. Wraz z rosnącą popularnością rozwiązań IaaS i SaaS klienci coraz częściej tworzą hybrydowe środowiska, a one wymagają pełnej ochrony. Dlatego konieczne jest stosowanie rozwiązań, które nie tylko zapewnią bezpieczeństwo danych w obszarze lokalnym, ale mogą również chronić dane w chmurze. Jednocześnie rola resellera się zmienia, staje się on zaufanym doradcą klientów końcowych. Wzrasta rola usług doradczych dla klientów końcowych, a także tworzenia pakietów bazujących na różnych produktach. DANIEL OLKOWSKI Oblicze i charakter rozwiązań do backupu przeszły w ostatnich latach dynamiczną ewolucję dzięki rozwiązaniom chmurowym. Dziś, by zabezpieczyć centrum danych lub urządzenia końcowe, firma nie musi już inwestować w sprzęt, oprogramowanie i administratorów. Rozwiązania backupowe wykonają kopię zapasową do chmury, zaszyfrują dane naszym kluczem, zapewnią poufność i bezpieczeństwo. Partnerzy Dell EMC dokonują przy tym konfiguracji systemu, rozliczenia usług i pełnią nadzór nad procesem ochrony danych.

Daniel Olkowski, Solution Architect, Dell EMC

Marcin Zmaczyński, dyrektor regionalny, Aruba Cloud w Europie Środkowo-Wschodniej

przechowywania petabajta danych przez trzy lata w systemie NAS wynosi 1,6 mln dol., na taśmie zaś tylko 194 tys. dol. – tłumaczy Jon Gacek, CEO firmy Quantum.

INTEGRATORZY WKRACZAJĄ DO AKCJI

Nie wszyscy resellerzy są zainteresowani prostą odsprzedażą usług. Część rodzimych integratorów, chcąc zarobić na chmurowym biznesie, wprowadziło już do oferty usługi cloud. Jak wynika z danych Contextu, polskie firmy IT najczęściej oferują Backup as a Service – informuje tak 47 proc. z nich. Dla porównania sprzedaż Software as a Service ma w ofercie 30 proc. respondentów. Przedsiębiorcy prowadzący biznes w Polsce wykazują rosnące zainteresowanie pierwszą z wymienionych usług przede wszystkim ze względu na nasilające się cyberataki, aczkolwiek nie jest to jedyny stymulator popytu. – Z kwartału na kwartał dostrzegamy wzrost popytu na BaaS, choć każdy klient jest inny i wymaga indywidualnego podejścia. Usługi dostępne „od ręki” zapewniają spełnienie 80 proc. wymagań klientów.

34

Trendy rynkowe i technologiczne

VADEMECUM CRN listopad 2017

MARCIN ZMACZYŃSKI Wśród klientów Aruba Cloud, którzy korzystają z backupu online, są przedstawiciele różnych sektorów, co nie powinno dziwić, ponieważ ochrona danych jest podstawową potrzebą przedsiębiorstwa bez względu na skalę i branżę. Zauważamy jednak, że cloud backup największą popularnością cieszy się wśród małych i średnich firm. Natomiast w ujęciu sektorowym po tego typu usługę chętnie sięgają przedsiębiorcy z branży interaktywnej, software house’y oraz firmy e-commerce, które generują duże ilości danych o produktach, zamówieniach i klientach.

My wykorzystujemy szansę, żeby lepiej zaspokoić ich żądania i zbliżamy się do 100 proc. – mówi Piotr Biela, członek zarządu Netology. Firma już od blisko trzech lat oferuje BaaS w ramach własnej marki Netosphere. Netology przyjmuje całkowitą odpowiedzialność za zabezpieczanie i zarządzanie danymi klienta. Usługi backupu oraz odzyskiwania danych po awarii świadczy też Engave, który zbudował swoje środowisko, bazując na rozwiązaniach Veeam oraz Zerto. – To producenci neutralni sprzętowo, a ich oprogramowanie obsługuje dwa najpopularniejsze rozwiązania wirtualizacyjne. Ponadto w odmienny sposób podchodzą do zaspokajania potrzeb klientów. Nie zmienia to faktu, że oferujemy też alternatywne rozwiązania, które służą na przykład do zabezpieczania maszyn wirtualnych. Korzystamy z darmowej wersji platformy ESXi, której wspomniane produkty nie obsługują – wyjaśnia Radosław Wierchowicz, dyrektor Działu Rozwiązań Chmurowych w Engave. Integrated Solutions dwa lata temu nawiązał współpracę z firmą Veeam.

Od tego czasu integrator oferuje backup w chmurze, wykorzystując rozwiązania tego producenta i zasoby infrastrukturalne Orange. – Platforma Veeam nie jest jedynym rozwiązaniem, które oferujemy naszym klientom. Ale jej uniwersalność zapewnia całkowite zaspokojenie potrzeb średnich i dużych firm. W razie awarii zasoby cyfrowe można przywracać z chmury dosłownie kilkoma kliknięciami – tłumaczy Artur Matzka, dyrektor Departamentu Produktów i Usług IT&EUC w Integrated Solutions. Integratorzy obsługują bardzo różne grupy klientów. Zgłaszają się do nich zarówno niewielkie firmy, których nie stać na zapasową infrastrukturę, jak i duże koncerny poszukujące przestrzeni do przechowywania dodatkowej kopii zapasowej poza własnym centrum danych, co najczęściej dotyczy zasobów archiwalnych. Integratorzy nierzadko muszą konkurować z Amazonem, Google’em czy Microsoftem. Na pierwszy rzut oka ich misja wydaje się straceńcza. Jednak okazuje się, że klienci czasami wolą podpisać umowę z lokalną firmą niż z gigantem.


Synology – wszystkie opcje są możliwe Firma Synology od lat stara się, aby jej oprogramowanie zapewniało jak najwięcej opcji ochrony danych. Ostatnio rozszerzyła system operacyjny swoich serwerów NAS o funkcje backupu usług chmurowych. BACKUP DLA G SUITE I OFFICE 365

CHMURA TAKŻE OD SYNOLOGY

Nowością Synology jest funkcja wykonywania backupu z i do usług Google G Suite oraz Microsoft Office 365. Korzysta z nich coraz więcej firm, więc konieczne stało się zagwarantowanie wykonywania kopii zapasowej w celu ochrony przed atakami i przypadkowym usunięciem danych. W ten sposób wyeliminowana została konieczność korzystania z kosztownych rozwiązań do przechowywania kopii zapasowych w chmurze. Możliwe jest utworzenie kopii zapasowych przechowywanych w zasobach dyskowych plików, uprawnień udostępniania plików i ich metadanych (takich jak czas ostatniej modyfikacji, kolor folderu i opis pliku), a także aplikacji internetowych Google (Dokumenty Google, Arkusze Google, Prezentacje Google i Rysunki Google) lub wirtualnych dysków OneDrive for Business. Pakiety Active Backup for G Suite oraz Active Backup for Office 365 zapewniają tworzenie kopii zapasowych danych z wielu domen oraz ich kontrolowanie dzięki wszechstronnym funkcjom, co pod-

Środowisko gwarantowanej ochrony danych według Synology

Serwer backupu

By spełnić oczekiwania klientów, producent sam stworzył usługę chmurową Synology Cloud² (Synology C2) przeznaczoną zarówno dla przedsiębiorstw, jak i dla użytkowników domowych. Dzięki niej możliwe jest wysyłanie do chmury dodatkowych kopii ważnych plików i zapewnienie ich dostępności w przypadku awarii. Usługi C2 są znacznie tańsze niż samodzielny wynajem przez klienta przestrzeni dyskowej w profesjonalnym centrum danych oraz zakup sprzętu i szkolenie administratorów. Wszystkie przechowywane dane są szyfrowane, a klucz prywatny zna tylko ich właściciel. Bez niego nikt nie odszyfruje danych przechowywanych w chmurze C2, nawet specjaliści Synology. W ofercie C2 są dwie usługi: C2 Backup i C2 DisasterRecovery. Pierwsza zapewnia mechanizm tworzenia kopii zapasowych plików podobny do tego w systemie DSM. Możliwe jest automatyczne uruchamianie tworzenia kopii zapasowych w określonym czasie lub powtarzanie tego procesu zgodnie z harmonogramem. Natomiast usługa C2 Disaster Recovery maksymalizuje czas nieprzerwanej pracy usług przez replikację lokalnych serwerów DSM do Synology C2. Jeżeli serwer Synology NAS przejdzie w tryb offline z powodu awarii, można płynnie przełączyć usługi do wirtualnego DSM na Synology C2.

Serwer plików Dodatkowe informacje: MAGDALENA O’DWYER, PRODUCT MANAGER, SYNOLOGY, MAGDALENAD@SYNOLOGY.COM VADEMECUM CRN listopad 2017

35

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ SYNOLOGY.

B

ackup realizowany z wykorzystaniem wbudowanego w serwery Synology systemu DiskStation Manager można przeprowadzić na kilka sposobów. Dostępne są narzędzia do backupu różnych usług chmurowych na lokalne zasoby oraz z lokalnych do chmury. Oczywiście uzupełniają one oferowany od początku klasyczny backup stacji roboczych i serwerów na dyski w NAS-ie oraz możliwość dodatkowego skopiowania danych na dysk zewnętrzny, podłączony przez port USB. Jeden z przykładów tego typu funkcji to pakiet Active Backup for Server. Umożliwia tworzenie kopii zapasowych plików — zarówno w systemie Windows (protokół SMB), jak i Linux (protokół Rsync) — bez instalowania na serwerach źródłowych agentów, które mogłyby wpłynąć na wydajność tych urządzeń. Dzięki temu uproszczony zostaje proces konfiguracji, a także zredukowane koszty obsługi całego środowiska. Wszystkie zadania tworzenia kopii zapasowych w sieci mogą być monitorowane z jednego miejsca, bez zmiany programów i interfejsów.

nosi skuteczność administratorów działów IT w zakresie zarządzania. Centralny pulpit udostępnia im takie informacje jak stan kopii zapasowej, zużycie pamięci oraz historia transmisji. Natomiast narzędzie Account Discovery zapewnia, że nowo utworzone konta użytkowników są automatycznie wykrywane i dodawane do kopii zapasowej, co minimalizuje prawdopodobieństwo pozostawienia ich bez backupu danych. Dzięki niemu pracownicy sami łatwo odzyskają pliki lub foldery przy użyciu intuicyjnego portalu.


BACKUP I ARCHIWIZACJA USŁUG CHMUROWYCH

Backup w chmurze – na dobre i na złe

Chmura obliczeniowa może być wykorzystywana nie tylko do przechowywania przetwarzanych na bieżąco danych, ale także ich kopii backupowych oraz do tworzenia środowisk gwarantujących ciągłość pracy w przypadku długotrwałej awarii lub katastrofy. Pełną ofertę w tym zakresie ma Aruba Cloud.

B

ezpieczeństwo danych jest jedną z głównych korzyści ze stosowania backupu w chmurze. Przez ponad dekadę obecności tego typu usług na rynku ich dostawcy rozwiali obawy przed potencjalnym naruszeniem poufności danych klientów. Dzięki temu coraz powszechniejsze stało się wykorzystywanie chmury obliczeniowej, zarówno przez użytkowników indywidualnych, jak i przedsiębiorstwa. Ta forma zabezpieczania zasobów jest wręcz obecnie jednym z najbardziej widocznych trendów technologicznych. Internauci przekonali się już, że posiadanie kopii zdjęć lub dokumentów

w zasobach chmurowych typu Dropbox, OneDrive czy iCloud jest nie tylko wygodne, ale pomaga także chronić ich dane. Przedsiębiorstwa również dostrzegają zalety backupu w modelu cloud. Potwierdza to analiza firmy badawczej TechNavio, według której roczna skumulowana stopa wzrostu (CAGR) globalnego rynku usług backupu w chmurze do 2020 r. przekroczy 27 proc. Ofertę backupu w chmurze ma także Aruba Cloud. Dzięki usłudze Cloud Backup możliwe jest przechowywanie w profesjonalnym centrum danych automatycznie wykonywanych kopii pojedyn-

czych plików, folderów oraz zawartości całych maszyn wirtualnych lub fizycznych. Wszystkie zabezpieczane dane są szyfrowane kluczem AES, a zarządza się nimi za pomocą jednego graficznego interfejsu użytkownika. Aby zopytymalizować wykorzystanie przestrzeni, wszystkie kopiowane do chmury dane są deduplikowane i kompresowane. Backup realizowany jest metodą przyrostową – po wykonaniu pierwszej kopii, podczas tworzenia kolejnych do chmury przenoszone są tylko powstałe w międzyczasie zmiany. Usługę Cloud Backup można kupić w modelu pay-per-use (cena wynosi 6,45 zł miesięcznie za każde rozpoczęte 10 GB) lub na zasadzie ustawionego odgórnie rozmiaru przestrzeni dyskowej w pakietach 50 GB (30 zł), 100 GB (55 zł), 250 GB (125 zł) oraz 500 GB (228 zł). Natomiast dla klientów o wysokich wymaganiach przygotowany został plan taryfowy Business Backup, gwarantujący przechowywanie ogromnych ilości danych. W ramach tego planu oferowane są różne pakiety, w cenie od 430 zł za 1 TB do 6880 zł za 20 TB (wszystkie ceny netto). Aruba dopuszcza zmianę planu taryfowego w dowolnym momencie. Każdy użytkownik może mieć wiele kont typu Backup, które opłaca według różnych taryf.

ZGODNOŚĆ Z RODO I CISPE Wchodzące w życie w przyszłym roku unijne Rozporządzenie o Ochronie Danych Osobowych od samego początku budziło zainteresowanie dostawców

36

VADEMECUM CRN listopad 2017


CRN Jaką przewagę ma backup w chmurze nad wykonywanym w tradycyjny sposób? MARCIN ZMACZYŃSKI Mogłoby się wydawać, że to tylko inne miejsce przechowywania kopii z danymi. Ale backup w chmurze niesie ze sobą wiele dodatkowych korzyści dla użytkowników. Z doświadczenia wiemy, że gdy w firmie pojawi się problem z danymi, źle zaczyna się dziać „po całości”. Na przykład kiedy zaatakuje ransomware, dane są szyfrowane nie tylko na dyskach komputerów osobistych czy serwerów, ale także na dyskach sieciowych. Tymczasem zanim te zaszyfrowane dane zostaną skopiowane także do chmury, administrator ma czas by zorientować się, że coś jest nie w porządku, i zatrzymać wykonywanie backupu. CRN Czy klientowi, który ma aktualne oprogramowanie antywirusowe usług chmurowych, niektórzy z nich byli też zaangażowani w jego tworzenie. Dla tej branży bezpieczeństwo danych powierzonych przez klientów ma absolutny priorytet. Dlatego Aruba Cloud w koalicji z ponad 20 dostawcami usług infrastruktury chmurowej w Europie (Cloud Infrastructure Services Providers in Europe) wprowadziła kodeks postępowania w dziedzinie ochrony danych. Zgodnie z nim dostawcy usług IaaS nie mogą przetwarzać i profilować danych osobowych klientów na potrzeby marketingu, reklamy lub podobnych działań. Nie mogą tego czynić ani na potrzeby własne, ani w celu odsprzedaży innym przedsiębiorstwom. To tylko jedno z wielu obostrzeń, jakie nałożyły na siebie firmy będące członkami koalicji. Warto wspomnieć, że kodeks CISPE powstał wcześniej niż rozporządzenie RODO i jest zgodny z wymaganiami określonymi w unijnym rozporządzeniu. Wszystkie usługi chmurowe o zadeklarowanej zgodności z kodeksem CISPE są oznaczone przyjętym do tego celu znakiem. Firmy działające w UE mogą więc

Marcina Zmaczyńskiego, dyrektora regionalnego Aruba Cloud w Europie Środkowo-Wschodniej i twierdzi, że ransomware mu niestraszny, można wskazać jeszcze jakieś inne korzyści? MARCIN ZMACZYŃSKI Przede wszystkim antywirusy nie zawsze chronią przed atakiem typu ransomware – w bieżącym roku mieliśmy kilka spektakularnych tego przykładów. Poza tym backup w chmurze szybko zyskuje popularność także dlatego, że stanowi ważny element szerszej strategii gwarantowania stałej dostępności danych i ciągłości działania systemów IT. Przedsiębiorcy zaczynają rozumieć, że poleganie jedynie na lokalnym backupie i firmowej infrastrukturze nie jest optymalną strategią. Wręcz przeciwnie, backup w chmurze jest wybawieniem w przypadku katastrof, np. pożaru, zalania albo zawalenia się budynku. Tą metodą ochrony zasobów interesuje się coraz więcej firm, bo jest znacznie tańsza niż replikacja danych. dokonać bardziej świadomego wyboru w zakresie przechowywania i przetwarzania swoich danych w Europejskim Obszarze Gospodarczym. Wszystkie usługi chmurowe, w przypadku których usługodawcy zadeklarowali zgodność z kodeksem CISPE, można znaleźć w publicznym rejestrze pod adresem www.cispe.cloud/ publicregister. Aruba gwarantuje, że nie tylko Cloud Backup, ale wszystkie świadczone przez nią usługi chmurowe spełniają wymogi stawiane przez kodeks CISPE.

ARUBA CLOUD W POLSCE Dostawca nieustannie rozwija ofertę usług. Od października 2017 są dostępne także z centrum danych znajdującego się w Polsce, zarządzanego przez jednego z liderów rynku. Ma to szczególne znaczenie dla klientów, którzy z różnych powodów, głównie legislacyjnych, zmuszeni są do przechowywania w Polsce danych swoich i klientów. W ten sposób udostępniona jest cała oferta Aruby – wirtualne prywatne serwery Cloud

CRN Część klientów jednak nadal wyraża obawy przed przechowywaniem swoich danych w serwerowni firmy trzeciej… MARCIN ZMACZYŃSKI Rzeczywiście, ale badania rynkowe pokazują, że mimo tych obaw to właśnie chęć lepszego zabezpieczenia danych motywuje firmy do wdrażania takich usług jak backup w chmurze czy odzyskiwanie awaryjne w przypadku katastrofy, bazujące na chmurze (Disaster Recovery as a Service). Z wielu przeprowadzonych wśród małych i średnich przedsiębiorstw badań wynika, że najważniejszą korzyścią ze stosowania tej formy backupu jest zwiększenie poziomu bezpieczeństwa danych. Nie ma więc przypadku w tym, że większość nowoczesnych firm wykonuje zdecydowany zwrot ku modelowi usługowemu, m.in. w celu lepszej ochrony swych zasobów IT oraz zagwarantowania wysokiej dostępności danych. Narzędzia te stają się nieocenione dla przedsiębiorstw poważnie podchodzących do przeciwdziałania atakom typu ransomware oraz do kwestii bezpieczeństwa informatycznego. VPS, infrastruktura IT w modelu Cloud Pro, wyniesione prywatne centrum danych Private Cloud oraz usługi Cloud Backup. Zainteresowani klienci mogą także przenosić instancje wirtualnych maszyn między centrami danych w różnych miejscach w Europie. W ten sposób zapewniona zostaje tzw. georedundancja oraz stały dostęp do danych nawet w przypadku, gdyby całe data center dotknął jakiś problem. Wszystkie placówki Aruby gwarantują wysoką wydajność zasobów IT oraz ich nieprzerwaną dostępność, a dla najbardziej wymagających klientów przygotowane zostały dwa centra danych we Włoszech, którym przyznano certyfikat Rating 4 według normy ANSI-TIA.

Dodatkowe informacje: MARCIN ZMACZYŃSKI, REGIONAL DIRECTOR CEE, ARUBA CLOUD, MARCIN.ZMACZYNSKI@ARUBACLOUD.PL VADEMECUM CRN listopad 2017

37

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ ARUBA CLOUD.

>>> Trzy pytania do…


Fot.© Gorodenkoff – Fotolia.com

ZAPASOWE CENTRA DANYCH I KOLOKACJA

U klienta, u integratora, czy w chmurze? Gdy integrator chce świadczyć usługi z wykorzystaniem własnej infrastruktury, staje przed strategicznym wyborem. Czy lepiej budować i utrzymywać serwerownię, czy może skorzystać z oferty operatora centrum danych? TOMASZ JANOŚ

W

łasna serwerownia zapewnia niezależność i kontrolę nad środowiskiem IT. Integrator sam decyduje o tym, jak jest realizowany dostęp do infrastruktury. Określa, jaki powinien być poziom zabezpieczeń i sposób zarządzania serwerownią. Decyzja o inwestycji wiąże się jednak z wieloma wyzwaniami, takimi chociażby jak uzyskanie pozwoleń, przydziału mocy czy zapewnienie łączności telekomunikacyjnej. Bez wątpienia tworzenie nowego obiektu od podstaw jest zarówno czasochłonne, jak i kosztowne. Druga opcja tworzenia centrum danych to skorzystanie z gotowej oferty wyspecjalizowanych firm. Operatorzy, zachęcając do wstawienia serwerów do ich centrów, dowodzą,

38

VADEMECUM CRN listopad 2017

że budowa własnego jest z wielu względów nieuzasadniona. Zestawiając całościowe koszty funkcjonowania centrum danych, pokazują, że kolokacja zawsze będzie rozwiązaniem bardziej efektywnym. Warszawski Atman powołuje się na analizę, którą przeprowadził wspólnie z Audytelem. Pod uwagę wzięto dwa przypadki: w pierwszym założono, że przedsiębiorstwo potrzebuje 100 mkw. powierzchni serwerowej, a w drugim obliczono nakłady inwestycyjne i koszty operacyjne dla firmy z sektora MŚP, która potrzebuje trzech szaf serwerowych. Rozważano cztery scenariusze: budowę własnego centrum danych, budowę serwerowni w budynku biurowym, dalszą eksploatację obecnej serwerowni i kolokację u zewnętrznego operatora data

center. Analiza wykazała, że skala oszczędności uzyskanych dzięki kolokacji – w każdym z przypadków – jest znacząca. Zainwestowanie we własną infrastrukturę bywa jednak opłacalne w szczególnych przypadkach. Przykładowo, gdy serwerownia ma spełniać specyficzne potrzeby, związane chociażby z niestandardowym sprzętem, aplikacjami i parametrami. Będzie korzystne także wtedy, gdy firma jest pewna stałego i dużego obciążenia własnego centrum danych w długiej perspektywie czasu. Należy jednak pamiętać, że infrastruktura się zużywa, a to pociąga za sobą wydatki, nawet znaczne. W przypadku remontu czy regeneracji istotnych elementów serwerowni mogą też wystąpić problemy z redundancją.


AŻ 70 PROCENT TANIEJ? Zarówno warszawski Atman, jak i poznański Beyond.pl twierdzą, że firmy korzystające z profesjonalnego centrum danych wydają dużo mniej niż gdyby utrzymywały własne. Specjaliści Atmana dowodzą, że w przypadku małych i średnich firm outsourcing centrum danych może dać oszczędności rzędu 70 proc. kosztów inwestycji we własne centrum danych (i to zarówno, jeśli chodzi o rozbudowę własnej serwerowni, jak i adaptację budynku biurowego dla nowej placówki). Na oszczędności ma wpływ m.in. fakt, że w przypadku kolokacji klient zaczyna korzystać z nowoczesnej infrastruktury niemal natychmiast. Tańszy jest też zakup energii elektrycznej, bo duży obiekt może negocjować ceny ze względu na skalę prowadzonej działalności. Mniejsze są także koszty utrzymania infrastruktury i potrzebnego do jej obsługi personelu, bo rozkładają się na wszystkich klientów centrum danych. Według Beyond.pl pierwszym czynnikiem wpływającym na tak duże obniżenie kosztów jest infrastruktura. Zastosowane technologie przyczyniają się do mniejszego zużycia energii elektrycznej. Przykładowe rozwiązania, które wykorzystują duże centra danych, to: chłodzenie adiabatyczne, system zasilania awaryjnego Diesel Rotary UPS, żelbetonowa konstrukcja budynku, ułatwiająca utrzymanie niskiej temperatury oraz mechanizmy usprawniające usuwanie ciepła generowanego przez serwery. Do tego dochodzi kompleksowość usług. – Oferujemy kolokację, serwery dedykowane oraz dwa rodzaje chmury. Dzięki temu możliwe jest budowanie środowisk hybrydowych z wykorzystaniem rozwiązań jednego dostawcy, co przekłada się na atrakcyjną cenę – twierdzi Maciej Madziała, IT Soultions Architect w Beyond.pl. Ważna jest też neutralność telekomunikacyjna centrum danych, która daje możliwość negocjacji cen z operatorami. Na przykład w przypadku centrów danych Beyond.pl każdy operator telekomunikacyjny może oferować swoje usługi, a decyzję odnośnie do wyboru podejmuje klient. Także Atman w swoim warszawskim obiekcie wprowadził możliwość przyłączenia się do wielu operatorów na jednakowych dla wszystkich zasadach.

Dla obniżenia kosztów w przypadku korzystania z zewnętrznego centrum danych niebagatelne znaczenie mają również specjaliści, którzy wspierają klientów w administrowaniu środowiskami. W efekcie firmy nie muszą zatrudniać nowych pracowników do działu IT.

CO CENIĄ INTEGRATORZY Operatorzy potwierdzają, że integratorzy – jako klienci centrów danych – najczęściej korzystają z oferty kolokacji. Gdy umieszczą własne serwery w profesjonalnym otoczeniu technicznym, mają zapewnione bezpieczeństwo fizyczne, energetyczne i pełne spektrum łączy telekomunikacyjnych. Zakres wykorzystania usługi jest różny – od wydzielonego całego pomieszczenia (które w zasadzie staje się samodzielnym centrum danych), przez kilka szaf, po przestrzeń w pojedynczej szafie – najczęściej wielokrotność jednostki U. Firmy IT wolą kolokację od hostingu, czyli wykorzystania infrastruktury serwerowej operatora. Bo choć w takim przypadku muszą kupić własny sprzęt, korzystają na mniejszych ograniczeniach technicznych. Kolokacja daje im także możliwość zdobycia klientów, dla których świadczone przez operatora usługi hostingowe, polegające na konfigurowaniu maszyn przy użyciu gotowych szablonów na stronie internetowej, są daleko niewystarczające. Uruchamiając na własnych serwerach hosting dla klientów, integrator tworzy zazwyczaj bardziej spersonalizowane rozwiązania (także hybrydowe, czyli połączone z infrastrukturą klienta) i dzięki temu lepiej na takich usługach zarabia. Za skorzystaniem z hostingu przemawia natomiast uzyskanie większej elastyczności działania i szybkości reagowania na zmiany. Przejawiać się to może dodawaniem różnych usług operatora do usług własnych, co prowadzi do stworzenia zróżnicowanej i bardziej kompleksowej oferty. W profesjonalnym centrum danych integrator zyskuje dostęp do najnowszych technologii i know-how usługodawcy, który zapewnia mu ciągłość biznesu (dzięki redundancji), a także umożliwia spełnienie wymagań określonych przez przepisy prawne i regulacje branżowe.

ZAPASOWE CENTRUM DANYCH Określenie zapasowe centrum danych ma różne znaczenia. Może to być jedynie bezpieczne miejsce przechowywania kopii danych albo zapasowe środowisko IT (infrastruktura), umożliwiające podjęcie po pewnym, niezbyt długim czasie normalnej działalności w razie uszkodzenia lub zniszczenia podstawowych zasobów IT. – Może to być także infrastruktura działająca równolegle z tą podstawową, która jest wykorzystywana w firmie. Wówczas awaria jednego ośrodka powoduje najwyżej spowolnienie pracy systemów IT – podkreśla Zbigniew Szkaradnik, prezes zarządu 3S Data Center.

Kolokacja czy chmura? Firmom, które chcą zacząć świadczenie usług, chmura daje możliwość rozpoczęcia działania niemal od zaraz. Postawienie kilku maszyn wirtualnych, na których zostanie uruchomione rozwiązanie dla klientów – czy to będzie oprogramowanie w modelu SaaS, czy aplikacja realizująca jakieś konkretne zadanie – jest bardzo proste i nie wymaga dużych nakładów finansowych. Gdy jednak przekracza się pewien próg krytyczny i potrzeba wielu maszyn wirtualnych, opłata za usługę może okazać się znaczącym kosztem. Należy także pamiętać, że tanie usługi chmury publicznej są tworzone na zasadach nadsubskrypcji. Jej operator może zaproponować niską cenę, bo sprzedaje wielu klientom tę samą, współużytkowaną infrastrukturę, zakładając, że nie wszyscy będą jednocześnie z niej korzystać. W przypadku, gdy integratorowi zależy na infrastrukturze, która będzie zapewniać 100 proc. mocy obliczeniowej w trybie 24/7, za usługę (która tym samym staje się hostingiem) będzie zmuszony zapłacić więcej. Bywa też, że infrastruktura chmurowa uniemożliwia uruchomienie aplikacji starszego typu, niedostosowanych do działania w tego typu środowisku. Wtedy kolokacja własnych serwerów może okazać się lepszym rozwiązaniem.

VADEMECUM CRN listopad 2017

39


ZAPASOWE CENTRA DANYCH I KOLOKACJA

Robert Mikołajski kierownik Działu Rozwoju Biznesu, Atman

Maciej Madziała IT Soultions Architect, Beyond.pl

ROBERT MIKOŁAJSKI Jeśli weźmiemy pod uwagę całościowe koszty funkcjonowania centrum danych, a więc wydatki na infrastrukturę i jej modernizację, koszty utrzymywania obiektu, energii elektrycznej i wynagrodzenia pracowników, okaże się, że kolokacja zawsze będzie efektywniejszym rozwiązaniem niż własna serwerownia. Z obliczeń Atmana, przeprowadzonych we współpracy z Audytelem, wynika, że na przestrzeni 20 lat outsourcing będzie niemal dwukrotnie tańszy w porównaniu do inwestycji we własne centrum danych o powierzchni 100 mkw. MACIEJ MADZIAŁA Zdecydowaliśmy się na certyfikację centrum danych, ponieważ tego typu oficjalne dokumenty określają precyzyjnie standard obiektu. Pozwalają także klientowi na porównanie ofert, dając pojęcie o warunkach, w jakich będą przechowywane jego dane. Wybraliśmy standaryzację według niezależnej międzynarodowej instytucji, jaką jest American National Standards Institute, bo to najbardziej szczegółowy audyt w tej branży. Certyfikacja dotycząca ANSI/TIA-942 polegała na weryfikacji ponad 2,6 tys. różnych wymogów.

Zbigniew Szkaradnik prezes zarządu, 3S Data Center

Wybór rodzaju zapasowego centrum danych zależy od celu, jaki ma ono spełniać. Między kolokacją i chmurą publiczną – dwoma skrajnymi rozwiązaniami – znajduje się wiele rozwiązań pośrednich, np. wynajem infrastruktury serwerowej (serwery dedykowane) oraz chmura prywatna. Kolokacja to metoda wybierana przez tych, którzy chcą polegać na własnym sprzęcie i – przynajmniej na razie – wykluczają opcję skorzystania z rozwiązań centrum zapasowego w chmurze publicznej. Wrażliwe na te kwestie są szczególnie sektory: bankowo-finansowy, ubezpieczeniowy i administracja państwowa. W przypadku tworzenia zapasowego centrum danych przy użyciu kolokacji oferta operatów często jest wzbogacana o specjalne łącza między centrum podstawowym a zapasowym. W takim rozwiązaniu bardzo duże znaczenie ma odległość między obydwoma ośrodkami przetwarzania danych. Jeśli zastosowane rozwiązanie ma pracować w trybie active-active, najczęściej odległość nie może przekraczać 30 km.

40

Zdaniem operatorów

VADEMECUM CRN listopad 2017

ZBIGNIEW SZKARADNIK Kolokacja jest, zwłaszcza dla małych i średnich podmiotów, rozwiązaniem technicznie lepszym, bardziej niezawodnym i na dodatek tańszym niż własna serwerownia. Zbudowanie własnego centrum danych może być opłacalne w przypadku wielkich korporacji lub dużych banków. Wybór zależy więc od skali, kapitału, uwarunkowań prawnych, czasu potrzebnego na budowę obiektu oraz ryzyka biznesowego. Rachunki pokazują, że o budowie własnego centrum danych nie warto myśleć, jeśli ma mieścić mniej niż 50 szaf serwerowych i musi być uruchomione w czasie krótszym niż dwa lata.

CENTRUM W CHMURZE Inna opcja polega na budowie zapasowego centrum danych w chmurze publicznej lub prywatnej. Rozwiązanie to jest dobre dla przedsiębiorstw, które potrzebują redundancji przy jak najmniejszym zaangażowaniu operacyjnym. W tym wypadku nie trzeba łączyć ośrodków przetwarzania danych za pomocą specjalnych łączy telekomunikacyjnych ani zatrudniać specjalistów utrzymujących infrastrukturę IT. Rozwiązanie charakteryzuje się niską barierą wejścia i możliwością uruchomienia praktycznie z dnia na dzień. Wadą zapasowego centrum danych w chmurze jest to, że nie wszystkie scenariusze redundancji można zrealizować, a przy bardziej złożonych systemach (szczególnie starszych i specyficznych) potrzebna będzie przebudowa firmowej architektury. Może się też okazać, że w ten sposób uda się zabezpieczyć tylko część procesów przetwarzania danych. – Jednak w większości przypadków chmura publiczna jest dobrym wyborem, a dla backupu ważnych danych chyba nie

ma lepszego rozwiązania, jeśli weźmiemy pod uwagę elastyczność i nakłady finansowe, jakie trzeba ponieść, by móc z niego skorzystać – twierdzi Adam Dzielnicki, Product Manager w Atmanie. Firmy, które oczekują bardziej indywidualnego podejścia, chętniej wybierają chmurę prywatną, czyli system szyty na miarę. Wiele przedsiębiorstw wybiera rozwiązanie hybrydowe, które zakłada także wsparcie w warstwie operacyjnej. Aby w pełni wykorzystać możliwości oferty operatora – w zakresie kolokacji, hostingu czy usług chmurowych – firma IT potrzebuje odpowiednio wydajnej sieci. Także stosowanie wirtualizacji i konsolidacji powoduje, że rośnie zapotrzebowanie na infrastrukturę sieciową, w której nie będzie dochodziło do tworzenia się wąskich gardeł i powstawania wpływających na jakość usług opóźnień. Dlatego ważne jest, aby być na bieżąco z ofertą firm sprzedających rozwiązania do kontroli jakości transmisji oraz narzędzia do monitorowania infrastruktury sieciowej, które służą do identyfikowania i rozwiązywania ewentualnych problemów.


Ochrona danych

na każdym poziomie Bezpieczeństwo zasobów IT stanowi coraz większe wyzwanie dla firm. Kampania edukacyjna Beyond.pl „Bezpieczeństwo zaczyna się u podstaw” pokazuje, od jak wielu czynników zależy skuteczna ochrona danych.

P

odstawą bezpiecznego przetwarzania danych jest infrastruktura, czyli wysokiej jakości sprzęt, odpowiednie zabezpieczenia fizyczne i warunki środowiskowe. – Ulokowanie zasobów w specjalistycznym centrum danych oznacza zabezpieczenie przed problemami związanymi z utratą zasilania czy awarią chłodzenia – przekonuje Maciej Madziała, IT Solutions Architect w Beyond.pl. – Gwarantuje też całodobowy monitoring oraz ochronę przed dostępem nieupoważnionych osób do firmowych zasobów. Należące do Beyond.pl Data Center 2 to jedyny obiekt w Europie Środkowo-Wschodniej z certyfikatem Rated 4 wg ANSI/ /TIA-942, który gwarantuje najwyższy poziom ochrony danych potwierdzony przez audyt niezależnej instytucji.

SYSTEMOWE ZABEZPIECZENIE DANYCH

EDUKACJA W ZAKRESIE BEZPIECZEŃSTWA Aby pokazać, jak funkcjonuje bezpieczne centrum danych współpracujące z różnego rodzaju partnerami technologicznymi, Beyond.pl stworzył w Data Center 2 trasę edukacyjną. Od stycznia 2017 r. obiekt odwiedziło ponad tysiąc osób, w tym wiceprezes Microsoftu Aziz Benmalek, przedstawiciele instytucji publicznych, uczelni, korporacji, a także małych i średnich przedsiębiorstw z różnych branż. Szansa zobaczenia centrum danych, a także przejście trasą edukacyjną, to doskonały sposób na zrozumienie złożoności procesu bezpieczeństwa IT. Firmy partnerskie współpracujące z Beyond.pl także mogą zapraszać klientów końcowych do zobaczenia poznańskiego obiektu. Wniosek o wizytę można złożyć, korzystając z formularza na stronie security.beyond.pl. Pomysłodawcą i koordynatorem akcji „Bezpieczeństwo zaczyna się u podstaw” jest Beyond.pl, dostawca usług chmurowych i kolokacji, a jej partnerami są firmy: Veeam, Grey Wizard, Instytut Ochrony Danych Osobowych oraz Transparent Data.

Dodatkowe informacje: KRZYSZTOF SIWEK, INŻYNIER WSPARCIA SPRZEDAŻY, BEYOND.PL, K.SIWEK@BEYOND.PL VADEMECUM CRN listopad 2017

41

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ BEYOND.PL.

Stworzenie stabilnej infrastruktury jest pierwszym krokiem zapewniającym bezpieczeństwo, ale przedsiębiorstwa muszą chronić się kompleksowo. Kolejny stopień zabezpieczeń to backup. Aby zapobiec utracie danych, warto stosować prostą zasadę 3-2-1. Każda kopia powinna być przechowywana w trzech egzemplarzach, na dwóch różnych nośnikach, z czego jeden powinien być poza główną siedzibą firmy, np. w chmurze. Ogromnym wyzwaniem, które stoi przed każdym przedsiębiorstwem niezależnie od wielkości, jest zapewnienie cyberbezpieczeństwa. Według raportu PwC cyberataki stanowią aż 29 proc. wszystkich przestępstw gospodarczych. Dwiema najpopularniejszymi, a jednocześnie stanowiącymi największe zagrożenie dla firm formami ataku są ransomware oraz DDoS. Dane osobowe także należy właściwie chronić, stosując takie proste praktyki jak: zaklejanie kamery laptopa, szyfrowanie e-maili i częste zmienianie hasła do komputera. Finalnie zabezpieczyć trzeba również narzędzia, czyli aplikacje, a tutaj pomocna może być lista OWASP (Open Web Application Security Project). Dla przykładu, jednym z 10 najistotniejszych błędów w zabezpieczeniach aplikacji internetowych jest zbytnie eksponowanie danych wrażliwych, takich jak numery kart kredytowych, haseł czy dat urodzenia (opisane w tzw. dokumencie A6). Komplet materiałów dotyczących ochrony danych można znaleźć na stronie security.beyond.pl. Zamieszczone tam filmy oraz artykuły stworzone zostały przez praktyków i ekspertów branży IT, dlatego stanowią rzetelne źródło wiedzy zarówno dla firm partnerskich, jak i użytkowników końcowych.


ZAPASOWE CENTRA DANYCH I KOLOKACJA

Alstor

– od pamięci masowych do rozwiązań sieciowych Niezależnie od tego, czy dane będą przechowywane lokalnie, czy zdalnie (w firmowej infrastrukturze lub w zasobach operatora centrum danych), dająca do nich dostęp sieć musi działać wydajnie, niezawodnie i bezpiecznie.

A

lstor od lat specjalizuje się w dostarczaniu rozwiązań do bezpiecznego przechowywania danych. Można z nich korzystać we własnej serwerowni, mogą też chronić firmowe dane w wynajętej przestrzeni technicznej usługodawcy. Aby w pełni i bezproblemowo z nich korzystać, trzeba dysponować efektywną infrastrukturą sieciową. Dlatego w poszukiwaniu produktów, które uzupełniłyby portfolio dystrybutora, naturalne było skierowanie uwagi na rozwiązania sieciowe. Podczas poszerzania oferty Alstor o kolejne pozycje liczyła się ich unikalność i jakość. Zarządzanie sieciami jest obecnie złożone i czasochłonne. Dlatego duże znaczenie ma dobór narzędzi, które zapewniają monitorowanie infrastruktury sieciowej i identyfikowanie występujących w niej problemów. Do portfolio Alstora trafiły ostatnio rozwiązania kilku marek, które wyróżniają się na tle szerokiej rynkowej oferty produktów do zarządzania infrastrukturą sieciową.

APCON – PRZEŁĄCZNIKI MONITORUJĄCE Apcon to światowy lider w dziedzinie projektowania i dostarczania zaawansowanych rozwiązań do ułatwiania zarządzania sieciami korporacyjnymi, ich monitoringu, analizy przepustowości oraz zapewniania im bezpieczeństwa. Producent oferuje nowoczesne rozwiązania do agregacji i filtrowania danych, przełączniki sieciowe oraz wydajne oprogramowanie do zarządzania sieciami. W ofercie Alstor można znaleźć pełne portfolio produktów marki Apcon. Sztandarową linią tego producenta są przełączniki z rodziny Intella. Należą do niej zarówno rozwiązania o skalowanej ar-

42

VADEMECUM CRN listopad 2017

chitekturze, umożliwiające monitorowanie sieci w obrębie centrów danych i w dużych środowiskach testowych, jak i mniejsze urządzenia, o modułowej konstrukcji, które zapewniają zarządzanie wieloma protokołami i różnego typu ruchem w ramach jednego systemu rackowego. Natomiast IntellaStore II jest kompletnym rozwiązaniem wizualizacyjnym do średniej wielkości centrów danych i systemów, z których firma korzysta zdalnie, łączącym światowej klasy przełączniki do monitorowania sieci z narzędziami do analizy ruchu i wydajności aplikacji. Dzięki niemu administratorzy mogą kontrolować sieci w centrum danych za pomocą jednego narzędzia, co ogranicza koszty i usprawnia rozwiązywanie problemów.

GARLAND TECHNOLOGY – TAP-Y DO SIECI MIEDZIANYCH I ŚWIATŁOWODOWYCH

Podstawę oferty Garland Technology, producenta rozwiązań do zaawansowanego monitorowania ruchu w sieci, stanowią TAP-y. Urządzenia te na bieżąco kopiują i przesyłają dane sieciowe do sprzętu monitorującego, takiego jak systemy wykrywania włamań (IDS), kontrolery NPB lub analizatory sieci. Zapewniają pełną widoczność ruchu w sieci, umożliwiają aktywne monitorowanie, analizowanie oraz zwiększanie wydajności sieci i działających w niej aplikacji. Niewątpliwą zaletą TAP-ów jest to, że nie da się ich zaatakować, ponieważ nie mają adresu IP ani MAC. TAP-y marki Garland mogą pracować w czterech trybach. Breakout służy do monitorowania sieci out-of-band, a tryb agregacji/regeneracji jest przeznaczony do przesyłania danych do jednego lub wielu portów monitorujących oraz wykorzystywania mechanizmu packet slicing/injection. Z kolei filtrowanie port-to-port umożliwia granularną selekcję ruchu sieciowego w warstwach 2., 3. i 4., dzięki czemu do narzędzi monitorujących docierają tylko wybrane przepływy ruchu sieciowego. Ostatni tryb – bypass, używany w konfiguracji in-band wraz z aplikacjami bezpieczeństwa, zapewnia monitorowanie stanu urządzeń ochrony sieciowej. Produkty Garland i wcześniej wspomniane rozwiązania Apcon tworzą środowisko umożliwiające efektywniejsze działanie sys-


temów bezpieczeństwa (IPS, IDS, SIEM itp.) lub analizy i monitoringu sieci. Środowisko takie jest określane jako SDP – Security Delivery Platform lub VDP – Visibility Delivery Platform.

SAVVIUS – WIZUALIZACJA SIECI

ALLIED TELESIS – PEŁNA OFERTA SIECIOWA

Założona w 1987 r. w Japonii firma Allied Telesis ma oddziały na całym świecie i jest wiodącym dostawcą infrastruktury sieciowej. Zapewnia niezawodne rozwiązania przeznaczone do obsługi monitoringu wizyjnego, VoIP, pamięci masowych (iSCSI), które są stosowane w najróżniejszych branżach, m.in. w administracji państwowej, wojskowości, służbie zdrowia, edukacji, handlu detalicznym oraz przez dostawców usług internetowych. Unikalny system zarządzania Allied Telesis AMF umożliwia wirtualizację całej sieci, automatyczne backupy konfiguracji sieciowych, odtwarzanie po awarii i provisioning. Przy użyciu urządzeń sieciowych Allied Telesis można budować niezawodne sieci HA (High Availability), zarówno w topologii gwiazdy, jak i ringu.

do zdalnego zarządzania urządzeniami sieciowymi, serwerami i zasilaniem oraz monitorowania parametrów środowiskowych w dużych i średnich centrach danych (również w trybie out-of-band). Kolejną grupę stanowią systemy do zarządzania infrastrukturą IT (obejmującą routery, firewalle, UPS-y, listwy zasilające) w odległych miejscach, pozwalające na przełączanie komunikacji w tryb awaryjny przez łącza sieci komórkowej lub tradycyjnej telefonii.

STARWIND – LIDER HIPERKONWERGENTNEJ WIRTUALIZACJI

StarWind Software jest pionierem w dziedzinie wirtualizacji pamięci masowych. Projektuje i udoskonala rozwiązania bazujące na koncepcjach, które na międzynarodowym rynku IT inni producenci zaczynali wykorzystywać zwykle dużo później. Oprogramowanie StarWind Virtual SAN stworzono z myślą o użytkownikach dysponujących już serwerami. Natomiast hiperkonwergentne urządzenie StarWind HCA (HyperConverged Appliance) jest przeznaczone dla tych firm, które chcą zbudować swoją infrastrukturę wirtualizacji od podstaw. To bazujące na platformie StarWind Virtual SAN kompleksowe rozwiązanie „pod klucz”, obejmujące zarówno sprzęt, jak i oprogramowanie. Na tle innych narzędzi typu Software Defined Storage oprogramowanie StarWind wyróżnia się łatwym zarządzaniem, niższą ceną, wysoką wydajnością i bogatym zestawem funkcji.

SYNETO – ALL IN ONE DLA MNIEJSZYCH FIRM

Syneto stworzyło HYPERSeries – pierwszą infrastrukturę IT typu all-in-one, zaprojektowaną dla przedsiębiorstw z sektora MŚP, oddziałów i małych centrów danych w dużych firmach. Reprezentuje nowe podejście do hiperkonwergencji, ponieważ łączy wszystkie usługi IT i narzędzia dla przedsiębiorstw w ramach tej samej platformy. Może zastąpić system składający się z oddzielnych aplikacji wirtualnych, rozwiązań sieciowych i pamięci masowych. Co więcej, HYPERSeries zapewnia dużą wydajność aplikacji i ma wbudowane automatyczne funkcje Disaster Recovery oraz natychmiastowego lokalnego odzyskiwania wirtualnych maszyn/plików. Inne oferowane na rynku rozwiązania hiperkonwergentne koncentrują się na skalowalności i dostosowaniu do potrzeb największych przedsiębiorstw, natomiast HYPERSeries zaprojektowano tak, by skupiało wszystkie usługi IT potrzebne do funkcjonowania małym firmom. Dzięki rozwiązaniu Syneto nie muszą ponosić dodatkowych kosztów związanych ze sprzętem i oprogramowaniem.

OPENGEAR – ZARZĄDZANIE INFRASTRUKTURĄ Firma Opengear należy do czołowych dostawców rozwiązań do zarządzania elementami infrastruktury IT w centrach danych oraz w odległych miejscach. W ofercie Alstor są systemy

Dodatkowe informacje: KAROLINA TROJANOWSKA, MARKETING MANAGER, ALSTOR, K.TROJANOWSKA@ALSTOR.COM.PL VADEMECUM CRN listopad 2017

43

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ ALSTOR.

Savvius to jeden z wiodących dostawców rozwiązań do analizy i monitoringu ruchu w sieciach komputerowych. Jego produkty znajdują zastosowanie w dwóch obszarach: Network Visibility Analytics i Security Forensic Analytics. Używając ich do monitoringu firmowej sieci, można identyfikować problemy (np. wąskie gardła) i naruszenia zabezpieczeń. O sile oferty Savviusa decyduje autorskie oprogramowanie Omnipeak. Jest oferowane jako oddzielny licencjonowany produkt oraz stanowi podstawę działania urządzeń z serii Omnipliance. Producent dostarcza wiele urządzeń z serii Omnipliance oraz Insight, przeznaczonych do montażu w szafach rack. Poszczególne modele różnią się wydajnością operacji I/O, współczynnikiem przechwytywania danych i pojemnością. Platforma Omnipeak ma własny interfejs, ale można z niej korzystać także za pośrednictwem innych znanych w branży rozwiązań analitycznych, takich jak Kibana firmy Elastic oraz Splunk. W tym ostatnim przypadku jest zazwyczaj dodatkowo wdrażany testowy punkt dostępowy (TAP) lub packet broker. Urządzenie Savvius Vigil jest rozwiązaniem ochronnym zapewniającym zaawansowane możliwości śledzenia zdarzeń w sieci. Produkt został zintegrowany z urządzeniami zabezpieczającymi typu NGFW, IDS, IPS lub SIEM wiodących producentów. W połączeniu z rozwiązaniami partnerów technologicznych Savvius Vigil staje się platformą do monitorowania zagrożeń i wykrywania naruszeń sieci o wyjątkowych możliwościach.


Fot. © Sergey Nivens – Fotolia.com

SYSTEMY POCZTOWE – ZARZĄDZANIE I BACKUP

Resellerzy mogą zarabiać na systemach pocztowych E-mail ma krytyczne znaczenie dla komunikacji w biznesie, ale bez odpowiedniego systemu – serwera, narzędzi do zarządzania czy zabezpieczeń – poczta elektroniczna może przysporzyć wielu kłopotów. RAFAŁ JANUS

P

omimo błyskawicznego rozwoju mediów społecznościowych e-mail pozostaje jedną z najważniejszych form komunikacji, także w środowisku biznesowym. Eksperci Radicati Group oszacowali, że na początku bieżącego roku wysyłano na świecie ponad 269 mld wiadomości elektronicznych każdego dnia. Nawet więc, jeśli tylko część z nich to e-maile służbowe, z których tylko pewien odsetek ma znaczenie krytyczne dla sprawnego funkcjonowania firm, to mówimy o wielu milionach kluczowych wiadomości dziennie. Dlatego przedsiębiorstwa muszą mieć zagwarantowaną stałą dostępność do nich. I to niezależnie od tego, czy firma decyduje

44

VADEMECUM CRN listopad 2017

się na wersję systemu pocztowego pracującą lokalnie czy w chmurze. Wyspecjalizowanie się przez resellera w obsłudze niedrogiego, dobrego i sprawdzonego serwera poczty, najlepiej dostępnego z konsolą w języku polskim i wsparciem technicznym świadczonym w Polsce, to dobry pomysł na biznes. Doświadczony sprzedawca zarobi na wdrożeniach i utrzymaniu komercyjnych serwerów poczty w firmach oraz na szkoleniach z zakresu ich obsługi. Wraz z licencjami klientowi można też dostarczyć serwer oraz macierz dyskową czy dodatkowe oprogramowanie, które będzie miało na celu wspieranie systemu pocztowego (np. do szyfrowania wiadomości i ich backupu).

POCZTA LOKALNIE LUB PRZYGODA Z CHMURĄ

Zarówno własny firmowy serwer pocztowy jak i usługi w chmurze mają swoje wady i zalety. Dlatego w przypadku każdego klienta reseller powinien zrobić szczegółowe rozeznanie i przeprowadzić analizę celów biznesowych oraz priorytetów, by właściwie dopasować rozwiązanie poczty elektronicznej do jego potrzeb i specyfiki działania. Nie ma bowiem uniwersalnego rozwiązania, które będzie pasować wszystkim. Rolą resellera jest pomóc klientowi w dokonaniu właściwego wyboru, biorąc oczywiście pod uwagę jego możliwości budżetowe. Warto w tym miejscu zwrócić uwagę, że według


analityków Gartnera w I poł. 2017 r. tylko 13 proc. firm korzystało z bardzo popularnych wśród użytkowników indywidualnych usług poczty w chmurze oferowanych przez Google i Microsoft. Posiadanie serwera pocztowego w firmowej infrastrukturze daje użytkownikowi większą elastyczność. Zapewnia kontrolę nad danymi i ich zabezpieczeniami, a także kompleksowe zarządzanie systemem i dopasowanie go do indywidualnych potrzeb. Do zalet trzeba także zaliczyć większe możliwości związane z backupem i archiwizacją. W przeddzień wejścia w życie przepisów RODO jest to bardzo ważny argument. Klient musi się jednak liczyć z wyższymi kosztami – na początku obejmującymi zakup sprzętu i oprogramowania, a następnie utrzymania systemu pocztowego i zarządzania nim. Zazwyczaj jest to zatem rozwiązanie wybierane przez większe przedsiębiorstwa, a reseller zarabia tylko na sprzedaży systemu pocztowego (ewentualnie jego wdrożeniu) i sprzęcie. Mniejsze firmy coraz częściej decydują się na korzystanie z poczty elektronicznej w chmurze. Podstawowymi zaletami tego rozwiązania jest obniżenie kosztów, a także przeniesienie obowiązku utrzymania i zarządzania systemem na dostawcę, który dba o ciągłość oferowanej usługi. Ważne w tej sytuacji jest także to, że klient dostaje od razu dostęp do w pełni skonfigurowanej platformy. Jednak firma, decydując się na takie rozwiązanie, rezygnuje z dostępu do pełnej administracji systemem i ma mniejszą możliwość dopasowania oprogramowania do własnych potrzeb. Ze względów bezpieczeństwa należy zatem wybrać sprawdzonego i zaufanego usługodawcę. W ten sposób można trafić do firm, które wcześniej nie mogły sobie pozwolić na wdrożenie profesjonalnego rozwiązania do obsługi poczty. Klient reguluje tylko abonamentową płatność za usługi chmurowe, co gwarantuje resellerom – jako pośrednikom między klientem a dostawcą chmury – stałe, powtarzalne dochody. Można również zaproponować klientom rozwiązania hybrydowe, działające we własnym środowisku serwerowym resellera, ale dostarczające usługi pocztowe oferowane na bazie licencji SaaS. Dają one firmom IT możliwość niezłego zarobku na poczcie elektronicznej. Dla klienta ta-

ka usługa to maksimum korzyści. Z jednej strony dzięki korzystaniu z aplikacji typu SaaS nie musi mieć własnej infrastruktury, a administracją systemem pocztowym zajmuje się firma zewnętrzna. Z drugiej strony przedsiębiorstwo ma więcej możliwości kontroli systemu i administracji nim za pośrednictwem resellera, świadczącego daną usługę. Korzyścią dla resellera jest silne związanie się z klientem umową na usługi. Przy tej okazji otwierają się dodatkowe możliwości związane ze szkoleniami pracowników oraz dostawą wszelakiego sprzętu IT i oprogramowania. Jest jeszcze jeden model dostarczania klientom systemów pocztowych, czyli usługi zarządzane. Są na rynku rozwiązania, które umożliwiają zarządzanie ochroną wielu serwerów pocztowych oraz nieograniczoną liczbą domen i kont użytkowników za pomocą jednej centralnej konsoli. Dzięki nim resellerzy mogą nie tylko sprzedawać oprogramowanie pocztowe, ale także oferować klientom ochronę poczty w modelu Managed Services.

mail). Pierwszy sposób jest przez większość użytkowników postrzegany jako wygodniejszy. Nie wymaga chociażby konieczności logowania się za każdym razem, aby uzyskać dostęp do swoich wiadomości. Dla wielu firm to duża zaleta. Jeśli pracownicy korzystają z kilku kont pocztowych, mają do nich dostęp za pośrednictwem jednego programu. Ponadto mogą zaglądać do archiwalnych maili nawet wtedy, kiedy nie ma połączenia internetowego. Korzystanie ze specjalnego programu ma również wady, np. czasochłonne jest synchronizowanie poczty, gdy użytkownik używa jej za pośrednictwem kilku urządzeń. Z kolei webmail daje dużą elastyczność w korzystaniu z poczty. Dostęp do konta e-mail jest możliwy z dowolnego urządzenia (byle działał Internet). To idealne rozwiązanie chociażby dla przedsiębiorstw, których pracownicy często podróżują. Wadą jest natomiast mniejsza wygoda i ograniczona funkcjonalność w porównaniu do klientów pocztowych instalowanych w komputerach.

KLIENT LUB PRZEGLĄDARKA WWW

ZABEZPIECZANIE POCZTY

Niezależnie od tego, gdzie działa serwer pocztowy, dostęp do konta e-mail może odbywać się na dwa sposoby: z użyciem specjalnego programu (np. Outlooka) instalowanego w komputerze użytkownika lub przez przeglądarkę WWW (tzw. web-

Zdaniem integratora q  G  rzegorz Blinowski, prezes zarządu

CC Otwarte Systemy Komputerowe Do ochrony systemów pocztowych mniejsze firmy używają zintegrowanych narzędzi filtrujących, czyli serwera e-mail wyposażonego w dodatkowe mechanizmy, np. eliminujące spam. Z kolei modułowe rozwiązania można zaoferować średnim i większym przedsiębiorstwom lub instytucjom publicznym. Najczęściej klienci z tych grup wybierają narzędzia przeznaczone do ochrony serwera Microsoft Exchange. Warto również przyjrzeć się rozwiązaniom spoza świata Microsoft, obsługującym protokół SMTP.

Bezpieczeństwo informatyczne to bardzo gorący temat, a dotyczy on również systemów poczty elektronicznej. Firmy zmagają się z kilkoma poważnymi wyzwaniami związanymi z ochroną wiadomości e-mail. Te zaś mogą stać się źródłem przychodów dla resellera. Według danych opublikowanych przez magazyn „eWeek”, 2–4 proc. wszystkich wiadomości pocztowych zawiera szkodliwy kod, np. ransomware. Niestety, standardowe oprogramowanie antywirusowe nie jest wystarczająco skuteczne w walce z nowoczesnymi zagrożeniami. Aby poprawić poziom zabezpieczeń, można zaoferować klientom wdrożenie rozwiązania, które będzie skanowało pocztę z użyciem kilku silników antywirusowych. Kolejny poważny problem to phishing. Według SANS Institute, aż 95 proc. dużych cyberwłamań zaczęło się właśnie od wysłania fałszywych wiadomości e-mail. O ile filtry antyspamowe zatrzymują większość niechcianych wiadomości, to w przypadku phishingu atakujący stosują metody umożliwiające skuteczne obejście tych zabezpieczeń. Przykładem są ataki VADEMECUM CRN listopad 2017

45


SYSTEMY POCZTOWE – ZARZĄDZANIE I BACKUP

Robert Włodarczyk, Sales & Technical Director, Akbit

Anna Łyczak, Product Manager – Network Security, Bakotech Tomasz Krajewski, Systems Engineers Manager Eastern Europe, Veeam Software

Sposoby na zysk ROBERT WŁODARCZYK Posiadanie i użytkowanie serwera pocztowego, niezależnie czy na swoim serwerze czy w usłudze chmurowej, niesie ze sobą wiele wyzwań. Od zabezpieczenia danych i długoterminowego ich przechowywania przez zapewnienie kontrolowanego dostępu do wiadomości e-mail, a skończywszy na zagwarantowaniu dostępności do informacji i zgodności z regulacjami i standardami bezpieczeństwa. Rozwiązania tych problemów mogą być różne, ale każde stanowi okazję do zarobku dla resellerów. ANNA ŁYCZAK Niezależnie od wyboru modelu obsługi poczty, klientowi można zaproponować wdrożenie dodatkowych produktów, np. rozwiązania antyspamowego. Zapewni ono ochronę nie tylko przed spamem, ale może także sprawdzać wiadomości pod kątem wirusów, trojanów i ataków typu phishing oraz innych zagrożeń zewnętrznych. Co istotne, klienci mogą wybierać między produktami instalowanymi we własnej infrastrukturze, a wersjami chmurowymi oferowanymi jako usługa SaaS dostępna w modelu subskrypcyjnym. TOMASZ KRAJEWSKI Jednym z podstawowych elementów dbania o ciągłość biznesową jest regularne tworzenie kopii zapasowych firmowej poczty elektronicznej. To szansa dla resellerów, którzy mogą zaoferować klientom specjalistyczny produkt do backupu. Może to być dodatkowy moduł dodawany do stosowanego przez firmę pakietu ochrony danych lub niezależna aplikacja, sprzedawana osobno.

Krzysztof Konieczny, prezes Sun Capital

KRZYSZTOF KONIECZNY Własny serwer pocztowy to większa odpowiedzialność, ale także większe możliwości budowania wiarygodnego wizerunku firmy. Dzisiaj adres IP o dobrej reputacji i domena o odpowiednim standardzie to poniekąd wizytówka firmy. Oczywiście dużo prościej i wygodniej dla przedsiębiorstwa jest oddać zarządzanie firmową pocztą podmiotowi specjalizującemu się w usługach e-mail. W tej sytuacji naraża się jednak na ryzyko związane z faktem, że z danego serwera w chmurze korzystają też inni użytkownicy.

kierowane do wąskiej grupy osób, co wiąże się z wysyłką jedynie niewielkiej liczby wiadomości, które dodatkowo wyglądają jak prawdziwe e-maile. W tym przypadku również warto polecać klientom rozwiązania, które skanują przychodzącą pocztę z użyciem kilku silników antywirusowych. Polskie i unijne regulacje związane z ochroną danych osobowych dotyczą niemal każdej firmy, a niektóre branże są objęte regulacjami prawnymi, o których trzeba pamiętać również w kontekście poczty elektronicznej. Konfigurując system pocztowy dla klienta, należy oczywiście dbać o zgodność z przepisami. Przypadkowemu przesłaniu w wiadomości e-mail poufnych danych mogą zapobiec odpowiednie filtry, które zablokują wysłanie takich wiadomości. Odpowiednie zmiany z systemie pocztowym mogą także zapewnić jego zgodność z przepisami, które wymagają, aby do każdego e-maila dodawać stopkę zawierającą określone in-

formacje o nadawcy (adres siedziby, numer NIP itp.).

46

VADEMECUM CRN listopad 2017

DODATKOWE ŹRÓDŁA PRZYCHODÓW

Dodatkową ofertą resellerów może być np. sprzedaż narzędzi do archiwizacji poczty. Można je oferować klientom w formie specjalistycznych produktów do backupu, a także w formie usługi. Dobrze zarządzana archiwizacja zapewnia użytkownikom kontrolowany, wielopoziomowy dostęp do wiadomości e-mail, bezpieczne przechowywanie zawartych w nich informacji, szybkie wyszukiwanie danych (także po zawartości załączników), jak również możliwość dostępu do wszystkich wiadomości. Kolejna kwestia, którą warto poruszyć w rozmowie z klientem, to szyfrowanie. Bo chociaż każda firma wie, że musi dbać o bezpieczeństwo danych, powszechną praktyką jest przesyłanie poufnych infor-

macji właśnie pocztą elektroniczną. Aby ustrzec klientów przed łatwym odczytaniem przechwyconych wiadomości przez hakerów, warto zaoferować im specjalistyczne narzędzia do szyfrowania e-maili bądź bezpiecznego przesyłania plików w formie zaszyfrowanej. Najlepiej, gdy taki system automatycznie przechwytuje załączniki wiadomości i przesyła je dalej dopiero po zaszyfrowaniu, gdyż to minimalizuje ryzyko ludzkich błędów. Innym problemem, w którym reseller może pomóc klientom jest bezpieczne przesyłanie dużych plików. Wiele serwerów pocztowych ma ustawiony limit wielkości załączników. Wiadomość nie zostanie wysłana, jeśli plik jest zbyt duży. Tymczasem korzystanie z ogólnodostępnych bezpłatnych narzędzi nie zapewnia należytej ochrony danych. A zatem warto spróbować sprzedaży i wdrażania systemów, które zapewniają łatwe przekazywanie „ciężkich” plików na odległość.


Sophos kompleksowo ochroni pocztę

P

rzestępcy nie ustają w próbach ominięcia skanerów antywirusowych i dość często są skuteczni. Oprócz tego wiadomości pocztowe stały się świetnym narzędziem oszustw bazujących na inżynierii społecznej. Największym zagrożeniem są obecnie przygotowywane z dbałością o najdrobniejsze szczegóły akcje phishingowe. Sprowadzają na użytkowników głównie ryzyko zarażenia ransomware’em. Ochrona poczty elektronicznej od lat jest jednym z filarów oferty firmy Sophos. Jej zabezpieczenie ( jak i ochronę innych zasobów przed skutkami szkodliwych programów przenoszonych przez e-maile) umożliwia kilka narzędzi. Producent podkreśla, że w ramach strategii zsynchronizowanej ochrony jego rozwiązania wymieniają się informacjami, dzięki czemu możliwe jest szybsze reagowanie, gdy firma zostanie zaatakowana.

WIELOPUNKTOWE ZABEZPIECZENIE Jednym z podstawowych narzędzi do ochrony poczty elektronicznej jest Sophos Email Appliance. To rozwiązanie typu wszystko w jednym, które zapewnia szyfrowanie wiadomości, ochronę przed wyciekami informacji (DLP), moduł antyspamowy i zabezpieczenie przed złośliwym kodem oraz zagrożeniami dnia zerowego. Chroni przed phishingiem oraz dostarcza administratorom informacji o tym, jakie dane opuszczają firmę w wiadomościach e-mail. Użytkownicy doceniają przede wszystkim funkcję Time-of-Click, która chroni przed skutkami klikania w linki URL w podejrzanych wiadomościach e-mail. Każda próba otworzenia strony z takiego

linku inicjuje weryfikację jego reputacji w chmurowej bazie Sophos SXL. Aby korzystać z tej funkcji, nie trzeba instalować żadnego oprogramowania klienckiego. Bardzo ważne jest również szyfrowanie zapewniane przez moduł SPX Encryption. W wiadomościach, które powinny być zabezpieczone w ten sposób, treść oraz załączniki są kodowane i umieszczane w specjalnym pliku PDF. Proces ten jest całkowicie transparentny i nie wymaga zarządzania kluczami deszyfrującymi ani instalowania dodatkowego oprogramowania. Rozwiązanie Email Appliance jest oferowane w dwóch wersjach – sprzętowej i jako maszyna wirtualna. Do wyboru są trzy modele urządzeń, różniących się wydajnością (od 120 tys. do 550 tys. przetwarzanych wiadomości na godzinę). Natomiast maszyny wirtualne mają cztery wersje i są przeznaczone dla od 300 do 10 tys. użytkowników (odpowiednio od 60 tys. do 600 tys. wiadomości na godzinę).

uzupełnienie produktów ochronnych producenta – zapewnia wykrywanie i blokowanie ignorowanych przez inne systemy zakamuflowanych zagrożeń dzięki zastosowaniu wydajnego, bazującego na chmurze środowiska testowego sandbox kolejnej generacji. Sandstorm skanuje wszystkie pliki pod kątem znanych zagrożeń (m.in. z wykorzystaniem sygnatur złośliwego kodu, baz podejrzanych adresów URL itp.). Jeśli plik nie został pobrany ze strony sklasyfikowanej jako bezpieczna i znajduje się w nim wykonywalny kod, automatycznie oznaczany jest jako podejrzany. Suma kontrolna takiego pliku jest wysyłana do znajdującego się w chmurze mechanizmu reputacyjnego usługi Sophos Sandstorm w celu sprawdzenia, czy jego działanie było już wcześniej analizowane. Jeśli plik był wcześniej weryfikowany, Sandstorm sprawdza informacje o jego reputacji i zezwala na uruchomienie tego pliku lub uniemożliwia ten proces. Jeżeli suma kontrolna pliku nie była wcześniej znana, jego kopia jest przekazywana do bezpiecznego chmurowego środowiska testowego sandbox usługi Sophos Sandstorm. Tam plik jest uruchamiany, a jego zachowanie monitorowane. Po tej analizie (trwa najwyżej 120 s) stosowne informacje o pliku są przekazywane do rozwiązań ochronnych Sophos zainstalowanych w zasobach użytkownika.

BEZPIECZNA PIASKOWNICA W wybranych rozwiązaniach firmy Sophos – także w Email Appliance – wykorzystywany jest mechanizm Sandstorm. zabezpiecza on przed ransomware’em i uporczywymi atakami (APT). Stanowi

Dodatkowe informacje: SEBASTIAN ZAMORA, CHANNEL ACCOUNT EXECUTIVE, SOPHOS, SEBASTIAN.ZAMORA@SOPHOS.COM VADEMECUM CRN listopad 2017

47

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ SOPHOS.

Według statystyk to wiadomości poczty elektronicznej są najczęściej wykorzystywane do przeprowadzania cyberataków. Dlatego skrupulatna ochrona systemów pocztowych stanowi priorytet w działaniach firmy Sophos.


Cyfrowy obieg dokumentów: szerokie pole do popisu Możliwość współpracy z dostawcami w różnych modelach oraz kilka potencjalnych źródeł zysków sprawiają, że każdy reseller, niezależnie od skali działania i kompetencji, ma szansę zaistnieć na tym rynku. RAFAŁ JANUS

P

opularność systemów elektronicznego obiegu dokumentów stale rośnie, bo firmy muszą dopasować swój sposób działania do zmian, które zachodzą w ich otoczeniu biznesowym. Analitycy z MarketsandMarkets oszacowali wartość światowego rynku Enterprise Content Management w 2017 r. na 31,6 mld dol. i prognozują, że będzie on rósł o 16,2 proc. rocznie przez kolejnych pięć lat. W tym tempie przychody ze sprzedaży rozwiązań ECM dojdą do 67,1 mld w 2022 r. Najszybciej rozwijają-

48

VADEMECUM CRN listopad 2017

cym się segmentem tego rynku będą usługi. Z punktu widzenia resellera istotne jest również to, że w okresie objętym prognozą specjaliści spodziewają się najszybszego wzrostu popytu na nie w sektorze MŚP. Według tej samej agencji analitycznej jeszcze szybciej będzie się zwiększał światowy rynek systemów zarządzania obiegiem cyfrowych dokumentów – średnio o 23 proc. rocznie. W 2016 r. był wyceniany na niewiele ponad 3,5 mld dol., natomiast w 2021 r. jego wartość ma sięgnąć niemal 10 mld dol. Główne czynniki

napędzające wzrost to chęć usprawnienia procesów biznesowych, redukcja kosztów druku oraz potrzeba szybszego dostępu do informacji. Warto w tym miejscu przywołać dane IDC, według których na poszukiwanie informacji pracownik traci średnio niemal 9 godzin tygodniowo. Do czynników zwiększających zainteresowanie cyfrowym obiegiem dokumentów należy również rosnąca liczba informacji przetwarzanych przez firmy oraz dążenie do przechowywania ich w jednym miejscu. W analizowanym okresie (2016–2021)

Fot. © vege – Fotolia.com

ZARZĄDZANIE OBIEGIEM DOKUMENTÓW I INFORMACJI


głównym źródłem przychodów mają być rozwiązania oferowane w modelu chmurowym. Ten sposób sprzedaży jest atrakcyjny dla klientów, ponieważ umożliwia ograniczenie kosztów budowy infrastruktury IT. W przypadku przedsiębiorstw wielooddziałowych bardzo ułatwia także dostęp do danych z dowolnego miejsca.

NA DRUKARKI WCIĄŻ JEST POPYT Firmy coraz chętniej sięgają po rozwiązania, które upraszczają cyfrowe przetwarzanie danych, co spowodowało, że już kilkakrotnie ogłaszano koniec ery tradycyjnego druku. Jednak rzeczywistość pokazuje, że jeszcze przez wiele lat z niego nie zrezygnujemy. Choć elektroniczny obieg dokumentów staje się coraz popularniejszy, de facto nie wypiera drukarek, a zwłaszcza nowoczesnych urządzeń wielofunkcyjnych. Są one bowiem bardzo często potrzebne, aby „zasilić” systemy obiegu dokumentów dzięki funkcji skanowania dokumentów. Nie da się jednak ukryć, że zainteresowanie sprzętem do drukowania nie rośnie tak szybko, jak elektronicznym obiegiem dokumentów. Potwierdzają to badania. Analitycy z Technavio przewidują, że światowy rynek drukarek wielofunkcyjnych będzie rósł do 2021 r. o 3 proc. rocznie. Ten niewielki wzrost jest zasługą producentów, którzy stale rozwijają oferowane urządzenia, aby obniżyć całkowite koszty ich posiadania (TCO). Podobne wyniki badań prezentuje IDC. Według tej agencji sprzedaż urządzeń drukujących zwiększyła się na świecie w IV kwartale 2016 r. o 0,6 proc. w stosunku do notowanej w tym samym okresie poprzedniego roku (badanie obejmowało urządzenia w formatach od A4 do A2). Rośnie liczba przedsiębiorstw zainteresowanych różnego rodzaju rozwiązaniami do obiegu dokumentów – chętnie wybierane jest oprogramowanie niezależne od sprzętu, na którym działa. Aby jednak resellerzy mogli zarobić na sprzedaży takich systemów, muszą odejść od modelu oferowania pudełek i stać się konsultantami. Powinni przynajmniej mieć rozeznanie, jakie gotowe oprogramowanie i specjalistyczne produkty są na rynku. Sprzedawcy, którzy potrafią doradzić klientom, jak zoptyma-

lizować środowisko druku, z pewnością mogą liczyć na większe kontrakty i dywersyfikację źródeł przychodów.

Regularne miesięczne przychody

LOKALNIE LUB W CHMURZE Większość rozwiązań do zarządzania obiegiem dokumentów jest oferowana w jednym z dwóch wariantów. Mogą być tradycyjnie instalowane na firmowym serwerze wewnątrz sieci klienta lub udostępniane jako usługa chmurowa. W tym drugim przypadku klient ponosi koszty w formie abonamentu. Oba rozwiązania mają swoje wady i zalety. Model SaaS to m.in. niskie koszty początkowe i możliwość natychmiastowego korzystania z usługi (brak czasochłonnego wdrożenia). Z kolei zaletą modelu instalacji rozwiązania w firmie jest bliższy i regularny kontakt z klientem oraz możliwość cross-sellingu innych usług oraz produktów. Rozwiązanie serwerowe to zupełnie inny typ sprzedaży – reseller musi mieć odpowiednią wiedzę, przejść szkolenia (często też uzyskać certyfikację u producentów), być gotowym na samodzielne przeprowadzenie wdrożenia oraz szkoleń u użytkownika końcowego. Z drugiej strony klienci uważają to rozwiązanie za bezpieczniejsze i dlatego są nim bardziej zainteresowani. Dzięki temu, że funkcjonują dwa modele sprzedaży, reseller może wybrać ten, który jest na miarę jego możliwości. Najważniejsze, by określić, do kogo chce się adresować ofertę i dobrać rozwiązanie dla danej grupy docelowej.

Reseller może oferować klientom rozwiązania do zarządzania obiegiem dokumentów - bez sprzedawania im urządzeń drukujących - w jednym z trzech modeli: >> NAJEM URZĄDZEŃ – może być dla firmy IT bardzo korzystny. Dostawcy sprzętu często oferują atrakcyjne warunki finansowania tego typu usługi oraz zapewniają serwis. A to oznacza praktyczny brak odpowiedzialności po stronie resellera. Dodatkowo w tym modelu można liczyć na regularne przychody w dłuższym okresie. >> SOFTWARE AS A SERVICE – w tym modelu opłata miesięczna dopasowywana jest elastycznie do budżetu klienta. >> PAY PER PAGE – w tym przypadku w kontrakcie są urządzenia skanujące i drukujące, klient może uniknąć wysokich kosztów związanych z nabyciem produktów, a reseller liczyć na regularne wpływy.

W przypadku systemów do zarządzania obiegiem dokumentów cyfrowych istotą biznesu jest sprzedaż licencji na oprogramowanie i obudowanie jej dodatkowymi usługami – od wdrożenia przez sprzedaż oprogramowania firm trzecich lub własnych aplikacji i dostarczenie

Światowy rynek systemów zarządzania obiegiem cyfrowych dokumentów (mld dol.) 9,88

10 9

8,03

8 7

6,53

6

5,31

5 4

3,51

4,31

3 2 1 0

2016 r.

2017 r.

2018 r.

2019 r.

2020 r.

2021 r.

Źródło: Radicati Group, luty 2017

VADEMECUM CRN listopad 2017

49


ZARZĄDZANIE OBIEGIEM DOKUMENTÓW I INFORMACJI

Zdaniem dostawców Rafał Szarzyński, Regional Sales Director, Ricoh Polska Tomasz Wieczorek, Solutions Product Manager CEE, Sharp Electronics Europe

TOMASZ WIECZOREK Sprzedaż rozwiązań do zarządzania obiegiem dokumentów nie powinna w ogóle być łączona ze sprzedażą urządzeń. Podstawą przemyślanego systemu obiegu dokumentów jest uniezależnienie się od sprzętu. Doświadczony konsultant nie pozwoli sobie na wdrożenie systemu, który w najmniejszym nawet stopniu będzie tę niezależność ograniczał.

Mariusz Sawicki, Business Unit Manager, ABC Data

infrastruktury sprzętowej po usługi wsparcia. Na rynku jest bardzo duży wybór programów rozszerzających możliwości systemów obiegu informacji, ułatwiających pracę użytkowników oraz służących do zarządzania urządzeniami oraz kontroli kosztów funkcjonowania systemu (dzięki nim można np. przyporządkować opłatę za druk i kopiowanie do konkretnych urządzeń, użytkowników, działów czy projektów). Zakres oferty zależy od możliwości resellera i modelu współpracy z dostawcą. Można wyróżnić kilka typowych przypadków: – Sprzedaż licencji – w tym najprostszym modelu reseller skupia się na pośredniczeniu w sprzedaży licencji oprogramowania klientom końcowym. Zyskiem jest jedynie ustalona marża. – Wdrożenia oprogramowania – integratorzy, którzy mają zespoły specjalistów przygotowanych do realizacji takich usług, czerpią z nich dodatkowy dochód, obok uzgodnionej marży od sprzedaży licencji. – Sprzedaż własnego oprogramowania – to model dla firm, które mają dział tworzący oprogramowanie i swoje produkty sprzedają jako uzupełnienie rozwiązań od zewnętrznego dostawcy.

50

RAFAŁ SZARZYŃSKI Resellerzy coraz częściej włączają do swojej oferty rozwiązania przeznaczone do zarządzania elektronicznym obiegiem dokumentów, zarządzania drukiem oraz archiwizacji. To naturalny rozwój, który pozwala połączyć kompetencje związane z doradztwem sprzętowym z tymi z zakresu nowych rozwiązań programowych. Szczególnie, że coraz częściej zakup nowych urządzeń łączy się z wdrożeniem rozwiązań systemowych w zakresie obsługi dokumentów. Wynika to z cyklu życia dokumentu oraz roli, jaką pełni w nim urządzenie drukujące.

VADEMECUM CRN listopad 2017

MARIUSZ SAWICKI W przypadku sprzedaży sprzętu reseller uzyskuje jednorazowy zysk i nie ma gwarancji, że nabywca kupi u niego także materiały eksploatacyjne. Dlatego korzystniejsze dla niego jest świadczenie usługi najmu urządzeń. Podpisanie kilkuletniej umowy z klientem to źródło stałych dochodów przez dłuższy czas. Reseller wynajmuje urządzenia, np. od dystrybutora, a następnie podnajmuje je użytkownikowi końcowemu. Na podstawie comiesięcznego automatycznego odczytu liczników urządzeń obciąża klienta kosztami wykonanych w danym okresie rozliczeniowym wydruków i kopii.

– Model chmurowy – w tym przypadku reseller oferuje licencję produktu na zasadach subskrypcji. Jednocześnie może proponować usługi dodane, np. udostępnianie infrastruktury chmurowej oraz zarządzanie nią.

JAK ZŁOWIĆ KLIENTA? Najwięcej wdrożeń systemów zarządzania obiegiem dokumentów ma miejsce w przedsiębiorstwach z takich gałęzi gospodarki jak logistyka i finanse, a także w placówkach ochrony zdrowia. Najważniejszym czynnikiem, który wywołuje u klienta potrzebę wdrożenia takiego rozwiązania, nie jest wielkość firmy, lecz liczba przetwarzanych dokumentów i związane z tym koszty. Warto podkreślić, że takie oprogramowanie zyskuje popularność także w firmach z sektora MŚP. Przedsiębiorstwa, niezależnie od wielkości, muszą bowiem szybko przetwarzać coraz większą liczbę danych i nowych typów dokumentów. Osobami, z którymi należy rozmawiać na temat wdrożenia elektronicznego obiegu dokumentów, są właściciele firm, prezesi, dyrektorzy finansowi, informatycy lub kierownicy biur. Wybór rozmówcy zależy od specyfiki działalności firmy.

Jeśli klient jest niezdecydowany, warto nie tylko wspomnieć mu o optymalizacji kosztów, ale pokazać szerokie możliwości współczesnych systemów zarządzania cyfrowym obiegiem dokumentów. Digitalizacja nie polega bowiem wyłącznie na skanowaniu, duże korzyści przynosi również dodatkowe oprogramowanie do rozpoznawania i zindeksowania zeskanowanej treści (OCR). Wdrożenie elektronicznego obiegu dokumentów daje pełną swobodę pracy, a jednocześnie zapewnia zachowanie kontroli dostępu do danych, ich integralności i podniesienie poziomu bezpieczeństwa. Trzeba jednak pamiętać, że przedsiębiorstwa nie zawsze mogą lub chcą zrezygnować z papierowych dokumentów. Przyczyną są najczęściej uwarunkowania prawne lub kultura korporacyjna. Najlepszym przykładem takiej sytuacji jest obieg faktur. W naszym kraju wciąż firmy powszechnie posługują się ich wersjami papierowymi. Wyraźnie jednak widać tendencję do ograniczenia liczby drukowanych dokumentów i należy się spodziewać, że w przyszłości wszędzie tam, gdzie regulacje prawne tego nie zabraniają, dokumentacja papierowa będzie wypierana przez elektroniczną.


Kompetencje mają kluczowe

znaczenie w ochronie dokumentów Nowy program partnerski Ricoh zapewnia integratorom systemów informatycznych i resellerom zwiększenie zysków ze sprzedaży rozwiązań do zarządzania drukiem w przedsiębiorstwie.

R

infrastruktury druku także ma kluczowe znaczenie.

DUŻY POTENCJAŁ RYNKU

Manager w polskim oddziale Ricoh. – Co ważne, ta inwestycja musi obejmować cały cykl życia dokumentu, również infrastrukturę druku. Świadomość znaczenia tego obszaru dla bezpieczeństwa danych wyraźnie rośnie. Potencjał rynku jest ogromny, a model współpracy, który proponujemy naszym partnerom, będzie z pewnością owocny dla obu stron. Znaczenie zabezpieczania infrastruktury druku ma szczególną wagę w sektorze małych i średnich przedsiębiorstw. Łączy się także z innym bardzo istotnym wyzwaniem, przed którym stoją współczesne firmy: koniecznością podniesienia poziomu efektywności pracy i wykorzystania danych. Na znaczeniu zyskują elektroniczne procesy oraz automatyzacja. W ich przypadku dostęp do innowacyjnej

Resellerzy, którzy będą uczestniczyli w nowym programie partnerskim Ricoh, zyskają: • • • • •

możliwość rozszerzenia oferty o nowe rozwiązania, których sprzedaż zapewni ponadprzeciętne zyski, dostęp do materiałów marketingowych i edukacyjnych, możliwość uczestnictwa w serii szkoleń poświęconych regulacjom prawnym z zakresu ochrony danych osobowych, wsparcie merytoryczne, techniczne i szkolenia produktowe, pełną opiekę specjalistów presales Ricoh.

Analitycy szacują, że do 2020 r. ilość przetwarzanych cyfrowych danych wzrośnie aż 30-krotnie. Systemy związane z przetwarzaniem informacji, ich obiegiem i współużytkowaniem dokumentów mają bezpośredni wpływ na precyzję oraz szybkość biznesowych procesów decyzyjnych. Zatem od nich w dużym stopniu zależą przyszłe zyski firmy. Naturalną konsekwencją tych trendów jest również wzrost zainteresowania inteligentnym oprogramowaniem do skanowania i archiwizacji kluczowych danych zgromadzonych na papierowych wydrukach. Przedsiębiorstwa będą chciały mieć możliwość szybkiej oraz efektywnej cyfryzacji zgromadzonych kluczowych danych archiwalnych. W przypadku tej kategorii rozwiązań bardzo duże znaczenie ma funkcja przetwarzania dokumentów do edytowalnej formy. Według raportu przygotowanego na zlecenie Ricoh 13 mln euro to przeciętna kwota, której może zabraknąć w przychodach średniej europejskiej firmy, jeśli nie zadba o wdrożenie nowoczesnej infrastruktury informatycznej. Co ciekawe, to nie koszty, ale brak oferty dostosowanej do rzeczywistych potrzeb przedsiębiorstw z sektora MŚP jest wskazywany jako główna bariera we wprowadzaniu nowych rozwiązań.

Dodatkowe informacje: ŁUKASZ WACŁAWIAK, IT CHANNEL SALES MANAGER, RICOH, LWACLAWIAK@RICOH.PL VADEMECUM CRN listopad 2017

51

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ RICOH.

icoh rozwija nowy program partnerski. Dzięki niemu resellerzy oraz integratorzy IT mogą włączyć do oferty rozwiązania z dziedziny druku i zarządzania infrastrukturą drukującą, a także zaproponować je klientom w bardzo atrakcyjnym oraz przejrzystym modelu rozliczeniowym. Głównym celem programu jest zwiększenie wiedzy i umiejętności partnerów w zakresie zabezpieczania dokumentów i budowania efektywnego środowiska obiegu informacji w przedsiębiorstwie. Ten aspekt funkcjonowania współczesnych firm zyskuje coraz większe znaczenie. Dane z raportu Quocirca („Print security: An imperative in the IoT era”, styczeń 2017) dowodzą, że aż 61 proc. przedsiębiorstw odnotowało w ciągu roku jeden lub więcej incydentów związanych z nieuprawnionym dostępem do danych z wykorzystaniem urządzenia drukującego. – W obliczu nowych regulacji prawnych, związanych z ochroną danych osobowych, firmy muszą zainwestować w rozwiązania podnoszące bezpieczeństwo danych i zapewniające zgodność z przepisami – twierdzi Łukasz Wacławiak, IT Channel Sales


Po pierwsze:

nie płacić!

Ataki za pomocą złośliwego oprogramowania szyfrującego ransomware, które zmusza ofiarę do płacenia okupu, zjednoczyły całą branżę IT, a przede wszystkim ekspertów ds. bezpieczeństwa. Dla jego wielu odmian powstały narzędzia deszyfrujące, na bieżąco opracowywane są też skuteczne sposoby uniknięcia zarażenia. Gra w kotka i myszkę potrwa jednak długo, bo jej stawką są miliony dolarów rocznie. KRZYSZTOF JAKUBIK

P

azerności cyberprzestępców nie ma końca. Ransomware to najlepszy przykład na to, że będą próbowali zarobić dosłownie na wszystkim. Jeżeli nie są w stanie zyskać na odsprzedaży informacji uzyskanych od ofiar, to przynamniej spróbują – metodami typowo gangsterskimi – uniemożliwić ofierze korzystanie z jej własnych danych i zażądać okupu za przywrócenie go. Smaczku sprawie dodaje fakt, że dziś zarażane są

52

VADEMECUM CRN listopad 2017

nie tylko komputery, ale też telefony, serwery NAS i urządzenia smart TV. Pierwsze eksperymenty z oprogramowaniem szyfrującym dane wbrew woli ofiary sięgają jeszcze lat 80. ubiegłego wieku, ale jego „rozkwit” odnotowano w 2013 r., gdy CryptoLocker jako pierwszy żądał opłaty okupu w bitcoinach. Cyberwaluta gwarantuje pozorną anonimowość (pozorną, bo ścieżkę transakcji można odtworzyć, co w określonych przypadkach

prowadzi do ujawnienia zaangażowanych w nie osób), dlatego stała się ulubionym narzędziem cyberprzestępców. Przez ostatnie pięć lat ofiarami ransomware’u stały się nie tylko osoby prywatne i firmy. Do płacenia okupu przyznawały się publicznie m.in. oddziały policji, placówki medyczne, naukowe i stacje telewizyjne. Znanych jest też kilka spektakularnych przypadków zarażeń. Z powodu ransomware’u policja w Waszyngtonie utraciła

Fot. © BoonritP – Fotolia.com

OCHRONA PRZED RANSOMWARE


kontrolę nad 70 proc. kamer monitoringu przed inauguracją prezydencką w 2016 r. Z kolei Departament Policji w Teksasie stracił materiały dowodowe z ośmiu lat, co mogło doprowadzić do uwolnienia przestępców. Natomiast miejski urząd transportowy w San Francisco musiał zamknąć system sprzedaży biletów na dwa dni, co spowodowało utratę potencjalnych przychodów w wysokości 50 tys. dol.

ANATOMIA ATAKU Do niedawna ransomware najczęściej (w ok. 70 proc. przypadków) rozpowszechniany był jako załącznik lub link w wiadomościach e-mail rozsyłanych w ramach kampanii phishingowych. Ponieważ jest to złośliwy kod wykonywalny, jego sygnatura bez problemu może być rozpoznana przez oprogramowanie antywirusowe. Dlatego cyberprzestępcy nieustannie dokonują modyfikacji kodu, a także szukają innych metod jego dystrybucji. Największy skutek odnieśli w przypadku ataku WannaCry, kiedy do rozpowszechnienia złośliwego kodu wykorzystano lukę w protokole Windows Server Message Block. Została załatana we wszystkich systemach operacyjnych, więc ofiarami padły komputery bez stosownych poprawek. Sytuacja zmusiła także Microsoft do zareagowania i koncern opublikował łatkę dla Windows XP, który nie jest wspierany już od 2014 r., ale nadal znajduje się w pierwszej piątce najpopularniejszych i wciąż wykorzystywanych desktopowych systemów operacyjnych. Ransomware szyfruje pliki znajdujące się na dyskach lokalnych i wymiennych, zamapowanych dyskach sieciowych, a nawet zamapowanych dyskach w takich usługach jak Dropbox. Aby utrudnić zadanie osobom, które próbują opracować narzędzie deszyfrujące, ransomware Petya szyfrował też tablicę plików. Zwykle stosowany jest mechanizm szyfrowania asymetrycznego lub inne, jeszcze bardziej zaawansowane metody, których złamanie z wykorzystaniem lokalnych zasobów bywa trudne lub wręcz niemożliwe. Ofiarom wyznacza się termin zapłaty, informując, że jeśli tego nie zrobią, klucze wykorzystane do zaszyfrowania ich danych zostaną zniszczone.

Sebastian Zamora Channel Account Executive, Sophos

W wielu przedsiębiorstwach wdrożone są jakieś narzędzia ochronne, ale z reguły nie są one skuteczne w przypadku ransomware’u. Cyberprzestępcy nauczyli się je omijać, np. zaraz po procesie zaszyfrowania danych złośliwy kod sam siebie usuwa z komputera, aby utrudnić jego analizę. Dlatego, żeby móc zatrzymać taki atak, należy wprowadzić zabezpieczenia w wielu obszarach. Powinny sprawdzać w czasie rzeczywistym, czy na komputerze nie aktywowano jakiegoś procesu szyfrującego dane, oraz wymieniać się informacjami z innymi rozwiązaniami ochronnymi, np. do zabezpieczania serwerów poczty elektronicznej i innych. Taka komunikacja pozwoli na szybką korelację danych o pozornie niewiele znaczących wydarzeniach, które mogą prowadzić do utraty danych.

Opracowanie obowiązkowego w przypadku ransomware’u mechanizmu „obsługi klienta”, który automatycznie sprawdza, czy okup został wpłacony, generuje klucz deszyfrujący i wysyła go, nie jest takie proste. Dlatego zdarzały się przypadki, że mimo zapłacenia okupu ofiara nie otrzymywała klucza bądź otrzymany klucz nie działał. Pojawiły się też warianty ataków, które po prostu niszczyły dane i nie było szans na ich odzyskanie. Rośnie obawa, że wkrótce użytkownicy komputerów będą otrzymywać propozycje „nie do odrzucenia”. Będą zmuszeni do kupowania oprogramowania, które będzie „chroniło” komputer przed atakiem konkretnej grupy cyberprzestępczej. Wówczas niejako ziści się teoria spiskowa z lat 90., że autorami wirusów są sami producenci oprogramowania antywirusowego. Model oferowania produktów jako usługi zaczęto stosować także w przypadku ransomware’u. Najpierw pojawiła się propozycja wykupienia ataku DDoS i skierowania go przeciwko konkretnej firmie, dziś można już zamówić przepro-

wadzenie ataku ransomware. W ten sposób działa m.in. usługa o nazwie Satan.

JAK UNIKNĄĆ ZAGROŻENIA? Zarażenia się ransomware’em można dość łatwo uniknąć. Przede wszystkim jednak trzeba być świadomym zagrożenia i znać mechanizm działania szkodliwego oprogramowania. Prowadzenie szkoleń i wdrożenie systemów ochronnych w firmach, których zarząd zna wartość swoich danych, może być żyłą złota dla resellerów. Najważniejsza jest „higiena”, czyli zdrowy rozsądek użytkowników podczas korzystania z komputera. Administratorzy mogą im trochę pomóc. Warto np. włączyć wyświetlanie nazw rozszerzeń plików (domyślnie w Windows ta opcja jest wyłączona), aby użytkownicy mogli zidentyfikować skrypty JavaScript udające zwykłe dokumenty. Z kolei możliwość korzystania z makr w dokumentach (szczególnie tych przesłanych pocztą elektroniczną) koniecznie należy wyłączyć. Użytkownicy nie powinni mieć

Magdalena Baraniewska Corporate Country Sales Manager, F-Secure

W zwalczaniu ransomware’u bardzo pomocne są rozwiązania korzystające z zasobów chmurowych. Dzięki nim można bardzo szybko przesłać do analizy w symulowanym środowisku podejrzany kod i otrzymać informację o potencjalnym znajdującym się w nim zagrożeniu. Tego typu narzędzia ułatwiają też administratorom uzyskanie informacji o aktualnym poziomie bezpieczeństwa w firmie, co pozwala na wyeliminowanie słabych punktów i uniknięcie ataku.

VADEMECUM CRN listopad 2017

53


OCHRONA PRZED RANSOMWARE też przyznanych uprawnień administratora ani dostępu do zasobów sieciowych, z których na co dzień nie korzystają. Bardzo ważna jest dbałość o aktualizowanie systemu operacyjnego i wszystkich aplikacji. Większość skutecznych ataków ransomware powiodła się właśnie na urządzeniach, w których nie zainstalowano łatek bezpieczeństwa. Wszystkie wykorzystywane w firmie komputery, serwery i urządzenia mobilne powinny być też wyposażone w oprogramowanie antywirusowe. Umożliwi ono odsianie tych zagrożeń, które wcześniej zostały już zidentyfikowane. Oprócz antywirusa warto wdrożyć uniwersalne rozwiązanie UTM, wyposażone w system IPS (Intrusion Prevention System), blokujący próby wykorzystania luk w oprogramowaniu i jego podatności, oraz mechanizm sandboxingu, czyli emulacji podejrzanego kodu, który ma być uruchomiony. W ofercie producentów pojawiają się pierwsze pakiety typu antyransomware, które wykorzystują fakt, że mechanizm pracy oprogramowania ransomware jest powtarzalny i w jego schemacie można znaleźć miejsca ułatwiające zablokowanie procesu szyfrowania. Wystarczy np. „uczulić” komputer na fakt podjęcia próby dostępu w krótkim czasie do wielu plików użytkownika (trzeba zrobić wyjątek dla oprogramowania backupowego) lub edycji różnych rodzajów plików przez aplikację, która do tego zwyczajowo nie służy. Przykładowo, do edycji plików tekstowych, arkuszy kalkulacyjnych czy prezentacji powinny być uprawnione tylko właściwe aplikacje z pakietu biurowego.

BACKUP OSTATNIĄ DESKĄ RATUNKU

Nie tylko z powodu ransomware’u należy regularnie tworzyć kopie zapasowe danych i – w miarę możliwości – przechowywać je na zewnętrznych nośnikach, niepodłączonych do sieci. Paradoksalnie, trzeba pamiętać o zaszyfrowaniu skopiowanych danych, aby nie wpadły w niepowołane ręce. – Zwykłe wykonywanie backupu plików ze stacji roboczej na serwer NAS nie zawsze się sprawdza w przypadku ataku ransomware – podkreśla Grzegorz Bielawski, szef

54

VADEMECUM CRN listopad 2017

Najpoważniejsze ataki ransomware w 2017 r. BAD RABBIT – najnowszy znaczący atak, z października 2017 r., powiązany z ransomware’em Petya (podobieństwo w mechanizmie szyfrującym dane dla okupu, a także w domenach wykorzystywanych przez cyberprzestępców do koordynowania ataku). Próbuje uzyskiwać dane uwierzytelniające przy użyciu usługi WMIC systemu Windows. Atakowane były głównie firmy w Niemczech, Rosji, Turcji i na Ukrainie. Ze względu na podobieństwo do już wykrytych i przeanalizowanych ataków, skuteczny głównie w bardzo słabo zabezpieczonych systemach. CERBER – ransomware, którego kod stara się omijać mechanizmy nauczania maszynowego stosowanego w antywirusach i rozwiązaniach typu sandbox. Wartość żądanego okupu rosła z upływem czasu. KILLDISK – użyty do usunięcia ważnych plików z komputerów ukraińskich instytucji finansowych w grudniu 2016 r. Na początku 2017 r. pojawił się jego nowy wariant. Celem były nie tylko komputery z systemem Windows, ale również stacje robocze i serwery z Linuksem. Pliki nie były odszyfrowywane nawet po opłaceniu okupu. LOCKY - został odkryty w lutym 2016 r. i rozesłany do milionów użytkowników na całym świecie, w tym do 30 mln użytkowników sklepu Amazon. Nadal aktywny i systematycznie modyfikowany. Złośliwe pliki rozsyłane są w wiadomościach e-mail jako rzekomy dokument Worda. PATCHER – pierwszy znaczący ransomware dla systemu Mac OS. PETYA – „bohater” czerwca 2017 r., wariant kodu, który rozsyłany był (ale ze znacznie mniejszą skutecznością) w 2016 r. Ofiary to głównie instytucje rządowe, placówki użyteczności publicznej i firmy na Ukrainie oraz w innych państwach europejskich. Szyfruje nie tylko pliki, ale także tablicę plików na twardym dysku. POPCORN TIME – ransomware, który oferował odszyfrowanie plików za darmo, jeśli ofiara ułatwi… zaatakowanie i zainfekowanie dwóch innych osób. SLOCKER – pierwszy ransomware dla systemu mobilnego Android, który naprawdę szyfrował pliki, a nie tylko blokował ekran telefonu lub tabletu. WANNACRY – ransomware o największym geograficznym zasięgu, w maju 2017 r. zaatakował 300 tys. komputerów w 150 krajach. Globalne straty w wyniku ataku szacowane są na 4 mld dol. Do propagacji złośliwego kodu wykorzystano lukę w protokole Windows Server Message Block. Ofiarami byli głównie posiadacze niezałatanych systemów.

polskiego oddziału QNAP-a. – Wówczas zdrowe pliki mogą zostać zastąpione zaszyfrowanymi. Dlatego polecamy skorzystanie z mechanizmu kopii migawkowych. Podczas szkoleń często demonstrujemy, jak zachowuje się komputer, na którym zaszyfrowano dane, i jak, właśnie dzięki snapshotom, można je odzyskać. Ważne jest też, żeby regularnie prowadzić testy stworzonego procesu backupowego, wielokrotnie bowiem zdarzało się, że zabezpieczonych danych nie udawało się odzyskać. Można nawet pokusić się o stworzenie tzw. brudnego środowiska testowego (galwanicznie odizolowanego od produkcyjnego i Internetu), w którym dokonuje się testów na złośliwym oprogramowaniu, np. kontrolowanego zarażenia i próby odzyskania danych.

Gdy jednak dojdzie do zaszyfrowania, a backupu nie ma lub nie działa, pocieszający może być fakt, że podczas tworzenia kodu ransomware’u popełnianych jest wiele błędów, głównie podczas implementacji modułu szyfrującego. Dzięki temu udało się opracować wiele narzędzi deszyfrujących, a z części można korzystać bezpłatnie (m.in. w ramach zainicjowanej przez Kaspersky Lab akcji No More Ransom). Zapłata okupu to ostateczność, odradzana m.in. przez organa ścigania. Ofiara nigdy nie ma gwarancji, że otrzyma poprawnie działający klucz deszyfrujący. Płacąc okup, jedynie utwierdzi przestępców w przekonaniu, że ich działalność jest skuteczna, a więc skłoni do jej kontynuowania.


F-Secure: wielu zagrożeń można uniknąć Firmowe zabezpieczenia można złamać nie tylko przez luki w oprogramowaniu, często wynikające z braku aktualizacji, ale też z powodu błędnej konfiguracji systemów i stosowania domyślnych haseł w urządzeniach IoT. W wykryciu słabych punktów infrastruktury IT (potencjalnych celów ataku) pomoże F-Secure Radar.

CYBERATAKI NA RADARZE F-Secure Radar to narzędzie do skanowania infrastruktury IT, zdalnego wykrywania luk w zabezpieczeniach oraz łatwego zarządzania informacjami o zidentyfikowanych lukach. Rozwiązanie oferowane jest w dwóch wersjach. F-Secure Radar Cloud to usługa chmurowa, której działanie inicjuje się za pomocą przeglądarki internetowej. Natomiast F-Secure Radar Private jest wdrażany w serwerowni klienta i do pracy potrzebuje systemu operacyjnego Windows Server 2008 R2

Główne zalety narzędzia F-Secure Radar • PEŁNA WIDOCZNOŚĆ – mapa wszystkich aspektów dotyczących bezpieczeństwa precyzyjnie odwzorowuje zasoby sprzętowe, systemy operacyjne i aplikacje w lokalnej sieci oraz łączące się z nią z zewnątrz. • ZOPTYMALIZOWANA SKUTECZNOŚĆ ZESPOŁU IT – szybkie rozwiązywanie problemów w różnorodnych obszarach, dzięki wprowadzeniu efektywnych procesów, takich jak monitorowanie systemów pod kątem luk w zabezpieczeniach, zautomatyzowane skanowanie zasobów IT oraz mechanizm zgłaszania problemów, zapewniający ich weryfikowanie i rozwiązywanie zgodnie z ustalonymi priorytetami. • RAPORTOWANIE – tworzenie raportów z wiarygodnymi informacjami o zmieniającym się w czasie poziomie zabezpieczeń oraz ich wpływie na ciągłość biznesową przedsiębiorstwa. • OGRANICZENIE KOSZTÓW – proaktywne eliminowanie luk w zabezpieczeniach może wpłynąć na znaczne obniżenie kosztów ochrony. Tańsza jest ochrona infrastruktury IT zanim dojdzie do poważnych problemów niż podczas kryzysu albo przywracania systemu po incydencie.

(lub nowszego) oraz dostępu do Internetu, ze względu na konieczność korzystania z usług aktualizacyjnych. Za pomocą F-Secure Radar można wygenerować raport o zagrożeniach dla swojej sieci i odkryć niepotrzebne, narażone lub źle skonfigurowane systemy. Narzędzie wskazuje też tzw. shadow IT, czyli zasoby, które znalazły się w infrastrukturze przedsiębiorstwa bez wiedzy administratora. W przeciwieństwie do innych rozwiązań dostępnych na rynku, F-Secure Radar zapewnia mapowanie topologii, czyli układu sieci z węzłami oraz łączącymi je liniami. Innymi słowy, gwarantuje łatwy wgląd w jej stan, zidentyfikowanie wszystkich potencjalnych celów ataku i szybkie określenie jego przewidywanego zasięgu. Narzędzie F-Secure Radar umożliwia zespołom ds. bezpieczeństwa IT sporządzanie szczegółowych raportów zawierających informacje o:

– wszystkich znanych, nieznanych i potencjalnych zagrożeniach o znaczeniu krytycznym, – stosowanych w firmie środkach kontroli oprogramowania, sprzętu, firmware’u i sieci, – ukrytych zasobach IT, źle skonfigurowanych zasobach wewnętrznych, witrynach ze złośliwym oprogramowaniem oraz hostach, do których odwołują się witryny, – poziomie zabezpieczeń u partnerów i kontrahentów, – ryzyku wpływu phishingu na naruszenie reputacji przedsiębiorstwa.

Dodatkowe informacje: MAGDALENA BARANIEWSKA, CORPORATE COUNTRY SALES MANAGER, F-SECURE, MAGDALENA.BARANIEWSKA@F-SECURE.COM VADEMECUM CRN listopad 2017

55

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ F-SECURE.

R

ansomware WannaCry, który w maju spowodował infekcję komputerów na całym świecie, wykorzystuje lukę w zabezpieczeniach protokołu Windows Server Message Block, oznaczoną symbolem MS17–010. Microsoft udostępnił stosowną aktualizację w marcu i rozprzestrzenianie się WannaCry byłoby znacznie bardziej ograniczone, gdyby zaktualizowano więcej systemów operacyjnych. Tymczasem dane telemetryczne pochodzące z F-Secure Radar, narzędzia do wykrywania luk w zabezpieczeniach, wskazują, że protokół Windows SMB nadal działa w ok. 15 proc. hostów. Przykład ten pokazuje, dlaczego administratorzy powinni zadbać o to, aby system był zawsze zaktualizowany. Natomiast, według badania PwC z 2016 r., phishing znalazł się na pierwszym miejscu wśród najpopularniejszych metod ataku stosowanych wobec instytucji finansowych. Jeden z ostatnich eksperymentów przeprowadzonych przez F-Secure pokazał, że w link zawarty w sfałszowanym e-mailu, udającym wiadomość z serwisu LinkedIn, kliknęło aż 52 proc. pracowników, do których trafił.


Fot. © MATTHEW – Fotolia.com

SZYFROWANIE DANYCH I OCHRONA PRZED WYCIEKAMI

Coraz więcej przepisów sprzyja rozwojowi biznesu

związanego z szyfrowaniem danych Im więcej cyfrowych danych, tym więcej chętnych do ich kradzieży. Szyfrowanie to jedna z najpewniejszych metod zabezpieczania poufnych informacji, a rozwiązania DLP pomagają w zachowaniu zgodności z nowymi, coraz bardziej restrykcyjnymi przepisami. TOMASZ JANOŚ

P

opularność pracy zdalnej i modelu BYOD sprawiły, że firmy muszą się liczyć z coraz większym ryzykiem wycieku poufnych danych oraz zagrożeniami w rodzaju szpiegostwa przemysłowego i cyberataków. Najlepsze praktyki ochrony zakładają wykorzystanie szyfrowania, które zapewnia prywatność i uzyskanie zgodności z regulacjami branżowymi, np. PCI i HIPPA, oraz ogólnymi, takimi jak RODO. Na rynku funkcjonuje bardzo wiele rozwiązań do szyfrowania danych

56

VADEMECUM CRN listopad 2017

na poziomie aplikacji, urządzeń końcowych, baz danych, serwerów, pamięci masowych, a także całych centrów danych i zasobów w chmurze. Są też produkty zapobiegające wyciekom danych, czyli platformy DLP. Jednak wybór właściwych narzędzi dla klienta, dostosowanych do jego konkretnych potrzeb i możliwości budżetowych, wcale nie jest prosty. Niełatwym zadaniem jest także wdrożenie, bo nawet najlepszy system ochronny niewłaściwie zaimplementowany, zamiast chronić zmniejsza

bezpieczeństwo informatyczne albo dezorganizuje pracę. Z szyfrowania jako pierwsze oczywiście korzystało wojsko, a następnie ten sposób ochrony danych przejęły firmy z branży finansowej. Kryptografii używają placówki administracji publicznej a także ochrony zdrowia. Coraz częściej sięgają po nią większe przedsiębiorstwa, na co wpływ w ostatnich latach ma znaczny wzrost wiedzy o zagrożeniach związanych wyciekiem danych. Przyczyniły się do tego m.in. działania


WikiLeaks i afera zapoczątkowana przez Edwarda Snowdena. – W większych firmach zdano sobie sprawę, że uwierzytelnianie to niewystarczające zabezpieczenie. Firmy z sektora MŚP wciąż jednak stosują ochronę, na przekład przez szyfrowanie, w zbyt małym zakresie, licząc, że ryzyko wycieku danych nie jest w ich wypadku duże – mówi Dzianis Kashko, Key Account Manager w firmie Comtegra. Podczas wdrożeń integrator ma do czynienia z dwoma rodzajami danych. Część z nich pozostaje w spoczynku (data at rest) i znajduje się na wewnętrznych i zewnętrznych nośnikach. Są też dane, które przesyła się w sieci (data in motion), np. w formie wiadomości pocztowych. Ponieważ informacje w ruchu łatwiej przechwycić, w tym wypadku częściej stosuje się szyfrowanie asymetryczne. Do zabezpieczania danych w spoczynku wykorzystywana jest prostsza kryptografia symetryczna. Można się spodziewać, że szyfrowanie będzie coraz powszechniej stosowane w komunikacji zewnętrznej – między stronami biznesowymi, oddziałami jednej firmy itp. Przedsiębiorstwom decydującym się na tego rodzaju ochronę poczty elektronicznej można zaproponować jedno z dwóch rozwiązań. Pierwszym są agenty programowe instalowane na urządzeniach końcowych. Gdy użytkownik napisze wiadomość i kliknie „wyślij”, zostanie ona poddana szyfrowaniu przez agenta w jego komputerze. W zabezpieczonej postaci e-mail jest przekazywany do serwera pocztowego i dalej do odbiorcy. – Drugim rozwiązaniem jest zainstalowanie w infrastrukturze bramy pocztowej, która będzie odpowiadać za szyfrowanie. Gdy użytkownik wyśle e-mail, to po przejściu przez lokalny serwer pocztowy wiadomość zostanie zaszyfrowana przez bramę i wyekspediowana w świat – tłumaczy Damian Przygodzki, Senior Systems Engineer w ABC Data.

RAZEM Z SYSTEMEM OPERACYJNYM

Przedsiębiorstwa nie muszą dziś kupować do szyfrowania oddzielnego rozwiązania. Mogą wdrożyć tego rodzaju

ochronę danych na dyskach swoich komputerów, wykorzystując natywne narzędzia wbudowane w systemy operacyjne. Microsoft oferuje BitLockera na platformie Windows, a Apple – rozwiązanie FileVault dla swoich urządzeń z systemem Mac OS. BitLocker jest na tyle dobrym narzędziem, że klienci chcący stosować szyfrowanie na komputerach z Windows 8 i 10 (w wersjach Professional i Enterprise) oraz Windows 7 (Enterprise i Ultimate) często decydują się na jego użycie, oszczędzając na zakupie dodatkowego rozwiązania. – Gdy jednak potrzebne jest bardziej zaawansowane zabezpieczenie, które zapewnia większe możliwości konfiguracji i korelacji z innymi narzędziami, warto zaproponować klientowi produkty niezależne od systemu operacyjnego – twierdzi Damian Przygodzki. Specjalistyczne rozwiązanie może także zapewniać wygodne i wydajne zarządzanie urządzeniami, na których będą wykorzystywane funkcje szyfrowania wbudowane w systemy operacyjne. Producenci rozwiązań przeznaczonych do szyfrowania dysków zauważyli, że dostępność takich narzędzi jak BitLocker wpływa na wyniki sprzedaży ich własnych produktów. Dlatego starają się oferować coś więcej – do zabezpieczania dysków dodają szyfrowanie poczty elektronicznej, czyli umożliwiają wykorzystanie jednocześnie kluczy asymetrycznych i symetrycznych. W ich rozwiązaniach często jest stosowany bardzo efektywny protokół Pretty Good Privacy (PGP).

METODA ORGANIZACJI DOSTĘPU Narzędzia do szyfrowania klasy enterprise są wdrażane nie tylko po to, by umożliwić skuteczną ochronę informacji, ale również w celu efektywnego zarządzania procesami biznesowymi w przedsiębiorstwach. Ogromnym problemem może być chociażby utrata urządzenia końcowego, takiego jak laptop, w wyniku kradzieży bądź zaniedbania pracownika. Kłopot sprawia też pracownik, który zapomina hasła albo rozstaje się z pracą i zwraca komputer, ale nie zostawia haseł dostępu do zaszyfrowanych na urządzeniu informacji. Administrator dysponujący konsolą do zarządzania kluczami kryptograficznymi uniknie konsekwencji opisanych sytuacji – w pierwszym przypadku dzięki możliwości wymuszania szyfrowania, w drugim – ponieważ ma dostęp do haseł. Konsola posłuży mu także do narzucenia użytkownikom okresowej zmiany haseł zabezpieczających, by nie dochodziło do przechwycenia uniwersalnego klucza do szyfrowania dysku i poczty e-mail, który nie był zmieniany przez długi czas. Przy szyfrowaniu ważne jest zarządzanie dostępem do danych klasyfikowanych według różnych poziomów poufności. Wykorzystując platformy do zarządzania, można realizować zasadę ograniczania uprawnień dostępu do informacji (least privilege) i przydzielać go tylko tyle, ile potrzeba pracownikowi do wykonywania obowiązków określonych przez stanowisko i wykonywane w firmie zadania. Może to dotyczyć także zewnętrznych administratorów i usługodawców.

Zdaniem integratora q  Dzianis Kashko, Key Account Manager, Comtegra Obserwujemy, że większość przedsiębiorstw w segmencie enterprise w mniejszym lub większym stopniu już wykorzystuje szyfrowanie służące zachowaniu poufności danych. Wszyscy klienci przetwarzający i przechowujący dane osobowe oraz używający ich w komunikacji zewnętrznej muszą stosować metody kryptograficzne. I nie jest to sprawa ich wyboru, tylko obiektywna konieczność. Nie poniosą bowiem odpowiedzialności za wyciek informacji, jeśli była solidnie zabezpieczona. Klienci wykorzystują także szyfrowanie do tworzenia zaufanych stron internetowych, do bezpiecznej komunikacji pocztowej, zarówno wewnętrznej jak i zewnętrznej, oraz do zabezpieczania dysków w komputerach. Korzystają często z kluczy asymetrycznych, ale do dyspozycji mają dziesiątki różnych metod kryptograficznych, stosowanych w zależności od rodzaju medium i chronionej informacji.

VADEMECUM CRN listopad 2017

57


SZYFROWANIE DANYCH I OCHRONA PRZED WYCIEKAMI W PAKIECIE Z ANTYWIRUSEM Narzędzia do szyfrowania mogą być wdrażane oddzielnie, bądź jako element całościowej ochrony typu Endpoint Security. W ostatnich latach pakiety do zabezpieczania punktów końcowych obrastały kolejnymi funkcjami. Kiedyś zapewniały przede wszystkim opartą na sygnaturach ochronę przed wirusami i innym złośliwym oprogramowaniem. Dziś są to „kombajny” z wieloma modułami, z których każdy odpowiada za inny aspekt zabezpieczeń i zarządzania ochroną informacji w przedsiębiorstwach. Ważnym elementem tych platform są narzędzia do szyfrowania danych oraz zarządzania komputerami, nośnikami i aplikacjami chronionymi metodami kryptograficznymi. W rezultacie można dystrybuować reguły szyfrowania w sieci i zdalnie kontrolować ich przestrzeganie w punktach końcowych. Szyfrowaniu mogą być poddawane wszystkie dane zapisane na dyskach wewnętrznych oraz w folderach określonych przez administratora albo użytkownika. Funkcje kryptograficzne zapewniają też ochronę wymiennych urządzeń pamięci masowej. Przeprowadzają wtedy szyfrowanie danych kopiowanych na wymienne nośniki, mogą również zabezpieczać całą zawartość zewnętrznego urządzenia zaraz po jego podłączeniu do komputera. Pakiet do zabezpieczania punktów końcowych może także zawierać funkcje szyfrowania wiadomości wysyłanych pocztą elektroniczną i przekazywanych przez inne kanały komunikacji.

ŻEBY NIC NIE WYCIEKŁO Wraz z szyfrowaniem stosuje się coraz częściej konsolidację danych i rozwiązania zapobiegające wyciekowi danych (Data Loss Prevention). Przykładowo, uniemożliwia się kopiowanie krytycznych danych na urządzenia wynoszone poza firmę. Wdrożenie systemów DLP nie jest jednak łatwe, ponieważ kwestia wycieku danych dotyka newralgicznych obszarów funkcjonowania przedsiębiorstw. Jest także procesem długotrwałym, bo ustanowiona polityka bezpieczeństwa wymaga modyfikowania, by lepiej przystawała do

58

VADEMECUM CRN listopad 2017

Szyfrowanie to nic nowego

Na długo przed ostatecznym kształtem regulacji RODO i ustaleniem daty ich wprowadzenia w życie, Generalny Inspektor Ochrony Danych Osobowych zwracał uwagę, że szyfrowanie jest podstawowym sposobem zapewnienia poufności danych osobowych. Stanowi bowiem ochronę przy przesyłaniu danych metodą teletransmisji siecią publiczną, w której istnieje niebezpieczeństwo przejęcia informacji przez osobę nieupoważnioną, a także ich nieuprawnionej zmiany, uszkodzenia lub zniszczenia. W celu utrzymania wysokiego poziomu bezpieczeństwa systemów informatycznych, wykorzystywanych do przetwarzania danych osobowych, sprzętu i nośników przenośnych od dawna zalecane jest także stosowanie środków ochrony kryptograficznej.

sposobu zarządzania danymi w danej firmie. Dostosowywanie polityki ma wpływ nie tylko na skuteczniejszą ochronę, ale także na optymalizację wykorzystania zasobów sprzętowych komputerów, bo egzekwowanie reguł DLP może być dla nich sporym obciążeniem. – Dlatego dopiero po okresie od sześciu miesięcy do roku, zależnie od złożoności przypadku i zaawansowania użytego rozwiązania, można mówić o sprawnie działającym systemie w środowisku firmowym klienta – ocenia Damian Przygodzki. Ponieważ rozwiązania DLP nie są tanie, a od wdrażających wymagana jest spora wiedza, na rynku pojawiają się narzędzia mniej kosztowne, które oferują tylko niektóre, wybrane funkcje ochrony przed wyciekiem danych. Może to być kontrola użycia przenośnych nośników danych podłączanych przez porty USB w komputerach, zabezpieczanie dokumentów w urządzeniach mobilnych itp. Do wyboru „lżejszych” rozwiązań DLP ma przekonać klientów daleko posunięta intuicyjność i automatyzacja ochrony. – DLP jest jednak tak skomplikowanym procesem, że nie można tego typu ochrony

za bardzo uprościć i zautomatyzować. Dane są na tyle cennym zasobem, że wymagają zaawansowanej kontroli – uważa przedstawiciel ABC Data.

CIĄGLE BRAKUJE PROCEDUR Wprowadzenie szyfrowania w przedsiębiorstwie jest relatywnie proste, bo opiera się na ilościowej ocenie ryzyka i kosztów jego ograniczania. Upraszczając, da się obliczyć, ile może kosztować firmę utrata laptopa, bo składa się na to cena sprzętu oraz wartość znajdujących się na nim informacji (liczona np. na podstawie wysokości kary za wyciek danych osobowych). – Inaczej sprawa ma się z oceną jakościową ryzyka w przypadku systemów DLP. Trudno oszacować, jaki wpływ na reputację i wartość firmy będzie miał wyciek informacji – wyjaśnia Dzianis Kashko z Comtegry. Przedstawiciel warszawskiego integratora uważa, że największym problemem z DLP nie jest konfiguracja platformy, bo każde narzędzie prędzej czy później da się skonfigurować. Chodzi raczej o brak w firmach procedur biznesowych i szeroko pojętej polityki bezpieczeństwa, w wyniku czego tego typu wdrożenia mogą się ciągnąć w nieskończoność. A zatem projekt powinien zaczynać się od określenia, czym dokładnie dane przedsiębiorstwo się zajmuje, jakie dane są dla niego najważniejsze oraz jaki poziom ryzyka może zaakceptować. Częsty błąd polega na tym, że aby wprowadzić jak najlepszą ochronę, zaczyna się blokować praktycznie wszystko, a wtedy firma może zostać wręcz sparaliżowana. Dlatego w projektach dotyczących dużych i skomplikowanych przedsiębiorstw pojawia się potrzeba skorzystania z usług profesjonalnych firm konsultingowych i audytorów, którzy potrafią przełożyć uwarunkowania biznesowe na język techniczny, zrozumiały dla integratorów i administratorów. Ma to znaczenie ponieważ przedstawiciele biznesu posługują się specyficznym językiem i często mają oczekiwania zupełnie oderwane od rzeczywistych możliwości i potrzeb. Wtedy lepiej, gdy z zarządem firmy komunikuje się ktoś jeszcze, kto dobrze rozumie zarówno uwarunkowanie biznesowe, jak i techniczne.


Pendrive może być bezpiecznym nośnikiem

I

stnieje wiele regulacji prawnych, nakazujących należytą dbałość o poufność przetwarzanych i przechowywanych danych. Wkrótce zacznie obowiązywać rozporządzenie RODO, które wprowadza bardzo dotkliwe kary za wszelkie niedociągnięcia. Warto zatem zainteresować się szyfrowanymi pamięciami USB, gdyż dzięki nim minimalizowane jest ryzyko ujawnienia poufnych informacji. Poniżej garść porad przedstawiających kroki, które należy podjąć, aby bezpiecznie korzystać z tych urządzeń w firmie. 1. Opracowanie reguł dotyczących stosowania szyfrowanych pamięci USB. Powinny określać osoby i grupy, które muszą mieć dostęp do poufnych danych oraz mogą przechowywać je na pamięci USB. Należy również stworzyć plan postępowania w przypadku zgubienia pamięci. Zasady te należy jednak opracować jakiś czas przed wdrożeniem ich obowiązywania, aby dać pracownikom czas na zapoznanie się z nimi. Powinny być przekazywane załodze podczas szkoleń i dostarczane w formie pisemnej. Warto też wprowadzić procedurę wydawania nowym pracownikom szyfrowanych pamięci USB razem z identyfikatorem lub służbowym laptopem podczas wstępnego przeszkolenia. 2. Wybór pamięci USB najlepiej dostosowanych do potrzeb przedsiębiorstwa. Należy zweryfikować poziom niezawodności pamięci USB przez skontrolowanie ich zgodności z podstawowymi normami bezpieczeństwa, takimi jak szyfrowanie AES-256, certyfikaty FIPS 197 lub FIPS 140–2 Level 3, oraz sprawdzić dostępność wersji z opcją zarządzania zdalnego. Warto też zadbać o odpowiedni stosunek ceny do poziomu gwarantowanej ochrony danych, np. jeśli nie istnieje wymóg szyfrowania lub zastosowania obudowy klasy wojskowej, nie ma sensu płacić za takie opcje. Ważne

Pendrive

dla profesjonalistów Kingston oferuje szyfrowane pamięci USB 3.0, które zaspokajają wszystkie potrzeby przedsiębiorstw w zakresie zabezpieczeń. W portfolio znajdują się dwie serie urządzeń: DataTraveler oraz IronKey. Dzięki możliwości wyboru spośród kilku modeli i pojemności, można dobrać pamięć dopasowaną do potrzeb firmy związanych z zabezpieczeniami. Wszystkie modele DataTraveler oraz IronKey są objęte 5-letnią gwarancją (tylko model DataTraveler 2000 ma 3-letnią) i bezpłatną pomocą techniczną. Autoryzowanymi dystrybutorami szyfrowanych pamięci Kingstona w Polsce są firmy: AB, ABC Data, Action, Also, Alstor i Tech Data. Więcej informacji pod adresem kingston. com/encryptedsecurity.

jest, aby przestrzeń przeznaczona na dane użytkownika była w całości zaszyfrowana i nie można było zapisać danych bez zabezpieczenia. Pamięć musi także zapewniać sprzętowe uwierzytelnianie z wymogiem podania hasła i blokowaniem dostępu do danych w wyniku określonej liczby nieudanych prób logowania. 3. Przeprowadzanie szkoleń dotyczących zasad użytkowania pamięci USB. Podczas szkolenia warto zaprezentować wzięte z życia przykłady utraty danych i innych negatywnych konsekwencji sto-

sowania nieszyfrowanych nośników. Podczas szkoleń można przeprowadzić także wymianę pendrive’ów wykorzystywanych dotychczas w celach służbowych (np. otrzymanych przez pracowników jako gadżety reklamowe) na urządzenia zatwierdzone do stosowania w firmie. 4. Zarządzanie uwierzytelnionymi pamięciami USB i blokowanie urządzeń niezatwierdzonych. Służy do tego odpowiednie oprogramowanie dostarczane przez producenta pamięci. Umożliwia scentralizowane zarządzanie poszczególnymi urządzeniami oraz administrowanie pamięciami w sieci LAN i przez Internet. Stanowi doskonałe narzędzie do wprowadzania i egzekwowania zasad użycia szyfrowanych pamięci USB przez poszczególnych użytkowników lub ich grupy oraz kontrolowania operacji na plikach. Zapewnia zdalne wykonywanie kopii zapasowych zawartości urządzeń użytkowników przenoszących poufne dane i zdalne dezaktywowanie urządzeń po ich zgubieniu lub naruszeniu zabezpieczeń. Umożliwia także zmianę hasła zapomnianego przez użytkownika. 5. Wyposażenie wszystkich punktów dostępowych w oprogramowanie antywirusowe. Pamięci USB często są wykorzystywane do przenoszenia złośliwego kodu. Aktualny antywirus eliminuje ryzyko zarażenia komputera lub nośnika, a przez to nieuprawnionego dostępu do przechowywanych na nich danych.

Dodatkowe informacje: ROBERT SEPETA, BUSINESS DEVELOPMENT MANAGER, KINGSTON TECHNOLOGY, RSEPETA@KINGSTON.EU VADEMECUM CRN listopad 2017

59

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ KINGSTON TECHNOLOGY.

Chyba każdemu użytkownikowi pendrive’ów zdarzyło się zgubić jeden z nich. Jeśli były na nim zapisane poufne dane, grozi to poważnymi konsekwencjami.


SZYFROWANIE DANYCH I OCHRONA PRZED WYCIEKAMI

Jak zapewnić poufność danym? ABC Data ma w ofercie wiele rozwiązań, które po wdrożeniu u klienta skutecznie ochronią jego przedsiębiorstwo przed przejęciem wrażliwych firmowych danych przez osoby niepowołane.

S

prawdzoną i wyjątkowo efektywną metodą ochrony danych jest ich szyfrowanie. Po 2013 r. – w którym świat żył m.in. sprawą Edwarda Snowdena i WikiLeaks – nastała wręcz moda na jego stosowanie. W efekcie wzrosło nie tylko wykorzystanie protokołu HTTPS w przeglądarkach, lecz także zainteresowanie szyfrowaniem firmowej poczty elektronicznej. Gdy wiadomości e-mail są wysyłane w formie zwykłego tekstu, ktoś niepowołany może je łatwo przechwycić. Dlatego użytkownicy potrzebujący rozwiązań zabezpieczających zawartość poczty elektronicznej zazwyczaj wybierają te, które instaluje się w formie agenta bezpieczeństwa bezpośrednio na każdym laptopie, stacji roboczej czy serwerze. Innym rozwiązaniem są bramy pocztowe, które jednocześnie chronią przed spamem i złośliwym oprogramowaniem, a także służą do szyfrowania wysyłanych e-maili.

SZYFROWANIE W WYDANIU PROFESJONALNYM

W firmach już od dawna stosuje się szyfrowanie zasobów na komputerach pracowników. W przypadku profesjonalnych wdrożeń zarządzanie tego typu ochroną powinno być przede wszystkim proste i intuicyjne. – Często spotykanym problemem jest to, że pracownicy po prostu zapominają haseł, bądź w błędny sposób je wprowadzają. Dlatego ich łatwe odzyskiwanie należy do podstawowych funkcji, których wymagają klienci decydujący się na użycie szyfrowania – tłumaczy Damian Przygodzki, Senior Systems Engineer w ABC Data.

60

VADEMECUM CRN listopad 2017

Administrator może potrzebować do tego centralnej konsoli zarządzającej, która umożliwi odszyfrowanie dysków i przywrócenie dostępu do komputerów. Za pośrednictwem konsoli tworzy się także reguły szyfrowania dla urządzeń końcowych. Dzięki jej połączeniu z Active Directory administrator otrzymuje kompletną listę użytkowników i komputerów. Ułatwia mu to zdefiniowanie polityki dystrybucji agentów za pomocą rozwiązania do szyfrowania bądź narzędzi firm trzecich. Zastosowanie szyfrowania nie zmniejsza komfortu pracy użytkowników komputerów. Odbywa się ono szybko i sprawnie, a przy wyłączeniu i ponownym uruchomieniu urządzenia proces wznawia się automatycznie w momencie, w którym został przerwany. Również wymagania sprzętowe nie są duże i z obsługą szyfrowania (bez objawów spowolnienia działania) poradzi sobie każdy w miarę nowy komputer. Zwłaszcza że laptopy, a więc maszyny, na których szyfrowanie jest najbardziej wskazane, są już najczęściej wyposażone w układy Trusted Platform Module. Montowane na płytach głównych moduły TPM wykonują zaawansowane obliczenia kryptograficzne i służą do przechowywania kluczy szyfrujących. Szybkość szyfrowania znacznie zwiększa wykorzystanie dysków SSD, które w nowych laptopach biznesowych są już powszechnie stosowane.

GDY ZAMEK W DRZWIACH NIE WYSTARCZY

W przypadku profesjonalnej infrastruktury IT, aby wzmocnić bezpieczeństwo

fizyczne i uniemożliwić dostęp do niej niepowołanych osób, można zaszyfrować dyski w serwerach i pamięciach masowych. W takiej sytuacji, nawet jeśli napęd zostanie skradziony, osobom niepowołanym nie uda się odczytać jego zawartości. Zabezpieczanie metodami kryptograficznymi przeprowadza się na dwa sposoby. – Pierwszym jest użycie napędów z wbudowanym szyfrowaniem sprzętowym. W tym wypadku kodowanie odbywa się w locie, a cały proces nie ma wpływu na ogólną wydajność systemu – wyjaśnia Artur Capiga, Systems Engineer w ABC Data. – Drugim sposobem jest wykorzystanie macierzy dyskowych, w których szyfrowanie jest realizowane w kontrolerze. Taki sposób ochrony umożliwia precyzyjne określenie, które dane w przestrzeni dyskowej powinny być zaszyfrowane (np. związane z finansami przedsiębiorstwa), a które nie.

WDROŻENIE DLP WYMAGA PRACY O ile wdrożenie rozwiązania szyfrującego nie jest zbyt skomplikowane, o tyle implementacja platformy służącej ochronie przed wyciekiem danych (Data Loss Protection) jest złożonym i czasochłonnym procesem. Pierwszy jego etap stanowi sklasyfikowanie i pogrupowanie danych. – Potrzebne jest zwłaszcza określenie, które dokumenty mają być ogólnodostępne, a do których dostęp powinien być ograniczony i w jaki sposób. Przykładowo dokumenty medyczne albo prawne dzielą się na ściśle określone kategorie. Ze względu na


ROZWIĄZANIA DO SZYFROWANIA I OCHRONY DLP Szyfrowania punktów końcowych można dokonywać np. za pomocą pakietu oprogramowania McAfee Complete Data Protection albo Symantec Endpoint Encryption. Gdy klienci będą chcieli chronić swoją pocztę, warto zaproponować im rozwiązanie Symantec Desktop Email Encryption albo licencję rozszerzającą o funkcję szyfrowania do już posiadanego rozwiązania, np. Symantec Messaging Gateway czy Cisco Email Security Appliance.

>>> Trzy pytania do… CRN Dlaczego warto oferować klientom narzędzia do szyfrowania? DAMIAN PRZYGODZKI Szyfrowanie zasobów to proces, którego zasadność użycia jest stosunkowo łatwo wytłumaczyć klientom. Tę formę ochrony warto zaproponować zwłaszcza w sytuacji, gdy pracownicy danej firmy czy instytucji korzystają ze służbowych laptopów i innych urządzeń mobilnych nie tylko w miejscu pracy, lecz również poza nim. Mimo zachowania ostrożności, to bardzo zwiększa ryzyko utraty danych, np. w przypadku kradzieży czy zgubienia urządzenia. W takiej sytuacji szyfrowanie skutecznie zabezpieczy dokumenty i pliki. Bardzo efektywna jest też ochrona poczty elektronicznej za pomocą kryptografii. Zainstalowany na komputerze agent programowy, połączony z używanym programem pocztowym, odpowiada za szyfrowanie wychodzących e-maili i deszyfrowanie przychodzących. Ten proces odbywa się w tle i nie powoduje żadnych zakłóceń w pracy komputerów. CRN Czy równie łatwo namówić klientów do wdrożeń platform DLP? DAMIAN PRZYGODZKI Platformy służące ochronie przed wyciekiem danych są bardzo zaawansowanymi rozwiązaniami. Wdrażając DLP, nie da się wykorzystywać gotowych szablonów. Każde Z kolei odpowiedzią na potrzeby przedsiębiorstw, w których wymagane jest wdrożenie fizycznej bądź wirtualnej platformy do ochrony przed wyciekiem danych, jest platforma McAfee Total Protection for Data Loss Prevention wraz z pakietem do instalacji na urządzeniach końcowych McAfee Endpoint Data Protection. Wszystkie wymienio-

Damiana Przygodzkiego, senior systems engineera w ABC Data przedsiębiorstwo ma swoją specyfikę i system musi być dosłownie „uszyty na miarę”. Dlatego do tej pory niewielu klientów decydowało się na użycie profesjonalnej ochrony przed wyciekiem informacji. Wraz z wejściem w życie przepisów RODO, co ma nastąpić już w przyszłym roku, wiele przedsiębiorstw oraz placówek z sektora publicznego – choćby ochrony zdrowia – będzie zobligowanych do skorzystania z rozwiązań do ochrony danych. CRN Jeśli ochrona przed wyciekiem jest tak skomplikowana, to partnerzy zapewne oczekują pomocy? DAMIAN PRZYGODZKI ABC Data jako dostawca rozwiązań zabezpieczających ma w swoim portfolio zaawansowane narzędzia do szyfrowania i ochrony przed wyciekiem danych, zapewniające zintegrowane i scentralizowane funkcje zarządzania. Zarówno w przypadku projektów polegających na wdrożeniach DLP, jak i zabezpieczania firmowych systemów informatycznych za pomocą szyfrowania, partnerzy mogą liczyć na pełne wsparcie. Nasi certyfikowani inżynierowie świadczą wiele usług, m.in. doradztwo przedsprzedażowe, audyt oraz pomoc we wdrożeniach. Dla partnerów organizujemy także liczne szkolenia – zarówno w formie webinariów, całodziennych seminariów, jak i kilkudniowych warsztatów technicznych. ne rozwiązania dostępne są dla resellerów i integratorów w ofercie ABC Data. Dystrybutor udziela partnerom pełnego wsparcia – od audytu bezpieczeństwa i doboru optymalnego rozwiązania dla ich klientów przez jego wdrożenie aż po szkolenia z obsługi i efektywnego wykorzystania zakupionego oprogramowania i platform ochrony danych.

Dodatkowe informacje: ABC DATA, UL. DANISZEWSKA 14, 03-230 WARSZAWA, ABCDATA-VALUEPLUS@ABCDATA.EU, TEL. (22) 676-09-00 VADEMECUM CRN listopad 2017

61

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ ABC DATA.

wiele specyficznych uwarunkowań, z jakimi zetkną się przy każdym projekcie wdrażający, system DLP musi być każdorazowo indywidualnie dostosowywany do potrzeb każdego klienta – przypomina Damian Przygodzki. Ponieważ jest to dość skomplikowany i czasochłonny proces, producenci rozwiązań oferują administratorom pomoc w postaci modułów, które uczą się przepływu informacji w firmie, na bieżąco go monitorując i automatycznie klasyfikując dane. Oczywiście taka automatyzacja wymaga dostarczenia do analizy określonej ilości danych, np. w postaci wskazanego rodzaju dokumentów. Stworzona w ten sposób polityka może zostać następnie zweryfikowana przez osobę czy zespół zarządzający systemem i uzupełniona o dodatkowe reguły, a następnie wdrożona. Warto zwrócić uwagę, że systemy DLP mogą również edukować użytkowników. W momencie wysyłania dokumentu może pojawić się komunikat, że dane w nim zawarte są poufne, co skłoni do refleksji nad zasadnością udostępniania takiego dokumentu lub danych. Platformy DLP mogą również dostarczać dowodów naruszenia polityki bezpieczeństwa. Gromadzą konkretne dokumenty, daty, informacje o kanałach dystrybucji oraz użytkownikach biorących udział w niedozwolonych procederach. Dlatego ważne jest również dostosowanie ustawień do regulacji prawnych danego kraju. Informacja o naruszeniu bezpieczeństwa może być przesłana do konkretnej osoby odpowiedzialnej za zarządzanie.


R O D O : od ogółu do szczegółu Stosowanie zasad przechowywania i ochrony danych wymaga znajomości dużej ilości przepisów. ANDRZEJ GONTARZ

M

nogość i różnorodność – tak najkrócej można scharakteryzować stan regulacji prawnych dotyczących przetwarzania i ochrony danych w naszym kraju. I mimo że jest kilka podstawowych aktów prawnych, które określają zasady postępowania w wybranych, przekrojowych obszarach (takich jak ochrona danych osobowych, prowadzenie dokumentacji finansowo-księgowej), poznanie szczegółowych wymagań odnośnie do – na przykład – czasu przechowywania dokumentów, wymaga zapoznania się z wieloma różnymi, zazwyczaj branżowymi lub dziedzinowymi, przepisami. Nie można wskazać jednej ustawy lub jednego rozporządzenia, w którym byłyby określone kompleksowe, uniwersalne zasady przechowywania i ochrony danych dla

62

VADEMECUM CRN listopad 2017

wszystkich obszarów funkcjonowania firm i instytucji. Obecnie dyskusja o prawnych aspektach ochrony danych jest oczywiście zdominowana przez tematy związane z RODO. Nowe, unijne rozporządzenie o ochronie danych osobowych zacznie obowiązywać od maja przyszłego roku. Jego zapisy wywołują jednak wiele pytań i wątpliwości, a nawet kontrowersji. Firmy, które chcą się przygotować do spełnienia przyszłych wymagań muszą już dzisiaj podejmować konkretne działania. A nie jest to wcale proste. W RODO nie ma bowiem jednoznacznych, ścisłych wytycznych i wymagań dotyczących systemów przetwarzania danych osobowych i ich zabezpieczania. Nie ma też konkretnych ustaleń co do sposobu przechowywania i przetwarzania gro-

madzonych informacji. Użyte do ochrony narzędzia i systemy mają być po prostu adekwatne do zdiagnozowanych wcześniej ryzyk i zagrożeń. Każde przedsiębiorstwo musi więc przeprowadzić analizę i ocenić, na ile wykorzystywane przez nie rozwiązania odpowiadają aktualnym wyzwaniom i wymogom bezpieczeństwa. W zamyśle ustawodawcy taki sposób regulacji ma zapewnić uniwersalność przepisów i ich „odporność” na zmiany technologiczne. W praktyce jednak brak jasno sprecyzowanych wymagań oznacza spore wyzwanie zarówno dla dużych, jak i dla małych podmiotów. Każda firma i instytucja musi samodzielnie określić, jakie techniki i poziomy zabezpieczeń są właściwe dla prowadzonego przez nią rodzaju działalności, charakteru posiadanych zbiorów danych osobowych, spo-

Fot. © flyalone – Fotolia.com

PRAWO


sobów ich wykorzystania oraz sytuacji na rynku. Musi również wprowadzić odpowiednie mechanizmy i procedury postępowania z danymi. Z punktu widzenia firm świadczących usługi przetwarzania danych (tzw. procesorów) ważne jest, że muszą zagwarantować administratorom danych (czyli zlecającym ich przetwarzanie podmiotom) należyty poziom zabezpieczeń przetwarzania danych w swoich systemach. Oznacza to, że muszą przystosować do wymogów RODO nie tylko wewnętrzne systemy i procesy ochrony danych osobowych, lecz również infrastrukturę i rozwiązania służące do wykonywania usług przetwarzania danych osobowych. I znowu: przepisy nie mówią, jakie dokładnie wymogi mają spełnić te systemy. Nakazują tylko, by gwarantowały właściwy poziom bezpieczeństwa przetwarzanych informacji.

REGULACJE MADE IN POLAND Być może sytuacja stanie się bardziej klarowna po uchwaleniu ustawy o ochronie danych osobowych. Jej projekt został przygotowany przez Ministerstwo Cyfryzacji. Wśród zadań przypisanych prezesowi Urzędu Ochrony Danych Osobowych, który ma zastąpić GIODO, jest wydawanie rekomendacji dotyczących sposobów zabezpieczania danych osobowych. Mają uwzględniać specyfikę danego rodzaju działalności, a ich opracowanie ma być konsultowane z zainteresowanymi podmiotami z poszczególnych sektorów gospodarki. Będą w nich określone środki techniczne i organizacyjne niezbędne do zapewnienia bezpieczeństwa przetwarzania danych osobowych. Prezes UODO będzie również zatwierdzał i udostępniał standardowe klauzule umowne, reguły korporacyjne oraz kodeksy postępowania w sprawach związanych z ochroną danych osobowych. Do jego kompetencji będzie należało także prowadzenie kontroli i nakładanie kar za niespełnienie wymogów RODO. Przedstawiciele Ministerstwa Cyfryzacji podkreślają, że w praktyce równie istotnym zadaniem nowego organu będzie edukowanie i wspomaganie firm w staraniach na

rzecz należytego wykonywania obowiązków zawartych w unijnym rozporządzeniu.

WSPÓLNA PODSTAWA PLUS PRZEPISY SEKTOROWE

Znaczenie rozstrzygnięć związanych z RODO jest ważne również dlatego, że z przepisów o ochronie danych osobowych wynika wiele innych regulacji dotyczących ochrony i przetwarzania danych w różnych obszarach działalności biznesowej i publicznej. Tak jest chociażby w przypadku danych medycznych. W obowiązującej ustawie o ochronie danych osobowych są one określone wprost jako wrażliwe. W związku z tym przepisy dotyczące ich ochrony mają bezpośrednie zastosowanie do działalności związanej z prowadzeniem dokumentacji medycznej w placówkach ochrony zdrowia. Szczegółowe zasady korzystania z danych medycznych zostały dodatkowo określone w ustawie o prawach pacjenta i rzeczniku praw pacjenta, w ustawie o świadczeniach opieki zdrowotnej finansowanych ze środków publicznych oraz w ustawie o wykonywaniu zawodu lekarza

i lekarza dentysty. Wymagania dotyczące systemów informatycznych służących do przetwarzania danych medycznych znalazły się z kolei w ustawie o systemie informacji w ochronie zdrowia. Warto też zauważyć, że obowiązujące w Polsce prawo pozwala obecnie na oddanie przetwarzania danych medycznych w outsourcing. Z podobną sytuacją mamy do czynienia w oświacie. Tutaj również przetwarzane dane mają głównie charakter danych osobowych i sposób ich wykorzystania musi być zgodny z odpowiednimi przepisami. A przetwarzaniu podlegają nie tylko dane uczniów, ale też dane rodziców i opiekunów dzieci, chociażby zaświadczenia o wysokości zarobków. Szczegółowe zasady przetwarzania i korzystania z danych zawartych w dziennikach lekcyjnych, w tym dziennikach elektronicznych, i innej dokumentacji szkolnej reguluje rozporządzenie Ministra Edukacji Narodowej w sprawie sposobu prowadzenia przez publiczne przedszkola, szkoły i inne placówki dokumentacji przebiegu nauczania, działalności wychowawczej i opiekuńczej oraz rodzajów tej dokumentacji. Szkołom przysługuje z mocy prawa możli-

Jak długo trzeba przechowywać dokumenty firmowe Jednym z ważniejszych aktów prawnych określających zasady przechowywania dokumentacji firmowej jest ustawa o rachunkowości. Wynika z niej, że zatwierdzone roczne sprawozdania finansowe firmy muszą przechowywać w sposób trwały. Księgi rachunkowe powinny być dostępne przez 5 lat. Na taki sam okres należy również zabezpieczyć m.in. dowody księgowe dotyczące pożyczek, kredytów i umów handlowych, roszczeń dochodzonych w postępowaniu cywilnym lub objętych postępowaniem karnym albo podatkowym oraz dokumentację przyjętego sposobu prowadzenia ksiąg rachunkowych i dokumenty inwentaryzacyjne. Według przepisów ordynacji podatkowej, podatnicy powinni przechowywać księgi podatkowe i związane z nimi dokumenty do czasu upływu okresu przedawnienia zobowiązania podatkowego. Przedawnia się ono z upływem 5 lat, licząc od końca roku kalendarzowego, w którym upłynął termin płatności podatku. Termin przechowywania może zostać wydłużony, gdy przykładowo bieg terminu przedawnienia ulegnie zawieszeniu. Dokumentacja pracownicza (np. listy płac, karty wynagrodzeń albo inne dowody, na podstawie których ustalana jest podstawa wymiaru emerytury lub renty) musi być przechowywana przez 50 lat od dnia zakończenia pracy przez ubezpieczonego. Wynika to z ustawy o emeryturach i rentach. Okres przechowywania kopii deklaracji rozliczeniowych i imiennych raportów miesięcznych przez płatnika składek określa natomiast ustawa o systemie ubezpieczeń społecznych. Muszą być dostępne w firmie przez 5 lat od dnia ich przekazania do ZUS. W stosunku do dokumentów przekazanych do ZUS przed 1 stycznia 2012 r. obowiązuje jednak 10-letni okres ich przechowywania.

VADEMECUM CRN listopad 2017

63


PRAWO wość przetwarzania danych osobowych uczniów bez pytania ich samych lub rodziców o zgodę. Przepisy o ochronie danych osobowych mają zastosowanie także w przypadku ewidencji gruntów i budynków (EGiB). Jej prowadzenie leży zazwyczaj w gestii starostów powiatów, którzy mogą przekazać to zadanie wójtom, burmistrzom lub prezydentom miast. Oprócz informacji dotyczących np. wymiarów działki czy budynku i materiałów użytych do budowy, ewidencja zawiera także informacje na temat właścicieli i współwłaścicieli opisanych nieruchomości. Te dane muszą być zabezpieczane zgodnie z przepisami o ochronie danych osobowych. Sposoby przetwarzania innych danych określają odrębne przepisy dotyczące dokumentacji geodezyjnej bądź funkcjonowania organów administracji publicznej (np. w zakresie udostępniania i wymiany danych). Trudno obecnie powiedzieć, które ze szczegółowych rozstrzygnięć dotyczą-

>>> Trzy pytania do… CRN Technologie informatyczne umożliwiają gromadzenie i bezterminowe przechowywanie praktycznie wszystkich danych. Pytanie, czy RODO będzie na to pozwalało? MACIEJ GAWROŃSKI Podstawową zasadą, na której opierają się przepisy RODO, jest zasada minimalizacji. Nie można zbierać zbyt wielu danych, nie można ich przechowywać za długo i nie może mieć do nich dostępu zbyt wiele osób. O ile nie ma konkretnej podstawy prawnej, dane osobowe mogą być przetwarzane tylko za zgodą osób, których dotyczą, i tylko wtedy, gdy jest to rzeczywiście potrzebne. To określa długość przechowywania danych osobowych. Co jakiś czas trzeba będzie sprawdzać, czy te dane są faktycznie jeszcze potrzebne. CRN Na kim spoczywa odpowiedzialność za spełnienie wynikających z RODO wymogów dotyczących rozwiązań informatycznych?

64

VADEMECUM CRN listopad 2017

cych przetwarzania danych osobowych będą obowiązywać w przyszłości. Projekt nowej ustawy przewiduje bowiem propozycje zmian przepisów sektorowych w ponad 130 ustawach. Jedna z propozycji dotyczy na przykład skrócenia czasu przechowywania dokumentacji pracowniczej z 50 do 5 lat.

FIRMA MUSI MIEĆ ARCHIWUM Zasady gromadzenia i przechowywania, czyli archiwizacji dokumentacji w instytucjach publicznych, w szczegółowy sposób regulują odrębne przespisy. Mówi o tym ustawa o narodowym zasobie archiwalnym i archiwach. Podlegają jej również zbiory dokumentów elektronicznych wytwarzanych zgodnie z przepisami ustawy o informatyzacji działalności podmiotów realizujących zadania publiczne. W przedsiębiorstwach prywatnych przechowywanie dokumentów, również tych w postaci cyfrowej, podlega usta-

mecenasa Macieja Gawrońskiego, partnera zarządzającego Kancelarii Prawnej Gawroński & Partners MACIEJ GAWROŃSKI Obowiązek zapewnienia bezpieczeństwa danych osobowych będzie spoczywał nie tylko na administratorze danych, czyli firmie, która wykorzystuje je w swojej działalności, ale także na procesorze, czyli podmiocie, który te dane przetwarza, oraz na podprocesorze, czyli podwykonawcy, któremu procesor zlecił przetwarzanie danych osobowych. Procesor będzie mógł być pociągnięty do odpowiedzialności za niezapewnienie odpowiedniego poziomu bezpieczeństwa w swoich systemach przetwarzania danych osobowych, tak samo jak i administrator. Również w przypadku szkody wyrządzonej osobie fizycznej. Przetwarzający dane osobowe może zostać ukarany za to, że nie zapewnił adekwatnych – technicznych i organizacyjnych – środków bezpieczeństwa danych. CRN Jak przetwarzający dane osobowe powinni zabezpieczyć działalność, by być w zgodzie z nowymi przepisami?

wom dotyczącym poszczególnych obszarów działalności biznesowej. Zalicza się do nich m.in. ordynację podatkową, ustawę o rachunkowości, przepisy o ubezpieczeniu społecznym i dotyczące zatrudnienia pracowników. Przepisy określające okres obowiązkowego przechowywania dokumentów zawierają bardzo zróżnicowane wymagania. Jego długość zależy od rodzaju dokumentu, dziedziny, której dotyczy, jego znaczenia dowodowego, a często także relacji z innymi szczegółowymi regulacjami branżowymi. Generalnie waha się od kilku do kilkudziesięciu lat. Jedne rodzaje dokumentów można zniszczyć po określonym czasie, inne powinny być dostępne przez cały okres istnienia przedsiębiorstwa. Niektóre muszą być nawet przechowywane bezterminowo. A wszystko to dotyczy zarówno dokumentów papierowych, jak i tych w formie elektronicznej. Przesłanki regulacji zasad przetwarzania danych w firmie wynikają też z kodeksu cywilnego. Chodzi tu głównie MACIEJ GAWROŃSKI Podmioty świadczące usługi przetwarzania danych osobowych muszą korzystać ze sprawdzonych, wiarygodnych dostawców i partnerów. Resellerzy i integratorzy powinni też wymuszać na swoich partnerach spełnianie wymogów bezpieczeństwa wynikających z przepisów RODO. Przetwarzający dane osobowe muszą, tak samo jak administratorzy, robić analizę ryzyka związanego z prowadzoną działalnością i na jej podstawie dobierać odpowiednie środki i rozwiązania wykorzystywane do świadczenia usług. Do procesorów należy obowiązkowa weryfikacja legalności zleceń otrzymywanych od administratorów. W razie kontroli będą musieli udokumentować, że ich działalność jest prowadzona na zlecenie działającego zgodnie z prawem administratora danych osobowych. Podstawą RODO jest zasada rozliczalności, a więc rozliczanie się ze zgodności z RODO. To można osiągnąć tylko przez odpowiednią analizę zgodności z RODO. Kwestionariusz gotowości może liczyć 130 pytań, lista wymogów zawierać około 50 pozycji, lista produktów – około 140, komplet regulacji wewnętrznych i wzorów – np. 60 pozycji. Pełna lista audytorska to około 600 pytań. Zatem wyzwanie jest spore.


o przepisy dotyczące przedawnień. Mówią one m.in., że jeśli klient czy kontrahent firmy jest już nieaktywny, to dotyczące go dane tracą znaczenie i należy je usunąć. Jeśli zostały wyłączone możliwości dochodzenia roszczeń, ustały też powody do przetwarzania danych.

NAJLEPSZY JEST KLUCZ BRANŻOWY Firmy, które są zainteresowane świadczeniem usług w dziedzinie przetwarzania danych, muszą na bieżąco śledzić związane z tym przepisy. Najlepiej zastosować do tego klucz branżowy lub dziedzinowy. Liczba przepisów jest tak duża, że nie sposób dokładnie orientować się we wszystkich. Wśród wielu specyficznych regulacji branżowych można wymienić te dotyczące zasad zachowania tajemnicy, np. bankowej, lekarskiej, adwokackiej, dziennikarskiej czy ubezpieczeniowej. Zasady korzystania z danych w relacjach biznesowych określają z kolei przepisy ustawy o zwalczaniu nieuczciwej konkurencji. Sposoby udostępniania strategicznych informacji o działalności firmy czy instytucji publicznej i organów państwa reguluje ustawa o tajemnicy państwowej i służbowej. Z kolei możliwości dysponowania danymi o klientach i kontrahentach określone są w przepisach o tajemnicy handlowej. Także przepisy odnoszące się do outsourcingu zarządzania danymi zawarte są najczęściej w regulacjach branżowych. Nie ma jednego, uniwersalnego aktu prawnego dotyczącego outsourcingu czy przetwarzania informacji w chmurze. Przykładowo,

Dominik Łabiński BPO/BPS Business Development Manager, Xerox

Według IDC w 2018 r. jedna trzecia wydatków na bezpieczeństwo informatyczne będzie dotyczyła dostosowania systemów i procesów do nowych wymogów ochrony danych osobowych. Potwierdzają to nasze obserwacje. Znacznie zwiększyło się zainteresowanie klientów rozwiązaniami do digitalizacji i bezpiecznego przechowywania dokumentów. Firmy poszukują przede wszystkim aplikacji, które umożliwią automatyczne zarządzanie regułami przechowywania danych osobowych oraz zapewnią ochronę przed nieautoryzowanym dostępem, niepożądaną modyfikacją i kradzieżą. Główny nurt dyskusji o RODO koncentruje się na infrastrukturze systemowej i danych zgromadzonych w aplikacjach informatycznych. Pomijany jest temat dokumentów przechowywanych w formie papierowej. Wiele firm ma duże archiwa skatalogowane w sposób, który często utrudnia, a nawet uniemożliwia dotarcie do wszystkich danych klienta. W tej sytuacji konieczna jest inwentaryzacja takich zasobów, co jest pracochłonne i kosztowne. Stąd duże zainteresowanie podpisem cyfrowym, który umożliwia zawieranie umów od razu w formie elektronicznej.

zapisy w odniesieniu do administracji publicznej można znaleźć w ustawie o zamówieniach publicznych, a w odniesieniu do banków – w prawie bankowym. W związku z upowszechnianiem się technik informacyjnych niemal każda nowo uchwalana ustawa wprowadza mniej lub bardziej szczegółowe wymogi dotyczące tworzenia, gromadzenia, przetwarzania, przechowywania i zabezpieczania danych. W praktyce najlepiej więc wyspecjalizować się w konkretnej dziedzinie lub obszarze przetwarzania danych lub zdobywać wiedzę na ten temat sukcesywnie, w miarę pojawiających się potrzeb rynkowych. Przynajmniej do momentu upowszechnienia się takiego sposobu regulacji przetwarzania i ochrony danych, jaki został zastosowany w RODO.

Zdaniem integratora  Janusz Kaszuba, dyrektor ds. konsultingu, Engave Większość podmiotów skupia się obecnie na interpretacjach RODO i projekcie nowelizacji ustawy o ochronie danych osobowych. Istnieje jednak wiele innych aktów prawnych, które określają zasady bezpieczeństwa informacji w różnych obszarach. Prawo krajowe jest pod tym względem mocno rozbudowane, ale też mało spójne. Warto wykorzystać zainteresowanie tematyką RODO jako pretekst do szerszego spojrzenia na kwestie bezpieczeństwa systemów informatycznych. Dane osobowe są niezwykle istotne, ale skuteczną ochronę trzeba zapewnić także innym informacjom. Do bezpieczeństwa należy podejść kompleksowo. Przy okazji tworzenia zabezpieczeń danych osobowych warto zadbać o ochronę innych obszarów: unikalnych technologii i receptur, know-how, danych finansowych itp. Warto też zrobić swoisty remanent systemu ochrony danych osobowych pod kątem produktów, które będą oferowane klientom.

SPOZA GRANIC Warto znać także regulacje, które nie mają mocy w Polsce, ale mogą być punktem odniesienia dla niektórych firm działających w naszym kraju. Takim przepisem jest na przykład amerykańska ustawa SOA (Sarbanes-Oxley Act). Bazuje na zasadzie, że nie wolno z systemu usuwać danych istotnych. Formalnie polskie przedsiębiorstwa nie są zobligowane do jej przestrzegania. W praktyce czasami zdarza się jednak, że amerykańskie koncerny wymagają tego od swoich polskich spółek-córek. Oczywiście, pod warunkiem, że związane z tym wymagania nie stoją w sprzeczności z prawem obowiązującym w naszym kraju. Innym rodzajem regulacji, które zyskują moc dopiero od pewnego etapu ich wdrażania, są dyrektywy unijne stanowione wspólnie przez Parlament Europejski oraz Radę Unii Europejskiej. Określone w nich zalecenia i zasady postępowania nie są obowiązujące, dopóki nie zostaną właczone do porządku prawnego w danym kraju. Poszczególne państwa członkowskie mają swobodę wyboru konkretnych rozwiązań. Gdyby jednak nie dokonały implementacji, według Europejskiego Trybunału Sprawiedliwości obywatel ma prawo powoływać się na dyrektywę wobec niezgodnych z nią przepisów prawa krajowego. W związku z tym, że dyrektywa zawiera tylko ogólne zasady, nie zawsze tę niezgodność da się łatwo wykazać. VADEMECUM CRN listopad 2017

65


Indeks firm 3S Data Center................................................39, 40 AB ..............................................................................15, 59 ABC Data...............15, 25, 50, 57, 58, 59, 60, 61 Acronis.......................................................................... 26 Acropolis ......................................................................27 Actifio............................................................................ 26 Action......................................................................15, 59 Advatech ............................................................20, 68 Akbit...............................................................................46 Allied Telesis......................................................43, 68 Also ................................................................................. 59 Alstor .......................................12, 14, 42, 43, 59, 68 Amazon .......................................................32, 33, 34 Apcon ...................................................................42, 68 Apple ..............................................................................57 Aruba Cloud .............................................34, 36, 37 Atman .......................................................... 38, 39, 40 Bakotech.....................................................................46 Barracuda Networks...........................................34 Beyond.pl.....................................................39, 40, 41 Boat.Systems ...........................................................30 CC Otwarte Systemy Komputerowe.......45 Citrix ............................................................................... 26 Cohesity....................................................................... 24 Commvault................................................................ 26 Comtegra ............................................................57, 59 Dell EMC ..............................................26, 32, 33, 34 Diskus ....................................................................20, 22 dsmISI ........................................................................... 26 Eaton .............................................................................68 Engave...................................................27, 33, 34, 65 EPA Systemy................................................................2 ExaGrid.........................................................................68 F-Secure...............................................................53, 55 Fujitsu......................................................................15, 68

COMPUTER RESELLER NEWS POLSKA WYDANIE SPECJALNE, listopad 2017 ISSN 1640-9183 REDAKCJA: 02-674 Warszawa, ul. Marynarska 15 tel. (22) 360-38-00, redakcja@crn.pl, www.CRN.pl Tomasz Gołębiowski (redaktor naczelny) tomasz.gołebiowski@crn.pl, tel. (22) 36-03-991 Krzysztof Jakubik (redaktor prowadzący) krzysztof.jakubik@crn.pl, tel. (22) 244-29-23 Dorota Smusz (sekretarz redakcji) dorota.smusz@crn.pl, tel. (22) 36-03-809 Andrzej Gontarz, andrzej.gontarz@crn.pl Andrzej Janikowski, andrzej.janikowski@crn.pl Tomasz Janoś, tomasz.janos@crn.pl Rafał Janus, rafal.janus@crn.pl Wojciech Urbanek, wojciech.urbanek@crn.pl

66

Garland Technology....................................42, 68 Google ..........................................................32, 34, 45 Grey Wizard ................................................................41 HGST..............................................................................68 HPE ..................................................................................32 HSM ...........................................................................19, 21 Huawei..............................................................16, 17, 26 IBM ...........................................26, 29, 30, 31, 32, 33 Infinidat ........................................................................ 29 Infonet Projekt..........................................................25 Infortrend.............................................................14, 68 Ingram Micro ..............................................................15 Instytut Ochrony Danych Osobowych ....41 Integrated Solutions............................................34 Ivanti...............................................................................68 Iviter (Klinika Danych) ..................................19, 23 Kancelaria Prawna Gawroński & Partners ... ............................................................................................64 Kaspersky Lab.........................................................54 Kingston .................................................................5, 59 Komputronik Biznes.............................................25 Lantronix .....................................................................68 Lenovo.......................................................................... 29 Microsemi ...................................................................68 Microsoft ...... 25, 28, 32, 33, 34, 41, 45, 53, 57 Nakivo ............................................................................28 NetApp .................................................................32, 33 Netology .....................................................................34 Nutanix ......................................................................... 24 Open-E.........................................................................68 Opengear ...................................................................68 Oracle .................................................................... 26, 28 Orange..........................................................................34 Overland Tandberg..............................................68 Proxmox .......................................................................27

KIEROWNIK PROJEKTU VADEMECUM: Jacek Goszczycki, tel. (22) 360-36-78 jacek.goszczycki@burdamedia.pl ŁAMANIE I GRAFIKA: Aneta Mikulska ILUSTRACJA NA OKŁADCE: © MrsLePew – Fotolia.com FOTOGRAFIE: Marek Zawadzki, archiwum KOREKTA: Lidia Sadowska-Szlaga DYREKTOR PRODUKCJI: Tomasz Gajda, tomasz.gajda@burdamedia.pl KOORDYNATOR PRODUKCJI: Jan Kutyna, jkutyna@burdamedia.pl PRENUMERATA: Andrzej Janikowski, andrzej.janikowski@crn.pl, prenumerata@crn.pl

VADEMECUM CRN listopad 2017

QNAP ....................................................................28, 54 QSAN Technology....................................................2 Quantum.....................................................................34 Rafcom..........................................................................25 Red Hat ........................................................................ 26 Ricoh ........................................................................50, 51 Rimage .........................................................................68 Rubrik ....................................................................24, 26 S4E.................................................................................. 26 S4Engineers ............................................................. 26 Savvius..................................................................43, 68 Seagate ........................................................................... 11 Sharp Electronics Europe................................50 Socomec.....................................................................68 Sony ................................................................................33 Sophos ..................................................................47, 53 Spectra .........................................................................68 StarWind Software ......................................43, 68 Storware...................................................................... 26 Sun Capital.................................................................46 SuperMicro ................................................................68 Symmetry ...........................................................26, 27 Syneto...................................................................43, 68 Synology ...............................................................13, 35 Tech Data ......................................................29, 31, 59 Toshiba ....................................................................11, 68 Transparent Data.....................................................41 Veeam Software .....24, 25, 26, 29, 34, 41, 46 Veracomp......................................................14, 15, 29 Veritas ........................................................................... 26 Vertiv..............................................................................68 VMware.................................................................25, 28 WD ..................................................................................... 11 Xerox..............................................................................65 Zerto...............................................................................34

WYDAWCA: Burda Media Polska Sp. z o.o. 02-674 Warszawa, ul. Marynarska 15 ZARZĄD: Chief Executive Officer: Alexander Sorg General Director Poland: Justyna Namięta Director Managing Luxury & Special Interest Segment: Edyta Pudłowska Chief Commercial Officer: Michał Helman Strategy&Sales Support Director: Małgorzata Teodorowicz Sales Director: Małgorzata Nocuń-Zygmuntowicz Deputy Sales Director: Katarzyna Nowakowska Director of Monetization Digital Burda Media: Katarzyna Cieślik Chief Digital Oofficer: Anna Podkowińska-Tretyn Brand Manager CRN Polska: Ewa Korzańska ewa.korzanska@burdamedia.pl

REKLAMA: Sekretariat Biura Reklamy 22 360 36 03, fax 22 360 39 80 biuro.reklamy@burdamedia.pl ZESPÓŁ: Sales Team Manager: Agata Myśluk agata.mysluk@burdamedia.pl Account Executive: Szymon Zięborak szymon.zieborak@burdamedia.pl PROJEKTY SPECJALNE: Senior Project Manager: Jacek Goszczycki jacek.goszczycki@burdamedia.pl Reklamy przyjmowane są w siedzibie wydawnictwa. Za treść ogłoszeń redakcja nie ponosi odpowiedzialności. © Copyright 1998 Burda Communications sp. z o.o. Wszelkie prawa zastrzeżone. Computer Reseller News Polska contains articles under license from CMP Media Inc. © 1998 CMP Media Inc. All rights reserved. Burda Communications należy do: Ogólnopolskiego Stowarzyszenia Wydawców i Izby Wydawców Prasy


NAJCHĘTNIEJ ODWIEDZANY PORTAL DLA RESELLERÓW I INTEGRATORÓW IT ŚREDNIE DANE MIESIĘCZNE DOTYCZĄCE WIZYT Z KOMPUTERÓW STACJONARNYCH I PRZENOŚNYCH ZA OKRES WRZESIEŃ 2016 – WRZESIEŃ 2017

Data by

74 703

10 352 poniżej 5000

crn.pl

resellernews.pl

itreseller.com.pl

Dziękujemy za Wasze zaufanie! 1017_CRN.pl_reklamaKonkurencja.indd 1

11.10.2017 14:30


ALSTOR Secure Data Systems od pamięci masowych do rozwiązań sieciowych Infrastruktura IT i Data Center ` ` ` `

serwery konsol i KVM zasilacze bezprzerwowe UPS szafy RACK oraz listwy zasilające oprogramowanie do zarządzania IT i Data Center

Pamięci masowe i archiwizacja ` napędy i biblioteki taśmowe, urządzenia RDX ` macierze dyskowe, serwery NAS ` skalowalny backup dyskowy z deduplikacją danych ` platformy i komponenty serwerowe

Sieci i bezpieczeństwo IT ` ` ` `

inteligentny monitoring sieci specjalizowane karty sieciowe TAP - Testowe Punkty Dostępowe zaawansowane rozwiązania sieciowe

www.alstor.pl | sds@alstor.com.pl

CRN Vademecum_1 - Alstor (2017-10).indd 9

2017-10-27 15:38:18


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.