Rozwiązania IT
ISSN 1640-9183 Czerwiec 2023 WYDANIE SPECJALNE DLA MIKROFIRM ORAZ MŚP LAT VADEMECUM
CRN Polska
od 25 lat wspiera rozwój
kanału sprzedaży i całego
Vademecum
VAR-ów i integratorów
od 10 lat szerzy wiedzę na temat zaawansowanych produktów i usług IT!
n jedyny opiniotwórczy miesięcznik dla polskiego kanału sprzedaży IT
n najchętniej odwiedzany portal dla resellerów, VAR-ów i integratorów IT
n najwięcej bezpośrednich relacji z wydarzeń branżowych w Polsce i zagranicą
najbardziej kompleksowe źródło informacji o technologiach
n najszerszy przegląd marek dostępnych na polskim rynku
n czołowa platforma wypowiedzi dla ekspertów i menadżerów
IT n BIZNES n TRENDY n TECHNOLOGIE
wszystkim, którzy towarzyszą nam w rozwoju polskiego rynku IT!
Dziękujemy
LAT CRN POLSKA LAT VADEMECUM
Cyfrowy obieg wielu szans i możliwości Zarządzanie przetwarzaniem dokumentów to dzisiaj rozległy obszar funkcjonowania wielu różnych działań, procesów, narzędzi i rozwiązań.
Sieci: szybkie, bezpieczne i zawsze dostępne Postępująca cyfryzacja sprawia, że rosną wymagania wobec firmowych sieci.
Chmura sprzyja integratorom Korzystanie z wielochmurowych i hybrydowych środowisk rodzi wiele wyzwań i problemów, z którymi muszą sobie poradzić ich użytkownicy.
Hakerzy kontra MŚP: długi i nierówny bój Mniejsze firmy, tak samo jak korporacje, są coraz bardziej nękane przez hakerów.
2/2023 22
3 VADEMECUM CRN czerwiec 2023
Z... 6 INFRASTRUKTURA SIECIOWA 10 13 14 15 PRZETWARZANIE I PRZECHOWYWANIE DANYCH 16 19 20 21 DRUKOWANIE, SKANOWANIE 22 26 28 ZASILANIE AWARYJNE 30 35 OCHRONA SYSTEMÓW INFORMATYCZNYCH 36 40
PRYWATNE, PUBLICZNE, HYBRYDOWE 42 46 42 36
ROZMOWA
CHMURY
10
LAT VADEMECUM
Mamy 10 lat!
Pierwsze wydanie „Vademecum VAR-ów i integratorów” ukazało się w maju 2013 r. Pół roku wcześniej spotkaliśmy się z Tomkiem Gołębiowskim, redaktorem naczelnym CRN Polska oraz Jackiem Goszczyckim, który dziś jest prezesem zarządu naszego wydawnictwa. Dyskutowaliśmy o formule pisma i zakładaliśmy, że będzie to coś w rodzaju eksperymentu i za sukces uznamy wydanie dwóch lub trzech numerów. Były to bowiem czasy, gdy papierowe pisma padały jak muchy, a tu nagle ktoś wpada na pomysł… założenia nowego. Perspektywa utrzymania się takiego pisma na rynku przez dekadę wydawała się nam wtedy niewyobrażalna. Działy marketingu wszystkich liczących się dostawców rozwiązań IT miały wówczas na tapecie tylko jedno słowo: chmura. Hasło to jednak budziło mieszane uczucia. Resellerzy brutalnie doświadczali spłaszczania kanału dystrybucyjnego i otwartym tekstem wyrażali obawy o swoje istnienie już w nieodległej przyszłości. Użytkownicy zaś uczyli się szacować korzyści płynące z nowego modelu przetwarzania danych, bo wydawało się (i jest tak do dziś), że wśród nich aspekt finansowy wcale nie jest dominujący. W takich realiach, gdy istniało realne ryzyko zniknięcia grupy docelowej, do której chcieliśmy kierować nasz kwartalnik, trudno było zakładać długofalowe powodzenie tego projektu.
Jednak sukces komercyjny, jak i pozytywne opinie Czytelników (potwierdzone w badaniach focusowych), przerosły nasze oczekiwania. W artykułach sponsorowanych, przy których naszym priorytetem jest, aby niosły ze sobą jak największą wartość merytoryczną, przez tych 10 lat reprezentowanych było ponad 300 marek producentów, dystrybutorów i usługodawców. Swojego głosu w postaci wypowiedzi i udzielonych wywiadów użyczali globalni prezesi i wiceprezesi firm, przedstawiciele polskich oddziałów, jak też resellerzy i integratorzy. Ciekawostka: w jednym z wydań Vademecum wypowiadała się pewna pani, która kilkanaście
miesięcy później trafiła na okładkę… polskiej edycji Playboya! Zainteresowanych poznaniem jej personaliów odsyłam do lektury archiwalnych numerów.
Tematów też nam nie brakowało. Gdy zaczynaliśmy, wciąż trwał proces informatyzacji placówek z wielu branż, z naciskiem na sektor publiczny i ochronę zdrowia. Później przyszło RODO, a następnie koronawirus, który zrobił więcej dla cyfrowej transformacji na świecie niż wszystkie wspomniane już działy marketingu największych dostawców IT razem wzięte. Ostatni rok to agresja Rosji na Ukrainę i związane z tym perturbacje na rynku. Na to wszystko, przynajmniej przez ostatnich 5 lat, nakłada się sztuczna inteligencja. A chmura? No cóż, dojrzała, stając się nośnikiem wielu narzędzi informatycznych.
Na koniec chciałbym złożyć trochę podziękowań. Jackowi Goszczyckiemu i Tomkowi Gołębiowskiemu, że uwierzyli w mój pomysł na magazyn o charakterze edukacyjnym i nieustannie wspierali przy jego realizacji. Autorom artykułów – Andrzejowi Gontarzowi, Tomkowi Janosiowi i Wojtkowi Urbankowi – za trud odkrywania tajników i zakamarków rynku oraz przedstawianie ich Czytelnikom. Karolinie Marszałek (sekretarz redakcji) i Tomkowi Baziukowi (DTP) za cierpliwość i dbałość o to, że Vademecum wygląda jak produkt klasy premium. Agacie Myśluk, że wspólnie z Jackiem Goszczyckim dba o ciągłość naszych przychodów i komercyjny sukces.
Słowa uznania chciałbym też złożyć na ręce osób, które w międzyczasie wybrały inną ścieżkę kariery zawodowej. Dorocie Smusz, która przez 7 lat pełniła rolę sekretarza redakcji, Anecie Mikulskiej, która od początku dbała o nienaganny wygląd magazynu, a wreszcie współpracującym wcześniej z nami autorom: Rafałowi Janusowi, Darkowi Hałasowi oraz Tomkowi Kozłowskiemu. Ukłony!
KRZYSZTOF JAKUBIK
EDYTORIAL
4 VADEMECUM CRN czerwiec 2023
Fot. Adrian Stykowski
To miał być eksperyment.
Słyszałeś?
Co miesiąc na kanale CRN Polska (YouTube) nowa audycja Tech Trendy Biznes!
i słuchaj audycji Tech Trendy Biznes na YouTube, Spotify i Apple Podcasts!
IT n BIZNES n TRENDY n TECHNOLOGIE
Subskrybuj
CRN Analitycy rynku IT od kilku lat podkreślają, że wymagania małych i dużych klientów, dotyczące nabywanych przez nich rozwiązań, zbliżają się do siebie. W jakim zakresie widać zbieżność tych oczekiwań?
JIA-YU LIU Małe i średnie firmy mają różne rodzaje cyfrowej tożsamości i inne priorytety niż duże przedsiębiorstwa. Dla MŚP, w związku z tym, że często mają ograniczone zasoby IT i budżetowe, najważniejsze są te rozwiązania, które są łatwe we wdrożeniu, integracji z posiadaną infrastrukturą, zarządzaniu oraz użyciu, a także przystępne cenowo i otwarte. Ale jednocześnie takie, które przyniosą firmie wartość niemalże od razu po wyjęciu z pudełka. Natomiast klienci korporacyjni zazwyczaj wymagają usług bardziej złożonych i dostosowanych do ich potrzeb, a więc o dużej mocy obliczeniowej i większej skalowalności. Tak czy inaczej, dla wszystkich najważniejszym kryterium stała się niezawodność rozwiązań IT, po-
AI zdominuje branżę IT…
ale jeszcze nie teraz
„Dzięki sztucznej inteligencji można zaobserwować nieoczywiste trendy, przeanalizować olbrzymie zbiory informacji i spróbować wyciągnąć z nich wnioski. Jednak podejmowanie eksperckiej decyzji nadal powinno leżeć w gestii człowieka”
– Jia-Yu Liu, wiceprezes i dyrektor działu backupu w Synology.
nieważ przyczynia się do zapewnienia ciągłości biznesowej i minimalizuje ryzyko przestoju. Coraz bardziej, także przez mniejszych klientów, doceniane są również funkcje łączenia systemów w klastry wysokiej dostępności.
W przypadku mniejszych rozwiązań kwestia wysokiej dostępności stanowi ciekawe zagadnienie. U największych dostawców takie systemy kosztują fortunę. Tymczasem tacy dostawcy serwerów NAS jak Synology czy konkurencja oferują je za ułamek ceny. Jak to możliwe? W tym kontekście warto zwrócić uwagę na kilka aspektów. Przede wszystkim inna jest grupa docelowa. Duzi dostawcy obsługują największych klientów, my zaś skupiamy się na małych i śred-
nich firmach. U tych dużych klientów minuta przestoju oznacza straty idące w tysiące dolarów, dlatego przeznaczone dla nich, łączone w klastry rozwiązania IT, są tworzone tak, aby gwarantować wysoką dostępność na poziomie rzędu 99,999 proc. czasu pracy, co oznacza ryzyko przestoju przez kilka minut w skali roku. W przypadku naszych klientów takich oczekiwań nie ma. Bez problemu akceptują oni fakt, że zagwarantujemy dostępność klastra na poziomie, powiedzmy, 95 proc., ale za cenę niższą o kilka rzędów wielkości.
Kilka lat temu
podjęliśmy decyzję, że z chmurą nie należy walczyć, ale
raczej potraktować
ją jako szansę.
Z czego wynika tak wysoka cena u dużych dostawców?
Z większych kosztów produkcji, ale też ogromnego wysiłku wkładanego w przetestowanie całego środowiska, przyznanie odpowiednich
6 VADEMECUM CRN czerwiec 2023
certyfikatów dostawcom poszczególnych komponentów, jak nośniki czy karty sieciowe, a następnie objęcie całości wsparciem technicznym. To zresztą wprowadza sporo ograniczeń co do późniejszej rozbudowy. Nasza filozofia jest inna, klient ma znacznie większą elastyczność i łatwość samodzielnego doboru komponentów środowiska czy nośników do serwera NAS, ale to w dużym stopniu zdejmuje z nas odpowiedzialność za stuprocentowe zagwarantowanie kompatybilności. Klienci jednak decydują się na to ze względu na wspomniane już aspekty finansowe. Doceniają też łatwość i intuicyjność obsługi takich rozwiązań, o której trudno mówić w przypadku większych dostawców.
Przy takiej strategii tworzenia jak najprostszych produktów istnieje jednak ryzyko, że klienci rzadziej będą korzystali z usług partnerów…
Tak naprawdę obserwujemy odwrotną sytuację. Mimo wszystko, potrzeba pew-
nego doświadczenia w wyborze właściwego produktu, który będzie odpowiadał zarówno obecnym, jak i przyszłym potrzebom klientów. Następnie trzeba ich przekonać, aby jako nośników nie używali dowolnych, niepotrzebnych dysków, które administrator znajdzie w szufladzie, ale kupili specjalne nośniki przeznaczone do macierzy dyskowych, przystosowane do ciągłej pracy. Potem przychodzi moment na uruchamianie poszczególnych usług i integracja z już funkcjonującymi systemami w przedsiębiorstwie – w tym zakresie także przydatne jest doradztwo partnerów, którzy z pewnością mają większe doświadczenie w projektowaniu systemów backupu czy zabezpieczaniu środowisk. Finalnie, mogą oni sprawować nadzór nad wdrożonym urządzeniem – albo na stałe, albo w zastępstwie administratora IT, gdy ten na przykład pójdzie na urlop lub zachoruje. Podsumowując, na całym świecie widzimy coraz większe zaangażowanie fi rm partnerskich
jako zaufanych doradców w cały proces sprzedaży, wdrażania i obsługi naszych produktów.
Jeśli chodzi o kwestie dotyczące wsparcia, coraz więcej firm chwali się wbudowanymi w sprzęt IT zautomatyzowanymi mechanizmami bazującymi na sztucznej inteligencji. Czy i w jaki sposób mogą one sprawdzić się także w rozwiązaniach dla małych i średnich przedsiębiorstw?
Sztuczna inteligencja i uczenie maszynowe to modny temat, do czego niewątpliwie przyczynił się sukces usługi ChatGPT, bo dzięki niej wiele osób samodzielnie mogło się przekonać o sile tej technologii. Ale też każdy z nas, kto próbował bawić się tym narzędziem, zauważył, że jego precyzja działania i poprawność generowanych odpowiedzi nadal budzi wątpliwości. Jest ono przydatne w celu uzyskania inspiracji, pewnych innych niż oczywiste punktów widzenia na dane zagadnie-
Fot. archiwum
7 VADEMECUM CRN czerwiec 2023
nie… Niemniej wyniki jego pracy nie powinny być traktowane jako „gotowiec”. To samo dotyczy zastosowania sztucznej inteligencji w rozwiązaniach IT. Dzięki niej można zaobserwować nieoczywiste trendy, przeanalizować olbrzymie zbiory informacji i spróbować wyciągnąć z nich wnioski. Ale podejmowanie eksperckiej decyzji nadal powinno leżeć w gestii człowieka, chociaż oczywiście to może ulec zmianie w przyszłości.
Ale czy korzystacie we własnych produktach z mechanizmów sztucznej inteligencji?
Tak, wykorzystujemy głębokie uczenie w naszych narzędziach do monitoringu wideo, aby poprawić dokładność rozpoznawania wzorców, na przykład osób czy pojazdów, szczególnie w trudnych warunkach oświetleniowych. W tej dziedzinie sztuczna inteligencja sprawdza się bardzo dobrze, mimo że nie jest jeszcze w stu procentach dokładna, ale i tak robi to lepiej niż każdy człowiek. Oczywiście będziemy śledzić rozwój dojrzałości tych mechanizmów i analizować możliwość zastosowania ich w innych obszarach, chociażby dotyczących zarządzania danymi czy procesem backupu. Najważniejsze jest jednak to, aby przyniosły one konkretną korzyść użytkownikowi, a nie stały się kolejną modną aplikacją, bowiem ich obsługa kosztuje olbrzymią ilość mocy obliczeniowej.
Sztuczna inteligencja
trafiła pod strzechy dzięki chmurze, której zasoby obliczeniowe i przestrzeń dyskowa były jednak przez pewien czas wskazywane jako konkurencja dla serwerów NAS i innych rozwiązań dla małych i średnich firm. Synology i inni producenci postanowili jednak stworzyć pewien ekosystem i dzięki niemu korzystać z dobrodziejstw chmury. Jakie jest obecnie wasze podejście do tego zagadnienia?
walczyć, ale raczej potraktować ją jako szansę i skorzystać z oferowanych przez ten model możliwości. Stworzyliśmy wręcz kilka natywnych usług chmurowych, które mogą być powiązanie z naszymi rozwiązaniami wdrażanymi w siedzibie firmy, ale nie muszą. W ten sposób powstało funkcjonalne rozszerzenie możliwości systemu backupu oraz przywracania środowisk do pracy po awarii, działające jako hybryda pomiędzy chmurą i serwerami naszej produkcji. Tworzenie takich ekosystemów połączonych ze sobą rozwiązań jest moim zdaniem nieuniknione, bo oczekują tego klienci – w ten sposób uzyskują dodatkową wartość ze swojej inwestycji. Wystarczy spojrzeć, jakie korzyści z takiego modelu czerpią Apple, Microsoft czy Google. Skupienie się na pojedynczym produkcie niemal natychmiast przyczynia się do konkurowania na cenę, a nie oferowane klientowi wartości.
Nad czym zatem obecnie pracujecie w ramach budowania ekosystemu swoich produktów?
Oczywiście dostrzegamy zainteresowanie tymi produktami i – tu być może zaskoczę czytelników – nasz system operacyjny DSM też jest dostępny w modelu open source, jeśli ktoś jest zainteresowany, aby w ten sposób poznać jego funkcjonalność. Zawsze jednak podkreślamy, że to nie jest metoda na zapewnienie w firmie wysokiej dostępności danych i niezawodności całego rozwiązania, ponieważ tego typu oprogramowanie nie jest wspierane w takiej skali jak komercyjne produkty. Niemniej, jesteśmy zadowoleni, że wzbudza ono zainteresowanie – korzystający z takiego rozwiązania administrator, gdy nabierze odpowiedniego doświadczenia, lepiej zrozumie wartość dla klienta płynącą z naszych produktów i całego ekosystemu.
Jak ta sprawa wygląda pod kątem bezpieczeństwa? Już od kilku lat serwery NAS znajdują się pod ciągłym ostrzałem ataków ransomware…
W ramach programu bug
Stawiamy na szeroko pojętą skalowalność rozwiązań pamięci masowych, jak też rozszerzenie systemów backupu i uczynienie ich jeszcze bardziej profesjonalnymi – w tym celu opracowywany jest zupełnie nowy system operacyjny dla naszych urządzeń. Jego zadaniem będzie stworzenie scentralizowanego, łatwego w użyciu systemu tworzenia kopii zapasowych, którego końcówki można wdrożyć w wielu lokalizacjach, elastycznego pod kątem wydajności i różnego typu wymagań instalacyjnych.
bounty regularnie zapraszamy do współpracy etycznych
hakerów i zewnętrznych
badaczy zagrożeń.
Rzeczywiście, już kilka lat temu podjęliśmy decyzję, że z chmurą nie należy
Jako konkurencja dla serwerów NAS – obok chmury – czasami przez przyszłych użytkowników wybierane są darmowe, bazujące na otwartym źródle systemy instalowane na uniwersalnych mikroserwerach. Czy obecność tego typu produktów stanowi jakieś zagrożenie dla waszej sprzedaży?
Dla nas bezpieczeństwo jest absolutnie priorytetowe. Mamy specjalny zespół odpowiedzialny za wykrywanie ewentualnych zagrożeń, analizowanie ich i reagowanie, gdy zajdzie taka potrzeba. W ramach programu bug bounty regularnie zapraszamy do współpracy także etycznych hakerów i zewnętrznych badaczy zagrożeń. Nasz zespół zobowiązał się do wydawania poprawek dla krytycznych, wykrytych przez nas błędów w ciągu 60 dni, natomiast jeśli pojawiło się zagrożenie zero-day – wówczas w ciągu jednego dnia. Natomiast w przypadku innych projektów open source sprawa jest dyskusyjna. Z jednej strony panuje powszechna opinia, że otwartość kodu powoduje, iż społeczność dokonuje jego ciągłej analizy, także pod kątem bezpieczeństwa. Niestety, takiej analizy dokonują też cyberprzestępcy i tu rodzi się pytanie kto dysponuje większą siłą. W naszym przypadku jest gwarancja, że dysponujemy przeciwwagą dla hakerów w odpowiednim i skutecznym stopniu.
A jak wygląda proces zabezpieczania aplikacji firm trzecich, które można zainstalować w waszych serwerach?
W tej kwestii mamy dwie silne reguły. Po pierwsze, zastrzegamy sobie prawo do
NA TEMAT
8 VADEMECUM CRN czerwiec 2023
bardzo rygorystycznego weryfikowania działania tych aplikacji pod względem bezpieczeństwa. Zdarzało nam się odmawiać, gdy mieliśmy chociażby minimalne podejrzenia. Po drugie zaś, wymuszamy, aby aplikacje te działały z uprawnieniami normalnego użytkownika, a nie administratora. To w dużym stopniu eliminuje ryzyko, że właśnie poprzez taką aplikację cyberprzestępca przeniknie do danych użytkownika.
WHO odwołało właśnie stan zagrożenia pandemią – jaki wpływ na wasze działania odcisnęły te ostatnie trzy lata?
JIA-YU LIU
jest doświadczonym profesjonalistą w dziedzinie informatyki, posiadającym tytuł magistra w tej dziedzinie. W Synology pracuje od 15 lat. W swojej karierze pełnił funkcje kierownicze w różnych obszarach, związanych z aplikacjami mobilnymi, rozwiązaniami do tworzenia kopii zapasowych i synchronizacji plików dla serwerów NAS oraz usługami chmurowymi Synology C2.
Pozytywne aspekty były takie, że wzrosło zainteresowanie naszymi rozwiązaniami. W ciągu ostatnich dwóch lat, jak też w pierwszym kwartale tego roku, osiągnęliśmy rekordowe wzrosty przychodów. Zwiększone zapotrzebowanie widzieliśmy ze strony wszystkich klientów, interesowali się przede wszystkim modelami na 4 i 8 dysków, a także sprzętem do montażu w szafach rack. Powszechne stało się wykonywanie backupu z komputerów zdalnych pracowników. Transformacja cyfrowa, zarówno w zakresie rozwiązań on premise, jak też chmury, zdecydowanie przyspieszyła na całym świecie i to jest dobra wiadomość dla rynku, także dla kanału partnerskiego.
Czy zaobserwowaliście też jakieś niekorzystne zjawiska?
Niestety tak. O jednym już rozmawialiśmy – to bardzo wyraźnie zauważalny wzrost liczby ataków ransomware, które zagrażają zarówno samym serwerom NAS, jak też komputerom użytkowników, z których dane backupowane są na te serwery NAS. To jest obecnie największe wyzwanie, dlatego zintensyfikowaliśmy działania w obszarze usprawnienia procesów wykonywania backupu. W czasie pandemii oczywiście odnotowaliśmy również niedobór chipów, który między innymi spowodował opóźnienie premiery nowych modeli. Przez pewien czas były też problemy związane z wysyłką produktów,
ale obecnie zostały już rozwiązane. Generalnie ratuje nas to, że wszystkie nasze produkty są rozwijane i produkowane w jednym kraju – na Tajwanie. Na szczęście pandemia nie doświadczyła nas zbytnio, dlatego udało się zachować wewnętrzną integralność firmy.
Podsumowując, jak sytuacja związana z rynkiem rozwiązań IT dla małych i średnich firm będzie wyglądała w przyszłości? Kiedyś prognozowano, że rewolucją na miarę pojawienia się internetu będzie chmura. Ale tak się nie stało, chmura po prostu okazała się jednym z przydatnych narzędzi. Czy teraz za takiego „konia pociągowego” będzie można uznać sztuczną inteligencję, czy też na horyzoncie widać jakąś inną technologię?
Zdecydowanie najwięcej uwagi w najbliższych latach będzie przyciągała sztuczna inteligencja – nie tylko ze względu na oferowane możliwości, ale też aspekty prawne, bo pojawiło się już wiele wątpliwości dotyczących etycznych kwestii jej zastosowania. Natomiast co do dalszego horyzontu czasowego, to trudno jest prze-
widywać, ale nie spodziewam się rewolucji. Zresztą przywoływany już ChatGPT też stanowi rewolucję tylko w kwestii przyjmowania zapytań od użytkowników i udzielania odpowiedzi, a działający „pod spodem” mechanizm już był znany od pewnego czasu. Myślę, że ta ewolucja będzie ściśle powiązana z kwestiami, które będą przynosić dodatkową wartość klientom, ponieważ na wymyślanie niesłużących nikomu rozwiązań szkoda obecnie czasu. Z pewnością rozwijana będzie chmura, ale ten rozwój też będzie następował przez pryzmat korzyści klientów. W przypadku naszych rozwiązań największy potencjał chmury widzę w kwestii backupu danych, ich długotrwałej archiwizacji oraz przygotowywania środowisk na sytuacje awaryjne. We wszystkich pozostałych scenariuszach klienci nadal potrzebują szybszego niż oferuje chmura dostępu do danych. Natomiast wśród potencjalnych wyzwań można wciąż wymienić ryzyko niedoboru komponentów, ale doświadczeni ostatnimi zakłóceniami jesteśmy na to coraz lepiej przygotowani.
Rozmawiał Krzysztof Jakubik
9 VADEMECUM CRN czerwiec 2023
Klienci, także ci mniejsi, coraz bardziej doceniają funkcje
łączenia rozwiązań w klastry wysokiej dostępności.
Sieci:
szybkie, bezpieczne i zawsze dostępne
Postępująca cyfryzacja sprawia, że rosną wymagania wobec firmowych sieci, które muszą być szybsze i bardziej niezawodne, a jednocześnie jak najłatwiejsze w konfiguracji i obsłudze.
Rynek ma bogatą ofertę rozwiązań
sieciowych, które mogą nie tylko korporacjom, ale także małym i średnim firmom pomóc zmierzyć się z wyzwaniami wydajnościowymi i operacyjnymi. W tym drugim przypadku problemem dla firmy dysponującej skromnym personelem technicznym jest chociażby instalacja albo wymiana urządzeń sieciowych, takich jak przełączniki czy punkty dostępowe. Często administratorzy muszą poświęcić zbyt dużo czasu, aby skonfigurować kolejne dodawane urządzenia. Naprzeciw wychodzą im producenci oferujący narzędzia, które ułatwiają instalowanie i konfigurowanie całego sprzętu, a także zarządzanie nim – niezależnie od tego czy są to punkty dostępowe, przełączniki sieciowe, bądź bramy dostępowe.
Właśnie z trendu upraszczania wynika to, że głównym nurtem w obszarze zarządzania siecią stały się od jakiegoś czasu rozwiązania bazujące na chmurze. Zyskują one na popularności, ponieważ firmy każdej wielkości starają się konsolidować swoje narzędzia, by zwiększyć wydajność operacyjną i obniżyć koszty. Analitycy przewidują, że nawet połowa wszystkich nowych wdrożeń sieciowych będzie wykorzystywać zarządzanie w chmurze.
Zdalnie i automatycznie
Oferowane przez coraz większą liczbę dostawców zarządzanie siecią w chmurze umożliwia, po pierwsze, daleko idącą automatyzację jej wdrażania (tzw. zero-touch provisioning). Schemat jest zwykle taki sam: trzeba zeskanować kod QR na urządzeniach sieciowych, a następnie wysłać je do klienta (albo też udać się do niego, by samemu przeprowadzić instalację na miejscu). Po rozpakowaniu i podłączeniu sprzętu do internetu wystarczy zalogować się do aplikacji na smartfonie albo otworzyć panel zarządzania w przeglądarce internetowej, a instalowane urządzenia zostaną automatycznie wykryte i zarejestrowane w sieci. W sumie więc zainstalowanie sprzętu w sieci i połączenie go z innymi komponentami zajmuje już nie godziny, a niewiele minut. Znika też wiele innych niedogodności tradycyjnego wdrażania, związanych chociażby z koniecznością odwiedzin danej lokalizacji.
Po drugie, chmurowy portal nie tylko ułatwia uruchomienie sieci w danej lokalizacji, ale także jej utrzymanie i rozwój, które również można przeprowadzać zdalnie w prosty i szybki sposób. Działania takie będą obejmować ciągłe monitorowanie, rozwiązywanie problemów, aktualizacje firmware’u, dodawanie nowych użytkow-
ników i urządzeń. To także stanowi wielką oszczędność czasu i pracy dla administratora, zwłaszcza gdy w pojedynkę musi nadzorować wiele instalacji.
W przypadku małych firm, które nie posiadają własnego personelu technicznego, integratorzy mogą w imieniu swoich klientów zdalnie opiekować się dziesiątkami takich sieci, a nawet stać się ich wirtualnymi działami IT lub sieciowymi. Dzięki chmurowym narzędziom mogą zwiększać swój zasięg działania, wykorzystując przy tym nowe modele biznesowe, takie jak roczne lub miesięczne subskrypcje liczone na użytkownika lub urządzenie.
Integratorzy mają dziś do wyboru znacznie więcej rozwiązań sieciowych, pochodzących od wyraźnie większej grupy dostawców. Ta zwiększona konkurencja na rynku wpływa na marże, więc muszą oni rozważnie wybierać partnerów. A czym kierują się klienci przy wyborze dostawcy sprzętu sieciowego? W jakiej kolejności ustawiają priorytety? Jak ważne są dostępność sprzętu, koszty (zakupu i użytkowania), możliwości techniczne, poziom serwisu i warunki gwarancji, doświadczenie na rynku (liczba wdrożonych projektów itp.)?
Fot. Adobe Stock
n Tomasz Janoś
INFRASTRUKTURA SIECIOWA
10 VADEMECUM CRN czerwiec 2023
– W przypadku klientów instytucjonalnych, kupujących w ramach zamówień publicznych, oczywiście cena stanowi główne kryterium wyboru oferty, ale nie oznacza to, że kwestie techniczne nie są istotne. Warunki dla urządzeń sieciowych zapisane są już w SIWZ, OPZ czy w samym zapytaniu ofertowym – mówi Robert Gawroński, SMB Channel Manager w TP-Linku.
Niemal równie istotne jest przyzwyczajenie do jednego albo 2–3 dostawców rozwiązań sieciowych. W przypadku niewielkich modernizacji albo zakupów zmierzających do rozbudowy sieci lepiej jest – z uwagi na łatwość późniejszego zarządzania – ograniczyć się do mniejszej liczby producentów. Ważne jest także to, że w razie wystąpienia problemu jest on zgłaszany do jednego producenta, a nie kilku różnych. W opinii klientów instytucjonalnych infrastruktura sieciowa musi także cechować się dużą niezawodnością działania oraz wsparciem ze strony producenta.
– Podobnie zresztą jak w przypadku klientów biznesowych, wiele zależy od wielkości i typu projektu. Klient instytucjonalny, taki jak placówka edukacyjna, w której sieć będzie wykorzystywana przez kadrę nauczycielską do prowadzenia zajęć, a przez uczniów do bezpiecznego surfowania w in-
ternecie, będzie miał mniejsze wymagania niż sieć w szpitalu czy ministerstwie – tłumaczy Robert Gawroński.
W przypadku klientów biznesowych, przy mniejszych projektach sieciowych, realizowanych dla małych i średnich przedsiębiorstw, priorytetem są możliwości techniczne rozwiązania w stosunku do jego ceny. Wartość dodaną stanowi wydłużona gwarancja.
– W tej grupie klientów istotną kwestią jest również sposób zakupu. To, czy decydują się na kupno samodzielnie z kanału resellerskiego, czy też korzystają z usług integratora lub firmy obsługującej IT. W tym drugim przypadku to integrator zapewnia w dużej mierze właściwy poziom serwisu i obsługi zgłoszeń technicznych czy gwarancyjnych – twierdzi przedstawiciel TP-Linka.
Przy dużych projektach znacznie większy nacisk kładzie się na doświadczenie dostawcy na rynku, liczbę i typ zrealizowanych projektów (najlepiej wpisujących się w obszar działania klienta), jak również obsługę serwisową i gwarancyjną, pozwalającą na jak najszybszą reakcję w przypadku wystąpienia awarii.
Po kablu i bezprzewodowo Rozwiązania sieciowe dla MŚP są dzisiaj znacznie wydajniejsze niż jeszcze dekadę temu i widać to zwłaszcza w przypadku sieci bezprzewodowych. Jednak także we wdrożeniach przewodowych segment MŚP poczynił znaczne postępy, ponieważ już od dłuższego czasu chętnie sięga po przełączniki 10 GbE. Kiedyś dostępne wyłącznie dla dużych korporacji, dzisiaj są oferowane w takiej cenie, że mogą być
Zdaniem integratora
brane pod uwagę także przez małe firmy. Umożliwiają one modernizację szkieletu ich sieci do standardu 10 GbE, zapewniając bardzo szybkie połączenia przez porty miedziane i światłowodowe. Przełączniki sieciowe są wyposażone także w wydajniejsze porty PoE, które w infrastrukturze kablowej dostarczającej dane zapewniają więcej mocy elektrycznej. Bardzo to ułatwia instalowanie nowych punktów dostępowych sieci Wi-Fi, monitoringu wideo, telefonii IP itp.
Dostęp bezprzewodowy już dawno stał się dla użytkowników urządzeń mobilnych artykułem pierwszej potrzeby. Spodziewają się go w restauracjach i hotelach, instytucjach publicznych, szkołach, a nawet w środkach transportu publicznego. Wiele firm, podążając za oczekiwaniami swoich pracowników, częściej modernizuje swoje sieci Wi-Fi. A potrzeba bezprzewodowej komunikacji nie omija żadnej branży. W szpitalach WLAN łączy najróżniejsze urządzenia klienckie pacjentów i personelu oraz sprzęt medyczny. W handlu natomiast usprawnia i automatyzuje sprzedaż oraz przyciąga klientów. Hotele, jeśli nie chcą szybko pozbyć się gości, muszą im zapewnić dostęp do internetu na odpowiednim poziomie.
Znaczenie Wi-Fi wyraźnie wzrosło także w zastosowaniach niezwiązanych z obsługą użytkowników w biurach czy hotelach. Bezprzewodowa sieć o odpowiednich parametrach staje się kluczowym elementem automatyzacji procesów w logistyce, handlu czy produkcji. W nowoczesnym magazynie infrastruktura bezprzewodowa musi zapewnić ciągłą
n Paweł Zwierzyński, Network&Security Team Leader, Vernity Źle zaprojektowana sieć bezprzewodowa będzie miała fatalny wpływ na działanie aplikacji biznesowych. Szczególnie wymagające projekty to wdrożenia w obiektach magazynowych, które – w zależności od wysokości i długości regałów oraz miejsca montażu punktów dostępowych – mogą potrzebować bardzo różnych anten. Przykładowo, częstym błędem przy projektowaniu sieci bezprzewodowej w magazynie, gdzie występują długie alejki pomiędzy regałami, jest zastosowanie punktów dostępowych z antenami dookólnymi. Z uwagi na charakter propagacji sygnału z anten dookólnych przy wyższym poziomie zatowarowania magazynu będą występować problemy z siecią Wi-Fi. I chociaż przy małym zatowarowaniu magazynu pokrycie zasięgiem Wi-Fi będzie prawidłowe, to znacznie wzrosną interferencje CCI, co również będzie miało negatywny wpływ na działanie sieci.
11 VADEMECUM CRN czerwiec 2023
obsługę będącego stale w ruchu komputera zamontowanego na wózku widłowym lub znajdującego się w ręku magazyniera. Gdy przemieszczające się urządzenie znajduje się w zasięgu kolejnych AP sieć Wi-Fi dba o to, by nie doszło do zerwania połączenia i utraty otwartej sesji systemu klasy ERP lub innej aplikacji.
Zaspokojenie wszystkich potrzeb klientów związanych z siecią bezprzewodową nie jest prostą sprawą. Integratorzy muszą nie tylko rozumieć wymogi biznesowe, ale posiadać wiedzę dotyczącą sieci bezprzewodowych w zakresie skalowalności, kontroli dostępu, projektowania z uwzględnieniem zasięgu i pokrycia, pojemności i bezpieczeństwa.
Chociaż mogłoby się komuś wydawać, że aby stworzyć bezproblemowo działającą sieć Wi-Fi wystarczy wiedzieć ilu użytkowników i urządzeń ma ona obsługiwać, taka informacja stanowi dopiero początek procesu projektowania.
To, jak ma wyglądać sieć bezprzewodowa, będzie zależeć od rodzaju środowiska (biuro, magazyn, otwarta przestrzeń, konstrukcja obiektu itp.), a także wykorzystywanych urządzeń końcowych. Kolejna kwestia to rodzaj aplikacji, które ma obsłużyć sieć Wi-Fi, jak też lokalne możliwości montażu punktów dostępowych i panujące u użytkownika warunki (skrajne temperatury, wysokie zapylenie/wilgotność).
– Każda z tych kwestii wymaga w podejściu projektowym uwzględniania specyficz-
Rozwój sieci Wi-Fi
nych dla niej uwarunkowań. Przykładowo, w biurze będziemy mieć do czynienia z raczej statycznymi klientami bezprzewodowymi, ale podłączeni do Wi-Fi użytkownicy i urządzenia będą potrzebować większej przepustowości. Inaczej jest w magazynie, gdzie urządzenia często są przenoszone i przez to wymagają bezproblemowego przełączania pomiędzy punktami dostępowymi (roaming), ale za to nie potrzebują dużych przepustowości – tłumaczy Paweł Zwierzyński, Network&Security Team Leader w Vernity.
Rozmaite czynniki będą wpływać na dobór odpowiednich punktów dostępowych (czyli anten wbudowanych oraz zewnętrznych), a także samych anten (dookólnych, kierunkowych, o różnym zysku energetycznym itp.). Zastane warunki decydować będą o liczbie punktów dostępowych i kontrolerów, a także kanałach radiowych, na jakich będą nadawać oraz mocach sygnału.
klienckich, tworzenie stref z przywilejami itp.
Przez dekady sieci i cyberbezpieczeństwo rozwijały się równolegle, mając swój udział w innowacjach i przełomach w IT. Dziś zgrabnie łączy je SASE (Secure Access Service Edge), obiecując bezpieczny i wydajny dostęp z dowolnego miejsca.
Sieci oraz cyberbezpieczeństwo
Wszystko to powoduje, że oferowanie sieci bezprzewodowych to nie tylko sprzedaż punktów dostępowych, ale wiele dodatkowych usług. Gdy WLAN staje się podstawową metodą dostępu do sieci, partnerzy mogą zarabiać na planowaniu sieci, ich wdrażaniu, konfigurowaniu i bieżącym utrzymaniu. Szansą na dodatkowe dochody jest zabezpieczanie komunikacji bezprzewodowej oraz zarządzanie – zapewnienie dostępu dla gości, automatycznego konfigurowania sieci i urządzeń
Ewolucja standardów
Przejście na pracę zdalną w czasie pandemii przyspieszyło rozwój oferty SASE, czyli „bezpiecznego dostępu do usług brzegowych”. Od tego czasu wciąż rośnie zainteresowanie uzyskaniem bezpiecznego zdalnego dostępu do aplikacji, bez względu na to skąd są uruchamiane i gdzie znajduje się użytkownik. Towarzyszy temu rosnąca liczba dostawców oferujących SASE na rynku, a więc i możliwości ich partnerów w docieraniu do klientów.
Takie architektury, jak SASE, stanowią odpowiedź na zmianę paradygmatu dostępu do sieci i aplikacji. Czasy, gdy niemal cała komunikacja między pracownikiem a aplikacją odbywała się w wewnętrznej sieci firmy, można z całą pewnością uznać za minione. Stąd wynikła potrzeba rozwiązań, które w erze pracy hybrydowej i powszechnego wykorzystania usług SaaS z chmury zaoferują najwydajniejszy, a zarazem najbezpieczniejszy dostęp. n
12 VADEMECUM CRN czerwiec 2023
Wi-Fi 4 modulacja 64 QAM dwa zakresy (dual band)
Wi-Fi 5 modulacja 256 QAM szyfrowanie WPA2
Wi-Fi 5 (Wave 2) downlink MU-MIMO (4x4)
Wi-Fi 7 modulacja 4k QAM kanały 320 MHz funkcje Multi-Link
Wi-Fi 6 modulacja 1024 QAM downlink MU-MIMO (8x8) ortogonalne przełączanie sygnału (OFDMA)
Wi-Fi 6E zakres częstotliwości 6 GHz więcej kanałów 160 MHz
Wi-Fi 6E (Wave 2) uplink MU-MIMO
Ewolucja spektrum radiowego 2,4 GHz 5 GHz 6 GHz
źródło: Qualcomm INFRASTRUKTURA SIECIOWA
rozwijały się równolegle, a dziś łączy je SASE.
ER7212PC: wielofunkcyjny gigabitowy router VPN
TP-Link ER7212PC to rozwiązanie typu all-in-one: router VPN z wbudowanym 8-portowym przełącznikiem PoE+ i kontrolerem sprzętowym Omada SDN. Sprzęt pozwala na znaczną redukcję liczby urządzeń niezbędnych do stworzenia profesjonalnej sieci, bez konieczności rezygnowania z wymaganej funkcjonalności.
Urządzenie ER7212PC przeznaczone jest do pracy w sieciach domowych i małych fi rmach. To zintegrowane rozwiązanie może zastąpić router, sprzętowy kontroler sieciowy oraz przełącznik PoE. Wyposażone w osiem gigabitowych portów zapewnia zasilanie w standardzie PoE+ 802.3at/af (110 W całkowitej mocy) dla takich urządzeń PoE jak bezprzewodowe punkty dostępowe, kamery sieciowe czy telefony IP, co pozwala obniżyć koszty infrastruktury w małych przedsiębiorstwach.
Dla użytkowników dostępne są także maksymalnie cztery gigabitowe porty WAN (jeden RJ45 WAN, jeden RJ45 WAN/ LAN i dwa WAN/LAN z wkładkami SFP), co umożliwia podłączenie internetu od aż czterech dostawców, a przez to zapewnienie ciągłości działania firmy w razie awarii łącza. Zaimplementowana funkcja równoważenia pasma multi-WAN rozdziela strumienie danych zgodnie z przepustowością każdego portu WAN, aby zwiększyć stopień wykorzystania wieloliniowego połączenia szerokopasmowego.
Wysoka wydajność transferu danych na 12 gigabitowych portach zapewniona jest dzięki zastosowaniu dwurdzenio-
wego procesora z zegarem 1,2 GHz oraz 1 GB pamięci RAM. Niewielka, kompaktowa obudowa umożliwia montaż w wielu miejscach. Urządzenie pozbawione jest wentylatora, co pozwala na bezgłośne odprowadzanie ciepła.
Wbudowany klient i serwer VPN (L2TP, PPTP, IPsec, OpenVPN) umożliwia dostęp do zasobów firmowych osobom pracującym zdalnie. Instalacja i konfiguracja VPN IPsec odbywa się w sposób zautomatyzowany. Obsługa wirtualnych sieci VLAN oraz wielu identyfikatorów SSID ułatwia fragmentaryzację sieci istotnie zwiększając jej bezpieczeństwo. Zapewniono wiele możliwości autoryzacji użytkowników poprzez portal, Facebook, SMS czy vouchery.
Urządzenie ER7212PC umożliwia zarządzanie punktami dostępowymi z serii Omada firmy TP-Link. Producent rekomenduje skorzystanie ze sprzętu zgodnego ze standardem Wi-Fi 6 (802.11ax), takiego jak modele AX1800 o maksymalnej przepustowości 1,8 Gb/s, zasilanych przez PoE. Urządzenia EAP610 i EAP620 HD, oferowane w kompaktowej i dyskretnej obudowie o średnicy 16 cm i grubości 3,3 cm,
przeznaczone są do montażu na suficie bądź ścianie.
EAP610-Outdoor to wersja punktów dostępowych z obudową odporną na warunki atmosferyczne (IP67), przeznaczona do instalacji na zewnątrz budynków. Z kolei EAP615-Wall to model do montażu naściennego, w puszce elektrycznej o średnicy 86 mm. Urządzenie wyposażone jest w 4 porty sieciowe – jeden uplink oraz 3 downlink (z których jeden ma możliwość zasilania podłączonego urządzenia za pomocą PoE 802.3af/at).
Urządzenie ER7212PC ma wbudowany zintegrowany kontroler sprzętowy Omada SDN. Umożliwia on zbiorcze, scentralizowane zarządzanie podłączonym sprzętem (maksymalnie dziesięcioma punktami dostępowymi, dwoma przełącznikami i routerem) oraz aktualizowanie go, bez konieczności indywidualnego i skomplikowanego konfigurowania.
Dodatkowo, poprzez bezpłatną chmurę producenta Omada Cloud można zapewnić zdalną kontrolę podłączonego sprzętu poprzez przeglądarkę lub z urządzenia mobilnego, monitorowanie sieci i sprawdzanie jej stanu w czasie rzeczywistym. Rozwiązanie to sprawdza się szczególnie w hotelarstwie, edukacji, sprzedaży detalicznej, biurach oraz placówkach z wielu innych branż.
Omada w automatyczny sposób analizuje potencjalne problemy i prezentuje sugestie dotyczące optymalizacji sieci, a tym samym zwiększenia jej wydajności. Pomaga też lokalizować źródła zakłóceń i przeciwdziałać im poprzez automatyczne dostosowywanie ustawień kanału i mocy transmisji pobliskich punktów dostępowych połączonych z tą samą siecią.
Dystrybutorami TP-Link w Polsce są: AB, Also, Exclusive Networks i NTT System.
Dodatkowe informacje: Robert Gawroński, SMB Channel Manager, TP-Link robert.gawronski@tp-link.com
13 VADEMECUM CRN czerwiec 2023
Cudy
polski rynek
W tym roku Cudy – producent wysokiej jakości urządzeń
sieciowych – wprowadził na rynek bogatą ofertę przełączników oraz rozwiązań bezprzewodowych.
Inicjatywa powstania Cudy wyszła od profesjonalistów w dziedzinie sieci. Trzech założycieli firmy, każdy z ponad 10-letnim doświadczeniem, wywodzi się od czołowego dostawcy sprzętu sieciowego. Mając wizję tworzenia bardziej zróżnicowanych produktów, pozwalających na lepsze zaspokojenie potrzeb rynku, opuścili poprzedniego pracodawcę i pod koniec 2018 r. założyli firmę Cudy oraz zapewnili jej najwyższej klasy zespół badawczo-rozwojowy.
Dzięki zgromadzonemu doświadczeniu zespół R&D z powodzeniem zbudował wysoce zintegrowany łańcuch produkcyjny, który umożliwia zachowanie delikatnej równowagi między jakością urządzeń a kontrolą kosztów. Własna fabryka umożliwia rygorystyczne testowanie procesu montażu elektroniki i gotowych produktów, co ułatwia utrzymanie wskaźnika zwrotów (RMA) poniżej 1 proc.
– Nasza strategia rozwoju, skoncentrowana na kliencie, pozwoliła nam szybko reagować na potrzeby rynku. Po czterech latach działania oferujemy produkty w głównych kategoriach sieciowych, a wkrótce rozszerzymy portfolio także na obszary IoT i bezpieczeństwa – mówi
Zdzisław Kaczyk, Head of Sales – Eastern Europe w Cudy.
Dodaje, że na polskim rynku zauważa duże zainteresowanie systemami Mesh, które charakteryzują się lepszą stabilnością, optymalnym zasięgiem Wi-Fi oraz są łatwe w konfiguracji i zarządzaniu.
– W przypadku Cudy są one wstępnie skonfigurowane przed wysyłką do klienta, dzięki czemu może on zaoszczędzić czas i wysiłek podczas ich instalacji – podkreśla Zdzisław Kaczyk.
Zgodne z najnowszymi standardami
Na polski rynek trafiła zróżnicowana gama produktów Cudy, obejmująca przełączniki sieciowe, rozwiązania bezprzewodowe i routery (w tym 4G i 5G). Zostały one zaprojektowane w taki sposób, aby w maksymalnym stopniu zwiększać komfort pracy użytkowników. Dla przykładu, w modemach 5G zastosowana jest już najnowsza wersja tego standardu – 3GPP Release 16. Dzięki niej udostępniono takie funkcje jak eURLLC i mTRP, które poprawiają niezawodność łącza, zmniejszają opóźnienia i pozwalają na większe wykorzystanie pasma komórkowego. W ten sposób sieci mobilne mogą stać się silną alternatywą dla stacjonarnych światłowodowych łączy szerokopa-
smowych, dając użytkownikom większy wybór w zakresie dostępu do internetu. Specjaliści Cudy zapewnili także płynny zasięg w sieciach bezprzewodowych dzięki technologii Mesh. Pozwala ona na połączenie wielu węzłów Wi-Fi w jeden system, co zapobiega zrywaniu połączenia, gdy użytkownicy przemieszczają się z jednego obszaru do drugiego. Mechanizm ten jest szczególnie przydatny w dużych przestrzeniach, takich jak centra handlowe, hotele i węzły komunikacyjne, a także w średnich i dużych gospodarstwach domowych.
Dzięki koncentracji producenta na najnowszych technologiach, rozwiązania Cudy spełniają wymagania konsumentów i firm na całym świecie – zyskały szerokie uznanie użytkowników w ponad 60 krajach. Model LT18 jest najpopularniejszym routerem 4G Cat. 18 w Stanach Zjednoczonych, podczas gdy LT400 znajduje się w pierwszej piątce najlepiej sprzedających się routerów na włoskim Amazonie. Flagowy router 5G NR AX3000 Wi-Fi Router P5 firmy Cudy jest jednym z pierwszych routerów obsługujących najnowszy standard 5G Release 16.
Oficjalnym dystrybutorem produktów Cudy w Polsce jest AB.
Dodatkowe informacje: Zdzisław Kaczyk, Head of Sales – Eastern Europe, Cudy zdzislaw.kaczyk@cudy.com
14 VADEMECUM CRN czerwiec 2023
szturmuje
INFRASTRUKTURA SIECIOWA
Zdzisław Kaczyk, Head of Sales – Easter Europe, Cudy
Netgear:
obraz i dźwięk obraz i w profesjonalnej sieci w sieci
Przełączniki Netgear AV M4250
są przeznaczone do przesyłania sygnału audio-wideo w sieci wykorzystującej do komunikacji
protokół IP. Wbudowane w nie oprogramowanie jest zgodne z wymaganiami transmisji danych wykorzystywanymi w branży multimedialnej.
Rozwiązania z rodziny M4250 zostały zbudowane od podstaw dla rozwijającego się rynku transmisji danych AV over IP. Podczas ich projektowania Netgear połączył wiedzę profesjonalistów z branży audio-wideo z wieloletnim własnym doświadczeniem zdobytym przy rozwijaniu zarządzalnych przełączników z rodzin M4300 i M4500. W portfolio producenta dostępnych jest wiele modeli prze-
Podstawowa specyfikacja modeli GSM4210PD
oraz GSM4210PX
n 8 portów 1GbE RJ45, z PoE+ o łącznej mocy 110 W (PD) lub 220 W (PX)
n 1 port 1GbE RJ45 bez PoE+ oraz 1 port 1GbE SFP (tylko PD)
n 2 porty 10GbE SFP+ (tylko PD)
n łączna przepustowość 10 portów: 20 Gb/s (PD) lub 56 Gb/s (PX)
n port zarządzania 1GbE out-of-band (OOB)
n port konsoli USB-C oraz pamięci masowej USB-A
n obudowa nabiurkowa do zastosowania w salach konferencyjnych lub w mobilnych studiach (dostępne uszy do montażu w szafie rack)
łączników M4250, oferujących od 10 do 48 portów i różniących się wydajnością oraz mocą zapewnianą podłączanym urządzeniom za pomocą standardu Power over Ethernet.
Dla małych i średnich firm, które chcą odpowiednio wyposażyć swoje sale konferencyjne czy korzystać z niewielkich systemów nagłośnieniowych, polecane są 8-portowe biurkowe modele M4250–9G1F-PoE+ (nazwa kodowa GSM4210PD) oraz M4250––8G2XF-PoE+ (GSM4210PX), różniące się całkowitą przepustowością, łączną mocą PoE oraz dostępnością portów z wkładkami SFP (szczegóły w ramce obok).
Przełączniki z rodziny M4250 są przystosowane do obsługi standardowych sygnałów audio i wideo. Urządzenia te dostarczane są wraz z fabrycznie skonfigurowanymi profilami AV na określonych portach. Dla sygnału audio dostępne są profile Dante, Q-SYS i AES67, a także wymagający sprzedawanej oddzielnie licencji profil Audio Video Bridging (AVB), który najczęściej używany jest wówczas, gdy wymagane jest bardzo niskie opóźnienie (np. podczas występów na żywo, gdy synchronizacja ruchu warg ma kluczowe znaczenie). Dla transmisji danych wideo M4250 oferuje profile dla NVX, AMX, Q-SYS, NDI, Dante itp., a także profile mieszane audio/wideo/ sterowania. Gdy użytkownik ma bardziej specyficzne wymagania, interfejs przełącznika umożliwia personalizację profili.
Dodatkowo, funkcja AV Line (znana także jako Auto-LAG i Auto-Trunk) zapewnia automatyczną i dynamiczną konfigurację wielu połączonych ze sobą przełączników M4250. Jeśli w sieci będzie pracowa-
ła większa liczba przełączników, funkcja Netgear IGMP Plus zapewnia automatyzowany proces konfiguracji ich współpracy lub połącznia z przełącznikami z rodziny M4300 i M4500.
Wszystkie modele przełączników M4250 można zainstalować w szafie rack, montując je w sposób standardowy lub z portami wyprowadzonymi z tyłu urządzenia. Zarządzanie odbywa się zgodnie z branżowymi standardami, a więc poprzez łatwy w obsłudze interfejs graficzny, za pomocą standardowego wiersza poleceń, a także protokołów SNMP, sFlow i RSPAN. Możliwe jest także skorzystanie z usługi Netgear NMS300 zapewniającej scentralizowane aktualizacje firmware’u oraz zbiorcze zarządzanie i wprowadzanie zmian konfiguracyjnych.
Urządzenia z rodziny Netgear M4250 są objęte dożywotnią ograniczoną gwarancją Netgear ProSAFE, uwzględniającą wymianę sprzętu następnego dnia roboczego. Producent zapewnia także 90 dni wsparcia technicznego przez telefon oraz e-mail, a także dożywotnie wsparcie techniczne za pośrednictwem czatu online.
Autoryzowanymi dystrybutorami Netgear w Polsce są: AB, Action, Also i Exclusive Networks.
Dodatkowe informacje: Paweł Kozłowski, VAR Account Manager, Netgear pkozlowski@netgear.com
15 VADEMECUM CRN czerwiec 2023
w cieniu oprogramowania Sprzęt kwitnie
Dominacja usług chmurowych oraz oprogramowania sprawiły, że mniej mówi się o rozwiązaniach sprzętowych. Nie oznacza to jednak, że tracą one na znaczeniu.
Według najnowszej prognozy Gartnera (z kwietnia 2023 r.) globalne wydatki na IT wyniosą w tym roku 4,6 bln dol., co oznacza wzrost o 5,5 proc. w porównaniu z 2022 r. Bardzo dobre perspektywy rysują się przed dostawcami oprogramowania. Analitycy przewidują, że w 2023 roku ten segment rynku osiągnie wartość 891 mld dol., co oznacza wzrost o 12 proc. w ujęciu rok do roku. Jak na tym tle przedstawia się sprzęt?
Wyjątkowo niekorzystnie prezentuje się kategoria określana w zestawieniach Gartnera jako urządzenia (komputery PC, tablety oraz smartfony). Analitycy prognozują, że tegoroczne globalne przychody ze sprzedaży tej grupy produktów osiągną poziom 684 mld dol. – o 4,6 proc. mniej niż rok wcześniej. Jednak w tabelach Gartnera figuruje też pozycja systemy dla centrów danych, obejmująca między innymi serwery i macierze dyskowe. Ogółem w tym roku ten segment rynku ma wygenerować obroty o łącznej wartości 224 mld dol., a zatem o 3,7 proc. więcej niż w 2022 r.
Powyższe dane nie pozostawiają złudzeń, iż sprzęt wciąż odgrywa niepoślednią rolę w branży IT. Zresztą jego znaczenie szczególnie uwydatniła pandemia. Poza tym na rynku serwerów, komputerów czy systemów NAS aż roi się od technicznych nowinek. Urządzenia wyposażone w najnowsze procesory, karty sieciowe, kontrolery pamięci masowych czy akceleratory pozwalają śrubować kolejne rekordy wydajności, zaś dyski umożliwiają przechowywanie i przetwarzanie coraz większych ilości danych. Zdaniem Gala Naora, CEO i założyciela StorOne
VADEMECUM CRN czerwiec 2023
(wcześniej był twórcą macierzy Storwize), sprzęt rozwija się w bardzo dynamicznym tempie, co potwierdzają parametry najnowszych nośników danych czy przepustowości sieci. Natomiast wąskim gardłem w centrach danych jest oprogramowanie, które nie potrafi zapanować nad rozrastającymi się infrastrukturalnymi silosami.
Chyba tylko nieoprawni optymiści sądzili, że hossa na rynku komputerów PC trwać będzie w nieskończoność. Cud się nie zdarzył i pierwszy kwartał bieżącego roku przyniósł dwucyfrowe spadki. Według danych Canalysa globalna sprzedaż komputerów skurczyła się o 33 proc. w ujęciu rocznym do około 54 mln sztuk, podczas gdy IDC odnotowało spadek o 29 proc., do około 57 mln sztuk. To wynik gorszy niż przychody uzyskane przed pandemią w latach 2014–2019.
Sprawiła ona między innymi, że przedsiębiorcy zaczęli bardziej inwestować w sprzęt z najwyższej półki, na czym dużo zyskał Apple. W 2022 r. udział tej marki w globalnej sprzedaży komputerów wynosił 10 proc., zaś średni roczny udział z wcześniejszych pięciu lat to około 7 proc. Jednak w ostatnich miesiącach firmy nie są już tak hojne. Znamienny jest fragment listu dyrektora finansowego Google Alphabet dotyczącego wydatków na sprzęt IT dla pracowników tej firmy w 2023 r.
– Obecnie urządzenia mają znacznie dłuższą żywotność oraz większą wydajność i niezawodność, dlatego wprowadziliśmy zmiany w tym, co jest dostępne i jak często jest wymieniane – oznajmił Ruth Porat.
Skoro taki komunikat płynie z ust dyrektora finansowego jednego z najbogatszych koncernów na świecie, trudno się dziwić, że małe czy średnie przedsiębiorstwa również zaciskają pasa. Co ciekawe, Apple, będące beneficjentem boomu na komputery w czasie pandemii, w pierwszym kwartale bieżącego roku straciło najwięcej – liczba komputerów z systemem macOS dostarczonych na rynek zmniejszyła się o 46 proc.
Jak będzie wyglądać ponowne ożywienie i kiedy ono nastąpi? Średnia roczna sprzedaż przed pandemią wynosiła około 265 mln sztuk. IDC prognozuje, że w 2027 r. światowy rynek wchłonie około 300 mln komputerów. Analitycy wierzą zwłaszcza w siłę nabywczą klientów biznesowych, którzy zaczną wymieniać urządzenia zakupione w czasie pandemii. Jak wynika z badania przeprowadzonego przez Della oraz ICAN Institute, 84 proc. badanych przedsiębiorstw wskazało na trudności podczas pracy zdalnej, a jedną z największych przeszkód jest zbyt mały ekran laptopa. W tym samym badaniu 69 proc. kierowników oraz 61 proc. specjalistów wskazało potrzebę wymiany sprzętu, w tym monitorów.
– Jednym z impulsów ożywiających rynek komputerów mogą być zmiany w przepisach prawa nakładające na pracodawcę obowiązek wyposażania pracowników w narzędzia umożliwiające stworzenie ergonomicznego miejsca pracy w domu. W związku z tym spodziewamy się zwiększenia zapotrzebowania na monitory, stacje dokujące, zestawy słuchawkowe i inne peryferia – mówi Sebastian
Urbanek Fot. Adobe Stock
n Wojciech
PRZETWARZANIE I PRZECHOWYWANIE DANYCH
16
Antkiewicz, Products & Solutions Senior Manager w Dell Technologies.
Ożywienie na rynku komputerów PC powinny przynieść innowacje techniczne – nowe procesory, karty graficzne, dyski. Najbardziej interesująco przedstawia się sytuacja wśród producentów procesorów. Digitimes Research prognozuje, że w tym roku udział Intela w segmencie chipów dla laptopów skurczy się do historycznego minimum, czyli 65 proc, na czym zyskają układy AMD oraz w nieco mniejszym stopniu ARM. W kwietniu swój debiut miał Ryzen 7 7800X 3D, a pierwsze testy pokazują, że jest on wydajniejszy od swojego poprzednika (Ryzen 7 5800X 3D) o około 20–30 proc.
– Procesor zwiększył wydajność, a do tego dochodzi przystępna cena, która w dniu premiery była praktycznie taka sama jak w przypadku premiery 5800X 3D. Dlatego uważam, że właśnie Ryzen 7 7800X 3D powinien wnieść ożywienie na rynek komputerów – uważa Mateusz Świętek, Product Manager AMD w AB.
Przy czym nie jest tak, że wrocławski dystrybutor stawia wyłącznie na jednostki AMD. Specjaliści z tej firmy pokładają duże nadzieje w trzynastej generacji procesorów Intela i wskazują na dwóch faworytów: Intel
Core i5-i3500 dla użytkowników niskobudżetowych oraz bardziej wydajną jednostkę Intel Core i5–13600K.
Jak na razie małe i średnie firmy najczęściej kupują notebooki z procesorem Intel Core i5–12500, z ekranem o przekątnej 15,6 cala, 8 lub 16 GB pamięci RAM oraz nośnikiem SSD o pojemności 256 GB lub 512 GB. Klienci biznesowi wciąż zaopatrują się w komputery stacjonarne, które trafiają
zazwyczaj do sklepów, hal produkcyjnych bądź stanowisk pracy wymagających komputera o odpowiedniej konfiguracji (m.in. pod kątem wymogów wydajnościowych). Natomiast modele All-In-One można spotkać na recepcjach, w salach konferencyjnych czy miejscach, gdzie brakuje przestrzeni na tradycyjne komputery stacjonarne.
– Rokrocznie obserwujemy wzrosty sprzedaży urządzeń All-In-One o około 30 proc. Tego typu komputery coraz chętniej są wykorzystywane w punktach sprzedażowych. Klienci coraz częściej wybierają większe matryce o przekątnej 24–27 cali, chociaż rok temu królowały rozwiązania 21,5 cala – mówi Bogdan Wiśniewski, Commercial Team Leader w Asusie.
Serwery: rywalizacja gigantów
da broni, a jego odpowiedzią na nową linię chipów konkurenta jest czwarta generacja procesorów Xeon. Z pewnością wiele firm zainwestuje w serwery z najnowszymi układami AMD lub Intela, aby zaspokoić rosnące potrzeby w zakresie obliczeń.
Rywalizacja
Intel oraz AMD mocno rywalizują ze sobą nie tylko na rynku komputerów, ale również serwerów. Chociaż firma kierowana przez Pata Gelsingera wciąż jest górą, jej przewaga powoli topnieje. Na koniec ubiegłego roku przychody Intela ze sprzedaży procesorów dla centrów danych skurczyły się o 16 proc., a udział w rynku spadł z 81 do 71 proc. Natomiast AMD znajduje się na fali wznoszącej – firma odnotowała wzrost przychodów o 62 proc, osiągając 20 proc. udziału w rynku serwerów.
Niewykluczone, że nowa rodzina procesorów AMD EPYC Genoa czwartej generacji pozwoli tej marce jeszcze bardziej skrócić dystans do lidera. Jednak Intel nie skła-
Oczywiście specjaliści tworzą zestawienia porównujące najnowsze chipy AMD i Intela. Wynika z nich, że AMD EPYC Genoa ma kilka atutów w porównaniu z największym konkurentem, takie jak liczba rdzeni na gniazdo, lepsza przepustowość pamięci, mniejsze zużycie energii i więcej linii PCIe. Natomiast Intel Xeon przewyższa rywala pod względem wydajności pojedynczego rdzenia, lepszej obsługi wirtualizacji i szerszych możliwości w zakresie obsługi oprogramowania. Liczy się też renoma marki, która w świecie IT wciąż wiele znaczy.
– Patrząc na rynek z punktu widzenia procesorów, AMD w ostatnich latach odniosło ogromny sukces. Intel czwartą generacją Xeonów chce odzyskać kawałek utraconego rynku, co moim zdaniem wcale nie będzie takie łatwe. Nie zapominajmy jednak, że na rynku są jeszcze obecne procesory ARM, stanowiące konkurencję dla obu wymienionych marek – mówi Mirosław Chełmecki, Data Center & Cloud Department Director w Exclusive Networks.
Według IDC w 2022 r. globalne przychody ze sprzedaży serwerów wyniosły 122,7 mld dol. Natomiast w bieżącym roku ma to być 131,2 mld dol. (w tym 109,6 mld dol. ze sprzedaży jednostek x86). Czynniki
17 VADEMECUM CRN czerwiec 2023
będzie toczyć się na kilku frontach.
napędzające popyt to modernizacja istniejącej infrastruktury i przechodzenie na model chmury hybrydowej. Mirosław Chełmecki doszukuje się przy tym pozytywów w sytuacji politycznej, gdyż w trudnych czasach trzeba zapewnić cyfrowe bezpieczeństwo obywatelom. Tymczasem bez modernizacji lub wymiany starych serwerów jest to niemożliwe. Niepośledni wpływ na decyzje zakupowe mają również inflacja, w tym wzrost cen energii.
– Klienci poszukują rozwiązań efektywnych kosztowo, lecz nie chodzi wyłącznie o cenę zakupu, ale także o późniejsze koszty użytkowania związane z zarządzaniem, wsparciem, poborem energii elektrycznej w odniesieniu do wydajności, czy serwisem. Dodatkowym czynnikiem branym pod uwagę jest sposób dostarczania infrastruktury – mówi Paweł Wójcik, HV and Compute & Data Services Lead w HPE.
Z całą pewnością serwery oferowane w modelu usługowym przez HPE, Della czy Cisco, to szansa dla małych i średnich firm, których często nie stać na zakup innowacyjnych rozwiązań w tradycyjnym modelu.
Osobną kwestią jest rosnąca popularność systemów hiperkonwergentnych (HCI), w których kluczową rolę spełniają serwery zastępujące macierze SAN. Tego typu rozwiązania cieszą się rosnącą popularnością wśród małych i średnich firm ze względu na łatwość wdrożenia i konfiguracji. Zresztą na globalnym rynku działają anonimowi w Polsce producenci (Scale Computing, StorMagic) opracowujący systemy HCI specjalnie na potrzeby MŚP. Obie firmy twierdzą, że
Zdaniem integratora
przetwarzanie na brzegu sieci, a w związku z tym potrzeba umieszczenia aplikacji oraz infrastruktury blisko miejsca wytwarzania i konsumowania danych, będzie w najbliższych latach stymulować popyt na ich rozwiązania.
NAS ewoluuje
Serwery NAS od lat cieszą się nieustającą popularnością wśród małych i średnich przedsiębiorstw. W Polsce najszybciej znikają z magazynów produkty Synology oraz QNAP. Wymieniona dwójka zdominowała rynek odbiorców MŚP i, co za tym idzie, kreuje na nim najważniejsze trendy. Preferencje użytkowników zmieniają się wraz z przyrostem danych, a także spadającymi cenami nośników. Jeszcze do niedawna dyski SSD wydawały się być w serwerach NAS przysłowiowym wodotryskiem. Jednak od niedawna nawet urządzenia dla mniejszych firm mają porty M.2. Szybkie nośniki mogą być wykorzystane jako pamięć cache lub przestrzeń na dane. Najczęściej taką wersję wybierają firmy pracujące z nieskompresowanymi plikami audio-wideo bądź korzystające z wirtualizacji.
MŚP mają też coraz większe wymagania wobec stosowanej w NAS-ach pamięci RAM. Minimum w przypadku najmniejszych klientów biznesowych wynosi 4 GB, zaś większe firmy potrzebują przynajmniej 32 GB. Jednak bywają także klienci MŚP inwestujący w serwery z zainstalowanymi 128 GB pamięci RAM.
n Jacek Marynowski, prezes, Storage IT
Wśród procesorów instalowanych w urządzeniach NAS przeważają
konstrukcje w architekturze x86 z procesorami AMD Ryzen oraz Intel Xeon. Szczególnie AMD Ryzen w ostatnich miesiącach osiągnął całkiem
istotny udział w rynku NAS-ów. Jeśli chodzi o ilości pamięci RAM, tu nie dostrzegam zmian – nadal przeważają konstrukcje z 4 i 8 GB pamięci. Jednak należy tu wyraźnie zaznaczyć, że w przypadku serwerów NAS procesor czy pamięć RAM nie są aż tak kluczowe w wielu wdrożeniach, jak chociażby wydajność sieci. Dlatego coraz częściej mamy do czynienia ze zmianą przepustowości kart sieciowych LAN. W tym segmencie coraz bardziej popularne są prędkości 10, czy też 2,5 GbE. Zatem dobry system dla średniej firmy, to pojemna jednostka z dużą przepustowością sieci LAN. W segmencie, w którym najlepiej się poruszamy, technologia scale-out dopiero „bada” teren. Do tej pory raczej mieliśmy do czynienia z potrzebami zaspokajanymi przez rozwiązania typu scale-up, czyli możliwość zwiększania pojemności w ramach pojedynczego węzła.
Łukasz Milic, Business Development Representative w QNAP, tłumaczy, że wszystko zależy od systemu operacyjnego obsługującego konkretny model. Jeśli zapewnia on deduplikację i kompresję online, wówczas znacznie rośnie zapotrzebowanie na pamięć RAM. Kolejnym bardzo ważnym czynnikiem przy wyborze serwera NAS jest jego pojemność. Mniejsi przedsiębiorcy wybierają urządzenia z przynajmniej dwoma dyskami, zaś średnie firmy decydują się na rozwiązania o większej pojemności (8–12 dysków) i procesorach średniej klasy, na przykład AMD Ryzen Embedded bądź niższe modele CPU Intel Xeon (2–4 rdzenie). Jeśli chodzi o przepustowość sieci, zwykle wystarcza 10 GbE lub nawet mniej. QNAP oferuje klientom rozwiązania 25 GbE, ale średnie przedsiębiorstwa jak na razie nie wykazują zainteresowania tą opcją.
W segmencie rozwiązań NAS bardzo dużo mówi się o systemach klasy scale-out. Według Piotra Drąga, Storage Category & Data Services Business Development Managera w HPE, jest to najszybciej rosnący rynek w obszarze magazynowania zasobów cyfrowych. To wynika z kierunku rozwoju technologii, gdzie większość danych jest przechowywana i przetwarzana w formie nieustrukturyzowanej. NAS typu scale-out pozwala przechowywać petabajty danych. Jak łatwo się domyślić, nie są to jak na razie produkty adresowane dla MŚP, ale biorąc pod uwagę tempo przyrostu danych, już niebawem może się to zmienić. Niestety, systemy scale-out są drogie i często wymagają zmian w infrastrukturze oraz dużej wiedzy niezbędnej do prawidłowego wdrożenia.
Na inny trend, który niedługo może zawitać do Polski zwraca uwagę Oded Nagel, CEO CTERA Networks. Kilka lat temu klienci pytali przede wszystkim o wydajność wyrażaną w liczbie operacji wejścia-wyjścia na sekundę (IOPS), kopie zapasowe, kompresję czy deduplikację, natomiast ostatnimi czasy pojawiają się zupełnie nowe kwestie, takie jak zgodność z regulacjami i mobilność danych, dostęp do nich z dowolnego miejsca, odporność na cyberataki czy DataOps. To oznacza, że rywalizacja w tym segmencie rynku będzie trwała na kilku frontach. n
18 VADEMECUM CRN czerwiec 2023
PRZETWARZANIE I PRZECHOWYWANIE DANYCH
Wpływ na decyzje zakupowe ma inflacja, w tym ceny energii.
Zwiększona ochrona
z Acronis Cyber Protect Cloud
Przywracanie urządzeń klienckich do pracy po awarii lub udanym ataku cyberprzestępców to długotrwałe, a przy tym stresujące wyzwanie. Dzięki chmurowym usługom Acronis można je zautomatyzować i odzyskać dostęp do danych w zaledwie kilka minut.
Użytkownikom usługi Acronis Cyber Protect Cloud można zaproponować dodanie do niej modułu Advanced Disaster Recovery. To jedyne rozwiązanie dla usługodawców, które łączy cyberbezpieczeństwo, ochronę danych przed utratą i zarządzanie nimi. Taka różnorodność połączonych ze sobą funkcji oraz automatyzacja wspierana mechanizmami sztucznej inteligencji pozwala na wyeliminowanie złożoności w obsłudze rozwiązania zabezpieczającego, a dzięki temu lepszą ochronę klientów przy utrzymaniu niskich kosztów – wszystko to zaś przekłada się na zwiększenie przewagi konkurencyjnej.
Moduł Advanced Disaster Recovery umożliwia wykonywanie kopii systemów operacyjnych Windows i Linux, aplikacji oraz plików użytkowników (trafiają do repozytorium Acronis Cloud). W przypadku awarii dysku w komputerze, poważnego błędu oprogramowania lub powodzenia ataku cyberprzestępców (np. zaszyfrowania danych przez ransomware), dowolna kopia może być uruchomiona w postaci wirtualnej maszyny bezpośrednio w chmurze Acronis lub na wskazanym przez administratora serwerze. Identyczny mechanizm jest dostępny dla środowisk wirtualnych, obsługiwanych przez wszystkie popularne hypervisory.
Takie podejście daje użytkownikowi możliwość niemalże natychmiastowego kontynuowania pracy, a administratorowi dodatkowy czas na bezstresowe przywrócenie serwera do działania – na podobnym lub innym sprzęcie. Procedura odzyskiwania może być zautomatyzowana dzięki runbookom - zestawom instrukcji określających sposób urucha-
miania środowiska produkcyjnego klienta w chmurze.
W celu uzyskania większej kontroli nad konfiguracjami sieciowymi i dzierżawami adresów IP, administratorzy mogą uruchomić własną usługę DHCP na serwerze odzyskiwania, aby była ona aktywna podczas rozległej awarii lub procedur testowania sytuacji awaryjnych. Zadbano też o to, aby klienci mogli uruchamiać również aplikacje, w których licencja jest powiązana z adresem karty sieciowej MAC.
Skonstruowana przez Acronis procedura zabezpieczania i odzyskiwania danych umożliwiła skrócenie czasów RPO i RTO do poziomu poniżej 15 minut. Elastyczne zasady odnośnie częstotliwości tworzenia kopii zapasowych pozwalają na osiągnięcie lepszych wskaźników RPO, a także umożliwiają przywrócenie systemów i danych do dowolnego możliwego do odzyskania punktu w przeszłości, a nie do ostatniego.
Rozwiązanie Advanced Disaster Recovery jest bardzo proste w obsłudze. Poradzą sobie z nim wszyscy informatycy, którzy mieli wcześniej do czynienia z platformą Acronis Cloud. Dzięki temu nie muszą uczyć się zarządzania kolejnym narzędziem. Usługodawcy natomiast zyskują możliwość prostego rozszerzenia swojego portfolio o dodatkowe funkcje, zapewniające cyfrowe bezpieczeństwo i wysoką dostępność środowiska IT klientów. Subskrypcyjny model pozwala im natomiast uzyskiwać systematyczne, comiesięczne przychody.
Autoryzowanymi dystrybutorami oprogramowania Acronis w Polsce są: Also, APN Promise, Clico, Dagma, Ingram Micro oraz Systemy Informatyczne ITXON.
Główne funkcje
Acronis Cyber Protect Cloud to…
n …tworzenie kopii zapasowych obrazów systemów operacyjnych, aplikacji i plików,
n …natychmiastowe odzyskiwanie danych (funkcja Instant Restore) w lokalnej infrastrukturze, n …testowe przełączanie awaryjne (test failover),
n …połączenie VPN z usługami chmurowymi.
n …produkcyjne i testowe przełączanie awaryjne do chmury Acronis Cloud,
n …opcję wdrożenia bez konieczności korzystania z VPN-u,
n …wsparcie dla wielooddziałowego tunelowania IPsec VPN, zestawianie tuneli VPN warstwy drugiej pomiędzy oddziałami,
n …wiele szablonów dokumentów runbook,
n …obsługę niestandardowej konfiguracji serwerów DNS,
n …odzyskiwanie awaryjne serwerów DHCP,
n …przełączanie awaryjne do punktu odzyskiwania niezarażonego złośliwym kodem.
Dodatkowe informacje: Dariusz Mumot, Senior Solutions Engineer, Acronis dariusz.mumot@acronis.com
19 VADEMECUM CRN czerwiec 2023
Moduł Advanced Disaster Recovery zapewnia…
Exea Data Center:
przewidywalność
i korzystna lokalizacja
Exea Data Center – całkowicie polski dostawca usług w sektorze centrów danych – deklaruje, że wyeliminował wszystkie możliwe czynniki, które przekładają się na ryzyko otrzymania przez polskich klientów zaskakująco wysokich rachunków za usługi chmurowe.
Wy kupując usługi chmurowe w modelu postpaid u ich globalnych dostawców klient praktycznie nigdy nie jest w stanie oszacować wysokości faktury, którą otrzyma i która zostanie automatycznie opłacona z podłączonej do konta karty kredytowej. Wiele składników rozliczenia jest bezpośrednio uzależnionych od różnych czynników, wśród których najbardziej nieprzewidywalnym jest ilość generowanego w ramach usługi transferu danych. Ten zaś jest bezpośrednio uzależniony od liczby osób odwiedzających witrynę internetową, zapytań do bazy danych czy odtworzeń materiałów multimedialnych. Naliczenie dodatkowych opłat bardzo często jest skutkiem użycia jakiejś dodatkowej funkcji.
Oczywiście dostępne są kalkulatory, które pomagają zasymulować wysokość comiesięcznych rachunków. Jednak z praktycznego doświadczenia wynika, że są one relatywnie wiarygodne tylko do pewnej
liczby użytkowników danej usługi. Poza tym, często nawet handlowcy zatrudniani przez takiego usługodawcę nie są w stanie ich prawidłowo obsługiwać, co prowadzi do obserwowanych później rozbieżności pomiędzy obietnicami a kwotą na fakturze.
Kolejnym problemem jest zmuszanie klientów do korzystania z danych usług w takim stopniu, jakiego nie potrzebują. Przykładem jest tu moc obliczeniowa serwerów wirtualnych, którą można zamawiać tylko w pakietach kilku procesorów (nie ma możliwości zamówienia pojedynczego procesora). Zdarza się też, że wymuszona jest opłata za cały miesiąc za usługę, z której zazwyczaj korzysta się przez jeden lub kilka dni (np. kreator migracji).
W przypadku usług chmurowych oferowanych przez Exea Data Center jedną z ważniejszych różnic na korzyść klienta, a zarazem drastycznie wpływającą na finalny rachunek, jest brak opłaty za zużyty transfer danych – niezależnie od jego wielkości jest on uwzględniony ryczałtowo w koszcie usługi. Exea samodzielnie realizuje też proces migracji danych ze środowiska u obecnego dostawcy klienta do własnego. Oprócz przewidywalności kosztów ważna jest łatwa dostępność inżynierów działu wsparcia, którzy świadczą indywidualną pomoc klientom, niezależnie od skali ich działalności.
Wysokość podstawowych opłat za usługi Exea Cloud jest uzależniona od wielkości uruchomionego wirtualnego środowiska dla klienta, na które składa się: liczba procesorów (można zamówić ich dowolną liczbę, nie trzeba ich kupować w zestawach), ilość pamięci RAM czy też przestrzeni na dyskach HDD/SSD/NVMe. Opcjonalnie można dokupić usługę backupu oraz ewentualne licencje na dodatkowe oprogramowanie typu
SQL (Windows Server i Linux są uwzględnione w cenie). Tak oferowane środowisko umożliwia klientowi samodzielne uruchamianie maszyn wirtualnych w dowolnej ilości. Ewentualny szybki wzrost biznesu klienta, a w związku z tym zwiększona intensywność wykorzystania wykupionych przez niego usług chmurowych, nie jest bezpośrednio związany ze wzrostem opłat. Może jedynie okazać się, że konieczne będzie zwiększenie tylko wybranych parametrów w środowisku wirtualnym, zamiast niepotrzebnie zamawiać dodatkowo zbędne zasoby.
W przypadku globalnych dostawców jest jeszcze jeden ważny czynnik, którego nie można pominąć, a więc fizyczna lokalizacja przechowywanych danych. Nawet jeśli użytkownik może wybrać, aby to była Polska (co czasem wiąże się z koniecznością uiszczenia dodatkowej opłaty), nie ma praktycznie żadnej możliwości zweryfikowania, czy dane te nie trafiły za granicę, chociażby w ramach realizacji procedur disaster recovery lub podczas wykonywania backupu. Tymczasem dla wybranych branż (m.in. finansowej czy medycznej) istnieją regulacje prawne precyzyjnie określające zasady przetwarzania lub nawet przechowywania danych poza granicami Polski. W przypadku Exea Data Center problem ten nie istnieje, jako że jej wszystkie centra danych znajdują się w Polsce, działając w klastrze Toruń-Warszawa.
Dodatkowe informacje: Dawid Goljat, Project Manager, Exea Data Center dawid.goljat@exea.pl
20 VADEMECUM CRN czerwiec 2023
PRZETWARZANIE I PRZECHOWYWANIE DANYCH
Magdalena Mike, prezes zarządu, Exea Data Center
Nowe funkcje bezpieczeństwa w Synology DSM 7.2
Firma Synology publicznie udostępniła kolejną wersję systemu operacyjnego dla swoich serwerów NAS – DiskStation Manager 7.2. Wśród wielu nowych funkcji na uwagę zasługują te dotyczące ochrony plików, szybkiego szyfrowania woluminów z danymi oraz bardziej restrykcyjnych reguł kontroli dostępu do zasobów.
Jedną z najważniejszych funkcji dotyczących bezpieczeństwa w DSM 7.2 jest możliwość tworzenia folderów współużytkowanych WriteOnce, których zawartość (przez określony czas lub na stałe) jest zablokowana przed modyfikacją lub usunięciem. W ten sposób zapewniana jest dodatkowa ochrona przed zaszyfrowaniem plików przez ransomware lub sabotażem dokonanym przez niezadowolonego albo właśnie zwolnionego pracownika.
Dodatkowo, aby zapewnić jeszcze lepszą ochronę przed wyciekiem danych spowodowanym fizyczną kradzieżą serwera lub zainstalowanych w nim dysków, wprowadzono funkcję pełnego szyfrowania woluminów. Wcześniej możliwe było już szyfrowanie folderów współużytkowanych, co także chroniło dane przed kradzieżą. Teraz dodatkowo zabezpieczone są na przykład dane aplikacji przechowywanych na wolumenach, czy też całe jednostki LUN. Zapewniono również większą wydajność tego procesu. Zapis sekwencyjny przy włączonej funkcji szyfrowania całych woluminów odbywa się do 48 proc. szybciej niż ma to miejsce w przypadku szyfrowania pojedynczych folderów współużytkowanych.
W DSM 7.2 usprawniono również proces wykonywania kopii zapasowych. W aplikacji Snapshot Replication pojawiła się funkcja tworzenia kopii migawkowych z zablokowanym wprowadzaniem zmian, co zapewnia ochronę danych na przykład przed zaszyfrowaniem przez ransomware, również w przypadku wycieku poświadczeń administratora.
Uwierzytelnianie
W ramach zwiększania poziomu bezpieczeństwa w nowej wersji DSM rozszerzony został zakres funkcji automatycznego blokowania. Teraz analizuje ona próby logowania także za pomocą protokołu SMB (Server Message Block), przez co zmniejsza szanse powodzenia ataków typu brute-force za pomocą niewystarczająco silnych danych uwierzytelniających użytkownika. Natomiast serwery w świadczonej przez Synology usłudze QuickConnect obecnie globalnie blokują adresy IP po kilku nieudanych próbach uwierzytelniania.
Ponieważ administratorzy urządzeń z systemem DSM często nie korzystają z uwierzytelniania dwuskładnikowego (2FA), aby zwiększyć poziom bezpieczeństwa wprowadzono funkcję adaptacyjnego uwierzytelniania wieloskładnikowego (Adaptive Multi-Factor Authentication, AMFA). Wymusza ona skorzystanie z dodatkowego elementu uwierzytelniania (aplikacja mobilna Secure SignIn, autoryzacja w aplikacji mobilnej DS fi nder, link w wiadomości e-mail) podczas logowania się do konta administratora, gdy proces ten zostanie zainicjowany z niezaufanego połączenia zewnętrznego lub nierozpoznanego urządzenia.
Ochrona danych użytkowników od zawsze jest priorytetem dla Synology. Serwery NAS tego producenta mogą funkcjonować jako profesjonalne repozytorium kopii zapasowych, a proces
ten może być zarządzany za pomocą bezpłatnego oprogramowania Synology Active Backup for Business, stworzonego specjalnie dla małych i średnich przedsiębiorstw do przeprowadzania backupu z komputerów PC, serwerów fizycznych i maszyn wirtualnych według zdefiniowanego harmonogramu lub zdarzeń.
Ciekawym rozwiązaniem jest także Synology Drive – jest to uruchamiana na serwerze NAS bezpłatna usługa zapewniająca bezproblemowy dostęp do plików, ich niezawodną synchronizację i ochronę danych za pomocą kopii zapasowych oraz funkcje pracy zespołowej (edycja dokumentów, arkuszy kalkulacyjnych i slajdów w usłudze Synology Offi ce, kompatybilnej z Microsoft Offi ce). Plikami można zarządzać z telefonów i komputerów – zapewnione jest wsparcie dla systemów Windows, Linux Ubuntu, macOS, iOS i Android.
W ramach Synology Drive możliwe jest uruchomienie synchronizacji pomiędzy wieloma komputerami a serwerem Synology NAS (na którym pracuje usługa Synology Drive), aby ułatwić współpracę na zawsze aktualnych plikach. Dostępna jest też funkcja przechowywania do 32 historycznych wersji plików, co zapewnia dostęp do nich np. w przypadku udanego ataku ransomware.
Dodatkowe informacje: Przemysław Biel, Senior Key Account Manager Poland, Synology pbiel@synology.com
21 VADEMECUM CRN czerwiec 2023
C y f r o w y o b i e g Cyfrowy obieg
wielu szans i możliwości
Zarządzanie przetwarzaniem dokumentów to dzisiaj rozległy obszar funkcjonowania wielu różnych działań, procesów, narzędzi i rozwiązań. Dlatego z łatwością można znaleźć w nim miejsce dla integratorskiego biznesu.
Mimo rosnącego zastosowania cyfrowych rozwiązań w obsłudze procesów biznesowych i administracyjnych, dokumenty papierowe wciąż zajmują znaczące miejsce w funkcjonowaniu wielu firm i instytucji. I nie zanosi się na to, by w najbliższej przyszłości papier mógł zostać całkowicie wyeliminowany z obiegu, zarówno w sferze gospodarczej, jak i w sektorze publicznym. To w dużej mierze rzutuje na sposób podejścia do wprowadzania systemów elektronicznego obiegu dokumentów.
Przyczyn takiego stanu rzeczy jest kilka. Z przygotowanego przez Quocirca raportu „Scanning as an enabler for digital transformation” wynika, że przy kontynuowaniu przez firmę prowadzenia procesów bazujących na dokumentacji papierowej w grę wchodzą obecnie kwestie bezpieczeństwa, ale też przyzwyczajenia pracowników czy klientów. Najwięcej, czyli 39 proc. respondentów badania, na wynikach którego opiera się wspomniany raport, wskazuje jednak na powody związane z koniecznością dostosowania się do wymogów prawa.
Sprostanie
n Andrzej Gontarz ustawodawczych, które mają zachęcić przedsiębiorców oraz urzędników do posługiwania się dokumentacją cyfrową (bądź ułatwić im jej stosowanie w codziennej działalności). W wielu przypadkach forma cyfrowa jest nawet obligatoryjna.
Przykładowo, w postępowaniach o zamówienia publiczne w Polsce oferty o wartości równej lub wyższej niż progi unijne muszą mieć charakter pliku cyfrowego podpisanego elektronicznym podpisem kwalifikowanym. Również przedsiębiorca rozliczający składki za więcej niż 5 osób ma obowiązek składać dokumenty do ZUS-u w formie elektronicznej (mniejsi przedsiębiorcy również mają możliwość skorzystania z tej metody, ale decyzja o jej wyborze leży po ich stronie.) Podobnie jest w przypadku obowiązku składania przez firmy sprawozdań finansowych – one również muszą mieć charakter cyfrowy i być opatrzone podpisem kwalifikowanym.
wymogom wielu różnych regulacji to spore wyzwanie.
Z drugiej jednak strony trzeba też zwrócić uwagę na to, że zarówno w Polsce, jak i w innych krajach europejskich podejmowanych jest szereg inicjatyw
W wielu innych dziedzinach i obszarach aktywności gospodarczej korzystanie z elektronicznego podpisu kwalifikowanego stało się codziennością ze względu na wygodę jego stosowania. W myśl obecnie obowiązującego prawa, dokument cyfrowy jest tożsamy z dokumentem papierowym. Sygnowany elektronicznym podpisem kwalifikowanym został zrównany w skutkach z dokumentem opatrzonym tradycyjną parafą w formie pisemnej.
Na dodatek, w określonych przepisami sytuacjach skuteczną prawnie moc sprawczą może mieć również profil zaufany. Co więcej, jak podkreśla w artykule „Paperless – potencjał i korzyści wykorzystania”
Grzegorz Łaptaś, partner PwC Polska, prawo w coraz szerszym stopniu wspiera budowanie procesów biznesowych bazujących na bezpiecznej komunikacji online, a dokumentami stają się również wiadomości e-mail, SMS, nagrania audio lub wideo.
Do upowszechnienia cyfrowej formy uwierzytelniania dokumentów przyczyniły się w niemałym stopniu niedawne lockdowny. W warunkach pracy zdalnej metoda elektroniczna bywała niejednokrotnie jedyną drogą szybkiego, skutecznego potwierdzenia zawarcia umowy czy realizacji transakcji. Tak samo, jak wprowadzenie elektronicznego obiegu dokumentów dawało w okresie pandemicznym największą szansę zachowania ciągłości działania i zapewniało możliwość sprawnego funkcjonowania rozproszonego zespołu.
Doświadczenia nabyte przez firmy w tych warunkach stworzyły znaczący potencjał rynkowy do wykorzystania teraz i w przyszłości. Również przez integratorów, którzy w latach 2020–2021 zauważyli zdecydowany wzrost zainteresowania wdrożeniami systemów zarządzania obiegiem dokumentów. Teraz przyszła pora na ich dalsze rozwijanie i udoskona-
DRUKOWANIE, SKANOWANIE I ZARZĄDZANIE DOKUMENTAMI
22 VADEMECUM CRN czerwiec 2023
lanie oraz dostosowanie do warunków zyskującego na popularności modelu pracy hybrydowej.
Jednak istotnym warunkiem powodzenia działań w zakresie wykorzystania narzędzi cyfrowych jest również uwzględnienie hybrydowej na dzień dzisiejszy natury repozytoriów dokumentów, które pozostają w gestii użytkowników. Chodzi o to, by w projektach wdrożenia lub rozwoju systemów EOD brać pod uwagę także możliwość posługiwania się przez pracowników i decydentów dokumentami papierowymi. Z drugiej strony ważne jest, by tak zorganizować pracę z dokumentami, aby jak największa ich część – a docelowo wręcz całość – była dostępna w postaci cyfrowej.
W praktyce oznacza to konieczność zapewnienia warunków do sprawnej digitalizacji dokumentów powstających na papierze. Tymczasem wciąż odgrywają one dużą rolę w wielu relacjach biznesowych. Stąd też trudno się dziwić wysokiemu poziomowi popytu na skanery. Wraz z odpowiednim oprogramowaniem umożliwiają one bowiem włączanie papierowych dokumentów do jednolitego, elektronicznego obiegu, wspierając w ten sposób procesy digitalizacji firmowych zasobów. Z drugiej strony jest równie ważne, aby zapewnić możliwość korzystania na różne sposoby z dokumentów znajdujących się w cyfrowym repozytorium przedsiębiorstwa. Chodzi tu nie tylko o dostęp do samych elektronicznych dokumentów i za-
wartych w nich treści przez różnego rodzaju urządzenia komputerowe – począwszy od sprzętu stacjonarnego, przez laptopy, po smartfony i narzędzia specjalistyczne. Równie ważna jest też możliwość sprawnego i bezpiecznego drukowania w razie potrzeby wszelkich niezbędnych dokumentów.
Do chmury i z chmury
To wszystko nie byłoby możliwe bez właściwych systemów zarządzania obiegiem dokumentów i wykorzystania znajdujących się w nich informacji. Coraz częściej wyposażone są one w rozwiązania bazujące na sztucznej inteligencji, by coraz
sprawniej, w sposób coraz bardziej zautomatyzowany klasyfikować i kategoryzować znajdujące się w nich treści, czy też na podstawie ich rozpoznania uruchamiać automatycznie kolejne działania w ramach wskazanych procesów biznesowych. Coraz większego znaczenia w tym kontekście nabierają też umiejętności integrowania oprogramowania do obiegu dokumentów z innymi systemami informatycznymi wykorzystywanymi w firmie. To potencjalnie bardzo ważny obszar aktywności technicznych i biznesowych integratorów.
Wśród innych, zauważalnych w ostatnim czasie trendów na uwagę zasługuje rosnące zainteresowanie wdrożeniami
Wszystkie urzędy w cyfrowym obiegu
Zgodnie z planami rządu do 2025 r. w każdym urzędzie administracji publicznej w Polsce ma funkcjonować system elektronicznego zarządzania dokumentacją (EZD). NASK (Państwowy Instytut Badawczy), w partnerstwie z Podlaskim Urzędem Wojewódzkim w Białymstoku, realizuje projekt EZD RP. W jego ramach powstaje system elektronicznego obiegu dokumentów, z którego będą mogły korzystać bezpłatnie wszystkie zainteresowane jednostki sektora publicznego. Punktem wyjścia do jego budowy stał się system EZD PUW opracowany w Podlaskim Urzędzie Wojewódzkim. Działa on już w ponad 1100 podmiotach sektora publicznego. Instytucje publiczne będą mogły jednak korzystać też z innych, dostępnych na rynku narzędzi. Ważne, żeby elektronicznym obiegiem dokumentów zostały objęte wszystkie jednostki, zarówno administracji centralnej, jak i samorządowej. Od tego roku system EZD RP będzie udostępniany jako freeware po wcześniejszych wdrożeniach pilotażowych. Przy jego implementacji instytucje publiczne będą mogły korzystać z pomocy lokalnych centrów kompetencji, wspieranych przez operatora EZD RP. Obecnie funkcjonuje już kilka biur terenowych, w których prowadzone są między innymi niezbędne szkolenia. Szczegółowe informacje o systemie dostępne są na stronie ezd.gov.pl.
Fot. Adobe Stock
23 VADEMECUM CRN czerwiec 2023
DRUKOWANIE, SKANOWANIE I ZARZĄDZANIE DOKUMENTAMI
systemów obiegu dokumentów funkcjonujących w chmurze obliczeniowej. Do związanych z tym wymagań przystosowane są coraz bardziej także urządzenia służące do obsługi procesów związanych z firmową dokumentacją. Dla przykładu, wiele skanerów ma już wbudowaną funkcję przenoszenia plików z obrazem zeskanowanych dokumentów oraz rozpoznanym tekstem prosto do środowiska chmurowego.
Z kolei drukarki dysponują oprogramowaniem, które pozwala na pobieranie plików do wydruku bezpośrednio z zasobów w chmurze obliczeniowej. Powstają specjalne platformy informatyczne umożliwiające funkcjonowanie różnych drukarek od jednego producenta czy też nawet różnych drukarek od różnych producentów w jednolitym środowisku programistycznym. Efektem tego jest, na przykład, brak konieczności stosowania różnych sterowników, gdyż wszystkie maszyny obsługiwane są za pomocą jednego, uniwersalnego sterownika – doceni to każdy doświadczony administrator. Istnieje również możliwość zdalnego sterowania wszystkimi wydrukami. Takie rozwiązanie przyczynia się też do likwidacji serwerów wydruku w firmach, a co za tym idzie zwalnia firmowy dział IT z konieczności ich obsługi.
Jednak, póki co, jedynie 5 proc. uczestników przeprowadzonego na zlecenia Konica Minolta badania zadeklarowało, że do 2025 r. przejdzie całkowicie na zarządzanie drukiem w chmurze (we Francji taką deklarację złożyło 11 proc. respondentów). Z kolei 8 proc. pytanych twierdzi, że obecnie w ramach usług chmurowych za-
Zdaniem integratora
rządzanych jest u nich już ponad 75 proc. zadań drukowania.
Żeby zachęcić małe i średnie firmy do korzystania z tego modelu funkcjonowania rozwiązań do druku, niektórzy producenci sprzętu drukującego uruchamiają własne centra danych, w których oferują również usługi przechowywania danych, wynajem przestrzeni dyskowej i mocy obliczeniowej, jak również udostępniają w formie usługowej rozwiązania z zakresu cyberbezpieczeństwa. Te działania odbywają się już zazwyczaj pod szerszym niż samo drukowanie hasłem tworzenia cyfrowego miejsca pracy, automatyzacji procesów biznesowych czy wspierania cyfrowej transformacji przedsiębiorstw.
W wielu aspektach i obszarach
Zarządzanie elektronicznym obiegiem dokumentów nie może obecnie sprowadzać się tylko do jednego firmowego systemu informatycznego. To w gruncie rzeczy rozległe, złożone środowisko licznych działań, procesów, narzędzi i rozwiązań. Wszystkie razem zapewniają panowanie nad zasobami firmowej dokumentacji i dają w efekcie sprawny, skuteczny dostęp do zawartych w dokumentach informacji.
Takie podejście ma znaczące konsekwencje dla integratorów, bowiem pozwala myśleć o prowadzeniu własnej działalności biznesowej na wielu różnych polach i obszarach licznych procesów gromadzenia oraz przetwarzania dokumentów, w tym też korzystania ze znajdujących się w nich treści. Może to być zarówno ob-
n Michał Remiszewski, kierownik projektów IT, architekt rozwiązań wirtualizacyjnych, K3System
Obecnie szczególnego znaczenia nabiera zapewnienie bezpieczeństwa repozytoriom przetwarzanych dokumentów. Cały system powinien funkcjonować tak, aby kluczowe dla firmy informacje były przechowywane w sposób uniemożliwiający ich zmianę lub skasowanie. Coraz bardziej popularnym rozwiązaniem w zakresie cyberbezpieczeństwa jest tak zwany cyberbunkier, którego różne odmiany znajdziemy już w ofercie producentów. Niezależnie od tego, czy atak jest zewnętrzny czy wewnętrzny, dane firmowe są chronione na trzy sposoby plus detekcja złośliwego kodu. Pierwszy, to kopia odizolowana od naszych zasobów, czyli air gap, co sprawia, że dane nie są tak naprawdę widoczne. Drugi to WORM, czyli założenie „kłódki”, która pozwala tylko na odczyt danych bez możliwości ich zmiany. Trzecia to snapshoty, a więc szybkie kopie migawkowe. Zastosowanie tego rozwiązania musi być jednak w każdym przypadku dostosowane do specyficznych warunków każdej firmy.
sługa procesów wprowadzania zawartości dokumentów do cyfrowego zasobu poprzez ich skanowanie, rozpoznawanie (OCR) czy klasyfikowanie. Może to być też obsługa korzystania z już zgromadzonych zasobów poprzez drukowanie potrzebnych materiałów czy też udostępnianie plików z dokumentami w formie cyfrowej – nie tylko na potrzeby pracy w biurze, ale też w środowisku pracy zdalnej i hybrydowej, czy na urządzeniach mobilnych. Oprócz wdrożenia i obsługi oprogramowania odpowiadającego za zarządzanie obiegiem dokumentów pojawia się też miejsce na działania związane z zapewnieniem bezpieczeństwa przetwarzanych dokumentów i informacji, w tym również w środowisku druku.
Istnieje duże pole do popisu przy planowaniu i organizacji procesu przetwarzania dokumentów. Duże znaczenie ma tutaj zapewnienie warunków zachowania zgodności z obowiązującymi przepisami prawa. Wyzwaniem może być sprostanie wymogom wielu różnych regulacji, które trzeba wziąć pod uwagę. Wiąże się to na przykład z potrzebą zapewnienia różnych poziomów ochrony dla dokumentów o różnych stopniach niejawności zawartych w nich informacji. Na różne sposoby musi być też zapewniona dostępność zasobów archiwalnych, gdyż inny okres przechowywania wymagany jest dla dokumentów pracowniczych, a inny dla dokumentów finansowych.
To tylko niektóre przykłady możliwych do zagospodarowania obszarów aktywności dla firm, które chcą zajmować się przetwarzaniem dokumentów. W rzeczywistości jest ich znacznie więcej – tak dużo, jak wiele różnorodnych aspektów składa się dzisiaj na środowisko zarządzania obiegiem dokumentów i informacji. n
Scanning as an enabler for digital transformation, Quocirca 2022
24 VADEMECUM CRN czerwiec 2023
Źródło:
Cyfrowy obieg dokumentów – główne korzyści 30% Unikanie straty czasu Poprawa efektywności w miejscu pracy 29% 25% 30% Łatwiejsza wymiana informacji Uproszczenie procesów
Pięć rzeczy w programie
FineReader PDF, które mogą Ci się szczególnie spodobać
Edycja dokumentów PDF
Oprogramowanie umożliwia edycję treści dokumentów PDF, co pozwala na dodawanie, usuwanie lub modyfikację tekstu, obrazów oraz innych elementów pliku, a co za tym idzie elastyczne dostosowanie zawartości dokumentu do potrzeb lub wymagań.
Licencje jednoczesnego dostępu
FineReader może być zainstalowany na wielu stacjach roboczych, ale jest ograniczony liczbą użytkowników korzystających z niego w tym samym czasie, co pozwala na dostęp na wszystkich stacjach roboczych przy jednoczesnym ograniczaniu kosztów.
Łatwy w użyciu
Intuicyjny interfejs umożliwia sprawne poruszanie się w programie nawet osobom bez zaawansowanej wiedzy informatycznej.
Potężny OCR Wysoka dokładność technologii OCR (99,8%) i płynna integracja z funkcjami PDF pozwalają na pracę z dowolnymi dokumentami PDF i konwertowanie ich do edytowalnych formatów sprawnie i efektywnie.
Ochrona poufności danych Oprogramowanie FineReader zapewnia zaawansowane mechanizmy ochrony danych, takie jak: szyfrowanie plików PDF, hasła dostępu, uprawnienia użytkowników i usuwanie danych, co gwarantuje bezpieczne przetwarzanie i udostępnianie dokumentów.
Nie czekaj i zarejestruj swoich klientów już dziś! https://partner.autoid.pl/login
finereader.pl
1 2 3 4 5
Profesjonalne zarządzanie dokumentamiw MŚP
Epson dysponuje szeroką ofertą rozwiązań do zarządzania dokumentami dla odbiorców ze wszystkich segmentów rynku. Są w niej także wysokowydajne urządzenia dla małych i średnich firm.
Wfirmach MŚP liczy się każda złotówka, dlatego ich właściciele szukają urządzeń działających nie tylko długo i bezawaryjnie, ale też efektywnych ekonomicznie. W te potrzeby idealnie wpisuje się opracowana przez Epson atramentowa technologia Heat Free, dzięki której wyeliminowano potrzebę wykorzystania ciepła w trakcie druku, co przekłada się na mniejsze o nawet 83 proc. zużycie energii elektrycznej.
W urządzeniach Epson (w tym z serii WorkForce Pro i Enterprise), w których zastosowano technologię Heat Free, praktycznie jedynym materiałem eksploatacyjnym jest atrament. Stanowi on znaczący wyróżnik wobec technologii laserowej, gdzie cyklicznym wymianom podlegają bębny, zasobniki tonera, pasy transmisyjne, elementy nagrzewające itd. Co ważne, w większości modeli atrament aplikowany jest nie z małych kartridży, a z wydajnych zasobników pozwalających na jednym zasileniu drukować dziesiątki tysięcy stron zarówno czarno-białych, jak i w kolorze.
Na polskim rynku ze względu na wydajność, prostotę obsługi i długowieczność bardzo dużą popularnością cieszą się działające w technologii Heat Free modele z serii WorkForce Pro, takie jak
WF-M5799DWF (mono). Te szybkie i energooszczędne urządzenia wielofunkcyjne pozwalają obniżyć zarówno koszty druku, jak i wpływ na środowisko naturalne. Klienci drukujący w małych i średnich
grupach roboczych chwalą też urządzenia drukujące w technologii RIPS (Replaceable Ink Pack System, np. WF-C579RDWF), czyli systemie wykorzystującym pigmentowe atramenty DURABrite, które są dozowane z dużych „worków” o pojemności równej 1 lub 1,5 litra. Zapewnia to wydajność do 86 tys. stron druku w czerni i 50 tys. w kolorze.
Dla mniej wymagających użytkowników dostępne są urządzenia monochromatyczne, takie jak EcoTank M1180. To drukarka o ultraniskim koszcie użytkowania, z kartą Wi-Fi, złączami USB i Ethernet oraz zapasem tuszu pozwalającym wydrukować aż do 11 tys. stron.
Z papieru do pliku
Epson stawia na kompleksowe zarządzanie obiegiem informacji i rzeczą wtórną jest czy znajdują się one na papierze, czy w postaci pliku cyfrowego. Takie podejście podzielają również klienci – coraz większą wagę przywiązują do znaczenia digitalizacji danych i elektronicznego obiegu dokumentów. Zdają sobie też sprawę, że w najbliższym czasie coraz większe znaczenie będzie miało zastosowanie takich systemów jako narzędzia w projektach wykonywania kopii dokumentów w celach archiwizacyjnych oraz do zaspokojenia wymogów prawnych.
Urządzenia z rodziny WorkForce Enterprise AM (np. WFE AM-C4000), poza wszystkimi zaletami druku bez nagrzewania zapewniają także szerokie wsparcie
związane z wydajnym obiegiem dokumentów. Tworzenie zaawansowanych systemów ich dystrybucji, przypisanych do profili użytkowników, umożliwia oprogramowanie firmy Epson. Po zeskanowaniu dokumentu jego kopia trafia wprost z urządzenia do odpowiedniego folderu oraz na indywidualną skrzynkę e-mail. Z kolei bezpieczeństwo jest zwiększone dzięki funkcji druku podążającego – wydruk wykona się dopiero po uwierzytelnieniu się użytkownika na dowolnym urządzeniu podłączonym do firmowej sieci.
W przypadku małych i średnich firm do sprawnego przesyłania dokumentacji idealnie sprawdza się kompaktowe i poręczne urządzenie, takie jak miniaturowy skaner WorkForce DS-70. Poza niewielkimi rozmiarami jego zaletą jest bardzo intuicyjna obsługa oraz współpraca z systemem Android i iOS oraz zasilanie przez port USB, które daje w praktyce pełną niezależność.
Oprogramowanie dołączane do skanerów Epson, pozwala ich użytkownikom na eksport i przechowywanie skanów w wysokiej jakości w dowolnym środowisku — zarówno w prostych systemach obsługi dokumentów – lokalnie, jak i w chmurze oraz w profesjonalnych rozwiązaniach do zarządzania treścią.
Modelem szczególnie popularnym w sektorze publicznym jest DS-790WN. To wydajny skaner sieciowy A4 klasy premium – szybki, z funkcją skanowania do chmury oraz kartami Wi-Fi i Ethernet. Pracuje tak
26 VADEMECUM CRN czerwiec 2023
DOKUMENTAMI
DRUKOWANIE, SKANOWANIE I ZARZĄDZANIE
Trzy pytania do…
Roberta Reszkowskiego, Business Sales Managera w Epsonie
Jakie korzyści ze współpracy zapewnia Epson swoim partnerom handlowym?
samo efektywnie bez podłączenia do komputera, a jego niewielkie wymiary sprawiają, że łatwo go ustawić na każdym biurku. Przyjazna obsługa poprzez zintegrowany ekran sprawia, że potrafi używać go każdy pracownik – także ten bez wiedzy IT.
Dla administratorów, którzy chcą centralnie, zdalnie zarządzać profilami skanowania, zadaniami, a także uprawnieniami użytkowników, dostępne jest oprogramowanie Document Capture Pro Server Dzięki zgodności z protokołem LDAP można definiować dostęp sieciowy i konfigurować konta oraz procesy dla poszczególnych użytkowników. Predefiniowane zadania i funkcja „skanuj do” minimalizują ryzyko wysłania pliku do niewłaściwej lokalizacji, zaś funkcje przetwarzania obrazów, takie jak rozpoznawanie tekstu, gwarantują wierne odwzorowanie oryginalnych dokumentów.
Coraz więcej firm nie chce kupować sprzętu, aby samodzielnie nim zarządzać, serwisować, ubezpieczać itd. Wolą po prostu eksploatować urządzenia i rozliczać się w proporcjach adekwatnych do zużycia materiałów eksploatacyjnych. Epson wyszedł naprzeciw tym oczekiwaniom i już od kilku lat umożliwia partnerom uczestniczenie w programie partnerskim w charakterze dostawców usług Managed Print Services. Szerokie portfolio dostępnych rozwiązań atramentowych Epson pozwa-
Przede wszystkim jest to bogactwo i różnorodność dostępnej, konfigurowalnej oferty. Firmy poszukują niezawodnych i trwałych urządzeń, w których nie trzeba często wymieniać materiałów eksploatacyjnych, które się nie psują i są objęte dobrym systemem gwarancyjnym. Epson dostarcza dokładnie takie produkty. Do tego dochodzi profesjonalne wsparcie techniczne świadczone przez naszych inżynierów, atrakcyjne marże, jak też dodatkowa „odnoga” programu partnerskiego, umożliwiająca dostarczanie naszych rozwiązań w modelu usługowym.
Jak duże jest zainteresowanie tym modelem? Coraz większe. Rozliczanie drukowania w ramach kosztów operacyjnych pozwala klientowi na optymalizację budżetową i zapewnia przewidywalność wydatków na utrzymanie zaplecza IT. Z kolei dla partnera oznacza to komfort prognozowania przychodów. Dla obu podmiotów zaś realizowana w tym modelu długofalowa relacja biznesowa przekłada się na „spokojną głowę” i poczucie bezpieczeństwa. Jednak zaproponowanie właściwego rozwiązania zależy przede wszystkim od kwalifikacji i doświadczenia resellera, dlatego Epson cały czas stawia na
la wybierać urządzenia zależnie od potrzeb – od niewielkich EcoTanków, poprzez serię WorkForce, aż do rozwiązań specjalistycznych, jak drukarki sublimacyjne DTG czy drukarki etykiet.
Główną rolą takiego partnera jest przeprowadzenie wstępnej analizy dotyczącej tego, jak funkcjonuje dane przedsiębiorstwo oraz kiedy i dlaczego pracownicy drukują dokumenty, co pozwala wskazać obszary wymagające optymalizacji. W kolejnym kroku proponuje on najlepiej pasujące i dobrane rozwiązania, a po dostarczeniu urządzeń zajmuje się kompleksowo ich serwisowaniem, uzupełnianiem materiałów eksploatacyjnych i okresowym serwisem oraz wsparciem technicznym. Umowa gwa-
edukację i wsparcie swoich partnerów handlowych, umożliwiając im oferowanie klientom wartości dodanej w postaci wsparcia eksperckiego.
Czy ten model sprawdza się także w przypadku pracy hybrydowej lub zdalnej?
Oczywiście. Mamy partnerów, którzy w ramach ogólnej umowy z daną firmą obsługują także jej pracowników wykonujących swoje służbowe obowiązki w systemie home office. W realizacji tego zadania pomaga dołączane do naszych urządzeń oprogramowanie Epson Remote Service. To darmowy, innowacyjny, chmurowy system monitoringu i zarządzania urządzeniami biznesowymi marki Epson, który umożliwia zdalny monitoring całej floty, przekazywanie automatycznych powiadomień oraz bieżącą analizę użytkowania urządzenia, diagnostykę i rozwiązywanie niektórych problemów. Dzięki temu, że administrator widzi stan urządzenia, ilość tuszu i liczbę wykonanych wydruków, może dzięki temu z odpowiednim wyprzedzeniem wesprzeć użytkownika nie dopuszczając do przestojów, niezależnie od tego czy pracuje on w domu czy w biurze. Firmy to doceniają, bo daje im to pełną kontrolę, a pracownikowi komfort, gdyż nie musi myśleć o czynnościach eksploatacyjnych czy serwisowych.
rantuje po prostu ciągłość pracy urządzeń w najwyższym stopniu ich sprawności, czyli to czego oczekuje klient. Epson poprzez swoich profesjonalnych partnerów umożliwia „od ręki” wydzierżawienie klientowi końcowemu drukarki za uzgodnioną opłatę miesięczną, zawierającą już w sobie koszt druku określonej liczby stron.
27 VADEMECUM CRN czerwiec 2023
Dodatkowe informacje: Robert Reszkowski,Business Sales Manager, Epson, robert.reszkowski@epson.pl
HP TerraJet: wydajność oraz ekologia w jednym
Do oferty HP trafiły nowe urządzenia laserowe HP przeznaczone dla szybko rozwijających się małych i średnich firm. Nowa seria HP Color LaserJet z tonerem TerraJet zapewnia energooszczędne, skalowalne i wysokowydajne drukowanie w hybrydowych miejscach pracy.
Jedną z głównych przedstawionych przez HP nowości jest technologia tonerów HP TerraJet, które umożliwiają jeszcze bardziej produktywne drukowanie, a także w mniejszym stopniu oddziałują na środowisko. Innowacyjna konstrukcja cząsteczek tonera umożliwiła zmniejszenie strat proszku podczas drukowania, co pozwoliło uzyskać – w porównaniu z modelami poprzedniej generacji – średnio o 30 proc. więcej zadrukowanych stron w przeliczeniu na rozmiar kartridża. Stworzono także specjalny mechanizm zapewniający całkowite wykorzystanie tonera, a to spowodowało, że dzięki mniejszej ilości zmarnowanego proszku niektóre elementy wewnętrzne – zbiornik na odpady i metalowe ostrza czyszczące – można zmniejszyć lub nawet wyeliminować.
Nie bez znaczenia są także aspekty ekologiczne. Toner TerraJet zużywa do 27 proc. mniej energii podczas drukowania, a do produkcji jego opakowania wykorzystuje się do 78 proc. mniej tworzyw sztucznych. Nie wpływa to jednak na jakość – nowa, zastosowana w HP TerraJet technologia
zapewnia wysokiej jakości wydruk pełen szczegółów, o znacznie większej intensywności, gdyż zawiera do 20 proc. więcej kolorów.
Wraz z tonerami TerraJet do oferty HP trafiły nowe drukarki HP Color LaserJet 4200/4300. Bazują one na serii LaserJet Pro, którą klienci z segmentu małych i średnich przedsiębiorstw od lat darzą zaufaniem ze względu na ich wysoką wydajność i nieskomplikowane zarządzanie. Modele 4200/4300 gwarantują przełomową wydajność – pomimo swoich kompaktowych rozmiarów umożliwiają maksymalizację produktywności dzięki szybszemu o 25 proc., dwustronnemu drukowaniu na papierze w formacie A4 i skanowaniu w kolorze.
Urządzenia Color LaserJet 4200/4300 są wyposażone w zaawansowane narzędzie HP Smart Admin Dashboard do zarządzania sprzętem zainstalowanym w różnych lokalizacjach. Umożliwia ono przegląda-
nie w jednej aplikacji stanu wszystkich drukarek wielofunkcyjnych i ich materiałów eksploatacyjnych, kontrolowanie poziomu ich bezpieczeństwa (w tym reguł dostępu użytkowników) i zarządzanie całą fl Użytkownicy mogą też generować raporty dotyczące liczby wydrukowanych stron i innych danych, które pomagają w identyfikowaniu trendów, optymalizacji wykorzystania drukarek oraz podejmowaniu decyzji dotyczących zmian w ich flocie. Administratorzy natomiast mogą uzyskać dostęp do danych historycznych dotyczących pracy drukarek, komunikatów o błędach, a także zdalnie aktualizować firmware i rozwiązywać różne problemy.
W nowe drukarki HP wbudowane są także mechanizmy zabezpieczające HP Wolf Security, które mają na celu minimalizowanie ryzyka ataków na drukarki i chronienie danych przechowywanych w systemach drukowania. Dzięki funkcjom autoryzacji i uwierzytelniania możliwe jest kontrolowanie dostępu do drukarek i zapewnianie, że mogą z nich korzystać tylko upoważnione osoby. Monitorowane i rejestrowane są wszystkie działania związane z drukiem, co pozwala na wykrycie nieprawidłowości, nieautoryzowanego drukowania lub ewentualnych zagrożeń. Dostępne są także funkcje szyfrowania danych, zarządzania
DRUKOWANIE, SKANOWANIE I ZARZĄDZANIE DOKUMENTAMI 28 VADEMECUM CRN czerwiec 2023
dokumentami i kontroli dostępu do drukowanych materiałów. Ich obecność ułatwia spełnienie wymogów dotyczących ochrony danych, w tym RODO.
Trzy pytania do…
Mateusza Wasilewskiego,
Co przyświecało specjalistom HP przy projektowaniu nowych modeli drukarek? Przyjrzeliśmy się wyzwaniom, z którymi bormy. Charakter ich działalności biznesowej w zdecydowanym stopniu zmienił się w ostatnich latach. Coraz więcej pracowników – zarówno obecnych, jak też wchodzących właśnie na rynek najstarszych przedstawicieli pokolenia Z – oczekuje możliwości zdalnej pracy. Niemniej bardzo ważne dla nich jest także zapewnienie przez pracodawcę narzędzi i odpowiedniej modyfikacji biznesowych procedur, dzięki którym wzrośnie efektywność pracy. W związku z tym rośnie popularność hybrydowego trybu pracy, ale – co ciekawe – nadal dla 91 procent małych firm drukowane dokumenty wciąż stanowią podstawę prowadzenia ich działalności. To wymusiło rozbudowanie funkcjonalności nowych drukarek i dostosowanie jej do zmieniających się realiów.
Rozwijające się małe firmy, wraz z rosnącymi potrzebami w zakresie drukowania, poszukują urządzeń, które wpasują się w potrzeby ich zmieniającego się miejsca pracy. Dla takich firm, korzystających z nowoczesnych, hybrydowych biur, powstały urządzenia HP Color LaserJet Enterprise 5000/6000 oraz X500/X600. Zapewniają one produktywność i wydajność kopiarki A3 w cenie sprzętu formatu A4. Dzięki nim klienci mogą dostosować urządzenia do swoich potrzeb bez zmniejszania mocy, wydajności czy bezpieczeństwa.
Jedną z najważniejszych cech urządzeń HP Color LaserJet Enterprise 5000/6000 i X500/X600 jest możliwość ich dostosowania do potrzeb klienta dzięki konfiguracji obsługi papieru, podajnika ADF czy opcji wykańczania. Zostały one zaprojektowane z myślą o byciu centrum produktywności i procesów, dzięki wbudowanym w urządzenie możliwościom cyfrowej edycji umożliwiającym podkreślanie, redagowanie i oznaczanie treści bez dostępu do komputera – a wszystko to z największą w branży prędkością, oferowaną przez kolorowe drukarki laserowe A4.
O jakiego typu funkcjach mowa?
Naszym nadrzędnym celem było zapewnienie większej produktywności mniejszym firmom. Dlatego w nowych modelach drukarek z serii HP Color LaserJet 4000 zagwarantowaliśmy nie tylko szybsze drukowanie dokumentów w intensywnych kolorach, ale też umożliwi-
Ciekawą innowacją jest opcja HP EveryPage z funkcją Reverse and Retry. Zapewnia jeszcze szybszą i bezproblemową digitalizację dokumentów, z gwarancją ich integralności – bez pomijania stron w czasie skanowania i przy zmniejszonej liczbie błędnych podań. Także w tych modelach bezpieczeństwo dokumentów zapewnia funkcja HP Wolf Security.
Kartridże z tonerem HP TerraJet zastosowane w wybranych modelach urządzeń z serii X500 i X600 wykorzystują dwuczęściowe wkłady (oddzielny pojemnik z tonerem i bęben obrazujący), w porównaniu z ich poprzednikami wykorzystującymi wkłady typu „wszystko w jednym”. W przypadku kartridży dwuczęściowych z czasem zużywa się mniej metalu, ponieważ przez
liśmy zdalne zarządzanie niemal wszystkimi aspektami związanymi z procesem druku i obsługi serwisowej drukarek. Natomiast w drukarkach dla większych firm z nowej serii HP Color LaserJet Enterprise 5000/6000 zapewniona została wydajność pełnowymiarowej kopiarki przy zachowaniu niewielkich rozmiarów.
Ważnym wyróżnikiem są też kwestie ekologiczne…
Tak, ten temat od zawsze jest priorytetowy dla HP. W przypadku nowej oferty jesteśmy bardzo dumni z nowych tonerów wykonanych w technologii TerraJet, które umożliwiają obniżenie zużycia energii do 27 procent. Do produkcji ich opakowań wykorzystane jest o 78 procent mniej plastiku, a także wyeliminowano wiele dodatkowych komponentów. Do oszczędności środowiska przykłada się też wspomniana już wcześniej promocja pracy zdalnej – brak konieczności jazdy do biura to redukcja emisji dwutlenku węgla. Ma to znaczenie dla pracowników, dzięki zoptymalizowanym procedurom zarządzania cyfrowymi dokumentami, ale też dla zdalnych administratorów środowisk druku, gdyż nie muszą tracić czasu na dojazd w celu rozwiązania drobnego problemu serwisowego.
większość czasu należy wymieniać tylko kasetę z tonerem (która zawiera minimalną ilość metalu).
Autoryzowanymi dystrybutorami drukarek HP w Polsce są firmy AB, Also i TD Synnex. Nowe urządzenia będą pojawiały się w ich ofercie na przełomie II i III kwartału 2023 r.
29 VADEMECUM CRN czerwiec 2023
OPS Country Category Managera w HP Inc.
Dodatkowe informacje: Mateusz Wasilewski, OPS Country Category Manager, HP Inc. Polska mateusz.wasilewski@hp.com
JAKI UPS
dla małej firmy?
Skutki awarii związanych z zasilaniem są odczuwalne także po jego przywróceniu, gdy odzyskiwanie sprawności wymaga wielu skomplikowanych działań.
Wraz ze wzrostem liczby nowych aplikacji i obsługiwanych klientów, pracowników oraz urządzeń, posiadanie rezerwy mocy elektrycznej dla sprzętu IT staje się koniecznością. Zaś wobec wymogu utrzymania ciągłości działania ochrona zasilania staje się kluczowa dla najróżniejszych branż i sektorów gospodarki. Przykładowo, brak zasilania infrastruktury sieciowej w szpitalu może zagrozić zdrowiu pacjentów, o ile personel placówki nie będzie mógł się komunikować ani udostępniać informacji. Branża finansowa natomiast jest poprzez regulacje zobowiązana do ochrony przed zakłóceniami w świadczeniu usług – czy to w wyniku katastrofy, złośliwego ataku bądź właśnie przerwy w dostawie prądu. Z kolei u dostawców mediów użytkowych i w przemyśle dojdzie do wstrzymania operacji, jeśli sieci obsługujące czujniki IoT i robotykę stracą zasilanie. Dlatego krytyczne systemy podtrzymujące działalność biznesową nie tylko w dużej korporacji, ale także w małej firmie, nie mogą ulec awarii. Zapobiegać skutkom awarii powinny oczywiście zasilacze UPS (Uninterruptible Power Supply), których działanie polega na przeciwdziałaniu zakłóceniom z sieci i wykorzystaniu systemów bateryjnych do zasilania w przypadku
przerwy w dostawie prądu (choć istnieją UPS-y oparte na niebateryjnej rezerwie energii to stanowią margines tego rynku).
Baterie
Wdrożenie zasilania gwarantowanego dla małego biznesu jest związane z wieloma wyzwaniami, z jakimi ma on do czynienia. Takie firmy mają najczęściej ograniczony budżet. Brakuje im także wykwalifikowanych pracowników IT, co wiąże się z potrzebą zapewnienia zdalnego zarządzania. Co ważne, ich infrastrukturze nie jest najczęściej zapewnione odpowiednie chłodzenie, a czasem wręcz brak takiego. Tego rodzaju środowiska zwykle funkcjonują także w bardzo ograniczonej przestrzeni. Przy czym, bez względu na te wszystkie ograniczenia mała firma musi zapewnić swojej infrastrukturze wysoką dostępność.
Wybór zasilacza UPS dla takich podmiotów wymagarozważenia kilku kwestii, a przede wszystkim oszacowania mocy pobieranej przez urządzenia, które wymagają zasilania gwarantowanego (od tego zależy dobór mocy UPS-a). Należy zastanowić się czy potrzebny jest czysto sinusoidalny przebieg wyjściowy, a także przemyśleć sprawę rodzaju baterii (litowo-jonowe czy tradycyjne kwasowo-ołowiowe). Ważną
kwestię stanowi ponadto czas pracy na bateriach w odniesieniu do mocy UPS-a i obciążenia, jak też wymagania instalacyjne i wyzwania środowiskowe.
Od lat w zasilaniu gwarantowanym funkcjonują trzy podstawowe topologie systemów UPS, które różnią się sposobem dostarczania energii na wyjściu zasilacza. Wszystkie trzy pełnią swoją rolę w ochronie coraz bardziej rozproszonej infrastruktury IT. Każda ma swoje zalety i w danym przypadku może najlepiej posłużyć do skonfigurowania efektywnej kosztowo ochrony zasilania, zarówno w prostych, jak i w złożonych systemach.
Chociaż w momencie wytworzenia prąd zmienny ma stabilny i czysty przebieg, to podczas jego przesyłania i dystrybucji staje się narażony na różne spadki i skoki napięcia, bądź nawet całkowity jego zanik, co może zakłócać bądź przerywać działanie urządzeń IT, powodować utratę danych i prowadzić do uszkodzenia sprzętu. W przypadku krytycznych obcią-
n Tomasz Janoś
30 VADEMECUM CRN czerwiec 2023 ZASILANIE AWARYJNE
litowo-jonowe można wymieniać rzadziej.
żeń IT wyłącznie mechanizm podwójnej konwersji (online) w pełni chroni infrastrukturę przed wszystkimi problemami z zasilaniem, zapewniając najwyższy poziom ochrony.
System UPS online działa na zasadzie podwójnej konwersji, ponieważ energia na wejściu jest przetwarzana na prąd stały (DC), następnie z powrotem na prąd przemienny (AC). Układ AC-DC/DC-AC zapewnia całkowite odizolowanie obciążeń od zakłóceń dostarczanego z sieci zasilania. Zasilacz UPS online pobiera na wejściu prąd zmienny i przekształca go na stały za pomocą prostownika w celu zasilania akumulatora, a następnie podłączonego na wyjściu obciążenia (poprzez falownik). W takim układzie nie są potrzebne żadne przełączniki zasilania, a jeśli podstawowe źródło prądu przemiennego ulegnie awarii, prostownik kończy swoją pracę, zaś akumulatory bez najmniejszej zwłoki podejmują zadanie podtrzymania zasilania sprzętu podłączonego do UPS-a. Po przywróceniu zasilania wejściowego prostownik wznawia pracę, rozpoczynając ładowanie akumulatorów.
W takim układzie na wyjściu otrzymuje się idealny przebieg sinusoidalny. Ten typ zasilacza UPS chroni obciążenie krytyczne przed praktycznie wszystkimi zakłóceniami zasilania, nawet bardzo subtelnymi zniekształceniami fali sinusoidalnej.
W efekcie jakość zasilania z UPS-a online jest znacznie większa niż w przypadku pozostałych dwóch typów zasilaczy. Technologie offline i line-interactive zmniejszają wpływ skoków napięcia, przepięć i spadków mocy poprzez obcinanie szczytów i dolin w przebiegu, zwiększanie mocy lub przełączanie na zasilanie bateryjne. Jednak w pewnym zakresie wahania napięcia są ignorowane. Dlatego wyłącznie systemy UPS online nie tylko stabilizują dostarczane na wejściu zasilanie, ale także w pełni regenerują przebieg sinusoidalny.
ale zakłócenia napięcia częste. Systemy UPS typu line-interactive zapewniają obsługę szerokiego zakresu wahań napięcia wejściowego zanim przełączą się na zasilanie bateryjne.
Oferując podtrzymanie bateryjne, zasilacze UPS line-interactive umożliwiają znacznie większą kontrolę nad wahaniami napięcia niż najprostsze systemy offline. Przewagą UPS-a działającego w tej topologii jest obwód regulujący napięcie (AVR) oraz duży zakres napięcia wejściowego akceptowanego przez zasilacz UPS.
Zapewniając stabilizowanie napięcie, UPS line-interactive potrzebuje trwającej zwykle 4–6 milisekund przerwy w zasilaniu obciążeń podczas przełączania na zasilanie bateryjne. Taki zasilacz chroni przed najczęstszymi problemami występującymi w sieci, monitorując również poziom napięcia oraz równoważąc jego spadki i skoki. Technologia ta to rozsądny wybór, łączący dobrą ochronę z umiarkowanymi kosztami zakupu i eksploatacji.
Mówiąc najprościej, zasada działania zasilaczy UPS typu line-interactive polega na użyciu układu wyposażonego w filtry regulujące napięcie, który jest zawsze włączony i w zależności od sytuacji pełni rolę prostownika, gdy na wejściu napięcie jest normalne, bądź falownika, gdy następuje przerwa w zasilaniu i obciążenia muszą być podtrzymywane przez baterie. UPS line-interactive wykorzystuje akumulator do stabilizowania zasilania, więc ma tendencję do częstszego rozładowywania baterii niż systemy UPS online, stabilizujące napięcie w trybie podwójnej konwersji. Wciąż jednak, dzięki układowi automatycznie korygującemu napięcie, dochodzi do tego rzadziej niż w przypadku UPS-ów offline. Zasilacze line-interactive są zwykle wykorzystywane w zastosowaniach wymagających mocy poniżej 5 tys. woltoamperów (VA) i często są montowane w szafach rackowych.
Systemy UPS line-interactive zapewniają zarówno stabilizowanie zasilania, jak i podtrzymanie bateryjne. Mechanizm ten szczególnie sprawdza się tam, gdzie przerwy w dostawach prądu są rzadkie,
To najprostszy i tym samym najtańszy typ zasilacza, stosowany do ochrony mniej ważnych obciążeń o małej mocy. Lepsze zasilacze UPS działające w trybie offline przełączają się na baterie wystarczająco szybko, aby zapobiegać anomaliom
Fot. Adobe Stock
31 VADEMECUM CRN czerwiec 2023
zasilania i zapewniać ciągłość działania podczas krótkich przerw w dostawie prądu. Taki UPS chroni sprzęt przed większymi skokami napięcia, ale nie zapewnia przebiegu pozbawionego mniejszych spadków i przepięć.
Jednym z kluczowych parametrów w zasilaczu UPS działającym w trybie off line jest zakres napięcia, w którym urządzenie nie przełączy się na zasilanie bateryjne. Im większy, tym mniejsze zużycie akumulatora i więcej dostępnego czasu podtrzymania po wyłączeniu zasilania. Im mniejszy – tym częściej UPS przełącza się na zasilanie bateryjne, a tym samym krótsza jest żywotność baterii.
Technologia UPS offline chroni przed większością skoków napięcia i pomaga zapewnić ciągłość w przypadku zdecydowanie najczęściej występujących, krótkich przerw w dostawie prądu. System UPS pracujący w trybie offline przekazuje zasilanie sieciowe bezpośrednio poprzez przełącznik do wyjścia, do którego podłączone jest chronione urządzenie.
W przypadku awarii zasilania wejściowego przełącznik aktywuje i podłącza do wyjścia wbudowany akumulator i falownik, a ten przekształca prąd stały z akumulatora na prąd zmienny. Przełączenie na zasilanie bateryjne zwykle wymaga trwającej 6–8 milisekund przerwy w zasilaniu.
Jaką moc ma UPS?
UPS offline to dobra opcja dla tych, którzy potrzebują mniejszej mocy i chcą na zasilanie gwarantowane niewiele wydać. Technologia ta najlepiej nadaje się do ochrony urządzeń o mocy poniżej 1500 VA, np. w małych i domowych biurach oraz innych mniej krytycznych zastosowaniach. UPS offline zapewni zasilanie awaryjne dla sprzętu komputerowego, konsoli do gier, stacji roboczych, sieci bezprzewodowych i innych urządzeń elektronicznych (np. AGD i RTV), a także systemów POS w sklepach. Podczas przerwy w dostawie prądu zagwarantuje wystarczająco dużo czasu, aby zapisać bieżącą pracę i przeprowadzić kontrolowane wyłączenie sprzętu. Oprócz zasilania rezerwowego większość systemów UPS offline oferuje również podstawową ochronę przed przepięciami.
Baterie litowo-jonowe
Nie
wać lata eksploatacji i niezawodnej pracy w warunkach wielokrotnych doładowań i sporadycznego ich wykorzystania do zasilania krytycznych obciążeń. Jednakże – jak wszystkie baterie – mają one ograniczony cykl życia. Dlatego tak ważne jest posiadanie wiedzy o zbliżającym się końcu eksploatacji i uprzednia wymiana akumulatora, zanim UPS nie będzie w stanie chronić podłączonego sprzętu. Dzięki pojawieniu się baterii litowo-jonowych w obszarze zasilania gwarantowanego nie trzeba już robić tego tak często, jak kiedyś.
Do procesu podejmowania decyzji o wyborze odpowiedniej technologii UPS-a doszedł nie tak dawno jeszcze jeden czynnik – rodzaj baterii podtrzymujących pracę w przypadku braku zasilania. Akumulatory w zasilaczach UPS powinny gwaranto-
Różnice pomiędzy wartościami podanymi w VA i W wynikają ze współczynnika mocy wyjściowej, który opisuje maksymalną moc czynną, jaką może dostarczyć zasilacz. Istnieją urządzenia o bardzo niskim współczynniku power factor (np. 0,6) i najwyższym możliwym, czyli 1. Przykładowo, UPS 3000 VA ma przy współczynniku 0,6 rzeczywistą moc tylko 1800 W, z kolei przy współczynniku
1 do dyspozycji użytkownika są całe 3000. W.
Obecnie takie ogniwa są stosowane już nie tylko w konsumenckich urządzeniach mobilnych, ale także w UPS-ach, zapewniając bezawaryjną pracę infrastruktury o znaczeniu krytycznym nawet w centrach danych. Choć cena ich zakupu wciąż pozostaje wyższa od tradycyjnych akumulatorów kwasowo-ołowiowych (VLRA) to różnica systematycznie się zmniejsza. Dlatego coraz więcej klientów decyduje się na wybór tego rodzaju baterii, które – posiadając wiele przewag nad VLRA – okazują się od nich tańsze w eksploatacji.
Wśród wspomnianych zalet na czoło wybija się znacznie dłuższa żywotność (do 15 lat, podczas gdy dla akumulatorów kwasowo-ołowiowych VLRA wynosi ona 4–5 lat) oraz dłuższy cykl życia (ponad 3 tys. cykli ładowania, natomiast dla VLRA – kilkaset). W rezultacie powinny one działać przez cały czas użytkowania systemu UPS (akumulatory VLRA są do wymiany, w zależności od warunków użytkowania, co 3–4 lata). Akumulatory litowo-jonowe są także bardziej niezawodne od VLRA. Ponieważ mają mniejszą wagę i rozmiar, pozwalają zaoszczędzić cenne miejsce w serwerowniach, a jeśli działają w dużo większym zakresie temperatury bez wyraźnego pogorszenia się wydajności, to dzięki nim można też zaoszczędzić na kosztach chłodzenia. Wreszcie, ładują się około 12 razy szybciej niż VLRA, dzięki czemu stanowią zdecydowanie lepsze zabezpieczenie w przypadku wielu następujących po sobie awarii zasilania.
32 VADEMECUM CRN czerwiec 2023
tak dawno doszedł kolejny czynnik wyboru zasilaczy UPS.
ZASILANIE AWARYJNE
Listwy PDU (Power Distribution Unit) to sprzęt, który kontroluje oraz rozdziela zasilanie dla komputerów, serwerów czy urządzeń sieciowych. Na pierwszy rzut oka prostsze PDU mogą wydawać się zwykłymi listwami – takimi, których używa się do zasilania komputerów albo sprzętu elektronicznego w domach. Jednak, mimo podobieństw do tego popularnego sprzętu zapewniającego najprostszą ochronę przeciwprzepięciową oraz przedłużanie i rozdzielanie przewodów, jednostki PDU wyraźnie różnią się od konsumenckich listew niezawodnością i funkcjonalnością.
PDU mogą być użyte w serwerowniach, środowiskach przemysłowych, szafach sieciowych, systemach telefonii VoIP oraz małych środowiskach IT (by wymienić tylko kilka zastosowań). Oprócz ochrony i dystrybucji zasilania wykrywają w takich wdrożeniach nieprawidłowe warunki pracy, zmniejszają koszty operacyjne, zwiększają niezawodność całego środowiska i minimalizują przestoje. Rynkowa oferta listew PDU jest bogata, a poszczególne modele zapewniają różne poziomy ochrony i zarządzania zasilaniem.
Przykładowo, istnieją PDU, które monitorują parametry środowiskowe w szafie serwerowej czy sieciowej, aby zapewnić optymalne warunki pracy. Staje się to możliwe dzięki opcji podłączenia do nich wielu różnych czujników, w tym temperatury, wilgotności, przepływu powietrza, stanu otwarcia drzwi, wykrywania cieczy itp.
Z kolei funkcja hot swap w listwie PDU pozwala odłączać sprzęt bez przełączania zasilania w tryb offline. Umożliwia ona przełączenie obciążeń z zasilacza UPS na zasilanie bezpośrednie w celu wyłączenia UPS-a i wyjęcia go z szafy do naprawy lub wymiany. Przez cały ten czas podłączone krytyczne urządzenia są wciąż zasilane i sprawne.
Źle poprowadzone kable zwiększają ryzyko awarii i zmniejszają efektywność operacyjną. Dlatego w gniazdach listew PDU stosuje się specjalne blokady, które zapobiegają przypadkowemu rozłączeniu kabli zasilających. Z kolei wyraźne
Zdaniem specjalisty
n Krzysztof Krawczyk, Senior Application Engineer, Vertiv Wraz z rozwojem technologii działanie zdecydowanej większości systemów i urządzeń o znaczeniu krytycznym zależy od energii elektrycznej. Jednocześnie wzrasta ich podatność na zakłócenia związane z wystąpieniem nie tylko awarii lub cyberataku, ale też np. jako następstwo błędu ludzkiego czy czynników zewnętrznych, jak pożary lub powodzie. Dlatego ochrona zasilania infrastruktury wymaga zastosowania nie tylko odpowiednich rozwiązań technicznych, ale także szkolenia personelu oraz opracowania strategii zarządzania ryzykiem. Przestój w działaniu infrastruktury krytycznej to nie tylko problem dla osób z niej korzystających, ale także znaczne straty finansowe. Dlatego ochrona zasilania infrastruktury krytycznej, w tym energetycznej, stała się priorytetem.
n Uladzislau Shauchuk, Product Manager, Eaton
W ostatnim czasie coraz więcej obiektów, aby zwiększać bezpieczeństwo energetyczne, korzysta z odnawialnych źródeł energii, w tym paneli fotowoltaicznych. Daje im to większą niezależność od sieci i potencjalnych awarii czy przerw w dostawach prądu. Jednak korzystanie z OZE niesie za sobą też konieczność posiadania systemu magazynowania energii elektrycznej, a to kosztowna inwestycja. Aby rozwiązać ten problem, coraz częściej w charakterze magazynów energii wykorzystywane są systemy UPS. Rozwiązania te, wyposażone w odpowiednią technologię, mogą akumulować moc i przekazywać ją z powrotem do sieci, gdy operator sygnalizuje potrzebę ustabilizowania jej częstotliwości lub złagodzenia szczytu zapotrzebowania. Pozwala to znacznie skrócić czas zwrotu z inwestycji w systemy magazynowania energii, a nawet zyskać dodatkowe źródło dochodu.
n Bartłomiej Kołodziej, PowerWalker Brand Manager, Impakt Zaobserwowaliśmy dwa nowe trendy, reprezentujące zgoła odmienne podejście do zasilania gwarantowanego. Pierwszy z nich polega na zwiększonej aktywności wszelakich majsterkowiczów, upowszechniających podejście DIY. Wykorzystując same inwertery i łącząc w stosy akumulatory na stelażach, próbują w ten sposób tworzyć własne banki energii. Drugim zjawiskiem, o jakim wspominano ostatnio na kilku zagranicznych konferencjach, jest wykorzystanie rozwiązań typu PowerStation w serwerowniach. To o tyle zaskakujące, że wcześniej były one użytkowane bardziej jako rozwiązania mobilne i turystyczne. Oczywiście to wciąż nisza i trudno jeszcze ocenić, czy mamy do czynienia z ciekawostką, czy już realnym trendem. Nie lekceważymy jednak takich potrzeb i w związku z tym przygotowujemy odpowiednią ofertę.
oznaczenie kolorami gniazd według obwodów umożliwia ich natychmiastową identyfikację.
Dostępne są też listwy PDU, które zapewniają zdalny dostęp za pośrednictwem interfejsu sieciowego albo szeregowego. Można je także łączyć w łańcuchy, co pozwala podłączać wiele urządzeń i uzyskiwać do nich dostęp przy użyciu jednego adresu IP. Ułatwia to monitorowanie zużycia energii i otrzymywanie zdefiniowanych przez użytkownika powiadomień o alertach. Z kolei dzięki kontroli na pozio-
mie gniazdka można próbować restartować nie reagujący na nic sprzęt oraz maksymalizować czas pracy krytycznych urządzeń w przypadku awarii zasilania. PDU o zaawansowanej funkcjonalności potrafi monitorować parametry zasilania oraz środowiskowe, reagując wysyłaniem alarmów według wcześniej ustawionych progów i umożliwiając przewidywanie awarii przed ich wystąpieniem. Dzięki takiemu proaktywnemu zarządzaniu podłączonym sprzętem można zwiększać ciągłość pracy infrastruktury krytycznej. n
ZASILANIE AWARYJNE 34 VADEMECUM CRN czerwiec 2023
CyberPower: zaawansowane zarządzanie zasilaniem awaryjnym
Integralną część oferty UPS-ów CyberPower stanowi oprogramowanie PowerPanel Personal, Business oraz Cloud. Zapewnia ono zaawansowane funkcje do zarządzania każdym typem infrastruktury zasilającej.
Narzędzia z rodziny PowerPanel umożliwiają szybkie reagowanie na wszelkie problemy z zasilaniem i minimalizują ryzyko utraty danych lub uszkodzenia sprzętu, a w efekcie przyczyniają się do zachowania ciągłości biznesu.
PowerPanel Personal to oprogramowanie stworzone dla użytkowników domowych i małych biur. Pozwala na pełne zarządzanie UPS-em CyberPower bez konieczności korzystania z przedniego panelu urządzenia. W ramach monitorowania jego stanu możliwe jest sprawdzanie poziomu naładowania baterii, obciążenia, napięcia wejściowego i wielu innych parametrów. To umożliwia szybkie reagowanie na wszelkie potencjalne problemy z zasilaniem.
PowerPanel Personal jest też wyposażony w system alarmowy, który powiadamia użytkownika w przypadku wykrycia jakichkolwiek problemów. Wiadomości wysyłane są poprzez e-mail, SMS lub lokalne komunikaty. Użytkownicy mogą też zaprogramować harmonogramy zasilania, które określają warunki przełączenia się UPS-a na zasilanie awaryjne i powrotu do zasilania z sieci. To szczególnie przydatna funkcja w przypadku planowanych wyłączeń prądu, ale także gdy nie ma potrzeby, aby urządzenia (np. przełączniki sieciowe obsługujące komputery w biurze) pracowały przez cały czas.
PowerPanel Business to jeszcze bardziej zaawansowane oprogramowanie, prze-
znaczone dla średnich i dużych przedsiębiorstw. Zapewnia dostęp do wielu funkcji, które są niezbędne w przypadku złożonych środowisk biznesowych. Umożliwia między innymi tworzenie grup UPS-ów oraz monitorowanie i kontrolowanie setek, a nawet tysięcy zasilaczy jednocześnie, co umożliwia elastyczne skalowanie infrastruktury zasilania. To funkcja, która jest szczególnie istotna dla firm planujących rozbudowę lub korzystających ze złożonego środowiska IT.
Użytkownicy wersji Business mają ponadto dostęp do zaawansowanych funkcji planowania i raportowania. Mogą tworzyć harmonogramy zasilania, określać priorytety dla różnych urządzeń, a także generować szczegółowe raporty dotyczące zużycia energii, wydajności UPS-ów i innych istotnych danych. To pozwala na optymalizację zasilania w firmie oraz identyfikowanie obszarów, w których można zaoszczędzić energię.
PowerPanel Business umożliwia zarządzanie UPS-ami z dowolnego miejsca za pomocą interfejsu internetowego. Użytkownicy mogą monitorować swoje zasilacze i sterować nimi, nawet spoza biura. Oprogramowanie to może być zintegrowane z istniejącymi w firmie narzędziami, takimi jak systemy monitoringu sieciowego lub zarządzania centrami danych.
Wyjątkową elastyczność i skalowalność w zarządzaniu UPS-ami marki CyberPower, zapewnia ponadto chmurowa usługa PowerPanel Cloud. Umożliwia
ona monitorowanie z dowolnego miejsca za pomocą przeglądarki internetowej, zarówno systemów klasy SOHO, jak też jedno- i trójfazowych zasilaczy klasy biznesowej. Takie rozwiązanie jest niezwykle przydatne dla wielooddziałowych firm korzystających z rozproszonej infrastruktury. Ponadto, umożliwia wykonywanie zdalnych operacji konserwacyjnych, takich jak testy baterii czy diagnozowanie problemów.
PowerPanel Cloud przekazuje użytkownikowi natychmiastowe powiadomienia o awariach zasilania oraz inne istotne informacje na temat działania UPS-ów. Alerty trafiają na urządzenia mobilne lub za pośrednictwem mejla, dzięki czemu użytkownicy są informowani o wszelkich problemach z zasilaniem w czasie rzeczywistym. Dodatkowo, oprogramowanie oferuje funkcje umożliwiające analizę danych dotyczących wydajności, zużycia energii czy trendów w zasilaniu.
Użytkownikom usługi PowerPanel Cloud zapewniony jest wysoki poziom bezpieczeństwa danych. Wykorzystano w niej zaawansowane mechanizmy szyfrowania oraz protokoły komunikacyjne, aby chronić poufne informacje przed nieautoryzowanym dostępem.
35 VADEMECUM CRN czerwiec 2023
Dodatkowe informacje: Dariusz Głowacki, Business Development Manager, CyberPower Poland dariusz.glowacki@cyberpower.com
HAKERZY kontra MŚP:
długi i nierówny bój
Mniejsze firmy, tak samo jak korporacje, są coraz bardziej nękane przez hakerów. Jednak w przeciwieństwie do koncernów nie stać ich na nowoczesne systemy bezpieczeństwa, a zwłaszcza pracowników, którzy mogliby je obsługiwać.
Cyfrowa gospodarka przyczynia się do wzrostu cyberprzestępczości.
Rosnąca liczba interakcji online, a także miliardy urządzeń podłączonych do globalnej sieci, otwierają niemal nieograniczone możliwości przed napastnikami. Według prognoz McKinsey and Company w 2025 r. straty spowodowane cyberatakami wyniosą około 10,5 biliona dol. rocznie, co stanowiłoby trzykrotny wzrost w ciągu dekady. Jednym z ulubionych celów hakerów są małe i średnie przedsiębiorstwa.
Złośliwe oprogramowanie, takie jak ransomware, może stanowić dla mniejszych podmiotów nawet egzystencjonalne zagrożenie. McKinsey and Company w jednym ze swoich raportów opisuje przykład niewielkiego producenta konstrukcji stalowych z siedzibą w Teksasie, który ogłosił bankructwo po tym, jak ransomware zaszyfrował jego oprogramowanie do księgowości.
Oczywiście takie przypadki zdarzają się też w rodzimych firmach. Co gorsza, cyberprzestępcy dysponują pokaźnym i zróżnicowanym arsenałem środków. Eksperci Sophosa wyliczyli, że hakerzy w ubiegłym roku wykorzystali ponad pół
tysiąca rodzajów technik i narzędzi, aby uzyskać nieuprzywilejowany dostęp do danych. Natomiast analitycy z McKinsey and Company zwracają uwagę na fakt, że podmioty średniej wielkości stanowią wymarzony cel dla napastników posługujących się niezbyt skomplikowanymi narzędziami. W darknecie za pakiet wysokiej jakości malware’u na tysiąc instalacji, trzeba zapłacić około 1,8 tys. dol., choć w porównaniu z 2021 r. cena spadła aż o 700 dol. Z kolei tańsza opcja, w której sprzedawca gwarantuje skuteczność na poziomie 70 proc., kosztuje 450 dol. (mniej o 50 dol. niż w 2021 r.).
Jak widać, dołączenie do grona cyberprzestępców nie wymaga wysokich kwalifikacji informatycznych ani poważnych nakładów finansowych. Tymczasem po drugiej stronie barykady stoją małe i średnie firmy, które podczas tworzenia systemu ochrony IT mierzą się z wieloma trudnościami, takimi jak brak personelu, umiejętności oraz pieniędzy. W rezultacie ich infrastruktura informatyczna jest dużo bardziej podatna na ataki niż w przypadku korporacji z profesjonalnymi zabezpieczeniami.
antywirusa
W maju 2014 r. Brian Dye z Symanteca oznajmił, że antywirus nie żyje. Słowa wypowiedziane przez wiceprezesa jednego z największych wówczas dostawców oprogramowania antywirusowego wywołały konsternację. Zresztą do dnia dzisiejszego wśród producentów systemów bezpieczeństwa IT nie ma jednomyślności co do roli i znaczenia antywirusów we współczesnym systemie ochrony.
– Antywirusy są rozwiązaniem sprzed wielu lat i ich działanie ogranicza się w dużej mierze do skanowania systemów pod kątem zainfekowanych plików. Obecnie ich zadania wykonywane są przez narzędzia NDR, EDR czy CDR, które monitorują procesy w sieci, w urządzeniach końcowych i chmurach. Pozwala to na wykrywanie anomalii w trakcie monitorowania sieci i podglądania procesów, a nie tylko w samych plikach – tłumaczy Przemysław Kania, dyrektor generalny Cisco w Polsce.
Podobne zdanie na ten temat ma Leszek Tasiemski, wiceprezes firmy WithSecure. Jego zdaniem oprogramowanie antywirusowe w tradycyjnej postaci praktycznie nie istnieje.
– Typowy produkt endpoint protection robi zdecydowanie więcej niż samo zabez-
Fot. Adobe Stock
n Wojciech Urbanek
36 VADEMECUM CRN czerwiec 2023 OCHRONA SYSTEMÓW INFORMATYCZNYCH
W 2014 r. Brian
Dye z Symanteca oznajmił, że antywirus nie żyje.
pieczanie przed złośliwym oprogramowaniem. Dla klientów z segmentu MŚP ważne są funkcje zarządzania aktualizacjami zainstalowanego oprogramowania, centralnego sterowania firewallem oraz wszelkie możliwości łatwiejszego administrowania grupami urządzeń końcowych – mówi Leszek Tasiemski.
Przez lata mechanizmy zabezpieczania sprzętu w firmowej sieci ewoluowały od dość prymitywnego oprogramowania antywirusowego do wyrafinowanych platform nowej generacji. Jeszcze do niedawna antywirusy bazowały na sygnaturach złośliwego oprogramowania. W obecnych czasach, gdy każdego dnia wykrywanych jest ponad pół miliona przypadków nowego złośliwego oprogramowania, trzeba iść o co najmniej krok dalej.
Najnowsze antywirusy, często określane mianem Next-Generation Antivirus (NGAV), wykorzystują sztuczną inteligencję (AI) i uczenie maszynowe (ML). Zastosowanie najnowszych technik pozwala wykrywać intencje atakującego, zamiast poszukiwać dopasowania do znanej sygnatury. Według ekspertów ds. bezpieczeństwa skuteczność NGAV jest bliska 100 proc., zaś w przypadku tradycyjnych rozwiązań bazujących na sygnaturach wynosi ona około 60 proc. Skąd bierze się tak
duża różnica? Nowoczesne antywirusy, w przeciwieństwie do swoich starszych kuzynów, potrafią wykrywać ataki bezplikowe, zbierać i analizować kompleksowe dane dotyczące urządzeń końcowych, blokować złośliwe makra i reagować na nowe, nigdy wcześniej niewykryte zagrożenia.
Jedną z głównych przyczyn zamieszania wokół oprogramowania antywirusowego są liczne innowacje, które pojawiły w ciągu ostatnich lat w tej grupie produktów. Jednak, jakby na to nie patrzeć, Bryan Dye nie miał racji, ponieważ antywirus nadal żyje.
– Oprogramowanie antywirusowe jest nieustannie najpopularniejszym narzędziem, stanowiącym punkt wyjścia do budowy polityki bezpieczeństwa MŚP. Jednak trzeba wyraźnie zaznaczyć, że przez antywirusa rozumiemy pakiet mający w założeniu chronić wszystkie obszary aktywności systemu i użytkownika, do których można programowo uzyskać dostęp umożliwiający wdrożenie warstwy ochronnej – podsumowuje Grzegorz Michałek, CEO Arcabitu.
Na przestrzeni ostatnich kilku lat lista produktów bezpieczeństwa IT wzbogaciła się o kilka interesujących pozycji, w tym Endpoint Detection and Response (EDR). Ich
rola polega na analizie, monitoringu oraz zapisywaniu informacji o działaniu systemów i procesów zachodzących na komputerach czy serwerach. EDR składa się z centralnego serwera, agentów instalowanych na „końcówkach”, konsoli dla administratorów oraz bazy danych. Według analiz Insight Partners, amerykańskiego funduszu venture capital, w latach 2017–2025 globalny rynek EDR będzie rósł w rocznym tempie 29 proc. To oznacza, że EDR staje się standardowym narzędziem cyberbezpieczeństwa dla większości firm. Niestety, dotyczy to przede wszystkim klientów korporacyjnych. W przypadku mniejszych przedsiębiorstw sprawy się nieco komplikują.
– MŚP coraz częściej pytają o rozwiązania klasy EDR. W naszej ocenie zazwyczaj jest to efekt medialnej popularności tych produktów. Natomiast brakuje specjalistów do analizy informacji płynących z modułów EDR. Niestety, są oni bardzo drodzy. W związku z tym firmy interesują się produktami posiadającymi elementy pozwalające na automatyczną analizę danych
mówi Grzegorz Michałek.
Na inny aspekt sprawy zwraca uwagę Przemysław Kania. Jego zdaniem EDR staje się naturalnym następcą antywirusa, aczkolwiek to kwalifikacje pracowni-
–
37 VADEMECUM CRN czerwiec 2023
OCHRONA SYSTEMÓW INFORMATYCZNYCH
ków, a nie wielkość firm, decyduje o zakupie produktu. Z badania Cybersecurity Readiness Index przeprowadzonego przez Cisco wynika, że brak odpowiednich specjalistów ds. cyberbezpieczeństwa nie zawsze wiąże się z wielkością firmy. Co więcej, można nawet dojść do wniosku, że to właśnie małe firmy są nieco mniej ograniczone tymi brakami, bowiem 32 proc. respondentów z sektora MŚP uznawało ten deficyt za palący, zaś w przypadku największych firm ten odsetek był większy i wyniósł 43 proc.
Część firm, ze względu na ograniczone możliwości w zakresie ochrony urządzeń końcowych, zwróci się o wsparcie do firm zewnętrznych. Gartner szacuje, że do końca 2025 r. aż połowa podmiotów będzie korzystać z Managed Detection Response (MDR), czyli usług zarządzonego wykrywania zagrożeń i reagowania na nie.
sieci
W rodzimych firmach większość stosowanych zabezpieczeń sieci bazuje na klasycznej architekturze, często porównywanej do zamku i fosy. W tym modelu pierwszoplanowe rolę odgrywają systemy UTM oraz
firewalle, które pełnią rolę fosy powstrzymującej napastników przed wtargnięciem do wnętrza firmowej infrastruktury (zamku). MŚP nie stanowią żadnego wyjątku, z tą różnicą, że w porównaniu z korporacjami częściej stawiają na fosę w postaci UTM (Unified Threat Management).
Największym rywalem UTM-ów są firewalle. W tym segmencie produktów, podobnie jak w przypadku antywirusów, za-
Zdaniem integratora
szły istotne zmiany. Wcześniejsze wersje zapór ogniowych zapewniały kontrolę ruchu sieciowego, obsługę VPN i filtrowanie pakietów. Z kolei Next Generation Firewall (NGFW) oferuje bardziej zaawansowane funkcje, takie jak inspekcja warstwy aplikacji, rozpoznawanie tożsamości użytkownika, mechanizmy zapobiegania włamaniom czy filtrowanie stron internetowych na podstawie kategorii, a także łączą infrastrukturę lokalną i chmurową.
– UTM i NGWF należy traktować tożsamo. Są to obecnie najpopularniejsze rozwiązania do ochrony brzegowej, nie tylko wśród MŚP, ale także w dużych firmach. W mniejszych podmiotach o wyborze konkretnego rozwiązania decyduje cena urządzenia. Ciekawą opcją jest model subskrypcyjny, w którym klient może sprawdzić wyższy pakiet, a po roku wrócić do niższego, jeśli nie dostrzega korzyści wynikających z rozszerzonej ochrony – tłumaczy Marceli Matczak, dyrektor handlowy Labyrinth Security Solutions.
nak podobnie jak firewall, jest ograniczony miejscem podłączenia urządzenia. NDR zapewnia jako jedyny pełną ochronę przed zagrożeniami bez względu na lokalizację pracownika, co jest bezcenne w obecnych czasach – tłumaczy Przemysław Kania.
Nie ulega wątpliwości, że NDR ma kilka niezaprzeczalnych zalet, aczkolwiek jego obsługa wymaga wykwalifikowanych pracowników, a poza tym nie jest to tani produkt.
W kierunku integracji
Kluczową kwestią podczas budowy systemu bezpieczeństwa jest wybór właściwych narzędzi. Nie jest to zadanie łatwe przede wszystkim ze względu na ich duże zróżnicowanie oraz liczbę dostępnych rozwiązań.
Skuteczność
NGAV jest bliska 100 proc.
Ciekawą alternatywę dla UTM oraz NGWF stanowi NDR (Network Detection Response). Według statystyk Gartnera jest to drugi pod względem dynamiki wzrostu segment bezpieczeństwa (palma pierwszeństwa należy do Cloud Access Security Broker). NDR analizuje ruch sieciowy, modeluje bazę normalnego zachowania sieci i ostrzega zespoły IT o każdym podejrzanym ruchu wykraczającym poza standardowy zakres.
– UTM zapewnia najtańszą i podstawową ochronę przed zagrożeniami z sieci. Jed-
n Grzegorz Świrkowski, prezes, Net Complex Mali i średni przedsiębiorcy popełniają różne błędy w czasie tworzenia systemu bezpieczeństwa. Jednym z najczęstszych jest niewłaściwy dobór produktów. Często decydują się na najtańsze i najprostsze produkty bez dokładnej ich analizy pod względem funkcjonalności i zgodności z wymaganiami firmy. Niejednokrotnie pojawiają się problemy z zaplanowaniem systemu bezpieczeństwa pod kątem działań wewnętrznych i zewnętrznych. Nieuwzględnienie różnych zagrożeń i sposobów ich minimalizacji może prowadzić do niedostatecznej ochrony. Z kolei brak polityki bezpieczeństwa i procedur wymaganych do zachowania ciągłości działania firmy w przypadku awarii lub ataku, może prowadzić do chaotycznej reakcji na zagrożenia. Jedną z największych bolączek jest zbyt mała liczba lub brak regularnych szkoleń dla pracowników w zakresie ochrony przed cyfrowymi zagrożeniami.
– Do najczęstszych błędów popełnianych przez MŚP przy wyborze systemów bezpieczeństwa należy zakup produktu niedopasowanego do ich potrzeb, ale też pomijanie całościowej architektury bezpieczeństwa oraz brak przemyślanej strategii dostosowanej do wymagań dotyczących ochrony. Złe decyzje mogą wynikać z tego, że MŚP często nie zatrudniają specjalistów od bezpieczeństwa – mówi Chester Wisniewski, dyrektor ds. technologii w Sophosie.
Nie bez przyczyny część ekspertów rekomenduje MŚP inwestycje w produkty „wszystko w jednym”, które zapewniają ochronę, wykrywanie zagrożeń i reagowanie na nie oraz chronią cały cyfrowy ekosystem. Również osoby odpowiedzialne w firmach za zakupy IT zaczynają rozważać kompleksowe podejście do budowy systemu bezpieczeństwa, starając się obniżyć koszty poprzez identyfikację i usuwanie aplikacji o zbliżonych funkcjach. Jednym z największych orędowników tej opcji jest Cisco. Zdaniem tego producenta MŚP powinny przestać budować swoje linie obrony za pomocą mieszanki narzędzi punktowych i rozważyć wdrożenie zintegrowanej platformy. Takie rozwiązanie pozwala zwiększyć odporność na zagrożenia przy jednoczesnym zmniejszeniu złożoności i uproszczeniu zarządzania bezpieczeństwem. Jednak nie brakuje odmiennych opinii. Ich wyraziciele przekonują, że nadmierna konsolidacja narzę-
38 VADEMECUM CRN czerwiec 2023
dzi zabija konkurencyjność, co dotyczy zwłaszcza młodych graczy wchodzących na rynek z ciekawymi inicjatywami.
– Duża liczba i różnorodność narzędzi bezpieczeństwa jest zjawiskiem pozytywnym z punktu widzenia progresu produktów i zwiększania ich skuteczności w zderzeniu z bardzo dynamicznym rozwojem rozmaitych wektorów ataku. Cyberprzestępcom zdecydowanie trudniej jest analizować i omijać zróżnicowane systemy oraz techniki wdrażane przez różnych producentów, zazwyczaj skupiają swoją uwagę na tych największych –mówi Grzegorz Michałek.
Jednak specjaliści Arcabitu dostrzegają też negatywne strony nadmiernego rozdrobnienia rynku. Ostra walka o klientów sprawia, że priorytety handlowe i marketingowe stają się ważniejsze niż prace badawcze i testy. Producenci chcą jako pierwsi wprowadzać nowinki na rynek, co niejednokrotnie negatywnie przekłada się na ich jakość. Poza tym klienci nie mają szansy dobrze zrozumieć i poznać produktów, stąd wolą pozostać przy tradycyjnych rozwiązaniach.
Choć digitalizacja jest pozytywnym zjawiskiem i niesie za sobą wiele korzyści, ma też pewne minusy. W dzisiejszych czasach ciężko byłoby znaleźć firmę całkowicie niezależną od IT. Coraz częściej nawet stosunkowo krótkie przestoje wywołane przez awarię infrastruktury informatycznej bądź cyberatak mogą prowadzić do poważnych strat finansowych. Dlatego każda firma, niezależnie od wielkości, powinna wdrożyć plan zachowania ciągłości pracy.
– Duże koncerny mają opracowaną globalną politykę bezpieczeństwa i używają narzędzi przeznaczonych do realizacji tego celu. Natomiast w przypadku małych i średnich przedsiębiorstw proces realizowany jest zazwyczaj przez pracowników lub małe zespoły IT. Natomiast jeśli firma nie zatrudnia specjalistów, często korzysta z pomocy zewnętrznych usługodawców – mówi Robert Dziemianko, PR & Marketing Manager w G Data.
Jedną z podstawowych kwestii przy ustalaniu planu ciągłości IT jest określe-
Zdaniem specjalisty
n Robert Dziemianko, PR & Marketing Manager, G Data Antywirusy wciąż cieszą się dużą popularnością wśród małych i średnich przedsiębiorstw, ponieważ oferują nie tylko standardową ochronę antywirusową, ale również posiadają dodatkowe moduły umożliwiające centralne sterowanie oraz zarządzanie polityką bezpieczeństwa i aktualizacjami. Dzięki temu klient nie musi inwestować w inne rozwiązania bezpieczeństwa, ponieważ produkt antywirusowy zapewnia odpowiednią ochronę. Stosunkowo niewielka liczba MŚP korzysta z systemów EDR. Wynika to z faktu, że firmy takie nie posiadają na tyle licznych i wykwalifikowanych zespołów IT, aby skupić się na realizacji zadań związanych z bezpieczeństwem i analizą danych. Małe przedsiębiorstwa, które dysponują odpowiednimi środkami finansowymi, powinny rozważyć usługi MSSP lub MDR.
n Candid Wüest, wiceprezes, Acronis Research
Każda firma powinna mieć plan ciągłości działania. Szczególnie ważna jest analiza wpływu awarii lub cyberataku na bieżący biznes. Analiza ta powinna być opracowana wewnętrznie, ponieważ tylko konkretni gracze z sektora MŚP znają swoje własne potrzeby biznesowe. Oczywiście taki audyt może być wspierany przez podmioty zewnętrzne, które zadają odpowiednie pytania. Na tej podstawie można stworzyć plan z przywracaniem kopii zapasowych lub odzyskiwaniem danych po awarii do zapasowego centrum danych. Ważne jest, aby testować takie plany i regularnie je aktualizować. Podstawowe kroki są niemal takie same w przypadku małych i średnich przedsiębiorstw oraz dużych podmiotów, ale mogą się różnić się szczegółami w zależności od ich podstawowej działalności.
Paweł Wojciechowski, Channel Sales Director, Fortinet Małe i średnie firmy najczęściej wybierają zintegrowane systemy IT do ochrony komputerów i serwerów. Zdecydowanie obniża to koszty, usprawnia procesy i ułatwia zarządzanie firmowym bezpieczeństwem IT. Świadomi obecnych zagrożeń przedsiębiorcy wybierają wielofunkcyjne rozwiązania, łączące w sobie zadania pojedynczych urządzeń, upraszczając w ten sposób strukturę sieci. Największą popularnością wśród rozwiązań do zabezpieczania sieci cieszą się NGFW. Wpływ na to ma ich cena, funkcjonalność i łatwość obsługi. Z kolei NDR to technologia, która zaczyna coraz częściej pojawiać się u klientów z sektora MŚP, ale jest traktowana raczej jako uzupełnienie już posiadanej infrastruktury.
nie systemów krytycznych. Integratorzy przyznają, że niejednokrotnie uzyskują od właścicieli mniejszych firm następującą odpowiedź: wszystkie. Wiązałoby się to z ogromnymi, często niczym nieuzasadnionymi kosztami i dlatego należy w tej sytuacji poszukać kompromisu. Usługodawcy pomagają ustalić klientom, które z systemów wymagają planów ciągłości, a następnie określić na jakim poziomie wymagań powinny funkcjonować.
– Strategia ciągłości działania w MŚP
może różnić się od tej stosowanej przez duże koncerny ze względu na niższy budżet, mniejszą liczbę pracowników, ograniczony zakres działalności oraz różne specyfiki branżowe. Co nie zmienia faktu, że w obu
przypadkach priorytetem jest zapewnienie ciągłości działania firmy i minimalizacja ryzyka utraty danych czy przestoju w działalności – zauważa Grzegorz Świrkowski, prezes zarządu Net Complex.
Jednym z celów planowania jest określenie potrzeb w zakresie potrzebnego sprzętu i oprogramowania. Użytkownicy muszą należycie dobrać z jednej strony narzędzia do backupu i DR, zaś z drugiej antywirusy, UTM-y czy firewalle. Ostatnimi czasy na popularności zyskują rozwiązania DLP (Data Loss Prevention) czy programy do szyfrowania plików. Ten arsenał będzie się poszerzać pod warunkiem, że MŚP będą dysponować odpowiednimi budżetami. n
39 VADEMECUM CRN czerwiec 2023
DAGMA:
narzędzia do zapobiegania i ochrony
Mechanizmy wykrywania zagrożeń na urządzeniach końcowych powinny zostać uzupełnione rozwiązaniami NDR, które analizują ruch w sieci. Świetnie sprawdzi się w tym przypadku rozwiązanie Gatewatcher oraz platforma Holm Security, która wykrywa najsłabsze ogniwa w całym systemie zabezpieczeń.
Dzięki możliwości śledzenia funkcjonowania poszczególnych firmowych aplikacji specjaliści ds. bezpieczeństwa pozyskują istotną wiedzę. Zależności zachodzące między aktorami w sieci pomagają im poznać rozwiązania typu Network Detection and Response (NDR). Umożliwiają one monitorowanie jak największego wolumenu ruchu w celu przeprowadzania analiz. Dane wejściowe najczęściej stanowi kopia ruchu sieciowego, chociaż można spotkać się z przypadkami wykorzystywania danych o charakterze statystycznym.
Aby móc przekazywać dane dotyczące sieci do rozwiązania NDR w celu wykrycia wszelkiego rodzaju anomalii najczęściej stosuje się urządzenia Test Access Point (TAP) lub przełączniki sieciowe wyposażone w dostateczne zasoby sprzętowe. Aby uchwycić możliwie jak największą porcję informacji, ale zachować przy tym zoptymalizowane koszty zakupu i wdrożenia rozwiązania analizującego, monitoringiem zazwyczaj zostają objęte główne węzły w lokalnej sieci.
Profesjonalne rozwiązania NDR, dostępne w dystrybucyjnej ofercie DAGMA Bezpieczeństwo IT, oferuje francuska firma
Gatewatcher. Jej wiarygodność została potwierdzona przez lokalną agencję rządową ANSSI (Agence nationale de la sécurité des systèmes d’information), zajmującą się bezpieczeństwem systemów informatycznych. Producent ten ma w ofercie rozwiązanie Aioniq. W chronionej sieci rozmieszczone zostają sondy monitorujące – jedna lub kilka – aby wpasować się w specyfikę zabezpieczanej architektury.
Do takiego zespołu urządzeń dostarczana jest w czasie rzeczywistym kopia ruchu sieciowego. Do jego analizy stosowane jest pełne spektrum silników detekcji, łączących zarówno statyczne podejście bazujące na sygnaturach, jak też metody dynamiczne. Dobrze znane zagrożenia w warstwie połączeń są proste do odsiania poprzez zastosowanie modułu Sigflow. Ciekawym zabiegiem jest również analiza antymalware, skanująca każdy plik przez 16 komercyjnych silników wykrywania, które poza sygnaturami identyfikują także schematy zachowań.
Metoda ta jest jednak skuteczna tylko do rozpoznawania wcześniej znanych metod ataku. Do identyfikowania nietypowych zagrożeń albo precyzyjnie skierowanych przeciwko danej firmie, może posłużyć
stworzone przez Gatewatcher rozwiązanie Codebreaker – autorski silnik do dekodowania ruchu powershell i shellcode. To bardzo potrzebne rozwiązania, bo w atakach kierowanych częstym przypadkiem jest wykorzystanie poleceń, które stosunkowo łatwo przeoczyć – nie generują dużych ilości danych, a umożliwiają przeprowadzenie rekonesansu czy wywołania podatności. Ten mechanizm skupia się przede wszystkim na zachowaniu atakującego, a nie przypasowaniu do definicji, dzięki czemu staje się skuteczny również w sytuacji, gdy formy ataku przybierają całkowicie nowy kształt.
Metodą, która dopełnia wachlarz wykorzystywanych narzędzi analizyjest popularyzujące się – nie tylko w dziedzinie bezpieczeństwa – uczenie maszynowe. Gatewatcher zdecydował się na dosyć pragmatyczne podejście w tej dziedzinie i swoje rozwiązania uzbraja w narzędzia przeznaczone do pewnych form aktywności atakujących, np. algorytmów generujących nazwy domenowe (tzw. DGA). Pełna bateria silników detekcji finalnie stanowi kompletny zestaw narzędzi niezbędnych do skutecznego wykrycia i dalszej neutralizacji zagrożeń, bez względu na jego poziom komplikacji i zaawansowania.
Mateusz Nowak
40 VADEMECUM CRN czerwiec 2023
Product Manager Gatewatcher, DAGMA Bezpieczeństwo IT
OCHRONA SYSTEMÓW INFORMATYCZNYCH
Więcej informacji na temat oferty firmy Gatewatcher dostępnych jest na stronach www. gatewatcher.com i www.dagma.eu.
Trójwarstwowe
DAGMA Bezpieczeństwo IT ma też w portfolio platformę typu „wszystko w jednym” szwedzkiej firmy Holm Security. Obejmuje ona trzy zautomatyzowane warstwy związane z ochroną środowisk IT: ocenę ryzyka na podstawie symulowanych ataków, skanowanie sieci oraz wykrywanie podatności w aplikacjach webowych. Platforma ta może być bezpiecznie użytkowana na dwa sposoby: jako usługa chmurowa, dzięki kilku globalnym centrom danych lub zainstalowana lokalnie, w ramach własnej infrastruktury klienta.
Jednym z podstawowych i cieszących się dużą popularnością narzędzi firmy Holm Security jest rozwiązanie do symulowania cyberataków według różnych, stale uzupełnianych (na podstawie najnowszych zagrożeń) scenariuszy. Odpowiadają one najczęściej prowadzonym obecnie, inicjowanym poprzez wiadomości e-mail atakom, takim jak klasyczny phishing (kradzież danych logowania), spear phishing
(wiadomość zmanipulowana tak, aby wyglądała na pochodzącą z zaufanego źródła, np. od współpracownika), CEO/CFO phishing (próba podszycia się pod kadrę kierowniczą w celu uzyskania poufnych informacji), jak też spam mający na celu nakłonienie użytkownika do zainstalowania oprogramowania ransomware.
W narzędziu tym znajdują się gotowe i modyfikowalne szablony szkoleń z cyberbezpieczeństwa, szablony wiadomości do prowadzenia symulacji, jak też moduł do tworzenia własnych. Po dokonaniu symulacji opracowywany jest z raport z precyzyjnymi wytycznymi dotyczącymi zachowania poszczególnych użytkowników i ewentualnymi rekomendacjami dotyczącymi kontynuowania szkolenia w przypadku uzyskania niesatysfakcjonujących rezultatów. Listę użytkowników można wprowadzić ręcznie lub zaimportować ją z Active Directory.
Kolejne interesujące narzędzie firmy Holm Security to skaner urządzeń i systemów w sieci, dzięki któremu łatwiejsze jest wykrywanie podatności i luk, ocena ryzyka oraz ustalanie priorytetów wśród działań naprawczych dla zasobów w każdym środowisku – zarówno lokalnym, jak i chmurowym (AWS i Azure). Umożliwia ono spełnienie wymogów rygorystycznych regulacji prawnych (w tym RODO), norm (w tym ISO 27000) i certyfikacji (w tym PCI DSS).
Rozwiązanie to wykrywa obecnie ponad 120 tys. podatności. Jego wdrożenie jest niezwykle proste dla każdej firmy, niezależnie od dynamiki zmian w jej środowisku IT. W ciągły i zautomatyzowany sposób znajduje luki w przestarzałych systemach operacyjnych, usługach i oprogramowaniu. Wykrywa także wszystkie rodzaje niewłaściwych konfiguracji, w tym niewystarczające uprawnienia i niezabezpieczone dane. Może ono działać w modelu skanowania nieuwierzytelnionego i uwierzytelnionego, dzięki czemu jest w stanie znajdować domyślne i słabe hasła w systemach, oprogramowaniu i aplikacjach.
Kolejną ważną funkcją jest zapewniana przez Holm Security możliwość skanowania aplikacji webowych (także wymagających uwierzytelnienia) oraz w REST API. Operacja ta może odbywać się w lokalnej infrastrukturze chmurowej
Patryk Ćwięczek, Product Manager Holm Security, DAGMA Bezpieczeństwo IT
Nawet 90 proc. wszystkich ataków ransomwaphishingowego zainicjo-
lub w środowisku AWS. Wykrywanych jest 10 najważniejszych podatności OWASP, w tym niewłaściwe konfiguracje i uprawnienia dostępu, słabe hasła oraz niezabezpieczone dane systemowe, osobowe i finansowe (np. numery kart kredytowych) we wszystkich typach aplikacji, w tym systemach CMS, takich jak WordPress. W automatyczny sposób identyfikowane są serwery internetowe, języki programowania i bazy danych, co pozwala na wykrywanie przestarzałych i podatnych na ataki komponentów JavaScript. Użytkownikom dostarczane są też informacje o wygaśnięciu certyfikatów SSL lub zbliżającej się dacie tego wydarzenia. Baza danych podatności aktualizowana jest w automatyczny sposób.
Więcej informacji na temat rozwiązań Holm Security jest dostępnych na stronie internetowej www.holmsecurity.pl.
Dodatkowe informacje: Mateusz Nowak, Product Manager Gatewatcher, DAGMA Bezpieczeństwo IT nowak.m@dagma.pl
Patryk Ćwięczek, Product Manager Holm Security, DAGMA Bezpieczeństwo IT cwieczek.p@dagma.pl
41 VADEMECUM CRN czerwiec 2023
C h m u ra Chmura
Korzystanie z wielochmurowych i hybrydowych środowisk rodzi wiele wyzwań i problemów, z którymi muszą sobie poradzić ich użytkownicy. To dla integratorów szansa na wykazanie się, bowiem ich rola będzie rosła wraz z postępującym stosowaniem rozwiązań chmurowych w firmach.
Chmura obliczeniowa jest dostępna na rynku w postaci komercyjnie świadczonych usług od ponad dekady, jednak nie wszyscy jeszcze zdecydowali się na jej wdrożenie. Według danych Eurostatu w 2021 r. korzystało z niej około 41 proc. europejskich przedsiębiorstw. Z kolei 48 proc. pytanych w tym roku przez firmę F5 szefów IT stwierdziło, że dysponuje przynajmniej jedną aplikacją funkcjonującą w chmurze publicznej. W tym kontekście warto podkreślić, co wynika z wcześniejszych badań (w tym Accenture i Gartnera), że za największe przeszkody przy przechodzeniu do chmury uznawane jest ryzyko związane z bezpieczeństwem oraz zapewnieniem zgodności z regulacjami prawnymi. Obecnie, jak z kolei twierdzą analitycy Canalysa, demotywująco działają również rosnące koszty usług chmurowych.
Pomimo szeregu barier, zainteresowanie korzystaniem z usług chmurowych wciąż rośnie. Według prognoz IDC wydatki na nie w Europie będą się zwiększać co roku o 22 proc., aby w 2023 r. osiągnąć wartość 148 mld dol., zaś w 2026 r. poziom 258 mld dol. Najwięcej wydawać mają firmy świadczące usługi profesjonalne, a w następnej kolejności z branży bankowej i produkcji dyskretnej.
n Andrzej Gontarz
Zdaniem analityków IDC inwestycjom w rozwiązania chmurowe sprzyja presja na optymalizację kosztów rozwiązań informatycznych, a także upowszechnienie się pracy hybrydowej oraz przybieranie na sile procesów cyfrowej transformacji. Przy czym, jak pokazało badanie Deloitte z 2021 r., zaufanie do rozwiązań chmurowych rośnie wraz z kolejnymi wdrożeniami. Przy pierwszym projekcie 43 proc. badanych wyraża obawy co do bezpieczeństwa chmury, a przy kolejnych – już tylko 10 proc. użytkowników.
Analiza kosztów oraz
Przy podejmowaniu decyzji o skorzystaniu z usług chmurowych coraz większego znaczenia nabiera analiza potencjalnych korzyści biznesowych. Firmy coraz częściej patrzą na tego typu rozwiązania przede wszystkim pod kątem ich integracji z realizowanymi procesami biznesowymi. Jak wynika z raportu Deloitte, dla dyrektorów finansowych w Polsce największym wyzwaniem związanym z implementacją chmury jest określenie rzeczywistych korzyści ekonomicznych. Na drugim miejscu znajdują się kwestie natury prawnej i regulacyjnej, a na trzecim – koszty projektu. Aspekty techniczne plasują się dopiero na
CHMURY PRYWATNE, PUBLICZNE, HYBRYDOWE
42 VADEMECUM CRN czerwiec 2023
sprzyja integratorom sprzyja integratorom
Obecnie użytkownicy najczęściej korzystają z SaaS.
czwartym miejscu, a na piątym brak zaufania do chmury.
Aby zatem uzyskać optymalne korzyści biznesowe, ważna staje się umiejętność wyboru odpowiedniego modelu świadczenia usług. I chociaż infrastruktura chmurowa może mieć dzisiaj zastosowanie w praktycznie każdym obszarze funkcjonowania przedsiębiorstwa, to kluczowym czynnikiem sukcesu przy korzystaniu z niej staje się dobranie odpowiedniego rozwiązania pod kątem potrzeb i specyfiki funkcjonowania danej firmy.
W modelu usługowym może być obecnie oferowanych wiele różnych rozwiązań. Już wiele lat temu przyjął się podział usług chmurowych na trzy podstawowe kategorie (chociaż niektórzy, w tym AWS, z takiej klasyfikacji zrezygnowali). IaaS, czyli infrastruktura jako usługa (Infrastructure as a Service), zapewnia dostęp do potrzebnych klientowi do różnych celów związanych z przetwarzaniem danych zasobów obliczeniowych, czyli serwerów i pamięci masowych oraz łączących je rozwiązań sieciowych. PaaS, czyli platforma jako usługa (Platform as a Service), opiera się na udostępnieniu odpowiednio skonfigurowanego, wirtualnego środowiska deweloperskiego i wdrożeniowego, umożliwiającego tworzenie, testowanie i dostarczanie dowolnego oprogramowania. Natomiast SaaS, czyli oprogramowanie jako usługa (Software as a Service), pozwala na wykupienie dostępu do konkretnych aplikacji i uzyskanie w ten sposób możliwości zdalnego korzystania z potrzebnych funkcji oprogramowania zainstalowanego na zewnętrznej infrastrukturze teleinformatycznej.
Obecnie użytkownicy najczęściej korzystają z rozwiązań SaaS i – jak prognozują analitycy IDC – ten model będzie też najbardziej stymulował wzrost wydatków na chmurę, stanowiąc substytut tradycyjnych aplikacji. Z kolei najszybciej rozwijającym się segmentem chmury w przyszłości będzie PaaS z racji tego, że firmy będą coraz bardziej potrzebować narzędzi, które przyspieszają wprowadzanie produktów na rynek i tworzenie własnych aplikacji.
Miliardy na chmurę w Polsce?
Minister cyfryzacji zapowiedział uruchomienie specjalnego programu wsparcia cyfrowej transformacji w polskich firmach. W jego ramach ma być dostępnych w formie pożyczek 700 mln euro, czyli około 3,2 mld zł, które zasilą branżę dostawców usług chmurowych i firm zajmujących się wdrażaniem rozwiązań chmurowych. Na razie brak jednak szczegółów dotyczących zasad udzielania tych pożyczek. Minister zapowiedział natomiast, że program będzie skierowany do wszystkich firm w naszym kraju.
Z kolei za terminem XaaS, czyli wszystko jako usluga (chociaż w wielu przypadkach już nie chmurowa), kryje się udostępnianie w modelu subskrypcyjnym różnego rodzaju rozwiązań spełniających określone zadania i funkcje, wychodzących poza powyższy, klasyczny podział. Na popularności zyskuje na przykład model DaaS (Device as a Service), czyli urządzenie jako usługa – w Polsce statystycznie najczęściej tą usługą objęty jest sprzęt drukujący. Z innych, już funkcjonujących na rynku odmian usług, można wymienić: Desktop as a Service, Business Process as a Service oraz Data as a Service.
W przyszłości może pojawić się wiele innych odmian usług chmurowych, które będą odpowiadać na pojawiające się na rynku potrzeby biznesowe. To otwiera też nowe perspektywy rozwoju dla firm z branży IT. Mogą one specjalizować się w dostarczaniu konkretnych, specjalistycznych rozwiązań – na przykład z zakresu sztucznej inteligencji, na wykorzystanie której będzie z pewnością rosnąć zapotrzebowanie.
Zdecydowana większość przedsiębiorców decyduje się raczej na współpracę z kilkoma dostawcami chmury niż tylko z jednym. Głównym powodem wielochmurowego podejścia jest potrzeba
Fot. Adobe Stock
43 VADEMECUM CRN czerwiec 2023
Zaufanie klientów do rozwiązań
chmurowych rośnie wraz z kolejnymi wdrożeniami.
CHMURY PRYWATNE, PUBLICZNE, HYBRYDOWE
uchronienia się przed zjawiskiem vendor lock-in, czyli uzależnienia się od jednego usługodawcy. Wśród innych przyczyn można wymienić chęć zapewnienia sobie większej elastyczności korzystania z rozwiązań chmurowych, wyższego poziomu bezpieczeństwa, czy też dostępu do najlepszych w danej dziedzinie rozwiązań.
Jak wynika z badania przeprowadzonego przez 451 Research na zlecenie Oracle, aż 98 proc. przedsiębiorstw na świecie korzysta lub planuje korzystać z co najmniej dwóch dostawców usług IaaS, a 31 proc. z czterech lub więcej. Natomiast w zakresie SaaS 96 proc. firm korzysta lub planuje korzystać z co najmniej dwóch dostawców, zaś 45 proc. z pięciu lub więcej. Strategia wielochmurowa pozwala działom IT na lepsze zaspokajanie specyficznych potrzeb różnych grup użytkowników.
Większość firm stawia również na hybrydową architekturę swoich środowisk informatycznych. Chmura publiczna jest i pozostanie tylko jednym z jego elementów, obok chmury prywatnej i rozwiązań bazujących na infrastrukturze własnego centrum danych (on-premises). Mimo przenoszenia coraz większej liczby aplikacji do chmury nadal, jak wynika z badania
F5, 95 proc. przedsiębiorstw wykorzystuje tradycyjne aplikacje. W sumie 59 proc. respondentów zadeklarowało przy tym, że wycofywanie starego oprogramowania z użycia odbywa się poprzez tworzenie jego zaktualizowanych wersji.
Korzystanie z wielochmurowych i hybrydowych środowisk rodzi też jednak wiele wyzwań i problemów, z którymi użytkownicy muszą sobie radzić na co dzień. Zdaniem uczestników badania F5 największą trudność stanowi obecnie złożoność narzędzi i interfejsów API, będąca rezultatem braku standaryzacji lub kompatybilności stosowanych w różnych modelach narzędzi. Niewiele mniej znaczącym wyzwaniem jest też stosowanie spójnych dla wszystkich rozwiązań reguł polityki bezpieczeństwa.
Od wspierania klientów po
Jednym ze sposobów rozwiązania pojawiających się w tej materii problemów może być zaangażowanie integratorów do realizacji danego wdrożenia. Zazwyczaj to właśnie oni najlepiej znają specyfikę potrzeb użytkowników chmury – przede wszystkim swoich stałych klien-
Wspólna odpowiedzialność
Wielu użytkowników chmury wciąż błędnie zakłada, że cała odpowiedzialność za bezpieczeństwo przetwarzanych w tym modelu danych spoczywa jedynie na dostawcy usługi. Tymczasem w rzeczywistości przeniesienie firmowych aplikacji i danych na zasoby należące do firmy trzeciej nie zwalnia ich użytkownika z odpowiedzialności za dane. Zapewnienie bezpieczeństwa środowiska chmurowego to wspólny obowiązek usługodawcy i usługobiorcy.
Powszechnie stosowaną praktyką jest obecnie udostępnianie przez dostawców chmury modeli wspólnej odpowiedzialności (Shared Responsibility Model). Określają one podział obowiązków między usługodawcę i usługobiorcę, jak też zakres zadań i odpowiedzialności obu stron chmurowego kontraktu. Wskazują obszary, za które odpowiada dostawca i te, za które odpowiedzialność musi wziąć na siebie klient. Szczegóły zależą od modelu usługi oraz warunków jej realizacji określonych w modelu wspólnej odpowiedzialności czy zapisanych w umowie pomiędzy stronami transakcji. Zazwyczaj najmniej obowiązków jest po stronie użytkownika aplikacji w modelu SaaS, a najwięcej jej w przypadku korzystania z infrastruktury w modelu IaaS.
Nie ma jednak możliwości, aby klient całkowicie pozbył się odpowiedzialności za bezpieczeństwo przetwarzanych w chmurze zasobów. Najogólniej rzecz ujmując dostawca odpowiada za bezpieczeństwo funkcjonowania swojego centrum danych i całej wykorzystywanej przez niego infrastruktury, których używa do świadczenia
tów. A z drugiej strony dobrze orientują się w oferowanych przez dostawców rozwiązaniach.
Firmy, które zajmują się wdrażaniem rozwiązań chmurowych, mają wiele możliwości działania i duże pole do popisu. Jako partnerzy dostawców chmury nie muszą ograniczać się tylko do pośredniczenia w prostym udostępnianiu wybranych usług. Wartym zainteresowania modelem biznesowym, obecnym współcześnie na rynku w już znaczącym zakresie, jest oferowanie własnych usług, stworzonych samodzielnie przez integratorów. Niektórzy dostawcy chmury udostępniają partnerom nawet specjalne platformy zapewniające możliwość dotarcia do szerszej grupy potencjalnych klientów.
Inną formą chmurowego biznesu jest analiza potrzeb klienta, dopasowywanie do nich oferty usług, a następnie przeniesienie do nich wykorzystywanego oprogramowania lub danych. Rośnie zapotrzebowanie na partnerów zajmujących się wdrażaniem rozwiązań chmurowych i prowadzeniem procesu migracji do nich zasobów klienta. Współpraca z nim może mieć przy tym wieloraki i wieloaspektowy charakter – od doboru i wdrożenia stosow-
usług. Po stronie użytkownika natomiast leży zadbanie o bezpieczeństwo wszystkiego tego, co (w związku z korzystaniem z chmury) ma miejsce w jego środowisku, z którego dane trafiają do przetwarzania w chmurze lub są od razu w niej generowane. Do zadań klienta należy zatem ochrona używanych w jego procesach danych i aplikacji współpracujących z rozwiązaniami chmurowymi, ochrona wykorzystywanych w firmie systemów operacyjnych i sieci oraz stosowanych kanałów komunikacji i urządzeń końcowych.
Konieczne jest ponadto stworzenie i egzekwowanie obowiązujących reguł polityki bezpieczeństwa, zarządzanie tożsamością oraz prawami dostępu do aplikacji i danych, jak również zapewnienie integralności przetwarzanych danych. Obowiązkiem użytkownika jest także przeprowadzenie właściwej konfiguracji zakupionej usługi chmurowej. Dostawcy oferują zazwyczaj wiele możliwości dostrojenia funkcjonalności, jak też narzędzi do zapewnienia bezpieczeństwa środowiska chmurowego. O ich konkretnym użyciu i sposobie wykorzystania musi już jednak zdecydować sam odbiorca, by jak najlepiej dostosować je do własnych potrzeb i uwarunkowań. W tym celu może on użyć własnych rozwiązań lub narzędzi firm trzecich. Pomoc przy ich doborze i wdrożeniu to również kolejna szansa dla integratorów działających w obszarze usług chmurowych. Tym bardziej, że coraz więcej narzędzi ochronnych jest dostępnych obecnie również w chmurze i specjalnie stworzonych do pracy w tym środowisku.
44 VADEMECUM CRN czerwiec 2023
Przykładowy model wspólnej odpowiedzialności pomiędzy dostawcami i użytkownikami usług chmurowych, stosowany przez AWS
Dane klienta
KLIENT
Odpowiedzialność
za bezpieczeństwo w chmurze
Zdaniem integratora
Zarządzanie platformą, aplikacjami, tożsamością i dostępem
Konfiguracja systemów, sieci i firewalli
Szyfrowanie danych po stronie klienta i weryfikacja integralności danych
Szyfrowanie po stronie serwera (pliki systemu i/lub dane)
Oprogramowanie
Ochrona ruchu sieciowego (szyfrowanie, integralność, tożsamość)
AWS
Odpowiedzialność
za bezpieczeństwo chmury
Przetwarzanie danych
Przechowywanie danych Bazy danychSieci
Sprzęt / Globalna infrastruktura AWS
RegionyStrefy dostępnościLokalizacje brzegowe
nych narzędzi, po organizowanie szkoleń i doradztwo w zakresie licencji. Za jeden z największych czynników ryzyka związanych z wykorzystaniem chmury uznawana jest miskonfiguracja, czyli błędne skonfigurowanie usługi chmurowej. Umiejętność przeprowadzenia tego procesu w odpowiedni sposób nabiera szczególnego znaczenia w środowiskach wielochmurowych, które obecnie stają się w firmach standardem. W cenie jest zdolność nie tylko do integracji rozwiązań chmurowych, ale także zapewnienia im bezpieczeństwa. Na znaczeniu zyskują też specjaliści od architektury środowisk chmurowych.
Integratorzy w nowej
roli
Tak zróżnicowany rynek otwiera wiele możliwości działania dla integratorów. Mogą zajmować się projektowaniem i wdrażaniem rozwiązań bazujących na chmurze dostawcy, prowadzić migrację danych do chmury i ich integrację, zarządzać zasobami chmurowymi czy wspomagać użytkowników w wykorzystywaniu systemów do zarządzania zasobami i usługami w chmurze. Partnerzy dostawców chmury zazwyczaj mogą też liczyć na oferowane im wsparcie w różnych dziedzinach aktywności, chociażby w procesach przedsprzedaży, analizie ofert i doborze usług, projektowaniu rozwiązań dla
klienta czy też optymalizacji funkcjonujących środowisk.
Dobra współpraca między dostawcą a integratorem przynosi korzyści obu stronom chmurowych projektów. Badanie przeprowadzone przez Google’a pokazało, że w przypadku transakcji obsługiwanych przez partnerów wykorzystanie chmury jest dwu-, trzykrotnie większe niż wówczas, gdy klient sam obsługuje swoje środowisko chmurowe.
Trzeba jednak pamiętać, że rola i miejsce integratorów w realizacji wdrożeń chmurowych też może się zmieniać. Jak zauważają analitycy Channelnomics, wraz z upowszechnianiem się usługowego modelu korzystania z rozwiązań informatycznych następować też będzie zmiana sposobu funkcjonowania partnerów w kanale sprzedaży IT.
W 2030 r., jak wynika z raportu Channelnomics, resellerzy mają zajmować się przede wszystkim odsprzedażą usług świadczonych przez producentów (w tym IaaS, DaaS i innych chmurowych) oraz wsparciem użytkowników usług chmurowych. Ich aktywność ma koncentrować się na usługach zarządzanych. Integratorom przypadnie w tym czasie rola dostawców procesów biznesowych w formie usługi (Business Process as a Service). Zmiany mają przebiegać ewolucyjnie, więc warto już dzisiaj trzymać rękę na pulsie. n
n Mikołaj Wiśniak, wiceprezes zarządu, IT Solution Factor Większość naszych klientów aktywnie korzysta z usług chmurowych. Widzimy duży wzrost zapotrzebowania na aplikacje w modelu SaaS, usługi IaaS oraz bezpieczeństwa. Największe zainteresowanie dotyczy rozwiązania związanego z ciągłością działania, czyli przeniesienia backupu do chmury, co w przypadku awarii umożliwiłoby uruchomienie w chmurze aplikacji pracujących zazwyczaj w modelu on-premise. Coraz więcej producentów rozwiązań ochronnych oferuje produkty bazujące na zasobach chmurowych, co ułatwia korzystanie z mechanizmów uczenia maszynowego, sztucznej inteligencji, czy ogromnej bazy próbek z całego świata w celu określenia podatności na zagrożenia.
n Paweł Ławecki, wiceprezes zarządu, OChK Klienci niespecjalnie borykają się z wyzwaniami regulacyjnymi dotyczącymi chmury, za to chcą wdrożyć ją szybko, bezpiecznie i zmaksymalizować efekt biznesowy. W kontekście rosnącej liczby zagrożeń przekonują się, że środowisko IT umieszczone w chmurze publicznej lub hybrydowej jest bezpieczniejsze niż utrzymywane w modelu on-premise. Zwłaszcza gdy wdrożone zostają takie usługi jak SOC, złota kopia czy DRC. Przedsiębiorcy szukają dostawcy z szerokim portfolio wdrożeń, który może zaoferować agnostyczne rozwiązania integrujące różne środowiska chmurowe oraz półprodukty usprawniające pracę, w tym gotowe skrypty budujące zabezpieczony i utwardzony landing zone z poziomu kodu. Klienci chcą też, aby kompetencje dostawcy wychodziły poza obszar stricte technologiczny i uwzględniały wiedzę o specyfice biznesowej z konkretnej dziedziny.
45 VADEMECUM CRN czerwiec 2023
DODATEK SPECJALNY DO MIESIĘCZNIKA CRN POLSKA www.CRN.pl
czerwiec 2023 PL ISSN 1640-9183
REDAKCJA
Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa redakcja@crn.pl
Tomasz Gołębiowski (redaktor naczelny) tel. 608 425 699 tomasz.golebiowski@crn.pl
Krzysztof Jakubik (redaktor prowadzący) tel. (22) 24 42 923 krzysztof.jakubik@crn.pl
Karolina Marszałek (sekretarz redakcji) karolina.marszalek@crn.pl
Andrzej Gontarz andrzej.gontarz@crn.pl
Tomasz Janoś tomasz.janos@crn.pl
Wojciech Urbanek wojciech.urbanek@crn.pl
GRAFIKA, LAYOUT, KOORDYNACJA PRODUKCJI: Tomasz Baziuk
FOTOGRAFIA NA OKŁADCE Adobe Stock
FOTOGRAFIE Adobe Stock, archiwum PRENUMERATA prenumerata@crn.pl
WYDAWCA Peristeri Sp. z o.o.
Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa
REKLAMA I PROJEKTY SPECJALNE Agata Myśluk tel. 694 455 426 agata.mysluk@crn.pl
Jacek Goszczycki tel. 601 935 513 jacek.goszczycki@crn.pl
Reklamy są przyjmowane w siedzibie wydawnictwa. Za treść ogłoszeń redakcja nie ponosi odpowiedzialności. © 2023 Peristeri Sp. z o.o. Wszelkie prawa zastrzeżone. Computer Reseller News Polska contains articles under license from The Channel Company. © 2023 The Channel Company. All rights reserved.
INDEKS FIRM
46 VADEMECUM CRN czerwiec 2023 AB..................................................................13, 14, 15, 17, 29 ABBYY.......................................................................................25 Acronis ...............................................................................19, 39 ........................................................................................15 Also ......................................................................13, 15, 19, 29 Amazon Web Services ...........................................41, 43, 45 AMD ...................................................................................17, 18 APN Promise ...........................................................................19 Apple .........................................................................................16 Arcabit ................................................................................37, 39 Asus ...........................................................................................17 AutoID.......................................................................................25 Cisco ............................................................................18, 36, 38 Clico ...........................................................................................19 CTERA Networks...................................................................18 Cudy ..........................................................................................14 CyberPower.............................................................................35 .................................19, 40, 41 Dell Technologies ............................................................17, 18 Delta ..........................................................................................48 Eaton .........................................................................................34 Epson..................................................................................26, 27 Ever ............................................................................................33 Exclusive Networks .................................................13, 15, 17 Exea Data Center...................................................................20 F5 ...............................................................................................44 .....................................................................................39 G Data .......................................................................................39 Gatewatcher.....................................................................40, 41 Google.......................................................................................16 Holm Security ..................................................................40, 41 HP Inc. ................................................................................28, 29 HPE ............................................................................................18 Impakt .......................................................................................34 Ingram Micro ...........................................................................19 Intel ............................................................................................17 ...................................................................45 K3System .................................................................................24 ...............................................38 ..................................................................................21 Net Complex ....................................................................38, 39 Netgear .....................................................................................15 NTT System .............................................................................13 OChK.........................................................................................45 Oracle ........................................................................................44 QNAP ........................................................................................18 ....................................................................18 Sophos ...............................................................................36, 38 Storage IT .................................................................................18 StorMagic .................................................................................18 StorOne ....................................................................................16 Synology .......................................................................6, 18, 21 Systemy Informatyczne ITXON .........................................19 TD Synnex ...............................................................................29 TP-Link ...............................................................................11, 13 Vernity ................................................................................11, 12 .........................................................................................34 WithSecure ..............................................................................36
Najlepiej poinformowany
magazyn w branży IT!
dla resellerów, VAR-ów i integratorów
Czy wiesz, że…
jeśli pracujesz w firmie z branży IT, możesz bezpłatnie zaprenumerować magazyn CRN
crn.pl/rejestracja
Masz pytania?
Skontaktuj się z nami pod adresem prenumerata@crn.pl.
stronie
Załóż konto na
N01
Polska?