Reseller News 05-06 2017

Page 1

Nr 05-06 (60-61) 2017 r.

www.resellernews.pl

Nowe czasy sprzyjają Digital Signage Oryginał czy zamiennik: materiały eksploatacyjne do drukarek Przyszłość IT all-in cloud

ROZMOWA NUMERU

Mariusz Orzechowski NEC NEC wytycza drogę innowacji i ma najszerszą ofertę produktów oraz rozwiązań do wyświetlania obrazu. BEZPIECZEŃSTWO IT: POLITYKA BEZPIECZEŃSTWA TELEINFORMATYCZNEGO TO JEDEN Z NAJWAŻNIEJSZYCH DOKUMENTÓW W FIRMIE. PO CO I W JAKI SPOSÓB SIĘ GO TWORZY? CO MUSI ZAWIERAĆ?



SPIS TREŚCI

W NUMERZE ________________________________

________________________________

WYDARZENIA

TECHNOLOGIE

4 Informacje z rynku IT w skrócie

28 Przyszłość IT all-in cloud?

________________________________

35 Oryginał czy zamiennik – cena

s. 35

wciąż decyduje o wyborze

ANALIZY

42 Jak skutecznie chłodzić Data Center

6 IT musi być eko

45 Gdzie i jak przechowywać dane

________________________________

z Internetu rzeczy? 50 Ufać i kontrolować – to zasada przy

ROZMOWA NUMERU

wdrażaniu BYOD

10 NEC wytycza drogę innowacji

s. 20

Rozmowa z Mariuszem Orzechowskim,

________________________________

s. 45

Dyrektorem Przedstawicielstwa NEC Display Solutions Europe GmbH w Polsce, o nowym programie partnerskim, rynkach wertykalnych, innowacyjności i nowościach w ofercie. ________________________________ BIZNES 13 Cyfrowe platformy zakupowe – dlaczego warto z nich korzystać? 16 Rynek druku przestrzennego przyspiesza

54 Polityka bezpieczeństwa IT najważniejsza dla biznesu ________________________________

60 W marketingu liczy się skuteczność ________________________________ PERSONALIA

20 Nowe czasy sprzyjają Digital

62 Zmiany personalne w firmach

Signage

REDAKTOR NACZELNY Dariusz Chełstowski d.chelstowski@resellernews.pl

ZESPÓŁ REDAKCYJNY Dariusz Wałach

z branży teleinformatycznej

Barbara Mejssner b.mejssner@resellernews.pl Marcin Bieńkowski m.bienkowski@resellernews.pl Bohdan Szafrański b.szafranski@teleinfo.com.pl

Redaktor naczelny portalu d.walach@resellernews.pl Beata Tallar-Zakrzewska b.tallar@resellernews.pl

s. 54

DORADCA

Artur Król a.krol@resellernews.pl FOTOREPORTER Mariusz Szachowski

REKLAMA Dorota Frydryszewska dyrektor ds. marketingu d.frydryszewska@resellernews.pl tel. 607 082 161, 781 111 453 Elżbieta Górska dyrektor ds. promocji e.gorska@resellernews.pl tel. 781 111 693

DTP I DRUK Agencja Reklamowa CPM WYDAWCA IT Press Dariusz Wałach – prezes zarządu Beata Tallar-Zakrzewska – prokurent

ADRES REDAKCJI 05-500 Piaseczno, ul. Dworcowa 38/12 www.resellernews.pl

3

eseller News


WYDARZENIA

Polski rynek IT w 2016 r. osiągnął 40 mld zł Według danych IDC, sprzedaż usług i oprogramowania w Polsce zniwelowała duże spadki w sprzedaży sprzętu IT. Barierę 40 mld zł pomógł dodatkowo przekroczyć słabszy niż w 2015 r. złoty. Niemniej 100 największych firm IT w Polsce – według rankingu ITwiz Best100 – miało o prawie 3 mld zł niższe przychody (spadek o 6 proc.). Sam rynek publiczny skurczył się zaś w 2016 r. o 4 mld zł, czyli połowę! Przedłużający się okres po zmianach politycznych w kraju, opóźnienia przetargów związanych z infrastrukturą IT w administracji publicznej i oczekiwanie na uruchomienie nowych środków na lata 2014-2020 ograniczają rozwój biznesu. W 2016 r. wartość rozstrzygniętych przetargów związanych z IT wyniosła ok. 4 mld zł, w porównaniu do 8 mld zł w 2015 r. Od 2010 r. – od kiedy rynek ten jest analizowany przez serwis Pressinfo.pl – nie było tak fatalnego roku. Spore odbicie widać w I kwartale 2017 r. W pierwszych trzech miesiącach tego roku rozstrzygnięto przetargi na łączna kwotę 1,3 mld zł (wzrost o 32 proc.). Może świadczyć to o tym, że ruszają – wstrzymywane do tej pory – przetargi na nowe systemy IT. Jeśli chodzi o trzy główne segmenty rynku IT, to relatywnie najsłabsze prognozy ma obecnie rynek sprzętu. Jak podaje IDC Poland, w 2016 r. znacząco, bo aż o 20,5 proc. spadła sprzedaż rozwiązań opartych na tradycyjnej architekturze typu klient-serwer. Rynek ratują inwestycje w nowe technologie. W 2016 r. zanotowano dwucyfrowy wzrost wydatków na chmurę obliczeniową czy Internet rzeczy, jednak na tle Ameryki Północnej czy Europy Zachodniej są one wciąż relatywnie niewielkie. Jak wskazują analitycy IDC, w regionie CEE sam tylko rynek bezpieczeństwa dla IoT będzie rósł ponad 20 proc. W Polsce – która jest jednym z jego liderów – można się spodziewać nawet szybszego wzrostu. Wydatki na chmurę publiczną wzrosły w Polsce w 2016 r. o 25 proc. do ok. 160 mln USD (ok. 630 mln zł). W 2017 r. mają one wzrosnąć do co najmniej 200 mln USD (prawie 800 mln zł). Mimo tych wzrostów, są one wciąż znacznie niższe w porównaniu do rynków rozwiniętych. Jak szacuje IDC, do 2020 r. już co najmniej 45 proc. oprogramowania oraz infrastruktury IT w europejskich przedsiębiorstwach będzie dostarczane w modelu cloud computing. Tym samym, w 2020 r. inwestycje w rozwiązania chmurowe będą stanowiły 20 proc. wydatków na infrastrukturę IT i 25 proc. wydatków przeznaczanych na zakup oprogramowania, usług i sprzętu.

RYNEK IT W POLSCE W 2016 R. (W TYS. PLN) Kategoria

2015

2016

Sprzęt

19 789

20 425

Oprogramowanie

5 934

6 580

Usługi

12 132

13 006

Razem

37 858

40 022 Źródło: IDC Poland

4

eseller News

Actionmed odmienił szpital w Bartoszycach W Szpitalu Powiatowym im. Jana Pawła II w Bartoszycach oddano do użytku zmodernizowany dział diagnostyki obrazowej. Oddział został gruntownie wyremontowany i wyposażony w najnowocześniejsze systemy diagnostyczne. Za kompleksową przebudowę placówki odpowiedzialna była spółka Actionmed. W ramach projektu, do szpitala dostarczono najnowocześniejsze systemy diagnostyczne, w tym m.in. cyfrowy aparat RTG Samsung GC-85 na zawieszeniu sufitowym, który jako pierwszy w kraju został wyposażony w zaawansowane aplikacje ułatwiające pracę personelu i zwiększające bezpieczeństwo pacjentów. Są to takie systemy, jak: Bone Supression – oprogramowanie automatycznie usuwające obraz kości z badań klatki piersiowej dla lepszej diagnostyki guzków płuc; S-Guide – kamera w kolimatorze pozwalająca na podgląd pacjenta i ustawienie zakresu badań z konsoli technika oraz SimGrid – oprogramowanie zwiększające kontrast obrazów w przypadku ekspozycji wykonywanych przy użyciu mobilnego detektora, np. w przypadku pacjentów pediatrycznych lub poruszających się na wózkach. Oprócz tego, dostarczono również cyfrowy aparat do fluoroskopii oraz mobilny aparat USG Samsung PT-60 do karetki. Wszystkie dostarczone urządzenia zostały podłączone do systemu informatycznego RIS/PACS oraz systemu teleradiologii.

NAS dla wideoprofesjonalistów QNAP wprowadził do oferty urządzenie TVS-1582TU, czyli 19-calowy NAS, przystosowany do montażu w szafie rack Thunderbolt 3, przygotowany m.in. do użytku w pojazdach oraz mobilnych studiach telewizyjnych. Wyposażony jest w cztery porty Thunderbolt 3, które mogą być wykorzystywane jako złącza USB-C 3.1 Gen2 (10 Gbps) oraz dwa porty 10 GbE, co gwarantuje błyskawiczne przesyłanie i backupowanie danych. QNAP TVS-1582TU jest 15-zatokowym hybrydowym rozwiązaniem storage – obsługuje zarówno 3,5-calowe HDD, jak i 2,5” dyski HDD/SSD – do przechowywania materiałów wideo 4K, idealnym do nowoczesnych zastosowań wideo/telewizyjnych. Dzięki technologii Qtier (Auto Tiering) stale monitoruje i optymalizuje wydajność storage, odpowiednio rozmieszczając dane na szybkich dyskach SSD lub pojemnych SATA.

więcej informacji z branży na portalu ResellerNews.pl



ANALIZY

IT musi być eko Marek Jaślan

Istnieje pilna potrzeba redukcji emisji gazów odpowiedzialnych za efekt cieplarniany oraz zużycia energii na skalę globalną. Sektor teleinformatyczny odgrywa szczególną rolę w realizacji tego zadania. Co zrobić, by być przyjaznym dla środowiska naturalnego?

C

eny energii elektrycznej rosną, jesteśmy świadkami postępujących zmian klimatycznych, a różnego rodzaju instytucje, jak choćby Komisja Europejska, mówią o potrzebie redukcji emisji gazów odpowiedzialnych m.in. za efekt cieplarniany. Ma to duży wpływ na działania branży ICT i promowanie oraz wdrażanie rozwiązań, które umożliwiają mniejsze zużycie energii, zwiększają ochronę środowiska oraz promują wykorzystanie prądu z ekologicznych źródeł. Przy tym sektor ICT jest zarówno źródłem problemu, jak i sam go w pewnym stopniu rozwiązuje. Z jednej strony bowiem zużywa prąd i odpowiada za 8-10 proc. zużycia energii elektrycznej w UE i do 4 proc. emisji dwutlenku węgla. Z drugiej – to właśnie ta branża jest w stanie wypracowywać i wdrażać rozwiązania, które pozostałym 98 proc. przemysłu pozwolą zmniejszyć zużycie energii.

6

eseller News

Ekologiczne IT jest trendem obecnym od ponad 25 lat, głównie ze względu na podjęte przez administrację Billa Clintona inicjatywy standaryzacyjne, np. certyfikaty Energy Star.

ZACZĘŁO SIĘ ĆWIERĆ WIEKU TEMU – Ekologiczne IT jest trendem obecnym od ponad 25 lat, głównie ze względu na podjęte przez administrację Billa Clintona inicjatywy standaryzacyjne (certyfikaty Energy Star) amerykańskiej agencji rządowej EPA. Inicjatywy EPA miały na celu redukcję zużycia energii elektrycznej przez stacje robocze poprzez modyfikację architektury zasilaczy płyt głównych i monitorów, a ostatnio także serwerów. Dołączenie do takich inicjatyw innych krajów, przede wszystkim Unii Europejskiej, spowodowało, że redukcja energochłonności sprzętu IT, związana również z mobilnością wymagającą optymalizacji zasilania bateryjnego, zdominowała branżę – mówi Mariusz Kochański, członek zarządu i dyrektor Działu Systemów Sieciowych w Veracompie. Zwraca on uwagę, że choć wdrażanie rozwiązań „Eko IT” jest dzisiaj czymś oczy- ç


6/2017

6/2017


ANALIZY ç wistym, to poddane jest dwóm przeciwstawnym trendom. Z jednej strony zastąpienie monitorów kineskopowych CRT monitorami LCD z podświetleniem LED zredukowało zapotrzebowanie na moc. Postęp w rozwoju układów scalonych spowodował popularyzację zasilania niskonapięciowego procesorów i pamięci, co zwłaszcza w przypadku procesora doprowadziło do znacznej oszczędności traconej mocy. – Warto przypomnieć, że słynna decyzja Jobsa porzucenia architektury Power PC była związana właśnie z osiągnięciami Intela w zasilaniu niskonapięciowym niezbędnymi do wydłużenia pracy bateryjnej w lekkim notebooku – zauważa Mariusz Kochański.

Wkładem branży ICT w redukcję CO2 jest np. umożliwienie elektronicznego obiegu dokumentów, pracy zdalnej czy komunikacji personalnej on-line. Z drugiej – pojawienie się nowej kategorii terminali mobilnych (smartfony, tablety, netbooki), która wspólnie z notebookami zaczyna wypierać desktopy z biurek pracowników. – Niemałą rolę w optymalizacji zapotrzebowania na moc urządzeń przenośnych odegrał Google, popularyzując dla smartfonów i tabletów Androida zportowanego na architekturę ARM RISC-ów, zamiast bardziej energochłonnych, choć również już niskonapięciowych CISC-ów x86 Intela, które ciągle dominują w notebookach. Jednak popularyzacja interfejsu GUI, multimediów oraz mobilności (konieczność używania Wi-Fi lub 4G) powodują, że w praktyce uzyskane oszczędności mocy „netto” na użytkownika nie są takie oczywiste – mówi Mariusz Kochański. Także Mariusz Orzechowski, dyrektor przedstawicielstwa NEC Display Solutions Europe GmbH w Polsce nie ma wątpliwości, że Green IT jest jednym z ważniejszych trendów widocznych w obecnych urządzeniach do wyświetlania obrazu. 8

eseller News

– W projektorach jest to laserowe źródło światła, w monitorach niższe zużycie energii, technologia Low Blue Light, energooszczędne podświetlenie LED, czujnik obecności użytkownika przed ekranem, czujnik natężenia oświetlenia w otoczeniu. Wszystkie te technologie mają ogromny wpływ na obniżenie śladu węglowego naszych urządzeń – wylicza Mariusz Orzechowski. OD PROSTYCH DO ZAAWANSOWANYCH DZIAŁAŃ Czasami jednak warto zacząć w firmie od najprostszych działań jak zachęcanie pracowników, by wyłączali komputer na koniec dnia pracy. Wiele firm do wiadomości e-mail czy e-faktur coraz częściej dołącza informacje, by dwa razy zastanowić się, czy koniecznie trzeba drukować ich treść. Również część podróży służbowych można wyeliminować i zastąpić je telekonferencjami. Takie działania zwiększają świadomość załogi i zachęcają do proekologicznych działań. Ale chcąc ograniczyć zużycie prądu, przedsiębiorstwa mogą iść o wiele dalej. Wkładem branży ICT w redukcję CO2 jest np. umożliwienie elektronicznego obiegu dokumentów, pracy zdalnej, komunikacji personalnej on-line (e-mail, wideokonferencje), tworzenie inteligentnych systemów ICT do automatycznych urządzeń pomiarowych (np. temperatury czy oświetlenia) działających na zasadzie algorytmów – w zależności od aktualnej sytuacji automatycznie są włączane lub wyłączane pewne urządzenia. Marcin Zmaczyński, szef polskiego oddziału firmy Aruba Cloud, zwraca jednak uwagę, że filarami „Green IT”, które przynoszą użytkownikom wymierne oszczędności, są dwie technologie – wirtualizacja i Cloud Ccomputing. – Dzięki tej pierwszej możemy zredukować liczbę serwerów fizycznych, co przyczynia się zarówno do obniżenia wydatków na zakup i utrzymanie sprzętu, jak też zminimalizowania negatywnego wpływu na środowisko – mówi Marcin Zmaczyński. Przytacza w tym miejscu tegoroczny raport IDC, z którego wynika, że w 2015 r. dzięki zastosowaniu wirtualizacji dostarczanej przez VMware, na całym świecie uniknięto instalacji 13,8 mln serwerów fizycznych, które zużyłyby 120 mln MWh energii elektrycznej. – Cloud Computing to także zielona technologia, dzięki której firmy mogą zastąpić własną infrastrukturę fizyczną przetwarza-

PRZEZ JAKIE DZIAŁANIA MOŻNA W BRANŻY ICT PROMOWAĆ DZIAŁANIA Z ZAKRESU EKO IT konsolidację, centralizację i wirtualizację infrastruktury informatycznej, n system monitorowania i ograniczenia zużycia energii, n zastosowanie modułów odzysku ciepła z układów chłodzenia, n optymalizację parametrów klimatycznych w pomieszczeniach oraz dostosowywanie mocy chłodniczej w serwerowniach do bieżących potrzeb, n identyfikację, likwidację lub przeznaczenie do ponownego wykorzystania infrastruktury informatycznej, która nie pełni istotnych funkcji, n niszczenie zużytego sprzętu komputerowego w firmach posiadających stosowne certyfikaty i zezwolenia, n zakupy z uwzględnieniem kryterium ochrony środowiska, zakupy sprzętu o obniżonej energochłonności, n ograniczenie podróży służbowych – zastąpienie kontaktów biznesowych wideokonferencjami, aplikacjami do komunikacji pisemnej, n druk dwustronny, n wydłużenie czasu pracy laptopów, telefonów, dlatego, że ich produkcja również ma wpływ na emisję CO2. n

niem w chmurze usługodawcy. Jak wskazuje analiza organizacji GeSI, zastąpienie lokalnych serwerów usługami chmurowymi przez 80 proc. przedsiębiorstw na świecie przyniosłoby redukcję emisji gazów cieplarnianych porównywalną z odstawieniem do garażu 1,7 mln aut – podkreśla Marcin Zmaczyński. Według niego, za chmurą przemawiają nie tylko argumenty proekologiczne, ale przede wszystkim pragmatyczne, ponieważ model cloud przynosi firmom mierzalne korzyści, m.in. przez możliwość optymalnego dopasowania zasobów IT do aktualnych potrzeb organizacji. – W Aruba Cloud zauważamy, że połączenie dbałości o środowisko z oferowaniem wydajnego i oszczędnego IT znajduje uznanie w oczach licznej grupy naszych klientów – dodaje Zmaczyński. MNIEJ ENERGOŻERNE SERWEROWNIE Także Mariusz Kochański uważa, że korzyści z wdrażania Eko IT widać szczególnie wyraźnie w przypadku serwerowni. – Rozwój zdalnego przetwarzania danych, konsolidacja i wirtualizacja zasobów IT


ANALIZY rowni – koszty zasilania i serwisowania klimatyzacji mogą podnieść koszty samego zasilania serwerowni o kolejne 20-30 proc. – mówi Mariusz Kochański.

Mariusz Orzechowski, dyrektor przedstawicielstwa NEC Display Solutions Europe GmbH w Polsce Eko IT to przede wszystkim ograniczenie kosztów użytkowania sprzętu, a w późniejszym czasie kosztów jego utylizacji. Niemniej jednak Eko IT idzie również w kierunku poprawienia jakości pracy z urządzeniami oraz obniżenia ich wpływu na nasze zdrowie. Dobrym przykładem mogą być monitory wyposażone w technologię Low Blue Light ograniczające udział niebieskiego światła w generowaniu obrazu. Ma to bezpośredni wpływ na jakość pracy z urządzeniem i ograniczenie zmęczenia oczu. powodują, że zapotrzebowanie na moc rzędu 10 kW staje się czymś normalnym w sektorze przedsiębiorstw dla firmy 400-osobowej. Taka moc jest wymagana non stop w trybie 24/7, co daje 8,7 tys. godzin pracy rocznie (praca aplikacji produkcyjnych w dzień, przeliczenia raportów BI i backupy w nocy). Godzina zasilania 10 kW to w trybie ciągłym (przyjmując tylko 80 gr za kWh) 8 zł, zatem rocznie koszt zasilania to już ok. 70 tys. zł. Wzrost mocy przetwarzania oznacza również dodatkowe koszty związane z chłodzeniem serwe-

Filarami „Green IT”, które przynoszą użytkownikom wymierne oszczędności, są dwie technologie – wirtualizacja i Cloud Computing. Dlatego jego zdaniem po stronie obsługiwanych użytkowników również warto oszacować koszty energii. – Wzrost liczby używanych urządzeń mobilnych, straty energetyczne związane z ładowaniem ich baterii powodują, że przyjęcie współczynnika 50 W mocy na każdego pracownika biurowego można uznać za bardzo konserwatywne. Dla 200 pracowników biurowych w tej samej 400-osobowej firmie (praca na jedną zmianę) to 10 kW mocy zużywanej przez 8 godzin (w dni robocze), czyli 2100 godzin rocznie, co będzie kosztować 16,2 tys. zł rocznie – wylicza Mariusz Kochański. Zwraca uwagę, że na tym przykładzie widać wyraźnie, że całkowite koszty zasilania (ok. 120 tys. zł rocznie) nie są na tyle duże, aby silnie popychały przeciętną firmę do inicjatyw inwestycyjnych mających na celu oszczędności energetyczne, a w konsekwencji proekologiczne. Jednak w przypadku większych organizacji zatrudniających lub obsługujących kilka tysięcy pracowników i konsolidujących zasoby, koszty zasilania mogą być liczone w setkach tysięcy zł rocznie. – I takie organizacje, również w Polsce (jak np. superkomputery HP Cyfronetu w Krakowie czy Huawei w PCSS w Poznaniu), rozważają i wdrażają innowacyjne technologie IT jak np. systemy chłodzenia cieczą serwerów kasetowych czy wręcz wyjście ze zmianą poza IT, np. ogrzewanie budynku uzyskanym w ten sposób ciepłem. W takim przypadku oszczędność kosztów ogrzewania budynku może sięgnąć w okresie zimowym kilkudziesięciu procent – mówi Mariusz Kochański.

Marcin Zmaczyński, szef polskiego oddziału firmy Aruba Cloud Choć o „Green IT” nie słyszymy dziś tak często, jak jeszcze kilka lat temu, strategia kryjąca się za tym hasłem jest powszechnie stosowana w branży IT, szczególnie w obszarze Data Center. Według prognoz Transparency Market Research, roczna skumulowana stopa wzrostu (CAGR) rynku „zielonych” centrów danych na świecie wyniesie do 2022 r. niemal 31 proc. Trend ten napędza rosnące zapotrzebowanie na technologie energooszczędne oraz uproszczenie architektury Data Center. Stosowanie rozwiązań z zakresu Eko IT może czasami też zapewniać przewagę konkrecyjną. Mówiła tym np. firma OVH, która niedawno uruchomiła w Polsce w Ożarowie Mazowieckim Data Center. Jej szefowie podkreślali, że OVH stosuje w swoich obiektach własne patenty, takie jak chłodzenie cieczą. To ma powodować, że zużycie energii jest średnio 40-50 proc. niższe niż w innych centrach danych. Generalnie jednak budownictwo jest jedną z dziedzin, gdzie umiejętne wykorzystanie ICT może oznaczać spore korzyści dla środowiska. Tzw. inteligentne domy czy biurowce mogą przy użyciu Eko IT optymalizować zużycie energii do oświetlenia czy w systemach grzewczych. Już od dawna testowane są rozwiązania, które umożliwiłyby doprowadzenie do pełnej samowystarczalności energetycznej domów czy nawet całych osiedli. Pewne jest to, że tylko rozwiązania informatyczne umożliwiają zagospodarowanie energii wytworzonej przez konsumentów we własnych gospodarstwach, np. z wykorzystaniem ogniw fotowoltaicznych. n 9

eseller News


ROZMOWA NUMERU

Zdjęcia: Bartek Dąbrowski

NEC wytycza drogę innowacji W ub.r. pokazaliśmy monitory wielkoformatowe z serii V i P zintegrowane z mini komputerem Raspberry Pi. W tym roku NEC jako pierwszy na świecie zaprezentował projektor LCD, z serii instalacyjnych projektorów PA, wyposażony w laserowe źródło światła z całkowicie szczelnym układem optycznym. W niedalekiej przyszłości możemy spodziewać się rozwoju technologii interaktywnych wspomagających współpracę między grupami osób w formie dotychczas nieosiągalnej pod względem rozwiązań sprzętowo-programowych – mówi Mariusz Orzechowski, Dyrektor Przedstawicielstwa NEC Display Solutions Europe GmbH w Polsce. Rozmawiał Dariusz Chełstowski 10

eseller News


ROZMOWA NUMERU Niedawno NEC wprowadził nowy ogólnoeuropejski program partnerski i jednocześnie platformę komunikacji z partnerami – SolutionsPLUS, który zastąpił funkcjonujący od kilkunastu lat polski program NEC Partner CLUB. Czym różni się on od lokalnego poprzednika? Na czym polegają główne zmiany? Od momentu uruchomienia w 2005 r. NEC Partner Club program raczej stabilnie ewoluował, a nie był zasadniczo zmieniany. Aż do teraz. Po kilkunastu latach lokalny polski program partnerski został zastąpiony szerszym, ogólnoeuropejskim odpowiednikiem: SolutionsPLUS. Uruchomiony pod koniec marca br. SolutionsPLUS to platforma internetowa do komunikacji z partnerami, zawierająca najistotniejsze elementy starego systemu (w tym półroczny konkurs dla partnerów) i dodatkowo oferująca nowe możliwości korzystania z akcji oraz promocji europejskich.

Nasi partnerzy, oprócz akcji organizowanych lokalnie przez biuro NEC w Polsce, mogą korzystać również z konkursów, szkoleń, promocji dostępnych dla wszystkich partnerów NEC w Europie.

przekroczyło nasze najśmielsze oczekiwania. Promocja egzemplarzy DEMO monitorów desktopowych NEC „Seeing is believing”, w ramach której można było zakupić egzemplarz demonstracyjny nowego monitora NEC z upustem 50-proc., cieszyła się w Polsce największą popularnością wśród wszystkich krajów europejskich. Czy zmieniły się także warunki przystąpienia do programu partnerskiego? Istnieją drobne różnice dotyczące przystąpienia do SolutionsPLUS w porównaniu ze starym systemem. Generalna zasada nie uległa zmianie: jest to platforma dedykowana jedynie naszym partnerom handlowym. Natomiast ze względu na uwarunkowania prawne wszyscy uczestnicy programu SolutionsPLUS musieli się w nim od nowa zarejestrować. Niestety proste przeniesienie danych logowania z NEC Partner Club do SolutionsPLUS nie było możliwe. Istotną różnicą jest również fakt, że do SolutionsPLUS rejestrują się poszczególne osoby (każdy z pracowników jednego resellera ma swoje osobne konto). W starym systemie jedno konto miała cała firma. Jakie korzyści dla partnerów będzie miało włączenie ich do programu europejskiego? Korzyści jest wiele! Nasi partnerzy zarejestrowani w SolutionsPLUS mogą od teraz, oprócz akcji organizowanych lokalnie przez biuro NEC w Polsce, korzystać równocześnie z konkursów, szkoleń, promo-

cji dostępnych dla wszystkich partnerów NEC w całej Europie. I jak pokazały pierwsze tego typu przedsięwzięcia – polscy partnerzy biorą w nich udział bardzo aktywnie. Co więcej, istnieje wiele przywilejów dostępnych jedynie dla członków SolutionsPLUS. Są to: ekskluzywne promocje i konkursy, webinaria, e-learning, dostęp do cenników, certyfikatów produktowych, rysunków technicznych, gotowych tekstów marketingowych etc. Bezsprzecznie najbardziej atrakcyjne dla członków SolutionsPLUS są konkursy i akcje promocyjne. Obecnie polscy partnerzy mogą korzystać z dwóch ogólnoeuropejskich promocji. Kolejna edycja promocji na egzemplarze DEMO, tym razem objęła podstawową serię monitorów wielkoformatowych NEC E. W ramach trzeciej już edycji akcji „Seeing is believing” można zakupić wybrany produkt DEMO oraz akcesoria montażowe do niego aż z 50-proc. upustem. Druga europejska promocja dotyczy projektorów laserowych. Nagradzamy naszych partnerów, którym do końca lipca br. uda się sprzedać wybrane modele projektorów laserowych NEC, bonusem instalacyjnym nawet w wysokości 2000 zł. NEC działa na kilku rynkach wertykalnych. Jakie są strategiczne rynki dla NEC Display Solutions? Jaką ma firma ofertę i strategię w tym obszarze? Jakie zostały postawione cele biznesowe? Najszersza na rynku oferta produktów i rozwiązań do wyświetlania obrazu impli-

Portal umożliwia m.in. dostęp do cenników, gotowych materiałów marketingowych, bardzo szczegółowych informacji o produktach oraz certyfikatów. Poprzez Solutions PLUS można również uczestniczyć w e-learningu, webinariach czy zaplanować zaawansowane szkolenie w ramach NEC Training Academy. Co więcej – portal oferuje dostęp do ekskluzywnych promocji, dostępnych jedynie dla członków SolutionsPLUS. Wraz z uruchomieniem programu polscy partnerzy mieli po raz pierwszy możliwość skorzystania z takiej formy promocji i ich zainteresowanie 11

eseller News


ROZMOWA NUMERU kuje szeroką liczbę rynków wertykalnych, na których operuje NEC. Oznacza to często konieczność zastosowania zupełnie innej strategii biznesowej i marketingowej w poszczególnych segmentach. Staramy się wspierać partnerów poprzez dostarczanie im specjalistycznej wiedzy oraz szukanie produktów uzupełniających, które w połączeniu z produktami NEC tworzą nowe kompleksowe rozwiązania.

Staramy się wspierać partnerów poprzez dostarczanie im specjalistycznej wiedzy oraz szukanie produktów uzupełniających, które w połączeniu z produktami NEC tworzą nowe kompleksowe rozwiązania. Głównymi obszarami naszych zainteresowań są następujące sektory: handel, Digital Signage, edukacja, rynek korporacyjny, sale konferencyjne, medycyna, grafika, przemysł, monitoring, energetyka, transport, rozrywka, restauracje szybkiej obsługi, muzea, teatry i kina. Wszędzie tam, gdzie klient potrzebuje w skuteczny sposób skomunikować się z odbiorcą za pomocą cyfrowych nośników informacji – można zastosować nasze produkty i rozwiązania. Jakie są plany firmy na ten rok, szczególnie jeśli chodzi o zmiany w ofercie? Jakich nowości można oczekiwać? Czego w związku z tym mogą spodziewać się partnerzy? NEC bardzo mocno skupia się na poszerzeniu oferty rozwiązań zarówno monitorów wielkoformatowych, jak i projektorów dysponujących dużą siłą światła. Już teraz wprowadzamy do sprzedaży nowe moni12

eseller News

tory wielkoformatowe z serii MultiSync V oraz MultiSync P. To bez wątpienia najbardziej zaawansowane technologicznie tego typu rozwiązania na rynku. Monitory wyposażone są w 12-bitowe procesory obrazu, układy wyrównywania jednorodności podświetlenia oraz wiele zintegrowanych systemów, w tym dedykowane złącze dla komputera Raspberry Pi. W projektorach rozwój idzie w kierunku laserowego źródła światła. W III kwartale tego roku możemy spodziewać się nowych projektorów NEC o jasnościach 25 i 36 tys. ANSI Lumenów wyposażonych w zaawansowany system laserowego podświetlenia, bazujący na diodach laserowych w kolorze czerwonym i niebieskim. W tej klasie urządzeń nowe modele NEC będą jednymi z najbardziej zaawansowanych propozycji na rynku. W jakim kierunku, w dłuższej perspektywie czasowej, może nastąpić, Pana zdaniem, rozwój innowacyjnych technologii i rynków, na których działa NEC? NEC wytycza drogę innowacji już od wielu lat. W zeszłym roku światło dzienne ujrzały monitory wielkoformatowe z serii V i P zintegrowane z bardzo popularnym mini komputerem Raspberry Pi. W tym roku NEC jako pierwszy na świecie zaprezentował projektor LCD wyposażony w laserowe źródło światła z całkowicie szczelnym układem optycznym – mowa tutaj o nowej laserowej serii instalacyjnych projektorów PA. Jeżeli chodzi o przyszłość, to możemy spodziewać się rozwoju technologii interaktywnych wspomagających współpracę między grupami osób w formie dotychczas nieosiągalnej pod względem rozwiązań sprzętowo-programowych. Możemy spodziewać się również mocnego rozwoju platform modułowych, pozwalających na rozszerzanie lub zmianę funkcjonalności danych urządzeń, które stanowić będą niejako bazę konfiguracyjną dla klienta. Czy może Pan powiedzieć coś więcej na temat zmian personalnych w polskim oddziale NEC Display Solutions Europe? Po co je wprowadzono i jaki będą miały wpływ na działalność firmy, a przede wszystkim na współpracę z partnerami i klientami biznesowymi? Zmiany personalne są częścią każdej firmy, każdego biznesu. W NEC zmiany takie następują bardzo rzadko, jesteśmy przykładem firmy, gdzie staż pracy powyżej 10 lat staje się standardem. Takim stażem może pochwalić się u nas 80 proc. naszego ze-

społu! Mógłbym powiedzieć, że przykład idzie z góry, gdyż ja sam pracuję w NEC już ponad 22 lata. Obecne zmiany związane są z nowym podejściem do prowadzonego biznesu i chęcią zaoferowania naszym partnerom jeszcze lepiej sprofilowanego wsparcia sprzedaży. Jacek Smak i Bartłomiej Płuciennik, pełniąc od kwietnia br. nowe funkcje dyrektorów handlowych, jednocześnie bezpośrednio wspierają naszych kluczowych klientów, przez co proces podejmowania najważniejszych decyzji jest bardziej optymalny. Równocześnie poszerzamy nasz zespół handlowy, z myślą o partnerach, którzy generują nieco mniejszy obrót, współpracując z nami mniej regularnie, ale są dla nas równie ważni. Dlatego nowy dział Inside Sales będzie dla nich stanowił doskonałe zaplecze codziennego biznesu i zaoferuje narzędzia handlowe dostosowane do ich potrzeb.

NEC bardzo mocno skupia się na poszerzeniu oferty rozwiązań zarówno monitorów wielkoformatowych, jak i projektorów dysponujących dużą siłą światła.

Niezmiennie koncentrujemy się też na obsługiwanych przez nas rynkach wertykalnych, gdzie specjalistyczna wiedza i wsparcie są niezbędne dla właściwego rozwoju. Posiadamy odpowiednie kompetencje, którymi chcemy dzielić się z partnerami i wspólnie sięgać po ciekawe projekty, w których nie tylko cena, ale też i godziwa marża są wykładnikami sukcesu. Zmian jest więc sporo. Z niektórych nasi partnerzy już korzystają, ale duża ich część dopiero przed nami. Jestem jednak pewny, że są to zmiany, które usprawnią pracę NEC z partnerami i pozwolą cieszyć się nam wspólnym sukcesem! n


BIZNES

L P E OW

R O F AT

h c i n z R o F t r Y a C w o g e cz a l d –

K A Z MY

E W O UP

? ć a t s korzy

Bohdan Szafrański

Na konkurencyjnym rynku trzeba szukać efektywności wszędzie, również w kontaktach handlowych pomiędzy firmami. Platformy do zarządzania zakupami i produktami usprawniają procesy zakupu i sprzedaży oraz poprawiają ich rentowność. Duże firmy już od dawna korzystają z oprogramowania, które automatyzuje takie procesy.

R

ozwój platform zakupowych B2B dostępnych w Internecie pozwala skorzystać z tych udogodnień również mniejszym firmom. Badania przeprowadzone przez Deloitte i praktyczne doświadczenia zebrane przez Aleo, otwartą platformę zakupową dla firm, potwierdzają, że wykorzystanie narzędzi eSourcingu w procesach zakupowych pozwala zaoszczędzić nawet 10–15 proc. kosztów z tym związanych. Korzystające z nich przedsiębiorstwa mogą wykorzystywać najlepsze dostępne praktyki zakupowe. Ocenia się, że w 2020 r. wartość handlu elektronicznego pomiędzy przedsiębiorstwami, czyli e-commerce B2B, osiągnie

Wykorzystanie narzędzi eSourcingu w procesach zakupowych pozwala zaoszczędzić nawet 10–15 proc. kosztów zakupu.

wartość 6,7 bln dolarów (średni wzrost o 18 proc. rok do roku). Przy czym pierwszym rynkiem będzie rynek europejski, bo tu notuje się najszybszy wzrost, kolejne rynki to chiński i USA o wartości 1 bln dolarów. Polska Izba Gospodarki Elektronicznej szacuje, że w naszym kraju w 2020 r. wartość e-commerce B2B osiągnie poziom 344 mld zł (średni wzrost o 8 proc. rok do roku). Warto zauważyć, że klienci B2B wydają w sieci na zakupy prawie dziesięć razy więcej niż klienci indywidualni. W 2014 r. wartość transakcji online w tym segmencie szacowana była przez Polską Izbę Gospodarki Elektronicznej na 215 mld, wobec 13

eseller News


BIZNES 23-27 mld zł w segmencie B2C. Polski rynek B2B e-commerce w latach 2011-2014 rósł w średniorocznym tempie 21,5 proc. Szacuje się, że jego dynamika zrównała się z rynkiem amerykańskim (nieco powyżej 8 proc.). Firma Ecommerce Europe szacuje wartość branży e-commerce sektora B2B w Europie na 720 mld euro w 2016 r. oraz 2,16 bln euro w 2020 r. (roczny wzrost o 32 proc.). NAŚLADOWANIE RYNKU B2C Obserwując rozwój rynku e-commerce B2B, można zauważyć, że w swoich zachowaniach i preferencjach związanych z zakupami przedsiębiorcy coraz częściej wzorują się na konsumentach. W Polsce ok. 76 proc. gospodarstw domowych ma dostęp do Internetu (dane GUS), a 50 proc. internautów twierdzi, że kupuje online. Dostęp do Internetu deklaruje natomiast 94 proc. przedsiębiorstw, ale tylko 35 proc. z nich wykorzystuje sieć przy realizacji zakupów (tylko 12 proc. otrzymuje zamówienia online). Z badań przeprowadzonych na świecie przez Deloitte (objęło 324 dyrektorów zakupów, w tym 174 z Europy) wynika, że nadal 60 proc. działów zakupów w firmach nie wie jeszcze, jak będzie funkcjonować w erze cyfrowej i nie ma sprecyzowanej strategii cyfrowej. Jak podają autorzy opracowania, implementacja narzędzi elektronicznych oznacza też konieczność zarządzania zmianą w firmie, co często wywołuje opór pracowników przyzwyczajonych do dotychczasowego sposobu prowadzenia zakupów. Z kolei 29 proc. kupców badanych przez Aleo podaje, że jest to główny problem w skutecznym wdrożeniu narzędzi. To powoduje, że firmy korzystają tylko z części funkcji cyfrowych, do czego przyznaje się 31 proc. kupujących. Wydaje się, że cyfryzacja zakupów B2B to przyszłość, która czeka wszystkich. Jak wynika z badania przeprowadzonego przez Forrester Consulting „Building The B2B Omni-Channel Platform Of The Future”, przeprowadzonego w 2014 r., 52 proc. klientów biznesowych jest pewnych, że do 2017 r. co najmniej połowę zakupów w firmie będzie prowadzić przez Internet. NIE TYLKO ŁĄCZENIE KUPUJĄCYCH Z DOSTAWCAMI Dziś platformy zakupowe nie tylko łączą kupujących i dostawców. Zastosowane w nich rozwiązania umożliwiają przeprowadzenie całej transakcji handlowej w jednym miejscu. Można w nich wyszukać 14

eseller News

źródła dostaw, negocjować cenę i warunki dostawy, wysyłać zamówienia, wystawiać faktury i drogą elektroniczną realizować płatności, czyli tak jak robią to klienci indywidualni. Wszystko jest realizowane szybko, przy stosowaniu przejrzystych zasad, wygodnie i taniej niż w standardowy sposób. Również z wykorzystaniem urządzeń mobilnych.

W swoich zachowaniach i preferencjach związanych z zakupami przedsiębiorcy coraz częściej wzorują się na konsumentach.

Proces zakupu to nie tylko nabycie rzeczy przez firmę. Rozpoczyna się on od uzgodnienia zapotrzebowania, a kończy na rozliczeniu dostawy, czyli ocenie dostawcy i rozliczeniu faktury. W Raporcie Deloitte i Aleo „Digitalizacja rynku B2B. Cyfrowe platformy zakupowe” cały proces realizacji i rozliczenia zakupów podzielono na 13 etapów wspieranych przez różnego rodzaju narzędzia (cykl Source-to-Settle). Są to: identyfikacja potrzeb, tworzenie zapotrzebowania, akceptacja zakupu, tworzenie zamówienia, otrzymanie towarów i usług, płatności i zarządzanie zgodnością i analiza danych o jakości dostaw. Kolejne etapy to: analiza wydatków, analiza popytu wewnętrznego, analiza rynku, definicja strategii zakupowych, proces pozyskiwania ofert i negocjowania oraz podpisanie umowy. Wyniki badania Aleo wskazują także, że najwyższy udział wykorzystania systemów informatycznych w polskich firmach dotyczył procesów obiegu dokumentów i rejestracji zamówienia złożonego do dostawcy (eProcurement). Natomiast stopień zautomatyzowania procesu zbierania ofert i wyboru dostawcy (eSourcing) był jednocześnie najniższym spośród


BIZNES czynności zakupowych. Z doświadczeń zebranych przez platformę Aleo wynika, że np. zakupy surowców potrzebnych do produkcji prowadzą firmy bardzo profesjonalnie, natomiast w przypadku kupowania wyposażenia biurowego, usług, części zamiennych itp. już tak nie jest. Jak się okazuje, nawet prosta agregacja zapotrzebowania (kupowanie w większej ilości) i dotarcie do nowych dostawców pozwalają uzyskać oszczędności od 10 do 15 proc. na koszcie zakupu. Według Deloitte i Aleo można uzyskać także dodatkowe korzyści poprzez zwiększenie przejrzystości procesu zakupowego (do 10 proc.), automatyzację transakcji (do 1 proc.), wymianę wiedzy w zakresie innowacji, wiarygodności dostawców itp. (do 15 proc.), a także zwiększenie dźwigni ilościowej poprzez korzystanie z wyspecjalizowanych platform branżowych (do 5 proc.). Na co zwracają uwagę specjaliści zajmujący się zakupami w firmach? W mniejszych firmach lub grupach powiązanych jednostek organizacyjnych często brak jest wewnętrznego systemu zbierania informacji, ile, w jakim czasie i jakie produkty są potrzebne w ciągu roku. Z jednej strony tworzy się niepotrzebne zapasy, blokując środki finansowe, lub powstają braki, które trzeba pilnie uzupełnić, godząc się często na wyższy koszt dostawy. Agregowanie zamówień i przewidywanie zapotrzebowania pozwala też skuteczniej wykorzystywać platformy zakupowe. Jak oceniają specjaliści, zakupy elektroniczne pozwalają na większą standaryzację, skuteczniejsze negocjacje cenowe oraz możliwość agregacji dużej liczby danych o dostawcach i przewidywanie trendów zmian cen. Warto też tworzyć z innymi grupy zakupowe i dzięki temu uzyskiwać lepsze ceny na rynku. Jeśli chodzi o wykorzystanie platform zakupowych w Polsce, to rynek eSourcingu podzielony jest pomiędzy wielkich dostawców systemów ERP, takich jak SAP (Ariba), Oracle oraz IBM (Emptoris). Mają

oni pozycję nieznacznie dominującą i obsługują największe przedsiębiorstwa i polskie oddziały międzynarodowych korporacji. Druga grupa to ogólne rozwiązania specjalistyczne dostępne na całym świecie, takie jak: ivalua, BravoSolutions, SciQuest czy Zycus. Kolejna grupa rozwiązań to specjalistyczne, branżowe lub regionalne portale zakupowe, z których korzystają głównie średnie i małe oraz lokalne firmy, działające na danym rynku. Według danych Aleo w 2016 r. polskie firmy korzystały głównie z platform zakupowych: Oferteo (15 proc.), Aleo (12 proc.), OpenNexus (11 proc.) i Allegro (10 proc.).

Aż 60 proc. działów zakupów w firmach nie wie jeszcze, jak będzie funkcjonować w erze cyfrowej i nie ma sprecyzowanej strategii cyfrowej. CO ZWRÓCIĆ UWAGĘ? Warto świadomie zarządzać dostawcami. Oczywiście dobrze jest mieć stałych dostawców, ale musi to być świadomy wybór, a nie tylko efekt prowadzenia interesów z daną firmą od wielu lat. Narzędzia eSourcingu, które wspierają pozyskanie oferty, negocjacje, wybór dostawców są przyszłością zakupów i będą generowały dodatkowe oszczędności w przedsiębiorstwie. Z roku na rok zwiększa się liczba dostawców, z którymi współpracują dyrektorzy od zakupów. Według badania przeprowadzonego przez Aleo, pomiędzy rokiem 2013 a 2016 liczba ta wzrosła o 42 proc. (średnio 135 dostawców). Do każdego z nich trzeba wysłać mail, zadzwonić, wynegocjować dostawę, przygotować fakturę itp. To znaczne obciążenie, a osoby zajmujące się zaopatrzeniem muszą też na bieżąco analizować rynek (co się kupuje, czy jest zamiennik dla danego produktu, czy są nowi dostawcy, jakie są ceny, ile kosztuje surowiec, jaki jest koszt wytworzenia produktu itp.). Dobrze jest mieć co

najmniej od trzech do pięciu dostawców do wyboru danej oferty, ale potrzebne są do tego narzędzia wspomagające – oszczędzające czas. Coraz większe znaczenie odgrywa rzetelność dostawców, ich rating, ale nie można pracować tylko z dużymi kontrahentami. Trzeba się otwierać na nowych, tańszych i dywersyfikować dostawy. Rozwiązaniem jest korzystanie z narzędzi elektronicznych. Otwarte internetowe platformy zakupowe umożliwiają uzyskanie dostępu do nowoczesnych technologii takich, jakie wykorzystywały dotychczas tylko duże firmy, czyli narzędzi eSourcing. Cały rynek eSourcing rośnie w tempie 5 proc. rocznie. Twórcy raportu oceniają potencjał oszczędności możliwych do uzyskania w 2020 r., dzięki zastosowaniu narzędzi eSourcing, w polskich firmach na prawie 40 mld zł. Trzeba też zauważyć, że cały czas zmienia się rynek platform zakupowych na świecie i w Polsce. Powstają nowe, a inne się łączą – przykładem integracja i połączenie się w ub.r. platform przetargowych OnePlace i Open Nexus. Jak informowano, do klientów Open Nexusa należały wtedy m.in. takie firmy jak: TEVA, Budimex, Tarczyński, Solaris, Kingspan i Elektromontaż, a do Marketplanet OnePlace głównie największe polskie korporacje i instytucje, takie jak: Orange, Konsalnet, Poczta Polska, Neuca i mBank. Siła platform zakupowych zależy bezpośrednio od tego, jak liczne i szerokie jest spektrum korzystających z danej platformy firm. Zyskują na tym użytkownicy. Dostawcy mają dostęp do większej grupy potencjalnych zleceniodawców, a ci mogą osiągnąć większe oszczędności, organizując przetargi w większej grupie dostawców. Na rynku platform zakupowych obserwujemy dużą konkurencję i takich połączeń powinno być więcej. Z ciekawostek dotyczących tego rynku warto dodać, że według niektórych danych ponad 50 proc. zakupów B2B odbywa się przy użyciu urządzeń przenośnych. Wzrasta też wykorzystanie marketingu w mediach społecznościowych, a w niektórych krajach nawet 90 proc. firm jest już w nich obecnych. Firmy w relacjach B2B coraz częściej korzystają z kanałów takich jak Twitter czy LinkedIn, aby zwiększać świadomość wśród odbiorców dotyczącą swoich produktów, gromadzić dane i budować marki. Dodatkowo media społecznościowe to również coraz ważniejsze źródło danych o zachowaniu i preferencjach klientów. n 15

eseller News


BIZNES

Rynek druku przestrzennego przyspiesza Barbara Mejssner

Drukowanie 3D ma coraz większy wpływ na produkcję przemysłową, ale jest też przyszłością medycyny. Rynek ten odnotowuje rokrocznie wzrosty na poziomie kilkudziesięciu procent.

R

ozwój rynku druku 3D mocno przyspiesza. Według badań firmy doradczej Deloitte w 2016 r. na świecie sprzedano ponad 200 tys. drukarek 3D wartych 1,6 mld USD. Firma Context szacuje, że w 2017 r. sprzedaż drukarek sięgnie już miliona, a za cztery lata nawet 8 mln sztuk. Według raporu Markets and Markets „3D Printing Market by Printer Type, Material Type (Metals, Plastics, Ceramics & Others), Material Form (Powder, Liquid, Filament), Process, Technology, Software, Service, Application, Vertical and Geography – Global Forecast to 2022”, rynek druku 3D w 2022 r. osiągnie wartość 30 mld USD, rosnąc w latach 2017-2022 średniorocznie o 28 proc. Głównymi graczami na globalnym rynku drukowania 3D są obecnie: 3D Systems Corporation (USA), Stratasys Ltd. (USA i Izrael), ExOne Company (USA), Voxeljet AG (Niemcy), Arcam Group (Szwecja), SLM Solutions Group AG ), EOS GmbH (Niemcy), EnvisionTEC GmbH (Niemcy), Materialize NV (Belgia), Sciaky Inc. (USA),

16

eseller News

Concept Laser GmbH (Niemcy), Autodesk Inc. (USA), Hoganas AB (Szwecja), Renishaw PLC (Wielka Brytania).

Aż 90 proc. firm uważa, że korzystanie z technologii druku przestrzennego daje im przewagę konkurencyjną. Liderem sprzedaży jest amerykański Stratasys, który w ciągu pierwszych trzech kwartałów zeszłego roku sprzedał drukarki za 333 mln USD; drugi ze światowych gigantów, 3D Systems – za 138 mln USD. Na trzecim miejscu, według raportu mo-

nitorującej rynek druku 3D firmy Context, znalazł się EOS ze 137 mln USD przychodów. Na globalnym rynku działają też z powodzeniem firmy z Polski. Polski Zortrax odpowiada za 7-10 proc. światowego rynku druku 3D. Rozpoznawalnymi na świecie polskimi markami są również: Omni3D, Kreator 3D oraz ZMorph, a także producenci tzw. filamentów, czyli materiałów służących do druku, jak: Devil Design, F3D czy FiberLab. Jak podaje najnowszy raport Sculpteo „The State of 3D Printing 2017”, aż 47 proc. badanych firm odnotowało zwrot z inwestycji w drukowanie 3D w stosunku do poprzednich lat . Ponadto 90 proc. uważa, że korzystanie z tej technologii daje im przewagę konkurencyjną. Co ciekawe, respondenci wykazują mniejsze zainteresowanie zakupem drukarki 3D, co oznacza, że preferują korzystanie z zewnętrznych usług drukowania. Potwierdza to badanie EY z 2016 r., według którego firmy korzystające z technologii druku 3D w tym samym stopniu korzystają z zewnętrznych dostawców, jak i z własnego


BIZNES (88 proc.), żywice (35 proc.), metale (28 proc.), piasek/proszek multicolor (15 proc.), proszek ceramiczny (8 proc.). Jeśli chodzi o wykorzystanie metalu najbardziej rekomendowanym materiałem jest aluminium (62 proc.) oraz stal (22 proc.).

Jakub Świętochowski, Dyrektor ds. handlowych Region Mazowiecki i Łódzki w GRENKE Druk 3D to bez wątpienia przyszłościowa technologia, która stworzy wiele nowych ścieżek biznesu. Barierą dla przedsiębiorcy, który chciałby zacząć poważnie poznawać jej możliwości i zastosowania, mogą być koszty. Kupno najnowszych drukarek wysokiej jakości stanowi spory wydatek, szczególnie jeśli chcielibyśmy od razu zaopatrzyć się w kilka zestawów. Na szczęście są rozwiązania pozwalające uniknąć wykładania firmowej gotówki i zamrażania znaczących funduszy. Możemy sprzętu nie kupować, a leasingować. Używamy go w ten sposób, jak byśmy byli właścicielem, ale pieniądze na zakup wykłada firma leasingowa. Zyskujemy, bo przecież sprzęt pracuje i zarabia na spłatę raty. Dodatkową zaletą jest uproszczenie księgowe. Nie amortyzujemy takiego sprzętu, tylko całą ratę leasingową traktujemy jako koszt uzyskania przychodu.

Polski rynek druku 3D jest wciąż bardzo młody, zaledwie 11,3 proc. firm jest obecnych na nim dłużej niż 5 lat.

W branżach takich jak przemysł lotniczy i kosmonautyczny, motoryzacyjny i medyczny, które w coraz większym stopniu wykorzystują technologie bezpośredniego spiekania laserowego metali (DMLS) i wiązki laserowe, pojawia się również większe zapotrzebowanie na proszki metalowe. Wzrost w zakresie technologii druku 3D z metalu jest jeszcze szybszy niż wzrost rynku ogółem – w obszarze tym prognozuje się średnioroczny wzrost na poziomie ok. 50 proc. Tendencja ta ma się utrzymać przez kolejne 4 lata.

W światowych raportach podsumowujących rynek druku 3D, m.in. w „Wohlers Report 2016”, stosuje się granicę cenową odróżniającą urządzenia konsumenckie (desktopowe) od profesjonalnych. W 2016 r. wynosiła ona 5 tys. dolarów. Należy zauważyć, że w przemyśle udział systemów druku 3D w całkowitej wartości tej branży jest obecnie minimalny i wynosi zaledwie 0,04 proc. Jednak, według analityków z Wohlers Associates, będzie on szybko rósł i ostatecznie może osiągnąć poziom nawet 5 proc., a więc ok. 640 mld USD. Przemysłowe drukarki 3D to urządzenia kosztujące setki tysięcy USD, dlatego na ich zakup mogą sobie pozwolić tylko duże przedsiębiorstwa albo firmy planujące świadczenie usług druku 3D. Zdecydowanie szybciej od segmentu przemysłowego rozwija się, jak wynika z raportu Deloitte, rynek drukarek desktopowych. Coraz mniej przypominają one zwykłe urządzenia konsumenckie, ponieważ stopniowo zaczynają dorównywać jakością i parametrami urządzeniom z segmentu przemysłowego.

GŁÓWNE ZASTOSOWANIA I POWODY INWESTYCJI W SYSTEMY DRUKU 3D • prototypowanie – 25% • rozwój produktów – 16% • innowacyjność – 11% • zwiększenie efektywności – 10% • redukcja kosztów – 9% źródło: CTA/UPS

zaplecza, jednak 41 proc. firm przewiduje, że w perspektywie 5 lat zależność ta może się zmienić na korzyść partnerów zewnętrznych. Drukowanie 3D przechodzi obecnie od tworzenia prototypów (AM – Addictive Manufacturing) do produkcji części końcowych, co oznacza, że firmy dostarczające materiały do drukowania będą starały się opracowywać produkty dostosowane do określonego ich zastosowania. Dostawcy systemów i firmy chemiczne już wprowadziły wydajniejsze materiały, takie jak: polieteroimid (PEI), poliaryloeteroketon (PAEK), materiały wzmacniane włóknami węglowymi. Według badań EY najczęściej stosowane obecnie materiały drukarskie w druku 3D to: plastik 17

eseller News


BIZNES

WZROST WARTOŚCI RYNKU DRUKAREK 3D I SPRZEDAŻY USŁUG DRUKU 3D NA ŚWIECIE

mld USD

25 20 15 10 5 0

2013

2014

2016

2018

2020 źródło: Canalys

RYNEK POLSKI – SPRZEDAJEMY POLSKIE, KUPUJEMY ZAGRANICZNE W 2015 r. wartość polskiego rynku druku przestrzennego szacowano na 40 mln zł. Rynek krajowy nie jest rynkiem zbytu dla największych graczy – siedem największych firm większość swoich przychodów czerpie z eksportu (przykładowo ZMorph 85 proc. swojego sprzętu wysyła za granicę). Polski rynek druku 3D jest wciąż bardzo młody, zaledwie 11,3 proc. firm jest obecnych na nim dłużej niż 5 lat (dane z ra-

portu Printelize). Działa na nim ponad sto podmiotów, z czego większość stanowią firmy istniejące na rynku rok lub krócej o krajowym zasięgu sprzedaży. Rynek tworzą zarówno producenci, jak i dystrybutorzy drukarek, a także akcesoriów i usług związanych z 3D (np. wykonywanie druków 3D, skanowanie 3D oraz modelowanie). Polscy producenci skupili się na wytwarzaniu drukarek desktopowych. W segmencie urządzeń przemysłowych

JAK POLSKIE FIRMY WYKORZYSTUJĄ DRUK 3D

prototypowanie – 60%

wsparcie produkcji – 10% inne – 5% źródło: Omni3D

18

eseller News

niestety polskich firm brakuje. Jednym z wyjątków jest spółka Infinum 3D, która w 2016 r. zainstalowała w lubelskiej fabryce Ursusa prawdopodobnie największą w naszym kraju drukarkę Kronos, która drukuje z plastików prototypowe elementy ciągników i autobusów. Urządzenie jest przystosowane do pracy z każdym filamentem dostępnym na rynku. Chociaż mamy wielu świetnych producentów drukarek, to jak wyżej wspomniano żyją oni głównie z eksportu, a polski rynek jest zdominowany przez dystrybutorów zagranicznych urządzeń drukujących w technologii FFF (Fused Filament Fabrication – osadzanie topionego materiału). PRZEMYSŁ I MEDYCYNA W ERZE 3D Według respondentów badanych na potrzeby raportu Printelize, branże, w których druk przestrzenny znajdzie najszersze zastosowanie to: architektura i budownictwo, przemysł samochodowy, szkutniczy i lotniczy oraz sektor medyczny. Jak wynika z badania przeprowadzonego w 2016 r. przez EY, 38 proc. badanych firm deklaruje, że w perspektywie najbliższych 5 lat będzie stosować technologie 3D w produkcji seryjnej. W branży przemysłowej największe zalety druku 3D to możliwość wytwarzania produk-

Rynek krajowy nie jest rynkiem zbytu dla dużych graczy – siedem największych firm większość swoich przychodów czerpie z eksportu. tów dopasowanych do indywidualnych wymagań klientów oraz produkcja części zamiennych. Druk 3D jest wykorzystywany także do tworzenia prototypów. Na przykład Ford ma obecnie 5 oddziałów wykorzystujących systemy druku 3D, w których rocznie wytwarzane są dziesiątki tysięcy prototypowych części do samochodów.


BIZNES Sektor medyczny wyrasta na jednego z kluczowych odbiorców druku przestrzennego. Wyjątkowo dynamiczny wzrost w zakresie wykorzystania drukarek 3D obserwuje się w medycynie, szczególnie przy produkcji implantów lub ich prototypów. Prognozuje się, że wartość tego segmentu do roku 2022 wrośnie do 3,89 mld USD, a roczna stopa wzrostu w latach 2016-2022 wyniesie 21,9 proc.

Wyjątkowo dynamiczny wzrost w zakresie wykorzystania drukarek 3D obserwuje się w medycynie, szczególnie przy produkcji implantów lub ich prototypów.

NAJWIĘKSZE KORZYŚCI Z ZASTOSOWANIA TECHNOLOGII DRUKU 3D DLA UŻYTKOWNIKÓW I DOSTAWCÓW użytkownicy

dostawcy

możliwość wytwarzania części o dużym stopniu skomplikowania geometrycznego

64%

60%

prostota procesu wytwarzania

50%

50%

krótki czas produkcji

38%

40%

brak kosztów początkowych

36%

40%

inne

8%

10%

źródło: ankieta magazynu Inżynieria i Utrzymanie Ruchu

GŁÓWNE CZYNNIKI HAMUJĄCE ROZWÓJ TECHNOLOGII DRUKU 3D W POLSCE użytkownicy

dostawcy

ograniczenia technologiczne (gabaryty, jakość powierzchni, materiały)

59%

50%

niska świadomość na temat możliwości technologii

40%

100%

małe zaufanie do technologii

32%

40%

inne

4%

10%

źródło: ankieta magazynu Inżynieria i Utrzymanie Ruchu

Według prognoz firmy analitycznej IDC, w 2020 r. stomatologia i protetyka będą stanowić aż 15 proc. rynku zbytu drukarek 3D. Kolejne 13 proc. ma zapewniać sektor medycznych implantów. Coraz więcej mówi się też o tzw. biodruku, czyli drukowaniu np. naczyń krwionośnych. Pierwsza komercyjna drukarka organów została zbudowana przez firmę biomedyczną Invetech i dostarczona do Ogranovo, firmy pionierskiej w technologi biodruków. Drukarka obecnie jest w stanie produkować arterie, które lekarze będą mogli używać w operacjach wszczepiania bajpasów i to już za około pięć lat. Coraz więcej projektów, w każdej dziedzinie, realizowanych jest z zastosowaniem druku przestrzennego – a to przecież dopiero początek. Co roku będzie ich przybywać. Przykładowo, rosyjska firma Apis Cor stworzyła mobilną drukarkę, która w ciągu 24 godzin „zbudowała” gotowy do zamieszkania dom o pow. 38 m kw. Koszt domu wraz z wykończeniem wyniósł w przeliczeniu jedynie 41 tys. zł. n 19

eseller News


BIZNES

Nowe czasy sprzyjają Digital Signage Marek Jaślan

Systemy Digital Signage na dobre zagościły w sklepach, galeriach handlowych, urzędach, bankach korporacjach, uczelniach, muzeach czy restauracjach, a rozwój technologii otwiera przed nim szereg nowych możliwości zastosowania. Przyszłość tego narzędzia, nie tylko w reklamie, wydaje się być więcej niż obiecująca.

Z

astosowanie cyfrowych nośników obrazu w przekazywaniu różnego rodzaju treści oraz wiadomości (tzw. Digital Signage) – zarówno reklamowych, jak i informacyjnych, staje się coraz bardziej powszechne i ma przed sobą coraz lepsze perspektywy. Nie ma co do tego wątpliwości biuro maklerskie Dr Kalliwoda z Niemiec, które w końcu maja, wydając rekomendację „kupuj” dla notowanej na warszawski Giełdzie Papierów Wartościowych spółki IMS, zajmującej się marketingiem sensorycznym, w tym Digital Signage, wyznaczyła 12-miesięczną cenę docelową dla jednej akcji tej spółki na 5,15 zł (co daje potencjał wzrostu na poziomie ok. 50 proc.). Dr Kalliwoda argumentował to m.in. dużym potencjałem wzrostu w segmencie Digital Signage.

20

eseller News

Digital Signage w Polsce to ciągle jeszcze wschodząca dziedzina usług biznesowych. Biuro maklerskie odnotowało, że globalny rynek Digital Signage miał w 2015 r. wartość ponad 14,9 mld dol. i prognozuje się, że jego średni skumulowany wzrost w okresie 2016-2023 wyniesie ok.

5,2 proc., co związane jest m.in. z wprowadzeniem nowych technologicznych rozwiązań. Dr Kalliwoda zauważa też, że ta forma reklamy staje się coraz atrakcyjniejsza dla wielu firm, bo daje więcej możliwości np. w porównaniu z nośnikami drukowanymi, które są w dodatku bardzie czasochłonne. Warto też wspomnieć, że w marcu tego roku Grupa IMS poinformowała, że podpisała list intencyjny dotyczący kupna 90 proc. udziałów w brytyjskiej spółce Pixel Inspiration Holdings Limited, która zajmuje się usługami reklamowymi w systemie Digital Signage. Jej klientami są m.in.: Tesco, L’Oreal, Thomas Cook, Toyota, Links of London, Adecco, AmericanAirlines, Clarks, Giorgio Armani, Heineken, Manchester Airport, Yves Saint Laurent.


BIZNES – Potencjalne przejęcie ma na celu znaczące zwiększenie skali prowadzonej działalności oraz osiąganych wyników finansowych przez grupę kapitałową IMS. Ponadto, w ocenie emitenta, pozyskanie spółki Pixel mogłoby znacząco zdynamizować międzynarodowy rozwój usług Grupy IMS, w tym umożliwić szerokie dotarcie na rynek brytyjski – napisała firma w komunikacie giełdowym.

Rośnie zainteresowanie ekranami dotykowymi, które wprowadzają element interakcji z klientem W POLSCE TO JESZCZE NOWOŚĆ Piotr Badowski, założyciel polskiej firmy Nanovo, która specjalizuje się we wdrażaniu rozwiązań w obszarze Digital Signage, podkreśla jednak, że w Polsce to ciągle jeszcze wschodząca dziedzina usług biznesowych. Zaawansowane rozwiązania dostępne są u nas – na dobrą sprawę – dopiero od około 2-3 lat.

Adam Kaczmarek, Technical Product Manager, ViDiS SA Monitory to naturalna droga rozwoju, jeżeli chodzi o dystrybucję informacji w biznesie. Wszelkiego rodzaju totemy, infokioski czy nawet pojedyncze monitory z powodzeniem zastępują „analogowe” metody dostarczania informacji w postaci ulotek, katalogów, tablic kredowych czy drukowanych menu. Z naszych obserwacji wynika, że biznes najczęściej wykorzystuje monitory do prezentacji przedsiębiorstwa i oferty, a w szczególności aktualnych promocji. W restauracjach sprawdzają się cyfrowe menuboardy. Monitory interaktywne znajdują zastosowanie wszędzie tam, gdzie przyda się

pomoc w odnalezieniu konkretnego produktu czy informacji. Rynek DS (zwłaszcza instalacje z pojedynczymi monitorami) wciąż opiera się na rozwiązaniach Full HD. Jednak warto zauważyć, że 4K/UHD coraz mocniej puka do drzwi, zwłaszcza jeśli chodzi o większe rozmiary monitorów. Tutaj oferta ViDiS SA ma przewagę w postaci monitorów Toshiba. Nowa, budżetowa seria – TD-E3 – w której wszystkie rozmiary powyżej 55” posiadają rozdzielczość 4K/UHD, nie odstając cenowo od odpowiedników wyposażonych w matrycę Full HD. Coraz popularniejsze stają się również ściany wideo, zwłaszcza, że coraz częściej to kompletne rozwiązania. Weźmy za przykład nową serię monitorów do ścian wideo od Toshiby – TD-Y. Seria ta posiada DisplayPort z funkcją daisy chain – wystarczy podłączyć źródło do pierwszego monitora i przyłączyć kolejne, aby mieć gotową ścianę wideo. Pozwala to zaoszczędzić na dedykowanych odtwarzaczach Digital Signage do budowy takich ścian. Dodatkowo wbudowane funkcje wspierające konfiguracje ściany wideo pozwalają dostosować ustawienia do wymogów konkretnej realizacji. Dzięki ścisłej współpracy ViDiS SA i Toshiba każdy reseller może uzyskać wsparcie zarówno przy projektowaniu rozwiązania, jak i wdrożeniu. Monitory DS to korzyści dla obu stron – dla integratorów to okazja do zarobku ze sprzedaży i wdrożenia rozwiązania, dla klienta końcowego – uzyskanie prostego w obsłudze, uniwersalnego i nowoczesnego rozwiązania.

ZALETY DIGITAL SIGNAGE n Skuteczność przekazu dynamicznego jest

dużo większa niż reklamy statycznej,

n Pozytywne skojarzenie z nowoczesnością

i postępem technologicznym,

n Ł atwość obsługi systemu, do której

wystarczy tylko komputer z przyłączem do Internetu,

n Szybkość publikacji – możliwość

reagowania na czynniki zewnętrzne w czasie rzeczywistym, informacja może być wyemitowana w ciągu kilku minut po dostarczeniu materiału,

n Możliwość ciągłej aktualizacji przekazu, n Elastyczność – system może przekazywać

dowolne treści o dowolnej porze dnia, a każdy z wyświetlaczy może wyświetlać inne materiały,

n Oszczędność czasu i kosztów

w przygotowaniu materiałów reklamowych i ich dystrybucji w porównaniu do materiałów w formie papierowej.

21

eseller News


BIZNES

Iwona Prozorowicz, Key Account Manager, Digital Signage & Hospitality Displays, ACTION SA Digital Signage (DS) to rozwiązanie mające zastosowanie w niemal każdym sektorze, w którym ważne jest dotarcie z informacją do odbiorcy. W handlu służą jako nośnik reklamy. Na dworcach i lotniskach pełnią ważną funkcję informacyjną. W restauracjach, kinach, muzeach czy hotelach

Bartłomiej Płuciennik, Dyrektor Handlowy w Polsce, NEC Display Solutions Obecnie największym zainteresowaniem dostawców rozwiązań do wyświetlania obrazu w sektorze Digital Signage cieszą się ściany wideo złożone z monitorów bezramkowych lub charakteryzujących się bardzo niewielką ramką ekranu. To właśnie tego typu wyświetlacz jest najbardziej atrakcyjną formą wizualnej komunikacji z klientem. Dzięki konkurencyjnej cenie i wysokim możliwościom,

22

eseller News

łączą obie te funkcje, wyświetlając zarówno treści informacyjne, jak i reklamowe. Zastosowań Digital Signage jest naprawdę wiele, dlatego resellerzy i integratorzy powinni silnie zaangażować się w ich sprzedaż. Rynek DS w ostatnich latach rośnie bardzo dynamicznie, dzięki czemu pozwala osiągnąć satysfakcjonujące marże. Wszystkich zainteresowanych rozwiązaniami Digital Signage zapraszamy do kontaktu z Action Business Center. W naszym portfolio posiadamy monitory wiodących producentów, takich jak Philips, NEC, Dahua, Benq, Asus, AG Neovo, o wielkości od 10” do 98”, w tym rozwiązania przeznaczone do pracy ciągłej 24/7 czy bezramkowe ekrany do budowania ścian wideo. Oprócz tego oferujemy monitory pyłoszczelne i płynoodporne, monitory interaktywne z dotykowymi ekranami oraz tzw. infokioski, czyli wolnostojące mobilne monitory informacyjne, a także projektory multimedialne. Mamy szeroką ofertę ekranów wewnętrznych i zewnętrznych wykonanych w technologii LED, które, w odróżnieniu od wyświetlaczy LCD, nie posiadają ograniczeń wielkości i formatu. Oferujemy także wszelkie elementy infrastruktury niezbędne do budowy kompleksowych rozwiązań w tej dziedzinie, dzięki czemu jesteśmy w stanie zaprojektować system DS „szyty na miarę”. jakie oferują ściany wideo, możemy mówić o swoistym hicie rynkowym. Oczywiście NEC nadal nie zapomina o instalacjach złożonych ze standardowych wyświetlaczy i wkrótce zaprezentuje nową serię monitorów przeznaczonych do zoptymalizowanych budżetowo instalacji NEC MultiSync C. Monitory te łączyć będą atrakcyjną cenę z wszystkimi profesjonalnymi funkcjonalnościami, które wymagane są w instalacjach DS. Ciekawostką są dynamicznie pojawiające się w instalacjach DS laserowe projektory o wysokiej jasności, które nie wymagają serwisowania i posiadają długi czas pracy (nawet do 35 000 godzin), dzięki czemu stanowią ciekawą alternatywę dla monitorów, pozwalając na zupełnie inną aranżację przestrzeni informacyjnej lub komunikacyjnej. Wdrożenie systemu DS daje partnerowi możliwość generowania zysków na wielu płaszczyznach. Po pierwsze, sprzętowej: NEC stara się zapewnić możliwie najwyższy poziom zysku na sprzedaży samego sprzętu. Ale możliwości biznesowych jest więcej. Standardem jest obecnie to, że partner zarabia na dodatkowych usługach i obsłudze serwisowej. Może tworzyć i dostarczać kontent DS, zapewniać aktualizację oprogramowania DS oraz serwisować sprzęt – możliwości jest wiele, co może istotnie podnieść zyskowność projektu.

– Mając na uwadze transformację cyfrową większości biznesów, szczególne zainteresowanie możemy zauważyć w sektorach: finansowym, usługowym, sprzedaży detalicznej – tam, gdzie kontakt z klientem końcowym jest najważniejszy i większość decyzji zakupowych podejmowana jest w miejscu sprzedaży – mówi Piotr Badowski. Przytacza dane z ostatnich badań, z których wynika, że 60 proc. klientów (Raport z badań rynku Digital Signage, Asus 2016) chętniej odwiedza punkty sprzedaży wyposażone w nośniki cyfrowe, ponieważ prezentowane na nich treści są dynamiczne i bardziej atrakcyjnie niż konwencjonalne metody komunikacji.

Klienci coraz częściej doceniają znaczenie dynamicznych treści, które dla odbiorcy są bardziej atrakcyjne. – Ponadto Digital Signage stał się niezbędnym elementem strategii omnichannelowej, ale powinien być w pełni profesjonalnie wykorzystany, dlatego doradzamy zarówno polskim, jak i globalnym firmom w obszarze Customer Experience. Najczęściej wybierane są ekrany zewnętrzne z uwagi na ich wszechstronne zastosowania, wideościany z racji dużej przestrzeni prezentacyjnej i awangardowych form oraz witryny ekspozycyjne, z których korzysta większość punktów sprzedaży. Coraz częściej widzimy też zainteresowanie ekranami dotykowymi, które wprowadzają element interakcji z klientem – wymagają bowiem od niego większego zainteresowania, ale dzięki temu zdobywamy jeszcze więcej przydatnych informacji – tłumaczy Piotr Badowski. DYNAMICZNE TREŚCI SĄ BARDZIEJ ATRAKCYJNE Według niego wysoka skuteczność kampanii social mediowych oraz wdrożeń Digital Signage wynika ze wzrostu popularności treści wideo. Klienci coraz częściej zaczynają doceniać znaczenie dynamicznych treści, które dla potencjalnego odbiorcy są zwyczajnie bardziej atrakcyjne. Piotr Badowski zwraca też uwagę, że spe-


BIZNES cyfika polskiego rynku Digital Signage ma bardzo klasyczną strukturę, ponieważ w większości rozwiązania digital oferowane są przez producentów, integratorów czy firmy stricte handlowe. Jednak wyłoniła się już czołówka polskich firm, która poszła kilka kroków dalej i oferuje dziś zaawansowane rozwiązania z zakresu Customer Experience Management. – Mówimy tutaj o kompleksowym zarządzaniu procesem transformacji cyfrowej nie tylko w obrębie obsługi klienta, ale i całej organizacji. Jak doskonale wiemy, większość utożsamia transformację digitalową z ekranem – a jest to wyłącznie jeden z elementów zaawansowanej technologii, która łączy świat offline z online. Mamy świadomość, że na rynku przetrwają wyłącznie gracze o wysokich kompetencjach, dla których integracja technologiczna nie stanowi problemu, ale punkt wyjścia do dalszego rozwoju – podkreśla założyciel Nanovo. Tym niemniej, w jego opinii przekonanie o słuszności stosowania Digital Signage jako wyjątkowego kanału komunikacji w Polsce mają na razie nieliczni. Aby to zmienić, według Piotra Badowskiego,

Paweł Ruman, Country Sales Manager Poland – AOC & Philips LCD Monitors

W stosunku do roku 2015 aż o 40 proc. wzrosła w Polsce sprzedaż modeli o przekątnych powyżej 24”. Podobnie prezentuje się sytuacja w przypadku rozdzielczości. Modele Quad HD (2560 x 1440 pikseli) oraz 4K (3840 x 2160 pikseli) sprzedają się

coraz lepiej, jednak na ich popularyzację trzeba jeszcze poczekać. Użytkownicy dostrzegają zalety wynikające z użytkowania monitorów o wyższych rozdzielczościach oraz o większych przekątnych. Na takich monitorach można przedstawić większą ilość danych przy zachowaniu dobrej czytelności. Czy to w przypadku pracy w programach graficznych, czy zastosowań związanych z monitoringiem. Najpowszechniejsze przekątne w przypadku rozdzielczości 4K to 27” oraz 32”. Szczególnie dobrze sprawdza się ostatnia kombinacja, gdyż obszar roboczy jest bardzo duży, a obraz w dalszym ciągu szczegółowy. Wartym uwagi standardem jest też coraz powszechniejszy format ekranu o proporcjach 21:9 (rozdzielczości 2560 x 1080 pikseli oraz 3440 x 1440 pikseli). Jest on szczególnie przydatny dla ekspertów z sektora bankowego i finansowego oraz montażystów filmowych. Dzięki szerszej niż standardowa przestrzeni roboczej zwiększają efektywność tego typu pracowników. Na horyzoncie widać już monitory o rozdzielczości 8K, jednak tak jak w przypadku każdej nowinki technologicznej, ze względu na cenę, na początku będą dostępne dla wąskiego grona odbiorców.

ç

SPRAWDŹ GO W SWOJEJ FIRMIE!

LEASING NOWOCZESNY To odpowiedź na zmieniający się biznes!

www.leasingnowoczesny.pl


BIZNES ç niezbędna jest zmiana sposobu myślenia nie tylko pracowników, ale decydentów i zarządów firm o trwającej transformacji cyfrowej. Ci, którzy nie zrozumieją sensu wprowadzania zmian z wykorzystaniem technologii, nie będą mogli nie tylko mówić, ale i marzyć o sukcesie. Z biegiem czasu zostaną wyparci przez innowatorów, którzy doskonale rozumieją potrzeby nowoczesnych klientów.

Adam Bieniewski, Marketing Manager CEE, Sharp Electronics Europe Monitory Digital Signage to obszar, w którym widzimy największy potencjał rozwoju i innowacji dla naszych partnerów biznesowych. Rosnący rynek handlu detalicznego oraz coraz większa konkurencja sprawiają, że jakość obrazu i realizm odwzorowanie produktów ma naprawdę ogromne znaczenie. Takie wyświetlacze otaczają nas każdego dnia i przy wykorzystaniu inteligentnego oprogramowania dynamicznie zmieniają wyświetlane treści. Jednym z trendów towarzyszących rozwojowi Digital Signage jest duża liczba dostępnych tanich rozwiązań. Większość resellerów jest w związku z tym w stanie sprzedawać takie urządzenia jedynie przy wykorzystaniu argumentu cenowego. Sharp zdecydowanie wyróżnia się na tym tle, mogąc oferować nie tylko świetną cenę, ale lepsze odwzorowanie barwy, wyższą jakość pikseli – Klienci poza szybką i profesjonalną obsługą oczekują personalizacji, czyli nie lubią być traktowani jako „grupa”. Czasy grupowych zakupów mamy dawno za sobą, chcemy czuć się wyjątkowo i nadeszły czasy personalizacji komunikatów. W tradycyjnych formach reklamy nie jest to możliwe ze względu na zbyt wysokie koszty budżetów marketingowych. Natomiast digital jest bardzo wszechstronny, 24

eseller News

pozwala integrować wiele funkcjonalności – co za tym idzie – korzyścią dla klienta jest jego pełna identyfikacja, zarówno pod kątem zwyczajów zakupowych, jak i preferencji. Nie będzie musiał kolejny raz opowiadać, co lubi i czego potrzebuje, ponieważ będziemy znali te informacje już wcześniej. To jest przyszłość w obsłudze klienta, w której główną rolę odgrywają wspomniane przeze mnie czyni legendarną już niezawodność. Wielkość też ma znaczenie. Już 1,5 roku temu podczas ISE w Amsterdamie prezentowaliśmy Digital Signage jutra – 2 x 80-calowe wyświetlacze umieszczone side-by-side, czy 140-calowy telebim o rozdzielczości 8K wykorzystujący cztery wyświetlacze PN-H701. Szczególnie dużym zainteresowaniem polskich firm cieszą się również pojemnościowe ekrany dotykowe (BIG PAD), które zapewniają nie tylko wspaniały efekt wizualny, ale także interaktywną przestrzeń roboczą do zastosowań biznesowych. Takie monitory mają do 10 punktów dotyku i umożliwiają łączność bezprzewodową nawet z 50 urządzeniami mobilnymi. Współdzielenie informacji jeszcze nigdy nie było tak proste i intuicyjne. W tym samym czasie po ekranie mogą pisać nawet cztery osoby. Warto podkreślić, że proces jest bardzo przyjemny i naturalny. Dotychczasowe monitory dotykowe były skonstruowane tak, że matryca, na której wyświetlano obraz był poprzedzony szybą odporną na uszkodzenia, pomiędzy matrycą a szybą była przestrzeń, która powodowała, że trudno było o precyzyjny dotyk i trafienie we właściwy punkt. Zastosowana w monitorach Sharp technologia Direct Optical Bonding eliminuje wyżej wspomniany problem paralaksy i sprawia, że wrażenie pisania jest takie jak na kartce. Albo jak na dużym tablecie. Klienci oczekują coraz więcej nie tylko od producentów, ale i od resellerów. Poszukują rozwiązań, które nadążą za ich potrzebami biznesowymi i będą wsparciem. Łącząc to, co jest możliwe i popularne dziś z wieloma innowacjami niedostępnymi nigdzie indziej, wierzymy, że jest to najlepsza możliwa oferta, jaką nasi partnerzy biznesowi mogą przedstawić swoim klientom. niki – wszechstronność, szybkość, jakość obsługi oraz personalizacja – przekonuje Piotr Badowski. Dlatego też Nanovo, jako pierwsza firma w Polsce, otworzyła profesjonalny LAB, w którym opracowuje rozwiązania wspólnie ze swymi klientami. Według Nanovo wyższość LAB-u nad popularnymi rozwiązaniami showroom’u polega głównie na możliwości swobodnej kreacji,

a nie wyłącznie prezentacji przysłowiowych ekranów. Firma angażuje w proces tworzenia zespół ekspertów i wspólnie ze swymi klientami projektuje różne rozwiązania dla różnych branż i sektorów rynku. – Nie traktujemy procesu tworzenia jak „zwykłej” sprzedaży, ponieważ nasze koncepcje bywają bezcenne. Budujemy nasze know-how w obrębie Digital Customer Experience i możemy uznać to za naszą główną kompetencję. Współpracujemy nie tylko z największymi, ale również z innowatorami i mikroprzedsiębiorstwami, dla których wizja cyfrowej transformacji jest wpisana w strategię rozwoju – tłumaczy Piotr Badowski.

Rynek systemów Digital Signage ma olbrzymi potencjał rozwoju. TO NIE PRODUKT SZABLONOWY Według niego reseller to sprzedawca gotowych rozwiązań ograniczonych pod kątem funkcjonalności, szablonowych, wręcz sztampowych. A Nanovo podniosło już poprzeczkę znacznie wyżej, ponieważ ma kompetencje w pełnym zakresie od analizy przez wdrożenie do utrzymania sieci. Na początku tego roku firma wydała drugą wersję autorskiego oprogramowania Signio S2,o który ubiegają się już światowi gracze. – Chcą z nami współpracować, co świadczy o tym, że musimy jeszcze przyspieszyć na globalnym rynku – podkreśla Piotr Badowski. Także członkowie Global Technology Distribution Council uważają, że resellerzy oferujący rozwiązania zakresu Digital Signage zapewne będą potrzebować większego wsparcia w tworzeniu treści czy instalacji systemów. W raporcie „Insights Into 2017” przewidują stabilny wzrost rynku Digital Signage. Technologia ma znaleźć zastosowanie w nowych branżach, co przełoży się na dalsze poszerzanie kanału B2B. Innowacyjne rozwiązania oferowane przez producentów mogą zwiększać popularność systemów i przekonywać kolejnych przedsiębiorców do inwestycji. Większe znaczenie ma mieć również oferowanie dodatkowych usług resellerom i integratorom, wspiera-


BIZNES nie ich przy tworzeniu kontentu i instalacji systemów. – Rynek systemów Digital Signage ma olbrzymi potencjał rozwoju. Są one stosowane w coraz większej liczbie branż, w których przedsiębiorstwom zależy na łatwiejszej, cyfrowej komunikacji z klientem. Najbliższe miesiące powinny przynieść dalszy wzrost. Niższe ceny i większa dostępność rozwiązań sprawiają, że nie tylko największe firmy, ale też te z sektora MSP, zaczynają interesować się monitorami wielkoformatowymi i decydować na zastosowanie ich w konkretnych celach. Przedsiębiorcy przekonują się do Digital Signage, odkrywając jego zalety,

JAKICH NOWOŚCI W DIGITAL SIGNAGE MOŻEMY SIĘ SPODZIEWAĆ W PRZYSZŁOŚCI (WEDŁUG NANOVO) 1. Inteligentna sprzedaż – w świecie biznesu nadal funkcjonuje powiedzenie – czas to pieniądz, dlatego spodziewane są inwestycje w automatyzacje procesów sprzedaży, a w szczególności w cyfrowego sprzedawcę. Popularne ekrany będą współpracować z kamerami, urządzeniami mobilnymi, aplikacjami, które będą zbierać jak najwięcej danych w celu maksymalizacji satysfakcji klienta. Będziemy obsługiwani zgodnie z naszymi preferencjami, możliwościami finansowymi czy obecnym stanem zdrowia, dzięki szybkiemu przetwarzaniu informacji w miejscu docelowym w zaledwie kilka minut. 2. Technologia dla personalizacji – Digital Signage będzie poprawiał wydajność procesów poprzez personalizację przekazu. Mając szczegółowe dane o kliencie, systemy będą w stanie przygotować ofertę specjalną w oparciu o analizę osobowości klienta. Gdy klient wejdzie do sklepu, „z automatu” otrzyma ofertę zgodną z jego potrzebami, a elektroniczny asystent wygłosi osobiste powitanie. 3. Zaawansowany Customer Experience – Digital Signage będzie niezbędnym narzędziem do analizy procesu obsługi klienta. Dlatego kluczowe będzie uzyskanie maksymalnej wydajności pod kątem doboru nośnika i wyświetlanej treści. Będzie bardzo kosztownym procesem, ale prawidłowo wdrożony zwróci się wielokrotnie. 4. Samodzielny Digital Signage – Ekrany będą pełnić funkcje komunikatorów i asystentów pierwszego kontaktu z wyłączeniem bezpośredniej obsługi klienta. Jeżeli będzie potrzebował szamponu do włosów, asystent wskaże najlepszy, czy jak będzie oczekiwał na taksówkę, wskaże rekomendowane miejsce do odwiedzenia. Analiza preferencji, oczekiwań czy emocji, a nawet myśli klienta będzie na porządku dziennym.

Krzysztof Krupski, Business Unit Manager, AB SA Przede wszystkim należy pamiętać, że ekrany to tylko jeden z elementów całej instalacji, chociaż nie da się ukryć, że najbardziej widoczny. System Digital Signage – jak nazwa wskazuje – to jest całość, jeden system. Poza samymi ekranami kryje się w nim cała infrastruktura sieciowa oraz dystrybucja sygnałów sterujących i audio-wideo. Począwszy od okablowania LAN poprzez urządzenia aktywne, konwertery, transmitery po nowoczesne rozwiązania transmisji obrazu bezprzewodowo. Szczególnie istotnym elementem jest wdrożenie i instalacja całego systemu i infrastruktury mu towarzyszącej. O jakości tego procesu decyduje właściwe dobranie sprzętu i softu oraz profesjonalny montaż i zarządzanie systemem. To wszystko wpływa na odpowiednie zadowolenie klienta i biznesową efektywność rozwiązania. Aby reseller mógł zarobić na wdrożeniu DS, potrzebuje przede wszystkim wykreować u klienta jak: prosta obsługa, oszczędność kosztów w porównaniu do tradycyjnych, papierowych form reklamy czy elastyczność. Dzięki nowym technologiom, jak cloud i IoT, mogą szybciej i łatwiej wdrażać rozwiązania Digital Signage i czerpać z nich większe korzyści, co też wpływa na wzrost sprzedaży. Regularnie rośnie popyt na modele o większej przekątnej paneli – to stała tendencja na rynku, którą widać od dłuższego czasu. Największą popularnością cieszą się sprawdzone rozwiązania, choć obserwujemy też wzrost zainteresowania nowymi technologiami. Integratorzy szukają dla swoich klientów ciekawszych i bardziej nietypowych rozwiązań, które pomogłyby im się wyróżnić – komentuje te trendy Maciej Materna, Digital Signage Business Development Manager w ABC Data.

potrzebę posiadania instalacji DS. Technologie cyfrowego, ruchomego, wizyjnego przekazu dużo mocniej i szybciej oddziałują na klientów. Należy pokazywać zalety zastąpienia plakatu w kinie monitorem LFD ze zmienną treścią, ruchomego menuboard z „dymkiem pachnącego posiłku”, sali konferencyjnej ze ścianą LFD vs ekran ze standardowym urządzeniem do projekcji obrazu, zainteresować systemem wewnętrznej komunikacji współpracujące z firmowym CRM. Sprzedawanie systemu Digital Signage to oferowanie nowej jakości i inwestycja w przyszłe zyski dzięki sprawnej informacji i lepszemu dotarciu do klienta. Oczywiście niezbędna jest wiedza techniczna, odpowiedni zespół osób, które będą w stanie zająć się instalacją oraz zagwarantować wsparcie posprzedażowe. Ważny jest też odpowiedni dobór komponentów, wybór właściwego oprogramowania do tworzenia i dystrybucji treści. Kluczowa dla resellera jest umiejętność połączenia kilku (do niedawna) odrębnych dziedzin – systemy audiowizualne, sieci komputerowe, serwery, oprogramowanie. System Digital Signage jako całość wymaga ogromu pracy począwszy od pomysłu poprzez projekt, instalację, wdrożenie i uruchomienie. Każdy bowiem projekt DS jest inny i do każdego trzeba podchodzić zupełnie inaczej. Najbardziej rentowne są instalacje kompleksowe. Integrator jest wtedy odpowiedzialny zarówno za dobór oferty, integrację, instalację wszelkich komponentów. Najczęściej też stanowi wsparcie posprzedażowe w przypadku ingerencji serwisowych i aktualizacyjnych. Dodatkowo niemal każdy system DS wymaga odpowiednio przygotowanych treści – i tutaj pole do popisu mają agencje marketingowe idące z duchem czasu i nie bojące się tworzyć coś nowego, innego niż plakat. Zauważa on, że rynek systemów Digital Signage nieustannie ewoluuje. Jeszcze kilka lat temu sama obecność ruchomych obrazów reklamowych mogła przyciągać uwagę. Obecnie coraz ważniejsza jest interaktywność i wykorzystanie możliwości Internetu rzeczy oraz chmury w celu zaangażowania odbiorcy i dopasowania do niego przekazu. Przedsiębiorcy korzystają z atutów takich rozwiązań, by wysyłać zindywidualizowane, ukierunkowane komunikaty, ale też zdobywać przydatne informacje o odbiorcach. – Być może w kolejnych miesiącach będziemy świadkami pierwszych kroków w kierunku Augmented i Virtual Reality, a więc technologii dalej zwiększających możliwości komunikacyjne firm – prognozuje Maciej Materna. n 25

eseller News


NEC – profesjonalne rozwiązania Digital Signage Digital Signage przestało być pojęciem stosowanym w bardzo wąskim gronie najbardziej nowatorskich rozwiązań reklamowych. Dzisiaj komunikacja cyfrowa obecna jest praktycznie w każdym miejscu: w pracy, na zakupach, gdy wypoczywamy, podróżujemy, albo załatwiamy formalności urzędowe. Ekran cyfrowy przekazujący nam informacje jest powszechny jak ulotka czy baner reklamowy dając o wiele większe możliwości niż te tradycyjne formy reklamowe czy informacyjne. Nie ulega wątpliwości, że przekaz cyfrowy to nasza przyszłość, a branża Digital Signage ma przed sobą ciągłe perspektywy rozwoju. NEC Display Solutions proponuje wiele rozwiązań uszytych na miarę nowoczesnego systemu DS. Ofertę NEC w kontekście Digital Signage można podzielić na cztery główne grupy: nośniki, playery, oprogramowanie oraz akcesoria. Przy czym nośniki rozumiane są jako: monitory, projektory, moduły LED oraz wielomonitorowe ściany wideo. Grupę playerów stanowią: player OPS oparty na Androidzie, komputer Raspberry Pi dedykowany do nowoczesnych monitorów z serii MultiSync V oraz MultiSync P oraz szeroki wybór komputerów SBC 26

eseller News

w standardzie OPS z procesorami od Intel Celeron do Intel i7, które zintegrować można praktycznie z każdym monitorem wielkoformatowym NEC. Wśród produktów software’owych NEC oferuje zarówno proste oprogramowanie

DS (na playerze Android), jak i software biometryczny Field Analyst. Producent posiada również w ofercie oprogramowanie middle-ware, dedykowane do koordynacji pracy różnego rodzaju sensorów z systemem DS w celu uzyskania kontekstowego przekazu DS (Leaf Engine) oraz oprogramowanie Hiperwall, które umożliwia zarządzanie treścią na dużych ścianach wideo. Ostatnią grupę stanowią akcesoria, w tym głównie uchwyty montażowe, ale również nakładki dotykowe, szyby i obudowy ochronne, totemy DS, różnego rodzaju akcesoria możliwe do integracji z monitorem dzięki slotowi OPS (np. karty HD-SDI).


OKIEM KLIENTA

Bez wątpienia, najbardziej powszechnym nośnikiem Digital Signage jest obecnie monitor wielkoformatowy. NEC Display Solutions rozwija swoją ofertę w tym zakresie już od ponad 17 lat! Seria E (Entry) to najbardziej podstawowa seria przeznaczona do pracy w trybie 12/7, stanowiąca doskonałą alternatywę dla nieprzystosowanych do instalacji DS telewizorów. Monitory te wyróżniają się jakością obrazu i lekką prostą konstrukcją. Kolejna seria V (Value) oferuje naprawdę wiele! Profesjonalny panel z możliwością pracy 24h/7, metalowa obudowa, możliwość replikowania sygnału wideo, gniazdo rozszerzeń zgodne ze standardem OPS, możliwość sprzętowej kalibracji kolorów, możliwość pracy w pionie, czy zaawansowany system ochrony przed przegrzaniem. Monitory te pozwalają również na integrację poprzez specjalne gniazdo komputera Raspberry Pi, który stanowić może doskonałą platformę sprzętową dla oprogramowania reklamowego. W serii P (Professional) przeznaczonej do pracy 24h/7 znajdziemy niespotykane nigdzie indziej technologie jak: czujnik obecności użytkownika, czy czujnik NFC, a także specjalnie selekcjonowane panele pod względem ich jakości i równomierności podświetlenia. Monitory te posiadają podobnie jak seria V możliwość zintegrowania z urządzeniem zgodnym ze standardem OPS, ale również z komputerem Raspberry Pi.

Seria UN (Ultra Narrow) to z kolei monitory do budowy ścian wideo. Wąska ramka ekranu pozwala osiągnąć przestrzeń nieaktywną między dwoma monitorami jedynie 1.8mm! Monitory te posiadają możliwość pracy 24h/7 i pozwalają tworzyć praktycznie nieograniczone wielkościowo ściany wideo. NEC jako jedyny producent oferuje monitory do budowy ścian wideo zarówno z panelami IPS oferującymi lepsze kolory, a także wyposażone w technologię PVA, która lepiej sprawdza się w bardziej wymagających instalacjach. Seria specjalistyczna HB (High Brightness) obejmuje monitory o ultra wysokiej jasności, przeznaczone do instalacji w mocno oświetlonych miejscach, takich jak witryny sklepowe. Monitory te posiadają dodatkowo podwyższoną odporność na temperaturę – funkcjonalność konieczną w miejscach narażonych na bezpośrednią ekspozycję słoneczną. Seria specjalistyczna UHD (Ultra High Definition) obejmuje monitory wyświetlające obraz w rozdzielczości 3840 x 2160 pikseli z niespotykaną dotychczas jakością i dbałością o precyzyjne odwzorowanie kolorów. Monitory te wyposażone zostały w silnik graficzny zaczerpnięty bezpośrednio z monitorów graficznych i medycznych. Modele te przeznaczone są dla najbardziej wymagających klientów. W portfolio NEC znajdziemy również wielkoformatowe monitory dotykowe bazujące na technologii Multi Touch oraz Shadow Sense. Te dwie technolo-

gie dotyku ingerowane są przez NEC z najbardziej profesjonalnymi monitorami z serii V, P, UHD. Jednak systemy DS to nie tylko instalacje bazujące na monitorach. Coraz częściej do zastosowań DS wykorzystywane są również projektory. Zwykle są to urządzenia o krótkim i ultrakrótkim dystansie projekcji lub zaawansowane projektory instalacyjne. To właśnie projektory umożliwiają projekcję w dół, czy do góry lub wyświetlanie obrazu w nietypowym formacie lub o bardzo wysokiej jasności.

Więcej: www.nec-display-solutions.pl

27

eseller News


TECHNOLOGIE

Przyszłość IT Stefan Kaczmarek

all-in cloud?

Platformy cloud computing początkowo były tylko poligonem doświadczalnym dla przechowywania i przetwarzania danych na odległość. Chmura przeszła długą drogę zanim pojawiła się na dobre w środowisku IT i stała się kluczowym jego elementem dzisiaj. Po 10 latach jej funkcjonowania należy się spodziewać, że będzie wdrażana na jeszcze szerszą skalę – uważają analitycy Gartnera w raporcie „Predicts 2017: Cloud Computing Enters its Second Decade”. Chmurą coraz bardziej interesują się też mniejsze firmy. Niewątpliwie, nowego podejścia, automatyzacji i dalszego doskonalenia wymaga zabezpieczanie platform cloud computing.

W

swoim pierwszym 10-leciu chmura powodowała rewolucyjne zmiany w IT, natomiast można oczekiwać, że druga dekada będzie dla niej okresem dojrzewania. Przez ostatnie 10 lat model cloud computing zmienił oczekiwania i możliwości działów IT, a obecnie jest niezbędnym katalizatorem innowacji w firmach. Choć wokół przetwarzania w chmurze nadal powtarzane są pewne mity i uprzedzenia, to w miarę jak technologia ta dojrzewa, sprzeciw wobec niej stopniowo maleje. – Wkraczając w swoją drugą dekadę, cloud computing coraz częściej staje się wehikułem dla cyfrowego biznesu no-

28

eseller News

W Europie dominuje hybrydowy model chmury, a pamięć masowa i tworzenie kopii zapasowych to najczęstsze zastosowania chmury.

wej generacji, jak również dla wydajnych, skalowalnych i elastycznych rozwiązań – przekonuje David Mitchell Smith, wiceprezes Gartnera. – CIO i inni liderzy IT muszą stale dostosowywać swoje strategie, aby wykorzystywać możliwości chmury. IMPERATYW ALL-IN CLOUD: WSZYSTKO W CHMURZE Jeszcze nie jest za późno, żeby rozpocząć tworzenie mapy rozwoju uwzględniającej przyszły model all-in cloud. Do 2020 r. strategie „tylko cloud” (only-cloud) staną się normą. W ponad 30 proc. dużych przedsiębiorstw, w ramach podejmowania nowych inicjatyw IT, wdrażanie rozwiązań innych niż chmurowe będzie


TECHNOLOGIE

wymagać uzasadnień – taką wizję chmurowej przyszłości prognozują analitycy Gartnera. W ciągu ostatniej dekady model chmurowy dojrzewał na kilku frontach. Obecnie z większości analiz wynika, że mainstreamowy cloud computing jest bardziej bezpieczny niż przechowywanie i przetwarzanie danych we własnych centrach danych i serwerowniach. Usługi w chmurze są coraz częściej funkcjonalnie kompletne, a producenci oferują różne opcje migracji. Co ważne, innowacje szybko przenoszą się do chmury, wielu dostawców już na etapie projektowania swoich produktów i rozwiązań uwzględnia funk-

Choć wokół przetwarzania w chmurze nadal powtarzane są pewne mity i uprzedzenia, to w miarę jak technologia ta dojrzewa, sprzeciw wobec niej stopniowo maleje. cje cloud computing oraz innowacje technologiczne i biznesowe dostępne tylko w ramach usług chmurowych, takie jak na przykład Internet rzeczy czy sztuczna inteligencja (AI – artificial intelligence).

W miarę rosnącej presji na „przeprowadzkę do chmury”, coraz więcej organizacji w swoich strategiach rozwoju uwzględnia cloud computing. Należy jednak pamiętać, że nie wszystkie projekty mogą zostać oparte na usługach chmurowych ze względu na kwestie bezpieczeństwa lub regulacje prawne, a nawet pieniądze, które wcześniej zostały zainwestowane we własną infrastrukturę i projekty IT. Ponadto, w przypadku niektórych przedsiębiorstw może zabraknąć dostatecznych umiejętności i wiedzy do obsługi hybrydowych środowisk – przestrzegają eksperci Gartnera. Do 2021 r. ponad połowa przedsiębiorstw na świecie korzystających już dzisiaj z chmury, wdroży strategię „wszystko w chmurze” (all-in cloud). Kluczem do strategii all-in cloud nie jest podejście typu „weź i przenieś” (lift and shift) zasoby z własnego centrum danych. Przedsiębiorstwa powinny umieć ocenić, które aplikacje z ich centrum danych można zastąpić modelem SaaS (Software as a Service), zmienić ich kod lub przebudować. Tak czy inaczej strategia wszystko w chmurze („all-in cloud”) będzie miała dużo większy wpływ na IT niż dotychczas stosowane podejście: „najpierw chmura” (cloud first) czy „tylko chmura” (cloud only). Przedsiębiorstwa, które zdecydowały się na przeniesienie wszystkich swoich zasobów do chmury, raczej nie będą wracać do tradycyjnych centrów danych z własną infrastrukturą – prognozuje Gartner i zaleca: przedsiębiorstwa powinny zacząć tworzyć mapy rozwoju swojej strategii cloud, a przesunięć zasobów metodą lift and shift dokonywać tylko w razie potrzeby, np. w ramach działań na rzecz konsolidacji centrów danych. Przewiduje się, że w 2019 r. globalne wydatki na model IaaS (Infrastructure as a Service) wyniosą 28 mld USD, czyli o 155 proc. więcej niż w 2015 r.

EUROPA PREFERUJE HYBRYDOWĄ CHMURĘ W Europie dominuje hybrydowy model chmury, a pamięć masowa i tworzenie kopii zapasowych to najczęstsze zastosowania chmury – oto główne wnioski z ankiety przeprowadzonej w grudniu 2016 r. przez firmę Opinion Matters na zlecenie firmy NetApp wśród 750 dyrektorów ds. informatyki i menadżerów działów IT. Chmura hybrydowa jest rozwiązaniem stosowanym najczęściej – połączenia chmury prywatnej i publicznej używa ponad połowa respondentów. Ponad połowa uczestników ankiety jako główny powód wdrożenia chmury wskazała bezpieczeństwo danych, co wskazuje na wzrost zaufania do usługodawców chmurowych. Usług chmurowych używa się najczęściej do zastosowań związanych z pamięcią masową i kopiami zapasowymi.

WNIOSKI Z BADANIA NETAPP R espondenci preferują chmurę hybrydową, ale współpracują z różnego rodzaju partnerami. Preferowani są usługodawcy lokalni (tak wskazało 25 proc. respondentów). Mniej popularne są inne opcje, takie jak firmy działające w hiperskali (18 proc.) i więksi dostawcy usług w chmurze oraz globalni integratorzy systemów (17 proc.). Zaledwie 3 proc. respondentów twierdzi, że nie korzysta z żadnych usług w chmurze lub dopiero to planuje. nB ezpieczeństwo danych i chmura – dopasowana para. Ponad połowa respondentów (56 proc.) odpowiedziała, że bezpieczeństwo danych jest głównym argumentem przemawiającym za chmurą. Uczestnicy ankiety konsekwentnie wskazują je wśród trzech najważniejszych czynników motywujących do wdrażania chmury. Świadczy to o tym, że powierzanie danych usługodawcom chmurowym nie jest postrzegane jako zagrożenie. Respondenci wysoko cenią również elastyczność (55 proc.) i niższe koszty (54 proc.). nN ajważniejsze zastosowania chmury: pamięć masowa i kopie zapasowe. Pozostałe zastosowania to: przechowywanie plików, bazy danych, analityka, przywracanie systemów po awarii, praca zdalna, narzędzia do współpracy, SaaS. Najmniej popularnym zastosowaniem chmury okazała się kontrola nad dokumentami. n

– Z ankiety jasno wynika, że szefowie IT decydują się na chmurę, by zwiększyć sprawność operacyjną i innowacyjność swoich przedsiębiorstw. Rozwiązania chmurowe 29

eseller News


TECHNOLOGIE

pomagają uzyskać prostotę rozwiązania w dowolnej skali oraz bezpieczeństwo danych niezależnie od miejsca ich przechowywania – komentuje wyniki badania na temat rozpowszechnienia technologii chmury Maciej Bocian, Country Leader NetApp w Polsce. CZY CHMURA JEST BEZPIECZNA? Największe obawy przy migracji do chmury budzą kwestie bezpieczeństwa. Jednak według specjalistów Gartnera, bezpieczeństwa nie można już uznawać za główną przyczyny niechęci przedsiębiorstw do migracji do chmury publicznej, po-

Platformy cloud zwiększają elastyczność biznesu, umożliwiają lepszą kontrolę kosztów i szybki dostęp do nowych technologii.

nieważ poziom zabezpieczeń gwarantowany przez wiodących dostawców usług chmurowych jest równie dobry (a często nawet lepszy) niż w tradycyjnych centrach danych przedsiębiorstw. Zdaniem analityków, poziom zabezpieczeń zapewniany 30

eseller News

przez głównych dostawców usług chmurowych jest równie dobry, jeśli nie lepszy niż w większości własnych centrów danych przedsiębiorstw. Dlatego też bezpieczeństwa nie należy nadal traktować jako głównego czynnika hamującego wdrażanie usług w chmurze publicznej. Do 2020 r. organizacje, które będą przetwarzać swoje dane w chmurze publicznej w modelu IaaS doświadczą o co najmniej 60 proc. mniej incydentów naruszeń bezpieczeństwa niż te korzystające z tradycyjnych centrów danych – szacują przedstawiciele Gartnera. Chmura wymaga innego podejścia do kwestii bezpieczeństwa. Z pewnością nawyki i metody zabezpieczeń stosowane w tradycyjnych centrach danych (on-premise) nie sprawdzą się w przypadku informacji przechowywanych i przetwarzanych w chmurze – nie mają wątpliwości analitycy. Dostawcy usług cloud muszą poszukiwać lepszych i wydajniejszych środków ochrony swojej infrastruktury i usług świadczonych poprzez platformy chmurowe oraz zapobiegać powstawaniu słabych punktów i problemów ze zgodnością. Zastępowanie ludzkich interakcji technologiami uczenia maszynowego i sztucznej inteligencji to jeden ze sposobów eliminowania luk i zapobiegania włamaniom do chmury. Do 2018 r. 60 proc. przedsiębiorstw, które wdrożyły narzędzia zapewniające pełną widoczność infrastruktury chmurowej oraz narzędzia kontroli doświadczą o jedną trzecią mniej awarii wywołanych naruszeniami bezpieczeństwa, przewidują analitycy Gartnera.

CHMUROWE OBAWY O BEZPIECZEŃSTWO I UTRATĘ KONTROLI Platformy cloud zwiększają elastyczność biznesu, umożliwiają lepszą kontrolę kosztów i szybki dostęp do nowych technologii, ale największymi barierami dla adopcji tego modelu pozostają obawy związane z bezpieczeństwem i utratą kontroli nad systemami – wynika z raportu firmy analitycznej Frost&Sullivan „Navigating an Era of Global Digital Transformation – A Customer Perspective”. Migracja do chmury została wskazana jako jedno z trzech najważniejszych wyzwań IT w najbliższych latach przez 27 proc. respondentów uczestniczących w badaniu zrealizowanym przez Frost&Sullivan na grupie 1980 osób odpowiedzialnych za podejmowanie decyzji informatycznych w firmach z całego świata. Średnie i duże firmy zdecydowanie częściej uznają chmurę za swój priorytet w porównaniu z małymi przedsiębiorstwami. – Rynek technologii chmurowych, choć osiągnął już wysoką dojrzałość po stronie dostawców rozwiązań, wciąż wymaga dużej edukacji potencjalnych użytkowników. Większość małych firm w Polsce skupia się na najbardziej oczywistych i wydajnych z punktu widzenia sprzedaży projektach, nie zastanawiając się w ogóle nad korzyściami nowoczesnych, medialnie nagłośnionych technologii. Przebija tu kompleks niewielkiej skali: „Słyszałem o tym, ale takiej małej firmy jak moja, globalne trendy rynkowe na pewno nie dotyczą.” A to nieprawda! Chmura jest idealnym rozwiązaniem dla sektora MSP, dzięki niskiej barierze inwestycyjnej, dobrej kontroli kosztów w modelu „płać za to, z czego korzystasz”, skalowalności usługi zgodnie z popytem i możliwości szybkiego wypowiedzenia umowy dostawcy – przekonuje Marcin Grygielski, dyrektor regionalny na rynek Europy Środkowej i Wschodniej, Interactive Intelligence. KALKULATOR TCO MIGRACJI DO CHMURY Ile tak naprawdę pieniędzy można zaoszczędzić dzięki chmurze? To kluczowe pytanie zadaje sobie niemal każda firma, rozpatrując migrację do chmury. Znalezienie dobrej odpowiedzi na pytania: czy postawić na cloud computing?, czy przenosić całość czy tylko część zasobów? – wymaga przeprowadzenia rzetelnej i dokładnej kalkulacji opłacalności takiej operacji. Nie w każdym przypadku od- ç


aplikacji, usług i rozwiązań, co powoduje, że praktycznie każda organizacja, znając swoją potrzebę, znajdzie dla siebie odpowiednie rozwiązanie

na przenoszenie strategicznych procesów do rozwiązań opartych na chmurze.

Często przedsiębiorstwa sięgają po rozwiązania z chmury, gdy pojawia się nagła potrzePrzedsiębiorstwa są na różnym poziomie ba. Okazuje się, że rynek dostawców potrafi świadomości swoich potrzeb, a przy tym wyprzedzać te potrzeby oferując atrakcyjne prezentują odmienne strategie informatyzacji rozwiązania. I przedsiębiorca staje wobec taprocesów biznesowych. Stąd niektóre firmy kiego wyboru: wykorzystać już coś gotowego, uznawane za prekursorów, w praktyce dziś ponosząc stosunkowo niewielką opłatę, czy już niemal w pełni bazują na rozwiązaniach wchodzić w projekt rozwojowy z obecnym z chmury, osiągając nasycenie tym rodza- dostawcą rozwiązania stacjonarnego, nie jem rozwiązań na poziomie 75%. Pozostali wiedząc do końca kiedy projekt się zakończy Rynek usługstopniowo, chmurowych rozrasta się ok.jest20-kil„włączają chmurę” inspirowaniobecnie i ile będzie kosztował? Decyzja szybka i doświadczeniamiszybciej innych, które w rozwiewają na drugi dzień rozwiązanie z chmury już działa kukrotnie porównaniu z rynkiem rozwiązań wątpliwości związane z bezpieczeństwem. i służy firmie. Tak było z wprowadzonym na stacjonarnych (wg ostatniego badania firmy Fortinet). Jest to już jednak trend globalny, niemal lawi- rynek w połowie ubiegłego roku rozwiązaniem Tendencja ta wynika nowy, przed którym nie ma odwrotu.z kilku powodów. Sage e-Audytor. To aplikacja, która pozwala zweryfikować poprawność JPK (jednolitych o pierwsze, organizacje wobec biznesowych z obszaru w którym Chmura zawojowała już pocztęstają elektroniczplików kontrolnych) przed ichERP, przesłaniem na konieczności szybkiego dostosowyprzetwarzane są najbardziej wrażliwe i poną i przechowywanie danych. Obecnie trwa serwery Ministerstwa Finansów. Dla przedwania swoich modeli biznesowych ufne dane finansowe przedsiębiorstw. Ale wielka ekspansja w obszarze aplikacji i roz- siębiorców taka weryfikacja jest ważna, podo zmieniających się uwarunkowań ryn- i tu bastion słabnie, zważywszy na fakt, jak wiązań mobilnych usprawniających współpranieważ gdy na serwer zostaną źle kowych. Po drugie, firmy przekonują się, szybko rozwija się dziśprzesłane sektor usług shared

Czy w przyszłości cały biznes, wszystkie procesy i związana z nimi komunikacja reOKIEMbędą KLIENTA alizowane wyłącznie w chmurze? Na pewno w zdecydowanej większości. Zdecydują o tym sami przedsiębiorcy, którzy nieustannie dokonują kalkulacji kosztów, ryzyka i stopnia spełnionych oczekiwań. Na razie tempo migracji w chmurę pokazuje, że w ciągu kilku lat zdominuje ona całą sferę rozwiązań informatycznych dla biznesu.

Przyszłość IT: all-in cloud? Chmura wchodzi w swoją drugą dekadę. Aneta Jarczyńska, Sage

P

że zwinne i elastyczne usługi w chmurze często są lepszą alternatywą dla rozwiązań stacjonarnych. Ich wykorzystanie pozwala zredukować do minimum zarówno niezbędne inwestycje (niska bariera wejścia), jak i koszty utrzymania. Poza tym, dość już dojrzały rynek oferuje stabilne, sprawdzone i bezpieczne rozwiązania, a ich jakość jest ciągle wysoka, ponieważ dostawcy rozwiązań stale je rozwijają i dbają o aktualizacje. Trzeci powód to intensywnie rozwijana oferta aplikacji, usług i rozwiązań, co powoduje, że praktycznie każda organizacja, znając swoją potrzebę, znajdzie dla siebie odpowiednie rozwiązanie. Przedsiębiorstwa są na różnym poziomie świadomości swoich potrzeb, a przy tym prezentują odmienne strategie informatyzacji procesów biznesowych. Stąd niektóre firmy uznawane za prekursorów, w praktyce dziś już niemal w pełni bazują na rozwiązaniach z chmury, osiągając nasycenie tym rodzajem rozwiązań na poziomie 75%. Pozostali „włączają chmurę” stopniowo, inspirowani doświadczeniami innych, które rozwiewają wątpliwości związane z bezpieczeństwem. Jest to już jednak trend globalny, niemal lawinowy, przed którym nie ma odwrotu. Chmura zawojowała już pocztę elektroniczną i przechowywanie danych. Obecnie trwa wielka ekspansja w obszarze aplikacji i rozwiązań mobilnych usprawniających współpracę między firmami, marketing, sprzedaż i obsługę klientów oraz wspierających codzienne działania pracowników. Największe opory firm budzi przenoszenie do chmury strategicznych rozwiązań

servces, BPO i różnych modeli outsourcingu w zakresie prowadzenia kadr i świadczenia usług księgowych. Jeżeli firmy już są gotowe do oddawania innym podmiotom tak ważnych procesów, jak rozliczanie płac i pełne prowadzenie księgowości, poniekąd są też gotowe na przenoszenie strategicznych procesów do rozwiązań opartych na chmurze. W Sage cały czas śledzimy procesy legislacyjne i gdy przygotowywano nowelizacje dotyczące JPK wiedzieliśmy, że ich wprowadzenie będzie dla przedsiębiorców oznaczać różne trudności i że będzie potrzeba szybkiego niesienia pomocy. Nasze przypuszczenia okazały się słuszne, a Sage e-Audytor okazał się strzałem w dziesiątkę. Często przedsiębiorstwa sięgają po rozwiązania z chmury, gdy pojawia się nagła potrzeba. Okazuje się, że rynek dostawców potrafi wyprzedzać te potrzeby oferując atrakcyjne rozwiązania. I przedsiębiorca staje wobec takiego wyboru: wykorzystać już coś gotowego, ponosząc stosunkowo niewielką opłatę, czy wchodzić w projekt rozwojowy z obecnym dostawcą rozwiązania stacjonarnego, nie wiedząc do końca kiedy projekt się zakończy i ile będzie kosztował? Decyzja jest szybka i na drugi dzień rozwiązanie z chmury już działa i służy firmie. Tak było z wprowadzonym na rynek w połowie ubiegłego roku rozwiązaniem Sage e-Audytor. To aplikacja, która pozwala zweryfikować poprawność JPK (jednolitych plików kontrolnych) przed ich

Aneta Jarczyńska, Marketing Product Manager w Sage

przesłaniem na serwery Ministerstwa Finansów. Dla przedsiębiorców taka weryfikacja jest ważna, ponieważ gdy na serwer przesłane zostaną źle przygotowane pliki, będą one zwrócone bez wskazania, gdzie popełniono błąd, a to oznacza dodatkową pracę. Podobnie było z naszym serwisem miedzyfirmami.pl, który wspiera bezpieczną wymianę elektronicznych faktur między kontrahentami. Poczta elektroniczna nie jest odpowiednim kanałem do przesyłania tak poufnych dokumentów jak faktury. Nie zapewnia też skutecznej informacji zwrotnej na temat odbioru dokumentu. Tymczasem miedzyfirmami.pl pozwala nie tylko przesyłać e-faktury poza kanałem e-mail, ale również daje możliwość integracji serwisu z oprogramowaniem handlowym i finansowo-księgowym, dzięki czemu firmy mogą automatyzować proces przesyłania i księgowania dokumentów. Oba przykłady pokazują, że rozwiązania chmurowe powstają pod dyktando konkretnych potrzeb przedsiębiorców. Czy w przyszłości cały biznes, wszystkie procesy i związana z nimi komunikacja będą realizowane wyłącznie w chmurze? Na pewno w zdecydowanej większości. Zdecydują o tym sami przedsiębiorcy, którzy nieustannie dokonują kalkulacji kosztów, ryzyka i stopnia spełnionych oczekiwań. Na razie tempo migracji w chmurę pokazuje, że w ciągu kilku lat zdominuje ona całą sferę rozwiązań informatycznych dla biznesu. n 31

eseller News


TECHNOLOGIE

Katarzyna Kaźmierczak Cloud Product Manager, AB SA Jako dystrybutor usług chmurowych obserwujemy coraz większe zainteresowanie chmurą publiczną. Klient korzystając z usług w chmurze, cały czas jest właścicielem swoich danych i ma możliwość ich kontroli. Posłużę się tutaj przykładem Microsoft, którego rozwiązania i usługi doskonale znamy z naszej oferty. Ten dostawca usług chmurowych zapewnia przejrzyste informacje o miejscach przechowywania danych oraz odpowiednie środki bezpieczeństwa w procesie przetwarzania danych. Model abonamentowy daje ogromną elastyczność dla firm, które w każdej chwili mogą pobrać kopie swoich danych i zaprzestać korzystania z usługi. Dane organizacji w obecnych czasach to jeden ç powiedź będzie brzmiała jednoznacznie „tak”. Niektórzy dostawcy przygotowali i udostępniają bezpłatnie (np. Oracle) dedykowane kalkulatory oszczędności wynikających z migracji do chmury. Tego typu kalkulatory TCO dla chmury pokazują różnicę pomiędzy kosztami korzystania z infrastruktury lokalnej a kosztami korzystania z infrastruktury w chmurze — niezależnie od tego, czy chcą oni przenieść do chmury swoje centrum przetwarzania danych, zarządzać pracami programistycznymi i eksploatacją w chmurze, czy też tworzyć i uruchamiać aplikacje działające w chmurze. KIEDY PRZEPROWADZKA DO CHMURY MA SENS? Przed podjęciem decyzji o migracji, należy wziąć pod uwagę wiele czynników. Przenoszenie nie każdej aplikacji korporacyjnej do chmury ma sens. Nadmierne „zachmurzenie w ekosytemie IT” nie zawsze wyjdzie na dobre prowadzonemu bizne32

eseller News

z najcenniejszych zasobów, w związku z tym Microsoft przestrzega odpowiednich międzynarodowych i branżowych standardów, m.in. ISO 27001, ISO 27018, FISMA i FedRAMP. Bezpieczeństwo w Office 365 jest stosowane w ramach warstwy fizycznej, logicznej i danych funkcji zabezpieczeń. Dodatkowo dostawca daje odpowiednie mechanizmy kontrolne administratorom w organizacji klienta, aby dane nie były udostępniane na zewnątrz, w tym m.in. zbieranie elektronicznych materiałów dowodowych czy archiwizację w związku z postępowaniem sądowym. Należy również pamiętać, że oferowana jest finansowa gwarancja bezawaryjnego działania usług chmurowych na poziomie 99,9 proc. na podstawie umowy SLA. Zabezpieczenia i ochrona prywatności to również priorytet w usłudze Microsoft Azure. Dzięki usłudze Azure Active Directory, administrator ma możliwość zarządzania i kontroli tożsamości oraz dostępu użytkownika do środowiska i danych. Z kolei przesyłanie danych między organizacją a centrami danych Microsoft odbywa się za pomocą odpowiednich protokołów transportowych, a przechowywane dane na platformie Microsoft Azure są szyfrowane. Należy mieć również na uwadze nowe rozporządzenie o Ochronie Danych Osobowych RODO (ang. GDPR), w którym są określone nowe zasady dla organizacji oferujących usługi i towary dla obywateli UE. Rozwiązania Microsoft wspierają zasady RODO, a ich ewentualne niespełnienie może spowodować wysokie kary dla administratorów danych od maja 2018 r.

sowi. Jakie zatem aplikacje i obciążenia firmowe przenosić do chmury? Kluczowe jest tu określenie kryteriów, które pomogą wybrać aplikacje i obciążenia, których przeniesienie na platformy cloud da największe korzyści oraz poprawi wydajność biznesową. Odpowiedzi na poniższe trzy kluczowe pytania, wstępnie pokażą, czy migracja do chmury jest ekonomiczne uzasadniona: – Czy aplikacja będzie działać skuteczniej w chmurze? – Jaki będzie koszt migracji? – Jaki jest oczekiwany okres użytkowania danej aplikacji?

GŁÓWNE WYZWANIA CHMUROWE n

g lobalne ograniczenia,

n

zgodność z przepisami dotyczącymi ochrony informacji,

n

l okalizacja danych, jurysdykcja i transgraniczny przepływ danych,

n

k ontrola i własność danych,

n

r adzenie sobie z przypadkami naruszania danych i plany awaryjne,

n

s zyfrowanie i tokenizacja,

n

b rak fizycznej kontroli nad własnymi wrażliwymi danymi przechowywanymi w chmurze,

n

n iejednoznaczne (a czasami sprzeczne) regulacje prawne.


TECHNOLOGIE

Paweł Gregorczyk, Kierownik Działu Wsparcia Sprzedaży Infrastruktury w Oracle Polska Kwestia bezpieczeństwa informacji odgrywa newralgiczną rolę przy projektowaniu i użytkowaniu systemów informatycznych. Temat ten nabrał znaczenia zwłaszcza w erze cyfrowej, w której lawinowo rośnie ilość danych przetwarzanych przez systemy IT, a jednocześnie pojawia się ogromna pokusa ich pozyskania ze strony cyberprzestępców. Najgłośniej jest o zagrożeniach płynących z zewnątrz organizacji. Sabotaż gospodarczy, hakerzy wyłudzający okup za wykradzione lub zablokowaCHMURA NAPĘDZA PRZEMYSŁ 4.0 Infrastruktury chmurowe stanowią jedną z głównych sił napędowych cyfrowych technologii składających się na „czwartą rewolucję przemysłową” (Przemysł 4.0 – Industry 4.0). Przedsiębiorstwa postrzegają chmurę jako fundament, na którym mogą budować swoje innowacyjne strategie w wielu obszarach – od robotyki po sztuczną inteligencję, wynika z raportu Oracle „Cloud: Opening up the Road to Industry 4.0”. 62 proc. przedsiębiorstw z regionu EMEA wdraża lub planuje zastosować technologie z zakresu robotyki, a 60 proc. rozwiązania sztucznej inteligencji (AI – artificial intelligence). Większość firm zdaje sobie również sprawę z tego, że do wdrażania technologii Przemysłu 4.0 potrzebna jest infrastruktura przetwarzania w chmurze – 60 proc. uważa, że korporacyjna platforma chmurowa umożliwia organizacjom czerpanie korzyści z innowacji, takich jak robotyka (w Polsce 58 proc.) czy sztuczna inteligencja (dla Polski wskaźnik wynosi 63 proc.). – Mimo niepewnej sytuacji gospodarczej, przedsiębiorstwa zdają sobie sprawę z tego, że na obecnym, szybko ewoluują-

ne dane czy wreszcie tzw. „haktywiści”. Zagrożenia z zewnątrz są bardzo poważne i firmy skupiają się właśnie na zabezpieczeniu tych obszarów, wykorzystując zabezpieczenia sieciowe. Warto jednak zauważyć, że w całym łańcuchu zwanym „bezpieczeństwo”, najsłabszym ogniwem są zazwyczaj ludzie. Technologia powinna zatem w dużej mierze skupiać się na ochronie przed błędami popełnianymi przez pracowników. Jak więc skutecznie chronić dane w chmurze? Przede wszystkim firmy powinny trzymać się zasady „least privilege”, czyli nadawania pracownikom najmniejszych możliwych uprawnień do wykonywania ich obowiązków. Czy administrator systemu powinien mieć dostęp do danych osobowych pracowników? Czy pracownik działu HR musi mieć dostęp do bazy danych klientów firmy? Segregacja ról jest bardzo ważna – równie istotne są spójne mechanizmy uwierzytelniania i wykorzystanie systemów „pojedynczego logowania”, które w ogromnym stopniu ułatwiają działania pracowników firmy. Kolejny krok to maskowanie danych – czy pracownicy marketingu muszą mieć dostęp do pełnych danych osobowych? Zazwyczaj wystarczają wybrane dane do potwierdzenia, z kim mamy do czynienia. Mechanizmy maskowania pozwolą na „ukrycie” nadmiarowych danych. Dane należy również zaszyfrować. Kiedy haker wejdzie w posiadanie tak zabezpieczonych danych – nie mają one dla niego wartości.

Przenoszenie nie każdej aplikacji korporacyjnej do chmury ma sens. Nadmierne „zachmurzenie w ekosytemie IT” nie zawsze wyjdzie na dobre prowadzonemu biznesowi. cym rynku bycie pionierem przynosi większe korzyści niż kiedykolwiek. Niektóre firmy osiągające największe sukcesy – jak chociażby Uber czy Airbnb – zostały założone w najgorszym momencie kryzysu

Piotr Ciski, Dyrektor zarządzający polskim oddziałem Sage Czy w kontekście migracji biznesu do chmury możemy jako przedsiębiorcy i pracownicy czuć się bezpieczni? W mojej opinii, chmura daje możliwości budowania skuteczniejszych strategii bezpieczeństwa, w porównaniu do strategii opartych wyłącznie na własnej infrastrukturze. Po pierwsze dlatego, że wrażliwe i cenne dane, choć są przetwarzane na zewnątrz, mogą być przechowywane i chronione przez silnego, globalnego partnera. Taka firma inwestuje w bezpieczeństwo ogromne środki, ponieważ jest to jej być albo nie być. Tak jest również w Sage, gdzie oferujemy coraz więcej usług w chmurze, w tym system Sage X3. Oczywiście dla przedsiębiorcy to kwestia wyboru, na jakiego partnera stawia i na ile jest on wiarygodny. Po drugie, warto pamiętać, że usługi przechowywania danych w chmurze mają różne opcje wersjonowania. Jeśli więc firma padnie ofiarą ataku ransomware, dzięki przechowywaniu danych na zewnętrznych, dobrze chronionych serwerach, nadal można mieć do nich dostęp i nie utracić ciągłości pracy. finansowego. Świadczy to o tym, że okazje mogą się pojawiać w każdych warunkach. Na początku epoki zwanej Przemysł 4.0 firmy dzielą się na liderów i maruderów pod względem innowacji, jednak czas pokazał, że dzięki rozwojowi zintegrowanych infrastruktur chmurowych można łatwiej i taniej prześcignąć konkurencję – przekonuje Pascal Giraud, dyrektor ds. IaaS i PaaS w Oracle EMEA. Większość przedsiębiorstw jest w trakcie realizacji planów zakładających wprowadzenie jednego, zintegrowanego modelu chmury w całym przedsiębiorstwie. Niewielu respondentów (średnio 8 proc.) 33

eseller News


TECHNOLOGIE

Tomasz Wieczorek, Solutions Product Manager CEE, Sharp Electronics Europe Z badań przeprowadzonych przez Sharp w Europie wiosną 2016 r. wynika, że aż jedna piąta respondentów (20 proc.) przyznaje się do nieprzestrzegania firmowej polityki bezpieczeństwa i przechowywania danych firmowych w publicznej chmurze, pomimo że nie mają na to zgody przełożonych. Obejmuje to 26 proc. respondentów, którzy pracują w działach HR, narażając dane osobowe pracowników, włączając w to poufne informacje o wypłatach. 21 proc. respondentów już korzysta ze zintegrowanego modelu chmury (uwzględniającego starsze aplikacje i nowe platformy), 36 proc. wdrażało go w 2016 r. (w Polsce 35 proc.), a kolejne 40 proc. planuje go wdrożyć w 2017 r. (w Polsce 33 proc.). Tylko 5 proc. (w Polsce 6 proc.) nie planuje wprowadzenia takiego modelu. – Zintegrowana platforma chmurowa – dostarczająca zarówno usługi IaaS, jak PaaS – pozwala organizacjom na szybkie wdrażanie nowych rozwiązań biznesowych oraz czerpanie korzyści z najnow-

stwierdziło, że bez zgody firmy wykorzystuje ogólnodostępne strony do wymiany plików, a jedna trzecia respondentów (29 proc.) przyznała, że łamie zasady pracy w biurze, zabierając pracę do dokończenia w domu. Źródłem niebezpieczeństwa w firmie może być trudny w obsłudze sprzęt, ponieważ 39 proc. pracowników używa do łączenia się z siecią służbową swoich własnych urządzeń, ponieważ są one łatwiejsze w użyciu. W pokoleniu tzw. millenialsów (osoby urodzone po 1982 r.) taki sposób postępowania zauważalny jest wśród niemal połowy (47 proc.) ankietowanych, a w przypadku osób pracujących w działach IT i HR – odpowiednio 49 proc. i 47 proc. Chmura firmowa to jednak nie tylko bezpieczeństwo, ale też efektywność procesów. Ustrukturyzowane zbiory i funkcje wyszukiwania w firmowej chmurze dają upoważnionym pracownikom możliwość natychmiastowego odszukania informacji, z każdego miejsca i urządzenia, pozwalając tym samym na dokładniejszą i wydajniejszą pracę. Przyspieszając odnajdywanie informacji, przyspieszają również powtarzalne czynności manualne, zwiększając wydajność i ulepszając procesy podejmowania decyzji, które zależą od otrzymywania właściwych danych na czas. Usługa współdzielenia informacji w chmurze zapewnia bezpieczny dostęp i ułatwia pracę, umożliwiając wszystkim członkom zespołu bezpieczny dostęp do wszelkich informacji, których potrzebują, naszych technologii cyfrowych – takich, jak sztuczna inteligencja, Big Data, czy Internet rzeczy – podsumowuje Tim Jennings, szef działu badań w firmie Ovum. WYBÓR CHMURY ZE WZGLĘDU NA KOSZTY Cyfrowa transformacja biznesu i coraz większa liczba gromadzonych i przetwarzanych danych to najważniejsze argumenty skłaniające firmy do wdrażania platform chmurowych. Według analityków IDC, do 2020 r.

Przedsiębiorstwa postrzegają chmurę jako fundament, na którym mogą budować swoje innowacyjne strategie w wielu obszarach. 34

eseller News

tychmiast i niezależnie od miejsca przebywania. Przykładem jest Sharp Cloud Portal Office, który oferuje małym i średnim przedsiębiorstwom bezpieczną usługę udostępniania informacji, którą mogą kontrolować, w przeciwieństwie do usług przechowywania danych w chmurze publicznej. Dostęp do Cloud Portal Office uzyskuje się dzięki pojedynczemu logowaniu kontrolowanemu przez administratora w firmie, który może w mgnieniu oka zmienić uprawnienia dostępu, anulować lub dodać subskrypcje czy zwiększyć przestrzeń przechowywania danych – wszystko dzięki bezpiecznej stronie internetowej. W wielu przypadkach Cloud Portal Office może zastąpić serwery pracujące w siedzibie firmy, dodatkowo redukując koszty infrastruktury. Wiemy, że dla wielu małych i średnich przedsiębiorstw stworzenie platformy współpracy stanowi problem, bo chciałyby one korzystać z narzędzi zarządzania dokumentami, ale nie mogą sobie na to pozwolić. Cloud Portal Office oferuje bezpieczniejszą, zgodną z zasadami i podlegającą kontroli chmurę. Dla resellerów Cloud Portal Office to prosty sposób na utworzenie lub rozszerzenie oferty i zróżnicowanie oferowanych produktów na hardware i usługi. Dzięki oczywistym korzyściom biznesowym z użytkowania Cloud Portal Office oraz umowie bez zobowiązań, usługa jest łatwa w sprzedaży, a ponieważ jest również łatwa w użytkowaniu i administracji – nie wymaga żadnej konfiguracji czy szkoleń. największe firmy na świecie zwiększą wartość generowanych danych co najmniej 500-krotnie, natomiast ogólna liczba cyfrowych informacji dostępnych w sieci sięgnie nawet 96 ZB (zettabajtów) w porównaniu do obecnych 4 ZB. Jak wynika z wielu analiz (zarówno Gartnera, jak i analityków Research and Markets), przedsiębiorstwa z sektora MSP będą coraz więcej inwestować w usługi chmurowe – do 2020 r. nakłady na cloud computing będą zwiększać średnio rocznie o 20,5 proc. n


TECHNOLOGIE

k i ł n a n e n j i e u i g d y am y r c e O yz d ż ą i z c c aw e z n r e bo c – wy o

Barbara Mejssner

Rynek materiałów eksploatacyjnych do urządzeń drukujących jest w Polsce podzielony równo pomiędzy tusze i tonery oryginalne a zamienniki, tonery regenerowane i tzw. podróbki.

W

edług badań IDC tusze i tonery OEM mają od kilku lat stały, wynoszący 50-proc. udział w rynku materiałów eksploatacyjnych. Dla porównania w Niemczech udział OEM w tym rynku wynosi około 70 proc. Wysoki procent udziału zamienników ma związek ze stałą tendencją do kierowania się przede wszystkim ceną zakupu, i to zarówno w przypadku klientów indywidualnych, jak i instytucjonalnych. Różnica pomiędzy ceną tuszu lub tonera producenta drukarki i jego zamiennika może sięgać nawet 80 proc. Jak wykazało badanie Dentsu Aegis Network Amplifi dla dwóch trzecich klientów w Polsce najistotniejszym kryterium skłaniającym ich do zakupu konkretnych typów drukarek jest cena tonerów i kartridży przeznaczonych dla wybranego modelu. Jeśli dostępne dla danego typu drukarki materiały eksploatacyjne są wy-

Wysoki procent udziału zamienników ma związek z tendencją do kierowania się głównie ceną zakupu, i to zarówno w przypadku klientów indywidualnych, jak i instytucjonalnych.

dajne i dobre jakościowo to według 30 proc. respondentów niekoniecznie muszą być oryginalne, w zupełności wystarczą zamienniki. Jednak mimo to, iż zamienniki mogą mieć całkiem niezłe parametry i przede wszystkim korzystną cenę, to okazuje się, że potrafią być źródłem różnych niedogodności. – Główny argumentem, który może przemawiać za alternatywnymi materiałami eksploatacyjnymi jest ich cena, szczególnie w przypadku drukarek laserowych. Jednak niski koszt zakupu najczęściej nie idzie w parze z jakością, szczególnie jeżeli chodzi o zamienniki kolorowe. Istnieje ogromne ryzyko szybszego zużycia urządzenia (krótszy lifetime), a w skrajnych przypadkach nawet jego uszkodzenia – mówi Adam Weremijewicz, Business Developer w Canon Polska. Firma QualityLogic w 2015 r. przeprowadziła analizę mająca na celu porównanie 35

eseller News


TECHNOLOGIE materiałów atramentowych OEM – jednej z największych firm dostarczających urządzania drukujące z 216 ich zamiennikami pochodzącymi od 9 różnych producentów. Aż 15,7 proc. nieoryginalnych tuszów uległo awarii w trakcie użytkowania lub nie spełniło swoich funkcji po wyjęciu z opakowania, generowały również błędy na poziomie oprogramowania oraz odznaczały się mniejszą wydajnością i słabą jakością wydruku. Analogiczne badania zostały przeprowadzone dla kaset z tonerami, tu wynik był jeszcze gorszy – różnego rodzaju usterki odnotowano w przypadku 41,7 proc. z nich. Z dużym prawdopodobieństwem można założyć, że tak słabe wyniki były rezultatem tego, iż wśród badanych zamienników znalazły się także najtańsze, jakościowo znacznie odbiegające od produktów oryginalnych. Rzucały one długi cień na resztę. Wybór najtańszych tuszy i tonerów w dużej mierze wynika z nieświadomości klientów co do faktycznych kosztów drukowania, których nie określa wyłącznie cena urządzenia czy materiału eksploatacyjnego, ale wskaźnik Total Cost of Ownership (TCO) zawierający również

36

eseller News

opłaty za serwisowanie sprzętu. W przypadku produktów OEM (a także dobrych zamienników), mimo ich wyższej ceny, czynniki takie jak duża wydajność w połączeniu z minimalnym ryzykiem awarii mogą znacznie obniżyć TCO. ZAMIENNIK ZAMIENNIKOWI NIERÓWNY Oczywiście nie można wrzucać wszystkich zamienników do jednego worka, ponieważ za określeniem „zamienniki” albo „alternatywne wkłady do drukarek” kryją

Różnica pomiędzy ceną tuszu lub tonera producenta drukarki i jego zamiennika może sięgać nawet 80 proc.

się produkty o skrajnie różnej jakości. Producenci najlepszych zamienników przywiązują dużą wagę do ich jakości, bardzo o nią dbają, np. poprzez prowadzenie badań laboratoryjnych, co potwierdzają odpowiednimi certyfikatami. Miejsca ich produkcji są audytowane przez czołowe międzynarodowe firmy takie jak TUV czy BSI, a same produkty oparte są na komponentach klasy OEM. Wśród zamienników materiałów eksploatacyjnych wyróżniają się na naszym rynku takie marki jak: ActiveJet (marka alternatywnych tuszów oraz tonerów do drukarek wprowadzona w roku 2002 przez firmę Action); Actis (druga marka firmy Action ekonomicznych zamienników do drukarek); Accura (należąca do grupy Komputronik); Black Point (jedna dwóch marek należąca do spółki Black Point); Printé (druga marka powstała z inicjatywy Black Point w 2005 r.); TB Print (marka największego dystrybutora IT i CE w Europie Środkowo-Wschodniej – AB SA); ePrimo (należące do Praxis); Expression (marka należąca do firmy KRISS); Colorovo (marka stworzona przez ABC Data) oraz Modecom (produkt firmy Modecom). ç


OKIEM KLIENTA

Sposób na stabilne przychody Resellerzy coraz częściej dostrzegają, że biznes materiałów eksploatacyjnych jest znakomitym uzupełnieniem podstawowej oferty.

W

nowocześnie zarządzanych firmach na pierwszy plan wychodzi współczynnik TCO (Total Cost of Ownership – całkowity koszt posiadania). Sprawni menedżerowie wiedzą, że koszt zakupu urządzeń biurowych to nie wszystko. Szacuje się, że wydatki związane z nabyciem urządzenia wielofunkcyjnego lub drukarki to od 5 do 15 proc. całkowitych wydatków związanych z eksploatacją sprzętu i kosztami wydruków.

Przy zakupie urządzeń biurowych brane jest pod uwagę wiele parametrów m.in. szybkość druku, rozdzielczość drukowania, obsługiwane formaty, czy technologia druku. Natomiast po zakupie maszyn często na pierwszy plan wychodzą koszty eksploatacyjne, czyli cena materiałów niezbędnych do prawidłowego działania urządzeń biurowych. Szukając oszczędności, łatwo jest ulec pokusie zakupu tanich zamienników. Tymczasem tylko oryginalne materiały eksploatacyjne firmy OKI zostały zaprojektowane i stworzone do pracy wyłącznie z drukarkami i faksami z tym logo. Niezależne badania potwierdziły, że podrobione materiały eksploatacyjne mogą uszkodzić drukarkę i obniżać jakość wydruku. A to może znacznie podwyższyć koszty użytkowania urządzeń. Co więcej,

korzystanie z nieoryginalnych materiałów eksploatacyjnych może unieważnić gwarancję firmy OKI. ORYGINALNY KOLOR W polskich przedsiębiorstwach wzrasta zainteresowanie kolorowymi urządzeniami biurowymi, które zapewniają np. więcej możliwości personalizowania firmowych dokumentów, a tym samym wyróżnienie się na konkurencyjnym rynku. Co ciekawe, coraz szersze grono osób odpowiedzialnych za urządzenia biurowe w firmach do nowego kolorowego kombajnu biurowego wybiera jedynie oryginalne materiały eksploatacyjne. Dlaczego? Wybierając materiały oryginalne, klient decyduje się na najwyższą jakość wydruku oraz gwarancje, że urządzenie drukujące nie zostanie uszkodzone przez niewłaściwy toner lub bęben. Jedynie oryginalne materiały eksploatacyjne firmy OKI zostały zaprojektowane tak, aby zapewnić maksymalną wydajność, trwałość i opłacalność. Wysoka wydajność tych produktów jest wynikiem szeroko zakrojonych badań i testów, co umożliwia zapewnienie odpowiedniej gwarancji, jeśli zalecane towary są użytkowane razem. Dodatkowo firma OKI oferuje 3 lata gwarancji na urządzenie dla klientów drukujących na oryginalnych materiałach eksploatacyjnych.

Dodatkowo Partnerzy doceniają wsparcie OKI. Przykładowo mogą swoim klientom przez cały czas trwania współpracy zagwarantować stałą cenę materiałów eksploatacyjnych. Zapewnia to stabilność biznesu i zysku firm partnerskich. Nie mniej ważne jest wsparcie merytoryczne udzielane przez producenta. Partnerzy dzięki programowi szkoleń mogą uzyskać certyfikaty niezbędne do uczestnictwa w wielu przetargach na zakup i obsługę urządzeń. Dzięki temu sprzedający urządzenia partnerzy OKI, coraz częściej dostrzegają, że biznes materiałów eksploatacyjnych jest znakomitym uzupełnieniem oferty. Zauważają, że zyski uzyskiwane od danego klienta nie muszą kończyć się w momencie wydania urządzenia z magazynu, a mogą przekształcić się w długofalową, zyskowną współpracę. Dzięki materiałom eksploatacyjnym mogą zaaferować klientowi końcowemu na początek urządzenie, potem dostawy materiałów eksploatacyjnych w długim (1-2 lata) okresie, a w konsekwencji wymianę zamortyzowanych urządzeń wraz z dostawami materiałów do ich eksploatacji. n

ZYSKOWNE DODATKI Sprzedażą materiałów eksploatacyjnych zajmują się partnerzy handlowi. Na podstawie codziennych obserwacji potwierdzają oni korzyści ze stosowania ich przez użytkowników. Dostrzegają także korzyści z oferowania oryginalnych materiałów eksploatacyjnych OKI. Partnerzy podkreślają minimalną awaryjność urządzeń i znikomy odsetek reklamacji na materiały eksploatacyjne. 37

eseller News


TECHNOLOGIE

Robert Reszkowski, Business Sales Manager, Epson

Rafał Ornowski, Pełnomocnik Zarządu ACTION ds. Marki

Większa świadomość całkowitego kosztu posiadania urządzeń (TCO) to także decyzja o unikaniu czynników, które mogą spowodować awarię lub utratę gwarancji, którymi m.in. mogą być zamienniki. Rynek odnotował wyraźny spadek popytu na kartridże atramentowe oraz wzrost zainteresowania atramentem i tonerem do ponownego napełniania. Ponieważ są one dużo tańsze, coraz mniej opłacalne staje się korzystanie z nieoryginalnych zamienników. Z drugiej strony spadła różnica w cenie pomiędzy oryginalnym kartridżem a zamiennikiem pochodzącym od właściciela marki alternatywnej. Stało się to z powodu wymogu stosowania w refabrykowanych wkładach oryginalnych wsadów. Jak widać, kilka czynników – także rosnąca liczba modeli drukarek z systemem dolewania atramentu – doprowadziło do spadku zainteresowania zamiennikami. Wśród nich także starania producentów, aby to ich toner/atrament był uważany za najtańszy na rynku.

Sięgając po alternatywne materiały eksploatacyjne do drukarek, warto trzymać się renomowanych i sprawdzonych producentów. Dzięki wieloletniej obecności na rynku mają oni bogate doświadczenie w produkcji nawet najbardziej zaawansowanych technologicznie kartridży. Daje to klientowi pewność, że tusz lub toner po włożeniu do drukarki będzie pracował prawidłowo, a przy tym jej nie uszkodzi. Użytkowanie gorszej klasy produktów może bowiem skutkować nie tylko słabej jakości wydrukami, lecz także szybszym zasychaniem atramentu, które w skrajnych przypadkach może prowadzić do uszkodzenia drukarki. Warto też zwrócić uwagę na pochodzenie komponentów stosowanych w produkcji zamiennika. Najlepiej wybierać te produkowane na bazie części europejskich, gdyż zapewniają one wysoką jakość drukowania. Dobrą wskazówką będzie również gwarancja udzielana przez producenta. Pomocne będą także liczne testy porównawcze, przeprowadzane cyklicznie przez redakcje branżowe. Dostarczają one wiarygodnych informacji na temat rzeczywistej wydajności i opłacalności danego produktu.

Dla dwóch trzecich klientów w Polsce najistotniejszym kryterium skłaniającym do zakupu konkretnych typów drukarek jest cena tonerów i kartridży.

ç

38

eseller News

Wielu użytkowników obawia się, że korzystając z zamienników łamie zasady gwarancji, ale większość producentów drukarek jasno określa, że dopuszczalne jest stosowanie w nich alternatywnych materiałów eksploatacyjnych. Ponadto renomowane firmy zwracają koszty naprawy sprzętu, jeśli uszkodzenia powstały w wyniku stosowania produkowanych przez nich zamienników. Istnieje jednak grupa klientów, która będzie kupować OEM. Z oryginalnych tuszy i tonerów korzystają jednak graficy i firmy

Artur Rosa, Product Manager, ABC Data Materiały oryginalne to jakość, niezawodność, gwarancja producenta urządzenia, a także dostęp do najnowszych technologii, w tym oprogramowania. Korzyści, które otrzymujemy kupując oryginalny produkt to przede wszystkim pewność bezawaryjnej, nieprzerwanej nieoczekiwanymi zdarzeniami pracy drukarki. Musimy jednak liczyć się z wyższym kosztem zakupu takich materiałów. Wybierając zamienniki otrzymujemy często większą wydajność niż w przypadku oryginalnych materiałów, dożywotnią gwarancję (u niektórych producentów) i to w widocznie niższej cenie. Mimo to, wielu użytkowników unika stosowania zamienników, bojąc się o swoje urządzenie. Warto jednak pamiętać, że większość renomowanych producentów zamienników stosuje zasadę gwarancji bezawaryjnej pracy urządzenia. Oznacza to, że w przypadku uszkodzenia spowodowanego zastosowaniem tonera/tuszu nieoryginalnego, usługa naprawy odbywa się na koszt producenta danego zamiennika. Zamienniki zyskały niesłuszną, moim zdaniem, negatywną opinię przez tanie, masowo oferowane w niskich cenach produkty bliżej nieokreślonych marek, często dostępne np. w serwisach internetowych. Kupując taki zamiennik, musimy mieć świadomość jego potencjalnie niskiej jakości, będącej efektem zastosowanych do produkcji komponentów. Czołowi producenci zamienników w Polsce dbają jednak o standardy oraz by ich produkty spełniały oczekiwania klienta dotyczące jakości i trwałości zakupionego produktu. świadczące usługi w zakresie drukowania, więc producenci nie muszą się tak bardzo obawiać konkurencji. Ta grupa klientów nie sięgnie po zamienniki, a tym bardziej po podróbki.


TECHNOLOGIE

Wybór najtańszych tuszy i tonerów w dużej mierze wynika z nieświadomości klientów co do faktycznych kosztów drukowania. Piotr Baca, Country Manager, Brother Polska Warto edukować klientów w sprawie korzyści wynikających z wykorzystywania oryginalnych materiałów, nie zapominając jednak przy tym, że użytkownik zawsze będzie brał pod uwagę czynnik kosztowy, a następnie wygodę. Klienci są bardziej skłonni do inwestowania w oryginalne materiały, kiedy wiedzą, że im się to opłaci. Dlatego tak ważne jest podkreślanie znaczenia TCO (całkowitego kosztu posiadania) infrastruktury drukującej. Jednak klienci stosujący zamienniki patrzą tylko na samą cenę zakupu, nie zwracając uwagi na dodatkowe koszty, jakie za tym idą, np. serwis. Ważna jest odpowiednia komunikacja i argumenty, że całkowity koszt użytkowania oryginalnych materiałów eksploatacyjnych wcale nie oznacza większych kosztów, a zapewnia lepszą wydajność.

WALKA Z PODRÓBKAMI TRWA Najwięcej szkody dla rynku materiałów eksploatacyjnych wyrządzają podróbki. Imaging Supplies Coalition szacuje, że na rzecz podrobionych produktów stracono około 3,5 mld dolarów w skali globalnej. Używanie podróbek (pomijając oczywisty aspekt prawny związany z kradzieżą praw autorskich) to nie tylko drastyczny spadek jakości druku, głośniejsza praca urządzeń, wysypywanie się tonera, ale i o 30 proc. szybciej zużywające się części takie jak sprzęgła, rolki i listwy. Producenci sprzętu drukującego na różne sposoby wypowiadają wojnę podrobionym tuszom i tonerom i prowadzą intensywne działania mające ograniczyć liczbę podróbek na rynku. Nowe generacje drukarek oraz pojemników z atramentami i tonerami wyposaża się w różne

Adam Weremijewicz, Business Developer, Canon Polska Użytkownicy, którzy zainwestowali w drukarkę z wyższej półki, cenią bezpieczeństwo i chętniej skłaniają się ku materiałom oryginalnym, które dodatkowo są gwarancją wysokiej i niezmiennej jakości druku. Wybierając urządzenie warto zapytać sprzedawcę o to, jakiej pojemności są kartridże, ponieważ główny koszt eksploatacji to nie sam toner w kartridżu, ale pojemnik wraz z bębnem i systemem czyszczącym. W ostatecznym rozrachunku może okazać się, że kartridż o pojemności 2600 wydruków jest tylko 15-20 proc. droższy od tego o pojemności 1600 wydruków. Idąc tym tokiem rozumowania, producenci oferują kartridże o tzw. rozszerzonej pojemności, gdzie może być ona prawie 3-krotnie większa niż w standardowym kartridżu, zaś cena – jedynie 2-krotnie wyższa.

39

eseller News


TECHNOLOGIE

Szymon Trela, Product Manager CEE, Sharp Electronics Europe Obserwując rynek coraz częściej zauważamy, że podczas podejmowania decyzji o wyborze materiałów eksploatacyjnych czynnik cenowy nie jest jedynym kryterium. Rekomendowane przez producentów oryginalne tonery gwarantują jakość i doskonałe parametry druku. Ma to szczególnie duże znaczenie w przypadku wydruków kolorowych. Tylko oryginalne materiały gwarantują najwyższą jakość dokumentów oraz bezawaryjną pracę urządzeń, chroniąc użytkowników przed

Używanie podróbek to nie tylko drastyczny spadek jakości druku, głośniejsza praca urządzeń, wysypywanie się tonera, ale i szybciej zużywające się części takie jak sprzęgła, rolki i listwy.

40

eseller News

przestojami lub innymi kłopotami wynikającymi z używania nieodpowiednich i nieoryginalnych materiałów. Klienci są coraz bardziej świadomi, że koszt eksploatacji to nie tylko koszt wydruku kopii, ale wydatki związane z urządzeniem przez cały jego cykl życia. Niższa stawka za stronę nie zrekompensuje kosztów częstszych wizyt serwisowych i napraw urządzenia. Jako producent dokładamy starań, aby zarówno partnerzy, jak i klienci uzyskiwali właściwe wsparcie oraz wiedzę dotycząca korzyści i bezpieczeństwa, jakie zapewnia stosowanie oryginalnych materiałów eksploatacyjnych. Nowa seria kolorowych urządzeń Sharp posiada funkcję automatycznego wysunięcia tonera, co zapobiega wymianie przez użytkownika pojemników, które wciąż zawierają toner, a więc nieekologicznemu i kosztownemu marnotrawstwu, a z punktu widzenia resellera – zwiększając jednocześnie rentowność obsługi urządzenia. Obecnie coraz większa liczba organizacji korzysta też z pełnej obsługi serwisowej połączonej z dostarczaniem materiałów. Najważniejszy trend rynkowy został wyznaczony przez samych klientów – niezależnie od potrzeb, firmy nie szukają dostawcy urządzeń czy rozwiązań, ale zaufanego partnera, który będzie doradcą i zapewni kompleksową opiekę nad całością procesów związanych z dokumentem w firmie.

zabezpieczenia, a ich producenci dostarczają np. bezpłatne oprogramowanie, dzięki któremu użytkownik może sprawdzić, czy nie padł ofiarą oszustwa (np. HP Polska wprowadziło usługę dającą swym klientom możliwość zweryfikowania oryginalności zakupionych materiałów za pomocą bezpłatnej aplikacji HP SureSupply). WIĘCEJ LASERU Najczęściej kupowanymi urządzeniami drukującymi były w ubiegłym roku, według danych firmy analitycznej Infosource, wielofunkcyjne urządzenia laserowe

Dariusz Krupko, Consumables Channel Sales Specialist, OKI Systems Polska Na podstawie swoich codziennych obserwacji nasi partnerzy handlowi potwierdzają korzyści z oferowania oryginalnych materiałów eksploatacyjnych OKI. Przykładowo mogą swoim klientom przez cały czas trwania współpracy zagwarantować stałą cenę materiałów eksploatacyjnych. Zapewnia to stabilność biznesu i zysku firm partnerskich. Nie mniej ważne jest wsparcie merytoryczne. Partnerzy poprzez program szkoleń mogą uzyskać certyfikaty niezbędne do uczestnictwa w wielu przetargach na zakup i obsługę urządzeń. Dzięki temu sprzedający urządzenia partnerzy OKI, coraz częściej dostrzegają, że biznes materiałów eksploatacyjnych jest znakomitym uzupełnieniem ich oferty. Zauważają, że zyski uzyskiwane od danego klienta nie muszą kończyć się w momencie sprzedaży urządzenia, a mogą przerodzić się w długofalową, zyskowną współpracę. Dzięki materiałom eksploatacyjnym mogą zaoferować klientowi końcowemu na początek urządzenie, potem dostawy materiałów eksploatacyjnych w długim okresie, a w konsekwencji wymianę zamortyzowanych urządzeń wraz z dostawami materiałów do ich eksploatacji.


TECHNOLOGIE

Producenci sprzętu drukującego na różne sposoby wypowiadają wojnę podrobionym tuszom i tonerom i prowadzą intensywne działania mające ograniczyć liczbę podróbek na rynku.

Skarbimir Mateńko, Lexmark Supplies Business Manager Z doświadczeń naszych klientów wiemy, że jakość i niezawodność produktów alternatywnych jest bardzo nierówna i korzystanie z nich, aczkolwiek na pierwszy rzut oka przynosi oszczędności wynikające z niższej ceny produktu, faktycznie prowadzi do zwiększenia kosztów eksploatacji sprzętu wynikających z niższej wydajności materiałów alternatywnych, zwiększonych kosztów serwisowych, przestojów sprzętu itp. Za potwierdzenie powyższych informacji może posłużyć przeprowadzone ostatnio niezależne badanie laboratoryjne wydajności toneru Unison innych firm w systemie drukowania Lexmark. Firma Buy-

Daniel Gajkowski, Product Manager, Ricoh Polska Rekomendujemy korzystanie z oryginalnych materiałów eksploatacyjnych. Przemawia z tym szereg argumentów. Kupując i korzystając z oryginalnego tonera, użytkownik ma pewność, że jego skład najlepiej odpowiada technologiom zastosowanym w jego urządzeniu drukującym, a w szczególności elementom biorącym udział w reprodukcji obrazu – bębny, developery, pas transferowy oraz moduł utrwalający. Przekłada się to bezpośrednio na odwzorowanie obrazu – właściwy skład tonera to jego odpowiednie dozowanie, mieszanie i utrwalanie na papierze. Warto zwrócić również uwagę na fakt, że toner oryginalny okazuje się często wydajniejszy.

ers Laboratory Inc. (BLI) przeprowadziła test i porównała toner Lexmark MS610 z konkurencyjnymi produktami z całego świata. Rezultat: rozwiązanie Lexmarka zwyciężyło we wszystkich kategoriach: – Instalacja wkładów i komunikacja: dwa z czterech wkładów innych firm były niesprawne od razu po wyjęciu z opakowania lub podczas testu przedwcześnie przestały działać ze względu na błędy komunikacji. – Wydajność w stronach: oryginalne kasety z tonerem Lexmark Unison umożliwiły wydrukowanie liczby stron większej średnio o 42 proc. w porównaniu z wszystkimi testowanymi produktami innych marek. – Wyciekanie toneru: wszystkie kasety z tonerem innych firm znacząco przeciekały wewnątrz i na zewnątrz drukarki, niekorzystnie wpływając na parametry druku i zanieczyszczając otoczenie. – Niezawodność: w przypadku drukarek z tonerami innych firm ryzyko zacięcia papieru było 25-krotnie większe. Zalety oryginalnych tonerów Lexmark Unison stają się oczywiste. I mamy na to dowody. Kluczowym elementem jest fakt, że zarówno sam toner (proszek), jak i pozostałe elementy wchodzące w skład systemu druku są ściśle ze sobą powiązane. Unikalny skład chemiczny, kształt cząstek, a także właściwości elektrostatyczne stanowią całość z pozostałymi elementami urządzenia. To daje gwarancję bezawaryjnej pracy i najwyższej jakości wydruku.

(wzrost sprzedaży w stosunku do 2015 r. o 18,8 proc.) oraz monochromatyczne drukarki laserowe (wzrost o 4,5 proc.). Oznacza to też większe zainteresowanie tonerami. Sprzedaż urządzeń atramentowych s y s te m a t y c z n i e spada, dotyczy to zarówno formatu A3 (spadek w ciągu roku o 4,4 proc.), jak i A4 (spadek o 3,4 proc.). n

41

eseller News


TECHNOLOGIE

Jak skutecznie chłodzić Data Center Marcin Bieńkowski

System klimatyzacji wraz z systemem zasilania gwarantowanego to kluczowe elementy zapewniające prawidłowe i bezpieczne działanie każdego centrum danych. To od prawidłowego zaprojektowania systemów chłodzenia i wentylacji pomieszczeń serwerowych w dużej mierze zależy, jak duże zużycie energii będzie miało nasze Data Center. W bilansie mocy serwerowni ok. 34 proc. pobieranej z sieci energii przypada na zasilanie klimatyzacji.

D

obrze zaprojektowany system klimatyzacji centrum danych musi zapewniać stałą temperaturę pomieszczeń serwerowych nie przekraczających 20-24°C i wilgotność poniżej 40 proc. W terminologii budowy Data Center istotny przy projektowaniu systemu klimatyzacji i wentylacji jest współczynnik energoefektywności PUE (Power Usage Effectiveness). Jest to współczynnik, który określa proporcje całej energii elektrycznej zużywanej do zasilania centrum danych do energii elektrycznej, która pobierana jest bezpośrednio przez urządzenia IT. Im współczynnik PUE bliższy jest jedności, tym mniej energii zużywa się w Data Center na klimatyzację oraz systemy zasilania. Innymi słowy, niższy współczynnik PUE (bliższy jedności) oznacza niższe wydat-

42

eseller News

Źle zaprojektowana wentylacja czy zły układ ciepłych i zimnych korytarzy mogą zniweczyć całkowicie efekt zastosowania najnowocześniejszej klimatyzacji.

ki związane z zasileniem mocy obliczeniowej. Dwa centra danych o tej samej mocy obliczeniowej, ale o dwóch różnych współczynnikach PUE (np. 1,3 i 1,7) będą miały zupełnie różne koszty utrzymania, co przełoży się bezpośrednio na cenę świadczonych usług. To drugie centrum danych ze współczynnikiem 1,7 będzie po prostu droższe. Najbardziej energooszczędne centra danych mają wartość PUE w granicach 1,1. Na przykład Gogle chwali się, że dla jego infrastruktury współczynnik PUE wynosi średnio 1,11. Najlepsze jego centrum, St. Ghislain w Belgii, schodzi ze współczynnikiem PUE do poziomu 1,09. Z kolei Facebook podaje jako najlepsze wartości PUE wynoszące 1,06, a średnio centra tego społecznościowego serwisu uzyskują wartość współczynnika energoefektywności na poziomie 1,09.


TECHNOLOGIE POGOŃ ZA ŚWIĘTYM GRAALEM Największy wpływ na docelową wartość współczynnika PUE mamy w fazie projektowania serwerowni. Wówczas można odpowiednio zaplanować i dopasować system chłodzenia oraz zasilania, czyli dwa główne czynniki mające wpływ na współczynnik PUE. Pozostałe elementy, takie jak na przykład optymalizacja przepływu powietrza czy separacja stref chłodu, mają również istotne, aczkolwiek znacznie mniejsze znaczenie na końcowy wynik. Nie znaczy jednak, że można je zaniedbać. Źle zaprojektowana wentylacja czy zły układ ciepłych i zimnych korytarzy mogą zniweczyć całkowicie efekt zastosowania najnowocześniejszej klimatyzacji. Warto też pamiętać o tym, że urządzenia bardziej efektywne energetycznie są droższe, jednak oszczędności, jakie nam zapewnią w trakcie eksploatacji Data Center z nawiązką zrekompensują wyższe koszty i to zwykle w dość krótkim czasie. – Jednym ze sposobów na zwiększenie efektywności pracy jest podniesienie temperatury panującej w centrum danych. Jeszcze kilka lat temu nie do poPrint AD_UPS_RT-1-3kVA_210x148-PL_krzywe.pdf 1 myślenia było, aby w strefach gorących

sprzętu IT dopuszczalne było występowanie temperatur powyżej 30 stopni Celsjusza. Obecnie, takie warunki nie są niczym niecodziennym i sprzęt chłodzący musi sobie z tym poradzić. Co więcej, da się tutaj też poczynić pewne oszczędności. Klimatyzacja jest jednym z elementów w infrastrukturze serwerowni, który ma największy potencjał zminimalizowania kosztów eksploatacji dla całego obiektu – zauważa Sławomir Kubiczek, Cooling Sales Manager w Schneider Electric.

Jedną z technologii, która powoli wdrażana jest w centrach danych, jest system chłodzenia przez odparowanie.

16.02.2017

10:29

NOWE TECHNOLOGIE Obecnie w serwerowniach aktualizuje się sprzęt średnio w odstępach od dziewięciu miesięcy do trzech lat. Zaprojektowane w momencie oddania do użytku Data Center rozwiązanie chłodzące musi być w stanie nadążać za zmianami wynikającymi z ciągłego wzrostu możliwości obliczeniowych serwerów, a co za tym idzie wydzielanego przez nie ciepła – choć, oczywiście, producenci procesorów starają się do maksimum zminimalizować wydzielaną energię cieplną przez najnowsze układy. Jeżeli instalacja chłodząca nie jest odpowiednio wydajna, konieczna będzie jej kosztowna wymiana, tak aby była ona w stanie sprostać aktualnym potrzebom energetycznym. Jedną z technologii, która powoli wdrażana jest w centrach danych, jest system chłodzenia przez odparowanie. Według wielu specjalistów, ma ona spore szanse zdobyć w ciągu kilku lat dość dużą popularność. W technologii tej ciepłe powietrze zasysane jest do zwilżonego filtra lub do przestrzeni z rozpyloną drobną mgiełką wodną. We wspomnianym filtrze lub komorze część wody odparowuje, ochładzając ciepłe ç


TECHNOLOGIE W porównaniu z tradycyjną, kompresorową klimatyzacją chłodzenie przez odparowanie zużywa nawet do 90 proc. mniej energii elektrycznej. Technologię chłodzenia przez odparowywanie obecnie stosuje się najczęściej w systemach klimatyzacji precyzyjnej typu Air to Air.

Bartosz Biernacki, Interim Country Manager w firmie Vertiv Co. Obecnie wyraźny jest trend do modyfikacji i budowy nowych centrów danych czy serwerowni w oparciu o systemy klimatyzacji precyzyjnej typu Air to Air, w których wykorzystuje się proces odparowania wody, dzięki czemu w znaczący sposób zwiększyć można efektywność energetyczną systemu chłodzenia. Są to rozwiązania wiarygodne i bezpieczne, dzięki czemu decyduje się na nie coraz więcej klientów. ç powietrze, które w razie potrzeby może następnie trafić do tradycyjnych chłodziarek lub na kolejny filtr odparowujący.

W porównaniu z tradycyjną, kompresorową klimatyzacją chłodzenie przez odparowanie zużywa nawet do 90 proc. mniej energii elektrycznej.

Widać też wyraźnie trend wzrostowy dotyczący instalacji chłodzących z wodą lodową, które wykorzystują efekt adiabatycznego ochłodzenia powietrza. – W wielu Data Center standardem stają się instalacje chłodnicze zasilane wodą lodową z zainstalowanym w niej dodatkowym źródłem chłodu, gdzie wykorzystuje się efekt adiabatycznego ochłodzenia powietrza, co również poprawia efektywność energetyczną instalacji klimatyzacyjnych oraz bezpieczeństwo pracy systemu w krytycznych warunkach. Co ważne, użytkownicy są bardziej świadomi możliwości nowych technologii i zaczynają je skutecznie wykorzystywać w biznesie, przy zachowaniu najwyższych standardów bezpieczeństwa i kryteriów opłacalności biznesowej – podsumowuje Bartosz Biernacki, Interim Country Manager w firmie Vertiv Co. n

Łatwo jest tutaj zastosować zewnętrzny skraplacz, znajdujący się na zewnątrz szafy rackowej – przykładem tego typu systemu jest Computer Room Air Conditioner CRAC DX firmy Rittal.

Sławomir Kubiczek, Cooling Sales Manager w firmie Schneider Electric Jeśli chodzi o systemy chłodzące, to praktycznie każdy rok przynosi szereg nowości, które wymuszone są zmieniającym się zapotrzebowaniem rynku. Obecnie budżety największych producentów systemów chłodzenia, które przeznaczone są na doskonalenie technologii chłodzących dochodzą nawet do 10 proc. przychodów firmy. W największych Data Center realizuje się projekty, które bardzo często korzystają z technologii naturalnego chłodzenia, czyli tzw. Natural Freecoolingu. Dzięki temu można nie tylko zaoszczędzić energię, ale jednocześnie skorzystać z naturalnych uwarunkowań przyrodniczego ekosystemu, w którym budowane jest centrum danych.

44

eseller News


TECHNOLOGIE

Gdzie i jak przechowywać dane

z Internetu rzeczy? Stefan Kaczmarek

Internet rzeczy generuje gargantuiczne ilości danych. W 2020 r. 21 mld punktów końcowych ma być podłączonych do Sieci. Chociaż tylko niewielka część danych z nich pochodzących będzie zbierana, analizowana i magazynowana, to i tak będzie ich ogromnie dużo. Aby nimi zarządzać, mieć do nich dostęp, bezpiecznie je przechowywać i niezawodnie z nich korzystać – nieodzowne stają się cyfrowe pamięci masowe. Do obsługi operacji realizowanych w ramach ekosystemu IoT potrzebne są szybkie, pojemne, skalowalne i bezpieczne systemy storage’owe. Usprawnienie funkcjonowania IoT wymaga też wsparcia chmury i technologii kontenerów.

N

iewątpliwie Internet rzeczy stwarza ogromne możliwości biznesowe. W 2022 r. rynek IoT (Internet of Things) ma osiągnąć wartość 14,4 biliona dolarów, szacuje firma Cisco. Ciesząc się z tego ogromnego potencjału, nie wolno zapominać o tym, że trzeba będzie gdzieś przechowywać i zarządzać wszystkimi danymi pochodzącymi z blisko 25 mld urządzeń IoT podłączonych do Sieci do 2020 r. (estymacja firmy Planet Technology), które będą generować ponad 1,6 mld terabajtów danych (szacunki ABI Research). Szybki rozwój aplikacji IoT powoduje, że przedsiębiorstwa poszukują platform

Pojawienie się zarówno platform cloud computing, jak i Internetu rzeczy diametralnie zmienia kształt systemów informacyjnych i komunikacyjnych.

i usług, które umożliwią im zarządzanie i analizowanie w czasie rzeczywistym zdarzeń oraz strumieni danych pochodzących z różnych źródeł (czujniki środowiskowe, medyczne urządzenia monitorujące, urządzenia domowe i przemysłowe itp.). IOT CLOUD NA HORYZONCIE Połączenie technologii cloud computing i IoT stwarza wiele nowych możliwości w zakresie dostarczania usług, pozwalając operatorom ICT na budowanie nowych strategii i rozwijanie biznesu. Nowe możliwości biznesowe wynikające z IoT 45

eseller News


TECHNOLOGIE powodują, że dostawcy prywatnych, publicznych i hybrydowych usług chmurowych decydują się na integrowanie swoich systemów z podłączonymi do Sieci urządzeniami (w tym czujnikami), aby móc dostarczać w modelu usługowym nie tylko infrastrukturę, platformy i oprogramowanie (IaaS, PaaS, SaaS), ale również Internet rzeczy – nowego rodzaju usługę, określaną jako IoTaaS (IoT as a Service). W rezultacie pojawiają się dostawcy nowego typu, którzy łączą rozwiązania z zakresu cloud computing i IoT. Usługi IoTaaS zapewnia nowy rodzaj systemu rozproszonego, określany jako IoT Cloud, składający się z zestawu urządzeń IoT połączonych za pośrednictwem Internetu ze zdalną infrastrukturą cloud, platformą lub oprogramowaniem. IOT POTRZEBUJE WSPARCIA CHMURY I KONTENERÓW Pojawienie się zarówno platform cloud computing, jak i Internetu rzeczy diametralnie zmienia kształt systemów informacyjnych i komunikacyjnych. Chmura pozwala na tworzenie nowego typu systemu rozproszonego, składającego się z zestawu inteligentnych obiektów, na przykład zintegrowanych komputerów jednopłytowych z systemem operacyj-

46

eseller News

nym Linux, połączonych za pośrednictwem Internetu ze zdalną infrastrukturą chmurową, platformą lub oprogramowaniem. Chmura umożliwia również dostarczanie usługowego modelu IoT, czyli IoTaaS (IoT as a Service).

Szacuje się, że każdy autonomiczny samochód jeżdżący po drogach do 2020 r. może generować 2 petabajty danych rocznie, a jeden samolot – 40 TB dziennie. W szybkim rozwijaniu, testowaniu, wdrażaniu i aktualizacji aplikacji IoT na dużą skalę mogą pomóc kontenery. Można w nich umieszczać oprogramowanie lub aplikacje ze wszystkimi wymaganymi bibliotekami, uwarunkowaniami i zaso-

bami, co ułatwia wdrożenia. Technologia kontenerów aplikacji upraszcza wiele procesów związanych zarówno z architekturą, jak i rozwojem oprogramowania, a także zapewnia korzyści dotyczące wdrażania Internetu rzeczy. Kontenery aplikacyjne są lekkie, łatwo się je przenosi i skaluje. Wirtualizacja oparta na kontenerach stanowi alternatywę dla rozwiązań opartych na hiperwizorach. Można ją zastosować wobec inteligentnych obiektów, aby zwiększać możliwości dostarczania usług typu IoT Cloud. Wirtualizacja oparta na kontenerach pozwala dostawcom technologii IoT Cloud wdrażać i elastycznie dostosowywać oprogramowanie do inteligentnych obiektów. TRÓJWARSTWOWA ARCHITEKTURA DLA PLATFORM IOT Trójwarstwowa architektura dla platform IoT składa się z następujących elementów: brzegowych lub inteligentnych urządzeń (edge/smart devices), bram sieciowych i dostępowych, a także usług danych i aplikacji dla użytkowników końcowych. Wszystkie trzy warstwy razem tworzą złożoną sieć rozproszonych systemów, urządzeń i aplikacji. Rzeczy i urządzenia brzegowe działające w ramach IoT mają wbudowane lekkie systemy operacyjne,


TECHNOLOGIE

Grzegorz Bielawski, Country Manager QNAP Kwestia przechowywania danych generowanych przez aplikacje i urządzenia IoT jest potencjalnie problematyczna z dwóch podstawowych względów. Po pierwsze, takich danych mogą powstawać ogromne ilości i optymalnie jest je przynajmniej przez pewien czas przechowywać i archiwizować. Są one bowiem nie tylko kluczowe dla funkcjonowania systemu IoT i powiązanych z nim usług, ale także stanowią niezwykle cenny materiał do późniejszej analizy, choćby na potrzeby systemów Business Intelligence. Druga sprawa to ich poufność/ bezpieczeństwo – są to bowiem często dane wrażliwe, więc muszą być odpowiednio zabezpieczone przed niepowołanym dostępem. Chmura jest najbardziej elastycznym i wygodnie dostępnym rozwiązaniem storage dla aplikacji IoT – sprawdza się doskonale niezależnie od typu danych, ich pochodzenia, sposobu pozyskiwania i tego, do czego później owe dane są wykorzystywane. Chmura storage jest technologią dobrze znaną deweloperom, świetnie oprogramowaną i łatwą we wdrożeniu. Kontenery idealnie nadają się do tworzenia wspomnianej wcześniej architektury opartej na mikrousługach w systemach IoT – zapewniają podstawowe atrybuty, jakich wymaga się od IoT (takie jak luźno sprzężone, niezależnie rozwijające się i łatwe do wdrożenia komponenty) i doskonale nadają się do tworzenia mikrousług ze względu na to, że umożliwiają przyrostowe wdrożenia i aktualizację usług zależnie od wymagań firmy lub klientów. Oznacza to, że oprogramowanie może lepiej odwzorowywać proces biznesowy, czyli realizować dowolne cele, które stawiamy przed budowanym systemem IoT.

małe zasoby obliczeniowe i są połączone z siecią, ze sobą wzajemnie lub z usługami. Te urządzenia mają różne rodzaje sensorów, siłowników i pracują wykorzystując różne protokoły. Chociaż do opracowywania aplikacji dla użytkowników końcowych mogą być wykorzystywane bogate treści multimedialne, to platformy IoT dla urządzeń brzegowych są rozwijane z uwzględnieniem ich niewielkiego zapotrzebowania na energię i moce obliczeniowe. Spełnienie tego warunku ma zagwarantować ich dużą dostępność i niezawodność działania. Urządzenia brzegowe często mogą znajdować się w obszarach, gdzie dostępne są tylko sieci bezprzewodowe o małej przepustowości lub bywają niestabilne. Zadaniem wielu urządzeń jest zbieranie osobistych lub poufnych danych, co wymaga zapewnienia bezpieczeństwa na wszystkich poziomach. Nowa architektura usługowa IoTaaS powinna dostosowywać się do cech trzech wymienionych warstw. JAKIEGO STORAGE’U I GDZIE POTRZEBUJE INTERNET RZECZY? Pomimo takich atrybutów chmury, jak elastyczność, bezpieczeństwo i możliwość długoterminowego przechowy-

wania danych, nie jest to jedyne ważne miejsce do składowania zasobów. Urządzenia brzegowe będą potrzebować lo-

Przewiduje się, że fabryki będą średnio „produkować” 1 PB danych dziennie, inteligentne budynki – 250 GB danych dziennie, a inteligentne systemy pomiarowe – więcej niż 3 eksabajty danych rocznie. kalnych pamięci masowych zarówno do zbierania ogromnej ilości danych z czujników IoT, jak i do obsługi analiz w czasie rzeczywistym. Jako przykład weźmy wo-

47

eseller News


TECHNOLOGIE

REKOMENDACJE DOTYCZĄCE MAGAZYNOWANIA DANYCH IOT Przedsiębiorstwa powinny przede wszystkim zbierać i wybierać do przechowywania tylko te dane, które muszą być zachowane. Czas archiwizacji danych pochodzących z czujników zależy wyłącznie od konkretnego przypadku użycia i kosztów składowania. Dane operacyjne i zbierane z czujników w czasie rzeczywistym zwykle przechowuje się od 30 do 90 dni, a w zakładach produkcyjnych przez 12 miesięcy. Dane IoT można efektywnie przechowywać na brzegu sieci, czyli miejscu, gdzie urządzenia IoT je generują. Ważną rolę w ekosystemie IoT ma do odegrania analityka. Poprzez analizę i priorytetyzację danych na brzegu sieci, można zminimalizować zbędne składowanie danych i zmniejszyć ich ilość w sieci. Wsparcie zapewnią systemy masowego przetwarzania równoległego MPP (Massively Parallel Processing) oraz technologie uczenia maszynowego coraz częściej stosowane w centrach danych. lumen danych generowanych przy zastosowaniu IoT w transporcie. Szacuje się, że każdy autonomiczny samochód jeżdżący po drogach do 2020 r. może generować 2 petabajty danych rocznie, a jeden samolot – 40 TB dziennie! Nie ma takiej możliwości, żeby wszystkie dane generowane przez samochody i samoloty były przenoszone do chmury w czasie rzeczywistym. Nawet przy pełnej dostępności i wszechobecności sieci 5G, ich przepustowość może okazać się niewystarczająca, aby obsługiwać tego rodzaju natężenie transmisji danych w czasie rzeczywistym. W rezultacie podłączone do Sieci samochody i samoloty muszą wykorzystywać swoje pokładowe, lokalne pamięci masowe do zbierania i zapisywania danych w pamięci podręcznej, aby następnie przenieść je do chmury już za pośrednictwem szerokopasmowych sieci. Przewiduje się, że fabryki będą średnio „produkować” 1 PB danych dziennie; inteligentne budynki – 250 GB danych dziennie. Inteligentne systemy pomiarowe mogą generować więcej niż 3 eksabajty danych rocznie. Teoretycznie w każdym z tych przypadków możliwe jest przenoszenie danych IoT do chmury w trybie zbliżonym do czasu rzeczywistego, przy założeniu, że systemy te mają połączenia z szybkimi sieciami. Czy zatem chmura jest najlepszym miejscem do przechowywania wszystkich danych IoT? Odpowiedź na to pytanie nie 48

eseller News

Chociaż nie wszystkie dane IoT muszą być przechowywane, te uznawane za strategicznie ważne powinny być zachowywane w całości w celu lepszej analizy. Należy wystrzegać się agregacji i uśredniania danych za wszelką cenę, zalecają eksperci. Dane z sensorów warto gromadzić w repozytoriach data lakes. Nie wszystkie dane IoT są tak samo ważne. Niektóre muszą być natychmiast analizowane pod kątem informacji zwrotnej w czasie rzeczywistym, podczas gdy inne mają charakter bardziej archiwalny lub są przeznaczone do późniejszego wykorzystania. Jednym ze sposobów na optymalizację magazynowania danych IoT jest hierarchiczny model zarządzania pamięciami masowymi (HSM – Hierarchical Storage Management). Celem HSM jest zwiększanie poziomu usług w przypadku krytycznych aplikacji i zbiorów danych, przy jednoczesnym obniżaniu całkowitych kosztów pamięci masowych. jest taka prosta: nie zawsze i nie w każdym przypadku. Z jednej strony chmura jest elastyczna i ogólnie dostępna. Zawiera również narzędzia analityczne, które mogą pomóc w odkrywaniu tajemnic ukrytych głęboko w dużych zbiorach danych. Z drugiej strony, w chmurze nie można przeprowadzać analiz danych w czasie rzeczywistym. Czas potrzebny

Chociaż nie wszystkie dane IoT muszą być przechowywane, te uznawane za strategicznie ważne powinny być zachowywane w całości w celu lepszej analizy. na dotarcie do chmury sprawia, że dane stają się „historyczne”. A informacje dostarczane w czasie rzeczywistym mają kluczowe znaczenie dla szybkiego i sku-

Przechowywanie ogromnej ilości danych z czujników wymaga ekstremalnych technik kompresji. Jednym ze sposobów zmniejszania zapotrzebowania na pamięci masowe dla danych IoT jest czasowa kompresja, kiedy zapisywane są zmiany między danymi, a nie wszystkie dane z każdego czytania. Może to przynieść duże oszczędności miejsca w niektórych przypadkach. W strategii przechowywania danych IoT centralne miejsce zajmuje chmura. Można wręcz powiedzieć, że Internet rzeczy i chmura zostały stworzone dla siebie. Niewiele organizacji ma możliwości i środki na dostosowanie i przeskalowanie swoich lokalnych centrów danych na potrzeby obsługi danych IoT. Chmura jest o wiele lepszym rozwiązaniem do obsługi urządzeń IoT, ponieważ usługi cloud łatwiej można skalować, gdy urządzenia IOT są dodawane, usuwane lub wyłączane w zależności od okoliczności. tecznego reagowania. Jeśli czujnik wykryje nieprawidłowości w działaniu urządzenia czy podzespołu, konieczne jest natychmiastowe przekazanie informacji o usterce. Ponieważ istnieje wiele sytuacji (zwłaszcza krytycznych dla zdrowia i życia) wymagających natychmiastowej reakcji, analizy analityczne w czasie rzeczywistym mogą wówczas być przeprowadzane na brzegu chmury lub „mgły” (fog – określenie Cisco). Mogą to być bramy, systemy agregacji i inne. Samochody i samoloty mogą obecnie być wyposażane w systemy do analiz i reagowania w czasie rzeczywistym na mechaniczne, środowiskowe lub sytuacyjne alerty. Niestety, wobec rozwoju platform IoT, nie zawsze łatwo rozstrzygnąć, które dane będą ważne. Jak np. w przypadku zapisu kamer umieszczonych na ruchliwych ulicach, robiących setki i tysiące zdjęć. Choć przeważająca większość zarejestrowanych materiałów może nigdy nie zostać wykorzystana, to kilka pojedynczych klatek może być krytyczne dla wyjaśnienia przyczyn wypadku drogowego lub stanowić dowód złamania przepisów. Coraz bardziej potrzebne stają się doskonalsze narzędzia analityczne obsługujące procesy IoT. Mają one zapewnić głębsze zrozumienie wartości tkwiących w zebranych danych – zarówno tych znajdujących się w chmurze, jak i na jej brzegu. Szybkie, niezawodne i bezpieczne pamięci masowe mają krytyczne znaczenie


TECHNOLOGIE

IoT po odpowiedniej adaptacji będzie źródłem mnóstwa wartościowych informacji, jednak stanie się przy tym dodatkowym wyzwaniem dla istniejącej infrastruktury IT, wpływając zarówno na infrastrukturę sieciową, storage firmowy czy eksploatację serwerów, jak też stawiając nowe wymagania dotyczące serwerowni i narzędzi analitycznych. Po stronie centrów danych pojawi się konieczność zapewnienia integracji istniejących systemów biznesowych z nowymi rozwiązaniami M2M. Zwiększy to z pewnością zapotrzebowanie na efektywny transport sieciowy (Oracle w swoich rozwiązaniach postawił na Infini-

band – niewymagający zarządzania protokół o bardzo dużej przepustowości i niskich opóźnieniach) oraz inteligentny storage, samodzielnie dostosowujący się do charakterystyki obciążenia. Kluczowa będzie także integracja poszczególnych warstw rozwiązania (sieć, storage, serwery, wirtualizacja, OS, baza danych, middleware, aplikacje) w celu zapewnienia odpowiedniej wydajności i niezawodności. Oprócz nowych wymagań sprzętowych, IoT postawi znaczące wyzwania w zakresie organizacji procesów biznesowych. Należy pamiętać, że same dane, których źródłem jest IoT, nie mają wartości, jeżeli nie postawimy ich w określonym kontekście. Dopiero poddając je analizie jesteśmy w stanie uzyskać informacje wartościowe dla biznesu, pozwalające na podjęcie decyzji zarządczych. To oznacza, że warstwa analityczna powinna być nieodłącznym, komplementarnym elementem projektów IoT. Same procesy analityczne mogą przebiegać na wiele sposobów, zależnych od charakteru projektu. Można dane poddawać obróbce w czasie rzeczywistym, szukając korelacji pomiędzy wieloma ich strumieniami czy wykrywając wzorce sekwencji. Można także podejść do tematu w sposób tradycyjny, używając metod z zakresu Big Data czy też analiz statystycznych. W powyższych zastosowaniach doskonale sprawdzają się renomowane rozwiązania Oracle – np. systemy Oracle Complex Event Processing, Oracle Advanced Analytics, a także maszyna Oracle Big Data Appliance, dodatkowo wspierane przez oprogramowanie Oracle Endeca Information Discovery i Oracle Business Intelligence.

dla urządzeń brzegowych, niezależnie od tego, czy jest to czujnik, smartfon czy brama. Musi je również cechować duża wytrzymałość fizyczna i odporność na zróżnicowane, trudne warunki pogodowe, ponieważ działają one w różnych środowiskach. Wraz z digitalizacją i automatyzacją ilość generowanych danych cyfrowych zwiększa się wykładniczo! Przykładem samochód, który podczas jazdy generuje non-stop dane m.in. dotyczące aktualnej pozycji, kalkuluje czas potrzebny do dotarcia do celu, uwzględniając wybraną trasę, dystans pozostały do pokonania, a także natężenie ruchu, warunki pogodowe itp. Prowadzi to do generowania różnego rodzaju danych: surowych (bieżąca pozycja samochodu, pogoda, ruch itp.), przeanalizowanych danych (wyliczony czas dotarcia do celu) oraz stanowiących wnioski/rekomendacje podjęcia określonych działań („za 15 min. dojedziesz do domu, zdalnie włącz ogrzewanie”). I tu pojawia się pytanie, które z tych

danych wymagają przechowywania? Najbezpieczniejszą opcją byłoby przechowywanie wszystkich wygenerowanych danych, ponieważ nie ma pewności, w jaki sposób dane mogą być użyte w przyszłości! Ale to wymaga dużej infrastruktury pamięci masowej, a tym samym będzie kosztować! Wielu ekspertów uważa, że nie trzeba przechowywać surowych danych, a mogą być one przekierowywane do analitycznych platform Big Data, gdzie będą dokładnie analizowane, a następnie już te przeanalizowane dane wyjściowe mogą być przechowywane razem z wnioskami z analiz. Jeszcze inni uważają, że do audytu wystarczy zachowywać tylko wnioski z analiz. Dlatego też należy dokładnie rozważyć wszystkie aspekty i zdecydować, które dane są warte przechowywania. Następnym krokiem jest planowanie zasobów pamięci masowych – uwzględniając przy tym zarówno posiadane zasoby, jak i planując dodanie nowych.

Rafał Skirzyński, Enterprise Architect, Technology Customer Advisor, Oracle Polska

Dane IoT zwykle mają małe rozmiary, ale ich ilość wymaga ogromnych pojemności, jak w przykładzie z jadącym samochodem. Dane mogą być generowane z różnych czujników zainstalowanych w samochodzie. Aby przechowywać tego rodzaju dane, pamięci masowe muszą być skalowalne w czasie. Obiektowe

W strategii przechowywania danych IoT centralne miejsce zajmuje chmura. Można wręcz powiedzieć, że Internet rzeczy i chmura zostały stworzone dla siebie. pamięci masowe są uznawane za dobry wybór do przechowywania tego rodzaju danych, głównie ze względu na skalowalny i rozproszony charakter. Jednakże z pamięciami obiektowymi wiążą się też pewne wyzwania dotyczące przechowywania dużej liczby małych plików oraz zapewnienia odpowiedniej gwarancji (IoT wymaga szybkiego dostępu do danych, żeby możliwe było podejmowanie decyzji w czasie rzeczywistym). n

WŁAŚCIWOŚCI SYSTEMU PAMIĘCI MASOWEJ DEDYKOWANEJ DANYM IOT S kalowalność – dane trzeba kalibrować liniowo, ponieważ rozmiar zestawu danych wzrasta wraz z upływem czasu. n Rozproszony system – architektura musi być rozproszona w celu zapewnienia wydajności i rozkładu obciążeń. n Tiering – hierarchizacja i kategoryzacja danych staje się ważna ze względu na ogromne ilości generowanych danych IoT. n Archiwizacja – archiwizowanie starych danych w celu zapewnienia, że zasoby pamięci masowej nie są niepotrzebnie obciążane. n Stary model zarządzania danymi – usuwa niechciane/niepotrzebne dane w celu zapewnienia optymalnego wykorzystania zasobów pamięci masowej. n

49

eseller News


TECHNOLOGIE

Ufać i kontrolować – to zasada przy wdrażaniu BYOD

Marek Jaślan

Firmy ciągle jeszcze nie radzą sobie najlepiej z zabezpieczeniem urządzeń mobilnych swoich pracowników, które ci wykorzystują do zadań służbowych. A powinny się tego nauczyć jak najszybciej, bo skala mobilnych zagrożeń szybko rośnie.

W

ykorzystywanie prywatnych urządzeń do pracy (BYOD – bring you own device) to trend, który przybiera na sile od kilku lat. W ubiegłorocznym badaniu „Nowoczesne IT w MŚP 2016”, przeprowadzonym przez Ipsos MORI dla Microsoft, aż 74 proc. przedstawicieli polskiego sektora małych i średnich przedsiębiorstw przyznało, że możliwość realizacji zadań z dowolnego miejsca i pełen dostęp do firmowych plików, poczty i kalendarza ma znaczący wpływ na wydajność ich pracy. Warto podkreślić, że wynik ten przewyższał średnią dla firm europejskich o 5 proc. Z tym stwierdzeniem zgadza się 64 proc. pracowników z Francji, 53 proc. z Niemiec, 72 proc. Czechów oraz aż 76 proc. przedstawicieli sektora MSP na Ukrainie. Praca zdalna coraz częściej jest nie tylko modnym trendem, a staje się codziennością dla coraz większej liczby przedsiębiorstw MSP. W opinii analityków rynku przejście

50

eseller News

do chmury i mobilna praca – to kluczowy krok w kierunku cyfryzacji firmy.

Urządzenia mobilne są dzisiaj najbardziej krytycznym punktem w systemach cyberbezpieczeństwa firm.

Wyniki badania „Nowoczesne IT w MŚP” pokazały, że już dwa lata w niemal połowie polskich małych i średnich firm pra-

cownicy korzystali z prywatnych urządzeń IT w pracy. Ci, którzy decydowali się na wykorzystanie prywatnego sprzętu najczęściej sięgali po laptopy (57 proc.), telefony komórkowe (55 proc.), smartfony (48 proc.) i tablety (20 proc.). A CO Z CYBERBEZPIECZEŃSTWEM? BYOD ma oczywiście wiele zalet zarówno dla pracodawców, jak i pracowników. Z jednej strony pozwala na oszczędności w firmie, która nie musi inwestować w sprzęt, z drugiej strony pracownicy korzystają z narzędzi pracy, które dobrze znają. W efekcie może się to przyczyniać do podniesienia efektywności pracy. BYOD wymaga jednak od firmy przygotowania i wdrożenia odpowiedniej polityki bezpieczeństwa. To dlatego, że zwiększa się ryzyko, że firmowe dane zostaną zmienione, dodane bądź usunięte w sposób nieautoryzowany przez osoby trzecie, w przypadku, gdy urządzenie wpadnie


TECHNOLOGIE w niepowołane ręce. Rośnie też zagrożenie udostępnienia bądź ujawnienia wrażliwych informacji firmowych nieuprawnionym osobom.

BYOD wymaga od firmy przygotowania i wdrożenia odpowiedniej polityki bezpieczeństwa.

Tymczasem z zeszłorocznego badania Orange Insights wynika, że zaledwie połowa badanych polskich firm radzi sobie z zabezpieczeniem urządzeń mobilnych swoich pracowników. Co ciekawe, bardziej optymistyczni w tym obszarze okazali się prezesi firm w przeciwieństwie do kierowników IT, którzy często twierdzili, że mobilność to zagrożenie. Niestety 24 proc. przedsiębiorstw ma w tym zakresie duże problemy, które najczęściej są związane z brakiem polityki korzystania z urządzeń mobilnych. Większość, bo aż 63 proc. uczestniczących w badaniu, przyznała, że ich pracownicy korzystają ze służbowych telefonów do obsługi prywatnej poczty. Co równie istotne, prawie połowa z nich (42 proc.) korzystała z prywatnych telefonów do obsługi tej firmowej. Wśród badanych branż, firmy usługowe były tymi, które najczęściej pozwalały na korzystanie zarówno ze służbowej poczty na prywatnym urządzeniu, jak i z prywatnej poczty na urządzeniu firmowym. – Cyberprzestępcy szukają różnych sposobów na zdobycie cennych dla przedsiębiorstw danych. Coraz częściej możemy spotkać się z atakami w formie maili phishingowych udających faktury czy też atakami wykorzystującymi luki systemu Android w smartfonach. Jak wiadomo, na smartfonach i tabletach pracownicy często przechowują dużą ilość prywatnych i służbowych danych, a urządzenia te łączą się z firmową siecią – mówi Tomasz Matuła, dyrektor Infrastruktury ICT i Cyberbezpieczeństwa w Orange Polska.

MOBILNOŚĆ JAKO INTEGRALNY ELEMENT CYBEROCHRONY Gil Shewd, założyciel i prezes, izraelskiej firmy Check Point, specjalizującej się w bezpieczeństwie sieciowym, twierdzi wręcz, że urządzenia mobilne są dzisiaj najbardziej krytycznym punktem w systemach cyberzabezpieczeń firm. – Używa ich każdy i cyberprzestępcy mogą śledzić ich wykorzystywanie. Z badań wynika, że 99 proc. mobilnych urządzeń nie jest chroniona – mówi Gil Shewd. Zauważa, że tłumaczenia, dlaczego nie zabezpiecza się urządzeń mobilnych, są zawsze podobne: bo to zbyt skomplikowane, użytkownicy nie dostrzegają problemu lub nie wiedzą, jaki produkt do ochrony wybrać, bo jest ich zbyt wiele.

giach informacyjnych. Zasada jest prosta – jednolita architektura bezpieczeństwa firmy w każdym środowisku z bardziej wydajnymi i efektywnymi działaniami informatycznymi – mówi Gabi Reish, manager ds. produktów VP w firmie Check Point. Jednym z integralnych elementów Check Point Infinity jest nowy SandBlast Mobile, tj. rozwiązanie, które chroni firmę przed naruszeniami urządzeń mobilnych. SandBlast Mobile wykrywa i blokuje zarówno znane, jak i nieznane złośliwe oprogramowanie, zabezpieczając przed podejrzanymi sieciami Wi-Fi, atakami man-in-the-middle oraz phishingiem w wiadomościach SMS. Michael Shaulov, szef działu produktów mobilnych w firmie Check Point podkre-

Nie bez kozery więc Check Point postanowił, że jednym z głównych komponentów jego nowej platformy zabezpieczeń będzie system ochrony i ostrzegania przed atakami na urządzenia mobilne. Jak podkreśla izraelska firma, Check Point Infinity jest pierwszym zintegrowanym systemem bezpieczeństwa sieci, chmury i urządzeń mobilnych, która ma zapewniać zapobieganie zagrożeniom rosnącej liczby cyberataków. – Nasza architektura bezpieczeństwa ma na celu przygotowanie organizacji do trudów zmian zachodzących w technolo-

śla, że cyberochrona urządzeń mobilnych i stacjonarnych to całkowicie dwa różne światy. Choćby dlatego, że systemy operacyjne są inaczej konstruowane dla urządzeń mobilnych, a inaczej dla stacjonarnych. – Nie da się prosto przenieść antywirusa, który chroni komputer na smartfony. Zdarza się, że niektóre firmy tak robią, ale to działa zazwyczaj bardzo źle i nie spełnia zadań – twierdzi Michael Shaulov. Według niego nie ma przeciwwskazań, by firmy pozwalały swym pracownikom korzystać z urządzeń mobilnych, ale powinny przyjąć też odpowiednią strategię. 51

eseller News


TECHNOLOGIE

PRYWATNE SMARTFONY W POŁOWIE POLSKICH FIRM Trendem na rynku w Polsce jest pozwalanie pracownikom na używanie prywatnych urządzeń elektronicznych (smartfonów czy tabletów) do obsługi aplikacji firmowych. Już dziś jest to możliwe w 46 proc. badanych firm, kolejnych 14 proc. planuje umożliwić takie działania w przyszłości. „Nie” tego rodzaju praktykom mówi zaledwie 17 proc. organizacji. Jednocześnie, tylko 16 proc. firm wymaga zainstalowania na tych urządzeniach rozwiązań klasy MDM (ang. Mobile Device Management), aby użytkownicy mogli korzystać z firmowych aplikacji – wynika z tegorocznego raportu PwC „Ochrona biznesu w cyfrowej trans-

Mądre wykorzystywanie technologii mobilnych może podnieść efektywność pracowników.

O CO WARTO ZADBAĆ W FIRMIE, KTÓRA UMOŻLIWIA PRACOWNIKOM KORZYSTANIE Z PRYWATNYCH URZĄDZEŃ ELEKTRONICZNYCH DO ZADAŃ FIRMOWYCH r egularnie poszerzać kompetencje i podnosić świadomości pracowników w kwestiach cyberbezpieczeństwa i zagrożeń w sieci, n opracować zestaw dobrych praktyk, w którym znajdą się informacje, jak pracownik ma się zachować w konkretnej sytuacji, np. utraty smartfona, n wprowadzić procedury dostępu do firmowych danych, sklasyfikować zasoby, np. zastrzegając, że dokumenty stanowiące tajemnicę przedsiębiorstwa nie mogą być przechowywane na urządzeniach innych niż firmowe, n wprowadzić system do monitorowana oraz zarządzania urządzeniami, które są podłączane do sieci firmowej, n stale monitorować oraz reagować na incydenty bezpieczeństwa w ramach organizacji. n

52

eseller News

formacji”, przygotowanego na podstawie 4. edycji dorocznego badania „Stan bezpieczeństwa informacji w Polsce”. Według badania przeprowadzonego na potrzeby raportu PwC, w ostatnim roku 96 proc. polskich średnich i dużych firm zanotowało ponad 50 incydentów związanych z naruszeniem bezpieczeństwa informacji lub systemów IT. W przypadku 64 proc. liczba tego typu zdarzeń była większa niż 500. Najczęściej wykorzystywaną metodą cyberataków był atak phishingowy (39 proc.), mający na celu zmylenie użytkownika i nakłonienie do wy– Słuszne jest założenie, że mądre wykorzystywanie technologii mobilnych może podnieść efektywność pracowników, ale trzeba je wykorzystywać w sposób bezpieczny. Można to osiągnąć w bardzo prosty sposób: postawić pracownikowi warunek, że może wykorzystywać służbowy smartfon do celów prywatnych, np. korzystania z Facebooka, ale musi zainstalować aplikację, która będzie zapewniać bezpieczeństwo. W ten sposób pracodawca może kontrolować i mieć wgląd, do czego jest wykorzystywane urządzenie – mówi Michael Shaulov. UFAĆ, MONITOROWAĆ I KONTROLOWAĆ W odpowiedzi na zagrożenia, jakie wiążą się z BYOD, niektórzy zalecają wprowadzenie standardu POCE (Personally Owned, Company Enabled), który zakłada, że prywatne urządzenie zostanie włączone w sieć wewnętrzną firmy. Główną różnicą pomiędzy BYOD a POCE są nałożone w tym drugim ograniczenia, które kontrolują, do jakich danych, aplikacji i urządzeń prywatny sprzęt będzie miał dostęp, a także wprowadzają na nim system zabezpieczeń i weryfikacji, aby w pełni panować nad przepływem informacji. Wybór tego rozwiązania nie wygeneruje tylu kosztów, co np. zapewnienie wszystkim pracownikom nowego, służbowego sprzętu, a z pewnością podniesie poziom bezpieczeństwa wrażliwych, firmowych danych. – Z doświadczenia wiem, że firmy, które wdrożyły już rozwiązania mobilne, jak np. usługi w chmurze czy aplikacje mobilne, znacznie efektywniej korzystają ze swojego potencjału zarówno wewnątrz firmy, jak i na zewnątrz. Rozwój mobilności to szansa na zbudowanie przewagi rynkowej, pomaga ona zwiększyć wydajność

konania zamierzonej operacji. Na drugim miejscu znalazło się włamanie do systemów IT (35 proc.), a na trzecim – użycie zewnętrznego nośnika danych (23 proc.). Wśród najbardziej dotkliwych skutków cyberataków respondenci badania wskazywali: narażenie na ryzyko prawne i straty finansowe (35 proc. wskazań) oraz utrata klientów i kradzież własności intelektualnej (po 30 proc.). Aż 55 proc. firm nie ma świadomości, jakie były efekty ataków na dane w ich organizacjach. W 79 proc. przypadków wykrytych incydentów ich źródłem byli aktualni pracownicy firmy, natomiast 62 proc. stanowiły ataki hakerskie. pracy i usprawnić codzienne aktywności, czy to w sprawach administracyjnych, czy też w komunikacji pomiędzy pracownikami i klientami. Jednak wszystkie rozwiązania i urządzenia mobilne należy skutecznie zabezpieczyć, aby uchronić firmę przed niebezpieczeństwami w postaci utraty lub kradzieży danych – mówi Tomasz Matuła. I jako przykład stawią swoją firmę. – W Orange przykładamy dużą wagę do bezpieczeństwa teleinformatycznego,

Tomasz Matuła, dyrektor Infrastruktury ICT i Cyberbezpieczeństwa, Orange Polska W Orange Polska kwestie cyberbezpieczeństwa traktujemy kompleksowo. Rozwijamy kompetencje zespołu CERT Orange Polska dbającego o bezpieczeństwo naszej sieci. Wprowadzamy rozwiązania technologiczne, które usuwają wiele zagrożeń zanim dotrą do komputera Internauty. Nasza bezpłatna CyberTarcza ochroniła w ubiegłym roku ponad 1,2 mln użytkowników Neostrady. Już niedługo będzie chronić także Internet mobilny.


TECHNOLOGIE dlatego stworzyliśmy zespół specjalistów wchodzących w skład Security Operations Center pracujących w trybie 24/7/365. Monitorują oni poziom bezpieczeństwa użytkowników naszej sieci, błyskawicznie reagując na zidentyfikowane problemy i podejmując działania minimalizujące zagrożenia. Kładziemy też duży nacisk na budowanie świadomości bezpiecznych zachowań w sieci – dodaje Tomasz Matuła.

że liczba wykrytych infekcji złośliwym oprogramowaniem na urządzenia mobilne w ubiegłym roku wzrosła o 290 proc. w stosunku do 2015 r. Przy czym należy pamiętać, że w zdecydowanej większości przypadków użytkownicy infekujący swoje urządzenia mobilne następnie zarażali tym złośliwym oprogramowaniem także komputery stacjonarne.

Problemem dla zbudowania odpowiedniego systemu cyberbezpieczeństwa mogą być kwestie finansowe, nawet w przypadku dużych przedsiębiorstw. Iwona Ostrowska, Product Manager, AB SA

Badania Orange pokazują, że problemem dla zbudowania odpowiedniego systemu cyberbezpieczeństwa mogą być jednak kwestie finansowe. Nawet duże przedsiębiorstwa, mimo świadomości zagrożeń, jakie niesie za sobą brak zabezpieczenia urządzeń mobilnych i systemów IT, często nie mogą przeznaczyć na ten cel odpowiedniego budżetu. Tylko co trzecia firma zadeklarowała, że ma możliwość sfinansowania wszystkich potrzeb związanych z zapewnieniem bezpieczeństwa informatycznego. Niemniej jednak ponad połowa badanych, w tym większość dyrektorów finansowych (56 proc.) i kierowników IT (52 proc.), uznała że ich budżet jest elastyczny, co oznacza, że w razie potrzeby, będą w stanie go zwiększyć na sfinansowanie potrzebnych działań. Prezesi rzadziej jednak zgadzali się z tą opinią (zaledwie 35 proc.) i jednocześnie aż 44 proc. z nich twierdziło, że nie ma w planach zwiększenia budżetu. A godząc się na to, by pracownicy używali prywatnych urządzeń mobilnych w firmach, na pewno warto myśleć też o bezpieczeństwie. CERT Orange Polska w opublikowanym raporcie „Bezpieczeństwo sieci w 2016” zwraca m.in. uwagę,

Technologia BYOD w wielu przedsiębiorstwach funkcjonuje na co dzień, ze względu na zmianę współczesnego modelu pracy oraz założeń biznesowych ostatnich lat, jak np. potrzebę redukcji kosztów związanych z IT. Jednocześnie niekontrolowany dostęp urządzeń mobilnych do sieci firmowej może nieść ogromne zagrożenie dla bezpieczeństwa danych. W zależności od poziomu bezpieczeństwa, do którego dążymy, powinniśmy zadbać przede wszystkim o dobrze prowadzony proces onboardingu urządzeń przenośnych. Onboarding to nic innego jak powiązanie użytkownika z konkretnym urządzeniem mobilnym na zasadzie wydania mu certyfikatów i przeprowadzenia poprawnego procesu jego autentykacji w sieci naszej organizacji, co pozwala na kontrolę dostępu do zasobów, które chronimy, a w razie potrzeby administrator systemu może natychmiast zablokować dostęp urządzenia np. do korporacyjnej sieci WLAN. W ten sposób łączymy tożsamość użytkownika z tożsamością urządzenia, którym się on posługuje. Onboarding pozwala również na wprowadzenie odrębnych polityk dostępowych dla różnych typów urządzeń mobilnych, np. innych rodzajów przywilejów dla urządzeń z iOS, a innych dla tych z Android etc. Podstawowym wyzwaniem jest zabezpieczenie się przed złośliwym oprogramowaniem, które może zostać zainstalowane na urządzeniach mobilnych,

Według Orange, główne przyczyny wzrostu cyberzagrożeń mobilnych to: upowszechnienie usług płatniczych realizowanych za pomocą smartfonów i tabletów, duża różnorodność mobilnego malware’u (w tym ransomware’u) oraz rosnąca liczba podatności na nieaktualizowane wersje systemów operacyjnych, zwłaszcza stare edycje Androida. n niechcianymi aplikacjami pobieranymi z Internetu, a w konsekwencji zagwarantowanie bezpieczeństwa poufnych informacji firmowych. Ochrona taka powinna umożliwiać skuteczne zarządzanie wszystkimi urządzeniami mobilnymi z jednego centralnego miejsca, zabezpieczenie tych urządzeń na wypadek ich zgubienia lub kradzieży, ochronę antywirusową oraz ochronę wrażliwych danych, jakie się na nich znajdują. Na rynku dostępne są rozwiązania wielu producentów. Jednym z nich jest Sophos, który oferuje dedykowane urządzeniom przenośnym produkty: Sophos Mobile Control i Sophos Mobile Security. Umożliwiają one zarządzanie urządzeniami pracowników/ użytkowników oraz aplikacjami, jakie są na nich zainstalowane. Dzięki nim można np. odciąć dostęp do poczty korporacyjnej pracownikowi, który nie zachowuje się zgodnie z obowiązującymi w firmie politykami poufności. Tego typu rozwiązania pozwalają pracownikom na bezpieczną pracę na takich urządzeniach oraz zapewniają kompleksową ochronę plików zawierających dane korporacyjne. Samo korzystanie z tych produktów jest dosyć proste, a administrator, dzięki wykorzystaniu intuicyjnej konsoli, w łatwy sposób zarządza urządzeniami, definiuje polityki bezpieczeństwa i polityki zgodności z ustalonymi normami oraz kontroluje bezpieczeństwo poczty i dokumentów korporacyjnych. Ponadto, poprzez Portal Serwisowy użytkownicy mogą sami wykonywać wiele czynności w dowolnym momencie – gdy urządzenia są zagubione lub skradzione, mogą je zablokować lub ich zawartość może zostać całkowicie skasowana. Powyższe wyzwania są jednocześnie szansą dla resellerów na poszerzenie swojej oferty o nowe i perspektywiczne usługi. Ich rolą przy dostarczaniu urządzeń i rozwiązań zapewniających bezpieczeństwo infrastrukturze IT danej organizacji powinno być przede wszystkim dobre doradztwo i pomoc użytkownikowi w poprawnym wdrożeniu danego rozwiązania. Oznacza to, że reseller powinien mieć głęboką wiedzę nt. bezpieczeństwa danych i informacji oraz bardzo dobrą znajomość oferowanego sprzętu. Co więcej, ta wiedza powinna być ustawicznie odświeżana oraz okresowo weryfikowana i potwierdzana (certyfikaty, egzaminy).

53

eseller News


Polityka bezpieczeństwa najważniejsza dla biznesu Marcin Bieńkowski

Jednym z najważniejszych dokumentów IT w firmie jest dokument opisujący politykę bezpieczeństwa. Musi on zawierać w sposób kompleksowy, spójny i jednoznaczny wszystkie założenia dotyczące zabezpieczenia informacji w przedsiębiorstwie, ale, co ważne, nie jest to dokument szczegółowy. Natomiast detale dotyczące bezpieczeństwa IT powinny znaleźć się w procedurach i standardach będących dokumentami podrzędnymi w stosunku do polityki bezpieczeństwa – niestety, nie zawsze tak się dzieje.

S

amo pojęcie polityki bezpieczeństwa nie jest pojęciem jednoznacznym. Najczęściej rozumie się pod nim całościową politykę bezpieczeństwa w firmie, polityką bezpieczeństwa w rozumieniu Ustawy o Ochronie Danych Osobowych lub politykę bezpieczeństwa opisującą założenia tylko dotyczące systemów IT lub zbioru danych. O tym, jak ważna może być polityka bezpieczeństwa świadczą badania Security Trends – Bezpieczeństwo w erze cyfrowej 2015 przeprowadzone przez firmę Microsoft. Według nich najsłabszym ogniwem w systemie ochrony danych w organizacji jest, jak nietrudno się domyślić, człowiek. 81 proc. incydentów bezpieczeństwa

54

eseller News Extra

Polityka dotycząca bezpieczeństwa musi być dokumentem spisanym, dostępnym i zrozumiałym dla każdego pracownika korzystającego z zasobów IT.

wynika z faktu, że użytkownicy końcowi nie przestrzegają zasad bezpieczeństwa. Wśród istotnych czynników wymienia się również niewystarczające zaangażowanie zarządów w obszar bezpieczeństwa (62 proc.), brak świadomości zagrożeń ze strony działów biznesowych (62 proc.) oraz brak spójnej strategii działań w obszarze bezpieczeństwa IT. – Bez wątpienia polityka bezpieczeństwa IT jest jednym z najważniejszych dokumentów w każdej organizacji, ponieważ stanowi fundament budowania rozwiązań bezpieczeństwa infrastruktury IT. Niestety, jak pokazuje praktyka, różnie z tym bywa. Według raportu „W obronie cyfrowych granic, czyli 5 rad, aby realnie wzmocnić


„RESELLER NEWS” EXTRA Określa ona, które zasoby i w jaki sposób mają być chronione. Powinna też obejmować opis możliwych rodzajów naruszenia bezpieczeństwa, takich jak m.in. utrata danych, ich wyciek, nieautoryzowany dostęp, a także scenariusze postępowania w takich sytuacjach i działania, które pozwolą uniknąć powtórzenia się danego incydentu, z odesłaniem do szczegółowych obowiązujących w firmie procedur. Polityka bezpieczeństwa definiuje również poprawne i niepoprawne korzystanie z zasobów, takich jak m.in. konta użytkowników, dostęp do danych i oprogramowania.

Łukasz Jesis, CEO, Xopero Software Sukces naszej polityki bezpieczeństwa w dużej mierze zależy od tego, czy już na wstępie postawimy sobie właściwe pytania. Powinniśmy rozważyć takie kwestie, jak to, czy zabezpieczamy tylko firmę, jej siedzibę ze wszystkimi zasobami, czy też należy w polityce uwzględnić oddziały oraz pracowników mobilnych. Podobnie trzeba zastanowić się, ile i jakie urządzenia zabezpieczamy. Czy są to tylko serwery i stacje robocze, a może także tablety i telefony? Jak wiele danych zgromadzonych na nich należy zabezpieczać? Jaka powinna być wartość RPO i RTO? Kluczową kwestią może być również to, czy dane backupu mają być przechowywane w jednej lokalizacji, czy raczej będzie to infrastruktura hybrydowa – jedna kopia lokalnie, a druga w chmurze? Tego typu pytań może być znacznie więcej i zależą one od specyficznych potrzeb konkretnego przedsiębiorstwa. ochronę firmy przed CYBER ryzykiem; styczeń 2016” opublikowanego przez PwC, zaledwie 46 proc. firm w Polsce kieruje się klarownie zdefiniowanymi, formalnymi regułami bezpieczeństwa. Nader często okazuje się, że polityka bezpieczeństwa istnieje tylko z nazwy. Tymczasem stworzenie spójnej i klarownej polityki bezpieczeństwa powinno być priorytetem w większości firm – zauważa Bartłomiej Bojarski, Business Unit Manager, Presales & Solution Design, AB SA. ZAWARTOŚĆ POLITYKI BEZPIECZEŃSTWA Polityka bezpieczeństwa powinna zawierać zbiór spójnych, precyzyjnych reguł i procedur, według których dana organizacja buduje, zarządza oraz udostępnia dane, dokumenty i zasoby informatyczne.

Polityka bezpieczeństwa powinna zawierać zbiór spójnych, precyzyjnych procedur, według których buduje się, zarządza oraz udostępnia dane, dokumenty i zasoby informatyczne. – Polityka bezpieczeństwa powinna dobrze zdefiniować dostęp do danych – mówi Paweł Gregorczyk, kierownik Działu Wsparcia Sprzedaży Infrastruktury w Oracle Polska. – Przede wszystkim firmy powinny trzymać się zasady „least privilige”, czyli nadawania pracownikom najmniejszych możliwych uprawnień do wykonywania ich obowiązków. Czy administrator systemu powinien mieć dostęp do danych osobowych pracowników? Czy pracownik działu HR musi mieć dostęp do bazy danych klientów firmy? Segregacja ról jest bardzo ważna. Z pomocą przychodzą tu mechanizmy Role-Based Access Control w systemie Solaris czy Database Vault w bazie danych Oracle. Kolejny krok to maskowanie danych. Czy pracownicy marketingu muszą mieć dostęp do pełnych danych osobowych? Zazwyczaj wystarczają wybrane dane do potwierdzenia,

Artur Cyganek, Dyrektor regionu Europa Środkowa i Wschodnia w Acronis Nowoczesna polityka ochrony danych w każdej firmie, niezależnie od jej wielkości, powinna zawierać i uwzględniać takie aspekty, jak m.in.: przechowywanie danych w chmurze, wirtualizacja serwerów, sieci i stacji roboczych oraz dostęp do firmowych danych mobilnych przez mobilnych użytkowników. Wszystkie one muszą być dostosowane do realnych potrzeb i możliwości budżetowych firmy. Przy wyborze odpowiedniego rozwiązania, warto zwrócić uwagę nie tylko na najnowsze technologie, np. mechanizm Blockchain w Acronis True Image 2017 New Generation, funkcje Disaster Recovery, odtwarzanie danych z chmury czy backup aplikacji mobilnych, ale także na możliwości ich obsługi przez użytkownika bez ingerencji w jego codzienną pracę. z kim mamy do czynienia. Mechanizmy Data Masking pozwolą na „ukrycie” nadmiarowych danych. Dane należy również zaszyfrować. Kiedy haker wejdzie w posiadanie tak zabezpieczonych danych, nie będą one miały dla niego żadnej wartości – dodaje Paweł Gregorczyk. – Odpowiednio zdefiniowana polityka bezpieczeństwa w ogromnej mierze pomaga zapobiegać incydentom. Nie może jednak w stu procentach zagwarantować bezpieczeństwa informacji, ponieważ w organizacji najsłabszym ogniwem jest człowiek. Nawet najlepsze procedury nie wystarczą, gdy pracownik zapomni ich stosować lub popełni błąd. Dlatego warto wdrażać narzędzia, które odciążają pracowników, automatyzując działania, jak np. regularne wykonywanie kopii zapasowych i ich testowanie – uzupełnia Tomasz Krajewski, Presales Manager Eastern Europe, Veeam Software. 55

eseller News Extra


„RESELLER NEWS” EXTRA

Tomasz Krajewski, Presales Manager Eastern Europe, Veeam Software Polityka bezpieczeństwa nowoczesnej organizacji bez wątpienia powinna nadążać za zjawiskami takimi jak smartfonizacja, BYOD czy cloud computing, które są nieuniknionym elementem procesu cyfrowej transformacji. Większość dużych przedsiębiorstw ma świadomość zagrożeń i stara się aktualizować posiadaną strategię bezpieczeństwa. Dla mniejszych, mniej zasobnych firm kwestia bezpieczeństwa stanowi spore wyzwanie. Choć wiadomo, że o wiele lepiej jest zapobiegać niż leczyć, wielu przedsiębiorców wciąż podejmuje skuteczne działania prewencyjne dopiero po doświadczeniu dotkliwej w skutkach awarii. BEZPIECZEŃSTWO A TRENDY Polityka bezpieczeństwa musi być dokumentem spisanym, dostępnym i zrozumiałym dla każdego pracownika korzystającego z zasobów IT, a także dla klientów firmy, korzystających z jej zasobów. Pamiętajmy też, aby w polityce bezpieczeństwa uwzględnić wszystkie najnowsze trendy biznesowe – w tym przechowywanie danych w chmurze, szeroko pojętą wirtualizację oraz dostęp do firmowych danych z poziomu urządzeń mobilnych, takich jak smartfony czy tablety. Warto w tym miejscu przypomnieć, że zapewnienie właściwego poziomu bezpieczeństwa w organizacji wymaga połączenia w jeden sprawnie działający system najnowszych technologii z odpowiednim poziomem świadomości pracowników i to począwszy od szczebla kierowniczego. – Przez kilka ostatnich lat przechodzimy przez ewolucję związaną z odchodzeniem od ochrony danych zgromadzonych w ściśle określonej lokalizacji do ochro56

eseller News Extra

ny danych, które mogą znajdować się na dowolnym urządzeniu u dowolnego użytkownika. Ta ewolucja spowodowała, że oprócz tradycyjnych zapisów w politykach bezpieczeństwa koncentrujących się na ochronie sieci, jej komponentów i zabezpieczeniu sprzętu, administratorzy powinni przede wszystkim przedefiniować pojęcie tego, co wymaga ochrony i na jakim poziomie. Dane, które dotychczas były bezpieczne na lokalnym serwerze, na którym pracowała firmowa aplikacja, przestają być bezpieczne, kiedy zaczynają być procesowane przez serwery w chmurze, zlokalizowane u producenta oprogramowania czy sprzętu lub wykorzystywane przez usługodawcę. Nowoczesna polityka bezpieczeństwa powinna przede wszystkim koncentrować się na zabezpieczaniu danych, wykorzystując nowoczesne narzędzia i technologie typu DLP, szyfrowanie danych, monitorowanie sieci oraz zachowania i zasad dostępu do zasobów firmowych samych użytkowników, którzy z reguły stanowią najsłabsze ogniwo w łańcuchu bezpieczeństwa – mówi Krysztof Hałgas, prezes zarządu Bakotech.

Polityka bezpieczeństwa definiuje również poprawne i niepoprawne korzystanie z zasobów, takich jak m.in. konta użytkowników, dostęp do danych i oprogramowania.

– Zasady polityki bezpieczeństwa są podobne, a z czasem można rozszerzyć ich zakres na systemy zewnętrzne. Często praktykowanym rozwiązaniem jest zdefiniowanie kilku systemów zaufania, jak np.: systemy wewnętrzne, zaufane systemy zewnętrzne (Data Center, CRM) oraz niezaufane systemy zewnętrzne, takie jak Facebook, Twitter, LinkedIn itp. Warto rów-

Miłosz Jaworski, Network & Security Solution Architect, AB SA Nie ma jednoznacznej recepty, która pozwoliłaby całkowicie zabezpieczyć organizacje przed incydentami niezależnie od ich źródła. Pamiętajmy, że nie ważne, jak zaawansowane technologicznie rozwiązania typu DLP zastosujemy, to wszystko zależy od tego, jak restrykcyjną politykę bezpieczeństwa chcemy wprowadzić i na ile będziemy potrafili ją później egzekwować. Na przykład użytkownik może wziąć prywatny telefon i zrobić zdjęcie dokumentowi na ekranie, a później wysłać je w dowolne miejsce na świecie i jeżeli nie zakażemy mu przynoszenia takich urządzeń w miejsce składowania danych, nigdy nie będziemy w 100 proc. pewni ich poufności. System DLP jako taki z założenia ma nas chronić tylko przed możliwością wysłania niepożądanych, wrażliwych lub istotnych z punktu widzenia organizacji informacji. Przykładem jest tu „syndrom CTRL+Enter” przy pisaniu e-maili w MS Outlook, powodujący natychmiastowe wysłanie redagowanego e-maila. nież zdefiniować poziomy klasyfikacji danych (poufności) i określić, jakie dane mogą być przesyłane, przy użyciu jakiego kanału oraz to, w jaki sposób są przechowywane. Należy także zdefiniować zasady bezpieczeństwa dla pracowników w podróży lub tych, którzy pracują zdalnie – pomocne mogą być w tym przypadku VPN, szyfrowanie dysków oraz pamięci w telefonach komórkowych, blokowanie ekranu czy hibernacja laptopa zamiast uśpienia. Zazwyczaj polityka bezpieczeństwa jest krótkim i zwięzłym dokumentem w formie manifestu, a szczegółowe aspekty są definiowane w dodatkowych dokumentach, takich jak np. klasyfikacja danych. Warto zdefiniować sposób postępowania w przypadku


„RESELLER NEWS” EXTRA słane zostają w załączniku, nie do jednego, ale do wszystkich naszych kontrahentów znajdujących się w skrzynce adresowej firmowego programu pocztowego. – Sama polityka jedynie stanowi punkt wyjścia. W praktyce najistotniejsza jest jej konsekwentna realizacja. Pozwala to na ograniczenie ryzyka wystąpienia incydentów i szkód z nimi związanych, jednak nigdy nie można zapewnić sobie gwarancji pełnej ochrony. W kontekście DLP kluczowe są kwestie kontroli dostępu oraz monitorowania i zabezpieczenia komunikacji w ramach sieci – zauważa Sebastian Krystyniecki, Principal SE, Channel w firmie Fortinet. Krysztof Hałgas, prezes zarządu Bakotech Resellerzy i integratorzy, jako dedykowane organizacje zajmujące się bezpieczeństwem IT, są naturalnie predestynowani do tworzenia oferty edukacyjnej. Wiedza i doświadczenie, które jest częścią każdego doświadczonego dostawcy rozwiązań bezpieczeństwa IT, mogą stanowić ważny aspekt w budowaniu strategii rynkowej i tworzeniu oferty edukacyjnej. Zmiany w środowisku IT powodują i będą powodowały coraz większe zapotrzebowanie na tego typu usługi. Co za tym idzie, integratorzy, którzy odpowiednio dostosują swoją ofertę będą mogli znacznie zwiększyć sprzedaż i marże oraz zbudować pozytywny wizerunek profesjonalnego dostawcy usług. wykrycia incydentu bezpieczeństwa i jasno podkreślić, że zgłoszenie nie wiąże się z negatywnymi konsekwencjami, nawet jeśli jest to fałszywy alarm – uważa Magdalena Baraniewska, Corporate Channel Sales Manager w firmie F-Secure. ZAPOBIEGANIE INCYDENTOM Aby skutecznie zapobiegać incydentom, należy nie tylko monitorować przestrzeganie polityki bezpieczeństwa, ale również uświadomić pracownikom, jak jest ona ważna. Polityka musi obejmować wszystkie urządzenia wykorzystywane w procesie przetwarzania danych, w tym drukarki, skanery, komputery, urządzenia mobilne, nośniki danych, także klucze i dyski USB, oraz to, czy konkretne dane mają być szyfrowane, czy nie. Nietrudno wyobrazić sobie sytuacje, kiedy poufny wydruk pozostawiony na tacce drukarki trafia, wraz ze stertą innych wydruków, w niepowołane ręce, czy przez przypadek ważne, niezaszyfrowane dane w pliku Excela wy-

Aby skutecznie zapobiegać incydentom, należy nie tylko monitorować przestrzeganie polityki bezpieczeństwa, ale również uświadomić pracownikom, jak jest ona ważna. – O wycieku informacji mówimy wtedy, gdy poufne dane biznesowe, i nie tylko, trafiają w niepowołane ręce. Każda firma powinna mieć jasno zdefiniowane kroki, które należy podjąć, jeśli do czegoś takiego dojdzie. Trzeba sobie zdać sprawę, że gdy wyciek danych ma miejsce – to zwykle nie z powodu ataku hakera, a raczej w wyniku kradzieży sprzętu. Dlatego strategia Data Leakage Protection powinna być integralną część polityki bezpieczeństwa danej firmy i określać m.in. stosowane zabezpieczenia i bezpieczeństwo haseł, ich cykl życiowy, zdalne czyszczenie zawartości pamięci urządzeń po kradzieży itp. – mówi Łukasz Jesis, CEO w firmie Xopero Software. – Dobrze zdefiniowana polityka bezpieczeństwa na pewno jest w stanie zminimalizować ryzyka wystąpienia działań niepożądanych. Tylko w idealnym świecie mielibyśmy 100-proc. gwarancję bezpie-

Mariusz Baczyński, dyrektor regionalny ds. sprzedaży rozwiązań cyberbezpieczeństwa, region Europy Centralnej, Cisco Jesteśmy świadkami czwartej rewolucji przemysłowej, której istotnym komponentem jest cyfryzacja. W cyfrowym świecie coraz więcej elementów podłączonych jest do sieci, a dane zyskują ogromną wartość strategiczną dla każdej firmy. Aby osiągnąć sukces, należy zadbać o bezpieczny, niezakłócony dostęp do danych i usług je wykorzystujących. Technologie sieciowe w systemach firmowych ewoluują w kierunku modeli otwartych, które umożliwiają korzystanie z mechanizmów automatyzacji opartych na kontrolerach sieci, analityki działającej w czasie rzeczywistym i uwzględniającej informacje kontekstowe, wirtualizacji funkcji sieciowych (NFV) oraz nieograniczone możliwości skalowania oferowane przez rozwiązania działające w chmurze. Wszystkie te elementy powinny być zawarte w procedurach uzupełniających podstawowy dokument, jakim jest polityka bezpieczeństwa. czeństwa, uwzględniając przy tym brak błędów czynnika ludzkiego. Aby wspierać politykę bezpieczeństwa, potrzebne są szkolenia i wdrożenia procedur ochrony danych szczególnie wrażliwych, co poniekąd wymuszają na nas obecne instytucje (GIODO) lub nadchodzące regulacje (GDPR). W przypadku wycieku informacji poufnych, warto mieć przygotowane odpowiednie procedury i kanały komunikacji, aby nie tylko móc szybko zareagować i poinformować o zagrożeniu, a także mieć pewność, że firma nie poniesie strat ani nie otrzyma kar finansowych z tego tytułu – dodaje Artur Cyganek, Dyrektor regionu Europa Środkowa i Wschodnia w firmie Acronis. 57

eseller News Extra


„RESELLER NEWS” EXTRA mogą narazić na niebezpieczeństwo i straty całe przedsiębiorstwo. Oczywiście zazwyczaj robią to zupełnie nieświadomie. Dlatego najważniejsze z punktu widzenia zapobiegania incydentom jest edukowanie pracowników, przypominanie im o niebezpieczeństwach, uczulanie na sygnały, które mogą wskazywać na atak cyberprzestępcy, informowanie o najnowszych sposobach wykorzystywanych przez hakerów do wyłudzenia danych – stwierdza Bartosz Chmielewski, Presales Engineer EMEA, Intel Security.

Bartosz Chmielewski, Presales Engineer EMEA, Intel Security Polityka bezpieczeństwa nigdy nie jest dokumentem zamkniętym. Zmieniają się i rozwijają technologie oraz organizacja pracy czy potrzeby pracowników i zarządów. Firmy muszą to uwzględniać w obowiązujących procedurach, aby nie hamowały one rozwoju firmy i biznesu. Odpowiednia polityka to zawsze kompromis pomiędzy bezpieczeństwem a funkcjonalnością, dlatego z jednej strony warto dopuszczać użycie pojawiających się technologii, ale z drugiej strony trzeba należycie je zabezpieczać. SZKOLENIA Jak już wspomnieliśmy, polityka bezpieczeństwa powinna zawierać również informacje dotyczące zasad edukacji pracowników w zakresie bezpieczeństwa i weryfikacji przestrzegania przez nich określonych zasad postępowania związanych z bezpieczeństwem IT. Firma PwC podaje, że 70 proc. wszystkich incydentów związanych z naruszeniem cyberbezpieczeństwa powodowanych jest przez obecnych lub byłych pracowników firm. Większa część incydentów, jak choćby otwarcie zawirusowanego załącznika, wynikała z braku świadomości szkodliwości własnych działań. – Nawet najlepiej napisana polityka nie ochroni firmy przed niefrasobliwymi zachowaniami pracowników. A to właśnie oni są najczęściej najsłabszym ogniwem wszystkich zabezpieczeń w firmie. Łącząc się z siecią firmową za pomocą słabo lub w ogóle niezabezpieczonych prywatnych urządzeń mobilnych, otwierając na służbowym sprzęcie załączniki z nieznanych źródeł lub podłączając do firmowego komputera przypadkowe pamięci USB, 58

eseller News Extra

Aż 70 proc. wszystkich incydentów związanych z naruszeniem cyberbezpieczeństwa powodowanych jest przez obecnych lub byłych pracowników firm. – Szkolenia personelu są niezwykle istotne. Musimy pamiętać, że łańcuch bezpieczeństwa jest tak silny, jak jego najsłabsze ogniwo, a ogniwem tym bardzo często jest człowiek czy też brak wiedzy na temat nowoczesnych cyberzagrożeń. Szkolenia powinny odbywać się regularnie i uwzględniać nieustannie ewoluujący krajobraz cyberprzestępczy oraz typowe techniki wykorzystywane w atakach. Dobrze przeszkolony pracownik jest w stanie zauważyć np. atak ransomware na bardzo wczesnym stadium i uchronić firmę przed poważnymi problemami. Biorąc pod uwagę, że coraz więcej producentów z branży bezpieczeństwa IT włącza tego typu szkolenia do swojego portfolio, resellerzy mogą uczestniczyć w tych działaniach, a nawet po przejściu odpowiednich treningów – sami szkolić klientów na podstawowym poziomie – mówi Piotr Kupczyk, Dyrektor biura komunikacji z mediami, Kaspersky Lab Polska.

Piotr Kupczyk, Dyrektor biura komunikacji z mediami, Kaspersky Lab Polska Polityka bezpieczeństwa musi ewoluować wraz ze zmieniającym się krajobrazem cyberzagrożeń, a także musi dotrzymywać kroku pojawiającym się technologiom. Odpuszczając kwestię ochrony na jednym polu, możemy narazić na poważne ryzyko całą firmę. Producenci dobrych rozwiązań bezpieczeństwa trzymają rękę na pulsie, dzięki czemu firmy mogą zaopatrzyć się w systemy ochrony spełniające wszystkie współczesne wymagania. POLITYKA BEZPIECZEŃSTWA W POLSKICH FIRMACH Jak wynika z raportu „W obronie cyfrowych granic, czyli 5 rad, aby realnie wzmocnić ochronę firmy przed CYBER ryzykiem” opublikowanego przez PwC, systematyczne szkolenia pracowników z cyberbezpieczeństwa obniżają koszty ochrony IT aż o 76 proc. Jednak za osłabienie odporności przedsiębiorstwa na zagrożenia odpowiada nie tylko czynnik ludzki. Większość osób odpowiedzialnych za systemy IT bardzo dobrze zdaje sobie z tego sprawę. Według badań przeprowadzonych przez Microsoft, najważniejszym pozaludzkim czynnikiem stwarzającym zagrożenie dla bezpieczeństwa informatycznego firmy są obecnie urządzenia mobilne, które nie mają odpowiedniego systemu zabezpieczeń. W ten sposób uważa 49 proc. respondentów. Na drugim miejscu wymienić należy brak możliwości skutecznego identyfikowania naruszeń bezpieczeństwa (44 proc.) . Najbardziej bezpieczne są środowiska chmurowe. Obawy o brak odpowiedniego ich zabezpieczenia wyraża jedynie 8 proc. CSO (Chief Security Officer).


„RESELLER NEWS” EXTRA MSP często stosują tylko podstawowe rodzaje zabezpieczeń, stając się łatwym celem dla cyberataków czy przypadków utraty danych. Inną kwestią, która wymaga zmiany jest często brak jakiejkolwiek polityki bezpieczeństwa lub niedokładne dopasowanie opracowanych procedur bezpieczeństwa do struktury i potrzeb danej organizacji – mówi Paweł Żuchowski, Dyrektor Techniczny, Quest Dystrybucja.

Paweł Gregorczyk, kierownik Działu Wsparcia Sprzedaży Infrastruktury w Oracle Polska Budując bezpieczne środowisko i definiując politykę bezpieczeństwa, powinniśmy skupić się na ochronie danych – to one są najcenniejsze. Przykładem mogą być tu dane mówiące o tym, jak działa nasze przedsiębiorstwo, czyli np. baza danych systemu ERP. Dane osobowe klientów firmy składowane np. w systemie CRM (lub ich kopia przekazana do działu marketingu) to też bardzo wrażliwa kwestia, szczególnie w kontekście nadchodzących regulacji Unii Europejskiej. Kiedy takie dane znajdą się w rękach hakera, firma może być szantażowana lub narazić się na utratę zaufania klientów. Mieliśmy w ostatnich latach kilka przykładów, gdzie bazy klientów firm telekomunikacyjnych czy banków były wystawione na tzw. „giełdzie”. – Bezpieczeństwo danych jest na pewno jednym z kluczowych zagadnień dla każdego przedsiębiorstwa w Polsce i coraz częściej staje się priorytetem w strategii IT. Coraz więcej firm planuje inwestycje w obszarze bezpieczeństwa. Sytuacja w polskich firmach nie odbiega tutaj od światowych trendów, szczególnie w przypadku tych największych, często globalnych organizacji, które są zobligowane do stosowania polityki bezpieczeństwa wspólnej dla wszystkich oddziałów lub spółek należących do jednej grupy kapitałowej. Inaczej wygląda sytuacja w małych i średnich przedsiębiorstwach. Często poziom bezpieczeństwa w tych organizacjach jest słabszy w porównaniu z europejskimi standardami. Mimo że w ostatnich latach znacznie wzrosła świadomość cyberzagrożeń i ich skutków dla organizacji, to firmy z sektora

Najważniejszym pozaludzkim czynnikiem stwarzającym zagrożenie dla bezpieczeństwa informatycznego firmy są obecnie niezabezpieczone urządzenia mobilne.

– W listopadzie 2016 r. Cisco przeprowadziło badanie wśród menadżerów i specjalistów IT, którzy odpowiadają za bezpieczeństwo w największych polskich firmach i instytucjach publicznych. Ich zdaniem bezpieczeństwo i zarządzanie ryzykiem jest trendem, który w ciągu najbliższych 3 lat wywrze największy wpływ na IT w ich organizacjach. 65 proc. z ankietowanych potwierdza, że cyberbezpieczeństwo ma udział w sukcesie ich firmy i jest ważne dla budowania zaufania do niej. Ponadto 33 proc. ankietowanych wskazało bezpieczeństwo jako czynnik wspierający innowacyjność w ich organizacjach. Właściwa strategia bezpieczeństwa to podstawa cyfrowej transformacji i motor napędzający rozwój. Decydenci IT w Polsce rozumieją to w coraz większym stopniu – podsumowuje Mariusz Baczyński, dyrektor regionalny ds. sprzedaży rozwiązań cyberbezpieczeństwa, region Europy Centralnej w Cisco. n

Paweł Żuchowski, Dyrektor Techniczny, Quest Dystrybucja Polityka bezpieczeństwa to nie tylko stworzenie informatycznego systemu ochrony informacji, który zapewni ochronę krytycznych obszarów infrastruktury informatycznej. To także, a może nawet przede wszystkim, pracownicy, którzy mają stosować się do określonych procedur. Niestety, firmy często skupiają się tylko na stronie informatycznej tego zagadnienia, zapominając o tworzeniu i rozwijaniu kultury bezpieczeństwa, o konieczności kształtowania świadomości bezpieczeństwa informacji wszystkich pracowników – od prezesa do szeregowego pracownika. Bez edukowania pracowników o niebezpieczeństwach, bez stworzenia u nich odpowiedniego poziomu świadomości w kwestii ochrony informacji, nie może być mowy o zapewnieniu odpowiedniego poziomu bezpieczeństwa w przedsiębiorstwie. Dlatego istotną rolę w zapewnieniu bezpieczeństwa informacji powinny pełnić szkolenia prezentujące zagrożenia czy socjotechniki stosowane przez cyberprzestępców. Szkolenia takie powinny uczyć użytkowników wykrywania podejrzanych zachowań i prawidłowych reakcji na wykryte zagrożenia.

59

eseller News Extra


DORADCA

W marketingu liczy się

skuteczność Artur Król

Często w przeszłości działy marketingu były traktowane jak zło konieczne. Mało skuteczne, kosztowne, działające po omacku. Podejście do marketingu jako generatora przede wszystkim kosztów było, i niestety nadal jeszcze jest, obiegową opinią. Teraz jednak za sprawą bardzo precyzyjnych metod mierzenia i analizowania danych oraz zupełnie nowych sposobów dotarcia do konsumentów, rola marketingu jako użytecznego i w pełni kontrolowanego narzędzia stała się faktem.

Ż

aden biznes nie może funkcjonować bez stawiania sobie celów, które chce osiągnąć. To cele, które można definiować na wiele sposobów przyczyniają się do realizacji planów rozwojowych, ekspansji na rynki docelowe, walki z konkurencją czy zwiększenia sprzedaży. Przykłady można mnożyć długo. Jednak osiągniecie tych celów jest możliwe, jeżeli idzie w parze z planowanym, strategicznym działaniem. Najpierw więc powstaje idea, pomysł i cele do osiągnięcia. Kolejnym etapem jest przygotowanie właściwego planu marketingowego, aby można było je zrealizować. Większość obecnych działań opiera się w dużej mierze na modelu wykorzystującym nowoczesne technologie, w tym Internet jako miejsce prowadzenia komunikacji. Nic dziwnego, że marketing online czy internetowy jest najczęściej spotykaną formą marketingu, jednocześnie coraz bardziej odchodzi się już od tradycyjnych metod, np. outdooru itp.

60

eseller News

Informacja zawsze jest kluczem do sukcesu, również w marketingu. To wstęp do znacznie istotniejszej kwestii interpretacji zgromadzonych informacji, czyli analizy Big Data.

JAK DEFINIOWAĆ SKUTECZNOŚĆ? Istotne znaczenie w zakresie analizowania skuteczności działań w marketingu internetowym ma pojęcie konwersji. Pokrótce pozwala ono oceniać skuteczność realizacji wytyczonych celów. Cele, jak było to już wcześniej wskazane, możemy dokładnie sprecyzować. Aby przybliżyć, czym są cele, można wskazać np. budowanie świadomości marki, zwiększenie ruchu na stronie internetowej czy sprzedaż w sklepie internetowym. Można zdefiniować również jako cel np. wypełnienie formularza kontaktowego etc. Jednak czy wszystkie cele są możliwe do mierzenia, czy zawsze da się zliczać konwersje? Na pewno tak, dla działań prowadzonych w sferze cyfrowej, czyli w Internecie, np. takich jak kampania reklamowa. A co z działaniami poza Internetem? Odpowiedź brzmi, że również można. Przykład to zliczanie liczby odwiedzin w salonie sprzedaży lub gromadzenia innych danych, które następnie można przesłać do syste-


DORADCA mu reklamowego czy analitycznego. Tam dalej można je porównywać np. z danymi ze sprzedaży sklepu internetowego itd. Mierzenie skuteczności działań marketingowych ma charakter wielowymiarowy, co z kolei pozwala poznać odbiorców przekazu, np. reklamy. Czego się dowiemy? Nie tylko, ile osób zobaczyło reklamę, przeszło po kliknięciu do strony internetowej. Istotne jest również to, że zbierzemy informacje, w jakich porach dnia potencjalni odbiorcy naszych reklam lub innych treści dokonali pożądanego dla nas działania – konwersji, z jakiego urządzenia, ile mieli lat. Coraz częściej dowiadujemy się o płci, zainteresowaniach, statusie odbiorców. Informacja zawsze jest najważniejszym kluczem do sukcesu i to dotyczy także sfery marketingu. Posiadanie informacji to wstęp do znacznie bardziej istotnej kwestii dotyczącej interpretacji zgromadzonych informacji. Systemy Big Data, o których coraz częściej dużo się mówi, stanowią trzon analizy skuteczności działań w dzisiejszym cyfrowym świecie. Gromadzimy bardzo dużo danych, których nie potrafimy analizować dla uzyskania rzeczywiście wartościowych informacji. Co więcej, sam proces gromadzenia danych nie wystarczy do skutecznego analizowania otoczenia firmy, czyli klientów, odbiorców usług czy produktów. Trzeba zrozumienia, jak przekuć wiedzę pozyskaną drogą realizacji kampanii marketingowych w sukces komercyjny czy wizerunkowy organizacji. Innymi słowy, potrzeba wiedzy, jak zmonetyzować posiadane informacje. Monetyzacja stanowi ważny efekt, jaki chcą osiągać firmy z analizy Big Data. Technologia ta bez wątpienia zmieniła sposób, w jaki firmy mogą dzisiaj pozyskiwać informacje kluczowe do kształtowania swojej strategicznej działalności. Możliwość analizowania wielowymiarowych danych pozwoliło na skok w inną rzeczywistość. W przeszłości analizie poddawano informacje pochodzące z zewnętrznych czy wewnętrznych źródeł w jednowymiarowych segmentach. To zapewniało uzyskanie niepełnych danych i wyciąganie nieprecyzyjnych informacji dotyczących m.in. potrzeb klientów, oczekiwań rynku, opinii na temat produktów, usług czy marki. Jednak oprócz wielowymiarowości analizy danych pochodzących z wielu źródeł, Big Data pozwala je analizować w procesie „tu i teraz”. To ważna cecha tej technologii i obecnie najbardziej pożądana. Korzystanie z Big Data to jednak domena nie tylko dużych firm. Coraz częściej – i to z sukcesem – sięgają po narzędzia Big

Data firmy z segmentu SMB. Dzięki Big Data as-a-Service (BDaaS), kiedy to zewnętrzny dostawca (provider) zapewnia firmie dostęp do narzędzi analitycznych. Możliwe stało się rozszerzenie analizy dużych woluminów danych do segmentu SMB, czyli firm, których zwykle nie stać na zakup własnych tego rodzaju systemów. Do narodzin BDaaS i jej dynamicznego rozwoju przyczyniła się chmura obliczeniowa. Powód? Coraz więcej informacji, które są pozyskiwane do analiz i są przetwarzane w systemach BDaaS, ma swoje źródło w Internecie. Potwierdzają to dane raportu „Data Never Sleeps 4.0”, z którego wynika, że w ciągu jednej minuty Internauci przeglądają ponad 159 tys. stron, publikują 400 godzin materiałów wideo w serwisie YouTube i dzielą się ponad 216 tys. zdjęć na Facebooku.

Marketing w mediach społecznościowych wymaga przemyślanej strategii, czasu, ludzi oraz odpowiedniej technologii. Najprostszym miernikiem skuteczności działań jest konwersja, np. przyrost fanów. SKUTECZNE DZIAŁANIA W MEDIACH SPOŁECZNOŚCIOWYCH Media społecznościowe stały się ważnym elementem w strategii marketingowej dla dużej rzeszy firm. Prowadzą one działania marketingowe w social media w celu budowania świadomości marki, promocji produktów czy usług oraz sprzedaży. Najważniejszym zasobem w mediach społecznościowych są relacje, ale w przypadku marek i firm tego typu serwisy służą do komunikacji przede wszystkim z konsumentami czy klientami. Konstruują relacje, aby przekładały się one na konkretny zysk. Media społecznościowe nie są darmowe. Często można spotkać się z podejściem,

w którym traktuje się obszar social mediów jako darmowy dostęp do zasobów w postaci konkretnych odbiorców treści. Mylnie zakładając, że tak jak założenie profilu firmowego trwa klika minut, tak samo prosto i łatwo pójdzie dalej. Kiedy przyjęta strategia „nie wypala”, nadchodzi refleksja, że jednak coś robimy nie tak i wcale nie jest prosto osiągać założone cele. Media społecznościowe przede wszystkim wymagają przemyślanej strategii działania, czasu, pracowników oraz odpowiedniej technologii. Czy w mediach społecznościowych jest możliwe mierzenie skuteczności działań? Jest to możliwe, wymaga jednak dobrego przygotowania założeń działań, czyli strategii, oraz zdefiniowania, co będziemy uważali za osiągnięty cel. Najprostszym i najczęściej stosowanym miernikiem jest konwersja. Można mierzyć przyrost fanów lub liczbę udostępnień treści, ale miarodajnym może być przede wszystkim pomiar skuteczności akcji, które przyniosły nam finansowy zysk (np. przyczyniły się do zakupu produktu lub usługi). Następuje to, kiedy na firmowym profilu kierujemy odbiorców do witryny internetowej lub sklepu. Jak możemy śledzić wyniki działań? Po pierwsze, dostępne są statystyki dotyczące strony i zachowania użytkownika na profilu firmy czy marki, gdzie można sprawdzić, czy akcje powodują reakcje odbiorców treści. Znacznie więcej informacji i głębszej analizy na temat użytkowników przychodzących z social media udostępnia m.in. Google Analytics. Mierzenie skuteczności działań marketingowych jest konieczne bez względu na miejsce czy wielkość działań. Zawsze należy mieć jasny pogląd na to, czy to, co robimy spełnia nasze oczekiwania i umacnia nas w przekonaniu, że podążamy we właściwym kierunku. Wartość mierzenia skuteczności działań ma jeszcze jeden walor, pozwala ocenić skuteczność ulokowanych zasobów finansowych, w tym budżetu marketingowego. Należy pamiętać również o tym, że zysk nie musi być utożsamiany z wartością finansową. Często droga do sukcesu, np. wypromowania produktu na rynku, wiedzie przez silną pozycję jego marki. Dlatego warto podnosić skuteczność przez pryzmat prowadzania skoordynowanych wielotorowych działań. Również takich, które biorą za cel wzrost świadomości nowego produktu lub ocieplenie wizerunku. Marketerzy coraz częściej decydują się na działania, korzystając z różnych metod czy obszarów, aby zwiększyć w konsekwencji np. dochód osiągany przez firmę. n 61

eseller News


PERSONALIA

Joseph Kim został nowym prezesem Samsung Electronics Polska. Zastąpił na tym stanowisku Hadriana Baumanna, który został mianowany prezesem Samsung Electronics UK. Joseph Kim dołączył do firmy Samsung Electronics prawie 29 lat temu. W strukturze organizacji zajmował stanowiska w różnych departamentach, m.in. HR oraz w sprzedaży i marketingu. Pełnił także funkcje globalne. Nowy prezes Samsung Electronics Polska ma bogate doświadczenie w zarządzaniu oddziałami firmy. W ciągu minionych 5 lat zajmował stanowiska dyrektora generalnego Samsung Electronics w krajach bałtyckich (2011-2013) oraz w Samsung Electronics Rumunia (2014 – do maja 2017 r.).

Maciej Bocian objął funkcję Country Managera na Polskę i kraje Europy Środkowej w Pure Storage. Na nowym stanowisku menadżer będzie odpowiedzialny za budowę strategii działania spółki w Polsce oraz krajach Europy Środkowej, m.in. rozwój sieci partnerskiej oraz sprzedaży rozwiązań All Flash Pure Storage. Poprzednio Maciej Bocian przez 3 lata pracował w NetApp jako Country Leader. Wcześniej ponad 6 lat spędził w Cisco, był dyrektorem sprzedaży rozwiązań Data Center w regionie Europy Środkowej. Menadżer ma ponad dwudziestoletnie doświadczenie w branży IT. Karierę zaczynał w IBM Polska, gdzie przez 7 lat pracował nad dużymi projektami infrastrukturalnymi w zakresie sieci komputerowych.

Tomasz Melion, dotychczasowy HPE Senior Product Manager w Tech Data Polska, objął funkcję HPE Business Unit Managera. Przy wsparciu zespołu będzie on pracował nad zwiększeniem i poszerzeniem kanału sprzedaży produktów Hewlett Packard Enterprise. W zakresie jego obowiązków znalazły się: utrzymywanie relacji z partnerami handlowymi, pozyskiwanie nowych partnerów dla produktów i rozwiązań HPE, uzgadnianie wspólnych działań marketingowych, organizowanie szkoleń handlowych, współpraca z producentem oraz wzmacnianie pozycji rynkowej Tech Data Polska w zakresie produktów i rozwiązań HPE. Tomasz Melion ma 9-letnie doświadczenie w dystrybucji IT. Z Tech Data jest związany od 2014 r., najpierw pracując na stanowisku Product Managera, a następnie Senior Product Managera. Przed przyjściem do Tech Data przez 6 lat pracował w Alstor jako Product Manager. Ma wykształcenie wyższe. Ukończył Politechnikę Warszawską oraz Szkołę Główną Handlową w Warszawie.

62

eseller News

Dariusz Kwieciński został nowym Head of Eastern Europe w Fujitsu. Obejmując tę rolę, Kwieciński będzie odpowiedzialny za sprzedaż i biznes firmy na terenie Polski, Czech, Słowacji i Węgier. Od czasu dołączenia do Fujitsu w 2006 r., Dariusz Kwieciński obejmował wiele stanowisk menadżerskich, m.in.: Service Manager, Service Director, Head of Services oraz Acting Managing Director i Country Head of Sales w Polsce. Jest absolwentem Politechniki Warszawskiej.

Odysseas Charalambous awansował na wiceprezesa Cisco w regionie Europy Wschodniej. Charalambous dołączył do Cisco w 2006 r. jako Dyrektor Generalny w Grecji, na Cyprze i Malcie. Od 2011 r. kierował Cisco w regionie obejmującym Austrię, Czechy, Słowację i Węgry, a następnie wszystkie 15 krajów Europy Wschodniej, w tym Polskę. Odysseas Charalambous jest absolwentem studiów doktoranckich w dziedzinie sztucznej inteligencji na UMIST (University of Manchester Institute of Science and Technology).

Mariusz Ziółkowski został nowym Country Leaderem na Polskę w Tech Data. Poprzednio sprawował funkcję Country Managera w Technology Solutions, która wcześniej wchodziła w skład firmy Avnet, a teraz jest częścią firmy Tech Data. Ziółkowski stanął na czele połączonych firm Tech Data oraz Technology Solutions w Polsce, a jego przełożoną będzie Judith Ecker, wiceprezes regionalny, Region Wschód, Tech Data.

więcej informacji o zmianach personalnych na portalu ResellerNews.pl


DZIĘKUJEMY, ŻE JESTEŚ Z NAMI

NAJLEPSZE ŹRÓDŁO INFORMACJI O RYNKU IT

PONAD 80.000 TYS. ODBIORCÓW 1 MILION ODSŁON MIESIĘCZNIE

RESELLERNEWS.PL REDAKCJAARESELLERNEWS.PL


V EDYCJA

GŁOSUJ NA SWOICH

NA SWOICH KANDYDATÓW Złote ASY IT wręczymy m.in. w kategoriach PRODUCENT n DYSTRYBUTOR n VALUE ADDED DISTRIBUTOR n PROGRAM PARTNERSKI n SZEF KANAŁU PARTNERSKIEGO n DEBIUT ROKU n HANDLOWIEC ROKU n CHMURA ROKU n SZKOLENIE ROKU n INNOWACYJNA FIRMA n WYDARZENIE ROKU n OSOBOWOŚĆ ROKU n

Ogłoszenie wyników plebiscytu podczas Wieczoru Asów IT w połowie października 2017 r. Więcej informacji na portalu www.resellernews.pl


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.