Nr 07-09 (62-64) 2017 r.
www.resellernews.pl
Nie ma ucieczki od chmury w biznesie Przemysł 4.0 szansą dla integratorów Szkolenia tworzą wartość dodaną
TEMAT NUMERU
Szkoły potrzebują nowoczesnego sprzętu IT Jedna czwarta sprzętu w szkołach ma powyżej 10 lat. Takie programy, jak „Aktywna tablica”, mają to zmienić.
PAMIĘCI MASOWE W FIRMIE: NAJNOWSZE ROZWIĄZANIA UMOŻLIWIAJĄCE PRZETWARZANIE I SKŁADOWANIE DUŻYCH ILOŚCI DANYCH. SPRZĘT, OPROGRAMOWANIE I INFRASTRUKTURA. KORZYŚCI DLA RESELLERÓW.
SPIS TREŚCI
W NUMERZE ________________________________
28 Wiedza coraz bardziej potrzebna
WYDARZENIA
32 Szkolenia tworzą wartość dodaną
4 Informacje z rynku IT w skrócie
________________________________
________________________________
TECHNOLOGIE
s. 21
s. 28
34 Nie ma ucieczki od chmury
TEMAT NUMERU
w biznesie 6 Szkoły potrzebują nowoczesnego 41 Big Data z chmurą, IoT, w CRM
sprzętu IT
i analityce predyktywnej
Jedna czwarta sprzętu w szkołach ma powyżej 10 lat. Takie programy,
46 IT w branży fitness & wellness oraz
s. 34
opiece zdrowotnej
jak „Aktywna tablica”, mają to zmienić.
________________________________ 18 W trosce o bezpieczeństwo uczniów i szkolnej sieci ________________________________ 51 Pamięci masowe w firmie
BIZNES
s. 51
21 Przemysł 4.0 – nowa rewolucja
55 NAS coraz popularniejszy wśród polskich firm
przemysłowa szansą dla ________________________________
integratorów 24 Systemy kognitywne w cyfrowym
60 Transparentność to cel fiskusa
biznesie
REDAKTOR NACZELNY Dariusz Chełstowski d.chelstowski@resellernews.pl
ZESPÓŁ REDAKCYJNY Dariusz Wałach
DORADCA
Barbara Mejssner b.mejssner@resellernews.pl Marcin Bieńkowski m.bienkowski@resellernews.pl Bohdan Szafrański b.szafranski@teleinfo.com.pl
Redaktor naczelny portalu d.walach@resellernews.pl Beata Tallar-Zakrzewska b.tallar@resellernews.pl
Artur Król a.krol@resellernews.pl FOTOREPORTER Mariusz Szachowski
REKLAMA Dorota Frydryszewska dyrektor ds. marketingu d.frydryszewska@resellernews.pl tel. 607 082 161, 781 111 453 Elżbieta Górska dyrektor ds. promocji e.gorska@resellernews.pl tel. 781 111 693
DTP I DRUK Agencja Reklamowa CPM WYDAWCA IT Press Dariusz Wałach – prezes zarządu Beata Tallar-Zakrzewska – prokurent
ADRES REDAKCJI 05-500 Piaseczno, ul. Dworcowa 38/12 www.resellernews.pl
3
eseller News
WYDARZENIA
Rekordowy rok finansowy Grupy AB
Wzrost leasingu IT dzięki dotacjom unijnym
Grupa AB w roku finansowym 2016/2017 (zakończył się 30 czerwca br.) zwiększyła przychody o 725 mln zł (10 proc.), do prawie 8,3 mld zł, wypracowując 116 mln zł wyniku EBITDA (+3 proc. rdr) i 68 mln zł zysku netto (+5 proc. rdr). W samym IV kwartale roku finansowego 2016/2017 (II kwartał br. kalendarzowego) Grupa wypracowała blisko 2 mld zł przychodów, generując ponad 23 mln zł marży na poziomie EBITDA i blisko 13 mln zł wyniku netto.
W I półroczu 2017 r. wartość wyleasingowanego sprzętu IT przekroczyła 370 mln zł, co oznacza 6 proc. wzrost rdr – wynika za najnowszych danych Związku Polskiego Leasingu. Eksperci EFL zwracają uwagę, że dynamika rynku IT i szerzej – maszyn i urządzeń – w całym 2017 r. będzie wynikała przede wszystkim z wykorzystania środków unijnych oraz konieczności odnowienia parków maszynowych.
Według firmy wynik ten jest efektem dbałości o maksymalizację marż, najniższego w branży wskaźnika kosztów SG&A oraz najwyższych kapitałów własnych, co jest doceniane w szczególności przez ubezpieczycieli i instytucje finansowe. – Grupa AB konsekwentnie podąża ścieżką lidera rynku, kumuluje kapitał i reinwestuje zyski w dalszy bezpieczny rozwój – komentuje Andrzej Przybyło, prezes Andrzej Przybyło, prezes zarządu AB SA zarządu AB SA. Firma jest głównym partnerem w regionie dla globalnych firm IT takich jak: Apple, Microsoft, HP, Lenovo, Asus czy Dell. Łącznie Grupa AB ma w swojej ofercie blisko 100 tys. produktów. AB buduje swoją pozycję na rynku VAD nie tylko poprzez doświadczony zespół ekspertów, ale również unikalny na rynku DemoLab (możliwość testowania zaawansowanych produktów IT przez finalnego użytkownika, również w trybie zdalnym), Centrum Kompetencyjne, które jest autoryzowanym ośrodkiem egzaminacyjnym Pearson VUE (międzynarodowe egzaminy certyfikacyjne z branży IT) czy Noc IT (spotkania resellerów z klientami końcowymi w luźniejszej atmosferze, testy produktów). Grupa liczy też na wzrosty w dystrybucji rozwiązań chmurowych. – Świat idzie w kierunku chmury, a Grupa AB już na wczesnym etapie rozwoju tego rynku wypracowała pozycję lidera wśród dystrybutorów. Istotne jest tu nasze strategiczne partnerstwo z firmą Microsoft, w ramach którego zostaliśmy wybrani jako dystrybutor Cloud Solution Provider (CSP) w regionie. Zbudowaliśmy regionalną platformę, dzięki której obsługujemy już kilkuset partnerów – podkreśla Zbigniew Mądry, członek zarządu ds. handlu w AB SA. Jak wynika z prognoz IDC Poland, cały rynek cloud computingu w Polsce w 2016 r. miał wartość 630 mln zł, w tym roku powinien przekroczyć próg 800 mln zł, rosnąc do 2019 r. pięć razy szybciej niż rynek tradycyjnych usług IT.
więcej informacji z branży na portalu ResellerNews.pl
4
eseller News
Maszyny i inne urządzenia, w tym IT, stanowią drugi, po pojazdach, segment rynku finansowany przez firmy leasingowe (ZPL: udział w rynku na poziomie 26,7 proc.). Od stycznia do czerwca br. udzielono 8,5 mld zł łącznej wartości finansowania, czyli o 1/5 więcej niż w analogicznym okresie ubr. – Dynamika tego rynku wynikała przede wszystkim z dwóch czynników. Po pierwsze, z wykorzystania środków unijnych. W ub.r. środki unijne z pierwszej perspektywy 2007-2013 już zostały wyczerpane, natomiast z kolejnej (2014-2020) jeszcze nie były uruchomione. Stąd niska baza. Kiedy ruszyły programy unijne, wpłynęło to na finansowanie maszyn i urządzeń. Nie tylko maszyn rolniczych, medycznych czy budowlanych, ale również sprzętu IT. Po drugie, odbicie segmentu maszyn i urządzeń to efekt konieczności odnowienia parków maszynowych. Wykorzystanie mocy produkcyjnych na koniec 2016 r. było na poziomie aż 80 proc., co wskazuje na konieczność odnowienia lub uzupełniania parków maszynowych w tym roku. Te same elementy będą wpływać na trend wzrostowy w drugiej części roku – uważa Radosław Woźniak, wiceprezes EFL.
Konferencja KOMSA Polska – Zaprojektuj z nami swoją przyszłość! Już 6 października br. dystrybutor KOMSA Polska organizuje konferencję, na którą zaprasza: klientów kanału B2B, resellerów w kanale niezależnym – w tym partnerów sieci sklepów aetka, klientów sieci elektro, reprezentantów kanału operatorskiego oraz integratorów! Wydarzenie „Zaprojektuj z nami swoją przyszłość”, które będzie miało formułę targów, odbędzie się we wrocławskim Dynamic Congress Center. Będzie to wyjątkowa okazja spotkania się wiodących na rynku dostawców z klientami z różnych sektorów sprzedaży. Godnym uwagi będzie niewątpliwie panel dyskusyjny, na którym zostaną omówione najnowocześniejsze trendy. Uczestnicy zapoznają się z nowościami produktowymi, przetestują innowacyjne urządzenia, ale przede wszystkim porozmawiają o tym, dokąd zmierza rynek ICT. Aby poznać pełną agendę wydarzenia i wziąć w nim udział, należy wejść na oficjalną stronę konferencji http://www.komsa-konferencja.pl/. Rejestracja jest warunkiem koniecznym uczestnictwa. Spotkaj się z nami i porozmawiajmy o przyszłości! Pamiętaj – jutro jest już dziś!
RAPORT
Szkoły potrzebują
nowoczesnego sprzętu IT Marek Jaślan
Rząd ma ambitne plany w zakresie wyposażania polskich szkół w technologie informacyjno-komunikacyjne (TIK). Ministerstwo Edukacji podkreśla, że prowadzona reforma systemu oświaty ma na celu upowszechnianie innowacji pedagogicznych w szkołach z wykorzystaniem nowatorskich rozwiązań programowych, organizacyjnych lub metodycznych, mających na celu poprawę jakości pracy szkoły. Przybliżyć do tego celu mają zaś także takie projekty jak łącze o przepustowości co najmniej 100 Mb/s w każdej szkole, nauka kodowania czy program „Aktywna tablica”.
W
gminie Pisz większość pracowni komputerowych w szkołach ma sprzęt zakupiony jeszcze na przełomie 2004/2005 r. Ponadto w ostatnim pięcioleciu szkoły były doposażone głównie w tablice interaktywne i rzutniki finansowane z projektów unijnych oraz w ramach posiadanych środków budżetowych – mówi Zuzanna Konopa, dyrektor Zespołu Ekonomicznej Obsługi Szkół i Przedszkoli w Piszu w woj. warmińsko-mazurskim. KOMPUTERY JAK Z DEMOBILU I nie jest to wcale odosobniony przykład obrazujący stan wyposażenia polskich szkół w sprzęt informatyczny. Dominik
6
eseller News
Ostatnie projekty systemowe dla szkół miały miejsce 10 lat temu, a 1/4 sprzętu w szkołach ma powyżej 10 lat.
Kopera, zastępca dyrektora Departamentu Telekomunikacji w Ministerstwie Cyfryzacji, podczas debaty na tegorocznej konferencji „Miasta w Internecie” przyznał, że dziś w szkołach 1/4 sprzętu ma powyżej 10 lat. A dla jego resortu to o tyle istotna informacja, że odpowiada on za projekt Ogólnopolskiej Sieci Edukacyjnej (OSE), którego celem jest zapewnienie każdej ze szkół łącza o przepływności co najmniej 100 Mb/s. Żeby móc zaś korzystać z szybkiego Internetu, potrzebny jest też odpowiedni sprzęt. Cecylia Szymańska-Ban, odpowiedzialna w polskim oddziale Microsoft za sektor edukacji, uważa, że ten właśnie aspekt może być piętą achillesową OSE.
RAPORT nie projekty systemowe dla szkół miały miejsce 10 lat temu. I rzeczywiście wtedy zdecydowanie zmieniły oblicze polskiej szkoły w obszarze TIK. Niestety, w wielu szkołach do dzisiaj komputery z tamtejszych projektów są wykorzystywane na tyle, na ile to możliwe, a zupełnie nie przystają już do obecnych warunków i stopnia rozwoju technologicznego, nie mówiąc już o solidnym przygotowaniu uczniów do rynku pracy – mówi Cecylia Szymańska-Ban.
Paweł Ruman, Country Sales Manager Poland – AOC & Philips LCD Monitors Od dłuższego czasu zarówno na rynkach globalnych, jak i na rynku lokalnym panuje trend coraz większych przekątnych i rozdzielczości monitorów. Wierzymy, że zawita on też do placówek szkolnych. Zarówno na polu systemów monitoringu, jak i sprzętu wykorzystywanego do celów dydaktycznych. Monitory o przekątnych większych niż 24 cale i rozdzielczościach powyżej Full HD (1920 × 1080 pikseli) oferują bardzo dużą przestrzeń roboczą i zwiększają wygodę użytkowania. Są to cechy nie do przecenienia szczególnie w szkołach wyższych, gdzie powierzchnie monitorowane potrafią być bardzo rozległe, a uczniowie korzystają ze specjalistycznego oprogramowania typu CAD czy Corel. Modele oparte na matrycach TN oferują bardzo korzystny stosunek ceny do jakości i świetnie sprawdzą się jako składnik systemu monitoringu, gdzie jakość odwzorowania kolorów czy szerokie kąty widzenia nie są kluczowymi cechami. Natomiast konstrukcje oparte na matrycach IPS oraz VA i ich pochodnych (AHVA, AMVA, PLS) będą doskonałym wyborem do pracowni, gdzie nierzadko dwie osoby pracują przy jednym stanowisku i kąty widzenia potrafią mieć znaczenie. Warto zwrócić uwagę na raczkujące w naszym kraju klasy o profilu e-sportowym. Monitory gamingowe o szybkim czasie reakcji i odświeżaniu 144 Hz lub wyższym z pewnością będą dla nich pomocnym narzędziem.
Takie programy, jak „Aktywna tablica”, na który przewidziano łącznie 224 mln zł, są dla dyrektorów szkół i nauczycieli bodźcem, by wprowadzić innowacje. – Przez jakiś czas te stare komputery będą jeszcze wykorzystywane. Dlatego przewidujemy wprowadzenie usług terminalowych. Trzeba się jednak zastanowić nad modernizacją sprzętu w szkołach. Istnieją w tym zakresie pewne możliwości w ramach Regionalnych Programów Operacyjnych, także w Programie Rozwoju Obszarów Wiejskich – mówił w Gdańsku Dominik Kopera.
Cecylia Szymańska-Ban, odpowiedzialna w polskim oddziale Microsoft za sektor edukacji Różne są strumienie finansowania rozwiązań infrastrukturalnych dla szkół, począwszy od projektów systemowych, poprzez projekty finansowane z regionalnych programów operacyjnych, projekty finansowane przez jednostki samorządu terytorialnego, którym podlegają szkoły, a skończywszy na indywidualnych budżetach szkół – w Polsce nie ma zbiorczych danych dotyczących tej części rynku. 224 MLN ZŁ Z PROGRAMU „AKTYWNA TABLICA” Pewną poprawę w tym zakresie ma przynieść przyjęty przez rząd program „Aktywna tablica”, który będzie realizowany w latach 2017-2019. Jego zadaniem jest zapewnienie szkołom niezbędnej infrastruktury w zakresie TIK w postaci nowoczesnych pomocy dydaktycznych (tablic interaktywnych, projektorów lub projektorów ultra krótkoogniskowych, głośników ç
– W ramach projektu Ogólnopolskiej Sieci Edukacyjnej szkoły czekają na rozwiązania systemowe i technologicznie, które będą ustandaryzowane, bezpieczne i łatwe w zarządzaniu. Krytyczne w tym kontekście jest również odświeżenie bazy sprzętowo- technologicznej. Ostat7
eseller News
OKIEM KLIENTA
Cyfrowa edukacja
z Epsonem Trudno wyobrazić sobie, by współczesna placówka edukacyjna mogła sprawnie działać bez nowoczesnych technologii – sprzętu i oprogramowania wspomagającego zarówno sam proces edukacji, jak i administracyjną stronę funkcjonowania. Na rynku znajdziemy setki takich produktów – ale jak wybrać sprzęt i oprogramowanie, które realnie pomogą nauczycielom w przekazywaniu wiedzy, a uczniom w przyswajaniu materiału? Odpowiedź na to pytanie znaleźć możemy przyglądając się ofercie japońskiej firmy Epson, która od początku swej działalności skupia się na rozwijaniu i udoskonalaniu oferty dla instytucji edukacyjnych.
P
odstawowym atutem portfolio produktowego firmy jest fakt, iż znajdziemy w nim rozwiązania z wielu różnych kategorii sprzętowych, wykorzystywanych w nowoczesnych szkołach – Epson produkuje zarówno urządzenia do wyświetlania obrazu (projektory interaktywne, kluczowe np. do prowadzenia atrakcyjnych wizualnie lekcji interaktywnych), drukowania dokumentu i obrazów (niezbędnych zarówno do pracy uczniom, jak i do pracy w działach administracji), skanowania, a także oprogramowanie do wygodnego, efektywnego zarządzania całą firmową „flotą” sprzętową. TANIE DRUKOWANIE… W DOSKONAŁEJ JAKOŚCI Urządzenia drukujące są z pewnością jedną z najbardziej przydatnych w szkole czy na uczelni kategorią sprzętu – mimo postępującej digitalizacji, dzisiejsza szkoła to wciąż ogromna liczba testów, sprawdzianów, pracy indywidualnej na kartach pracy, a także wszelkich innych dokumentów, które drukować muszą pracownicy działów administracji, księgowości czy sekretariatu. Dlatego właśnie tak ważną kwestią jest wybór odpowiedniego, optymalnie dobranego do potrzeb szkoły czy uczelni, urządzenia do wydruku. Wiele placówek decyduje się w takiej sytuacji na zakup
8
eseller News
któregoś z urządzeń przeznaczonych dla małych biur czy użytkowników domowych (kierując się niską ceną zakupy), praktyka pokazuje jednak, że to zdecydowanie złe rozwiązanie – choćby dlatego, że taki sprzęt nie dysponuje bowiem zwykle zestawem funkcji niezbędnych w pracy biurowej i nie jest przystosowany do regularnego tworzenia dużej liczby wydruków czy specyfiki pracy grupowej. Najlepszym rozwiązaniem dla organizacji edukacyjnej będzie wybranie drukarki, która od podstaw zaprojektowana jest z myślą o drukowaniu dużej ilości materiałów, pracy pod dużym obciążeniem oraz maksymalnej wszechstronności. Świetnym przykładem będą tu profesjonalne drukarki Epson z serii WorkForce Pro RIPS, korzystające z wymiennych pakietów RIPS (ang. Replaceable Ink Pack System), dzięki którym najbardziej zaawansowane modele tej serii są w stanie wydrukować do 100 000 stron bez
konieczności wymiany atramentu. Warto podkreślić, że to wynik to ponad 5-krotnie lepszy wynik od kolorowych drukarek laserowych (i nawet 20-krotnie lepszy od konkurencyjnych drukarek atramentowych) – jest to o tyle istotne, że to właśnie „prądożerne” i niezbyt ekologiczne „laserówki” przez lata były uważane za idealne dla firm czy szkół. Seria Epson WorkForce (np. WF-6590DWF czy obsługująca format A3+ WF-8510DW) przełamuje ten stereotyp, oferując użytkownikom tańsze, bardziej ekologiczne rozwiązanie, które dodatkowo gwarantuje znacznie lepszą jakość wydruków. ITS – ŚWIETNE WYDRUKI W KLASIE Wszelkiego rodzaju wydruki są jednym z podstawowych narzędzi nauczyciela w codziennej pracy., a dzięki drukarkom z serii Epson WorkForce można je wygodnie, szybko i w doskonałej jakości przygotować zarówno przed rozpoczęciem lekcji, jak i z wyprzedzeniem – na kolejny tydzień czy miesiąc. Często jednak zdarza się, że potrzeba przygotowania wydruku pojawia się również na bieżąco, podczas pracy z uczniami – na lekcji, kółku zainteresowań czy pracy nad prezentacjami. W takich sytuacjach doskonale sprawdzą się drukarki Epsona z systemem Ink Tank System. ITS jest bowiem przełomowym rozwiązaniem, znacznie
OKIEM KLIENTA
obniżającym cenę druku wszelkich materiałów (również grafik i zdjęć w jakości fotograficznej), przy jednoczesnym zapewnieniu wyjątkowo łatwej i wygodnej eksploatacji drukarki. Działanie Ink Tank system opiera się bowiem na zastosowaniu w drukarce zamiast klasycznych kartridży wbudowanych pojemników z atramentem, które można w razie potrzeby uzupełnić, dolewając atrament z oferowanych przez Epsona butelek (w cenie poniżej 30 zł za sztukę – drukarki z ITS-em dostarczane są z kompletem atramentu, który powinien wystarczyć nawet na dwa lata drukowania). Co więcej, klienci którzy do końca roku zdecydują się na zakup wybranych modeli drukarek Epsona z systemem ITS, mogą liczyć na dodatkowe korzyści – firma uruchomiła bowiem promocję, w ramach której oferuje zwrot do 500 zł po dokonaniu rejestracji na stronie firmy: www.epson.pl/ promocja. OBRAZ PRZYJAZNY DLA MŁODYCH OCZU Projektory, pozwalające na wygodne prezentowanie uczniom wszelkich materiałów audiowizualnych, filmów, grafik, wykresów itp. stały się już w polskich szkołach standardem – jednak planując zakup takiego urządzenia warto zwrócić
uwagę, by wybrać model zaprojektowany właśnie dla instytucji edukacyjnych. Epson z myślą o szkołach stworzył całą serię projektorów interaktywnych, które idealnie nadają się do pracy grupowej, pozwalając na wyświetlanie obrazu z różnych źródeł, modyfikowanie go w czasie rzeczywistym (dotykowo!) i zapisywanie wszelkich zmian do pliku. Świetnym przykładem takiego rozwiązania są skomponowane z myślą o szkołach zestawy, na które składają się projektory Epson dostarczane w pakiecie z oprogramowaniem SMART Notebook. Zestaw taki, w połączeniu z tablicą, pozwala nauczycielom i uczniom w pełni wykorzystać możliwości, jakie daje zastosowanie podczas
lekcji najnowocześniejszych projektorów oraz wszechstronnego oprogramowania wspomagającego pracę grupową i proces nauczania. Cała linia interaktywnych projektorów Epson została przetestowana i autoryzowana przez SMART do użytku z oprogramowaniem SMART Notebook – w pełni obsługuje ono interaktywne funkcje Epson, takie jak sterowanie dotykiem i korzystanie z dwóch piór. Doskonałe przykłady sprzętu dla szkół i uczelni to projektory EB-680Wi/ EB-675Wi, wykorzystujące technologie short/ultrashort, a także Epson EB-696Ui, wyświetlający obraz WUXGA – 1920 x 1200 punktów. Warto mieć też na uwadze, że nowoczesne projektory Epsona, korzystające z autorskiej technologii 3LCD, gwarantują jednocześnie, że obraz wyświetlany uczniom czy studentom będzie zawsze ultrawyraźny, jasny i czytelny, z doskonale odwzorowanymi kolorami – nawet w jasnej klasie czy sali wykładowej. Dodajmy też, że szkoły planujące zakup projektora w najbliższej przyszłości będą mogły liczyć na wsparcie rządowe – za sprawą programu „Aktywna tablica”, który przewiduje finansowe wsparcie szkół (w latach 2017 – 2019) w zakresie zakupu tablic interaktywnych, projektorów, głośników, czy interaktywnych monitorów dotykowych. Jak widać, Epson jest doskonale przygotowany do pełnej obsługi wszelkich instytucji edukacyjnych – firma dostarcza rozwiązania z praktycznie każdego segmentu sprzętu, którym może być zainteresowania szkoła, uczelnia wyższa czy jakakolwiek inna instytucja zajmująca się edukacją. Jej atutem jest również przejrzysta oferta oraz doskonale przygotowani do swoich zadań resellerzy, którzy skupiają się nie tylko na sprzedawaniu rozwiązań Epsona, ale przede wszystkim na pomaganiu klientom w idealnym dobraniu sprzętu i oprogramowania do specyfiki danej instytucji i potrzeb jej pracowników. n
Więcej informacji: www.epson.pl/education www.epson.pl/clo Kontakt z Epson: Andrzej Bieniek: andrzej.bieniek@epson.eu Robert Reszkowski: robert.reszkowski@epson.eu 9
eseller News
RAPORT ç oraz innych urządzeń pozwalających na przekaz dźwięku, a także interaktywnych monitorów dotykowych). Na program przewidziano łączną kwotę 224 mln zł. Szkoła będzie mogła otrzymać 14 tys. zł jako maksymalną kwotę na zakup pomocy dydaktycznych. W przypadku maksymalnego wsparcia finansowego organ prowadzący szkołę – z wyjątkiem szkół prowadzonych przez ministrów – będzie miał obowiązek wnieść wkład własny w kwocie 3,5 tys. zł. Całkowita wartość zadania dla szkoły wyniesie w sumie 17,5 tys. zł (wsparcie finansowe 14 tys. zł + wkład własny 3,5 tys. zł). Zuzanna Konopa mówi, że wszystkie szkoły podstawowe, dla których organem prowadzącym jest gmina Pisz, będą aplikowały o dofinansowanie w ramach programu „Aktywna tablica”.
Aneta Żygadło, Market Account Manager Poland, Optoma Europe Ltd. Portfolio projektorów Optoma, jakie możemy zaproponować do szkół i uczelni, jest bardzo szerokie, począwszy od najbardziej budżetowych lampowych modeli w technologii DLP rozdzielczości: SVGA, XGA, WXGA, Full HD, w projekcji standardowej, krótkiej czy też ultra krótkiej, z jasnościami od 3000 ANSI do 5000 ANSI i wyżej, a skończywszy na modelach 4K w atrakcyjnych cenach czy też projektorach laserowych. Dla naszych partnerów biznesowych istotna jest jakość produktów, ich niezawodność. Jednak nie ma się co oszukiwać, partner musi zarabiać, a na naszych produktach oferujemy wysokie marże. Minimalne parametry w projektorach nisko budżetowych Optomy są tak dobre, że oferują wysoką jasność min. 3000 ANSI, wysoki kontrast min. 18 000:1 i, co równie ważne, dzięki zaawansowanej technologii Amazing Colours i dokładnemu od-
10
eseller News
– Na chwilę obecną tylko jedna szkoła podstawowa zlokalizowana na terenie wiejskim nie posiada dostępu do Internetu na poziomie co najmniej 30 Mb/s, jednakże prowadzone są starania o doprowadzenie Internetu na minimalnym poziomie uprawniającym do udziału w programie i jeżeli nie w 2017 r., to w następnych latach szkoła będzie wnioskowała o dofinansowanie w ramach tego programu. Każda szkoła ma co najmniej jeden pakiet narzędzi i oprogramowania przypadającego na jedną wnioskowaną tablicę interaktywną lub jeden wnioskowany monitor, tj. przenośny komputer dla nauczyciela lub inne mobilne urządzenie mające funkcje komputera wraz z preinstalowanym systemem operacyjnym, oprogramowaniem biurowym, oprogramowaniem antywirusowym, opro-
gramowaniem zabezpieczającym przed dostępem do treści niepożądanych – informuje Zuzanna Konopa.
wzorowaniu standardu barw sRGB / REC709, we wszystkich naszych modelach mamy gwarancję, że obrazy wyświetlane są bardzo szczegółowe, a jednocześnie bardziej realistyczne, bo oddają naturalne i nasycone kolory. Projektory Optoma zapewniają niskie koszty użytkowania, chociażby dzięki długiemu okresowi żywotności lampy. W cyklu edukacyjnym można osiągnąć długość życia lampy do 10 000 h, dodatkowo lampa wyłącza się automatycznie po 10 minutach działania bez sygnału wejściowego, a projektory zapewniają oszczędności rzędu 70 proc. zużycia energii (co wynika z użytkowania produktu w trybie eco+) oraz posiadają funkcje redukujące zbędne koszty i ułatwiające użytkowanie jak Automatyczne wyłączanie czy też Ekologiczne wyciszanie AV. Projektory Optoma są proste w obsłudze, oparte na technologii DLP mają konstrukcję bezfiltrową, dlatego nie ma potrzeby wymiany filtra czy też konserwacji. Coraz więcej mamy zapytań o projektory laserowe do szkół i uczelni, ze względu na to, że technologia ta pozwala na praktycznie bezobsługowe i bardzo długie używanie projektora. Minimalny czas pracy takiego urządzenia to 20 000 h. Optoma ma obecnie kilkanaście modeli laserowych i sukcesywnie poszerza tę ofertę. Mamy projektory laserowe standardowego rzutu, jak również ultra krótkiego oraz wersje interaktywne w jasnościach od 4000 ANSI lumenów do 8000 ANSI lumenów, w tym również z wymienną optyką. Nasze flagowe modele to: ZW400UST (WXGA), ZH4000UST (Full HD) – oba modele ultra krótkiego rzutu o wysokiej jasności 4000 ANSI lumenów występujące również w wersji interaktywnej, czy też ZU510T 5000 ANSI lumenów z rozdzielczością WUXGA.
Przyznaje jednak, że w niektórych placówkach problem może być wkład własny. – Jeżeli po przeanalizowaniu budżetów nie wszystkie szkoły będą mogły wziąć udział w programie w 2017 r., to na pewno będą aplikowały o dofinansowanie w 2018 r. Ze wstępnego rozeznania potrzeb, w ramach rządowego programu na lata 2017-2019 „Aktywna tablica” zostaną zakupione do szkół głównie tablice interaktywne wraz z projektorami, ewentualnie dodatkowo głośniki – mówi Zuzanna Konopa.
Szkoła będzie mogła otrzymać 14 tys. zł jako maksymalną kwotę na zakup pomocy dydaktycznych.
SZKOŁY JUŻ PYTAJĄ Robert Sejda, country Sales & Project Manager B2B w AB, zauważa, że szkoły od dłuższego czasu próbują wykorzystywać dostępne fundusze na cyfryzację swoich obiektów. A w związku z programem „Aktywna tablica” dystrybutor otrzymuje już pierwsze zapytania od swoich partnerów. Na razie ma to jednak bardziej charakter sondowania rynku. – Jednak już na tym etapie tworzymy oferty promocyjne na sprzęt i systemy oraz wdrożenia dedykowane placówkom oświatowym. Warto zaznaczyć, że fundusze dostępne w ramach programu „Aktywna tablica” zostaną przeznaczone nie tylko na hardware czy software, ale też na podnoszenie kwalifikacji nauczycieli oraz szkolenia dla uczniów. AB posiada specjalną jednostkę edukacyjną – Centrum Kompetencyjne – która jest przygotowana na prowadzenie takich kursów – mówi Robert Sejda. Podkreśla, że AB już od kilku lat ma przygotowaną ofertę, która ma umożliwić szkołom przejście do epoki cyfryzacji.
RAPORT – Większość szkół już nad tym pracuje, tworząc odpowiednią infrastrukturę, a część z nich nawet wyposaża pracownie w dedykowany do nauki informatyki sprzęt – stwierdza Robert Sejda. Według niego problemem jest niestety brak standaryzacji, która wyrównałaby poziom i jakość oraz wyznaczała etapy, które należy spełnić, by dojść do danego celu. Jest jednak w tym zakresie optymistą, bo dokonujące się od jakiegoś czasu zmiany, to zdecydowanie dobra oznaka, choć uważa, że wciąż brakuje konkretnych ram czasowych i procesowych. – W tej chwili czekamy na konkretne wytyczne. Należy mieć jednak na uwadze, że zapowiadane zmiany dotyczące całego systemu edukacji mogą wpłynąć na tempo wprowadzania zmian w zakresie informatyzacji. Jesteśmy jednak pełni optymizmu i wierzymy, że projekty z zakresu cyfryzacji przyczynią się do rozwoju szkół – podkreśla Robert Sejda. Także Jacek Smak, dyrektor handlowy w NEC Display Solutions Europe GmbH, uważa, że wszystkie programy aktywujące i rozwijające najnowsze technologie w edukacji są dla przyszłości szkół bardzo istotne. Podkreśla, że wielu z partnerów NEC, aktywnie działających na rynku edukacyjnym, prowadzi specjalne szkolenia dla jednostek samorządowych i szkół, prezentując najnowsze technolo-
Adam Nowacki, Product Manager, Enterprise Business Group, AB SA Rynek wyposażenia placówek oświatowych to specyficzny rynek, który charakteryzuje się specyficznymi cechami. Jedną z nich jest mniejsza gotowość odbiorców do odstępstw od proponowanej specyfikacji zapytań ofertowych. Integratorzy muszą bowiem spełnić bardzo sprecyzowane wymagania, przy braku marginesu na ewentualne korekty. Specyficzne wymagania dotyczą też rodzaju sprzętu komputerowego, jaki zamawiają placówki oświatowe. Dużą popularnością na tym rynku cieszą się np. routery oraz oprogramowanie do
filtrowania dostępu do treści. Jest to zrozumiałe, jeśli weźmiemy pod uwagę, że głównymi użytkownikami jest młodzież. I last but not least – cena. Budżety, jakimi dysponują szkoły, wymuszają na nich poszukiwania rozwiązań nisko kosztowych, czyli takich, gdzie cena jest głównym kryterium wyboru. Dostawcy sprzętu, zainteresowani obsługą rynku oświaty powinni mieć w swojej ofercie sprzęt i rozwiązania, które łączą odpowiednią jakość z atrakcyjną ceną. Dużą szansą dla tego segmentu rynku są systemowe rozwiązania planowane przez polski rząd. W bieżącej perspektywie UE na lata 2014-2020 Polska ma do wykorzystania 82,5 mld euro z unijnej polityki spójności. Zgodnie z zapowiedziami polskiego rządu, część z tych środków ma wesprzeć rozwój gospodarki elektronicznej, a co za tym idzie, wygeneruje dodatkowe wzrosty sprzedaży u naszych partnerów. Z perspektywy placówek edukacyjnych mowa tutaj przede wszystkim o działaniach w ramach Programu Operacyjnego Polska Cyfrowa, dzięki którym wszystkie szkoły w Polsce mają niebawem dysponować łączem internetowym co najmniej 100 Mb/s. Wykorzystanie tak wydajnych przyłączy będzie wymagało zbudowania w szkołach infrastruktury sieciowej w standardzie Gigabit Ethernet. Dodatkowo szkoły mogą chcieć udostępniać Internet w całej szkole poprzez bezprzewodową sieć Wi-Fi i tutaj pod uwagę powinny być brane rozwiązania nie tylko w technologii N, ale raczej już w zastępującej N, wydajniejszej technologii AC.
ç
11
eseller News
„Aktywna tablica” z produktami NEC sprawdzonymi w edukacji Nowoczesne systemy multimedialne to już nie awangarda, a standard w nowoczesnej edukacji. Obecnie nauczanie multimedialne jest jedną z najciekawszych, ale i najchętniej wybieranych metod dydaktycznych stosowanych przez placówki oświatowe w całej Polsce. Multimedia w szkole wsparte programem „Aktywna tablica” mają szansę zaistnieć również w mniejszych miejscowościach, a także w szkołach, gdzie budżet nie pozwalał na całościowe sfinansowanie monitora czy projektora interaktywnego. W ofercie NEC Display Solutions znajduje się bardzo szerokie spektrum rozwiązań do wyświetlania obrazu idealnie odpowiadających specyfikacji programu „Aktywna tablica”. Projektory z serii V – Przystępne cenowo modele z doskonałym współ12
eseller News
czynnikiem ceny do jakości dostępne są w rozdzielczościach sięgających 1920 x 1080 pikseli oraz jasności do
3300 ANSI Lumenów. Dzięki zastosowaniu technologii DLP projektory te doskonale sprawdzą się w przypadku wyświetlania obrazów 3D oraz takich, gdzie przede wszystkim liczy się naturalne odwzorowanie kolorów. Seria V to również kompaktowe wymiary powodujące, że projektor może służyć również jako urządzenie mobilne z zastosowaniem w kilku salach. Multimedialne projektory z serii ME – to projektory wyposażone w lampy o jasności do 4000 ANSI Lumenów
OKIEM KLIENTA gwarantujące wyraźny obraz w szkolnych warunkach projekcyjnych. Dzięki zastosowaniu technologii 3LCD projektory charakteryzują się wyśmienitą ostrością obrazu oraz wysoką jasnością kolorów sięgającą jasności bieli. Pozwala to na wykorzystanie projektorów w salach, gdzie nie ma możliwości zaciemnienia. Seria ME to również bardzo długi czas pracy wynoszący nawet 9000 godzin! Dzięki zastosowaniu obiektywu o atrakcyjnym współczynniku projekcji wynoszącym 1.3-2.2:1 wszystkie projektory z serii ME mogą być wykorzystywane zarówno w mniejszych, jak i większych salach lekcyjnych, wyświetlając obraz o optymalnej wielkości. Seria ME oferuje również możliwość korekcji zniekształceń trapezowych zarówno w pionie, jak i w poziomie. W praktyce oznacza to możliwość umieszczenia projektora z boku sali i bezproblemowe wyświetlanie poprawnego formatu obrazu na jej środku. Wszystkie projektory z serii ME wyposażone zostały dodatkowo w unikatowe rozwiązanie MultiPresenter. Zintegrowana funkcjonalność MultiPresentera pozwala bezprzewodowo wyświetlać obraz z wielu źródeł jednocześnie (do 16). Umożliwia to jednoczesną prezentację wyników pracy aż 16 uczniów z ich własnych urządzeń typu: notebooki, tablety, smartfony. To unikatowe i proste w obsłudze oprogramowanie. Projektory z serii M Short – przygotowane zostały z myślą o atrakcyjnych budżetowo tablicach interaktywnych. Minimalizujące cień rzucany przez prezentera oraz jego oślepienie przez strumień światła projektory z serii M Short pozwalają na przyjazną projekcję w salach lekcyjnych we współpracy z interaktywnymi tablicami. Projektory z tej serii, podobnie jak z serii ME posiadają zaimplementowaną funkcjonalność MultiPresenter. Projektory z serii U/UM Ultra-Short – to modele z ultrakrótkim rzutem elimi-
nujące do minimum cień rzucany przez prezentera i jego oślepienie światłem. Oferta NEC w tym sektorze to modele zarówno DLP, jak i LCD. Dzięki temu projektory mogą być wykorzystanie zarówno w miejscach, gdzie liczy się naturalne odwzorowanie barw, jak i w przypadkach, kiedy najważniejszym staje się wysoka jasność kolorów. Projektory z serii UM posiadają zaimplementowaną funkcjonalność MultiPresenter i mogą wyświetlać obraz bezprzewodowo, co czyni je nie-
zwykle użytecznymi w szkole. Dodatkowo każdy projektor z serii projektorów ultra-krótkoogniskowych wyposażony może być w moduł interaktywny Multi-Pen oraz zestaw umożliwiający wyzwalanie dotyku na powierzchni projekcyjnej za pomocą palca: Multi-Touch. Dzięki temu projektory mogą wyświetlać interaktywny obraz na dowolnej płaskiej powierzchni, niekoniecznie białej – za sprawą wbudowanej funkcji korekcji koloru ściany. Seria U oraz UM to jedne z najbardziej zaawansowanych projektorów, gdzie na szczególną uwagę zasługuje model UM352W wyposażony w zintegrowany moduł tablicy. Oznacza to, że projektor posiada wbudowane oprogramowanie pozwalające wyświetlić interaktywną tablicę bez użycia komputera. MultiSync® E651-T – to dotykowy monitor o przekątnej 65 cali gwarantujący rzeczywistą obsługę wielokrotnego
dotyku nawet w dziesięciu punktach jednocześnie. Dzięki technologii dotykowej na bazie podczerwieni uzyskano szybką reakcję i doskonałą użyteczność. Ten monitor to biała tablica działająca na zasadzie Plug & Play, przez co można zacząć pracę tuż po wyjęciu go z opakowania. Ekran powleczono powłoką antyrefleksyjną i do minimum ograniczono pozostawianie odcisków palców na bezpiecznej powierzchni ze szkła ochronnego. Bezpłatna licencja na oprogramowanie DisplayNote dla wielu użytkowników przekształca monitor w doskonałe narzędzie do pracy grupowej. Można więc prezentować treści, udostępniać je i współpracować z maksymalnie pięcioma innymi osobami, które korzystają z własnych urządzeń! NEC MultiSync® E651-T może być wykorzystywany w miejscach, gdzie nie jest możliwe użycie projektora multimedialnego, chociażby ze względu na bardzo jasne otoczenie. Dlaczego warto wybrać projektory NEC? Niektóre modele projektorów NEC oferowane są w wersji edukacyjnej, ze specjalnie rozszerzoną gwarancją na lampę projektora. NEC Display Solutions przedłuża standardowy okres gwarancyjny lampy projektora z 6 miesięcy do 3 lat Darmowa gwarancja EDU dostępna jest dla modeli: V/M/ME/U/UM/P Aby uzyskać darmowe wydłużenie gwarancji, klient końcowy (szkoła) do 6 tygodni po zakupie projektora NEC musi dokonać rejestracji swojego produktu na stronie: www.education-nec.com Dodatkowo, wszystkie projektory NEC mają możliwość opcjonalnego, płatnego wydłużenia gwarancji na projektor do 5 lat. Więcej: www.nec-display-solutions.pl
13
eseller News
RAPORT E651-T. Jest więc w czym wybierać, tworząc ofertę pod „Aktywną tablicę” – podkreśla Jacek Smak. Według niego w programie dobrze zdiagnozowano potrzeby szkół, bo produkty wskazane w projekcie pokrywają się z najczęściej wybieranymi rozwiązaniami z portfolio NEC-a. – Do tej pory szkoły najchętniej wybierały albo nasze podstawowe projektory z serii V (do 3000 ANSI Lumenów) – to w przypadku skromniejszych budżetów, albo projektory krótko lub ultra krótkoogniskowe z naszej serii M, UM lub U – gdy placówka dysponowała większym budżetem. Widzimy również sporą szansę na znaczący wzrost popularności monitorów interaktywnych. Już przed ogłoszeniem programu „Aktywna tablica” otrzymywaliśmy z sektora edukacji coraz więcej tego typu zapytań. Po jego uruchomieniu – spodziewamy się jeszcze większego zainteresowania tymi produktami – mówi Jacek Smak. BODZIEC DO ZMIAN Wzrost zainteresowania ze strony sektora edukacyjnego rozwiązaniami TIK dostrzeç gie wykorzystywane obecnie w nauczaniu. To wszystko sprawia, że szkoły są dziś o wiele bardziej przygotowane na informatyczną rewolucję niż jeszcze kilka lat temu. – Środki unijne czy budżetowe są bardzo chętnie wykorzystywane w sektorze edukacyjnym. Naszym sztandarowym przykładem w tym obszarze jest projekt zrealizowany dla Urzędu Marszałkowskiego Województwa Kujawsko-Pomorskiego, opiewający na 2139 nowoczesnych tablic interaktywnych z projektorami Ultra-Short NEC, które trafiły do 539 szkół podstawowych tego regionu – mówi Jacek Smak. W NEC od jakiegoś już czasu stale otrzymują zapytania o sprzęt odpowiadający wymogom oferty „Aktywna tablica”. – W naszym przypadku jest to ponad 20 produktów – informuje Jacek Smak. Dlatego też nie ma on wątpliwości co do tego, że „Aktywna tablica” wpłynie na zwiększenie popytu na produkty objęte programem, czyli na interaktywne tablice, projektory oraz wielkoformatowe monitory interaktywne. – W przypadku NEC wymogi programu spełnia wyjątkowo szerokie portfolio: od tanich projektorów mobilnych, poprzez modele edukacyjne i biznesowe, na projektorach short i ultra short kończąc. Listę wieńczy 65-calowy monitor dotykowy 14
eseller News
Piotr Parys, Channel Marketing Manager w Oki Systems Polska Dziś placówka edukacyjna oczekuje czegoś więcej niż klasycznego sprzętu, który pozwala tylko na drukowanie, kopiowanie czy skanowanie dokumentu. Potrzeby sprzętowe szkół w dużej mierze nie różnią się od potrzeb innych współczesnych firm – wszyscy bowiem poszukują urządzeń, które będą łączyć w sobie nowoczesne funkcje, zagwarantują niezawodność, bezpieczeństwo użytkowania i oszczędności. Dlatego nasze urządzenia dedykowane edukacji nie tylko spełniają wszystkie te oczekiwania, ale dodatkowo oferują też bezpłat-
ny pakiet oprogramowania dostarczany razem ze sprzętem, które pozwala m.in. na przygotowywanie materiałów graficznych, monitorowanie i zarządzanie systemem druku w placówce i ułatwia obieg dokumentów. Dla tych bardziej wymagających instytucji, jak szkoły wyższe, które często mają kilka lokalizacji, oferujemy też bardziej zaawansowane systemy do zarządzania drukiem. Mowa tu o pakiecie usług Oki SMART, które pozwalają na oszczędności nawet do 30 proc. względem dotychczasowych wydatków związanych z drukiem. Przykładem konkretnych modeli, które doskonale sprawdzą się w placówkach edukacyjnych, są nasze kolorowe urządzenia wielofunkcyjne MC573 (format A4) oraz z serii MC800 (format A3). Oferują one zwiększoną wydajność pracy dzięki wbudowanej otwartej platformie sXP, która umożliwia bezproblemową integrację z obiegiem dokumentów i rozwiązaniami zewnętrznymi, jak np. aplikacjami wspomagającymi pracę zarówno nauczycieli, jak i uczniów. To urządzenia typu „wszystko w jednym” charakteryzujące się łatwą obsługą, niskimi kosztami eksploatacji, wysoką jakością i prędkością druku, umożliwiające druk na szerokiej gamie nośników, pozwalające na elastyczną obsługę użytkownika, bezpieczny druk i zarządzanie zadaniami drukowania. Co ważne, oferujemy na nie 3-letnią darmową gwarancję, jeśli produkt zostanie zarejestrowany w ciągu 30 dni od dnia zakupu.
RAPORT ga też Blanka Fijołek, Senior Education Manager w Samsung Electronics Polska. – Samsung od lat ma w swojej ofercie urządzenia skierowane do sektora edukacyjnego, ale w ostatnich tygodniach zainteresowanie tymi produktami jest szczególnie duże. Mamy wiele zapytań od nauczycieli, którzy chcą poradzić się, jaki sprzęt wybrać pod konkretne wymagania danej placówki edukacyjnej. Zawsze rekomendujemy, by zwrócili uwagę
Monika Sikora, Manager, Cloud & Enterprise Business Group, Incom Group Ruszył rządowy program dofinansowania szkół „Aktywna tablica”. Program, o którym zaskakująco niewiele słychać w branży IT, a którym szczególnie warto się zainteresować. Blisko 16 tys. szkół podstawowych może wnioskować o 14 tys. zł na zakup: monitorów interaktywnych, tablic z projektorami i nagłośnienia. Zważywszy, że organ prowadzący musi dołożyć 3,5 tys. zł wkładu własnego, łączna kwota, za którą szkoła kupi monitory interaktywne czy tablice to nawet 17,5 tys. zł. Program już wystartował i będzie trwał do końca 2019 r. Jest to niebagatelna szansa dla firm na rozwój swojego biznesu w edukacji. Dystrybutor Incom Group SA postawił sobie za cel być dla swoich partnerów największym dostawcą w tym projekcie. Dociera ze swoimi partnerami do szkół w całej Polsce, z kompleksową ofertą, którą przygotował w sposób przemyślany i zoptymalizowany względem warunków programu. Oferuje gotowe zestawy, które umożliwiają szkołom maksymalnie wykorzystać uzyskaną kwotę dofinansowania. Aby wesprzeć partnerów, dystrybutor uruchomił szeroko zakrojoną komunikację do rynku edukacji, na czele z dedykowanym portalem: www.aktywnatablica.org – kompendium wiedzy o programie wraz z kompletnymi zestawami produktowymi.
nie tylko na samo urządzenie, ale także jego licencjonowane oprogramowanie. Co więcej, w przypadku takich systemów ważne są również takie cechy, jak: sposób instalacji, długość gwarancji na urządzenie, szkolenia dla nauczycieli czy dodatkowe materiały dydaktyczne – mówi Blanka Fijołek. Według niej szkoły uważnie obserwują ogólnoświatowe trendy i zauważają potrzebę zmian w swoich placówkach. A takie programy, jak „Aktywna tablica”, są dla dyrektorów szkół i nauczycieli bodźcem, by wprowadzić innowacje już teraz. Ponieważ zaś chcą jak najmądrzej wydać pieniądze, dlatego dopytują o rozwiązania pakietowe. – Chcą, by zakupiony sprzęt był inwestycją na przyszłość i umożliwiał wprowadzenie kolejnych rozwiązań bez konieczności wymiany obecnych już elementów wyposażenia. Dobrym tutaj przykładem jest oprogramowanie do interaktywnego monitora, które umożliwia funkcjonowanie urządzenia jako samodzielnego narzędzia do pracy, ale jeśli później szkoła zainwestuje w mobilne urządzenia, wykorzysta ten monitor do kolejnego celu – podkreśla Blanka Fijołek. Na programie „Aktywna tablica” mniej mogą skorzystać takie firmy, jak Microsft, które nie produkują tablic interaktywnych, jednak w ramach zestawu, który mogą zakupić szkoły, może zostać wybrany notebook. – W tym obszarze będziemy sugerować, aby było to urządzenie z najnowszej oferty naszych partnerów sprzętowych wraz
Jacek Smak, dyrektor handlowy w NEC Display Solutions Europe GmbH Coraz więcej naszych partnerów jest zaangażowanych w uświadamianie szkołom, co mogą zyskać na takich programach jak „Aktywna tablica” oraz jak najlepiej wykorzystywać oferowane przez nie rozwiązania. z systemem operacyjnym Windows 10 Pro, którego najnowsza aktualizacja posiada w sobie funkcje tablicy interaktywnej i można w ten sposób upiec dwie pieczenie na jednym ogniu. Ważne jest, aby zwrócić uwagę na wersję systemu operacyjnego, żeby była z rozszerzeniem Pro, ponieważ umożliwia ona wpięcie w domenę szkolną oraz łatwe zarządzanie urządzeniami w szkole – mówi Cecylia Szymańska-Ban.
15
eseller News
RAPORT W jej opinii, ponieważ tablice interaktywne nie są nowością w szkole, kolejna w placówce niewiele zmieni. Dlatego, jak uważa, sensowniejsze wydaje się finansowanie służbowego notebooka dla każdego nauczyciela, który umożliwi mu pracę online w trakcie lekcji, korzystanie z dziennika elektronicznego i innych dostępnych aplikacji edukacyjnych.
Służbowy notebook dla każdego nauczyciela umożliwi mu pracę online w trakcie lekcji, korzystanie z dziennika elektronicznego i innych dostępnych aplikacji edukacyjnych. – Dzisiaj szkoły najchętniej kupują laptopy z systemem Windows 10 Pro – bo to umożliwia wpięcie w domenę, co jest ważne przy uruchamianiu coraz popularniejszych rozwiązań chmurowych.
16
eseller News
Urządzenia sieciowe oraz umowy subskrypcyjne zakupu oprogramowania OVS i EES to standaryzacja technologiczna w ramach placówki, łatwe zarządzanie, bezpieczeństwo, zawsze aktualne wersje oraz oprogramowanie do użytku prywatnego dla nauczycieli i uczniów. Szkoły mocno przyspieszające w wyborze oferty rozwiązań opartych na chmurze obliczeniowej, takich jak Office 365 Education, zaczynają dostrzegać potrzebę jednolitej poczty służbowej dla nauczycieli i uczniów, platform do komunikacji i pracy grupowej oraz repozytoriów danych i materiałów edukacyjnych. Widzimy zainteresowanie platformą Microsoft Azure jako SaaS lub PaaS, która jest doskonałym rozwiązaniem zastępującym dzisiejsze rozwiązania on-premise, np. serwerowe, i wspiera rozwiązania terminalowe – mówi Cecylia Szymańska-Ban. SZKOŁY INWESTUJĄ W OPROGRAMOWANIE I APLIKACJE Microsoft zauważa natomiast rosnącą tendencję do zakupu przez szkoły oprogramowania dostępnego online oraz w formie subskrypcji rocznych lub trzyletnich, a odchodzenie od zakupu oprogramowania w tzw. licencjach wieczystych. – Odnotowujemy bardzo duże zainteresowanie Office 365 Education – informuje Cecylia Szymańska-Ban. Trzeba też pamiętać, że od września 2017 r. uczniów klas pierwszych obowiązuje nowa podstawa programowa obejmująca naukę programowania. To także rodzi zapotrzebowanie na nowy rodzaj
Tomasz Wieczorek, Solutions Product Manager CEE, Sharp Electronics Europe Nowoczesne systemy informatyczne dedykowane uczelniom pomagają zarządzać informacjami w sposób kompleksowy. Szukając dostawcy tego typu rozwiązań, warto znaleźć firmę, która oferuje rozwiązania wspierające zarówno procesy zarządzania drukiem i dokumentami, jak i komunikacją wizualną oraz infrastrukturą audio-wideo. Dobrze, aby w ramach zakupionych rozwiązań studenci i pracownicy uzyskiwali łatwy dostęp do kopiowania, drukowania i skanowania, czyli czynności, które są przez nich wykonywane bardzo często. Płatności za wykonywane czynności powinny być wygodne i szybkie zarówno z punktu widzenia uczelni, jak i studenta. Najlepiej, aby studenci mogli zasilać swoje konta za pomocą platformy obsługującej płatności online, a do autoryzacji wykorzystywali legitymację studencką. Ta łatwa procedura zdejmuje z uczelni obowiązek administrowania kontami i płatnościami, bo wszystkie czynności są wykonywane przez użytkowników samodzielnie. Dzięki nowej infrastrukturze uczelnia może również skutecznie i atrakcyjnie przekazywać informacje. Nowy wzór legitymacji? Terminy egzaminów w nadchodzącej sesji? Juwenalia? Studenci będą nie tylko świetnie poinformowani, ale także poczują się bardziej zaangażowani w życie uczelni. Rozwiązania zaprojektowano tak, by ich obsługa była wysoce intuicyjna. Dzięki temu pracownicy mogą skoncentrować się na procesie nauczania, a nie na technologii. Najlepszym przykładem jest interaktywny plakat, który oprócz tego, że przekazuje dynamiczne treści (firmy wideo, animacje flash itp.), to dodatkowo umożliwia interakcję z użytkownikiem, np. rejestrację, zapisy do newslettera i inne.
RAPORT produktów. I tak firma NeticTech wprowadziła na rynek Scottie Go!, grę uczącą programowania dzieci w wieku 6+ poprzez zabawę. Okazała się ona ogromnym sukcesem nie tylko w Polsce, ale także zagranicą. Aktualnie grę można kupić w wielu wersjach językowych, m.in.: angielskiej, niemieckiej, czeskiej, francuskiej, portugalskiej, litewskiej, szwedzkiej, duńskiej i hiszpańskiej. Twórcy gry z firmy NeticTech postanowili pójść za ciosem i jednocześnie odpowiedzieli na głosy zebrane od klientów po premierze rynkowej pierwszej wersji gry i wprowadzają nową wersję Scottie Go! STARTER mini, która bez konieczności kupowania pełnej wersji gry pozwala sprawdzić, czy programowanie z sympatycznym robotem Scottiem sprawdza się wśród uczniów. Wersja STARTER mini zawiera 31 kartonowych klocków pozwalających na zabawę na 12 poziomach gry i instalację na jednym urządzeniu. Dla tych, którzy złapią bakcyla programowania, twórcy gry przewidzieli specjalny kod rabatowy o wartości 30 zł, który można wykorzystać podczas zakupu pełnej wersji Scottie Go! n
Agnieszka Wnuczak, Business Account Manager w Epson Współczesna szkoła potrzebuje do działania technologii wspomagających tak proces edukacji, jak i administracyjną stronę funkcjonowania. Epson oferuje im zarówno urządzenia do wyświetlania obrazu, drukowania dokumentu i obrazów, skanowania, a także oprogramowanie do efektywnego zarządzania całą „flotą” sprzętową.
Świetnym przykładem będą tu profesjonalne drukarki Epson z serii WorkForce Pro. Najbardziej zaawansowane modele tej serii są w stanie wydrukować do 86 tys. stron bez konieczności wymiany atramentu. Jest to o tyle istotne, że to właśnie „prądożerne” i niezbyt ekologiczne „laserówki” przez lata były uważane za idealne dla firm czy szkół. Seria Epson WorkForce (np. WF-6590DWF czy obsługująca format A3+ WF-8510DW) przełamuje ten stereotyp, oferując tańsze, ekologiczne rozwiązanie, które dodatkowo gwarantuje znacznie lepszą jakość wydruków. Często zdarza się, że potrzeba przygotowania wydruku pojawia się również na bieżąco, podczas pracy z uczniami – na lekcji, kółku zainteresowań czy opracowaniu prezentacji. Sprawdzą się tu drukarki z Ink Tank System. ITS (np. L386) jest rozwiązaniem obniżającym cenę druku materiałów (również grafik i zdjęć w jakości fotograficznej) przy zapewnieniu wyjątkowo łatwej i wygodnej eksploatacji. Z myślą o edukacji powstała seria projektorów interaktywnych, które pozwalają na wyświetlanie obrazu, modyfikowanie go dotykowo w czasie rzeczywistym i zapisywanie zmian do pliku. Świetnym rozwiązaniem są zestawy, na które składają się projektory Epson dostarczane w pakiecie z oprogramowaniem edukacyjnym SMART Notebook.
17
eseller News
RAPORT
W trosce o bezpieczeństwo uczniów i szkolnej sieci Marek Jaślan
Mimo często szczupłych środków szkoły chętnie inwestują w systemy monitoringu wizyjnego. Kamery w szkołach pozwalają na wykrycie sprawców lub uczestników bójek, dewastacji mienia czy kradzieży, a w efekcie zmniejszają ich skalę. Placówki edukacyjne stoją też przed wyzwaniem zapewnieniem odpowiedniego bezpieczeństwa szkolnych sieci internetowych. Tu często problemem jest brak odpowiednich kompetencji IT.
O
d kilkunastu lat do polskich szkół wprowadzany jest szkolny system monitoringu wizyjnego – jako element systemu bezpieczeństwa. I przynosi to pozytywne efekty. – Funkcjonowanie monitoringu wizyjnego pozytywnie wpływało na poziom i poczucie bezpieczeństwa uczniów i pracowników skontrolowanych szkół. Niestety większość placówek nie zapewniła obserwacji obrazu z kamer w czasie, gdy ryzyko wystąpienia zdarzeń było największe, czyli podczas przerw lekcyjnych. Nie było także sprawnego systemu powiadamiania o zaobserwowanych incydentach – napisała w tegorocznym raporcie Najwyższa Izba Kontroli.
18
eseller News
Wykorzystanie monitoringu wpłynęło na ograniczenie występowania niepożądanych zdarzeń, szczególnie tych związanych z mieniem.
BRAK REGULACJI SKUTKUJE DOWOLNOŚCIĄ Jednak NIK zwróciła też uwagę, że dotychczas żadne przepisy nie regulują prowadzenia systemu monitoringu przez szkoły. Brak takich zasad, wobec społecznego przyzwolenia na jego stosowanie, skutkował dowolnością rozwiązań organizacyjnych, przede wszystkim w sprawie rozmieszczenia kamer czy czasu przechowywania nagrań. Niemniej jednak wykorzystanie monitoringu wpłynęło na ograniczenie występowania niepożądanych zdarzeń, szczególnie tych związanych z mieniem. Wpływ monitoringu na bezpieczeństwo pozytywnie ocenili zarówno dyrektorzy kontrolowa-
RAPORT nych przez NIK szkół, jak i nauczyciele oraz uczniowie. Również dane pozyskane z 5 tys. szkół potwierdziły, że kamery w szkołach pozwoliły na wykrycie sprawców lub uczestników niepożądanych zdarzeń (głównie bójek, dewastacji mienia, kradzieży). NIK zauważyła, że w szkołach wykorzystywano głównie funkcję prewencyjną i trudną do zastąpienia innymi metodami funkcję dowodową systemu. Jednak w kilku przypadkach stwierdzono, że również ta funkcja była ograniczona ze względu na niskie parametry techniczne niektórych kamer, z których obraz nie pozwalał na ustalenie przebiegu zdarzeń i identyfikację sprawców. Wpływ na ograniczenie funkcji dowodowej miał także krótki okres przechowywania obrazu z kamer. W czterech przypadkach utrwalony za pomocą systemu monitoringu obraz przechowywany był do siedmiu dni, a następnie samoczynnie niszczony. Rozmieszczanie kamer w skontrolowanych szkołach pozwalało na realizację postawionych celów. Tylko w jednym przypadku stwierdzono naruszenie intymności poprzez lokalizację kamery (w męskiej toalecie).
– jest zainteresowany bezpieczeństwem na wszelkich poziomach. Mam na myśli zabezpieczenia typowo antyinwazyjne, monitoring, zabezpieczenia IT czy dostęp do infrastruktury. Zabezpieczenia te stają się kluczowe i coraz częściej wymagane. To bardzo cieszy, gdyż pokazuje, jak rośnie świadomość dotycząca tego zagadnienia – mówi Robert Sejda.
SZKOŁY BĘDĄ INWESTOWAĆ W MONITORING Mimo pewnych mankamentów wskazanych przez NIK można się spodziewać, że w przyszłości szkoły w Polsce będą przykładać do monitoringu wizyjnego coraz większą uwagę. – Aktualnie trzy placówki szkolne oraz jedno przedszkole w Piszu posiadają działający monitoring wizyjny. Monitoring założony w budynkach szkół podstawowych to wynik inwestycji jeszcze sprzed 2009 r. i wymaga rozbudowy. Biorąc pod uwagę reformę oświaty, która stała się faktem 1 września 2017 r. jest to niezbędne. Istotne jest ponadto, aby monitoringiem objąć również placówki położone na terenach wiejskich. Jeżeli będą przeprowadzane tego rodzaju inwestycje, to tylko i wyłącznie w zakresie możliwości finansowych przewidzianych w 2018 r. – mówi Zuzanna Konopa, dyrektor Zespołu Ekonomicznej Obsługi Szkół i Przedszkoli w Piszu. Wzrost zainteresowania szkół rozwiązanymi z szeroko pojętego obszaru zabezpieczeń dostrzega Robert Sejda, Country Sales & Project Manager B2B w AB. – Dzisiaj temat tzw. security jest wyjątkowo na czasie. Każdy – od potencjalnego Kowalskiego, po instytucje, jak szkoły czy firmy
Pozytywny trend zauważa też Jacek Smak, dyrektor handlowy w NEC Display Solutions Europe GmbH. – Jako producent monitorów zauważamy zwiększone zainteresowanie systemami monitoringu, CCTV w szkołach. Coraz wyższe wymogi bezpieczeństwa z pewnością zaowocują wzrostem sprzedaży rozwiązań do monitoringu.
Jak wynika z doświadczeń, systemy teleinformatyczne i szkolne sieci trzeba chronić zarówno przed uczniami, jak i zewnętrznymi intruzami.
ZADBAĆ O BEZPIECZEŃSTWO SZKOLNYCH SIECI Osobną kwestą jest zabezpieczanie systemów teleinformatycznych i szkolnych sieci. A jak wynika z doświadczeń, trzeba je chronić zarówno przed uczniami, jak i zewnętrznymi intruzami. Kilka miesięcy temu funkcjonariusze z warszawskiej dzielnicy Ochota zatrzymali dwóch 15-latków, którzy zhakowali system informatyczny w swojej szkole. W ich mieszkaniach zabezpieczono trzy komputery i dwa telefony, z których dokonano ataku. Zablokowanie systemu informatycznego spowodowało poważne utrudnienia w funkcjonowaniu szkoły. Postawiono im już zarzuty z art. 268 p. 1 kodeksu karnego: „Kto, nie będąc do tego uprawnionym, niszczy, uszkadza, usuwa lub zmienia zapis istotnej informacji albo
w inny sposób udaremnia, lub znacznie utrudnia osobie uprawnionej zapoznanie się z nią, podlega grzywnie, karze ograniczenia wolności albo pozbawienia wolności do lat trzech”. Zdarza się jednak i tak, jak w Zespole Szkół Muzycznych w Elblągu, gdzie haker, który zhakował stronę placówki, kierował się troską o bezpieczeństwo tej witryny. Dyrekcji szkoły zostawił bowiem wiadomość: „Twoja witryna została zaatakowana. Proszę załatać system, bo wrócę tu znowu. Hacking nie jest przestępstwem, to sztuka eksploatacji. Nie ma perfekcyjnych zabezpieczeń”. W ubiegłym roku lokalne media na Pomorzu doniosły natomiast, że witryna internetowa Zespołu Szkół nr 1 w Nowym
WNIOSKI I ZALECENIE NIK DOTYCZĄCE SYSTEMÓW MONITORINGU WIZYJNEGO W SZKOŁACH do Ministra Edukacji Narodowej o: n wypracowanie standardów i dobrych praktyk funkcjonowania szkolnych systemów monitoringu wspomagających szkoły i organy prowadzące w projektowaniu i optymalnym wykorzystywaniu dozoru wizyjnego jako elementu systemu bezpieczeństwa szkoły; do dyrektorów szkół m.in. o: n weryfikację rozmieszczenia kamer pod kątem poszanowania prywatności i intymności uczniów, nauczycieli i pozostałych pracowników szkoły; n zapewnienie udziału uczniów, nauczycieli i rodziców w rozmieszczaniu kamer monitoringu wizyjnego w szkole oraz informowanie o jego skuteczności; n dokonywanie okresowych ocen skuteczności monitoringu wizyjnego w zakresie realizacji funkcji interwencyjnej, dowodowej i funkcji prewencyjnej; n wprowadzenie jasnych zasad przechowywania nagrań oraz procedury ich udostępniania; do organów prowadzących szkoły o: n monitorowanie, w ramach nadzoru, stanu bezpieczeństwa w poszczególnych szkołach; n przeprowadzanie okresowych ewaluacji wypełniania przez szkolne systemy monitoringu funkcji interwencyjnej, dowodowej i funkcji prewencyjnej; n przeprowadzanie okresowych kontroli prawidłowości funkcjonowania systemu monitoringu oraz wywiązywania się szkół z przepisów ustawy o ochronie danych osobowych; n rozważenie usystematyzowania i ujednolicenia sposobu działania monitoringu wizyjnego w prowadzonych szkołach, zmierzające do wypracowania standardów obsługi i korzystania z monitoringu, a także zasad dostępu do rejestratorów oraz konserwacji urządzeń. źródło: NIK
19
eseller News
RAPORT Dworze Gdańskim została zaatakowana przez tunezyjskich hakerów grupy Fallaga Team. Przez kilka godzin na stronie internetowej szkoły znajdowały się komunikaty z hasłami propagandowymi islamistów oraz drastyczne zdjęcia.
W przyszłości problemem bezpieczeństwa sieci szkolnych ma się zająć operator tworzonej Ogólnopolskiej Sieci Edukacyjnej (OSE). „Te zdjęcia nie pochodzą z hollywoodzkiego filmu [...]. Tak, te dzieci to ofiary syryjskiego rządu wspieranego przez rządy całego świata, aby zabić niewinnych. Czy Syryjczycy nie mają prawa decydować o swoim losie? Czy wy nie jesteście tymi, którzy mówią o demokracji” – to komunikat, jaki zostawili na szkolnej witrynie. Dyrekcja szkoły powiadomiła policję. Stronę zablokowano, a po kilku godzinach udało się przywrócić jej właściwy wygląd. Hakerzy z Fallaga Team znani byli już wcześniej z podobnych ataków na strony na całym świecie – np. w podobny sposób zaatakowali wcześniej strony Politechniki Poznańskiej. Te przykłady pokazują, że kwestia cyberzabezpieczeń w szkołach to problem realny. Zdaniem Cecylii Szymańskiej-Ban, odpowiedzialnej w polskim oddziale Microsoftu za sektor edukacji, szkołom potrzebne są rekomendacje, jak wybierać sprzęt sieciowy, a także usługi do zarządzania tym sprzętem i aplikacjami. Dotyczy to także zabezpieczeń. – Trzeba pamiętać, że w szkołach nie ma kompetencji IT i trudno zrzucać zarządzanie IT administratorom szkolnych pracowni komputerowych – mówi Cecylia Szymańskia-Ban. W przyszłości problemem tym ma się zająć operator tworzonej Ogólnopolskiej Sieci Edukacyjnej (OSE), którego jednym z zadań będzie zapewnienie bezpieczeństwa sieci szkolnych. 20
eseller News
BUDOWANIE SZKOLNYCH SIECI Niemniej jednak Grzegorz Całun, Pre-Sales Engineer, D-Link Polska zauważa, że w obszarze szkolnych sieci charakter inwestycji w dużej mierze zależy od wielkości funduszy, którymi dysponują szkoły, ale też od stanu infrastruktury informatycznej. – Jeśli konieczna jest jej modernizacja, to w klasie urządzeń gigabitowych pożądanym rozwiązaniem są przełączniki Smart z opcją zarządzania. Jeśli planowana jest budowa sieci bezprzewodowej, na liście zakupów znajdą się punkty dostępowe. To może się wiązać z wymianą przełączników na modele wyposażone w zasilanie Power over Ethernet, ułatwiające montaż punktów dostępowych w miejscach, gdzie nie ma gniazdek z prądem. Względy bezpieczeństwa, łatwość konfiguracji oraz możliwość zarządzania punktami dostępowymi, i szerzej siecią bezprzewodową, mogą skłonić szkoły do nabycia punktów dostępowych zarządzalnych z poziomu kontrolera, który będzie nadzorować pracę jednolitego środowiska sieciowego – podkreśla Grzegorz Całun. Dodaje, że D-Link ma w swojej ofercie pełną ofertę infrastruktury sprzętowej dla placówek edukacyjnych – przełączników, bezprzewodowych punktów dostępowych, a także routerów. W przypadku przełączników Smart można polecić rodzinę przełączników DGS-1210, a zwłaszcza model DGS-1210-28P, wyposażony w 28 portów i zasilanie PoE. Natomiast w przypadku bezprzewodowych punktów dostępowych to – przeznaczony do współpracy z kontrolerem – model DWL-6610AP. Dla mniejszych szkół producent proponuje model bezprzewodowego punktu dostępowego – samodzielny DAP-2660, który może współpracować z kontrolerem software’owym. n
CO NALEŻY WZIĄĆ POD UWAGĘ PRZY WYBORZE DOSTAWCY CYBERZABEZPIECZEŃ? Rada pierwsza: nie kupuj licencji hurtem Dostawca może wymagać, aby klient kupił na początku większą liczbę licencji. Wiąże się z tym ryzyko, bo: n trzeba zainwestować z góry dużą kwotę bez gwarancji odpowiedniego efektu; n trzeba kupić większą liczbę licencji, niż placówka potrzebuje; n nie będzie możliwości obniżenia kosztów związanych np. z zakupem i odnawianiem licencji; n trzeba będzie śledzić licencje i ich użytkowników, sprawdzać, kiedy wygasają poszczególne licencje i czy trzeba je ewentualnie dokupić, dostosowywać terminy i warunki licencji do wymogów własnego środowiska itp., co pochłania dużo czasu i pieniędzy. Rada druga: unikaj zobowiązań terminowych W modelu opartym na zobowiązaniach terminowych dostawca wymaga od klienta zawarcia umowy na określony czas, np. dwa lub trzy lata. Wiąże się z tym ryzyko – placówka: n będzie musiała płacić za licencje, z których już nie korzysta; n będzie musiała płacić za licencje użytkowników, którzy przestali korzystać z jej usług, ponieważ w okresie obowiązywania licencji odeszli z pracy, zamknęli działalność itp.; n nie będzie mogła przenosić licencji między użytkownikami, choć czasem jest to wymagane; n będzie uzależniona od jednego dostawcy zabezpieczeń, którego nie może zmienić, choć chciałaby to zrobić z przyczyn technicznych, finansowych lub innych. Rada trzecia: unikaj wymaganych kwot minimalnych Niektórzy dostawcy mogą wymagać od klientów określonej kwoty minimalnej w ciągu roku za sam udział w programie. W takim przypadku placówka: n jeśli jest mała, może mieć trudności z zakwalifikowaniem się do takiego programu; n może poświęcić dużo czasu na wdrożenie nowego rozwiązania, aby na koniec roku dowiedzieć się, że z powodu trudności finansowych została usunięta z programu bez możliwości uzyskania odszkodowania. Rada czwarta: poszukaj dostawcy, który rozumie te problemy Niektórzy producenci zabezpieczeń zdają sobie sprawę z powyższych problemów i oferują model licencji z opłatami zależnymi od bieżącego użycia. W modelu tym, oprócz narzędzi do samodzielnej obsługi licencji, które umożliwiają pełną kontrolę nad udostępnianiem i zamykaniem licencji oraz zarządzaniem nimi, klient zyskuje korzyści minimalizacji nakładów początkowych i elastyczność. źródło: Trend Micro
BIZNES
Przemysł 4.0
– nowa rewolucja przemysłowa szansą dla integratorów Bohdan Szafrański
Od kilku lat w produkcji przemysłowej odchodzi się od automatyzacji pojedynczych maszyn i procesów w kierunku budowania zintegrowanych cyfrowych ekosystemów łączących wszystkie dostępne zasoby producenta oraz jego partnerów. Tylko w ten sposób odpowiedzieć można na wyzwania, jakie stawia dziś elastyczna, nawet jednostkowa i spersonalizowana, produkcja przy ograniczonym zużyciu energii i zasobów.
P
rzemysł obecnie przechodzi podobny etap rewolucji technologii informatycznych jak rynek konsumencki kilkanaście lat temu. Wtedy wiele usług migrowało lub powstawało tylko w świecie cyfrowym. Możliwość mobilnego dostępu do wielu usług spowodowała rewolucyjną zmianę na rynku komputerów osobistych i dominację smartfonów. Zmieniły się też zachowania i oczekiwania konsumentów. W takim przełomowym okresie znajdują się dziś zakłady produkcyjne. Powszechne zastosowanie tanich czujników podłączonych do sieci umożliwia tworzenie tzw. cyfrowej fabryki. Coraz więcej mówi się o tworzeniu „cyfrowych bliźniaków” (digital twins), czyli cyfrowych kopii odzwierciedlających fizyczne produkty, narzędzia
Nowe rozwiązania zgodne z koncepcją Przemysłu 4.0 oferują możliwości predykcyjnego utrzymania ruchu, które pomogą zaoszczędzić nawet do 50 proc. kosztów.
itp. Pozwala to w procesach organizacji produkcji, szybko wykrywać problemy i dzięki temu m.in. zwiększać jej tempo oraz ograniczać koszty całego zaangażowanego w ten proces łańcucha. To oczywiście tylko jeden z elementów rewolucji w przemyśle, jaka dzieje się na naszych oczach. Pozyskiwanie różnego typu danych i ich analiza pozwala łączyć oraz lepiej wykorzystywać nowe technologie. Trzeba tylko wiedzieć, jak skutecznie to zrobić. W opracowaniu przygotowanym na zlecenie Komisji Przemysłu, Badań Naukowych i Energii (ITRE) Parlamentu Europejskiego, zdefiniowano koncepcję Przemysłu 4.0 jako organizację procesów produkcyjnych, wykorzystujących technologie i urządzenia, autonomicznie komunikujących się ze sobą 21
eseller News
BIZNES w ramach łańcucha wartości. Jako model „inteligentnej” fabryki przyszłości, w której systemy komputerowe monitorują procesy fizyczne, tworzą wirtualną kopię fizycznego świata i w której podejmowane są zdecentralizowane decyzje wykorzystujące mechanizmy samoorganizacji. Jak zaznaczono, koncepcja uwzględnia zwiększoną digitalizację przemysłu wytwórczego, w której obiekty fizyczne są płynnie zintegrowane z siecią informacyjną, co umożliwi w przyszłości zdecentralizowaną produkcję i adaptację w czasie rzeczywistym.
RYNEK PRZEMYSŁU 4.0 Według badania „Industry 4.0 Market by Technology (Industrial Robotics, Cyber Security, Internet of Things, 3D Printing, Advanced Human-Machine Interface, Big Data, Augmented Reality & Virtual Reality, Artificial Intelligence), Vertical, Region – Global Forecast to 2022”, przeprowadzonego przez firmę MarketsandMarkets, w 2022 r. wartość całego rynku związanego z Przemysłem 4.0 osiągnie kwotę 152,31 mld dolarów (w 2016 r. było to 66,67 mld dolarów). Poczynając od 2017 r., rynek ten ma co rok wzrastać średnio o 14,72 proc. Zgodnie z ocenami analityków MarketsandMarkets największa jego część będzie należała do robotyki przemysłowej. To ważny element wdrożenia koncepcji Przemysłu 4.0 ze względu na poprawę wydajności, ograniczenie liczby błędów powodowanych przez czynnik ludzki oraz wzrost produkcji. Rynki robotyki przemysłowej oszacowano w 2016 r. na poziomie 41,75 mld dola22
eseller News
rów, a do 2022 r. ma on osiągnąć wartość 81,47 mld dolarów, rosnąc średnio co roku o 11,70 proc. Jak zauważają analitycy, na wzrost tej części rynku będzie miał wpływ rosnący popyt na pojazdy, zwłaszcza z krajów rozwijających się, co zachęca producentów samochodów i producentów OEM do automatyzacji w celu zwiększenia wielkości produkcji dla zaspokojenia zapotrzebowania. Jako przykład podano nową dużą inwestycję Tesli z kwietnia tego roku, m.in. w ramach przygotowania masowej produkcji samochodów elektrycznych Model 3, którego pod-
stawowa cena ma wynosić tylko 35 tys. dolarów. W ramach kontraktu niemiecki producent robotów przemysłowych firma Kuka Robotics dostarczyła Tesli 467 nowych robotów o wartości od 50 tys. dolarów aż do 500 tys. dolarów za sztukę. Każdy z nich jest przygotowany do wykonywania wielu zadań takich jak: spawanie punktowe i laserowe, podawanie, montaż elementów itp. Większe roboty są często używane do przemieszczania dużych elementów między liniami pomocniczymi. Jak się podaje, całkowity koszt robotów dostarczonych przez firmę Kuka Robotics to nawet ok. 50 mln dolarów. Jeśli chodzi o rynek urządzeń przemysłowych obejmujący produkcję różnego rodzaju maszyn stosowanych w przemyśle: obronnym, konstrukcyjnym lub produkcyjnym, to ważnymi procesami stosowanymi przy ich wytwarzaniu jest tłoczenie, zginanie, formowanie i obróbka metalu. Według badania do 2022 r. rynek urządzeń przemysłowych (w zakre-
sie wdrażania koncepcji przemysłu 4.0) osiągnie wartość 22,79 mld dolarów przy średnim rocznym wzroście na poziomie 18,45 proc. Wdrożenie w tym sektorze koncepcji Przemysłu 4.0 może pomóc producentom analizować warunki pracy maszyn i dzięki temu uniknąć nieplanowanych przestojów i powodowanych przez nie strat.
Producenci poszukują rozwiązań zintegrowanych obejmujących całość produkcji, bo to daje najlepsze ekonomicznie efekty.
Ocenia się, że nowe rozwiązania zgodne z koncepcją Przemysłu 4.0 oferują możliwości predykcyjnego utrzymania ruchu, które pomogą tej branży zaoszczędzić nawet do 50 proc. kosztów. Oczekuje się, że największe nakłady na wdrażanie rozwiązań związanych z koncepcją Przemysłu 4.0 będą ponoszone w takich krajach jak: Indie, Chiny, Japonia i innych azjatyckich. Przy czym Chiny, według MarketsandMarkets, mają największy potencjał w zakresie wdrażania takich rozwiązań. Chiny, Japonia i Korea Południowa przodują w wykorzystaniu robotów w przemyśle. Obecnie głównymi graczami na rynku Przemysłu 4.0 są: GE, IBM, Cisco Systems, Microsoft, Stratasys, Alphabet, ABB, Mitsubishi Electric, Intel, Hewlett-Packard Enterprise, Siemens, Qualcomm, Samsung Electronics, Texas Instruments, Rockwell Automation, 3D Systems, Cognex, Basler i Denso Group. DLACZEGO TO INTERESUJĄCY RYNEK? W najbliższych latach należy spodziewać się dużych inwestycji w przemyśle związanych ze wdrożeniami koncepcji Przemysłu 4.0. To rynek będzie wymuszał tworzenie elastycznych linii produkcyjnych pozwalających obsługiwać zamówienia nawet małych spersonalizowanych partii pro-
BIZNES duktów. Producenci poszukują rozwiązań zintegrowanych obejmujących całość produkcji, bo to daje najlepsze ekonomicznie efekty. Dopiero uczymy się łączyć wiele różnych elementów i technologi w wydajne struktury. Jako przykłady nowoczesnych zautomatyzowanych zakładów produkcyjnych wymienia się najczęściej te duże z branży motoryzacyjnej. Jednak już nawet średnie i małe przedsiębiorstwa wchodzą na tę drogę. W tym roku na targach przemysłowych Hannover Messe 2017 firma igus pokazała 5-osiowego robota przemysłowego, którego w podstawowej konfiguracji można już nabyć za 5 tys. euro. Potrafi on przenosić do ośmiu kilogramów ładunku, a proste oprogramowanie „robolink designer” pozwala szybko go skonfigurować. Taki sprzęt trafia już w Niemczech nawet do zakładów rzemieślniczych. Coraz powszechniej instaluje się różnego typu czujniki (są coraz tańsze) w maszynach i urządzeniach w celu automatycznego diagnozowania ich stanu. Pozwala to na w pełni predykcyjne utrzymanie ruchu, czyli wcześniejsze przewidzenie możliwości zużycia elementu, wystąpienia awarii i dzięki temu zaplanowanie remontu w czasie planowanego przestoju technologicznego. Rozwijane są też systemy Internetu rzeczy (IoT) i przemysłowego Internetu rzeczy (IIoT), m.in. do optymalizacji zasilania przy wykorzystaniu wielu źródeł (odnawialnych, magazynów energii itp.). Na przykład do zasilania zakładów przemysłowych. Firma ABB rozwija pomysły związane z digitalizacją i czwartą rewolucją przemysłową oraz energetyką, wykorzystując zarządzanie rozproszonymi sieciami generowania energii ze źródeł odnawialnych. Przykładem jest ABB Ability Electrical Distribution
Na naszym rynku brakuje dziś specjalistów, którzy potrafią doradzić wybór odpowiednich rozwiązań, połączyć je w jeden spójny system oraz wdrożyć. Control System – platforma obliczeniowa wykorzystująca chmurę, przeznaczona do monitorowania, optymalizacji i sterowania instalacją elektryczną. System łączy wypo-
sażenie elektryczne zakładu z Internetem rzeczy. Wykorzystuje wbudowane czujniki i komunikację wyłączników ABB, dostarczając informacji i zapewniając funkcję sterowania, co pozwala zmniejszyć całkowite koszty operacyjne. Jak podaje firma, nawet o 30 proc. Z kolei Schneider Electric zaprezentował niedawno platformę EcoStruxure – zestaw narzędzi umożliwiających wdrażanie rozwiązań Internetu rzeczy w dużych skalach. Zebrane z urządzeń dane są przetwarzane w chmurze i następnie analizowane. Pozwala to na podejmowanie w czasie rzeczywistym trafniejszych decyzji biznesowych. W dużych obiektach o znaczeniu krytycznym ciągłość dostaw energii jest szczególnie ważna. Przykładowo, w dużym budynku dzień przerwy w dostawach energii może kosztować nawet ponad milion dolarów oraz stanowić zagrożenie dla życia pracowników i gości. Nadal jest przed nami wiele wyzwań takich jak bezpieczne przechowywanie i przekazywanie danych pozyskiwanych z czujników i urządzeń, a także sprawne przetwarzanie ich w chmurze obliczeniowej i w sytuacji chwilowego braku dostępu do sieci, oraz aspekty prawne związane z własnością i ochroną danych. Na naszym rynku brakuje dziś specjalistów, którzy potrafią doradzić wybór odpowiednich rozwiązań, połączyć je w jeden spójny system oraz wdrożyć. Trzeba dostarczać komputery przemysłowe, instalować systemy informatyczne, budować sieci transmisji danych i integrować oprogramowanie do automatyzacji procesów. Nasza redakcja chce bliżej przyjrzeć się problemom związanym ze wdrożeniem koncepcji Przemysłu 4.0 w polskich warunkach. W kolejnych wydaniach przedstawimy różne elementy składające się na czwartą rewolucję przemysłową. n 23
eseller News
BIZNES
Systemy kognitywne
w cyfrowym biznesie
Stefan Kaczmarek
Przetwarzając rozproszone dane pochodzące z wielu różnych źródeł, rozwiązania kognitywne coraz częściej pomagają przy podejmowaniu decyzji biznesowych. Wiele informacji zawartych m.in. w filmach wideo, plikach dźwiękowych czy obrazach – nie jest widocznych dla dzisiejszych systemów analitycznych.
W
edług szacunków IBM ponad 80 proc. danych jest nieustrukturyzowanych. Przetwarzać je mogą jedynie systemy kognitywne. Do zarządzania danymi potrzebna jest nowa infrastruktura, naśladująca działanie ludzkiego mózgu. Sztuczna inteligencja będzie też wkrótce odgrywać rolę nowego interfejsu użytkownika przy kontaktach z klientami i w aplikacjach wewnątrz firmowych, zapowiadają eksperci Accenture. Samouczące się systemy to odpowiedź na rosnącą ilość danych pochodzących z mediów społecznościowych, obrazów oraz danych generowanych przez czujniki umieszczone w maszynach produkcyjnych czy pojazdach. Na świecie działa ok. 9 mld połączonych ze sobą urządzeń, które generują 2,5 kwintyliona bajtów danych dziennie. Jednak bez rozwiązań analizujących te informacje w czasie rzeczywistym ich wartość jest minimalna. Jak przewiduje IDC, do 2025 r. wytworzymy ponad 163 zetabajtów danych, co
24
eseller News
oznacza 10-krotny wzrost w stosunku do 2016 r. (16,1 zetabajtów). Analitycy IDC wymieniają systemy kognitywne jako jedną z sześciu technologii
Na świecie działa ok. 9 mld połączonych ze sobą urządzeń, które generują 2,5 kwintyliona bajtów danych dziennie.
przyspieszających rozwój innowacji. Odegrają one istotną rolę w procesie transformacji cyfrowej, otwierając nowe źródła przychodów i zmieniając sposób pracy. Według prognoz IDC globalne wydatki na systemy kognitywne będą stopniowo rosnąć i w 2019 r. przekroczą poziom 31 mld dolarów. Dzięki rozwiązaniom opartym na sztucznej inteligencji (artificial intelligence – AI), wzrost gospodarczy do roku 2035 zwiększy się średnio o 1,7 proc. w 16 branżach (w tym przede wszystkim w usługach informacyjno-komunikacyjnych, produkcji i finansach) – to jeden z kluczowych wniosków z raportu przygotowanego przez Accenture Research i Frontier Economics. Systemy kognitywne – jak np. wykorzystywany w biznesie od kilku lat IBM Watson – pozwalają radzić sobie z zalewem danych. Ich kluczową zaletą jest też to, iż potrafią się uczyć i przewidywać, jakie informacje potencjalnie zainteresują odbiorcę. – Obecnie coraz śmielej wkraczamy w erę przetwarzania kognitywnego, które
BIZNES otwiera przed nami zupełnie nowe możliwości związane z wykorzystaniem dostępnych, lecz nierozpoznawalnych dla tradycyjnych systemów IT danych – mówi Piotr Pietrzak, CTO IBM Polska i Kraje Bałtyckie.
Systemy kognitywne odegrają istotną rolę w procesie transformacji cyfrowej, otwierając nowe źródła przychodów i zmieniając sposób pracy. MYŚLĄCE MASZYNY I BIG DATA W BIZNESIE To, że sztuczna inteligencja coraz śmielej wkracza w naszą rzeczywistość widać zwłaszcza na przykładzie machine learning, czyli technik maszynowego uczenia, które znajdują szerokie zastosowanie w biznesie i stanowią dziś jedną z najdynamiczniej rozwijających się gałęzi AI. IDC szacuje, że do 2018 r. ponad połowa projektowanych aplikacji będzie wykorzystywała sztuczną inteligencję, zaś do 2020 r. zastosowanie AI w narzędziach biznesowych w samych tylko Stanach Zjednoczonych przyniesie firmom nawet 60 mld USD oszczędności. – Urządzenia w pełni wykorzystujące możliwości przetwarzania kognitywnego mogą pójść o krok dalej niż znani nam dzisiaj inteligentni osobiści asystenci, tacy jak Siri czy Cortana. Rozwiązania te dogłębnie przeanalizują kontekst postawionego problemu, samodzielnie wyciągną wnioski i pomogą nam zaplanować pewne działania, a nie jedynie odpowiedzą na nasze bieżące pytania – mówi Michał Kudelski, Senior Business Solution Manager w SAS Polska. Według przygotowanego przez firmę doradczą Deloitte raportu „Global TMT Predictions” w tym roku o jedną czwartą wzrośnie liczba producentów oprogramowania dla przedsiębiorstw, które wykorzystują techniki kognitywne (cognitive computing). Chodzi o takie funkcje jak np.: komputerowe rozpoznawanie obrazu,
przetwarzanie języka naturalnego oraz techniki maszynowego uczenia się. Systemy kognitywne znajdują również zastosowanie w biznesie. Planując przeprowadzenie akcji marketingowej, można wykorzystać je do automatycznej segmentacji klientów w celu opracowania ukierunkowanych komunikatów i zwiększenia wskaźnika odpowiedzi. W handlu systemy kognitywne pomagają sprzedawcom detalicznym w procesie ustalania cen. Po przeanalizowaniu ogromnych ilości informacji dotyczących sprzedaży, danych demograficznych, sezonowych i łańcuchów dostaw, umożliwiają automatyczne dostosowywanie cen i proponowanie produktów komplementarnych. Natomiast w branży motoryzacyjnej rozwiązania kognitywne ułatwiają producentom samochodów tworzenie bezpieczniejszych, bardziej niezawodnych pojazdów, które komunikują się ze swoim środowiskiem i właścicielami, informując o potencjalnych zagrożeniach.
WYDATKI NA SYSTEMY KOGNITYWNE
17% hardware (serwery i pamięci masowe) 60% software (kognitywne aplikacje i platformy software’owe) 23% usługi powiązane z systemami kognitywnymi (usługi biznesowe i consulting IT) (źródło IDC)
BRANŻE NAJBARDZIEJ INWESTUJĄCE W SYSTEMY KOGNITYWNE
20% bankowość i finanse (analiza i śledzenie oszustw, zautomatyzowana analiza zagrożeń i prewencja) 18% opieka medyczna (diagnostyka i systemy leczenia) 17% handel detaliczny (zautomatyzowana obsługa klienta, marketing na potrzeby działań w ramach omnichannel) (źródło IDC)
Według wielu ekspertów machine learning to najbliższa przyszłość biznesu i przemysłu. IDC twierdzi, że rynek aplikacji wykorzystujących analitykę predyktywną, wliczając w to uczenie maszynowe, będzie rósł o 65 proc. szybciej niż rynek aplikacji, które takiej funkcjonalności nie mają. – W machine learning chodzi o nauczenie komputerów wnioskowania, planowania, przewidywania i uczenia się. „Mózgiem” maszyny są algorytmy, zasilane szeregiem różnorodnych danych, czyli Big Data. Dzięki nim komputer jest w stanie podjąć najbardziej optymalną (najbardziej racjonalną) decyzję sam z siebie, bez konieczności nadzorowania całego „procesu myślowego” przez człowieka. Mówimy tu oczywiście o myśleniu rachującym, kalkulującym, przebiegającym w pewien uschematyzowany sposób. Kluczem jest oczywiście dostęp do odpowiednich danych oraz zastosowanie takiego algorytmu, który w pełni zautomatyzuje decyzje maszyny, wyeliminuje z jej „procesu myślowego” wszelką przypadkowość i pozwoli uczyć się na podstawie tych danych, które do niej dostarczamy – tłumaczy Piotr Prajsnar, CEO Cloud Technologies, warszawskiej spółki zajmującej się Big Data marketingiem i monetyzacją danych. KOGNITYWNE PAMIĘCI MASOWE Kognitywne pamięci masowe (cognitive storage) mają pomóc systemom IT w określaniu, które informacje są najważniejsze, a którym należy przypisywać niższy priorytet, zwłaszcza w przypadku dużych zbiorów danych. Cognitive storage ma też wspierać automatyzację procesów w zakresie decydowanie o tym, jakie dane i na jakich zasadach powinny być przechowywane w jakim rodzaju mediów, jaki poziom ochrony należy zastosować oraz jakie cykle życia ustanawiać dla różnych klas danych.
25
eseller News
BIZNES
PRZYKŁADY ZASTOSOWAŃ SYSTEMÓW KOGNITYWNYCH System neuromorficzny Platforma naśladująca działanie ludzkiego mózgu, oparta na szesnastu neurosynaptycznych procesorach IBM TrueNorth, została wdrożona przez IBM w amerykańskim Lawrence Livemore National Laboratory. Zużywa ona tyle prądu, co przeciętny tablet (ok. 2,5 W), a jej szybkość działania jest porównywalna z działaniem 16 mln połączeń neuronowych i 4 mld synaps. Sieć zbudowana na wzór mózgu ludzkiego przetwarza dane szybciej niż dostępne dotąd komputery. System neuromorficzny, zdaniem ekspertów, może być nawet 50 razy bardziej efektywny w rozpoznawaniu wzorów czy używaniu uczących się algorytmów. Macierz z kognitywną pamięcią do astronomicznych badań Laboratorium IBM w Zurychu bierze udział w międzynarodowym projekcie astronomicznym o nazwie „Square Kilometre Array” (SKA) – planowanej budowie sieci radioteleskopów o całkowitej powierzchni 1 km , która będzie generować do 1 PB danych dziennie. Główne zadanie dla inżynierów IBM to budowa systemów pamięci masowej, które będą w stanie obsłużyć tak duże ilości danych. W astronomicznym projekcie ma pomóc rozwiązanie cognitive storage. Wprowadzany „system uczenia się” ma badać metadane i analizować wzorce dostępu, a także uczyć się na podstawie zmieniających się kontekstów użycia danych, aby pomóc przypisywać im wartość. 2
Hotelarstwo i bankowość Hilton uruchomił pilotażowy program robota-konsjerża, informującego gości o hotelowych atrakcjach, usługach oraz wartych obejrzenia miejscach w najbliższym sąsiedztwie. Robot o imieniu Connie jest wspomagany przez oprogramowanie IBM Watson, a udzielane przez niego odpowiedzi stają się tym dokładniejsze, im częściej wchodzi w interakcje z gośćmi. Z kolei Alior Bank dostarcza swoim konsultantom Private Banking aplikację na iPada, wspomaganą analityką biznesową IBM. KOMPUTERY KREATYWNE I PRZEWIDUJĄCE PRZYSZŁOŚĆ? Ruslan Salakhutdinov, profesor informatyki na Uniwersytecie w Toronto oraz Joshua Tenenbaum, profesor wydziału kognitywistyki i nauk o mózgu oraz „ośrodka badań nad mózgiem, umysłem i maszynami” z Massachusetts Institute of Technology (MIT), opracowali algorytm, którego implementacja ma pozwolić maszynom nie tylko na uczenie się i szybsze wyciąganie wniosków, lecz również na… kreatywność. Komputer napotykający na nowe zagadnienie sprawdzi najpierw, czy miał już do 26
eseller News
czynienia z podobną sytuacją wcześniej, a następnie – bazując na swoich „doświadczeniach” (czyli pamięci cyfrowych operacji) – wyciągnie wnioski z minionych procesów i dopasuje postępowanie do aktualnej sytuacji, eliminując potencjalne błędy. Co istotne, będzie również w stanie generować zupełnie nowe informacje, tzn. wymyślać/wytwarzać racjonalne scenariusze, których wcześniej nie miał w swojej pamięci. Będzie w stanie projektować i tworzyć innowacyjne rozwiązania. – Biznes kładzie dzisiaj nacisk na rozwój nowej dyscypliny w naukach ścisłych, jaką jest cognitive computing, czyli całokształt działań skoncentrowanych wokół automatyzacji i autonomizacji pracy komputerów, zdolnych do samodzielnego uczenia się i koordynowania swojej pracy. Inteligentne maszyny będą musiały jednak wykorzystywać dane, pozwalając nie tylko na bieżącą korektę strategii biznesowej, lecz również na przewidywanie przyszłości z większą dozą dokładności niż kiedykolwiek przedtem. Dlatego też w ciągu najbliższych dwóch lat 7 na 10 przedsiębiorstw zamierza zwiększyć wydatki na analizę dużych zbiorów danych. Gartner twierdzi, że do 2020 r. aż 80 proc. procesów biznesowych uda się zmodernizować, właśnie dzięki wykorzystaniu zaawansowanej analityki danych – mówi Piotr Prajsnar, CEO Cloud Technologies. Wykorzystanie nowoczesnych technologii w biznesie jest również podstawą idei Przemysłu 4.0, której celem jest zwiększenie konkurencyjności przemysłu. Zakłada ona wytworzenie danego produktu w wirtualnym świecie, zanim jeszcze powstanie on fizycznie i trafi do klienta. Dzięki temu może być on dowolnie konfigurowany wedle potrzeb konkretnego klienta. Przemysł 4.0 ma pozwolić na opłacalne wytwarzanie produktów nawet w pojedynczych ilościach. Nie będzie to możliwe bez wykorzystania zintegrowanych systemów IT. Niemałą rolę odgrywają tu rozwiązania machine learning i narzędzia do analityki Big Data. ACCENTURE: SZTUCZNA INTELIGENCJA NOWYM INTERFEJSEM UŻYTKOWNIKA Sztuczna inteligencja (AI – artificial intelligence) będzie wkrótce pełnić funkcję nowego interfejsu użytkownika (UI – user interface) przy kontaktach z klientami i w aplikacjach wewnątrz firmowych, zapowiadają eksperci Accenture. AI jako nowy UI to jeden z pięciu najważniejszych
trendów wymienianych w raporcie „Accenture Technology Vision 2017”, które w ciągu najbliższych trzech do pięciu lat wywołają rewolucyjne zmiany w biznesie. Z kolei analitycy Gartnera przewidują, że do 2020 r. 30 proc. wyszukiwań w sieci będzie realizowana za pomocą sesji głosowych, bez użycia ekranu.
Kognitywne pamięci masowe mają pomóc systemom IT w określaniu, które informacje są najważniejsze, a którym należy przypisywać niższy priorytet. Przy coraz bardziej zaawansowanych technologiach uwzględniających sztuczną inteligencję, personalizację, różnorodne interfejsy, dane pochodzące z wielu źródeł – potrzebne stają się rozwiązania specjalnie dostosowujące się do potrzeb ludzi. Wymaga to indywidualnego projektowania aplikacji, zamiast programowania dla mas, programowania dla jednostki, podkreślają autorzy raportu Accenture. Wnioski prezentowane w „Technology Vision 2017” powstały na podstawie ankiet przeprowadzonych wśród 5 tys. biznesmenów, ekspertów i właścicieli startupów. AI DO OBSŁUGI KLIENTÓW ORAZ KOMUNIKACJI WEWNĘTRZNEJ CIO powinni skupiać się na aplikacjach, które można szybko dostosowywać do zmieniających się potrzeb i które są ściśle powiązane z realizacją celów biznesowych. Prawdopodobnie w pierwszej kolejności będzie to dotyczyć aplikacji skierowanych na klienta, a następnie aplikacji wewnętrznych, w przypadku których sztuczna inteligencja pomoże zwiększać skuteczność i efektywność pracowników. Technologie AI sprawią, że interakcje i interfejsy będą stawać się bardziej naturalne i przyjazne ludziom, a także znacząco przyczynią się
BIZNES do doskonalenia technik rozpoznawania głosu i przetwarzania języka naturalnego. Wykraczając ponad narzędzia back-endowe, rozwiązania AI przejmują coraz bardziej wyrafinowane role w ramach interfejsów technologicznych: w autonomicznych pojazdach czy przy tłumaczeniach na żywo, dzięki zastosowaniu uczenia maszynowego. Sztuczna inteligencja sprawia, że interfejsy stają się zarówno proste, jak i inteligentne.
WIZJE I TRENDY TECHNOLOGICZNE 2017 WEDŁUG ACCENTURE n Sztuczna inteligencja jako nowy interfejs
użytkownika.
n Projektowanie dla ludzi: technologia
n
n
n
powinna dostosowywać się do ludzi, a nie na odwrót. Ekosystemy jako makrokosmosy. Organizacje i firmy łączą się z innymi, żeby oferować nowe usługi i przyciągać nowych klientów. Rynkowa siła robocza w ramach gig ekonomii: używanie platform pozwalających znaleźć i dobrać odpowiednich pracowników z potrzebnymi umiejętnościami do realizacji projektów na żądanie; rekrutacje przeprowadzane w miarę bieżących potrzeb. Nieznane obszary: trudno przewidzieć, jak cyfrowy biznes będzie wyglądać w ciągu trzech do pięciu lat.
Trendy wskazane przez analityków Accenture wyznaczają plan działań dla CIO, którzy muszą uwzględnić fakt, że cele pracownika, klienta i korporacyjne będą w przyszłości przeplatać się coraz bardziej. Mniejsza waga będzie przywiązywana do funkcji technologicznych, liczyć się będą przede wszystkim praktyczne zastosowania.
Rynek rozwiązań integrujących kanały komunikacji, oferowanych w chmurze obliczeniowej, będzie rósł w tempie dwucyfrowym rok do roku – średnio o 10 proc. do głosu, pozwolą wygenerować nawet 250 mln dolarów rocznie, prognozują analitycy Gartnera. Rozpoznawanie i synteza mowy osiągną punkt, w którym trudne stanie się rozróżnienie pomiędzy ludzkimi operatorami a maszynami. Te drugie coraz częściej będą nam towarzyszyć zarówno w procesach zakupowych, załatwianiu spraw np. w bankach, kontaktach służbowych, jak i codziennej pracy. – Polskie firmy korzystają z przestarzałych systemów, które nie są w stanie sprostać wymaganiom współczesnego, a zwłaszcza młodego i „zdigitalizowanego” klienta, który potrzebuje kontynuacji oferty, którą wcześniej przeglądał w Sieci. System musi
być więc wyposażony w inteligentny router kierujący interakcjami z wielu kanałów kontaktu: głos, wideo, email, czat, Facebook, tak aby kontakt nie urywał się tylko na jednym z jego etapów – wyjaśnia Paweł Pierścionek, CTO z firmy Cludo, dostarczającej rozwiązania wspierające zarządzanie contact center. W przypadku większości polskich przedsiębiorstw narzędziem pierwszego wyboru jest contact center, pozostałe kanały pełnią raczej rolę uzupełniającą. Brakuje kompleksowych rozwiązań, łączących wszystkie funkcjonalności i pozwalających na spięcie komunikacji z poszczególnych kanałów w jednym miejscu. Takie możliwości dają rozwiązania chmurowe, dostarczane w usługowym modelu CCaaS (contact center as a service). Według prognoz firmy analitycznej Markets&Markets sprzedaż rozwiązań UCaaS (Unified Communication as a Service) wzrośnie w ciągu pięciu najbliższych lat o 12 mld dolarów. Rynek rozwiązań integrujących kanały komunikacji, oferowanych w chmurze obliczeniowej, będzie rósł w tempie dwucyfrowym rok do roku – średnio o 10 proc. Główni odbiorcy rozwiązań w zakresie ujednoliconej komunikacji to sektory: bankowy, telekomunikacyjny, logistyczny oraz usług hotelarskich. Zgodnie z prognozami Bersin by Deloitte, automatyzacja robotyczna procesów i rozpowszechnianie się przetwarzania naturalnej mowy będzie dominującym trendem zarówno w kontaktach firm z klientami, jak i w wewnętrznych procesach firm, takich jak zarządzanie zespołami czy rekrutacja. n
WYSZUKIWANIE GŁOSEM Według analityków Gartnera (źródło raport „Top Strategic Predictions for 2017 and Beyond: Surviving the Storm Winds of Digital Disruption”), do 2020 r. 30 proc. wyszukiwań w sieci będzie realizowana za pomocą sesji głosowych, bez użycia ekranu. W firmach (głównie amerykańskich) stopniowo rośnie zainteresowanie rozwiązaniami wideo i systemami zbierającymi informacje o działaniach klientów z wielu źródeł, tak aby odbiór wszystkich interakcji odbywał się w jednym miejscu. Nowe zasady pozycjonowania SEO promujące strony internetowe, z opcją systemów marketingowych dostosowanych 27
eseller News
BIZNES
Wiedza
coraz bardziej potrzebna Barbara Mejssner
Reseller musi być dziś nie tylko dobrym sprzedawcą, ale też doradcą i ekspertem w obszarze IT związanym z jego działalnością. Technologia zmienia się szybko, więc także potrzeba szkolenia i zdobywania wiedzy jest coraz istotniejsza.
B
ezustanne szkolenia to dla resellerów sprzedających rozwiązania informatyczne być albo nie być na rynku. Rynek IT jest bowiem wyjątkowo konkurencyjny i bez ciągłego podnoszenia jakości świadczonych usług trudno sprostać stale rosnącym oczekiwaniom klientów. Vendorzy dobrze wiedzą, że zdobyte przez resellerów umiejętności przyczynią się do wzrostu sprzedaży, więc nie oszczędzają na edukacji i większość szkoleń oferują bezpłatnie. Szkolenia organizowane przez producentów i dystrybutorów to zarówno szkolenia stacjonarne, e-learning, webinaria, jak i szkolenia mieszane. E-LEARNING KONTRA KURS STACJONARNY E-learning jest z racji swojej formy najbardziej ekonomiczny, bo z punktu widzenia resellera często dużym problemem jest wysłanie inżyniera na stacjonarny 5-dniowy lub dłuży kurs, a co za tym idzie – jego nieobecność w miejscu pracy lub koniecz-
28
eseller News
ność oczekiwania na zaplanowany termin szkolenia. Jednym słowem, dla resellerów liczy się czas i elastyczność. Chociaż szkolenia online są konieczne, i to niezależnie od lokalizacji geograficznej, w niektórych przypadkach nie zastąpią spotkań i dys-
Vendorzy dobrze wiedzą, że zdobyte przez resellerów umiejętności przyczynią się do wzrostu sprzedaży, więc większość szkoleń oferują bezpłatnie.
kusji, podczas których możemy wspomóc się fizycznym sprzętem i zaprezentować nasze rozwiązania na konkretnych realnych przypadkach. Jest to szczególnie istotne podczas szkoleń dla inżynierów, gdzie praktyka i możliwość zapoznania się z urządzeniami na żywo odgrywają bardzo ważną rolę. Szkolenia stacjonarne to według dystrybutorów i producentów najbardziej efektywna forma nauki zapewniająca pełną dostępność instruktora, co sprzyja efektywnemu przyswajaniu wiedzy, zadawaniu pytań i dyskusji zarówno z instruktorem, jak i z innymi uczestnikami warsztatów. Dlatego też ilość tradycyjnych kursów nie zmniejsza się, a bywa, że rośnie. Coraz większą popularność zyskują szkolenia typu on-demand, czyli kursy online, które pokrywają się merytorycznie ze szkoleniami stacjonarnymi, ale dzięki elastycznej formule pozwalają obniżyć koszty uczestnictwa i ułatwiają pogodzenie harmonogramu szkolenia z codziennymi zadaniami w pracy.
BIZNES W ostatnich kilku latach widoczne jest także coraz większe zainteresowanie szkoleniami autoryzowanymi, które przygotowują do egzaminów certyfikacyjnych i w konsekwencji do potwierdzenia wiedzy przez zdobycie danego certyfikatu. Uczestnicy szkoleń doceniają wartość certyfikatu, ponieważ daje on nie tylko satysfakcję zawodową, ale też oznacza podwyżkę wynagrodzenia oraz możliwość pracy nad bardziej wymagającymi projektami.
Bartosz Niepsuj Wiceprezes, Compendium Centrum Edukacyjne (spółka Veracomp) Nasz pomysł na szkolenia online, czyli DLearning to maksymalne przeniesienie tych samych doświadczeń i benefitów szkolenia stacjonarnego do świata online. Uczestnik szkolenia w formie DLearning ma praktycznie takie samie możliwości i korzyści, jak uczestnik tegoż samego kursu w sali: jest widziany i słyszany przez pozostałych uczestników oraz instruktora, tym samym ma pełną swobodę zadawania pytań, czy brania udziału w dyskusjach (z pominięciem tych, które toczą się w czasie przerw). W Compendium CE można realizować wybrane szkolenia w formule DLearning, nie wszystkie kursy są jednak dostępne w tym trybie, ponieważ szkolenia twarde często wymagają realizacji ćwiczeń w ściśle określonym laboratorium. W CZYM SIĘ SZKOLIĆ? Jeśli chodzi o tematykę szkoleń, to zainteresowaniem cieszą się zarówno szkolenia twarde, jak i miękkie. Tych ostatnich zaczyna w ostatnich latach przybywać, zwłaszcza w obszarze metodyk zarządzania projektami i obszarem IT. – Nasza oferta szkoleń miękkich jest bardzo ściśle określona i skupia się całkowicie na kursach dotyczących uznanych międzynarodowych standardów usług (ITIL, ITSM) lub metodyk zarządzania projektami (PRINCE2, AgilePM) oraz szkoleń powiązanych. Przykładowo, szkolenia, które wprowadziliśmy do oferty w 2017 r. to pełna oferta szkoleń ITIL na poziomie Foundation, Intermediate i Expert, szkolenia MoP, MSP, P3O, MoR, AgilePM, COBIT5, LeanIT – mówi Bartosz Niepsuj, wiceprezes w Compendium Centrum Edukacyjne (spółka Veracomp).
Szkolenia stacjonarne to według dystrybutorów i producentów najbardziej efektywna forma nauki zapewniająca pełną dostępność instruktora. W razie zapotrzebowania na konkretną wiedzę powstają poza harmonogramem szkolenia ad hoc. Są one odpowiedzią na realne potrzeby, uwzględniające konkretne modele urządzeń czy wersje oprogramowania, które wymagają poszerzenia i uzupełnienia posiadanej już wiedzy. – Staramy się reagować na potrzeby resellerów tak szybko, jak tylko jest to możliwe. Jeśli nie jesteśmy w stanie zorganizować tradycyjnego spotkania, odpowiadamy na pytania za pośrednictwem poczty czy telefonicznie, a także organizujemy webinaria – mówi Aneta Ambroż, Partner Development Manager w Dell EMC.
Agnieszka Szarek Channel Account Manager, Fortinet Szkolenia w ramach ścieżki certyfikacyjnej Fortinet NSE są realizowane online i stanowią zdecydowaną większość prowadzonych przez nas szkoleń. Zdalna forma zapewnia wygodę i oszczędność czasu oraz pozwala na przeszkolenie większej liczby osób. Tradycyjne szkolenia organizujemy wtedy, gdy pewne rozwiązania należy zademonstrować na żywo. Jest to też dla nas okazja do spotkań z partnerami. W ostatnim roku wzrosła ogólna liczba szkoleń. Szkolenia zostały też zaktualizowane o wiedzę z zakresu nowych technologii, które wprowadziliśmy do oferty w 2016 i 2017 r. CYFROWY ŚWIAT OPARTY JEST NA WIEDZY Przyspieszony rozwój technologii sprawia, że pojawiają się (i będą pojawiać się) innowacyjne usługi i produkty. Będą one wymagały nowej wiedzy od sprzedawców. Często jest tak, że wiedza ta związana jest z zastosowaniem rozwiązań, które dopiero wkraczają na rynek i ich szersze zastosowanie nastąpi dopiero w niedalekiej przyszłości. Jednak umiejętności trzeba zdobywać
29
eseller News
BIZNES
Marta Zborowska Sales Director, Connect Distribution
Coraz większą popularność zyskują szkolenia typu on-demand, czyli kursy online, które pokrywają się merytorycznie ze szkoleniami stacjonarnymi.
Największym powodzeniem cieszą się u nas obecnie szkolenia produktowe. Warsztaty techniczne realizujemy, gdy reseller wykaże zainteresowanie konkretnym rozwiązaniem. W roku 2016 stosunek szkoleń online (webinaria) do szkoleń stacjonarnych kształtował się 60 proc. do 40 proc. z przewagą szkoleń online. W tym roku zauważamy stosunek pół na pół. Frekwencja jest podobna, a niejednokrotnie poszczególni uczestnicy korzystają zarówno z jednej, jak i z drugiej formy edukacji. już dziś, by być o krok przed konkurencją. Przykładowo, 26 czerwca br. Cisco ogłosiło nowe programy deweloperskie i szkolenia, mające przyspieszyć wykorzystanie przez ekosystem klientów, partnerów i deweloperów intuicyjnej sieci Cisco. Nowa, intuicyjna sieć Cisco rozpoznaje intencje, ogranicza zagrożenia i uczy się (machine learning) z upływem czasu – co jest jedną z największych innowacji w historii systemów sieciowych. Rozwiązania takie są rezultatem wielu lat badań i rozwoju prowadzonych przez Cisco w celu przystosowania sieci do czasów, gdy inżynier sieciowy, który obecnie zarządza setkami urządzeń, w roku 2020 będzie prawdopodobnie zarządzać już milionem. Coraz więcej rozwiązań sprzedawanych jest obecnie w modelu chmury – co wymaga specyficznej wiedzy od ich dostawców. Rynek rozwiązań IT oferowanych jako cloud computing rośnie dynamicznie od kilku lat. W opublikowanym przez Global Technology Distribution Council (GTDC) raporcie „Insights Into 2017” dystrybutorzy i producenci technologiczni przewidują, że ten trend się będzie utrzymywał. Do30
eseller News
Piotr Parys Channel Marketing Manager w Oki Systems Polska Reseller działający na rynku nowych technologii ciągle musi być na bieżąco z najnowszymi rozwiązaniami. Jako producent wiemy, że należy wspierać naszych partnerów w tym zakresie, dlatego oferujemy im pakiet bezpłatnych szkoleń stacjonarnych różnego typu: produktowych, marketingowych, sprzedażowych wspartych platformą e-learningową. Są to kursy online w ramach Akademii Oki dotyczące nie tylko stricte rozwiązań Oki, ale też wielu przydatnych tematów pokazanych w bardziej przekrojowy sposób, takich jak m.in. optymalizacja obiegu dokumentów w firmie. Do tego dochodzą szkolenia autoryzacyjne, roadshow, wsparcie marketingowe
stawcy wiedzą, że klienci z różnych powodów coraz częściej decydują się na chmurę, dlatego podążają za tym trendem. Przykładowo, na platformie do sprzedaży usług chmurowych ABC Data (ABC Data Cloud) dostępne będzie szerokie spektrum rozwiązań as-a-Service, włączając w to usługi wybierane przez instytucje finansowe i oferowane przez polskich dostawców usług chmurowych, którzy korzystają z serwerowni umiejscowionych w Polsce, i co szczególnie istotne dla branży finansowej, podlegają naszemu prawu. Natomiast Action Centrum Edukacyjne jako jedyny ośrodek w Polsce ma autoryzację Amazon Web Services i oferuje kompletny zakres szkoleń i usług z zakresu Cloud Computingu. Z kolei Centrum Kompetencyjne AB prowadziło w 2017 r. cykl szkoleń „Infrastruktura IT w przedsiębiorstwie oparta o Microsoft Azure”. W ramach warsztatów technicznych uczestnicy mogli zapoznać w ramach Okipartnernet.pl, gdzie można znaleźć pakiet narzędzi ułatwiających codzienną pracę resellera. Z doświadczenia wiemy, że szkolenia są podstawą naszego sukcesu i warto inwestować w rzetelną wiedzę i fachowość naszych autoryzowanych partnerów. Weryfikacja umiejętności oraz stałe podnoszenie ich kwalifikacji poprzez szkolenia daje nam pewność, że utrzymają oni wysoki poziom sprzedaży oraz godnie i fachowo reprezentują naszą firmę u klienta końcowego. Obecnie w dużej mierze stawiamy na szkolenia stacjonarne, ponieważ dają one możliwość interakcji z resellerami i na bieżąco odpowiadania na ich pytania. Uzupełnieniem ich jest wielojęzyczna e-platforma Akademia Oki umożliwiająca odbycie szeregu certyfikowanych szkoleń online. Po pomyślnym ukończeniu internetowego kursu w aplikacji, użytkownikowi automatycznie udostępnione są dodatkowe materiały, m.in. seria instruktażowych filmów sprzedażowych. Te krótkie materiały wideo zostały specjalnie opracowane jako wsparcie dla partnerów handlowych w trakcie spotkań i prezentacji. Są one świetnym narzędziem do szybkiego podzielenia się informacjami ze współpracownikami lub klientami. Akademia Oki to naprawdę przyjazne użytkownikowi centrum wiedzy na temat sprzedaży, produktów, technologii i rozwiązań szkoleniowych. Wielu naszych partnerów bardzo sobie ceni te kursy, zwłaszcza że dzięki platformie internetowej mają dostęp do materiałów, testów czy treści wykładów również po zakończeniu szkolenia. Dzięki temu mogą w łatwy sposób odświeżyć sobie interesujący fragment kursu i dostosować tempo nauki do własnych potrzeb.
BIZNES
W razie zapotrzebowania na konkretną wiedzę powstają poza harmonogramem szkolenia ad hoc. Piotr Głydziak Dyrektor Działu Smart Home, Security, Networks & Digital Signage w ACTION W nowej strukturze biznesowej Action wydzieliliśmy specjalny obszar – Business Center – wyspecjalizowany w świadczeniu usług z wartością dodaną dla resellerów. Jego priorytetowym zadaniem jest nie tylko dostarczenie ciekawej oferty resellerom, ale przede wszystkim niezbędnej wiedzy, z której mogą zbudować wartość dodaną dla swoich klientów. Z naszych obserwacji wynika, że taka forma wsparcia cieszy się ogromną popularnością. To najlepszy dowód na to, że nasi partnerzy są świadomi, że konkurowanie dziś ceną nie ma sensu. Trzeba skupić się na usługach, jakie mogą dać resellerzy swoim klientom, dzięki wiedzy zdobytej w Action Business Center. A wiedzę tę najlepiej budować na specjalistycznych szkoleniach w formie warsztatów. I takie właśnie przeprowadzamy. W samym III kwartale rozplanowaliśmy 10 szkoleń specjalistycznych, większość z nich w formule warsztatów, aby umożliwić resellerowi przetestowanie sprzętu i wykonanie pod okiem szkoleniowca zestawu zadań. Pomyślne zakończenie każdego szkolenia, niezależnie od stopnia, gwarantuje firmie nie tylko certyfikat, ale możliwość otrzymania dodatkowych bonusów cenowych na zakupiony u nas sprzęt czy dedykowanych cen projektowych.
rocznego raportu CompuBase wynika, że obecnie, pomimo wielkich inwestycji dostawców w Internet of Things, tylko 8 proc. resellerów w całym regionie EMEA sprzedaje bądź deklaruje gotowość sprzedaży rozwiązań IoT. W Polsce takich resellerów jest 7 proc. Jeśli chodzi o resellerów wiążących swoją działalność z Internetem rzeczy, to najwięcej jest firm integrujących infrastrukturę ICT – 16 proc. wszystkich deklarujących posiadanie oferty IoT. Firmy zdefiniowane w badaniu jako resellerzy sprzętu, oprogramowania i usług dla klienta biznesowego stanowią jedynie 3,8 proc. Jest tu więc ogromny obszar do zagospodarowania – naturalnie w miarę wzrostu zainteresowania klientów i upowszechniania się technologii IoT. n
Maciej Magierek Partner Business Manager, VMware Nowe technologie oferowane przez VMware w obszarach wirtualizacji sieci, cyfrowego miejsca pracy i infrastruktury hiperkonwergentnej wymagają od partnerów pozyskania zupełnie nowych kompetencji. Z tego powodu partnerzy, którzy chcą wykorzystać szansę, jaką daje wzrost zainteresowania klientów rozwiązaniami NSX, vSAN oraz AirWatch, uczestniczą w szkoleniach technicznych i handlowych poświęconym tym produktom. Zdobyte w ten sposób certyfikaty potwierdzają formalnie ich kompetencje i jednocześnie pozwalają uzyskać wymierne korzyści finansowe dzięki programowi Solution Rewards, który premiuje sprzedaż konkretnych produktów poprzez bonusy wypłacane certyfikowanym partnerom.
się z technologiami chmurowymi Microsoft, a w szczególności Microsoft Azure. Kolejnym obszarem do zagospodarowania przez resllerów jest z pewnością skanowanie i przemysłowy druk 3D. W przyszłości zapewne otworzą się także coraz szersze możliwości do sprzedaży rozwiązań związanych z Internetem rzeczy, choć na razie zainteresowanie tym obszarem jest jeszcze niewielkie. Z tego31
eseller News
BIZNES
Szkolenia
tworzą wartość dodaną Barbara Mejssner
Szkolenia są dla resellerów źródłem licznych korzyści od uzyskania wysokich kompetencji i zwiększenia jakości świadczonych usług, po profity finansowe w postaci wzrostu sprzedaży i premii od dystrybutorów i producentów.
S
zkolenia pozwalają przede wszystkim spełnić wymogi formalne programów partnerskich, ponieważ albo wprost kończą się egzaminem certyfikującym, albo przygotowują do niego. Otrzymywanie kolejnych certyfikatów jest istotne, ponieważ jest wymagane w osiąganiu kolejnych stopni w programach partnerskich. Nie są to jednak wyłącznie dyplomy do powieszenia na ścianie, ponieważ idzie za nimi faktyczna wiedza i nowe umiejętności, które dają pewność inżynierom, że znają dobrze produkt i nie pominą podczas wdrożeń żadnej z funkcjonalności, która może być użyteczna dla ich klienta. Tym samym od samego początku budują swoją pozycję eksperta w relacjach z klientem. Nie bez znaczenia są oczywiście rabaty
32
eseller News
Szeroka wiedza to wartość dodana, dzięki której można zaoferować klientowi coś więcej niż zwykłą sprzedaż.
i bonusy przyznawane partnerom i resellerom poszerzającym swoje kompetencje, co potwierdza niedawne badanie firmy Compris, zajmującej się konsultingiem i dostawą usług zarządzania w kanale B2B. Dla resellerów biorących z nim udział głównym powodem, dla którego korzystają ze szkoleń, było otrzymanie specjalnych benefitów od producentów i vendorów (24 proc.). Ponad 19 proc. szkoli się po to, by uzyskać wyższe kompetencje, a 16 proc. uważa, że edukacja zapewni im lepszą komunikację z klientami. Natomiast 10 proc. uczestniczy w szkoleniach, aby sprostać wymaganiom dostawców w celu sprzedaży produktów. Nieco dziwi fakt, że tylko 8 proc. resellerów biorących udział w badaniu uznało, że szkolenia pomogą im osiągnąć wzrost sprzedaży.
BIZNES
NAJWAŻNIEJSZE DLA RESELLERA SKŁADNIKI OFERTY SZKOLENIOWEJ VENDORÓW
W przypadku podejmowania decyzji o szkoleniu nie bez znaczenia są rabaty i bonusy przyznawane partnerom i resellerom poszerzającym swoje kompetencje.
Kontakt z ludźmi z obszaru określonych kompetencji
21%
Pozycjonowanie produktów i usług dla użytkownika końcowego
18%
USP* w porównaniu do konkurencji
17%
Techniczne informacje o produktach i usługach
8%
Szkolenie z zarządzania projektami
8%
Krótkie informacje na temat wchodzących nowości
7%
USP/korzyści
6%
Kompatybilność z innymi produktami
4%
Licencyjne modele oprogramowania
4%
Informacje na temat wdrożeń
4%
Informacje na temat wsparcia dla usług i produktów
2%
Licencjonowanie i dostarczanie usług w modelu SaaS
1%
*USP (unique selling point) – unikalna propozycja sprzedaży – czynnik, który odróżnia produkt lub usługę od konkurencji, na który składa się najniższy koszt, najwyższa jakość produktu, jedyny w swoim rodzaju, po raz pierwszy na rynku etc. źródło: Compris
BRAKUJĄCE ELEMENTY W SZKOLENIACH VENDORÓW IT
Bartłomiej Wielgus Specjalista ds. szkoleń, InsERT Szkolenie dla serwisantów InsERT zakończone pomyślnie zdanym egzaminem uprawniają firmę do posługiwania się tytułem Punktu Serwisowego InsERT. Taką firmę promujemy na naszych stronach i polecamy klientom końcowym. Z kolei Partnerzy InsERT, oprócz uprzywilejowanego miejsca na listach, otrzymują korzystne rabaty i cashbacki. Każda firma może starać się zarówno o otrzymanie statusu Partnera InsERT, jak i Punktu Serwisowego InsERT.
Pozycjonowanie produktów i usług dla użytkownika końcowego
26%
Jak pozycjonować firmę wobec konkurentów
24%
Umiejętności zarządzania projektami
9%
Kontakt z ludźmi z obszaru określonych kompetencji
9%
Techniczna wiedza o produktach i rozwiązaniach
8%
Krótkie informacje na temat całego portfolio
5%
Porównanie z produktami innych dostawców oraz konkurencji
5%
Modele licencyjne (tylko oprogramowanie)
4%
USP/korzyści
4%
Informacje o wdrożeniach
3%
Informacje o wsparciu wdrożonych rozwiązań
1%
Licencjonowanie i dostarczanie usług SaaS
1% źródło: Compris
Szeroka wiedza to wartość dodana, dzięki której można zaoferować klientowi coś więcej niż zwykłą sprzedaż – także usługi konsultingowe oraz tworzenie kompleksowych rozwiązań wymagających integracji wielu elementów. Ponadto szerokie umiejętności pozwalają na prawidłowe oszacowanie potrzeb klienta. Dystrybutorzy i producenci wie-
dzą doskonale, jak ważna jest edukacja, zwłaszcza w szybko rozwijającym się sektorze technologii, dlatego bardzo wiele szkoleń odbywa się bezpłatnie. W ten sposób zlikwidowana zostaje bariera finansowa i reseller może bezinwestycyjnie gromadzić wiedzę, a potem dokonywać jej transferu, przekazując ją swoim pracownikom. n 33
eseller News
TECHNOLOGIE
Nie ma ucieczki
od chmury w biznesie Marcin Bieńkowski
Jak twierdzą analitycy z firmy IDC, do 2020 r. co najmniej 45 proc. używanego w Europie oprogramowania oraz infrastruktury IT będzie dostarczane w modelu cloud computingu. Co więcej, do tego czasu inwestycje w rozwiązania chmurowe stanowić będą już 20 proc. wszystkich wydatków związanych z infrastrukturą IT i 25 proc. z kosztami oprogramowania.
O
d chmury nie ma już ucieczki. Z tym opinią zgadza się większość osób odpowiedzialnych za funkcjonowanie firmowych działów IT, również w małych i średnich przedsiębiorstwach. To m.in. dlatego firma IDC oszacowała, że polski rynek chmury publicznej będzie rósł do 2019 r. średniorocznie o 18,6 proc. W bieżącym roku wartość tego rynku powinna już przekroczyć 200 mln dolarów, podczas gdy w 2016 r. rynek ten wart był jedynie 160 mln dolarów. Jednak poza tym, że rynek związany z cloud computingiem wyraźnie z roku na rok rośnie, nawet do pięciu razy szybciej niż
34
eseller News
Według IDC polski rynek chmury publicznej będzie rósł do 2019 r. średniorocznie o 18,6 proc.
w przypadku rynku tradycyjnych usług IT, to bardzo trudno oszacować jest rzeczywistą jego wartość. Wynika to przyjętej metodologii i odmiennego traktowania poszczególnych usług świadczonych w ramach szeroko rozumianych usług sieciowych. – Ten zniekształcony obraz rynku usług chmurowych wynika z kilku czynników. Wbrew pozorom nie tylko z niejednolitej metodologii. Jednym z podstawowych wyzwań jest niejednorodność usług. Pod pojęciem cloud computingu kryją się bowiem zarówno rozwiązania typu SaaS, PaaS, jak i IaaS, a są to diametralnie różne
TECHNOLOGIE zamazują obraz. Poza tym brak rzetelnych danych wynika też w dużym stopniu z niskiej świadomości dotyczącej tematyki cloud – dodaje Robert Mikołajski.
Przemysław Galinski, Sales Leader for Cloud Services Poland and Baltics w IBM Polska Warto zastanowić się, w jaki sposób resellerzy mogą zarabiać na chmurze. Wymienić tu można dwie główne metody zarabiania. Pierwsza to tzw. opcja minimum, związana z odsprzedażą chmury z rabatem i zarabianie najczęściej procentowo określonej kwoty od revenue klienta. Jest to opcja dla leniwych. Kluczem do sukcesu i opcją pozwalającą wygenerować największe zyski jest budowa naszego rozwiązania na chmurze sprawdzonego dostawcy (np. własny offering SaaS), gdzie chmura jest kosztem, ale klient płaci (tzw. value) za unikatową wartość rozwiązania opartego na sprawdzonym, dużym i bezpiecznym dostawcy. Taki model przyjmuje ogromna liczba firm, integratorów oraz dostawców, i to ten sposób może generować nie tylko dużą kwotę kontraktu, ale również regularny, stały i przewidywalny przychód oraz przywiązanie klienta. W ten sposób zbudować można pozycję naszej marki oraz marki naszych produktów.
Rynek związany z cloud computingiem rośnie z roku na rok nawet do pięciu razy szybciej niż w przypadku tradycyjnych usług IT.
CHMURA W POLSCE Struktura wydatków na usługi chmurowe świadczy o tym, że polski rynek cloud computingu zaczął już upodabniać się pod tym względem do rynków zachodnich. Jak podaje firma IDC, usługi typu SaaS stanowią w Polsce największą część rynku chmury publicznej, a mianowicie 66,8 proc., podczas gdy na świecie jest to 68,5 proc. Usługi IaaS odpowiadają w Polsce za 23,1 proc. rynku. Obecnie najmniejszą część usług chmurowych w Polsce stanowią usługi stanowi PaaS. Jest to 10,1 proc. rynku, jednak analitycy
Krystian Fydrych, Kierownik produktu serwery w home.pl Korzystanie z rozwiązań chmurowych jest jedną z najszybszych i najbardziej opłacalnych metod dostępu do technologii i oprogramowania. Użytkownik może w krótkim czasie dokonać zakupu abonamentu na korzystanie z takiej usługi i równe szybko z niej zrezygnować. Płaci za faktyczne zużycie. Jedną z idei przyświecającej powstaniu chmury było maksymalne skrócenie braku dostępu do danych, nawet jeśli jeden z serwerów odpowiedzialnych za przetrwanie nie jest dostępny. Warto, żeby użytkownicy dopytywali dostawcę, jakie mechanizmy on stosuje, aby uchronić ich przed nieautoryzowanym dostępem do danych. W firmach klientów należy również budować świadomość tego, jak bezpiecznie korzystać z takich narzędzi. Warto pomyśleć o wewnętrznej polityce bezpieczeństwa i disaster recovery.
usługi i nie powinno się ich ze sobą porównywać. Dodatkowo modele świadczenia usług przez dostawców są bardzo różne. Część firm buduje ofertę wykorzystującą dedykowane projekty wdrożenia, inne dostarczają gotowe rozwiązania „pudełkowe”, np. dostępne online. Najczęściej jednak są to systemy IT stanowiące mieszankę powyższych w proporcjach różnych dla każdego dostawcy, co także nie ułatwia analizy – zauważa Robert Mikołajski, kierownik Działu Rozwoju Biznesu w firmie Atman. – To tylko dwa przykłady, bo sposobów segmentacji jest jeszcze więcej, a dostępne raporty rynkowe w wyżej wymienionych obszarach stosują uproszczenia, które, niestety, całkowicie 35
eseller News
TECHNOLOGIE mienić CAPEX na OPEX. Dzięki takiemu rozwiązaniu można wynajmować serwer do prowadzenia swojego biznesu, a jeśli będzie potrzeba – zamienić go na mocniejszy. Jeśli chodzi o SaaS, mamy tutaj do czynienia z dzierżawą oprogramowania w modelu usługi. Zamiast tradycyjne-
Mariusz Kochański, Członek zarządu, Dyrektor Działu Systemów Sieciowych w Veracomp Migracja do chmury elementów systemu IT wymaga właściwego doboru dostawców telekomunikacyjnych oraz inwestycji w systemy bezpieczeństwa klasy NGFW, DDoS, ADC, ochrony przed APT, zarządzania i analizy zdarzeń SIEM, zarówno po stronie dostawcy, jak i klientów. Dla resellerów jest to szansa na dodatkowe przychody z tytułu doradztwa, wdrożeń oraz sprzedaży usług własnych – również w modelu MSSP (Managed Security Service Provider). Istotna jest tutaj również możliwość zmiany przez klienta końcowego dostawcy usługi, w tym również samego integratora. Dlatego migracja strategicznego klienta, którego od dłuższego czasu obsługujemy jako reseller w kierunku usług chmurowych, zwłaszcza w obszarze, w którym jako reseller osiągamy przychody w tradycyjnym modelu on premise, wymaga starannej analizy wszystkich korzyści i zagrożeń – zarówno dla klienta, jak i integratora, który w tym momencie staje się jego długoterminowym doradcą. z firmy IDC uważają, że udział usług PaaS będzie w najbliższych latach rósł kosztem usług IaaS. W efekcie polski rynek będzie podążał dokładnie tą samą drogą rozwoju, co globalny rynek usług cloud computingu. – Z racji dostępności atrakcyjnych rozwiązań, użytkownicy korzystają częściej z chmury publicznej. Chmura publiczna kusi przede wszystkim niskimi kosztami uruchomienia narzędzi i łatwym procesem wdrożenia. Największą popularnością cieszą się rozwiązania IaaS i SaaS. Dzięki usługom IaaS, jak dzierżawa mocy obliczeniowej np. serwerów dedykowanych czy VPS, użytkownik może za36
eseller News
Zabezpieczenia oferowane przez dostawcę usług chmurowych są znacznie lepsze, niż jest w stanie zapewnić we własnym zakresie średnia, a nawet duża firma. go zakupu licencji, którą trzeba jeszcze zainstalować – użytkownik otrzymuje dostęp do narzędzia ze wszystkimi funkcjonalnościami oprogramowania i płaci tylko abonament. Oczywiście tak długo, jak z niego korzysta. Polski biznes z powodzeniem korzysta z tego modelu, jeśli chodzi o rozwiązania CRM, ERP, ale również w hostingu stron WWW, sklepów internetowych czy poczty email – mówi Krystian Fydrych, kierownik produktu serwery w home.pl. – Ilość aplikacji biznesowych, dostępnych w chmurze stale wzrasta. Są one dostosowane pod względem stabilności i wydajności do tego modelu, a pod względem funkcjonalnym nie odbiegają od tradycyjnego oprogramowania. Te, z których najczęściej korzystają polskie firmy to przede wszystkim aplikacje biurowe, programy pocztowe, a także aplikacje CRM i ERP. Ponadto popularne są programy do pracy grupowej czy współpracy na odległość, w tym aplikacje do organizacji spotkań online czy wideokonferencji. Warte odnotowania jest też to, że coraz więcej aplikacji specjalnie skrojonych na miarę potrzeb danej organizacji jest tworzonych z myślą o dostarczaniu z chmury (w modelu SaaS). Model SaaS jest też
Sebastian Kisiel, Senior Sales Engineer w Citrix Systems Poland Jednym z zagrożeń dla organizacji jest błędne założenie, że chmurą można zarządzać tak, jak klasyczną infrastrukturą centrum danych. Takie myślenie zmusza dział IT do brania pod uwagę wyłącznie chmur prywatnych. Innym problemem związanym z wykorzystaniem chmury mogą być jej użytkownicy. Wykorzystując w pracy konsumenckie aplikacje chmurowe, pracownicy – często wręcz nieświadomie – naruszają firmowe zabezpieczenia IT. To z kolei może prowadzić do naruszenia przez organizację określonych umów, regulacji czy przepisów. W takich sytuacjach istotne jest to, jak firma zareaguje na takie zdarzenia. Wprowadzenie zbyt restrykcyjnych zakazów wcale nie rozwiąże pojawiającego się problemu, a jedynie może doprowadzić do konfliktu z użytkownikami. Należy zastosować rozwiązania klasy korporacyjnej, które często w prostocie stosowania dorównują usługom konsumenckim, lecz przewyższają je pod względem funkcjonalności, jednocześnie chroniąc firmowe dane. Warto również pamiętać, że cloud computing cierpi na wiele podobnych problemów, z którymi mamy do czynienia w tradycyjnych środowiskach IT. Słabe hasła, współdzielenie kont i brak szyfrowania to tylko kilka z tych, które mogą przenieść się do chmury. najczęściej używany wśród rodzimych przedsiębiorstw. Potwierdzają to wyniki globalnego badania IDC, przeprowadzonego na rzecz Citrix w czerwcu tego roku, pt. „Citrix – End to End Solution Network Infrastructure Survey”: ponad 54 proc. badanych firm kupuje i korzysta z aplikacji SaaS dostarczanych z chmury, a blisko 49 proc. rozwija aplikacje webowe w chmurze – dodaje Sebastian Kisiel, Senior Sales Engineer w Citrix Systems Poland.
TECHNOLOGIE nie np. przeglądarkowe wersje aplikacji. Te usługi są także najłatwiejsze we wdrożeniu i w wykazaniu korzyści. Polskie IT to nadal tradycyjne IT, dlatego IaaS staje się także coraz wyraźniejszym elementem pejzażu chmury w Polsce. Tutaj jesteśmy trochę w opozycji do świata i Europy, choć wzrost usług typu PaaS ogranicza wyraźnie wzrost tego pierwszego i nie-
Robert Mikołajski, Kierownik Działu Rozwoju Biznesu w Atman Jedną z głównych barier we wdrażaniu chmury jest brak przygotowania właściwego planu migracyjnego, określającego w jasny sposób cele zmiany dotychczasowego modelu zarządzania zasobami firmy. Przedsiębiorstwa, które mają pełną świadomość tego, co zamierzają osiągnąć dzięki wdrożeniu rozwiązań chmurowych, i które zadbają nie tylko o przeszkolenie personelu w kwestiach technicznych, ale także o przekonujące przedstawienie pracownikom korzyści, jakie nowe wdrożenie będzie niosło dla całej organizacji, zwykle nie są narażone na nieudane procesy adaptacji chmury czy ryzyko niespełnienia wszystkich oczekiwań stawianych tej technologii. Z tego powodu rola konsultacji i wsparcia doświadczonych ekspertów specjalizujących się we wdrożeniach chmurowych powinna systematycznie wzrastać. Istotną barierę stanowią również obawy o bezpieczeństwo, które w zdecydowanej większości są bezpodstawne. Sytuacja na szczęście się zmienia. Przytoczę tutaj dane z raportu PMR, z których wynika, że bezpieczeństwo informacji jest dzisiaj jednym z głównych powodów decyzji o przeniesieniu swoich zasobów do chmury dla aż 70 proc. polskich przedsiębiorstw.
Obawy o bezpieczeństwo firmowych danych są główną przyczyną związaną ze wzrostem zainteresowania rozwiązaniami chmur prywatnych i hybrydowych. ustannie go kanibalizuje. Business Process as a Service to niestety na polskim rynku nadal „science fiction”, chociaż takie projekty również coraz częściej się pojawiają – uzupełnia Przemysław Galinski, Sales Leader for Cloud Services Poland and Baltics w IBM Polska.
CZY CHMURA JEST BEZPIECZNA? Bezpieczeństwo to temat numer jeden, z którym się spotykają wszyscy dostawcy chmury publicznej. Wynika to stąd, że firmy muszą pogodzić się z tym, że rezygnują z pełnej kontroli nad swoimi danymi. Nie oznacza to jednak, że dane przechowywane w chmurze będą mniej bezpieczne. Często zabezpieczenia oferowane przez dostawcę usług chmurowych są znacznie lepsze, niż jest w stanie zapewnić we własnym zakresie średnia, a nawet duża firma. Niemniej, te uzasadnione obawy są główną przyczyną związaną ze wzrostem zainteresowania rozwiązaniami chmur prywatnych i hybrydowych. – Sprawą najwyższej wagi jest bezpieczeństwo danych, które powierzamy zewnętrznemu podmiotowi. Wszyscy oferenci gwarantują szyfrowanie transmisji na poziomie aplikacji klienta, ale warto zainteresować się tym, jak przechowywane są nasze dane w zewnętrznym Data Center, nad którym nie sprawujemy kontroli, a do którego dostęp mają też inni klienci dostawcy chmury. Ważne jest to, gdzie i jak przechowywane są klucze szyfrujące, jak wygląda autentykacja użytkownika, na czym polega separacja poszczególnych klientów dostawcy, w jakim czasie dowiemy się o ewentualnym wycieku. Dla szczególnie istotnych danych, zwłaszcza w sytuacji, kiedy nie kontrolujemy cały czas kluczy szyfrujących dane, ale tylko transmisję, ważny będzie formalny poziom bezpieczeństwa oferowany przez dostawcę. Warto zainteresować się tym, czy istnieje możliwość anonimizacji powierzanych danych, jak wygląda cer-
– Myślę, że główny kierunek rynku to chmura publiczna z elementami rozwiązań hybrydowych. Proszę pamiętać jednak, że rozwiązania hybrydowe to np. połączenia usług dwóch lub więcej dostawców chmurowych i ich platform, lub połączenia rozwiązań prywatnych i publicznych. Największym zainteresowaniem cieszą się usługi w modelu SaaS. Coraz większa liczba dostawców zmienia swój model np. finansowania, z tradycyjnego na subskrypcyjny, oferując jednocześ37
eseller News
TECHNOLOGIE stwa i ochrony prywatności na każdym etapie działania. Dostawca z Redmond wykorzystuje tu swoje wieloletnie doświadczenie do tworzenia niezawodnych technologii i rozwiązań z zakresu bezpieczeństwa. To dostawca usług chmurowych odpowiada za tworzenie kopii zapasowych danych, szyfrowanie przesyłanych i przechowywanych danych. Co ważne, to klient zawsze może zakończyć korzystanie z usługi i przenieść swoje dane w inne, dowolne miejsce. Klienci, wybierając dostawcę usług chmurowych, powinni przede wszystkim zapoznać się z posiadanymi przez dostawców zabezpieczeniami i certyfikatami – dodaje Katarzyna Kaźmierczak, Cloud Product Manager w firmie AB SA. Katarzyna Kaźmierczak, Cloud Product Manager w AB SA
Tomasz Wieczorek, Solutions Product Manager CEE, Sharp Electronics Europe
W tradycyjnej sprzedaży resellerzy, zwłaszcza w sektorze SMB, przyzwyczaili się do pojedynczych transakcji sprzedaży produktów fizycznych. Tymczasem filozofia związana z oferowaniem usług chmurowych ma inny charakter. Reseller powinien wykorzystać przede wszystkim swoją wiedzę i znajomość potrzeb klienta, aby zaproponować mu unikalne rozwiązanie, które z jednej strony podniesie wydajność pracy, a z drugiej będzie efektywne kosztowo. Partnerzy mogą zarobić na połączeniu gotowych usług dostawców chmurowych ze swoim doświadczeniem i kompetencjami. Mówimy więc np. o migracji, wdrożeniach, opiece serwisowej, szkoleniach, doradztwie i doborze odpowiednich usług chmurowych dla pracowników działów w organizacji klienta. Wszystko to razem, na jednej fakturze, wycenione per użytkownik na miesiąc. Klient końcowy będzie chętniej wydawał stosunkowo niewielkie, w porównaniu z dużymi projektami, pieniądze na rozwiązania, które można łatwo wycenić i skalkulować ich efektywność.
Z badań przeprowadzonych przez Sharp w Europie wiosną 2016 r. wynika, że 81 proc. zatrudnionych korzysta z dokumentów firmowych również poza biurem. Aby w prosty sposób mieć dostęp do plików firmowych w domu, naturalnie korzystają oni z serwisów opartych na chmurze publicznej. Zakazy wykorzystywania tych serwisów, podyktowane firmowymi wymogami bezpieczeństwa, nie zawsze przynoszą efekty, a dodatkowo ograniczanie w ten sposób pracowników powoduje tylko ich frustrację. Firmy muszą więc znaleźć równowagę między nowoczesnymi metodami pracy a bezpiecznym udostępnianiem informacji i danych. Jedynym skutecznym rozwiązaniem, które daje zarówno swobodę pracy, jak i zapewnia bezpieczeństwo, jest firmowa chmura prywatna. Ustrukturyzowane zbiory i funkcje wyszukiwania w firmowej chmurze dają upoważnionym pracownikom możliwość natychmiastowego odszukania informacji, pozwalając tym samym na dokładniejszą i wydajniejszą pracę. Wiemy, że dla wielu firm stworzenie platformy współpracy jest zbyt dużym obciążeniem finansowym. Cloud Portal Office oferuje ekonomiczną i zgodną z zasadami bezpieczeństwa chmurę, która opiera się na umowie bez zobowiązań, nie wymaga żadnej konfiguracji czy szkoleń, a także w wielu przypadkach może zastąpić serwery, dodatkowo redukując koszty infrastruktury.
tyfikacja, audyty, gotowość spełniania z dużym wyprzedzeniem czasowym wymogów krajowych (np. UODO) czy międzynarodowych (np. RODO) – zauważa Mariusz Kochański, członek zarządu, Dyrektor Działu Systemów Sieciowych w firmie Veracomp. – Klienci niejednokrotnie obawiają się o bezpieczeństwo swoich danych w chmurze publicznej. Sami jednak nie stosują odpowiednich zabezpieczeń, nie przeprowadzają backupów, nie inwestują w nowy sprzęt i pracują na starych systemach. Chmura np. firmy Microsoft zapewnia najwyższe środki bezpieczeń38
eseller News
Chmura pozwala na lepsze i efektywniejsze wykorzystanie posiadanych zasobów informatycznych w firmie. KORZYŚCI WYNIKAJĄCE ZE STOSOWANIA CHMURY Jedną z głównych korzyści chmury jest jej elastyczność biznesowa i finansowa. Chmura pozwala na lepsze i efektywniejsze wykorzystanie już posiadanych zasobów informatycznych w firmie. Dla dużych organizacji budowa środowiska chmury prywatnej to nie tylko oszczędność czasu, ale także zmniejszenie stałych nakładów na infrastrukturę, zwiększenie efektywności, a także podwyższenie ogólnej elastyczności biznesowej. – Założenia te pokrywają się ze wspomnianym wyżej globalnym badaniem „Citrix – End to End Solution Network Infrastructure Survey”. Respondenci potwierdzili w nim, że firmy planujące migrację do chmury jako najważniejsze jej powody wskazują wyższą efektywność kosztową infrastruktury opartej na chmu-
rze nad tradycyjnym środowiskiem (ponad 22 proc. badanych firm), większe bezpieczeństwo inwestycji w już posiadaną infrastrukturę IT (ponad 19 proc.) czy też wyższą skalowalność w celu wsparcia potrzeb biznesowych organizacji (ponad 13 proc.) – mówi Sebastian Kisiel, Senior Sales Engineer w Citrix Systems Poland. ç
OKIEM KLIENTA
Chmura w biznesie Zapotrzebowanie na aplikacje dostosowane do pracy zdalnej i w chmurze stale rośnie. To oprogramowanie staje się motorem rozwoju i sercem urządzeń. Częste podróże służbowe lub bardzo dzisiaj popularna praca zdalna, czyli „Home Office”, wymuszają dostęp do firmowych plików poza biurem, zawsze i wszędzie. Synology oferuje aplikacje dostosowane do pracy w chmurze, którą klienci segmentu MSP mogą dostosować zgodnie ze swoim zapotrzebowaniem.
P
rzykładem dostępu do danych w drodze może być aplikacja Cloud Station. Wystarczy ją zainstalować na Synology NAS oraz urządzeniach klienckich (obsługiwane są różne platformy) oraz wybrać foldery do synchronizacji, a wówczas w sieci lokalnej lub poza nią, jeśli tylko mamy dostęp do Internetu, wszelkie zapisane pliki zostaną automatycznie zsynchronizowane z serwerem lub z innymi urządzeniami i użytkownikami. Cloud Station pozwala także na efektywną pracę w grupie, pomiędzy dzielącymi wspólną przestrzeń na dane współpracownikami, ale niekoniecznie pozostającymi w tej samej lokalizacji. Cloud Station to także kopia zapasowa danych, jeśli zepsuje się laptop, pliki nadal będą dostępne na serwerze lub smartfonie. Zainteresowanie NAS jako podstawowym urządzeniem dla utworzenia własnej chmury również rośnie. Dostęp do ważnych dokumentów musi być stały, więc firma Synology oferuje swoim klientom rozwiązania, które zapewniają ciągłość pracy. Chmura prywatna i publiczna może być lokalizacją docelową kopii danych zasobów przedsiębiorstw. Klienci decydują się na przechowywanie danych w chmurze prywatnej przede wszystkim ze względów bezpieczeństwa. Dane, które dostępne są na zewnątrz poza firmą zawsze powinny być odpowiednio zabezpieczone. Synology dostarcza w tym celu niezbędne narzędzia jak chociażby serwer VPN dla zdalnych połączeń lub opcję blokowania niepożądanych adresów IP oraz poradniki dla początkujących użytkowników. Usługa Synology Cloud², która stosunkowo niedawno weszła na rynek pozwala na stworzenie własnej chmury prywatnej i odejście od chmur publicznych.
Synology C2 Backup to usługa tworzenia kopii zapasowej w usłudze Synology Cloud² zarówno dla przedsiębiorstw, jak i użytkowników domowych. Posiadając w usłudze Synology C2 dodatkowe kopie ważnych plików, zapewniamy bezpieczeństwo i dostępność swoich danych w przypadku wystąpienia awarii. Rozwiązanie Cloud Computing z ekonomicznego punktu widzenia ma ogromny sens. Klienci mogą zredukować początkowe nakłady na zakup, utrzymanie i nadzorowanie infrastruktury IT. Zamiast tego „wypożyczają” przestrzeń do pracy w chmurze od resellerów oferujących takie usługi. Jedynym potrzebnym narzędziem pracy jest komputer oraz porządny dostęp do Internetu. Klienci nie muszą martwić się o serwery, ponosić kosztów naprawy czy aktualizacji. Nie muszą również zatrudniać nikogo do nadzorowania całej infrastruktury. Jest to ogromny plus dla klienta końcowego, również przy planowaniu rocznych budżetów. Dla resellerów Cloud Computing jest ogromną szansą na dodatkowy biznes. Resellerzy dostarczają platformę do pracy oraz oprogramowanie, które dla wielu firm, ze względu na wysokie koszty wdrożeń, mogłoby być niedostępne. Outsour-
cing funkcji IT nie jest już nowością, jednak staje się coraz bardziej popularnym rozwiązaniem wśród resellerów oraz klientów końcowych. Na rynku można zobaczyć wiele ofert od firm, które zdecydowały się na taki model biznesowy. Różnią się one oferowanym rozmiarem przestrzeni dyskowej oraz dostępnego transferu, co jest odzwierciedlone w cenach dostępnych pakietów. Administratorom firm oferujących Cloud Computing usprawniliśmy pracę oferując system centralnego zarządzania – Central Management System (CMS). Dzięki tej usłudze, z poziomu jednego interfejsu można zarządzać i monitorować wiele urządzeń, oszczędzając czas przeznaczony na konfigurację pojedynczych jednostek. CMS jest także dostępny, gdy wdrażamy monitoring wizyjny, połączenie kilku serwerów rejestracji i różnych kamer w wielu lokalizacjach, i usprawnia pracę związaną chociażby z konfiguracją wielu kamer na raz. Ponadto nasi partnerzy mogą oferować własne płatne usługi związane np. z wdrożeniami rozwiązania do monitoringu czy zastosowaniem Synology jako pamięci masowej w środowisku wirtualizacji lub konfigurowaniem wybranych przez klientów pakietów. n 39
eseller News
TECHNOLOGIE ç – Podstawowe korzyści wynikające z rozwiązań opartych na szeroko pojętym cloud computingu to skalowalność i elastyczność. Z jednej strony odzwierciedlone jest to w charakterystycznym dla outsourcingu modelu pay-as-you-grow. Z drugiej – w krótkiej perspektywie czasowej daje możliwość dostosowania potrzeb infrastrukturalnych do bieżących, a nawet chwilowych trendów rynkowych czy działań marketingowych firmy. Jeszcze nigdy IT nie było w stanie tak szybko reagować na potrzeby biznesu, jak w erze chmury. Jeśli chodzi o zagrożenia, to wynikają one przede wszystkim z rosnącej złożoności systemów IT. Przy chmurze tzw. service stack jest bardziej rozbudowany i to nie tylko w zakresie dodatkowych komponentów, ale też nierzadko, jeśli chodzi o liczbę podmiotów zaangażowanych w dostarczenie usługi. Klient często nie zdaje sobie sprawy z tego, jakie rozwiązania składają się całość usługi ani które firmy i w jaki sposób je dostarczają i serwisują. Dlatego tak istotne jest, aby wybrać zaufanego partnera, który zarządza całością lub przynajmniej większością komponentów składających się na cloud – podsumowuje Robert Mikołajski, kierownik Działu Rozwoju Biznesu w firmie Atman. n
40
eseller News
Piotr Parys, Channel Marketing Manager w Oki Systems Polska W dzisiejszych czasach mało kto potrafi rozstać się z tabletem, notebookiem czy smartfonem, zarówno w życiu prywatnym, jak i w pracy zawodowej. Według najnowszych badań CBOS z telefonów komórkowych korzysta 92 proc. dorosłych Polaków, z czego ponad połowa (57 proc.) używa smartfona. Mobilność w ciągu ostatnich lat mocno zyskała na znaczeniu, zwłaszcza w sektorze biznesowym. Dzięki technologii cloud computing możliwe jest obecnie zlecenie wydruku za pomocą Internetu praktycznie z każdego miejsca na
Ziemi. Widzimy ten trend, dlatego nasze urządzenia są wyposażone w rozwiązania umożliwiające druk mobilny i współpracują z takim aplikacjami jak: Cortado Workplace, ePrint, Google Cloud Print czy AirPrint. W erze rozwiązań mobilnych ważne jest również zapewnienie pełnego bezpieczeństwa i poufności firmowych wydruków. Nasze produkty są zgodne z protokołami IPSec (Internet Protocol Security), a także wyposażone w funkcję druku bezpiecznego/ poufnego z szyfrowaną transmisją danych. Mówiąc o mobilności i bezpieczeństwie, warto wspomnieć też o ciekawej opcji, jaką jest połączenie wydruku podążającego z funkcjonalnością chmury za pomocą konektorów oferowanych przez Oki. W praktyce jest to wydruk wędrujący za pracownikiem. Opcja wydruku podążającego (follow me printing) pozwala użytkownikowi wysłać do chmury dokumenty, które chcemy „mieć pod ręką”, a następnie po autoryzacji na dużym wyświetlaczu urządzenia wybrać treści, które chcemy drukować. Dokumenty lądują na serwerze i stamtąd możemy je zwolnić w dowolnej chwili na dowolnej drukarce wpiętej do systemu. Wydruk czeka na serwerze do momentu, w którym zdecydujemy się go wydrukować. To ważne w przypadku wydruku informacji poufnych. Materiał taki nie leży na drukarce i nie czeka aż po niego przyjdziemy, narażając się na to, że ktoś inny go przeczyta. Dokument zostaje wydrukowany dopiero wtedy, kiedy jesteśmy przy drukarce i za pomocą pinu lub karty zezwolimy na jego wydrukowanie.
TECHNOLOGIE
Big Data z chmurą, IoT, w CRM i analityce predyktywnej Stefan Kaczmarek
Analitykę Big Data zdominuje w najbliższym czasie 5 trendów: zwrot ku chmurze, rosnąca rola Internetu rzeczy, walka firm z tzw. dark data i orphaned data, wzbogacanie danymi systemów BI, CRM i ERP oraz większe nakłady na analitykę predyktywną i preskryptywną.
W
ub.r. o ok. 30 proc. wzrósł odsetek danych realnie wykorzystywanych przez przedsiębiorstwa, szacują analitycy IDC. Wzrosła również wartość globalnego rynku danych i analityki biznesowej, który jest wyceniany na ok. 130 mld dolarów (o ponad 18 mld więcej niż w poprzednim roku). W kolejnych latach ten segment rynkowy będzie rósł w tempie dwucyfrowym, a w 2020 r. przekroczy próg 203 mld dolarów. Według badań IDG Enterprise 2016 Data & Analytics Research, w minionym roku firmy inwestowały w narzędzia do analityki danych głównie, z myślą o poprawie jakości systemów CRM, czyli usprawnieniu zarządzania relacjami z klientem (55 proc.), oraz zwiększeniu koncentracji biznesu na danych i możliwościach ich wykorzystania w przedsiębiorstwie (tzw.
Dane stały się dziś nową walutą biznesową, a ich liczba w Sieci rośnie z roku na rok o blisko 40 proc. data-driven business). Aż 78 proc. firm uważa, że rozwiązania Big Data stwarzają największy potencjał dla wprowadzania zmian w ich modelach biznesowych w ciągu najbliższych trzech lat.
163 ZETTABAJTY DANYCH DO 2025 R. W ciągu najbliższych 8 lat liczba wygenerowanych globalnie cyfrowych informacji sięgnie 163 ZB – to ponad 10-krotnie więcej niż pod koniec 2016 r. (16 ZB), szacują analitycy IDC w raporcie opracowanym na zlecenie Seagate. Ponad 900-procentowy przyrost na przestrzeni niespełna 10 lat będzie wynikał z sieciowej aktywności internautów i szerszego wykorzystania urządzeń automatycznie łączących się z Internetem rzeczy (IoT). Analitycy IDC podkreślają, że to biznesowe dane będą w największym stopniu wypełniać globalną cyberprzestrzeń. – W 2015 r. firmy przechowywały 30 proc. wszystkich globalnych danych, w tym roku stosunek ten wzrośnie do 48 proc., by w 2025 r. osiągnąć wartość niemal 60 proc. Szala będzie systematycznie przechylać się na stronę sektora biznesowego 41
eseller News
TECHNOLOGIE ze względu na coraz szersze wykorzystanie narzędzi Business Intelligence i akcentowanie analityki w czasie rzeczywistym – mówi Robert Mikołajski, kierownik działu rozwoju biznesu w firmie Atman. HIPERKRYTYCZNE DANE Wraz z przyrostem ilości danych wzrastać będzie również ich krytyczność. Eksperci IDC wprowadzili pojęcie informacji „hiperkrytycznych”, w szczególnym stopniu wymagających utrzymania płynności przepływu. Zaliczają się do nich dane mające bezpośredni wpływ na zdrowie i życie, w tym dane z systemów medycznych kontrolujących stan zdrowia pacjentów, czy też pochodzące z systemów nadzorujących transport, generowane przez autonomiczne pojazdy. W 2017 r. liczba tego typu informacji nie przekroczy 10 ZB, natomiast szacuje się, że w 2025 r. będzie ich już ponad 60 ZB. Przewidywana średnia liczba interakcji z urządzeniami IoT dla jednej osoby w ciągu dnia przed dwoma laty równa była 218, w 2020 r. wynosić będzie 601, zaś w 2025 r. już niemal 4800. Analitycy IDC przewidują, że w 2025 r. aż 90 proc. wszystkich danych będzie kwalifikowanych jako „wymagające ochrony przed dostępem osób i pod-
42
eseller News
miotów trzecich”. – Warto przypomnieć, że bezpieczeństwo to nie tylko ochrona przez niepowołanym dostępem, ale też zagwarantowanie sobie dostępu do posiadanych danych w przypadku różnego rodzaju zdarzeń i awarii, zwłaszcza jeżeli naszą działalność biznesową można
Ponad 60 proc. danych przechowywanych dziś w przedsiębiorstwach stanowią kopie zapasowe przeterminowanych informacji. określić jako „data-driven”. Tu z pomocą przychodzi redundantna architektura rozwiązań IT, którą można stworzyć w wielu warstwach, od oprogramowania aż po wykorzystywanie centrów danych oddalonych od siebie geograficznie, a tym samym niepodatnych na te same incydenty – podkreśla Robert Mikołajski z Atmana.
DANE NOWĄ WALUTĄ BIZNESOWĄ Boom na technologie związane z Big Data sprawił, że firmy na całym świecie zaczęły przywiązywać coraz większą wagę do analityki, gromadzenia i wykorzystywania danych w celach biznesowych. Dane stały się dziś nową walutą biznesową, a ich liczba w Sieci rośnie z roku na rok o blisko 40 proc. Według raportu „The Value of Our Digital Identity”, przygotowanego przez Boston Consulting Group, wartość wszystkich anonimowych informacji zgromadzonych o internautach z obszaru całej Unii Europejskiej w 2020 r. zbliży się do okrągłego biliona euro. Oznacza to, że finansowo dane te będą równoważne blisko 8 proc. PKB, generowanych przez wszystkie państwa Wspólnoty. Taka skala danych może zatem przyczynić się do realnego przyspieszenia globalnej gospodarki. Dużą wagę, jaką przywiązuje się do inwestowania w analitykę Big Data potwierdzają wyniki badania „Going beyond the data. Turning data from insights into value”, przeprowadzonego przez firmę KPMG International. Aż 82 proc. przebadanych firm przyznaje, że korzystanie z aktualnych danych i wdrażanie zaawansowanych mechanizmów z zakresu analityki Big Data w chmurze obliczeniowej,
TECHNOLOGIE
BIG DATA TRENDY 2017 2 017 – rok w chmurze? Prognozy IDC zawarte w raporcie FutureScape mówią, że do 2020 r. wydatki firm na rozwiązania Big Data będą rosły w tempie 4,5-krotnie szybszym niż na własną infrastrukturę IT (on-premise). n Internet rzeczy – Internet danych Wartość polskiego rynku IoT, która w 2015 r. wyniosła 1,5 mld USD, w 2018 r. podwoi się do 3,1 mld USD (źr. raport „Worldwide IoT Spending Guide by Vertical”). n Dark data i orphaned data – zbędne i osierocone dane W 2017 r. firmy będą musiały radzić sobie z danymi, które do tej pory nie były przez nie wykorzystywane albo ze względu na trudności z oszacowaniem ich potencjału (tzw. dark data), albo były tak pofragmentowane, że nie dawały pełnego obrazu sytuacji (tzw. orphaned data). Według Data Geonomics Index, aż 41 proc. danych globalnych przedsiębiorstw nie było modyfikowanych w ostatnich 3 latach. Z kolei 12 proc. danych w ciągu minionych 7 lat nigdy nie zostało nawet otwartych. 33 proc. zbieranych przez firmy danych klasyfikuje się jako zbędne, przestarzałe lub nieistotne, czyli ROT (Redundant, Obsolete or Trivial). n Data enrichment – dane dobrej jakości Zasilanie systemów firmowych danymi zewnętrznymi (third party) to działanie określane jako „data enrichment”. Dzięki niemu firma zyskuje możliwość przetestowania skuteczności zebranych przez siebie informacji, które zostały uznane za tzw. hot data, czyli dane najważniejsze dla firmy, po które sięga ona z największą częstotliwością) oraz oceny ich przydatności w najbliższym czasie. n Analityka predyktywna i preskryptywna Biznes musi dziś zrozumieć nie tylko to, „co się dzieje” i „jak się dzieje”, lecz również „co będzie się działo” w najbliższych miesiącach, a także „jak sprawić, by coś się wydarzyło”. W tym zaś pomocne okażą się odpowiednio: analityka predyktywna oraz analityka preskryptywna. Pierwsza służy przewidywaniu przyszłych scenariuszy rozwoju rynku i zachowań konsumentów oraz firm. Druga dostarcza wiedzy, jak te zachowania modelować oraz wpływać na kształtowanie pożądanych przez firmę postaw. Według prognoz analityków Gartnera zawartych w raporcie „100 Data and Analytics Predictions Through 2020”, aż 40 proc. firm zdecyduje się zainwestować w najbliższych latach w analitykę predyktywną i preskryptywną. n
pozwala na lepsze zrozumienie potrzeb i preferencji ich klientów, a także ma znaczący wpływ na perspektywę biznesową przedsiębiorstwa. Jeżeli chodzi o zainteresowanie polskich firm inwestowaniem w technologie takie jak Big Data Marketing, to jak wynika z raportu „Welcoming Innovation Revolution”, przygotowanego przez GE Global Innovation Barometer 2016, skala inwestycji w narzędzia do analityki wielkich zbiorów danych w Polsce wzrosła z poziomu 49 proc. w 2014 r. – do 68 proc. w roku ubiegłym.
Bug Data, czyli bezużyteczne, przestarzałe dane, to poważny i kosztowny problem dla firm, które mają trudności z zarządzaniem swoimi zasobami cyfrowymi.
z prowadzenia nieefektywnej polityki zarządzania danymi. Z drugiej strony wzrośnie znaczenie zewnętrznych danych, gromadzonych i przetwarzanych przez wyspecjalizowane w tym firmy. Według badań Gartnera, w 2017 r. ok. 30 proc. danych, jakimi będą dysponowały przedsiębiorstwa, będzie pochodziło z zewnętrznych hurtowni Big Data. Do głosu dojdą również technologie kognitywne, np. uczenie maszynowe, dzięki którym część procesów analitycznych, wykonywanych dotychczas odręcznie, zostanie zautomatyzowana przez zastosowanie algorytmów. Zasadniczo jednak nie należy oczekiwać, że rynek analityki danych w 2017 r. przejdzie jakąś diametralną przemianę. – Firmy będą analizować jeszcze więcej danych. I będą to robić jeszcze szybciej, niż miało to miejsce dotychczas. Coraz częściej przedsiębiorcy będą też sięgać po analitykę danych w formie usługi, czyli Big Data as-a-Service. IDC podaje, że aktualnie już ok. 70 proc. dużych firm korzysta z danych o użytkownikach gromadzonych i przetwarzanych w modelu cloud computing. To właśnie ten trend IDC wymienia jako najważniejszy w tym roku. I podtrzymuje prognozę na kolejne lata, twierdząc, że do końca 2019 r. już wszystkie duże organizacje będą korzystać z danych z zewnętrznych hurtowni Big Data – mówi Piotr Prajsnar, CEO Cloud Technologies.
EWOLUCJA ZAMIAST REWOLUCJI W analityce Big Data będziemy raczej obserwować ewolucję obecnych trendów technologicznych w 2017 r. Z jednej strony firmy będą musiały mierzyć się z cyfrowymi problemami, wynikającymi
BUG DATA – DANE PRZETERMINOWANE I BEZUŻYTECZNE Wiele już pisano o analityce Big Data pozwalającej wydobywać wartościowe informacje z dżungli danych, natomiast nie wolno zapominać o tzw. Bug Data, czyli kopiach informacji zarchiwizowanych przez firmy, które nie zostały zaktualizo-
wane i tym samym straciły swoją biznesową wartość. Te bezużyteczne, przestarzałe dane to poważny problem dla firm, które mają trudności z zarządzaniem swoimi zasobami cyfrowymi. W efekcie ponoszą one wysokie koszty zabezpie43
eseller News
TECHNOLOGIE czania i przechowywania na swoich serwerach przeterminowanych, bezużytecznych danych, których już dawno powinny były się pozbyć. Bug Data to już problem globalny – przestrzegają analitycy IDC. Ponad 60 proc. danych przechowywanych dziś w przedsiębiorstwach stanowią kopie zapasowe przeterminowanych informacji. Bug Data w firmach to już ponad 3 eksabajty zbędnych danych. Do końca tego roku koszt ich utrzymania przekroczy próg 50 mld Dark data – dane zbędne Dane, z których istnienia przedsiębiorstwo w ogóle nie zdaje sobie sprawy, więc ani ich nie gromadzi, ani nie przetwarza. Mogą to być też dane, o których przedsiębiorstwo wie i je gromadzi, lecz nie ma pojęcia, jak je przetworzyć. To również dane, o których istnieniu przedsiębiorstwo wie i dysponuje narzędziami do ich analizy, lecz jej nie podejmuje, ponieważ uznaje ją za zbyt kosztowną lub obawia się, że jej rezultaty będą niewspółmierne do koniecznego nakładu pracy. Według szacunków IDC, ok. 80-90 proc. wszystkich danych w Internecie to obecnie dark data! Orphaned data – dane osierocone Pojedyncze, wyrwane z kontekstu informacje, które nie zostały umieszczone w szerszym ekosystemie cyfrowym, wskutek czego trudno jest ocenić ich biznesową przydatność. Takie dane zajmują miejsce na firmowych serwerach i są mniej wartościowe niż te występujące w jakimś łańcuchu powiązań. Według Vanity Technologies, „osierocone dane” zajmują na serwerach firmowych o ok. 222 proc. więcej przestrzeni niż pozostałe dane. CIO zatrzymują takie dane na firmowych serwerach, wierząc, że im większą wagę ma taki plik, tym więcej kryje się za nim cennych informacji, które uda się kiedyś połączyć z innymi.
dolarów. To niemal 8 razy tyle, ile firmy przeznaczają na przechowywanie danych typu Big Data.
Do końca tego roku koszt utrzymania Bug Data przekroczy próg 50 mld dolarów. To niemal 8 razy tyle, ile firmy przeznaczają na przechowywanie danych typu Big Data. KOSZTOWNY NADMIAR INFORMACJI Według Data Geonomics Index, aż 41 proc. danych globalnych przedsiębiorstw nie było modyfikowanych od 3 lat, zaś 12 proc. w ciągu 7 minionych lat nigdy nie zostało nawet otwartych. Światowi liderzy IT twierdzą, że jedynie 20 proc. zbieranych przez nich danych wykorzystuje się do usprawniania procesów biznesowych, a 33 proc. z nich klasyfikuje się jako ROT, czyli Redundant, Obsolete or Trivial (zbędne, przestarzałe i nieistotne). Przechowywanie nieużytecznych i przestarzałych danych, czyli Bug Data, wiąże się z niemałymi kosztami.
Piotr Prajsnar, CEO Cloud Technologies DANE Z KRÓTKIM TERMINEM PRZYDATNOŚCI DO BIZNESOWEGO SPOŻYCIA Firmy często nie zdają sobie sprawy z tego, że dane mają krótki termin przydatności do biznesowego spożycia. Aby zachowały swoją wartość, należy je regularnie oczyszczać oraz weryfikować, pozbywając się informacji, które dawno przestały cokolwiek znaczyć. Takimi danymi są tzw. Bug Data. To dane śmieciowe, zawierające mylne, nieaktualne informacje o kliencie lub firmie, które w efekcie przeszkadzają przedsiębiorstwu w monetyzacji zasobów cyfrowych. Skalę takich danych szacuje się aktualnie na poziomie 3 mln terabajtów, czyli 3 eksabajtów. Większość danych typu Bug Data stanowią tworzone przez firmy archiwa danych produkcyjnych, generowanych w zasadzie każdego dnia i przechowywanych latami na serwerach przedsiębiorstwa. To nieaktualne, nieoczyszczone i niezweryfikowane informacje, które nie zostały później poddane analizie i aktualizacji. Firmy nie mogą ich spożytkować w swojej strategii czy procesach decyzyjnych, a nawet nie powinny tego robić. Oparcie strategii sprzedażowej przedsiębiorstwa na zdezaktualizowanych informacjach, może okazać się nie tyle nieskuteczne, co przeciw-skuteczne i potrafi zaszkodzić firmie. Tym samym przedsiębiorstwa, zamiast czerpać profity z Big Data, płacą często nieświadomie za utrzymanie infrastruktury Bug Data, czyli za stare i pełne błędów dane.
Warto zwrócić także uwagę na aspekt bezpieczeństwa. Liczba danych, które będą musiały zostać objęte cyberochroną, wzrośnie do końca dekady aż pięćdziesięciokrotnie, wynika z prognoz firmy analitycznej Cybersecurity Ventures. Same straty finansowe wynikające 44
eseller News
TECHNOLOGIE
z działalności cyberprzestępców wzrosną dwukrotnie: z 3 bln dolarów w 2015 r. do 6 bln dolarów w 2021 r. – W gąszczu „porzuconych” danych mogą znaleźć się wrażliwe informacje, związane z personaliami czy historią operacji finansowych spółki, które w przypadku dostania się w ręce cyberprzestępców mogą spowodować dotkliwe straty zarówno finansowe, jak i wizerunkowe – zauważa Ewelina Hryszkiewicz z Atmana.
Z raportu Economist Intelligence Unit (EIU) wynika, że wykorzystanie analityki danych stało się głównym motorem napędowym przychodów w przeszło 60 proc. przebadanych firm z sektora IT. Z kolei aż 83 proc. przedsiębiorstw twierdzi, że dzięki danym ich produkty oraz usługi stały się bardziej opłacalne i zaczęły przynosić większe profity firmie. Ponad połowa respondentów (59 proc.) określiło
JAKOŚĆ DANYCH MA ZNACZENIE Kluczową rolę w monetyzacji cyfrowych informacji odgrywa jakość i aktualność danych, czyli tzw. data quality. Bez aktualizowanych na bieżąco baz danych, stanowiących źródło wiedzy o kliencie, firma może utonąć w potopie Bug Data – ostrzegają specjaliści. Dlatego w najbliższych latach biznes będzie przywiązywał coraz większą wagę do jakości danych, zasilając nimi wewnętrzne systemy BI. Kluczowa staje się ich aktualność. Lepiej jest dysponować mniejszą ilością danych, ale za to mieć pewność, że są to dane najświeższe, odzwierciedlające aktualne potrzeby rynkowe. Dlatego też firmy będą pytać dostawców rozwiązań Big Data o wiek danych oraz ich jakość. Dane muszą być regularnie odświeżane i aktualizowane, ponieważ obecne w nich parametry, jak np. „intencja zakupowa” użytkownika, często mają charakter tymczasowy, nie zaś trwały. W cenie będą zatem dane dostarczane przez hurtownie Big Data w modelu real-time.
Kluczową rolę w monetyzacji cyfrowych informacji odgrywa jakość i aktualność danych, czyli tzw. data quality. Bez aktualizowanych na bieżąco baz danych firma może utonąć w potopie Bug Data. Big Data jako „kluczowy element” funkcjonowania ich organizacji, zaś 29 proc. uznało ją za „niezwykle istotną” dla roz-
woju firmy. Co ciekawe – blisko połowa firm (47 proc.) przyznała, że ogranicza się do monetyzacji danych zgromadzonych wyłącznie w ramach przedsiębiorstwa, np. z wewnętrznych systemów BI (ERP, CRM), relacji z klientami czy danych z aktywności reklamowej firmy w Sieci. Aktualność i świeżość danych jest podstawą ich monetyzacji. Jednak firmy z Europy mają z nią poważny problem. Dowodzi tego badanie EIU, w którym udział wzięło 476 przedstawicieli działów IT z całego świata. Wśród kontynentów najlepiej monetyzujących dane prym wiodą firmy z Azji – aż 63 proc. azjatyckich przedsiębiorstw deklaruje, że potrafi generować zysk z gromadzonych przez siebie danych. Drugie miejsce zajęły firmy ze Stanów Zjednoczonych ze wskaźnikiem 58 proc. skuteczności w monetyzacji wielkich zbiorów danych. Ostatnie miejsce przypadło zaś Europie, w której korzyści z monetyzacji cyfrowych informacji czerpie „tylko” 56 proc. przebadanych firm. n Artykuł opracowano na podstawie materiałów i informacji przygotowanych przez ekspertów firm Cloud Technologies i Atman. POLECANE KSIĄŻKI O BIG DATA AUTORSTWA BILLA SCHMARZO, CTO DELL EMC SERVICES (NAZYWANEGO TEŻ „DZIEKANEM BIG DATA”): n Big Data: Understanding How Data Powers Big Business n Big Data MBA: Driving Business Strategies with Data Science
45
eseller News
TECHNOLOGIE
IT
w branży fitness & wellness oraz opiece zdrowotnej
Stefan Kaczmarek
Fitness i zdrowe żywienie należą do najdynamiczniej rozwijających się obecnie branż. Konsumenci przykładają coraz większą wagę do zdrowego żywienia, śledzenia swojego stanu zdrowia i kondycji fizycznej. Od mniej więcej 5 lat w dużym stopniu pomagają im w tym innowacje technologiczne, które zrewolucjonizowały przemysł fitness & wellness.
I
nteligentne siłownie (smart gyms), personalizowane treningi prowadzone online, inteligentna odzież sportowa oraz interakcje przez media społecznościowe – to najważniejsze trendy, które będą wpływać na branżę fitness w najbliższych latach. Technologie teleinformatyczne na dobre wkraczają również w świat opieki medycznej. Na rynku pojawia się coraz więcej urządzeń wykorzystujących innowacyjne technologie do monitorowania stanu zdrowia pacjentów i opieki nad chorymi. Na siłowniach można już spotkać ćwiczących w odzieży, która komunikuje się z aplikacjami na smartfonie czy z opaskami na rękach podpowiadającymi, jakie i ile ćwiczeń wykonywać podczas treningu. Można również usłyszeć komunikaty ostrzegające o nadwadze. Dla liczących kalorie pojawiła się też smartfonowa apli-
46
eseller News
Na siłowniach można spotkać ćwiczących w odzieży, która komunikuje się z aplikacjami na smartfonie czy z opaskami na rękach podpowiadającymi, jakie ćwiczenia wykonywać.
kacja Snap It, która wylicza liczbę kalorii danej potrawy na podstawie zrobionego jej zdjęcia. Rynek elektronicznej galanterii (wearables), obejmujący produkty przeznaczone do pomiaru, śledzenia i dzielenia się wyczynami sportowymi (w tym smartwatche, opaski typu fitness tracker, zestawy do tworzenia rozszerzonej [AR – augmented reality] i wirtualnej rzeczywistości [VR – virtual reality], minikamery w wearables) – zwiększy się trzykrotnie w ciągu najbliższych pięciu lat, z 84 mln sztuk w 2015 r. do 245 mln w roku 2019 r., wynika z raportu CCS Insight. SMART SIŁOWNIE Niezależnie od tego, czy chce się wzmocnić mięśnie, czy też zrzucić kilka kilogramów, każdy potrzebuje motywacji i wsparcia. Obecnie łatwiej niż kiedykolwiek dojść
TECHNOLOGIE na zajęcia, można skorzystać z kursów i szkoleń dostępnych online, logując się i trenując w dogodnym dla siebie czasie. Indywidualna sesja w zaciszu domowym to niezłe rozwiązanie, jeśli ma się awersję do wizyt w siłowni. Inna zaleta takiego modelu – trener online bierze mniej pieniędzy za swoje usługi, ponieważ jego fizyczna obecność nie jest potrzebna podczas treningu.
do dobrej formy, korzystając ze wsparcia całego arsenału urządzeń wearables, w tym: inteligentnej odzieży z sensorami (smart clothing), urządzeń do monitorowania pracy serca czy coraz lepszych wielofunkcyjnych zegarków sportowych. I nie chodzi tylko o to, że technologie ułatwiają procesy treningowe, lecz zapewniają także więcej zabawy, motywacji i satysfakcji. Inteligentne siłownie (smart gyms), personalizowane treningi online, inteligentna odzież sportowa oraz interakcje społeczne dzięki technologiom – to najważniejsze trendy, które będą wpływać na branżę fitness w najbliższych latach. Siłownie wyglądające w 2021 r. jak scenografia do kultowego serialu Star Trek? To prawdopodobne, zwłaszcza w przypadku sieci siłowni Virgin Active. W ramach tego projektu firma Virgin zainwestowała 100 mln funtów i otworzyła w ubiegłym roku w Londynie dwie inteligentne siłownie pełne technicznych innowacji. Wyposażono je m.in. w systemy zbliżeniowe pozwalające użytkownikom na swobodne korzystanie ze sprzętu do ćwiczeń przy użyciu inteligentnych opasek, za pomocą których mogą oni również mierzyć i śledzić postępy w swoich treningach, w tym te odbywane poza siłownią. Mogą też bezprzewodowo skomunikować swoje domowe urządzenia do ćwiczeń z aktywnym sprzętem Virgin. Ponadto korzystając z serwisów internetowych, takich jak Skype czy YouTube, członkowie klubu mogą zdalnie łączyć się z salami gimnastycznymi Virgin Active, gdzie trenerzy prowadzą zajęcia.
TRENINGI ONLINE Często brakuje nam czasu na ćwiczenia. Z pomocą przychodzą łącza internetowe. W 2016 r. gwałtownie wzrosła popularność osobistych treningów online, z dwóch prostych powodów: jest to wygodne i relatywnie tanie. Zamiast z tygodniowym wyprzedzeniem umawiać się z trenerem
ODZIEŻ SPORTOWA Z SENSORAMI Nie tylko wearables będą stawać się coraz bardziej technicznie zaawansowane i popularne, przyszłość należy także do inteligentnej odzieży zapewniającej dużo więcej niż tylko modny wygląd. Wbudowane w tkaninę czujniki pozwalają mierzyć tętno, wysiłek i aktywność mięśni – a wszystko to bez konieczności dostępu do aplikacji lub potrzeby dotykania ekranu SmartWatcha. Dane są automatycznie przesyłane do urządzenia za pośrednictwem aplikacji, dzięki czemu otrzymujemy w czasie rzeczywistym informacje o postępach w treningu i aktualnej wydolności organizmu. Dostępne też stają się materiały ubraniowe dla seniorów, które są wypełniane specjalnym amortyzującym żelem, który pozwala zapobiec złamaniom kości w razie upadku.
47
eseller News
TECHNOLOGIE MEDYCZNE WEARABLES: PODKOSZULEK DO MONITOROWANIA FORMY, OPASKA ZWALCZAJĄCA BÓL Coraz więcej nowych urządzeń służących głównie do monitorowania stanu zdrowia pacjentów pojawia się w Stanach Zjednoczonych. Wśród wyróżnionych na bostońskim Connected Health Symposium2015 (sympozjum poświęcone innowacyjnym technologiom stosowanym w medycynie) znalazły się trzy rozwiązania: podkoszulek eShirt, wearable Quell, platforma Tyto. eShirt to rodzaj bielizny wyposażonej w sensory (stanik dla kobiet i podkoszulek dla mężczyzn), która pozwala na stałe monitorowanie stanu zdrowia pacjenta oraz wysokiej jakości bezprzewodową transmisję różnych parametrów życiowych: tętna, częstotliwości oddechu oraz temperatury. Umożliwia również dokonywanie innych pomiarów, takich jak: dane elektrokardiograficzne, postawa i aktywność pacjenta. Informacja i określone parametry zbierane z czujników zamieszczonych w odzieży mogą być przekazywane lokalnie do najbliższego ośrodka zdrowia albo wysyłane do chmury. W przypadku wystąpienia anomalii lub przekroczenia wyznaczonych parametrów urządzenie może automatycznie wysłać wiadomość tekstową lub e-mail do lekarza opiekującego się chorym. eShirt ma stanowić pomoc dla starszych ludzi, potrzebujących większej kontroli i stałej opieki zdrowotnej, a także dla cierpiących z powodu chorób przewlekłych. Quell to medyczne wearable pomagające w radzeniu sobie z przewlekłym bólem, opracowane przez firmę NeuroMetrix,
48
eseller News
Rynek elektronicznej galanterii (wearables) zwiększy się trzykrotnie w ciągu najbliższych pięciu lat, z 84 mln sztuk w 2015 r. do 245 mln w roku 2019 r. dopuszczone na rynek przez amerykańską Agencję Żywności i Leków FDA (Food and Drug Administration). Noszone wokół łydki urządzenie oddziałuje na ośrodkowy układ nerwowy. Aby złagodzić ból, opaska pobudza nerwy w łydce, wywołując reakcję w pniu mózgu, a następnie uwalnia opioidy, które blokują ból. Tyto to z kolei cyfrowa, domowa platforma medyczna, która umożliwia przeprowadzanie pełnych badań w gabinecie lekarskim, samodzielnie zdalnie z domu lub innego dowolnego miejsca przebywania pacjenta, a następnie na wysłanie zebranych informacji do systemu elektronicznej dokumentacji zdrowotnej (rejestr EHF – electronic health records). Wbudowane narzędzia pozwalają na pełne badanie oczu, uszu, nosa, gardła, skóry, serca i płuc. Podczas badania na żywo z udziałem lekarza przejmuje on wirtualną kontrolę nad urządzeniem, informując pacjenta zdalnie poprzez interfejs ekranu, jak posługiwać się urządzeniem i gdzie należy go umieś-
cić. Na podstawie dostarczonego przez pacjenta obrazu gardła w wysokiej rozdzielczości i jakości, lekarz może określić, czy wystąpiło zakażenie i udzielić porady. Pacjent ma możliwość decydowania, czy zdalne badanie przeprowadzać podczas sesji na żywo z lekarzem, czy też nagrać je samemu i potem mu je przesłać. APLIKACJE FITNESS OBSŁUGIWANE PRZEZ WIRTUALNE MASZYNY Kalifornijska firma Beachbody sprzedaje produkty i żywność związane z fitnessem. Stworzyła również rozległą sieć trenerów fitness działających w ramach społeczności online. Systemy informatyczne obsługujące procesy biznesowe Beachbody przetworzyły w 2014 r. ponad 10 mln transakcji. W 2015 r. postanowiono zacząć obsługiwać platformę e-commerce w ramach własnej infrastruktury IT (wcześniej korzystano z zewnętrznych dostawców). Wymagało to sięgnięcia po komponenty infrastrukturalne nowej generacji. Wybrano m.in. referencyjną architekturę Dell EMC VSPEX opartą na zintegrowanych pamięciach masowych serii EMC VNX2, serwerach UCS Cisco oraz systemie VMWare. W ciągu 9 miesięcy liczbę wirtualnych maszyn zwiększono z 400 do 1,5 tys., co miało na celu obsługę nowych, własnych aplikacji. Pozwoliło to niemal natychmiast skalować zarówno pojemność, jak i wydajność, co ma kluczowe znaczenie przy przechodzeniu na transmisje wideo ultra wysokiej rozdzielczości 4K. FOTKA Z LICZNIKIEM KALORII Kontrolujących liczbę kalorii w produktach spożywczych może zainteresować aplikacja Snap It, działająca na platformie Lose It!, zaprezentowana w kanale CNN Money. Wystarczy zrobić zdjęcie tego, co chcemy zjeść, a na ekranie smartfonu po uruchomieniu aplikacji Snap It – natychmiast wyświetla się licznik kalorii. Aplikacja wykorzystująca mechanizmy sztucznej inteligencji (AI – artificial intelligence), co prawda jest w stanie rozpoznać sfotografowane sushi, ale nie potrafi jeszcze określić rodzaju ryżu, gatunku ryby czy użytych przypraw. – Technologia jest na tyle zaawansowana, żeby rozpoznać jabłko i sklasyfikować je jako takie, ale nie na tyle inteligentna, aby oszacować jego rozmiar, odmianę czy inne cechy, które wpływają na wartość kaloryczną – wyjaśnia Charles Teague, CEO firmy Lose It!, i zastrzega, że uczenie maszynowe jest skomplikowane, podobnie jak wyliczanie kalorii.
TECHNOLOGIE Snap It rozpoznaje produkty na podstawie szerokiej bazy danych, ale aplikacja nie jest w stanie wykryć odchyleń od norm na podstawie samego zdjęcia. Nie oznacza to, że nie może być pożyteczna w obecnej postaci. Na pewno pozwoli zorientować się, ile kalorii przeciętnie mamy na talerzu z frytkami lub w misce zupy. Nie sprawdzi się natomiast w przypadku ścisłych diet wymagających dokładnego wyliczania kalorii. – Róbmy zatem fotki jedzeniu, ale myśląc o odchudzaniu, bardziej wierzmy własnym jelitom i rozsądkowi niż aplikacji, przynajmniej na razie – radzi reporterka CNN. MONITORING CHORYCH NA PARKINSONA PRZEZ IOT Koncern farmaceutyczny Pfizer i IBM planują podjęcie współpracy przy wykorzystywaniu Internetu rzeczy do zdalnego monitorowania pacjentów z chorobą Parkinsona, co ma pomóc w rozwijaniu nowych leków i terapii klinicznych. System czujników, urządzenia mobilne i systemy do uczenia maszynowego są wdrażane w ramach wspólnej inicjatywy badawczej Pfizera i IBM, która ma na celu doskonalenie metod leczenia choroby Parkinso-
na. Eksperymentalny system IoT (Internet of Things) ma umożliwiać zdalny pomiar w czasie rzeczywistym stanu zdrowia i ogólnej kondycji pacjenta. Monitorowne będą takie wskaźniki, jak: mimowolne wykonywanych ruchów, trudności z pamięcią, brak snu, a także zdolność do wykonywania codziennych czynności, takich jak ubieranie i jedzenie.
Sensory, urządzenia mobilne i systemy do uczenia maszynowego będą wykorzystywane do śledzenia postępu choroby Parkinsona oraz badania skuteczności podawanych leków.
Sensory będą wykorzystywane do śledzenia postępu choroby oraz badania skuteczności podawanych leków. Na podstawie zebranych w ten sposób danych będą prowadzone badania kliniczne, opracowywane nowe metody leczenia oraz działania terapeutyczne, informuje IBM. Eksperci Pfizera i IBM są przekonani, że zgromadzone dane mogą pomóc lekarzom w lepszym rozumieniu działania leków na pacjenta w miarę postępu choroby, co umożliwi wypracowanie optymalnych planów jego leczenia. Złożone dane generowane przez system IoT powinny dostarczyć naukowcom niezbędne materiały, potrzebne do wypracowania potencjalnych nowych i lepszych metod leczenia oraz przyspieszenia prac badawczo-rozwojowych nad nowymi lekami. MEDYCZNE BIG DATA Analiza dużych zbiorów (Big Data) danych medycznych ma też wspomagać badanie zależności wpływających na przebieg chorób i określanie ryzyka zapadalności na nie, a także ułatwiać prognozowanie rozprzestrzeniania się wirusów. Według raportu IBM na świecie ok. 16 tys. szpitali gromadzi cyfrowe informacje o swoich
WIRTUALNY PRZESZCZEP ZASTAWKI NA ZESKANOWANYM SERCU PACJENTA Ci, którzy dotychczas sądzili, że okulary do wirtualnej (VR – virtual reality) i rozszerzonej rzeczywistości (AR – augmented reality), takie jak HoloLens, mogą służyć jedynie do zabawy czy ucieczki do świata wirtualnych gier – będą musieli zmienić zdanie. Podczas 17. międzynarodowych warsztatów kardiologicznych New Frontiers in Interventional Cardiology (NFIC) w Krakowie w grudniu 2016 r. po raz pierwszy na świecie pokazano badanie EKG i planowanie wirtualnego zabiegu implantacji zastawki aortalnej na zeskanowanym sercu pacjenta z wykorzystaniem okularów HoloLens. Wirtualny zabieg przeprowadzono, wykorzystując technologie 3D oraz AR w połączeniu z obrazami z tomografii komputerowej, oraz echokardiografii. Pierwszy na świecie pokaz badania EKG z użyciem HoloLens zaprezentowali prof. Dariusz Dudek, dyrektor warsztatów NFIC i Mateusz Kierepka, prezes
MedApp SA oraz twórca projektu. Pokazano także wirtualny zabieg implantacji zastawki aortalnej na zeskanowanym sercu pacjenta. Dzięki okularom HoloLens lekarz może przejść przez wszystkie etapy zabiegu, zobaczyć wszystkie tkanki i przygotować się na to, co może go spotkać podczas samego zabiegu. Symulację zabiegu można traktować jako wstęp i przygotowanie do przeprowadzania już na sali zabiegowej operacji pacjenta, którego serce wcześniej zeskanowano, co mogą też obserwować kardiolodzy i kardiochirurdzy z całego świata. – To, co pokazaliśmy pierwszy raz na świecie, to wizualizacja wykonana jako sumaryczne połączenie trzech rozwiązań: po pierwsze, wizualizujemy badanie pacjenta, którego serce zostało zeskanowane i na podstawie tych skanów został wykonany obraz 3D, po drugie, wykorzystujemy własną autorską
aplikację, która wizualizuje to serce, po trzecie, w czasie rzeczywistym odczytujemy zapis elektrokardiografu i na podstawie tego dokonujemy animacji tego serca – wyjaśnia Mateusz Kierepka z MedApp SA. HoloLens, czyli umieszczony w okularach komputer z całym zestawem czujników, umożliwia kreowanie rozszerzonej rzeczywistości, dostarczając obraz tego, co widzimy uzupełniony o dodatkowe informacje. Urządzenie pozwala rozpoznawać rysy twarzy, skanować, mierzyć, a na podstawie odpowiednich danych – tworzyć wizualizacje 3D. W okularach zainstalowano także kamery na podczerwień, które są w stanie określić położenie obiektów wokół. Jak podkreślają twórcy aplikacji kardiologicznej MedApp, zastosowanie HoloLens jest zależne od oprogramowania, a to z kolei jest ograniczone tylko wyobraźnią twórców.
WIDEOKONSULTACJE, EDUKACJA I DOKUMENTACJA MEDYCZNA Technologie VR i AR można pożytecznie wykorzystywać w wielu dziedzinach (np. architekturze), ale szczególnie cenne są zastosowania w medycynie i edukacji. Trójwymiarowe modele serca i ciała pacjenta studentom medycyny pomagają w nauce, a to tylko część możliwości okularów VR/AR. Holo-
Lens to nie tylko wszelkie możliwe metody wizualizacji, ale również możliwość przeprowadzania wideokonsultacji na odległość. Lekarz specjalista zdalnie może narysować, jak i gdzie zrobiłby cięcie w czasie zabiegu, co znacznie przyspiesza proces konsultacji i diagnostyki.
Aplikacja MedApp i HoloLens pozwalają także na gromadzenie w jednym miejscu pełnej dokumentacji medycznej w postaci centralnego raportu o pacjencie, zawierającego wyniki badań, analiz, zdjęcia RTG itp., a potem zdalny dostęp do niego.
49
eseller News
TECHNOLOGIE
Mateusz Nejman, Kierownik Projektu, ActionMED sp. z o.o. Ostatnie kilka lat to dynamiczny rozwój w dziedzinie technologii IoT i ich powszechnej dostępności. Szacuje się, że do 2020 r. do sieci podłączonych może być nawet 50 miliardów urządzeń. Technologia ta wkracza również na rynek opieki zdrowotnej, mówimy już o oddzielnej kategorii systemów, jakimi są IoMT – ang. „Intenet of Mecial Things”, które w najbliższej dekadzie mogą przynieść rewolucję w opiece na odległość. W Polsce od 2015 r. ustawa o systemie informacji w ochronie zdrowia dopuszcza wykonywanie świadczeń zdrowotnych także za pośrednictwem systemów teleinformatycznych lub systemów łączności. Już dzisiaj, choć jeszcze nie na szeroką skalę, stosowane są systemy telemedyczne wykorzystujące urządzenia IoMT. Miniaturowe urządzenia przez całą dobę monitorują parametry życiowe pacjentów kardiologicznych, cukrzyków oraz chorych na padaczkę, przekazując informacje za pomocą sieci teleinformatycznych. Po drugiej stronie systemy IT i personel medyczny mogą nie tylko odczytywać wyniki, ale również natychmiast reagować na potencjalne zagrożenia. Spektrum pomysłów na wykorzystanie tej przyszłościowej technologii jest niemalże nieograniczone. Projekty, które są obecnie w fazie testów, obejmują m.in. wykorzystanie trackerów aktywności do monitorowania i dopasowania terapii dla pacjentów chorych na białaczkę; gromadzenie danych z inhalatorów lub czujników dojelitowych potwierdzających przyjmowanie farmakoterapii; inteligentne szkła kontaktowe; aplikacje dla chorych na depresję czy parkinsonizm. Actionmed szczególnie aktywnie śledzi nowości pojawiające się na rynku rozwiązań związanych z wykorzystaniem IoMT w farmacji. pacjentach. Tylko na podstawie danych z wyszukiwarki Google specjaliści już obecnie mogą określać, w jakim miejscu 50
eseller News
na świecie wirus grypy jest najbardziej aktywny. Jednostki medyczne monitorują wszystko, co jest związane ze zdrowiem pacjentów. Jak podaje Electronic Health Records, w samych tylko Stanach Zjednoczonych w latach 2009-2011 szpitale podwoiły bazy danych w swoich cyfrowych kartotekach medycznych. – Do elektronicznych danych medycznych, gromadzonych również przez polskie placówki, możemy zaliczyć: karty pacjentów, wyniki badań, zdjęcia z RTG, EKG czy z tomografu komputerowego. Próbując ocenić skalę tej medycznej e-rewolucji danych, można pokusić się o przemnożenie liczby mieszkańców naszego kraju przez jeden plik ważący średnio 300 MB, a to dopiero początek, bo liczba digitalizowanych informacji będzie się zwiększać – mówi Michał Jakubowski, jeden z pomysłodawców i twórców Remedizera, narzędzia do zdalnej opieki medycznej. CYFRYZACJA OPIEKI MEDYCZNEJ – SZANSE I ZAGROŻENIA Duży udział w pozyskiwaniu danych medycznych mają również mobilne aplikacje zdrowotne (jest ich obecnie na rynku ponad 100 tys.). Pozwalają one na gromadzenie informacji o przebiegu choroby i na bieżące monitorowanie podstawowych parametrów pacjenta. Większość dostępnych na rynku urządzeń (przenośne ciśnieniomierze, glukometry, pulsometry, różnego rodzaju opaski i smartwatche) może komunikować się z innymi urządzeniami za pomocą Bluetooth. Przykładem na polskim rynku może być rozwiązanie obecnie testowane przez pacjentów z wszczepionymi pompami wspomagającymi pracę serca. Podopieczni Instytutu Kardiologii w Aninie w ramach projektu pilotażowego mogą na bieżąco przesyłać do prowadzących ich lekarzy dane o swoim ciśnieniu, pulsie, temperaturze i zażytych lekach. Na podstawie otrzymanych danych lekarze są w stanie określić, jak pora dnia, posiłki czy zażycie lekarstw wpływają na ich wyniki. Analiza jednostkowych informacji daje obraz stanu zdrowia danego pacjenta, natomiast poddając analizie informacje zebrane od dziesiątek czy setek osób – można już uzyskać szerszy obraz zjawiska. – Przetwarzanych danych będzie coraz więcej, co wymagać będzie inwestycji w infrastrukturę informatyczną. Dane gdzieś trzeba
Podopieczni Instytutu Kardiologii w Aninie, z wszczepionymi pompami wspomagającymi pracę serca, mogą na bieżąco przesyłać do lekarzy dane o ciśnieniu, pulsie, temperaturze i zażytych lekach. przecież przechowywać, więc placówka medyczna albo będzie musiała rozbudować swoją serwerownię – o ile taką posiada – albo zdecydować się na outsourcing tej wyspecjalizowanej powierzchni. Po drugie, pamiętajmy o tym, że dane medyczne to dane o szczególnym znaczeniu, które muszą być odpowiednio zabezpieczone przed niepowołanym dostępem – zauważa Robert Mikołajski z Atmana. Lekarze w USA używają algorytmów do monitorowania stanu zdrowia i dziennej rutyny pacjenta oraz do zidentyfikowania w dostępnych bazach danych pacjentów o wysokim stopniu wystąpienia konkretnego ryzyka zdrowotnego, a następnie dopasowują najskuteczniejszą metodę leczenia do określonego przypadku. Eksperci zgodnie przyznają, że gruntowna informatyzacja opieki medycznej i wykorzystanie dużych zbiorów to spore wyzwanie. n
Pamięci masowe
w firmie
Marcin Bieńkowski
Jeszcze w 2015 r. rynek pamięci masowych przeżywał prawdziwy boom. Według firmy analitycznej IDC w I kwartale 2015 r. zanotowano aż 41,4 proc. wzrostu sprzedaży. Jednak już w 2016 r. wyniki nie były tak dobre i zanotowano trwająca do dzisiaj stagnację.
A
nalitycy z IDC ocenili wartość rynku w I kwartale 2016 r. na 8,8 mld dolarów, a więc na tyle, co w analogicznym okresie w roku 2015. Sprzedana pojemność wzrosła jednak w ujęciu rocznym o 12,9 proc. Kwartalnie w 2016 r. łączna pojemność sprzedawanych dysków dochodziła już do 34,7 EB. Na rynku wyraźnie też można było zauważyć tendencję do zastępowania mechanicznych, tradycyjnych dysków twardych ich elektronicznymi odpowiednikami. Z kolei wśród użytkowników biznesowych, zarówno w 2016, jak i 2017 r. największą popularnością cieszyły się różnego rodzaju macierze dyskowe. Mimo to, jak wynika z raportu firmy IDC „Worldwide Quartely Enterprise Storage System Tracker, June 2017”, światowy rynek urządzeń storage spadł w stosunku do ostatniego kwartału roku 2016 o 0,5 proc., osiągając
Na rynku pamięci masowych wyraźnie można zauważyć tendencję do zastępowania mechanicznych, tradycyjnych dysków twardych ich elektronicznymi odpowiednikami.
w I kwartale 2017 r. wartość „zaledwie” 9,2 miliarda dolarów. Jednak trend dotyczący całkowitej sprzedanej pojemności napędów dyskowych cały czas jest rosnący. Wynika to, że stałego i systematycznego powiększania się pojemności pojedynczych dysków twardych – i to zarówno tych tradycyjnych, jak i elektronicznych modeli. Obecnie szacuje się, że dostarczona pojemność wzrosła, licząc rok do roku, o 41,4 proc. Kwartalnie do klientów trafiają napędy o łącznej pojemności, bagatela, 50,1 eksabajtów! Warto też zauważyć, że tradycyjne macierze składające się z mechanicznych napędów HDD, powoli, aczkolwiek systematycznie, zastępowane są macierzami all-flash. Klienci dostrzegli bowiem zalety tego typu rozwiązań, które przeważają nad ciągle wysoką, ale i tak cały czas wręcz gwałtownie spadającą, ceną. 51
eseller News Extra
„RESELLER NEWS” EXTRA
Tradycyjne macierze składające się z mechanicznych napędów HDD, powoli, aczkolwiek systematycznie, zastępowane są macierzami all-flash. Grzegorz Bielawski, Country Manager QNAP Wbrew powszechnej opinii, reseller – a w każdym razie skuteczny reseller – jest nie tyle „sprzedawcą”, ile pełni przede wszystkim funkcję doradczą. Jego zadaniem jest dokładne rozpoznanie potrzeb klienta i dobranie takiego urządzenia/rozwiązania, które najlepiej spełni jego oczekiwania. To może oczywiście rodzić pewne komplikacje – może się choćby okazać, że klient powinien wybrać zupełnie coś innego, niż produkt, który sobie wcześniej upatrzył. Ale celem nadrzędnym jest zaspokojenie potrzeb klienta, dostarczenie mu dokładnie tego, czego potrzebuje – bo tylko działając w ten sposób, możemy liczyć na zbudowanie z nim trwałej relacji – dotyczy to również systemów pamięci masowej. Dobry sprzedawca będzie też dla swojego klienta pierwszą linią kontaktu w przypadku jakichś pytań/wątpliwości/problemów – powinien dysponować szeroką wiedzą o produkcie, więc w razie potrzeby może całkiem skutecznie świadczyć wsparcie, a jeśli jego wiedza okaże się niewystarczająca, powinien skierować klienta do odpowiedniego działu/pracownika po stronie producenta, który pomoże rozwiązać problem. RYNKOWI LIDERZY Według wspomnianego wyżej raportu IDC w I kwartale br. największym dostawcą systemów storage dla firm jest Dell EMC. Jego udział to 21,5 proc. Na drugim miejscu plasuje się HPE (20,3 proc.), zaś podium zamyka NetApp z udziałem 8 proc. Ex aequo czwarte miejsce zajmują Hitachi i IBM – po 5 proc. udziałów w rynku. Co ciekawe, w raporcie zaznaczono oddzielną grupę sprzedażową ODM (Original Design Manufacturers), czyli firmy dostarczające własne systemy pamięci masowej wykonywane pod konkretne zamówienie klienta. Ich udział to 13,2 proc. 52
eseller News Extra
Raport wspomina też o całkowitym udziale wymienionych wyżej macierzy AFA (All Flash Array). Całkowity kwartalny przychód z ich sprzedaży szacowany jest na 1,4 miliarda dolarów. Rynek ten wzrósł od zeszłego roku aż o 75 proc. Obecnie według firmy IDC urządzenia AFA stanowią 22 proc. wszystkich sprzedanych macierzy klasy Enterprise. Co ciekawe, w 2016 r. kwartalnie sprzedawano już 30,78 mln dysków twardych SSD, a największy udział w ich produkcji miał Samsung (42 proc.). Drugi co do wielkości producent, SanDisk, musiał się zadowolić zaledwie 12,8-proc. udziałem. KLASYFIKACJA Warto się również zastanowić, jakiego typu systemy klasy storage są najchętniej wybierane przez klientów i do jakich zastosowań? Z jakich korzystają rozwiązań i interfejsów? Trudno jest też uciec od zagadnień związanych z bezpieczeństwem danych.
Norbert Koziar, Senior Sales Manager Eastern Europe w WD Uważam, że rola resellera/integratora jest kluczowa w pomocy przy wyborze odpowiednich dysków do odpowiednich potrzeb/aplikacji w firmie. Dzisiaj, gdy mamy w cenniku kilkanaście różnych dysków o pojemności 1 TB, trzeba wiedzieć, który z nich można zainstalować w małym serwerze NAS, który w 32-dyskowym systemie storage, który w rejestratorze wideo, a który w zwykłej stacji roboczej. Nieodpowiednie dobranie storage spowoduje w przyszłości wiele kłopotów dla klienta i usterek sprzętu. – DAS, czyli Direct Attached Storage, to sposób podłączenia systemu pamięci masowej do serwerów – praktycznie każdy produkt oferuje taką możliwość, natomiast klienci właściwie nie stosują tego rodzaju podłączenia, gdyż ogranicza ono znacząco możliwości korzystania z pamięci masowej. Może korzystać z niej tylko podłączony do macierzy serwer. Najczęstszym sposobem podłączenia
„RESELLER NEWS” EXTRA
Piotr Sękowski, System Storage Sales Manager IBM Poland & Baltics Systems Hardware Rola dostawcy rozwiązań pamięci masowych jest dużo większa niż tylko sprzedaż i dostarczenie, czyli typowy reselling. Dobór właściwego rozwiązania jest warunkiem koniecznym, ale nie wystarczającym. Przykładowo, zastosowanie ultraszybkiej macierzy flash przy niewłaściwej konfiguracji może być jak jazda bolidem F1 na pierwszym biegu – będzie szybko, ale tylko do pewnego stopnia. Macierze dyskowe używane w przedsiębiorstwach wymagają odpowiedniej konfiguracji i zestrojenia wielu elementów: właściwy poziom RAID, wielkość grupy RAID, grupy dyskowej, definicja polityk kopii migawkowych lokalnych oraz zdalnej replikacji. To wszystko musi być właściwie zintegrowane z posiadaną, bądź planowaną przez klienta infrastrukturą aplikacyjno-sprzętową oraz politykami BCP (Business Continuity Plan), w tym backupu, i/lub HA (High Availibility), i/lub DRC (Disaster Recovery). Jak widać, wiedza fachowa jest konieczna i taką wiedzą oraz umiejętnościami dysponują autoryzowani partnerzy handlowi IBM. macierzy do serwerów jest sieć. Są to rozwiązania SAN (Storage Area Network) dla macierzy blokowych lub sieć Ethernet dla macierzy NAS (Network Attached Storage) dla macierzy plikowych – zauważa Piotr Sękowski, System Storage Sales Manager IBM Poland & Baltics Systems Hardware. – Nie sposób też jednoznacznie wskazać, jakiego rodzaju organizacje wybierają poszczególne rodzaje systemów pamięci w kontekście klasyfikacji SAN/NAS, gdyż nie zależy to tak bardzo od typu organizacji, a bardziej od przeznaczenia pamięci masowej i rodzajów systemów, jakie na niej działają – dodaje Sękowski.
Wyraźnie zwiększa się liczba użytkowników biznesowych rozumiejących, dlaczego system backupowania jest obowiązkowym elementem firmowego ekosystemu IT. – Jeśli chodzi o bezpieczeństwo, to są branże, w których świadomość zagrożeń i niebezpieczeństw, oraz znajomość sposobów przeciwdziałania im jest bardzo wysoka. Niestety, są też obszary rynku,
Artur Flinta, HPC Product Manager, ACTION Wyzwanie bezpiecznego składowania i efektywnego przetwarzania danych o wielkości setek terabajtów czy nawet kilku petabajtów wymaga odmiennego podejścia niż przy mniejszych zasobach. Zwykły pojedynczy kontroler RAID, jak i samo klasyczne zabezpieczenie danych blokowych w postaci RAID 5/6 lub pochodnych, nie sprawdzi się ze względu na czas potrzebny na odbudowę tak pojemnej macierzy, a także ryzyko awarii z uwagi na dużą ilość dysków. Aby wyjść naprzeciw ograniczeniom klasycznego składowania danych, wprowadzono klastrowe systemy dyskowe. Systemy takie składają się z wielu
w których świadomość ta jest zdecydowanie za niska. Ten ostatni problem dotyczy np. wielu małych i średnich firm, których właściciele często nie rozumieją jeszcze, że wdrożenie sprawnie działającego systemu backupowania lub archiwizacji danych nie jest fanaberią, a wysoce opłacalną inwestycją w sprawne funkcjonowanie organizacji, która pozwala uniknąć przestojów związanych choćby z awariami czy głośnymi w ostatnim czasie atakami złośliwego oprogramowania – mówi Grzegorz Bielawski, Country Manager QNAP. – Pozytywem jest fakt, iż wyraźnie zwiększa się liczba użytkowników biznesowych rozumiejących, dlaczego taki system jest obowiązkowym elementem firmowego ekosystemu IT – trafia do nas coraz więcej klientów zainteresowanych wdrożeniem takich rozwiązań. Część z nich doskonale wie, czego potrzebuje i przychodzi po gotowe, starannie wybrane rozwiązania. Inni wiedzą, jaki efekt chcą osiągnąć, ale potrzebują wsparcia w zakresie wyboru odpowiednich technologii – dodaje Grzegorz Bielawski. modułów (zazwyczaj serwerów) wyposażonych we własne dyski. Moduły są spięte za pomocą szybkiej sieci (przynajmniej 10 Gb, częściej jest to wielokrotność tej wielkości), umożliwiającej szybką wymianę danych między węzłami. Nad bezpieczeństwem całości czuwają wydane algorytmy odpowiedzialne za replikację danych lub obliczanie kodów korekcyjnych, pozwalając (zależnie od konfiguracji) na jednoczesną awarię wielu dysków czy nawet kilku całych węzłów dyskowych. Dostęp do danych odbywa się zarówno przez protokoły plikowe (np. NFS), jak i obiektowe (Amazon S3). Istnieje też możliwość udostępnienia danych w tradycyjny sposób blokowy (np. poprzez iSCSI). Dużą zaletą tych systemów jest łatwość skalowania pojemności i wydajności, które rosną wraz z dodawaniem kolejnych węzłów dyskowych. Oprogramowanie, jakiego używa się w takich systemach, oparte jest np. na CEPH, LizardFS czy GlusterFS. Wdrożenie klastrowego systemu składowania wymaga poznania potrzeb klienta, by dobrać odpowiednio skalę rozwiązania oraz zapewnić wymaganą funkcjonalność dotyczącą dostępu do danych. Należy też dostosować infrastrukturę klienta do wymaganych prędkości transmisji danych. Wdrażanie tego typu rozwiązań wymaga wiedzy specjalistycznej, więc oferowanie ich daje możliwość realizacji wyższej marży dla resellera/dostawcy rozwiązania. Ze względu na konieczność indywidualnego podejścia do każdego rozwiązania, ACTION oferuje wsparcie dla swoich partnerów w przygotowaniach do wdrożenia takich systemów.
53
eseller News Extra
„RESELLER NEWS” EXTRA CHMUROWISKO Nie jest tajemnicą, że coraz więcej firm przenosi swoje dane do chmury. Wynika to z wielu względów, m.in. z przeniesienia części kosztów działania firmowego IT z wydatków CAPEX do OPEX, czyli z kosztów inwestycyjnych do kosztów operacyjnych, często kluczową rolę odgrywa mniejsza bariera wejścia, pozwalająca praktycznie natychmiast, bez najmniejszych wydatków, zacząć korzystać z zaawansowanych, drogich aplikacji, wnosząc jedynie miesięczny abonament czy też po prostu ze względów bezpieczeństwa. – Zainteresowanie jest spore, bo to wygodne i łatwe do wdrożenia rozwiązanie – choć widzimy wyraźnie, że niezbyt wielu klientów decyduje się na wdrożenie rozwiązania bazującego wyłącznie na cloudzie. Zdecydowanie częściej chmura traktowana jest jako technologia uzupełniająca, towarzysząca wdrożonemu in-house, po stronie klienta, systemowi storage. Wielu klientów po prostu woli mieć swoje dane u siebie, pod pełną kontrolą, niektórzy z nich są zresztą do tego zobowiązani przez odpowiednie regulacje prawne. Warto tu dodać, że zbudowana z wykorzystaniem nowoczesnych serwerów QNAP NAS prywatna chmura
Łukasz Jesis, CEO w Xopero Software Kiedy mówimy o bezpieczeństwie danych, backup jest wyłącznie jednym z jego elementów. DR (disaster recovery) to dziś kluczowa funkcjonalność. W sytuacji, kiedy rocznie generuje się tak wielkie ilości nowych danych, klienci nie są zainteresowani wdrożeniem „tylko” backupu. Poszukują więc konwergentnych rozwiązań, które pozwalają na szerokie zabezpieczenie infrastruktury IT oraz
54
eseller News Extra
Magdalena O`Dwyer, Product Manager – Poland, Baltic and Balkan countries, Synology Rośnie ilość przechowywanych danych i ich rozmiar. Coraz więcej przedsiębiorców decyduje się na pełne skomputeryzowanie swoich plików. NASy wykorzystywane są zarówno do przechowywania danych, jak i jako centrum
storage dla zwykłego użytkownika może w zasadzie nie różnić się w funkcjonowagwarantują szybkie przywrócenie firmy (a nie tylko zasobów!) do stanu sprzed awarii. Nie bez powodu rynek IT (producenci i klienci) dąży do osiągnięcia magicznej wartości zera w odniesieniu do RTO i RPO. Utrata danych to nie tylko utrata zasobów i informacji. To przestój w firmie, opóźnienie realizacji usług i utrata zaufania klientów. Konsekwencje takiego zdarzenia są odczuwalne jeszcze kilka miesięcy po samej awarii. Statystyki od lat pokazują, że ponad połowa firm, które utraciły dane w ciągu dwóch kolejnych lat, upada. NASy pozwalają bezpiecznie przechowywać duże ilości danych. Ale bezpieczny storage to także tylko jeden z wymogów polityki DR. Obecnie najlepszą odpowiedzią są rozwiązania typu appliance (storage’owo-softwere’owe). Co przemawia za wyborem appliance’a? Klient otrzymuje gotowe rozwiązanie sprzętowo-softwere’owe: kompleksowe, funkcjonalne i łatwe we wdrożeniu. Oszczędza więc czas i pieniądze. Może również bardzo szybko zacząć zarządzać polityką backupu w firmie. Przy czym w porównaniu z rozwiązaniami enterprisowymi (które zwykle mają takie funkcjonalności) oszczędza sporą sumę pieniędzy. Dodatkowo w perspektywie kolejnych lat (i nowych TB danych) taką infrastrukturą zarządza się dużo łatwiej.
multimedialne czy też jako stacja pod monitoring wizyjny. Staramy się ulepszać nasze rozwiązania i zaoferować klientom nowe aplikacje, które pozwolą na bezpieczne składowanie plików i przetwarzanie dużej ilości danych. Najnowsze rozwiązania, takie jak Virtual Machine Manager – dla konfigurowania i uruchamiania różnych maszyn wirtualnych z systemami Widows, Linux lub Virtual DSM z jednego serwera Synology oraz Presto File Server, zapewniający szybkie i bezpieczne dostarczanie dużych plików za pośrednictwem sieci WAN, cieszą się ogromnym zainteresowaniem. Szczególną uwagę trzeba zwrócić na dobranie sprzętu odpowiedniego do potrzeb. Czasami klienci skupiają się na ogromnych rozwiązaniach, kiedy mniejsze byłoby w zupełności wystarczające. Warto patrzeć na parametry techniczne sprzętu oraz skalowalność pojemności lub możliwość prostej migracji do wyższego rozwiązania. Sprzęt jest bardzo ważny, ale ważne są również dodatkowe funkcjonalności i usługi, które on oferuje. Dobre oprogramowanie może usprawnić współpracę pomiędzy pracownikami oraz zredukować koszty związane z zakupem dodatkowych urządzeń.
niu od popularnych publicznych platform chmurowych, a to sprawia, że na wdrożenie takiego rozwiązania często decydują się klienci do tej pory korzystający z usług publicznych, dostarczanych przez zewnętrznego operatora – zauważa Grzegorz Bielawski. – Klienci, którzy mają potrzeby rzędu kilku terabajtów przy braku konieczności dostarczenia bardzo wysokiej wydajności oraz określonego, akceptowalnego poziomu bezpieczeństwa wybierają zasoby dostarczane przez chmury publiczne (IBM Bluemix, AWS, Azure). Klienci o potrzebach kilkunastu terabajtów wysokiej wydajności, wymaganiach przechowywania danych we „własnej” lokalizacji, czyli we własnym Data Center bądź w kolokacji – wynajętej przestrzeni Data Center, wybierają jednak zakup pamięci masowych. Nie sposób wskazać przeciętną pojemność systemu pamięci masowej kupowanej przez klientów. Rozpiętość jest ogromna. Od systemów wielkości kilkunastu terabajtów po kilkuset terabajtowe. Wszystko to zależy od wielkości firmy i systemów oraz aplikacji, jakie będą przez daną macierz obsługiwane – podsumowuje Piotr Sękowski, System Storage Sales Manager IBM Poland & Baltics Systems Hardware. n
„RESELLER NEWS” EXTRA
NAS
coraz popularniejszy
wśród polskich firm Marcin Bieńkowski
Obecne na polskim rynku serwery NAS podzielić można na dwie główne kategorie. Pierwszą z nich stanowią serwery klasy Enterprise, drugą znacznie mniejsze urządzenia dla małych i średnich firm, a także modele przeznaczone dla użytkowników indywidualnych. Grupy te różnią się tylko funkcjonalnością, ale również wolumenem sprzedaży.
W
edług firmy Pure Storage światowy rynek systemów NAS w 2017 r. wart będzie ok. 6,6 mld dolarów. Jest to wartość zbliżona do zeszłorocznych wyników sprzedaży. Z kolei, jak wynika z najświeższych danych przedstawionych przez firmę analityczną IDC, całkowita, kwartalna sprzedaż wszystkich systemów klasy External Enterprise Storage, w tym również systemów NAS, zmniejszyła się nieznacznie o 2,8 proc. i wynosi obecnie 5,24 mld dolarów. Tę niewielką tendencję spadkowo-stabilizacyjną widać na światowym rynku wyraźnie od kilku kwartałów. Analitycy uważają, że zjawisko to jest związane z coraz większą popularnością środowisk chmurowych wśród dużych firm. Z drugiej strony, wyraźnie jednak widać tendencję wzrostu sprze-
W dużych firmach systemy NAS traktowane są przede wszystkim jako wygodne i tańsze odpowiedniki klasycznych serwerów pamięci masowej.
daży na rynku systemów NAS dla małych i średnich przedsiębiorstw. Serwerami NAS coraz bardziej interesują się również użytkownicy indywidualni. Sytuację tę potwierdzają też eksperci. – Rynek związany z systemami NAS jest dość duży i ciągle się rozwija. W Veracomp sprzedaje się ok. 400 szt. urządzeń miesięcznie, a w IV kwartale liczba ta wzrasta nawet do 900 szt. Odbiorcami są głównie użytkownicy domowi, jednak warto podkreślić, że z roku na rok rośnie zainteresowanie firm, które decydują się na zakup rozwiązań klasy Enterprise. Jeśli idzie o największy udział w sprzedaży NAS-ów, generują go sklepy internetowe – mówi Kornelia Szlósarczyk, product manager Działu Pamięci Masowych i Serwerów w firmie Veracomp. 55
eseller News Extra
„RESELLER NEWS” EXTRA
Klienci poszukujący serwera NAS zwracają uwagę przede wszystkim na stosunek jakości i wydajności do ceny oraz na skalowalność urządzeń. Kornelia Szlósarczyk, Product Manager Działu Pamięci Masowych i Serwerów w Veracomp Wśród najważniejszych trendów na rynku storage można wymienić macierze flash’owe, które działają zdecydowanie szybciej i mają dużo większą wydajność niż tradycyjne rozwiązania tego typu. Macierze te można z powodzeniem stosować np. do wirtualizacji czy aplikacji baz danych. Warto również wspomnieć o systemie plików BTRFS, który pozwala wykrywać uszkodzenia danych i naprawia je bez ingerencji użytkownika, a także o przywracaniu danych na poziomie pliku lub folderu, dzięki czemu odzyskiwanie danych jest jeszcze szybsze. Kolejnym trendem jest stosowanie dysków SSD, pozwalających zwiększyć szybkość działania rozwiązania oraz jego wydajność. Ważna jest również skalowalność urządzeń, która obecnie może osiągać nawet do 180 dysków, co zapewnia użytkownikowi ogromną przestrzeń dyskową. – Z naszych analiz wynika, że liderem polskiego rynku serwerów NAS jest QNAP, którego udział to ponad 60 proc., drugie miejsce należy do WD z udziałem ok. 20 proc., a trzecie do Synology, którego udział to 15 proc. Jeżeli jednak weźmiemy pod uwagę tylko serwery NAS dedykowane dla firm, to wtedy QNAP ma ok. 70 proc., a na drugie miejsce wskakuje Synology z 20 proc. udziałów – dodaje Grzegorz Bielawski, Country Manager w firmie QNAP. ZASTOSOWANIA SERWERÓW NAS W FIRMACH Warto zastanowić się nad tym, do czego użytkownicy wykorzystują serwery NAS. W dużych firmach systemy te traktowane są przede wszystkim jako wygodne i tań56
eseller News Extra
sze odpowiedniki klasycznych serwerów pamięci masowej. W mniejszych królują zastosowania związane z backupem danych. Użytkownicy indywidualni cenią sobie NAS-y za funkcje pozwalające wykorzystać te urządzenia do streamingu danych multimedialnych – np. filmów czy muzyki. – Najważniejszą cechą serwerów NAS klasy Enterprise jest łatwość obsługi. Podczas gdy serwery pamięci masowej wymagają odpowiedniego zaprojektowania architektury, inwestycji w oprogramowanie, wiedzy i nakładów ponoszonych na ich utrzymanie, systemy NAS klasy Enterprise są w pełni zintegrowane i łatwe do zarządzania przez internetowy interfejs WWW. Jednocześnie zapewniają one identyczną wydajność i niezawodność jak korporacyjne serwery pamięci masowej. Dlatego serwery NAS klasy Enterprise stają się coraz bardziej atrakcyjną alternatywą dla serwerów pamięci masowej. Nie do przecenienia jest tu również skalowalność.
Rainer W. Kaese, Senior Manager Business Development Storage Products w Toshiba Electronics Europe Dziś rozwiązania NAS są używane zarówno przez małe, domowe biura, jak i potężne korporacje z serwerowniami i biurami w wielu lokalizacjach. Urządzenia tego typu używane są nie tylko do backupu lub jako serwery plików, ale także jako pamięci masowe wirtualnych maszyn w korporacjach, z klasycznymi funkcjami magazynów OEM (ochrona, active failover, deduplikacja, kompresja). Obecnie w najszybszym tempie rozwija się rynek serwerów NAS do użytku domowego oraz małych, domowych biur. Niezależnie od rosnącej popularności przechowywania danych w chmurze, rosnąć będzie również zapotrzebowanie na serwery NAS klasy Enterprise do zastosowań w większych systemach. To z kolei jest już bardzo blisko związane z korporacyjnym zapotrzebowaniem na dyski w systemach SAS. W przypadku systemów Enterprise nie można więc oddzielić rozwoju obu typów pamięci masowej wykorzystywanej w systemach storage.
„RESELLER NEWS” EXTRA zaskoczeni, że oprócz backupu danych, mogą również zainstalować bezpłatnie aplikacje do monitoringu czy hostować własną stronę WWW. Jak już wspomniałam, w małych firmach nasze systemy wykorzystywane są głównie do backupu. Dopiero kolejnym etapem jest dodatkowe zabezpieczanie danych w postaci zdalnej replikacji czy też klastra. Większe firmy skupiają się na możliwości hostowania serwera poczty elektronicznej dla pracowników, wirtualizacji oraz coraz popularniejszym rozwiązaniu o nazwie Synology C2 – czyli prywatnej chmurze, którą utworzyć można korzystając z serwera NAS – mówi Magdalena O`Dwyer, Product Manager dla regionu Polski, Krajów Nadbałtyckich i Bałkanów w firmie Synology. Magdalena O`Dwyer, Product Manager dla regionu Polski, Krajów Nadbałtyckich i Bałkanów w Synology Obecnie głównym trendem dotyczącym systemów storage pozostaje chmura, zarówno ta prywatna, jak i publiczna. Ze względów bezpieczeństwa klientom biznesowym proponujemy przede wszystkim chmurę prywatną z pełną kontrolą przechowywanych danych. Widzimy także zapotrzebowanie na wykorzystanie chmur publicznych w połączeniu z chmurą prywatną na własnym serwerze. Ponieważ coraz częściej dostęp do danych firmowych ma miejsce spoza siedziby firmy, coraz większą funkcję w tym procesie pełnią aplikacje mobilne. Nasze oprogramowanie na urządzenia przenośne umożliwia również automatyczną synchronizację, która pozwala na jednoczesny dostęp do firmowych informacji za pośrednictwem wielu urządzeń i to bez zbędnych operacji związanych z ich kopiowaniem czy pobieraniem. Dlatego NAS, jako osobista chmura oferująca prostą synchronizację i udostępnianie plików pomiędzy wieloma urządzeniami oraz zapewniający bezpieczeństwo danych na wielu poziomach, będzie coraz bardziej popularnym rozwiązaniem, zwłaszcza w sektorze MSP. Możliwość rozbudowy i łączenia ich przez interfejs SAS otwiera serwerom NAS drogę do świata zastosowań tradycyjnych serwerów pamięci masowej – zauważa Rainer W. Kaese, Senior Manager Business Development Storage Products w firmie Toshiba Electronics Europe. – Obecnie naszym największym rynkiem jest rynek SMB. Zastosowanie zależy głównie od świadomości klienta. Mniejsze firmy często nie mają odrębnego działu IT, a przez to nie zdają sobie sprawy z możliwości, jakie oferuje im NAS. Są często
Istotną rolę w doborze urządzenia NAS może odegrać reseller, który najlepiej zna potrzeby klienta.
– Najczęstszymi użytkownikami serwerów NAS są małe firmy i użytkownicy domowi, a rozwiązania te najchętniej wykorzystywane są do udostępniania i przechowywania danych – w tym materiałów wideo oraz backupu i streamingu. Należy jednak podkreślić, że sposób użytkowania serwerów zależy od indywidualnych potrzeb klienta końcowego i nie jest uzależniony od wielkości firmy czy branży. Segment SOHO korzysta przede wszystkim z funkcjonalności związanych z przechowywaniem i udostępnianiem zdjęć, muzyki, plików wideo, a także chmury prywatnej. Natomiast klienci z sektora MSP używają NAS-ów do przechowywania oraz udostępniania plików i backupu, a coraz częściej także do monitoringu wideo oraz wirtualizacji, do czego wykorzystuje się najbardziej wydajne NAS-y – zwraca uwagę Kornelia Szlósarczyk. FUNKCJONALNOŚCI I TECHNOLOGIE Na jakie funkcjonalności i parametry techniczne zwracają szczególną uwagę klienci
poszukujący serwera NAS? Czy są istotne różnice w potrzebach klientów indywidualnych i biznesowych? Z informacji udostępnianych przez firmy doradcze i analityczne wynika, że ogólnoświatową tendencją wśród użytkowników biznesowych jest chęć dostępu do jak największej liczby funkcji i parametrów pracy urządzenia. Użytkownicy z rynku SOHO preferują zaś jak najmniej skomplikowany interfejs z możliwością zarządzania nim za pomocą urządzeń mobilnych. – Znaczna część trafiających do nas lub do naszych partnerów klientów szuka po prostu „maszyny do backupu/archiwizacji” – rozumieją serwer NAS jako zwykły dysk sieciowy, którego jedyną funkcją jest dostarczenie użytkownikowi dostępnej w lokalnej sieci przestrzeni dyskowej. Dopiero później, na etapie dobierania idealnie dopasowanego do ich potrzeb rozwiązania, dowiadują się, jak wiele dodatkowych funkcji oferują urządzenia QNAP NAS – że mogą pełnić funkcję kompletnej, prywatnej chmury, centrum monitoringu IP, serwera WWW/poczty, platformy wirtualizacyjnej czy domowego centrum multimediów. W takim momencie dochodzi zresztą całkiem często do weryfikacji pierwotnych planów klienta – dowiadując się o innych funkcjach serwera, decydują się na wykorzystanie go do zupełnie innych zastosowań – mówi Grzegorz Bielawski. – Na produkty QNAP decydują się zarówno klienci chcący wykorzystać do swoich celów proste, dwudyskowe urządzenia, jak i zaawansowane, nowoczesne 24-zatokowe serwery. To wszystko kwestia zapotrzebowania, ilości generowanych danych oraz tego, jak wysokiego poziomu bezpieczeństwa i wydajności oczekuje klient – inne wymagania będzie wszak miało niewielkie biuro chcące backupować firmowe dokumenty i pocztę, a inne instytucja finansowa zobligowana przez ustawodawcę do ochrony danych klientów – dodaje. – Klienci poszukujący serwera NAS zwracają uwagę przede wszystkim na stosunek jakości i wydajności do ceny oraz na skalowalność urządzeń. Wykazują również zainteresowanie chmurą w kontekście liczby osób, która może z niej korzystać oraz wielkości posiadanego przez nią zasobu. Coraz mniejszą uwagę natomiast przywiązują do parametrów takich jak hot-swap, energooszczędność czy redundancja zasilaczy, wentylatorów, które stały się standardem w rozwiązaniach klasy SMB oraz Enterprise. Głównym trendem 57
eseller News Extra
„RESELLER NEWS” EXTRA jest bezpieczeństwo danych, a co za tym idzie wykonywanie kopii zapasowych oraz łatwy i szybki dostęp do danych. W trosce o bezpieczeństwo producenci, tacy jak QNAP czy Synology, wyposażają swoje NAS-y w antywirusa, a także możliwość dwustopniowej weryfikacji, np. poprzez podanie specjalnego kodu podczas logowania. Dodatkowo w modelach klasy Enterprise zapewniają bezpłatny serwis – zauważa Kornelia Szlósarczyk.
Warto inwestować w szkolenia, które podniosą wiedzę resellera w zakresie produktów, wspierać ich cenowo i doceniać ich ogromny wkład w rozwój firmy. ROLA RESELLERA W przypadku serwerów NAS istotną rolę w doborze urządzenia może odegrać reseller. Tradycyjna funkcja sprzedażowa powinna być zastąpiona jednak wartością dodaną. Resellerzy są bowiem pierwszą linią kontaktu z klientem i to zazwyczaj oni uzyskują najwięcej informacji niezbędnych przy wyborze tego typu rozwiązań. Pozwalają m.in. ustalić, w jakim celu klient chce kupić NAS, ilu użytkowników będzie korzystać z urządzenia, a także jaka ilość danych będzie na nich przechowywana.
58
eseller News Extra
Niektórzy resellerzy mają w swojej ofercie również dodatkową usługę, obejmującą wdrażanie takich rozwiązań, odpowiednią ich konfigurację oraz pomoc techniczną. – Reseller odgrywa kluczową rolę, ponieważ klienci mają różne oczekiwania dotyczące pojemności i wydajności (IOPS oraz szybkość przesyłu danych). Dlatego też nie istnieje jedno, idealne rozwiązanie dla wszystkich użytkowników. Testowanie i weryfikacja koncepcji przed inwestycją są bardzo ważne. Do tego potrzeba szybkiego i efektywnego systemu testowania – rolą resellera jest tutaj skontaktowanie użytkownika końcowego z producentem systemu NAS oraz wytwórcą napędów HDD i SDD z w celu dostarczenia próbek i umożliwienia testów. Toshiba Electronics Europe i European Test-and-Demo Lab w Düsseldorfie wspierają tego typu działania. Jeśli klient chce wypróbować rozwiązanie przed zakupem, zachęcamy go do skorzystania z tego rodzaju wsparcia – mówi Rainer W. Kaese. – Resellerzy są kluczowym elementem działalności wielu firm. To dzięki nim mamy możliwość dotarcia do klienta końcowego. To oni również są łącznikiem pomiędzy producentem a klientem. Ich rola nie sprowadza się jedynie do sprzedaży i serwisu. Traktowanie resellera przez vendora wyłącznie jako sprzedawcę jest błędem. Dlatego warto inwestować w szkolenia, które podniosą wiedzę resellera w zakresie produktów, wspierać ich cenowo i doceniać ich ogromny wkład w rozwój firmy – zauważa Magdalena O`Dwyer. – Co prawda, nasze urządzenia nie wymagają specjalistycznej wiedzy w zakresie podstawowych zastosowań, dlatego partnerzy nie muszą poświęcać dużo czasu na wdrożenia, ale mogą zarabiać na konfiguracji różnych usług czy dostarczaniu rozwiązań w chmurze opartych m.in. na naszym oprogramowaniu – podsumowuje. n
Marcin Elak, Product Manager marki QNAP w ACTION W najbliższych latach trendy dotyczące użytkowania NAS-ów znacząco nie ulegną zmianie. NAS w dalszym ciągu będzie dobrym rozwiązaniem do przechowywania i backupu danych dla użytkowników, dla których wydajność nie jest najważniejsza, a liczy się głównie szybki dostęp do danych. Według mnie NAS-y będą rozwijały się też pod kątem analizy danych, ponieważ coraz więcej jest metadanych, które wymagają sprawdzenia i pozyskania z nich szukanych informacji. W zakresie NAS dedykowanych dla przedsiębiorstw, klienci przy wyborze urządzeń kierują się niezawodnością, funkcjonalnością rozwiązań oraz sprawnością serwisu. ACTION odpowiada na potrzeby tego segmentu rynku, oferując serwery pamięci masowej QNAP, które dają wielowarstwowe, wysokowydajne oraz ujednolicone rozwiązania do obsługi Big Data, zapewniające kompatybilność ze standardem 40 GbE. Dzięki modułom rozszerzającym gwarantowana jest pełna skalowalność, co zapewnia optymalizację kosztów. Współpracują one oczywiście z oprogramowaniem VMware, Microsoft oraz Citrix.
OKIEM KLIENTA
QNAP NAS – niezawodność i wielozadaniowość dla wymagających Współczesny serwer NAS dawno przestał być po prostu magazynem danych – nowoczesne urządzenia z tej kategorii to prawdziwie wielofunkcyjne kombajny, z powodzeniem realizujące zadania i funkcje kojarzone do tej pory z innymi, zdecydowanie droższymi rozwiązaniami. Ta zmiana dokonała się m.in. za sprawą firmy QNAP i jej produktów, które w ostatnich latach stopniowo zwiększały swoje możliwości… i świadomość użytkowników co do tego, jak wykorzystać można nowoczesnego NAS-a. Najnowsze produkty i technologie firmy są tego doskonałym przykładem. GWARANTOWANA NAJWYŻSZA WYDAJNOŚĆ STORAGE Warto wspomnieć tu np. o technologii Qtier, czyli zaawansowanym systemie auto tieringu, który zapewnia automatyczne pozycjonowanie danych poprzez przenoszenie „gorących” (czyli najczęściej używanych) danych do poziomów przestrzeni dyskowej o wyższej wydajności, a „zimnych” danych (które również są kluczowe dla funkcjonowania organizacji, ale używane są rzadziej) do tańszych o większej pojemności. Pozwala to firmom na osiągnięcie w tym samym czasie dużej wydajności dla wymagających aplikacji i niższych kosztów utrzymania dla całej macierzy – dzięki temu, że mogą korzystać w jednym urządzeniu zarówno z ultraszybkich nośników SSD o mniejszej pojemności, jak i najbardziej pojemnych HDD, zapewniających najbardziej korzystny stosunek ceny do pojemności. Za sprawą Qtier użytkownik zwolniony jest z obowiązku planowania tego, jakie dane mają być gdzie przechowywane i zapisywane – wszystko odbywa się automatycznie. PORZĄDEK W SIECI Użytkowników korzystających z zaawansowanych środowisk sieciowych z pewnością zainteresuje rozwiązanie o nazwie QRM+, czyli produkt firmy QNAP do centralnego zarządzania zdalnego. Mogą z niego korzystać zespoły IT z właściwie każdej branży, pracujące z urządzeniami komputerowymi działającymi w sieci. Jest to pojedyncze rozwiązanie umożliwiające wykrywanie, mapowanie i monitorowanie wszystkich kluczowych urządzeń komputerowych w sieci (serwerów, komputerów PC, klientów uproszczonych itp.) oraz zarządzanie nimi. QRM+ ułatwia
o wiele szybsze zarządzanie infrastrukturą IT w skali światowej za pośrednictwem jednego interfejsu. QRM+ oferuje również np. system ciągłego monitorowania zdalnych urządzeń. Wystarczy zainstalować aplikację QRMAgent na urządzeniach z systemami Windows® i Linux®, aby obserwować ich stan w interfejsie zarządzania QRM+ (m.in. użycie procesora, użycie pamięci RAM, użycie dysku twardego, użycie sieci oraz stan zasilania). TAKI POWINIEN BYĆ BACKUP Oczywiście, mimo wysypu nowych zastosowań serwerów NAS, jedną z ich kluczowych funkcji wciąż pozostają rozwiązania związane z backupem i przywracaniem danych. Również tu QNAP zdecydowanie ma się czym pochwalić – firma oferuje bowiem użytkownikom swoich urządzeń jeden z najbardziej zaawansowanych na rynku systemów backupu, oparty na wykorzystaniu migawek (snapshots). Migawki pozwalają serwerowi na rejestrowanie stanu systemu w dowolnym momencie – w razie wystąpienia nieoczekiwanego zdarzenia w systemie można go przywrócić do wcześniejszego stanu zarejestrowanego w migawce. Menadżer pa-
mięci oferuje łatwe w użyciu narzędzie do obsługi migawek dostępne za pośrednictwem przeglądarki internetowej. Dzięki temu można łatwo tworzyć kopie zapasowe danych i przywracać je do dowolnego punktu w czasie (zarówno pojedyncze pliki, jak i cały system). PLATFORMA GOTOWA NA WYZWANIA PRZYSZŁOŚCI Na koniec warto wspomnieć, że nowoczesny QNAP NAS jest właściwie gotową do użytku wszechstronna platformą do wirtualizacji. Produkty QNAP to wysoko wydajne, niezawodne i ekonomiczne rozwiązania pamięci masowej do środowisk wirtualizacji, takich jak VMware® vSphere™, Microsoft® Hyper-V® oraz Citrix® XenServer™, pozwalające użytkownikom biznesowym na łatwe wdrażanie, obsługiwanie i backupowanie maszyn wirtualnych. Umożliwia to nie tylko znacznie zwiększenie zakresu funkcji serwera NAS, ale również maksymalnie korzystne finansowe wykorzystanie firmowych zasobów. Szczegółowe informacje na temat zastosowań biznesowych serwerów QNAP NAS znaleźć można na stronie: https:// www.qnap.com/pl-pl/solution/. n
59
eseller News
DORADCA
Transparentność Transparentn to cel fiskusa sparentność Transpar Transparentność Artur Król
Na świecie zarysowuje się wyraźnie trend, w którym wysiłek rządów, jak również organizacji międzynarodowych skierowany jest na objęcie ścisłym nadzorem finansów firm oraz monitorowanie wywiązywania się ich z obowiązków podatkowych. Polityka fiskalna polskiego rządu, wpisuje się w ten trend. Przykładem tego są zmiany, jakie rząd dotychczas wdrożył i nadal wprowadza w tym obszarze.
G
lobalne trendy ekonomiczne i społeczne stawiają coraz większe wyzwania przed międzynarodowymi organizacjami i państwowymi instytucjami regulującymi zasady prowadzenia działalności gospodarczej. Nie bez znaczenia jest również fakt, że rozwój nowych technologii ułatwia możliwości ukrycia przestępstw w obszarze przestępstw podatkowych. W praktyce biznes odczuwa nakładanie coraz dalej idących obowiązków w zakresie raportowania oraz zwiększenia uprawnień organów kontrolnych. Przykładem jest od niedawna działająca w Polsce Krajowa Administracja Skarbowa, nowy organ z bardzo szerokim spektrum możliwości w zakresie np. kontroli skarbowej (pisaliśmy o tym szerzej w jednym z poprzednich numerów magazynu „Reseller News”). W Polsce, w okresie kilku ostatnich miesięcy, mieliśmy
60
eseller News
Biznes odczuwa nakładanie coraz dalej idących obowiązków w zakresie raportowania oraz zwiększenia uprawnień organów kontrolnych.
też do czynienia z powstaniem nowych uregulowań, tj. JPK (Jednolity Plik Kontrolny), lub planowanych, jak np. elektroniczne paragony czy Centralny Rejestr Faktur. Zaś nałożenie przepisów ograniczających możliwość tzw. agresywnej optymalizacji podatkowej to już fakt. Wprowadzenie wymienionych przedsięwzięć fiskusa w polskim ustawodawstwie wynika m.in. z obserwacji międzynarodowych tendencji. Ich celem jest osiągnięcie możliwie najskuteczniejszej kontroli nad rzetelnością rozliczeń przedsiębiorców ze Skarbem Państwa w jak największym zakresie i tym samym zapewnienie możliwie jak największej transparentności podatnika. Z wyników badań Centrum Analiz Społeczno-Ekonomicznych na wniosek Komisji Europejskiej z 2015 r. wynika, że luka w podatku VAT wynosi w Unii Europejskiej
DORADCA ok. 170 mld euro, a przez same oszustwa transgraniczne dochodzi do utraty dochodów z VAT w wysokości ok. 50 mld euro w ciągu roku. Raport zaprezentowany przez PwC w 2016 r. szacuje lukę podatkową na blisko 45 mld zł. Na tle innych państw Unii Europejskiej polska luka w VAT plasowała się w okolicach średniej. PwC sporządził raport „Transparentność podatkowa” podsumowujący najważniejsze zmiany w legislacji prawnej związanej z podatkami. Oto najważniejsze wnioski wynikające z tego opracowania. JPK –JEDNOLITY PLIK KONTROLNY Jedną z najważniejszych zmian, w zakresie automatyzacji działania organów podatkowych na przestrzeni ostatnich kilku lat, jest wprowadzenie Jednolitego Pliku Kontrolnego – JPK. Instytucja ta, wprowadzona art. 193a Ordynacji podatkowej, nakłada obowiązek składania danych w formie jednolitego pliku. Od 1 lipca 2016 r. obowiązek ten objął dużych graczy rynkowych, a w kolejności pozostałych, czyli średnich, małych i mikro przedsiębiorców – od 1 lipca 2018 r. W raportowaniu JPK_VAT, czyli podatku VAT, obowiązek obejmuje już zarówno duże (od 1 lipca 2016 r.) jak i małe i średnie przedsiębiorstwa (od 1 stycznia 2017 r.). W zakresie wymagań JPK obejmuje: księgi podatkowe oraz inne dokumenty księgowe prowadzone przy użyciu narzędzi informatycznych, przekazywane za pomocą środków komunikacji elektronicznej lub na informatycznym nośniku danych, na żądanie organu podatkowego, w odpowiednim formacie. Celem JPK jest oczywiście ułatwienie fiskusowi porównywania ze sobą różnych zdarzeń gospodarczych w obszarach np. porównania VAT z CIT itp. Co więcej, informacje nie tylko spływają do organów podatkowych szybciej, ale także dają możliwość ograniczenia, zdaniem ustawodawcy, konieczności prowadzenia kontroli u podatników. Dla fiskusa to ograniczenie kosztów kontroli, z kolei podatnicy będą mieli realną korzyść, ponieważ kontrole podatkowe stanowiły czasami spore utrudnienie i realny problem dla wielu firm, potrafiły ciągnąć się przez dłuższy czas. JPK przyniesie korzyści jednocześnie po stronie organu (automatyzacja, szybka i dokładna analiza danych), jak i po stronie podatnika (łatwiejsze przekazywanie dużych ilości danych, szybsza kontrola). Dodajmy jednak, że JPK nakłada na podatników dodatkowe koszty w postaci konieczności dostosowania systemów informatycznych do raportowania w tej właśnie formie.
Wprowadzenie split payment w żaden sposób nie wpływa na ograniczenie prawa do odliczenia VAT. Podatnik zachowuje prawo do dokonania tych odliczeń. POSZERZONY ZAKRES RAPORTOWANIA W ZAKRESIE CEN TRANSFEROWYCH Jedną z najważniejszych zmian, związaną z implementacją zaleceń OECD w ramach programu BEPS kierowanych i zaimplementowanych w polskim systemie podatkowym, są zmiany w polskich ustawach PIT oraz CIT w zakresie cen transferowych. Wprowadzone zmiany nakładają na podatników odpowiedzialność za jakość oraz spójność dokumentacji (obowiązek sporządzania dodatkowych raportów, zwiększenie ilości informacji obligatoryjnie ujawnianych na poziomie krajowym), z drugiej strony wprowadzają odpowiedzialność osobistą za kwestie cen transferowych (konieczne jest złożenie do US podpisanego oświadczenia o kompletnej dokumentacji). Zdaniem ustawodawcy nowe regulacje to wzrost transparentności – poprzez zwiększenie integralności dokumentów, a jednolity format dokumentacji ułatwi organom analizę i dokonywanie porównań, co ma zwiększyć efektywność kontroli. Mechanizm przezroczystości podobny jak w przypadku JPK. Zmiany odnoszą się m.in. do dokumentacji cen transferowych dla transakcji zawieranych z podmiotami powiązanymi.
Dokumentacja ta obejmuje: nd okumentację lokalną (local file), w której podatnik jest zobowiązany do przedstawienia m.in. zestawienia transakcji, wartości transakcji oraz analizy ustalania cen transferowych, nd okumentację globalną (global file), zawiera informacje o całej międzynarodowej grupie kapitałowej i polityce cen transferowych, n r aportowanie według krajów (Country-by-Country lub CbCr), ta regulacja dotyczy największych grup kapitałowych (750 mln euro skonsolidowanych przychodów na poziomie całej grupy kapitałowej) zestawienia obejmującego m.in. wysokości przychodów, zysków, odprowadzonego podatku, ilości pracowników. Dzięki wymianie tych informacji, zgodnie ze wskazówkami OECD organy podatkowe będą mogły skuteczniej wskazać naruszenia przepisów o cenach transferowych oraz typować podmioty, które powinny zostać objęte kontrolą. MECHANIZM PODZIELONEJ PŁATNOŚCI (SPLIT PAYMENT) W PODATKU VAT Działaniem mającym na celu uszczelnienie luki w podatku VAT jest pomysł wprowadzenia tzw. mechanizmu podzielonej płatności (ang. split payment). Ma na celu przeciwdziałanie oszustwom podatkowym poprzez wy-
eliminowanie możliwości przywłaszczenia podatku VAT. W split payment organy podatkowe mogą kontrolować kwotę należnego podatku VAT już na etapie samej transakcji, 61
eseller News
DORADCA od chwili dokonania płatności przez nabywcę. Dzieje się to poprzez uzyskanie wglądu do dokonywanych przez podatników płatności poprzez konta VAT, na których transakcje rejestrowane są w czasie rzeczywistym. Dlatego system ten znajduje zastosowanie wyłącznie w przypadku płatności, które dokonywane są za pomocą elektronicznych środków płatności (tj. przelew bankowy lub płatność kartą). Należy dodać, że wprowadzenie tej regulacji stanowi przykład bardzo szerokiego zakresu uprawnień przyznanych organom podatkowym w kwestii nadzoru nad rozliczeniami podatników. Uprawnienia organów nie ograniczają się tutaj tylko do kwestii związanych z gromadzeniem szczegółowych danych na temat podatników, ale w praktyce rozciągają się także na możliwość przejęcia przez organy części funkcji dotyczących już bezpośrednio samych rozliczeń. Działanie split payment to podzielenie kwoty brutto na dwa oddzielne strumienie płatności. Kwota netto zostaje wypłacona do sprzedawcy, natomiast kwota podatku jest przekazywana bezpośrednio na specjalny rachunek bankowy, tzw. konto VAT. Konto VAT to indywidualny rachunek bankowy, utworzony dla każdego płatnika tego podatku. Środkami, które zostały zgromadzone na koncie VAT nie można dowolnie dysponować. Konto jest wykorzystywane wyłącznie do celów zapłaty tego podatku na rzecz innego podatnika. Jak wcześniej zostało zauważone, organy podatkowe będą mieć możliwość stałego monitorowania dokonywanych płatności, a także możliwość ich blokowania. Wprowadzenie split payment w żaden sposób nie wpływa na ograniczenie prawa do odliczenia VAT. Podatnik zachowuje prawo do dokonania tych odliczeń. ODPOWIEDZIALNOŚĆ SOLIDARNA ZA ZOBOWIĄZANIA PODATKOWE 1 stycznia 2017 r. weszła w życie ustawa z 1 grudnia 2016 r. o zmianie ustawy o VAT. Jedną z najbardziej istotnych i zarazem kontrowersyjnych zmian jest zmodyfikowanie zakresu odpowiedzialności solidarnej nabywców za zaległości podatkowe firm dokonujących dostawy towarów. Wprowadzono dodatkowy warunek, który należy spełnić, aby zostać zwolnionym od odpowiedzialności. Warunkiem tym jest dokonanie przez nabywcę zapłaty za zakupywane towary na rachunek bankowy sprzedawcy, który został wskazany w zgłoszeniu identyfikacyjnym. Regulacja ta jest de facto podwójnym monitorowaniem: z jednej strony 62
eseller News
nadzór sprawowany jest przez organy podatkowe, z drugiej – to na samych podatnikach spoczywa obowiązek monitorowania swoich kontrahentów, celem sprawdzenia, czy dochowali należytej staranności uwolnienia się od odpowiedzialności za zobowiązania podatkowe swojego kontrahenta. Ograny podatkowe wymuszają w ten sposób konieczność gromadzenia jak największej ilości informacji o partnerach handlowych. Znajduje to odzwierciedlenie w najlepiej pojętym interesie podatników, ale z drugiej strony wiążę się z dodatkowymi obciążeniami i nakładem pracy, który fiskus przerzuca w ten sposób na płatników.
Obecnie wymiar kar za fałszowanie faktur jest znacznie ostrzejszy. Najsurowszą jest kara pozbawienia wolności od 5 do 25 lat. NAWET 25 LAT ZA WYSTAWIANIE FAŁSZYWYCH FAKTUR Od 1 marca 2017 r. obowiązuje nowelizacja ustawy z 10 lutego 2017 r. o zmianie ustawy „Kodeks karny oraz niektórych innych ustaw”. Ustawa nowelizująca KK wprowadza nową kategorię przestępstwa, polegającego m. in. na wystawianiu fałszywych faktur VAT. Zaostrzenie sankcji karnych za fałszywe faktury VAT ma na celu eliminowanie tego procederu, z drugiej zaś strony omawiane regulacje mają zwiększyć przejrzystość dokumentowania wymiany handlowej dla potrzeb fiskusa. Fałszowanie faktur VAT było do 1 marca br. traktowane jako fałszowanie dokumentów (art. 270), za co groziła kara grzywny albo kara ograniczenia lub pozbawienia wolności od 3 miesięcy do 5 lat. Obecnie wymiar kar jest znacznie ostrzejszy. Najsurowszą jest kara pozbawienia wolności od 5 do 25 lat. Dotyczy ona przypadków, w których wartość sfałszowanych faktur VAT przekroczyła wartość 5 mln zł (art. 277a.). Jednak w tym konkretnym
przypadku Kodeks przewiduje również możliwość skazania na maksymalnie 5 lat pozbawienia wolności, jeśli przestępstwo o tym charakterze miało mniejszą wagę. Kara 25 lat więzienia dotyczy najbardziej skrajnych przypadków przestępstw. Co istotne, skala maleje wraz ze skalą przestępstwa. Nie oznacza to jednak, że wyłudzający podatek VAT na mniejszą wartość niż 5 mln zł są bezkarni. Kodeks karny przewiduje kary niemal dla każdego przypadku oszustwa w tym zakresie. ILE TO MA KOSZTOWAĆ? MOŻE BYĆ DROGO Wymagania stawiane obecnie podatnikom dotyczą m.in. obowiązków sprawozdawczych. Powodują one także wzrost kosztów po ich stronie. Przykład? Obowiązki związane z wprowadzeniem instytucji Jednolitego Pliku Kontrolnego (JPK). Ustawodawca nałożył na podatników obowiązek raportowania w formacie JPK. Jednocześnie ten przymus generuje dodatkowe nakłady pracy w celu wypełniania wymogów w szczegółowości gromadzenia koniecznych danych. Co więcej, wprowadzenie JPK wiąże się z obciążeniami natury finansowej, ponieważ niesie za sobą konieczność zadbania o dostosowanie systemów księgowych do JPK. Obowiązki w zakresie JPK będą wiązały się z dalej posuniętą ingerencją w zakresie sprawozdawczości finansowej. Wtedy konieczne są zmiany dotychczasowych zasad prowadzenia ksiąg, a nawet sposobu dokumentowania transakcji handlowych. Innym przykładem są obciążenia wynikające ze zmian w zakresie sporządzania dokumentacji cen transferowych. Ponieważ niosą za sobą obowiązek poszerzenia zakresu informacji przekazywanych organom, do obciążeń z tego tytułu zaliczyć będzie można konieczność przygotowywania kosztownych oraz czasochłonnych, szczegółowych analiz porównawczych. Jedna uwaga. Opracowanie dokumentacji w zdecydowanej większości przypadków może nie być możliwe w ramach posiadanych zasobów kadrowych. Może wymagać zaangażowania wyspecjalizowanych firm zewnętrznych. Naturalną konsekwencją zaistnienia opisywanych sytuacji będzie generowanie dodatkowych kosztów prowadzenia działalności gospodarczej – związanych z kosztami obsługi nowych systemów księgowych, przystosowanych do wymogów JPK, a z drugiej może się wiązać także z koniecznością zatrudniania dodatkowych zasobów ludzkich. Tak więc przygotujmy się na koszty. n
V EDYCJA
GŁOSUJ NA SWOICH
NA SWOICH KANDYDATÓW Złote ASY IT wręczymy m.in. w kategoriach PRODUCENT n DYSTRYBUTOR n VALUE ADDED DISTRIBUTOR n PROGRAM PARTNERSKI n SZEF KANAŁU PARTNERSKIEGO n DEBIUT ROKU n HANDLOWIEC ROKU n CHMURA ROKU n SZKOLENIE ROKU n INNOWACYJNA FIRMA n WYDARZENIE ROKU n OSOBOWOŚĆ ROKU n
Ogłoszenie wyników plebiscytu podczas Wieczoru Asów IT w połowie października 2017 r. Więcej informacji na portalu www.resellernews.pl
DZIĘKUJEMY, ŻE JESTEŚ Z NAMI
NAJLEPSZE ŹRÓDŁO INFORMACJI O RYNKU IT
PONAD 80.000 TYS. ODBIORCÓW 1 MILION ODSŁON MIESIĘCZNIE
RESELLERNEWS.PL REDAKCJAARESELLERNEWS.PL