DEBATA: 4K – rewolucja w obrazie s. 20–22
ISSN 1730-010X
NR 17-18 (257-258) 2014
MAMY MNÓSTWO POMYSŁÓW Doug Hazelman o strategii produktowej Veeam
POWERING
THE CLOUD 2014 Wielkie porządki w data center
SPRZĘT NAPRAWDĘ OSOBISTY Co noszą fani nowych technologii
MDM WALCZY Z MOBILNYM CHAOSEM
Prezentujemy systemy do zarządzania mobilną flotą
DYSKI SSD
Coś dla miłośników zawrotnych prędkości
W numerze: » WYDARZENIA
Czas dla rodziny
Powering the Cloud................................4 Wojciech Urbanek
L
udzie związani z branżą IT nie mogą narzekać na brak zajęć. Ostatnie lata przyniosły mnóstwo zmian, ale to jeszcze nie koniec emocji. Innowacyjne technologie, nowe modele usługowe, a także zmasowana ofensywa start-upów sprawiają, że nikt nie może dziś spać spokojnie. W rezultacie żyjemy pod ciągłą presją, w nieustannym stresie. Jeden z moich pierwszych szefów tłumaczył mi, że to konieczne. Oddech konkurenta na plecach uruchamia w nas nowe pokłady energii, stajemy się bardziej kreatywni. Z jednej strony trudno się z tym nie zgodzić, ale z drugiej dajemy się wciągnąć w szaleńczy wyścig, który kosztuje nas wiele sił. Podaj swoją cenę albo wciśnij „kup teraz”. Jednorazowy świat na plastikowych talerzach. Wszystko USB, HDMI, czy jeszcze umiemy się cieszyć? Za rok, dwa to wszystko pójdzie na śmieci. Ten krótki fragment, pochodzący z jednego z moich ulubionych kawałków muzycznych, stanowi idealną diagnozę współczesnego świata. Czy możemy od niego uciec? To mało prawdopodobne, bowiem zaszliśmy już zbyt daleko. Ale możemy od niego przynajmniej odpocząć. Zbliżające się święta są ku temu doskonałą okazją – zapomnijmy przez chwilę o konkurentach, biznesplanach, niedobrym szefie i smartfonach. Poświęćmy ten czas wyłącznie naszym najbliższym, usiądźmy przy wigilijnym stole i podzielmy się opłatkiem. W oczekiwaniu na zbliżające się święta Bożego Narodzenia i Nowy Rok z nadzieją spoglądajmy w przyszłość.
EMC przedefiniuje IT i biznes..................6 Eptimo wchodzi do gry...........................6 HP o walce z cyberprzestępczością........8 Wojciech Urbanek
» WYWIAD
Klienci nas lubią...................................10 Z Dougiem Hazelmanem rozmawiał Wojciech Urbanek
»K OSZTY IT POD KONTROLĄ
Efektywne drukowanie.........................12 Marcin Złoch
SSD – liczy się tylko szybkość...............15 Andrzej Janikowski
Biznes w dobie MOBILE!........................18 Oszczędność z szafy..............................19 Marcin Złoch
Chmura dla rozsądnych........................21 Krzysztof Polak
» MARKETING
Twitter w rękach marketerów..............24 Krzysztof Polak
» TECHNOLOGIE
Gwarancje zasilania..............................28 Krzysztof Polak
Wojciech Urbanek, redaktor naczelny
Systemy UPS na fali wznoszącej...........20 Z Adamem Przasnyskim rozmawiał Krzysztof Polak
Ultra HD – piękno tkwi w szczegółach....30 Wojciech Urbanek
Drodzy Czytelnicy, życzymy Wam zdrowia, pogody ducha i spokojnych spotkań w gronie najbliższych, zaś w 2015 roku spełnienia wszystkich marzeń, więcej czasu dla rodziny i radości z wykonywanej pracy.
» DEBATA
4K – rewolucja w obrazie.....................33 Debatę prowadził Mieczysław T. Starkowski
» TECHNOLOGIE
MDM walczy z mobilnym chaosem.......37 Zespół Redakcyjny
Artur Król
» AKADEMIA RRC
Nowe narzędzia wideo do współpracy biznesowej....................40 » WYWIAD
Pomagają nam nowe trendy.................42 Z Krzysztofem Hałgasem rozmawiał Wojciech Urbanek
» RYNEK
Wszystkim będzie dobrze.....................44 WYDAWCA: iTR Spółka z o.o., ul. Tytoniowa 20, 04-228 Warszawa, www.itreseller.pl q REDAKCJA: ul. Łukowska 1 lok. 147, 04-133 Warszawa, redakcja@itreseller.pl q REDAKTOR NACZELNY: Wojciech Urbanek, tel. 691 672 065, w.urbanek@itreseller.pl q ZESPÓŁ REDAKCYJNY: Artur Król, a.krol@itreseller.pl • Krzysztof Polak, k.polak@itreseller.pl • Mieczysław T. Starkowski, m.starkowski@itreseller.pl • Michał Tomaszkiewicz, m.tomaszkiewicz@itreseller.pl • Marcin Złoch, m.zloch@itreseller.pl q WSPÓŁPRACA: Ewa Cesarz-Marcinkowska, e.cesarz@itreseller.pl • Lech Maciejewski, l.maciejewski@itreseller.pl q OPRACOWANIE GRAFICZNE: IDEAPRESS, Anna Skowrońska, tel. 605 121 288, as@ideapress.pl q FOTOGRAFIE: shutterstock.com, archiwum iT Reseller q KOREKTA: Krystyna Koziorowska q REKLAMA i MARKETING: Anna Jelińska – dyrektor biura reklamy, tel. 502 707 699, a.jelinska@itreseller.pl • Elżbieta Lewicka-Duch – dyrektor marketingu, reklama, tel. 502 707 724, e.lewicka@itreseller.pl q REDAKTOR NACZELNY ONLINE: Michał Tomaszkiewicz, m.tomaszkiewicz@itreseller.pl NAKŁAD: 9000 egzemplarzy q DYSTRYBUCJA: AB.pl • ABC DATA • Tech Data
Andrzej Janikowski
Nowe okna. Strzał w dziesiątkę?..........46 Mieczysław T. Starkowski
Sprzęt naprawdę osobisty....................48 Mieczysław T. Starkowski
» NIE TYLKO O IT
mówi Piotr Krzysztoporski....................50 OKŁADKA: Doug Hazelman, fot.: archiwum Veeam
» WYDARZENIA
Bob Plumridge HDS opowiada o zaletach pamięci obiektowej
Powering the Cloud, czyli porządki w centrum danych Wojciech Urbanek
Powering the Cloud to cykliczna impreza goszcząca firmy z branży sieciowej, pamięci masowych oraz wirtualizacji. W tym roku do Frankfurtu przyjechało 126 wystawców, a motywem przewodnim spotkania była przyszłość centrów danych.
4
iT Reseller
R
ewolucja zachodząca w świecie IT ma różne oblicza. To najbardziej efektowne jest utożsamiane z efektownymi smartfonami, Facebookiem czy Instagramem. Ale nie mniej ważne zmiany zachodzą w centrach danych. Choć metalowe skrzynki, prezentowane przez wystawców podczas Powering the Cloud, wyglądały niepozornie, to ich ogromne możliwości wzbudzają podziw. Co ciekawe, ich dostawcami, podobnie jak oprogramowania, coraz częściej są młode firmy zza wielkiej wody. Oprócz uznanych producentów, takich jak IBM, Hitachi Data Systems, NetApp, Eaton, Riverbed, SAP czy Samsung, we Frankfurcie pojawiło się co najmniej kilku interesujących graczy reprezentujących nową falę IT. Takie firmy, jak Nutanix, Zadara Storage, Solid Fire czy Veeam, coraz bardziej dokuczają zasiedziałym vendorom.
Pamięci masowe – nowe technologie i modele sprzedaży Jednym ze stałych uczestników imprezy Powering the Cloud jest SNIA (Storage Networking Industry Association), organizacja typu non profit, zajmująca się opracowywaniem standardów, specyfikacji, a także rozwojem technologii pamięci masowych oraz edukacją użytkowników. W ostatnim czasie około 80 procent prac SNIA skupia się na trzech obszarach: środowisku chmury, rozwiązaniach flash oraz obiektowej pamięci masowej. O zaletach tej ostatniej technologii opowiadali m.in. Bob Plumridge
z HDS oraz Molly Spector z DataDirect Networks. Obiektowa pamięć masowa stanowi panaceum na bolączki związane z przechowywaniem danych niestrukturyzowanych w dużych archiwach, repozytoriach multimediów czy internetowych magazynach danych. Na czym polega wyjątkowość tego rozwiązania? System traktuje dane jako obiekty zawierające konkretne wartości, a nie jako zasoby identyfikowane na podstawie lokalizacji plików czy bloków danych. Obiekt można zidentyfikować na podstawie unikalnego cyfrowego znacznika, służącego do odnajdywania informacji oraz kontroli integralności danych. Specjalistami w dziedzinie systemów pamięci masowych są tacy producenci, jak Cleversafe, DataDirect Networks czy Amplidata. Ale również starzy znajomi z rynku pamięci masowych nie zasypiają gruszek w popiele, czego najlepszym przykładem jest Hitachi Content Platform. Branża IT musi uporać się nie tylko z rosnącą ilością danych, ale także ich przetwarzaniem. – W ostatnim czasie mamy do czynienia ze wzrostem zapotrzebowania na pamięci masowe, niemniej sprzedaż nośników flash rośnie zdecydowanie szybciej aniżeli dysków twardych. Biznes używa coraz więcej aplikacji, wymagających szybkiego czasu dostępu, a takowy zapewniają dyski flash. Od strony technologicznej jesteśmy gotowi zaoferować klientom różne opcje SLC, MLC czy RRAM, topnieją także ceny pamięci flash. Mimo to nie wierzę, że w najbliższych kilku latach nastąpi dominr 17-18 (256-257) • grudzień 2014
Powering the Cloud to mnóstwo interesujących sesji. Specjaliści od sieci, wirtualizacji oraz pamięci masowych chętnie odwiedzają Frankfurt
nacja systemów all-flash. Większość firm postawi na rozwiązania hybrydowe – mówi Bob Plumridge. Odmienne zdanie na ten temat mają przedstawiciele SolidFire. To jeden z amerykańskich start-upów specjalizujących się w opracowywaniu czystych macierzy SSD. Podczas Powering the Cloud firma przedstawiła możliwości nowego systemu SF9010. Może on być skalowalny do 100 węzłów, co pozwala uzyskać całkowitą pojemność 3,4 PB. SolidFire zapewnia, że cena GB pamięci nie przekroczy trzech dolarów. Z kolei Samsung duże nadzieje pokłada w pamięciach 3D V-NAND flash. To nowa technologia, pozwalającą obniżyć koszty produkcji dysków SSD. Standardowo komórki pamięci są rozmieszczane na waflu krzemowym obok siebie. Samsung opracował wielowarstwowe komórki V-NAND, dzięki czemu przy wykorzystaniu tej samej powierzchni krzemu można upakować więcej pamięci. – To rozwiązanie przynosi określone korzyści. W porównaniu z pamięcią 20 nm wykonaną w tradycyjnej technologii V-NAND zapewnia dwa razy większą gęstość upakowania elementów, o połowę mniejsze zużycie energii oraz 10 razy większą wytrzymałość – zapewniał Tomas Arenz z Samsunga. Poza innowacyjnymi technologiami dostawcy poszukują oryginalnych modeli sprzedaży. Nowatorskie podejście prezentuje firma Zadara Storage, oferując usługę OPaaS (On-Premise as a Service). Co to oznacza dla klienta? Usługobiorca otrzymuje macierz NAS lub SAN, nie nr 17-18 (256-257) • grudzień 2014
ponosząc żadnych kosztów inwestycyjnych. System może znajdować się w siedzibie nabywcy lub serwerowni providera. Zadara Storage zarządza urządzeniem, zaś użytkownik płaci wyłącznie za ilość przechowywanych danych. Na pierwszy rzut oka OPaaS kojarzy się z leasingiem, ale istnieją pewne różnice. Klient musi podpisać umowę na minimum sześć miesięcy, a jeśli współpraca obejmuje dłuższy okres, Zadara Storage zobowiązuje się zmodernizować system, nie obarczając przy tym kosztami usługobiorcy. – Nasza oferta jest wyjątkowa. Firma płaci tylko za ilość przechowywanych danych, tak jak w przypadku usług Amazona. Z tą różnicą, że ma dostęp do nowoczesnych funkcji, takich jak snapshot, thin provisioning, replikacja, możliwość tworzenia klastrów – tłumaczy Noam Shendar z Zadara Storage. Firma poszukuje partnerów w Polsce. – Chcemy współpracować maksymalnie z dwoma partnerami, tak aby zapewnić im swobodę działania. Oferujemy prowizję 25 procent miesięcznie, a także marże za dostarczony klientowi sprzęt – dodaje Shendar.
W kierunku konwergencji Wielkie koncerny IT już od jakiegoś czasu próbują uporządkować centra danych. Narodziło się kilka ciekawych koncepcji, powstały też konwergentne platformy opracowane przez IBM, HP czy VCE. Ale na fali zmian próbują płynąć również nowi gracze. W ostatnim czasie wiele mówi się o firmie Nutanix. To ame-
rykański start-up, promujący koncepcję konwergencji opierającej się na liniowej rozbudowie infrastruktury. Dodawanie kolejnych serwerów x86 zwiększa moc obliczeniową systemu oraz powierzchnię dyskową. W bieżącym roku firma opracowała dwa produkty – X-8150 oraz NX-9000. Pierwszy z nich został zaprojektowany pod kątem obsługi wymagających aplikacji i systemów, takich jak Microsoft SQL Server, Microsoft Exchange, Microsoft SharePoint oraz baz danych Oracle i SAP. Pojedynczy system Nutanix NX-8150, mieszczący się w racku 2U, obsługuje do 3500 pocztowych skrzynek Exchange. Natomiast NX-9000 jest hiperkonwergentną platformą bazującą wyłącznie na dyskach flash. – Nutanix stawia na prostotę zarządzania i uruchamiania systemów. Atutem naszych rozwiązań jest bardzo przyjazny interfejs do zarządzania serwerami, a także łatwość rozbudowy, liczona w minutach – tłumaczy Reinhard Frie z Nutanix. Zmiany w centrach danych nie byłyby możliwe bez rozwoju standardów 10GbE czy 40Gbe. W jakim tempie postępuje ich adaptacja? Odpowiedź na to pytanie przynoszą wyniki badań przeprowadzonych przez firmę Emulex wśród 1600 specjalistów IT ze Stanów Zjednoczonych oraz Europy – 23 procent respondentów korzysta we własnych centrach danych z protokołu 10GbE, 7 procent wdrożyło 40GbE, zaś 3,5 procent posiada 100GbE. Swojego rodzaju ciekawostką jest fakt, iż 63 procent uczestników badania planuje w ciągu najbliższych 12–24 miesięcy wprowadzenie 25GbE. To protokół, który nie doczekał się oficjalnej ratyfikacji, niemniej ma już wielu zwolenników. – Niedawno dołączyliśmy do 25GbE Consortium, ponieważ nowy standard pozwala zwiększyć wydajność centrów danych. Serwery wyposażone w najnowsze procesory Intel Xeon wymagają wysokich przepustowości. W centrach danych pracuje coraz więcej pamięci flash. Nowy standard otwiera też nowe możliwości w zakresie konfiguracji sprzętu sieciowego – wyjaśnia Shaun Walsh z firmy Emulex. Rywalizacja w świecie IT coraz bardziej się zaostrza. Oprócz nowych technologii pojawiają się szerzej nieznani gracze z innowacyjnymi koncepcjami, co dobrze wróży przyszłości rynku. To dobra wiadomość dla dystrybutorów oraz integratorów, którzy będą mogli rozszerzyć swoje portfolio. w iT Reseller
5
» WYDARZENIA
EMC przedefiniuje IT i biznes Tegoroczne EMC Forum, odbywające się w warszawskim hotelu Hilton, zgromadziło 900 uczestników. Motywem przewodnim spotkania było hasło „Przedefiniuj IT i biznes”.
Z
Mohammed Amin przedstawia nową strategię EMC.
miany w świecie IT zachodzą w błyskawicznym tempie. Pojawiają się innowacyjne koncepcje, produkty czy modele sprzedaży. Jak przystosować się do nowych realiów? Na to pytanie próbowano odpowiedzieć podczas licznych sesji oraz wystąpień plenarnych. Jednym z najważniejszych gości tegorocznego forum był Mohammed Amin, Senior Vice President i szef regionu Europy Wschodniej, Bliskiego Wschodu, Turcji i Afryki, EMC, który przedstawił rolę EMC w procesie transformacji. Menedżer zwrócił uwagę na dynamiczne zmiany zachodzące na rynku nowych technologii. To okazja dla EMC, które zamierza łączyć stary i nowy świat IT. W tym celu firma stworzyła federację, składającą się z czterech podmio-
tów: EMC Infrastructure and Information Business – jednostka określana jako EMC II, a także VMware, RSA i Pivotal. EMC jasno pokazało kierunki, w jakich rozwija się IT. Prezentacje technologii, tj. Enterprise Hybrid Cloud, Elastic Cloud Storage, Isilon, ScaleIO, ViPR, ViPR SRM, ExtremeIO wskazało, że EMC profesjonalnie zajmuje się zarządzaniem informacją. Z punktu widzenia dystrybutora konferencję uważam za bardzo udaną: wymiana wiedzy inżynierskiej, na prezentacjach – technologiczna esencja, do tego możliwość spotkania z wieloma partnerami biznesowymi EMC – mówi Wojciech Sawicki z S4e. Firma przeprowadziła również badania wśród uczestników konferencji, pytając
Józef Szajter
Eptimo wchodzi do gry
ich o opinię na temat informatyki jako czynnika umożliwiającego transformację biznesu w epoce takich trendów, jak chmura, technologie mobilne i społecznościowe oraz wielkie zbiory danych. Badanie EMC Forum pokazało, że w Polsce dział IT jest obecnie postrzegany jako strategiczny czynnik umożliwiający rozwój biznesu i lepszy kontakt z klientami. Respondenci dostrzegają wpływ technologii na opracowywanie nowych produktów i usług (43 proc.) i poprawę obsługi klienta (38 proc.). Firmy przenoszą coraz więcej rozwiązań do chmury, aż 54 procent respondentów już korzysta z usług chmurowych, natomiast 14 procent z technologii chmury hybrydowej. w
Eptimo to nowy dystrybutor zaawansowanych rozwiązań do budowy infrastruktury IT na polskim rynku. Firma zajmuje się dystrybucją rozwiązań sieciowych, serwerowych, pamięci masowych, zasilania awaryjnego oraz oprogramowania.
P
rzedsiębiorstwo zarządzane jest przez Józefa Szajtera (CEO) oraz Przemysława Kucharzewskiego (COO), którzy legitymują się dużym doświadczeniem w branży IT. Nowy dystrybutor zatrudnia obecnie ponad 20 osób, choć jak przyznają szefowie firmy, wciąż prowadzi proces rekrutacji. Eptimo zamierza wypracować roczny przychód w wysokości 150 milionów złotych. Dystrybutor liczy m.in. na nowe kontrakty dystrybucyjne z niszowymi dostawcami, którzy odnoszą sukcesy na rynkach światowych, ale nie są jeszcze zbyt dobrze znani w Polsce. Obecnie na liście partnerów Eptimo znajdują się m.in. ZTE, Legrand, Nexsan, Rhino, ZPAS Group. Eptimo pokłada duże nadzieje w sprzedaży rozwiązań sieciowych oraz rozwiązań do monitoringu i wideokonferencji chińskiego
6
iT Reseller
producenta ZTE. Na uwagę zasługuje także wprowadzanie na polski rynek pełnej oferty do budowy data center: systemów zasilania gwarantowanego UPS firmy Legrand. Na początku przyszłego roku firma planuje Road Show, które odbędzie się w największych miastach Polski – Warszawie, Krakowie, Poznaniu, Katowicach, Gdańsku. Ponadto Eptimo w pierwszym kwartale otworzy centra szkoleniowe w Katowicach i Wrocławiu, a następnie w Warszawie. – Nie można sprzedawać technologii bez wiedzy. W naszych centrach szkoleniowych partnerzy będą mieli kontakt ze sprzętem, oprogramowaniem. Uzyskają możliwość praktycznego sprawdzenia funkcjonowania poszczególnych rozwiązań – mówił Przemysław Kucharzewski. w nr 17-18 (256-257) • grudzień 2014
» WYDARZENIA
Jak przechytrzyć coraz bardziej zuchwałych cyberprzestępców? HP przedstawiło swoją wizję podczas spotkania z dziennikarzami w hotelu Conrad London St. James. Specjaliści od bezpieczeństwa w HP wypowiadają wojnę hakerom
HP o walce z cyberprzestępczością Wojciech Urbanek
C 12,7
mln dolarów wynoszą średnioroczne koszty, które ponosi przeciętna organizacja w wyniku ataku hakerów. Na przestrzeni ostatnich czterech lat wzrosły one o 96 proc. – informuje Ponemon Institute. Ale to niejedyna zła informacja, która pojawiła się w najnowszym raporcie na temat bezpieczeństwa, sporządzonym na zlecenie HP. 8
iT Reseller
hoć laboratoria badawczo-rozwojowe producentów systemów bezpieczeństwa pracują całą parą, nikomu nie udało się opracować złotego środka. Tak naprawdę jest to misja niewykonalna, bowiem walka z cyberprzestępcami nie ogranicza się jedynie do stosowania narzędzi. Art Gilliland z HP podkreślił, że skuteczna walka z hakerami wymaga połączenia nowoczesnych produktów, technologii wraz z odpowiednim przygotowaniem ludzi. – Nie ma takiej kwoty, która zapewniałaby całkowitą ochronę organizacji przed zaawansowanymi cyberatakami. Jednak poprawa zdolności oraz priorytetów w zakresie obrony może rozbić działania przeciwnika. Takie narzędzia wywiadowcze, jak chociażby SIEM, chronią przed atakiem i pozwalają zoptymalizować wydatki – mówił Gilliland. Oczywiście to tylko jeden z elementów układanki. Według HP ochrona zasobów cyfrowych przedsiębiorstwa powinna skupiać się na pięciu podstawowych filarach: v powstrzymaniu przeciwnika v szukaniu i usuwaniu przeciwników v zabezpieczeniu aktywów firmowych v łagodzeniu skutków włamań v edukacji użytkowników. Ewolucja na rynku IT nie pozostaje bez wpływu na ofertę producentów systemów bezpieczeństwa. Wielu pracowników łączy się z firmową siecią, rośnie popularność cloud computingu. HP dysponuje bogatym arsenałem środków pozwalających zmagać się z cyberprzestępcami na różnych płaszczyznach. I tak w wypadku sieci następnej generacji są to TippingPoint Next-Generation Intrusion Prevention System, TippingPoint Next-Generation Firewall. Rozwią-
zanie Fortify Software pozwala na analizę, ochronę i wyszukiwanie luk bezpieczeństwa w aplikacjach. Kolejną grupę tworzą produkty ArcSight, Vertica, Threat Central odpowiedzialne za zbieranie oraz analizowanie i usuwanie złośliwych robaków. Natomiast Autonomy Idol, ArcSight, Atalia są określane jako systemy zabezpieczające najważniejsze aktywa organizacji.
Połączone siły
W myśl sprawdzonej taktyki – jeśli nie możesz pokonać przeciwnika, przyłącz się do niego – HP próbuje przeciągnąć na swoją stronę przedstawicieli ciemnej strony mocy. Już od 2005 roku działa program HP Zero Day Initiative, w ramach którego producent oferuje hakerom wynagrodzenie w zamian za wskazanie dziur w oprogramowaniu. Firma od początku istnienia programu wydała na ten cel 10 mln dolarów. Jakob West z HP podczas swojego wystąpienia dużo miejsca poświęcił rozwiązaniu Threat Central. To pierwsza w branży platforma służąca do analizy zagrożeń bezpieczeństwa tworzona przez społeczność specjalistów. Źródłem danych są HP Security Research, systemy open source, a także użytkowników indywidualnych, sektorów gospodarki itp. W ramach Threat Central firma współpracuje z takimi partnerami, jak Trend Micro, InQuest, Arbor Networks czy BlueCoat. Platforma jest bezpośrednio zintegrowana z ArcSight oraz Tipping Point. – Współpraca w ramach różnych społeczności, a także samych producentów jest jedną z najskuteczniejszych metod w walce Razem możemy osiągnąć znacznie więcej – mówił. Nie jest to odosobniona opinia w branży, w podobnym tonie wypowiadają się m.in. przedstawiciele firmy Symantec. w nr 17-18 (256-257) • grudzień 2014
» PREMIERY
2 1
EMC Enterprise Hybrid Cloud Wiele firm coraz częściej myśli o migracji do chmury. Jak wynika z wielu badań, biznes preferuje chmurę hybrydową, łączącą najlepsze cechy chmury prywatnej i publicznej. Hybrid umożliwia firmom stosowanie jednego z modeli w zależności od zmieniających się warunków. Naprzeciw ich oczekiwaniom wychodzi nowe rozwiązanie EMC Enterprise Hybrid Cloud. System stanowi połączenie sprzętu, oprogramowania i usług firm EMC i VMware. Producent zapewnia, że rozwiązanie umożliwia wdrożenie modelu usługowego IT na żądanie w 28 dni. W 2015 roku EMC planuje wprowadzić na rynek rozwiązanie EMC Enterprise Hybrid Cloud oparte na platformie firmy Microsoft oraz na technologii OpenStack. Rozwiązanie EMC dla platformy Microsoft Cloud zostanie zaprojektowane tak, aby umożliwić klientom integrację wdrożonych już w formie instalacji fizycznej rozwiązań pamięci masowej EMC i infrastruktury Windows Server Hyper-V z platformą Microsoft Azure. Producent nie ukrywa, iż wdrożenie EMC Enterprise Hybrid Cloud wiąże się z niemałym wydatkiem, na który będą mogli sobie pozwolić jedynie klienci korporacyjni. w
3
nr 17-18 (256-257) • grudzień 2014
Synology DiskStation DS1515+ i DS1815+ Lawinowy przyrost danych sprawia, że małe i średnie firmy poszukują uniwersalnych i wydajnych pamięci masowych. Dużą popularnością w tej grupie odbiorców cieszą się produkty Synology. Producent wprowadził na rynek dwa urządzenia DiskStation DS1515+ i DS1815+. To 5-kieszeniowe i 8-kieszeniowe serwery NAS. Są one wyposażone w czterordzeniowy procesor Intel Atom C2000 2.4 GHz z szyfrowaniem oraz pamięć RAM rozszerzalną do 6 GB. Cztery gigabitowe porty LAN zapewniają prędkość zapisu przekraczającą 410 MB/s dla DS1815+ i 390 MB/s dla DS1515+ oraz prędkość odczytu przekraczającą 450 MB/s. DS1515+ i DS1815+ można rozbudować odpowiednio do 90 i 108 TB natywnej pojemności za pomocą jednostek rozszerzających DX513. DS1515+ i DS1815+ działają z DiskStation Manager (DSM), systemem operacyjnym urządzeń NAS. Szeroki zakres zastosowań – od backupu po zarządzanie siecią – sprawia, że obydwa modele wpisują się w potrzeby wielu małych i średnich firm. w
EIZO ColorEdge CG318-4K Technologia 4K zyskuje rosnącą popularność. Na rynku zaczyna pojawiać się coraz więcej monitorów pracujących w rozdzielczości 4096 × 2160. Jednym z najnowszych przedstawicieli jest EIZO ColorEdge CG318-4K. To idealna zabawka dla fanów wysokich rozdzielczości oraz narzędzie pracy dla profesjonalistów z dziedziny fotografii i druku, którzy docenią możliwości monitora o wysokiej rozdzielczości i gęstości pikseli. Monitor posiada kąt widzenia 178°, zaś jego współczynnik kontrastu wynosi 1500:1, co pozwala na zachowanie głębi ciemnych tonów przy patrzeniu na ekran z boku. Monitor wyposażono w dwa wejścia DisplayPort (1.2) oraz dwa złącza HDMI. Wejścia DisplayPort obsługują natywną rozdzielczość 4096 × 2160 z częstotliwością odświeżania 60 Hz, a wejścia HDMI z częstotliwością odświeżania 30 Hz. w
iT Reseller
9
» WYWIAD KOSZTY IT POD KONTROLĄ
Klienci nas lubią Z Dougiem Hazelmanem, wiceprezesem ds. strategii produktowej Veeam, rozmawiał Wojciech Urbanek
W 2013 roku przychody Veeam wzrosły o 57 procent. Czy w bieżącym powtórzycie ten wynik? Wiadomo, że na początku rośnie się bardzo szybko – młode firmy chwalą się przyrostami rzędu 100 czy nawet 300 procent. Potem jednak procenty szybko maleją, a utrzymanie tego typu wyników w dłuższej perspektywie czasu jest niemożliwe. Veeam nie stanowi pod tym względem żadnego wyjątku. Spodziewamy się, że bieżący rok przyniesie nam 40–50-procentowy przyrost przychodów ze sprzedaży. Dla nas najważniejszy jest fakt, że odnotowujemy dwucyfrowe wzrosty. Co ważne, większość wpływów pochodzi ze sprzedaży nowych licencji, a to oznacza, że systematycznie powiększamy liczbę nowych klientów. Każdego miesiąca liczba użytkowników oprogramowania Veeam powiększa się o trzy tysiące. Swoją pierwszą globalną konferencję VeeamON zorganizowaliście w Las Vegas. Dlaczego właśnie w tym mieście? Jakie było główne przesłanie spotkania? Rozwiązania IT obecnie odgrywają kluczową rolę w biznesie, a ich użytkowni-
10
iT Reseller
cy oczekują od systemów dostępności przez 24 godziny na dobę. Dlatego też motywem przewodnim naszej konferencji było hasło „Availability for the Modern Center”. Dlaczego Las Vegas? Braliśmy pod uwagę różne lokalizacje. Główna siedziba Veeam mieści się w Szwajcarii, wielu naszych klientów i partnerów również pochodzi z Europy. Jednak Veeam działa na rynku globalnym, dlatego ostatecznie zwyciężyło Las Vegas. Było wiele kryteriów przemawiających za tym miastem, m.in. bardzo dobre połączenia z innymi portami lotniczymi w USA. Co wam pomaga, a co przeszkadza w sprzedaży oprogramowania Veeam? W ostatnim czasie firmy modernizują centra danych, co nie zmienia faktu, iż cały czas potrzebują rozwiązań do tworzenia kopii zapasowych. Coraz ważniejsza jest także kwestia odzyskiwania danych po awarii. Takie trendy, jak wirtualizacja czy cloud computing, sprawiają, że firmy muszą sięgać po nowe rozwiązania do backupu. Dlatego sprzedaż systemów Veeam stymulują takie procesy, jak odświeżanie centrum danych oraz dążenie do skrónr 17-18 (256-257) • grudzień 2014
cenia okna backupowego. Co nam najbardziej przeszkadza? Uważam, że ostra konkurencja na rynku systemów do tworzenia kopii zapasowych. Rywale atakują nas mocno, ale mimo to, dzięki innowacyjnym funkcjom, jakie wprowadzamy do naszych rozwiązań, stale utrzymujemy silną pozycję w tym segmencie rynku. Ludzie na ogół nie lubią dużych zmian. Czy nie zauważa Pan wśród klientów niechęci do innowacyjnych rozwiązań? Zmiany zachodzą nieustannie, firmy modernizują własną infrastrukturę. Obecnie robimy rzeczy, o których jeszcze dziesięć lat temu mogliśmy tylko pomarzyć, jak np. rapid provisioning. Dla nas jest to fajne i inspirujące, że płyniemy na fali tych zmian. Warto także zauważyć, że użytkownicy coraz częściej są sfrustrowani tradycyjnymi systemami do tworzenia kopii zapasowych. To sprawia, że szukają lepszego rozwiązania. Według Gartnera około 30 procent firm zmieni w tym roku systemy do backupu. Tak jak Pan wspomina, ich użytkownicy są niezadowoleni z funkcjonalności produktów. Wszystko wskazuje na to, że ten trend będzie zachowany w kolejnych latach. Co robicie, aby trafili do Veeam? Jak próbujecie wyróżnić swój produkt? Są trzy czynniki, które pozwalają nam uzyskać przewagę nad konkurentami. Pierwszym z nich jest innowacyjność. Veeam dostarcza nowoczesne rozwiązania pozwalające uzyskać nam przewagę nad konkurencją. Drugi ważny czynnik to partnerzy. Współpracujemy z 27 tysiącami partnerów. Cała nasza sprzedaż realizowana jest za pośrednictwem resellerów. Są dla nas silnym wsparciem. Trzeci z wyróżników stanowią nasi klienci. Oni naprawdę nas lubią, chętnie wymieniają się z nami swoimi poglądami, uwagami. Zauważamy, że klienci często rekomendują produkty Veeam, ponieważ są z nich bardzo zadowoleni. Veeam rzeczywiście wprowadził do swojego oprogramowania kilka innowacyjnych funkcji, takich jak np. SureBackup. Ale co dalej? Czy myślicie o kolejnych nowinkach, nr 17-18 (256-257) • grudzień 2014
które zmienią reguły gry w świecie backupu? Nasze działania w obszarze R&D skupiają się na dwóch aspektach. Z jednej strony bardzo dokładnie wsłuchujemy się w głosy użytkowników naszego oprogramowania, które są dla nas niezwykle cenne. Z drugiej – prowadzimy gruntowne badania i poszukujemy nowych funkcji. Mamy mnóstwo interesujących pomysłów. Wspomniany SureBackup był prawdziwym hitem, ale obecnie myślimy o innych ciekawych rozwiązaniach. Jednym z najważniejszych jest przyspieszenie procesów. Kolejna ciekawa kwestia wiąże się z możliwością odbudowania oprogramowania przez użytkownika we własnym zakresie. Nie musi on dzwonić na infolinię, lecz wchodzi na stronę internetową, loguje się i zyskuje dostęp do panelu, w którym może samodzielnie przywrócić do pracy uszkodzone pliki, bez konieczności wsparcia ze strony administratora. A jak przedstawia się strategia Veeam dotycząca cloud computingu? Nie chcemy odsyłać klientów do wielkich dostawców chmury publicznej. Zamiast tego chcemy stworzyć dla nich alternatywę. Niedawno ogłosiliśmy listę partnerów Veeam Cloud Provider, którzy zapewnią wsparcie dla chmurowego backupu Veeam Cloud Connect od pierwszego dnia ogólnej dostępności rozwiązania Veeam Availability Suite v8. Dzięki Veeam Cloud Connect klienci mogą łatwo przenosić kopie do chmury preferowanego usługodawcy, bez potrzeby inwestowania w infrastrukturę. Mówiąc w skrócie, nasza strategia polega na tym, aby stworzyć partnerom warunki do oferowania usług cloud opartych na technologii Veeam. Na rynku debiutuje zapowiadane przez Was od kilku miesięcy rozwiązanie – Veeam Availability Suite v8. Jakie nowe funkcje znajdą w nim użytkownicy? Veeam Availability Suite łączy funkcje tworzenia kopii zapasowych i replikacji dostępne w Veeam Backup & Replication oraz zaawansowane mechanizmy monitorowania, raportowania i planowania mocy obliczeniowych oferowane przez oprogramowanie Veeam ONE. Nowych funkcji jest wiele
i trudno wymienić je jednym tchem. Z pewnością jesteśmy dumni z integracji naszych rozwiązań z platformami NetApp – umożliwia to odzyskiwanie i tworzenie kopii zapasowych z migawek pamięci masowej nawet 20-krotnie szybciej w porównaniu z konkurencyjnymi rozwiązaniami. Ponadto zintegrowaliśmy nasz pakiet z oprogramowaniem EMC Data Domain Boost, co znacząco przyspiesza tworzenie kopii zapasowych w systemach Data Domain. Przyspieszyliśmy również replikacje dzięki zastosowaniu mechanizmu akceleracji WAN,
Zmiany zachodzą nieustannie, firmy modernizują swoją infrastrukturę. Obecnie robimy rzeczy, o których jeszcze dziesięć lat temu mogliśmy tylko pomarzyć. a także umożliwiliśmy szybkie odzyskiwanie baz danych Microsoft SQL na poziomie transakcji. Warto wspomnieć o szyfrowaniu kopii zapasowych przy użyciu algorytmu AES 256 – dotyczy to zarówno procesu tworzenia backupów, jak i ich przechowywania. Częścią pakietu jest też oczywiście Veeam Cloud Connect, o którym mówiłem wcześniej. Veeam zapowiedział ponadto wprowadzenie na rynek darmowego produktu do tworzenia kopii zapasowych w środowisku fizycznym. Do kogo jest on adresowany? Veeam Endpoint Backup FREE to rozwiązanie do tworzenia kopii zapasowych danych z laptopów i desktopów z systemem Windows. Kopie można zapisać na wewnętrznym lub zewnętrznym dysku twardym, na serwerze NAS albo w repozytorium kopii zapasowych Veeam. Produkt ten może być wykorzystany także w przypadku ograniczonej liczby serwerów. Nie jest to jednak rozwiązanie zaprojektowane dla klientów korporacyjnych. Warto dodać, że choć nowy produkt jest darmowy, nie powinien mieć żadnego wpływu na nasze relacje z partnerami. Jeśli w przyszłości zdecydowalibyśmy się wprowadzić jego płatną wersję, wówczas system będzie sprzedawany poprzez kanał partnerski. w iT Reseller
11
» KOSZTY IT POD KONTROLĄ
Efektywne drukowanie Marcin Złoch
Co i jak usprawnić w procesie drukowania, żeby było taniej.
Coraz częściej użytkownicy dobierają drukarkę pod kątem materiałów eksploatacyjnych, co pozwala ograniczyć koszty w przyszłości. Zbierają informacje na temat zamienników, ich ceny i pojemności w stosunku do oryginałów, a następnie podejmują decyzję o zakupie drukarki. 12
iT Reseller
O
bniżenie kosztów druku jest priorytetem dla większości przedsiębiorstw. Sposobów na pozyskanie oszczędności w obszarze druku w firmie jest wiele. Bardzo istotnym krokiem jest wybór odpowiedniego sprzętu. Im rozwiązania są bardziej dopasowane pod kątem potrzeb firmy, tym łatwiejsze jest zapewnienie efektywności kosztowej, dlatego przed podjęciem decyzji zakupowej warto zlecić audyt druku. – W małych firmach osobą odpowiedzialną za jego przeprowadzenie może być pracownik działu IT lub osoba zarządzająca biurem, w większym przedsiębiorstwie, o bardziej złożonych strukturach, audyt powinien być przeprowadzony przez partnera z zewnątrz. Tego typu analiza pozwoli na poznanie potrzeb firmy w obszarze druku oraz wybór optymalnego sprzętu, który nie będzie generował zbędnych kosztów – przekonuje Katarzyna Idzkiewicz, Marketing Coordinator w firmie Brother Polska. Ważne jest zorganizowanie szkoleń dla pracowników, podczas których zostanie im przekazana wiedza o efektywnym korzystaniu z urządzeń drukujących. Warto również rozważyć przygotowanie krótkich instrukcji w firmowym newsletterze czy mailingu. Większa wiedza pracowników na temat efektywnego drukowania przyczyni się do wyrobienia odpowiednich nawyków związanych z przygotowaniem dokumentów do druku. Za przykład dobrych praktyk może posłużyć drukowanie dwustronne, które w znacznym stopniu ogranicza zużycie papieru w firmie.
Koszt posiadania – Patrząc na problem całościowo, nie należy obniżać tylko kosztów samego
druku, ale racjonalizować całkowite koszty posiadania, tzw. TCO, urządzeń drukujących, czyli zakupu i użytkowania w dłuższym czasie. Optymalizacja kosztów to także precyzyjny dobór urządzenia do konkretnych potrzeb. Dotyczy to zarówno jakości i szybkości druku, jak i wydajności czy obciążalności mierzonej maksymalną liczbą drukowanych stron dziennie/miesięcznie, niepowodującą przegrzania czy mechanicznego zmęczenia urządzenia. Mówiąc obrazowo: innej klasy drukarkę stosujemy do druku np. kilku mejli, a inną do druku kilkuset faktur dziennie – zauważa Robert Reszkowski, menedżer w polskim oddziale Epson Europe. Coraz częściej użytkownicy dobierają drukarkę pod kątem materiałów eksploatacyjnych, co pozwala ograniczyć koszty w przyszłości. Zbierają informacje na temat zamienników, ich ceny i pojemności w stosunku do oryginałów, a następnie podejmują decyzję o zakupie drukarki. Na rynku można zaobserwować, że im droższa jest drukarka, tym tańsze są odpowiednie do niej materiały eksploatacyjne. – Stosowanie zamiennych materiałów eksploatacyjnych znacznie obniża koszty drukowania. Pierwszym, podstawowym krokiem jest znalezienie odpowiednich alternatywnych materiałów do sprzętu drukującego w swoim biurze. Najważniejszym kryterium przy doborze powinna być relacja jakości do ceny. Ponadto należy kierować się docelowym zastosowaniem drukarki – do jakiego typu wydruków będzie potrzebna. Trzeba także zwrócić uwagę na cenę sprzętu i dostępność zamienników do konkretnego modelu – twierdzi Rafał Ornowski, pełnomocnik zarządu Action ds. marki ActiveJet. nr 17-18 (256-257) • grudzień 2014
nr 17-18 (256-257) • grudzień 2014
iT Reseller
13
» KOSZTY IT POD KONTROLĄ Największe oszczędności można jednak osiągnąć, optymalizując procesy związane z drukiem. Należy pamiętać, że na koszty druku składa się nie tylko cena urządzenia i materiałów eksploatacyjnych. Zawierają się w nich także obsługa pracownika działu IT, czy też ręczna praca pracowników biurowych, np. dziurkowanie ze zszywaniem w celu szybszej archiwizacji w segregatorach. – Oczywiście praca tych ludzi i ich czas to również koszt, warto więc zastanowić się nad wdrożeniem kompleksowych rozwiązań pozwalających zautomatyzować procesy związane z drukiem – zauważa Adam Bieniewski, Product Planning Manager, Sharp Electronics (Europe).
Wsparcie oprogramowania
Koszty druku to nie tylko cena urządzenia i materiałów eksploatacyjnych. Zawierają się w nich także takie elementy, jak obsługa pracownika działu IT, czy też ręczna praca pracowników biurowych.
14
iT Reseller
Patryk Wąsowicz, Office Product Marketing Manager, Canon Polska, przekonuje, że jeśli chodzi o drukowanie, to trudno obniżać koszty samego wydruku. Technologia drukowania laserowego nie zmieniła się od wielu lat. Oszczędności należy szukać natomiast w innych obszarach, w ramach całego obiegu dokumentów w firmie. Pierwszym z nich jest system kontroli dostępu wraz z częścią rozliczeniową. Dzięki niemu zarówno zarządzający, jak i użytkownicy bardziej świadomie rozporządzają zasobami w organizacji, przy okazji ograniczając liczbę generowanych wydruków. Drugim ważnym aspektem jest wdrożenie systemu obiegu dokumentów, obsługi skanowania dokumentów przychodzących i systemu obiegu dokumentów wewnętrznych. – Już w ujęciu średniookresowym wpływa to na znaczne obniżenie kosztów drukowania. Innym rozwiązaniem może być powierzenie całego systemu drukowania i obiegu dokumentów firmie zewnętrznej. Doświadczony partner pomoże znacznie usprawnić procesy w organizacji, a przy okazji, z racji ukierunkowania, również mocno obniżyć ich koszty – twierdzi Patryk Wąsowicz. Kompleksowym wsparciem dla firm z obszaru druku, umożliwiającym pozyskanie oszczędności, jest oprogramowanie do zarządzania drukiem. Możliwość określenia limitów drukowanych stron dla poszczególnych działów lub użytkowników, opcja
automatycznego kasowania nieodebranych zadań druku w ciągu ustalonego czasu, ograniczenie wybranym osobom dostępu do pewnych funkcji, np. drukowania w kolorze – to tylko wybrane funkcje oferowane przez tego rodzaju systemy, dzięki którym przedsiębiorstwo jest w stanie zoptymalizować procesy zachodzące w obszarze druku. Oprogramowanie tego typu umożliwia także wykonanie analiz, które przedstawiają, jak dużo i jak często pracownicy drukują. Są one podstawą do planowania i zarządzania drukiem w firmie, a tym samym przyczyniają się do większej ekonomiczności. – Już samo poinformowanie pracowników o wdrożeniu takiego systemu umożliwia redukcję kosztów przez nich generowanych. Oszczędności dla przedsiębiorstwa mogą wynieść nawet 20 procent – twierdzi Katarzyna Idzkiewicz. Oszacowanie możliwych do osiągnięcia oszczędności to kwestia indywidualna, zależna od wielu czynników, takich jak wielkość i struktura przedsiębiorstwa czy liczba i typ drukowanych w nim dokumentów. I tak, dzięki wdrożeniu oprogramowania do zarządzania drukiem, można zredukować koszty sporządzania dokumentów o około 20 procent. – Trudno generalizować, odnosząc się do rynku czy nawet do wybranych segmentów biznesowych. Zmiennych jest bardzo wiele, tak jak profili biznesowych i sposobów działania organizacji. Bardzo ważną rolę odgrywają takie czynniki, jak świadomość i determinacja kręgów zarządzających. W jednej organizacji można osiągnąć oszczędności rzędu 10 procent, w innej nawet 40 procent. Proces rozpoczyna się od analizy floty urządzeń i dokonania jej modyfikacji, a kończy na analizie pracy poszczególnych pracowników i dostosowaniu systemu obiegu dokumentów do jej charakterystyki. Dlatego w dzisiejszych czasach bardzo ważne są doświadczenia w doradztwie biznesowym i zdolność rozumienia procesów w połączeniu z wiedzą informatyczną i o urządzeniach drukujących. Wyłącznie współpraca z takim godnym zaufania i doświadczonym partnerem może prowadzić do wymiernych oszczędności – podsumowuje Patryk Wąsowicz. w nr 17-18 (256-257) • grudzień 2014
SSD – liczy się tylko szybkość Andrzej Janikowski
Dyski SSD są przyszłością branży informatycznej, nie wiadomo jednak, jak odległej. Na razie tradycyjne urządzenia HDD mają dominującą pozycję i w ciągu najbliższych miesięcy sytuacja się nie zmieni. Powodem jest wysoka cena nowych produktów.
nr 17-18 (256-257) • grudzień 2014
J
arek Smulski, Research Manager w IDC Polska, powołując się na badania swojej firmy, mówi, że sprzedaż dysków SSD (Solid State Drives) w 2013 roku wzrosła o 37 procent w porównaniu z rokiem 2012. Handel nimi daje wysokie marże, dlatego resellerzy chętnie umieszczają je w ofercie. Według Smulskiego największą wartość sprzedaży notują rozwiązania konsumenckie do desktopów i notebooków. Są tam stosowane zarówno jako dodatkowy napęd, jak i jako podzespoły zastępujące tradycyjne rozwiązania HDD. Jeśli chodzi o pojemności, to Kevin Yen, European Sales Director w Transcend, twierdzi, że największą popularnością cieszą się obecnie dyski o pojemności 128 GB w cenie około 250 złotych i 256 GB, których cena nie przekracza 410 złotych.
Dobre, ale drogie Kevin Yen uważa, że dzięki swoim zaletom dyski SSD stopniowo stają się alternatywą dla dysków twardych – nośniki SSD charakteryzują się niższym zużyciem energii, mniejszą wagą, lepszą wydajnością oraz krótszym czasem uruchamiania. Choć cena dysków HDD jest dziś sześć razy niższa niż dys-
ków SSD – 0,055 dolara za 1 GB HDD i 0,35 dolara za 1 GB SSD – ceny tych drugich systematycznie spadają i można się spodziewać, że w ciągu trzech lat będą już tylko trzy do czterech razy wyższe od klasycznych. – Zgodnie z analizą iSuppli w 2012 roku 95 procent rynku dysków stanowiły dyski HDD – mówi Kevin Yen. – Firma szacuje, że w roku 2017 udział dysków HDD zmniejszy się do około 62 procent. Marcin Paczko, Country Manager CCE w HGST, zwraca natomiast uwagę na ekonomię użytkowania systemów serwerowych. Jak mówi, dyski SSD są dużo bardziej oszczędne niż urządzenia klasyczne. – Udowodniono też, że zapis na dyskach SSD powoduje mniej błędów niż na dyskach klasycznych – mówi. Według Kevina Yena dyski SSD oferuje się obecnie trzem grupom klientów. Pierwszą stanowią konsumenci, czyli posiadacze PC-tów, notebooków i tabletów, którzy stosują je do zwiększenia możliwości urządzenia. Druga to firmy (enterprise), które stosują je najczęściej w farmach serwerowych, dużych centrach danych i w centrach przetwarzania danych do obsługi chmury obliczeniowej, wymagających większej iT Reseller
15
» KOSZTY IT POD KONTROLĄ
SSD
HDD
SanDisk® X210 SSD 512 GB
7200RPM SATA
WYDAJNOŚĆ CZAS URUCHAMIANIA SYSTEMU
14,7 s
54,7 s
PRZECIĘTNY CZAS URUCHAMIANIA APLIKACJI
23 x szybciej
IOPS – OPERACJE WYJŚCIA/WEJŚCIA
do 88 tys. IOPS
do 60 tys. IOPS
LOSOWY ODCZYT
169 IOPS
LOSOWY ZAPIS
169 IOPS
PRZEPUSTOWOŚĆ W MB/s SEKWENCYJNY ODCZYT
do 505 MB/s
156 MB/s SEKWENCYJNY ZAPIS
do 470 MB/s
156 MB/s
ZUŻYCIE ENERGII
0,11 W
0,91 W
HAŁAS
0 dB
27 dB
ŚREDNI CZAS BEZAWARYJNEJ PRACY*
2 mln godz.
750 tys. godz.
Roczne oszczędności wynikające z zastosowania laptopa z dyskiem SSD na jednego użytkownika w skali roku wynoszą 210 dolarów. Na tę kwotę składają się zwiększenie efektywności pracy, mniejsze zużycie energii, zmniejszenie wydatków na naprawy, odzyskiwanie systemu po awarii.
* Dane na podstawie testów zewnętrznych przeprowadzonych przez firmę Telcordia.
16
iT Reseller
trwałości oraz większej liczby możliwych cykli zapisu i odczytu niż inne modele. Według Marcina Paczki, Country Managera CCE w HGST, szybkość rozwiązań profesjonalnych jest wyższa niż dysków konsumenckich. Trzeci segment to rozwiązania przemysłowe. – Dyski SSD są przystosowane do pracy w ekstremalnych temperaturach i znajdują zastosowanie w systemach obsługujących lotnictwo, aparaturę medyczną czy wojskową – mówi Kevin Yen.
Hybryda to za mało Andrzej Jachymczak, Senior Sales Specialist w IBM Polska, mówi, że użytkownik chce dziś mieć możliwość swobodnej pracy bez potrzeby ręcznego optymalizowania systemów dyskowych. Obecnie standardem technologicznym stały się macierze hybrydowe, które umożliwiają wykorzystanie dysków rotacyjnych i dysków SSD w obrębie jednego rozwiązania. Taka konfiguracja systemu dyskowego, która umożliwia automatyczną optymalizację składowanych danych, owocuje w konsekwencji przyspieszeniem działania aplikacji. Andrzej Jachymczak zauważa jednak, że coraz częściej rozwiązania hybrydowe nie są wystarczające. Przedsiębiorstwa chcące zdobyć i utrzymać przewagę nad konkurencją nie mogą sobie pozwolić na przestoje, powinny być gotowe do sprawnego funkcjonowania w trybie 24 × 7 i muszą sobie zapewnić zdolność do częstego, pogłębionego analizowania olbrzymich ilości informacji. – W takim wypadku oferuję macierze typu all-flash array – mówi Andrzej Jachymczak. Michał Aleksander Kania, inżynier systemowy w firmie EMC, zwraca uwagę na to, że macierze oparte na pamięci flash (all-flash array) powstały całkowicie od podstaw, bez użycia rozwiązań i technologii znanych z klasycznych macierzy. Dzięki takim mechanizmom, jak deduplikacja, kompresja i Thin Provisioning, koszt składowania 1 GB staje się niższy lub porównywalny z tradycyjnymi macierzami dyskowymi. Dodatkowo macierz umożliwia natychmiastowe, masowe powielanie danych, bez wpływu na wydajność zarówno obrazu źródłowego, jak i jego licznych kopii. nr 17-18 (256-257) • grudzień 2014
» KOSZTY IT POD KONTROLĄ Jarek Smulski twierdzi, że SSD należy do grupy produktowej, mającej umożliwić rozwój większej koncepcji, zwanej trzecią platformą, czyli etapu rozwoju infrastruktury IT, który odbywa się pod hasłem mobilności, przetwarzania w chmurze, Big Data/analityki biznesowej oraz mediów społecznościowych. – Jeśli weźmiemy pod uwagę tylko Big Data czy analitykę biznesową, to zalety dodania do infrastruktury dysków flash są niepodważalne – twierdzi Smulski. – Przede wszystkim chodzi o podwyższenie wydajności, i to zarówno w znaczeniu podwyższenia liczby operacji wejścia/wyjścia na sekundę, jak również utrzymywania stałego, niskiego czasu dostępu do danych. To powoduje, że na świecie sprzedaż dysków SSD klasy enterprise liczona w sztukach wzrosła aż o 78 procent – z 2,7 mln w 2012 do 4,8 mln w 2013 roku. Smulski dodaje, że dzięki wirtualizacji serwerów, wzrostowi mocy przetwarzania i zmianom w architekturze pamięci masowych wzrasta liczba zadań w serwerowni spełnianych przez dyski SSD. Tworzą one najczęściej tzw. Tier 0, czyli infrastrukturę dla często wykorzystywanych danych transakcyjnych. Ponieważ takie dane stanowią najczęściej stosunkowo niewielką część wszystkich przechowywanych informacji, dysków SSD nie potrzebujemy zbyt dużo, stąd duża popularność macierzy hybrydowych, czyli tradycyjnych macierzy dyskowych mających np. półkę dysków SSD. Macierze typu
all-flash (all-flash array, AFA) były obecne w ofercie niszowych producentów od blisko 10 lat. Oferowane były do realizacji zadań wymagających najwyższej wydajności, gdzie koszty takiego rozwiązania były mniej istotne. – Dzisiaj tacy gracze, jak Texas Memory Systems czy XtremIO, trafili pod skrzydła graczy globalnych, a spadające ceny dysków SSD rozszerzają liczbę zastosowań dla macierzy all-flash w serwerowniach – podsumowuje Jarek Smulski.
Silni górą Prognozy co do przyszłości rynku SSD są dobre. Panuje powszechne przekonanie, że będziemy mieli do czynienia z jego wzrostem. IDC przewiduje, że średnioroczna liczba sprzedanych urządzeń SSD klasy enterprise do roku 2018 ma wzrosnąć o około 34 procent. Co ciekawe, ceny dysków będą spadać, ale nie tak szybko, jak można byłoby oczekiwać. Producentów komponentów flash NAND nie jest tak wielu: Samsung, Toshiba, SanDisk, Micron, Intel, Hynix, a – według wspomnianej firmy analitycznej – ich zdolności produkcyjne nie wzrosną w znaczny sposób w ciągu najbliższych lat. Ze względu na stale rosnący popyt ze strony producentów komputerów, tabletów, smartfonów i elektroniki użytkowej na komponenty flash NAND, mogą wystąpić problemy z dostępnością SSD, jak to już miało miejsce w 2013 roku. – Jednak dzięki innowacjom, takim jak wielokrotny zapis bitów w komórkach
czy NAND 3D, pojemności tych dysków szybko zbliżają się do poziomów znanych jeszcze kilka lat temu z tradycyjnych dysków magnetycznych – mówi Jarek Smulski. Z kolei Kevin Yen uważa, że rozwój technologii produkcji przesunie zainteresowanie z tradycyjnych pamięci NAND flash w kierunku V-NAND, które już pojawiają się na polskim rynku. Producenci będą rozwijali nowe konstrukcje i rozwiązania, jak dyski M.2, które osiągają większe prędkości transferu niż dyski wykorzystujące interfejs SATA. Kevin Yen, powołując się na analizę Gartnera, potwierdza, że najbliższe trzy lata przyniosą spory rozwój tego segmentu rynku. Analitycy tej firmy przewidują, że wartość rynku SSD wzrośnie z 14,5 miliardów dolarów w 2014 roku do 23,5 miliardów dolarów w 2017. Prognozy wskazują, że sprzedaż SSD w Polsce osiągnie 400 tysięcy sztuk w porównaniu z 240 tysiącami sztuk w 2013 roku. Marcin Paczko dodaje, że światowy rynek dysków SSD z interfejsem SAS jest zdominowany przez A-brandy i tak pozostanie w najbliższych latach. Jego zdaniem rynek będzie silnie pofragmentowany. Dyski korporacyjne będą jeszcze szybsze, ale będą umożliwiały przeprowadzenie względnie niewielkiej liczby operacji zapisania danych. Konsumenckie będą jeszcze bardziej energooszczędne, ale nie szybsze. – Duża szybkość zapisu informacji przeciętnemu konsumentowi nie będzie potrzebna – mówi. w
ADAX Handy 8E116 – biznes w dobie MOBILE!
T
ablety z serii ADAX Handy są idealną odpowiedzią na wymagania stawiane współczesnym przedsiębiorcom. Zainstalowany system Microsoft Windows 8.1 i oprogramowanie Office 365 Personal umożliwia działanie na tych samych aplikacjach, na których pracują tradycyjne komputery. Dzięki takiemu rozwiązaniu możliwe jest przeglądanie, edycja i wysyłanie dokumentów będąc poza biurem. Dwie kamery 2.0 Mpix oraz krystaliczny ośmiocalowy ekran IPS zamknięty w smukłej obudowie, zapewnia komfort pracy, a możliwość połączenia za pomocą Bluetooth, Wi-Fi lub poprzez HDMI czyni z tabletu świetną platformę do prowadzenia prezentacji i wideokonferencji. Sprawne działanie urządzenia zapewnia czterordzeniowy procesor Intel® Atom™ Z3735E, a stały dostęp do plików gwarantuje 16 GB pamięci flash oraz usługa SkyDrive.
18
iT Reseller
Urządzenie dostępne w Incom S.A., na stronie www.adax.pl oraz u Autoryzowanych Partnerów Handlowych ADAX.
nr 17-18 (256-257) • grudzień 2014
Oszczędność z szafy Marcin Złoch
Data center dzięki wykorzystaniu najnowszych zdobyczy technologii może być znacznie tańsze w eksploatacji.
W
obliczu wzrastających cen energii i dużej presji na malejące budżety IT także w centrach obliczeniowych nieuniknione staje się efektywne wykorzystanie posiadanych zasobów. W ofercie producentów znajduje się wiele technologii, które powstały w celu obniżenia kosztów funkcjonowania data center. Jedną z nich jest na przykład wirtualizacja infrastruktury i przetwarzanie danych w chmurze hybrydowej. – Dynamiczna i bardzo często „na żądanie” alokacja zasobów, takich jak serwery czy pamięć masowa, pomaga nam zachować równowagę pomiędzy efektywnością energetyczną i wysokimi oczekiwaniami klientów biznesowych – twierdzi Tomasz Firek, inżynier systemowy w firmie EMC. Technologiami, które wspomagają efektywność energetyczną, są również deduplikacja i składowanie danych w modelu warstwowym (storage tiering). Dzięki deduplikacji możliwe jest nawet kilkakrotne zmniejszenie wymagań na pojemność nośników do składowania danych. – Składowanie warstwowe jest możliwe we wszystkich macierzach EMC, począwszy od najmniejszych VNXe, a skończywszy na macierzach klasy enterprise VMAX. Dzięki temu macierze zapewniają wysoką wydajność wymagającym aplikacjom i dużą pojemność mniej wymagającym przez zastosowanie odpowiednich typów dysków dla każdej z warstw. Inteligentne oprogramowanie macierzy przenosi dane między tymi warstwami w sposób niezauważalny dla aplikacji. Wykorzystując te technologie, mamy możliwość kilkakrotnego zmniejszenia całkowitej liczby dysków w macierzach, co przekłada się wprost proporcjonalnie na zmniejszenie kosztów energii – przekonuje Tomasz Firek.
Przemyślne chłodzenie Według Łukasza Pyrtki, Technical Support Managera w Diskus Polska, obecnie najbardziej efektywną metodą obniżenia kosztów funkcjonowania data center jest odprowadzanie ciepła bezpośrednio z CPU/GPU za pomocą układów dedykowanych. W tym celu stosuje się odpowiednio dobrane wymienniki wody, które poszczególne radiatory łączą z centralnym układem chłodzącym danej szafy. Inną bardziej zaawansowaną wariacją takiego pomysłu jest zatapianie całych płyt głównych w substancji całkowicie absorbującej ciepło. Z uwagi na fakt, że same serwery muszą być przystosowane do możliwości zastosowania takich rozwiązań, może wystąpić problem przy próbie wdrożenia takiego chłodzenia przy starszej infrastrukturze. nr 17-18 (256-257) • grudzień 2014
iT Reseller
19
» KOSZTY IT POD KONTROLĄ – Zakładając idealne warunki do wdrożenia przy opcji odprowadzania ciepła bezpośrednio z płyt głównych, szacowane oszczędności mogą sięgnąć nawet 80 procent w porównaniu z klasycznym podejściem do chłodzenia. Może się wydawać, że w takim wypadku koszty operacyjne data center drastycznie zmaleją, ale pamiętajmy, że mówimy o idealnych warunkach i nowych inwestycjach – rzeczywistość często to jednak weryfikuje. Tak czy inaczej, nawet klasyczne podejście do likwidacji hotspotów oraz wyraźnej separacji stref to oszczędności na poziomie 50 procent przy zachowaniu dotychczasowej infrastruktury chłodzącej oraz szaf serwerowych – przekonuje Łukasz Pyrtko. Jako modelowy przykład udanego wdrożenia technologii warstwowego składowania danych można przytoczyć projekt konsolidacji danych z macierzy tradycyjnych do macierzy EMC VMAX w polskim oddziale banku Credit Agricole. Dzięki oprogramowaniu FAST (Fully Automated Storage Tiering) możliwe było zastąpienie macierzy z 1500 dyskami obrotowymi macierzą VMAX z 500 dyskami SSD, SAS, SATA przy 50-procentowym zwiększeniu pojemności użytkowej i dwukrotnym zwiększeniu wydajności. Co najważniejsze, koszty energii zmniejszyły się ponaddwukrotnie, dwukrotnie zmniejszyło się również wydzielanie ciepła. Ograniczono też z 15 do 8 liczbę szaf RACK, a przez to uzyskano sporo wolnego miejsca w serwerowni.
Mniejsze zużycie Wydajne i energooszczędne centrum danych – w jaki sposób, za pomocą jakich rozwiązań da się uzyskać taki „stan idealny”? Pomysłów jest wiele, ale nie wszędzie niestety można zastosować je wszystkie.
– Jednakże projektując lub eksploatując data center, w polskich warunkach należy mieć na uwadze – poza wcześniej wspomnianymi – zdecydowanie freecooling. Można to połączyć z wykorzystaniem alternatywnych źródeł energii, aczkolwiek przy obecnym ustawodawstwie może być to niestety problematyczne. Kolejna kwestia to instalacja energooszczędnych serwerów oraz wysoko sprawnych układów zasilania awaryjnego. Wiele korzyści może także przynieść zastosowanie rekuperatorów i wykorzystanie produkowanego przez data center ciepła, np. do podgrzewania wody w części biurowej. Niebagatelnym zadaniem jest także efektywne zarządzanie energią (iPDU) oraz monitoring warunków środowiskowych – pozwoli to na skrojony na miarę dobór warunków chłodzenia do zaistniałej sytuacji termicznej – twierdzi Łukasz Pyrtko. Kolejnym małym krokiem do poprawienia efektywności energetycznej w centrach obsługiwanych w trybie 24/7 jest wymiana klasycznego oświetlenia na panele lub tuby LED – zapewni to spadek zapotrzebowania na energię o około 50 proc. oraz drastycznie obniży emisję cieplną. Warto także pamiętać, że przed oddaniem do użytku nowego obiektu należy przeprowadzić odpowiednie testy obciążeniowe wszystkich z instalacji – pozwoli to na weryfikację zastosowanych rozwiązań i uchroni przed nieoczekiwanymi sytuacjami podczas eksploatacji data center. – Opisane technologie gwarantują uzyskanie wydajnego i energooszczędnego centrum danych. Warto jednak całą operację dobrze zaplanować i skupić się na elementach, które najszybciej przyniosą wymierne korzyści i będą ekonomicznie uzasadnione – podsumowuje Tomasz Firek. w
Nowa seria Canon MAXIFY to urządzenia atramentowe, które zostały stworzone z myślą o małych firmach, poszukujących wysokiej jakości rozwiązań do profesjonalnego druku kolorowego, kopiowania, skanowania i faksowania. Model MB5350 drukuje w formacie A4 z szybkością 23 obrazów na minutę (ipm) w czerni i bieli oraz 15 ipm w kolorze. Zastosowany atrament jest odporny na wodę, tarcie oraz pisanie markerem i zapewnia wyraźny czarny tekst oraz żywe barwy grafiki. Urządzenie wyposażono w szereg funkcji ułatwiających pracę w ramach grupy roboczej, m.in. łączność Wi-Fi, Canon MAXIFY Cloud Link do druku i skanowania przez aplikacje chmurowe (m.in. Dropbox™, Google Drive™) czy funkcję skanowania do poczty e-mail, która pozwala wysyłać dokumenty w formie załączników e-mail bezpośrednio z poziomu drukarki.
20
iT Reseller
nr 17-18 (256-257) • grudzień 2014
Chmura dla rozsądnych Krzysztof Polak
Chmura pomaga zwyciężać, ale głównie rozsądnym. Sięgnięcie po usługi zewnętrznego dostawcy usług IT warto poprzedzić gruntowną analizą, określeniem stanu wyjściowego, potrzeb i możliwości. Nasze firmy nie są w tym mocne.
J
ak dotąd nie opracowano standardu przenoszenia zasobów IT do chmury, którego wystarczy się trzymać, by wyeliminować ryzyko i zagwarantować powodzenie operacji. Oznacza to, że tym ważniejsze są kompetencje w ocenie zakresu, w jakim można i warto skorzystać z usług chmurowych. – Menedżerowie zarządzający spółką czy kierujący marketingiem i rozwojem biznesu często nie mają gruntownej wiedzy technicznej czy choćby znajomości trendów obowiązujących w branży IT. Bez merytorycznego wsparcia mogą podjąć nieoptymalne decyzje – uważa Mirosław Burnejko, konsultant z Atende. Firmie zainteresowanej usługami chmurowymi potrzebna jest fachowa refleksja nad skalą prowadzonego biznesu i możliwościami efektywnego wspierania go z chmury, a także nad wielkością niezbędnych wydatków inwestycyjnych. Koniecznością jest określenie całkowitego kosztu użytkowania usługi w czasie TCO (total cost of ownership) oraz znalezienie precyzyjnych odpowiedzi na cały zestaw kwestii technicznych.
Najpierw chmura prywatna Odsetek firm, które dopracowały się sformalizowanego i metodycznego podejścia do propozycji wdrożenia chmury obliczeniowej (mają formalną strategię dotyczącą przetwarzania nr 17-18 (256-257) • grudzień 2014
w chmurze, przeanalizowały koszty i korzyści, stworzyły wykaz rodzajów ryzyka związanego z przetwarzaniem w chmurze), jest bardzo niski. Jest ich nawet mniej niż firm, które już stosują przetwarzanie w chmurze – wynika z tegorocznego badania Audytela, które dotyczy wykorzystania chmury w polskich firmach i instytucjach publicznych. – Z naszego badania wynika, że firmy niestosujące przetwarzania w chmurze na ogół nawet nie sprawdziły, czy takie posunięcie byłoby dla nich korzystne. Pozostałe wdrażają rozwiązania chmurowe na chybił trafił, bez sprecyzowanej strategii, co zwiększa ryzyko porażki wdrożenia lub nieefektywności opracowanej architektury IT – mówi Grzegorz Bernatek, kierownik projektów analitycznych w Audytelu. Wykorzystanie usług w chmurze publicznej jest bardzo małe. Przeważającym modelem realizacji jest chmura prywatna – deklaruje to 75 procent respondentów Audytela. Polskie firmy, jeśli myślą o chmurze, to przede wszystkim takiej, w której mogą samodzielnie odpowiadać za realizację wszystkich kluczowych jej aspektów i kontrolować infrastrukturę sprzętową, serwerownię, wdrożenie i integrację, administrowanie i zarządzanie chmurą. Dlaczego, jeśli chmura, to przede wszystkim prywatna? Audytel twierdzi, że firmy obawiają iT Reseller
21
» KOSZTY IT POD KONTROLĄ
Z badań wynika, że firmy niestosujące przetwarzania w chmurze na ogół nawet nie sprawdziły, czy takie posunięcie byłoby dla nich korzystne. Pozostałe wdrażają rozwiązania chmurowe na chybił trafił, bez sprecyzowanej strategii, co zwiększa ryzyko porażki wdrożenia lub nieefektywności opracowanej architektury IT
się o bezpieczeństwo danych, w tym danych osobowych, oraz dostrzegają duże ryzyko wynikające z kontraktu z zewnętrznym dostawcą – uzależnienie od dostawcy usługi i brak kontroli nad przepływem informacji.
Podatność na chmurę – Migracja do chmury jest procesem, a nie jednorazowym zadaniem, szczególnie gdy firma użytkuje złożoną infrastrukturę IT, którą tworzono i rozbudowywano latami – zaznacza Mirosław Burnejko. Potwierdzają to już zrealizowane wdrożenia – w takich wypadkach przeniesienie zasobów do chmury jest wieloetapowym, długim procesem, który przynosi w firmie duże zmiany i nie dotyczą one wyłącznie działu IT. – Migracja jest poprzedzana gruntowanymi analizami możliwości i ograniczeń dla tego procesu. Jej pierwszą fazą jest zazwyczaj konsolidacja zasobów IT w firmie – mówi Adam Pośpiech, dyrektor technologii dla sektora ochrony zdrowia w Oracle Polska. Okazuje się, że warunkiem konsolidacji jest wprowadzenie wielu zmian, mających na celu uproszczenie działania firmowej infrastruktury IT. W rezultacie dochodzi do uporządkowania i usprawnienia firmowych zasobów IT, co skutkuje spadkiem kosztów ich utrzymania oraz pojawieniem się efektu orkiestracji.
– Postępy w systematycznie prowadzonej konsolidacji łączą się z zapewnieniem firmie ciągłości dostępu do zasobów i możliwością dalszego korzystania z nich. W wypadku często używanych systemów, takich jak CRM, bądź okresowych wzrostów zapotrzebowania na moc obliczeniową dostawcy oferują gotowe rozwiązania, które uzupełniają, a z czasem wypierają dotychczas użytkowane systemy on premise – wskazuje Marcin Grygielski, dyrektor regionalny na rynek Europy Środkowej i Wschodniej w Interactive Intelligence. Na taki skokowy scenariusz migracji do chmury szczególnie chętnie decydują się przedsiębiorstwa działające w trybie sezonowym, jak na przykład sklepy internetowe, które są oblegane głównie w okresie przedświątecznym, a także biura podróży, które odnotowują zdecydowanie więcej zamówień w czasie ferii i wakacji niż w innych porach roku. – Na rynku działa dużo takich firm, dla których chmurowy model IT jest szczególnie dogodny. Nie opłaca im się stałe utrzymywanie zasobów informatycznych na poziomie odpowiadającym potrzebom pojawiającym się w momentach najwyższej aktywności biznesowej. W modelu usługowym mogą dopasowywać pojemność systemów do aktualnych potrzeb i płacić jedynie za te funkcje, z których w danym miesiącu korzystają – zaznacza Mirosław Burnejko. w
CHMURA PRZYNIESIE KORZYŚCI, GDY:
OFERTA CHMURY JEST PUŁAPKĄ, GDY:
v z akup licencji oprogramowania użytkowanego przez firmę został już zamortyzowany, a serwery kwalifikują się do wymiany,
v fi rma użytkuje skomplikowaną infrastrukturę IT, którą budowano latami i zachodzi w niej dużo wzajemnych zależności, np. powiązań między bazami danych, zasobami dyskowymi i usługami aplikacyjnymi. W takiej sytuacji przeniesienie choćby jednego systemu do chmury może być dużym i kosztownym wyzwaniem, w dodatku bez gwarancji powodzenia,
v f irma zamierza przeprowadzić konsolidację użytkowanych zasobów sprzętu i oprogramowania, v p rzedsiębiorstwo dynamicznie się rozwija, a jego potrzeby dostępu do infrastruktury i aplikacji IT stopniowo rosną, v k oszty związane z budową własnej infrastruktury sprzętowo-aplikacyjnej oraz powołania działu IT wewnątrz organizacji są na tyle wysokie, że migracja do modelu chmurowego, rozliczanego w formie stałych opłat abonamentowych, jest atrakcyjną alternatywą, v f irma preferuje rozliczanie się z dostawcą/integratrorem za pomocą ustalonych miesięcznych stawek i woli model księgowania OPEX (operating expenditures), czyli ponoszenie kosztów operacyjnych za faktycznie wykorzystane zasoby, niż CAPEX (capital expenditures), czyli kosztów inwestycyjnych na nabycie, utrzymanie i rozwijanie własnych zasobów, v f irma działa na rynku charakteryzującym się dynamicznymi zmianami koniunktury bądź sezonowością i w związku z tym boryka się ze zmianami potrzeb faktycznie wykorzystywanych zasobów IT, v d uża firma pragnie skonsolidować swoje zasoby IT i scentralizować zarządzanie procesami informatycznymi w wielu terytorialnie rozproszonych lokalizacjach, vm iędzynarodowa korporacja zamierza uprościć i lepiej skoordynować zarządzanie procesami zachodzącymi w jej oddziałach w różnych krajach i na różnych kontynentach.
22
iT Reseller
v l icencje na oprogramowanie, zwłaszcza pochodzące od dużych dostawców, jeszcze nie wygasły i się nie zamortyzowały – skomplikowana i nieprzejrzysta sytuacja w tym zakresie powinna skłaniać administratorów IT i firmowych strategów do odroczenia projektu migracji do chmury, v d ostawca usług chmurowych nie wykazuje indywidualnego podejścia do potencjalnego klienta – nie umie starannie zdiagnozować jego sytuacji wyjściowej i potrzeb, a także możliwości w zakresie sposobu rozliczania się, v d ostawca chmury ogranicza się do kwestii technicznych i ewentualnie finansowych, a nie umie być doradcą i trenerem skutecznie przekazującym klientowi wiedzę, niezbędną do korzystania z chmury w konkretnych warunkach jego działalności, i pomagającym dokonać koniecznych zmian w organizacji firmy, v o ferta wdrożeniowa ogranicza się do ogólników typu „chmura to mniejsze koszty, większa dostępność zasobów, możliwość precyzyjnego dostosowania zasobów do konkretnych potrzeb”. Jeśli dostawca nie jest gotowy zaangażować się w dobranie optymalnego dla danej firmy wariantu usług chmurowych i nie odwołuje się przy tym do doświadczenia wdrożeniowego i referencji, to jest prawdopodobne, że zamiast obiecywanych korzyści udziałem firmy będzie rozczarowanie.
nr 17-18 (256-257) • grudzień 2014
Pierwszy firewall o przepustowości
1Tb/s.
Poczuj moc FortiGate
http://bit.ly/1tbps
nr 17-18 (256-257) • grudzień 2014
www.fortinet.pl
iT Reseller
23
» MARKETING
Twitter w rękach marketerów Krzysztof Polak
Zachodnie firmy korzystają z Twittera do sondowania nastrojów, prezentowania swoich marek, sygnalizowania komunikatów PR, komentowania zdarzeń, prowadzenia promocji. Jest to dla nich marketingowa armata, a nie – jak dla polskich przedsiębiorców – jedynie kapiszon.
P
olscy przedsiębiorcy nie potrafią skutecznie korzystać z Twittera i innych mediów społecznościowych. Brak im wiedzy na temat ich działania. – Twitter to broń masowego rażenia. Dlaczego? Bo nie jest ważne, jak wiele osób zobaczy tweeta. Wystarczy, że zobaczy go jeden dziennikarz i wkrótce za jego sprawą informację może oglądać pół Polski – tłumaczy Piotr Baczyński, prezes Zarządu Immersion VR. Polscy przedsiębiorcy nie wykorzystują możliwości Twittera w zakresie budowania wizerunku firmy i rozpoznawalności marek oraz rozwijania komunikacji między firmą a jej klientami. Dużo profesjonalniej podchodzą do Twittera zagraniczni użytkownicy tego serwisu. Na ogół korzystają z usług wyspecjalizowanych agencji. – Korporacyjni użytkownicy Twittera, zwłaszcza z USA, potrafią stworzyć hashtag, czyli własny trend, do którego następnie dołączają setki tysięcy użytkowników – podkreśla Piotr Baczyński. Jak osiągnąć takie rezultaty w Polsce? Punktem wyjścia jest stworzenie firmowego profilu. Ponadto trzeba być
24
iT Reseller
stale na czasie, znać bieżące trendy, popularne memy. – W krajach zachodnich jeśli firma chce się liczyć, pojawia się na Twitterze. Brak firmowego profilu podkopuje tam wiarygodność biznesową, podobnie jak 15 lat temu brak własnej strony WWW – ocenia Wojciech Nosowski z agencji albo/albo. – To, co jeszcze do niedawna próbowano osiągnąć, pielęgnując korporacyjne witryny i rozsyłając e-newslettery, teraz można osiągnąć na Twitterze, a nawet więcej. Znaczenie social media jako kanałów komunikacji marketingowej cały czas rośnie – dodaje.
Profil oblegany W roku 2013 z Twittera lub innych tego typu serwisów korzystało zaledwie 3 procent polskich firm – wynika z danych Eurostatu, europejskiego biura statystycznego. Dla porównania, w Holandii z tego kanału komunikowania się z obecnymi bądź potencjalnymi klientami korzystało 27 procent firm, czyli aż 900 procent więcej niż w Polsce! Menedżerowie i przedsiębiorcy w Polsce stronią od Twittera – na taki stan wskazują również badania portalu
Wirtualnemedia.pl. Wynika z nich, że polski użytkownik Twittera ma średnio 34 lata, wyższe wykształcenie i jest przede wszystkim dziennikarzem, celebrytą bądź politykiem. W połowie roku 2013 na Twitterze było ponad 2,5 miliona aktywnych polskich kont – wykazało badanie Megapanel PBI/Gemius. Co ciekawe, jedynie niewielką ich część stanowili użytkownicy regularnie piszący. Większość polskich „ćwierkaczy” pasywnie śledzi publikacje innych – najczęściej właśnie celebrytów, dziennikarzy, polityków, ale również firm. Co zrobić, by użytkownicy Twittera oblegali firmowy profil? Zamiast definiować poradę, lepiej przyjrzeć się temu, jak w tym zakresie radzi sobie Samsung. Okazuje się, że profil @Samsung_polska jest wzorcowym przykładem, jak czytelnie promować firmę i jej marki na Twitterze. Na tym przykładzie firmy mogą się uczyć, jak redagować „ćwierknięcia”, by przeglądali je zwykli użytkownicy – konsumenci, ale też partnerzy w biznesie i dziennikarze, którzy najszybciej uczą się wykorzystywać profil firmy jako źródło informacji o niej. nr 17-18 (256-257) • grudzień 2014
» TECHNOLOGIE
Podejmij wyzwanie i weź udział w promocji!
Magiczna kr aina lodu Renifery, tundr a i skutery… Oderwij się od rzeczywistości. Przeżyj niezapomniane emocje w baśniowym klimacie.
Szczegóły znajdziesz na www.abonline.pl
nr 17-18 (256-257) • grudzień 2014
iT Reseller
25
» MARKETING
10 kroków do sukcesu na Twitterze 1 nastaw się na krótkie, ale często wstawiane komunikaty, bo Twitter jest od tego, by pisać krótko, ale często (na pewno co najmniej raz na dzień). Konto musi być żywe, pełne codziennie wysyłanych ćwierknięć – największy ruch można zaobserwować między godziną 16 a 21; 2 j eśli chcesz wygrywać na Twitterze, to musisz być aktywny – wchodź w interakcje z użytkownikami, prowokuj dyskusje, zadawaj pytania, wymieniaj opinie. Im więcej tego, tym większe masz szanse na powodzenie; 3 zbieraj informacje. Twitter to także narzędzie do zbierania informacji o własnej firmie, o klientach (ich potrzebach, skargach, opiniach), o konkurencji. Na Twitterze wygrywają ci, którzy chcą się dowiedzieć, odpowiedzieć, rozmawiać – są otwarci na spotkanie i komunikację; 4 p unktuj konkurencję i nie unikaj dyskusji z nią. Twitter może być miejscem stawienia czoła konkurencji. Jeśli masz jakieś niewygodne pytanie do rywali, to pisz je na ich kontach. Dyskusje z konkurencją warto jednak podjąć po osiągnięciu swobody i sprawności funkcjonowania na Twitterze; 5 unikaj sloganów reklamowych i nachalnej reklamy. Zamiast tego pozyskuj dobre kontakty, wchodź w dobre kontakty. Na Twitterze zwięzłość wypowiedzi jest sztuką. Masz tylko 140 znaków na komunikat. Trzeba nauczyć się pisać krótko, celnie, do rzeczy, ale komunikować się, a nie chwalić, zwłaszcza z użyciem nadmiaru przymiotników; 6 występuj z promocjami i akcjami marketingowymi. Twitter to także narzędzie marketingowe – możesz proponować kupony rabatowe, promocyjne pakiety, próbki, konkursy z nagrodami, spotkania, itp. Najpierw jednak zbuduj sieć kontaktów i relacje mające za podstawę znajomość firmy, jej produktów i marek; 7 wzmacniaj swoje komunikaty krótkimi filmikami. Twitter, dzięki usłudze Vimeo, umożliwia publikację bardzo krótkich (nie dłuższych niż 6 sekund) filmików. To potężne narzędzie marketingowe, ale wymaga tworzenia osobnych klipów, specjalnie na Twittera. 8 używaj hashtagów – specjalnych znaczków podkreślających temat. Lepiej jednak postawić na jakość ich użycia, a nie na liczbę – ćwierkający nie lubią postów przeładowanych hashtagami. Korzystaj też z bezpłatnych aplikacji, np. z Mr Tweet, by kontrolować swój profil, znajdować interesujące znajomości; 9 w rzucaj adresy URL, odnośniki do ciekawych stron wzbogacą przekaz, ale korzystaj ze specjalnych skracarek linków – linki w pełnej długości są złym świadectwem; 10 zintegruj swoje konto z firmowym web serwisem i Facebookiem, bo co kilka platform, to nie jedna! Można wykorzystać Twittera i Facebooka do przekierowania ruchu na stronę internetową firmy i odwrotnie.
– Jeśli tweety są wartościowe merytorycznie, ale też kontrowersyjne, inspirujące i mają charakter wirusowy, na efekty nie trzeba będzie zbyt długo czekać – obiecuje Małgorzata Bednarek, dyrektor ds. strategii marketingowej w Migomedia.
Wyzwanie dla marketerów Polskie oddziały globalnych koncernów technologicznych odpowiedzialne za marketing i komunikację działają w zupełnie odmienny sposób niż ich odpowiedniki w regionie Europy Środkowo-Wschodniej (CEE) – wynika z tegorocznego raportu MSLGROUP „Trendy w komunikacji firm techno-
26
iT Reseller
logicznych w Europie Środkowo-Wschodniej”. Dokument opracowano na podstawie ankiet oraz wielogodzinnych rozmów z kluczowymi specjalistami ds. komunikacji największych firm IT w Polsce. Nie jest tak, że polskie firmy w ogóle nie wiedzą, co to Twitter. Wprawdzie w zdecydowanie mniejszym stopniu korzystają z tego medium niż ich zachodnie odpowiedniki, ale mają wyraźnie inne podejście – przede wszystkim są nieporadne i mniej aktywne. Spośród polskich firm z branży IT, które prowadzą własne profile, w co drugiej zadanie to podlega działowi komunikacji. Natomiast w krajach sąsiednich
zaledwie w co dziesiątej social mediami zajmują się ludzie odpowiedzialni za komunikację. Obowiązek ten przejmują na ogół działy marketingu lub wyspecjalizowane agencje PR. – Przez to, że Twitter służy głównie do poszukiwania informacji i jej przekazywania, stwarza większe pole do popisu marketerom niż ludziom komunikacji – ocenia Rafał Janik, dyrektor ds. rozwoju i marketingu w Grupie Netshare. – Wymaga to jednak skupienia, precyzji i pracy u podstaw, by firma nie stała się przypadkiem tą, która jest omijana z daleka – ostrzega. Badanie MSLGROUP dowodzi, że polskie firmy IT za najważniejsze medium społecznościowe uznają właśnie Twitter. Na kolejnych miejscach znajdują się Facebook, LinkedIn oraz blogi firmowe. Za granicą popularnością cieszy się również portal VKontakte. Podstawową różnicą między czołowymi serwisami społecznościowymi (Facebookiem i Twitterem) jest to, że na tym drugim firma i jej marki występują na równych prawach z użytkownikami. Każdy może odezwać się do każdego. – Jest to diametralna różnica! Już samo zrozumienie tego, że inaczej reagujemy, gdy pisze do nas marka, a inaczej gdy pisze do nas Pani „X” z działu obsługi, pokazuje siłę Twittera – twierdzi Rafał Janik.
Metoda na klientów Zachodnie firmy już wiedzą, że zamiast wydawać miliony na kampanie realizowane tradycyjnymi metodami bardziej im się opłaca stworzyć profil na Twitterze i w przemyślany sposób go rozwijać. Przemyślany – czyli nastawiony na „jakość” fanów, a nie ich „ilość”. Chodzi o podejście odpowiednie do specyfiki social mediów, w których spotykają się znajomi i wymieniają informacje, obserwacje czy opinie. Z doświadczeń zachodnich firm prowadzących marketing w social mediach wynika, że warunkiem powodzenia jest odejście od postawy nacechowanej „chęcią sprzedaży” w kierunku „chęci tworzenia znajomości” – od podmiotu oferującego produkty i usługi w stronę jednego ze znajomych, który opowiada historie, ujawnia ciekawostki, dzieli się obserwacjami, odpowiada na pytania, a przy tym wskazuje na zalety produktów i zachęca do skorzystania z promocji. w nr 17-18 (256-257) • grudzień 2014
ZNAJDŹ SIĘ WŚRÓD NAJLEPSZYCH I SZUSUJ Z NAMI NA STOKACH CORTINA D’AMPEZZO · przeżyj wyjątkowy lot helikopterem nad Cortiną · weź udział w regionalnej kolacji w chacie górskiej · weź udział w gokart on ice czyli jeździe gokartami po lodzie · rozegraj turniej unihokeja na lodzie
PODEJMIJ WYZWANIE I WEŹ UDZIAŁ W PROMOCJI
Szczegóły znajdziesz na: www.abonline.pl
nr 17-18 (256-257) • grudzień 2014
iT Reseller
27
» TECHNOLOGIE
Gwarancje zasilania – podstawowy wymóg bezpieczeństwa IT Krzysztof Polak
Przerwa w działaniu kluczowych zasobów IT z powodu zakłóceń zasilania to zmora zarówno pojedynczych użytkowników komputerów PC, sieci lokalnych, jak i menedżerów zarządzających rozległą infrastrukturą teleinformatyczną. Trudność tę rozwiązuje staranny dobór urządzeń zasilających i prawidłowego systemu zasilania gwarantowanego.
C
zy ratunek znajdziesz w zasilaczach UPS? Każdy użytkownik liczący się z ryzykiem zakłóceń zasilania i umiejący przewidzieć katastrofalne konsekwencje przerwy w dopływie energii odpowie twierdząco. Jednak zaraz potem jego myśl biegnie ku – na ogół – złożonym systemom ochrony zasilania, których obsługa wymaga czasu i niemałej wiedzy technicznej. W takim kontekście systemy zasilania gwarantowanego Eaton, z których większość umożliwia zdalne zarządzanie zasilaniem przez wirtualny panel nawigacyjny, są odbierane jako łatwe w użyciu i wszechstronnie zabezpieczające zasilanie. Systemy zasilania gwarantowanego Eaton, których status pracy i bieżącą konfigurację można weryfikować i zmieniać w czasie rzeczywistym, charakteryzują się uniwersalnością zastosowania, wysoką sprawnością sięga-
jącą aż 99 procent i niezawodnością. Gwarantują też dystrybucję zasilania, precyzyjne monitorowanie zużycia energii i zdalne zarządzanie wyposażeniem IT, włącznie z przełączaniem na zasilanie awaryjne, restartowaniem urządzeń czy – w wypadku większych rozwiązań – wymuszeniem migracji danych. Wysoka jakość urządzeń Eaton łączy się ponadto z przystępnymi cenami. Jak to wszystko jest możliwe? Eaton to globalna firma, która ma bogate doświadczenie w zarządzaniu energią, nie tylko w środowiskach IT, ale też w budynkach, samolotach, samochodach, maszynach i przedsiębiorstwach. Czerpiąc z tego doświadczenia i wzbogacając je innowacyjnymi technologiami, oferuje swoim odbiorcom na całym świecie niezawodne, wydajne i bezpieczne rozwiązania do zarządzania energią. w
INNOWACYJNE ROZWIĄZANIA EATONA v I ntelligent Power Protector – bezprzerwowe systemy zasilania chronią urządzenia sieciowe przed anomaliami zasilania. Gdy zasilanie zanika na dłużej niż czas podtrzymania bateryjnego, program Intelligent Power Protection doprowadza do prawidłowego zamykania komputerów, serwerów i innych urządzeń sieciowych, zapewniając zapisanie całej wykonanej dotąd pracy i zachowanie integralności danych. v S ystem oszczędzania energii (ESS) – opatentowana, proekologiczna technologia Eaton, która obniża pobór energii przez urządzenia IT i koszt zużycia energii oraz redukuje ich wpływ na środowisko. Dzięki oszczędnościom w zużyciu energii uzyskanym za pomocą ESS użytkownik UPS w ciągu 3–5 lat odzyskuje środki wyłożone na zakup UPS. ystem zmiennego zarządzania modułami (VMMS) – kolejna technologia opatentowana przez Eaton poprawiająca sprawność v S energetyczną systemów UPS, które zazwyczaj działają jako nisko obciążone. System maksymalizuje procentowe obciążenie poszczególnych modułów UPS przez stawianie w tryb gotowości tych UPS-ów, które nie muszą aktualnie zasilać odbiorników. Skutkuje to oszczędnościami energii w wielozasilaczowych systemach UPS. v T echnologia Hot Sync – eliminuje pojedynczy punkt awarii, umożliwiając jednoczesną synchronizację i obsługę odbiorników o znaczeniu krytycznym, niezależnie od pozostałych modułów UPS pracujących w systemie. Moduły UPS mogą dzielić obciążenie bez potrzeby używania przewodów komunikacyjnych do połączenia ze światem zewnętrznym. v Technologia ABM opatentowana przez Eaton, która pozwala wydłużyć żywotność akumulatorów kwasowo-ołowiowych z regulowanymi zaworami dzięki zastosowaniu w procesie ich ładowania zaawansowanego algorytmu logicznego (akumulatory ładowane tradycyjną metodą konserwacyjną są narażone na korozję elektrody i wysuszenie elektrolitu).
28
iT Reseller
nr 17-18 (256-257) • grudzień 2014
Systemy UPS na fali wznoszącej Z Adamem Przasnyskim, marketing managerem w Eaton Power Quality S.A. Oddział w Polsce, rozmawiał Krzysztof Polak Do kogo Eaton adresuje swoje urządzenia zasilania gwarantowanego UPS? – Portfolio Eaton zawiera cały wachlarz rozwiązań przeznaczonych dla szerokiego kręgu odbiorców – zarówno indywidualnych, jak i firm z sektora MŚP, dużych korporacji, zakładów przemysłowych, produkcyjnych, administracji itd. Naturalny jest więc ich podział ze względu na odbiorcę. Zasilacze o mniejszej mocy (do 6 kVA) są przeznaczone dla sektora SOHO – zwykle są to zasilacze 1-fazowe, te o większej mocy (od 8 kVA do nawet 1100 kVA) – dla MŚP, centrów przetwarzania danych, zakładów przemysłowych – jako urządzenia 3-fazowe. W obu tych segmentach rynku rysują się obecnie obiecujące perspektywy sprzedaży. Dlaczego popyt na zasilacze Eaton należy oceniać jako obiecujący? – Wynika to z tendencji rynkowych, które przybierają na sile. Weźmy chociażby rynek centrów danych, który – według tegorocznego raportu PMR Poland – zaczyna u nas rozkwitać. Polska jest drugim w Europie Środkowo-Wschodniej rynkiem tego rodzaju. W ostatnich latach polski rynek centrów danych powiększa się co najmniej o kilkanaście procent co roku. Z drugiej strony mikroprzedsiębiorstwa, małe i średnie firmy coraz odważniej sięgają po serwery i urządzenia pamięci masowych. Nawet w warunkach domowych coraz częściej można spotkać domowe sieci wyposażone w pamięć masową o wielkości kilku terabajtów, która jest dostępna z zewnątrz przez internet. nr 17-18 (256-257) • grudzień 2014
Czy popyt jest pochodną rozwoju chmury? – Wiele mówi się o chmurze (cloud computing), ale na ogół w domyśle utożsamiamy ją z dużymi centrami danych. Tymczasem przybywa małych chmurek, z których korzystają małe biura, mikroprzedsiębiorstwa i małe firmy. Wszędzie tam są potrzebne zarówno niezawodne systemy zasilania gwarantowanego wykorzystujące zasilacze UPS, jak i listwy zasilające dopasowane do konkretnych potrzeb. Warto dodać, że to, co się obecnie dzieje w zakresie rozwoju chmury, jest wciąż fazą wstępną. Wniosek jest prosty: w miarę upowszechniania się chmur obliczeniowych, zarówno tych wielkich, jak i małych, będzie rosnąć popyt na systemy zasilania gwarantowanego, które należycie zabezpieczą ich funkcje. Jakie argumenty przemawiają za tym, by zainteresowani zwrócili się ku produktom Eaton? – Takich argumentów jest wiele. Dla klientów z sektora SOHO i MŚP na pewno ważnym parametrem jest konkurencyjna cena, a także stosunek jakości do ceny, u nas na bardzo wysokim poziomie. Także budowa – nasze urządzenia są kompaktowe, co sprawia, że zajmują stosunkowo mało powierzchni użytkowej. Zwłaszcza w serwerowniach, gdzie każda przestrzeń (nawet 1U) jest bardzo cenna, staje się to ważnym argumentem. Wysoka sprawność – to oszczędności eksploatacyjne (mniejsze rachunki za energię) i mniejsze straty cieplne. Dodatkowo zastosowanie zaawansowanych
W miarę upowszechniania się chmur obliczeniowych, będzie rosnąć popyt na systemy zasilania gwarantowanego, które należycie zabezpieczą ich funkcje. technologicznie rozwiązań pozwala w ciągu kilku lat osiągnąć oszczędności porównywalne z nakładami poniesionymi na inwestycję. Stawia to produkty Eaton na uprzywilejowanej pozycji w porównaniu ze sprzętem oferowanym przez konkurentów. Jakie referencje wskazują na przydatność urządzeń Eaton w zabezpieczaniu zasilania różnego typu zasobów IT? – Są nimi umowy partnerskie z wiodącymi dostawcami rozwiązań wirtualizacyjnych i chmurowych (np. VMware, Citrix, Cisco, NetApp, EMC), na mocy których dochodzi do aliansów technologicznych. Platformy wirtualizacyjne są wyposażone w zakładki, które umożliwiają ich współpracę z systemami zarządzania zasilaniem Eaton. Oczywiście nie każde centrum danych korzysta z rozwiązań Eaton, ale gdyby zapadła decyzja, by je zastosować, to okaże się, że nie ma ku temu żadnych przeszkód. Dlaczego? Platformy sprzętowo-programistyczne są gotowe do natychmiastowego podjęcia współpracy z urządzeniami Eaton. Z kolei posługiwanie się nimi umożliwia sterowanie całą infrastrukturą i zasobami IT z poziomu zasilania. w iT Reseller
29
» TECHNOLOGIE
Ultra HD – piękno tkwi w szczegółach Wojciech Urbanek
Eksperci liczą, że format ultra HD ożywi senny rynek telewizorów oraz ekranów. Jednak podobne nadzieje wiązano z technologią 3D.
Z
achwyty nad Avatarem przeminęły, zaś BCC i ESPN pospiesznie wyłączyły kanały w formacie 3D. Trójwymiarowy obraz dość szybko znudził się widzom, więc trzeba im zaserwować coś nowego. Tym razem dostawcy sprzętu próbują wypromować rozdzielczość ultra HD. Ekrany full HD o rozdzielczości 1080p (1920 × 1080 pikseli), wyświetlają maksymalnie 2 miliony pikseli. Możliwości ultra HD są nieporównywalnie większe – ich standardowa rozdzielczość wynosi 3840 × 2160 pikseli, zaś szczegółowość wyświetlanego obrazu jest cztery razy wyższa niż w wypadku full HD. Analiza parametrów technicznych nie pozostawia złudzeń, ale czy ludzki wzrok wychwyci subtelne różnice? – Nawet mniej wprawne oko jest w stanie dojrzeć ułomności aktualnej technologii. Najnowszy standard wpływa na klarowność obrazu. Jest bardziej naturalny, co przejawia się m.in. w postaci gładkich czcionek i cienkich linii – uspokaja Dominik Trojanowski, EIZO Business Unit Director w firmie Alstor.
Monitor czy telewizor? Inwazja kieszonkowych terminali zepchnęła komputery stacjonarne, a wraz z nimi duże ekrany, na margines rynku. Jednak ostatnie miesiące przyniosły
30
iT Reseller
lepszy klimat dla urządzeń stacjonarnych. Czy format ultra HD podtrzyma niezłą passę komputerów PC? Tego nie można wykluczyć, tym bardziej że specjaliści od obrazu przekonują, że właściciele monitorów ultra HD szybciej dostrzegą walory superrozdzielczości aniżeli telewidzowie. Dlaczego? Użytkownik komputera znajduje się około 50 centymetrów od ekranu, dzięki czemu zauważa więcej szczegółów niż osoba oglądająca film z odległości kilku metrów. Inną ważną kwestią jest dostępność treści. Na razie większe stacje nadawcze nie emitują sygnału w jakości ultra HD, ograniczając się do transmisji testowych. Natomiast podczas pracy z dokumentami, zdjęciami można natychmiast wykorzystać walory nowej rozdzielczości. Szczególnie docenią ją graficy, twórcy filmów czy osoby zajmujące się edycją 3D. – Czterokrotnie wyższa rozdzielczość pozwala dostrzec najdrobniejsze szczegóły w wyświetlanych projektach, zdjęciach czy zaawansowanych arkuszach kalkulacyjnych, a jednocześnie zmieścić znacznie więcej elementów na porównywalnej powierzchni roboczej ekranu. Można w dogodnym miejscu zakotwiczyć podręczne menu, dogodnie rozłożyć wyświetlane okna, ograniczyć przewijanie rozbudowanych dokumentów czy uruchomić kilka aplikacji widocznych nr 17-18 (256-257) • grudzień 2014
jednocześnie – tłumaczy Wojciech Dziwok, National Key Account Manager MMD i AOC.
Szansa dla kanału sprzedaży O ile resellerzy nie mają co liczyć na zyski ze sprzedaży telewizorów ultra HD, o tyle w wypadku monitorów wydaje się to całkiem realny scenariusz. – Obecnie UHD ma zastosowanie głównie biznesowe. Gospodarstwa domowe, mam na myśli rynek LCD TV, nie są w stanie czerpać z dobrodziejstw tego standardu, głównie ze względu na limity technologiczne pojawiające się w przypadku transferu obrazu o tak wysokiej rozdzielczości. Dziś w Polsce jest to po prostu niemożliwe – mówi Robert Buława, Manager Channel Sales & Marketing Central South East Europe NEC Display Solutions. Wszystko wskazuje na to, że użytkownikami nowej technologii będą przede wszystkim firmy oraz osoby wykorzystujące ją do pracy zawodowej. To dobra wiadomość dla resellerów oraz integratorów, którzy potrafią najszybciej zidentyfikować potrzeby tej grupy klientów i dostarczyć odpowiednie rozwiązania. Jednak żeby tak się stało, należy spopularyzować nowy standard. Kampania już ruszyła. NEC mocno eksploatuje temat ultra HD podczas imprez firmowych, uruchomił też specjalną witrynę poświęconą temu standardowi, gdzie każdy może zapoznać się aktualnościami i uzyskać niezbędną wiedzę. MMD oraz AOC wystartowały z kampanią internetową przybliżającą tematykę, prezentują monitory w gazetkach dystrybuowanych w sieciach partnerskich, pokazują produkty na wystawienniczych imprezach. Wraz z rosnącą popularnością standardu firmy zintensyfikują tego typu działania. Dominik Trojanowski uważa, że w ślad za rosnącą sprzedażą ultra HD pojawi się popyt na większe zasoby pamięci masowej, bardziej wydajne karty graficzne, czy wreszcie stacje robocze. Z kolei dystrybucja sygnału przyczyni się do wzrostu zapotrzebowania na nośniki fizyczne, niezbędny sprzęt sieciowy i aplikacje wspierające standard ultra HD.
Dell i Apple wyszły przed szereg? Nowa era obrazu jest utożsamiana z rozdzielczością ultra HD oraz formatem 4K, tymczasem Dell oraz Apple pokazały w tym roku ekrany 5K. Monitor ultra Sharp 27 5K wyświetla 14,7 miliona pikseli, dla porównania 4K „tylko” 8,29 miliona. Duże wrażenie robi również iMac w wersji AIO z 27-calowym ekranem 5K Retina. Czy dwójka vendorów uciekła konkurentom? – Nie sądzimy, aby tak się stało. Poza wyprodukowaniem ekranu o jeszcze większej rozdzielczości trzeba pamiętać o tym, jak to wykorzystać w praktyce oraz jak zachowa się sprzęt i aplikacje – one też wymagają odpowiedniej adaptacji nowych technologii. A przecież na dzień dzisiejszy jeszcze na dobre nie zagościł standard 4K – tłumaczy Dominik Trojanowski. W podobnym tonie wypowiadają się inni eksperci, którzy uważają, że 5K to zbyt duży skok. Monitory UHD i projektory 4K wyczerpują limity pojemnościowe interfejsów wideo. Jedynym standardem umożliwiającym całkowite przesyłanie obrazu ultra HD oraz 4K przy v nr 17-18 (256-257) • grudzień 2014
NEC MultiSync EA244UHD to 24-calowy monitor wyposażony w panel IPS wykonany w najnowszej technologii AH z podświetleniem szerokogamutowym GB-r LED oferujący natywną rozdzielczość UHD 3840 × 2160 pikseli. Monitor został oparty na zaawansowanej elektronice sterującej, wyposażonej między innymi w układ wyrównywania jednorodności podświetlenia i temperatury barwowej na całym ekranie oraz 14-bitową tablicę LUT umożliwiającą precyzyjną kalibrację. Monitor posiada szeroki zakres regulacji nie tylko parametrów wyświetlania obrazu, ale również ergonomii. Stopka zaprojektowana została w taki sposób, aby umożliwić szeroką regulację wysokości, kąta nachylenia oraz obrotu panelu. Nie zapomniano również o możliwości pracy w pionie. Monitor został także wyposażony w czujnik obecności użytkownika oraz czujnik natężenia oświetlenia otoczenia, dzięki czemu dostosowuje obraz do warunków pracy użytkownika. NEC MultiSync EA244UHD posiada wiele złączy sygnałowych, w tym złącze Display Port pozwalające na przenoszenie pełnego sygnału UHD w 60 klatkach na sekundę. Monitor idealny do zastosowania w pracy z kolorem, obróbce wideo, w systemach finansowych oraz wszędzie tam, gdzie konieczna jest ogromna przestrzeń robocza.
Ultra HD czy 4K PRZY OMAWIANIU URZĄDZEŃ WYŚWIETLAJĄCYCH OBRAZ o bardzo wysokiej rozdzielczości warto podkreślić wagę poprawnej nomenklatury. Rozdzielczość ultra HD nie jest wymiennym terminem z 4K – to zupełnie inne szerokości robocze, a co za tym idzie – zupełnie inny format. Problem może się pojawić w momencie oferowania monitorów lub projektorów ultra HD w przetargach, gdy klient będzie wymagać rozdzielczości 4K (terminu używanego odruchowo). Pamiętajmy, rozdzielczość UHD wynosi 3840 × 2160 pikseli, natomiast 4K to rozdzielczość stosowana w projektorach kinowych 4096 × 2160 pikseli, która notabene jest rozwinięciem od dawna stosowanego formatu 2K, oznaczającego rozdzielczość 2048 × 1080 pikseli.
iT Reseller
31
» TECHNOLOGIE v zachowaniu 60 klatek na sekundę jest DisplayPort 1.2. W wypadku monitora 5K transmisja obrazu musi się odbywać za pomocą dwóch przyłączy DisplayPort 1.2. Ultra HD bardzo łatwo się skaluje z rozdzielczością HD. Zupełnie inaczej przedstawia się sytuacja w wypadku standardu 5K, gdzie interpolowanie obrazu będzie widoczne. Natomiast niezaprzeczalnym walorem 5K jest połączenie rozdzielczości 4K (4 × 1024, 4 × kilo) z formatem 16:9, stosowanym obecnie w każdym monitorze czy telewizorze. w
ZDANIEM EKSPERTA
WOJCIECH KOSEK Field Sales Engineer Central South East Europe NEC Display Solutions
ROBERT BUŁAWA Manager Channel Sales & Marketing Central South East Europe NEC Display Solutions
32
iT Reseller
NOWE TECHNOLOGIE to przede wszystkim szansa dla resellerów. Wprowadzając na rynek nowe rozwiązania, dajemy naszym partnerom szansę mocnego wyróżnienia się, zwiększamy ich konkurencyjność. Należy pamiętać, że np. rynek profesjonalnych rozwiązań AV to całkowicie inna specyfika niż sprzęt komercyjny sprzedawany w sklepach wielkopowierzchniowych. Często jedyną częścią wspólną takich urządzeń jest nazwa użytej technologii, która jest zazwyczaj zdecydowanie bardziej rozwinięta właśnie w wypadku profesjonalnych urządzeń. Wprowadzanie przez resellera nowości rynkowych do własnej oferty daje również możliwości uczestniczenia w programach unijnych z dotacjami na innowacje.
W KAŻDYM SEGMENCIE OFERTY NEC można obecnie znaleźć urządzenia wyświetlające obraz w rozdzielczości UHD (3840 × 2160 pikseli) lub 4K (4096 × 2160 pikseli). W zależności od profilu partnera oraz oferowanych przez niego rozwiązań możemy skutecznie wspierać projekty zarówno niewielkimi 24-calowymi monitorami, 32-calowymi wyposażonymi w panele wyświetlające obraz w rozdzielczości UHD, jak i monitorami wielkoformatowymi w rozdzielczości UHD, o przekątnych 65”, 84”, 98”. Do dyspozycji resellerów mamy również gamę projektorów instalacyjnych, w tym również laserowych, wyposażonych w interfejs 4K, a także wyświetlających obraz w pełnej rozdzielczości 4K. Przy omawianiu urządzeń wyświetlających obraz o bardzo wysokiej rozdzielczości warto podkreślić wagę poprawnej nomenklatury. Rozdzielczość UHD nie jest wymiennym terminem z 4K – to zupełnie inne szerokości robocze, a co za tym idzie – zupełnie inny format. Problem może się pojawić w momencie oferowania monitorów lub projektorów UHD w przetargach, gdzie klient wymaga rozdzielczości 4K (terminu używanego odruchowo). Pamiętajmy, rozdzielczość UHD to 3840 × 2160 pikseli, natomiast 4K to rozdzielczość stosowana w projektorach kinowych 4096 × 2160 pikseli, która notabene jest rozwinięciem od dawna stosowanego formatu 2K, oznaczającego rozdzielczość 2048 × 1080 pikseli.
NEC MultiSync X841UHD to 84-calowy wielkoformatowy monitor przeznaczony do pracy w miejscach, gdzie wymagana jest praca 16 lub 24 godziny na dobę. Monitor został wyposażony w najwyższej klasy profesjonalny panel wyświetlający obraz w rozdzielczości 3840 × 2160 pikseli o jasności 500 cd/m2. Dzięki zaawansowanym technologiom, w tym silnikowi SpectraView® oraz układowi wyrównywania jednorodności podświetlenia 84-calowy monitor NEC to jeden z najbardziej zaawansowanych monitorów UHD na rynku. X841UHD został wyposażony w gniazdo opcji zgodne ze standardem OPS umożliwiającym rozszerzenie funkcjonalności monitora o dodatkowy komputer, player Android lub złącza HD-SDI. Dodatkowo monitor posiada czujnik NFC umożliwiający zaprogramowanie wszystkich parametrów wyświetlania za pomocą dowolnego urządzenia wyposażonego w nadajnik NFC nawet bez użycia prądu (monitor nie musi być podpięty do sieci). NEC MultiSync® X841UHD znajduje zastosowanie szczególnie w przypadku budowy synoptycznych ścian wideo, wszelkiego rodzaju symulatorów oraz w wyrafinowanych systemach reklamy cyfrowej.
Niebawem do sprzedaży trafi również łączący wszystkie nowoczesne technologie projektor instalacyjny NEC PH1201QL wyświetlający obraz o jasności 12 tysięcy ANSI lumenów i rozdzielczości 4K 4096 × 2160 pikseli za pomocą laserowo-fosforowego źródła światła. To całkowicie przełomowy produkt, który bezobsługowo będzie mógł pracować przez nawet 20 tysięcy godzin, nie korzystając z trybów ekologicznych. Projektor znajdzie zastosowanie nie tylko na rynku rentalowym i prezentacyjnym, ale również w zaawansowanych instalacjach multimedialnych, np. w muzeach, teatrach i innych obiektach kulturalnych.
nr 17-18 (256-257) • grudzień 2014
» DEBATA
Zdaniem ekspertów technologia 4K skaznana jest na sukces. Od lewej: Wojciech Dziwok, Tomasz Obłuski, Dominik Trojanowski, Paweł Ruman.
4K – rewolucja w obrazie Rozmowę prowadzi Mieczysław T. Starkowski
Telewizja nie zaakceptowała technologii 3D. Szeroko pojęta branża związana z obrazem postawiła więc na 4K. Co oznacza nowy standard? Czym się różni od poprzednich? Jakie zmiany może spowodować? Jak sprzedawać rozwiązania 4K? – zastanawiają się WOJCIECH DZIWOK, National Key Account Manager for Poland w firmie MMD (przedstawiciel Philipsa), TOMASZ OBŁUSKI, pracownik działu technicznego w firmie Alstor (dystrybutor produktów EIZO), PAWEŁ RUMAN, Country Manager Poland w MMD, DOMINIK TROJANOWSKI, EIZO Business Unit Director w Alstorze, oraz z naszej strony MIECZYSŁAW T. STARKOWSKI nr 17-18 (256-257) • grudzień 2014
Producenci atakują nas nowościami. Co oznacza technologia 4K? Jakie korzyści daje użytkownikom? DOMINIK TROJANOWSKI: Większości ludzi technologia 4K kojarzy się po prostu z lepszą jakością obrazu. A konkretnie – nową jakością wideo. Z naszego punktu widzenia oznacza to duże zmiany, przede wszystkim jeżeli chodzi o monitory. Ale nie tylko. Te zmiany pociągają za sobą wzrost popytu na rozwój różnych urządzeń, które są w stanie zarządzać rozdzielczością. Zwłaszcza że mówimy o obrazach ogromnych rozmiarów. Jedna klatka nieskompresowanego materiału 4K dochodzi do kilkudziesięciu, nawet 90 megabajtów. Biorąc pod uwagę, że jest 60 takich klatek na sekundę, nietrudno policzyć, ile pamięci potrzeba, żeby zapisać godzinę filmu. Poza tym trzeba go obrobić, przesłać i tak dalej. Wracając do monitorów, szczególnie przy zastosowaniu programów CAD/ CAM, możemy mówić o dużych korzyściach… Nie zapominajmy jednak, że do tej pory, mówiąc o obszarze roboczym monitora, podkreślamy znaczenie rozdzielczości. Naturalnie większe matryce zapewniają lepszą rozdzielczość. Natomiast w wypadku technologii 4K pojawia się problem małej czcionki. Trzeba zatem pamiętać o nowym
parametrze świadczącym o jakości renderowanego obrazu. Mówię o dpi, czyli liczbie punktów na cal, innymi słowy – o gęstości obrazu. Chodzi więc o zapewnienie komfortu pracy, przy uwzględnieniu interfejsu użytkownika. To podstawa rozwoju tej technologii w różnych dziedzinach. PAWEŁ RUMAN: Z naszego punktu widzenia najważniejsze są monitory. Gdy wprowadzano ekrany full HD, był problem z dostępnością treści. W wypadku monitorów 4K tego problemu nie ma. W pierwszej kolejności rynkiem docelowym są projektanci, osoby pracujące na dokumentach itp. Monitory 4K już dziś poprawiają komfort pracy. WOJCIECH DZIWOK: W tym wypadku zdecydowanie mamy do czynienia z rewolucją. Weźmy popularny dziś monitor 28-calowy. Następny model, który niebawem wprowadzimy, będzie miał 40 cali. Jeszcze do niedawna mieścił się w kategorii science fiction. W wyświetlacze tej wielkości wyposażone były tylko telewizory. Tymczasem 40-calowy monitor komputerowy 4K oznacza zupełnie nową jakość pracy. Taka rozdzielczość daje nieporównywalne możliwości w wyświetlaniu wielu aplikacji czy obrazu z różnych źródeł na jednym ekranie. Dodatkowo przy 4K nie ma najmniejszego problemu, iT Reseller
33
» DEBATA żeby postawić duży monitor w bliskiej odległości od oczu. Precyzja jest na tyle wystarczająca, że wszystko będziemy dobrze widzieli. Czy ta bliskość nie przeszkadza, nie męczy wzroku? P.R.: Monitor 4K daje komfort odbierania bardzo dobrego obrazu z naciskiem na detale. Jednocześnie można postawić takie urządzenie bliżej i mimo wszystko nie odczuwa się zmęczenia, a tym bardziej nie powinniśmy mówić o uszczerbku dla zdrowia. Te ekrany mają zupełnie inne podświetlenie niż sprzęt poprzedniej generacji. Podwyższona rozdzielczość nie powoduje dyskomfortu, ponieważ nie widzimy pojedynczych pikseli. Nawet z bliska obraz się nie rozmywa. Przeciwnie, jesteśmy w stanie zaobserwować więcej detali. D.T.: Z pewnością niejednokrotnie pojawia się bariera psychologiczna. Ale musimy być przygotowani na zmiany. Apple mówi już o 5K, w Japonii testuje się 8K. Tak czy inaczej wielkość ekranu zmienia sposób naszej pracy. Jak wynika z analiz firmy EIZO, ciągle popularne są biurowe monitory 19-calowe. Ale coraz częściej mamy do czynienia z 23-, a nawet 27-calowymi. Jeżeli chodzi o te większe, przy długotrwałej pracy sporo osób narzeka na tak zwany efekt rozbieganych oczu. Ludzie mają kłopot z podziałem tak dużego obszaru roboczego. Dlatego w zastosowaniach biurowych preferuje się zestawy dwumonitorowe. Technologia 4K i związane z nią wprowadzanie większych monitorów będą prawdopodobnie zmuszały użytkowników do zmiany przyzwyczajeń, czyli zaakceptowania jednego dużego ekranu. Większy monitor da nam możliwość pracy z dalszej odległości. Oznacza to inne podejście do ergonomii, efektywności i tak dalej. Jak już wspominaliśmy, mówimy o wysokiej gęstości, a nie tylko o rozdzielczości matrycy. Właśnie dpi decyduje o tym, jak wygląda obraz. Świetnie widać to przy pracy z dokumentami PDF, w których na mniejszym wyświetlaczu (przy pewnym powiększeniu) czcionka zaczyna być poszarpana. W wypadku 4K ten problem znika.
34
iT Reseller
W.D.: Zwróćmy uwagę: gdy idziemy do kina (szczególnie IMAX), zwykle staramy się usiąść w połowie odległości od ekranu, a nie na końcu, mimo że ten ekran jest potwornie wielki. Nie chcemy się oddalać, chcemy być bliżej, żeby dobrze widzieć detale. I to pokazuje różnicę między 4K a poprzednimi technologiami. Rosną nam ekrany, ale nie zwiększa się odległość, z jakiej chcemy patrzeć. Wręcz przeciwnie, to może być dobry slogan: 4K idealnie nadaje się do przeciętnego polskiego mieszkania, ponieważ przy naszych niewielkich powierzchniach płaski ekran 55-, czy nawet 65-calowy możemy w zasadzie umieścić w dowolnym pokoju, zawsze mając komfort oglądania. Mieliśmy całą linię monitorów komputerowych o panoramicznym formacie 21:9. Rozwiązanie to zostało zaczerpnięte z telewizorów Philipsa. Przeniesienie tych proporcji do monitorów okazało się bardzo dobrym pomysłem, ponieważ kapitalnie się sprawdziły przy technologii multiview, dającej możliwość podpięcia kilku źródeł obrazu jednocześnie. Trudno rozstrzygnąć, czy lepsze są dwa mniejsze ekrany czy jeden większy. To naprawdę zależy od preferencji użytkowników. W wypadku 4K tendencja do wyświetlania kilku obrazów na jednym ekranie jest bardzo silna i widoczna. Z pewnością pojawiają się zupełnie nowe możliwości dla użytkowników. D.T.: W zastosowaniach biurowych świetnie sprawdzają się monitory w pionie… W.D.: Mamy klienta, który kupił monitory formatu 21:9 po to, żeby postawić je pionowo. Jak się okazało, pracownicy mieli dokumenty, w których występowało około 300 parametrów. Dlatego ustawienie tych dokumentów w pionie było dużym ułatwieniem pracy. To jest właśnie zjawisko, o którym mówimy. Czasem należy coś zmienić wbrew uprzedzeniom. Obrócić sytuację na swoją korzyść, wykorzystując inny układ niż ten, do którego ludzie po prostu przywykli. A wracając do jakości obrazu, mamy chyba do czynienia z podobną zmianą technologiczną, jaka miała miejsce choćby w wypadku DVD kontra taśma
wideo. Dziś nikt nie chciałby pewnie oglądać taśm wideo, mając do dyspozycji DVD. Jak się widziało blu-ray, to zaczyna się kręcić nosem na DVD. Oglądając materiał wideo 4K, człowiek tym bardziej go sobie ceni, chciałby mieć w tym standardzie wszystko. Lepsze jest zawsze wrogiem dobrego. Działanie niestandardowe niesie ze sobą ryzyko. Ale często nagrodą jest duża korzyść. TOMASZ OBŁUSKI: Zjawisko jest jeszcze szersze. Należy się również przyjrzeć pozostałemu sprzętowi, który jest konieczny, by móc w pełni korzystać z zalet technologii 4K. Generalnie rzecz biorąc, trzeba będzie wymienić praktycznie większość komputerów, kart graficznych, dysków twardych i zapasowych, żeby cokolwiek zrobić z materiałem 4K – przechować go czy przygotować do emisji. Będzie też potrzebne bardzo szerokie pasmo. To jest technologia, która zapewni nam wzrost sprzedaży różnych urządzeń. W.D.: Oczywiście wiedzą panowie o Japończykach, którzy przeprowadzili już u siebie transmisję 8K. Na razie na ograniczonym dystansie, ale to już się dzieje. Cały czas myślimy w kategoriach materiału offline’owego, który mamy u siebie, pod ręką i możemy odtworzyć w dowolnym momencie. Trzeba jednak pamiętać, co tak na dobrą sprawę pociągnęło rozwój full HD jeżeli chodzi o telewizję. Wbrew pozorom nie była to technologia blu-ray, ale broadcast, czyli możliwość odbioru programów w telewizji. Dopiero gdy stacje telewizyjne zaczęły nadawać w full HD, klienci tłumnie rzucili się do sklepów i zaczęli kupować telewizory full HD. Chcieli zobaczyć mecz albo dobry film w porządnej jakości, czyli transmitowany właśnie w full HD. Jednak są jeszcze oczywiście problematyczne kwestie pasma czy przechowywania. D.T.: Faktycznie, trzeba patrzeć na zagadnienie jak najszerzej, nie tylko z punktu widzenia końcowego odbiorcy, który chce mieć duży monitor i pojemny dysk twardy przy komputerze. Nie zapominajmy o tym, że wszystko się zmienia. Nie chcemy nosić dodatnr 17-18 (256-257) • grudzień 2014
kowych kabli. Staramy się korzystać z przenośnych pendrive’ów, sieci bezprzewodowych i przechowywać zasoby w chmurze. Niezwykle istotne będą też centra danych. To powoduje konieczność innego sposobu myślenia nie tylko o technice. P.R.: Oczywiście, zmieniają się modele biznesowe. Ale trzeba też przygotować nowe urządzenia. Dlatego moim zdaniem technologia 4K z pewnością wymusi rozwój całej branży. To będzie rewolucja. D.T.: Ogromne znaczenie będzie miała kompresja danych. Żeby można było przesyłać sygnał 4K na masową skalę, trzeba będzie stworzyć nowe algorytmy kompresji danych. P.R.: Nasze firmy zajmujące się monitorami są i tak w dobrej sytuacji. Możemy już proponować rozwiązania 4K, możemy ich używać. Ale nie musimy wymieniać od razu wszystkiego. Natomiast konsekwencją będą inwestycje w kolejne urządzenia.
40-calowy monitor komputerowy 4K oznacza zupełnie nową jakość pracy. Daje nieporównywalne możliwości w wyświetlaniu wielu aplikacji czy obrazu z różnych źródeł na jednym ekranie. WOJCIECH DZIWOK National Key Account Manager for Poland w firmie MMD (przedstawiciel Philipsa)
Z naszego punktu widzenia najważniejsze są monitory. Gdy wprowadzano ekrany full HD, był problem z dostępnością treści. W wypadku monitorów 4K tego problemu nie ma. PAWEŁ RUMAN Country Manager Poland w MMD
D.T.: Problem polega na tym, czy technologię 4K zaakceptują zwykli użytkownicy. T.O.: Jeżeli się okaże, że telewizja nie dostarcza cały czas sygnału 4K, a tylko full HD (i to nie zawsze), mogą być z tym kłopoty. Ludzie nie będą zainteresowani, żeby inwestować w nowy sprzęt. Natomiast jeśli telewizja zacznie dostarczać ciekawy materiał w 4K, możemy się spodziewać sporych zmian. Kilka tygodni temu telewizja publiczna przeprowadziła taki pokaz. D.T.: Ale z pewnością jeszcze daleka droga przed nami. Zgadzam się, że argument jest prosty: jak nie ma zawartości, to po co 4K. I to jest ogromna korzyść dla naszych firm. Powinniśmy przekonywać potencjalnych klientów, szczególnie instytucjonalnych, by zaczęli poznawać 4K na monitorach komputerowych – Office 2013, Photoshop i tak dalej. A tym bardziej użytkowników pracujących na programach CAD/CAM. Gdy ta technologia nr 17-18 (256-257) • grudzień 2014
Technologia 4K rzeczywiście zaspokaja potrzeby ludzi, którzy chcą widzieć dużo więcej i w dużo lepszej jakości. TOMASZ OBŁUSKI pracownik działu technicznego w Alstorze (dystrybutor produktów EIZO)
Technologia 4K i związane z nią wprowadzanie większych monitorów prawdopodobnie zmuszą użytkowników do zmiany przyzwyczajeń. DOMINIK TROJANOWSKI EIZO Business Unit Director w Alstorze iT Reseller
35
» DEBATA zagości w ich firmach, będą chcieli mieć ją również w domach. W.D.: Zgadzam się. Już teraz dzięki 4K przeciętny użytkownik może oglądać zdjęcia z wakacji w niespotykanej do tej pory jakości. Poza tym myślę o kolejnej dziedzinie, która się pojawia: gaming 4K. To będzie pewnie spora siła napędowa, która może pomóc. Zwłaszcza że ta branża dysponuje niesamowitymi pieniędzmi. Czyli Panowie nie widzą wielkich zagrożeń, jeżeli chodzi o popyt. Tyle że musi to trochę potrwać. I będzie kosztowne. T.O.: Obecnie nie wiemy, czy bardzo kosztowne. Za rok czy dwa może się okazać, że będzie to sprzęt powszechnego użytku. Natomiast według mnie z pewnością będzie to dużo lepsze rozwiązanie niż 3D. Ta ostatnia technologia została stworzona na potrzeby marketingu. Natomiast 4K rzeczywiście zaspokaja potrzeby ludzi, którzy chcą widzieć dużo więcej i w dużo lepszej jakości. W.D.: Mieliśmy już sporo technologii, które się nie sprawdziły mimo dobrych prognoz. Betacam, superaudio CD i wiele innych. Ale wydaje mi się, że 4K
to nie grozi, ponieważ jest dostępna na rozmaitych płaszczyznach i można powiedzieć, że jest skazana na sukces. Miałem okazję obserwować materiały demonstracyjne na 65-calowych telewizorach 4K i muszę powiedzieć, że widząc ujęcia przyrody, wspaniałe detale, byłem pod ogromnym wrażeniem. To znakomicie zastępuje 3D. T.O.: W technologii 4K widzimy dużo więcej, ostrzej i bardziej szczegółowo. Czy przewidują Panowie, że w przyszłym roku będziemy świadkami przełomu? T.O.: Z pewnością niebawem, bo wielu producentów zapowiada premiery. Czy to będzie już w przyszłym roku czy w następnym – trudno dzisiaj przesądzić. Za dwa lata rozmaite rozwiązania staną się na pewno dużo bardziej akceptowalne finansowo. W przyszłym roku nastąpi wysyp wielu modeli, a za dwa lata ten standard się upowszechni. W.D.: Nie ma ucieczki przed wysoką rozdzielczością. Kolejnym tego dowodem jest nowy czytnik Kindle. Opinie z rynku są rewelacyjne. D.T.: Dlatego moim zdaniem to najlepszy czas na takie debaty jak ta.
Myślę, że wielu ludzi nie zna jeszcze dobrze technologii 4K. Warto więc ją przedstawić. W jaki sposób sprzedaje się rozwiązania 4K? W jakich kanałach? P.R.: Na razie jest to przede wszystkim rynek B2B. Jak już zostało tu powiedziane, dzisiaj klientem docelowym jest klient biurowy, korporacyjny. Taki klient zdecydowanie częściej i chętniej inwestuje w nowe technologie, które sprawdzane są w pracy. Gdy przekona się do nich, kupuje podobny sprzęt do użytku domowego. W przyszłym roku spodziewamy się szybkiego rozwoju i rynek z pewnością będzie się poszerzał. W.D.: Jeżeli mówimy o monitorach komputerowych, niewątpliwie jest to pole do popisu dla resellerów, ponieważ oni mają najlepszy kontakt z klientami. Są w stanie doradzić, dobrać rozwiązanie do konkretnych potrzeb. Moim zdaniem, szczególnie we wczesnej fazie wprowadzania 4K, to właśnie resellerzy będą nadawać ton całej grze, ponieważ będą mogli najszybciej odpowiadać na potrzeby rynku. W późniejszym etapie dołączą być może duże sieci handlowe oraz mniejsze sklepy. w
R E K L A MA
NEC – pełne portfolio produktów 4K / UHD Zobacz więcej i pokaż więcej dzięki produktom wyświetlającym obraz w super wysokiej rozdzielczości 4K / UHD. NEC Display Solutions ma w swojej ofercie monitory desktopowe i wielkoformatowe Ultra High Definition (UHD) oraz projektory 4K.
Zobacz więcej na
www.nec-display-solutions.pl
© 2014 NEC Display Solutions Europe GmbH. Wszelkie prawa zastrzeżone. Wszelkie nazwy sprzętu i oprogramowania są nazwami własnymi i/lub zarejestrowanymi znakami towarowymi odpowiednich producentów. Zmiany specyfikacji mogą być dokonywane bez powiadomienia. NEC Display Solutions Europe GmbH Przedstawicielstwo w Polsce; ul. Bociana 22A, 31-231 Kraków; tel. (12) 6145353, e-mail: biuro@nec-displays-pl.com
36
iT Reseller
nr 17-18 (256-257) • grudzień 2014
» TECHNOLOGIE
MDM walczy z mobilnym chaosem Artur Król
Systemy MDM wchodzą przebojem do firm. Przedsiębiorcy potrzebują narzędzi, które pozwolą szybko i łatwo uporządkować mobilną flotę.
Ś
wiat mobilnych technologii rządzi się swoimi własnymi prawami. Znakomicie widać to chociażby na przykładzie systemów operacyjnych. O ile dostawcy komputerów opierają się praktycznie na systemie operacyjnym Microsoftu, o tyle w wypadku ultraprzenośnych terminali sprawy mocno się komplikują. Nawet w niewielkiej firmie, gdzie dziesięć osób korzysta ze smartfonów, mogą pojawiać się kłopoty. Załóżmy, że trzy osoby są szczęśliwymi posiadaczami iPhone’a, jedna dysponuje smartfonem BlackBerry, cztery kolejne obsługują Samsungi z Androidem, zaś dwie posługują się telefonami z systemem Windows Phone. Różni producenci, odmienne systemy operacyjne w różnych wersjach – jak uporać się z tym rozgardiaszem? Skala problemu jest nieporównywalnie większa w korporacjach, gdzie mobilne terminale liczy się w setkach czy nawet tysiącach.
MDM czy EMM – czyli mobilne porządki Tam gdzie pojawia się poważny problem, nadarza się jednocześnie okazja do zarabiania pieniędzy. Nie inaczej dzieje się w branży IT. Co ciekawe, conr 17-18 (256-257) • grudzień 2014
raz częściej potrafią ją dostrzec mniejsi producenci. Tak było w wypadku AirWatch, pioniera w dziedzinie rozwiązań do zarządzania i ochrony mobilnych terminali. Ciekawostką jest fakt, iż na początku bieżącego roku firma została przejęta przez VMware za 1,54 miliarda dolarów. Systemy opracowane przez AirWatch, a następnie kilku innych dostawców ochrzczono nazwą MDM – Mobile Device Management. Ich zadaniem jest optymalizacja funkcjonalności i bezpieczeństwa urządzeń mobilnych w przedsiębiorstwie i jednocześnie ochrona sieci firmowej. Wymagania stawiane tego typu syste-
mom są bardzo wysokie. Poza tym że muszą zapewniać zgodność z większością popularnych modeli urządzeń przenośnych, systemów operacyjnych i aplikacji, oczekuje się od nich dużej elastyczności w zakresie wdrażania oraz aktualizacji. MDM realizuje też funkcje zarządzania aplikacjami, synchronizacji plików i udostępniania danych, narzędzi bezpieczeństwa oraz wsparcia dla urządzeń firmowych oraz prywatnych. Obecnie za sprawą trendu BYOD o systemach MDM mówi się w szerszym kontekście zarządzania całą mobilnością firmy – EMM (Enterprise Mobility Management). Oba
IBM MaaS360 URZĄDZENIA MOBILNE SĄ POWSZECHNIE STOSOWANYM NARZĘDZIEM PROWADZENIA BIZNESU. Masowe wykorzystanie aplikacji mobilnych oraz mobilnego dostępu do stron WWW sprawia, że telefony i tablety stają się krytyczną częścią wielu procesów biznesowych i jako takie wymagają szczególnego nadzoru. Dodatkowo pracownicy coraz częściej używają prywatnych urządzeń do celów służbowych, co komplikuje zarządzanie i ochronę poufnych danych firmy. Rozwiązanie IBM MaaS360 oferuje rozbudowane funkcje, które umożliwiają zarządzanie urządzeniami mobilnymi z systemami iOS, Android czy Windows Phone oraz ochronę znajdujących się na nich danych przez cały cykl eksploatacji (rejestrowanie, zabezpieczanie, monitorowanie, zarządzanie aplikacjami i wsparcie). Produkt zawiera wszystkie elementy niezbędne do zaawansowanego zarządzania urządzeniami i aplikacjami mobilnymi oraz ochronę poufności danych (DLP). Rozwiązanie dostępne jest w modelu SaaS oraz w wersji instalowanej w środowisku klienta.
iT Reseller
37
» TECHNOLOGIE
ZDANIEM EKSPERTA
Krzysztof Celmer, Country Manager Poland, Citrix Systems
– Jakie produkty (usługi) oferujecie partnerom w ramach rozwiązania MDM? W ofercie Citrix kluczowym produktem do zarządzania mobilnością jest rozwiązanie Citrix XenMobile. To, co proponujemy klientom przez naszych certyfikowanych partnerów, to rozwiązanie klasy EMM (czyli Enterprise Mobility Management), dzięki któremu można w kompleksowy sposób zarządzać firmową mobilnością. XenMobile pozwala nie tylko na zarządzanie urządzeniami mobilnymi w ramach samych urządzeń i ich konfigurację (MDM), ale również na zarządzanie i zabezpieczanie aplikacji (MAM i np. MicroVPN) oraz na dostęp do danych i konkretnych zasobów firmy (MCM, czyli Mobile Content Management). – Jakie wymagania musi spełnić partner, żeby oferować rozwiązania MDM? W przypadku Citrix firma, która chce sprzedawać nasze produkty klientom, musi posiadać aktywny status partnera Citrix na jednym z trzech dostępnych poziomów: srebrnym, złotym lub platynowym. Jednak w odniesieniu do rozwiązań z zakresu mobilności istotną rolę odgrywa również unikalna wiedza partnera,
Carmine Trebisacce, Channel Lead, AirWatch by VMware
– Jakie produkty (usługi) oferujecie partnerom w ramach rozwiązania MDM? Ponad 12 tysięcy organizacji w 150 krajach wykorzystuje do zarządzania mobilnością przedsiębiorstw platformę AirWatch, która obejmuje wiodące na rynku rozwiązania do zarządzania urządzeniami mobilnymi, pocztą elektroniczną, aplikacjami, zawartością, laptopami i przeglądarką. Organizacje mogą wdrażać te rozwiązania indywidualnie dla unikalnych wymagań BYOD, jako rozwiązania kontenerowe przy użyciu AirWatch® Workspace lub jako kompleksową, wysoce skalowaną platformę mobilną klasy korporacyjnej. Przy pomocy największego w tej branży zespołu ds. badań i rozwoju AirWatch zapewnia najwszechstronniejsze wsparcie dla platform mobilnych, opracowuje rozwiązania, takie jak AirWatch® Secure Content Locker®, i integruje się z wiodącymi na rynku producentami urządzeń oraz dostawcami rozwiązań technologicznych w mobilnym ekosystemie. – Jakie wymagania musi spełnić partner, żeby oferować rozwiązania MDM? VMware i AirWatch stworzyły bardzo prosty sposób zostania partnerem dla obecnych partnerów VMware. Wystarczy wejść na stronę
38
iT Reseller
wynikająca z jego wcześniejszych doświadczeń wdrożeniowych u innych klientów. Tego rodzaju know-how bywa wielokrotnie wyżej oceniane przez klientów niż sama certyfikacja partnera, gdyż świadczy o jego doświadczeniu i profesjonalizmie. – Na jakie wsparcie może liczyć partner w temacie MDM przy współpracy z Państwa firmą? W wypadku rozwiązań do zarządzania mobilnością wychodzimy z założenia, że ich sprzedaż pojedynczo – bez innych technologii – jest mało efektywna. Chcemy, aby nasi partnerzy oferowali swoim klientom nasz produkt do zarządzania mobilnością w ramach dodatkowego rozszerzenia biznesowej funkcjonalności rozwiązań do wirtualizacji zasobów IT. Partner, który ma na uwadze zmiany potrzeb klienta i potrafi umiejętnie do tego dopasować zestaw odpowiednich technologii i rozwiązań Citrix, może liczyć na nasze pełne wsparcie zarówno techniczne, jak i sprzedażowe przy całym procesie wdrożeniowym: od momentu wdrożenia pilotażowego do całościowego w środowisku produkcyjnym.
Partner Central (http://www.air-watch.com/ partners/become-a-partner), zarejestrować się i wziąć udział w szkoleniu. Podobna metoda dotyczy organizacji, które nie są jeszcze partnerami VMware – trzeba wejść na stronę AirWatch (http://www.air-watch.com/partners) i wyrazić chęć zostania partnerem, a następnie dokonać rejestracji. – Na jakie wsparcie może liczyć partner w temacie MDM przy współpracy z Państwa firmą? AirWatch wierzy w upraszczanie mobilności przedsiębiorstw i tę filozofię firma stosuje w całej organizacji. Mamy liczne portale konsumenckie, które mają za zadanie zachęcanie do aktywnego samodokształcania. AirWatch zapewnia szereg portali internetowych markowanych „MyAirWatch”, które pomagają partnerom AirWatch w odniesieniu sukcesu. Organizujemy również cykl konferencji AirWatch Connect poświęconych mobilności z udziałem światowej klasy ekspertów. Zapewniamy pełny Partnerski Uniwersytet AirWatch – AirWatch Partner University, aby umożliwić naszym partnerom wzięcie udziału w szkoleniach organizowanych online lub w różnych lokalizacjach oraz materiały szkoleniowe i akredytacje.
nr 17-18 (256-257) • grudzień 2014
rozwiązania znajdują się na szczycie piramidy, niemniej warto wspomnieć o systemach MAM – czyli Mobile Application Management oraz MCM – Mobile Content Management.
określonych użytkowników mobilnych. Zadaniem administracji jest określenie sposobu korzystania z zasobów przez użytkownika, np. tylko odczyt, odczyt – zapis lub pełny zakres dostępu.
MDM vs. MAM vs. MCM
MDM i co dalej?
Kluczem do sukcesu udanego wdrożenia MDM w organizacji jest przyjęcie właściwego rozwiązania, dopasowanego do potrzeb firmy. Choć wybór rozwiązań oferowanych na rynku jest dość szeroki, należy uwzględnić różnice występujące między systemami. Decyzję o wdrożeniu odpowiedniego systemu powinna poprzedzić analiza infrastruktury istniejącej w organizacji, nawyków i zachowań pracowników, czy wreszcie polityki IT. Niezwykle ważną kwestią jest model własności terminali – może on obejmować wyłącznie terminale firmowe lub dopuszczać także prywatne smartfony i tablety. Z punktu widzenia administratora sieci korzystniejszy jest pierwszy wariant, ponieważ to organizacja decyduje o tym, które urządzenia mogą pracować w firmowej sieci. Wprowadzone restrykcje ograniczają ilość stosowanych systemów operacyjnych czy marek terminali. Ale kij ma dwa końce – zbyt duży rygor wprawia w irytację pracowników ceniących mobilnych swobodę. Co gorsza, jak pokazują badania, liczba utraconych czy zagubionych komputerów jest osiem, a nawet dziewięć razy niższa w wypadku sprzętu prywatnego niż służbowego. Nie od dziś wiadomo, że użytkownik bardziej dba o dobra prywatne. Systemy MDM są najbardziej dojrzałymi rozwiązaniami przeznaczonymi do zarządzania mobilną flotą. Na mniej wymagających klientów czekają produkty należące do grupy MAM i MCM. Pierwszy z wymienionych systemów umożliwia zarządzanie własnymi, publicznymi lub zakupionymi aplikacjami dla różnych użytkowników, korporacyjnych bądź współdzielonych urządzeń w przedsiębiorstwie. Do jego zadań należy także skanowanie urządzeń pod kątem poszukiwania nielegalnie zainstalowanego oprogramowania, nadzorowanie zaakceptowania przez użytkowników regulaminów korzystania z zasobów sieciowych itp. Z kolei MCM to kontrolowany dostęp do repozytoriów oraz dokumentów dla
Według raportu firmy Gartner z czerwca 2014 roku Magic Quadrant Enterprise for Mobility Management Suites do liderów rynku zalicza się AirWatch Mobile-
nr 17-18 (256-257) • grudzień 2014
Iron IBM, Citrix oraz Good Technology, w grupie wizjonerów znalazł się m.in. Symantec. Każdy z dostawców ma własną wizję MDM/EMM i w ramach swojego rozwiązania oferuje określoną funkcjonalność. Wybór odpowiedniego dostawcy jest ważny z punktu widzenia dalszych prac (w tym zasymilowania systemu ze strukturą informatyczną firmy) oraz satysfakcji odbiorcy z wdrożenia. w
REKLAMA
MICROSOFT-LICENCJE ESD W 15 MINUT - JUNIOR CRN V3.indd 1
17:11:00 iT2014-11-28 Reseller 39
» AKADEMIA RRC
Nowe narzędzia wideo do współpracy biznesowej Technologie umożliwiające łatwą współpracę i wymianę informacji przestają obecnie mieć status rozwiązań, które „warto mieć”, i stają się rozwiązaniami, które „trzeba mieć”. Jednak w pogoni za idealnym środowiskiem do pracy grupowej biurka pracowników zaczęły być zapełniane przez coraz większą liczbę dodatkowych elementów, wykonujących najczęściej tylko jedno zadanie, takich jak na przykład telefony, kamery internetowe lub dodatkowe monitory. 40
iT Reseller
K
orzystanie z wielu różnych urządzeń i technologii realizujących pojedyncze zadania zwiększa koszt wyposażenia stanowisk pracy, liczbę zadań obciążających pracowników działu IT świadczących wsparcie związane ze wszystkimi elementami systemu, a często także wywołuje frustrację użytkowników, którzy w ciągu dnia pracy muszą korzystać z działających w różny sposób interfejsów, urządzeń lub programów.
Przestrzeń do pracy, którą można dopasować do indywidualnych wymagań Rozwiązaniem tych problemów mogą być wprowadzone niedawno na rynek nowe urządzenia biurkowe Cisco DX70 i DX80. Tak jak swego czasu smartfony zrewolucjonizowały komunikację mobilną, podobnie oparte na systemie Android urządzenia DX70 i DX80 zasadniczo upraszczają i ułatwiają codzienną pracę, zapewniając jednolity dostęp do wszystkich najważniejszych narzędzi i aplikacji wy-
korzystywanych w środowiskach wymagających intensywnej współpracy między pracownikami. Pracujące pod kontrolą pełnej wersji systemu Android i wyposażone w duże, dotykowe wyświetlacze wysokiej rozdzielczości (1080p) oraz ruchomą kamerę dokumentową, urządzenia DX70 i DX80 wykorzystują zaawansowaną wiedzę i doświadczenie Cisco w dziedzinie technologii wideo HD, high-end audio, rozwiązań do obsługi konferencji webowych oraz integracji aplikacji biznesowych i internetowych.
System wideo w każdej firmie Niezawodne, wysokiej jakości rozwiązania wideo odgrywają znaczącą rolę wśród narzędzi do współpracy. Dzięki nim dyrektor pracujący w Warszawie może rano odbyć spotkanie twarzą w twarz z klientem w Krakowie, po południu spędzić czas z oddziałem firmy na Wybrzeżu, a dzień zamknąć naradą z zagranicznym kierownictwem firmy w USA. A wszystko to w ciągu zwykłenr 17-18 (256-257) • grudzień 2014
fot. (x 2) Courtesy of Cisco Systems, Inc. Unauthorized use not permitted
go, ośmiogodzinnego dnia pracy – nawet najlepszy samolot nie pozwoliłby zrealizować takiego planu. Jednak ta niezwykle wygodna technologia ciągle jest za mało dostępna: statystyki branżowe pokazują, że ponad 93 procent sal konferencyjnych na całym świecie nie jest wyposażonych w wysokiej jakości rozwiązania do komunikacji wideo. Ostatnie miesiące przyniosły jednak premierę technologii, które mogą zmienić ten stan rzeczy.
Wideokonferencja w każdej sali konferencyjnej Niedawno firma Cisco wprowadziła do oferty nowe systemy wideo, umożliwiające efektywne dzielenie się obrazem i innymi treściami w salach o różnych rozmiarach, w zależności od aktualnych potrzeb i dostępnej konfiguracji. Te w pełni zintegrowane systemy łączą w sobie elegancki, wielokrotnie nagradzany design z prostym i intuicyjnym interfejsem użytkownika. Cisco TelePresence MX200 i Cisco TelePresence MX300 są optymalne dla mniejszych pomieszczeń, charakteryzują się dobrym stosunkiem ceny do jakości, są niezwykle łatwe w instalacji i oferują rozdzielczość HD Premium (1080p). Z kolei systemy Cisco Tele-
Presence MX700 i Cisco TelePresence MX800 reprezentują linię produktów nastawionych na wydajność i są idealne dla średnich i dużych sal. Te zintegrowane systemy wideokonferencyjne oferują rozdzielczość HD Premium oraz wsparcie dla kodeka H.265, dając użytkownikom najwyższą jakość przekazu i wykorzystując zaledwie połowę zazwyczaj potrzebnej do tego przepustowości sieci.
Żadnych kompromisów między ceną i wydajnością Wiele firm posiada już w mniejszych salach konferencyjnych płaskie wyświetlacze panelowe. Zestaw Cisco TelePresence SX10 Quick Set dodaje nowe funkcjonalności do tych rozwiązań. Pozwala on na tworzenie niezwykłych przestrzeni spotkań wykorzystujących transmisję wideo i czyni opłacalnym wyposażenie każdej sali konferencyjnej w infrastrukturę wideo. System ten, który z pewnością zyska popularność wśród małych i średnich firm (kosztuje bowiem mniej niż dobrej klasy komputer) zamienia – w 10 minut lub mniej – dowolny standardowy wyświetlacz panelowy w system współpracy wideo w jakości HD. q
Rewolucja, na którą rynek czekał od lat Większość dostępnych dziś na rynku technologii wideo nie przystaje do biznesowych wyzwań współczesności i pozostaje w tyle za aktualnymi potrzebami firm. Nasze obserwacje wyraźnie wskazują, że rynek jest gotowy na zmianę i wręcz tej zmiany oczekuje. Najnowsze rozwiązania wideokonferencyjne Cisco wprowadzają zupełnie nową jakość na rynku rozwiązań komunikacji i współpracy biznesowej, czyniąc je dostępnymi dla firm różnej wielkości – od korporacji po przedsiębiorstwa z sektora SMB. Konrad Olszewski Consulting Systems Engineer, Cisco Poland
KOMENTARZ OD INTEGRATORA: Klienci bardzo pozytywnie oceniają codzienną pracę z wykorzystaniem Cisco TelePresence. System, mimo swojego zaawansowania technologicznego, jest bardzo przyjazny dla użytkowników i łatwy w obsłudze. Spotkania biznesowe prowadzone w formie wideokonferencji doceniane są za bezpieczeństwo komunikacji, zagwarantowane szyfrowaniem połączeń, i wysoką jakość przekazu. W naszej firmie używamy Cisco TelePresence od ponad dwóch lat do codziennych kontaktów między centralą w Poznaniu a naszym biurem w Warszawie, do spotkań z partnerami biznesowymi rozsianymi po całym świecie oraz przeprowadzania warsztatów i szkoleń. Cenimy tą formę komunikacji za komfort niemal bezpośrednich spotkań, bez stania w korkach i czasu straconego na podróże. Dariusz Ślusarski Dyrektor Techniczny Ventus Communications Sp. z o.o.
nr 17-18 (256-257) • grudzień 2014
iT Reseller
41
» WYWIAD
Pomagają nam nowe trendy Z Krzysztofem Hałgasem, dyrektorem zarządzającym Bakotech, rozmawiał Wojciech Urbanek
Naszą strategią jest skupienie się na rozwijaniu kilku wybranych linii rozwiązań w ramach dość wąskiej specjalizacji związanej z bezpieczeństwem i monitorowaniem sieci, aplikacji sieciowych czy urządzeń końcowych. 42
iT Reseller
Jak firma wykorzystuje internet w procesie dystrybucji? Czy nie obawiacie się, że e-commerce osłabi pozycję dystrybutorów IT? – Internet to jeden z podstawowych kanałów dystrybucji i każda firma musi liczyć się ze wzrastającą konkurencją w tym zakresie, również firmy dystrybucyjne. Profil działalności Bakotechu oparty na dostarczaniu zaawansowanych rozwiązań IT pozwala jednak skutecznie konkurować z platformami typu e-commerce. Naszymi partnerami są wyłącznie integratorzy i resellerzy skoncentrowani na rozwiązaniach bezpieczeństwa i sieci, którzy oczekują od nas konsultacji w zakresie doboru rozwiązań, wyceny, asysty w prowadzonych testach czy w końcu zapewnienia wsparcia posprzedażnego. Dla rynku, który jest oparty na wiedzy, Amazon czy inne platformy internetowe nie stanowią najważniejszego segmentu konkurencji. Nie zmienia to faktu, że wychodząc naprzeciw trendom na rynku, umożliwiamy partnerom handlowym znaczne uproszczenie kontaktów z nami dzięki możliwości rejestracji projektów czy zamówienia urządzeń testo-
wych przez naszą stronę WWW, automatyzujemy kampanie marketingowe, procesy wsparcia, RMA i integrujemy je z naszym systemem CRM. Powoduje to, że nasi partnerzy znacznie szybciej uzyskują wsparcie i informacje, na których im zależy, a my jesteśmy w stanie znacznie efektywniej odpowiadać na potrzeby kanału sprzedaży. Czy nadejście ery cloud to dobra wiadomość dla firmy Bakotech? – Zdecydowanie tak. Bakotech często wprowadza na polski rynek rozwiązania oparte na chmurze obliczeniowej, które będąc innowacyjnymi i nowatorskimi rozwiązaniami, nie zawsze postrzegane są w sposób, jakiego byśmy sobie życzyli. Na szczęście mocno pomagają nam trendy rynkowe. Konwergencja sieci w powiązaniu z procesami cyfryzacji i deregulacji, rozwój centrów danych, pojawienie się dużej liczby aplikacji sieciowych dostępnych w modelu subskrypcyjnym (SaaS), w końcu wirtualizacja kolejnych obszarów biznesowych związanych z bezpieczeństwem, sieciami czy pamięcią masową – to wszystko powoduje, że ogólne nr 17-18 (256-257) • grudzień 2014
trendy rynkowe pomagają nam w rozwijaniu sieci sprzedaży i osiąganiu kolejnych celów. Co oznacza dla dystrybutorów VAR migracja do trzeciej platformy? Dużo kłopotów czy pokaźne profity? – Chmura obliczeniowa, mobilność, analiza dużych zbiorów danych czy rozwój mediów społecznościowych oznaczają, że z punktu widzenia bezpieczeństwa każdej organizacji administratorzy IT będą musieli poświęcić znacznie więcej czasu zagadnieniom opracowania zasad dostępu do zasobów firmowych, danych, aplikacji czy stron WWW. Dla nas jako dystrybutora, który koncentruje się na rozwiązaniach związanych z bezpieczeństwem, to wyzwanie, ale i ogromna szansa na rozwój. Dostarczając zaawansowane rozwiązania do monitorowania i ochrony danych, sieci, urządzeń końcowych, w tym platform serwerowych czy mobilnych, Bakotech będzie z pewnością chciał rozszerzyć swoją obecność na rynku. Które z nowych trendów IT będą sprzyjać resellerom, a które mogą utrudnić im życie? – Z punktu widzenia resellera każda zmiana powoduje pewne problemy. Nowe trendy wymusiły uelastycznienie oferty i w wielu wypadkach konieczność przebudowy portfolio, co bezpośrednio przekłada się na zwiększony poziom inwestycji. Te wydatki jednak mają swoje uzasadnienie ekonomiczne. Pojawienie się tabletów i smartfonów, aplikacji sieciowych hostowanych w chmurze, dysków sieciowych i oprogramowania wirtualizującego posiadane zasoby (np. pamięci) spowodowało zasadniczą zmianę koncepcji ochrony sieci i ewolucję od ochrony urządzeń do ochrony zasobów, które mogą znajdować się w wielu lokalizacjach, na wielu urządzeniach i być używane przez wielu użytkowników na ich własnym sprzęcie. To ogromna szansa dla integratorów, którzy mogą zaoferować zupełnie nowe rozwiązania w wielu różnych modelach sprzedaży, rozszerzając swoją elastyczność i zwiększając zyski. Bakotech wprowadza do swojego portfolio marki słabo znane lub nieznane na polskim rynku. W jaki sposób próbujecie przekonać do nr 17-18 (256-257) • grudzień 2014
nieznanych rozwiązań i producentów swoich partnerów? – Bakotech jest nowym graczem na polskim rynku dystrybucyjnym. Firma została założona w lipcu 2013 roku i od tego czasu stosuje strategię wprowadzania na polski rynek stosunkowo mało znanych, ale innowacyjnych i wysokiej jakości rozwiązań, które odniosły bądź odnoszą sukces w Stanach Zjednoczonych lub krajach Europy Zachodniej. Do najlepszych przykładów należy Webroot – firma, która rewolucjonizuje zasady ochrony urządzeń końcowych, mobilnych i serwerów (w tym wirtualnych) i w odróżnieniu od większości firm na rynku nie analizuje sygnatur, ale opiera się na technologiach reputacyjnych, behawioralnych i lokalnym sandboxie, a zarazem daje możliwość kontroli aplikacji działających na urządzeniu i przywrócenia jego stanu w wypadku wystąpienia infekcji. Naszą strategią jest skupienie się na rozwijaniu kilku wybranych linii rozwiązań w ramach dość wąskiej specjalizacji związanej z bezpieczeństwem i monitorowaniem sieci, aplikacji sieciowych czy urządzeń końcowych. Do każdej rozwijanej linii produktowej jest wyznaczona osoba, która wraz z inżynierem sprzedaży zapewnia partnerom handlowym wsparcie handlowe i techniczne. Myślę, że kluczem do sukcesu jest koncentracja na wybranych obszarach biznesowych i bliska współpraca z producentem. Czy jest Pan zwolennikiem inicjatywy firm z branży bezpieczeństwa, dążących do połączenia swoich sił? Na ile poprawiłoby to bezpieczeństwo klientów? – Nie. Bezpieczeństwo jest krytycznym elementem systemu IT i jako takie nie powinno być w żaden sposób „regulowane” ani „unifikowane”. Nawet najlepsze systemy mogą zawieść. Ujednolicenie systemów bezpieczeństwa może prowadzić do ułatwienia zarządzania administratorom, ale z pewnością zasadniczo zwiększy podatność całego systemu na zagrożenia. Mimo istnienia na rynku wielu producentów, którzy harmonizują swoje linie produktowe czy przejmują konkurencyjne rozwiązania i dodają je do swojego portfolio, upraszczając zarządzanie i hipotetycznie pokrywając coraz szersze obszary bezpieczeństwa IT, wciąż rekomendowanym i najbardziej efektywnym
sposobem ochrony jest posiadanie zdywersyfikowanego systemu opartego na kilku różnych elementach pochodzących od kilku producentów, posiadających różne mechanizmy wykrywania zagrożeń i korzystające z różnych baz danych czy baz reputacyjnych. Mając tak rozbudowany system, tworzymy dla hakera zwielokrotnioną i wielopoziomową zaporę, znacząco zwiększając poziom bezpieczeństwa swojej organizacji. Czy resellerzy powinni szukać pieniędzy w instytucjach publicznych? Czy oferujecie im pomoc przy projektowaniu i realizacji projektów dla tego sektora rynku? – Tak, zdecydowanie. Mimo wciąż widocznego kryzysu sektor publiczny stanowi ważny element rynku IT w Polsce. Bakotech bierze czynny udział w przygotowywaniu dialogu technicznego swoich partnerów z wybranymi klientami, udziela wsparcia w zakresie doradztwa przy wyborze rozwiązania, testów, opracowywaniu dokumentacji przetargowej, dla wybranych rozwiązań oferuje również praktyczne wsparcie przy samej realizacji projektu w postaci bezpłatnych usług konsultacyjnych czy możliwości zakupu pełnej usługi implementacyjnej, serwisowej lub szkoleniowej. Czy wierzy Pan w cudowną moc programów partnerskich? A może wystarczy dobra marża i wsparcie techniczne? Która opcja jest Panu bliższa? – Przejrzystość i łatwość współpracy z producentem to – obok marży i wsparcia – główne powody rozwijania relacji handlowych. Bakotech stara się, żeby wszystkie programy partnerskie naszych producentów miały podobną formę i były zbliżone do siebie pod względem wymagań i korzyści. Nie zawsze jest to możliwe, ale dla producentów, których jesteśmy wyłącznym dystrybutorem w Polsce (Webroot, SpamTitan, NetScout, Netwrix, Gateprotect), staramy się definiować te programy tak, aby były one do siebie maksymalnie podobne. Z naszego punktu widzenia, jako dystrybutora i partnera, przejrzystość zasad współpracy zwiększa przewidywalność biznesową i możliwość budowania długoterminowych planów i relacji. w iT Reseller
43
» RYNEK
Wszystkim będzie dobrze Andrzej Janikowski
Klasyczni dystrybutorzy i firmy VAD od lat koegzystują na naszym rynku w stanie względnej równowagi. Wydaje się, że mimo pojawienia się nowych technik i koncepcji przetwarzania danych nadal nie zostanie ona zaburzona.
44
iT Reseller
M
ariusz Kochański, członek zarządu i dyrektor Działu Systemów Sieciowych w firmie Veracomp, mówi, że idea klasycznej dystrybucji produktów, czyli broadline, odnosi się do logistyki oraz finansowania kanału sprzedaży. Przypomina też, że koncepcja łańcucha wartości stworzona przez Michaela Portera w 1985 roku powstawała w czasach, kiedy nie było jeszcze rozwiniętej globalizacji, standaryzacji, outsourcingu, no i kiedy rynek komputerów PC dopiero się rodził. – Przez ostatnich trzydzieści lat pojęcie wartości dodanej przez dystrybutora ewaluowało tak mocno, jak sama technika – mówi Kochański. – Wiele lat temu było nią doradztwo, na przykład w doborze karty SCSI do nagrywarki CD w czasach, kiedy to drugie urządzenie kosztowało 20 tysięcy złotych. W 1996 roku pierwsza sprzedana przez nas karta WLAN kosztowała 1500 dolarów, ale jej instalacja wymagała sporej wiedzy o fizyce mikrofal. Dzisiaj w tabletach nie ma już ani nagrywarek CD, ani gniazd PCMCIA, ale partnerzy wciąż potrzebują wsparcia przy integracji systemów. Wiedza techniczna dystrybutora, która w praktyce przekłada się na umiejętność pomocy we wdrożeniu czy za-
projektowaniu rozwiązania, nadal jest istotnym elementem gry rynkowej, elementem interesującym nawet dla bardzo doświadczonych firm resellerskich.
Nowe pomysły, stare problemy Obecnie na rynku pojawiają się różne techniki, które mogą być okazją do zarobku dla dwójki VAD – integrator – chmury, SDN, systemy storage. Fakt ten oraz rosnąca konkurencja cenowa wymuszają na integratorach wybieranie specjalizacji. W konsekwencji oznacza to konieczność rezygnacji z części posiadanych kompetencji na rzecz outsourcingu. Projekt, instalacja, opieka serwisowa są opłacalne, ale tylko pod warunkiem wystarczającej skali działania. – Outsourcing takich kompetencji do VAD-a wykorzystującego ekonomię skali, będącego dla integratora naturalnym, lojalnym sojusznikiem w przekonywaniu klienta końcowego do inwestycji, jest najbezpieczniejszym i najbardziej opłacalnym rozwiązaniem – przekonuje Kochański. Wiedzą o tym wszyscy, także klasyczni dystrybutorzy. Marek Jaszczuk, dyrektor systemów Enterprise w Action, uważa, że teraz VAD jest wprawdzie czymś więcej niż typowy dystrybutor, nr 17-18 (256-257) • grudzień 2014
choć, jego zdaniem, również broadliner może być VAD-em. – Wydaje mi się, że każdy szanujący się dystrybutor czy reseller powinien rozwijać u siebie segment związany z wdrożeniami – mówi Marek Jaszczuk. – To właśnie dzięki niemu może się wyróżnić na rynku. Nie znaczy to, że życie dystrybutora z wartością dodaną jest usłane różami. O problemach wynikających z faktu bycia VAD-em wspomina Bartek Boczkaja, szef Konsorcjum FEN. Według niego VAD, który ma w swojej ofercie tylko produkty z grupy tzw. A-brandów, znajduje się w dość trudnej sytuacji. Producenci tacy zazwyczaj mają polskie przedstawicielstwo, a w nim dobrze wykształconych inżynierów. – Z tego względu hurtownia może mieć problem, aby zaoferować wartość dodaną – mówi Boczkaja. – Jeśli się nie uda, to zostanie ona zepchnięta do roli klasycznego dystrybutora. W przypadku B-brandów łatwiej jest wytworzyć taką wartość. Jeżeli dana firma jest jedyną, która sprzedaje produkty w danym kraju, to hurtownik może nawet zyskać rangę przedstawiciela danej marki. Zdaniem Bartka Boczkai, w najbliższych latach przynajmniej niektórzy dystrybutorzy będą rezygnowali z dystrybucji produktów największych producentów, a coraz częściej zajmowali się sprzedażą mniej znanych marek. Jest jeszcze jedna przyczyna takiego stanu rzeczy – gdzie jest bardzo rozbudowana sieć i szary kanał, tam marża jest niewielka. Dlatego większe marże daje sprzedaż produktów jeszcze niezbyt popularnych, jak na przykład kontrolerów SDN, które u nas są jednak ciągle melodią przyszłości.
Miejsce dla wszystkich Nieco bardziej zadomowiły się u nas usługi chmurowe. Cloud niesie, oczywiście, klientom końcowym obietnicę obniżenia kosztów działalności. Z tego względu bardzo ważną kwestią podnoszoną przez wielu usługodawców jest zaprojektowanie i wykonanie infrastruktury IT za stosunkowo niewielkie pieniądze. Jak mówi Stanisław Rejowski, dyrektor Działu Produkcji Serwerów w Action, projektanci systemów informatycznych zauważyli, że fundamentem chmury jest stworzenie nadmiarowego środowiska. nr 17-18 (256-257) • grudzień 2014
– Wykorzystanie bardzo zaawansowanego sprzętu nie jest w tym modelu kwestią priorytetową – mówi Stanisław Rejowski. – Zastosowane urządzenia wcale nie muszą pochodzić od topowych wytwórców. Paradoksalnie, jest to sytuacja korzystna dla broadlinerów, których podstawową działalnością jest sprzedawanie sprzętu w dużych ilościach i w jak najniższej cenie. Z drugiej jednak strony, mimo że rozwiązań cloud jest już sporo, to cały czas one ewoluują i się zmieniają. A rozwój chmury wymaga dużego doświadczenia informatycznego i wiedzy. Tu może być miejsce dla VAD-ów i integratorów systemowych, czyli VAR-ów. – VAD może, na przykład, pomóc wybrać sprzęt, a integrator z pewnością będzie potrzebował porady, jak tę infrastrukturę najbardziej ekonomicznie wdrożyć – mówi Rejowski. Rzecz jasna mimo wielkiej kampanii propagandowej chmura jeszcze nie osiągnęła zamierzonego potencjału. Specjaliści uważają, że jeżeli kiedyś nastąpi prawdziwa ekspansja tego typu rozwiązań, to raczej hybrydowych, czyli prywatno-publicznych. Przedsiębiorcy wciąż obawiają się o bezpieczeństwo danych i nie zgodzą się, aby całość informacji przetwarzała chmura publiczna. Według Stanisława Rejowskiego stwarza to szansę zarówno broadlinerom, jak i VAD-om. Specjalista z Action kreśli nawet scenariusze rozwoju sytuacji. Według niego są trzy rodzaje klientów. Niektóre firmy potrafią własnymi siłami wdrożyć system – właśnie takich klientów broadlinerzy z pewnością będą przekonywali do zakupów dużej ilości względnie taniego sprzętu. Jest też druga grupa klientów – zasobnych w gotówkę i zamawiających sprzęt w dużych ilościach – którzy zazwyczaj omijają kanał partnerski. Kupują bezpośrednio do producenta, i to niezależnie, czy jest to producent serwerów czy płyt głównych. Tacy kontrahenci często dyktują producentom sprzętu ceny – pozwala im na to skala zakupów. No i wreszcie są klienci, którzy nie mają doświadczenia w budowie chmur. Tego typu kontrahenci raczej skontaktują się z VAD-em, no i oczywiście integratorem systemowym. – Wydaje się wiec, że równowaga między VAD-em a klasycznym dystrybu-
torem zostanie zachowana – podsumowuje Stanisław Rejowski. – Żaden z wymienionych nie zdobędzie przewagi na rynku, każdy ma swoją grupę klientów.
Dystrybutor nie buja w chmurach Oferowanie usług chmurowych może też być pokusą dla firm, które mają sporo gotówki, a zarazem znają się na sprzęcie IT, czyli na przykład dystrybutorów i VAD-ów. Jednak nasi hurtownicy nie oferują takich usług, bo jak mówi Stanisław Rejowski, rolą dystrybutora jest logistyka, magazynowanie i sprzedaż produktów. – Gdyby któremuś z dystrybutorów udało się w jakiś sposób zaoferować tę usługę w postaci produktu, na przykład w formie zdrapki albo vouchera, to wtedy miałoby to jakiś sens dla dystrybutora i dawało mu określone zyski – twierdzi. – Wiele usług chmurowych jest oferowanych przez firmy zagraniczne i polscy usługobiorcy mogliby w takiej sytuacji mieć problem z płat-
Każdy szanujący się dystrybutor czy reseller powinien rozwijać u siebie segment związany z wdrożeniami. nościami. W takim modelu dystrybutor mógłby się co najwyżej zająć odsprzedażą usługi w Polsce. Poza tym projektanci serwisów chmurowych często wywodzą się ze środowiska centrów przetwarzania danych i z tego względu czasem mają problemy z dotarciem do odbiorców. Tak więc w takim schemacie sprzedaży – gdyby ktoś chciał go zaadaptować – dystrybutor musiałby przejąć na siebie nie tylko pośrednictwo między twórcą a odbiorcą usługi, ale również obowiązek reklamowania produktu. Bartek Boczkaja potwierdza, że polscy dystrybutorzy nie interesują się chmurą jako taką, a także nie widzi hurtowników w roli kreatorów rynku usług chmurowych. Jego firma ma wprawdzie takie produkty, jak Office 360, ale ich sprzedaż nie przynosi kokosów. – Być może część dystrybutorów w dalszym ciągu będzie się zajmowała sprzedażą, ale z pewnością fortuny na tym nie zbiją – mówi szef konsorcjum FEN. w iT Reseller
45
» RYNEK
Nowe okna. Strzał w dziesiątkę? Mieczysław T. Starkowski
Niewiele jest produktów, które tak bardzo zmonopolizowały świat, jak system operacyjny Windows. W przyszłym roku ma się pojawić kolejna jego wersja. Zapowiadane są znowu duże zmiany.
C
zy kierownictwo Microsoftu uważa dziewiątkę za liczbę feralną? Na to wygląda, skoro po systemie operacyjnym Windows 8 firma zapowiada Windows 10. Wielu użytkowników nie daje się więc przekonać, że jest inaczej. Przypomnijmy, ósemka pojawiła się w 2012 roku. Została wtedy uznana za produkt rewolucyjny. Przede wszystkim w radykalny sposób zmienił się interfejs graficzny. A już w październiku ubiegłego roku wprowadzono wersję 8.1. Co w takim razie oznacza nagły przeskok do 10? – Przyzwyczailiśmy się do różnych żartów – przyznaje Marcin Klimowski, Windows Product Manager w Microsoft Polska. – Natomiast zdecydowaliśmy się na taką numerację, bo w nowym systemie jest mnóstwo zmian. To nie są po prostu drobne różnice. Informacje o dziesiątce są naturalnie elementem starannie przemyślanej kampanii marketingowej. Nowego
46
iT Reseller
systemu formalnie jeszcze nie ma. To, co firma pokazuje, jest wersją bardzo wstępną. Oficjalna, finalna, pojawi się w przyszłym roku. Czym się będzie różniła od obecnej? Na razie trudno to jeszcze jednoznacznie stwierdzić. Można tylko powiedzieć, w którą stronę firma idzie. Zupełnie nowy będzie sposób wprowadzania aktualizacji do systemu operacyjnego, co jest szczególnie ważne z punktu widzenia środowiska biznesu. Poza tym system ma być przystosowany do codziennych potrzeb konsumentów, a z drugiej strony – jeszcze lepiej odpowiadać na potrzeby użytkowników biznesowych. Generalne założenie tego systemu jest takie, że ma to być jedna wspólna platforma dla wszystkich urządzeń, bez względu na ich klasę (komputer stacjonarny, notebook, smartfon, tablet). Idea jest taka, żeby wszystko jak najbardziej zunifikować. Jeszcze mniej więcej trzy lata temu mieliśmy do dyspozycji w za-
sadzie komputery stacjonarne ewentualnie laptopy. Obecnie mamy do czynienia z nowymi kategoriami urządzeń dla Windows – smartfonami, tabletami czy rozwiązaniami 2-w-1. Microsoft dąży do tego, aby dla wszystkich klas urządzeń dostępny był wspólny system operacyjny. – Żyjemy w epoce ciągłych zmian – zwraca uwagę Marcin Klimowski. – Dlatego stale uczymy się razem z naszymi klientami. Wiele rzeczy powstaje na zasadzie prób i błędów, czyli my coś robimy, dostajemy sygnały od klientów, że nie do końca o to chodziło, więc dopasowujemy produkt bardziej do tego, czego oni potrzebują. Efekt końcowy jest wypadkową pracy naszych inżynierów i oczekiwań klientów. Obecnie chcemy mieć jeden model aplikacyjny i jeden model bezpieczeństwa. Ujednolicenie modelu zarządzania to kolejny obszar, w którym prowadzone są obecnie prace w ramach tworzenia Windows 10. nr 17-18 (256-257) • grudzień 2014
Ogólnie można już mówić o założeniach, jakie przyświecają twórcom nowego systemu. Po pierwsze chodzi o to, żeby był jak najwygodniejszy dla ludzi, którzy obecnie używają na co dzień na przykład Windows 7. Ale kierownictwo Microsoftu chce uniknąć sytuacji, w której klienci – ze względu na barierę mentalno-techniczną – zatrzymają się na tej wersji. Ma ona już pięć lat, w styczniu przyszłego roku ustanie dla niej wsparcie podstawowe. Jest to niezły system, ale jednak po to właśnie powstał Windows 8, żeby lepiej obsługiwać urządzenia dotykowe. – W Windows 10 Technical Preview udostępniliśmy narzędzie Windows Feedback – wyjaśnia Marcin Klimowski. – Jest to narzędzie do przekazywania informacji o tym, co się podoba (lub nie) użytkownikom, którzy zgłaszają swoje sugestie związane z działaniem i wyglądem Windows 10. Są one szczegółowo analizowane, dlatego na razie nie jestem w stanie powiedzieć, jak całość będzie docelowo wyglądała, zwłaszcza że z pewnością pojawi się jeszcze wiele cennych uwag. Obecnie trudno jeszcze przesądzić, jak głębokie będą zmiany w systemie, albowiem – powtórzmy – nadal trwają nad nim prace, w tym bardzo szerokie konsultacje społeczne. Trudno zatem przewidzieć, jakie będą ich efekty. Jedno jest pewne: Microsoft pracuje nad systemem Windows przeznaczonym do pracy nie tylko na tradycyjnych urządzeniach, ale także do różnych rozwiązań wertykalnych. Wielkie nadzieje pokłada się w aplikacjach branżowych, dostosowanych do pracy na urządze-
niach specjalizowanych, na przykład bankomatach. W nieodległej przyszłości pod kontrolą Windows mają pracować także urządzenia z kategorii internetu rzeczy. – Ważna dziedzina, w której pojawią się bardzo duże zmiany, to obszar bezpieczeństwa – wyjaśnia Marcin Klimowski. – Żyjemy w czasach, gdy ciągle zmieniają się kategorie zagrożeń. Nie jest dziś tak, że atakowane są tylko największe firmy, bo w ten sposób hakerzy osiągają największe korzyści. Kolokwialnie mówiąc, atakowane jest wszystko, co się rusza – w każdym obszarze. Jak twierdzą eksperci, nie ma obecnie przedsiębiorstw, do których jeszcze nie nastąpiły włamania. Są tylko firmy, które jeszcze o tym nie wiedzą. Ataki przychodzą ze wszystkich możliwych kierunków. Świetnym przykładem może być amerykańska sieć handlowa Target, która została zhakowana w tym roku. Wyciekła ogromna liczba numerów kart kredytowych klientów. Włamanie nastąpiło przez konto serwisowe stworzone dla firmy obsługującej systemy klimatyzacji. Pokazuje to dobitnie, że nie wystarcza już, gdy firmy czy instytucje bronią się tak, jak to miało miejsce dotychczas (głównie na styku z internetem, czyli tam, skąd zwykle przychodziły ataki). Kłopot polega na tym, że najwięcej zagrożeń pochodzi ze środka organizacji, a walka z nimi jest najtrudniejsza. Właśnie dlatego Microsoft kładzie tak wielki nacisk na rozmaite aspekty bezpieczeństwa zaimplementowane bezpośrednio w systemie operacyjnym Windows 10. w
Historia systemu operacyjnego Windows Data wydania listopad 1985 listopad 1987 marzec 1989 maj 1990 marzec 1992 październik 1992 lipiec 1993 grudzień 1993 styczeń 1994
Nazwa produktu Windows 1.01 Windows 2.03 Windows 2.11 Windows 3.0 Windows 3.1 Windows For Workgroups 3.1 Windows NT 3.1 Windows For Workgroups 3.11 Windows 3.2 (wydany tylko w języku chińskim) Windows NT 3.5 Windows NT 3.51 Windows 95 Windows NT 4.0 Windows 98 Windows 98 SE Windows 2000
wrzesień 1994 maj 1995 sierpień 1995 lipiec 1996 czerwiec 1998 maj 1999 luty 2000 wrzesień 2000 październik 2001 marzec 2003 kwiecień 2003 kwiecień 2005 lipiec 2006 listopad 2006 (klienci biznesowi) styczeń 2007 (klienci indywidualni) lipiec 2007 luty 2008 22 października 2009 22 października 2009 4 września 2012 26 października 2012 18 października 2013 2015
Windows Me Windows XP Windows XP 64-bit Edition Windows Server 2003 Windows XP Professional x64 Edition Windows Fundamentals for Legacy PCs Windows Vista
Windows Home Server Windows Server 2008 Windows 7 Windows Server 2008 R2 Windows Server 2012 Windows 8 Windows Server 2012 R2 Windows 10
Wersja 1.01 2.03 2.11 3.0 3.1 3.1 NT 3.1 3.11 3.2 NT 3.5 NT 3.51 4.0.950 NT 4.0 4.10.1998 4.10.2222 NT 5.0.3700.6690 4.90.3000 NT 5.1.2600 NT 5.2.3790 NT 5.2.3790 NT 5.2.3790 NT 5.1.2600 NT 6.0.6000
NT 5.2.3790 NT 6.0.6001 NT 6.1.7600 NT 6.1.7600 NT 6.2.9200 NT 6.2.9200 NT 6.3.9600 NT 6.4.9860
Popularność systemów operacyjnych na świecie 100 % Windows XP 80
Windows 7 Android
60 40 20 0 I 2007
I 2008
nr 17-18 (256-257) • grudzień 2014
I 2009
I 2010
I 2011
I 2012
I 2013
I 2014
XI 2014
iT Reseller
47
» RYNEK
Sprzęt naprawdę osobisty Mieczysław T. Starkowski
Polubiliśmy małe urządzenia elektroniczne noszone na sobie. Analitycy spierają się co do wielkości rynku, ale w zasadzie nie mają wątpliwości: jest on niezwykle obiecujący.
JAK DUŻY RYNEK? Na razie wśród analityków nie ma zgody co do wielkości rynku. Nie wiemy bowiem, co w najbliższych latach zaproponują dostawcy, a tym bardziej – co wybiorą klienci. Firma badawcza Statista przewiduje, że w roku 2018 będzie to 12,6 miliarda dolarów, natomiast IHS mówi o 30 miliardach. Co do jednego nie ma wątpliwości – tego rynku nie można lekceważyć, bo ma on ogromny potencjał.
48
iT Reseller
Z
aczęło się niecnie, już w latach 60. ubiegłego wieku, oczywiście w Stanach Zjednoczonych. Edward Thorp, profesor matematyki w Massachusetts Institute of Technology ujawnił, że wymyślił – wraz z Claudem Shannonem – malutki komputer noszony przy sobie. Używał go do oszukiwania w kasynie – przypomina serwis mashable.com. Był to początek ery wearables. Chodzi o urządzenia bardzo osobiste, noszone przez ludzi przy sobie, a od pewnego czasu również na sobie. Elektroniczne gadżety, akcesoria… nie oddają istoty rzeczy. Niestety, do tej pory pojęcie nie doczekało się dobrego polskiego tłumaczenia. W roku 1975 pojawił się pierwszy naręczny (przypominający zegarek) kalkulator Pulsar. Przyciągał uwagę hasłem reklamowym „Dla człowieka, który do tej pory miał już wszystko”. Model z limitowanej edycji kosztował 3950 dolarów. Zainteresował się nim między innymi amerykański prezydent Gerald Ford, co wzbudziło sensację w mediach. Dziewięć lat później okulary Terminator stały się protoplastą Google Glass. Kolejnymi kamieniami milowymi były małe słuchawki, bezprzewodowe kamery, a zwłaszcza sprzęt wykorzystujący technologię Bluetooth. Technika rozwijała się coraz szybciej, ale ciągle sytuowała się w niszy. Prawdopodobnie dlatego, że były to urządzenia stacjonarne, działające w określonym miejscu lub w niewielkim promieniu. Rewolucję spowodował internet i związana z nim mobilność. Siedząc w jednym miejscu, człowiek nie zwraca bowiem przesadnej uwagi na gabaryty
urządzenia. Natomiast wylegując się na plaży, docenia się urządzenie, które można nosić na nadgarstku. Poza tym nie sposób nie docenić gwałtownych przemian obyczajowych. Obecnie świat wygląda przecież zupełnie inaczej niż jeszcze kilkanaście lat temu. Zdaniem wielu analityków naszym życiem rządzą dziś moda i marketing. Celebryci, life style, sprzęt upodabniający się do wyrobów jubilerskich – tak można streścić rzeczywistość. Funkcjonalność produktu ma coraz mniejsze znaczenie. Liczy się przede wszystkim wzornictwo, czyli forma. To oczywiście przesada, ale coś jest na rzeczy. Nie przypadkiem amerykańskie media teleinformatyczne określają 2014 jako rok wearables. Ostatnio pojawiły się bowiem między innymi telefony Samsunga w formie zegarków. Promuje się je jako smart watches, czyli inteligentne zegarki. Nieustannie jesteśmy zalewani informacjami o urządzeniach innych firm. Wielu fachowców spodziewa się więc początku prawdziwego biznesu. – Coraz więcej producentów elektroniki użytkowej nastawia się na sprzęt tego rodzaju – mówi Jerzy Łabuda z działu public relations Samsunga. – Przy czym od pewnego czasu obserwujemy ciekawe zjawisko. Niejednokrotnie jest on projektowany przez wielkie domy mody i najsławniejszych twórców. Współpracujemy ze Swarovskim. Są to wyroby designerskie, a jednak stosunkowo tanie. O ile dodatkowa obudowa telefonu stanowi lifestyle’owy wizerunkowy gadżet, to smart watch jest naprawdę użyteczny. Telefon w formie zegarka jest dodatkiem do ubrania. Staje się częścią codziennej nr 17-18 (256-257) • grudzień 2014
garderoby. Jako taki musi spełniać określone funkcje, natomiast może być też ładny, a nawet elegancki. Klienci, a więc i producenci coraz bardziej przekonują się do takiego sprzętu. Firma Apple zatrudniła byłą szefową marketingu marki Burberry, czyli osobę ze świata mody. Dla Samsunga pracują takie domy mody, jak Moschino czy Kirkwood. Wszystko wskazuje, że jest to dopiero początek współpracy przemysłu elektronicznego i modowego. Wielu dostawców urządzeń elektronicznych stało się już stałymi partnerami dni czy tygodni mody, a także innych wydarzeń tego typu. Wygląda na to, że mamy do czynienia ze stałą tendencją. Truizmem jest dziś twierdzenie, iż smartfon nie służy wyłącznie do dzwonienia. Przeciwnie, mnóstwo osób robi dziś zdjęcia, przegląda strony internetowe, czyta prasę i tak dalej. Telefony są ich towarzyszami podróży, a więc mają się świetnie prezentować wizualnie. Poza tym ludzie oczekują od urządzeń elektronicznych, że będą coraz bardziej osobiste. Zjawisko ma z pewnością charakter globalny. Ale u nas w Polsce nie widać jego przejawów tak wyraźnie jak w innych częściach świata. Dużo bardziej gadżeciarska jest zachodnia Europa, Stany Zjednoczone, a szczególnie południowo-wschodnia Azja. – Południowa Korea, Chiny, Japonia – tam widać absolutną fascynację – zwraca uwagę Jerzy Łabuda. – Dziewczyna idzie ulicą, a przy telefonie ma pięć wisiorków, jakichś łapek, twarzyczek. Robi się z tego taki mały totem. W świecie zachodnim występuje to w sposób trochę bardziej stonowany. I wzornictwo jest raczej bardziej dojrzałe. Ogólnie wzornictwo przenika do świata techniki bardziej niż kiedykolwiek
w historii. Znajduje to odzwierciedlenie między innymi właśnie w powstawaniu nowych kategorii produktów. Widać to szczególnie w Korei, która rządzi się własnymi prawami, czego przejawem są na przykład szczoteczki do zębów i samochody Samsunga. Jeżeli chodzi o stronę biznesową, z pewnością jest to dopiero początek drogi. Trudno dziś jeszcze przesądzić, co będzie wielkim sukcesem, które produkty zawojują rynek. Na razie wiele wskazuje na zegarki. Ale w wypadku wyrobów konsumenckich wyobraźnia często nas zawodzi. Za kilka lat może się okazać, że przebojem stanie się produkt, o którym dzisiaj nie myślimy. Na przykład jakiś czas temu Microsoft zaskoczył świat, prezentując elektroniczny biustonosz. Ma on przewidywać i ostrzegać użytkowniczkę przed nagłymi zmianami samopoczucia. Za pomocą wbudowanych czujników EKG będzie analizować zachowanie serca oraz skóry użytkowniczki i przesyłać informacje do smartfona. Aplikacja odpowiednio je zanalizuje i ostrzeże, jeśli poziom stresu w organizmie zacznie się podnosić. Pozwoli to między innymi na stosowne przeciwdziałanie. Biustonosz jest także wyposażony w akcelerometr i żyroskop, a więc ma dostarczać dodatkowych danych. Jednakże, jak to często bywa, poważnym problemem jest na razie bateria. Bieliznę należy ładować co trzy, cztery godziny, by działała poprawnie. Dlatego jest jeszcze sporo do zrobienia. Ale za kilka lat – kto wie, czy nie będzie to rynkowy przebój. Generalnie wielu fachowców twierdzi, że wearables mogą podbić świat nie tylko jako dekoracyjne gadżety, ale również jako urządzenia w dziedzinie e-zdrowia. Na razie wśród analityków nie ma zgody co do wielkości rynku. Nie wiemy
Apple odniosło rynkowy sukces dzięki pięknemu wzornictwu. Ale noszenie produktu w etui czy torbie to co innego niż noszenie ubrania. Strój mówi bardzo dużo o charakterze człowieka. Co się stanie, jeśli w tkaniny wpleciemy nowoczesne technologie? Co się stanie, jeśli włożysz chip w akcesoria? Dlatego tworzymy specjalną dywizję What If Group, której zadaniem ma być poukładanie tych puzzli. Christopher Bailey CEO Burberry dla magazynu Wired
nr 17-18 (256-257) • grudzień 2014
SexFit – GADŻET TYLKO DLA PŁCI BRZYDKIEJ SexFit jest typem bransoletki, która mierzy aktywność fizyczną podczas fizycznych zbliżeń. Gadżet spełnia dwojaką rolę – podtrzymywanie erekcji oraz zliczanie spalonych kalorii i ruchów na minutę. SexFit współpracuje ze smartfonem. Specjalna aplikacja pokazuje statystyki dotyczące stosunków, a także pozwala się nimi pochwalić na portalach społecznościowych. Pierwsze testy mają być realizowane pod koniec bieżącego roku. Nieznana jest również cena urządzenia, choć producent nie ukrywa, że liczy na wielki rynkowy sukces.
bowiem, co w najbliższych latach zaproponują dostawcy, a tym bardziej – co wybiorą klienci. Firma badawcza Statista przewiduje, że w roku 2018 będzie to 12,6 miliarda dolarów, natomiast IHS mówi o 30 miliardach. Co do jednego nie ma wątpliwości – tego rynku nie można lekceważyć, bo ma on ogromny potencjał. Jeżeli chodzi o głównych graczy, obecnie, jak się wydaje, możemy typować z łatwością – walka rozegra się między firmami Apple i Samsung, a być może dołączą Google, Microsoft lub Intel. Czy zatem światowy rynek został już podzielony? Kilka miesięcy temu szefowie wspomnianych koncernów z pewnością odetchnęli z ulgą. Kierownictwo Amazona poinformowało, że gigant sprzedaje coraz więcej wearables. Dlatego wydzielono dla nich oddzielną stronę. Obejmuje ona aż kilkanaście kategorii. I pojawiła się też dobra wiadomość dla konkurentów: Amazon nie planuje produkcji takich urządzeń. Ale może była to tylko zasłona dymna? W dzisiejszym świecie nie jesteśmy w stanie przewidzieć, czy inne koncerny elektroniczne lub teleinformatyczne nie zwietrzą w tym interesu. Tym bardziej nie mamy pojęcia, ile start-upów pojawi się w najbliższym czasie i w jakim stopniu zawładną one rynkiem. Dotyczy to szczególnie tak dynamicznych branż, jak właśnie wearables. w iT Reseller
49
» WYWIAD
Nie tylko o IT mówi Piotr Krzysztoporski, dyrektor ds. konsultingu w firmie Epicor Software Poland Jak zaczęła się Pana przygoda z branżą IT? – Moja przygoda zaczęła się od gwiazdkowego prezentu, który otrzymałem w latach 80. Będąc jeszcze uczniem szkoły podstawowej, dostałem komputer Commodore 64. Oprócz gier zainteresowałem się wówczas również programowaniem. Tę pasję kontynuowałem w liceum w klasie o profilu informatycznym. Późniejszy wybór studiów i pracy zawodowej był dla mnie oczywisty. Co najbardziej ceni Pan u swojego pracodawcy? – W firmie Epicor prowadzimy wdrożenia dla klientów z różnych, często bardzo odmiennych branż. Oznacza to, że każdy projekt jest dla mnie okazją do zdobycia nowej wiedzy. Cenię sobie również możliwość współpracy z ludźmi z całego świata oraz odbywania podróży. Zawodowo zwiedziłem już ponad 50 państw.
Gdzie Pan najchętniej spędza wakacje? – Koniecznie nad wodą – najchętniej w rejonie basenu Morza Śródziemnego. Lubię spędzać wakacje w miejscach, gdzie jest ciepło i można nurkować. Miasto, do którego lubi Pan wracać? – Trudno wskazać tylko jedno takie miasto. Pod względem architektury najbardziej podziwiam Paryż, Budapeszt i Londyn. Pod względem atmosfery – Nowy Jork.
Gdybym nie był tym, kim jestem, byłbym… – W optymistycznym wariancie – właścicielem restauracji.
Widok, który zrobił na Panu największe wrażenie? – Wschód słońca nad Wielkim Kanionem.
Lubię współpracowników, którzy… – Najbardziej cenię tych, którzy są samodzielni, rzetelni i dotrzymują terminów.
Czego chciałby Pan się nauczyć? – Gry na gitarze.
Film, do którego chętnie Pan wraca? – Takim filmem jest dla mnie „Matrix”.
50
Jaką płytę zabrałby Pan ze sobą na bezludną wyspę? – Przygotowałbym sobie składankę rockowych przebojów z lat osiemdziesiątych i dziewięćdziesiątych oraz współczesnego hip-hopu. Z pewnością sporo miejsca zajmowałyby utwory zespołów Kult, Metallica oraz Motorhead.
iT Reseller
Big Data – to wielka inwigilacja czy ułatwienie życia? – Big Data, podobnie jak większość wynalazków i narzędzi, może zostać
użyte w dobrych i złych celach. Myślę, że większości osób, którym termin Big Data coś mówi, kojarzy się on głównie z marketingiem, sprzedażą oraz założeniem, że jakaś tajemnicza osoba zbiera o nich dane, chce ich zaklasyfikować do określonej grupy i dzięki temu znacząco poprawić swoje wyniki sprzedaży. Trzeba jednak mieć na uwadze, że analizy Big Data mogą służyć społeczeństwu i być wykorzystywane przez uniwersytety, organizacje non-profit czy instytucje rządowe. Przy wykorzystaniu analizy danych możemy np. doprowadzić do oszczędności w energetyce, sprawniej zarządzać transportem, redukując równocześnie korki i emisję zanieczyszczeń, przewidzieć rozkład zachorowań i w efekcie zmniejszyć liczbę chorych – te przykłady pokazują, że Big Data może mieć znaczący wpływ na ułatwienie życia. Czego powinni unikać młodzi ludzie stawiający pierwsze kroki w biznesie IT? – Moim zdaniem bardzo istotne jest to, żeby podchodzić z pokorą do własnej wiedzy. Poznałem wielu ludzi mających świetne wykształcenie, którzy jednak nie potrafili wykorzystać swojego potencjału. Młode osoby powinny unikać wchodzenia w jeden tor wiedzy, warto ukierunkowywać się interdyscyplinarnie. Programistów jest wielu, ale np. programistów będących jednocześnie księgowymi – znacznie mniej. w nr 17-18 (256-257) • grudzień 2014
R-Tone
Solidny smartfon do zadań specjalnych Błoto, woda, piach i pył, uderzenia i wstrząsy – to wszystko zniesie solidny R-Tone – smartfon do zadań specjalnych. Niezawodny telefon w niezwykle trwałej obudowie to propozycja dla osób, które na co dzień pracują w trudnych warunkach, a także wielbicieli sportów ekstremalnych.
1,3GHz Android 4.4.2
8
GB
Quad Core
FLASH
Dual Sim
IP-67
1 GB RAM
,
wstrzasoodporny pyłoodporny wodoodporny Wyłączny dystrybutor ABC Data S.A. ul. Daniszewska 14, 03-230 Warszawa. Więcej informacji na temat oferty produktowej: www.interlink.pl | www.colorovo.pl