Reseller News 3(11)/2013

Page 1

miesięcznik Nr 3 (11) l marzec 2013

Magazyn branży informatycznej

ISSN 2084-9354

www.reseller-news.pl

www.resellernews.pl

eseller www.reseller-news.pl

VAR - Vendor - Dystrybutor

CENTRUM

DANYCH

,

DO WIELKICH

ZADAN MNIEJ MOCY WIĘCEJ PIENIĘDZY HP TUPNĘŁO NOGĄ

IT PEEP SHOW

ROZMOWA

MIESI ĄCA DARIUSZ FABISZEWSKI

ZAAWANSOWANA SPRZEDAŻ USŁUG IT

Cisco Poland

ORGANIZOWANIE KONFERENCJI DLA KLIENTÓW



<<

W NUMERZE

<<

<<

<<

<<

<<

<<

54

<<

Skandalista Mariusz Zielke

ROZMOWA MIESIĄCA

<<

Partnerzy w centrum

4

<<

CENTRA W CENTRUM DANYCH Data center okiem dystrybutora Centrum danych od mainframe’u do chmury Wokół centrów danych Sales Q and A - Data Center O wyższości dostępności nad wydajnością Jak wymiata Wielka Data Co piszczy w cloudzie Sposób na chmurę Storage 2013 – wyzwania Wirtualizacja - komfort IT Urządzenia do wielkich zadań Mniej mocy – więcej pieniędzy Racjonalna serwerownia

III 10 20 22 24 27 28 30 32 36 38 44 48

VAR BIZNES Zaawansowana sprzedaż usług IT

50

III

Rozmowa z Andrzejem Nojszewskim, Dyrektorem AZLAN, dystrybutora z wartością dodaną części Tech Data Polska

20

IT PEEP SHOW Zaawansowana sprzedaż usług IT

52

AKTUALNOŚCI HP tupnęło nogą

56

KORESPONDENCJA WŁASNA ISE 2013 – nowości targowe Digital Signage

Rozmowa z Renatą Krajewską, Managerem w Synology GmbH

62 1 Reseller News


OD REDAKCJI Anna Suchta Dariusz Wałach Beata Tallar-Zakrzewska

W świetle jupiterów Ze specjalistycznych analiz wynika, że ilość danych przetwarzanych przez ośrodki serwerowe będzie rosła coraz szybciej

2

Reseller news

C

entra danych będą świecić coraz jaśniejszym świat-łem. Tak uważają nasi rozmówcy, których opinie przedstawiamy w najnowszym numerze miesięcznika Reseller News. Jest on wyjątkowy - stanowi dowód, że uwaga branży IT kieruje się właśnie w stronę centrów danych. Niemal w całości poświęciliśmy go temu tematowi, a także możliwościom przekucia rosnącego zapotrzebowania na usługi związane z obróbką danych na zarobki firm z kanału partnerskiego IT. Ze specjalistycznych analiz wynika, że ilość danych przetwarzanych przez ośrodki serwerowe będzie rosła coraz szybciej. Jeszcze więcej informacji ma być w najbliższych latach przetwarzanych w

chmurze. Wniosek z tego, że inwestycja w usługi związane lub bazujące na centrach danych może być opłacalna. Partnerzy mają spore pole do popisu w tej dziedzinie - począwszy od zaprojektowania i stworzenia ośrodka serwerowego, przez wynajmowanie powierzchni dyskowej, aż po budowanie usług i aplikacji poprawiających zarządzanie przedsiębiorstwem. Przesunięcie punktu ciężkości na centra usługowe wiąże się z leitmotivem ostatnich czasów - Big Datą. Specjaliści podkreślają, że

dane płynące coraz szerszym potokiem wymagają przede wszystkim strukturyzacji. Najlepiej byłoby, gdyby były przetwarzane w czasie rzeczywistym, co wymaga wydajnego software’u bazodanowego. Szybki dostęp do informacji, błyskawiczne wyciąganie wniosków, podejmowanie decyzji - to dla przedsiębiorstw klucz do uzyskania przewagi nad konkurencją. Również w branży IT - te firmy, które świadczą usługi informatyczne mają przewagę nad tymi, które wyrosły na sprzedaży pecetów. Przykłady Della, Intela, czy HP świadczą, że nawet najwięksi zmieniają kurs. Przypomina to przesterowanie transatlantyku - czyli manewr, który wymaga ostrożności i czasu. n



ROZMOWA

MIESIĄCA

Partnerzy w centrum Z DARIUSZEM FABISZEWSKIM, DYREKTOREM GENERALNYM CISCO w Polsce rozmawiają Anna Suchta i Beata Tallar-Zakrzewska

Zdjęcia: Mariusz Szachowski

- Czy widać już skutki wprowadzenia zmian w strukturze managementu Cisco w Polsce? - Zmiany tak naprawdę zaczęły się na początku roku fiskalnego Cisco, czyli w sierpniu 2012 r. Przebiegały stopniowo. W styczniu 2013 r. ogłoszono ich całokształt. Duża część klientów jednak wiedziała o nich wcześniej. Widać już, że zmiany odnoszą skutek. Dla porównania – przed modyfikacjami za centra danych odpowiadało 1,5 osoby. Dzisiaj jest już 6 osób dedykowanych do data center. - Jakie są perspektywy dla rozwoju centrów danych w Polsce? - W Polsce pojawiają się firmy oferujące usługi data center. Oferują przestrzeń dyskową, wręcz pełną usługę zarządzaną. Im więcej cloudu, kupowania usług z określonym SLA (Service Level Agreement), czyli warunkami świadczenia usług, tym więcej zarobią partnerzy. Co więcej usługi data center można świadczyć nie tylko dla klientów z Polski, ale także z Europy. Jakkolwiek temat jest znacznie szerszy niż tylko centra danych. Chodzi ogólnie o centra usługowe, które firmy lokują w Polsce. Koszty utrzymania centrum danych w Polsce są niższe niż w Europie Zachodniej, choć nieco wyższe niż w Indiach. Za Polską jednak przemawia wiele argumentów. Chociażby kultura biznesowa. Funkcjonujemy w kręgu kultury zachodnioeu4

Reseller News


ROZMOWA MIESIĄCA 5 Reseller News


W

ROZMOWA

MIESIĄCA

WYWIAD Koszty utrzymania centrum danych w Polsce są niższe niż w Europie Zachodniej

choć nieco wyższe niż w Indiach

ropejskiej, nieobca jest nam też kultura amerykańska. Po drugie nie ma u nas problemu różnicy czasu. Jest to istotna kwestia, bowiem centrum usługi powinno działać, gdy klienci na danym rynku są również aktywni. Ponadto w Polsce mamy tę przewagę, że można u nas znaleźć specjalistów, posługujących się praktycznie wszystkimi językami europejskimi. W Indiach jednak ich znajomość jest ograniczona. Takie właśnie aspekty bierze się pod uwagę przy lokalizacji centrum usługowego. - Zatem zainteresowanie Polską, jako miejscem lokalizacji centrów danych rośnie? - Pozycja Polska rośnie. Na początku można było obserwować zachłyśnięcie Bułgarią czy Rumunią. W tej chwili praktycznie wszystkie koncerny z naszej branży są obecne w Polsce. Silnymi ośrodkami są Kraków, Wrocław, Gdańsk. Powoli zaczyna się mówić o Łodzi i Szczecinie. Polska dysponuje dużą liczbą studentów kierunków technicznych. Według opinii naszych partnerów z USA jakość wiedzy i umiejętności studentów w Polsce przekracza najśmielsze oczekiwania. Mówimy wiele złego o naszym systemie edukacyjnym, jednak studenci są dobrze przygotowani, by pracować w korporacjach zachodnich. - Wracając do centrów danych, jakie jest ich znaczenie dla partnerów Cisco? - Ulokowanie data center w naszym kraju stanowi rodzaj usługi. Warto zauważyć, że 30-40 proc. kosztów utrzymania data center to wydatki na pracowników. Z kolei Forrester oszacował, że w przypadku centrów danych aż 70 proc. to ogólne wydatki na obsługę (osobowe, energii, itp.). Jedynie 30 proc. zalicza się do nakładów inwestycyjnych. Z tej perspektywy musi nastąpić transformacja całego modelu. Stąd takie koncepcje, jak cloud computing. Rolą partnerów jest przeprowadzenie transformacji, zmigrowanie istniejących centrów danych na nowy, wydajniejszy model. To jest wartość, którą dodają partnerzy. 90 proc. sprzedaży Cisco realizowana jest za pośrednictwem kanału. W data center istnieje dla nich duże pole do popisu – mogą się wykazać wiedzą, know-how. - Czy jest jakaś dolna granica inwestycji, by partner mógł zaoferować usługę w chmurze?


WYWIAD - Trudno podać konkretną kwotę, na pewno zacząć trzeba od konkretnej usługi, do konkretnego klienta. Wtedy jest szansa na zbudowanie podstaw i przychodu z usług, które się świadczy. Część firm zaczyna od tego, że mają własne serwerownie i niewielkim kosztem mogą dostawić odpowiednią infrastrukturę, by

móc zaproponować usługi. Można założyć, że kilkadziesiąt tysięcy złotych pozwala uruchomić usługi. Natomiast pozostaje kwestia wydatków na zabezpieczenie budynku, jego wyposażenie, itp. Cisco dostarcza narzędzia do uruchomienia fragmentu całej infrastruktury. Nie jesteśmy dostawcą całości. To rola partnera, by budynek

Grzegorz Dobrowolski DYREKTOR DZIAŁU ROZWIĄZAŃ DATA CENTER Cisco Co to jest Big Data? Historycznie firmy przechowywały dużą ilość danych transakcyjnych. Często dobrze ustrykturyzowanych. W latach 2011 - 2016 ilość danych wysyłanych do data center ma wzrosnąć czterokrotnie. Jednocześnie firmy chcą mieć coraz mniejsze okno czasu, w którym będą podejmować decyzje. Wszyscy integratorzy, twórcy aplikacji, doradcy biznesowi znajdą swoje miejsce w rozwiązaniach BI i obsłudze Big Data. Takie firmy muszą stworzyć nowy system, nową wartość. Jednym z aspektów Big Data jest możliwość wykorzystania tej dużej ilości informacji. Wiele spływających do nas informacji nie jest ustrukturyzowana i trzeba wiedzieć jak te dane wykorzystać i powiązać z istniejącymi rekordami. Na przykład w jednym z projektów realizowanych w USA, był projekt dla sieci sklepów sprzedającej urządzenia elektroniczne. Klienci często porównują ceny danego produktu za pomocą telefonu i porównywarki cen. Detalista udostępnił w swoich salonach darmowe łącze Wi-Fi. Otwarte zapytania o produkt były przechwytywane – dzięki sieci Wi-Fi. Dzięki sieci wiadomo też było, gdzie klient się zatrzymywał, przy jakim produkcie. Na podstawie tych informacji sklep wyciągał wnioski o zainteresowaniu produktami. Mógł też ocenić, czy ceny są na odpowiednim poziomie – dużo zapytań, a mało zakupów, oznaczało konieczność zmiany. Wyzwaniem staje się posiadanie systemu, narzędzia dla analityków biznesowych, który będzie generował raporty w czasie rzeczywistym, pokazując obraz sytuacji i wspierając proces decyzyjny. Stąd systemy BI rozwijają się w stronę w przetwarzania w czasie rzeczywistym. Jednym z takich systemów, promowanych przez Cisco jest system analityczny HANA SAP-a. Dzięki innowacyjnej technologii przetwarzania w pamięci (ang. In-memory Computing) zapewnia on kilkadziesiąt tysięcy razy większą szybkość przetwarzania. Cisco Unified Computing System jest certyfikowaną platformą Scale-Out dla systemu SAP HANA, umożliwiając budowanie wydajnego systemu klasy enterprise, który dziś np. przy pojemności 8TB pamięci, może zaoferować przeniesienie do przetwarzania w pamięci bazy o wielkości kilkudziesięciu TB danych (zakładając nawet 7-krotną kompresję). Cisco UCS daje teoretycznie "nieskończoną" skalowalność na przyszłość, oferując już dziś możliwość budowy systemu nawet o pojemości 40+ TB pamieci w ramach jednego systemu.

Obecnie wszyscy poszukują ograniczenia kosztów. Nie da się jednak uzyskać oszczędności sztukując istniejące rozwiązania. Trzeba całkowicie zmienić architekturę. Sens tego działania kryje się w terminie fabric computing co oznacza zbudowanie systemu, który integruje w sobie moc obliczeniową, storage, sieć, by w dynamiczny sposób zarządzać przydziałem zasobów do określonych zadań 7 Reseller News


ROZMOWA

MIESIĄCA

Istnieje pojęcie smart investment, czyli inwestycji w takie obszary technologiczne i biznesowe, które będą wprowadzały innowacje, zróżnicowanie konkurencyjne, budowały wartość firm. Patrząc na data center, które stanowi narzędzie dla przedsiębiorstw, to 70 proc. kosztów jego utrzymania nie stanowi smart investment

8

Reseller News

przygotować, dostarczyć zabezpieczenie, zasilanie, chłodzenie, systemy przeciwpożarowe. - Na co liczą firmy korzystając z rozwiązań chmurowych - na obniżenie kosztów, łatwiejsze zarządzanie? - Dzisiaj wszyscy poszukują ograniczenia kosztów. Nie da się jednak uzyskać oszczędności sztukując istniejące rozwiązania. Trzeba całkowicie zmienić architekturę. Sens tego działania kryje się w terminie fabric computing, co oznacza zbudowanie systemu, który integruje w sobie moc obliczeniową, storage, sieć, by w dynamiczny sposób zarządzać przydziałem zasobów do określonych zadań. To tak, jakby w ramach wielkiego data cente istniało kilka wysp obsługujących określone aplikacje. Nawet o 40-50 proc. kosztów infrastruktury można obniżyć stosując najnowocześniejsze systemy. Możliwe jest też wtedy bardziej elastyczne wdrażanie nowych aplikacji. W tradycyjnym modelu może to długo trwać, w modelu chmurowym prostą aplikację dla klienta można uruchomić w ciągu kilkunastu minut. W przypadku bardziej skomplikowanych aplikacji stworzenie środowiska może zająć kilka tygodni. - Chmura sprawdza się bardziej w krótkoterminowych projektach. Firmy raczej nie przechodzą w całości na rozwiązania cloudowe…

- Tak, raczej w grę wchodzą pojedyncze usługi, np. back upu. W całkowitym przejściu na rozwiązania chmurowe stoi na przeszkodzie kwestia przechowywania danych osobowych. GIODO wprawdzie nie ma zastrzeżeń do trzymania danych w chmurze publicznej. Jednak nie rozstrzygnięta pozostaje kwestia kasowania danych w chmurze. - Jak Pan ocenia sprzedaż konsumenckiego Linksysa Belkinowi? Koncentrujemy się na tym, co robimy najlepiej. Ponad rok temu Cisco podjęło decyzję o wyjściu z obszaru konsumenckiego i odtąd pracujemy nad projektami dla biznesu. - Co oznacza otwarcie centrum wsparcia technicznego Cisco w Krakowie? - Cieszymy się, że jest ono w Polsce. Była to pierwsza tak poważna inwestycja Cisco w Europie Wschodniej. Podnosi postrzeganie i rangę Polski w USA. My nie tylko sprzedajemy, ale również inwestujemy w Polsce. To niesamowicie przyjemne, gdy zachodni goście chwalą specjalistów pracujących w centrum. n

W


I Reseller News

II Reseller News

Partner technologiczny

Centra COVERstory

w centrum

uwagi Partnerzy merytoryczni


III Reseller News

IV Reseller News

Data center WYWIAD

okiem dystrybutora

- Jakie są najważniejsze trendy w budowie centrów danych? – Wszystko można sprowadzić do jednego terminu, czyli transformacji, która dokonuje się zarówno w warstwie organizacyjnej jak i technologicznej. Badania wskazują, że aż 70 proc. firmowych budżetów informatycznych jest przeznaczane na konserwację i utrzymanie istniejących systemów, a tylko 30 proc. na rozwój i innowacje. To proporcja, która ogranicza firmom możliwości wzrostu – zwłaszcza, gdy spojrzymy na wymagania w kluczowych obszarach tworzenia wartości jak automatyzacja procesów biznesowych czy Business Intelligence w oparciu o Big Data. Skąd wzięły się te liczby? Przez lata działy IT w firmach funkcjonowały głównie w sposób reaktywny: odpowiadały na zapotrzebowanie wewnętrznych klientów. Prowadziło to często do budowy autonomicznych rozwiązań, a w efekcie do rozdrobnienia infrastruktury. Powstawało więc coś na kształt silosów informatycznych: zestawu słabo integrowanych ze sobą rozwiązań, którymi trudno zarządzać z poziomu całego portfela usług IT. W dodatku, kryzys lat 2008-2009 spowodował, że działy IT skupiały się na jak najtańszym zapewnieniu kontynuacji dotychczasowej działalności. Presja ze strony biznesu na szybkie i elastyczne dostarczanie nowych usług oraz pojawienie się koncepcji chmury otworzyły nową ścieżkę: zamiast wyłącznie skupiać się na optymalizacji i integracji istniejących rozwiązań, można przenieść się do środowiska chmury: nowoczesnego, wirtualnego i łatwego w zarządzaniu. Przejście w chmurę nie tylko zwiększa

Z ANDRZEJEM NOJSZEWSKIM, DYREKTOREM Azlan, dystrybutora z wartością dodaną, części Tech Data Polska, rozmawia Mariusz Ludwiński Zdjęcia: Andrzej Smoliński

wydajność i elastyczność, ale również przynosi oszczędności m.in. poprzez konsolidację licznych centrów danych i urealnienie czasu korzystania z serwerów, aplikacji i danych zgodnie z koncepcją „Pay as you use” . - Co jeszcze ciekawego, prócz chmury, dzieje się w obszarze technologii data center? – W dalszym ciągu postępuje wirtualizacja zasobów we wszystkich obszarach IT: serwerów, pamięci masowych, urządzeń sieciowych, aplikacji. Ocenia się, że obecnie około 50 proc. globalnych zasobów funkcjonuje jako instancje wirtualne. To oznacza, że nadal istnieją duże możliwości wzrostu dla dostawców, dystrybutorów i partnerów. Drugim ważnym zjawiskiem jest rozwój automatyzacji centrów danych. Coraz częściej instalowane jest oprogramowanie, które pozwala wykonywać wiele procesów w sposób systemowy i bezobsługowy. Można w ten sposób dokonywać zmian w konfiguracji, dostarczać gotowe środowiska w ramach provisioningu, monitorować i zarządzać zasobami oraz realizować wiele innych czynności pracochłonnych i obarczonych ryzykiem popełnienia poważnych błędów. Warto wspomnieć również o takich rozwiązaniach jak infrastruktura konwergentna (znana również jako Converged system lub Fabric-based computing) czyli połączenie protokołów Fibre Channel i IP w ramach

Ethernetu, czy też Software-defined Data Center – tworzenie wirtualnych centrów danych poprzez odpowiedni zestaw oprogramowania do provisioningu, monitorowania i automatyzacji. Kolejnym wyzwaniem dla centrów danych jest ogromny przyrost danych nieustrukturalizowanych (tzw. Big Data) oraz potrzeba ich analizy w czasie rzeczywistym. Trendy, które tutaj obserwujemy, to tiering pamięci masowych, czyli dedykowanie mniej wydajnych zasobów dyskowych do operacji, które mogą być wykonane wolniej, a przesunięcie szybkich macierzy SSD do operacji, zapytań czy transakcji, które muszą być przetworzone natychmiast. Nadal ważnym zagadnieniem pozostaje deduplikacja, czyli zarządzanie danymi w taki sposób, aby eliminować powtarzające się informacje i w ten sposób ograniczyć rozmiar i transfer danych. Wszystkie te trendy czy technologie rozwijają się równolegle i ich umiejętne wykorzystanie w połączeniu ze sprawnym zarządzaniem środowiskami informatycznymi stwarza duży potencjał uzyskania przychodów/oszczędności dla firm. - Jak działalność Azlan wpisuje się w przedstawione przez Pana, nowoczesne środowisko IT? – Azlan jako dystrybutor


WYWIAD Kolejnym wyzwaniem dla centrów danych jest ogromny przyrost danych nieustrukturalizowanych (tzw. Big Data) oraz potrzeba ich analizy w czasie rzeczywistym z wartością dodaną oferuje wiele produktów i usług dla centrów przetwarzania danych. Jako jedyny dystrybutor w Polsce posiadamy w ofercie wszystkich renomowanych dostawców rozwiązań IT takich jak Cisco, HP, IBM, Fujitsu i Dell. Dostarczamy też oprogramowanie do zarządzania infrastrukturą: VMware (w modelu OEM), HP, Microsoft, Symantec i wielu innych czołowych producentów. Jeśli chodzi o wartość dodaną, naszą rolą jest zaznajamianie partnerów handlowych z nowymi i skutecznymi technologiami do wykorzystania w centrach danych. Realizujemy te działania dzięki bardzo prężnej grupie inżynierów, którzy specjalizują się w rozwiązaniach wcześniej wspomnianych dostawców. Oferujemy ciągłe wsparcie m.in. pomagamy konfigurować i projektować rozwiązania, przygotowywać oferty, prowadzimy szkolenia techniczne i sprzedażowe. Działania edukacyjne prowadzimy w ramach Azlan Competence Center (ACC). Jest to połączenie laboratorium, ośrodka szkoleniowego i ośrodka certyfikacyjnego. Partnerzy dostawców mają możliwość fizycznie zetknąć się z produktami, w bezpiecznych warunkach przeprowadzić różnego rodzaju

testy i tzw. Proof of Concept (PoC), przy wsparciu dedykowanego eksperta Azlan. Szkolenia obejmują bardzo szeroki zakres tematyczny, np. w cyklu o nazwie Azlan Academy proponujemy szkolenia z wirtualizacji, pamięci masowych, serwerów, collaboration, bezpieczeństwa sieci oraz środowisk i technologii mobilnych. Jeśli chodzi o certyfikacje, to prowadzimy je w imieniu firm Pearson VUE i Prometric. - Czy działania edukacyjne są adaptowane do potrzebposzczególnych partnerów? – Oczywiście. Prowadzimy różnorodne szkolenia: warsztaty, bootcampy, szkolenia online i roadshowy. Partnerzy mogą również zgłosić zapotrzebowanie na konkretną treść szkolenia, wykraczającą poza standardowy zakres dostarczany przez Azlan. Nasi eksperci są w stanie przygotować szkolenia zgodnie z życzeniem. Zdarza się, że przeprowadzamy je w siedzibie partnera, a nie w ACC. Cały czas inwestujemy w ACC, w najnowszy sprzęt i w kompetencje naszych inżynierów, aby zawsze oferować partnerom najlepszą wiedzą i rozwiązania. n

9 Reseller News


COVER story

Centrum

Stefan Kaczmarek

danych od mainframe’u

do chmury Firma to dane, które ona generuje. Dlatego centrum przetwarzania danych spełnia obecnie jedną z kluczowych ról w funkcjonowaniu większości przedsiębiorstw i staje się niezbędnym narzędziem do prowadzenia i monitorowania procesów biznesowych

S

tale rosnące zapotrzebowanie na nowe usługi dla biznesu, wzrost znaczenia mediów społecznościowych i usług mobilnych powodują gigantyczny przyrost ilości danych i informacji, które wymagają przesyłania, przechowywania, zabezpieczania i analizowania, by następnie móc z nich wyciągnąć korzyści biznesowe. Potrzebna do tego jest przejrzysta i skonsolidowana infrastruktura ICT oraz strategia rozwoju centrum danych. W ciągu ostatnich dziesięcioleci centrum danych kilkakrotnie przechodziło zasadnicze zmiany architektur i modeli przetwarzania danych. Ewoluowały one od

10

Reseller News

pojedynczej jednostki obliczeniowej (mainframe) i storage’owej, przez rozproszoną architekturę typu client/server, do przetwarzania z wykorzystaniem globalnej sieci internet. Obecnie jesteśmy świadkami kolejnej wielkiej transformacji zachodzącej w data center – tym razem zmierzającej w kierunku zwirtualizowanego centrum danych. Proces wirtualizacji zmienia nie tylko kształt środowiska obliczeniowego, ale również otoczenia sieciowego. Największe wyzwania dotyczące sieci są związane z: mobilnością maszyn wirtualnych (VM), agregowaniem zasobów (resource pooling) oraz przetwarzaniem w chmurze (cloud

computing). A to przecież jeszcze nie koniec zmian – centra danych nie tylko są poddawane wirtualizacji, ale również są przenoszone na platformy cloud computing i wkrótce mają być konfigurowalne programowo (SDDC - Software Defined Data Center).

EWOLUCJA – PUNKTY ZWROTNE Choć wiele centrów przetwarzania danych wciąż jest ograniczana przez zależności między oprogramowaniem a specjalistycznym sprzętem, to technologie IT są rozwijane w kierunku większej prostoty i


WALDEMAR KESSLER MANAGED SERVICES SALES LEADER, IBM POLSKA Wśród argumentów przemawiających za wdrażaniem rozwiązań wirtualizacyjnych i platform cloud computing w centrum danych można wymienić kilka: wydajność, redukcja kosztów, niezawodność i szybkość uruchomienia usługi. Działanie infrastruktury centrum danych można zoptymalizować (szybkość i wydajność) poprzez wykorzystywanie takich platform, jak Hardware as a Service czy Application Hosting. Utrzymywanie przewymiarowanych środowisk z 10 proc. utylizacją to idealne pole do zmniejszenia kosztów. Natomiast najnowocześniejsze technologie nie zastąpią wyszkolonego personelu. Ponieważ eksperci są bardzo drodzy, dlatego wyszliśmy z inicjatywą „Ekspert w chmurze”

elastyczności. Analitycy rynkowi wymieniają trzy czynniki, które wyznaczają kierunki ewolucji data center. Pierwszy, to zmniejszający się koszt mocy obliczeniowej. Dzisiejsze standardowe układy serwerowe x86 oferują wydajność porównywalną z tradycyjnymi dużymi firmowymi platformami, za ułamek kosztów tych drugich. Sieci i pamięci masowe mogą być obecnie dostarczane za pośrednictwem ogólnie dostęp- nego stan-

S O LU T I O N

dardowego sprzętu, zamiast kosztownych maszyn wybranych producentów. Wirtualizacja wszystkich aplikacji to drugi czynnik. Dzięki ogromnym możliwościom platform wirtualizacyjnych, niemal wszystkie aplikacje mogą być i są wirtualizowane. To rozszerza korzyści wynikające z tańszej mocy obliczeniowej, umożliwiając jej wykorzystywanie dużo wydajniej i elastyczniej niż kiedykolwiek wcześniej. Wirtualizacji są pod-

B U S I N E S S

dawane nie tylko krytyczne aplikacje biznesowe, takie jak Oracle i Exchange - przedsiębiorstwa coraz częściej robią to samo z dużymi aplikacjami obsługującymi duże zbiory danych (Big Data). Trzeci czynnik to wirtualizacja urządzeń sprzętowych (hardware appliances). Historycznie, funkcje, takie jak firewall, równoważenie obciążeń, przyspieszenie działania sieci WAN, tworzenie kopii zapasowych czy

U N I T 11 Reseller News


COVER story

GRZEGORZ CAŁUN PRE-SALES ENGINEER, D-LINK W nowoczesnych centrach danych istotne jest zapewnienie wysokiej przepustowości sieci oraz wydajność bibliotek magazynowania danych. Warto tu zwrócić uwagę na przełączniki z portami 10G oraz macierze dyskowe ze wsparciem RIAD i szybkie dyski SAS. Dzięki protokołom sieciowym, takim jak STP lub LACP można uzyskać strukturę sieci nadmiarowej. Funkcjonalności oferowane przez te urządzenia obejmują m.in.: zapasowe zasilanie przełączników, wymienne moduły chassis lub dualne kontrolery macierzy. Macierze sieciowe mogą być dedykowane do współpracy z odpowiednimi środowiskami software’owymi, jak np. Citrix, VMware czy też Hyper V

deduplikacja były realizowane przez fizyczne urządzenia. Obecnie producenci nowego ekosystemu budują coraz więcej alternatywnych programowalnych rozwiązań (tzw. software-defined), które są podłączane do Software-Defined Data Centers (o których piszemy dalej) – niemal wszystkie komponenty IT mogą stać się software defined. W rezultacie mamy do czynienia z konwergencją w kierunku w pełni programowalnego środowiska – podejścia o wiele wydajniejszego, elastyczniejszego i efektywniejszego kosztowo przy dostarczaniu i zarządzaniu infrastrukturą. - Ogromną rolę przy wirtualizacji aplikacji krytycznych odgrywają inteligentne pamięci masowe oraz zastosowanie technologii flash – mówi Karol Boguniewicz, vSpecialist Technical EMEA East w EMC. - Środowisko zwirtualizowane charakteryzuje się dużą dynamiką (maszyny wirtualne mogą być łatwo tworzone, usuwane oraz przenoszone pomiędzy elementami infrastruktury), a jednocześnie bardzo dużym stopniem konsolidacji. W obrębie jednego środowiska bardzo często uruchamiane są aplikacje o różnych wymaganiach, chociażby pod względem wydajności. Rosnąca złożoność powoduje wzrost kosztów, obniżanie się poziomu usług oraz ograniczanie dostępności. Konsolidacja miała na celu odwrócenia tej tendencji. Był to ruch w kierunku poprawy poziomu usług i obniżenia kosztów. Dlatego też konsolidacja od kilku lat pozostaje gorącym tematem, a obecna trudna sytuacja gospodarcza przyspieszyła procesy konsolidacji dotyczące nie tylko serwerów, ale całego środowiska IT. - Mimo, że w centrum uwagi znajdują się obecnie: ewolucja sprzętu opartego na otwartych standardach, wirtualizacja i cloud computing, to liderzy technologii mogą 12

Reseller News

Rolą resellerów przy wdrażaniu rozwiązań wirtualizacyjnych i platform cloud computing w centrum danych w zależności od posiadanych kompetencji jest dostarczanie klientom gotowych rozwiązań, takich jak infrastruktura konwergentna (np. Vblock), lub integracja własnych rozwiązań lub architektur referencyjnych – uważa Karol Boguniewicz, vSpecialist Technical EMEA East w EMC. - Wdrażanie tego typu rozwiązań wiąże się również z możliwością zaoferowania całego szeregu profesjonalnych usług oraz wsparcia

również położyć większy nacisk na prostotę przy projektowaniu nowych architektur sieci. Dwa kluczowe czynniki w ewolucji centrów danych to wirtualizacja i gotowość do kupowania rozwiązań opartych na standardach od wielu dostawców (Multi-Vendor Approach) – uważa Justin Handler, dyrektor ds. technicznych w Hardware.com. Wirtualizacja i konsolidacja serwerów to podstawowe priorytety, którymi kierowali się szefowie działów IT w 2012 r. - wynika z badania przeprowadzonego przez firmę analityczną IDC. Odnotować również warto zapowiedzi wielu dostawców, w tym HP czy IBM, deklarujących redukcję fizycznych centrów danych na rzecz zwirtualizowanych serwerów. Korzyści z wirtualizacji sięgają dalej niż tylko oszczędności na kosztach kupowanych urządzeń. Organizacje, które decydują się na wirtualizację zyskują: szybsze łącza sieciowe, większe bezpieczeństwo danych (dane są przechowywane w mniejszej liczbie miejsc) oraz lepsze współdziałanie komponentów IT.

PRZYSZŁOŚĆ W CHMURACH Spróbujmy zastanowić się, czym różni się wirtualne centrum danych od tego w chmurze, czy od tzw. prywatnej chmury? Znaleźć można wiele różnych definicji dotyczących tych trzech pojęć, w tym można usłyszeć wiele marketingowego szumu wokół nich, dlatego na nasze potrzeby przyjmijmy następujące definicje: wirtualne centrum danych to zbiór zwirtualizowanych zasobów udostępniany pojedynczemu klientowi. Oferuje on więcej niż wirtualny serwer – klient może skalować swoje zapotrzebowanie na potrzebną moc obliczeniową. De facto, określenie to funkcjonuje jako marketingowe pojęcie


Więcej W ięcej szczegółów szczegó ółów na ttemat emat aktualnej of oferty erty znajdziesz na: w www.azlan.pl ww.azla an.pl

13 Reseller News


COVER story używane przez firmy oferujące hosting oraz usługi na platformach cloud. Chmurowe centrum danych - chociaż trudno usłyszeć, żeby usługi chmurowe były oferowane pod takim hasłem marketingowym, to pojawia się takie określenie, za którym kryje się po prostu normalne centrum danych dedykowane kolokacji i zarządzaniu zestawem sprzętu (serwery + storage) dostarczającym usługi cloud, np. Azure Data Centers Microsoftu. Prywatna chmura: gorąco dyskutowany termin w ostatnich kilku latach. Część środowiska uważa, że jedyną prawdziwą chmurą jest chmura publiczna, a wszystkie pozostałe określenia, gdzie pojawia się słowo cloud służy tylko robieniu niepotrzebnego szumu. Obecnie prywatna chmura wydaje się zyskiwać akceptację, jako zbiór zwirtualizowanych zasobów (opartych na współdzielonym lub dedykowanym sprzęcie), pozostających do dyspozycji klienta według bieżących, skalowanych na żądanie potrzeb, który płaci tylko za wykorzystaną moc obliczeniową. Pojęcie cloud computing przez ostatnie 5 lat było używane głównie w kontekście długiej i wciąż poszerzanej listy outsourco-

wanych produktów i usług. Definicja ta z pewnością będzie ewoluować, natomiast warto zastanowić się, co dzisiaj przesądza o ekspansji i powodzeniu tego typu usług? Chmura to kolejny etap w rozwoju data center. Dostawcy usług chmurowych (np. usługi IaaS), mający korzenie jako operatorzy centrów danych, wnoszą nie tyko swoje techniczne doświadczenie i kompetencje zdobyte przez lata obsługi wielu, różnych zaawansowanych technicznie klientów, lecz faktycznie są właścicielami budynków, gdzie podłączane są sieci klientów. Oznacza to, że przede wszystkim oni są w stanie zapewnić zasilanie, miejsca dla szaf instalacyjnych oraz łącza IP potrzebne do obsługi chmur. Nie brakowało prognoz mówiących, że chmura ostatecznie doprowadzi do ograniczania roli, a nawet upadku korporacyjnych centrów danych. Jednak nowe dane branżowe wskazują na to, że cloud computing sprawi, że centra danych będą obciążane w jeszcze większym stopniu niż dotychczas i właśnie rozwiązania chmurowe dają szansę na optymalizację ich działania. - Sieć w chmurze pozwala na tworzenie

n Przetwarzanie w chmurze jest najszybciej rosnącym segmentem ruchu związanego z centrami danych, w rezultacie czego proces przenoszenia data center przedsiębiorstw do chmury będzie przyspieszał - przekonują eksperci Cisco Systems w swoich raportach „Global Cloud Index” (na lata 2010-2015 i 2011-2016). Jak wynika z przeprowadzonych przez nich analiz i szacunków, globalny ruch związany z przetwarzaniem w chmurze wzrośnie aż 12-krotnie – ze 130 eksabajtów rocznie w 2010 r. do 1,6 zetabajta rocznie w 2015 r. Przewiduje się, że ruch związany z centrami przetwarzania danych w latach 2011-2016 wzrośnie 4-krotnie – do 6,6 zetabajta rocznie. Poziom przetwarzania w chmurze, stanowiący obecnie 11 proc. ogólnego ruchu związanego z centrami przetwarzania danych, do 2015 r. zwiększy się do ponad 33 proc. n Według ogólnych szacunków, w latach 2010-2015 liczba procesów przetwarzanych w centrach wzrośnie 2,7-krotnie, a liczba procesów przetwarzanych w chmurze ponad 7-krotnie. Rok 2014 będzie pierwszym, w którym ciężar przetwarzania da14

Reseller News

osobnych i wyizolowanych data center – zwraca uwagę Kamil Włodarczyk, kierownik OVH we Wrocławiu. W takim układzie to administrator infrastruktury decyduje o prawach dostępu dla każdego użytkownika. Co ważne, przeniesienie danych do chmury pozwala na ułatwienie pracy administratora, np. przez stworzenie i stosowanie własnego obrazu systemu instalowanego na każdym z serwerów. - Dla Polski przetwarzanie danych w chmurze z biegiem czasu staje się coraz ważniejsze. Zarówno firmy z sektora prywatnego, jak i publicznego poważnie zastanawiają się nad tym, jak przetwarzanie w chmurze może zmienić sposób, w jaki korzystają one z usług i aplikacji IT. Patrząc na konkretne dane dotyczące gotowości Polski do zastosowania rozwiązań cloud computing, czyli na przeciętne pobieranie, wysyłanie plików oraz opóźnienia w transmisji danych, można powiedzieć, że jesteśmy gotowi na zastosowanie średniozaawansowanych aplikacji zbudowanych w oparciu o przetwarzanie w chmurze, gdyż wciąż jeszcze pewien problem stanowią właśnie opóźnienia w transmisji danych - powiedział Grzegorz Dobrowolski, dy-

nych przesunie się w kierunku chmury – 51 proc. wszystkich procesów roboczych zostanie przetworzonych w chmurze, natomiast 49 proc. w tradycyjnej przestrzeni informatycznej. n Zdecydowana większość ruchu związanego z centrami danych i przetwarzaniem w chmurze nie jest generowana przez końcowych użytkowników, lecz przez same centra i chmurę. Wynika to z aktywności w obrębie centrów i chmury, których końcowi użytkownicy nie są nawet świadomi, takich jak np. tworzenie kopii zapasowych czy replikacja – stwierdzają specjaliści Cisco w raporcie. n W 2015 r. największy ruch (75 proc.) ma być generowany w obrębie samego centrum danych, w wyniku takich działań, jak przechowywanie danych i uwierzytelnianie na maszynach wirtualnych. Komunikacja użytkowników z centrum przetwarzania danych generuje 17 proc. ruchu, a dodatkowe 7 proc. powstaje między centrami przetwarzania danych, w wyniku takich działań, jak: tworzenie kopii zapasowych, cloud-bursting, replikacja i aktualizacja danych.


Strategiczne podejście do transformacji data center polega na opracowaniu właściwej architektury uwzględniającej poprawną integrację sprzętu dedykowanego wirtualizacji, zarówno różnorodnych serwerów, pamięci masowych oraz sieci, a także oprogramowania systemowego wspierającego wirtualizację. Resellerzy powinni skupić się na zrozumieniu wymagań, jakie mają wobec centralnej platformy systemowej aplikacje i wspomagane przez nie procesy biznesowe. Uzgodnienie pojęć i wymagań z użytkownikiem umożliwi zaproponowanie nie tylko właściwej architektury platformy skonsolidowanego data center, ale też IBM BUSINESS UNIT MANAGER odpowiednie plany jego modernizacji i migracji do modelu wirtualnego lub chmury. Rola resellera jako doradcy w zakresie zabezpieczania zasobów i infrastruktury klienta polega na zwróceniu mu uwagi na różnorodne aspekty bezpieczeństwa i pomocy przy rozważaniu ich w kontekście kosztów i możliwych do zastosowania procedur oraz środków organizacyjnych

MIROSŁAW

PAWŁOWSKI AZLAN/TECH DATA

rektor techniczny w firmie Cisco. Firmy chętnie będą sięgać po wirtualizację, a chmura może osiągnąć szczyt swojej popularności właśnie w 2013 roku – uważają eksperci z firmy Barracuda Networks zajmującej bezpieczeństwem IT, na podstawie analiz preferencji i informacji zebranych od 150 tys. swoich klientów. - Wszystko wskazuje na to, że bieżący rok upłynie pod znakiem wirtualizacji - do tej

pory jej wpływ był widoczny niemal wyłącznie w sferach obliczeń i przechowywania danych. Wkrótce na dobre przeniknie sieć i zmieni sposób, w jaki ją postrzegamy. Trudno szacować skalę tych zmian, ale będzie sporo nowych możliwości i usprawnień, jednym z nich będzie na pewno koncentracja zabezpieczeń bliżej chronionych zasobów - mówi Steve Pao, ekspert Laboratorium Bezpieczeństwa firmy Barra-

cuda Networks. Budowanie sieci chmurowych to nowy sposób szybkiego tworzenia rozproszonych sieci korporacyjnych. Użycie aplikacji zmniejsza inwestycje kapitałowe w dodatkowy sprzęt sieciowy. Przykładem rozwiązań dla rozproszonych sieci Wi-Fi opartych na chmurze dla przedsiębiorstw i korporacji średniej wielkości (w tym dla biur oddziałowych i telepracowników) jest Platforma Usług Chmurowych Aerohive, ofero-

Czas na zmiany w Twoim sklepie? Nowe meble, gabloty, szyld?

Odmień swój sklep z Norton! Wyeksponuj produkty Norton w swoim sklepie, prześlij zdjęcie pomysłowej aranżacji i wygraj! Autor najbardziej oryginalnej ekspozycji odmieni z nami swój sklep i otrzyma nowe wyposażenie punktu sprzedaży o wartości

12 000 złotych! Zobacz więcej na stronie www.zoltysklep.pl

Znajdź nas na Facebooku Facebook.com/ZabezpieczamSie

15 Reseller News


COVER story Korzyści z centrum danych w erze wirtualizacji i chmury

n zwiększenie skuteczności działu IT poprzez umożliwienie natychmiastowego wdrażania nowych usług,

n zapewnienie efektywnego dostarczania danych właściwym osobom we właściwym czasie, niezależnie od miejsca w strukturze firmy,

n wykazanie lepszego ROI, uzasadniającego inwestycje w IT,

n zmniejszenie zapotrzebowania na energię poprzez wydajniejsze zarządzanie zasilaniem i chłodzeniem,

n uproszczenie infrastruktury dzięki wirtualizacji i konsolidacji,

n ochrona krytycznych danych i zapewnienie zgodności pomiędzy systemami,

n Postrzeganie firmy jako dbającej o środowisko naturalne dzięki zastosowaniu rozwiązań typu Green IT 16

Reseller News

wana przez kalifornijską firmę Aerohive Networks (Aero-IT polski dystrybutor). W ramach tej globalnie rozproszonej, opartej na chmurze infrastruktury, mieszczą się opracowane przez Aerohive aplikacje: HiveManager Online (system SaaS do zarządzania siecią), ID Manager (system zarządzania gośćmi) i Branch on Demand (rozwiązanie sieciowe do tworzenia biur oddziałowych i podłączania telepracowników). Jako że wciąż przybywa informacji i backup ma dotyczyć nie tylko najważniejszych plików, ale całości pracy - należy oczekiwać porzucania płyt DVD na rzecz dysków przenośnych oraz chmury. Wśród rozwiązań do archiwizacji danych na popularności zyskują rozwiązania hybrydowe, łączące zapis na dysk z deduplikacją oraz funkcją replikacji bezpośrednio do chmury. Przy podejmowaniu decyzji o migracji do chmury Gartner zaleca korporacyjnym klientom rozwagę i ostrożność. Trzeba mieć na uwadze to, że nie wszyscy dostawcy pamięci masowych są w stanie spełnić wszystkie wymagania danego

przedsiębiorstwa, dlatego warto rygorystycznie planować i sprawdzać oferty producentów zanim zacznie się uczestniczyć w pilotowych projektach, a następnie zdecyduje, czy krytyczne dane firmowe powinny zostać przeniesione do pamięci masowych w chmurze. Ciesząc się z korzyści płynących z usług świadczonych za pośrednictwem chmury, nie wolno zapominać też o obawach związanych z bezpieczeństwem, zachowaniem prywatności i dostępnością. I jeszcze jedno ostrzeżenie specjalistów Gartnera: uważajcie na ukryte koszty. Całkowity koszt posiadania (TCO), to nie tylko cena z katalogu producenta za GB pamięci masowej, ale uwzględniać powinna również: przepustowość, koszt dostępu do danych, opłaty za migrację na inną platformę oraz koszty wsparcia technicznego. - Czasy kryzysu zmieniają oczekiwania polskich klientów wynajmujących serwery dedykowane – oczekują oni wyższej jakości usługi i gwarancji zgodności z wymogami prawnymi, swobody w samodzielnym, zdalnym


,

17 Reseller News


COVER story

360 tys. serwerów zasilane z elektrowni wodnej

zarządzaniu wynajętą infrastrukturą, ale z drugiej strony pro-aktywnego podejścia dostawcy usługi w sytuacjach wymagających podjęcia ważnych decyzji – tak ocenia stan polskiego rynku Grzegorz Brzeski z Warsaw Data Center. Czy da się zarobić na chmurze? Z szacunków analityków firmy Technology Business Research dotyczących rocznych przychodów największych firm oferujących biznesowe usługi cloud (IaaS, SaaS i PaaS - platform as a sernice) wynika, że w 2012 roku tylko Salesforce.com (2,9 mld dol.), Amazon Web Services (1,7 mld dol.) i Microsoft (1 mld dol.) przekroczyły próg 1 mld dolarów. Dostawcom, takim jak IBM (600 mln dol.), Fujitsu (550 mln dol.), HP (480 mln dol.) czy Citrix (450 mln dol.) - jeszcze sporo brakuje do tego poziomu przychodów z cloud.

SDDC PRZYSZŁOŚCI Centrum danych nowej generacji SDDC (Software-Defined Data Center lub wg innego zapisu: SDD - software-defined datacenter), czyli programowo definiowane centrum przetwarzania danych, jest postrzegane jako kolejny etap w ewolucji wirtualizacji i platform cloud computing. Steve Herrod, CTO VMware, opisuje pojęcie SDDC, czyli centrum danych

W kanadyjskiej miejscowości Beauharnois, Quebec ( 30 km od Montrealu) firma OVH* zbudowała jedno z najbardziej ekologicznych na świecie centrów danych o potencjale ok. 360 tys. fizycznych serwerów. Wybór tego miejsca był podyktowany dostępnością energii i bliskością USA. Cała energia zasilająca (120 megawatów) centrum pochodzi z elektrowni wodnej – mówi właściciel i prezes firmy Henryk Klaba. - Technologie zastosowane w Beauharnois, nie różnią się znacząco od rozwiązań stosowanych w naszych europejskich centrach. Chłodzenie jak zwykle jest realizowane przez system chłodzenia cieczą i powietrzem filtrowanym. Klimatyzacja jest stosowana marginalnie i wyłącznie w sali dystrybucji na wejściu i wyjściu z centrum, gdzie znajdują się urządzenia innych producentów i nie można tam stosować chłodzenia cieczą. Tak wielkie data center wymagało także kosztownej inwestycji w potrójną sieć światłowodów – zaznacza Klaba. Została ona rozbudowana o sieć światłowodową, łączącą 16 miast w USA. Podobnie jak we Francji, uruchomiliśmy tu własną produkcję dedykowanych serwerów (wydajność produkcyjna to 400 serwerów na dzień). W planach OVH jest budowa kolejnego data center w zachodniej części Kanady w Vancouver. * OVH (z franc. On Vous Héberge, z ang. Online Virtual Hosting) to rodzinna firma o polskich korzeniach, założona w 1999 r., zajmująca 1. miejsce wśród dostawców usług hostingowych w Europie; obsługuje 120 tys. serwerów. OVH buduje własne centra danych i rozwija własne technologie chłodzenia bez klimatyzacji, składa własne serwery, zarządza własną siecią światłowodów

18

Reseller News

zdefiniowanego programowo następująco: cała infrastruktura jest zwirtualizowana i dostarczana jako usługa, zaś kontrola nad nią jest w pełni zautomatyzowana przez oprogramowanie, co oznacza, że konfigurowanie sprzętu jest przeprowadzane za pomocą inteligentnych systemów software’owych. Transformacja, jaką od wielu lat obserwujemy w obszarze infrastruktury IT, „komodytyzacja” (utowarowienie IT) oraz standaryzacja poszczególnych komponentów (takich jak serwery, pamięci masowe, urządzenia sieciowe) z wykorzystaniem architektury x86, prowadzi do modelu, w którym ich inteligencja stopniowo jest przenoszona ze sprzętu na platformę wirtualizacji. Według Karola Boguniewicza z EMC, dalszy rozwój prowadzi w kierunku udostępniania bogatych funkcjonalnie, ale ustandaryzowanych interfejsów programistycznych (takich jak np. REST API), które pozwolą na pełną automatyzację konfiguracji przez oprogramowanie. Łatwo zauważyć, że koncepcja SDDC wiąże się blisko z pojęciem chmury obliczeniowej – według referencyjnej definicji opublikowanej przez NIST, cloud computing dostarcza nowy model operacyjny dla IT, z kolei Software Defined Data Center stanowi odpo-


Miej oczy dookoła głowy

wiedni fundament technologiczny pozwalający na uruchomienie tego modelu w praktyce. Torsten Volk z EMA Research wymienia trzy podstawowe składniki SDDC: wirtualizację sieci, serwerów oraz pamięci masowych. Wymagana jest również warstwa logiki biznesowej do tłumaczenia wymagań odnośnie aplikacji, warunków SLA, polityk i kosztowych aspektów. Choć pojęcie programowo definiowanego centrum danych jest stosunkowo nowe i krótko funkcjonuje w słowniku branżowym, to kilku dostawców zapowiedziało pierwsze produkty SDDC , np. VMware vCloud Suite. Wirtualizacja jest niezbędnym warunkiem funkcjonowania programowo definiowanych centrów danych – podkreśla również Eric Knorr z magazynu „InfoWorld”. Wirtualizując i agregując trzy kluczowe komponenty komputerowego przetwarzania (serwery, pamięci masowe i sieci) - osiągamy krytyczny poziom zaawansowania w możliwościach grupowania, dobierania i komponowania zebranych wirtualnych zasobów. Czy zatem SDDC to inna nazwa dla chmury? Niezupełnie - uważa Knorr, postrzegając cloud przede wszystkim jako marketingowe pojęcie dla aplikacji, platform lub usług infrastrukturalnych, w które zaopatrują się w trybie „na żądanie” wewnętrzni lub zewnętrzni klienci, wypełniając formularze webowe. Software-defined data center to mechanizm, poprzez który te usługi chmurowe mogą być efektywnie świadczone. Rozszerzając powyższe definicje, SDDC to inaczej zunifikowana platforma centrum danych, która ma zapewniać bezprecedensową automatyzację, elastyczność i wydajność, całkowicie zmieniając sposób dostarczania rozwiązań IT. Moc obliczeniowa, storage, sieci, bezpieczeństwo i usługi dostępowe są łączone, agregowane i dostarczane jako oprogramowanie; zarządzane są za pomocą inteligentnego oprogramowania. Samoobsługowa, zautoma- tyzowana infrastruktura korzystająca z techniki dynamicznego alokowania zasobów pamięci masowych (provisioning), zarządzanie aplikacjami oraz przedsiębiorstwem - dopełniają obraz. W efekcie otrzymujemy centrum przetwarzania danych zoptyma- lizowane pod kątem ery cloud, zapewniające wyjątkową elastyczność biznesową, najwyższe poziomy SLA wszystkim aplikacjom, radykalne uproszczenie operacji i niższe koszty. Obecnie potrzebne są skonsolidowane i zwirtualizowane architektury data center, które pozwalają na: dynamiczne przydzielanie zasobów w zależności od bieżących potrzeb, łatwe wynajdywanie danych, uproszczenie procesów, zapewnienie bezpieczeństwa przechowywanym i przesyłanym danym oraz ogólne zwiększenie efektywności. n

4 kamery w 1 DCS-6010L DCS-6010L

M Monitoring IP chmurze w chmurze

Sieci bezprzewodowe

Przełączniki

DNR-322L

Magazynowanie danych y

Bezpieczeństwo

Z nową kamerą D-Link DCS-6010L 360˚ Fisheye wspierającą usługi w chmurze mydlink™, monitorowanie nigdy nie było tak proste. To najłatwiejszy sposób, aby zobaczyć, co dzieje się w biurze lub domu. Fantastyczna jakość obrazu HD oraz szeroki kąt widzenia czynią z tej kamery doskonałe i elastyczne rozwiązanie do monitoringu. Można ją zamontować na ścianie z panoramicznym widokiem 180˚ lub na suficie z pełnym widokiem 360˚, eliminując martwe strefy. Kamera wspiera bezpłatną usługę mydlink™, która umożliwia zdalną konfigurację oraz podgląd obrazu z kamery w czasie rzeczywistym na portalu mydlink lub za pośrednictwem aplikacji mobilnej na urządzeniu z systemem iOS lub Android. Zbuduj kompletny monitoring przy użyciu rejestratora sieciowego DNR-322L, który może zapisywać jednocześnie obraz z dziewięciu kamer sieciowych, zarządzanych zdalnie za pośrednictwem aplikacji mobilnej lub bezpośrednio na portalu mydlink. D-Link posiada również w ofercie kompletne, elastyczne rozwiązania do budowy profesjonalnych sieci przewodowych, bezprzewodowych oraz systemów magazynowania danych.

Connect C onnect to to More More

odwiedź dlink dlink.pl .pl pl

19 Reseller News


WYWIAD

VAR

BIZNES

Wokół centrów danych Z RENATĄ KRAJEWSKĄ, PRODUCT MANAGEREM w Synology GmbH, rozmawia Anna Suchta

- Jakie rozwiązania storage’owe i cloudcomputingowe, zapewniające sprawne, niezawodne, stabilne i wydajne działanie centrów danych, oferuje Synology? - Synology oferuje klientom biznesowym rozwiązania gwarantujące niezawodne działanie, wysoką wydajność i dostępność danych. Wiarygodność to nie tylko redundancja sprzętowa, ale także oprogramowanie DiskStation Manager, pozwalające na pracę z dużymi zbiorami danych i zawierające aplikacje zapewniające bezpieczeństwo. W 2012 roku wprowadziliśmy serię urządzeń XS+, wyposażonych w mechanizm Link Agregation, pamięć podręczną SSD i obsługę kart 10GbE, co bezpośrednio przekłada się na wydajność tego sprzętu. Możliwa do osiągnięcia przepustowość sięga 2,000 MB/s i 400,000 IOPS. Niezawodność działania to cecha, której oczekują klienci wymagający stałego oraz niezakłóconego dostępu do usług i intensywnie przetwarzanych danych. Dlatego też udostępniliśmy Synology High Availability, czyli klaster utworzony z dwóch serwerów Synology, zapewniający replikację danych z aktywnego serwera do serwera pasywnego, a w przypadku awarii głównego serwera, możliwość przywrócenia funkcjonalności systemu w ciągu kilku minut. Ten mechanizm, do niedawna zarezerwowany dla systemów korporacyjnych, jest teraz dostępny dla segmentu SMB, bez dodatkowych opłat za licencje. Ale to nie wszystko, nieprzerwaną pracę zapewniają też nadmiarowe ścieżki transmisji, redundantne zasilacze i awaryjnie przełączane wentylatory. Niezawodność podnoszą takie elementy, jak obsługa środowisk wirtualizacji, mocne procesory, rozszerzalna pamięć ECC RAM. Dostępna są również replikacja danych na serwery DiskStation Synology lub serwery rsync w zdalnej lokalizacji, jak i inne opcje backupu w celu podniesienia ochrony. 20

Reseller News


WYWIAD Promujemy synchronizację danych w chmurze prywatnej, zapewnianej przez aplikację Cloud Station

Promujemy synchronizację danych w chmurze prywatnej, zapewnianej przez aplikację Cloud Station. Dzięki niej mamy pełny nadzór nad danymi, gdyż przechowujemy je na własnym serwerze Synology.

- Jak partnerzy sprzedający rozwiązania Synology mogą przekonać klientów, że warto w nie inwestować? Jakie argumenty za tym przemawiają? - Oprócz niezawodności, wysokiej wydajności oraz obsługi aplikacji biznesowych, do naszych rozwiązań przekonuje system operacyjny, stosowany we wszystkich urządzeniach Synology, czyli DiskStation Manager. DSM jest stale rozwijany i aktualizowany co najmniej trzy razy w roku. Przed oficjalnym wprowadzeniem nowej wersji zapraszamy klientów do programu beta, w trakcie którego mogą oni przekazywać nam swoje opinie. Co więcej, to oprogramowanie zapewnia olbrzymią elastyczność. Wiemy, że innych aplikacji potrzebuje użytkownik domowy, a niektóre funkcje przydatne są tylko klientom biznesowym. Ich wybór należy więc do odbiorcy. Nie bez znaczenia są także koszty inwestycji. Synology daje możliwość wyboru najbardziej ekonomicznego urządzenia w danym momencie, aby w przyszłości - wraz z przyrostem danych - skalować pojemność za pośrednictwem jednostek rozszerzających lub bezpiecznie wymienić urządzenie na nowsze, korzystając z mechanizmu migracji dysków i nie tracąc danych. Obecnie seria XS+ to przestrzeń o pojemności przekraczającej 400TB danych. Dodatkowo, w trosce o klienta, wprowadziliśmy Synology Replacement Service Europe (SRSE), czyli usługę dla biznesowej serii XS/XS+, oferującą serwis wymiany urządzeń w ciągu następnego dnia roboczego. Takie elementy sprawiają, że nasz sprzęt doceniają znani i wymagający klienci, a wśród nich takie instytucje jak: Uniwersytet Oksford, Uniwersytet w Berlinie czy Leica.

w infrastrukturę IT, a także zapewnienie większej dostępności danych, wydajniejszych metod ich wykorzystania oraz bezpieczeństwo przechowywanych zbiorów. Na rynku obserwujemy popyt na mechanizmy zapewniające łatwe zarządzanie infrastrukturą oraz gwarantujące dużą dostępność danych. Wirtualizacja to coraz popularniejsza technologia, przekładająca się na elastyczność w środowisku IT, podnosząca wydajność oraz obniżająca koszty. Coraz więcej firm będzie także korzystać z dysków SSD, gdyż są szybsze, pobierają mniej energii, nie posiadają części ruchomych. Wśród klientów obserwujemy również rosnące zainteresowanie aplikacjami mobilnymi Synology. Klienci chcą mieć dostęp do danych lub otrzymywać informacje o stanie systemu nie tylko pracując w biurze, ale także, przykładowo, podczas podróży. Ważna jest także synchronizacja plików - wiele osób posiada kilka urządzeń mobilnych oraz komputer, a warto mieć dostęp do tych samych danych na różnych urządzeniach. Oferowana przez serwery Synology usługa Cloud Station zapewnia taką funkcjonalność.

- Jak Synology ocenia potencjał rynku usług świadczonych przez centra danych w Polsce? - Rynek data center w Polsce dopiero się rozwija, powstaje coraz więcej ośrodków wykorzystujących nowoczesne technologie lub rozbudowujące obecne swe portfolio. Rośnie także zapotrzebowanie na centra danych z infrastrukturą dostosowaną do własnych potrzeb. Nowoczesne ośrodki oferują większą elastyczność, a znaczenie wirtualizacji wzrasta. Dlatego też firmy mogą budować centra danych dostosowane do swych indywidualnych wymagań. Rosnące znaczenie chmury także przyczyni się do korzystania z usług oferowanych przez centra danych. n

- Jakie są przewidywania Synology dotyczące rynku cloud computingu i storage’u na 2013 r. – jakie trendy będą dominować w najbliższym czasie. Czy coś się zmieni w porównaniu do 2012 r.? - Zapotrzebowanie na rozwiązania do przechowywania powiększających się zbiorów danych jest ogromne, ale nie tylko pojemność storage’u jest istotna. Ważne jest obniżanie kosztów inwestycji 21 Reseller News


Mariusz Ludwiński

COVER story

Sales Q and A Od dwóch numerów czytasz o różnych sztuczkach i technikach sprzedażowych.

– Data Center

Nadeszła pora na trochę praktyki. Na stronach „Sales Q and A” będą się pojawiać popularne pytania, jakie mają klienci, w stosunku do różnych produktów i usług IT. Oczywiście, pojawią się również odpowiedzi na te pytania. Udzielą ich eksperci sprzedaży, dyrektorzy działów handlowych i opiekunowie kluczowych klientów – słowem, osoby, które na co dzień wyjaśniają, tłumaczą, prezentują, argumentują i przekonują klientów do transakcji.

GDZIE MIEŚCI SIE WASZE DATA CENTER?

ANNA

OGIEJM-OHEIM

W Polsce, bo prócz tego centra danych mamy w Tallinnie, Moskwie i w Sankt Petersburgu, centrum daDIRECTOR SALES CEE nych Linxdatacenter znajduje się w samym centrum Warszawy. To absolutnie idealna lokalizacja. Jakie płyną korzyści z naszej lokalizacji dla klienta? Przede wszystkim jest to jeden z najnowocześniejszych obiektów w tej części Europy. Nowoczesność oznacza jednocześnie pełne bezpieczeństwo dla klienta, a także pełny komfort, nawet w sytuacjach ekstremalnych, gdy czas dostępu do danych jest dla biznesu klienta kluczowy. Bliskość naszego centrum od Międzynarodowego Węzła Operatorskiego, które mieści się wieżowcu LIM, pozwala nam utrzymywać bezpośrednie połączenie bez dodatkowych pośredników. Ponadto w sytuacji ekstremalnych nasi klienci mają w naszym centrum zagwarantowane miejsca i urządzenia do czasowego kontynuowania kluczowych procesów biznesowych w przypadku, gdy ich stałe miejsce prowadzenia działalności jest niedostępne lub nie działa, np. z powodu klęski żywiołowej. Na miejscu klient ma do dyspozycji duplikat swojej infrastruktury włącznie z serwerami, stacjami roboczymi i łącznością z sieciami, a także uruchamiamy powielenie połączenia WAN. W takiej sytuacji bliskość od nieczynnego biura do działającego centrum danych jest kluczowa

LINXDATACENTER

Zamysł zamieszczanych odpowiedzi jest następujący: są to sformułowania, które słyszą klienci dzwoniący lub mailujący do działu handlowego. Stąd pojawiają się konkretne liczby, nazwy i inne perswazyjne elementy. Ich cel jest jednak czysto edukacyjny – są to przykłady sprzedażowe

22

Reseller News

JAROSŁAW MORAWSKI

JAKI JEST STANDARD GWARANTOWANY PRZEZ DATA CENTER?

Decydując się na skorzystanie z usług data center należy przywiązać szczególną uwagę nie tylko do deklaracji standardów I SIECI PARTNERSKIEJ, BEYOND.PL w zakresie bezpieczeństwa fizycznego, stabilności, łączności czy bezpieczeństwa energetycznego, ale przede wszystkim standardu stosowanych rozwiązań. Beyond.pl od początku swej działalności postawił na najnowocześniejsze rozwiązania, nie szczędząc środków na inwestycję w zakresie rozwiązań wysokiego standardu. Dzięki temu, dziś może określać się jako jedna z najnowocześniejszych serwerowni w kraju. Beyond.pl Data Center gwarantuje pewność eksploatacji strzeżoną na każdym kroku. W zakresie bezpieczeństwa fizycznego nasza serwerownia oferuje: trzy serwerownie – osobne komory odseparowane ogniowo i wilgotnościowo, wielostrefową kontrolę dostępu, biometrykę i wykrywanie otwartych drzwi, monitoring CCTV, kontrolę 24/7/365, systemy wczesnego wykrywania dymu: VESDA, centralny analizator cząstek dymu i precyzyjną lokalizację źródła dymu, automatyczne systemy tłumienia ognia gazem INERGEN. Bezpieczeństwo mocy gwarantujące stabilność działania zapewniają z kolei: dwie całkowicie oddzielne szyny mocy, dwie niezależne rozdzielnie z dedykowanymi systemami UPS 18 ton akumulatorów, niezależne trasy kablowe oraz listwy zasilające, zbiorniki paliwa na 24 h oraz możliwość tankowania z zewnętrznych cystern. Klienci Beyond.pl mogą osobiście przekonać się o jakość stosowanych rozwiązań podczas wizyty w serwerowni firmy DYREKTOR DZIAŁU SPRZEDAŻY


PIOTR PAWŁOWSKI

CZY WARTO TERAZ INWESTOWAĆ W KOLOKACJĘ ALBO CLOUD?

CZŁONEK ZARZĄDU DS. HANDLOWYCH

GRUPA 3S

Kolokacja i cloud to usługi, które niosą korzyści w dwóch obszarach: bezpieczeństwa i kosztów. W dobie prosperity klienci byli bardziej zainteresowani tym pierwszym obszarem – przenosili swoje zasoby IT do data center, ponieważ dawało im to pewność ciągłości działania biznesu i bezpieczeństwo danych. Okres kryzysu spowodował, że decyzje o zakupie usług kolokacji i cloud zaczęły być pochodną prostego rachunku ekonomicznego. Bo skrupulatnie licząc wszystkie koszty związane z zakupem, utrzymaniem i modernizacją infrastruktury IT, outsourcing tych elementów po prostu musi być tańszy. Proces ten wspomaga łatwiejszy dostęp do szybkiego Internetu i dedykowanych łącz dostępowych oraz rosnąca świadomość przedsiębiorców związana z przetwarzaniem danych w chmurze

DARIUSZ WICHNIEWICZ

DLACZEGO MAM KUPIĆ WŁAŚNIE OD WAS?

DYREKTOR DZIAŁU ROZWOJU USŁUG

TELEKOMUNIKACYJNYCH, ATM

Nasi klienci reprezentują najbardziej wymagające branże, przede wszystkim finansową i telekomunikacyjną, oraz doceniają przejrzyste warunki rozliczeń, atrakcyjne ceny usług i 20-letnie doświadczenie ATM w branży teleinformatycznej. Posiadamy trzy centra danych (ponad 8300 m kw. powierzchni kolokacyjnej, 42 MW gwarantowanego zasilania, łącza do najważniejszych operatorów), co gwarantuje długoterminową dostępność powierzchni i zasilania oraz możliwość rozwoju biznesu klienta w przyszłości. Centrum Danych ATMAN jest położone w największym telekomunikacyjnym kampusie w Polsce, składa się z kilku obiektów serwerowych co umożliwia oferowanie klientom dowolnej konfiguracji usług (kolokacja 1U, szafa 47U zamknięte boksy i dedykowane serwerownie). Centrum Danych Thinx Poland jest położone w centrum miasta. Wyróżnia je neutralność telekomunikacyjna, atrakcyjna dla operatorów telekomunikacyjnych i doskonała łączność z głównymi węzłami telekomunikacyjnymi w Polsce i Europie. ATM zapewnia unikalną na rynku możliwość stworzenia podstawowego i zapasowego centrum danych z pełną redundancją zasobów i wygodą współpracy z jednym dostawcą

23 Reseller News


COVER story

O wyższości dostępności nad wydajnością Z KRZYSZTOFEM LORANTEM HITACHI DATA SYSTEMS CONSULTANT W FIRMIE AVNET, rozmawia Anna Suchta Zdjęcia: Andrzej Smoliński

- Co jest ważne w zarządzaniu dużą ilością danych?

WYWIAD

- Nie wszyscy zdają sobie sprawę z pewnych istotnych kwestii związanych z nieustannie rosnącą ilością danych, obecnie liczonych wręcz w petabajtach. Często mamy do czynienia z wyspecjalizowanymi informacjami, takimi jak dane medyczne, o których cyfryzacji ostatnio sporo się w Polsce mówi. W morzu informacji nierzadko trzeba wyszukać konkretne dokumenty czy pliki. Przyjmijmy, iż posiadamy dokumenty dotyczące budżetu za rok 2007. Jeśli do archiwum wrzucaliśmy wszystkie rodzaje plików – Word, Acrobat, Excel - odszukanie konkretnego dokumentu może okazać się niełatwym zadaniem. Nawet, jeśli jesteśmy w stanie zlokalizować, kiedy i co do tego archiwum trafiło. Przeszukiwanie źle zorganizowanego archiwum bez odpowiednich narzędzi software’owych jest czasochłonne i trudne. Kiedy mówimy o Big Data, zawsze należy pamiętać, iż zanim zabierzemy się za 24

Reseller News


WYWIAD Z moich obserwacji wynika, że klienci coraz bardziej skupiają się na tym, jak zarządzać danymi w całym cyklu ich życia

implementację rozwiązań dedykowanych dla w sumie dowolnego segmentu rynku – należy uwzględnić w projekcie tą część, która będzie ułatwiała wyszukiwanie danych. Nie można też zapominać o dobrym i skutecznym narzędziu do indeksowania i przeszukiwania zgromadzonych danych. Hitachi proponuje tutaj rozszerzone rozwiązanie, służące do przeszukiwania archiwów, a także bieżących zasobów (np. file serwerów). Truizmem jest stwierdzenie, że każdy może zrobić backup. Skuteczność działania takiego backupu można jednak sprawdzić dopiero w przysłowiowym praniu, czyli podczas pierwszej awarii. Podobnie wygląda sprawa z archiwum – okaże się, czy jest ono dobrze zorganizowane dopiero w akcji, czyli podczas pierwszej próby wyszukania odpowiedniej informacji.

- Czym dla pana jest Big Data? - O Big Data mówi się mniej więcej od 2 lat. Definicji tego pojęcia powstało wiele, zaś moim zdaniem pewne jest tylko jedno - w ostatnim czasie ilość danych rośnie w bardzo szybkim tempie. Dane te trzeba przechowywać z uwzględnieniem ich cyklu życia. Niektóre muszą być gotowe do wglądu przez kilkadziesiąt lat, jak np. informacje medyczne (przypomnijmy, że obowiązek cyfryzacji tego typu informacji wchodzi w życie w Polsce w 2014r.). Obserwowaliśmy już kilka afer, w których okazywało się, że listy elektroniczne sprzed wielu lat stanowiły pełnowartościowy materiał dowodowy. Z moich obserwacji wynika, że klienci coraz bardziej skupiają się na tym, jak zarządzać danymi w całym cyklu ich życia. Problemu dużych ilości informacji nie rozwiąże zakup kolejnych macierzy i umieszczanie danych online. Jeśli będziemy tylko zwiększali pojemność systemów do przechowywania, staniemy przed problemem walki z rosnącymi kosztami. Pojawią się też inne problemy - będzie chociażby brakowało czasu na wykonanie backupu rosnącej lawinowo liczby danych.

- Jak sobie z tym poradzić? - Na pewno trzeba się zastanowić, czy warto iść w kierunku podnoszenia kosztów i robienia inwestycji rzędu kilku, kilkunastu, czy nawet dziesiątek i setek tysięcy euro np. w dyski SSD –niemal każda instytucja poza wielkością przestrzeni na dane wymaga wysokiej wydajności systemów dyskowych. Cykl życia oraz wykorzystania informacji niemal wszędzie wygląda podobnie – początkowo sięgamy do nich często (z reguły sprawdza się najnowsze maile, przelewy). Nie potrzebujemy wtedy szybkiego, wydajnego rozwiązania do całości danych. Sprawdzić się tu więc mogą rozwiązania hybrydowe, mieszane, które zapewniają kompromis pomiędzy kosztami i wydajnością. Przykładem może być Hitachi Dynamic Tiering, wewnętrzne rozwiązanie w macierzy, pozwalające wystawić „oszukany” wolumen, stanowiący zbitkę przestrzeni dyskowych o różnych kosztach i wydajności. Macierz taka jest na tyle inteligentna, że przechowuje najczęściej wykorzystywane dane w najwydajniejszej części. Nie musimy płacić wielu tysięcy euro za całą przestrzeń. Wystarczy wycinek szybkiego storage’u. Jeśli chodzi o sprzęt – bardzo dobrym wyborem w przypadku archiwizacji danych jest Hitachi Content Platform. Uzupełnione o Hitachi Data Discovery Suite, będące doskonałym narzędziem do przeszukiwania zgromadzonych danych, daje nam platformę do budowy cyfrowego archiwum. Należy jedynie wybrać odpowiedni system, który we właściwy sposób znajdzie i przeniesie dane, które powinny trafić do naszego archiwum. Tu można wybierać spośród kilku dostępnych na rynku systemów, np. CommVault Simpana czy Symantec Enterprise Vault. Wspomniane narzędzia nie dość, że przeniosą dane do archiwum, to wraz z HCP zadbają o zachowanie odpowiednich polityk przechowywania i retencji danych. Samo przeniesienie danych to nie wszystko. Przy odrobinie uporu można to w sumie zrobić ręcznie. Chodzi o zastosowanie odpowiedniego oprogra25 Reseller News


COVER story

mowania, żeby tymi danymi zarządzać. Z punktu widzenia użytkownika muszą pozostać linki, czy cokolwiek innego, za pośrednictwem czego będzie on mógł sięgnąć do maili sprzed kilku lat. Bieżące zasoby nie powinny rosnąć. Rosnąć powinno jedynie archiwum, którego koszty utrzymania są znacznie niższe niż np. typowych, szybkich systemów dyskowych.

- Jak wygląda popyt na rozwiązania Hitachi? W zeszłym roku producent zapowiedział intensyfikację działań w Polsce. - Historycznie Hitachi było kojarzone wyłącznie z drogimi, enterprise’owymi rozwiązaniami. Od kilku lat nie ma to jednak przeniesienia na praktykę rynkową. Specjalizuję się w rozwiązaniach Hitachi od 13 lat i miałam okazję naprawdę dobrze zapoznać się z ofertą tego producenta. Owszem - Hitachi wywodzi się ze środowisk mainframe’owych, jednak teraz portfolio produktowe firmy zaspakaja potrzeby również mniejszych przedsiębiorstw. O ile dobrze pamiętam, już około 2005 r. Hitachi wprowadziło macierze modularne dla rynku SMB. Aktualnie najmniejszy model macierzy modularnych, HUS110, to z jednej strony wprawdzie rozwiązanie podstawowe, ale z drugiej dające już użytkownikom szansę na niemal pełne wykorzystanie technologii oferowanych przez Hitachi Data Systems. Przez pewien czas w ofercie Hitachi istniała luka pomiędzy rozwiązaniami enterprise’owymi i macierzami modularnymi. Jesienią 2012r. pojawiły się jednak świetne produkty typu entry level enterprise. Znaczącym faktem w strategii działania Hitachi Data Systems było przejęcie Sun Microsystems przez Oracle’a. Ponieważ firma Oracle posiadała własne rozwiązania, współpraca pomiędzy Hitachi i Sun Microsystems dobiegła końca. Jednak na przestrzeni kilku lat poprze-

dzających przejęcie Sun Microsystems, na polski rynek trafiło sporo macierzy z logo Suna, de facto wytworzonych przez HDS. Wszyscy, którzy obserwują rynek storage’owy, zauważyli zapewne, iż po tym jak zniknął istotny partner, którym był Sun, Hitachi zdecydowało się iść ostro do przodu samodzielnie. Postawiono na rozwój w naszym kraju. Teraz sprzedaż Hitachi, wbrew niesprzyjającym warunkom gospodarczym, rośnie. Popyt na storage tej firmy jest coraz większy i nic nie wskazuje na to, żeby w najbliższym czasie sytuacja miała ulec zmianie. Wręcz przeciwnie. Możemy się pochwalić, iż w ciągu ostatnich 2 lat Polska znajdowała się w ścisłej czołówce pod względem wartości sprzedanych rozwiązań Hitachi Data Systems w Europie. Wraz z tym trendem, rozrasta się też polskie biuro Hitachi. Jego pracownicy koncentrują się na wspieraniu Partnerów Handlowych oraz zwiększeniu udziału rozwiązań z logo Hitachi na polskim rynku.

- Jak wygląda współpraca Avnetu z Hitachi pod względem szkoleń dotyczących storage’u? - Jesteśmy jedynym dystrybutorem Hitachi Data Systems w Polsce. Od września 2012 r. posiadamy status Autoryzowanego Centrum Szkoleniowego HDS. Wcześniej w naszym regionie ośrodki szkoleniowe producenta istniały tylko we Frankfurcie (dokąd przeniesiono centrum szkoleniowe z Wardenburga) oraz w Sefton i w Pradze. Początkowo odsprzedawaliśmy szkolenia Hitachi, potem zaczęliśmy je realizować sami w języku polskim - nie są to jednak nasze autorskie szkolenia, co z góry zaznaczam. Pomysł prowadzenia szkoleń okazał się strzałem w dziesiątkę. Rozwiązań Hitachi sprzedaje się coraz więcej, zatem coraz więcej Klientów i Partnerów Handlowych potrzebuje wiedzy z tego zakresu. W porównaniu do poprzedniego roku rozliczeniowego, liczba Partnerów Handlowych Avnet zajmujących się storage wzrosła o blisko 30 proc.

- Jak zapowiada się ten rok na rynku storage’u? - Spodziewałbym się stabilnego, niewielkiego wzrostu. Na pewno wodą na młyn sprzedaży storage’u będzie obowiązek cyfryzacji danych medycznych – wyniki badań, informacje o pacjentach. Wszystko odpowiednio zabezpieczone i przygotowane do archiwizowania przez kilkadziesiąt lat. Do tej pory rozwiązania dostosowane do takich wymagań nie były zbyt często wdrażane. Teraz jednak przepisy zaczynają powoli narzucać ich wykorzystanie instytucjom i przedsiębiorcom. ■


Mariusz Ludwiński

wymiata

MARZEC

2013

Jak

Wielka Data

T

ermin Big Data kojarzy się z nowoczesnością, ale podobnymi narzędziami pozyskiwania informacji ukrytych lub niedostępnych posługiwano się od dziesiątek, a nawet setek lat. Wtedy mówiono inaczej: informatorzy, wtyczki, cynki, rady starszych. Kiedyś policjanci łapiąc szefów gangów i przewidując napady, korzystali z wtyczek – przestępców, którzy ujawniali wewnętrzne informacje. Podczas pełnienia normalnych, oficjalnych obowiązków zawodowych, policjanci nie mieliby szans uzyskać tej wiedzy, jaką przekazywali im informatorzy. Być może raz na jakiś czas, któryś z policjantów doznałby olśnienia i kreatywnie połączył pozornie niezwiązane ze sobą dane. Ale to było zdecydowanie zbyt rzadkie zjawisko, aby opierać na nim strategię codziennego sprawowania porządku. Dzięki komputerom i odpowiedniemu oprogramowaniu, policja może dziś wpadać na takie olśnienia w sposób zdecydowanie bardziej przewidywalny, regularny, powtarzalny. A instytucja świadka koronnego została zarezerwowana dla pojedynczych, wyjątkowych przypadków. Oto kilka przykładów. W jednym z miast stanu Teksas ustala trasy patroli policyjnych zgodnie z wynikami analizy ponad miliona odebranych zgłoszeń typu 997. Z kolei w mieście Santa Cruz w Kalifornii, dzięki analizie historycznych danych o włamaniach popełnionych w różnych dzielnicach i o różnych porach dnia policja wysyła w „gorące” rejony dodatkowe patrole – dokładnie wtedy, kiedy prawdopodobieństwo takiego przestępstwa jest

Na razie musimy zadowolić się tym, co mamy. Na szczęście, w połączeniu ze sprytnymi analitykami nawet typowy algorytm tekstowoliczbowy jest w stanie znacząco podnieść naszą skuteczność i efektywność

największe. W Los Angeles, system analizujący powiązania społeczne skazanych przestępców w połączeniu z bazą zarejestrowanych samochodów oraz policyjnymi rejestrami wskazał na istnienie potencjalnych celów kradzieży – w efekcie przestępców złapano na gorącym uczynku, przy okazji rozwiązując dwadzieścia innych spraw kryminalnych. Wreszcie na Wschodnim Wybrzeżu, dokładnie w Nowym Jorku, wielka sieć czujników promieniowania, kamer drogowych, kamer przemysłowych, danych historycznych i raportom o odebranych zgłoszeniach typu 997 pozwala błyskawicznie zidentyfikować oraz określić stopień zagrożenia. Ten wielki projekt Big Data powstał dzięki współpracy nowojorskiej policji oraz firmy Microsoft. Policja to przykład dużej skali wykorzystania Big Data kiedyś i dziś. W znacznie mniejszej skali zachodzi to w trakcie szukania odpowiedniej nieruchomości na rynku. Załóżmy, że szukasz mieszkania do wynajęcia. Kiedyś, aby poznać atmosferę okolicy i ocenić hałaśliwość sąsiadów, trzeba było osobiście przyjechać po zmroku na daną ulicę, popytać sprzedawców w sklepie, zagadnąć staruszkę na spacerze z pieskiem. Dziś, informacje te można znaleźć na lokalnych portalach informacyjnych i na portalach społecznościowych pod postacią komentarzy pod newsami i zdjęć z imprez. Można też zapytać znajomych czy ktoś nie mieszkał w danej okolicy lub czy ktoś nie ma znajomych, którzy tam mieszkają. Kilkoma kliknięciami można szybko zweryfikować wartość poszczególnych ofert – i wybrać tę, która naprawdę trafia w nasze potrzeby. n 27 Reseller News


Mariusz Ludwiński

COVER story

Co piszczy w cloudzie P Wchodząc na moment w porównania – nikt chyba nie uważa, że komunikaty o śmiertelności na drogach czy zdjęcia wypadków drogowych odstraszają nowych kierowców

28

Reseller News

odstawową rzeczą w skutecznej sprzedaży jakiegokolwiek produktu jest znajomość rynku. Chodzi o to, żeby wiedzieć na jakim etapie gotowości do zakupu znajduje się klient, który nie odkłada słuchawki po usłyszeniu zwrotu chmura obliczeniowa. Zgodnie z teorią dyfuzji innowacji technologicznych Everetta Rogersa, wyróżnia się cztery odrębne grupy klientów: maniaków, otwartych na nowinki, oporną większość, maruderów. Grupy te zwykle funkcjonują na rynku jednocześnie, co sprawia wiele problemów siłom sprzedaży i partnerom handlowym. Największy problem stanowi rozpoznanie między grupą otwartych na nowinki a grupą opornej większości: ponieważ bezpośrednio przekłada się to na nietrafny dobór argumentów sprzedażowych i brak finalizacji transakcji. Kwestia ta stała się oczywista w świetle poruszenia, jakie wywołał raport Rady Standardów Bezpieczeństwa Branży Kart Płatniczych (Payment Card Industry Security Standards Council, PCI SSC). Na samym początku, w części podsumowania dla BZD (Bezbrzeżnie Zabieganych Decydentów), autorzy raportu stwierdzili, że przetwarzanie w chmurze nie posiada ujednoliconych standardów funkcjonowania. W dalszej części dokumentu podawano dalsze stwierdzenia i dane, pokazujące zakres ryzyka, stopień trudności technicznych i dodatkowe koszty związane z przejściem w chmurę. Kontra przyszła bardzo szybko w postaci komentarzy eksperckich. Jedni ironizowali, że aby być całkowicie bezpiecznym, należało by odłączyć się od sieci, zakodować wszystko co się da i postawić kilka-

MARZEC

2013

naście poziomów weryfikacji użytkownika. Drudzy nazywali poszczególne wymagania bezpieczeństwa przeżytkami ery dinozaurów. Jeszcze inni przyjęli taktykę obalenia ogółu poprzez obalenie szczegółu i zaczęli drążyć kwestie prawnej odpowiedzialności za bezpieczeństwo danych. Uważam, że cała ta dyskusja jest pozbawiona sensu. Wchodząc na moment w porównania – nikt chyba nie uważa, że komunikaty o śmiertelności na drogach czy zdjęcia wypadków samochodowych odstraszają nowych kierowców, a obecnych narażają na niepotrzebny stres w trakcie kierowania autem. Raport Rady ma dokładnie taki sam charakter – opisuje MOŻLIWE zagrożenia, zwraca uwagę, że istnieją pewne standardy, do których należy się dostosować dla ogólnego dobra. Odnosząc się bezpośrednio do teorii dyfuzji innowacji: raporty tego typu są tworzone przez i dla klientów z grupy opornej większości. Kontrujący te wnioski eksperci zapewne w dużej mierze kontaktują się z klientami z grupy otwartych na nowinki. Żadna z grup nie przekona tej drugiej o słuszności swoich tez. Zmiana nastąpi nie poprzez słowną szamotaninę w mediach, ale poprzez prezentację w mediach wielu faktów i przykładów skutecznych i bezpiecznych wdrożeń cloudowych w organizacjach. Regularność złagodzi obawy i pozwoli rozpocząć procedurę zakupu np. w postaci zamówienia audytu i przykładowego zaplanowania migracji systemów IT. Samo fechtowanie zwrotem bezpieczeństwo, parametrami, produktami i procedurami to za mało. Potrzebne są twarde n dowody z praktyki.


www.dcinfomex.pl

Chcesz przenieść swój biznes do chmury? Szukasz profesjonalnego dostawcy usług cloudowych, a może chciałbyś mieć własną serwerownię?

Usługi świadczone w Data Center Infomex: n n n n n

Od blisko 20 lat, w oparciu o najnowsze i sprawdzone technologie, dostarczamy zarówno gotowe rozwiązania funkcjonujące w chmurze Infomex jak i usługi projektowania oraz budowy profesjonalnego Data Center w lokalizacji Klienta.

n

O Data Center Infomex: n n

Budowa Data Center: n

n

n n

n

Szczegółowa analiza wymagań Klienta, opracowanie oraz przedstawienie najkorzystniejszej koncepcji rozwiązania Dostawa oraz instalacja platformy sprzętowej w oparciu o produkty renomowanych producentów Budowa węzłów sieci LAN/WAN Zapewnienie bezpieczeństwa fizycznego, przeciwpożarowego oraz ciągłości pracy: l dobór oraz instalacja systemów monitoringu, kontroli dostępu, sygnalizacji włamania i napadu l profesjonalne doradztwo w zakresie zaawansowanych systemów przeciwpożarowych, systemów wczesnej detekcji dymu oraz instalacji gaszenia l zagwarantowanie ciągłości pracy poprzez wybór odpowiednich, redundantnych systemów zasilania Serwisowanie i utrzymanie systemów infrastruktury Centrum Przetwarzania Danych Klienta

Kolokacja Backup Serwery dedykowane Disaster Recovery Center Infomex Cloud – usługi typu IaaS, PaaS oraz SaaS Inne

n

n n

Nowoczesna infrastruktura teletechniczna (standard Tier III) Gwarancja dostępności usług (SLA 99,98%) Gwarancja bezpieczeństwa zasobów (ISO 27001, bezpieczeństwo fizyczne, przeciwpożarowe, ciągłość pracy) Wsparcie techniczne (helpdesk 24/7) Skalowalność rozwiązań

Wszystkie rozwiązania konfigurujemy w oparciu o indywidualne preferencje Klienta.

Zapytania prosimy kierować drogą mailową na adres: datacenter@infomex.pl lub dzwonić pod numer +48 33 475 11 11

Wiecej informacji na www.dcinfomex.pl Infomex Sp. z o.o. ul. Wesoła 19b, 34-300 Żywiec, tel. (+48 33)475 11 06, e-mail: biuro@infomex.pl


WYWIAD

Sposób na chmurę O tym, jak się nie dać chmurze oraz jak na niej zarobić, rozmawiamy z KRZYSZTOFEM NIEŚCIERONEK, WICEPREZESEM ZARZĄDU firmy Infomex

- Sporo mówi się na temat cloud computingu, budowy profesjonalnych centrów przetwarzania danych oraz możliwości, jakie daje chmura. Chcielibyśmy poruszyć kwestię cloud computingu z nieco innej perspektywy – z punktu widzenia firm z branży IT. Jak według Pana wzrost zainteresowania chmurą przekłada się na sytuację tych właśnie przedsiębiorstw? - Przedsiębiorcy z branży powinni uświadomić sobie fakt, że cloud computing to odpowiedź na zapotrzebowanie klienta na wydajne, skalowalne rozwiązania dostępne przy minimalnych nakładach oraz zaangażowaniu ze strony użytkownika. Aby uniknąć ryzyka utraty konkurencyjności, firmy zajmujące się sprzedażą sprzętu oraz oprogramowania powinny obok usług świadczonych w modelu klasycznym dostarczać również zwirtualizowane zasoby oraz aplikacje w modelu SaaS.

- Zatem sugeruje Pan, że w związku z rozwojem cloud computingu firmy z branży IT zajmujące się sprzedażą sprzętu oraz oprogramowania odnotują drastyczny spadek sprzedaży? - Absolutnie nie. Głównym beneficjentem cloud computingu będą właśnie dystrybutorzy oraz resellerzy, którzy w porę przystosują portfolio świadczonych usług do potrzeb rynku. Przez wzgląd na długoletnią współpracę, klienci ze swoimi zapytaniami ofertowymi chętniej zwrócą się właśnie do nich pod warunkiem, że będą oni w stanie kompleksowo zrealizować usługę dostarczając zarówno niezbędną zawirtualizowaną infrastrukturę jak i aplikacje w modelu SaaS oraz wsparcie eksperckie.

- Jak funkcjonuje program partnerski przygotowany przez Infomex? - Program Partnerski Infomex polega na udostępnieniu kompletnych rozwiązań – począwszy od najprostszych takich, jak kolokacja, czy 30

Reseller News


wynajem serwerów, aż po usługi cloudowe typu IaaS, PaaS oraz SaaS z pełną obsługą administracyjną. Dzięki naszej ofercie partnerzy będą mogli sprzedawać gotowe rozwiązania do klienta końcowego bądź udostępniać własne aplikacje w modelu SaaS pobierając stałą, miesięczną opłatę za dzierżawę oprogramowania.

- Jakie korzyści czerpią firmy partnerskie z takiej współpracy? - Zyskują przede wszystkim dodatkowe źródło dochodu bez angażowania własnych zasobów. Poszerzając portfolio oferowanych rozwiązań o usługi typu cloud, otwierają się na chłonny i dynamicznie rozwijający się rynek podczas, gdy cała odpowiedzialność za obsługę dostarczanych rozwiązań leży po stronie Infomex. Dodatkowo partner otrzymuje wsparcie merytoryczne oraz zróżnicowany knowhow z zakresu cloudu ze strony specjalistów firmy Infomex.

- Na czym polega wsparcie merytoryczne dla partnerów? - Infomex pomaga swoim partnerom na każdym etapie współpracy – począwszy od udostępnienia materiałów marketingowych takich, jak katalogi produktowe, zdjęcia, filmy promocyjne czy certyfikaty, przez organizację zaawansowanych szkoleń, podczas których partnerzy zdobywają niezbędne know-how z zakresu cloudu aż po wsparcie w trakcie procesu sprzedażowego. Więcej, nie stosujemy minimalnych progów sprzedaży i nie narzucamy wysokości marży – współpraca z Infomexem jest oparta o zasadę „Bez ryzyka i bez inwestycji”.

- Dlaczego firmy z branży powinny przyłączyć się do programu Infomexu? - Nasz program zbudowaliśmy w oparciu o trzy zasady – regułę jednakowych praw, przejrzystości współpracy oraz obopólnych korzyści. To dzięki nim współpraca opiera się o wzajemne zaufanie przynosząc korzyści zarówno dla nas jak i dla partnera. Każdorazowo staramy się dopasować naszą ofertę do indywidualnych wymagań oraz potrzeb firmy partnerskiej. Podpisanie umowy poprzedzają rozmowy, które mają na celu omówienie szczegółów współpracy, a także wypracowanie najkorzystniejszych dla obu stron mechanizmów działań. Co więcej, nasza elastyczność przekłada się na obsługę klienta końcowego. Podczas, gdy większość programów partnerskich dotyczących rozwiązań cloudowych bazuje na dostarczaniu prekonfigurowanych pakietów usług, współpraca z nami umożliwia partnerowi sprzedaż rozwiązań szytych na miarę. Załóżmy, że klient będzie zainteresowany zakupem maszyny wirtualnej, ale będzie chciał mieć na niej zainstalowane oprogramowanie wspierającego obieg dokumentów w jego firmie – w takim przypadku firma partnerska zgłasza się do nas z prośbą o przygotowanie indywidualnej wyceny.

- W jaki sposób partnerzy mają zagwarantowaną wyłączność na przeprowadzenie danej transakcji? - Po podpisaniu umowy partner otrzymuje dostęp do panelu administracyjnego zawierającego opis oferowanych usług oraz cennik wybranych, standardowych rozwiązań w formie przejrzystego konfiguratora. Panel administracyjny oferuje również możliwość zamówienia indywidualnej wyceny za pośrednictwem formularza kontaktowego. Umieszczając go na swojej stronie www, partner otrzymuje gotowe, profesjonalne narzędzie służące do obsługi klienta końcowego. Zapytania ofertowe wpływające do Infomexu za pośrednictwem panelu partnera są automatycznie do niego przypisywane. W naszym programie wypracowaliśmy również szereg innych mechanizmów, które mają na celu zabezpieczenie wyłączności na obsługę danej transakcji. Zależy nam na budowaniu kanału partner-

skiego w oparciu o zaufanie oraz wzajemne wsparcie. Kolejnym aspektem, przemawiającym na korzyść oferty partnerskiej Infomex jest bezpieczeństwo oferowanych rozwiązań zapewnione dzięki niezawodnej infrastrukturze naszego data center.

- Co zapewnia ciągłość działania oraz bezpieczeństwo zasobów w Data Center Infomexu? - Przede wszystkim dbałość o każdy element infrastruktury. Budynek, w którym jest ono zlokalizowane, został wyposażony w najnowocześniejsze rozwiązania gwarantujące pełne bezpieczeństwo danych – systemy sygnalizacji włamania czy napadu, całodobowy monitoring, czytniki biometryczne, zaawansowane systemy wczesnej detekcji pożaru, system gaszenia gazem obojętnym i wiele innych. Przy projektowaniu infrastruktury, położyliśmy szczególny nacisk na zapewnienie ciągłości działania systemów przy jednoczesnej minimalizacji kosztów – wybierając zaawansowane technologie redundantnej klimatyzacji precyzyjnej opartej o zjawisko tzw. freecoolingu oraz zasilanie oparte o dwa niezależne przyłącza energetyczne, jesteśmy w stanie oferować korzystne ceny przy zachowaniu najwyższej jakości świadczonych usług. Kolejnym atutem jest uczestnictwo w najważniejszych punktach wymiany ruchu, zarówno z operatorami polskimi jak i globalnymi oraz połączenie z największymi dostawcami usług telekomunikacyjnych. Dzięki zastosowaniu szeregu najnowocześniejszych rozwiązań stworzyliśmy w pełni redundantną i bezpieczną infrastrukturę, która spełnia wymogi TIER III oraz gwarantuje SLA na poziomie 99,98. ■ 31 Reseller News


Stefan Kaczmarek

COVER story

Storage 2013 – wyzwania

Migracja do infrastruktury

chmurowej, storage w postaci usług z chmury (Storage-as-a-Service) oraz technologie do analizy dużych zbiorów danych (Big Data) – to obecnie trzy kluczowe wyzwania w zakresie pamięci masowych

P

onieważ technologie ICT są obecnie niezbędne do obsługi większości operacji biznesowych, elektroniczna informacja stanowi jeden z najwartościowszych zasobów każdej organizacji i przedsiębiorstwa, który wymaga skutecznej ochrony, szybkiego dostępu oraz sprawnego zarządzania. Ta zasadnicza zmiana w praktyce prowadzenia działalności gospodarczej stawia wysoko poprzeczkę wymagań zarówno dostawcom rozwiązań IT, resellerom, jak i wdrażającym je organizacjom. Żeby uporać się z lawinowo rosnącą ilością danych w firmie i dostosować jej infrastrukturę informatyczną do funkcjonowania w nowych warunkach, potrzebne są innowacyjne technologie do przechowywania informacji

32

Reseller News

i analizowania danych, sprawnego zarządzania nimi oraz zabezpieczania.

STORAGE Z CHMURY Rozwijanie działalności biznesowej wymaga przeskalowania firmowej infrastruktury IT oraz wdrażania nowych technologii, nie ponosząc przy tym nadmiernych kosztów, co ma szczególne znaczenie w okresie recesji gospodarczej. Te uwarunkowania w swoich strategiach sprzedażowych powinni również uwzględniać oferujący rozwiązania storage’owe. W miarę jak technologie chmurowe coraz bardziej przenikają do świata pamięci masowych konieczne staje się nowe podejście sprzedażowe, uwzględniające potrzebę

promowania także usług zarządzania infrastrukturą (managed services), którymi dotychczas część resellerów nie zajmowała się. Na tych, którzy wyjdą do klienta z rozwiązaniami zapewniającymi dużą elastyczność w obsłudze sprzętu oraz oferującymi szybki dostęp do potrzebnych danych i wydajne ich przetwarzanie – czeka nagroda. Dlatego warto, żeby resellerzy przybliżali swoim klientom także rozwiązania typu Storage-as-a-service, które zapewniają dużą elastyczność, łatwo można je skalować, a użytkownikom ułatwiają zarządzanie i tam, gdzie to możliwe – przynoszą oszczędności. Pamięci masowe oferowane w formie usługi mogą przybierać różne postacie, może to być dedykowane rozwiązanie pa-


ALEKSANDRA POSIADA PRODUCT MANAGER HP STORAGE, HP POLSKA

Storage-as-a-Service jest naturalną konsekwencją rozwoju architektury Cloud Computing. Usługa ta umożliwia oferowanie resellerom nie tylko sprzętu, ale również personalizowanych pod kątem potrzeb danego klienta usług i oprogramowania. Dzięki temu resellerzy są w stanie rozszerzyć i na dłużej utrzymać klienta. Model SaaS oznacza dla klienta same korzyści: brak kosztów zakupu i utrzymania sprzętu, a także konieczności utrzymywania własnego personelu IT mięci masowej z chmury, uzupełniane o wartość dodaną, sieć SAN (Storage Area Network) połączona z centrum danych, z którego są oferowane różne usługi storage, czy też po prostu podstawowa usługa backupu z lokalnym agentem. Mieszanka różnorodnych rozwiązań pamięci masowych używanych w firmach (lokalne, bezpośrednio przyłączone, SAN, NAS itp.) powoduje, że coraz trudniej się nimi zarządza, skaluje czy nawet rzetelnie backupuje. Żeby zmniejszyć komplikacje związane z zarządzaniem różnymi systemami, eksperci doradzają konsolidację mieszanych środowisk. Klienci nie zawsze potrafią przewidywać rozwój własnych systemów, a w związku z tym i możliwości skalowania infrastruktury IT. Dla resellerów, którzy niejednokrotnie są traktowani jako doradcy technologiczni, taka sytuacja stwarza możliwości rozszerzenia swojej oferty – zwraca uwagę Aleksandra Posiada, Product Manager HP Storage w HP Polska. Oferowanie usług typu storage-as-a-service

(SaaS) nie wyklucza dalszej sprzedaży pudełek ze sprzętem do storage’u. Martin Warren, product manager z Symanteca, sugeruje łączoną sprzedaż usług storage’owych z urządzeniami appliance do backupu. W każdym segmencie rynku jest kilka różnych technologii, które przyciągają uwagę resellerów. W przypadku rynku storage coraz wyraźniej można usłyszeć chór zwolenników modelu SaaS. Tego typu usługi zapewniają bowiem klientom elastyczność i możliwość kontroli kosztów, a resellerom dają okazję do przedyskutowania problemu lawinowo przybywających danych oraz oferowania rozwiązania, które ma potencjał wzrostu w przyszłości. Przy modelu usługowym Storage-as-aService kluczowe jest wsparcie klienta w wyborze usługi. Konieczne jest zbadanie jego infrastruktury, identyfikacja potrzeb i zapewnienie możliwości rozwoju – mówi Tomasz Wieczorek, Enterprise Product Manager for Central Eastern Europe w firmie Dell. Do 2018 r. rynek storage’u z chmury ma

W erze wirtualizacji dostęp do danych oraz aplikacji jest konieczny przez całą dobę z dowolnego miejsca na świecie

JOANNA PELC PARTNER DEVELOPMENT MANAGER W FIRMIE EMC

Przetwarzanie w chmurze pozwalające oferować rozwiązania typu IT-as-aService, to szansa nie tylko dla firm telekomunikacyjnych i dostawców usług IT, ale również okazja dla resellerów do zbudowania własnej oferty usług opartych na modelu cloud. Resellerzy mogą kupować hurtowo przestrzeń w chmurze i odsprzedawać ją własnym klientom, oczywiście, dodając po drodze wartość. Jest to oferta szczególnie istotna dla rynku małych i średnich przedsiębiorstw 33 Reseller News


COVER story

PRZEMYSŁAW KUCHARZEWSKI ENTERPRISE BUSINESS GROUP DIRECTOR, AB

Obecnie największą innowacyjnością na rynku wykazują się producenci urządzeń NAS. Przy zachowaniu relatywnie niskiej ceny starają się wprowadzać nowe rozwiązania technologiczne. NASy obsługują coraz więcej dysków i operacji IOPS. Zwiększa się również ich przepustowość, elastyczność i skalowalność. Urządzenia mogą pracować w niepełnej obsadzie dyskowej, a dokładanie kolejnych HDD nie stanowi problemu

być wart 46,8 mln dol. – szacują analitycy IDC w swoim raporcie opublikowanym pod koniec grudnia ub.r. Nie należy więc dyskredytować wpływu modelu chmurowego na pamięci masowe, gdyż wyraźnie widać, że te zmiany w architekturach IT zwiastują przesunięcia akcentów również na rynku storage. Utrzymywanie dotychczas dominującego modelu lokalnego przechowywania danych jako długotrwałego rozwiązania, może okazać się w dłuższej perspektywie nieuzasadnione, zwłaszcza teraz, kiedy coraz więcej wydajnych rozwiązań można budować w oparciu o sieci szkieletowe operatorów usług chmurowych. Na polskim rynku można odnotować pierwsze oferty usług BaaS (Backup as a Service). Pod koniec I kwartału br. Integrated Solutions ma zacząć udostępniać usługi backupu w chmurach oparte na oprogramowaniu i pamięciach masowych EMC, zainstalowanych w centrum przetwarzania danych Orange Polska. IDC podaje, że chociaż globalny rynek urządzeń appliance do backupu (określanych jako PBBA - purpose-built backup appliance) w ub. roku pozostał na niezmienionym poziomie, to całkowita pojemność pamięci masowych wzrosła rok do roku o 37,5 proc. do 366 956 terabajtów danych. To interesujący wynik, jeżeli spojrzymy na niego w świetle nadal utrzymujących się wysokich cen za fizyczny sprzęt storage. Ponieważ organizacje i kanały partnerskie koncentrują się na dostosowywaniu hybrydowych rozwiązań chmurowych do potrzeb korporacyjnych, możliwe, że ten proces stopniowo obejmie także pamięci masowe i rozwinie się w kierunku hybrydowego modelu storage. 34

Reseller News

DYSKI SSD/FLASH, BIG DATA Zauważamy, że firmy coraz częściej decydują się na wykorzystywanie już posiadanej infrastruktury do nowych projektów – mówi Aleksandra Posiada, Product Manager HP Storage. Dlatego zyskiwać na znaczeniu będzie optymalizacja wykorzystywanych przestrzeni dyskowych dotycząca zarówno przestrzeni na macierzach produkcyjnych, jak i kopii zapasowych. Optymalizacja taka możliwa jest dzięki zaawansowanym technologiom, takim jak Thin Provsioning czy Auto Tiering w przypadku macierzy, oraz technologii deduplikacji - w przypadku kopii zapasowych. Rosnąć będzie też zainteresowanie dyskami SSD, wśród których coraz większą popularnością cieszy się technologia MLC. Zwiększy to znacznie obszar zastosowań i umożliwi swobodniejsze ich oferowanie. Ponadto, funkcjonalności obecne dotychczas tylko w produktach klasy enterprise są dostępne już

w macierzach klasy Midrange. Prywatne chmury będą wypierać pamięci USB oraz e-mail, jako preferowane metody przekazywania danych i miejsce ich przechowywania – uważają z kolei eksperci Siemens Enterprise Communications. Dużym atutem platformy cloud computing jest też możliwość sprawnego udostępniania treści w ramach zespołów roboczych. W erze wirtualizacji dostęp do danych oraz aplikacji jest konieczny przez całą dobę z dowolnego miejsca na świecie. To niesie ze sobą wyzwania związane z bezpieczeństwem zasobów. Nie chodzi już tylko o to, by dane były statycznie przechowywane, ale należy nimi naprawdę inteligentnie zarządzać – zwraca uwagę Tomasz Wieczorek, CEE Enterprise Product Manager w Dell, gdzie takie podejście jest określane terminem architektury Fluid Data. Rozwiązania biznesowe i konsumenckie będą się coraz


ANDRZEJ KOWALSKI INŻYNIER SYSTEMOWY, AZLAN/TECH DATA W sytuacji idealnej - reserller oferujący i dostarczający konkretne rozwiązania w ramach procesu konsolidacji data center oraz wspierający wdrażanie rozwiązań wirtualizacyjnych i chmurowych - powinien zapewnić skuteczny kanał informacyjny obejmujący: konsultacje, doradztwo oraz dostęp do specjalistów, także po stronie vendora. W większości przypadków jest to przed wszytkim rola informacyjna, ponieważ producenci niechętnie oddają kompetencje na zewnątrz. Niezwykle użytecznym walorem niektórych VAR-ów (Value Added Resseler) jest posiadanie własnego centrum kompetencyjnego z zapleczem laboratoryjnym, gdzie można zademonstrować rozwiązania sprzętowe i jego funkcjonalności lub wręcz zapewnić środowisko do przeprowadzenia tzw. Proof of Concept. Jednym z kluczowych wyzwań jest obecnie ograniczona możliwość przewidzenia rzeczywistej, a tym bardziej przyszłej charakterystyki pracy i obciążenia centrum danych. Część z tych problemów udaje się wyeliminować jeszcze na etapie planowania. Optymalne wy korzystanie mocy infrastruktury IT możemy zapewnić dzięki wirtualizacji obejmującej nie tylko serwery (Vmware w Sphere, MS HyperV, KVM, etc.), ale również pamięci masowe, urządzenia sieciowe oraz narzędzia do zarządzania chmurą obliczeniową. Rozwiązania zapewniające efektywną alokację, jak również skuteczne odzyskiwanie wolnych zasobów, pozwalają optymalizować zarówno koszty całej infrastruktury, jak i jej utrzymania i dostarczania (tzw. Provisionig).

bardziej przenikać. Dostawcy będą łączyli zabezpieczenia klasy korporacyjnej z prywatną przestrzenią dyskową w chmurze i rozwiązania do współdzielenia stanowiska pracy. Bezpieczny dostęp zarówno do osobistych, jak i biznesowych zasobów - niezależnie od lokalizacji, sieci czy urządzenia będzie możliwy za pomocą dedykowanych aplikacji. Obecnie trudno ogarnąć narastający nadmiar informacji i szum komunikacyjny. Nowe systemy mają pomóc w śledzeniu najważniejszych, aktualnych informacji oraz szybkim wyszukiwaniu ukrytych treści i kontaktów. W rezultacie, zorganizowana, przefiltrowana i przystosowana do przeszukiwania, kontekstowa komunikacja stanie się łatwiejsza. Mając na uwadze to, że jeden z najważniejszych tematów w branży IT w 2013 roku to wielkie zbiory danych (Big Data), resellerzy powinni zwrócić szczególną uwagę na rozwiązania z obszaru skalowalnych systemów pamięci masowej oraz technologie zarządzania danymi – mówi Joanna Pelc, Partner Development Manager w firmie EMC. Jej zdaniem, następna faza ewolucji Big Data w kanale partnerskim, szeroka dostępność branżowych rozwiązań analitycznych, na których integratorzy systemów będą mogli opierać oferowane przez siebie usługi - nastąpi później. Natomiast w 2013 r. resellerzy będą mogli się głównie koncentrować na wsparciu firm w zarządzaniu danymi z per-

spektywy infrastruktury oraz wydobywaniu z nich wartościowych informacji. - Warto również zwrócić uwagę resellerów na technologię Flash, która umożliwi podejmowanie większych inicjatyw informatycznych, takich jak wirtualizacja i przetwarzanie w chmurze – dodaje Joanna Pelc. Firmy różnej wielkości będą mogły wykorzystywać oprogramowanie w połączeniu z technologią Flash, aby zapewnić maksymalną efektywność i wydajność we wszystkich typach środowisk. Na powszechne zastosowanie technologii warstwowych w macierzach, jako jedną z metod wdrażania scenariuszy oszczędnościowych w ramach infrastruktury informatycznej przedsiębiorstw, a zarazem inwestycję strategicznę - zwraca uwagę Paweł Kopacz, dyrektor sprzedaży w EMC odpowiedzialny za sektor Enterprise. Polega ona na wykorzystaniu dysków SSD/Flash w pierwszej warstwie, FC/SAS w warstwie drugiej i SATA w warstwie trzeciej, połączon z oprogramowaniem dostosowującym rozłożenie danych we wszystkich warstwach do dynamicznie zmieniających się potrzeb aplikacji. Coraz więcej danych, rozwój przetwarzania w chmurze, potrzeba efek- tywnego zarządzania danymi i upraszczania infrastruktury IT - mi-mo wielu wymienionych tu obiecujących (szczególnie z punktu

widzenia producentów rozwiązań IT) analiz i trendów na rok 2013, może to być niełatwy czas, głównie z powodu nadal niestabilnej sytuacji makroekonomicznej w Europie – przestrzega Wojciech Wróbel, Product Manager - Storage & Server w firmie Fujitsu. W wielu dużych firmach sygnalizowane są głębokie działania oszczędnościowe: od zamrażania nawet rozpoczętych już projektów informatycznych, po redukcje zatrudnienia włącznie. Dla producentów rozwiązań IT powinien być to wyraźny sygnał, żeby zwiększyć swoją aktywność w relacjach z klientami, aby udzielać im właściwego i skutecznego wsparcia w doborze środków i rozwiązań - podpowiada Product Manger Fujitsu. Drugi wariant to rozbudowa własnej oferty usługowej. n

35 Reseller News


WYWIAD

Wirtualizacja komfort IT Z MONIKĄ KARPIŃSKĄ, CORPORATE ACCOUNT MANAGEREM Citrix, rozmawia Mariusz Ludwiński

- Jaki jest sens wchodzenia w wirtualizację desktopów? – Bardzo ważnym obecnie trendem w IT jest konsolidacja systemów. Zamiast kilku oddzielnych serwerów, jeden dzielony. Zamiast kilku macierzy, jedna wspólna. Korzyści są jasne: oszczędność kosztów obsługi, konserwacji, licencji, oszczędność czasu na poprawki i aktualizacje, prostsze zarządzanie całością z poziomu tego samego panelu. Wirtualizacja to główne narzędzie w procesie konsolidacji. Zamiast stawiać nowe systemy fizyczne (serwery, macierze, komputery z pełnym oprogramowaniem), można zbudować infrastrukturę wirtualną, wydzieloną w ramach serwera własnego lub użytkowanego w formie usługi. Kilkanaście lat temu wielkim skokiem technologicznym było przejście z pracy na dokumentach papierowych na sprawną pracę na komputerze. Przejście z tysięcy komputerów indywidualnych na firmowe systemy zwirtualizowane to kolejny krok na drodze do uczynienia informatyki przyjazną, skuteczną i oszczędną.

- Czy polski rynek jest gotowy na takie rozwiązania? – Z rozmów z klientami oraz partnerami wynika, że niezależnie od branży, coraz więcej firm wdraża i prowadzi poważne analizy przejścia na systemy zwirtualizowane. Robią to, oczywiście, duże firmy: banki, firmy produkcyjne, przedsiębiorstwa handlowe, oraz instytucje publiczne. One skupiają się na konsolidacji posiadanych zasobów. Ci klienci korzystają przede wszystkim z naszej oferty wirtualnych desktopów i rozwiązania XenDesktop, chmury CloudPlatform, czy też platformy, pozwalającej na zdalny dostęp do aplikacji XenApp. Wirtualizacją interesują się również firmy mniejsze 36

Reseller News


Wirtualizacja to główne narzędzie w procesie konsolidacji. Zamiast stawiać nowe systemy fizyczne (serwery, macierze, komputery z pełnym oprogramowaniem), można zbudować infrastrukturę wirtualną, wydzieloną w ramach serwera własnego lub użytkowanego w formie usługi

WYWIAD start-upy, które z jednej strony chcą rozwijać swoją infrastrukturę IT, a z drugiej chcą utrzymać dotychczasową prostotę i wydajność. W tym wypadku mogą one skorzystać z rozwiązania dedykowanego dla MSP – VDI-in-a-Box to gotowy produkt do wirtualizacji stacji roboczych, który można zainstalować na już posiadanych serwerach.

- Bezpieczeństwo, ciągłość pracy, komfort – jak infrastruktura wirtualna zapewnia spełnienie tych potrzeb użytkowników? – Należy pamiętać, że zwirtualizowany system niekoniecznie oznacza pozbycie się komputerów z biura. Istnieją różne podejścia do wirtualizacji, m.in. dostęp do aplikacji na żądanie, wirtualne desktopy uruchamiane na serwerach, wirtualne desktopy uruchamiane na istniejących komputerach poprzez maszyny wirtualne (VM), dostęp zdalny do innego komputera podłączonego do sieci. Często więc pracujemy w nowym, zwirtualizowanym środowisku, ale fizycznie korzystamy z dobrze nam znanego, tego samego sprzętu co dotąd. Pracownicy danego działu (nawet ci znajdujący się w różnych miastach) mogą mieć dostęp do dokładnie tych samych aplikacji. Bezpieczeństwo i ciągłość pracy takiego zwirtualizowanego komputera zapewnia dostawca na poziomie data center, to tam specjaliści IT na bieżąco czuwają nad jego sprawnym funkcjonowaniem. Jeśli coś dzieje się w systemie, w jednym miejscu podejmują działania naprawcze. Jeśli coś dzieje się na poziomie użytkownika, wystarczy prosta zamiana urządzenia końcowego na nowe. Nie trzeba nic instalować, nic update’ować, nie trzeba przenosić danych ze starego urządzenia. Wszystko jest dostępne cały czas na serwerze. Wystarczy wpiąć do sieci i można kontynuować pracę. Osobiście korzystam na co dzień z systemu zwirtualizowanego. Jako Corporate Account Manager dużo podróżuję, pracuję z klientami, nie muszę

codziennie aktualizować danych z tabletu, notebooka i komputera firmowego. W systemie mam wszystko cały czas pod ręką.

- Co jest największą siłą oferty Citrix w obszarze wirtualizacji systemów informatycznych? – Citrix dysponuje bardzo elastycznym modelem współpracy z klientami. Możemy zbudować dowolny system zwirtualizowany, czy to oparty na dostarczaniu aplikacji, tworzeniu instancji na serwerze, czy też systemu, który dostarcza użytkownikom pełne desktopy. Do budowanej dla klienta infrastruktury możemy włączyć również prywatne urządzenia pracowników (zgodnie z popularnym trendem Bring Your Own Device) i przez aplikację na smartfonie lub tablecie, przydzielić im dostęp do oprogramowania, internetu, pamięci dyskowej, danych firmowych. Oferujemy systemy zwirtualizowane, usługi data center, a także pełny wachlarz usług pomocniczych (bezpieczeństwo dostępu, akceleracja sieci, terminale, równoważenie obciążenia czyli load balancing). Dzięki temu nasi partnerzy, działający w ramach programu partnerskiego, mogą nawiązywać szeroką i długofalową współpracę z klientami końcowymi.

- Czy sprzedaż jest tylko przez partnerów? – 100 proc. naszego biznesu realizujemy przez partnerów. Dlatego przykładamy wielką uwagę do wsparcia partnerów w całym procesie sprzedaży naszych produktów. Nie będę wchodzić w szczegóły, ponieważ już w kwietniu uruchomimy nowy program. Prowadzimy szkolenia merytoryczne oraz sprzedażowe. Mamy również wersje internetowe i e-learningowe, oferujemy wsparcie sprzedażowe, programy finansowe, nagradzamy za konkretne wyniki oraz za edukację klientów. Często angażujemy się na poziomie pre-sales, szczególnie w przypadku zamówień przetargowych. ■ 37 Reseller News


COVER story

Urządzenia

Andrzej Janikowski

do wielkich zadań Popyt na serwery nie słabnie od lat. Wygląda na to, że i w tym roku dobra koniunktura będzie trwała nadal. Czynnikiem dynamizującym będzie rozbudowa centrów danych, choć nie zawsze przeznaczonych na potrzeby przetwarzania w chmurze publicznej

w

e współczesnych centrach danych stosuje się trzy rodzaje serwerów: klasyczne urządzenia rack, serwery kasetowe i serwery skinless, czyli hybrydę serwerów kasetowych z rack. W tej pierwszej grupie dość popularne są urządzenia 1U wyposażone w dwa procesory Intel Xeon. Jeśli chodzi o serwery blade, to tu także prym wiodą urządzenia dwuprocesorowe z procesorami Intel Xeon. Przeciętnie, w obudowie można zainstalować kilkanaście blade’ów, na przykład obudowa blade BX900 Fujitsu daje możliwość umieszczania do 18 urządzeń dwuprocesorowych w jednym chassis 10U. Generalnie, producenci prześcigają się w produkcji coraz bardziej wydajnych urządzeń, które można instalować na coraz mniejszej powierzchni. Pojawiają się też nowe koncepcje, jak np. Fabric Computing. Ciągle rośnie znaczenie

38

Reseller News

wirtualizacji. Wiadomo, że w najbliższych latach nie spadnie popyt na serwery, trudno jednak powiedzieć, czy stymulatorem dobrej koniunktury będzie cloud computing, czy raczej odradzająca się chęć przedsiębiorców do budowy własnych centrów przetwarzania informacji.

SPÓJNA KONCEPCJA Grzegorz Dobrowolski powołując się na raporty niezależnych instytucji analitycznych uważa, że jest jednym z kluczowych trendów technologicznych mających wpływ na transformację Data Center będzie koncepcja Fabric Computing. W skrócie chodzi o systemy integrujące moc obliczeniową, macierze dyskowe, sieć komunikacyjną oraz zarządzanie. Według raportu IDC z maja 2012 przekształcenie infrastruktury informatycznej w system Fabric Computing pozwala

Tworzenie nowoczesnych farm serwerów jest również doskonałą okazją dla integratorów


WOJCIECH

Architektura Data Center ostatnio podlega dużej transformacji. Powodami z jednej strony są m.in. wirtualizacja systemów i aplikacji, bardzo duży i bardzo szybki przyrost ilości danych oraz mobilność tychże danych, z drugiej coraz większy nacisk na ekonomiczna stronę przedsięwzięcia. Według firmy analiCISCO BUSINESS DEVELOPMENT MANAGER tycznej Forrester, średnio 70 proc. środków budżetowych pochłaniane jest na utrzymanie i zarządzanie istniejącym środowiskiem, podczas gdy jedynie 30 i proc. środków jest kierowana na rozwój nowych usług, które mają budować wartość biznesową i konkurencyjną dla każdej firmy. Wymusza to dalszą transformację i niezależnie od tego jak ten kierunek nazwiemy, zmierza to w stronę poprawy efektywności ekonomicznej. Cisco wychodzi naprzeciw tym oczekiwaniom i dlatego duży nacisk kładzie na innowacyjne rozwiązania jak: wbudowane centralne zarządzanie systemem kilkuset serwerów zarówno typu blade jak INŻYNIER SYSTEMOWY, AZLAN/TECH DATA i rack, znaczące skrócenie czasu odtwarzania środowiska po awarii, usprawnienie Integracji ze światem wirtualnym czy redukcję ilości komponentów aktywnych o blisko 40 proc. Cisco Unified Computing System (UCS) , został zaprojektowany w modelu Fabric Computing (a w zasadzie jest jego protoplastą) co sprawia, że doskonale wpisuje się w model nowoczesnego Data Center. Oczywiście Cisco ma w swoim porfolio wiele technologii dedykowanych dla struktur Data Center - jak technologie konwergentne (FCoE i przełączniki konwergentne) czy poprawiające wydajność środowiska i przepustowości sieci w Data Center (jak TRILL czy też jej implementacja w postaci Cisco Fabric Path), ale najważniejszym elementem nie są innowacje na poziomie produktu, ale nowa architektura systemu. W takiej strukturze bezpieczna i konwergentna infrastruktura sieci LAN i SAN jest magistralą komunikacyjną, a serwer integruje się z macierzą i zarządzaniem jako łatwo skalowalny blok dostarczania usług. Realizacja architektury Fabric Computing, wymienianej przez Gartnera w top 10 technologii na 2013r., wpływa w sposób znaczący na całkowity koszt posiadania i utrzymania systemu. Innowacje produktowe jak i architektura systemu zostały docenione przez klientów, co objawiło się bardzo szybkim wzrostem udziału systemu UCS w rynku. Badania pokazują, że do 2016 r. znacząca część serwerów będzie dostarczana w tej formie.

WOJTYŁA

REMIGIUSZ

GÓRECKI

na obniżenie kosztów całkowitej infrastruktury nawet o 40 proc., obniżenie kosztów zużycia energii o 25 proc. oraz kosztów powierzchni nawet o 33 proc. Poza tym obniżają się koszty wdrożenia, zarządzania i utrzymania całego rozwiązania, są jeszcze inne zalety, jak: mniejsza podatność środowiska na awarie i poprawa ciągłości pracy systemu. Producenci natomiast proponują kompleksowe rozwiązania, które zawierają wszystkie niezbędne komponenty sprzętowe: sieć LAN/SAN, pamięć masową, serwery o architekturze RISC i x86 oraz, co ważne dla integratora, wiele rozwiązań uproszczających wdrożenie aplikacji i nowych systemów oraz zarządzanie nimi. Dodają też często moduł zarządzający, który umożliwia płynne zarządzanie infrastrukturą fizyczną i wirtualną. Proces ten może zostać zautomatyzowany, dzięki czemu jest kluczowy dla poprawnego rozwoju CPD. - Tworzenie nowoczesnych farm serwerów jest również doskonałą okazją dla integratorów - podkreśla Artem Rusin, Product Manager w IBM. - Wiele zależy od modelu biznesowego partnera. Firmy, które mają duże zaplecze techniczne i specjalizują się we

wdrożeniach infrastruktury IT użyją rozwiązania modułowego, za pomocą którego można stworzyć konfigurację dla danego klienta na miarę. Potem dokonać następnego etapu wdrożenia. Firmy wdrożeniowe, które będą chciały uzyskiwać wysokie marże na świadczeniu usług doradczych i aplikacyjnych związanych oczywiście ze środowiskiem IT - będą mogły ograniczyć ryzyko związanie z instalacją fizyczną i przyśpieszyć wdrożenie dzięki rozwią- zaniom modułowym. - Do serwerowni przyjeżdża gotowa, okablowana szafa rack wypełniona sprzętem zgodnie z konfiguracją, wszystkie elementy są złączone ze sobą i gotowe do uruchomienia – mówi Artem Rusin.

WIRTUALIZACJA CIĄGLE POTRZEBNA Wirtualizacja zyskała zwolenników wtedy, kiedy stało się jasne, że moc komputerów osobistych i serwerów przewyższyła w sposób radykalny zapotrzebowanie użytkowników. Statystycznie moc obliczeniowa 60-80 proc. serwerów z procesorami x86 jest wykorzystana w 5-15 proc. Wirtualizacja pozwala na zastąpienie kilku fizycznych serwerów jednym. 39 Reseller News


COVER story

- Zmiany mają uzasadnienie finansowe, gdy projekt jest realizowany na dużą skalę – mówi Andrzej Kontkiewicz, Regional Presales Manager Eastern Europe w VMware. – Firmie, która ma kilkadziesiąt serwerów, inwestycja w oprogramowanie do wirtualizacji zwraca się niemal natychmiast. Ale korzyści mogą mieć też posiadacze znacznie mniejszych centrów danych. Wirtualizacja nadaje także pewną elastyczność pracy działu IT – stworzenie nowego serwera, potrzebnego chociażby do testów nowego oprogramowania, zajmuje trochę czasu. W tradycyjnym środowisku konieczne byłoby kupno kolejnej maszyny, instalacja systemu operacyjnego, niezbędnego oprogramowania, itd. Dzięki wirtualizacji oszczędza się czas i pieniądze. Natomiast informatycy mogą skupić się na zadaniach rozwojowych, a nie utrzymaniowych, co skraca okres reakcji działu IT na realizację potrzeb instytucji. Wdrożenie systemu wirtualizacji owocuje też zmniejszeniem ilości energii potrzebnej zarówno do zasilania centrów danych, jak i chłodzeniem pomieszczeń. Dzięki niej można znacznie obniżyć wydatki na energię elektryczną potrzebną zarówno do zasilania infrastruktury jak i chłodzenia

serwerowni, w której po wirtualizacji pracuje mniej urządzeń. Równie ważną korzyścią dla centrum danych jest wysoka dostępność, czyli trwające minuty przywracanie do życia po awarii. - Najnowszym trendem w wirtualizacji centrów danych jest wirtualizacja całego sprzętu, czyli połączeń sieciowych, pamięci masowej, serwerów, a także innych jego komponentów – mówi Andrzej Kontkiewicz. – Celem jest stworzenie jednej platformy scalającej i świadczącej wiele usług informatycznych, jako software.

BEZCHMURNE NIEBO Czy popyt na serwery dla centrów przetwarzania danych będzie rósł? Z pewnością tak, choć trudno w tej chwili domniemywać, czy koniunkturę na rynku będą dynamizowały systemy chmury publicznej, czy własne centra. Z opublikowanego w styczniu tego roku raportu „Oracle Next Generation Data Centre Index” wynika, że po raptownej zmianie sposobu obsługi danych kwalifikowanych, jako Big Data firmy znów przetwarzają dane we własnym zakresie. Wyniki badań dowodzą, że po roku wzmożonego zainteresowania usługami świadczonymi przez usługodaw-

ców zewnętrznych, firmy ponownie przenoszą dane do własnych centrów przetwarzania. Z raportu Oracle Next Generation Data Centre Index Cycle III wynika, że po fazie wzmożonego zainteresowania usługami świadczonymi przez usługodawców zewnętrznych, wiele przedsiębiorstw z regionu EMEA znów przenosi swoje dane do własnych centrów. Wyniki wcześniejszych badań, opublikowane w styczniu 2012 r., świadczyły o przechodzeniu rynku na wsparcie zewnętrznych centrów przetwarzania danych, co przypisywano temu, że firmy dały się zaskoczyć lawinowym wzrostem ilości danych (czyli Big Data). Odsetek respondentów korzystających jedynie z własnych zasobów do przetwarzania danych wzrósł z 45 proc. do 66 proc. Procentowy udział przedsiębiorstw korzystających tylko z jednego, własnego centrum przetwarzania danych wzrósł z 26 proc. we wcześniejszych latach do 41 proc. Wzrósł również z 19 proc. do 25 proc. udział respondentów twierdzących, że korzystają z wielu własnych centrów przetwarzania danych. I na odwrót – odsetek przedsiębiorstw korzystających zarówno z własnych, jak i zewnętrznych centrów, spadł z 56 proc. do 34 proc. Zmalała również liczba przedsiębiorstw twierdzących, że w możliwej do przewidzenia przyszłości nie widzą potrzeby zbudowania nowego centrum przetwarzania danych. Odsetek takich firm obniżył się w ciągu kilku lat z 17 proc. do 7 proc. Być może więc rozwiązania chmury prywatnej nie będą wpływały tak ożywczo na rynek serwerów, jak tego się dotychczas spodziewano. Nie mniej ewentualny spadek w tym segmencie rynku powinien zostać skompensowany wydatkami na budowę własnych centrów przetwarzania informacji. Integratorzy mogą chyba spać spokojnie. n

40

Reseller News


www.citrix.com

możliwości wykorzystania wielu lokalizacji i urządzeń, firma jest w stanie zaoferować bardziej atrakcyjne formy pracy, dopasowane do różnorodnych potrzeb użytkowników. Bezpieczny dostęp do firmowych zasobów zwiększa wartość organizacji w różnorodnych scenariuszach biznesowych, takich jak np. rozbudowa placówek czy reorganizacja firmy. Citrix pomaga zmaksymalizować korzyści wynikające z wirtualizacji desktopów, zarówno na płaszczyźnie biznesowej jak i technologicznej. Ułatwia dostarczanie wysokiej jakości usług i zasobów do użytkowników, przy jednoczesnym zwiększeniu bezpieczeństwa i efektywności IT. Dzięki wirtualizacji desktopów, można w pełni korzystać z nowych inicjatyw biznesowych i trendów, w tym workshiftingu, BYOD czy mobilności.

To sposób, w jaki organizacje mogą wspierać preferowany przez pracowników styl pracy, przy jednoczesnym uproszczeniu procesów zarządzania stanowiskami roboczymi ze strony IT. Dzięki wirtualizacji desktopów, organizacje są w stanie zapewnić użytkownikom możliwość wykonywania swoich obowiązków, nie ograniczając ich pod względem fizycznej lokalizacji. Wirtualizacja desktopów pomaga organizacjom wspierać priorytety biznesowe, które mają kluczowe znaczenie dla ich rozwoju. Dzięki

Podejście Citrix opiera się na umożliwieniu ludziom pracy w oparciu o firmowe dane i aplikacje z dowolnego miejsca i urządzenia: w tym za pośrednictwem komputerów stacjonarnych, laptopów, rozwiązań typu „thin client”, tabletów oraz smartfonów. Centralizacja zasobów IT w jednej lokalizacji powoduje, że dostęp do nich nie naraża organizacji na utratę bezpieczeństwa i jednocześnie pozostaje w zgodzie odpowiednimi regulacjami. Citrix XenDesktop® oparty na modelu dostarczania FlexCast zapewnia wysoką elastyczność i pozwala na zastosowanie wirtualnego desktopu, dostosowanego do odpowiedniego scenariusza potrzeb każdego pracownika.

Rozwiązanie Citrix:

n umożliwia działom IT: stworzenie wirtualnego centrum danych, w którym zasoby obliczeniowe są dostępne dla użytkowników z zachowaniem odpowiedniego poziomu bezpieczeństwa, wydajności i kontroli. n oferuje użytkownikom: wirtualne i różnorodne formy pracy połączone z wysoką elastycznością, która pozwala im równoważyć pracę i życie prywatne. n zapewnia organizacjom: elastyczność potrzebną do korzystania z nowych możliwości rozwoju i stworzenia bardziej skutecznego biznesu.

Citrix pomaga wykorzystać pełen potencjał jaki tkwi w wirtualizacji desktopów, poprzez oferowanie szeregu korzyści, zarówno pracownikom jak i firmie jako całości. Na poziomie indywidualnym, elastyczność i mobilność zwiększa produktywność i satysfakcję, z kolei dla organizacji, umożliwia szybsze rozlokowanie ludzi i zasobów IT, pozwalając im na uzyskanie odpowiedniej elastyczności działania, tak bardzo wymaganej w dzisiejszych warunkach rynkowych. Citrix Systems Poland sp. z o.o. ul. Rzymowskiego 53, 02-697 Warszawa, tel. 22 548 00 00


Bezpieczeństwo na wyciągnięcie

ręki - nowoczesny monitoring IP Rozwój najnowszych technologii umożliwił bezpośrednie połączenie kamery z siecią komputerową. Takie rozwiązanie pozwala pobierać obraz z kamer zainstalowanych w różnych lokalizacjach, np. na terenie całej firmy, a następnie odtworzyć go na komputerze lub urządzeniu mobilnym. Aby uzyskać oczekiwany rezultat, należy zaopatrzyć się w niezbędne urządzenia oparte o protokół IP. Następnie tylko krok dzieli nas od dostępu do korzyści, jakie daje nowoczesny monitoring IP. Dzięki kamerom IP otwierają się nowe możliwości nadzorowania przedsiębiorstwa i jego zasobów. System monitoringu IP sprawdzi się zarówno w sklepie, firmie produkcyjnej, jak i magazynie - wszędzie tam, gdzie istnieje możliwość włamania lub zniszczenia mienia. Jest też nieodzowny dla tych, którzy chcą być w stałym kontakcie ze swoją firmą, bez względu na to, czy przebywają akurat na urlopie, czy w podróży służbowej. Decydując się na taką technologię we własnej firmie, warto poszukać kompleksowego rozwiązania i wdrożyć je, korzystając ze sprzętu jednego producenta. Możliwość zbudowania systemu monitoringu od przysłowiowego A do Z daje m.in. firma D-Link – producent urządzeń sieciowych najwyższej klasy, które spełniają oczekiwania użytkowników biznesowych. Kompleksowe rozwiązanie – oszczędność i zadowolenie Bezpieczeństwo ma priorytetowe znaczenie dla firmy, bez względu na to czy jest to nieduże przedsiębiorstwo usługowe, czy wielkopowierzchniowy zakład produkcyjny. Chcąc stworzyć bezpieczny system monitoringu, należy zacząć od podstaw. Brama między siecią lokalną a Internetem to jedno z krytycznych miejsc, przez które mogą wyciec strategiczne dla firmy dane. Zapory lub routery z zaporami mogą być skuteczną ochroną przed tego typu zdarzeniami. Użytkownicy coraz chętniej i częściej sięgają po rozwiązania oferujące wiele funkcjonalności jednocześnie, na przykład routery wy42

Reseller News

posażone w dodatkowe mechanizmy chroniące system informatyczny przed różnymi zagrożeniami, takie jak urządzenia serii DSR (np. model D-Link DSR-1000N). Dla bezpieczeństwa przesyłanej treści - w przypadku monitoringu jest to obraz pobierany z kamery - warto zastanowić się nad instalacją urządzenia, zawierającego dodatkowe narzędzie do obsługi bezpiecznego dostępu zdalnego. Dzięki zastosowaniu VPN, obraz można bezpiecznie oglądać, bez obaw, że do podglądu będą miały dostęp osoby trzecie. Wachlarz oferowanych kamer IP, zarówno do użytku wewnętrznego, jak i zewnętrznego jest bardzo szeroki. Wybierając system do monitoringu należy przede wszystkim zwrócić uwagę na jakość obrazu, jaki dają kamery, rodzaj zastosowanego oprogramowania, łatwość instalacji i obsługi systemu oraz odporność na warunki atmosferyczne, jeśli kamery mają być montowane na zewnątrz budynków, np. do nadzoru parkingów, czy placów budowy. Ważne są także dodatkowe funkcje, jak możliwość zarządzania kamerami przez Internet lub dostęp do obrazu na urządzeniach mobilnych. Niemniej istotna jest wydajność rejestratora, a także to, czy konieczne jest instalowanie dodatkowych elementów sieci, takich jak punkty dostępowe lub przełączniki sieciowe. Kamery umieszczone w wielu lokalizacjach mogą być sterowane za pomocą bezpłatnego oprogramowania D-ViewCam lub aplikacji mobilnej mydlink, z dowolnego punktu na świecie, za pośrednictwem Internetu. Dzięki zainstalowaniu inteligentnego przełącznika (np. DGS-1210-08P) można znacznie ułatwić konfigurację i obsługę połączenia z wykorzystywanymi na co dzień usługami o znaczeniu krytycznym. Jest to szczególnie atrakcyjne dla osób, które muszą lub chcą mieć dostęp do obrazu z kamer, a nie znają technicznych szczegółów konfiguracji połączenia tego typu. Funkcje takie jak automatyczne tworzenie segmentów sieci dla kamer IP pozwalają pracownikom i właścicielom firm wykorzystywać najnowsze technologie do swoich celów. Gdy potrzebny jest centralny nośnik pamięci dla wielu urządzeń


połączonych do sieci lokalnej, tj. komputer PC, tablet lub smartfon, warto przyjrzeć się ofercie pamięci sieciowych. Serwer tego rodzaju sprawdza się doskonale jako magazyn danych dla sprzętu mobilnego. Administrator sieci może ponadto przydzielić poszczególnym użytkownikom prawa zapisu i odczytu lub tylko prawa odczytu danych zgromadzonych na serwerze, dzięki czemu są one bezpieczne. Dzięki kamerom z usługą chmury D-Link Cloud, nagrania można również przechowywać w chmurze. Ta technologia sprawia, że dostęp do plików nie jest ograniczony miejscem, w którym aktualnie przebywamy. Materiał video z kamery można ponownie obejrzeć, bez względu na to, czy jesteśmy w firmie, czy poza nią. Jest to możliwe za pomocą przeglądarki internetowej lub aplikacji mobilnej mydlink. Trendy i płynące z nich korzyści Rozszerzenie oferty o współpracujące z urządzeniami darmowe usługi, umożliwiające uzyskanie zdalnego dostępu do obrazu i sterowania kamerami przy użyciu urządzeń typu smartfon czy tablet, jest elementem, który uzupełnia monitoring IP i wpisuje się w najnowsze trendy. Tendencja ta znajduje swoje odzwierciedlenie w statystykach dotyczących klientów - monitoring przestaje być rozwiązaniem dedykowanym dużym firmom produkcyjnym i maga zynom wielkopowierzchniowym, coraz częściej wyko- rzystywany jest przez firmy z sektora MSP. Usługa mydlink obejmuje funkcję, która umożliwia automatyczne przesyłanie powiadomień mailowych, gdy kamera wykryje ruch, dzięki czemu nie wymaga ciągłego śledzenia obrazu. Dzięki tej usłudze przedsiębiorca może nie tylko sprawdzać, czy jego firma jest bezpieczna,

ale także czy pracownicy wykonują swoją pracę należycie. Wśród głównych korzyści ze stosowania monitoringu opartego na kamerach sieciowych należy wymienić wiążące się z tym oszczędności. Należy do nich między innymi brak konieczności tworzenia centrów monitoringu w obiektach, które są monitorowane. Dzięki dostępowi do zarejestrowanego obrazu przez internet, możliwe jest stworzenie jednego centrum w dowolnym miejscu, z którego można obserwować równocześnie wiele rozproszonych obiektów. Ponadto nowoczesne kamery przejmują część działań dotychczas wykonywanych przez pracowników, inicjując wcześniej zdefiniowane działania. Co więcej archiwalne nagrania przechowywane w firmie mogą być przesyłane przez internet i przechowywane praktycznie bez kosztowo, bez obawy, że jakość informacji będzie mniejsza. Nowoczesne kamery umożliwiają rejestrację wielu szczegółów obrazu, a równocześnie zapewniają szerokie pole widzenia. Dzięki temu ilość urządzeń potrzebnych do prowadzenia monitoringu danego obszaru zmniejsza się. Zarazem, kupując ten niezbędny do stworzenia kompletnego systemu monitoringu sprzęt od jednego producenta, mamy pewność, że poszczególne urządzenia będą ze sobą płynnie współpracować, a zainwestowane pieniądze zostały wydane mądrze. Ponadto, rozwój technik służących do monitorowania, a także rosnąca popularność urządzeń pracujących w chmurze sprawia, że oferta firm dostarczających sprzęt sieciowy, w tym kamery IP, rozszerza się o współpracujące z urządzeniami darmowe usługi. W ten sposób klient otrzymuje kompleksowe rozwiązanie monitoringu – od routera zapewniającego wysoką przepustowość sieci i bezpieczeństwo, przez kamerę dającą dobrej jakości obraz po narzędzie w postaci aplikacji, które wspiera zarządzanie firmą.

43 Reseller News


COVER story

Andrzej Janikowski

Mniej mocy

więcej pieniędzy Jednym z priorytetów właścicieli centrów przetwarzania danych jest minimalizowanie sum płaconych za energię elektryczną. Cel też można osiągnąć między innym poprzez odpowiedni dobór systemów zasilania i chłodzenia

44

Reseller News

W

najprostszym ujęciu centra danych składają się z infrastruktury do składowania informacji, urządzeń zasilających i systemów chłodzących. O energochłonności centrów decyduje więc kilka czynników. Jak mówi Tomasz Jangas, Senior Solutions Consultant w Hitachi Data Systems, serwery z natury są energochłonne, a zasoby pamięci masowych są często marnotrawione - przeciętnie wykorzystuje się zaledwie 45 procent ich pojemności. Wszystkie te urządzenia wymagają chłodzenia, a niektóre z nich muszą działać w ściśle określonej temperaturze. Jednak do zasilania i chłodzenia struktury informatycznej też pobiera się energię.

Dlatego firmy kupują takie UPS-y, które same konsumują jak najmniej mocy. Jeśli chodzi o systemy chłodzenia to producenci zaczynają wprowadzać na rynek rozwiązania, które z pomysłowy sposób wykorzystują odprowadzaną energię do ogrzewania innych obiektów.

DLA MAŁYCH SERWEROWNI Rynek systemów zasilania rozwija się powoli, ale systematycznie. Urządzenia o mocach do 3 kVA sprzedają się dobrze, a roczny wzrost w tym segmencie rynku ocenia na 10 do 20 proc. (w zależności od producenta). Rynek dużych zasilaczy dla wielkich centrów danych ma się jesz-


PIOTR ROBERT ZIĘTEK DATA CENTER SERVICES EXPERT W HP Wynyeard Data Center zbudowano w północno-wschodniej Anglii. Jednostka ma powierzchnię ponad 3500 metrów kwadratowych technicznej podłogi podniesionej. W budynku, za pomocą specjalnej konstrukcji układu cyrkulacji powietrza o temperaturze 24 C, udaje się zapewnić optymalne warunki chłodzenia sprzętu informatycznego o mocy do 9,2 MW - cztery hale po 2,3 MW - używając jedynie energii chłodu powietrza zewnętrznego. W obiekt uzyskano współczynnik efektywności energetycznej PUE (całkowita ilość energii w stosunku do energii sprzętu IT) na poziomie 1,2. Standardowe centrum przetwarzania danych w ma PUE w granicach 1,7 do 2,2. Oszczędności energii elektrycznej w tak wykonanym centrum przetwarzania danych dochodzą do 24000 MW/rok

cze lepiej, bo na dynamikę jego rozwoju wpływają inwestycje w duże jednostki przetwarzania informacji. Nowoczesne UPS-y mają systemy, które umożliwiają zaoszczędzenie energii - zasilacz jest de facto urządzeniem monitorującym wilgotność i temperaturę. Najlepsze, w pomysłowy sposób oszczędzają energię wtedy, kiedy zasilacz nie pracuje. Przyszłość systemów zasilania i chłodzenia jest jasna - firmy oszczędzają pieniądze, a nowoczesny UPS daje dodatkowe możliwości na obniżenie faktur za energię. W tym roku wzrost na tym rynku może być tak duży, jak w ubiegłym roku. Rozwój systemów Unified Communications, telefonia IP i sieci WLAN niejako warunkuje rozwój zasilania. Cały sektor MSP jest potencjalnym klientem firm produkujących UPS-y. Wydaje się więc, że przed tymi produktami jeszcze co najmniej rok dobrej koniunktury.

KONSOLIDACJA MA ZNACZENIE Sposobem na ograniczenie zużycia energii przez centra przetwarzania informacji jest konsolidacja infrastruktury pamięciowej oraz ograniczenie ilości przechowywanych danych. Służyć temu mogą takie techniki, jak wirtualizacja, deduplikacja oraz thin provisioning. Sama wirtualizacja, według badań Carbon Trust, pozwala na potencjalne oszczędności kosztów energii rzędu 4 proc. Pierwszym krokiem w kierunku zbudowania bardziej przyjaznego środowisku data center jest zoptymalizowanie zasobów pamięci masowej. Energochłonność macierzy zależy od liczby użytych w niej dysków, a nie od ilości przechowywanych danych. W miarę zwiększania gęstości zapisu systemy pamięciowe stają się bardziej energooszczędne i pozwalają organizacji ograniczyć zasilanie i chłodzenie.

Aby ograniczyć zużycie energii można stosować techniki dynamicznej relokacji danych pomiędzy różnymi warstwami pamięci masowych. Wydajna pamięć masowa jest droga i zużywa dużo energii. Dane, z których użytkownicy korzystają rzadko, jak maile sprzed kilku lat, można zarchiwizować i przenieść na mniej wydajne, ale i tańsze systemy.

POŻĄD(A)NE PRZECHŁODZENIE Największe oszczędności, jeśli chodzi o koszty energii elektrycznej w eksploatowanych centrach przetwarzania danych można uzyskać optymalizując infrastrukturę chłodzenia. Wraz z każdym kilowatem energii elektrycznej potrzebnym do pracy sprzętu IT, rośnie zapotrzebowanie na energię potrzebną do odebrania ciepła z pomieszczenia. - Aby odprowadzić 1000 W ciepła pochodzącego ze sprzętu IT, trzeba dostarczyć do systemu klimatyzacji od 300 do 1000 W – mówi Piotr Robert Ziętek, Data Center Services Expert w HP, – Największe oszczędności można uzyskać modyfikując ustawienia sprzętu komputerowego w stelażach i na podłodze. Mam na myśli koncepcję zimnych i ciepłych korytarzy. Innym sposobem jest uszczelnienie obiegu powietrza zimnego i ciepłego, czyli domknięcie przestrzeni korytarzy chłodu i podniesienie efektywności powrotu

Sposobem na ograniczenie zużycia energii przez centra przetwarzania informacji jest konsolidacja infrastruktury pamięciowej oraz ograniczenie ilości przechowywanych danych

45 Reseller News


COVER story

SŁAWOMIR KUBICZEK DYREKTOR SPRZEDAŻY ROZWIĄZAŃ CHŁODNICTWA I KLIMATYZACJI PRECYZYJNEJ W SCHNEIDER ELECTRIC POLSKA Współczynnik PUE informuje, jaki procent całej energii pobieranej przez centrum danych przypada na urządzenia IT, a jaki na urządzenia utrzymujące centrum danych w działaniu - chłodzenie, czy oświetlenie. Coraz częściej przeprowadza się audyty energetyczne starych serwerowni. Robi się to po to, aby polepszyć ich sprawność i niezawodność. Środowisko informatyków coraz bardziej zdaje sobie sprawę z tego, jak ważną kwestią jest oszczędność energii. Wie, że ma to swój wymiar ekologiczny. Wybór urządzeń „green” owocuje ograniczeniem poboru prądu oraz zmniejszeniem wydzielania dwutlenku węgla do atmosfery. Dlatego coraz popularniejsza staje się opcja zarządzania energią w data center za pośrednictwem strony internetowej, dzięki czemu operator może polepszyć gospodarkę energetyczną i zredukować koszty energii. Duży nacisk kładzie się obecnie na niezawodność rozwiązań i ich dostępność, dzięki klasyfikacji TIER, która określa w procentach dostępność Data Center w ciągu roku. Na świecie są już centra, które mają czwartą, najwyższą klasę TIER – oznacza to dostępności centrum danych nawet przez 99,999 procent czasu w ciągu roku

ciepła do klimatyzatorów. Można też stosować subtelne ekologiczne systemy odzyskiwania ciepła z centrum przetwarzania danych, które umożliwiają przekazanie nadwyżki do innych celów, jak na przykład ogrzewanie wody użytkowej czy wody w basenie kąpielowym. Stosunkowo łatwym sposobem na redukcję kosztów w umiarkowanym klimacie – czyli m.in. w Polsce - jest stosowanie systemów klimatyzacji wykorzystujących tzw. Freecooling. Przez 60 do 85 proc. czasu w ciągu roku urządzenia klimatyzacji wykorzystywane do chłodzenia centrum przetwarzania danych wykorzystują odpowiednio niską temperaturę powierza zewnętrznego. Dzięki temu nie włącza się energochłonnych układów sprężarkowych. Zdaniem Ziętka, już po trzech latach użytkowania systemu chłodzenia wykorzystującego wodę lodową, różnica w cenie zakupu zostaje skompensowana niższymi rachunkami za energię elektryczną w porównaniu do zakupu tańszego systemu opartego na bezpośrednim odparowaniu.

Specyfika polskiego rynku centrów przetwarzania danych polega na tym, że jest na nim dużo małych obiektów, czyli takich, których powierzchnia podłogi technicznej nie przekracza 100 metrów kwadratowych. Inwestowanie w nowe ekologiczne techniki wymaga dużych nakładów finansowych. Czas, po którym inwestycja zwróci się,

46

Reseller News

może być dłuższy niż czas życia centrum przetwarzania danych. Inwestowanie w nowe techniki jest uzasadnienie ekonomiczne w przypadku nowobudowanych obiektów oraz istniejących o powierzchni podłogi technicznej powyżej 500 metrów kwadratowych. Tendencja do stosowania ekologicznych technologii jest ściśle powiązana z finansami, a przy stale wzrastającej cenie energii elektrycznej taki czynnik, jak ekologia centrum będzie coraz mocniej oddziaływała na projektantów infrastruktury. Sławomir Kubiczek, Dyrektor Sprzedaży rozwiązań chłodnictwa i klimatyzacji precyzyjnej w Schneider Electric zauważa, że buduje się coraz więcej dużych data center wykorzystywanych gównie do takich celów, jak kolokacja serwerów różnych firm lub cloud computing. Tam wykorzystywane są duże centralne, nadmiarowe systemy zasilania. Cechują się one wysokim poziomem bezpieczeństwa TIER3 lub wyższym, wykorzystujące pojedyncze jednostki UPS rzędu kilkuset VA. Celem jest uzyskanie jak najkorzystniejszego współczynnika PUE. n


0XVLV] G]LDĂĄDĂź SU]H] JRG]LQ\ QD GREÄŠ 1RZH QDGPLDURZH ]DVLODQLH L FKĂĄRG]HQLH FHQWUXP GDQ\FK Z ]DVLÄŠJX 7ZRMHJR EXGÄŞHWX

%L]QHV L ,7 FLÄ…JOH VLÄŠ UR]ZLMDMÄ… =DSHZQLM EH]SUREOHPRZH ]DVLODQLH L FKĂĄRG]HQLH QRZ\FK VHUZHUyZ

,7 MHVW MXÄŞ Z\VWDUF]DMÄ…FR VNRPSOLNRZDQÄ… EUDQÄŞÄ… 3RWU]HEXMHV] VSUDZQHJR UR]ZLÄ…]DQLD FHQWUXP GDQ\FK RG NRQFHSFML SR ZGURÄŞHQLH

Nareszcie Twoje centrum danych moĹźe rozwijać siÄ™ wraz ze wzrostem Twojej firmy! Tylko InfraStruxure realizuje gwarancjÄ™ 3 korzyĹ›ci: nieprzerwanej dostÄ™pnoĹ›ci , dynamiki i efektywnoĹ›ci energetycznej. Wzrost firmy

Przedstawiamy InfraStruxure nowej generacji 1LH]DOHĪQLH RG WHJR F]\ 7ZRMD ILUPD SRGZRLåD VSU]HGDĪ OXE ]DWUXGQLHQLH 7\ PXVLV] ]DJZDUDQWRZDß ĪH FHQWUXP GDQ\FK EĊG]LH ZVSLHUDß D QLH KDPRZDß MHM UR]ZyM &]ĊVWR KDPXOFHP UR]ZRMX VWDMH VLĊ ,7 L REVåXJXMąFD MH LQIUDVWUXNWXUD &]\ V]DI\ EĊGą Z VWDQLH REVåXĪ\ß ZLĊNV]ą OLF]EĊ VHUZHUyZ" &]\ GRVWĊSQD PRF ]DVLODQLD EĊG]LH Z VWDQLH VSURVWDß ZLĊNV]HPX REFLąĪHQLX ,7" ']LVLDM ILUPD $3&70 E\ 6FKQHLGHU (OHFWULF™ HOLPLQXMH WH SU]HV]NRG\ G]LĊNL VSUDZG]RQHPX Z\VRNRZ\GDMQHPX VNDORZDOQHPX L NRPSOHNVRZHPX UR]ZLą]DQLX DUFKLWHNWXU\ FHQWUXP GDQ\FK ,QIUD6WUX[XUH™

Centra danych InfraStruxure to biznes! 0\ PyZLP\ ÄŞH FHQWUD GDQ\FK ,QIUD6WUX[XUH WR EL]QHV $OH FR WR ]QDF]\ GOD &LHELH" 2GSRZLHGĨ MHVW SURVWD &HQWUXP GDQ\FK WR EL]QHV NLHG\ MHVW ]DZV]H GRVWÄŠSQH QD QDMZ\ÄŞV]\P SR]LRPLH SU]H] JRG]LQ\ GQL Z W\JRGQLX SU]H] FDĂĄ\ URN UR]ZLMD VLÄŠ ZUD] ] G\QDPLNÄ… G]LDĂĄDOQRÄžFL XPRÄŞOLZLD SRGQRV]HQLH Z\GDMQRÄžFL EH] ORJLVW\F]Q\FK SU]HV]NyG QS KDUPRQRJUDP\ SUDF MHVW FRUD] EDUG]LHM HIHNW\ZQH HQHUJHW\F]QLH Âą RG SODQRZDQLD SR RSHUDFMH L URÄžQLH ZUD] ] ILUPÄ… &R ZLÄŠFHM ,QIUD6WUX[XUH WR ]LQWHJURZDQH UR]ZLÄ…]DQLH NWyUH PRÄŞH ]RVWDĂź ]DSURMHNWRZDQH ]JRGQLH ] 7ZRLPL SRWU]HEDPL D MHGQRF]HÄžQLH GRVWRVRZ\ZDĂź VLÄŠ GR ]PLHQLDMÄ…F\FK Z\PDJDÄ” EL]QHVRZ\FK 7ZRMHM ILUP\ Z SU]\V]ĂĄRÄžFL

Gwarancja trzech korzyĹ›ci pĹ‚ynÄ…cych z wdroĹźenia InfraStruxure 5R]ZLÄ…]DQLH ,QIUD6WUX[XUH VSHĂĄQLD QDV]Ä… JZDUDQFMÄŠ WU]HFK NRU]\ÄžFL GRW\F]Ä…F\FK QDMZ\ÄŞV]HM MDNRÄžFL ]DSHZQLDMÄ…FHM PDNV\PDOQÄ… GRVWÄŠSQRĞß G\QDPLNL SR]ZDODMÄ…FHM QD V]\ENLH L ĂĄDWZH GRVWRVRZDQLH ,7 GR SRWU]HE EL]QHVRZ\FK RUD] RV]F]ÄŠGQRÄžFL G]LÄŠNL HIHNW\ZQRÄžFL HQHUJHW\F]QHM &]\ PRÄŞQD WUDIQLHM SRMPRZDĂź EL]QHV"

Skalowanie centrum danych lata

Centra danych InfraStruxure to biznes! DostÄ™pność: Na poziomie 24/7/365 jest moĹźliwa, dziÄ™ki najlepszemu w branĹźy zasilaniu awaryjnemu z moduĹ‚owymi listwami zasilajÄ…cymi, bezpoĹ›redniemu chĹ‚odzeniu i proaktywnemu oprogramowaniu do monitorowania. Szybkość: WdroĹźenie odbywa siÄ™ szybko i bezproblemowo, poniewaĹź wszystkie komponenty systemu zostaĹ‚y dostosowane pod kÄ…tem współpracy jako gotowe rozwiÄ…zanie a on sam moĹźe być rozbudowywany w tempie rozwoju firmy. Sprawność: Wymierna efektywność i oszczÄ™dność energetyczna osiÄ…gana, dziÄ™ki nowoczesnej konstrukcji obejmujÄ…cej trzystopniowe falowniki zasilaczy UPS oraz urzÄ…dzeniom chĹ‚odniczym wyposaĹźonym w wentylatory o zmiennej prÄ™dkoĹ›ci. ZarzÄ…dzalność: Pakiet oprogramowania do zarzÄ…dzania InfraStruxure zapewnia wglÄ…d i zarzÄ…dzanie poziomami wydajnoĹ›ci i nadmiarowoĹ›ci chĹ‚odzenia, zasilania oraz przestrzeniÄ… szaf przez co gwarantuje optymalnÄ… sprawność centrum danych. Elastyczność: Gwarantowana, dziÄ™ki kompatybilnoĹ›ci obudĂłw z urzÄ…dzeniami wszystkich producentĂłw sprzÄ™tu IT oraz skalowalnemu zasilaniu i chĹ‚odzeniu systemu.

%XVLQHVV ZLVH )XWXUH GULYHQ ™ )LUPD $3& E\ 6FKQHLGHU (OHFWULF MHVW SLRQLHUHP PRGXåRZHM LQIUDVWUXNWXU\ FHQWUXP GDQ\FK L LQQRZDF\MQHM WHFKQRORJLL FKåRG]HQLD -HM SURGXNW\ L UR]ZLą]DQLD Z W\P ,QIUD6WUX[XUH VWDQRZLą LQWHJUDOQ\ HOHPHQW RIHUW\ 6FKQHLGHU (OHFWULF ,7

Pobierz dowolne opracowanie techniczne w ciÄ…gu najbliĹźszych 30 dni za DARMO i weĹş udziaĹ‚ w losowaniu iPad mini! 2GZLHGĨ VWURQÄŠ ZZZ DSF FRP SURPR .RG 31913p 7HOHIRQ )D[ Š2013 Schneider Electric. All Rights Reserved. Schneider Electric, APC, InfraStruxure, and Business-wise, Future-driven are trademarks owned by Schneider Electric Industries SAS or its affiliated companies. !LL OTHER TRADEMARKS ARE THE PROPERTY OF THEIR RESPECTIVE OWNERS WWW APC COM s ?0,?#


Racjonalna serwerownia Centra danych zużywają zwykle znacznie więcej energii niż jest to konieczne, co wynika z ich przewymiarowania w stosunku do aktualnych potrzeb zarówno w zakresie samej infrastruktury teleinformatycznej, jak i systemu zasi-

48

Reseller News

lania i chłodzenia. Podejście takie najczęściej wynika z niepewności co do przyszłych potrzeb firmy. Rozwiązaniem mogą być modułowe elementy, które dostosowywane są do zmieniających się okoliczności. Tego typu technologia pozwala ominąć konieczność szacowania potrzeb dotyczących infrastruktury IT na następne lata. Modułowy system, składający się z dedykowanych i nadmiarowych modułów zasilających, sterujących, akumulatorowych i informujących, zaprojektowany jest w sposób umożliwiający łatwą i efektywną instalację, obsługę oraz przyszłą rozbudowę. Architektura ta eliminuje straty i obniża całkowity koszt posiadania, dając menedżerom IT możliwość dostosowania poboru mocy i czasu pracy do zmieniających się wymagań. Dodatkową zaletą jest to, że moduły mogą być wymienialne przez użytkownika "na gorąco" bez przerywania pracy systemu. Te i inne cechy pomagają zwiększyć niezawodność całego centrum danych poprzez ograniczenie ryzyka popełnienia błędu przez człowieka, co jest

główną przyczyną przestojów w pracy. Dobrym przykładem takiego rozwiązania jest Symmetra PX firmy Schneider Electric. Do ograniczenia kosztów z pewnością przyczynia się także standaryzacja dostawcy – sprzęt kupiony od jednego producenta daje gwarancję, że wszystkie części będą ze sobą współdziałały, a w razie problemów można skorzystać z jednego serwisu, co pozwoli oszczędzić zarówno czas, jak i pieniądze. Dodatkowo warto wybrać taką firmę, której oferta jest kompleksowa, co pozwoli dobrać urządzenia dokładnie dopasowane do potrzeb konkretnego centrum danych u jednego dostawcy. Ogromny potencjał ograniczenia poboru energii, a co za tym idzie niższych rachunków za prąd, tkwi także w systemach zasilania i chłodzenia centrów danych. W źle zaprojektowanej serwerowni tylko 40% energii zużywane jest przez sprzęt IT, resztę pochłania system chłodzenia, zasilania wentylacji i klimatyzacji. Optymalne rozwiązania pozwalają na efektywne zużycie


energii przez IT na poziomie nawet 70-80% co w efekcie pozwala na zredukowanie całościowego zużycia energii na zasilanie i chłodzenie o 20 do 30%. Bardzo istotną rolę odgrywa wybór odpowiedniego systemu chłodzenia. Obecnie coraz popularniejsza staje się klimatyzacja precyzyjna, która ma bardzo wiele zalet. Po pierwsze urządzenia takie dzięki modułowej budowie i małym wymiarom oraz dostępowi do środka urządzenia od frontu pozwalają zaoszczędzić miejsce w pomieszczeniu technicznym. Dodatkowo urządzenia pracują w układzie redundancji co pozwala na ich pracę naprzemienną, lub w przypadku awarii jednego urządzenia automatyczne załączenie sprzętu zapasowego. Nowoczesne urządzenia klimatyzacji precyzyjnej mają możliwość doprowadzenia zimnego powietrza z zewnętrz np. w okresie jesienno-zimowym do klimatyzowanego pomieszczenia, co powoduje znaczne oszczędności kosztów energii elektrycznej. Niebagatelne znaczenie w przypadku oszczędności ma także ciągły monitoring pracy centrum danych. Dlatego coraz popularniejsza staje się możliwość zarządzania energią w data center przez strony WWW, dzięki czemu operator może wpłynąć na lepszą gospodarkę energetyczną i znaczną redukcję kosztów energii. Służą temu np. programy dostępne na stronach producentów (np. StruxureWare firmy Schneider Electric). Program taki oferuje zestaw narzędzi, umożliwiających menedżerowi centrum danych dostęp i kontrolę nad biurem IT, elektrycznością i jakością zasilania w budynku, chłodzeniem centrum danych i biur, a także fizycznym bezpieczeństwem. Ten zestaw oprogramowania zarządzającego zapewnia kompleksowy dostęp do precyzyjnych danych w czasie rzeczywistym, umożliwiając podejmowanie działań w oparciu o wiedzę o stanie całego centrum danych.

49 Reseller News


VAR

BIZNES Mariusz Ludwiński

Zaawansowana sprzedaż usług IT

W poprzednim numerze „Reseller News” przedstawiłem cztery techniki sprzedaży, dzięki którym możliwe jest znalezienie odpowiedniej fali u klienta i skuteczne zamknięcie transakcji. W tym artykule opiszę dwie bardziej zaawansowane metody sprzedaży usług IT

musi namierzyć Problem, z jakim zmaga się klient. Problem musi być konkretny, praktyczny, wyrażony w uchybieniu, braku, luce jakości zadania, projektu lub produktu – dlatego we wstępie napisałem o rozwiązywaniu pogłębionych problemów, a nie zwykłych problemów. Praktyczne rozróżnienie tych dwóch rodzajów okazji do sprzedaży świetnie opisał Grant Leboff w swojej książce „Terapia sprzedażowa” (polskie wydanie: Oficyna/ Wolters Kluwer, 2012). Oto cztery typowe korzyści z nawiązania współpracy z dostawcą, podawane przez handlowców tegoż dostawcy: poprawienie równowagi między pracą a życiem prywatnym, zwiększenie wydajności, zwiększenie rentowności, zwiększenie konkurencyjności.

Przykładem skutecznego narzędzia w tym typie sprzedaży jest organizowanie konferencji dla klientów, na których prezentowane są case’y rozwiązań oraz przeglądy nowości

J

edna z nich to sprzedaż przez rozwiązywanie pogłębionych problemów. Druga to absolutna świeżynka, o której wspomina ostatni numer miesięcznika „thinksales” i Harvard Business Review – sprzedaż przez prowokację i coaching.

TY – PROBLEM, JA – ROZWIĄZANIE Miesiąc temu opisałem sztuczkę sprzedażową „Zacznij w końcu odróżniać się od konkurencji” i przedstawiłem perswazyjny łańcuch sprzedaży FAB (Feature, Advantage, Benefit – Cecha, Przewaga, Korzyść) – z Przewagą jako kluczowym elementem procesu. W sprzedaży przez rozwiązywanie problemów Przewaga jest ważna, trzeba ją przedstawić klientowi. Najpierw jednak rozmowa 50 Reseller News


VAR BIZNES

Pytanie brzmi: co oferuje ów dostawca? Otóż, dokładnie tak samo brzmi oferta producenta oprogramowania biznesowego, jak i agencji doradztwa personalnego. W efekcie, klient zostaje postawiony przed wyborem - jabłka czy pomarańcze. Musi w jakiś sposób ocenić który rodzaj inwestycji przyniesie mu lepsze wyniki i który jest mu bardziej potrzebny na teraz. Co więcej, w tej ocenie nie pomoże mu ani producent oprogramowania (bo nie zna się na produktach kadrowych), ani agencja personalna (bo nie ma większego pojęcia o IT). Ale gdyby agencja personalna odniosła się do Problemu „menedżerowie za dużo czasu spędzają na przekopywaniu się przez dokumenty kandydatów do pracy”, dodatkowo uruchamiając Przewagę „posiadamy największą na rynku bazę kandydatów z branży IT”, mogłaby liczyć co najmniej na spotkanie ofertowe. Co więcej – w tym przypadku zakup usługi agencji nie musi zamykać drogi dla dostawcy oprogramowania. Pod warunkiem, że powie on „zajmiemy się monitorowaniem bezpieczeństwa twojego systemu: spamu, wirusów, dostępem do niepożądanych stron, przez co uwolnimy czas specjalistów IT na ważniejsze projekty”, nawiązując do Przewagi „specjalizujemy się w firmach podobnej wielkości, obsługujemy ich najwięcej na rynku, znamy charakter i typ zagrożeń”. Korzyści są gładkie, miłe w dotyku, ale są również niezbyt konkretne. Trzeba je tłumaczyć na język projektów, działań i procedur – a to zabiera sporo czasu, tak potrzebnego menedżerom do realizacji już posiadanych przez nich zadań i obowiązków.

na inne obowiązki. A tak, otrzymują konkretną ofertę, której wartość doskonale rozumieją. W tym modelu na dostawcy ciąży obowiązek intensywnego inwestowania we własną kadrę, w kanały oraz materiały edukacyjne. W zamian jednak otrzymuje okazję do współpracy z czołowymi firmami w swoich branżach, z liderami rynków, z innowatorami, z absolutnym topem dyrektorów, menedżerów, inżynierów. Różnica w stosunku do tradycyjnej sprzedaży opartej na korzyściach, a nawet sprzedaży rozwiązań, jest bardzo widoczna. Przykładem skutecznego narzędzia w tym typie sprzedaży jest organizowanie konferencji dla klientów, na których prezentowane są case’y rozwiązań oraz przeglądy nowości – dobrze znane z branży IT, a także praktycznych warsztatów. Aby takie imprezy spełniły swoje zadanie sprzedażowo-edukacyjne, muszą zawierać duży ładunek prowokacji. Jest to niezbędne, aby pobudzić ciekawość i skłonić do analizy „A gdyby tak zrobić coś takiego u nas? Gdybyśmy uzyskali takie efekty, to co by się stało?”. Imprezy takie muszą mieć charakter rozwijającego coachingu, nastawionego na zadawanie pytań i samodzielne odkrywanie odpowiedzi na nie, zamiast czasem spotykanego przerzucania powodzi informacji ze slajdów do głów słuchaczy. Tym niemniej, sam fakt ich organizacji trzeba uznać za pozytywne zjawisko i zdecydowanie pochwalić. ■

PROWOKACJA I COACHING Oryginalna nazwa tej strategii sprzedaży to insight selling. Słowo insight wydaje mi nieco mylące. Insighty w marketingu to przecież nic innego jak efekt odkrywania potrzeb klientów, namierzenie obszaru lub problemu, który obecnie boli najbardziej, a więc którego rozwiązanie będzie najbardziej widoczne i wartościowe. Zwrot prowokacja i coaching lepiej oddaje istotę tej metody: jej celem jest tak silne zaintrygowanie klienta końcowym efektem, aby to sam klient przeprowadził proces wewnętrznej sprzedaży. W trakcie tego procesu handlowiec służy wszelkimi informacjami, liczbami, danymi, wynikami testów, case’ami itp., które pomogą klientowi udowodnić zasadność podjęcia właśnie tej inwestycji, właśnie od tej firmy i tego handlowca. Autorzy artykułu, Brent Adamson, Matthew Dixon, Nicholas Toman, wskazują, że sprzedaż przez insighty (tzn. przez prowokację i coaching) świetnie sprawdza się w dużych firmach, które dysponują własnymi siłami wdrożeniowymi. Ich specjaliści mogą dorównywać wiedzą i biegłością zawodową specjalistom dostawcy. Z pewnością są w stanie przygotować tak poprawny i rzetelny projekt systemu informatycznego, że dostawcy w zasadzie pozostaje tylko dostarczyć gołe produkty. Instalacją, integracją, testowaniem i pozostałymi elementami wartości dodanej dystrybutora lub partnera producenta zajmują się wewnętrzni specjaliści – dostawca nie dostanie więc za nie ani grosza. Mimo to, dostawca ma kilka ważnych przewag nad wewnętrznymi inżynierami, m.in. dostęp do absolutnie nowych nowinek technicznych oraz bezpieczną i praktycznie nieograniczoną technologicznie przestrzeń do testowania. Mówi o tym dyrektor Andrzej Nojszewski z Azlanu, w wywiadzie, znajdującym się w tym numerze RESELLER News. Gdyby inżynierowie firmowi chcieli monitorować rynek i samodzielnie badać wszystkie nowe produkty, nie mieliby czasu 51 Reseller News


IT peep show

Mariusz Ludwiński

MARZEC

?

2013

Na czym zarabiają Popularne powiedzenie głosi, że jedyne co nas ogranicza, to nasza wyobraźnia. Kłopot w tym, że nie wszyscy mają czas na kreatywne podróże. Trzeba również zarabiać, najlepiej sporo i w sposób regularny. Dlatego innym sposobem tworzenia nowych rozwiązań jest lokalne adaptowanie już gdzieś istniejących pomysłów. Na tej stronie co miesiąc poznasz najciekawsze projekty i transakcje, zrealizowane u naszych geograficznych sąsiadów oraz w krajach całego świata. Mam nadzieję, że zainspirują cię do tworzenia nowych, śmiałych ofert i tworzenia nowej wartości dla klientów

sąsiedzi IBM, McDONALD’s

Co by się stało, gdyby menedżer miał natychmiastowy kontakt z pojedynczym pracownikiem, nawet wtedy, gdy jego praca nie polega na siedzeniu przed komputerem? Na pewno wyeliminowałoby to nieprzeczytane podręczniki obsługi, opóźnienie w dostępie do informacji po spotkaniach, na których pracownik nie pojawił się osobiście. Z drugiej strony, jakie in-

HP, ROLLS-ROYCE

DELL, THOMAS COOK Każdy sklep online dałby wiele za 97-procentowe skrócenie czasu usuwania problemów, 60-procentowe zmniejszenie liczby telefonów od klientów zgłaszających problemy i 30procentowy wzrost liczby zrealizowanych transakcji. Właśnie takimi efektami może pochwalić się agencja turystyczna Thomas Cook. Wdrożyła ona Foglight, rozwiązanie monitorujące wydajność systemów informatycznych, oferowane przez firmę Quest Software, należącą do firmy Dell. Zwięk52

Reseller News

formacje mógłby na bieżąco przekazywać pracownik, jeśli miałby natychmiastowy kontakt ze swoim menedżerem? Na pewno pytania klientów dotyczące oferty, drobne kreatywne pomysły np. na nazwę nowej potrawy, pomoc ekspercka bez czekania na połączenie z kimś z obsługi klienta? Te i wiele innych inicjatyw otworzyły się dla pracowników sieci McDonald’s w Republice Południowej Afryki. IBM wraz z lokalnym partnerem, Knowledge Dimension, wdrożył oprogramowanie social business (łączące mobilność, social i chmurę) w ok. 200 restauracjach, dla 8000 zatrudnionych osób

szona wydajność systemu pozwala obsłużyć do 180 dodatkowych transakcji na godzinę (czyli pozwala zarobić średnio do 426 tys. dolarów na godzinę). Co więcej, wdrożenie Foglight pozwoliło monitorować klientów, którzy z jakichś powodów nie kończą transakcji. Dzięki temu, możliwy był kontakt z tymi klientami oraz przedstawienie nowych ofert – w ten sposób Thomas Cook zarobił 190 tys. dolarów w ciągu trzech miesięcy

Rolls-Royce to nazwa kojarząca się z ekskluzywnymi samochodami. Pod tą samą nazwą funkcjonuje również firma produkująca różnego rodzaju silniki i systemy produkcji energii dla branży lotniczej, morskiej oraz instalacji lądowych. Obie marki istniały w ramach jednej firmy Rolls-Royce do roku 1973, kiedy to nastąpił podział na samochodowe Rolls-Royce Motor Cars i energetyczne Rolls-Royce. To właśnie energetyczne Rolls-Royce podpisało pięcioletni kontrakt z HP na współpracę informatyczną. HP dostarczy infrastrukturę data center, w ramach której będzie hostować aplikacje, zarządzać serwerami i pamięcią masową dla RollsRoyce w określonych krajach na całym świecie. Cel jest oczywisty: standaryzacja, zwiększenie dostępności i bezpieczeństwa, zapewnienie natychmiastowej skalowalności w górę dla okresowych potrzeb. Jest to dobre rozwiązanie, biorąc pod uwagę fizyczny rozmiar (np. elektrownie), ważność (silniki dla samolotów, okrętów) i globalne rozmieszczenie produktów i usług oferowanych przez RollsRoyce


NEWS

Intel:

miniaturowy dysk SSD mSATA

Produkty z rodziny FRITZ! od AVM, wiodącego producenta urządzeń sieciowych w Europie, możemy już nabyć w Polsce za pośrednictwem Incom S.A. Firma Intel zapowiedziała wprowadzenie na rynek dysku Intel Solid-State Drive 525 Series w niewielkiej obudowie mSATA. Dysk zapewnia przepustowość rzędu 6 gigabitów na sekundę (Gb/s) i oferuje producentom OEM, dystrybutorom oraz entuzjastom techniki niezwykle mobilne i energooszczędne rozwiązanie pamięciowe, które zajmuje osiem razy mniej miejsca, niż tradycyjny, 2,5-calowy dysk twardy (HDD). Stacja znajdzie zastosowanie w innowacyjnych ultrabookach, tabletach i systemach wbudowanych. Dysk SSD mSATA o wymiarach 3,7 x 50,8 x 29,85 mm i wadze 10 gramów jest wyposażony w minizłącze PCI Express (PCIe) i zapewnia taką samą wydajność, jak dyski klienckie Intel SSD 520 Series. Nadaje się zatem do komputerów typów All-in-One, notebooków, ultrabooków i stacji roboczych, a także do systemów samochodowych, digital signage, wbudowanych systemów wideo oraz rozwiązań dla handlu detalicznego.

www.intel.com/go/ssd

ViDiS:

Projektory ASK Proxima

ASK Proxima jest własnością koncernu ACTO Group i zawiera w sobie DNA jednych z najbardziej rozpoznawalnych brandów na rynku audiowizualnym. Marka ma swoje początki w roku 1984 w Europie, a od 2010 projektory współtworzą czołowi inżynierowie i projektanci, którzy pracowali wcześniej np. dla Sanyo. ASK Proxima, to 16 różnych kategorii projektorów, z których na polskim rynku pojawią się na początku 3 najpopularniejsze segmenty w technologii 3LCD. Dostępne będą projektory krótkoogniskowe, urządzenia instalacyjne z wymienna optyką oraz bardzo ciekawe urządzenia dla biznesu. Wszystkie produkty objęte są 3-letnią gwarancją na projektor oraz roczną (wynoszącą max. 600h) na lampę projekcyjną.

Wyłącznym dystrybutorem marki ASK Proxima w Polsce jest ViDiS S.A.

(www.vidis.pl)

Pierwsze, dostępne pozycje w naszym kraju to wielofunkcyjny, inteligentny router FRITZ!Box 3270, karta sieciowa FRITZ!WLAN USB Stick N, FRITZ!WLAN Repeater 300E oraz FRITZ!Powerline 500E. Te, jak i inne urządzenia marki FRITZ! posiadają zaawansowane możliwości i z pewnością trafią w gusta użytkowników poszukujących ponadstandardowych, wydajnych i komfortowych rozwiązań. Wyróżnikami produktów są wysoka jakość, intuicyjność obsługi oraz wszechstronność. FRITZ! idealnie łączy wszystkie urządzenia w jedną sieć w domu lub biurze – od komputera PC po smartfon. Wysoka klasa urządzeń oraz wyjątkowo prosta instalacja i użytkowanie zaspokoją potrzeby odbiorców o zróżnicowanych umiejętnościach zarządzania siecią. Producent sprzętu – AVM, wraz z debiutem na naszym rynku, zapowiada również rozwój systemu wsparcia technicznego w języku polskim. Ceny produktów marki FRITZ! w Incom rozpoczynają się od ok. 90 zł netto, a kończą na ok. 300 zł. Urządzenia objęte są 2 letnią gwarancją. Więcej na www.online.incom.pl 53 Reseller News


Stronniczy FELIETON

przegląd przetargowy*

*najważniejsze przetargi, kontrakty i tajemnice na rynku

publicznym w minionym miesiącu okiem nieprzyzwoicie stronniczego Mariusza Zielke (rubryka trochę na wesoło, trochę na poważnie)

W

ygląda na to, że 2013 rok może okazać się rzeczywiście bardzo ciekawy, a nawet przełomowy. „Sukces” negocjacji budżetowych z Unią Europejską i słynne 300 mld zł robią wszak wrażenie. Co prawda niektórzy nieśmiało wskazują, że czy wyrzucimy w błoto 100 baniek czy aż 300, to nie ma większego znaczenia, poza tym może, że to większa sztuka. Większa czy mniejsza drogowcom na nowe mieszkania w Barcelonie i porsche dla żony wystarczy. Byle tylko znów nie zapomnieli podmienić próbek. Informatycy też by mogli się pośmiać, gdyby tak odtajniono stenogramy z nagrań Andrzeja M. Oj, byłoby do śmiechu. No ale tymczasem wypada zadowolić się żartami na temat ZUS, który rozpoczął wielką akcję przetargową, z pompą zapowiadając na specjalnej konferencji prasowej przetargi za kilka setek milionów na utrzymanie i modyfikacje najważniejszych swoich systemów, w tym słynnego KSI (Kompleksowy System Informatyczny). Prezesi ZUS bardzo mili, więc nie wypada się z nich nabijać, ale tak się zastanawiam, co to będzie, gdy im się te przetargi udadzą za „uczciwie” i wygra jakaś firma, co brak umiejętności i zespołu zrównoważy dobrymi prawnikami przy nie mniejszych skłonnościach do ściągania kasy. Oj, będzie zadyma. Tak czy inaczej odnotować należy, bo przetargi ZUS to z pewnością jedno z najważniejszych wydarzeń w informatycznym świecie w 2013 r. Na razie ruszyły zamówienia w trybie ograniczonym m.in. na modyfikację i rozbudowę oprogramowania Kompleksowego Systemu Informatycznego (za powyżej 292 mln zł); rozwój Platformy Usług Elektronicznych (za powyżej 23 mln zł); rozbudowę i wdrożenie nowych funkcjonalności oraz utrzymanie i rozwój systemu Elektronicznej Platformy Wymiany Danych (EPWD) oraz bu-

54

Reseller news


Zdjęcia: Andrzej Smoliński

Licencje licencjami, aplikacje aplikacjami, ale jakieś poważniejsze zakupy twardego sprzętu też by się przydały, prawda resellerzy? dowa Centralnego Rejestru Klientów Zakładu (CRKZ) (wartość: powyżej 83 mln zł); a także na wdrożenie telefonii IP (za powyżej 20 mln zł) oraz hurtowni danych (powyżej 50 mln zł). W całym I kwartale ZUS ma ogłosić 6 dużych przetargów informatycznych o łącznej wartości szacunkowej 800 mln zł (na 4 lata). Tak zapowiedział Zbigniew Derdziuk, prezes ZUS. Znam takich, którzy zrobiliby to za jedną dziesiątą tej kwoty. Pytanie czy by działało (albo: co by nie działało). No ale jeśli ZUS i tak ma splajtować, to co to za różnica. Z ZUS przenieśmy się do nie mniej szacownej instytucji, czyli Narodowego Banku Polskiego, który dzięki naszym wspólnym wysiłkom (także tych, którzy marnują unijne dotacje) plajtować nie zamierza, za to inwestować w IT a jakże. I tak NBP pod koniec stycznia ogłosił plan zamówień na 2013 r., z którego wiadomo, że zarobią m.in. Oracle, Cisco, SAS. Nikt tam na górze nie przejmuje się, że głupie przepisy teoretycznie zakazują używania nazw producentów tam, gdzie nie jest to niezbędne. Może w tym przypadku jest jednak niezbędne, a przepisy obowiązują tylko po szesnastej? A może po prostu tam, gdzie liczą kasę, wiedzą, że na tańszych zamiennikach można się nieźle przejechać? Z tego założenia pewnie wychodzi Narodowy Fundusz Zdrowia, który podpisał z Kamsoftem i konsorcjum tej firmy z Asseco Poland umowy na subskrypcję i konserwację systemów, obejmującą usługi konsultacji, doradztwa, subskrypcji, nadzoru autorskiego i naprawy oprogramowania za łącznie ponad 50 mln zł. Ponad dwa razy więcej (a dokładnie 121 mln zł) Asseco może zarobić, jeśli wygra przetarg na Podkarpacki System e-Administracji Publicznej. Tańszy jest jednak Atos IT Services, a broni szybko nie złoży też pewnie konsorcjum Wasko, Unizeto Technologies i Consortii. W Katowicach za to ruszy projekt SilesiaNet (budowa społeczeństwa informacyjnego w subregionie centralnym województwa śląskiego), który kosztem 10,9 mln zł netto zrealizuje gliwicka spółka TKP. Zapał inwestycyjny nie spada też w Ministerstwie Sprawiedliwości, które wybrało zwycięzcę prze-

<<

targu na dostawy, instalację i uruchomienie wyposażenia serwerowego dla dwóch Ośrodków Zarządzania Informacją (OZI), Centrali OZI, oddziałów OZI w ramach wdrażanego w Sądach Powszechnych Systemu Informatycznego Wspomagania Procesów Merytorycznych. Jak myślicie, resellerzy, pomoże to skrócić czas rozpatrywania spraw w sądach czy też wręcz przeciwnie? Orti Byliński za to bezsprzecznie zgarnie 10,3 mln zł brutto. Ta sama spółka z ofertą za 8,8 mln zł wygrała przetarg na dostawę serwerów w ARiMR. Nie próżnują energetycy i geodeci. Polskie Sieci Elektroenergetyczne ogłosiły negocjacje na wdrożenie aplikacji sieciowych Energy Management Systems (EMS) w Obszarowych Dyspozycjach Mocy. Wartość projektu przekracza 23 mln zł. Województwo Mazowieckie z kolei za szacunkowo 17 mln zł chce skonwertować bazy danych geodezyjnych. Ministerstwo Finansów natomiast wyda 12,3 mln zł na licencje Oracle (lub równoważne) dla systemu Trezor wraz z usługą Asysty Technicznej i Konserwacji. Za pośrednictwo zarobią AMG.net i Bull Polska. Ten ostatni dopisze do przychodów z tego samego ministerstwa 9,2 mln zł za usługi serwisu technicznego oraz wsparcia w zakresie zmian konfiguracji dla elementów infrastruktury. Oracle z kolei skasuje ARiMR na 10,7 mln zł za licencje (wraz z 12 miesięczną usługą ATiK w ramach umowy ramowej). Umowę z urzędnikami agencji rolnej wynegocjował DahliaMatic.

Nikt tam na górze nie przejmuje się, że głupie przepisy teoretycznie zakazują używania nazw producentów tam, gdzie nie jest to niezbędne

Licencje licencjami, aplikacje aplikacjami, ale jakieś poważniejsze zakupy twardego sprzętu też by się przydały, prawda resellerzy? Czy zdobyte z takim wysiłkiem 300 mld zł unijnych dotacji stanowią tutaj dobry prognostyk, tego nie wiem. Wiem za to, że wszyscy, którzy chcą trochę pokombinować z inspirowaniem urzędników i zmowami cenowymi powinni opracować jakiś skuteczny i mniej medialny język komunikacji niż budowlańcy z autostrad. No bo to „ściągamy gacie” naprawdę nie brzmi najlepiej. n 55 Reseller News


AKTUALNOŚCI

HP

Anna Suchta

tupnęło nogą

Foto: KnapArt

Z Sprawa ugody między HP i największymi dostawcami zamienników może zmienić rynek materiałów eksploatacyjnych 56

Reseller News

aczęło się tak: w styczniu 2013 r. rynek zelektryzował komunikat o ugodzie HP z AB i Action, dwoma dużymi dostawcami materiałów kompatybilnych. Wynikało z niego, że zdecydowali się oni wycofać z oferty część tuszy (problem w ogóle nie dotyczy tonerów) przeznaczonych do urządzeń producenta z Palo Alto. Powód? Naruszały patenty HP. W ramach porozumienia Action zwróciła HP część kosztów związanych z dochodzeniem przez niego swoich praw. Z kolei AB zobowiązało się do zniszczenia wszelkich zapasów produktów, które łamały prawa własności intelektualnej producenta. HP zdecydowało się także pozwać - w związku z na-

ruszaniem patentów - Black Pointa, kolejnego, liczącego się w Polsce dostawcę zamienników. W lutym 2013 r. obie firmy były na najlepszej drodze do zawarcia ugody. Co oznacza ruch HP dla rynku materiałów kompatybilnych? Można pokusić się o postawienie dwóch tez. Po pierwsze zdaniem producentów zamienników znikną z niego produkty tzw. „100 proc. new”. Zostaną one zastąpione produktami regenerowanymi. Po tym, jak w świat poszła wieść, że HP powiedziało dość łamaniu swoich praw patentowych w Polsce, zwiększyła się czujność zarówno klientów i dostawców w kwestiach patentowych. Po drugie możliwe, że alterna-


AKTUALNOŚCI

PIOTR PĄGOWSKI DYREKTOR GENERALNY DZIAŁU KOMPUTEROWYCH SYSTEMÓW OSOBISTYCH W HP Kroki, które podjęliśmy w Polsce, miały na celu ochronę własności intelektualnej HP. Bronimy się przed bezprawnym wykorzystywaniem naszych osiągnięć technologicznych. Podpisana ugoda dotyczy jedynie części produktów sprzedawanych jako alternatywne materiały eksploatacyjne do urządzeń drukujących HP, czyli nowo wyprodukowanych pojemników łamiących nasze patenty. Nie ingerujemy w produkcję i sprzedaż pojemników ponownie napełnianych czy innych, które nie naruszają naszych patentów. Warto zaznaczyć, że nie walczymy z zamiennikami, a tylko z nieuczciwą konkurencją. Chcemy, aby klient mógł dokonać świadomego wyboru: oryginał czy zamiennik – ale w oparciu o przepisy prawa i zasady uczciwej konkurencji. Po oficjalnym ogłoszeniu warunków ugody HP z AB i Action, zaobserwowaliśmy bardzo duże zainteresowanie tematem patentów zarówno ze strony naszych partnerów jak i klientów końcowych. Bardzo wielu klientów dba o to, by nie kupować produktów naruszających prawa patentowe. HP jest firmą technologiczną, inwestuje wiele pieniędzy i wysiłku w badania, tworzenie i rozwijanie produktów. Dokładamy wszelkich starań, by finalny produkt był innowacyjny i spełniał wysokie wymagania klientów na całym świecie. Efekty długich prac w laboratoriach i pracowniach projektowych są później opatentowane w celu ich ochrony w zakresie dozwolonym przez prawo

tywa przestanie być tak atrakcyjna dla konsumentów, jak była do niedawna. W 2012 r. HP wprowadziło linię urządzeń drukujących InkAdvantage. Ceny ich tuszy są jak zapewnia Piotr Pągowski, Dyrektor Generalny Działu Komputerowych Systemów Osobistych w HP - porównywalne z wydatkami na zamienniki. - Na przykład wydatek na standardowe opakowanie z czarnym tuszem do najnowszych urządzeń z serii Ink Advantage 3525, 5525 i 6525 wynosi od 30 zł do 40 zł - wyjaśnia.

WŁAŚCIWY MOMENT Być może zbieżność dwóch zdarzeń: premiery urządzeń HP InkAdvantage i dogada-

nia się z dostawcami zamienników jest przypadkowa, jednak trudno oprzeć się wrażeniu, że istnieje między nimi związek. Rozszerzenie oferty HP o urządzenia, których eksploatacja na bazie oryginalnych tuszy nie jest droga, daje producentowi silny argument, przekonujący konsumentów do zakupu jego wkładów. Jednocześnie producent postarał się wreszcie definitywnie pokazać, że nie pozwoli naruszać swoich patentów. Można zatem odnieść wrażenie, że producent wyczekiwał dobrego momentu, by załatwić kwestię łamania swoich praw intelektualnych. Możliwe, że jest to odpowiedź na pytanie, dlaczego HP tak długo z tym zwlekało. - Warto zaznaczyć, że firma HP przez lata tolerowała niewłaściwe praktyki dużych i małych dystrybutorów swoich materiałów, polegające na wprowadzaniu na polski rynek dalekowschodnich produktów, naruszających prawa patentowe producenta - zauważa Piotr Kolbusz, prezes zarządu Black Pointa. - Doprowadziło to do zapewnienia tym produktom znaczącego udziału w rynku materiałów eksploatacyjnych do drukarek, o który dziś upomina się firma. Zdaniem Piotra Pągowskiego w tym, że HP dopiero teraz ucięło sprzedaż zamienników naruszających jego patenty, nie należy doszukiwać się drugiego dna. - Po prostu w tak

Fakt, że Black Point nie wprowadza do obrotu i nie ma w magazynie produktów naruszających patenty HP, potwierdziła wizja lokalna przeprowadzona przez komornika sądowego w towarzystwie przedstawiciela HP w czerwcu 2012 roku. Dążymy do tego, aby spór sądowy z HP zakończyć polubownie i zmierzamy do zawarcia porozumienia w tym zakresie

57 Reseller News


AKTUALNOŚCI

RAFAŁ ORNOWSKI PEŁNOMOCNIK ZARZĄDU DS. MARKI ACTIVEJET, ACTION

Szanujemy własność intelektualną naszych partnerów. Zgodnie z poczynionymi ustaleniami zaprzestaliśmy sprzedaży tych modeli. W naszej ofercie jednak, obok tych wycofanych już produktów, są również tusze regenerowane, cechujące się doskonałą jakością. Dlatego użytkownicy, którzy do tej pory sięgali po produkty całkiem nowe, teraz wybierają te drugie. Nie ma więc to przełożenia na wyniki sprzedaży naszych produktów

Warto zaznaczyć, że nie walczymy z zamiennikami, a tylko z nieuczciwą konkurencją - mówi Piotr Pągowski. - Chcemy, aby klient mógł dokonać świadomego wyboru: oryginał czy zamiennik – ale w oparciu

o przepisy prawa i zasady uczciwej konkurencji

58

Reseller News

dużym przedsiębiorstwie jak HP, procesy prawne i decyzje są dość czasochłonne - uważa.

UGODA JEDYNĄ DROGĄ AB i Action szybko porozumiało się z HP w sprawie produkcji i sprzedaży kompatybilnych tuszy. Wiadomość o zawarciu ugody, która pojawiła się pod koniec stycznia 2013 r., dotyczyła zdarzeń - jak wynika z danych przytoczonych przez AB - sprzed kilku miesięcy. - Informuję, że spółka AB już od dłuższego czasu nie posiada w ofercie wkładów atramentowych naruszających prawa własności intelektualnej HP - stwierdził Andrzej Przybyło, prezes zarządu AB w oficjalnym komunikacie. - Podpisana z HP ugoda stanowi jedynie formalne potwierdzenie tego, co spółka AB wykonała już kilka miesięcy temu. Jednocześnie zarówno AB jak i Action utrzymują, że usunięcie z oferty części modeli alternatywnych tuszy do urządzeń HP nie odciśnie piętna na ich

wynikach finansowych. - Ugoda z HP nie ma znaczącego wpływu na biznes ActiveJeta z tego względu, że prawie całość oferty stanowią obecnie produkty regenerowane, powstające w zaawansowanym technologicznie procesie certyfikowanym na różne sposoby - dowiedział się Reseller News. - Produkty 100 proc. nowe, które zostały wycofane zgodnie z ustaleniami ugody, posiadają pełne pokrycie w produktach regenerowanych. - Sprawa ugody nie będzie miała żadnego wpływu na wyniki spółki ani na nasze relacje z firmą HP - stwierdził z kolei Andrzej Przybyło z AB. - Nie zmienia się również aktualna oferta produktowa marki TB Print. Nie udało nam się uzyskać informacji, ile kosztowało Action i AB zmodyfikowanie oferty w efekcie porozumienia z HP. Zarówno Action jak i AB zasłoniły się tajemnicą chroniącą warunki ugody.

BLACK POINT NIE CHCE WOJNY W styczniu 2013 r., kiedy AB i Action miało sprawę


Na pytania Reseller News odpowiada Piotr Kolbusz, prezes Black Point SA

- O co chodzi w sprawie o naruszenie patentów, które HP zarzuca Black Pointowi?

proc. nowe produkty, które naruszają prawa patentowe producentów, pozostaną z kolei materiały reprodukowane, których problem patentowy nie dotyczy.

- HP rozpoczęło kampanię egzekwowania swoich praw własności przemysłowej wobec wszelkich firm, które wprowadzały do sprzedaży produkty naruszające te prawa. Zarzuty HP dotyczą wyłącznie produktów 100 proc. new, czyli nie bazujących na reprodukcji i są kierowane do całej branży zamienników, w pierwszym kroku - firm o największym udziale w rynku.

- Co będzie dalej z produkcją materiałów kompatybilnych?

- Czy możliwe jest, że inni producenci sprzętu również wezmą pod lupę dostawców alternatywy? - Mimo, że na świecie producenci sprzętu od lat pozostają aktywni w obszarze ochrony praw patentowych, to w Polsce temat dopiero kiełkuje. Przewidujemy, że w najbliższym czasie tego typu sytuacje będą się nasilały, a działania HP nie pozostaną odosobnione. Kwestią czasu pozostaje, kiedy z roszczeniami wystąpią inni producenci OEM. W tym sensie popieramy ich praktykę – z rynku znikną 100

tuszy do HP już za sobą, w przypadku Black Pointa wciąż nie była zamknięta. - HP złożyło pozew przeciwko spółce Black Point, dotyczący sprzedaży wkładów atramentowych naruszających prawa własności intelektualnej wynikające z patentów HP - zakomunikował producent w styczniu 2013 r. HP wyraża przekonanie, że pozostałe etapy sporu będą skutkowały decyzjami korzystnymi dla ochrony patentów HP. Wrocławska firma twierdzi, że nie posiada w ofercie produktów naruszających prawa patentowe HP. - Black Point nie wprowadza do obrotu produktów naruszających prawa patentowe HP, ani nie posiada ich w magazynie - powiedział Reseller News Piotr Kolbusz, kierujący Black Pointem. - Potwierdziła to wizja lokalna przeprowadzona przez komornika sądowego w towarzystwie przedstawiciela HP w czerwcu 2012 roku. Dążymy do tego, aby spór sądowy z HP zakończyć polubownie i zmierzamy do zawarcia porozumienia w tym zakresie. Z tego względu odpowiedzieliśmy pozytywnie na propozycję producenta z listopada 2012 r. o porozumieniu. Z kolei przedstawiciele HP ostrożnie wypowiadają się o efekcie rozmów z Black Pointem, tłumacząc, że jest ona w toku (informacja obrazuje stan w lutym 2013 r. - przyp. red.).

- W swojej 25 letniej historii zawsze ze szczególną starannością dbaliśmy o przestrzeganie, nie tylko specjalistycznych norm jakości, lecz także praw patentowych oraz zasad uczciwej konkurencji w odniesieniu do wszelkich naszych produktów, zarówno w zakresie produkcji atramentowej, jak i laserowej. Black Point jako polski producent materiałów alternatywnych, dysponujący opatentowaną technologią produkcji i własnym parkiem maszynowym, uznaje wagę i znaczenie praw patentowych, co więcej popiera działania producentów drukarek w tym zakresie. Produkcję opieramy na reprodukcji zużytych wkładów do drukarek. Ten proces nie tylko nie narusza praw patentowych, lecz także chroni środowisko naturalne – uwalnia je od milionów sztuk odpadów w postaci zużytych kartridży.

formuje Piotr Pągowski po tym, jak sprawa ugody z Action i AB stała się głośna, partnerzy i klienci HP zaczęli zwracać uwagę na to, w jakie produkty się zaopatrują, a konkretnie, czy nie naruszają one jego praw. Przykłady Action i AB, a także Black Pointa świadczą, że nawet tak znaczące firmy nie chcą wchodzić na drogę batalii sądowej z HP. n

Rozszerzenie

oferty HP o urządzenia, których eksploatacja na bazie oryginalnych tuszy nie jest droga, daje producentowi silny

argument, przekonujący konsumentów do zakupu jego wkładów

PÓJDZIE ZA CIOSEM? HP wzięło na widelec na razie trzy największe firmy (Black Point, AB i Action) specjalizujące się w produkcji materiałów kompatybilnych. Być może wystarczy to, by pokazać, że producent chce bezwzględnie zakończyć proceder bezprawnego wykorzystywania jego patentów w tuszach. Jak in59 Reseller News


AKTUALNOŚCI

AVM Acer Aspire V5 z ekranem dotykowym Notebooki z serii Acer Aspire V5 są wyjątkowo wygodne w użyciu, ponieważ zastosowano w nich 10punktowy ekran dotykowy oraz duży trackpad. Rozwiązania te umożliwiają nawigowanie przy użyciu gestów oraz pozwalają na korzystanie z funkcji systemu operacyjnego Windows 8. Notebooki z serii Aspire V5 są o 30 proc. cieńsze od innych komputerów tej klasy z napędem DVD i rozwiązaniami zapewniającymi komfort termiczny. Model 14-calowy z napędem optycznym ma niecałe 21 mm grubości i waży 2,1 kg, natomiast model 15,6-calowy, także wyposażony w napęd optyczny, jest cieńszy niż 23 mm i waży niecałe 2,4 kg. Procesory z rodziny Intel Core oraz układy graficzne NVIDA GeForce GT pozwalają na wydajną pracę wielozadaniową oraz tworzenie treści multimedialnych i korzystanie z nich, a 10-punktowy wyświetlacz dotykowy HD ready zapewnia satysfakcję z odtwarzania multimediów oraz optymalne sterowanie funkcjami dotykowymi.

n Dostępne modele: Aspire V5-571P - 15,6" HD Ready Touch, Intel Core i3-3217U, 4GB RAM, 500GB HDD, Bluetooth, USB3.0, HDM, podświetlana klawiatura, Windows 8, cena 2 799 zł Aspire V5-571P - 15,6" HD Ready Touch, Intel Core i53317U, 6GB RAM, 500GB HDD, Bluetooth, USB3.0, HDMI, podświetlana klawiatura, Windows 8, cena 2 999 zl Aspire V5-571PG - 15,6" HD Ready Touch, Intel Core i5-3337U, NVIDIA GeForce/ GF710 1GB, 6GBRAM, 750GB HDD, Bluetooth, USB3.0, HDMI, podświetlana klawiatura, Windows 8, cena 3 499 zł

atakuje polski rynek sieciowy

AVM ponownie rozpoczyna swoją ekspansję na polski rynek z rodziną produktów FRITZ!. Rozpoczyna współpracę z głównymi polskimi dystrybutorami sprzętu IT: AB, ABC Datą i Incomem. Poza tym, co jest bardzo istotne – firma rozwija system wsparcia technicznego w języku polskim. Pierwszymi produktami, które dostępne będą u dystrybutorów będą: wielofunkcyjny inteligentny router FRITZ!Box 3270, karta sieciowa FRITZ!WLAN USB Stick N, FRITZ!WLAN Repeater 300E oraz FRITZ!Powerline 500E.

www.fritzbox.eu/pl

Jürgen Pohl, Channel Sales Manager Poland, AVM - W 2013 roku według strategii AVM planujemy mocną intensyfikację obecności na polskim rynku. AVM jest jedną z dwóch wiodących firm europejskich w swojej branży. Obrót firmy za 2012 rok wyniósł 250 milionów euro. Produkty z rodziny FRITZ! są dostępne w ponad 50 krajach na całym świecie, zawsze z pełnym wsparciem technicznym. FRITZ! cieszy się opinią rodziny urządzeń o zaawansowanych możliwościach, zadowalających użytkowników poszukujących bardzo dobrych rozwiązań.

Infortrend:

14 nowych modeli macierzy

Firma Infortrend ogłosiła premierę 14 nowych modeli pamięci masowych EonStor DS G7i, w których zastosowano nowe rozwiązania sprzętowe, wprowadzono udoskonalone funkcje obsługi wirtualizacji i nawet czterokrotnie zwiększono wydajność. Urządzenia są przeznaczone dla firm z sektora MŚP, które chcą sprostać wymaganiom stawianym przez dzisiejsze środowiska IT. Macierze wyposażono w dwurdzeniowy procesor. W porównaniu z modelami jednordzeniowymi zmiana ta przełożyła się na 75 - 80 proc. wzrost wydajności. Ponadto model EonStor DS G7i został przygotowany do obsługi VAAI (vStorage API for Array Integration) i funkcji takich jak wspomagane sprzętowo blokowanie, zerowanie bloków i pełne kopiowanie. Umożliwia to dodatkowe zwiększenie wydajności przez uwolnienie cykli procesora i efektywniejsze użycie zasobów sieciowych. www.infortrend.com

cloud NextiraOne: rozwiązania oparte na ExpressPod NextiraOne poszerzyła portfolio rozwiązań cloud wprowadzając do oferty produkt dedykowany dla małych i średnich przedsiębiorstw, umożliwiający im sprawne rozpoczęcie procesu wirtualizacji środowiska IT. ExpressPod to gotowe skonfigurowane i przetestowane rozwiązanie oparte na macierzach NetApp oraz serwerze i przełącznikach Cisco. ExpressPod to zintegrowany pakiet oprogramowania komputerowego, sieciowego, pamięci masowej i wirtualizacyjnego oraz innowacyjnych rozwiązań z zakresu cloud i zarządzania. Rozwiązanie łączy w sobie serwery Cisco UCS, systemy pamięci masowej NetApp FAS wraz z przełącznikiem Cisco Nexus, a także oprogramowanie do zarządzania tą infrastrukturą. Podobnie do innych platform data center FlexPod, ExpressPod wspiera otwarte środowiska zarządzania i dlatego jest elastyczny oraz znajduje zastosowanie dla wielu aplikacji.

www.nextiraone.pl


6 czerwca 2013 r. ukaże się specjalne wydanie RESELLER News, którego premiera odbędzie się podczas ekskluzywnego WIECZORU ASÓW IT

Złote ASY IT wręczymy w kategoriach: n PRODUCENT n DYSTRYBUTOR n VALUE ADDED DISTRIBUTOR n INTEGRATOR

oraz nagroda specjalna n Złoty AS Kanału Partnerskiego – dla szefa kanału partnerskiego, który osiągnął wyjątkowe wyniki we współpracy z partnerami

Nagradzamy tylko zgłoszone Zgłoszenia na adres: asy@reseller-news.pl. Termin zgłoszeń do 30 kwietnia 2013

do konkursu firmy i osoby

Więcej informacji na portalu www.reseller-news.pl 61 Reseller News


Korespondencja z Amsterdamu ZAPROSILI

NAS

ISE 2013

Dariusz Wałach

Zdjęcia: Henryk Chorążewski

Nowości targowe Digital Signage

s

62 Reseller News

amsung szturmuje rynek rozwiązań Digital Signage. Podczas X edycji targów Integrated Systems Europe 2013 w Amsterdamie (29-31.02), firma przedstawiła nową linię cyfrowych ekranów komercyjnych, w tym serie MEC, UEC, UDC i PEC. Na stoisku zwiedzający mogli zapoznać się z nowościami, których konstrukcja wykorzystuje platformę Samsung Smart Signage. Kluczowym elementem platformy jest układ System on Chip (SoC). Dzięki niemu, po raz pierwszy partnerzy biznesowi Samsunga będą mogli tworzyć aplikacje zoptymalizowane pod kątem różnych środowisk komercyjnych za pomocą pakietu Software Development Kit (SDK). Samsung Smart Signage zapewnia prosty, łatwy w użyciu interfejs, eliminując skomplikowane procedury instalacji i konfiguracji. Platforma


ZAPROSILI NAS

została wyposażona w dwurdzeniowy procesor główny, procesor wideo z obsługą szerokiej gamy kodeków oraz 4/8 GB pamięci. Ponadto, oferuje zintegrowany odtwarzacz multimedialny, który pozwala odtwarzać treść bez korzystania z podłączonego komputera lub dekodera. Brak zewnętrznych urządzeń ułatwia instalację oraz obsługę platformy. Nowe ekrany komercyjne Samsung oferują także funkcję „plug and play”, umożli-

wiając wczytywanie treści i sterowanie urządzeniem przez port USB, oraz obsługują różne formaty audio i video, w tym m.in. WMV, MP4 i H.264. Dodatkowym atutem jest oprogramowanie Samsung MagicInfo Premium S, które pozwala zarządzać treścią i urządzeniami przez sieć lub za pomocą pilota. Dodatkowo Samsung zaprezentował przezroczysty ekran NL22B (nagrodzony za innowacyjność na targach CES 2013) oraz wielodotykowy n ekran stołowy SUR40.

63 Reseller News


NEWS

Radość dzieci Świetlica Caritasu Diecezji Łomżyńskiej wzbogaciła się o komputery przekazane przez firmę Lenovo

bezcenna

!

www.reseller-news.pl

02-033 Warszawa, ul. Raszyńska 48 lok. 2 REDAKTOR NACZELNA Beata Tallar-Zakrzewska b.tallar@reseller-news.pl tel. 781 111 900 ZASTĘPCA REDAKTORA NACZELNEGO Anna Suchta a.suchta@reseller-news.pl tel. 781 111 261 SZEF DZIAŁU SYSTEMY IT Mariusz Ludwiński m.ludwinski@reseller-news.pl tel. 781 111 453 SZEF DZIAŁU TELCO&NETWORKS Stefan Kaczmarek s.kaczmarek@reseller-news.pl tel. 790 52 21 74 ZESPOŁ REDAKCYJNY Dariusz Wałach d.walach@reseller-news.pl tel. 781 111 600 Grzegorz Teter g.teter@reseller-news.pl tel. 694 49 53 74

wością kontaktu z komputerem jest szkoła i świetlica, mogła nacieszyć się możliwościami multimedialnymi nowego sprzętu. Rozpakowany sprzęt szybko został opanowany przez dzieci, które z łatwością zainstalowały na nim gry i aplikacje. Wraz z podziękowaniami otrzymaliśmy wraz z firmą Lenovo okolicznościowe dyplomy. W imieniu dyrektora ośrodka, księdza Andrzeja Mikuckiego jeszcze raz dziękujemy za przekazany sprzęt. Mamy nadzieję, że akcja ta nie będzie jednorazowa, a inne firmy, dysponujące sprzętem pomogą nam dostarczyć dzieciom radość i uśmiech. n

DYREKTOR ARTYSTYCZNY & LAYOUT Wojciech Cesarz w.cesarz@reseller-news.pl tel. 781 111 693 FOTOREPORTER Andrzej Smoliński a.smolinski@reseller-news.pl tel. 501 09 64 53 REKLAMA I PRENUMERATA Agnieszka Kosicka dyrektor ds. sprzedaży a.kosicka@reseller-news.pl tel. 781 111 671

Święty Mikołaj przynosi prezenty nie tylko w grudniu. Tym razem 12 lutego redakcja Reseller News przekazała komputery firmy Lenovo dla świetlicy środowiskowej w Łomży. Lenovo jako pierwsze odpowiedziało na naszą prośbę, by sprzętem komputerowym uatrakcyjnić zajęcia organizowane przez Caritas Diecezji Łomżyńskiej w swoim ośrodku. Dzięki temu, blisko 30 osobowa grupa dzieci, dla których jedyną możli-

Małgorzata Kicek dyrektor ds. marketingu tel. 502 05 75 02 Adrian Wałach prenumerata i reklama online a.walach@reseller-news.pl tel. 781 111 297 DRUK Kengraf Nakład 6300 egz. WYDAWCA 02-350 Warszawa ul. Częstochowska 40 lok. 14

DW/BT

Dariusz Wałach – prezes zarządu Beata Tallar-Zakrzewska – wiceprezes zarządu

64

Reseller News




Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.