Executive View
Małgorzata Kasperska o transformacji DC
Raport SoDA
Czas wyzwań na rynku pracy
AI Act
Wszystko, co chcesz wiedzieć
Dane na szkle
Dystrybucja nadziei
Małgorzata Kasperska o transformacji DC
Raport SoDA
Czas wyzwań na rynku pracy
AI Act
Wszystko, co chcesz wiedzieć
Dane na szkle
Dystrybucja nadziei
Rozwiązania IT w logistyce Cyberbezpieczeństwo i ochrona danych Używane oprogramowanie Dolina
„Wspieramy polskie firmy ekspercką wiedzą o tym, jak konkurować na obcych rynkach” – Michał Nikołajuk, CEO Rite NRG, koordynator projektu „ITCorner Zagranica”
Dane na pamięciach flash i... szkle
Zarządzanie danymi przestało danymi przestało być mitem, a stało się realnym a stało problemem problemem.
8 Samsung Memory Summit: świat się kręci wokół pamięci Dywizja Samsung Memory cały czas pozyskuje nowych partnerów Punkt przecięcia jest już za nami Rozmowa z Maciejem Kamińskim, dyrektorem dywizji Samsung Memory w Polsce i regionie CEE
10 Liczy się tylko AI Relacja z targów Computex 2024, organizowanych pod hasłem „Connecting AI”
11 Uważnie słuchamy klientów Rozmowa z Jasonem Fanem, Product Management Team Managerem w Synology
12 Cyberprzestępcy nie dyskryminują ofiar Fala cyberataków nie ustaje, a zdaniem WithSecure w szczególnie trudnej sytuacji są małe i średnie firmy
13 PFU Ricoh: AI pomoże w zarządzaniu dokumentami Nie ma ucieczki od wykorzystania AI do automatyzacji procesów zarządzania informacją w firmach (relacja z konferencji)
14 GTDC Summit EMEA: dystrybucja nadziei Po trudnym 2023 roku europejska dystrybucja zaczyna wychodzić z dołka
16 Lenovo NPT: azymut na AI Sztuczna inteligencja to kluczowy kierunek innowacji w rozwiązaniach Lenovo
17 Przebudzenie śpiącego lwa Walka między Chinami a USA na froncie technologicznym zaostrza się
18 Acer zwieksza zaangażowanie w segmencie biznesowym Producent przewiduje, że w biznesie motorem wzrostu będą AI PC
19 H3C rozkręca biznes w Polsce Firmy Acnet i H3C zawarły strategiczne partnerstwo
20 Nowe technologie, stare podziały Felieton Larry’ego Walsha
21 Reolink: nowa era inteligentnego monitoringu
Producent infrastruktury do monitoringu rozszerza działalność na rynek Europy Środkowo-Wschodniej, z Polską na czele
22 W biznesie za granicą kluczowa jest determinacja Rozmowa z Michałem Nikołajukiem, CEO Rite NRG i członkiem zarządu ITCorner
26 O marketingu trzeba myśleć holistycznie Rośnie znaczenie wsparcia marketingowego dla kanału sprzedaży
28 ViewSonic: wracamy do Polski Rozmowa z Tymoteuszem Grobelnym, Key Account Managerem B2C oraz Przemysławem Miką, Key Account Managerem B2B w polskim oddziale
ViewSonic
30 Klucz uniwersalny, czy wiele różnych kłódek?
Cyberbezpieczeństwo środowisk „multivendorowych”
34 Fortinet: integracja zapewnia wyższy poziom bezpieczeństwa Platforma Fortinet Security Fabric służy tworzeniu zintegrowanych środowisk bezpieczeństwa w firmach
Co z premiami za AI?
Trzeba łączyć inwestycje w technologie z zachętami dla partnerów.
36 Cyberbezpieczeństwo w dobie AI Cisco zmienia reguły gry
37 Milionerzy na papierze Felieton Szymona Janiaka
Końcowa faza negocjacji. Tu często Tu dzieją się cuda cuda.
38 Transformacja Data Center Rozmowa z Małgorzatą Kasperską, wiceprezeską Schneider Electric na obszar Europy Środkowo-Wschodniej, odpowiedzialną za pion Secure Power
40 Cyfryzacja lekarstwem na problemy Przedsiębiorcy z branży TSL są zmotywowani do inwestycji w rozwiązania IT
43 Magazyn to Zebra Komputery mobilne Zebra MC9400/MC9450 to najlepsze rozwiązanie dla magazynu (Jarltech)
44 Mój jest ten kawałek podłogi Felieton Pawła Cyzmana
45 Portworx by Pure Storage Pamięci masowe dla kontenerów (Arrow)
46 Dane na pamięciach flash i... szkle
W świecie pamięci masowych pojawia się wiele alternatywnych koncepcji
48 Pamięci masowe IBM dla sztucznej inteligencji
Boom na AI stawia poważne wyzwania przed dostawcami pamięci masowych. IBM już od dawna jest przygotowany na taki scenariusz (Averbit)
50 Końcowa faza negocjacji: jak ją dobrze poprowadzić?
Felieton Marcina Babiaka
51 Zoom: innowacje w komunikacji
Zoom stał się intuicyjną platformą all-in-one (Exclusive Networks)
52 Używane oprogramowanie: nie tylko dla ubogich
Sprzedaż używanych programów nie straciła racji bytu
55 Co z premiami za AI?
Felieton Steve’a Burke’a
56 AI Act
Wszystko co chesz wiedzieć, ale boisz się zapytać
58 Polska ustawa a rozporządzenie DORA
Nowa ustawa będzie miała wpływ na co najmniej 35 dostawców usług IT
60 Rynek pracy w branży IT: czas wyzwań
W 2023 r. małe firmy IT zwolniły średnio co czwartego pracownika
64 Informatyzacja biletowania
Felieton Wacława Iszkowskiego
66 Fake newsem w konkurencję
Felieton Wojciecha Urbanka
Kiedy równo dwa lata temu, w czerwcowym wydaniu CRN-a, napisałem, że „status tech-mocarstwa uodporniłby Chiny na amerykańskie i europejskie sankcje technologiczne po wywołaniu przez Pekin konfliktu na Tajwanie”, nie poparłem tego argumentacją liczbową czy naukową, a jedynie publicystyką. Innymi słowy, wyraziłem się tak, jak podpowiadała mi intuicja. Trzy miesiące później napisałem, co nie wszystkim się spodobało, że: „wysoki poziom globalizacji ratuje nas przed konfliktem o dużo większej skali niż ten obecny”. I znowu, moja argumentacja była oparta na amatorskich przemyśleniach odnośnie do światowej wymiany handlowej w kontekście gospodarki, polityki i socjologii, nie zaś na wnioskach płynących z publikacji akademickich czy wyników badań naukowych. Z tym większą radością sięgnąłem po świeżo wydaną przez Wielką Literę książkę Johana Norberga „Manifest kapitalistyczny”. Choć podana w formie niezwykle przystępnej, bazuje na szeregu specjalistycznych badań, długiej liście fachowych publikacji i wielu konkretnych przykładach. Autor dowodzi, że prawdziwy postęp możliwy jest jedynie poprzez swobodę działalności gospodarczej, nie zaś za pomocą odgórnie sterowanych i przeregulowanych programów rządowych. Nieco starsze roczniki doskonale wiedzą, co autor ma na myśli, podczas gdy te młodsze – i to na różnych kontynentach – już niebawem odczują skutki coraz bardziej antykapitalistycznych decyzji urzędników z Brukseli, Pekinu i Waszyngtonu. W sumie książka mogłaby mieć tytuł „Przedsiębiorcze społeczeństwo”, w kontrze do „Przedsiębiorczego państwa” Mariany Mazzucato, której argumenty Norberg wręcz rozbija w puch.
Druga myśl Szweda dotyczy globalizacji jako jedynego sposobu na globalny dobrobyt i globalny pokój. I chociaż brzmi to wyjątkowo banalnie, argumentacja autora jest wyjątkowo przekonująca. Nie czas tu i miejsce,
aby ją przytaczać – gorąco polecam lekturę „Manifestu kapitalistycznego”. Pozwolę sobie natomiast zacytować kilka ważnych, jak sądzę, zdań: „Obawiam się, że polityka ustanawiania barier w handlu oraz izolowania Chin z obawy przed ich agresywnym nastawieniem może stać się samospełniającą przepowiednią, która wzmocni tam najbardziej reakcyjne i nacjonalistyczne siły. Powodem, dla którego Komunistyczna Partia Chin nie wsparła jednoznacznie rosyjskiej inwazji na Ukrainę, nie jest jej szacunek dla pokoju i praw człowieka, lecz obawa, że w przypadku otwartego wyrażenia poparcia dosięgłyby ją wtórne sankcje ekonomiczne ze strony Zachodu. Gdyby nasze gospodarki całkowicie odcięły się od Państwa Środka, groźba taka straciłaby moc, a dyktatorzy mogliby swobodnie działać w zgodzie ze swoją naturą. A to oznaczałoby większe niebezpieczeństwo dla świata”. Ja dowodziłem tego na bazie intuicji. Norberg robi to na bazie faktów. Polecam!
MIESIĘCZNIK CRN POLSKA www.CRN.pl
Rok 27, numer 6–7 (500), 26 czerwca 2024 PL ISSN 2080-8607
REDAKCJA
Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa redakcja@crn.pl
Tomasz Gołębiowski tg (redaktor naczelny) tel. 608 425 699 tomasz.golebiowski@crn.pl
Wojciech Urbanek wu (zastępca red. naczelnego) tel. 691 672 065 wojciech.urbanek@crn.pl
Karolina Marszałek km (sekretarz redakcji) karolina.marszalek@crn.pl
Andrzej Gontarz ag andrzej.gontarz@crn.pl
Krzysztof Jakubik kj krzysztof.jakubik@crn.pl
Krzysztof Pasławski kp krzysztof.paslawski@crn.pl
Tomasz Janoś tj tomasz.janos@crn.pl
FELIETONY
Marcin Babiak, Steven Burke, Paweł Cyzman, Wacław Iszkowski, Szymon Janiak, Wojciech Urbanek, Larry Walsh
GRAFIKA, LAYOUT, KOORDYNACJA PRODUKCJI: Tomasz Baziuk
FOTOGRAFIE
Theta Art Studio Tomasz Pisiński, PhotobyMysluk.pl, Adrian Stykowski, Piotr Syndoman, archiwum
PRENUMERATA prenumerata@crn.pl
REKLAMA I PROJEKTY SPECJALNE Agata Myśluk tel. 694 455 426 agata.mysluk@crn.pl Jacek Goszczycki tel. 601 935 513 jacek.goszczycki@crn.pl
WYDAWCA Peristeri Sp. z o.o. Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa
Reklamy są przyjmowane w siedzibie wydawnictwa. Za treść ogłoszeń redakcja nie ponosi odpowiedzialności. © 2024 Peristeri Sp. z o.o. Wszelkie prawa zastrzeżone.
Fundusz Cyberbezpieczeństwa ma co roku, począwszy od bieżącego, otrzymywać z budżetu państwa do 250 mln zł na zapewnienie odpowiednich płac ekspertom w tym obszarze – zapowiada Ministerstwo Cyfryzacji. Celem jest lepsze zabezpieczenie państwowych systemów teleinformatycznych przed cyberzagrożeniami. „Finansowe wsparcie dla ekspertów w tej dziedzinie jest kluczowe, aby jeszcze skuteczniej chronili nasze dane i infrastrukturę przed cyberzagrożeniami” – podkreśla Krzysztof Gawkowski, wicepremier i minister cyfryzacji.
HPE w swoim II kw. finansowym 2024 r. (zakończonym 30 kwietnia), powróciło na wzrostowy kurs. Obroty poprawiły się wprawdzie w niskiej, jednocyfrowej skali (+3 proc. r/r, do 7,2 mld dol.), jednak w I kw. 2024 koncern musiał pogodzić się z 14-procentowymi spadkami. Zysk netto (GAAP) w II kw. okazał się jednak mniejszy w ujęciu rok do roku: 314 mln dol. vs. 387 mln dol., zaś marża brutto spadła o 300 pkt r/r, do 33 proc. (GAAP). Tym niemniej wyniki spodobały się inwestorom – kurs akcji spółki po ich ogłoszeniu podskoczył o 15 proc.
Centrala KRUS-u rozstrzygnęła postępowanie na sieć WAN. Przedmiotem zamówienia w ramach 5-letniego kontraktu są usługi eksploatacji i utrzymania sieci wraz z zapewnieniem bezpieczeństwa, jak też dostarczenie urządzeń, zestawienie łączy oraz utrzymanie i zarządzanie infrastrukturą WAN. Oferty złożyły: Netia (73,77 mln zł) oraz konsorcjum Integrated Solutions i Orange Polska (69,49 mln zł). KRUS wybrał ofertę konsorcjum Integrated Solutions i Orange Polska.
Grupa AB w I kw. 2024 r. (II kw. roku finansowego 2023/2024) zwiększyła zysk netto o 22 proc. rok do roku do poziomu blisko 39 mln zł. Skorygowany wynik EBITDA wzrósł o 7 proc. r/r, do ponad 72 mln zł przy przychodach przekraczających 3,4 mld zł. Są to wyniki oczyszczone z wpływu osłabienia korony czeskiej. Jak zaznacza Grzegorz Ochędzan, dyrektor finansowy i członek zarządu AB, miało ono duży wpływ na wyniki grupy. W I kw. 2024 r. korona osłabiła się wobec złotego aż o 13,5 proc. (r/r), co zmniejszyło wyniki grupy w przeliczeniu na polską walutę, pomimo że sprzedaż w Czechach liczona w koronach wzrosła. .
Dell Technologies w I kw. finansowym 2025 r. zwiększył przychody o 6 proc., do 22,2 mld dol. Sprzedaż infrastruktury (grupa ISG) podskoczyła aż o 22 proc. r/r, w tym przychody z serwerów i sieci poprawiły się o 42 proc. Jednocześnie zaczęło się długo oczekiwane odbicie w przypadku pecetów. Przychody Client Solutions Group (CSG) były podobne jak rok wcześniej (12 mld dol.), z tym że przychody z klientów komercyjnych wzrosły o 3 proc. Konsumenci natomiast nadal nie palą się do zakupów (-15 proc. r/r). Inwestorów rozczarowała natomiast niska marża wypracowana na serwerach, co doprowadziło do przeceny akcji spółki nawet o 20 proc. .
„Stajemyw obliczudeficytumocy,comożespowolnićrozwój całegosektora”– Małgorzata Kasperska, vicepresident Schneider Electric.
Europejskie przedsiębiorstwa i instytucje ściągają więcej złośliwego oprogramowania z chmury niż ma to miejsce na innych rynkach – ustalili specjaliści Netskope Threat Labs. Liczba pobrań złośliwego oprogramowania z chmury (55 proc.) wprawdzie spadła w ciągu ostatniego roku, osiągając najniższy poziom w II poł. 2023 r. Jednak od lutego 2024 r. odnotowano stały wzrost, a od maja 2024 r. Europa jest globalnym numerem 1. Cztery najczęściej używane aplikacje chmurowe w Europie to produkty Microsoftu: OneDrive (52 proc.), SharePoint (33 proc.), Teams (24 proc.) i Outlook (20 proc.).
Frontier Communications, firma telekomunikacyjna z siedzibą w Dallas, padła ofiarą gangu o nazwie RansomHub. Cyberkryminaliści zagrozili, że sprzedadzą 5 GB danych należących do 2 mln klientów Frontiera, jeśli ta nie spełni ich żądań – podał serwis BleepingComputer. W próbce skradzionych danych, jaką w darknecie pokazał RansomHub, widnieją: imię i nazwisko, data urodzenia, adres pocztowy, e-mail, numer ubezpieczenia społecznego i stan subskrypcji. Jak zapewnia Frontier, po wykryciu ataku w kwietniu br., spółka podjęła działania zapobiegające rozprzestrzenianiu się zagrożenia, w tym zamykając niektóre systemy korporacyjne.
Action w maju 2024 r. wypracował 169 mln zł obrotów, co oznacza spadek o 6,6 proc. wobec analogicznego okresu 2023 r. To już kolejny z rzędu miesiąc spadku sprzedaży dystrybutora (w ujęciu rok do roku). W kwietniu br. według wstępnego szacunku „dołek” okazał się 2-procentowy, a w marcu br. ponad 12-procentowy. Zarząd Actionu podkreśla, że przez cały ten okres na wysokim poziomie utrzymuje się wartość osiąganej przez całą grupę marży (ok. 8 proc.).
Związek zawodowy działający w centrali Samsung Electronics, przeprowadził 7 czerwca br. strajk, co było pierwszym takim wydarzeniem w ponad 50-letniej historii giganta (do 2020 r. w ogóle nie było zgody na działalność związkową). Organizatorzy akcji domagają się podwyżek wynagrodzeń i premii. Do związku należy 28 tys. osób (około 1/5 pracowników), jednak nie podano w oficjalnym komunikacie, ilu z nich dołączyło do protestu. Związkowcy żądają podwyżki płac o 6,5 proc., podczas gdy władze koncernu oferują wzrost o 5,1 proc.
Sąd Rejonowy dla Wrocławia-Fabrycznej odrzucił wniosek Neonetu o ogłoszenie upadłości – poinformował portal dlahandlu.pl. Sąd powołał się na art. 9 a prawa upadłościowego, który mówi, że w czasie trwania postępowania restrukturyzacyjnego nie można ogłosić upadłości. Postanowienie wydano 6 maja br. Neonet jest w restrukturyzacji od początku grudnia 2023 r. W końcu listopada ub.r. złożył do sądu dwa wnioski: o otwarcie postępowania sanacyjnego oraz o ogłoszenie upadłości. Ten drugi wniosek został złożony na wypadek, gdyby w toku postępowania sanacyjnego nie udało się osiągnąć konsensusu spółki z kontrahentami.
„Cenywaflakrzemowegoposzybowaływ góręi niedasięgo taniowyprodukować”– Maciej Kamiński, dyrektor dywizji Samsung Memory.
„89procentpartnerówwyrażasatysfakcjęzewspółpracyz dystrybutorami”
–Frank Vitagliano, prezes GTDC.
Powstała sieć internetowa pomiędzy centrami danych w Polsce. Projekt PCH-X połączył firmy należące do organizacji branżowej, tj. Polskiej Chmury. Współtworzą ją: Asseco Cloud, COIG, ComPaas, Cyfronet, Flowberg IT, Korbank, PNT w Opolu, Polcom, Sinersio, Talex i WCSS. Celem inwestycji jest wzmocnienie pozycji rynkowej polskich data center poprzez zwiększenie bezpieczeństwa komunikacji i suwerenności danych. Dzięki projektowi firmy zrzeszone w organizacji, jak też ich klienci zyskali własny, niezależny dostęp do internetu. Planowane są połączenia warstwy drugiej do Czech, Niemiec i Ukrainy.
Comp połączy się ze spółkami zależnymi: Comp Centrum Innowacji oraz Polski System Korzyści. Majątek obu podmiotów zostanie przeniesiony na Comp SA. Jego wartość dla CCI na dzień 30 kwietnia 2024 r. wyceniono na 43,6 mln zł (wartość aktywów netto), a dla PSK na 7,6 mln zł. Analogiczna wartość dla Comp SA to 574,1 mln zł. Celem fuzji jest ograniczenie kosztów, wykorzystanie synergii, uproszczenie procesów biznesowych. CCI powstało w 2011 r. Zajmuje się zarządzaniem projektami w ramach grupy. Z kolei PSK od 2020 r. oferuje programy lojalnościowe dla sklepów detalicznych. Wchłonięcie tych firm będzie kolejną konsolidacją w grupie. W końcu 2023 r. Comp połączył się ze spółką zależną Elzab.
W ciągu ponad 3 lat Action uregulował już około 60 proc. wierzytelności, uzgodnionych w układzie z 2020 r., kończącym postępowanie sanacyjne spółki. Od dnia uprawomocnienia się układu tj. od 15.12.2020 r. do 31.03.2024 r. spółka spłaciła łącznie 90,505 mln zł, 2,215 mln euro oraz 5,06 mln dol. Kwoty te obejmują płatności jednorazowe (grupa II i III, czyli drobni wierzyciele i składki na ubezpieczenia społeczne) oraz 14 rat dla podmiotów z grupy I (głównej) i pierwszą część należności dla grupy IV (firmy finansowe). W samym I kw. 2024 r. Action spłacił 2,56 mln zł, 74 tys. euro i 272 tys. dol. (czyli w sumie 4 mln zł). Na dzień 31 marca 2024 r. spółce pozostało do zapłaty w ramach układu 53,577 mln zł, 1,253 mln euro oraz 4,079 mln dol. Licząc po aktualnych kursach walut jest to 75 mln zł.
UOKiK ujawnił, że pracownicy urzędu w asyście policji przeszukali siedziby Xiaomi Polska i dwóch dystrybutorów producenta. Ma to związek z postępowaniem wyjaśniającym w sprawie możliwych antykonkurencyjnych praktyk przy sprzedaży sprzętu chińskiego producenta. Przy czym postępowanie toczy się w sprawie, a nie przeciwko konkretnym przedsiębiorcom. Tomasz Chróstny, prezes UOKiK-u, twierdzi, że dotarły do niego informacje, iż ceny sprzętu Xiaomi mogą być ustalane w wyniku niedozwolonego porozumienia. Jeśli podejrzenia się potwierdzą, wówczas UOKiK rozpocznie postępowanie antymonopolowe i postawi zarzuty określonym firmom. W tym kontekście władze Xiaomi zapewniają, że przestrzegają wszystkich obowiązujących przepisów.
W dwóch postępowaniach na usługi i oprogramowanie Microsoftu – w ARMiR i Poczcie Polskiej – oferty złożyli APN Promise, SoftwareOne Polska, Operator Chmury Krajowej, Crayon Poland i Integrated Solutions. Przetargi finalizowano w kwietniu i maju br. Agencja Restrukturyzacji i Modernizacji Rolnictwa zamawia w ramach rocznej umowy subskrypcje wraz ze wsparciem technicznym. Wybór padł na ofertę APN Promise o wartości ponad 24,5 mln zł. Przedmiotem zamówienia jest zakup usługi Software Assurance i subskrypcji, w tym usługi online dla programów systemowych. Wśród zamawianego software’u najwięcej jest subskrypcji pakietu M365 E3 – w sumie ok. 13 tys. Lista programów obejmuje 20 pozycji. W innym postępowaniu Poczta Polska zamówiła w ramach rocznej umowy oprogramowanie w ramach licencjonowania EA (Enterprise Agreement) i Server and Cloud (SCE). Lista zakupów obejmuje blisko 90 pozycji, wśród nich subskrypcje na M365/O365 (w tym najwięcej – 44,5 tys. to M365 E1), Windows Server, SQL i Visual Studio. Na realizację zamówienia poczta zamierzała przeznaczyć ponad 41,5 mln zł brutto. Wybrała ofertę Integrated Solutions wartą blisko 37,8 mln zł.
Rządowa strategia AI dla Polski jest nieefektywna – alarmuje Związek Cyfrowa Polska. Zdaniem ekspertów trzeba wesprzeć krajowe firmy, zarówno te tworzące rozwiązania oparte o AI, jak i je wdrażające. Apelują oni, by zapewnić MŚP szeroki dostęp do narzędzi AI i edukacji w ich wykorzystywaniu. Należy też zwiększyć podaż produktów AI powstających w Polsce, np. poprzez ulgi podatkowe, a przede wszystkim wzmacniać współpracę rządu, świata nauki i biznesu w rozwoju i wdrażaniu sztucznej inteligencji. Władze mają też dążyć do tego, by automatyzacja w firmach nie zmniejszyła zapotrzebowania na pracę, lecz przesuwała ludzi na lepiej płatne stanowiska.
Jako wiceprezes zarządu odpowiada za obszar komercyjny kluczowych usług i za rozwój oferty i ekosystemu spółek w zakresie transformacji cyfrowej, technologii marketingowych, chmury oraz AI. Obecnie ekosystem RITS tworzą trzy spółki: Persooa, Content Compass i Movertica, funkcjonujące pod parasolem powstającej grupy kapitałowej, którą będzie zarządzał Arkadiusz Seredyn. Nowy wiceprezes RITS ma ponad 20-letnie doświadczenie w transformacji cyfrowej i takich obszarach jak chmura, AI, dane czy marketing. Poprzednio pełnił rolę Chief Commercial Officera w Synerise (2018 -2021), jak też Chief Digital Officera w Orange (2015 – 2018). Wcześniej był członkiem zarządu SAS Institute (i jest założycielem spółki Persooa.
Magdalena Chudzikiewicz u steru home.pl
Magdalena Chudzikiewicz, dotychczasowa Chief Commercial Officer, została pełniącą obowiązki General Managera spółki. Przejęła zarządzanie operacyjne od Macieja Kornackiego, który odchodzi z firmy. Dotychczas odpowiadała za pion komercyjny i rozwój biznesu. Do zarządu home.pl dołączyła w październiku 2021 r. Ma doświadczenie w takich obszarach, jak: cyfrowy biznes, e-commerce, analityka danych, media i marketing online oraz zarządzanie i strategie biznesowe.
Maciej Bocian został Regional Sales Managerem w VAST Data, dostawcy rozwiązań do przechowywania danych. Będzie odpowiedzialny za rozwój i realizację strategii sprzedaży oraz wzmacnianie pozycji firmy w Europie Środkowej i regionie WNP. Maciej Bocian ma ponad 25 lat doświadczenia w branży. Przed dołączeniem do VAST Data pełnił role kierownicze w międzynarodowych firmach, odpowiadając za strategię sprzedaży, rozwój rynku i zarządzanie relacjami z kluczowymi klientami. Poprzednio był Country Managerem Pure Storage w Polsce oraz Europie Środkowej i Wschodniej (2017 – 2024), a wcześniej zajmował się rozwojem biznesu NetApp w Polsce, jako Sales Development Manager i Country Leader (2014 – 2017). Był także dyrektorem zarządzającym Bull Polska. Ponad 6 lat spędził w Cisco (2006 – 2012). W latach 1999 – 2006 pracował w IBM-ie.
n Bartosz Galoch w iIT Distribution Polska
Bartosz Galoch objął funkcję Product Managera w polskim oddziale iIT Distribution. Odpowiada za budowę kanału partnerskiego oraz promocję i realizację strategii sprzedaży rozwiązań CrowdStrike i SocRadar. Będzie wspierał partnerów w zakresie testowania rozwiązań i w fazie wdrażania projektów. Do jego zadań należy także prowadzenie szkoleń technicznych i sprzedażowych. Bartosz Galoch rozpoczął karierę w branży cyberbezpieczeństwa w 2016 r., jako specjalista do spraw handlowych w Dagmie. Przez ostatnie 4 lata współpracował z kluczowymi klientami i zajmował się rozwojem rozwiązań z obszaru PCSecure. Do zespołu dystrybutora dołączyła również Marta Domagała, jako specjalistka ds. marketingu.
Damian Siusta objął nowo utworzone stanowisko Country Business Development Managera w polskim oddziale Postis (rumuński dostawca technologii do optymalizacji kosztowej i operacyjnej tzw. ostatniej mili). Odpowiada za rozwój sprzedaży i partnerstw oraz oferty dostosowanej do wymagań polskich sprzedawców e-commerce. Damian Siusta od ponad 20 lat działa w branży ICT. Do Postis przeszedł z Cloudflight (wcześniej Divante).
Dominik Bocheński został wiceprezesem Atende Industries. Wcześniej rolę tę pełnił Mariusz Stusiński, który został prezesem Atende SA.Dominik Bocheński od początku swojej kariery zawodowej jest związany z Grupą Atende. Przez ostatnie 12 lat obejmował różne stanowiska, począwszy od kierownika projektów i zespołów, po dyrektora w dziale rozwiązań Smart Grid.
Dywizja Samsung Memory, wykazując się wyjątkową odpornością na przejściowe trudności na rynku półprzewodników, cały czas pozyskuje nowych partnerów i zwiększa przychody.
n Wojciech Urbanek
Trzecia edycja konferencji Samsung Memory Summit odbyła się pod koniec maja w Pabianicach. Producent dokonał podsumowania ubiegłego roku, przedstawił plany rozwoju na kolejne miesiące oraz nagrodził najlepszych partnerów. – Cały czas się rozwijamy, co jest możliwe dzięki naszym klientom, którzy coraz częściej wykorzystują pamięci flash do przechowywania i przetwarzania danych. Dotyczy to smartfonów i komputerów, a także pracujących
w centrach danych serwerów. Oczywiście, mimo dobrych symptomów, dostrzegamy również zawirowania na rynku – mówi Maciej Kamiński, dyrektor dywizji Samsung Memory w Polsce i regionie CEE. Ostatnie lata nie były zbyt łaskawe dla dostawców z branży półprzewodników. W czasie lockdownów natrafili na poważne trudności z dostępem do kluczowych komponentów. Choć była to też dla nich swojego rodzaju dobra lekcja tego, jak w krótkim
czasie i przy niesprzyjających okolicznościach zaspokoić potrzeby konsumentów. W dalszej kolejności dostawcy borykali się z problemem nadprodukcji, a co za tym idzie – obniżką cen półprzewodników.
– Oczekujemy na uspokojenie sytuacji, która zapewni nam stabilne przychody oraz perspektywy zaspokojenia potrzeb lokalnych rynków właściwymi produktami i w odpowiednim czasie. Zamierzamy wykorzystać nasze najlepsze karty, które w ciągu najbliższego roku pozwolą optymalnie prowadzić biznes i zaspokajać potrzeby klientów. Po pierwsze stawiamy na wydajność, po drugie na bezpieczeństwo, a po trzecie będziemy mówić i odwoływać się do przyszłości – podkreśla Maciej Kamiński.
Użytkownicy, którzy poszukują nośników flash, biorą pod uwagę kilka podstawowych parametrów, takich jak transfer, pojemność
„Cały czas rozwijamy kanał sprzedaży, a za nasze działania w tym zakresie zostaliśmy uhonorowani Certyfikatem
W ciągu ostatnich dwóch lat odnotowano spadek sprzedaży komputerów PC. W tym czasie trzeba było się też mierzyć z niedoborami, a potem nadwyżkami pamięci flash NAND. Na ile wymienione czynniki przeszkodziły Samsung Memory w realizacji planów sprzedażowych?
przychody niż rok wcześniej. I choć dostrzegamy pewne symptomy spowolnienia na rynku, patrzymy na to ze spokojem, bowiem naszą dużą siłą jest rozbudowane portfolio. Nie skupiamy się na sprzedaży wybranej grupy produktów – obok dysków SSD do komputerów oferujemy też dyski zewnętrzne, karty pamięci i nośniki przeznaczone do serwerów.
Channel Master 2024 przyznawanym przez CRN Polska” – mówi Maciej Kamiński, dyrektor dywizji Samsung Memory w Polsce i regionie CEE.
Maciej Kamiński Pomimo różnego rodzaju zawirowań ubiegły rok był dla nas udany. Stało się tak, ponieważ udało nam się wypełnić pewne luki nie tyle pod kątem dystrybucji, co partnerów. Cały czas rozwijamy kanał sprzedaży, a za nasze działania w tym zakresie zostaliśmy uhonorowani Certyfikatem Channel Master 2024 przyznawanym przez CRN Polska. Ponadto, wzmocniliśmy działania w branży retail. To wszystko pomogło nam dobrze funkcjonować w tych trochę zwariowanych czasach. Reasumując, ostatnie trzy lata przyniosły nam wzrosty sprzedaży, a co ważne, również w pierwszym kwartale bieżącego roku odnotowaliśmy wyższe
Kiedy rozmawialiśmy rok temu, mówiłeś, że właśnie dyski zewnętrzne mają bardzo duży potencjał wzrostu. Czy w tym segmencie rynku nośniki SSD wypierają dyski mechaniczne? W ciągu ostatnich 4–5 lat dyski półprzewodnikowe znacznie potaniały. Nawet ostatnie podwyżki cen nie zmieniły faktu, że takie nośniki są znacząco tańsze niż kilka lat temu. Co istotne, mogą przechowywać coraz więcej danych – nawet do 8 TB. Przy czym ich nabywcy stanowią bardzo zróżnicowaną grupę: są to zarówno profesjonaliści, którzy kręcą filmy czy tele-
czy interfejs. Samsung Electronics dąży do tego, aby wprowadzane na rynek dyski cechowały się wydajnością oraz stabilnością. – To efekt bardzo precyzyjnych procesów, które na co dzień przebiegają w Samsung Memory. Czynnikiem powiązanym z wydajnością jest pojemność. Użytkownicy potrzebują coraz więcej miejsca na przechowywanie swoich ważnych danych. Naszą odpowiedzią jest poszerzanie portfolio o produkty, w tym karty microSD o pojemności 1 TB – mówi Radosław Szulik, Samsung Senior Product & Operations Unit Manager w Samsung Memory. Koreański producent oferuje jedną z najszerszych na rynku ofertę nośników NVMe, w tym dyski 990 PRO o pojemności 4 TB. Samsung aktywnie włączył się do rywalizacji w segmencie dysków zewnętrznych, gdzie wciąż bardzo silną pozycję posiadają HDD. Zapis danych na nośniku to połowa sukcesu, ważne, żeby były one również bezpieczne. Samsung szyfruje wszystkie dyski 256-bitowym kluczem AES, który obecnie jest nie do złamania. Radosław Szulik zwraca uwagę, że niemniej istotne jest bezpieczeństwo
całej produkcji, a ta ma miejsce wyłącznie w fabrykach Samsung Electronics.
Trzy powody do zaufania
Dywizja Samsung Memory z centralą umiejscowioną w Warszawie odpowiada za sprzedaż dysków w jedenastu krajach Europy Południowo-Wschodniej. W ubiegłym roku jej produkty dotarły do ponad 2,8 tys. unikalnych klientów w regionie, z czego 25 z nich podpisało z Samsung Memory umowy o współpracy.
–Myślę, że firmy obdarzają nas zaufaniem z trzech powodów. Pierwszym z nich są jasne zasady współpracy. Drugi to stabilność i przewidywalność biznesu. Trzecim, a zarazem najważniejszym czynnikiem jest wspólnota celów z partnerami – wyjaśnia Nikita Aleksandrowski, Key Account Manager w Samsungu.
Samsung Memory patrzy w przyszłość z optymizmem, a jedną z przesłanek jest rosnąca liczba twórców cyfrowego contentu. – Kolejne modele smartfonów, nowe urządzenia wchodzące do codziennego użytku,
dyski, jak i firmy bądź instytucje tworzące kopie zapasowe dla kluczowych danych, a jednym z przykładów jest polska armia. Natomiast jeśli chodzi o rywalizację zewnętrznych dysków półprzewodnikowych z mechanicznymi, to następuje tutaj zmiana warty i ten trend jest nieodwracalny. W każdym razie punkt przecięcia jest już za nami. Rynek rozsmakował się w zewnętrznych nośnikach flash, co doskonale widać chociażby w sklepach, gdzie na półkach pojawia się coraz więcej tych dysków i nie pochodzą one wyłącznie od jednego producenta.
Bieżący rok przyniósł wzrost cen pamięci flash. Według analityków w drugim kwartale 2024 roku może on osiągnąć poziom nawet 15 procent. Jak patrzysz na te prognozy?
ponieważ pewne komponenty były już za tanie. Erozja cenowa to też wynik działań dystrybutorów, którzy wyprzedawali swoje zapasy magazynowe, żeby szybko wrócić do normalności – rynek był już naprawdę mocno rozchwiany. Sukcesywne podnoszenie cen powoduje, że można wreszcie zarabiać na sprzedaży, a konkurencja nie sprowadza się do zaoferowania najtańszego produktu. Dlatego uważam, że z ekonomicznego punktu widzenia podwyżki nie są zjawiskiem złym, a naturalny proces samoregulacji rynku wszyscy gracze przyjmują ze zrozumieniem, ponieważ właśnie na to czekali.
jak drony, kamery sportowe jak go-pro, wideorejestratory, aparaty fotograficzne, kamery, tablety czy powszednie laptopy wraz z mediami społecznościowymi sprawiły, że codziennie dzielimy się treściami – bariera wejścia została zniesiona. Biorąc pod uwagę, że w ciągu sekundy na social media trafia 55 tys. zdjęć, zaś w trakcie doby materiałów tych publikowanych jest ponad 4,7 mld, zdamy sobie sprawę z wręcz gargantuicznego zapotrzebowania na pojemne i wydajne nośniki pamięci – podsumowujeAgata Woźniak, Marketing Manager w Samsung Memory.
Na rynku dysków następuje zmiana warty.
Niestety, w ostatnim czasie mocno podrożały surowce. Ceny wafla krzemowego poszybowały w górę i nie da się go tanio wyprodukować. Po części jest to pokłosie walki o zasoby, których firmy potrzebują, aby budować modele sztucznej inteligencji, a ponadto ten wzrost jest również związany z powrotem do normalności,
A skoro pojawił się temat sztucznej inteligencji, to wiele wskazuje na to, że w najbliższych latach komputery powrócą na ścieżkę wzrostu, głównie dzięki technologii AI PC. Czy dostawcy dysków półprzewodnikowych znajdą się wśród największych beneficjentów tego trendu? I jak to wpłynie na rynek pamięci?
Myślę, że będzie to miało bardzo duży wpływ na nasz segment rynku. Na pewno wzrosną wymagania wobec pamięci operacyjnej w komputerze, co z jednej strony dotyczy większych pojemności, a z drugiej szybkości. Ciekawe perspektywy rysują się przed pamięciami niskoprądowymi, które już dziś znajdują zastosowanie w niektórych rozwiązaniach, ale się o tym głośno nie mówi. Cały czas rośnie zapotrzebowanie w komputerach na pamięci RAM bądź DRAM. Na chwilę obecną 8 GB nie wystarcza, więc pojawiają się moduły o pojemności 16 i 32 GB, a to jeszcze nie koniec wyścigu. Nie mam przy tym wątpliwości, że wzrośnie pojemność dysków SSD. Wprawdzie część klientów korzysta z usług chmurowych, ale czas małych pojemności w komputerach PC już się skończył. Urządzenie ma służyć użytkownikowi przez kilka lat, stąd nośniki powinny posiadać większą powierzchnię dyskową niż 256 GB. Dystrybutorzy oraz resellerzy dostrzegają pojawienie się AI PC, a także w ogóle sztuczną inteligencją jako nową gałąź gospodarki, której nie można przegapić i która charakteryzuje się dużym potencjałem biznesowym.
O tym, że wchodzimy w nową erę branży IT, świadczy obecność prezesów wszystkich największych producentów chipów – Intela, AMD, Nvidii i Qualcomma – na targach Computex 2024, organizowanych pod hasłem „Connecting AI”.
Osoby, które od dawna obserwują branżę IT, odwiedzając targi Computex 2024 oraz słuchając wystąpień podczas towarzyszącej im konferencji, nie mogły pozbyć się swoistego déjà vu. Dotyczyło ono sytuacji sprzed kilkunastu lat, gdy nagle wszyscy producenci zaczęli mówić o chmurze obliczeniowej, często nie będąc nawet świadomymi istoty materii, którą prezentują. Tak jak wtedy, gdy firmy z kanału dystrybucyjnego zastanawiały się, czy model usługowy będzie błogosławieństwem, czy też raczej przekleństwem dla ich biznesu (na szczęście, okazał się po prostu jednym z narzędzi IT), tak i teraz ich niepewność może dotyczyć sztucznej inteligencji. O randze wydarzenia świadczyła obecność największych nazwisk z branży wyso-
n Krzysztof Jakubik, Tajpej
kowydajnego przetwarzania danych. Nvidia pierwotnie w ogóle nie planowała obecności na targach Computex, ale widząc zaangażowanie swojej konkurencji na parę tygodni przed imprezą zamiast dużej sali konferencyjnej wynajęła… halę sportową, a prezentujący nowe rozwiązania prezes Jensen Huang wypełnił ją po brzegi. Ciekawostką jest to, że Tajwańczyk zyskuje obecnie podobny status, jakim niegdyś cieszyli się Bill Gates czy Steve Jobs. Producenci komputerów, serwerów i kart graficznych bazujących na układach Nvidii z dumą prezentowali podpisane przez Huanga urządzenia.
Równie duże zainteresowanie przyciągnęły – organizowane już według oryginalnego harmonogramu – prezentacje prezesów pozostałych producentów układów. Lisa Su
n AMD: bazujące na architekturze Zen 5 procesory desktopowe Ryzen 9000 oraz serwerowe EPYC (192 rdzenie), nowe CPU z rodziny Ryzen 5000 (do instalacji w podstawce AM4), wspierająca przetwarzanie AI platforma Versal AI Edge Series 2, układy NPU z rodziny Ryzen AI 300, procesory GPU dla centrów danych Instinct MI325X
n Intel: układy NPU z rodziny Lunar Lake, procesory serwerowe Xeon 6 E-Core
n Nvidia: serwerowa platforma referencyjna MGX dla serwerów z procesorami
GPU Blackwell (a wkrótce także Intel Xeon 6 P-core oraz AMD EPYC “Turin”)
z AMD (też Tajwanka!) oraz Pat Gelsinger z Intela ogłosili premierę nowych układów wspierających pracę aplikacji bazujących na sztucznej inteligencji (szczegóły w ramce poniżej) oraz zaprezentowali kilka modeli komputerów AI PC. Natomiast Cristiano Amon z Qualcomma skupił się na prezentowaniu możliwości zapewnianych przez komputery z funkcją Microsoft Copilot+, bazujące na procesorach z rodziny Snapdragon X.
Oczywiście każda firma pokazywała precyzyjnie dobrane badania „udowadniające”, że jej nowe układy są znacznie szybsze niż konkurencyjne. Jedynie Qualcomm w dużej mierze skupił się na efektywności energetycznej i długim czasie pracy laptopa na zasilaniu bateryjnym, gdyż – jako doświadczony producent układów dla urządzeń mobilnych – ma w tej dziedzinie dość dużą przewagę. Wyzwaniem natomiast pozostaje fakt, że wciąż niewiele aplikacji opracowano z myślą o procesorach Arm.
Nietrudno odnieść wrażenie, że to jednak nie producenci układów będą największymi beneficjentami obecnego boomu na sztuczną inteligencję – wszak przed nimi czasy wyniszczającej konkurencji w obliczu faktu, że duopol Intel-AMD został wreszcie przełamany. Podczas prezentacji Intela, AMD i Qualcomma doszło do kuriozalnej sytuacji, wzbudzającej śmiech, ale i trochę poczucie zażenowania wśród gości na sali. W trakcie każdego wystąpienia na scenę byli zapraszani ci sami przedstawiciele producentów komputerów (m.in. Lenovo, HP, Dell, Asus), zaś swoje wideo w trzech różnych wersjach (ale na tym samym tle…) nagrał Satya Nadella. Wszyscy – w tych samych słowach, ale zmieniając nazwę producenta układów – mówili o tym, jak ważne dla nich jest partnerstwo z daną firmą oraz jakie wspólnie będą mogli oni oraz klienci odnosić wkrótce korzyści. Dlatego za prawdziwych beneficjentów (przynajmniej w najbliższym czasie) należy uważać firmy, które dzięki nowym układom i takim funkcjom jak Copilot+, dostaną marketingowego wiatru w żagle.
Od pewnego czasu mamy do czynienia z eksplozją popularności sztucznej inteligencji. Jakie tego typu mechanizmy są obecne w rozwiązaniach Synology i jakie w tej kwestii macie plany na przyszłość? Obsługa mechanizmów GenAI w serwerach NAS spowodowałaby ogromny wzrost kosztów ich produkcji, nie widzę też ciekawego zastosowania biznesowego, a przynajmniej takich zapytań nie słyszymy na tym etapie od klientów. W naszym pakiecie Synology Office Suite umożliwiamy integrację poprzez API z modelami OpenAI, Microsoft Azure AI oraz Google Gemini, ale użytkownicy muszą sami zadbać, aby wykupić właściwą subskrypcję w tych usługach. Natomiast oczywiście mechanizmy sztucznej inteligencji są obecne w różnych produktach Synology, chociażby rozwiązaniu Active Insight, mechanizmach rozpoznawania ataku ransomware, jak też oprogramowaniu do wideomonitoringu.
Synology zaprezentowało właśnie specjalne macierze do backupu. Czym różnią się one od zwykłych serwerów NAS, które – wraz z dodatkowym oprogramowaniem – można przecież wykorzystać jako repozytorium kopii zapasowych z różnego rodzaju rozwiązań?
Urządzenia z rodziny ActiveProtect powstały w reakcji na sugestie naszych klientów, którzy twierdzą, że backup jest dla nich jednym z najważniejszych procesów w ich przedsiębiorstwach. Dlatego stworzyliśmy klasyczne rozwiązanie typu pur-
„Stworzyliśmy klasyczne rozwiązanie typu purpose-built backup appliance, którego wyróżnikiem jest własny, nowy system operacyjny oraz charakterystyczna dla Synology bardzo prosta obsługa” – mówi Jason Fan, Product Management Team Manager w Synology.
pose-built backup appliance, którego wyróżnikiem jest własny, nowy system operacyjny oraz charakterystyczna dla Synology bardzo prosta obsługa. Może ono stanowić centralne repozytorium kopii zapasowych, współpracujące ze wszystkimi możliwymi źródłami danych – urządzeniami końcowymi, serwerami, wirtualizatorami, innymi systemami pamięci masowej, bazami danych oraz usługami Microsoft 365 i Google Workspace. Każde urządzenie ActiveProtect może działać samodzielnie lub w trybie zarządzania klastrem, a jego pojemność można rozszerzać za pomocą rozwiązań Synology NAS/SAN, usług C2 Object Storage oraz innych urządzeń ActiveProtect w klastrze.
Na razie zaprezentowany został jeden model urządzenia ActiveProtect – czy planowane jest rozszerzenie tej oferty?
Oczywiście, chcemy jednak najpierw poznać pierwsze opinie klientów. W tej chwili rozwiązanie to ma status wersji beta i zapoznają się z nim pierwsi użytkownicy. Do masowej sprzedaży trafi w ciągu kilku miesięcy. Wówczas podejmiemy decyzję, czy jego maksymalna pojemność, która obecnie wynosi 140 TB, powinna być jeszcze większa. Być może pojawi się też zainteresowanie mniejszymi urządzeniami, wdrażanymi w oddziałach firm, którymi będzie można zarządzać centralnie.
W jakim modelu rozwiązanie to będzie oferowane w kanale dystrybucji? Dokonywane u integratorów zamówienia na produkty ActiveProtect będą – za pośrednictwem dystrybutorów – trafiały do Synology. Będą one dostarczane razem z nośnikami HDD lub SSD w komplecie, według zamówionej specyfikacji. Zdecydowaliśmy, żeby klienci nie mogli ich samodzielnie dobierać ze względu na fakt, że mamy do czynienia z najbardziej newralgicznym dla ich biznesu obszarem, a więc bezpieczeństwem ich danych. Natomiast, aby zminimalizować ryzyko uszkodzenia nośników w trakcie transportu, będą one dostarczane w oddzielnym opakowaniu i instalowane na miejscu przez klienta.
Podczas spotkania „Synology Solution Exhibition” w Tajpej pokazaliście też po raz pierwszy własną obiektową pamięć masową…
Tak, to urządzenie trafi do oferty w przyszłym roku, ale już teraz chcemy pokazać naszym biznesowym klientom, że warto na nie czekać. To macierz dyskowa DS6200 oferowana w modelu scale-out, dzięki któremu dodanie każdego kolejnego węzła zwiększa nie tylko pojemność, ale także wydajność. System ten umożliwi połączenie w klaster od 3 do 96 węzłów, które zapewnią do 20 PB przestrzeni na pliki i obiekty. Obsługiwane będą trzy najpopularniejsze protokoły – SMB, NFS oraz S3. Łączność pomiędzy węzłami będzie odbywała się poprzez specjalnie przygotowany do tego celu przełącznik z portami o maksymalnej przepustowości 100 GbE.
Fala cyberataków nie ustaje, a zdaniem WithSecure w szczególnie trudnej sytuacji znajdują się małe i średnie firmy. To one w obecnych czasach wymagają najsilniejszego wsparcia ze strony dostawców rozwiązań, a także integratorów.
Wtegorocznej konferencji WithSecure Sphere24 wzięło udział 700 osób z całego świata, w tym 70 analityków i dziennikarzy. Na scenie tradycyjnie, oprócz prelegentów z fińskiej firmy, pojawili się przedstawiciele świata nauki i politycy. W tym roku gośćmi specjalnymi byli między innymi prof. Anu Bradford, autorka książki „Digital Empires: The Global Battle to Regulate Technology”, a także Toomas Hendrik, były prezydent Estonii, którego wystąpienie dotyczyło cyberbezpieczeństwa jako geopolitycznego wyzwania Europy.
Wydarzenie otworzył Antti Koskela, CEO WithSecure, który zwrócił uwagę na fakt, że mimo wielu obietnic składanych przez specjalistów ds. cyberbezpieczeństwa, świat staje się coraz bardziej podatny na cyberzagrożenia. Co gorsza, niektórzy przedsiębiorcy wręcz tracą zaufanie do technologii cyfrowych. W tyle pozostają zwłaszcza małe i średnie przedsiębiorstwa, często działające według strategii, które są nieprzystosowane do obecnych realiów. Po drugiej stronie barykady znajdują się coraz bardziej zuchwali, jak też idący z duchem czasu, cyberprzestępcy… – Napastnicy potrafią przeskanować cały internet w ciągu kilku godzin pod kątem
luk w zabezpieczeniach bądź otwartych i podatnych na ataki portów. Poza tym działają według nowoczesnych i skutecznych modeli biznesowych, czego świetnie dowodzi sukces ransomware as a service. Co gorsza, gangi sprzedają w sieci swoje hakerskie narzędzia i każdy może zostać cyberprzestępcą. Co istotne, napastnicy nie dyskryminują swoich celów ze względu na wielkość – mówi Antti Koskela. Cyberprzestępcy atakują w sposób „demokratyczny”, a więc niezależnie od rodzaju działalności ofiary, ani jej wielkości. Nie zaskakuje przy tym opinia WithSecure, że w stosunkowo dobrej sytuacji znajdują się duże przedsiębiorstwa, które stać na inwestycje w rozwiązania do ochrony sieci i danych. Z myślą o tej grupie odbiorców powstaje też więcej narzędzi bezpieczeństwa IT niż w przypadku mniejszych organizacji.
– Duzi gracze technologiczni wspierają mit „więcej znaczy więcej”. Rozumiem ich, bo to jest korzystne dla prowadzonego przez nich biznesu. Jednak prowadzi do tego, że średnie przedsiębiorstwa pozostają bez dobrego, opłacalnego wyboru, niezależnie od tego czy chodzi o ich cyberochronę czy też wymogi regulacyjne – przekonuje Antti Koskela. WithSecure wychodzi do małych i średnich przedsiębiorstw z konkretnymi propozycjami, stawiając na proaktywne podejście do ochrony. Jedną z nich jest Exposure Management – narzędzie bazujące na sztucznej inteligencji, które rekomenduje sposoby naprawy nowych punktów. Oprogramowanie potrafi wskazać potencjalne zagrożenia uwzględniając zasoby chmurowe konta użytkowników czy urządzenia końcowe. Kolejna nowinka to narzędzie generatywnej sztucz-
nej inteligencji Luminen, którego algorytmy zapewniają pogłębioną analizę incydentów bezpieczeństwa oraz bogatszy kontekst. Autorem Luminena jest Leszek Tasiemski, wiceprezes WithSecure.
– Zaletą tego narzędzia jest silnik AI zbierający dane o wszystkich zdarzeniach, aczkolwiek nie serwuje on suchej informacji, lecz robi to w sposób bardziej narracyjny. Nie jest to rozwiązanie dla laików, aczkolwiek stanowi wsparcie dla osób stawiających pierwsze kroki w branży i dysponujących podstawową wiedzą. Co ważne, korzystają z niego też profesjonaliści, a informacje dostarczane przez Luminena pozwalają im między innymi szybko zamknąć fałszywe alarmy – tłumaczy Leszek Tasiemski.
Nie zatrzymamy innowacji
Mikko Hyppönen, dyrektor ds. rozwoju w WithSecure, w wystąpieniu kończącym konferencję, nawiązał do innowacji istniejących w świecie nowych technologii. Podkreślał, że niestety, nie można z nich jedynie czerpać korzyści, bowiem niosą ze sobą szereg negatywnych konsekwencji.
Przedsiębiorcy tracą zaufanie do technologii cyfrowych.
Fin zwrócił uwagę między innymi na szyfrowanie, które z jednej strony pozwoliło chronić dane, zaś z drugiej posłużyło cyberprzestrzępcom. Gdyby nie silne technologie szyfrowania, gangi ransomware nie miałyby dziś pracy – przyznał Miko Hyppönen. Co gorsza, silne szyfrowanie jest ściśle powiązane z innym „wspaniałym, a jednocześnie okropnym zjawiskiem”, jakim są kryptowaluty.
Niestety, przyszłość nie rysuje się w jasnych barwach, zwłaszcza, że na horyzoncie pojawiły się sztuczna inteligencja i komputery kwantowe. Te ostatnie otwierają zupełnie nowe możliwości w zakresie obliczeń, a jedną z konsekwencji będzie możliwość złamania dużej części stosowanych obecnie algorytmów szyfrowania.
Nie ma ucieczki od wykorzystania sztucznej inteligencji do automatyzacji procesów zarządzania informacją w firmach – podkreślali przedstawiciele PFU Ricoh podczas dorocznej konferencji partnerskiej.
Zorganizowana przez PFU Ricoh w połowie maja konferencja ICC9 (9th Information Capture Conference) dla partnerów z regionu EMEA była okazją do podsumowania zmian, jakie w ostatnich latach, m.in. z powodu pandemii, zaszły na rynku rozwiązań do cyfryzacji i przetwarzania dokumentów. Z oczywistych powodów prezentacje i rozmowy zdominował temat wykorzystania sztucznej inteligencji do optycznego rozpoznawania tekstu (OCR) oraz zarządzania dokumentami i zgromadzonymi w nich informacjami.
Poprzednia edycja konferencji ICC miała miejsce w lutym 2020 r. w Berlinie. Od tego czasu wiele się zmieniło zarówno w globalnym stylu pracy, jak też w samej firmie PFU. 1 września 2022 r. większościowym (80 proc.) udziałowcem tego japońskiego producenta stała się Grupa Ricoh, która odkupiła pakiet akcji od Fujitsu (w rękach Fujitsu Limited pozostało 20 proc.). Od tego momentu trwał zakończony kilka miesięcy temu proces rebrandingu, a obecnie wszystkie rozwiązania dostępne są pod marką Ricoh. – Niedawno przeprowadziliśmy ankietę wśród partnerów na temat ich przejścia do Ricoha. Świadomość tego faktu zadeklarowało 95 proc. respondentów, a 85 proc. stwierdziło, że poleciłoby markę Ricoh.
Pozostaje jednak wiele do zrobienia: 50 proc. partnerów wciąż prosi o więcej informacji na temat zmiany marki – powiedział podczas swojej prezentacji Simon Edwards, dyrektor generalny ds. marketingu w PFU EMEA.
Zdalnie, ale efektywnie
Okres lockdownów odcisnął trwałe piętno na modelu wykonywania służbowych obowiązków. Niektóre firmy potraktowały możliwość pracy zdalnej jako okazję do oszczędności na operacyjnej działalności biura, na inne zaś silną presję wywierają pracownicy, którzy polubili komfort pracy z domu. Przy czym w obydwu przypadkach, aby zachować produktywność, konieczne jest zapewnienie elastycznego zdalnego dostępu do firmowych zasobów, wprowadzania do nich ucyfrowionej wersji papierowych dokumentów, a także uczestniczenie w wirtualnych spotkaniach. PFU Ricoh wykorzystuje tę okoliczność do rozszerzenia swojego portfolio. Do oferty firmy trafiła nowa linia produktów o nazwie Ricoh Smart Meeting Devices, składająca się z przenośnych 15,6-calowych monitorów OLED, biurowych projektorów laserowych oraz inteligentnych kamer internetowych in-
Wraca popyt na skanery dokumentowe.
n Krzysztof Jakubik, Dubaj
ternetowych Ricoh 360 Meeting Hub (będą dostępne w lipcu br.). Filarem portfolio pozostają jednak skanery dokumentowe. Jak podkreślali przedstawiciele producenta, popyt na nie powraca do poziomu sprzed 2020 r., pomimo problemów z łańcuchami dostaw. Natomiast przechodzenie firm z ery cyfryzacji do ery hiperautomatyzacji powoduje, że skanowanie, rozpoznawanie i archiwizowanie dokumentów musi być w pełni automatycznym i bardzo wydajnym procesem, co pozwoli zaoszczędzić pieniądze, zasoby i miejsce. Powinno to być w dużej mierze niezauważalne dla użytkowników lub wpływać tylko w znikomym stopniu na ich produktywność. Dlatego konieczne jest wprowadzenie do całego procesu mechanizmów AI/ML, aby nie tylko zagwarantować automatyzację (w tym na przykład odczytywanie tekstów pisanych odręcznie), ale także umożliwić szybsze i dokładniejsze podejmowanie decyzji biznesowych.
Ważnym elementem konferencji ICC9 była prezentacja Christophe’a Laurence’a, dyrektora działu rozwoju biznesu PFU Ricoh w regionie EMEA, który przedstawił koncepcję tworzenia przez integratorów cyfrowych archiwów papierowych dokumentów (eVault) w celu ich długoterminowego bezpiecznego przechowywania. Mają być one wdrażane w zgodzie z normą ISO/TC 171/ SC 1, standaryzującą sposób tworzenia metadanych dla cyfrowych obiektów. Analitycy agencji Data Bridge Market Research przewidują, że światowy rynek tego typu rozwiązań będzie wart w 2030 r. prawie 2 mld dol., przy średniej rocznej stopie wzrostu wynoszącej 13,28 proc.
Po trudnym 2023 roku, jak też rozczarowującym początku bieżącego, europejska dystrybucja zaczyna wychodzić z dołka. Proces ten na dobre przyspieszy jednak dopiero w trzecim kwartale, przy czym na polskim rynku jeszcze później, bo dopiero w pierwszych miesiącach przyszłego roku.
n Tomasz Gołębiowski, Amsterdam
Niezmiennie wierzę w potencjał dystrybucji, która w minionych, trudnych latach z naddatkiem dowiodła swojej wartości na szybko ewoluującym rynku IT – podkreśla Frank Vitagliano, prezes Global Technology Distribution Council, gospodarz GTDC Summit, które zgromadziło producentów, dystrybutorów i analityków z regionu EMEA. Dobremu nastrojowi, jaki panował wśród uczestników tegorocznej edycji wydarzenia, sprzyjały dość optymistyczne prognozy odnośnie do przychodów europejskiego sektora dystrybucji w kolejnych kwartałach, po wymagającym 2023 roku, kiedy to – według danych Contextu – rok do roku wartość sprzedaży spadła o 4,9 proc.
a także – choć z wyraźnie niższą dynamiką – tzw. sieciówki (+1 proc. w III kw.).
Niestety, wyraźnie gorzej zapowiada się koniunktura w polskim sektorze dystrybucji. Nie dość, że pierwsza połowa tego roku ma zakończyć się – zgodnie z przewidywaniami Contextu – 4-procentowym spadkiem, to druga połowa ma być „płaska” (zerowy wzrost), a poprawy sytuacji, na poziomie 4 proc., spodziewać się można najwcześniej w I kw. przyszłego roku.
89 proc. partnerów wyraża satysfakcję ze współpracy z dystrybutorami.
W tym roku o spadkach mamy powoli zapominać w oczekiwaniu na poprawę koniunktury w roku 2025. Przy czym światełko w tunelu świeci najjaśniej dla dystrybutorów w Niemczech, Wielkiej Brytanii, Włoszech i krajach nordyckich. W przypadku naszego zachodniego sąsiada mamy coś w rodzaju powrotu z zaświatów, po 12-procentowym spadku w sektorze dystrybucji w I kw. tego roku. Począwszy jednak od trzeciego kwartału, sprzedaż ma rosnąć do poziomu 5 proc. w pierwszych trzech miesiącach 2025 roku. Tymczasem już od lipca br. na Starym Kontynencie ma ruszyć z kopyta sprzedaż pecetów (+8 proc. w III kw.),
Niezależnie od zmagań z koniunkturą, dystrybutorzy muszą dostosowywać swoje działania do modelu as-aservice oraz rosnącej konkurencji ze strony tak zwanych marketplace’ów. – Tym bardziej należy docenić, że według danych Channelnomics 89 procent partnerów wyraża satysfakcję ze współpracy z dystrybutorami, przy mniejszym, bo 75-procentowym odsetku zadowolonych producentów – mówi Frank Vitagliano. Tymczasem tuż za rogiem „czai się” widmo raportowania w ramach ESG, zgodnie z dyrektywą CSRD. Unijny, biurokratyczny żargon skrywa kosztowne procesy, które mają zostać wdrożone najpierw w największych spółkach giełdowych, ale z czasem będą też dotyczyć ich poddostawców, a więc wielu małych i średnich firm. W tym kontekście nie można prze-
cenić roli dystrybutorów, którzy agregują całą masę transakcji w ramach łańcucha dostaw w branży technologicznej.
– Dlatego, na potrzeby całego sektora IT, podjęliśmy się próby znalezienia sposobu na przejrzyste raportowanie poszczególnych danych dotyczących refabrykacji, utylizacji, śladu węglowego czy zużycia energii. Tak, aby w ten sposób stworzyć możliwość łatwego porównywania wielu produktów różnych marek i prowadzić klarowne zestawienia zgodnie z wymaganiami regulatorów – podkreślał Dominique Deklerck, Sustainability Project Lead w GTDC.
Wtórowała mu Melati Wijsen, aktywistka i założycielka Bye Bye Plastic Bags, przekonując, że „zrównoważony rozwój to już nie puste hasło czy kolejna polityka CSR do odhaczenia przez działy HR, ale konieczność, która powinna być zaszyta w DNA każdej organizacji”.
Tymczasem o uwagę od pewnego czasu „krzyczy” sztuczna inteligencja, która – jak między innymi zapewniają analitycy IDC – nie jest kolejnym tzw. buzz wordem, ale realną szansą na zmianę obszaru nie tylko rynku IT, ale całej światowej gospodarki.
– Mamy 37 miliardów powodów do rozmowy na ten temat, bo na tyle właśnie, licząc w dolarach, szacujemy wartość rynku generatywnej sztucznej inteligencji w regionie EMEA w 2027 roku, co byłoby ponadprzeciętnym rezultatem w porównaniu do oczekiwanych 8 miliardów w tym roku
– podkreślał Philip Carter, Worldwide Thought Leadership Research w IDC. Niemniej, zanim poszczególni gracze rynkowi staną się benefi cjentami najnowszego trendu, muszą odpowiedzieć na szereg wyzwań. Jednym z nich jest brak odpowiedniej liczby wykwalifikowanej kadry, a kolejnym odpowiedź na pytanie jak wyceniać usługi oparte o GenAI. Ponadto, paradoksalnie, kwestie umiejętności technicznych będą z czasem ustępować tzw. umiejętnościom miękkim. – Pojawi się paląca potrzeba zarządzania relacjami na linii człowiek-sztuczna inteligencja. Trzeba będzie znaleźć sposób, aby zachęcać firmowe zespoły do współpracy z AI – podkreślał Philip Carter.
Co więcej, kwestia odpowiedzialności za ewentualne błędy popełnione przez mechanizmy AI spowoduje, że trzeba będzie ten aspekt uwzględnić w umowach SLA, co na pewno nie będzie łatwe.
Na istotny aspekt, w kontekście AI, zwróciła uwagę Tatjana Wismeth, Head of Distribution & Supply Chain Intelligence w GfK, która zachęca producentów do zwiększania wysiłków w celu sprecyzowania zalet sztucznej inteligencji w konkretnych zastosowaniach.
– Z naszych badań wynika, że jesteśmy w miejscu, w jakim znajdowaliśmy się na początku trendu smart home, kiedy konsumenci nie bardzo rozumieli, w czym rzecz, choć teraz jest to dla większości z nich w pełni zrozumiałe – mówi Tatjana Wismeth. Tegoroczne dane GfK wskazują, że 43 proc. potencjalnych użytkowników nie
dostrzega żadnych korzyści płynących ze stosowania AI PC, a 42 proc. jest niepewnych co do kwestii bezpieczeństwa i prywatności. Kolejne 33 proc. krzywi się na wysokie ceny takich modeli, a 21 proc. zwraca uwagę, że w razie potrzeby korzysta z narzędzi AI on-line, za pomocą „starego” peceta.
Na sytuację w branży IT, w tym sektora dystrybucji, niezaprzeczalny wpływ ma sytuacja polityczna i gospodarcza na świecie, który obecnie wydaje się przeżywać więcej jednoczesnych wstrząsów niż miało to miejsce przez większość czasu, począwszy od lat 90-ych. Próbę syntezy globalnej sytuacji podjęła Emily Mansfield, Principal Economist for Europe w agencji badawczej EIU, powołanej przez dziennik „The Economist”. Poza dość oczywistymi wyzwaniami, związanymi z przedłużającą się wojną na Ukrainie i konfliktem bliskowschodnim, jak też niepewnym wynikiem wyborów prezydenckich w Stanach Zjednoczonych, Emily Mansfi eld zwróciła uwagę na powrót polityki polegającej na stymulowaniu procesów gospodarczych przez poszczególne rządy. W tym kontekście pierwsze skrzypce, wzorując się na przykładzie Chin, zaczęła odgrywać Unia Europejska w ramach tzw. zielonego ładu. Przy czym w ten sposób wpadła
w pułapkę rosnących kosztów, które powodują spadek konkurencyjności unijnej gospodarki, a jednocześnie uzależnia się od dostaw metali rzadkich spoza UE (głównie z Chin).
Z drugiej strony zarówno Bruksela, jak i Waszyngton próbują zabezpieczyć się przed ewentualnymi skutkami chińskiego ataku na Tajwan (według „The Economist” to w najbliższych latach bardzo mało prawdopodobny scenariusz), przenosząc produkcję na swoje terytorium lub tereny przygraniczne, na czym zyskują takie państwa, jak chociażby Meksyk. W przypadku fabryk procesorów, mimo dużych środków finansowych, poparcia rządów i zaangażowania ze strony poważnych graczy biznesowych, cały proces idzie opornie, między innymi z powodu trudności ze znalezieniem wykwalifikowanej siły roboczej.
Konkurencyjność
Unii
Europejskiej spada na własne życzenie.
Podsumowując, z analiz „The Economist” wynika, że w tym roku najszybciej będzie się rozwijać region Azji i Pacyfiku, zaś najwolniej Europa. Globalny wzrost gospodarczy w latach 2025–28 ma wynosić 2,8 proc. rocznie, jeśli zaś chodzi o światowy rynek IT, to w okresie 2024–25 czynnikami wzrostu ma być wymiana pecetów w związku z cyklem życia produktów i końcem wsparcia dla Windows 11, jak też rosnące możliwości (i tym samym zapotrzebowanie) rozwiązań wykorzystujących potencjał sztucznej inteligencji. n
Zaprezentowane podczas tegorocznego New Product Training nowości wskazują na sztuczną inteligencję jako kluczowy kierunek innowacji w rozwiązaniach Lenovo.
Tegoroczny Lenovo New Product Training – jedno z największych i najważniejszych wydarzeń branżowych – zgromadził ponad 300 partnerów partnerów handlowych i dystrybutorów, którzy mieli okazję zapoznać się z szeroką paletą produktów i planami vendora, jak również porozmawiać o biznesie z liczną reprezentacją dyrektorów oraz menadżerów Lenovo ze wszystkich działów.
Jednym z głównych motywów była komplementarna oferta, którą partnerzy mogą zaoferować użytkownikom końcowym zgodnie z ideą one-stop shop. Powiększanie grona partnerów, którzy oferują cały asortyment, jest jednym z celów Lenovo.
– One-stop shop to unikatowa oferta, dzięki której jesteśmy w stanie zrealizować wszystkie zamówienia, jeśli chodzi o infrastrukturę, począwszy od telefonów, poprzez UC, aż po serwery – podkreślił Wojciech Zaskórski, dyrektor generalny Lenovo w Polsce.
Zaprezentowane podczas tegorocznego Lenovo New Product Training dane wskazują, że idea one-stop shop wyjątkowo dobrze sprawdza się w kanale sprzedaży, o czym świadczy między innymi stale powiększające się grono firm współpracujących z producentem – w minionym roku liczba partnerów OL urosła ponad dwukrotnie. Przy czym emanacją działania w modelu one-stop shop jest wspierający ofertę end-to-end program Lenovo360.
– To jest świetne rozwiązanie do podnoszenia kompetencji, a także wzrostu zysków – powiedział Tomasz Klewinowski, SMB & Channel Director w Lenovo Polska.
Co istotne, dane potwierdzają, że rośnie wartość sprzedaży w kanale partnerskim Lenovo. W IV kw. finansowym 2023/24 (I kw. 2024 r.) lokalny oddział producenta osiągnął dwucyfrowy wzrost obrotów, prowadząc działania handlowe wyłącznie poprzez partnerów.
duchem AI
Eksperci producenta wyjaśniali przy tym, w jaki sposób nowości implementowane w całym szerokim portfolio Lenovo pozwalają wykorzystać związane z tym rynkowe szanse. Przykładowo, innowacje AI zostały już wdrożone w komputerach przenośnych, dzięki czemu modele AI PC tej marki mają wydajność na poziomie 10 – 15 TOPS (tera operacji na sek.).
Z myślą o działach IT, które zastanawiają się, jak wdrożyć AI, Lenovo oferuje gotowe szablony, skrojone na potrzeby różnych branż. Działania te wspierają wyspecjalizowani partnerzy w sektorach takich jak finanse, zdrowie, produkcja, retail, smart cities i inne. Jednocześnie specjaliści producenta przewidują, że w związku z rozwojem AI będzie wzrastać zapotrzebowanie na przetwarzanie brzegowe. Lenovo dostarcza już partnerom i klientom odpowiednią ofertę „AI from edge to core”, aby w ten sposób – za niewielkie fundusze – pomagać użytkownikom biznesowym jak najlepiej wykorzystać możliwości sztucznej inteligencji. – Możemy zaadresować całe portfolio pod zagadnienia AI, od urządzeń końcowych, przez telefony, aż po serwery – podkreślił Łukasz Borkowski, Technical Country Channel Sales BI & Infrastructure.
Producent stworzył ponadto ekosystem partnerski (Lenovo AI Innovators), który ma pomóc we wdrażaniu rozwiązań sztucznej inteligencji u klientów końcowych, a do którego należy już ponad 50 dostawców.
Kolejnym fundamentem rozwoju, na jaki stawia Lenovo, jest zrównoważony rozwój. W praktyce oznacza to poprawę efektywności energetycznej, większe możliwości naprawy, jak też wsparcie działań recyklingowych. Ponadto każdy notebook biznesowy wprowadzany do oferty będzie standardowo włączony do usługi CO2 Offset. Towarzyszy temu niezmienna trwałość poszczególnych urządzeń. Przykładowo, notebooki Lenovo są testowane zgodnie z amerykańskim standardem militarnym, jak i łatwo naprawialne, co odzwierciedla punktacja iFixit, w której nowe modele tej marki mają już 9 punktów na 10.
– Chcemy, aby ten obszar stał się wyróżnikiem i dawać przykład branży, jak projektować nowe urządzenia – powiedział Tomasz Szewczak, Commercial Notebook 4P Manager w Lenovo Polska.
Lenovo New Product Training 2024 towarzyszyła prezentacja produktów Lenovo, które można było przetestować w działaniu. Jedno z największych wydarzeń branżowych w roku jak zwykle było też okazją do spotkań i rozmów dla firm z całego kraju.
Walka pomiędzy Chinami a Stanami Zjednoczonymi na froncie technologicznym coraz bardziej się zaostrza, co doskonale widać na rynku półprzewodników.
n Wojciech Urbanek
Chińczycy już od kilku lat szerzą kampanię „Usuń A” lub „Odłącz od A”, skierowaną przeciwko amerykańskim technologiom. To odpowiedź na działania amerykańskiej administracji i niektórych sojuszników USA, w tym między innymi Japonii oraz Holandii, polegające na wprowadzeniu ograniczeń eksportu, co podcięło zdolność Chin do wytwarzania wysokiej klasy chipów. Z tym, że ten kij – jak każdy inny – ma dwa końce. Restrykcyjne działania zmotywowały chiński przemysł do szybszego rozwoju, w tym przeznaczenia wysokich kwot na badania, których efekty bywają wręcz przełomowe.
- Blokując wszystko, zmuszasz śpiącego lwa do przebudzenia się – mówi Konrad Kwang-Leei Young, były dyrektor TSMC, odnosząc się do stanu chińskiego przemysłu półprzewodników.
Jak wynika z danych stowarzyszenia branżowego SEMI, w 2023 r. Chiny kontrolowały jedną trzecią światowej sprzedaży półprzewodników. Tymczasem, według prognoz firmy analitycznej Gavekal Research, w tym roku Państwo Środka zwiększy swoje zdolności produkcyjne do wytwarzania chipów w dojrzałych technologiach bardziej niż reszta świata razem wzięta. Co więcej, w maju br., Chiny ustanowiły trzecią rundę swojego krajowego funduszu półprzewodników o wartości około 48 mld dol., podczas gdy dwie poprzednie transze też miały taką wartość, ale… razem wzięte.
Chińczycy forsują starania o samowystarczalność.
Chińskie władze duże nadzieje pokładają w SMIC (Semiconductor Manufacturing International Corp.), chociaż koncern ten nie ma zbyt wysokich notowań u ekspertów, którzy uważają, że odstaje technologicznie
od TSMC czy Samsunga. SMIC na początku roku ogłosiło, że uruchamia produkcję wafli pod chipy 5 nm, a także rozpocznie prace badawczo-rozwojowe nad technologią 3 nm. Przy czym wiele wskazuje na to, że układy 5 nm opracowane przez SMIC będą o połowę droższe niż pochodzące z TSMC. Jednocześnie opracowanie procesu 3 nm może zająć kilka lat, podczas gdy liderzy rynku (TSMC, Samsung, Intel) będą prawdopodobnie w tym czasie wchodzić na poziom 1 nm. Chińczycy nie zamierzają jednak składać broni. Analitycy z Wind wyliczyli, że od 2017 r. SMIC, który nie jest przedsiębiorstwem bezpośrednio związanym z rządem Chin, otrzymał 1,8 mld dol. w bezpośrednich dotacjach rządowych. Obecny prezes firmy, sprawujący tę funkcję od 2023 r., dołączając do zarządu z rekomendacją krajowego funduszu półprzewodników, wcześniej pełnił funkcje wykonawcze w przedsiębiorstwach państwowych. SMIC w swoim nowym zakładzie na obrzeżach Pekinu wprowadza rodzimy sprzęt i rozwiązania, powoli odchodząc od amerykańskich narzędzi i komponentów. Nic w tym dziwnego, skoro został dodany do czarnej listy eksportowej USA w grudniu 2020 r. w związku z powiązaniami z chińskim wojskiem, czemu Chińczycy stanowczo zaprzeczają. W każdym razie SMIC wyraźnie przyspieszył swoje wysiłki na rzecz samowystarczalności.
W ubiegłym roku Huawei wprowadziło na rynek smartfona Mate 60. Według
Bloomberga Huawei i SMIC wykorzystały amerykańską technologię do tworzenia zaawansowanych chipów w procesie 7 nm. Chińskie firmy miały w tym celu wykorzystać maszyny Applied Materials i Lam Research. To właśnie te technologie miały posłużyć do produkcji mikroprocesora Huawei Kirin 9000 dla smartfona Mate 60 Pro. Doświadczeni inżynierowie specjalizujący się w procesach produkcji półprzewodników uważają, że Huawei i jego chińscy partnerzy mogliby we własnym zakresie wyprodukować chipy, ale bez zagranicznych technologii nie uzyskaliby tak wysokiej wydajności, a tym samym koszty produkcji byłyby wyższe niż w przypadku liderów rynku.
Piętą achillesową Chin jest brak alternatywy dla maszyn litograficznych z wyższej półki. Najlepszą opcją krajową jest Shanghai Micro Electronics Equipment Group, której strona internetowa pokazuje, że produkuje maszyny litograficzne do wytwarzania chipów 90 nm. Trudno zatem się dziwić, że chińskie firmy penetrują amerykański rynek, gromadząc sprzęt nieobjęty (jeszcze?) sankcjami administracji Joe Bidena oraz innych zagranicznych rządów. Według The Wall Street Journal zarówno Applied Materials, jak też Lam Research, obie firmy z siedzibą w Kalifornii, uzyskały w pierwszym kwartale tego roku około dwóch piątych swoich całkowitych przychodów od kontrahentów z Chin. Natomiast holenderskie ASML zawdzięcza Chińczykom połowę przychodów uzyskanych w pierwszych trzech miesiącach bieżącego roku. I bez ingerencji ze strony polityków to się nie zmieni. n
Producent przewiduje, że w segmencie biznesowym motorem wzrostu będą AI PC. Z myślą o tym powstała kompletna oferta dla biznesu oraz zapowiadana jest dalsza rozbudowa portfolio produktowego.
Region EMEA odpowiada za jedną trzecią globalnych przychodów Acera w segmencie biznesowym. Przedstawiciele producenta podkreślają przy tym, że sprzedaż rozwiązań tej marki prowadzona jest wyłącznie poprzez ponad 35 tys. partnerów na ponad 50 światowych rynkach. Podczas EMEA Press Conference w szwajcarskim Bioggio zapowiedzieli, że zamierzają zwiększyć zaangażowanie w segmencie biznesowym. Jak podkreślił Emmanuel Fromont, prezes EMEA Operations: „mamy w tym zakresie pełne i konkurencyjne portfolio, także z myślą o mniejszych firmach, jak też różnych branżach, w tym dla ochrony zdrowia, sektora publicznego, sektora digital signage oraz dla edukacji”.
Jednocześnie producent przewiduje, że motorem wzrostu popytu na pecety w przedsiębiorstwach, sektorze edukacji oraz instytucjach państwowych i samorządowych, będą modele AI PC. Związana z tym „rewolucja” ma – zdaniem specjalistów Acera – dotrzeć do użytkowników w IV kw. br. W kontekście spodziewanego wzrostu popytu istotną grupę odbiorców mają stanowić małe i średnie firmy. Impuls ma stanowić chociażby potrzeba odnowienia bazy
sprzętu wraz z kończącym się wsparciem dla Windows 10. Dodatkowo sprzedaż ma być stymulowana przez potrzeby wynikające ze specyfiki pracy hybrydowej i potrzeby zwiększenia produktywności, co z kolei powinno zwiększać zainteresowanie urządzeniami AI PC. W sektorze edukacji natomiast Acer przewiduje zwiększone zapotrzebowanie na modele dla uczniów (portfolio L-12), sprzęt dla nauczycieli, wyposażenie laboratoriów i większe zakupy w szkolnictwie wyższym. Producent spodziewa się przy tym, że na znaczeniu będą zyskiwać wymagania dotyczące tzw. zrównoważonego rozwoju. Jak deklarowano podczas EMEA Press Conference, w 2025 r. zużycie energii przez komputery tajwańskiej marki będzie o 45 proc. niższe niż w roku 2016, a 80 proc. strategicznych dostawców Acera będzie spełniać wymagania RE100 (100 proc. energii ze źródeł odnawialnych). Już teraz tajwańskie notebooki są produkowane w 18 proc. z plastiku, pochodzącego z recyklingu. W przypadku monitorów odsetek ten wynosi 86 proc.
Warto również podkreślić, że pod marką Acer kryje się nie tylko sprzęt, ale także rozmaite
usługi skierowane do klientów biznesowych. Jednym z przykładów jest Office Manager (umożliwiający przedsiębiorstwom bez personelu IT zarządzanie danymi, centralizację zasobów oraz monitorowanie infrastruktury), czy też usługa Proshield Plus – polegająca na integrowaniu funkcji bezpieczeństwa i zarządzania.
Jednocześnie Acer rozwija narzędzia sprzedażowe dla partnerów, w tym na potrzeby device-as-a-service (cały związany z tym ekosystem, począwszy od software’u, poprzez sprzęt, aż po usługi). Atutem marki są przy tym rozbudowane możliwości naprawy i odnawiania urządzeń. Acer ma w regonie EMEA osiem centrów serwisowych i ponad 350 certyfikowanych partnerów serwisowych.
Podczas Acer EMEA Press Conference zaprezentowano portfolio nowych urządzeń dla segmentu komercyjnego, w tym sprzęt i akcesoria. W tym zakresie rozszerzono serię komputerów przenośnych TravelMate o modele z wbudowanymi jednostkami NPU, wykorzystujące sztuczną inteligencję. Producent wprowadził także nowe notebooki AI Ready, przeznaczone dla sektora edukacji. I chociaż sprzedaż pecetów generuje aż 70 proc. obrotów Acera, tajwański dostawca stawia przy tym na rozwój pozostałych segmentów, jak „computer science” i „life-style” (m.in. elektryczne hulajnogi).
Firmy Acnet oraz H3C poinformowały o zawarciu strategicznego partnerstwa, co stanowi kluczowy krok w kierunku rozszerzenia działalności producenta w Polsce.
Tym samym Acnet został wyłącznym dystrybutorem H3C na polskim rynku. Przy czym obie organizacje zadeklarowały gotowość do elastycznej i szybkiej realizacji projektów ICT. Umożliwi to kompleksowe portfolio rozwiązań sieciowych, systemów bezpieczeństwa, serwerów oraz interaktywnych tablic. W tym kontekście należy podkreślić, że ponad połowę zatrudnionych w H3C stanowią pracownicy działów badawczo-rozwojowych, dzięki czemu producent może pochwalić się liczbą ponad 13 tys. patentów.
Warto przypomnieć, że H3C powstało w 2003 r. jako „joint venture” firm 3Comu oraz Huawei. Producent jest kontynuatorem myśli i technologii 3Com – cenionego na całym świecie dostawcy sprzętu sieciowego. Obecnie 49 proc. udziałów w H3C posiada HPE, a pozostałe 51 proc. chiński koncern Tsinghua Holdings, ale amerykański producent zamierza do końca sierpnia bieżącego roku sprzedać 30 proc. udziałów w H3C za 2,1 mld dol. firmie Unisplendour, należącej do Tsinghua Holdings (transakcja wymaga zgody chińskiego regulatora). Co istotne, producent ten ma stały dostęp do amerykańskich komponentów, między innymi do procesorów oraz elementów potrzebnych do produkcji urządzeń sieciowych.
Marka H3C w Polsce nie jest jeszcze zbyt popularna, aczkolwiek część rodzimych klientów korzysta z produktów sieciowych H3C, bowiem są one sprzedawane przez HPE w modelu OEM. Jednak tak naprawdę dopiero współpraca z warszawskim dystrybutorem pozwoli na dobre osadzić się tej marce na polskim rynku.
–H3C jest bardzo silną marką w segmencie sprzętu sieciowego. Na rynku chińskim jest wiodącym producentem sprzętu sieciowego, jak też liczy się na globalnym rynku. W ubiegłym roku firma była trzecim dostawcą routerów klasy enterprise oraz czwartym dostawcą przełączników sieciowych klasy Campus oraz klasy DataCenter na świecie pod względem sprzedaży – mówi Adam Przetak, dyrektor techniczny Acnet.
H3C zamierza sprzedawać w Polsce, oprócz sprzętu sieciowego dla klientów korporacyjnych, również urządzenia dla małych i średnich firm (przełączniki sieciowe, urządzenia WLAN, routery, firewalle). Producent oferuje również możliwość zarządzania wybranymi urządzeniami z poziomu publicznej chmury producenta. Ofertę sprzętu sieciowego uzupełniają routery przeznaczone do użytku domowego, które będzie można nabyć w sklepach internetowych. Niewykluczone, że trafią one również do małych i średnich operatorów ISP.
H3C posiada w swojej ofercie rodzinę serwerów typu rack oraz blade, wyposażonych w procesory Intel oraz AMD. W tej grupie znajdują się między innymi urządzenia do obsługi aplikacji krytycznych i dużych zbiorów danych. Producent oferuje własny system wirtualizacji CAS (Cloud Automation System), który stanowi interesującą alternatywę dla rozwiązań VMware’a. H3C może dostarczyć kompleksową ofertę zawierającą sprzęt sieciowy, serwery i pamięć masową zdefiniowaną programowo, co niewątpliwie stanowi atut w negocjacjach z klientami.
Adama Przetaka, CTO firmy Acnet
H3C dysponuje dość bogatym portfolio produktów. Które z nich powinny szczególnie zainteresować polskich integratorów?
Chcemy przede wszystkim skoncentrować się na rozwiązaniach serwerowych oraz urządzeniach sieciowych, takich jak przełączniki do kampusów i centrów danych, rozwiązaniach WLAN oraz routerach klasy operatorskiej. Są to produkty cieszące się dużą popularnością i renomą na świecie, czego dowodzą zestawienia globalnej sprzedaży publikowane przez uznane agencje badawcze. Poza tym produkty te stanowią niejako kontynuację wcześniejszych dokonań 3Com – producenta doskonale znanego osobom, które mają nieco dłuższy staż w branży IT.
W jaki sposób zamierzacie wspierać partnerów zainteresowanych sprzedażą produktów H3C? Jesteśmy dystrybutorem z wartością dodaną, a to oznacza, że gwarantujemy naszym partnerom różne rodzaje wsparcia: przedsprzedażowe, posprzedażowe, a także szkolenia oraz serwis. Jesteśmy przy tym bardzo elastyczni, jak też oferujemy polskojęzyczną obsługę dla użytkowników rozwiązań tego producenta. Możemy również liczyć na duże wsparcie ze strony H3C. Wiceprezes tej firmy podczas wizyty w Warszawie podkreślał, że Polska obok Hiszpanii, Włoch, a także Niemiec jest dla H3C kluczowym rynkiem w regionie.
Dysponujecie także gronem wyszkolonych ekspertów…
Tak, nasz zespół składa się z grupy doświadczonych osób handlowych oraz specjalistów, którzy mogą pochwalić się bogatym doświadczeniem w zakresie wdrożeń infrastruktury sieciowej. Ponadto zapewniamy naszym partnerom wsparcie handlowe podczas realizacji konkretnych projektów. Przy czym nasza sprzedaż jest w 100 procentach realizowana poprzez kanał partnerski.
Z niedawnego badania Channelnomics wynika, że nowym źródłem konfliktów pomiędzy partnerami jest rozwój cyfrowych platform sprzedaży.
Konflikty pomiędzy partnerami tego samego producenta to zjawisko powszechne nie tylko w branży technologicznej, ale każdej, która jest prowadzona na zasadzie sprzedaży pośredniej. Potencjalne tarcia nieuchronnie pojawiają się zwłaszcza tam, gdzie liczne podmioty działają na ograniczonym rynku. Jednakże w miarę rozwoju technologii i ewolucji kanału sprzedaży, rodzaje i źródła tych konfliktów ulegają zmianom.
Dla wyjaśnienia, ten rodzaj konfliktu, w którym dwóch lub więcej partnerów współpracujących z tym samym vendorem rywalizuje o tę samą sprzedaż, jest znane jako „konfl ikt wewnątrz kanału sprzedaży”. Inna dobrze znana forma tarcia ma miejsce, gdy partner konkuruje z działem sprzedaży bezpośredniej u producenta, co nazywa się „konfliktem kanałów bezpośrednich”. Te klasyczne przejawy konfliktu w kanale sprzedaży są świetnie znane i zdecydowana większość partnerów doświadcza tego typu tarć na różnych poziomach w historii swoich relacji z producentami.
Niepokojącą tendencją jest apatia niektórych producentów.
wy, tym bardziej, że zmiany technologiczne i gospodarcze na rynku sprawiają, że podstawy konfliktów ulegają przemianom, wprowadzając na scenę nowych graczy i nową dynamikę zdarzeń. Podczas spotkania rady doradczej partnerów jednego z producentów, które niedawno poprowadziłem, wszczęto dyskusję na ten właśnie temat. Uczestnicy rozmowy podzielili się swoimi doświadczeniami dotyczącymi niesprawiedliwego traktowania, wskazując na… dystrybutorów, nie zaś producentów albo też innych partnerów, jako źródło problemu.
Przy czym takie sytuacje w swojej istocie nie są z natury negatywne. Silna konkurencja zwykle podnosi atrakcyjność cen dla klientów, a także jakość obsługi. Niemniej, chociaż konkurencja jako taka to kamień węgielny wolnego rynku, partnerzy szukają gwarancji, że ich inwestycje w rozwój własnych możliwości biznesowych nie spotkają się z „nieuzasadnioną” konkurencją. Stąd idea programów partnerskich i takich funkcji, jak rejestracja transakcji. Co nie załatwia w pełni spra-
W tym kontekście uderzającym odkryciem w ramach niedawnego badania Channelnomics dotyczącego doświadczeń partnerów z ich dystrybutorami było to, że ci drudzy są postrzegani jako źródło konfliktu w kanałach sprzedaży przez 25 proc. producentów i 16 proc. partnerów. Pojawiającym się w ankietach źródłem konfliktów jest chociażby rozwój cyfrowych platform sprzedaży. Wygoda i korzyści ekonomiczne, jakie oferują, przesuwają preferencje kupujących w stronę tych platform, a więc dystrybutorów, nie zaś ich partnerów. W ramach coraz bardziej złożonego ekosystemu, gdzie współpracuje ze sobą wielu różnych partnerów, często tylko jeden z nich może oficjalnie zarejestrować sprzedaż, co prowadzi do rozbieżności w podziale zysków między kooperantami. Niepokojącą tendencją jest apatia niektórych producentów w stosunku do kon-
fliktów w kanale sprzedaży lub wręcz pozytywne zdanie na ich temat. Dostawcy ci postrzegają to jako szansę na poprawę swoich wyników sprzedaży kosztem godziwego wynagrodzenia dla partnerów. Ze swojej strony uważam jednak, że tarcia między partnerami, rozumiane jako nieuczciwa konkurencja, wymaga starannego zarządzania. Na Channel Managerach spoczywa obowiązek uznania, że konflikty nie są ani statyczne, ani ograniczone do tradycyjnych definicji. W obliczu zmieniającego się ich charakteru niezwykle istotne jest ustalenie jasnych zasad współpracy, które zapewniają partnerom wiedzę na temat dopuszczalnego postępowania na rynku i są surowo respektowane przez producentów.
Larry Walsh
CEO oraz Chief Analyst w Channelnomics, firmie analitycznej specjalizującej się w kanałach sprzedaży i doradztwie dla producentów, dystrybutorów i integratorów IT. Autor jest również gospodarzem podcastu „Changing Channels” i producentem podcastu „In the Margins”. Kontakt: lmwalsh@channelnomics.com.
Uznany producent infrastruktury do monitoringu rozszerza działalność na rynek Europy Środkowo-Wschodniej, z Polską na czele.
Marka Reolink od lat cieszy się na globalnym rynku uznaniem, jako lider inteligentnych rozwiązań monitoringu domowego, oferując szerokie portfolio kamer bezpieczeństwa. Bazuje na zaawansowanych technologiach i stawia na niezawodność produktów. Niedawno producent rozpoczął ekspansję w naszym regionie Europy, począwszy od polskiego rynku.
– Polski rynek monitoringu domowego jest jednym z najszybciej rozwijających się w regionie. Polscy użytkownicy przykładają szczególną uwagę do ochrony swojego
Rafał Piasecki, Regional Sales Director, Reolink
Zapewniamy naszym partnerom biznesowym atrakcyjne warunki
mienia i szybko adaptują nowe technologie, które zwiększają bezpieczeństwo, a tym właśnie charakteryzuje się nasze portfolio produktowe – mówiRafał Piasecki, Regional Sales Director w Reolinku.
Plany rozwojowe marki na polskim rynku
Reolink skoncentrował się na intensywnej kampanii marketingowej, działaniach z opiniotwórczymi mediami oraz nawiązaniu współpracy z największymi sieciami handlowymi, takimi jak Media Expert, RTV Euro AGD oraz Komputronik. Oficjalnym dystrybutorem marki na polskim rynku został CK Mediator. Dzięki temu produkty Reolink są łatwo dostępne zarówno dla retailerów, jak i szerokiego grona odbiorców indywidualnych. Intensywna kampania promująca będzie trwała do końca roku, a w tym czasie marka planuje również rozwój na Węgrzech, Słowacji, w Czechach i Rumunii.
Historia marki
Marka Reolink została stworzona w 2009 r. i od samego początku stawiała na innowacyjność oraz jakość, zarówno w obszarze streamowania obrazu, jak też trwałości komponentów. Dzięki takiemu właśnie podejściu stała się liderem swojej kategorii w Stanach Zjednoczonych i Europie Zachodniej.
Reolink dynamicznie zdobywa udziały rynkowe i może pochwalić się szeroką gamą produktów, które spełniają potrzeby
zarówno użytkowników indywidualnych, jak i małych firm. W ofercie znajdują się kamery wewnętrzne i zewnętrzne, kamery IP oraz bezprzewodowe, kamery z detekcją ruchu i nagrywaniem w 4K. Do najpopularniejszych produktów, które zostały wprowadzone na polski rynek należą: Reolink E540 Wi-Fi Outdoor (5MP), Argus-Series-B430, Argus Series B320, E Series E330, Go-Series-G430.
Oferowane portfolio produktowe zostało wyposażone w szereg innowacyjnych technologii, przyciągających uwagę konsumentów, takich jak inteligentne rozpoznawanie i śledzenie pojawiających się obiektów, jak również wyznaczanie stref detekcji ruchu, dzięki którym użytkownicy mogą definiować konkretne obszary, w których nie będą wyzwalane alerty. Kolorowy obraz wysokiej jakości w nocy o zasięgu aż 12 metrów, nawet 10-krotny zoom optyczny, obrót kamery do 355° i pochylenie o 50°, to cechy, które pozwalają uniknąć efektu tak zwanego martwego pola widzenia. Z kolei wbudowane głośne syreny, uruchamiane zdalnie, aby odstraszać intruzów oraz dwukierunkowe połączenia głosowe, umożliwiają prowadzenie dialogu z osobą znajdującą się pod drzwiami.
Warto przy tym podkreślić, że zdalny dostęp do systemu z dowolnego miejsca na świecie poprzez mobilną aplikację pozwala na monitorowanie nieruchomości w czasie rzeczywistym, a w razie potrzeby natychmiastowe uruchomienie sygnałów dźwiękowych oraz świetlnych.
„Naszą rolą, jako stowarzyszenia, nie jest zdobywanie lidów dla naszych członków, a więc dawanie ryby, ale przekazywanie know-how dotyczącego działania za granicą, na poszczególnych rynkach, czyli dawanie wędki” – mówi Michał Nikołajuk, CEO Rite NRG oraz członek zarządu ITCorner, odpowiedzialny za współpracę zagraniczną.
Nie ukrywam, że bardzo ucieszył mnie pomysł na program ITCorner Zagranica, który ma wspierać polskie firmy technologiczne w ekspansji na obce rynki. Zacznijmy może od wyjaśnienia konkretnych powodów tej decyzji. Michał Nikołajuk Powodów jest kilka. W ITCorner tworzymy zaufane środowisko, które poprzez wiedzę, inspirację oraz relacje, realnie pomaga polskim liderom branży technologicznej w rozwijaniu silnych biznesów i samych siebie, jako przedsiębiorców. Dlatego też powstał cykl spotkań pod nazwą „ITCorner Zagranica”, aby wesprzeć naszych founderów ekspercką wiedzą o tym, jak konkurować na obcych rynkach. Naszymi gośćmi są doświadczeni już na rynku międzynarodowym przedsiębiorcy, którzy dzielą się „insightami”, jak budować relacje i wartościowy „network”. To jest teraz ten know-how, który każdy founder powinien mieć, aby wyjść na rynek i rozwijać swój biznes za granicą.
Wydaje się, że wasza inicjatywa pojawiła się w kluczowym momencie, kiedy koszty pracy na polskim rynku IT nie odbiegają drastycznie od tych na przysłowiowym Zachodzie. Jesteśmy w takim stadium rozwoju, że polskie usługi są wprawdzie nadal o jakieś 20–30 procent tańsze niż na najbardziej rozwiniętych rynkach, ale to już nie jest aż tak duża różnica, jak przez wiele poprzednich lat. W rzeczywistości stała się na tyle mała, że coraz więcej niemieckich, francuskich, szwedzkich czy angielskich firm woli zapłacić więcej, ale mieć pod ręką krajowych specjalistów u siebie na miejscu. Z drugiej strony, programiści z Indii, którzy z roku na rok stają się lepsi w swoim fachu i często nie odbiegają umiejętnościami od naszych fachowców, są wciąż tańsi.
Promocja rodzimej branży IT to nie jedyny cel, jaki przyświeca inicjatywie ITCorner Zagranica. Domyślam się, że wielu członków stowarzyszenia po-
trzebuje wsparcia w rozwoju biznesu poza Polską.
Jak najbardziej. To jest właśnie to, co robimy w ITCornerze – dzielimy się ekspercką wiedzą w gronie właścicieli firm technologicznych oraz firm ściśle współpracujących z branżą IT. Mówiąc o swoich doświadczeniach pomagamy pokonywać wyzwania biznesowe. Przy czym firmy małe i średnie zyskują wskazówki od firm dużych i bardzo dużych. Z drugiej strony te duże chcą się skonsolidować, aby razem zabierać głos na forum międzynarodowym w kwestiach ważnych dla branży IT oraz szukają inspiracji. Razem możemy więcej – wspólnie pod szyldem ITCorner firmy mogą uzyskać znacznie więcej niż działając w pojedynkę.
Z takiego właśnie założenia wychodzimy i dlatego chcemy w ramach projektu ITCorner Zagranica stworzyć ofertę wartości z podziałem na małe, średnie i duże firmy, biorąc pod uwagę chociażby możliwości budżetowe każdej z nich. Tak, żeby wypracowane modele działania nie były oderwane od rzeczywistości, ale przeciwnie, jak najmocniej się w nią wpisywały.
Czy członkowie stowarzyszenia mogą liczyć na porady nie tylko w strategicznych kwestiach, ale też tych bardziej przyziemnych?
Jedyne, co może nas ograniczać, to kwestie mentalne.
Firmy różnej wielkości mają różne potrzeby, ale i – siłą rzeczy – różne możliwości. Bierzecie to pod uwagę?
Oczywiście. Wydawałoby się chociażby, że to żaden problem ustawić system do automatycznego cold mailingu. Tymczasem w praktyce, w tym celu trzeba mieć kilka różnych domen, do każdej kilka skrzynek, a do tego wiadomości muszą mieć określoną długość
i tak dalej. Takich porad typu „tips and tricks” na różne rynki są dziesiątki. I takimi właśnie wskazówkami dzielimy się na spotkaniach w ITCornerze.
A pomoc w zdobywaniu konkretnych klientów?
Jeśli akurat o to chodzi, to nie. Naszą rolą, jako stowarzyszenia, nie jest zdobywanie lidów dla naszych członków, a więc dawanie ryby, ale przekazywanie know-how dotyczącego działania za granicą, na poszczególnych rynkach, czyli dawanie wędki. Tworzymy środowisko dla liderów branży IT w Polsce, które stymuluje wymianę wiedzy przy głębokim poziomie zaufania oraz zwraca uwagę na sprawy ważne tu i teraz, w tym kwestie strategiczne. To chciałbym wyraźnie podkreślić.
Jakie są główne wnioski z pierwszego spotkania z cyklu ITCorner Zagranica poświęconego regionowi DACH? Dodajmy, że prowadzili go członkowie stowarzyszenia, którzy mają już swoje doświadczenia w tym zakresie.
Najlepszą puentą tego akurat seminarium jest determinacja. Bo, mówiąc nieco kolokwialnie, cyfry się zgadzają i przemawiają na korzyść polskich firm. Hasłowo: Deutsche Telekom zwalnia 48 procent osób, decydując się na outsourcing; średni koszt pozyskania jednego klienta w regionie DACH sięga 400 tysięcy złotych; potrzeba 70 spotkań zanim pierwszy klient zostanie zdobyty, a cykl sprzedażowy wynosi minimum 9 miesięcy… Przy czym bardzo pomocna jest świetna znajomość języka niemieckiego i ciekawość tamtego rynku, tamtej kultury i tamtych ludzi. Podkreślam kwestię ciekawości, bo Niemcy, Austriacy i Szwajcarzy to wyczuwają, co bardzo pomaga w zdobyciu ich zaufania i budowie sieci towarzysko-biznesowej. Jak widać, jedna kampania mejlingowa z najlepszą nawet ofertą nie wystarczy – potrzeba wielu różnych działań i, jak wspomniałem na początku, ogromnej wręcz determinacji.
Co ważne, przykładów sukcesu na szczęście już nie brakuje.
Znakomitym przykładem żelaznej wręcz determinacji w ekspansji na rynek zagraniczny jest Jakub Orczyk z VM.PL, członek ITCornera, który swojego czasu stanął przed wyjątkowo trudnym zadaniem polegającym na zmianie profilu działania swojej firmy. Wtedy postawił na rozwój na bogatszym rynku niemieckim. Zainwestował 100 procent swojego czasu i energii w rozpoznanie rynku, zrozumienie obszaru, na którym chciał konkurować, budował relacje, nauczył się języka niemieckiego od zera i teraz ma dobrze działającą w Niemczech firmę, z zespołem na poziomie 200 osób. Co ciekawe, Jakub uczy się teraz francuskiego, jak też poznaje francuską kulturę, wczuwając się w tamtejsze sposoby sprzedaży. I jestem pewien, że na rynku francuskim również odniesie sukces. To banał, ale prawda jest taka, że wszyscy mają równe szanse, ale nie wszyscy z nich korzystają.
Jakimi krajami czy regionami zajmiecie się podczas kolejnych spotkań?
Najbliższy panel dyskusyjny będzie dotyczył rozwoju i prowadzenia biznesu w Stanach Zjednoczonych. I tutaj mała dygresja: otóż jedna z należących do stowarzyszenia firm, Kyotu Technology, postanowiła zainwestować w rozwój poza Polską i sfinansowała półroczny pobyt swojego CEO – Mateusza Romanów – wraz z rodziną, w teksaskim Austin. W ten sposób poznaje on specyfikę lokalnego rynku, a jednocześnie dzieli się z nami dość smutną wiedzą, że Polska nie odrobiła pracy domowej. Stany Zjednoczone są skolonizowane przez Indie, o czym najdobitniej świadczy liczba topowych menadżerów w amerykańskich firmach IT o takich właśnie korzeniach. My zaś dopiero musimy tłumaczyć, że Polska to kraj o ogromnych możliwościach i z niezwykle przedsiębiorczymi fachowcami. Trzeba w tym zakresie silnie lobbować, bo nikt za nas tego nie zrobi. W firmie Kyotu całą sytuację odebrano jako zimny prysznic, bo liczyli, że będą zdobywać
klientów jako specjaliści z rozpoznawalnego rynku, a tymczasem muszą się jako firma z Europy Wschodniej uwiarygadniać, a dopiero w drugiej kolejności tworzyć koszyk wartości skrojony na potrzeby amerykańskiego rynku.
Wracając do pytania… Kolejne sesje będą dotyczyć prowadzenia biznesu w Wielkiej Brytanii, krajach nordyckich, a następnie w regionie APAC. Obecnie jesteśmy w procesie powoływania koordynatorów, którzy będą w stowarzyszeniu odpowiadać za dany region. Panele dyskusyjne poświęcone kolejnym krajom czy obszarom chcemy organizować co kwartał. Dodatkowo w ramach ITCorner Zagranica będziemy organizować co roku kilka śniadań i spotkań menadżerskich, łącząc w ten sposób inspirowanie do rozwoju z bardzo konkretną wiedzą praktyczną na temat promocji, tworzenia i utrzymania biznesu na obcych rynkach.
Kolejne panele dyskusyjne będą dotyczyć rozwoju biznesu w USA, UK, Skandynawii oraz regionie APAC.
Czy rozważacie pozyskanie wsparcia rządowego?
Tak, spróbujemy pozyskać grant na kampanię wizerunkową, żeby budować na świecie świadomość jakościowego, polskiego IT. Ponadto zamierzamy nawiązywać partnerstwa z podmiotami takimi, jak Polska Agencja Inwestycji i Handlu, jak też Enterprise Europe Network w ramach różnych misji gospodarczych.
A jakie jest zdanie stowarzyszenia o mniej oczywistych kierunkach rozwoju, jak Kazachstan, Uzbekistan czy Azerbejdżan?
Są obiecujące, ale z zastrzeżeniem, że wciąż trwająca wojna zakłóciła bezpieczeństwo w tamtejszym regionie świata. Żeby być dobrym partnerem dla lokalnych firm, trzeba być blisko nich, a więc często tam bywać. Obecnie ryzyko jest na tyle duże, że trzeba poczekać na – oby jak najszybsze – zakończenie konfliktu rosyjsko-ukraińskiego. Swoją drogą, podobnie jest w przypadku Ira-
nu. Kilka firm z ITCornera prowadziło tam dobre interesy, ale konflikt izraelsko-palestyński, oddziałujący na cały region, źle wpłynął także na polsko-irański biznes. Po niedawnej katastrofie rządowego śmigłowca perspektywy stały się jeszcze gorsze, a stosunkowo niedawno były naprawdę świetne. Jak wiadomo, biznes lubi stabilizację. W sytuacji tak dużych napięć geopolitycznych trudno rozsądnie planować rozwój firmy i pracowników.
Jakie są Pana własne doświadczenia w rozwoju biznesu za granicą i w jakim modelu prowadzicie ekspansję Rite NRG?
Cieszę się, że w zeszłym roku udało nam się zdobyć pierwszego klienta w Niemczech, a to wyjątkowo trudny rynek. Niemniej, z mojej analizy wynika, że za Odrą systematycznie stery przejmuje młodsze pokolenie, które dobrze zna język angielski i ma bardziej otwartą głowę niż poprzednie roczniki, mocno nacjonalistyczne pod względem gospodarczym. To szansa dla polskich specjalistów, zwłaszcza że Niemcy mają teraz problemy ekonomiczne i szukają optymalnych rozwiązań. Kolejny powód naszego sukcesu to strategia, która polega na tym, że nasz zespół obsługujący danego klienta działa zgodnie z kulturą organizacyjną tego klienta. Poznaje ją, uczy się jej i tak właśnie funkcjonuje. W efekcie wspomniany niemiecki klient był zdumiony, że w wyjatkowo szybkim czasie zrobiliśmy znacznie więcej niż jego własny zespół inhouse przez kilka razy dłuższy okres, a jednocześnie patrzy na nas jako na swój oddział w Polsce.
Jesteście takim biznesowym kameleonem, który przybiera określony kolor w zależności od „koloru” danego klienta?
Można to tak ująć. Chcemy taki właśnie unikalny „user experience” zaoferować swoim klientom w kontekście ich własnych celów, kierunku, nazewnictwa, standardów, sposobu działania…
…co musi być szczególnie trudne dla waszych specjalistów.
Nasi ludzie musieli się nauczyć, że pra-
Jak dalece w praktyce posunięta jest taka biznesowa mimikra?
Tak dalece, jak to możliwe. Łącznie chociażby z tytułowaniem naszych specjalistów tak samo, jak u klienta i oczekiwanie od nich takich samych kompetencji i obowiązków. Odtwarzamy w Polsce kompleksowy odpowiednik zagranicznego klienta – pod względem technicznym, menadżerskim, HR-owym, marketingowym etc. Nasi ludzie wiedzą, co tak naprawdę dany klient chce osiągnąć od strony technicznej i, co ważniejsze, tej biznesowej, na przykład która z dziesięciu funkcji, jakich on żąda, jest tą kluczową, którą trzeba dostarczyć na już, a resztę można wdrożyć nieco później. Znać klienta i jego kulturę organizacyjną, to rozumieć klienta.
Dlaczego jedyny zagraniczny oddział Rite NRG mieści się w Szwecji?
Po prostu tam żyje i pracuje Maciej Gudan, założyciel Rite NRG, a zatem ani to strategia ani taktyka, tylko samo życie (śmiech). A mówiąc serio, bliska znajomość tamtej mentalności bardzo pomogła nam w opracowaniu i wdrażaniu lokalnej kultury organizacyjnej szwedzkich klientów.
Co miesiąc na kanale CRN Polska (YouTube) nowa audycja Tech Trendy Biznes!
Rozmawiał Tomasz Gołębiowski cują jednocześnie w dwóch firmach: naszej i tej klienta. I że muszą umieć stać pewnie na tych dwóch różnych nogach, rozumiejąc obowiązki i korzyści z tego płynące.
Podsumowując, nasuwa się taka myśl, że jako duży europejski naród nie mieliśmy szans na XVI-wieczne morskie podboje geograficzne i ominęła nas XIX-wieczna rewolucja przemysłowa, ale teraz, w XXI wieku, branża IT może być dziejową szansą dla Polski na stanięcie w jednym szeregu z największymi gospodarkami świata… Tak jest, nie brakuje nam niczego, aby to osiągnąć. Jedyne, co może nas ograniczać, to kwestie mentalne. Nowe pokolenia już tej bariery na szczęście nie mają. i słuchaj audycji Tech Trendy Biznes
Gdy tempo zmian technologicznych na rynku jest coraz szybsze, rośnie znaczenie wsparcia marketingowego dla kanału sprzedaży.
n Karolina Marszałek
Doczekaliśmy czasów, kiedy to wyrażenie „sztuczna inteligencja” jest przez branżę IT odmieniane przez wszystkie przypadki. Na słowach jednak się nie kończy. Na rynku trwa walka o klientów biznesowych, którzy w rozwiązaniach z „zaszytym” elementem AI pokładają naprawdę duże nadzieje na ucieczkę do przodu. Problem w tym, że w szumie marketingowym związanym ze sztuczną inteligencją nie tylko odbiorcy
biznesowi, ale również integratorzy dość łatwo tracą orientację w tym, czego tak naprawdę mogą się spodziewać po szerokiej ofercie produktów z kategorii AI. Dla firm integratorskich problematyczna pozostaje również kwestia, w jaki sposób sensownie wprowadzić inteligentne rozwiązania do infrastruktury klienta. Sprawy nie ułatwia zjawisko „AI washingu”, które dodatkowo jeszcze zaciemnia różnicę między produktami zapewniającymi
n Marcin Morawski, dyrektor marketingu, Dell Technologies
Wszystko zależy od tego, jak poukładane są procesy po stronie danej firmy. Mamy przyjemność współpracować z wieloma partnerami, którzy są bardzo aktywni, dostarczają nam wartościowych insightów rynkowych, dzielą się ogromną wiedzą o naszych wspólnych klientach i ich potrzebach, przygotowują atrakcyjne case studies pokazujące, w jak pomysłowy i jednocześnie wydajny sposób można wdrażać najnowsze rozwiązania z portfolio Dell Technologies. Nie możemy tego nie doceniać, bo to wzorcowa współpraca, wymagająca zaangażowania niemal wszystkich pracowników firmy, z zarządem na czele. Jednocześnie nasi partnerzy korzystają intensywnie z programów edukacyjnych. Stworzony przez nas wehikuł Transformation-experts.pl już dawno wyszedł poza ramy zwykłego portalu. Wspólnie realizujemy webinary, szkolenia i warsztaty, roadshow, w formule stacjonarnej, online, hybrydowej. Mamy też program Social Selling Experts rozwijający kompetencje partnerów w kontekście skutecznego pozycjonowania ekspertów na LinkedIn.
wymierne korzyści, a tymi, które jedynie udając „inteligencję” ostatecznie ich nie przyniosą.
W tym kontekście trudno przecenić profesjonalny przekaz marketingowy, który realnie przebije się do klientów końcowych z informacją o naprawdę innowacyjnych, przełomowych produktach, uzupełniony o działania podnoszące kompetencje integratorów, tak, aby mogli iść do klientów z pewnością siebie. Z takiego założenia wychodzi Dell Technologies, który w obliczu zawrotnego tempa, w jakim przyrasta liczba osób korzystających z AI i, z drugiej strony, coraz szybszego tempa wprowadzania rozwiązań naprawdę przełomowych, stawia na jak najlepsze przygotowanie swoich partnerów w ramach działań marketingowych i edukacyjnych.
– Partnerzy zajmujący się zagadnieniami z obszaru AI, rozwiązań brzegowych czy multicloud są świetnie przygotowani do wykorzystania tej szansy. Dell będzie ich wspierał poprzez nowe kompetencje Data Science & AI oraz Edge Solutions – zapewnia Marcin Morawski, dyrektor marketingu Dell Technologies.
Warto przy tym zwrócić uwagę na wzrost znaczenia wsparcia marketingo-
– przedstawicieli firm, które zdobyły
Sebastian Wąsik, Country Manager, baramundi
Z naszego punktu widzenia partnerzy baramundi nie tylko pracują na nasz sukces, ale również i my, jako vendor, pracujemy na sukces naszych partnerów. Stąd od lat wspieramy ich na wielu płaszczyznach – w zakresie materiałów marketingowych, wspólnych eventów, warsztatów, webinarów z przygotowanymi przez nas narzędziami i wielu innych. Od samych partnerów najczęściej dostajemy zapytanie o wsparcie w poprowadzeniu działań techniczno-handlowych. Jeśli chodzi o działania marketingowe – najczęściej dotyczą one przygotowania wspólnych kampanii marketingowo-handlowych. Z działaniami marketingowymi organizowanymi przez samych partnerów handlowych bywa różnie, a zależy to głównie od wielkości firmy, jej statusu partnera, wielkości działów handlowego i marketingowego. Nasze aktywności pozwalają partnerom na zwiększenie rozpoznawalności również ich samych, bez konieczności inwestowania dodatkowych środków.
wego dla kanału sprzedaży w czasach, kiedy tempo zmian technologicznych na rynku jest coraz szybsze. W takich okolicznościach niezmiernie ważna jest kwestia spójności w komunikacji oraz konieczność budowy wśród klientów końcowych świadomości dotyczącej zmieniających się potrzeb, dążeń do optymalizacji czy poprawy efektywności funkcjonowania biznesu.
– Oferowane przez nas wsparcie coraz częściej opiera się na rozbudowanych, zdigitalizowanych narzędziach i łatwym dostępie do treści cyfrowych, co zdecydowanie ułatwia pracę wszystkim stronom, a także pozwala lepiej odpowiadać na potrzeby rynku. W oparciu o różnego typu działania skierowane do naszych partnerów chcemy budować solidną sieć doświadczonych ekspertów w obszarach, w których się specjalizujemy – mówi Mirosław Pisaniec, Channel Sales Manager na obszar Europy Środkowo-Wschodniej w Schneider Electric.
Dodaje przy tym, że fundusze zasilające kanał partnerski mają jednak nie tylko pozwalać na pogłębianie wiedzy eksperckiej wśród partnerów, ale także na rozszerzenie zakresu ich certyfikacji oraz kształtowanie świadomości marki na rynku wraz
z ukazaniem obszernego portfolio produktowego.
– Ostatecznie przekłada się to na wartość dla klienta końcowego, któremu możemy zagwarantować dostęp do doświadczonych i sprawdzonych dostawców – dodaje Miroslaw Pisaniec.
Należy działać w kontekście całego lejka sprzedażowego.
Kolejną, ciekawą przyczyną, dla której siła i sensowność wsparcia marketingowego producentów, kierowana do partnerów, liczy się bardziej niż kiedykolwiek wcześniej, jest rosnąca świadomość i konkretne oczekiwania ze strony partnerów.
- Dążenia producentów, zarówno jeśli chodzi o przekaz marketingowy kierowany do odbiorców końcowych, jak i aktywność w kanale, powinny realnie wspierać proces sprzedaży – podkreśla Sebastian Wąsik, Country Manager baramundi.
Z drugiej strony vendorzy, którzy dokładają wszelkich starań, aby wyjść naprzeciw potrzebom partnerów, rozbudowując dla nich wsparcie marketingowe, oczekują jednocześnie dużego zaangażowania z ich strony. Na przykład Dell Technologies oferuje wiele różnorodnych form wsparcia marketingowego właśnie po to,
n Mirosław Pisaniec, Channel Sales Manager na obszar Europy Środkowo-Wschodniej, Schneider Electric
Wielu partnerów to mniejsi resellerzy, a oni ze względu na ograniczenia budżetowe nie podejmą samodzielnych akcji marketingowych. Dlatego też działamy tak, aby zawsze móc zapewnić im dostęp do przydatnych, zunifikowanych materiałów marketingowych, które mogą być zaimplementowane w szybki i prosty sposób. Opracowujemy nie tylko layouty czy pojedyncze kreacje, ale też tworzymy kompleksowe kampanie tematyczne, aby nasi partnerzy mogli docierać z ofertą do różnych grup odbiorców. W tym roku zrealizowaliśmy kampanię edukacyjną dotyczącą tego, czym jest UPS i jaka jest jego rola. Obecnie trwa kampania związana z sezonem burzowym i potrzebą zapewnienia infrastrukturze ochrony przeciwprzepięciowej. Wkrótce ruszamy z kampanią zasilania bezprzerwowego kierowaną do branży gamingowej. Najczęściej artykułowaną ze strony partnerów potrzebą jest nasz wkład, czy to w postaci wiedzy eksperckiej niezbędnej do poprowadzenia modułów szkoleniowych dla klientów końcowych, czy to sprzętu demonstracyjnego, który może posłużyć do tzw. hands-on sessions.
by partner mógł postawić na narzędzia, które w jego przypadku przyniosą rezultaty. Jednakże do tego niezbędny jest wysiłek partnera włożony w analizę: czy faktycznie narzędzia, które oferuje producent wspierają sprzedaż w jego firmie? Czy realnie zostaną wdrożone na poziomie całej organizacji? Czy podczas rozmowy z odbiorcą biznesowym handlowcy będą potrafili skutecznie wykorzystać przekazaną przez producenta wiedzę?
– O działaniach marketingowych musimy myśleć holistycznie, w kontekście całego lejka sprzedażowego i długoterminowej relacji z klientem – podkreśla Marcin Morawski. Myślenie o działaniach marketingowych kierowanych do kanału, jako elemencie wielopłaszczyznowej układanki jest obecne również w Schneider Electric.
– Działania te w efekcie mają przynieść odpowiedni zwrot z inwestycji. Dlatego właśnie ich skuteczność weryfikowana jest w oparciu o twskaźnik ROI, stanowiący wyznacznik doboru najbardziej efektywnych rozwiązań dla poszczególnych segmentów – podsumowuje Mirosław Pisaniec.
Rusza druga edycja programu certyfikacji producentów rozwiązań ICT!
Certyfikat Channel Master 2025 mogą uzyskać producenci, którzy prowadzą swoją działalność za pośrednictwem partnerów handlowych. Certyfikaty Channel Master 2025 zostaną wręczone 28 listopada podczas wyjątkowej gali CRN w warszawskim Hotelu Polonia Palace!
Szczegółowych informacji udzielają: Agata Myśluk (agata.mysluk@crn.pl) i Jacek Goszczycki (jacek.goszczycki@crn.pl).
„Będziemy angażować się we współpracę z resellerami, ponieważ chcemy jak najlepiej rozumieć rynkowe trendy i oczekiwania klientów” – mówią Tymoteusz Grobelny, Key Account Manager B2C oraz Przemysław Mika, Key Account Manager B2B w polskim oddziale ViewSonic.
n Kilka dekad temu monitory ViewSonic były bardzo popularne w Polsce. Co wydarzyło się, że zniknęły z rynku i dlaczego zdecydowaliście się na powrót?
Tymoteusz Grobelny ViewSonic był u nas znaną marką w latach 90. i 2000., głównie za sprawą aktywnej promocji przez ówczesnego dystrybutora – California Computer. Jednak po jego akwizycji działania te straciły na intensywności, a przez brak obecności przedstawicielstwa ViewSonic w Polsce marka praktycznie zniknęła z rynku w okolicach 2010 roku. Przed pandemią mieliśmy organizacyjną restrukturyzację, w wyniku której zarządzanie obszarem CEE przekazano z Londynu do Turcji, a za sprzedaż w naszym regionie odpowiedzialny został Hasan Koçyigit, obecny wiceprezes ViewSonic. Podjęto też decyzję o zintensyfikowaniu działań, dlatego w ubiegłym roku otwarto polskie biuro.
n Jak obecnie wygląda kanał dystrybucyjny ViewSonica?
Przemysław Mika Żeby być precyzyjnym, przez ostatnich kilka lat ViewSonic był obecny na polskim rynku w bardzo ograniczonym zakresie poprzez wrocławskiego dystrybutora Vidis. Ponieważ jednak nie prowadzi on broadline’owej dystrybucji, a w swojej niszy skupia się wyłącznie na oferowaniu sprzętu prezentacyjnego, w ofercie z naszego portfolio miał tylko projektory. Natomiast w kwestii monitorów zaczynamy praktycznie od zera, bo młodsze pokolenie w ogóle nie zna naszej marki w tym obszarze produktowym. Dlatego na kolejnego, już bardziej masowego dystrybutora, wybraliśmy firmę Incom, która od dziesięcioleci ma zbudowaną renomę oraz bardzo dużą sieć aktywnych na rynku resellerów. Tymoteusz Grobelny Incom będzie oferował nasze pełne portfolio, czyli monitory desktopowe i przenośne, pełną paletę projektorów oraz monitory interaktywne. Z kolei Vidis, jako firma skupiająca się głównie na branży edukacyjnej i multimedialnej, nadal jest dystrybutorem naszych projektorów i monitorów interaktywnych. Na razie nie planujemy zwiększania liczby dystrybutorów, skupiając się na zintensyfikowaniu działalności sprzedażowo-marketingowej. Wspólnie z obecnymi dystrybutorami będziemy organi-
zować spotkania dla partnerów, cykle roadshow, webinary, jak też szkolenia dla działów handlowych. Obecnie pracujemy nad stworzeniem rozbudowanego systemu rabatowego. Zdecydowaliśmy się też na zewnętrzny serwis, za co odpowiada krakowski Fixit.
n W jaki sposób planujecie bezpośrednio wspierać resellerów?
Tymoteusz Grobelny Chcemy jak najlepiej rozumieć rynkowe trendy i oczekiwania klientów, a to resellerzy są najbliżej nich. Już teraz widzimy, że mamy do czynienia ze zdecydowanie bardziej świadomym biznesowym klientem niż 10–20 lat temu, co powoduje, że skuteczna finalizacja transakcji wymaga odpowiedzi na nierzadko trudne pytania i w tym zakresie istnieje potrzeba wsparcia ze strony partnerów. Uważamy, że naszym zadaniem jest usystematyzowanie ich wiedzy, którą będą mogli wykorzystywać w rozmowach z klientem końcowym. Chcemy kłaść nacisk na oferowaną przez nas wartość dodaną, bo uważamy, że jest ona unikalna na bardzo konkurencyjnym rynku.
n Czy możecie wskazać kilka jej przykładów? Przemysław Mika Jest ona różna w zależności od rodzaju produktu oraz rynku, na który go kierujemy. Nasze szerokie portfolio mamy podzielone na trzy grupy klientów – biznesowych, edukacyjnych i konsumentów indywidualnych. Resellerzy, którzy kierują swoją ofertę – głównie poprzez e-sklepy – do masowego klienta, są zainteresowani przede wszystkim korzystną marżą i oczywiście tę zapewniamy. Z kolei resellerom prowadzącym projekty umożliwiamy ich rejestrację i rezerwację ceny, gwarancję wyłączności oraz pełne wsparcie potrzebne w ramach obsługi klientów.
Jesteśmy dostawcą nie tylko urządzeń, ale też usług i oprogramowania.
Tymoteusz Grobelny W przypadku monitorów wartość dodana dotyczy ich funkcjonalności, jak też jakości wyświetlanego obrazu. Nasze motto to „see the difference”, a najlepszym dowodem, że spełniamy tę obietnicę, jest wyróżnienie przyznane przez serwis Blur Busters, testujący monitory dla graczy. ViewSonic nie dość, że jest jedynym na świecie producentem, którego sprzęt uzyskał tytuł „Blur Busters Approved Monitors”, to jeszcze otrzymały go dwa modele – 24-calowy XG2431 oraz tego-
roczny 27-calowy XG270 z matrycą OLED w rozdzielczości 2K. Mamy też bogatą rodzinę świetnych monitorów dla grafików oraz projektantów, o różnych proporcjach ekranu i wielkości przekątnej. Zapewniają bardzo szeroką rozpiętość barw, zgodną z HDR10, jak też Adobe RGB oraz DCI-P3. Część z nich dostarczanych jest z kapturem i kalibratorem, który może pełnić również funkcję manipulatora w programach graficznych. Osobom pracującym zdalnie lub często uczestniczącym w wideokonferencjach proponujemy monitory z wbudowana kamerą. Mamy dwa takie modele: w jednym jest ona zasuwana zaślepką, zaś w drugim jest chowana w obudowie, a także zapewnia tłumienie dźwięku tła i umożliwia oświetlenie rozmówcy diodami LED. Ciekawą grupą urządzeń są też specjalistyczne monitory przemysłowe, które mogą być obsługiwane w rękawiczkach oraz są odporne na zalanie. Można je instalować w kioskach, modułach do składania elektronicznego podpisu lub w przemyśle. n Dwadzieścia lat temu, gdy masową popularność zdobywały laptopy, dość popularne było stwierdzenie, że dwie grupy produktów zostaną przez nie skanibalizowane: monitory i UPS-y. Zasilacze nadal dobrze się sprzedają, ale głównie do infrastruktury serwerowej. Jak z kolei wygląda sytuacja z monitorami w przypadku konsumentów i zwykłych użytkowników biznesowych?
W związku z unijną dyrektywą sprzedaż tradycyjnych projektorów lampowych będzie zanikać.
Tymoteusz Grobelny Bardzo dobrze. Potwierdzają to wyniki sprzedaży, a z rozmów z resellerami i klientami można wywnioskować, że nie ma żadnego zagrożenia dla tej grupy produktów. Przetwarzamy coraz więcej biznesowych informacji, które trzeba wizualizować i porównywać, do czego ekran laptopa po pewnym czasie okazuje się zbyt mały. Bardzo szybko rośnie też rynek lekkich monitorów mobilnych, podłączanych do laptopa i zasilanych za pomocą jednego kabla USB-C. Mamy też klientów, którzy podłączają taki monitor, wraz z zewnętrzną klawiaturą i myszą do… telefonu i w ten sposób korzystają z niego jak z komputera. W naszym portfolio znajduje się kilka 15,6-calowych modeli takich monitorów, a także 17-calowy model gamingowy z matrycą 144 Hz.
Przemysław Mika Rośnie także popyt na projektory, bo wielu konsumentów jest świadomych, że światło odbite jest zdrowsze od promieniującego z monitora. Dlatego nasze miniaturowe LED-owe projektory z wbudowaną baterią są często kupowane jako prezent dla dziecka. Popularnością cieszą się też kompaktowe urządzenia, które pozwalają obejrzeć mecz lub grać z obrazem o przekątnej 120 cali wyświetlanym z odległości dwóch metrów, a następnie schować projektor do szuflady. Ciekawostką w ofercie są dwa modele certyfikowane przez Microsoft do wykorzystania z konsolą Xbox. Trzeba też mieć na uwadze, że w 2027 roku wchodzi w życie dyrektywa zakazująca producentom sprzedaży projektorów z lampami rtęciowymi. Tradycyjne lampowe projektory będą więc zanikać, bo nie będzie można kupić do nich lamp, które trzeba wymieniać co kilka tysięcy godzin. W projektorach LED źródło światła starczy na 20–30 tysięcy godzin.
n Czy obiecana wartość dodana w podobnym zakresie obecna jest też w monitorach interaktywnych?
Przemysław Mika Jak najbardziej! Są one bardzo dopracowane pod względem jakości, co jest regularnie potwierdzane przez klientów. Ten rynek jest bardzo konkurencyjny, a specyfikacje w ulotkach wyglądają podobnie, więc liczy się wrażenie użytkownika związane z precyzją, dokładnością i szybkością reakcji, jak też komfortem pisania ręką lub pisakiem. Oprócz tego zawsze staramy się w takich produktach spełniać rygorystyczne normy i certyfikaty związane z ekologią oraz bezpieczeństwem przesyłania danych. Nieustannie 300 zatrudnionych przez ViewSonic programistów rozbudowuje też oprogramowanie monitorów interaktywnych, tworząc narzędzia służące nauczycielom do opracowywania atrakcyjnych graficznie i merytorycznie lekcji. W drugim półroczu 2024 do oferty dołożymy urządzenia zgodne z aplikacją Microsoft Teams Rooms. Finalnie chcemy oferować dopracowane pod każdym względem monitory interaktywne dla edukacji i rozwiązania przygotowane do prowadzenia profesjonalnych i bezpiecznych, zgodnych ze standardem ISO 27001 wideokonferencji w każdej przestrzeni biurowej.
nr 6–7/2024
W przypadku infrastruktury zapewniającej cyberbezpieczeństwo ze środowisk „multivendorowych” można wprawdzie wycisnąć zdecydowanie więcej, ale traci się przy tym wysoki poziom ergonomii oraz prostotę obsługi i wsparcia technicznego.
n Tomasz Janoś
Rynek security jest bardzo zróżnicowany. Z jednej strony mnóstwo vendorów z pojedynczymi, punktowymi produktami. Z drugiej – wielcy gracze, którzy po kolejnych akwizycjach w branży bardzo mocno akcentują, że mają wszystko w swoim portfolio – całe zintegrowane bezpieczeństwo. Jednak w rzeczywistości żaden, nawet największy vendor nie pokrywa w 100 proc. obszaru security. To, co naprawdę ma w swoim portfolio, nie zaś tylko w przekazie marketingowym, też jest zróżnicowane – pewne części oferty mogą być na świetnym poziomie, zaś inne tylko na akceptowalnym. I dlatego często dochodzi w tej branży do akwizycji, bo w ten sposób producenci chcą wzmacniać swoje słabsze obszary. – Klienci często ulegają sile przekonywania dużego i znanego vendora, bez względu na to, czy to co głosi w pełni pokrywa się z rzeczywistością. Co ważne, producent z takim kompleksowym podejściem ma też moc oddziaływania w postaci większych upustów. Wybór jednego dostawcy z szerokim portfolio może także wynikać z tego, że niejeden klient z sektora publicznego woli zrobić pojedyncze postępowanie,
zamiast przygotowywać wiele mniejszych. I wreszcie nie można nie doceniać aspektu ludzkiego. Klienci zwykle mają braki kadrowe, więc nie chcą mieć kilkunastu rozwiązań, których obsługi musiałby się uczyć ich zespół – mówi Bartosz Dzirba, dyrektor działu technicznego i wiceprezes zarządu Passusa.
rozwiązań, nie przejmując się za bardzo brakiem jednej konsoli.
Nie uszczęśliwiajmy kogoś na siłę.
Producenci z szeroką ofertą z zakresu cyberbezpieczeństwa i/lub sieci często w swoich prezentacjach posługują się terminem „single pane of glass”. Teoretycznie jest to możliwość zarządzania bezpieczeństwem i/lub siecią z jednego miejsca i na jednym ekranie. Za pomocą jednego interfejsu graficznego. użytkownik może wykonywać wszelkie niezbędne prace. Tego typu rozwiązania zwiększają efektywność, redukują czas potrzebny na przełączanie się między różnymi narzędziami i interfejsami, oraz ułatwiają monitorowanie i diagnostykę problemów. Jednakże uzyskanie takiego efektu wymaga najczęściej zakupu rozwiązań od jednego producenta lub grupy takich, którzy postawili na integrację swoich produktów. Wciąż są jednak klienci, którzy będą poszukiwać najlepszych punktowych
W obszarze cyberbezpieczeństwa klienci wybierają różne podejścia, w zależności od swoich potrzeb i możliwości. Część preferuje zintegrowane platformy, umożliwiające scentralizowane zarządzanie. Inni wolą rozwiązania najlepsze w swojej klasie, kierując się raportami firm analitycznych lub własnymi wewnętrznymi testami, dzięki którym mogą zostać zaadresowane specyficzne wymagania.
– To drugie podejście jest często stosowane w organizacjach z unikalnymi potrzebami lub w branżach regulowanych. Każda strategia ma wady i zalety, które muszą być dokładnie przemyślane na etapie doboru technologii – mówi Łukasz Knysak, Senior Systems Engineer w Exclusive Networks.
Zdaniem niektórych specjalistów tym, co determinuje podejmowane przez klientów wybory, są: budżet, polityka wewnętrzna danej firmy i filozofia działania jej kadry IT.
– Polityka wewnętrzna, jeśli istnieje, ustanawia standard systemów używanych w danej firmie. Jeżeli centrala posiada rozwiązania od producenta A, to będzie się ich trzymała w swoich oddziałach, nie bacząc na koszty, tak żeby mieć wszystko zintegrowane w jednym miejscu, a przede wszystkim ułatwiony model zarządzania infrastrukturą, jak też uproszczone procedury zgłaszania awarii czy ich obsługi. To oczywiście najczęściej charakteryzuje te największe firmy – twierdzi Karol Goliszewski, Consulting Engineer w Grandmetric.
Problem pojawia się w chwili, gdy takie podejście jest drogie i wówczas bardziej niż na łatwość obsługi, patrzy się na koszty. Gdy bardziej opłaca się używać warstwy sieciowej od jednego producenta, a oprogramowania do ochrony końcówek od drugiego, to chociaż cierpi na tym ergonomia, budżet jest uratowany.
Wady jednego, zaletami drugiego
Oczywistą zaletą zintegrowanych platform jest prostota obsługi oraz ewentualnego serwisu. W efekcie koszty przeszkolenia
i wdrożenia nowego członka zespołu IT są niskie, podobnie jak ryzyko kosztownej awarii, a troubleshooting potencjalnych problemów znacznie ułatwiony (często może się ograniczyć do założenia zaledwie jednego ticketu u producenta rozwiązania). Ich wadą są zazwyczaj wyższe koszty – choć często producenci rozwiązań zintegrowanych mocno grają ceną, by pozyskiwać kolejnych klientów i ich od swoich rozwiązań „uzależnić”- oraz brak w pełni optymalnego rozwiązania dla wszystkich obszarów, bo vendor w pewnych wykazuje swoje przewagi, a w innych braki.
– Zaletą wyboru rozwiązań, które są najlepsze w swojej klasie, ale niekoniecznie gotowe do zintegrowanego działania, jest to, że wdrażamy tylko to, co niezbędne. Dostajemy funkcję, z której na pewno skorzystamy i nie musimy godzić się na jakiekolwiek kompromisy. Przy czym nawet tanie rozwiązania również mogą być niezwykle skuteczne, o ile dobrano je w sposób właściwy i mądrze je skonfigurowano – mówi Karol Goliszewski.
Do wad takiego podejścia trzeba zaliczyć przede wszystkim kwestię szkolenia, które
jest czasochłonne. Ponadto stosunkowo łatwo o awarię, którą trudno potem usunąć. – Każde rozwiązanie ma swoje wsparcie, wymaga swojego okna serwisowego i często może dochodzić tutaj do spychologii, czyli przerzucania się odpowiedzialnością: „skoro niewłaściwie działa połączenie z naszym serwerem marki A, to proszę najpierw sprawdzić, czy problem nie występuje na warstwie sprzętowej sieci LAN producenta B” – tłumaczy przedstawiciel Grandmetric.
W przypadku wyboru jednego dostawcy z szeroką ofertą poważnie wzrasta prawdopodobieństwo, że klient stanie się tak uzależniony od jego produktów, że nie będzie mógł zmienić tego dostawcy bez poniesienia kosztów, które mogą być nie do udźwignięcia. Czy klienci przy swoich wyborach biorą pod uwagę niebezpieczeństwo vendor lock-in?
– Wybierając rozwiązania, klienci zawsze rozważają alternatywy. Obawa „vendor lock-in” pojawia się najczęściej przy kolejnej rozbudowie architektury. Z jednej strony
pojawiają się nowe korzyści, takie jak lepsze wykorzystanie zaawansowanych usług producenta i integratora, ale z drugiej strony, opracowanie planu migracji do alternatywnych rozwiązań staje się bardziej skomplikowane. Dlatego zintegrowane rozwiązania producenta powinny umożliwiać współpracę z innymi technologiami, stosując otwarte standardy zarządzania i wymiany danych – uważa Robert Dąbrowski, szef zespołu inżynierów w polskim oddziale Fortinetu.
Przy czym produkty platformowe nie muszą ograniczać klienta do jednego konkretnego producenta, jeśli bazują na otwartych protokołach. Tym samym rozwiązania różnych dostawców można ze sobą integrować (choć zazwyczaj w mniejszym stopniu niż produkty od jednego producenta).
– Klienci często pytają o kwestie dotyczące vendor lock-in w przypadku projektów obejmujących zakresem znaczną część infrastruktury, gdzie proponujemy zintegrowane rozwiązania. Rolą integratora jest uczciwe przedstawienie nie tylko plusów, ale też minusów danego wyboru – mó-
Zdaniem specjalisty
wi Paweł Zwierzyński, Network&Security Team Leader w Vernity.
Rzecz jasna, nie powinno się bagatelizować obaw klientów przed uzależnieniem się od dostawcy zintegrowanej platformy. W tym kontekście można się spodziewać sporych kosztów w dłuższej perspektywie oraz ograniczonej elastyczności platform w zakresie ich dostosowania do zmieniających się potrzeb biznesowych.
jest
brym przykładem jest niedawne przejęcie IBM QRadar przez Palo Alto, który to zakup zdaje się być sposobem na wycofanie z rynku produktu konkurencji.
śledzenie uprzywilejowanych użytkowników.
– Należy dokładnie analizować poszczególne przypadki, ponieważ migracja do innych rozwiązań również może być bardzo kosztowna, wymagać dodatkowych szkoleń oraz zmian w procesach operacyjnych. W minimalizowaniu ryzyka może pomóc rozważenie elastycznych strategii wdrożeniowych i negocjowanie warunków umów – radzi Wojciech Wąsik, Chief Digital & Information Security Officer w Transition Technologies PSC.
Co ważne, nawet wybór rozwiązania od dużego, renomowanego vendora nie daje pewności co do przyszłych korzyści. Do-
Robert Dąbrowski, szef zespołu inżynierów, Fortinet
Integrator, który proponuje klientowi określone rozwiązanie, bierze pod uwagę jego wymagania oraz swoje możliwości technologiczne i biznesowe. Marża związana ze sprzedażą produktów i usług jest ważna, ale istotne jest też planowanie projektu w jego całym cyklu życia. Czas potrzebny na wdrożenie, obsługa serwisowa, jak też usługi konsultacyjne, które integrator jest w stanie zaoferować, przesądzają o sukcesie współpracy z klientem. Łatwe i szybkie we wdrażaniu platformy, zapewniające spójne zarządzanie i odpowiednią jakość, są szczególnie atrakcyjne dla integratora. Naturalnie stają się pierwszym wyborem przy budowie kompleksowej oferty. A jeśli tak, to rolą producenta jest utrzymywanie wysokiego poziomu zarówno produktów, jak i usług serwisowych.
Łukasz Knysak, Senior Systems Engineer, Exclusive Networks
Zintegrowane platformy upraszczają realizację projektów wdrożeniowych, jak też zmniejszają złożoność zarządzania nimi. Budowanie długoterminowych relacji z jednym dostawcą może prowadzić do uzyskania korzystnych warunków handlowych i lepszego wsparcia technicznego. Niestety, takie podejście ogranicza elastyczność oferty i możliwości dostosowywania się do specyficznych potrzeb klientów, stąd firmy integratorskie często mają w ofercie systemy z obu obszarów. Podejście oparte na najlepszych w swojej klasie rozwiązaniach pozwala integratorom oferować bardziej zróżnicowane usługi i budować reputację jako ekspertów w konkretnych technologiach, a w konsekwencji zwiększać zaufanie klientów. Wymaga to jednak wysokich kompetencji technicznych, umiejętności zaawansowanego zarządzania i wiąże się z potencjalnym wzrostem kosztów operacyjnych.
– Choć vendor lock-in stanowi zagrożenie, to widziałem przypadki, gdy duży klient ostatecznie dał jednak radę wymienić całe duże rozwiązanie na inne. Niemniej jest to zwykle czasochłonne i przedłuża proces wdrożenia tego, co było oczekiwane, a czego poprzednie rozwiązanie nie zapewniło – podkreśla Bartosz Dzirba.
Dla integratora wdrożenie zintegrowanych platform wiąże się z prostszą implementacją, co może zmniejszyć koszty i czas realizacji projektów. Wsparcie techniczne ze strony jednego dostawcy sprzyja zaś sprawnemu rozwiązywaniu ewentualnych problemów. Z drugiej strony ograniczona elastyczność utrudnia ich dostosowanie do specyficznych potrzeb klientów, a silna konkurencja może prowadzić do presji na obniżanie cen usług integracyjnych.
–Z drugiej strony rozwiązania „best of breed” dają integratorom możliwość oferowania najbardziej zaawansowanych i specjalistycznych usług, a dzięki elastycznej konfiguracji mogą zwiększać satysfakcję klientów, umożliwiając lepsze dopasowanie do indywidualnych potrzeb. Niemniej ich implementacja wymaga złożonej integracji wielu narzędzi, co może zwiększać koszty i czas projektów, a także koordynacji wsparcia technicznego różnych dostawców. Dlatego niektórzy decydują się na podejście hybrydowe, łącząc zalety obu systemów tak, aby jak najlepiej dostosować rozwiązanie do specyficznych potrzeb klienta – uważa Wojciech Wąsik.
Gdy klienci wiedzą, co mają i do czego dążą, a także nie boją się wyzwań technicznych związanych z wdrażaniem środowiska „multivendorowego”, to integratorzy chętnie pomagają im w doborze rozwiązań do takich wdrożeń.
– Z drugiej strony są tacy klienci, którzy niepewnie czują się w roli administratora, bądź zwyczajnie nie chcą tracić na czynno-
ści administracyjne zbyt dużo czasu. Wówczas przekonanie ich do zakupu produktów i systemów niepowiązanych konsolą „single pane of glass” może być dla integratora strzałem w stopę – ostrzega Karol Goliszewski.
Integrator powinien bowiem wspierać klienta na wszystkich etapach współpracy: od doboru rozwiązań, przez ich implementację po opiekę nad tym, co się wdrożyło. Wynika to zazwyczaj z umowy na obsługę i wsparcie nowego środowiska pomiędzy integratorem a klientem. Klienci, którzy oczekują po prostu działającego i prostego w obsłudze rozwiązania zintegrowanego, w razie konieczności pracy ze środowiskiem „multivendorowym” często się męczą z jego obsługą, nie potrafiąc poradzić sobie ze zgłaszaniem awarii u producentów i niepotrzebnie marnując czas zarówno swój, jak i integratora.
Karol Goliszewski, Consulting Engineer, Grandmetric Chociaż można mieć obawy związane z „vendor lock-in”, to nie należy demonizować tego zjawiska. Owszem, może ono trwale związać inwestora z konkretnym rozwiązaniem, ale pozwala też producentowi tworzyć jeszcze doskonalsze powłoki zarządzania takimi systemami. Są już platformy, z których można w bardzo prosty sposób zaadaptować całe klastry urządzeń. Mowa o funkcji „zero-touch provisioning”, gdy w jednym panelu zarządzania możemy kilkoma kliknięciami uruchomić, skonfigurować i przypisać do konkretnego obszaru klaster przełączników, który natychmiast „dogada się” z posiadanymi przez nas serwerami czy firewallami tego samego vendora. Kupując osobne „klocki”, niepowiązanych ze sobą producentów, skazujemy się na mozolną, ręczną konfigurację wszystkiego. Dla jednych będzie to ogromną zaletą, dla drugich – dyskwalifikującą wadą.
– To może rodzić niepotrzebne frustracje, w skrajnym przypadku doprowadzając do zerwania relacji integrator-klient. Dlatego nie uszczęśliwiajmy nikogo na siłę. Starajmy się wchodzić w buty klientów i oferujmy im to, co będzie pracowało z korzyścią dla nich, a z pewnością zyskamy doskonałą dwustronną relację, zbudowaną w oparciu o produkty, z których inwestorzy są zadowoleni –mówi Karol Goliszewski.
W jego opinii ze środowisk „multivendorowych” można wycisnąć zdecydowanie więcej, choć traci się przy tym wysoki poziom ergonomii oraz prostotę obsługi i wsparcia technicznego. Jednak ważne jest to, że można wybierać produkty dla poszczególnych obszarów infrastruktury IT, biorąc pod uwagę ich stosunek ceny do możliwości/wydajności i ogólnej skuteczności.
– Co mi po „single pane of glass”, które integruje znakomitego firewalla, XDR-a i WAF-a, ale oznacza przeciętną albo wręcz awaryjną sieć dostępową?
Bartosz Dzirba, dyrektor działu technicznego, Passus
Nasze doświadczenia z klientami są różne – od jednej platformy określonego vendora „dobrej na wszystko”, po częstsze i z naszego punktu widzenia bardziej racjonalne podejście miksu najlepszych rozwiązań w swojej klasie. Ten drugi przypadek obejmuje najróżniejsze rozwiązania – od znanych vendorów aż po niemal niszowe. Integracja to jeszcze inna historia. Nie ma systemów, których się nie da zintegrować, większość integruje się wręcz łatwo od strony technicznej. Przykładowo, dla nas taką platformą do integracji jest Splunk, nawet nie jako SIEM/ SOAR, tylko narzędzie dla SOC – analityczne, raportowe, alertowe.
n Wojciech Wąsik, Chief Digital & Information Security Officer, Transition Technologies PSC Przedsiębiorstwa średniej wielkości i firmy z ograniczonymi zasobami IT, preferują zintegrowane platformy umożliwiające zarządzanie wieloma funkcjami bezpieczeństwa z jednej konsoli. Przykładami takich systemów są SIEM-y oraz UTM-y, które integrują na poziomie oprogramowania i sprzętu takie zabezpieczenia jak firewall, antywirus i monitorowanie sieci. Z kolei firmy z rozbudowanym zespołem IT, które dysponują większym budżetem, częściej wybierają podejście „best of breed” – polegające na wyborze specjalistycznych rozwiązań najwyższej klasy i dostosowaniu ich do swoich indywidualnych potrzeb. Należą do nich systemy do zarządzania podatnościami, ochrony punktów końcowych, zarządzania tożsamością, a także oprogramowanie DLP.
Z drugiej jednak strony całkowicie jestem w stanie zrozumieć kogoś, kto potrzebuje „all-in-one”, bo bardziej niż punktów uzyskiwanych w benchmarkach przez najlepsze w swojej klasie produkty, oczekuje od rozwiązania przede wszystkim prostoty obsługi, serwisu i wsparcia – podsumowuje Karol Goliszewski. n
n Paweł Zwierzyński, Network&Security Team Leader, Vernity Dobór rozwiązania dla klienta poprzedzamy analizą potrzeb i problemów, które należy rozwiązać. W zależności od projektu, lepszym wyborem mogą okazać się rozwiązania platformowe, a kiedy indziej zdecydowanie korzystniejsze będą rozwiązania punktowe. Rozwiązania platformowe pokrywają szeroki zakres infrastruktury, są bardziej zintegrowane, tym samym łatwiej zarządzalne, ale z drugiej strony zazwyczaj brakuje im zaawansowanych funkcjonalności w konkretnych obszarach. Sami klienci nie wydają się preferować jednego podejścia kosztem drugiego. Nie rekomenduję im też wybierania produktów na podstawie benchmarków, testów czy rankingów, ponieważ instytucje, które je przeprowadzają w zdecydowanej większości nie są, niestety, niezależne. Jedyny sprawdzony sposób na to, żeby być w miarę pewnym czy platforma lub też produkt punktowy spełnia wymagania, są testy PoC. Choć my staramy się nie skupiać tylko na platformach, bądź tylko na pojedynczych produktach, to projekty platformowe mają zazwyczaj większą skalę, co z perspektywy integratora jest bardziej pożądane.
Zintegrowanie ze sobą narzędzi ochronnych od jednego producenta, tak jak ma to miejsce w przypadku platformy Fortinet Security Fabric, ułatwia zarządzanie nimi za pośrednictwem wspólnego interfejsu, jak też – dzięki szybkiej wymianie między nimi informacji dotyczących zagrożeń – zwiększa poziom bezpieczeństwa.
Firmy coraz chętniej korzystają z chmurowych narzędzi ochronnych. Według badania Fortinet 2024 Cloud Security Report 95 proc. z nich twierdzi, że ujednolicona platforma bezpieczeństwa w chmurze z jednym pulpitem nawigacyjnym pomaga chronić dane w całym środowisku chmurowym. Jednak migracja procesów zabezpieczających do cyberprzestrzeni nierzadko odbywa się chaotycznie, a w efekcie wdrażanych jest wiele działających punktowo produktów pochodzących od różnych dostawców. Sytuacja ta znacząco obciąża zespoły ds. cyfrowego bezpieczeństwa, utrudniając im skuteczną ochronę zasobów przedsiębiorstwa. Warto zatem rozważyć konsolidację rozwiązań ochronnych w ramach jednej centralnie zarządzanej platformy.
Wśród współpracujących ze sobą w ramach platformy Fortinet Security Fabric narzędzi znajdują się dwa rozwiązania – FortiEDR i FortiXDR, których zadaniem jest zabezpieczanie firmowej sieci oraz urządzeń końcowych. Oprogramowanie typu EDR (Endpoint Detection and Response) wykry-
Maciej Iwanicki, BDM Security Operations, Fortinet
Serdecznie zapraszamy do kontaktu integratorów zaniami z kategorii XDR/
wa zaawansowane zagrożenia oraz reaguje na nie w czasie rzeczywistym, co jest możliwe dzięki wsparciu mechanizmów bazujących na uczeniu maszynowym. XDR (eXtended Detection and Response) posiada dodatkowe funkcje umożliwiające zbieranie danych o zagrożeniach z wielu źródeł, w tym urządzeń końcowych, sieci i środowisk chmurowych. Oba systemy są ważnymi elementami strategii cyberbezpieczeństwa, ponieważ pomagają w zatrzymywaniu potencjalnych cyberataków przed ich eskalacją, chroniąc dane oraz firmową infrastrukturę IT.
Platforma Fortinet Security Fabric powstała z myślą o konieczności tworzenia zintegrowanych środowisk bezpieczeństwa w firmach. W związku z tym dołożono wszelkich starań, aby scalane przez nią narzędzia, takie jak FortiEDR czy FortiXDR, były kompatybilne z jak największą liczbą innych rozwiązań firmy Fortinet, takich jak firewalle FortiGate czy systemy FortiSIEM. Zapewniono również współpracę z narzędziami ochronnymi pochodzącymi od innych dostawców poprzez interfejs API. W związku z tym firmy nie muszą rezygnować z wcześniej dokonanych inwestycji, aby stworzyć kompleksowy, zintegrowany ekosystem cyberbezpieczeństwa.
Kompleksowa ochrona
Wykorzystanie w rozwiązaniu FortiEDR mechanizmów sztucznej inteligencji ułatwia identyfikowanie nowych oraz nieznanych zagrożeń. Dokonuje ono zaawansowanej analizy ruchu sieciowego, jak też zachowania użytkowników oraz innych czynników, które mogą wskazywać na niebezpieczeń-
stwo. Dodatkowo, jeśli narzędzie wykryje podejrzaną aktywność, oprócz wysłania alertu może podjąć zautomatyzowane działania obronne, takie jak odizolowanie zainfekowanego urządzenia od reszty infrastruktury. W ten sposób FortiEDR ułatwia zwiększenie efektywności firm w zakresie zarządzania zagrożeniami oraz ochroną danych. Również rozwiązanie FortiXDR bazuje na mechanizmach sztucznej inteligencji. Podobnie jak FortiEDR, jest w stanie identyfikować oraz neutralizować podejrzane aktywności, przy czym udogodnienia zapewniane przez FortiXDR są bardziej zaawansowane. Dzięki pełnej automatyzacji procesów narzędzie to potrafi zneutralizować zagrożenie nawet w kilka sekund. Dlatego może zastępować pracę wykonywaną przez wykwalifikowanych ekspertów, co czyni je idealnym narzędziem dla przedsiębiorstw doświadczających problemu braku pracowników.
FortiXDR rozpoczyna działanie od analizy incydentu, aby potwierdzić, czy odbiegające od normy zjawisko to rzeczywiście cyberatak. Następnie podejrzana aktywność zostaje poddana dokładnemu badaniu przez sztuczną inteligencję, która ma za zadanie sklasyfikować i ocenić skalę zagrożenia. Proces odpowiedzi na atak kończy się wyborem najlepszego sposobu reakcji, która realizowana jest automatycznie, po to aby w sposób natychmiastowy zneutralizować niebezpieczeństwo.
Kontakt dla partnerów: Paweł Wojciechowski, Channel Sales Director, Fortinet, pwojciechowski@fortinet.com
Cisco Hypershield redefiniuje bezpieczeństwo centrów danych i chmury w erze AI.
We współczesnym wysoce rozproszonym środowisku IT, czas od wykrycia podatności do wykorzystania jej przez atakujących systematycznie się skraca. Z kolei obrona przed coraz bardziej wyrafinowanymi zagrożeniami wykracza poza skalę ludzkich możliwości. Tymczasem Cisco Hypershield pozwoli klientom autonomicznie segmentować sieci, korzystać z rozproszonej i niemal natychmiastowej ochrony przed exploitami bez łatek bezpieczeństwa oraz aktualizacji oprogramowania bez przestojów. Producent, który w odpowiedzi na rosnące wymagania, jakie przed infrastrukturą IT stawia rewolucja AI, zaprezentował zupełnie nowe podejście do ochrony centrów danych i chmur obliczeniowych. Firma zmienia sposób, w jaki wykorzystujemy i zabezpieczamy sztuczną inteligencję i inne nowoczesne przepływy pracy za pomocą Cisco Hypershield, pierwszego rozwiązania w swojej klasie.
Egzekwowanie polityk bezpieczeństwa za pomocą Cisco Hypershield odbywa się w trzech różnych warstwach: w oprogramowaniu, maszynach wirtualnych oraz w serwerach i urządzeniach sieciowych oraz obliczeniowych. Cisco Hypershield wykorzystuje te same potężne akceleratory sprzętowe, które są stosowane w systemach obliczeniowych wysokiej wydajności i hiperskalowych chmurach publicznych. Należy podkreślić, że Hypershield zostało zbudowane na trzech filarach. Pierwszym jest AI-Native – rozwiązanie od samego początku zaprojektowano i zbudowano tak, aby działało autonomicznie i predykcyjnie. Hypershield jest samozarządzalne i zapewnia hiper-rozproszone podejście do bezpieczeństwa na dużą skalę. Drugi to Cloud-Native – w tym kontekście Hypershield zostało zbudowane w oparciu o otwartą maszynę wirtualną eBPF, domyślny mechanizm łączenia i ochrony natywnych chmurowo przepływów pracy w chmurze hiperskalowej.
cje w kontekście obrony przed dzisiejszym wyrafinowanym krajobrazem zagrożeń. Pierwszym jest rozproszona ochrona przed exploitami. Atakujący są biegli w wykorzystywaniu nowo wykrywanych luk w zabezpieczeniach szybciej, niż obrońcy są w stanie je załatać. Według Cisco Talos Threat Intelligence każdego dnia pojawia się niemal 100 nowych podatności, co może prowadzić do katastrofalnych skutków. Hypershield zapewnia ochronę w ciągu minut, automatycznie testując i wdrażając zabezpieczenia kompensacyjne w rozproszonej strukturze punktów egzekwowania polityk. Kolejnym wyzwaniem jest autonomiczna segmentacja. Kiedy atakujący znajdzie się w sieci, do powstrzymania jego ruchów w jej obrębie kluczowa jest segmentacja. Hypershield nieustannie monitoruje, automatycznie uzasadnia i ponownie ocenia istniejące polityki w celu autonomicznej segmentacji sieci, rozwiązując problem w dużych i złożonych środowiskach.
Cisco Hypershield to nowa, rewolucyjna architektura zabezpieczeń. Została zbudowana w oparciu o technologię opracowaną pierwotnie dla hiperskalowych chmur publicznych, a teraz jest dostępna dla zespołów IT w przedsiębiorstwach każdej wielkości. Umożliwia egzekwowanie polityk bezpieczeństwa w każdej usłudze aplikacyjnej w centrum danych, w każdym klastrze Kubernetes w chmurze publicznej, jak też w każdym kontenerze i maszynie wirtualnej. Nowa technologia blokuje exploity aplikacji w ciągu minut i zatrzymuje ruchy boczne w obrębie sieci.
Z kolei pod względem hiperrozproszoności Cisco całkowicie zmienia sposób działania tradycyjnych zabezpieczeń sieciowych, wbudowując zaawansowaną kontrolę bezpieczeństwa w serwery i samą strukturę sieci. Hypershield obejmuje wszystkie chmury i wykorzystuje akcelerację sprzętową, taką jak jednostki przetwarzania danych (DPU), do analizowania anomalii w zachowaniu aplikacji i sieci i reagowania na nie. Pozwala to ustanowić ochronę bliżej tych przepływów, które jej wymagają.
I wreszcie należy zwrócić uwagę na samokwalifikujące się aktualizacje. W tym przypadku Hypershield automatyzuje niezwykle żmudny i czasochłonny proces testowania i wdrażania aktualizacji, wykorzystując podwójną płaszczyznę danych. Ta całkowicie nowa architektura oprogramowania umożliwia umieszczanie aktualizacji i zmian polityk w cyfrowym bliźniaku, który sprawdza je za pomocą unikatowej dla klienta kombinacji ruchu, polityk i funkcji, a następnie wdraża je bez przestojów.
Cisco Hypershield rozwiązuje trzy kluczowe wyzwania, z jakimi mierzą się organiza-
Cisco Hypershield będzie wbudowane w Cisco Security Cloud, ujednoliconą, opartą na AI, międzydomenową platformę bezpieczeństwa Cisco. Spodziewana data dostępności rozwiązania to sierpień 2024 r.
n a p a p i e r z
Polscy managerowie zarządzają multimilionowymi funduszami venture capital, a jednocześnie prywatnie
są spłukani… Jak to możliwe, by „mieć” miliony i nie mieć na ratę?
Odpowiedź jest prosta – wynika to z ekonomiki działania VC.
Wysokość budżetu, jakim dysponuje większość rodzimych VC, nie przekracza poziomu 40 mln zł. Najczęściej zakłada się, że będą funkcjonować przez około 8 lat, z czego 4 lata to czas inwestycji, a drugie 4 okres wychodzenia z tychże. Pieniądze na codzienne wydatki (w tym pensje), a więc opłaty za zarządzanie, to zwykle jakieś 2–3 proc. całkowitej kapitalizacji funduszu rocznie. Łatwo wyliczyć, że przeciętny VC na wszelkie koszty działania ma zatem mniej niż 100 tys. zł miesięcznie. Biorąc pod uwagę, że trzeba opłacić podstawowe wydatki (biuro, delegacje, kancelarie prawne, notariuszy, zewnętrzne analizy itd.), na wynagrodzenia może zostawać przy dobrych wiatrach około 600–700 tys. zł rocznie.
I teraz uwaga: VC często zarządzane są przez co najmniej dwóch partnerów, którzy jako osoby odpowiedzialne za całokształt zarabiają najwięcej. Biorąc zaś pod uwagę, że przeciętny fundusz poza partnerami zatrudnia jeszcze 2–3 osoby, budżet na codzienne działania robi się niebywale napięty. W efekcie często można spotkać się z wynagrodzeniami partnerów na poziomie 15–20 tys. zł miesięcznie całkowitego kosztu pracodawcy. Po od-
jęciu kosztów zatrudnienia i podatków jest to zatem kwota, którą spokojnie jako dobry manager można zarabiać na etacie. Biorąc pod uwagę zakres odpowiedzialności i to, co trzeba umieć, by prowadzić fundusz – wynagrodzenie nie powala na kolana. Rata za mieszkanie w Warszawie, leasing samochodu i już zaczyna się robić krucho…
Brzmi mało atrakcyjnie? Warto dodać do tego fakt, że w części funduszy inwestorzy wymagają, żeby zarządzający zaangażowali się kapitałowo. Innymi słowy, oczekują wpłacenia około 1 proc. kapitalizacji przez partnerów, aby mieć pewność, że są zaangażowani. W powyższym przypadku przy dwóch partnerach będzie to 200 tys. zł od osoby, więc przez pierwszy rok partner nie zarabia nic…
„Prawdziwe” pieniądze pojawiają się w tej grze, ale dopiero, gdy zwrócą się inwestycje i fundusz zostanie zamknięty. Z tym, że Polska to wciąż rynek wschodzący, więc większość zespołów zarządzających robi to po raz pierwszy lub nie zamknęło jeszcze pierwszego funduszu. To jest zatem często źródło frustracji: „zarządzam milionami i sam nie mam na ratę”, a także jej konsekwencji w postaci naginania ram, które prowadzą do różnego rodzaju kombinatoryki i patologii z cyklu: jak wyciągnąć pieniądze z VC. Wniosek jest zatem taki, że aby być partnerem w VC, trzeba mieć albo pieniądze z innych źródeł lub wcześniejszych sukcesów, albo godzić się na to, że przez 8–10 lat nie będzie się zarabiać kokosów. Te mogą się pojawić tylko wówczas, gdy fundusz osiągnie sukces biznesowy, a większość VC jednak nie zwraca inwestorom nawet kapitału… To naprawdę trudna gra. Dlatego zdecydowanie warto znać jej realia.
Szymon Janiak
Autor jest współtwórcą i partnerem zarządzającym funduszu venture capital Czysta3.vc
„Stajemy w obliczu deficytu mocy, który może spowolnić rozwój całego sektora DC. Konieczne jest więc projektowanie i rozwój centrów danych w taki sposób, aby zapewnić odpowiednią wydajność dostosowaną do wymagań AI i generalnie rosnącego zapotrzebowania na usługi data center przy jednoczesnym zastosowaniu rozwiązań optymalizujących zużycie energii i przyjaznych dla klimatu” – mówi Małgorzata Kasperska, wiceprezeska Schneider Electric na obszar Europy Środkowo-Wschodniej, odpowiedzialna za pion Secure Power.
n Jakie są obecnie największe wyzwania na rynku centrów danych? W świetle prognoz rosnącego zapotrzebowania na usługi data center, kluczowym wyzwaniem jest zapewnienie dynamicznego wzrostu infrastruktury IT, przy równoczesnym dążeniu do zrównoważonego rozwoju. Ma na to wpływ m.in. coraz powszechniejsze wykorzystanie sztucznej inteligencji. Według globalnych danych całkowita moc infrastruktury data center ma wzrosnąć z 56 GW w 2023 roku do 90 GW w roku 2028. Wpływ na to będą mieć obciążenia AI, które będą odpowiadać za około 15–20 procent zapotrzebowania na energię. Stajemy w obliczu deficytu mocy, który może spowolnić
rozwój całego sektora. Konieczne jest więc projektowanie i rozwój centrów danych w taki sposób, aby zapewnić odpowiednią wydajność dostosowaną do wymagań AI i generalnie rosnącego zapotrzebowania na usługi data center przy jednoczesnym zastosowaniu rozwiązań optymalizujących zużycie energii i przyjaznych dla klimatu. Operatorzy i właściciele centrów danych muszą się na tym skoncentrować, przy czym ten proces dopiero nabiera tempa i będzie kształtował rynek przez najbliższe lata. Rolą dostawców technologii jest natomiast proponowanie rozwiązań, które sprawią, że branża centrów danych stanie się sektorem bardziej zrównoważonym i osiągnie zeroemisyjność. Należy przy tym podkreślić, że odpowiednie rozwiązania już istnieją, w efekcie czego transformacja energetyczna branży DC możliwa jest tu i teraz.
n Od czego operatorzy data center powinni rozpocząć zmiany w ramach zrównoważonego rozwoju, aby efektywnie przeprowadzić ten proces?
Chcąc optymalizować centrum danych, musimy wiedzieć, które obszary wymagają poprawy działania.
Chcąc optymalizować, musimy wiedzieć, które obszary tej optymalizacji wymagają. Należy więc zacząć od opomiarowania i analizy zużycia energii. Oferujemy narzędzia, które to umożliwiają, zliczając przy tym ślad węglowy. Gwarantujemy przy tym kompleksowe doradztwo. Opracowaliśmy również pierwszy w branży przewodnik dotyczący optymalizacji centrów danych z wykorzystaniem potencjału sztucznej inteligencji oraz pierwszy w skali globalnej zestaw wytycznych wprowadzający klarowne metryki zarządzania celami zrównoważonego rozwoju w obiektach DC. Wszystko to pozwala operatorom centrów danych, jak i przedsiębiorstwom lepiej planować inwestycje w transformację w kierunku zrów-
noważonego rozwoju tak, aby rozwiązywała one realne problemy.
n Transformacja centrów danych to pojemne hasło. Jak je przekuć na język praktyki i konkretów? Centra danych muszą dostosować się do zwiększonego zapotrzebowania na wydajność związaną z rozwojem AI, a jednocześnie optymalizować zużycie energii, wody i dążyć do zeroemisyjności. Aby zarządzać transformacją w tym kierunku, przygotowaliśmy precyzyjne wskaźniki w pięciu kategoriach raportowania zrównoważonego rozwoju: energia, emisja gazów cieplarnianych, woda, odpady i lokalny ekosystem. Ich standaryzacja pomoże we wdrożeniu i optymalizacji rozwiązań w całej branży. Ponadto rekomendujemy oprogramowanie, takie jak DCIM do zarządzania i optymalizacji centrów danych. Zamierzamy nadal rozwijać te narzędzia, dostarczając architekturę, która wspiera transformację data center. Przykładowo, Schneider Electric wspólnie z Nvidia stworzył pierwszy referencyjny projekt dla klastrów AI. Nowa architektura jest przeznaczona zarówno dla już działających centrów danych, jak i najnowszych obiektów zaprojektowanych pod wymagania AI. Ukierunkowana analityka, efektywne narzędzia do zarządzania i monitorowania oraz rozwiązania umożliwiające budowę skalowalnych centrów danych, to podstawa rozwoju strategii zrównoważonego rozwoju przedsiębiorstwa i infrastruktury IT, zwłaszcza, że – jak wynika z naszego badania przeprowadzonego we współpracy z Fundacją Digital Poland – jedynie 44 procent dużych firm i 23 procent MŚP deklaruje posiadanie inteligentnych systemów zarządzania energią. Natomiast spośród MŚP ponad 41 procent rozważa wprowadzenie w przyszłości takich systemów. Wiele firm w Polsce wciąż nie ma wiedzy, jakie technologie poprawią ich efektywność energetyczną. Naszą rolą jest więc z jednej strony dzielenie się wiedzą i ukazywanie, że transformacja energetyczna to nie koszt, a inwestycja niosąca szereg korzyści nie tylko z punktu widzenia klimatu czy wizerunku danego przedsiębiorstwa, ale i portfela, a z drugiej wskazywanie na konkretne rozwiązania tak na poziomie strategicznym, jak i operacyjnym.
co oznacza, że działania i inwestycje w tym obszarze trzeba podejmować już teraz. Firmy z branży data center muszą więc balansować między potrzebami w zakresie mocy z jednej z strony, a z drugiej jej mniejszą dostępnością, a do tego z wymaganiami regulatorów. Odpowiednie narzędzia analityczne i opracowane przez nas rozwiązania pomagają znaleźć tę równowagę w ramach planowanych oraz wdrażanych rozwiązań i praktyk. Co istotne, regulacje to kolejny czynnik, który będzie napędzał inwestycje w infrastrukturę centrów danych. Warto podkreślić, że w związku z rozwojem hybrydowego środowiska IT przedsiębiorstwa muszą sobie poradzić z zapewnieniem zrównoważonego rozwoju i bezpieczeństwa rozproszonej infrastruktury i te wyzwania pozostaną z nami w długoterminowej perspektywie. Dlatego niezbędne są narzędzia do monitorowania i zarządzania infrastrukturą obejmującą kompleksowo zarówno systemy lokalne oraz chmurowe, jak i rozproszone lokalizacje. Rozbudowaliśmy więc portfolio o takie rozwiązania.
Restrykcyjne regulacje to jeden z czynników, który będzie napędzał inwestycje w infrastrukturę centrów danych.
n Czy jednak możemy sprostać zwiększonemu zapotrzebowaniu na energię dla sztucznej inteligencji, a jednocześnie zminimalizować jej wpływ na środowisko w kontekście inwestycji w centrach danych? To wydaje się trudne do pogodzenia.
Sztuczna inteligencja oznacza nie tylko zwiększone zapotrzebowanie na moc, lecz także nowe narzędzia, które wesprą cele zrównoważonego rozwoju. Przykładowo modele AI dzięki zaawansowanej analityce mogą zarządzać zasilaniem, chłodzeniem, utrzymaniem, monitorowaniem infrastruktury, jak również wspomóc projektowanie centrów danych i ich elementów tak, by poprawić ich efektywność energetyczną i zmniejszyć ślad węglowy. AI pomoże podejmować lepsze decyzje i automatyzować działania. Należy ją więc postrzegać nie jako problem na drodze do transformacji centrów danych i zeroemisyjności, lecz jako wsparcie.
n Jakie są jeszcze wyzwania związane z AI i zrównoważonym rozwojem centrów danych?
n Czy rozwiązania, takie jak DCIM, pomogą branży centrów danych znaleźć złoty środek pomiędzy potrzebą większej mocy a zrównoważonym rozwojem i wymaganiami regulatorów?
Branża centrów danych rzeczywiście musi wdrażać szereg restrykcyjnych regulacji. Na przykład dyrektywa EED wymaga, aby centra danych do 1 lipca 2026 roku osiągnęły efektywność zużycia energii (PUE) na poziomie 1,5, a do 1 lipca 2030 roku na poziomie 1,3. Ponadto już od początku tego roku operatorzy muszą co najmniej 50 procent energii czerpać ze źródeł odnawialnych. Cały sektor stoi też przed wyzwaniem spełnienia celu UE w zakresie zerowej emisji netto do roku 2050,
Zwiększenie gęstości mocy sprawi, że trzeba będzie przeprojektować już działające centra danych, ponieważ tradycyjna architektura może nie sprostać wymaganiom obciążeń AI i efektywnego chłodzenia. Naszym zdaniem, aby pomieścić niezbędne elementy potrzebne będą chociażby szafy serwerowe o większej niż standardowa szerokości, tj. 750 mm zamiast 600 mm. Taką architekturę rekomendujemy, gdyż pozwoli to pomieścić kolektory do chłodzenia cieczą. Według naszych badań chłodzenie powietrzem nie wystarczy przy zasilaniu ponad 20 kW na szafę, a w klastrach AI często jest to kilkukrotnie więcej. Co istotne w kontekście zrównoważonego rozwoju data center, technologia liquid cooling zmniejsza zapotrzebowanie serwerów na moc. Zalecamy więc, by centra danych realizowały projekty pozwalające stosować takie systemy chłodzenia i dostarczamy odpowiednią architekturę.
nr 6–7/2024
Wzrost kosztów, niedobór personelu i inne wyzwania, z jakimi zmagają się firmy z branży transportu i logistyki, zmotywowały przedsiębiorców do inwestycji w rozwiązania informatyczne.
n Krzysztof Pasławski
Dla polskiego sektora transportu i logistyki w tym roku droga do zysków stała się bardziej wyboista niż wcześniej. Wzrost kosztów, niedobór pracowników, jak też skutki blokady granicy polsko–ukraińskiej, sprawiły, że firmy z tego sektora negatywnie oceniają obecną sytuację. Według danych GUS w kwietniu br. wskaźnik ogólnego klimatu koniunktury dla branży TSL wyniósł -3,2, choć i tak był lepszy niż w marcu (-4,7). W efekcie część firm transportowych ma trudności z regulowaniem zobowiązań, a zadłużenie całego sektora wynosi 1,3 mld zł, z czego ponad 1 mld zł przypada na transport drogowy towarów (dane Krajowego Rejestru Długów). Długi ma już 29,3 tys. przedsiębiorców z branży, przy czym ponad 20 tys. z nich to działalności jednoosobowe. Statystycznie jeden dłużnik z branży TSL jest winien innym podmiotom blisko 46 tys. zł. Co jednak ważne, wzrost kosztów i bariery widoczne na rynku zmotywowały „logistyków” do szukania rozwiązań IT, które pomogą złagodzić lub rozwiązać te problemy. Firmy inwestują, aby usprawnić pracę i ograniczyć koszty, poszukując systemów umożliwiających automatyzację działania. Jednocześnie przybywa potencjalnych użytkowników rozwiązań informatycznych, co jest związane ze wzrostem
rynku magazynowego, a więc budową nowych centrów logistycznych.
– Obserwujemy rosnący popyt na rozwiązania dla sektora TSL, ze szczególnym naciskiem na budowanie odporności i dywersyfikację łańcuchów dostaw. Problemy, jakie dotknęły branżę transportową w tym roku, takie jak blokady granic i wzrost zadłużenia, zmusiły firmy do szukania bardziej efektywnych narzędzi, aby minimalizować ich negatywne skutki – twierdzi Jacek Gralak, Portfolio Director w Transition Technologies PSC.
Dzięki 5G rozwinęły się systemy bezpieczeństwa w transporcie.
Według łódzkiego integratora coraz więcej przedsiębiorstw decyduje się na zaawansowane technologicznie i zintegrowane systemy, które zapewniają elastyczność, skalowalność i optymalizację procesów. – Zauważamy przede wszystkim rosnące zapotrzebowanie zarówno na rozwiązania obejmujące całe magazyny, jak i wspierające pracowników pierwszej linii. Wynika to przede wszystkim z rosnącego znaczenia handlu internetowego i konieczności obsługi coraz większej liczby zamówień – mówi Jacek Żurowski, Regional Director w Zebra Technologies.
zarządzania magazynem (WMS), niezależnie od wielkości firmy – zarówno u gigantów z branży, jak i w małych i średnich przedsiębiorstwach.
– Największe organizacje w coraz większym stopniu inwestują w budowę zautomatyzowanych przestrzeni magazynowych, wykorzystując nowoczesną automatykę, roboty magazynowe, wózki autonomiczne, taśmociągi, czy wreszcie praktycznie automatyczne magazyny klasy „autostore” – wyjaśnia Paweł Petrusewicz, dyrektor działu wsparcia sprzedaży i marketingu w Asseco Business Solutions.
Obserwowane jest nadal duże zainteresowanie projektami RFID, jak i systemami
Tego typu rozwiązania wymagają zastosowania systemów WMS, które zarządzają całością procesów biznesowych w automatycznym magazynie, integrując się z pozostałymi modułami systemu ERP,
jak też oprogramowaniem firm odpowiedzialnych za wdrożenie automatyki magazynowej.
– Bardzo ważnym trendem, który obecnie się nasila, jest coraz większe zainteresowanie systemami klasy WMS w segmencie średnich i mniejszych firm – podkreśla Paweł Petrusewicz.
W tym przypadku zwiększony popyt widać zwłaszcza w sektorze MŚP (małe i średnie firmy zwiększają w ten sposób skalę działania) oraz w firmach do tej pory realizujących procesy magazynowe w oparciu o ERP-y i ewidencję papierową. Zapotrzebowanie na WMS-y jest widoczne zwłaszcza w branżach, które w dużym stopniu wykorzystują e-commerce.
– Dynamiczny wzrost skali działania, a tym samym liczby klientów i ilości obsłu-
giwanych zamówień, zmusza je do inwestowania w profesjonalne, konfigurowalne systemy klasy WMS, które umożliwią im obsługę wielu modeli działania magazynu. Oczywiście te systemy muszą być też skalowalne, czyli gotowe na rozwój ilościowy i jakościowy firm – dodaje przedstawiciel Asseco BS.
Wydaje się, że jednocześnie do lamusa odchodzą w końcu tradycyjne procesy logistyczne, niewspierane automatyzacją.
– W logistyce obserwujemy spadki zapotrzebowania na niezinformatyzowane formy zarządzania magazynem, w tym procesy manualne. Są one wypierane przez automatyzację i robotykę procesów, które pozwalają na zmniejszanie kosztów – informuje Jakub Barański, kierownik projektów informatycznych w Asistonie.
n Jacek Gralak, Portfolio Director, Transition Technologies PSC W rozwiązaniach dla transportu i logistyki nowoczesne technologie zyskały na znaczeniu, zwłaszcza w zakresie sztucznej inteligencji, automatyzacji i rozwiązań chmurowych. Pozwalają one zwiększyć odporność operacyjną i niezawodność łańcuchów dostaw. Wykorzystanie AI i uczenia maszynowego umożliwia analizowanie ogromnych ilości danych, co wspiera podejmowanie kluczowych decyzji, lepsze prognozowanie popytu oraz skuteczniejsze przewidywanie wyzwań i szans. Mniejszy popyt dotyczy natomiast tradycyjnych systemów ERP, które nie oferują wystarczającej elastyczności i możliwości integracji, co odzwierciedla rosnącą potrzebę na bardziej zintegrowane technologie, aby sprostać współczesnym wyzwaniom logistycznym i zwiększyć efektywność operacyjną.
n Paweł Petrusewicz, dyrektor działu wsparcia sprzedaży i marketingu, Asseco Business Solutions
Według naszych obserwacji w ostatnich latach popyt na nowoczesne rozwiązania informatyczne, usprawniające działanie procesów biznesowych w transporcie i logistyce systematycznie rośnie. Trend ten utrzymuje się także w tym roku. Naszym zdaniem jest to wynik postępującej profesjonalizacji tej branży, zaostrzającej się konkurencji i rosnących wymagań na rynku – oczekiwania przez klientów krótszych terminów realizacji dostaw i wysokiej jakości usług, jak też konkurencji cenowej. Firmy dążą więc do podnoszenia efektywności procesów biznesowych, a to z kolei generuje ich zapotrzebowanie na nowoczesne systemy IT – zaawansowane funkcjonalnie, wydajne, skalowalne i dostępne w chmurze.
AI wkracza na salony Ponieważ przedsiębiorcy z branży TSL poszukują rozwiązań, które pozwalają zwiększyć odporność ich firm oraz niezawodność łańcuchów dostaw, na znaczeniu zyskuje oferta wykorzystująca nowe technologie – głównie automatyzację i chmurę, ale coraz częściej także sztuczną inteligencję.
– Firmy, które chcą wdrożyć nowoczesne technologie w logistyce, najczęściej pytają o możliwości planowania procesów logistycznych za pomocą sztucznej inteligencji, w zakresie zarządzania flotą transportową, rozładunkami, zamówieniami, dystrybucją czy szlakami transportowymi – wyjaśnia Jacek Gralak.
Analizowanie danych ułatwiają narzędzia AI/ML, pomagając tym samym w podejmowaniu decyzji i lepszym prognozowaniu popytu oraz w przewidywaniu wyzwań i szans. „Logistyków” interesują także wdrożenia rozwiązań wykorzystujących AI w zarządzaniu pracą magazynu (śledzenie produktów, optymalizacja rozkładu produktów w magazynie, planowanie ścieżek dla wózków widłowych) oraz alokacja i uzupełnienie zapasów, w których zastosowanie modeli AI pozwala z wyprzedzeniem przewidywać zapotrzebowanie w docelowych lokalizacjach.
– Przedsiębiorcy rozważają także wykorzystanie modeli uczenia maszynowego w zarządzaniu zapasami, głównie do przewidywania potencjalnej sprzedaży. Dzięki
n Jacek Żurowski, Regional Director, Zebra Technologies
W porównaniu z ubiegłym rokiem rośnie popyt na rozwiązania dla transportu i logistyki. Warto pamiętać, że nawet nieduża inwestycja może dawać przedsiębiorcy znaczące oszczędności w magazynach czy centrach dystrybucji. Klienci kontynuują projekty RFID, które umożliwiają śledzenie produktów oraz komponentów wchodzących i wychodzących z lub do magazynu lub produkcji. Wykluczają w ten sposób błędy ludzkie lub wręcz uniezależniają się od braków personelu. Dodatkowo klienci szukają rozwiązań pomagających w eliminowaniu błędów – chodzi głównie o przemysłowe systemy wizyjne i skanery stacjonarne. Takie urządzenia mogą pracować w oparciu o algorytmy AI i ML, dlatego są przydatne na przykład do wspierania pracowników w wykonywaniu powtarzalnych czynności. Są już także gotowe rozwiązania, które przy użyciu skanerów przemysłowych automatyzują skanowanie. Tego typu systemy są zlokalizowane na wózkach widłowych.
n Jakub Barański, kierownik projektów IT, Asiston
Segment logistyki w 2024 roku w porównaniu z ubiegłym wzrósł, jednak zapotrzebowanie na tego typu usługi nie zmieniło się znacząco. Podczas rozmów z naszymi klientami nadal dostrzegamy wzrost zainteresowania systemami optymalizującymi prace produkcyjne i magazynowe. Głównym czynnikiem skłaniającym do inwestycji jest redukcja wydatków na magazynowanie i produkcję, spowodowana rosnącymi kosztami procesów. Na wartości zyskuje prawidłowa analiza danych, która umożliwia bardziej trafne prognozowanie zapotrzebowania na dany asortyment i tym samym lepsze zarządzanie zapasami. W zakresie analizy danych ważne jest wykorzystywanie sztucznej inteligencji, w tym do tworzenia zestawień i raportów.
zastosowaniu tych rozwiązań firmy zyskują lepszą kontrolę poziomu zapasów, co oznacza większą rentowność i zadowolenie klientów, dzięki lepszej dostępności produktów i szybszym dostawom – dodaje Jacek Gralak.
Giganci z branży już przecierają szlaki we wdrożeniach AI/ML w logistyce. Przykładowo, Amazon wykorzystuje sztuczną inteligencję do lepszej kontroli łańcucha dostaw i pracuje nad automatyzacją dostarczania towarów do magazynów za pomocą dronów. Ponadto w ostatnich latach obserwowany jest wzrost zapotrzebowania na rozwiązania wymagające zaawansowanej komunikacji w logistyce, zarówno w transporcie drogowym, jak też kolejowym i morskim.
– Wraz z sieciami szerokopasmowymi 5G rozwinęły się rozwiązania wzmacniające bezpieczeństwo w transporcie, takie jak monitorowanie pojazdów i ładunków, łączność w strefach magazynowych, bądź przesyłanie na żywo nagranego materiału wideo HD do centrali. Możliwości IoT z wykorzystaniem technologii 5G w pojazdach są kluczowym elementem monitorowania lokalizacji i statystyk związanych z transportem, czego przykładem są dane telemetryczne – podsumowuje informuje Przemysław Krzywiec, Product Manager w Ingram Micro. n
Optymalizujące procesy, poręczne i wytrzymałe - nowe klawiaturowe komputery mobilne Zebra MC9400/MC9450 to najlepsze rozwiązanie dla każdego magazynu
Czy przyjrzałeś się bliżej zdjęciu obok? Widzisz tętniący życiem magazyn z zaangażowanym personelem. Ale to nie wszystko – oto nowe komputery mobilne z klawiaturą MC9400 i MC9450 marki Zebra. Urządzenia zaprojektowane specjalnie z myślą o pracy w magazynach, płynnie integrują się z przepływem pracy i są zaprojektowane tak, jakby stanowiły przedłużenie dłoni użytkownika. Po prostu idealne do zadań magazynowych.
MC9400/MC9450: kolejna ewolucja w dziedzinie wytrzymałych komputerów mobilnych
Niezrównana gotowość operacyjna w pomieszczeniach i na zewnątrz MC9450 to pierwszy komputer mobilny z klawiaturą od firmy Zebra obsługujący zarówno prywatną, jak i publiczną bezprzewodową łączność danych 5G. Dzięki opcjom nano-SIM i eSIM zapewnia redundancję sieci zarówno wewnątrz, jak i na zewnątrz przedsiębiorstwa. Wi-Fi 6E zapewnia czterokrotnie większą przepustowość i nawet trzykrotnie większą prędkość, zapewniając natychmiastową reakcję aplikacji, zwiększając produktywność i wydajność. Bluetooth 5.3 zwiększa wydajność energetyczną, redukuje zakłócenia i oferuje bezpieczne połączenia z zaawansowanymi funkcjami bezpieczeństwa.
Skanuj z odległości większej niż kiedykolwiek wcześniej
Zarówno MC9400, jak i MC9450 są wyposażone w silnik skanujący SE4770 i silnik skanujący SE58 o rozszerzonym zasięgu z funkcją IntelliFocus, co pozwala na rejestrowanie popularnych kodów kreskowych 1D i 2D z odległości do 30,5 metra. Innowacyjny zielony laserowy punkt celowniczy jest do siedmiu razy bardziej widoczny niż w przypadku tradycyjnego czerwonego lasera. Zapewnia to większą dokładność, zwłaszcza w magazynach wysokiego składowania, podczas skanowania kodów kreskowych na wyższych półkach.
Wyjątkowa niezawodność
MC9400 i MC9450 są wyposażone w siedem opcji klawiatury z maksymalnie 58 klawiszami oraz 4,3-calowy kolorowy wyświetlacz WVGA chroniony odpornym na zarysowania i uderzenia szkłem Corning Gorilla Glass. W porównaniu z poprzednimi modelami, te komputery mobilne oferują 2,5 raza większą moc obliczeniową, 50 proc. więcej pamięci RAM, cztery razy więcej pamięci flash i osiem razy więcej pamięci micro SD – dzięki nowej platformie Qualcomm.
Innowacyjne produkty Zebra, takie jak nowe MC9400 i MC9450, można znaleźć w Jarltech, który jest wiodącym wyspecjalizowanym dystrybutorem systemów POS i sprzętu Auto-ID w Europie. Jarltech – jako VAD –oferuje sprzedawcom wyjątkowe usługi, zapewniając prawdziwą wartość dodaną, która wykracza poza pełne portfolio produktów Zebra.
n Ubieralny skaner klasy korporacyjnej
n Waga: 31 g; Wymiary: 35,5 x 14,6 x 52 mm (szer. x wys. x dł.)
n Silnik skanujący SE4770, elastyczne opcje powiadomień
n Zintegrowana bateria 480 mAh
n Certyfikat IP54, odporność na upadki z wysokości 1,8 m
n Bluetooth Low Energy 4.0 z trybem przyjaznym dla Wi-Fi
Nowy skaner RS2100 firmy Zebra jest obecnie najmniejszym skanerem ubieralnym na rynku, a mimo to oferuje niezrównaną produktywność.
n Ultrawytrzymały skaner przemysłowy do wszelkich zastosowań 2D
n Kody standardowe, ER, HD, HP lub DPM
n Certyfikat IP67, odporność na upadki z wysokości do 2,4 m
n Odporność na temperatury od -30 do +50°C
n Interfejsy: USB, RS-232 i KBW
n Potrójna informacja zwrotna o skanowaniu: dwie diody LED, sygnał dźwiękowy i wibracje
DS3608 łączy w sobie doskonałą wydajność z wyjątkową wytrzymałością, wyznaczając standardy dla ręcznych skanerów przemysłowych.
Odkryj produkty Zebra w Jarltech Więcej informacji na temat kompleksowej oferty rozwiązań magazynowych firmy Zebra znajdziesz skanując kod QR.
Bliskie jest mi postrzeganie roli analityka jako projektanta rozwiązań biznesowych.
Zdecydowanie za to odrzucam sprowadzanie tegoż do li tylko „dostawcy” wymagań, choćby miały być one możliwie jasne i zrozumiałe.
Czasami spotyka się postawę analityków, którą można streścić następująco: „jeśli klient dostanie na końcu to, czego żądał, ni mniej, ni więcej, to moja praca jest wykonana wzorcowo”. W takiej sytuacji nie ma sensu za bardzo podważać bezcelowości realizacji części oczekiwań, bądź proponowania takich opcji rozwiązań, które z jednej strony będą długotrwałe, zaś z drugiej, bardziej przemyślane w swojej logice. Życie takiego analityka jest wtedy prostsze i być może nie naraża go na efekty wtórne niepotrzebnego drążenia niektórych tematów. I tu przechodzimy do wspomnianego na samym początku zgoła innego podejścia. Słowo „projektant” nie pojawia się tutaj na wyrost. I nie o diagram komponentów tu chodzi, a o wypracowanie spójnej koncepcji rozwiązania (odpowiedzi na zidentyfikowane problemy biznesowe), adekwatnej w danej sytuacji i z uwzględnieniem tak zwanego myślenia systemowego. To rozwiązanie nie musi być tym najprostszym, ba, często być nie powinno. Niekoniecznie będzie też tym najtańszym i najszybszym, co brzmi banalnie, ale banałem nie jest. Są to bowiem często dwa parametry dominujące wybór opcji rozwiązania.
gań gdzieś nieoficjalnie na boku - jeśli takie rzeczy się dzieją, tracimy tym samym korzyści z posiadania jednej osoby czuwającej nad całością zakresu i myślą przewodnią całej inicjatywy. To jest ten „kawałek podłogi” przynależny analitykowi, który patrzy na zakres zarówno w perspektywie krótkoterminowej, ale też ma na względzie resztę „mapy drogowej”.
Niezbędne jest myślenie systemowe.
Idąc dalej, mamy wykonawców, realizujących ową koncepcję rozwiązania. Tu z kolei zaczyna się ich „kawałek podłogi”. Podobnie, jak w przypadku pozostałych ról, także oni mają swoje narzędzia, metody, dobre praktyki i standardy, których się trzymają. Analitykowi często nic do tego, byleby zostało wykonane to co miało być, w zgodzie z projektem. Spotykam się z takim podejściem do realizacji projektu, które dopuszcza poletko do przedyskutowania poszczególnych opcji rozwiązań technicznych adresujących dane wymaganie - nadal nie zdejmuje to z analityka odpowiedzialności za decyzje w tej sprawie, w tym potwierdzanie zgodności z wizją rozwiązania.
I tutaj to ty analityku - projektancie, odpowiadasz za całość koncepcji rozwiązania, jej zgodność z celami biznesowymi, odpowiednie nawiązanie do rzeczywistych potrzeb... W takim podejściu, jeśli ma ono działać, nie może być sytuacji „podrzucania”, „modyfikacji” wyma-
Jakim sposobem byśmy danego projektu nie realizowali, zawsze następuje moment weryfikacji, czy to co zostało wyprodukowane, odpowiada temu co było w projekcie. Wyjęcie z zakresu MVP „małego kawałka”, może mieć katastrofalne skutki chociażby w finalnym odbiorze produktu przez użytkowników końcowych, sponsora inicjatywy, bądź blokować realizację pozostałych niezbędnych części. I kto bierze za to odpowiedzialność?
W zasadzie każdy produkt oddawany klientom ma taką niewidoczną sygnaturę analityka stojącego za opracowaniem adekwatnej koncepcji rozwiązania. Dlaczego tak to zostało dobrze/źle (niepotrzebne skreślić) wymyślone? Zapytajmy analityka. Po drugiej stronie mamy interesariuszy, którzy nie tylko mają prawo oczekiwać, aby to co dla nich przygotowujemy było przemyślane, działające poprawnie i zapewniające realną wartość, ale mamy też przede wszystkim kapitał zaufania, którym zostaliśmy obdarzeni.
Pół żartem, pół serio, jeśli efekt końcowy jest świetny, tych sygnatur jest dużo więcej. A jak mamy do czynienia z porażką, pozostaje samotny podpis owego analityka. Jacy zatem analitycy żyją spokojniej i dłużej? Nie wiem, może ci z pierwszej grupy, aczkolwiek wierzę w to, że więcej satysfakcji z pracy przynosi mimo wszystko podejmowanie rękawicy, brak spychologii, świadomość realnego wpływu na efekt końcowy i odpowiedzialność za powierzone zadania.
Paweł Cyzman
Analityk z misją usprawniania działalności firm poprzez automatyzację procesów biznesowych i wykorzystanie technologii low-code. Ekspert we wdrażaniu oprogramowania i modelowaniu rozwiązań w notacji BPMN i UML.
Od pewnego czasu rośnie zapotrzebowanie na narzędzia, które zapewniają możliwość zarządzania firmowymi danymi i pamięcią masową w kontenerach. Jednym z wiodących dostawców tych rozwiązań jest Portworx by Pure Storage.
Konteneryzacja to jeden z najważniejszych trendów w branży nowych technologii. Przy czym takie, a nie inne nazewnictwo – kojarzące się z transportem – nie jest w tym kontekście dziełem przypadku. Jeśli bowiem kontener jest wirtualnym zasobnikiem, w którym umieszcza się aplikację wraz z zestawem plików niezbędnych do uruchomienia kodu, to aplikacja zostaje „przetransportowana” do dowolnego środowiska i zawsze będzie działała tak samo.
Kontenery na dobre już zadomowiły się w środowiskach programistycznych i produkcyjnych, a obsługa aplikacji uruchamianych na kilkudziesięciu takich zasobnikach znajdujących się na pojedynczym serwerze jest stosunkowo prosta. Jednak kiedy środowisko się rozrasta, obejmując swoim zasięgiem coraz większą liczbę serwerów, pojawiają się wyzwania związane z jego zarządzaniem i skalowaniem. W tej roli dobrze sprawdza się system open source Kubernetes (K8s), choć istnieją też alternatywne rozwiązania (OpenShift, Tanzu, Docker i in.). O ile jednak platforma zdaje egzamin w zarządzaniu cyklem życia aplikacji czy alokowaniu zasobów procesorów lub pamięci operacyjnej RAM, o tyle współpraca z pamięciami masowymi nie przebiega tak płynnie.
Jedynym sposobem, w jaki tradycyjne systemy pamięci masowej mogą współpracować z Kubernetes, jest zbudowanie wtyczki opartej na specyfikacji CSI, aczkolwiek to rozwiązanie wymaga skomplikowanej ręcznej konfiguracji i ma kilka mankamentów. Systemy pamięci masowej, które korzystają z CSI Connectora, łączą wolumeny Kuber-
netes z określonym urządzeniem sprzętowym, co utrudnia przenoszenie kontenerów w natywnym środowisku chmurowym. Ponadto tradycyjne macierze dyskowe nie zostały zaprojektowane z myślą o kontenerach. Przy szybkości, z jaką kontenery muszą się uruchamiać, podejście bazujące na CSI nie będzie tak wydajne, jak zapewnia to platforma pamięci masowej zbudowana specjalnie do współpracy z kontenerami.
Dodatkowe wyzwanie stanowią backup oraz DR. Wprawdzie Kubernetes oferuje mechanizmy ochrony danych (w tym kopie zapasowe migawek czy kontroler replikacji), ale nie zawsze zaspokajają one wymagania, jakie mają klienci biznesowi.
Portworx by Pure Storage
Wraz z postępującą adaptacją kontenerów pojawiają się rozwiązania ułatwiające zarządzanie nimi, a także ochronę przechowywanych w nich danych. Amerykańska firma Portworx jest jednym z prekursorów w segmencie narzędzi do obsługi danych dla kontenerów zarządzanych przez Kubernetes. Jej pierwsze komercyjne produkty zadebiutowały na rynku w 2017 r., a na liście referencyjnej znalazły się tacy klienci jak: Carrefour, Comcast, GE Digital, Kroger, Lufthansa oraz T-Mobile. W 2020 r. Portworx został kupiony (za 370 mln dol.) przez Pure Storage. Platforma danych Kubernetes tej marki składa się z trzech części: PX-Enterprise, narzędzia do ochrony danych, PX-Backup oraz Portworx Database Services, czyli bazy danych działającej w modelu as a service.
Z kolei PX-Enterprise zapewnia funkcje pamięci masowej (dynamiczne udostępnianie, zarządzanie wieloma klastrami, zarówno za pośrednictwem interfejsu użytkownika, jak i interfejsu CLI, automatyczną zmianę rozmiaru wolumenów w celu optymalizacji pamięci masowej, szyfrowanie w całym klastrze). Wydajność pamięci masowej można dostroić za pomocą elementów sterujących we/wy aplikacji, a funkcja PX-Fast umożliwia lepsze wykorzystanie wydajnej pamięci masowej takiej jak NVMe jako trwałą pamięć masową Kubernetes. I wreszcie PX-Backup zapewnia tworzenie kopii zapasowych, odzyskiwanie i migrację. Rozwiązanie to umożliwia odzyskiwanie danych do innego środowiska, nawet wolumenów innych niż Portworx, dzięki czemu zapewnia również podstawową funkcję migracji aplikacji.
Ponadto, Portworx Data Services realizuje usługę zarządzania cyklem życia danych dla kilku popularnych aplikacji bazodanowych, w tym MySQL, MongoDB, PostgreSQL, Kafka oraz Cassandra. Warto przy tym podkreślić, że Pure Storage zostało uznane za lidera w inauguracyjnym badaniu IDC MarketScape: Worldwide Container Data Management 2023 Vendor Assessment.
Portworx jest dostępny również w wersjach darmowych. Szukaj na: portworx. com/pricing-and-features.
Kontakt dla partnerów: Marcin Kostrzewa, Paweł Adamski Arrow ECS pure.ecs.pl@arrow.com
Jeden z producentów zapowiedział w ubiegłym roku koniec ery dysków twardych. Jednak wyścig trwa i jest zbyt wcześnie, aby już dziś rozdawać medale, tym bardziej, że w świecie pamięci masowych pojawia się wiele interesujących, alternatywnych koncepcji.
n Wojciech Urbanek, Santa Clara
Naukowcy od lat szukają sposobu na utrwalenie danych dla przyszłych pokoleń. Na przykład Microsoft postawił na… szkło. Początkowo miało ono służyć do przechowywania informacji w centrach danych Azure. Niemniej plany koncernu się zmieniły i „szklane dyski” mają trafić w przyszłości do sprzedaży. Niestety, trzeba będzie na nie poczekać co najmniej kilka lat. Za to nad bardzo podobnym projektem pracuje niemiecki startup Cerabyte i zapowiada premierę swojego produktu już w przyszłym roku.
– Zasada jest taka sama jak w przypadku Microsoftu: grawerujemy dane laserowo na małej kwadratowej płycie ze szkła. Matryce danych są zapisane w formie mikroskopowych kodów QR, co oznacza, że wystarczy mikroskop, aby je ponownie odczytać. Natomiast do demonstracji używamy lekko zmodyfikowanej biblioteki taśm – tłumaczy Christian Pflaum, dyrektor generalny Cerabyte.
być zainstalowana w 2025 roku w Europejskiej Organizacji Badań Jądrowych CERN. Christian Pflaum ma nadzieję, że w 2026 roku trafi ona do dostawców usług chmurowych, a dwa lata później hiperskalerów. Ogromne znaczenie ma fakt, iż nośnik Cerabyte zużywa 99 proc. energii mniej niż dysk mechaniczny.
Zarządzanie danymi
System ten składa się z modułu do operacji wprowadzania i odbierania danych oraz kilku modułów bibliotecznych. Nośnik danych, który znajduje się w specjalnej kasecie, ma formę smukłej, pojedynczej płytki o powierzchni kwadratu o boku 8 centymetrów i grubości jednej trzeciej milimetra. Cerabyte planuje ją zmniejszyć do jednej dziesiątej milimetra, a w dalszej przyszłości do 5 mikrometrów. Pierwsza biblioteka Cerabayte o pojemności 5 PB i przepustowości 500 MB/s ma
przestało być mitem, a stało się realnym problemem.
Szkło wykazuje się dużą odpornością na wysokie i niskie temperatury, można je schłodzić do -273 stopni Celsjusza i podgrzać do 300 stopni Celsjusza, a także moczyć je przez trzy godziny w kwasie i bombardować promieniami gamma. Co istotne, nie ma to żadnego wpływu na dane. Trwałość jest ogromnym atutem szkła, bowiem nie trzeba przerzucać danych co kilka lat, tak jak ma to miejsce w przypadku dysków mechanicznych. Z kolei korzystanie z taśm może być kłopotliwe ze względu na wsteczną kompatybilność. Nowoczesny odtwarzacz LTO nie odczyta informacji z nośników starszych generacji. – Używanie wyłącznie elementów mechanicznych dostępnych na rynku, pozwoliło nam bardzo szybko pójść do przodu. Z bardzo małą ilością zasobów i nielicznym zespołem. Nie chcemy spędzić następnych sześciu lat zamknięci w laboratorium badawczym – dodaje szef Cerabyte’u.
Rimage już od ponad czterech dekad działa na rynku cyfrowej dystrybucji i archiwizacji danych. Firma produkuje między innymi duplikatory nośników optycznych kopiują-
ce i nagrywające kilkadziesiąt płyt DVD-R lub CD-R na godzinę. Niemniej zmiany zachodzące w segmencie nośników do przechowywania danych wymusiły na Rimage przedefiniowanie strategii.
W portfolio firmy pojawiło się Sophia – rozwiązanie do zarządzania cyklem życia danych. Stanowi odpowiedź na lawinowy przyrost danych nieustrukturyzowanych. W większości przypadków są one nieuporządkowane, a ich wyszukiwanie pochłania mnóstwo czasu. Oprogramowanie umożliwia przechwytywanie dowolnych rodzajów danych, takich jak obrazy, filmy, dokumenty tekstowe, PDF, pliki audio. Zaawansowane funkcje wyszukiwania, wspomagane przez sztuczną inteligencję, pozwalają łatwo i szybko zlokalizować zasoby cyfrowe. Użytkownik może wyszukiwać treści według słów kluczowych, filtrować w oparciu o metadane czy korzystać z rozpoznawania wizualnego. Sophia współpracuje z dowolną natywną aplikacją Windows lub OS X, eliminując potrzebę stosowania wtyczek lub aplikacji innych firm, a dane mogą być przechowywane w chmurze, lokalnie lub w modelu hybrydowym. O ile oprogramowanie do zarządzania cyklem życia danych wpisuje się w najnowsze trendy rynkowe, o tyle inicjatywa Electronic Laser Storage skoncentrowana na dyskach optycznych budzi kontro-
wersje. Na rynku konsumenckim napędy DVD-R lub CD-R przeszły już do lamusa, aczkolwiek w Rimage nie skreślają tych nośników, widząc ich przyszłość w zastosowaniach biznesowych. W ciągu ostatnich 20 lat wyprodukowano 10 miliardów dysków optycznych, a Rimage ocenia, iż na 4 miliardach z nich znajdują się biznesowe dane archiwalne.
– Sektory rządowe Chin, w tym także wojsko i edukacja, migrują zasoby cyfrowe do pamięci masowej bazującej na technologii laserowej. To oznacza, że przed dyskami optycznymi wciąż rysują się ciekawe perspektywy. Dyski mają kilka poważnych atutów w porównaniu z innymi nośnikami, takie jak niezmienność zapisu, WORM czy długość życia od 50 do 100 lat – tłumaczy Rick Bump, Chief Revenue Officer w Rimage. Napędy optyczne mają też jeden poważny mankament jakim, jest gęstość zapisu: Blu-ray oferuje maksymalnie 200 GB na dysk. Rick Bump ujawnił, iż Sony, Folio Photonics i Pioneer prowadzą prace nad zwiększeniem pojemności takich nośników. Zatem niewykluczone, że dyski optyczne jeszcze powrócą do cyfrowych archiwów.
RAID dla dysków SSD
Koncepcja RAID zrodziła się w 1987 roku, kiedy nikt jeszcze nie myślał o nośnikach SSD. Mechanizm ten przez wiele lat spraw-
dzał się jako solidne zabezpieczenie na wypadek awarii dysków. Jednak w ostatnich latach dyski mechaniczne, z myślą o których opracowano RAID, są zastępowane w centrach danych przez pamięci NAND Flash. Według Gartnera w 2021 ich ilościowy udział w segmencie macierzy dyskowych wynosił 21 proc., zaś w 2026 ma to być 32 proc. Niestety, RAID i SSD nie stanowią dobranej pary, bowiem wiekowa już technologia ogranicza wydajność szybkich nośników. Niektórzy próbują rozwiązać ten problem za pomocą specjalnego oprogramowania, ale ono zużywa około 30 proc. zasobów procesora. Amerykański startup Graid Technology wprowadził na rynek kontroler SupremeRAID umożliwiający wyciśnięcie z nośników Flash NAND maksymalnej wydajności nawet dla bardzo wysokich obciążeń realizowanych przez macierze all-flash czy systemy HPC (High-Performance Computing). Firma zachęcona komercyjnym sukcesem SupremeRAID opracowała kolejny produkt, który zadebiutował na rynku w styczniu bieżącego roku.
– W rozmowach z klientami okazało się, że ich potrzeby wykraczają poza centrum danych. Okazało się, że poszukują analogicznych rozwiązań dla stacji roboczych. W ten sposób zrodziła się idea opracowania specjalnej karty wspierającej do 8 dysków SSD NVMe w komputerze biurowym – mówi Thomas Paquette, dyrektor generalny Graid.
Zgodnie z testami przeprowadzonymi przez Graida nowa karta osiąga 6 milionów IOPS podczas odczytu i przepustowość 80 GB/s oraz 500 000 IOPS przy zapisie i przepustowość 30 GB/s. Dla porównania, maszyna, która powierza swoją RAID własnemu głównemu procesorowi, ma limity na 2 miliony IOPS w operacjach odczytu i przepustowość 59 GB/s i 200 000 IOPS przy zapisie, przy przepustowości wynoszącej 2 GB/s.
Co ciekawe, specjalne oprogramowanie RAID w stacjach roboczych może zużywać nawet do 87 proc. mocy procesora. Inną alternatywą dla produktów Graid jest seria
kontrolerów Broadcom, aczkolwiek w testach wypadają one nieznacznie lepiej aniżeli oprogramowanie. Amerykański startup Hammerspace, założony w 2018 roku, opracował Global Data Environment (GDE), czyli globalne środowisko danych.
– Z istniejących systemów pamięci masowych asymilujemy tylko metadane bez przenoszenia jakichkolwiek danych. Dzięki temu użytkownicy mają dostęp do jednej globalnej przestrzeni nazw, aby móc korzystać ze swoich plików we wszystkich typach i lokalizacjach pamięci masowej – tłumaczy David Flynn, CEO Hammerspace.
Z punktu widzenia użytkownika praca z systemem jest prosta, wystarczy się z nim jedynie połączyć, a pliki pojawiają się na folderach, tak jakby były przechowywane na lokalnym serwerze NAS. Hammerspace obsługuje i organizuje cyfrowe zasoby w formie plików i obiektów na dowolnych dyskach mechanicznych oraz pamięci flash NAND, a od niedawna również na taśmach. Dane znajdujące się na taśmie, tak jak wszystkie pozostałe, będą dostępne w GDE.
Hammerspace rozpoczął współpracę z trzema dostawcami archiwów – Grau Data, PoINT Software & Systems i QStar Technologies. Rozwiązanie wychodzi naprzeciw oczekiwaniom użytkowników chcących zachować nieco starsze zasoby pamięci masowej i korzystać z globalnej przestrzeni nazw. Ten ruch może być zaskakujący, zwłaszcza w kontekście startupu utożsamianego z nowoczesnymi rozwiązaniami. Pewnego rodzaju ciekawostką jest, iż David Flynn kilkanaście lat temu założył firmę Fusion-io, która jako pierwsza na świecie opracowała dyski półprzewodnikowe z interfejsem PCI.
Taki krok z jednej strony pokazuje, że taśma ze względu na niskie koszty posiadania, a także dużą skalowalność, nadal pozostaje ważnym i popularnym nośnikiem danych, zaś z drugiej, pozwala Hammerspace wyróżnić się na tle rywali, ponieważ najwięksi konkurenci, Ctera czy Nasuni, nie obsługują napędów taśmowych. n
Wdobie rosnącej popularności sztucznej inteligencji potrzebne są rozwiązania, które pozwolą zapanować nie tylko nad ogromną ilością rozproszonych danych, ale również zagwarantować wysoką wydajność i bezpieczeństwo. Dodatkowa trudność polega na tym, że w przeciwieństwie do tradycyjnych aplikacji, które działają z danymi strukturalnymi, obciążenia AI i analizy wymagające dużej wydajności operują na danych nieustrukturyzowanych, takich jak dokumenty, pliki audio, obrazy czy filmy. Naprzeciw powyższym wyzwaniom wychodzi IBM Storage Scale System – wysokowydajna platforma sprzętowa, która obsługuje oprogramowanie IBM Storage Scale. Rozwiązanie umożliwia organizacjom zbudowanie globalnej platformy danych dla najbardziej wymagających obciążeń AI, HPC, analityki i chmury hybrydowej.
System bazuje na równoległym systemie plików i można go wdrożyć na serwerach IBM Power, mainframe IBM zSystem bądź urządzeń innych dostawców, w tym na serwerach x86. Może też działać na kliencie POSIX bazującym na architekturze ARM, w maszynach wirtualnych i na platformie Kubernetes.
– GPFS pojawił się w ofercie IBM w 1998 roku, około 2017 zmienił nazwę na Spectrum Scale, a ostatnio na Storage Scale. W tym czasie oprogramowanie zyskało uznanie wśród użytkowników i jest postrzegane jako najlepszy system pamięci masowej przeznaczony do pracy z modelami sztucznej inteligencji. To bardzo dobra alternatywa dla innych rozwiązań, które powstały na przestrzeni ostatnich kilkunastu miesięcy
Boom na sztuczną inteligencję stawia poważne wyzwania przed dostawcami pamięci masowych. IBM już od dawna jest przygotowany na taki scenariusz.
– podkreśla Andrzej Gładysz, wiceprezes zarządu Averbit.
IBM oferuje Storage Scale System w dwóch wersjach. Pierwsza z nich to IBM Storage Scale System 6000, propozycja dla najbardziej wymagających użytkowników, którzy potrzebują rozwiązań skalowalnych do tysięcy węzłów, o pojemności liczonej w petabajtach. Maksymalna wydajność systemu wynosi 13 milionów IOPS, zaś pojemność do 3,4 PB w standardowej przestrzeni stelażowej 4U. Druga wersja – IBM Storage Scale System 3500 – ma podobne możliwości jak model 6000, z tą różnicą, że oferuje mniejszą pojemność.
IBM współpracuje z Nvidią w różnych projektach prowadzących do zapewnienia optymalnej integracji, a także wydajnej komunikacji pomiędzy systemami pamięci masowej a serwerami GPU. W 2022 obie firmy, wspólnie z pracownikami Cornell University, opracowały architekturę Big Accelerator Memory (BaM), która umożliwia procesorowi graficznemu (GPU) pobieranie danych bezpośrednio z pamięci systemowej i masowej bez użycia procesora (CPU) – to sprawia, że układy GPU są bardziej samowystarczalne. Celem BaM jest również zwiększenie pojemności pamięci GPU i zwiększenie efektywnej przepustowości dostępu do pamięci masowej. Nvidia rekomenduje system IBM jako jeden z elementów swojej architektury referencyjnej Nvidia DGX SuperPOD. Na szczególną uwagę zasługuje w tym kontekście kombinacja łącząca serwery GPU Nvidia oraz IBM Storage Scale. Wykorzystanie IBM Storage Scale 3500 z szybszym kontrolerem (w po-
równaniu z modelem 3200) oraz procesorem AMD 48-core EPYC 7642, pozwoliło uzyskać maksymalne przepustowości sekwencyjnego zapisu/odczytu na poziomie 60/126 GB/s. Według niezależnego testu IBM osiąga najlepszy wynik pod względem przepustowości odczytu, wyprzedzając DDN, VAST, Pure, NetApp i Dell PowerScale, zaś w przypadku zapisu IBM ustępuje jedynie DDN.
Nie tylko wysoka wydajność stanowi atut IBM Storage Scale. Obecnie jest to jedyny produkt spośród rekomendowanych przez Nvidię, który wspiera automatyczny tiering, pozwalający przenosić dane na tańsze nośniki, w tym między innymi taśmy. To istotne o tyle, że uchwalony w marcu 2024 EU AI Act wymaga długoterminowego przechowywania danych wykorzystywanych do trenowania modelu. Innym walorem IBM Storage Scale System jest wysoki poziom bezpieczeństwa, który zapewniają technologia Erasure Coding, funkcja Safeguarded Copy (WORM Snapshot) i replikacja active-active. – Infrastruktura pamięci masowej odgrywa bardzo ważną rolę we wspieraniu zaawansowanych aplikacji sztucznej inteligencji i uczenia maszynowego. Organizacje poszukują rozwiązań, które zapewnią im nie tylko wysoką wydajność, ale również skalowalność potrzebną do pracy z wielkimi zbiorami danych. Architektura referencyjna Nvidia DGX SuperPOD wraz z systemem IBM idealnie spełnia te potrzeby – podsumowuje Andrzej Gładysz. Więcej informacji znajdziesz na www.averbit.pl
W związku ze zbliżającym się końcem wsparcia
dla Windows 10, nadciąga fala popytu zarówno na nowe wersje systemu, jak też pecety.
n Tomasz Gołębiowski
Po 14 października 2025 r. aktualizacje zabezpieczeń dla Windows 10 będą płatne i dostępne tylko do października 2028 r. Co więcej, już w 2023 r. koncern z Redmond wstrzymał aktualizacje Windows 10 do kolejnych wersji systemu. Nic dziwnego, że 64 proc. respondentów ankiety na portalu CRN.pl spodziewa się w tym roku spadku sprzedaży „dziesiątki”, podczas gdy wzrostu oczekuje 24 proc. uczestników sondy. Przy czym 27 proc. uważa, że przejścia na Windows 12 dokonają głównie konsumenci, natomiast 33 proc., że przede wszystkim firmy.
karta graficzna zgodna z DirectX 12 lub nowszym ze sterownikami WDDM 2.0, wyświetlacz min. 720p o przekątnej większej niż 9 cali i 8 bitów na kanał kolorów, moduł TPM 2.0, a wreszcie oprogramowanie układowe systemu – UEFI.
Wymianie
Co ciekawe, decyzja Microsoftu, dotycząca końca wsparcia dla Windows 10, powiększy problem związany z odpadami w branży, gdyż może sprawić, że 240 mln komputerów stanie się elektroodpadami – alarmują analitycy Canalysa. Powodem jest fakt, że masa używanych obecnie urządzeń nie spełnia wymagań sprzętowych Windows 11. W ocenie ekspertów może to uniemożliwić dalsze korzystanie z setek milionów PC, a wiele z nich wyląduje na wysypiskach śmieci. Przy czym minimalne wymagania sprzętowe dla Windows 11 to: procesor min. 1 GHz z co najmniej dwoma rdzeniami, 4 GB RAM, 64 GB pamięci masowej,
będzie podlegać co trzeci pecet.
Jaka jest skala problemu, pokazuje zeszłoroczne badanie firmy Lansweeper, które objęło 30 mln komputerów z 60 tys. firm na całym świecie. Wynika z niego, że aż 42 proc. urządzeń nie nadaje się do aktualizacji do Windows 11. Tym samym, w miarę zbliżania się terminu zakończenia wsparcia, można spodziewać się rosnącej sprzedaży komputerów w celu modernizacji bazy sprzętu. Tak było za każdym razem, gdy kolejny Windows kończył swój żywot. Dlatego Canalys spodziewa się, że w 2024 r. rynek komputerów powróci do wzrostu, który ma wynieść 8 proc. (rok do roku).
Jak zmieni się Twoja sprzedaż Windows 10 w 2024 roku?
Ponad połowa resellerów i integratorów (57 proc.) ankietowanych przez Canalysa przewiduje, że zakończenie wsparcia dla Windows 10 wpłynie na plany odświeżenia systemu w 2024 r. Oczekuje się, że jedno na trzy urządzenia będzie wymieniane w ciągu najbliższych dwóch lat. Wprawdzie większość z nich można by poddać recyklingowi, ale ich niezgodność z najnowszym systemem znacznie zmniejsza ich wartość w razie odnowienia i odsprzedaży. Tymczasem według badania z 2023 r. już 39 proc. partnerów dysponuje umiejętnością renowacji i odsprzedaży używanych urządzeń.
Analitycy szacują, że w ciągu prawie dwóch lat od daty zakończenia wsparcia Windows 10 mniej więcej jedna piąta urządzeń stanie się elektroodpadami z powodu niezgodności z Windows 11 (240 mln PC). Mimo że sporo używanych maszyn z Windows 10 będzie nadawało się do użytku przez wiele lat, popyt na nie mocno osłabnie, wobec braku bezpłatnych aktualizacji zabezpieczeń systemu.
Przykładowo płatne wsparcie dla Windows 7 Enterprise wynosiło od 25 dol. za komputer w pierwszym roku i do 100 dol. rocznie w trzecim, a dla Windows 7 Professional od 50 do 200 dol. Przy podobnych stawkach dla „dziesiątki” bardziej będzie opłacało się wyrzucić sprzęt i kupić nowy.
spadnie (o ponad 25%)
Źródło: CRN.pl
W ankietach wzięło udział 176 osób.
Końcówka negocjacji to wszechświat z innymi pra-
Końcówka negocjacji to wszechświat z innymi prawami fizyki Tu dzieją się często cuda fizyki. Tu często cuda.
Po długotrwałych negocjacjach strony są już zmęczone i czują, że wystarczy tak niewiele, by zakończyć sukcesem cały proces. To jednak niebezpieczny moment i postępując niewłaściwie, można zaprzepaścić wcześniejsze starania. Na co więc zwracać uwagę w ostatniej fazie negocjacji? Przede wszystkim na… skubanie.
n
Widząc twoje zmęczenie, nerwowość i chęć szybkiej finalizacji, partner negocjacyjny może włączyć swój „program skubania”. Polega on na dorzuceniu drobnych, pozornie niewielkich żądań w ostatniej chwili. Jeśli będziesz się zawsze zgadzał na skubanie, to w skali całego swojego życia zostaniesz oskubany z dużej kwoty. Pamiętam, jak na koniec negocjacji wielomilionowego kontraktu, mój rozmówca poprosił o dorzucenie „małego makbuczka” dla córki. Taki drobiazg. Konfigurację miał już przygotowaną na karteczce… n Jeśli kusi cię, by machnąć ręką i odpuścić ten drobny upust na koniec, to pamiętaj, że w negocjacjach nie wolno rozdawać prezentów. Coś za coś. Bezkarne ustępstwo zachęca do kolejnych roszczeń i otwiera tylko wrota piekła kapitulacji. Nieumiejętnie uchylanie tych wrót może nawet zbudować poczucie zbyt małej wygranej i zniweczyć całe negocjacje. Jeśli nie wiesz, co zażądać w zamian, to wymyśl. To może być chociażby obietnica pisemnej rekomendacji lub nagrania testymoniala wideo (referencji). Cokolwiek. Byle nie oddawać upustu za darmo.
n
Do samego końca warto utrzymywać gotowość do odejścia od negocjacji, jeśli warunki nie są akceptowalne. Posiadanie i rozumie-
nie swojej BATNA (najlepszej alternatywy) jest kluczowe, aby nie zgodzić się na warunki, które są poniżej oczekiwań lub szkodliwe. To wzmacnia pozycję negocjacyjną, pokazując, że jest się przygotowanym na różne scenariusze.
n Wykorzystanie ciszy
Czasami najlepszą taktyką jest milczenie. Pozwól drugiej stronie przemyśleć propozycję, co często skutkuje lepszymi warunkami porozumienia. Zarzucanie drugiej strony kolejnymi argumentami prowokuje do zachowania – z przekory – odwrotnego do zamierzonego. Nikt nie lubi być manipulowany.
n
By ułatwić osiągnięcie porozumienia, możesz ustąpić w sprawach mniej istotnych. To często skłania drugą stronę do podobnych gestów. Jednak uwaga! Nie daj się ewidentnie „skubać” (patrz punkt pierwszy). Takie gesty należy stosować z najwyższą ostrożnością i mając negocjacje pod kontrolą.
n
Niezależnie od poziomu trudności rozmów, ważne jest, by zachować spokój i profesjonalne podejście. Emocje mogą negatywnie wpłynąć na przebieg negocjacji. Zapomnij o teatralnych gestach, tanich sztuczkach czy trickach, bądź stawianiu sprawy na ostrzu noża. Druga strona jest pod koniec również zmęczona i rozdrażniona, a więc wrażliwa.
n
Zacznij od podsumowania wszystkich punktów, na które strony już się zgodziły. To pomaga utrwalić wspólną bazę porozumienia i minimalizuje ryzyko późniejszych nieporo-
zumień. Skoro tyle wysiłku wszyscy włożyli w ustalenie porozumienia, dlaczego narażać je przez brak staranności? Nieporozumienia w negocjacjach z bliskimi biorą się właśnie stąd, że strony zakładają, iż „nie wypada” ustalać drobiazgów, a „w razie czego jakoś się dogadamy”. No i to jest przepis na kłopoty.
n
Podkreśl korzyści płynące z porozumienia dla obu stron. Pokazanie, że negocjacje są sytuacją typu win-win, zwiększa zaufanie i gotowość do kompromisu. Nie warto pozostawiać tego w sferze domysłów czy pozornych oczywistości. Polecam zawsze podkreślić, co obie strony zyskały. To buduje dobry klimat na przyszłość.
n
Pamiętaj by szczerze pogratulować drugiej stronie wyniku negocjacji. W jej końcowej fazie budowanie i utrzymywanie dobrych relacji jest kluczowe dla przyszłej współpracy. Owcę można strzyc wielokrotnie, ale tylko raz... obedrzeć ze skóry.
Coraz częściej menadżerowie i pracownicy muszą sprostać wyzwaniu w postaci wdrożenia jednego narzędzia, które zapewni jego użytkownikom nie tylko możliwość obsługiwania rozmów wideo, ale jednocześnie połączeń telefonicznych, komunikacji wewnętrznej oraz zewnętrznej z klientami firmy.
Ostatnie lata śmiało można zakwalifikować jako rewolucję w obszarze komunikacji zdalnej. Stała się ona nieodłącznym elementem codzienności dla biznesu, ale również w sektorze edukacji czy chociażby służby zdrowia. Połączenia wideokonferencyjne usprawniły wiele procesów, które wcześniej obsługiwane były jedynie stacjonarnie, dzięki czemu wszyscy zyskaliśmy dodatkowy, tak bardzo cenny czas. Tym bardziej kluczowa staje się możliwość obsługi zarówno zdalnych rozmów audio oraz wideo w ramach danej organizacji, jak i poza nią, za pomocą jednego, wydajnego narzędzia Unified Communication.
Zoom Workplace to rozwiązanie, które dzięki rozbudowanym, a jednocześnie intuicyjnym w obsłudze funkcjom i wykorzystaniu AI, odpowiada na powyższe potrzeby przedsiębiorstw oraz staje się liderem w zakresie rozwiązań zarówno do współpracy, jak i komunikacji zespołowej.
– Dzięki ukierunkowaniu na rozwój rozwiązań, Zoom w sposób szybki i regularny wdraża innowacje ułatwiające codzienną pracę. Można odnotować średnio aż 30 nowych funkcjonalności miesięcznie. W moim
odczuciu Zoom od dawna wyznacza nowe kierunki rozwoju dla platform Unified Communications – tłumaczy Kamil Dymkowski, Zoom Vendor Manager w Exclusive Networks Poland.
Patrząc historycznie warto wspomnieć, że głównym celem założyciela marki Zoom – Erica Yuana, było stworzenie systemu do rozmów wideo zapewniającego wysoką jakość dźwięku i obrazu z bardzo przejrzystym interfejsem, ułatwiającym użytkownikom korzystanie z narzędzia. Ten cel, czyli dobra jakość i prostota obsługi, nadal przyświeca całej organizacji w procesach R&D i rozbudowie platformy o kolejne innowacje.
Warto przywołać tutaj dwie funkcje dostępne w rozwiązaniach Zoom, które w ostatnio zmieniają oblicze współpracy biznesowej. Pierwsza z nich to AI Companion, czyli zestaw narzędzi dostępny dla każdego płatnego użytkownika platformy Zoom. Posiada on wiele możliwości ułatwiających codzienną pracę, w tym generowanie odpowiedzi mailowych lub w czatach zespołowych, tworzenie podsumowania spotkań wideo razem ze wskazaniem kolejnych zadań. Natomiast z myślą o zespołach kreatywnych AI Companion został wdrożony w rozwiązaniu whiteboard, co umożliwia wygenerowanie pomysłów na start projektu w postaci mapy myśli czy stick notes.
Zoom stał się intuicyjną platformą all-in-one.
– Ostatnio Zoom stał się intuicyjną w obsłudze platformą typu all-in-one, do kooperacji i komunikacji. Niezależnie od tego, czy chcemy wykonać wideorozmowę, zadzwonić do klienta , czy zorganizować webinar dla 1000 osób, wszystko to możemy zrobić z poziomu jednej aplikacji – dodaje Kamil Dymkowski. Warto również wspomnieć, że w tej samej aplikacji istnieje możliwość konfiguracji sal konferencyjnych, a dzięki usłudze Zoom
Rooms można wdzwaniać się na zaproszenia od klientów niezależnie od platformy wideokonferencyjnej. System obsłuży spotkania również w usługach Google Meet, Microsoft Teams czy Cisco Webex. Dodatkowo Zoom jako prekursor wykorzystania rozwiązań AI w każdym komponencie aplikacji bazuje na sztucznej inteligencji poprawiając jakość obrazu i dźwięku, a także generując użyteczne treści czy obrazy.
Federacyjne podejście Zooma do AI sprawia, że dostęp do tych narzędzi jest z perspektywy użytkownika systemu jeszcze prostszy i nie generuje dodatkowych kosztów.
Drugą z najszybciej rozwijanych funkcji, którą docenili już klienci w Stanach, a która nie jest jeszcze dobrze rozpoznawalna w regionie CEE, jest możliwość zbudowania własnego Contact Center. Rozmowy głosowe, czaty internetowe czy komunikacja przez social media, to tylko niektóre z oferowanych możliwości. Całość rozwiązania przy pomocy przejrzystego interfejsu i wsparciu sztucznej inteligencji, może wykonać w imieniu pracowników prostsze czynności związane z komunikacją z klientami, generowaniem raportów czy planowaniem prac całego działu.
Jedna licencja od Zoom umożliwia zatem zastąpienie kilku innych rozwiązań, co w znaczący sposób może obniżyć koszty, a jednocześnie podnieść poziom świadczonych usług.
Więcej informacji
o możliwościach platformy Zoom udzielają eksperci Exclusive Networks Poland.
Mogłoby się wydawać, że w czasach dominacji modelu usługowego, kiedy dowolne oprogramowanie znajduje się w zasięgu nawet niewielkich firm, sprzedaż używanych programów straciła rację bytu. To jednak nieprawda.
n Wojciech Urbanek
Większość firm oferujących oprogramowanie stawia na model subskrypcyjny. Na pierwszy rzut oka z punktu widzenia użytkownika jest to bardzo korzystny układ. Klient korzysta z programu na stałych warunkach i (przynajmniej w teorii) z niezmienną ceną, w ramach cyklicznie pobieranej opłaty. Przy czym sprzedaż oprogramowania w modelu usługowym wpisuje się w modny trend współdzielonej ekonomii. Jednak większość przedsiębiorców nie kieruje się modą, lecz chłodnymi kalkulacjami, a te nie zawsze wypadają korzystnie dla SaaS. Zasadniczy problem polega na tym, że ceny subskrypcji nie stoją w miejscu. Najlepszym przykładem jest oferta Microsoftu. Ceny Office 365 wzrosły najpierw 1 marca 2022 r., następnie 1 kwietnia rok później, zaś w kwietniu bieżącego roku z pakietu usunięto MS Teams. Notabene Microsoft wpisał możliwość corocznych podwyżek do umowy dotyczącej Office 365.
–Patrząc na poczynania naszych kolegów w Belgii, Niderlandach czy Hiszpanii, zauważamy, że coraz więcej dużych organizacji decyduje się na powrót do licencji wieczystych. Myślę, że ten trend niedługo dotrze również do Polski – mówi Jarosław Siemiński, dyrektor zarządzający polskim oddziałem LicencePro.
W tym kontekście ciekawy jest przykład zatrudniającego dwa tysiące pracowników holenderskiego szpitala. Przy trzyletniej subskrypcji O365 E3 za jedną osobę trze-
ba byłoby zapłacić 813,60 euro. LicencePro zaoferował subskrypcje O365 E1 oraz licencję wieczystą Office 2019 w cenie 326,20 euro. W rezultacie koszty spadły o 60 proc., co przy tej skali projektu przełożyło się na kwotę około 1 mln euro.
Na podobne oszczędności mogą liczyć klienci Licence4U, choć zależą one od wieku oprogramowania. W przypadku świeżych licencji Microsoftu koszty w porównaniu z nowymi programami są niższe o około 30 proc., ale już w przypadku starszych wersji mogą sięgać nawet 70 proc.
Wielu dostawców oprogramowania stara się odchodzić od licencji wieczystych na rzecz subskrypcji. Ich działania przynoszą rezultaty, ale wciąż istnieją przedsiębiorcy, którzy chłodnym okiem patrzą na usługi chmurowe lub nowe modele sprzedaży oprogramowania. Nawet najbardziej zaangażowani w promocję modelu chmurowego producenci, w tym Microsoft, nie wycofują się ze sprzedaży programów w wersjach „pudełkowych”. W drugiej połowie roku na rynku zadebiutują Office 2024 oraz Windows Server 2025, które będą sprzedawane w modelu licencji wieczystej, z pięcioletnim okresem wsparcia ze strony producenta. – Taki rozwój wypadków jest satysfakcjonujący dla dostawców używanego oprogramowania, bowiem wsparcie dla wersji Microsoft Office 2016 i 2019 wygaśnie w październiku, zaś dla Office 2021 jesienią przyszłego roku. Jest bardzo prawdopodobne, że licencje wie-
czyste staną się droższe, bo Microsoft zastosuje taką strategię, aby promować usługi chmurowe. Użytkownicy używanego oprogramowania to wiedzą i dla nich ewentualne podwyżki nie mają znaczenia – tłumaczy Edyta Piesiur, dyrektor generalna Licence4U.
Wzrost cen to woda na młyn dla firm sprzedających programy z drugiej ręki. Część przedsiębiorców szuka rozwiązań pośrednich i korzysta z oprogramowania w modelu hybrydowym, gdzie kluczowe systemy najczęściej znajdują się w infrastrukturze lokalnej. Jest to najczęściej wynik obaw o bezpieczeństwo danych, a czasami problemów z infrastrukturą teleinformatyczną. – Po całej serii incydentów, związanych z wykorzystaniem przez hakerów platformy M365 w agencjach rządowych oraz firmach, rośnie świadomość, że jedynie podejście hybrydowe pozwala utrzymać lub poprawić kontrolę nad własnymi danymi. Przedsiębiorstwa muszą się mierzyć z coraz większymi kosztami cyberbezpieczeństwa, cyfryzacji czy usług chmurowych. To wszystko sprawia, że kontrola kosztów i ograniczenia budżetowe stały się bardziej palące niż kiedykolwiek – dodaje Edyta Piesiur, dyrektor generalna Licence4U.
Niewykluczone, że obecna sytuacja na rynku IT skłoni organizacje do kupowania licencji z drugiej ręki, tym bardziej, że w wielu przypadkach możliwości nieco starszych wersji zaspokajają potrzeby małych czy średnich firm bądź instytucji państwowych. Czasami firmy muszą reagować na niemiłe niespodzianki, takie jak zmiany zasad licencjonowania. Na przykład Microsoft wprowadzając SQL Server w wersji 2022 zmodyfikował zasady licencjonowania dla maszyn wirtualnych. Do wersji 2019 SQL Server włącznie, możliwe było licencjonowanie maszyn wirtualnych (a nie całego fizycznego serwera) w wersji licencjonowania na rdzenie, a więc i nielimitowaną liczbę użytkowników. Jednak począwszy od wersji SQL Server 2022, aby korzystać z tego modelu, licencje muszą być objęte albo usługą Software Assurance lub być de facto subskrypcjami.
– Niestety, dla klientów oznacza to drastyczny wzrost kosztów i to z tego powodu wielu z nich poszukuje możliwości zakupu wersji SQL Server 2019, która jest już niedostępna poprzez oficjalny kanał sprzedaży – mówi Jarosław Siemiński.
Renata W. Lewicka, Board Member, Warwick Legal Network
Czy obrót „używanymi” licencjami na oprogramowanie jest legalny? Czy kupując takie oprogramowanie mogę korzystać z niego bez narażania się na odpowiedzialność za naruszenie czyichś praw? To jedne z najczęstszych pytań nabywców w kontekście handlu używanym oprogramowaniem. W erze cyfryzacji obrót takimi licencjami zyskuje na popularności, pozwalając na oszczędność kosztów i elastyczność w zarządzaniu oprogramowaniem w przypadku migracji do chmury, restrukturyzacji, upadłości czy fuzji. Nic dziwnego, że sprzedawców oferujących „oprogramowanie z second handu” jest na rynku sporo.
Na co zwrócić uwagę od strony prawnej?
1. Czy doszło do tzw. „pierwszej sprzedaży na terytorium UE kopii tego programu komputerowego” przez podmiot, któremu przysługują prawa autorskie lub za jego zgodą. Niezależnie od tego, czy jest to kopia materialna czy też niematerialna (w postaci fizycznego nośnika danych lub przez udostępnienie w internecie). Fakt ten pozwala na przyjęcie „wyczerpania prawa do rozpowszechniania kopii programów komputerowych” (to wymóg wynikający z art. 4 ust. 2 Dyrektywy Parlamentu Europejskiego i Rady 2009/24/WE z dnia 23 kwietnia 2009 r. w sprawie ochrony prawnej programów komputerowych) i uznania odsprzedaży za legalną. Jeśli tak się stało, podmiot praw (np. Microsoft czy Oracle) nie może sprzeciwić się odsprzedaży tej kopii, nawet pomimo istnienia postanowień w licencji zakazujących dalszego zbywania (wyroku TSUE w sprawie C-128/11 UsedSoft GmbH przeciwko Oracle International Corp.). Drugi nabywca tej kopii, podobnie jak każdy następny, mogą się powołać na przewidziane w art. 4 ust. 2 tej Dyrektywy wyczerpanie prawa do rozpowszechniania, i, co za tym idzie, mogą zostać uznani za uprawnionych nabywców kopii programu komputerowego w rozumieniu art. 5 ust. 1 tej dyrektywy i korzystać z przewidzianego w tym przepisie prawa do zwielokrotniania.
2. Czy na zbywane oprogramowanie udzielono licencji pierwszemu nabywcy (warto sprawdzić warunki tej licencji przed zakupem) w zamian za zapłatę ceny mającej umożliwić podmiotowi uprawnionemu uzyskanie wynagrodzenia odpowiadającego wartości gospodarczej kopii jego dzieła? Ponadto należy ustalić, czy opłata licencyjna została zapłacona przez początkowego nabywcę.
3. Czy nabywca początkowy kopii programu komputerowego (a jeśli byli kolejni to również każdy w całym łańcuchu dostaw) dokonując jej odsprzedaży dezaktywował w momencie odsprzedaży kopię pobraną na jego komputer. Tylko to zapewnia legalność korzystania z tego oprogramowania kolejnym nabywcom bez naruszenia przysługującego podmiotowi praw autorskich wyłącznego prawa do zwielokrotniania.
4. Czy licencja nie wygasła, a wielkość pakietu uprawnień licencyjnych jest taka sama jak pakiet zakupiony przez pierwszego nabywcę, bezpośrednio od producenta lub oficjalnego sprzedawcy.
5. Czy oprogramowanie nie podlega kontroli eksportu lub ograniczeniom dotyczącym ich stosowania w niektórych branżach.
6. Czy oprogramowanie korzysta z gwarancji lub wsparcia producenta, jeśli to ważny czynnik dla nabywcy. W wielu przypadkach pierwotny sprzedawca może nie zapewniać wsparcia lub aktualizacji dla używanych licencji.
Jak zabezpieczyć powyższe od strony prawnej?
Otóż można to sobie zapewnić adekwatnymi oświadczeniami sprzedawcy (z powołaniem się na oświadczenie początkowego i każdego kolejnego nabywcy) co do każdego z punktów wraz z potwierdzającymi to dokumentami. Użytkownik powinien przy tym pamiętać, żeby zachować dokładną dokumentację transakcji, w tym wszelką korespondencję ze sprzedawcą i kopie umowy licencyjnej. Dokumentacja ta może służyć jako dowód twojego prawa do korzystania z oprogramowania i chronić użytkownika w przypadku sporów.
Zakup używanego oprogramowania bywa utożsamiany z kłopotami finansowymi nabywcy. Niektórzy uważają, że drastyczne cięcia zakupowe to „łabędzi śpiew” przed wycofaniem się z rynku, a inwestycja w używane oprogramowanie to „sposób” na zwiększenie długu technologicznego. – Wybieranie nieoptymalnych rozwiązań IT prowadzi do tego, że pozorna oszczędność często potrafi zmienić się w poważną stratę kapitału, czasu i zasobów ludzkich. Konieczność nadrobienia tych kompromisów generuje później wysokie koszty, dla niektórych firm często nie do udźwignięcia – zauważa Piotr Kawęcki, prezes zarządu ITBoom. Jak łatwo się domyślić sprzedawcy używanego oprogramowania nie zgadzają się z tak postawioną tezą. Ich zdaniem rośnie presja na podnoszenie efektywności ekonomicznej przedsiębiorstw, a zakup używanego oprogramowania czy odsprzedaż nadmiarowych licencji przestały być czymś wstydliwym. Specjaliści LicencePro niejednokrotnie spotykają się na rynku z pakietami oprogramowania odsprzedawanymi przez największe organizacje z całej Unii Europejskiej. Z kolei wśród nabywców licencji z drugiej ręki dominują małe i średnie przedsiębiorstwa, podmioty z sektora ochrony zdrowia czy spółdzielnie mieszkaniowe. Natomiast największą gratką są kontrakty z międzynarodowymi korporacjami, prowadzącymi swoje odziały w Polsce. Podpisane z nimi umowy otwierają LicencePro drzwi do takich rynków, jak belgijski, fiński, hiszpański czy węgierski.
Również czeski Forscope, który działa w kilku krajach europejskich, dostarcza używany software do bardzo różnych odbiorców, wśród których znajdują się zarówno podmioty prywatne – producenci, biura architektoniczne, firmy z branży energetycznej czy logistycznej, jak też instytucje publiczne – szkoły, szpitale, urzędy lokalne, a nawet instytucje rządowe.
W pewnym sensie rynek używanego oprogramowania można porównać do rynku motoryzacyjnego, gdzie wielu klientów nakłanianych jest do zakupu aut w modelu subskrypcyjnym. Jednak wnikliwa kalkulacja pokazuje, że czasami bardziej opłaca się kupić kilkuletni używany samochód z niewielkim przebiegiem niż płacić co miesiąc za korzystanie z nowego pojazdu. n
n Jarosław Siemiński, dyrektor zarządzający, LicencePro Producenci oprogramowania dostarczają wyłącznie najnowsze wersje swoich produktów. Prawo do używania starszych wersji często powiązane jest z koniecznością wykupienia usług w rodzaju Software Assurance. Natomiast używane oprogramowanie klient może kupić dokładnie w takiej wersji, jaka jest mu potrzebna. Dodatkowo im starsza wersja, tym większa oszczędność. Mieliśmy klienta, który pilnie poszukiwał oprogramowania Windows Server 2008 R2 do systemu sterowania linią technologiczną. Oprogramowanie, które nią sterowało, było certyfikowane wyłącznie z tą konkretną wersją Windows Server. LicencePro błyskawicznie pomogło rozwiązać ten problem. Z zakupem licencji z drugiej ręki wiąże się jeszcze jedno istotne zagadnienie. Producenci oprogramowania często zmieniają zasady licencjonowania swoich produktów. Nie zawsze są to zmiany korzystne dla klientów. Możliwość zakupu wcześniejszych wersji programów zdecydowanie pozwala uniknąć takich pułapek.
n Jakub Šulák, CEO, Forscope Różnica między kosztem zakupu oprogramowania nowego a używanego może wynieść nawet 70 procent ceny wyjściowej – choć każdorazowo zależy to od rodzaju oprogramowania, jego dostępności na rynku i skali zakupu. Duże firmy oraz instytucje publiczne, które decydują się na zakup używanych licencji wieczystych, oszczędzają jednorazowo nierzadko kilkadziesiąt, a nawet kilkaset tysięcy złotych. Nasi klienci chwalą sobie fakt, że zyskują w ten sposób znaczne środki, które mogą przeznaczyć na inne potrzeby, w tym inwestycje. Podstawowym argumentem przemawiającym za zakupem używanego oprogramowania jest jego niższa cena, zwłaszcza w obliczu regularnych podwyżek cen pakietów subskrypcyjnych. W większości przypadków skala oszczędności wynosi od około 40 do – jak już wspomniałem – nawet 70 procent ceny nowego oprogramowania. Kolejnym argumentem jest wygoda. Nie wszystkie firmy chcą bowiem przechodzić na oprogramowanie chmurowe dostępne jako subskrypcja i wolą polegać na tradycyjnych licencjach wieczystych. Niekiedy jednak nowe oprogramowane nie jest już dostępne w takiej formie, stąd chęć sięgnięcia po produkt z drugiej ręki. Zdarzają się i takie przypadki, kiedy dana organizacja po prostu potrzebuje zakupić dodatkowe egzemplarze oprogramowania w wersji, która nie jest już dostępna u producenta. Powody bywają zatem naprawdę różne.
n Edyta Piesiur, dyrektor generalna, Licence4U
Technologia chmury staje się coraz ważniejsza i wpływa na modele biznesowe dilerów oprogramowania używanego. Można zauważyć wzrost zainteresowania usługami doradczymi, a subskrypcje usług chmurowych są częścią modelu hybrydowego. Jednak sprzedaż licencji na oprogramowanie instalowane w środowisku lokalnym wciąż jest zjawiskiem istotnym. Trendy, warunki ramowe i modele biznesowe stopniowo się przy tym zmieniają, ponieważ przetwarzanie w chmurze rośnie i nie zna „wyciągalnych” licencji na odsprzedaż. Równolegle zachodzą procesy adaptacyjne, w kontekście czego zaobserwowaliśmy, że dyskusja na temat modeli subskrypcyjnych w ramach chmury nadal nabiera tempa. Niedawne emocje związane z eksplozją kosztów w VMware i nową polityką licencyjną po przejęciu przez Broadcoma jasno pokazują, że problem ten nie dotyczy wyłącznie Microsoftu. W świetle bieżących wyzwań związanych z VMware’m coraz ważniejsza staje się koncepcja „bring-your-own-licence“. Jest to ważny krok, który umożliwia firmom poprawę elastyczności i opłacalności ich infrastruktury IT.
Wielu producentów nie wprowadza do swoich programów partnerskich żadnych zachęt, które miałyby przyspieszyć wzrost sprzedaży rozwiązań na bazie sztucznej inteligencji.
iorąc pod uwagę możliwości, jakie daje sztuczna inteligencja, nigdy wcześniej w historii kanału sprzedaży IT wizja jego dalszego rozwoju nie była tak obiecująca, jak teraz. Ogólny przekaz – ze strony specjalistów, mediów czy vendorów jest taki, że „jeśli nie będziesz miał odpowiedniego rozwiązania AI, zostaniesz zepchnięty na margines”. A jeśli tak, to wydawałoby się, że skoro oferujemy tak dobrą, a w zasadzie najlepszą technologię na świecie, to bez odpowiedniego modelu sprzedaży tychże rozwiązań w kanale partnerskim, nie będzie możliwe skalowanie biznesu. A bez skalowania nie da się napędzić wzrostu sprzedaży i nie uzyska się przewagi, jaką powinni zdobywać rynkowi pionierzy. Ci, którzy poszukują równowagi pomiędzy technologią a sprzedażą, od dawna spierają się, czy biznes może być napędzany jednocześnie przez jedno i drugie. Faktem jest, że znamy wiele przykładów firm przodujących w jednym, za to nie bardzo radzących sobie z tym drugim. Tym bardziej niepokojące jest to, że w trwającej obecnie na rynku gorączce AI wielu vendorów nie zmienia swoich programów partnerskich z myślą o tym, żeby przyspieszyć wzrost sprzedaży rozwiązań sztucznej inteligencji. Inaczej mówiąc, wykładają oni ogromne sumy na inżynierię AI, ale niewiele lub nic nie dzieje się z ich strategią sprzedaży B2B, która wymagałaby solidnych zachęt finansowych.
AI, daleko w tyle pozostawiając pojedynczych vendorów z ich ofertami sztucznej inteligencji. Świetnym przykładem jest Fulcrum IT Partners, integratorski gigant o wartości rynkowej przekraczającej ponad miliard dolarów, który przejął brytyjskiego pioniera AI i analityki danych – firmę Razor.
dla partnerów. Uważa to za szczególnie niepokojące, ponieważ musi dowodzić, że dostawcy nie doceniają zaufanych relacji partnerów z klientami. Nie zdają sobie też sprawy z zasięgu sprzedaży, jaki jest niezbędny do realizacji takich transakcji.
Trzeba łączyć inwestycje w technologie z zachętami dla partnerów.
A przecież kanał sprzedaży nie zwalnia, dostarczając przełomowe rozwiązania
Razor stał na czele rewolucji AI, skupiając się na budowaniu generujących przychody rozwiązań dla średnich i małych przedsiębiorstw. Obecnie Fulcrum stara się wprowadzić technologię AI firmy Razor do swojej całej sieci partnerów-integratorów. Jak twierdzi C.R. Howdyshell, CEO Advizexa, jednej z firm należących do tej sieci, klienci już korzystają z przejęcia Razora oraz dużych inwestycji w sztuczną inteligencję, jakie Fulcrum IT Partners poczyniło w swojej sieci partnerskiej. „Daje nam to większe pole manewru w tym, co jesteśmy w stanie zrobić dla klientów zarówno w krótkim, jak i długim okresie. Bardzo się cieszę, że Fulcrum miało wizję, aby zainwestować w sztuczną inteligencję. AI jest największą z szans, z jakimi miałem do czynienia w swojej 20-letniej karierze w kanale sprzedaży” – podkreślał niedawno C.R. Howdyshell na łamach CRN-a. Jego zdaniem, z dużym zapotrzebowaniem klientów na rozwiązania AI kontrastuje brak na rynku większej liczby vendorów, którzy byliby gotowi zwiększać zachęty
Raz jeszcze zacytujmy Howdyshella: „Przewaga rynkowego pioniera jest krytyczna w każdej znaczącej transformacji rynkowej. Vendorzy, którzy się dostosują, z pewnością odniosą dużą korzyść z AI. A złoży się na nią wiele infrastrukturalnych dodatków i usług towarzyszących pierwszej sprzedaży”.
Producenci ignorują fakt, że Advizex i Fulcrum – podobnie jak wielu innych integratorów – budują własną unikalną własność intelektualną wokół AI, co będzie napędzać zapotrzebowanie na rozwiązania OEM. I to od integratorów będzie zależeć, które oferty producentów będą dostarczać, a które ominą szerokim łukiem. Inwestycje w kanał sprzedaży z programami, generowaniem lidów, funduszami na rozwój rynku i premiami dla sprzedawców mogą o tym wyborze decydować.
Wygrają więc firmy, które inwestują w inżynierię AI oraz solidny model sprzedaży w kanale partnerskim – z zachętami dla integratorów i ich przedstawicieli handlowych. Ci zaś, którzy uważają, że wystarczy sama technologia, w tym wyścigu przegrają.
Steve Burke Autor jest redaktorem amerykańskiej edycji CRN.
Do jakich systemów odnosi się AI Act? Czym w ogóle jest system AI na gruncie nowego prawa? Czy do wszystkich systemów unijne regulacje podchodzą tak samo? Poniżej odpowiedzi na każde z tych i innych pytań.
Jesteśmy już bardzo blisko końca ścieżki legislacyjnej tzw. „AI Act” i możemy spodziewać się jej rychłego zakończenia (być może, jak będziecie Państwo czytać ten artykuł, będzie ona już sfinalizowana).
W świetle nowych regulacji system AI oznacza system oparty (działający) na maszynie, zaprojektowany do działania z pewnym poziomem autonomii, który może po wdrożeniu wykazywać zdolność adaptacji i który – do wyraźnych lub dorozumianych celów – wnioskuje na podstawie danych wejściowych, jak generować wyniki, a więc predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne.
Taka definicja jest bardzo szeroka. W przeciwieństwie do wyjściowej propozycji Komisji Europejskiej, przewidującej zamknięty katalog technik/ rozwiązań, których wykorzystanie było jedną z przesłanek uznania oprogramowania za system AI, ostatecznie nie zdecydowano się na wskazywanie takiego katalogu. Definicja nie koncentruje się więc na stronie technicznej, a znaczenie ma jedynie to, czy mamy do czynienia z rozwiązaniem działającym w oparciu o maszynę (urządzenie), posiadającym
n Piotr Grzelczak przynajmniej odrobinę autonomii i generującym wyniki na podstawie dostarczanych mu danych wejściowych.
AI Act, podobnie jak szereg innych regulacji przyjmowanych przez Unię Europejską, zwłaszcza w ostatnich latach, jest oparty o zasadę ryzyka („risk based approach”). Skutkuje to tym, że ciężar regulacyjny jest różnicowany w odniesieniu do ryzyka, jaki dany typ systemu generuje. Punktem odniesienia dla tego ryzyka są tutaj: zdrowie, bezpieczeństwo i prawa podstawowe osób fizycznych. Bazując na ryzyku, wyróżniono kilka rodzajów systemów AI, poczynając od tych zakazanych.
Modele z ryzykiem systemowym poddane są większym rygorom.
Systemy zakazane
AI Act zabrania wprowadzania do obrotu, oddawania do użytku i wykorzystywania w Unii Europejskiej pewnych systemów AI z uwagi na fakt, że zdaniem unijnego legislatora są one nie do pogodzenia z wartościami, na których oparta jest Unia Europejska lub wiążą się z ryzykiem nie do zaakceptowania. Chodzi tutaj o systemy stosujące techniki podprogowe lub manipulacyjne, które ograniczają zdolność do podejmowania świadomych decyzji, skutkujące poważną szkodą (potencjalną
lub rzeczywistą). Kolejną grupę stanowią systemy ukierunkowane na wykorzystanie słabości ludzkich ze względu na wiek, niepełnosprawność, sytuację społeczną lub ekonomiczną, co może powodować lub powoduje poważną szkodę.
Ponadto zakazane mają być systemy scoringu społecznego (realizowane zarówno przez podmioty publiczne jak i prywatne), jak również systemy ukierunkowane na wnioskowanie na temat emocji w zakładach pracy lub instytucjach edukacyjnych (z pewnymi wyjątkami). Z kolei wnioskowanie o ludzkich emocjach w pozostałych kontekstach społecznych nie będzie z góry zabronione.
Systemy wysokiego ryzyka
AI Act wyszczególnia kategorię tzw. systemów wysokiego ryzyka, czyli systemów, które co prawda można wprowadzać do obrotu, oddawać do użytku i wykorzystywać w Unii Europejskiej, ale pod warunkiem spełnienia wymogów regulacyjnych przewidzianych w AI Act. Ta kategoria jest sednem AI Act, bo trzon jego postanowień odnosi się właśnie do niej. Jeśli dany system AI nie jest zabroniony ani nie jest uznany za
system wysokiego ryzyka, wówczas wpływ regulacyjny AI Act na ten system będzie albo mocno ograniczony (jeśli system będzie jednym z „pozostałych systemów regulowanych” – o czym więcej poniżej) albo nie będzie go w ogóle, chyba że dostawca bądź podmiot stosujący AI przejmie pewne mechanizmy na zasadzie dobrowolności.
W tym miejscu warto wskazać, że samo ustalenie, czy dany system AI stanowi system wysokiego ryzyka czy też nie, może nie być takie proste, jeśli spojrzymy na to, jak AI Act podchodzi do procesu klasyfikacji. Otóż systemami wysokiego ryzyka będą, po pierwsze, systemy odpowiedzialne za bezpieczeństwo produktów objętych unijnymi przepisami harmonizacyjnymi wskazanymi w załączniku I do AI Act lub same będące takimi produktami, ale pod warunkiem, że z przepisów harmonizacyjnych wynika obowiązek przeprowadzenia oceny zgodności produktu przez stronę trzecią (zewnętrzną jednostkę badającą zgodność). Takimi produktami będą np. zabawki, wyroby medyczne czy dźwigi.
Innymi słowy, systemem AI wysokiego ryzyka nie będzie system odpowiedzialny za bezpieczeństwo produktu objętego ww.
Nastąpi delegalizacja systemów stosujących techniki manipulacyjne.
regulacjami, dla którego procedura oceny zgodności jest realizowana wewnętrznie przez producenta (w ramach systemu kontroli wewnętrznej).
Po drugie, systemami wysokiego ryzyka będą inne systemy wymienione w załączniku III do AI Act, takie jak w szczególności niektóre systemy zdalnej identyfikacji biometrycznej i kategoryzacji biometrycznej, systemy przeznaczone do rozpoznawania emocji (w zakresie w jakim nie są zabronione – jw.), systemy stosowane przez pracodawców w ramach procesów rekrutacyjnych (np. umieszczanie ukierunkowanych ogłoszeń, filtrowanie CV, ocena kandydatów) lub w celu podejmowania decyzji dotyczących rozmaitych aspektów środowiska pracy (np. przydzielanie zadań dopasowanych do predyspozycji osobowościowych, monitorowanie wydajności pracy), a wreszcie systemy stosowane do oceny zdolności kredytowej lub szacowania ryzyka ubezpieczeniowego.
W zakresie drugiego z wymienionych punktów istnieje dodatkowo możliwość odstępstwa, o ile mamy do czynienia z systemem AI niedokonującym profilowania osób fizycznych (systemy profilujące nie mogą
Nie wszystkie systemy AI będą kwalifikować się do jednej z kategorii przewidzianych w AI Act. W przypadku systemów, które nie niosą ze sobą wysokiego ryzyka ani nie wymagają szczególnej transparentności, dostawcy i podmioty stosujące AI będą mogły przejąć wszystkie bądź jedynie niektóre z mechanizmów, o których mowa w AI Act, na zasadzie dobrowolności. Może to znaleźć odzwierciedlenie w szczególności w rozmaitych kodeksach dobrych praktyk.
z tego odstępstwa skorzystać). Polega to na tym, że system AI wymieniony w załączniku III do AI Act nie będzie uznany za system wysokiego ryzyka, jeżeli nie stwarza znaczącego ryzyka szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych. Uogólniając nieco, takiego ryzyka nie będzie wtedy, jeśli wpływ danego systemu na wynik procesu decyzyjnego, w który jest zaangażowany, nie będzie istotny (np. dlatego, że wykonuje on jedynie wąskie działania proceduralne lub czynności przygotowawcze lub że przeznaczony jest do poprawiania wyniku zakończonej uprzednio czynności wykonywanej przez człowieka).
AI Act nakłada pewne szczególne wymogi w zakresie przejrzystości odnośnie do systemów AI, które są przeznaczone do wchodzenia w bezpośrednią interakcję z osobami fizycznymi, jak też generują treści w postaci syntetycznych dźwięków, obrazów, wideo lub tekstu, w tym w zakresie deepfake, lub są przeznaczone do rozpoznawania emocji lub kategoryzacji biometrycznej (w zakresie w jakim takie systemy nie są zabronione przez AI Act). Prawodawca uzasadnia to pewnym szczególnym ryzykiem generowanym przez takie właśnie systemy AI. Wymogi w zakresie transparentności dotyczące systemów AI, o których mowa powyżej, będą nakładać się na wymogi przewidziane dla systemów AI wysokiego ryzyka, jeśli konkretny system AI będzie
spełniał kryteria kwalifikujące go do obu ww. kategorii. Jeżeli zaś dany system AI nie będzie systemem wysokiego ryzyka, wówczas będzie musiał spełniać jedynie wymogi dotyczące przejrzystości.
Modele AI ogólnego przeznaczenia
AI Act zawiera również regulacje dotyczące modeli AI ogólnego przeznaczenia, wprowadzone w końcowym etapie prac legislacyjnych. Modele te są definiowane jako wykazujące znaczną ogólność, będące w stanie kompetentnie wykonywać szeroki zakres różnych zadań, niezależnie od sposobu, w jaki model jest wprowadzany do obrotu, i które można integrować z różnymi systemami/aplikacjami niższe-
go szczebla. Chodzi więc tutaj o pewne modele ogólne, na których mogą być budowane rozmaite systemy AI. Przyjmuje się, że modelem ogólnego przeznaczenia będą modele o co najmniej miliardzie parametrów, trenowane w oparciu o dużą ilość danych. W ramach tej kategorii wyróżnia się dodatkowo podklasę modeli AI ogólnego przeznaczenia z ryzykiem systemowym, czyli takich, które mają zdolność dużego oddziaływania (uznaje się, że takie duże oddziaływanie występuje w przypadku modeli, jeśli do ich trenowania wykorzystano łączną liczbę obliczeń na poziomie większym niż 10^25 FLOP).
Modele AI ogólnego przeznaczenia nie stanowią same w sobie systemów AI (brakuje im bowiem pewnych komponentów,
Ntakich jak np. interfejs do komunikacji z użytkownikiem). Niemniej, są kluczowym komponentem wielu takich systemów, dlatego też zostały poddane regulacji AI Act. Oczywiście, modele z ryzykiem systemowym poddane są większym rygorom.
Piotr Grzelczak jest radcą prawnym w
Nowa ustawa będzie miała wpływ na co najmniej 35 dostawców usług IT.
a na stronie Rządowego Centrum Legislacji opublikowano w kwietniu 2024 roku, „Projekt ustawy o zmianie niektórych ustaw w związku z zapewnieniem operacyjnej odporności cyfrowej sektora finansowego” oraz skierowano go do konsultacji publicznych. Projekt jest raczej techniczny i w wielu miejscach po prostu odsyła do stosowania obowiązków wynikających z DORA. Dlatego w tym artykule zajmiemy się odkodowaniem, po co jest taka ustawa, jaką ma siłę rażenia oraz nowych kompetencji Komisji Nadzoru Finansowego.
Otóż ustawa ta wpływa na cały sektor fi nansowy oraz dostawców usług ICT dla tego sektora. Samo zaś rozporządzenie do niej realizować ma politykę unijną w kierunku rozwoju konkurencyjnego oraz innowacyjnego sektora finansowego. To również odpowiedź na zalecenia tech-
niczne unijnych organów nadzoru odnośnie do przyjęcia spójnego podejścia do ryzyka związanego ze stosowaniem rozwiązań ICT.
Przede wszystkim przepisy ustawy uregulują szeroki katalog podmiotów sektora finansowego oraz pośrednio dostawców usług ICT. Katalog podmiotów objętych kontrolą KNF został wskazany w proponowanym Rozdziale 2c do ustawy o nadzorze nad rynkiem finansowym. Rozdział ten wymienia 31 podmiotów finansowych. Poza podmiotami kojarzonymi z sektorem finansowym, warto zwrócić uwagę na: dostawców usług finansowania społecznościowego (crowdfunding), czy dostawców usług w zakresie kryptoaktywów (CASP) – jeśli takie podmioty uzyskały już licencję.
Ocena skutków regulacji opublikowana wraz z projektem na stronie RCL wskazuje, że ustawa będzie miała wpływ, między innymi, na 29 banków komercyjnych, 492 banków spółdzielczych, 42 krajowe instytucje płatnicze, 3 dostawców usług finansowania społecznościowego oraz co najmniej 35 zewnętrznych dostawców usług ICT.
Projekt krajowej regulacji nie obejmuje bezpośrednio dostawców ICT. Wynika to z tego, że kompetencje względem nich posiada wiodący organ nadzoru na poziomie unijnym (ESA). Nadzór ten został podzielony pomiędzy EBA, ESMA oraz EIOPA. Wiadomo jest jednak, że uprawnienia KNF względem dostawców ICT będą pośrednie, ponieważ Komisja będzie kontrolowała, czy podmioty finansowe realizują wymogi DORA w umowach z dostawcami.
Przepisy projektu ustawy przewidują obowiązek KNF do informowania podmiotów finansowych o ryzyku zidentyfikowanym w zaleceniach dotyczących zewnętrznego dostawcy usług ICT. Zalecenia te wydawane są wprost na podstawie przepisów DORA i na poziomie unijnym przez wiodący organ nadzorczy.
Zalecenia te mogą dotyczyć: wymogów z zakresu bezpieczeństwa IT (np. co do wprowadzania poprawek, aktualizacji, szyfrowania, czy innych środków bezpieczeństwa); warunków i zasad świadczenia usług – istotnych dla wiodącego organu nadzorczego pod kątem powstawania punktów awarii oraz zapobieganiu ryzyka koncentracji w obszarze ICT; podwykonawstwa (w tym podwykonawcy z państw trzecich), w szczególnych przypadkach, kiedy [1] podwykonawcą jest zewnętrzny dostawca ICT lub podmiot z państwa trzeciego, [2] podwykonawstwo dotyczy krytycznej lub istotnej funkcji oraz [3] organ uzna, że istnieje ryzyko dla stabilności finansowej Unii lub danego podmiotu finansowego – wtedy organ może zalecić nawet odstąpienie od zawarcia umowy z podwykonawcą.
Kontrola przestrzegania zaleceń będzie związana z obowiązkiem sprawozdawczym podmiotu finansowego. Taki podmiot będzie musiał poinformować Komisję o sposobie realizacji zaleceń oraz o ewentualnych zmianach w umowie z dostawcą. Jeśli zaś Komisja uzna, że podmiot finansowy nie uwzględnia ryzyka wynikającego z zaleceń lub uwzględnia je, ale niewystarczająco, to Komisja wyśle do takiego podmiotu ostrzeżenie. Ostrzeżenie obejmujące informację o możliwości nakazania podmiotowi finansowemu zawieszenia korzystania z usług ICT lub nawet wypowiedzenia umowy. W kolejnym kroku i po upływie 60 dni od ostrzeżenia, Komisja może wydać decyzję nakazującą zawieszenie korzystania z usług lub wypowiedzenie umowy z dostawcą ICT.
Należy podkreślić, że zmian w polskich ustawach sektorowych nie da się zrozumieć w oderwaniu od rozporządzenia DORA. Do istniejących dotychczas obo-
wiązków podmiotów polskiego sektora finansowego, dodano nowe obowiązki, poprzez odesłanie do odpowiednich regulacji rozporządzenia. To znaczy, że w wielu przypadkach – krajowe przepisy dostarczą tylko informacji o jakimś obowiązku, który szczegółowo opisany jest w DORA oraz RTS. Do kontroli zgodności z DORA Komisji będą służyć zmiany w ustawie o nadzorze. To z tych zmian wynikają nowe uprawnienia kontrolne, a także kompetencje do nakładania kar administracyjnych.
Wedle propozycji przepisów ustawy o nadzorze, Komisja będzie mogła nakładać kary pieniężne, które nie przekraczają 20 869 500 mln zł w przypadku osób prawnych oraz 3 042 410 mln zł w przypadku członków zarządu. Dodatkowo kara dotycząca osób prawnych może być ustalana na podstawie 10 proc. przychodów ze sprzedaży towarów i usług oraz operacji finansowych wskazanych w ostatnim sprawozdaniu albo na podstawie dwukrotności kwoty korzyści uzyskanych lub strat unikniętych w wyniku naruszenia regulacji DORA. Tylko nie do końca wiadomo, kiedy jakie kryterium wymierzenia kary powinno być stosowane. Wydaje się, że to powinno zostać doprecyzowane w toku procesu legislacyjnego.
DORA zacznie być stosowana od 17 stycznia 2025 r. i również o tej dacie przypomina KNF, jako o punkcie zero, kiedy trzeba być już gotowym do wykazania zgodności. Ponadto widać to już dzisiaj w działaniach Komisji, która zgłosiła się do podmiotów finansowych z ankietą samooceny zgodności z DORA. Tak samo, co nie powinno nas zdziwić, określono datę wejścia w życie polskiej ustawy dostosowującej, tj. na dzień 17 stycznia 2025 r.
Łukasz Masztalerz
Autor jest adwokatem specjalizującym się w prawie i technologii oraz autorem bloga shadowtech.pl.
W 2023 r. małe firmy IT zwolniły średnio co czwartego pracownika. Jednak przyszłość jawi się optymistycznie.
Małe firmy, liczące do 50 osób, w ubiegłym roku pożegnały średnio 26 proc. zatrudnionych – wynika z „Raportu Płacowego Branży IT 2024” opracowanego przez Organizację Pracodawców Usług IT – SoDA. Co jednak ważne, perspektywy są optymistyczne, gdyż ponad połowa badanych przedsiębiorstw planuje rekrutacje, przy czym aż 72 proc. zapowiada podwyżki wynagrodzeń.
Pracownicy firm z branży IT w 2023 r. rzadziej niż w poprzednich latach zmieniali miejsce zatrudnienia – mediana rotacji wyniosła 10 proc. W dwóch poprzednich edycjach „Raportu Płacowego Branży IT SoDA”, dotyczących lat 2021 i 2022, było to (odpowiednio) 18 proc. i 15 proc. Zdaniem ekspertów, wpływ na spadek tej wartości mogła mieć niepewna sytuacja rynkowa i podwyżki – w ujęciu rok do roku wyniosły one średnio 13 proc. dla kontraktów B2B i 22 proc. przy umowach o pracę.
W ubiegłym roku zatrudnienie najbardziej zredukowały firmy liczące poniżej 50 osób (o 26 proc.), a najmniej przedsiębiorstwa wielkości ponad 300 pracowników (12 proc.). Więcej zwolnień, aż 23 proc., odnotowano w firmach z większych miast (powyżej 300 tys. mieszkańców). Te z mniejszych miejscowości pożegnały średnio 14 proc. swoich załóg.
Globalne spowolnienie gospodarcze ostudziło zapał do inwestycji w digitalizację, zmniejszając tym samym popyt na związane z tym usługi. W konsekwencji firmy IT zostały zmuszone do poszukiwania oszczędności także w obszarze kapitału ludzkiego, między innymi poprzez redukcję zatrudnienia. – Przez to obraz rynku pracy IT w 2023 r. nie był już tak dynamiczny, jak w 2022 r. Spadła liczba wakatów, podobnie jak dobrowolna rotacja pracowników – komentuje Konrad Weiske, wiceprezes SoDA i CEO Spyrosoftu.
Mimo spowolnienia, w 2024 r. aż 61 proc. badanych przedsiębiorstw planuje zatrudniać, a 72 proc. przyznawać podwyżki. Prognozy na 2024 rok wskazują, że pensje wysokiej klasy ekspertów nadal będą się zwiększać, choć po latach dynamicznego wzrostu wynagrodzenia w Polsce zbliżyły się do poziomów zachodnioeuropejskich. Może to doprowadzić do stabilizacji i spowolnienia tempa wzrostu płac w mniej specjalistycznych dziedzinach.
– Ten zmieniony krajobraz wynagrodzeń odzwierciedla dojrzewający i zrównoważony rynek pracy IT – zauważa Przemysław Mikus, wiceprezes SoDA i COO Liki.
Najwyższymi zarobkami cieszą się profesjonaliści na stanowiskach Senior DevOps Engineer/ Senior Cloud Engineer, którzy mogą liczyć na 21 481 zł na umowach o pracę i 25 200 zł w ramach kontraktów B2B. Senior Software Developerzy są zaraz za nimi, z wynagrodzeniami na poziomie (odpowiednio) 17 500 zł i 24 410 zł. W środku stawki znajdziemy specjalistów DevOps Engineer/Cloud Engineer (poziom mid, czyli specjalista ze średnim doświadczeniem) z pensją 15 805 zł na umowach o pracę i 20 495 zł dla kontraktów B2B. Kolejni na liście, Senior UI/UX Designerzy, otrzymują 15 400 zł przy umowach o pracę i 18 396 zł w przypadku współpracy na kontraktach B2B.
Najmniej wśród badanych zarabiają osoby na stanowiskach Quality Assurance Engineer i UI/UX Designer (poziom mid).
W pierwszym z tych zawodów można zarobić 10 627 zł będąc zatrudnionym na umowę o pracę i 15 120 zł na kontrakcie B2B. Pobory na najmniej płatnym z badanych stanowisk wynoszą natomiast 10 195 zł na umowie o pracę i 11 500 zł przy współpracy B2B. Wynagrodzenia specjalistów IT wciąż rosną pomimo trudniejszego okresu dla branży. Z tym, że rynek nie jest pod tym względem jednorodny, a firmy w różnych momentach decydowały się na przyznanie podwyżek.
– Poza tym wciąż pewne specjalizacje cieszą się większym popytem niż inne. Pracow-
Raport Płacowy Branży IT 2024 został opracowany przez SoDA w styczniu 2024 r. na bazie ankiety CAWI na próbie 95 przedstawicieli firm zrzeszonych w SoDA oraz danych płacowych 100 408 pracowników z 87 firm członkowskich SoDA. Celem badania było uzyskanie wiedzy na temat struktury zatrudnienia, rotacji oraz postrzeganego (realnego, a nie deklarowanego) poziomu zarobków w polskich firmach IT, zrzeszonych w Organizacji Pracodawców Usług IT (SoDA). Wszystkie podane wysokości pensji to mediana, a stawki pracowników zatrudnianych w oparciu o umowę o pracę są podawane brutto, natomiast osób świadczących obowiązki na kontraktach B2B – netto.
– Wraz ze zmieniającymi się potrzebami klientów oraz zmianą technologiczną wywołaną przez AI, spodziewamy się stopniowej przebudowy zespołów. Konieczność pozyskania nowych umiejętności albo szybkiego doszkolenia się, idzie w parze ze wzrostem liczby firm, które oferują swoim pracownikom dofinansowanie szkoleń, kursów językowych czy dostęp do platform e-learningowych mówi Anna Kołodziejczyk, Chief People Officer w Spyrosoft.
– mówi Marta Kępa, Executive Director w SoDA.
Dodaje przy tym, że wiele firm wciąż nie przykłada wystarczającej wagi do zniwelowania związanej z płcią luki płacowej. Jedną z dobrych praktyk zmniejszających różnice płac jest dążenie do maksymalnej transparentności widełek wynagrodzeń, jasnych i dostępnych dla wszystkich pracowników firmy – podsumowuje Marta Kępa.
ników biegłych w tych technologiach trudno pozyskać, przez co ich wynagrodzenia są zdecydowanie wyższe – mówi Paweł Pustelnik, wiceprezes SoDA i COO Future Processing. Należy podkreślić, że w 2023 r. pracodawcy jeszcze chętniej niż w ubiegłym roku oferowali pracownikom dofinansowanie ich własnego rozwoju (87 proc. badanych firm), bonusy w rodzaju kart sportowych i biletów do kina (85 proc.) oraz dofinansowanie wyżywienia (40 proc.). Rok wcześniej było to (odpowiednio): 62 proc., 77 proc. i 32 proc. Nieco mniej popularne stały się benefity zdrowotne (spadek z 83 do 80 proc.).
Kobiety w IT
Podobnie jak w roku 2022, w 2023 odsetek kobiet zatrudnionych w firmach IT wyniósł 17 proc. Najmniej pań pracuje w małych, maksymalnie 50-osobowych firmach, które stanowią większość przedsiębiorstw zrzeszonych w SoDA. Dysproporcja płci w tego typu organizacjach może wynikać z ograniczonej w nich liczby stanowisk kreatywnych, zajmowanych przez kobiety. Najwięcej kobiet jest wśród UX/UI designerów (54 proc.), a najmniej wśród DevOps/Cloud Engineerów (4 proc.). W 80 proc. przypadków kobiety zarabiają mniej od mężczyzn na tych samych stanowiskach. Różnica wynosi 1 365 zł dla umów o pracę i 1 076 zł przy kontraktach B2B. Największy rozstrzał wynagrodzeń można zaobserwować na stanowiskach DevOps Engineer/Cloud Engineer – tu mężczyźni zarabiają aż o 5 100 zł więcej niż kobiety (na kontraktach B2B).
Zrozumiały wydaje się fakt, że kobiety najczęściej wybierają umowę o pracę (65 proc.), podczas gdy na samozatrudnienie (umowy B2B) decyduje się jedynie 32 proc. pań. W przypadku mężczyzn proporcje te są odwrócone (odpowiednio): 67 proc. i 28 proc. Jak zauważa dr Anna Zaroda – Dąbrowska, prezes Diversity Hub, większość wśród kobiet w IT to osoby młode, dla których umowa o pracę jest najbardziej pożądaną formą zatrudnienia ze względu na zabezpieczenia w okresie ciąży i macierzyństwa.
Warto na koniec dodać, że firmy z branży IT, pytane o obecne wyzwania, wskazują głównie na presję finansową (32 proc.) oraz utrzymanie i rozwój pracowników (23 proc.). Ostatnie na liście obaw są rekrutacje (8 proc.) i adaptacja do zmian (2 proc.).
AI prowadzi do stopniowej przebudowy zespołów.
– Uwzględniający formy zatrudnienia raport SoDA, pokazuje czarno na białym różnice w zarobkach kobiet i mężczyzn z podobnym doświadczeniem zawodowym i zajmującym identyczne stanowiska
– Raport przygotowany przez SoDA pokazuje unikalne dane dotyczące realnych wynagrodzeń w branży IT. Przedstawione dane są dobrym podsumowaniem trudnego roku w IT, w którym głośno było o zwolnieniach i spowolnieniu w branży. Widać też jednak jasne strony, chociażby stały wzrost wynagrodzeń czy mniejszy wskaźnik rotacji – podsumowuje Ignacy Święcicki, Kierownik Zespołu Gospodarki Cyfrowej w Państwowym Instytucie Ekonomicznym.
Opracował Tomasz Gołębiowski
Istotne trendy produktowe, technologiczne, biznesowe, w oparciu o dane pochodzące z renomowanych agencji analitycznych, organizacji branżowych i globalnych mediów, dotyczące głównie Europy i Polski.
Firmy muszą dojrzeć do… dojrzałości cyfrowej
Jedynie 16 proc. polskich MŚP jest rozwiniętych cyfrowo, a zaledwie 4 proc. można uznać za innowacyjne – wynika z badania Test Dojrzałości Cyfrowej, przeprowadzonego przez Polski Fundusz Rozwoju. Analizowano w nim 10 czynników, które według autorów raportu składają się na cyfrową dojrzałość organizacji. Zebrane dane wskazują, że polscy przedsiębiorcy potrzebują wsparcia w zakresie cyfryzacji na wielu płaszczyznach. Jednocześnie wyniki sugerują spory niewykorzystany potencjał w zakresie digitalizacji w MŚP. Przykładowo tylko 12 proc. bada potrzeby klientów, a jedynie 33 proc. wykorzystuje narzędzia automatyzujące proste czynności.
Wybrane wyniki Testu Dojrzałości Cyfrowej
firma nie wykorzystuje narzędzi cyfrowych automatyzujących proste czynności
firma nie używa dwuetapowego logowania do systemów
firma nie przebudowała minimum 1 procesu biznesowego, tak aby jego częścią były technologie cyfrowe
firma ma zmapowane procesy biznesowe
firma posiada strategię, plan lub wizję cyfryzacji
„Inwestycja uznaniowa” to już przeszłość
Światowe wydatki na transformację cyfrową (DX) osiągną prawie 4 bln dol. do 2027 r. Tym samym przekroczą dwie trzecie wszystkich nakładów na technologie teleinformatyczne (ICT) – wynika z danych IDC. Zdaniem analityków „transformacja cyfrowa nie jest już inwestycją uznaniową”, a firmy, które chcą być konkurencyjne, przodują w inwestycjach. Te mają zaś jeszcze przyspieszyć w związku z zastosowaniem generatywnej AI. IDC prognozuje, że sektor usług finansowych powinien najbardziej intensywnie inwestować w DX (wzrost średnio o 20,5 proc. rocznie), zwłaszcza w automatyzację obsługi roszczeń (+35,1 proc.) i doradztwo finansowe w czasie rzeczywistym (+29,5 proc.), co wymaga przetwarzania
dużej ilości danych i oparcia się o AI. Natomiast branżą, która najwięcej wyda na transformację cyfrową w latach 2022–2027, jest produkcja dyskretna (przedmiotów). Firmy z tego sektora wyłożą na ten cel w 2024 r. prawie pół biliona dolarów, a w 2027 r. ponad 700 mld dol. Eksperci podkreślają, iż ważne jest, aby w ramach procesu inwestycyjnego firmy współpracowały z dostawcami w celu uzyskania wskazówek dotyczących alokacji zasobów i skutecznych strategii transformacji. Analiza IDC obejmuje wydatki przedsiębiorstw dla 376 przypadków użycia cyfrowej transformacji, inwestycje w sprzęt, oprogramowanie i usługi, zarówno on-premise, jak i chmurowe.
Prognoza wydatków na technologie teleinformatyczne (bln dol.) 20222023 20242025 20262027 Średni roczny wzrost co roku (CAGR)
Na transformację cyfrową1,92,22,533,43,916,20%
Inne cele niż transformacja cyfrowa222222-0,22% (spadek)
Dostawy smartfonów na europejski rynek (z wyłączeniem Rosji) wzrosły o 2 proc. r/r w I kw. 2024 r., do poziomu 33,1 mln szt. – ustalił Canalys. Większe zakupy są efektem poprawy sytuacji makroekonomicznej i rozpoczęcia cyklu odnawiania urządzeń z Androidem, zakupionych w trakcie lockdownów. W omawianym okresie wystąpił historycznie najwyższy udział modeli premium na europejskim rynku. Smartfony w cenie od 800 dol. (ok. 3,2 tys. zł) w górę stanowiły 32 proc. dostaw. W badaniu Canalysa 40 proc. respondentów z Europy pozytywnie oceniło to, jak funkcje sztucznej inteligencji mogą wzbogacić korzystanie z ich smartfonów, jednak – jak zastrzeżono – różnica między zainteresowaniem a zamiarem zakupu będzie prawdopodobnie duża. Jednocześnie przeciętny europejski konsument podchodzi z ostrożnym optymizmem do możliwości AI w smartfonach. „Poddawanie się marketingowemu szumowi i nadużywanie sztucznej inteligencji zwiększy ryzyko niezaspokojenia oczekiwań konsumentów, osłabienia marki i zmniejszenia zaufania konsumentów w regionie” – ostrzegają eksperci.
”Rewolucja AI” dosypie miliardy
Wydatki użytkowników końcowych na chmurę publiczną zwiększą się globalnie o ponad 20 proc. w 2024 r., przekraczając 675 mld dol. – prognozuje Gartner. Za taką dynamiką stoją w dużej mierze projekty w oparciu o generatywną sztuczną inteligencję. Zdaniem ekspertów to właśnie AI wywinduje wartość tego segmentu rynku do sumy 1 biliona dol. jeszcze przed końcem tej dekady. Analitycy twierdzą, że wszystkie segmenty rynku chmurowego odnotują wzrost w 2024 r., w tym najszybciej powinny iść w górę wydatki na infrastrukturę (IaaS i PaaS). Infrastruktura w modelu cloud computing jest niezbęda do treningu, wnioskowania i dostrajania modeli AI, dlatego nakłady użytkowników na IaaS powinny rosnąć wykładniczo. SaaS pozostanie natomiast największym segmentem rynku z solidną dynamiką (+20 proc. r/r w 2024 r.). Będzie za nią stała modernizacja aplikacji przez dostawców software’u do oferty „as-a-service”. Ponadto wzrost AI napędzają przypadki użycia, takie jak AI, ML, Internet Rzeczy i duże zbiory danych.
Usługi infrastruktury aplikacji (PaaS) 142,93419,5172,44920,6211,58922,7
Usługi aplikacji (SaaS)
205,99818,1247,20320,0295,08319,4
Usługi procesów biznesowych (BPaaS) 66,1627,572,6759,882,26213,2
Desktop-as-a-Service (DaaS) 2,70811,43,06213,13,43712,3
Usługi infrastruktury systemu (IaaS) 143,30219,1180,04425,6232,39129,1 W sumie561,10417,3675,43320,4824,76322,1
Większość budżetów IT w 2024 r. pochłonie utrzymanie istniejących systemów, a mniej niż jedna piąta zostanie przeznaczonych na inicjatywy transformacyjne – wynika z danych Omdia. Liczba ta odzwierciedla wyzwania związane z rosnącymi kosztami pracy i energii. Analitycy spodziewają się, że w ciągu najbliższych 5 lat organizacje będą w coraz większym stopniu zwracać się w stronę automatyzacji, optymalizacji opartej na sztucznej inteligencji oraz IT w modelu usługowym, aby zarządzać kosztami oraz zwiększać inwestycje w projekty transformacyjne. W ocenie ekspertów zmienność cen energii jest krytycznym czynnikiem wpływającym na budżety IT na całym świecie. Jednakże niewiele wskazuje na to, by ustabilizowały się w najbliższej przyszłości.
Wacław Iszkowski
Autor w latach 1993–2016 był prezesem Polskiej Izby Informatyki i Telekomunikacji. Pracował też w firmach: Oracle, DEC Polska, 2SI, EDS Poland, TP Internet. Obecnie jest senior konsultantem przemysłu teleinformatycznego.
W Warszawie zamiast kartonikowych biletów mają być papierowe paseczki z kodem QR, a płacić za przejazd będzie można nawet zegarkiem.
Systemy biletowania w komunikacji miejskiej należą do najciekawszych projektów cyfryzacyjnych. Wszak trzeba pobrać od pasażera opłatę o niewielkiej wartości zależną od jego planu podróżowania określonym pojazdem na jakimś obszarze przez jakiś czas. System tego typu równocześnie obsługuje miliony pasażerów codziennie przez całą dobę. Przyjrzyjmy się zatem takim realizacjom, zaczynając od wersji analogowo-białkowej, a dojdziemy do stwierdzenia, że może lepsze będą… przejazdy darmowe.
Z lat 50-tych pamiętam konduktorów, którzy w środkach komunikacji miejskiej, przepychając się między stojącymi pasażerami, nawoływali: „kto jeszcze nie zabiletowany?”. Potem usadzono ich w bufecie (siedzenie z pulpitem) koło tylnych drzwi pojazdu – tramwaju, autobusu i trolejbusu. Ich zadaniem była sprzedaż biletów i nawoływanie: „proszę przesuwać się do przodu”.
Z początkiem lat 60-tych w MPK zaczęło brakować pracowników. Najpierw zabrano konduktorów z wagonów doczepnych, w których teraz mogli podróżować wyłącznie pasażerowie z biletami miesięcznymi. Po wejściu do wagonu mieli je pokazywać innym pasażerom – taka społeczna kontrola. Następnie wysłano na trasę trolejbusy „SAM” – pasażerowie abonamenty i bilety dziurkowali wiszącymi na łańcuszku szczypcami, a ci bez biletu mieli wrzucać opłatę do skrzyneczki. Pewnie podpatrzono system stosowany w amerykańskich autobusach miejskich, gdzie opłatę dokładnie odliczoną w monetach wrzucało się do przeźroczystej puszki, obserwowanej przez kierowcę, który potem wajchą zrzucał ją do skarbonki – zresztą tak jest tam i do dzisiaj. Wracając na nasze podwórko: dalej już poszło szybciej. Kolejne linie były obejmo-
wane systemem bezkonduktorskim. Bilety kupowało się w kioskach Ruchu, a początkowo również u kierowcy (szczególnie w autobusach nocnych). W 1967 roku bilet normalny kosztował 50 gr, a ulgowy 20 gr. W pojazdach były kasowniki-numeratory drukujące na bilecie: numer wozu, miesiąc i dzień, ale tusz się rozmazywał. W latach 70-tych pojawiły się kasowniki „kraby” – dziurkacze z wajchą z boku z kombinacją 9 sztyftów (byli tacy, co rozgryźli sposób kodowania). Z czasem zamieniono je na mniejsze i poręczniejsze.
Zmieniały się ceny biletów – przed denominacją w 1995 roku za normalny trzeba było zapłacić 10 tys. zł – potem tylko 1 zł. Zmniejszała się liczba kiosków Ruchu, zaczęto więc wprowadzać biletomaty na przystankach, początkowo tylko akceptujące gotówkę. Potem pojawiły się biletomaty w pojazdach z płatnością kartami. Przy czym kosztowne jest drukowanie milionów biletów kartonikowych, często z hologramami i paskami magnetycznymi, o różnych wartościach, ważnych w określonej liczbie minut, w kilku strefach, a w naszych miastach dodatkowo również o różnych wartościach ulg. Na przykład w Grodzisku mamy bilety normalne za 4, 2, 1 zł oraz z ulgami 33, 37, 49, 78, 93 i 95 proc., czyli mamy bilety za 5, 7, 10, 14 groszy. A dlaczego tak jest? Ano dlatego, że według liczby sprzedanych biletów następuje do nich dofinansowanie z różnych funduszy.
Novum było wprowadzenie bezdotykowych plastikowych kart miejskich z czipami, ładowanymi awansem większymi kwotami w biletomatach – są one personalizowane lub anonimowe. Można na nich też zapisać bilety długookresowe, turystyczne, ulgowe, rodzinne, itp. Po wejściu do pojazdu kartę trzeba zbliżyć do czytnika, odznacza-
jąc tym samym zakup biletu lub potwierdzając posiadanie biletu wielokrotnego. Czasem również przed wysiadaniem trzeba obowiązkowo powtórnie ją zbliżyć do czytnika. Wtedy liczona jest opłata za przejazd jaką ma być obciążone konto karty. Takie rozwiązanie utrudnia wsiadanie (w tramwajach amsterdamskich trzeba wsiadać tylko przednim wąskim wejściem, a motorniczy czujnie patrzą na wchodzących) oraz wysiadanie (przed drzwiami są dodatkowe odchylane barierki).
Jednak w powyższym przypadku dostępne są bardziej finezyjne systemy opłat, czego przykładem jest suma opłat za przejazdy w tygodniu, która nie może przekroczyć określonej sumy granicznej (potem jeździ się za darmo, ale trzeba wtedy pilnować odhaczania się przed wysiadaniem).
Z czasem stwierdzono, że oprócz kart miejskich pasażerowie mogą używać własnych kart bankowych do opłacania przejazdów jednorazowych. Ma to szczególne znaczenia dla okazjonalnego korzystania z komunikacji miejskiej. Drugim, coraz popularniejszym rozwiązaniem, są aplikacje w telefonach, w których można zakupić odpowiedni bilet, a następnie „kasować” go w czytniku zbliżeniowym w pojeździe. Odmianą jest wpisanie w aplikacji do wybranego biletu numeru pojazdu lub odczytanie go z kodu QR przylepionego koło czytnika. Wymóg dwukrotnego „odbijania” karty w czytnikach przy wejściu i wyjściu z pojazdu dla biletów długookresowych lub ze stałą taryfą wynika z chęci firmy transportowej uzyskania informacji o potokach pasażerów oraz „zatłoczeniu” w pojazdach. Na ten wymóg zbuntowali się pasażerowie korzystający ze Śląskiej Karty Usług Publicznych (ŚKUP) i w 2018 roku uzyskali z UOKiK-u decyzję, że jest to praktyka naruszająca zbiorowe interesy konsumentów!
ŚKUP musiał być zmodyfikowany, a że jeszcze doznał poważnej awarii, to we wrześniu 2023 roku wymieniono go na nowy System Transport GZM dostarczony przez Asseco za 122 mln zł. Niestety nowy system z trudnościami migrował dane pasażerów ze ŚKUP-u oraz miał kłopoty z obsługą nowych. To dobry przykład tego, jak złożony i wymagający jest system, który ma dziennie tamże obsłużyć około 0,5 mln pasażerów (podobny system w Nowym Jorku musi sobie poradzić z 3,6 mln pasażerów dziennie).
W Warszawie obecny system biletowania działa od 20 lat i właśnie ZTM zamierza zamówić nowy, korzystając przy tym z najlepszych doświadczeń z innych miast. Zamiast kartonikowych biletów mają być papierowe paseczki z kodem QR, a płacić za przejazd będzie można nawet zegarkiem. Za to każdy pasażer będzie musiał mieć swoje konto w tym systemie – będzie mógł być kontrolowany, gdzie to się włóczy komunikacją miejską (podobno nikt nie będzie miał dostępu do jego danych – podobno…). Cały system ma być w pełni wdrożony za 7 lat! Oczekują już zgłoszenia od co najmniej 5 oferentów. Niestety, chyba niedoszacowano kosztów takiego systemu (tylko kilkadziesiąt milionów?).
Używanie personalizowanych kart oraz aplikacji w telefonach potencjalnie narusza prywatność ich właścicieli, gdyż można wtedy śledzić ich podróże (np. przez policję czy inne służby). Dlatego też zaczęto poszukiwać innych metod analizy przepływu pasażerów w komunikacji miejskiej. Między innymi można zamontować kamery w pojazdach, które z pomocą systemu SI będą rozpoznawać sylwetki pasażerów i śledzić ich przejazdy, nawet z przesiadkami do innych linii. Można też odnotowywać telefony komórkowe, licząc je w pojeździe między przystankami, tak jak systemy analizy ruchu na drogach wychwytują korki, ale czy to też nie narusza RODO?
Celem tego tekstu jest zwrócenie waszej uwagi na dwie konstatacje. Pierwsza z nich mówi, że możliwość zastosowania teleinformatycznych systemów biletowania umożliwia znaczący poziom złożoności w taryfach, oczywiście dla dobra pasażerów, że wprawdzie im dalsza podróż tym drożej (1 strefa Tube 8,10 funta, czyli 40,44 zł), ale z różnymi ulgami. Pytanie, czy rzeczywiście jest to potrzebne, gdyż koszty samego systemu i jego obsługi są znaczące. Przy braku takich systemów, mogłoby to być znacznie prostsze z jeszcze większymi korzyściami dla pasażerów.
Druga konstatacja prowadzi do stwierdzenia, że w dobie „walki” o klimat przez redukcję liczby aut w centrach miast należy mieszkańców przekonać do korzystania z komunikacji zbiorowej, udostępniając ją za darmo. Tym samym można byłoby zrezygnować z tych kosztownych systemów biletowania, serwisowania urządzeń i au-
tomatów, kontroli pasażerów, tym samym upraszczając im życie. Takie decyzje podjęto w kilku miastach, ale wnioski nie są zbyt pozytywne. Okazuje się, że w niewielkim stopniu zrezygnowano z aut, a tylko piesi i wielu rowerzystów, zamiast ruchu dla zdrowia, zaczęło korzystać z komunikacji, powodując znaczne zatłoczenie. Zmusza to do zwiększenia liczby taboru, co ogranicza brak kierowców i maszynistów.
W Anglii i Szkocji około 10–20 proc. kierowców autobusów pochodzi z Polski. I nawet w Krakowie uruchomiono kursy dla nich według angielskich przepisów z lewostronnym ruchem. A to kosztuje, gdy równocześnie brakuje tych 20–30 proc. wpływów z biletów na lepszy tabor oraz efektywniejszą siatkę połączeń. A dodatkowe środki można pozyskać od kierowców tylko za wjazd do centrum czy parkowanie. A może trzeba podnieść podatki od nieruchomości oraz wprowadzić podatek miejski – na przykład od balkonów wiszących nad pasem drogowym?
I na koniec pytanie. Kto z was, drodzy czytelnicy tego tekstu, dzisiaj (no dobrze, w tym kwartale) podróżował komunikacją miejską?
Bo ja nie, gdyż obawiam się złapania jakiegoś wirusa. I póki mi UE nie zabierze prawa jazdy to wolę jechać autem, nawet niespecjalnie lubiąc nim kierować, a potem z coraz większą trudnością szukać parkingu.
Kamery będą rozpoznawać sylwetki pasażerów
Wojciech Urbanek zastępca redaktora naczelnego CRN Polska
Specjaliści od marketingu politycznego na całym świecie produkują tysiące fałszywych informacji, które mają skompromitować bądź ośmieszyć konkurentów. Nie wiem jak w innych krajach, ale w Polsce takie działania wydają się być nieskuteczne.
iedługo przed wyborami do Parlamentu Europejskiego przypadkowo trafiłem na fragment rozmowy, która odbyła się podczas jednej z manifestacji politycznych. Do kobiety w średnim wieku podchodzi dziennikarz i pokazuje jej nagranie, na którym polityczny idol tejże pani sam siebie, swoim zachowaniem, stawia w złym świetle. „Ten film jest spreparowany przez sztuczną inteligencję” – komentuje pewnym głosem kobieta. Wprawdzie pani nie miała racji, bo prezentowany film był autentyczny, ale tak naprawdę nie ma to znaczenia.
Abraham Lincoln powiedział kiedyś, że można oszukiwać wielu ludzi przez jakiś czas, a niektórych ludzi cały czas, ale nie można oszukiwać wszystkich ludzi przez cały czas. Obawiam się, że popularna sentencja już wkrótce straci na aktualności. Specjaliści korzystający z narzędzi SI już teraz tworzą realistyczne obrazy, których przeciętny człowiek w żaden sposób nie odróżni od rzeczywistości. W mgnieniu oka można wygenerować zdjęcie kart do głosowania na wysypisku śmieci, ledwie żywego Jarosława Kaczyńskiego na szpitalnym łóżku czy kolejkę zdeterminowanych wyborców czekających w deszczu przed lokalem wyborczym. Portal Politico zauważa, że jednym z najczęściej atakowanych przez fałszywe przekazy polityków jest Maia Sandu, prezydent Mołdawii. Władze tego niewielkiego państwa uważają, że za tymi atakami stoją Rosjanie, niemniej chodzi tu nie tyle o źródło, co o możliwości ośmieszenia konkurentów biznesowych czy politycznych, jakie dają nowe technologie.
Niejednokrotnie można spotkać się z opiniami politologów, którzy zwracają uwagę, że masowa produkcja fałszywych informacji może obalić niejeden rząd i wpłynąć na
wyniki niejednych wyborów. Większy spokój w tej materii stara się zachować Felix Simon – badacz z Uniwersytetu Oksfordzkiego, którego zdaniem szkodliwość sztucznie spreparowanych treści nie jest zbyt duża, bowiem giną one w morzu codziennych, zwykłych postów. Osobiście jestem zdania, że Brytyjczyk jest znacznie bliżej prawdy niż rozhisteryzowani politolodzy. Tym bardziej, że skuteczność spreparowanego przekazu jest wprost odwrotnie proporcjonalna do poziomu polaryzacji społeczeństwa – im jest on większy, tym siła fake newsów słabnie. W wielu państwach, w tym również w Polsce, politycy za pomocą mediów podzielili wyborców na dwa zwalczające się obozy. „Wyznawca” jednej bądź drugiej partii słyszy tylko to, co chce usłyszeć. W związku z tym uwierzy we wszystko, co powie mu polityk z ulubionego obozu. I odwrotnie – nie da wiary w ani jedno słowo wypowiedziane przez przedstawiciela partii przeciwnej. Szkoda zatem czasu, a przede wszystkim energii elektrycznej na generowanie fałszywek. Wprawdzie spreparowane materiały mogą zwiększać poziom polaryzacji, ale chyba osiągnął on już granicę, którą trudno przekroczyć. Poza tym politycy stali się mistrzami w antagonizowaniu obywateli i sztuczna inteligencja już niewiele tutaj pomoże. Czasami tworzy się fałszywe filmy z politykami nie tyle ze względu na przekonania polityczne, lecz dla tzw. beki. To dowód na to, że narzędzia SI są dalekie od doskonałości. Znajdźcie mi, proszę bota, który wymyśli lepszy greps niż kultowe i prawdziwe: „Stop PCK. I CPK! I innym nazwom”. Jak na razie politycy przerastają sztuczną inteligencję o kilka długości. I nie wierzę w to, żeby w najbliższym czasie cokolwiek się w tym zakresie zmieniło.
jeśli pracujesz w firmie z branży IT, możesz bezpłatnie zaprenumerować magazyn CRN Polska?
Załóż konto na stronie
crn.pl/rejestracja
Najlepiej poinformowany magazyn w branży IT!
dla resellerów, VAR-ów i integratorów
druga edycja programu certyfikacji producentów rozwiązań informatycznych!
Certyfikat Channel Master
mogą uzyskać producenci, którzy prowadzą swoją działalność za pośrednictwem partnerów handlowych.
W procedurze certyfikacji weryfikowane jest 9 kategorii (narzędzi i usług zapewnianych partnerom przez producentów), uszeregowanych i ocenianych zgodnie z oczekiwaniami ekosystemu partnerskiego.
Uzyskanie praw do tytułu Channel Master stanowi potwierdzenie pełnego zaangażowania producenta w rozwój ekosystemu partnerskiego na polskim rynku IT.
n Celem programu jest wyróżnienie i rekomendowanie integratorom IT tych dostawców produktów i usług, którzy kładą szczególny nacisk na ekosystem partnerski.
n Pomyślne przejście procedury certyfikacji opisanej w „Regulaminie programu certyfikacji Channel Master” i otrzymanie tytułu Channel Master to dowód rzetelności w oczach partnerów, a przy tym wiarygodne narzędzie promocji wśród swoich kontrahentów i we własnej organizacji.
Certyfikaty Channel Master 2025 zostaną wręczone 28 listopada podczas wyjątkowej gali CRN w warszawskim Hotelu Polonia Palace!
Szczegółowych informacji udzielają: Agata Myśluk, 694 455 426, agata.mysluk@crn.pl l Jacek Goszczycki, 601 935 513, jacek.goszczycki@crn.pl