Okiemużytkownika Cyfryzacja PKP Intercity
cyberbezpieczeństwo: cyberbezpiec
Okiemużytkownika Cyfryzacja PKP Intercity
cyberbezpieczeństwo: cyberbezpiec
dobre, bo polskie dobre, bo
Gospodarka o obiegu zamkniętym Polski rynek smart home
Bezpieczna infrastruktura krytyczna
Chcesz być na bieżąco z tym co najważniejsze w branży IT w Polsce i nie tylko?
Możesz dostawać trzy razy w tygodniu newsletter CRN, z którego szybko dowiesz się o ważnych wydarzeniach i nowościach z ostatnich 48 godzin.
n wejścia na rynek, n fuzje i przejęcia, n kluczowe newsy z branży, n zmiany personalne, n skróty najważniejszych raportów
Masz konto na CRN.pl?
– to wszystko trafi do Ciebie mejlem, w każdy poniedziałek, środę i piątek.
Włącz wysyłkę newslettera CRN na stronie CRN.pl/prenumerata (wymagane wcześniejsze zalogowanie na CRN.pl/logowanie).
Nie masz jeszcze konta na CRN.pl?
Załóż je na stronie CRN.pl/rejestracja
Najpierw klient, potem inwestor
Klienci powinni być na szczycie
Klienci powinni na szczycie hierarchii, również dla startupów również dla startupów.
Niebezpieczne połączenie
Infrastruktura krytyczna to często połączenie IT
i OT. Oba środowiska często powstawały w różnym czasie, więc są to zwykle dwa odmienne światy.
10 Schneider Electric w Paryżu AI wyzwaniem i szansą dla centrów danych
11 Po partnersku naRising Stars Spotkanie partnerów Dagma Bezpieczeństwo IT
12 Startupy SI opływają w pieniądze, choć nie mają klientów Amerykańskie fundusze VC pompują mnóstwo pieniędzy w startupy utożsamiane ze sztuczną inteligencją
13 Szczypta dziegciu w beczce w prognozami finansowymi Felieton Larry’ego Walsha
14 Okrągy Stół CRN Polska Cyberbezpieczeństwo: dobre, bo polskie
21 Najpierw klient, potem inwestor Felieton Szymona Janiaka
22 Programy partnerskie W pogoni za innowacjami
24 Samsung Memory: stabilność lepsza od pośpiechu Rozmowa z Maciejem Kamińskim, dyrektorem dywizji Samsung Memory w Polsce i regionie CEE
25 Senetic: platforma zakupowa dla partnerów Prostota składania zamówień, dostępność towaru i szybkie dostawy (advertorial Senetic)
26 Niebezpieczne połączenie Infrastruktura krytyczna to często połączenie IT i OT. Trzeba wiedzieć do jakiego stopnia procedury i narzędzia są wspólne dla obu tych środowisk
30 Fudo Enterprise Intelligent PAM Na czas kryzysu (advertorial Fudo)
31 Trustwave i SpiderLabs Kompleksowa ochrona infrastruktury krytycznej (advertorial Trustwave)
32 BlackBerry AtHoc Kryzys pod kontrolą (advertorial BlackBerry AtHoc)
34 PowerWalker EVS 5kVA
Zasilacz nowej generacji (advertorial Impakt, PowerWalker)
36 PAM ułatwia zapewnienie zgodności z NIS2
Operatorzy infrastruktury krytycznej będą zmuszeni do skrupulatnej weryfikacji obowiązujących u nich reguł polityki bezpieczeństwa (advertorial Wallix)
Obieg zamknięty, czy błędne koło? O obiegu O zamkniętym w gospodarce w gospodarce dużo rozmawia się dużo rozmawia również w branży również w branży nowych technologii technologii.
37 Cyberzagrożenia wreszcie na Twoim radarze SOCRadar, amerykański dostawca platformy do analizy cyfrowych zagrożeń, zadebiutował na polskim rynku (advertorial iIT Distribution, SOCRadar)
38 EVER: gwarancja zasilania i eksperckiego wsparcia Współpraca z poznańskim producentem jest nieoceniona zwłaszcza przy dostarczaniu zaawansowanych rozwiązań (advertorial EVER)
39 NIS2 szansą dla integratorów i ich klientów
Dyrektywa NIS2 to nie tylko szereg obowiązków, ale też szansa na poprawę cyfrowej ochrony w firmach i instytucjach (advertorial ESET, DAGMA Bezpieczeństwo IT)
40 Polski smart home Nadrabiamy dystans do świata
43 Magiczna moc „zjeb..., przepraszam”
Felieton Rafała Agnieszczaka
44 Zamknięty obieg, czy błędne koło?
Gospodarka o obiegu zamkniętym stała się jednym z wiodących tematów biznesowych
Felieton Marcina Babiaka
Felieton Wojciecha Urbanka 5/2024
47 Jaką wartość mają przegrane deale?
48 Sztuczna inteligencja najlepszym przyjacielem danych
Ze zgromadzonych danych trzeba wyciągnąć określoną wartość
50 Rekrutacja: „nie”, które brzmi jak „tak”
Rozmowa z Julią Awerianową, Senior IT Recruitment Consultantem w Yard Corporate
52 Egzaminy IIBA: życiowe podejście do testów
Felieton Hanny Gruzdowskiej
54 Analityku, witaj w erze post-agile!
Felieton Pawła Cyzmana
55 Lepszy raj
Felieton Arnolda Adamczyka
Porażki są przereklamowane
Felieton Piotra Karwatki
56 Kto mieczem wojuje, od miecza ginie
Felieton Kyle’a Alspacha
58 Pociąg do informatyki
Rozmowa z Tomaszem Gontarzem, do kwietnia 2024 wiceprezesem zarządu
PKP Intercity
64 Sukces nie ma wieku
Felieton Wacława Iszkowskiego
66 Przełącznik w mózgu
Wpierwszym kwartale 2024 trzynaście spośród osiemnastu największych firm technologicznych na świecie zanotowało wzrost przychodów (rok do roku). Bank rozbiła Nvidia, uzyskując trzycyfrowy wynik (+265 proc.), podczas gdy pozostali rośli w jedno- lub dwucyfrowym tempie. Korki od szampana wystrzeliły także między innymi w gabinetach szefów AWS-u, Microsoftu, Broadcomu i Salesforce’a. Nie mogą natomiast pierwszych trzech miesięcy tego roku zaliczyć do udanych takie koncerny, jak: Apple, Cisco, Dell, HP oraz HPE.
Ważnym sygnałem jest uśredniony wynik całej osiemnastki, którą Canalys określił swego czasu mianem Tech Titans, tworząc indeks o takiej właśnie nazwie, który pełni rolę barometru mierzącego aktualną kondycję amerykańskiej, a w dużym stopniu również globalnej branży IT.
I tak, w pierwszym kwartale br., Tech Titans Index wzrósł pod względem przychodów o 8,6 proc., co stanowi kontynuację korzystnego trendu, bo w ostatnich czterech kwartałach odsetek ten też był dodatni, wynosząc 3,6 proc. Wygląda więc na to, że po kilku chudych kwartałach z lat 2022–23, nadeszła trwała poprawa koniunktury, choć – jak już wspomniałem – nie dotyczy to wszystkich tuzów sektora IT.
Analitycy podkreślają, że cierpią głównie dostawcy pecetów (chociaż akurat Lenovo zaliczyło dodatni wynik, w przeciwieństwie do Della i HP), co ma jednak niebawem ulec zmianie, gdyż nadchodzi wielka wymiana sprzętu kupowanego na pniu w czasie niedawnych lockdownów. Proces ten ma być napędzany sztuczną inteligencją, choć w tym przypadku resellerzy zwracają uwagę na brak spójnego przekazu marketingowego na temat namacalnych korzyści dla użytkowników – pod tym względem producenci wciąż mają niełatwą lekcję do odrobienia. Tym bardziej, że w przekazach medialnych coraz częściej pisze się o AI w kontekście wysokiego zużycia energii, co stoi w sprzeczności z lansowanymi bardzo mocno w Unii Europejskiej tzw. celami klimatycznymi
(swoją drogą, pod tym względem pod górkę wizerunkowo mogą mieć niebawem także dostawcy infrastruktury centrów danych, choć na tym etapie to jedynie luźne przypuszczenie).
Co ważne, w pierwszym kwartale 2024 łączny wzrost dochodu netto technologicznych tytanów był dwucyfrowy, przebijając poziom 40 proc., a łączna kapitalizacja największych koncernów skoczyła o blisko połowę (49,2 proc.). Zatem również pod względem tych dwóch wskaźników mamy do czynienia z kontynuacją korzystnego trendu, począwszy od drugiego kwartału ubiegłego roku. To wszystko stanowi dość solidną podstawę, aby zaryzykować prognozę, że druga połowa tego roku zaskoczy nas pozytywnie, podobnie jak rok 2025. Niestety, ani w Europie, ani na polskim rynku sytuacja tak różowa nie jest: według Contextu wartość sprzedaży w europejskiej dystrybucji spadła w pierwszym kwartale rok do roku o około 6 proc., a w Polsce o 4 proc. Niemniej, brytyjscy analitycy przewidują, że jesteśmy tuż przed okresem wzrostu sprzedaży także w naszej części świata. Oby!
Tomasz Gołębiowski Redaktor naczelny
MIESIĘCZNIK CRN POLSKA www.CRN.pl
Rok 27, numer 5 (499), 22 maja 2024 PL ISSN 2080-8607
REDAKCJA
Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa redakcja@crn.pl
Tomasz Gołębiowski tg (redaktor naczelny) tel. 608 425 699 tomasz.golebiowski@crn.pl
Wojciech Urbanek wu (zastępca red. naczelnego) tel. 691 672 065 wojciech.urbanek@crn.pl
Karolina Marszałek km (sekretarz redakcji) karolina.marszalek@crn.pl
Andrzej Gontarz ag andrzej.gontarz@crn.pl
Krzysztof Jakubik kj krzysztof.jakubik@crn.pl
Krzysztof Pasławski kp krzysztof.paslawski@crn.pl
Tomasz Janoś tj tomasz.janos@crn.pl
FELIETONY
Arnold Adamczyk, Rafał Agnieszczak, Marcin Babiak, Paweł Cyzman, Hanna Gruzdowska, Wacław Iszkowski, Szymon Janiak, Piotr Karwatka, Wojciech Urbanek, Larry Walsh,
GRAFIKA, LAYOUT, KOORDYNACJA PRODUKCJI: Tomasz Baziuk
FOTOGRAFIE
Theta Art Studio Tomasz Pisiński, PhotobyMysluk.pl, Adrian Stykowski, Piotr Syndoman, archiwum
PRENUMERATA prenumerata@crn.pl
REKLAMA I PROJEKTY SPECJALNE Agata Myśluk tel. 694 455 426 agata.mysluk@crn.pl Jacek Goszczycki tel. 601 935 513 jacek.goszczycki@crn.pl
WYDAWCA
Peristeri Sp. z o.o. Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa
Reklamy są przyjmowane w siedzibie wydawnictwa. Za treść ogłoszeń redakcja nie ponosi odpowiedzialności. © 2024 Peristeri Sp. z o.o. Wszelkie prawa zastrzeżone.
DM BOŚ podniósł cenę docelową akcji AB z 83,50 zł do 96,60 zł i podtrzymał rekomendację „kupuj”. „Oczekujemy, że wyniki spółki w kolejnych kwartałach będą napędzane m.in realizacją przetargów publicznych, środkami z Europejskiego Planu Odbudowy czy oczekiwanym ożywieniem wydatków konsumenckich” – stwierdzono w raporcie. Analitycy spodziewają się wzrostu zysku na akcję AB za II kw. finansowy 2023/24 (I kw. 2024 r.) o 5 proc. rok do roku. Wynik na plusie oznaczałby kontynuację trendu z I kw. finansowego 2023/24 (IV kw. 2023 r.), gdy zysk netto grupy poprawił się o 5 proc. r/r, do kwoty 71,5 mln zł, przy przychodach na poziomie ponad 5 mld zł.
Zespół z Polski i Finlandii znalazł się na podium Locked Shields 2024. To największe na świecie ćwiczenia z cyberobrony, organizowane przez NATO Cooperative Cyber Defence Centre of Excellence (CCDCOE). Zorganizowano je w Tallinie (Estonia). Wzięło w nich udział około 4 tys. ekspertów z ponad 40 krajów, w tym specjaliści z Wojskowej Akademii Technicznej w Warszawie. W tegorocznej edycji Polskę i Finlandię po raz pierwszy reprezentował jeden zespół, dowodzony przez oficera Dowództwa Komponentu Wojsk Obrony Cyberprzestrzeni. Do polskiej części ekipy weszli przedstawiciele sił zbrojnych, CSIRT poziomu krajowego, służb, przemysłu i uczelni.
Państwowa Wytwórnia Papierów Wartościowych wdraża system ERP od SAP-a. W tym celu podpisała umowę z warszawską firmą KBJ. Jej przedmiotem jest projekt wdrożenia systemu SAP S/4 HANA wraz z obsługą gwarancyjną i pracami dodatkowymi. Wartość kontraktu przekracza 20 mln zł netto. Przewidywany czas zakończenia realizacji projektu wdrożenia to 1 stycznia 2026 r. KBJ należy do największych firm wdrożeniowych na polskim rynku. W 2023 r. miała ponad 80 mln zł przychodów i 3 mln zł zysku netto.
Maxcom zwiększył w 2023 r. sprzedaż o 5 proc. rok do roku, odnotowując najwyższe w historii przychody o wartości 134,4 mln zł. Polski producent i dystrybutor urządzeń mobilnych wypracował 2,9 mln zł zysku operacyjnego wobec straty na poziomie minus 1,2 mln zł przed rokiem. Zysk netto sięgnął natomiast sumy 422 tys. zł wobec 4,4 mln zł na minusie w 2022 r. Na wzrost zainteresowania produktami Maxcomu miało wpłynąć rozszerzenie asortymentu o urządzenia marki własnej i innych dostawców, rozwój e-commerce i wzmocnienie pozycji za granicą. Producent rozbudował ofertę smartwatchy i urządzeń z kategorii elektromobilności, rozszerzając ponadto sprzedaż hurtową komponentów do instalacji fotowoltaicznych.
Grupa kapitałowa Sygnity według wstępnych, szacunkowych danych uzyskała w I kw. 2024 r. około 62 mln zł przychodów, a więc 18 proc. więcej niż rok wcześniej (52,3 mln zł). Z kolei zysk poprawił się o 40 proc., do około 8 mln zł (z 4,9 mln zł przed rokiem). Dane uwzględniają wyniki finansowe spółek przejętych przez Sygnity w tym roku, tj. Edrana Baltic z Wilna oraz Sagra Technology ze Szczecina.
„1miliardeurozainwestowanew opensourcedajedo PKBdodatkowe95miliardów”– Dariusz Świąder, prezes Linux Polska.
UOKiK postawił zarzuty Jura Poland (wyłączny importer ekspresów do kawy marki Jura) i osobie zarządzającej w spółce, która odpowiadała za politykę dystrybucyjną. Postępowanie prowadzone jest również przeciwko sprzedawcom ekspresów Jura: Euro-net, Media Saturn Holding, Media Saturn Online i Terg, czyli właścicielom sklepów RTV Euro AGD, Media Markt i Media Expert. Za udział w porozumieniu ograniczającym konkurencję grozi im kara 10 proc. obrotu, a menedżerom 2 mln zł. Jak utrzymuje UOKiK podczas przeszukania w siedzibach kilku spółek znaleziono dowody wskazujące, że Jura Poland mogła zawrzeć porozumienie ograniczające konkurencję z autoryzowanymi dystrybutorami swoich produktów.
sąd skazał na 13 lat i 7 miesięcy więzienia Jarosława W., obywatela Ukrainy oskarżonego o udział w głośnych atakach wykorzystujących luki w oprogramowaniu Kaseya w 2021 r. Ofiarami miało paść ponad 1 tys. firm. W ocenie śledczych ma on na koncie więcej podobnych przestępstw. Usłyszał wyrok za udział w ponad 2,5 tys. ataków z wykorzystaniem ransomware na całym świecie. Jarosław W., który przyznał się do winy, nie dość, że pójdzie za kraty, to jeszcze ma zapłacić 16 mln dol. odszkodowania.
Władze USA ogłosiły nowy, obszerny pakiet sankcji gospodarczych. Wśród prawie 300 celów jest embargo nałożone na dziesiątki podmiotów, które zdaniem amerykańskiego rządu umożliwiły Rosji zdobycie „desperacko potrzebnej technologii” i sprzętu z zagranicy. Przykładowo, rosyjską gospodarkę wojenną miała wspierać słowacka spółka Carovilli Trading, która – jak twierdzi Departament Skarbu – kupuje sprzęt komputerowy i oprogramowanie, a następnie odsprzedaje je spółkom w Rosji.
do wycieku danych pacjentów All-Med Centrum Medyczne w Łodzi. Placówka otrzymała zgłoszenie w tej sprawie od Medily, dostawcy oprogramowania medycznego, który poinformował, że rekordy zostały skradzione w wyniku ataku hakerskiego. Łupem przestępców mogły paść takie informacje jak: imię i nazwisko pacjenta, PESEL, data urodzenia, dane adresowe, numer telefonu, dane o stanie zdrowia. Według All-Medu incydent dotyczył danych z okresu do końca 2019 r.
venture capital w Polsce w I kw. 2024 r. wyniosła 173 mln zł. To spadek o 61 proc. wobec I kw. 2023 r. – wynika z raportu PFR Ventures i Inovo VC. Znacznie skurczyła się przy tym liczba spółek, które pozyskały finansowanie – ze 128 przed rokiem do 30, którym środki przyznało 35 funduszy. „Mimo spadków, dostępność środków VC jest diametralnie lepsza niż przed 2019 rokiem. Zakładamy, że sytuacja poprawi się w drugiej połowie roku, po uruchomieniu nowych funduszy z programu FENG ” – prognozuje Aleksander Mokrzycki, wiceprezes PFR Ventures. Planowane inwestycje w ramach FENG to ponad 3,1 mld zł. Na tę kwotę składają się środki PFR Ventures oraz od inwestorów prywatnych.
„PolskastałasięwiodącymdostawcąterminaliStarlinkdla Ukrainy”– Mykhailo Fedorov, minister transformacji cyfrowej Ukrainy.
„WybraliśmyCEOz silnymi umiejętnościamisprzedażowymii przywódczymi” – Gustavo Möller-Hergt o swoim następcy w Also.
W dniu 14 października 2025 r. Microsoft zakończy wsparcie dla Windows 10. Po tej dacie będzie ono płatne. Jak poinformował koncern, w pierwszym roku ma kosztować 61 dol. (około 240 zł) za jedno urządzenie. W kolejnych latach stawka będzie rosła dwukrotnie (czyli 122 dol. oraz 244 dol. za 1 PC). W tej cenie koncern oferuje klientom komercyjnym rozszerzone aktualizacje bezpieczeństwa (ESU). Firmy korzystające z rozwiązania Microsoftu do zarządzania aktualizacjami w chmurze (Intune lub Windows Autopatch) mogą uzyskać 25 proc. zniżki na licencjonowanie ESU (czyli 45 dol. w pierwszym roku). Gigant łagodniej potraktował podmioty edukacyjne, gdzie stawki za ESU zaczynają się od 1 dol. w pierwszym roku (w kolejnych 2 dol. i 4 dol.). Patrząc na aktualne dane wygląda na to, że zanosi się na wymianę sprzętu i zakupy na dużą skalę. Z danych Statcounter wynika, że w Polsce w marcu 2024 r. z Windows 10 działało 72,09 proc. komputerów, które mają zainstalowany system Microsoftu, a z Windows 11 25,09 proc.
Ailleron zawarł porozumienie z Pekao SA w sprawie uregulowania stosunków z bankiem po wypowiedzeniu przez spółkę umowy z 2018 r. Dotyczyła ona wdrożenia, uruchomienia, utrzymania i rozwoju internetowej platformy bankowości transakcyjnej dla firm. Ailleron w ub.r. zarzucił Pekao naruszenie warunków kontraktu, domagając się zapłaty około 44,2 mln zł. W minionym miesiącu strony porozumiały się, że rozwiążą spór w sposób polubowny. Wartość brutto porozumienia według krakowskiej spółki wynosi około 9,6 mln zł, na co składa się wynagrodzenie od banku za wykonane prace, prawa autorskie i inne.
MCI nabyło 65 proc. akcji poznańskiej spółki Profitroom, dostawcy rozwiązań do zautomatyzowanej obsługi rezerwacji hotelowych, zarządzania kanałami sprzedaży, relacjami z klientem i obsługi płatności. Wycena spółki wyniosła 290 mln zł, a sprzedającymi są jej założyciele i poznańska spółka cyber_Folks (do ub.r. pod nazwą R22). Profitroom w ciągu 5 lat czterokrotnie zwiększył swoje przychody. W 2022 r. wyniosły 52 mln zł przy zysku netto na poziomie 5,3 mln zł. Spółka zatrudnia blisko 300 osób i działa w niemal 50 krajach.
n Fikcyjne faktury na tusze i tonery
CBA zatrzymało w woj. śląskim i małopolskim cztery osoby w związku z wystawianiem i przyjmowaniem nierzetelnych faktur. Śledztwo ma dotyczyć „wielu spółek” i obejmuje lata 2013–2016. Jedną z nich jest spółka z o.o., która w 2015 r. uzyskała prawie 10 mln zł nienależnych zwrotów VAT-u. Przedmiotem fikcyjnego obrotu były głównie tusze i tonery, a także akcesoria i urządzenia do druku 3D. Ponadto w śledztwie pojawia się wątek wyłudzeń leasingowych oraz oszustw na bazie funduszy unijnych. Według CBA szkody skarbu państwa z tego tytułu wyniosły około 16 mln zł. W sprawę jest zamieszanych w sumie 28 podejrzanych.
Action podpisał list intencyjny dotyczący sprzedaży nieruchomości w Zamieniu przy ul. Arakowej. Chodzi o działkę o powierzchni 4,96 tys. mkw. Proponowana cena to 5,32 mln zł (powiększona o VAT). List intencyjny, nie stanowiąc oferty ani zobowiązania do zawarcia umowy, może być podstawą do uzgodnienia ostatecznych warunków transakcji. Środki ze sprzedaży zarząd chce przeznaczyć na rozwój spółki i grupy, w tym na planowane przejęcia. Nieruchomość nie była wykorzystywana gospodarczo. W opinii zarządu jej zbycie nie wpłynie negatywnie na działalność operacyjną.
Zaległości finansowe firm IT w Polsce wynoszą w sumie 264 mln zł – wynika z danych Krajowego Rejestru Długów. To oznacza, że zadłużenie branży wzrosło w ciągu 2 lat o jedną trzecią. Problemy z płatnościami ma blisko 7 tys. podmiotów, a średnie zadłużenie na jedną firmę wynosi 38 tys. zł (rekordzista z Poznania ma 8,4 mln zł długu). Największe kwoty firmy IT mają do oddania instytucjom finansowym. Co ciekawe, jeszcze więcej, bo prawie 400 mln zł, przedsiębiorcy z branży IT muszą odzyskać od swoich klientów, którzy nie płacą na czas. Nierzetelni kontrahenci działają głównie w sektorze handlowym.
Salony Cortland zaczną funkcjonować pod szyldem iSpot. Sieć obejmie w sumie 48 sklepów. Natomiast sklep internetowy Cortland.pl będzie nadal funkcjonować niezależnie – poinformował iSpot. W kwietniu 2023 r. iSpot Poland kupił 100 proc. udziałów w Cortland Apple Premium Reseller (cena transakcji nie została ujawniona). Jednym z pierwszych kroków w ramach łączenia obu organizacji było utworzenie w br. wspólnego zespołu, obsługującego klientów B2B. W dniu 19 kwietnia br. został uzgodniony plan połączenia obu spółek. Przewiduje on, że cały majątek Cortlandu zostanie przeniesiony na iSpota. Wartość księgową majątku przejmowanej poznańskiej spółki (wartość aktywów netto) na dzień 31 marca 2024 r. określono na blisko 29 mln zł.
Cisco sfinalizowało przejęcie Isovalent, dostawcy oprogramowania sieciowego open source, służącego do cyberochrony i zapewniania obserwowalności infrastruktury cloud-native. Nowy nabytek, z siedzibą w Dolinie Krzemowej i oddziałem w Szwajcarii, działa od 2007 r. Warunki finansowe transakcji nie zostały ujawnione, ale według nieoficjalnych doniesień cena wyniosła 650 mln dol. Technologie Isovalent mają stać się kamieniem węgielnym strategii platformy bezpieczeństwa Cisco Security Cloud.
Salesforce zrezygnował z planu zakupu Informatica. Według nieoficjalnych informacji w kwietniu br. zakończono negocjacje, które nie doprowadziły do porozumienia. Wartość ewentualnego przejęcia szacowano na około 11 mld dol. Informatica, która jest dostawcą usług do zarządzania danymi, działa od 1993 r. i jest kontrolowana obecnie przez private equity Permira oraz kanadyjską firmę inwestycyjną CPPIB. Ostatni duży zakup Salesforce’a – największy w historii firmy – miał miejsce w 2021 r., gdy dostawca CRM przejął Slacka za 28 mld dol.
Centrum Obsługi Administracji Rządowej ruszyło na wielomilionowe zakupy sprzętu i oprogramowania, w tym dla ministerstw i urzędów centralnych. W przetargu na dostawę drukarek, urządzeń MFP, skanerów i drukarek etykiet z budżetem 11,5 mln zł brutto (umowa ramowa) oferty złożyli: konsorcjum Copy.net.pl i Canona, Galaxy Systemy Informatyczne, Intaris oraz Suntar. Otwarto także oferty w postępowaniu na zakup oprogramowania ponad 20 dostawców (16,8 mln zł). W przetargu na świadczenie usług telefonii ruchomej wraz z dostawą telefonów komórkowych, modemów i kart SIM (65,5 mln zł) rywalizują Orange Polska i T-Mobile Polska. Z kolei w postępowaniu na zakup komputerów stacjonarnych, przenośnych, AiO, monitorów i tabletów (63,3 mln zł) oferty złożyli: Galaxy Systemy Informatyczne, Suntar, Immitis oraz konsorcja: Grupa E i FHU Horyzont Krzysztof Lech, NTT System z NTT Technology i Intaris, MDP Polska ITS i MBA System, Intaris i NTT Technology. Z wybranymi podmiotami zostaną zawarte umowy ramowe.
Piotr Podlawski objął stanowisko Head of Microsoft Cloud Services w Hostersi. W śląskiej spółce będzie odpowiadać za ofertę rozwiązań chmurowych Microsoftu i usług utrzymaniowych cloud. Poprzednie 4 lata (2019 – 2024) spędził w Beyond.pl, awansując na stanowisko Global Cloud Services Director. Wcześniej przez blisko 10 lat był związany z Integrit, jako wiceprezes i COO. Doświadczenie zdobywał także na stanowiskach kierowniczych w Incomie, GNT Poland (Also) i JTT Computer. W branży IT działa już od ponad 30 lat.
Mariusz Stusiński został prezesem Atende (zastępując w tej roli Marcina Petrykowskiego), zaś Jacek Szczepański objął funkcję wiceprezesa. Nowy prezes do zarządu wszedł w 2021 r., a z Grupą Atende jest związany od 13 lat. W tym czasie był wiceprezesem spółek zależnych Atende Software oraz Atende Industries. W branży IT działa od ponad 20 lat, pracując wcześniej w strukturach sprzedaży Orange i Nortela. Z kolei Jacek Szczepański w Atende pracuje od 2016 r. W styczniu br. został dyrektorem pionu cyberbezpieczeństwa, jednocześnie pełniąc rolę dyrektora Programu PGE. Jest menedżerem z ponad 25-letnim doświadczeniem, w tym jako dyrektor konsultingu usług technologicznych w HPE i członek zarządu SAP Polska.
Nazariy Kurochko, założyciel GigaCloud, objął teraz stanowisko CEO. W nowej roli zamierza przyspieszyć rozwój firmy na polskim rynku i w całej UE – w zakresie rozwiązań chmury publicznej i chronionej zarządzanej chmury prywatnej. Nazariy Kurochko ma prawie 20 lat doświadczenia w IT i ochronie danych. Od 2006 r. założył cztery duże firmy, w tym centrum danych, operatora telekomunikacyjnego i firmę zajmującą się cyberbezpieczeństwem. GigaCloud to dostawca usług chmurowych, który działa od 2016 r.
Tomasz Starzec, od blisko 10 lat związany z Amazon Web Services w Polsce jako Account Manager, w marcu br. opuścił firmę. Z kolei w czerwcu br. kończy studia podyplomowe z coachingu na Akademii Leona Koźmińskiego w Warszawie i zostanie dyplomowanym coachem. Kolejnym krokiem będzie akredytacja EMCC (European Mentoring & Coaching Council). Obecnie Tomasz Starzec już świadczy takie usługi, skupiając się na coachingu biznesowym. Menedżer ma blisko 30-letnie doświadczenie w branży w rolach kierowniczych i był pierwszą osobą zatrudnioną w AWS Polska. Wcześniej pracował jako dyrektor sprzedaży na Polskę w kanadyjskiej firmie Avigilon (2012 – 2014) oraz dyrektor sprzedaży na rynkach CEE w Anixterze (2008 – 2012). Ponad 12 lat był związany z APC Poland, w tym przez 8 lat jako Country Manager. Karierę zaczynał w JTT Computer.
Z początkiem kwietnia br. Piotr Baca został awansowany na stanowisko dyrektora regionu Brother Central and Eastern Europe. W nowej roli jest odpowiedzialny za realizację strategii biznesowej firmy i rozwój kanału partnerskiego. Będzie także współpracował z Marketing Managerem w zakresie działań marketingowych w regionie CEE. Piotr Baca pracuje w strukturach Brothera już prawie 20 lat, a przez ostatnie ponad 15 lat piastował stanowisko Country Managera w Brother Polska (nadal je pełni). Od października 2023 r. koordynował działania firmy na Ukrainie. Na początku swojej kariery w Brotherze pełnił funkcję Regional Sales Representative w Brother International Austria.
n Paweł
Działalność w Polsce rozpoczął iIT Distribution – VAD z siedzibą na Ukrainie, który specjalizuje się w rozwiązaniach z zakresu bezpieczeństwa informacji i cyberbezpieczeństwa. Ma w ofercie takich dostawców jak CrowdStrike, GTB Technologies, SOCRadar, Infinidat, Fastly, Terrazone czy Threema. Dostarcza rozwiązania wyłącznie poprzez sieć partnerską, a strategicznym celem iITD Polska jest zapewnienie partnerom zaawansowanego wsparcia sprzedażowego i technicznego na każdym etapie projektu. Polskim oddziałem iITD, jako General Country Manager, zarządza Mateusz Wepa, który pierwsze szlify w branży zdobywał od 2012 r. w Dagmie. Przez ostatnie 10 lat w Senetic rozwijał kanał sprzedaży w Wielkiej Brytanii i zarządzał działem handlowym w Polsce.
Paweł Meserszmit objął stanowisko Distribution Managera na region Europy Środkowo-Wschodniej w Vertiv Poland. Będzie odpowiadał za budowę i rozwój kanału partnerskiego oraz dystrybucyjnego, korzystając z wieloletniego doświadczenia we współpracy z dystrybutorami i resellerami. Wcześniej, przez ponad 7 lat rozwijał kanał sprzedaży rozwiązań audio i wideokonferencyjnych w Polycomie, działając na obszarze Europy Wschodniej. Bezpośrednio przed przejściem do Vertiva przez 2 lata współpracował z dystrybutorami rozwiązań cyberbezpieczeństwa w Acronisie.
Dwóch
W Warszawie powstała AI Chamber, której założycielem jest Tomasz Snażyk, prezes Fundacji Startup Poland (od 2020 r.). Głównym celem nowej Izby branżowej jest propagowanie odpowiedzialnego rozwoju sztucznej inteligencji w Europie ŚrodkowoWschodniej poprzez badania rynku, pomoc we wdrażaniu rozwiązań AI w różnych obszarach gospodarki, jak też budowanie platformy dla ekspertów do dialogu i dzielenia się doświadczeniami. AI Chamber zrzesza startupy, przedsiębiorstwa i organizacje pozarządowe działające w Polsce, a docelowo w regionie CEE.
Na początku kwietnia br. do Nanovo dołączyli: Józef Skóra, jako Chief Growth Officer oraz Dominic Brynolf – w roli Chief Growth Officer Global. Ich zadaniem jest wsparcie warszawskiej firmy w przyspieszeniu jej ekspansji międzynarodowej. Józef Skóra jest menedżerem z ponad 15-letnim doświadczeniem w obszarach sprzedaży i rozwoju biznesu, które zdobywał w korporacjach konsultingowych (EY, Deloitte) i firmach IT. Ostatnio był członkiem zarządu Yieldbird (2022 – 2024). Z kolei Dominic Brynolf jest ekspertem z ponad 20-letniem doświadczeniem menedżerskim w handlu detalicznym. Poprzednio był wiceprezesem Trigo (od 2023 r.) i starszym dyrektorem Bolta w Wielkiej Brytanii i Europie (od 2022 r.).
Piotr Nowok, dotychczasowy Business Manager Display, Gadgets & New Business w polskim oddziale Acera, objął nowo utworzoną funkcję kierowniczą Deputy Commercial Head. Tym samym będzie podejmował decyzje w zakresie rozwoju firmy w sektorze komercyjnym i edukacyjnym. Piotr Nowok jest związany z Acer Polska od ponad 10 lat. Wcześniej pracował w tej firmie na stanowiskach
Product Manager
Peripherals i Key
Account Manager.
Mariusz Madejczyk został zastępcą szefa NASK i dyrektorem ds. nowych technologii dla polityk publicznych. Ostatnio kierował Biurem Informatyki i Systemów Teleinformatycznych Podlaskiego Urzędu Wojewódzkiego w Białymstoku. Z administracją rządową jest związany od 1998 r. W latach 2018–2022 był dyrektorem oddziału
NASK w Białymstoku, a od 2016 do 2019 r. pełnomocnikiem ministra cyfryzacji ds. współpracy z administracją rządową i samorządową RP. Ponadto jest pomysłodawcą i współtwórcą Strategii Informatyzacji Państwa.
W obliczu rozwoju sztucznej inteligencji i rosnącego zapotrzebowania
na moc pilną potrzebą stała się poprawa efektywności centrów danych
– podkreślano podczas Innovation Summit Paris 2024.
W2030 r. powstanie dwa razy więcej nowych centrów danych (licząc w MW) niż w roku bieżącym, przy rocznym wzroście na poziomie 12 proc. Specjaliści Schneider Electric prognozują, że w tym okresie globalna konsumpcja energii w segmencie data center zwiększy się z obecnych 1,4 proc. do 2,2 proc. Co ważne, w przypadku rozwiązań wykorzystujących AI, w najbliższych latach przewidywany jest 2–3 razy szybszy wzrost niż na całym rynku data center. W 2023 r. obciążenia związane z AI pochłonęły 8 proc. z 56 GW całkowitej mocy (4,3 GW), podczas gdy w 2028 r. odsetek ten ma sięgać od 15 do nawet 20 proc. z 90 GW (13,5 – 18 GW) – szacują eksperci Schneidera. Tym samym wykorzystywanie możliwości, jakie daje AI, stanowi wyzwanie dla wszystkich graczy w segmencie DC. Zwłaszcza w takich kwestiach, jak pojemność (potrzeba odpowiedniej mocy), przestrzeń (a konkretnie jej brak), koszty (rosnące) i projektowanie (rosnąca skala działania hiperskalerów).
Skalowalne data center
Z powyższych powodów sprawdzianem możliwości dostawców centrów danych
będzie skalowalne centrum danych. W tym kontekście należy zwrócić uwagę na różnicę pomiędzy DC dla dużych modeli językowych (LLM) a tradycyjnym DC, którą jest zapotrzebowanie na niższe opóźnienia, co prowadzi do potrzeby przetwarzania na brzegu. O ile w 2023 r. centralnie przetwarzano 95 proc. obciążeń AI, zaś na brzegu jedynie 5 proc., to w 2028 r. proporcje te mają wynosić 50/50.
– Największym wyzwaniem związanym ze sztuczną inteligencją jest dostępność mocy – podkreślał Marc Garner, wiceprezes Secure Power Division Europe w Schneider Electric.
Sztuczna inteligencja ma również kluczowe znaczenie dla efektywności energetycznej centrów danych. Chodzi o to, że analiza danych pozwala podejmować lepsze i zautomatyzowane decyzje. Tym samym, jak można usłyszeć od przedstawicieli francuskiego producenta: „AI jest z jednej strony wyzwaniem, ale też rozwiązaniem, które poprawia efektywność energetyczną”.
W ocenie Schneidera do zrównoważonego rozwoju centrów danych w ramach obsługi AI potrzebne są trzy czynniki: energia, wyszkoleni specjaliści i właściwe partnerstwa. Producent poinformował, że współpracuje już w tym obszarze z Nvidią, Equinix’em, Digital Realty oraz firmą Aeven. Przykładowo, Schneider Electric i Nvidia wspólnie tworzą pierwszy kompleksowy projekt referencyjny dla publicznie dostępnych na rynku klastrów AI. Nowa architektura jest przeznaczona zarówno dla
istniejących centrów danych, jak i nowych obiektów projektowanych pod obciążenia związane ze sztuczną inteligencją.
– Potrzebujemy efektywności, a AI pomoże nam w jej osiągnięciu. Przy czym naszym celem jest dekarbonizacja – mówił Peter Herweck, CEO Schneider Electric.
Towarzyszy temu kształcenie talentów, co jest kluczowe dla dalszego rozwoju i utrzymywania centrów danych. W ciągu trzech najbliższych lat ma powstać 175 tys. miejsc pracy w tym właśnie segmencie rynku.
Podczas Innovation Summit Paris 2024 omawiano spodziewane efekty współpracy pomiędzy Schneider Electric a Digital Realty – funduszem inwestującym w nowoczesne centra danych. Oba podmioty realizują w ten sposób inicjatywę dotyczącą gospodarki o obiegu zamkniętym w jednym z paryskich centrów danych. Projekt ma na celu przedłużenie i utrzymanie żywotności systemów o znaczeniu krytycznym. Przykładem jest pierwszy w branży program regeneracji akumulatorów, którego celem jest wydłużenie cyklu życia akumulatorów UPS VRLA (pilotaż zapowiedziano na 2025 r.).
Wykorzystując wyposażenie od Schneidera, Digital Realty zakłada, że w ciągu 3–5 lat obniży poziom węgla zawartego w infrastrukturze nisko- i średnio napięciowej oraz trójfazowych UPS-ach o 50–70 proc., przy jednoczesnym przedłużeniu cyklu życia sprzętu.
Fabrice Coquio, dyrektor zarządzający
Digital Realty we Francji, ocenia, że do nowych regulacji środowiskowych trudno będzie dostosować się zwłaszcza firmowym centrom danych, które mają wiele lat. – Trzeba będzie zamknąć stare data center i przejść na nowsze. To jest dobre dla planety i dla nas oraz dla Schneidera – podsumowuje Fabrice Coquio. n
Nowe produkty w portfolio oraz te, które już zyskały renomę, a ponadto model MSP, certyfikowane szkolenia, audyty i narzędzia dla partnerów. Wszystko to w ciągu dwudziestu jeden godzin, podczas IV edycji Rising Stars of Cybersecurity.
n Karolina MarszałekWydarzenie kierowane do partnerów biznesowych DAGMA Bezpieczeństwo IT odbyło się w pierwszych dniach kwietnia w Bronisławowie. Oprócz firm współpracujących już z katowicką spółką, przybyło wiele nowych. – To dowód, że nasza sieć partnerska rozwija się bardzo dynamicznie. Rozmowy zainspirowały nas do nowych pomysłów i wspólnych projektów, także pomiędzy partnerami. Blisko sto osób omawiało wiele różnych tematów – tłumaczy Stanisław Horak, dyrektor handlowy w DAGMA Bezpieczeństwo IT. Bogaty program obejmował szkolenia dotyczące rozwiązań Barracuda Networks, ESET, Holm Security, Safetica, Sekoia i Stormshield. Podczas panelu otwierającego „Jak Partner z Partnerem”, uczestnicy zapoznali się z narzędziami wspomagającymi sprzedaż produktów z dziedziny cyberbezpieczeństwa, które oferuje dystrybutor. – Na konkretnych przykładach zilustrowaliśmy, w jaki sposób możemy skutecznie prowadzić klientów przez proces wyboru, wykorzystując nasze rozwiązania i wsparcie – mówi Jarosław Cichecki, Senior Channel Manager w DAGMIE. Najbliższe miesiące będą w tym zakresie kluczowe.
– Przegląd narzędzi, produktów i usług w kontekście implementacji dyrektywy NIS2 w Polsce pokazał nam kolejne pola do współ pracy z partnerami – dodaje Paweł Przybylski, Channel Manager w DAGMIE.
Klaudia Michalak, specjalistka ds. sprzedaży w Penta potwierdza, że event pozwala wprowadzić nowych partnerów we współpracę z DAGMĄ, a w przypadku wieloletnich – podnieść ją na wyższy poziom. – To czas na nawiązanie nowych relacji i umocnienie dotychczasowych, poznanie nowych produktów i rozszerzenie portfolio usług stosownie do trendów na rynku cyberbezpieczeństwa – mówi Klaudia Michalak. Przedstawicielka Penty deklaruje wdrożenie trzech nowych rozwiązań z portfolio dystrybutora, aby podnieść poziom bezpieczeństwa w firmach jej klientów. Stały dostęp do inżynierów rozwiązań oraz Product Managerów, który zapewnia spółka, pozwoli na sprawną realizację tych planów.
Temat MSP (zawsze) na czasie
Tradycyjnie już zachęcano partnerów do współpracy w modelu Managed Service Provider. Z rozmów z przedstawicielami DAGMY wynika, że widzą oni skokowy
wzrost sprzedaży rozwiązań z zakresu cyberbezpieczeństwa, oferowanych w formie usługi abonamentowej. Partnerów i klientów przekonuje do niej choćby elastyczność, która pozwala zmieniać z dnia na dzień liczbę chronionych stanowisk.
n Katarzyna Kocela, członek zarządu, ITBiotic
Wydarzenie Rising Stars to dla mnie świetny sposób na pozyskanie cennych kontaktów biznesowych oraz źródło inspiracji dotyczące najnowszych trendów i technologii stosowanych w branży cyberbezpieczeństwa. Panele produktowe pozwalają poszerzyć horyzonty i spojrzeć na temat bezpieczeństwa kompleksowo. Zainteresowało mnie rozwiązanie Safetica, co wynika z rosnącego znaczenia ochrony danych przy jednoczesnym nasileniu liczby cyberataków i przepisów o ochronie danych osobowych.
n Małgorzata Kuliberda, specjalista ds. administracyjno-handlowych IT, SQD Alliance
Udział w konferencji Rising Stars był dla mnie ważny i inspirujący. Doceniam zwłaszcza możliwość wyboru zakresu interesujących mnie szkoleń, a także osobisty kontakt z Product Managerami, z którymi mogłam wymienić się ciekawymi doświadczeniami oraz dobrymi praktykami. Co ważne, nie zabrakło dobrej zabawy i poczucia humoru!
– Partnerzy powtarzają, że model abonamentowy usprawnił im pracę administracyjną ze względu na to, że mogą samodzielnie generować licencje za pomocą jednej konsoli. Jednocześnie płatności miesięczne za abonament są stałym dochodem, uzyskiwanym w sposób pasywny – mówi Andrzej Wściubiak, Channel Manager w DAGMA Bezpieczeństwo IT. Dodaje również, że klienci chwalą model abonamentowy za to, że nie muszą ponosić dużego jednorazowego kosztu oraz unikają ryzyka związanego z niewykorzystanymi licencjami. To, rzecz jasna, tylko niektóre z zalet „abonamentów”. Model MSP funkcjonuje już w pełni w przypadku marek ESET oraz Acronis. Można się spodziewać, że do tych dwóch producentów wkrótce dołączą następni. n Łukasz Staszak, członek zarządu, firma Informatyk Rising Stars to doskonała okazja do wymiany doświadczeń oraz skonfrontowania potrzeb z realiami rynkowymi. Jestem pod wrażeniem zaprezentowanych rozwiązań, a zwłaszcza możliwości sprzedaży w modelu MSP. To przyszłość dla branży IT oraz naszych klientów. Model ten umożliwia elastyczne dostosowanie się do potrzeb każdej firmy, bez względu na skalę działalności. Daje nam to szerokie możliwości stosowania rozwiązań cyberbezpieczeństwa z najwyższej półki w połączeniu z niesamowicie prostym, szybkim i niegenerującym wysokich kosztów wdrożeniem.
Amerykańskie fundusze venture capital pompują mnóstwo pieniędzy w startupy utożsamiane ze sztuczną inteligencją (SI). Nie przeszkadza im w tym fakt, że młode firmy często nie generują żadnych przychodów, a czasami w ogóle nie mają czego pokazać.
n WojciechThe Wall Street Journal opisuje interesujący przypadek firmy Imbue, której siedziba mieści się w sercu San Francisco, a jej pracownicy dumnie noszą bluzy z pomarańczowym logo firmy. Jak na razie inwestorzy obdarzyli ten startup kwotą 210 mln dol. Szefowie Imbue w każdy piątek organizują dla całego zespołu imprezę Feelings Friday, której celem jest budowanie zaufania i bliskich więzi. Ze strony internetowej dowiadujemy się, że kalifornijski startup opracowuje systemy sztucznej inteligencji, które mogą rozumować i kodować, a tym samym nasycać komputery inteligencją i ludzkim wartościami. Jednak, choć od założenia firmy upłynęły już dwa lata, to wciąż nie posiada klientów, a nawet produktu. Tymczasem, choć ostatnie lata przyniosły znaczny spadek inwestycji w startupy, to ostatnie sukcesy giełdowe Nvidii i Microsoftu sprawiły, że inwestorzy bardzo łaskawym okiem patrzą na przedsięwzięcia związane ze sztuczną inteligencją. Według firmy badawczej
CB Insights w 2023 r. inwestorzy przelali 21,8 mld dol. na konta startupów pracujących nad projektami SI, co oznacza pięciokrotny wzrost w porównaniu z 2022 r. Średnia wielkość rundy dla tych transakcji wynosiła 51 mln dol., zaś średnia dla branży nowych technologii to wówczas „marne” 8 mln dol. – Wszyscy wierzą w to, że sztuczna inteligencja jest przyszłością, więc zobaczymy
niezwykłą liczbę inwestycji w projekty z nią związane. Przynajmniej do czasu, aż ktoś nie udowodni, że jest inaczej. Problem polega na tym, że nie wiemy, jak te modele biznesowe będą wyglądać na dużą skalę. Każdy może mieć swoją teorię na ten temat, ale to tylko domysły – wyznaje Alex Clayton, partner generalny Meritechu w rozmowie z The Wall Street Journal.
Inwestycje poszły za daleko.
Obawy przed rosnącymi wycenami startupów w Dolinie Krzemowej nie są niczym nowym. Natomiast tym, co niepokoi ekspertów, jest wypisywanie czeków dla „młodych przedsiębiorczych”, aby mogli ruszyć z miejsc. Nawet w szczytowych okresach boomu na startupy tak wysokie finansowanie było zarezerwowane dla tych firm, które przygotowują się do agresywnego wzrostu. Wspomniany wcześniej Imbue wyceniono na ponad miliard dolarów, a jego założyciele otrzymali fundusze między innymi od Nvidii i Erica Schmidta, byłego dyrektora generalnego Google. Kanjun Qiu, dyrektor generalna Imbue, zaczarowała inwestorów wizją tworzenia inteligentnych komputerów, które mogłyby dać ludziom „wolność, godność i zdolność robienia rzeczy, które kochamy”. Rzecznik prasowy startupu tłumaczy, że decyzja o tym, aby nie skomercjalizować jego działalności, była celowa. Dzięki temu firma może skoncentrować się wyłącznie na badaniach.
Inwestorzy venture capital liczą, że niektóre ze startupów powtórzą sukces Open
AI. Jednakże jak do tej pory nie widać zbyt wielu kandydatów, a wspomniany przypadek Imbue nie jest odosobniony. Otóż nie mniej ciekawa jest historia Inflection AI. Ten startup powołany do życia przez Reida Hoffmana, założyciela LinkedIn i wspierany między innymi przez Billa Gatesa, zebrał 1,5 mld dol. (!) na opracowanie modeli językowych dla chat bota o nazwie Pi. Jego rolą jest… emocjonalne wsparcie użytkowników. Trudno się dziwić, że firma nie potrafiła znaleźć perspektywicznego modelu biznesowego, który umożliwiłby wygenerowanie zysku ze sprzedaży. W rezultacie Mustafa Suleyman, dyrektor generalny Inflection AI, a także większość pracowników przeniosła się do Microsoftu. Wprawdzie startup ma nowego szefa i poszukuje strategii sprzedaży swojego oprogramowania chętnym przedsiębiorstwom, aczkolwiek wydaje się to być karkołomne zadanie.
Według wyliczeń Sequoia Capital, jednego z najbardziej uznanych funduszy venture capital, branża wydała około 50 mld na najnowocześniejsze chipy Nvidii przeznaczone do szkolenia modeli językowych. Natomiast startupy opracowujące narzędzia generatywnej sztucznej inteligencji wygenerowały przychody o wysokości 3 mld dol.
– Kwota potrzebna, aby zbudować te produkty, znacznie przekroczyła sumę środków, które do tej pory zostały na to wydane. W związku z tym mamy kilka prawdziwych problemów do rozwiązania… – podsumowuje Sonya Huang, partner w Sequoia Capital. n
Chociaż analitycy jednogłośnie wieszczą
wzrost sprzedaży na szeroko rozumianym rynku IT, to ich prognozy należy traktować nie dosłownie, a co najwyżej „kierunkowo”.
Wśród obserwatorów rynku IT panuje zgoda co do tego, że jest on nie tylko zdrowy, ale wciąż rośnie, a wzrost ten nabiera tempa. Przy czym analitycy IDC są dość konserwatywni, przewidując zwiększenie wydatków na rozwiązania IT w tempie od 4,2 do 4,5 procenta. Z kolei Canalys umieścił ten wskaźnik na poziomie 6,2 procenta, zaś Gartner prognozuje, że wydatki sięgną 6,8 procenta. Jednocześnie eksperci spodziewają się, że spadną one w 2025 r. o 8 do 9 procent.
Na razie niektóre segmenty technologiczne rozwijają się we wręcz fantastycznym tempie. Nowo powstała kategoria sztucznej inteligencji ma wzrosnąć w tym roku o około 55 procent. Przetwarzanie w chmurze – usługi infrastrukturalne i platformowe – wzrośnie o około 22 procent. Wyposażenie centrów danych natomiast, czyli serwery, pamięć masowa i przełączniki, wzrośnie o 11 procent. To naprawdę niezłe liczby… A jednak rynek nie jest zdrowy.
i zyski będą w tym roku wyższe niż w poprzednim.
Osłabienie zaufania do sytuacji rynkowej wynika w dużej mierze z negatywnych nastrojów dotyczących trendów makroekonomicznych, na które partnerzy nie mają wpływu. Analizując prognozy wzrostu wydatków na IT, musimy mieć, siłą rzeczy, na uwadze trendy makroekonomiczne. IDC twierdzi, że nawet jeśli PKB przestanie się zwiększać, wydatki na IT nadal wzrosną o około 3 procent, ponieważ firmy będą musiały zrównoważyć rosnące koszty i niższe przychody poprzez automatyzację. Inwestorzy, dostawcy i partnerzy opierają się na tych prognozach przy planowaniu strategicznym i podejmowaniu rozsądnych decyzji biznesowych.
Druga połowa roku przyniesie znaczną poprawę.
Niemcy, Japonia, Wielka Brytania i znaczna część Europy Wschodniej znajdują się w recesji. Francja, Włochy i Hiszpania balansują na krawędzi recesji. Z kolei Chiny, które doświadczają załamania swojej gospodarki, zalewają światowe rynki tanimi towarami, aby wesprzeć słabnące sektory nieruchomości oraz usług finansowych.
Co ważne, społeczność partnerów w kanale sprzedaży IT wcale nie patrzy optymistycznie na 2024 rok. Według prognozy Channelnomics „2024 Channel Forecast” poziom samopoczucia partnerów spada drugi rok z rzędu, mimo że zdecydowana większość resellerów, integratorów i dostawców usług wierzy, że ich przychody
Jednak te liczby stale się zmieniają. Na przykład rok 2022 Gartner rozpoczął solidną prognozą wzrostu na poziomie 5,3 procenta. Następnie co kwartał obniżał perspektywę o pełny punkt procentowy. Pod koniec czwartego kwartału Gartner sprowadził prognozę do poziomu 0,8 procenta. A jak było w kolejnym roku? Otóż w lipcu 2023 analitycy Gartnera opublikowali aktualizację swojej prognozy na rok ubiegły twierdząc, że wydatki na IT wzrosną wówczas o 4,3 procenta. W październiku 2022 r. prognoza wynosiła 5,1 procenta, a w grudniu została zrewidowana do 2,5 procenta. W kwietniu 2023 roku ponownie ją podniesiono (do 5,5 procenta). I wreszcie, na koniec ubiegłego roku Gartner zamknął „okienko przewidywań” na wyniku 3,3 procenta.
Gartner to niejedyna firma analityczna, która w krótkim czasie wprowadza znaczące zmiany w swoich prognozach
wzrostu. Co nie jest w sumie niczym niestosownym, bo nie ma nic dziwnego w tym, że sytuacja rynkowa może się dramatycznie zmieniać z kwartału na kwartał. Z tego powodu Channelnomics nie prognozuje skali wydatków na IT. Zostawiamy to firmom zawodowo zajmującym się analityką rynkową. Zamiast tego, sporządzamy ogólne prognozy w oparciu o panujące trendy. A zatem nasza generalna prognoza pozostaje taka sama: pierwsza połowa 2024 roku będzie przypominać warunki i wyniki z roku ubiegłego, zaś druga połowa przyniesie znaczną poprawę. Spodziewamy się także silnego i wysokiego wzrostu wydatków na IT w 2025 roku i (potencjalnie) w roku 2026, na co wpływ będą miały inwestycje w sztuczną inteligencję, usługi zarządzania danymi i modernizacja infrastruktury.
Larry Walsh
CEO oraz Chief Analyst w Channelnomics, firmie analitycznej specjalizującej się w kanałach sprzedaży i doradztwie dla producentów, dystrybutorów i integratorów IT. Autor jest również prowadzącym podcast „Changing Channels” i producentem podcastu „In the Margins”. Kontakt: lmwalsh@channelnomics.com.
Globalny rynek dostawców cyberbezpieczeństwa jest mocno rozdrobniony. Działa na nim ponad 3 tysiące producentów, ale w zasadzie brakuje dominującego lidera. Jak wygląda to w Polsce: czy można u nas doszukać się analogii z rynkiem światowym?
Łukasz Gawron
W Polsce jest podobnie. Powiedziałbym nawet, że nasz rynek jest jeszcze bardziej rozproszony. W poszczególnych segmentach sektora cybersecurity występuje dużo różnych rozwiązań. Są to zarówno produkty bardzo popularne, jak firewalle czy rozwiązania do monitorowania sieci, ale też rozwiązania niszowe związane z bezpieczeństwem OT. Nie ma przy tym dominującego gracza, który kontrolowałby dużą część rynku. Uważam, że wciąż jesteśmy przed etapem integracji i odnoszę wrażenie, że trend postępującej fragmentaryzacji będzie się przez jakiś czas utrzymywał, chociażby ze względu na wciąż powstające kolejne startupy.
Grzegorz Świrkowski
my się na produktach dostosowanych do specyficznego klienta. To oznacza, że dobieramy rozwiązania cyberbezpieczeństwa, które spełniają lokalne potrzeby i uwzględniają wymagania polskiego rynku. Niejednokrotnie są to zatem popularne produkty, w rodzaju oprogramowania służącego do ochrony urządzeń sieciowych. Są to raczej bardziej innowatorskie, zaawansowane rozwiązania, z którymi z powodzeniem wychodzimy zagranicę, gdzie są entuzjastycznie przyjmowane.
Artur Bicki
Pewne rzeczy nas w określonym stopniu blokują. Choćby prawo zamówień publicznych, gdzie kluczowym kryterium jest cena – Mateusz Kopacz
W Polsce obserwujemy inne standardy niż światowe. Po pierwsze, skupia-
W mojej ocenie Polska ma charakter rynku mieszanego. Z jednej strony mamy centra kompetencyjne dużych korporacji, a z drugiej coś, co można określić mianem ruchu polskiego, dobrego inżyniera, trochę z naturą partyzancką. Taki inżynier bardzo chętnie tworzy produkty, szuka rozwiązań, ale za to z dużo mniejszym entuzjazmem podchodzi do produktów zamkniętych, charakteryzujących się mocno sprecyzowaną „mapą drogową”. Lokalni producenci adresują
produkty dla rodzimych klientów, których notabene lepiej rozumieją, a jednocześnie idą z nimi dalej, wychodząc z ofertą poza kraj. Tak, jak Polska geograficznie zawsze łączyła Zachód ze Wschodem, tak też jest w przypadku produktów cybersecurity.
Paweł Rybczyk
Jeśli oceniać polski rynek pod kątem działających na nim producentów, to z jednej strony mamy do czynienia z dużymi graczami z Izraela czy Stanów Zjednoczonych, a z drugiej z firmami, które koncentrują się na rozwiązywaniu jakiegoś konkretnego problemu. Tak właśnie jest w naszym przypadku – skupiamy się na określonym obszarze bezpieczeństwa, gdzie chcemy być ekspertem, a nie producentem pokrywającym szeroki wachlarz różnorodnych zagadnień. Osobną kwestię stanowi kanał partnerski, gdzie zachodzi pewna ewolucja. Wprawdzie nie jest to takie przyśpieszenie, jakie ma miejsce na zachodzie Europy, ale widać, że polscy partnerzy znacznie więcej inwestują w sprzedaż usług niż samych produktów. Dostarczenie usługi niesie ze sobą dodatkową wartość, a partner musi się wykazać odpowiednią wiedzą i doświadczeniem, aby poradzić sobie z problemem klienta.
Mateusz Kopacz
Polski rynek czerpie pełnymi garściami z dobrodziejstw tego wszystkiego, co jest dostępne na całym świecie, co ma swoje dobre i gorsze strony. Na przykład Asseco już od dwóch dekad stosuje w swoim oprogramowaniu najtańszego na rynku antywirusa od czeskiego dostawcy. Niestety, nie odpowiada on na aktualne polimorficzne, ewoluujące w trakcie ataku, zagrożenia. Jednak z drugiej strony nie mamy się czego wstydzić, ponieważ w Polsce ma miejsce wiele dużych komercyjnych wdrożeń w bankach czy w obszarze infrastruktury krytycznej. Rzeczywiście można się pokusić o tezę, że jesteśmy takim mostem łączącym Wschód z Zachodem. Warto jednak zauważyć, że pewne rzeczy nas w pewnym stopniu blokują. Na przykład prawo zamówień publicznych, gdzie kluczowym kryterium jest cena, która może wpłynąć na jakość rozwiązań. Nie wykorzystujemy też aspektów patriotyzmu gospodarczego. Często marzeniem wielu „bezpieczników” jest znane rozwiązanie ze Stanów Zjednoczonych, cztery do pięciu razy droższe od podstawowych produktów. Niemniej taka hybryda dwóch różnych światów sprawia, że napastnicy
Artur Bicki
Łukasz Gawron
CEO, CyberMadeInPoland
natrafiają na trudne do przejścia pole minowe i nie wiedzą, co ich spotka na jego końcu.
Polscy dostawcy systemów bezpieczeństwa nie mają łatwo, bo z jednej strony muszą rywalizować z wielkimi koncernami światowymi, zaś z drugiej z nieco mniejszymi producentami z Europy Środkowo-Wschodniej, jak chociażby ESET czy Bitdefender. Jakie argumenty, poza ceną, mogą przekonać polskiego klienta, aby zainwestował w rodzime produkty?
Paweł Rybczyk
Mateusz Kopacz
CEO, Energy Logserver Officer,
Co do ESET-a, to wszedł on na polski rynek bardzo dawno, kiedy były inne uwarunkowania. Myślę, że obecnie nie dałoby się powtórzyć tego sukcesu. Przez pewien czas pracowałem dla polskiego dystrybutora ESET-a i trzeba przyznać, że to rozwiązanie ma kilka poważnych zalet. Natomiast, jeśli chodzi o polskich dostawców, ich atutem jest lokalność produktu, co ma znaczenie zarówno z punktu widzenia użytkowników końcowych, jak i partnerów. Klienci mają dostęp do działu rozwoju danego producenta, wpływ na funkcje i sposób, w jaki ten produkt ma działać w określonym środowisku. Poza responsywnością i podejściem do klienta, dużym
Paweł Rybczyk
CEO, Labyrinth Security Solutions Grzegorz Świrkowski
CEO, Net Complex
Prowadzący:
Chief Information Security Officer, Alma Wojciech Urbanek
zastępca redaktora naczelnego, CRN Polska
walorem rodzimych dostawców jest wsparcie techniczne, które często kuleje w przypadku globalnych vendorów, szukających sposobów na obniżenie kosztów. Wśród polskich producentów, którzy tworzą rozwiązania cyberbezpieczeństwa, nie mamy firmy o skali Palo Alto Networks czy Checkpointa, z tak szerokim wachlarzem produktów. Jesteśmy za to wyspecjalizowani w pewnych obszarach, gdzie trzeba się przebić i pokazać nasze wyróżniki na tle globalnych marek. To najtrudniejsze zadanie, bowiem żadna z polskich firm nie ma budżetu, który pozwalałby występować w roli głównego sponsora najważniejszych konferencji i tym samym budować świadomość marki.
Łukasz Gawron
niedawno wyceniono na miliard dolarów! Tymczasem rynek litewski w porównaniu do naszego jest niewielki, co nie przeszkodziło tej firmie w osiągnięciu sporego sukcesu.
Artur Bicki
Nasze położenie w Europie
sprawia, że patrzymy na firmy z zachodniej części kontynentu jako konkurentów, których chcemy prześcignąć
– Artur Bicki
Za to pod względem jakości nasze produkty są w stanie konkurować z zagranicznymi. A nie bez znaczenia jest fakt, że czasami są po prostu tańsze. W końcu cena odgrywa wciąż istotną rolę, chociażby przy przetargach, co jest o tyle istotne, że polskie startupy mogą zaoferować taką samą wysoką jakość za niszą cenę. Lokalność też jest poważnym atutem, ponieważ tutejsza firma podlega polskiemu prawu, przetwarzając dane zgodnie z polskimi regulacjami. Natomiast prawda jest taka, że jeśli mówimy o rozwoju i o tym, żeby stać się firmą na poziomie przywoływanego wcześniej ESET-a, trzeba od początku myśleć globalnie. Dobrym przykładem jest nie polski, ale litewski startup Nord Security, którego wartość
Jedną z naszych polskich cech jest rynkowa agresywność, co ma podłoże historyczne. Nasze położenie w Europie sprawia, że patrzymy na firmy z zachodniej części kontynentu jako konkurentów, których chcemy prześcignąć. W tym przypadku ta nasza agresywność jest atutem. Dostrzegam ją też w moim zespole, gdzie przejawia się w chęci wykorzystania każdej okazji w postaci otwarcia nowego rynku czy szansy na sprzedaż produktu. Nie obserwuję takiego podejścia w firmach z Europy Zachodniej czy USA. Nasz klient jest inny niż ten „zachodni”, bowiem chce rozwiązywać konkretne problemy. Niemniej trzeba uważać, aby nadmiernie nie spersonalizować produktów. Poza tym w lokalnej społeczności ważne są też nazwiska, czego nie ma na globalnym rynku. Dziś część naszych wdrożeń firmujemy właśnie naszymi nazwiskami i jest to dla zamawiającego duży komfort, związany z ogromnym zaufaniem do tego, co robimy.
Mateusz Kopacz
Pierwszą i podstawową cechą jest wrażliwość cenowa, dostosowana do lokalnego rynku. Drugą są kompetencje naszych specjalistów i nie powinniśmy mieć tutaj żadnych kompleksów.
Doskonale pamiętam, jak polski badacz Adam Ziaja wygrał batalię słowną z szefem bezpieczeństwa Splunka. Z kolei Wojciech Reguła regularnie znajduje błędy w iOS-ie i jest jedną z kilkunastu osób, które otrzymują do testowania iPhone’a na długo przed oficjalną premierą. O umiejętnościach naszych specjalistów świadczy też rozwój technologiczny sektora bankowego, a przede wszystkim stosowane w tej branży zabezpieczenia. Często są to „pola minowe”, stanowiące zaporę nie do przejścia dla hakerów. Co istotne, Polacy podchodzą nieufnie do dostarczanych informacji, śledzą dokładnie dokumentację, jak też chętnie dyskutują na tematy techniczne, podsuwając przy okazji lepsze rozwiązania. Regularnie obserwuję, że nasi inżynierowne przedkładają swoim amerykańskim czy izraelskim kolegom propozycje usprawnień, które są wdrażane w życie.
Grzegorz Świrkowski
Bardzo ważna jest elastyczność, o której wspominali moi przedmówcy. Klienci coraz bardziej przywiązują wagę do tego czynnika. Jako lokalna firma potrafimy szybko zająć się problemem, rozkładając go na drobne części i błyskawicznie rozwiązując. Polskie firmy często wybierają rodzimych dostawców systemów cyberbezpieczeństwa właśnie ze względu na możliwość spersonalizowania produktu. To pozwala na bardziej indywidualne podejście do klienta aniżeli w przypadku realizacji kontraktu przez globalnego dostawcę, gdzie klient jest traktowany jako kolejny numer. Współpraca z lokalnym dostawcą bazuje na relacjach międzyludzkich i konkretnych osobach. To zupełnie inny poziom sprzedaży.
Paweł Rybczyk
Nie zgadzam się z moimi przedmówcami tylko w jednej kwestii, a mianowicie pieniędzy. Nie chciałbym, aby nasz przekaz był taki, że polskie firmy są zwinne i elastyczne, bo potrafią dostosować cenę do wymagań klienta. Rynek w ciągu ostatnich lat się zmienił. Polskie firmy stać, żeby zainwestować w bezpieczeństwo. Wzrosły też ich oczekiwania co do jakości produktu. No, może pomijając sektor publiczny, gdzie liczy się przede wszystkim cena.
Wspominacie panowie, że mamy świetnych specjalistów ds. cyberbezpieczeństwa. Od czasu wybuchu wojny na Ukrainie liczba cyberataków wymierzonych w polskie firmy oraz instytucje znacznie wzrosła. Czy zmagania na cyberfroncie nas wzmacniają i stajemy się coraz silniejsi, a może przeciwnie, nadmiar pracy wywołuje stres i prowadzi do błędów? Paweł Rybczyk
Na pewno na tym zyskujemy. To jest tak jak z armią, która musi być w ciągłym ruchu. Jeżeli pole walki leży obok nas bądź bezpośrednio nas dotyczy, powinniśmy to wykorzystać. Zresztą robimy to i postrzegam takie działania jako krok w kierunku ogromnego rozwoju. Oczywiście nikt nie cieszy się z wojny, aczkolwiek zauważam, że zmieniła ona postrzeganie bezpieczeństwa u partnerów i użytkowników. Po pierwsze zaczyna się o nim mówić coraz więcej, a po drugie, pojawia się myślenie strategiczne. To krok we właściwym kierunku, ponieważ klient płaci w takim przypadku mniej niż w przypadku nieprzemyślanych zakupów, robionych bez odpowiedniego przygotowania.
Artur Bicki
Co do stresu, to jest on nieodłącznym składnikiem naszej pracy. Narzędzia
cyberbezpieczeństwa są bronią, ponieważ jest to jest obszar inwestowania strategicznego. Bardzo się cieszę, że również na szczeblu państwowym organizacje odpowiedzialne za nasze bezpieczeństwo szukają specjalistów w Polsce i nie sięgają w pierwszym ruchu po dużych graczy z giełdy amerykańskiej. To oznacza, że idziemy dobrą drogą.
Łukasz Gawron
Branża musiała się dostosować do panującej sytuacji geopolitycznej, ponieważ będąc na froncie cyfrowym musimy być bezpieczni. Choć skala ataków jest duża, to jak do tej pory nie zdarzył się jakiś poważny incydent. To pokazuje, że faktycznie ten system działa. Może nie do końca nadążają za tym regulacje, ale to już jest temat na osobną debatę. Obecne wydarzenia musimy wykorzystać do rozwoju naszego rynku. W rozmowach z partnerami bądź klientami biznesowymi powinniśmy im opowiadać o świetnych specjalistach, którzy zmagają się na cyberfroncie z wyrafinowanymi zagrożeniami. Takie osoby mogą otwierać własne firmy, budować markę i napędzać innowacje. Z bardzo podobną sytuacją mieliśmy do czynienia w Izraelu. W tym kraju mocno rozwinięto ekosystem bezpieczeństwa i dziś nie brakuje tam graczy globalnych. Tego nie da się w naszym kraju zrobić jeden do jednego, jednakże warto wykorzystać ten obecny, doskonały moment. Wydaje mi się, że taka szansa już się nie powtórzy.
Grzegorz Świrkowski
Cieszą mnie zmiany, których inicjatorem jest strona rządowa. Przez ostatnie lata państwo przeznaczyło mnóstwo środków na dotacje, które pozwoliły lepiej zabezpieczyć branże wcześniej bardzo zaniedbane pod względem bezpieczeństwa IT. To ważne dla stabilności i ochrony danych w tych sektorach, co ma istotne znaczenie zarówno dla gospodarki, jak również bezpieczeństwa narodowego.
Bardzo cenię biznesy, gdzie założenia początkowe są konsekwentnie rozwijane. To niemal zawsze przekłada się na sukces
– Grzegorz Świrkowski
Duże znaczenie mają też regulacje NIS2, DORA czy nowy projekt ustawy o ochronie sygnalistów. Ustalenie spójnych standardów i procedur pomaga w lepszym zarządzaniu ryzykiem cybernetycznym oraz w szybszym reagowaniu na zagrożenia. Dodatkowo, wojna na Ukrainie napędza rynek cyberbezpieczeństwa. Niebawem też pojawią się pieniądze z KPO przeznaczone na cyfryzację. Liczę, że redystrybucja środków będzie sprzyjać rozwojowi innowacyjności i konkurencyjności polskich firm na arenie międzynarodowej.
Mateusz Kopacz
Czasami trafiam na osoby decyzyjne, które mają do wszystkiego autorskie podejście i dotyczy to również cyberbezpieczeństwa. Wówczas pytam je, czy pamiętają, że nasz kraj od 1999 roku należy do NATO. Po czym przypominam, że dobrą praktyką tego sojuszu jest przeznaczanie 2 procent budżetu na obronę, a następnie proszę o spotkanie z dyrektorem IT, aby sprawdzić, jak wygląda ten bilans
w jego organizacji. Ten obrazowy argument dobrze przemawia do moich rozmówców. W każdym razie na pewno znajdujemy się w dobrym momencie. Być może trochę brakuje nam modeli bezpieczeństwa dla małych i średnich przedsiębiorstw oraz instytucji. Przydałoby się opracowanie z myślą o nich architektury referencyjnej. Uczestnicy dzisiejszej debaty mają ambicje, żeby zdobywać świat. Ich aspiracje są jak najbardziej uzasadnione. Energy Logserver rozwija bardzo ciekawe rozwiązanie w obszarze korelacji danych, zaś Labirynth zastawia pułapki na hakerów. Wyobraźcie sobie czasem Miszę, który przez kilka godzin penetruje sieć i w końcu trafia na emulator np. Windowsa 7. Ostatecznie dostaje to, czym my chcieliśmy go nakarmić, a nie dostaje tego, po co przyszedł. Ważny polski akcent w tej wojnie to adopcja kluczy Yubico dla naszych struktur rządowych, ale również wysyłka dla OUK, operatora usługi kluczowej na Ukrainie, gdzie jedna z pierwszych partii służyła do zabezpieczenia infrastruktury krytycznej. Po dwóch latach możemy przyznać, że cyberataki ze strony rosyjskiej nie zdezorganizowały w znaczący sposób życia Ukraińców, a jedynie przyczyniły się do chwilowych niedogodności. Dobrze pokazuje to przykład telekomów. Wprawdzie jeden z nich znacząco ucierpiał, ale trzy pozostałe przejęły na siebie cały ruch. Trochę działa to na zasadzie: robimy swoje
i nie zatrzymujemy się, jedziemy dalej. To tak, jak uśmiechnąć się pod nosem do kogoś, kto na ciebie krzyczy. „Keep Moving Forward”!
Artur Bicki
Nie można siedzieć
z założonymi rękami
i utyskiwać nad tym, że mamy problem z zatrudnieniem specjalistów
– Łukasz Gawron
Ja patrzę na związaną z cyberbezpieczeństwem historię Izraela po to, żeby napisać własną, lepszą. Sytuacja w Rosji otworzyła nam dostęp do Kazachstanu, Uzbekistanu czy Azerbejdżanu. Okazuje się, że model sprzedaży licencji wieczystej, od którego odchodzą amerykańscy dostawcy, staje się naszym wyróżnikiem. To kraje, które czują z nami bliskość słowiańską, co bardzo ułatwia współpracę. Zresztą mogą liczyć na nasze solidne wsparcie. Przykładowo, Energy Logserver zapewnia tłumaczenie na język kazachski. Chciałbym zobaczyć, który producent zza oceanu podjąłby w ogóle taki temat… Paweł Rybczyk Dużo mówimy o Izraelu czy Stanach Zjednoczonych, a można do tej dwójki dołączyć również Francję. Nie kwestionuję tego, że mamy bardzo dobrych inżynierów, ale to nie wystarczy, aby osiągnąć międzynarodowy sukces. Mam dobre porównanie, jak to działa we Francji. Tam państwo wspiera swój biznes na poziomie każdej ambasady. Niestety my tego nie robimy, a w związku z tym nie mamy wsparcia ze strony rządu. Zdecydowanie nie chciałbym wchodzić w politykę, aczkolwiek podczas takiej debaty trzeba zaznaczyć, że mamy bardzo dużo do zrobienia w tym aspekcie.
Mateusz Kopacz
No właśnie, technologia się zgadza, ale nie zgadza się ekosystem. Amerykanie, kiedy wymieniają ekipę dyplomatyczną w Warszawie, sprawdzają jakie ich firmy mają w Polsce główne siedziby, szkolą się, dysponują specjalnymi materiałami, a także wydzielonym miejscem w placówce, gdzie chwalą się swoimi technologiami. My tego nie mamy. W idealnym świecie w każdej ambasadzie i konsulacie naszego kraju powinien być przynajmniej jeden kącik, gdzie można promować rodzimą technologię. Nasze środowisko powinno zwrócić uwagę na ekosystem, głęboko się nad tym zastanowić, zwłaszcza w kontekście globalnych regulacji i zagrożeń, ale to już temat na osobną debatę.
Łukasz Gawron
Muszę wystąpić tutaj w roli adwokata diabła. Ambasady, odziały ekonomiczne i zagraniczne biura handlowe zaczynają działać bardzo sprawnie. Co prawda, pojawiają się pewne problemy. Przykładowo, w biurze handlowym pracuje osoba, która w poniedziałki zajmuje się eksportem ryb, w środę jest specjalistą od biotechnologii, a w czwartek od cyberbezpieczeństwa. Z kolei we Francji są specjalnie wydzielone osoby do zajmowania się cyberbezpieczeństwem, a ich zadaniem jest nawiązywanie relacji wyłącznie w tym obszarze. Uważam, że tą drogą musimy pójść, jeżeli zamierzamy działać globalnie.
Wsparcie ze strony państwa to jedno, ale młode firmy z Izraela czy Stanów Zjednoczonych mogą również liczyć na ogromne zastrzyki finansowe ze strony funduszy venture capital. W Polsce o takich środkach można jedynie pomarzyć. To istotne
o tyle, że to właśnie startupy najczęściej tworzą innowacyjne produkty. Czy polskie firmy nie są z tego tytułu w jakiś sposób „pokrzywdzone”?
Mateusz Kopacz
Ekosystem, o którym tutaj tyle rozmawiamy, przekłada się też na część komercyjną. Polski produkt do zarządzania dostępem uprzywilejowanym, który spisuje się świetnie, niekoniecznie poradzi sobie za granicą, bo o to zadbają chociażby konkurenci z Izraela. Działa to w ten sposób, że ktoś wcześniej sformułował odpowiedni zapis w umowie i ze względu na swoją siłę był w stanie go przeforsować, a teraz go egzekwuje. Podobnie jest z dostępem do kapitału. Czasami transfery finansowe pochodzą od dużych graczy, dla których mniejsza firma stanowi na tyle poważną konkurencję, że dysponują kapitałem, aby na wczesnym etapie ją kupić i zamknąć.
Artur Bicki
Nie ukrywam, że mam trochę problem z określeniem, czym jest startup. Swoją działalność otworzyliśmy kilka lat temu, w związku z tym według obowiązującej definicji już nie jesteśmy startupem. Jednak niezależnie od nazewnictwa osiągnęliśmy sukces i rozwijamy się w szybkim tempie. Dostaliśmy bilet zaufania od jednego z banków, który zwrócił się do nas o rozwiązanie pewnego problemu. Nie chodziło o inwestycję w przysłowiowego Mercedesa, lecz poskładanie komponentów przez odważny zespół, gotowy podjąć rękawicę. Powołanie spółki nastąpiło po realizacji udanego projektu. Pewna doza zaufania z rynku komercyjnego, a co za tym idzie fundament finansowy, pozwoliły nam pójść dalej. To pokazuje, że promowanie startupów to nie zawsze jedyna
droga do sukcesu. My potrzebujemy przede wszystkim zaufania ze strony klientów do naszych kompetencji. Przestałem też odpowiadać na propozycję zakupu Energy Logserver od różnych inwestorów bądź koncernów. Jesteśmy łakomym kąskiem dla dużych graczy, bo mały zespół można stosunkowo łatwo kupić, a my na etatach zatrudniamy jedynie 12 osób, choć współpracujemy również z zagranicznymi programistami. W każdym razie decydenci z administracji państwowej powinni otwierać przed nami różne możliwości, chociażby na zasadach „wilczego biletu”, jak ma to miejsce w różnych wydarzeniach sportowych. Paweł Rybczyk Zgadzam się z tym, że mamy świetnych inżynierów i innych specjalistów, aczkolwiek zacznijmy mówić też szeroko o tym, że mamy świetne produkty. Zróbmy coś, zanim klient zacznie oglądać kombajny zagranicznych firm. Niech najpierw sprawdzi, czy nie mają ich w swoim portfolio polskie firmy. Dajmy sobie szansę. Warto, aby każdy z polskich producentów, wygrywając duży projekt, mówił o tym głośno, używając tego jako koła zamachowego do skalowania biznesu. Trzeba jak najwięcej działań promocyjnych, żeby wykreować modę na polskie produkty. Jestem wdzięczny naszym partnerom, którzy pozytywnie reagują na nasze rozwiązanie, włączając go do swojego portfolio w postaci produktu bądź usługi.
Łukasz Gawron
Mamy świetnych inżynierów i innych specjalistów, aczkolwiek zacznijmy mówić też szeroko o tym, że mamy świetne produkty – Paweł Rybczyk
Bardzo chciałbym, żeby każdy startup powstawał tak, jak to było w przypadku Energy Logserver. To znaczy pojawiła się konkretna potrzeba, a następnie jej realizacja. Nie ma znaczenia czy zespół tworzą ludzie pracujący od dwóch dekad w banku jako specjaliści ds. cyberbezpieczeństwa, bądź dopiero ukończyli studia. Ważne, że mają pomysł i pragną go rozwijać. Zastanówmy się przy tym, czy jako ekosystem dysponujemy narzędziami, które pomogą im ten pomysł wdrożyć w życie. Do tego trzeba mieć dostęp do kapitału i do wiedzy, akcelerator, inkubator, dobrze współpracować z uczelniami, zbudować kanały partnerskie, dział marketingu i strategię wyjścia na rynki zagraniczne. Do tego wszystkiego potrzebne jest wsparcie, którego w Polsce brakuje. Nie mniej ważna jest mentalność szefów departamentów IT wielkich korporacji. A więc na ile są otwarci na nowe rozwiązania, zwłaszcza kiedy używają od kilkunastu lat produktów tego samego vendora. Czasami decydują się na proof of concept produktu opracowanego przez startup. Takie rzeczy się dzieją i w ten sposób napędza się rynek nowych technologii. Cyberbezpieczeństwo nie jest tutaj żadnym wyjątkiem, tylko w Polsce brakuje całego łańcucha – od narodzin pomysłu do komercjalizacji i odniesienia sukcesu globalnego. Grzegorz Świrkowski Polskie firmy mogą być w pewnym stopniu „pokrzywdzone” z uwagi na
brak dostępu do tak dużych środków. Należy jednak pamiętać, że nie tylko kapitał decyduje o sukcesie startupu, a w Polsce istnieją inne formy finansowania i wsparcia dla młodych firm. Tak naprawdę zdobycie środków finansowych nie stanowi problemu, a mówimy czasem o milionach złotych dla trzyosobowej działalności. To w zupełności wystarczy, aby wystartować z nowym projektem. Bardzo cenię biznesy, gdzie założenia początkowe są konsekwentnie rozwijane. Współpracuję z takimi firmami i widzę, że niemal zawsze przekłada się to na sukces. Być może warto w tym kontekście pomyśleć o monitoringu biznesowym dla startupów.
Jedną z największych bolączek nie tylko polskiego rynku cyberbezpieczeństwa jest deficyt specjalistów. Globalizacja i wzrost popularności zdalnego modelu sprawiają, że Polak z Warszawy może dalej mieszkać w swoim mieście, a dostawać przelewy z San Francisco. W jaki sposób staracie się pozyskać tych pracowników, a następnie sprawić, żeby na dłużej się z wami związali ?
Grzegorz Świrkowski
Nie ukrywam, że mam z tym kłopot. Ciągła rotacja pracowników wynika głównie z deficytu specjalistów na rynku. Dotyczy to nie tylko inżynierów, ale również specjalistów certyfikowanych w konkretnych obszarach: od sieci, obsługi SIEM-ów itp. Niestety, siłą rzeczy są oni wchłaniani zarówno przez duże polskie firmy, jak i zagraniczne korporacje. Postępuję aktywnie wobec tego wyzwania, inwestując w szkolenia pracowników, aby stale rozwijali swoje umiejętności. Ze względu na warunki rynkowe i ekonomiczne nie możemy konkurować z zagranicznymi płacami, dlatego stawiam na możliwości roz-
woju zawodowego i specjalizowania się w różnych branżach w kontekście cyberbezpieczeństwa, takich jak bankowa, medyczna czy produkcyjna. Uważam, że różnorodność i możliwości rozwoju zawodowego są kluczowe, aby zatrzymać pracowników u nas.
Artur Bicki
Kiedy rozmawiam z kandydatami do pracy staram się w nich rozpalić pasję, choć pieniądze też zawsze muszą się zgadzać. Nie mam większych problemów z zatrudnieniem, ponieważ potrafię przekonać, że praca u nas jest szalenie ciekawa. Na przykład pytam pracownika: w jakim kraju chciałby sprzedawać produkty? Tymczasem żadna z międzynarodowych spółek nie zadaje takich pytań swoim pracownikom, lecz oddelegowuje ich na określony kierunek. Nasze podejście to szansa dla młodego, ambitnego zespołu.
Mateusz Kopacz Znowu zawodzi ekosystem. Szkoły nie wychodzą z inicjatywą współpracy i wysyłania klas technicznych do laboratoriów, a byłaby to doskonała szansa, żeby wyłowić talenty. Tak naprawdę jedynie wojsko dostrzega lukę kompetencyjną w tym obszarze i podejmuje działania. Co nie zmienia faktu, iż nie wygląda na solidnie zbudowany budynek, lecz fuszerkę, gdzie woda podchodzi nam do piwnicy. Problem z dostępem do specjalistów ds. cyberbezpieczeństwa jest zjawiskiem globalnym. Akurat w moim przypadku mam ten komfort, że mogę napisać ogłoszenie o pracę i czekać na oferty. Kiedy potrzebuję specjalistów do projektu, to po prostu korzystam z giełdy z dostępem do ekspertów. Biznes robi się z ludźmi i ta edukacja musi być
wielopoziomowa. Powinniśmy współpracować z dziećmi w szkołach czy z seniorami, ale również włączać do dialogu działy HR.
Łukasz Gawron
Chciałbym zwrócić uwagę na dwie kwestie. Zgadzam się z Mateuszem Kopaczem, że powinniśmy działać proaktywnie. Nie można siedzieć z założonymi rękami i utyskiwać nad tym, że mamy problem z zatrudnieniem specjalistów. Niewiele uczelni zdaje sobie sprawę z tego, jakie są realne potrzeby przedsiębiorców w zakresie zatrudniania tej grupy specjalistów na zmieniającym się rynku pracy. To bardzo istotny czynnik, bowiem nasza branża cechuje się niezwykłą dynamiką. Dlatego potrzebny jest dialog biznesu nie tylko z uczelniami wyższymi, ale musimy schodzić poziom niżej – do liceum i technikum. Należy odpowiedzieć na pytania – jakie cyberzagrożenia obecnie występują na rynku, jakie są najważniejsze trendy, jakich specjalistów poszukują firmy? Natomiast druga sprawa to jest kwestia wynagrodzeń specjalistów. Oczywiście, nie możemy konkurować ze Szwajcarią czy Stanami Zjednoczonymi, ale to nie będzie trwało wiecznie. W pewnym momencie wynagrodzenia się wyrównają, chociażby ze względu na wzrost gospodarki, podnoszącą się jakość usług, a także samych specjalistów. Nie demonizujmy, nie będziemy na szarym końcu pod względem wynagrodzeń. Moim zdaniem za parę lat przyjadą do nas również specjaliści z Zachodu i będą pracować za przyzwoite pieniądze.
Rozmawiał Wojciech Urbanek
N a j p i e r w k l i e n t ,
Startupy zbierają pieniądze. Firmy je zarabiają. Im szybciej startup zrozumie, że jest firmą, tym lepiej dla niego.
Ten wniosek nasunął mi się ostatnio, w wyniku pracy ze spółkami z mojego portfela i jako efekt konsultacji dla dziesiątek niezależnych startupów. Wiele z tych rozmów poświęconych było właśnie pozyskiwaniu kapitału. Co powinniśmy teraz zrobić? Do kogo iść po pieniądze? Co zmienić w decku? Był w tym zaszyty pewien automatyzm – mam startup, idę po rundę do VC. Pierwszą, drugą, trzecią – to już bez znaczenia. To, co te rozmowy łączyło to fakt, że founderzy poświęcali większość swojego czasu na pogoń za inwestorami. A że droga do tego celu jest długa, kręta i wycieńczająca – to sprzedaż spadała na drugi albo nawet trzeci plan.
Co więcej, kiedy zadaję pytanie, po co im właściwie te pieniądze, spotykam się z dość schematycznymi odpowiedziami: na rozwój, na funkcjonowanie, na produkt. Rzadko kto ma precyzyjnie opracowany plan dotyczący tego, jak zamienić pozyskany kapitał w szybszy wzrost spółki. W efekcie jest on traktowany jak tlen niezbędny do funkcjonowania, a nie jak „nitro”, które powinno „dopalić” całość, pozwalając wskoczyć na wyższy bieg.
dojrzałości. Wiedzą, że mitycznym jednorożcem już nie będą, ale są w stanie zbudować świetnie prosperującą i rentowną firmę. To jest ich ścieżka rozwoju na najbliższe lata. Być może uda im się w przyszłości sprzedać firmę, ale nawet jeśli tego nie zrobią, to generowane zyski pozwolą im żyć na wysokim poziomie. Paradoksalnie wielu wychodzi na tym lepiej niż na symbiozie z funduszami.
Nie zbieraj. Zarabiaj…
Pamiętam, jak stawiając lata temu pierwsze kroki w VC, pewien founder powiedział mi: „Przepraszam Szymon, ale odwołuję nasze spotkanie. Trafiło mi się super ważne spotkanie z klientem, które może mieć dla spółki duże znaczenie”. W pierwszej chwili odebrałem to jako zwykły brak szacunku. Może nawet jako pewien rodzaj „gry w niedostępność”. Trochę czasu zajęło mi zrozumienie, że to jest jedyna słuszna postawa. Klienci powinni być na szczycie hierarchii. My inwestorzy powinniśmy mieć względem nich drugorzędny charakter. Firma z klientami zawsze sobie poradzi. Spółka z samymi inwestorami już nieco gorzej. Zamiast nieustannie próbować zbierać pieniądze, lepiej po prostu je zarabiać.
Founderzy, którzy na pierwszym miejscu stawiają sprzedaż, rzadko zmieniają priorytety. Po pierwsze wiedzą, że jeśli będzie im to szło naprawdę dobrze, to inwestorzy zawsze się znajdą – prędzej czy później. Takie spółki nie potrzebują ich do przeżycia i w efekcie zarząd zastanowi się kilka razy, czy taki ruch naprawdę ma sens. Osobiście mam dużo szacunku do founderów, którzy na pewnym etapie świadomie schodzą ze ścieżki VC. To wymaga pewnej
Szymon Janiak
Autor jest współtwórcą i partnerem zarządzającym funduszu venture capital Czysta3.vc
Klienci powinni być na szczycie hierarchii.
Programy partnerskie muszą być dostosowane do zmian zachodzących na rynku, a wbrew pozorom, nie jest to łatwe zadanie.
W tym kontekście dywizja Samsung Memory w Polsce i regionie CEE przedkłada stabilność programu partnerskiego ponad częste zmiany. Nie oznacza to jednak, że program partnerski pozostaje niezmienny. Przykładowo, w ubiegłym roku Samsung Memory wprowadził do oferty dwie serie dysków wewnętrznych Data Center SSD i, aby otworzyć się na współpracę z firmami integratorskimi działającymi w tym segmencie rynku, producent musiał wyjść z ciekawą propozycją, co wymagało wprowadzenia nowych zapisów do programu.
wiat nowych technologii mknie do przodu w szaleńczym wprost tempie. Taki stan rzeczy nie pozostaje bez wpływu na sposób, w jaki sprzedawane są produkty oraz usługi, a co za tym idzie, na relacje zachodzące w kanale partnerskim. W związku z tym producenci mają twardy orzech do zgryzienia, bowiem muszą pogodzić stabilność programu z wprowadzaniem na rynek innowacyjnych rozwiązań i nowych modeli sprzedaży. Jak w takiej sytuacji zachować
odpowiedni balans? Co zrobić, aby nie wylać dziecka z kąpielą? Producenci na różne sposoby starają się rozwiązać te dylematy. – Wiadomo, że stabilność zwiększa przewidywalność działania. Niemniej, na tak szybko zmieniającym się rynku, w dobie przyśpieszenia implementacji nowych technologii, należy szczególnie dbać o to, aby program partnerski był dopasowany do zachodzących zmian – mówi Rafał Szarzyński, dyrektor sprzedaży w Sharp Electronics CEE.
Zwolennikiem stabilnej współpracy jest również Robert Gawroński, SMB Channel Manager w TP-Linku, zwracając przy tym uwagę na poszanowanie czasu partnerów. Jego zdaniem zbyt częste zmiany w zapisach czy też progach rabatowych absorbują uwagę i energię resellerów, którzy, zamiast poświęcić czas na sprzedaż rozwiązań, spędzają długie godziny na studiowaniu programów.
Podejściu przedstawiciela TP-Linka hołduje także Robert Dziemianko, Marketing Manager w polskim oddziale G Daty. W jego opinii partnerom należy się wytchnienie oraz stabilność, aczkolwiek nie rozumiana jako skostniałość i brak reakcji, lecz spokojne, rozsądne dostosowywanie się do warunków panujących na rynku.
Zdaniem specjalistów – przedstawicieli firm, które zdobyły
n Rafał Szarzyński, dyrektor sprzedaży, Sharp Electronics CEE
Zauważamy, że część partnerów zatrzymała się na pewnym etapie rozwoju swoich firm i nie wie, w którą stronę powinny zmierzać ich kolejne kroki. Partnerzy, chcąc się z nami dalej rozwijać, zgłaszają się z prośbą o podzielenie się wiedzą odnośnie do samego prowadzenia działalności gospodarczej, relacji z pracownikami, systemów premiowych i generalnie know-how w kontekście zadawanego pytania. To szerszy i bardziej złożony aspekt postulatów, jakie są przez nich zgłaszane, ale dla tych, którzy są zainteresowani pozyskaniem takiej wiedzy, organizujemy workshopy z udziałem pracowników działów sprzedaży, HR czy marketingu lub nawet finansów. Myślę, że taki rodzaj pomocy, jaki świadczymy, jeszcze bardziej scala ze sobą organizacje partnera oraz producenta.
n Robert Gawroński, SMB Channel Manager, TP-Link Partnerzy coraz częściej chcą nie tylko dostarczać produkt, ale również zajmować się jego wdrożeniem czy też później obsługą bądź zarządzaniem. Dlatego też dążą do zdobywania specjalizacji w określonych obszarach IT, takich jak rozwiązania sieciowe czy też oprogramowanie ERP. Producent przede wszystkim powinien podążać za rozwojem partnerów, wspierać ich, starać się rozumieć ich potrzeby, tak, aby współpraca zawsze pozostawała na poziomie partnerskim. Co istotne, zauważamy ze strony resellerów i integratorów zwiększone zapotrzebowanie na szkolenia, przede wszystkim warsztatowe, poszerzające kompetencje z zakresu rozwiązań sieciowych. Oczywiście wynika to ze wspomnianej wcześniej, postępującej specjalizacji partnerów, którzy chcą kompleksowo obsłużyć swoich klientów.
Jak wynika z analiz Channelnomics aż 73 proc. partnerów handlowych twierdzi, że programy dotyczące współpracy z producentami są zbyt skomplikowane. Mogłoby się wydawać, że najlepszym sposobem na ich uproszczenie byłoby pozbycie się większości zapisów i zwiększenie progów rabatowych – tak, aby partnerzy mogli zarabiać jeszcze więcej pieniędzy. Jednak nie wszyscy podzielają ten pogląd, a jednym z jego przeciwników jest Larry Walsh, CEO Channelnomics.
– Względy fi nansowe są niezaprzeczalnie niezbędne w relacji partnerskiej, ale pieniądze nie są jedynym czynnikiem napędzającym zachowanie partnera. Partnerzy szukają zdrowych relacji z dostawcami, które nie przeciążają ich zasobów, nie narzucają kosztownych wymagań programu i umożliwiają im skuteczną oraz szybką obsługę potrzeb klientów –tłumaczy Larry Walsh.
dów. Innymi słowy, partnerzy handlowi bardziej doceniają klarowne i zrozumiałe zasady gry aniżeli obietnice niebotycznych nagród premiujących wysoką sprzedaż.
Channelnomics opracował metodologię „naprawy” programów partnerskich.
Analizy i badania Channelnomics przeprowadzane na podstawie wywiadów z resellerami oraz integratorami pokazują, że łatwość prowadzenia działalności przewyższa potencjał przycho-
Co ciekawe, Channelnomics opracował nawet metodologię, której celem jest pomoc producentom w usuwaniu złożoności i niespójności programów partnerskich. Cały cykl składa się z pięciu kroków: zdefiniowania problemu, zmierzenia jego zakresu, analizie jego głębokości i poprawy nieprawidłowo funkcjonujących procesów oraz weryfi kacji zmian w celu potwierdzenia ich skuteczności. Jak to jednak zwykle w życiu bywa, teoria rozmija się z praktyką. Zasadniczy problem polega na tym, że nie da się wrzucić do jednego worka wszystkich producentów oraz usługodawców. Bardzo dużo zależy od oferowanych produktów i usług, a w niektórych przypadkach uproszczenie programu partnerskiego jest niezwykle trudne.
W branży IT już od dawna mówi się o końcu ery określanej jako „przesuwa-
n Jarosław Rackowicz, Regional Channel Manager CEE, Hitachi Vantara
Skupiamy się na jakości naszych partnerstw, a nie na ich liczbie, ponieważ zakładamy, że partner zainteresowany jest przede wszystkim sukcesem, pomagając swoim klientom zaspokoić ich kluczowe potrzeby i realizując marże na projektach. To niejako stałe oczekiwanie ze strony nowych, ale i obecnych partnerów, co przekłada się na czas poświęcony rozwojowi ich kompetencji sprzedażowych czy technicznych. Po pandemii bardzo zwiększyła się potrzeba organizowania cyklicznych spotkań, podczas których nasz ekosystem partnerski ma okazję do transferu wiedzy, jak też wymiany doświadczeń oraz oczekiwań względem tego, co lokalnie powinniśmy wprowadzić czy udoskonalić. Te spotkania mają miejsce raz na kwartał pod nazwą Hitachi Vantara Academy. Z kolei nasz Center of Excellence pozwala zamówić każdemu z partnerów szyte na miarę środowisko demo czy zestaw pod projekty typu proof of concept.
nie pudełek”. Wprawdzie jeszcze wielu resllerów prowadzi biznes według tego modelu, aczkolwiek widoczna jest tendencja zmierzająca w kierunku pogłębiania wiedzy, zdobywania nowych kwalifikacji czy specjalizacji w wąskich obszarach.
Defi cyt specjalistów na rynku pracy IT, z którym branża nie upora się w ciągu najbliższych kilku lat, otwiera przed resellerami oraz integratorami ogromne możliwości w zakresie dostarczania usług. Inną kwestią jest rywalizacja ze sklepami wielkopowierzchniowymi, platformami e-commerce, a czasami nawet z samymi producentami. Jak wynika z danych Gartnera aż 70 proc. klientów końcowych woli kupować produkty i usługi technologiczne bezpośrednio od ich wytwórcy. Z tego też powodu partnerzy, którzy wyspecjalizowali się w określonym obszarze, łatwiej sprostają oczekiwaniom klientów, a niejako potwierdzeniem tej tezy są wyniki badań przeprowadzonych przez Chanelnomics. Wynika z nich, że ponad połowa klientów (56 proc.) kupuje produkty za pośrednictwem kanału sprzedaży w sytuacji, gdy potrzebuje wsparcia w zakresie wdrożenia oraz integracji, zaś 37 proc. użytkowników robi tak wówczas, gdy chce konsolidować zakupy i zarządzać relacjami.
n Robert Dziemianko, Marketing Manager, G Data
Certyfikat Channel Master 2024
Niektóre programy partnerskie mogą być rzeczywiście skomplikowane, ale to zależy od produktu. Niemniej jesteśmy zdania, że partnerzy powinni bez wysiłku rozumieć założenia programu współpracy. W naszej ocenie prosty i transparentny program partnerski daje większe prawdopodobieństwoodniesienia wspólnego sukcesu. Chodzi głównie o benefity, które parter uzyskuje ze współpracy z vendorem. W tym celu monitorujemy pewne wskaźniki, które świadczą o zadowoleniu partnerów – aby otrzymywać informacje zwrotne, że nasz program partnerski jest dobrze odbierany przez partnerów. Zwroty w postaci bonusów kwartalnych, możliwości zarządzania licencją klienta końcowego i bezpłatne licencje testowe to tylko niektóre z elementów naszego portalu partnerskiego.
„Bonusy są bardzo ważne, ale to za mało, aby utrzymać dobre relacje z partnerami” - mówi Maciej Kamiński, dyrektor dywizji Samsung
Memory w Polsce i regionie CEE.
n Zmiany na rynku IT mają bardzo dynamiczny charakter. Czy programy partnerskie powinny zmieniać się w podobnym tempie, aby dostosowywać się do nowych realiów?
Technologia cały czas się rozwija i dotyczy to zarówno firmy Samsung, jak i całego środowiska IT czy też sektora elektroniki. W związku z tym pojawia się dylemat: jak budować programy partnerskie, aby z jednej strony były atrakcyjne i zachęcające dla firm, zaś z drugiej dawały nam, jako sprzedawcy, pewną stabilność w obszarze kreowania biznesu. Myślę, że akurat nasz program STEP jest bardzo elastyczny, jeśli porównamy go z propozycjami innych producentów. Na pewno w ciągu czterech lat działalności udało nam się zachować stabilność, a zmiany odzwierciedlały przede wszystkim strukturę portfolio produktów i kierunki rozwoju naszego biznesu w Polsce. Tak właśnie było wraz z pojawieniem się naszych dysków przeznaczonych dla centrów danych. n Producenci mają różne strategie w zakresie budowy kanału partnerskiego. Tworzą kilka poziomów współpracy lub je maksymalnie spłaszczają. Jak to wygląda w przypadku Samsung Memory?
Mamy trzy poziomy partnerstwa: srebrny, złoty i platynowy. Uważam, że w przypadku naszej struktury jest to wystarczająca gradacja. Nowi partnerzy najczęściej trafiają na pierwszy, srebrny poziom. Najchętniej widziałbym jak najwięcej firm na wyższych poziomach, ale na przestrzeni lat nie dostrzegam znaczących fluktuacji. Partnerzy rozwijają się i część z nich zmienia poziomy na wyższe. Niemniej, nie są to drastyczne dynamiki, które co kwartał zmieniałyby strukturę naszego programu. Zdarzają się także sytuacje, kiedy firmy wypadają z niego. Jest to proces naturalny i najczęściej powiązany ze zmianą ich strategii biznesowej. Nawiązując do wcześniejszego pytania, najbardziej liczy się dla nas stabilność współpracy z rynkiem i długofalowe, dobre relacje z partnerami.
n Czy zdarza się, że partnerzy narzekają, że wasz program partnerski jest zbyt skomplikowany?
Jak do tej pory nie spotkałem się z takimi opiniami. Myślę, że ustalone przez nas zasady, czyli trzy progi, plus oferowane wsparcie, nie są zawiłe. Każdy partner wie, jakie
mamy wobec niego wymagania. Według mojej wiedzy nie nastręczają one współpracującym z nami firmom żadnych problemów, co oznacza, że sam program nie jest skomplikowany. n Według Channelnomics w kanale sprzedaży mamy do czynienia z postępującą specjalizacją. Czy dostrzega Pan ten trend w przypadku Samsung Memory?
Taka specjalizacja postępuje, co chociażby widać w strukturze naszych klientów. Na przykład partner kupujący od nas pamięci niekoniecznie musi współpracować z dywizją Samsung Display. Na tym etapie Samsung Memory nie planuje zwiększania specjalizacji obecnego programu partnerskiego. Nie ma ku temu wystarczających przesłanek biznesowych, jakimi mogłyby być wewnętrzne zmiany w naszej centrali lub regionie czy zmiana strategii dla poszczególnych grup produktowych . Na przykład, moglibyśmy stwierdzić, że zdecydowanie zwiększamy sprzedaż dysków Data Center Technology w Polsce i regionie CEE. Wówczas warto byłoby dokonać weryfikacji zasad i mechanizmów oraz narzędzi, jakie program partnerski powinien oferować tej grupie klientów. To co natomiast można zaobserwować to specjalizowanie się klientów i tym samym fakt, że reseller może uczestniczyć w kilku, a nawet kilkunastu programach partnerskich, w zależności od skali swojego działania.
n Co, oprócz dobrej marży, motywuje partnerów do współpracy z Samsung Memory?
Nie mamy zakusów na zwiększanie specjalizacji.
Bonusy są bardzo ważne, ale to za mało, aby utrzymać dobre relacje z partnerami. Dlatego w pierwszej kolejności zapewniamy im solidne wsparcie sprzedażowe, czyli możliwość bezpośredniego kontaktu z profesjonalistami legitymującymi się kilkunastoletnim stażem w branży IT i kanale B2B. Są to osoby, które potrafią budować długofalowe relacje i proaktywnie wychodzić z inicjatywą w kierunku rynku. Niewątpliwym atutem jest to, że certyfikowany partner może uzyskać pełne wsparcie w języku ojczystym. Dla części partnerów ważny jest także poziom certyfikacji, na którym się obecnie znajdują. To zazwyczaj firmy z ambicjami, dla których status złoty lub platynowy stanowi ważny wyróżnik.
Funkcje nowej platformy zakupowej B2B zostały dobrane tak, aby resellerzy mogli w pełni liczyć na prostotę składania zamówień, dostępność towaru i szybkie dostawy.
Senetic to firma z 15-letnim doświadczeniem w branży IT, zdobytym zarówno w kraju, jak i na rynku międzynarodowym. Pierwszy zagraniczny oddział, z siedzibą w Londynie, rozpoczął swoją działalność w 2010 r., a więc niespełna rok po powstaniu spółki. W tej chwili prowadzi ona sprzedaż w 58 krajach, obsługując rocznie około 2 mln klientów.
Z wiedzy oraz doświadczenia polskiego dostawcy sprzętu i oprogramowania korzystają nie tylko odbiorcy końcowi, ale przede wszystkim resellerzy, ponieważ to głównie na współpracę z nimi jest nastawiony Senetic od samego początku działalności. W 2024 roku, dzięki udostępnieniu wyspecjalizowanej platformy zakupowej B2B, firma otworzyła kolejny rozdział w swojej historii współdziałania z kanałem sprzedaży IT.
O skali projektu Senetica świadczy między innymi fakt, że platforma B2B jest dostępna nie tylko w Polsce i mogą z niej korzystać resellerzy z rynków anglo- i niemieckojęzycznych. Opracowano ją ponadto w językach: hiszpańskim, francuskim, węgierskim, włoskim, rumuńskim i buł-
…wsparcie techniczne dla partnera na każdym etapie współpracy, …bogata paleta produktów, …atrakcyjne ceny dla partnerów, …szybka dostawa dzięki własnemu magazynowi i sprawdzonym kanałom logistycznym, …wsparcie po sprzedaży dla partnera i jego klientów.
garskim, a kolejne wersje mają być sukcesywnie dodawane.
– Klientom B2B, którzy już od dłuższego czasu z nami współpracują, kupując za pośrednictwem naszego systemu e-commerce, proponujemy przejście na rozwiązanie przeznaczone dla kanału sprzedaży IT, które wyniesie tę współpracę na zupełnie nowy poziom – zapewnia Bartłomiej Twardosz, E-commerce Director w Seneticu.
W samym procesie zakupowym, dokonywanym za pośrednictwem platformy B2B, Senetic postawił na maksymalne dostosowanie jej działania do potrzeb użytkowników.
– Całość została przygotowana z myślą o automatyzacji działań, co jest możliwe dzięki temu, że dajemy resellerom dostęp do API. To bardzo ułatwia pobieranie danych o stanach magazynowych, cenników, tworzenie zamówień oraz import koszyków. Specjalnie dla partnerów została także stworzona strefa promocji. To oczywiście jedynie część zalet naszego rozwiązania – mówi Bartłomiej Twardosz.
Dodaje przy tym, że w uwidocznionych cenach produktów od razu uwzględniono rabaty.
– Dzięki temu partnerzy nie są zmuszeni do konsultacji cen z handlowcem, przez co oszczędzają mnóstwo czasu. Mają także możliwość podglądu stanów magazynowych i sprawdzenia, czy towar jest już dostępny fizycznie w magazynie, czy znajduje się w trakcie transportu do magazynu – tłumaczy Bartłomiej Twardosz. Senetic, za pośrednictwem swojej platformy, oferuje przede wszystkim rozwiązania sieciowe. Korzystają z niej nie tylko
n Integracja przez API: automatyzuj swoje działania dzięki dostępowi do API, które umożliwia pobieranie stanów magazynowych, cenników oraz tworzenie zamówień.
n Elastyczność danych: pobieraj katalogi produktów i raporty magazynowe w wielu formatach oraz wybieraj kategorie produktów, które Cię interesują.
n Strefa promocji: korzystaj ze specjalnych ofert produktów w atrakcyjnych cenach, dostępnych tylko na platformie B2B Senetic.
n Aktualny wgląd w magazyn: sprawdzaj dostępność produktów w magazynach oraz status dostaw w czasie rzeczywistym.
n Import produktów: łatwo importuj produkty do koszyka za pomocą plików Excel lub CSV.
n Płatności online: szybkie i bezpieczne.
więksi i mniejsi resellerzy, ale także firmy instalatorskie, które, choć na co dzień nie kupują sprzętu w ilościach hurtowych, to czasem potrzebują go do realizacji dużych projektów. Rozwiązanie, które oferuje polska spółka, daje im szybki dostęp do produktów w odpowiedniej ich liczbie oraz dostępności.
Jak zapewnia Bartłomiej Twardosz, z platformy B2B mogą korzystać wyłącznie zweryfikowani resellerzy i instalatorzy. Nie jest ona dostępna dla klientów końcowych, a rolą Senetic jest działanie niejako pośrodku, między dużymi dystrybutorami, a resellerami czy integratorami. – Dla resellera czy instalatora, który pilnie potrzebuje sprzętu, na przykład kilku sztuk produktu, uzyskanie go w dystrybucji może się okazać skomplikowane. U nas wręcz przeciwnie. Mamy własny, doskonale zaopatrzony magazyn, dostarczamy zamówienia właściwie na następny dzień, niezależnie od tego, jakiej kwoty i liczby produktów dotyczą. Takie podejście ułatwia naszym partnerom planowanie działań oraz współpracę z klientami końcowymi – podsumowuje Bartłomiej Twardosz.
Zarejestruj się w nowej platformie sprzedażowej B2B Senetic. senetic.pl/b2b-resellers
Infrastruktura krytyczna to bardzo często połączenie IT i OT. Dlatego trzeba wiedzieć, do jakiego stopnia procedury i narzędzia są wspólne dla obu tych środowisk.
n Tomasz Janoś
Infrastruktura krytyczna to z definicji zasoby o podstawowym znaczeniu dla funkcjonowania społeczeństwa i gospodarki. W praktyce oznacza to szeroki przekrój firm i organizacji odpowiedzialnych za wytwarzanie, przesyłanie i dystrybucję energii elektrycznej, produkcję i transport paliw, gospodarkę wodną, telekomunikację, czy też produkcję żywności. W większości tych sektorów funkcjonują dwa środowiska – IT, niezbędne do prowadzenia działalności biznesowej i administracji (jak handel, logistyka, HR itp.) oraz OT, które służy do realizacji głównych zadań, związanych z produkcją. Oba te obszary mają inną specyfikę, jak też inne standardy i cele. Różne jest też postrzeganie kwestii bezpieczeństwa i konsekwencji ewentualnych incydentów.
– W IT krótka przerwa w ciągłości działania systemów nie powoduje zwykle bardzo negatywnych konsekwencji (może poza systemami transakcji finansowych) i ma zwykle charakter lokalny. Za to nawet krótka przerwa w pracy linii produkcyjnej, w dostawie prądu czy innych mediów mogą od razu prowadzić do bardzo poważnych konsekwencji, mieć szerszy zasięg, a w skrajnych przypadkach są w stanie zagrozić zdrowiu czy życiu obywateli, skutkując skażeniem wody, wybuchem gazu czy pożarem zbiorników z paliwami – mówi Sławomir Karpiński, prezes Connect Distribution. Środowiska IT i OT powstawały osobno i często w różnym czasie, więc są to zwykle dwa różne światy, które korzystają z różnych technologii i standardów, jak też zarzą-
dzane przez odrębne zespoły specjalistów (pomiędzy którymi nierzadko występuje silna rywalizacja). Tradycyjnie w zespołach OT strategia bezpieczeństwa polega na odcięciu się od wszelkich połączeń ze światem zewnętrznym. Dlatego korzysta się tam ze sprzętu przeznaczonego wyłącznie do pracy wewnątrz zamkniętej sieci OT, a wiele czynności – związanych choćby z utrzymaniem maszyn i urządzeń – wykonując ręcznie.
Gdy połączenie z siecią IT jest jednak wymagane, to w przypadku skrajnie wrażliwych systemów działających w infrastrukturze krytycznej, stosuje się jednokierunkowe diody danych, które galwanicznie separują sieci OT od IT, umożliwiając jedynie odczyt danych pochodzących z sieci OT, ale bez możliwości przenikania jakichkolwiek danych w drugim kierunku, czyli do wnętrza sieci OT. – O ile taka strategia eliminuje zagrożenia wynikające z dostępu do sieci IT i internetu, o tyle takie podejście często usypia czujność personelu OT, który często nieświadomie zaniedbuje inne wektory ataku, w tym malware przenoszony za pomocą niezabezpieczonych nośników danych czy konsekwencje wynikające z korzystania z przestarzałego, skompromitowanego oprogramowania, które nie podlega stałej weryfikacji i aktualizacji, co w sieciach IT jest już dzisiaj rzadkością – zauważa Sławomir Karpiński.
Nic nie zatrzyma
dalszej integracji obu światów.
Na szczęście, organizacje zarządzające infrastrukturą krytyczną coraz częściej dostrzegają te problemy i starają im przeciwdziałać eliminując kolejne luki bezpieczeństwa i wprowadzając systemy do rutynowego badania wszelkich nośników danych przenoszonych do chronionych sieci
OT. Przykładowo, robiąc to za pomocą wielosilnikowych systemów antymalware’owych czy też wdrażając dedykowane firewalle przemysłowe.
– Nic nie zatrzyma dalszej integracji obu światów, przy czym podstawą będzie zastosowanie znanych nam mechanizmów ochrony, zabezpieczeń i kontroli w OT, włączając w to choćby szyfrowanie czy zabezpieczanie przed modyfikacją ruchu przez nieupoważnione osoby lub narzędzia, jak TLS czy VPN. Innymi słowy przez coś, co w świecie IT jest od dawna oczywiste – mówi Bartosz Dzirba, dyrektor działu technicznego i wiceprezes zarządu Passus.
W przypadku sieci przemysłowych mamy do czynienia nierzadko z rozwiązaniami wiekowymi, projektowanymi w zupełnie innych czasach. Mają w związku z tym
inne cechy niż dzisiejsze klasyczne rozwiązania IT. Dawniej kluczowe było samo działanie, więc nie zwracano aż takiej uwagi na kontrolę danych (np. wprowadzanie wartości wykraczających poza dopuszczony zakres), a tym bardziej na bezpieczeństwo.
– Dopóki sieci te były odseparowane fizycznie, dopóty nie było problemu. Dziś jednak mamy zgoła inną sytuację. OT i IT to często wspólna, a przynajmniej połączona infrastruktura. Tym samym, dla infrastruktury krytycznej, w domyśle: wykorzystującej sieci przemysłowe, mamy te same wyzwania związane z ciągłością działania, wydajnością i bezpieczeństwem – mówi Bartosz Dzirba.
Wyzwania są faktycznie te same, ale przecież w sieciach OT funkcjonują często przestarzałe, niezabezpieczone i nierzadko słabo udokumentowane protokoły.
W rezultacie zagrożenia są jeszcze większe, a ryzyka – jak już wspomniano – mają zupełnie inną skalę – począwszy od drobnych awarii, przez nieprawidłowo działające światła na skrzyżowaniach czy odcięcie prądu, aż po tak groźne incydenty, jak przejęcie kontroli nad zakładem energetycznym przez przestępców i katastrofy, typu otwarcie tamy lub zalanie terenów zaludnionych.
Wspierając OT, infrastruktura IT ma maksymalizować ciągłość działania procesów przemysłowych, eliminując zdarzenia niebezpieczne, w tym awarie i przekraczanie wartości granicznych. Zadania takie będą łatwiejsze, gdy specjaliści zapewnią integralność danych, wdrażając oraz integrując (tam, gdzie to zasadne i możliwe) narzędzia do monitorowania obu środowisk.
– W realizacji tego celu działy IT oraz OT powinny blisko ze sobą współpracować i uwzględniać rozwiązania z zakresu cyberbezpieczeństwa już na etapie formułowania założeń projektowych, a następnie wdrażania i utrzymania systemów. Zarówno IT,
jak i OT powinny zostać objęte systemem bezpieczeństwa, w którym procesy oraz narzędzia w pewnym stopniu będą współdzielone. Dotyczy to ciągłości działania, zarządzania incydentami, utrzymania i aktualizacji technologii oraz monitorowania środowiska – mówi Sebastian Kwapisz, pełnomocnik zarządu ds. cyberbezpieczeństwa w Asseco Cloud.
Jeśli porównać oba światy, to na przykład w przypadku monitorowania informacje, które można zebrać z obu systemów, są zupełnie inne. W IT możemy z łatwością zbierać logi z różnych źródeł. W sieci OT natomiast nie jest to już takie proste, ze względu na trudność przesyłania logów ze zdalnych lokalizacji czy brak rozwiązań, które pozwolą te logi zbierać. Niemniej ważne jest podejście procesowe, w którym tworzymy odpowiednie procedury pozwalające zapewnić jednolity kształt strategii cyberbezpieczeństwa w obu tych obszarach.
– Procedury pozwalają określić wspólne wytyczne dla nadawania uprawnień,
dostępu do danych, zarządzania aktywami czy też testowania środowiska lub monitorowania. Przykładem może być podejście do testów, gdzie we wspólnej procedurze ustalamy, że audyt cyberbezpieczeństwa ma być wykonywany raz w roku – mówi Krystian Paszek, Cybersecurity Services Manager w Dagma Bezpieczeństwo IT.
Jednak ze względu na różnice środowisk, w sieci IT możemy wykonać testy penetracyjne lub aktywne skany podatności, natomiast w sieciach OT testy należy wykonać poprzez pasywne skanowanie podatności, aby nie zakłócić pracy systemu. Oba środowiska zostaną zatem przetestowane raz w roku z wykorzystaniem odpowiednich działań.
- Dyrektywa NIS2 czy aktualnie obowiązująca UoKSC odnoszą się do zastosowania zabezpieczeń w danym obszarze, w tym przed wyciekiem danych, w zakresie tworzenia kopii zapasowych, współpracy z podwykonawcami, zarządzania podatnościami czy też monitorowania infrastruktury. Nie narzucają przy tym, w jaki sposób należy to zrobić, zalecając budowanie wspólnej strategii cyberbezpieczeństwa w obszarze IT i OT poprzez podejście procesowe we wspólnych obszarach, przy wykorzystaniu
adekwatnych rozwiązań dla sieci IT czy OT – tłumaczy Krystian Paszek.
Monitorowanie i ochrona
Niezbędne jest monitorowanie stanu połączonych z infrastrukturą przemysłowego internetu rzeczy (IIoT), czyli wszystkich urządzeń, które mają łączność z globalną siecią. Monitoring musi identyfikować i dokumentować aktywność każdego nowego urządzenia oraz informować o dotyczących jej zmianach. Powinien mieć także na celu wczesne rozpoznawanie anomalii w ruchu pomiędzy chronionymi segmentami, aby jak najwcześniej wykryć potencjalne zagrożenie. – Do inwentaryzacji, śledzenia i monitorowania urządzeń IIoT szczególnie przydatne są rozwiązania kontroli dostępu do sieci (Network Access Control, NAC). Umożliwiają one także korzystanie z modelu Zero Trust, który zapewnia dokładne sprawdzanie kto ma dostęp do sieci IT, a w razie wystąpienia zagrożeń także zablokowanie intruza. Z kolei sztuczna inteligencja zasi-
Kluczowe jest śledzenie
uprzywilejowanych użytkowników.
lająca systemy obserwujące sieć (Network Detection and Response – NDR) pozwala skutecznie reagować na atak – tłumaczy Robert Dąbrowski, szef zespołu inżynierów w polskim oddziale Fortinetu. Dobrą praktyką jest centralne zarządzanie tożsamościami i uprawnieniami użytkowników w zakresie dostępu do krytycznych zasobów, ponieważ pozwala na spójną kontrolę dostępu zarówno w środowisku IT, jak i OT. W tym kontekście, rozwiązanie PAM umożliwia kontrolę dostępu do kont administratorów i innych użytkowników posiadających uprzywilejowane uprawnienia poprzez zarządzanie hasłami, uwierzytelnianie wieloskładnikowe oraz ograniczenie dostępu zgodnie z zasadą najmniejszych przywilejów (least privilege). Integracja procedur i narzędzi PAM pomiędzy środowiskiem IT i OT tworzy spójne podejście do zarządzania dostępem uprzywilejowanym, co przyczynia się do zwiększenia bezpieczeństwa i skuteczności ochrony infrastruktury krytycznej.
Sebastian Kwapisz, pełnomocnik zarządu ds. cyberbezpieczeństwa, Asseco Cloud Z perspektywy kompleksowego bezpieczeństwa szczególnie istotne są technologie do monitorowania i segmentacji sieci oraz izolacji poszczególnych obszarów funkcjonowania przedsiębiorstwa. Wymagania dotyczące zdalnego dostępu, agregacji i przetwarzania danych w systemach centralnych skutkują łączeniem obszarów IT oraz OT, co z kolei wystawia OT na cyberzagrożenia. Dlatego tak istotne jest projektowanie systemów bezpieczeństwa IT z uwzględnieniem specyficznych wymagań danego środowiska OT. Dzięki takiemu podejściu jesteśmy w stanie uwzględnić adekwatne środki ochrony przed cyberatakami, od skutecznych metod prewencji, po monitorowanie oraz identyfikowanie zagrożeń.
n Bartosz Dzirba, dyrektor działu technicznego i wiceprezes zarządu, Passus Wielu dostawców rozwiązań cyberbezpieczeństwa i monitoringu IT ma już w ofercie analogiczne rozwiązania do sieci OT. Część ma też rozwiązania uniwersalne, umożliwiające chociażby zasilenie systemów SIEM logami z sieci OT. I chociaż narzędzia są w obu przypadkach podobne, to procedury i ryzyka są już inne. W sieciach IT nie boimy się wprowadzać zmian, jak też mamy systemy do automatycznego zarządzania, SOAR-y i playbooki. W sieciach OT natomiast podejście jest mocno zachowawcze, często ograniczające się do pasywnego nasłuchu i analizy poza ścieżką ruchu, a więc na przykład IDS, nie zaś IPS. Z naszych doświadczeń wynika też, że testy rozwiązań dla OT są przez klientów przeprowadzane z dużo większą starannością, pewnym „czepialstwem” i weryfikacją funkcji krok po kroku.
– Kolejnym kluczowym aspektem jest śledzenie i analiza aktywności uprzywilejowanych użytkowników, co stanowi podstawowy element zapobiegania incydentom i szybkiego reagowania na potencjalne zagrożenia. Użyte rozwiązanie może zapewniać monitorowanie sesji, rejestrację zdarzeń oraz generowanie raportów audytowych, umożliwiających identyfikację nieautoryzowanych lub podejrzanych działań – mówi Mirosław Mycek, Presales Manager w Fudo Security.
W przypadku zarówno infrastruktury IT, jak i OT zapewnienie silnych, rotujących się haseł dla kont uprzywilejowanych i ich bezpieczne przechowywanie w zaszyfrowanej formie zapobiega nieautoryzowanemu dostępowi i ogranicza ryzyko ataków.
Minęły już czasy, gdy temat chmury natychmiast przywoływał obawy związane z bezpieczeństwem. Dziś zdarza się wręcz coś przeciwnego, użytkownicy chmury uważają, że w kwestii zabezpieczeń wszystko zrobi za nich usługodawca.
Rzeczywiście, zwłaszcza w przypadku małych i średnich firm, przeniesienie IT do chmury pozwala zwiększyć poziom cyberbezpieczeństwa. Dzieje się tak, ponieważ operatorzy chmury mogą zapewnić profesjonalne praktyki bezpieczeństwa, których mniejsze firmy, cierpiące na brak personelu technicznego, nie są w stanie stworzyć. Jednakże, trzeba być świadomym tego, że odpowiedzialność za bezpieczeństwo jest współdzielona między operatorem a klientem. Z takim nastawieniem wielu dostawców infrastruktury krytycznej korzysta już z chmury, w takiej czy innej formie.
Sławomir Karpiński, prezes Connect Distribution
Sposobem na zwiększenie bezpieczeństwa sieci OT może być rezygnacja z wykorzystania połączeń VPN na rzecz mechanizmów ZTNA czy też implementacja ochrony antymalware’owej, działającej w oparciu o lokalną AI, reagującą na zagrożenia tylko na podstawie oceny sposobu działania złośliwego oprogramowania, bez połączenia z internetem, gdyż nie wymaga pobrania aktualizacji sygnatur wirusów. Kolejnym przykładem koncepcji z zakresu bezpieczeństwa, która została sprawdzona w świecie IT i znajduje teraz zastosowanie w środowiskach OT jest koncepcja systemów SIEM.
– Dostawca chmury jest odpowiedzialny za infrastrukturę, co obejmuje fizyczne bezpieczeństwo centrów danych, konserwację sprzętu, aktualizacje oprogramowania sprzętowego itd. Może oferować także dodatkowe usługi, które pomagają klientom zapewnić bezpieczeństwo infrastruktury IT, w tym zarządzanie informacjami i zdarzeniami bezpieczeństwa (SIEM), czasami wzbogacane o Centrum Operacji Bezpieczeństwa (SOC). Może to być także zarządzanie dostępem uprzywilejowanym (PAM), ochrona anti-DDoS czy zapora aplikacji internetowych (WAF), powstrzymująca ataki cybernetyczne na strony internetowe i aplikacje – wymienia Kirill Naumenko, CTO GigaCloud.
Na koniec warto podkreślić, że w każdej infrastrukturze, a już szczególnie krytycznej, takiej jak stacje bazowe, serwerownie czy linie produkcyjne, istnieje wymóg zapewnienia ciągłej pracy poprzez zapobieganie awariom zasilania. Aby zagwarantować prawidłową pracę sprzętu elektrycznego standardem wyposażenia stały się zasilacze UPS. Wyposażone w baterie (coraz częściej litowo-jonowe) są kluczowe w ochronie wrażliwego sprzętu w centrach danych, placówkach medycznych, zakładach produkcyjnych, węzłach telekomunikacyjnych czy opiece zdrowotnej. Zapewniają ciągłość pracy sprzętu ratującego życie, kluczowych systemów przetwarzania danych i transakcji finansowych, gwarantując tym samym integralność operacyjną usług kluczowych. n
n Wojciech Kramarz, System Engineer, Exclusive Networks
Niektóre narzędzia są uniwersalne i mogą być użyte w obu domenach, jak na przykład segmentacja sieci, która ogranicza potencjalne szkody w przypadku cyberataku. Na znaczeniu w świecie OT zyskuje również zabezpieczanie stacji końcowych przy użyciu rozwiązań typu EDR. Dodatkową warstwę bezpieczeństwa poprzez izolację i analizę potencjalnych zagrożeń w kontrolowanym środowisku zapewnia natomiast sandbox. Z kolei innowacyjne metody obronne, umożliwiające kreowanie fałszywych celów, nie tylko odstraszają atakujących, ale także pozwalają na analizę ich metod działania. Obrazu rozbudowanego systemu bezpieczeństwa dopełnia analiza i korelacja zdarzeń bezpieczeństwa oraz zautomatyzowane reagowanie.
n Krystian Paszek, Cybersecurity Services Manager, Dagma Bezpieczeństwo IT W pierwszej kolejności należy podkreślić różnice w zdefiniowaniu celu stosowanych zabezpieczeń oraz architektury środowisk. W IT chcemy zapewnić poufność, integralność i dostępność danych oraz systemów informatycznych, gdzie wykorzystywane są między innymi komputery, serwery, bazy danych i aplikacje. Natomiast w ochronie OT skupiamy się głównie na dążeniu do niezawodności i bezpieczeństwa procesów operacyjnych, w tym również bezpieczeństwa ludzkiego, gdzie głównymi elementami są sterowniki PLC, systemy SCADA czy systemy automatyki przemysłowej.
Robert Dąbrowski, szef zespołu inżynierów, Fortinet
Konwergencja sieci OT i IT przyspiesza, bo dzięki niej przedsiębiorstwa mogą identyfikować problemy i zwiększać swoją wydajność operacyjną. Jednakże wraz z tym trendem pojawia się zagrożenie destrukcyjnymi cyberatakami, które mogą być wymierzone w środowiska OT, wcześniej dobrze zabezpieczane. Skuteczne zabezpieczanie infrastruktury krytycznej powinno w równym stopniu skupiać się na ochronie obu środowisk, ponieważ cyberprzestępcy wykorzystają każdą dostępną lukę. Inwestując w rozwiązania OT należy szczególną uwagę zwrócić na możliwość aktualizowania ich oprogramowania oraz wsparcie producenta, który na bieżąco powinien reagować na pojawiające się zagrożenia oraz publikować poprawki.
Kirill Naumenko, CTO, GigaCloud
Dla dostawcy chmury bezpieczeństwo to podstawa. O jego wiarygodności świadczy System Zarządzania Bezpieczeństwem Informacji (ISMS) – poprzez normę ISO 27 001 i jej rozszerzenie na dane osobowe ISO 27 701, co jednocześnie potwierdza zgodność z RODO. Chociaż oba te standardy ISO regulują firmowe procesy biznesowe i mają raczej charakter doradczy, istnieje również standard znacznie bardziej rygorystyczny. Jest nim PCI DSS, dotyczący kwestii technicznych i zawierający ścisłe zasady ochrony danych o operacjach finansowych. PCI DSS ma charakter nakazowy i szczegółowy, dlatego istotne jest, aby dostawcy usług w chmurze faktycznie z niego korzystali, chroniąc wszystkie obsługiwane przez siebie dane klientów.
W obliczu rosnących wyzwań związanych z cyberbezpieczeństwem infrastruktury krytycznej konieczne jest wdrażanie skutecznych rozwiązań do ochrony jej kluczowych zasobów.
Kluczową rolę w ochronie infrastruktury krytycznej odgrywa zarządzanie dostępem uprzywilejowanym (Privileged Access Management, PAM), aby zapewniona była kontrola nad tym, czy z danego konta korzysta właściwa osoba. Rozwiązania należące do tej kategorii to zestaw narzędzi umożliwiających wdrożenie praktyk zarządzania dostępem i monitorowania kont użytkowników korzystających na co dzień z wrażliwych informacji lub infrastruktury IT i OT.
PAM pomaga również w spełnieniu surowych wymogów regulacyjnych dotyczących ochrony danych i audytu bezpieczeństwa, oferując takie funkcje jak zarządzanie hasłami, wieloskładnikowe uwierzytelnianie (MFA) oraz rejestrowanie sesji i ich analiza. Nie tylko zwiększa to bezpieczeństwo infrastruktury krytycznej, ale również poprawia ogólną
higienę cyberbezpieczeństwa, minimalizując ryzyko operacyjne firmy i związane z tym koszty.
Obecnie wielu przedsiębiorców, także zarządzających infrastrukturą krytyczną, korzysta z usług firm trzecich, takich jak sprzedawcy, integratorzy systemów, partnerzy, konsultanci czy agencje regulacyjne. Wielu z nich do współpracy wymaga zdalnego dostępu do serwerów, baz danych, aplikacji internetowych lub urządzeń sieciowych. W tym przypadku skorzystanie z rozwiązań do zarządzania uprzywilejowanym dostępem jest wręcz koniecznością. Umożliwiają one monitoring i kontrolę wszelkich połączeń zewnętrznych, zachowanie zgodności z wymogami prawnymi oraz równoważenie wydajności operacyjnej z potrzebami w zakresie bezpieczeństwa. Ułatwiają także ocenę wydajności zewnętrznych part-
n Bazujący na sztucznej inteligencji model zapobiegający naruszeniom poprzez wykrywanie nietypowego zachowania, analiza potencjalnych zagrożeń i reagowanie w czasie rzeczywistym
n Monitorowanie i nagrywanie sesji
n Zarządzanie dostępem do kont uprzywilejowanych na podstawie reguł polityki bezpieczeństwa
n Wieloskładnikowe uwierzytelnianie (MFA)
n Możliwość opatrzenia zarejestrowanej sesji znacznikiem czasu w celu wykorzystania jako dowód w sprawie o naruszenie bezpieczeństwa
n Automatyzacja procesu zarządzania silnymi, unikalnymi hasłami
n Zwiększenie zgodności z przepisami dzięki spełnieniu wymogów prawnych dotyczących zarządzania dostępem oraz bezpieczeństwem danych
n Bardzo szybkie wdrożenie, nawet w czasie krótszym niż doba
nerów, a także określenie czy spełniają oni lub przewyższają ustalone standardy oraz oczekiwania.
Fudo Enterprise ochroni
Firma Fudo Security ma w ofercie rozwiązanie Fudo Enterprise Intelligent PAM, które świetnie sprawdza się do zastosowania w infrastrukturze krytycznej. Zapewnia użytkownikom bezpieczny dostęp do serwerów, baz danych, aplikacji internetowych i urządzeń sieciowych/OT. Działa zgodnie z regułami polityki Zero-Trust i Just-in-Time, czyli umożliwia łączenie się z aplikacjami i kontami tylko wtedy, gdy jest to niezbędne i tylko do wybranych zasobów. Wyróżnikiem konkurencyjnym rozwiązania Fudo Enterprise jest wykorzystanie mechanizmów sztucznej inteligencji do analizy danych przesyłanych za pomocą protokołów SSH i RDP w celu wykrywania zagrożeń oraz nietypowego zachowania użytkowników. Umożliwiają one przeciwdziałanie sytuacji, w której na przykład dane do logowania do legalnie udostępnionemu podwykonawcy konta zostaną wykradzione i ktoś przejmie nad nim kontrolę. Mechanizmy sztucznej inteligencji – poprzez analizę sposobu korzystania z myszy i klawiatury (jak też porównanie z wcześniej zaobserwowanymi wzorcami) – będą w stanie taką sytuację wykryć znacznie szybciej niż administratorzy i natychmiast przerwać sesję prowadzoną przez nieuprawnioną osobę.
Fudo Enterprise zawiera również narzędzie Analizator Efektywności (Efficiency Analyzer), które umożliwia dogłębne badanie produktywności użytkowników oraz okresów bezczynności w określonym przedziale czasowym. Wbudowany mechanizm analityczny identyfikuje te sesje, które nie spełniają wymaganego poziomu aktywności, co pozwala na podejmowanie strategicznych decyzji optymalizacyjnych. Jest to świetnie narzędzie także do kontroli podwykonawców, kontraktorów oraz firm korzystających z outsourcingu zasobów i usług.
Informacje dla partnerów zainteresowanych współpracą dostępne są na stronie: fudosecurity.com/pl/zostan-partnerem. Bezpłatną konsultację z ekspertem można zamówić na stronie fudosecurity.com.
Działania Trustwave, globalnego dostawcy systemów bezpieczeństwa cyfrowego, są skutecznie wspierane przez zespół badawczy SpiderLabs, który specjalizuje się w wykrywaniu i zwalczaniu nowo pojawiających się zagrożeń.
We wrześniu 2022 r. eksperci z Trustwave SpiderLabs odkryli Rilide, złośliwe rozszerzenie przeglądarki, które stanowiło potencjalne zagrożenie dla użytkowników przeglądarek opartych na Chromium, takich jak Google Chrome czy Microsoft Edge. Rilide umożliwiał atakującym kradzież ciasteczek sesyjnych, danych formularzy, w tym danych uwierzytelniających, jak też schowka oraz kryptowalut.
Sytuacja uległa zaostrzeniu w lutym 2023, kiedy kod źródłowy Rilide został opublikowany na forum w Dark Webie, co przyczyniło się do jego adopcji przez wielu cyberprzestępców. Zespół SpiderLabs zaobserwował od tego czasu kilka różnych technik dostarczania tego złośliwego oprogramowania, co jeszcze podkreśla potrzebę stałej innowacji w firmowych strategiach bezpieczeństwa.
Z kolei w lipcu 2023 r., eksperci Trustwave zidentyfikowali kampanię phishingową, której celem była bardzo znana firma technologiczna. Przestępcy wykorzystali prezentację PowerPoint, która krok po kroku instruowała, jak zainstalować rozszerzenie Rilide, podszywające się pod wtyczkę Palo Alto Global Protect. Metody socjotechniczne stosowane przez atakujących często wykorzystują pozornie niewinne narzędzia, aby przekonać ofiary do instalacji szkodliwego oprogramowania.
Ta wersja rozszerzenia Rilide nie tylko stanowiła znaczące zagrożenie dla bezpieczeństwa z powodu swojej zdolności do przechwytywania wrażliwych danych, ale
Trustwave w ochronie infrastruktury krytycznej
n AppDetectivePRO zapewnia kompleksową ochronę dla aplikacji, umożliwiając identyfikację i eliminację luk w zabezpieczeniach oraz zabezpieczenie wrażliwych danych przed nieautoryzowanym dostępem.
n DataBase Protection to zaawansowane narzędzie do monitorowania i zarządzania bazami danych, zapewniające ochronę przed atakami, kradzieżą danych i innymi zagrożeniami, które mogą występować w środowisku baz danych.
n MailMarshal jest kluczowym elementem w ochronie poczty elektronicznej, filtrowaniu wiadomości i załączników oraz identyfikowaniu potencjalnie niebezpiecznych treści, co pomaga w zapobieganiu atakom phishingowym za pomocą złośliwego oprogramowania.
również zawierała funkcjonalność serwera proxy HTTP. W połączeniu z panelem sterowania Cursed Chrome na swoim serwerze C2, atakujący mogli wykorzystać przeglądarkę użytkownika, aby uzyskać dostęp do prywatnych zasobów sieciowych. Incydenty tego rodzaju podkreślają krytyczne znaczenie proaktywnych środków bezpieczeństwa oraz białego wywiadu dostarczanych przez zespoły takie jak Trustwave SpiderLabs. W kolejnym przypadku z marca 2024 r., zespół SpiderLabs wykrył nową kampanię, w której wtyczka Rilide była wymierzona w organizację sektora publicznego w Australii. Atakujący wdrożyli wieloetapowy loader za pośrednictwem mejli phishingowych, który następnie instalował rozszerzenie Rilide. Atak ten został udaremniony za pomocą Trustwave MailMarshal, który skutecznie zidentyfikował i zablokował e-maile phishingowe, zapobiegając potencjalnej infekcji systemu.
Warto dodać, że zespół SpiderLabs Trustwave znajduje się na czele obrony cybernetycznej, ciągle udoskonalając swoje techniki i narzędzia, które pomagają w identyfikacji nowych zagrożeń. Ciekawsze „znaleziska” oraz wyniki analizy próbek publikowane są w formie blogów, artykułów i prezentacji, które przyczyniają się do poprawy świadomości społecznej na temat zagrożeń związanych z cyberbezpieczeństwem (https:// www.trustwave.com/en-us/resources/ blogs/spiderlabs-blog).
Kontakt dla partnerów: Agnieszka Borkowska-Zaleska, Channel Account Manager, Trustwave, tel. 795 895 100, mejl: aborkowska-zaleska@trustwave.com.
Kontakt ze specjalistami: Daniel Wysocki, Kierownik Działu Cyberbezpieczeństwa, Advatech, tel. 539 526 218, dwysocki@advatech.pl
Wojciech Wojtyła, Sales Director Poland, Infinigate, tel. 22 332 58 04, Wojciech.Wojtyla@infinigate.com.
Platforma AtHoc ułatwia spełnienie wymogu dyrektywy
NIS2 dotyczącego reagowania na incydenty i wdrażania planów ciągłości działania.
BlackBerry AtHoc to platforma komunikacyjna do zarządzania sytuacjami kryzysowymi. Umożliwia szybką i efektywną wymianę informacji podczas incydentów zagrażających bezpieczeństwu publicznemu, klęsk żywiołowych, poważnych wypadków w miejscach pracy lub awarii technicznych oraz innych nagłych wydarzeń wymagających szybkiego działania. Zapewnia koordynację akcji, śledzenie postępów oraz udzielanie instrukcji. Bardzo ważną funkcją tej platformy jest szybkie ustalanie miejsca pobytu pracowników na rozległym terenie, co jest istotne w przypadku ewakuacji lub innych sytuacji, gdy konieczne jest sprawdzenie, czy wszyscy są bezpieczni. Rozwiązanie to umożliwia informowanie społeczeństwa o trudnych sytuacjach poprzez przekazywanie w czasie rzeczywistym komunikatów o awariach i ostrzeżeń za pomocą wielu kanałów komunikacyjnych, takich jak wiadomości e-mail, tekstowe i komunikaty głosowe, alerty na urządzeniach
Dariusz Jarosz, Sales Manager CEE, BlackBerry
mobilnych i w sieciach społecznościowych, a nawet wyświetlanie ostrzeżeń na miejskich tablicach informacyjnych. AtHoc może być integrowany z rozwiązaniami do monitorowania bezpieczeństwa publicznego i kontroli dostępu czy zarządzania incydentami, co pozwala na stworzenie zintegrowanego środowiska reagowania na sytuacje kryzysowe. Platforma BlackBerry AtHoc jest szeroko stosowana w różnych branżach, w tym w sektorze administracji publicznej, transporcie, służbach mundurowych, ochronie zdrowia, przemyśle (energia, media, górnictwo), instytucjach finansowych, dużych przedsiębiorstwach oraz placówkach edukacyjnych. Jest to idealne narzędzie dla podmiotów, które w swojej strategii mają zapisaną odpowiedzialność za pracowników oraz koncentrowanie się na ich bezpieczeństwie. Świetnie sprawdza się też w firmach, które ze względu na charakter swojej pracy wymagają ujednoliconych regulacji zarządzania personelem.
Platforma BlackBerry AtHoc to rozwiązanie dla całego przedsiębiorstwa, które dzięki temu, że wykorzystywane jest jako krytyczny system powiadamiania we wszystkich jednostkach danej organizacji, uratowało niejedno życie w kryzysowych sytuacjach. Dlatego jest tak popularne na Zachodzie, gdzie – we współpracy z innymi złożonymi systemami informatycznymi – pomaga w tworzeniu inteligentnych miast. Umożliwia też kadrze kierowniczej szybsze podejmowanie decyzji, co ogranicza negatywny wpływ krytycznej sytuacji, przy jednoczesnym zapewnieniu dostosowania się do korporacyjnych zasad „obowiązku zachowania staranności” („duty of care” policy).
AtHoc gwarantuje kompleksowy przegląd różnych aspektów dotyczących krytycznej sytuacji i ułatwia jej rozwiązanie. Jest to o wiele bardziej skuteczny system niż alerty
n Administrator IT powiadamia pracowników o awarii sieci IT, prosząc ich o pracę z domu, aby uniknąć utraty czasu i produktywności.
n Menedżer ds. bezpieczeństwa wysyła wstępnie zdefiniowane wiadomości pracownikom i mieszkańcom regionu podczas występowania intensywnych zjawisk pogodowych.
n Specjalista ds. opieki zdrowotnej zapewnia szczegółowe instrukcje dla personelu odpowiedzialnego za reagowanie w sytuacji kryzysowej.
n Koordynator zmian wysyła wiadomości do określonych grup, aby zapewnić siłę roboczą podczas intensywnego okresu biznesowego.
RCB, które tylko informują o anomaliach pogodowych lub innych nietypowych wydarzeniach, ale nie zapewniają wsparcia w ocenie skutków zjawiska i koordynacji rozwiązania problemu. Platforma BlackBerry natomiast umożliwia tworzenie zaawansowanych scenariuszy alarmowych, które mogą być automatycznie uruchamiane w odpowiedzi na określone zdarzenia. Pozwala to na szybką reakcję, bez potrzeby ręcznej interwencji. Rozwiązanie to zostało zaprojektowane tak, aby sprostać potrzebom różnorodnych podmiotów – od małych zespołów po duże przedsiębiorstwa i agencje rządowe. Można je łatwo skalować, dodając kolejne moduły lub rozszerzając liczbę użytkowników. Bogata funkcjonalność nie powoduje jednak, że narzędzie to jest trudne w obsłudze – wręcz przeciwnie, producent zadbał o to, aby jego interfejs był jak najbardziej czytelny i zapewniał możliwość skutecznego działania w stresujących sytuacjach.
Kontakt dla partnerów: Dariusz Jarosz, Sales Manager CEE, BlackBerry djarosz@blackberry.com
Nowy zasilacz UPS on-line doskonale sprawdza się w ochronie sprzętu o znaczeniu krytycznym. Dzięki zastosowaniu baterii litowo-żelazowo-fosforanowych rozwiązanie cechuje wyjątkowa elastyczność.
owerWalker to marka należąca do BlueWalker, firmy założonej w 2004 roku w niemieckim Neuss. Ten dostawca zasilaczy UPS, regulatorów napięcia i inwerterów oznaczonych logiem PowerWalker – legitymujący się 20-letnim doświadczeniem w tym segmencie rynku – oferuje swoje produkty w całej Europie. Jednocześnie jest blisko swoich partnerów i klientów, zapewniając im dostosowane, spełniające indywidualne potrzeby rozwiązania. Dysponując szeroką gamą produktów, wspiera klientów między innymi za pośrednictwem infolinii serwisowej.
Portfolio produktów PowerWalker to obecnie ponad 300 modeli – od urządzeń domowych, poprzez biurowe i serwerowe, aż po rozwiązania zaprojektowane dla przemysłu. Dzięki bogatej ofercie akcesoriów i modułów bateryjnych rozwiązania PowerWalker sprawdzają się doskonale w wielu zastosowaniach. Co istotne, produkty przechodzą dokładny, czteroetapowy proces kontroli jakości – podczas produkcji podzespołów, w trakcie montażu, a potem testów gotowego produktu i przed wprowadzeniem na rynek. W efekcie PowerWalker to rozwiązania o wysokiej jakości, które wyróżnia na rynku także ich bardzo atrakcyjna cena.
n EVL – pakiet: zasilacz UPS + moduł bateryjny z akumulatorami litowo-jonowymi BP, w tym jeden moduł akumulatora LiFe (wymaga karty BMS),
n EVA – pakiet: zasilacz UPS + moduł bateryjny z akumulatorami ołowiowymi BP,
n EVS – zasilacz UPS bez akumulatora.
Producent stale aktualizuje i udoskonala istniejące już linie produktowe, dzięki czemu może rosnąć i rozwijać się wraz z partnerami i klientami. Wprowadza też na rynek nowe generacje zasilaczy, tworząc ofertę niezwykle konkurencyjną do systemów znanych producentów. Przykładem takiego rozwiązania, cechującego się doskonałym stosunkiem ceny do jakości, jest seria PowerWalker EVS. Ta nowa generacja zasilaczy UPS oferuje długi czas podtrzymania – dzięki zastosowaniu baterii LiFePO4, która ma znacząco mniejszą masę i wymiary w porównaniu do baterii kwasowo-ołowiowych. Zastosowana topologia podwójnej konwersji (online) gwarantuje najwyższy poziom bezpieczeństwa, a wyspecjalizowane układy zapewniają współczynnik mocy (Power Factor) na poziomie > 0,99. Oczywiście, wartość PF będzie też zależeć od podłączonych urządzeń odbiorczych. Wszelkie informacje o stanie UPS-a są widoczne są na wbudowanym wyświetlaczu LCD. Wyświetlacz umożliwia także szybką konfigurację urządzenia.
Ponieważ PowerWalker EVS 5kVA to zasilacz UPS on-line z technologią podwójnej konwersji, świetnie sprawdza się w ochronie sprzętu o znaczeniu krytycznym. Użyta topologia umożliwia pracę z siecią elektroenergetyczną o napięciu od 176 do 280 V przy obciążeniu na poziomie 100 proc., zapewniając na wyjściu UPS-a czystą sinusoidę 230 V ±1 proc. o częstotliwości 50 ±0,1 Hz. Gwarantuje to nieprzerwaną pracę urządzeń pamięci masowych, systemów IT w bankach czy systemów monitoringu CCTV.
Warto wspomnieć, że Seria 5000 EVS to bardzo elastyczne rozwiązanie. Większe moce zapewnia równoległa praca kilku zasilaczy (do 9 jednostek o mocy 5 kVA każda), korzystających ze wspólnych modułów bateryjnych. W innym wariancie, przy użyciu co najmniej trzech jednostek, można zbudować trójfazowy zasilacz UPS. Pomimo swojej niewielkiej masy (tylko 14,2 kg) zasilacz PowerWalker EVS 5kVA ma bardzo wydajną ładowarkę (do 60 A). Może ona obsługiwać nie tylko tradycyjne akumulatory kwasowo-ołowiowe, ale – co istotne – zapewnia kompatybilność z pakietami akumulatorów litowych. Ma to znaczenie chociażby w przypadku ochrony aplikacji, które wymagają tworzenia kopii zapasowych dużych zbiorów danych.
Zasilacze serii PowerWalker EVS mogą być wyposażone w specjalne rozwiązanie do magazynowania energii, którym jest system litowo-żelazowo-fosforanowych akumulatorów PowerWalker. Ten modułowy i skalowalny (do 10 modułów) system baterii LiFePO4 jest kompatybilny ze wszystkimi falownikami 48 V marki PowerWalker. Jak stwierdzono w praktyce, przy zwiększaniu liczby modułów bateryjnych dla danego obciążenia czas podtrzymania wzrasta niemal liniowo. System magazynowania energii z bateriami LiFePO4 ma wyraźnie mniejszą masę i wymiary od standardowych akumulatorów kwasowo-ołowiowych (zob. ramka obok). W dużym stopniu eliminuje to problemy z obciążalnością stropów w istniejących budynkach, które łatwo zaadaptować na potrzeby serwerów wykorzystywanych do przetwarzania brzegowego (edge computin-
gu), chronionych przez zasilacz UPS o odpowiednio długim podtrzymaniu bateryjnym.
Oferowane moduły bateryjne z akumulatorami LiFePO4 wyposażone są w ogniwa, których cykl życia to co najmniej 10 lat. W tym czasie są one w stanie obsłużyć nawet 8000 cykli ładowania. Warunkiem jest tu jednak rozładowywanie akumulatorów do 60 proc. pojemności prądem 1 C i ładowaniu prądem 0,2 C. W przypadku głębokiego rozładowania (do 90 proc. pojemności) prądem 1 C i ładowaniu prądem 0,2 C, akumulatory zapewniają co najmniej 2000 cykli ładowania. W celu zwiększenia żywotności baterii, wbudowaną w zasilacz ładowarkę wyposażono w system optymalizacji procesu ładowania i rozładowywania akumulatorów (OBM – Optimized Battery Management).
Dodatkowo technologia LiFePO4 z wbudowanym w moduły bateryjne systemem zarządzania bateriami (BMS – Battery Management System) zapewnia niezawodność i bezpieczeństwo, gdyż w trakcie ładowania nie jest wydzielany wodór, który wraz z powietrzem mógłby wytworzyć atmosferę wybuchową. Ogniwa LiFePO4 są praktycznie niepalne, dopóki ich obudowa nie zostanie przedziurawiona mechanicznie.
Nową serię zasilaczy wyróżnia też ładowarka 60 A, która pozwala na pracę z zewnętrznymi stelażami bateryjnymi, w tym z bateriami LiFePO4. Rozwiązanie to działa z technologią OBM, która znacznie wydłuża żywotność
podłączonych baterii. Co ważne, jednostki UPS mogą współdzielić podłączone moduły Battery Pack. W efekcie zasilacz wraz z bankiem energii PowerWalker LiFe Battery System 48-100 jest doskonałym rozwiązaniem do zastosowań biznesowych. Przykładowo, może zasilać bankomaty, urządzenia pamięci masowych, systemy IT w bankach oraz wdrożenia monitoringu CCTV.
Kolejną zaletą zaawansowanej ładowarki jest długi czas podtrzymania. Zasilacz ma też funkcję zimnego startu bez podłączenia do sieci zasilającej, automatyczny bezpiecznik, tryb ECO, EPO – Emergency Power Off oraz listwę przyłączeniową. Do komunikacji mogą być stosowane wbudowane porty: RS-232, USB oraz gniazdo na kartę komunikacyjną.
Chociaż moc wyjściowa UPS wynosi 5 kW, to można ją zwiększać uruchamiając równolegle do 9 jednostek, co potencjalnie zwiększy dostępną moc do 45 kW! Jednostki zasilaczy awaryjnych są jednofazowe, ale można je podłączyć w konfiguracji trójfazowej, gdy pracują co najmniej 3 jednostki.
Ważnym dodatkiem do systemu baterii LiFePO4 jest karta PowerWalker BMS. Zapewnia ona komunikację pomiędzy systemem baterii LiFe a podłączonym zasilaczem UPS, umożliwiając skonfigurowanie: napięcia ładowania, prądu ładowania, napięcia odcięcia akumulatora oraz maksymalnego prądu rozładowania – zgodnie z parametrami akumulatora litowego.
Wsparcie dla partnerów
Niemiecki producent dba o to, by na rynek trafił niezawodny produkt. Z kolei Impakt,
n szybkie ładowanie, uzyskanie 90 proc. poziomu naładowania baterii w 1–2 godziny (z 1 modułem Life Battery System 48-100), n wbudowany system zarządzania baterią (BMS) – optymalizuje wykorzystanie baterii, n głębokość rozładowania do 90 proc. (DoD), n oszczędność do 40 proc. cennej przestrzeni przy zaledwie 40 proc. masy zwykłego akumulatora kwasowo-ołowiowego, n bezpieczne użytkowanie akumulatorów LiFePO4 dzięki zastosowaniu systemu OBM.
wyłączny przedstawiciel PowerWalker w Polsce, gwarantuje zarówno użytkownikom, jak i resellerom bezpośrednie wsparcie i zaangażowanie, nawet w sytuacji, gdy przedmiotem transakcji jest niewielka liczba urządzeń.
Jak już wspomniano, cechą wyróżniającą zasilacze awaryjne oferowane pod marką PowerWalker jest to, że wszystkie te urządzenia przechodzą czterostopniową kontrolę jakości – w czasie produkcji, montażu, w trakcie postprodukcji, a także przy dostawie do użytkownika końcowego. Dzięki temu zapewniona jest ich bardzo wysoka jakość oraz niezawodność, natomiast użytkownicy zyskują gwarancję, że urządzenie, które ma zabezpieczać całą infrastrukturę przedsiębiorswa, samo też będzie bezpieczne. Impakt jest odpowiedzialny za ten czwarty etap – przeprowadza dodatkową kontrolę jakości urządzeń, które mają trafić do klientów.
Impakt odpowiada także za serwis oraz pomoc techniczną dla klientów i partnerów w Polsce. Dysponuje magazynem części zamiennych do wszystkich modeli UPS-ów, prowadzi różnego typu konsultacje biznesowe i techniczne oraz pomaga w doborze sprzętu.
Dodatkowe informacje: Bartłomiej Kołodziej, PowerWalker Brand Manager, Impakt, bartlomiej.kolodziej@impakt.com.pl
Dyrektywa NIS2 spowoduje, że operatorzy infrastruktury krytycznej będą zmuszeni do skrupulatnej weryfikacji obowiązujących u nich reguł polityki bezpieczeństwa i zastosowania mechanizmów ułatwiających prowadzenie audytów.
Przedsiębiorstwa z branży produkcyjnej trafiły pod nasilający się ogień cyberataków – coraz bardziej wyrafinowanych i wystawiających na próbę posiadane firmowe procedury cyfrowego bezpieczeństwa. Sytuację utrudnia fakt, że w wielu przypadkach zasady postępowania nie zostały zaprojektowane w sposób optymalny pod kątem wymagań, charakterystycznych dla systemów technik operacyjnych (OT).
Tymczasem kolejnym wyzwaniem okazują się także nowe regulacje, takie jak NIS2. Wprawdzie już aktualna edycja dyrektywy NIS ma bezpośredni wpływ na działalność firm z branży o znaczeniu krytycznym, ale teraz objęte nią będą również podmioty o statusie dostawców dla tych właśnie przedsiębiorstw. Spełnienie wielu wymogów nałożonych przez nowe prawo umożliwiają rozwiązania do zarządzania uprzywilejowanym dostępem (Privileged Access Management, PAM). Zapobiegają one nieautoryzowanemu dostępowi do danych lub systemów, jednocześnie umożliwiając uprawnionym jednostkom pracę bez utraty wydajności. PAM umożliwia także śledzenie zdalnych sesji oraz ułatwia prowadzenie audytów bezpieczeństwa.
cech. Otóż sieci przemysłowe są rozdrobnione i tworzą dużą liczbę połączeń między różnymi maszynami, systemami sterowania i ludźmi, którzy zarządzają tymi maszynami. A ponieważ ochrona odpowiednich systemów IT i OT stanowi zazwyczaj dwa odrębne obszary, mogą w tym zakresie powstawać martwe punkty.
Rozszerzono
listę firm, które są objęte przepisami dyrektywy NIS2.
Coraz częściej zdalny dostęp do sieci mają również dostawcy czy personel odpowiedzialny za działania konserwacyjne, bądź zarządzający systemami sterowania produkcją. To oznacza konieczność dostosowania strategii bezpieczeństwa do nowych realiów oraz wprowadzenia najwyższej jakości zabezpieczeń. Na to właśnie naciska nowe rozporządzenie NIS2, które – wobec obowiązującego już od dawna NIS – rozszerza listę firm, których dotyczy.
NIS2 obejmuje teraz również średnie i duże przedsiębiorstwa w tak zwanych „sektorach krytycznych”, a także „kluczowe” i „ważne podmioty”. NIS2 dotyczy zarządzania cyfrowym ryzykiem, ujawniania luk w zabezpieczeniach i ochrony łańcuchów dostaw. Przełomową regulacją natomiast jest to, że zgodność z zapisami rozporządzenia oczekiwana jest również od dostawców objętych nim firm, chociaż wielu nie jest jeszcze tego świadomych.
odpowiednie środki techniczne i organizacyjne w celu wzmocnienia ochrony ich krytycznych środowisk IT i OT. Dotyczy to przede wszystkim kwestii związanych z przydzielaniem praw dostępu uprzywilejowanym użytkownikom.
Szczególnie w złożonych systemach OT, które charakteryzują się dużą liczbą procesów obejmujących inteligentne urządzenia, konieczne jest zdefiniowanie, które grupy otrzymują określone uprawnienia oraz możliwość scentralizowanego i bezpiecznego zarządzania nimi. Zasadniczo prawo dostępu i uprawnienia są przypisywane tylko użytkownikom, których rola została wstępnie zdefiniowana w polityce bezpieczeństwa firmy. Dzięki takiemu podejściu użytkownicy inicjujący zdalne połączenia są kontrolowani przez trzystopniowy proces bezpieczeństwa składający się z identyfikacji, uwierzytelniania i autoryzacji.
Aby udowodnić zgodność z dyrektywą NIS2 i innymi wymogami dotyczącymi bezpieczeństwa, narzędzia PAM zapewniają również rejestrowanie sesji zdalnego dostępu z różnym poziomem szczegółowości (w tym kategoryzowanie ich do różnych klas ryzyka, które wymagają specjalnych środków bezpieczeństwa). Zapewnia to identyfikację i śledzenie nieautoryzowanego dostępu oraz umożliwia zastosowanie dalszych środków bezpieczeństwa.
Nieodpowiednio chronione maszyny z kategorii OT mogą zostać podstępnie wykorzystane jako brama do firmowej sieci, dając hakerom dostęp do poufnych danych oraz możliwość sparaliżowania procesu produkcyjnego. Potencjalne zagrożenie wynika z charakterystycznych dla Przemysłu 4.0
Aby zapewnić zgodność z dyrektywą NIS2, przedsiębiorstwa muszą prowadzić regularne oceny ryzyka, posiadać solidną, skalowalną politykę bezpieczeństwa oraz wdrożyć
Więcej informacji o kluczowej roli rozwiązań PAM w zabezpieczaniu środowisk IT i OT w infrastrukturze krytycznej przedstawionych zostanie podczas organizowanego przez Wallix bezpłatnego webinarium (19 czerwca 2024 r., godz. 10–11).
Kontakt dla partnerów: Artur Świacki, inżynier ds. przedsprzedaży, Grupa Wallix aswiacki@wallix.com
SOCRadar, amerykański dostawca platformy do analizy cyfrowych zagrożeń, zadebiutował na polskim rynku w ścisłej współpracy z iIT Distribution Polska.
Założony w 2019 roku SOCRadar szybko opanował ważną niszę w branży cyberbezpieczeństwa, oferując bezkonkurencyjną platformę do analizy zagrożeń (ang. Threat Intelligence). Obsługując zróżnicowaną klientelę, SOCRadar zapewnia wsparcie dla ponad 20 tys. firm, nawiązując współpracę z ponad 350 organizacjami w przeszło 120 krajach.
Usługi SOCRadar w zakresie cyberbezpieczeństwa dostosowane są do wykrywania, analizowania i reagowania na wiele cyberzagrożeń, w tym ransomware, naruszenia bezpieczeństwa poczty elektronicznej, phishing, bezpieczeństwo w chmurze i ataki na łańcuchy dostaw. Producent ten wyróżnia się przy tym technologią i podejściem do cyberbezpieczeństwa, koncentrując się na działaniach proaktywnych, a nie reaktywnych. Koncepcja Extended Threat Intelligence (XTI) pozwala na głębsze spojrzenie na potencjalne zagrożenia, wykraczające poza tradycyjne wskaźniki narażenia (ang. Indicator of Compromise lub IOC) i obejmujące prognozy oraz alerty wyprzedzające.
A jako że SOCRadar ceni sobie zdemokratyzowane podejście do analizy zagrożeń, platforma tej marki jest dostępna w ramach darmowej wersji freemium, jak też dostępne są bezpłatne narzędzia służące do testowania poziomu firmowych zabezpieczeń. To jeden z szeregu powodów, dla których reputacja SOCRadar w zakresie doskonałości oferowanych usług jest poparta silnym uznaniem ze strony społeczności technologicznej, o czym świadczy ocena 4,9/5 w serwisie Gartner Peer Insights. Wśród klientów firmy są szanowane organizacje reprezentujące wiele branż, jak Allianz, Greenpeace, Ford, Mastercard, SOCAR, Sony, Toyota,
ING Bank, Volvo, Skyscanner i Santander. Współpraca ta podkreśla zdolność dostarczania najwyższej klasy rozwiązań Cyber Threat Intelligence w różnych sektorach.
funkcjom monitorowania i wykrywania zagrożeń. To kluczowe narzędzie umożliwia identyfikację i ograniczenie negatywnych skutków obecności cyberzagrożeń pochodzących z ciemnych zakątków internetu.
Platforma SOCRadar składa się z jednej platformy, pięciu pakietów i 25 modułów. Fundamentem całej oferty jest Extended Threat Intelligence (XTI), czyli wywiad dotyczący cyberzagrożeń wzbogacony o: zarządzanie zewnętrzną powierzchnią ataku, ochronę marki, analizę zagrożeń w łańcuchu dostaw oraz monitorowanie Dark Web. To unikalne połączenie zostało zaprojektowane w celu zwiększenia możliwości zespołów centrów ds. bezpieczeństwa informacji (SOC), zapewniając im przydatne, wolne od fałszywych alarmów dane wywiadowcze, które cechuje wysoki kontekst związany z konkretnymi środowiskami.
SOCRadar zapewnia kompleksowe działanie, od monitorowania sieci zindeksowanej i Dark Web po analizę forów podmiotów stanowiących zagrożenie, kanałów komunikacji hakerów oraz platform mediów społecznościowych. Monitorowanie zasobów cyfrowych, ochrona danych uwierzytelniających i wykrywanie luk w zabezpieczeniach mają kluczowe znaczenie dla utrzymania bezpiecznej obecności w sieci.
Dark Web to celowo ukryta część internetu, niedostępna za pośrednictwem standardowych przeglądarek internetowych, która jest znana z ochrony prywatności i bycia rajem dla nielegalnych działań. Dark Web Monitoring firmy SOCRadar zapewnia wgląd w tę sferę „oświetlając zaciemniony cyfrowy krajobraz” dzięki zaawansowanym
SOCRadar, wiodący dostawca zaawansowanych rozwiązań w zakresie analizy zagrożeń, z dumą ogłasza podpisanie umowy dystrybucyjnej z iIT Distribution Polska. To partnerstwo podkreśla strategiczny cel obu firm, aby zaoferować lokalnym firmom dostęp do najnowocześniejszych rozwiązań w zakresie analizy zagrożeń cybernetycznych i wzmocnić ich obecność na polskim rynku. – Jesteśmy przekonani, że współpraca z iIT Distribution Polska otworzy nowe horyzonty dla rozwoju rynku cyberbezpieczeństwa w Polsce. Ta właśnie umowa dystrybucyjna jest kluczowym krokiem w naszej strategii umacniania pozycji na polskim rynku – mówi Ergun Ozkaya, dyrektor ds. sprzedaży i kanałów dystrybucji na Europie w SOCRadar. iIT Distribution Polska to dystrybutor z wartością dodaną (VAD), specjalizujący się w rozwiązaniach z zakresu infrastruktury IT i cyberbezpieczeństwa, dostarczający szerokie spektrum zaawansowanych rozwiązań technologicznych. Firma współpracuje z wieloma partnerami i dostawcami, aby zapewnić kompleksowe podejście do realizacji projektów cyfrowych o różnej skali.
Kontakt dla partnerów: Mateusz Wepa, General Country Manager, iIT Distribution Poland m.wepa@iit-d.pl
Partnerzy firmy EVER mają zapewnione pełne wsparcie producenta przy rozpoznawaniu potrzeb klientów w zakresie gwarantowanego zasilania, weryfikacji możliwości instalacji UPS-a, a także jego wdrożenia oraz serwisowania.
Sprzedaż zaawansowanych zasilaczy awaryjnych może stanowić wyzwanie, szczególnie w przypadku resellerów, którzy na co dzień skupiają się na innym rodzaju asortymentu. Dlatego EVER wprowadził specjalny proces wsparcia swoich partnerów handlowych, aby zainteresować ich sprzedażą wysokomarżowych (w porównaniu z małymi UPS-ami) instalowalnych rozwiązań jedno- i trójfazowych. W ramach tego procesu handlowcy EVER przejmują na siebie cały ciężar doboru rozwiązania dla klienta wskazanego przez resellera – jego rolą staje się głównie pozyskanie klienta na rozwiązanie gwarantujące ciągłość zasilania oraz przeprowadzenie rozliczeń. Poznanie potrzeb, pomiary w siedzibie klienta, dobór odpowiedniego rozwiązania, dostawa, instalacja, uruchomienie, szkolenie i opieka posprzedażowa – za to wszystko odpowiada EVER, a atrakcyjna prowizja od sprzedaży trafia do resellera. Przy tego typu projektach producent gwarantuje – obok wsparcia technicznego, handlowego, IT czy serwisowego – także, a może przede wszystkim, specjal-
Sebastian Warzecha, dyrektor handlowy, EVER
ną cenę, nawet jeśli przedmiotem sprzedaży i wdrożenia jest tylko jeden UPS.
Proces realizacji projektów przez inżynierów EVER u klientów
Aby zapewnić kompleksową obsługę klienta przy skomplikowanych i bardziej wymagających projektach, angażowany jest zespół składający się z przedstawicieli EVER z działów: handlowego, technicznego, serwisu, a czasami także badań i rozwoju. Dzięki współpracy z klientem końcowym i resellerem mogą oni czerpać korzyści z posiadanego przez producenta doświadczenia, a jednocześnie wzbogacać swoją wiedzę. Rola takiego zespołu jest szczególnie ważna w przypadku, gdy w sieci elektrycznej klienta występują znaczące zakłócenia, problemy z tzw. „miękką siecią”, sytuacje wymagające krótkotrwałego, ale dużego zapotrzebowania na pobór mocy, czy też pojawiają się niechciane, dodatkowe koszty związane z mocą bierną. Na te i podobne problemy eksperci firmy EVER znajdą rozwiązanie gwarantujące niezawodność i bezpieczeństwo działania całego systemu zasilania, a także dające realne oszczędności finansowe, będące efektem racjonalnego gospodarowania energią. Współpraca z poznańskim producentem jest nieoceniona zwłaszcza przy dostarczaniu rozwiązań zaawansowanych, w przypadku których wymagana jest dodatkowa wiedza i doświadczenie, a także odpowiednie uprawnienia elektryczne. Mowa przede wszystkim o trójfazowych rozwiązaniach zasilania. Dobrze jest, jeśli ich instalacja jest poprzedzona wywiadem technicznym, a zwłaszcza w przypadku Powerline Green Pro 33, powinna zostać zrealizowana przez autoryzowany serwis EVER. W razie konieczności serwisanci przekonują też inwestorów do instalacji dodatkowych akcesoriów, jak chociażby bypass zewnętrzny, który jest nieodzownym (choć często pomijanym przez kupujących) elementem systemu zasilania.
n Opracowanie bilansu mocy na podstawie listy zasilanych urządzeń
n Wizja techniczna w siedzibie klienta
n Pomiar obciążenia w siedzibie klienta
n Opracowanie raportu z wizji oraz pomiarów (w przypadku usługi płatnej)
n Dopasowanie, a także rekomendacja rozwiązań dostosowanych do wymagań klienta (w przypadku pomiarów bezpłatnych)
n Wycena niestandardowej gwarancji i opcji serwisowych
n Dostawa i podłączenie rozwiązania
n Przeszkolenie użytkowników z obsługi sprzętu
n Obsługa posprzedażna (przeglądy, serwis, nowe urządzenie)
Dyrektywa NIS2 to nie tylko szereg obowiązków, ale też szansa
na poprawę cyfrowej ochrony w firmach i instytucjach.
Dyrektywa NIS2, która wejdzie w życie 17 października 2024 r., znacznie poszerza krąg podmiotów objętych unijnymi regulacjami w zakresie bezpieczeństwa cyfrowego, zwiększając przy tym stosowne wymagania. Jednak nadal jeden na czterech przedsiębiorców w Polsce nie zdaje sobie sprawy z tego, że nowe regulacje dotyczą również jego firmy – wynika z badania CSO Council. Dla firm z kanału sprzedaży IT jest to więc szansa na edukację klientów w zakresie regulacji i zapewnienie im odpowiedniego wsparcia. W tym kontekście wszyscy zainteresowani powinni mieć świadomość, że nowa dyrektywa koncentruje się na zabezpieczeniu łańcucha dostaw, usprawnieniu obowiązków sprawozdawczych, zaostrzeniu nadzoru i zarządzaniu ryzykiem.
– Zarządzanie ryzykiem w łańcuchu dostaw może stanowić wyzwanie, zwłaszcza dla małych i średnich firm, które często nie mają wystarczających zasobów IT. Przykładowo, w USA w 2022 roku odnotowano o 40 proc. więcej ataków na łańcuchy dostaw niż opartych na złośliwym oprogramowaniu –zauważa Beniamin Szczepankiewicz, analityk laboratorium antywirusowego ESET.
NIS2 obejmuje swoim zakresem organizacje z tak kluczowych sektorów, jak energetyka, transport, administracja publiczna,
bankowość, opieka zdrowotna, zaopatrzenie w wodę, odprowadzanie ścieków, infrastruktura cyfrowa, zarządzanie ICT (B2B), przestrzeń kosmiczna. Z kolei do sektorów ważnych zaliczono dostawców usług cyfrowych, przemysł spożywczy, chemiczny, pocztę i usługi kurierskie, gospodarkę odpadami, produkcję oraz badania naukowe. Regulacje dotyczą średnich (od 50 osób i 10 mln euro obrotu) i dużych firm. Za ich naruszenie podmiotom „kluczowym” grozi kara do 10 mln euro lub 2 proc. rocznego obrotu, a tym „ważnym” do 7 mln euro lub 1,4 proc. obrotu.
Trzeba też zdawać sobie sprawę z tego, że ta lista realnie jest o wiele dłuższa – nie tylko podmioty „kluczowe” i „ważne”, ale również te, które znajdują się w ich łańcuchu dostaw, muszą dostosować się do zaostrzonych wymagań.
Według NIS2 konieczne będzie raportowanie ataków, w tym wykorzystania przez przestępców luk w zabezpieczeniach i naruszenia danych. Przedsiębiorstwa muszą wdrożyć polityki zarządzania poszczególnymi incydentami, analizę ryzyka i bezpieczeństwa systemów IT, jak też plany ciągłości działania w razie problemów. Rzecz jasna, długa lista nowych potrzeb wymaga czasu, środków, a przede wszystkim specjalistów.
SZEŚĆ PYTAŃ, które pozwolą wstępnie ocenić, czy firma jest gotowa na NIS2
n Czy posiadasz aktualny spis wykorzystywanego w firmie sprzętu i oprogramowania?
n Czy sprawdzasz dostępność aktualizacji oprogramowania minimum raz w tygodniu?
n Czy wiesz, jakie ryzyko wiąże się ze sprzętem i oprogramowaniem używanym w Twojej organizacji?
n Czy jesteś świadomy zmian legislacyjnych i dyskusji nad nowymi przepisami?
n Czy ustaliłeś, jakie ryzyko podejmuje Twoja organizacja w środowisku cyfrowym i czy podejmujesz przemyślane decyzje, aby określić swoją gotowość do poradzenia sobie z tym ryzykiem?
n Czy regularnie oceniasz środki, procedury i narzędzia niezbędne do ograniczania i kontrolowania zidentyfikowanych zagrożeń cybernetycznych pod względem ich przydatności dla Twojej organizacji?
Dla specjalistów ds. cyberbezpieczeństwa, w związku z nadchodzącymi nowymi regulacjami, coraz większego znaczenia nabiera stosowanie zautomatyzowanych, kompleksowych narzędzi. A konkretnie takich, które można implementować w krótkim czasie, by terminowo przybliżyć organizacje do spełnienia wymagań NIS2. W cenie będą choćby rozwiązania zapewniające ciągłość działania, obsługę incydentów, ochronę łańcucha dostaw, analitykę, szyfrowanie, kontrolę dostępu i edukację. Każde z nich znajduje się w ofercie dystrybucyjnej DAGMA Bezpieczeństwo IT.
Jednym z przykładów jest pakiet ESET PROTECT Elite i wchodzące w jego skład narzędzia, w tym ESET Inspect – do rozszerzonego wykrywania i reagowania (XDR). Pozwala ono na identyfikację nietypowego zachowania i naruszeń bezpieczeństwa firmowej sieci, automatycznie reagując na zdarzenia i podejmując działania zaradcze. Ochronę poprawi również zarządzanie podatnościami w systemach operacyjnych i aplikacjach z pomocą ESET PROTECT Elite, które umożliwia automatyczne (lub ręczne) aktualizacje na stacjach roboczych w przedsiębiorstwie. Koniecznością w firmach staje się też uwierzytelnianie wieloskładnikowe, chroniące je przed używaniem słabych haseł i nieupoważnionym dostępem do systemów.
Dodatkowe informacje: Bartosz Różalski, Senior Product Manager ESET, DAGMA Bezpieczeństwo IT, Rozalski.b@dagma.pl
Zdaniem analityków wzrost na polskim rynku smart home powinien być w najbliższych latach szybszy niż ten globalny.
n Krzysztof Pasławski
Przychody na polskim rynku smart home w 2024 r. mają osiągnąć poziom 538,6 mln dol., co oznaczałoby wzrost o 19,7 proc. rok do roku – wynika z danych Statista. Co istotne, eksperci spodziewają się dalszego dwucyfrowego wzrostu w kolejnych latach, przeciętnie o 13,24 proc. rocznie w okresie 2024–2028. Jeśli analitycy mają rację, to wartość sprzedaży na polskim rynku inteligentnego domu powiększy się w ciągu 4 lat o kolejne około 1,3 mld zł, do poziomu 3,55 mld zł. W tym czasie krajowa „penetracja” rozwiązań smart home ma wzrosnąć dwukrotnie, do 28,4 proc. gospodarstw domowych w 2028 r. – przewiduje Statista.
– Zainteresowanie rozwiązaniami smart home rośnie z miesiąca na miesiąc. Sprzyja temu kilka czynników. Po pierwsze, cały segment smart przestaje być dla konsumentów czymś obcym. Obserwują, jak takie rozwiązania sprawdzają się u znajomych czy rodziny i na tej podstawie podejmują decyzję o zakupie podobnych produktów dla siebie.
Rośnie świadomość korzyści związanych ze smart home.
Po drugie, urządzenia smart stają się coraz łatwiejsze w montażu i konfiguracji, a także bardziej przystępne cenowo – mówi Iwo Ostalski, Marketing Manager TP-Link. Do tego dochodzi czysto ludzkie pragnienie wygody w korzystaniu z domowych sprzętów, jak też poprawy bezpieczeństwa. Co istotne, wśród konsumentów rośnie świadomość korzyści związanych ze smart home, jak i dostępność urządzeń, czemu sprzyja konkurencja cenowa. Coraz większego znaczenia w dalszym rozwoju tego segmentu rynku odgrywa również to, że użytkownicy zwracają uwagę na efektywność energetyczną.
Wraz ze świadomością ekologiczną rośnie nacisk na funkcje oszczędzania energii i zrównoważony rozwój. Inteligentny dom to nie tylko komfort, ale i ograniczenie kosztów. Oszczędzając zasoby i pieniądze, użytkownicy pozytywnie wpływają zarówno na środowisko, jak i swoje portfele – zauważa Adam Figaj, Product Manager marki Tesla w Konsorcjum FEN.
Aspekt zmniejszenia kosztów jest o tyle istotny, że w ubiegłorocznym badaniu EY przeprowadzonym w kilku rozwiniętych krajach prawie połowa (48 proc.) ankietowanych konsumentów twierdziła, że negatywne otoczenie ekonomiczne sprawiło, iż są mniej skłonni do wdrażania nowych technologii dla domu.
Wzrostowi smart home w kraju sprzyja też rozwijająca się infrastruktura szybkiego internetu. W ramach środków z programu Polska Cyfrowa na lata 2014–2020 do
końca 2023 r. dostęp do szerokopasmowej sieci uzyskało ponad 2 mln gospodarstw domowych. W ubiegłym roku ogłoszono konkursy na inwestycje dofinansowane kwotą ponad 7 mld zł z programów FERC (Fundusze Europejskie na Rozwój Cyfrowy) i KPO na lata 2021–2027. Celem jest objęcie ponad 1,7 mln gospodarstw domowych szybką siecią (minimum 300 Mb/s). Ponadto duże inwestycje realizują najwięksi prywatni operatorzy.
Henryk Guzik, właściciel, Guzik Systemy Informatyczne
Zdaniem IDC po słabszym 2023 r. globalnie rynek smart home powróci do wzrostu w 2024 r., który potrwa co najmniej do 2027 – średnio ma wynieść 6,2 proc. rocznie (prognoza z ub.r.), pod względem ilości sprzedanych urządzeń, osiągając liczbę 1,1 mld szt. za 3 lata. Największej dynamiki można spodziewać się w przypadku inteligentnego oświetlenia (średnio +13,6 proc. co roku) oraz urządzeń do monitoringu i bez-
Zapytania dotyczące smart home, jakie otrzymujemy, dotyczą w zasadzie wyłącznie nowych inwestycji albo generalnego remontu domu lub mieszkania. Często zapytanie wychodzi od projektanta wnętrz, który wcześniej ustala z właścicielem albo inwestorem, czy jest on zainteresowany smart home, a następnie zwraca się do nas w sprawie oferty. Zajmujemy się w takich projektach infrastrukturą sieciową i sprzętem IT, natomiast inne elementy, takie jak część związaną z instalacją elektryczną, realizuje wyspecjalizowana firma. Oczywiście robimy to we wzajemnej kooperacji, ustalając uprzednio potrzeby właściciela nieruchomości. Moim zdaniem integratorowi IT trudno jest zrealizować samodzielnie projekt smart home bez współpracy z innymi firmami, gdyż całość to nie tylko IT, ale też oświetlenie, ogrzewanie czy klimatyzacja. Zatem każdym aspektem, aby klient był zadowolony, powinien zająć się dedykowany specjalista.
pieczeństwa (+7,1 proc.). Najniższy wzrost przewidziano dla sprzętu sieciowego do rozrywki wideo (+2,4 proc.).
– Nieustannie największym zainteresowaniem cieszą się urządzenia do monitoringu. Stale rośnie popyt także na elementy inteligentnego oświetlenia, które ułatwia codzienne funkcjonowanie, a jednocześnie potrafi być naprawdę bardzo widowiskowe. Przewidu-
jemy, że ten trend utrzyma się przez najbliższych kilka lat – mówi Iwo Ostalski.
W ostatnich latach wpływ na popyt na rozwiązania smart home w Polsce miały również zawirowania cenowe na rynku surowców i paliw.
– Na przykład, gdy pojawiło się widmo niedoboru węgla i gazu, a co za tym idzie wzrost cen tych surowców, wystrzeliła w górę
sprzedaż rozwiązań do inteligentnego sterowania ogrzewaniem - zauważa Marek Nawrocki, Product Manager Hama. Obecnie, jak dodaje, niemiecki producent z roku na rok sprzedaje coraz więcej produktów smart home, choć jest to wzrost umiarkowany, bo kilkuprocentowy.
Z kolei według badania Oferteo, przeprowadzonego w 2022 r. wśród osób, które w 2021 r. budowały dom, 33 proc. chciałoby wdrożyć systemy oświetlenia, 31 proc. zawory i zraszacze ogrodowe, a 28 proc. – alarmy i sterowanie ogrzewaniem. W sumie około jedna trzecia pytanych twierdziła, że zdecydowała się na instalację takiego czy innego rozwiązania smart home, przy czym odsetek ten nie zmienia się od 3 lat. Głównym powodem była potrzeba zwiększenia komfortu (ponad 80 proc. odpowiedzi). Zwraca uwagę wysoki poziom satysfakcji z wdrożeń – 65 proc. pytanych było w pełni zadowolonych z zakupionych urządzeń smart home, a 17 proc. częściowo – wynika z danych Oferteo.
sprawi, że rozwiązania smart home będą bezpieczne, niezawodne i bezproblemowe w użyciu. Matter zdefiniuje także zestaw technologii sieciowych opartych na protokole IP do celów certyfikacji urządzeń. Niemniej, bardzo istotnym problemem są również kwestie bezpieczeństwa. – Utrzymują się obawy dotyczące prywatności i bezpieczeństwa danych, co zniechęca niektórych potencjalnych użytkowników do akceptacji rozwiązań inteligentnego domu – zauważa Adam Figaj.
Według specjalistów duże znaczenie dla dalszego zainteresowania produktami smart home ma pierwszy zakup inteligentnych urządzeń. Jeśli te spełnią pokładane w nich nadzieje, użytkownicy zwykle mają apetyt na kolejne…
Iwo Ostalski, Marketing Specialist, TP-Link Najwięcej elementów smart wdrażają gospodarstwa domowe, gdzie klientami są zazwyczaj osoby w wieku do 45 roku życia. Wydaje się, że najbardziej istotną cechą, której poszukują konsumenci w segmencie sprzętów dla inteligentnego domu jest bezinwazyjny montaż. Mam tutaj na myśli brak konieczności wiercenia w ścianach albo zastosowanie zasilania bateryjnego. Takie rozwiązania można z łatwością zastosować w starszych budynkach, a w razie potrzeby przenieść cały zestaw smart do innego domu albo mieszkania. Ponadto klienci cenią sobie niskie koszty wdrożeń oraz elastyczność takiego rozwiązania.
Według IDC ubiegłoroczne spowolnienie rynku wynikało częściowo z powodu braku znaczących aktualizacji między jedną generacją urządzeń a następną. Nadal jednym z największych „hamulcowych” we wzroście sprzedaży pozostaje niekompatybilność urządzeń działających na różnych platformach, co utrudnia ich integrację, tym samym zniechęcając potencjalnych użytkowników.
– Z pewnością dużą zmianą i ułatwieniem będzie szerokie wprowadzenie standardu Matter, który pozwoli na integrację urządzeń różnych producentów – uważa Marek Nawrocki. Matter, opierając się na protokole internetowym (IP), ma umożliwić łączenie urządzeń różnych platform i producentów oraz bezproblemową komunikację pomiędzy inteligentnymi sprzętami domowymi, aplikacjami mobilnymi oraz usługami w chmurze. Promuje go organizacja Connectivity Standards Alliance (CSA), według której jeden protokół do łączenia ze sobą urządzeń i systemów
Popytowi sprzyja rozwijająca się infrastruktura szybkiego internetu.
– Najwięcej w rozwiązania smart home inwestują mieszkańcy bloków, domów jednorodzinnych i zwykli użytkownicy, którzy kupując pierwszą lampę, żarówkę lub adapter do gniazdka stają się użytkownikami rozwiązań smart i najczęściej zaczynają rozbudowywać to środowisko – zauważa Marek Nawrocki. Przewiduje się, że użytkownicy będą coraz częściej poszukiwać rozwiązań oferujących większą personalizację i elastyczność w dostosowaniu się do indywidualnych preferencji. Można spodziewać się rozwoju rozwiązań smart home, które wykorzystują w tym celu narzędzia sztucznej inteligencji i uczenia maszynowego. – W miarę jak technologia inteligentnego domu staje się coraz bardziej powszechna, może nastąpić zmiana w kierunku bardziej przyjaznych dla użytkownika interfejsów i uproszczonych procesów instalacji, aby zaspokoić potrzeby szerszego grona odbiorców – przewiduje Adam Figaj. Warto dodać, że zdaniem analityków Statista wzrost na polskim rynku smart home powinien być w najbliższych latach szybszy niż ten globalny. Obecnie roczne przeciętne przychody ze sprzedaży rozwiązań smart home w Polsce wynoszą 278,40 dol. (czyli ponad 1,1 tys. zł) i są o około jedną czwartą niższe niż średnia światowa (365,60 dol.). Ponadto rodzimy rynek cechuje niższa penetracja, gdyż z systemów inteligentnego domu korzysta 14,1 proc. gospodarstw domowych w Polsce, wobec 18,9 proc. globalnie. Tym samym mamy co nadrabiać, aby dogonić światową średnią. n
n Adam Figaj, Product Manager marki Tesla, Konsorcjum FEN Obecnie użytkownicy wymagają nie tylko wygody i wydajności, ale także priorytetowo traktują prywatność oraz bezpieczeństwo danych w systemach smart home. Coraz częściej poszukują rozwiązań umożliwiających zdalną kontrolę nad różnymi aspektami domu – takimi jak oświetlenie, ogrzewanie, bezpieczeństwo i sprzątanie – za pośrednictwem ujednoliconego interfejsu. Prognozy na nadchodzące lata sugerują ciągły nacisk na interoperacyjność i kompatybilność między różnymi urządzeniami i platformami. Co więcej, przewidywany jest wzrost popytu na rozwiązania inteligentnego domu wykorzystujące sztuczną inteligencję i algorytmy uczenia maszynowego w celu zapewnienia bardziej spersonalizowanych doświadczeń użytkownika.
Jakiś czas temu odbyło się w Augustowie spotkanie Startup Fight Club – nieformalnej grupy przedsiębiorców skrzykniętej dzięki fanpejdżowi ragni.net. Jak zwykle zaczęliśmy od zapoznawczego ogniska w piątek, a już na sobotnim mastermindzie dyżurnym tematem okrzyknięto chóralnie „problemy ze wspólnikami”. Nie żeby temat był w środowisku nowy, nie żeby był to jakiś wyróżniający się przykład – ot, przypadkowo akurat ten temat stał się wdzięcznym pretekstem do wielu dyskusji. A ja, w ramach „pospotkaniowych” refleksji, chciałem zwrócić uwagę na jeden kluczowy element, z jakim zwykle mamy do czynienia w takich sytuacjach. Oczywiście nie wyciągnę z rękawa uniwersalnej podpowiedzi, która mogłaby być użyteczna w przypadku wszystkich konfliktów ze wspólnikami, ale jedno wiem na pewno: szybki refleks i nawet minimalna reakcja pozwala uniknąć czasem wielkich problemów. Oczywiście nie dotyczy to wszystkich przypadków. Czasem mamy po drugiej stronie po prostu niereformowalnego… (tu wstaw swój epitet), ale wtedy to twoja wina – to ty zjeb…, i to już na starcie – źle wybierając wspólnika.
Wszystko ma swój początek, kiedy trafi się (nam lub drugiej stronie) pierwszy fałszywy krok. Może to być słaby żart, nie do końca odpowiedzialne słowa, niesłuszny zarzut czy nieskonsultowana decyzja
„zjeb…, przepraszam”
Szybka reakcja załatwia 99 procent problemów.
Jeśli się w porę nie zorientujemy, Jeśli w porę nie problem zacznie przypominać amu- problem zacznie amunicję dum-dum: wchodzi gładko, dum-dum: wchodzi gładko, a wyjść może z połową pleców. a wyjść może z połową
w stylu „kupiłem warte pół bańki BMW M5 za firmowe pieniądze”… I na tym etapie to jeszcze nie jest problem. Wystarczy „tylko” szybko zreflektować się i przeprosić za słowa lub naprawić działania. Wtedy temat w 99 proc. przypadków znika – pod warunkiem oczywiście, że działamy szybko i zdecydowanie.
Jeśli się jednak w porę nie zorientujemy, że wdepnęliśmy, to chwilę później akcja może zacząć eskalować gwałtownie. Piętrzy się jak reakcja łańcuchowa, która z każdym krokiem przybiera coraz to większe rozmiary. „Niezaopiekowana”, zaczyna przypominać amunicję dum-dum: wchodzi gładko, a wyjść może z połową pleców. Jak w memach z efektem domino, gdzie z pewnością każdy potrafi podstawić pod ten obrazek niejedną sytuację z własnych doświadczeń. Coraz większe klocki to oczywiście kolejne desperackie próby obrony swojej pozycji. My ludzie mamy bowiem tę fatalną cechę, że naszą naturalną reakcją jest zwykle trzymanie się wcześniej podjętej decyzji czy reakcji. Jak się domyślacie, w ten sposób jedynie pogarszamy swoją sytuację myśląc, że jak dociśniemy, to wyjdziemy cało z zakrętu… Och naiwni. To nie zakręt, to grząskie koleiny, które się tylko dramatycznie pogłębiają wraz z dodaniem gazu do dechy. Co bardziej świadomi, dopiero gdy są zakopani po ośki, orientują się, że trzeba się jednak inaczej ratować, ale… jest już „too little, too
late”. Więc razem z resztą, która do końca jest przekonana, że żadnego błędu nie popełniła, lądują dokładnie w tym samym miejscu – na drzewie lub na manowcach.
To tak uniwersalne, że aż dziw, że ludzka natura ciągle bierze nad nami górę. Ale co ja się będę dziwił? Wczoraj wieczorem kierowca Bolta wyjechał mi dosłownie metr przed maską. I tylko moja szybka reakcja uchroniła mnie przed stłuczką. Sekundę później już miałem donośnie pomstować i wtedy… zamrugał awaryjnymi, przepraszając. A ze mnie w sekundę uszło całe powietrze, wraz ze złością. Przykład banalny, ale mechanizm ten sam. Bo tu często nie chodzi nawet o samo słowo „przepraszam” (niektórzy nawet po wielu wizytach u logopedy nie potrafią go wymówić), ale jakikolwiek znak czy gest, że wiemy, co zrobiliśmy i damy drugiej osobie odczuć, że jesteśmy tego świadomi. Ot, tyle.
Rafał Agnieszczak
Jeden z pierwszych polskich przedsiębiorców tworzących biznesy internetowe, założyciel wielu serwisów z branży społecznościowej, e-commerce i finansów. Inicjator fundacji Startup School, pomagającej młodym osobom stawiać pierwsze kroki w biznesie. Ukończył Szkołę Główną Handlową na kierunku zarządzanie i marketing.
czy koło?
Gospodarka o obiegu zamkniętym stała się jednym z wiodących tematów biznesowych. Rozmawia się o niej również w branży nowych technologii.
n Wojciech UrbanekLiniowy model gospodarki funkcjonuje od początku rewolucji przemysłowej. W dużym uproszczeniu polega na tym, że wydobywamy surowce, wytwarzamy produkt, a następnie go używamy i wyrzucamy. Jednak co najmniej od kilku lat coraz częściej słyszy się o konieczności zmiany takiego modelu na gospodarkę o obiegu zamkniętym (cyrkularnym), czyli taką, w której dąży się do jak najdłuższego wykorzystania produktu poprzez jego ponowne użycie, dzielenie się nim, pożyczanie czy w końcu recykling. W ten sposób wydłuża się cykl życia produktów i ogranicza do minimum powstawanie odpadów. Frans Timmermans, jeden z głównych twórców koncepcji Europejskiego Zielonego Ładu, kilka lat temu oznajmił, że nadszedł czas, by położyć kres modelowi „wziąć, skorzystać, zepsuć, wyrzucić”, który tak bardzo szkodzi naszej planecie, naszemu zdrowiu oraz naszej gospodarce. W przestrzeni publicznej pojawiło się mnóstwo materiałów gloryfikujących gospodarkę o obiegu zamkniętym. Według danych Accenture zmiany, jakie to przyniesie, przyczynią się do wygenerowania do 2030 r. w światowej gospodarce 4,5 biliona dol. Z kolei Międzynarodowe Biuro Pracy (International Labour Organization) szacuje, że gospodarka o obiegu zamkniętym może stworzyć sześć milionów miejsc pracy na całym świecie. Do promocji cyrku -
larnej gospodarki aktywnie włączyły się międzynarodowe koncerny, strojąc się w zielone piórka. Wielkie korporacje prześcigają się w deklaracjach o ochronie środowiska, w tym walce z emisją CO2. Nie bez przyczyny część z nich jest oskarżana o greenwashing, czyli w wolnym tłumaczeniu „ekościemę”.
Starsi konsumenci
wspominają pralki, które pracowały niemal dwie dekady.
Przeciętny konsument nie zawsze rozumie narrację „globalnych macherów”, nawołujących do ochrony środowiska i walki z ociepleniem klimatu. Z jednej strony słyszy o konieczności przedłużaniu życia produktów, zaś z drugiej niejednokrotnie zmaga się z awaryjnym sprzętem, który trzeba wymieniać dużo częściej niż ten z lat 90-ych. Przy czym najwięcej kłopotów przysparzają ich użytkownikom urządzenia AGD. Starsi konsumenci wspominają pralki, które potrafiły pracować niemal dwie dekady, podczas gdy w obecnych czasach wiele urządzeń psuje się niedługo po zakończeniu gwarancji. Sprzedawcy wzruszają wówczas ramionami, proponując co najwyżej przedłużenie okresu gwarancji przy zakupie. W przypadku rozwiązań IT czy elektroniki użytkowej sytuacja nie wygląda aż tak źle, aczkolwiek istnieją segmenty tego rynku, gdzie trwałość jest kwestią drugorzędną. Ostatnie lata przyniosły ze sobą ekspansję nośników SSD, zastępujących dyski mechaniczne zarówno w zastosowaniach konsumenckich, jak i biznesowych. Pro-
ducenci pamięci NAND Flash chwalą się liczbą operacji zapisu i odczytu na sekundę czy prędkością zapisu danych, zaś zdecydowanie mniej mówią o ich trwałości. Nie jest to bowiem dla nich wygodny temat. W sprzedaży marginalną rolę odgrywają najtrwalsze nośniki pamięci SLC (komórki jednopoziome) oraz MLC (dwupoziomowe), których miejsce zajmują tańsze dyski półprzewodnikowe z pamięcią TLC (trzypoziome) czy QLC (czteropoziomowe) – tańsze i pozwalające przechowywać więcej danych w tej samej przestrzeni, ale znacznie mniej wytrzymałe. Dla porównania, żywotność pamięci typu SLC szacuje się na 100 tys. cykli, a MLC od 3 tysięcy do 10 tys. cykli.
Recykling to nie tylko butelki
Gospodarka o obiegu zamkniętym zazwyczaj utożsamiana jest z recyklingiem, co
w dużym stopniu wynika z wielu akcji uświadamiających społeczeństwu potrzebę segregacji odpadów. Sprawa jest bardzo poważna, bowiem według raportu „What a Waste 2.0” w skali globalnej powstaje około 2 mld ton odpadów rocznie, a do 2050 r. ma to już być 3,4 mld ton. Przy czym recyklingowi podlegają nie tylko plastikowe butelki, woreczki foliowe czy puszki aluminiowe po napojach, ale również różnego rodzaju urządzenia.
ONZ ostrzega, że do 2030 r. zostanie wytworzonych globalnie aż 74 mln ton elektrośmieci. Przykładowo, w 2021 r. wprowadzono na terytorium Polski 1,2 mln ton sprzętu elektrycznego i elektronicznego, natomiast łącznie zebrano 536 tys. ton zużytego sprzętu tego rodzaju. Najmniejszy procentowo, choć ilościowo duży udział w zebranych, zużytych produktach miały: lampy (2,5 proc.), ma-
łogabarytowy sprzęt informatyczny i telekomunikacyjny (3,5 proc.) oraz ekrany i monitory (5,5 proc.).
Recykling sprzętu IT polega na przetwarzaniu zużytego urządzenia w celu odzyskania elementów, które mogą być wykorzystane w procesie produkcji nowego bądź refabrykowanego sprzętu. To pozwala ograniczyć potrzebę wydobycia surowców naturalnych, a w dalszej konsekwencji zmniejsza negatywny wpływ na środowisko. W urządzeniach elektronicznych znajduje się od 50 do 60 proc. światowych zasobów wolframu, zaś w laptopach około 26 proc. cyny. Ciekawostką jest fakt, że z układu scalonego notebooka można wydobyć od 7 do 9 gramów złota. – Połączenie gospodarki o obiegu zamkniętym i rynku nowych technologii wymaga projektowania produktów z myślą o minimalizowaniu ich negatywnego wpły-
wu na środowisko, oszczędnym zużyciu energii i generowaniu mniejszej ilości odpadów. Konsumenci i firmy często wymieniają stosunkowo nowe produkty na jeszcze nowsze, więc już w procesie produkcji należy używać materiałów biodegradowalnych lub łatwo poddających się recyklingowi –mówi Krzysztof Krawczyk, Senior Application Engineer w Vertivie.
Wbrew pozorom nie jest to wcale proste zadanie, co pokazuje chociażby przykład słuchawek AirPods. Ten popularny wśród klientów gadżet zawiera w plastikowej obudowie wolfram, cynę, tantal, lit i kobalt, a jego żywotność wynosi około dwóch lat. Chociaż istnieje program recyklingu tego modelu i teoretycznie można pozyskać kobalt z umieszczonych w nim baterii, jednakże jest to operacja… całkowicie nieopłacalna.
Nawet, jeśli produkty zaprojektowano i wyprodukowano tak, aby nadawały się do recyklingu, nadal brakuje infrastruktury umożliwiającej ich ponowne wprowadzenie do obiegu. Na inne trudności zwraca uwagę stowarzyszenie branżowe Plastics Recyclers Europe. Otóż branża recyklingowa musi się zmagać ze wzrastającymi cenami energii, odczuwa też skutki napiętej sytuacji ekonomicznej, zaś spadające koszty polimerów pierwotnych sprawiają, że producenci coraz częściej wybierają właśnie je, zamiast materiałów pochodzących z recyklingu.
Nie każde urządzenie ląduje od razu na wysypisku odpadów. Część z nich po mniejszym lub większym liftingu trafia do nowych użytkowników. Proces ten nosi nazwą refabrykacji i stanowi alternatywę dla recyklingu, pozwalając zachować jak największą wartość oryginalnego produktu. Dla konsumentów oznacza to możliwość zakupu produktu całkiem przyzwoitej jakości za niższą cenę.
– Potencjał oszczędności w przypadku odnowionego sprzętu może się różnić w zależności od kilku czynników, takich jak obecne warunki rynkowe czy strategia zakupowa danej organizacji. Wielu naszych klientów oszczędziło nawet 50 proc. w porównaniu z zakupem nowego sprzętu – przyznaje Sebastian Pawlak, wiceprezes ds.
sprzedaży na Europę Środkowo-Wschodnią i Północną w Evernexie.
Proces prefabrykacji urządzenia rozpoczyna się od przywrócenia ustawień fabrycznych. Na kolejnym etapie przeprowadza się testy funkcjonalne, a następnie bezpieczeństwa. Mają na celu sprawdzenie, czy sprzęt spełnia wymagania dotyczące bezpieczeństwa użytkowania, w tym izolacji elektrycznej, stabilności konstrukcji czy odporności na przeciążenia. Po pomyślnym przejściu testów urządzenie może być certyfikowane zgodnie z obowiązującymi przepisami i odpowiednio oznakowane.
– Warto zwrócić uwagę na inną jeszcze kategorię odświeżonych produktów, do których najlepiej pasuje określenie remanufakturowane, co oznacza więcej niż refabrykowane. Sam proces odnawiania jest przeprowadzany przez producenta, który posiada przeznaczone do tego zasoby i linie produkcyjne. Takie produkty trafiają na rynek wyłącznie za pośrednictwem autoryzowanych partnerów. Poza tym ich użytkownicy mają takie same warunki w zakresie gwarancji i licencji, jak w przypadku nowych produktów – tłumaczy Grzegorz Górniak, Cisco Business Unit Manager w TD Synnex. Nie tylko klienci mają trudności związane z odróżnianiem produktów odnawianych (renew) od refabrykowanych.
Część oferentów stosuje różne definicje, co wprowadza niepotrzebne zamieszanie, a czasami po prostu szkodzi rozwojowi tego segmentu rynku. Zdaniem Zdzisława Jakubowskiego, Circular Economy Business Development Managera w AB, definicje stosowane przez producentów są najbardziej restrykcyjne i najlepiej oddają stan rzeczywisty urządzeń.
Dylematy obiegu
Pojawia się
coraz więcej firm bazujących wyłącznie na produktach z odzysku.
Przedłużanie życia produktów jest w pewnym sensie podcinaniem gałęzi, na której się siedzi. Wprawdzie producent stosujący taką strategię zyska poklask we wpływowych środowiskach, ale czy zapewni wpływy do kasy? Warto w tym kontekście spojrzeć na rynek komputerów PC. Producenci, po dwóch fatalnych latach, „podczepili” się pod sztuczną inteligencję i namawiają klientów do wymiany urządzeń na nowe cudo, jakim ma być AI PC. Nie mniej interesujący jest przypadek inteligentnych zegarków. Apple co roku wprowadza na rynek nowy model smartwatcha, a w recenzjach dziennikarzy oceniających kolejne premiery niemal zawsze pojawia się zdanie: „zmian jak na lekarstwo”.
Warto też zastanowić się czy warto na siłę zatrzymywać starsze urządzenia, skoro
n Sebastian Pawlak, wiceprezes ds. sprzedaży na Europę Środkowo-Wschodnią i Północną, Evernex
Wierzymy, że znaczącą rolę w zachęcaniu klientów do zakupu sprzętu refabrykowanego stanowią zarówno ceny, jak i chęć ochrony środowiska. Wraz z ciągłą ewolucją technologii wiele firm staje przed wyzwaniem związanym z kosztownymi modernizacjami w celu wymiany przestarzałych komponentów. Odnowiony sprzęt stanowi opłacalną alternatywę, umożliwiając liderom IT przedłużenie okresu operacyjnego istniejącej infrastruktury. To nie tylko odsuwa w czasie potrzebę znacznych nakładów kapitałowych, ale i rozwiązuje problem związany z odpadami elektronicznymi. W związku z tym, że zrównoważony rozwój zyskuje coraz większe znaczenie wśród agencji ratingowych, inwestorów i klientów, wydłużanie cykli życia sprzętu staje się sprawą kluczową.
zużywają więcej energii niż ich następcy. Na uwagę zasługuje tutaj inicjatywa Vertiva, którego eksperci analizują istniejącą u klienta infrastrukturę, a następnie przeprowadzają symulację nowych, najlepszych rozwiązań. Jeśli rezultaty testu okazują się niesatysfakcjonujące, użytkownik pozostaje przy dotychczasowym sprzęcie.
Niepoślednią rolę w gospodarce o obiegu zamkniętym powinien odgrywać kanał sprzedaży. Według „TD Synnex Directions of Technology Report”, tak właśnie się dzieje, bo już 51 proc. resellerów oferuje programy recyklingu lub odbioru.
– Urządzenia refabrykowane i odnawiane przez producentów są już oferowane przez część resellerów oraz integratorów. Ich jakość jest zbliżona do nowego sprzętu. Bardziej złożona jest sprawa sprzętu refabrykowanego przez podmioty trzecie, które nie udzielają gwarancji producenta. Dlatego przy wyborze dostawców takich urządzeń nie można kierować się wyłącznie ceną – tłumaczy Zdzisław Jakubowski. W przypadku resellerów sprzedaż refabrykowanego sprzętu należy traktować bardziej jako uzupełnienie oferty aniżeli zagrożenia dla tradycyjnego modelu sprzedaży. Włączenie odnowionych urządzeń może też otworzyć drzwi do nowych segmentów rynku, wcześniej z różnych względów niedostępnych. Warto też zauważyć, że pojawia się coraz więcej firm bazujących wyłącznie na produktach z odzysku. n
Krzysztof Krawczyk, Senior Application Engineer, Vertiv
Gospodarka o obiegu zamkniętym i recykling to zbliżone zjawiska, ale nie tożsame.
Gospodarka obiegu zamkniętego obejmuje szerszy zakres działań, które dotyczą nie tylko recyklingu, ale także zapobiegania powstawaniu odpadów poprzez wydłużenie cyklu życia produktów, ich naprawy i ponownego wykorzystania. Recykling natomiast jest jednym z elementów tej szerszej koncepcji, koncentrującym się na przetwarzaniu odpadów w celu ponownego wykorzystania materiałów. W gospodarce o obiegu zamkniętym refabrykacja sprzętu odgrywa istotną rolę, ponieważ umożliwia wydłużenie cyklu życia produktu i minimalizuje zużycie zasobów potrzebnych do wytworzenia nowego sprzętu.
Około sześciu miesięcy po zakończeniu projektu, niezależnie od tego, czy był on udany, czy nie, niezależnie od tego, czy on czy zwracam się do zewnętrznej firmy o przeprowa- zwracam do firmy o przeprowadzenie analizy wygranych i przegranych. dzenie i przegranych.
Przegrana transakcja nie oznacza końca pracy nad nią. Wręcz przeciwnie, jest to początek procesu analizy i nauki. W tym kontekście analiza win-loss to metoda, którą gorąco polecam. Pozwala na głębsze zrozumienie konkurencyjnego krajobrazu i na ciągłą optymalizację procesów sprzedaży, marketingu, reklamy oraz zarządzania produktami. Kluczowe jest, aby każdy, kto chce odnieść sukces w tych obszarach, regularnie stosował tę praktykę. Analiza wygranych i przegranych jest procesem, który pozwala zrozumieć, dlaczego potencjalni klienci decydują się na zakup produktu lub rezygnują z niego.
Jako świadomi przedsiębiorcy nierzadko zastanawiamy się, dlaczego pewne transakcje kończą się sukcesem, a inne porażką. Zadajemy sobie pytania: jak często udaje nam się wyprzedzić konkurencję? Czy nasze procesy sprzedażowe są skuteczne? W jakich obszarach nasi handlowcy mogą się poprawić?
imi klientami, rozpoczynając rozmowę od stwierdzenia: „Nie chcę Panu niczego sprzedawać”. Następnie w sposób neutralny i bez nacisków emocjonalnych bada przyczyny ich decyzji. Taki telefon po pół roku od zakończenia rozmów często rozwiewa obawy klientów, że jest to próba zmiany ich decyzji lub manipulacja.
Cenny jest nieprzefiltrowany strumień opinii klienta.
Zapytani o to, co można poprawić, by zwiększyć sprzedaż, handlowcy często wskazują na ceny. Sugerują, że obniżka cen mogłaby ułatwić sprzedaż. Jednak obniżenie cen może negatywnie wpłynąć na zyski firmy. Stawianie tego rodzaju pytań i analizowanie odpowiedzi, a następnie wdrażanie działań na podstawie wniosków, jest kluczowym elementem budowania sukcesu biznesowego.
Około sześciu miesięcy po zakończeniu projektu, niezależnie od tego, czy był on udany, czy nie, zwracam się do zewnętrznej firmy o przeprowadzenie analizy wygranych i przegranych. Ta firma kontaktuje się z mo-
Aby zapewnić obiektywność i komfort rozmów, stosuję trzy zasady. Po pierwsze, analizę win-loss wykonuje zewnętrzna firma. Po drugie ankieterzy kontaktują się z klientami co najmniej sześć miesięcy po zakończeniu procesu sprzedaży. Po trzecie rozmowa z klientem zaczyna się od wyraźnego stwierdzenia, że celem nie jest sprzedaż. A kiedy zbudowany jest odpowiedni klimat do szczerej rozmowy, ankieter zadaje pytania dotyczące całego procesu sprzedaży od początku do końca. Zaskakujące jest, że większość klientów chętnie poświęca swój czas na udzielenie odpowiedzi na około 24 pytania.
Formularz analizy win-loss
Przykładowe pytania stosowane w wywiadach brzmią: co przyczyniło się do Pani/Pana pierwszego kontaktu z naszą firmą? Czy nasza oferta odpowiadała Pani/Pana potrzebom? Czy była jasna i zrozumiała? Co, według Pani/Pana, wyróżniało naszą ofertę na tle konkurencji? Jakie elementy naszej oferty, Pani/Pana zdaniem, wymagają ulepszenia? Czy uważa Pani/Pan, że cena była adekwatna do zakresu oferowanych usług szkoleniowych? Jakie czynniki wpłynęły na Pani/Pana decyzję? Kto z Pani/Pana strony brał udział w procesie decyzyjnym i jakie mieli priory-
tety? Czy komunikacja z mojej strony była efektywna? Czy otrzymała Pani/Pan odpowiedzi na wszystkie pytania? Czy korzystała Pani/Pan z naszej strony internetowej www. KordoEdukacja.pl? Co by Pani/Pan na niej zmienił(a)? Czy rozważa Pani/Pan przyszłą współpracę z Kordo Edukacja? Czy polecił(a)by Pani/Pan naszą firmę innym? Jeśli tak, to dlaczego?
Podczas wywiadu ważne jest, aby unikać prób sprzedaży, jak też wszelkich sporów, dyskusji, przepraszania, wyjaśniania, przerywania lub poprawiania. Cenny jest nieprzefiltrowany strumień opinii klienta.
Co dalej?
Ta analiza dostarcza ważnych informacji o tym, co pozytywnie i negatywnie wpływa na transakcje sprzedaży. Pozwala na strategiczne modyfikowanie produktów, planów marketingowych oraz praktyk sprzedażowych, zwiększając tym samym szanse firmy na sukces. Umożliwia identyfikację czynników decydujących o zwycięstwach i porażkach, co jest podstawą do wprowadzania niezbędnych zmian. Analiza ta pomaga również lepiej zrozumieć wymagania i preferencje klientów, dzięki czemu można opracować skuteczniejsze metody sprzedaży.
W ciągu ostatnich kilku lat niemal wszystkie firmy i instytucje zgromadziły ogromne zbiory danych. Samo przechowywanie i zarządzanie nimi to za mało, bowiem z informacji, o ile mają być przydatne, trzeba wyciągnąć określoną wartość. n Wojciech Urbanek (Santa Clara, Denver)
Dostawcy oprogramowania coraz częściej rozwijają swoje produkty bazując na automatyzacji i sztucznej inteligencji. Tak jest chociażby w przypadku BMC Software, które dostarcza narzędzia do zarządzania firmowymi zasobami informatycznymi. Jednym z najważniejszych produktów tej marki jest Helix, platforma ITSM do zarządzania usługami IT. System łączy tradycyjne podejście z nowymi wytworami ludzkiej kreatywności: sztuczną inteligencją, uczeniem maszynowym czy analizą danych. Jak zauważa Ram Chakravarti, pełniący w BMC Software funkcję CTO, „sztuczna inteligencja jest najlepszym przyjacielem danych”.
– W ostatnich latach prowadzenie biznesu nie jest łatwe ze względu na niesprzyjające czynniki zewnętrzne, takie jak pandemia, utrzymujące się problemy z łańcuchami dostaw, wstrząsy geopolityczne oraz społeczno-gospodarcze.
Niemniej w tym samym czasie zachodzą dynamiczne zmiany w świecie nowych technologii. Wiele koncepcji, o których mówi się od lat, takich jak chociażby sztuczna inteligencja, przestało być futurystyką. To już rzeczywistość - tłumaczy z kolei Ayman Sayed, CEO BMC Software. Trzy lata temu producent ogłosił swoją koncepcję „autonomicznego przedsiębiorstwa cyfrowego”. W ten sposób chce pokazać, jak adaptacja nowych technologii zwiększa elastyczność w różnego rodzaju organizacjach. Inteligentne, zaawansowane systemy muszą być obecne w każdym aspekcie działalności, zaś automatyzacja
pozwala uzyskiwać lepsze wyniki i analizy przy mniejszej interwencji człowieka. - W tym roku otwieramy nowy rozdział, jakim jest Connected Digital Ops. W ten sposób opisujemy rolę wszystkich czynności związanych ze sztuczną inteligencją, danymi, DevOps i usługami. Chodzi nam o połączenie operacji cyfrowych w całym przedsiębiorstwie oraz przekształcanie systemów rejestracji w systemy działania. Connected Digital Ops pomoże organizacjom w płynnej automatyzacji i transformacji ich działalności – mówi Ayman Sayed.
Wiele znanych od lat koncepcji przestało
być futurystyką.
Nie ulega wątpliwości, że przedsiębiorcy będą inwestować w rozwiązania, dzięki którym będą mogli mieć większy niż do tej pory pożytek z danych. Tym bardziej, że jak wynika z informacji prezentowanych przez BMC, aż 50 proc. projektów Big Data zakończyło się fiaskiem. – O sile sztucznej inteligencji i danych dyskutuje się bardzo często. Jednak w ciągu dwóch ostatnich lat cały czas powtarzają się dwa tematy. Pierwszy wiąże się z odblokowywaniem wartości biznesowej danych bez ogromnego obciążenia technicznego oraz zasobów. Natomiast drugi dotyczy sposobu, w jaki organizacje unowocześniają rozwiązania technologiczne, tak aby sprostać nowym, narzuconym im obowiązkom cyfrowym – mówi Ram Chakravarti.
Solix Technologies już od ponad dwóch dekad zajmuje się zarządzaniem cyfrowymi zasobami. Flagowy produkt tego producenta – Solix Common Data Platform – ujednolica i gromadzi wszystkie dane
przedsiębiorstwa (starsze, aktywne, nieaktywne), a także ich typy (strukturyzowane i nieustrukturyzowane) w jednym systemie. Rozwiązanie może być wdrażane lokalnie lub w chmurze (Microsoft Azure, AWS Amazon, Google Cloud, IBM Cloud).
Firma cały czas pracuje nad rozwojem Solix GPT – inteligentnego asystenta, który pozwala użytkownikom zadawać pytania na różne tematy. Narzędzie wykorzystuje model dużego języka Llama 2 (LLM). Ponadto Solix GPT jest precyzyjnie dostrojony do użytkownika, ponieważ trenuje jego firmowe dane w celu poprawy rozumowania, kodowania, biegłości itp.
Pewnego rodzaju ciekawostką jest fakt, że wielu konkurentów Solix Technologies, którzy rozpoczynali działalność w podobnym czasie, zniknęła z rynku lub została wchłonięta przez wielkie koncerny (przykładowo HP kupiło OuterBay, zaś IBM przejął Princeton Softech).
– Cały czas kontynuujemy prace inżynieryjne, których celem jest rozwój produktu. Najpierw udostępniliśmy klientom rozwiązanie tylko do przeglądania danych strukturyzowanych. Potem rozszerzyliśmy te możliwości o dane nieustrukturyzowane i semistrukturyzowane. Kolejnym krokiem było przeniesienie do natywnego środowiska chmury. Poza tym nasze rozwiązanie dba o współpracę z systemami zewnętrznymi, przy czym obecnie posiadamy łączniki do ponad 100 źródeł. Co ważne, część naszych konkurentów stanęła w miejscu, czym należy tłumaczyć ich zniknięcie z rynku – tłumaczy Sai Gundavelli, CEO Solix Technologies. Firma obsługuje klientów z różnych branż, w tym bankowości, ubezpieczeń, far-
Data zakończyła się fiaskiem.
maceutyki czy dostawców produktów konsumenckich. Na liście referencyjnej Solix Technologies znajdują się między innymi: AIG, Citigroup, Insignia Financial, LinkedIn, Motorola, Panasonic, Sanofi, Santander, Unilever czy Zurich Insurance Group. Co ciekawe, Solix Technology dysponuje dość skromnym zespołem w Europie, bazując głównie na współpracy z integratorami, jak Accenture, Cognizant czy HCL. – Jesteśmy w lepszej sytuacji niż kiedykolwiek wcześniej, nie tylko ze względu na wyniki finansowe, ale również dostęp do ogromnej ilości danych. To zwiększa nasze możliwości w zakresie tworzenia jeziora danych – podsumowuje Sai Gundavelli.
Australijska firma Arcitecta, która od półtora roku dysponuje oddziałem w Europie, działa w obszarze Big Data, a jej flagowym produktem jest Mediaflux – platforma do zarządzania zróżnicowanymi rodzajami danych (strukturyzowanymi, nieustrukturyzowanymi, geoprzestrzennymi, szeregu czasowego). Lista funkcji oferowanych przez system obejmuje między innymi przechowywanie, ochronę, współdzielenie, migrację czy warstwowanie danych. Mediaflux jest niezależny od sprzętu i może w przejrzysty sposób przechowywać, zarządzać oraz interpretować zasoby cyfrowe przechowywane przez dowolny system pamięci masowej.
– Nadal często można spotkać maszyny wirtualne o pojemności od 1 do 3 TB, ale najnowsze mają już 14 TB. Zatem rozmiar plików rośnie, co oczywiście nie stanowi niespodzianki. Użytkownicy chcą zdjęć czy filmów
o większej rozdzielczości. W związku z tym zbiory danych cały czas się rozrastają, a my musimy nimi zarządzać. Spotykamy się też z nietypowymi sytuacjami, jak wówczas, gdy jeden z klientów posiada tylko 66 TB danych, ale liczba plików wynosi około miliona – mówi Graham Beasley, COO w Arcitecta.
Ważnym składnikiem Mediaflux jest XODB – baza danych, umożliwiająca użytkownikom szybkie i łatwe wyszukiwanie plików. Jej skalowalność pozwala na pracę z setkami miliardów plików. Na uwagę zasługuje też moduł Limewire, służący do transmisji dużych plików na znaczne odległości. Średni czas przesyłania danych wynosi 65 TB danych na godzinę.
Klienci Arcitecty nie płacą za pojemność, lecz rozlicza się ich w modelu użytkownika jednoczesnego. Ta licencja określa liczbę użytkowników, którzy mogą jednocześnie korzystać z danego oprogramowania.
– Szczególnie koncentrujemy się na kilku sektorach. Mam na myśli nauki przyrodnicze, wyższe uczelnie, placówki medyczne, branżę mediów i rozrywki, a także obronność. W przyszłości planujemy zwiększyć zasięg i dotrzeć do przedsiębiorstw z branży paliwowej – wyjaśnia Graham Beasley.
Nazwa StoneFly niewiele mówi nawet osobom dość dobrze zaznajomionym z rynkiem pamięci masowych. Ta amerykańska firma, z siedzibą w Castro Valley, projektuje systemy NAS, SAN, a od niedawna również rozwiązania obsługujące pamięć obiektową. Produkty te bazują na autorskim systemie operacyjnym StoneFusion. Jednym z walorów pamięci masowych StoneFly jest
duża skalowalność. Klient może rozpocząć przygodę z produktami tej firmy już od jednego węzła, by skończyć na 128 jednostkach, co daje pojemność 200 PB danych. – Jesteśmy mało znani, ponieważ sprzedajemy znaczną część sprzętu producentom OEM. Jednak ostatnio coraz częściej oferujemy nasz sprzęt za pośrednictwem dystrybutorów i resellerów. W znacznym stopniu przyczyniło się do tego bezpieczeństwo danych, które w ciągu ostatnich czterech lat stało się absolutnym priorytetem. Ze względu na złożony i dynamiczny charakter paradygmatu bezpieczeństwa, zdecydowaliśmy się być bliżej użytkowników końcowych i sprzedawców niż z producentów OEM – tłumaczy Mohammed Tahmasebi, dyrektor generalny StoneFly.
Producent z Castro Valley w odpowiedzi na narastające ataki ransomware opracował rozwiązanie typu air-gapping (fizycznie odizolowana od środowiska sieć), które stanie się integralną częścią istniejących już produktów. StoneFly dąży do integracji z infrastrukturą oraz narzędziami innych dostawców i ma podpisane umowy o partnerstwie technologicznym z takimi firmami jak: Microsoft, AWS, VMware, Veeam, Commvault, Acronis i HYCU. W rezultacie systemy StoneFly mogą pracować w różnych środowiskach chmury prywatnej, hybrydowej lub publicznej.
Duży wpływ na sukces rynkowy, bo za takowy można uznać 50 tys. wdrożeń o łącznej pojemności ponad 2,5 EB, ma polityka cenowa. Produkty StoneFly są tańsze o 30–50 proc. od konkurencji. Przystępne ceny sprawiają, że systemy są dostępne dla firm różnej wielkości. n
O tym, jakie podejście i działania pomagają rekruterom utrzymać pozytywne relacje z kandydatami, nawet jeśli finalnie nie zostaną oni zatrudnieni, rozmawiamy z Julią Awerianową, pełniącą rolę Senior IT Recruitment Consultant w Yard Corporate.
Jakie są główne korzyści z budowania pozytywnych relacji z kandydatami, niezależnie od tego, czy współpraca zostanie podjęta czy też nie?
Julia Awerianowa Jedną z oczywistych korzyści z budowania takich relacji jest możliwość powrotu do kandydatów podczas kolejnych rekrutacji. W sytuacji, gdy aktualnie nie ma odpowiedniego wakatu albo w bieżącym procesie rekrutacyjnym nie udało się nawiązać współpracy, warto zadbać o dobry kontakt, żeby móc wrócić do tych osób z propozycją nowego projektu w przyszłości. Mając zbudowane relacje z kandydatami, ułatwiamy sobie przyszły kontakt, ponieważ już nie zaczynamy rozmów o nowych procesach rekrutacyjnych „od zera”.
A te nieco mniej oczywiste powody?
Dodatkowo utrzymywanie pozytywnych relacji przyczynia się również do tego, że kandydaci polecają nam swoich znajomych lub polecają nas i firmę, w której pracujemy, jako pracodawcę godnego zaufania. Podczas mojej kilkuletniej pracy nie raz zdarzały się takie sytuacje. Udało mi się zatrudnić kandydata w prowadzonym przeze mnie procesie,
i choć po jakimś czasie współpraca się zakończyła, to dzięki utrzymaniu pozytywnego kontaktu po około roku ta osoba sama się do mnie odezwała z pytaniem, czy nie prowadzę aktualnie jakiejś rekrutacji. Finalnie kandydat ponownie przeszedł pozytywnie proces rekrutacyjny i dostał ofertę pracy, na której mu zależało. Takie przykłady pokazują, że utrzymywanie dobrych relacji kandydat-rekruter są korzystne dla obu stron.
A dlaczego utrzymanie pozytywnych relacji z kandydatami jest tak ważne dla wizerunku firmy?
Najważniejszy jest sposób komunikacji.
To też dość oczywiste. Przyczynia się ono do budowania zaufania pomiędzy kandydatami a firmą rekrutującą. Osoby, z którymi udaje nam się nawiązać dobry kontakt, chętniej dzielą się pozytywnymi wrażeniami ze swoimi znajomymi, zaglądają na naszą stronę internetową, obserwują social media i śledzą nasze oferty pracy. To wszystko wpływa na kształtowanie wizerunku firmy, a dodatkowo ułatwia dotarcie do większej ilości kandydatów oraz pomnaża liczbę aplikacji i poleceń. W przyszłości skutkuje to też nawiązaniem współpracy z bardziej lojalnymi pracownikami, którzy już
od początku procesu rekrutacji mają do firmy zaufanie, ponieważ trafili do nas dzięki poleceniom znajomych.
Jakie działania mogą podtrzymać zainteresowanie kandydatów firmą, nawet jeśli nie zostaną zatrudnieni?
W sytuacji, gdy proces rekrutacyjny nie kończy się zatrudnieniem, staramy się wrócić do kandydatów z precyzyjnym feedbackiem na temat całego procesu i jego poszczególnych etapów. Zdarza się, że nie mamy dostępu do szczegółów, na których kandydatom zależałoby najbardziej (w naszej branży często są one ściśle techniczne), mimo to jednak odzywamy się z chociaż krótką informacją zwrotną, która jest zdecydowanie lepsza niż całkowity brak odpowiedzi. Podczas prowadzenia rekrutacji dbamy o komunikację i o to, aby była ona otwarta, konkretna i ciągła: w kilkuetapowym procesie bieżące informowanie kandydatów jest bardzo istotne, ponieważ sprawia, że osoby rekrutowane nie czują się zagubione i wiedzą dokładnie, czego mogą się spodziewać i na jakim są etapie. Warto też nawiązywać kontakt z kandydatami na LinkedInie lub zachęcać ich do obserwowania strony firmowej. Śledzenie ofert pracy lub przeglądanie publiko- Fot. archiwum
wanych przez firmę treści może zachęcić osoby do zaaplikowania.
Jakie znaczenie ma feedback od kandydatów po zakończeniu procesu rekrutacyjnego?
Taki feedback jest dla nas bardzo cenny, ponieważ wskazuje na to, co możemy w swoim procesie poprawić, a może nawet całkowicie zmienić. Pozwala spojrzeć na rekrutację od strony kandydata i zobaczyć, co mu się podobało, co było istotne, a co zbędne. W naszej branży osoby, które rekrutujemy, często same pełnią role liderów technicznych w swoich zespołach i prowadzą rozmowy z kandydatami, warto więc mieć to na uwadze i wymieniać się doświadczeniami. Pytając o wrażenia na temat rekrutacji, budujemy dialog i sprawiamy, że osoba po drugiej stronie czuje się ważna w tym procesie i ma możliwość wyrażenia swojego zdania. Etapy rekrutacji nie przypominają wtedy suchego sprawdzianu wiedzy i umiejętności, tylko stają się otwartą rozmową.
A jakie są strategie budowania pozytywnych relacji z osobami, które mogą być potencjalnymi kandydatami w przyszłości?
Najważniejszy jest sposób komunikacji, otwartość. Nieraz duże znaczenie ma
czenia i wrażenia związane z waszym procesem rekrutacyjnym?
Etapy
także nasz ton głosu i ogólne nastawienie do rozmówcy: uważam, że trzeba być życzliwym i empatycznym rekruterem, który sprawia, że kandydat czuje się wysłuchany. Warto pamiętać o tym, że po drugiej stronie jest osoba, która chciałaby znaleźć nowe fajne miejsce pracy, i rozmawiać z nią tak, jakbym to ja chciała, żeby ktoś rozmawiał ze mną. Warto też stosować aktywne słuchanie i dokładnie badać oczekiwania kandydata. Ta technika sprzyja utrwalaniu relacji z drugą osobą: w pamięci kandydata pozostaniemy rekruterem, który nie tylko przepytuje z listy wymagań, ale też potrafi wysłuchać i zebrać nasze oczekiwania. Cenione przez kandydatów są także wszelkie wskazówki dotyczące napisania dobrego CV lub przygotowania do rozmowy rekrutacyjnej. Nawet jeżeli nie dojdzie do zatrudnienia w aktualnym procesie, zawsze możemy doradzić kandydatowi, na co warto zwrócić uwagę w przyszłych rekrutacjach.
rekrutacji nie powinny być suchym sprawdzianem wiedzy i umiejętności.
Poza wcześniej wspomnianą otwartą komunikacją i życzliwością bardzo istotne jest przekazywanie szczegółów i wszystkich ważnych informacji już na samym początku procesu rekrutacji. Poszukiwanie nowej pracy nawet dla osób ze sporym doświadczeniem zawodowym wiąże się ze stresem: zawsze jest to pójście w nieznane, dlatego komplet informacji od rekrutera na temat roli, wymagań, benefitów jest pomocny. Innym pomysłem na budowanie pozytywnych relacji jest wsparcie kandydatów w poszukiwaniu nowego zatrudnienia. Jeżeli nie nawiążemy współpracy z daną osobą, możemy polecić jej inne warte uwagi oferty czy portale ogłoszeniowe: jako rekruterzy często w ramach codziennych obowiązków monitorujemy rynek pracy i możemy się podzielić obserwacjami. Takie podejście z pewnością przełoży się na utrzymanie dobrego kontaktu z kandydatami.
W jaki jeszcze sposób warto dbać o to, aby kandydaci, którzy nie zostali zatrudnieni, mieli pozytywne doświad-
Rozmawiał Tomasz Gołębiowski
Analitycy dziwią się, kiedy słyszą, że nie ma progu zaliczenia w egzaminach
IIBA (International Institute of Business Analysis). W innych egzaminach są. Masz, dajmy na to, 50 albo 70 proc., a tu nic. Z czego to wynika? I dlaczego to wcale niegłupie rozwiązanie?
ycie zaskakuje. Mnie zaskoczyło na przykład, że studiując psychologię natknę się na przedmioty iście matematyczne: statystykę i psychometrię. Ale, jako że na co dzień widzę powiązania między różnymi z pozoru tematami, tak i tu nietrudno było znaleźć związek z analizą biznesową.
Psychometria to nauka o opracowywaniu testów. Tak, żeby były rzetelne. Jeśli wydawało Ci się (tak jak mnie kiedyś), że testy psychologiczne są zbiorem przypadkowo wymyślonych pytań, to nic bardziej błędnego. Liczy się w nich, za pomocą matematycznych wzorów, jak bardzo są rzetelne (i dopuszcza, zmienia lub odrzuca), jak dane pytanie pasuje (lub nie) do mierzonej cechy, jak jest trudne, jak wpływa ocenianie przez różnych nauczycieli, a nawet na ile pytań trafiliśmy strzelając, a nie znając prawidłowej odpowiedzi. Szok. I pewnego dnia posklejały mi się kropki. Zrozumiałam, dlaczego egzaminy z IIBA nie mają podanego progu zaliczenia. Pojawiła się bowiem interpretacja wyniku testowego na dwa sposoby: względem kryterium i względem normy. Kryterium dotyczy tego, co wiemy czy rozumiemy, a zaliczenie daje np. poziom 70 proc. A z interpretacją względem normy trzeba się bardziej napracować.
Dobre praktyki
są odpowiedzią na skomplikowane problemy.
Jednak zanim przejdę do tego, jak to się robi, zadam pytanie – po co? Otóż wierzymy,
że wyniki odniesione do normy będą bardziej miarodajne, lepszej jakości. Zamiast do określonej liczby punktów, wyniki odnosimy do rozkładu normalnego wyników z danej populacji. Dobrą analogią jest tu badanie inteligencji mierzone w IQ. Wiemy, że fajnie byłoby mieć IQ na poziomie powyżej 100, a chodzą pogłoski o osobach, które miały ponad 120 czy nawet ponad 150. Czy jednak wiesz, że IQ 115 to nie liczba punktów?
Liczbę punktów uzyskanych w wielu podtestach składających się na badanie inteligencji sumuje się, a następnie normalizuje. Ta operacja to nic innego jak przełożenie jakiejś liczby punktów (wyniku surowego) na normę. Średnia w populacji to 100 punktów IQ. Poniżej średniej to np. 85, a powyżej np. 115. A co to za populacja? Normy tworzy się często dla kraju. Dlaczego? Bo silnie łączy nas kultura wychowania. Jeśli zatem mówimy, że ktoś w Polsce ma IQ 115, to znaczy, że jego inteligencja jest powyżej przeciętnej inteligencji Polaków. Ktoś, kto ma 115 punktów IQ w Zimbabwe, mógł osiągnąć inną wartość punktów w wynikach surowych, ale na tle swojej populacji jest również powyżej przeciętnej.
Normy przygotowuje się w badaniu kilkuset osób – badając je, patrząc jakie wyniki osiągały, licząc średnią, przypisując jej wartość 100, a pozostałe wyniki skalując i adekwatnie odnosząc do normy. Przynaj-
mniej tak wygląda skala normalizacyjna IQ. Można też stosować inne, gdzie średnią nie będzie 100, a np. wartość 5.
Dlaczego to jest
No dobra, a teraz jak to się ma do analityków i dlaczego to nie takie głupie? Otóż praca analityków biznesowych, odnosząc się do modelu Cynefin złożoności problemu, leży w obszarze „skomplikowane” (jeśli chodzi o analizę złożonych systemów informatycznych) i „złożone” (jeśli chodzi o reakcję ludzi na systemy). Mówimy, że BABOK Guide jest zbiorem dobrych praktyk. Właśnie dobre praktyki są odpowiedzią na problemy skomplikowane. Jest duża szansa, że zadziałają i że będą dobre, ale nie ma pewności i schematu tak prostego, jak w problemach prostych z natury. Wyłaniające się działanie stosujemy w podejściu zwinnym, gdzie nie jesteśmy w stanie przeanalizować na 100 proc. z wyprzedzeniem np. reakcji ludzi – klientów, użytkowników, interesariuszy.
Odnosząc się jeszcze do teorii myślenia, mamy myślenie konwergencyjne (czyli zbieżne, posiadające jedno prawidłowe rozwiązanie) i myślenie dywergencyjne (rozbieżne, posiadające wiele możliwych rozwiązań). Dziedzina analizy biznesowej ma momenty, gdy analiza może przebiec tylko w jeden możliwy sposób, należy podjąć tylko jedną decyzję i tylko jedna jest najlepsza według kryterium. Jednak gros czasu spędzamy w obszarze myślenia, które ma wiele potencjalnie dobrych rozwiązań.
Możemy mówić o tym, że pewne odpowiedzi na pytania analityków są prawidłowe w takim sensie, że są najczęściej stosowane przez praktyków z dobrymi rezultatami i weszły do kanonu dobrych praktyk. Branża tak robi. Obecnie. Bo czasy się zmieniają i coś, co brzmiało jak prawda objawiona 20 lat temu, niekoniecznie jest obecnie stosowane czy uznawane za najlepsze rozwiązanie. Dana dziedzina „żyje” i zmienia się.
Gdy wyniki testów odnosimy do norm populacyjnych możemy za tymi zmianami nadążać, czasem nawet nie zmieniając pytań! Zobaczymy, że eksperci zaczynają odpowiadać inaczej, a norma dostosuje się do tych zmian.
Testy, w których wyniki odnosimy do normy populacji analityków, a nie do konkretnej liczby punktów w odpowiedzi na konkretne pytania, zdają się bardziej odpowiadać naturze zagadnienia. Z tego też względu IIBA
po wypuszczeniu nowego egzaminu, oznajmia, że wyniki zostaną opublikowane dopiero po wzięciu udziału kilkuset osób (tak było po wypuszczeniu CPOA – Certified Product Ownership Analysis).
Co naprawdę robili? Normalizowali wyniki. Tworzyli odniesienie do populacji analityków. Dlatego też w wynikach IIBA, podobnie jak w wynikach badania inteligencji od profesjonalnego psychologa, nie otrzymujesz liczby punktów, a informację, czy jesteś powyżej, poniżej czy wśród przeciętnych wyników w danym obszarze. Egzaminy IIBA zaliczamy, gdy nie jesteśmy poniżej w więcej niż np. 1 z 6, czy 2 z 7 obszarów wiedzy.
Dla mnie ma to sens i na pewno świadczy o rzetelnym podejściu do testowania IIBA.
Hanna Gruzdowska Autorka pełni funkcję Senior Strategic Business Analyst w Lufthansa Systems Poland, jak też jest właścicielką firmy doradczej Analiza IT.
Mam wśród znajomych na LinkedIn pełen przekrój ludzi, którzy różnią się między sobą pod względem ich stosunku do „agile”. I w zasadzie już od kilku lat mogę obserwować pewną tendencję. O ile samo hasło nie straciło mocno na swojej zadziwiającej wręcz popularności, to zmienił się „sentyment”, jaki mu przypisujemy. Pisząc wprost, obecnie agile stał się naczelnym tematem do żartów. Stąd mnożą się memy i filmiki, które nie tylko bawią, ale pokazują jak cały ten ruch wygląda z boku i… robią to zaskakująco dobrze. Zapytacie, co taki viral może zrobić? Ano zwiększa świadomość u odbiorców, podobnie myślących o tym, że agile to dziś bardziej jakaś forma religii, tudzież jakiejś karykatury tego, czym miał być, upewniając, że ich niefanatyczne, rzekłbym centrowe podejście, ma swoje uzasadnienie.
Obecnie poszczególne firmy szukają już powoli innych sposobów na ułożenie pracy swoich zespołów. Pojawiają się nowe hasła, które zasadniczo mają nadal orbitować wokół „zwinności”, a jednocześnie tuszować wszystko to, co jest obśmiewane np. w Scrumie. A może czekają nas teraz odwrócone transformacje, które dostrzegą, że przed erą agile istniały również dobre praktyki inżynierskie, które mogą teraz triumfalnie wrócić do łask? Ktoś doda, ot, zwyczajna sprawa, mamy trend, to i musi się pojawić anty-trend…
Czas na AI
Kilka miesięcy temu odbyła się największa w Polsce konferencja dla analityków wszelkiej maści (IIBA Poland Summit 2023). Próż-
Agile? Szanowni Państwo, zdaje się, że masa krytyczna została właśnie osiągnięta. Coś się kończy, coś się zaczyna.
no było szukać w agendzie tytułów prelekcji ze słowem agile. Co było nie do pomyślenia jeszcze rok wcześniej! Tak, obecnie w modzie jest AI, ale proszę zauważyć, z jaką łatwością sztuczna inteligencja strąciła agile gdzieś tam na sam dół.
Jakub Skałbania, założyciel Netwise, w swoim ubiegłorocznym wpisie na platformie LinkedIn, „winą” za taki upadek obarcza firmy szkoleniowe, które wietrząc łatwy zarobek, zaczęły oferować swoje usługi transformacyjne, zmieniające „zwykłych pracowników” w takich „zwinnych”. W ofertach pojawiły się produkty „instant” i kursy weekendowe. Jak na konferencji występował ktoś z innym spojrzeniem na całe to zamieszanie, od razu dostawał łatkę „betonu” – osoby, która nie potrafi przystosować się do nowych rozwiązań.
Łatwo przyszło, łatwo poszło.
I do pewnego stopnia kręciło się to wszystko całkiem dobrze. Było wrażenie, że coś się zmienia, a firmy stosujące podejście agile szły z duchem czasu. Zwinne frameworki zaczęły być stosowane gdzie popadnie, a nawet wyszły poza IT. Towarzyszyły temu niekończące się dyskusje o tym, co to jest „prawdziwy Scrum”. W końcu pojawił się SAF, łatwiejszy do akceptacji przez duże korporacje i dający złudzenie zwinności. A jak coś nie wychodziło? No cóż, wystarczyło powiedzieć, że „to nie był prawdziwy Scrum, wypaczyliście go, no to sami macie! Teraz potrzeba wam jeszcze więcej szkoleń i jeszcze więcej kołczów!”.
Co ciekawe, tak jak triumfalny marsz „ruchu agile” po zdobycie serc korporacji został rozpoczęty przez programistów, tak stanowią oni w tej chwili najgłośniejszą grupę
zawodową, która jest krytyczna wobec tego, jak postulaty słynnego manifestu mają się do codzienności…
Czas na „sprawdzam”
Na koniec, wiem, że jako analitycy macie do czynienia z różnymi podejściami. I na pewno są wśród was tacy, którzy pracują „zwinnie” i sobie to chwalą. Niniejszym tekstem chciałem przede wszystkim zauważyć, że prawdopodobnie za chwilę spora część firm będzie dokonywać przeglądu, na ile te transformacje, w które zainwestowano niemałe budżety, przełożyły się na kilka istotnych parametrów… Czy kolejny framework był wprowadzony, bo akurat była taka moda, czy może rzeczywiście był przemyślany i dostosowany do potrzeb?
Coraz częściej management może pytać „po co nam ten cały agile” i weryfikować korzyści i straty. Dlatego nie ma sensu, gdy się jest analitykiem, „fokusować” się na jednym podejściu, nawet jeśli ono króluje od lat, bo za chwilkę i to może „zwinnie” ulec zmianie. I to nie zawsze zgodnie z zasadą: łatwo przyszło, łatwo poszło…
Paweł Cyzman
Analityk z misją usprawniania działalności firm poprzez automatyzację procesów biznesowych i wykorzystanie technologii low-code. Ekspert we wdrażaniu oprogramowania i modelowaniu rozwiązań w notacji BPMN i UML.
Sztuczna inteligencja w ChatGPT dostosowuje się do powagi i poziomu złożoności dyskusji.
Nie mogłem się oprzeć pokusie, aby przez chwilę wejść w rolę fizyka-teoretyka, który eksploruje nowe hipotezy. Chociażby takie, jak ta: w jaki sposób podróżować w kosmosie z prędkościami bliskimi prędkości światła z wykorzystaniem napędu odrzutowego? Tak! Odrzutowego! Te myśli krzątały się w mojej głowie chyba od dzieciństwa, gdy gdzieś wyczytałem, że w przestrzeni międzygalaktycznej mamy jeden atom wodoru na metr sześcienny. A w przestrzeni międzygwiezdnej może być ich nawet tysiąc. Wiedziałem jednak, że tych moich głupich myśli nie zweryfikuję obliczeniowo, bo to za trudna dla mnie matematyka albo mi się nie będzie chciało. Teraz jednak mogłem poczuć się fizykiem-teoretykiem dzięki ChatGPT i zwe-
AI
zachowuje
się nonszalancko. Do czasu…
ryfikować swoje teorie obliczeniowo. Oczywiście OpenAI na początku mocno oprotestował temat napędu odrzutowego w próżni kosmicznej. W ogóle pomylił napęd rakietowy z odrzutowym i opacznie rozumiał wpływ efektów relatywistycznych. Ogólnie nie skupiał się na temacie. Musiałem go nieźle opierniczyć, żeby potraktował rozmowę poważnie. I po kilkunastu minutach, po dokonaniu obliczeń, przyznał, że napęd odrzutowy dla prędkości powyżej 50 procent prędkości światła jest bardziej obiecujący i ekonomiczny niż powszechnie znany i teoretycznie rozważany napęd jonowy.
Ciekawy wniosek jest taki, że sztuczna inteligencja w ChatGPT dostosowuje się do powagi i poziomu złożoności dyskusji. Na
W zeszłym tygodniu widziałem reklamę eventu dla przedsiębiorców, gdzie promowana była prezentacja pod hasłem: „jakie popełniłem błędy”. Zacznijmy od tego, że organizowanie takich wydarzeń to… duży błąd.
Jpoczątku zachowuje się nonszalancko i nawet nie dba o poprawność. Popełnia błędy i myli fakty. Odpowiada na odczepnego. Jednak z czasem stara się bardziej i nawet w odpowiedzi na jedno proste polecenie potrafi przeprowadzić skomplikowane obliczenia, aby tylko udzielić pełnej i właściwej odpowiedzi. Trochę jak ludzie… I tak już bardziej serio. Naukowcy! Czas pakować walizki i zająć się agroturystyką. Mam cały czas nadzieję, że AI przynajmniej utworzy jakieś rezerwaty dla ludzi i tam będziemy mogli jeść jabłka z drzew – wszystkie bez zakazów. Taki lepszy raj.
Arnold Adamczyk
Autor od 2012 roku prowadzi działalność w Chinach i Hong Kongu w zakresie VR/AR/MR oraz edukacji STEM. Specjalizuje się w organizowaniu polskich startupów w Chinach i Hong Kongu.
dla firmy takiej jak moja, jakie argumenty przekonują klientów, na czym zarabiamy, a na czym tracimy i jak zatrudnić właściwe osoby.
acek Walkiewicz mówi: co cię nie zabije to cię nie zabije, ale niekoniecznie cię wzmocni. W zasadzie to może cię straumatyzować na resztę życia. Zgadzam się z tym. Zaliczenie porażki nie nauczy cię osiągnięcia sukcesu. Robert Lewandowski nie dlatego gra w FC Barcelonie, bo nie trafiał w bramkę w Bayernie Monachium. A fakt, że ktoś zaliczył trzy porażki pod rząd nie znaczy, że za czwartym razem osiągnie sukces. Wręcz przeciwnie, taka oso-
Co cię nie zabije, to cię straumatyzuje.
ba często nawet nie wie, jak wygląda sukces. I tutaj wcale nie chodzi o aroganckie podejście czy egocentryzm lub brak skromności. Mnie samego budowanie Divante nauczyło – jak nic innego – że w biznesie ego najlepiej czuje się schowane w kieszeni.
W Polsce mamy z tymi kwestiami poważny problem, bo dopiero od 34 lat cieszymy się wolnym rynkiem. W efekcie mamy bardzo mało wiedzy o biznesie przekazywanej z pokolenia na pokolenie. Myśmy, w Divante, rozwiązali ten problem radząc się innych. Dużo nauczyliśmy się chociażby od pierwszego inwestora (OEX), a poza tym dużo pomogli nam doradcy i nasza znakomita rada nadzorcza.
Również was bardzo do tego zachęcam. A jednocześnie odradzam chwalenie się porażkami. Raczej dzielcie się z innymi tym, dlaczego coś wam się udało!
Jednocześnie wiem, że budując firmę nie miałem pojęcia o tym, jak wygląda uczciwy cennik w mojej branży, jakie są prawidłowe relacje między founderami, jaki jest sufit wyników
PiotrKarwatka Co-Founder Catch the Tornado
Podczas gdy kolejni producenci wprowadzają oparte na GenAI funkcje do swoich narzędzi cyberbezpieczeństwa, integratorzy starają się oszacować ryzyko i korzyści, jakie sztuczna inteligencja może przynieść ich klientom.
n Kyle Alspach
Gdy tylko pojawiła się publicznie dostępna wersja ChatGPT, rozgorzała dyskusja o szerokim spektrum wyzwań i możliwości związanych z cyberbezpieczeństwem, jakie daje generatywna sztuczna inteligencja. Obecnie eksperci ds. bezpieczeństwa nie mają wątpliwości, że większość z nich jest dopiero przed nami. Przy czym dla integratorów pojawienie się GenAI oznacza przede wszystkim nowe doświadczenia. Z jednej strony do wyjątkowo pilnych zadań doszło niesienie pomocy klientom w bezpiecznym korzystaniu z nowych aplikacji
AI. Z drugiej zaś wykorzystanie tego rodzaju technologii przez hakerów zwiększa zagrożenie, wobec którego integratorzy powinni działać proaktywnie.
czym z uzyskanym dzięki GenAI właściwym kontekstem dotarcie do etapu decyzji będzie prostsze – mówi Ian McShane, wiceprezes ds. strategii w Arctic Wolf.
Jednak wszystko, co obserwujemy, to dopiero preludium: integratorzy mogą zakładać, że przez najbliższe lata technologie GenAI staną się źródłem zarówno innowacji, jak i zaburzeń na rynku.
– Wiele w tym wszystkim medialnego szumu, który robi się coraz głośniejszy. Myślę jednak, że sprawy posuwają się do przodu i jasne jest, że AI będzie miało wpływ na nasz rynek – mówi Mike Heller, dyrektor ds. zarządzanych usług bezpieczeństwa w Kudelski Security. Oczywiście, jaką ostatecznie ten wpływ przybierze formę, dopiero się okaże.
Wiele w tym wszystkim medialnego szumu.
Zwłaszcza że GenAI jest powszechnie wykorzystywana przez producentów w celu ulepszania sposobu wykorzystywania narzędzi ochrony przez zespoły ds. bezpieczeństwa. Ma to skutkować zwiększaniem produktywności i szybszym reagowaniem na zagrożenia.
– Ostatecznie w obszarze cybersecurity liczy się przede wszystkim szybkość, z jaką ludzie mogą podejmować decyzje. GenAI może przyspieszyć podejmowanie decyzji, zapewniając większy kontekst dotyczący potencjalnego zagrożenia. Daje to zespołom ds. bezpieczeństwa pewność, co może być zignorowane, a co wymaga dalszego badania. Przy
Część ekspertów szczególnie dobitnie podkreśla, że GenAI może stanowić ryzyko dla bezpieczeństwa, jeśli nie jest odpowiednio zarządzane.
– Uważam, że jednym z naszych obecnych zadań jako dostawców usług zarządzania infrastrukturą IT jest wyprzedzenie zdarzeń i wczesne przeprowadzanie z klientami rozmów na temat bezpiecznego oraz poprawnego wykorzystania sztucznej inteligencji. Słyszeliśmy już przecież o błędach i groźnych zdarzeniach. Generalnie uważam, że generatywna sztuczna inteligencja to przyszłość i wiele organizacji próbuje znaleźć sposób na znalezienie w niej korzyści – mówi Atul Bhagat, prezes BASE Solutions.
Jednym z potencjalnych sposobów jest ochrona informacji poprzez zapobieganie wyciekowi własności intelektualnej i danych wrażliwych do aplikacji GenAI. W ostatnich miesiącach kilku producentów udostępniło narzędzia, które mają pomóc w bezpiecznym wykorzystaniu platform w rodzaju ChatGPT. Przykładowo, Zscaler zaktualizował swój produkt zapobiegający utracie danych (DLP) o funkcję przeciwdziałania potencjalnemu wyciekowi danych do aplikacji GenAI. W tym celu wdrożono nowe polityki ochrony przed utratą danych i filtrowania informacji. Jednocześnie producent poinformował, że niedawno wprowadzona funkcjonalność Multi-Modal DLP może zapobiegać wyciekom danych nie tylko w tekście i obrazach, ale także w dźwięku i wideo.
– Ogólnie rzecz biorąc, celem jest umożliwienie naszym klientom bezpiecznego korzystania z generatywnej sztucznej inteligencji, bez wycieku danych i ryzyka wykorzystania przez złośliwe wersje czatbotów – tłumaczy Deepen Desai, CISO kalifornijskiego producenta.
Innym dobrze znanym zagrożeniem bezpieczeństwa, jakie przynosi GenAI, jest wykorzystywanie ChatGPT przez cyber-
przestępców do tworzenia doskonalszych kampanii phishingowych.
Nie tak dawno specjalistom ds. bezpieczeństwa udało się zidentyfikować zasilane przez GenAI czatboty, które stworzono specjalnie do użytku przez hakerów. Chodzi o WormGPT, który został ujawniony przez ekspertów ze SlashNext, a także FraudGPT – odkryty przez badaczy z Netenrich.
Jednak już sam ChatGPT może stanowić znaczące wsparcie dla przestępców, gdy użyją go chociażby do poprawiania gramatyki w wykorzystywanych w phishingu tekstach tworzonych przez napastników, którzy nie mówią w języku potencjalnej ofiary. – Istniejące zabezpieczenia nie pozwalają na dostarczanie mejli przez ChatGPT, co mogłoby być wykorzystane w socjotechnice. Na przykład przy wysyłaniu mejla do „Twojego wujka, z którym nie rozmawiałeś od lat”. Nawet, jeśli istnieją jakieś zabezpieczenia, to jeśli napastnik jest sprytny, może je ominąć – mówi Mike Parkin, inżynier z Vulcan Cyber, izraelskiego dostawcy usług zarządzania podatnościami. W odpowiedzi na to zagrożenie, wiele firm z branży bezpieczeństwa udostępniło narzędzia, które mogą pomóc w zwalczaniu wspieranego przez GenAI phishingu. Narzędzie CheckGPT, opracowane przez specjalistów z Abnormal Security, służy właśnie do wykrywaniu ataków, które zostały stworzo-
ne przy użyciu dużych modeli językowych. Wykorzystuje ono wiele open-source’owych LLM-ów, aby określić prawdopodobieństwo, że wiadomość mejlowa została stworzona przy użyciu GenAI.
Walka z AI przy pomocy AI
Z kolei SlashNext, dostawca rozwiązania do wykrywania phishingu, oferuje zasilane własną technologią GenAI narzędzie, która ma blokować oparte na mejlach ataki, które są tworzone przez aplikacje GenAI. – Nasz zespół uważa, że musimy z AI walczyć za pomocą AI – mówi Patrick Harr, CEO SlashNextu.
Zresztą w całej branży cyberbezpieczeństwa dostawcy energicznie wprowadzają zasilane przez GenAI funkcje do swoich narzędzi ochrony. Jednym z pierwszych był SentinelOne, który w kwietniu ub.r. wprowadził Purple AI – zasilane przez GenAI rozwiązanie do śledzenia zagrożeń. Narzędzie umożliwia korzystanie z naturalnego języka do zapytań systemu, oferując analitykom dużą oszczędność czasu. Dzięki niemu zespoły ds. bezpieczeństwa mają reagować na więcej alertów i wykrywać większą liczbę ataków.
– Purple AI zmienia każdego początkującego analityka w superanalityka – przekonuje Tomer Weingarten, CEO SentinelOne. Z kolei CrowdStrike zaprezentował Charlotte AI, rozwiązanie, które producent nazywa „opartym na generatywnej AI analitykiem ds. bezpieczeństwa”. Ma ono znacząco zwiększać produktywność i skuteczność zespołu Centrum Operacji Bezpieczeństwa (SOC).
– Sposób, w jaki działa ta technologia, polega na przyspieszeniu podejmowania decyzji i ułatwianiu prezentowania informacji analitykom SOC. Dzięki temu mogą działać bardzo szybko – twierdzi Michael Sentonas, prezes CrowdStrike’a.
Wtórują mu inni specjaliści, według których należy wykorzystać GenAI tak, by rozwiązywała problemy, wykraczając daleko poza powierzchowne zastosowania w obszarze cyberbezpieczeństwa.
– Dlatego właśnie to, co robimy, to definiowanie tych trudnych problemów do rozwiązania. Chcemy do tego podejść architektonicznie, wykorzystując nowe technologie AI. To nie będzie tylko małe pole w rogu interfejsu użytkownika, gdzie można coś wpisać i otrzymać odpowiedź – mówi Lee Klarich, szef produktu w Palo Alto.
Obszary threat intelligence i zarządzania podatnościami to tylko dwa przykłady, które powinny doświadczyć zasadniczych ulepszeń dzięki użyciu GenAI. Zamiast czytać każdy raport z osobna, przyszli analitycy bezpieczeństwa będą mogli wydobyć i skorelować dane z wielu dokumentów, aby szybko uzyskać spójny obraz.
może stanowić znaczące wsparcie dla przestępców.
– A jeśli chodzi o zarządzanie podatnościami, to GenAI ułatwi określenie, które poprawki bezpieczeństwa należy wdrożyć jako pierwsze, nawet automatyzując ich wdrażanie. W świecie, w którym atakujący zawsze wydają się być górą, wykorzystanie GenAI do automatyzacji wielu działań z obszaru bezpieczeństwa mogłoby dawać realną przewagę – podkreśla Robert Boyce, dyrektor zarządzający i globalny lider ds. usług odporności na cyberzagrożenia w Accenture.
Niemniej, zdaniem ekspertów, nie ulega wątpliwości, że wiele zastosowań GenAI w obszarze cyberbezpieczeństwa wciąż czeka na odkrycie. Im szybciej, tym lepiej. n
„Za kilka lat w aplikacji PKP Intercity kupimy nie tylko bilet kolejowy z Neapolu do Rzymu, ale choćby z Sanoka do Bilbao – i to w najlepszej możliwej cenie” – mówi Tomasz Gontarz, do kwietnia br. wiceprezes zarządu PKP Intercity.
Z perspektywy pasażera kontakt z systemami informatycznymi PKP Intercity ma prawdopodobnie miejsce przede wszystkim przy okazji zakupu biletu. Z jakich rozwiązań technicznych korzystacie w tym obszarze?
Tomasz Gontarz Wciąż jeszcze eksploatujemy systemy starszego typu, jak chociażby KURS 90. Zdajemy sobie sprawę zarówno z ich plusów, jak i ograniczeń. Z drugiej strony, spotykamy się z potrzebami klientów i presją rynku, aby zapewniać przyjazne, wygodne i najlepiej samoobsługowe kanały sprzedaży biletów. Występuje więc konieczność integracji starych rozwiązań z nowoczesnymi. Obecnie wyciskamy z leciwego KURS-u „siódme poty” i okazuje się, że to, co do niedawna było niemożliwe, staje się rzeczywistością. Znakomity przykład to graficzna rezerwacja miejsc, która rzekomo miała być niewykonalna, a świetnie się sprawdza.
Jak duży potencjał rozwojowy tkwi jeszcze w tym systemie? Jak długo zamierzacie go rozbudowywać? Jesteśmy świadomi, że rozwój KURS-u ma swoje granice. Równolegle prowadzimy więc prace nad jego następcą. Opracowanie i pełne wdrożenie takiego systemu to zadanie na wiele miesięcy, a nawet lat. Budowa ekosystemu dystrybucji biletów, z uwagi na konieczność utrzymania szerokiej i nieprzerwanej integracji z licznymi systemami innych podmiotów, wymaga fachowej wiedzy i doświadczenia. Aby planowana migracja nie nastręczyła problemów, musimy jednocześnie budować nowy, centralny system sprzedaży i utrzymywać dotychczasowy na dostatecznym poziomie stabilności.
W jaki sposób odbywa się sprzedaż biletów do stacji poza granicami naszego kraju? Czy system PKP Intercity zintegrowany jest z systemami biletowymi innych przewoźników europejskich? Sieć sprzedaży biletów na pociągi dalekobieżne w Europie to wspólne, międzynarodowe przedsięwzięcie łączące poszczególne kraje. Rozwiązanie to było zaprojektowane i zbudowane w latach 80-tych ubiegłego stulecia, na miarę ówczesnych potrzeb i możliwości. Mało kto zdaje sobie sprawę, że w ujęciu technicznym nic nie stoi na przeszkodzie, by kasa we Włocławku sprzedała bilet kolejowy z Neapolu do Rzymu. W praktyce nie wygląda to jednak tak dobrze. Sprzedaż takiego biletu wymaga od kasjera sporej wiedzy i umiejętności. Dlatego pod szyldem UIC (Międzynarodowy Związek Kolei, fr. Union Internationale des Chemins de fer – przyp. red.), organizacji zrzeszającej przewoźników kolejowych Europy Zachodniej i Centralnej, następuje stopniowa migracja do opracowanego na nowo modelu dystrybucji biletów OSDM – Open Sales and Distribution Model.
Jakie są wasze najważniejsze wyzwania i priorytety w utrzymaniu oraz rozwoju informatyki na potrzeby PKP Intercity?
Najważniejsze jest zapewnienie ciągłości działania przy wielu krytycznych obciążeniach systemów. Odnotowujemy duży wzrost popytu na nasze usługi, co przekłada się na bardzo duży ruch z wielu kanałów. Musimy więc właściwie skalować naszą infrastrukturę i zapewnić jej bezpieczeństwo. Kładziemy nacisk na jakość, co przy
obecnym tempie wzrostu sprzedaży usług i długu technologicznym wynikającym z zaniedbań w rozwoju systemów, stanowi nie lada wyzwanie. Wspólnie z partnerem technologicznym, spółką PKP Informatyka, udostępniliśmy pilotażowo serwis internetowej sprzedaży biletów e-IC 2.0 i cały czas intensywnie go rozwijamy. Ukoronowaniem prac będzie jednak dopiero wymiana centralnego systemu sprzedaży, a więc zastąpienie KURS 90 nowym rozwiązaniem.
Czym będzie charakteryzował się ten nowy system?
Nowy, centralny system sprzedaży, który obecnie budujemy, opiera się od początku na koncepcjach charakterystycznych dla OSDM, czyli wspomnianego, nowego modelu sprzedaży biletów kolejowych dla Europy. Za kilka lat w aplikacji PKP Intercity kupimy nie tylko bilet kolejowy z Neapolu do Rzymu, ale choćby z Sanoka do Bilbao – i to w najlepszej możliwej cenie. A miejsca we wszystkich pociągach po drodze będziemy mogli wybrać ze schematu graficznego. Oczywiście nowy, centralny system sprzedaży to nie tylko współpraca międzynarodowa, lecz także wzrost elastyczności zarządzania ofertą krajową. To będzie zupełnie nowa jakość nie tylko dla klientów, ale i dla pracowników.
Z jakich jeszcze, kluczowych dla prowadzonej działalności, systemów korzystacie?
W związku z naszymi potrzebami wdrażamy i rozwijamy narzędzia Business Intelligence, w tym złożone systemy analityki sprzedażowej. Mamy narzędzia umożliwiające tworzenie rozkładów jazdy, budowa- Fot.
nie harmonogramów pracy drużyn czy też maszynistów. Stosujemy szereg rozwiązań zapewniających kontrolę nad stanem technicznym naszego taboru. Ważną rolę odgrywają systemy monitorowania i zdalnej diagnostyki urządzeń pokładowych.
Co z wyposażenia teleinformatycznego znajduje się na pokładzie lokomotyw i wagonów w składach pociągów? Oprogramowanie lokomotyw jest zamknięte. Musi ono spełniać normy europejskie, tym samym normy dopuszczenia do ruchu kolejowego. Tego typu oprogramowanie jest utrzymywane przez dostawcę taboru. Systemy, którymi my zarządzamy na pokładach, często przy wsparciu podmiotów zewnętrznych, to są głównie: WiFi, SIP (systemy informacji pasażerskiej), SRS (system informujący o rezerwacji miejsc), CCTV, GPS, czy też mobilne wzmacniacze sygnału sieci operatorów telefonii komórkowej. Tabor wyposażony jest także w tzw. czarne skrzynki umożliwiające pobranie informacji o parametrach technicznych pojazdu.
Czy wasze systemy są zintegrowane z systemami spółki PKP PLK, która jest operatorem infrastruktury kolejowej?
Jak wygląda realizacja rozkładów jazdy i zarządzanie ruchem pociągów?
Tworzenie rozkładu jazdy odbywa się za pomocą specjalnego oprogramowania PTV Visum, służącego do planowania oferty transportu publicznego. Program ten nie jest jednak powiązany z innymi obszarami funkcjonowania spółki. Aktualnie trwają pracę nad stworzeniem systemu, który będzie zarządzał zarówno sferą planowania
TOMASZ GONTARZ
Jest absolwentem Wydziału Prawa i Administracji Uniwersytetu Warszawskiego oraz Studiów Podyplomowych Zamówień Publicznych Szkoły Głównej Handlowej. Ukończył także studia
Executive MBA in Innovation Management na Queen Hedvig Academy. Od 2017 roku pracował w Ministerstwie Infrastruktury przy projektach kolejowych, gdzie był odpowiedzialny m.in. za Program Kolej+ oraz Program Przystankowy. Pełnił stanowisko kierownicze w Biurze Ministra Infrastruktury. Od października 2020 r. był społecznym doradcą ministra infrastruktury, a od marca 2021 r. – społecznym doradcą Prezesa Rady Ministrów ds. Infrastruktury i Transportu. We wrześniu 2020 r. został też członkiem zarządu PKP Intercity ds. strategii i rozwoju, natomiast od kwietnia 2023 r. do kwietnia 2024 r. piastował stanowisko wiceprezesa zarządu PKP Intercity.
rozkładu jazdy, jak i późniejszą integracją danych z systemami zarówno wewnętrznymi, jak i zewnętrznymi. Obecnie po zatwierdzeniu rozkładów przez PKP PLK, informacja o nich pobierana jest do naszego PTV Visum, skąd trafia do innych systemów, na przykład monitoringu czy wyszukiwarki połączeń. Natomiast zarządzanie ruchem pociągów należy do zarządcy infrastruktury kolejowej – PKP PLK, od którego dane przekazywane są do naszej dyspozytorni. W aplikacji mobilnej PKP Intercity oraz e-IC 2.0 korzystamy z informacji o opóźnieniach pociągów oraz numerach peronu i toru.
Jakie są strategiczne kierunki rozwoju środowiska ICT w PKP Intercity? Rozwijamy i będziemy rozwijać nasze kanały sprzedaży tak, aby nasza oferta docierała do jak największej liczby osób, w sposób jak najbardziej przystępny. Naszym celem jest optymalizacja rozwiązań, obsługa w modelu omnichannel i zapewnienie jak najlepszej dostępności aplikacji. Kolejnym, strategicznym wyzwaniem jest wykorzystanie danych i ich przetwarzanie. W związku z tym rozwijamy i dalej planujemy rozwijać systemy Business Intelligence. Duży nacisk kładziemy także na rozwój systemów pokładowych. Do 2030 roku planujemy wyposażyć cały tabor w systemy WiFi oraz w dużym stopniu w inne systemy, takie jak wzmacniacze sieci operatorów komórkowych, czy też CCTV. Rozwój systemów i narzędzi będzie przebiegać w kierunku automatyzacji prac, tak aby wspierać pracowników realizujących coraz więcej zadań. Dodatkowo mamy problem z rosnącą złożonością procesów oraz brakiem wykwalifikowanej kadry, która mo-
głaby je realizować. Mamy nadzieję, że automatyzacja pomoże w różnych aspektach naszej działalności, umożliwiając podnoszenie jakości świadczonych przez nas usług.
Co jest planowane do realizacji w najbliższym czasie?
Planujemy wymienić biletomaty, aby nowe urządzenia były bardziej przystępne dla klientów i umożliwiały zakup pełnej oferty. Będziemy wprowadzać nowe kasy stacjonarne umożliwiające łatwy wybór miejsca przez pasażera przy użyciu specjalnego monitora. Jesteśmy w trakcie realizacji nowego systemu centralnego, który zastąpi KURS 90. Pracujemy też nad wdrożeniem systemu CRM i programu lojalnościowego. Przygotowujemy się do wymiany zestawów kasowych w kasach biletowych. Będą składały się z dotykowego terminala POS, dodatkowego dotykowego ekranu dla klienta, myszy, klawiatury i UPS-a. Terminal POS wyposażony będzie w nową, tworzoną przez nas aplikację sprzedażową. Chcemy udostępniać podróżnym formularz w aplikacji mobilnej do komunikowania się z konduktorem w celu zgłaszania incydentów na pokładzie pociągu. Wdrażamy wykorzystanie wirtualnej rzeczywistości w procesie szkolenia pracowników. Posiadamy kilka gogli VR i oprogramowanie odwzorowujące windę do obsługi osób z niepełnosprawnością. Rozwijamy też pokładowe systemy komunikacji bezprzewodowej, których wydajność musimy stale poprawiać. Wywiad przeprowadzono w marcu 2024 r.
Rozmawiał Andrzej Gontarz
MIESIĄC SPRAWDZAMY, o czym branża IT (i nie tylko) dyskutuje na
Jarosław Żeliński, ekspert ds. analizy biznesowej, dzieli się swoimi doświadczeniami w tym zakresie: „jeżeli pracuję nad zrozumieniem logiki działania organizacji, nie ma znaczenia język programowania; jeżeli chcę udokumentować to co odkryłem, nie ma znaczenia język programowania; jeżeli chcę zaprojektować architekturę przyszłej aplikacji, nie ma znaczenia język programowania; jeżeli chcę opisać wymagane algorytmy, nie ma znaczenia język programowania; jeżeli chcę sprawdzić jak to zadziała i czy zadziała, nie ma znaczenia język programowania. Co ma znaczenie? Znaczenie ma umiejętność modelowania systemów i dokumentowania wiedzy. Język programowania ma znaczenie dopiero dla dewelopera, bo tylko on się nim posługuje. Po drugie implementacja (kodowanie) jest najkosztowniejszym etapem projektu, więc należy minimalizować zaangażowanie dewelopera na rzecz etapu analizy i projektowania. Źródło: ‘Programming is not solely about constructing software—programming is about designing software’. Ozkaya, I. (2020)”. Polecamy.
Adam Mitura, CEO inPlus Media, pyta czy straciliście pieniądze? I od razu odpowiada: „Trudno. Rząd pokazuje Wam, drodzy przedsiębiorcy, gdzie jest wasze miejsce. O co chodzi? O KSeF. Otóż tak spartolono kluczowy system informatyczny, przez który będzie docelowo przechodzić ponad 100 mln faktur dziennie, że termin jego wdrożenia przesunięto ponownie. Tym razem o dwa lata. Ba, trzeba go stworzyć od początku. Przy temacie KSeF współpracowaliśmy z kilkoma firmami. Niepewność, nieprzewidywalność, niestabilność od samego początku były znakiem rozpoznawczym tego projektu. Współczuję wszystkim tym, którzy przez ostatnie dwa lata przygotowywali się do wejścia obowiązku elektronicznego e-fakturowania albo doradzali przy tym procesie. Godziny analiz, interpretacji prawnych, budowania przepływu informacji finansowych, dostosowywania swoich systemów informatycznych do KSeF. Nie mam pojęcia jakiego rzędu są to straty. Wiem, że w skali kraju są ogromne. I wiem, że nikt tych pieniędzy nie zwróci, ani nie zostanie pociągnięty do odpowiedzialności za złe decyzje. Przykre. Ale to przecież tylko jeden z elementów większej układanki i relacji państwo – biznes, prawda?”. Ano prawda…
Damian Bartoszek, fotograf i wideomarketer, podzielił się spostrzeżeniem, że „nie zna żadnego dobrego filmu skupiającego się na historiach i osiągnięciach polskich przedsiębiorców, a wartość ich historii i inspiracji, jaką mogą przynieść, jest niezaprzeczalna. W obliczu kryzysu autorytetów, zwłaszcza dla młodzieży, istnieje pilna potrzeba pozytywnych wzorców. Tworzenie takiego filmu byłoby krokiem w stronę uchwycenia i podkreślenia wartości tego dynamicznego środowiska oraz motywacji do działania dla szerokiej publiczności. To, jaki ja dodałbym pierwiastek do takiego filmu, to z pewnością element humoru i dystansu. Często środowisko biznesowe jest uznawane za sztywne i poważne, a wszyscy jesteśmy tylko ludźmi i sam wiele widziałem od kulis. Poznałem całe mnóstwo osób, które mogłyby wziąć udział w takim filmie, gdzie moglibyśmy pokazać ich pasje, lifestyle i ten kreatywny pierwiastek, dzięki któremu zmieniają otaczającą rzeczywistość”. Faktycznie, „Pieniądze to nie wszystko” z Markiem Kondratem trudno uznać za szczególnie motywujący do rozwoju, o „Układzie zamkniętym” z Januszem Gajosem nie wspominając…
Zbigniew Piątek, założyciel portalu Przemysł 4.0, wyraził zdziwienie, zmieszane z pewnym podziwem dla firmy Xiaomi, która rozpoczęła produkcję elektrycznego samochodu SU7: „Ostatnio sporo dyskusji motoryzacyjnych dotyczy samochodów z Chin – zarówno w kontekście kolejnych modeli, jak też ich cen, które są znacząco niższe niż w Europie. W stawce tamtejszych producentów jednym z czarnych koni (niekoniecznie mechanicznych) jest Xiaomi Technology. Firma przeszła od modelu koncepcyjnego do produkcyjnego swojego auta w mniej niż 3 lata (oczywiście o procesach R&D w Chinach można rozmawiać wiele), zaś w niecałe dwa wybudowała i uruchomiła fabrykę. Elektryczny SU7 oferowany jest w Chinach w cenie (po przeliczeniu) około 120 tys. zł. Oczywiście – z zewnątrz przypomina Porsche, a wewnątrz to trochę Tesla, niemniej jeździ i sprzedaje się doskonale (zamówionych zostało już ponad 100 tys. takich aut). Aż chciałoby się teraz zapytać o nasz rodzimy projekt. O ten narodowy na literę „i”… Oj tam, oj tam Zbyszku!
Marcin Daszkiewicz, kierownik ds. defraudacji w Providencie, z przekąsem opisuje, „jak wykorzystać Rejestr Zastrzeżeń PESEL do zaciągnięcia kredytu na dowolną kwotę i go nie spłacać. Otóż Ministerstwo Cyfryzacji zrobiło niesamowity prezent każdemu, kto po 1 czerwca zaciągnie zobowiązanie i nie będzie chciał go spłacić. Procedura, jak w świetle przepisów prawa pozbyć się zobowiązania, jest prosta jak konstrukcja cepa: odstrzeż PESEL trwale; po minimum 30 minutach złóż wniosek o kredyt: zasiądź przed mObywatelem i czekaj na notyfikacje o tym, że bank zweryfikował twój PESEL i otrzymał informację, że PESEL był niezastrzeżony; w 1 sekundę zaraz po otrzymaniu notyfikacji zastrzeż ponownie PESEL; złóż reklamację do banku o tym, że na chwilę zawarcia umowy PESEL był zastrzeżony; nie spłacaj kredytu. Możesz to zrobić online oraz offline. Jedyne ograniczenie to kredyty zaciągane przy wykorzystaniu SCA oraz BNPL, bo takie produkty są wyłączone z ustawowej ochrony. Cały myk tego procederu sprowadza się do czynności zawarcia umowy. I idiotycznego zapisu o „chwili zawarcia umowy”. Hmmm, po dalsze szczegóły odsyłamy do autora.
Maciej Brzeziński, konsultant procesów wytwarzania oprogramowania, poleca przyjrzenie się Legii Warszawa w kontekście zmian, jakie zaszły w stołecznym klubie w minionych dwóch latach, a które miały na celu zwiększenie liczby kibiców na stadionie, zwiększenie przywiązania do marki oraz ustabilizowanie przynajmniej części budżetu. „Główne pytanie, na jakie nowy wiceprezes Marcin Herra (odpowiedzialny wcześniej między innymi za organizację Euro 2012 w Polsce) próbował znaleźć odpowiedź wydaje się być następujące: wyniki sportowe są trudno przewidywalne, a na tym ciężko budować budżet – co więc można zrobić? Legii wtedy słabo się wiodło, chwilami ocierała się o spadek, kończąc sezon na 10. miejscu. Jak na klub, który ma co rok ambicje walki o mistrza Polski, a także grania w europejskich pucharach, to w zasadzie katastrofa (też ze względów finansowych). Co zatem zrobił nowy wiceprezes? Jak sam mówi ma obsesję na punkcie obsługi klienta. I takie podejście przyjął w zakresie wprowadzanych zmian: otwarcie dialogu z kibicami, skupienie się na doświadczeniu związanym z kupowaniem biletów (choćby proste podziękowanie), poprawienie warunków do oglądania meczu (np. znowu prosta rzecz – kibice narzekają na brud na stadionie – posprzątajmy, tym razem na serio), promowanie dnia meczowego w Warszawie i okolicach, organizacja wydarzenia w dniu meczu, stworzenie atmosfery święta w dzień meczowy, a finalnie stworzenie mody na bycie na meczu na Łazienkowskiej. Działania zaowocowały frekwencją na domowych meczach Legii między 20 tys. – 29 tys. (wyprzedany stadion), przy początkowym (ambitnym) celu, gdzie zakładano dojście do 14 tys. kibiców”. I to bez wsparcia sztucznej inteligencji!
Istotne trendy produktowe, technologiczne, biznesowe, w oparciu o dane pochodzące z renomowanych agencji analitycznych, organizacji branżowych i globalnych mediów, dotyczące głównie Europy i Polski.
Usługi przełamały trend spadkowy
Zgodnie z odczytem najnowszego EMEA ISG Index łączny wzrost rynku usług zarządzanych oraz w chmurze wyniósł 2,5 proc. w I kw. 2024 r., osiągając wartość 7,5 mld dol. Oznacza to dość długo oczekiwane przełamanie po czterech kwartałach spadków z rzędu. Warto przy tym zaznaczyć, że chodzi o duże kontrakty – Indeks EMEA ISG uwzględnia umowy outsourcingowe o rocznej wartości (ACV) na poziomie co najmniej 5 mln dol. Wartość umów outsourcingu IT zmniejszyła się o 7 proc., na skutek spadku cen na usługach centrów danych oraz samodzielnych usług tworzenia i konserwacji aplikacji (ADM). Jednakże ACV dla powiązanej oferty, obejmującej usługi infrastruktury oraz ADM, wzrosło aż o 80 proc. Z kolei wartość outsourcingu procesów biznesowych podskoczyła o 40 proc. z uwagi na duży popyt na specyficzne usługi branżowe. W sumie wartość ACV dla usług zarządzanych była znacznie wyższa (o 80 proc. r/r) w sektorze podróży, transportu i wypoczynku. Sektor finansowy, a więc największa w Europie branża dla outsourcingu, zanotował 5-procentowy wzrost, podczas gdy dołek odnotowano w sektorze produkcji (-5 proc.) i telekomunikacji (-10 proc.). Wzrost o 2 proc. i 3,6 mld dol. w przypadku XaaS to najlepszy wynik kwartalny od IV kw. 2022 r. Z kolei usługi IaaS „poprawiły” się o 7 proc., częściowo na skutek zainteresowania usługami danych dla generatywnej AI. Globalnie ISG prognozuje 3-procentowy wzrost przychodów z usług zarządzanych i 15 proc. na XaaS w 2024 r. Analitycy spodziewają się, że outsourcing zyska na popularności, ponieważ firmy starają się zrównoważyć koszty i jakość usług.
Rynek usług zarządzanych oraz as-a-service w I kw. 2024 r. w regionie EMEA
Wartość (mld dol.) Różnica rok do roku (%)
Usługi zarządzane3,93 w tym:
Outsourcing IT2,8-7 Outsourcing procesów biznesowych1,140
As-a-service (XaaS)3,62 w tym: IaaS2,67 SaaS1-8
Aż 71 proc. firm w Polsce deklaruje korzystanie z rozwiązań chmurowych, a więc nieco więcej niż rok wcześniej (68 proc.) – wynika z raportu KMPG. W ciągu najbliższych 3 lat firmy zamierzają korzystać głównie z chmury prywatnej, co deklaruje w sumie 80 proc. respondentów. Pozostałe 20 proc. wskazało chmurę publiczną, która mimo wszystko zyskuje na znaczeniu, bo w porównaniu z wcześniejszymi danymi ten odsetek wzrósł o 5 pkt. Obecnie firmy najczęściej korzystają z SaaS (43 proc.), czyli zestawu aplikacji, platform i infrastruktury udostęp-
nionych przez dostawcę. Na drugim miejscu znalazła się chmura prywatna z własną mocą obliczeniową, którą wdrożyło 39 proc. firm. Respondenci pytani o zagrożenia związane z wykorzystaniem usług cloud, najczęściej wskazywali na bezpieczeństwo informacji (78 proc., co oznacza wzrost o 11 pkt rok do roku).
Plany dotyczące modelu przetwarzania danych z wykorzystaniem usług chmurowych w perspektywie najbliższych 3 lat
Chmura prywatna z wykorzystaniem własnych serwerów w lokalnej infrastrukturze
Chmura prywatna z wykorzystaniem dedykowanych serwerów poza organizacją
Chmura publiczna
53%
Sprzedaż „używek” będzie rosła dwucyfrowo
Wartość rynku używanego sprzętu IT i elektroniki użytkowej w 2023 r. zbliżyła się do 6,5 mld zł – ustaliło PMR. Prognozuje przy tym, że rynek ten będzie nadal rósł w dwucyfrowym tempie w najbliższych 4 latach. Według ekspertów popyt jest związany między innymi z cykliczną wymianą urządzeń i wzrostem cen nowych produktów.
Obecnie handel używanym sprzętem IT i elektroniką opiera się w dużej mierze na transakcjach między konsumentami (C2C), które są popularne dzięki platformom ogłoszeniowym. Aż 60 proc. badanych nabyło używane produkty od osoby prywatnej. Jednak, według analityków, handel B2C przewyższy C2C, co wynika z profesjonalizacji usług naprawy i odnowy urządzeń. Oferta wyspecjalizowanych firm (atrakcyjne ceny, jakość, gwarancje) powinna przekonywać klientów do wyboru ich asortymentu. Szacunkowo wydatki na sprzęt, który przed sprzedażą został poddany pełnej lub częściowej naprawie i renowacji przez producenta lub autoryzowanego sprzedawcę, stanowiły w 2023 r. mniej niż 10 proc. analizowanego rynku. W tym czasie łącznie w kraju sprzedano ponad pół miliona odnowionych smartfonów, laptopów i konsol do gier. PMR spodziewa się, że sprzedaż odnowionych urządzeń IT będzie sukcesywnie iść w górę ze względu na rosnącą świadomości konsumentów co do korzyści wynikających z ich zakupu, zarówno ekonomicznych (np. możliwość tańszego zakupu modeli premium), jak i ekologicznych. Od strony podażowej istotnym czynnikiem jest fakt, że duzi dostawcy (np. sieci handlowe i operatorzy telekomunikacyjni) mogą, dzięki takiej właśnie działalności, realizować cele zrównoważonego rozwoju.
Miejsce ostatniego zakupu używanego sprzętu IT i elektroniki użytkowej w Polsce, w podziale na wybrane kategorie produktowe (%), 2024
SmartfonLaptopKomputerTelewizorMonitor
Od osoby prywatnej49,351,463,859,158,8 Ze sklepu50,748,636,240,941,2
Na podstawie badania PMR z lutego i marca 2024 r. na próbie 5446 dorosłych Polaków.
Wydatki na systemy przemysłowe SCADA zwiększą się z kwoty 11,2 mld dol. w 2024 r. do 16,6 mld dol. w roku 2029, przy rocznej stopie wzrostu na poziomie 8,3 proc. w latach 2024–2029 – prognozuje Markets and Markets. Rynek ten obejmuje takie komponenty, jak: programowalne sterowniki logiczne (PLC), zdalne terminale (RTU), interfejs człowiek-maszyna (HMI), systemy komunikacyjne, urządzenia wejścia/ wyjścia, serwery pamięci masowej i systemy nadzoru. Zdaniem ekspertów szybkie wdrażanie sztucznej inteligencji i Internetu rzeczy w firmach produkcyjnych oraz rosnąca liczba projektów smart city w zakresie infrastruktury i transportu to niektóre z istotnych czynników napędzających rozwój rynku. Najszybszy wzrost wydatków na SCADA ma następować w przypadku produkcji dyskretnej, przy czym największy udział w 2023 r. miały jednostki zdalnych terminali (RTU), z kilku powodów, takich jak wszechstronność w różnych branżach i opłacalność w zastosowaniach obejmujących odległe lokalizacje oraz koncentrację na pozyskiwaniu danych.
Wartość i dynamika rynku używanego sprzętu IT i elektroniki użytkowej w Polsce, 2021–2023
202120222023
Wartość (mld zł)5,35,76,5 Wzrost (r/w proc.)17713
Sprzedaż laptopów z AI na
Aż trzy z czterech laptopów sprzedanych w 2027 r. to będą modele z zaawansowaną obsługą generatywnej sztucznej inteligencji – zdaniem Counterpoint Research. Szacuje się, że w latach 2023–2027 nabywców znajdzie prawie 500 mln szt. laptopów z AI, co oznacza średni roczny wzrost na poziomie 59 proc. Zdaniem analityków, wraz z rozprzestrzenianiem się zastosowań GenAI na brzegu sieci, w chmurze lub w modelu hybrydowym, generatywna AI stanie się niezbędną funkcją w PC. Counterpoint dzieli laptopy GenAI na trzy kategorie – podstawowy (AI-basic), zaawansowany (AI-advanced) oraz z obsługą AI (AI-capable) – w oparciu o różne poziomy wydajności obliczeniowej, odpowiednie do różnych przypadków użycia. Laptopy „AI-basic”, które już trafiły na rynek,
mogą wykonywać podstawowe zadania AI, ale nie w pełni zadania generatywnej AI. Eksperci spodziewają się, że od tego roku będą wypierane przez modele AI-advanced i AI-capable, obsługujące sztuczną inteligencję z wystarczającą liczbą TOPS (operacji Tera na sekundę), przez NPU (jednostkę przetwarzania neuronowego) lub GPU (jednostkę przetwarzania grafiki), co pozwala dobrze wykonywać zaawansowane zadania GenAI.
Dostawy laptopów z obsługą generatywnej AI w latach 2023–2027
0%
AI-advanced 2023 r.
AI-capable
Counterpoint Research
Wacław Iszkowski
Autor w latach 1993–2016 był prezesem Polskiej Izby Informatyki i Telekomunikacji. Pracował też w firmach: Oracle, DEC Polska, 2SI, EDS Poland, TP Internet. Obecnie jest senior konsultantem przemysłu teleinformatycznego.
Zadziwiające jest, że 333-milionowy naród nie może znaleźć co najmniej dwóch kandydatów w wieku od 35 do 60 lat, z których jeden w wyborach zostałby POTUS-em. Za to będzie startować dwóch w wieku 78 i 82 lat. Z kolei chiński przywódca ma 71 lat, rosyjski 72, prezes PiS już 75, a obecny premier „tylko” 67.
informatycznych CEO mają obecnie od 37 do 65 lat.
czywiście zacny wiek nie zawsze oznacza starość z demencją. We wspomnianych krajach średnia długość życia mężczyzn wynosi: 77,3 lata (USA), 75,3 (Polska), 73,3 (Chiny) oraz 64,7 (Rosja). Średnia dla kobiet jest o 2–4 lata wyższa. Zależnie od genów i zdrowego trybu życia można (prawie) w pełni władz umysłowych dożyć setki. Mój stryj w wieku 99 lat sprawnie posługiwał się trzema językami oraz rozumiał moje wyjaśnienia dotyczące zasad działania telefonii komórkowej.
Warto przy tym przypomnieć, że wiek emerytalny w USA dla pracowników służby publicznej wynosi 67 lat, z kolei w Rosji i Polsce to 60 lat dla kobiet i 65 dla mężczyzna, zaś w Chinach (odpowiednio): 50 i 60 lat. Dlaczego więc powierza się takim starszym osobom stery i losy Państwa, a również świata, skoro mamy jednak do czynienia ze sporym ryzykiem? A mówi to Wasz felietonista, lat 75, będący jeszcze w pełni władz umysłowych, w miarę sprawny, ale też czujący – choćby w perspektywie 20 lat – kres życia, co zmienia optykę postrzegania wielu spraw.
Przejdźmy na teren branży informatycznej. W największych korporacjach informatycznych CEO mają obecnie od 37 do 65 lat. Starsi założyciele takich firm jak: Adobe, Intel, Microsoft czy Oracle, rezygnowali z bezpośredniego zarządzania nimi w wieku od 59 do 78 lat, pozostając dalej aktywnymi w działalności fi lantropijnej i sprawując pieczę nad swoimi aktywami. Zdawali sobie sprawę, że w pewnym wieku już nie ta sama sprawność i bystrość, więc warto dal-
szy rozwój przedsiębiorstwa powierzyć młodszym.
W Polsce założyciele firm komputerowych w początkach lat 90-tych, wtedy młodzi i pełni zapału, dzisiaj już mają swoje lata. Wtedy, praktycznie z niczego, zakładali swoje, początkowo małe firemki sprowadzające sprzęt z Tajwanu i okolic lub uzyskali pierwsze zlecenie na oprogramowanie. Z czasem firemki się rozrosły, część z nich weszła na warszawską giełdę, a właściciele musieli się zmierzyć z korporacyjnym zarządzaniem.
Spójrzmy na spółki giełdowe… Otóż założyciel Softbanku w wieku około 60 lat odsprzedał swoje udziały do Prokomu, a przechodząc na emeryturę zajął się inwestowaniem swoich aktywów nie tylko w startupy. Z kolei założyciel Prokomu, molestowany przez służby, przekazał majątek Prokomu do Asseco, a sam nieco zbankrutowany (na innych przedsięwzięciach), ale jeszcze dość młody, w wieku 52 lat, schował się przed mediami. Założyciel ComputerLandu (Sygnity) przestał być prezesem firmy w wieku 47 lat, pozostając dalej członkiem rady nadzorczej. Dbając o zdrowie zajął się sportowo brydżem oraz szachami i został nawet prezesem Polskiego Związku Szachowego. Inaczej postąpił założyciel Comarchu, trwając na stanowisku prezesa aż do końca swoich chwil w wieku 71 lat. Do tego czasu nie był przekonany do oddania pełnego zarządzania firmą swoim dzieciom, które i tak muszą sobie teraz z tym zadaniem poradzić.
W firmach, które nie są giełdowe, rozstanie się z nimi okazuje się zadaniem trudnym dla ich właścicieli. Najpierw
starają się przekazać je swoim dzieciom, ale te raczej nie są tym zachwycone – mają zwykle własne plany rozwoju zawodowego. Pozostaje więc zatrudnienie menedżerów do zarządzania i pilnowanie, z oddalenia, swojego dobytku. Ewentualnie można spróbować sprzedać firmę jakiemuś inwestorowi – funduszowi. Ze znanych mi osób wiele takie rozstania realizuje w wieku 50–70 lat, przenosząc się potem do Hiszpanii lub zajmując się rodziną. Są też i tacy, którzy nawet oddając komuś firmę w zarządzanie, trwają przy niej, bo obawiają się, że pozbawienie się tej adrenaliny zarządzania może ich szybko sprowadzić do starczej wegetacji. Bywają też 60-latkowie, którzy dopiero zakładają swoje firmy – z sukcesem. Jest jeszcze liczna grupa menedżerów, którzy w latach 1990–2010 zostali wybrani do zarządzania polskimi oddziałami zachodnich informatycznych korporacji. Kilku z nich jeszcze w nich pracuje, ale większość po awansie na poziom GM-ów i przepracowaniu tamże 3–5 lat, w wieku około 50 lat dostała dobrą odprawę z kilkumiesięcznym zakazem pracy u konkurencji. Niektórym zaproponowano pracę w HQ Europe z odpowiedzialnością za kraje wschodnie (obecnie już bez Rosji) lub pozycję GM-a w innym kraju, np. w Mołdawii. Nie wszyscy się na to godzili. Nielicznym udało się, jeśli mieli dobrego agenta HR, zdobyć angaż podobnej pozycji w innej firmie. Pozostali zajęli się inwestowaniem swojego kapitału oraz korzystają z życia.
Przyjrzymy się teraz rynkowi pracy w sferze informatycznej. Obecnie wciąż podobno brakuje odpowiednio wykwalifikowanych kandydatów do pracy. Tymczasem poszukujący pracy w tym sektorze spotykają się trudnościami. Szczególnie dotyczy to osób starszych, przy czym według specjalistów HR, prowadzących procesy rekrutacyjne, do takich zaliczane są już osoby po 40-ce. Dla HR-owców, przeważnie młodych, ci kandydaci są w wieku ich rodziców, a więc takich mało ogarniających osób, a dodatkowo nie potrafiących się zasymilować z młodym dynamicznym zespołem, jaki pracuje w przeciętnej firmie. Dodatkowo szefowie firm obawiają się tych starszych, przypuszczając, że trudno będzie
się z nimi porozumieć – wszak ze „starymi” często tak trudno się dogadać… W rezultacie ci po 40-tce długo szukają nowej pracy, a po 50-tce obawiają się zwolnienia z pracy, szczególnie przed osiągnięciem 56 lat (dla kobiet) oraz 61 lat (dla mężczyzn), gdy zaczyna obowiązywać ochrona przedemerytalna.
Sytuacja na rynku pracy w tym sektorze będzie się zmieniać. Z jednej strony oczekuje się wzrostu zapotrzebowania na informatyków, albo raczej na wdrażających zastosowania informatyki w gospodarce, administracji i społeczeństwie cyfrowym. Z drugiej strony rozpowszechnienie aplikacji systemów SI (OpenAI otwiera sklep z 3 milionami takich aplikacji!) ma zastąpić wielu pracowników z tej sfery: analityków i zwykłych programistów. W sumie będzie to znacząca zmiana na rynku pracy. Pozostaje pytanie, czyim kosztem – i byłoby błędem, gdyby okazało się, że kosztem osób po 40-tce.
Rozwój techniczny informatyki nie jest tak gwałtowny, jak to się przedstawia. Technika informatyczna jest oparta na stałych podstawach – identycznej zasadzie działania sprzętu cyfrowego oraz oprogramowania. Wygląd i konstrukcja laptopów oraz podstawowego oprogramowania niewiele się zmieniła od ponad 20 lat. Jedynie nowe technologie wytwarzania procesorów i pamięci pozwoliły na wzrost mocy przetwarzania oraz pojemności pamięci. Nowe (jakie nowe, skoro Python ma już ze 20 lat!) języki programowania są dla znających podstawy informatyki łatwe do nauczenia. Większość użytkowanych systemów teleinformatycznych ma swoje korzenie w początkach lat 90-tych, a są i takie napisane jeszcze w COBOL-u. Przetwarzanie w chmurach to jedynie usprawnienie outsourcingu, a systemy SI są lepszymi systemami ekspertowymi, a są logicznie tożsame z wyszukiwaniem w przeglądarkach.
Wobec powyższego, rezygnowanie ze starszych specjalistów, dysponujących podstawową wiedzą informatyczną, poszerzaną latami doświadczeń oraz szkoleniami i uzyskiwanymi certyfikatami, jest pozbawianiem się rzeczywistych możliwości rozwoju firmy. Z czasem to
właśnie doświadczenie pozwala na uzyskanie oczekiwanego rozwiązania, czy też uniknięcia poważnej awarii. Ze statystyk wynika ponadto, że informatyków w wieku 15–34 lata było w 2022 r. w Polsce 40,3 proc. (średnia UE wynosi 36,7 proc.), a takich w wieku 35–74 aż 59,7 proc. (w całej UE 63,3 proc.) i ten niedobór młodszych kadr zwiększył się w stosunku do 2012 r. Warto więc zadbać o tych starszych, zastanawiając się dlaczego, młodsi słabiej się garną do tej dziedziny techniki.
Dodatkowo trzeba zauważyć, że rosnąca grupa seniorów (obecnie około 25 proc.) dysponuje znaczącymi środkami finansowymi, które chce między innymi przeznaczać na zakup produktów i usług teleinformatycznych. Aby to było możliwe, te właśnie produkty i usługi powinny być dopasowane do ich percepcji oraz możliwości manualnych. I właśnie starsi pracownicy łatwiej zidentyfikują i zrealizują te potrzeby, mając większą łatwość porozumienia się z seniorami. Może warto zatrudnić tych po 70-tce do przygotowania produktu czy usługi dla osób powyżej 80-tki. Tak, wiem, są też tacy seniorzy, co wolą na kolanach kota od konta dostępnego zdalnie przez internet. Zapewniam Was jednak, że takich będzie coraz mniej.
I pamiętaj, poszukując nowego pracownika, że każdemu z nas przybywa lat – i Ty kiedyś będziesz 40+, 50+, 60+,70+, a licznik lat szybko się inkrementuje.
Doświadczenie przyśpiesza uzyskanie oczekiwanego rozwiązania.
Wojciech Urbanek zastępca redaktora naczelnego CRN Polska
Serial science-fiction „Rozdzielenie” jest jednym z tegorocznych hitów TV Apple. Niewykluczone, że pokazywane w nim sceny w nieodległej przyszłości staną się rzeczywistością.
yobraźcie sobie, że idziecie na osiem godzin do pracy i zapominacie o wszystkim, co się dzieje poza biurem. Nie zaprzątacie sobie głowy tym, że syn właśnie zdaje ważny egzamin, nie martwicie się wczorajszą kłótnią z żoną, ani nie rozmyślacie nad tym czy drużyna, której kibicujecie wygra najbliższy mecz decydujący o awansie do ekstraklasy. Kiedy zaś wracacie do domu, nie myślicie o marudnym szefie, stosie czekających raportów, ani o tym, jak porozmawiać z przełożonym o podwyżce. Taki mniej więcej tryb życia prowadzą pracownicy korporacji Lumon – główni bohaterowie serialu „Rozdzielenie”. Koszmar? A może jednak błogostan? Tak czy inaczej Mark, Irving, Helly i Dylan zdecydowali się na zabieg rozdzielenia, polegający na wszczepieniu do mózgu specjalnego chipa. W ten właśnie sposób próbują sobie poradzić z życiowymi niepowodzeniami. Cała czwórka pracuje w dziale rafinacji danych, a ich zadaniem jest poszukiwanie „przerażających liczb” i wyrzucanie ich z systemu. Niestety, nie dowiadujemy się, w jakim celu to robią – choć tak naprawdę nie ma to większego znaczenia. Serial kpi z korporacyjnego życia – mamy tutaj bowiem mistyczny zarząd, nigdy bezpośrednio nie komunikujący się z pracownikami, pogoń za „targetami”, „osobistą” wiadomość gratulacyjną od prezesa, banalne cytaty menedżerów… Są też przyjemności, takie jak owocowe party, zaś na opornych czekają pokoje tortur psychicznych. Choć wiele scen pokazywanych w filmie Bena Stillera – zwłaszcza operacja rozdzielenia – nie mają miejsca w świecie rzeczywistym, to z pewnością wiele osób po obejrzeniu serialu zadaje sobie pytanie: ile lat dzieli nas od pracy
w korporacjach typu Lumon? Czy brakuje już tylko pokojów tortur?
Nie tak dawno, Tomek Gołębiowski, z którym rozmawiałem o tym całkiem życiowym serialu, zażartował, że istnieje bardzo duże prawdopodobieństwo, że z takich właśnie chipów korzystają już politycy. I rzeczywiście coś w tym jest. Choć występuje tutaj pewna różnica, bowiem inteligentne przełączniki działają w trybie rząd/opozycja, a nie jak w przypadku czwórki dzielnych selekcjonerów danych – dom/praca. Znany polityk, będąc w opozycji, obiecał nam benzynę po 5,19 zł za litr. Kiedy zasiadł na fotelu premiera, oznajmił, iż nie ma żadnego wpływu na ceny paliw. I na odwrót: były premier, obecnie zasiadający w ławach opozycji, jest jednym z największych przeciwników „Zielonego Ładu”, który w 2019 roku na Radzie Europejskiej – jeszcze jako premier – zaakceptował. Sama koncepcja przedstawiona przez Bena Stillera jest wyjątkowo interesująca i można ją zastosować w wielu różnych wariantach. Na przykład marketerzy lub piarowcy mogliby mieć chip pracujący w trybie ekologia/wydajność. Taki pracownik w poniedziałki, środy i piątki opowiada o konieczności redukcji emisji dwutlenku węgla i zielonych technologiach. Natomiast we wtorki chwali wydajność komputerów bądź serwerów naszpikowanych enerogożernymi procesorami i jednostkami przetwarzania tensorowego.
Swoją drogą, jeśli macie jakieś ciekawe pomysły dotyczące zastosowania przełączników mózgowych, piszcie na adres redakcji. Autorzy najciekawszych koncepcji otrzymają osobistą wiadomość gratulacyjną od prezesa zarządu Peristeri, wydawcy CRN Polska.
jeśli pracujesz w firmie z branży IT, możesz bezpłatnie zaprenumerować magazyn CRN Polska?
Załóż konto na stronie
crn.pl/rejestracja
Najlepiej poinformowany magazyn w branży IT!
dla resellerów, VAR-ów i integratorów