AIw praktyce
Polski transport autonomiczny
AIw praktyce
Polski transport autonomiczny
jeśli pracujesz w firmie z branży IT, możesz bezpłatnie zaprenumerować magazyn CRN Polska?
Załóż konto na stronie
crn.pl/rejestracja
Najlepiej poinformowany magazyn w branży IT!
dla resellerów, VAR-ów i integratorów
Nowe centra danych: „zielone” i „inteligentne”
Sektor DC osiągnął duży postęp w zwiększaniu efektywności i wydajności
Czy producenci mogą być rozczarowani swoimi dystrybutorami? To, co z punktu widzenia producentów co z widzenia działało bez zarzutu jeszcze dwa lata temu, może teraz działało bez zarzutu jeszcze dwa lata temu, może teraz wyglądać zupełnie inaczej zupełnie inaczej.
8 Brother śrubuje rekordy
Relacja z konferencji Brother Dealer Day 2024
10 List otwarty liderów europejskiego biznesu do klasy politycznej Trzeba podjąć pilne dzialania, aby Europa nie stała się marginalnym graczem konkurencyjnej gospodarki cyfrowej
12 Telegram: tablica dla przestępców i policjantów?
Pod koniec sierpnia aresztowano Pawła Durowa, założyciela Telegramu
13 List otwarty w sprawie prezesa IDEAS NCBR Marek Cygan, profesor Uniwersytetu Warszawskiego, członek zespołu doradczego PL/AI, kierownik grupy Uczenia Robotów zaapelował do Premiera
14 XVII Regaty Lenovo
Relacja z wielkiego spotkania branży IT
16 Niezbędna lista AI
Przygotuj swoich pracowników na przyszłość w sześciu prostych krokach (HP)
18 Kluczowe cechy programów partnerskich
Szkolenia i szeroko rozumiane wsparcie w rozwoju wspólnego biznesu zajmują coraz wyższe pozycje w rankingu atrybutów programów partnerskich
19 Klient nie kupuje od firmy, ale od konkretnej osoby Rozmowa z Andrzejem Kuźniakiem, Sales Office Director Poland w Elko
20 ESG: nowe reguły w branży IT
Okrągły Stół CRN Polska na temat gospodarki zrównoważonego rozwoju i jej wpływu na branżę informatyczną
24 Cyberbezpieczny samorząd: konieczne inwestycje z głową Proces zakupu rozwiązań IT chroniących przed atakami powinien być poprzedzony solidną analizą (Exclusive Networks)
26 How to Startup Wieści z sektora startupów
28 Lenovo ISG: chcemy być kluczowym graczem na rynku AI Rozmowa z Marianem Korienkiem, General Managerem Central & Southeast Europe Lenovo Infrastructure Solutions Group
30 Nowe centra danych: „zielone” i „inteligentne” Większe potrzeby infrastrukturalne napędzają wzrost DCIM
32 Zrównoważony rozwój z EcoStruxure IT Dzięki nowym funkcjom oprogramowania EcoStruxure IT, użytkownicy mogą przyspieszać rozwój i upraszczać obsługę swojej infrastruktury IT (Schneider Electric)
34 IT i medycyna: duet prawie doskonały Branża medyczna oraz informatyczna coraz bardziej zbliżają się do siebie
37 PAM zwiększa bezpieczeństwo telemedycyny
Ochrona kont użytkowników uprzywilejowanych w branży ochrony zdrowia jest absolutnie kluczowa (Fudo)
Latające samochody Made in China Chiny odpowiadają za 50 proc. wszystkich modeli eVTOL na świecie.
38 Fortinet: jak chronić środowiska IT placówek medycznych Nieodpowiednio chronione nowatorskie rozwiązania techniczne mogą przyczynić się do wzrostu ryzyka powodzenia ataku
39 HC20 i HC50: nowe mobilne komputery Zebra Inspiracja dla specjalistów z sektora opieki zdrowotnej (Jarltech)
40 Przygotowania do NIS 2 można znacznie przyspieszyć Rozmowa z Sebastianem Wąsikiem, Country Managerem na Polskę w baramundi software
41 GigaCloud ułatwia korzystanie z modelu usługowego Migracja danych do chmury eliminuje potrzebę inwestowania w sprzęt, umożliwiając szybkie uruchamianie projektów
42 SOHO: nadchodzi przesiadka na nowszy sprzęt sieciowy Pojawienie się WiFi 7 to jeden z czynników napędzających zakupy
45 WiFi 7: najwyższa wydajność w przystępnej cenie TP-Link jako jeden z pierwszych producentów wprowadził na rynek kompletne portfolio urządzeń w standardzie WiFi 7
46 Dolina Krzemowa i okolice Europejczycy walczą z wielkimi zbiorami danych
48 Czy producenci mogą być rozczarowani swoimi dystrybutorami?
W obszarze dystrybucji zachodzą obecnie fundamentalne zmiany
52 Atmosfera biznesowa w Chinach
Opinia Arnolda Adamczyka
53 Latające samochody made in China
Opinia Leszka Ślazyka
56 Transport autonomiczny: ważna stabilność i przewidywalność Rozmowa z Łukaszem Wójcikiem, CTO w gliwickiej firmie Blees
57 Chwila prawdy
Opinia Tomasza Woźniaka
58 Pierwsze takie studia
Opinia Michała Guzowskiego
59 AI (biznesowo) niedemokratyczne
Opinia Marcina Maruty
60 AGH Space Systems: wspólnie po mistrzostwo
Opinia Andrzeja Zakręckiego
64 Marriott i Curtis Plaza przechodzą do historii
Felieton Wacława Iszkowskiego
66 Sztuczni inteligenci
Felieton Wojciecha Urbanka
ESektor dystrybucji pozytywnie zaskoczył.
uropejski sektor dystrybucji IT pozytywnie zaskoczył analityków Contextu, którzy w drugim kwartale tego roku spodziewali się spadku sprzedaży o 0,9 proc., podczas gdy w rzeczywistości wynik okazał się dodatni – plus 1,3 proc. Wprawdzie wciąż nie można tego nazwać boomem, niemniej kluczowy wydaje się w tym kontekście korzystny trend, co obrazują wyniki za trzeci kwartał. Analitycy wyliczyli wzrost sprzedaży – rok do roku – na 1,8 proc., podczas gdy październik, listopad i grudzień mają zamknąć się jeszcze lepszym rezultatem w wysokości 3,6 proc. W sumie jednak obecny rok może być nieco rozczarowujący, bo całoroczny wzrost wartości sprzedaży europejskiej dystrybucji na poziomie 0,3 proc. – mówiąc kolokwialnie – nie powala. Z drugiej strony, po fatalnym pierwszym kwartale, niejeden dystrybutor wziąłby taki wynik w ciemno, biorąc przy tym pod uwagę ubiegłoroczną „małą epokę lodowcową” zakończoną 4,8-procentowym spadkiem rok do roku. Co ważne, również pierwsze dwa kwartały 2025 r. powinny przynieść europejskiemu sektorowi dystrybucji ulgę po niedawnych trudach. Wzrost ma wynieść w obu tych okresach odpowiednio: 4,8 oraz 4,7 proc.
Jeśli zaś chodzi o poszczególne kraje, to na przełomie tego i przyszłego roku korki od szampana szczególnie głośno wystrzelą w Niemczech i krajach skandynawskich. Tak się stanie, o ile spełnią się prognozy Contextu, wedle których wzrost na tych rynkach w okresie od października 2024 do marca 2025 wyniesie 5-6 proc. Niestety, w gorszym położeniu znajduje się Polska. W naszym kraju każdy kwartał tego roku jest minusowy, włącznie z czwartym, który ma zamknąć się spadkiem o 3 proc. rok do roku, a na odbicie można liczyć dopiero w pierwszym i drugim kwartale 2025 r. (ma wynieść 2 do 3 proc. na plusie).
I teraz ważna uwaga: osobiście aż tak bardzo nie przywiązywałbym się do obecnych
prognoz, bo sytuacja na światowych rynkach, w tym europejskim, jest obecnie na tyle niepewna, że przewidywania w pewnym stopniu przypominają próbę wyczytania przyszłości z herbacianych fusów. Wciąż iskrzy na linii USA-Chiny, a jednocześnie nadal nierozstrzygnięta jest (choćby czasowo) wojna rosyjsko-ukraińska, a na jej losy być może ostatecznie wpłyną dopiero wybory prezydenckie w USA. W Polsce na ogólną niepewność nakłada się defensywna pod względem inwestycji polityka rządu przy mocno ofensywnym nastawieniu wobec opozycji, co dodatkowo polaryzuje rozedrgane emocjonalnie społeczeństwo, bombardowane ponadto kolejnymi doniesieniami o nowych unijnych regulacjach i opłatach, jak też znowu podnoszącej swój ohydny łeb hydrze inflacji… To nie napawa optymizmem. Niemniej, jeśli dane Contextu są chociaż w przybliżeniu bliskie prawdy, w sektorze dystrybucji pojawiło się światełko w tunelu i – na szczęście – z pewnością nie jest to nadjeżdżający pociąg.
Tomasz Gołębiowski
Redaktor naczelny
MIESIĘCZNIK CRN POLSKA www.CRN.pl
Rok 27, numer 10 (503), 16 października 2024 PL ISSN 2080-8607
REDAKCJA
Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa redakcja@crn.pl
Tomasz Gołębiowski tg (redaktor naczelny) tel. 608 425 699 tomasz.golebiowski@crn.pl
Wojciech Urbanek wu (zastępca red. naczelnego) tel. 691 672 065 wojciech.urbanek@crn.pl
Karolina Marszałek km (sekretarz redakcji) karolina.marszalek@crn.pl
Andrzej Gontarz ag andrzej.gontarz@crn.pl
Krzysztof Jakubik kj krzysztof.jakubik@crn.pl
Krzysztof Pasławski kp krzysztof.paslawski@crn.pl
Tomasz Janoś tj tomasz.janos@crn.pl
FELIETONY Arnold Adamczyk, Michał Guzowski, Wacław Iszkowski, Marcin Maruta, Leszek Ślazyk, Wojciech Urbanek, Tomasz Woźniak, Andrzej Zakręcki
GRAFIKA, LAYOUT, KOORDYNACJA PRODUKCJI: Tomasz Baziuk
FOTOGRAFIE
Theta Art Studio Tomasz Pisiński, PhotobyMysluk.pl, Adrian Stykowski, Piotr Syndoman, archiwum PRENUMERATA prenumerata@crn.pl
REKLAMA I PROJEKTY SPECJALNE Agata Myśluk tel. 694 455 426 agata.mysluk@crn.pl
Jacek Goszczycki tel. 601 935 513 jacek.goszczycki@crn.pl
WYDAWCA Peristeri Sp. z o.o. Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa
Reklamy są przyjmowane w siedzibie wydawnictwa. Za treść ogłoszeń redakcja nie ponosi odpowiedzialności. © 2024 Peristeri Sp. z o.o. Wszelkie prawa zastrzeżone.
Ponad 60 firm zostało rekomendowanych do dofinansowania w konkursie w ramach KPO, obejmującym inwestycje wspierające robotyzację i cyfryzację przedsiębiorstw. Wnioski były przyjmowane do końca listopada 2023 r., czyli na rozstrzygnięcie trzeba było czekać blisko rok. Celem naboru jest wzrost produktywności i przyspieszenie transformacji dużych przedsiębiorstw w kierunku Przemysłu 4.0. Całość alokacji to ponad 2 mld zł, podzielone na pół – pomiędzy projekty konkursowe i strategiczne. Lista firm, które zostały zakwalifikowane znajduje się na portalu Ministerstwa Aktywów Państwowych.
Action pierwszą połowę 2024 r. zamknął przychodami w wysokości 1,146 mld zł i zyskiem netto 20,8 mln zł. Marża wyniosła 8,82 proc. Dystrybutor koncentruje się na działaniach związanych z wdrożeniem nowego systemu ERP, który ma umożliwić większą optymalizację procesów wewnętrznych i poprawę efektywności operacyjnej. Action informuje też, że rozpoczął implementację rozwiązań opartych na sztucznej inteligencji automatyzujących procesy biznesowe. Ponadto spółka przeniosła swoje projekty e-commerce na bardziej wydajne platformy.
APN Promise wygrało przetarg publiczny i podpisało umowę ramową wraz z pięcioma innymi podmiotami, na dostarczenie oprogramowania dla Ministerstwa Spraw Wewnętrznych Republiki Czeskiej. Umowa została zawarta na 4 lata lub do osiągnięcia całkowitej kwoty wynagrodzenia maksymalnie 14,23 mld koron czeskich netto (około 2,42 mld zł). Kontrakt dotyczy dostarczenia oprogramowania dla administracji publicznej, państwowej i samorządowej w Czechach, w tym dla centralnych organów administracji państwowej, regionów i gmin.
Grupa Spyrosoft uzyskała w I półroczu 2024 r. wzrost przychodów o 3,3 proc. rok do roku (211,8 mln zł). Zysk netto urósł natomiast o 56,7 proc., do kwoty 12 mln zł. W samym II kw. 2024 r. zysk netto grupy zwiększył się 4,5-krotnie (+358,8 proc.) rok do roku i wyniósł 8,6 mln zł. Pozytywny wpływ na wyniki miało mieć utrzymanie pod kontrolą kosztów ogólnego zarządu, a w II kw. 2024 r. także niższe koszty związane z utrzymaniem tzw. ławki (pracowników bez przydzielonych projektów). W II kw. 2024 r. wyniosły one mniej niż 4 proc., a w całym pierwszym półroczu 2024 6 proc.
Ailleron w pierwszym półroczu 2024 r. zanotował przychody ze sprzedaży na poziomie 249,5 mln zł, a więc o blisko 10 proc. wyższe niż rok wcześniej. W II kw. br. sprzedaż integratora sięgnęła 142,8 mln zł (+27,1 mln zł rok do roku), co oznacza 23-procentowy wzrost. Po sześciu miesiącach br. Ailleron wykazał raportowany (z uwzględnieniem zdarzeń jednorazowych) poziom EBITDA na poziomie blisko 38 mln zł, tj. o 30 proc. wyższy niż rok wcześniej.
„Konsumentjestsłabszy,rynekkrwawi”– Piotr Bieliński, prezes Actionu, o rynku elektroniki konsumenckiej.
Badacze z Wiz poinformowali, że odkryli krytyczną lukę w Nvidia Container Toolkit i GPU Operator. Błąd, oznaczony kodem CVE-2024–0132, stanowi w ich ocenie poważne ryzyko dla bezpieczeństwa danych (9 na 10 w skali zagrożeń). Wpływa bowiem na każdą aplikację AI – w chmurze lub lokalnie – która korzysta z podatnego na ataki zestawu narzędzi kontenerowych, aby umożliwić obsługę GPU. Na lukę podatnych jest ponad 35 proc. środowisk chmurowych, biorąc pod uwagę szerokie zastosowanie Container Toolkit.
Krakowscy funkcjonariusze Centralnego Biura Zwalczania Cyberprzestępczości zatrzymali trzy osoby, które oferowały w sieci rzekomo darmowe laptopy dla powodzian, w zamian za opłatę kurierską. Oszukali w ten sposób, według dotychczasowych ustaleń, co najmniej 200 osób. Cyberpolicja stwierdziła, że na jednym z portali społecznościowych na grupach zrzeszających osoby z terenów objętych powodzią, pojawiło się ogłoszenie, w którym osoba prywatna oferowała „tylko osobom naprawdę potrzebującym” darmowego laptopa.
Rada nadzorcza IDEAS NCBR wybrała nowego prezesa spółki. Został nim Grzegorz Borowik, profesor NASK-Państwowego Instytutu Badawczego, prodziekam ds. kierunku informatyka w Uczelni Techniczno-Handlowej im. Heleny Chodkowskiej w Warszawie. Decyzja rady nadzorczej IDEAS NCBR wywołała niepokój i krytykę ekspertów. Rezygnacje z udziału w radzie naukowej złożyli specjaliści od sztucznej inteligencji, m.in. Aleksander Mądry, profesor Massachusetts Institute of Technology i członek zespołu technicznego OpenAI, prof. Marta Kwiatkowska z Uniwersytetu w Oxfordzie, prof. Wojciech Samek z Fraunhofer Heinrich Hertz Institute oraz Zofia Dzik z Instytutu Humanites.
Centralnego Biura Zwalczania Cyberprzestępczości zatrzymali dwóch mężczyzn w województwie śląskim, którzy są podejrzewani o stworzenie pełnej infrastruktury informatycznej do popełniania na masową skalę oszustw phishingowych. Składała się z kilkudziesięciu komputerów i telefonów z kartami SIM. Śledczy ustalili, że 28 i 25-latek stworzyli ponad 50 różnych stron związanych z drastycznymi treściami, w tym kilka dotyczących powodzi. Po kliknięciu w taki wpis, zamieszczany najczęściej na portalach społecznościowych, użytkownik musiał podać swoje dane logowania. Trafiały one do oszustów na spreparowanej przez nich stronie.
Biznes zamierza przeprowadzić zwolnienia grupowe. Obejmą nie więcej niż 30 pracowników. Mogą potrwać do 31 października br. Zaczną się nie wcześniej, niż po zawiadomieniu poznańskiego urzędu pracy. Uchwały w tej sprawie podjął zarząd spółki. Zwalnianym pracownikom zostanie wypłacona odprawa w wysokości zależnej od okresu zatrudnienia w spółce. Jak zaznacza zarząd Komputronika, działania te dotyczą tylko spółki zależnej Komputronik Biznes. Celem jest – jak poinformowano – optymalizacja kosztów zatrudnienia, a w konsekwencji znacząca poprawa wyników finansowych, która ma być widoczna po zrealizowaniu kosztów redukcji.
„Nasząmisjąjestupewnienie się,żeAInieuderzyw ścianę danych”– Gal Oron, CEO Zoomin, o współpracy z Salesforce’em.
„Ręceopadają”– Andrzej Dragan z Wydziału Fizyki UW, na temat zmian personalnych w IDEAS NCBR.
Amazon ma „działać jak największy startup na świecie” – oznajmił Andy Jassy, CEO koncernu i zapowiedział spłaszczenie struktury organizacyjnej korporacji. W efekcie ma zmniejszyć się liczba menedżerów, których – zdaniem Jassy’ego – jest obecnie tak wielu, że procesy decyzyjne nadmiernie się przeciągają. Uproszczenie struktury ma usprawnić zarządzanie właśnie na podobieństwo startupu. Amazon ma zwiększyć stosunek indywidualnych pracowników do ich menedżerów o co najmniej 15 proc. do końca I kw. 2025 r. Jednocześnie zapowiedziano, że zamiast pracy hybrydowej, załoga ma być obecna w biurze przez 5 dni w tygodniu, co też ma pomóc w sprawnym działaniu na wzór małych firm.
Alsendo, dostawca oprogramowania i usług do zarządzania procesami wysyłkowymi, przejmuje litewską spółkę Visas transportas wraz z jej platformami online. Wartość transakcji, która wymaga jeszcze zgody regulatora, nie została ujawniona. Obecnie firma z siedzibą w Wilnie działa na sześciu rynkach w regionie CEE, koncentrując się na klientach MŚP. Celem rozwoju Alsendo jest dalsza ekspansja międzynarodowa.
Centralne Biuro Zwalczania Cyberprzestępczości rozbiło międzynarodową grupę przestępczą. Sprawcy przełamali zabezpieczenia systemu informatycznego jednej z holenderskich firm, która ma oddział we Francji. Podszywali się pod jej kontrahenta, dokonując zamiany numeru rachunku bankowego wykorzystywanego do rozliczeń. Skradzione w ten sposób pieniądze trafiły na konto w Polsce, należące do firmy założonej przez sprawców. Odzyskano ponad 20 mln zł, które zwrócono pokrzywdzonej firmie.
WSA oddalił skargę Morele.net na decyzję prezesa UODO, który w styczniu br. naliczył spółce ponad 3,8 mln zł kary za naruszenie przepisów RODO. Chodzi o głośną sprawę z 2018 r., gdy doszło do ataku hakerskiego na detalistę. W ocenie urzędu miał wówczas miejsce wyciek danych dotyczących 2,2 mln osób. Przyczyną miało być niezastosowanie przez spółkę odpowiednich zabezpieczeń i procedur. UODO już raz nałożył karę na Morele w związku z tymi zarzutami (2,8 mln zł w 2019 r.), od czego spółka się odwołała i w lutym 2023 r. NSA uchylił decyzję o karze, niemniej UODO ponownie się tym zajął. Morele.net nie zgadza się z wyrokiem WSA i zapowiada zaskarżenie go do NSA.
Pracownicy UOKiK-u w asyście policji przeszukali cztery firmy zajmujące się sprzedażą dronów, akcesoriów do nich, gimbali, kamer sportowych, oprogramowania i pakietów ochronnych marek DJI, DJI Enterprise i DJI Agriculture. Zdaniem urzędu przedsiębiorcy mogli zawrzeć nielegalne porozumienie cenowe, w związku z czym ruszyło postępowanie wyjaśniające. UOKiK analizuje dowody, przy czym postępowanie prowadzone jest w sprawie, a nie przeciwko konkretnym przedsiębiorcom. Jeśli zebrany materiał potwierdzi podejrzenia, wówczas prezes UOKiK-u rozpocznie postępowanie antymonopolowe i postawi zarzuty konkretnym firmom.
W rezultacie głośnych decyzji politycznych związanych ze sprawą IDEAS NCBR (więcej piszemy o nim na str. 13), powstanie instytut badawczy IDEAS. Na jego czele stanie prof. Piotr Sankowski, wcześniej pozbawiony szefostwa w IDEAS NCBR, który jest uznawany za eksperta o światowej renomie w dziedzinie AI. Teraz ma zorganizować nową jednostkę naukową, która według zapowiedzi „ma szansę stać się wiodącym ośrodkiem badawczym w zakresie sztucznej inteligencji, ze szczególnym uwzględnieniem jej zastosowań w sektorach zdrowia, obronności oraz administracji publicznej”. Natomiast IDEAS NCBR będzie koordynował i integrował działania w zakresie AI w Polsce, a udziałowcami spółki zostaną uczelnie wyższe. Od stycznia 2025 r. ma już ona działać w nowej formule.
Komputronik połączył działy związane ze sprzedażą internetową i stacjonarną oraz centrum obsługi klienta, a także struktury marketingu z obszarem digital development. Celem jest wzmocnienie strategii omnichannel, w tym ujednolicenie oferty we wszystkich kanałach sprzedaży. Nastąpiły też zmiany w kierownictwie: Marcin Mordak, odpowiedzialny dotąd za sieć sprzedaży, objął funkcję dyrektora sprzedaży omnichannel nad całym obszarem sprzedaży i usług tego pionu. Obowiązki Radosława Olejniczaka, dyrektora zakupów i handlu, rozszerzono o nadzór nad obsługą i sprzedażą na marketplace’ach. Zespoły e-commerce i marketingu połączono. Kieruje nimi Karolina Pietz-Drapińska, dyrektor ds. Marketing & Digital Development.
Alma:
Krzysztof Andrian objął stanowisko dyrektora ds. rozwoju biznesu w Almie. Ma 20 lat doświadczenia w branży, a przez ostatnie 8 lat zarządzał spółką Concept Data. Wcześniej odpowiadał za strategie sprzedaży w CompFort Meridian, Softbanku i IBM-ie. Dyrektorem sprzedaży został Arkadiusz Łysik, który przez ponad 20 lat był związany z Netią, ostatnio jako dyrektor działu sprzedaży zaawansowanych rozwiązań ICT. I wreszcie rolę dyrektora technicznego objął Damian Sieradzon, dotąd przez blisko dekadę związany z EMS Partner. Dotychczasowy dyrektor techniczny, Krzysztof Łapiński, awansował na stanowisko dyrektora ds. projektów strategicznych.
n Michał Starościk szefem Newline w regionie
Michał Starościk został
Country Managerem w Newline Interactive w Polsce i Europie Wschodniej. Oznacza to jego powrót do firmy, gdyż w latach 2018-2021 był już związany z Newline jako Business Development Manager (odpowiadał wówczas za współpracę z klientami biznesowymi). Doświadczenie zdobywał w ViDiS-ie i SATO Europe. W ostatnich latach pracował jako szef sprzedaży w Vintom oraz Fastline Racing Academy.
Sylwia Machnik-Kochan została nową dyrektor Motoroli w Polsce. Będzie tworzyć i realizować strategię biznesową tej marki, należącej do Lenovo. Ma ponad 20-letnie doświadczenie w sprzedaży. Zajmowała stanowiska kierownicze w branżach: technologicznej, farmaceutycznej i FMCG. Przez ostatnie 12 lat była związana z HTC, gdzie awansowała od stanowiska dyrektora sprzedaży na Polskę po funkcję wiceprezesa ds. sprzedaży na region EMEA. W latach 2008–2012 była związana z Motorolą, pełniąc rolę Key Account Managera.
Anna Streżyńska dołączyła do grona stałych współpracowników Krajowej Izby Gospodarczej Elektroniki i Telekomunikacji. Będzie w niej pełnić rolę głównego doradcy strategicznego. Specjalistka ma uczestniczyć w pracach organizacji, związanych ze strategią rozwoju kraju w kierunku, jak to określa KIGEiT, gospodarki wiedzy „w oparciu o współbieżnie rozwijające się infrastruktury telekomunikacji i energetyki, silny rynek elektroniczny i przemysłową specjalizację w zakresie inteligentnego oprogramowania”. Izba zapowiedziała również, że zamierza wykorzystać doświadczenie Anny Streżyńskiej, która w latach 2006–2012 była prezesem Urzędu Komunikacji Elektronicznej, natomiast w okresie od 2015 do 2018 r. pełniła funkcję ministra cyfryzacji. Od 2018 r. jest właścicielem i prezesem firmy MC2 Innovations.
W sopockim hotelu Sheraton odbyła się konferencja Brother Dealer Day 2024. Podczas spotkania zaprezentowano wyniki finansowe, a także najnowsze trendy na rynku urządzeń drukujących.
n Wojciech Urbanek
Informacje o śmierci druku są zdecydowanie przedwczesne. Do takiego wniosku można dojść po wystąpieniu Piotra Bacy, odpowiedzialnego za region Europy Środkowej i Wschodniej w Brother, który przedstawił wyniki finansowe i opowiedział o strategii firmy. Producent w roku fiskalnym 2023 r. uzyskał na rynku polskim przychód w wysokości 51 mln euro, co oznacza 30-proc. wzrost w ujęciu rocznym. Brother w segmencie urządzeń zwiększył sprzedaż o 40 proc., a w przypadku materiałów eksploatacyjnych o 10 proc. Jak podkreśla Piotr Baca: „to absolutny rekord sprzedaży w Polsce”. Przyjmując za kryterium liczbę sprzedanych urządzeń, Brother jest liderem polskie-
Krzysztof Mertowski Head of Sales, Brother Poland
Jednym z obszarów, na który stawiamy od kontraktowa. Obecnie
go rynku w kilku kategoriach: wielofunkcyjne urządzenia laserowe monochromatyczne, drukarki laserowe monochromatyczne, wielofunkcyjne urządzenia laserowe kolorowe, drukarki laserowe kolorowe oraz wieloatramentowe urządzenia atramentowe CISS.
Oczywiście rynek urządzeń drukujących z roku na rok staje się coraz trudniejszy. Dzieje się tak z kilku powodów: postępującej cyfryzacji, nasycenia rynku, coraz dłuższego cyklu życia urządzeń, proekologicznych postaw czy nawyków młodych ludzi sporadycznie korzystających z papierowej dokumentacji. Jednak wymienione trudności nie przeszkodziły Brotherowi w ekspansji rynkowej. Natomiast tym, co pomogło japońskiemu producentowi, były intensywne działania marketingowe i komunikacyjne, oraz dwie kampanie wizerunkowe – „Drukujemy. Zawsze tam, gdzie Ty” (Brother przeznaczył na te reklamy w stacjach telewizyjnych oraz w internecie 500 tys. euro).
– Biorąc pod uwagę fakt, iż coraz więcej sprzedaży realizujemy w internecie, postanowiliśmy przygotować kampanię skierowaną do użytkowników końcowych. Jej przekaz miał na celu pokazać konsumentom, że choć drukujemy mniej niż kiedyś, to druk towarzyszy nam wszędzie – tłumaczy Piotr Baca.
Wprawdzie rynek urządzeń drukujących jest dość nasycony, ale Brother nadal dostrzega drzemiący w nim potencjał. Jednym z najbardziej perspektywicznych obszarów jest Managed Print Services (MPS). Brother w 2022 r. sprzedał w modelu kontraktowym 4 848 sztuk urządzeń (podpisano 783 umo-
wy), a rok później było to już 7 629 sztuk (1023 umowy). Nieznacznie zwiększyła się też liczba aktywnych partnerów działających w tym obszarze: z 56 w 2022 r. do 61 w roku 2023. – Zlecenie na zewnątrz usług zarządzania drukiem jest efektywne z punktu widzenia użytkownika. Jego organizacja może wówczas skupić się na swoich podstawowych zadaniach zamiast poszukiwaniu materiałów eksploatacyjnych czy naprawach sprzętu. Te zadania spoczywają na barkach partnera obsługującego firmę. Dlatego też takie usługi zyskują na popularności wśród firm – mówi Piotr Baca. Oferta abonamentowa Brothera dostępna jest w trzech opcjach: Essential, Pro, Enterprise, a niebawem dołączy EcoPro – pakiet dla użytkowników indywidualnych. Brother planuje również zwiększyć swój udział w rynku urządzeń atramentowych, gdzie jak na razie jest mało znaczącym graczem. Obecnie udział japońskiego producenta w tym segmencie wynosi w Europie około 3 proc. Na koniec warto też wspomnieć o skanerach, które Brother wprowadził do Polski jako ostatni z działających na naszym rynku producentów, ale obecnie posiada 25 proc. udziału w rynku.
Krzysztof Mertowski, Head of Sales Brother Poland, skoncentrował się w swoim wystąpieniu na współpracy z partnerami. Podkreślił przy tym, że spędził w Brotherze już 18 lat, przy czym długim stażem legitymują się też inni pracownicy: Piotr Baca, Country Manager Poland&Ukraine, CEE Director (19 lat),
Paweł Wośko, Pre Sales & Technical Service Manager (16,5 roku) czy Katarzyna Idzkiewicz, Senior Marketing Coordinator (13,5 roku). To dowodzi, że japońska firma stawia na zaufanie i budowanie długotrwałych relacji. – Zależy nam na biznesie i współpracy, a nie tylko na sprzedaży. Na rynku często spotykamy się z firmami, które chcą sprzedać produkt, a potem o nim szybko zapomnieć. W Brotherze myślimy perspektywicznie i planujemy pewne rzeczy z wyprzedzeniem. Chcemy, żeby partnerzy byli zadowoleni z długofalowej współpracy. Jesteśmy ze sobą na dobre i na złe, a w wielu sytuacjach staramy się sobie nawzajem pomagać – zaznacza Krzysztof Mertowski. Brother wspomaga partnerów na wielu płaszczyznach. Jedną z nich jest wsparcie cenowe w przypadku realizacji dużych projektów, a także kontraktów MPS. Firma stara się zapewnić klientowi końcowemu możliwie najniższą cenę, ale jednocześnie dba o godziwą marżę dla resellera. Nie mniej istotne jest wsparcie przedsprzedażowe. Japoński producent od lat oferuje program demo, który pozwala na zakup urządzeń na preferencyjnych warunkach, a także daje możliwość prowadzenia darmowych testów. Brother służy również pomocą w integracji drukarek z systemami istniejącymi u klientów oraz konfiguracją sprzętu drukującego dla najbardziej wymagających użytkowników. Partnerzy mogą liczyć na wsparcie marketingowe w zakresie organizacji wystaw, akcji promocyjnych bądź szkoleń dla klientów.
Wprawdzie relacje partnerskie odgrywają nieocenioną rolę w biznesie, jednak nie przetrwałyby zbyt długo bez wysokiej klasy produktów lub usług. Brother ma w tym zakresie sporo do zaoferowania, bowiem w jego portfolio znajduje się 150 produktów. – Możemy powiedzieć, że jesteśmy specjalistami w dziedzinie druku. Od lat skupiamy się na produktach drukujących. Mamy najszerszą na rynku gamę urządzeń drukujących, skanerów, drukarek etykiet, drukarek mobilnych. To umacnia nasze partnerstwo, ponieważ razem z resellerami możemy pójść do każdego klienta i praktycznie w stu procentach zaspokoić jego potrzeby w zakresie druku – podkreśla Krzysztof Mertowski.
GfK Polonia, którzy przedstawili wyniki badania „gfknewron Consumer”. W tej analizie co kwartał bierze udział tysiąc nabywców drukarek. Okazuje się, że w 2023 r. na polskim rynku sprzedano około 1,3 mln różnego rodzaju urządzeń drukujących o łącznej wartości miliarda złotych. Przy czym udział ilościowy drukarek domowych w całkowitej sprzedaży wyniósł niespełna 40 proc. Użytkownicy indywidualni przede wszystkim zwracają uwagę na cenę (71 proc.), a następnie specyfikację techniczną (68 proc.), markę (48 proc.), rekomendacje (37 proc.), promocje (30 proc.), wymiary produktu (30 proc.), a także design (14 proc.).
Piotr Baca
Country Manager Poland&Ukraine, CEE Director
Istnieje kilka powodów, dla których partnerzy
W gronie prelegentów Brother Dealer Day 2024 znaleźli się analitycy z firmy badawczej
Natomiast jeśli chodzi o kluczowe cechy, to najbardziej liczą się skanowanie/kopiowanie (51 proc.), druk bezprzewodowy (44 proc.), technologia (41 proc.), wysoka wydajność tuszu lub tonera (41 proc.) oraz niskie koszty druku (40 proc.). Na uwagę zasługuje też fakt, że Polska posiada stosunkowo niski poziom nasycenia urządzeniami drukującymi w gospodarstwach domowych, który wynosi zaledwie 36 proc. (dla porównania we Francji jest to 53 proc., a w Niemczech 46 proc.). W związku z tym rynek konsumencki stanowi „łakomy kąsek” dla dostawców urządzeń drukujących.
n Największa liczba kontraktów MPS w Brother Cloud MPS – Pryzmat
n Największa liczba urządzeń w kontraktach MPS – Blue Brain
n Największy kontrakt MPS w Brother Cloud MPS – Inprosystem
n Największa liczba urządzeń z kategorii SPS – Jantar
n Największa liczba urządzeń Ink Benefit Plus – Terg
n Odkrycie roku – J-P
Dziewiętnastu dyrektorów generalnych europejskich firm zaapelowało do przewodniczącej Komisji Europejskiej Ursuli von der Leyen i Kolegium Komisarzy o pilne podjęcie działań, aby region nie stał się marginalnym graczem konkurencyjnej gospodarki cyfrowej.
Poniżej publikujemy list otwarty liderów przemysłu UE na temat cyfryzacji, łączności i konkurencyjności, który został wystosowany we wrześniu br.: Europa zbliża się do połowy lat 20. nowego wieku w obliczu niestabilnego środowiska geopolitycznego i niepewnych perspektyw gospodarczych. Przed nami stoją wielkie wyzwania i możliwości, które wymagają od Europy cyfryzacji swoich społeczeństw i gospodarek. Opracowywanie i wdrażanie innowacji cyfrowych mają kluczowe znaczenie dla zwiększenia konkurencyjności Europy. W tym kontekście wzmocniona i bezpieczna łączność stanowi podstawę digitalizacji jako jednego z kluczowych czynników umożliwiających produktywność i dekarbonizację we wszystkich sektorach. Komisja Europejska zauważyła w niedawno opublikowanej Białej Księdze, że przyszłość konkurencyjności wszystkich sektorów gospodarki Europy zależy od zaawansowanej infrastruktury i usług sieci cyfrowych, ponieważ stanowią one podstawę globalnego wzrostu PKB od 1 do 2 bilionów euro. Cele Dekady Cyfrowej stanowią, że nowe sieci 5G i FTTH lub satelity muszą dotrzeć do niemal każdego zakątka Europy do 2030 r., aby żaden obywatel ani żadna firma nie została pominięta. Szefowie rządów w niedawnych konkluzjach Rady Europejskiej zauważyli również, że „cyfrowa transformacja biznesu, rządu i społeczeństwa wymaga prawdziwego jednolitego rynku usług cyfrowych i danych, zachęcającego i ułatwiającego inwestycje w infrastrukturę cyfrową, taką jak 5G i 6G, oraz stosowania przełomowych technologii cyfrowych, takich jak AI, blockchain, komputery kwantowe i technologia rzeczywistości immersyjnej”. Według opracowania Europejskiego Okrągłego Stołu Przemysłowców, w ciągu ostatniej dekady operatorzy telekomunikacyjni zainwestowali 500 miliardów euro w modernizację i rozbudowę sieci w Europie. Mario Draghi, który opublikował raport „Przyszłość europejskiej konkurencyjności”, przypomniał nam, że pomimo wysiłków „inwestycje w telekomunikację na mieszkańca stanowią połowę tego, co w USA, a my pozostajemy w tyle pod
względem wdrażania 5G i sieci światłowodowej”. Dlatego zgadzamy się z analizą Komisji, że należy zrobić więcej, aby naprawić sytuację, i popieramy działania mające na celu poprawę inwestycji w łączność i cyfryzację na całym kontynencie.
Stawką dla gospodarki europejskiej jest znacznie więcej niż przyszłość jednego sektora. Podkreślił to były premier Włoch, Enrico Letta, w swoim Raporcie na wysokim szczeblu, dostrzegając, że „brak integracji w sektorach finansowym, energetycznym i komunikacji elektronicznej jest głównym powodem spadku konkurencyjności Europy”. Jeśli szybko nie stworzymy warunków do znacznego zwiększenia inwestycji sieciowych, ucierpi na tym cała europejska struktura przemysłowa.
Obecnie europejskie przedsiębiorstwa inwestują w cyfryzację procesów, stosowanie sztucznej inteligencji i realizację wizji „Przemysłu 4.0”, czego nie można osiągnąć bez innowacyjnej łączności. Mówiąc słowami Enrico Letty: „technologie takie jak 5G (6G w przyszłości), IoT, web3.0, edge-cloud computing lub sztuczna inteligencja stworzą zupełnie nowe możliwości gospodarcze. Oczywiście wdrożenie tych technologii opiera się na sieciach, które zapewnią nowe możliwości, takie jak zwiększona moc obliczeniowa lub różne poziomy opóźnień”. Będąc domem dla niektórych z czołowych producentów telekomunikacyjnych na świecie, Europa jest główną siłą napędową w promowaniu innowacji sieciowych. Potrzebne jest jednak większe wsparcie, jeśli chcemy nadal budować europejską pozycję lidera technologicznego w zakresie zaufanej i zaawansowanej łączności.
Na szali leży konkurencyjność Europy.
W grę wchodzi wiele przykładów z różnych sektorów gospodarki i grup społeczeństwa. Chcielibyśmy przedstawić kilka przykładów zaawansowania i zakresu takich przypadków użycia.
W sektorze mobilności, bezpieczna łączność i usługi mogą pomóc uczynić ruch bezpieczniejszym i mniej obciążającym środowisko. Na wewnętrznym rynku energii UE, inteligentniejsze sieci i sztuczna inteligencja mogą przynieść korzyści całemu łańcuchowi wartości, w tym wytwarzaniu, przesyłowi, dystrybucji i komercjalizacji. Obejmuje to technologie, takie jak szybka łączność dla zdalnych lokalizacji odnawialnych źródeł energii lub umożliwienie inteligentnego zużycia energii w celu zmniejszenia szczytów zapotrzebowania.
W przypadku odnawialnych źródeł energii, modernizacja i rozbudowa infrastruktury sieciowej mogą zabezpieczyć transmisję, przetwarzanie i wykorzystanie dużych ilości danych na potrzeby inteligentnych liczników i zapotrzebowania na elastyczność. W sektorze opieki zdrowotnej infrastruktura cyfrowa ma klu-
czowe znaczenie dla rozwoju e-zdrowia: obejmuje to cyfrowe monitorowanie i opiekę, zdalne badania, a także rozwiązania AI w celu szybszego odkrywania, produkcji i dostaw leków. Sektor kolejowy wymaga inwestycji w 5G dla przyszłego kolejowego systemu komunikacji mobilnej (FRMCS) i ulepszonych usług pasażerskich. 5G i FRMCS zapewnią bezpieczną, wydajną i wysokoprzepustową komunikację na potrzeby modernizacji i bezpieczeństwa kolei, a także niezawodną łączność, poprawiając komfort pasażerów.
Sieci łączności umożliwią również wykorzystanie AI w różnych branżach, od klasycznych prognoz i rekomendacji po inteligentne sieci biznesowe, cyfrowych asystentów i generatywne modele AI. Co więcej, zharmonizowane, sprzyjające innowacjom wdrożenie unijnego aktu o sztucznej inteligencji będzie miało zasadnicze znaczenie dla rozwoju AI w Europie.
Prywatne sieci 5G mogą w szczególności zwiększać automatyzację przemysłową, łącząc aplikacje z różnych sektorów. Aplikacje te działają w trudnych i odległych środowiskach, umożliwiając szersze i łatwiejsze cyfrowe wdrażanie w zakładach przemysłowych. Potrzebne są również większe inwestycje w walkę z cyberprzestępczością, przy udziale wszystkich zainteresowanych stron i w zharmonizowany sposób na całym jednolitym rynku: musimy chronić infrastrukturę krytyczną, taką jak sieci energetyczne, a także kluczowe działania gospodarcze, takie jak te w sektorze finansowym.
Przemysłowa baza Europy jest potężna, ale wymaga wysokiego poziomu inwestycji i odpowiednich warunków politycznych, aby każda z jej części mogła się rozwijać, wprowadzać innowacje i pozostać konkurencyjna na poziomie globalnym. Łączność nie jest tu wyjątkiem. Jako europejski przemysł potrzebujemy zwiększonej współpracy i inwestycji w zaufaną, bezpieczną, odporną oraz wysokiej jakości łączność, a także w infrastrukturę obliczeniową.
Dlatego my, jako dyrektorzy generalni, uważamy, że pilnie należy podjąć działania już teraz i kształtować przyszłość europejskiej infrastruktury cyfrowej. Na szali leży konkurencyjność Europy. Z zadowoleniem przyjmujemy publikację Białej Księgi Komisji Europejskiej i uważamy, że kluczowe jest zapewnienie, aby potrzeby i propozycje wszystkich branż były brane pod uwagę w przyszłych pracach. Tylko w ten sposób wysiłki europejskich graczy mogą być trwałe i zakończone sukcesem”.
Aiman Ezzat, CEO, Capgemini
Börje Ekholm, CEO, Ericsson
Christian Klein, CEO, SAP
Christian Sewing, CEO, Deutsche Bank
Cláudia Azevedo, CEO, Sonae
Claudio Descalzi, CEO, Eni
Flavio Cattaneo, CEO, Enel
Gonzalo Gortázar Rotaeche, CEO, CaixaBank
Ignacio S. Galán, Executive Chairman, Iberdrola
Leonhard Birnbaum, CEO, EON
Luca de Meo, CEO, Renault Group
Markus Krebber, CEO, RWE
Michael Strugl, CEO, Verbund
Óscar García Maceiras, CEO, Inditex
Pekka Lundmark, CEO, Nokia Corporation
Peter Herweck, CEO, Schneider Electric
Richard Lutz, CEO, Deutsche Bahn
Robert Falck, CEO, Einride
Roland Busch, CEO, Siemens
Centrum Informatyki Resortu Finansów zorganizowało przetarg na dostawę urządzeń i oprogramowania dla sieci LAN do gmachu ministerstwa w Warszawie. Na realizację zamówienia zamierza przeznaczyć blisko 10 mln zł. O kontrakt starają się: Innergo Systems, Netsecure, Net-o-logy, Zakład Systemów Komputerowych ZSK, Axians IT Solutions Poland oraz Integrated Solutions. Wybrany integrator ma dostarczyć w sumie 251 przełączników 4 typów, 150 punktów dostępowych WLAN, 2 kontrolery WLAN, oprogramowanie do zarządzania sprzętem, 1 serwer na potrzeby instalacji tego software’u, jak też zapewnić gwarancję na sprzęt i oprogramowanie. Resort może zamówić dodatkowe punkty dostępowe.
Niemiecki koncern handlowy otworzy centrum usług IT w Zielonej Górze. Projekt jest realizowany we współpracy z lokalną firmą amb software. Zajmie się nim nowo powołana spółka REWE Digital Poland. Centrum będzie realizować projekty informatyczne dla grupy, obejmujące cyfryzację i automatyzację procesów, platformy e-handlu, jak też technologie chmurowe. Zespół specjalistów ma zostać utworzony w ciągu najbliższego roku. REWE zdecydowało się na otwarcie ośrodka usług IT w Polsce ze względu na dostępność wysoko wykwalifikowanych specjalistów.
Centrum Zasobów Cyberprzestrzeni Sił Zbrojnych zamawia dostawę urządzeń dostępowych – przełączników i ich elementów, wraz z oprogramowaniem, licencjami i gwarancją. W sumie w czterech częściach przetargu centrum zamierza nabyć 1084 przełączniki. Są to switche trzech typów (24SFP, 24P, 48P) wraz z modułami. Sprzęt musi umożliwiać konfigurację zgodnie z zaleceniami wydanymi przez NATO NCI Agency. CZCSZ zamierza przeznaczyć na realizację zamówienia 40,1 mln zł brutto. W sierpniu oferty złożyły firmy: Axians IT Solutions, NetProf i Innergo Systems. We wrześniu br. wybrano wykonawcę w części 1. Został nim Axians IT Solutions, z ofertą wartą 18,7 mln zł.
Wojciech Wolny, prezes Euvic, wraz z trzema inwestorami spoza branży IT (Bogdan Więcek, Wojciech Śmiechowski i Stanisław Han) odkupili od funduszu 21 Concordia akcje rybnickiej spółki Digitree Group i weszli w posiadanie w sumie ok. 49,5 proc. akcji. Łącznie inwestorzy kupili od Concordii papiery odpowiadające 60,51 proc. kapitału i głosów w spółce za blisko 12,2 mln zł. Digitree Group specjalizuje się w rozwiązaniach IT służących do wsparcia sprzedaży, komunikacji i marketingu. W 2023 r. grupa miała 89,55 mln zł przychodów i 0,8 mln zł straty netto dla dominującego podmiotu. Euvic ujawnił się w akcjonariacie Digitree 2 lata temu. Inwestycja była efektem powstania w ramach Grupy Euvic filaru Perfomance, który ma być rozwijany.
Pod koniec sierpnia świat obiegła informacja o aresztowaniu Pawła Durowa, założyciela Telegramu. Francuska policja zatrzymała miliardera na lotnisku Le Bourget.
n Wojciech Urbanek
Przez lata organy ścigania różnych państw narzekały na kierownictwo Telegramu. Chodziło o przymykanie oka na nielegalne zachowania użytkowników tego portalu społecznościowego. Teraz francuskie władze, które aresztowały Pawła Durowa, oskarżają go o współudział w handlu narkotykami i materiałami związanymi z wykorzystywaniem seksualnym dzieci oraz nieprzestrzeganie nakazów prawnych. To wycinek dużo poważniejszej, niż mogłoby się na pierwszy rzut oka wydawać, sprawy.
Pod koniec września dziennik The Wall Street Journal przedstawił historię byłego agenta federalnego Chrisa Janczewskiego, który w 2020 r. prowadził działania mające na celu zahamowanie przepływu środków finansowych na rzecz Al-Kaidy. Janczewski obserwował jedną z grup terrorystycznych, która na jednym z kanałów Telegrama namawiała swoich zwolenników do finansowania zakupów broni dla mudżahedinów z Syrii. Grupa przestępcza podała konto bitcoinowe do przesyłania wpłat, co pozwoliło władzom USA przejąć pieniądze skierowane do syryjskich komórek terrorystycznych i doprowadziło do szeregu aresztowań (poza terenem Stanów Zjednoczonych).
Otwarte rozmowy, prowadzone za pośrednictwem Telegramu, pozwoliły Janczewskiemu zidentyfikować pojedynczy adres portfela terrorystycznego
i ostatecznie wykorzystać go do zlokalizowania ponad 155 internetowych kont kryptograficznych powiązanych z Al-Kaidą. „Mogłem śledzić prowadzone przez terrorystów transakcje z mojego domu, bez konieczności wyprawy do rozdartej wojną Syrii” – podkreślał Janczewski, który obecnie jest szefem „dochodzeniówki” w TRM Labs, firmie badającej oszustwa związane z kryptowalutami.
Sprawa Janczewskiego pokazuje, że Telegram z jednej strony stanowi przystań dla przestępców, zaś z drugiej, jego dostępność dla wszystkich chętnych czyni ten portal wręcz wymarzonym terenem łowieckim dla policji. W dziesiątkach przypadków w ciągu ostatnich pięciu lat władze Stanów Zjednoczonych ścigały przestępców na podstawie ich wypowiedzi opublikowanych na kanałach Telegramu. Na początku września tamtejsze władze oskarżyły dwóch Amerykanów o kierowanie międzynarodową neonazistowską grupą o nazwie Terrorgram, która wykorzystywała to medium społecznościowe do zachęcania zwolenników do… podkładania bomb pod obiekty federalne i mordowania amerykańskich urzędników.
wokół wspólnych zainteresowań. Dlatego również europejscy funkcjonariusze organów ścigania wykorzystali tę platformę do infiltracji grup przestępczych bez współpracy z Telegramem. „Choć praktycznie nie ma aplikacji mediów społecznościowych. która nie byłaby używana przez przestępców, staramy się, tak jak to możliwe, ograniczać nadużycia pojawiające się na naszej platformie” – tłumaczy Mike Ravdonikas, dyrektor operacyjny Telegramu.
Wracając do Pawła Durowa: na początku września opublikował post, w którym przekonuje, że opisywanie Telegramu jako „jakiegoś anarchicznego raju” to błąd. Jednocześnie, jak przyznają francuscy prokuratorzy, od momentu aresztowania Durowa, menadżment Telegramu stał się znacznie bardziej kooperatywny. Prokuratorzy i inni europejscy urzędnicy twierdzą teraz, że firma zaczęła regularnie spełniać żądania organów ścigania związane z poszukiwaniami użytkowników platformy na całym kontynencie. Wcześniej miało być dokładnie na odwrót…
Publiczne pranie brudów (i pieniędzy).
Jak wiadomo, Telegram jest platformą mediów społecznościowych taką samą jak Facebook. Jej twórcy umożliwili każdemu tworzenie publicznie dostępnych grup
„Platforma jest bardziej przydatna dla przestępców niż śledczych. Dzieje się na niej wiele złego, od pomocy meksykańskim kartelom w rekrutacji płatnych zabójców, po zapewnienie chińskim operacjom prania pieniędzy platformy do znajdowania klientów. To, co udaje się władzom wyłapać na Telegramie to mała kropla w dużym wiadrze” – twierdzi Evan Kohlmann, konsultant ds. walki z terroryzmem, który pracował dla Federalnego Biura Śledczego i zeznawał jako świadek w dziesiątkach spraw związanych z Telegramem. Paweł Durow urodził się w Rosji, ale mieszka w Dubaju. Posiada podwójne obywatelstwo Zjednoczonych Emiratów Arabskich i Francji. Telegram założył w 2013 r., a rok później opuścił Rosję, po odmowie spełnienia żądań Kremla dotyczących zamknięcia związanych z opozycją społeczności na platformie społecznościowej VKontakte, która należała wtedy do Durowa, a którą sprzedał tuż przed wyjazdem z ojczyzny. Równolegle, wraz z rodzonym bratem Nikołajem, założył Telegram, cieszący się szczególną popularnością w Rosji, na Ukrainie i w byłych państwach Związku Radzieckiego.
Poniżej publikujemy list otwarty opublikowany
przez prof. Marka Cygana 27 września br. Kilka dni później Krzysztof Gawkowski, minister cyfryzacji, zapowiedział powołanie od początku 2025 r. Instytutu badawczego IDEAS, na czele którego ma stanąć prof. Piotr Sankowski.
Szanowny Panie Premierze,
Obecnie sztuczna inteligencja stanowi jeden z kluczowych aspektów decydujących o tempie rozwoju społeczeństwa. Budowa instytucji i procesów wspierających rozwój sztucznej inteligencji w Polsce jest, moim zdaniem, niezwykle ważna z punktu widzenia interesu narodowego. Instytut IDEAS NCBR w ostatnich latach był jednym z bardzo niewielu jasnych punktów na mapie rozwoju sztucznej inteligencji w Polsce. Prowadzone tam badania są na światowym poziomie, publikowane na flagowych konferencjach sztucznej inteligencji, a liderzy grup badawczych zatrudnieni w IDEAS NCBR to rozpoznawane w światowej nauce osoby. Niestety, właśnie rozstrzygnięty konkurs na prezesa IDEAS NCBR budzi moje ogromne obawy, że wieloletni wysiłek zostanie zaprzepaszczony.
We właśnie rozstrzygniętym konkursie prezesem IDEAS NCBR został dr Grzegorz Borowik, kontrkandydat i poprzedni prezes, prof. dr hab. Piotr Sankowski, nie został wybrany. Fakty dotyczące procedury wyboru nowego prezesa są następujące:
1. Kadencja poprzedniego prezesa, Piotra Sankowskiego, zakończyła się w czerwcu 2024 r. Konkurs na nowego prezesa nie został rozpisany w terminie, co spowodowało, że
przez kilka miesięcy instytut IDEAS NCBR pozostawał bez prezesa.
2. Konkurs na nowego prezesa ogłoszono 19 lipca, a dzień wcześniej – 18 lipca, do Rady Nadzorczej IDEAS NCBR powołano trzech nowych członków.
3. Dyrektor NCBR oraz nowy prezes IDEAS NCBR wywodzą się z tych samych środowisk, obaj pracują w powołanej przez ministra nauki Radzie ds. innowacji w szkolnictwie. Obaj związani są także z Wojskową Akademią Techniczną.
4. Jeden z nowych członków Rady Nadzorczej IDEAS NCBR, podobnie jak nowy prezes IDEAS NCBR, zasiada we władzach Uczelni Techniczno-Handlowej.
Do tego należy dodać, że dorobek Piotra Sankowskiego jest nieporównywalnie większy niż dorobek Grzegorza Borowika, niezależnie od tego jaką miarą będziemy ten dorobek mierzyć. Podobnie jest w przypadku doświadczenia w prowadzeniu międzynarodowych grantów, a także komercjalizacji metod sztucznej inteligencji. W oparciu o posiadaną przeze mnie wiedzę trudno mi sobie wyobrazić kryterium, w którym kandydatura nowego prezesa mogła zostać oceniona wyżej niż kandydatura kontrkandydata. Podejrzewam, że podobnego zdania są członkowie Rady Naukowej IDEAS NCBR, którzy zrezygnowali ze swojej roli zaraz po ogłoszeniu wyników konkursu, a z całą pewnością takiego zdania są wszystkie osoby, z którymi rozmawiałem w ostatnich dniach.
Z powodu oceny dorobku w połączeniu z okolicznościami przeprowadzenia konkursu wymienionymi wyżej, uważam że w interesie publicznym jest ujawnienie jak wyglądał proces oceny obu kandydatów i na jakiej podstawie wyłoniono nowego prezesa, jakie były konkretne oceny punktowe w poszczególnych kryteriach oceny.
Na koniec zaznaczam, że niniejszy list jest moją indywidualną inicjatywą, a wymienione wyżej afiliacje nie oznaczają, iż mój list reprezentuje wymienione instytucje.
Z wyrazami szacunku
Marek Cygan członek zespołu doradczego PL/AI, współzałożyciel spółki Nomagic, prof. Uniwersytetu Warszawskiego, kierownik grupy Uczenia Robotów. facebook.com/crnpolska
www.linkedin.com/company/crn-polska
www.youtube.com/@crnpolska8
Jak co roku Lenovo zaprosiło partnerów na Mazury, by wspólnie wziąć udział w wielkim branżowym święcie i emocjonującej rywalizacji na wodzie.
n Krzysztof Pasławski
Oodbywające się już po raz siedemnasty Regaty Lenovo pobiły kolejne rekordy. W wydarzeniu, które odbyło się w dniach 5–7 września br., wzięło udział blisko 1 tys. uczestników, reprezentujących całe spektrum firm z branży. Do Klubu Mila Kamień nad jeziorem Bełdany przybyli licznie partnerzy Lenovo – resellerzy, integratorzy, dostawcy usług, firmy e-tail i retail, przedstawiciele dystrybutorów i vendorów. Nie zabrakło zespołu Lenovo Polska, z dyrektorem generalnym Wojciechem Zaskórskim na czele.
Można zaryzykować stwierdzenie, że nie ma drugiego takiego wydarzenia na polskim rynku, gdzie branża spotyka się w tak licznym gronie, w tak malowniczym miejscu i w przyjacielskiej atmosferze zacieśnia współpracę, bawi się i rywalizuje w wyścigach. W tym roku w regatach, rozgrywanych na jeziorze Bełdany i Mikołajskim, uczestniczyła rekordowa liczba blisko 100 załóg w trzech różnych klasach. Co ważne, wszyscy ukończyli rywalizację.
Silną więź łączącą Lenovo z partnerami podkreślał Wojciech Zaskórski, otwierając
regaty: „Jesteśmy firmą human to human. Mówi się, że są różne strategie, B2B i B2C, a my staramy się być grupą ludzi, którzy mają pasję”.
Dodał przy tym, że Lenovo jest firmą channel centric, która działa na rynku w 100 proc. poprzez kanał sprzedaży, realizując ideę one stop shop.
– Nie ma drugiego takiego vendora, u którego partnerzy mają aż tak szeroką ofertę – powiedział General Manager Lenovo Polska.
Podczas wydarzenia sporo działo się również na lądzie. Na rozgrzewkę były gry i zabawy z nagrodami w wakacyjnej strefie Lenovo Tab Plus z Jankesem i Kamilą Ryciak. Fani gamingu mieli do dyspozycji strefę Xbox Game Pass z konsolą Lenovo Legion Go. Oficjalny start eventu uświetnił plenerowy koncert gwiazdy – Macieja
Wojciech Zaskórski, General Manager Lenovo Polska
Maleńczuka, a w kolejny wieczór nie tylko żeglarska brać śpiewała szanty przy muzyce na żywo. Branża licznie wzięła również udział w tanecznej integracji na Motorola Beach Party. Potem można było nabrać sił przy ognisku albo na leżakach na plaży. O formę gości z samego rana zadbała Wake Up Yoga – prowadząc ćwiczenia jogi.
Specjaliści Lenovo, korzystając z okazji, zaprezentowali również absolutne nowości ogłoszone na tegorocznych targach IFA w Berlinie. Wśród nich były: Lenovo Yoga Slim 7i 9. generacji Aura Edition (15”) Copilot+, Yoga Pro 7 9. generacji (14”), czy Lenovo Creator Zone – pakiet oprogramowania zasilanego przez sztuczną inteligencję. Nie zabrakło również nowych smartfonów Motoroli.
Kolejny rok z rzędu pogoda była jak na zamówienie – całej imprezie towarzyszy-
Klasa T1
Klasa T2
1 Simple IT
1 Primo IT
2 Laptopy biznesowe
3 NTBX
3 Tango Polska
ła piękna, słoneczna aura. Wielkie gratulacje dla zwycięzców, jak też wszystkich uczestników regat!
Do zobaczenia za rok!
Klasa T3
1 MBA System
2 Nomacom Group
3 TEK IT Rzeźnicki
Wyposaż swoje zespoły, aby mogły pracować i czuć się jak najlepiej w erze AI
Kiedy jesteś nieustannie bombardowany sprzecznymi informacjami na temat sztucznej inteligencji, a zwłaszcza na temat jej wdrażania, może być trudno zdecydować, którym rozwiązaniom zaufać. Biorąc pod uwagę, że 72% liderów biznesu przewiduje wzrost produktywności dzięki sztucznej inteligencji, warto wejść w temat głębiej.* Aby pomóc Ci uporządkować informacje i efektywnie wdrożyć sztuczną inteligencję, w HP przygotowaliśmy sześciopunktową
listę kontrolną, która pomoże Ci zoptymalizować proces i osiągnąć lepsze wyniki w pracy.
Potrzebujesz komputera, który oferuje ostateczne doświadczenie AI PC dla biznesu. Procesory Intel® Core™ Ultra są wyposażone w jednostkę NPU dedykowaną obciążeniom związanym ze sztuczną inteligencją, dzięki czemu pracownicy mogą w pełni korzystać z wbudowanych funkcji sztucznej inteligencji partnerów
Jak stara jest Twoja aktualna flota urządzeń?
Czy przeszedłeś z systemu Windows 10 na Windows 11?
Jakie rodzaje zgłoszeń i problemów technicznych pojawiają się regularnie?
To dość oczywiste – nie możesz dowiedzieć się, dokąd zmierzasz, jeśli nie wiesz, gdzie jesteś na początku. Dlatego ważne jest, aby przeprowadzić pełną ocenę swojego aktualnego portfela aktywów, aby dokładnie zrozumieć swoje potrzeby. To również prosty sposób, aby upewnić się, że wszystkie komputery są zaktualizowane do systemu Windows 11 Pro przed zakończeniem wsparcia dla systemu Windows 10 w październiku 2025 roku.
i narzędzi, takich jak: Adobe Zoom
Copilot w systemie Windows Urządzenia bez jednostek NPU będą obciążone, aby obsługiwać sztuczną inteligencję bez spowalniania innych funkcji, dlatego ważne jest, aby wyposażyć swój zespół w najnowsze procesory Intel® Core™ Ultra. Umożliwi to pracownikom osiąganie najlepszych wyników teraz i w przyszłości.
Czy Twój zespół IT ma wymaganych partnerów i usługi?
Jaki poziom inwestycji należy przeznaczyć na narzędzia AI?
Kto będzie śledził i dystrybuował odpowiednie narzędzia AI?
Nie zapuszczaj się w nieznane obszary samodzielnie, zwłaszcza gdy masz dostęp do specjalistycznego wsparcia od partnerów takich jak HP. Era sztucznej inteligencji rozwija się w zawrotnym tempie i może być bardzo skomplikowana. Nie jest to coś, co można traktować lekko lub rozwiązywać na własną rękę. W szczególności w obszarach obciążających dział IT, takich jak utrzymanie bezpieczeństwa punktów końcowych, wdrażanie sztucznej inteligencji oraz zarządzanie urządzeniami, warto skorzystać z pomocy zewnętrznych partnerów. Dzięki odpowiedniemu wsparciu sztuczna inteligencja stanie się znacznie bardziej przyjazna i dostępna.
Jakie zadania wykonują poszczególne osoby?
Jakie narzędzia sztucznej inteligencji mogą im pomóc?
Jakich narzędzi AI już używają?
Rozmawiając ze swoimi pracownikami, prawdopodobnie odkryjesz, że już korzystają z różnych narzędzi sztucznej inteligencji, takich jak ChatGPT, Otter.ai czy Grammarly. Śledzenie nowych technologii to wyzwanie, które spada na Ciebie. I Twoi pracownicy również to dostrzegają: 58% specjalistów uważa, że menedżerowie wyższego szczebla powinni rozumieć, jak wykorzystać sztuczną inteligencję, aby wspierać ich sukcesy w pracy.* Chociaż jest to Twoja odpowiedzialność, nie oznacza to, że cały ciężar powinien spoczywać na Twoich barkach. Upewnij się, że masz odpowiednich partnerów i narzędzia, które pomogą Ci zrozumieć potrzeby Twojego zespołu i zapewnić im korzyści płynące ze sztucznej inteligencji, które naprawdę poprawią ich codzienną pracę.
Usługi HP podlegają odpowiednim warunkom świadczenia usług HP dostarczonym lub wskazanym Klientowi w momencie zakupu. Klientowi mogą przysługiwać dodatkowe prawa ustawowe zgodnie z obowiązującymi przepisami lokalnymi, na które w żaden sposób nie mają wpływu warunki świadczenia usług HP ani ograniczona gwarancja HP dołączona do produktu HP.
* HP, „Work Relation Index: AI in the Workplace Report”, marzec 2024 r., https://publish-pro.hp.com/content/dam/sites/worldwide/apps/work-relationship-index/reports/ ai-in-the-workplace/us-en_ai-in-the-workplace.pdf.
braków w umiejętnościach zespołu
Jakie szkolenia z zakresu sztucznej inteligencji będą potrzebne?
Czy wymagane będą certyfikaty?
Jaki poziom szkoleń jest wystarczający?
Podobnie jak w przypadku każdej zmiany, zarówno w obszarze AI, jak i innych, nie wszyscy pracownicy od razu dostosują się do nowych metod pracy. Na przykład 42% pracowników umysłowych nie wie, kiedy i jak korzystać ze sztucznej inteligencji w pracy.* Jak więc pomóc im w pełni wykorzystać możliwości
AI i zminimalizować problemy, takie jak shadow IT?
Odpowiedź tkwi w szkoleniach i rozwoju. Eliminowanie luk w umiejętnościach poprzez edukację pomoże zarówno pracownikom, jak i Tobie.
Jakie potrzeby związane ze sztuczną inteligencją będą miały poszczególne osoby w firmie?
Jaką technologię będą potrzebować do jej obsługi?
Jak określić te potrzeby?
Potencjał sztucznej inteligencji jest ogromny, ale nie jest taki sam dla każdego pracownika. W zasadzie każdy pracownik może skorzystać z komputera wyposażonego w procesory Intel® Core™ Ultra, aby aplikacje AI działały płynnie i efektywnie, bez obciążania procesora. Dodając do tego potężny procesor graficzny, uzyskujemy stację roboczą idealną dla zaawansowanych użytkowników, takich jak naukowcy zajmujący się danymi czy specjaliści korzystający z generatywnego projektowania 3D opartego na AI. Ważne jest, aby utrzymywać ciągły dialog i odkrywać potrzeby użytkowników w Twojej organizacji, zwłaszcza tych z wysoce wyspecjalizowanymi wymaganiami obliczeniowymi.
Czy Twoje wybory technologiczne pozwalają na przewodzenie w branży i utrzymanie konkurencyjności?
Co w dziedzinie sztucznej inteligencji jest już opłacalne, a co pozostaje jeszcze w sferze science-fiction?
Na jakie pojawiające się oferty AI powinna zwracać uwagę Twoja firma?
Nowe funkcje AI pojawiają się nieustannie, więc nie warto czekać. Upewnij się, że masz odpowiednie zasoby do adaptacji, takie jak komputery z procesorami NPU, które są gotowe na nadchodzące innowacje w zakresie sztucznej inteligencji. Współpracuj z zaufanymi partnerami, którzy oferują skalowalne rozwiązania zapewniające elastyczność i ekosystem potrzebny do ciągłego rozwoju technologii AI. To wsparcie przyczyni się do lepszej współpracy, bezpieczeństwa i produktywności, a także przyniesie inne korzyści. Efektem będzie silniejsze poczucie zespołu, większa stabilność i osiąganie wspaniałych rezultatów.
Opracowaliśmy tę listę kontrolną, aby pomóc w podejmowaniu decyzji dotyczących sztucznej inteligencji oraz dostarczamy szeroki wybór urządzeń i usług wsparcia skoncentrowanych na AI, które pozwolą
Twoim zespołom osiągnąć prawdziwy postęp. Komputery HP z funkcjami sztucznej inteligencji umożliwiają pracownikom odkrywanie nowych poziomów produktywności, współpracy i kreatywności. Dzięki partnerstwu z Intel, który współpracuje z ponad 100 niezależnymi dostawcami oprogramowania, możemy zaoferować optymalizację najnowocześniejszych narzędzi dla procesorów Intel® Core™ Ultra, co pozwala użytkownikom radzić sobie z każdym wyzwaniem.
Wybrane komputery z AI zapewniają zaawansowaną ochronę, taką jak Endpoint Security Controller, który chroni przed atakami komputerów kwantowych. Nagrodzone zabezpieczenia punktów końcowych HP Wolf wykorzystują sztuczną inteligencję do obrony przed znanym i nieznanym złośliwym oprogramowaniem. Nasze światowej klasy rozwiązania IT, HP Workforce Solutions, wykorzystują AI, aby optymalizować doświadczenia pracowników w zakresie komputerów, drukowania, współpracy i bezpieczeństwa.
Szkolenia i szeroko rozumiane wsparcie w rozwoju wspólnego biznesu zajmują coraz wyższe pozycje w rankingu najważniejszych atrybutów programów partnerskich.
Stereotypowa odpowiedź resellera czy integratora na pytanie ze strony producenta, czego potrzebują, aby zwiększyć sprzedaż jego produktów i usług, brzmi: „lepszy zarobek”. I chociaż jest w tym wiele prawdy, to rzeczywistość nie jest aż tak czarno-biała. Partnerzy w swoich relacjach z dostawcami oczekują czegoś więcej niż tylko rabatów i wynagrodzeń: w corocznej ankiecie „Channel Forecast” analitycy Channelnomics poprosili resellerów i integratorów o uszeregowanie najważniejszych atrybutów programów partnerskich. Wyniki okazały się ciekawsze od obowiązującego stereotypu.
Chociaż, rzecz jasna, przychody i rentowność odgrywają dużą rolę we współpracy z producentami, resellerzy i integratorzy poszukują również takich vendorów, którzy zapewniają im dostęp do dobrych programów szkoleniowych i innych form wsparcia. Co ważne, firmy partnerskie coraz mniejszą wagę przywiązują do typowych zachęt finansowych, takich jak klasyczne rabaty. Zamiast tego partnerzy poszukują większego udziału w powtarzalnych przychodach generowanych dzięki usługom i modelom sprzedaży opartym na subskrypcji.
Poziomy
partnerskie są wciąż chętniej widziane niż systemy punktowe.
nologiczne. Dlatego 45 proc. respondentów Channelnomics oczekuje, że programy partnerskie będą obejmować wysokiej jakości szkolenia techniczne, a 35 proc. zależy na współpracy z producentami oferującymi szkolenia sprzedażowe. Owszem, wstępne rabaty oraz inne proste zachęty finansowe to ważne narzędzia sprzedaży, które analitycy Channelnomics klasyfikują jako „umożliwianie sprzedaży”, ponieważ polegają bardziej na negocjacjach cen w celu dokonania określonej transakcji niż na długoterminowych przychodach i rentowności. Stałe rabaty i korzystne marże również należą do pięciu najważniejszych atrybutów, a 38 proc. partnerów oceniło je jako wręcz najważniejsze. Jednak inne atrybuty umożliwiające sprzedaż – w tym preferowane ceny odnowień i rejestracja transakcji – znajdują się pośrodku rankingu.
wie swoich działań i zaangażowania we współpracę z producentem. Choć wielu vendorów uważa systemy punktowe za bardziej sprawiedliwe, to za ważne uważa je jedynie 31 proc. partnerów. Tradycyjne struktury oparte na poziomach są zaś nadal preferowane przez 35 proc. partnerów.
Kolejne w rankingu są szkolenia, co wynika z faktu, że integratorzy mają trudności z dotrzymaniem tempa, w jakim współcześnie zachodzą zmiany tech-
Od pewnego czasu wielu dostawców rozważa restrukturyzację swoich programów w celu zastąpienia tradycyjnych poziomów partnerskich systemami nagród i zachęt opartych na punktach. W takim systemie partnerzy zdobywają nagrody nie tylko na podstawie generowania przychodów, ale także na podsta-
Bazując na powyższych danych, obrazujących oczekiwania kanału sprzedaży w 2024 r., producenci powinni bardziej skoncentrować się na programach wspierających szeroko rozumiany rozwój wspólnych działań, a nie na rabatach i nagrodach za wyniki. Bez realnego wsparcia w różnych aspektach wspólnego biznesu na szybko zmieniającym się rynku wzrost sprzedaży będzie coraz trudniejszy do uzyskania.
Artykuł został pierwotnie opublikowany na portalu channelnomics.com. Opracowanie: Tomasz Gołębiowski.
„Wyróżnia nas >>personal touch<<, jesteśmy bardzo blisko z naszymi klientami” – podkreśla Andrzej Kuźniak, Sales Office Director Poland w Elko, przybliżając strategię i plany dystrybutora na polskim rynku.
n Elko to firma z tradycjami, choć na polskim rynku wciąż jest postrzegana jako relatywnie nowy gracz. Jakie są wasze ambicje w tym kontekście?
To firma z dużym potencjałem, która może znacząco urosnąć na polskim rynku. W tym roku chcemy uzyskać wzrost na poziomie ponad 20 procent, w kolejnym zaś 30 do 40 procent, czyli generalnie zamierzamy podwoić obroty w ciągu około 3 lat. Dysponujemy niezbędnym do tego potencjałem, produktami, know-how, środkami, ludźmi, a jednocześnie chcemy zwiększać świadomość marki Elko na lokalnym rynku. Cała grupa jest przy tym zarządzana w dość ciekawy sposób. Działając na 14 różnych rynkach, daje poszczególnym oddziałom swobodę rozwoju zgodnie z ich lokalnym profilem.
n Jaki jest więc polski profil Elko?
Specjalizujemy się w komponentach i elektronice użytkowej – mamy w ofercie największych producentów. Co do klientów, to są to dwie kluczowe grupy – retailerzy i etailerzy, którzy obsługują konsumentów, a z drugiej strony resellerzy docierający do klientów MŚP. W Polsce obsługujemy wszystkich dużych sprzedawców detalicznych elektroniki. Natomiast, gdy przyszedłem do firmy, to jednym z moich zadań było poszerzenie bazy klientów MŚP. Mamy więc swoje miejsce na rynku dystrybucji i wiemy, w jaki sposób chcemy rosnąć. Co istotne, dywersyfikujemy ofertę na produkty dla retailu i sprzedawców MŚP. Większość, bo około 60 procent naszej sprzedaży to komponenty. Widzimy, że wciąż wielu klientów składa komputery, nie tylko te dla graczy, a są to urządzenia za 7, 8 czy nawet 10 tysięcy złotych. To bardzo duży rynek. n Jak szerokie jest wasze portfolio?
Jako grupa mamy w ofercie ponad 400 producentów, a w samej Polsce około 50 – 60. Ta liczba systematycznie rośnie – w tym roku przybyło nam kilku kolejnych. Staramy się tak dobierać producentów, aby odpowiadali profilowi naszego działania. Naszym core biznesem pozostają komponenty, a z drugiej strony poszerzamy asortyment elektroniki konsumenckiej. Staramy się przy tym mieć marki na wyłączność. Niedawno wprowadziliśmy produkty Segway i telewizory Thompson. To, czego oczekujemy od vendorów, to jakość serwisu.
n Dlaczego klienci chcą kupować właśnie u was?
Wyróżnia nas „personal touch”, jesteśmy blisko z naszymi klientami. Rozmawiamy z nimi na temat ich potrzeb i wspólnie, na bazie ich realnych możliwości, prognozujemy sprzedaż. Takie podejście nas wyróżnia. Oczywiście nie zapominamy o automatyzacji – mamy system e-commerce, z którego nasi partnerzy mogą swobodnie korzystać, jak też Key Account Managerów, którzy są w codziennym kontakcie z klientami. Żadnego telefonu czy mejla nie zostawimy bez odpowiedzi. Resellerzy to szanują, mówiąc, że nawet, gdy mamy porównywalne ceny, to wybierają nas, bo do nas zawsze można się dodzwonić i zawsze reagujemy. To między innymi dlatego przybywa nam partnerów i wciąż rozbudowujemy ich sieć. W Polsce kupuje u nas około 1000 firm w ciągu roku, a regularnie 500 – 600. Dwa lata temu było to 200 – 300. n Partnerstwo, wiarygodność i responsywność to podstawa biznesu – zwłaszcza w obszarze B2B. Nigdy dość przypominania o tym… W biznesie B2B relacje osobiste to istotna część procesu decyzyjnego. Reseller nie kupuje od firmy, lecz od konkretnej osoby, którą zna i która go nigdy nie zostawiła na lodzie. Podchodzimy do klientów w taki właśnie, profesjonalny sposób. Pomagamy im też odkrywać nowe możliwości. Widzimy, że partnerzy MŚP, którzy tradycyjnie sprzedają na przykład laptopy, mogą zyskać dzięki dywersyfikacji oferty, dodając hulajnogi czy systemy POS, o które niedawno poszerzyliśmy ofertę. Jeśli są zainteresowani, uczymy ich, jak takie produkty sprzedawać. Dlatego w miarę dodawania nowych marek, będziemy rozbudowywali nasz zespół. Obecnie w oddziałach Elko we Wrocławiu i Warszawie pracuje odpowiednio 5 i 8 osób. n Patrząc nieco szerzej, na cały rynek: jakich trendów spodziewacie się na polskim rynku dystrybucji?
Rynek jest już uporządkowany –duzi dystrybutorzy pozostaną dużymi, a może jeszcze trochę urosną.
W nadchodzącym roku raczej nie będzie rewolucji, znaczących fuzji… Nie spodziewam się też wejścia dużego zagranicznego dystrybutora. Rynek jest już uporządkowany – duzi dystrybutorzy pozostaną dużymi, a może jeszcze trochę urosną. Co zaś do produktów, to na pewno popytem będą cieszyć się rozwiązania z sektora cyberbezpieczeństwa, jak też laptopy i serwery. Polski rynek ICT jest warty około 110 – 115 miliardów złotych. To jest bardzo dużo pieniędzy i wszyscy zarobią.
Gospodarka zrównoważonego rozwoju wzbudza szereg kontrowersji. Przykładowo, Tomasz Wróblewski, prezes Warsaw Enterprise Institute, twierdzi, że wyższe ceny prądu, będące konsekwencją „Zielonego Ładu”, powodują, że z Polski wycofuje się coraz więcej firm, a to odbije się na budżecie państwa. Z kolei Rafał Trzaskowski, prezydent Warszawy, uważa, że nasza planeta już „płonie” i w związku z tym potrzebne są pilne działania związane z obniżaniem emisji CO2. Przy czym UE odpowiada jedynie za 7 proc. emisji dwutlenku węgla do atmosfery, podczas gdy państwa azjatyckie, Rosja, czy nawet USA nie narzucą sobie tak ambitnych celów w tym zakresie, jak Komisja Europejska. Czy w związku z tym polityka zrównoważonego rozwoju pełni rolę motoru napędowego czy jednak raczej hamulca europejskiego biznesu?
Justyna Wysocka-Golec
Opinie na ten temat są różne, natomiast fakty naukowe są jednoznaczne. W sumie 99 proc. naukowców uważa, że zmiany klimatu i ich konsekwencje są faktem. Nie ma też wątpliwości, że to człowiek jest odpowiedzialny za ocieplenie klimatu. Poza tym nie tylko Europa nakłada sobie ten kaganiec. Przykładowo, chociaż Donald Trump, jako prezydent USA, wyprowadził Stany
Zjednoczone z paryskiego porozumienia klimatycznego, to administracja Joe Bidena wróciła do niego, a na dodatek doprowadziła do hojnego finansowania zielonej transformacji. Z kolei Chiny rozwijają własny system handlu emisjami, o czym nie mówi się zbyt głośno, a jednocześnie bardzo szybko przestawiają swoją gospodarkę na energię odnawialną. W związku z tym można powiedzieć, że dążenie do dekarbonizacji jest trendem światowym, a nie wyłącznie europejskim.
Jedna uwaga: o ile zmiany klimatu następują naprzemiennie przez całą historię naszej planety, o tyle w środowisku naukowym wciąż trwa dyskusja co do wpływu człowieka na to zjawisko i pełnej zgodności wciąż nie ma…
Justyna Wysocka-Golec
Centra danych zużywają coraz więcej energii elektrycznej i stanowi to duże wyzwanie dla branży IT
– Renata Lewicka
Tym bardziej jednak warto spojrzeć na omawiane zjawisko z jeszcze innego punktu widzenia. Europa, jako ważny gracz w światowym koncercie mocarstw ekonomicznych, nie wygra ceną. Dlatego musimy szukać innych możliwości, a jedną z nich jest właśnie zrównowa-
żona gospodarka. Natomiast jeśli chodzi o Polskę, to rzeczywiście odstajemy od innych państw Europy Zachodniej ze względu na nasz miks energetyczny. W związku z tym musimy wspólnie się zastanowić, jak to zmienić. Z pewnością trzeba budować niezależność energetyczną, bazując w dużym stopniu na własnych źródłach energii odnawialnej. Jeśli nie podejmiemy odpowiednich działań, doprowadzimy do tego, że zmiany klimatu w Polsce staną się mocno odczuwalne, bowiem Europa Środkowa jest szczególnie narażona na tego rodzaju zjawiska.
Renata Lewicka
Kwestie związane z ociepleniem były poruszane już od dawna. Warto przypomnieć, że w 2015 roku, na forum ONZ w Paryżu, 193 państwa przyjęły rezolucję „Przekształcamy nasz świat: Agenda 2030 na rzecz zrównoważonego rozwoju“, określając nowe globalne ramy zrównoważonego rozwoju przeciwdziałające zmianom klimatycznym oraz wzywające do podejmowania działań i zaangażowania się w tworzenie niskoemisyjnej, zrównoważonej przyszłości. Nie możemy zatem mówić, że jedynie Europa wykazuje zainteresowanie zmianami klimatycznymi i zamierza im przeciwdziałać. Nie do końca
też zgadzam się z opinią, że inwestorzy uciekają z Polski z powodu wysokich cen energii elektrycznej. Przykład Intela, który zdecydował się na budową pod Wrocławiem swojej fabryki, pokazuje, że zagraniczne koncerny jednak chcą inwestować w Polsce. Wprawdzie teraz wstrzymał się w związku z globalnymi kłopotami finansowymi, ale inne firmy wciąż otwierają u nas swoje siedziby. Zatem nie jest tak, że zagraniczny biznes ucieka z Polski. Trzeba spojrzeć na tę sprawę w szerszym kontekście.
Zdzisław Jakubowski
Inwestorzy wychodzą lub wchodzą do Polski nie tylko ze względu na ceny energii. Moim zdaniem równie ważne są koszty pracy oraz dostępność wykwalifi kowanych pracowników. Ponadto według raportu NBP z 2023 roku większość bezpośrednich inwestycji zagranicznych w Polsce dokonują firmy działające na rynkach rozwiniętych. Takie przedsiębiorstwa działają zgodnie z agendą związaną ze zmniejszaniem emisyjności i zużyciem energii. Udział wydatków na energię w ich kosztach powinien spadać, a rosnąć udział kosztu wynagrodzeń i nakładów na technologie. Wyższe koszty energii nie zachęcają do inwestycji, ale moż-
na nadal wygrywać konkurencyjnie dzięki elastycznemu rynkowi pracy czy rozwiniętej infrastrukturze. Natomiast, jeśli chodzi o środowisko, to dbamy o nie od wielu lat. Już w okresie międzywojennym dostrzegano problemy związane z zanieczyszczeniami. W obecnych czasach bardziej się na tym koncentrujemy, ponieważ coraz wyraźniej dostrzegamy konsekwencje związane z degradacją środowiska. Istotna pozostaje kwestia, w jaki sposób prowadzić działania związane z ochroną klimatu. Uważam, że powinno się unikać kontrowersji społecznych i budować szerszy konsensus, aby umożliwić społeczeństwu dostosowanie się do zachodzącej transformacji bez obniżania poziomu życia. Podsumowując, polityka zrównoważonego rozwoju może pełnić rolę motoru napędowego, natomiast może to nie być w pełni widoczne na wczesnym etapie transformacji, na którym jesteśmy, kiedy ponosimy jej koszty, a jeszcze nie widzimy pełni korzyści.
prezes zarządu Warwick Legal Network
Partnerka Associate, Liderka Zespołu ESG, Dekarbonizacji i Bioróżnorodności w KPMG w Polsce
Circular Economy Business Development Manager, Grupa AB
zastępca redaktora naczelnego, CRN Polska
Niezależnie od tego, jak przedsiębiorcy patrzą na politykę zrównoważonego rozwoju, muszą podporządkować się związanym z tym regulacjom europejskim. Od 2024 roku obowiązuje dyrektywa CSRD,
nakładająca wymóg przekazywania informacji na temat wyników w zakresie zrównoważonego rozwoju. Jak na razie dotyczy to wyłącznie dużych spółek, zatrudniających co najmniej 500 osób, o przychodach powyżej 170 milionów złotych. Jednak, jak pokazują różnego rodzaju badania, wiele firm nie jest przygotowanych do raportowania ESG. Większość uważa, że jest to proces trudny i skomplikowany. Czy są to narzekania typowe dla biznesu, który nie lubi jakichkolwiek nowych regulacji, a może akurat w tym przypadku właściciele firm mają rację?
Justyna Wysocka-Golec KPMG przeprowadziło globalne badania dotyczące raportowania ESG. Ich rezultaty nas zaskoczyły, bo w Polsce gotowość do działania zgodnie z CSRD zadeklarowało 76 procent firm, podczas gdy we Francji, Niemczech czy Hiszpanii ten wskaźnik wyniósł nieco ponad 60 procent. W innym badaniu wzięliśmy pod lupę 100 największych firm w Polsce, notowanych na giełdzie. Jak się okazało, niewiele ponad połowa z nich – 56 – prowadzi raportowanie ESG. Ocenialiśmy też poziom przygotowania w różnych kategoriach, gdzie można było uzyskać maksymalnie 10 punktów. Średnia nota wyniosła nieco ponad 5. To oznacza, że jakość raportów publikowanych przez te pięćdziesiąt kilka firm jest dość słaba. Najlepiej przygotowana jest branża paliwowa, co wynika z faktu, że od dawna znajdowała się na celowniku organów zajmujących się ochroną środowiska. Duże postępy w zakresie raportowania ESG poczyniła ostatnio branża finansowa. Ogólnie rzecz biorąc wymagania wobec raportów zrównoważonego rozwoju nie są zbyt wysokie. Chodzi bardziej o to, żeby osiągnąć, powiedzmy, takie minimum regulacyjne. Dlatego wiele firm ma szansę, aby się teraz na tym polu wyróżnić, bowiem za kilka lat będzie to dużo trudniejsze. Obecnie nikt nie zmusza przedsiębiorców, aby ich działania w zakresie zrównoważonego rozwoju cechowały się najwyższą jakością. Jak na razie mają jedynie prezentować w uporządkowany sposób określone wskaźniki.
Renata Lewicka
Branża IT zaczyna być postrzegana jako znaczący emitent CO2 – Justyna Wysocka-Golec
Właśnie taki był cel dyrektywy CSRD. Chodzi o zebranie porównywalnych, opartych na jednakowych wskaźnikach, wiarygodnych informacji od różnych podmiotów, i na tej podstawie wyciągnięcie wniosków. Uważam, że jest to dobry trend, choć potrzebna jest zmiana sposobu myślenia wśród przedsiębiorców. Ważne, żeby raportowanie ESG przełożyło się na strategię i tym samym pozwoliło uzyskać przewagę konkurencyjną. Warto zastanowić się, jakich działań związanych ze zrównoważonym rozwojem oczekuje klient, czy też w jaki sposób można poprawić środowisko pracy, bądź pewne obszary zarządzania. W codziennej praktyce zawodowej obserwuję działania różnych firm, szczególnie w sektorze IT i dostrzegam, że ESG to nie jest najważniejszy dla nich obszar. Swoją drogą, to samo można by powiedzieć o cyberbezpieczeństwie… Potrzeba jeszcze trochę czasu, żeby ludzie lepiej poznali mechanizmy związane z dyrektywą CSRD. Na razie jest tak, jak zaraz po wdrożeniu nowego systemu informatycznego – praktycznie wszyscy są niezadowoleni, ale z czasem przyzwyczajają się i wchodzi im to w nawyk. W rezultacie często okazuje się, że nowe rozwiązanie jest przydane i przynosi coraz więcej korzyści. Podobnie będzie z raportowaniem ESG.
Zdzisław Jakubowski
Warto w tym miejscu zwrócić uwagę na kwestię ratingów. Punktacja obejmuje ocenę wielu obszarów działalności i ważne, aby w żadnym z nich nie zna-
lazła się poniżej określonego poziomu. Firmy realizują rozmaite strategie biznesowe, część z nich za najważniejszy obszar zrównoważonego rozwoju zdiagnozowały ochronę środowiska, inne zaś sprawy społeczne. Realizacja przemyślanej strategii pozwoli uzyskać dobry rating ESG, dzięki czemu firma może uzyskać lepszą rozpoznawalność czy dostęp do finansowania. Przykładowo, firma produkcyjna może generować znaczące ilości gazów cieplarnianych, zanieczyszczeń i odpadów. W związku z tym będzie dążyć do tego, aby w istotny sposób ograniczyć te negatywne skutki działalności i dzięki temu zdobyć wysokie oceny w obszarze środowiskowym. Inną dość istotną kwestią jest polityka realizowana przez globalnych producentów z silnymi markami, którzy muszą dbać o swój wizerunek. Ważne jest wyróżnienie się jako firma przyjazna dla społeczeństwa i klimatu. A żeby nie był to wyłącznie papierowy marketing, ktoś w pewnym momencie doszedł do wniosku, żeby wprowadzić regulacje, które pozwolą odróżnić prawdziwe inicjatywy w skali adekwatnej do działalności firmy od działań typowo wizerunkowych. Warto podkreślić, że sporo polskich firm znajduje się w łańcuchu dostaw globalnych koncernów – jako ich partnerzy handlowi czy podwykonawcy – i muszą przekazywać wewnętrzne dane ESG do central tych spółek. W związku z tym część polskich przedsiębiorstw powinna już teraz dość dobrze znać procesy raportowania i może te kompetencje wykorzystać do przygotowania raportowania w ramach dyrektywy CSRD. Podsumowując, zmiany w kierunku zrównoważonego rozwoju są obecnie w polskich
firmach nieuniknione, nie tylko ze względu na regulacje, ale i łańcuchy wartości, w których się polskie firmy znajdują. Biznes może na te zmiany narzekać, jako że oznaczają one konieczność przeznaczenia znaczących zasobów organizacji na adaptację.
Według KPMG, o czym już mówiliśmy, prymusami w zakresie prowadzenia polityki zrównoważonego rozwoju są branże wydobywcza i finansowa. Czy dostawcy IT trafią w najbliższym czasie do tego grona?
Justyna Wysocka-Golec
Najbardziej emisyjne branże to przemysł wydobywczy oraz energetyka. Jednak również branża IT, wraz z rozwojem centrów danych, zaczyna być postrzegana – przez środowisko zajmujące się ochroną środowiska – jako znaczący emitent CO2. Co istotne, zgłasza ona coraz większe zapotrzebowanie na energię elektryczną. Oczywiście pojawiają się różne pomysły, jak ją zrównoważyć i generować z odnawialnych źródeł. Dodatkowym wskaźnikiem, którego znaczenie w nieodległej przyszłości może znacząco wzrosnąć, jest ślad wodny mierzący ilość zużywanej wody. W przypadku centrów danych chłodzenie ma bowiem niebagatelne znaczenie. Niemniej, branża IT skupia wielu innowatorów, więc liczymy na to, że pojawią się innowacje, umożliwiające sektorowi IT, ale też innym branżom optymalizację działania w zakresie zrównoważonego rozwoju. Warto też zwrócić uwagę na kwestię gospodarki o obiegu zamkniętym. Wiele mówimy o emisji gazów cieplarnianych, ale w sektorze IT wyzwaniem jest pozyskiwanie surowców. Trzeba to robić w sposób zrównoważony.
Do tej pory gospodarka bazowała na paliwach kopalnych, które były eksploatowane ponad miarę. Obecnie pojawia się problem związany z wydobywaniem metali ziem rzadkich. Tutaj również trzeba zachować zasady zrównoważonego rozwoju. Kolejnym ważnym zadaniem dla branży IT jest wydłużenie życia urządzeń, a także recykling. Uważam też, że oprogramowanie, a także nowoczesna infrastruktura, jak chociażby smart grid, pomogą w bardziej racjonalny niż dotychczas sposób gospodarować energią elektryczną.
Renata
Lewicka
Centra danych zużywają coraz więcej energii elektrycznej i stanowi to duże wyzwanie dla branży IT. Jednakże pojawiają się różne koncepcje, w tym związane z wykorzystaniem energii z elektrowni atomowych. Jeśli zmiany będą podążać właśnie w tym kierunku, może to być dość kłopotliwe dla naszego regionu. Dlatego trzeba prowadzić w tym zakresie jakieś działania, bo za chwilę obudzimy się w sytuacji, kiedy centra danych będą się budować poza Europą.
Zdzisław Jakubowski
Uformowało się środowisko sceptyków, które ma racjonalne powody, by nie ulegać idealistom – Zdzisław Jakubowski
Słyszymy o kolejnych koncepcjach wykorzystania energii odnawialnej. Rozwijają się technologie związane z magazynowaniem energii, na przykład baterie sodowo-jonowe, które mogą być mniej szkodliwe dla środowiska, tańsze w produkcji i bezpieczniejsze w eksploatacji. Wokół postępu technologicznego wykształciło się jednak
z jednej strony podejście bardzo idealizujące wszelkie technologie związane chociażby z elektromobilnością i nadużywanie pojęcia zeroemisyjności. Z drugiej strony uformowało się środowisko sceptyków, które ma racjonalne powody, by nie ulegać idealistom, ponieważ społeczny, jak i środowiskowy koszt przejścia na technologie elektromobilności jest wysoki. Uważam, że powinniśmy unikać takiej polaryzacji i budować szeroki konsensus celem wdrażania tych najbardziej efektywnych ale zarazem dostatecznie sprawdzonych technologii. Jako konsumenci, powinniśmy wymagać od producentów każdego rodzaju dóbr, żeby wytwarzali produkty długowieczne, naprawialne i łatwe do recyklingu. Dotyczy to także dialogu z dostawcami IT, którzy już teraz wdrażają liczne zmiany w modelach biznesowych celem wsparcia cyrkularności produktów IT, jak i wzmacniania kontroli łańcucha wartości. Ma to także wpływ na podnoszenie standardów w zakresie przestrzegania praw człowieka. Na poziomie UE, powstają zachęty do inwestowania w technologie związane z recyklingiem i odzyskiwaniem odpadów. Niektóre polskie firmy pozyskały duże dotacje na rozwój technologii związanych z przetwarzaniem baterii i urządzeń elektronicznych. To będzie w przyszłości, oby niedalekiej, procentować z korzyścią dla wszystkich.
Całość debaty publikujemy na portalu CRN.pl.
W INSTYTUCJACH SAMORZĄDOWYCH
Skuteczną ochronę sieci, urządzeń końcowych czy danych najczęściej utożsamia
się z nowoczesnymi narzędziami IT. Przy czym nawet w przypadku tych najlepszych proces zakupu powinien być poprzedzony sensowną analizą.
Skromne budżety samorządów na bezpieczeństwo IT zazwyczaj nie pozwalają im inwestować w zaawansowane narzędzia ochrony i wykwalifikowanych specjalistów. Trudno się zatem dziwić, że instytucje publiczne stały się ulubionym celem hakerów. To zła wiadomość. Natomiast dobra jest taka, że sektor publiczny zdaje sobie sprawę z powagi sytuacji. Jak wynika z raportu Aon „Global Risk Managament Survey” urzędnicy w nadchodzącej przyszłości najbardziej obawiają się cyberzagrożeń oraz naruszeń danych, a dopiero potem kłopotów związanych z pozyskiwaniem i zatrzymywaniem pracowników, hamowaniem gospodarki lub jej zbyt powolnym ożywieniem. Podłożem strachu jest w tym przypadku nie-
Michał Dębowski, Product Manager, Exclusive Networks Poland
Przed wykonaniem
sobie podstawowe pytanie: po co go robimy? powodów. Jednym z nich jest sprawdzenie
pewna sytuacja geopolityczna, bezkarność cybergangów, a także rozwój sztucznej inteligencji, ułatwiającej hakerom automatyzację, a co za tym idzie intensyfikację ataków.
Program rządowy „Cyberbezpieczny Samorząd” ma zrewolucjonizować cyberbezpieczeństwo w jednostkach samorządu terytorialnego, które łącznie otrzymają 1,5 mld zł. Część tych środków mogą przeznaczyć na audyty i wdrażanie systemu zarządzania bezpieczeństwem informacji oraz szkolenia pracowników.
– Myślę, że decyzje dotyczące inwestycji w systemy bezpieczeństwa IT warto poprzedzić audytem, podczas którego sprawdza się zarówno poziom bezpieczeństwa danych w instytucji, jak i poprawność wdrożenia oprogramowania oraz infrastruktury – doradza Jerzy Trzepla, dyrektor działu bezpieczeństwa w Exclusive Networks.
Już samo wypełnienie wniosków było dla niejednego samorządu pierwszym doświadczeniem audytorskim, stanowiąc cenną lekcję dla samorządowych informatyków. Poza tym ci urzędnicy, którzy korzystali z usług firm zewnętrznych, zdobyli cenną wiedzę i niewykluczone, że w nieodległej przyszłość zaprocentuje to zleceniami na przeprowadzenie profesjonalnego audytu.
Audyt bardzo często traktuje się jako zło konieczne. W wielu przypadkach jest to obowiązek narzucany na fi rmę lub insty-
tucję przez ustawodawcę. Nie inaczej wygląda to w przypadku bezpieczeństwa danych. Część instytucji zmuszonych do przeprowadzenia audytu idzie po linii najmniejszego oporu, a ich jedynym celem jest zdobycie odpowiedniego dokumentu z pieczątką. Koszt audytu cyberbezpieczeństwa zależy od wielkości instytucji, zakresu badania, złożoności infrastruktury teleinformatycznej oraz od wybranego audytora. Zgodnie z powiedzeniem, że „potrzeba jest matką wynalazków”, na polskim rynku pojawiło się wiele firm audytorskich i konsultingowych specjalizujących się nie tyle w solidnej weryfikacji, co w przybijaniu pieczątek. Wprawdzie takie usługi mają niewiele wspólnego z rzetelnym audytem, ale za to… są tanie. Zdecydowanym przeciwnikiem kontroli prowadzonych w takim właśnie trybie jest Michał Dębowski, Product Manager w Exclusive Networks Poland.
– Pieczątka zdobyta przez jednostkę samorządu terytorialnego nie zapewni bezpieczeństwa ani tym bardziej nie podniesie jego poziomu. Co gorsza, uśpi czujność i zmniejszy świadomość decydentów, bowiem będą znali jedynie rezultat audytu, a nie stan faktyczny badanego obszaru – tłumaczy Michał Dębowski.
W bardzo podobnym tonie wypowiada się Jerzy Trzepla. Zdaniem tego specjalisty niejedna instytucja wychodzi z założenia, że audyt to kupienie sobie świętego spokoju. Jednak jeśli wy-
konany jest on niestarannie, może się okazać, że urząd wzmacnia obszary odpowiednio zabezpieczone, natomiast słabe punkty nadal pozostają furtką dla hakerów.
Z kolei rzetelny audyt pozwala wykryć braki kluczowych systemów bezpieczeństwa lub wskazać na błędnie skonfigurowane narzędzia. Ten ostatni przypadek występuje coraz częściej ze względu na braki kadrowe w jednostkach samorządowych. Ponadto solidna kontrola nieraz ujawnia obecność intruzów w sieci. – Wbrew stereotypom audyt nie jest karą dla administratora. Nie obnaża również braku jego umiejętności. Usługa ma na celu podnoszenie wiedzy i świadomości oraz budowanie procesu, który jednostkom samorządu terytorialnego zapewni właściwy poziom bezpieczeństwa. Jednocześnie, na potrzeby administratora, nakreśli drogę do jej realizacji. Dobrą praktyką jest, aby audyt był wykonywany przynajmniej raz w roku, choć tego typu usługa nie należy do tanich – wyjaśnia Michał Dębowski.
– Skanery podatności otwierają możliwości przed resellerami, którzy mogą wdrożyć taki system w jednostce samorządu terytorialnego bądź zaproponować go w modelu usługowym. Urząd uzyskuje w ten sposób bardzo cenne wskazówki na temat tego, co usprawniać oraz w jakiej kolejności to robić, a co najważniejsze, poznaje swoje najsłabsze strony – doradza Jerzy Trzepla.
W programie „Cyberbezpieczny Samorząd” przeznaczono 183 mln zł na opracowanie procedur, certyfikację, audyty oraz wdrażanie systemu zarządzania bezpieczeństwem informacji.
Urzędnicy w nadchodzącej przyszłości najbardziej
obawiają się
cyberzagrożeń oraz naruszeń danych.
Uwieńczeniem każdego audytu powinien być raport o stanie bezpieczeństwa urzędu, wskazujący obszary potencjalnych zagrożeń. Jedną z najważniejszych kwestii jest zarządzanie podatnościami. Warto zastosować rozwiązania, które wykonują działania mające na celu sprawdzenie jakości infrastruktury IT. Najlepszym przykładem jest technologia, która wyszukuje podatności w całej infrastrukturze. Dzięki niej można zaplanować cykliczne skany, które pozwolą wykryć, a następnie załatać podatności. Exclusive Networks rekomenduje większym instytucjom narzędzie Tenable Security Center, umożliwiające nie tylko wykrywanie podatności, ale również zarządzanie nimi.
Nowe metody szkolenia pracowników Człowiek od lat pozostaje najsłabszym ogniwem w systemie bezpieczeństwa, a urzędnicy nie stanowią pod tym względem wyjątku. Nie bez przyczyny w puli programu „Cyberbezpieczny Samorząd” 105 mln zł zostało przeznaczonych na edukację pracowników jednostek samorządu terytorialnego.
Jerzy Trzepla zauważa, że szkolenia dotyczące cyberbezpieczeństwa cieszą się coraz większą popularnością wśród firm oraz instytucji. Exclusive Networks ponad rok temu wprowadziło do oferty usługę szkoleniową bazującą na rozwiązaniach firmy Proofpoint. Kurs należy do kategorii Security Awareness Training – jego uczestnicy zdobywają wiedzę nie tylko o zasadach i procedurach, ale także umiejętność stosowania ich w praktyce. Podczas szkoleń pracownicy uczą się prawidłowej higieny cybernetycznej, poznają zagrożenia bezpieczeństwa oraz dowiadują się, w jaki sposób identyfi kować cyberataki przeprowadzane za pośrednictwem poczty elektronicznej i stron internetowych.
– Kiedy wprowadziliśmy kursy do oferty, obawiałem się, że rynek chłodno przyjmie tę usługę. Jednak spotkała się ona z dużym zainteresowaniem zarówno wśród klientów końcowych, jak i resellerów. Jej użytkownikami są również jednostki samorządowe. Usługa jest oferowana w trybie kwartalnym bądź półrocznym – mówi
Jerzy Trzepla.
Jednym z elementów kursu są symulowane ataki phishingowe, które umożliwiają weryfikację wiedzy zdobytej przez uczestników. Programy Security Awareness Training wprowadzają nową jakość do szkoleń z zakresu cyberbezpieczeństwa, co pozwala mieć nadzieję, że pracownicy będą łatwiej i szybciej przyswajać wiedzę. Zdaniem specjalistów zajmujących się bezpieczeństwem IT znaczenie takich kursów powinno sukcesywnie rosnąć, ponieważ podstawową metodą ochrony przed wyrafinowanymi atakami phishingowymi jest zdolność do samodzielnego rozpoznania podejrzanego mejla.
Ludzie to podstawa
Przedsiębiorstwa oraz instytucje często wychodzą z błędnego założenia, że systemy bezpieczeństwa IT z najwyższej półki zapewnią im całkowitą ochronę. Jednak nawet najlepiej zaprojektowana i zbudowana forteca nie powstrzyma napastników, jeśli zawiodą pracownicy. Dlatego organizacje powinny inwestować nie tylko w narzędzia, ale też pamiętać o ludziach.
Polskie startupy i rodzimi founderzy są niezwykle aktywni, niezależnie od aktualnej koniunktury w branży IT.
n Cloud Technologies, warszawski dostawca danych do targetowania reklamy internetowej, nabył całościowy pakiet udziałów w Nordic Data Resources, norweskiej spółce działającej w sektorze technologii na potrzeby marketingu cyfrowego. NDR działa od 2015 r., bazując na dostępie do globalnej sieci dystrybucji danych. Dzięki zakupowi Cloud Technologies zwiększy skalę i zasięg swojej działalności, zgodnie ze strategią na lata 2023–25. Wartość transakcji wyniosła około 1,6 mln euro. Na czele polskiej firmy stoi Piotr Prajsnar.
n Value4Capital przeprowadziło pierwsze zamknięcie funduszu V4C Poland Plus Fund II o wartości 110 mln euro. To kwota o 10 mln euro wyższa od oczekiwanej, a jednocześnie o 20 proc. większa niż miało to miejsce w przypadku pierwszego funduszu. Value4Capital zarządza funduszami private equity na terenie Europy Środkowej i Wschodniej, koncentrując się na Polsce i Rumunii. Inwestycje w ramach pierwszego funduszu objęły Shopera, XBS Logistics, KomEko i Clarfona. Obecnie V4C zamierza zainwestować kolejne od 8 do 20 mln euro, stawiając na kupno większościowych udziałów.
n W pierwszej połowie 2024 r., wartość zrealizowanych na polskim rynku inwestycji VC sięgnęła poziomu 1,07 mld zł – wynika z danych PFR Ventures oraz Inovo VC. W drugim kwartale tego roku 47 polskich i zagranicznych funduszy zainwestowało łącznie 896 mln zł w lokalne startupy. To dwukrotnie więcej niż w tym samym okresie 2023 r. (429 mln zł).
Jednocześnie nastąpił spadek rok do roku ilości transakcji (38 inwestycji w II kw. br. wobec 117 rok wcześniej).
W dwunastu z 38 tegorocznych transakcji uczestniczył fundusz PFR Ventures, a największe transakcje w II kw. tego roku dotyczyły: ICEYE (372 mln zł), Kontakt.io (190 mln zł) i Smart Lunch (60 mln zł). Większość inwestycji w omawianym okresie przeprowadzono w ramach rund seed.
n Fundacja Startup Poland zorganizowała serię spotkań z uczestnikami polskiego ekosystemu startupowego, których celem było wypracowanie wspólnej strategii dla tego rodzaju podmiotów. Przez dwa dni w warszawskim kampusie Google for Startups omawiano tematy związane z funkcjonowaniem młodych, innowacyjnych firm na naszym rynku. Poruszono następujące tematy: ekspansja międzynarodowa polskich startupów, współpraca ze środowiskiem akademickim, publiczne systemy wsparcia startupów, podatki i regulacje prawne (m.in. ustawa o startupach/scaleupach, ustawa VC, prosta spółka akcyjna), pozyskiwanie pracowników, jak też rola samorządów i parków technologicznych. Uczestnicy spotkań wspólnie wypracowali szereg wniosków i opinii, które zostaną zawarte w dokumencie przygotowanym przez Startup Poland, który zostanie przedstawiony Ministerstwu Rozwoju i Technologii. Startup Poland liczy, że dzięki tej inicjatywie polskie ministerstwo opracuje rządową strategię dla startupów w Polsce.
n Aligo Venture Capital podsumowało pierwszą połowę 2024 r. dla giełdowych spółek z sektora MedTech i BioTech. Analiza obejmuje 31 podmiotów notowanych na Giełdzie Papierów Wartościowych w Warszawie (o łącznej kapitalizacji 36,5 mln zł) oraz 15 spółek z NewConnect (o łącznej kapitalizacji 491 mln zł). Z raportu wynika, że tylko 13 spółek notowanych na GPW odnotowało wzrost swoich akcji – są to m.in. Nanogroup (wzrost
n Powstały w 2021 r. RedStone stał się jednym z najpoważniejszych polskich startupów zajmujących się rozwojem infrastruktury Web3 na potrzeby aplikacji blockchain. W ubiegłorocznej, pierwszej rundzie inwestycyjnej RedStone pozyskał 7 mln dol., aby w czerwcu br. otrzymać 15 mln dol. w rundzie finansowania serii A od takich podmiotów, jak: Arrington Capital (fundusz założony przez współzałożyciela TechCrunch oraz Crunchbase), Kraken Ventures, White Star Capital, Huobi (HTX) Ventures, Protagonist, SevenX, IOSG Ventures, Spartan Capital oraz Amber Group. Założycielem i CEO RedStone jest Jakub Wojciechowski, a dwaj pozostali współzałożyciele to Marcin Kaźmierczak i Alex Suvorov.
n Synerise, podmiot specjalizujący się w rozwiązaniach z zakresu behawioralnej AI i big data, pozyskał 8,5 mln dol. w ramach rundy finansowania serii B. W spółkę Jarosława Królewskiego zainwestował VTEX i aniołowie biznesu.
n Sportano, internetowa platforma sprzedaży produktów sportowych, pozyskała kilkadziesiąt milionów złotych z funduszu bValue (dokładna kwota transakcji nie została ujawniona). Kapitał zostanie przeznaczony na dalsze skalowanie działalności Sportano na rynkach europejskich.
n Digital First AI, startup automatyzujący działania marketingowe, pozyskał 3,8 mln dol. w rundzie seed na rozwój swojej platformy. W spółkę zainwestowali: 4growth VC, McCann Poland, Plug&Play, Sher Ventures i Hub71.
n Scanway, firma specjalizująca się w technologii wizyjnej, otrzymała dotację w wysokości 3,2 mln euro od Europejskiej Agencji Kosmicznej (ESA) na projekt SEMOViS, który ma być realizowany we współpracy z Marble Imaging. W jego ramach Scanway opracuje dwa teleskopy dla mikrosatelitów.
n Simlab, platforma oprogramowania dla branży budowlanej i nieruchomości, pozyskała 3,12 mln euro w serii finansowania A, przeprowadzonej przez londyński fundusz Carpathian Partners.
n Moniti, aplikacja do zarządzania zdalnymi pracownikami, pozyskała 1,8 mln zł w rundzie late seed. Głównym inwestorem był Smartlink Partners, który kupił akcje o wartości 1,2 mln zł.
o 80,5 proc.) i Synektik (wzrost o 73,8 proc.). Pozostałe 18 spółek odnotowało spadki, z czego największy (o 62 proc.) nastąpił w przypadku Adiuvo Investments. Jeśli chodzi o spółki biotechnologiczne i MedTech notowane na NewConnect, sześć z nich odnotowało wzrost, a pozostałe dziewięć spadek. Największy wzrost akcji na NewConnect odnotowała Massmedica (69,6 proc.), a największy spadek Medicofarma Biotech (62,76 proc. na minusie).
Rubryka prowadzona we współpracy z Fundacją Startup Poland na bazie biuletynu „How To Startup”.
Lenovo nie tylko odpowiada na obecne zapotrzebowanie na infrastrukturę AI, ale także pozycjonuje się jako lider w transformacji technologicznej opartej na sztucznej inteligencji – mówi Marian Korienek, General Manager, Central & Southeast Europe Lenovo Infrastructure Solutions Group.
n Lenovo zdecydowanie poradziło sobie z zeszłorocznym spowolnieniem w branży i od tego czasu w każdym kolejnym kwartale odnotowuje wzrosty. Co jest siłą napędową tego wzrostu? W jaki sposób przyczyniła się do tego Grupa ISG? Lenovo znowu rozwija się we wszystkich swoich działaniach oraz inwestuje w przełomowe możliwości związane z nową erą hybrydowej sztucznej inteligencji. Dlatego jesteśmy przekonani, że trajektoria wzrostu będzie kontynuowana, a nawet przyspieszy. Poradziliśmy sobie z zeszłorocznym spowolnieniem w branży i szybko wykorzystaliśmy nowe możliwości, jakie stwarza dynamiczny rozwój sztucznej inteligencji. Jest kilka czynników, które przyczyniły się do sukcesu Lenovo. Jednym z nich jest zdywersyfikowane portfolio i oferta usług w różnych segmentach, które pozwoliły nam korzystać z wielu źródeł przychodów. Dział ISG ma na poziomie globalnym znaczący udział w grupie Lenovo. Kompleksowa oferta rozwiązań dla centrów danych odpowiada na rosnące zapotrzebowanie związane z cyfrową transformacją w różnych branżach. Lenovo umożliwiło firmom zwiększenie wydajności operacyjnej i możliwości innowacji dzięki skalowalnej, niezawodnej i bezpiecznej infrastrukturze. Poczyniło przy tym znaczne postępy w zakresie nowych technologii, takich jak przetwarzanie brzegowe i sztuczna inteligencja, zapewniając zaawansowaną infrastrukturę do
obsługi tych technologii. Lenovo w ten sposób pozycjonuje się jako lider kolejnej fali innowacji IT. Ogólnie rzecz biorąc, omawiany wzrost jest wynikiem wieloaspektowej strategii, która wykorzystuje innowacje, doskonałość operacyjną, koncentrację na kliencie i kluczowy wkład Grupy ISG. To holistyczne podejście zapewnia, że Lenovo nie tylko dostosowuje się do wyzwań branżowych, ale także wykorzystuje nowe możliwości zrównoważonego rozwoju.
n Jak ostatnio radził sobie segment biznesowy ISG w Lenovo? Ostatni rok fiskalny był bardzo udany dla działu Lenovo ISG. Pozyskaliśmy wielu nowych klientów we wszystkich istotnych segmentach rynku, poczynając od dużych klientów klasy enterprise po małe i średnie przedsiębiorstwa. Nawiązaliśmy również strategiczne relacje z lokalnymi dostawcami usług w chmurze oraz firmami specjalizującymi się w świadczeniu usług IT. Region CSEE jest jednym z najlepiej radzących sobie regionów w EMEA. Z dziesięcioprocentowym wzrostem rok do roku znacznie przewyższyliśmy cały rynek. Polska, jako największy rynek w regionie CSEE, w znacznym stopniu przyczyniła się do tego sukcesu.
n Co obejmuje obecnie pełna oferta ISG?
Infrastructure Solutions Group w Lenovo oferuje kompleksowy zestaw produktów i usług zaprojektowanych w celu zaspokojenia różnorodnych potrzeb nowoczesnych przedsiębiorstw. Oferując pełne spektrum rozwiązań infrastrukturalnych, jesteśmy dobrze przygotowani do wspierania przedsiębiorstw w ich cyfrowej transformacji, umożliwiając wprowadzanie innowacji, rozwój i prosperowanie w coraz bardziej złożonym oraz konkurencyjnym ekosystemie biznesowym. Oferta ISG obejmuje serwery i rozwiązania pamięci masowej, wysokowydajne, niezawodne i bezpieczne serwery, zaprojektowane dla różnych obciążeń,
a także zintegrowane systemy łączące obliczenia, pamięć masową i sieci w celu uproszczenia operacji w centrach danych. Ponadto oferujemy szeroką gamę systemów pamięci masowej, zaspokajając różne potrzeby w zakresie zarządzania danymi za pomocą innowacyjnych technologii. Na wyższym poziomie złożoności mamy rozwiązania takie jak infrastruktura hiperkonwergentna (HCI) i pamięć masowa definiowana programowo (SDS), przy czym ta ostatnia reprezentuje rozwiązania oferujące elastyczne i skalowalne opcje pamięci masowej, wykorzystujące technologie partnerów, takich jak Nutanix i VMware. Mówiąc o zaawansowanych rozwiązaniach należy wspomnieć o stacjach roboczych i serwerach zoptymalizowanych pod kątem obciążeń sztucznej inteligencji, w tym szkoleń i wnioskowania, a także narzędzi do opracowywania, wdrażania czy zarządzania aplikacjami AI.
n Jakie rodzaje projektów i rozwiązań infrastrukturalnych przynoszą obecnie polskim partnerom Lenovo największe przychody?
Sprzedaż klasycznych serwerów x86 stale rośnie, ale największy wzrost zainteresowania obserwujemy szczególnie w dwóch segmentach: serwerów brzegowych zoptymalizowanych pod kątem obciążeń AI i rozwiązań infrastruktury hiperkonwergentnej. W tym obszarze oferujemy urządzenia z preinstalowanymi wirtualizacjami Microsoft, VMware i Nutanix, które można łatwo i szybko wdrożyć we własnym środowisku IT i rozpocząć udostępnianie aplikacji. Nasi partnerzy mogą również tworzyć rozwiązania o parametrach spełniających indywidualne wymagania klienta i uzyskać dla nich oficjalny certyfikat zgodności od dostawcy narzędzia do wirtualizacji. Drugi główny trend związany jest ze sztuczną inteligencją. Podejmujemy znaczące wysiłki, aby pozycjonować Lenovo jako kluczowego gracza na tym rynku, wprowadzając strategię „AI for All – from the pocket to cloud”. Dział Lenovo ISG nie tylko oferuje kompleksowe portfolio rozwiązań infrastrukturalnych zaprojektowanych z myślą o zastosowaniach w obszarze sztucznej inteligencji, ale także rozszerza swoją działalność o innowacyjne oprogramowanie oraz dodatkowe usługi IT.
Lenovo ma strategiczną pozycję, pozwalającą wykorzystać rosnące
zapotrzebowanie na infrastrukturę opartą na sztucznej inteligencji.
n Rozwój sztucznej inteligencji zwiększa zapotrzebowanie na inwestycje w infrastrukturę. Analitycy spodziewają się, że sprzedaż serwerów AI będzie rosła niemal dwukrotnie szybciej niż cały rynek serwerów. Jak Lenovo reaguje na ten trend?
n Czy sztuczna inteligencja zwiększy popyt w sektorze pamięci masowych? Co jeszcze będzie miało wpływ na sprzedaż w branży pamięci masowych w najbliższej przyszłości? Oczekuje się, że sztuczna inteligencja znacząco zwiększy popyt w sektorze pamięci masowych. W kontekście generowania dużej ilości danych będzie to wymagało znacznej pojemności pamięci masowej do obsługi zbiorów danych na potrzeby procesów uczenia, walidacji i wnioskowania. Ponadto, potrzeba przechowywania i przetwarzania dużych ilości danych na potrzeby analityki sztucznej inteligencji dodatkowo napędza popyt na rozwiązania pamięci masowej. Jednak wpływ na sprzedaż będą miały także inne czynniki – na przykład przejście na przetwarzanie w chmurze nadal napędza popyt na rozwiązania pamięci masowej oparte na chmurze. Internet rzeczy i rozprzestrzenianie się urządzeń IoT generują ogromne ilości danych, które należy przechowywać i którymi trzeba zarządzać. Wdrożenie sieci 5G zwiększyło prędkość transmisji danych i łączność, prowadząc do generowania większej ilości danych oraz większych potrzeb w zakresie pamięci masowej. Dzięki sprostaniu tym zmieniającym się wymaganiom i wykorzystaniu zaawansowanych technologii, branża pamięci masowych jest gotowa na znaczny wzrost, napędzany przez coraz bardziej skoncentrowany na danych charakter nowoczesnych przedsiębiorstw i rosnącą rolę sztucznej inteligencji w różnych sektorach.
n Czy obecni partnerzy Lenovo PC powinni pomyśleć o rozszerzeniu swojej oferty o serwery i pamięci masowe stworzone z myślą o sztucznej inteligencji?
Zdecydowanie tak. W naszym konkurencyjnym krajobrazie rynkowym zaspokajanie potrzeb klientów wymaga sięgania po kompleksowe rozwiązania. Zwłaszcza teraz, gdy rynek AI szybko się rozwija, a firmy z różnych sektorów inwestują w technologie AI. Oferując serwery i pamięci masowe zoptymalizowane pod kątem sztucznej inteligencji, partnerzy mogą wykorzystać ten rosnący popyt i zdobyć większy udział w rynku.
Koncentrując się na tych kluczowych obszarach, Lenovo nie tylko odpowiada na obecne zapotrzebowanie na infrastrukturę AI, ale także pozycjonuje się jako lider w transformacji technologicznej opartej na sztucznej inteligencji. Nasze kompleksowe podejście zapewnia, że Lenovo może sprostać zmieniającym się potrzebom swoich klientów i napędzać innowacje w przestrzeni AI. Lenovo ma strategiczną pozycję, pozwalającą wykorzystać rosnące zapotrzebowanie na infrastrukturę opartą na sztucznej inteligencji. Wykorzystujemy ten trend poprzez opracowywanie wysokowydajnych serwerów AI i zintegrowanych systemów, które są zoptymalizowane pod kątem obciążeń AI. Współpracujemy przy tym z wiodącymi graczami w zakresie AI, takimi jak NVIDA, Intel i AMD, w celu włączenia najnowszych procesorów, procesorów graficznych i akceleratorów do swoich serwerów AI. I wreszcie, Lenovo stale inwestuje w badania i rozwój, aby rozwijać technologie AI. Obejmuje to opracowywanie własnych algorytmów sztucznej inteligencji, zwiększanie możliwości sprzętowych sztucznej inteligencji i badanie nowych jej zastosowań.
Wsparcie oprogramowania DCIM przez sztuczną inteligencję ułatwi tworzenie i zarządzanie centrami danych, które odpowiadają na nowe potrzeby obliczeniowe i środowiskowe.
n Tomasz Janoś
Na obsługiwane przez platformy DCIM zarządzanie infrastrukturą centrum danych składają się procesy monitorowania, administrowania i optymalizacji fizycznych oraz logicznych komponentów centrum danych, takich jak: zasilanie, chłodzenie, serwery, pamięci masowe, sieć oraz bezpieczeństwo. Oprogramowanie DCIM pomaga operatorom data center w zwiększaniu efektywności i wydajności, redukcji kosztów oraz gwarantowaniu dostępności usług IT.
A jeśli powyższa definicja DCIM dobrze oddaje rzeczywistość, to mamy do czynienia z bardzo dynamicznym obszarem, podlegającym ciągłym zmianom wraz z pojawiającymi się potrzebami i problemami w centrach danych. Ostatnio nowe możliwości (ale i wyzwania) dotyczą głównie sztucznej inteligencji i uczenia maszynowego oraz „zielonych” centrów danych. Znaczenie sztucznej inteligencji w centrach danych rośnie w takich zastosowaniach, jak analityka predykcyjna, dynamiczne zarządzanie obciążeniami
czy bezpieczeństwo. Technologie AI mają usprawniać zarządzanie zasobami, ograniczać przestoje oraz zwiększać ochronę przed zagrożeniami fizycznymi oraz cyberzagrożeniami. Z kolei większe potrzeby w obszarze AI przekładają się na zapotrzebowanie na centra danych o wysokiej wydajności obliczeniowej oraz znacząco zwiększonej pojemności pamięci masowych. Z technicznego punktu widzenia oznacza to przystosowanie centrów do wyższej gęstości obliczeniowej i dalsze zwiększanie ich efektywności. Przede wszystkim obserwuje się szybki rozwój chłodzenia cieczą i pojawianie się tańszych opcji tej technologii.
Sztuczna inteligencja może być przydatna także w zarządzaniu infrastrukturą DC. Wbudowana w DCIM może pomóc w zbieraniu i analizowaniu dużych ilości danych z różnych źródeł, takich jak czujniki, urządzenia, aplikacje oraz użytkownicy, a także zapewniać wgląd w wydajność, stan i zachowanie infrastruktury centrum danych.
Rynek zarządzania infrastrukturą centrów danych (DCIM) osiągnie wartość 6,3 mld dol. w 2030 r. – prognozuje Omdia. Analitycy zwracają przy tym uwagę na pewien istotny trend. Otóż w kolejnych przedsiębiorstwach następuje transformacyjna konwergencja pomiędzy IT i OT, w miarę, jak na znaczeniu zyskuje zarządzanie zasilaniem i chłodzeniem. Przy czym jest ono zazwyczaj obowiązkiem zespołów operacyjnych (OT), a nie działów IT. Ponadto Omdia oczekuje, że wydatki na sprzęt IT, w szczególności serwery (częściowo w celu zaspokojenia potrzeb generatywnej AI) i sprzęt sieciowy (w celu zaspokojenia potrzeb szybszej łączności sieciowej) będą
AI i ML mogą wykrywać anomalie i usterki w infrastrukturze centrum danych, takie jak awarie zasilania, przegrzewanie, przeciążenie sieci czy naruszenia bezpieczeństwa, a także identyfikować przyczyny i określać potencjalne skutki tych problemów. Będą także wspierać optymalizację i automatyzację różnych procesów w infrastrukturze centrum danych, w tym balansowanie obciążeń, zarządzanie energią, kontrolę chłodzenia, alokację zasobów oraz harmonogramowanie prac utrzymaniowych.
rosły rok do roku. Zdaniem ekspertów ta rozbudowana infrastruktura wymaga solidnego monitorowania i będzie napędzać przychody. Kolejne lata na rynku serwerów powinny więc być lepsze niż 2023 r., gdy nastąpił spadek produkcji po dwóch wyjątkowych latach 2021 i 2022 w efekcie wyraźnego pogorszenia się koniunktury. „Do 2030 r. rynek DCIM będzie wart 6,3 mld dol., napędzany podwójnymi siłami: zrównoważonego rozwoju i konieczności optymalizacji wydajności centrów danych w miarę, jak fala generatywnej sztucznej inteligencji wpływa na klientów korporacyjnych” – uważa Roy Illsley, główny analityk Omdii.
Sektor DC osiągnął duży postęp w zwiększaniu efektywności i wydajności.
kluczowe staje się zapewnienie ich bezpieczeństwa i prywatności. Naruszenie ich może prowadzić do poważnych szkód finansowych i reputacyjnych.
Trzeba także zachować umiar, ponieważ nadmierne poleganie na AI i ML może stwarzać ryzyko. Nadzór ludzki pozostanie niezbędny, aby weryfikować wyniki i interweniować w sytuacjach i zdarzeniach, w których te technologie mogą nie być w stanie odpowiednio reagować.
Co więcej, AI i ML mogą pomóc przewidywać przyszłe trendy oraz scenariusze w infrastrukturze centrum danych (należą do nich wzrost zapotrzebowania, wykorzystanie pojemności, zużycie energii i wpływ na środowisko), a także dostarczać rekomendacje dotyczące planowania i budżetowania.
Osiągnięcie tych wszystkich korzyści wiąże się jednak z pokonaniem wielu wyzwań. Przede wszystkim sztuczna inteligencja wymaga dużych ilości wysokiej jakości danych. W przypadku DC oznacza to, że dane pochodzące z różnych źródeł, takich jak czujniki, muszą być dokładne i spójne. Wszelkie rozbieżności mogą prowadzić do błędnych analiz, prognoz, a nawet awarii systemu.
Trzeba mieć także na uwadze, że integracja AI i ML z istniejącym oprogramowaniem DCIM może być złożonym procesem. Będzie wymagać dogłębnego zrozumienia operacji centrum danych oraz specyficznych narzędzi używanych w tym środowisku, co może wiązać się ze znacznym nakładem pracy i czasu. Ponieważ AI i ML zbierają i analizują ogromne ilości danych,
Zdaniem śledzącej rynek centrów danych firmy Omdia, w związku z przewidywanym gwałtownym wzrostem zużycia energii i gęstości obciążeń w nadchodzących latach, branża musi podwoić swoje wysiłki w zakresie efektywności i zrównoważonego rozwoju. Według analityków zbliżamy się do nowej fali optymalizacji centrów danych, z naciskiem na zmniejszenie powierzchni zajmowanej przez IT. Będzie to realizowane poprzez konsolidację sprzętu, ograniczenie liczby komponentów mechanicznych, ulepszenia w konwersji energii oraz wprowadzenie AI do systemów DCIM i zarządzania centrum danych. Generalnie, coraz większy nacisk będzie kładziony na tworzenie tzw. zielonych centrów danych, czyli takich, które dążą do minimalizacji swojego wpływu na środowisko – poprzez zmniejszenie zużycia energii, śladu węglowego oraz ilości wytwarzanych odpadów. Potencjalne korzyści to obniżenie kosztów operacyjnych, oszczędności na rachunkach za energię, podatkach i różnych ulgach. „Zielone” centra danych mogą także poprawić swoją wydajność dzięki stosowaniu bardziej efektywnego sprzętu. Dla operatorów nie bez znaczenia będzie to, że dzięki „zielonym” centrom danych mogą wzmocnić swoją reputację, demonstrując odpowiedzialność społeczną i ekologiczną świadomość.
Zrównoważony rozwój w centrach danych będzie wymagał narzędzi DCIM do mierzenia wpływu na środowisko. Będzie to realizowane poprzez śledzenie wskaźników efektywności – zużycia energii (PUE), zużycia węgla (CUE) i zużycia wo-
dy (WUE). „Zielone” centra danych będą również potrzebować DCIM do wdrażania najlepszych praktyk w celu zmniejszenia swojego wpływu na środowisko, zgodnie z normami takimi jak LEED czy ISO 14 001. Ważnym zadaniem DCIM będzie ułatwienie integracji tzw. odnawialnych źródeł energii, takich jak panele słoneczne czy turbiny wiatrowe, z systemami zasilania i dystrybucji energii w „zielonych” centrach danych. Zgodnie z wynikami raportu AFCOM State of the Data Center 2024, ponad połowa wszystkich centrów danych na świecie planuje wdrożenie energii słonecznej, a ponad jedna czwarta zamierza wykorzystać energię wiatrową. Inne rozważają energię jądrową, wodór, geotermię oraz systemy magazynowania energii w akumulatorach (BESS). Może to obniżyć ogólne koszty energii poprzez zmniejszenie zależności od tradycyjnych dostawców.
DCIM w nowoczesnych centrach danych
Do tej pory – dzięki wirtualizacji, konteneryzacji, architekturze definiowanej programowo, chmurze i konsolidacji IT – centra danych osiągnęły duży postęp, jeśli chodzi o zwiększanie efektywności i wydajności. Obecnie można mówić o nowej erze wykorzystania centrów danych, w której pojawiają się takie obszary, jak optymalizacja aplikacji oraz ulepszenia w zakresie mocy obliczeniowej i projektowania. Przykładem niech będzie Google: w celu przetwarzania multimediów wdrożył on wysoce zoptymalizowane serwery, w których pięć starych maszyn obsługujących YouTube zostało zastąpionych jednym nowym serwerem z energooszczędnymi układami ASIC. Wobec wszystkich wymienionych trendów rola DCIM będzie wzrastać i tego rodzaju oprogramowanie powinno się stać scentralizowaną platformą automatyzacji, która może działać w różnego typu centrach danych oraz na obrzeżach sieci. Wsparcie DCIM sztuczną inteligencją jest w stanie ograniczyć wpływ niedoborów kadrowych i wpłynąć na nowe metody dalszego zwiększania efektywności oraz tzw. zrównoważonego rozwoju, zarówno na poziomie fizycznej infrastruktury, jak też szeregu różnych rozwiązań IT.
Przez ostatnie lata Schneider Electric zwiększał inwestycje w rozwój nowych funkcji oprogramowania EcoStruxure IT, dzięki czemu użytkownicy mogą obecnie przyspieszać rozwój i upraszczać obsługę swojej infrastruktury IT.
Coraz więcej firm dostosowuje działanie do nowych przepisów, takich jak Dyrektywa UE w sprawie efektywności energetycznej (EED). Począwszy od maja br. nakłada ona obowiązek raportowania zużycia energii przez infrastrukturę IT i centra danych. W związku z tym znaczenie dostępu do podstawowych danych w czasie rzeczywistym staje się jeszcze bardziej krytyczne. Mając na względzie m. in. powyższe regulacje, analitycy z Gartnera przewidują, że do 2027 r. 80 proc. dyrektorów ds. informatyki (CIO) będzie dysponować metrykami wydajności powiązanymi ze zrównoważonym rozwojem swoich organizacji IT. Jeśli te metryki mają być wiarygodne i przydatne, centra danych potrzebują narzędzi z możliwościami raportowania, dzięki czemu będą w stanie szybko wykorzystać swoje dane do spełnienia nowych wymogów regulacyjnych.
Jak przekonują eksperci Schneider Electric, pierwszym krokiem na drodze organizacji do osiągania celów zrównoważonego rozwoju powinno być mierzenie całkowitego zużycia energii w obiekcie. Ten podstawowy wskaźnik pomaga ocenić bezpośredni
Możliwości EcoStruxure IT
Monitorowanie
Uzyskaj wgląd w zużycie energii centrum danych dzięki bezpiecznemu, dokładnemu monitorowaniu w czasie rzeczywistym
Mierzenie
Obliczaj efektywność wykorzystania energii (PUE) oraz inne wskaźniki
wpływ operacji IT na pobór mocy i jest wykorzystywany przez menedżerów ds. zrównoważonego rozwoju do obliczania emisji gazów cieplarnianych. Zużycie energii jest dobrym punktem wyjścia również dlatego, że źródła danych i narzędzia do ich gromadzenia są dziś łatwo dostępne, a w wielu przypadkach prawdopodobnie są już używane przez zespoły operacyjne ds. IT. Więcej na ten temat w Białej Księdze WP100 Schneider Electric.
W odpowiedzi na potrzeby rynku Schneider Electric wprowadził do EcoStruxure IT, swojego wielokrotnie nagradzanego w branży oprogramowania do zarządzania infrastrukturą centrów danych (DCIM) nowe, oparte na modelach uczenia maszynowego i zautomatyzowane funkcje raportowania zrównoważonego rozwoju.
Obecnie oprogramowanie EcoStruxure IT umożliwia właścicielom i operatorom centrów danych mierzenie i raportowanie wydajności swoich obiektów. Dzieje się to zarówno w oparciu o dane historyczne i analizę trendów, do czego wykorzystywana jest sztuczna inteligencja (AI), jak i monitorowanie w czasie rzeczywistym, aby przekształcić
Zarządzanie
Ograniczaj zużycie energii dzięki zarządzaniu serwerami
Kontrola
Zmniejsz zużycie energii dzięki chłodzeniu opartemu na sztucznej inteligencji (AI)
dane w przydatne informacje służące poprawie wskaźników zrównoważonego rozwoju.
Nowe funkcje raportowania
Nowe funkcje są wynikiem trzech lat strategicznych inwestycji oraz rygorystycznych testów i prac rozwojowych w ramach programu Green IT firmy Schneider Electric. Dzięki nim przedsiębiorstwa mogą przekształcać złożone dane w istotne dla ich biznesu informacje i raportować kluczowe wskaźniki zrównoważonego rozwoju. Do najważniejszych korzyści wynikających z wprowadzonych udoskonaleń należą: n lepszy wgląd w zużycie energii i zasobów, analizę danych historycznych oraz dostęp do szczegółowych wskaźników, aby pomóc organizacjom spełnić obowiązujące wymogi sprawozdawczości regulacyjnej, n intuicyjny i prosty w użyciu mechanizm raportowania z funkcjami integracji i eksportu danych innych firm, a wszystko to za naciśnięciem jednego przycisku. W porównaniu do innych dostępnych na rynku rozwiązań, nowy model od Schneider Electric oferuje klientom szybki, intuicyjny i prosty w obsłudze mechanizm raporto-
Planowanie
Minimalizuj ślad węglowy IT poprzez planowanie zarządzania pojemnością
Modelowanie
Wykorzystuj cyfrowego bliźniaka do symulacji w celu optymalizacji chłodzenia
wania, który pomaga spełnić nadchodzące wymogi regulacyjne, w tym te wynikające z europejskiej Dyrektywy w sprawie efektywności energetycznej. Nowe możliwości dostępne w ramach EcoStruxure IT wykraczają daleko poza wskaźniki wymagane przez EED, zapewniając klientom opcję pomiaru w czasie rzeczywistym i analizę historycznych danych dotyczących wydajności energetycznej ich centrów w odniesieniu do wszystkich zaawansowanych wskaźników raportowania określonych w Białej Księdze WP67 Schneider Electric.
Dzięki nowej funkcji organizacje mogą szybko kwantyfikować dane i raportować za pomocą jednego kliknięcia, eliminując pracochłonne zadania oraz przyspieszając i ułatwiając wykorzystanie mocy danych w celu zmniejszenia wpływu DC na środowisko. Nowe możliwości oprogramowania obejmują między innymi: n obliczanie i śledzenie PUE w odniesieniu do konkretnej witryny/pomieszczenia przy użyciu metodologii CEN/CENLEC 50 600-4-2, n wykorzystanie modeli analizy danych i opartego na chmurze jeziora danych, aby uprościć raportowanie PUE, n raportowanie bieżącego zużycia energii na pomieszczenie i porównanie z trendami historycznymi,
n możliwość raportowania w myśl obowiązujących regulacji dzięki kliknięciu „pojedynczego przycisku”,
n weryfikację trendów w czasie dla różnych centrów danych oraz rozproszonych środowisk IT,
n umożliwienie klientom bezpiecznego dostępu do danych i przetwarzania ich w preferowanym narzędziu poprzez integrację z innymi środowiskami i możliwość eksportu danych.
Od niemal 10 lat Schneider Electric publikuje cykliczny raport Schneider Sustainability Impact (SSI), wskazując na zobowiązania firmy w zakresie zrównoważonego rozwoju. W oparciu o jeden z celów SSI, Elizabeth Hackenson, CIO Schneider Electric, uruchomiła program Green IT. To inicjatywa dla przedsiębiorstw, która identyfikuje nowe, inteligentne ścieżki dekarbonizacji, aby pomóc osiągnąć cel co najmniej 5 proc. rocznej redukcji emisji w obszarze IT.
W ramach programu Schneider Electric wykorzystał swoje oprogramowanie EcoStruxure IT, które wdrożono w ponad 150 kluczowych lokalizacjach firmy na całym świecie w celu poprawy odporności i bezpieczeństwa operacji IT. Za sprawą Green IT stało się jasne, że nowe możliwości, jakie daje EcoStruxure IT, można wykorzystać do bardziej zrównoważonego rozwoju, pozwalając Schneider Electric na znaczącą poprawę w zakresie kontrolowania zużycia energii przez IT. Wykorzystując wiedzę uzyskaną dzięki EcoStruxure IT, firma odnotowała 30-proc. redukcję zużycia energii w swojej inteligentnej fabryce w Lexington w USA. – Aby zredukować zużycie energii przez IT i centra danych i zmniejszyć emisję gazów cieplarnianych, organizacje muszą oprzeć swoje działania na faktach. Takie podejście wymaga dostępu zarówno do aktualnych danych w czasie rzeczywistym, jak i do danych historycznych. Wykorzystując EcoStruxure IT,
poczyniliśmy znaczące postępy w naszej misji poprawy efektywności energetycznej i minimalizacji wpływu na środowisko, wspierając jednocześnie firmę w realizacji jej celów związanych ze zrównoważonym rozwojem. Dziś dzielimy się tymi osiągnięciami z klientami w skali całego świata – mówi Małgorzata Kasperska, wiceprezeska Schneider Electric, odpowiedzialna za pion Secure Power.
EcoStruxure IT, które jest oprogramowaniem DCIM nowej generacji, dostosowano do obecnych i przyszłych środowisk IT, w których obciążenia hybrydowe łączą infrastrukturę brzegową, kolokacyjną i opartą na chmurze. Służące do monitorowania, planowania i modelowania narzędzia EcoStruxure IT znacząco poprawiają operacje w dowolnej infrastrukturze informatycznej.
W szczególności mogą z nich skorzystać operatorzy centrów danych, którzy w obliczu rosnących wymagań klientów i wyjątkowej zmienności na rynku energii potrzebują platformy DCIM w celu poprawy planowania pojemności, uproszczenia operacji oraz usprawnienia raportowania i rozliczania. W rezultacie DCIM staje się dla operatora centrum danych cyfrowym bliźniakiem, czyli wirtualnym odwzorowaniem obiektu, który przedstawia jego warunki operacyjne w czasie rzeczywistym. Wizualizując centrum danych, operatorzy mogą optymalizować przestrzeń, czyniąc ją bardziej wydajną i produktywną, co współgra z rosnącym zapotrzebowaniem na pojemność data center.
WP100
„3 kroki do obliczenia całkowitego zużycia energii IT w przedsiębiorstwie przy użyciu DCIM” Zeskanuj kod QR
WP67
„Plan działania na rzecz zrównoważonego rozwoju Data Center: Przewodnik uzupełniający Białą Księgę 67” Zeskanuj kod QR
Branża medyczna oraz informatyczna coraz bardziej zbliżają się do siebie. Wyraźne przyspieszenie nastąpiło w okresie lockdownów, który stał się motorem rozwoju cyfrowych strategii zdrowotnych.
n Wojciech Urbanek
Wlatach 2020–2021 na piedestale znalazła się telemedycyna, natomiast konieczność przestrzegania kwarantanny i dystansu społecznego sprawiła, że lwią część usług realizowano online. W efekcie, jak wynika z danych portalu Statista, podczas gdy w 2019 roku wartość globalnego rynku cyfrowej medycyny (ang. digital health) wynosiła 175 mld dol., to na koniec przyszłego roku ma to być już 660 mld dol. Należy przy tym podkreślić, że do świata współczesnej medycyny wkraczają: sztuczna inteligencja, robotyka, komunikacja bezprzewodowa, profesjonalna analityka czy rozszerzona i wirtualna rzeczywistość.
Co ważne, rosnący popyt zgłaszany przez branżę medyczną na rozwiązania IT nie wynika wyłącznie z chęci nadążania za technologicznymi nowinkami. Ma to rwnież związek ze wzrostem odsetka pacjentów cierpiących na choroby przewlekłe oraz koniecznością zapewnienia im stałego monitorowania, a także opieki długoterminowej. Rozwiązania telemedyczne pozwoliły zmniejszyć obciążenia i koszty opieki medycznej. Konsultacja zdalna okazuje się bowiem o 20 proc. tańsza niż twarzą w twarz, a jednocześnie zwiększa dostępność specjalistów. Z drugiej strony tego rodzaju model działania nie powinien być nadużywany, jak miało to miejsce w okresie lockdownów
n Mateusz Kopacz, Chief Information Security Officer, Alma
Z moich tegorocznych obserwacji wynika, że sektor medyczny wykazuje duże zainteresowanie rozwiązaniami do ochrony sieci wewnętrznej, takimi jak NIDS czy NAC, a także ASM, czyli narzędziami do modelowania zagrożeń i ciągłego rozpoznawania informacji pochodzących z zewnątrz. Niemniej, coraz więcej jednostek dostrzega podstawową bolączkę jaką jest brak specjalistów ds. cyberbezpieczeństwa, jak i sensu budowania własnych zespołów. Placówki medyczne nie mogą zapewnić im odpowiednich zarobków i takie osoby, po roku lub dwóch, przechodzą do firm lub instytucji, które oferują im dużo wyższe pensje. Z drugiej strony z myślą o tym właśnie segmencie rynku pojawiły się oferty w postaci usług zarządzanych. To bardzo dobry kierunek, zgodny z zasadą, że teoretycznie każdy budynek może spłonąć, ale żaden z jego właścicieli nie zatrudnia etatowych strażaków – tak samo będzie z ryzykiem, jakie niesie ze sobą internet. Największym zainteresowaniem cieszą się komplementarne rozwiązania, czyli sprzęt i licencje dostarczane wraz z obsługą wykwalifikowanych specjalistów w trybie 24/7/365, bo jak wiemy hakerzy nie pracują od 8.00 do 16.00.
z tragicznymi tego skutkami dla wielu pacjentów.
Generalnie jednak nikt nie ma wątpliwości, że IT odgrywa istotną rolę w rozwoju współczesnej medycyny. Przy czym wiadomo już, że nowe technologie nie stanowią panaceum na wszelkie bolączki branży medycznej. Po pierwsze lista świadczonych zdalnie usług medycznych jest wciąż ograniczona, a dodatkowo sytuacja wróciła do normy i większość wizyt lekarskich odbywa się w trybie stacjonarnym.
Warto przy tym podkreślić, że choć prognozy dotyczące globalnego rynku zdrowia są optymistyczne, to część specjalistów chłodnym okiem patrzy na rozwój tego segmentu rynku. Jedną z największych przeszkód, jakie stoją na drodze do dalszej cyfryzacji medycyny, jest ekonomia. Znamienna jest tutaj chociażby sytuacja w rodzimym sektorze zdrowia, z którego docierają bardzo niepokojące informacje. Narodowy Fundusz Zdrowia nie ma dość pieniędzy, w związku z czym szpitale muszą spowalniać za-
biegi, jak również pojawiają się problemy z wypłatami za świadczenia nielimitowane. Trudno więc w takiej sytuacji myśleć o inwestycjach w nowoczesny sprzęt informatyczny.
Osobną kwestią jest polityka zakupowa NFZ-u. Paweł Kopańczuk, Commercial Sales Manager w polskim oddziale Fortinetu uważa, że funduszowi udało się wypracować sprawnie funkcjonujące mechanizmy, które pozwalają umiejętnie zarządzać dość skromnym budżetem IT. Nie brakuje jednak odrębnych opinii.
– Obecna polityka Narodowego Funduszu Zdrowia nie jest spójna i brakuje w niej konsekwencji. Chcę wierzyć, że jest to chwilowa zadyszka związana ze zmianą władzy i przygotowaniem do sensownego rozdysponowania środków z KPO i konstruowaniem budżetu na 2025 rok – mówi Mateusz Kopacz, Chief Information Security Officer w Almie.
Dawny „kodeks honorowy”
Branża medyczna, tak jak każda inna, dość szybko przekonała się, że cyfryzacja – oprócz wielu zalet – niesie ze sobą poważne zagrożenia. W ostatnich latach placówki medyczne toczą nierówne zmagania z cyberprzestępcami, a napastnicy doskonale zdają sobie sprawę z ograniczonych możliwości budżetowych szpitali czy przychodni, przez co zbyt często stają się one łatwym celem. Szczególnie dotkliwe są ataki ransomware, które mogą na długie tygodnie wyłączyć systemy medyczne, co wiąże się z odwoływaniem wizyt i operacji.
Raport Sophos State of Ransomware, w którym przebadano ponad 4 tys. specjalistów IT na całym świecie, pokazuje skalę ryzyka. W sektorze opieki zdrowotnej 67 proc. ankietowanych stwierdziło, że w ubiegłym roku zostało dotkniętych atakiem ran -
somware, w porównaniu do 60 proc. rok wcześniej. Sektor ten jest jednym z pięciu (spośród piętnastu zbadanych), które w poprzednim roku zgłosiły wzrost liczby ataków.
W zaatakowanych przez gang ranosmware szpitalach lekarze i pielęgniarki uciekają się do używania długopisu i papieru, a personel IT w pocie czoła pracuje nad tym, aby przywrócić infrastrukturę do działania. Niestety, powrót do „zdrowia” może być długotrwały i brutalny. Powagę sytuacji obrazuje przykład brytyjskiej firmy Synnovis, świadczącej usługi z zakresu diagnostyki, testowania i patologii cyfrowej dla szpitali, lekarzy rodzinnych i innych placówek służby zdrowia. W wyniku ataku ransomware trzeba było odwołać 1100 operacji i 2194 wizyt w londyńskich szpitalach. Do tego należy dodać zmniejszoną liczbę badań krwi, a także przekierowanie ponad 50 narządów do innych placówek medycznych. Z kolei w naszym kraju szerokim echem odbił się ubiegłoroczny atak na ogólnopolską sieć laboratoriów
diagnostycznych LAB, wykonujących około 60 tys. badań rocznie. Jego rezultatem był wyciek danych kilkudziesięciu tysięcy pacjentów.
Narastające cyberataki sprawiają, że sektor medyczny ma coraz większe trudności z ich odparciem. Przy czym problem nie dotyczy wyłącznie ograniczonych budżetów na odpowiednie systemy zabezpieczeń, ale również zatrudniania odpowiedniej klasy specjalistów ds. cyberbezpieczeństwa. – Świadomość służby zdrowia na temat cyberzagrożeń zdecydowanie rośnie. Kilka dużych szpitali miało nawet ambicję budowy wewnętrznych zespołów reagowania na incydenty. Zainwestowały w sprzęt i oprogramowanie z USA oraz Izraela, ale niestety, zapomniano o tym, że do tych „ferrari” potrzebni są „rajdowcy”. A tych nie ma i długo nie będzie. Często powtarzam, że bezpieczeństwo IT/ OT/IoT jest jednym z największych wyzwań i ryzyk, które musimy łagodzić razem z użytkownikami. Dlatego rekomendujemy dyrektorom szpitali korzystanie z zespołu zewnętrznych ekspertów – mówi Mateusz Kopacz.
Sztuczna inteligencja: od sceptycyzmu do nadziei
n Bartłomiej Wadas, Key Account Manager, Eaton W ostatnim czasie można zauważyć, że inwestycje w branży medycznej nie tylko wzrosły, ale także uległy zmianie pod względem poziomu zaawansowania technologicznego. W pandemii wiele placówek medycznych zainwestowało w systemy zasilania UPS i generatory awaryjne, aby zapewnić bezpieczeństwo i nieprzerwaną pracę kluczowych systemów IT oraz urządzeń medycznych. Wzrost znaczenia telemedycyny i zdalnego monitorowania stanu pacjentów zwiększył zapotrzebowanie na rozwiązania, które mogą wspierać ciągłość działania krytycznych systemów nawet w przypadku przerw w dostawie energii elektrycznej. Krótko mówiąc, inwestycje zaspokoiły wiele bieżących potrzeb, ale pojawiły się również nowe wyzwania. Przykładowo, ze względu na stale rosnące wymagania pacjentów i personelu medycznego, infrastruktura IT musi nieustannie się rozwijać, co z kolei prowadzi do wzrostu zapotrzebowania na energię elektryczną.
n Paweł Poziemski, Application Engineer, CEE, Vertiv Pandemia bardzo wyraźnie naświetliła potrzeby, które należy zaspokoić. Po czterech latach albo zostały one choć częściowo zaspokojone, albo przynajmniej w dość znacznym stopniu. Trudno określić, ile z tego popytu „widzą” producenci rozwiązań infrastruktury serwerowni. Szafy rack wraz z akcesoriami, zasilacze UPS, zabudowy korytarzy czy klimatyzacja serwerowni cieszą się popytem regulowanym wysokością budżetów placówek medycznych. Jak mówią medycy, zawsze lepiej zapobiegać niż leczyć, a budowanie sprawnego, przemyślanego środowiska IT stanowi właśnie formę prewencji. W ten sposób zapobiegamy awariom, jaki i dodatkowym kosztom. Sprawne zasilanie i chłodzenie to inwestycja, która pomaga wyeliminować zbędne wydatki w przyszłości, związane z przestojami i naprawą sprzętu IT.
O ile cyberataki stanowią jedno z największych zagrożeń dla branży medycznej, o tyle sztuczna inteligencja otwiera przed nią nowe sposobności. Nie brakuje nawet opinii, że zrewolucjonizuje współczesną medycynę. Możliwości w tym zakresie są bardzo szerokie, począwszy od odkrywania i opracowywania leków, poprzez zastosowanie stratyfikacji ryzyka, diagnozowanie, obrazowanie, monitorowanie, aż po leczenie farmakologiczne i chirurgiczne pacjentów. Sam tylko magazyn popularnonaukowy „Nature” pisał w tym roku o wpływie, który ma sztuczna inteligencja na leczenie epilepsji, raka wątroby, a także o SI w onkologii, identyfikacji oraz projektowaniu peptydów przeciwdrobnoustrojowych czy jej użyciu na potrzeby histopatologii.
n Sven Janssen, wiceprezes Sophosu ds. sprzedaży w regionie EMEA Central Monitorowanie w trybie 24/7, w tym możliwość natychmiastowego reagowania na incydenty naruszenia bezpieczeństwa, ma kluczowe znaczenie w ochronie przed nowoczesnymi cyberatakami. Dotyczy to również szpitali, między innymi dlatego, że dawny „kodeks honorowy” cyberprzestępców, zgodnie z którym jednostki medyczne nie są atakowane, ustąpił miejsca chciwości i chęci zysku. Placówki medyczne są obecnie celem wielu gangów ze względu na ich ogromne znaczenie dla społeczeństwa. Z naszego doświadczenia wynika, że podmioty opieki zdrowotnej są bardzo świadome zagrożeń związanych z cyberatakami i są skłonne inwestować w ten obszar. Jednak odpowiedni budżet i wystarczająca dostępność ekspertów to rzadkość, co często uniemożliwia osiągnięcie tych celów. Odpowiedzią na ten dylemat jest nadrzędne podejście do cyberbezpieczeństwa. Dotyczy to także usług MSSP, które obecnie realizuje wiele firm z sektora ochrony zdrowia.
ciąża lekarza od prac administracyjnych. Ograniczenie czasu poświęconego na tego typu czynności pozwala lekarzowi więcej czasu poświęcić na bezpośrednią opiekę nad chorymi, co jest szczególnie ważne w kontekście stale rosnącego zapotrzebowania na usługi medyczne.
Jednak SI może być stosowana również do bardziej przyziemnych zadań, chociażby takich jak tworzenie notatek z zapisu spotkania z pacjentem, co od-
Nie można też przejść obojętnie nad faktem, że wraz z ekspansją generatywnej sztucznej inteligencji wielu lekarzy poczuło się zagrożonych. Największe ich
obawy dotyczą naruszania kompetencji zawodowych i autonomii. Niemniej postawy lekarzy w tej kwestii powoli się zmieniają – od niechęci i sceptycyzmu do uznania zalet najnowszej technologii. Niemniej, rzecz jasna, wciąż trudno sobie wyobrazić sztuczną inteligencję automatyzującą podejmowanie decyzji klinicznych w diagnostyce lub leczeniu. Na razie lepiej radzi sobie z tym doświadczony lekarz i być może to się już nigdy nie zmieni. n
Dzięki rozwiązaniom bazującym na sztucznej inteligencji podmioty opieki zdrowotnej mogą skutecznie ograniczać ryzyko włamania przez cyberprzestępców, zapewniać integralność danych pacjentów i chronić je oraz przestrzegać najwyższych standardów prywatności i bezpieczeństwa.
Zagrożenia związane z nieautoryzowanym użyciem kont uprzywilejowanych w placówkach medycznych niosą ze sobą poważne konsekwencje. W przypadku udanego ataku skutki mogą obejmować nie tylko wyciek wrażliwych informacji o pacjentach, takich jak ich dane osobowe czy historia chorób, ale także stanowić bezpośrednie zagrożenie dla życia i zdrowia. Zdarzały się już przypadki konieczności ewakuacji szpitala czy wyłączenia kluczowego sprzętu medycznego, co stwarzało bezpośrednie śmiertelne ryzyko dla pacjentów. Sytuacja ta powoduje, że ochrona kont użytkowników uprzywilejowanych w branży ochrony zdrowia jest absolutnie kluczowa. W Polsce rośnie świadomość tego problemu zarówno wśród dyrektorów szpitali, jak i w administracji rządowej. Coraz
Katarzyna Zaorska, Sales Director, Fudo Security
Fudo Enterprise nie jest
więcej instytucji rozumie potrzebę wdrażania zaawansowanych rozwiązań zabezpieczających, takich jak systemy PAM (Privileged Access Management). Pomagają one dostawcom usług medycznych zarządzać uprzywilejowanymi kontami i poświadczeniami, wykrywać podejrzane działania oraz zapewniać, że tylko upoważnione osoby mogą uzyskać dostęp do krytycznych danych pacjentów i dotyczących ich wrażliwych informacji.
Takie funkcje PAM, jak bazująca na rolach kontrola dostępu oraz monitorowanie uprzywilejowanych sesji i działań uprzywilejowanych użytkowników, umożliwiają zespołom administratorów wdrażanie zasady najmniejszych uprawnień i zerowego zaufania, ciągłe dostosowywanie reguł polityki ochrony cyfrowych zasobów, optymalizację zarządzania bezpieczeństwem oraz neutralizację wewnętrznych i zewnętrznych zagrożeń.
pomocą złożonych czynników, takich jak jego zachowanie, wzorce dostępu i biometria behawioralna, a także ocenę ryzyka związanego z przyznawaniem lub utrzymywaniem bezpiecznego uprzywilejowanego dostępu przez całą sesję.
Rozwiązania PAM firmy Fudo Security zapewniają integralność, poufność i dostępność danych pacjentów przetwarzanych przez dostawców usług medycznych. Upraszczają proces zarządzania dostępem uprzywilejowanym poprzez automatyzację rutynowych zadań i zmniejszanie obciążenia administracyjnego zespołu IT. Jedną z ich głównych zalet jest możliwość wdrożenia modelu uwierzytelniania Zero Trust Access, dzięki któremu wszystkie próby dostępu do cyfrowych zasobów placówek medycznych poddawane są dodatkowej, skrupulatnej weryfikacji.
Tradycyjne systemy PAM zazwyczaj uwierzytelniają użytkowników podczas logowania i nie weryfikują ich tożsamości podczas sesji, co może zostać wykorzystane przez atakujących, którzy uzyskają dostęp do uwierzytelnionej sesji. Bazujące na sztucznej inteligencji rozwiązanie Fudo Enterprise firmy Fudo Security, służące do zarządzania dostępem uprzywilejowanym, stosuje bardziej zaawansowane podejście, ponieważ zapewnia różne opcje monitorowania kont uprzywilejowanych i zapewnienia bezpieczeństwa sesji podczas jej trwania. AI umożliwia ciągłą weryfikację tożsamości użytkownika za
Zapewnione jest także zarządzanie kontami uprzywilejowanymi i monitorowanie sesji dzięki wbudowanym funkcjom do zarządzania dostępem wielu użytkowników, będących także przedstawicielami firm trzecich (np. dostawców towaru lub podwykonawców usług), aby w prosty, elastyczny i wyczerpujący sposób wyeliminować potrzebę korzystania z narzędzi innych firm, które mogą stanowić dodatkowe punkty awarii. Użytkownicy i administratorzy mogą korzystać z kompatybilnego z wieloma aplikacjami menedżera haseł, stanowiącego scentralizowany, w pełni nadzorowany i bezpieczny magazyn do zarządzania uprzywilejowanymi poświadczeniami użytkowników i dostawców.
Nowatorskie rozwiązania techniczne stały się nieodłącznym elementem codziennego funkcjonowania placówek medycznych, ale też – gdy nie są odpowiednio zabezpieczone – mogą przyczynić się do wzrostu ryzyka powodzenia cyberataku.
Według raportu ENISA z października 2023 r. podmioty ochrony zdrowia znajdują się na podium wśród branż, które są najczęściej atakowane przez cyberprzestępców. Tradycyjnie największe zagrożenie stanowią ataki ransomware, natomiast cyberprzestępców interesują również poszczególne elementy infrastruktury IT placówek medycznych, w tym inteligentne rozwiązania Przemysłowego Internetu Rzeczy (IIoT).
Najczęstszym przedmiotem ataku są przechowywane w systemach placówek medycznych dane pacjentów. Dlatego należy pamiętać o szkoleniach dla kadry pracowniczej, gdyż – jak ukazuje przygotowany na zlecenie firmy Fortinet raport „Bezpieczeństwo IT w sektorze ochrony zdrowia” – przestępcy zazwyczaj osiągają sukces przez wykorzystanie phishingu.
Hakerzy są świadomi, że priorytetem placówek medycznych powinno być dobro pa-
Paweł Wojciechowski, Channel Sales Director, Fortinet
Serdecznie zapraszamy do kontaktu integratorów zainteresowanych
cjenta, więc ich działania nie kończą się na kradzieży danych osobowych. Coraz częściej celowo uniemożliwiają lub utrudniają prowadzenie działalności, wymuszając w ten sposób zapłacenie okupu. Podejmują też ataki na środowiska Przemysłowego Internetu Rzeczy (IIoT), w których wykorzystywane są podłączone do komputerowej sieci specjalistyczne narzędzia medyczne, jak ciśnieniomierze, pompy infuzyjne i urządzenia do zdalnego monitorowania.
W zabezpieczeniu sieci komputerowej przed różnego typu zagrożeniami oraz zapewnieniu jej stałego monitoringu pod względem ewentualnych anomalii pomocne będą oferowane przez Fortinet firewalle FortiGate. Natomiast dla podmiotów medycznych posiadających sieć przychodni lub szpitali przydatna będzie zintegrowana w tych urządzeniach funkcja Fortinet Secure SD-WAN, która zapewnia zarządzanie ruchem sieciowym oraz jego optymalizację i bezpieczeństwo podczas transmisji w komputerowych rozproszonych sieciach.
Ze względu na poziom wrażliwości informacji przetwarzanych przez placówki medyczne należy dołożyć wszelkich starań, aby te nie dostały się w niewłaściwe ręce. Tego typu podmioty coraz częściej łączą swoje lokalne rozwiązania IT z usługami chmurowymi, zapewniającymi dostęp do aplikacji SaaS lub zasobów infrastruktury centrów danych, jak serwery czy pamięci masowe służące do budowy zapasowego środowiska przetwarzania informacji. Dlatego, oprócz uświadamiania personelu szpitali i przychodni co do ryzyka występowania zagrożeń, podmioty
te należy wyposażyć w kompleksowe narzędzia z zakresu cyfrowej ochrony. W tym celu sprawdzi się chociażby rozwiązanie Fortinet Unified Secure Access Service Edge (SASE), które gwarantuje bezpieczeństwo na styku lokalnej infrastruktury i chmury, a także wprowadza mechanizmy ZTNA chroniące dostęp do oferowanych w niej usług.
Fortinet Unified SASE zapewnia również kompleksową widzialność użytkowników, sieci, aplikacji i usług chmurowych oraz pozwala korelować dane dotyczące wydajności, reagować na incydenty i przyspieszać usuwanie problemów. Rozwiązanie to może być płynnie integrowane z całą architekturą Fortinet Security Fabric i innymi produktami Fortinet, takimi jak firewalle FortiGate oraz narzędzia do zarządzania bezpieczeństwem FortiManager i analizy zdarzeń w sieci FortiAnalyzer. Platformowe podejście do bezpieczeństwa umożliwia zarządzanie ochroną złożonej infrastruktury IT za pośrednictwem jednego interfejsu.
Rynek IT dla podmiotów ochrony zdrowia nieustannie się rozwija – cyfrowe rozwiązania w szpitalach i przychodniach przestają być udogodnieniem, a stają się standardem. Postępująca cyfryzacja sprawia jednak, że stają się coraz podatniejsze na cyberataki. Dlatego też posiadanie profesjonalnego zestawu narzędzi ochronnych jest warunkiem stabilnego funkcjonowania placówek medycznych oraz bezpieczeństwa leczących się w nich pacjentów.
Kontakt dla partnerów: Paweł Wojciechowski, Channel Sales Director, Fortinet, pwojciechowski@fortinet.com
inspirują specjalistów z sektora opieki zdrowotnej
W sektorze opieki zdrowotnej i służby zdrowia rzadko widuje się pracowników w tak dobrym nastroju, jak na zdjęciu. Nic dziwnego: spoczywa na nich ogromna odpowiedzialność i każdego dnia mają niesamowicie dużo do zrobienia. Do swoich wymagających zadań, w których często liczy się każda sekunda, pilnie potrzebują innowacyjnych technologii, które oszczędzają czas i na których mogą polegać w stu procentach.
n komputer mobilny Android z 6-calowym wyświetlaczem FHD w kolorze niebieskim/ białym dla sektora opieki zdrowotnej
n smukła, ergonomiczna i odporna na dezynfekcję obudowa
n dostępne aktualizacje do wersji Android 16
n certyfikat IP68, odporność na upadki z wysokości 1,2 metra
n szybki procesor Qualcomm QLCM 5430 2,1 GHz
n czerwony przycisk alarmowy, duże, jasne światło zwrotne, szczelna komora baterii
n moduł skanujący SE4720, mobilna stacja robocza
n bateria BLE, tylna kamera 16 MP
n HC20: WiFi 6, 6 GB RAM / 64 GB pamięci masowej, Mobility DNA Professional, Lifecycle 3+3
n HC50: WiFi 6E, 8 GB RAM / 128 GB pamięci masowej, kamera przednia 5 MP, bateria wymieniana podczas pracy, Mobility DNA Enterprise, cykl życia 4+4
Jarltech jest wiodącym wyspecjalizowanym dystrybutorem systemów POS i sprzętu Auto ID w Europie. Jako VAD oferuje wyjątkowe usługi, zapewniając wartość dodaną, która wykracza poza pełną ofertę produktów Zebra.
Zebra podjęła to wyzwanie i opracowała nowe, doskonałe komputery mobilne dla służby zdrowia. Urządzenia, które przyćmiewają poprzednie modele dla placówek medycznych i spełniają wysokie wymagania profesjonalistów. Zachęć pracowników służby zdrowia: zaprezentuj im komputery mobilne Zebra HC20/HC50!
Technologie przyszłości dla służby zdrowia
Terminale mobilne HC20/HC50 są o 20 proc. większe i o 10 proc. cieńsze od swoich poprzedników. Duża, jasna dioda zwrotna LED potwierdza skanowanie – na przykład z opasek na nadgarstek pacjentów drukowanych na modelu ZD510-HC. Aby sprostać wymaganiom placówek medycznych, komputery mobilne HC20/ HC50 zostały wyposażone w szczelną komorę baterii i odporną na dezynfekcję obudowę z tworzywa sztucznego klasy medycznej – można ją czyścić niemal wszystkimi środkami dezynfekującymi.
Ergonomia jutra
Wyprofilowana powierzchnia po bokach i z tyłu obudowy HC20/HC50 redukuje
punkty nacisku, a dzięki amortyzatorom w dolnej części zapewnia pewny i wygodny chwyt. Ponadto jest idealnie wyważona od góry do dołu, co zapobiega zmęczeniu nadgarstków.
Błyskawiczna komunikacja
Komputery mobilne HC20/HC50 zostały wyposażone w czerwony przycisk alarmowy, który umożliwia błyskawiczną komunikację. Poza tym mają trzy wbudowane mikrofony i obsługują zestawy słuchawkowe Bluetooth. Oba modele wyposażone są w WiFi 6 i tylną kamerę, HC50 dodatkowo wyposażone jest w WiFi 6E i przednią kamerę do połączeń wideo.
Odkryj produkty Zebra w Jarltech Więcej informacji na temat kompleksowej oferty rozwiązań magazynowych firmy Zebra znajdziesz skanując kod QR.
n Z jakimi wyzwaniami mierzą się obecnie działy IT?
Poza szeroko pojętym cyberbezpieczeństwem, z dyrektywą NIS 2 w tle, wiodącym tematem jest jak najlepsze doświadczenie użytkownika i utrzymanie jego ciągłości pracy. Niezbędne do tego są bezproblemowo działające urządzenia końcowe, na co wpływ ma przede wszystkim skuteczne zarządzanie tym właśnie sprzętem. Nasi obecni i potencjalni klienci chcą monitorować urządzenia końcowe po to, aby wykrywać wszelkie anomalie, zanim zaczną one wpływać na komfort pracy użytkownika – mogą być to przykładowo problemy z działaniem aplikacji albo z bateriami w laptopach. Odpowiednie narzędzie do zarządzania urządzeniami końcowymi jest w stanie zaspokoić wszelkie tego typu potrzeby. n Skuteczne zarządzanie wymaga wykwalifikowanych pracowników, a tych brakuje…
Działy IT w zakresie administrowania potrzebują automatyzacji i nie tylko braki kadrowe o tym decydują. Bardzo często administratorzy są zmuszeni do wykonywania prostych i uciążliwych czynności manualnych. To zabiera im czas i rodzi frustrację. Chodzi więc o jak największą optymalizację pracy, ale także o szybkość reakcji w sytuacjach niespodziewanych, takich chociażby jak fatalna aktualizacja CrowdStrike’a. I znowu, odpowiednie narzędzie umożliwi im zautomatyzowanie wielu prostych, ale czasochłonnych działań. n A co z kontrolą nad nieautoryzowanym oprogramowaniem na urządzeniach końcowych?
Oprogramowanie, które nie zostało autoryzowane przez dział IT, może nie tylko zakłócać ustalone operacje, ale także być furtką dla cyberprzestępców. Z jednej więc strony administratorzy IT mogą w pełni ujednolicić konfigurację urządzeń końcowych w ramach poszczególnych działów w danej organizacji. Jednocześnie narzędzie daje pewną wolność użytkownikowi końcowemu, zapewniając mu możliwość instalowania opcjonalnego oprogramowania, które może być przydatne w pracy – poprzez usługę kiosku, zawierającego sprawdzone i przetestowane aplikacje.
n Choć zarządzanie aktualizacjami było zawsze ważne, to ostatnio – nie tylko za sprawą CrowdStrike’a – zrobiło się o nim szczególnie głośno. Dlaczego to takie istotne?
O tym, w jaki sposób narzędzie do zautomatyzowanego zarządzania zasobami IT może ułatwiać uzyskanie zgodności z przepisami, mówi Sebastian Wąsik, Country Manager na Polskę w baramundi software.
Są statystyki, które mówią że w przypadku aż 80 procent podatności cyberprzestępcy stworzyli exploity jeszcze zanim została wydana poprawka oprogramowania. Co gorsza, gdy poprawka już się pojawi, to od 60 do 150 dni zajmuje działom IT jej dystrybucja w zarządzanym środowisku. Dlatego tak ważne jest posiadanie narzędzia do szybkiej i skutecznej dystrybucji aktualizacji oprogramowania. Co do CrowdStrike’a to nasz zespół szybko opracował i udostępnił skuteczne oraz wydajne rozwiązanie dla klientów. W przypadku dwóch dużych, obsługiwanych przez nas firm jeszcze tego samego dnia przywrócono do pracy 26 tysięcy urządzeń końcowych.
n Od NIS 2 nie uciekniemy – to jest teraz gorący temat. Jak przygotować się do zgodności z nowymi regulacjami?
Do uzyskania zgodności z NIS 2 wymagane będzie wdrożenie określonych zabezpieczeń. Przykładowo może to być NAC, którego uruchomienie do skutecznego działania trwa w praktyce co najmniej rok. Innym przykładem jest PAM, którego workflow także tworzy się przez bardzo długi czas.
n Czy jest coś, co można zrobić znacznie szybciej?
Można w 2–3 dni wdrożyć narzędzie do zarządzania końcówkami i skutecznie zabezpieczyć nawet 1000 urządzeń. Biorąc pod uwagę wspomniane statystyki dotyczące exploitów, takie działanie ogromnie wpłynie na poziom bezpieczeństwa organizacji i jej przygotowania do regulacji. Według statystyk bezpieczeństwo zwiększy się wtedy średnio o 30 procent.
n Jakie opcje mają partnerzy, jeśli chodzi o formę sprzedaży waszej platformy do zarządzania urządzeniami końcowymi?
Wiodącym tematem jest jak najlepsze doświadczenie użytkownika.
Najczęściej do tej pory wybierana forma to sprzedaż klientowi końcowemu naszego narzędzia, które następnie jest instalowane we własnej infrastrukturze klienta – lokalnej bądź wykupionej w chmurze. Od dwóch lat dajemy partnerom możliwość dostarczania narzędzia w formie usługi w modelu MSP. Partnerzy mogą wybierać spośród trzech pakietów o różnych funkcjonalnościach, wdrażając je we własnej infrastrukturze i zarządzając urządzeniami klientów. Do naszych pakietów partnerzy dokładają usługi własne, budując swoją ofertę. Od tego roku zaczynamy oferować narzędzie w modelu SaaS. Trzeba przy tym podkreślić, że sprzedaż klientom końcowym we wszystkich formach odbywa się w 100 procentach poprzez partnerów.
Migracja danych do chmury eliminuje potrzebę inwestowania w sprzęt, umożliwiając szybkie uruchamianie projektów i zapewniając ciągłość biznesową, nawet w czasach kryzysu.
Każdego roku coraz więcej firm przenosi fizyczną lub wirtualną infrastrukturę IT do chmury hostowanej w centrum danych dostawcy usług, ponieważ umożliwia to przechowywanie dużych ilości danych bez podejmowania znacznych inwestycji w sprzęt, dostęp do nich z dowolnego miejsca na świecie oraz poczucie pewności co do ich bezpieczeństwa. Wykupione jako usługa zasoby mogą być łatwo i szybko skalowane w zależności od potrzeb, co stanowi znaczącą przewagę nad tradycyjną infrastrukturą, która wymaga dodatkowych serwerów fizycznych, sprzętu sieciowego lub licencji na oprogramowanie.
Nie bez znaczenia jest także efektywność kosztowa. Firmy migrujące do chmury mogą liczyć na znaczne obniżenie kosztów operacyjnych IT, gdyż to dostawca usługi zarządza jej konserwacją i aktualizacjami. Wpływ na zwiększenie produktywności i poprawę komfortu użytkowania ma też możliwość łatwego skalowania aplikacji w celu dostoso-
1Audyt obecnej infrastruktury klienta, aby opracować najlepszą strategię korzystania z chmury, dostosowaną do jego potrzeb.
2Konfiguracja środowiska chmurowego w celu zapewnienia kompatybilności i optymalnej wydajności.
3
Przenoszenie aplikacji do chmury przy minimalnym zakłóceniu bieżących operacji, z wykorzystaniem zaawansowanych narzędzi i metodologii.
4
Optymalizowanie kosztów i wydajności oraz zapewnianie bieżącego zarządzania środowiskiem chmury.
wania ich do większej liczby użytkowników lub zwiększonego ruchu. Dzięki opcji wdrażania ich w lokalizacjach bliskich geograficznie użytkownikom końcowym, zmniejszane są opóźnienia w transmisji danych. Finalnie, dostawcy usług w chmurze inwestują znaczne środki w zabezpieczanie swojej infrastruktury i danych klientów. Obejmuje to szyfrowanie, uwierzytelnianie wieloskładnikowe i regularne audyty bezpieczeństwa. Ponadto rozwiązania do tworzenia kopii zapasowych i odzyskiwania danych po awarii zapewniają ciągłość biznesową w sytuacjach awaryjnych. Na przykład, GigaCloud przechowuje swój sprzęt w pięciu centrach danych, certyfikowanych zgodnie ze standardami niezawodności Tier III i Tier IV.
W ostatnich latach technologie chmurowe zajęły centralne miejsce w procesie zmiany sposobu, w jaki działają przedsiębiorstwa i instytucje. Jednak, aby zapewnić płynne przejście do modelu usługowego, warto postępować zgodnie z najlepszymi praktykami, rekomendowanymi przez inżynierów GigaCloud. Przede wszystkim należy opracować mapę zależności i szczegółowy plan działania, co pozwoli na łatwiejszą migrację aplikacji i usług korzystających z tej samej bazy danych, zapobiegając ich utracie oraz uniknięciu przerw w pracy. W rozsądny sposób trzeba też planować przestoje – wybierać czas z minimalną aktywnością biznesową, na przykład podczas wakacji lub długich weekendów. Konieczne jest także sprawdzanie przed pełną migracją, czy dostawca usług w chmurze jest w stanie zaspokoić konkretne potrzeby przedsiębiorstwa.
Jeden z dużych klientów GigaCloud z branży telekomunikacyjnej polegał po-
czątkowo na własnych serwerach, ale stanął w obliczu wyzwań związanych z konserwacją, aktualizacjami i potrzebą zatrudnienia ekspertów. Dlatego dokonał migracji z własnego sprzętu na infrastrukturę chmurową, aby zapewnić sobie gwarancję nieprzerwanego dostępu do usług oraz poprawy wydajności. Obecnie hostuje w chmurze swoje kluczowe usługi, w tym telefonię IP i rozwiązania SaaS. Dodatkowo, wspomniany klient wykorzystuje dostępne w tym modelu procesory graficzne do opracowywania rozwiązań bazujących na sztucznej inteligencji, takich jak robot głosowy do automatyzacji interakcji z klientami. Narzędzie to znacznie skróciło czas przetwarzania 1844 kontaktów z tygodni do zaledwie trzech godzin, zwiększając produktywność i uwalniając pracowników do bardziej złożonych zadań. Infrastruktura chmury obsługuje również tysiące jednoczesnych połączeń dzięki zaawansowanej technologii GPU, która 10-krotnie przyspiesza wykonywanie zadań. W efekcie użytkownik korzysta z wysoce niezawodnego i wydajnego środowiska chmurowego, ze scentralizowanym wsparciem i płynnym połączeniem między wieloma centrami danych.
Kontakt dla partnerów: Dariusz Jarosz, Partner Development Manager, GigaCloud dariusz.jarosz@gigacloud.eu
Praca zdalna, potrzeba lokalnego przetwarzania i ochrony danych, jak też pojawienie się WiFi 7, powinny zwiększyć zakupy rozwiązań sieciowych w małych firmach i biurach domowych.
n Krzysztof Pasławski
Analitycy spodziewają się, że po słabszym ubiegłym roku na rynku infrastruktury WiFi, gdy zakupy wyhamowały z powodu obaw o spowolnienie gospodarcze i zaległości w zapasach, ten rok zakończy się odbiciem. W światowej prognozie ABI Research dostawy sprzętu WLAN dla przedsiębiorstw, jak i konsumentów, zwiększą się w 2024 r. o 12 proc., do poziomu 294,1 mln sztuk, a za 6 lat sprzedaż ma przekroczyć 420 mln sztuk. Na krajowym rynku w segmencie rozwiązań sieciowych dla małych i domowych biur następują zarówno wzrosty, jak i spadki, w zależności od kategorii sprzętu.
– Zauważamy spadek sprzedaży rozwiązań droższych, równocześnie notując lekki wzrost popytu na tańsze rozwiązania. Wniosek, jaki się od razu nasuwa, jest taki, że klienci coraz mocniej patrzą na cenę produktu. Informacje zwrotne, jakie otrzymujemy od partnerów biznesowych, wskazują, że w tym roku nadal panują nastroje odkładania zakupów w czasie i obserwowania, jak sytuacja w kraju będzie się dalej rozwijała – mówi Wojciech Kwaśny, Surveillance, R&S Product Manager w Konsorcjum FEN.
głym roku. Co istotne, idzie w górę średnia cena sprzedaży urządzeń.
– Obserwujemy delikatnie mniejsze zapotrzebowanie na konsumenckie produkty sieciowe w ujęciu ilościowym. Nie oznacza to jednak, że branża odnotowuje spadki. Rok 2024 ponownie przyniósł wzrost średniej ceny urządzeń wybieranych przez konsumentów – podkreśla Maciej Turski, Marketing Manager TP-Linka.
Ma to mieć związek z postępującą od kilku lat zmianą technologiczną: gwałtownie spada sprzedaż tanich urządzeń w standardzie 802.11n, których udział w tym roku stopniał do kilku procent. Silnie rośnie natomiast sprzedaż sprzętu w standardzie WiFi 6, choć nadal największy udział w krajowych zakupach ma sprzęt WiFi 5.
W latach 2023 –2028 globalne wydatki na rynku WiFi będą się zwiększać co roku o 22,2 proc.
Czas na WiFi 7
Cześć specjalistów sygnalizuje, że popyt na rozwiązania sieciowe dla domu i małych biur jest podobny, jak w ubie-
Z prognoz analityków wynika, że rynek infrastruktury sieci bezprzewodowej powinien niebawem podbić nowy standard WiFi 7. Rosnąca popularność trójpasmowego WiFi 7 i 6 GHz ma spowodować w latach 2024–2030 zwiększenie dostaw sprzętu WLAN aż o 44 proc. – prognozują eksperci ABI Research. Tym samym powinno gasnąć zapotrzebowanie na WiFi 6E, co ich zdaniem już się rozpoczęło. Co ciekawe, w ocenie ekspertów ABI także popyt na dwupasmowe WiFi 7 (tj. bez pasma 6 GHz), „już staje się znacznie większy, niż ktokolwiek przewidywał zaledwie 12 miesięcy temu”, czyli także te rozwiązania powinny wywołać nową falę zakupów. W połowie 2024 roku na krajowym rynku pojawiły się pierwsze urządzenia WiFi 7. – Debiut nowego standardu i związane z nim przyspieszenie przesyłu może nasilić trend wymiany starszych urządzeń sieciowych i dalszy wzrost średniej ceny urządzeń. Biorąc pod uwagę kompleksowe portfolio urządzeń WiFi 7, jakie są obecnie dostępne na rynku, obejmujące nie tylko
n Maciej Turski, Marketing Manager, TP-Link
Gwałtownie rośnie sprzedaż urządzeń w standardzie WiFi 6. Można przypuszczać, że w 2025 roku staną się one najbardziej popularne na rynku. Obecnie rolę taką pełni standard WiFi 5, choć sprzedaż takich urządzeń systematycznie spada. Poza modelami w standardzie N, z rynku powoli znikają również routery z modemami ADSL/VDSL i desktopowe access pointy, przez lata chętnie wybierane przez klientów z sektora SOHO. Ta pierwsza technologia jest wypierana przez sieci światłowodowe i dostęp poprzez sieć komórkową (4G/5G). Te ostatnie, mimo że są rozwiązaniem dedykowanym raczej klientom z sektora SMB, są również chętnie wybierane przez sektor SOHO czy też wymagających klientów zamieszkujących domy jednorodzinne.
n Łukasz Milic, Business Development Representative, QNAP Widzimy zainteresowanie klientów własnym rozwiązaniem do przechowywania danych, ponieważ wielu użytkowników jest rozczarowanych problemami z chmurą – głównie kosztami i pojemnością. Dlatego na popularności zyskuje własny NAS. Co ciekawe, w segmencie SOHO klienci przywiązują mniejszą wagę do samej specyfikacji sieciowej urządzenia. Standardem stają się powoli urządzenia wyposażone w porty sieci 2,5 GbE, jednak większość klientów wciąż korzysta ze standardowych rozwiązań sieci 1 GbE, a często też WiFi 5. Tak naprawdę w tym segmencie głównie osoby związane z IT i pasjonaci szukają szybkich oraz wydajnych rozwiązań. W tym przypadku dostrzegamy zainteresowanie bardziej wydajnymi modelami NAS z segmentu SOHO.
n Wojciech Kwaśny, Surveillance, R&S Product Manager, Konsorcjum FEN Zarówno w domu, jak i małych organizacjach, nieustannie zwiększa się ilość urządzeń, które trzeba obsłużyć. Poza ich ilością, przesyłane dane czy streamingi również wymagają większych przepustowości. Przykładowo, jeszcze pięć lat temu kamera 2 MPx była rzadkością, dziś ma ją praktycznie każdy, nawet w mieszkaniu i nie są to urządzenia o rozdzielczości 2 MPx, a często 4 czy 5 MPx i najczęściej jest ich kilka. Kolejną rzeczą, która powinna pobudzić rynek, są premiery nowych urządzeń WiFi 7. Pierwsze z nich, jak punkty dostępowe, routery i urządzenia Mesh, są już dostępne w sprzedaży.
flagowe produkty, ale również urządzenia nieodbiegające istotnie cenowo od rozwiązań w starszych standardach, nie ma powodu, aby przypuszczać, że nowy standard zostanie odrzucony przez konsumentów – prognozuje Maciej Turski.
Analitycy Markets and Markets zakładają, że w latach 2023–2028 globalne wydatki na rynku WiFi będą się zwiększać co roku o 22,2 proc. (z uwagi na rozwój rozwiązań IoT, smart home i cyfryzację sektora biznesowego). Dzięki nowej technologii sieci bezprzewodowej można
Tomasz Leyko, Product Manager, Action
W tym roku w Polsce popyt na rozwiązania sieciowe dla SOHO w porównaniu z rokiem ubiegłym wyraźnie wzrósł. Wiąże się to z coraz popularniejszą pracą hybrydową i zdalną. Nowe rozwiązania oparte na technologii WiFi 6/6E gwarantują szybsze i bardziej stabilne połączenia, sprawdzajac się także w pracy spoza biura, co pozytywnie przekłada się na popyt na te urządzenia. Dodatkowo rośnie świadomość klientów dotycząca zagrożeń w sieci i bezpieczeństwa danych, a to również znajduje odzwierciedlenie w decyzjach zakupowych. W efekcie klienci coraz częściej inwestują w firewalle i systemy VPN.
więc spodziewać się kolejnego silnego impulsu wzrostowego, po tym, jak w latach 2019–2024 – mimo turbulencji – rynek routerów i punktów dostępowych LTE/5G urósł ponad trzykrotnie, do 3 mld dol., jak policzyła Statista.
Przy czym, oprócz nowego standardu WiFi 7, który oferuje blisko 5-krot-
nie większą przepustowość niż WiFi 6, na wzrost zakupów rozwiązań sieciowych dla SOHO powinien nadal wpływać czynnik już od dawna kluczowy w tym segmencie rynku, a mianowicie coraz większa ilość danych do wykorzystania, przechowania i zabezpieczenia (np. w postaci kopii zapasowych). Co istot-
CRN nr 10/2024
ne, klienci SOHO nadal chętnie korzystają z lokalnych serwerów sieciowych, do czego mogą się przyczyniać wciąż wysokie jak dla drobnych przedsiębiorców koszty chmury.
– Nadal najczęściej wybierane są modele 2–4 zatokowe, a najpopularniejszą pojemnością na jedną zatokę jest 4 TB. Tak jak w poprzednich latach preferowane są nośniki HDD, ze względu na niższy koszt w przeliczeniu na pojemność w porównaniu z SSD, choć ich sprzedaż ostatnio nieznacznie się zwiększyła – podkreśla Jacek Marynkiewicz, prezes Storage IT.
Dodatkowe czynniki wzrostu
Aspektów sprzyjających dobrej koniunkturze w przyszłym roku jest zresztą więcej. Wskazuje się na zapotrzebowanie na routery wykorzystujące sieć 4G/5G, które są coraz chętniej stosowane w sektorze SOHO, podczas gdy maleje popyt na desktopowe punkty dostępowe. Do wzrostu sprzedaży powinna przyczynić się też większa świadomość poprawy nie tylko wydajności, ale też bezpieczeństwa sieci, a co za tym idzie danych firmy, stąd oczekiwane jest większe zainteresowanie modernizacją infrastruktury w oparciu o sprzęt w nowszych standardach WiFi, wyposażony w lepszą ochronę niż starsze systemy.
– Klienci są bardziej świadomi i starają się unikać starszych rozwiązań. Rosnąca ilość urządzeń bezprzewodowych w naszych domach wymusza takie wła-
n Jacek Marynowski, prezes, Storage IT Zapotrzebowanie na NAS-y w małych firmach w tym roku znajduje się na podobnym poziomie co w poprzednim. Zaszła natomiast taka zmiana, że klienci nie kupują już najtańszych rozwiązań. Kiedyś tanie NAS-y można było mieć za około 800 złotych, teraz ceny sprzętu wybieranego przez użytkowników w SOHO zaczynają się od około 1,5 tysiąca złotych. Stosunkowo wysoki próg wejścia sprawia, że małe biura raczej nie zaopatrują się w dyski sieciowe w retailu czy etailu, lecz w takich firmach jak nasza – dla SOHO nie jest to bowiem produkt „pudełkowy”. Klienci w SOHO najczęściej potrzebują NAS-ów do backupu, gdyż małe firmy mają już dużą świadomość zagrożeń, zwłaszcza typu ransomware. Widzimy przy tym duże zainteresowanie usługami i oprogramowaniem, które umożliwiają współdzielenie danych, na przykład na potrzeby pracy zdalnej. Jednocześnie wśród klientów SOHO nie obserwujemy silnego trendu rezygnacji z rozwiązań lokalnych na rzecz chmury. Ten widać raczej u użytkowników domowych, którzy chętniej korzystają z dysków chmurowych. Jeżeli jednak chmura będzie coraz tańsza, można spodziewać się w większej skali odejścia od biurowych NAS-ów także w segmencie SOHO, choć nie przypuszczam, aby nastąpiło to prędko. Jeśli zaś koszt chmury pozostanie na podobnym poziomie jak obecnie, zapotrzebowanie na serwery sieciowe w SOHO powinno się utrzymać.
śnie decyzje zakupowe. Zauważamy również większe zainteresowanie technologią Mesh, która jest rozwiązaniem gwarantującym dużo większą swobodę w tworzeniu sieci domowej w porównaniu z zestawem router plus extender – zwraca uwagę Zdzisław Kaczyk, Head of Sales – Eastern Europe w Cudy Technology.
Ponadto popularne są rozwiązania wykorzystujące łączność komórkową LTE, modemy i routery z wbudowaną baterią, które sprawdzają się w pracy z dowolnego miejsca i w podróży.
– Nie można zapominać o rozwoju technologii chmurowej, która jest i w dalszym ciągu będzie bardzo ważnym elementem dla małych firm. Technologia chmurowa dla wielu przedsiębiorców będzie bezpośrednio związana z modernizacją dotychczasowej infrastruktury sieciowej, co przełoży się w sposób naturalny na coraz większe zainteresowanie tego typu technologiami w 2025 roku – zauważa Tomasz Leyko, Product Manager w Actionie.
Na koniec warto skonstatować, że użytkownikom w segmencie SOHO, zwłaszcza korzystającym z sieci w mieszkaniach nie większych niż 3-pokojowe, wystarczy obsługa dostawcy internetu lub zakup sprzętu w retailu czy etailu. Jednak klienci zamieszkujący domy jednorodzinne oraz firmy prowadzące małe biura częściej potrzebują profesjonalnego doradztwa i obsługi, aby zbudować sieć odpowiednią do ich potrzeb.
– Klienci indywidualni zamieszkujący domy jednorodzinne oraz ci z sektora małych biur coraz chętniej wybierają centralnie zarządzane systemy punktów dostępowych WiFi. Poszukują dostawców, którzy nie tylko sprzedadzą im urządzenia, ale również je wdrożą czy rozprowadzą niezbędne okablowanie strukturalne. A to świetny sposób na zwiększenie marży – podsumowuje Maciej Turski z TP-Linka. n
TP-Link jako jeden z pierwszych producentów wprowadził na rynek kompletne portfolio urządzeń w standardzie WiFi 7.
WiFi 7 (IEEE 802.11be) to nowy standard sieci bezprzewodowych, który działa w trzech pasmach (2,4/5/6 GHz). Zapewnia znacznie większą prędkość i wydajność niż poprzednia generacja. Odblokowuje pełny potencjał pasma 6 GHz, umożliwiając łączną przepustowość do 46 Gb/s, tzn. blisko 5-krotnie większą niż WiFi 6/6E (13-krotnie wobec WiFi 5), przy 4 razy mniejszym opóźnieniu i 5 razy większej pojemności sieci. Takie osiągi są możliwe dzięki dwukrotnemu poszerzeniu szerokości kanału do 320 MHz, co pozwala na więcej jednoczesnych transmisji. Umożliwiają ponadto: MLO (Multi-Link Operation), 4096-QAM, Multi R czy 16 × 16 MU-MIMO. To tylko przykłady licznych innowacji w WiFi 7, z których wszystkie są obecne w nowej ofercie TP-Linka.
TP-Link jako jeden z pierwszych producentów wprowadził na rynek kompletne portfolio urządzeń w standardzie WiFi 7. Do modeli z najwyższej półki należy router Archer BE800, który zapewnia trzypasmowe połączenia z 12 strumieniami. Łączna prędkość transferu sięga 19 Gb/s (do 11 520 Mb/s w paśmie 6 GHz, do 5760 Mb/s w 5 GHz oraz do 1376 Mb/s w 2,4 GHz). Sprzęt umożliwia płynne korzystanie ze strumieniowania 4K/8K i rozgrywek AR/VR. Osiem anten i technologia Beamforming zapewniają duży zasięg sieci. Do BE800 można podłączyć nawet 100 urządzeń. Co ważne, nowy sprzęt firmy TP-Link współpracuje z routerami oraz wzmacniaczami sygnału EasyMesh,
co pozwala stworzyć płynnie działającą sieć WiFi Mesh.
Wielość interfejsów pozwala na dużą uniwersalność zastosowań. Router ma dwa porty 10G WAN/LAN – RJ45 oraz combo ethernet/światłowód, dostosowany do obsługi łącza miedzianego, jak też światłowodowego. Są też 4 porty 2,5 Gb/s i 1 port USB 3.0. Sprzęt wyróżnia przy tym ciekawy design obudowy z ekranem LED. Wśród topowych urządzeń jest system Mesh Deco BE85, które pozwala na zbudowanie wielogigabitowej sieci w całym domu. Oferuje również 19 Gb/s w trzech pasmach i podłączenie ponad 200 urządzeń. Zasięg zwiększa 8 wewnętrznych anten o wysokim zysku zamkniętych w stylowej obudowie w kształcie walca. Każdą jednostkę Deco BE85 wyposażono w dwa porty WAN/LAN 10 Gb/s – jeden RJ45 i jeden port combo RJ45/SFP+. Dwa porty 2,5 Gb/s oraz jeden USB 3.0 pozwalają na zbudowanie również domowej sieci kablowej o multigigabitowej przepustowości.
WiFi 6
W ofercie TP-Linka są też urządzenia WiFi 7 nie odbiegające ceną od urządzeń w standardzie WiFi 6. Należy do nich dwupasmowy router BE230 oferujący prędkości 3,6 Gb/s (do 2882 Mb/s w paśmie 5 GHz i do 688 Mb/s w paśmie 2,4 GHz). Również ten router oferuje wsparcie dla EasyMesh.
Za duży zasięg i stabilne połączenie odpowiadają 4 zewnętrzne anteny wspierane przez technologię Beamforming. Router ma dwa porty WAN/LAN 2,5 Gb/s, co spra-
wia, że pomimo niskiej ceny jest przystosowany do obsługi multigigabitowych łącz internetowych. Ma też USB 3.0, do którego można podłączyć dysk zewnętrzny. Nowością jest system Mesh BE25, działający z prędkością 3,6 Gb/s w dwóch pasmach, wyposażony w dwa porty 2,5G, co pozwala na stworzenie zarówno bezprzewodowej, jak i przewodowej sieci wielogigabitowej w całym domu, z możliwością podłączenia ponad 150 urządzeń. Sprawdza się nawet w wymagających zastosowaniach, takich jak granie w chmurze i oglądanie wideo 8K. W ten sposób cała rodzina może bez problemów z płynnością korzystać ze strumieniowania wideo i audio.
Przydatnym uzupełnieniem dla urządzeń jest Archer TBE400E, czyli adapter WiFi 7 Bluetooth 5.4 PCIe, gwarantujący maksymalną prędkość 2882 Mb/s (6 GHz) + 2882 Mb/s (5 GHz) + 688 Mb/s (2,4 GHz). Dwie anteny wzmacniają sygnał znacznie rozszerzając zasięg sieci.
Nowy sprzęt marki TP-Link jest kompatybilny ze starszymi generacjami urządzeń WiFi oraz wszystkimi dostawcami usług internetu. Urządzeniami można w łatwy sposób zarządzać, wykorzystując w tym celu smartfon oraz aplikację mobilną. Pakiet TP-Link HomeShield i szyfrowanie WPA3 w routerach zapewniają bezpieczeństwo sieci. Routery WiFi 7 obsługują również funkcję klienta i serwera VPN, dzięki czemu wyeliminowana została konieczność instalowania odpowiedniego oprogramowania na każdym urządzeniu.
Choć ostatnimi czasy Europa nie może pochwalić się jakimiś szczególnymi osiągnięciami na rynku nowych technologii, to wciąż nie brakuje tutaj zdolnych firm, które pracują nad interesującymi projektami.
Postępująca cyfryzacja, a także boom na sztuczną inteligencję, przyczyniają się do coraz większej konsumpcji energii. Według różnych szacunków do 2030 r. branża IT będzie odpowiadać za jedną piątą światowego zapotrzebowania na energię elektryczną. Według specjalistów ZeroPoint kluczowe znaczenie dla przełamania tego trendu będzie miała maksymalizacja wydajności (w przeliczeniu na jeden wat) w serwerach oraz inteligentnych urządzeniach. Ten szwedzki startup rozpoczął swoją działalność w 2016 r., a jego nazwa, jak tłumaczą założyciele, ma przywoływać skojarzenie z hasłem: „zero zbędnych informacji”. Firmę, która zatrudnia około 30 osób, tworzą osoby legitymujące się dużym doświadczeniem w branży półprzewodników.
Zdaniem Klasa Moreau, CEO ZeroPoint, wąskim gardłem w systemach informatycznych jest pamięć RAM, która rozwija się znacznie wolniej niż procesory. Odkąd Intel w 1971 r. wprowadził na rynek swój pierwszy mikroprocesor, wydajność obliczeniowa podwajała się niemal co dwa lata. Jednak silniki obliczeniowe są oddzielone od pamięci, dlatego też skalowanie wydajności stanowiło wieczne wyzwanie, a teraz staje się bardzo poważną przeszkodą. ZeroPoint ocenia, że procesory są bezczynne przez 50 proc. czasu, ponieważ muszą czekać na dostęp do pamięci.
Startup opracował nową technologię pozwalającą rozwikłać powyższy problem. Wprawdzie inni gracze również szukają rozwiązań, które umożliwiają pokonanie tej bariery, aczkowiek tym, co wyróżnia ZeroPoint, jest specyficzne podejście. Z jednej strony polega ono na przejrzyDOLINA
stym zarządzaniu pamięcią, zaś z drugiej na skupieniu się na technikach kompresji i zagęszczania, aby utrzymać bardzo wysoką kompresję przy niskim opóźnieniu, liczonym w nanosekundach.
– Nasza technologia pozwala zwiększyć pojemność pamięci od dwóch do czterech razy, zapewniając do 50 procent większą wydajność na wat. W rezultacie możemy zmniejszyć całkowity koszt posiadania serwerów w centrach danych nawet o 25 procent – mówi Klas Moreau.
Szacuje się, że centra danych w Szwecji zużywają około 3000 GWh rocznie. Oszczędności rzędu 25 proc. stanowią 750 GWh – odpowiednik energii elektrycznej dla 30 000–40 000 szwedzkich domów. Ponadto ZeroPoint chwali się, że ich autorskie rozwiązanie jest 1000 razy szybsze niż inne technologie kompresji na rynku, co pozwala firmie kompresować dane w całej hierarchii pamięci: „od podręcznej do masowej”. Startup prognozuje, że do 2029 r. jego przychody osiągną poziom 110 mln dol.
Co ważne, ZeroPoint zamierza zdefiniować standard branżowy, który mógłby odsprzedawać producentom półprzewodników. Taki model wykorzystują ARM i Qualcomm, generujące znaczną część swoich przychodów z opłat licencyjnych.
n Wojciech Urbanek, Stambuł
polskiego przedstawiciela – Saglabs oferuje system MooseFS. Ta warszawska firma, która powstała w 2005 r., kieruje się mottem: „spraw, aby dane użytkowników były bezpieczne i dostępne”.
– Od początku naszej działalności koncentrujemy się na opracowywaniu autorskiego oprogramowania do przechowywania danych. Nie zajmujemy się sprzętem sporadycznie, pomagamy klientom w specyficznych projektach, gdzie trzeba dostosować infrastrukturę do ich potrzeb – mówi Jakub Ratajczak, CEO oraz współzałożyciel MooseFS. Rozwiązanie jest klasycznym systemem software defined storage, który może pracować zarówno z Raspberry Pi, jak i jednostkami mainframe. Wprawdzie MooseFS powstał z myślą o pracy w środowisku lokalnym, aczkolwiek znajduje również zastosowanie wśród klientów zarządzających centrami danych rozproszonymi po różnych miastach, krajach, a czasami nawet kontynentach (w tym ostatnim przypadku pojawiają się czasami problemy związane
Rozproszone systemy plików cieszą się rosnącą popularnością wśród firm oraz instytucji przechowujących i przetwarzających wielkie zbiory danych. Na rynku istnieje szereg rozwiązań oferowanych zarówno w modelu open-source (Gluster, Lustre, Ceph), jak i komercyjnych (WekaIO, Panasas, Qumulo). Co ciekawe, w tym gronie mamy
z opóźnieniami). System przeznaczony jest do obsługi aplikacji o znaczeniu krytycznym, wymagających niezawodności, wysokiej dostępności i wydajności. MooseFS pozwala rozszerzyć pamięć masową do 16 eksabajtów, mieszcząc ponad 2 miliardy plików w jednym klastrze.
Rozwiązanie składa się z trzech podstawowych komponentów. Serwer metadanych zarządza lokalizacją plików, dostępem do nich i hierarchią przestrzeni nazw. Klienci komunikują się z nim, aby pobrać i zaktualizować układ i atrybuty pliku. Same dane są przesyłane bezpośrednio między klientami a serwerami danych (serwery chunk).
– Jednym z naszych atutów jest niski całkowity koszty posiadania. Po części wynika to z natury rozwiązania open source, ale również łatwości użytkowania, skalowalności i solidnego wsparcia ze strony dostawcy – tłumaczy Jakub Ratajczak.
MooseFS jest dostępny w dwóch wersjach. Pierwszą jest darmowa Community Edition, adresowana głównie na rynek SOHO. Jakub Ratajczak podkreśla, że jest to opcja korzystna zarówno dla użytkowników, jak i jego własnej firmy. Wielu płatnych użytkowników rozpoczynało swoją przygodę z MooseFS właśnie od wersji społecznościowej.
Natomiast propozycją dla wymagających klientów jest PRO. W tym przypadku klient płaci licencję za pojemność, a w zamian otrzymuje pełne wsparcie ze strony producenta, a także dodatkowe unikalne funkcjonalności, niedostępne w opcji darmowej.
– Nasze przychody pochodzą ze sprzedaży licencji. MooseFS znajduje zastosowanie w bardzo różnych branżach. Mamy uniwersalne podejście do klientów. Jesteśmy firmą samowystarczalną i nie poszukujemy inwestorów – podkreśla Jakub Ratajczak. Co dalej? Polska firma twardo stąpa po ziemi i nie stawia przed sobą jakiś górnolotnych celów. Jej plan to następne dwadzieścia lat nieprzerwanej pracy.
Jezioro danych dla AI
Szwedzki startup Hopsworks powstał w 2018 r., a jego założycielami są naukowcy z Królewskiego Sztokholmskiego Uniwersytetu Technologicznego i Szwedzkiego Instytutu Badawczego, a także byłych pracowników MySQL. Firma opracowała platformę AI Lakehouse, wspierającą tworzenie oraz obsługę aplikacji wsadowych i w czasie rzeczywistym z wykorzystaniem sztucznej inteligencji, a także aplikacji bazujących na dużych modelach językowych (LLM). Pod pojęciem „Data Lakehouse” kryje się nowoczesna architektura danych, która tworzy pojedynczą platformę łączącą duże repozytoria surowych danych w ich oryginalnej formie oraz hurtowni danych ustrukturyzowanych. Szczególnie aktywni w tym obszarze są stosunkowo młodzi dostawcy, tacy jak Snowflake czy Databricks.
– Data Lakehouse nie obsługuje danych w czasie rzeczywistym dla sztucznej inteligencji ani też wysokowydajnych klientów Pythona, potrzebnych programistom do szybszej
iteracji oraz usług infrastrukturalnych. Uważamy, że punktem wyjścia dla następnej generacji platform AI jest Lakehouse, które jest poszerzone o wsparcie dla budowania i obsługi wszystkich typów aplikacji AI: wsadowych, w czasie rzeczywistym i LLM AI systemów – przekonuje Jim Dowling, CEO Hopsworks. Warto dodać, że w tzw. międzyczasie na rynku pojawiły się platformy MLOps, służące do wdrażania i utrzymania modeli uczenia maszynowego w środowisku produkcyjnym. Zdaniem Jima Dowlinga tylko nieznacznie pomogły one w przyspieszeniu tworzenia większej liczby lepszych modeli. Według Gartnera średnio 48 proc. projektów AI trafia do produkcji, a czas od wykonania prototypu AI do jego finalnej realizacji zajmuje 8 miesięcy.
W czerwcu 2024 r. Hopsworks wprowadził wersję 4.0 swojej platformy, zoptymalizowaną pod kątem rozwoju systemów sztucznej inteligencji. Nowe funkcje obejmują między innymi obsługę danych w czasie rzeczywistym dla Retrieval-Augmented Generation (RAG) – techniki do dostarczenia modelom AI nowej wiedzy za pomocą rozszerzonych zapytań (promptów).
Powyższe podejście pozwala sztucznej inteligencji tworzyć treści na podstawie tego, co znajdzie w bazie danych lub zbiorze tekstów. Jedną z funkcji Hopsworks jest Query Service. Zapewnia klientom Pythona do 45 razy większą przepustowość podczas odczytu danych z Lakehouse w porównaniu z Databricks. Hopsworks oferowany jest w modelu open source oraz wersji enterprise – gwarantującej wsparcie z wysokim poziomem SLA.
Europejczycy mają talent do wyjątkowych przedsiębiorstw. Amerykanie potrafią je doskonale skalować.
– Pochodzę z Irlandii i jestem proeuropejski. Mam w pamięci historię MySQL, która mogła stać się wielomiliardową firmą europejską, ale jak wiadomo w 2010 roku kupił ją Oracle. Europejczycy mają talent do tworzenia wyjątkowych przedsiębiorstw, za to Stany Zjednoczone potrafią je doskonale skalować. Wystarczy spojrzeć na Databricks. Założycielem tej amerykańskiej firmy jest mój przyjaciel, obywatel Szwecji Ali Ghodsi – mówi Jim Dowling. Co ciekawe, współzałożycielami Snowflake’a są dwaj Francuzi i Polak – Marcin Żukowski.
Byłem dystrybutorem oprogramowania w sektorze usług zarządzanych, ale ostatnie kilka lat spędziłem na rozwoju biznesu w świecie vendorów. Dlatego czuję, że moim obowiązkiem jest pokazanie, na czym w praktyce polegają relacje między tymi dwoma grupami.
n
Rick Yates
Zacznę od próby odpowiedzi na pytanie: jaka jest idealna metoda na szybkie i aktywne wprowadzenie oprogramowania na globalny rynek MSP (usług zarządzanych)? No cóż, uruchomilibyśmy bezpośrednią sprzedaż i marketing. A jeśli mamy szczęście i nasza siedziba mieści się w Ameryce Północnej, to mamy dostęp do ogromnego i dojrzałego rynku MSP, ograniczoną liczbę stref czasowych, dobrze znaną kulturę zakupową, jak też cały rynek komunikujący się po angielsku i działający w ramach jednej waluty. A jednak z czasem rośnie potrzeba skalowania, co pociągnie za sobą konieczność zwrócenia uwagi na inne regiony geograficzne. Jeśli zaś przyjrzymy się innym rynkom, to nagle wszystko staje się dużo bardziej skomplikowane.
rodność oznacza, że każde państwo ma swoją bardzo odmienną kulturę zakupową i procesy. To samo w sobie wielkie wyzwanie i to zanim jeszcze pomyślimy o Ameryce Łacińskiej czy Azji i Pacyfiku.
W obszarze dystrybucji zachodzą obecnie fundamentalne zmiany.
W takiej sytuacji dostawcy stają przed dylematem: czy otworzyć bezpośrednie biuro sprzedaży i zatrudnić ludzi na miejscu (opcja nr 1), czy jednak nawiązać relacje z regionalnymi dystrybutorami i zatrudnić mały, zdalny zespół zarządzający kanałem sprzedaży (opcja nr 2)? A może zastosować hybrydę obu rozwiązań, czyli bezpośrednią sprzedaż w niektórych krajach, a w innych poprzez dystrybucję (opcja nr 3)?
ki dystrybucji, to często rozmawiam z ich szefami, którzy są rozczarowani lub niezadowoleni z wyników swoich dystrybutorów.
Spójrzmy chociażby na region Europy, Bliskiego Wschodu oraz Afryki (EMEA). Od razu zobaczymy, że setki dostawców MSP chcą wykroić swój kawałek tortu w sektorze, w którym jest tylko jakieś 40 kategorii produktów. EMEA to region złożony ze 116 krajów, gdzie mówi się 2,5 tysiącami różnych języków i płaci 25 głównymi walutami. Cała ta różno-
Z finansowego punktu widzenia opcja 2 (sprzedaż przez dystrybucję) może wydawać się solidnym wyborem. Daje ona możliwość przetestowania określonych rynków, jednocześnie budując świadomość marki i generując początkowe przychody. Jak jednak zaangażować dystrybutora i mieć pewność, że rzeczywiście będzie aktywnie sprzedawał nasz produkt? Mimo że wielu producentów odnosi ogromne sukcesy na rynku dzię-
Okazuje się bowiem, że na sukces współpracy z dystrybutorem wpływa ogromna liczba czynników i to z wieloma zmiennymi. Czasami czynniki te nie mają nic wspólnego z vendorem, a dystrybutor może faktycznie mieć jakieś trudności. Jednak w wielu przypadkach to producent musi starannie kontrolować to, jak ustawił relację handlową, jaki typ dystrybutora wybrał do współpracy oraz jaka jest dynamika sytuacji na całym rynku.
W obszarze dystrybucji zachodzą obecnie fundamentalne zmiany. To, co z punktu widzenia producentów działało bez zarzutu jeszcze dwa lata temu, może teraz wyglądać zupełnie inaczej. Przekonanie, że „dystrybucja to dystrybucja”, jest dalekie od prawdy, zwłaszcza w kontek-
ście usług zarządzanych i chmurowych. Na rynku można wyróżnić zazwyczaj trzy typy dystrybutorów: dystrybutorzy o szerokim asortymencie (broadlinerzy), dystrybutorzy z wartością dodaną (VAD – Value Added Distributors) i platformy typu marketplace. Obecnie możemy zaobserwować, jak wielu broadlinerów, którzy wyszli od tradycyjnego oferowania sprzętu, stara się odejść od klasycznego modelu sprzedaży (rocznej, wieczystej – poprzez resellerów). Teraz zmierzają w stronę modelu współpracy z marketplace’ami, w którym partnerzy mogą nabywać produkty chmurowe na zasadzie konsumpcji. Broadlinerzy oferują dostęp do rozległych sieci partnerskich, czasami obejmujących tysiące partnerów w ramach jednego kraju. Jednakże proces onboardingu
na marketplace’ach jest powolny i uciążliwy, z długimi procesami prawnymi oraz rozwojem API, co może potrwać latami. Często brakuje również konsekwentnego rozwoju już po uruchomieniu danej platformy.
Z drugiej strony mamy marketplace’y, które powstały w chmurze i rozwijają się znacznie szybciej, odnotowując gwałtowne wzrosty, zwłaszcza w ekosystemie Microsoftu. Jednak także one doświadczają problemów związanych z globalizacją i wyzwaniami dostarczania dystrybucji w tradycyjny sposób, zanim platforma technologiczna oraz pozycjonowanie geograficzne staną się dojrzałe.
Z kolei dystrybutorzy typu VAD to zazwyczaj firmy ograniczone do jednego kraju lub regionu, które mogą zapewnić bardzo skoncentrowane wsparcie i wywierać duży wpływ na lokalny kanał sprzedaży. Zwykle mamy do czynienia z długimi listami oczekujących na współpracę z nimi vendorów, więc mogą być selektywni co do tego, z kim chcą taką współpracę podjąć.
Kluczowi gracze na rynku działają również poprzez przejmowanie innych firm. Połączenie grupy dystrybutorów z różnych krajów, z własnymi portfelami produktów, stanowi jednak duże wyzwanie. Nagle dystrybutor przechodzi od bycia niezależnym VAD-em do bycia regionalnym oddziałem dużej organizacji, stając się częścią grupy z długoterminową strategią konsolidacji i wieloma produktami w każdej kategorii.
Wszystko to tworzy dynamiczną sytuację dla vendorów. Z dnia na dzień mogą oni stracić uprzywilejowaną relację, którą budowali przez lata, i znaleźć się w środowisku działającym na zasadzie „pay-to-play”. Muszą wtedy rywalizować o dostęp do bazy partnerów, a czas
na szkolenie i zaangażowanie personelu sprzedażowego jest przecież ograniczony.
Firmy takie jak ConnectWise, Kaseya i N-Able w zawrotnym tempie kontynuują akwizycje produktów lub rozwijają własne, zbliżając się coraz bardziej do koncepcji „one-stop-shop” (wszystkiego w jednym miejscu). Każdy z tych dostawców oferuje teraz znacznie bardziej zróżnicowaną ofertę w porównaniu z przeszłością, kiedy dominowały narzędzia PSA i RMM. W dodatku na rynku pojawili się nowi gracze – tacy jak NinjaOne, Atera, Halo PSA czy Acronis – oferujący interesujące rozwiązania w obszarze platform wieloproduktowych. Przeciętny dostawca MSP potrzebuje produktów w 35–50 kategoriach, więc możliwość uproszczenia i konsolidacji oferty pod jedną zaufaną marką ma w tym przypadku sens.
Co więcej, w miarę jak wchodzimy głębiej w model „as a service”, dostawcy wspomnianych platform są najlepiej przygotowani do wspierania MSP. Przykładowo, nowa oferta MDR od N-Able pozwala dostawcom MSP na sprzedaż określonej usługi pod własną marką i współpracę z dostawcą w celu dostarczenia wysokiej jakości rozwiązań bezpieczeństwa.
Proces onboardigu na marketplace’ach jest nie tylko powolny, ale też uciążliwy.
Wyobraźmy sobie, że ktoś przychodzi do nas i oferuje fantastyczną okazję dołączenia do nowoczesnego dostawcy oprogramowania. Możemy być podekscytowani perspektywą wysokich zarobków i opcji udziałów w firmie. Zwłaszcza, że kiedy dołączamy, firma dysponuje już pewnymi zasobami. Jeśli zajmujemy się sprzedażą, to mamy dostęp do mnóstwa leadów, inżynierów sprzedaży, zespołów ds. marketingu oraz operacji, które zajmują się fakturowaniem i pobieraniem płatności.
A co, jeżeli CEO przyjdzie do nas i stwierdzi, że ta praca będzie jedynie na prowizji – bez podstawowej
Poniżej prezentuję system rankingowy, który stworzyliśmy w mojej poprzedniej firmie dystrybucyjnej – Zedsphere. Miał on nam pomóc w zrozumieniu, na co przede wszystkim powinniśmy kierować swoją uwagę. Sprawdzał się świetnie i pozwalał nam identyfikować vendorów, z którymi mogliśmy osiągnąć największe sukcesy. Użycie „9 filarów” zapobiegało sytuacji, w której pracowaliśmy po trochu dla każdego dostawcy. Zamiast tego, pomagało nam robić dużo dla jednego lub dwóch strategicznych partnerów. Właśnie w ten sposób naszą specjalnością stało się pozyskiwanie dla vendorów ich pierwszych 250–500 dostawców usług zarządzanych na rynku EMEA. Działało to tak: każde zaznaczone pole z „9 filarów” zwiększało rangę dostawcy. Wynik 9 na 9 oznaczał, że będziemy się na nim koncentrować, natomiast wynik 1–2 na 9 skutkował raczej biernym lub co najwyżej reaktywnym podejściem.
marży
Dystrybutorzy muszą pokryć koszty marketingu, przedstawicieli handlowych, inżynierów sprzedaży, eventów, operacji, finansów oraz utrzymania biura. Dodatkowo powinni uwzględnić podatek i wahania kursów walut. W przestrzeni MSP dystrybutor powinien dążyć do osiągnięcia co najmniej 25 proc. marży brutto. Ponieważ dostawcy usług zarządzanych również potrzebują rabatu partnerskiego, oznacza to, że vendor powinien być gotów zaoferować 50-procentowy rabat dla dystrybutora. Jeśli produkt nie jest sprzedawany użytkownikowi końcowemu, rabat może być oczywiście zmniejszony – ale wciąż musi być znaczny. Przy czym nawet przy 25 proc. marży dystrybutorzy nie zaczynają zarabiać na produkcie, dopóki nie wygenerują przynajmniej 1-2 mln dol. rocznie przychodu. Do tego momentu większość gotówki jest pochłaniana przez koszty operacyjne. To szczególnie ważna kwestia do zrozumienia dla vendorów, którzy dopiero wchodzą na rynek.
marketingowe
przychodu
Świetnym sposobem na ułatwienie dystrybutorom przejścia przez kluczowy pułap 1–2 mln dol. jest chociażby przekazanie swoich bezpośrednich działań biznesowych na rzecz dystrybucji. Wielu vendorów niechętnie odnosi się do tego pomysłu, ponieważ oznacza to zakłócenie działania dotychczasowego kanału sprzedaży, wymaga dużej ilości pracy i może prowadzić do utraty znacznej części przychodów na rzecz dystrybutora. To jednak najszybsza droga do sukcesu, ponieważ producent staje się dla dystrybutora ważny niemal z dnia na dzień, co jest też pewnym sposobem na jego aktywizację.
Vendorzy powinni zapewniać przejrzysty i sprawiedliwy program MDF (Marketing Development Funds). Zazwyczaj „sprawiedliwość” oznacza dla nich, że dystrybutor początkowo inwestuje w marketing, aby udowodnić swoje możliwości, a dostawca zaangażuje się finansowo, gdy jest już pewny, że pieniądze będą dobrze wydane. Z drugiej strony przy wielu producentach na liście dystrybutora, którzy są gotowi wyłożyć pieniądze, ci którzy nie mogą lub nie chcą wnieść wkładu w postaci MDF, zostaną pominięci podczas eventów i przestaną być brani pod uwagę jeszcze przed rozpoczęciem wspólnego biznesu.
4Relacje z przedstawicielem producenta
To jest dość proste. Jeśli szef kanału partnerskiego danego producenta nie jest miły, sprzedawcy w dystrybucji będą mniej skłonni do sprzedaży jego produktu, co może zrujnować wzajemne relacje obu firm. Nie ma znaczenia, czy CEO dystrybutora uważa, że produkt jest świetny. To sprzedawcy i inżynierowie sprzedaży są kluczowi, bo jeśli będą źle traktowani, mają mnóstwo innych produktów, które mogą promować wśród klientów. W swoim czasie widziałem przedstawicieli dostawców, którzy: grozili moim pracownikom za brak sprzedaży; składali seksualne propozycje kobietom z mojego zespołu; zabierali moich pracowników na imprezy i oferowali im kokainę; chwalili się, ile zarabiają; proponowali członkom mojego zespołu łapówki w zamian za wprowadzenie ich do partnerów; wyrażali szokujące i skrajne rasistowskie poglądy w grupie.
pensji, a w dodatku możemy zatrzymać tylko 15 proc. przychodu? Co wtedy byśmy pomyśleli? W tym momencie zapali nam się czerwona lampka, ale to nie koniec wyzwań. Musimy bowiem samodzielnie zbierać płatności, a także ponosić ryzyko kredytowe, jeśli klienci nie zapłacą. Co więcej, jeśli sprzedajemy w Europie, a dostawca jest ze Stanów Zjednoczonych, musimy być gotowi na to, aby ponieść straty, które są związane z wahaniami kursów walut.
Musimy również samodzielnie starać się o leady, a także prawdopodobnie konkurować w tym samym regionie z vendo-
rem, który zatrudnił handlowców, aby dać klientom „dodatkowe opcje”. Tyle tylko, że najprawdopodobniej nie powie nam o tym, dopóki nie odkryjemy tego sami (bo nie uznał tego za istotne). Co gorsza, najczęściej będzie sprzedawać po niższej cenie.
Dodatkowo musimy zatrudnić własnych inżynierów sprzedaży i uzyskać dla nich certyfikaty na produkt. Co prawda za 15 proc. przychodu, który otrzymamy, vendor zapewni nam trochę wstępnego szkolenia, ale po miesiącu już jesteśmy zdani na siebie. Jeśli zaś chodzi o marketing, będziemy musieli po-
kryć jego koszty samodzielnie przez co najmniej rok – żeby vendor ocenił, jak nam idzie. Potem, o ile będziemy mieli szczęście, będzie współfinansował 50 proc. naszych inicjatyw marketingowych, ażeby pomóc nam w sprzedaży produktu.
Rzecz jasna, musimy rozwijać się powyżej oczekiwań i robić duże wrażenie. Tymczasem pozyskanie dla producenta 100 nowych partnerów w pierwszym roku będzie oznaczać dla nas przerobienie w tym czasie około 800 kwalifikowanych leadów sprzedażowych. A wszystko to bez prawa do marki, bez kontroli nad
5Przychodzące leady
To operacyjnie skomplikowany proces, ale jeśli uda się go dobrze zrealizować – może być sekretnym składnikiem sukcesu. W Zedsphere mieliśmy wewnętrzną umowę SLA i zawsze staraliśmy się dotrzymać zawartych w niej warunków. Polegało to na tym, aby mieć wyższy wskaźnik konwersji z leada na zamknięcie transakcji niż sam vendor. Zawsze uważałem, że jeśli vendor zobaczy, że jesteśmy absolutnymi ekspertami w pozyskiwaniu klientów i finalizowaniu transakcji, zawsze będzie nam ufał przy kolejnych leadach, wysyłał nam ich więcej i polecał nas swoim znajomym. Zapewniliśmy sobie, że leady przychodzące od dostawcy były kierowane bezpośrednio do nas – według umowy mieliśmy odebrać telefon i skontaktować się z potencjalnym klientem w ciągu dwóch minut. Kiedy lead wpadał, cały zespół był powiadamiany i wszyscy krzyczeli „LEAD IN”. Następnie pierwsza dostępna osoba odbierała telefon i zazwyczaj potencjalny klient (ku swojemu zdziwieniu) wciąż jeszcze był na stronie produktu, gdy do niego dzwoniliśmy. Z punktu widzenia vendora dostarczanie dobrych leadów dystrybutorowi jest kluczowe dla relacji – utrzymuje zainteresowanie produktem vendora i aktywną jego sprzedaż. W rezultacie daje mu powód, by nieustannie szkolić i angażować dystrybutora. Jednakże jest jeden haczyk. Producent musi być pewien, że dystrybutor traktuje jego leady z szacunkiem. Po czterech latach pracy po stronie vendora muszę przyznać, że byłem rozczarowany tym, jak niektórzy dystrybutorzy traktowali przekazywane im świetne okazje. Niestety, wielu dostawców ma złe doświadczenia z jednym czy dwoma dystrybutorami, co przekłada się na brak zaufania do dystrybucji w kwestii leadów. Z wielką szkodą dla wszystkich zaangażowanych.
6Potencjał produktu
Poziom popytu (rzeczywistego lub potencjalnego) na produkt danej marki będzie miał ogromny wpływ na to, jak pozytywnie dystrybutor oceni z nim współpracę. Dystrybutor może być tak zafascynowany produktem, że będzie gotów włożyć cały swój wysiłek przy minimalnym wsparciu ze strony dostawcy. Jednak jeśli produkt jest przeciętny i należy do „nasyconej” kategorii, producent nie powinien oczekiwać, że dystrybutor będzie czynił cuda bez spełnionych przynajmniej 5 lub 6 z „9 filarów”.
7Poparcie ze strony kadry zarządzającej
Dystrybutor musi mieć pewność, że strategia dystrybucji danego vendora jest wspierana na poziomie jego zarządu oraz że jest przewidziana na czas dłuższy. Jeśli producent pozwoli dystrybutorowi zdobyć dla niego pierwszych 300 usługodawców MSP, a następnie otworzy biuro sprzedaży bezpośredniej w regionie, to dystrybutor nie zaangażuje się w pełni. Wielu dystrybutorów znalazło się nie raz w takiej sytuacji (w tym ja). Ma to ogromny wpływ na biznes i może zrujnować lata pracy.
Producent powinien dać swojemu dystrybutorowi szansę na zdobycie wyłączności w danym regionie. Wielu dostawców uważa, że sensowne jest podpisanie umów z jak największą liczbą dystrybutorów i sprawienie, by ze sobą rywalizowali. Czasem, w przypadku produktów o ogromnym wolumenie sprzedaży i bardzo wysokim popycie, może to się sprawdzić. Jednak częściej doprowadzi do sytuacji, w której vendor jest nadmiernie rozdystrybuowany. To sprawia, że dystrybutorzy spędzają więcej czasu na próbach przejęcia klientów od siebie nawzajem, niż na pozyskiwaniu nowych.
przekazem oraz bez zaangażowania w decyzje dotyczące długoterminowej strategii biznesu.
Ostatecznie, jeśli nie spełnimy oczekiwań, a nawet jeśli uda nam się je spełnić, tylko że zmieni się CRO (Chief Revenue Officer), producent może po cichu z nas zrezygnować i znaleźć sobie kogoś innego. Zostawi nas nieświadomych nowej konkurencji, dopóki nie natkniemy się przypadkiem na komunikat prasowy na ten temat.
Podjęlibyśmy się takiego ryzyka? Najprawdopodobniej nie. Dystrybutorzy natomiast robią to wszystko z wyboru.
W dodatku im dystrybutor odnosi większe sukcesy we współpracy z vendorem, tym większym ryzykiem jest obciążony, ponieważ jedna zmiana w strategii go-to-market albo zły szef kanału sprzedaży mogą mieć fundamentalny wpływ na biznes.
Kiedy vendorzy będą rozmawiać z dystrybutorami, mając wszystko powyższe na uwadze, zaczną wreszcie rozumieć, jak dystrybutor może się zachowywać w miarę rozwoju wzajemnych relacji. Apeluję do rosnącej liczby nowych vendorów na rynku o zdecydowane wzięcie tego pod uwagę.
oraz wsparcie
Dobrze, żeby producent traktował zespół dystrybutora jak osoby, które faktycznie zatrudnił. Gdyby je rzeczywiście zatrudnił, chciałby zapewnić im odpowiednie szkolenie i wsparcie, a także – co najważniejsze – dostęp do menedżerów i zrozumienie strategii firmy. Taka sytuacja jest trudna do osiągnięcia, ponieważ wprawdzie każdy producent chciałby mieć bezpośredni kontakt z pracownikami dystrybutora, ale nie zawsze jest to możliwe. Channel Managerowie, którzy pragną regularnych „rozmów kontrolnych” z dystrybucją, ale nie zapewniają jej faktycznego programu korzyści, mogą nagle odkryć, że są trzymani na dystans.
Rick Yates jest założycielem MSPX, firmy doradczej, pomagającej firmom IT w opracowywaniu i wdrażaniu strategii rynkowych w segmencie SaaS oraz usług zarządzanych.
Schładzanie chińskiej gospodarki odnosi wyraźne skutki – pozytywne dla Chin.
Po tym, jak Donald Trump pomógł Władymirowi Putinowi w zbliżeniu Chin z Rosją, teraz ten trend zaczyna się odwracać. Firmy zachodnie ponownie przenoszą produkcję do Chin, w tym szwajcarskie ABB, które likwiduje fabrykę w Polsce na rzecz Chin właśnie. Elon Musk otwiera kolejną mega fabrykę w Państwie Środka, tym razem w celu produkcji banków energii. Był jednak moment, w którym wydawało się, że tzw. decoupling mógł zaszkodzić interesom Pekinu. Dzieje się jednak odwrotnie.
Firmę w Chinach prowadzę od 2015 r. (od 2012 w Hongkongu) i obserwuję interesujący proces. Przed pandemią i przed Donaldem Trumpem produkcja w Państwie Środka stawała się coraz trudniejsza i mniej opłacalna. Wynikało to nie z samych kosztów produkcji towarów (bo one wciąż były niskie), ale zjawiska, które było efektem połączenia arogancji chińskich szefów fabryk z nadal istniejącym brakiem kreatywności w rozwiązywaniu problemów technicznych i narastającym brakiem dbałości o jakość. Dość przypomnieć, że fabryki mogły przebierać w klientach. Stawiały przy tym coraz wyższe wymagania, np. płatności 100 proc. z góry, długich terminów realizacji, braku przesadnej dbałości o jakość (czasami w ogóle produkt brany był chyba ze śmietnika).
W ten sposób Chiny stawały się mniej konkurencyjne wobec Indii i Afryki, gdzie standardy w ogóle były, są (i będą) zupełnie poniżej dna. Można powiedzieć, że zagrażała Chinom klęska dobrobytu indywidualnego, a taki – jak się okazuje – bywa szkodliwy. I piszę to bez żadnej ironii. W planach zarysowanych jeszcze 40 lat temu przez Deng Xiaopinga, czytamy, że kapitalizm jest w porządku i w ogóle zgodny z komunizmem… Pod takim wszak warunkiem, że będzie wprowadzony na pewien czas, a później tak uzyskane bogactwo zostanie wykorzystane do zapewnienia umiarkowanego (!) dobrobytu. Właśnie… umiarkowanego i powszechnego. Bo duży dobrobyt raczej nie będzie powszechny i osłabia gospodarkę, czyniąc ją mniej kon-
kurencyjną i wrażliwą na katastrofy, jak pandemia.
Do tego wszystkiego dołączył Donald Trump, który pchnął Chiny w objęcia Władymira Putina. A najważniejszy człowiek na Kremlu odwrócił dokładnie to, co wywalczył Henry Kissinger w czasach zimnej wojny, gdy to Biały Dom odciągnął Chiny od Związku Radzieckiego. Teraz Władimir Putin przeprowadził akcję dokładnie według tego samego wzoru, ale odwrotnie – odsuwa Chiny od Stanów Zjednoczonych przy radosnym poklasku zachodnich społeczności. Co ciekawe, społeczność zachodnia została do tego stopnia zmanipulowana, że największym zagrożeniem stały się nagle szpiegujące chińskie pralki i lodówki, a nie rosyjskie zamiary powrotu do pozycji imperium sowieckiego. Czy naprawdę Polacy powinni bardziej bać się chińskiego powerbanku niż rosyjskich rakiet w obwodzie królewieckim skierowanych na Warszawę? Wrócę jednak do głównego wątku. Do wymienionych dwóch czynników, które schłodziły chińską gospodarkę, czyli do putinowskiego decouplingu i pandemii dochodzą jeszcze skutki paniki chińskich posiadaczy środków pieniężnych ulokowanych w bankach. Obywatele Chin widzą, że wielkie firmy upadają (np. Evergrande Group), a ludzie nawet w Shenzhen nie dostają pensji miesiącami albo są one mocno obcinane, przy czym fabryki pracują na pół gwizdka (np. trzy dni w tygodniu), zaś pracownicy są zwalniani nawet w takich branżach, jak produkcja biżuterii (bo złoto kupowane jest teraz w sztabkach). Słowem, kryzys jest poważny, a więc można się domyśleć, że banki mogą upaść.
nie (znienacka) wymogu wpłacenia do banku kapitału zakładowego zadeklarowanego przy uruchamianiu firmy, co nigdy wcześniej nie było egzekwowane. Więc nagle tysiące drobnych firm musi wpłacić na rachunek po kilka milionów RMB i nikt nie wie, czy będzie można te pieniądze potem łatwo wydostać. Te trzy czynniki spowodowały, że przedsiębiorczość chińska zjechała do parteru i słabo przędzie. Nie chcę tu wypowiadać się o chińskiej gospodarce jako całości, bo może ta przedsiębiorczość i finanse nie są specjalnie ważne w rachunku makroekonomicznym. Efektem ubocznym albo celowym opisanej sytuacji jest jednak przywrócenie atrakcyjności Chin jako producenta rzeczy wszelkich. Znowu można produkować tanio, jak to było przed pandemią. Dlatego zachodnie firmy znowu przenoszą produkcję z krajów europejskich i USA. Spotykam na przykład wielu Amerykanów i Niemców w marketach elektronicznych i generalnie, wcześniej nigdy nie widziałem aż tylu obcokrajowców w elektronicznej dzielnicy Huaqiangbei. Wyraźnie ma tu miejsce akcja pod hasłem „Wielki Powrót”.
I tu dochodzimy do samonakręcającego się kryzysu finansowego i próby ratowania sytuacji przez różnego rodzaju interwencje państwowe. Chociażby przez wprowadzanie na rachunkach osobistych dziennych limitów na przelewy, co oczywiście jeszcze bardziej nakręca panikę. Albo wprowadze-
Arnold Adamczyk
Autor od 2012 roku prowadzi działalność w Chinach i Hong Kongu w zakresie
VR/AR/MR. Zajmuje się produkcją sprzętu i oprogramowania Mixed Reality na potrzeby szkoleń w zastosowaniach specjalistycznych.
Prawdopodobnie już niebawem w życie wejdą przepisy, dzięki którym coraz więcej obywateli
Chin, zamiast stać godzinami w korkach ulicznych, będzie mogło dotrzeć do pracy i szkoły w kilkanaście minut.
Na tegorocznych targach CES w Las Vegas na początku roku mówiono o wielkich ambicjach chińskiego producenta pojazdów elektrycznych Xpeng. Firma ta zaprezentowała w Stanach Zjednoczonych elektryczny pojazd pionowego startu i lądowania (eVTOL), czyli latający samochód. Konkurencja uznała propozycję Xpeng za żart. I choć rzeczywiście nie wiadomo jeszcze, jakie będą losy tego konkretnego pojazdu, to latające samochody robią prawdziwą furorę w chińskiej cyberprzestrzeni, nawet jeśli przez ograniczenia w przepisach nie można z nich korzystać na co dzień.
Konkurencja twierdzi, że Xpeng posuwa się za daleko, bo nie ma jeszcze pełnych przepisów dotyczących certyfikowania i użytkowania pojazdów eVTOL. A w przypadku samochodu z możliwością latania sytuacja robi się podwójnie złożona. Auto takie musi uzyskać akceptację regulatorów pojazdów w ruchu drogowym i ruchu powietrznym. To się zwyczajnie może formalnie nie udać. Tego problemu nie ma jednak w przypadku urządzeń po prostu latających. Te są objęte nadzorem administracji ruchu powietrznego. I sukcesywnie uzyskują odpowiednie certyfikacje i dopuszczenia do eksploatacji. Wygląda na to, że wielu chińskich producentów upatruje w eVTOL’ach nową niszę rynkową. Notowany na giełdzie Nasdaq Ehang, producent autonomicznych
pojazdów powietrznych z siedzibą w Guangzhou, otrzymał na początku kwietnia zezwolenie na masową produkcję swoich latających pojazdów.
Firma ta już w marcu rozpoczęła sprzedaż swojej powietrznej taksówki autonomicznej na chińskiej platformie e-commerce Taobao. W cenie 2,39 mln juanów, czyli około 1,3 mln zł. Kilka dni po premierze na Taobao Ehang namówił gwiazdę sprzedaży livestreamingowej, Luo Yonghao, do sprzedaży pasażerskich dronów tej marki. Podczas transmisji wieczornej Luo sprzedał jedną powietrzną taksówkę Ehang za 1,99 mln juanów (bo w Chinach można kupić prawie wszystko po okazyjnej cenie podczas sesji livestreamingu), a także zebrał 12 zamówień w przedsprzedaży, z depozytem w wysokości 39 990 juanów (ok. 22,4 tys. zł) za każdy pojazd.
Konkurencja uznała
propozycję
Xpeng za żart.
Najnowsze badania pokazują, że Chiny odpowiadają za 50 proc. wszystkich modeli eVTOL na świecie. To znacznie więcej niż 18 proc. modeli ze Stanów Zjednoczonych i 8 proc. z Niemiec. Tę znaczącą przewagę można przypisać chińskim zaawansowanym technologiom związanym z pojazdami elektrycznymi, szczególnie w dziedzinie akumulatorów.
W przypadku latających samochodów akumulatory o wysokiej gęstości energii – ponad 400 watogodzin na kilogram – są uważane za niezbędne. Chiń-
scy producenci akumulatorów, tacy jak światowy lider CATL, pracują nad rozwiązaniami akumulatorowymi specjalnie dla pojazdów eVTOL, co daje chińskim producentom tych pojazdów przewagę nad zagraniczną konkurencją. Podobnie, jak wsparcie ze strony lokalnych rządów (na przykład Kantonu i Shenzhen), dzięki czemu chińscy producenci pojazdów, tacy jak Xpeng, Ehang, Guangzhou Automobile Group czy Geely, z powodzeniem ścigają się, aby zdobyć jak największy udział w rozwijającym się rynku globalnym eVTOL.
W samych Chinach nadal istnieją obiektywne przeszkody, by eVTOL stały się pojazdami powszechnie używanymi. Wciąż mało jest wyznaczonych punktów startu oraz lądowania, wciąż brakuje też przepisów dotyczących kierujących pojazdami eVTOL. Jednak prawdopodobnie wejdą one w życie już niebawem. Nowa branża czeka na nie, czekają też chętni, by, zamiast stać godzinami w korkach, dotrzeć do pracy i szkoły w kilkanaście minut.
Zbudowany przez waszą firmę autonomiczny minibus odbył już jazdy testowe w kilku polskich miastach. Auto porusza się samodzielnie, ale w razie potrzeby znajdujący się na pokładzie operator może przejąć kontrolę. Jak wygląda zaplecze teleinformatyczne do obsługi takiego pojazdu?
Łukasz Wójcik Musimy mówić o dwóch generacjach pojazdu. Pojazdy pierwszej generacji są już wyprodukowane i obecnie testowane w różnych miastach w Polsce. Przy czym całe przetwarzanie danych odbywa się na pokładzie, bo wszystkie potrzebne sensory i komputery są w pojeździe. Ta wersja nie potrzebuje dostępu do zewnętrznego środowiska ICT – za wyjątkiem konieczności ściągania poprawek do wskazań GPS w celu określania pozycji busa z dokładnością do kilku centymetrów. Do tego służy router i łącze LTE. Druga, planowana obecnie przez nas wersja, będzie wyróżniała się brakiem operatora na pokładzie. W tym przypadku pracę wielu pojazdów będzie nadzorował operator zdalny, w centrum zarządzania. To będzie oznaczać konieczność przesyłania wielu danych, w tym prędkości pojazdu, stanu ba-
„Na rozwój transportu autonomicznego patrzymy w sposób kompleksowy, a więc nie tylko przez pryzmat pojedynczego pojazdu. A jako że oprogramowanie musi być przewidywalne, testujemy nasze systemy na wielu poziomach. Obecnie w module autonomicznych decyzji nie stosujemy sztucznej inteligencji, a korzystamy z tradycyjnych metod analitycznych. W planach mamy jednak również testy innych rozwiązań” – mówi Łukasz Wójcik, CTO w gliwickiej firmie Blees.
terii, informacji o korkach. Dane będą przesyłane po sieci 4G bądź 5G, a może przez satelity. Będzie też potrzebna chmura obliczeniowa, bo będziemy mieli do czynienia z wielkimi ilościami danych. Uczenie maszynowe dotyczące zachowań autonomicznych, a także diagnostyki i predykcji awarii też będzie się odbywać w chmurze.
W jaki sposób będzie wyglądać zarządzanie ruchem pojazdów autonomicznych przez zdalnych operatorów? To będzie zarządzanie dyspozytorskie z wykorzystaniem specjalnego, przygotowywanego przez nas oprogramowania. Nadzór będzie polegał na wydawaniu poleceń, dokąd pojazd ma jechać, sprawdzaniu czy pasażerowie są bezpieczni, monitorowaniu działania systemów sterowania pojazdem, odblokowaniu pojazdu, gdy utknie w jakimś punkcie i tym podobne. Przewidujemy, że jedna osoba będzie sprawowała nadzór nawet nad dziesięcioma pojazdami. Chcemy dopasować nasze rozwiązanie do potrzeb użytkownika w danym miejscu. Będziemy tworzyć pierwsze wizje systemu, pierwsze przymiarki do niego i sprawdzać z operatorami transportu w poszczegól-
nych miastach, czy takie rozwiązanie im odpowiada. Chcemy w ten sposób stworzyć idealne centrum zarządzania flotą aut autonomicznych, tak żeby jeździły płynnie i bezpiecznie.
Czyli pojazd autonomiczny będzie w tym układzie częścią szerszego systemu transportowego?
Tak, patrzymy na problem transportu autonomicznego całościowo, kompleksowo, podczas gdy inni zazwyczaj patrzą wybiórczo – tylko na pojazd. W swoich rozwiązaniach chcemy uwzględnić różne potrzeby wielu grup społecznych. Weźmy na przykład pasażerów, którzy mogą mieć różne pytania. W tradycyjnym autobusie jest kierowca, którego w razie potrzeby można o coś zapytać. W naszym docelowym pojeździe autonomicznym nie będzie kierowcy. Nie będzie już nawet operatora, jak w obecnej wersji. Z drugiej strony są przedsiębiorstwa zajmujące się organizacją transportu publicznego, które muszą rozwiązać kwestię planowania tras, sprzątania, obsługi serwisowej takich pojazdów… Chcemy, żeby te wszystkie zagadnienia były uwzględnione w naszym oprogra-
mowaniu. Być może będzie potrzeba dopasowania jego poszczególnych wersji do potrzeb konkretnego operatora transportu. Miasta już przecież mają jakąś flotę pojazdów, mają swoje dotychczas wdrożone systemy informatyczne, mają własne rozkłady jazdy. Trzeba będzie to wszystko zintegrować, być może również połączyć ich systemy z naszym rozwiązaniem. Na początek prawdopodobnie będziemy mieli do czynienia z hybrydowym modelem transportu, a więc miksu tradycyjnych pojazdów z kierowcą i autonomicznych. Rodzi to oczywiście wiele wyzwań w zakresie oprogramowania, z którymi trzeba będzie sobie poradzić.
A jak wygląda kwestia odpowiedzialności za działania wykonywane przez pojazd autonomiczny? Często pojawia się pytanie, w jakim stopniu odpowiedzialnością za spowodowanie kolizji można obarczyć wykorzystywany system informatyczny albo jego twórców?
Kwestia odpowiedzialności jest obecnie bardzo skomplikowana, niemniej przyjmuje się, że producent pojazdu będzie odpowiadał za działanie pojazdów, o ile będą eksploatowane zgodnie z zaleceniami. Podstawowym założeniem przyjmowanym przy konstruowaniu pojazdów autonomicznych jest to, że system ma za wszelką cenę minimalizować ryzyko. Musi przewidywać możliwe zachowania innych uczestników ruchu oraz unikać kolizji. Nie ma mowy o tym, by system sam decydował i wybierał w kogo ma uderzyć, jak to się często przedstawia w mediach. Po to na pojeździe montowanych jest tak wiele sensorów, żeby w każdych warunkach pojazd miał do-
stateczną ilość potrzebnych informacji do bezpiecznych reakcji, nawet przy złej pogodzie, czy w innych warunkach ograniczonej widoczności.
Mówi się, że system autonomiczny może być bezpieczniejszy niż kierujący pojazdem człowiek. Na ile jest to faktycznie możliwe?
Statystyki mówią, że 90–92 procent wypadków powodują ludzie. Wiele przyczyn wypadków w przypadku samochodu autonomicznego zostaje wyeliminowanych. System w takim pojeździe nie wie, co to brawura czy zdenerwowanie, jak też nie spieszy się i porusza się w sposób zgodny z przepisami, a ponadto zachowuje się przewidywalnie. Można nawet powiedzieć, że lepiej widzi, bo u człowieka wzrok w wielu przypadkach jest ograniczony, na przykład w przypadku TIR-ów, czy nawet zwykłych aut osobowych są tzw. martwe strefy widzenia. Dzięki odpowiedniemu zaprojektowaniu nasze pojazdy ich nie mają, a kamery i sensory są wszędzie dookoła i działają w różnych warunkach. Gdy na przykład kamery zostaną oślepione przez słońce, to wtedy nadal będą działać radary czy lasery. Autonomia może też dawać wiele innych korzyści związanych z samą organizacją ruchu, na przykład pojazdy autonomiczne będą płynnie ruszać spod świateł. Jeśliby ruch odbywał się w całości autonomicznie, to w ogóle na drogach nie byłyby potrzebne światła, bo sygnał do jazdy byłby przekazywany z systemu sterującego ruchem prosto do programu auta
albo pojazdy mogłyby same ustalać między sobą, kto teraz jedzie, kto następny, a kto czeka itd.
Całkowicie zagrożeń związanych z ruchem pojazdów autonomicznych nie da się chyba jednak wyeliminować. Jakie są najważniejsze, zidentyfikowane w tej chwili ryzyka? Pierwsze, jakie przychodzi na myśl, to zerwanie łączności pojazdu z otoczeniem….
Nie
ma mowy o tym, by system sam decydował i wybierał w kogo ma uderzyć.
Jak już mówiłem, całe przetwarzanie danych odbywa się obecnie w naszym przypadku w pojeździe. Takie rozwiązanie chcielibyśmy utrzymać również w kolejnych wersjach naszych busów. Ryzyko związane z brakiem łączności jest więc w tej sytuacji ograniczone. Główne decyzje w sprawie tego, jak jechać, będą podejmowane na pokładzie. Gdy pojazd nie będzie mógł się odnaleźć w otoczeniu, ma zjechać na pobocze i ostatecznie się zatrzymać. Komunikacja służy głównie do zbierania danych w celu zorientowania się „gdzie jestem”. Natomiast w przypadku, gdy będzie stały nadzór zdalny, a decyzje takie jak zmiana trasy będą podejmowane w centrum zarządzania, pojazd zatrzyma się tylko wtedy, gdy zabraknie istotnych informacji potrzebnych do dalszej jazdy lub wystąpi dłuższa przerwa w transmisji. W praktyce, przy krótkotrwałych problemach z łącznością, pojazd będzie kontynuował jazdę. Natomiast w przypadku dłuższej utraty komunikacji, pojazd zatrzyma się w bezpiecznym miejscu.
Jakie inne ryzyka mogą być związane z wykorzystaniem pojazdów autonomicznych?
Zbieramy doświadczenia z dotychczasowych przejazdów, zastanawiamy się też nad wieloma różnymi, potencjalnymi scenariuszami zagrożeń i awarii. Teoretycznie, tak jak i we wszystkich innych urządzeniach, każdy system może zawieść. Dlatego też z zasady stosujemy redundancję, żeby uniknąć sytuacji bez wyjścia – gdy jeden hamulec zawiedzie, to będzie działał drugi. Robimy tak na wzór rozwiązań stosowanych w lotnictwie – w samolotach są dwa silniki po to by, gdy jeden ulegnie awarii, jego funkcje mógł przejąć drugi. Dyskutujemy dużo i stosujemy najlepsze praktyki i wzorce, jak stworzyć system, który byłby niezawodny w różnych sytuacjach. Planujemy stworzyć rozbudowany system autodiagnostyki, aby większość awarii była wychwytywana zawczasu i automatycznie. A nasz pojazd może zostać zaprogramowany tak, by w momencie lżejszej awarii zawsze zjeżdżał do zajezdni i tam będzie dokonywana niezbędna naprawa.
A co z cyberbezpieczeństwem? Cyberbezpieczeństwo jest fundamentalnym elementem w projektowaniu i wdrażaniu autonomicznych minibusów. Naszym priorytetem jest zapewnienie, że wszystkie systemy są chronione przed potencjalnymi zagrożeniami.
Aby to osiągnąć, stosujemy zaawansowane technologie szyfrowania i wielowarstwowe zabezpieczenia, które minimalizują ryzyko nieautoryzowanego dostępu. Pracujemy również nad ciągłym doskonaleniem naszych protokołów bezpieczeństwa poprzez regularne testy penetracyjne i współpracę z ekspertami z dziedziny cyberbezpieczeństwa. Nieustannie monitorujemy również zmiany w regulacjach prawnych, aby nasze rozwiązania były zgodne z najnowszymi standardami bezpieczeństwa. Inspirujemy się doświadczeniami innych sektorów, takich jak lotnictwo i kolej, gdzie autonomia i bezpieczeństwo idą z sobą w parze od lat. Dzięki temu możemy implementować sprawdzone stra-
ŁUKASZ WÓJCIK
– CTO w firmie Blees. Doświadczony ekspert w dziedzinie prowadzenia projektów programistycznych. Pasjonat technologii, od lat zaangażowany w tworzenie rozwiązań wspierających poprawę jakości życia. Współpracował i tworzył m.in. aplikację monitorującą jakość powietrza, posiada również 10 lat doświadczenia w tworzeniu rozwiązań dla transportu publicznego, które funkcjonują w Australii, Wielkiej Brytanii, RPA czy Portugali. Od 2021 roku odpowiada za technologię w spółce Blees, gdzie wraz ze swoim zespołem tworzy pierwszy polski autonomiczny minibus Blees BB-1.
tegie, które zwiększają niezawodność i ochronę pojazdów.
Inspirujemy się doświadczeniami
innych sektorów, takich jak lotnictwo oraz kolej.
Na jakich danych są trenowane modele działające w wykorzystywanym przez was module autonomii? Mówi się, że duże znaczenie w przypadku transportu autonomicznego mają lokalne uwarunkowania, które powinny znaleźć odzwierciedlenie w użytych do trenowania modelach danych…. Obecnie w naszym autonomicznym minibusie nie korzystamy z modeli trenowanych na danych, lecz z algorytmów opracowanych bez użycia sieci neuronowych. Wybraliśmy to podejście, ponieważ dostępne na rynku rozwiązania analityczne okazały się najbardziej efektywne i przewidywalne. Nasze algorytmy są deterministyczne, co oznacza, że w określonych sytuacjach zawsze można oczekiwać przewidywalnej reakcji pojazdu. Decyzja ta była podyktowana przede wszystkim chęcią zapewnienia stabilności i niezawodności naszych systemów. Niemniej jednak, zauważamy, że rynek szybko się rozwija i pojawia się coraz więcej rozwiązań opartych na sztucznej inteligencji. Planujemy w przyszłości zintegrować te nowoczesne technologie, aby jeszcze bardziej poprawić funkcjonalność i bezpieczeństwo pojazdów. Obserwujemy zmiany i z zainteresowaniem śledzimy nowe osiągnięcia w dziedzinie sztucznej inteligencji, które mogą stać się podstawą kolejnych etapów rozwoju naszych produktów.
Z czym się będzie wiązało przejście z czwartego, dotychczas wykorzy-
stywanego w waszym busie poziomu autonomii na poziom piąty, w którym w pojeździe już nie ma w ogóle kierowcy czy operatora?
Czwarty poziom autonomii oznacza, że pojazd może poruszać się autonomicznie i samodzielnie radzić sobie w określonych warunkach. W praktyce oznacza to, że potrafi funkcjonować w zestawie zaplanowanych scenariuszy lub określonych warunkach operacyjnych. Na przykład, może poruszać się tylko po wcześniej zmapowanych terenach, w określonych warunkach pogodowych lub w wyznaczonym obszarze. Piąty poziom autonomii to natomiast zdolność pojazdu do obsługi każdego możliwego scenariusza w dowolnym miejscu na świecie, co jest celem producentów samochodów prywatnych. Nasze busy mają jednak jeździć na wyznaczonych trasach w konkretnym obszarze, co sprawia, że czwarty poziom autonomii jest dla nas w pełni wystarczający. Nasze wyzwania nie polegają na dążeniu do piątego poziomu, ale na ulepszaniu rozwiązań, aby zwiększyć zakres obsługiwanych scenariuszy na poziomie czwartym. Zamiast dotychczasowej prędkości 25 km/h, kolejna generacja naszego pojazdu będzie poruszać się z prędkością 50 km/h. To wymaga zwiększenia zasięgu sensorów, szybszego przetwarzania danych oraz bardziej zaawansowanego oprogramowania i sprzętu. W miejsce lokalnego operatora w każdym pojeździe wprowadzimy system zdalnego nadzoru, gdzie jeden operator będzie monitorować wiele pojazdów. Testy odbywają się na drogach prywatnych, ale planujemy, aby kolejny pojazd uzyskał homologację na poruszanie się po drogach publicznych.
Rozmawiał Andrzej Gontarz
Alarmujące dane z rynku skłaniają klientów do poszukiwania stabilnych, bezpiecznych partnerów technologicznych.
Sektor IT, mimo że często postrzegany jako dynamiczny i innowacyjny, pozostaje – podobnie jak inne branże – zależny od aktualnych warunków gospodarczych. A te są obecnie niesprzyjające – począwszy od wojen oraz ich geopolitycznych i finansowych skutków, przez nadchodzące wybory w krajach o najsilniejszych gospodarkach, aż po ogólne niepokoje społeczne. Wszystko to powoduje, że firmy bardzo konserwatywnie podchodzą do inwestycji w rodzaju tych niezbędnych, a tym samym dużo mniej uwagi poświęcają tym opcjonalnym. To z kolei wpływa na sektor IT, który do niedawna cieszył się rosnącym popytem, a teraz boryka się z utratą klientów i koniecznością zwolnień.
Taka sytuacja jest dla branży informatycznej spadkiem z wysokiego konia. W końcu pandemiczny boom na produkty cyfrowe zapewnił w ostatnich latach dynamiczny rozwój i solidną dawkę kapitału, jaki firmy były gotowe poświęcić na przeniesienie swoich usług do świata online. W tym samym czasie, okres rekordowo niskich stóp procentowych powodował łatwy dostęp do środków inwestycyjnych. Startupy zbierały rekordowe rundy, a tani kapitał inwestycyjny pozwalał fi rmom realizować ambitne, szeroko zakrojone plany inwestycyjne. Nadmierny optymizm i wiara w to, że sytuacja się utrzyma, sprawiły, że niektóre firmy, chcąc bazować na produktach cyfrowych, przeinwestowały, angażując się w projekty nie do utrzymania. Podobnie było w przypadku niektórych firm z sektora IT. Wiele z nich wpędziło się w tzw. overhiring, czyli zbyt optymistyczne i zbyt liczne zatrudnianie specjalistów od technologii.
Warto zauważyć, że sytuacja branży IT ma także konsekwencje dla firm korzystających z ich usług. Rynek IT w Polsce jest często mocno sfragmentaryzowany. Jak wynika z Raportu Fundacji Kronenberga 20 proc. podmiotów odpowiada za 80 proc. obrotów w branży. Pozostałe firmy często opierają swoją działalność na jednym lub dwóch głównych klientach. To oznacza, że ryzyko dla klientów współpracujących z takimi firmami jest znaczne – jeśli jeden z tych głównych zrezygnuje, może to prowadzić do rozpadu biznesu dostawcy, pozostawiając partnerów z niedokończonymi projektami lub produktami o niskiej jakości.
Stan branży ma wpływ na jej klientów.
Obserwujemy już pierwsze sygnały tego trendu, gdzie firmy, które zdecydowały się na podjęcie współpracy z mniejszymi podmiotami, doświadczają trudności finansowych, co prowadzi do opóźnień w dostawach i utraty jakości. Dla klientów jest to alarmująca sytuacja, która skłania ich do poszukiwania stabilnych, bezpiecznych partnerów technologicznych. Przede wszystkim takich którzy mogą zagwarantować ciągłość i jakość usług niezależnie od warunków rynkowych.
Tak więc wybór partnera technologicznego staje się kluczowym elementem strategii biznesowej. Przy wyborze należy kierować się nie tylko ceną usługi, ale przede wszystkim analizą finansową firmy, jej historią, stabilnością klientów oraz „track recordem” w relacjach biznesowych. Bezpieczny partner technologiczny to taki, który nie jest bezpośrednio narażony na zmienne warunki rynkowe, lecz skupia się na długoterminowych re-
lacjach z klientami i zapewnianiu wysokiej jakości usług. To nabiera znaczenia zwłaszcza, że firmowa infrastruktura IT jest coraz bardziej krytyczna.
Dla firm, które unikały nadmiernej ekspansji w okresie boomu, obecny czas może stanowić okazję do zabezpieczenia się poprzez budowanie solidnych relacji z jakościowymi partnerami oraz pozyskiwanie wybitnych specjalistów z większej puli kandydatów. Warto pamiętać, że mądry wybór partnera technologicznego może być decydujący dla sukcesu projektu i dalszego rozwoju firmy w niespokojnych warunkach panujących na rynku.
Tomasz Woźniak pełni funkcję CEO w Future Mind.
W tym roku zakończyliśmy pierwsze studia „No Code Developer” w Polsce.
Gdyby ktoś mi powiedział dwa lata temu, że uruchomię autorskie studia na Politechnice Warszawskiej, to bym popukał się w głowę. A tymczasem właśnie zakończyliśmy pierwsze studia „No Code Developer” w Polsce kształcące liderów transformacji cyfrowej. Dokładnie 24 osoby obroniły swój dyplom pokazując dojrzałe rozwiązania, które w wielu przypadkach były realnymi potrzebami firm, w których pracują. Część z tych rozwiązań została już nawet wdrożona. Towarzyszące temu moje emocje to wdzięczność, szczęście i duma zmieszane z niedowierzaniem, że to się naprawdę wydarzyło. Trzeba przy tym podkreślić, że studenci przyswoili całkiem pokaźny materiał. Począwszy od metod zarządzania projektami IT, modelowaniem i optymalizacją procesów biznesowych, poprzez naukę platform no-code do budowania aplikacji, wizualizacji, automatyzacji i integracji, aż po architekturę danych, bezpieczeństwa i facylitację zespołu w roli liderów innowacyjnych projektów. Najbardziej uszczęśliwił mnie fakt, że na tych konkretnych studiach udało się zebrać ludzi niezwykle ambitnych i proaktywnych
(każdy wykładowca bardzo podkreślał, że tak aktywna grupa to rzadkość i skarb). Co zaś najbardziej mnie zaskoczyło? Otóż to, że studenci zintegrowali się i nawiązali kontakt między sobą. I wiele osób żałowało, że studia już się skończyły. To tylko pokazuje, że to co miałem zaszczyt współtworzyć, to skarb.
Perfekcjonizm
to kierunek, a nie cel.
Czy będziemy iść za ciosem? Znacie mnie. Uwielbiam łączyć biznes z ideą. A w dzisiejszym świecie biznesowym to bardzo potrzebne. Więc z całą pewnością tak. Wiemy już, że druga edycja studiów zostanie uruchomiona, i to w ulepszonej formule. Ponadto we współpracy z Politechniką Warszawską mamy plan stworzyć przestrzeń dla Liderów Transformacji Cyfrowej, będących łącznikiem między światem IT i biznesu. Analitycy, PMI czy PMO, to przyszli liderzy transformacji. Te 24 osoby, które ukończyły pierwszą edycję studiów, w swoich firmach już są tak postrzegane (choć niestety nie przez działy IT…). Dzięki nim moje pomysły, ambicje i praca mają sens. Zostawiam coś po sobie na tym świecie.
A kontynuując podziękowania, wszystkich tu nie wymienię, ale na szczególne
wyróżnienie zasługuje dr Włodzimierz Dąbrowski, który mi zaufał i Krzysztof Marek, który otoczył mnie wsparciem, a studentów opieką. Uwielbiam pracować z takimi ludźmi. Pełen profesjonalizm i odpowiedzialność. I jeśli ktoś myśli, że uczelnie publiczne nie idą z duchem czasu, to projekty tych panów dowodzą, że wcale tak nie jest. Takich trzech jak ich dwóch, to nie ma ani jednego.
Na koniec: te studia są moim prywatnym zwycięstwem nad perfekcjonizmem. Zrozumiałem, że perfekcjonizm to kierunek, a nie cel. W przeciwnym wypadku, szczególnie w IT, można utknąć w procesie ciągłego „cyzelowania”, aby trafić w ruchomy cel.
Kłaniam się wykładowcom i gratuluję studentom.
Ciekawi mnie, czy w ciągu najbliższych lat narzędzia AI, drogie w kreacji i zarazem tanie w eksploatacji, nie wytną z rynku części dostawców – dobrych merytorycznie, atrakcyjnych pod względem stawek, ale niedysponujących odpowiednimi budżetami na technologię.
Ostatnio spędzam sporo czasu na projektach z zakresu AI. Co ciekawe, nawet nie tyle na kwestiach regulacyjnych (w kancelarii mamy do tego osobny zespół, poza tym ta praca w większości przed nami), ile na umowach i szeroko pojętej cywilistyce. Duża przyjemność, bo trzeba ponownie kombinować z umowami, gdyż nijak kodeksowe czy standardowe rzeczy do tego nie pasują. To jednak temat na osobny artykuł.
Dziś o refleksji, jaka mnie naszła, kiedy podglądałem wynagrodzenia za projekty AI. Pomijając początek „ery komputerów”, gdzie dostęp do maszyn liczących był kosztowny i trudny, od wielu lat podstawowe, niezbędne narzędzia były łatwo dostępne. Tutaj wielka zasługa chmury, która istotnie „zdemokratyzowała” dostęp do aplikacji. Jasne, są rzeczy tańsze i droższe, ale z reguły jest to adekwatne do rozmiaru biznesu. Jak ktoś serio potrzebuje Salesforce’a czy iManage’a, z reguły ma tak dużą firmę, że go na to stać. A jednocześnie Google czy Office 365 jest dostępny dla każdego.
I teraz wjeżdża AI. Powszechne narzędzia, jak Chat GPT, są dostępne w tym samym, chmurowo subskrypcyjnym modelu, ale mam przeczucie, że najistotniejszą korzyść przynoszą projekty dedykowane. I o ile sam software jest rozsąd-
nie wyceniony czy wręcz darmowy, ludzie nijak tani nie są. A tworzą oni rozwiązania, które wpływają bezpośrednio na rynek — na przykład AI do badania regulacyjnego. W ten sposób nawet niby proste sporządzenie ofert i referencji przez dobrze „nakarmione” narzędzia upraszcza, przyspiesza i czyni tańszym ten proces. A wszyscy wiemy, ile to potrafi kosztować i jaką pozwala zbudować przewagę konkurencyjną.
Do tej pory liczyły się głównie mózgi.
Do tej pory w mojej dziedzinie liczyły się głównie mózgi, a konieczne narzędzia były dostępne dla wszystkich. Wysoce specjalistyczne, które wnosiły faktyczną przewagę, były rzadkie. Zamieściłem kilka lat temu wpis na LinkledInie o tym, jak przegrałem przetarg w Londynie z kancelarią z Magic Circle, i to przegrałem ceną. Byłem przekonany, że mają tak sprawny system wspierający analizy prawne, że są w stanie oferować takie same usługi taniej, niż zdecydowanie tańsza kancelaria z Polski (przetarg nie był z gatunku, że opłacało się zrobić dumping). I po jakimś czasie faktycznie się okazało, że mieli
ten proces świetnie „onarzędziowany” i nie miałem żadnych szans. To był jednak wyjątek i specyficzne zlecenie.
Ciekawi mnie, czy w ciągu najbliższych lat tego typu narzędzia, drogie w kreacji i tanie w eksploatacji nie wytną z rynku części dostawców – dobrych merytorycznie, atrakcyjnych pod względem stawek, ale nie dysponujących budżetami na wyspecjalizowaną AI i w konsekwencji droższych projektowo. Ewentualnie wolniejszych, co może mieć jeszcze większe znaczenie. To wpis bez jakiegoś silnego przekonania, że tak będzie, ale zafascynowała mnie taka możliwość wstrząśnięcia naszym rynkiem.
W naszym kole naukowym przeszliśmy przez wykonanie koła łazika marsjańskiego, procedury zamówień w AGH oraz metodę pracy NASA. Czas najwyższy na rzeczy, które są związane z umiejętnościami miękkimi.
Zacznę od definicji umiejętności miękkich, zgodnie z którą są to zdolności interpersonalne i społeczne, takie jak komunikacja, empatia, praca zespołowa i zarządzanie czasem, umożliwiające efektywne współdziałanie z innymi ludźmi. W studenckim kole naukowym AGH Space Systems spotkałem się z każdą z wymienionych rzeczy. Poniżej chcę odnieść się przede wszystkim do komunikacji i empatii. Podczas projektowania łazika marsjańskiego kluczowy stał się wybór metod komunikacji pomiędzy członkami zespołu, w tym sposób wymiany informacji (cotygodniowe spotkania, prezentacje postępu realizacji projektu, wewnętrzne spotkania zespołów). Miało to absolutnie kluczowe znaczenie dla podziału zadań związanych z projektowaniem mechaniki oraz zbieraniem informacji od zespołu elektroniki (przykładowo w jaki sposób prowadzić kable w łaziku – elektronik potrzebuje mieć miejsce, aby poprowadzić przewody, a mechanik musi wiedzieć gdzie i po co zrobić otwór). Im częściej komuniko-
waliśmy się między sobą, tym łatwiej było wprowadzić modyfikacje w konstrukcji.
Celowo zwracam szczególną uwagę na powyższy, w gruncie rzeczy banalny aspekt, ponieważ wielokrotnie popełniłem błędy w komunikacji. Zakładałem, że wszystko jest ustalone, więc spokojnie pracuję nad swoją częścią, a później okazuje się, że trzeba ją od nowa projektować, ponieważ nie pozyskałem informacji od elektronika na temat tego, jak zamontować enkoder, więc mechanizm napędu jest do przeprojektowania i dwa tygodnie pracy idzie do kosza…
Studenci AGH zwycięzcami University Rover Challenge!
Jako grupa studentów, których połączyła wspólna pasja do realizacji projektów kosmicznych, musieliśmy polegać na wzajemnym zaufaniu, co wiązało się ze współodczuwaniem emocji u innych członków zespołu czy spojrzeniem na daną sytuację z ich punktu widzenia. W tym obszarze wielokrotnie, jako mechatronik, analizowałem spojrzenie na projekt łazika od strony elektroniki i programowania, aby dobrze zrozumieć swoją rolę mechanika. Potrzebowałem świadomości odnośnie
do tego, jakiej wiedzy i danych muszę dostarczyć pozostałym zespołom, aby projekt mógł się rozwijać (gdzie mogę zamontować elektronikę i ile ona może ważyć, żeby środek ciężkości konstrukcji był w odpowiednim miejscu).
Ponadto ważne było przeanalizowanie tego, co czuł lider sekcji oraz lider projektu. W ten sposób można go było odpowiednio wesprzeć i poniekąd obciążyć zadaniami, aby sprawy mogły rozwijać się do przodu.
Dzisiaj przede wszystkim ukłony kieruję w stronę AGH Space Systems za zdobycie I miejsca w najbardziej prestiżowym konkursie łazików marsjańskich University Rover Challenge 2024! To efekt wieloletniej ciężkiej pracy zespołowej i determinacji w osiągnięciu tego celu.
Andrzej Zakręcki jest Product Managerem w Alpha Powders.
Piotr Opulski, Head of Publishing w INANA Publishing, podzielił się następującą historyjką: „Jechałem taksówką. Moim kierowcą był Dzmitry, programista PHP, który uciekł z Białorusi, aby uniknąć więzienia za udział w protestach antyrządowych. Jest w Polsce od 3 lat. Przez 2 lata pracował zdalnie dla ukraińskiej firmy na poziomie mid. Kiedy stracił pracę zdalną okazało się, że bez znajomości angielskiego lub chociaż polskiego, nie będzie w stanie pracować w zawodzie. Teraz Dzmitry
Jakub Skałbania, CGO w Netwise, doszedł do ciekawych wniosków odnośnie do niedawnych swoich lektur: „Jakiś czas temu zacząłem, na początku z niechęcią, czytać poważne, znacznie bardziej akademickie książki. Z niechęcią, bo wydawało mi się, że ciągłe podawanie w nawiasach nazwisk innych autorów i lat mnie zmęczy. I po roku już wiem – żadnych więcej, chyba że dla jaj, >>Inspire greatness<<, >>Build great organization<< i innych bzdur w stylu >>Bądź empatycznym liderem<< albo >>Zjadaj żaby, bo zjedzą Ciebie<<. Zamiast tego: Springer, Routledge, Cambridge, Oxford University Press i ich opracowania. A najlepsze jest to, że wszystkie one mają dość słabe oceny na Amazonie, a można przeczytać dowolną z tych książek i być coachem biznesu z realną wiedzą na kolejne 5 lat – taką mają wartość. Polecam”.
Świat technologii i biznesu bez takiego Mentora.
do południa jeździ taksówką żeby nauczyć się polskiego, a resztę dnia spędza w galerii handlowej z laptopem, doszkalając się z programowania, DevOps i blockchainu. Rozmawialiśmy po polsku, dość swobodnie. Nie jestem w stanie jakkolwiek zweryfikować opowieści Dzmitra. Jedyne co wiem na pewno, to to, że mój kierowca był uprzejmy, sprawnie prze mieszczał się po mieście i pozwolił mi podać dalej swoją historię. Jeśli ktoś będzie miał ochotę dowiedzieć się więcej, to podam namiary”.
Jak napisał Bartosz Majewski, współwłaściciel Casbeg.com: „Kolega właśnie zauważył, że jest wpięty w konto do pewnego software’u firmy, w której pracował ostatnio 5 lat temu. To nie jest konto bankowe albo cokolwiek krytycznego, ale gdyby był rozeźlonym pracownikiem (albo głupkiem) to mógłby im zrobić kuku publicznie. Firma jest też dużym liderem swojej kategorii, więc kuku byłoby z tych głośniejszych. Kolega nie jest głupkiem ani rozeźlony, więc chciałby im pomóc – niestety, głupio mu napisać na info@, bo pewnie za to by kogoś zwolnili, a nikogo kto tam pracuje już po tylu latach nie zna. Więc pewnie nic z tym nie zrobi. Myślę, że znalazłyby się firmy, które zapłaciłyby 1 dol. od użytkownika za to, że co miesiąc losowe 5 proc. kont byłoby automatycznie wylogowywane. Dzięki temu wszystkie konta byłyby wylogowywane najpóźniej co 10–20 miesięcy. Jeśli komuś się chce – sprawdź sensowność tego pomysłu, zbadaj otoczenie konkurencyjne i jeśli okaże się to sensowne, to chętnie rozważę inwestycję”.
Paweł Jakubik, Technology and Consulting Sales Leader w EY, podzielił się przykrą informacją: „Otrzymałem właśnie bardzo smutną wiadomość – dzisiaj nad ranem odszedł od nas Profesor Piotr Płoszajski, niezwykły człowiek, bliski wielu z nas. Na prośbę małżonki śp. Profesora, Ziuty Płoszajskiej, przekazuję tę tragiczną informację społeczności LinkedIn. Piotr swoją wiedzą, którą chętnie się z nami dzielił, olbrzymią otwartością, ciekawością, mądrością i doświadczeniem ze światowych uniwersytetów wywarł ogromny wpływ na kariery i rozwój wielu osób. Trudno wyobrazić sobie świat technologii i biznesu bez takiego Mentora, nauczyciela i przyjaciela w jednej osobie. W imieniu swoim i wszystkich, którzy mieli przyjemność poznać Profesora, składam głębokie wyrazy współczucia jego bliskim”.
Piotr Brogowski, CEO w Orion Instruments Polska, zwraca uwagę, że „dotychczas iPhone’y kradziono dla części, ponieważ po zablokowaniu smartfona przez właściciela nie sposób było go uruchomić, następnie odsprzedać. Wraz z wprowadzeniem przez Apple’a systemu iOS 18 kradzieże iPhone’ów stały się zupełnie nieopłacalne, bowiem blokada aktywacji obejmuje najistotniejsze komponenty urządzenia oddzielnie. Nawet, jeśli jakaś zablokowana część zamienna trafi do nowego telefo-
nu, wymusi na systemie jednorazowe logowanie do konta przypisanego telefonowi-dawcy. Jeśli nie otrzyma wymaganego hasła, pozostanie nieaktywna. Rozszerzona funkcja blokady aktywacji sprawia, że z kontem Apple łączony jest nie tylko iPhone, ale też jego poszczególne części, takie jak bateria, aparat czy wyświetlacz. Blokada działa na podstawie ich indywidualnych numerów seryjnych. Funkcja ta będzie działała w iPhone’ach od modelu 12 wzwyż”.
Istotne trendy produktowe, technologiczne, biznesowe, w oparciu o dane pochodzące z renomowanych agencji analitycznych, organizacji branżowych i globalnych mediów, dotyczące głównie Europy i Polski.
i automatyzację
W nadchodzących miesiącach 30 proc. polskich MŚP planuje zwiększyć inwestycje w technologie cyfrowe, 35 proc. je ograniczy, kolejnych 35 proc. nie planuje zmian w tym zakresie – wynika z badania Polcomu i Computerworlda. Do wydatków na IT nie palą się zwłaszcza małe firmy. W sumie 43 proc. z nich ograniczyło w tym roku swoje inwestycje w porównaniu z ub.r. Ankietowani są natomiast zgodni co do priorytetów inwestycyjnych. Ponad 90 proc. przyznało, że największego doinwestowania wymaga obszar cyberbezpieczeństwa i ciągłości działania, podczas gdy 86 proc. pilnie potrzebuje dodatkowych środków na ochronę i backup danych, a 77 proc. na monitoring systemów i aplikacji. Natomiast na 2025 r. numerem 1 na liście planowanych inwestycji wskazywana jest automatyzacja produkcji. Ponadto małe firmy (do 150 osób) częściej chcą wydawać pieniądze na automatyzację produkcji i krytyczne systemy biznesowe (ERP, WMS, CRM), a średnie migrować infrastrukturę do chmury.
Europejski rynek usług informatycznych i biznesowych wzrósł nieznacznie w II kw. 2024 r. – zgodnie z raportem Information Services Group (ISG). EMEA ISG Index obejmuje komercyjne umowy outsourcingowe o rocznej wartości kontraktu (ACV) wynoszącej 5 mln dol. lub więcej. Pokazuje, że ACV dla połączonego rynku usług zarządzanych i chmurowych poprawił się o 1 proc.,
Rynek usług zarządzanych oraz as-a-service w II kw. 2024 r. w regionie EMEA
Wartość (mld dol.) Różnica rok do roku
Usługi zarządzane4-8% w tym:
IT3,37%
procesów biznesowych
Obszary technologiczne wymagające pilnych inwestycji w 2025 roku*
Automatyzacja produkcji (Przemysł 4.0/5.0)
Robotyzacja procesów biznesowych (RPA)
Krytyczne systemy biznesowe, np. ERP, WMS, CRM
Infrastruktura IT w chmurze (IaaS, PaaS) i aplikacje SaaS
Cyberbezpieczeństwo i ciągłość działania
Monitoring systemów i aplikacji
*Odsetek firm, które planują inwestycję w danym obszarze
do poziomu 7,7 mld dol. Oznacza to drugi najwyższy wskaźnik wartości w historii w II kwartale. Według ekspertów ISG, optymalizacja kosztów pozostaje głównym motorem popytu na usługi zarządzane, jednak podejmowanie decyzji dotyczących nowych inicjatyw jest nadal spowalniane przez niepewność makroekonomiczną i geopolityczną. W ramach usług zarządzanych outsourcing IT wzrósł o 7 proc., do wartości 3,3 mld dol., napędzany silnym wzrostem w zakresie dostarczanych w pakiecie usług infrastruktury oraz usług rozwoju i utrzymania aplikacji (ADM), co zrównoważyło spadki w zakresie usług tylko ADM oraz dla centrów danych. Tymczasem outsourcing procesów biznesowych (BPO) stopniał o 45 proc., przy czym wszystkie segmenty wykazały spadki, w szczególności związane z tzw. angażowaniem klientów i zarządzaniem obiektami. Najbardziej zwiększyła się natomiast wartość ACV w handlu detalicznym (o 71 proc. r/r), produkcji (50 proc.) oraz mediach i telekomunikacji (41 proc.).
Warto dodać, że wysoki wzrost w segmencie IaaS (o 22 proc.) sugeruje, że cykl optymalizacji kosztów chmury może się zakończyć, częściowo z powodu rosnącego zainteresowania generatywną AI. Tymczasem SaaS spadł o 2 proc., gdyż przedsiębiorstwa zmniejszyły wolumen licencji.
Dostawy monitorów dla graczy w II kw. br. osiągnęły poziom prawie 6,5 mln szt., co oznacza 35 proc. wzrostu rok do roku. To najlepszy wynik od 2016 r., a więc od czasu, gdy IDC zaczęło śledzić ten segment rynku. Według analityków na popyt wpłynęły promocje i „agresywni”, początkujący producenci, przez co był to piąty z rzędu kwartał na plusie. Są też sygnały, że powoli odbija rynek gamingowych pecetów. Sprzedaż komputerów dla graczy w II kw. 2024 r. zwiększyła się globalnie do 10,6 mln szt., o 2,4 proc. więcej niż przed rokiem. To pierwszy kwartał na plusie od ponad 2 lat. IDC prognozuje, że rynek PC i monitorów łącznie odnotuje wzrost w 2024 r. po spadkach sprzedaży w latach 2022 i 2023, a wolumeny osiągną 69,3 mln w 2024 r., czyli o 9 proc. więcej niż w 2023 r. Analitycy spodziewają się, że popyt na komputery odbije w 2025 r., gdy pojawią się nowe procesory graficzne. Ponadto zwiększy się udział w rynku takiego sprzętu w przyszłości – sięgnie 20 proc. całkowitych dostaw komputerów i monitorów do 2028 r., a tym samym gaming będzie coraz więcej ważył w biznesie dostawców i sprzedawców.
Dostawy komputerów opartych na sztucznej inteligencji będą stanowić 43 proc. wszystkich PC na świecie w 2025 r., w porównaniu do 17 proc. w 2024 r. – prognozuje Gartner. Chodzi o sprzęt z wbudowaną jednostką przetwarzania neuronowego (NPU). Analitycy przewidują, że w 2025 r. na rynek zostanie wprowadzonych 114 mln szt. takich modeli, tj. ponad 2,5-krotnie więcej niż w 2024 r. A jako że w 2024 r. wzrost w tym segmencie ma być 2-krotny (+99,8 proc.), nastąpi przyspieszenie. Przy czym popyt na laptopy AI powinien być wyższy niż na komputery stacjonarne AI, przez co w 2025 r. „inteligentne” modele będą stanowić 51 proc. wszystkich laptopów. Co więcej, Gartner prognozuje, że w 2026 r. laptopy Al będą stanowić jedyny wybór w portfolio modeli dla dużych firm, w porównaniu z mniej niż 5 proc. w 2023 r. Zakłada się, że NPU stanie się standardem dla producentów komputerów i pojawi się w większości maszyn. Jak twierdzą analitycy: „pytanie dla firm brzmi, który komputer AI kupić, a nie czy powinien zostać zakupiony”. Spodziewają się przy tym, że firmy będą kupować AI PC nie tyle po to, by korzystać z funkcji sztucznej inteligencji, lecz by zabezpieczyć się na przyszłość oraz ze względu na funkcje bezpieczeństwa.
Małe i średnie przedsiębiorstwa w Polsce są mniej zaawansowane we wdrażaniu sztucznej inteligencji niż duże podmioty – wynika z badania AWS-u. Mianowicie 25 proc. z nich korzysta obecnie z narzędzi AI, w tym jedynie 14 proc. z wielu z nich. Firmy, które wdrożyły narzędzia AI, zapewniają, że odnotowały dzięki nim wymierne korzyści, głównie zwiększenie przychodów (33 proc.) i obniżenie kosztów (33 proc.). Natomiast za zdecydowanie największą barierę w implementacji rozwiązań sztucznej inteligencji, MŚP uznają problem z rekrutacją specjalistów z umiejętnościami w tym zakresie (44 proc.). Dla porównania, średnia dla wszystkich badanych przedsiębiorstw w kraju (różnej wielkości) to 29 proc., a kolejne istotne przeszkody to trudności ze szkoleniami i przekwalifikowaniem już zatrudnionego personelu (28 proc.) i niejasne przepisy dotyczące AI (27 proc.). W sumie z danych AWS-u wynika, że 30 proc. polskich przedsiębiorstw różnej wielkości korzysta już z takich czy innych narzędzi AI.
Wacław Iszkowski
Autor w latach 1993–2016 był prezesem Polskiej Izby Informatyki i Telekomunikacji. Pracował też w firmach: Oracle, DEC Polska, 2SI, EDS Poland, TP Internet. Obecnie jest senior konsultantem przemysłu teleinformatycznego.
Wycofanie marki Marriott z hotelu LIM oraz zburzenie Curtis Plaza wzbudziło we mnie nostalgiczne nuty wspomnień z pierwszych lat tworzenia się rynku informatycznego po zmianie ustroju w 1989 r.
RTytułu „von” użyłem tylko raz w życiu.
ewolucyjne przejście z gospodarki socjalistycznej na gospodarkę rynkową wraz ze zmianą ustroju spowodowało gwałtowne zainteresowanie ze strony zachodniego biznesu możliwościami zaistnienia na tym rynku. Pod koniec 1989 r. w Polsce pojawiły się delegacje biznesowe wielu firm, głównie amerykańskich. Prawie wszystkie z nich rezerwowały pokoje w nowo otwartym hotelu Marriott w Warszawie. Była to jedyna im znana sieć hotelowa gwarantująca amerykański standard pobytu. Polska obsługa, pod kierownictwem zagranicznych menedżerów, starała się sprostać tym oczekiwaniom. I podobnież doszło do tego, że musiano szybko wybudować połączenie kablowe z Berlinem, aby goście mogli dzwonić i faksować do swoich central. Lokalna sieć telefoniczna była jeszcze zbyt słabowita.
Myśmy te zachodnie delegacje nazywali „brygadami Marriotta”. Lokując się od 20-stego do 40-tego piętra hotelu widzieli głównie Pałac Kultury oraz bliźniaczy wieżowiec Elektrimu. A wychodząc na ulicę Emilii Plater trudno było znaleźć jakieś kontakty biznesowe, szukali więc ich różnymi metodami. Do Marriotta przyleciał między innymi przedstawiciel Oracle’a, Jurij, z moim numerem telefonu, który zostawiłem w 1986 r., podczas pobytu w kalifornijskiej siedzibie głównej koncernu. Spotkałem się z nim i odtąd podczas każdej kolejnej wizyty pomagałem mu nawiązywać lokalne kontakty, stając się z czasem mało formalnym (bo o umowach nikt wtedy jeszcze nie myślał) konsultantem Oracle GmbH z Wiednia.
W tym czasie odbywanie spotkań biznesowych było atrakcją – odpowiednich do tego miejsc w Warszawie brakowało. Były to intensywne spotkania przy każ-
dym przyjeździe Jurija, a ja najwięcej spraw mogłem z nim załatwić dopiero jak stał na Okęciu do odprawy. Z czasem już sam latałem do Wiednia, przeważnie na jeden dzień. Niestety, za każdym razem musiałem mieć wizę austriacką, tymczasem firma ociągała się z załatwieniem dla mnie wizy wielokrotnej.
W Wiedniu moim „szefem” był Austriak Manfred J. Miałem wtedy obowiązek wysyłać w każdą środę raport z prognozy sprzedaży pakietów Oracle’a. Była jeszcze niewielka, bo też o bazie danych Wyroczni jeszcze w Polsce niewiele wiedziano. Popularny był Informix, a za rogiem „czaił się” Ingres. Do wysyłania raportu używałem faksu na Poczcie Głównej, ale pewnej środy ten się zepsuł, więc raportu nie wysłałem. Rano mam telefon od Manfreda, dlaczego nie ma sales forecast report? Ja na to, że faks się popsuł. A on, że wtedy powinienem go przywieźć sam do Wiednia, a ja w odpowiedzi, że przecież nie załatwił mi tej wizy. Co mnie „uratowało”, bo raport był rzeczą świętą. Za godzinę miałem drugi telefon z informacją, że wiza wielokrotna już czeka w ambasadzie.
Wiele można jeszcze opowiedzieć o początkach tego biznesu. Jak odbierałem przy minus 20 stopniach z urzędu celnego 50 kg folderów Oracle’a na targi Komputer EXPO, wyjaśniając jako pracownik naukowy, że są mi potrzebne na zajęcia ze studentami. Jak organizowałem edukację przyszłego zespołu POLTAX-u Ministerstwa Finansów w poznawaniu bazy danych Oracle, korzystając ze specjalistów od Oracle’a – chwilowych emigrantów z Kataru. Wrócili do kraju, póki operacja Desert Storm nie wyrzuciła stamtąd wojsk Saddama Husajna… Wróćmy do Marriottu, gdzie pewnego razu przyleciał wiceprezydent Orac-
le’a na Europę, François S. Byli też Jurij i Manfred, bo w planach było wspólne spotkanie pod hasłem „Oracle sales opportunities in Poland”. Czekałem na to spotkanie w kawiarni na antresoli przez kilka godzin, gdy w końcu pojawiła się pewna Pani z interesującą informacją. Pani była zaprzyjaźniona z Jurijem i przebywała u niego w pokoju, ale była też patriotką. Doniosła mi, że Manfred z Jurijem kombinują jakby przejąć moją wiedzę na temat polskiego rynku i nie dopuścić mnie do spotkania z François, a przy okazji skręcić dla siebie należne mi już wynagrodzenie. Wkurzony, napisałem krótką notatkę, poprosiłem kelnerkę o ściągnięcie boya, a boyowi dałem 5 dolców wraz z poleceniem dostarczenia tej notatki do pokoju François S. Po 10 minutach boy wrócił z odpowiedzią – zaproszeniem mnie na jutrzejsze śniadanie do jego pokoju. Wieczorem w domu napisałem memo o sytuacji rynkowej Oracle’a w Polsce.
Rano stawiłem się w pokoju na śniadaniu. François okazał się sympatyczną, inteligentną osobą i szybko zrozumiał oraz ocenił sytuację. Z apetytem zjedliśmy dobre amerykańskie śniadanie. Po godzinie wezwał tych dwóch, którzy wchodząc i widząc mnie za stołem, mieli nietęgie miny. François poprosił ich, aby usiedli, a mogli tylko usiąść na łóżku, bo oba foteliki były zajęte. Nie była to dla nich komfortowa pozycja, tym bardziej, że za chwilę zostali eleganckimi i spokojnymi słowami opieprzeni, wraz ze stwierdzeniem, że mam dostać od nich komputer, odpowiednie materiały, wynagrodzenie oraz, że „Waclaw” ma bezpośredni telefon do jego sekretarki, a ta będzie wiedzieć, że zawsze ma mnie z nim połączyć. Potem przeszliśmy do tematu spotkania. Jak już było po wszystkim i wyszliśmy na korytarz zapytałem: „Manfred, will we be on good terms now?”. On na to: „Don’t call me Manfred, but Herr Manfred Joseph”. Na co ja: „Ok, then call me Herr Doctor Wacław von Iszkowski”, po czym wyjąłem z wewnętrznej kieszeni marynarki dokument, w którym po austriacku było napisane: „Wir Franz Joseph der Erste… verleiht Romuald Iszkowski am 9. Mai 1904 den Ritterschlag…”. Po tym
Manfred stał się potulny i tylko wystękał – Entschuldigung. A dokument ten miałem akurat przypadkowo, gdyż Ojciec poprosił mnie o jego skopiowanie, a ówcześnie akurat Business Centre w Marriottcie miał dobry kserograf. Mój Pradziadek dostał ten tytuł za zasługi w zarządzaniu regulacjami rzek i szutrowania dróg w Monarchii Austro-Węgierskiej. Opracował też wzór umożliwiający obliczenie przybliżonej wartości przepływu średniego w danym profilu cieku – jest używany do dzisiaj. Tytuł ten przysługiwał wszystkim męskim potomkom w kolejnych pokoleniach, ale już mój Dziadek go nie używał. Ja użyłem go wtedy tylko raz, żeby pokazać temu Austriakowi, że trzeba mnie traktować poważnie.
Jeszcze z pół roku udało się nam poprawnie współpracować, ale podczas jednego z pobytów w Wiedniu, podziękowałem im za dalszą współpracę – miałem promesę nowej pracy.
A Marriott przez następne lata wielokrotnie, jako wysokiej klasy miejsce imprezowe, służył firmom informatycznym na spotkania, konferencje i wystawy, póki nie pojawił się Sheraton i inne wielogwiazdkowe hotele. Na zawsze jednak został tym pierwszym miejscem dla firm rodzącego się rynku teleinformatycznego.
Nową pracę rozpocząłem w nowotworzonym oddziale Digital Equipment Corporation (DEC) w Warszawie. Początkowo niewielkie biuro było zlokalizowane w ZETO-Zowar w Al. Niepodległości. Potem przenieśliśmy się do nowo wybudowanego w 1992 r. Curtis Plaza, pierwszego w Warszawie biurowca klasy A. Miał on automatycznie sterowane systemy wentylacji, klimatyzacji, oświetlenia oraz ochrony przeciwpożarowej i antywłamaniowej. Otwarte przestrzenie pięter pozwalały na aranżacje biura w układzie „open space” z biurkami w zagródkach z wydzielonymi oszklonymi pokojami dla szefów.
Połowę jednego z pięter zajął DEC. Po instalacji sieci komputerowej trzeba było na dachu postawić antenę VSAT dla podłączenia do sieci korporacyjnej w Valbonne we Francji. Tym samym dostaliśmy dostęp do sieci All-In-One
– tekstowej poczty elektronicznej Digitala oraz zasobów danych całej korporacji (taki WebDEC). Po otrzymaniu w poczcie pierwszej odpowiedzi z USA, cały dzień chodziłem w euforii. Potem już nie byliśmy tacy zadowoleni, bo zbyt wielu w korporacji wysyłało nam w kopii swoje super-ważne mejle, które trzeba było najpierw otworzyć, aby można było je zdelejtować, co zabierało nam codziennie sporo czasu.
Curtis Plaza, należący do firmy Zbigniewa Niemczyckiego, był zlokalizowany przy ul. Wołoskiej na Służewcu Przemysłowym, zwanym potem Mordorem, gdy tereny upadających zakładów zostały zabudowane biurowcami, jak stojący naprzeciw Curtis Plaza budynek fabryki półprzewodników Tewa, który w następnych latach został przebudowany na biurowiec Mars. W następnych latach w Mordorze pojawiły się takie firmy teleinformatyczne jak: Optimus, SAP, EDS, TP Internet, Polkomtel/Plus, Play, Netia, Era/T-Mobile, i in. W tym roku biurowiec Curtis Plaza zamienił się w stos gruzów, podobnie jak Mars i kilka innych. Obecnie Mordor staje się osiedlem mieszkaniowym.
Mordor staje się osiedlem mieszkaniowym.
Wojciech Urbanek
zastępca redaktora naczelnego CRN Polska
Rząd zabrał się za rozliczanie specjalistów od sztucznej inteligencji. Szybko okazało się, że naukowcy - w przeciwieństwie do ministrów oraz posłów - marnotrawią ogromne sumy pieniędzy…
MSam Altman odetchnął z ulgą.
aciej Gdula, wiceminister nauki, idzie pewnym krokiem środkiem ulicy, a za nim wybuchają biurowce. Zadowolony z siebie Gdula zatrzymuje się na chwilę i spogląda przez ramię na walące się budynki. Coś przy tym trzyma w dłoniach i po chwili zaczyna się tym bawić, co skutkuje eksplozją ostatniego z ocalałych gmachów. Film, zrealizowany przez sztuczną inteligencję, stał się jednym z hitów mediów społecznościowych. Oczywiście każdy, kto oglądał „Mrocznego Rycerza” Christophera Nolana, od razu dostrzeże podobieństwa ze sceną, w której Joker wysadza w powietrze szpital. Różnica polega na tym, że o ile Joker jest postacią przerażającą, ale tyko na ekranie, to polski polityk ma realny wpływ na rzeczywistość i, póki co, nie wygląda to na rolę życia...
Maciej Gdula stał się w ostatnich tygodniach bohaterem mediów i… memów. Wiceminister zasłynął jako jeden z największych krytyków spółki IDEAS NCBR. Jak powszechnie wiadomo, Ministerstwo Nauki i Szkolnictwa Wyższego na początku października poinformowało o tym, że prezesa IDEAS NCBR Piotra Sankowskiego zastąpi Grzegorz Borowik. Informacja wywołała duże poruszenie w środowisku naukowym. Warto w tym miejscu dodać, że Piotr Sankowski jest uznanym naukowcem w dziedzinie sztucznej inteligencji – jako jedyny Polak był czterokrotnie laureatem grantów Europejskiej Rady ds. Badań Naukowych. To jednak nie przeszkodziło Maciejowi Gduli zrugać polskiego naukowca na platformie X: „Przypominam, że jest to spółka z o.o. powołana, żeby skomercjalizować wyniki badań. W 2023 jej wynik finansowy to STRATA 28 mln. Przychody to zaledwie 173 tys. W tej sytuacji rada nadzorcza wy-
brała nowy kurs”. Jak widać, gdyby Maciej Gdula miał jakikolwiek wpływ na działania OpenAI, to Sam Altman w mgnieniu oka wylądowałby na zielonej trawce. Jak można było niedawno wyczytać na łamach The New York Timesa, roczna strata OpenAI wynosi około 5 mld dol. Wiceminister nauki wspomniał w swoim tweecie o nowym kursie, aczkolwiek nie rozwinął tej myśli. Złośliwcy twierdzą, że chodzi tutaj o zmianę elit w Polsce – te stare muszą odejść, ponieważ na ich miejsce przychodzą młodzi, lepsi naukowcy. Słowem, „leśnych dziadków” z MIT i Harvardu, tych wiekowych nudziarzy analizujących wielkie zbiory danych, zastąpią twórcy uśmiechniętych, przyjaznych doktoratów, a także rzesza absolwentów Collegium Humanum. A jednak brak zdecydowania ze strony rządu na razie powstrzyma młode kadry w blokach startowych. Resort nauki nieoczekiwanie zwołał, kilka dni po odwołaniu Sankowskiego, konferencję, na której pojawili się wspomniany wcześniej Piotr Sankowski, a także Krzysztof Gawkowski, minister cyfryzacji oraz Dariusz Wieczorek, minister nauki. Politycy wytłumaczyli dziennikarzom, że tak naprawdę chcieli dobrze i nie istnieje nic takiego jak konflikt interesów. Co najważniejsze, zapowiedzieli powołanie instytutu badawczego IDEAS, w którym szefem będzie Piotr Sankowski. Krótko mówiąc, wszyscy odtrąbili wspólny wielki sukces i rozeszli się do domów.
„Dobra wiadomość. Badania podstawowe nad AI na wysokim poziomie znajdą nową formę organizacyjną w instytucie badawczym z prawdziwego zdarzenia pod przywódctwem @piotrsankowski” – oznajmił na platformie X Maciej Gdula. Pisownia oryginalna…
Chcesz być na bieżąco z tym co najważniejsze w branży IT w Polsce i nie tylko?
Możesz dostawać trzy razy w tygodniu newsletter CRN, z którego szybko dowiesz się o ważnych wydarzeniach i nowościach z ostatnich 48 godzin.
n wejścia na rynek, n fuzje i przejęcia, n kluczowe newsy z branży, n zmiany personalne, n skróty najważniejszych raportów
Masz konto na CRN.pl?
– to wszystko trafi do Ciebie mejlem, w każdy poniedziałek, środę i piątek.
Włącz wysyłkę newslettera CRN na stronie CRN.pl/prenumerata (wymagane wcześniejsze zalogowanie na CRN.pl/logowanie).
Nie masz jeszcze konta na CRN.pl?
Załóż je na stronie CRN.pl/rejestracja
Wydarzenie integrujące środowisko producentów, dystrybutorów i integratorów IT oraz miejsce inspiracji i networkingu branży!
28 listopada 2024 r., Hotel Polonia Palace, Warszawa
Partnerzy Gali
Podczas tegorocznej gali wyróżnimy najlepsze firmy w drugiej edycji programu certyfikacji producentów rozwiązań informatycznych. Tytuł CRN Channel Master stanowi potwierdzenie pełnego zaangażowania producenta w rozwój ekosystemu partnerskiego na polskim rynku. Ponadto po raz pierwszy uhonorujemy tytułem CRNIT Master wybitnych integratorów IT, w uznaniu ich stabilności, skuteczności i zaangażowania.
Kontakt: gala@crn.pl