Okiem użytkownika
Cyfryzacja
Województwa
Mazowieckiego
Optymalizacja bez kompromisów
Andrzej
Przybyło
ESG jako wyzwanie i szansa
Prawo i zarządzanie
Sygnaliści pod ochroną
Janis Varufakis
Okiem użytkownika
Cyfryzacja
Województwa
Mazowieckiego
Optymalizacja bez kompromisów
Andrzej
Przybyło
ESG jako wyzwanie i szansa
Prawo i zarządzanie
Sygnaliści pod ochroną
Janis Varufakis
Jak technofeudalizm zniszczył kapitalizm
„Polski sektor technologiczny nie wykorzystuje w pełni swojego potencjału” –Michał Piątkowski, CEO MOTIFE.
Systemy drukujące i zarządzanie dokumentamiIT w handlu Migracja do centrum danych
jeśli pracujesz w firmie z branży IT, możesz bezpłatnie zaprenumerować magazyn CRN Polska?
Załóż konto na stronie
crn.pl/rejestracja
Najlepiej poinformowany magazyn w branży IT!
dla resellerów, VAR-ów i integratorów
Sygnaliści: nowe przepisy polskiego prawa Już niebawem wejdzie w życie w życie większość przepisów ustawy o ochronie ustawy o ochronie sygnalistów sygnalistów.
Usługi i ekologia zmieniają rynek druku W segmencie druku na znaczeniu zyskuje oferta kompleksowych usług zarządzanych. pytają też o urządzenia refabrykowane.
9 HP wywinduje Ingram Micro
Rozmowa z Bogdanem Wiśniewskim, Business Unit Managerem w Ingram Micro
10 OpenAI czuje na plecach oddech rywali
11
Zbliża się kolejna tura finansowania OpenAI
Nowoczesna firma to zrównoważona firma
Innowacyjne komputery i monitory biurowe MSI
12 Czas na debatę o polskim IT
Rozmowa z Michałem Piątkowskim, CEO Motife
16 Cyberbezpieczeństwo 2.0 w jednostkach samorządowych
Samorządy mają trudności, aby nadążać za zmianami zachodzącymi w świecie cyberbezpieczeństwa (Exclusive Networks)
18 ESG: jak wykorzystać szansę i uniknąć zagrożeń
Rozmowa z Andrzejem Przybyło, prezesem Grupy AB
20 Hiperskaler: wróg czy przyjaciel?
Liczba największych dostawców usług chmurowych rośnie w dość szybkim tempie
23 Dlaczego wciąż nie wszyscy opuszczają chmurę?
GigaCloud we współpracy z partnerami zapewnia klientom rozwiązania chmurowe, oferując niezawodne środowisko przechowywania i ochrony danych
24 Boat.Alert, czyli druga para oczu Czym Boat.Alert różni się od typowych aplikacji bezpieczeństwa (Boat.Systems)
25 Usługi i ekologia zmieniają rynek druku
W segmencie druku na znaczeniu zyskuje oferta kompleksowych usług zarządzanych
28 Druk jako usługa: jak MPS rewolucjonizuje pracę biura
Rozmowa z Pawłem Lechickim, MPS Coordinatorem w polskim oddziale Brothera
30 Sprzedaż laserowych MFP mocno w górę Dane IDC Polska dotyczące polskiego rynku
31 FIS-KOMP na rynku druku: z usługą do klienta Warszawska firma rozwija usługowy model działalności w oparciu o drukarki Canon
32 Zarządzanie dokumentami nie musi być uciążliwe
Rozmowa z Adamem Wolfem, Technical Sales Specialist w polskim oddziale Epsona
34 IT w handlu
Sklepy stacjonarne się nie poddają
37 Od lady aż po tablety
Wszystko dla handlu detalicznego (Zebra, Jarltech)
38 Nowa jakość dla edukacji i biznesu
Dotykowe monitory interaktywne stanowią jeden z filarów oferty produktowej firmy ViewSonic
39 Ankieta CRN.pl Nie taki ład, jak go malują?
Technofeudalizm: chmurowi dziedzice i cyfrowi chłopi Recenzja książki Janisa Warufakisa „Technofeudalism: What Killed Capitalism”
40 Systemy AI wiedzą, ale nie rozumieją Rozmowa z Lucy Szaszkiewicz, CEO 1Strike.io
42 Startupy optymalizują dane i procesory Oszczędności w erze procesorów graficznych i dużych zbiorów danych nabierają dodatkowego znaczenia
44 Fuzje i przejęcia: CloudFerro z zastrzykiem gotówki W pierwszym kwartale tego roku na polskim rynku M&A miało miejsce 95 transakcji
45 Startup to nie bajka Felieton Szymona Janiaka
46 How to Startup Wieści z sektora startupów
48 13 kroków... ...aby z szefa kanału sprzedaży zmienić się w szefa ekosystemu
52 Sygnaliści: nowe przepisy polskiego prawa Polska to ostatni kraj, który przyjął przepisy wdrażające dyrektywę o sygnalistach
54 AI Act: „sztuczne” prawo? Kontraktowanie rozwiązań AI rodzi ryzyko naruszenia praw autorskich i danych osobowych
56 Technofeudalizm: chmurowi dziedzice i cyfrowi chłopi Recenzja książki Janisa Warufakisa „Technofeudalism: What Killed Capitalism”
58 Puls branży IT
Istotne trendy produktowe, technologiczne, biznesowe, w oparciu o dane pochodzące z renomowanych agencji analitycznych, organizacji branżowych i globalnych mediów, dotyczące głównie Europy i Polski
60 Cyfrowe Mazowsze
Rozmowa z Marcinem Pawlakiem, dyrektorem Departamentu Cyfryzacji, Geodezji i Kartografii Urzędu Marszałkowskiego Województwa Mazowieckiego
62 LinkedIn Park Sprawdzamy, o czym branża IT (i nie tylko) dyskutuje na największym portalu społecznościowym
64 Porachunki z bankami Felieton Wacława Iszkowskiego
66 Spokojnie, to tylko kłamstwo Felieton Wojciecha Urbanka
Otym, że nadgorliwość jest gorsza od faszyzmu, wiedziałem od wczesnego dzieciństwa, bo tak się mawiało u mnie w domu. O czym sobie przypominam za każdym razem, gdy nasi politycy biorą się za wdrażanie unijnych dyrektyw. Od razu wiadomo, że ich polska wersja będzie przegadana, zagmatwana i wymagająca.
Najnowszy przykład? Nowe Prawo komunikacji elektronicznej na bazie Europejskiego Kodeksu Łączności Elektronicznej. Według sześciu organizacji branżowych „ustawa, której branża oczekuje od 4 lat, mija się z obecnymi realiami rynkowymi i bez uzasadnionego powodu wychodzi poza zakres wdrażanej dyrektywy EKŁE. Dodatkowo, skrócony nieoczekiwanie do 3 miesięcy okres vacatio legis na wdrożenie tak rozległych zmian uznać należy za nieracjonalnie krótki. Przedsiębiorcy nie powinni ponosić kosztów opóźnień legislacyjnych i wcześniejszych zaniechań”. Branża apeluje o szybki powrót do prac gwarantujących racjonalne rozwiązania, licząc na pilne rozpoczęcie rozmów ze stroną rządową i regulatorami. Po szczegóły zapraszam do sierpniowego numeru CRN Polska, gdzie opublikowaliśmy pełną treść rozpaczliwego, a jednocześnie niezwykle charakterystycznego apelu ze strony przedsiębiorców do ustawodawców.
Niestety, nie jestem w tej sprawie optymistą, bo lata mijają, a diagnoza prof. Legutki, zgodnie z którą mamy w Polsce do czynienia z „modernizacją przez kserokopiarkę”, jest wciąż aktualna. Co wynika częściowo z faktu, że po 1989 roku dla większości z nas „wszelka >>zachodniość<< z miejsca stała się fajna i godna naśladowania” (to z kolei cytat z książki „My, fajnopolacy” Piotra Stankiewicza). Efekt jest taki, że zamiast filtrować unijne propozycje przez sito pytań o to, co leży w polskim interesie, a co się u nas nie sprawdzi, implementujemy zachodnie pomysły nawet, gdy nie do końca rozumiemy ani ich celów, ani skutków. Przy czym uprzejmie
zakładam, że robimy to z niewiedzy i nieudolności, a nie celowo.
Tymczasem kolejne dyrektywy same w sobie zaczynają podcinać unijną gałąź, na której wszyscy siedzimy. A jako że jesteśmy świeżo po XXIII Forum Ekonomicznym w Karpaczu, oddam głos Zygmuntowi Berdychowskiemu, organizatorowi tego wydarzenia: „Już jesteśmy świadkami exodusu różnych firm przemysłowych, które uciekają z Unii Europejskiej, dlatego że tu jest droga energia, że trzeba raportować ESG, że trzeba spełniać wiele dodatkowych warunków – i to się najzwyczajniej w świecie nie opłaca”.
Najwyższy czas na Okrągły Stół Gospodarczy, przy którym zasiądą politycy, przedsiębiorcy i organizacje konsumenckie. Przy czym nie upieram się, żeby był poprzedzony rozmowami w Magdalence…
Tomasz Gołębiowski Redaktor naczelny
MIESIĘCZNIK CRN POLSKA www.CRN.pl
Rok 27, numer 9 (502), 18 września 2024 PL ISSN 2080-8607
REDAKCJA
Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa redakcja@crn.pl
Tomasz Gołębiowski tg (redaktor naczelny) tel. 608 425 699 tomasz.golebiowski@crn.pl
Wojciech Urbanek wu (zastępca red. naczelnego) tel. 691 672 065 wojciech.urbanek@crn.pl
Karolina Marszałek km (sekretarz redakcji) karolina.marszalek@crn.pl
Andrzej Gontarz ag andrzej.gontarz@crn.pl
Krzysztof Jakubik kj krzysztof.jakubik@crn.pl
Krzysztof Pasławski kp krzysztof.paslawski@crn.pl
Tomasz Janoś tj tomasz.janos@crn.pl
FELIETONY
Wacław Iszkowski, Szymon Janiak, Wojciech Urbanek,
GRAFIKA, LAYOUT, KOORDYNACJA PRODUKCJI: Tomasz Baziuk
FOTOGRAFIE
Theta Art Studio Tomasz Pisiński, PhotobyMysluk.pl, Adrian Stykowski, Piotr Syndoman, archiwum PRENUMERATA prenumerata@crn.pl
REKLAMA I PROJEKTY SPECJALNE Agata Myśluk tel. 694 455 426 agata.mysluk@crn.pl
Jacek Goszczycki tel. 601 935 513 jacek.goszczycki@crn.pl
WYDAWCA Peristeri Sp. z o.o. Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa
Reklamy są przyjmowane w siedzibie wydawnictwa. Za treść ogłoszeń redakcja nie ponosi odpowiedzialności. © 2024 Peristeri Sp. z o.o. Wszelkie prawa zastrzeżone.
Warsaw Equity Group zainwestuje ponad 20 mln zł (z możliwością rozszerzenia do ponad 30 mln zł) w Xopero Software. Transakcja ma przyspieszyć globalną ekspansję gorzowskiej firmy, rozwój produktów i powiększenie zespołu, co z kolei w ocenie WEG przełoży się na wielokrotny wzrost sprzedaży i przychodów spółki w perspektywie kilku lat. Do transakcji dołączyli Maciej Zawadziński, przedsiębiorca i współzałożyciel funduszu Hard2beat oraz Paweł Maj, inwestor VC w spółki cybersecurity.
Dell w II kw. roku finansowego 2025 zwiększył przychody o 9 proc., do 25 mld dol. Zysk operacyjny poprawił się natomiast o 15 proc. (1,3 mld dol.), a zysk netto o 85 proc. (841 mln dol.). Tak duży wzrost to w dużej mierze efekt rekordowej sprzedaży produktów infrastrukturalnych. Sprzedaż serwerów zoptymalizowanych pod kątem sztucznej inteligencji zwiększyła się o 23 proc. wobec I kw. finansowego, do wartości 3,2 mld dol., co stanowi około połowy z 6 mld dol. dla serwerów AI sprzedanych w ciągu ostatnich czterech kwartałów.
Sprzedaż w sieciach franczyzowych Grupy AB wzrosła w II kw. 2024 r. o 18,9 proc. rok do roku. Podana dynamika dotyczy Polski, Czech i Słowacji. Na polskim rynku chodzi o Alsen, Kakto i Wyspę Szkrabów (zabawki dla dzieci), na czeskim o Digimax, Comfor, Premio, Play i Triline, a na słowackim o Comfor i Play. Na sprzedaży w sieciach franczyzowych korzystają producenci, Grupa AB, jak i partnerzy (strategia triple-win).
Comarch w II kw. 2024 r. zwiększył przychody zarówno ze sprzedaży krajowej, jak i z eksportu. W kraju w II kw. 2024 r. sprzedaż grupy poprawiła się o 12,5 proc., osiągając poziom 205,8 mln zł. Sprzedaż zagraniczna stanowiła większość, bo blisko 54 proc. przychodów grupy. Z tym, że znaczny wpływ na wyższe obroty z eksportu w II kwartale 2024 r. miały różnice kursowe, związane z umocnieniem się złotego wobec walut obcych. Ten czynnik zwiększył przychody ze sprzedaży w minionym kwartale o 1,9 mln zł (podczas gdy w II kw. 2023 r. różnice kursowe zmniejszyły obrót w złotówkach o ponad 19 mln zł).
Nvidia, w II kw. roku finansowego 2025 (zakończonym 28 lipca br.), zanotowała przychody o wartości 30,04 mld dol., co oznacza wzrost o ponad 122 proc. rok do roku. Sprzedaż pociągnął biznes centrów danych, gdzie przychody wyniosły 26,3 mld dol. (+154 proc. r/r).
Zysk netto producenta poprawił się w omawianym okresie do poziomu 16,6 mld dol., czyli o 168 proc. Mimo że wyniki Nvidii, na które czekało całe Wall Street, generalnie przekroczyły oczekiwania inwestorów, cena akcji spółki spadła w handlu posesyjnym o prawie 7 proc., do 116,95 dol. Tym samym wartość kapitalizacji spółki zmniejszyła się o około 200 mln dol. Nadal jednak kwota jest imponująca i wynosi 2,9 biliona dol.
„Tounikalnaofertawśród dystrybutorów.Tenkoncept sięsprawdza”– Andrzej Przybyło o sieciach franczyzowych Grupy AB.
Niemal 9 na 10 firm na świecie doświadczyło w ub.r. co najmniej jednego incydentu naruszenia bezpieczeństwa w środowisku Kubernetes – wynika z raportu Red Hata. W przypadku 67 proc. organizacji obawy związane z ochroną kontenerów spowodowały wydłużenie procesu wdrażania aplikacji. Nie dziwi więc, że wiele przedsiębiorstw nadal ostrożnie podchodzi do tego rozwiązania. W 44 proc. firm korzystających z Kubernetes problemy wynikające z poważnych luk w zabezpieczeniach zostały wykryte na etapie budowy i wdrażania narzędzi IT.
Placówki edukacyjne wciąż zbyt często padają ofiarami cyberataków. W 2023 r. 63 proc. szkół podstawowych oraz 66 proc. uczelni wyższych na świecie padło ofiarą ataków ransomware – wynika z danych Sophosa. To mniejszy odsetek niż w 2022 r. (odpowiednio 80 i 79 proc.). Jednak wydatki związane z odzyskiwaniem danych poszybowały w górę. Średni koszt dla placówek niższego szczebla edukacji zwiększył się ponad dwukrotnie, osiągając kwotę 3,76 mln dol., podczas gdy na uczelniach wyższych nastąpił niemal czterokrotny wzrost, do kwoty 4,02 mln dol. Aż 95 proc. placówek edukacyjnych, które doświadczyły ataku, zgłosiło próby naruszenia bezpieczeństwa ich kopii zapasowych przez cyberprzestępców. Niestety, ponad 70 proc. tych prób zakończyło się sukcesem.
Intel analizuje opcje strategiczne w celu rozwiązania problemu słabnącego biznesu. W grę wchodzi m.in. podział firmy lub sprzedaż części biznesu – informuje CNBC. Według Bloomberga rozważane możliwości obejmują fuzje i przejęcia albo zbycie lub podział działu foundry, który produkuje czipy dla klientów zewnętrznych. Przypuszcza się, że Intel wstrzyma niektóre plany ekspansji przed ewentualnym oddzieleniem tego biznesu. Koncern zatrudnił Morgan Stanley i innych doradców, aby przedstawili opcje dyrektorom Intela w tej sprawie we wrześniu br.
Policja zatrzymała w Elblągu cztery osoby zamieszane w wyłudzanie pieniędzy w zamian za usuwanie negatywnych komentarzy w sieci. Dotyczyły one trzech kancelarii adwokackich. Śledczy zarzucają zatrzymanym przestępstwa prania pieniędzy, oszustwa i usiłowania wymuszenia rozbójniczego. Główny podejrzany na 3 miesiące trafił do aresztu. Podczas przeszukań zabezpieczono nośniki danych w postaci telefonów, kart bankomatowych i umów bankowych.
CBA zatrzymało kolejną osobę w związku ze śledztwem dotyczącym ustawiania przetargów na usługi i sprzęt informatyczny w Zachodniopomorskim Zarządzie Dróg Wojewódzkich w Koszalinie. Doszło do kolejnych akcji w tej sprawie po tym, jak w czerwcu br. zatrzymano cztery osoby, w tym jednego przedsiębiorcę. Kolejna zatrzymana to urzędniczka z urzędu miejskiego w Pabianicach. W Prokuraturze Regionalnej w Szczecinie przedstawiono jej zarzut niedopełnienia obowiązków i przekroczenia uprawnień w celu osiągnięcia korzyści majątkowej i zmowy przetargowej. Prokurator zastosował wobec zatrzymanej zabezpieczenie majątkowe w kwocie 20 tys. zł, a także poręczenie majątkowe w wysokości 30 tys. zł.
„Popytznacznieprzewyższa podaż”– Colette Kress, dyrektor finansowa Nvidii, na temat procesorów Blackwell.
„BarierywdrażaniaAI nadużąskalębędą maleć”– Ritu Jyoti, dyrektor generalna ds. AI w IDC.
AB sprzeda magazyn przy ul. Kościerzyńskiej we Wrocławiu, gdzie znajdowała się kiedyś siedziba firmy. Zawarto już umowę przedwstępną z nabywcą, w której ustalono, że do spółki z tytułu transakcji wpłynie 35 mln zł netto. Po finalizacji transakcji dystrybutor jeszcze przez 3 lata będzie mógł wynajmować powierzchnię w zbywanym obiekcie. Obecny, centralny magazyn AB, który jest 2,5-krotnie większy od właśnie sprzedawanego, został wybudowany w 2016 r. w Magnicach koło Wrocławia. Koszt inwestycji, obejmującej też nową siedzibę główną Grupy AB, wyniósł wówczas 129 mln zł.
Część programistów straci prawo do ulgi IP Box – wynika z projektu ustawy, nad którym pracuje Ministerstwo Finansów. Resort chce wprowadzić wymóg zatrudnienia dla osób chcących skorzystać z ulgi. Prawdopodobnie oznacza to, że programiści na B2B stracą do niej prawo, jeżeli nie zatrudniają pracowników. Ponadto podstawa obliczenia daniny solidarnościowej (4 proc. od dochodu ponad 1 mln zł) ma objąć dochody opodatkowane IP Box. Zmiana jest częścią większego pakietu modyfikacji w PIT i CIT, które mają uszczelnić system podatkowy. W przypadku IP Box może w praktyce oznaczać, że małe i jednoosobowe firmy pożegnają się z ulgą, a duże przedsiębiorstwa już niekoniecznie.
Centrum Informatyki Resortu Finansów prowadzi przetarg na dostawę produktów Red Hata. Przedmiotem zamówienia jest zawarcie umowy ramowej na dostawę oprogramowania wraz z licencjami w modelu subskrypcyjnym, przy czym dopuszczony jest równoważny software. W odpowiedzi wpłynęło osiem ofert, które złożyli: DahliaMatic, konsorcjum Comarchu i Engave, Decsoft, Simplicity, Symmetry, konsorcjum Linux Polska i 4Towers, Eskom IT i Comtegra. Zamawiający deklaruje, że zawrze umowę ramową na trzy lata z maksymalnie pięcioma wykonawcami. Kryteria oceny to: upust dla produktów głównych dostawcy, których listę zawiera dokumentacja przetargowa (85) oraz upust dla produktów innych niż główne (15).
n Groźny haker wpadł w Polsce
Polska cyberpolicja we współpracy z FBI zatrzymała mężczyznę, poszukiwanego przez Interpol za cyberprzestępstwa. Wpadł przy próbie przekroczenia granicy polsko–białoruskiej. Podejrzanym jest 38-letni obywatel Białorusi i Ukrainy, Maksym S., pseudonim „J.P. Morgan”, „xxx” i „lansky”. Według służb kierował włamaniami komputerowymi i oszustwami bankowymi na międzynarodową skalę. Maksym S., który został przewieziony do USA, jest tam oskarżony o przestępstwa związane z przesyłaniem złośliwego oprogramowania i oszustw internetowych dotykających „komputery milionów ofiar” w okresie od października 2013 r. do marca 2022 r. Zarzuty dotyczą ponadto stworzenia ransomware’u pod nazwą Ransom Cartel.
Passus zdecydował się na zbycie spółki zależnej Sycope, która dostarcza własne oprogramowanie do zabezpieczania sieci. Zostanie przejęta w transakcji wartej 9 mln zł przez Tadeusza Dudka (dotychczasowy prezes Passus SA) i Łukasza Bieńkę (członek zarządu). Obaj w związku z tym odeszli z zarządu Passus SA. Ponadto Sycope zostanie dokapitalizowane z funduszu private equity. Transakcja stanowi finansową ulgę dla grupy, gdyż inwestycje w Sycope mocno obciążały budżet warszawskiego integratora, pochłaniając w sumie kilkanaście milionów złotych (spółka została zarejestrowana w 2022 r.). Uwolnione więc zostały spore środki na jej dalszy rozwój.
n Ingram Micro Polska strategicznym partnerem
Ingram Micro Polska ogłosiło nawiązanie strategicznej współpracy z HP Inc. Partnerstwo ma na celu wprowadzenie na polski rynek szerokiej gamy produktów i usług amerykańskiej marki. Współpraca z HP umożliwi Ingram Micro Polska rozszerzenie oferty o zaawansowane technologie, takie jak najnowsze komputery i urządzenia peryferyjne. Klienci Ingram Micro Polska będą mogli korzystać z rozwiązań producenta wspieranych przez sieć dystrybucji i profesjonalne wsparcie techniczne. Tym samym partnerstwo łączy szeroką ofertę HP z doświadczeniem i siecią dystrybucyjną Ingram Micro Polska. Obie firmy są przekonane, że ich współpraca przyczyni się do jeszcze lepszego zaspokojenia potrzeb klientów i wzmocnienia ich pozycji na rynku.
n AMD kupi dostawcę serwerów AI
AMD za 4,9 mld dol. przejmie ZT Systems, dostawcę serwerów i specjalistę od przetwarzania w chmurze. Firma z siedzibą w stanie New Jersey działa od blisko 30 lat i generuje około 10 mld dol. przychodów rocznie. Zatrudnia około 2,5 tys. pracowników. Finalizacja transakcji jest spodziewana do końca 2025 r. Po niej ZT Systems dołączy do grupy AMD Data Center Solutions. Według AMD wiedza i doświadczenie ZT Systems w projektowaniu i optymalizacji rozwiązań przetwarzania w chmurze pomoże klientom chmurowym i korporacyjnym przyspieszyć implementację infrastruktury AI opartej na AMD, w tym systemów wdrażanych na dużą skalę.
n Cisco zwolni 5 tysięcy osób
W sierpniu br. rodzina Filipiaków, wraz z funduszem CVC Capital Partners Fund IX i Anną Prokop, ogłosili wezwanie na akcje Comarchu. Oferują 315,40 zł za sztukę. Chcą w ten sposób przejąć 5,266 mln papierów wartościowych spółki. Ich łączna cena sięga tym samym 1,66 mld zł. Zapisy chętnych na sprzedaż papierów potrwają do 21 października br. Wezwanie dotyczy akcji reprezentujących 34,81 proc. głosów w spółce. Wzywający, działający w porozumieniu, posiadają już łącznie 65,19 proc. głosów. Celem transakcji jest osiągnięcie przez nich 100 proc. udziałów i wycofanie spółki z giełdy. Krakowski koncern informatyczny zamierza skoncentrować się na rozwoju na rynkach zagranicznych, w czym mają wspomóc go inwestorzy.
Intel analizuje opcje strategiczne, w celu rozwiązania problemu słabnącego biznesu. W grę wchodzi m.in. podział firmy lub sprzedaż jej części – informuje CNBC. Według Bloomberga rozważane możliwości obejmują fuzje i przejęcia albo zbycie lub podział działu foundry, który produkuje czipy dla klientów zewnętrznych. Koncern zatrudnił konsultantów z Morgan Stanley i innych doradców, aby przedstawili opcje dyrektorom Intela w tej sprawie jeszcze we wrześniu br. Przypomnijmy, że na początku sierpnia br. Intel ogłosił plan ograniczenia kosztów. Obejmuje redukcję zespołu o 15 proc. (ponad 15 tys. osób), jak też cięcie innych wydatków operacyjnych oraz kapitałowych. W efekcie koszty mają spaść w przyszłym roku o 10 mld dol.
Koncern zamierza ograniczyć globalne zatrudnienie o 7 proc. Oznacza to, że z firmą pożegna się około 5 tys. osób. Koszt redukcji oszacowano na blisko 1 mld dol., z czego 700 – 800 mln zostanie wydanych w I kw. finansowym 2025 (tj. od 28 lipca br.), głównie na odprawy i inne świadczenia. Cięcia mają być związane z koncentracją firmy na szybko rosnących obszarach, takich jak cyberbezpieczeństwo i sztuczna inteligencja. Cisco twierdzi, że zamówienia AI przekroczyły już 1 mld dol. i przewiduje kolejny 1 mld w tym roku finansowym.
Nowe Prawo Komunikacji Elektronicznej wejdzie w życie w listopadzie br. Pomimo protestów ze strony branży, regulacje przeszły przez cały proces legislacyjny. Jak przekonuje Ministerstwo Cyfryzacji, ustawa przynosi szereg korzyści, takich jak wzmocnienie ochrony konsumentów i poprawę jakości usług telekomunikacyjnych. Tymczasem w ocenie organizacji reprezentujących sektor telekomunikacyjny PKE mija się z realiami rynkowymi, a jego nieprecyzyjne zapisy mogą zniszczyć polskich przedsiębiorców. Obowiązki, jakie przepisy nakładają na firmy z branży teleinformatycznej, wymagają wielomilionowych nakładów finansowych i długiego czasu na ich wdrożenie – alarmowały wcześniej izby branżowe. Jak widać, bezskutecznie.
Claudia Nieuwland została Chief Operating Officerem w Britenet, a jej doświadczenie ma posłużyć do rozwoju biznesu polskiej firmy w Europie. Britenet, z centralą w Warszawie, specjalizuje się w rozwoju oprogramowania i na obecnym etapie działalności chce zwiększyć swoje udziały w zagranicznych rynkach. Claudia Nieuwland ma ponad 25 lat doświadczenia w rozwijaniu firm na różnych rynkach, w tym w Belgii, Luksemburgu, Francji, Wielkiej Brytanii i Szwajcarii. Zarządzała zmianami organizacyjnymi, wdrażaniem nowych rozwiązań operacyjnych, jak też kierowała strategiami marketingowymi i sprzedażowymi. Wcześniej pracowała dla takich firm jak Solumob, SD Worx i Attentia.
n Awans Jakuba Kozaka
Jakub Kozak objął stanowisko Area Sales Director ECE w Genetecu. Będzie odpowiedzialny za opracowanie i realizację strategii regionalnej i nadzór nad sprzedażą w 14 krajach. Do tej pory pełnił funkcję Regional Sales Managera. Z kanadyjską firmą jest związany od 5 lat. Ma ponad 20 lat doświadczenia w branży. W minionych latach pracował w Axis Communications (2014 – 2018), zarządzając sprzedażą i relacjami biznesowymi w regionie, a wcześniej był Country Managerem Nedapa w Polsce (2011 – 2014).
Rubrik powołał Agnieszkę Jabłońską na stanowisko Channel Sales Directora na Polskę, kraje bałtyckie, Czechy i Słowację. Będzie odpowiadać za rozwijanie strategicznych partnerstw kanałowych amerykańskiego dostawcy rozwiązań do zarządzania i ochrony danych, jak też prowadzenie inicjatyw sprzedażowych i zwiększanie zaangażowania klientów w regionie. Agnieszka Jabłońska ma 25-letnie doświadczenie w branży IT. Zanim dołączyła do Rubrika, pracowała w Cisco Systems jako Channel Account Manager, Distribution Manager, Sales Leader for Small & Medium-sized Enterprises i Channel Manager.
Do zespołu Esri Polska dołączyła Monika Kleinrok-Brzozowska, obejmując stanowisko dyrektora ds. finansów i administracji. Będzie odpowiedzialna za zarządzanie finansami firmy, która jest wyłącznym przedstawicielem Esri Inc., dostawcy oprogramowania systemów informacji geograficznej (GIS). Monika KleinrokBrzozowska ma 15-letnie doświadczenie w obszarze finansów, księgowości i controllingu. Uprzednio pełniła funkcję menedżera ds. finansów farm wiatrowych Grupy Innogy w Polsce, jak też pracowała w polskich spółkach technologicznych, takich jak Packhelp i BaseLinker.
Bartosz Dzirba objął stanowisko prezesa Passusa. Z firmą jest związany od 15 lat. Dotychczas pełnił funkcję wiceprezesa. Zmiana nastąpiła w związku z realizacją umowy inwestycyjnej, w ramach której dotychczasowy prezes Passusa, Tadeusz Dudek, jak i członek zarządu Łukasz Bieniek przejmują spółkę zależną Sycope w ramach transakcji o wartości ponad 9 mln zł. Obaj złożyli w związku z tym rezygnacje ze swoich funkcji w zarządzie Passus SA.
Robert Pusz został dyrektorem sprzedaży Newline Interactive na region EMEA, zastępując na tym stanowisku Marka Harrisa. Do jego obowiązków należy teraz nadzorowanie sprzedaży w regionie. Robert Pusz dołączył do Newline Interactive w 2015 r. jako Sales Manager na Europę Wschodnią. Odegrał kluczową rolę w budowaniu pozycji amerykańskiej marki w Europie i we wzroście sprzedaży w naszym kraju. Na początku 2024 r. awansował na stanowisko Senior Managera. Przed przejściem do Newline Robert Pusz doświadczenie zdobywał w ViDiS-ie i Acco Brands. W branży IT działa od ponad dwóch dekad.
Na ile podpisanie umowy dystrybucyjnej z HP wzmacnia ofertę Ingram Micro?
W naszej ofercie bardzo brakowało produktów marki HP. Pozyskanie kontraktu z HP Inc. zwiększy jej konkurencyjność. Liczymy, iż w ciągu kolejnych 12 miesięcy staniemy się kluczowym dystrybutorem na rynku IT. Od ogłoszenia poszerzenia oferty o HP Inc., wielu resellerów zwraca się do nas z prośbą o ofertę na rozwiązania tego producenta, co daje nam pewność, iż ten kontrakt to doskonały ruch wzmacniający naszą pozycję na rynku.
Nowy dystrybutor to szansa dla partnerów na lepsze warunki handlowe?
Resellerzy maksymalizując zyski, starają się dzielić zamówienia w taki sposób, aby w pełni wykorzystywać limity kredytowe u poszczególnych dystrybutorów. To bardzo korzystne zarówno z punktu widzenia resellera, jak i dystrybutora. Nowy dystrybutor HP to wielka szansa na zwiększenie zarówno obrotów, jak i zysków naszych partnerów.
Na które modele komputerów stawia HP?
HP wspiera rozwój rynku SMB, są to klienci wymagający i wyedukowani. Aby sprostać oczekiwaniom, HP stawia na modele ProBook oraz Elitebook – wzmocniona obudowa oraz gwarancja NBD on site sprosta najwyższym oczekiwaniom. Widzimy też duże zainteresowanie modelami stacji roboczych z serii Z, zarówno mobilnych jak i stacjonarnych. Dzięki unikalnym rozwiązaniom HP oraz szerokiej gamie produktów, partnerzy mogą liczyć na do-
„Kiedy informacja poszła w świat, zaczęło się do nas odzywać wielu partnerów, w tym również tych, którzy
wcześniej nie byli zbyt aktywni” – mówi Bogdan
Wiśniewski, Business Unit Manager HP w Ingram Micro.
skonały dobór rozwiązania do potrzeb swoich klientów.
Czy mniejsze zainteresowanie desktopami oznacza słabszą sprzedaż monitorów HP?
Absolutnie nie. Aktualnie wiele osób pracuje w trybie hybrydowym, potrzebuje więc dodatkowych ekranów zarówno w domu, jak i biurze. Zwiększony obszar roboczy pozwala na wydajniejszą oraz łatwiejszą pracę w wielu sektorach rynku. Jestem przekonany, że nadal duża część pracowników będzie korzystać z więcej niż jednego monitora. W związku z tym, ten rynek ma wciąż duży potencjał. Natomiast z naszego punktu widzenia bardzo ważne jest to, że HP jest jednym z pierwszoplanowych graczy w tym segmencie rynku.
Dwa lata temu HP przejęło Poly, producenta sprzętu audio i wideo do biur. W czasie pandemii tej klasy produkty sprzedawały się niemal na pniu. Ale czy popyt na nie, wraz z powrotem pracowników do biur, nieco nie wygasł? Większość firm pracuje w modelu pracy hybrydowej. W związku z tym zgłasza zapotrzebowanie na wysokiej klasy sprzęt do wideokonferencji. Poza tym firmy ograniczają liczbę wyjazdów na rzecz konferencji online. Portfolio HP Poly obejmuje szeroki zakres rozwiązań począwszy od wysokiej klasy słuchawek, czy personalnych kamer, poprzez soundbary czy profesjonalny sprzęt do prowadzenia telekonferencji. Rozmówcy po obu stronach kamery słyszą każde słowo i skupiają się na komunikacji dzięki zaawansowanym automatycznym systemom kadrowania grupy oraz śledzeniu osoby mówiącej.
Możliwości tych produktów są naprawdę imponujące. Za ich pomocą można prowadzić interaktywne wirtualne spotkania. I to w taki sposób, że nikt nie będzie miał prawa się podczas nich nudzić.
HP jest także liderem na rynku urządzeń drukujących. Niestety jest to segment, który najlepsze lata ma już za sobą. Jakie znaczenie dla Ingram Micro ma wprowadzenie do oferty tej grupy produktów?
Informacje o śmierci druku są przedwczesne. W biurach wciąż drukuje się i skanuje bardzo dużo dokumentów. Do tego potrzebny jest profesjonalny sprzęt. Nawet, jeśli firma podejmie decyzję o przejściu z dokumentów papierowych na cyfrowe, to i tak jeszcze przez pewien czas będzie potrzebować urządzenia MFP. Poza tym taki proces nie będzie przebiegać równolegle, niektóre organizacje zrobią to szybciej, inne później.
Rozwiązania dostępne w Ingram Micro oferują także inni dystrybutorzy. Dlaczego resellerzy powinni wybrać właśnie Ingram?
Ingram to nie tylko doskonała dostępność szerokiej gamy produktów. Naszym atutem jest szybkość działania, jak też responsywność na potrzeby resellera. Oferujemy wiele usług (w tym finansowanie i magazynowanie), pozwalających sprostać najbardziej wymagającym projektom. Dzięki temu możemy pochwalić się dwucyfrowymi wzrostami sprzedaży. Olbrzymia liczba partnerów docenia nasze zaangażowanie, a dzięki kontraktowi z HP liczymy, że w przeciągu kilkunastu miesięcy będziemy dla wielu z nich pierwszym wyborem.
Zbliża się kolejna runda finansowania OpenAI. Pieniądze są potrzebne, aby budować nowe, lepsze modele sztucznej inteligencji, a tym samym odeprzeć ofensywę konkurentów.
n Wojciech Urbanek
Nowa runda finansowania będzie największym zastrzykiem kapitału zewnętrznego dla OpenAI od stycznia 2023 r., kiedy to Microsoft zainwestował w kultowy już startup 10 mld dol. Jak do tej pory gigant z Redmond zasilił Open AI kwotą 13 mld dol. i posiada w nim 49 proc. udziałów. Wszystko wskazuje na to, że Microsoft przystąpi do zbliżającej się, kolejnej rundy finansowania OpenAI. W grupie inwestorów znajdą się również fundusz Thrive Capital, a także Apple oraz Nvidia. Na szczególną uwagę zasługują dwie ostatnie firmy. Nvidia uaktywniła się jako inwestor dwa lata temu, zasilając zastrzykiem finansowym Inflection AI oraz Databricks, a także mniejsze startupy związane z opracowywaniem nowych leków przy wykorzystaniu sztucznej inteligencji oraz zajmujące się robotyką. Craig Federighi, szef oprogramowania Apple, przyznał na czerwcowej konferencji dla developerów, że koncern korzysta z ChatGPT, ponieważ zaczął testowanie generatywnej sztucznej inteligencji w jej najlepszym wydaniu. W tym kontekście informacja o inwestycji w OpenAI pokazuje, że Apple nie ogranicza się wyłącznie do kurtuazji. Warto jednak w tym miejscu, dodać, że podczas wspomnianego wyżej samego wydarzenia, koncern z Cupertino napomknął o możliwości bliskiej współpracy z Google Gemini. Apple prowadziło również rozmowy z Meta, Anthropic oraz Perplexity.
Na ten moment OpenAI odczuwa presję ze strony konkurentów, a dopływ dużych środków finansowych mógłby pozwolić słynnemu startupowi zachować nad nimi przewagę. Do tego potrzebne jest stworzenie jeszcze lepszego modelu sztucznej inteligencji niż GPT-4. Taki skok technologiczny wymaga inwestycji w drogie superkomputery, naszpikowane procesorami graficznymi. OpenAI na opracowanie GPT-4 przeznaczył ponad 100 mln dol. Kolejny pochłonie prawdopodobnie jeszcze większą sumę.
ło przy tym na ChatGPT, dostępny za pośrednictwem Microsoft Azure. Wprawdzie na przestrzeni ostatnich 12 miesięcy cena usługi gwałtownie spadła, ale pomimo tego firma postanowiła opracować oprogramowanie ułatwiające korzystanie z różnych modeli sztucznej inteligencji w ramach całego systemu. To ilustruje wyzwania, z jakimi wkrótce musi zmierzyć się OpenAI.
Open source: za i przeciw
Model otwarty wydaje się wyjątkowo kuszący.
Jednak konkurencja nie śpi. Google oferuje swój własny produkt, a ponadto wraz z Amazonem włożył 6 mld dol. w Anthropic, konkurenta założonego przez byłych dyrektorów OpenAI. Natomiast Meta opracowała autorski model sztucznej inteligencji Llama, wydawany bezpłatnie oraz zintegrowany między innymi z Facebookiem oraz Instagramem. W bieżącym roku model był pobrany niemal 350 milionów razy. Julien Launay, założyciel startupu Adaptive ML, uważa, iż w przypadku wielu codziennych zastosowań lepiej sprawdzają się mniejsze, otwarte modele AI. Takie firmy jak: DoorDash, Shopify, Goldman Sachs czy Zoom, używają ich do obsługi klienta.
The Wall Street Journal opisuje interesujący przypadek Procore Technologies, dostawcy platformy do zarządzania skomplikowanymi projektami budowlanymi. Na początku roku firma ta po raz pierwszy wprowadziła funkcje wykorzystujące duże modele językowe. Procore postawi-
Mark Zuckerberg uważa, że podejście typu open source pozwoli większej liczbie ludzi na całym świecie czerpać korzyści ze sztucznej inteligencji. Można się tutaj doszukać analogii z systemem operacyjnym Android, który jest dostępny bezpłatnie dla każdego producenta smartfonów. To kontrastuje ze strategią Microsoftu, który pobiera od vendorów opłaty licencyjne za zainstalowanie oprogramowania Windows na ich komputerach. Natomiast Apple nie zezwala innym producentom korzystać ze swoich systemów operacyjnych.
Zwolennicy systemów zamkniętych wychodzą z założenia, że dysponują zasobami i odpowiednimi mechanizmami kontrolnymi, aby zapobiec niewłaściwemu wykorzystaniu SI. Ich zdaniem koncepcja open source może sprawić, że sytuacja wymknie się spod kontroli i grożą nam obrazki znane z „Terminatora” Jamesa Camerona.
Promotorzy open source’a przekonują, że ich systemy podlegają publicznej kontroli. W związku z tym łatwiej jest wykrywać problemy i radzić sobie z niezamierzonymi szkodami ze strony ich systemów, co byłoby trudne w rozwiązaniach zamkniętych. Jak na razie trudno ocenić kto zwycięży, aczkolwiek model otwarty wydaje się wyjątkowo kuszący, zwłaszcza dla użytkowników indywidualnych czy MŚP.
Rosnąca świadomość konsumencka i inne uwarunkowania gospodarcze sprawiają, że zrównoważony rozwój firmy przestaje być wyborem i staje się wymogiem, bez którego trudno myśleć o długoterminowym sukcesie na bardzo konkurencyjnym rynku.
Zrównoważony rozwój przedsiębiorstwa to nie tylko długoterminowa strategia umożliwiająca realizowanie planów i osiąganie zysków, ale i system wartości uwzględniający wrażliwość społeczną, dobrostan pracowników i dbałość o środowisko naturalne, coraz mocniej obciążone działalnością człowieka.
Harmonizacja tych elementów to zadanie wymagające, ale opłacalne, bo przynoszące realne korzyści w postaci oszczędności finansowych, nowych klientów czy wzmocnienia wizerunku firmy. A jednym ze sposobów osiągnięcia tego celu jest integracja nowoczesnych technologii, tworzonych z myślą o wydajności, komforcie użytkowania i ochronie środowiska naturalnego, jak innowacyjne komputery i monitory biurowe MSI.
– Naszym obowiązkiem jest promowanie zrównoważonego rozwoju i jesteśmy dumni z tego, że możemy zaoferować naszym klientom szereg produktów przyjaznych dla środowiska. W ten sposób przyczyniamy się do ochrony naszej planety – podkreśla Wojciech Jara, Business Development Manager NEE Region w polskim oddziale MSI.
Jednym z takich produktów MSI jest Cubi N ADL-002EU, komputer wyróżniający się atrakcyjną minimalistyczną stylistyką oraz kompaktowymi wymiarami. Jego niewielka obudowa o pojemności zaledwie 0,66 litra pozwala na instalację w dowolnym miejscu – za sprawą wsparcia dla standardu monta-
żowego VESA również na uchwycie lub za monitorem – oszczędzając mnóstwo miejsca na biurku i poprawiając ergonomię oraz estetykę stanowiska pracy.
Niewielkie gabaryty nie przeszkodziły jednak w wyposażeniu urządzenia w nowoczesne procesory Intel Core z rodziny Alder Lake, słynące z energooszczędnej hybrydowej architektury. W połączeniu z pamięcią
RAM DDR4 (do 16 GB) oraz nowoczesnym dyskiem SSD typu M.2 PCIe NVMe i możliwością rozbudowy o dodatkowy nośnik
SATA 2,5” gwarantują one wysoką wydajność podczas wykonywania codziennych obowiązków.
Nie bez znaczenia dla otoczenia firmowego są także moduł dTPM zapewniający szyfrowanie sprzętowe wrażliwych danych oraz bogaty zestaw złączy, pozwalający obsłużyć nawet trzy monitory o rozdzielczości 4K UHD, na który składają się m.in. HDMI, DisplayPort i USB-C (z Thunderbolt 4 i Power Delivery 65 W). Zgodnie z polityką wspierania zrównoważonego rozwoju MSI, możliwe jest również wyrobienie certyfikatu środowiskowego EPEAT Silver.
Monitor do nowoczesnego biura
Cubi N ADL-002EU znakomicie spisuje się w zestawie z 24-calowym bezramkowym monitorem PRO MP245V, wyposażonym w matrycę o wysokim kontraście 4000:1, rozdzielczości Full HD i częstotliwości odświeżania aż 100 Hz, który ostrością i płynno-
ścią deklasuje typowe wyświetlacze biurowe o częstotliwości 60 Hz.
Nie daje im również szans w zakresie ochrony wzroku, bo w ramach pakietu MSI Eye Care użytkownik może liczyć na technologie ograniczające emisję światła niebieskiego, przeciwdziałające migotaniu obrazu, antyodblaskową powłokę ekranu czy certyfikat TUV potwierdzający możliwość dłuższej pracy bez męczenia oczu. Producent przewidział nawet funkcje Eye-Q Check, za pomocą których można przeprowadzić korektę postawy czy wyświetlić siatkę Amslera umożliwiającą ocenę czynności centralnej części siatkówki. MSI PRO MP245V to jednak nie tylko atrakcyjna stylistyka, najwyższa jakość obrazu i ergonomia użytkowania, ale i dbałość o środowisko. Monitor został wyposażony w tryb oszczędzania energii i może się pochwalić prestiżowym certyfikatem Energy Star 8.0.
MSI Cubi N ADL-002EU i PRO MP245V objęte są 2-letnią gwarancją D2D dla biznesu z możliwością rozszerzenia na indywidualnych warunkach. Zapraszamy do sprawdzenia warunków handlowych u przedstawiciela MSI.
Kontakt do przedstawiciela MSI: Wojciech Jara, Business Development Manager NEE Region, MSI Polska tel. 519 513 912 wojciechjara@msi.com
„Przewagą polskich spółek IT może być dużo
większa otwartość na dawanie autonomii w podejmowaniu decyzji zatrudnionym w Polsce specjalistom. Dotyczy to również strategicznych kwestii technicznych czy biznesowych w procesie tworzenia oprogramowania” – mówi Michał
Piątkowski, CEO, MOTIFE.
To głównie dzięki międzynarodowym firmom nastąpił bardzo duży wzrost kompetencji polskich specjalistów.
Na początek porozmawiajmy o danych, jakie zebraliście na potrzeby niedawno opublikowanego raportu „Kraków IT Market Report 2024”. Z jednej strony cieszy, że lokalny rynek stale się rozwija, ale może nieco martwić stosunkowo niski odsetek polskich rm IT. Czy to jest realny problem? Michał Piątkowski Takie są fakty. W samym Krakowie działa w sumie kilkaset firm IT, zatrudniających około 60 tysięcy osób, z czego połowa pracuje w dużych oddziałach międzynarodowych firm. Biorąc pod uwagę, że w Krakowie funkcjonują też mniejsze zagraniczne oddziały, a więc liczące poniżej 500 zatrudnionych, szacujemy, że jedynie około 20 procent specjalistów IT w naszym mieście pracuje w polskich spółkach. I choć chciałoby się, aby przewagę miały rodzime podmioty, to warto podkreślić, że przez kilka minionych dekad to głównie dzięki międzynarodowym firmom nastąpił bardzo duży wzrost kompetencji wśród polskich specjalistów. Dodatkowo mieliśmy przez ten czas i wciąż mamy do czynienia ze znaczącym napływem ka-
pitału zagranicznego, korzystnie wpływając na inwestycje i konsumpcję.
Co należałoby zrobić, żeby sytuacja zmieniła się na korzyść polskich podmiotów?
Warto o tym dyskutować, bo przecież to, co wytwarzamy na rzecz międzynarodowych firm, stanowi ich własność intelektualną, z czego czerpią szereg korzyści biznesowych. A zatem polscy specjaliści zwiększają wartość firm zagranicznych, co w dłuższej perspektywie nie wzmacnia naszej gospodarki względem innych rynków. Sprawa ta ma jeszcze taki aspekt, że polskie państwo przez lata łożyło na edukację specjalistów, którzy pracują teraz w międzynarodowych strukturach. A jeśli nawet niektórzy z nich w polskich firmach, to często świadczących usługi programistyczne podmiotom spoza kraju. I kółko się zamyka…
Wracając do waszego raportu: jak prezentuje się Kraków, jako hub innowacyjności, w porównaniu z innymi dużymi miastami?
Kraków jest bardzo mocnym ośrodkiem, a jednocześnie ma swoją specyfikę. O ile w Warszawie korporacje chętnie lokują, poza zespołami programistów, swoje centrale oraz działy sprzedaży i marketingu, o tyle Kraków uznawany jest za świetną lokalizację dla centrów rozwoju oprogramowania, gdzie prym wiedzie kadra techniczna. Podobnie wygląda to w przypadku Wrocławia, Poznania i Gdańska. Z tą jednak różnicą, że Kraków jest mocno zdominowany przez firmy amerykańskie, podczas gdy we Wrocławiu i Poznaniu dominują raczej podmioty z regionu DACH, a Gdańsk jest chętniej wybierany do prowadzenia biznesu przez skandynawskie spółki technologiczne. Patrząc zaś z perspektywy technologicznej, w Krakowie dotychczas działało stosunkowo niewiele firm specjalizujących się w rozwiązaniach opartych na oprogramowaniu typu embedded. Z tym, że to się powoli zmienia, czego przejawem jest decyzja Volvo o otwarciu tutaj centrum badawczo-rozwojowego.
W minionych kilkunastu miesiącach w Krakowie zaczęło działać ponad 20 nowych zagranicznych firm IT, w tym pięć z nich to unicorny. Trzeba przyznać, że to bardzo dobry wynik, jednak chciałoby się zapytać: kiedy doczekamy się krakowskiego unicorna? Na razie wciąż czekamy na oficjalnego polskiego unicorna, który mam nadzieję w końcu się objawi, a na Kraków też przyjdzie czas. Moim zdaniem przeszkodą wcale nie są kompetencje technologiczne specjalistów, ale umiejętności biznesowe. To znaczy proszę mnie źle nie zrozumieć – polscy przedsiębiorcy potrafią tworzyć znakomite firmy, takie jak InPost czy Comarch, które podbijają obce rynki. Natomiast wciąż brakuje nam powszechnej wiedzy i rozmachu, niezbędnych do tego, aby działać globalnie. Częściowo tłumaczy to fakt, że skoro Stany Zjednoczone są epicentrum świata technologii (wciąż), a Europa jest położona na jego peryferiach, to tym samym Polska stanowi peryferie peryferiów… Dlatego zbudowanie globalnej firmy jest u nas dużo trudniejsze niż w USA i wymaga ogromnej wprost determinacji kluczowych osób w firmie. Zwłaszcza że o specjalistów na lokalnym rynku musimy konkurować z międzynarodowymi korporacjami. Poza tym łatwiej osiągnąć globalny sukces w segmencie rozwiązań B2B niż w sektorze B2C. W tym pierwszym przypadku, żeby zaistnieć na obcych rynkach, potrzebne są znacznie mniejsze nakłady marketingowe. A polskie firmy, które odnoszą sukcesy specjalizują się raczej w produktach dla rynku B2C – jak InPost, DocPlanner czy Booksy – gdzie jednak światowa konkurencja jest wyjątkowo silna, więc szczególnie trudno jest się przebić.
Łatwiej osiągnąć
globalny sukces w segmencie rozwiązań B2B niż w sektorze B2C.
biorstw w branży nowoczesnych technologii znajduje się w głowach prezesów firm działających w tej branży. Mam przekonanie, że wśród nich nie brakuje takich, którzy mają ambicje i możliwości działania na rzecz rozwoju całej polskiej branży technologicznej. Ciekawym pomysłem wydaje się stworzenie przez nich platformy współpracy, która zaplanuje, zainicjuje i będzie wspierać niezbędne dla branży działania. Warto na pewnym etapie włączyć do tych prac inne grupy: administrację rządową, przedstawicieli uczelni, przedstawicieli dużych spółek państwowych czy środowisk startupowych. Zwłaszcza, że tych zewnętrznych czynników, które sprawiają, że polski sektor IT nie wykorzystuje w pełni swojego potencjału, jest bardzo dużo i są bardzo różne. Dopiero ich właściwa identyfikacja, a następnie systematyczne rozwiązywanie kolejnych problemów, doprowadzi nas do celu. Możemy przy tym brać przykład z innych państw, które odniosły niewątpliwy sukces, w tym Izraela, ale nie tylko, bo również Wielkiej Brytanii czy Francji.
Mam obawy, że wielu polskich prezesów, którzy odnieśli sukces, będzie jednak chciało – zamiast swoje firmy dalej rozwijać – sprzedać je większym podmiotom, wybierając „karierę” rentiera.
Co należałoby zrobić, żeby wesprzeć rozwój polskiego sektora technologicznego? Czy to rola polityków? Częściowo pewnie tak, ale problem jest znacznie bardziej złożony. Praktyczna wiedza na temat budowania przedsię-
A czym się tu martwić? Ja akurat uważam, że to wcale nie jest niepożądane zjawisko. W USA jest powszechnie przyjęte, że firma technologiczna przechodzi przez różne fazy – od powstania aż do exitu. To właśnie dzięki udanym exitom do kluczowych osób w firmach trafiają pokaźne środki, z których część jest inwestowana w kolejne spółki. W efekcie rynek startupów rozwija się przez pączkowanie, co korzystnie wpływa na innowacyjność na danym rynku. W Polsce zaś zbyt często traktuje się swoje firmy jak własne „dzieci”, z którymi chce się pozostać do końca życia. Być może brakuje nam jeszcze kultury exitu, przez co dobrych polskich startupów, z doświadczoną kadrą founderów, jest mniej niż
mogłoby być. Niewykluczone, że tak będzie w przyszłości.
Za to wciąż przybywa zagranicznych marek. Z waszego raportu wynika, że w latach 2012–2023 średnio każdego roku rozpoczynało działalność w Krakowie dziesięciu zagranicznych graczy IT. W jaki sposób miasto pozyskuje nowych inwestorów?
Jednym z wielu czynników jest duża otwartość lokalnego samorządu, który zawsze deklaruje gotowość do rozmów i współpracy z inwestorami. Z drugiej strony lokalne organizacje, w tym zrzeszenia pracodawców, takie jak Aspire, ABSL, American Chamber of Commerce, jak też poszczególne firmy, są znakomitymi ambasadorami Krakowa. Ogromne znaczenie ma w tym przypadku międzynarodowy marketing szeptany.
A jakie znaczenie ma Krakowski Park Technologiczny, który pełni rolę administratora specjalnej strefy ekonomicznej?
Krakowski Park Technologiczny jest ważną instytucją lokalnego ekosystemu. Co do specjalnej strefy ekonomicznej, nie jestem przekonany czy zagraniczne firmy technologiczne powinny liczyć na znaczące ulgi podatkowe. Tym bardziej, że model biznesowy zagranicznych korporacji, który skutkuje niskim lokalnym zyskiem, a więc i niskimi kwotami podatków, sprawia, że tego rodzaju benefity mają dla inwestorów często marginalne znaczenie przy podejmowaniu decyzji o otwarciu oddziału w Polsce. Faktycznych powodów jest dużo więcej, w tym wysoko wykwalifikowana kadra za konkurencyjne stawki, a dodatkowo gwarantująca bliskość kulturową.
To rzeczywiście aż tak ważny czynnik?
coś będzie gotowe za tydzień, to taka deklaracja może mieć inne znaczenie niż kiedy to samo powie specjalista z innego kręgu kulturowego. Jest bardzo ważne, żeby obie strony wiedziały czego wzajemnie mogą się po sobie spodziewać i od siebie nawzajem oczekiwać.
Z waszych danych wynika, że w Krakowie rośnie zatrudnienie na stanowiskach wymagających specjalizacji, w tym data engineers, data scientists czy cloud engineers… Jest to trend obecny globalnie w całej branży IT. Można by powiedzieć, że jeśli ktoś chce mieć bardzo dobrą perspektywę rozwoju w sektorze IT, powinien specjalizować się w tych właśnie obszarach. Dotyczy to oczywiście nie tylko pojedynczych osób, ale też całych przedsiębiorstw.
A zatem jesteśmy bez szans?
Kraków uznawany jest za świetną lokalizację dla centrów rozwoju oprogramowania.
Jak najbardziej, bliskość kulturowa, a także zrozumienie międzykulturowe to jedne z kluczowych aspektów warunkujących dobrą współpracę i wzajemne porozumienie. Ujmę to tak, przykładowo, kiedy polski specjalista powie, że
Tytuł jednego z rozdziałów wspomnianego raportu brzmi: „How to employ IT talent in Poland?”. Spróbujmy odpowiedzieć na to pytanie. No cóż, z punktu widzenia polskich pracodawców w branży, firmy te muszą podjąć wysiłek i zaproponować swoim specjalistom podobny poziom wynagrodzeń i benefitów, jak zachodnie korporacje. Niestety, nie pomaga im w tym wciąż pokutujące przekonanie, czasem zresztą nie bez racji, że zagraniczne firmy charakteryzują się wyższą kulturą organizacyjną. A dodatkowo zapewniają dostęp do międzynarodowego środowiska, a nierzadko też podróży do różnych krajów, a więc zdobywania doświadczeń zawodowych poza Polską. Lokalne firmy, które ograniczają się do działania na polskim rynku z definicji nie są w stanie tego zaoferować. Warto jednak przy tym dodać, że inaczej wyglądają starania o świetnego specjalistę z doświadczeniem międzynarodowym, a inaczej próba pozyskania programisty bez dobrej znajomości języka angielskiego. W tym drugim przypadku polskiej firmie będzie mimo wszystko łatwiej.
Na szczęście nie. Przewagą polskich spółek IT może być dużo większa otwartość na dawanie autonomii w podejmowaniu decyzji zatrudnionym w Polsce specjalistom. Dotyczy to również strategicznych kwestii technicznych czy biznesowych w procesie tworzenia oprogramowania. Firmy zagraniczne zwykle nie dają tak dużej, a często wręcz żadnej swobody decyzyjnej swoim polskim pracownikom. Niemniej w pewnym momencie nastąpił taki dość ścisły podział na osoby pracujące w zagranicznych firmach i specjalistów, którzy pracują w firmach polskich. I przepływ pomiędzy tymi dwoma grupami jest stosunkowo niewielki. To wynika z jednej strony z bariery językowej, a z drugiej pojawiającego się u niektórych specjalistów przekonania, że przejście z korporacji do polskiej firmy to jakby transfer z ekstraklasy do niższej ligi.
Jednym ze szczególnie interesujących rozdziałów raportu jest ten dotyczący „neurodiversity in IT”. Z jakim potencjałem mamy tu do czynienia i jak można go uwolnić?
Przede wszystkim warto zapoznać się z tym tematem, a więc zdobyć wiedzę na temat rodzajów neuroróżnorodności. Posiadając już tę wiedzę, będzie można zastosować ją w praktyce. I niekoniecznie chodzi tu o cele biznesowe, ale o zmniejszanie wykluczenia społecznego w miejscach pracy. Przykładowo, należy w procesie rekrutacji wziąć pod uwagę, że nie każda osoba będzie odpowiadała zgodnie z przyjętym przez nas szablonem, co wcale nie znaczy, że jest niekompetentna. Nie brakuje świetnych fachowców, którzy mają bardzo konkretne potrzeby związane z miejscem pracy, przykładowo związane z hałaśliwym otoczeniem lub zbyt jasnym światłem. To oczywiście tylko pojedyncze przykłady, których jest znacznie więcej. Jeśli zatem postawimy tezę, że firma na zwiększonej różnorodności zawsze korzysta, to zatrudnianie osób z różnymi cechami w kontekście neuroróżnorodności ma również biznesowy sens. Na rynku są
profesjonalne firmy, którzy pomagają przedsiębiorcom w tym zakresie – jedną z nich prezentujemy w raporcie „Kraków IT Market Report 2024”.
Czy zagrożeniem dla dalszego rozwoju polskiego rynku IT jest demografia?
w niewystarczającym stopniu reguluje działania dużych firm technologicznych.
W długiej perspektywie z całą pewnością tak, ale to zagadnienie jest dużo bardziej złożone niż wynikałoby z alarmistycznych przekazów medialnych. Jak na razie w branży IT mamy do czynienia z dużym napływem chętnych. Wystarczy spojrzeć na rosnący odsetek studentów informatyki w stosunku do studentów wszystkich pozostałych kierunków. Obecnie przekroczył on już poziom 10 procent, bo coraz więcej osób chce pracować w sektorze IT ze względu na dobre płace i pewność zatrudnienia. W sumie zatem słaba demografia jest tymczasowo równoważona rosnącym zainteresowaniem branżą technologiczną. Docelowo jednak nie unikniemy konieczności opracowania mechanizmu ściągania do Polski specjalistów z zagranicy, w tym także na etapie edukacji. Osoby te po ukończeniu studiów w Polsce zostałyby tutaj podejmując pracę, najlepiej w polskiej firmie IT.
W ubiegłym roku wziął Pan udział, jako prelegent, w Krakowskim Salonie Ekonomicznym NBP. Tematem przewodnim była „wolność” jako składowa sukcesu gospodarczego. Czy w obecnej, przeregulowanej unijnej gospodarce, możemy jeszcze mówić o „wolności”?
Osobiście jestem zdania, że w niektórych aspektach jest niedostatecznie regulowana.
Słucham?
Sądzę, że Unia Europejska w niewystarczającym stopniu reguluje działania dużych firm technologicznych, przede wszystkim z grupy określanej niegdyś jako GAFAM. Przykładowo, Meta nie ponosi praktycznie żadnej odpo-
wiedzialności za to, jaką rolę odgrywa w procesach związanych z manipulowaniem opinią publiczną. Jednocześnie lokalne rządy w poszczególnych krajach europejskich nie mają wpływu na sposób funkcjonowania największych platform social mediowych czy wyszukiwarki Google. A to powinno podlegać skutecznym regulacjom. Z drugiej strony pozostaje otwartym pytanie, czy Unia dostatecznie wspiera europejskie podmioty w globalnej grze konkurencyjnej w sektorze technologicznym. Mam przekonanie, że to wsparcie nie jest wystarczające.
Wróćmy na koniec do Krakowa jako lokalnego hubu innowacyjności. Jaki powinien być za dziesięć lat, żeby można było uznać jego rozwój za duży sukces?
Chciałbym, żebyśmy za te symboliczne 10, może 15 lat mieli w Krakowie sto polskich firm technologicznych, specjalizujących się w tworzeniu własnego oprogramowania – platform czy aplikacji, a więc nie świadczących jedynie usług zewnętrznym zleceniodawcom. Takich, które działają na poziomie globalnym, a przynajmniej regionalnym, zatrudniając co najmniej 100 osób. Żeby jednak do tego doszło, potrzeba spełnienia szeregu czynników prawnych, gospodarczych, edukacyjnych, politycznych, jak też współpracy pomiędzy całymi sektorami gospodarki i poszczególnymi podmiotami. W tym przypadku nie ma łatwych i prostych rozwiązań.
Rozmawiał Tomasz Gołębiowski
CYBERBEZPIECZEŃSTWO W INSTYTUCJACH SAMORZĄDOWYCH
Samorządy mają trudności, aby nadążać za zmianami zachodzącymi w świecie cyberbezpieczeństwa. Na szczęście istnieją sposoby na poradzenie sobie przynajmniej z częścią przeszkód na drodze do innowacji.
Polskie samorządy przygotowują się, aby odeprzeć nasilającą się ofensywę hakerów, również tych ze Wschodu. Nie tak dawno Krzysztof Gawkowski, wicepremier i minister cyfryzacji, stwierdził, że mamy zimną wojnę w cyberprzestrzeni. Napastnicy, wśród których dużą aktywnością wykazują się groźne grupy APT, coraz częściej atakują Polskę. Ich działania są wymierzone nie tylko w świat biznesu, ale również w instytucje państwowe.
Nie bez przyczyny rząd chce dać jednostkom samorządowym do ręki narzędzia nowej generacji, umożliwiającą skuteczną walkę z grupami cyberprzestępczymi. W tym celu uruchomiono w ubiegłym roku rządowy program „Cyberbezpieczny Samorząd”, realizowany w partnerstwie z Państwowym Instytutem Badawczym
NASK. Na jednostki samorządu terytorialnego czeka 1,5 mld zł, z czego 1,2 mld zł na infrastrukturę sprzętową i oprogramowanie oraz wdrożenia, a 183 mln zł na opracowanie procedur, certyfikację, audyty i wdrażanie systemu zarządzania bezpieczeństwem informacji. Z kolei 105 mln zł ma być przeznaczone na szkolenie pracowników. Środki należy wykorzystać do końca czerwca 2026 r. W związku z tym decydenci mają dość dużo czasu, aby spokojnie przemyśleć ich alokację.
Małe gminy powinny tworzyć centra usług wspólnych.
Jedną z podstawowych czynności, poprzedzających wybór systemu bezpieczeństwa IT, jest zdefiniowanie zagrożeń. Nieraz słyszy się, że gangi ransomware, które sieją spustoszenie wśród użytkow-
Jerzy Trzepla, dyrektor działu produktów bezpieczeństwa w Exclusive Networks
ników biznesowych, nie wykazują większego zainteresowania samorządami. Po części jest to prawda, aczkolwiek działania cyberprzestępców nie ograniczają się wyłącznie do jednego rodzaju ataków. Poza tym samorządy wkroczyły w erę cyfrową, przy czym proces digitalizacji przebiega w różnym tempie. Inne wymagania w tym zakresie ma mała gmina wiejska, a inne duże miasto wojewódzkie. Co nie zmienia faktu, że jedni i drudzy muszą wdrażać systemy chroniące sieć, urządzenia końcowe czy dane.
– Wraz z nadejściem cyfryzacji zaczęły obowiązywać nowe zasady. Wszelkie przestoje infrastruktury IT, wywołane przez awarie lub cyberataki, nabrały większego znaczenia. O ile jeszcze kilka lat temu nie były one zbyt dokuczliwe, o tyle w obecnych czasach to norma. Ponadto na urzędniczych serwerach znajduje się wiele danych osobowych, łakomy kąsek dla hakerów – tłumaczy Jerzy Trzepla, dyrektor działu produktów bezpieczeństwa w Exclusive Networks.
Rzecz jasna, jednostki samorządów terytorialnych posiadają już rozwiązania chroniące ich infrastrukturę przed hakerami. Trudno byłoby znaleźć tego rodzaju instytucję bez narzędzi do backupu i odzyskiwania danych czy podstawowego oprogramowania antywirusowego. To jednak zaledwie podstawa dobrej
ochrony. Obecnie konieczne jest myślenie o „cyberbezpieczeństwie 2.0”. Zwłaszcza że dyrektywa NIS 2 dotyczy wszystkich podmiotów administracji publicznej, nie tylko tych prowadzących działalność w dziedzinach bezpieczeństwa narodowego, bezpieczeństwa publicznego, obronności lub egzekwowania prawa. Nakłada ona na jednostki samorządowe szereg ważnych wymagań dotyczących cyberbezpieczeństwa, takich jak zarządzanie ryzykiem, zgłaszanie poważnych incydentów związanych z cyberbezpieczeństwem czy audyty środowiska informatycznego.
Jednym z największych wyzwań na rynku cyberbezpieczeństwa jest brak wykwalifi kowanych fachowców. Z problemem tym borykają się nawet duże przedsiębiorstwa. W przypadku samorządów sytuacja jest wyjątkowa trudna, ze względu na mało konkurencyjne stawki płacowe. To szczególnie poważna przeszkoda podczas korzystania z zaawansowanych systemów, takich jak EDR, XDR czy SIEM. Te rozwiązania do identyfikacji zagrożeń mają zastosowanie między innymi w SOC-ach (Security Operations Center).
Zdaniem Jerzego Trzepli samorządy stoją przed wyborem jednej z dwóch dróg. Jedną z nich jest korzystanie z usług zarządzanych. W praktyce oznacza to wdrożenie rozwiązania Security Operations Center, zbierającego informacje z różnych systemów zabezpieczających i na tej podstawie wykrywającego incydenty. Niestety, to jest coś, co przerasta możliwości jednostki samorządu terytorialnego. Tym bardziej, że system musi działać w trybie 24/7, a do jego obsługi potrzeba co najmniej czterech osób. Dlatego w tym przypadku jedynym wyjściem
może być podpisanie umowy z operatorem bądź firmą zewnętrzną specjalizującą się w tego rodzaju usługach. Jednak w przypadku mniejszych gmin będzie to inwestycja nieadekwatna do realnych potrzeb.
Niemniej, istnieje również druga droga, polegająca na zrzeszaniu się kilku gmin, które tworzą centrum usług wspólnych. Co istotne, można w ten sposób świadczyć usługi na rzecz zarówno jednostek samorządu terytorialnego, jak i podległych im jednostek.
– Myślę, że jest to absolutnie do zrobienia. Właśnie w tę stronę powinny podążać zwłaszcza mniejsze gminy, które chcą zapewnić sobie bezpieczeństwo – podkreśla Jerzy Trzepla.
Samorządy na ogół nie mają kłopotów z doborem rozwiązań do ochrony sieci. Na rynku dostępna jest szeroka gama produktów, dopasowanych do różnego rodzaju potrzeb. W przypadku zamówień publicznych kluczową rolę odgrywa cena. Poza nią liczy się też powszechność zastosowania.
Samorządy w Polsce stoją przed wyborem jednej z dwóch
– Ta grupa klientów nie wybiera efemerycznych produktów. Duże znaczenie ma dla nich fakt, że kolega z sąsiedniego urzędu posiada takie samo rozwiązanie, ponieważ łatwiej wymieniać się informacjami na temat działania sprzętu czy oprogramowania. Kolejnym ważnym czynnikiem jest przyjazny interfejs użytkownika, a co za tym idzie, łatwość obsługi systemu – mówi Jerzy Trzepla. Jednostki samorządu terytorialnego wybierają zarówno urządzenia UTM, jak i firewalle. Oba produkty coraz bardziej się do siebie upodobniają, a o ich wyborze decydują przyzwyczajenia użytkowników oraz działania marketingowe producentów.
– Jeśli dokładnie przyjrzymy się funkcjom UTM-a oraz firewalla, okazuje się, że są do siebie bardzo zbliżone. Można powiedzieć, że 80 procent rozwiązań spełnia 80 procent wymagań 80 procentów klientów. Podobnie jest ze skutecznością wykrywania zagrożeń. Testy niezależnych instytucji badawczych pokazują, że różnice w wykrywalności wynoszą około 2 procent. Z punktu widzenia użytkownika końcowego nie ma to tak naprawdę znaczenia – dodaje Jerzy Trzepla. Rewolucji nie należy się spodziewać w segmencie produktów do ochrony danych. Jednostki samorządów terytorialnych stawiają na rozwiązania tradycyjne, a jedyne co się zmienia to ciągły przyrost danych. Urzędy zazwyczaj przechowują kopie zapasowe na serwerach NAS oraz bibliotekach taśmowych. Wiele wskazuje na to, że taśmy jeszcze dość długo pozostaną w urzędach ze względu na to, iż jest to najtańszy nośnik, a także stanowi solidne zabezpieczenie przed atakami ransomware. Dlatego bardzo ważne jest, aby systemy pamięci masowych, które pracują w jednostkach samorządowych, potrafiły je obsługiwać.
Warto na koniec podkreślić, że urzędy bardzo ostrożnie podchodzą do backupu online, preferując rozwiązania lokalne. Dzieje się tak z dwóch powodów: chęci posiadania produktów na własność, a także ewentualnych trudności związanych z odzyskiwaniem danych z chmury publicznej.
„Raportowanie ESG jest rewolucją w sprawozdawczości. Jak pokazuje doświadczenie, wprowadzane zmiany wymagają czasu, w trakcie którego wykształcą się dobre praktyki i standardy tworzenia i publikacji raportów ESG, w tym również samego procesu audytu” – mówi Andrzej Przybyło, prezes Grupy AB.
W mojej ocenie zbyt mało, w kontekście ESG, mówi się o idei circular economy. Czy ma ona szansę przebić się realnie do branżowego „mainstreamu”, biorąc pod uwagę, że producenci żyją ze sprzedaży nowych modeli, a nie odświeżania starych? Jakie modele finansowe mogą w tym przypadku pomóc w popularyzacji tego modelu biznesowego?
Andrzej Przybyło Idea gospodarki obiegu zamkniętego jest słuszna i już teraz na rynku są widoczne oferty produktów refabrykowanych, które na dobre wpisały się w obszar poszukiwań konsumentów. Zapewne w zakresie zainteresowania większości vendorów znajdują się rozwiązania, które pozwolą pogodzić te dwie, na pierwszy rzut oka rozbieżne, koncepcje strumieni przychodów, czyli rozwoju w oparciu o nowe produkty i realizacji biznesu w modelu circular economy. Niektórzy producenci już posiadają w ofercie portfolio z obiegu wtórnego. Przeważnie dotyczy to serii produktów biznesowych, które wykazują się najwyższą trwałością i na które jest
najwyższy popyt na rynku produktów, które nie są nowe.
Warto także dodać, że circular economy to nie tylko wtórny obieg i remarketing produktów. Producenci mocno angażują się w zmiany w projektowaniu urządzeń, aby zwiększyć ich naprawialność, zmniejszyć koszty naprawy i wydłużyć okres, w którym użytkowanie jest zasadne funkcjonalnie i ekonomicznie. Ekoprojektowanie, zwiększenie dostępności fizycznej i cenowej części zamiennych, uproszczenie i co za tym idzie, zmniejszenie kosztów serwisu, może bardziej wpłynąć na rynek circular economy niż same procesy związane z remarketingiem.
Circular economy to nie tylko wtórny obieg i remarketing produktów.
Jak widzicie rozwój, także w powyższym kontekście, modelu device-as-a-service?
W AB dostrzegamy, że ze względu na coraz szybsze zmiany technologiczne, rozwój AI i rozwiązań chmurowych, docelowo to właśnie używanie zamiast posiadania okazuje się często dużo bardziej zasadne. Dzieje się tak między innymi ze względu na potrzebę posiadania dostępu do urządzenia spełnia-
jącego aktualne wymagania technologiczne, a model DaaS umożliwia większą elastyczność w tym zakresie niż klasyczny leasing lub posiadanie z amortyzacją. Dlatego cały czas rozwijamy ofertę DaaS i wprowadzamy nowe rozwiązania w tym zakresie, tak aby zainteresowanie tego typu usługą stało się znaczącym trendem, co prognozują analitycy rynkowi. Oczywiście model DaaS, właściwie zaimplementowany, jak najbardziej wpisuje się również w założenia gospodarki o obiegu zamkniętym. Dzięki temu, że cały czas nabywamy doświadczenie w tym zakresie, widzimy, że zbudowanie odpowiedniej skali biznesu DaaS w sposób rentowny wiąże się z wieloma wyzwaniami, do których należy określenie wartości rezydualnej urządzenia w bardzo szybko zmieniającym się świecie, co obarczone jest ryzykiem. Co za tym idzie, trudno skonstruować ofertę w taki sposób, aby była konkurencyjna w stosunku do ofert samego finansowania, jak chociażby leasing. Zwiększanie elastyczności w zakresie umownego okresu użytkowania, bardziej liberalne podejście do rozumienia akceptowalnych śladów użytkowania, oferowanie ubezpieczeń i serwisu na wypadek uszkodzeń, zwiększa
grono potencjalnych klientów, ale zwiększa też ponoszone przez klientów koszty.
Wydaje się, że warto dokładnie przyjrzeć się regulacjom ESG w kontekście dystrybucji oraz kanału sprzedaży IT. Innymi słowy: stanowią zagrożenie czy szansę? Jeśli to pierwsze, to jak temu zaradzić, a jeśli to drugie, to jak ją wykorzystać?
Jak to z regulacjami bywa – stanowią jednocześnie szansę i zagrożenie dla rozwoju firmy, w zależności od jakości implementacji po stronie firm, jak i regulatora. Szansą jest budowanie zaufania klientów i partnerów biznesowych. Większa dostępność danych ESG może być wykorzystana do rozbudowy metodologii scoringów ESG i szerszego ich wykorzystania do ustalania kosztów i możliwości finansowania. Lepszy scoring ESG to także sygnał dla inwestorów o zmniejszonym ryzyku zaangażowania kapitałowego w dane przedsiębiorstwo, mniejszym ryzyku reputacyjnym i regulacyjnym. Przedsiębiorstwa mogą wykorzystać swoje projekty dekarbonizacyjne i zaangażowanie w ESG jako element marketingu i brandingu, promując swoje produkty i usługi jako bardziej zrównoważone.
Oczywiście stopień złożoności i czasochłonności raportowania może generować dodatkowe koszty związane z zaangażowaniem pracowników oraz koszty usług doradczych. Przekrój raportowania będzie oznaczać potencjalną konieczność posiadania narzędzi IT służących do zbierania danych, przygotowania do raportowania. Wyzwaniem jest również raportowanie śladu węglowego we wszystkich kategoriach zakresu trzeciego. Niewątpliwie ten obszar raportowania wymagać będzie współpracy stron zaangażowanych w proces wdrażania regulacji oraz jednostek zobowiązanych do okresowej publikacji raportów ESG, aby wartość informacyjna danych była jak najwyższa. Reasumując, raportowanie stanie się szansą, jeśli podejdziemy do niego z zaangażowaniem i z celem wykorzystania w doskonaleniu procesów biznesowych. Zagrożenia wynikające z regulacji zmitygujemy, zabezpieczając odpowiednie zasoby finansowe i osobowe na realizację obowiązku raportowego i projektów biznesowych realizujących cele i zadania ESG. Tak czy inaczej, raportowanie ESG jest rewolucją w sprawozdawczości. Jak pokazu-
je doświadczenie, wprowadzane zmiany wymagają czasu, w trakcie którego wykształcą się dobre praktyki i standardy tworzenia i publikacji raportów ESG, w tym również samego procesu audytu.
Pomówmy o rynku: poprzedni rok i pierwsza połowa tego rozczarowała – zwłaszcza w Polsce, która wcześniej była liderem i jasno świeciła na mapie Europy. Jakie są wasze oczekiwania na drugą – kalendarzową – połowę 2024? Mocno stąpamy po ziemi, lecz nie odbiegamy w naszych oczekiwaniach od większości analityków, którzy prognozują pozytywne odbicie na rynku w drugiej połowie tego roku. Jeśli chodzi o bazę do tych przewidywań, to podzieliłbym ją zasadniczo na dwa obszary – pierwszy jest związany z ogólnymi impulsami ekonomicznymi, regulacyjnymi i inwestycyjnymi, które nadchodzą w naszym kierunku. Do takich niewątpliwie należą fundusze z Krajowego Planu Odbudowy, które już w formie konkretnych i realnych programów powinny w trzecim i czwartym kwartale zacząć napływać na rynek, a w których znaczącym priorytetem jest akceleracja cyfrowej transformacji naszej gospodarki. W obszarze bezpieczeństwa IT mamy z kolei do czynienia z wymaganiami nałożonymi w dyrektywie NIS 2, która ma na celu poprawę odporności systemów IT na wszelkie zagrożenia, które szczególnie w obecnych niespokojnych czasach znacząco rosną. Liczymy również na kontynuację dużych programów publicznych wspierających informatyzację w edukacji, badaniach naukowych czy służbie zdrowia.
A ten drugi obszar?
ment związany z nowoczesną komunikacją bezprzewodową – sieci 5G, a także wchodzący na rynek nowy standard sieci bezprzewodowych WIFI 7. Przyspieszenie w rewolucji cyfrowej przynosi także trend związany z ograniczaniem negatywnego oddziaływania branży IT na środowisko naturalne, który wymusza budowę urządzeń bardziej efektywnych energetycznie czy złożonych z odzyskiwanych surowców. Dlatego z optymizmem patrzymy na nadchodzące okresy, w tym już na drugą połowę tego roku.
Zbudowanie odpowiedniej skali biznesu
DaaS w sposób rentowny wiąże się z wieloma wyzwaniami.
Nawiązując do wspomnianej już kwestii AI: jakie jest podejście AB do sztucznej inteligencji: czy waszym zdaniem to wciąż buzzword czy już „drugi cloud”, który dopiero się rozpędza? Można z całą pewnością stwierdzić, że AI jest traktowana jako „drugi cloud”, który dopiero nabiera tempa, a nawet więcej – ma potencjał stać się jednym z głównych kierunków rozwoju technologicznego i gospodarczego w Europie. A zmiany wywołane rozwojem AI dla Grupy AB mają zdecydowanie pozytywny kontekst. W obszarze zapotrzebowania na wyspecjalizowany i zoptymalizowany pod kątem użycia sztucznej inteligencji sprzęt, upowszechnianie się tej technologii powinno przynieść znaczące wzrosty popytu zarówno w segmencie klientów klasy enterprise, jak i w segmencie konsumenckim. Wśród rozwiązań enterprise już teraz uwidacznia się to, jak będzie rosła rola rozwiązań HPC (high-performance computing – red.) niezbędnych do przetwarzania złożonych algorytmów AI oraz masywnych zestawów danych wymaganych do trenowania sztucznej inteligencji.
Drugim obszarem czynników stymulujących wzrosty powinien być z kolei obszar technologii, gdzie również mamy wiele dynamicznie rosnących kategorii na czele ze sztuczną inteligencją wymagającą dużej i specjalizowanej mocy obliczeniowej. I tutaj dotykamy sektora data center, lecz również rozwiązań konsumenckich i biznesowych, takich jak szeroko już promowane AI-PC. Na pewno dynamicznie nadal będzie rozwijał się seg-
O tym, że podchodzimy do AI bardzo poważnie, niech świadczą również nasze działania wewnętrzne, bo AI chcemy w jeszcze większym stopniu wykorzystać przy optymalizacji operacji wewnątrz organizacji, a co za tym idzie przygotować jeszcze lepszą ofertę związaną z łańcuchem dostaw, logistyką, obsługą klienta i analizą danych.
Rozmawiał Tomasz Gołębiowski
Chociaż działania największych dostawców usług chmurowych budzą mieszane uczucia, to liczba ich klientów rośnie w dość szybkim tempie.
n Wojciech Urbanek
Termin hiperskaler po raz pierwszy pojawił się w latach 90. podczas boomu dotcomów. W tym czasie odnosił się on do centrów danych, których architektura musiała się skalować, aby spełniać rosnące wymagania systemów IT. Potem na dłuższy czas termin ten został zapomniany, ale w ostatnich latach wrócił ze zdwojoną siłą. Obecnie pojęcie to odnosi się do największych dostawców usług chmurowych: AWS-u, Microsoftu, Google’a, a czasami również IBM-u czy Alibaby.
Pierwsza trójka wymienionych graczy praktycznie na nowo zdefi niowała internet, a rosnąca konsumpcja usług chmurowych sprawiła, że centra danych zaczęły rozrastać się do monstrualnych wręcz rozmiarów. Współcześni hiperskalerzy mają zdolności obsługi niewyobrażalnych wręcz ilości danych, mocy obliczeniowych oraz zasobów sieciowych, dążąc do dalszego, szybkiego rozszerzania infrastruktury, aby zaspokoić rosnący popyt. Według analityków International Date Council hiperskalowalne centrum danych powinno składać się z co najmniej 5 tys.
serwerów i zajmować powierzchnię nie mniejszą niż 920 metrów kwadratowych. Wprawdzie nie ma prostych wytycznych dotyczących zużycia energii, aczkolwiek praktyka dowodzi, że większość hiperskalowych centrów danych zużywa od 100 megawatów (MW) do 300 MW. Analitycy Synergy Research Group szacują, że obecnie na całym świecie działa ponad tysiąc takich obiektów.
Na dłuższy czas termin „hiperskaler” został zapomniany. Teraz wrócił ze zdwojoną siłą.
Stworzenie hiperskalowalnego centrum danych od podstaw to przedsięwzięcie poważne, wymagające nie tylko głębokiej kieszeni i znacznego wysiłku. Na liście wytycznych można znaleźć wiele ciekawych pozycji, takich jak wymagania wobec używanego sprzętu przeciwpożarowego i radzenia sobie z obsługą ogromnych obciążeń elektrycznych. Do potrzeb wliczyć należy parking przeznaczony nie tylko do obsługi samochodów używanych przez operatorów centrów danych, ale również dla wszelkich pojazdów ratunkowych. Do tego dochodzą jeszcze kosztowne umowy, które trzeba podpisać z lokalnymi rządami oraz społecznościami.
Według badania przeprowadzonego przez Synergy Research Group hiperskalowe centra danych mają już 37 proc. udziału w całym rynku pod względem pojemności, co bardzo dobrze ilustruje wpływ przetwarzania w chmurze na inwestycje w infrastrukturę. Kolejne 23 proc. należy do dużych operatorów oferujących kolokację, a pozostałe 40 proc. do lokalnych centrów danych. Warto odnotować, że te ostatnie miały pięć lat temu znacznie większy udział w rynku (sięgał wówczas blisko 60 proc.). Na razie nic nie wskazuje na to, że obecny trend zostanie zatrzymany. Lawinowy przyrost danych, ostatnio głównie napędzany przez boom na sztuczną inteligencję, napędza inwestycje hiperkalerów w centra danych. Analitycy Gartnera wierzą, że w tym roku „hiperskalerzy i inni dostawcy usług będą stanowić 76 proc. jednostek serwerów AI”.
Wystarczy wspomnieć, że AWS w tym roku wyłożył 10 mld dol. na budowę dwóch kompleksów centrów danych w Mississippi. Poza tym rozrastają się istniejące centra danych AWS-u wraz z planami utworzenia 12 kolejnych stref dostępności i czterech kolejnych regionów tego dostawcy w Niemczech, Malezji, Nowej Zelandii i Tajlandii. Z kolei Microsoft
zobowiązał się zainwestować 3,2 mld euro (3,4 mld dol.) w podwojenie swojej infrastruktury sztucznej inteligencji i wydajności przetwarzania w chmurze w Niemczech. Ta ekspansja skoncentruje się na istniejącym regionie chmur we Frankfurcie i nowo planowanej infrastrukturze w Nadrenii Północnej Westfalii.
Mniejsze serwerownie w odwrocie
Synergy Research Group przewiduje, że w ciągu najbliższych pięciu lat udział hiperskalerów w pojemności wszystkich centrów danych przekroczy 50 proc., podczas gdy udział lokalnych obiektów skurczy się do mniej niż 30 proc., zaś reszta ma należeć dla kolokacji. To pokazuje, że mniejsze serwerownie nie znikną, natomiast ich znaczenie będzie powoli spadać. Niewiele za to zmieni się w zakresie kolokacji, w przypadku której analitycy spodziewają się stabilnego udziału w rynku, bez wyraźnych wzrostów, ale również spadków. Rozwój wypadków w segmencie centrów danych ma znaczący wpływ na rynek serwerów oraz pamięci masowych. Kilka lat temu po konsolidacji w segmencie serwerów i pamięci masowych martwiono się, że pozostało na nim jedynie pięciu sprzedawców. Obecnie pół żartem, pół serio mawia się, że będą oni dostarczać produkty tylko do pięciu nabywców. Wprawdzie
Najwięcej emocji wzbudzają koszty.
Mikołaj Wiśniak, wiceprezes, IT Solution Factor
ten żart nie oddaje do końca realnego stanu, ale też tak bardzo od niego nie odbiega. Według IDC w 2023 r. wszyscy dostawcy usług zakupili serwery i pamięci masowe o łącznej wartości 94,5 mld dol., co dało im 56,4 proc. udział w tym rynku. Natomiast według prognoz IDC na koniec 2028 r. wydatki na ten cel osiągną poziom 188,5 mld dol., dając tej prestiżowej grupie udziały na poziomie 69,7 proc. Natomiast przedsiębiorstwa, rządy oraz instytucje akademickie wydały w 2023 r. 73,1 mld dol. (43,6 proc.). Ich wydatki na ten sprzęt będą rosnąć i w 2028 r. mają wynieść 82 mld dol. (30,3 proc.).
Ucieczka z chmury
Oferta hiperskalerów zawierająca bardzo szeroką gamę usług chmurowych, począwszy od mocy obliczeniowej, poprzez bazy danych, narzędzia analityczne, aplikacje biurowe, aż po powierzchnie do przechowywania danych, znajduje wielu zwolenników. Powszechnie znane są też zalety usług chmurowych, takie jak niemal nieograniczona skalowalność w górę i w dół czy brak ponoszenia przez klienta kosztów początkowych. Jednak w tym monolicie pojawiają się też rysy. Wiązanie się z jednym dostawcą może ograniczyć zdolność firmy do innowacji i rozwoju. Poza tym hiperskalerzy często dostarczają standardowe rozwiązania, które trudno dopasować do specyficznych wymagań pojedynczych firm. Przy czym najwięcej
Alternatywą dla usług chmurowych jest kolokacja. W tym przypadku klient jest właścicielem sprzętu, co oznacza, że może zapewnić sobie kompatybilność oprogramowania i infrastruktury, jak też pełną kontrolę fizyczną i logiczną dostępu do tych rozwiązań – nie ma tu zewnętrznych dostawców. Innym aspektem jest na pewno cena, ponieważ przy kolokacji płacimy za zewnętrzną serwerownię, zaś usługami uruchomienia, skalowania czy utrzymania zajmujemy się we własnym zakresie. Pomimo rosnących presji płacowych, cała część związana z kosztami OPEX leży po stronie klienta. Hiperskalerzy w ramach jednej ceny dostarczają wszystko, więc w przypadku takich rozwiązań wskaźnik TCO jest stosunkowo bardziej korzystny dla użytkownika. Ważna jest też możliwość połączenia między ośrodkami, bo decydując się na kolokację możemy zamówić specjalnie przeznaczony do tego światłowód.
emocji wzbudzają koszty. Hiperskalerzy pobierają dodatkowe opłaty za różnego rodzaju dodatkowe usługi, które po zsumowaniu mogą przyprawić o zawrót głowy dyrektorów finansowych, zwłaszcza w mniejszych i średnich fi rmach, które mają wysokie wymagania w zakresie mocy obliczeniowej bądź przestrzeni dyskowej.
Trzy lata temu szerokim echem odbił się artykuł dwóch ekspertów Andreessen Horowitz. Sarah Wang i Martin Casado w publikacji „The Cost of Cloud, a Trillion Dollar Paradox” pokazali na konkretnych przypadkach, że chmura publiczna może być pułapką. W tym kontekście chyba najgłośniejszy jest przykład Dropboxa, który dość długo był uzależniony od Amazon Web Services. W 2016 r. przedsiębiorstwo podjęło decyzję o wybudowaniu własnej infrastruktury, a głównym powodem rozstania z gigantem był model wysokich cen bazujących na zużyciu za godzinę. Akhila Gupta, wiceprezes ds. inżynierii infrastruktury Dropbox, oszacował, że ten
ruch pozwolił mu zaoszczędzić niemal 75 mln dol. w ciągu dwóch lat.
Nie mniej interesująca jest historia Netflixa. W 2016 r. ten jeden z największych serwisów streamingowych na świecie poinformował o rozstaniu z AWS-em i budowie własnej sieci dostarczania treści (Content Delivery Networks). Według wyliczeń Neila Hunta, dyrektora ds. produktów Netflixa, dzięki tej inwestycji gigantowi ze świata rozrywki udało się zaoszczędzić 100 mln dol. rocznie.
Rzecz jasna, trudno byłoby znaleźć takie spektakularne przypadki na naszym rodzimym rynku. Co więcej, integratorzy nie potrafią wskazać konkretnych przykładów repatriacji z chmury.
– Nie zaobserwowaliśmy powrotu z chmury publicznej do środowisk lokalnych. Większość naszych klientów stanowią duże firmy, które mają gruntownie przemyślaną i zaplanowaną strategię i przenoszą tylko pewną część usług do hiperskalerów – mówi Tomasz Spyra, CEO Rafcomu.
W podobnym tonie wypowiada się Mikołaj Wiśniak, wiceprezes IT Solution Factor. Jego zdaniem Polska znajduje się na wczesnym etapie adopcji chmury. W związku z tym Polacy nie popełniają błędów charakterystycznych dla zachodnich organizacji, które uległy owczemu pędowi i bez głębszej analizy przeniosły znaczną część infrastruktury do chmury publicznej.
– W naszym regionie nie widać zjawiska repatriacji z chmury. Nie potrafią podać nawet konkretnych przykładów, przynajmniej w przypadku największych instytucji czy firm z sektorów takich jak finanse, bankowość czy handel – podkreśla Mikołaj Wiśniak.
Najlepsze wzorce od hiperskalerów
Już od pewnego czasu na rynku pojawiają się koncepcje, których celem jest połączenie największych zalet usług dostarczanych przez hiperskalerów z korzyściami gwarantowanymi przez środowiska lokalne. Warto w tym miejscu wspomnieć o takich projektach jak Mesosphere czy OpenStack. Idealne rozwiązanie ma przejąć to, co najlepsze od AWS-u czy Microsoft
n Piotr Podlawski, Head of Microsoft Cloud Services, Hostersi Repatriacja z chmury nie nabrała znaczącego nasilenia, a w wielu przypadkach jest wręcz odwrotnie. Zjawisko dotyczy przede wszystkich firm, które przeniosły swoje obciążenia na platformy chmurowe, nie dokonując żadnych modernizacji. Potraktowali oni hiperskalera jako kolejne centrum danych, a taki model z definicji jest niewłaściwy. Często powtarzamy, że chmura nie jest kolejnym hostingiem, lecz sposobem funkcjonowania danej organizacji. W większości przypadków repatriacja z chmury jest wynikiem błędnego planu migracji. Wycofują się z niej firmy, które nigdy nie powinny do niej migrować. Nie możemy chmury traktować jedynie w kategoriach taniej – drożej. Stanowi ona raczej możliwość zmiany technologicznej. Moglibyśmy przekornie powiedzieć, że jest to podobne do repatriacji z samochodów i przesiadania się na rowery. Przy określonych zadaniach jest to jak najbardziej właściwe, natomiast przy bardziej skomplikowanych podróżach już niekoniecznie.
n Julia Danylenko, PR Manager, GigaCloud
Nie widzimy tendencji do całkowitej repatriacji do chmury, a raczej trzy powody, dla których może się wydawać, że taka tendencja rzeczywiście występuje. Czasami klienci nie chcą wiązać się umowami z hiperskalerami ze względu na przepisy i normy obowiązujące w danym kraju. Dlatego decydują się na mniejszych lokalnych dostawców. Poza tym mniejsi usługodawcy potrafią łatwiej dostosować się do potrzeb klientów. Wreszcie lokalni usługodawcy są często tańsi niż hiperskalerzy. Ogólnie rzecz biorąc, nie wierzymy, że środowisko chmury publicznej stanie się nieistotne. Według Gartnera przewidywany wzrost rynku chmury w skali roku o ponad 20 procent został nawet przekroczony, co było możliwe dzięki GenAI. Biorąc pod uwagę rozwój tej technologii i jej bliskie połączenie z chmurą, nie sądzimy, aby repatriację można było uważać za trend znaczący.
Azure, jednocześnie pozbywając się największych mankamentów chmury publicznej. Takie próby podejmują zarówno potężni vendorzy, jak Dell i HPE, ale warto też wspomnieć o takich projektach jak OpenStack czy Mesosphere. Do tego grona dołączył startup Oxide Computer Company, utworzony w 2019 r. przez dwóch weteranów z branży IT. Steve Tuck oraz Bryan Cantrill opracowali system łączący sprzęt, oprogramowanie i sieci w zunifikowaną platformę (pisaliśmy o tym szerzej w CRN Polska, nr 8/2024). Startup traktuje całe centrum danych jako ujednolicony „komputer w chmurze”. Jak na razie jest zbyt wcześnie, żeby ocenić jak rynek przyjmie pomysł Oxide Computer Company. Z kolei specjaliści w HPE chmurę postrzegają nie tyle jako określone miejsce przechowywania danych, ale jako
konkretne doświadczenie użytkownika końcowego.
– Takie doświadczenia, znane z chmury publicznej, można osiągnąć w ramach infrastruktury lokalnej za pomocą technologii usprawniających interoperacyjność oraz integrację z różnymi platformami chmurowymi. Ich wykorzystanie ułatwia migrację danych i aplikacji pomiędzy różnymi środowiskami IT – tłumaczy Magdalena Kasiewicz, dyrektor ds. sprzedaży usług chmurowych w HPE.
Pomimo tego nie wszyscy wierzą, że łatwo uda się przenieść najlepsze wzorce hiperskalerów do środowiska lokalnego, a jedną z największych przeszkód są możliwości, jakie daje wielka skala. Zdaniem Piotra Podlawskiego, Head of Microsoft Cloud Services w Hostersi, marketing lokalnych centrów danych znacznie przewyższa technologię, jaką mogą one zaoferować. I chyba jest w tym wiele racji, bo patrząc na twarde dane, hiperskalerzy zdobywają coraz więcej przyjaciół. n
GigaCloud – we współpracy z partnerami z całej Unii Europejskiej – zapewnia swoim klientom rozwiązania chmurowe, poszerzając możliwości firm, które potrzebują bezpiecznego i niezawodnego środowiska przechowywania i ochrony danych.
Wminionych latach wzrosła świadomość użytkowników odnośnie do konieczności zwrócenia uwagi na kwestię bezpieczeństwa usług chmurowych. Coraz więcej firm przestaje traktować je jako łatwo skalowalny silnik do dalszego rozwoju i magazyn danych. Chmura stała się krytycznym narzędziem zapewniającym ciągłość działania. Dlatego, aby sprostać wyzwaniom bezpieczeństwa, konieczna jest współpraca z lokalnymi dostawcami usług w chmurze, takimi jak GigaCloud. Prowadząc bieżącą działalność w tym samym kraju, co klient i podlegając tym samym regulacjom, przestrzegają wszystkich obowiązujących przepisów i standardów, dokładnie znają styl pracy i mogą pomóc w dostosowaniu całej infrastruktury klienta do obowiązujących wymagań.
Powyższe korzyści są szczególnie istotne dla podmiotów o krytycznym znaczeniu, które powinny przechowywać dane na terytorium państwa, w którym są one generowane. Znaczenie ma też bliska lokalizacja serwerów, dzięki czemu mniejsze są opóźnienia danych przesyłanych przez klientów. – Wsparcie techniczne może być głównym powodem, dla którego klienci zamiast hiperskalerów wybierają właśnie nas. Według nich próby skontaktowania się z hiperskalerem i rozwiązania problemu mogą czasami zająć kilka dni, jeśli nie miesięcy. My natomiast odpowiadamy w ciągu kilku minut i zajmujemy się zadaniem tak szybko, jak to możliwe. A dzięki lepszemu wsparciu łatwiej jest zarządzać chmurą i kontrolować, co faktycznie dzieje się z danymi. Efektywność kosztowa jest również powodem, dla którego wielu wybiera rozwiązania lokalne, ponieważ hiperskalerzy pozostają drożsi – mówi Nazariy
Kurochko, założyciel i dyrektor generalny GigaCloud.
W sytuacji, gdy firma decyduje się na rezygnację z chmury publicznej ze względu na obawy o prywatność, może wybrać zarządzaną chmurę prywatną. Jeśli jej lokalny dostawca zapewnia usługi Privileged Access Management, szyfrowanie, SIEM itp., a do tego jest niezawodny i godny zaufania, opcja ta będzie miała uczciwy stosunek jakości do ceny.
Korzyści z pracy w chmurze GigaCloud jest europejskim dostawcą usług w chmurze, który zarządza danymi ponad 1,5 tys. klientów B2B przetwarzanymi w pięciu centrach danych i zajmującymi ponad 15 petabajtów przestrzeni. Z jego hostowanych usług w infrastrukturze chmurowej w Polsce i na Ukrainie korzysta codziennie ponad 20 mln osób. Dzięki partnerstwu z centrami danych Equinix, infrastruktura GigaCloud na potrzeby usług w chmurze może być wdrażana w dowolnym miejscu w UE. Z dostawcą współpracuje też ponad 150 globalnych partnerów.
Wśród rozwiązań, które pomagają GigaCloud wyróżnić się na unijnym rynku, jest Enterprise Cloud, czyli nowa platforma IaaS bazująca na infrastrukturze VMware. Została ona zbudowana na bazie infrastruktury nowego centrum danych Equinix WA3 w Warszawie.
Enterprise Cloud to usługa wynajmu chmury obliczeniowej, którą można wdrożyć w dwóch konfiguracjach: jako klasyczne rozwiązanie chmury publicznej, z płatnością za poszczególne zasoby wirtualne (vCPU, RAM itp.) niepowiązane z konkretnymi hostami, albo w formie hybrydowego modelu
infrastruktury chmurowej (IaaS), w którym klient korzysta wyłącznie z dedykowanych serwerów i grup pamięci masowych. Przy procesach biznesowych bardzo wrażliwych na przestoje i przerwy w działaniu sprzętu, model IaaS pomaga zapewnić ich ciągłość. Oddzielając od siebie te części infrastruktury, które są używane przez różne firmy, rozwiązuje główny problem, z którym borykają się przedsiębiorstwa o dużym obciążeniu zasobów – potrzebę zapewnienia stabilności procesów niezależnie od obciążenia generowanego przez sąsiednich użytkowników chmury.
n Zarządzana wydajna i bezpieczna chmura prywatna na bazie platformy VMware lub Hyper-V
n Dedykowana chmura publiczna dla struktur korporacyjnych i rządowych na bazie platformy VMware
n Replikacja środowisk IT w czasie rzeczywistym (DRaaS) na bazie platformy Veeam lub VMware
n Tworzenie i przechowywanie w chmurze kopii zapasowych infrastruktury IT (BaaS) na bazie platformy Veeam
n Wirtualne desktopy w zarządzanej chmurze prywatnej (VDI) na bazie platformy VMware
n Przetwarzanie dużych zbiorów danych (GPU Cloud) przy użyciu procesorów graficznych NVIDIA
Dane często nazywa się nową ropą naftową lub złotem XXI wieku, ale czy na pewno są chronione z taką samą pieczołowitością, jak jeden z najcenniejszych kruszców?
Nasilające się cyberataki sprawiły, że postawa reaktywna, polegająca na podjęciu działań dopiero po wykryciu incydentu, coraz częściej zawodzi. Dlatego wiele organizacji przedefiniowuje strategie w zakresie cyberochrony, podejmując działania proaktywne. Co w praktyce oznacza, że trzeba być zawsze o krok przed napastnikiem. Niemniej, aby przewidywać ataki, trzeba dysponować odpowiednimi narzędziami. Do ciekawszych tego rodzaju rozwiązań należy Boat.Alert – autorska usługa polskiej firmy Boat.Systems. – Boat.Alert to dodatkowa para oczu specjalistów, która przygląda się środowisku klienta. Nasi inżynierowie mają stały dostęp do danych telemetrycznych, na bieżąco śledzą, co się dzieje i mogą od razu reagować – tłumaczy Patryk Kuś, Sysadmin & Backup Admin w Boat.Systems oraz współtwórca rozwiązania Boat.Alert. Siłą rzeczy, Boat.Alert różni się od typowych aplikacji bezpieczeństwa, takich jak chociażby antywirusy. Tradycyjne oprogramowanie zabezpieczające, zainstalowane na urządzeniach końcowych, realizuje swoje funkcje dopóki nie skończy się licencja, a za jego obsługę odpowiada wewnętrzny dział IT. Natomiast Boat.Alert jest zewnętrzną usługą, której użytkownik otrzymuje rozwiązanie łączące funkcjonalności systemów SIEM oraz observability (obserwowalność). Jej możliwości obejmują między innymi monitoring i analizę danych z obszarów takich jak: technologie i infrastruktura IT, produkcja przemysłowa, systemy informatyczne, aplikacje mobilne webowe i desktopowe, analiza środowiska pracy, sieci teleinformatyczne, zarządzanie licencjami. W gruncie rzeczy liczba zastosowań
zależy od potrzeb klienta oraz możliwości wykonywania pomiarów oraz raportowania danych.
Użytkownik nie musi przy tym z góry przewidywać liczby potrzebnych licencji, ponieważ elastyczny model dystrybucji umożliwia w dowolnej chwili zarówno zwiększenie liczby obsługiwanych rozwiązań, jak i parametrów pomiaru.
Zakres funkcjonalności usługi ustala się na podstawie wywiadu ekspertów Boat.Systems z klientem. Podczas takiego spotkania wyznacza się kluczowe parametry, jakie mają być mierzone, przykładowo: czas pracy serwerów, temperatura oraz wilgotność danego pomieszczenia, monitorowanie wydajności systemów produkcyjnych, liczba zalogowanych użytkowników w aplikacji czy też liczba wykorzystywanych w danym momencie licencji.
Po czym następuje konfiguracja systemu uwzględniająca wskazane przez klienta parametry, w tym minimalne i maksymalne zakresy, które nie powinny być przekroczone. Jeśli to nastąpi, system przesyła alert lub powiadomienie bezpośrednio do użytkownika. To klient decyduje o tym, czy prowadzić stały monitoring za pośrednictwem panelu bądź – w nadzwyczajnych sytuacjach – uzyskać dostęp do wybranych informacji.
Boat.Systems cały czas pracuje nad rozwojem swojego rozwiązania, wzbogacając je o nowe elementy. W początkowej fazie polski producent oferował monitoring systemów informatycznych, ale z upływem czasu miały miejsce kolejne integracje,
w tym z IBM Instana, co pozwalało rozszerzyć usługę o funkcję obserwowalności. Jest to możliwość automatycznego monitorowania wydajności całego oprogramowania oraz infrastruktury, metryk, zdarzeń, dzienników czy śladów w czasie rzeczywistym. Boat.Systems bazuje tutaj na IBM Instana – platformie przeznaczonej do zaawansowanej analizy danych. Polskie rozwiązanie wykorzystuje mechanizmy sztucznej inteligencji oraz uczenia maszynowego. To pozwala w dynamiczny sposób śledzić i wykrywać zależności między różnymi elementami architektury aplikacji, a także identyfikować nawet niewielkie problemy wydajnościowe. Z punktu widzenia biznesu, IBM Instana zapewnia zdolność do szybkiego rozwiązywania problemów poprzez ograniczenie do minimum przestojów aplikacji, a tym samym zwiększa satysfakcję klientów. – Badając kod źródłowy, obserwując zachowanie aplikacji i śledząc różnorakie anomalie, szukamy wąskich gardeł, nie tylko wskazując miejsca, gdzie mogą wystąpić potencjalne problemy, lecz także takie, gdzie jest potencjał na optymalizację wydajności – podsumowuje Przemysław Jagoda, CTO Boat.Sytems i współtwórca rozwiązania Boat.Alert.
Kontakt dla partnerów: Przemysław Jagoda, Co-Founder, Boat.Systems przemek@boat-systems.pl tel. 42 278-21-37
W segmencie druku na znaczeniu zyskuje oferta kompleksowych usług zarządzanych, a przynajmniej usług dodanych do dostaw sprzętu.
Dane Contextu wskazują, że u dystrybutorów w Polsce w II kw. 2024 r. najbardziej zwiększyła się sprzedaż urządzeń wielofunkcyjnych – w przypadku modeli atramentowych o 24,2 proc. ilościowo oraz o 20,4 proc. wartościowo, podczas gdy w przypadku modeli laserowych MFP o 16,2 proc. rok do roku na wolumenach przy podobnych przychodach, jak przed rokiem. Popytem cieszyły się także drukarki laserowe (+8 proc. r/r oraz +12,3 proc.).
n Krzysztof Pasławski
Klienci coraz częściej pytają o urządzenia refabrykowane.
– Naturalnym obszarem regularnych zakupów jest aktualnie sektor sprzedaży detalicznej FMCG i duże organizacje, zarówno przedsiębiorstwa, jak i sektor publiczny – mówi Dariusz Szwed, ekspert ds. cyfryzacji biur oraz cyberbezpieczeństwa w Canonie. Specjalista dodaje przy tym, że segment konsumencki zdecydowanie nasycił się sprzętem w okresie lockdownów, a w domach cykl życia urządzeń jest dłuższy niż w przedsiębiorstwach.
Zdaniem integratora
n Weronika Duda, handlowiec, Inprosystem
W przypadku produktów biznesowych A4, popyt utrzymuje się na poziomie z ub.r., przy czym można zaobserwować zwiększone zainteresowanie urządzeniami wielofunkcyjnymi A4, wyposażonymi w szybkie skanery do dokumentów, co może wskazywać na przyspieszenie trendu digitalizacji. Producenci obserwują też zwiększone zapotrzebowanie na modele kolorowe, zwłaszcza laserowe A3. Powodem są ich ceny, które zbliżyły się do cen modeli czarno-białych. Kolejnym wyraźnym trendem jest wzrost prędkości, jakiej użytkownicy oczekują od maszyn.
– Umocniły się dwa segmenty prędkości druku, od 35 do 65 stron na minutę, co oznacza, że klienci stawiają na szybkość i produktywność urządzeń. Urządzenia o prędkościach 20 czy 25 stron nie są już tak popularne i te segmenty spadają każdego roku w sprzedaży – informuje Rafał Szarzyński, dyrektor sprzedaży Sharp Electronics CEE.
Sprzedaż urządzeń drukujących utrzymuje się na poziomie z poprzednich lat. Obserwujemy zapotrzebowanie zarówno na modele A4, jak i A3. Z roku na rok rośnie natomiast zainteresowanie dzierżawą sprzętu, szczególnie urządzeń obsługujących format A3. Pojawia się coraz więcej zamówień publicznych na taką usługę w różnych instytucjach. Większy jest też popyt ze strony prywatnych przedsiębiorstw. W ramach abonamentu zapewniony jest wówczas również dostęp do materiałów eksploatacyjnych, z czego chętnie korzystają organizacje z ograniczonym budżetem.
W przypadku urządzeń A4 zwiększa się natomiast zainteresowanie modelami, które cechuje prędkość powyżej 45 stron na minutę (dotąd popularne było 35 str./min.).
– Dużym zainteresowaniem cieszyły się rozwiązania laserowe, umożliwiające wydruk w kolorze oraz urządzenia atramentowe. W obu przypadkach mamy do czynienia z dwucyfrowym wzrostem, odpowiednio o 10 oraz 31 proc. Co ciekawe, sytuacja była bardzo podobna w przypadku skanerów i drukarek etykiet, gdzie odnotowaliśmy wzrosty sprzedaży o 18 proc. oraz 54 proc. – informuje Piotr Baca, Country Manager Poland&Ukraine, CEE Director w Brotherze.
Jego zdaniem trudno oszacować, które sektory czy branże będą generować
największe wzrosty w najbliższej perspektywie.
– Aktualne plany zespołów wskazują, że po wyborach część dużych projektów została wstrzymana. W każdym sektorze przedsiębiorstwa i organizacje szukają oszczędności – zauważa Piotr Baca.
Klienci nadal uważnie patrzą na koszty i oczekują optymalizacji w zakresie TCO, co jednak nie oznacza, że chcą oszczędzać na wszystkim. Klientom biznesowym zależy na personalizacji oferty i mimo dążenia do oszczędności, nie chcą rezygnować z jakości usług, które już znają.
– Obserwujemy rosnącą świadomość przedsiębiorców w zakresie wagi zapewnienia odpowiedniego poziomu cyberbezpieczeństwa przetwarzanym zasobom i szukanie rozwiązań, które pozwolą na optymalizacje procesów biurowych – wyjaśnia szef Brothera w Polsce.
Wśród spodziewanych czynników popytowych znajduje się między innymi reorganizacja w zakresie wydruku faktur, związana wprowadzeniem obowiązku korzystania z Krajowego Systemu e-Faktur od lutego 2026 r.
Jak zaznaczali dostawcy, oczekiwania klientów i zmiany na rynku sprawiają, że oferta w modelu usługowym jest perspektywicznym modelem działalności, a obecnie minimum to usługi dodane do sprzedaży sprzętu, takie jak serwis. – Zaproponowanie usług z zakresu bezpieczeństwa, audytu i konfiguracji urządzeń pozwala wyróżnić ofertę i zwrócić uwagę klienta na inne, bardzo istotne obszary funkcjonowania jego organizacji
– twierdzi Dariusz Szwed.
Jak utrzymują dostawcy, klienci obecnie oczekują coraz bardziej kompleksowej usługi, stąd można spodziewać się rosnącego zapotrzebowania na taką ofertę, jak i na współpracę z partnerami, którzy są w stanie ją dostarczyć – obejmującą doradztwo, zarządzanie, serwis, audyty, dostawy materiałów eksploatacyjnych i in. – Dzisiejszy klient nie tyle kupuje sprzęt czy technologię,
co pewność ciągłości dostępu do narzędzi, bez konieczności martwienia się o ich eksploatację czy serwis. Największy sukces odnoszą partnerzy, którzy oferują gotowe kompleksowe systemy usługowe MPS – twierdzi Adam Wolf, Technical Sales Specialist w Epsonie.
Klienci oczekują bardziej kompleksowej usługi, obejmującej m.in. doradztwo, zarządzanie, serwis, audyty.
Widać też wzrost zainteresowania usługami chmurowymi i elektronicznym obiegiem dokumentów. Główni gracze doskonalą rozwiązania do zarządzania takim obiegiem, oparte na digitalizacji z pomocą urządzeń MFP i skanerów. Warto dodać, że w sektorze publicznym będzie z czasem wymagany system obiegu dokumentów EZD RP, stąd można spodziewać się zwiększonego zapotrzebowania na urządzenia wielofunkcyjne i skanery zgodne z tym właśnie systemem.
– Partnerzy powinni koncentrować się na modelu sprzedaży SaaS, czyli oferowaniu dostępu do usługi, która jest oparta o technologię chmurową. W dzisiejszych czasach kluczowe jest zapewnienie sprawnie działającej i bezproblemowej usługi druku oraz digitalizacji dokumentów papierowych, bez potrzeby inwestowania w lokalną infrastrukturę IT – utrzymuje Rafał Krupa, Product Manager w polskim oddziale Ricoha.
Według badania Canona i agencji K+Research by Insight Lab, z rozwiązań chmurowych korzysta jak na razie 56 proc. dużych i 40 proc. średnich polskich przedsiębiorstw w Polsce. Aż 43 proc. pytanych przedstawicieli średnich i dużych firm używało chmury do przechowywania dokumentów lub zarządzania drukowaniem i skanowaniem. Wśród istotnych powodów wprowadzenia usług chmurowych jest hybrydowy model pracy i lepsza współpraca z osobami pracującymi poza biurem
n Piotr Baca, Country Manager Poland&Ukraine, CEE Director, Brother Obserwujemy wzrost zainteresowania zarządzanymi usługami druku (MPS). Ma na to wpływ nie tylko wygoda tej usługi, ale również kwestie ekonomiczne. Należy zauważyć, że jednorazowy zakup przeznaczonych dla biznesu biznesowi rozwiązań może nadwyrężyć budżet firmy – dlatego kluczowa staje się usługa druku, która pozwala zoptymalizować wydatki, jak również zautomatyzować zamawianie materiałów eksploatacyjnych i serwis. Doceniamy zaangażowanie partnerów i cieszymy się, że wykorzystują potencjał MPS-u. Druk jako usługa stwarza okazję do zwiększenia zysków związanych z materiałami eksploatacyjnymi, a jednocześnie pozwala na długoterminowe budowanie relacji z klientem, co zawsze procentuje.
n Adam Wolf, Technical Sales Specialist, Epson Rosnące znaczenie ekologii produktów, wsparte przez przepisy, wywiera i będzie wywierało znaczący wpływ na rynek druku. Obserwujemy, że coraz więcej firm decyduje się na drukowanie na papierze ekologicznym, produkowanym z recyklingu. Ponadto organizacje starają się ograniczać ilość papierowych dokumentów, przechodząc na cyfrowe zarządzanie informacją. To zmniejsza zapotrzebowanie na drukowanie, jednak rośnie rola systemów obiegu dokumentów, w których druk wciąż odgrywa istotną rolę. W odpowiedzi na te zmiany, producenci drukarek i materiałów eksploatacyjnych inwestują w rozwój „zielonych” rozwiązań. Przykładem mogą być drukarki atramentowe, które charakteryzują się niższym zużyciem energii oraz atramenty o dużej wydajności.
(44 proc. wskazań). Ważną motywacją jest też oszczędność papieru i innych materiałów eksploatacyjnych (44 proc.).
Rośnie zainteresowanie klientów kwestiami ekologii i zrównoważonego rozwoju. – Firmy coraz częściej przy wyborze floty urządzeń drukujących zwracają uwagę na aspekty środowiskowe. Mowa tutaj przede wszystkim o zużyciu energii i pochodzeniu materiałów, z których wyprodukowano maszyny – zapewnia Damian Kuliszewski, Product Manager w Ricohu. Zwłaszcza duże, międzynarodowe organizacje zwracają uwagę na kwestie ograniczenia śladu węglowego, co przekłada się na zainteresowanie określonymi produktami i programami wspierającymi ekologię. Według wspomnianego wyżej badania 85 proc. respondentów, niezależnie od wielkości przedsiębiorstwa, wskazało, że przy zakupie nowego sprzętu
n Dariusz Szwed, ekspert ds. cyfryzacji biur oraz cyberbezpieczeństwa, Canon Klienci coraz większą wagę przywiązują do kompleksowej obsługi, a więc czynności poza dostawą, serwisem i uzupełnianiem materiałów eksploatacyjnych. Oczekują działań związanych z bezpieczeństwem floty, do których zaliczają się regularne aktualizacje, systematyczny audyt urządzeń, jak też współpraca w opracowaniu polityk bezpieczeństwa. Typowa dostawa sprzętu z serwisem to minimum, jakiego oczekują klienci. Natomiast zaoferowanie usług z zakresu bezpieczeństwa, audytu i konfiguracji urządzeń to sposób na wyróżnienie swojej oferty spośród innych. Hybrydowy model pracy powoduje, że klienci oczekują podobnego poziomu obsługi niezależnie od tego, czy dotyczy ona małej drukarki w domu pracownika, czy dużego urządzenia w firmowej centrali.
opiera swoją decyzję o tzw. zrównoważone parametry produktu oraz o tzw. zrównoważone działania ich producenta. Z badania wynika również, że polskie firmy byłyby zainteresowane odnowionym sprzętem biurowym, gdyby miał on gwarancję i pełną funkcjonalność. W takim przypadku przedsiębiorstwa rozważają dodanie odnowionego sprzętu biurowego (drukarki, kopiarki, skanery) do istniejącej już floty urządzeń. Tym samym trend eko oznacza, że można się spodziewać coraz wyższej sprzedaży refabrykowanych maszyn.
– Klienci coraz częściej pytają o urządzenia refabrykowane oraz o niskim śladzie węglowym, zarówno na etapie wytworze-
nia, jak i użycia. Mając świadomość tego, że papier będzie cały czas w użyciu w przestrzeni biurowej, klienci poszukują metod kompensacji emisji CO2 związanych z drukiem – twierdzi Dariusz Szwed.
Choć dostawcy obserwują postępującą cyfryzację obiegu dokumentów, to z drugiej strony są sektory, gdzie zapotrzebowanie na papierowe dokumenty, a więc i na druk nadal jest silne.
– Druk pozostaje kluczowy w sektorach takich jak edukacja, administracja publiczna i prawo, gdzie dokumenty papierowe wciąż są standardem. Z kolei sektory finansów, zdrowia i handlu coraz częściej wybierają rozwiązania cyfrowe – podsumowuje Adam Wolf. n
„Przedsiębiorcy rezygnują z zakupu sprzętu IT na własność, szukając rozwiązań, które zapewnią im dostęp do najnowocześniejszych technologii, ale bez długoterminowego przywiązywania się do konkretnych modeli. Zwłaszcza że urządzenia dedykowane biznesowi bardzo często są drogie i szybko tracą na wartości. Z tego względu to rozwiązania w formie usługi stają się przyszłością biznesu” – mówi Paweł Lechicki, MPS Coordinator w polskim oddziale Brothera.
n Czym jest MPS z perspektywy biznesu?
Przedsiębiorcy powinni bliżej przyjrzeć się Usłudze Zarządzania Drukiem (MPS), która nie tylko zdejmuje z nich obowiązek zamawiania materiałów eksploatacyjnych oraz serwisowania sprzętu, ale również zakup samych urządzeń. Dodatkowo firmy mogą być rozliczane za wydruk konkretnej ilości stron, zarówno tych drukowanych w kolorze, jak i wersji mono w formie abonamentu. Dzięki tej usłudze organizacje zyskują dostęp do najnowszych rozwiązań technologicznych, które mogą wspierać rozwój interesu bez konieczności jednorazowych inwestycji finansowych. Co ważne, korzystanie z tej usługi daje również gwarancję, że w razie awarii serwis szybko naprawi urządzenie na miejscu lub zapewni rozwiązanie zastępcze, tak aby usterka nie wywarła negatywnego wpływu na bieżącą pracę w firmie. Wyniki badania „MPS
End User Survey Results”, przeprowadzonego w pierwszym kwartale 2024 r., dzięki któremu przeanalizowaliśmy poziom zadowolenia użytkowników z programu MPS, wskazują, że zdaniem naszych klientów największy wpływ na wybór naszych urządzeń miał koszt usług druku (46 proc.) oraz bardzo wysoki poziom zadowolenia z korzystania z tej usługi (46 proc.).
n Co zyskują firmy, które wybierają MPS?
Użytkownicy systemu Brother Cloud MPS zyskują bieżący monitoring pracy urządzeń, dzięki czemu mogą sprawdzić liczniki wydruków oraz historię zamówionych materiałów eksploatacyjnych. Dodatkowo mogą w pełni zautomatyzować proces zamawiania wszystkich niezbędnych
W naszym portfolio wprowadzono funkcje bezpieczeństwa zgodne z najnowszymi normami.
materiałów eksploatacyjnych, co znacznie ułatwia ich codzienną pracę, a przede wszystkim zmniejsza ryzyko przestoju urządzenia z uwagi na brak tonera. Obrazują to także wyniki naszego badania, w którym respondenci korzystający z MPS wskazują, że wpływ na wybór urządzeń ma wydajność naszych rozwiązań i możliwość automatyzacji serii procesów w organizacji (28 proc.). Z usługi Brother korzystają firmy z różnych branż, w tym opieka zdrowotna, edukacja, usługi prawne i księgowe, finanse i ubezpieczenia, administracja biurowa, firmy IT, produkcja, czy handel detaliczny. Tym bardziej cieszy nas fakt, że to rozwiązanie staje się powszechne nie tylko w przypadku dużych firm (47 proc.), ale również małych biznesów zatrudniających do 5 pracowników (53 proc.). Widzimy, że prowadzący działalność starają się nie tylko usprawnić procesy w organizacji, wyeliminować niepotrzebne wydatki oraz zmniejszyć koszty operacyjne. Zależy im na dostępie do innowacyjnych rozwiązań, które pozwolą na zachowanie konkurencyjności na rynku. Dodatkowo warto zwrócić uwagę na wątek ekologiczny, który jest istotny z perspektywy biznesu. Klienci firmy Brother mogą bezpłatnie zwrócić zużyte materiały eksploatacyjne. Zajmujemy się recyklingiem zużytych tonerów i pojemników na tusze, tak aby nie trafiły na wysypisko śmieci i mogły zostać ponownie wykorzystane.
n Jak nowi klienci postrzegają MPS? Ponad trzy czwarte (77 proc.) naszych nowych klientów uważa, że nasza usługa MPS jest przystępna, a 75 proc. respondentów wskazało, że oferowana usługa jest skoncentrowana na kliencie i jego potrzebach – jak
wynika ze wspomnianego badania „MPS End User Survey Results”. „At Your Side” – to motto, którym kierujemy się w naszej firmie. Wcielamy te słowa w życie w każdym obszarze działalności, ponieważ z uwagą wsłuchujemy się w głos klientów i tworzymy rozwiązania dopasowane do ich potrzeb. Tym bardziej cieszymy się, że organizacje, które niedawno wdrożyły druk jako usługę, doceniają nasze zaangażowanie – aż 64 proc. nowych klientów wskazało na bardzo dobrą aktywną obsługę klienta, a 60 proc. respondentów widzi nasze stałe dążenie do poprawy świadczonych usług. Co ważne proces konfiguracji rozwiązania (78 proc. wskazań) oraz instalacji urządzeń (82 proc.) został przez naszych nowych klientów oceniony pozytywnie. Zdajemy sobie sprawę, że wdrożenie nowych rozwiązań do organizacji może być wyzwaniem, dlatego staramy się możliwie usprawnić i ułatwić ten proces. Naszym priorytetem jest zoptymalizowanie usługi MPS do potrzeb konkretnej firmy, tak aby urządzenia oraz zarządzanie obiegiem dokumentów były dostosowane do oczekiwań przedsiębiorstwa.
n Czego polscy przedsiębiorcy oczekują od oferty MPS? Rodzimi przedsiębiorcy szukają rozwiązań, które będą elastyczne oraz intuicyjne w obsłudze. Polskie firmy oczekują zapewnienia możliwości sprawdzenia, jak wiele urządzeń jest połączonych z usługą Brother Online w tym samym czasie oraz łatwego dostępu do funkcji monitorowania ilości wydruków – chcą budować swoją infrastrukturę druku na najbardziej innowacyjnych rozwiązaniach dostępnych na rynku. Obserwujemy również znaczne za-
interesowanie kwestią energooszczędności, co jest związane z dynamicznymi zmianami na rynku oraz rosnącymi cenami prądu, które w ostatnim czasie w znacznym stopniu dotykają biznes.
n Jakie są plany Brothera na umocnienie pozycji swojej oferty druku jako usługi na polskim rynku?
Naszym priorytetem jest wsparcie klienta w utrzymaniu kosztów druku na określonym przez nich poziomie, zapewnienie odpowiedniego poziomu jakości usługi oraz zautomatyzowanie procesów, tak aby były one w pełni wydajne. Planujemy również dalszą edukację partnerów oraz klientów końcowych w obszarze możliwości nowych rozwiązań, potencjału wykorzystania druku w organizacji oraz wpływie całego procesu na środowisko. Chcemy podkreślać, jak kluczowe jest zapewnienie odpowiedniego poziomu cyberbezpieczeństwa. W najnowszych urządzeniach w naszym portfolio wprowadzono funkcje bezpieczeństwa zgodne z najnowszymi normami w celu zapewnienia ochrony przetwarzanym danym. Dodatkowo w rozwiązaniu zastosowano trójwarstwowe zabezpieczenie na poziomie urządzenia, sieci i dokumentu, co pozwala zachować integralność danych na każdym etapie procesu druku. Chcemy wspierać klientów w osiąganiu ich celów biznesowych, dbając przy tym o ich konkurencyjność na rynku oraz kwestie środowiskowe. Wierzymy, że razem z naszymi partnerami jesteśmy w stanie usprawnić procesy druku i zrewolucjonizować pracę biurową, bez względu na rozmiar danej organizacji.
Rodzimi przedsiębiorcy szukają rozwiązań, które będą elastyczne oraz intuicyjne w obsłudze.
W pierwszej połowie tego roku wartość polskiego rynku urządzeń drukujących sięgnęła około 665 mln zł. Jednak pod względem przychodów przewyższa go sprzedaż materiałów eksploatacyjnych, która powróciła do poziomu sprzed okresu lockdownów.
n Krzysztof Pasławski
WI poł. 2024 r. dostawy urządzeń drukujących na polski rynek uległy zmniejszeniu. Wyniosły nieco ponad 445 tys. sztuk wobec 471,3 tys. w analogicznym okresie ubiegłego roku (3,4 proc. mniej rok do roku) – wynika z danych IDC Quarterly Hardcopy Peripherals Tracker. Lekki dołek jest efektem wyraźnego spadku popytu na urządzenia atramentowe (-8,8 proc.).
Co jednak istotne, mimo spadku liczby sprzedanych urządzeń, zwiększyła się ich łączna wartość sprzedaży. W I poł. br. wyniosła 166,36 mln dol. (+6,1 proc. r/r), czyli około 665 mln zł. To przede wszystkim zasługa laserowych maszyn wielofunkcyjnych, w przypadku których wzrost przekroczył poziom 13 proc. Laserowe MFP odpowiadały aż za 61 proc. przychodów generowanych na rynku.
Eksploatacja: produkty OEM
Polski rynek materiałów eksploatacyjnych do druku w II poł. 2023 r. był warty 192,5 mln dol., czyli ponad 800 mln zł – wynika z raportu IDC EMEA Consumables Tracker (w dniu zamykania tego numeru CRN Polska były to najnowsze dostępne dane). Sprzedaż tonerów i tuszy generuje więc większe przychody niż handel urządzeniami. Co więcej, przychody ze sprzedaży eksploatacji zwiększyły się o 3,8 proc. r/r, pomimo spadku w ujęciu w ilościowym o 4,3 proc. To głównie zasługa sprzedaży wkładów atramentowych, które ilościowo mają około dwóch trzecich udziału w polskim rynku, choć wartościowo dominują tonery. Największy udział w sprzedaży w ujęciu ilościowym mają kolorowe i czarne wkła-
dy atramentowe, jednak wartościowo stanowią mniejszą część rynku. Jeśli chodzi o generowane przychody, to zdecydowanie dominują czarne tonery, a na drugim miejscu są tonery kolorowe. Warto natomiast zwrócić uwagę na fakt, że wartość sprzedaży zwiększyła się o jedynie w przypadku
Dostawy
Michał Świątek, Research Manager, Imaging Printing & Document Solutions, Europe, IDC Po hossie na rynku
oryginalnych produktów (+6,4 proc.), które zdecydowanie dominują na rynku. Udział wkładów OEM przekroczył 60 proc. w ilości oraz 76 proc. w wartości całego rynku.
Wartość * AtramentoweMFP39,1737,012,7%-5,5% Drukarki5,174,4678,9%-13,6% W sumie44,3441,478,1%-6,5% LaseroweMFP89,35101,6114,3%13,7% Drukarki23,0923,281,1%0,80% W sumie112,43124,8911,3%11,1%
Warszawska rma rozwija usługowy model działalności w oparciu o drukarki Canon. Dysponując już ogólnopolską siecią partnerów handlowych i serwisowych, zaprasza do współpracy kolejnych.
Na rynku rozwiązań drukujących
FIS-KOMP działa od 1996 roku, a od 2006 jest partnerem handlowym oraz pełni rolę Autoryzowanego Serwisu Canon. Dysponując wieloletnim doświadczeniem we współpracy z japońskim producentem i wiedzą o jego produktach, a także siecią partnerów serwisowych i handlowych w całej Polsce, FIS-KOMP wprowadził usługę tzw. płatności za klik na urządzeniach drukujących Canon. – Jesteśmy jedną z pierwszych firm z naszej branży w Polsce, która we współpracy z Canon zdecydowała się rozwijać model usługowy w dziedzinie druku biurowego. Sieć naszych partnerów pozwala skutecznie oferować tę usługę klientom końcowym w całym kraju – mówi Zenon Więcierzewski, właściciel FIS-KOMP.
Wymienia też kilka czynników, które wspomagają ten kierunek rozwoju firm wyspecjalizowanych w druku biurowym, jak też odnosi się do ważnej roli, jaką pełnią w tym procesie atramentowe urządzenia Canon. - To rynek, który nieustannie się zmienia. Producenci wprowadzają urządzenia z nowymi funkcjami, a rozwój nastawiony jest na zmniejszanie kosztów wydruku. Do tej pory na rynku funkcjonowały głównie modele laserowe, drukujące w mono i kolorze. Od pewnego czasu mamy możliwość oferowania klientom biznesowym drukarek Canon MAXIFY, które pracują z prędkością porównywalną do „laserówek” – mówi Zenon Więcierzewski.
Mowa o modelach MFP Canon MAXIFY GX6040 i GX7040 i urządzeniu jednofunkcyjnym GX5540, na których opiera się usługa dzierżawy i płatności za wydruk świadczona przez FIS-KOMP. Mają przystępną cenę – od 2 tys. do 2,5 tys. zł brutto i oferują bar-
dzo niski koszt wydruku – od 4 do 5 gr/str. przy wydruku monochromatycznym oraz od 6 do 7 gr./ str. w kolorze (za sprawą opracowanego przez Canon systemu MegaTank, który umożliwia ręczne dolewanie atramentu dostarczanego w pojemnikach). Wydajność takiego atramentu często przekracza wydajność tonera (14 tys. str. z zestawu butelek z kolorowym materiałem eksploatacyjnym lub 6 tys. str. z butelki z czarnym, trybie ekonomicznym można wydrukować nawet o 1,5 raza stron więcej).
Kolorowe modele MAXIFY zapewnią klientowi możliwość druku różnych elementów graficznych na wielu rodzajach papieru. Z kolei czarno-biały doskonale się sprawdzi przy druku dokumentów. Przy czym w samej konstrukcji systemu MegaTank należy podkreślić dysze o specjalnym układzie eliminującym pomyłki, takie jak wlanie danego koloru do niewłaściwego pojemnika, zabezpieczenie przed przelaniem, wlot ze sprężynującym korkiem, bądź utrzymanie portu wlotowego z dala od palca.
Warto dodać, że energooszczędne urządzenia z serii MegaTank generują mniej odpadów do recyklingu, co klienci biznesowi biorą coraz częściej pod uwagę.
Trzeba edukować rynek
FIS-KOMP kieruje usługę dzierżawy drukarek Canon MAXIFY i płatności za wydruk do małych, kilkuosobowych firm oraz klientów prowadzących jednoosobową działalność gospodarczą. W ocenie Zenona Więcierzewskiego należy włożyć jeszcze dużo pracy w uświadamianie klientom korzyści z takiego modelu współpracy z FIS-KOMP i jego partnerami. Dlatego firma ta nieustannie informacyjną na ten temat – w rozmo-
wach bezpośrednich, poprzez udział w targach, wystawach, za pośrednictwem mediów społecznościowych, a także ulotek i folderów.
Podkreślając zalety tego rozwiązania, warto zwrócić szczególną uwagę klientów na: brak wydatków na jednorazowy zakup urządzenia, dostarczanie materiałów eksploatacyjnych w cenie usługi, gwarancję, że dostarczone materiały eksploatacyjne są oryginalne i zapewniają wysoką jakość druku, bezpłatny serwis na czas trwania umowy świadczony przez Autoryzowany Serwis Canon (w przypadku wybranych modeli laserowych – bezpłatny serwis w miejscu instalacji u klienta), możliwość wykupu urządzenia po zakończeniu umowy, dostosowanie oferty do potrzeb klienta. – Proponujemy warunki, które dają klientom poczucie bezpieczeństwa i pewność opieki serwisowej. Dzięki temu może on się skupić na priorytetach – mówi właściciel FIS-KOMP. – Sami, będąc wieloletnim partnerem Canon, mamy na bieżąco dostęp do najnowszych informacji handlowych i technicznych, a wiedza stanowi obecnie największą wartość w firmie. Sieć naszych partnerów handlowych i serwisowych w całej Polsce pozwala nam na sprawną obsługę klientów, a znajomość branży na zminimalizowanie ryzyka, które wiąże się z przejściem na usługi w zakresie druku firmowego, zarówno dla klienta, jak i dla nas.
Choć obecnie działająca sieć partnerów handlowych FIS-KOMP pozwala na szersze dotarcie do odbiorców końcowych, to warszawska firma poszukuje kolejnych. Zapraszając do współpracy, oferuje wszelką pomoc w zakresie wiedzy oraz zaopatrzenia.
Z opisem usługi świadczonej przez FIS-KOMP można zapoznać się pod adresem https:// skomp.pl/wynajem lub skanując kod QR.
Więcej informacji: poczta@ skomp.pl biuro@ skomp.pl
„Warto pamiętać, że proces powszechnej digitalizacji napędzany jest przede wszystkim szukaniem przez firmy tańszych, efektywniejszych sposobów na przechowywanie i obieg dokumentów” – mówi Adam Wolf, Technical Sales Specialist w polskim oddziale Epsona.
n Czy można wyszczególnić te obszary działalności poszczególnych firm lub sektory rynku, gdzie klienci ciągle doceniają możliwość korzystania z wydruków?
Rzeczywiście, mimo postępującej digitalizacji, są sektory rynku i obszary działalności w organizacjach, gdzie druk wciąż pozostaje żywy. Mam na myśli chociażby sektor edukacyjny, co jest o tyle ciekawe, że jednocześnie na popularności zyskuje e-learning. Niemniej drukowane materiały służące do nauki są wciąż powszechnie używane. Również w niektórych urzędach i instytucjach publicznych druk nadal stanowi standard, zwłaszcza w kontekście archiwizacji i oficjalnych dokumentów. I wreszcie warto w tym kontekście wskazać na sektor prawny, w którym niektóre dokumenty wciąż wymagają formy papierowej ze względu na przepisy i poświadczenia w postaci fizycznego podpisu.
n Niemniej cyfryzacja wciąż postępuje…
Zgadza się. Coraz więcej firm przekształca swoje dokumenty papierowe w formę cyfrową, ponieważ digitalizacja pozwala na łatwiejsze zarządzanie nimi, szybszy dostęp do informacji oraz oszczędność miejsca. Elektroniczne dokumenty umożliwiają szybsze wyszukiwanie i przetwarzanie informacji, co zwiększa efektywność pracy. Pracownicy mogą łatwiej współdziałać, udostępniając dokumenty w czasie rzeczywistym. Przechowywanie ich w formie cyfrowej może też zwiększyć bezpieczeństwo danych. Poza tym wiele organizacji musi przestrzegać konkretnych przepisów dotyczących przechowywania dokumentów, a digitalizacja ułatwia spełnienie tych wymogów, ponieważ umożliwia łatwe archiwizowanie i dostęp do dokumentów, który jest zgodny z obowiązującymi regulacjami.
n Digitalizacja rozkwitła w bardzo odczuwalny sposób na przykład w sektorze medycznym, zarówno w części prywatnej, jak i publicznej… Zdecydowanie. Elektroniczne kartoteki pacjentów, e-recepty i cyfrowe systemy zarzą-
dzania informacjami medycznymi stają się standardem, co poprawia efektywność wykorzystania i bezpieczeństwo danych. Wspomnieć trzeba też o bankach i instytucjach finansowych, które coraz częściej przechodzą na dokumenty cyfrowe, oferując e-wyciągi, e-faktury i cyfrowe umowy. To pozwala na szybsze przetwarzanie danych i lepszą obsługę klienta. No i sektor handlowy, w tym podmioty e-commerce, coraz częściej korzystają z cyfrowych faktur, paragonów i systemów zarządzania magazynem, co z kolei pozwala na lepsze zarządzanie zasobami i obsługę klienta.
n Jaki wpływ na ten trend ma kwestia kosztów?
Warto pamiętać, że proces powszechnej digitalizacji napędzany jest przede wszystkim szukaniem przez firmy tańszych, efektywniejszych sposobów przechowywania i obiegu dokumentów. Oczywiście prym wiodą tutaj przedsiębiorstwa prywatne, które chcą zaoszczędzone w ten sposób środki przeznaczyć na inne obszary działania firmy. Natomiast sektor budżetowy rządzi się innymi prawami, bo określone działania wymusza tu rozporządzenie lub ustawa. Niemniej, rozmawiając z klientami biznesowymi warto im uświadamiać, że to, czy zarządzanie dokumentami (w każdej formie) jest uciążliwym obowiązkiem, czy działaniem, które usprawni funkcjonowanie firmy lub instytucji, zależy od wyboru odpowiednich narzędzi.
n Jakie technologie i bazujące na nich nowe rozwiązania Epsona urzeczywistniają tę zasadę?
Urządzenia wielofunkcyjne i skanery Epson jako pierwsze uzyskały certyfikowaną zgodność z systemem EZD RP.
Wprowadzamy wiele nowoczesnych technologii i rozwiązań, które kształtują sposób, w jaki firma może działać. Przede wszystkim trzeba podkreślić, że dostarczamy szerokie spektrum rozwiązań umożliwiających drukowanie, kopiowanie czy skanowanie dokumentów dla przedsiębiorstw różnej wielkości, a wraz z nimi wiele wartości dodanych. Jeśli mówimy o maszynach drukujących, to dzięki technologii druku atramentowego dokumenty
zyskują na trwałości (nawet do 99 lat, co zostało potwierdzone stosownymi certyfikatami), jak też są odporne na wilgoć (ponieważ oferowane przez Epsona materiały eksploatacyjne bazują na atramencie pigmentowym), co chroni wydruk przed rozmazywaniem się. Nasze rozwiązania do druku atramentowego przyczyniają się do oszczędzania energii elektrycznej, a to przecież obecnie jeden z topowych tematów, które pojawiają się w kontekście technologii i ochrony środowiska. Nasze najszybsze urządzenie na rynku w segmencie druku biurowego WF-C21000, drukujące z prędkością 100 stron na minutę pobiera w czasie pracy jedynie 170 W. To prawie 10 razy mniej niż czajnik elektryczny i klasyczne urządzenia laserowe. Mamy również rozwiązania do zarządzania obiegiem dokumentów elektronicznych wchodzących w skład systemu Document Capture Pro. Umożliwiają kreowanie bardzo zaawansowanego procesu obiegu dokumentów, tworzonego z pozyskanych obrazów cyfrowych w procesie skanowania, czy to za pomocą naszych specjalistycznych skanerów, których oferta jest bardzo szeroka, czy za pomocą urządzeń wielofunkcyjnych.
Najnowsza oferta Epson to nie tylko zaawansowana technologia, ale także realne korzyści biznesowe w kontekście zarządzania dokumentacją i jej archiwizacją.
WorkForce Pro EM-C800RDWF
n wysokowydajne urządzenie atramentowe 4w1 z funkcją skanowania i pojemnością do 1830 arkuszy papieru
n kolorowy ekran dotykowy o przekątnej 10,9 cm, funkcja wysyłania faksu, druku z podajnika ADF, kopiowania oraz skanowania
n drukowanie z prędkością 25 str./min skanowanie dwustronne z prędkością 60 cali/min
n druk do 50 000 stron w czerni i 20 000 w kolorze bez konieczności uzupełniania materiałów eksploatacyjnych
n druk w technologii Heat-Free
WorkForce Pro EP-C800RDW
n Liczy się też zgodność z oficjalnymi rekomendacjami… Urządzenia wielofunkcyjne i skanery Epson jako pierwsze uzyskały certyfikowaną zgodność z systemem EZD RP – rekomendowanym, a wkrótce wymaganym, przez Ministerstwo Cyfryzacji systemem obiegu dokumentów dla instytucji państwowych i publicznych w Polsce. Zintegrowany w nich moduł, opracowany przez jednego z naszych partnerów, automatyzuje obieg cyfrowych treści w bezpiecznym środowisku, co usprawnia pracę, w tym także osób działających na pierwszej linii kontaktu z klientami, co z kolei ma bardzo pozytywny wpływ na sprawne funkcjonowanie całej organizacji.
n W jakim kierunku zmierza Epson w „dwubiegunowym” świecie, czyli z jednej strony druku, a z drugiej postępującej cyfryzacji?
Kładziemy duży nacisk na zrównoważony rozwój i mocno podkreślamy nasze zaangażowanie zarówno w ekologiczność produktów, jak i całej działalności Epsona. Nasz przekaz jest wiarygodny, ponieważ wizję środowiskową zaprezentowaliśmy już w 2008 roku, a sięga ona roku 2050, czyli momentu, kiedy osiągniemy pełną neutralność węglową. Klienci biorą to pod uwagę. Natomiast jak nasze starania przekładają się w praktyce na produkty? Nowe urządzenia są zaprojektowane tak, aby zmniejszyć ilość odpadów i koszty transportu. Praktycznie nie emitują żadnych substancji szkodliwych dla środowiska, co znacznie ogranicza ślad węglowy. Mają mieć możliwie małe gabaryty, być wydajne, precyzyjne w działaniu i pracować bezawaryjnie, aby klienci mogli z nich korzystać przez wiele lat.
n wysokowydajna atramentowa drukarka biznesowa o kompaktowej konstrukcji i pojemności do 1830 arkuszy papieru
n drukowanie z prędkością 25 str./min
n druk do 50 000 stron w czerni i 20 000 w kolorze bez konieczności uzupełniania materiałów eksploatacyjnych
n druk w technologii Heat-Free
W przypadku obu powyższych urządzeń, rozwiązanie RIPS zapewnia wydajny, nieprzerwany druk wysokonakładowy.
WorkForce Enterprise AM-C4000
n wysokowydajna atramentowa drukarka biznesowa
n wysoka niezawodność, dzięki prostemu mechanizmowi
n druk w technologii Heat-Free
n niewielkie gabaryty (jeden z najmniejszych rozmiarów w swojej klasie)
n szeroka gama zintegrowanych rozwiązań programowych
Skanery WorkForce DS-800WN i DS-900WN
n szybka i bezpieczna digitalizacja dużej liczby dokumentów
n prędkość skanowania odpowiednio 50 str./100 obrazów na min. i 70 str./140 obr./min
n dziennny cykl pracy odpowiednio 8 tys. i 11 tys. stron
n obsługa szerokiego zakresu nośników
n niski pobór mocy i wbudowany moduł łączności sieciowej
n otwarte oprogramowanie – możliwość integracji z oprogramowaniem Document Capture Pro
Dla wszystkich urządzeń przeznaczony jest pakiet Epson Solutions Suite, obejmujący obieg dokumentów i zabezpieczenia, zarządzan ie fl otą oraz usługi zdalne.
Choć era lockdownów mocno pchnęła klientów w stronę e-commerce, to tradycyjne placówki handlowe wciąż zachowują swoje unikalne zalety.
Rywalizacja z e-commerce zmusza sklepy stacjonarne do oferowania produktów w kilku kanałach sprzedaży. Dlatego chcą wdrażać strategię, w ramach której będą angażować klientów za pośrednictwem wielu zintegrowanych cyfrowych i fizycznych punktów kontaktu – oprócz sklepów fizycznych, także stron internetowych, mediów społecznościowych i aplikacji.
– Konsument oczekuje obecnie możliwości wyboru między zakupami online a stacjonarnymi. Wdrożenie systemów umożliwiających płynne łączenie sprzedaży online i offline, takich jak Click & Collect czy zwroty produktów zakupionych przez internet w sklepach stacjonarnych, zwiększa wygodę i zadowolenie klientów – mówi Anna Dulska, Regional Sales Manager CEE w Jarltechu.
Jednakże integracja danych z różnych kanałów on-
n Tomasz Janoś Rośnie zainteresowanie mobilnymi rozwiązaniami typu Personal Shopper.
line oraz offline może być wyzwaniem. Niespójna synchronizacja danych może prowadzić do rozbieżności w poziomach zapasów, cenach i informacji o klientach, co wpływa na ogólny poziom obsługi. Wiele sklepów ma problem z rozbieżnościami w obsłudze klientów w różnych kanałach oraz nierównomiernym przydzielaniem zasobów.
Przykładowo, chociaż omnichannel obiecuje płynne przejście między zakupami online a stacjonarnymi, to klienci często napotykają niespójności, takie jak dostępność produktów online, ale nie w sklepach fizycznych, czy różne polityki zwrotów w zależności od kanału. Przy braku spójności, gdy rzeczywistość nie odpowiada wyidealizowanej wizji takiego handlu, psuje się obraz dobrze funkcjonującego modelu
omnichannel. Dlatego rzeczywista wielokanałowość to niełatwe, ale konieczne zadanie do wykonania dla zespołów IT w branży detalicznej, jeśli chce się osiągnąć skuteczną integrację systemów oraz uniknąć braków towaru, nadmiaru zapasów i opóźnień w realizacji zamówień. – W dzisiejszych czasach sklepy stacjonarne muszą istnieć również w przestrzeni online nie tylko poprzez witrynę internetową, ale także z całym arsenałem narzędzi z obszaru MarTech, a więc wspierających automatyzację kampanii mailowych, ułatwiających komunikację w social media, zwiększających interaktywność strony internetowej, promujących wydarzenia marketingowe oraz ułatwiające sprzedaż oferty sklepu online z możliwością odbioru na miejscu – uważa Michał Trojanowski, Head of AEM Competence Center w Transition Technologies MS. Bardzo ważnym elementem sprzedaży online jest personalizacja, którą można realizować w dużym zakresie dzięki
n Michał Trojanowski, Head of AEM Competence Center, Transition Technologies MS Rozwój nowych rozwiązań IT sprawia, że doświadczenie klientów w sklepie stacjonarnym staje się połączeniem sposobów zachowania ze świata rzeczywistego i cyfrowego, które kumuluje zalety obu tych światów. Klienci otrzymują tak potrzebne im indywidualne podejście i zaufanie pochodzące z kontaktu z człowiekiem. Jednocześnie mają możliwość posługiwania się znanymi i lubianymi narzędziami ze świata online. Wśród tych najbardziej innowacyjnych rozwiązań pojawiają się narzędzia wykorzystujące technologię AR/VR (wirtualne przymierzalnie), generatywna AI (chat boty, mechanizmy personalizacji treści, algorytmy rekomendacji w oparciu o profil klienta), jak też narzędzia do analiz dużych zbiorów danych, pozwalające na kształtowanie przyszłej oferty lub strategii marketingowych. Z kolei technologie IoT mogą być wykorzystywane do zarządzania zapasami czy monitorowania ruchu w sklepie.
n Paweł Zwierzyński, Network&Security Team Leader, Vernity
Jeśli chodzi o retail, przeprowadziliśmy wdrożenie w dużej sieci sklepów, które objęło całkowitą modernizację infrastruktury. Za decyzją klienta stało przede wszystkim uzyskanie stabilnej komunikacji dla płatności kartami płatniczymi. Po analizie stwierdziliśmy, że najlepiej wpisującym się w potrzeby klienta będzie rozwiązanie SD-WAN jednego z vendorów, które oprócz sieci rozległej zawieralo również warstwę dostępową, w tym przełączniki, a to wszystko zarządzane centralnie, z jednego interfejsu. Po modernizacji infrastruktury klient zyskał stabilną oraz lepszą jakościowo komunikację na potrzeby aplikacji sklepowych. Łącza są teraz na bieżąco monitorowane, ruch jest automatycznie kierowany w zależności od jakości połączenia w danym momencie. Poza tym cała infrastruktura – firewalle, przełączniki, punkty dostępowe, SD-WAN – jest zarządzana z jednego interfejsu, a wdrażanie kolejnych sklepów jest zautomatyzowane. Zmniejsza to znacznie wydatki i obciążenia administracyjne. Dużą zaletą jest też uniezależnienie się od rodzaju łącza oraz dostawcy internetu.
wdrożeniu portalu klienta pozwalającego użytkownikom na tworzenie indywidualnych kont. Firma może w ten sposób gromadzić wiedzę o potrzebach i preferencjach klientów. Zastosowanie całego wachlarza rozwiązań typowych dla e-commerce staje się w takim przypadku nie tylko rozszerzeniem działalności sklepu, ale i narzędziem przewagi. W połączeniu z korzyściami, jakie daje bezpośredni kontakt z klientem w sklepie stacjonarnym, skuteczność całej sprzedaży rośnie jeszcze bardziej, a atrakcyjność oferty może przewyższać propozycję sklepów on-line. – Kolejnym ważnym aspektem jest zastosowanie analityki danych oraz sztucznej inteligencji. Dzięki algorytmom AI sklepy mogą precyzyjniej dostosować swoje oferty do oczekiwań klientów, co zwiększa szanse na sprzedaż. Uczenie maszynowe wspiera również zarządzanie zapasami. Te rozwiązania są kluczowe zarówno dla sprzedawców, jak i konsumentów, ponieważ mobilne technologie pozwalają na dostarczanie
spersonalizowanych ofert w trakcie zakupów – twierdzi Anna Dulska.
Zresztą AI może pomóc nie tylko w personalizacji oferty. Jak we wszystkich innych branżach, także w handlu detalicznym sztuczna inteligencja usprawnia operacje poprzez automatyzację rutynowych czynności. Dzięki temu pozwala personelowi skoncentrować się na zadaniach o wyższej wartości, takich jak poprawa obsługi klienta i angażowanie się w relacje z konsumentami. Taka zmiana nie tylko poprawia efektywność operacyjną, ale także wzbogaca doświadczenia zakupowe.
ści online (szybkimi płatnościami, w tym Blikiem). Satysfakcję klienta zwiększają też przeznaczone dla niego aplikacje mobilne, które są połączone z jego kontem w sklepie, programami lojalnościowymi, umożliwiające sprawdzenie dodatkowych informacji o produktach (poprzez zeskanowanie kodów QR) i archiwizujące całą historię zakupów.
Niezmiennie priorytetem pozostaje sprawna i bezproblemowa obsługa klienta na miejscu. Mogą w tym pomóc systemy mobilne do sprawdzania stanów magazynowych (także w innych placówkach), składania zamówień i realizacji płatno-
– Wiele sklepów zwiększa interaktywność obsługi udostępniając kioski i ekrany dotykowe do obsługi różnych potrzeb klientów. Może to być przeglądanie oferty, sprawdzanie dostępności czy składanie zamówień. Istnieją rozwiązania IT, które zapewniają integrację treści na takich ekranach z zawartością portalu internetowego sklepu oraz jego rozwiązania e-commerce, dzięki czemu treści są spójne i łatwiejsze do utrzymania i aktualizacji – tłumaczy Michał Trojanowski.
Wśród innowacji zmieniających branżę detaliczną coraz powszechniejsze jest wdrażanie systemów mobilnych punk-
tów sprzedaży (mPOS). Mobilny POS może wyeliminować kolejki przy kasie, zapewnić szybszą obsługę klienta i pomóc w zarządzaniu dużym ruchem (np. w okresach świątecznych). Zaawansowane rozwiązania mPOS umożliwiają personelowi angażowanie klientów w tej części sklepu, w której interesują się oni produktem, a następnie szybkie identyfikowanie i prezentowanie szerokiej gamy produktów dodatkowych i komplementarnych, w celu zwiększania wartość koszyka zakupowego.
– Z perspektywy dystrybucji, dostarczającej rozwiązania dla integratorów IT w branży retail, zauważamy w tym roku rosnące zainteresowanie technologiami RFID oraz mobilnymi rozwiązaniami typu Personal Shopper. Na popularności zyskują również projekty dotyczące kioskowych systemów obsługi klienta. Mobilne aplikacje ułatwiają także zakupy, zapewniając szybki dostęp do informacji o produktach i promocjach. Wielu producentów rozszerza swoje oferty produktowe, aby lepiej integrować konsumentów z systemami dostępnymi w sklepach stacjonarnych – podkreśla Anna Dulska.
Nowoczesna sklepowa instalacja multimedialna to już nie tylko wyświetlacz interaktywny i odtwarzacz multimedialny wyposażony w specjalnie przygotowaną aplikację, ale również zestawy specjalnie przygotowanych sensorów, kontrolerów oraz aktuatorów.
– W jednym przypadku instalacje multimedialne mają za zadanie w atrakcyjny sposób edukować lub informować, w drugim zaś na różne sposoby wspierają sprzedaż, prezentację oraz ekspozycję produktu. Specjalnie skalibrowane czujniki zajmują się badaniem liczby osób przebywających w danym salonie sprzedaży, mogą też określić płeć, ale przede wszystkim mogą wzbudzić zainteresowanie danym produktem. Są w stanie zaprezentować jego najważniejsze cechy użytkowe albo po prostu sprawdzić dostępność pokazywanego produktu
w salonie – wyjaśnia Przemysław Mika, Key Account Manager B2B w polskim oddziale ViewSonic.
Te wszystkie, różnorodne i pochodzące często z różnych źródeł informacje są na samym końcu przetwarzane i pokazywane na interaktywnych wyświetlaczach, które wraz z playerami i aplikacjami stanowią ważne ogniwo podczas tworzenia nowoczesnej i profesjonalnej instalacji multimedialnej. A wszędzie tam, gdzie jest potrzebny wyświetlacz, sklepy powinny wybierać taki sprzęt, który niezmiennie, z taką samą jasnością oraz temperaturą barwową będzie działał – jeśli zajdzie taka potrzeba – nawet w trybie 24 /7.
n Anna Dulska, Regional Sales Manager CEE, Jarltech
Jeśli nowoczesny sklep detaliczny wymaga tych wszystkich nowych rozwiązań, a więc wyposażenia w sieciowe kamery monitorujące, systemy punktów sprzedaży, czujniki IoT i inne urządzenia oraz systemy, to potrzebuje wydajnej i niezawodnej sieci. Na potrzeby sklepów, a zwłaszcza sieci handlowych z wieloma placówkami, wydaje się dobrze odpowiadać rosnąca od kilku lat oferta SD-WAN, która zapewnia scentralizowane zarządzanie wszystkimi zasobami sieciowymi, z których detaliści korzystają na co dzień. Dzięki SD-WAN mogą oni monitorować wszystkie urządzenia i użytkowników łączących się z ich siecią. SD-WAN redukuje także złożoność sieci i znakomicie ułatwia konfi gurowanie nowych lokalizacji, aktualizację ustawień i firmware’u.
Na potrzeby sklepów, zwłaszcza sieci handlowych, wydaje się dobrze odpowiadać oferta SD-WAN.
Dzięki zarządzaniu priorytetami ruchu oraz wykorzystaniu wieloma różnych łączy SD-WAN umożliwia uzyskanie większej przepustowości sieci, zapobiegając także przestojom z powodu awarii. Skutkuje to poprawą wydajności aplikacji i zmniejszeniem opóźnień, co przekłada się na płynną obsługę zarówno klientów, jak i pracowników. Kolejną korzyścią, jaką oferuje SD-WAN, jest zwiększone bezpieczeństwo sieci. n
W obliczu rosnącej konkurencji ze strony e-commerce, tradycyjne sklepy stacjonarne wciąż mają wiele do zaoferowania. Kluczowym elementem ich sukcesu jest wdrażanie nowoczesnych technologii, które nie tylko zwiększają efektywność operacyjną, ale także podnoszą jakość obsługi klienta. To właśnie wysoka jakość obsługi stanowi istotną przewagę sklepów stacjonarnych w porównaniu do e-sklepów. Technologie AutoID, analityka danych oraz podejście omnichannel są kluczowymi elementami, które mogą znacząco poprawić konkurencyjność sklepów stacjonarnych. Ich umiejętne wdrożenie pozwoli tradycyjnym punktom sprzedaży nie tylko przetrwać, ale również rozwijać się w dobie cyfrowej rewolucji.
Przemysław Mika, Key Account Manager B2B, ViewSonic Instalacje multimedialne oferują sklepom stacjonarnym szereg funkcji. Przykładowo, gdy odwiedzimy sklep sportowy albo salon z biżuterią, specjalnie zaprojektowany system może nam wyświetlić najważniejsze parametry danego produktu, zbadać jego dostępność oraz aktualną cenę. To może stać się także wtedy, gdy podniesiemy but stojący na półce – wszystko, co powinniśmy zobaczyć, zostanie wyświetlone na profesjonalnym monitorze dotykowym. Podchodząc do gabloty z biżuterią, możemy zobaczyć daną kolekcję czy pojedynczy produkt – podświetlone albo wyjeżdżające do nas z szuflady. Taki sposób prezentowania produktów rzeczywiście działa na zmysły klientów i jest coraz częściej stosowany do angażowania kupujących.
Zebra rozumie wyzwania i możliwości współczesnego handlu detalicznego. To nie przypadek, że amerykański producent stoi na czele technologicznej rewolucji, oferując kompleksową gamę rozwiązań zaprojektowanych z myślą o potrzebach nowoczesnych firm z sektora handlowego. Od wytrzymałych tabletów po innowacyjne urządzenia do samodzielnej obsługi - Zebra dostarcza narzędzia, których sklepy potrzebują, aby zwiększyć wydajność i poprawić jakość obsługi konsumentów.
CC6000 Kiosk System: nowa definicja self-service
System kioskowy z wielodotykowym wyświetlaczem 10,1 cala, skanerem SE4710 i systemem Android dla handlu detalicznego i hotelarstwa. n interfejsy: USB, Bluetooth, Ethernet, NFC n zintegrowany skaner kodów kreskowych 1D/2D, 4 GB RAM, 32 GB pamięci
Skaner kodów kreskowych
DS2278: wydajność w każdym aspekcie
n czytnik Bluetooth do odczytu kodów 1D/2D w handlu detalicznym
n niezawodne połączenie w zasięgu do 10 m n do 100 000 skanów na jednym ładowaniu baterii (14 godzin pracy)
Przystępny cenowo, wydajny i mobilny skaner kodów kreskowych. Szybko i niezawodnie rejestruje kody 1D i 2D, wspierając sprzedawców w trudnych godzinach szczytu i codziennych operacjach, zapewniając m.in. płynne przetwarzanie kart lojalnościowych i kuponów. Kioski CC6000 to rewolucja w obszarze samoobsługi, dzięki szerokiej gamie funkcji, które ułatwiają zakupy. Od odnajdywania drogi w sklepie po oferty oparte na lokalizacji, CC6000 ułatwi działanie zarówno klientom, jak i sprzedawcom detalicznym.
Jarltech jest wiodącym wyspecjalizowanym dystrybutorem systemów POS i sprzętu Auto ID w Europie. Jako VAD oferuje wyjątkowe usługi, zapewniając wartość dodaną, która wykracza poza pełną ofertę produktów Zebra.
PS30 Personal Shopper: kolejny etap w ewolucji self-shopping
Asystent zakupowy klienta z wyświetlaczem 4,7 cala, skanerem SE4710 i systemem Android. n odporna na chemikalia obudowa unibody, szkło Corning Gorilla Glass n Wi-Fi 6E, 2x2 MU-MIMO, Bluetooth 5.3, USB 2.0 i NFC (tylko modele Plus)
Dzięki znacznie smuklejszej konstrukcji i o 25 proc. większemu ekranowi niż jego poprzednik (model PS20), ulepszonym funkcjom (jak listy zakupów, informacje o wartościach odżywczych) – łatwy w użytkowaniu PS30 poprawia jakość zakupów oraz wyznacza nowe standardy interakcji i nawigacji w sklepie.
Tablety ET40/ET45: wytrzymali pomocnicy do codziennego użytku
Tablety biznesowe z wbudowanym skanerem dla przedsiębiorstw. n pojemnościowy wyświetlacz multi-touch 8 lub 10 cali ze szkłem Corning Gorilla Glass
n Wi-Fi 6, 5G, Bluetooth 5.1, NFC i GPS (tylko ET45)
Dzięki zintegrowanemu skanerowi klasy Enterprise, wytrzymałemu szkłu Gorilla Glass i certyfikatom do użytku w najtrudniejszych warunkach, tablety ET40/ET45 oferują niezrównaną wszechstronność i niezawodność. W magazynie, sklepie i wielu innych środowiskach, dotrzymują kroku wymaganiom nowoczesnego handlu detalicznego.
Odkryj produkty Zebra w Jarltech Więcej informacji na temat kompleksowej oferty rozwiązań magazynowych firmy Zebra znajdziesz skanując kod QR.
Dotykowe monitory interaktywne stanowią jeden z filarów oferty produktowej firmy ViewSonic. Każdy szczegół ich fizycznej konstrukcji oraz funkcjonalności został dopracowany tak, aby użytkownicy mogli cieszyć się jak największym komfortem edukacji i wirtualnych spotkań.
Obecnym bestsellerem sprzedażowym firmy ViewSonic jest monitor ViewBoard IFP7533-G, który został bardzo dobrze przygotowany do wykorzystania w procesie nauki. Jest to interaktywny 40-punktowy dotykowy wyświetlacz 4K Ultra HD o przekątnej 75 cali i jasności 450 nitów, który w wygodny sposób można obsługiwać palcem lub rysikiem. Pracujące pod kontrolą systemu Android 13 urządzenie wyposażone jest w 8 GB pamięci RAM DDR4, dysk 128 GB i 65-watowe złącze USB-C. Użytkownicy mogą skorzystać z funkcji bezprzewodowego udostępniania treści, która ułatwia prowadzenie prezentacji i współpracę w grupach. Monitor można zintegrować z wielofunkcyjnym oprogramowaniem myViewBoard, zapewniającym komfortową i atrakcyjną naukę lub uczestniczenie w spotkaniach, jak też zarządzanie urządzeniem przez administratorów.
Dla bardziej wymagających użytkowników przygotowany jest model ViewBoard IFP7552–2F, w pełni zintegrowany ze śro-
dowiskiem Google Play Store. Ma certyfikat w ramach umowy Android Enterprise Device License Agreement (EDLA) oraz pracuje pod kontrolą systemu Android 13. Dane użytkowników są chronione dzięki wbudowanemu zaawansowanemu mechanizmowi zabezpieczającemu oraz zgodności z rygorystycznymi regulacjami prawnymi. Sprzęt ten ułatwia współpracę dzięki możliwości podziału ekranu i wielozadaniowości, wbudowanym trzem portom USB-C oraz funkcji bezprzewodowego przesyłania obrazu vCast. Ma też wbudowany wysokiej jakości głośnik, subwoofer i ośmiostrefowy mikrofon.
Odbiorców korporacyjnych z pewnością usatysfakcjonuje ultraszeroki model ViewBoard IFP92UW, wyświetlający obraz na wyświetlaczu o przekątnej 92 cali w formacie 21:9 i rozdzielczości 5K (5120 x 2160). Świetnie sprawdza się podczas wideokonferencji – jest zoptymalizowany do współpracy z Microsoft Teams, dzięki czemu oprócz prezentacji slajdów lub ekranu komputera
Przemysław Mika, Key Account Manager B2B/E Poland, ViewSonic
dostępny jest również dodatkowy obszar na pokazanie uczestników rozmowy. Jest też wyposażony we wbudowany wysokiej jakości mikrofon oraz soundbar, a także oprogramowanie ViewSonic Manager do zdalnego zarządzania monitorem. Wyświetlacz obsługuje również oprogramowanie vCast, które umożliwia łatwe udostępnianie treści oraz współpracę w czasie rzeczywistym. Dzięki portowi USB-C z zasilaniem o mocy 100 W, użytkownicy mogą łatwo podłączać swoje urządzenia, jednocześnie je ładując.
W skład rodziny produktów przystosowanych i certyfikowanych do wykorzystania w ekosystemie Microsoft Teams Room wchodzi także wideobar UMB202, który zostanie wprowadzony wkrótce do sprzedaży w dystrybucji ViewSonica. Jest to zaawansowany system wideokonferencyjny, wyposażony w kamerę Sony 4K Ultra HD, 5-krotny zoom cyfrowy, automatyczne kadrowanie i mechanizm śledzenia głosu za pomocą sześciu mikrofonów kierunkowych, które pokrywają rozległy zasięg 8 metrów.
Więcej informacji dotyczących wyświetlaczy interaktywnych ViewSonic dostępnych jest na stronie www.myviewboard.com.
Ambasador marki ViewSonic – Pan Belfer – przygotował wiele filmów, które prezentują możliwości wykorzystania monitorów dotykowych.
Zdecydowana większość uczestników sondy na portalu CRN.pl uważa, że Europejski Zielony Ład odbije się negatywnie na polskiej gospodarce.
n Tomasz Gołębiowski
Unijne regulacje związane z Europejskim Zielonym Ładem (EZŁ) cieszą się wśród czytelników CRN.pl podobną „popularnością”, jak kilka lat temu niesławny Polski Ład. Jedynie 15 proc. respondentów naszej ankiety jest zdania, że EZŁ zwiększy konkurencyjność i przyspieszy rozwój polskiej gospodarki, podczas gdy 72 proc. osób jest przekonanych, że wręcz przeciwnie – w efekcie wprowadzania kolejnych przepisów i procedur rodzima gospodarka będzie się stawać coraz mniej konkurencyjna, a jej rozwój ulegnie spowolnieniu. Na razie opinii na ten temat nie wyrobiło sobie jeszcze 13 proc. pytanych. Z drugiej strony więcej jest firm, które deklarują, że mimo wszystko są przygotowane na związane z ESG raportowanie (37 proc.), od przedsiębiorstw, które jeszcze nie opracowały niezbędnych procedur (25 proc.). Warto zwrócić uwagę na fakt, że aż 38 proc. respondentów oznajmiło, że ich firmy kwestia raportowania nie dotyczy. Co może być prawdą, ale nie musi, biorąc pod uwagę, że w pierwszej kolejności obowiązek składania raportów w zakresie „społeczeństwa, środowiska i ładu korporacyjnego” (Environmental, Social, Governance) będzie dotyczył największych spółek, ale – uwaga! – wraz
z ich dostawcami, a więc obejmie także całe łańcuchy dostaw, w których funkcjonują firmy średnie, małe, a nawet mikroprzedsiębiorstwa.
Przypomnijmy, podając za Newseria Biznes, że duże podmioty będą musiały publikować raporty zrównoważonego rozwoju (zgodnie z dyrektywą CSRD) od 2025 r. To wpłynie również na sektor MŚP, gdyż duzi partnerzy biznesowi zaczną wymagać od swoich mniejszych dostawców danych dotyczących m.in. emisji gazów cieplarnianych i wpływu na środowisko, aby móc uwzględnić je w swoich sprawozdaniach.
wu na środowisko. Będą też szukać takich kontrahentów, dostawców i podwykonawców, którzy działają zgodnie z zasadami zrównoważonego rozwoju i umieją je zaraportować. Polskie firmy będą więc musiały te wymogi spełnić, żeby zachować konkurencyjność na unijnym rynku.
– Mniejsze firmy z Polski, które są partnerami czy podwykonawcami koncernów, już w tej chwili mogą być przez nie proszone o to, żeby przedstawiły, jak zarządzają kwestią zrównoważonego rozwoju – mówi Dariusz Brzeziński.
przy przetargach.
– Mniejsze firmy, które są partnerami czy podwykonawcami dużych koncernów, będą musiały ten wymóg spełnić – podkreśla Dariusz Brzeziński, wiceprezes Meritoros w komentarzu dla Newseria Biznes.
PwC szacuje, że wymogi sprawozdawczości wynikające z CSRD już na początku obejmą w Polsce około 3,5 tys. podmiotów. W raportach będą one musiały uwzględnić swoje działania podejmowane w celu redukcji swojego negatywnego wpływu na środowisko.
Czy jesteś przygotowany do raportowania ESG?
Tak, nasza firma opracowała niezbędne procedury
Źródło: CRN.pl
Nowe obowiązki pociągną za sobą zmiany w całym łańcuchu wartości i będą mieć wpływ na praktycznie wszystkie firmy, niezależnie od ich wielkości. Duże podmioty, objęte wymogami dyrektywy CSRD, zaczną bowiem wymagać od swoich kontrahentów danych dotyczących ich wpły-
Jak na razie wśród mniejszych firm świadomość dotycząca zrównoważonego rozwoju i konieczności raportowania ESG nie jest powszechna. Część z nich uważa, że skoro dyrektywa CSRD nie dotyczy ich bezpośrednio, to nie muszą w tym kierunku nic robić. Powinny jednak liczyć się z problemami, startując w przetargach i ubiegając się o kontrakty.
– ESG już jest kluczowe przy przetargach i będzie coraz ważniejszym zagadnieniem dla tych, którzy chcą w przetargach startować –twierdzi ekspert Meritoros.
Duże firmy, zatrudniające co najmniej 500 osób i spełniające jedno z dwóch kryteriów: obrót na poziomie 40 mln euro zł lub aktywa na poziomie 20 mln euro – będą zobowiązane do publikacji raportów zgodnych z wymogami CSRD w 2025 r. (uwzględniających dane za rok 2024). Małe i średnie spółki złożą pierwsze raporty w 2027 roku (uwzględniające dane za rok 2026).
W ankietach CRN.pl wzięły udział 173 osoby.
„Jesteśmy w stanie, niezależnie od tego jakiej technologii użyją napastnicy, przygotować się na kolejne etapy ataku na różnych poziomach organizacji, nawet bez wykorzystania sztucznej inteligencji” - mówi Lucy Szaszkiewicz, CEO 1Strike.io.
Tuż po niedawnej, wielkiej awarii dotyczącej CrowdStrike’a, przedstawiciel jednego z konkurentów tego producenta powiedział, że znaleźliśmy się na skraju zaufania do branży cyfrowej, od której jesteśmy bardzo mocno uzależnieni. Czy te obawy są słuszne?
Lucy Szaszkiewicz To rzeczywiście złożony problem, bowiem zaraz po incydencie pojawiło się wiele komentarzy ze strony klientów, a także ekspertów. Pojawiły się spekulacje, co miało być zrobione, a czego należycie nie wykonano. Łatwo zatem popaść w narrację, że wystąpiły poważne zaniedbania. Dlatego trzeba podkreślić, że chociaż sytuacja była dotkliwa dla rynku, który my również obsługujemy, to jednak sporo zawdzięczamy oprogramowaniu CrowdStrike’a. Dzięki niemu udało się zablokować wiele potencjalnych incydentów. Dziś nikt o tym już nie pamięta.
To brzmi jak obrona „sprawcy”… W cyberbezpieczeństwie, tak jak w każdej dziedzinie technologii, nie da się pewnych rzeczy nauczyć, zanim się one nie wydarzą. Wyobrażam sobie to w ten sposób, że prezes CrowdStrike’a codziennie podejmuje jakieś ryzyko biznesowe. Dotyczące, dajmy na to, wypuszczenia dwóch aktualizacji dziennie, żeby klienci w branży lotniczej czy bankowej mieli szansę zareagować, kiedy tylko dowiedzą się, że pojawiły się nowe wektory ataków. Ostatecznie podjął to ryzyko, ponieważ wydawało się ono mniejsze aniżeli to, które mogłoby potencjalnie dotknąć klientów, gdyby nie dokonano aktualizacji. Mam
zatem dużo więcej empatii i zrozumienia dla dostawcy niż wielu komentatorów. To, co się wydarzyło, nie było katastrofą, ale dobrym ostrzeżeniem. Ostatecznie był to tylko 1 proc. klientów korzystających z systemów operacyjnych Windows. Niemniej spodziewam się, że w przyszłości takich zdarzeń będzie więcej, a skala ataków większa niż do tej pory.
Rynek cyberbezpieczeństwa jest bardzo mocno rozdrobniony. W kilkunastu kategoriach produktowych działa łącznie ponad trzy tysiące vendorów. Firma średniej wielkości korzysta co najmniej z kilkunastu systemów bezpieczeństwa IT. Czy można nad tym wszystkim zapanować?
Naszą misją jest doprowadzić do realnej zmiany na rynku.
Jeśli chodzi o liczbę, którą podałeś, to akurat mam inną percepcję, ponieważ wywodzę się z rynku systemów CRM i ERP, których jest kilkadziesiąt razy więcej niż produktów bezpieczeństwa IT. Konkurencyjność tych segmentów jest znacznie większa niż ma to miejsce w przypadku cyberbezpieczeństwa. Większa jest też ich adopcja i chłonność. Vendorzy na rynku cyberbezpieczeństwa nie ścigają się ze sobą w jakiś szczególny sposób, co widać w takich jego segmentach, jak rozwiązania do symulacji naruszeń i ataków, które notabene opracowujemy. Tutaj tort jest na tyle duży, że powinno go wystarczyć dla wszystkich. Dlatego myślę, że podstawowy problem leży po stronie klientów i polega na tym, że oni nie potrafią wybrać właściwych dla siebie rozwiązań czy też ich ze sobą porównać. Najczęściej nie wiedzą, do czego produkt ma służyć. Dzieje się tak, ponieważ zawodzi komunikacja pomiędzy osobami zarządza-
jącymi a pracownikami technicznymi. Trzeba przetłumaczyć cele biznesowe na organizacyjne i operacyjne, a potem wybrać w tym obrębie dostawcę. Jednak i tak ostatecznie wszystko zawiera się w decyzji, kto zrobi to najszybciej i najtaniej.
Czy w tym kontekście pozytywnym zjawiskiem jest konsolidacja wśród dostawców?
Myślę, że konsolidacja rynku jest konieczna, aby ułatwić decyzje w zakresie wyboru rozwiązań. Jednak niekoniecznie musi to być konsolidacja polegająca na tym, że kilku największych dostawców wchłonie wszystkich małych dostawców. Nie spodziewam się, że znikną integratorzy. Oni są niezbędni do obsługi większej liczby klientów, zwłaszcza tych, którzy nie dysponują ogromnymi budżetami. Tym bardziej, że na rynku brakuje specjalistów ds. cyberbezpieczeństwa. Natomiast konsolidacja wystąpi w grupie narzędzi bezpieczeństwa IT i pojawi się więcej produktów obsługujących procesy „end to end”, na dodatek kompatybilnych z systemami zarządzania większych organizacji, w administracji publicznej czy łańcuch dostaw.
Konsolidacja w zakresie łączenia firm nie jest łatwa, co pokazuje chociażby przykład Google’a. Gigant chciał kupić, za 23 miliardy dolarów, izraelski startup Wiz, specjalizujący się w rozwiązaniach dla zabezpieczenia środowiska chmurowego. To byłaby rekordowa transakcja w historii Google’a, gdyby nie to, że Wiz odrzucił ofertę. Czy możną tą decyzję uznać za zaskakującą?
Cieszę się, że pojawił się ten przykład, bowiem poznałam inwestora, który dobrze zna założycieli Wiz. Tak się składa, że roz- Fot.
mawialiśmy o sukcesie tej fi o kulturze izraelskich startupów. Mam takie przekonanie, notabene też będąc założycielką startupu, że właścicieli Wiz bardziej niesie misja aniżeli pieniądze. Oni chcą, żeby spółka i technologia służyła biznesowi bez uginania się przed gigantem technologicznym, który akurat znajduje się na krzywej opadającej, a nie wznoszącej. Dlatego bardzo podziwiam tę decyzję, która wynika głównie z poczucia misji.
A w jakim kierunku podąża 1Strike.io. Czy chcecie się rozwijać, tak jak robi to Wiz, a może czekacie z utęsknieniem na dużego gracza, który was przejmie za miliardy dolarów?
Oczywiście rozważamy różne opcje. Choć działamy dopiero od trzech lat, otrzymaliśmy dwie propozycje przejęcia. To dla nas satysfakcjonujące, bo świadczy o tym, że osiągnęliśmy taki poziom, że ktoś wyraża zainteresowanie naszym produktem. Natomiast naszą misją jest doprowadzić do realnej zmiany na rynku i ułatwić klientom adopcję rozwiązań oraz zrozumienie pewnych strategii, które są dużo prostsze niż obsługa funkcji w takich rozwiązaniach jak EDR, XDR czy SIEM. Chcemy pokazać, że jest coś, czego nie można uniknąć i lepiej zmierzyć się z tym szybciej niż później, bo organizacje na tym tylko zyskają. Natomiast jako startup jesteśmy otwarci na różne propozycje, byleby został osiągnięty nasz cel w postaci wpływu na rynek.
Funkcjonujecie w niszowym segmencie rozwiązań do symulacji naruszeń i ataków. Dlaczego wybraliście właśnie ten obszar rynku?
Odpowiedź jest dość prozaiczna. Nasza decyzja wynika z potrzeby rynku, którą dostrzegł mój wspólnik, a zarazem wizjoner produktu. Wcześniej wykonywał on prace związane z symulacją ataków manualnie, a to wymagało zaangażowania dużego zespołu za bardzo wysokie stawki. Szybko zrozumiał, że ta metoda jest dalece nieefektywna oraz trudno dostępna dla klientów. Tymczasem jest
to taka najmądrzejsza, długofalowa strategia stawiania oporu, który polega na tym, żeby uczyć swoją organizację i pracowników. Dzięki niej wiemy, czym tak naprawdę dysponujemy, co nam zagraża i jakie istnieją ryzyka. Na podstawie tych właśnie informacji podejmujemy decyzje i planujemy. Słowem, jest to odpowiedź na potrzeby rynku dotyczące narzędzia automatyzującego procesy symulacji i naruszeń ataków. Niektórzy mówią o wyścigu technologicznym z hakerami, ale uważam, że napastnicy są w tej rywalizacji bezkonkurencyjni, ponieważ dużo szybciej adaptują nowe technologie niż jakakolwiek duża organizacja. Ograniczenia w postaci procedur i ludzkiego zachowania nigdy nie pozwolą uczestniczyć firmom oraz instytucjom w tym wyścigu na równych prawach z jakąkolwiek szansą na zwycięstwo oraz zakończenie konfliktu. Tutaj nigdy nie będzie mety, więc patrzymy na to jako grę a nawet wojnę strategiczną, w której liczą się niezmienne od lat taktyki. Tak, jak ma to miejsce w przypadku prowadzenia firmy – wiadomo, że trzeba zadbać o sprzedaż, księgowość, a na samym końcu chodzi o jak najwyższy zysk możliwie najniższym nakładem pracy. Hakerzy mają taki sam cel.
Jak postrzegacie adaptację, zarówno przez cyberprzestępców jak i dostawców, mechanizmów sztucznej inteligencji?
Producenci muszą postępować zgodnie z regulacjami. Poza tym istnieje też obawa, aby nie zawieść naszych klientów. Szczególną ostrożność musimy wykazywać w branży finansowej, ale rozumiejąc modus operandi hakerów oraz realizowaną przez nich strategię. Jesteśmy w stanie, niezależnie od tego jakiej technologii użyją napastnicy, przygotować się na kolejne etapy ataku na różnych poziomach organizacji, nawet bez wykorzystania sztucznej inteligencji. Autonomiczne działanie systemu jest korzystne, ale tam gdzie mamy do czynienia z prostymi zadaniami, trzeba zdać sobie sprawę z tego, że systemy AI wiedzą, ale nie rozumieją. To człowiek podejmuje decyzje i ostatecznie akceptuje to, co się wydarzy.
Rozmawiał Wojciech Urbanek
Całości wywiadu można wysłuchać w podkaście z cyklu CRN Tech Trendy Biznes na platformie YouTube Zawodzi komunikacja między zarządem a pracownikami technicznymi.
Oszczędności w erze procesorów graficznych i dużych zbiorów danych nabierają dodatkowego znaczenia.
Startupy starają się znaleźć dla siebie miejsce na rynku, dostarczając rozwiązania pozwalające na zwiększenie efektywności wykorzystania sprzętu oraz danych.
n Wojciech Urbanek, Santa Clara
Generatywne modele sztucznej inteligencji rosną niczym na drożdżach, zwiększając zapotrzebowanie na wysokowydajne procesory graficzne (GPU). Nvidia, jako główny dostawca GPU, od dłuższego czasu nie nadąża z zaspokojeniem ogromnego popytu. Tymczasem Mark Zuckerberg, dyrektor generalny Meta, oświadczył publicznie, że już niedługo niedobór GPU w centrach danych przestanie być tak poważnym problemem. Natomiast kolejnym wąskim gardłem ma się stać, według założyciela Facebooka, kwestia zasilania. Tak czy inaczej nadchodzą tłuste lata nie tylko dla dostawców procesorów, ale również firm dostarczających produkty optymalizujące pracę GPU.
Jednym z przedstawicieli nowej fali jest startup Arc Compute z Toronto. Jego portfolio składa się z trzech aplikacji: Arc HPC Nexus, Arc HPC Oracle i Arc HPC Mercury. Zadaniem każdej z nich jest rozwiązanie problemów związanych z konsumpcją energii przez GPU, a także idących w ślad za tym wysokich kosztów operacyjnych.
Michael Buchel, CTO Arc Compute, wie, że wchodzi na rynek, na którym działają już dostawcy podobnych rozwiązań. Swojej szansy upatruje w tym, że konkurencyjne produkty często degradują wydajność procesorów
i sprawiają trudności w odpowiednim dostosowaniu wydajności do określonych celów biznesowych.
Arc HPC Nexus służy do zarządzania zaawansowanymi procesorami graficznymi i sprzętem, optymalizując jednocześnie ich wydajność. Arc HPC Oracle idzie o krok dalej, wykorzystując modele matematyczne do przewidywania mocy cieplnej, pobierania energii i wzorców zużycia. Prognozując wytwarzanie ciepła, operatorzy centrów danych mogą proaktywnie relokować obciążenia, aby uniknąć hotspotów i uszkodzeń sprzętu. Z kolei Mercury koncentruje się na wyborze sprzętu i skalowaniu. Odpowiada za dobór odpowiedniego urządzenia, które zapewni najwyższą przepustowość dla przeciętnego zadania wykonywanego w centrum danych. Oprogramowanie sprzedawane jest w modelu cena per GPU (4000 – 6000 dol. rocznie), a w rozwiązaniach chmurowych użytkownik płaci za godzinę pracy 0,37 dol.
Jeśli zapominamy o efektywności danych, słono płacimy wymienionym usługodawcom.
W Arc Compute pracuje siedemnaście osób. Obecnie startup rozmawia z inwestorami na temat rundy finansowania A, aby przyspieszyć zatrudnianie kolejnych inżynierów, a także zbudować sieć partnerską. Czy to się powiedzie? No cóż, amerykańskie fundusze venture capital zainwestowały już mnóstwo pieniędzy w startupy utożsamiane ze sztuczną inteligencją, nawet jeśli nie generują żadnych przychodów i nie mają
gotowych produktów (jednym z przykładów jest Imbue). Na tle takich projektów szanse Arc Compute na pozyskanie inwestorów wydają się być dość duże.
Petabajty danych dla modeli szkoleniowych
Protokół S3 za sprawą Amazon AWS stał się praktycznie standardem dla usług przechowywania i dystrybucji danych w środowisku chmurowym. Jego popularność nie oznacza, że jest wolny od wad. Rui Su, współzałożyciel startupu Juice Data, dostrzega dwa poważne mankamenty S3: ograniczone możliwości w zakresie obsługi dużych obciążeń, a także ścisły związek przepustowości z pojemnością, co utrudnia niezależne skalowanie. Startup opracował JuiceFS – system rozproszonego przechowywania i przetwarzania plików, oferowany w modelu open source. JuiceFS Community Edition jest udostępniany na licencji Apache 2.0, dzięki czemu cechuje się dużą elastycznością i można go dostosować do konkretnych potrzeb. Dodatkowy atut stanowi współpraca społeczności prowadząca do ciągłego rozwoju produktu. JuiceFS na platformie GitHub uzyskał 10 tysięcy gwiazdek, a jego popularność rośnie dużo szybciej niż ma to miejsce w przypadku konkurencyjnych rozwiązań.
Warto podkreślić, że system jest w pełni kompatybilny z protokołami dostępu POSIX,
HDFS i S3, co predysponuje go do zunifikowanego przechowywania nieustrukturyzowanych danych. JuiceFS obsługuje różne bazy danych o otwartym kodzie źródłowym, w tym Redis, TiKV, MySQL/MariaDB, PostgreSQL i FoundationDB, a jego architektura umożliwia magazynowanie 100 PB danych oraz 70 mld plików na jednym woluminie.
Według Rui Su wśród firm opracowujących modele sztucznej inteligencji pokutuje przekonanie, że najwięcej środków pochłaniają procesory graficzne, a koszty przechowywania danych stanowią znikomy wydatek. Dlatego organizacje zazwyczaj wybierają wysokowydajne systemy plików – GPFS, Lustre, Weka, które bazują na pamięci masowej all-flash (NVMe) i sieciach o wysokiej wydajności.
Jednak wraz ze wzrostem mocy obliczeniowych i danych, pojawiły się nowe wyzwania. Do procesu szkolenia wstępnego potrzeba od 10 PB do nawet 100 PB danych. Ze względu na koszty, użytkownicy zazwyczaj nie przechowują wszystkich zasobów cyfrowych w wysokowydajnych systemach przechowywania plików. Wiele firm używa do magazynowania części danych pamięć obiektową. Chociaż jest to podejście bardziej opłacalne, wymaga dodatkowej siły roboczej i czasu potrzebnego na synchronizację danych, migrację i zarządzanie spójnością między dwoma systemami pamięci masowej.
JuiceFS rozwiązuje powyższy problem, umożliwiając przechowywanie nie tylko plików, ale też obiektów. Ponadto został wyposażony w elastyczne mechanizmy planowania pojemności, pozwalające zwiększać wydajność, bez konieczności ręcznego sterowania.
– Koszt płatnej wersji JuiceFS Enterprise Edition jest aż 80 procent niższy od wydatków na wysokowydajne przechowywanie plików AWS FSx dla Lustre. Zasoby sprzętowe wymagane dla warstwy buforowania mogą wykorzystywać dyski NVMe wyposażone w węzły GPU, nie generując dodatkowych kosztów – tłumaczy Rui Su.
Tobiko Data powstało w 2017 r., a jego założycielami są dwaj bracia: Tyson Mao (CEO) i Toby Mao (CTO) oraz Jarosław Zeigerman. Wymieniona trójka pracowała wcześniej w Apple’u, Airbnb, Google‘u czy Netflixie. Należący do nich startup opracował platformę przeznaczoną do transformacji danych, kompatybilną z dbt (data build tool) – narzędziem open source, umożliwiającym przekształcanie danych w miejscu ich przechowywania.
Tobiko Data oferuje dwa rozwiązania: SQLMesh oraz SQLGlot. Pierwsze z wymienionych rozumie język SQL i poprawia produktywność programisty, odnajdując
problemy w czasie kompilacji. Wbudowana linia na poziomie kolumn zapewnia głębsze zrozumienie modelu danych, a transpilacja (proces konwersji kodu źródłowego napisanego w jednym języku programowania na równoważny kod w innym języku) ułatwia uruchamianie SQL na wielu silnikach. Natomiast SQLGlot jest parserem i translatorem SQL obsługującym 24 różne dialekty SQL. Toby Mao zwraca uwagę na fakt, że większość firm oraz instytucji podczas pracy z wielkimi zbiorami danych natrafia na szereg trudności, takich jak czasochłonny i kosztowny rozruch środowisk programistycznych, brak wglądu w potok danych czy cofanie zmian.
– Takie hurtownie danych jak Snowflake czy Databricks doskonale radzą sobie ze skalowaniem, ale jeśli zapominamy o efektywności danych, słono zapłacimy wymienionym usługodawcom – tłumaczy Toby Mao.
Wprawdzie istnieją narzędzia przesyłające dane do hurtowni, aczkolwiek nie rozumieją języka SQL, traktując wszystko jako surowy tekst lub surowe ciągi znaków. Inaczej wygląda to w przypadku SQLMesh, który analizuje kod i rozumie zależności występujące pomiędzy zapytaniami SQL. Najpoważniejszym konkurentem Tobiko Data jest DBT Labs. To firma działająca na rynku już od sześciu lat i obsługująca około 30 tys. klientów.
– Zapoznałem się z ich produktem, kiedy pracowałem w Airbnb. Kiedy zobaczyłem wersję demonstracyjną DBT Labs, od razu dostrzegłem jej duży potencjał. Nie było to jednak rozwiązanie, które sprawdziłoby się w Airbnb, a największą przeszkodą okazała się skalowalność. W ten sposób zrodził się pomysł, aby opracować podobny produkt, ale rozumiejący język SQL. To jest przewaga drugiego gracza wchodzącego na rynek – wyjaśnia Toby Mao. SQLMesh jest rozwiązaniem open source, aczkolwiek startup niedawno wprowadził do oferty płatną wersję enterprise. Oferuje ona kilka dodatkowych możliwości, w tym pełną obserwowalność, dzięki czemu użytkownicy dowiadują się nie tylko o tym, że coś poszło nie tak, ale też dlaczego tak się stało.
Tobiko Data zatrudnia około 20 osób, z których większość pracuje w Stanach Zjednoczonych, choć posiada też mały zespół w Grecji. W maju startup otrzymał od funduszy venture capital zastrzyk finansowy w wysokości 21, 8 mln dol.
Zdanych M&A Index Poland za pierwsze trzy miesiące roku wynika, że „temperatura” w polskim sektorze fuzji i przejęć była dokładnie taka sama, jak rok wcześniej. Przy czym wartość największej transakcji (spośród tych, w przypadku których cena została ujawniona) wyniosła tym razem 1,1 mld zł – za tyle właśnie Cerberus Capital Management przejęło Velo Bank.
Wśród 95 różnych transakcji, jakie miały miejsce w omawianym okresie, warto zwrócić uwagę na decyzję funduszu Innova Capital, który zainwestował w CloudFerro, lidera usług chmurowych dla sektora kosmicznego w Europie. To kolejne przedsięwzięcie w ramach funduszu Innova/7, którego celem jest rozwój CloudFerro „poprzez wsparcie w rozbudowie struktury organizacyjnej oraz eksploatacji dotychczasowych sukcesów w zakresie międzynarodowej ekspansji i przyszłych przejęć”. CloudFerro, założone w Warszawie w 2015 r., świadczy usługi przetwarzania danych dla europejskiego sektora kosmicznego, badań klimatycznych i naukowych. Firma, wraz
W pierwszym kwartale tego roku na polskim rynku M&A miało miejsce 95 transakcji. Największą z nich było przejęcie Velo Bank przez Cerberus Capital Management.
z zespołem liczącym ponad 200 osób, dysponuje infrastrukturą IT rozlokowaną w centrach danych w Europie i odgrywa kluczową rolę w inicjatywach takich jak Copernicus Data Space Ecosystem i Destination Earth Data Lake, które dostarczają dane i narzędzia do modelowania cyfrowych replik Ziemi. Dzięki dofi nansowaniu CloudFerro ma szansę na dalsze poszerzenie swojej oferty, wchodząc w nowe branże i rozwijając kompetencje w obszarze Big Data i sztucznej inteligencji.
nawiązując współpracę z takimi korporacjami jak Euro Taxi czy Tele Taxi, a także integrując lokalne stowarzyszenia taksówkowe. Obecnie finalizacja przejęcia jest w trakcie uzyskiwania niezbędnych zgód od Urzędu Ochrony Konkurencji i Konsumentów.
Z kolei iTaxi, czołowa polska platforma taksówkowa, strategicznie rozszerzyła swoje wpływy na rynku przez akwizycję EcoCar, warszawskiej sieci taksówek, bazującej na flocie samochodów elektrycznych. To przejęcie, które umacnia pozycję iTaxi na rynku obok takich gigantów jak Uber i FreeNow. Akwizycja jest częścią szerzej zakrojonej strategii iTaxi, która na przestrzeni ostatnich lat konsekwentnie rozszerzała swój zakres działalności,
Marcin Rajewicz, Key Account Manager, Fordata
Warto też odnotować, że Resource Partners zainwestowało we Flex To Go, co skutkowało objęciem 40 proc. udziałów w tej właśnie firmie, zajmującej się krótkoterminowym wynajmem samochodów. Flex To Go, z siedzibą w Polsce, odnotowało szybki rozwój od momentu założenia w 2014 r., stając się jedną z wiodących wypożyczalni samochodów na lotniskach w Polsce i rozszerzając swoją działalność na Niemcy. Firma, która obsłużyła już ponad 230 tys. rezerwacji, dysponuje flotą przekraczającą 1,5 tys. pojazdów i jest obecna na dziewięciu głównych lotniskach w Polsce oraz dwóch w Niemczech. Ekspansja Flex To Go obejmuje plany otwarcia nowych lokalizacji na europejskich lotniskach, w tym w Stuttgarcie, Memmingen, Monachium i Frankfurcie.
Raport M&A Index Poland jest co kwartał opracowywany przez specjalistów Navigator Capital oraz Fordata. Publikacja ma na celu pokazanie dynamiki polskiego rynku fuzji i przejęć, z naciskiem na opis najciekawszych transakcji. Opracował Tomasz Gołębiowski
Warto wiedzieć, kiedy powiedzieć sobie dość, nie bacząc na ostracyzm społeczny.
Nie założyłbym już własnego startupu. I zdaję sobie sprawę, że dla wielu taka deklaracja ze strony osoby zarządzającej funduszem VC może brzmieć jak strzał w kolano. Powinienem przecież, jak większość, wznosić ten sektor na piedestał, rozpalać ambicje młodych adeptów, sprzedawać marzenia, a przy okazji na tym zarabiać. Jaki ma to zatem nieść przekaz dla founderów? Otóż uważam, że to nie jest branża dla wszystkich, co zresztą jasno pokazałem w mojej najnowszej książce („Ciemna strona start-upów”). W pełni zrozumieją to jedynie osoby, które już kroczyły tą drogą. Poznały tytaniczną pracę za niewielkie pieniądze połączoną z ogromnym ryzykiem i niezwykle niskim prawdopodobieństwem sukcesu. Ja z pełną świadomością mogę napisać – dziś to już nie dla mnie. Jednak nie zawsze tak było. Mając dwadzieścia kilka lat myślałem zupełnie innymi kategoriami. Call o 5 rano z producentem z Tajwanu, później 10 godzin w biurze po to, by wieczorem zacząć wielogodzinne dyskusje z zespołem z Doliny Krzemowej. Tak wyglądała moja codzienność. W sumie 40 odwiedzonych krajów, klienci na czterech kontynentach, inwestorzy z górnej półki, a jednocześnie codzienna walka o byt i wynagrodzenie znacznie poniżej możliwości. Do tego klasyk – sinusoidalne poczucie własnej warto-
ści uzależnione od tego, czy w spółce jest akurat dobrze czy źle. Ambicja i nieodparta chęć zrobienia czegoś wielkiego wiodły jednak prym, dając niekończące się pokłady energii, by brnąć w to dalej.
Druga strona mocy
Kilka lat później przeszedłem na drugą stronę mocy. Zostałem inwestorem. I tu znów – wielkie wyzwania, bo związane z zarządzaniem portfelem 50 spółek o wartości 50 milionów. Niezwykle trudny biznes, który udaje się niewielu. Mi się akurat udało, ale dlatego, że podszedłem do tematu nieszablonowo i pewnie miałem trochę szczęścia. Obecnie obserwuję, że założyciele startupów mają dokładnie te same problemy, z którymi ja się mierzyłem. Pokazało mi to ważną rzecz – coś, co uznawałem w przeszłości za unikalne doświadczenie okazało się być pewnego rodzaju normą w tym sektorze. To jego specyfika i tak on w praktyce wygląda. Dlatego należy to zaakceptować.
Czy zatem, skoro nie chcę już budować startupów, oznacza to, że to moim zdaniem zły biznes? Absolutnie nie. Jeśli ktoś ma w sobie ten ogień i osobliwą
motywację, by tworzyć globalnego potentata – zdecydowanie powinien to wykorzystać. Warto iść tą ścieżką, bo dla mnie było to jedno z najciekawszych doświadczeń biznesowych w życiu. Jednocześnie warto wiedzieć, kiedy powiedzieć sobie dość, nie bacząc na ostracyzm społeczny. Jest mnóstwo innych dróg, którymi można pójść. To nie jest branża dla każdego. To nie jest branża na każdym etapie życia. To jednak branża, której zdecydowanie warto spróbować – niezależnie od tego, czy będzie się founderem czy może inwestorem, ponieważ to jest kapitalna szkoła życia.
Szymon Janiak
Autor jest współtwórcą i partnerem zarządzającym funduszu venture capital Czysta3.vc
Polskie startupy i rodzimi founderzy są niezwykle aktywni, niezależnie od aktualnej koniunktury w branży IT.
n Polski fundusz VC, Radix Ventures, pozyskał w sumie 41 mln euro od Europejskiego Funduszu Inwestycyjnego, PFR Ventures oraz inwestorów prywatnych z regionu CEE. Radix Ventures zapowiada inwestowanie w polskie, rumuńskie, ukraińskie i węgierskie spółki wspierające tzw. zieloną transformację. Celem funduszu jest kapitalizacja na poziomie 60 mln euro, a jego strategia zakłada realizację 16 do 20 projektów, a więc inwestycji na poziomie od 1,5 do 3 mln euro. Założyciele Radix Ventures – Paweł Bochniarz, Wojciech Ratymirski i Michał Urbanowski – poprzednio zarządzali wspólnie funduszem Valuetech Seed Fund.
n Incode Technologies, spółka oferująca rozwiązanie do weryfikacji tożsamości, przejęła MetaMap – startup polskiego przedsiębiorcy Filipa Victora – z siedzibą w Silicon Valley. Na stanowisku CEO zastąpiła go Meghna Mann (awansując z pełnionej do tej pory funkcji COO). Wartość transakcji nie została ujawniona, natomiast wiadomo, że do tej pory MetaMap pozyskała z rynku ponad 86 mln dol., a trzy lata temu magazyn Forbes umieścił firmę na liście 25 spółek, które potencjalnie mają największe szanse na zdobycie „tytułu” unicorna.
n Minister Cyfryzacji Krzysztof Gawkowski zapowiedział, że chce utworzyć fundusz przeznaczony sztucznej inteligencji, którego zadaniem będzie wspieranie polskich startupów w początkowej fazie ich działalności. Inwestycje mają być realizowane na wielu płaszczyznach, w tym w sektorach edukacji i publicznym. Pierwszym krokiem w tym kierunku była niedawna aktualizacja polityki rządu w zakresie sztucznej inteligencji. Według Krzysztofa Gawkowskiego podjęte działania umożliwią Polsce wzięcie aktywnego udziału w pracach związanych ze sztuczną inteligencją na forum Unii Europejskiej, ONZ i Rady Europy. Celem resortu cyfryzacji jest „wyeliminowanie białych plam w Internecie w Polsce do 2027 r.”.
n Polski Fundusz Rozwoju i PFR Ventures uruchomiły program Healthcare Investment Hub, który ma wspierać startupy z sektorów medtech, healthtech i biotechnologii w zdobywaniu wiedzy oraz budowaniu relacji z europejskimi funduszami venture capital. Do programu dołączyły takie fundusze, jak: 415C, Heal.capital, HealthCap, Karista i Sofinnova Partners. W program zaangażowało się także kilka instytucji wspierających innowacje zdrowotne, a wśród nich: Novartis, BioForum, Instytut Matki i Dziecka, Lawmore, EIT Health oraz Instytut Nenckiego. Program jest bezpłatny dla podmiotów posiadających osobowość prawną, które posiadają działający prototyp oraz prawa własności intelektualnej do technologii
n Duże firmy, które decydują się na współpracę ze startupami, często nie są na to wcześniej odpowiednio przygotowane – wynika z opracowanego przez Startup Poland raportu „Corporations appreciating the potential of startups – volume II of cooperation between corporations and startups”. Autorzy opracowania przebadali ponad 200 firm, z czego większość (116) współpracuje ze startupami, a odpowiedzi udzielali specjaliści, dyrektorzy i członkowie zarządów, którzy są decyzyjni w badanym zakre-
n Zeta Labs to twórca JACE, a więc autonomicznego agenta AI, który można porównać do zaawansowanego chatbota, sprawnie poruszającego się po internecie i realizującego zlecone mu przez człowieka zadania (na przykład jest w stanie krok po kroku pokazać, jak założyć firmę). W czerwcu br. startup w rundzie pre-seed zebrał 2,9 mln dol. Zdecydowali się na to dwaj aniołowie biznesu – Nat Friedman, były dyrektor generalny Github i Daniel Gross, były szef AI w Y Combinator – a także fundusze Earlybird i Kaya, jak również AI Grant, Shawn „Swyx” Wang, Bartek Pucek i Mati Staniszewski (założyciel ElevenLabs). Spółka chce wykorzystać pozyskany kapitał na rozbudowę swojego zespołu inżynierów, organizację modeli szkoleniowych i ulepszenie całej infrastruktury JACE. Firma została założona przez Fryderyka Wiatrowskiego i Petera Alberta w sierpniu 2023 r.
n Zing Coach, platforma fitness wykorzystująca sztuczną inteligencję do tworzenia spersonalizowanych planów treningowych, zebrała 10 mln dol. w rundzie finansowania A, prowadzonej przez Zubr Capital i Triple Point Capital.
n Quantum Innovations, polska spółka typu medtech, pozyskała 9,4 mln euro w ramach drugiej rundy finansowania prowadzonej przez Vinci IQ ASI, fundusz utworzony przez BGK i zarządzany przez Vinci, przy udziale obecnego inwestora spółki, MedTech Holdings.
n CampusAI, warszawski startup, który pracuje nad platformą AI do nauki i współpracy, otrzymał w rundzie pre-seed 10 mln dol. od anioła biznesu Macieja Zientary, założyciela Supernova Group i partnera w JR Holding.
n Proofs, założony przez Bartka Pucka i Zbigniewa Sobieckiego startup, który korzysta ze sztucznej inteligencji do przyspieszenia fazy proof-of-concept przy sprzedaży oprogramowania, otrzymał 2,4 mln euro dofinansowania (runda pre-seed) od Earlybird Digital East Fund, Expeditions Fund, Step Function Ventures, RTP Global i aniołów biznesu.
n Cardino, polsko-niemiecka spółka prowadząca platformę sprzedaży używanych samochodów elektrycznych, pozyskała od funduszu Point Nine 4 mln euro w ramach rundy pre-seed.
sie. Ci z nich, którzy do tej pory nie współpracowali ze startupami, bardzo często deklarowali, że chcieliby nawiązać taką współpracę, chociaż tak naprawdę nie wiedzieli, jak się do tego zabrać. Przedstawiciele prawie 40 proc. firm (prawie wszystkie, które wyraziły chęć współpracy z młodymi, innowacyjnymi firmami) twierdzą, że potrzebują pomocy w nawiązaniu współpracy ze startupami – wskazówek, jak podejść do tego tematu, od czego zacząć, gdzie szukać, a przede wszystkim na co zwrócić uwagę i jaką wartość startup może wnieść do ich biznesu. Raport zawiera szczegółowe omówienie poszczególnych zagadnień. Publikacja dostępna jest bezpłatnie w języku angielskim (https://startuppoland.org/en/report/cooperation-between-corporations-and-startups-vol-2).
n Twórcy BeeSpeaker, aplikacji do nauki języków obcych, zostali wsparci przez Cobin Angels i grupę szwedzkich inwestorów kwotą 1 mln euro. Środki te mają być wykorzystane do wejścia na nowe rynki, w tym czeski, włoski i brazylijski.
Rubryka prowadzona we współpracy z Fundacją Startup Poland na bazie biuletynu „How To Startup”.
Co zrobić, gdy kapitalizm nieproporcjonalnie nagradza właścicieli cyfrowych platform? No cóż, musimy zwiększyć swoje umiejętności…
n Jay McBain, Canalys
Jak wiadomo, najwyżej wyceniane firmy na świecie (w każdej branży) pełnią rolę platform dla innych graczy w danym ekosystemie. Przykładem może być Uber, łączący pasażerów z kierowcami, bądź Shopify, gromadzące sprzedawców z jednej, a twórców aplikacji z drugiej strony, ale również każde klasyczne centrum handlowe. Z myślą o tym, w kontekście branży IT, Canalys, we współpracy z HubSpot i Partnership Leaders, opracowało kompleksowy raport pt. „State of Platforms”. Publikacja stanowi efekt analizy 50 najpotężniejszych platform SaaS na świecie – firm takich jak Salesforce, HubSpot, ServiceNow, Workday, a także platform-gigantów – jak AWS, Microsoft i Google.
Obecnie znajdujemy się na etapie przechodzenia z wczesnych faz transformacji ekosystemu do bardziej dojrzałego myślenia o platformach i sposobach ich realizacji. Stawia to przed producentami pytanie: jak przekształcić tradycyjne (liniowe) programy partnerskie w propozycje o szerszym zasięgu, uwzględniające „ekonomię cyfrowych platform”? Zebrałem zatem 13 zagadnień, jakimi warto się zająć, aby uzyskać właściwą odpowiedź.
1
Zmiana strategii go-to-market
Platformy zmieniają ekonomię współpracy partnerskiej, która zamiast finansowania partnerów jedynie w momencie sprzedaży (redukcja przychodu) ma wynagradzać ich w momencie dostarczenia wartości (SG&A lub Capex). W modelu subskrypcyjnym lub konsumpcyjnym kluczowe jest „zaproszenie klienta do tanga, wprowadzenie go na parkiet i utrzymanie go tam przez całą noc”, a partnerzy grają kluczową rolę na każdym z tych etapów. Przy czym „platformowy” proces sprzedaży zmniejsza wartość samej transakcji, a zamiast tego kładzie nacisk na te momenty, w których partnerzy dostarczają wartość klientom. Przykładowo, nowi, młodsi nabywcy coraz częściej priorytetowo traktują integrację technologii jako kryterium zakupu. Dlatego kluczowi partnerzy ds. integracji technologii (ISV lub IHV) mogą przeważyć szalę w jedną lub drugą stronę.
Jednym z ważniejszych trendów, które zaobserwowaliśmy w ostatnich latach, było
ustanowienie nowego stanowiska – Chief Partner Officer (CPO). Serwis Nearbound. com doliczył się w ciągu minionych miesięcy aż 267 takich nominacji, co oznacza, że nowa pojawia się niemal codziennie. I nie jest to po prostu awans szefa kanału sprzedaży na opisywane stanowisko w zarządzie. To nowa rola z nowymi wskaźnikami KPI. Co ciekawe, z 20 analizowanych przez nas nominacji, bardzo niewielu nowych CPO kiedykolwiek wcześniej pojawiło się na liście CRN Channel Chief. Większość z nich wywodzi się z branży doradczej. W większości przypadków skoncentrowany na transakcjach szef kanału sprzedaży raportuje teraz do CPO i współpracuje z menadżerami odpowiedzialnymi za marketing, CX (customer experience), produkty oraz sojusze technologiczne.
Chief Partner Officer nie powinien tworzyć nowego „lennego” działu, gromadzącego mnóstwo ludzi. Powinno być wręcz przeciwnie – specjaliści odpowiedzialni za partnerstwa powinni być zintegrowani z działami marketingu, sprzedaży, produk-
tu, finansów, operacji oraz relacji z klientem. W zależności od wielkości dostawcy, kluczowi menadżerowie ds. strategii partnerstw, programów, operacji, finansów i technologii powinni raportować bezpośrednio do CPO, natomiast ci zorientowani na partnerów powinni raportować do CRO, CMO, CTO itp. Analogicznie, około dekady temu, nauka o danych (data science) skutecznie sprawdziła się w roli funkcji poziomej. Zamiast budować swoje „imperium”, CTO lub CDO zintegrowali naukowców danych w każdym dziale i zbudowali wokół nich jezioro danych, z którego skorzystali wszyscy. Ta sama teoria sprawdza się przy partnerstwach i jest kluczowa także w kontekście platform.
4
Nowe sposoby na dotarcie do rynku
Istnieje łącznie 7 cyfrowych dróg, które należy rozważyć przy analizie całkowitego adresowalnego rynku platform (TAM). Pierwsza to duże chmurowe marketplace’y obsługiwane przez wielkich hiperskalerów, firmy SaaS oraz dostawców tradycyjnych. Według prognoz Canalys marketplace’y chmurowe wygenerują do 2025 r. przycho-
dy w wysokości 45 mld dol., przyrastając co roku średnio aż o 84 proc. Już teraz czterech dostawców – CrowdStrike, Splunk, Palo Alto oraz Snowflake – raportuje ponad 1 mld dolarów przychodów pochodzących wyłącznie z platformy AWS-u.
Tradycyjni dystrybutorzy inwestują miliardy w innowacje związane z cyfrowymi marketplace’ami. Z kolei nowi dystrybutorzy chmurowi, tacy jak Pax8 czy Sherweb, mocno się rozwijają, unikając tradycyjnych łańcuchów dostaw, magazynowania czy obciążeń kapitałowo-kredytowych. Z kolei na rynku telekomunikacyjnym, dystrybutorzy rozwiązań technologicznych (TSD), tacy jak Telarus, Avant, Intelisys i AppDirect, byli ostatnio bardzo aktywni w fuzjach i przejęciach, szybko wchodząc w dystrybucję IT.
Również duzi resellerzy, z których kilku jest notowanych na giełdzie, znacząco inwestują w cyfrowe marketplace’y. Istnieje ponad 150 platform rozwoju marketplace’ów (MDP), które pozyskują miliardy dolarów z prywatnych funduszy kapitałowych i oferują możliwo-
ści rozwijania biznesu pod własną marką we wszystkich branżach. Wreszcie, są też platformy na wartym 548 mld dol. rynku usług zarządzanych, obsługujące ponad 335 tys. dostawców usług zarządzanych.
Platformy zmieniają ekonomię współpracy partnerskiej.
Platformy są obszerne i zróżnicowane, wspierając przy tym wiele różnych typów partnerów. Dlatego, aby wspierać klientów w różnych rolach, branżach, segmentach, lokalizacjach geograficznych, potrzebach produktowych i preferencjach zakupowych, niezbędna jest strategia tzw. długiego ogona (long tail). Jednocześnie trzeba brać pod uwagę wpływ, jakiemu ulegają klienci przed, w trakcie i po transakcji. Przeciętny (średni i większy) klient w trakcie procesu sprzedażowego ufa 7 różnym partnerom i tylko jeden z nich funkcjonuje jako reseller. Tymczasem wobec 73,2 proc. z 4,94 bilionów dol. przepływających rocznie przez kanał sprzedaży w branży technologicznej, programy większości
dostawców są nadal zbyt skoncentrowane na partnerach transakcyjnych.
Najwyżej wyceniane firmy stosują obecnie strategię „otaczającą” w zakresie marketingu, sprzedaży i relacji z klientem. Rekrutacja i pielęgnowanie tych 7 partnerów, którym ufa klient, jest najskuteczniejszym i najtańszym sposobem na zdobycie i utrzymanie klientów na zawsze. Każdy zaufany partner (z tych 7), który nie współpracuje z tobą, ryzykuje doprowadzeniem do tarć w kluczowych momentach ścieżki zakupowej klienta.
steśmy w tyle za krzywą rozwoju rynku cyfrowych platform.
Model platformowy jest znacznie trudniejszy.
Rekrutacja tych dodatkowych partnerów, którzy mogą mieć ponad 20 różnych modeli biznesowych, musi być prowadzona „z dołu do góry”, w sposób społecznościowy. Zrozumienie, co czytają, czego słuchają, gdzie się udają i kogo obserwują klienci, jest pierwszym krokiem. Drugim jest bycie widocznym w ich zaufanych miejscach i wpływanie na nich. Jak widać, nie jest to tradycyjna, liniowa działalność, prowadzona przez menedżera ds. relacji z klientami.
6Kiedy szukamy nowych partnerstw i chcemy je rozwijać – co według badania CRN z 2023 r. deklaruje 86 proc. zarządzających kanałem sprzedaży – ważne jest, abyśmy zdawali sobie sprawę, że partnerzy niezaangażowani bezpośrednio w transakcje mówią „innym językiem”. Przejście od „języka marży” do „języka mnożników” to pierwszy krok w nawiązaniu współpracy z siedmioma partnerami, których każdy z klientów darzy zaufaniem. Salesforce był w tym pierwszy i jest w połowie drogi do zrekrutowania 500 tys. partnerów. Niezły wynik jak na firmę, która niemal w 100 proc. działa bezpośrednio. Nie tak dawno AWS poinformował o mnożniku 6,40 dol. i szybko rozwija ekosystem integratorów systemów, ISV, dostawców usług zarządzanych (MSP), agencji, integratorów i konsultantów, z których żaden nie jest zainteresowany, aby działać jak typowy reseller. Jeśli wciąż mówimy o marżach, rabatach i próbujemy objaśniać statusy złoty/srebrny/brązowy, je-
Model ekosystemu opiera się na mieszance partnerów realizujących transakcje i tych, którzy ich nie realizują. Model oparty na poziomach nadal jest najlepszy do napędzania wyników w przypadku sprzedaży przez resellerów. System punktowy natomiast może nagradzać, mierzyć i motywować w tych momentach procesu sprzedaży, które nie wiążą się bezpośrednio z odsprzedażą, ale przyczyniają się do tworzenia nowych możliwości, generowania przychodów, zysków i zwiększenia retencji klientów.
Jednym z interesujących efektów działania dużych marketplace’ów cyfrowych jest obniżenie struktury opłat do 3 proc. (lub mniej). Klienci szybko zauważają, że „koszt” odsprzedaży przypomina opłatę za użycie karty kredytowej w restauracji. Stanowi to wielkie wyzwanie dla 100-procentowych resellerów, ponieważ koszt konfiguracji, wyceny, sporządzania ofert i przyjmowania płatności w imieniu dostawcy jest wyższy. Dodając zmianę wartości pieniądza w czasie (np. przy terminach płatności 30 dni, 60 dni itp.), także ryzyko, że klient nie zapłaci, oraz koszty związane z odzyskiwaniem należności lub stratą spowodowaną złym długiem, bilans robi się jeszcze mniej atrakcyjny. Do tego może dołożyć się przenoszenie przez dostawcę ryzyka braku płatności na partnera, który musi dotrzymać okresu danej umowy (np. u Microsoftu).
Dlatego przyznawanie punktów za momenty współpracy przed, w trakcie i po transakcji, jak również za współinnowacje, współrozwój czy tworzenie wartości to sposób, w jaki platformy rozwijają swój model sprzedaży poprzez różne typy partnerów.
w ramach ścieżki zakupowej klienta oraz relacji partnerskich. Zastosowanie strategii motywacyjnych, lojalnościowych i zachęt w tych właśnie momentach jest kluczowe dla rozwoju ekosystemu partnerskiego w całej jego złożoności.
Pierwszym krokiem jest zaprzestanie wyłaniania „najlepszych” partnerów na podstawie wartości przychodu ze sprzedaży. Zamiast tego najlepsi partnerzy – w tym medialni – mogą skupiać się na wczesnych 28 momentach przed wyborem dostawcy („zapraszanie klientów do tańca”). Inny topowy partner może generować wyniki na danej platformie („prowadzić klientów na parkiet”). Jeszcze inny najlepszy partner może pojawić się już po sprzedaży, działając w zakresie wdrożeń i tworząc więź („utrzymując klientów na parkiecie”).
Dostawcy muszą na nowo wyobrazić sobie, co ich „najlepsi” partnerzy faktycznie dostarczają w „punkcie wartości” i być w stanie mierzyć to w sposób wiarygodny, powtarzalny i skalowalny.
9
Według najnowszych danych Canalysa, przeciętny partner prowadzi obecnie działalność w ramach ponad 3 różnych modeli biznesowych. Dlatego w ekosystemie przestaje działać segmentacja partnerów według ich typu – musi być realizowana na poziomie indywidualnym. Generatywna sztuczna inteligencja umożliwi pójście jeszcze dalej, hiperpersonalizując treści, komunikację i współpracę zgodnie z preferencjami każdej osoby.
10
Odnosząc się do punktu 7, warto podkreślić, że istnieje wiele momentów, które można monitorować, mierzyć i zarządzać nimi
To, jak pieniądze zmieniają właściciela na platformie, jest w pewnym sensie nieistotne. Przykładowo, współmarketing wymaga programów afiliacyjnych, promujących ambasadorów i influencerów, wynagradzając ich za efektywność marketingową. Do końca 2024 r. zarówno Apple, jak i Google zakończą transformację likwidującą pliki cookie. Dlatego CMO będzie potrzebować wsparcia w pozyskiwaniu danych o intencjach zakupowych drugiej strony, które zastąpią mu dane kupowane obecnie od stron trzecich. Po raz pierwszy od 20 lat nie bę-
dziemy już produktem w internecie, co będzie jednym z najdonioślejszych wydarzeń w historii kanału partnerskiego!
11
Automatyzacja, głębsze integracje i podejmowanie decyzji oparte na danych tworzą dzięki partnerstwom wymierną przewagę konkurencyjną i szybko stają się standardem w ekosystemie partnerskim. Dla ponad 10 milionów specjalistów ds. kanału sprzedaży i partnerstw coraz większą rolę we „współpilotowaniu” będzie odgrywać generatywna sztuczna inteligencja.
12
Partnerstwo na dużą skalę to rzecz skomplikowana. Wymaga powtarzalnych procesów, przewidywalnych przepływów pracy, skalowalnej logiki biznesowej oraz wysokiego stopnia automatyzacji. Biorąc pod uwagę ponad pół miliona zwolnień w branży technologicznej w ciągu ostatnich dwóch lat, wielu liderów kanału sprzedaży jest zainteresowanych generatywną sztuczną inteligencją, technologią automatyzacji oraz podejściem „jeden-do-wielu”, aby przyspieszyć rekrutację partnerów, zaangażowanie, wsparcie oraz ulepszanie programów.
13
Budowanie skutecznego modelu resellerskiego przez ostatnie ponad 40 lat opiera się na podejściu „z góry na dół”. Należy określić adresowalny rynek docelowy produktu, dostępny oraz osiągalny rynek usługowy i szybko rozpocząć franczyzowanie poprzez dystrybucję i dużych resellerów z globalnym modelem zarządzania kanałem sprzedaży. Nie inaczej wygląda sprzedaż towarów takich jak kawa, pączki czy hamburgery – sukces zapewnia „posiadanie kasy fiskalnej” na każdym rogu.
ściach otaczających osoby, którym nasz klient ufa (to nasi potencjalni partnerzy). Rekrutacja, onboarding, enabling, a potem zaangażowanie z dziesięciokrotnie większą liczbą partnerów wymaga strategii i skutecznego zarządzania społecznością, co większość dostawców po prostu ignoruje.
Przez ostatnie dwa lata Canalys badał społecznościowe miejsca, które partnerzy uważają za wystarczająco zaufane, aby angażować się ze swoimi odpowiednikami, słuchać influencerów, spotykać się z „superłącznikami” i przebić się przez hałas i zamęt, jakimi branża ich raczy. Tymczasem wciąż panuje przekonanie, że rekrutacja i aktywacja partnerów opiera się na dobrym programie partnerskim i wewnętrznych społecznościach – nie jest to prawda.
Posługując się językiem baseballa, wymagana jest strategia „moneyball” – polegająca na zdobywaniu większej liczby baz, a nie uderzaniu poza ogrodzenie („home run”). Skuteczne zarządzanie społecznością polega na zdobywaniu baz tak często, jak to możliwe, przy minimum inwestycji. Zdobycie poziomu rekomendacji społeczności i wpływanie na influencerów tworzy grawitację, która buduje platformy.
na dużą skalę to rzecz skomplikowana.
Model platformowy jest znacznie trudniejszy. Nie sprzedajemy towaru, sprzedajemy dobrze przemyślany zakup nowemu, młodszemu nabywcy, który otacza się 7 zaufanymi osobami. Podejście „z dołu do góry” polega na wpływaniu na influencerów. Na uzyskaniu rekomendacji w społeczno-
Zrozumienie tego, jaki może być wpływ na 7 partnerów otaczających każdego klienta, jest niezwykle ważne. Istnieje łącznie 14 związanych z tym sfer wpływów – w zależności od indywidualnych preferencji klientów, ale także partnerów handlowych. Przykładowo, rok temu około 20 milionów specjalistów ds. kanału sprzedaży potrzebowało szybkiej edukacji na temat generatywnej AI. Gdybyśmy spytali tych specjalistów, jak zdobyli pożądaną wiedzę, opowiedzieliby o konferencjach i spotkaniach stowarzyszeń branżowych, w których uczestniczyli, pismach, które czytali, grupach w mediach społecznościowych, do których należeli, liderach opinii i konsultantach, z którymi rozmawiali etc., to wszystko razem tworzy właśnie wspomniane powyżej 14 sfer. Co ważne, każda z nich powinna być odpowiednio zagospodarowana przez producentów, ale także dystrybutorów. Tłumaczenie Tomasz Janoś Partnerstwo
Polska to ostatni kraj, który przyjął przepisy wdrażające dyrektywę o sygnalistach. Od kwietnia br. nasze państwo płaciło karę 40 tys. euro dziennie za brak wdrożenia tych przepisów, a oprócz tego mamy do zapłacenia 7 mln euro ryczałtu tejże kary.
Już niebawem wejdzie w życie większość przepisów ustawy o ochronie sygnalistów. Chodzi w niej o zapewnienie pracowników i innych osób, że nie spotkają ich działania odwetowe za zgłaszanie naruszeń prawa – także w obszarze bezpieczeństwa sieci i systemów teleinformatycznych czy ochrony prywatności.
Ustawa została uchwalona 14 czerwca br. To implementacja unijnej dyrektywy 2019/1937 uchwalonej w październiku 2019 r. Dyrektywa przewidywała termin implementacji w grudniu 2021 r. Polska to ostatni kraj, który przyjął przepisy wdrażające tę dyrektywę – na ostatniej prostej wyprzedziła nas Estonia. Od kwietnia 2024 r. Polska płaciła karę 40 tys. euro dziennie za brak wdrożenia tych przepisów, a oprócz tego mamy do zapłacenia 7 mln euro ryczałtu tejże kary. W Polsce ochrona sygnalistów (ten termin przyjął się jako tłumaczenie angielskiego „whistleblowers”) to temat obecny w dyskusjach o trendach w prawie i zarządzaniu od kilku lat. Stworzenie systemu pozwalającego pracownikom i ewentualnie innym osobom na zgłaszanie (sygnalizowanie) nieprawidłowości wyznaczonym przez daną firmę osobom pomaga zachować kontrolę nad procesami i usprawnić działanie firmy. Zmniejsza to też ryzyko wycieku takich spraw na zewnętrz (do mediów czy organów publicznych). Według wielu specjalistów skuteczny system
zgłaszania nieprawidłowości to warunek dobrze działającego systemu zarządzania zgodnością (compliance).
Sygnalistą jest każdy, kto zgłasza naruszenie prawa w przekonaniu, że mówi prawdę. Zgłoszenie może być dokonane kanałami wewnętrznymi (wyznaczonej osobie lub komórce organizacyjnej) albo zewnętrznie (np. do Urzędu Ochrony Danych Osobowych lub Urzędu Komunikacji Elektronicznej). Sygnalista będzie chroniony w przypadku zgłoszenia naruszenia prawa w kilkunastu obszarach – w tym bezpieczeństwa sieci i systemów teleinformatycznych czy ochrony prywatności, korupcji, ochrony konkurencji czy konsumentów.
działającym w danej firmie związkom zawodowym, a jeśli ich nie ma – przedstawicielom pracowników.
W wielu firmach po raz pierwszy powstanie konieczność wyłonienia takich reprezentantów. Pracodawca powinien przygotować wybory i dać pracownikom i innym zatrudnionym osobom możliwość wyboru swoich przedstawicieli. Konsultacje z takimi reprezentantami nie są wiążące – pracodawca musi tylko wysłuchać stanowiska pracowników. Procedura wejdzie w życie po jej ogłoszeniu i podaniu do wiadomości zatrudnionym (np. poprzez mejling).
Sygnalista ma prawo do odszkodowania.
Ustawa obejmie firmy zatrudniające co najmniej 50 osób, zarówno na podstawie umowy o pracę, jak i innych umów. Ważne jest, czy dana osoba świadczy usługi stale na rzecz danej firmy i świadczy je osobiście. Nawet, jeśli firma zatrudnia programistę na podstawie umowy cywilnoprawnej (np. zlecenie), musi doliczyć go do tego progu. Wszyscy przedsiębiorcy muszą dwa razy do roku (1 stycznia i 1 lipca) sprawdzić, czy przekraczają próg 50 osób zatrudnionych. Jeśli go przekroczą, muszą ustanowić procedurę zgłoszeń wewnętrznych. Przewidziano też tryb ustanowienia takiej procedury. Najpierw musi powstać jej projekt. Później trzeba go przedstawić do konsultacji
Przede wszystkim należy w niej ustalić kanały zgłaszania, czyli sposoby przekazywania pracodawcy podejrzeń naruszenia prawa. Najczęściej takie kanały to adres email, natomiast w większych organizacjach kupuje się od wyspecjalizowanych firm platformy służące do obsługi zgłoszeń (tzw. platformy speak-up). W procedurze trzeba też wskazać, kto fizycznie będzie odbierał zgłoszenia. może to być prawnik zatrudniony w firmie, szef działu compliance (tzw. compliance officer), ale także osoba zatrudniona w spółce-matce czy osoba całkiem z zewnątrz organizacji. Jeśli jednak wyznacza się do tego obowiązku osobę lub spółkę z zewnątrz, trzeba z nią zawrzeć szczegółową umowę. Procedura musi określać, komu należy przekazać zgłoszenie wewnętrzne – i tym razem musi to już być osoba zatrudniona w danym miejscu. Nie może to być pracownik spółki-matki ani zewnętrzny specjalista. Ta osoba jest odpowiedzialna za tzw. działania następcze, najczęściej śledztwa wewnętrzne (postępowania wyjaśniające). Dzięki ich prowadzeniu pracodawca ustala, co się wydarzyło, czy zgłoszenie jest prawdziwe, na czym polega nieprawidłowość itd. W oparciu o wyniki postępowania można podejmować dalsze decyzje – o zwolnieniu danej osoby, o zmianie dostawcy usług, o wzmocnieniu bezpieczeństwa danych lub systemów.
Działania odwetowe to wszystkie negatywne konsekwencje, jakie sygnalista mógłby
Nowe przepisy o sygnalistach będą dotyczyły kilkunastu -kilkudziesięciu tysięcy podmiotów.
ponieść w odpowiedzi na zgłoszenie. Chodzi oczywiście o zwolnienie z pracy, obniżkę wynagrodzenia, odmowę przedłużenia umowy czy awansu. Działania odwetowe to jednak również wszelkie przejawy dyskryminacji, niesprawiedliwego traktowania, mobbingu czy ostracyzmu. Sygnalista, który by takich działań doświadczył, ma prawo do odszkodowania. W ewentualnym procesie będzie mógł się powołać na swoje zgłoszenie i twierdzić, że negatywne decyzje pracodawcy w stosunku do niego były spowodowane zgłoszeniem. To pracodawca będzie musiał udowodnić, że zgłoszenie nie miało nic wspólnego z taką decyzją, która opierała się wyłącznie na obiektywnej ocenie pracy. Ochrona sygnalistów to także zakaz wszczynania przeciwko nim tzw. uporczywych postępowań. Nie można sygnalistów (oczywiście, działających w dobrej wierze) oskarżać o naruszenie tajemnic przedsiębiorstwa przy dokonywaniu zgło-
szenia, o naruszenie dóbr osobistych czy interesów „podejrzewanego”.
W procedurze należy wskazać sposób postępowania ze zgłoszeniami, a więc procedurę wewnętrznego postępowania wyjaśniającego. Powinna ona określać zasady, jakimi kieruje się pracodawca – w tym przede wszystkim zasady zachowania bezstronności osób prowadzących sprawę. W trakcie postępowań wyjaśniających pracodawca może wykonywać szereg czynności „dowodowych”. Zalicza się do nich swoiste przesłuchanie pracowników (nazywane wywiadem lub rozmową wyjaśniającą), analiza nośników pamięci, skrzynek pocztowych, dokumentów, monitoringów i innych źródeł wiedzy. W oparciu o takie dowody pracodawca ustala stan faktyczny i dokonuje oceny. W pracach takiej komisji wyjaśniającej może brać udział także zewnętrzny specjalista czy doradca (np. prawnik). To o tyle istotne, że w przypadku postępowań o szczególnie
poufnym charakterze prowadzenie śledztwa przez adwokata czy radcę prawnego pozwoli objąć ustalenia śledztwa tajemnicą zawodową.
Pracownicy nie muszą korzystać z oferowanych i ustanowionych przez pracodawców kanałów zgłaszania naruszeń. Mogą zgłosić naruszenie prawa organom publicznym. Takimi organami są chociażby Urząd Komunikacji Elektronicznej, Urząd Ochrony Konkurencji i Konsumentów czy Urząd Ochrony Danych Osobowych. Jeśli dana osoba (w dobrej wierze) zawiadomi o swoim podejrzeniu jeden z takich organów, również uzyska status i ochronę sygnalisty. Organy publiczne będą zobowiązane do podjęcia działań następczych, czyli wszczęcia postępowania kontrolnego lub wyjaśniającego. Ustawodawca przewidział też możliwość, że pracownik nie będzie wiedział, do jakiego organu się zgłosić – wówczas może dokonać zgłoszenia Rzecznikowi Praw Obywatelskich. Ten skieruje sprawę do odpowiedniego organu i poinformuje o tym sygnalistę.
Nowe przepisy o sygnalistach będą dotyczyły kilkunastu-kilkudziesięciu tysięcy podmiotów. Sygnaliści torują sobie drogę do świadomości publicznej nie jako donosiciele, ale jako osoby mające na uwadze dobro wspólne i interesy publiczne. Ustanowienie nowej procedury, konsultacje z pracownikami, zapewnienie im ochrony i właściwe reagowanie na zgłoszenia – wszystko to ma budować zaufanie między pracownikami a pracodawcami. Ma też przyczynić się do mniejszej liczby spraw przekazywanych organom publicznym (np. Policji). Wszystkie te cele da się osiągnąć tylko przy właściwej współpracy różnych komórek organizacyjnych i osób funkcyjnych w firmach.
dr Damian Tokarczyk jest adwokatem w kancelarii Raczkowski.
Kontraktowanie rozwiązań AI rodzi ryzyko naruszenia praw autorskich i danych osobowych.
Korzystanie z narzędzi opartych o sztuczną inteligencję generuje podwyższone ryzyko naruszenia praw autorskich, poufności i nieuprawnionego ujawnienia danych – uważają eksperci Baker McKenzie. Ich zdaniem zgodnie z projektowanymi regulacjami to firmy korzystające z rozwiązań AI, a nie ich twórcy czy dostawcy, ponoszą odpowiedzialność za naruszenia praw. W umowach na usługi AI praktyką rynkową staje się zabezpieczenie sytuacji użytkownika poprzez przenoszenie odpowiedzialności za działanie systemów AI z powrotem na dostawcę.
Najważniejszą regulacją, o którą opiera się obecnie umowy, jest unijne rozporządzenie AI Act, które wejdzie w życie w całości za dwa lata. Pomocą dla rynku mogą być wytyczne formułowane przez instytucje publiczne w oparciu o założenia do rozporządzenia. Taki katalog klauzul sugerowanych wydała między innymi Komisja Europejska. Dotyczy on umów zawieranych z dostawcami przez urzędy unijne. Eksperci spodziewają się jednak, że klauzule te staną się inspiracją dla rynku i przenikną również do prywatnych umów.
prawnej z AI wymaga od nich zarówno korekty dotychczasowych praktyk i polityk związanych z ochroną danych osobowych, jak i przewidywania przyszłości i swoich przyszłych zobowiązań prawnych – mówi Marcin Fijałkowski, partner kierujący praktyką IP Tech w kancelarii Baker McKenzie.
Klauzule są bardzo restrykcyjne dla dostawców.
Ryzyko dla przedsiębiorców wiąże się z niezamierzonymi błędami w modelu AI lub w danych używanych do trenowania narzędzia, których efektem będzie nieadekwatny wynik (na przykład dyskryminujący lub sugerujący działania niezgodne z prawem). W obszarze ochrony własności intelektualnej przedmiotem sporu może być zarówno własność treści wytworzonych przy wsparciu AI, jak i danych wejściowych używanych do trenowania modelu. W przypadku udostępnienia systemowi opartemu o AI wrażliwych informacji o klientach pojawia się ryzyko nieuprawnionego wykorzystania lub ujawnienia informacji poufnych, a niekiedy także danych osobowych.
gę na warunki, jakie przyjmują, jeśli umowę oparto właśnie na tych wstępnych propozycjach opublikowanych na stronach internetowych Komisji Europejskiej. Klauzule te bowiem są bardzo restrykcyjne dla dostawców, a w niektórych przypadkach praktycznie niemożliwe do zaakceptowania przez dostawców – przestrzega Jakub Falkowski, Senior Counsel w praktyce IP Tech w Baker McKenzie.
Projekt modelowych klauzul sugeruje całkowite przenoszenie na dostawcę obowiązków opisanych w AI Act. Dostawca zostaje zobowiązany do zapewnienia obszernej dokumentacji, wdrożenia rozbudowanych systemów zarządzania ryzykiem i jakością, wprowadzenia procedur dotyczących: kontroli systemów AI, zarządzania danymi i zgłaszania incydentów. Klauzule modelowe zobowiązują dostawcę do zagwarantowania, że system będzie przetestowany, przejrzysty i umożliwi zrozumienie, które jego elementy odpowiadają za uzyskany wynik. Konieczne ma być pokazanie, jak zmiana danych wejściowych wpływa na wynik i jakie informacje należałoby podać, by uzyskać inny rezultat.
– Przedsiębiorcy nie czekają na ustabilizowanie się sytuacji prawnej wokół narzędzi
AI, ponieważ nie chcą utracić przewagi konkurencyjnej, jaką może dać im nowa technologia. Jednak korzystanie w obecnej sytuacji
– Katalog zaproponowanych modelowych klauzul na kontraktowanie w obszarze AI w instytucjach publicznych stanowi pewien drogowskaz, ale też duże ułatwienie z punktu widzenia przedsiębiorców, którzy nie działają w sektorze publicznym. Jednak dostawcy usług AI powinni zwrócić szczególną uwa-
Ponadto wymagane jest zagwarantowanie, by dane treningowe, walidacyjne i testowe używane do stworzenia systemu były adekwatne i niestronnicze w stosunku do kontekstu, w jakim mają być użyte.
– Tego rodzaju zapisy kontraktowe wyglądają dobrze na papierze, ale często są
Szczególnie wrażliwym obszarem wydają się dane osobowe, gdzie potencjalna odpowiedzialność finansowa może sięgać astronomicznych kwot.
niemożliwe do spełnienia. Przestrzegałbym dostawców systemów AI przed pokusą automatycznego przyjmowania tak daleko idących zapisów i zakładaniem, że kontrahent nie podejmie próby ich egzekwowania w praktyce – podkreśla Marcin Fiałka, Senior Associate w zespole IP Tech w Baker McKenzie. Dodaje przy tym, że dotyczy to w równej mierze wszystkich potencjalnych obszarów odpowiedzialności, w tym za naruszenie ochrony danych osobowych lub za
bezprawne wykorzystanie cudzych informacji poufnych. Szczególnie wrażliwym obszarem wydają się dane osobowe, gdzie potencjalna odpowiedzialność finansowa może sięgać astronomicznych kwot.
Zdaniem specjalistów obecnie mamy do czynienia z transformacją biznesu AI w kierunku dziedziny o wysokim poziomie regulacji, natomiast w kontraktowaniu tych usług najistotniejsze będzie przełożenie odgórnych regulacji na zapisy umowne.
– Najistotniejsza z punktu widzenia przedsiębiorców jest świadomość, że AI będzie jednym z najsilniej regulowanych obszarów biznesu. Pod względem prawnym poziom tych regulacji można porównać tylko do takich obszarów jak regulacje sektora finansowego czy newralgicznych typów produktów, na przykład produktów medycznych – podsumowuje Martyna Czapska, Senior Associate w zespole IP Tech w Baker McKenzie. Opracował Tomasz Gołębiowski
Kapitalizm, w jego pierwotnej formie, jest martwy. Za jego śmierć odpowiadają finansiści i politycy, a wytworem ich nieodpowiedzialnych decyzji jest technofeudalizm, który dzieli ludzkość na garstkę cyfrowych feudałów i rzeszę cyfrowych chłopów pańszczyźnianych.
Tak właśnie, rzecz jasna w dużym skrócie, postrzega współczesną rzeczywistość Janis Warufakis, poświęcając temu swoją najnowszą książkę, zatytułowaną „Technofeudalism: What Killed Capitalism” (Penguin Random House, 2024). Publikacja została uznana przez „Financial Times” za jeden z najważniejszych tegorocznych tytułów. I chyba słusznie, bo autor „Technofeudalism” dotyka ważnego tematu, jakim jest przyszłość rynku pracy i naszych portfeli w erze cyfrowych monopolistów. Nawiasem mówiąc, niezbyt kolorowa przyszłość. Rzecz jasna, trudno spodziewać się innej diagnozy ze strony lewicowego polityka. Z tym, że Janis Warufakis należy do tradycyjnej lewicy socjalnej, a nie obyczajowej. Ta współczesna zastąpiła „walkę klas” – rozumianą jako starania o lepszy los pracowników w świecie kapitalistów – zagadnieniami w rodzaju „walki płci” czy „walki ras”. Dlatego korporacje stoją na szpicy tego ruchu, stawiając się w roli obrońców uciskanych mniejszości. W ten sposób nie muszą się tłumaczyć z polityk cenowych i płacowych, korumpowania urzędników, robienia interesów z krajami niedemokratycznymi, działań monopolistycznych, podbijania cen akcji przez masowe zwolnienia, czy innych bolesnych
i
dla pracowników decyzji obliczonych na dopychanie wyników aktualnego kwartału.
Finansowy raj zbiegł się z erą coraz szybszych komputerów.
Janis Warufakis zdecydowanie odsuwa na bok kwestie obyczajowe jako problemy zastępcze i koncentruje się na tych odczuwanych powszechnie i na co dzień, a więc gospodarczych. Osią jego opowieści jest rok 2008, w którym doszło do kolapsu finansowego na skalę globalną, co było możliwe nie tylko ze względu na chciwość bankierów, maklerów czy inwestorów. Swoje na sumieniu mają też politycy. W latach 90. administracja prezydenta Clintona zachęcała banki do udzielania kredytów hipotecznych osobom, które w normalnych warunkach dostałyby odmowę. W ten sposób prezydent mógł występować jako ten gospodarz Białego Domu, za którego czasów nawet mało zamożni mieszkańcy USA mogli realizować swój „american dream” i cieszyć się własnym (no, prawie własnym, gdzie prawie robi wielką różnicę…) domem. Kolejnym istotnym, według Warufakisa, składnikiem tego społeczno-finansowego „koktajlu Mołotowa” – obok chciwości, polityki i zwykłej głupoty – były komputery. Bez nich nie powstałyby kredyty wysokiego
ryzyka, w ramach których kolejne transakcje zabezpieczały te wcześniejsze, dając ich uczestnikom poczucie, że finansowe perpetuum mobile będzie rosło w nieskończoność. Innymi słowy, to pecety Warufakis obwinia o wzrost stopnia złożoności instrumentów finansowych do absurdalnego poziomu, na którym już nikt nie był w stanie dotrzeć do opinii publicznej z prawdą, że „król jest nagi”. Oddajmy głos autorowi: „Komputery pozwoliły finansistom prowadzić swoje gierki na wyjątkowo skomplikowane sposoby. Zamiast prostej i nudnej opcji zakupu akcji, zwykły Kowalski mógł teraz kupić dużo ciekawsze aktywa, zwane instrumentami pochodnymi. Na przykład mógł kupić pakiet zawierający szereg niezwiązanych ze sobą składników, dajmy na to: udziały w różnych firmach, kredyty zaciągnięte przez właścicieli domów w Kentucky, zobowiązania niemieckich korporacji, długi rządu japońskiego… Jakby tego było mało, pan Kowalski mógł także kupić instrument pochodny, który był niczym innym, jak opcją zakupu pakietu wielu innych pakietów, na podobieństwo wyżej wspomnianych instrumentów pochodnych, których tworzenie umożliwiały zaawansowane komputery. Powstałych w ten sposób instrumentów pochodnych, złożonych z kolejnych instrumentów pochodnych, nie byli już w stanie ogarnąć nawet ci finansowi geniusze, którzy je wymyślili”.
Jak ta potężna i bardzo skomplikowana finansowa piramida się skończyła, już wiemy. Zwykły Kowalski zbiedniał, natomiast na sektor bankowy i duże korporacje spadł deszcz świeżo wydrukowanych przelewów „ratunkowych”. Na co poszły? Warufakis ubolewa, że zamiast na inwestycje w rozwój działalności biznesowej, przeznaczano je na wykup akcji poszczególnych spółek, aby wywindować ich kursy, co z kolei korzystnie wpływało na wysokość bonusów dla zarządów. Z drugiej strony masa dodrukowanego pieniądza została wykorzystana do kupna nieruchomości, klubów piłkarskich, kryptowalut i luksusowych dóbr konsumpcyjnych (samolotów, jachtów, samochodów). To jednak nie wszystko. Po zaledwie kilkunastu latach nastał okres lockdownów i… kolejny dywanowy zrzut „helicopter money” – tym razem w postaci różnego rodzaju „tarcz” dla biznesu. Na co je przeznaczono? Tak, dokładnie na to, o czym myślicie: „na wykup akcji, aby wywindować kursy…” etc.
Co ważne, to właśnie lejący się latami wodospad drukowanych pieniędzy umożliwił powstanie Wielkiej Trójki inwestycyjnej: BlackRocka, Vanguarda i State Street. Wszystkie trzy razem wzięte mają w swoich portfelach prawie 90 proc. akcji spółek notowanych na nowojorskiej giełdzie. Tych współczesnych carów finansjery można
więc policzyć na palcach jednej ręki, i to ręki drwala. Wygranymi numer dwa okazali się dostawcy chmury, platformy zakupowe z Amazonem na czele i właściciele platform social mediowych. W sumie zatem powstało w dość krótkim czasie bardzo wąskie, elitarne grono, które zyskało ogromną przewagę nad klasycznymi przedsiębiorstwami, nawet tymi największymi.
Weźmy platformy social mediowe, na których sukces pracują zgodnie i niezwykle sumiennie miliony dostawców treści i miliardy odbiorców tych treści. Te miliardy to, jak twierdzi Warufakis, darmowa siła robocza, jakiej nie było jeszcze w historii ludzkości. Warufakis zwraca też uwagę, że o ile „wynagrodzenia dla pracowników General Electric, Exxon-Mobil czy General Motors pochłaniają około 80 proc. dochodu, a w przypadku mniejszych firm nawet więcej, to zarobki pracowników gigantów z sektora Big Tech stanowią mniej niż 1 proc. ich obrotów”.
W rezultacie Big Techy nie muszą martwić się kłopotami ze związkami zawodowymi, a dobrze opłacana, wąska grupa specjalistów nie stanowi żadnego zagrożenia dla ich interesów. Tym bardziej, że potęga Wielkiej Trójki i GAFAM sprawia, że trudno tu mówić o walce konkurencyjnej: dużych konkurentów właściwie nie ma lub są bardzo nieliczni, tych mniejszych się wykupuje, a uzależnieni od usług klienci zapłacą „pańszczyznę” w takiej czy innej wysokości, bo nie mają dokąd pójść (spróbujcie zrezygnować z wyszukiwarki Google, Office 365 czy iPhone’a – pyta między wierszami Warufakis).
Diagnoza problemu bez
Z jednej zatem strony miliardy klientów, a z drugiej garstka korporacyjnych beneficjentów – inwestorzy (Wielka Trójka) ramię w ramię z cyfrowymi gigantami spod szyldu GAFAM (Google, Alphabet, Facebook, Apple, Microsoft)… Chyba tylko kolonialne kompanie handlowe w erze wiktoriańskiej dysponowały takimi możliwościami wpływania na świat polityki, finansów i społeczeństwa. Krótko mówiąc, technofeudalizm w pełnej krasie, który pompuje masę pieniędzy w kieszenie nielicznych, przy jednoczesnym popadaniu w coraz większą biedę tzw. klasy pracującej. Bo, do czego wciąż wraca Warufakis, Wielka Trójka i GAFAM nie potrzebują rzeszy pracowników – większość
roboty odwalają algorytmy (nawet w przypadku Apple’a sprzęt to tylko „brama” do cyfrowego ekosystemu aplikacji, podobnie jak coraz bardziej zautomatyzowane magazyny Amazona to przykry skutek uboczny działalności w cyfrowo sterowanym świecie e-commerce).
Chociaż lewicowość Warufakisa, której autor nie ukrywa, może być drażniąca dla tych czytelników, którzy prowadzą własne biznesy i są zwolennikami wolnego rynku, to jednak właśnie oni powinni ze szczególną uwagą przeczytać „Technofeudalism”, który stanowi ostrzeżenie dla „zwykłych” przedsiębiorców, że dobrodziejstwa kapitalizmu – z jakim mieliśmy do czynienia przez minione dekady – właśnie odchodzą w niebyt, a nowy system wyjątkowo mocno premiuje garstkę wybrańców, uzależniając od nich całą resztę na skalę porównywalną z czasami średniowiecznego feudalizmu. Co przy tym wyjątkowo ciekawe, proponowane przez Warufakisa sposoby na odwrócenie obecnych trendów nie spodobają się – przynajmniej w mojej ocenie – żadnemu biznesmenowi – nie tylko dużemu, ale też średniemu i małemu. Mogę się oczywiście mylić, niech czytelnicy „Technofeudalism: What Killed Capitalism” sami to ocenią. Do czego szczerze zachęcam, bo kiedy się żyje w ciekawych czasach, trzeba szczególnie uważnie obserwować otoczenie i analizować sytuację. A słowo drukowane nadaje się do tego coraz lepiej, stojąc w kontrze do cyfrowej kakofonii, jakiej nie szczędzą nam „technofeudałowie”.
Tomasz Gołębiowski
Autor jest redaktorem naczelnym miesięcznika CRN Polska.
Istotne trendy produktowe, technologiczne, biznesowe, w oparciu o dane pochodzące z renomowanych agencji analitycznych, organizacji branżowych i globalnych mediów, dotyczące głównie Europy i Polski.
Jedna trzecia przedsiębiorstw w kraju deklaruje, że w ciągu najbliższego roku zamierza zwiększyć wydatki na cele związane z transformacją cyfrową, w tym 11 proc. planuje podnieść je w dużym stopniu – wynika z analiz KPMG. W porównaniu do 2023 r. odsetek firm, które chcą przyspieszyć inwestycje w cyfryzację, wzrósł aż o 19 p.p. Co ważne, jedynie 3 proc. respondentów zapowiada, że zmniejszy środki przeznaczone na digitalizację, podczas gdy w ub.r. twierdziło tak 8 proc. Dane wskazują więc, że po okresie przykręcenia kurka z pieniędzmi, z powodu niepewności ekonomicznej i rosnących kosztów, przedsiębiorcy znów śmielej planują wydatki. Lepiej niż w zeszłym roku wyglądają także plany firm związane z zatrudnianiem pracowników w celu realizacji transformacji cyfrowej – 18 proc. organizacji chce zwiększyć liczbę etatów związanych z tym celem, podczas gdy rok temu taki zamiar miało tylko 7 proc.
Plany firm związane z wydatkami na rzecz transformacji cyfrowej w ciągu następnych 12 miesięcy
Zwiększenie wydatków
Wartości na wykresie mogą nie sumować się do 100%, ponieważ pewien odsetek stanowią odpowiedzi „brak wiedzy / trudno powiedzieć”.
Przyszłoroczne wydatki użytkowników końcowych na bezpieczeństwo informacji wzrosną o 15,1 proc., do poziomu 211,6 mld dol. – przewiduje Gartner. Według analityków wielu użytkowników analizuje obecnie swoje potrzeby w zakresie platform ochrony punktów końcowych (EPP) oraz wykrywania i reagowania w punktach końcowych (EDR). Wprowadzają też zmiany w celu zwiększenia odporności operacyjnej i reagowania na incydenty po awarii CrowdStrike’a. Towarzyszący temu rozwój AI zwiększa inwestycje w bezpieczeństwo aplikacji, danych, ochronę prywatności i infrastruktury. Generatywna sztuczna inteligencja ma spowodować duży
wzrost zasobów wymaganych do jej zabezpieczenia, co doprowadzi do oczekiwanego 15-procentowego wzrostu wydatków na oprogramowanie zabezpieczające. Gartner przewiduje, że do 2027 r. 17 proc. wszystkich cyberataków i wycieków danych będzie dotyczyło generatywnej AI.
W miarę jak organizacje przenoszą się do chmury, udział w rynku rozwiązań natywnych dla niej będzie się zwiększał. Szacuje się, że połączony rynek brokerów zabezpieczeń dostępu do chmury (CASB) i platform ochrony obciążeń w chmurze (CWPP) osiągnie 8,7 mld dol. w 2025 r., w porównaniu z 6,7 mld dol. w 2024 r.
Bezpieczeństwo sieci19,9856,221,9129,624,78713,1 W sumie162,11512,7183,87113,4211,55215,1
W ciągu najbliższych pięciu lat globalne przychody ze sprzedaży profesjonalnych rozwiązań AV mają wzrosnąć o 98 mld dol., do kwoty 422 mld dol. – prognozuje Avixa. Średni roczny wzrost (CAGR) w omawianym okresie ma wynieść 5,35 proc. Analitycy zwracają uwagę, że obecnie technologie przeznaczone do konferencji i współpracy ustępują pod względem popytu segmentowi rozrywki. Dlatego dostawcy skupieni na firmowych rozwiązaniach mogą nie radzić sobie tak dobrze, jak te, które oferują rozwiązania „rozrywkowe”.
W regionie EMEA najszybciej rozwijającymi się sektorami Pro AV są wydarzenia na żywo, występy i rozrywka oraz bezpieczeństwo. Avixa przewiduje, że od 2024 do 2029 r. globalne przychody rozwiązań dla obiektów i wydarzeń sięgną poziomu 57,2 mld dol., rosnąc w średnim tempie 6,3 proc. co roku, co uczyni „rozrywkę” najszybciej rozwijającym się rynkiem profesjonalnego AV. W przypadku korporacyjnych rozwiązań AV tempo wzrostu nie przekroczy 5 proc. rocznie w latach 2024 – 2029. Przychody z instalacji w przestrzeniach korporacyjnych mają sięgnąć w 2029 r. aż 91,4 mld dol. Wzrost w tym przypadku ma być napędzany przez inwestycje w nowe budynki, większe możliwości w zakresie konferencji i współpracy oraz wymagania w zakresie bezpieczeństwa.
Prognoza
Aż 88 proc. amerykańskich firm przekroczyło w tym roku 5-procentowy próg wydatków na inwestycje w sztuczną inteligencję, podczas gdy 3 lata temu dotyczyło to mniej niż połowy firm – podają analitycy EY. W sumie 76 proc. przedsiębiorców, którzy przeznaczyli na sztuczną inteligencję ponad 5 proc. budżetu inwestycyjnego, zauważyło związane z tym zwiększenie produktywności pracowników. Duży odsetek firm informuje też o korzyściach związanych ze zwiększeniem cyberbezpieczeństwa i przewagi konkurencyjnej (odpowiednio: 73 proc. i 47 proc.).
W sumie już 95 proc. ankietowanych podmiotów inwestuje w rozwiązania AI. Ponad połowa (56 proc.) kładzie przy tym największy nacisk na opracowywanie własnych narzędzi, co ma na celu podnoszenie wewnętrznych kompetencji i zdolności operacyjnych. Aż 78 proc. badanych mówi natomiast o trudności w znalezieniu pracowników z umiejętnościami w zakresie AI, dopasowanymi do potrzeb danej organizacji.
Nie dziwi więc, że dla 83 proc. liderów rekrutacja ludzi z tymi kompetencjami to priorytet.
Odsetek firm deklarujących poprawę w różnych obszarach ich biznesu, dzięki zastosowaniu narzędzi AI
Firmy wydające więcej niż 5% budżetu na narzędzia AI
Firmy wydające mniej niż 5% budżetu na narzędzia AI
Produktywność pracowników76 %62% Cyberbezpieczeństwo74%58% Tworzenie przewagi konkurencyjnej73%47% Innowacyjność produkcyjna71%55%
Ubiegłoroczne przychody dostawców stacjonarnego dostępu do internetu wyniosły 5,9 mld zł – wynika z raportu Urzędu Komunikacji Elektronicznej. Co ciekawe, to był kolejny rok z rzędu, w którym wzrost obrotów wyniósł około 0,5 mld zł. Przy czym średni miesięczny przychód na jednego użytkownika wyniósł 51,60 zł, tj. zwiększył się o 4,7 proc. rok do roku. Największy udział w przychodach miały łącza światłowodowe (blisko 49 proc.). To jedyna forma dostępu do sieci, która odnotowała wzrost zainteresowania ze strony klientów (o 10 p.p. wobec 2022 r.,) podczas gdy w przypadku pozostałych technologii nastąpił spadek popytu.
Wraz z rosnącą wartością „tortu” do podziału, coraz więcej pieniędzy trafia na konta dużych graczy. Ubiegłorocznym liderem pod względem obrotów, jak i liczby użytkowników, był Orange, za którym uplasował się Play, dzięki przejęciu UPC. Trzej najwięksi dostawcy zajmują w sumie 43 proc. rynku. Z kolei biorąc pod uwagę liczbę użytkowników, udział drobnych ISV, tj. takich, którzy mają jednostkowo mniej niż 1 proc. krajowego rynku, w 2023 r. stopniał do 35,5 proc. z 51,2 proc. w 2022 r.
Źródło: UKE, „Raport o stanie rynku telekomunikacyjnego w 2023 roku”.
„W ramach projektu e-Zdrowie będziemy rozwijać analitykę klasy business intelligence i uruchomimy centrum teleradiologii. Powstanie też SOC dla placówek medycznych” - mówi Marcin Pawlak, dyrektor Departamentu Cyfryzacji, Geodezji i Kartografii Urzędu Marszałkowskiego Województwa Mazowieckiego.
Skąd połączenie cyfryzacji z geodezją i kartografią?
Marcin Pawlak Zalążkiem tego działu było Biuro Geodezji. Zaczęło się od cyfryzacji zasobów geodezyjnych. Powstał portal Wrota Mazowsza, na którym są do dzisiaj prezentowane zasoby mapowe. Potem cyfryzacja objęła inne obszary działalności i pojawiły się nowe dziedziny usług cyfrowych. Geodezja oczywiście została, ale nie stanowi już głównego trzonu działalności departamentu. W tej chwili na 11 wydziałów w naszym departamencie tylko jeden dotyczy geodezji.
Czym wobec tego zajmuje się obecnie kierowany przez Pana departament?
Zajmujemy się przede wszystkim koordynacją realizacji projektów wojewódzkich z zakresu transformacji cyfrowej finansowanych w ramach funduszy unijnych. Kiedyś odbywało się to w ramach Regionalnego Programu Operacyjnego (RPO), teraz w ramach programu Fundusze Europejskie dla Mazowsza. Przy czym przygotowujemy projekty dla całego Mazowsza, a objęte są nimi wojewódzkie szpitale, biblioteki, instytucje kultury i urzędy.
Czy zajmujecie się też obsługą informatyczną urzędu?
Nie, od tego jest Informatyk Urzędu – osobny dział IT. Pracujący tam informatycy obsługują systemy informatyczne, utrzymują stacje robocze, administrują siecią i prowadzą portal urzędu marszałkowskiego. W naszej gestii leży natomiast prowadzenie portalu Wrota Mazowsza oraz utrzymanie e-usług.
Jakiego rodzaju projekty z zakresu cyfryzacji realizujecie?
Efektem naszej pracy są cztery duże projekty: e-Zdrowie, e-Kultura, e-Biblioteki i Aktywizacja Społeczeństwa Informacyjnego. Organizujemy też konkurs „Mazowiecki Lider Cyfryzacji”, w którym nagradzane są szkoły i placówki kulturalne wyróżniające się w zakresie transformacji cyfrowej.
Czy efektem projektów z obszaru kultury i bibliotek jest udostępnienie zdigitalizowanych zbiorów w internecie? Projekt e-Kultura dotyczył digitalizacji zbiorów mazowieckich muzeów, a dokładnie tych, dla których Marszałek Województwa jest organem założycielskim. Posiadane przez nie eksponaty można oglądać przez gogle 3D, bądź w przeglądarce internetowej. Jest to przygotowane w formie wirtualnych spacerów czy przewodników po ekspozycjach. Natomiast projektem e-Biblioteki zostały objęte biblioteki pedagogiczne z województwa mazowieckiego. Powstał portal, który umożliwia zdalny dostęp do ich usług.
A jakie rozwiązania powstały w ramach projektu e-Zdrowie?
Zostało uruchomione centrum przetwarzania danych oraz archiwum długoterminowe, w którym przechowywana jest dokumentacja elektroniczna mazowieckich placówek zdrowotnych. Medyczne zasoby archiwalne
obejmują olbrzymie wolumeny danych. Do ich obsługi został stworzony specjalny system działający w zbudowanym do tego celu data center, które mieści się w dwóch lokalizacjach. Projektem jest objętych 21 mazowieckich placówek służby zdrowia, które mają u siebie końcówki systemu. Wszystko znajduje się w wydzielonej sieci WLAN i nie jest dostępne w internecie.
Po jakich łączach odbywa się komunikacja?
Zostały położone łącza światłowodowe, które komunikują partnerów projektu z centrum przetwarzania danych. Powstała w wyniku tego sieć światłowodowa, która jest własnością województwa, a zarządza nią nasz departament. Nie robimy tego własnymi siłami, lecz w formule body leasing. Natomiast w naszym departamencie jest zespół informatyków, którzy zajmują się utrzymaniem data center. Są duże problemy z pozyskaniem do pracy informatyków wysokiej klasy, dlatego w dużej części sięgamy po specjalistów z zewnątrz. Naszą rolą jest głównie koordynacja realizacji projektów i funkcjonowania stworzonych w ich ramach rozwiązań.
W jakim zakresie przy wdrażaniu systemów korzystacie z gotowych, dostępnych na rynku produktów?
Wszystkie rozwiązania informatyczne są dostosowywane do potrzeb projektu. Rzadko kupujemy gotowe rozwiązania, a jeśli tak się zdarza, to i tak następuje potem ich dostosowanie. Nie kupujemy jednak całych, gotowych instalacji, jeśli już to poszczególne produkty, jak na przykład baza danych.
Jakie kolejne projekty będziecie realizować w przyszłości?
W ramach trzeciego etapu e-Zdrowia będziemy rozwijać analitykę klasy business intel-
MARCIN PAWLAK
– dyrektor Departamentu Cyfryzacji, Geodezji i Kartografii Urzędu Marszałkowskiego Województwa Mazowieckiego
ligence. Będą też uruchamiane inne usługi, na przykład centrum teleradiologii, które będzie zajmować się opisywaniem wyników badań radiologicznych na potrzeby placówek uczestniczących w projekcie. Prawdopodobnie będziemy używać w tym celu rozwiązań bazujących na sztucznej inteligencji. Warto podkreślić, że bardzo ważną rolę w tym projekcie będzie miało cyberbezpieczeństwo.
Jakie są planowane działania w tym zakresie?
Będziemy tworzyć centrum typu SOC dla mazowieckiej służby zdrowia, żeby stale monitorować ruch wychodzący i przychodzący do placówek opieki zdrowotnej, które są w szczególny sposób narażone na cyberzagrożenia i ataki. Mamy przy tym zamiar zainstalować rozwiązania klasy EDR/XDR na wszystkich urządzeniach w ośrodkach medycznych. Dane będą spływały do systemu SIEM, gdzie będzie się odbywała ich analiza. Jej wyniki będą przekazywane z kolei do pierwszej linii wsparcia, gdzie będzie podejmowana decyzja, co z danym zdarzeniem należy dalej zrobić.
Czy SOC będziecie obsługiwać własnymi siłami?
Nie, obsługa SOC-u będzie się odbywała w ramach outsourcingu. Chcemy zbudować takie centrum w ciągu najbliższych 2–3 lat.
Kwestie cyberbezpieczeństwa w opiece zdrowotnej zyskają na znaczeniu również za sprawą NIS 2… NIS 2 stanowi dla nas duże wyzwanie nie tylko w kontekście zapewnienia systemu cyberbezpieczeństwa w placówkach zdrowotnych, ale też na styku naszych kontaktów z rynkiem w ramach łańcucha dostaw. Będziemy musieli nałożyć na naszych dostawców z branży ICT specjalne wymagania. W urzędzie stosu-
Absolwent Wyższej Szkoły Zarządzania i Prawa w Warszawie oraz studiów podyplomowych w Szkole Głównej Handlowej i na Uniwersytecie Warszawskim. Specjalista w zakresie projektów realizowanych z funduszy europejskich oraz badań ewaluacyjnych. Kierownik projektów z zakresu informatyzacji szkół oraz usług publicznych.
jemy ISO 27 001 w zakresie bezpieczeństwa informacji. Takie same standardy będą obowiązywały naszych dostawców.
Czy powstanie centrum teleradiologii będzie oznaczało, że w szpitalach czy przychodniach nie będzie już lekarzy opisujących wyniki badań?
Lekarze nie przestaną pracować, ale będą mieli zapewniony zdalny dostęp do lepszych, wydajniejszych technologii. Badań radiologicznych przybywa, stają się one już dzisiaj w zasadzie standardem, a liczba lekarzy radiologów nie rośnie. Wejdzie więc technologia, która ich wspomoże. Już dzisiaj na przykład w opisie zdjęcia głowy stosowane są rozwiązania bazujące na uczeniu maszynowym. Prawo nie pozwala, żeby interpretacji dokonywała maszyna, musi to zrobić lekarz, ale może się wesprzeć technologią.
Czy będą też kolejne edycje e-Kultury i e-Bibliotek?
Tak, na pewno będzie kolejna edycja e-Kultury, która cieszy się dużym zainteresowaniem ze strony placówek kulturalnych i mieszkańców. Będzie to „Kultura w chmurach”, bo chcemy bazować na rozwiązaniach cloud computing. Będziemy kontynuować digitalizację zbiorów muzealnych, ale tym razem chcielibyśmy, aby swój wirtualny odpowiednik w formacie 3D otrzymał każdy eksponat, żeby można go było obejrzeć z każdej strony. Tym programem zostanie objętych około 30 ośrodków kultury. Teraz e-Kultura działa w oparciu o data center Urzędu Marszałkowskiego, a w przyszłości będą wykorzystywane rozwiązania chmurowe lub hybrydowe.
Co przemawia za usługami chmurowymi?
Jest wiele czynników – od kosztów energii poczynając, przez opłaty za wynajem po-
wierzchni na kolokację, po problemy z zatrudnieniem kadry odpowiedzialnej za nadzór i utrzymanie infrastruktury.
Czy przewidujecie jakieś projekty dla urzędów lub jednostek wojewódzkiej administracji samorządowej? Mamy w planach projekt rozwoju cyfrowej administracji. W jego ramach chcemy wdrożyć w wojewódzkich jednostkach samorządowych system ERP, system elektronicznego zarządzania dokumentami, być może również system CRM. Każda jednostka działa inaczej, więc trzeba będzie zacząć – szczególnie w przypadku ERP i EZD – od uporządkowania procesów i dopiero potem można będzie robić wdrożenie. Nie będziemy kupować ani infrastruktury, ani osobnych systemów dla każdej jednostki. Wszystkie systemy będą funkcjonować w formule SaaS.
Portal mapowy również ulegnie zmianom?
Sukcesywnie dodawane są kolejne warstwy danych. Będzie też przygotowana aplikacja mobilna do korzystania z zasobów mapowych. Chcemy, żeby była dostępna w sklepach Play i AppStore. Z tematyką mapową jest też częściowo związany projekt Smart Village, który będzie dalej rozwijany. W jego ramach rolnicy mają możliwość bezpłatnego przebadania gleby na swoim polu. Wyniki trafiają do właściciela pola, ale jednocześnie są przekazywane do systemu informatycznego, by mogli też korzystać z nich inni. W tej chwili działa jedno mobilne centrum badania i analizy gleby w Ostrołęce. Chcemy stworzyć kolejne jeszcze w pięciu subregionach województwa. Przy czym ten projekt nie mógłby być realizowany bez udziału geodetów.
Rozmawiał Andrzej Gontarz
Leszek Ślazyk, redaktor naczelny portalu Chiny24.com, zwraca uwagę, że podczas gdy „Unia Europejska nakłada cła >>zaporowe<< na chińskie auta elektryczne, Volkswagen poprzez swoją spółkę Volkswagen China Technology Company inwestuje 1 miliard euro w centrum badawczo-rozwojowe z torem testowym w HeFei (takie miasto w Chinach). VW buduje centrum R&D w HeFei, by rozwijać własne platformy dla samochodów elektrycznych, opracowywać kompletne pojazdy, a także części i podzespoły. Będą tu także prowadzone prace rozwojowe nad inteligentnymi autami autonomicznymi. Dlaczego VW buduje swój ośrodek R&D w Chinach? Dlatego, że to tam obecnie funkcjonuje najbardziej konkurencyjny na świecie rynek producentów samochodów. Tu się już nie kopiuje, tu się już wymyśla nowe. Można podpatrywać, można się inspirować. Tu też jest wszystko, co potrzebne, by nowoczesne auta konstruować i produkować”. Krótko mówiąc: cyrk na kółkach…
Adam Ziaja, Incident Responder w Redteam.pl, obserwuje od jakiegoś czasu coraz bardziej narastający problem w branży usług cyberbezpieczeństwa polegający na nagłym wysypie ogromnej ilości „ekspertów”. Przy czym jego zdaniem „niejednokrotnie nie jest to spowodowane złą wolą, ale po prostu brakiem elementarnej wiedzy w zrozumieniu poruszanego zagadnienia. Przykładowo, publikowane są informacje o znalezionych podatnościach, które to podatności w rzeczywistości nie istnieją. Niemniej jednak niestety dochodzi tutaj do zjawiska tzw. social proof, gdzie owe >>osiągnięcia<< są lajkowane przez szersze grono osób, co niejako potwierdza ich prawdziwość i rangę opublikowanych informacji. Klient nie musi się znać i w ten sposób zakłada, iż ma do czynienia z ekspertami, u których następnie zamawia usługi. Takich przypadków jest coraz więcej i będzie tylko gorzej, co ma bezpośrednie przełożenie na poziom usług cyberbezpieczeństwa, a co za tym z kolei idzie, na bezpieczeństwo polskich podmiotów”. Co gorsza, „eksperci” mnożą się w kolejnych branżach, także kluczowych, jak medycyna, gospodarka, mieszkaniówka etc. Czujnym trzeba być!
Marcin Babiak, właściciel Kordo Edukacja, podpowiada osobom, które po latach prowadzenia własnej firmy chcą powrócić do „normalnej pracy” na etacie: „1. Przygotuj się na dziesiątki pytań i rozmów >>ale dlaczego to zrobiłeś<<? Wiele osób na etacie uważa, że prowadzenie własnej firmy to sielanka. Wielu marzy o założeniu własnej firmy, ale omdlewa na myśl, że mogliby to zrobić. Ruch w drugą stronę fascynuje i rodzi pytania. Dobry trik PR-owy: przygotuj sobie jedną pozytywną narrację. 2. Nie ma >>normalnej pracy<<. Praca to praca – każdą powinieneś wykonywać najlepiej, jak potrafisz. 3. Prowadzenie własnego biznesu oznaczało, że miałeś ostateczny głos we wszystkich decyzjach. Teraz będziesz musiał zacząć bawić się w politykę, aby wpłynąć na działanie innych. W pracy na etacie zawsze będą inni, którzy będą mieli wpływ na decyzje. Czasem dobry wpływ, a czasem… A czasem będziesz myślał >>jakim cudem on tu dostał pracę?<<. 4. Ludzie będą się doszukiwać w tobie braku pokory. W końcu przez lata byłeś szefem. Wszelkie problemy z subordynacją będą (niestety) oceniane jako zarozumiałość i brak umiejętności współpracy. I załóż, że trochę w tym prawdy. 5. Już na rozmowie kwalifikacyjnej wielu będzie się zastanawiać, na ile chcesz naprawdę wrócić na etat, a na ile tylko >>gdzieś zaczepić<< z powodów finansowych. Otwarte wyjaśnienie powodów zakończenia biznesu i motywacji do pracy będzie fundamentem dalszej współpracy”.
„Eksperci” mnożą się w kolejnych branżach...
Rafał Brzoska, CEO InPostu, zapowiada dalszy rozwój polskiej usługi na rynkach zachodnich: „W ubiegłym tygodniu mówiliśmy o sukcesie na rynku brytyjskim, tymczasem we Włoszech również nie zwalniamy tempa! Zainstalowaliśmy właśnie Paczkomat nr 2000 i obecnie mamy 7000 punktów odbioru i nadania InPost w słonecznej Italii! Z końcem marca sieć InPost we Włoszech zwiększyła liczbę aktywnych punktów o 40 proc. rok do roku! InPost jest już obecny w 1882 miejscowościach we Włoszech – we wszystkich regionach kraju! A co więcej, już ponad 5,5 miliona Włochów mieszkających w Rzymie, Mediolanie, Neapolu, Turynie, Palermo, Genui, Bolonii, Florencji, Bari i Katanii ma średnio tylko 5 minut spaceru do najbliższego punktu InPost. Dziękuję wszystkim, którzy wspierają ten rozwój! Razem tworzymy przyszłość dostaw!”.
Dawid Paczka, CEO Emiteo, odniósł się do decyzji UOKiK-u, dotyczącej nałożenia kary na Janusza Palikota (950 tys. zł) oraz na zarządzane przez niego Polskie Destylarnie (239 tys. zł). „Mam nadzieję, że to pierwsza z wielu kar, które otrzyma ten człowiek i jego spółki. Uważam jednak, że to i tak nic nie zmieni, dopóki nie zmieni się logika karania tego typu występków. Oczywiście głównym winowajcą jest tutaj frontman, w tym wypadku >>Płonący Kot<<. Niemniej jednak jego wspólnikami w zbrodni byli wszyscy >>sales reps<<, którzy niczym naganiacze chodzili po rynku (przy okazji wszystkich jego skarbców, beczek, pożyczek, obligacji i innych) i na jego zlecenie >>nadziewali na hak<< nieświadomych cywili w zamian za prowizję od dostarczonego inwestora. Taka to tajemnica Poliszynela – niby wszyscy o tym wiedzą, ale nikt tego nie artykułuje w przekazie publicznym. >>Płonącemu Kotowi<< i promowanemu przez niego podmiotowi postawiono następujące zarzuty: nieprawdziwe informacje o pozycji rynkowej i osiągnięciach, nieistniejący crowdfunding pożyczkowy, pieniądze od konsumentów wydawane na pokrycie długów, nieinformowanie o ryzykach oraz eksponowanie wyłącznie korzyści z inwestycji, fikcyjny konkurs. Wycieczki do Nowego Jorku, Paryża, Marrakeszu oraz pobyt w posiadłości Janusza Palikota i luksusowy samochód Rolls-Royce Ghost – taka pula nagród czekała na osoby, które pożyczą pieniądze Polskim Destylarniom i zgłoszą nowe nazwy dla produktów alkoholowych spółki. Była to główna treść materiałów reklamowych. Tymczasem zwycięzcy konkursu nie zostali wyłonieni, a żadna z nagród nie została przyznana”. To się nazywa kac-gigant...
Jakub Skałbania, założyciel Netwise, zadaje pytanie: kto robił system IT dla urzędów skarbowych? „Podatki zapłacone na czas przed 30.04, tytuł „PIT-xyz za 2023 R”. A na koncie egzekucja za ten PIT z odsetkami. Po sześciu telefonach i przekierowaniach mam odpowiedź: >>Może i podatek jest zapłacony, ale nasz system nie czyta tytułów przelewów, a przelewy w kwietniu księguje na marzec. Ma pan nadpłatę w marcu i brak zapłaty podatku należnego za 2023<<. To jest k… możliwe?! Indywidualne konta, przelew z właściwym tytułem, a US nie umie sobie zmatchować go do złożonego PIT-u? Żeby było ciekawiej, mam też egzekucję na koncie z odsetkami od… zapłaconego podatku i to bez żadnego upomnienia, bo >>to może wina poczty, ja się tym nie zajmuję<<. Burdel to mało powiedziane. Co mnie, obywatela, obchodzi, że >>nasz system tak działa i nie czytamy tytułów<<. No przecież po coś mam indywidualne konto podatkowe i po coś zaznaczam za jaki PIT to przelew?! EDIT po 7 telefonie i rozmowie z działem egzekucji: >>No co ta księgowość za przeproszeniem bzdury gada? Ma pan prawidłowo zrobiony przelew i prawidłowo opisany, co oni przeksięgować go nie umieją? Niech pan dzwoni do kierownika. Ja niestety nie cofnę egzekucji, bo dostałam tytuł egzekucyjny. Ale teraz już widzę i na pan rację – niech pan dzwoni do nich i im powtórzy moje słowa, ja nie będę chodzić po pokojach<<. Przyjazne państwo”. Ręce opadają.
Wacław Iszkowski
Autor w latach 1993–2016 był prezesem Polskiej Izby Informatyki i Telekomunikacji. Pracował też w firmach: Oracle, DEC Polska, 2SI, EDS Poland, TP Internet. Obecnie jest senior konsultantem przemysłu teleinformatycznego.
Zabiegani i zarobieni codziennymi obowiązkami nie mamy czasu na studiowanie – napisanych fontem 6 – regulaminów instytucji finansowych. Nie przyglądamy się też dokładnie zapisom na naszych kontach, mając nadzieję, że wrodzona spostrzegawczość wychwyci operacje odbiegające od normy. Ostatnio jednak postanowiłem przyjrzeć się swoim rachunkom i – no właśnie – zacząłem dostrzegać dziwne rzeczy.
PMoje dane osobowe są warte 8 zł miesięcznie - taniocha.
ierwszą potyczką z moim bankiem było uzyskanie aktualnego regulaminu i cennika dla konta, które założyłem wiele lat temu (obecnie nie ma go już ofercie). Z dużym trudem, z pomocą infolinii, prawie mi się to udało, ale prawie to jest dużo za mało, bo też niektóre z usług mają już nowe regulaminy i cenniki. Można przenieść to stare konto na nowe, ale banki, oferując nowe rodzaje kont, podają tylko podstawowe informacje na ich temat. O procedurze logowania się i funkcjonalności strony do zdalnej obsługi konta można dowiedzieć się dopiero po jego założeniu, a wtedy już trudno z niego zrezygnować.
kiedy najczęściej korzysta z dostępu do konta, jakiej i z jakimi parametrami używa przeglądarki, przy czym z opisu programu można wnioskować, że ten sprzęt cyfrowy o danym IP jest obserwowany cały czas, nawet poza okresem dostępu do tego konta.
W pierwszym przykładzie bank miał dotychczas standardowy system logowania: identyfikator klienta i hasło oraz potwierdzenie kodem ze zdrapki lub esemesem. Pod hasłem wzmocnienia bezpieczeństwa klienta postanowiono zmodyfikować procedurę logowania poprzez notyfikowanie urządzenia (komputera lub smartfonu) oraz analizę behawioralną jego użytkowania przez użytkownika. Żeby to było możliwe, trzeba wyrazić zgodę na udostępnienie swojego IP bankowi oraz dwóm firmom: MasterCard i BIK. Z opisu tego rozwiązania, podanego przez bank, wynika, że MasterCard dysponuje programem NuDetect do analizowania cech urządzeń oraz sposobu korzystania z nich przez użytkowników. Na tej podstawie program notyfikuje dane urządzenie jako zaufane. W tej analizie bierze się pod uwagę aktywność użytkownika, czyli
Niestety, opis funkcjonalności i zasady tworzenia profilu użytkownika nie są nigdzie opisane. Za to MasterCard gwarantuje ochronę danych zbieranych i przetwarzanych przez program zgodnie z RODO, ale może też je przesyłać do swojej centrali w USA, gdzie już nie obowiązują europejskie zasady ich ochrony. Dane mogą być też przekazane odpowiednim służbom, gdy zachodzi podejrzenie naruszenia prawa.
Niewiele więcej wiadomo o udziale BIK-u w weryfikacji tożsamości klienta, a dopiero po przejrzeniu internetu dowiadujemy się o Platformach Biometrii Behawioralnej oraz Antyfraudowej, opracowanej przez spółkę Digital Fingerprints, należącej do Grupy BIK. I chociaż jest to rozwiązanie oferowane od kilku lat, to również oprócz ogólnych opisów nie wiemy jak też to profilowanie klienta dokładnie przebiega. Jedynie dowiadujemy się, że złamanie ręki może spowodować takie zmiany w użytkowaniu urządzenia, że nasz „złamany profil” nie zostanie zaakceptowany, a my będziemy musieli potwierdzić siebie tradycyjnie kodem ze zdrapki lub esemesem. Tutaj dodałbym, że nie tylko ręka może być problemem, bo katar i kichnięcie też, ewentualnie gdy nasz komputer jest uży-
wany czasami przez inną osobę lub jest kilka urządzeń podłączonych do tej samej lokalnej sieci domowej i wszystkie mają to samo IP.
Niestety, nie mogłem się też dowiedzieć dlaczego bank korzysta z dwóch zewnętrznie podobnych świadczonych usług, a jedynie mogę się domyślać, że są one dostępne w formie SaaS. W tym przypadku bank musi w umowie zagwarantować odpowiednią ochronę profili i danych osobowych swoich klientów. A klienci, wyrażając zgodę na udostępnienie IP swojego urządzenia cyfrowego, muszą zaufać bankowi, że ta dbałość o ich bezpieczeństwo w dostępie do ich kont nie spowoduje otwarcia dostępu hakerów do ich urządzeń. Ja nie wyraziłem zgody na to ułatwienie bezpiecznego logowania. Dobrze, że jeszcze jest dostępne logowanie tradycyjne – tylko jak długo?
W innym banku jest dokonywana analiza moich wydatków z kart. Na stronie pojawia się wykres obrazujący ileż to wydałem w minionym miesiącu na odzież, żywność, transport, paliwo, itp. Nie ma natomiast żadnego wyjaśnienia na podstawie jakich danych są kwalifikowane poszczególne pozycje. Wydaje się, że na podstawie identyfikatora akceptanta, bo tylko taką daną może uzyskać bank przy rozliczeniu każdej transakcji. Nieco mnie dziwi, że z takim identyfikatorem akceptanta jest powiązana informacja o rodzaju prowadzonej działalności, przy czym chyba tylko w Polsce. Kupno biletów lotniczych bezpośrednio w zagranicznej linii zostało zakwalifikowane jako kupno odzieży. Ważniejsze jest jednak pytanie, na jakiej podstawie bank dokonuje takiej analizy i umieszcza ją na stronie mojego konta, a tę również mogą obejrzeć pracownicy banku.
Ponadto pojawia się pytanie, kto jeszcze otrzymuje lub może otrzymać do wglądu tę analizę – urząd skarbowy, służby, marketingowcy z banku? A przy tym ja nie wyraziłem na to zgody, a bank twierdzi, że mogę wydać dyspozycję wstrzymania dokonywania takiej analizy, ale osobiście w oddziale. Niestety, nawet w oddziale nie potrafili tego zrobić, bo ich system nie ma takiej opcji.
W trzecim przykładzie, chcąc założyć nową kartę debetową, przeczytałem
w regulaminie, że na opłatę miesięczną w kwocie 8 zł można uzyskać 100 proc. rabatu, pod warunkiem, że dokona się w danym miesiącu co najmniej czterech transakcji i – uwaga – udzieli się nieodwołalnej zgody na marketing telefoniczny i mejlowy dla banku oraz innych podmiotów należących do jego grupy kapitałowej. Bagatela – aż kilkunastu: leasingowych, hipotecznych, ubezpieczeń, usług opieki zdrowotnej… Inaczej mówiąc, zostaję narażony na kilkanaście mejli i telefonów z ofertami i czyni to grupa bankowa, gdy równocześnie wszystkie banki ostrzegają przed rozmowami z osobami podającymi się za pracowników banku – wtedy należy przerwać rozmowę i zadzwonić do banku po potwierdzenie, że taka osoba tamże pracuje (no właśnie, dodzwonić się do banku). Jakie to proste… A moje dane osobowe są warte 8 zł miesięcznie – taniocha.
I na koniec niby drobiazg. Na każdej karcie kredytowej i debetowej na odwrocie są wypisanie istotne informacje, w tym numer telefonu do centrum obsługi klienta. Na kartach mojego banku tekst ten jest wydrukowany najmniejszym fontem, białym kolorem na srebrnym tle, a numer telefonu na wklęsłościach. Jednym słowem jest nieczytelny nawet dla osób z orlim wzrokiem. Czemu ja muszę o tym informować bank? Czy nie ma tam kogoś kto powinien to dostrzec i zareagować?
Zapewne dla wielu z was takie przypadki są tylko drobnym kłopotem, który należy jakoś ominąć lub szybko rozwiązać i dalej przestać sobie zawracać nim głowę. Nie ma też sensu przekazywać swoich uwag do banku, bo i tak niewiele sobie z nich zrobią, uważając, że ich system jest „good enough”, a poprawki kosztują. Badanie zadowolenia klienta uzyskują poprzez firmy odpytujące klientów telefonicznie lub zdalnie według kilku pytań o odpowiedziach o wadze od 0 do 10, ze standardowym ostatnim pytaniem: czy poleciłbyś ten bank innej osobie? A może bankom jest to „ganz egal”, bo i tak Unia coraz bardziej zmusza firmy i obywateli do porzucenia płatności gotówką. Nawet wnuczce nie można dać większej kasy inaczej, jak przelewem.
Nie ma sensu przekazywać swoich uwag do banku.
Wojciech Urbanek zastępca redaktora naczelnego CRN Polska
Niegdyś kłamcami na ogół gardzono, ale w czasach internetu często wielu z nich zostało idolami, a co za tym idzie finansowymi krezusami.
Kłamstwo coraz bardziej popłaca, a współczesne środki przekazu są wręcz wymarzonym miejscem dla kłamców różnej maści. A co ze szlachetnością? No cóż, ta trąci już nieco naftaliną. Przed nadejściem epoki internetu na świecie, rzecz jasna, nie brakowało kłamców, aczkolwiek odnoszę wrażenie, że w ostatnich latach przekroczyliśmy czerwoną linię.
wadził pod wpisami informacje kontekstowe, dzięki czemu internauci mogą demaskować kłamstwa umieszczone w postach.
Amerykański prezydent
stał się redaktorem Facebooka.
Mark Zuckerberg – bóg mediów społecznościowych – oznajmił w sierpniu, iż cenzurował pod naciskiem administracji Joe Bidena informacje dotyczące Covid-19. Złośliwi twierdzą, że amerykański prezydent stał się redaktorem Facebooka. Jednak są dwie dobre wiadomości. Po pierwsze Mark Zuckerberg obiecał, że już nigdy nie ulegnie naciskom jakiegokolwiek rządu. Po drugie, skoro mowa o konieczności otwartości przekazu, Meta pracuje nad modelem sztucznej inteligencji Llama, stawiając na model open source. Zdaniem Zuckerberga takie rozwiązanie zapewni dostęp do sztucznej inteligencji milionom ludzi na całym świecie. I znowu złośliwcy komentują, że Mark będzie mógł kłamać do woli, a w razie czego zrzucić winę na algorytmy. Zwłaszcza że sztuczna inteligencja nie ma sumienia.
Na szczęście do walki o prawdę włącza się Komisja Europejska – królowa regulacji. Urzędnicy UE na pierwszy ogień wzięli innego miliardera zza oceanu – Elona Muska. Ten zaraz po zakupie Twittera obiecał, że nie tylko zmieni nazwę platformy na „X”, ale również zniesie panującą w niej cenzurę i słowa dotrzymał – przy czym jednym z jego pierwszych kroków było odblokowanie konta Donalda Trumpa. Poza tym Musk wpro-
Nie tak dawno, bo w nocy z 12 na 13 sierpnia, na platformie X miała miejsce rozmowa pomiędzy Elonem Muskiem a Donaldem Trumpem. Tuż przed nią Thierry Breton, unijny komisarz do spraw rynku wewnętrznego, opublikował list, w którym ostrzegł przed negatywnymi skutkami powielania szkodliwych treści i propagowania mowy nienawiści. Jakby nie patrzeć, jest to kuriozalny przypadek. Szerzej nieznany urzędnik zwraca się do jednego z największych przedsiębiorców na świecie, aby ten ocenzurował swoją rozmowę, na dodatek toczącą się na żywo. Wcześniej Komisja Europejska nie zainicjowała analogicznych procesów wobec innych, konkurencyjnych portali, mimo że ich aktywność wzbudza podobne, jeśli nie większe, kontrowersje związane z manipulowaniem debatą publiczną.
Swoją drogą unijni politycy, którzy starają się pouczać innych, też mają swoje za uszami. Niedługo przed wyborami do Sejmu i Senatu, jeden z polskich europarlamentarzystów oficjalnie oznajmił, iż aby być skutecznym w polityce, trzeba kłamać, a ponieważ „kłamstwo ma szybkie nogi” trzeba je szybko przykrywać kolejnym kłamstwem. Pomyśleć, że w 2006 r. ówczesny premier Węgier, niewinne stwierdzenie: „kłamaliśmy rano, nocą i wieczorem”, przypłacił stanowiskiem i już nigdy nie wrócił do władzy. W ciągu siedemnastu lat politykom udało się przejść bardzo długą drogę. W efekcie nigdy wcześniej tak wielu kłamców nie miało dostępu do tak wielu narzędzi.