CRN Polska 11/2024

Page 1


DolinaKrzemowa Innowacje w ochronie danych

CoDEBATA napędza

Czy wiesz, że…

jeśli pracujesz w firmie z branży IT, możesz bezpłatnie zaprenumerować magazyn CRN Polska?

Załóż konto na stronie

crn.pl/rejestracja

Najlepiej poinformowany magazyn w branży IT!

dla resellerów, VAR-ów i integratorów

Cyfryzacja dokumentów ze znaczkiem AI

Tradycyjne metody zarządzania dokumentami już dawno stały się nieefektywne, co prowadzi do coraz bardziej powszechnego wdrażania cyfrowego obiegu dokumentów.

Massachusetts rzuca rękawicę Kalifornii

Choć za kolebkę innowacyjnych technologii wciąż uchodzi

Kalifornia, to coraz więcej do powiedzenia mają też firmy z Massachusetts.

8 AI, czyli nowe możliwości dla partnerów Also Podczas konferencji Also Channel Trends & Visions koncentrowano się na potencjale rozwiązań tworzonych na bazie sztucznej inteligencji

10 Dagma MSP Day

Konferencja zorganizowana przez Dagma Bezpieczeństwo IT była poświęcona współpracy z partnerami w modelu Managed Service Provider

12 Canalys Forum EMEA: sztuczna inteligencja na cenzurowanym

W Berlinie Canalys przedstawił swoje prognozy na lata 2025-2027

14 it-sa Expo&Congress

Największe w Europie wydarzenie dla społeczności cybersecurity odwiedziło blisko 26 tys. osób, a swoje stoiska miało 897 firm

15 HP: ambitna strategia dla Polski

Producent coraz więcej inwestuje w kanał sprzedaży na polskim rynku

16 10 mitów na temat chmury

Eksperci GigaCloud udowadniają ich bezpodstawność

17 Zasoby IT pod kontrolą

Opinia Marty Greliak-Telesińskiej (Flexera)

18 Co dziś napędza sprzedaż w branży cyberbezpieczeństwa?

Okrągły Stół CRN Polska z udziałem specjalistów z firm: Atende, ISSA Polska, Exclusive Networks, Fortinet i Fudo Security

24 BotGuard: pogromca złośliwych botów W internecie roi się od niebezpiecznych programów przeznaczonych do pracochłonnych, powtarzalnych zadań

26 Cyberbezpieczeństwo: następuje dryf w kierunku usług Szansą dla klientów w nierównej walce z hakerami jest sięgnięcie po posiłki z zewnątrz

29 Elastyczne licencjonowanie i skalowanie rozwiązań cyberbezpieczeństwa Nadmiar rozwiązań cybersecurity oznacza zbędne wydatki i utrudnienia w zarządzaniu (Fortinet)

30 Cyberzagrożenia: polskie firmy wciąż słabo chronione Cyberprzestępcy biorą na cel przedsiębiorców różnej wielkości (ESET, DAGMA Bezpieczeństwo IT)

31 Program dystrybucyjny: utopia czy strzał w dziesiątkę? Felieton Larry’ego Walsha

32 Hybrydowy storage spodobał się małym firmom

Chmura hybrydowa najbardziej odpowiada większości firm

35 Fujifilm: archiwizacja najnowszej generacji Rozmowa z Richardem Aldersonem, EMEA Sales & Marketing Managerem w Fujifilm

36 Massachusetts rzuca rękawicę Kalifornii Massachusetts chwali się interesującymi rozwiązaniami do ochrony danych

IDC: Polska potrzebuje strategii budowy przestrzeni danych

Polski rząd powinien aktywnie promować przestrzenie danych jako podstawowy element transformacji cyfrowej.

38 Skuteczne zarządzanie w erze „growth hackingu”

Opinia Briana Piackis Chenga (SALESmanago)

39 Cyfryzacja dokumentów ze znaczkiem AI To może być punkt zwrotny w procesie transformacji cyfrowej

42 W digitalizacji dokumentów liczy się automatyzacja i bezpieczeństwo Rozmowa z Anną Murawską, Partner Business Managerem w Epsonie

44 How to startup Wieści z sektora startupów

46 IDC: Polska potrzebuje strategii budowy przestrzeni danych Polski rząd powinien rozważyć utworzenie biura ds. danych

49 Sztuczna inteligencja a... masło orzechowe

Opinia Jaya McBaina

50 50% koszty autorskie z perspektywy branży IT (cz.1)

Temat 50-procentowych kosztów autorskich dotyczy również pracowników branży IT, i to nie tylko programistów

52 Modelowanie e-handlu Rozmowa zIreneuszem Gawlikiem, dyrektorem obszaru AI Products Development and Big Data w Allegro

55 Ankieta CRN.pl Niepewność końca roku

56 „DeRisk” po niemiecku i wiele dygresji

Opinia Arnolda Adamczyka

57 Zimna wojna na rynku motoryzacyjnym?

Opinia Alberta Borowieckiego

58 Wokenomics: co poszło nie tak?

Recenzja książki „Woke S.A. Kulisy amerykańskiego przekrętu sprawiedliwości społecznej”

60 Puls branży IT

Istotne trendy produktowe, technologiczne, biznesowe, w oparciu o dane pochodzące z renomowanych agencji analitycznych, organizacji branżowych i globalnych mediów, dotyczące głównie Europy i Polski

62 LinkedIn Park

Sprawdzamy, o czym branża IT (i nie tylko) dyskutuje na największym portalu społecznościowym

64 Apdejt ortografii

Felieton Wacława Iszkowskiego

66 Pociąg w nieznane

Felieton Wojciecha Urbanka

Klincz środowiskowy

KNIMBY

ażdemu, kto szuka argumentów w sporach o tzw. zielony ład czy tzw. zieloną energię, polecam dwie komplementarne książki. Pierwsza, znakomita pod względem zarówno literackim, jak i faktograficznym, to „Wojna o metale rzadkie” Guillaume’a Pitrona. Francuz wykazał w niej, że szeroko rozumiany Zachód, a przede wszystkim Europa i Stany Zjednoczone, przez kilka dekad pozbywały się kopalni, zdając się na sektor wydobywczy w Chinach i Afryce, co było ekologiczną zbrodnią, gdyż w obu tych lokalizacjach norma środowiskowa to taki rodzaj oksymoronu. Co dotyczy zwłaszcza wyjątkowo szkodliwego wydobycia metali rzadkich (osobom o słabych nerwach zalecam ominięcie tych fragmentów książki, w których Pitron opisuje procedury wydobywcze).

Obecnie, w efekcie trwającej od kilku już lat geopolitycznej zawieruchy na linii USA-Chiny, następuje próba zmniejszenia uzależnienia Zachodu od chińskiego sektora wydobywczego. Co teoretycznie jest jak najbardziej możliwe, jeśli wziąć pod uwagę, że to właśnie na terenie Stanów Zjednoczonych odkryto właśnie prawdopodobnie największe złoża litu na Ziemi. W ogóle Ameryka Północna, w tym Kanada, to wielka „tablica Mendelejewa”, ale dobrać się do tego skarbu jest wyjątkowo trudno. I o tym właśnie opowiada druga warta uwagi książka, autorstwa Ernesta Scheydera, pod tytułem „Wojna o minerały”. Ten doświadczony dziennikarz Agencji Reutera nie pozostawia wątpliwości co do tego, że budowa nowej kopalni na terenie USA, ewentualnie wznowienie wydobycia w zlikwidowanym wcześniej zakładzie wydobywczym, to droga przez mękę. I nie wystarczą setki milionów dolarów na badania i lobbing. Nie wystarczy poparcie lokalnych władz, bądź rządu stanowego, ani nawet Białego Domu. Tam, gdzie pojawia się koncern wydobywczy, żeby wbić łopatę, już czekają na robotników nieustępliwi działacze środowiskowi, lokalni farmerzy, ewentualnie rdzenni mieszkańcy Ameryki. Pierwsi protestują, aby chronić przyrodę, drudzy, aby

bronić swojej ziemi, a trzeci żeby walczyć o swoje starożytne miejsca kultu. Powołują się przy tym na prawa obywatelskie, na konstytucję, na lokalne przepisy środowiskowe czy też na historyczne dziedzictwo. I trudno się dziwić, bo któż z nas chciałby mieć za płotem kopalnię litu?

Jeśli na serio potraktować realizację klimatycznego porozumienia paryskiego, to według prognoz Międzynarodowej Agencji Energetycznej w latach 2020-2030 niezbędne będzie otwarcie na świecie 50 nowych kopalni litu, 60 nowych kopalni niklu i co najmniej 17 nowych kopalni kobaltu... W tym kontekście szczególnego znaczenia nabierają doniesienia „Anthropocene Magazine” na temat nowej, rzekomo wyjątkowo ekologicznej, a jednocześnie dużo mniej energożernej, metody wydobycia litu, opracowanej przez naukowców z Uniwersytetu Stanforda. Jeśli to się potwierdzi, być może opór społeczny zelżeje i jednak czeka nas jakiś przełom w światowej wojnie o minerały. Na razie jednak „Chińcyki trzymają się mocno” i zapewne tak będzie jeszcze przez długi czas.

Tomasz Gołębiowski Redaktor naczelny

MIESIĘCZNIK CRN POLSKA www.CRN.pl

Rok 27, numer 11 (504), 13 listopada 2024 PL ISSN 2080-8607

REDAKCJA

Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa redakcja@crn.pl

Tomasz Gołębiowski tg (redaktor naczelny) tel. 608 425 699 tomasz.golebiowski@crn.pl

Wojciech Urbanek wu (zastępca red. naczelnego) tel. 691 672 065 wojciech.urbanek@crn.pl

Karolina Marszałek km (sekretarz redakcji) karolina.marszalek@crn.pl

Andrzej Gontarz ag andrzej.gontarz@crn.pl

Krzysztof Jakubik kj krzysztof.jakubik@crn.pl

Krzysztof Pasławski kp krzysztof.paslawski@crn.pl

Tomasz Janoś tj tomasz.janos@crn.pl

FELIETONY

Arnold Adamczyk, Albert Borowiecki, Wacław Iszkowski, Jay McBain, Wojciech Urbanek, Larry Walsh

GRAFIKA, LAYOUT, KOORDYNACJA PRODUKCJI: Tomasz Baziuk

FOTOGRAFIE

Theta Art Studio Tomasz Pisiński, PhotobyMysluk.pl, Adrian Stykowski, Piotr Syndoman, archiwum

PRENUMERATA prenumerata@crn.pl

REKLAMA I PROJEKTY SPECJALNE Agata Myśluk tel. 694 455 426 agata.mysluk@crn.pl

Jacek Goszczycki tel. 601 935 513 jacek.goszczycki@crn.pl

WYDAWCA Peristeri Sp. z o.o. Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa

Reklamy są przyjmowane w siedzibie wydawnictwa. Za treść ogłoszeń redakcja nie ponosi odpowiedzialności. © 2024 Peristeri Sp. z o.o. Wszelkie prawa zastrzeżone.

na plusie

Centrum Zakupów dla Sądownictwa zawarło z Passusem umowę wartą 56,7 mln zł, dotyczącą „dostawy oprogramowania ManageEngine lub równoważnego do zarządzania na rzecz sądów, Ministerstwa Sprawiedliwości wraz z usługami towarzyszącymi”. W trakcie jej obowiązywania przewiduje się możliwość wdrożenia oprogramowania w postaci 12 osobnych instancji.

Ingram Micro 24 października br. wszedł na nowojorską giełdę. Akcje podrożały na debiucie aż o 15 proc., co oznacza wzrost kapitalizacji giganta dystrybucji IT do 5,82 mld dol. wobec 5,18 mld dol. wyceny z IPO. To powrót Ingrama na giełdę, którą opuścił w grudniu 2021 r. Około 90 proc. udziału w spółce pozostaje pod kontrolą firmy inwestycyjnej Platinum Equity, która nabyła Ingrama w 2021 r. od chińskiego konglomeratu HNA.

Trybunał Sprawiedliwości Unii Europejskiej podtrzymał decyzję Sądu UE z 2022 r., w którym uchylił on karę w wysokości 1,06 mld euro, wymierzonej Intelowi przez Komisję Europejską w 2009 r. Bruksela zarzucała Intelowi naruszenie unijnych regulacji antymonopolowych w celu wypchnięcia z rynku konkurenta, jakim jest AMD. Jej zdaniem taki niedozwolony charakter miały rabaty dla producentów PC za preferowanie przez nich platform Intela, jak też upusty dla detalistów (działo się to w pierwszej dekadzie XXI w.). Jednak w ocenie unijnych sądów KE nie przedstawiła przekonujących dowodów, że Intel udzielając wspomnianych bonusów w niedozwolony sposób zaburzył konkurencję na rynku.

Cyberpolicja z Katowic zatrzymała 6 osób, podejrzanych o udział w zorganizowanej grupie przestępczej. Zakładali fałszywe strony internetowe i oferowali do sprzedaży różne produkty, w tym sprzęt AGD, sprzęt fitness, meble ogrodowe i inne. Działali w II połowie 2023 r., na terenie całego kraju. Dotychczas ustalono 145 pokrzywdzonych, a liczba ta stale rośnie. Do zatrzymań doprowadziły wspólne działania Centralnego Biura Zwalczania Cyberprzestępczości i Prokuratury Regionalnej w Katowicach.

Rodzina Filipiaków wraz z funduszem CVC Capital Partners Fund IX i Anną Prokop poinformowali, że aktualna skala odpowiedzi na wezwanie na 100 proc. akcji spółki Comarch wskazuje na jego sukces. W dniu 11 października br., w wyniku rozliczenia transakcji nabycia akcji zaoferowanych do sprzedaży w wezwaniu, do dnia 3 października, Chamonix Investments Poland nabył łącznie w zaokrągleniu 4,444 mln akcji zwykłych, reprezentujących 54,64 proc. kapitału zakładowego i 29,37 proc. głosów w spółce. Dodatkowo od 4 do 10 października br. akcjonariusze zapisali się na sprzedaż ponad 449 tys. akcji (reprezentujących 2,97 proc. głosów).

„Inwestowaniewcyfryzację wwieluobszarachprzestajebyćkwestiąwyboru” – Krzysztof Gawkowski, minister cyfryzacji.

Sąd Najwyższy oddalił skargę kasacyjną, wniesioną przez UPC, w sprawie decyzji UOKiK-u z 2019 r. W rezultacie, jak podkreśla urząd: „Spółka musi wykonać decyzję Prezesa UOKiK i poinformować swoich klientów o możliwości uzyskania rekompensaty w postaci zwrotu opłat za bezprawne podniesienie abonamentu”. Zwrot ma dotyczyć opłat pobranych w ocenie urzędu niesłusznie od 17 kwietnia 2016 r. do dnia uprawomocnienia się decyzji. Urząd nałożył na operatora 33 mln zł kary, kwestionując m.in. niektóre zapisy zastosowane przez UPC w umowach z klientami.

ARM rozwiązał umowę licencyjną z Qualcommem – podał Bloomberg. Ten radykalny krok to efekt sporu między firmami, ciągnącego się od 2022 r. ARM zarzuca potentatowi na rynku czipów mobilnych naruszenie warunków kontraktu oraz znaku towarowego, w związku z przejęciem firmy Nuvia i wykorzystaniem jej projektów – bez zgody ARM – do produkcji procesorów (pozew w tej sprawie trafił do sądu). Qualcomm utrzymuje, że nie złamał zapisów umowy licencyjnej i zarzuty są bezzasadne. Tym niemniej teraz ma już tylko 60 dni na dogadanie się z ARM-em. W przeciwnym razie grozi mu utrata licencji na produkcję procesorów opartych na technologii brytyjskiej firmy.

Facebook zmienił sposób, w jaki prezentowane są odnośniki do treści prasowych. Prezes UOKiK-u wszczął w tej sprawie postępowanie wyjaśniające. Sprawdzi, czy działania Meta mogą naruszać konkurencję. „Treści polskich wydawców na platformie są wyświetlane w postaci pojedynczego odnośnika, a nie jak to było dotychczas, jako graficzny podgląd materiału. Zmiana mogła spowodować niższe zainteresowanie treściami dziennikarskimi i zmniejszyć liczbę odsłon artykułów” – uważa Tomasz Chróstny, prezes UOKiK-u.

Poczta Polska unieważniła przetarg na dostawę, wdrożenie i utrzymanie infrastruktury sieciowej SD-WAN. Powód: nie było ofert, choć termin ich przyjmowania nie raz przekładano. Postępowanie ogłoszono pod koniec maja br., a zamówienie obejmowało też warsztaty i prezentacje dotyczące systemu centralnego zarządzania i logowania, systemu monitorowania oraz urządzeń SD-WAN dla osób wskazanych przez zamawiającego. Poczta oczekiwała także stworzenia stoku magazynowego w określonych lokalizacjach. Na całość zamierzała przeznaczyć ponad 83 mln zł.

CrowdStrike złożył pozew przeciwko liniom lotniczym Delta. Zarzuca przewoźnikowi próbę przerzucenia winy za własne niedociągnięcia na dostawcę cyberbezpieczeństwa. Delta, zgodnie z wcześniejszą zapowiedzią, skierowała pozew do sądu najwyższego stanu Georgia. Domaga się odszkodowania za szkody wywołane wadliwą aktualizacją CrowdStrike’a w lipcu br. Twierdzi, że poniosła z tego tytułu ponad 500 mln dol. strat. Błąd sparaliżował komputery i serwery z systemem Windows na całym świecie. Delta podnosiła się przez 5 dni. Musiała odwołać około 7 tys. lotów. CrowdStrike twierdzi, że wielokrotnie oferował pomoc Delcie, tak jak innym firmom dotkniętym awarią, jednak przewoźnik miał odrzucić tę ofertę.

„Niewszystkieinicjatywy związanezAIprzyniosłyzamierzoneefektybiznesowe” – Sharyn Leaver, dyrektor ds. badań w Forresterze.

„Znaleźliśmywymarzonegoinnowatora”– Bill McDermott, prezes ServiceNow o współpracy z Amitem Zavery (wcześniej Google Cloud).

n Nowe informacje z branży IT n

n Zwolnienia grupowe w Intelu

Intel zgłosił do gdańskiego urzędu pracy zamiar przeprowadzenia zwolnień grupowych. Redukcje mogą objąć nawet kilkaset osób – wynika z doniesień portalu trojmiasto.pl. Cięcia w Polsce są przeprowadzane w ramach ogłoszonego w sierpniu br. globalnego planu oszczędności i transformacji koncernu. Na całym świecie mają objąć 15 tys. miejsc pracy. Spółka nie podała liczby osób, których dotyczą zwolnienia w Gdańsku. Natomiast wcześniej Intel ogłosił wstrzymanie na 2 lata inwestycji w budowę fabryki w Miękini na Dolnym Śląsku. Centrum B&R Intela w Gdańsku należy do największych z 23 laboratoriów koncernu w Europie. Według informacji producenta ośrodek zatrudnia ponad 2,5 tys. osób.

n BMC: dwa z jednego

BMC, działający także w Polsce amerykański koncern software’owy, podzieli się na dwa odrębne podmioty – BMC oraz BMC Helix. Pierwszy z obu podmiotów będzie się zajmował najważniejszymi obszarami działalności i skoncentruje się na wzmacnianiu hybrydowego IT ze swoim portfolio oprogramowania infrastrukturalnego.

Z kolei BMC Helix skupi się usługach cyfrowych i zarządzaniu operacjami. Podział ma nastąpić z początkiem 2025 r. BMC Software, założony w 1980 r., to jeden z najdłużej działających na rynku dostawców oprogramowania. Zatrudnia około 6 tys. pracowników w blisko 40 krajach. Roczne przychody producenta przekraczają poziom 2 mld dol. rocznie.

n Przetarg w ZUS za 0,5 mld zł

ZUS zakończył przyjmowanie ofert w megaprzetargu na świadczenie usług wsparcia eksploatacji i utrzymania Kompleksowego Systemu Informatycznego. Postępowanie ogłoszono w końcu grudnia 2023 r. ZUS zamierza przeznaczyć na realizację zamówienia 498,2 mln zł. Jedyną ofertę, o wartości 349,6 mln zł, złożyło Asseco Poland. Termin realizacji zamówienia wynosi maksymalnie 5 lat.

n Sophos przejmie SecureWorks

Sophos przejmie SecureWorks za 859 mln dol. Finalizacja transakcji jest spodziewana na początku 2025 r. Obecnie większościowym udziałowcem spółki jest Dell Technologies (wraz z private equity Thoma Bravo), który kupił SecureWorks w 2011 r. za 612 mln dol. Firma działa od 1999 r. i zatrudnia 1,5 tys. osób. Sophos chce zintegrować technologię SecureWorks, w tym XDR, ze swoją platformą cyberbezpieczeństwa.

n x-kom chce przejąć Neonet

Spółki x-kom i Neonet podpisały umowę inwestycyjną. Przewiduje ona docelowo przejęcie Neonetu przez x-kom, po uprzednim uzyskaniu niezbędnych zgód antymonopolowych, zatwierdzeniu układu z wierzycielami Neonetu i spełnieniu pozostałych jej warunków. Wartość inwestycji nie została ujawniona. Do UOKiK-u wpłynął już wniosek x-komu o zgodę na koncentrację. Neonet realizuje proces restrukturyzacji od grudnia 2023 r. Pomimo zamknięcia niektórych sklepów, nadal jest to jedna z największych sieci sklepów stacjonarnych z elektroniką w Polsce. Posiada ponad 200 salonów. Na rynku jest od ponad 20 lat. Natomiast x-kom powstał 22 lata temu. Obecnie ma sieć 26 własnych salonów stacjonarnych i prowadzi jedną z największych platform e-commerce w Polsce.

Zmiany na stanowiskach n

n Z Allegro do XTB

Do działu technologii i produktu w XTB dołączyła Kinga Ćwiklińska. Na stanowisku Head of Data Platform & Product Analytics zajmie się obszarem analityki produktowej i rozwojem platformy danych w kierunku rozwiązań chmurowych. Będzie wykorzystywać rozwiązania oparte na sztucznej inteligencji. Kinga Ćwiklińska ma doświadczenie w pracy zarówno w e-commerce, jak i w sektorze finansowym. Poprzednio przez ponad 10 lat pracowała w Allegro, ostatnio jako Senior Manager, Data. Zarządzała zespołami analityków i inżynierów danych, koordynowała inicjatywy wspierające jakość danych tej platformy e-commerce. Wcześniej była związana z Santander Bank Polska.

n Mateusz Strzelecki w Suntar

Mateusz Strzelecki objął stanowisko dyrektora ds. rozwoju/Chief Growth Officer (CGO) w Suntar. Poprzednio przez 10 lat był dyrektorem marketingu w S4E. Na nowym stanowisku odpowiada za opracowywanie i wdrażanie strategii wzrostu sprzedaży do sektora komercyjnego, budowanie i wzmacnianie relacji z klientami i partnerami strategicznymi. Do jego zadań należy również kierowanie działaniami marketingowymi w celu zwiększenia rozpoznawalności marki i usprawnianie procesów wewnętrznych.

n Acnet: Piotr Gastoł prezesem

Piotr Gastoł w październiku br. objął stanowisko prezesa zarządu Acnet – warszawskiego VAD-a. Poprzednio przez 18 lat był związany z S4E, w tym przez ostatnią dekadę jako Huawei Team Leader, a wcześniej regionalny dyrektor sprzedaży w Polsce południowej. „Nowy Acnet tworzą osoby, które pracują w biznesie dystrybucyjnym od wielu lat i będziemy teraz korzystać z naszego doświadczenia” – mówi Piotr Gastoł. Zarząd Acnetu tworzy od początku października br. dwóch menadżerów: Piotr Gastoł i Adam Przetak (dołączył do dystrybutora w lutym br., a wcześniej był zatrudniony w S4E).

n Maciej Skrzos w Future Mind

Maciej Skrzos, w roli Data Lead, objął kierownictwo nowej linii biznesowej Data&AI w Future Mind, która odpowiada za usługi związane z danymi i sztuczną inteligencją. Dział skoncentruje się na wspieraniu firm w wykorzystaniu potencjału danych dzięki odpowiednim strategiom oraz implementacji AI. Maciej Skrzos może pochwalić się niemal 15-letnim doświadczeniem na stanowiskach kierowniczych oraz w zespołach związanych z inżynierią danych. Poprzednio pełnił funkcję CTO w PlumResearch (2021 – 2024), a wcześniej pracował w EPAM Systems i Best SA Capital Group.

n Z Newline do ViewSonica

Łukasz Giziński dołączył do polskiego zespołu ViewSonic. Teraz, jako Business Development Manager, będzie rozwijał sieć partnerską i wspierał wzrost firmy poprzez inicjatywy strategiczne oraz szkolenie partnerów. Wnosi do firmy ponad dekadę doświadczeń w zakresie rozwoju biznesu, sprzedaży i zarządzania kluczowymi klientami. Przez ostatnie trzy lata jako Business Development Manager rozwijał sieć partnerów w Newline Interactive EMEA. Wcześniej był związany z integratorem Networks Expert i firmą programistyczną Graitec Polska.

n Wsparcie dla partnerów Della

Marcin Joka, obejmując w TD Synnex stanowisko Business Development Managera, odpowiada teraz za poszerzanie oferty Dell Enterprise, w tym serwerów, storage’u i rozwiązań sieciowych, jak też wsparcie partnerów w realizacji projektów z wykorzystaniem produktów Della, VMware’a i Veeama. Marcin Joka ma ponad 17-letnie doświadczenie w branży, w tym przez prawie dekadę (2010 – 2020) pełnił funkcję Senior Key Account Managera w Komputronik Biznes. Przed dołączeniem do TD Synnex przez 4 lata pracował jako Key Account Manager w Infomeksie, gdzie koncentrował się na sprzedaży rozwiązań Network Security, storage i serwerów.

AI, czyli nowe możliwości d la pa r t ne rów A lso dla partnerów Also

Podczas Also Channel Trends & Visions koncentrowano się na możliwościach biznesowych, jakie stwarzają rozwiązania na bazie sztucznej inteligencji.

n Krzysztof Pasławski

Wwystąpieniuotwierającym konferencję Also Channel Trends & Visions Hanna Osetek-Pasquet, dyrektor zarządzająca polskim oddziałem Also, podkreśliła, że chciałaby zaprosić partnerów do rozmowy o tym, jak mogą dalej wspólnie z Also rosnąć, wykorzystując ekosystem dystrybutora w Polsce i w innych krajach, w których Also działa.

– Liczę, że te dyskusje pozwolą nam znaleźć nowe obszary biznesowe, dzięki którym będziemy mogli wszyscy rozwijać się jeszcze szybciej – podkreśliła Hanna Osetek-Pasquet. Wydarzenie koncentrowało się na możliwościach biznesowych, jakie dla resellerów, integratorów i dostawców usług stwarzają rozwiązania sztucznej inteligencji. Specjaliści Also podkreślają, że gama zastosowań narzędzi AI w biznesie jest bardzo szeroka i to praktycznie we wszystkich branżach, a szan-

se monetyzacji dla partnerów są związane z każdym z obszarów działania firm, w tym z danymi, cyberbezpieczeństwem czy infrastrukturą. Przy czym, jak podkreślano, wczesne podjęcie tego wyzwania jest istotne dla dalszego rozwoju biznesu w kanale sprzedaży IT, ze względu na bardzo szybki rozwój technologii AI.

– Wywrócą one wszystko do góry nogami, w efekcie czego powstaną nowe modele biznesowe. Zwłaszcza, że AI rośnie w sposób podwójnie wykładniczy, co dotychczas nie zdarzyło się w historii ludzkiej cywilizacji. Co ważne, nie widać w tym przypadku szklanego sufitu – przekonywał Petros Psyllos, ekspert od AI w Cybernetics Company.

Tego rodzaju zapowiedzi są zgodne z doświadczeniami wielu producentów, w tym Della. Jak mówi Rafał Szczypiorski, Business Development Manager GSS: – Widzi-

n Rafał Szczypiorski, Business Development Manager GSS, Dell Technologies

Rozwój sztucznej inteligencji już teraz wpływa na polski rynek infrastruktury IT, zwiększając zapotrzebowanie na zaawansowane rozwiązania technologiczne. Obecnie rośnie popyt na systemy o wysokiej wydajności obliczeniowej, takie jak serwery z GPU, elastyczne chmury obliczeniowe oraz zaawansowane narzędzia analityczne. Najczęstszymi klientami tych rozwiązań są duże przedsiębiorstwa z sektorów finansowego, produkcyjnego i handlowego, które wykorzystują AI do analizy danych, automatyzacji procesów i personalizacji usług. W najbliższych latach znacząco wzrośnie zainteresowanie AI w sektorze publicznym oraz wśród małych i średnich przedsiębiorstw, dzięki rosnącej dostępności technologii, obniżeniu kosztów wdrożenia oraz konieczności konkurowania z firmami, które stosują tego typu narzędzia (jak automatyzacja procesów oraz AI).

my bardzo duże zainteresowanie klientów sztuczną inteligencją. Ja sam mam 3–4 rozmowy tygodniowo związane z tym obszarem. To obrazuje, jak dużo klientów jest zainteresowanych AI.

Partner konsultantem ds. AI

Wśród wielu przykładów implementacji AI, specjaliści wskazywali partnerom na narzędzia usprawniające pracę i działanie firmy, chociażby w związku z brakiem pracowników. I choć na razie wciąż do wyjątkowo popularnych zastosowań należą czatboty, to na przykład w rozwiązaniach CCTV generatywna AI pozwala między innymi wyszukiwać, czy pracownicy w zakładzie mają odpowiednie obuwie i kaski. Rzecz jasna, nie brakuje też szeregu innych zastosowań, w tym w obszarze tzw. cyfrowych bliźniaków, co w jednym z podawanych podczas

Rafał Albin, Chief Marketing and Operations Officer, Microsoft Polski rynek jest w dużej mierze rynkiem małych i średnich firm. To właśnie do takich firm docierają partnerzy, wspierani w tym zakresie przez dystrybutorów i ten łańcuch jest nierozerwalny. Ogromna rola dystrybucji polega na szkoleniu partnerów do tego, aby mogli głębiej zrozumieć, na czym polegają scenariusze i możliwości zastosowania generatywnej sztucznej inteligencji. Silnie wspieramy dystrybutorów, aby byli odpowiedzialni nie tylko za sprzedaż czy też za wdrażanie projektów poprzez partnerów, ale też za ich szkolenie w obszarze tego, co jest najnowsze na rynku. Jeśli chodzi o portfolio narzędzi sztucznej inteligencji, na jakim partner powinien się skupić na początek współpracy ze swoim klientem, to pierwszym wyborem wydaje się cała oferta Copilota, ponieważ jest to generatywna AI wdrożona w różne serwisy i usługi Microsoftu. Dla klienta oznacza to ni mniej ni więcej, jak zaprzęgniecie sztucznej inteligencji do jeszcze lepszej i jeszcze bardziej efektywnej pracy.

konferencji przykładów skróciło czas przygotowania linii produkcyjnej aż o pół roku. W tego rodzaju projektach rola partnerów, jako wyspecjalizowanych doradców, jest absolutnie kluczowa. To jedyny sposób na takie wdrożenie AI, aby przyniosło to klientowi korzyści, modernizując przy tym różne ważne dla jego efektywności obszary w firmie. Przy czym warto z ofertą pójść bezpośrednio do kadry zarządzającej w pionie biznesowym, nie zaś do działu IT. Najważniejsze, aby najpierw wspólnie z menadżerami z danej organizacji znaleźć odpowiedni model zastosowania narzędzi AI.

Za fundamentalny obszar transformacji wspomaganej przez AI uważane są dane. To właśnie one przede wszystkim wymagają uporządkowania i związanych z tym inwestycji. Na tym polu otwierają się dla partnerów kolejne możliwości.

– Żeby AI działała poprawnie, trzeba szybko nadrobić wszelkie zaległości w zarządzaniu danymi. W tym kontekście ważna jest migracja organizacji do rozwiązań chmurowych, bo bez chmury nie ma AI. Co ważne, w tym kontekście dotyczy to także infrastruktury i warstwy aplikacyjnej – przekonuje Rafał Albin, GPS Lead w polskim oddziale Microsoftu.

Z danych Contextu wynika, że zainteresowanie AI w kanale sprzedaży systematycznie rośnie. O ile w minionym roku 15 proc. resellerów z Polski twierdziło, że zainwestuje w AI, to w tym roku mówi tak już 27 proc. Wciąż jednak większość (72 proc.) nie zaczęła jeszcze współpracować z klientami w oparciu o AI. Na pytanie o to, jakimi zastosowaniami AI są zainteresowani klienci, w większości wskazywano na wirtualnych asystentów

n Monika Kałas, Distribution Lead Poland | Microsoft DPS PSCE

Możliwości wdrażania rozwiązań AI są bardzo szerokie – od automatyzacji, optymalizacji, poprzez usprawnienia obsługi klientów czy też zwiększenia produktywności praktycznie w każdej organizacji i branży. Aby partnerzy mogli zacząć implementować rozwiązania AI u swoich klientów, przede wszystkim muszą dobrze poznać i zrozumieć organizację, jej potrzeby i obszary działalności, w których sztuczna inteligencja może przynieść korzyści. Trzeba więc zacząć od podstaw - reseller czy integrator powinien być konsultantem i partnerem do rozmowy o transformacji cyfrowej, w której AI zaczyna odgrywać coraz większą rolę. Na jakie aspekty w firmie klienta warto zwrócić uwagę? Przede wszystkim na dane, które muszą być uporządkowane, aby można było efektywnie korzystać z narzędzi AI. Kluczowym obszarem do omówienia z klientem są również kwestie cyberbezpieczeństwa nierozerwalnie połączone z przetwarzaniem danych. Partnerzy muszą posiadać kompleksową wiedzę i kompetencje, żeby zaadresować potrzeby różnych organizacji w tych obszarach zarówno po stronie konsultingowej, jak i wdrożeń konkretnych rozwiązań technologicznych. Co ważne, producenci wspierają ich już teraz w zdobywaniu wiedzy, prowadząc liczne szkolenia i warsztaty, między innymi takie jak „AI in the box” by Dell Technologies, HP Imagine AI 2024 oraz „AI day For ALL” wraz Lenovo Academy.

i czatboty (39 proc.), a następne w kolejności są: uczenie maszynowe (32 proc.), analityka predykcyjna (28 proc.), robotyka (24 proc.), przetwarzanie języka naturalnego (23 proc.) i systemy rekomendacji (16 proc.).

W Polsce największy popyt na rozwiązania AI można zaobserwować w takich branżach jak: komunikacja i media (35 proc.), produkcja (31 proc.), usługi biznesowe (20 proc.), energetyka (19 proc.), bankowość i ubezpieczenia (19 proc.), a także handel detaliczny (17 proc.). Co istotne, zapotrzebowanie na rozwiązania AI ma iść w górę na rosnącym rynku IT. W I kw. i II kw. 2025 r. w polskim sektorze dystrybucji Context spodziewa się 2–3 proc. większych obrotów rok do roku.

Powrót do podstaw

Podczas konferencji Artur Czerwiński, Manager Systems Engineers w Cisco, odnosząc się do AI, omówił możliwości sprzedażowe w sektorze cyberbezpieczeństwa. Zaznaczył, że fundamentem jest w tym przypadku infrastruktura, która jest „wehikułem sprzedaży”. – Co przynosi największą sprzedaż? Powrót do podstaw: infrastruktura i segmentacja, oczywiście z AI – mówi Artur Czerwiński. Przykładem rozwiązań z zakresu cybersecurity jest chociażby firewall assistant, który pozwala podnieść efektywność już działających w danej firmie rozwiązań. Kolejnym jest deszyfracja i inspekcja ruchu sieciowego, a w przypadku SOC-ów są to XDR-y z asystentem AI. To wśród takich, ale też szeregu innych narzędzi, w różnych obszarach rynku IT, należy szukać nowych, perspektywicznych możliwości biznesowych.

W Also Channel Trends & Visions wzięło udział 250 uczestników, w tym 170 partnerów i przedstawiciele producentów.

DAGMA MSP Day MSP Day

Frekwencja i zaangażowanie uczestników pierwszej w historii katowickiej spółki konferencji poświęconej usługom zarządzanym pokazały, że MSP to dziś bardzo gorący temat.

n Tomasz Janoś

MSP Day zgromadził wielu partnerów, choć DAGMA Bezpieczeństwo IT oferuje rozwiązania w modelu usługowym od niespełna trzech lat. Po tym czasie nastąpił jednak punkt zwrotny, bo liczba zaangażowanych w ten model biznesowy partnerów spółki zbliżyła się do 250, a kolejni przybywają w coraz szybszym tempie.

– W efekcie promowania MSP przez minionych kilka lat nasi partnerzy zobaczyli, że w tym modelu to oni są panami sytuacji. To oni mogą budować pakiet usług dla klienta końcowego i mieć nad tym pełną kontrolę. Co będzie w takim pakiecie, zależy tylko od nich, a więc mogą sprawić, że okaże się wyjątkowy na rynku – podkreśla Paweł Jurek, dyrektor ds. rozwoju biznesu w DAGMA Bezpieczeństwo IT.

Managed Service Provider

W modelu MSP klient nie kupuje już licencji, ale usługę z zakresu cyberbezpieczeństwa, przy czym ma możliwość elastycznej zmiany liczby licencji w zależności od aktualnych potrzeb klienta, w dowolnym momencie miesiąca. W zależności od producenta, partner korzystający z modelu MSP otrzymuje dostęp do konsoli, która pozwala mu na samodzielne dodawanie klientów i generowanie potrzebnych licencji – to wszystko w zaledwie kilka minut.

Wszyscy klienci w modelu MSP będą dla dostawcy usług dostępni w jednym miejscu (konsoli).

Co ważne, partner płaci tylko za usługi, z których korzysta, więc nie musi dokonywać inwestycji. Dodatkowo, im więcej licencji kupuje, tym niższa jest pojedyncza cena zakupu (liczona na podstawie agregacji).

Model MSP to światowy trend, który przychodzi też do nas.

– DAGMA chce wspierać partnerów w rozwoju modelu MSP, dlatego że jest to światowy trend, który przychodzi także do nas. Pozwala na wypracowanie przewagi konkurencyjnej, która polega na tym, że mogą oni dostarczać klientom rozwiązania w takiej formie, jakiej obecnie klienci oczekują – mówi Mateusz Bielas, Product Manager Acronis w DAGMA Bezpieczeństwo IT.

W części produktowej konferencji zaprezentowano cztery rozwiązania z portfolio DAGMY, które partnerzy mogą obecnie oferować swoim klientom w modelu usługowym. Trzy z nich to oprogramowanie, ale czwarte jest platformą sprzętową.

W przypadku pakietów ESET partnerzy mają do dyspozycji konsolę do zarządzania własnymi subskrypcjami. Przy jej użyciu mogą je aktualizować, dostosowując – bez konieczności kontaktu z dystrybutorem – liczbę stanowisk. Dzięki drugiej konsoli – ESET PROTECT – mogą świadczyć klientom dodatkowe usługi – wdrażać rozwiązania ESET, zarządzać zadaniami, egzekwować polityki bezpieczeństwa, monitorować stan systemu, a także szybko reagować na problemy i zagrożenia pojawiające się na komputerach klienta.

Kolejnym rozwiązaniem w formie usługi jest Holm Security. Platforma obejmuje

trzy zautomatyzowane warstwy związane z ochroną środowisk IT: ocenę ryzyka na podstawie symulowanych ataków, skanowanie sieci oraz wykrywanie podatności w aplikacjach webowych. Jak zapewniają przedstawiciele DAGMY oraz sprzedający Holm Security integratorzy, rozwiązanie daje sprzedającemu mocne argumenty w rozmowie z klientem – wystarczy pokazać mu podatności wykryte u niego przy użyciu tego rozwiązania. Kluczowym elementem budowania strategii ochrony jest zapewnienie ciągłości działania podczas nieoczekiwanych awarii sprzętu czy ataku cybernetycznego. Platforma Acronis, czyli „wszystko w jednym”, to rozwiązania do tworzenia kopii zapasowych, przywracania danych po awarii i bezpiecznego dostępu do danych. W modelu usługowym bardzo łatwo jest dodawać klientom dodatkowe funkcje na tej platformie, a wcześniej przez okres próbny zaprezentować nieodpłatnie jej działanie. Wreszcie – nowość, czyli sprzętowa platforma Stormshield UTM, którą partnerzy mogą teraz oferować także w formie usługi. Urządzenie jest udostępniane przez dystrybutora w cenie miesięcznych opłat. W przypadku Stormshielda można sobie wyobrazić różne scenariusze – partner umieszcza UTM u każdego swojego klienta, bądź za pomocą rozwiązania działającego u niego filtruje ruch w infrastrukturze klienta.

Po prezentacji produktów nadszedł czas na panel dyskusyjny, a w nim… role się odwróciły. Tym razem to nie partnerzy pytali DAGMĘ o szczegóły, ale przedstawiciele

DAGMY zadawali pytania partnerom. Konkretnie tym, którzy mają już doświadczenie w świadczeniu usług jako MSP: jakie były początki ich pracy w modelu MSP? Czy mieli obawy przed rozpoczęciem sprzedaży w tej formie? Z jakimi wyzwaniami się zmierzyli? Jak ich praca wygląda na co dzień? Odpowiedzi udzieliło sześciu pionierów MSP, obsługujących zarówno małych, jak i dużych klientów, tych pochodzących z sektora prywatnego, ale też z publicznego.

Dla jednego z nich, Zbigniewa Gralewskiego z BitBack, przejście na model usługowy podyktowane było uproszczeniem procesu sprzedaży i wdrażania oprogramowania. Samo planowanie licencji u wielu klientów w sposób tradycyjny zabierało zbyt wiele czasu i pracy. MSP okazał się być „game changerem”, który pozwolił działać inaczej i wypracować dla klienta własny model „Service as You Go”.

Z kolei Piotr Owczak z Libero, który świadczy usługi outsourcingowe już od niemal 20 lat, zanim przeszedł na model MSP miał zwykle problem z przekonaniem klientów do zakupu drogiego (w ich odczuciu) antywirusa. I rzeczywiście, koszt kilkuset licencji generował dla użytkownika całkiem sporą kwotę, więc doroczna rozmowa z decydentem o odnowieniu nie była łatwa. W przypadku MSP opłata jest miesięczna, co nie jest już bolesne, a nawet pozwala na sprzedaż droższych pakietów oraz dosprzedaż innych produktów.

Kolejny panelista, Maciej Rocławski z NIFA zauważył, że dużo łatwiej księgowości klienta akceptować takie miesięczne faktury zamiast rachunku za produkt – często z niejasnym okresem użytkowania i niewyraźnie określoną liczbą licencji. Wspomniał też o swoich początkowych

obawach związanych z wejściem w MSP – czy będzie można w tym modelu konkurować z tymi, którzy starają się na rynku zaproponować jak najniższą cenę. Te obawy rozwiała właśnie skuteczność miesięcznego rozliczania.

Z kolei Łukasz Staszak z firmy Informatyk podkreślał zalety skalowalności modelu MSP. Z jego doświadczeń wynika, że mając do dyspozycji narzędzia umożliwiające obsługę danej organizacji, bez względu na jej wielkość, łatwo jest mu podążać za przemianą małego klienta w większego, gdy ten się rozwija. Również Tomasz Humiczewski z BlackIce Networks zwracał uwagę na elastyczność, podkreślając, że dla klientów ważne jest, iż mogą łatwo zmieniać liczbę licencji, i to zarówno w górę, jak i w dół. Podobnie, jak fakt, że przy rozliczaniu miesięcznym mogą w każdej chwili zrezygnować. BlackIce w modelu MSP obsługuje dużych klientów i – jak zapewniał Tomasz Humiczewski – nie ma z tym żadnych problemów.

Interesującym wnioskiem z dyskusji było to, że w modelu MSP udaje się sprzedawać obudowane usługami produkty nie tylko do sektora prywatnego, ale także państwowego. Świadczą o tym doświadczenia Tomasza Tabisza z IT Gryf, który zapewniał, że w sektorze administracji publicznej można z powodzeniem konkurować z tymi, którzy chcą dostarczać jedynie licencje. Decydentów w tym sektorze przekonuje to, że ktoś z wiecznie przeciążonych informatyków z urzędów czy instytucji zajmie się wdrożeniem i utrzymaniem.

Wszyscy dyskutujący, bez wyjątku, mówili o korzyści z wystawiania faktury za usługi zamiast za produkt. Wartość dodana w postaci wdrożenia i bieżącej opieki nad klientem jest czymś, co skutecznie ogra-

nicza wątpliwości klienta co do końcowej ceny. Natomiast w przypadku sprzedaży produktu klienci najczęściej szukają tych, którzy oferują go najtaniej.

Uczestnicy dyskusji podkreślali znaczenie wsparcia DAGMY w procesie przechodzenia na model MSP oraz już w trakcie świadczenia usług. Przy tak dużej zmianie sposobu działania obecność osoby, do której można zawsze zadzwonić z prośbą o pomoc to cenna wartość dodana dystrybutora. Panel dyskusyjny okazał się bardzo dobrą okazją do wymiany doświadczeń między tymi partnerami, którzy legitymują się już większym stażem w świadczeniu usług jako MSP a tymi, którzy dopiero zaczynają tę przygodę. Z uwagi na tak duże zainteresowanie i zaangażowanie wszystkich obecnych, DAGMA Bezpieczeństwo IT już teraz rozważa nie tylko kontynuację, ale poszerzenie tej formuły w przyszłości.

Canalys Forum EMEA: sztuczna inteligencja na cenzurowanym

Podczas gdy medialny szum wokół AI zaczyna przycichać, dystrybutorzy i integratorzy kierują swoją uwagę w stronę tradycyjnych rozwiązań, w tym nowych modeli pecetów oraz systemów cyberbezpieczeństwa.

Tomasz Gołębiowski, Berlin

Oile sztuczna inteligencja to znakomity temat do dyskusji i prezentacji, o tyle prawdziwy biznes wciąż leży gdzie indziej. Tegoroczny zjazd producentów, dystrybutorów i integratorów na zaproszenie Canalysa bezsprzecznie dowiódł, że wielki strumień dolarów, jakie hiperskalerzy czy fundusze inwestycyjne przeznaczają na zakup i finansowanie startupów zajmujących się projektami AI, jak na razie omija tradycyjny kanał sprzedaży IT. Znamiennym przykładem jest OpenAI, które jest beneficjentem wyjątkowej hojności gigantów technologicznych, w tym Microsoftu, Apple’a czy Nvidii. W najnowszej, październikowej rundzie finansowania, wycena twórcy ChataGPT podskoczyła do 157 mld dol., podczas gdy jeszcze w lutym br. było to 80 mld dol. Co ciekawe, wygląda na to, że OpenAI w ciągu najbliższych kilku lat nie przyniesie ani dolara zysku. Według dziennikarzy The Information, powołujących się na wewnętrzne dokumenty firmy, profity pojawią się dopiero w 2029 r., przy przychodach przekraczających 100 mld dol.

które spowoduje rynkowy przełom, zapewniając użytkownikom biznesowym realny zwrot z inwestycji w AI, a integratorom możliwość sprzedaży i generowania marży. Z drugiej strony producenci starają się przekonać, że sztuczna inteligencja ma duży potencjał biznesowy, który w końcu się objawi, choć później niż wydawało się to jeszcze rok temu.

AI PC, których sprzedaż będą stymulowały nowe „okienka”.

Do 2027 roku

część integratorów zrezygnuje ze sprzedaży hardware’u.

– W kontekście AI jestem większym optymistą niż analitycy Canalysa. Mamy w tym przypadku do czynienia z transformacją, jaka miała miejsce chociażby w przypadku tradycyjnego telefonu, który przecież nie od razu zmienił się w smartfon. Dlatego uważnie obserwuję powstawanie kolejnych aplikacji na potrzeby AI PC. Copilot jest pierwszą tak znaczącą, ale najlepsza aplikacja AI dopiero przed nami. Wcześniej czy później czeka nas związane z AI wyraźne zwiększenie produktywności w biznesie, sektorze publicznym i edukacji – przekonuje Luca Rossi, prezes Grupy IDG w Lenovo.

– Globalnie ponad 250 milionów pecetów nie jest w stanie pracować w oparciu o system Windows 11, co oznacza, że w 2025 roku nastąpi duży wzrost sprzedaży w tym segmencie rynku. Co ważne, wartościowo będzie jeszcze większy niż ilościowo, ze względu na wyższe ceny nowych modeli – podkreśla Luca Rossi.

Jednocześnie producenci, dystrybutorzy i resellerzy duże nadzieje wiążą z już trwającą, ale wciąż powolną wymianą komputerów w związku z kończącym się wsparciem dla Windows 10. Jak na razie jakieś 6 na 10 pecetów wciąż pracuje w oparciu o Windows 10, a w sektorze biznesowym jest to nawet 7–8 pecetów na dziesięć. Przy czym około 20 proc. starszych komputerów w ogóle nie nadaje się do pracy pod kontrolą najnowszych „okienek”. Analitycy Canalysa spodziewają się, że przyszły rok będzie przełomowy, jeśli chodzi o przyjęcie Windows 11, co będzie związane z wymianą sprzętu na szeroką skalę.

Tymczasem na swoje zyski ze sprzedaży rozwiązań AI wciąż nie doczekali się także dystrybutorzy oraz integratorzy. Wśród uczestników tegorocznego Canalys Forum EMEA panowało przekonanie, że pomogłaby w tym aplikacja czy rozwiązanie,

Już teraz dużo mówi się o użyteczności sztucznej inteligencji w sektorze finansowym czy medycznym, ale to wciąż zastosowania niszowe, którym daleko do definicji „game changerów” na skalę całego rynku IT. Z tego względu uwaga części graczy w ekosystemie partnerskim jest skierowana na klasyczne sektory, w tym sprzedaż hardware’u, ze wskazaniem na modele

Zysków z pewnością należy też szukać w sektorze cyberbezpieczeństwa. Wydatki na ten cel w regionie EMEA mają rosnąć w kolejnych kwartałach w dwucyfrowym tempie.

– Ludziom z CrowdStrike’a należą się podziękowania za to, że dali integratorom na całym świecie znakomity pretekst, żeby odwiedzać klientów i rozmawiać z nimi o systemach bezpieczeństwa – mówił, pół żartem

n

pół serio, Steve Brazier, jeden z pomysłodawców Canalys Forum EMEA.

Klimatyczne paradoksy

Organizatorzy tegorocznego Canalys Forum EMEA nie przemilczeli konfliktu, z jakim mamy do czynienia, chcąc z jednej strony rozwijać systemy AI, co skutkuje energożernym przetwarzaniem gigantycznych ilości danych, a z drugiej strony oczekując od koncernów technologicznych, aby ich tzw. ślad węglowy stale się kurczył. Tych dwóch celów – technologicznego i klimatycznego – pogodzić się nie da, więc w kolejnych latach będziemy zapewne świadkami zaklinania rzeczywistości w tym zakresie. O tym, z jakim klinczem mamy do czynienia, świadczą konkretne dane.

– Obsługa zapytań, jakie trafiają do ChatGPT pochłania ponad 860 procent więcej energii niż wszystkie wyszukiwania w Google’u. Jednocześnie centra danych Apple’a, Google’a, Mety i Microsoftu generują obecnie przeszło 660 procent energii więcej niż było to wcześniej prognozowane – mówi Elsa Nightingale, Principal ESG Analyst w Canalysie.

Dodaje przy tym, że część dużych koncernów technologicznych likwiduje bądź zmniejsza swoje zespoły DEI (Diversity, Equity and Inclusion – przyp. red.). Z danych Canalysa wynika, że dotyczy to również integratorów. W ich przypadku 33 proc. w ogóle nie ma działu DEI, a 31 proc. wprawdzie zatrudniło takie oso-

by, ale w ostatnim czasie zmniejszyło ich liczbę, bądź zlikwidowało cały zespół odpowiedzialny za różnorodność i inkluzywność (spośród 366, którzy wzięli udział w badaniu). Wygląda na to, że w czasach spowolnienia na rynku ideologia zaczyna padać ofiarą potrzeby rentowności.

Dobrą informacją są dość optymistyczne prognozy rynkowe, co szczególnie cieszy europejskich dystrybutorów i integratorów, którzy minionych kwartałów nie mogą zaliczyć do udanych. W pierwszej połowie br. w regionie EMEA nastąpił 4-procentowy spadek wartości sprzedaży w sektorze dystrybucji i trudno za pocieszenie uznać „zaledwie” 1-procentowy spadek w przypadku integratorów. Swoją drogą w tym kontekście warto zwrócić uwagę na dane Canalysa, z których wynika, że kapitalizacja notowanych na giełdzie dużych integratorów amerykańskich wzrosła w okresie od stycznia 2022 do stycznia 2025 roku o około 20 proc., podczas gdy w przypadku integratorów europejskich mieliśmy do czynienia z 40-procentowym spadkiem giełdowej wartości.

Wracając do prognoz: według analityków Canalysa druga połowa tego roku ma w przypadku dystrybutorów zamknąć się wynikiem na poziomie plus 3 proc., zaś sprzedaż w sektorze integratorów wzrośnie o 4 proc. Nie są to wprawdzie wymarzone, dwucyfrowe wartości, niemniej dobra pas-

Prognozy Canalysa na lata 2025–2027

n Do 2027 r. światowe wydatki na sprzęt, oprogramowanie i usługi osiągną poziom 6,3 biliona dol. (a na koniec 2034 r. wartość globalnego rynku IT będzie dwa razy większa niż w 2024 r.).

n Intel podzieli się na dwie firmy, z czego jedna będzie zajmować się projektowaniem procesorów, a druga ich produkcją.

n UE będzie ograniczać całkowite zużycie energii elektrycznej w centrach danych w ramach zapobiegania jej brakom na unijnym rynku.

n Do wiodących globalnych dostawców chmury dołączą gracze z sektora GPU-as-a-service.

n Czterech spośród siedmiu dostawców infrastruktury cyberbezpieczeństwa dla dużych firm (Cisco, CrowdStrike, Google, Fortinet, Microsoft, Palo Alto Networks, Trend Micro) stworzy ścisłą światową czołówkę w tym zakresie.

n W światowej gospodarce będzie pracować 20 tys. robotów humanoidalnych.

n Biotechnologia będzie najszybciej rozwijającym się sektorem (wyprzedzając przy tym branżę IT).

n Produkcja własnych procesorów przez hiperskalerów (na ich własne potrzeby pod kątem AI), przekroczy liczbę kupowanych przez nich „obcych” jednostek GPU (co odczuje głównie Nvidia).

sa ma trwać przez kolejne miesiące 2025 r., zarówno w całej Europie, jak też na naszym, polskim rynku. Jednocześnie wciąż ekosystem partnerski będzie pełnił kluczową rolę na rynku IT – w regionie EMEA 76 proc. wszystkich transakcji w branży „przechodzi” przez partnerów – jak podkreślają analitycy Canalysa. Natomiast narastającym problemem, na który zwracają przy tym uwagę, są zbyt małe – nawet kilkukrotnie – nakłady na edukację i specjalistów, w tym fachowców od cyberbezpieczeństwa i AI, co może spowalniać dalszy rozwój rynku.

it-sa Expo&Congress:

„oktoberfest” branży security

Targi w Norymberdze to dziś największe wydarzenie dla społeczności cybersecurity na Starym Kontynencie.

n Jacek Goszczycki, Norymberga

Tegoroczne targi it-sa Expo&Congress odwiedziło blisko 26 tys. osób, a więc o jedną trzecią więcej niż w 2023 r. Rośnie też liczba wystawców – w czterech halach targowych wystawiało się 897 firm (rok temu było ich 795).

– it-sa to w tej chwili największe targi w regionie DACH nie tylko w segmencie cyberbezpieczeństwa. Po zamknięciu CeBitu stały się największym wydarzeniem wystawienniczym całej branży IT. Dla nas są szczególnie ważne, bo baramundi jest niemiecką firmą i odwiedza nas tutaj bardzo wielu obecnych klientów, jak też pozyskujemy kontakty do potencjalnych nowych użytkowników. Poza tym na it-sa mamy okazję spotkać się z naszymi partnerami, zarówno technologicznymi, jak i z kanału sprzedaży – mówi Marius Brandl, Director Sales Europe w baramundi.

Chociaż norymberskie targi są pomyślane przede wszystkim jako impreza dla regionu DACH, to z każdym kolejnym rokiem coraz bardziej wychodzą poza ten niemieckojęzyczny obszar. W oczy rzuca się fakt, że szybko rośnie liczba odwiedzających z zagranicy

– w tym roku wydarzenie gościło przedstawicieli 65 krajów. Co ciekawe, na tegorocznych targach pojawiły się stoiska narodowe Izraela, Austrii i Czech. Z kolei nasz kraj w tym roku reprezentowały cztery firmy: Dagma Bezpieczeństwo IT, Fudo Security, Labyrinth Security Solutions oraz Nacview. – Jesteśmy na tych targach, bo jest to największe tego typu wydarzenie w Europie centralnej. Jeśli dana firma poważnie myśli o wejściu na rynek niemiecki, to obecność na it-sa jest praktycznie obowiązkowa – mówi Maciej Salamoński, Business Development Manager w Nacview.

Na szczególne traktowanie mogły w tym roku liczyć wschodzące, być może przyszłe gwiazdy branży cyberbezpieczeństwa. Po raz pierwszy do dyspozycji młodych firm oddano dwie specjalne przestrzenie. Organizatorzy przewidzieli też trofea dla najbardziej wyróżniających się startupów. Nagrodę ATHENE Startup Award UP24@it-sa, o wartości 7,5 tys. euro, przyznano LocateRisk, niemieckiej firmie oferującej zautomatyzowane analizy ryzyka, korzystnie wpływające na poprawę procesów bezpieczeństwa IT. Drugie i trzecie miejsce (z nagrodą pieniężną w wysokości, odpowiednio, 5000 i 2500 euro) zajęły RedMimicry oraz CyberDesk.

Podczas dyskusji poruszano kwestie regulacji, głównie NIS 2.

Wyjątkowo bogaty był w tym roku program wykładów, obejmujący sześć forów, na które złożyło się blisko 400 prezentacji i dyskusji panelowych. Poruszano zwłaszcza kwestie dotyczące regulacji, głównie wymagań wynikających z NIS 2. Ponadto prezentowano najnowsze rozwiązania technologiczne oraz omawiano aktualne trendy rynkowe. – Goście targów pytali nas o systemy PAM powołując się przy tym nierzadko na NIS 2. Interesują się też wykorzystaniem AI, przy czym ważne dla nich jest użycie tego lokalnie, a nie w chmurze, co wynika z obawy o wyciek wrażliwych danych. W regionie DACH, z którego pochodzi większość odwiedzających, bardzo zwraca się uwagę na ochronę prywatności. Są to zwykle użytkownicy końcowi z sektora prywatnego i publicznego, choć zdarzają się też potencjalni partnerzy, integratorzy i resellerzy – mówi Miłosz Kosowski, Presales Engineer w Fudo Security. Warto dodać, że w ostatnim dniu targów Peter Hacker, szwajcarski ekspert ds. cyberbezpieczeństwa, wygłosił wykład pt. „Quo vadis cyber risks?”. Podkreślał, jak ważne jest, aby odpowiedzialność za cyberbezpieczeństwo spoczywała nie tylko na administratorach infrastruktury IT, ale także po stronie firmowych zarządów.

Przyszłoroczne targi it-sa Expo&Congress mają być jeszcze większe od tegorocznych – do czterech hal wystawienniczych dojdzie piąta. Jak twierdzą organizatorzy, ponad 80 proc. tegorocznej powierzchni wystawowej zostało zarezerwowane już teraz, więc o frekwencję są absolutnie spokojni.

HP

ambitna strategia dla Polski

HP coraz więcej inwestuje na polskim rynku, trzecim co do wielkości w regionie CEE. Celem jest zwiększenie dotarcia ze wszystkimi produktami z szerokiego portfolio tego producenta do małych i średnich firm.

Amerykański producent wie, że tego celu właściwie nie da się osiągnąć bez wzmocnienia współpracy z dotychczasowymi partnerami i pozyskania kolejnych. W samych strukturach HP trwają więc prace nad zwiększeniem zespołu sprzedażowego, aby zapewnić jeszcze lepsze wsparcie kanałowi sprzedaży, który ma się powiększać o kolejnych partnerów. Rozbudowano też sieć dystrybucji: do obecnych trzech dystrybutorów – AB, Also i TD Synnex – dołączył kolejny, którym jest Ingram Micro. – Skoro chcemy zwiększyć liczbę resellerów, to muszą oni mieć komfort współpracy z HP, a to oznacza, że musieliśmy rozszerzyć sieć dystrybucji. Ingram Micro jest naszym globalnym dystrybutorem, który do tej pory oferował w Polsce materiały eksploatacyjne oraz rozwiązania do tele- i wideokonferencji firmy Poly. Integrując Poly w naszych strukturach, po przejęciu tego właśnie producenta, powierzamy teraz Ingramowi do sprzedaży pełne

portfolio HP –  mówi Paweł Miszkiewicz, Channel Manager w HP.

Takie wzmocnienie nowego dystrybutora ma nie tylko umożliwić HP pozyskanie kolejnych partnerów do sprzedaży szerokiej gamy rozwiązań klientom z sektora MŚP. Stwarza ono przy tym szansę na wcielenie w szeregi resellerów tych firm, które, już wcześniej współpracując z Ingramem, oferowały systemy Poly. Ponadto szerszy kanał dystrybucyjny stanowi lepsze wsparcie dla dotychczasowych resellerów i integratorów rozwiązań HP.

– To dla nich dodatkowe źródło zakupów, a więc i zwiększone linie kredytowe. Ponadto partnerzy będą mieli okazję skorzystać z wiedzy i doświadczeń Ingrama związanych z Poly – mówi Paweł Miszkiewicz, podkreślając przy tym wysokie standardy obsługi partnerów przez Ingram Micro.

Wspomniane doświadczenie Ingrama w dziedzinie Poly jest o tyle ważne, że jest to marka stosunkowo mało znana w segmencie MŚP. Poly przez lata koncentrowało się na odbiorcach końcowych w części enter-

prise, podczas gdy w świadomości klientów z małych i średnich przedsiębiorstw zadomowiły się marki zdecydowanie bardziej konsumenckie.

– Oferujemy naszym partnerom treningi wiedzy na temat produktów Poly, aby śmielej szli z nimi do klientów końcowych. Organizujemy także znaczną liczbę eventów, zarówno dla resellerów, jak i użytkowników. Robimy je razem z partnerami, bądź dostają oni specjalne fundusze na ich organizację. Na takich eventach rozwiązania Poly muszą być pokazywane jako część naszego portfolio – wyjaśnia Paweł Miszkiewicz.

Dodaje, że na rynku panują bardzo dogodne warunki do tego, aby partnerzy mocniej zaangażowali się w sprzedaż mniejszych systemów tele- i wideokonferencyjnych. Choć bowiem okres lockdownów dawno za nami, to praca hybrydowa pozostała, a zainteresowanie klientów biznesowych tego typu rozwiązaniami jest dużo wyższe niż przed pechowym 2020 rokiem. Jeśli zaś chodzi o sprzedaż komputerów, to – pomimo wygórowanych oczekiwań w związku z AI PC – rynek znajduje się na razie w fazie edukacji, co odnosi się zarówno do klientów końcowych, jak i partnerów.

Sprawdź ofertę HP w Ingram Micro.

10 mitów na temat chmury

Korzystanie ze środowisk chmurowych obrosło wieloma nieprzychylnymi mitami. Eksperci GigaCloud udowadniają, że są one bezpodstawne.

Większość funkcjonujących w społeczności IT mitów dotyczących chmury publicznej zniechęca przedsiębiorców do implementacji rozwiązań, które mogłyby pozytywnie wpłynąć na rozwój ich działalności. Udokumentowane doświadczenie GigaCloud – dostawcy bezpiecznych, skalowalnych i opłacalnych usług chmurowych – pomaga obalić te mity oraz zaoferować polskim podmiotom niezawodną drogę do cyfrowej przyszłości.

Mit nr 1. Chmura jest mniej bezpieczna niż rozwiązania lokalne

Przechowywanie firmowych danych na własnych serwerach zazwyczaj charakteryzuje się mniejszym poziomem bezpieczeństwa niż w chmurze. Dostawcy usług, tacy jak GigaCloud, stosują zaawansowane szyfrowanie, uwierzytelnianie wieloskładnikowe, wiele rodzajów fizycznych zabezpieczeń, całodobowy monitoring, a także gwarantują zgodność z normą ISO 27001 oraz dyrektywą RODO.

Mit nr 2. Migracja do chmury jest zbyt skomplikowana

Z odpowiednim partnerem, takim jak GigaCloud, migracja do chmury może być płynnym procesem. Jak pokazują przykłady wielu klientów, dopasowane do ich potrzeb rozwiązania chmurowe, przyjęte jasne strategie wdrażania modelu usługowego oraz wsparcie podczas migracji pomagały im przejść do nowego środowiska przy minimalnych przestojach.

Mit nr 3. Chmura jest tylko dla korporacji

Usługi GigaCloud są przeznaczone dla przedsiębiorstw każdej wielkości, dzięki

dopasowanej do ich potrzeb ofercie elastycznych pakietów. Małe i średnie polskie firmy wdrażają rozwiązania chmurowe, aby efektywnie skalować swoje środowisko, zarządzać danymi oraz zmniejszać koszty IT – podobnie jak ich większe odpowiedniki.

Mit nr 4. Chmura jest zbyt droga

Przyjęte przez GigaCloud modele cenowe pay-as-you-go pozwalają firmom skalować stopień wykorzystania chmury w zależności od potrzeb, co oznacza, że płacą tylko za to, czego używają. Pomaga to optymalizować koszty, zamiast utrzymywać drogą lokalną infrastrukturę.

Mit nr 5. Dane w chmurze nie są prywatne

GigaCloud zapewnia, że prywatność danych jest priorytetem. Ich solidne szyfrowanie oraz zgodność z europejskimi przepisami oznaczają, że poufne informacje są w pełni chronione. Co więcej, klienci zachowują całkowitą kontrolę nad mechanizmami zarządzania swoimi danymi.

Mit nr 6. Z chmury nie mogą korzystać firmy posiadające wrażliwe dane

Podmioty z takich branż jak ochrona zdrowia, finanse czy usługi prawne często uważają, że korzystanie z rozwiązań chmurowych jest zbyt ryzykowne. GigaCloud udowodnił jednak, że spełnia surowe wymogi zgodności charakterystyczne dla tych branż, oferując rozwiązania zgodne z najwyższymi standardami bezpieczeństwa, takimi jak HIPAA i PCI-DSS.

Mit nr 7. Chmura jest zawodna Infrastruktura GigaCloud zbudowana jest z myślą o redundancji i wysokiej dostępności, zapewniając minimalne przestoje i so-

lidne plany odzyskiwania danych po awarii. Wieloletnie doświadczenie zadowolonych klientów pokazuje, że przechowywanie danych w chmurze jest często bardziej niezawodne niż tradycyjne metody.

Mit nr 8. Nad chmurą można utracić kontrolę

Przejście do chmury rzeczywiście oznacza przekazanie w pewnych aspektach kontroli stronie trzeciej, ale dotyczy to głównie zagwarantowania ciągłości pracy środowiska IT. Natomiast w przypadku współpracy z GigaCloud klienci mają zapewnioną pełną przejrzystość i kontrolę operacyjną nad ich danymi.

Mit nr 9. Chmura to chwilowy trend

Usługi chmurowe stały się podstawą nowoczesnej infrastruktury biznesowej w Polsce, a nie tylko przelotnym trendem. Jak pokazują przypadki klientów GigaCloud, którzy przyjęli rozwiązania chmurowe, doświadczyli oni długoterminowych korzyści, w tym większej skalowalności, efektywności kosztowej i zwiększonej elastyczności operacyjnej.

Mit nr 10. Środowisko chmurowe trudno dostosować do indywidualnych potrzeb

GigaCloud kładzie nacisk na rozwiązania szyte na miarę. Niezależnie od tego, czy chodzi o chmurę prywatną, publiczną czy hybrydową, zapewniona jest ścisła współpraca z klientami w celu zaprojektowania środowiska spełniającego ich specyficzne potrzeby.

Kontakt dla partnerów: Dariusz Jarosz, Partner Development Manager, GigaCloud, dariusz.jarosz@gigacloud.eu

Z A SOBY IT ZASOBY IT pod kontrolą pod

Konieczność zarządzania zasobami IT nie podlega dyskusji. Ważniejsza jest dzisiaj odpowiedź na pytanie: kto jest tylko świadkiem zmian w tym obszarze, a kto ich uczestnikiem?

Skuteczne zarządzanie zasobami IT powinno zawierać trzy elementy świadomej kontroli środowiska: procesy, odpowiednie narzędzie i zasoby. W praktyce takie zarządzanie oznacza optymalizację kosztów istniejącej infrastruktury, wyeliminowanie ze środowiska ryzyka, w tym negatywnych konsekwencji braku zgodności licencyjnych i podatności, efektywne wykorzystanie zasobów, bank wiedzy i argumentów do negocjacji z producentami, budowanie długoterminowej strategii i planowanie inwestycji w oparciu o fakty.

Warunkiem koniecznym i kluczem do takiego działania są starannie gromadzone, wiarygodne dane, bez których podejmowanie decyzji w zakresie optymalizacji operacji biznesowych, kosztów technologii, jej wykorzystania i bezpieczeństwa, jest w praktyce niewykonalne. Sztuką nie jest opieranie się na fragmentarycznych danych dla poszczególnych części środowiska bez wspólnego mianownika i kolektywne łączenie ich w obszary, ale na pełnych danych o firmowym ekosystemie informatycznym z wszystkimi metrykami, które go dotyczą. A przy tym bez względu na charakter środowiska, zarówno w kontekście sprzętu, jak i zainstalowanego oprogramowania. Kontrola to podstawa świadomego zarządzania, a trudno jest kontrolować coś co się wymyka.

Kontrola to podstawa świadomego zarządzania.

się także SaaS, chmura i kontenery. Widać również zasadniczą zmianę w próbie świadomego adresowania shadow IT w przenikających się światach on-premises i chmury, czy barier pomiędzy ITAM-em a FinOpsem. Komplementarnym rozwiązaniem stały się platformy, które obejmują wszystkie te obszary, pozwalając na gromadzenie całości danych w jednym miejscu, bez względu na źródło ich pochodzenia. Krótko mówiąc: jeden punkt czerpania wiedzy, jeden obraz o całym środowisku dla wszystkich – silnik. Rzecz jasna, silnik nie podejmie decyzji za człowieka, ale umożliwi kompetentną reakcję. Same dane także muszą być dostosowywane do zmieniających się realiów na rynku, chociażby metryk licencyjnych poszczególnych producentów. Inwestycja w rozwiązania zamknięte, które nie są aktualizowane w trybie stałym, mają ascetyczną bibliotekę albo kłopot z normalizacją jej zawartości, jest pomysłem krótkowzrocznym i zasadniczo niewiele wnoszącym do organizacji. To marnotrawstwo środków, czasu i zasobów.

nalizacji raportów dostosowanych do potrzeb różnych grup odbiorców.

Warto podkreślić wpływ rosnącej liczby regulacji dotyczących zrównoważonego rozwoju i kompleksowego zarządzania ryzykiem, gdzie wśród wymaganych wskaźników pojawia się bezpieczeństwo systemów informatycznych, zapobieganie oraz wykrywanie incydentów, monitorowanie, a także zgłaszanie podatności.

Taka hybryda wieloskładnikowych procesów i zadań wymaga od organizacji nowego podejścia w myśleniu o zarządzaniu, w tym zaakceptowania konwergencji krytycznych zespołów i funkcji w firmie. Kluczowym stało się wspólne działanie z wykorzystaniem tych samych narzędzi, poszukiwanie sposobów komunikacji i najlepszych praktyk.

Dzisiaj efektywne zarządzanie zasobami wymaga współpracy umożliwiającej dostarczanie informacji na temat danych IT w całej organizacji.

O ile kilka lat temu w zakresie zarządzania zasobami rynek skupiał się przede wszystkim na serwerach i jednostkach końcowych (desktopy, laptopy, stacje graficzne), o tyle w dobie dzisiejszego postępu technologicznego priorytetem stały

Stale istotnym aspektem pozostaje także sposób prezentowania danych poszczególnym uczestnikom procesów, częstotliwość, przejrzystość i kompleksowość rekomendacji serwowanych przez rozwiązania ITAM i możliwości perso-

Marta Greliak-Telesińska

Co dziś napędza sprzedaż

w branży cyberbezpieczeństwa?

Jeszcze nie tak dawno firmy sprzedające i wdrażające systemy bezpieczeństwa dość powszechnie stosowały w rozmowach z klientami strategię straszenia, a niektóre robią to do dziś. Czy to rzeczywiście działa na klientów?

Karol Kij

Najprościej jest sprzedawać bezpieczeństwo właśnie strasząc, ale bardzo tego nie lubię. Zdecydowanie lepiej, gdy klient sam jest świadomy swoich potrzeb. Niestety, ze świadomością u klientów jest tak sobie. W raportach po takim czy innym ataku często okazuje się, że nie można ustalić jego wektora, bo ofiara nie była w ogóle na atak przygotowana. Zwykle firmy zaczynają się interesować bezpieczeństwem dopiero, gdy same stały się ofiarą albo celem stała się ich konkurencja.

Jerzy Trzepla

Straszenie samo w sobie nie jest dobrym motorem sprzedaży, ponieważ osoba decyzyjna, reprezentująca sferę biznesu i tak tego opisywanego jej zagrożenia nie będzie czuła. Jeżeli to jest duża firma, decydent ma w niej swój dział zarządzania ryzykiem, przekazujący mu informacje, na podstawie których będzie podejmował decyzje co do inwestycji.

Natomiast jego odpowiednik z małej firmy tym bardziej jest skoncentrowany na swoim podstawowym biznesie. Chcąc przetrwać na rynku kolejny miesiąc, nie będzie się skupiał na podsuwanych mu raportach zagrożeń. Dopiero, gdy dochodzi do jakiegoś incydentu, zagrożenie może przebić się do świadomości osoby decyzyjnej.

Mirosław Mycek

Straszeniem nie jest pokazywanie konsekwencji braku zabezpieczeń i uruchamianie wyobraźni. A warto to robić. Bardzo często firmy nie zdają sobie sprawy jak poważne są konsekwencje cyberataków dla firmy. To ogromne skutki nie tylko finansowe czy wizerunkowe, ale – jak pokazują przypadki ataków na jednostki służby zdrowia – także sprawa życia. Tam, gdzie trzeba ewakuować szpital, ludzi pod respiratorami, zabezpieczenie infrastruktury rozpatruje się z zupełnie innej perspektywy.

Straszenie może być skuteczne tylko na krótką metę – Beata Kwiatkowska

Beata Kwiatkowska W budowaniu świadomości klienta straszenie może być skuteczne tylko na krótką metę. W dłuższej perspektywie będzie prowadzić do zmęczenia i zobojętnienia na zagrożenia. Obserwowałam to, gdy wchodziło

RODO. Niemal wszystkie prezentacje epatowały milionowymi karami, co z czasem już na nikim nie robiło wrażenia. Mówiąc wprost, decydenci pytają o trzy rzeczy: czy jesteśmy do tego zobligowani prawnie, co nam za to grozi i czy ktoś już za to – mówiąc kolokwialnie – „beknął”. Jeśli w rozmowach z decydentami nie będziemy się starali pokazać wartości dodanej cyberbezpieczeństwa – co ono konkretnie daje jego biznesowi – to nie zobaczy jej do momentu, aż nie zostanie zaatakowany.

Mówimy o świadomości klienta i w dyskusji pojawił się wątek trendu jeszcze bardziej niepożądanego niż „sprzedawanie poprzez straszenie”, a biznesowo bez wątpienia skuteczniejszego. Można by go chyba nazwać sprzedażą „po szkodzie”?

Karol Kij

Nie ukrywam, że gdy mamy wiedzę o ataku na jakąś organizację, to nasi handlowcy od razu próbują się z nią skontaktować. Wtedy okazuje się, że w tym samym momencie robi to 10 konkurencyjnych firm. I trudno się dziwić handlowcom, że próbują wykorzystać takie okazje, choć jednak lepiej żeby dochodziło do nich jak najrzadziej.

Paweł Wojciechowski

Kiedyś opowieści o skutecznym ataku na jakąś firmę były traktowane jak bajka o żelaznym wilku. Obecnie każdy klient ma kolegę z tej samej branży, którego to dotknęło. To zupełnie inny rynek niż

jeszcze dekadę temu i klienci są świadomi istnienia określonych zagrożeń. Oczywiście pozostaje pytanie, co klient z tą świadomością zrobi. Jaki ma apetyt na ryzyko, na ile jest związany regulacjami i jakie w związku z tym decyzje podejmie. Nawet jak kupi rozwiązanie od nas, a od integratora usługi, to nadal kwestią otwartą pozostaje, co z tym zrobi. Przy czym ważną kwestią jest „skill gap”, czyli brak specjalistów na rynku. Z naszych raportów wynika, że zdecydowana większość firm doświadczyła włamania właśnie z powodu braku odpowiednich zasobów ludzkich.

Czy to dlatego, że coraz trudniej zarządza się cyberbezpieczeństwem?

Paweł Wojciechowski

Nawet w bardzo małej firmie, gdy korzysta się z kilku aplikacji, zabezpieczenie wszystkiego wcale nie jest banalne. A co dopiero w takiej, która ma wiele oddziałów i jest grupą kapitałową, która korzysta z setek aplikacji.

Beata Kwiatkowska

W walce z cyberzagrożeniami obrońcy stoją zawsze na gorszej pozycji. Muszą chronić wszystko, pilnować każdej luki, a cyberprzestępcom wystarczy skupić się na jednym punkcie. I najczęściej tym słabym punktem jest niestety człowiek. Jeśli napastnikowi nie uda się wykorzystać żadnej technologicznej luki, zawsze pozostaje socjotechnika, która,

Beata Kwiatkowska

dyrektor ds. członkostwa wspierającego, ISSA Polska

o ile jest dobrze przygotowana, najczęściej okazuje się skuteczna.

Karol Kij

Problemem jest to, że często cyberbezpieczeństwo zrzucane jest na barki działów IT. A przecież oczekiwania wobec tych działów są zupełnie inne – mają dbać, żeby internet działał, nie było problemów z pocztą czy stroną internetową, żeby użytkownik był zadowolony. Bywa, że nawet w większych firmach brakuje działów security, a zamiast tego jest jakaś osoba z działu IT, częściowo oddelegowana do takich zadań. Ten ktoś może być świetnym administratorem, ale na security zapewne zna się tak sobie. A jeśli nawet posiada potrzebną wiedzę, to po prostu nie ma czasu, by zająć się bezpieczeństwem na poważnie.

Paweł Wojciechowski

Karol Kij

dyrektor

Działu Rozwiązań Cyberbezpieczeństwa, Atende

Mirosław Mycek

Cybersecurity Engineer & Manager Presales, Fudo Security

Optymistyczne jest to, że coraz więcej firm uważa, że powinny zatrudniać specjalistę ds. bezpieczeństwa.

Jerzy Trzepla

Jerzy Trzepla

Security

Department Director, Exclusive Networks

Paweł Wojciechowski

Channel Sales Director, Fortinet

Tyle tylko, że bardzo wiele organizacji nie jest w stanie utrzymać takiego specjalisty, bo jest on bardzo drogi. Dlatego kluczowe stają się usługi zewnętrzne.

Na pewno są też tacy klienci, których – próbując coś im sprzedać – niczym nie można przestraszyć…

Tomasz Janoś

redaktor, CRN Polska

Mirosław Mycek Spotkałem klienta, który był bardzo pewny siebie, twierdząc, że jest zabezpieczony i żadne argumenty do niego nie trafiały. Mówił, że ma spisany cały szereg procedur, więc nawet jakby wszyscy w jego firmie przestali pracować, to on na podstawie dokumentacji jest w stanie uruchomić nowy zespół, a cała operacja będzie bezpieczna i bezbolesna. Po analizie jego polityk i zabezpieczeń, jakie stosował, wykazaliśmy, że nie było u niego tak dobrze, jak mu się wydawało. I wcale nie próbowaliśmy go straszyć, pokazaliśmy, gdzie ma luki i zagrożenia oraz wskazaliśmy na rozwiązania, które mogą go zabezpieczyć przed sytuacjami, których nie przewidział. Niekiedy klientowi trudno być na bieżąco z tym, co się dzieje na rynku i w branży, dlatego warto pokazać mu, że nie ma jednego rozwiązania, które jest w stanie załatwić wszystko. Trzeba poprawnie wdrożyć co najmniej kilka i wiedzieć jak z nich korzystać. Dlatego kluczowa jest edukacja i to jest zadanie dla integratorów.

Karol Kij

Coraz więcej firm chce zatrudniać specjalistę

ds. bezpieczeństwa – Paweł Wojciechowski

wanie wszystkiego, ale to się nie udaje. Często nie ma strategii, której wynikiem byłby konsekwentny i spójny proces tworzenia zabezpieczeń. Zamiast tego kupuje się je punktowo, by odhaczyć pozycję na liście. Dlatego na początku rozmowy z klientami przekonuję ich, że nie da się kupić 2 kilogramów bezpieczeństwa, wdrożyć je i zapomnieć. Ta praca nigdy się nie skończy. Mirosław Mycek I dlatego powinniśmy pokładać nadzieję w regulacjach, które nie tylko wymuszą zakup określonego rozwiązania, ale także to, by zostało wdrożone poprawnie i działało.

Rzeczywiście, temat regulacji, z racji zapisów NIS 2, a po naszemu ustawy o Krajowym Systemie Cyberbezpieczeństwa, jest i będzie w nadchodzących miesiącach wiodący. Jak to wpłynie na rynek cyberbezpieczeństwa?

Paweł Wojciechowski

Właśnie z punktu widzenia integratora mogę podzielić się spostrzeżeniem, że niestety przedsiębiorstwa nie postrzegają bezpieczeństwa całościowo. Potrafią wziąć jeden element od jednego integratora (bo było taniej), inny od drugiego (bo coś można było szybciej wdrożyć), a potem nic ze sobą nie współpracuje. Wtedy pojawia się trzeci integrator, który proponuje zintegro-

W perspektywie długoterminowej regulacje przynoszą bardzo pozytywny rezultat, bo ostatecznie świadomość o znaczeniu cyberbezpieczeństwa trafia na poziom zarządu. Decydenci muszą się zastanowić, jakie jest ryzyko, z czym jest związane, ile muszą za to zapłacić… Z tym, że może nie od razu ruszą z zakupami – przykładem niech będzie RODO, w wypadku którego na początku był z dużej chmury mały deszcz. Jednak przecież, po pewnym czasie, świadomość konieczności ochrony danych osobowych stała się powszechna. Tak samo może być w przypadku NIS 2. Póki co – jak wynika z naszych badań – mało

firm w ogóle orientuje się, czy ustawa w ogóle je obejmie.

Karol Kij

Sytuacja bardzo się zmienia. W przypadku pierwszego NIS definicja tego, kogo miała obejmować ustawa, była ustalana arbitralnie, przez poszczególne państwa. Tymczasem NIS 2, czyli ustawa o Krajowym Systemie Cyberbezpieczeństwa, już takiej możliwości nie daje. Są konkretne kryteria, których kraj członkowski nie może zmienić i ograniczyć, a jedynie je rozszerzyć. Zupełnie odwrócony jest też proces dołączania do KSC – firma musi sama się określić, czy ma być objęta ustawą. A podmiotów kwalifikujących się będzie znacznie więcej i w dodatku obejmie to też ich łańcuch dostaw.

Beata Kwiatkowska

Moim zdaniem w NIS 2 znalazły się takie zapisy, które wreszcie zmotywują poszczególne organizacje, a przede wszystkim ich zarządy. Liczę szczególnie na te paragrafy, które mówią o osobistej odpowiedzialności kierownictwa. Nie będą to już tylko kary nałożone na organizację, a prawda jest taka, że każdy zarząd ma rezerwę firmową, odłożoną na wypadek takich zdarzeń, albo ubezpieczenie. Indywidualna, osobista odpowiedzialność i to zarówno materialna, jak i funkcyjna, powinna zmienić podejście. Przecież ktoś może w konsekwencji incydentu stracić stanowisko i otrzymać zakaz sprawowania podobnych funkcji przez określony czas. A to może zaboleć. Wizja tego może wreszcie spowodować, że zarządy zaczną słuchać swoich własnych i zewnętrznych „bezpieczników”.

Paweł Wojciechowski

Przepisy są znane już od dłuższego czasu, ale wiele firm wstrzymuje się

do czasu wejścia w życie legislacji. Nie wiadomo też jak długie będzie vacatio legis. My rekomendujemy, żeby z tym absolutnie nie zwlekać. Bo najpierw nauczenie się nowych przepisów, a potem dostosowanie się w pełni do ustawy KSC to nie będzie krótki okres. W trzy miesiące się tego nie da załatwić. A już wiadomo, że wiele firm nie będzie w stanie sobie z tym poradzić samemu i będzie zmuszona zwrócić się po pomoc do integratorów. Dlatego właśnie integratorzy muszą już być gotowi. Powinni znać KSC, a więc wiedzieć jakie narzędzia i procesy chcą klientowi zaproponować. Kiedy więc klienci się w końcu obudzą, wygrają ci partnerzy, którzy mają pomysł i są w stanie zapewnić sobie skalowalność.

Czyli można spodziewać się ruchu w interesie w związku z NIS 2, ale nie od razu? Wspomniane RODO raczej nie spełniło pokładanych przez branżę nadziei na duży wzrost sprzedaży… Mirosław Mycek

Pamiętam, jak kilka lat temu klienci interesowali się, czy nasz produkt jest „zgodny z RODO”. Przede wszystkim pokazywało to brak zrozumienia istoty ustawy i sposobów osiągania z nią zgodności. W związku z tym trzeba było tłumaczyć klientom, jak działa nasze rozwiązanie i jak pozwala zwiększyć bezpieczeństwo, by problemów z RODO nie było. Ostatecznie jednak trzeba przyznać, że ustawa trochę ten rynek popchnęła do przodu, nawet jeśli oczekiwania były większe.

Jerzy Trzepla

W przypadku dyrektywy NIS 2 – podobnie jak było z RODO – wiele firm i instytucji, przynajmniej na początku, nie zainwestuje w rozwiązania bezpieczeństwa, tylko wprowadzi procedury. Ja-

kiś ekspert się pod tym podpisze, rzecz zostanie odhaczona i przygotowana na wizytę audytora. Jednak mimo to pokładam w ustawie ogromną nadzieję, że po jakimś czasie pójdą za nią konkretne działania, obejmujące wiele podmiotów. Powinien wystąpić efekt kuli śnieżnej, choć uważam, że nie stanie się to w perspektywie miesięcy, tylko lat. Beata Kwiatkowska Rzeczywiście w przypadku RODO był wysyp firm, które oferowały procedury „na półkę” za 750 zł. Wielu klientów z tego skorzystało, tylko po to, żeby mieć podkładkę dla audytora. Tymczasem oferty z prawdziwego zdarzenia kosztowały kilkanaście razy więcej. Jeśli chodzi o oczekiwania wobec NIS 2, to trzeba wspomnieć o obietnicach Ministerstwa Cyfryzacji, dotyczących zwiększenia wydatków na cyberbezpieczeństwo oraz o funduszach z KPO. Paweł Wojciechowski Tym, co powinno zachęcać do osiągania zgodności jest także to, że NIS 2 to nie tylko groźba kar. Niewiele mówi się o tym, że podmiot objęty ustawą będzie mógł korzystać z wyników monitoringu bezpieczeństwa danej branży, który prowadzić będą specjalnie powołane do tego organizacje. To jest wpisane w ustawę, a więc mamy nie tylko kij, ale też marchewkę.

Niestety przedsiębiorstwa nie postrzegają bezpieczeństwa całościowo – Karol Kij

ta e-mail będzie przychodzić z opóźnieniem, to pewnie pojawią się jakieś pretensje, ale świat się nie zawali. Natomiast na linii produkcyjnej ułamek sekundy może sprawić, że cała partia towaru trafi na przemiał. W OT inaczej wyglądają też procesy inwestycyjne. Na linię produkcyjną, która powstała 15 lat temu, wydano tyle, że mogła się jeszcze nie zwrócić. Dlatego nikt nie podejmie decyzji o przebudowaniu sieci, bo ryzyko jest za duże. Trzeba to robić rozważnie, są jednak technologie – decepcji, honeypottingu czy monitoringu – które sprawdzają się w zabezpieczaniu istniejących sieci OT. Paweł Wojciechowski Cyfryzacja postępuje i wraz z nią połączenie IT z OT. Bywa, że wciąż stosuje się fizyczną separację, ale coraz rzadziej. Tworzy się funkcję CISO w głównej mierze po to, żeby właśnie świat OT był bezpieczny. Dlatego ktoś, kto ma doświadczenie z IT, może je dobrze wykorzystać w sieciach przemysłowych. Choć oba światy się różnią, to technologie z IT mogą być użyte w OT – segmentacja sieci, firewalle itp. Nie można tego dotykać, więc zabezpieczenia powinny być na zewnątrz. Integracja IT z OT ewidentnie napędza naszą branżę, a regulacje to jeszcze dodatkowo przyspieszą.

Mirosław Mycek

NIS 2 obejmie wiele firm z sektora przemysłowego. Czy dla specjalistów od cyberbezpieczeństwa wejście w świat OT może być szansą na biznes?

Jerzy Trzepla

Trzeba sobie zdawać sprawę, że IT i OT to dwa bardzo różne światy. Jeśli pocz-

Kiedyś oba środowiska były zupełnie odseparowane, teraz się coraz bardziej łączą. Czymś, co w naturalny sposób pozwala chronić zarówno IT, jak i OT, są rozwiązania bezagentowe. Nie trzeba wtedy nic robić po stronie sterownika, którego producent i tak nie pozwala

niczego dotykać. Rozmowy z klientami nie są łatwe, bo osoby odpowiedzialne za automatykę najchętniej nadal wybierałyby separację, chcąc oddzielnych systemów dla IT i OT. Postęp wymusza jednak zmiany.

Jerzy Trzepla

Także integratorzy mają jeszcze sporo do zrobienia. Przede wszystkim, żeby rozmawiać z przedstawicielami świata OT, trzeba ten świat dobrze poznać. Trzeba się wyzbyć starych przyzwyczajeń.

Karol Kij

Powinniśmy pokładać nadzieję w regulacjach, które wymuszą zakup określonego rozwiązania

– Mirosław Mycek

I być może łatwiej będzie poznać cybersecurity tym, którzy obecnie zajmują się automatyką, niż odwrotnie – wejść do świata OT komuś, kto zjadł zęby na zabezpieczaniu IT.

Beata Kwiatkowska Metodyki ze świata IT rzadko kiedy pasują do OT i nawet jeśli narzędzia są podobne, to trzeba mieć wiedzę z zakresu automatyki. Dlatego dla integratora, który nie rozpoczął swojej przygody z automatyką ileś lat temu i nie ma ludzi doświadczonych w tym obszarze, może być już trochę za późno, by robić biznes w sferze OT. No chyba, że ma spore środki na inwestycje, by takich ludzi z rynku pozyskać.

Spotkałem się z opinią, że podnieść poziom bezpieczeństwa mogą nie tylko regulacje, ale także cyberpolisy. Choć nasza branża ubezpieczeniowa na razie raczkuje w obszarze IT, to przecież w końcu i tam zacznie robić większy biznes. A wtedy ubezpieczający się będzie musiał spełnić wiele warunków w zakresie cyberbezpieczeństwa, żeby nabyć polisę za rozsądne pieniądze…

Z doświadczenia wiem, że nie jest łatwo dostać cyberpolisę. Ubezpieczyciel nie ubezpieczy tak po prostu kogoś, nie wiedząc jaki poziom ryzyka reprezentuje. Trzeba wypełnić ankietę i wykazać się procedurami oraz tą analizą ryzyka, która jest wymagana w kontekście dyrektywy NIS. Przykładowo, brak uwierzytelniania dwuskładnikowego pozbawia szans na otrzymanie cyberpolisy. Dlatego właśnie ubezpieczenie może być dodatkowym motorem wdrażania potrzebnych procedur i rozwiązań.

Jerzy Trzepla

W swojej pracy spotkałem się z przypadkiem, gdy działająca globalnie korporacja wprowadzała pewne zabezpieczenia lokalnie, a mówiąc konkretnie zamawiała centra zapasowe po to, by mieć zniżkę na cyberpolisę. A więc ubezpieczenie miało ten pozytywny efekt, że podnosiło poziom bezpieczeństwa ubezpieczonego przedsiębiorstwa.

Beata Kwiatkowska

Tyle tylko, że „bezpiecznicy” mówią: jak już spełnimy wszystkie warunki, wdrożymy wszystkie procedury i rozwiązania, to po co nam polisa? W dodatku polisa zabezpiecza tylko przed stratami finansowymi, a co z reputacją i wszystkimi innymi, mniej wymiernymi szkodami? Ponieważ to wszystko ubezpieczający i tak musi wziąć na siebie, to polisa przestaje być atrakcyjnym rozwiązaniem.

Karol Kij

Niekoniecznie musi brać na siebie tyle rzeczy, bo ubezpieczenie może zapewnić taką obsługę po ataku, a będzie ona dotyczyć nie tylko przywrócenia działania, ale także działań prawnych, komunikacji medialnej itp. Wiem jednak, że jest wielu klientów zainteresowanych cyberpolisami, ale niewielu je dostaje.

Mirosław Mycek

Bywa, że posiadanie cyberpolisy jest wymagane przez kontrahenta. To mu daje gwarancję, że druga strona posiada odpowiednie procedury i zabezpieczenia. Gdyby takie coś się upowszechniło, to rynek ubezpieczeń IT mocniej by ruszył.

Paweł Wojciechowski

Oczywiście, ubezpieczenie nie może zastępować strategii cyberbezpieczeństwa, bo nawet jeśli jest w stanie likwidować szkody po ataku, to nie zwróci czasu przestoju i nie cofnie wielu innych niedogodności. Dlatego cyberpolisa może być rozumiana tylko jako dodatkowa asekuracja.

Zarówno NIS 2, jak i ubezpieczyciel w ankiecie do cyberpolisy wymaga szkoleń pracowników w zakresie cyberbezpieczeństwa. A to dla integratora możliwość poszerzenia oferty o takie usługi…

Jerzy Trzepla

Jak najbardziej i z myślą o tym przygotowaliśmy już jakiś czas temu katalog szkoleń, które nasi partnerzy mogą sprzedawać w formie usługi. Ponieważ są one świadczone w takiej formie, to integrator nie musi budować kompetencji, tworzyć platformy edukacyjnej itp. Paweł Wojciechowski

Budowanie świadomości powinno się odbywać na każdym kroku, nie tylko poprzez szkolenia. Przykładowo, nic tak

dobrze nie uczy, jak symulowane przez działy IT ataki phishingowe.

Karol Kij

Tylko koniecznie trzeba je robić z głową, ponieważ księgowość ma inny zakres zagrożeń niż dział HR. Symulowanym atakiem objęty powinien być także zarząd. Wszystko musi być dobrze przemyślane i powinna to być strategia, a nie punktowe wysyłanie pojedynczych fałszywych mejli. Nie może to też skutkować wytykaniem palcami kogoś, kto dał się złapać, bo ten ktoś może potem bać się otwierać prawdziwe mejle.

A te fałszywe od prawdziwych bywają nie do odróżnienia, co dzieje się ostatnio także za sprawą sztucznej inteligencji.

Beata Kwiatkowska

To prawda, kiedyś phishingowy mejl był napisany bardziej „po polskiemu” niż po polsku. Teraz te mejle są już tak dopracowane, że trudno się nie nabrać. Duże modele językowe bardzo się przydają cyberprzestępcom. Są oni w stanie przygotować phishing w dowolnym języku, poprawny gramatycznie i stylistycznie w krótkim czasie i niskim nakładem kosztów. Również dzięki AI cyberprzestępcy automatyzują procesy wykrywania podatności i pisania malware’u. W takim kontekście sztuczna inteligencja robi złą, z naszego punktu widzenia, robotę.

Także po tej naszej, dobrej stronie oferuje się wiele rozwiązań „ze wsparciem sztucznej inteligencji”.

Paweł Wojciechowski

Tak się dzieje, bo gdy chodzi o cyberbezpieczeństwo, to mamy zawsze do czynienia z wyścigiem. Jeśli jedna strona korzysta z AI, musi to robić także druga. Producenci zabezpieczeń wy-

korzystują ją do wykrywania anomalii i automatyzowania działań. Każdy vendor musi to już mieć, bo człowiek bez takiego wsparcia nie jest w stanie przerobić ogromnej ilości napływających informacji.

Mirosław Mycek

Mamy klientów, którzy do analizy mają nie kilka, tylko kilka tysięcy sesji zdalnych. Oczywiście nie ma możliwości, by zatrudnić tylu administratorów do oglądania każdej sesji. Bardzo pomaga w tym AI, która automatycznie wykrywa anomalie i może nawet podjąć działanie zgłoszenia czy przerwania podejrzanej sesji – zgodnie z tym, co skonfigurował administrator. Przy czym zwykle włącza się blokowanie dostępu. Przecież lepiej, gdy użytkownik odezwie się do administratora z prośbą o przywrócenie łączności, jeśli alarm jest fałszywy, niż gdyby miało dojść do jakichś szkód, gdyby alarm był prawdziwy.

Paweł Wojciechowski

W przypadku dyrektywy NIS 2 wiele firm zacznie nie od zakupów, ale procedur

– Jerzy Trzepla

do analizy gdzieś na zewnątrz. My działamy w oparciu o własny model i biometrykę. Nasza AI potrafi się nauczyć, jak użytkownik porusza myszką, jak pisze na klawiaturze, jakich poleceń używa itp. Potem może reagować praktycznie w czasie rzeczywistym. Oczywiście nie działa od razu – „wprost z pudełka”, bo musi się tych wszystkich zachowań nauczyć. Po czym, w ten sposób, znacznie wzmacnia poziom bezpieczeństwa kont uprzywilejowanych.

Modele AI trzeba udoskonalać, bo inaczej walka z cyberprzestępcami będzie przegrana. Właśnie na przykładzie NIS 2 można obserwować, jak cyberbezpieczeństwo obejmuje coraz większe obszary rynku i bez automatyzacji wspartej przez AI nie będzie można tego wszystkiego obsłużyć.

Mirosław Mycek

Trzeba przy tym zdawać sobie sprawę, że często wykorzystuje się generatywną sztuczną inteligencję, która jest w chmurze. A przecież w systemach cyberbezpieczeństwa ważne jest – i klienci nas o to pytają – czy dane są wysyłane

Karol Kij Użycie sztucznej inteligencji może mieć dodatkowy pozytywny efekt. Żeby AI dobrze wykrywała anomalie, środowisko IT musi być uporządkowane. Jeśli nie ma wzorców i procedur, to sztuczna inteligencja na nic się nie przyda. Przykładowo, gdy nie mamy ustalonej nomenklatury, to AI nie pokaże, że pojawiło nam się konto, które nie pasuje do reszty. W takim kontekście sztuczna inteligencja wymusza zrobienie u siebie porządku.

Beata Kwiatkowska

Pod warunkiem, że organizacje będą tę potrzebę rozumieć. Widzę niebezpieczeństwo w tym, że często przedstawia się sztuczną inteligencję jako panaceum i w dodatku jako coś, co zrobi za nas całą robotę. A przecież wciąż potrzebny jest człowiek, jego wiedza i doświadczenie.

Rozmawiał Tomasz Janoś

WBotGuard: pogromca złośliwych

botów

Większość organizacji w ostatnim czasie koncentruje się na ochronie przed atakami ransomware czy DDoS. Jednak w ich cieniu czają się inne poważne zagrożenia, w tym złośliwe boty.

internecie roi się od botów, czyli zautomatyzowanych programów przeznaczonych do realizacji powtarzalnych i pracochłonnych zadań, takich jak indeksowanie stron czy obsługa klienta. Na ogół boty nie wywołują negatywnych skojarzeń, aczkolwiek warto sobie uzmysłowić, że istnieją również ich złośliwe odmiany. Co gorsza, tych złych jest więcej niż pożytecznych: jak wynika z badania przeprowadzonego przez Akamai, boty tworzą 42 proc. całkowitego ruchu internetowego, w tym aż 65 proc. należy do grupy złośliwych.

Szkodliwe boty mogą niejednokrotnie przyprawić dostawców usług hostingowych i właścicieli serwisów internetowych o zawrót głowy. Zbyt duża liczba botów może obciążyć serwer, a tym samym spowolnić działanie strony. Taka sytuacja staje się szczególnie kłopotliwa w okresie przedświątecznym, kiedy panuje gorączka zakupów. Nawet stosunkowo niewielkie opóźnienia sprawiają, iż konsumenci nie czekają na otwarcie strony i skorzystają z oferty konkurencyjnego sklepu online. Analitycy z Akamai uważają, że właśnie branża e-commerce, gdzie kluczową rolę odgrywają aplikacje internetowe, jest najbardziej narażona na tego rodzaju incydenty.

Boty mogą być również wykorzystane do kradzieży treści, danych cenowych, a także wrażliwych informacji o użytkownikach. Poza tym potrafią one wykorzystywać luki, będące następstwem nieaktualizowanego oprogramowania lub słabych zabezpieczeń logowania. Boty omijają wbudowane funkcje bezpieczeństwa w formularzach logowania do aplikacji internetowych, próbując wie-

lu jednoczesnych logowań z różnych typów urządzeń i adresów IP. Inny, nieco rzadziej dostrzegany problem, wiąże się z przekłamanymi analizami – niechciane boty zniekształcają analitykę internetową, zawyżając liczbę gości odwiedzających stronę, co znacznie utrudnia ocenę rzeczywistego zachowania i zaangażowania użytkowników. – Złośliwe boty nie stanowią większego problemu dla firm korzystających z prostych, statycznych stron. Niemniej w przypadku zaawansowanych witryn, wymagających częstego logowania, zawierających ważne dane czy właśnie sklepów internetowych, działalność botów może być nie tylko dokuczliwa, ale też nieść ze sobą poważne konsekwencje z utratą zysków włącznie – tłumaczy Artur Cyganek, Regional Sales Director w BotGuard (Europa Wschodnia, Grecja i Turcja).

Jednym z najprostszych sposobów na powstrzymanie botów indeksujących jest plik robots.txt, informujący, które strony lub sekcje witryny powinny być pominięte. Niemniej złośliwe boty często ignorują tę regułę. Natomiast w przypadku formularzy rejestracyjnych zabezpieczeniem jest CAPTCHA – technika dopuszczająca przesłanie danych wprowadzonych przez człowieka. Na rynku dostępne są też specjalistyczne produkty chroniące serwisy internetowe przed złośliwymi botami. Jednym z dostawców takich rozwiązań jest estoński startup BotGuard, który niedawno podpisał umowę dystrybucyjną z krakowskim Bakotechem.

– Chcemy zainteresować naszą ofertą zarówno dostawców Managed Security Service Provider, jak i resellerów oferujących systemy bezpieczeństwa IT. Z naszych obserwacji

wynika, że rozwiązania chroniące witryny internetowe przed atakami złośliwych botów nie zadomowiły się jeszcze na polskim rynku. Między innymi dlatego warto włączyć je do oferty i popularyzować zwłaszcza wśród małych i średnich firm, które na ogół nie zdają sobie sprawy z wszechobecnych zagrożeń czyhających na ich witryny internetowe – tłumaczy Artur Cyganek.

Jak wynika z danych Markets and Markets, na przestrzeni lat 2021-2026 rynek rozwiązań „bot security” będzie rósł w średnim tempie 19,2 proc. rocznie. Według prognoz w 2026 r. jego wartość sięgnie 983 mln dol. Wzrost ten jest przypisywany eskalacji rozpowszechnienia złego ruchu botów i wynikającej z tego utraty przychodów. Inwestowanie w rozwiązania bezpieczeństwa w kontekście botów staje się nie tylko kwestią ochrony przed zagrożeniami cybernetycznymi, ale także ochrony wyników finansowych. Firmy i instytucje przywiązują dużą wagę do ochrony warstwy 4 (transportowej), obsługującej dostarczanie danych między sieciami za pomocą protokołów takich jak TCP i UDP. W ten sposób skupiają się na kierowaniu pakietów do ich właściwego miejsca docelowego w oparciu o adresy IP i numery portów, zapewniając, że dane docierają w stanie nienaruszonym. Natomiast często zdarza się, że bagatelizują ochronę w warstwie 7 (aplikacji). Zdaniem Artura Cyganka należy większą uwagę poświęcić właśnie tej warstwie ze względu na jej zdolności do sprawdzania i zarządzania ruchem.

Kontakt dla partnerów:

Cyberbezpieczeństwo:

następuje dryf w kierunku usług

Zmagania organizacji z hakerami przypominają walkę z wiatrakami. Jednym ze sposobów na zwiększenie szans w tej nierównej rywalizacji jest sięgnięcie po posiłki z zewnątrz. n Wojciech Urbanek

Wostatnich miesiącach miało miejsce wyraźne nasilenie ataków na sektor zdrowotny. Szacuje się, że dotknęło go od 15 do 18 proc. cyberataków przeprowadzonych na całym świecie. W Stanach Zjednoczonych aż 67 proc. placówek medycznych zgłosiło incydenty związane z cyberprzestępczością. Informacje o pacjentach, diagnozy, wyniki badań czy historie leczenia stały się łakomym kąskiem dla hakerów. – Wiele placówek zdrowotnych nie inwestuje wystarczająco w systemy zabezpieczeń. Budżety są zbyt niskie, by chronić infrastrukturę IT na odpowiednim poziomie, a brak zaawansowanych narzędzi sprawia, że hakerzy łatwo mogą przenikać do systemów –  mówi Przemysław Wójcik, CEO warszawskiego AMP. Z bardzo podobnymi problemami mierzą się również jednostki samorządu terytorialnego, a także tysiące małych i średnich firm, których nie stać nie

Klienci oczekują kompleksowej oferty i certyfikatów.

tylko na inwestycje w nowoczesne narzędzia bezpieczeństwa IT, ale także zatrudnienie wysokiej klasy specjalistów. Szczególnie trudna do rozwiązania jest ta ostatnia kwestia. Według organizacji branżowej ISC2 do zapewnienia potrzeb w dziedzinie cyberbezpieczeństwa na całym świecie potrzeba około 4 milionów dodatkowych specjalistów. Natomiast w ubiegłym roku w Polsce na przedstawicieli tej profesji czekało 10 tysięcy miejsc pracy. Jak się łatwo domyślić, jednostek budżetowych czy mniejszych przedsiębiorstw, dysponujących zazwyczaj skromnymi budżetami IT, nie stać na zatrudnienie fachowców od cyberbezpieczeństwa. Trudno się przy tym spodziewać, że najbliższe lata przyniosą zmiany na lepsze. Poza tym nowoczesne narzędzia, co pokazują przykłady EDR czy XDR, muszą być obsługiwane przez wykwalifikowanych specjalistów. Z kolei w przypadku większych fi rm bądź instytucji dodat-

kowym wyzwaniem jest konsolidacja produktów bezpieczeństwa IT pochodzących od wielu dostawców. W ekstremalnych przypadkach ich liczba przewyższa nawet setkę. Podczas ataku wszystkie alerty świecą niczym choinka, a analityk bezpieczeństwa musi podjąć decyzję w mgnieniu oka. Wprawdzie producenci sprzętu oraz oprogramowania podejmują szereg działań, których celem jest edukacja specjalistów, ale to raczej nie wystarczy, aby sprostać piętrzącym się trudnościom. Część ekspertów pokłada nadzieję w sztucznej inteligencji, która może uprościć obsługę systemów bezpieczeństwa.

– Na rynku dostępne są platformy online, które bazując na mechanizmach sztucznej inteligencji, umożliwiają sprawne przeprowadzanie audytów i podejmowanie niezbędnych środków w nieosiągalnym wcześniej tempie. Niektóre z nich w sprzyjających okolicznościach mogą stanowić silną konkurencję dla firm zewnętrznych, zajmujących się badaniem zgodności z wymogami całej gamy norm i dyrektyw – mó-

wi Patryk Kwaśny, Sales Manager w Net Complex.

Jednak nie brakuje opinii, że sztuczna inteligencja nie stanie się panaceum na brak specjalistów ds. cyberbezpieczeństwa. W ich świetle, jeśli coś staje się proste, to cyberprzestępcy poszukują zaraz nowych, bardziej wyrafinowanych metod ataku, a co za tym idzie kwestie związane z obroną zaczynają się komplikować.

Rośnie rola ekonomii współdzielenia.

W świecie biznesu wzrasta roli ekonomii współdzielenia, gdzie nie tyle liczy się posiadanie na własność, co dostęp i użytkowanie. Z ekonomii subskrypcji próbuje z różnym skutkiem korzystać branża IT. Nie w każdym segmencie ten model zdaje egzamin, aczkolwiek w przypadku cyberbezpieczeństwa wydaje się to być dość racjonalny wybór. Jak wynika z danych Canalysa w bieżącym roku globalne wydatki na „Security as a Service” wyniosą 163,3 mld dol. – o 12,9 proc. więcej niż w 2023 r.

– Przyszłość cyberbezpieczeństwa w Polsce prawdopodobnie będzie zmierzać

Zdaniem integratora

n Michał Płocharski, CTO, SprintTech

w kierunku oferowania usług zamiast sprzedaży pojedynczych produktów. Klienci coraz częściej mogą decydować się na kompleksowe usługi bezpieczeństwa, które pozwolą im na scedowanie na dostawcę odpowiedzialności za dobór i zarządzanie technologiami stosowanymi do ochrony ich infrastruktury

– mówi Anna Piechocka, dyrektor zarządzająca w Dagma Bezpieczeństwo IT. Co istotne, firmy oraz instytucje działające na polskim rynku wydają coraz więcej pieniędzy na cyberbezpieczeństwo. W 2023 r. było to 800 mln dol., co oznacza 15 proc. wzrost w ujęciu rocznym. Co istotne, korzystny trend powinien utrzymać się w nadchodzących latach.

Małe i średnie przedsiębiorstwa stanowią liczną grupę usługobiorców w sektorze cyberbezpieczeństwa. Według ubiegłorocznego raportu „Cybersecurity for SMEs”, przygotowanego przez European Union Agency for Cybersecurity, MŚP stają się bardziej podatne na cyberataki i w związku z tym coraz częściej sięgają po wsparcie ze strony zewnętrznych usługodawców. Co ważne, również duże podmioty będą kontynuować korzystanie z usług zewnętrznych. Przykładowo, korporacje w sektorze energetycznym współpracują z firmami konsultingowymi, aby wspierać swoje wewnętrzne zespoły bezpieczeństwa, zwłaszcza w zakresie zaawansowanych analiz i reagowania na incydenty. Duże organizacje często wymagają specjalistycznych usług, które trudno utrzymać wewnętrznie na stałe, co sprawia, że współpraca z zewnętrznymi dostawcami jest dla nich korzystna, zarówno pod względem kosztów, jak i efektywności.

n Grzegorz Gąsiewski, analityk systemowo–biznesowy, Perceptus

– W 2024 roku odnotujemy kolejny prognozowany wzrost wydatków na cyberbezpieczeństwo przez organizacje z sektora obronnego, rzędu blisko 14 procent. Chęć utrzymania trendu wzrostowego potwierdza również czerwcowa wypowiedź ministra cyfryzacji, który zapowiedział, że w najbliższym czasie zostanie wyasygnowane dodatkowe 3 miliardy złotych na inwestycje w polskie cyberbezpieczeństwo

mówi Patryk Kwaśny.

Regulacje sprawiają, że firmy oraz instytucje finansowe są zmuszone korzystać z usług firm zewnętrznych w obszarze cyberbezpieczeństwa, zwłaszcza tam, gdzie brakuje wykwalifikowanych pracowników. NIS 2 wymusza na firmach wdrożenie środków zarządzania ryzykiem oraz zgłaszania incydentów cyberbezpieczeństwa. Wymaga to zaawansowanych rozwiązań, co w wielu przypadkach prowadzi do outsourcingu specjalistycznych usług cyberbezpieczeństwa, takich jak chociażby Security Operations Center. Z kolei DORA wprowadza obowiązki związane z monitorowaniem i testowaniem cyberbezpieczeństwa. W rezultacie wiele instytucji finansowych zacznie korzystać z usług dostawców rozwiązań do monitorowania i raportowania.

Jednym z czynników napędzających popyt na usługi cyberbezpieczeństwa jest dyrektywa NIS 2. Według badania przeprowadzonego przez EY Polska na początku bieżącego roku co czwarta polska firma nie miała świadomości, że będzie podlegać tej regulacji. W związku z tym istnieje niemałe prawdopodobieństwo, że przedsiębiorcy zaczną wdrażać potrzebne rozwiązania dopiero na ostatnią chwilę.

Zdaniem specjalisty

– W takiej sytuacji może okazać się, że zasoby własne konkretnej organizacji są niewystarczające. Współpraca z firmą zewnętrzną może przyśpieszyć procesy wdrożeniowe, ale nie jest jedynym rozwiązaniem, nawet w przypadku późno podejmowanych działań – podkreśla Patryk Kwaśny.

Również rządowy projekt „Cyberbezpieczny Samorząd”, którego celem jest wparcie jednostek samorządu terytorialnego w zakresie bezpieczeństwa IT, może przyczynić się do wzrostu popularności usług wśród takich właśnie placówek. Według CERT, w ubiegłym roku odnotowano 1192 groźnych incydentów w urzędach, co oznacza wzrost o 102 proc. w ujęciu rocznym.

Piotr Kawa, Business Developement Director, Bakotech

Uważam, że największą przeszkodą w adaptacji usług cyberbezpieczeństwa jest edukacja. Wiele firm nadal nie zdaje sobie sprawy z zagrożeń i nie poświęca im należytej uwagi. Do tego dochodzi przywiązanie do własnych rozwiązań. Wiele firm woli mieć „wszystko u siebie”, nawet jeśli oznacza to niższy poziom bezpieczeństwa. Natomiast wysoko oceniam poziom usług świadczonych przez firmy zewnętrzne. Na polskim rynku działa wielu profesjonalnych usługodawców stale rozwijających i wprowadzających innowacyjne rozwiązania. Małe i średnie przedsiębiorstwa mają spore trudności z zatrudnianiem specjalistów ds. cyberbezpieczeństwa. Outsourcing lub współpraca z Managed Security Service Providerami stanowi w tej sytuacji naturalne rozwiązanie. W związku z tym spodziewamy się, że MŚP będą stanowić coraz liczniejszą grupę usługobiorców. Oczywiście duże podmioty również korzystają z wyspecjalizowanych usług zewnętrznych, choć zazwyczaj na mniejszą skalę aniżeli ma to miejsce w przypadku mniejszych przedsiębiorstw.

Tomasz Jedynak, Cybersecurity Sales Specialist, Cisco Najliczniejszą grupę usługobiorców w obszarze cyberbezpieczeństwa stanowią i będą stanowić małe i średnie przedsiębiorstwa. Wiele z nich nie zatrudnia etatowych specjalistów ds. bezpieczeństwa, co sprawia, że sięgają po usługi zewnętrzne. Natomiast w przypadku dużych podmiotów sytuacja jest nieco inna. Choć mogą być zainteresowane outsourcingiem pewnych usług, to zazwyczaj nie będą decydować się na całkowite przekazywanie wszystkich działań związanych z bezpieczeństwem na zewnątrz. Z naszych doświadczeń wynika, że większe firmy preferują utrzymywanie pewnego poziomu kontroli nad swoimi operacjami i bezpieczeństwem, zlecając na zewnątrz jedynie wysoce wyspecjalizowane usługi, takie jak analiza incydentów czy ocena ryzyka.

– Większość jednostek samorządu terytorialnego nie posiada wysoko wykwalifikowanej kadry, która byłaby w stanie obsługiwać zaawansowane systemy cyberbezpieczeństwa. Jednostki publiczne mniejszego szczebla mają problem z pozyskaniem administratorów do codziennej obsługi, a eksperci z dziedziny cyberbezpieczeństwa są poza ich zasięgiem finansowym. Cyberbezpieczny Samorząd to dla nich szansa, by zabezpieczyć to wszystko, z czym do tej pory sobie nie radziłymówi Łukasz Zajdel, dyrektor sprzedaży w Perceptusie.

Od minimalizmu do profesjonalizmu

Organizacje

i branży, w jakiej działają klienci. Zdarzają się przypadki, kiedy firmy mają minimalne wymagania, aby otrzymać odpowiedni dokument potwierdzający zgodność z regulacjami, ale to zdecydowana rzadkość. Większość klientów dąży do poprawy swojego poziomu cyberbezpieczeństwa, przy jednoczesnym spełnieniu wymogów prawnych – zauważa Anna Piechocka.

duże zainteresowanie usługami związanymi z badaniem podatności, a także Security Operation Center (SOC).

Przedsiębiorcy, którzy szukają dostawców usług cyberbezpieczeńtwa, najczęściej kierują się ceną, podobnie jak przy zakupie innych produktów IT.

– Jeśli usługi mają być wykonane rzetelnie, trudno spełnić takie oczekiwania. Tak naprawdę ich spełnienie zależy od sytuacji

Jak wynika z badania przeprowadzonego w ubiegłym roku przez Deloitte klienci, oprócz dobrej ceny, oczekują od usługodawców również kompleksowej oferty, certyfikatów, a także umiejętności dostosowania się do indywidualnych potrzeb. Natomiast jeśli chodzi o popularność poszczególnych usług, to w ostatnim czasie zauważalny jest wzrost zapotrzebowania na tzw. usługi ofensywne – organizacje stawiają na politykę proaktywną, polegającą na wyprzedzaniu napastników. Liczący się gracze rynkowi odnotowują

– Usługi SOC znajdują się na fali wnoszącej. Firmy rozumieją, że same nie są w stanie zapewnić sobie całodobowego monitoringu i reagowania na incydenty. Myślę, że ten trend się utrzyma i w najbliższych latach będziemy obserwować dynamiczny rozwój w tym obszarze –  mówi Piotr Kawa, Business Developement Manager w Bakotechu.

Firmy oraz instytucje zaczynają też odkrywać potencjał usług szkoleniowych. Człowiek od lat pozostaje najsłabszym ogniwem systemu bezpieczeństwa i to się nie zmienia. Natomiast zmienia się podejście decydentów do kształcenia pracowników w zakresie cyberedukacji. Przedsiębiorcy inwestują w testy socjotechniczne oraz szkolenia personelu. W pewnym stopniu jest to zasługa kreatywności twórców programów edukacyjnych, które stają się coraz ciekawsze, czasami przybierając formę gier, a nawet seriali. n

Elastyczne licencjonowanie i skalowanie rozwiązań

cyberbezpieczeństwa

Programy FortiFlex i FortiPoints umożliwiają swobodne skalowanie firmowej infrastruktury, w zgodzie z bieżącymi potrzebami, a jednocześnie zdecydowanie upraszczają ochronę środowisk IT.

Jednym z największych wyzwań, jakim muszą sprostać przedsiębiorcy, jest odpowiednie dostosowanie firmowej infrastruktury IT do rozmiarów organizacji i jej aktualnych potrzeb. Brak zapewnionej możliwości jej skalowania często prowadzi do zjawiska over-provisioningu (nieopłacalne, nadmierne przydzielanie zasobów) lub under-provisioningu (wdrożenie niewystarczającej ilości zasobów). Problem ten dotyczy także rozwiązań cyberbezpieczeństwa. Ich nadmiar przyczynia się nie tylko do zbędnych wydatków, ale też może utrudniać efektywne zarządzanie nimi. Natomiast szczególnie niebezpieczny jest niedomiar, ponieważ może w znacznym stopniu spowolnić pracę usług i obniżyć komfort użytkowników (np. gdy za-

Paweł Wojciechowski, Channel Sales Director, Fortinet

stosowany zostanie firewall o niewystarczającej wydajności) albo wręcz spowodować obecność luk w infrastrukturze ochronnej, a więc ułatwić cyberprzestępcom przeniknięcie do niej.

Z tego typu wyzwaniami spotykają się nie tylko użytkownicy końcowi, ale także dostawcy zarządzanych usług bezpieczeństwa (Managed Security Service Provider, MSSP).

mogą być licencje na firewalle FortiGate w postaci maszyn wirtualnych oraz inne rozwiązania, a w szczególności rozwiązania w modelu SaaS.

W sytuacji, gdy zachodzi konieczność zwiększenia w błyskawiczny sposób wydajności posiadanej infrastruktury ochronnej (np. gdy klient zdecydował się otworzyć nowy oddział lub jego usługa cieszy się dużym powodzeniem), na działanie jest bardzo mało czasu, a proces kupowania i wdrażania nowych rozwiązań trwa wyjątkowo długo.

Aby zaradzić sytuacjom, w których brak elastyczności wdrażania rozwiązań ochronnych może przyczynić się do zwiększenia ryzyka ataku, Fortinet stworzył mechanizm elastycznego licencjonowania FortiFlex. Uczestniczący w tym programie klienci mogą kupić od swojego partnera pakiet punktów, za pomocą których następuje potem rozliczenie za wykorzystane zasoby. W tym czasie użytkownicy mają swobodę podejmowania decyzji co do dynamicznego rozszerzania swojej infrastruktury ochronnej we wszystkich rodzajach środowisk (lokalnych, chmurowych i hybrydowych), jak też jej redukowania, gdy część rozwiązań nie jest wykorzystywana. W modelu pay-per-use, a więc pozbawionym konieczności przechodzenia przez proces zakupowy, rozliczane

FortiFlex to pierwszy w branży bezpieczeństwa program licencjonowania w modelu pay-per-use, do którego włączone zostały firewalle wdrażane w hybrydowym modelu mesh. Dzięki temu możliwa stała się obsługa wszystkich rozwiązań Fortinet FortiGate w ramach jednego, elastycznego modelu licencjonowania i zarządzanie nimi za pomocą ujednoliconej konsoli FortiManager. Użytkownicy mogą też w prosty i swobodny sposób korzystać z usług oraz pakietów FortiCare i FortiGuard dla urządzeń FortiGate.

Walutą w modelu licencjonowania FortiFlex są punkty – FortiPoints. Ten produkt upraszcza proces kupowania oraz wdrażania rozwiązań i usług Fortinet. Także w tym przypadku klienci kupują od swoich partnerów określoną liczbę punktów, które później mogą – bez przechodzenia przez długotrwały proces zakupowy – przeznaczać w pilnym trybie na kupowanie wirtualnych rozwiązań Fortinet w modelu FortiFlex oraz potrzebnych usług wsparcia, szkoleniowych, rocznych kontraktów itp. Wszystkich zakupów dokonuje się w otwartym w ubiegłym roku samoobsługowym sklepie FortiMarketplace. Więcej informacji dostępnych jest na stronach: www.fortinet.com/fortiflex i www.fortinet.com/fortipoints oraz u dystrybutorów Fortinet.

Cyberzagrożenia:

polskie firmy wciąż słabo chronione

Dobrze przemyślana polityka bezpieczeństwa oraz inwestycje w odpowiednie narzędzia zabezpieczające będą skuteczną barierą dla cyberprzestępców, którzy biorą na cel przedsiębiorców różnej wielkości.

Zraportu, który opracowali ESET oraz DAGMA Bezpieczeństwo IT, wynika, że 88 proc. polskich firm doświadczyło cyberataku w okresie ostatnich pięciu lat, a 41 proc. nie stosuje żadnego oprogramowania antywirusowego, zaniedbując tym samym podstawową linię ochrony. Co ważne, 39 proc. przedstawicieli firm, które wzięły udział w badaniu, zauważyło, że w ostatnim roku liczba ataków wzrosła, a co drugi zaobserwował, że zwiększyła się ich różnorodność.

Choć najbardziej na działania cyberprzestępców narażone są osoby zajmujące najwyższe szczeble w firmowej hierarchii, to generalnie atakujący działają kompleksowo. Dlatego te najbardziej powszechne, szeroko „kolportowane” odmiany ataków, mogą trafiać w pracowników stosunkowo słabo wyedukowanych w kwestii cyberbezpieczeństwa. A warto podkreślić, że sprawa edukacji pracowników to kolejny słaby punkt na liście „grzechów” w dziedzinie ochrony. W tym kontekście rzuca się w oczy, że ponad 50 proc. badanych w ciągu ostatnich 5 lat nie przeszło w swoim miejscu pracy ani jednego cyberszkolenia, a 22 proc. uczestniczyło w takim szkoleniu jeden raz we wspomnianym okresie.

– Szkolenia związane z cyberbezpieczeństwem powinny być traktowane jako obowiązkowe dla wszystkich pracowników, którzy korzystają z komputera lub rozwiązań cyfrowych i powinny być przeprowadzane cyklicznie – podkreśla Kamil Sadkowski, analityk laboratorium antywirusowego ESET.

Tym bardziej, że 66 proc. respondentów korzysta ze służbowego sprzętu do celów prywatnych.

– Powszechna dostępność laptopów służbowych sprawia, że w wielu przypadkach pracownicy nie inwestują we własne niezależne urządzenia, tylko wykorzystują otrzymany od firm sprzęt do prywatnych celów – przyznaje Kamil Sadkowski.

Tym, co niepokoi ekspertów ds. cyberbezpieczeństwa, jest sposób wykorzystywania sprzętu firmowego w wolnym czasie lub – co niewykluczone – w trakcie obowiązków służbowych.

– Wśród najczęstszych zachowań zauważyliśmy korzystanie z mediów społecznościowych. Co niepokojące, nierzadko są one wykorzystywane przez cyberprzestępców do propagowania poprzez linki różnego rodzaju oszustw oraz złośliwego oprogramowania. Może to prowadzić do wycieku tajemnic przedsiębiorstwa, w zależności od rodzaju pracy danego pracownika, jego pozycji w hierarchii firmowej, a także przechowywanych na urządzeniu służbowym poufnych służbowych dokumentów – dodaje Kamil Sadkowski.

Firmy muszą dbać o cyberzabezpieczenia nie tylko ze względów biznesowych i wizerunkowych. Wymuszają to na nich także unijni prawodawcy. Jednakże, choć 17 października br. minął termin wdrożenia dyrektywy NIS 2, to z rozmaitych danych dostępnych na rynku wynika, że większość polskich organizacji, których dotyczą nowe regulacje, wciąż znajduje się w fazie przygotowań do spełnienia tych wymogów. To casus podobny do RODO. Pomimo, że zapisy tego rozporządzenia weszły w życie sześć lat temu, to wg raportu „Cyberportret polskiego biznesu” jedynie 68 proc. respon-

dentów uważa, że w pełni spełnia ich wymogi, choć po tylu latach można byłoby spodziewać się, że odsetek ten będzie zdecydowanie wyższy.

W parze ze szkoleniami pracowników muszą iść wdrożenia odpowiednich zabezpieczeń informatycznych. Dopiero taki ścisły „tandem” pozwoli zbudować organizacjom skuteczną barierę przed cyberprzestępcami. Przy czym odpowiednie zabezpieczenia to takie, które umożliwiają właściwy przegląd stanowisk, urządzeń i sieci. To niezbędne, aby zyskać pewność, że próby ataków, ryzykowne zachowania pracowników i niechciane aplikacje nie zagrożą danej firmie. To właśnie był jeden z powodów, dla którego x-kom wybrał pakiet ESET PROTECT Elite. Kluczową cechą okazała się tu jego kompleksowość. Swoim działaniem pakiet obejmuje stacje robocze, serwery, urządzenia mobilne, pocztę, kwestię współpracy i przechowywanie danych w chmurze. Szczególnie ważnym aspektem było rozwiązanie maksymalizujące ochronę – Extended Detection & Response (XDR), które umożliwia x-komowi zarządzanie wszelkimi incydentami z jednego miejsca, mimo rozproszonej struktury chronionych lokalizacji.

Pobierz raport

„Cyberportret polskiego biznesu”

Dowiedz się więcej o ESET PROTECT Elite

utopia czy strzał w dziesiątkę? Program dystrybucyjny: Program

Producenci coraz częściej wprowadzają programy dystrybucyjne, na podobnej zasadzie, jak programy partnerskie dla integratorów.

Przede wszystkim wielu producentów zmaga się z problemem zbyt rozbudowanej sieci dystrybucji. I nie jest to wcale błaha sprawa. W 2021 r. Channelnomics przeanalizował, na potrzeby jednego z vendorów, jego globalny kanał sprzedaży. O ogromie zadania niech świadczy to, że zebranie danych potrzebnych do zrozumienia, jak dystrybutorzy tej firmy ewoluują wraz z dynamicznie zmieniającym się rynkiem, zajęło całe sześć miesięcy. Długość i złożoność projektu wynikały głównie z ogromnej liczby dystrybutorów, których ten producent, generujący rocznie ponad 60 mld dol. przychodów, miał na świecie ponad 460.

Inny, mniejszy vendor — z „zaledwie” 4 mld dol. rocznych przychodów — ma ponad 250 dystrybutorów, a jeszcze kolejny producent, z przychodami rzędu 200 mln dol., ma ponad 260 dystrybutorów globalnie – w niektórych krajach nawet pół tuzina i więcej.

partnerów, a ci pozyskują produkty od dystrybutorów, to jaką rolę odegrał dystrybutor w napędzaniu sprzedaży?

torów zwiększa koszt obsługi, zmniejsza korzyści z zaangażowania i rozmywa zdolność do mierzenia wyników.

Vendorom często wchodzi w nawyk dodawanie kolejnych dystrybutorów.

Prawda jest taka, że vendorom często wchodzi w nawyk dodawanie kolejnych dystrybutorów. Praktyka ta, choć krótkoterminowo wygodna, może mieć niedobre długoterminowe konsekwencje. Może bowiem prowadzić do nadmiernie rozbudowanej sieci dystrybucji i utraty kontroli nad procesem sprzedaży.

Kolejne wyzwanie, przed którym stoją wszyscy vendorzy, polega na ocenie, czy dystrybucja przynosi oczekiwane rezultaty. Problem ten jest szczególnie trudny dla tych producentów, którzy sprzedają wyłącznie poprzez dystrybucję i partnerów. Jeśli wszystkie transakcje są realizowane przez

Tworząc inicjatywy dystrybucyjne przypominające programy partnerskie — z wymaganiami uczestnictwa, szkoleniami, progami sprzedaży odblokowującymi korzyści oraz wynagrodzeniami — vendorzy starają się lepiej kontrolować relacje i zarządzać wkładem swoich dystrybutorów. Dodatkowo, programy uzasadniają wprowadzenie wewnętrznych wymagań dotyczących uczestnictwa w dystrybucji. W istocie te zasady biznesowe i wymagania są postrzegane jako sposób na zapobieganie przypadkowemu podpisywaniu umów z dystrybutorami przez zespoły w terenie, w celu nawiązania jednorazowych relacji. My, w Channelnomics, mamy mieszane uczucia co do potrzeby tworzenia formalnych programów dystrybucyjnych i ich korzyści. Wartość, jaką dystrybucja może wnieść do modelu wejścia na rynek dostawcy, jest klarowna. Dystrybutorzy zapewniają skalę, wzmacniają zasoby sprzedażowe i techniczne, wspierają działania sprzedażowe partnerów, ponoszą koszty i zabezpieczają ryzyko poprzez kredyt i finansowanie.

Osiągnięcie złotego środka w zasięgu dystrybucji (ani za dużo, ani za mało) jest trudne. Większość dostawców będzie potrzebować więcej niż jednego dystrybutora w danym regionie, aby dać partnerom wybór w pozyskiwaniu produktów oraz utrzymać równowagę konkurencyjną. Jednak zbyt wielu dystrybu-

Alternatywą dla programów dystrybucyjnych mogą być standardy. Wielu dostawców, z którymi Channelnomics współpracuje, jest w stanie określić, jaką rolę pełni dystrybucja w ich strategii wejścia na rynek. Mimo to mają trudności z wyjaśnieniem, dlaczego współpracują z konkretnym dystrybutorem. Ustanowienie standardów dystrybucji jest taką wewnętrzną kontrolą, która umożliwia zespołowi odpowiedzialnemu za kanał sprzedaży zdefiniowanie, dlaczego wybrano współpracę z danym dystrybutorem, a także jakich korzyści z tej relacji się oczekuje.

Dzięki standardom dostawcy mogą ustalić wewnętrzne zasady dotyczące wyboru partnerów dystrybucyjnych, a jednocześnie tworzyć dopasowane plany biznesowe, oczekiwania i wskaźniki KPI dla indywidualnych relacji. Standardy stanowią uniwersalny sposób wewnętrznego mierzenia i oceny skuteczności dystrybucji oraz działają jako mechanizm kontrolny zapobiegający nadmiernemu rozrastaniu się sieci dystrybucyjnej.

Larry Walsh

CEO oraz Chief Analyst w Channelnomics, firmie analitycznej specjalizującej się w kanałach sprzedaży i doradztwie dla producentów, dystrybutorów i integratorów IT. Autor jest również gospodarzem podcastu „Changing Channels” i producentem podcastu „In the Margins”. Kontakt: lmwalsh@channelnomics.com.

Hybrydow y storage Hybrydowy storage

spodobał się małym firmom

Klienci z sektora SOHO i małe firmy chętniej niż kiedyś kupują kompleksowe rozwiązania storage’owe i decydują się na towarzyszące temu usługi.

Analitycy i gracze rynkowi nie mają wątpliwości co do tego, że coraz większa ilość danych, jakie firmy muszą przechowywać, zabezpieczać i współdzielić się nimi, powinna jeszcze długo sprzyjać popytowi na NAS-y. Rośnie przy tym zapotrzebowanie na rozwiązania sieciowe, co z kolei ma ścisły związek z ciągłym rozwojem pracy zdalnej. Specjaliści Markets and Markets spodziewają się, że rynek NAS-ów będzie w latach 2022–2028 powiększał się średnio o 12,1 proc. rocznie. Oznaczałoby to, że w tym okresie jego wartość wzrośnie dwukrotnie, z poziomu 25,7 mld do 51 mld dol.

Potrzeba uporządkowania danych to jeden z istotnych czynników zwiększających sprzedaż storage’u. Według Verified Market Research zarządzanie danymi odpowiada za 80 proc. wykorzystania NAS-ów

Zdaniem integratora

n Krzysztof Pasławski

w średnich i dużych firmach. Ten ośrodek badawczy oczekuje w latach 2024–2031 wzrostu globalnych przychodów na tych produktach średnio o 11,2 proc. każdego roku (z 26,8 mld do 62,5 mld dol.). Co wygląda bardzo optymistycznie, skoro sprzedaż ma zwiększać się w dwucyfrowym tempie jeszcze co najmniej przez 7 lat. – Firmy z sektora SMB+, czyli małe, średnie i trochę większe, w  dalszym ciągu potrzebują przestrzeni na dane oraz backup, tym bardziej że wchodzące wchodzące regulacje, jak NIS 2 czy nowela ustawy o KSC, dodatkowo zobowiązują wiele podmiotów do wykonywania, przechowywania i testowania rozwiązań do backupu. Dlatego pojemny i szybki storage staje się produktem pierwszej potrzeby – przekonuje Łukasz Milic, Business Development Representative w QNAP-ie.

n Anna Kozal, właścicielka, Serwery-NAS.pl

W tym roku w małych firmach znacznie zwiększyło się zainteresowanie usługami instalacji i konfiguracji zakupionych serwerów NAS. Szacunkowo zapotrzebowanie jest dwukrotnie większe niż w roku ubiegłym. Ponadto klienci częściej inwestują w systemy pocztowe, co częściowo wynika zapewne z kosztów hostingu w chmurze. Jednak niektóre małe firmy, w tym kancelarie prawne, wymagają, aby poczta była przechowywana lokalnie. Kolejny nowy trend, jaki obserwujemy, to tworzenie klastrów w małych firmach. Dotąd były nimi zainteresowane głównie duże przedsiębiorstwa, chociażby w przemyśle. W takim modelu, kiedy jeden serwer ulegnie awarii, drugi przejmuje jego funkcje, przez co zachowana jest ciągłość działania firmy. Z tego, co zaobserwowaliśmy, jest to też szczególnie ważne w niektórych biurach księgowych. Generalnie NAS-y w małych biznesach są wdrażane tak, jak dotychczas, a więc najczęściej do backupu i współdzielenia plików, co przydaje się w pracy zdalnej. Przy czym nadal są to głównie modele 2- lub 4-dyskowe.

Tym niemniej, widać wyraźnie, że w tym roku mniejsze krajowe przedsiębiorstwa ostrożniej decydują się na inwestycje. Na szczęście wydłużenie procesu decyzyjnego nie powoduje spadku sprzedaży w porównaniu z rokiem ubiegłym. – Kiedyś wystarczyły trzy mejle, aby uzgodnić transakcję, obecnie proces zakupowy przeciąga się w czasie. Widać, że firmy uważniej analizują każdy wydatek – mówi

Anna Kozal, właścicielka Serwery-NAS.pl.

Z kolei sektor publiczny kupuje mniej – zwłaszcza w pierwszym półroczu br. ogłoszono niewiele większych przetargów. Do zastoju przyczyniły się wybory samorządowe i związane z nimi zmiany

Chmura hybrydowa najbardziej odpowiada większości firm.

w lokalnej administracji. W roku wyborczym w samorządach to niestety typowe zjawisko.

– Patrząc na liczbę sprzedanych gigabajtów, zapotrzebowanie w trzech pierwszych kwartałach 2024 roku było niższe niż w tym samym okresie 2023. Spadek był zauważalnie większy po stronie konsumentów niż klientów instytucjonalnych i przedsiębiorstw –  podkreśla Robert Sepeta, Business Development Manager w Kingstonie, mówiąc o sprzedawanych przez tego producenta nośnikach SSD.

W jego opinii w przyszłym roku można spodziewać się odbicia.

– Dostrzegamy wzrost liczby projektów dla klientów biznesowych, co może wpły-

nąć na zmianę trendów i ponowny wzrost zapotrzebowania na gigabajty – mówi Robert Sepeta.

Powyższym trendom towarzyszą zmiany w preferencjach klientów. Mianowicie rośnie popyt na nośniki NVMe w porównaniu z tradycyjnymi dyskami SATA, co wynika z zapotrzebowania na coraz większe prędkości transferu.

kompleksowe

Specjaliści Synology obserwują, że tendencja spadkowa jest widoczna tylko na urządzeniach z najniższej półki. W tym czasie producent ten promuje sprzedaż całych rozwiązań, czyli serwerów wraz z nośnika-

mi i tutaj dostrzega ogromny wzrost zainteresowania ze strony klientów. Natomiast z doświadczeń QNAP-a wynika, że najczęściej wybierane przez przedsiębiorstwa SMB+ i instytucje z sektora publicznego są urządzenia ośmio- i dwunastozatokowe, czemu towarzyszy rosnące zainteresowanie dyskami flash.

– Pomimo, że podrożały w tym roku, stosunek pojemności do ceny jest bardzo atrakcyjny, więc inwestycja w systemy hybrydowej przestrzeni, a więc HDD plus flash nie jest już blokowana przez kwestie finansowe – mówi Łukasz Milic.

Ze względu na rosnące zapotrzebowanie na nośniki półprzewodnikowe większość modeli NAS-ów tej marki jest wyposaCRN nr 11/2024

żanych w dodatkowe złącza na dyski flash (M.2), co pozwala klientom na uzyskanie większej szybkości i pojemności w jednym, nawet niewielkim urządzeniu.

Zdaniem analityków rynkowych hamować sprzedaż NAS-ów mogą ograniczone możliwości skalowania, zarówno pod względem pojemności, jak i wydajności. Problemem w rozwiązaniach storage’owych, umożliwiających pracę zdalną, bywa też niedostatek odpowiedniej infrastruktury zabezpieczającej, a jednocześnie pozwalającej na płynne korzystanie z pamięci sieciowych ze zdalnej lokalizacji.

Choć zarówno nośniki pamięci, jak serwery sieciowe są dostępne w retailu i etailu, to u detalistów kupują raczej klienci domowi. Przedsiębiorstwa z reguły decydują się na współpracę z integratorami z uwagi na profesjonalne wsparcie.

– Retail to przede wszystkim małe serwery do domu, 2–4 zatokowe w obudowach typu desktop. W przypadku rozwiązań rack, nawet tych najmniejszych, ogromna większość sprzedaży jest realizowana przez integratorów – informuje Przemysław Biel.

Chmura hybrydowa odpowiada klientom

W ocenie analityków istotną szansą dla dalszego rozwoju segmentu NAS-ów są rozwiązania hybrydowe. Stanowiąc kombinację tradycyjnego serwera sieciowego i chmury, umożliwiają dostęp do danych z dowolnego miejsca i lepsze możliwości współpracy i pracy zdalnej, jak też poprawę zabezpieczenia firmowych plików. Ponadto niektóre organizacje w ten sposób spełniają wymagania regulacyjne i nic dziwnego, że eksperci spodziewają się, iż zapotrzebowanie przedsiębiorstw będzie coraz bardziej ewoluowało w kierunku takich właśnie rozwiązań storage’owych. Także dostawcy, w odpowiedzi na te oczekiwania, stawiają na integrację lokalnych systemów z możliwościami chmury.

– Coraz większa świadomość dotycząca bezpieczeństwa i własności danych stawia chmurę prywatną w roli pełnoprawne-

Zdaniem specjalisty

n Przemysław Biel, Country Sales Manager Poland, Synology

Marże w branży IT od wielu lat maleją i jest to zjawisko niestety powszechne. Dlatego zachęcamy naszych partnerów do oferowania całościowych rozwiązań powiązanych z usługami doradztwa, konfiguracji czy ofertą dodatkowych usług. Przykładem są usługi chmurowe, umożliwiające zarządzanie flotą serwerów przez partnera, co może być dodatkową wartością dodaną, jak też usługi magazynu danych w chmurze i narzędzia do stworzenia chmury hybrydowej. Część partnerów już teraz uczestniczy w sprzedaży tych usług przez nasz program C2 MSP. Innym sposobem na zwiększenie marży jest certyfikacja, gdyż certyfikowani partnerzy są szeroko promowani i mają dodatkowe benefity.

n Łukasz Milic, Business Development Representative, QNAP Przedsiębiorstwa i instytucje w zdecydowanej większości przypadków kupują urządzenia NAS przez sieć integratorów, a nie w retailu. Zależy nam na takim właśnie podejściu, ponieważ reseller może zaoferować klientowi wartość dodaną. Począwszy od prozaicznej kwestii, jaką jest dobór urządzenia i dysków, poprzez sensowną weryfikację potrzeb i wdrożenie, jak również późniejsze wsparcie. Wbrew pozorom rozwiązania NAS to nie tylko sieciowe zamienniki dysków USB, ale zaawansowane, wydajne serwery, które oferują szereg przydatnych firmom funkcji. Dlatego dodatkowe kompetencje resellera czy integratora są w tym przypadku niezwykle pożądane.

n Robert Sepeta, Business Development Manager, Kingston Technology Z naszych rozmów z klientami wynika, że lokalne rozwiązania pamięci masowych w firmach nadal są uważane za najbezpieczniejsze. Często klienci stosują też hybrydę, korzystając zarówno z chmury, jak i własnych zasobów lokalnych. Decyzje o przenoszeniu się do chmury są zatem bardzo indywidualne. Co do nośników, to najważniejszym czynnikiem wpływającym na wybór produktu staje się stosunek ceny do pojemności. Gdy ceny gigabajta rosną, klienci często decydują się na mniejsze pojemności. Można jednak zauważyć, że polscy konsumenci nauczyli się optymalizować zakupy i coraz częściej wybierają wyższe modele dysków, żeby uzyskać jak największą wydajność. Sama cena nie jest już tym najważniejszym czynnikiem.

Rośnie świadomość odnośnie do korzyści i wad rozwiązań cloudowych.

go konkurenta chmury publicznej, ale dużo częściej jako element rozwiązania hybrydowego. Oba te rozwiązania znakomicie się uzupełniają – mówi Przemysław Biel. Zdaniem analityków Verified Market Research integracja z systemami chmurowymi będzie jednym z istotnych czynników wzrostu sprzedaży NAS-ów w nadchodzących latach, wraz z rozwiązaniami poprawiającymi bezpieczeństwo i skalowalność takich systemów. Tym samym dostawcy nie spodziewają się, że klienci w małych i średnich firmach będą w najbliższym czasie na dużą skalę rezygnować z lokalnego prze-

chowywania danych na rzecz przestrzeni dyskowej w chmurze publicznej. Wynika to z rosnącej świadomości odnośnie do korzyści i wad rozwiązań cloudowych. Zresztą sami dostawcy lokalnych pamięci masowych dla firm wcale nie zamierzają konkurować z chmurą publiczną. – Chmura hybrydowa to jest kierunek, który najbardziej odpowiada większości firm. Dla wielu przedsiębiorstw czy instytucji z segmentu SMB+ podejście „cloud only” jest kosztowne, dlatego decydują się na podstawowy storage, czy ogólnie sprzęt, lokalnie, z opcją replikacji do chmury. Nie zakładamy więc odejścia od rozwiązań on-prem na rzecz chmury, a raczej dalszego rozwoju systemów hybrydowych – podsumowuje Łukasz Milic. n

view Executive

Fujifilm: archiwizacja najnowszej generacji

„Wykorzystanie nowoczesnych napędów taśmowych może zmniejszyć zużycie energii nawet o 84 procent” – mówi Richard Alderson, EMEA Sales & Marketing Manager w Fujifilm.

n Jaka jest odpowiedź Fujifilm na wyzwania związane z przechowywaniem dużych wolumenów danych?

W dzisiejszym cyfrowym świecie ilość wytwarzanych danych rośnie w tempie wykładniczym. To stawia przed użytkownikami wiele wyzwań związanych z bezpiecznym, zrównoważonym i długoterminowym ich przechowywaniem. Wiodące w tym zakresie stały się produkty bazujące na taśmach, umożliwiając skuteczne zabezpieczanie cyfrowych zasobów dla przyszłych pokoleń. W tym przypadku dane są chronione przed cyberatakami dzięki „air gap”, fizycznej luce między firmową siecią a znajdującymi się na taśmie danymi. Napędy taśmowe gwarantują też nawet 100 tysięcy razy większą integralność danych niż dyski twarde. Ponadto mogą pozytywnie wpłynąć na cele w zakresie zrównoważonego rozwoju. Dlatego Fujifilm oferuje użytkownikom szereg rozwiązań do archiwizacji na taśmach lokalnie i poza siedzibą firmy. n Dlaczego waszym zdaniem bez wykorzystania rozwiązań taśmowych zrównoważone przechowywanie danych będzie niemożliwe? Nowoczesne napędy taśmowe ugruntowały swoją pozycję na rynku jako przyjazne dla środowiska podczas zarządzania ogromnymi ilościami danych. Badania Horison Information Strategies pokazują, że archiwizowanie danych na taśmach zmniejsza emisję dwutlenku węgla nawet o 97 procent w porównaniu z innymi opcjami. A jednocześnie według JEITA Tech Storage Technical Commitee ich wykorzystanie może zmniejszyć zużycie energii nawet o 84 procent. n Co zawiera wasza oferta w zakresie rozwiązań taśmowych? Fujifilm oferuje kompleksowe portfolio rozwiązań do archiwizacji danych w środowisku lokalnym. Są to produkty przeznaczone do archiwizacji dużych ilości danych i zapewniają ochronę przed cyberatakami przez ponad 30 lat. Oferta obejmuje FUJIFILM Kangaroo o pojemności 1 PB+ oraz FUJIFILM Kangaroo LITE o pojemności 100 TB i większej. Oba rozwiązania są zintegrowane z FUJIFILM Object Archive – oprogramowaniem do archiwizacji danych i zarządzania systemem w otwartym formacie, który nie jest uzależniony od dostawcy.

n A jakie są najnowsze osiągnięcia Fujifilm w zakresie produktów do przechowywania danych?

We wrześniu wprowadziliśmy na rynek FUJIFILM Kangaroo LITE, kompaktowe rozwiązanie plug and play, przeznaczone do archiwizacji danych typu

„wszystko w jednym”, zaprojektowane specjalnie dla użytkowników wymagających pamięci masowej o pojemności 100 TB i większej. Biurkowe wymiary naszego rozwiązania umożliwiają jego użytkowanie nawet przy minimalnej dostępnej przestrzeni. Z kolei w ubiegłym roku wprowadziliśmy na rynek FUJIFILM Kangaroo, pozwalające przechowywać powyżej 1 PB danych. Warto w tym miejscu podkreślić, że „rodzina FUJIFILM Kangaroo” to kompletne rozwiązanie do archiwizacji danych zawierające wstępnie zainstalowany sprzęt, oprogramowanie i nośniki taśmowe. Jedną z kluczowych zalet tych systemów jest nacisk na bezpieczeństwo. FUJIFILM Kangaroo LITE i FUJIFILM Kangaroo bezpiecznie przechowują dane w długim okresie, oferując ochronę typu „air gap” przed cyberatakami, okres archiwizacji wynoszący ponad 30 lat, a także opcję tworzenia wielu kopii. Mogą również łączyć się z wieloma źródłami danych i miejscami docelowymi, zapewniając użytkownikowi maksymalną elastyczność.

n Jakie są podstawowe cechy FUJIFILM Object Archive ? FUJIFILM Object Archive przechowuje dane w otwartym formacie – są one zapisywane na taśmie bez powiązania z konkretnym producentem. Dzięki samozapisującemu się formatowi, do odczytu danych z taśmy nie trzeba instalować żadnego oprogramowania. Z kolei oprogramowanie SelfHealing System Architecture archiwizuje dane z wysokim poziomie integralności. W rezultacie użytkownicy korzystają ze wszystkich zalet taśm: długoterminowego, ekonomicznego, bezpiecznego i zrównoważonego przechowywania danych. Oprogramowanie to jest nie tylko zintegrowane z oboma rozwiązaniami FUJIFILM Kangaroo, ale również dostępne jako samodzielne rozwiązanie, które można w pełni zintegrować z dowolną standardową i istniejącą infrastrukturą IT.

Dodatkowe informacje: Nina Knak Sales Development Manager CEE

FUJIFILM Kangaroo

rzuca rękawicę rzuca rękawicę

Massachusetts Kalifornii

Choć za kolebkę innowacyjnych technologii wciąż uchodzi Kalifornia, to coraz więcej do powiedzenia mają też firmy z Massachusetts. Mogą pochwalić się chociażby interesującymi rozwiązaniami do ochrony danych.

Dave Friend, zakładając Wasabi w 2015 r., kierował się zasadą, która przyświecała ponad czterdzieści lat temu założycielom EMC. Jak wspomina: „Byłem jednym z inwestorów w EMC i znałem Richarda Egana, współtwórcę tej firmy. Kiedy zadebiutowali, IBM kontrolował 91 proc. rynku macierzy dyskowych. Wszyscy więc myśleli, że to szaleństwo. Jednak Egan przekonał nas, że Big Blue ma setkę innych produktów, o które musi się martwić, a koncentracja będzie kluczem do sukcesu EMC”.

Wasabi, podobnie jak EMC, pochodzi z niewielkiego stanu Massachusetts. Dave Friend założył tę firmę wspólnie z Jeffem Flowersem. Ten drugi był z kolei szefem Carbonite i przyszedł do Frienda z pomysłem na nową architekturę pamięci masowej w chmurze publicznej. A jako że AWS i Microsoft już działali w tym segmencie rynku, to walka z tymi gigantami nosiła wszelkie znamiona porywania się z motyką na słońce. Jednak założyciele Wasabi mieli na ten temat odmienne zdanie. Zresztą dla Microsoftu i AWS-u przechowywanie danych jest tylko jedną z wielu usług, co przypomina historię wczesnej rywalizacji EMC z IBM-em.

– Rozmawiałem z klientami i pytałem ich o potrzeby dotyczące pamięci masowych. Najbardziej narzekali na skomplikowane rachunki wystawiane przez największych dostawców usług chmurowych. Ludzie tego nienawidzą,

n Wojciech Urbanek, Boston

bo za każdym razem, gdy wykonują operację związaną z pobraniem czy przesłaniem danych, otrzymują jakąś drobną opłatę – mówi Dave Friend.

W związku z tym Wasabi zaczęło postępować inaczej niż liderzy rynku chmurowego. Rachunek za usługi zawiera jedną linijkę – wykorzystana powierzchnia dyskowa. Poza tym oferta usługodawcy nie zawiera, jak w przypadku konkurentów, kilku poziomów pamięci masowych. Wasabi wychodzi z założenia „jeden rozmiar dla wszystkich”. Zdaniem Dave’a Frienda rozbudowane oferty usługodawców dezorientują klientów. – Nasze ceny są porównywalne z najtańszymi usługami AWS, z tą różnicą, że uzyskujemy prędkość transferu taką samą jak usługi z najwyższej półki cenowej konkurenta. W związku z tym nie potrzebujemy siedmiu poziomów pamięci masowej – dodaje Dave Friend. Wasabi oferuje też dodatkowe usługi, takie jak analiza wideo, bazująca na mechanizmach sztucznej inteligencji. Nadawca telewizyjny może na przykład udowodnić reklamodawcy, że jego logo było widoczne na stadionie przez, dajmy na to, dokładnie 43 sekundy.

Na osobną uwagę zasługują zastosowane przez Wasabi rozwiązania bezpieczeństwa. Dostawca ten angażuje w proces uwierzytelniania więcej niż jednego użytkownika. Dostęp do klucza mogą mieć szef działu IT i dyrektor generalny. Usunięcie kopii zapa-

sowej jest możliwe tylko w przypadku, kiedy obaj jednocześnie zaakceptują taką operację. W Wasabi nazywają to wystrzeliwaniem pocisku nuklearnego. Zdaniem przedstawicieli firmy jest to nieporównywalnie lepsze rozwiązanie niż niezmienne kopie zapasowe. Wprawdzie napastnik ich nie zmodyfikuje, ale może usunąć całe konto użytkownika. Usługodawca z Massachusetts konsekwentnie stawia na rozwój kanału partnerskiego i posiada już około 15 tysięcy partnerów na całym świecie.

– Pierwszą rzeczą, którą robimy wkraczając na lokalny rynek, jest próba podpisania umów z najlepszymi dystrybutorami oraz integratorami. To tworzy barierę dla konkurenta, który przychodzi do klienta z przesłaniem „jesteśmy tańsi niż Wasabi”. Kiedy partner zintegruje swój system rozliczeniowy z naszym, nauczy się korzystać ze wszystkich materiałów marketingowych i zainwestuje w szkolenie sprzedawców, to raczej pozostanie z nami na dłużej – tłumaczy Dave Friend. W październiku liczba użytkowników rozwiązań Wasabi przekroczyła 100 tys. Przychody firmy rosną w tempie 60 proc. rocznie, a jej celem jest przekroczenie bariery miliarda dolarów. Wasabi daje sobie na to od czterech do pięciu lat.

Rozwój usług chmurowych sprawił, że firmy muszą przedefiniować swoje podejście do ochrony danych i zarządzania nimi. Jednym z beneficjentów takiego stanu rzeczy jest firma HYCU z Bostonu, specjalizująca się w ochronie danych przetwarzanych w chmurze.

– Kiedyś miałeś wszystkie graty w piwnicy i każdy rozumiał jedną podstawową zasadę: to twoja infrastruktura, to twoje dane. Jeśli to wszystko zniknie, będzie po tobie. To było dość oczywiste. Wraz z nadejściem chmury publicznej wszystko się zmieniło – mówi Simon Taylor, CEO HYCU.

Najszybciej rosnącym segmentem usług chmurowych jest SaaS. Według prognozy Gartnera globalne wydatki na te produkty wzrosną w bieżącym roku o 20 proc., do łącznej kwoty 247,2 mld dol. Natomiast w przyszłym roku mają osiągnąć prawie 300 miliardów. Szacuje się, że firma średniej wielkości korzysta z 212 aplikacji chmurowych.

– Duży poziom złożoności rozwiązań oraz nieporozumień wynikających z tego, że ludzie nie rozumieją zasady współodpowiedzialności za dane przetwarzane w chmurze, prowadzą do poważnych problemów – podkreśla Simon Taylor. Z raportu „The 2024 State of SaaS Resilience” wynika, że aplikacje chmurowe są największym źródłem wycieku danych – tak uważa 60 proc. respondentów. Natomiast niemal połowa badanych wychodzi z mylnego założenia, że dostawca usług chmurowych w pełni odpowiada za ochronę danych. Tymczasem coraz częściej słyszy się o kłopotach użytkowników SaaS, którzy utracili dane w wyniku błędów pracowników czy udanych cyberataków. Pewnego rodzaju sygnałem ostrzegawczym dla użytkowników usług chmurowych po-

winna być też najgłośniejsza tegoroczna awaria wywołana przez błędy w aktualizacji oprogramowania CrowdStrike. – Nawet moja mama dowiedziała się o istnieniu tej firmy, bo nie mogła polecieć do Londynu i chyba już nigdy nie zapomni tej marki… To zdarzenie obudziło wielu ludzi – mówi Simon Taylor.

HYCU zadebiutowało na rynku w 2018 r., oferując oprogramowanie do backupu dla systemów hiperkonwergentnych. W kolejnych latach firma rozszerzała swoje portfolio między innymi o ochronę danych dla Google Cloud Platform, a następnie Microsoft Azure, Microsoft 365 czy AWS. Obecnie HYCU zabezpiecza 86 aplikacji i baz danych SaaS.

Ludzie nie rozumieją zasady współodpowiedzialności

za dane.

– Na rynku może być 30 tysięcy aplikacji chmurowych, a część z nich to produkty niszowe, mało istotne dla większości użytkowników. Dlatego naszą rolą jako lidera tej branży jest upewnienie się, że chronimy najważniejsze aplikacje. Systematycznie śledzimy rynek i przyglądamy się tym 200 najbardziej popularnym, aby zapewnić optymalne pokrycie – podkreśla Simon Taylor. Z kolei Subbiah Sundaram, SVP ds. produktów w HYCU, stawia przed sobą bardziej ambitny cel, dążąc do pokrycia całego stosu technologicznego aplikacji SaaS, usług chmury publicznej oraz infrastruktury chmury i centrów danych za pomocą R-Cloud – narzędzia low-code do opracowywania aplikacji przeznaczonych do ochrony danych.

Ochrona danych dla

Bill Andrews, CEO ExaGrid, szacuje, że wartość globalnego rynku rozwiązań do ochrony danych wynosi 6 mld dol. Amerykański dostawca z Marlborough zgarnia z tego tortu około 3 proc., czyli jakieś 180 mln dol. ExaGrid cechuje przy tym unikalny sposób przechowywania kopii zapasowych – „tiered backup storage”. Strefa lądowania (Landing Zone) służy do zachowywania najnowszych kopii zapasowych w pełnej formie, co umożliwia ich szybkie tworzenie oraz sprawne przywracanie najczęściej używanych danych. Natomiast warstwa repozytorium (Repository Tier) deduplikuje starsze dane, znacznie zmniejszając koszty długoterminowego przechowywania danych.

ExaGrid posiada też kilka zabezpieczeń chroniących przed zaszyfrowaniem kopii zapasowych przez gangi ransomware. Poziom repozytorium nie jest bezpośrednio dostępny z sieci, a znajdujące się w nim obiekty są niezmienne. Inną funkcją jest opóźnione usuwanie. Nawet jeśli takie polecenie zostanie wydane (np. przez gang ransomware), system nie wykonuje go natychmiast, lecz czeka, dając administratorowi czas na wykrycie potencjalnego ataku.

– Nasze podejście polega na połączeniu najlepszych cech urządzeń do przechowywania danych i deduplikacji, a jednocześnie wyeliminowaniu niedociągnięcia każdego z nich – wyjaśnia Bill Andrews.

Choć 3-procentowy udział w rynku nie jest zbyt imponującym wynikiem, to jednak należy zauważyć, że producent z Massachusetts mierzy dość wysoko. Jego głównymi konkurentami są najwięksi dostawcy macierzy dyskowych: Dell, HPE, NetApp, IBM, Hitachi Vantara, Pure Storage czy Huawei, a także urządzeń typu backup appliance, takich jak Dell Data Domain, HPE StoreOnce czy Veritas NBU. Zdaniem ExaGrid do największych mankamentów macierzy należy duża podatność na ataki ransomware oraz koszty utrzymania. Jeszcze więcej wad mają produkty z drugiej wymienionej kategorii – stosunkowo wolne tworzenie kopii zapasowych i odzyskiwanie danych po awarii, mała skalowalność, brak odporności na ataki ransomware czy szybkie starzenie.

ExaGrid planuje rosnąć w tempie 15 proc. rocznie i stawia na wzrost organiczny. n

Skuteczne zarządzanie

w erze „growth hackingu”

W dzisiejszym jakże zmiennym cyfrowym świecie rola dyrektora generalnego znacząco ewoluowała.

Obecnie fundamentem pomyślnego rozwoju firmy na poszczególnych etapach stała się koncepcja „growth hackingu”. Przy czym nie chodzi już tylko o przetrwanie, ale też o to, by wyprzedzić konkurencję w warunkach, które wymagają od nas zwinnego działania i innowacyjności.

Rzecz jasna, na początku nasz cel jest jasny: znaleźć niszę na rynku i produkt, który ją wypełni. Na tym etapie nasza firma to często kilka osób, budżet jest mocno ograniczony, a klienci dopiero zaczynają nas zauważać. Sukces zależy wtedy od tego, czy zdołamy zbudować solidne podstawy z dostępnych zasobów. Liczy się zaradność i przebojowość, a każda złotówka jest na wagę złota.

To moment, w którym kreatywność i przedsiębiorczość nie tylko przychodzą nam naturalnie, ale są wręcz koniecznością. Z pomocą przychodzą rozwiązania low-code i no-code, które pozwalają zespołowi eksperymentować i wdrażać pomysły bez czekania na wsparcie działu IT. Liczą się szybkość, zwinność i zdolność do błyskawicznej zmiany kursu. Na tym etapie naszym głównym kanałem komunikacji jest e-mail – opanowanie go w zupełności wystarczy, by utrzymać więź z wciąż niewielką bazą klientów, zważywszy, jak ograniczone dane mamy do dyspozycji.

we i personalizować doświadczenia klientów. Możliwe, że w tym momencie zwrócimy także uwagę nabywców z innych regionów. Nie wystarczy już po prostu zaistnieć na rynku – musimy strategicznie przemyśleć, do kogo kierować ofertę i jak budować relacje z klientami. Nasze działania marketingowe muszą być oparte na analizie danych, a operacje – dostosowane do rosnącego popytu. Skalowanie to rozwój, ale rozwój przemyślany.

Jednak innowacyjność na tym etapie to nie sama technologia – potrzeba także dobrego lidera, zdolności adaptacji i kultury ciągłego doskonalenia. Nasza rola jako dyrektora generalnego w tej fazie ma charakter bardziej strategiczny niż operacyjny. Budujemy zespół, który przejmuje codzienne zadania, dzięki czemu my możemy skupić się na kształtowaniu wizji i strategii firmy.

Innowacyjność to nie tylko technologia.

Wraz z dojrzewaniem firmy przechodzimy od walki o udziały rynkowe do budowania pozycji lidera. Stawka rośnie – myślimy o ekspansji zagranicznej, dywersyfikacji oferty i pogłębieniu relacji z klientami. Nie chodzi już tylko o pozyskiwanie nowych odbiorców – liczy się ich stałe zaangażowanie, lojalność i ponowne zakupy. Na tym etapie coraz większą rolę zaczynają odgrywać sztuczna inteligencja i uczenie maszynowe, które pomagają nam spersonalizować doświadczenia klientów i przewidywać ich zachowania. Wzrost to jednak także większa złożoność, a infrastruktura naszej firmy musi być na tyle mocna, by temu sprostać. Nie jesteśmy już małym dynamicznym startupem, a poważnym graczem na rynku.

W erze „growth hackingu” najbardziej skuteczni prezesi to ci, którzy potrafią odnaleźć się w zawiłościach wzrostu firmy dzięki wyraźnej wizji, elastyczności i nieustannemu działaniu na rzecz innowacji. Prowadząc firmę przez kolejne fazy rozwoju, pamiętajmy, że wdrażane przez nas strategie przesądzą o naszej zdolności zarówno przetrwania, jak i dominacji w cyfrowym świecie przyszłości. Podsumujmy: zacznijmy oszczędnie, skalujmy z głową, zabezpieczmy pozycję firmy na rynku, a wreszcie wprowadzajmy innowacje, by pozostać liderem. Jednocześnie pamiętajmy, że wzrost nie jest liniowy i że każdy etap wymaga osobnych narzędzi oraz taktyki. Przede wszystkim bądźmy liderem otwartym na zmiany, który promuje kulturę ciągłego uczenia się, patrzy w przyszłość i prowadzi firmę ku nowym sukcesom.

Informacje o SALESmanago znajdziesz na: www.salesmanago.pl

Gdy firma zaczyna odnosić sukcesy, stajemy przed nowym wyzwaniem: skalowaniem działalności. Nie wystarczy robić tego samego, tylko w większym zakresie – trzeba robić to lepiej, szybciej i wydajniej. Musimy wypracować powtarzalny i rentowny model wzrostu. To na tym etapie zaczynamy doskonalić nasz produkt, poszerzać kanały marketingo-

Wreszcie przychodzi ostatnia faza: stajemy się innowatorem w branży - wyznaczamy trendy i nadajemy tempo. Tworzymy nowatorskie rozwiązania, jak oparta na AI analityka personalizacji, segmentacja i tworzenie treści, prowadzenie komunikacji wielokanałowej czy indywidualna personalizacja dla każdego klienta. Badamy nowe rynki i nieustannie przesuwamy granice możliwości.

Brian Plackis Cheng dyrektor generalny SALESmanago

Cyfryzacja dokumentów ze znaczkiem AI ze AI

Tradycyjne metody zarządzania dokumentami już dawno stały się nieefektywne, co prowadzi do coraz bardziej powszechnego wdrażania cyfrowego obiegu dokumentów. Dla tych, którzy decydują się na digitalizację, jej zalety są większe niż bariery i problemy do pokonania. Dlatego transformacja cyfrowa systematycznie wciąż postępuje, choć proces ten przebiega wolniej niż w okresie lockdownów. Towarzyszą temu nowe trendy oraz innowacje w skanowaniu dokumentów i ich cyfryzacji. Do najważniejszych należy wykorzystanie sztucznej inteligencji i uczenia maszynowego.

Wsparte sztuczną inteligencją digitalizowanie dokumentów może stać się jednym z punktów zwrotnych w procesie transformacji cyfrowej.

n Tomasz Janoś

Co ważne, organizacje, które już przeszły transformację, są w stanie łatwo wymienić korzyści wynikające z wdrożenia digitalizacji dokumentów i ich elektronicznego obiegu. Na pierwszym miejscu są oczywiście pieniądze, a więc optymalizacja kosztów i w efekcie przyspieszony rozwój firmy.

AI zmieni sposób

korzystania z dokumentów.

Zdaniem integratora

n Sławomir Zieliński, CEO, Fast IT

– Wiąże się z tym zmniejszenie czasu dostępu do informacji. W przypadku informacji przechowywanej w elektronicznej formie jest on kilkudziesięciokrotnie mniejszy w porównaniu do informacji dostępnej wyłącznie na papierze. Kolejną korzyścią jest możliwość wykorzystania pozyskanych w ten sposób dużych zbiorów danych do zaawansowanej analityki i dla sztucznej inteligencji – przekonuje Jarosław Dutka, Partner Manager Eastern Europe w PFU.

Do głosu dochodzi także dbałość o aspekty środowiskowe, na które coraz więcej osób zwraca uwagę. Z tego i wielu innych powodów można więc powiedzieć, że digitalizacja jest obecnie trendy. – Są też dodatkowe korzyści płynące z cyfrowej transformacji, w tym zwiększenie produktywności w miejscu pracy, uproszczenie procesów czy szybsze podejmowanie decyzji. Znaczenie ma także zwiększenie satysfakcji klienta z procesu obsługi oraz łatwiejsze współdzielenie

Obserwujemy zainteresowanie digitalizacją dokumentów, ale nie można powiedzieć, że to priorytet dla klientów. Oczywiście, wiele zależy od danej branży. Są takie, które – chociażby z powodu regulacji – muszą digitalizować dokumenty i procesy. Należy do nich sektor finansowy, w przypadku którego rozmawiamy akurat o takich projektach z kilkoma bankami spółdzielczymi. Wciąż czekamy natomiast na większe zainteresowanie ze strony sektora publicznego. Swoim klientom, gdy chodzi o sprzęt, proponujemy urządzenia wielofunkcyjne (MFP), wyposażone w skanery jednoprzebiegowe albo specjalizowane skanery, gdy dokumentów do cyfryzacji jest dużo. Jeśli chodzi o oprogramowanie, które oferujemy, to wybór jest spory – od prostszych narzędzi, które zwiększają efektywność skanowania i udostępniają OCR, po takie, które zapewniają tworzenie repozytoriów dokumentów z metadanymi oraz cyfrowych procesów obiegu dokumentów, umożliwiając także zarządzanie nimi.

informacji. Ogranicza się stratę czasu przez zautomatyzowanie powtarzalnych i czasochłonnych czynności. W efekcie tego wszystkiego rośnie morale kadry pracowniczej – uważa Jarosław Dutka.

Teoretycznie kolejną zaletą jest zwiększenie poziomu bezpieczeństwa przechowywania danych, pod warunkiem, że się o to rzeczywiście zadba. W procesie cyfryzacji kwestie ochrony zmieniają bowiem swój charakter – przechodząc z obszaru bezpieczeństwa fizycznego (papier) do obszaru cyberbezpieczeństwa (cyfrowe pliki).

– Dodatkowo, należy pamiętać o zwiększeniu bezpieczeństwa przechowywania dokumentów poprzez duplikację w postaci cyfrowej. Dzięki cyfryzacji firmy mogą redukować koszty związane z zarządzaniem dokumentacją papierową, jej magazynowaniem oraz ręcznym przetwarzaniem danych – twierdzi Agnieszka Wnuczak, Reseller Account Manager w polskim oddziale Epsona.

Pokoleniowe bariery i brak wiedzy

Na decyzje o wstrzymywaniu postępów w transformacji cyfrowej może wpływać wiele powodów. Wśród najczęstszych można wymienić różnice pokoleniowe. Pracownicy, którzy przez długie lata pracowali z dokumentacją papierową, mogą nie chcieć zmieniać status quo.

– Barierą są przede wszystkim przyzwyczajenia pracowników do tradycyjnych, papierowych procesów oraz opór przed zmianami. Brak świadomości co do korzyści płynących

RYNEK

z digitalizacji może prowadzić do szukania oszczędności w niewłaściwych obszarach, na przykład poprzez ograniczenie inwestycji w odpowiedni sprzęt i oprogramowanie, co znacząco ogranicza możliwości pełnej digitalizacji i automatyzacji obiegu dokumentów –uważa Agnieszka Wnuczak.

Poważną przeszkodą może się także okazać koszt wstępnej inwestycji. Proces digitalizacji często wymaga znacznych nakładów na sprzęt, oprogramowanie i specjalistyczną wiedzę. Organizacje mogą się także obawiać zakłóceń w procesach, które są poddawane transformacji. Choć są one najczęściej krótkoterminowe, bywa że zniechęcają do wdrożeń.

– Problemem jest nierzadko brak wiedzy eksperckiej w firmie, co powoduje niechęć do zmian ze względu na ograniczone rozumienie możliwości, jakie niesie ze sobą digitalizacja.

Dlatego często niezbędne jest posiadanie odpowiedniego doradztwa IT, aby przekształcać procesy w najbardziej wydajny, bezpieczny i szybki sposób – uważa Jarosław Dutka.

Brak wiedzy może nawet prowadzić do tego, że nie korzysta się z tego, co i tak już zostało kupione.

– Część użytkowników, nawet posiadając jakościowy sprzęt, nie wykorzystuje w pełni możliwości oprogramowania, które umożliwia korzystanie z zaawansowanych funkcji, takich jak bezpieczeństwo dokumentów, automatyczna dystrybucja plików czy OCR. Aby uniknąć tych przeszkód, kluczowe jest przemyślane podejście do wyboru technologii, które wspierają całościową transformację cyfrową w danej firmie - mówi Agnieszka Wnuczak. Postępy w cyfryzacji mogą także blokować funkcjonujące w firmach i instytucjach procesy zatwierdzenia/walidacji dokumentów. W wielu organizacjach podpisy są wymagane codziennie, a ich elektroniczna forma nie upowszechniła się jeszcze na tyle, by wyeliminować papier. Poza tym wciąż są sektory, w których wymaga się dokumentacji papierowej.

Z czym do klienta?

Gdy chodzi o sprzęt, to na pytanie, jakie urządzenia są najczęściej wybierane do skanowania dokumentów przez firmy i instytucje, ciężko odpowiedzieć jednoznacznie. W każdej organizacji potrzeby skanowania dla dokumentów mogą być różne. Jedni chcą przetwarzać wyłącznie faktury lub

kontrakty formatu A4, inni paragony, jeszcze inni potrzebują czegoś do digitalizacji książek, map czy dokumentów tożsamości/ paszportów, zaś inni wszystkiego co wchodzi do punktu kancelaryjnego w postaci korespondencji.

– Można śmiało założyć, że dla każdego typu nośnika istnieją specjalizowane rozwiązania do skanowania. A jednak warto czasem wybrać coś bardziej uniwersalnego. Zwłaszcza jeżeli skanowanie odbywa się sporadycznie i wymaga od urządzenia wyłącznie wykonania poglądowego pliku PDF i przesłania go do folderu, to można bez problemu wykorzystać urządzenie MFP – mówi Jarosław Dutka.

Jeżeli jednak proces skanowania jest bardziej wymagający, bo chcemy – dajmy na to – wyodrębnić informacje ze skanu, opisać dokument metadanymi, wówczas potrzebujemy dedykowanego skanera wraz z niezbędnym oprogramowaniem, które jest w stanie za nas nazwać, posortować i rozpoznać skanowane dane.

– Ponadto, jeżeli chcemy poddawać procesowi skanowania dokumenty, które są „trudne”, a więc zgięte po wyjęciu z koperty, poplamione, podarte, bądź o zwiększonej gramaturze, to

warto wyposażyć stanowisko pracy w dedykowany profesjonalny skaner dokumentów, który po pierwsze łatwo taki dokument zeskanuje, ale przede wszystkim go nie uszkodzi. A to mogłoby się wydarzyć na urządzeniu MFP, które wygina dokument o 180 stopni podczas skanowania dwustronnego – tłumaczy Jarosław Dutka.

Już teraz sztuczna inteligencja wnosi do procesu digitalizacji dokumentów oraz ich elektronicznego obiegu szereg istotnych korzyści, usprawniając i automatyzując kluczowe aspekty zarządzania informacjami.

– Dzięki zastosowaniu zaawansowanych algorytmów AI automatyczne rozpoznawanie tekstu jest coraz bardziej precyzyjne i dokładne. W efekcie możliwe jest nie tylko przekształcenie zeskanowanego dokumentu do formatu cyfrowego, ale także wyodrębnienie z niego ustrukturyzowanych danych – tłumaczy Jacek Wójcik, dyrektor handlowy działu dystrybucji w AutoID Polska.

Zastosowanie AI pozwala również na usprawnianie procesu automatycznej kategoryzacji dokumentów. Algorytmy uczące

Zdaniem specjalisty

n Jacek Wójcik, dyrektor handlowy działu dystrybucji, AutoID

Sztuczna inteligencja diametralnie zmieni sposób korzystania z dokumentów, a więc sposób, w jaki firmy podejdą do digitalizacji dokumentów oraz zarządzania ich obiegiem. Automatyzacja, optymalizacja procesów oraz większe bezpieczeństwo pracy sprawią, że organizacje będą szybciej, bardziej efektywnie i bezpieczniej przetwarzać ogromne ilości informacji. Oparte na AI nowe rozwiązania będą pomagały monitorować przepływ dokumentów i wykrywać nieprawidłowości, w tym nietypowe żądania dostępu do wrażliwych danych lub próby modyfikacji ważnych dokumentów. Zastosowanie przetwarzania języka naturalnego (NLP) w systemach zarządzania dokumentami wesprze natomiast lepsze rozumienie tekstu oraz automatyzację szeregu czynności, takich jak analiza umów, ekstrakcja kluczowych danych czy generowanie streszczeń dokumentów.

n Agnieszka Wnuczak, Reseller Account Manager, Epson

Najczęściej wybieranym sprzętem do skanowania dokumentów przez firmy i instytucje są biznesowe urządzenia wielofunkcyjne. Są one wyposażone w szybkie, dwustronne skanery oraz oprogramowanie, które wspiera zarządzanie dokumentacją. W wielu przypadkach to w pełni wystarcza dla potrzeb mniejszych i średnich firm, które szukają wszechstronnych rozwiązań w rozsądnej cenie. Z kolei dedykowane skanery są doceniane przez klientów, którzy potrzebują większej prędkości oraz dodatkowych funkcjonalności, takich jak obsługa różnorodnych nośników w jednym cyklu skanowania czy digitalizacja dokumentów o niestandardowych formatach. Takie potrzeby są charakterystyczne dla instytucji publicznych, bibliotek oraz uczelni.

się mogą rozpoznawać różne typy dokumentów (faktury, umowy, raporty itp.) na podstawie zawartości, co eliminuje konieczność ręcznego segregowania plików.

– AI wspomaga również procesy związane z bezpieczeństwem i kontrolą dostępu do dokumentów. Umożliwia automatyczne wykrywanie poufnych informacji (np. dane osobowe, numery kont bankowych), anonimizację tych danych i odpowiednie oznaczanie dokumentów, co pozwala na ograniczanie ryzyka wycieku informacji – twierdzi Jacek Wójcik.

n Jarosław Dutka, Partner Manager Eastern Europe, PFU Chociaż wiele firm od lat planowało przejście z procesów tradycyjnych – papierowych – na cyfrowe, to jednak odkładało w czasie proces cyfrowej transformacji. Wstrzymywała je obawa o zdolność adaptacji pracowników do nowych procesów, a także brak wiary, że bez papieru da się prowadzić biznes. Kolejny czynnik to niedostatek wiedzy w zakresie planowania takiej zmiany. Przyszła jednak pandemia Covid-19 i wiele z tych planów zostało zrealizowanych znacznie wcześniej, a machina cyfrowej transformacji nabrała niespotykanego wcześniej tempa. Organizacje, które już ją przeszły mogą łatwo wskazać szereg korzyści wynikających z wdrożenia digitalizacji dokumentów i ich elektronicznego obiegu.

Kolejną ważną funkcją jest analiza oraz przetwarzanie treści dokumentów w czasie rzeczywistym. Sztuczna inteligencja może automatycznie identyfikować kluczowe informacje, takie jak daty, kwoty czy nazwy firm, a następnie wykorzystywać te dane do generowania raportów monitorowania płatności czy zarządzania umowami. Stopień zaawansowania zależy od potrzeb użytkowników i doboru odpowiedniego rozwiązania, które zawiera kluczowe – z punktu widzenia klienta biznesowego – funkcje.

Współczesne systemy digitalizacji i zarządzania dokumentami będą w coraz większym zakresie korzystać z zaawansowanych funkcji napędzanych przez AI, które rewolucjonizują sposób, w jaki firmy przetwarzają i archiwizują dokumenty. Tworzy się chociażby takie funkcje, jak automatyczne indeksowanie i wyszukiwanie przy użyciu AI, co umożliwi nie tylko wyszukiwanie dokumentów na podstawie słów kluczowych, ale także na bazie treści kontekstowej. Dzięki temu można szybciej znaleźć potrzebne informacje, nawet jeśli nie znamy szczegółów. – Uczenie się na podstawie wzorców użytkowania w systemach zarządzania doku-

mentami pozwoli w większym stopniu niż dotychczas przewidywać, jakie dokumenty mogą być dla nas najbardziej przydatne w danym momencie. System może automatycznie sugerować dokumenty lub informacje na podstawie poprzednich aktywności lub kontekstu pracy – mówi Jacek Wójcik.

Automatyczne przepływy/obiegi dokumentów pracy dzięki sztucznej inteligencji będą jeszcze bardziej zintegrowane, automatyzując oraz optymalizując procesy biznesowe. Przykładowo, algorytmy będą mogły w sposób zautomatyzowany przypisywać zadania odpowiednim pracownikom lub uruchamiać powiadomienia, gdy dany dokument będzie wymagał zatwierdzenia lub dodatkowych działań. n

W digitalizacji dokumentów liczy się

automatyzacja

i bezpieczeństwo

„Procesy digitalizacji postępują w rosnącej liczbie obszarów biznesowych firm i instytucji. Dzieje się tak ze względu na potrzebę szybkiego dostępu do dokumentów i danych, jak też zarządzania nimi w sposób kontrolowany i bezpieczny” – mówi Anna Murawska, Partner Business Manager w polskim oddziale Epsona.

n Skanery „zaszyte” w urządzeniach wielofunkcyjnych stanowią dużą konkurencję dla samodzielnych skanerów biurowych. W jakich sytuacjach klient biznesowy powinien porzucić myślenie, że może się opierać tylko na tych pierwszych i zdecydować się na zakup wyspecjalizowanego sprzętu?

Zacznijmy od tego, że szeroko pojęta digitalizacja staje się dziś standardem. Organizacje przetwarzają coraz więcej dokumentów i danych, a w związku z tym zmieniają się ich potrzeby biznesowe w tym zakresie. Niektóre działania klientów biznesowych wymusza także legislacja. W związku zaś z rosnącymi potrzebami, coraz więcej firm maksymalnie wykorzystuje urządzenia wielofunkcyjne właśnie w obszarze funkcji skanowania. A to z kolei ogranicza możliwości wykorzystywania maszyn MFP w tym samym czasie do innych celów. Każdy chyba się zgodzi, że dostawianie kolejnego urządzenia wielofunkcyjnego, w sytuacji gdy chcemy poprawić dostępność skanera, jest wątpliwym posunięciem. I tu otwiera się szerokie pole do implementowania wyspecjalizowanych skanerów dokumentowych. Trzeba też podkreślić, że żyjemy w czasach, w których wymogi związane z bezpieczeństwem danych i informacji stale rosną, co jeszcze bardziej uzasadnia ograniczenie swobodnego współużytkowania przez pracowników funkcji urządzeń MFP. Zastosowanie specjalistycznego skanera pozwala zwiększyć poufność przetwarzanych dokumentów. Nowoczesne skanery dokumentowe Epsona łączą w sobie wszystkie cechy najnowszej technologii, zaawansowanych rozwiązań i narzędzi software’owych (Open Platform) wraz z wysokimi wymaganiami w obszarze bezpieczeństwa – w kontekście autoryzacji, co pozwala nam odpowiadać na potrzeby klientów biznesowych w zakresie przetwarzania dokumentów.

n Ale wciąż jest za wcześnie, aby mówić, że koncepcja biura bez papieru realizuje się na naszych oczach…

Procesy digitalizacji postępują w rosnącej liczbie obszarów biznesowych firm i instytucji ze względu na to, że potrzebujemy szybkiego dostępu do dokumentów oraz danych, jak też chcemy zarządzać nimi w sposób kontrolowany i bezpieczny. Również sektor publiczny dostrzega korzyści wynikające z digitalizacji, a przejawia się to właśnie wzrostem zainteresowania skanerami dokumentowymi, co przekłada się na ich sprzedaż. Jednocześnie dokument tradycyjny jest w ciągłym użyciu. Digitalizacja pozwala połączyć te dwa światy tak, aby z jednej strony spełnić wymogi formalne – jak tradycyjny podpis, a z drugiej nadążyć za zmieniającym się światem technologii cyfrowych.

n Czy profesjonalne skanery dokumentowe zmieniły się przez lata? Jakie ich cechy liczą się teraz najbardziej?

Zautomatyzowana dystrybucja dokumentów ma także aspekt ekologiczny.

Oczywiście same urządzenia ewaluowały w obszarze designu, produktywności, prędkości i funkcjonalności. Natomiast bezspornie kluczowa jest niezawodność sprzętu i maksymalne wsparcie jego funkcji narzędziami software’owymi do przetwarzania obrazu, korekcji, OCR-owania i automatyzacji. Szereg rozwiązań zastosowanych w naszych skanerach pozwala na nieprzerwaną pracę, co jest możliwe dzięki obecności czujników podwójnego pobrania, przekoszenia dokumentu, zabrudzenia listwy i in. Natomiast wsparcie inteligentnych narzędzi software’owych, jak Document Capture Pro i Open Platform maksymalnie automatyzuje proces skanowania od momentu pozyskania obrazu, poprzez pozyskanie i walidację danych, aż do zasilenia nimi finalnych systemów dziedzinowych. Warto też zaznaczyć, że szybkość i bezproblemowość skanowania oraz automatyzacja obiegu dokumentów przekładają się na oszczędność czasu pracowników, a to z kolei ma bezpośredni wpływ na redukcję kosztów operacyjnych. Co więcej – minimalizuje stres związany z czasochłonnymi i powtarzalnymi zadaniami. Zwięk-

sza to nie tylko efektywność, ale też komfort pracy. Należy pamiętać, że zautomatyzowana dystrybucja dokumentów ma także aspekt ekologiczny – minimalizacja zużycia papieru i energii przekłada się na mniejszy ślad środowiskowy. To dodatkowe, pozatechniczne cechy, które zyskują obecnie na znaczeniu w rozmowach z potencjalnymi klientami o rozwiązaniach do digitalizacji dokumentów. n Na ile ważnym czynnikiem wspomagającym sprzedaż specjalistycznych skanerów biurowych na polskim rynku teraz i w przyszłości jest rozwój platformy EZD RP, nadzorowany przez NASK, pod egidą Ministerstwa Cyfryzacji?

Z początkiem 2028 roku systemy klasy EZD staną się obligatoryjne dla jednostek administracji publicznej, ale większość z nich wprowadzi je wcześniej. Już dziś większość skanerów pozwala zasilać EZD obrazem zeskanowanego dokumentu, natomiast kluczowa jest maksymalna automatyzacja tego procesu, aby na jak najwcześniejszym jego etapie pozyskać jak najwięcej danych, oznaczyć dokumenty i wysłać w odpowiednie miejsce do zasobów elektronicznych. n Czy klienci końcowi zainteresowani standardem EZD RP znajdą w ofercie Epsona odpowiednie rozwiązania?

Epson wychodzi naprzeciw tym oczekiwaniom, czego najlepszym przykładem jest współpraca naszej nowej serii skanerów WorkForce DS-800WN i DS-900WN z konektorem DocuScan EZD. To rozwiązanie opracowane przez naszego partnera technologicznego Docu-Partner, producenta specjalistycznego oprogramowania, autoryzowanego przez NASK, a służącego do automatyzacji procesu zasilenia zasobów EZD RP.

n Podsumowując: na co partnerzy Epsona, chcący wykorzystać rozwijający się trend digitalizacji dokumentów powinni stawiać w komunikacji z klientami?

Najpierw ujmę to hasłowo: automatyzacja równa się skuteczność i bezpieczeństwo. A pod tym hasłem kryje się kompleksowość naszych rozwiązań, umożliwiająca automatyzację procesu skanowania, co w rezultacie pozwala oszczędzać czas i eliminować ludzkie błędy, a także uzyskiwać wymierne korzyści biznesowe w kontekście zarządzania cyfrowymi dokumentami i ich bezpieczną archiwizacją. Dodam, że sporo też mówi się ostatnio o wykorzystaniu AI w procesach OCR i walidacji danych. Bacznie się temu przyglądamy i nie wykluczamy współpracy z dostawcami takich rozwiązań.

Klienci biznesowi zainteresowani standardem EZD RP mogą śmiało sięgać po skanery Epson.

Skanowanie jak z płatka ze skanerami

Epson DS z systemem DocuScan EZD

Z roku na rok administracja publiczna, firmy oraz duże organizacje, np. uczelnie, muszą stawić czoła coraz większym wyzwaniom związanym z zarządzaniem dokumentami. Skanery dokumentowe staną się dla nich niezbędnym elementem infrastruktury. Najnowsze skanery Epson WorkForce DS-800WN i DS-900WN oraz „zaszyte” w nich (dzięki współpracy z producentem specjalistycznego oprogramowania Docu-Partner) funkcje współpracy z platformą Elektronicznego Zarządzania Dokumentacją (EZD), to doskonały sposób na skuteczne uproszczenie obiegu dokumentów, zwiększenie bezpieczeństwa i obniżenie kosztów – szczególnie w sektorze publicznym.

Kluczowe zalety systemu DocuScan EZD autorstwa Docu-Partner:

n zapewnia pełną zgodność zeskanowanych plików z normami stosowanymi w polskiej administracji publicznej; to ważne, gdyż w niedalekiej przyszłości jednostki publiczne w Polsce prawdopodobnie będą wykorzystywać ten standard jako podstawę pracy;

n pozwala na autoryzację użytkowników przy pomocy kart dostępowych, kodów PIN lub logowania się przy użyciu konta Active Directory; zapewnia to pełną kontrolę nad dostępem do urządzeń i operacji skanowania, co chroni dane przed nieautoryzowanym dostępem;

n umożliwia monitorowanie pracy urządzeń oraz generowanie raportów dotyczących ilości i kosztów wykonanych operacji, co dodatkowo wspiera utrzymanie najwyższych standardów bezpieczeństwa i zarządzania danymi; n automatyzuje proces skanowania – skanowane dokumenty są automatycznie zapisywane we właściwych lokalizacjach w systemie EZD RP, a dodatkowe funkcje, takie jak rozpoznawanie kodów kreskowych, jeszcze bardziej usprawniają proces ich rejestracji i archiwizacji;

n obsługuje także funkcje OCR, które pozwalają na automatyczną konwersję dokumentów do edytowalnych formatów takich jak Word, Excel czy przeszukiwalny PDF.

Skanery WorkForce DS-800WN i DS-900WN – podstawowe dane techniczne:

n prędkość skanowania (odpowiednio): 50 stron / 100 obrazów na min. i 70 str. / 140 obr./min., n dzienny cykl pracy (odpowiednio): 8 tys. i 11 tys. stron, n obsługa szerokiego zakresu nośników, n niski pobór mocy, n wbudowany moduł łączności sieciowej, n otwarte oprogramowanie, n możliwość integracji z oprogramowaniem Document Capture Pro.

Dodatkowe informacje: Anna Murawska, Partner Business Manager, Epson anna.murawska@epson.pl

HOW TO STARTUP

Polskie startupy i rodzimi founderzy są niezwykle aktywni, niezależnie od aktualnej koniunktury w branży IT.

wieści z sektora startupów

TRANSAKCJE

n PFR Ventures podpisało pierwsze cztery umowy z funduszami venture capital w ramach programu Fundusze Europejskie dla Nowoczesnej Gospodarki (FENG). Beneficjentami środków będą: 24Ventures, Digital Ocean Ventures Starter, Hard2beat i Tar Heel Capital Pathfinder. Nowe fundusze będą dysponować kapitałem o łącznej wartości ponad 250 mln zł, z czego wkład PFR Ventures wynosi około 200 mln zł. Środki mają zostać wykorzystane do końca 2029 r. na inwestycje w innowacyjne polskie startupy, przy czym tzw. okres dezinwestycyjny potrwa kolejne 4 lata.

RYNEK

n Bank Gospodarstwa Krajowego oraz NRI (instytucja prorozwojowa działająca w imieniu Ministerstwa Przemysłu i Handlu Republiki Czeskiej) dołączyły do inicjatywy Europejskiego Funduszu Inwestycyjnego, której celem jest wspieranie spółek z Europy Środkowo-Wschodniej w ich fazie wzrostowej. BGK i NRI przeznaczyły po 20 mln euro na rzecz Three Seas Initiative Innovation Fund. Fundusz ten ma teraz dysponować kwotą 180 mln euro, wraz z dodatkowym finansowaniem z EFI, ale ogólnym celem jest zmobilizowanie około 1 miliarda euro nowego finansowania i wzmocnienie rozwoju biznesu w Europie Środkowo-Wschodniej.

n Momentum Capital Partners to nowy polski fundusz, powołany przez doświadczonych inwestorów: Roberta Ditrycha oraz Przemysława Danowskiego. Założyciele MCP planują zainwestować do 20 mln zł w startupy znajdujące się w fazie wzrostowej. Nie zamierzają przy tym ograniczać się do kwestii finansowych, ale wraz z kapitałem zapewniać pomoc w efektywnym skalowaniu biznesu na bazie swoich dotychczasowych kompetencji.

n S9+ coalition to nowopowstała inicjatywa europejskich organizacji reprezentujących środowisko startupowe na Starym Kontynencie. Jej celem jest wypracowanie wspólnej deklaracji, która następnie ma trafić na biurka krajowych ministrów cyfryzacji. Pomysłodawcy projektu chcą w ten sposób zmobilizować polityków do podjęcia konkretnych kroków, które pomogą europejskim przedsiębiorcom w zwiększeniu ich konkurencyjności i innowacyjności na światowym rynku. Obecnie ważną przeszkodą na tej drodze są zbyt restrykcyjne regulacje, co między innymi hamuje rozwój startupów zajmujących się sztuczną inteligencją. Polskę w ramach tej inicjatywy reprezentuje Fundacja Startup Poland.

ANALIZY

n AI Chamber, w swoim raporcie „Rola AI w MŚP” wykazała, że 9 na 10 przedsiębiorstw w Polsce stosuje sztuczną inteligencję (AI) i uczenie maszynowe (ML), przy czym prawie co czwarta firma – w znacznym stopniu. Ponad 40 proc. firm przewiduje również pozytywne skutki finansowe wynikające z wdrożenia AI/ ML, takie jak wzrost przychodów i redukcja kosztów. Połowa firm, które korzystają ze sztucznej inteligencji, dostrzega potencjał tej technologii w budowaniu przewagi konkurencyjnej. Prawie 2/3

STARTUP MIESIĄCA

n ICEYE to polsko-fiński startup, który umożliwia instytucjom państwowym oraz firmom prywatnym podejmowanie lepszych decyzji strategicznych i biznesowych na podstawie dostępu do aktualnych, wiarygodnych i dokładnych zdjęć satelitarnych. Po wejściu na rynek w 2015 roku firma dokonała przełomu w obserwacji Ziemi z kosmosu, budując pierwszego na świecie satelitę SAR (radar z syntetyczną aperturą) o wadze nieprzekraczającej 100 kg. ICEYE dostarcza dane dla klientów z sektora obronnego, morskiego, rolnictwa, zasobów naturalnych, zarzadzania kryzysowego, ubezpieczeń i finansów.

INWESTYCJE W CYBERBEZPIECZEŃSTWO

n Pergamin, polski startup oferujący internetową platformę do automatyzacji zarządzania dokumentacją, pozyskał 11 mln zł od amerykańskiego funduszu OnDean Forward, który tym samym dołączył do grona dotychczasowych inwestorów, a więc: Sunfish Partners, DFRI, FundingBox, JR Holding oraz Nunatak Capital.

n SATIM Satellite Monitoring zamknął wewnętrzną rundę finansowania prowadzoną przez Balnord, który jak do tej pory zainwestował w SATIM łącznie 1,4 mln euro. Pozyskane środki mają być przeznaczone na dalszy rozwój technologii wykorzystującej sztuczną inteligencję do wykrywania i klasyfikacji obiektów przy użyciu satelitarnych obrazów radarowych z syntetyczną aperturą (SAR).

n Xopero Software, polski dostawca systemu do backupu i odzyskiwania danych, zainkasował ponad 20 mln zł od Warsaw Equity Group (z możliwością rozszerzenia do ponad 30 mln zł). Inwestycja ma przyspieszyć globalną ekspansję gorzowskiej firmy. Do transakcji dołączyli: Maciej Zawadziński, przedsiębiorca i współzałożyciel funduszu Hard2beat oraz Paweł Maj, inwestor VC w spółki cybersecurity.

n Stimy AI, startup wykorzystujący sztuczną inteligencję w procesie nauki matematyki, otrzymał 337 tys. dol. od Simpact Ventures oraz AIP Seed.

n Petsy, platforma działająca w sektorze usług dla zwierząt domowych, zamknęła pierwszą rundę finansowania kwotą 1,1 mln euro, co ma między innymi pomóc polskiej spółce w ekspansji na rynek czeski. Fundusze na ten cel przekazali prywatni inwestorzy zrzeszeni w ramach Cobin Angels.

n SplxAI, startup zajmujący się rozwojem technologii ochrony chatbotów przed atakami, zebrał w ramach rundy pre-seed 2 mln dol. między innymi od takich funduszy, jak: Inovo, South Central Ventures i Runtime Ventures.

firm jest przekonana o korzystnym wpływie AI i ML na ich pracę. Ponad 50 proc. przedstawicieli MŚP, które korzystają z AI/ML, przewiduje również znaczące zmiany w swojej branży w wyniku dynamicznego rozwoju tych technologii. Wpływ sztucznej inteligencji ma obejmować głównie wprowadzenie nowych produktów opartych na AI, poprawę obsługi klienta dzięki chatbotom, zautomatyzowanie procesów oraz redukcję błędów. Według raportu, firmy o zasięgu lokalnym lub regionalnym oraz mniejsze przedsiębiorstwa rzadziej korzystają z AI i ML niż te o większym, międzynarodowym zasięgu. Im dłużej dana firma działa na rynku, tym ma bardziej pozytywny stosunek do sztucznej inteligencji i lepszą ocenę o jej wpływie na biznes.

Rubryka prowadzona we współpracy z Fundacją Startup Poland na bazie biuletynu „How To Startup”.

Polska pilnie potrzebuje strategii budowy przestrzeni danych

Od dwóch do dziesięciu lat – tyle czasu ma zająć wdrożenie w Polsce unijnego prawa dotyczącego zdrowia.

Oco chodzi? O EHDS, czyli rozporządzenie Komisji Europejskiej o wspólnej przestrzeni danych dotyczących zdrowia, które 24 kwietnia br. przyjął Parlament Europejski. Przy czym sektor opieki zdrowotnej to jedynie kropla w morzu potrzeb. Zdaniem ekspertów, w Polsce należy stworzyć ogólną strategię budowy przestrzeni danych, obejmującą wszystkie kluczowe branże polskiej gospodarki, w tym tak istotne, jak motoryzacja czy energetyka.

Wartość gospodarki opartej na danych w 27 krajach członkowskich Unii Europejskiej sięgnęła w 2022 r. blisko 500 mld euro i obecnie stanowi ona około 3,9 proc. PKB całej Wspólnoty. Jak wynika z prognoz IDC, w latach 2022–2025 wartość gospodarki opartej na danych wzrośnie z 19 do 24 mld euro, a do 2030 r. gospodarka oparta na danych w UE pozostanie nieco poniżej progu 1 biliona euro, przy rocznym wzroście na poziomie 5,5 proc. w latach 2025–2030 i udziale w PKB na poziomie 5,7 proc. – Kluczową rolę odgrywa tutaj obowiązek udostępniania danych na dużą skalę wewnątrz i między sektorami. Jeśli polskie firmy nie będą miały dobrych wzorców oraz nikt nie wskaże im odpowiednich kierunków, stracą możliwość konkurowania w cyfrowej gospodarce, bo pozostaną poza unijnym ekosystemem wymiany informacji. Współdzielenie zanonimizowanych danych pozwala znacząco przyspieszyć wdrażanie innowacji i nowych rozwiązań w biznesie – komentuje Ewa Lis-Jeżak, prezes IDC Polska.

Strategia w zakresie danych z 2020 r. jest odpowiedzią Unii Europejskiej na możliwości i wyzwania związane ze wzrostem znaczenia danych i szybkim postępem technologicznym w zakresie analityki oraz sztucznej inteligencji. Składa się na nią szereg regulacji, określających zasady prawne i narzędzia finansowania wizji zakładającej, że Europa stanie się kluczowym graczem w globalnej gospodarce opartej na danych. Celowi temu służą rozporządzenia i dyrektywy o zarządzaniu danymi, sztucznej inteligencji, interoperacyjności, w sprawie otwartych danych, a także unijna lista zbiorów danych o wysokiej wartości, program Cyfrowa Dekada oraz przeznaczenie ponad 20 proc. funduszy NextGenerationEU na transformację cyfrową.

Polski rząd powinien rozważyć utworzenie biura ds. danych.

– Sukces strategii UE i budowy jednolitego rynku danych zależy od skuteczności wdrożenia łączącego regulacje z projektami realizowanymi przez firmy, instytucje naukowe, fundacje czy ośrodki EDIH wspierane przez rząd. Główny cel budowania przestrzeni danych to ułatwienie przepływu danych w przejrzysty i zaufany sposób. W przestrzeniach danych odbiorcy i właściciele, posiadający prawa do danych w ramach regulacji UE, decydują, kto i jak może korzystać z ich danych – wyjaśnia Dariusz Śpiewak, były koordynator ośrodka GAIA-X w Polsce. UE w ramach programu DIGITAL wspiera projekty w zakresie standaryzacji i wsparcia, takie jak DSSC, inteligentne oprogramowanie pośredniczące (Simpl) oraz finansowanie 14 sektorowych prze-

strzeni danych. Wsparcie rządowe pobudza także budowę rozwiązań technicznych zapewniających interoperacyjność między sektorami. Realizację tej strategii wspierają organizacje, konsorcja i sieci współpracy z organami UE, prowadząc prace definiujące standardy i architekturę referencyjną z zachowaniem suwerenności (główne podmioty to GAIA-X, IDSA, BDVA, FIWARE, Sitra i TNO).

– Polski rząd powinien aktywnie promować przestrzenie danych jako podstawowy element transformacji cyfrowej i siłę napędową zarówno dla instytucji sektora publicznego, jak i przedsiębiorstw prywatnych w celu promowania innowacyjnej, godnej zaufania, inteligentnej i sprzyjającej włączeniu społecznemu gospodarki danych w Polsce – podkreśla Ewa Lis-Jeżak.

wą gospodarek. Jedynie stworzenie komplementarnego dokumentu, dotykającego wszystkich sfer polskiego biznesu, zaadresuje potrzeby każdej ze stron – przekonuje Jarosław Smulski, Senior Research Manager z IDC Polska.

Podobnego zdania jest dr inż. Marcin Płóciennik, kierownik działu Technologii Internetu Rzeczy, przedstawiciel IDSA Hub Polska PCSS IChB PAN.

Powstaje europejska przestrzeń danych związanych z energią.

Jednym z filarów strategii jest stworzenie prawdziwego jednolitego rynku cyfrowego, otwartego na informacje z całego świata, w którym dane osobowe i nieosobowe, w tym wrażliwe dane biznesowe, są bezpieczne, a przedsiębiorstwa mają łatwy dostęp do wysokiej jakości danych przemysłowych, pobudzając wzrost i tworząc wartość, jednocześnie minimalizując ślad węglowy i środowiskowy, dzięki budowie energooszczędnych i wydajnych centrów przetwarzania danych.

Badania IDC pokazują, że zdecydowana większość organizacji sektora publicznego i prywatnego na całym świecie udostępnia dane partnerom zewnętrznym, choć robią to tylko w ograniczonym zakresie lub gdy jest to absolutnie konieczne. Według Komisji Europejskiej państwa Wspólnoty muszą skupić się na danych wytwarzanych i przetwarzanych na terenie Unii, ponieważ to one mają dla nich największą wartość. To rządy państw decydują bowiem o sposobie wdrożenia polityk lub tworzeniu swoich strategii w zakresie danych.

– Pluralizm i złożoność rozporządzeń i przepisów sprawiają, że to rządy państw członkowskich powinny być odpowiedzialne za intepretowanie i implementowanie przepisów tak, żeby były one bliższe przedsiębiorcom będącym siłą napędo -

– Niezależnie od inicjatyw ogólnoeuropejskich, dotyczących przestrzeni danych, niezbędne jest podjęcie szeregu działań na poziomie krajowym, które wsparłyby rozwój przestrzeni danych w Polsce. Dotyczy to m.in. programów pilotażowych dotyczących domenowych przestrzeni danych w ramach takich dziedzin, jak ochrona zdrowia, rolnictwo czy energetyka – mówi Marcin Płóciennik.

Przestrzenie danych

EHDS, czyli rozporządzenie Komisji Europejskiej o wspólnej przestrzeni danych dotyczących zdrowia, tworzy ekosystem składający się ze wspólnych standardów i infrastruktury koniecznej do zarządzania danymi medycznymi na terenie wspólnoty. Korzyścią dla obywateli jest możliwość uzyskania elektronicznego dostępu do recept i wyników badań laboratoryjnych przeprowadzonych również w innych krajach Unii Europejskiej, zapewnienie wiarygodnego i skutecznego systemu wykorzystywania danych do badań i tworzenia polityk zdrowotnych. Kluczem będzie sposób wdrożenia zapisów EHDS przez państwa członkowskie UE. Komisja Europejska rozwija też wspólną europejską przestrzeń danych dotyczących energii – CEEDS. 11 marca br. kluczowe zainteresowane strony, w tym operatorzy energii, producenci, dostawcy systemów, integratorzy, producenci urządzeń i instytucje badawcze, zebrały się w Brukseli, żeby dokonać przeglądu postępów i zarysować przyszłe kroki w zakresie wdrażania CEEDS. Wspólna przestrzeń danych energetycznych UE umożliwi wprowadzenie

RYNEK

elastycznych produktów i rozwiązań w systemie elektroenergetycznym. Da również szansę prognozowania, pozwalającą skoordynować zależne od zasobów wytwarzanie i popyt, co jest niezbędne przy pozyskiwaniu energii z odnawialnych źródeł.

W branży motoryzacyjnej rozwijana jest inicjatywa CATENA-X. Ma ona na celu ustanowienie jednolitego standardu bezpiecznego i suwerennego udostępniania danych, wspierając dostęp do kompleksowych łańcuchów dostaw. Przykładem może być zlokalizowana w Polsce fabryka silników dystrybuowanych na całym świecie, która napotka na problemy z dostawą komponentów, mogące wpływać na działanie wielu innych podmiotów. CATENA-X umożliwia wtedy wyeliminowanie instalacji wadliwych części lub ogranicza negatywny efekt opóźnień dostaw tylko w oparciu o informacje z innych zakładów montażowych.

Przykładowo w Hiszpanii wprowadzono Hiszpański Urząd ds. Danych. Pomaga on efektywniej udostępniać i wykorzystywać dane rządowe, przyspieszając również cyfrową transformację kluczowych sektorów przemysłu. Jednym z kluczowych elementów tych działań jest zrozumienie motywacji i przedstawienie zachęt dla różnych interesariuszy w celu zmobilizowania kompleksowych ekosystemów przemysłowych i przedstawienia budujących wartość projektów udostępniania danych.

W 2020 r. rząd Hiszpanii utworzył na szczeblu krajowym nowe stanowisko Chief Data Officera (CDO), podlegające sekretarzowi stanu ds. cyfryzacji i sztucznej inteligencji. Jego głównym zadaniem są czynności w celu przyspieszenia wdrażania strategii UE w zakresie danych oraz promowanie dzielenia się danymi na dużą skalę.

– W celu zbudowania holistycznego i szybkiego rozwoju platform cyfrowych w Polsce potrzebne jest jak najlepsze zdigitalizowanie przedsiębiorstw. Aby to osiągnąć, należy zwiększyć świadomość cyfrową szczególnie w obszarze małych i średnich firm – komentuje Thomas Kaiser, Senior Manager Director Machining/Maintenance w Mercedes-Benz Manufacturing.

– Oprócz Hiszpanii, ciekawym wzorcem oraz inspiracją mogą być działania Centralnego Urzędu Cyfryzacji i Danych Zjednoczonego Królestwa. Central Digital and Data Office jest częścią Kancelarii Gabinetu koordynującej pracę resortów. CDDO realizuje politykę rządu w zakresie cyfryzacji i zarządzania danymi – wyjaśnia Ewa Lis-Jeżak.

Branże ochrony zdrowia, energetyczna oraz motoryzacyjna to przykłady sektorów, w których Unia Europejska prowadzi już działania albo ma ambitne plany opracowania Data Spaces. Na zbudowaniu przestrzeni danych mogą skorzystać także inne sektory, w tym przemysł przetwórczy, obejmujący swoim zakresem między innymi rolnictwo.

Państwa członkowskie UE powinny rozważyć powołanie biura ds. danych.

Dodaje przy tym, że polski rząd również powinien rozważyć utworzenie wyspecjalizowanego biura ds. danych, które będzie kierowało wdrażaniem krajowej strategii i polityki w zakresie danych i sztucznej inteligencji zgodnie z inicjatywami Unii Europejskiej oraz innymi inicjatywami międzynarodowymi.

Na podstawie art. 7, art. 13 oraz art. 23 Aktu ws. Zarządzania danymi (DGA), państwa członkowskie UE powinny rozważyć powołanie Biura ds. Danych. Jego zadaniem byłoby przyspieszenie realizacji krajowych strategii w zakresie danych i sztucznej inteligencji, w tym nadzorowanie wdrażania wizji przestrzeni danych UE.

– Kluczową rolą jest pokazanie, jakie szanse, ale również ryzyka wiążą się z udziałem w takich środowiskach, jak GAIA-X lub CATENA-X. Dużą rolę w budowaniu świadomości, jak również w tworzeniu i wspieraniu odpowiedniej infrastruktury umożliwiającej efektywne i bezpieczne przekazywanie dużych ilości danych odgrywają instytucje rządowe – podsumowuje Thomas Kaiser. Opracował Tomasz Gołębiowski

Sztuczna inteligencja a…

masło orzechowe

Marki mogą zaspokajać potrzeby klientów wzbudzając pasję w jednych i oferując wygodę w przypadku innych. Obie strategie są dochodowe.

Stawiam taką tezę: masło orzechowe pochłonęło więcej mojej energii mentalnej w ciągu ostatnich 50 lat niż było dla mnie faktycznie użyteczne. Musiałem wielokrotnie dodawać je do listy zakupów, decydować o marce, kategorii i cenie, przedzierać się przez szum reklam i promocji, by następnie uzupełnić jego zapasy całkiem nie tak mało razy w ciągu mojego życia, co w sumie było działaniem bez większego sensu, bo nie odniosłem z tego żadnych liczących się korzyści.

Byłoby rzecz jasna inaczej, gdybym wprost uwielbiał masło orzechowe. Gdyby ten produkt był moją pasją! Wtedy przemierzałbym wszystkie pobliskie i dalsze bazarki, szukając idealnego masła prosto od firm rzemieślniczych. Brałbym udział w dyskusjach na grupach w mediach społecznościowych, omawiając składniki, trendy i sytuację w branży… W rzeczywistości jednak są inne rzeczy, które mnie pasjonują.

Otóż co by się stało, gdybym mógł przekierować tę energię na rzeczy, które mnie pasjonują? Co by się stało, gdyby muzycy mogli grać więcej muzyki, poeci pisać więcej poezji, a technologia mogła wreszcie spełnić swoją pierwotną obietnicę oszczędzania czasu i poprawy jakości naszego życia?

tów jak ja byłyby warte co najmniej pięć razy więcej dla inwestorów – ze względu na wysoką retencję oraz cykliczność zakupów. A więc wygrane są w takim układzie obie strony.

Wdrożenie sensorów, kamer, wag i innych urządzeń mierzących konsumpcję mogłoby być finansowane przez producenta i tworzyć wartość po obu stronach równania. Zresztą taka konsumpcja nie ogranicza się jedynie do produktów o niskiej wartości. Płacę 50 dol. miesięcznie Apple’owi za mojego iPhone’a o wartości 1400 dol. (plus rozszerzona gwarancja). Już zdecydowałem, że chcę mieć najnowszy model co roku, i to jest dla mnie warte 600 dolarów rocznie. Co wrzesień otrzymuję nowego iPhone’a, co zawsze sprawia mi radość.

zajmujących się towarami konsumpcyjnymi stanowią oni około 30 proc. dostępnego rynku. Można tu wdrożyć trzecią strategię – opartą na dystrybucji i wolumenie sprzedaży.

Dla tych, którzy postrzegają transport jedynie jako przemieszczanie się z punktu A do punktu B, leasing Toyoty czy Hondy mógłby wejść na wyższy poziom, gdyby co trzy lata dostarczano im nowy samochód prosto pod dom. Bez zbędnego kręcenia się po salonach, bez stosów dokumentów, bez prób sprzedaży dodatkowych produktów – tylko ustawić i zapomnieć.

Stawka jest wysoka.

I tu wkracza sztuczna inteligencja, wraz z kilkoma technologiami, takimi jak IoT i chmura… Dzięki nim możemy sobie bez trudu wyobrazić, że słoik masła orzechowego stoi na wadze połączonej z Wi-Fi, która uruchamiałaby zamówienie, gdy w słoiku pozostałoby mniej niż 50 gramów. Jestem pewien, że takie marki, jak Skippy lub Jif chętnie ofiarowałyby mi za darmo to rozwiązanie, gdybym tylko został ich lojalnym klientem na całe życie, płacąc im pełną cenę detaliczną. Przychody od takich klien-

Wtedy energia mentalna jest tracona wyłącznie na rozwiązanie początkowej kwestii – czy dana kategoria produktów ma dla nas specjalne znaczenie, czy nie. Inaczej mówiąc, czy jest to coś, na czym nam zależy, czy coś, co chcemy zautomatyzować i nie poświęcać temu uwagi?

Marki mogą zaspokajać potrzeby takich klientów na różne sposoby – wzbudzając pasję w jednych i oferując wygodę w przypadku innych. Obie strategie są dochodowe. Z kolei „łowcy promocji”, którzy zmieniają swoje preferencje choćby dla kilku groszy, stanowią najtrudniejszą i najmniej dochodową część rynku. Dziś w większości branż

Wróćmy do masła orzechowego. Co by było, gdyby mój nowy osobisty co-pilot AI zaczął przeglądać mój kalendarz, słuchać moich rozmów telefonicznych, czytać moje mejle i, co za tym idzie, rozumieć w ujęciu historycznym moje zachowania konsumpcyjne, psychologię zakupów i dostosowywać się do tego na bieżąco? Zaprosiłem rodzinę na Boże Narodzenie? Zamawiam więcej masła orzechowego. Wyjeżdżam na święta? Wstrzymuję dostawy.

Stawka jest wysoka! Jeśli marki nie wygrają walki na samym początku, mogą stracić klienta na całe jego życie. Ile firmy byłyby w stanie wydać, by wiedzieć, że wystawiam całą swoją przyszłą konsumpcję masła orzechowego na licytację? Domyślam się, że znacznie więcej niż koszt kampanii SEO w Google lub zakupu danych od firm trzecich (z plików cookies) obecnie.

Hmm, zrobiłem się głodny.

Autor pełni funkcję Chief Analyst w Canalysie.

50%

koszty autorskie

z perspektywy branży IT (cz. 1)

Temat 50-procentowych kosztów autorskich jest bardzo obszerny i dotyczy również innych branż. W tym artykule omawiam aspekty teoretyczne stosowania tego rozwiązania w przypadku pracowników z branży IT.

Zryczałtowane, 50-procentowe koszty uzyskania przychodów z tytułu korzystania lub rozporządzania przez podatnika przysługującymi mu prawami autorskimi, określane dalej jako 50-procentowe koszty autorskie, są bardzo często stosowane w branży IT, przede wszystkim dla pracowników zajmujących się tworzeniem i rozwojem oprogramowania. Za wyjątkiem zwolnień z opodatkowania dostępnych powszechnie dla wszystkich pracowników, koszty te stanowią właściwie jedyny dostępny obecnie sposób obniżenia zobowiązań podatkowych, który branża może stosować, niejako systemowo, dla tej grupy zawodowej. I chociaż to rozwiązanie cieszy się długą tradycją i akceptacją ze strony organów podatkowych oraz sądownictwa administracyjnego, to jest obarczone pewnymi ograniczeniami, a jego bezpieczne stosowanie wymaga stałego zaangażowania pracodawcy i pracowników.

Zgodnie z interpretacją ogólną wydaną przez Ministra Finansów we wrześniu 2020 r., zastosowanie 50-procentowych kosztów autorskich wymaga każdorazowo spełnienia 4 warunków. Pierwszym jest powstanie w ramach stosunku pracy utworu w rozumieniu prawa autorskiego, stanowiącego wynik jednego lub kilku wyżej wymienionych rodzajów działalności twórczej. Drugim jest dysponowanie obiektywnymi dowodami potwierdzającymi stworzenie przez pracownika utworu będącego przedmiotem prawa autorskiego. Trzeci warunek to wyodręb-

nienie honorarium autorskiego od innych składników wynagrodzenia. Czwarty zaś dotyczy umownego wyłączenia mechanizmu pierwotnego nabycia praw autorskich przez pracodawcę (tylko w przypadku programów komputerowych).

Organy podatkowe weryfikują podczas kontroli spełnienie tych warunków. Jeżeli choćby jeden z nich nie został spełniony, pracownikowi nie przysługuje prawo do odliczenia 50-procentowych kosztów autorskich i pracodawca nie powinien takiego odliczenia uwzględnić w kalkulacji podatku. Z uwagi na to, że w przypadku pracowników koszty stosuje się zwykle do wypłaty honorarium autorskiego za poszczególne miesiące, należy upewnić się, że ww. warunki spełnione zostały w każdym miesiącu, w którym pracownikowi ma zostać wypłacone honorarium. Szczególnej uwagi wymagają warunki nr 1 i 2, pozostałe (tzn. nr 3 i 4) można uznać za spełnione pod warunkiem wprowadzenia odpowiednich postanowień w umowach o pracę.

twórców przy powstawaniu utworu miała charakter twórczy, a nie pomocniczy. Zdaniem Sądu Najwyższego współautorstwo cechuje się tym, że utwór jest dziełem stanowiącym wynik wspólnego wkładu twórczego jego autorów; bez tego wkładu twórczego utwór nie powstałby. Wkład taki może przejawiać się w różnej postaci i jest przede wszystkim zależny od rodzaju utworu.

Nie jest to rozwiązanie zastrzeżone dla programistów.

Sama działalność twórcza nie ma zaś definicji prawnej. Stanowi ona przeciwieństwo działalności o charakterze technicznym, polegającej na wykonywaniu czynności wymagających jedynie posiadania pewnej wiedzy i biegłości w posługiwaniu się określonymi narzędziami lub technologiami. Cechą działalności technicznej jest więc przewidywalność i powtarzalność rezultatu. Natomiast działalność twórcza prowadzi do rezultatu stanowiącego projekcję wyobraźni autorów, a nie jedynie prosty wynik zastosowania pewnej wiedzy, umiejętności czy technologii. W tym ujęciu praca twórcza ma charakter subiektywny.

Utworem jest każdy przejaw działalności twórczej o indywidualnym charakterze, ustalony w jakiejkolwiek postaci, niezależnie od wartości, przeznaczenia i sposobu wyrażenia. Autorowi utworu przysługują majątkowe i osobiste prawa autorskie do utworu. Prawa autorskie przysługują także współtwórcom, pod warunkiem, że współpraca

Jest jeszcze jeden aspekt działalności twórczej, który nabrał znaczenia w ostatnich latach – wykonywanie działalności twórczej jest atrybutem istoty ludzkiej. Artefakty stworzone przez narzędzia wykorzystujące sztuczną technologię nie stanowią wyniku działalności twórczej, nie mogą zatem stanowić utworów w rozumieniu przepisów prawa autorskiego.

Program komputerowy jest utworem, jeżeli tylko powstał w wyniku działalności twórczej i posiada indywidualny charakter. Natomiast pojęcie „działalność twórcza w zakresie programów komputerowych”, użyte w ustawie o PIT, nie zostało zdefiniowane. Właściwie nigdy nie budziło wątpliwości, że działalność taką wykonują programiści bezpośrednio tworzący program (kod) w wybranym języku. Wobec tego pracownicy zatrudnieni na stanowiskach programistów, developerów czy inżynierów ds. oprogramowania, którzy piszą programy komputerowe, są zwykle uważani za wykonujących taką działalność.

Organy podatkowe akceptują definicję „działalności twórczej w zakresie programów komputerowych”, którą posługuje się Dyrektor Krajowej Informacji Skarbowej w wydawanych przez siebie interpretacjach indywidualnych. Stoi on na stanowisku, że działalność tę należy rozumieć jako korzystanie i rozporządzanie prawami autorskimi do wszelkich utworów, które powstają w związku z ogółem działań podejmowanych w celu tworzenia programów komputerowych.

Z interpretacji tych wynika, że do rezultatów działalności twórczej w zakresie programów komputerowych można zaliczyć: kody źródłowe aplikacji mobilnych i webowych, plany i prototypy systemów, bazy danych oraz struktury danych, strony internetowe, dokumentację techniczną, publikacje naukowe, specyfikacje, plany, analizy, raporty

oraz rekomendacje, projekty graficzne (np. interfejs użytkownika), materiały reklamowe i marketingowe czy materiały audio-wideo. Rzecz jasna, każdy z tych artefaktów, oceniany indywidualnie, musi spełniać definicję utworu.

Z analizy interpretacji wynika ponadto, że 50-proc. koszty autorskie mogą znaleźć zastosowanie również przy wypłacie honorarium autorskiego: architektom systemów i oprogramowania, specjalistom ds. jakości, projektantom UX i UI, analitykom systemów i biznesowym, menedżerom projektów czy Product Ownerom. To oznacza, że nie jest to rozwiązanie zastrzeżone dla programistów.

Podobne stanowisko organy podatkowe powinny zajmować w przypadku działalności twórczej w zakresie gier komputerowych. W przypadku tej działalności prawdopodobne jest powstawanie utworów, które można byłoby także zakwalifikować jako rezultaty innego rodzaju działalności twórczej, w tym sztuk plastycznych, muzyki, twórczości audialnej i audiowizualnej.

Część działalności twórczej w zakresie programów komputerowych może także posiadać cechy działalności badawczo-rozwojowej. Prawo podatkowe definiuje działalność badawczo-rozwojową jako działalność twórczą obejmującą badania naukowe lub prace rozwojowe, podejmowaną w sposób systematyczny w celu zwiększenia zasobów wiedzy oraz wykorzystania zasobów wiedzy do tworzenia nowych zastosowań. Prowadzenie badań podstawowych jest raczej domeną instytucji naukowych, ale pra-

Aktualny stan prawny

Zgodnie z przepisami o podatku dochodowym od osób fizycznych, dalej określanym jako PIT, 50-procentowe koszty autorskie przysługują podatnikom, w tym pracownikom, uzyskującym przychody z tytułu:

n działalności twórczej w zakresie sztuk plastycznych, wzornictwa przemysłowego, muzyki, fotografiki, twórczości audialnej i audiowizualnej, programów komputerowych, gier komputerowych, teatru, reżyserii, dziennikarstwa;

n produkcji audialnej oraz  audiowizualnej;

n prawa zależnego, o którym mowa w art. 2 ust. 2 ustawy o prawie autorskim i prawach pokrewnych, do opracowania cudzego utworu w postaci tłumaczenia;

n działalności badawczo-rozwojowej, naukowej, naukowo-dydaktycznej, badawczej, badawczo-dydaktycznej oraz prowadzonej w uczelni działalności dydaktycznej.

Kwota 50 proc. kosztów autorskich, które podatnik może odliczyć w roku podatkowym jest ograniczona do wysokości kwoty stanowiącej górną granicę pierwszego przedziału skali podatkowej. Kwota ta wynosi obecnie 120 tys. zł.

ce rozwojowe polegające na implementacji wyników badań w konkretnych produktach lub usługach są podejmowane także przez innych pracodawców, w tym z branży IT. Zrozumienie omówionych powyżej aspektów teoretycznych i osadzenie ich w kontekście konkretnych pracowników w konkretnej organizacji to dopiero początek drogi do bezpiecznego wdrożenia i funkcjonowania tej struktury. W drugiej części artykułu zajmę się stroną praktyczną tego zagadnienia.

Tomasz Kret jest starszym prawnikiem w kancelarii Raczkowski.

Modelowanie

e-handlu

„Możemy wprost zmierzyć, jak skierowanie na produkcję kolejnego modelu uczenia maszynowego dla wyszukiwarki przekłada się na efekty biznesowe. Dokładnie te same mechanizmy dotyczą systemów rekomendacji” – mówi Ireneusz Gawlik, dyrektor obszaru AI Products Development and Big Data w Allegro.

Dział zajmujący się sztuczną inteligencją istnieje w Allegro już od kilku lat. Ilu w tej chwili liczy specjalistów?

Ireneusz Gawlik Zespół Machine Learning Research powstał w 2018 roku i obecnie liczy około 40 badaczy uczenia maszynowego. Przy czym AI w Allegro to nie tylko dział badań nad uczeniem maszynowym. Mamy już kilka różnych zespołów zajmujących się tworzeniem rozwiązań bazujących na sztucznej inteligencji. Część specjalistów jest rozproszona po obszarach produktowych, choć większość funkcjonuje w ramach działu Data and AI. Oprócz ekspertów od badań nad uczeniem maszynowym mamy też na przykład specjalistów Data Science. Są również ludzie zajmujący się adnotacją danych dla potrzeb modeli uczenia maszynowego. Ogółem w obszarze Data and AI pracuje obecnie około dwustu osób.

Allegro stworzyło kilka lat temu własny model językowy HerBERT. Czy jest on nadal wykorzystywany?

Nad HerBERT-em pracowaliśmy w latach 2019–2020. To model zgodny z opracowaną w 2018 roku przez naukowców Google’a architekturą BERT – Bidirectional Encoder Representations from Transformers. Wtedy nie było jeszcze tego typu modelu dla języka polskiego, więc stworzyliśmy go sami. Współpracowaliśmy z Polską Akademią Nauk, która udostępniła nam do tego celu Narodowy Korpus Języka Polskiego, który stanowił część zbioru treningowego. HerBERT jest nadal używany w wielu obsza-

rach działalności firmy. Został dostosowany do naszych potrzeb z wykorzystaniem danych wewnętrznych. Służy na przykład do tworzenia rozwiązań obsługujących zapytania użytkowników do działu obsługi klienta czy tzw. wyszukiwanie semantyczne. Będziecie go dalej rozwijać?

Nie pracujemy teraz nad nim jakoś szczególnie intensywnie. Na przyszłość interesuje nas w dużym stopniu dostrajanie już istniejących modeli językowych, udostępnianych na licencjach otwartych, do bieżących potrzeb całej firmy. Wydaje mi się, że dostosowywanie tych modeli do własnej domeny danych, dopasowywanie ich do własnych zastosowań, to jest właściwy, podstawowy kierunek rozwoju dla aplikacji NLP w języku polskim.

Czy będziecie brali pod uwagę uniwersalne modele typu ChatGPT, czy bardziej te, które są trenowane pod kątem języka polskiego, na przykład PLLuM lub Bielik?

Nie jest jasne jak istotne jest trenowanie modeli pod konkretny język w chwili, gdy istnieją modele wielojęzyczne. Istotniejsze może okazać się dopasowanie do konkretnej domeny języka, stąd skuteczność zależy w dużej mierze od rozmiaru oraz charakturu korpusu, na którym były trenowane. Wiele będzie z pewnością zależało od konkretnych potrzeb i zastosowań. W uczeniu maszynowym standardem jest ewaluacja modeli zgodnie z protokołem i to wynik ewaluacji daje ostateczną odpowiedź.

Sztuczna inteligencja to jednak nie tylko modele językowe, choć za sprawą ChataGPT zawładnęły one masową wyobraźnią. Z jakich jeszcze innych metod i technik AI korzystacie?

Są zastosowania, w których generatywna sztuczna inteligencja sprawdza się bardzo dobrze, jak na przykład przy wytwarzaniu treści w branżach kreatywnych. Natomiast tam, gdzie mamy do czynienia z optymalizacją procesów, budowaniem produktów, podejmowaniem decyzji, wyciąganiem wniosków – często szybko i na dużą skalę, na podstawie dużych ilości danych – lepiej sięgnąć do innych metod. W takich sytuacjach stosujemy głównie rozwiązania bazujące na uczeniu maszynowym opartym o modele sztucznych sieci neuronowych o mniejszej skali.

Jak to wygląda w praktyce?

Najprostszym przykładem jest wyszukiwarka. Jeżeli chcemy umożliwić użytkownikowi wyszukiwanie jakichś obiektów, na przykład dokumentów czy produktów, jak to jest w przypadku Allegro, to musimy mieć mechanizm, który będzie to obsługiwał. Po pojawieniu się zapytania trzeba najpierw wybrać odpowiedni podzbiór, a następnie go posortować tak, żeby przeglądając wyniki użytkownik zobaczył w pierwszej kolejności te, które są najbardziej istotne. Od wielu lat wykonywanie tych działań odbywa się z wykorzystaniem technik uczenia maszynowego. Ranking wyświetleń tworzony jest w oparciu o dane na temat historycznych interakcji Fot. archiwum, AdobeStock

z mechanizmem wyszukiwania – który dokument lub produkt był wyszukiwany, który przeglądany, który kupiony. Do analizy brane są miliony, jeśli nie miliardy historycznych przykładów.

To dobry przykład biznesowego zastosowania uczenia maszynowego, gdzie wdrożenie wprost mocno przekłada się na wyniki biznesowe… Tak, im lepiej działa to rozwiązanie, to znaczy im bardziej dopasowane do swoich potrzeb wyniki widzi użytkownik, tym bardziej rośnie liczba zrealizowanych transakcji. Możemy wprost zmierzyć, jak skierowanie na produkcję kolejnego modelu uczenia maszynowego przekłada się na efekty biznesowe. Dokładnie te same mechanizmy dotyczą systemów rekomendacji, czy reklam typu ‘pay per click’, które też są dostępne w ramach Allegro Ads.

W których jeszcze obszarach działalności firmy techniki sztucznej inteligencji przynoszą realne, mierzalne korzyści?

Rozwijamy również AI w obszarze logistyki. Rozwiązania optymalizacyjne, bądź rozwiązania oparte o uczenie maszynowe w obszarze Location Intelligence pozwalają nam rozwijać sieć punktów odbioru w postaci maszyn paczkomatowych. Do usprawniania sieci usług kurierskich i wspomagania pracy magazynów korzystamy z narzędzi forecastingowych, żeby optymalizować procesy. Robimy na przykład predykcje, jak wiele paczek danego dnia będzie opuszczało dany magazyn, co pozwala lepiej zaplanować w nim pracę. Stosujemy tego typu rozwiązania również do wnioskowania odnośnie do przyszłych, oczekiwanych wolumenów transakcji na

platformie, w szczególności w konkretnych działach produktów, wspierając w ten sposób pracę naszych zespołów biznesowych.

W jakim zakresie stosujecie mniej popularne, rzadziej pojawiające się w powszechnej świadomości metody sztucznej inteligencji, powiedzmy takie jak na przykład obliczenia ewolucyjne, systemy ekspertowe czy różnego rodzaju klasyfikatory?

Trudno jest mi dokładnie ocenić, jak wiele mamy tego rodzaju aplikacji. Na przykład, algorytmy ewolucyjne należą do klasy rozwiązań optymalizacyjnych i takie też, jak już wspomniałem, stosujemy. Wykorzystujemy je w szczególności do tworzenia aplikacji, w których nie jesteśmy w stanie przedstawić problemu w sposób różniczkowalny, który byłby podstawą do trenowania sieci neuronowej. Zdecydowana większość naszych rozwiązań powstaje jednak w ramach uczenia maszynowego.

Czy zajmujecie się również rozpoznawaniem obrazów?

Tak, już od dawna funkcjonuje u nas mechanizm wyszukiwania obrazowego. Przestawiając zdjęcie poszukiwanego przedmiotu, system wskaże podobne do niego, należące do tej samej kategorii lub posiadające zbliżone cechy. Wyszukiwanie obrazem to mechanizm wyszukiwania semantycznego, który opiera się na semantycznym rozumieniu zawartości obrazu. Opracowaliśmy również rozwiązanie wyszukiwania semantycznego dla zapytań tekstowych oparte o AI.

W obu przypadkach używamy głębokich sieci neuronowych do przetworzenia zapytania. W jednym przypadku będzie to fraza językowa, w innym obraz odzwierciedlony w rozproszonej reprezentacji wektorowej. Model jest trenowany w taki sposób, aby poprzez porównywanie dystansu pomiędzy wektorami reprezentującymi zapytanie oraz produkt można było oddać sens podobieństwa semantycznego pomiędzy produktem a zapytaniem.

Aby lepiej zrozumieć sens wyszukiwania semantycznego podam przykład. Wpisując frazę „przebita opona” dzięki rozumieniu zapytania przez AI jesteśmy w stanie znaleźć dętki, łatki, zestawy kluczy, czyli wszystko to, co może nam być przydatne w sytuacji przebicia opony w rowerze.

Czy można wskazać obszary, w których zastosowanie rozwiązań bazujących na sztucznej inteligencji sprawdza się w przypadku Allegro najlepiej, przynosi najlepsze efekty?

Rozwijamy AI w obszarze logistyki, optymalizując działanie maszyn paczkomatowych.

Ciężko byłoby mi wskazać obszar działalności firmy, w którym nie ma żadnych aplikacji uczenia maszynowego, czy szerzej sztucznej inteligencji. Oczywiście mamy miejsca, gdzie zastosowania tych rozwiązań są bardziej kluczowe i mocniej rozwinięte, jak też obszary mniej rozwinięte i pewnie też trochę bardziej przyszłościowe. Z pewnością ważnym dla nas zadaniem jest stała praca nad poprawą doświadczenia użytkownika w korzystaniu z naszej platformy. Sztuczna inteligencja jest w tym przypadku wykorzystywana do coraz lepszego

funkcjonowania wyszukiwarki, do poprawy jakości katalogu produktów, do budowania mechanizmów rekomendujących. To są oczywiste, naturalne kierunki rozwoju narzędzi AI, przy czym bardzo istotne ze względów biznesowych, bo ich wdrożenia przekładają się wprost na wzrost ilości zawieranych transakcji.

Ciekawym przykładem są zastosowania na platformie do promowania konkretnych produktów przez sprzedających… Owszem. W modelu ‘pay per click’ sprzedający uiszcza opłatę za kliknięcie w jego produkt. Żeby to było skuteczne, trzeba pokazać potencjalnemu nabywcy właściwy produkt w odpowiednim kontekście. Tutaj również z pomocą przychodzą modele uczenia maszynowego.

W jakim zakresie wykorzystujecie obecnie sztuczną inteligencję do automatyzacji obsługi klientów?

Jednym z głównych powodów, dla których byliśmy zainteresowani stworzeniem HerBERT-a, było właśnie zbudowanie narzędzi automatyzujących obsługę klienta. I taki system obecnie na Allegro działa. Obsługuje dziesiątki różnych rodzajów spraw klasyfikując zapytania do konkretnej klasy i przygotowując odpowiedź. Korzysta przy tym z różnych źródeł danych w naszych systemach. W niektórych przypadkach całkowicie automatyzuje obsługę klienta, w innych wspiera specjalistów z tego obszaru, żeby dostarczać lepsze, bardziej kompletne odpowiedzi w krótszym czasie. Warto przy tej okazji wspomnieć, że mamy też własne modele translacyjne, własny silnik tłumaczenia maszynowego, który zbudowaliśmy na potrzeby obsługi klientów w innych krajach, w których działa Allegro. Obejmuje on oczywiście język polski, język angielski, a także czeski, słowacki, węgierski, słoweński i chorwacki.

IRENEUSZ GAWLIK

Przewodzi działowi Rozwoju Produktów Sztucznej Inteligencji oraz Big Data w Allegro. Zatrudniony w Allegro od 2016 roku, założył w firmie dział Machine Learning Research, a więc laboratorium badawczo-rozwojowe, stworzone w celu rozwijania i stosowania najnowocześniejszych metod uczenia maszynowego. Zafascynowany głębokim zrozumieniem uczenia maszynowego, stosuje najnowsze osiągnięcia naukowe do tworzenia produktów na dużą skalę. Absolwent Akademii Górniczo-Hutniczej w Krakowie. W wolnym czasie gra na perkusji, podróżując z kolegami z zespołu.

W Allegro dysponujemy własnym, autorskim

Jaka jest skala automatyzacji procesów obsługi klientów? Bo ona też

pokazuje w pewnym stopniu skuteczność narzędzi AI-owych… W tej chwili około pięćdziesiąt procent działań z zakresu obsługi zapytań jest w pełni bądź częściowo zautomatyzowanych. Musimy pamiętać, że mamy zawsze w zapytaniach takie, które dotyczą kwestii najbardziej popularnych, które pojawiają się przez cały czas. W tym przypadku odpowiedzi na nie najłatwiej zautomatyzować. I mamy tak zwany długi ogon, czyli całą masę zapytań jednostkowych, unikalnych, bądź rzadko występujących – te są trudniejsze w procesie automatyzacji. W tym obszarze istotnym kierunkiem rozwoju jest wykorzystywanie narzędzi takich jak ChatGPT, czyli wielkich modeli językowych, które są dostosowane do działania w trybie konwersacyjnym. Dzięki temu można zwiększyć stopień automatyzacji stosunkowo niskim kosztem, bez tworzenia skomplikowanych, wyspecjalizowanych systemów. Dużym wyzwaniem jest tu natomiast weryfikowanie poprawności działania użytego modelu językowego. Chodzi o to, żeby nie wdrażać rozwiązań, które mogłyby wprowadzać użytkownika w błąd. A jest to szczególnie ważne, gdy mamy do czynienia z informacjami wrażliwymi, czyli handlowymi, finansowymi, czy też informacjami o produkcie. Być może właśnie dlatego przedsiębiorstwa nie wdrażają jeszcze tak szeroko rozwiązań opartych na generatywnej sztucznej inteligencji, ponieważ summa summarum nie jest to w wielu przypadkach wcale dużo prostsze niż tworzenie własnych rozwiązań od zera.

A jak mierzycie efektywność wykorzystania sztucznej inteligencji w różnych obszarach jej zastosowań? Nie ma tu prostych, jednoznacznych rozwiązań. W jednym obszarze będziemy mieli do czynienia z jasną, oczywistą odpowiedzią, w innym – z brakiem odpowiedzi na to pytanie. Wiemy, jak działanie wyszukiwarki przekłada się na transakcyjność i tego typu wdrożenia są zawsze sprawdzane w ramach testów A/B. Podobnie jak przy testach klinicznych dzielimy użytkowników na dwie jednakowe grupy – testową i kontrolną – i sprawdzamy, jaki jest wpływ wprowadzonej zmiany. Możemy na przykład porównywać konsultantów i powiedzieć, że dzięki danemu wdrożeniu przyspieszyli czas obsługi klientów o 20 procent.

Są też jednak miejsca, gdzie nie można posłużyć się jednoznacznymi, wymiernymi kryteriami oceny. Wiemy, że mierzenie wzrostu efektywności programistów korzystających ze wsparcia sztucznej inteligencji przy tworzeniu oprogramowania przez liczenie przyrostu ilości linii kodu nie ma sensu, chociaż jesteśmy przekonani, że te narzędzia są pomocne. Często również w innych miejscach, na przykład przy przetwarzaniu dokumentów w pracy biurowej, czujemy, że wdrożone rozwiązania są przydatne, że lepiej się z nimi pracuje, ale zmierzenie dokładnie ich wpływu jest bardzo trudne. Musimy więc stosować bardziej elastyczne, nawet deklaratywne miary. Jeżeli na przykład dane rozwiązanie jest mocno promowane przez użytkowników w firmie, to może oznaczać, że jest naprawdę wartościowe. Przeliczanie wszystkiego wprost na wzrost efektywności pracy nie zawsze jest możliwe i konieczne.

Rozmawiał Andrzej Gontarz

Ankieta CRN.pl:

niepewność końca roku

Cyberbezpieczeństwo jest dla wielu firm lokomotywą napędzającą sprzedaż, podczas gdy AI to wciąż obietnica tego rodzaju korzyści.

Wkontekście przychodów pierwsze trzy kwartały tego roku okazały się rozczarowujące dla co drugiego respondenta ankiety na portalu CRN.pl. W przypadku 36 proc. z nich wartość sprzedaży rok do roku spadła o ponad 10 proc., podczas gdy 15 proc. firm zanotowało rezultat gorszy od 1 do 10 proc. niż rok temu. Takie same przychody uzyskało 9 proc. pytanych, zaś wyniki zdołało poprawić w sumie 40 proc. przedsiębiorstw. Przy czym w przypadku 18 proc. sprzedaż wzrosła o przeszło 10 proc., a 22 proc. ankietowanych deklaruje wzrost od 1 do 10 proc. Jednym z obecnych koni pociągowych w sektorze IT jest bezpieczeństwo cyfrowe. Z ankiety CRN.pl wynika, że w tym roku aż 23 proc. respondentów spodziewa się, że ich przychody ze sprzedaży tego rodzaju rozwiązań wzrosną o ponad 20 proc. rok do roku, zaś kolejne 6 proc. pytanych oczekuje poprawy wyników w tym zakresie na poziomie od 11 do 20 proc. Kolejne 8 proc. przedsiębiorców z branży IT ma wprawdzie apetyt na lepszy rezultat, ale nie są to oczekiwania wygórowane (wzrost od 1 do 10 proc.).

Niestety, okazuje się, że niewiele mniejszy odsetek pytanych (29 proc.) oczekuje

spadku sprzedaży rozwiązań cybersecurity w porównaniu z 2023 r. Pozostali ankietowani (34 proc.) zaznaczyli odpowiedź: „nie sprzedajemy rozwiązań cyberbezpieczeństwa”. Co ciekawe, dość podobnie rozkładają się opinie w przypadku odpowiedzi na pytanie: „jak AI wpłynie na Twój biznes w najbliższych latach?”. Wprawdzie większość ankietowanych (36 proc.) uznaje, że to znakomita okazja do rozwoju biznesu a 31 proc. sądzi, że być może coś na tym zyskają, to 33 proc. w ogóle nie zamierza zarabiać na AI.

GenAI wychodzi z fazy testów

generatywną AI i usługi konsultingowe. Ponadto 30 proc. firm wdrożyło już aplikacje i usługi ulepszone GenAI w środowiskach produkcyjnych.

Oprogramowanie będzie największą kategorią wydatków na AI, stanowiąc około 58 proc. całkowitych inwestycji i nadal rosnąc w kolejnych 4 latach. Początkowo większość środków idących na oprogramowanie mają pochłonąć aplikacje i platformy. Jednak w 2028 r. dominującą rolę mają już odgrywać platformy AI, umożliwiając użytkownikom opracowywanie rozwiązań bardziej dostosowanych do ich konkretnych potrzeb.

Jak AI wpłynie na Twój biznes w najbliższych latach?

Analitycy IDC prognozują, że wydatki na sztuczną inteligencję w Europie powinny iść w górę w tempie średnio 30,3 proc. rocznie (CAGR) w latach 2024–2028. W ten sposób osiągnęłyby w 2028 r. poziom 133 mld dol. Przyspieszenie wdrożeń jest w dużej mierze spowodowane zainteresowaniem generatywną AI. W jej przypadku przeciętna roczna stopa wzrostu ma wynieść 55 proc. Według ekspertów wdrażanie GenAI szybko przechodzi od testów i eksperymentów do rozwiązań biznesowych.

Najszybciej swoje inwestycje ma zwiększać sektor mediów i rozrywki.

Badanie IDC wskazuje, że około 40 proc. europejskich firm dokonuje już znacznych inwestycji w generatywną sztuczną inteligencję. W ciągu najbliższych 18 miesięcy planują wydatki na szkolenia, oprogramowanie ulepszone

Usługi będą drugą co do wielkości i najszybciej rozwijającą się kategorią, a następny jest sprzęt. Oczekuje się, że europejskie inwestycje w IaaS, serwery i pamięć masową będą niższe niż w USA, ponieważ główni dostawcy infrastruktury znajdują się poza Europą. Oczekuje się przy tym, że sektor usług finansowych będzie liderem w wydatkach na AI w Europie w latach 2024 – 2028, na czele z bankowością. Natomiast najszybciej swoje inwestycje ma zwiększać sektor mediów i rozrywki, przeciętnie o ponad 33 proc. rocznie, w związku z wdrożeniami przypadków użycia zorientowanych na klienta, takich jak sprzedaż kierowana. Nakłady na AI w ponadprzeciętnej skali powinny iść w górę także w opiece zdrowotnej, naukach przyrodniczych i handlu detalicznym. W ankietach wzięło udział 187 osób.

Źródło: CRN.pl

„DeRisk”

po niemiecku i wiele dygresji po niemiecku i wiele dygresji

Podczas największych azjatyckich targów technologicznych China Hi-Tech Fair, zwróciłem uwagę na niemieckie stoisko wystawowe. A dokładnie to było stoisko landu Bawaria. Trochę mnie zaskoczył emblemat “DeRisk” pokazywany przez nich akurat w Chinach.

Słowo to kojarzy mi się dość jednoznacznie z trumpowską akcją pt. „decoupling” albo „trading war”. Określenie to w Chinach jest jednoznacznie kojarzone z wojną handlową motywowaną politycznie, czyli, że nie kupujemy produktów pod chińską marką, bo na pewno będą nas szpiegowały. Oczywiście, te same chińskie produkty, z tej samej fabryki, ale zaopatrzone w naklejkę z logo Siemensa albo Apple’a będą już Politycznie Uzdatnione Do Użytku (dalej będę operował skrótem „PUDU”) i o jakimkolwiek szpiegowaniu nie ma wtedy mowy. Wracając do Bawarczyków, trochę mnie zaskoczył taki wjazd, prawie jak z ukraińską flagą na Kreml. Innymi słowy: „oznajmiamy wam Chińczykom, że będziemy chronić naszą produkcję od zagrożeń związanych z produkcją w Chinach”. Odnotowałem to z uśmiechem i więcej nie zaprzątałem sobie tym głowy. Może źle ich zrozumiałem…

Targi SNEC PV w Szanghaju

Dopiero 7 miesięcy później, podczas targów SNEC PV w Szanghaju (dot. energii fotowoltaicznej), które odbywały się w dniach 11–14 czerwca 2024, miałem okazję zetknąć się bliżej z pojęciem „de-risk” o niemieckiej charakterystyce i zrozumieć ten ich specyficzny niuans. Rzeczywiście źle ich zrozumiałem w Shenzhen. Podczas targów w Szanghaju prezentowano produkty potężnych chińskich producentów systemów fotowoltaicznych. Prowadziłem wówczas ogólne rozeznanie w tym zakresie i z zaskoczeniem odnotowywałem, że większość firm miało już swoje europejskie oddziały i to praktycznie zawsze właśnie w Niemczech. Oddziały te operowały własnymi niemieckimi markami albo posiadały tak skonstruowane JV z dużymi podmiotami niemieckimi, że by-

ły zdolne dostarczyć produkty chińskie (z Chin) pod wybranymi markami niemieckimi, np. Menred.

Menred „made in China”

Te produkty uzyskują więc ten magiczny certyfikat PUDU, czyli, że te ogniwa słoneczne albo baterie (uwaga sarkazm) nie mają ukrytych kamer szpiegujących, raportujących do centrali partyjnej w Pekinie. Nikt jeszcze takich systemów szpiegujących nie wykrył, ale teoretycznie zainstalowanie tychże jest możliwe, a to prawie tak jakby już tam były (znowu sarkazm). W takim ujęciu „de-risk” oznacza minimalizację ryzyka biznesowego dla producentów chińskich na skutek nieprzewidzianych sankcji lub ceł wprowadzanych przez UE w ramach wojny handlowej (bez sarkazmu). Niemiecki „de-risk” ma chronić firmy chińskie i oczywiście też niemieckie – i w tym miejscu konieczne jest ograniczenie aktywności konkurencji w ramach krajów europejskich.

niczały bezpośrednią wymianę handlową Polska-Chiny oraz zdrową konkurencję, faworyzując kosztowniejsze zakupy z jedynie słusznym pośrednikiem, czyli Polska -Niemcy-Chiny.

Spryt Niemców

jest godny podziwu.

I żeby było jasne: absolutnie nie mam do Niemców pretensji. Bardzo ich podziwiam w tym zakresie. Wspaniała strategia, tylko pozazdrościć (bez sarkazmu). W dodatku, jeśli chodzi o Polskę, to akurat Niemcy nam żadnej krzywdy nie czynią, bo nasz biznes jest tak ekstremalnie upolityczniony, że sami się eliminujemy ze sceny. Z drugiej strony, zawsze możemy skubnąć coś z tej niemieckiej przedsiębiorczości jako podwykonawcy i poddostawcy materiałów oraz surowców eksportowanych do Chin właśnie za pośrednictwem naszego mądrego sąsiada.

„Niemieckie” magazyny energii LiFePO4 Pojawia się więc pytanie, jak ochronić biznes potężnych firm niemieckich (typu Siemens, BASF, Bosch i in.) przed konkurencją (chociażby z Polski) i przy okazji dać parasol ochronny dla chińskich gigantów współpracujących właśnie z tymi niemieckimi firmami? Otóż wystarczy wprowadzić cła ochronne na produkty z Chin, które nie są politycznie uzdatnione do użytku i w ogóle zohydzić marki chińskie europejskiej opinii publicznej. Te cła uderzą oczywiście w słabsze podmioty, na przykład w Polsce, jak też w słabsze firmy chińskie. Będą one ogra-

I jeszcze pewna dygresja na koniec. Niedawno prezydent RP Andrzej Duda przyjechał do Chin z oficjalną wizytą, gdzie został przyjęty z honorami zarezerwowanymi dla najważniejszych światowych osobistości. Dla nas, Polonii mieszkającej w Chinach, jest to korzystne wizerunkowo i pomocne w relacjach z partnerami chińskimi. Ważnym konkretem było natychmiastowe zniesienie obowiązku wizowego na krótkie pobyty dla Polaków. Szkoda tylko, że znowu utrwaliliśmy wizerunek Polski jako kraju rolniczego, mającego do zaoferowania produkty rolne, ze szczególnym wskazaniem na fasolę. Pozycjonuje nas to gdzieś za Kamerunem i małymi eksporterami warzyw i owoców. A mogliśmy pokazać Polskę – może trochę na wyrost, ale jednak – jako dostawcę nowych technologii. Bo nowe technologie i innowacje to jest to, czego

pragną Chiny i nie tylko one. Prezydent mógł odwiedzić np. Shenzhen i spotkać się z reprezentacją polskich firm, które produkują roboty edukacyjne albo zaawansowane systemy treningowe VR/AR (już nie powiem, że chodzi o nas). Dodam, że są to firmy działające pod polskimi markami, należące do Polaków i podmiotów zarejestrowanych w Polsce. Warto przy tej okazji zwrócić uwagę na różnicę pomiędzy działalnością Polaków w Chinach, gdzie zazwyczaj zakładane są przez nich lokalne oddziały polskich firm, a działalnością Polaków w USA lub Niemczech, gdzie nasi rodacy jedynie pracują dla zagranicznych firm i nie budują żadnej wartości dla rodzinnego kraju. W Chinach polskie firmy korzystają z dostępnych zasobów na potrzeby produkcji i prototypowania w ramach R&D. Natomiast w krajach zachodnich, Polacy mogą co najwyżej się zatrudnić, ewentualnie sprzedać swoją firmę. Przykładem może być najlepszy na świecie syntezator mowy Ivona sprzedany do Amazona, albo – swojego czasu bardzo innowacyjna – sopocka platforma edukacyjna Young Digital Poland, sprzedana Szwedom i przemianowana na Young Digital Planet. Miała być dygresja o wizycie prezydenta RP w Chinach, a wyszło mi, jak zwykle, narzekanie. Podsumowując jednak, wizyta była dobra. Elementem istotnym było wyraźne przypomnienie sprawy Ukrainy i zgody co do nienaruszalności granic państw. Czytałem pewne komentarze polskich ekspertów, że prezydent powinien coś wypalić na temat Ujgurów, czyli zwyczajnie… narobić gospodarzowi na dywan. Przypomnę, że przed wojną handlową ugrupowania ujgurskie, które przeprowadzały ataki terrorystyczne w Pekinie, były uznawane przez Waszyngton za terrorystyczne, bo wspierane przez Al-Kaidę.

Arnold Adamczyk

Autor od 2012 roku prowadzi działalność w Chinach i Hong Kongu w zakresie VR/AR/MR. Zajmuje się produkcją sprzętu i oprogramowania Mixed Reality na potrzeby szkoleń w zastosowaniach specjalistycznych.

na

Zim na wojna Zimna na rynku

motoryzacyjnym?

motoryzacyjnym?

Wszystkie firmy, które zdecydują się na dostawy na amerykański rynek, będą musiały się regularnie „spowiadać”.

Polecam uwadze czytelników magazynu CRN Polska raport Rhodium Group, dotyczący planów USA odnośnie do wycięcia wszystkich chińskich firm z wszystkich miejsc w łańcuchach dostaw dla samochodów oferowanych w USA. Z apetytem, żeby rozszerzyć to również na państwa G7, a zatem trzon Unii Europejskiej… Sam raport nie jest długi i został napisany w wyjątkowo treściwy i przejrzysty sposób, więc zachęcam do przeczytania go w całości (na portalu Rhodium Group: https://rhg.com/research/car-trouble-ictsrule-rewires-global-auto-supply-chains).

Formalnie decyzje Białego Domu dotyczą każdej części i oprogramowania w samochodzie, która pozwala na jego łączność ze światem zewnętrznym, jak i samych samochodów, które takie funkcje oferują. Przy czym urzędnicy BIS-u (US Commerce Department’s Bureau of Industry and Security) nie ukrywają, że sprawa jest „rozwojowa „ i z czasem chcą rozszerzyć listę o kolejne pozycje, w tym o czujniki (chociażby takie jak LIDAR) i mikroprocesory. Jednocześnie w omawianym dokumencie zaproponowano bardzo szeroką interpretację pojęcia „chińska firma”. W zasadzie można pod to pojęcie podciągnąć każdą firmę z chińskim udziałem w dowolnym miejscu na świecie – równie dobrze może to być Polska, jak też Meksyk czy Brazylia (w tym kontekście zwróćcie uwagę na definicję „foreign adversary influence”).

nie stały się „samotną wyspą”, dla której tworzy się oddzielne łańcuchy dostaw (i co w dłuższej perspektywie prowadzić będzie do zacofania technologicznego) Waszyngton musi „do tańca” doprosić Unię Europejską. Z tym, że wszystkie firmy, które zdecydują się na dostawy na amerykański rynek, będą musiały się regularnie „spowiadać”, dostarczając tamtejszemu rządowi szczegółowych raportów o całych swoich łańcuchach dostaw z danymi o imporcie, eksporcie i poddostawcach.

To dopiero początek.

Jeśli ten projekt wejdzie w życie, a uważam że tak, to jest to ze strony USA zagranie va banque. Po pierwsze, w tym sektorze Amerykanie nie mają żadnego „trzymania” na Chiny, jak w przypadku mikroprocesorów. Po drugie, projekt opiera się na dwóch założeniach. Pierwsze jest takie, że rynek samochodowy w Stanach Zjednoczonych jest tak znaczący na świecie, że niechińscy dostawcy części i oprogramowania go sobie nie odpuszczą. Drugie jest takie, że uda się – prośbą lub groźbą – przekonać UE do przystąpienia do tego projektu.

Jednak oba powyższe założenia są w mojej ocenie mocno wątpliwe. Chociażby dlatego, że dla niemieckiej branży samochodowej byłby to przysłowiowy gwóźdź do trumny. I jeszcze na koniec taka uwaga, że to dopiero początek, bo w kolejce czekają podobne ustawy dotyczące innych branż, w tym biotechnologii.

A jako że amerykański projekt dotyczy wszystkich elementów łańcucha dostaw, tym samym odnosi się nie tylko bezpośrednio do chińskich firm, ale również międzynarodowych korporacji, których poddostawcą jest chińska firma lub które mają zakłady produkcyjne w Chinach. A zatem, żeby USA w wyniku tej decyzji

Albert Borowiecki

Publicysta, starszy analityk w Instytucie Badań Chin Współczesnych.

Wokenomics:

co poszło nie tak?

W minionych miesiącach ikoniczne amerykańskie marki, w tym Ford, Jack Daniels i Harley Davidson, wycofały się z tzw. polityki różnorodności. Jeśli rację ma Vivek Ramaswamy, przyniesie to korzyść zarówno ich klientom, jak i pracownikom.

Jeżeli definicja sygnalisty oznacza osobę zgłaszającą nieprawidłowości w danej firmie, to Vivek Ramaswamy zasługuje na miano supersygnalisty. W swojej książce pt. „Woke S.A. Kulisy amerykańskiego przekrętu sprawiedliwości społecznej” (Warsaw Enterprise Institute, 2023), rzuca rękawicę w zasadzie wszystkim czołowym korporacjom w Stanach Zjednoczonych. A to we współczesnej zachodniej hemisferze biznesowej jest aktem niemałej odwagi cywilnej, na którą Vivek Ramaswamy, jako człowiek sukcesu, mógł sobie pozwolić. Problem, jakim się zajął nosi miano Wokenomics, co odnosi się do sytuacji, w której korporacje angażują się we wspieranie różnych mniejszości ze względów wizerunkowych. Termin ten pochodzi od słowa „woke”, które w tym kontekście oznacza „przebudzoną” świadomość braku sprawiedliwości społecznej i rasizmu.

Ramaswamy w roli whistleblowera sprawdza się znakomicie. Po pierwsze, nie można mu zarzucić, że nie wie, o czym pisze. Vivek Ramaswamy swój „akt oskarżenia” konstruuje bowiem z pozycji uczestnika wydarzeń, który jako CEO zyskownego startupu, obracający milionami dolarów we współpracy ze znanymi inwestorami, musiał publicznie stawić czoła presji związanej z tzw. polityką różnorodności. Po drugie, w przypadku absolwenta Uniwersytetu Harvarda (biologia) i Uniwersytetu Yale (prawo) nie może być mowy o brakach w wykształceniu. Po trzecie wreszcie, trudno przylepić mu łatkę reli-

gijnego prawicowego fundamentalisty, jako że Ramaswamy – syn imigrantów z Indii – to praktykujący hinduista i zagorzały wegetarianin. Biorąc to wszystko pod uwagę, wręcz nie wypada przejść obojętnie obok twierdzeń uzdolnionego Amerykanina.

Friedman kontra

Ramaswamy podkreśla, że charakterystyczne dla naszej współczesności zaangażowanie dużych firm w kwestie społeczne ma związek z ideą, jaką najpełniej wyraził Klaus Schwab, przewodniczący Światowego Forum Ekonomicznego w „Manifeście z Davos”. W dokumencie, który ujrzał światło dzienne w 1973 r., Schwab wezwał biznesowe i polityczne elity do stworzenia nowego „Kodeksu etycznego dla liderów biznesu”. Zobowiązywałby on menadżerów do „służenia” swoim pracownikom, jak również społeczeństwu, w tym „harmonizowania” różnych, nawet rozbieżnych „interesów interesariuszy”.

gdy Schwab lobbował w imieniu wszystkich faktycznych i potencjalnych interesariuszy danej korporacji czy spółki.

„Różnorodność bez wspólnotowości staje się źródłem podziałów”.

Takie postawienie sprawy stało w kontrze do tradycyjnego podejścia, reprezentowanego między innymi przez Miltona Friedmana, który w ramach intelektualnego sporu ze Schwabem napisał w „The New York Times Magazine”, że „społecznym celem korporacji jest dążenie do zysku”. Słowem, Friedman opowiadał się za prymatem akcjonariuszy, podczas

W ten sposób dochodzimy do współczesności, w której – jak można wnioskować z twierdzeń Ramaswamy’ego – idea Schwaba stała się listkiem figowym, pod którym kryje się wizja Friedmana. Innymi słowy: korporacje nadal są nastawione na zysk, realizując interesy akcjonariuszy, a jednocześnie na pokaz kreują się na obrońców uciśnionych grup społecznych, a więc szerokiego grona interesariuszy. W takim układzie nie tylko jedno nie przeczy drugiemu, a wręcz przeciwnie: zaangażowanie w politykę różnorodności korzystnie wpływa na wizerunek, a nierzadko służy do zamykania ust krytykom korporacji w kontekście ich nieetycznych działań w pogoni za zyskiem. Jak podkreśla Ramaswamy: „Pod pozorem czynienia dobra korporacyjni oszuści ukrywają wszystkie podłe rzeczy, które robią każdego dnia”. Nie ma sensu ani miejsca przytaczanie każdego przykładu, jakim posługuje się autor „Woke S.A.”, żeby uzasadnić tak mocne twierdzenia. Wystarczą dwa bardzo charakterystyczne, poczynając od Adama Neumanna, który stał się biznesowym celebrytą jako dyrektor generalny WeWork. Oddajmy głos autorowi: „Po raz pierwszy spotkałem go na początku 2017 roku za pośrednictwem jednego z jego mniejszych amerykańskich inwestorów. Podczas gdy publicznie wygłaszał elokwentne przemówienia na temat wartości społecznych, takich jak różnorodność, prywatnie chwalił się, że >>piękno zatrudniania kobiet na stanowiskach kierowniczych<< polega na tym, że >>mają one inne pierdoły do zrobienia w domu, więc wychodzą z pracy wcześniej>>”. Przykład drugi to Dara Khosrowshahi, CEO Ubera, który podkreślał, że jego korporacja przekazuje miliony na walkę z rasizmem oraz że „solidaryzuje się z czarną społecznością i pokojowymi protestami przeciwko niesprawiedliwości i rasizmowi, które zbyt długo nękają nasz naród”. W tym kontekście Uber ogłosił, że bę -

dzie promować w swojej aplikacji carsharingowej przedsiębiorstwa należące do czarnoskórych właścicieli i będzie wiązać wynagrodzenia kadry kierowniczej z „celami dotyczącymi różnorodności”. Tymczasem dokładnie w tym samym czasie, jak pisze Ramaswamy, „Khosrowshahi agresywnie lobbował w Kalifornii za przyjęciem Propozycji 22, pozwalającej Uberowi klasyfikować swoich kierowców jako niezależnych wykonawców, a nie – pracowników. Uber powiedział, że zbankrutuje, jeśli będzie musiał przekwalifikować kierowców na pracowników, powołując się na brak rentowności, mimo że przekazał miliony na rzecz BLM”.

Co tam, panie w polityce?

Jak podkreśla autor „Woke S.A.”, powyższe przykłady to wierzchołek góry lodowej, na którą składają się największe firmy w Stanach Zjednoczonych. Ich pozorna wrażliwość społeczna ma maskować jedno z najmniej chlubnych działań biznesowych, jakim jest komercyjne zaangażowanie w krajach, które prześladują te same mniejszości, o których prawa amerykańskie korporacje rzekomo z takim zaangażowaniem walczą u siebie „w domu”. Zdaniem Ramaswamy’ego w ten sposób stały się „pionkami zagranicznych dyktatorów, nawet jeśli same siebie przedstawiają jako wzory cnót”. Co ważne jednak, styk biznesu i polityki ma swoje ciemne strony także na lokalnym gruncie.

Cytując: „(…) po kryzysie finansowym Departament Sprawiedliwości Obamy nałożył na duże banki ogromne grzywny, aby móc trąbić, że zapewnia ogromną pomoc oszukanym konsumentom. Następnie poinformowano banki, że mogą zapłacić mniej niż połowę tej kwoty, jeśli zamiast tego przekażą pieniądze preferowanym organizacjom pozarządowym Obamy. (…) banki przyjęły ofertę Departamentu Sprawiedliwości. Jest to świetne quid pro quo – Departament Sprawiedliwości zyska na wizerunku, banki zachowają większość swoich pieniędzy, a liberalne organizacje pozarządowe otrzymają mnóstwo funduszy. Jest w tym jeszcze jednak korzyść dla banków i Departamentu Sprawiedliwości. Bank zyska na PR-ze, jeśli będzie mógł wypłacać pieniądze z ugody jako >>darowizny<< na rzecz ulubionych organizacji liberałów, zamiast nazywać je

grzywnami. Przy okazji, jeśli są to darowizny na cele charytatywne, można je również odliczyć od podatku – bank oszczędza jeszcze więcej pieniędzy, a mniej dostaje rząd federalny i reprezentowani przez niego obywatele”. W efekcie „organizacje non-profit sprzyjające woke są cichymi pośrednikami w grze przemysłowej, pozwalając korporacjom kupować pozór cnoty”.

Skutek odwrotny do zamierzonego

Do najbardziej wartościowych fragmentów „Woke S.A.” nie należą jednak te, których celem jest obnażanie hipokryzji największych firm. Szczególnie istotne są te rozdziały, w których Ramaswamy wykazuje, że polityka różnorodności, pod postacią wokeizmu, w rzeczywistości psuje relacje międzyludzkie, zamiast je naprawiać, a jednocześnie niekorzystnie wpływa na funkcjonowanie firm, osłabiając ich potencjał intelektualny: „Po pierwsze, kiedy instytucje mylą wskaźniki różnorodności rasowej i płciowej z różnorodnością myśli, pośrednio wzmacniają błędne założenie, że cechy genetyczne przewidują coś istotnego w sposobie myślenia danej osoby – najbardziej fundamentalne założenie leżące u podstaw samego rasizmu. Po drugie, takie podejście umożliwia menedżerom z wyrobioną pozycją stwarzanie widocznych pozorów różnorodności w ich organizacjach, przy jednoczesnym unikaniu konieczności zajmowania się prawdziwą różnorodnością myśli, w tym kwestionowaniem ich pozycji. Po trzecie, kiedy wąska koncepcja różnorodności jest wdrażana poprzez akcje afirmatywne lub inne systemy oparte na parytetach, podsyca to rasizm i seksizm, sprzyjając tokenizmowi w miejscu pracy i animozjom wśród społeczności, które nie skorzystają z tych programów”. Zamiast tego organizacje powinny starać się o różnorodność myśli i opinii, co Vivek Ramaswamy stara się realizować w praktyce: „(…) mam brązowy kolor skóry, jestem

konserwatystą i wyznawcą hinduizmu. Osoba, którą niedawno wyniosłem na stanowisko dyrektora generalnego mojej firmy, ma biały kolor skóry, jest liberałem i wyznawcą judaizmu. Jest postępowa. Ja nie jestem. Ale oboje dzielimy pasję odkrywania nowych leków dla pacjentów, którzy ich potrzebują”. Innymi słowy: „Prawdziwy pluralizm nie polega na podkreślaniu różnic między nami jako ludźmi. Chodzi o różnorodność tożsamości w każdym z nas – bogatą mozaikę, która wykracza poza kolor skóry czy liczbę chromosomów X”. Co zatem poszło nie tak? Vivek Ramaswamy nie ma wątpliwości: „Wokeness skazał się na zagładę, gdy stał się tak popularny, że firmy zdały sobie sprawę, że mogą na nim zarobić”. Tylko tyle, i aż tyle.

Tomasz Gołębiowski

Autor jest redaktorem naczelnym miesięcznika CRN Polska.

Istotne trendy produktowe, technologiczne, biznesowe, w oparciu o dane pochodzące z renomowanych agencji analitycznych, organizacji branżowych i globalnych mediów, dotyczące głównie Europy i Polski.

Polski rynek IT będzie rósł

W 2025 r. wydatki na polskim rynku IT zwiększą się o 5,7 proc. rok do roku, do poziomu 74 mld zł – przewiduje PMR. Wynika z tego, że rok 2024 także zakończy się na plusie, z wartością sprzedaży na poziomie około 70 mld zł. Ponad połowę przychodów na polskim rynku IT generuje sprzęt, choć w 2023 r. odnotowano spadek obrotu w tym segmencie, ze względu na osłabienie popytu i obniżki cen. Jednak teraz spodziewana jest stabilizacja i powrót do wzrostu. Natomiast stale idą w górę nakłady na usługi i oprogramowanie. Najszybciej poprawiają się przychody z usług outsourcingu i utrzymaniowych, a na rynku software’u widać rosnącą popularność systemów ERP i modelu SaaS. Najwięcej na polskim rynku IT wydają duże przedsiębiorstwa, a więc te zatrudniające ponad 250 osób. Mają około jednej trzeciej udziału, wyprzedzając klientów indywidualnych. Natomiast biorąc pod uwagę tylko sektor przedsiębiorstw, to w 2023 r. duże organizacje odpowiadały za 60 proc. wydatków na IT, MŚP za 24 proc., a firmy mikro (do 9 osób) za 16 proc.

AI zmienia strukturę sprzedaży

Już 89 proc. integratorów jest zdania, że AI będzie miała znaczący wpływ na aktywność biznesową ich klientów – wynika z globalnego badania Cisco. Potwierdza to 84 proc. klientów ankietowanych przez producenta. W efekcie usługi i rozwiązania związane ze sztuczną inteligencją zasadniczo zmienią strukturę przychodów firm z kanału sprzedaży. Przy czym w Europie 85 proc. partnerów spodziewa się, że ich przychody z technologii AI w ciągu najbliższych 12 miesięcy sięgną nawet do 50 proc. ich całkowitych przychodów, a 10 proc. oczekuje, że 51–75 proc. Pozostali liczą nawet na ponad 3/4 przychodów z AI w nadchodzącym roku. Z kolei globalnie ponad 40 proc. partnerów przewiduje wzrost popytu na inwestycje w technologie sztucznej inteligencji o ponad 75 proc. w ciągu najbliższych 4 do 5 lat. Największe bariery na drodze do wykorzystania całego potencjału AI, to według respondentów brak doświadczenia we wdrażaniu nowych technologii (62 proc.), brak wiedzy

o systemach i procesach (56 proc.) i niedostępność odpowiednich technologii (53 proc.). Nie dziwi więc, że już 78 proc. pytanych partnerów zainwestowało w szkolenia, aby podnieść kompetencje zespołu w zakresie AI, a 62 proc. powiększyło budżety na pozyskanie specjalistów od AI. Badanie przeprowadzono na 29 rynkach na świecie (nie było wśród nich Polski) wśród 1,5 tys. dostawców usług, integratorów, resellerów, konsultantów IT, dystrybutorów i developerów.

Najważniejsze czynniki napędzające zapotrzebowanie na technologie AI w nadchodzących latach zdaniem partnerów

Klienci motywują do cyfryzacji

Dla 84 proc. średnich i dużych firm z różnych branż (produkcja, finanse, logistyka i handel) proces digitalizacji ich organizacji stanowi przynajmniej wysoki priorytet – twierdzą analitycy EY, którzy przebadali pod tym kątem polski rynek. Przy czym najważniejszym priorytetem cyfryzacji jest obsługa klienta (47 proc.) i sprzedaż (43 proc.). Nieco mniej istotna okazuje się digitalizacja księgowości (26 proc.) i administracji w firmie (20 proc.). Blisko połowa pytanych (49 proc.) jako główną motywację do wdrożeń wskazała rozwój firmy, a następnie oczekiwania klientów (38 proc.). Główną barierą w digitalizacji jest natomiast niedobór kompetencji w zespołach (22 proc. odpowiedzi). Dlatego jedynie 39 proc. przedsiębiorstw prowadzi swoje działania zgodnie z wcześniej ustaloną strategią cyfryzacji. Przy czym jedna trzecia przyznaje, że w ciągu ostatnich 12 miesięcy zaniechała wcześniej zaplanowanych projektów transformacyjnych na rzecz implementacji AI.

Niewiele transakcji na rynku VC

Z danych PFR Ventures i Inovo VC wynika, że w III kw. 2024 r. utrzymał się trend niskiej liczby transakcji na polskim rynku venture capital. Wartość inwestycji zwiększyła się natomiast o 14 proc. w porównaniu do średniego wyniku z 2023 r. W sumie 45 spółek pozyskało w III kw. br. 506 mln zł od 60 różnych funduszy. Średnia wartość transakcji wyniosła w tym okresie 11,2 mln zł, przy czym około połowy kapitału dostarczyły fundusze międzynarodowe. I chociaż widoczna jest drobna poprawa liczby transakcji względem słabego I kw. 2024 r. (wzrost z 31 do 45), to wciąż uzyskany wynik znajduje się znacząco poniżej statystyk z lat 2021–2023. Zdaniem ekspertów polski rynek VC powraca jednak na ścieżkę wzrostu i za cały 2024 r. odnotuje rezultat w przedziale 2,5–3 mld zł. Prognozowane jest przyspieszenie w kolejnych kwartałach, gdy do spółek wpłyną środki z nowych funduszy zasilonych kapitałem unijnym.

Wartość

Będą pieniądze na automatyzację

Do największych wyzwań na 2025 rok, jakie stoją przed dyrektorami finansowymi firm w Polsce, zaliczają się: niepewność ekonomiczna, zarządzanie łańcuchem dostaw, regulacje prawne i zarządzanie talentami – wynika z raportu KPMG. W obliczu niestabilności gospodarczej i rosnących kosztów kapitału, CFO będą wspierać działania zwiększające elastyczność i odporność organizacji. Największe szanse na rozwój swoich firm widzą w cyfryzacji i automatyzacji finansów (41 proc.) oraz w transformacji biznesowej (37 proc.). jednocześnie respondenci badania wskazali fakturowanie (53 proc.), obsługę płatności (47 proc.) i księgowość (47 proc.) jako obszary o największym potencjale do automatyzacji i tym samym do znaczących oszczędności. Dużym wyzwaniem pozostaje ESG, co skutkuje tym, że 42 proc. firm nie raportuje ani nie monitoruje wskaźników niefinansowych. Utrudnieniem są w tym przypadku problemy z transparentnością i dokładnością danych i z tego powodu nowe regulacje, takie jak CSRD, wymagają od przedsiębiorstw inwestowania w odpowiednie rozwiązania IT i systemy monitorowania. Największe szanse dla firm w 2025 r. zdaniem CFO w Polsce

Cyfryzacja i automatyzacja finansów (blockchain, chmura obliczeniowa, automatyzacje procesów)

Transformacja biznesowa (adaptacja do zmian rynkowych, wdrożenie nowego modelu operacyjnego)

Wdrożenie wymogów ESG w strategię firmy

Inwestycje VC na polskim rynku

CO MIESIĄC SPRAWDZAMY,

o czym branża IT (i nie tylko) dyskutuje na

NAJWIĘKSZYM

BIZNESOWYM PORTALU SPOŁECZNOŚCIOWYM

Jakub Skałbania, założyciel Netwise’a, wyraził zdziwienie „czemu Microsoft kontynuuje fatalne działanie polegające na łączeniu w przekazie M365

Copilot i Copilot Studio w jednym zdaniu?! To jak mówienie o Power Apps z M365 w połączeniu z Power Apps prawdziwymi z Power Platform. To są dwie różne rzeczy, do dwóch różnych zastosowań. To drugie to absolutnie fenomenalna platforma zmieniająca biznes, pozwalająca na automatyzację procesów, dająca mega power dla użytkowników i dająca naprawdę ogromną wartość (jak ktoś wie po co i jak jej użyć), a to pierwsze to M365 Copilot i na zawsze tym zostanie. M365 Copilotem… Jedyny pożytek z niego jest taki, że można go rozszerzyć i zastąpić przez customs copilot zbudowany w Copilot studio! A minus taki, że trzeba go mieć licencyjnie do pełnej funkcjonalności dedykowanych Copilotów w Dynamics 365”.

Arnold Adamczyk, twórca startupów technologicznych, który pracuje na co dzień w Chinach, dzieli się swoimi przemyśleniami na temat Cyberportu – prestiżowego inkubatora z Hongkongu, który wspiera około 2000 startupów, z których 900 ma swoje biura w budynkach Cyberportu. „Ponieważ jestem absolwentem inkubacji z lat 2018–2021, to grzecznościowo zaproszono mnie na inaugurację nowego programu wsparcia R&D w obszarze AI, pod nazwą AI Subsidy Scheme. Do wykorzystania jest 3 mld HKD (1,5 mld zł) na dofinansowanie mocy obliczeniowej na potrzeby AI. Cyberport dysponuje farmą obliczeniową 1000 jednostek po 8xNvidia H800 Tensor Core GPU każda. Docelowo ma być 2000 węzłów. I taki węzeł można dostać nawet na rok do dyspozycji w cenie zaledwie 10–30 proc. ceny dzierżawy według stawek rynkowych. Dodam, że jeden H800 kosztuje 42 tys. dol., więc 8 takich to 336 tys. dol. Cena dzierżawy w HK na rok to około 40 tys. dol. W sumie 10 proc. wymaganej wpłaty to zaledwie 4 tys. dol. rocznie za taką moc obliczeniową. Można wynająć minimum na 3 miesiące, czyli za 1 tys. dol. To co mi się podoba, to fakt, że po złożeniu aplikacji o przydzielenie mocy obliczeniowej, decyzja podejmowana jest w maksymalnie 2 tygodnie. Słyszałem, że w Polsce wnioski o dofinansowania są rozpatrywane nawet przez 6 miesięcy! Po tym czasie to cały projekt będzie już raczej przestarzały…”.

Grzegorz Rudno-Rudziński, partner zarządzający w Univio, przemyślał kwestię globalizacji i doszedł do ciekawych wniosków: „Podczas studiów byłem gorącym zwolennikiem wolnego rynku i korzyści płynących z globalizacji. Jednak po 27 latach od ich ukończenia oraz licznych podróżach po świecie dostrzegam, że te mechanizmy nie zawsze działają na korzyść mieszkańców Europy, zwłaszcza jeśli chcemy zachować nasz styl życia i cieszyć się prawami, które teraz posiadamy. Europa stoi dziś przed wyzwaniem globalnej konkurencji, zwłaszcza ze strony Chin i USA, szczególnie w obszarze nowych technologii, takich jak sztuczna inteligencja. Nasze regulacje oraz standardy socjalne mogą nas ograniczać, a masowa produkcja wciąż dominuje w Azji. Zastanawiam się, czy aby utrzymać naszą pozycję, interwencjonizm jest dobrym rozwiązaniem?”. Dobre pytanie… Jedno jest pewne: w obecnej konfiguracji czas nie działa na naszą korzyść. Warto przytoczyć jeszcze komentarz Tomasza Puchalskiego, zajmującego się fotografią biznesową: „W Europie bronimy naszej prywatności, danych osobistych, mamy RODO etc. Tych zahamowań nie ma chiński startup wspierany przez Państwo, czy amerykański drapieżny, dofinansowany biznes”.

Między Doliną Krzemową a Doliną Węglową jest wciąż przepaść.

Katarzyna Dworzyńska, Head of Business w PR Calling , przyznaje, że: „Ostatnio w jednym z postów dot. budowania wizerunku eksperta jeden z komentujących >>zarzucił mi<<, że agencje PR pomagają malować trawę na zielono, budując czy wzmacniając wizerunek firm czy osób, które tymi ekspertami nie są, czyli de facto pomagają w kreowaniu wyimaginowanej rzeczywistości. To mocno krzywdząca opinia. Dlaczego? Na przestrzeni ostatnich 10 lat prowadzenia agencji mieliśmy tylko jeden przypadek, kiedy ktoś podawał się za kogoś, kim nie był. Jeden. I bardzo szybko doszło do demaskacji. Na setkę zrealizowanych projektów. To chyba nie jest jakiś powalający wynik? Osoby, które będą chciały zbudować pozycję eksperta, którym nie są, najczęściej będą to robić… własnym sumptem. I być może ja żyję w jakiejś bańce (zapewne tak), ale do naszej agencji zgłaszają się same solidne, profesjonalne firmy. Nie wyobrażam sobie współpracy z kimś, kto jest nieuczciwy i kto od początku rodzi podejrzenia. Za żadne pieniądze. A że szybko można zostać ekspertem? To nasza – mówię tutaj o nas, o społeczności, o odbiorcach – wina. Nie sprawdzamy faktów, nie weryfikujemy informacji. Traktujemy wszystko z defaulta jako prawdę. Lajkujemy, komentujemy – dajemy paliwo do działania. Zasięgi rosną, a wraz z nimi zasięg działania >>eksperta<<. Zostawiam do przemyślenia”.

Dr Maciej Kawecki, prezes Instytutu Lema, pogratulował Szymonowi Jackowskiemu (Head of Merit w Econverse.org) pokonania 100 000 osób z całego świata startujących w Międzynarodowej Olimpiadzie Ekonomicznej. Tym samym „Szymon Jackowski stał się najlepszym młodym ekonomistą na Ziemi! Mało tego, Polska drużyna w konkursie zespołowym zajęła PIERWSZE miejsce, stając się wczoraj najlepszą ekonomiczną drużyną świata! I to najważniejszy tego typu news, jaki w tym roku udostępniam. Młodzi Polacy napisali fragment historii. Zdolności matematyczne polskiej młodzieży okazały się kolejny raz najlepsze na świecie. I to nie jest propaganda sukcesu, tylko fakty. (…) Ten 19-letni człowiek zarządza już 20- osobowym zespołem organizując konferencje inspiracyjne dla młodych ludzi w pięciu miastach Polski. Założył własny startup. To ogromnie skromny, empatyczny chłopak, którego znam od dawna i który najbardziej zaimponował mi czymś zupełnie innym. Uznając, że otrzymał szansę na edukację, której nie mogło otrzymać wielu jego rówieśników postanowił działać. Od lat udziela wolontaryjnie korepetycji dzieciom z domów dziecka i rodzin zastępczych w Fundacji Web-Korki. Wspiera fundację Na Nowo Polska, która walczy z kryzysem bezdomności w Polsce. Szymon, GRATULUJĘ. Tobie, Twoim kolegom i proszę, abyś zawsze pozostawał w związku z naszym krajem”.

Szymon Janiak, partner zarządzający Czysta3.vc, zwraca uwagę na „amerykański startup Safe Superintelligence, który właśnie ogłosił, że zebrał ponad miliard dolarów finansowania po 3 miesiącach na rynku. Największy planowany program wsparcia venture capital w Polsce zakłada, że w najbliższych latach wszystkie fundusze otrzymają do wydania z niego łącznie około połowę tej kwoty z publicznych pieniędzy na setki perspektywicznych startupów. Ludzie wciąż pytają, czy po całym tym czasie rynek funduszy w US i Polsce czymkolwiek się jeszcze różni. Czy istotne jest, gdzie się zaczyna? Zdecydowanie od lat idziemy w dobrą stronę, ale u nas transakcji w takiej skali nie ma i przez długi czas nie będzie. Między Doliną Krzemową a Doliną Węglową jest wciąż przepaść w dostępie do kapitału dla najlepszych spółek. Warto być tego świadomym, jeśli myśli się o prawdziwym przełomie w skali globalnej”. Jak skomentował Łukasz Pietrzkiewicz, CEO Grupy Feniks 2050: „Włożę kij w mrowisko –uważam że taki kapitał, przyjmując że inwestowałby jedynie w Polsce, zostałby przepalony. Jesteśmy mikrorynkiem, pomysłów/konceptów mamy sporo, ale kultury <<startupowej>> oraz doświadczeń jest deficyt.”

Fot. Adobe Stock

Wacław Iszkowski

Autor w latach 1993–2016 był prezesem Polskiej Izby Informatyki i Telekomunikacji. Pracował też w firmach: Oracle, DEC Polska, 2SI, EDS Poland, TP Internet. Obecnie jest senior konsultantem przemysłu teleinformatycznego.

Apdejt ortografii

Czy i jak nowe zasady pisowni wpłyną na informatykę, która – było nie było – od dawna dzierży kontrolę nad większością, w tym generatywnych, tekstów?

Kilka miesięcy temu Rada Języka Polskiego opublikowała Komunikat o uchwaleniu zmian zasad ortografii z mocą obowiązującą od 1 stycznia 2026 r. Niestety nie skonsultowała tych zmian ze społeczeństwem, co też spowodowało sprzeciw. Jako pierwszy zdenerwował się pisany małą literą warszawiak, gdyż chce się dalej wyróżniać od Warszawianina i Warszawianki. Według nowej zasady, nazwy mieszkańców miast, dzielnic, osiedli i wsi będziemy pisać wielką literą – Warszawiaka też. Słowniki informatyczne muszą być zatem poprawione.

Uchwałę

zatajono przed

Zespołem

Terminologii Informatycznej.

Druga zasada wymusza pisanie wielką literą nazw firm i marek wyrobów przemysłowych. Co już wprawdzie było, ale teraz również w każdej odmianie i przypadku. Znowu trzeba będzie pisać: Mam auto marki Ford i jadę czerwonym Fordem, zamiast – jak dotychczas – czerwonym fordem. Chyba jednak Rada zanadto przejęła się ochroną nazw marek, bo w informatyce będziemy się musieli pożegnać z pisaniem: windowsowy, linuksowy, fejsbukowy albo facebookowy, itp. Teraz te słowa będą musiały być pisane wielką literą.

Z tym, że jak wtedy należy pisać: mObywatel, ePUAP, eBook czy Ebook, iPhone, iTunes i inne podobne? Może nie warto się tym przejmować, szczególnie w przypadku pisania Internet czy internet? Nie ma marki Internet, bo tylko z racji swojego znaczenia dla rozwoju informatyki, skrót od internetwork, interconnected zaczął być pisany wielką literą. Z czasem jednak jego wielkość spowszedniała i coraz częściej był pisany małą literą. W 2016 r. czołowe agencje prasowe i znaczące dzienniki wydały zalecenie pisania nazwy internet małą literą, ale w Polsce jeszcze wielu pisze o Internecie na kolanach i pewnie ta nowa zasada RJP im się spodoba.

Ja jednak pozostanę przy internecie, internetowym oraz używaniu windowsów, linuksów, pecetów, acerów, beemek, toyot, kii i mercedesów. Oczywiście nazwy ma-

rek firm i ich produktów będę pisać wielką literą.

Trzeba też będzie w słownikach poprawić rozdzielność cząstek -bym, -by, -byście ze spójnikami, bo zamiast czyby powinno być czy by (tutaj akurat sprawdzanie worda, hmm… nie zadziało dla żadnej opcji). Ponadto nie- z imiesłowami odmiennymi (kto wie co to jest?) mają być pisane łącznie, a przymiotniki tworzone z końcówkami -owski mają być pisane małą literą – np. pecetowski, acerowski, dellowski (aha – a gdzie duża litera marki?…). Również człon pół- ma być doklejany do innych słów, ale dalej należy pisać pół-Polka (Panie, proszę się nie obrażać, bo to przykład z komunikatu RJP).

W następnych punktach do łask jest przywracana wielka litera, np. Morze Bałtyckie, Plac Bankowy (ale ul. Bankowa), Skwer Sztucznej Inteligencji, Most Zachodni, Winiarnia Bachus, Nagroda Wielkiego Procesora – to wszystko trzeba będzie poprawić w słownikach Microsoft Office i nie tylko.

Są jeszcze zasady dotyczące prefiksów: super-, eko-, mega-, które można dopisywać do wyrazów lub podawać samodzielnie: megapamięć (obecnie mega pamięć), pamięć mega, ale megabit i megabajt. Zainteresowani wszystkimi nowymi regulacjami pisowni mogą zajrzeć na stronę https:// rjp.pan.pl.

Generalnie to jest chyba czternasta reforma ortografii w Polsce. Poprzednia, trzynasta, w 1963 roku została zatrzymana przez władze. Potem były tylko drobne zmiany wpisywane do słowników ortograficznych. Od reformy z 1918 r., wszystkie kolejne były silnie oprotestowywane i wielu się do nich nie stosowało. Przyzwyczajenie, zwane tradycją, blokowało zmiany, ale też często zarzuty były uzasadnione. Komitetom przygotowującym reformy brakowało umiejętności promocji i objaśnienia celowości proponowanych zmian. Również i tym razem Rada Języka Polskiego przygotowywała swoją uchwałę w tajemnicy — na-

wet przed swoim Zespołem Terminologii Informatycznej (!). A moglibyśmy poddać przynajmniej pod dyskusję kilka propozycji pochodzących ze sfery informatycznej.

Przykładowo, czy powinniśmy niesamodzielne cząstki e- łączyć bezpośrednio z wyrazami, bo tej cząstki zabrakło w długim wykazie takich cząstek? Czy na wzór przykładów innych cząstek, powinniśmy pisać: ebiznes, eusługa, enauczanie, email, a może już trzeba porzucić tę cząstkę e-, gdy wszystko staje się e?

W tych zasadach zabrakło też zasad transkrypcji terminów angielskich wprost do pisowni i wymowy polskiej. I tak brakuje podstaw ortograficznych, chociażby dla:

• event – czy dalej ma być pisany po angielsku, ale wtedy jaka jest jego wymowa [ewent, a może iwent], bo też iwent już pojawia za zgodą językoznawców;

• e-mail, mail – czy rzeczywiście do tego mamy się przyzwyczaić i co z wymową [emajl, imajl, majl, mejl], a wtedy lepiej pisać po prostu mejl (RJP w 2002 r. podjęło uchwałę o używaniu terminu e-mail oraz potocznie mejl, ale w roku 2023 RJP nie chciało wspomóc uchwałą powszechnego używania terminu mejl, zrzucając odpowiedzialność na uzus);

• phishing, smishing, spoofing – czy tak mamy dalej z tym funkcjonować, gdy ci najbardziej podatni na takie szalbierstwa nie rozumieją tych słów, bo też kto wie co to znaczy: może warto to przynajmniej spolszczyć: phiszing, smiszing, spufing, albo jednak wprowadzić tłumaczenie na polski – łowienie mejlami, esemesami albo szalbierstwo mejlowe, esemesowe, itp.;

• ransomware – podobnie, daliśmy sobie radę z hardware, software, a nie możemy z ransomware – a to przecież oprogramowanie dla okupu, jak porwanie dla okupu – o ileż bardziej zrozumiałe;

• AI – gdyż obrażono się na SI, ale nie wiadomo jaka jest tego wymowa: [ai, ejaj, ajii, iaj] oraz jak to ewentualnie odmieniać, a może tworzyć przymiotnik aiowski, a może ajowski?;

• clickbait – jak to czytać [klikbajt –  bait to nie bajt a przynęta], a może po polsku – nęcenie klików przynętą?

Warto też przedyskutować brak odmiany nazwisk czy też nazw własnych, gdy są one

jednocześnie odsyłaczem do innych postów lub stron. Wikipedia sobie z tym problemem poradziła – wpisuje się w tekst, nazwę, tę widoczną z odmianą oraz tę niewidoczną, będącą odsyłaczem. W postach już tego nie ma i treść wygląda jakoś dziwnie. A jakieś spójne zasady powinny być…

Dyskusji wymaga też pomijanie polskich znaków diakrytycznych w nazwiskach, nazwach w tych odsyłaczach oraz w nazwach adresów mejlowych. Czy mamy zrobić wyłom i zrezygnować z tych znaków, czy też zacząć ich używać?

Poza tym dobrze by było zrobić porządek z myślnikiem, pauzą, półpauzą, łącznikiem i dywizem. W omawianych zasadach myślnikiem nazwano znak pauzy, czyli skróconej kreski dotychczasowego myślnika: —, przy czym ten myślnik (pauzę) wstawiamy ze spacją przed i po nim. Z kolei łącznik (dywiz) – służy do łączenia wyrazów. I tu przerwę, bo w informatyce mamy standard Unicode, ISO-8859–15 z bogatszym zestawem tych poziomych kreseczek. Warto się w tym rozeznać, bo też mamy tutaj w praktyce spory bałagan.

Jest jeszcze problem braku polskiego jednoznacznego nazewnictwa kilku znaków specjalnych:

@ – [ang. at] z oficjalną nazwą „handlowe przy”, a potocznie zwane małpą, małpką, co wzbudza uśmiech: listy@prezydent.pl [listy małpa prezydent kropka pl]; może warto poszukać bardziej nobliwej nazwy, np. „atka” (tak mówili zecerzy) lub „afa” (małpka po śląsku); # – [ang. hash] warto wzmocnić nazwę „krzyżyk” szczególnie używany w zapisach nut w muzyce, gdy informatycy wolą „hesz”;

/ i \ – [ang. slash, backslash] używane jako „slesz” i „bekslesz”, a mało znana jest nazwa „ukośnik” oraz „lewy ukośnik”;

| – [ang. pipe] po polsku „kreska pionowa”, ale może by się znalazło coś krótszego?;

^ – [ang. caret] po polsku „kareta” lub potocznie „daszek, dzióbek”, a jak powinno być?;

& – [ang. ampersand] po polsku „handlowe i”, „et” lub „etka”, a w informatyce jest operatorem konkatenacji. Kto ma dokonać standaryzacji nazw?

Czy Polski Komitet Normalizacyjny, a mo-

że jednak Rada Języka Polskiego, która się do tego nie kwapi.

I na koniec, w internecie jest wiele porad językowych, oczywiście według dotychczasowych zasad. Z czasem zaczną się pojawiać porady według nowych zasad – i tu powstaje pytanie, jak je odróżnić? Może RJP ustanowi jakiś znak, logo nowych zasad i go udostępni do oznaczania tych nowych porad. A starych lepiej nie wymazywać, bo dla porównania warto je też znać. I oczywisty kłopot i koszty będą z wymianą tablic placów, podwójnych nazw miejscowości oraz szyldów, że już o różnych drukach nie wspomnę. W systemach informacyjnych będzie łatwiej, ale ktoś to musi zrobić – pytanie za ile? Tłumacz Google’a oraz DeepL-a oraz generatywne transformery wstępnie przeszkolone będą musiały się doszkolić.

Ja już się zniechęciłem do walki o poprawną polszczyznę. Zostałem przez RJP pouczony co to jest uzus – utarty zwyczaj lub ustalona praktyka, wobec czego będę działał według własnego uzusu. A językoznawcy jedynie opisują (deskryptują) istniejące formy języka. Dlatego też w tytule mamy apdejt i będę pisać mejl, bitkojn oraz impreza, internet, windowsy, linuksy, wordy, toyoty, beemki, kije czy pesele małą literą i będę tworzyć nowe polskie pojęcia – bo kto mi zabroni? Kto ze mną, a kto przeciw? A póki co, tak na wszelki wypadek, wypisałem się z Zespołu Terminologii Informatycznej.

Zniechęciłem

Wojciech Urbanek zastępca redaktora naczelnego CRN Polska

Pociąg w nieznane

Pociąg z napisem sztuczna inteligencja odjeżdża, więc szybko do niego wskakujcie – zachęcają promotorzy tej technologii. Niestety, nikt nie mówi, gdzie jest stacja docelowa i czy maszynista wie, jak bezpiecznie do niej dotrzeć.

SNie wszyscy bujają w obłokach.

ztuczna inteligencja stała się wszechobecna. Sztuczna inteligencja wyskakuje nawet z przysłowiowej lodówki. Jesteśmy bombardowani zapierającymi dech w piersiach historiami o kolejnych wyczynach OpenAI, perypetiach Sama Altmana, robotach zastępujących pracowników… Media opisują historie wspaniałych startupów, które wprawdzie nie zdążyły opracować nic ciekawego, ale otrzymały potężne zastrzyki finansowe od dobrych wujków z funduszy venture capital. Jak wynika z danych PitchBook, w pierwszych dziewięciu miesiącach tego roku inwestorzy przeznaczyli na 498 transakcji dotyczących generatywnej sztucznej inteligencji w sumie 26,8 mld dol. To kontynuacja trendu z 2023 r., kiedy firmy zajmujące się GenAI zebrały 25,9 mld dol. za cały rok, co stanowi wzrost o ponad 200 proc. w porównaniu z rokiem 2022.

W przestrzeni publicznej pojawia się też wiele zdań wypowiadanych przez współczesnych mędrców. I tak Dario Amodei uważa, że „potężna sztuczna inteligencja” przewyższy ludzką inteligencję w wielu obszarach już do 2026 r. Z kolei Mikko Hyppönen, znany specjalista ds. cyberbezpieczeństwa, wieszczył niedawno, że organizacje, które zignorują rewolucję AI, podzielą los organizacji, które zignorowały internet.

Czy aby jednak mamy do czynienia z prawdziwą rewolucją? Czy mamy już, nawet bez większego namysłu, wskakiwać do pędzącego w nieznane pociągu, płacąc na dodatek horrendalną cenę za bilet? A może lepiej prześledzić rozkład jazdy i ceny biletów? Jak ktoś kiedyś powiedział: „w życiu pośpiech wskazany jest wyłącznie w dwóch przypadkach – przy łapaniu pcheł i jedzeniu z jednej miski”.

Zwłaszcza, że nie wszyscy bujają w obłokach. Mocno po ziemi stąpali uczestni-

cy październikowej konferencji Canalys Forum EMEA, odbywającej się w Berlinie (zachęcam do zapoznania się z relacją Tomasza Gołębiowskiego na portalu CRN.pl pod tytułem „Sztuczna inteligencja na cenzurowanym”). Konkluzja jest taka, że o ile sztuczna inteligencja jest naprawdę znakomitym tematem do dyskusji i prezentacji, o tyle prawdziwy biznes nadal leży gdzie indziej. Dystrybutorzy i integratorzy wciąż kierują swoją uwagę przede wszystkim w stronę tradycyjnych rozwiązań, w tym nowych modeli pecetów i systemów cyberbezpieczeństwa.

W całym tym szumie informacyjnym słabo przebiła się ciekawa opinia grupy badaczy z Uniwersytetu Cornella. Ich zdaniem modeli nie można szkolić na treści generowanej przez sztuczną inteligencję, ponieważ prowadzi to do ich upadku, a mówiąc prościej dane wyjściowe stają się bełkotem. Rzecz w tym, że istnieje duże ryzyko, iż w pewnym momencie ograniczona dostępność publicznych danych tekstowych uniemożliwi dalsze skalowanie modeli językowych.

Z kolei Daron Acemoglu, laureat Nagrody Nobla i ekonomista Massachusetts Institute of Technology, uważa, że sztuczna inteligencja może wykonywać zaledwie 5 proc. zadań wykonywanych przez ludzi. Niepoślednie znaczenie ma tutaj też rachunek ekonomiczny: na realizację kolejnych zapytań ChatGPT zużywa prawie 10 razy energii więcej niż wyszukiwarka Google… I, oczywiście, nie ulega wątpliwości, że sztuczna inteligencja ułatwi nam życie, uwalniając od wykonywania wielu żmudnych i nudnych czynności. Jednak warto pracować nie tylko nad rozwojem kolejnych jej modeli. W pierwszym rzędzie zajmijmy się własnym rozwojem, bo w tej materii jest jeszcze wiele do zrobienia. Czyż nie?

Nie przegap informacji ważnych dla Twojego biznesu!

Chcesz być na bieżąco z tym co najważniejsze w branży IT w Polsce i nie tylko?

Możesz dostawać trzy razy w tygodniu newsletter CRN, z którego szybko dowiesz się o ważnych wydarzeniach i nowościach z ostatnich 48 godzin.

n wejścia na rynek, n fuzje i przejęcia, n kluczowe newsy z branży, n zmiany personalne, n skróty najważniejszych raportów

Masz konto na CRN.pl?

– to wszystko trafi do Ciebie mejlem, w każdy poniedziałek, środę i piątek.

Włącz wysyłkę newslettera CRN na stronie CRN.pl/prenumerata (wymagane wcześniejsze zalogowanie na CRN.pl/logowanie).

Nie masz jeszcze konta na CRN.pl?

Załóż je na stronie CRN.pl/rejestracja

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.