Raport
TOP200
Polski rynek ICT dostał zadyszki
Izby branżowe
apelują
Prawo komunikacji elektronicznej do poprawy
tonEwy Lis-Jeżak na nową narrację Czas
Dolina Krzemowa
Rosnące magazyny danych
Dyrektywa CSRD
Raportowanie czas zacząć
Raport
TOP200
Polski rynek ICT dostał zadyszki
Izby branżowe
apelują
Prawo komunikacji elektronicznej do poprawy
tonEwy Lis-Jeżak na nową narrację Czas
Dolina Krzemowa
Rosnące magazyny danych
Dyrektywa CSRD
Raportowanie czas zacząć
„Coraz więcej pracy poświęcamy na utrzymanie przewagi konkurencyjnej na szybko zmieniającym się rynku” – mówią Aleksandra Prusator oraz
Aleksandra Porębska-Nowak o strategii Fordata.
Monitoring wizyjny i ochrona fizyczna Rozwiązania IT w edukacji Pamięci masowe dla MŚP
Wyścig o Puchar CRN Polska wygrała załoga Kyndryl 5!
Serdeczne gratulacje
dla załogi w składzie:
Małgorzata Tylkowska, Magda Chmielewska, Marcin Bogusz, Tomasz Mateja, Andrzej Kaliszewicz (sternik)
20
Wojna półprzewodnikowa: zaskakujące wieści z „frontu” Pekin ustanowił politykę własnych łańcuchów dostaw.
9 Powrót do niebieskiego „ekranu śmierci”
Pamięci masowe dla biznesu?
Pomimo ciągłego wzrostu ilości danych, zmiany w segmencie pamięci masowych dla biznesu postępują w dość wolnym tempie.
Globalna awaria wywołana przez błędną aktualizację oprogramowania
10 Premier na cenzurowanym
CrowdStrike zatrzymała pracę 8,5 mln urządzeń działających pod Windowsem
Wypowiedź premiera Donalda Tuska o informatykach z Białorusi wzbudziła wiele negatywnych emocji w środowisku IT w Polsce
11 Branża krytycznie o PKE
PKE to jedna z najbardziej „opasłych” i skomplikowanych regulacji
12 Kyndryl mistrzem Polski w żeglarstwie!
VIII Informatyczne Mistrzostwa Polski w żeglarstwie – relacja
14 Zatrważające tempo zmian
Rozmowa z Aleksandrą Prusator i Aleksandrą Porębską Nowak, założycielkami
Fordata, polskiego producenta Virtual Data Room
18 Bezpieczne samorządy: nowa szansa dla integratorów Projekt „Cyberbezpieczny Samorząd” oznacza środki na systemy bezpieczeństwa IT, audyt i szkolenia (Exclusive Networks)
20 Wojna półprzewodnikowa: zaskakujące wieści z „frontu”
Felieton Leszka Ślazyka
21 Czas na demokratyzację cyberbezpieczeństwa
Rozmowa z Antti Koskelą, Interim CEO w WithSecure
22 Monitoring: nie tylko do obserwacji
Wydatki na nadzór wideo i kontrolę dostępu będą zwiększać się w najbliższych latach zarówno globalnie, jak też na polskim rynku
25 Monitoring wspierany sztuczną inteligencją Inżynierowie firmy Seagate stworzyli twarde dyski do systemów monitoringu w inteligentnych miastach (Also)
26 TP-Link VIGI: monitoring trudno dostępnych miejsc
Monitoring wizyjny obszarów, gdzie nie ma dostępu do prądu czy internetu, wymaga sprzętu o odpowiednich właściwościach
27 Elmark Automatyka dystrybutorem rozwiązań Milestone Systems
Pełne portfolio rozwiązań VMS jest już dostępne od ręki
28 Za pięć lat chcemy być liderem Rozmowa z Hasanem Koçyiğitem, VP Sales & Marketing na region CEE i Middle East w ViewSonic
29 Rozwiązania IT w edukacji
Odpowiednio dobrana cyfrowa technologia pozwala szkołom wykraczać poza tradycyjne granice nauczania
32 Projektor w edukacji oznacza duży i czytelny obraz
Rozmowa z Andrzejem Bieńkiem, Business Account Managerem w Epsonie
34 Pamięci masowe dla biznesu: twarde stąpanie po ziemi
Opinie na temat rozwoju rynku pamięci masowych są zróżnicowane
CSRD: raportowanie czas zacząć
Znacząca wiekszość firm postrzega Znacząca wiekszość firm postrzega raportowanie działań związanych ze działań ze zrównoważonym rozwojem jako zadanie zadanie skomplikowane skomplikowane.
37 Object First: najlepsza pamięć masowa dla Veeam Założyciele Veeam przedstawiają firmę Object First i jej flagowe rozwiązanie (Pedab)
38 Przyszłość startupów AI Czy mamy bańkę AI-comów?
40 Rynek IT: czas na nową narrację Felieton Ewy Lis-Jeżak
42 Polski rynek ICT: wolniej, ale nadal do przodu Rośnie zapotrzebowanie na usługi informatyczne
45 Wyczucie chwili Felieton Piotra Karwatki
46 CSRD: raportowanie czas zacząć Dyrektywa CSRD tuż tuż, a tylko jedna na cztery polskie firmy spełnia jej wymogi
48 Raportowanie ESG: nadzieja w dystrybutorach?
Kwestię wykształcenia dobrych praktyk w zakresie ESG wzięli na siebie niektórzy dystrybutorzy
50 Chińska (nie)moc twórcza
Jak to możliwe, że światowa montownia stała się światowym laboratorium wiedzy?
54 Dolina Krzemowa: zmagania z wielkimi zbiorami danych
Firmy mają coraz większe trudności z ochroną, przetwarzaniem i przechowywaniem informacji
56 Strategia rozwoju AI w Polsce
Felieton Piotra Sankowskiego i Marka Cygana
58 Ochrona granicy informatyką stoi
Rozmowa z pułkownikiem Mariuszem Kijowskim, dyrektorem Biura Łączności i Informatyki Komendy Głównej Straży Granicznej
60 LinkedIn Park
Sprawdzamy, o czym branża IT (i nie tylko) dyskutuje na największym portalu społecznościowym
62 Puls branży IT
Istotne trendy produktowe, technologiczne, biznesowe, w oparciu o dane pochodzące z renomowanych agencji analitycznych, organizacji branżowych i globalnych mediów, dotyczące głównie Europy i Polski
64 Obywatel zastrzeżony
Felieton Wacława Iszkowskiego
66 Kamala, chmura i moralni bankruci
Felieton Wojciecha Urbanka
PTo zbyt piękne, żeby było prawdziwe?
usty śmiech mnie ogarnął, gdy w jednej z informacji prasowych wyczytałem, że „pierwsze firmy tworzą bariery dla sztucznej inteligencji”, a konkretnie, że „marki kosmetyczne nie chcą generowania wyidealizowanych ludzkich postaci, żeby nie wywierać presji na klientkach”. Okazuje się bowiem, że sztuczna inteligencja poproszona o wygenerowanie obrazów „wspaniałej kobiety” czy „idealnej skóry” odpowiedziała przedstawieniem „zbyt wyidealizowanych i nierealistycznych obrazów”. W efekcie, co Was zapewne zaskoczy, „kobiety mają nieskazitelnie gładką skórę, żadnych zmarszczek i proporcje ciała, które charakterystyczne są jedynie dla wybiegów najsłynniejszych domów mody”. No i teraz jestem w kropce, bo wydawało mi się, że sztuczną inteligencję można zadaniować. To znaczy, dajmy na to, zamiast żądać obrazów „wspaniałej kobiety” czy „idealnej skóry”, poprosić o wygenerowanie „kobiety wprawdzie urodziwej, ale jednak bez przesady”, a do tego „o miłej dla oka skórze, ale jednak wciąż dalekiej od ideału”. Tak czy nie? Bo jeśli nie, to czy inteligencja sztucznej inteligencji nie jest aby przereklamowana?
I tu dochodzę do kolejnej informacji, tym razem dużo poważniejszej, opublikowanej w serwisie Business Dialog. Jej autorzy pytają, nie bez kozery, ile czasu dzieli nas od pęknięcia bańki sztucznej inteligencji? Nie mają przy tym wątpliwości, że jak najbardziej mamy do czynienia z bańką. „Dzisiejszą bańkę AI porównuje się z bańką internetową sprzed 20 lat, a zawrotny wzrost akcji firmy Nvidia o 4300 proc. w ciągu 5 lat jest porównywany ze wzrostem akcji Cisco o 4500 proc. w ciągu 5 lat, ze szczytem w 2000 roku. Skończyło się to wielkim krachem. Czy do tego właśnie się zbliżamy?” – zastanawiają się autorzy artykułu i wyrażają opinię, że entuzjazm inwestorów jeszcze potrwa, co jednak – ich zdaniem – nie powinno wpływać na postawę decydentów w realnym biznesie, gdzie zarabia się na faktycznej wartości dodanej, a nie na spekulacji. Jestem tego samego zdania i też uważam, że
szeroko rozumiana branża IT powinna szukać takich zastosowań AI, które dodają faktycznej wartości poszczególnym produktom i usługom. A w tzw. międzyczasie postarać się o zapas korków do uszu, bo huk pękającej bańki coraz bliżej… Dodatkowym wyzwaniem są koszty, z jakimi będzie się docelowo wiązać korzystanie z GenAI. Na razie są żadne lub stosunkowo niskie, bo generatywna sztuczna inteligencja jest na etapie rozwoju, na którym im więcej zasysa danych, tym lepiej. Kiedy jednak dojrzeje, a firmy uzależnią się od jej dobrodziejstw, może przyjść czas zapłaty.
PS. Żeby sobie niepotrzebnie nie robić wrogów, dodam tylko, że agencja PR, która wykreowała wspomnianą na początku informację prasową, wykonała swoje zadanie celująco. Materiał dość szeroko rozniósł się po mediach, także tych najbardziej opiniotwórczych, a więc „cel ćwiczenia” został osiągnięty.
Tomasz Gołębiowski
MIESIĘCZNIK CRN POLSKA www.CRN.pl
Rok 27, numer 8 (501), 21 sierpnia 2024 PL ISSN 2080-8607
REDAKCJA
Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa redakcja@crn.pl
Tomasz Gołębiowski tg (redaktor naczelny) tel. 608 425 699 tomasz.golebiowski@crn.pl
Wojciech Urbanek wu (zastępca red. naczelnego) tel. 691 672 065 wojciech.urbanek@crn.pl
Karolina Marszałek km (sekretarz redakcji) karolina.marszalek@crn.pl
Andrzej Gontarz ag andrzej.gontarz@crn.pl
Krzysztof Jakubik kj krzysztof.jakubik@crn.pl
Krzysztof Pasławski kp krzysztof.paslawski@crn.pl
Tomasz Janoś tj tomasz.janos@crn.pl
FELIETONY
Albert Borowiecki, Marek Cygan, Ewa Lis-Jeżak, Piotr Sankowski, Leszek Ślazyk, Wacław Iszkowski, Piotr Karwatka, Wojciech Urbanek
GRAFIKA, LAYOUT, KOORDYNACJA PRODUKCJI: Tomasz Baziuk
FOTOGRAFIE
Theta Art Studio Tomasz Pisiński, PhotobyMysluk.pl, Adrian Stykowski, Piotr Syndoman, archiwum PRENUMERATA prenumerata@crn.pl
REKLAMA I PROJEKTY SPECJALNE Agata Myśluk tel. 694 455 426 agata.mysluk@crn.pl Jacek Goszczycki tel. 601 935 513 jacek.goszczycki@crn.pl
WYDAWCA Peristeri Sp. z o.o. Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa
Komisja Europejska wydała zgodę na transakcję przejęcia Juniper Networks przez HPE. Dotyczy ona Europejskiego Obszaru Gospodarczego (27 państw UE i 3 spoza wspólnoty – Islandia, Norwegia i Liechtenstein). Tym samym nowy podmiot, HPE – Juniper, ma otwartą drogą do rywalizacji z Cisco o pozycję lidera rynku sieciowego na Starym Kontynencie. HPE i Juniper spodziewają się finalizacji transakcji przejęcia w końcu tego roku lub na początku przyszłego.
Comarch, jako pierwsza polska firma z branży IT, został oficjalnym członkiem Large User Group – stowarzyszenia zrzeszającego 85 przedsiębiorstw z całego świata, które korzystają z rozwiązań IBM. Do grupy należą firmy z różnych branż, takich jak finanse, produkcja, ubezpieczenia, handel detaliczny, media, IT, które dokonały znacznych inwestycji w IBM i realizują kluczowe procesy biznesowe w oparciu o technologie giganta.
w nowej rekomendacji podniósł cenę docelową akcji AB z 96,60 zł do 109,90 zł. Podtrzymał przy tym zalecenie kupowania papierów wrocławskiego dystrybutora. „Przyspieszenie procesu cyfryzacji w różnych obszarach gospodarki, rozwój e-commerce czy publicznych usług cyfrowych i w chmurze oraz AI zwiększa zapotrzebowanie na nowy sprzęt komputerowy. Rosnąca inflacja wymusza na przedsiębiorstwach inwestycje w nowe rozwiązania IT, by przeciwdziałać wzrostowi kosztów prowadzenia biznesu. Oczekujemy, że wyniki finansowe AB w nadchodzących kwartałach znajdą się pod wpływem publicznych przetargów, napływu środków z KPO oraz oczekiwanego ożywienia wydatków konsumenckich” – stwierdza DM BOŚ w rekomendacji.
Also zawarło umowę partnerską z Westcoast. Obejmie ona działalność firmy w Wielkiej Brytanii, Irlandii i Francji. Westcoast jest największym dystrybutorem w Wielkiej Brytanii. Grupa osiągnęła w 2023 r. 4,2 mld funtów obrotu. Działa od 1983 r. Jak uzgodniono, CEO brytyjskiej firmy, Joe Hemani, w przyszłości stanie się jednym z głównych udziałowców Also. Westcoast nadal będzie działał pod dotychczasową marką.
na początku lipca br. rozstrzygnęło przetarg na dzierżawę zestawów dostępowych do internetu. Wybranym wykonawcą został KenBIT. Przedmiotem postępowania była dzierżawa 10 kompletów zestawów dostępowych. Każdy z nich ma wykorzystywać łączność satelitarną (system) – konstelacje satelitów umieszczonych na niskiej orbicie (LEO). Ilość danych w abonamencie ma być nielimitowana. Wykonawca w czasie trwania umowy pokryje wszystkie koszty zapewnienia dostępu do systemu, jak również związane z realizacją przedmiotu umowy, w tym dostawy i odbioru (po zakończeniu trwania umowy) dzierżawionych zestawów.
„Niewidzimyzagrożeń dlainwestycjiIntela w Polsce”–Marcin Graczyk, rzecznik PAIH.
Najwyższy Sąd Administracyjny uchylił korzystny dla Actionu wyrok WSA w Warszawie, dotyczący sporu z fiskusem o 3,4 mln zł VAT. Tym samym sprawa, pomimo upływu 14 lat, wydaje się nie mieć końca i ponownie wróci na wokandę WSA. Uchylony przez NSA wyrok zapadł w listopadzie 2023 r. WSA uchylił w nim decyzję dyrektora IAS i naczelnika mazowieckiego UCS, dotyczącą VAT-u, jaki fiskus naliczył Actionowi za sierpień, wrzesień, październik i listopad 2010 r.
Hanna S. została tymczasowo aresztowana na 3 miesiące w związku z nieprawidłowościami w Narodowym Centrum Badań i Rozwoju. W latach 2022 – 2023 była zastępcą dyrektora NCBR, a także dyrektorem działu operacyjnego w Dziale Funduszy Kapitałowych NCBR (2021–2022) i dyrektorem Biura Zaawansowanych Programów Badawczych i Inwestycyjnych w NCBR (2022). Śledczy utrzymują, że Hanna S. w zamian za korzyści majątkowe wpływała na swoich podwładnych oraz na członków komitetów inwestycyjnych i ekspertów, decydujących o przyznaniu przez NCBR grantów na projekty kreowane jedynie w celu uzyskania wsparcia i realizowane przez podmioty prowadzące pozorną działalność gospodarczą. Podejrzana nie przyznała się do postawionych jej zarzutów.
Nokia wezwała Związek Zawodowy Związkowa Alternatywa do „zaprzestania rozpowszechniania nieuzasadnionych i bezpodstawnych informacji” na temat spółki. Producent nie zgadza się ze sformułowaniem zamieszczonym przez Związkową Alternatywę w mediach społecznościowych, że w firmie miały miejsce „nieetyczne i niezgodne z prawem zwolnienia", co według koncernu nie zostało poparte rzeczywistymi przykładami i kreuje nieprawdziwy, negatywny wizerunek pracodawcy. „Polski oddział Nokii próbuje zastraszyć niezależne związki zawodowe groźbami procesów sądowych” – twierdzi z kolei Związkowa Alternatywa. Jak informuje, otrzymała pismo, w którym przedstawiciel firmy „grozi procesem sądowym za rzekome naruszenie dóbr osobistych”.
Adam Bodnar, minister sprawiedliwości, zdecydował o likwidacji Centrum Cyberbezpieczeństwa. Powodem, jak wyjaśnia resort, jest negatywna ocena działalności ośrodka i pracy jego dyrektora. „Jak wynika z wniosków pokontrolnych, instytucji nie zapewniono odpowiednich warunków funkcjonowania oraz w niewłaściwy sposób wykorzystano dotacje” – podało ministerstwo.
Strata operacyjna OpenAI w aktualnym roku finansowym może sięgnąć 5 mld dol. – twierdzi serwis The Information. Taki wynik to rezultat potężnych wydatków, jakie ponosi firma. Tylko koszty osobowe mają sięgnąć 1,5 mld dol. rocznie (jak wynika z raportu dla OpenAI pracuje około 1,5 tys. specjalistów). Na szkolenie i funkcjonowanie modeli językowych wydawanych jest natomiast około 7 mld dol. Z kolei Microsoft inkasuje około 4 mld dol. rocznie od OpenAI za udostępnienie mocy obliczeniowej. W 2023 r. według ustaleń The Information Open AI wypracował 1,6 mld dol. przychodów.
„PolskioddziałNokiipróbujezastraszyćniezależnezwiązkizawodowe” – Piotr Szumlewicz, przewodniczący Związku Zawodowego Związkowa Alternatywa.
"Naszekosztysązbyt
wysokie,naszemarżesązbytniskie”–Pat Gelsinger, CEO Intela.
Pracę w koncernie straci 15 proc. załogi, tj. co najmniej 15 tys. osób. Biorąc pod uwagę stan zatrudnienia na koniec 2023 r. (125 tys.), z firmą może pożegnać się nawet 19 tys. pracowników. To część planu radykalnej redukcji kosztów, które gigant chce ściąć aż o 10 mld dol. w 2025 r. Pat Gelsinger, CEO Intela, uzasadnia posunięcie tym, że przychody nie wzrosły zgodnie z oczekiwaniami, II połowa 2024 r. jest trudniejsza niż oczekiwano, a koszty działalności nadal są zbyt wysokie. Oprócz zwolnień, zmniejszenie kosztów obejmuje redukcję wydatków na badania i rozwój oraz S&GA (marketing, ogólne i administracyjne), obniżenie kosztów sprzedaży i ograniczenie nakładów inwestycyjnych. Intel zapowiada jednocześnie utrzymanie inwestycji rozwojowych w ramach strategii IDM 2.0.
Dell Technologies zapowiedział redukcję zatrudnienia obejmującą niektóre stanowiska sprzedażowe. Zmiany wyjaśnia reorganizacją działalności związaną z erą sztucznej inteligencji, aby stać się „szczuplejszą” organizacją skoncentrowaną na wzroście. „Łączymy zespoły i ustalamy priorytety w zakresie inwestycji w całej firmie” – oświadczyła korporacja, ale nie ujawniła przy tym liczby pracowników, których mają objąć cięcia. „Odczytujemy to jako fakt, że kierownictwo Della zobowiązuje się bardziej polegać na swoich partnerach dystrybucyjnych” – komentuje jeden z amerykańskich partnerów producenta. W zeszłym roku Dell zmniejszył zatrudnienie w sumie o około 13 tysięcy osób, do poziomu 120 tys. zatrudnionych.
REKLAMA
AB konsoliduje grupę kapitałową. Zapowiedziało połączenie ze spółkami zależnymi B2B IT oraz Rekman. B2B IT powstała w 2009 r. Zajmuje się usługami logistycznymi, a wartość majątku na dzień 30 czerwca br. wynosiła w tym przypadku 57,5 mln zł. Z kolei Rekman jest dystrybutorem zabawek, przejętym przez AB w 2013 r. Wartość majątku tego podmiotu na dzień 30 czerwca br. sięgała 7,6 mln zł na minusie (wycena księgowa). W obu tych podmiotach AB ma 100 proc. udziału. Plany połączenia uzgodniono w końcu lipca br. Fuzja nastąpi poprzez przeniesienie całego majątku firm zależnych na wrocławskiego dystrybutora.
CBA zatrzymało 4 osoby w związku ze śledztwem dotyczącym przyjmowania korzyści majątkowych przez pracowników Zachodniopomorskiego Zarządu Dróg Wojewódzkich w Koszalinie. Wśród zatrzymanych jest poza tym przedsiębiorca z Kołobrzegu. Śledczy twierdzą, że urzędnicy ZZDW niegospodarnie wydawali publiczne pieniądze na usługi i zakupy sprzętu IT. Ilość i wartość dostarczonych urządzeń i usług była znacząco zawyżona, a część dostaw w ogóle nie została zrealizowana – ustaliło CBA. Przepłacając za sprzęt i usługi informatyczne, zatrzymani mieli otrzymywać „prezenty” w postaci telefonów i innych produktów IT. Korzyści majątkowe były kamuflowane w nierzetelnych fakturach VAT na zakup usług i materiałów eksploatacyjnych do druku na potrzeby ZZDW.
ZUS rozstrzygnął przetarg na zakup macierzy dyskowych na platformę MF. Przedmiotem zamówienia jest dostawa i wdrożenie dwóch macierzy oraz usługi serwisu i wsparcia.
ZUS na realizację zamówienia zamierzał przeznaczyć blisko 49 mln zł z opcją oraz 40,5 mln zł bez opcji. Oferty otwarto w kwietniu 2024 r. Złożyło je sześć firm: Computex, T-Mobile Polska Business Solutions, Advatech, Symmetry, Wasko i IT Solution Factor. W postępowaniu z budżetem 49 mln zł wybrano najtańszą ofertę Wasko, opiewającą na 11,7 mln zł (z opcją). Każda z dwóch zamawianych macierzy powinna posiadać zainstalowaną pojemność użytkową 3600 TB w oparciu o nośniki flash.
Andrzej Kuźniak w maju br. dołączył do Elko Group. Objął stanowisko Sales Office Director Poland, czyli osoby odpowiedzialnej za sprzedaż i rozwój dystrybutora w Polsce. W branży pracuje od trzech dekad, pełniąc kierownicze role w polskich i międzynarodowych firmach. W tym czasie był między innymi wiceprezesem
ABC Daty (2015 – 2019), regionalnym dyrektorem Toshiby w Europie Środkowej (2005 – 2011), dyrektorem sprzedaży i prezesem Karen Notebook (2002 – 2005), jak też dyrektorem w Techmeksie. Zarządzał też własną spółką APN Serwis (2012 – 2015). W ostatnich latach realizował projekty konsultacyjne dla funduszy venture capital.
n Lubomir Stojek na czele
Red Hat w lipcu br. powołał Lubomira Stojka na stanowisko Country Managera w Polsce. Będzie odpowiedzialny za strategię sprzedaży, i wzmacnianie pozycji firmy w kraju. Lubomir Stojek jest związany z branżą IT od ponad 25 lat. Doświadczenie w sprzedaży i wdrażaniu systemów IT zdobywał w Fujitsu i HP, a także w Gartner Polska, gdzie zajmował się doradztwem dla dużych spółek z polskiego sektora ICT. Dołączył do Red Hata w 2018 r. Odpowiadał za sprzedaż rozwiązań marki do firm z sektora TME (telekomunikacja, media i rozrywka) w Europie Wschodniej. n Andrzej Kuźniak
Wojciech Plis został Head of Sales w Komsa Poland Westcoast Group. Będzie odpowiedzialny za zarządzanie relacjami biznesowymi, kierowanie zespołem sprzedażowym, planowanie biznesowe i realizację planów sprzedażowych dystrybutora. Objął stanowisku w kwietniu br. Z branżą ICT i sprzedażą związany jest od ponad 20 lat. Przed podjęciem obecnego wyzwania przez 4 lata był dyrektorem ds. zakupów w Neonecie, a wcześniej dyrektorem sprzedaży w Samsungu (2014 – 2019). Przez ponad dekadę był związany z Sony, jako menedżer dywizji ds. sprzedaży i marketingu.
n Rafał Wójcik szefem sprzedaży OVHcloud w CEE
Rafał Wójcik pokieruje sprzedażą OVHcloud w regionie Europy ŚrodkowoWschodniej jako CEE Sales Director. Jego celem jest zwiększenie udziału firmy w rynku, budowa silnego zespołu sprzedażowego oraz długotrwałych relacji z klientami. Rafał Wójcik ma duże doświadczenie w zarządzaniu sprzedażą, zespołami i prowadzeniu międzynarodowych negocjacji. Wcześniej był wiceprezesem ds. współpracy międzynarodowej w VM.PL Software House (2023 – 2024). Doświadczenie zdobywał też w Fujitsu, jako Mid Market Sales Manager (2021 – 2022), jak również w zarządzie i na stanowiskach dyrektorskich w Engave (2015 – 2020) oraz w e-point.
Fortinet przejął dwie firmy, z których jedną jest startup Next DLP - dostawca platformy do wykrywania ryzyka wewnętrznego oraz eksfiltracji i utraty danych. Fortinet zapowiedział, że dzięki zakupowi rozszerzy swoją ofertę Unified SASE (Secure Access Service Edge) i poprawi pozycję na rynku rozwiązań DLP (do zapobiegania utracie danych) w sektorze przedsiębiorstw. Nieco wcześniej został sfinalizowany zakup Laceworka, dostawcy bezpieczeństwa w chmurze i tzw. jednorożca.
Tajwański koncern Compal Electronics zapowiedział budowę fabryki w Czeladzi (woj. śląskie), gdzie produkowane będą zaawansowane moduły elektroniczne dla branży motoryzacyjnej, takie jak ADAS, ECU i 5G. Koszt inwestycji szacowany jest na około 14,5 mln euro (ok. 63 mln zł). Ukończenie budowy pierwszej części fabryki zaplanowano na maj 2025 r. Docelowo w zakładzie ma pracować 328 osób. Compal należy do światowych potentatów w produkcji ODM laptopów, serwerów i innej elektroniki dla największych marek. Obecnie ma centra produkcyjne i serwisowe w Chinach, USA, w Wietnamie i Brazylii. Do tych właśnie krajów dołącza teraz Polska. W 2023 r. koncern osiągnął przychody w wysokości ponad 28 mld dol. Z kolei Samsung SDI, spółka koreańskiego giganta zajmująca się produkcją akumulatorów do aut elektrycznych, analizuje budowę fabryki koło Gdańska za 2 mld euro - informuje „Puls Biznesu”.
Prawo komunikacji elektronicznej mija się z realiami rynkowymi. Obowiązki, które nakłada na firmy z branży teleinformatycznej, wymagają wielomilionowych nakładów finansowych i długiego czasu na ich wdrożenie – alarmują organizacje reprezentujące polski sektor teleinformatyczny. Apelują do władz o „powrót do prac gwarantujących racjonalne rozwiązania”. Jak podają organizacje, przepisy PKE wdraża 3,7 tys. podmiotów. W innym apelu ostrzegają, że nieprecyzyjne zapisy Prawa komunikacji elektronicznej zniszczą polskie firmy, których w przeciwieństwie do dużych korporacji, nie stać na subsydiowanie stale rosnących kosztów działalności (treść apelu publikujemy na str. 10).
W przygotowaniu jest zawiadomienie do prokuratury w sprawie przetargu na rozwój systemu e-zdrowie (P1) – poinformowała minister Izabela Leszczyna w lipcu br., gdy unieważniono postępowanie. Prowadziło je Centrum e-Zdrowia. Szacunkowa wartość zamówienia bez VAT to 219,5 mln zł (270 mln zł brutto). Nie doszło do otwarcia ofert. Zdaniem minister warunki przetargu napisano pod konkretne firmy, na czym skarb państwa mógł stracić ponad 100 mln zł. Centrum e-Zdrowia, uzasadniając unieważnienie postępowanie, stwierdziło natomiast że, „ujawniły się okoliczności powodujące, że jego dalsze prowadzenie w dotychczasowym kształcie jest nieuzasadnione”. Urzędnicy wskazali na potrzebę wprowadzenia istotnych zmian w dokumentacji, które prowadziłyby do znacznej zmiany zakresu zamówienia.
Panasonic uzgodnił sprzedaż swojego biznesu projektorów japońskiej grupie finansowej Orix Corporation. Na jego bazie powstanie nowa spółka, w której Orix będzie miał 80 proc. udziałów, a Panasonic zachowa 20 proc. Sprzęt nadal będzie oferowany pod marką Panasonic. Według przecieków wartość transakcji ma wynieść około 640 mln dol. Nowy podmiot, zorganizowany na bazie dywizji Media Entertainment Business, ruszy w kwietniu 2025 r. Aktualne biznesy projektorowe Panasonic Connect w różnych regionach świata, w tym na rynku europejskim, staną się podmiotami zależnymi nowego przedsięwzięcia. Łakomym kąskiem dla Orixa może być zwłaszcza biznes urządzeń instalacyjnych.
Szykuje się największe przejęcie w historii Grupy Euvic. Do UOKiK-u wpłynął wniosek o koncentrację działalności Euvic SA (Grupa Euvic), Gemini Holding, spółki Hyperr oraz Senetic Holding. Wartość transakcji nie została ujawniona. Senetic to jeden z największych partnerów Microsoft Cloud w Polsce. Katowicka spółka powstała w 2009 r. Działa w 28 krajach, generując rocznie ponad 600 mln zł przychodów. Rafał Sonik, prezes Gemini Holding, przekonuje, że połączenie „pozwoli na stworzenie giganta na rynku IT – nie tylko polskim, ale i globalnym”. Jeśli transakcja zostanie sfinalizowana, Grupa Euvic urośnie o 30 proc. Inwestycja pozwoli jej na rozszerzenie kompetencji w obszarze infrastruktury IT. W efekcie powstanie ekosystem bazujący, tak jak dotychczas na usługach programistycznych, infrastrukturalnych, body/team leasingu, digital marketingu i konsultingu, rozszerzonych o handel cyfrowy i dystrybucję w obszarze infrastruktury i licencji IT B2B.
Inwestycja w Krajowe Centrum Przetwarzania Danych postępuje. Ministerstwo Cyfryzacji liczy na uzyskanie pozwolenia na budowę w IV kw. 2024 r. Na początku 2025 r. chce podpisać umowę z generalnym wykonawcą. Już teraz zawarto umowy z biurem projektowym (konsorcjum AODC oraz Linar Projekt), inżynierem kontraktu (Ayesa Polska) i wykonawcą światłowodów (Fibrenet Group). Projekt zaczyna się materializować dzięki dofinansowaniu z KPO, które ma wynieść 829,15 mln zł. To lwia część całkowitego kosztu inwestycji, przekraczającego 1 mld zł. Krajowe Centrum Przetwarzania Danych będzie składać się z połączonych światłowodami trzech ośrodków o powierzchni 2 tys. mkw. każdy, obsługujących podmioty administracji publicznej i najważniejsze e-usługi (jak rejestry państwowe i rządowa chmura). Lokalne przetwarzanie ma zwiększyć poziom bezpieczeństwa danych i suwerenność cyfrową.
Odkąd Windows stał się dominującym systemem operacyjnym, niebieski ekran jest symbolem awarii komputera. Wprawdzie niektórzy zdążyli już o nim nawet zapomnieć, ale niestety przypomniał o sobie kilka tygodni temu.
n Wojciech Urbanek
Globalna awaria wywołana przez błędną aktualizację oprogramowania CrowdStrike zatrzymała pracę 8,5 miliona urządzeń działających pod kontrolą systemu operacyjnego Windows. Wprawdzie Microsoft uspokajał, że dotknęła ona zaledwie 1 proc. użytkowników, ale chociażby dla setek tysięcy ludzi wybierających się na upragnione wakacje to była jednak mała pociecha.
W powyższym kontekście szczególnie interesujący jest przypadek jednego z największych amerykańskich przewoźników. Delta Air Lines odwołała w ciągu kilku dni ponad 5 tys. lotów, a Ed Bastian, dyrektor generalny tych zasłużonych linii lotniczych, powiedział w wywiadzie dla CNBC, że nie widzi innego wyjścia aniżeli odzyskanie strat na drodze sądowej. „Chodzi nam nie tylko o utratę przychodów, ale także dziesiątków milionów dolarów dziennie wydanych na odszkodowania i miejsca w hotelach. Robiliśmy wszystko, aby zadbać o naszych klientów” – wyjaśniał Ed Bastian.
nicza zachowała dokumenty i zapisy związane z jej odpowiedzią na ostatnią awarię, a także wcześniejsze problemy związane z IT z ostatnich pięciu lat oraz informacje dotyczące jej systemów technologicznych oraz planów tworzenia kopii zapasowych. Według firmy ubezpieczeniowej Parametrix, straty firm z listy Fortune 500, które zostały poszkodowane w wyniku awarii, wynoszą około 5,4 mld dol. Co gorsza, ubezpieczyciel szacuje, że z polis ubezpieczeniowych uda się pokryć jedynie od 10 do 20 proc. wartości szkód. Zresztą nie tylko Delta Air Lines oczekuje, że Microsoft i CrowdStrike wypłacą jej odszkodowanie. Również minister cyfryzacji Malezji zwrócił się do obu firm z prośbą o finansowe rekompensaty dla rodzimych firm oraz organizacji, które ucierpiały wskutek globalnej awarii.
Co z tym
Działania Delta Air Lines nie pozostały bez odpowiedzi ze strony CrowdStrike’a. W liście wystosowanym do przewoźnika dostawca stwierdził, że grożenie mu pozwem sądowym przyczynia się do „wprowadzającej w błąd narracji”, że firma zajmującą się cyberbezpieczeństwem była odpowiedzialna za decyzje technologiczne linii lotniczej i jej reakcję na awarię. Niemniej CrowdStrike dwukrotnie przeprosił Delta Air Lines za wystąpienie zakłóceń. Producent podkreślił przy tym, że zaoferował przewoźnikowi pomoc, ale spotkał się z odmową. W tej sytuacji CrowdStrike zażądał, aby linia lot-
19 lipca br. wiele osób po uruchomieniu komputerów z „okienkami”, ujrzało niebieski „ekran śmierci”. W tym samym czasie użytkownicy urządzeń macOS oraz Chromebooków mogli bez problemu przystąpić do pracy. Ciekawostką jest fakt, że w wyszukiwarkach internetowych zdecydowanie częściej pojawiała się fraza „Microsoft outage” niż „CrowdStrike outage”, co nie pozostawia złudzeń, że gigant z Redmond jest mocno utożsamiany z globalną awarią.
Niestety, kwestie związane z bezpieczeństwem nie od dziś bywają piętą achillesową Microsoftu. Warto przypomnieć, że niedawno czołowi menedżerowie Microsoftu musieli stawić się przed Kongresem USA, aby wyjaśnić dużą podatność systemu operacyjnego Windows na cyberataki. Jak na ironię, dyrektor generalny CrowdStrike’a, George Kurtz, skomentował tę kwestię w styczniu, a więc na około pół roku przed wielką wtopą z jego udziałem. „To, co tu widzisz, to systemowe niepowodzenia Microsoftu, które narażają na ryzyko nie tylko klientów, ale także rząd USA” – powiedział George Kurtz w CNBC po tym, jak Microsoft ujawnił włamanie rosyjskich hakerów do systemów używanych przez kierownictwo wyższego szczebla.
Specjaliści ds. cyberbezpieczeństwa krytyczni wobec praktyk koncernu z Richmond twierdzą, że Microsoft – koncentrując się na przetwarzaniu w chmurze – zaniedbał rozwój swoich tradycyjnych produktów, takich jak Windows oraz poczty e-mail i katalogów korporacyjnych. Zdaniem profesjonalistów, którzy wypowiedzieli się dla dziennika The Wall Street Journal, powyższe zaniedbania sprawiły, że niezbędne stało się wprowadzenie dodatkowego oprogramowania zabezpieczającego, jak CrowdStrike.
Tymczasem, jakby tych nieszczęść było mało, zaledwie kilka dni po awarii wywołanej przez aktualizację CrowdStrike’a, Microsoft padł ofiarą ataku DDoS, w wyniku czego wielu klientów przez osiem godzin nie mogło skorzystać z aplikacji Microsoft 365. Słowem, nie znamy dnia ani godziny…
Wiele negatywnych emocji w środowisku IT w Polsce wzbudziła wypowiedź premiera Donalda Tuska o informatykach z Białorusi. W związku z tym organizacja SoDa wystosowała apel do szefa rządu.
Wczerwcu br. SoDA – Organizacja Pracodawców Usług IT, zrzeszająca blisko 200 podmiotów – wystosowała oficjalne pismo do Rządu RP, wyrażające niepokój i zakłopotanie środowiska IT w Polsce: „Wraz z przedstawicielami specjalistycznych zawodów informatycznych odebraliśmy wystąpienie Premiera jako krzywdzące i niesprawiedliwe”. W ten sposób przedsiębiorcy odnieśli się do wpisu premiera Donalda Tuska na portalu X: „A więc jeszcze raz. Sprowadzili SETKI TYSIĘCY migrantów z Azji i Afryki (zarabiając przy okazji na wizach) oraz rosyjskich i białoruskich ‘informatyków’, pomagając w budowie obcej agentury. Przykryć to chcą rasistowską propagandą. Liczą na krótką pamięć i siłę swojego wrzasku” (pisownia oryginalna).
SoDA uważa, że słowa zawarte w poście nie znajdują oparcia w rzeczywistości: „Pragniemy oświadczyć, iż ww. wypowiedź wzbudziła niepokój, zakłopotanie oraz wiele negatywnych emocji w środowisku IT w Polsce. Spora część przedstawicieli specjalistycznych zawodów informatycznych odebrała Pańskie wystąpienie jako krzywdzące i niesprawiedliwe” – czytamy w stanowisku organizacji.
Wsparcie
2024 r. CBA rozpoczęło w Polskiej Agencji Handlu i Inwestycji kontrolę dotyczą Poland.Business Harbour w związku z aferą wizową. Wcześniej MSZ komunikowało, że były zastrzeżenia co do wykorzystania wiz niezgodnie z celami programu.
zasady
Jak podkreśla SoDA, rządowy program był jednym z rozwiązań problemu pozyskiwania wysokiej klasy specjalistów, których brakuje na polskim rynku i stanowił ważne wsparcie dla branży. „Był konsultowany z wieloma wiarygodnymi organizacjami i operatorami, w tym SoDA, którzy dbali o właściwe zasady i przebieg programu” – zaznacza organizacja. Jak twierdzi, w ciągu ostatnich kilku lat do Polski przeniosły się setki białoruskich firm IT i tysiące programistów, którzy zasilają rodzime firmy IT oraz zakładają jednoosobowe działalności, płacąc podatki w naszym kraju.
ności i wiedzę, ale również doświadczenie zdobyte w międzynarodowych projektach. Dzięki nim polskie firmy zyskują dostęp do najnowszych technologii i metod pracy, co pozwala im na efektywniejsze konkurowanie na globalnym rynku. Warto podkreślić, że wsparcie dla białoruskich informatyków i firm technologicznych jest nie tylko moralnym obowiązkiem, ale również strategiczną inwestycją w przyszłość naszej gospodarki. Integracja tych specjalistów z polskim rynkiem pracy przynosi korzyści obu stronom, tworząc nowe miejsca pracy i pobudzając rozwój innowacyjnych projektów” – stwierdza organizacja.
Według Fitch wartość polskiego rynku IT w 2024 r. może urosnąć do 140 mld zł. Firmy skupione w SoDA budują opartą na wiedzy polską gospodarkę i tworzą wysokopłatne miejsca pracy.
Dla przypomnienia, białoruscy przedsiębiorcy i specjaliści IT przenieśli się do Polski w ramach programu Poland.Business Harbour, uruchomionego w 2020 r. Przewidywał on ułatwienia w relokacji dla fachowców IT, przedsiębiorców z branży i ich rodzin. Z czasem objął też inne kraje na wschód od Polski. Tymczasem w lutym
Do wiosny 2023 r. łącznie z krajów objętych Poland.Business Harbour przeniosło się do Polski blisko 700 firm i 74 tys. osób (pracowników IT i ich rodzin). „Ten napływ wysoko wykwalifikowanych specjalistów przyczynia się do wzrostu kompetencji w sektorze IT, co jest niezwykle istotne dla rozwoju innowacji i nowych technologii w naszym kraju” – podkreśla związek branżowy. Tym samym uważa słowa premiera za krzywdzące dla przybyłych do kraju fachowców IT z Białorusi i trudne do zrozumienia.
„Białoruscy specjaliści z sektora IT wnieśli do Polski nie tylko swoje umiejęt-
„Apelujemy do wszystkich decydentów i liderów opinii, abyśmy wspólnie działali na rzecz tworzenia przyjaznego środowiska dla białoruskich firm i specjalistów IT. Wspierajmy inicjatywy mające na celu ich integrację oraz rozwój, a także promujmy Polskę jako atrakcyjne miejsce dla inwestycji technologicznych” – czytamy w oświadczeniu SoDA.
Związek zwraca się przy tym do rządu z prośbą o większą troskę w stosunku do słów wypowiadanych na temat branży IT oraz o wsparcie w pozyskiwaniu zagranicznych talentów, których już teraz brakuje na naszym rynku. „Słowa Premiera mają ogromny wpływ na tworzenie narracji, a w dalszej konsekwencji powielanie nieprawdziwych opinii na temat branży IT” – podsumowuje SoDA.
Opr. Tomasz Gołębiowski
Poniżej publikujemy oficjalne stanowisko izb branżowych dotyczące przyjęcia ustawy Prawo komunikacji elektronicznej.
Zakończył się proces legislacyjny dotyczący przyjęcia ustawy – Prawo komunikacji elektronicznej (PKE), które wdraża w Polsce przepisy Europejskiego Kodeksu Łączności Elektronicznej. Ustawa, której branża oczekuje od 4 lat, mija się z obecnymi realiami rynkowymi i bez uzasadnionego powodu wychodzi poza zakres wdrażanej dyrektywy EKŁE. Dodatkowo nieoczekiwanie skrócony do 3 miesięcy okres vacatio legis na wdrożenie tak rozległych zmian uznać należy za nieracjonalnie krótki. Przedsiębiorcy nie powinni ponosić kosztów opóźnień legislacyjnych i wcześniejszych zaniechań.
Dlatego apelujemy o szybki powrót do prac gwarantujących racjonalne rozwiązania. Liczymy również na pilne rozpoczęcie rozmów ze stroną rządową i regulatorami, które zmierzać będą do wspólnego wypracowania podejścia do praktycznych aspektów wdrożenia nowej ustawy i rozwiązania problemów z tym związanych. Nowe obowiązki, które nakłada PKE na firmy działające w branży teleinformatycznej, wymagają nie tylko wielomilionowych nakładów finansowych, ale także odpowiednio długiego czasu na ich wdrożenie. Dlatego też już niemal na początku procesu legislacyjnego do projektu wprowadzony został półroczny okres vacatio legis, który to okres przez cały czas trwania procesu legislacyjnego nie był kwestionowany przez stronę rządową. Skrócenie vacatio legis do zaledwie 3 miesięcy (a w praktyce do dwóch
z uwagi na obowiązki informacyjne względem abonentów) spowoduje, iż przygotowanie i wdrożenie tak obszernych zmian w procesach, systemach, ofertach i relacjach z klientami najprawdopodobniej okaże się niewystarczające.
Przypominamy, że przepisy PKE wdraża 3700 podmiotów dla kilkudziesięciu milionów klientów w całym kraju. PKE zawiera obecnie elementy, które wykraczają poza podstawowy zakres Dyrektywy EKŁE i zwiększają stopień komplikacji procesów wdrożeniowych na polskim rynku telekomunikacyjnym.
„opasłych” i skomplikowanych regulacji, liczymy na pilne rozpoczęcie rozmów, aby wspólnie wypracować praktyczne podejście do wdrożenia nowej ustawy i rozwiązać problemy z tym związane.
PKE to jedna z najbardziej „opasłych” i skomplikowanych regulacji.
Ponadto zwracamy uwagę, że PKE to nie jedyny akt prawny, który będzie wymagał w najbliższym czasie wdrożenia przez sektor teleinformatyczny. Pozostaje kwestia kolejnych przepisów, takich jak ustawa o Krajowym systemie cyberbezpieczeństwa (uKSC), Akt o sztucznej inteligencji oraz Digital Services Act (DSA). Kumulacja tak wielu nowych regulacji w krótkim czasie stanowić będzie ogromne wyzwanie dla przedsiębiorców, którzy będą musieli jednocześnie dostosować się do różnorodnych, często wewnętrznie niespójnych wymagań prawnych.
Mając w pamięci deklaracje strony rządowej, która podkreślała, że PKE to nowa konstytucja dla rynku telekomunikacyjnego i jednocześnie jedna z najbardziej
Przypominamy, że polski rynek telekomunikacyjny pozostaje jednym z najbardziej konkurencyjnych rynków europejskich, z jednymi z najniższych cen za usługi telekomunikacyjne. Ponadto branża teleinformatyczna, zapewniająca niezakłócone funkcjonowanie państwa, społeczeństwa i gospodarki zarówno w czasie pokoju, jak i przede wszystkim w czasie zagrożenia, wyróżniająca się niezawodnością, jakością i atrakcyjnością na tle innych rynków, nie powinna być osłabiana przez nieprzemyślaną i nieproporcjonalną interwencję legislacyjną, aby nie zatracić przewag i silnych stron, które były wypracowane przez ostatni okres innowacyjnej transformacji sektora.
Sygnatariusze: Andrzej Dulka, Prezes Polskiej Izby Informatyki i Telekomunikacji; Bogdan Łaga, Prezes Polskiej Izby Komunikacji Elektronicznej; Krzysztof Kacprowicz, Prezes Związku Pracodawców Mediów Elektronicznych i Telekomunikacji Mediakom; Stefan Kamiński, Prezes Krajowej Izby Gospodarczej Elektroniki i Telekomunikacji; Jacek Silski, Prezes Polskiej Izby Radiodyfuzji Cyfrowej; Paweł Wołoch, Prezes Związku Telewizji Kablowych w Polsce Izba Gospodarcza. Stanowisko zostało upublicznione 30 lipca br.
Ósmej edycji branżowych regat towarzyszyły regaty charytatywne na rzecz Fundacji Ocean Marzeń.
n Tomasz Gołębiowski
Zanim przejdziemy do podsumowania VIII Informatycznych Mistrzostw Polski w żeglarstwie, chcielibyśmy pogratulować załodze Kyndryl 5 wygranej w wyścigu o Puchar CRN. Sternik Andrzej Kaliszewicz wręcz perfekcyjnie pożeglował wraz ze swoim zgranym zespołem: Małgorzatą Tylkowską, Magdą Chmielewską, Marcinem Boguszem i Tomaszem Mateją.
Z kolei pierwsze miejsce w klasyfikacji generalnej, po wszystkich wyścigach, zajęła załoga Kyndryl 4, podczas gdy wicemistrzostwo Polski zdobył w tym roku Bluesoft 3, a brązowy medal wywalczył
SoftFlow. Serdeczne gratulacje dla zwycięzców, jak też wszystkich pozostałych załóg, które pokazały dużą klasę na Śniardwach i Bełdanach.
Co ważne, pięknie wiało, więc regaty były dynamiczne i wymagały od załóg czujności oraz szybkich reakcji na sytuację. W takich warunkach dosłownie jeden błąd mógł zadecydować o porażce lub zwycięstwie.
O perfekcyjną organizację i świetną atmosferę regat zadbał Karol Górski z Sailing Event. To właśnie z jego inicjatywy wszystkie załogi wsparły finansowo działania Fundacji Ocean Marzeń, która po-
przez żeglarstwo uczy życia, współpracy, dyscypliny oraz zdrowej rywalizacji dzieci i młodzież z domów dziecka. Dla podopiecznych fundacji żeglarze zebrali 19 209 zł, bijąc rekord poprzedniej edycji. Największym darczyńcą, a tym samym zwycięzcą Regat Charytatywnych „Mile Dobra” został Polcom!
W tegorocznych regatach udział wzięły zespoły z takich firm, jak: Asseco, Digital Hub Warsaw Bayer, BlueSoft, Euvic, Hybridito, Kyndryl, IT Solution Factor, Oktawave, Polcom, SoftFlow, Transition Technologies oraz Unisoft. Najwięcej załóg (w sumie pięć jachtów) wystawił Kyndryl.
Klasyfikacja generalna
I miejsce – Kyndryl 4
II miejsce – BlueSoft 3
III miejsce – SoftFlow
Puchar CRN Kyndryl 5
Najbardziej wszechstronna załoga Kyndryl (wszystkie załogi startujące pod tą „banderą”)
Zwycięzca Regat Charytatywnych „Mile Dobra” Polcom
Z Aleksandrą Prusator oraz Aleksandrą
Porębską-Nowak – założycielkami Fordata, polskiego producenta systemu Virtual Data
Room dla sektora fuzji i przejęć – rozmawiamy o sytuacji na rodzimym rynku
Aleksandra Prusator założycielka oraz dyrektor sprzedaży i marketingu
M&A, narzędziach IT do wspomagania tego rodzaju transakcji, rozwoju biznesu za granicą, i efektach rebrandingu spółki po 15 latach działalności.
Trzeba przyznać, że jak na niszowego dostawcę macie rozmach w komunikacji z rynkiem. Przykładowo, co kwartał wydajecie wyczerpujący raport obrazujący sytuację na polskim rynku M&A, co jak każda większa publikacja – a wiem to z doświadczenia – jest bardzo wymagającym projektem. To jeden z waszych wyróżników na stosunkowo wąskim, a tym samym bardzo konkurencyjnym „poletku” IT?
Aleksandra Prusator Z jednej strony to biznes w dużej mierze oparty na marketingu szeptanym. Jednocześnie wymaga od nas klasycznych działań promocyjnych, także tych bardzo angażujących. Wynika to z faktu, że współcześnie ścieżki zakupowe klientów są zdecydowanie bardziej skomplikowane niż przed laty. Korzystają oni z wielu różnych źródeł pozyskiwania informacji o produktach i staramy się być widoczni w wielu różnych miejscach. Jednym z takich działań jest wspomniany raport, ale nie jest jedyny, bo co kwartał wydajemy podobną publikację, jednak dotyczącą całego regionu CEE. Oba raporty przygotowujemy w oparciu o wiedzę naszych klientów,
co jest możliwe dzięki temu, że utrzymujemy z nimi bardzo bliskie relacje.
W najnowszym raporcie zwracacie uwagę, że na polskim rynku M&A mamy od kilku miesięcy do czynienia raczej ze strategicznymi sojuszami zamiast dużych przejęć. Z czego to wynika?
Aleksandra Prusator W obecnych, niepewnych czasach, czemu sprzyja przedłużający się konflikt ukraińsko-rosyjski, wysoka inflacja i ogólne spowolnienie gospodarcze, spadła liczba fuzji i przejęć. Mamy przy tym do czynienia ze znacznym rozjazdem oczekiwań po obu stronach. Sprzedający, mimo że biznes idzie im obecnie nie najlepiej, liczą jednak na wyceny na poziomie EBIDT-y sprzed dwóch czy trzech lat, kiedy koniunktura była lepsza. Tymczasem inwestorzy patrzą na wyniki z ostatnich miesięcy i nie zamierzają przepłacać. A skoro jest impas, to nierzadko pojawia się pomysł na zawarcie strategicznego sojuszu, który zwiąże ze sobą obie strony i pomoże
przetrwać okres przejściowy do czasu poprawy koniunktury, kiedy to oczekiwania obu stron będą na tyle zbieżne, że jednak dojdzie do skutecznej transakcji. Według analityków poprawa koniunktury w europejskiej gospodarce powinna nastąpić w najbliższych miesiącach, a najpóźniej w przyszłym roku.
A jak wyglądała sytuacja w sektorze Virtual Data Roomów w okresie lockdownów?
Aleksandra PorębskaNowak
założycielka i dyrektor IT
Jaki jest potencjał tego sektora?
Aleksandra Prusator W Polsce średnio każdego roku ma miejsce około 300 transakcji M&A, a więc jeśli chcemy się rozwijać, musimy szukać szans także na innych rynkach. Dzięki temu realizujemy rocznie od 250 do 300 projektów.
No właśnie, w ciągu 15 lat Fordata z lokalnej spółki stała się dostawcą rozwiązań dla klientów w ponad 30 krajach. Czy od początku zakładałyście biznes na skalę globalną?
ło ogromny atut. Od początku stawialiśmy na bardzo duże zaangażowanie we współpracę z klientami. Przykładowo, na potrzeby prywatyzacji PKP Cargo nasi specjaliści odwiedzili każdy z lokalnych oddziałów tej spółki, żeby zdigitalizować niezbędną dokumentację. To była tytaniczna praca, którą jednak wykonaliśmy szybko i sprawnie, nie dezorganizując przy tym pracy tych jednostek. Dzięki takiemu podejściu zdobywaliśmy kolejne referencje od dużych, znanych spółek, co z kolei pomogło nam w dalszym rozwoju biznesu w Polsce i za granicą.
Najpierw w naszym regionie Europy?
Aleksandra Prusator Zaczynałyśmy od krajów charakteryzujących się bliskością kulturową – Rumunii, Czech, Węgier i krajów bałtyckich. A zatem tam, gdzie sprzedaż w dużym stopniu odbywa się w oparciu o relacje. Dopiero potem zaczęliśmy działać w Niemczech, Wielkiej Brytanii i krajach skandynawskich, gdzie z kolei przeważa model transakcyjny.
Aleksandra Prusator W naszej branży to był czas zastoju. Raz jeszcze powtórzę, że w czasach niepewności gospodarczej inwestorzy czekają z decyzjami. Trwało to na szczęście dosyć krótko, a my w tamtych miesiącach oparłyśmy się pokusie radykalnych zmian. Uznałyśmy, że nasza siła wynika ze specjalizacji i tego musimy się trzymać, chociaż projekty dotyczące fuzji i przejęć stanowią około 80 procent naszego biznesu, więc Fordata jest zależna od koniunktury w tym obszarze.
Aleksandra Prusator I tak i nie. W 2009 roku, kiedy zaczynałyśmy działalność, sytuacja rynkowa była zupełnie inna. Dzisiejsi founderzy od razu myślą o rozwoju w perspektywie globalnej, mając szansę na pozyskanie pokaźnych środków w ramach kolejnych rund finansowania. I od razu myślą o wejściu na duże, bardzo obiecujące rynki, najczęściej chodzi o Stany Zjednoczone. Z nami było inaczej, bo te kilkanaście lat temu brakowało w Polsce funduszy seed capital, jak też nie było tylu funduszy venture capital. Nie mówiąc o tylu wydarzeniach łączących potencjalnych inwestorów ze społecznością startupową. Dlatego na samym starcie założyłyśmy, że wprawdzie docelowo będziemy prowadzić biznes za granicą, ale dopiero na późniejszym etapie działalności.
Co zatem zadecydowało o sukcesie na krajowym podwórku?
Aleksandra Prusator Lata 2009–2011 to był okres wielkich prywatyzacji w sektorze dużych spółek państwowych – energetycznych, logistycznych jak też samorządowych. Z ich perspektywy fakt, że byliśmy polskim podmiotem, który zapewnia im w procesie sprzedaży lokalne wsparcie w języku polskim, stanowi-
Współcześnie trudno sobie wyobrazić przeprowadzenie fuzji czy przejęcia bez skorzystania z wirtualnego data roomu. Kiedyś tak, rzecz jasna, nie było. Aleksandra Porębska-Nowak Dawniej odbywało się to w sposób tradycyjny, a więc doradcy, prawnicy i analitycy musieli fizycznie pojawić się w siedzibie danej spółki, aby wertować mniejsze lub większe stosy dokumentów. Obecnie odbywa się to zdalnie, cyfrowo, a więc dużo wygodniej.
A w jakim modelu biznesowym działacie?
Aleksandra Porębska-Nowak Virtual Data Room to usługa chmurowa, w modelu SaaS. Do piętnastu minut od wykupienia usługi klient dostaje dostęp do dedykowanej instancji, odseparowanej od pozostałych. Może w niej bezpiecznie umieścić wszelkie niezbędne dokumenty, dając do nich dostęp inwestorom i zarządzając tym dostępem zgodnie ze swoimi życzeniami czy potrzebami. Może też korzystać z forum dyskusyjnego, jak też anonimizować wybrane dane, a to wszystko z wykorzystaniem lokalnego centrum danych
w Katowicach. Nie ma zatem mowy o wysyłaniu tych danych poza Polskę, a tym samym poza teren Unii Europejskiej.
Jaki etap transakcji wspomagacie w ten sposób?
Aleksandra Prusator Nasze narzędzie znacząco usprawnia przebieg procesu na etapie due diligence, w ramach którego sprzedający udostępnia potencjalnemu kupującemu dokumentację prawną, finansową, pracowniczą czy strategiczną. Wszystko odbywa się w sposób zdalny, co pozwala bez dodatkowych kosztów komunikować się z inwestorami z całego świata. W razie chęci i potrzeby można dopraszać kolejnych zainteresowanych, a to wszystko w bardzo dyskretny sposób. Nasz system umożliwia dokładne zabezpieczenie ujawnianej inwestorom dokumentacji. Ten, kto ją analizuje, nie może niczego skopiować, a nasz klient otrzymuje po wszystkim szczegółowy raport aktywności poszczególnych użytkowników. Aspekt dyskrecji jest o tyle ważny, że generalnie w sektorze M&A spory odsetek transakcji nie dochodzi do skutku, a proces due diligence siłą rzeczy obejmuje dokumentację poufną, do której nierzadko zyskuje dostęp bezpośredni konkurent, z którym prowadzone są rozmowy na temat ewentualnego przejęcia. Stosowane przez nas bariery technologiczne, dzięki
którym informacje nie rozprzestrzeniają się po rynku, mają dla naszych klientów bardzo duże znaczenie.
Czego jeszcze oczekują klienci w tym sektorze rynku?
Zaczynałyśmy od krajów
charakteryzujących
się bliskością kulturową.
Aleksandra Porębska-Nowak Bliskości biznesowej, uważności, relacyjności. Dlatego działamy w modelu butikowym, jako dość mała, ale za to wyspecjalizowana firma, do której bez trudu można się dodzwonić i gdzie konkretni, dedykowani danemu klientowi specjaliści będą z nim rozmawiać znając jego potrzeby na wylot. Telefony odbieramy w ciągu kilkunastu sekund przez całą dobę, siedem dni w tygodniu, a na mejle odpowiadamy w 15 minut. Oczywiście pracujemy w systemie zmianowym.
A sam produkt, czym się charakteryzuje?
Aleksandra Porębska-Nowak W niczym nie ustępuje najlepszym światowym rozwiązaniom, a część z nich przewyższa. Dotyczy to chociażby anonimizowania wrażliwych treści w dokumentach, w tym danych osobowych czy innych parametrów na żądanie klientów. Korzystamy już także z możliwości sztucznej inteligencji do wstępnej analizy dokumentacji pod zadanym kątem. Nasi klienci twierdzą, że to najlepsze narzędzie tego typu, z jakie-
go do tej pory korzystali. Podsumowując, mamy zaangażowany zespół, znakomity produkt, szybkość działania i – mówiąc kolokwialne – dowozimy tematy.
Jakie spółki mogą korzystać z waszego rozwiązania?
Aleksandra Prusator Spółki każdej wielkości, bo koszt dostępu do naszego Virtual Data Roomu o podstawowej funkcjonalności, z którego klienci mogą korzystać samodzielnie, to jedynie kilkaset złotych miesięcznie. Oczywiście w przypadku większych spółek i dużych transakcji proponujemy najbardziej funkcjonalną wersję ze wsparciem ze strony naszych specjalistów. W takiej sytuacji Fordata zajmuje się ładowaniem dokumentacji do data roomu, sortowaniem danych, konfiguracją systemu czy wszelkimi kwestiami technicznymi, a klient może się wówczas w pełni skoncentrować na najważniejszej kwestii, a więc na negocjacjach z inwestorem.
Doradzacie w kwestiach biznesowych czy ograniczacie się do obsługi technicznej?
Aleksandra Prusator Nie angażujemy się w doradztwo, bo tym zajmują się specjalistyczne firmy doradcze typu corporate finance, a ostatnio także niektóre kancelarie prawnicze.
W jakich kierunkach zamierzacie rozwijać wasz system?
Aleksandra Porębska-Nowak Przede wszystkim należy podkreślić, że dynamika zmian, jakim podlega rynek w kontekście technologicznym jest ogromna, wręcz zatrważająca. I chociaż to bardzo trudne, staramy się za tym nadążyć, zdając sobie przy tym sprawę, że zanim zrealizujemy połowę naszego backlogu, to ta druga połowa się zdezaktualizuje (śmiech).
Nad czym teraz pracujecie?
Aleksandra Porębska-Nowak Po niedawnym zakończeniu prac nad funkcją anonimizacji danych, teraz między innymi koncentrujemy się na automa-
tycznych tłumaczeniach dokumentacji na żądany język obcy, co realizujemy przy zastosowaniu sztucznej inteligencji. Chcemy też, aby w przyszłości służyła nam ona również do analizowania dokumentacji pod kątem określonych ryzyk czy klauzul abuzywnych. W ten sposób, krok po kroku, przyspieszamy przebieg procesu due diligence z korzyścią dla naszych klientów. Co ważne, mamy niewielki, ale prężnie działający zespół, który na bieżąco śledzi nowinki technologiczne, działając na styku technologii oraz biznesu i rekomendując nam potencjalnie przydatne rozwiązania.
Niedawno jeden z analityków IDC ostrzegał, że obecnie korzystanie z generatywnej sztucznej inteligencji jest darmowe, ale z czasem jej dostawcy zaczną żądać opłat i to może stać się kosztowną „zabawą”. Bierzecie to pod uwagę?
Aleksandra Porębska-Nowak Mieliśmy już przykłady tego rodzaju podejścia ze strony dużych producentów. W naszym przypadku było to chociażby narzędzie pocztowe od Google’a, które początkowo było darmowe, potem wprowadzono płatną wersję o rozszerzonej funkcjonalności, a z czasem wersja darmowa zniknęła i w ten sposób nie było już alternatywy dla płatnych biznesowych narzędzi pocztowych Microsoftu. Najpierw Google zdobył klientów brakiem opłat, po czym przyzwyczaił ich do produktu, a tym samym częściowo postawił pod ścianą. A żeby tak daleko nie szukać, to przecież nie dalej jak w tym roku klienci VMware’a musieli borykać się z dużym wzrostem kosztów po zmianie polityki cenowej przez nowego właściciela tego koncernu. Także również w przypadku generatywnej sztucznej inteligencji pojawienie się opłat, być może niemałych, to realny scenariusz, choć nie wiemy czy i kiedy on się ziści.
A jak radzicie sobie z implementacją kolejnych unijnych dyrektyw? Wielu
naszych rozmówców zaczyna się w tym wszystkim gubić… Aleksandra Porębska-Nowak Trzeba przyznać, że nam też nie jest łatwo pod tym względem. Z jednej strony coraz więcej pracy poświęcamy na utrzymanie przewagi konkurencyjnej na szybko zmieniającym się rynku, a jednocześnie zmuszani jesteśmy do realizacji nowych wymogów prawnych. Oczywiście dobrze, że w Unii Europejskiej dbamy na przykład o bezpieczeństwo danych, czego nie można powiedzieć o mniej rozwiniętych rynkach, ale jednak potrzebne jest znalezienie jakiegoś złotego środka między potrzebą ochrony konsumenta a interesami przedsiębiorców. Firmy muszą dbać o rozwój produktów, o rentowność i mieć czas na myślenie strategiczne. Niestety, obecnie funkcjonujemy w gospodarce przeregulowanej. Dodatkowo Fordata jest certyfikowana w zakresie normy ISO 27 001, która też właśnie uległa zmianom, a więc poza implementacją wymagań DORA czy NIS 2, musimy też zadbać o dostosowanie procedur do tego obszaru.
nia i czy warto ponieść związane z tym koszty?
W Polsce średnio każdego roku ma miejsce około 300 transakcji M&A.
Aleksandra Prusator Rebranding to proces wymagający, nieoczywisty i kosztowny. I to trzeba sobie jasno powiedzieć. Jednocześnie zmusza zarząd do zatrzymania się i przemyślenia na nowo celów strategicznych, jak też wartości, którymi kieruje się firma w swoich działaniach rynkowych. I chociażby dlatego warto się tego podjąć. W naszym przypadku efektem jest nowocześniejszy wizerunek, a jednocześnie pokazanie, że za technologią stoją u nas konkretni ludzie, otwarci na klientów i innowacyjni. Unowocześniliśmy także wygląd naszego systemu, co klienci bardzo sobie chwalą, bo korzystnie wpływa to na ich pracę z naszym narzędziem. Rynek się zmienia, technologie się zmieniają i wizerunek firmy powinien za tym nadążać. Zwłaszcza, że przed nami kolejne 15 lat rozwoju na dynamicznie rozwijającym się rynku i akurat ta dynamika to będzie chyba jedyna rzecz, która przez ten czas nie ulegnie zmianie. Co najwyżej przyspieszy…
Niedawno Fordata przeszła proces rebrandingu. Jakie były jego założe-
Rozmawiał Tomasz Gołębiowski
CYBERBEZPIECZEŃSTWO W INSTYTUCJACH
SAMORZĄDOWYCH
Projekt „Cyberbezpieczny Samorząd” stanowi poważny zastrzyk finansowy dla jednostek samorządu terytorialnego, które otrzymają środki na systemy bezpieczeństwa IT, audyt i szkolenia.
Jednostki samorządowe, ze względu na swoje skromne budżety, teoretycznie nie powinny być celami pierwszego wyboru dla gangów ransomware. Co nie zmienia faktu, że liczba cyberataków skierowanych przeciwko urzędom wykazuje tendencję wzrostową. Jak wynika z danych działającej przy NASK-u jednostki CERT, w ubiegłym roku odnotowano 1192 incydenty, co oznacza wzrost o 102 proc. w ujęciu rocznym. – W dobie narastającej fali ataków na łańcuchy dostaw, samorządy stanowią wręcz wymarzony „punkt przesiadkowy”, z którego napastnicy mogą uderzyć w urzędy centralne lub korporacje. Nie można wykluczyć, że w jakimś sensie pań-
Grzegorz Szałański, lider Zespołu Produktowego Fortinet, Exclusive Networks
stwo, jako uczestnik tego łańcucha, będzie musiało stawić czoła roszczeniom pokrzywdzonym przez hakerów podmiotom – zauważa Grzegorz Szałański, lider Zespołu Produktowego Fortinet w Exclusive Networks.
Trudno powiedzieć, czy pomysłodawcy programu „Cybebezpieczny Samorząd” brali pod uwagę takie scenariusze, co nie zmienia faktu, że dostrzegli szereg zaniedbań w zakresie samorządowej cyberochrony. Jedną z największych bolączek jest w tym przypadku brak rąk do pracy. Rzecz jasna, deficyt specjalistów ds. cyberbezpieczeństwa zdążyli odczuć nie tylko samorządowcy, ale również świat biznesu, choć sytuacja w jednostkach samorządu terytorialnego jest pod tym względem zdecydowanie gorsza.
– Niestety, brak odpowiednich fachowców dotyczy nie tylko urzędów w małych gminach, ale pojawia się również w dużych miastach. Zauważamy wysoką rotację pracowników w działach IT, a to wiąże się z ubytkiem wiedzy. W takich przypadkach urzędy często sięgają po wsparcie ze strony integratorów. O ile w większych ośrodkach można dość łatwo znaleźć odpowiedniego partnera, o tyle w mniejszych miejscowościach staje się to coraz trudniejsze – tłumaczy Paweł Kopańczuk, Commercial Sales Manager w polskim oddziale Fortinetu.
Jeśli do braków kadrowych dodać niski poziom inwestycji w systemy bezpieczeństwa IT w gminach, to wyłania się z tego dość ponury obraz. Zabezpiecze-
nia stosowane w jednostkach samorządowych nie przypominają fortecy, a bardziej chatkę z lichą kłódką. I choć państwo nie ma recepty na rozmnożenie specjalistów ds. cyberbezpieczeństwa, to dysponuje środkami finansowymi mogącymi poprawić stan zabezpieczenia infrastruktury IT w jednostkach samorządu terytorialnego. Uruchomiony w ub. roku projekt „Cyberbezpieczny samorząd” ma być cybernetyczną tarczą chroniącą urzędy.
„Cyberbezpieczny Samorząd” jest rządowym programem realizowanym w partnerstwie z Państwowym Instytutem Badawczym NASK. Najważniejsze jego cele to wsparcie jednostek samorządu terytorialnego we wdrożeniu procedur i polityk bezpieczeństwa, zapewnienie odpowiednich narzędzi do reakcji na cyberataki i zwiększenie świadomości pracowników w kontekście cyberzagrożeń. Projekt spotkał się z pozytywnym odzewem ze strony zainteresowanych, bowiem wnioski złożyło 90 proc. uprawnionych jednostek samorządu terytorialnego (2196 gmin, 300 powiatów i 15 województw). W rezultacie na program przeznaczono 1,5 mld zł, z czego 1,2 mld zł na infrastrukturę sprzętową i oprogramowanie oraz wdrożenia, a 183 mln zł na opracowanie procedur, certyfikację, audyty i wdrażanie systemu zarządzania bezpieczeństwem informacji. Natomiast 105 mln zł ma być przeznaczone na
szkolenie pracowników. Co ważne, środki trzeba wykorzystać do końca czerwca 2026 r., a zatem każdy projekt można dobrze przemyśleć.
Złożenie wniosku dla wielu samorządowców było sporym wyzwaniem, chociażby ze względu na brak specjalistów, którzy potrafiliby prawidłowo ocenić stan zabezpieczeń i dobrać narzędzia do ich wzmocnienia. W takich sytuacjach samorządy często musiały posiłkować się wiedzą zewnętrznych ekspertów.
– Dla części gmin w Polsce wnioski, w których pojawił się wymóg audytu, były dla nich pierwszymi doświadczeniami audytorskimi, z jakim mieli do czynienia. To była bardzo cenna lekcja dla samorządowych informatyków – zauważa Grzegorz Szałański.
Również urzędnicy korzystający z usług firm zewnętrznych zdobyli cenne doświadczenia i niewykluczone, że w nieodległej przyszłości zaprocentuje to zleceniami przeprowadzenia profesjonalnego audytu.
grożeń, polegać na edukacji pracowników w zakresie cyberbezpieczeństwa, uwzględniać oddzielone geograficznie kopie zapasowe, a także redundancję wszystkich kluczowych systemów i narzędzi – mówi Paweł Kopańczuk.
Taki sposób postępowania samorządów wynika z ograniczonej świadomości, a także skromnych budżetów na IT. Jednak wprowadzenie polityki bezpieczeństwa do tej właśnie sfery może być realizowane przy współudziale integratorów. O tym, że jest to możliwe pokazuje przykład Narodowego Funduszu Zdrowia, gdzie po kilku latach wypracowano sprawnie funkcjonujące mechanizmy. – Trudno do końca określić jak ten proces będzie przebiegać w przypadku jednostek samorządu terytorialnego. Niemniej zauważam, że rolę sternika polityki bezpieczeństwa w urzędach próbuje wziąć na siebie NASK. Obserwujemy te działania z dużą uwagą – mówi Paweł Kopańczuk.
listy, którym może być właśnie partner zewnętrzny. Takie usługi mogą – ze względu na ich wartość – nie być objęte wymogami Prawa Zamówień Publicznych – tłumaczy Grzegorz Szałański.
Jeśli uda się przenieść wzorce usług bezpieczeństwa ze świata biznesu czy wspomnianych już placówek opieki zdrowotnej, integratorzy zyskają nową grupę odbiorców. Ponadto istnieje szansa na adaptację modelu usług utrzymaniowych pozwalających na stały kontakt z klientem.
Większość dojrzałych organizacji posiada zdefiniowaną politykę bezpieczeństwa, która określa zasady dotyczące ochrony zasobów fizycznych i informatycznych przedsiębiorstwa. Polityka bezpieczeństwa realizowana przez jednostki samorządu terytorialnego rządzi się jednak swoimi prawami.
– Oceniamy, że tylko niewielki odsetek samorządów prowadzi działania, które można określić mianem spójnej polityki bezpieczeństwa. Praktyka odbiega również od korporacyjnych standardów i w najlepszym wypadku sprowadza się do tego, że urząd posiada firewalla narzędzi do backupu i podstawowy system ochrony endpointów. Tymczasem taka polityka powinna ciągle dostosowywać się do potencjalnych wektorów za-
Zabezpieczenia stosowane w jednostkach samorządowych nie przypominają fortecy.
Nic nie wskazuje na to, że w najbliższych latach na rynku pracy nastąpi wysyp specjalistów ds. cyberbezpieczeństwa. W przypadku samorządów jednym ze sposobów na rozwiązanie problemu są zarządzane usługi bezpieczeństwa (MSS) świadczone przez integratorów i operatorów TELCO. Jak jednak wynika z przytoczonych wcześniej danych, projekt „Cyberbezpieczny Samorząd” preferuje zakup infrastruktury sprzętowej i oprogramowania.
– Z modelu MSS korzystają już szpitale, więc należy dokładnie przyjrzeć się, jak to działa i jak przenieść to na grunt samorządów. Szczególnie warto zwrócić uwagę na świadczenie usług bazujących na infrastrukturze klienta. W takim modelu to kwestia określenia procesów i odpowiedzialności, gdy zarządzanie infrastrukturą odbywa się np. z dwóch kont: administratora oraz niezależnego specja-
Sam fakt, iż urzędy otrzymają dofinansowanie do zakupu nowego sprzętu, oprogramowania czy szkoleń, zachęca ich od poznawania produktów, a w dłuższej perspektywie daje czas na ich rozwój czy wymianę na bardziej innowacyjne rozwiązania.
– Nie ulega wątpliwości, że projekt przyczynił się do zwiększenia zainteresowania wśród samorządów tematyką związaną z cyberbezpieczeństwem. Niektóre urzędy zwracają się do nas bezpośrednio z pytaniami dotyczącymi projektu, a przy okazji budują swoją świadomość na temat cyberbezpieczeństwa. Poza tym zaczynają zastanawiać się nad tym, czego tak naprawdę potrzebują i tym samym pojawia się przestrzeń do dyskusji – podkreśla Paweł Kopańczuk.
Wygląda na to, że najważniejszy jest impuls, który przyczyni się do rozwoju systemów i usług bezpieczeństwa IT w tej grupie odbiorców.
Wojna p ó łpr zewo dnikowa: półprzewodnikowa:
z „frontu” wieści z „frontu”
Amerykański eksport sprzętu do Chin gwałtownie rośnie…
Według doniesień japońskiej agencji Nikkei Asia, amerykańscy producenci sprzętu do produkcji chipów, pomimo ograniczeń eksportowych nałożonych na Pekin przez Waszyngton, stali się w minionym czasie bardziej zależni od rynku chińskiego. Firmy z USA przede wszystkim zwiększają dostawy do Chin maszyn używanych do produkcji starszych, mniej zaawansowanych typów chipów.
W okresie od lutego do kwietnia br. Chiny odpowiadały za 43 proc. sprzedaży spółki Applied Materials, co oznacza wzrost o 22 proc. w porównaniu z rokiem ubiegłym. Z kolei udział Chin w sprzedaży spółki Lam Research wzrósł w okresie od stycznia do marca o 20 proc. (do poziomu do 42 proc.), co bez wątpienia wydaje się sprzeczne z planami Białego Domu dotyczącymi ograniczeń eksportowych skierowanych przeciw Państwu Środka. Przypomnijmy, że rząd USA stworzył dwa lata temu formalne przeszkody dla dostaw amerykańskiego sprzętu do produkcji chipów, a wykorzystywanego do produkcji najnowocześniejszych półprzewodników. Sankcje te, jak to wprost zakomunikowała administracja waszyngtońska, miały zatrzymać rozwój Chin w tej dziedzinie. Podczas niedawnych targów Semicon West, które odbywały się w San Francisco,
Pekin ustanowił
politykę własnych łańcuchów dostaw.
wyżsi urzędnicy rządowi Stanów Zjednoczonych zachwalali sukces ustawy CHIPS and Science, uchwalonej w 2022 r. Ustawa ta zapewnia 52,7 mld dol. dotacji na badania i produkcję chipów w USA. Stanowi tym samym narzędzie przyciągające krajowych i zagranicznych producentów chipów do uruchomienia nowych inwestycji w USA. W trakcie swojego przemówienia podczas Semicon West podsekretarz handlu USA Laurie Locascio poinformowała, że dzięki CHIPS and Science Act na inwestycje w Stanach zdecydowało się wielu ważnych graczy rynku półprzewodnikowego, w tym Intel, Samsung Electronics i TSMC. Amerykańscy producenci sprzętu półprzewodnikowego również odnoszą korzyści z uruchomienia tej ustawy. Dla przykładu w 2023 r. przychody z USA stanowiły 15 proc. całkowitych przychodów spółki Applied Materials (wzrost o 6 proc. w porównaniu z rokiem 2021). Jednak to wciąż o wiele za mało, by zrównoważyć wielkość zamówień napływających z Chin, które są głównym rynkiem zbytu w branży. Jak przyznają nieoficjalnie przedstawiciele amerykańskich form z sektora produkcji sprzętu do wytwarzania półprzewodników, gdyby nie ograniczenia, udział Chin w ogólnej sprzedaży byłby jeszcze wyższy. Przy czym wzrost ten dotyczy wyłącznie niezaawansowanego sprzętu.
SEMI – międzynarodowa grupa handlowa organizująca Semicon – ogłosiła w San Francisco, że globalna sprzedaż sprzętu do produkcji chipów wzrośnie w bieżącym roku o 3,4 proc., osiągając wartość 109 mld dol. Chiny będą stanowić ponad 30 proc. tego rynku i będą najważniejszym motorem popytu na sprzęt w skali całego świata. Wzrost eksportu niezaawansowanego sprzętu do Chin stwarza ryzyko dla producentów amerykańskich, ponieważ eksportowany sprzęt może pomóc w rozwoju chińskiego krajowego przemysłu chipów. Co istotne – Pekin ustanowił krajową politykę tworzenia własnych łańcuchów dostaw chipów, potencjalnie tworząc w dłuższej perspektywie silną konkurencję dla amerykańskich producentów sprzętu. I tym samym, jak w przypadku chociażby samochodów elektrycznych i spalinowych, ostatecznie wypchnąć firmy amerykańskie z zajmowanych przez nie nisz na rynku komponentów półprzewodnikowych.
„Jeśli spojrzymy krytycznie na produkty dostępne na rynku cyberbezpieczeństwa, to okazują się one bardzo często zaprojektowane z myślą o wymaganiach dużych firm. Stąd potrzeba demokratyzacji tego segmentu rynku IT” – mówi Antti Koskela, Interim CEO w WithSecure.
Proaktywność to jeden z najczęściej powtarzanych terminów przez dostawców systemów bezpieczeństwa IT. Jak rozumiecie to pojęcie w kontekście produktów WithSecure?
Antti Koskela Strategia bezpieczeństwa IT dla małych i średnich przedsiębiorstw przez wiele lat zakładała, że należy koncentrować się na ochronie i dysponować odpowiednim produktem zabezpieczającym przed złośliwym oprogramowaniem. Jednak wraz z nadejściem ataków ransomware pojawiła się konieczność położenia akcentu na wykrywanie i reagowanie na zagrożenia. Do tego doszły nowe usługi, w tym SaaS, i tym samym mamy do czynienia z otwartym środowiskiem o zerowym zaufaniu. Dlatego tak ważne jest, żebyśmy lepiej zrozumieli kwestie związane z ochroną tożsamości i wprowadzali uwierzytelnianie wieloskładnikowe wszędzie tam, gdzie go nie ma. W związku z tym skuteczne wykrywanie zagrożeń i szybka reakcja to podstawa. Oczywiście, podejście proaktywne wymaga dokładnego przemyślenia kwestii ochrony poprzez pryzmat napastnika i skanowania infrastruktury od zewnątrz. Proaktywny sposób przypomina trochę utrzymanie porządku w domu – lepiej podnieść koszulę z dywanu i włożyć ją do pralki, niż doprowadzić do momentu, w którym zalegać nam będzie cała sterta ubrań do wyprania. Takim właśnie zachowaniem „higieny IT” charakteryzuje się obrona proaktywna. To nawyk wykonywania regularnych porządków, zanim pojawi się bałagan.
W parze z proaktywnością musi jednak iść reaktywność…
Reaktywność jest jak kręgosłup strategii cyberbezpieczeństwa. Jeśli w danej firmie czy instytucji działania proaktywne są realizowane sumiennie, staje się ona mniej atrakcyjnym celem dla hakerów. Napastnicy najchętniej biorą na cel firmy łatwe do zaatakowania, które mają dla nich określoną wartość.
Podczas tegorocznej konferencji SPHERE24 kilkakrotnie wspominał Pan o demokratyzacji cyberbezpieczeństwa. Co to oznacza w praktyce?
W praktyce chodzi o wykonalność, a także opłacalne oraz niedrogie wybory zakupowe. Jednak jeśli spojrzymy na produkty dostępne na rynku cyberbezpieczeństwa to bardzo często są zaprojektowane z myślą o potrzebach dużych firm. Zwykle do ich obsługi potrzeba wielu specjalistów, na co mniejsze i średnie przedsiębiorstwa nie mogą sobie pozwolić. W związku z tym WithSecure wprowadza produkty, które automatyzują procesy, co jest możliwe dzięki zastosowaniu mechanizmów uczenia maszynowego i sztucznej inteligencji. Dzięki temu możemy udostępniać więcej usług i funkcji dla małych oraz średnich firm, które zazwyczaj zatrudniają jednego informatyka lub specjalistę ds. cyberbezpieczeństwa. Niekiedy zdarza się nawet, że jest to pracownik na pół etatu. Właśnie tym ludziom musimy i chcemy ułatwić życie. Reasumując, gdy
mowa o demokratyzacji bezpieczeństwa, chodzi o to, żeby na rynku funkcjonowały rozwiązania cyberbezpieczeństwa dostępne dla każdego użytkownika przy aprobowanym przez niego poziomie ceny.
Wspomina Pan o sztucznej inteligencji, która jest jednak bronią obosieczną, bowiem korzystają z niej zarówno napastnicy, jak i dostawcy narzędzi bezpieczeństwa IT. Kto na dzień dzisiejszy lepiej wykorzystuje mechanizmy AI?
Myślę, że zdecydowanie lepiej na tym polu radzą sobie obrońcy. Rzecz w tym, że systemy sztucznej inteligencji wymagają danych szkoleniowych. Na podstawie 30-letniego doświadczenia wiemy, który plik jest szkodliwy, jaka strona internetowa może być niebezpieczna, a co nie szkodzi. Znamy sposób działania atakującego i łatwiej jest nam na to zareagować. W związku z tym możemy szkolić modele w oparciu o wiedzę gromadzoną przez długie lata. Natomiast dla napastników jest to trudne, ponieważ po wysłaniu wiadomości phishingowej nie wiedzą, co się dzieje w głowie potencjalnej ofiary, a więc jaka będzie jej reakcja – kliknie czy nie kliknie? Cyberprzestępcy mają też dużo mniej danych szkoleniowych niż dostawcy systemów bezpieczeństwa IT. Jak na razie, na szczęście, hakerzy nie wykorzystują sztucznej inteligencji na dużą skalę.
Rozmawiał Wojciech Urbanek
Wydatki na nadzór wideo i kontrolę dostępu będą zwiększać się w najbliższych latach zarówno globalnie, jak też na polskim rynku.
Analitycy Verified Market Research szacują, że wartość europejskiego rynku monitoringu wzrośnie z blisko 9 mld dol. w 2024 r. do 19,93 mld dol. w roku 2031. Oznacza to średnioroczny wzrost na poziomie ponad 10 proc. Natomiast według ubiegłorocznej prognozy Markets and Markets globalne wydatki na nadzór wideo będą zwiększać się co roku przeciętnie o 9,2 proc., osiągając w 2028 r. poziom 83,3 mld dol. Rosnącym inwestycjom powinien sprzyjać wzrost obaw o bezpieczeństwo w przestrzeni publicznej, w firmach i domach, które to zjawisko już teraz obserwują dostawcy tego rodzaju systemów. Z drugiej strony popytowi sprzyja postęp technologiczny, w tym oferta kamer o wysokiej rozdzielczości, zaawansowane oprogramowanie do analizy wideo i wykorzystywanie w nowych rozwiązaniach sztucznej inteligencji.
Zdaniem integratora
n Krzysztof Pasławski
W Polsce sprzyjające warunki dla sprzedawców panują między innymi w sektorze budynków mieszkalnych. Z danych Statista wynika, że przychody z tego tytułu powinny powiększać się co roku średnio o ponad 14 proc., osiągając w tym roku pułap 51,4 mln dol., a w roku 2028 poziom 87,1 mln dol. Oznacza to skok o 70 proc. w ciągu czterech lat.
Co istotne, wskaźnik penetracji takich zabezpieczeń ma zwiększyć się 4-krotnie, z 7,5 proc. gospodarstw w kraju do 22,4 proc. w 2028 r. Dane te obejmują sprzedaż urządzeń do sieciowej kontroli dostępu oraz do zarządzania budynkami i lokalami (kamer, czujników ruchu, zdalnie sterowanych zamków do drzwi), a także sprzętu do monitorowania ryzyka (w tym czujników dymu i wilgotności).
n Łukasz Podlewski, właściciel, Multitech
Przedsiębiorcy zainteresowani monitoringiem oczekują połączenia nadzoru wideo z ochroną perymetryczną, w tym rozpoznawaniem tablic rejestracyjnych w celu automatycznej obsługi szlabanów. Ponadto coraz częściej firmy wykorzystują system monitoringu nie tylko do ochrony, ale też do monitorowania procesów produkcyjnych i logistycznych. Ostatnio widać większe zainteresowanie kamerami, które przekazują kolorowy obraz także w nocy. Natomiast niewielu klientów prywatnych pyta o narzędzia analityczne, za to interesuje ich przede wszystkim obraz wysokiej jakości. Wymagają przy tym łatwego zarządzania monitoringiem i podglądu za pomocą aplikacji mobilnej. Co do klientów domowych, to cenią oni także dostęp do zarządzania i widoku z kamer z dowolnego miejsca, jak też integrację monitoringu z automatyką domową, np. żeby zdalnie otworzyć bramkę kurierowi gdy nie ma ich w domu.
Inwestycjom powinien pomóc też rozwój tzw. inteligentnych miast, gdzie monitoring stanowi nieodłączny element infrastruktury, choć zapotrzebowanie na takie rozwiązania mogą spowalniać obawy o naruszanie prywatności. Dostawcy dostrzegają również wzrost zamówień w sektorze obronności, co ma związek z sytuacją geopolityczną.
– Również przemysł i logistyka to branże, które zdecydowanie najwięcej inwestują w bezpieczeństwo, a do wzrostu popularności takich rozwiązań przyczynia się ich integracja z systemami AI i IoT – podkreśla Tomasz Grecki, IT Sales Manager CEE & Nordic w Dahua Technology.
Sztuczna inteligencja poprawi nadzór
Według rynkowych prognoz wydatki na monitoring wizyjny powinno ciągnąć
w górę zapotrzebowanie przedsiębiorstw na analitykę obrazu, wspomaganą przez sztuczną inteligencję. Już obecnie dostępne są systemy, które wykorzystują mechanizmy sztucznej inteligencji, „zaszyte” w urządzeniu, bez potrzeby wysyłania wrażliwych informacji do centrów danych. Takie rozwiązania mogą być wykorzystane do sprawdzania tablic rejestracyjnych, ale także rozpoznawania twarzy.
sław Biel, Country Sales Manager Poland w Synology.
Monitoring przestaje być jedynie narzędziem do obserwacji.
– Sztuczna inteligencja będzie miała ogromne znaczenie w monitoringu, choć na jej rozwój w tym zakresie będą miały wpływ wymogi prawne oraz kwestia prywatności – podkreśla Przemy-
Wiadomo już, że rozwój technologii jest z zadowoleniem przyjmowany w sektorze przemysłowym, który sporo inwestuje w monitoring, stawiając przy tym nie tylko na obserwację, ale kładąc nacisk na analitykę umożliwiającą optymalizację procesów (np. dzięki dedykowanym analizom obrazu, integracji audio i sygnalizatorów świetlnych oraz połączeniu danych z automatyki).
– Systemy dozoru przestają być jedynie narzędziem do obserwacji. Stają się integralną częścią procesów produkcyjnych i prawidłowego funkcjonowania całych
n …bezpieczeństwa/redundancji danych, n …łatwości udostępniania nagrań (na przykład jako dowód w sprawie), n …kontroli dostępu i prywatności nagrań, n …wykluczenia pewnych obszarów z kamery w nagraniach, n …wyszukiwania i geolokalizacji nagrań, n …edge recordingu, czyli zabezpieczenia nagrań w kamerze w razie problemów z łącznością z rejestratorem, n …analityki wbudowanej w kamerę, co oznacza mniejsze wymagania dotyczące rejestratora, n …możliwości inteligentnej analityki z poziomu rejestratora, tam gdzie kamera nie ma takiej funkcji, n …łatwości zarządzania z jednej lolalizacji
n …łatwości integracji z systemami bezpieczeństwa innych producentów, n …zaawansowanych funkcji powiadomień i reguł akcji tworzonych na podstawie zdarzeń.
Źródło:PrzemysławBiel,Synology Klienci, poza podglądem oraz rejestracją obrazu, oczekują od systemów monitoringu…
zakładów pracy. Duża dynamika zmian sprawia, że systemy muszą być otwarte na integrację i elastyczne w rozbudowie – mówi Bogumił Szymanek, Sales Engineer w Axis Communications.
Firmy z branży są zgodne, że obecnie użytkownicy oczekują od rozwiązań do monitoringu łatwości w użytkowaniu i integracji. Ważna jest także możliwość scentralizowanego zarządzania, co jest istotne zwłaszcza w systemach działających w różnych lokalizacjach.
– Klienci obecnie oczekują systemów prostych w działaniu, z dostępem przez chmurę. W kolejnych latach przewidujemy, że integracja systemu monitoringu z innymi systemami, w tym do automatyki bu-
dynkowej, może być tym kierunkiem, który będzie pożądany przez klientów – uważa Robert Gawroński, SMB Channel Manager w TP-Linku
Obserwuje się także, że klienci wybierają kompleksowe rozwiązania od jednego dostawcy (obejmującego kamery, kontrolery dostępu, urządzenia audio, serwery i oprogramowanie), co spełnia wspomniane oczekiwania w zakresie bezproblemowej integracji i wsparcia.
Cenią sobie również rozwiązania techniczne, które ograniczają koszty.
– Polscy klienci coraz bardziej dostrzegają zalety kamer multisensorowych, które w jednym urządzeniu dostarczają funkcjonalność dwóch, czterech, a nawet pięciu kamer, co przekłada się na mniejsze koszty instalacji i utrzymania – twierdzi Bogumił Szymanek.
Kryterium ceny jest coraz mniej istotne
Jak podkreślają dostawcy, polscy klienci od pewnego czasu mniej skupiają się na cenie, zwracając coraz baczniejszą uwagę na jakość sprzętu oraz oprogramowania i oczekując długoterminowego wsparcia serwisowego.
– W procesie decyzyjnym coraz częściej pod uwagę brane są całkowite koszty utrzymania systemu, szczególnie przy rosnących kosztach energii, przechowywania danych i pracy ludzkiej – podkreśla Bogumił Szymanek.
Użytkownicy chcą przy tym unikać kłopotów z integracją kamer czy wyszukiwaniem konkretnych nagrań, co bywa problematyczne w przypadku tanich rejestratorów.
n Robert Gawroński, SMB Channel Manager, TP-Link
Istotny wpływ na rozwój rynku w kolejnych latach będą miały technologie związane z analityką i sztuczną inteligencją, w tym umożliwiające różnego rodzaju detekcje i podjęcie działań zaprogramowanych przez użytkownika. Wcześniej system monitoringu służył głównie do obserwacji i rejestracji tego, co działo się na terenie czy w budynku. Obecna technologia pozwala na klasyfikację ludzi, pojazdów, zwierząt, a nawet obiektów i wysyłanie alertów w przypadku wykrycia konkretnego zachowania. To zwiększa efektywność całego systemu, ponieważ ogranicza ilość fałszywych alertów i oszczędza czas potrzebny do śledzenia nagrań.
n Przemysław Biel, Country Sales Manager Poland, Synology
Obserwujemy coraz większe zainteresowanie bezpiecznymi i lokalnymi systemami monitoringu dla gmin i miast. W ich przypadku monitoring w chmurze bardzo często nie jest możliwy ze względu na ochronę danych i wizerunku. W oparciu o serwery NAS można natomiast zbudować bezpieczny system monitoringu, włącznie z zaawansowaną analityką, bez konieczności otwierania go na świat. Kolejny rosnący segment rynku to ochrona parkingów miejskich, firmowych oraz w centrach handlowych. W tych przypadkach widzimy większe zainteresowanie specjalizowanymi systemami, które wykorzystują uczenie maszynowe do rozpoznawania obiektów oraz do zliczania i analizy przepływu osób, a także ruchu samochodowego.
n Bogumił Szymanek, inżynier sprzedaży na Polskę, Ukrainę i kraje bałtyckie, Axis Communications Cyberbezpieczeństwo będzie mieć istotny wpływ na rozwój rynku w kolejnych latach. W tym kontekście szyfrowanie na każdym etapie transmisji pozwoli nie tylko zabezpieczyć materiał, ale umożliwi użytkownikowi pełną zgodność z NIS2. Podobnie jest z technologiami chmurowymi, w przypadku których coraz bardziej istotna będzie lokalizacja serwerowni, najlepiej na terytorium UE. Coraz ważniejsze staje się ponadto zastosowanie deep learningu w urządzeniach końcowych – bez obciążania serwera – co pozwoli na uruchamianie prawidłowych alarmów i dostarczanie odpowiednich danych. Nowością, która może przynieść ogromne zmiany jest także analiza audio.
– Większość użytkowników po doświadczeniach z oprogramowaniem niektórych producentów zaczyna szukać alternatywy, gdyż często jest ono nieintuicyjne, rzadko aktualizowane oraz wymaga logowania do wielu systemów, aby znaleźć odpowiednie informacje – wyjaśnia Przemysław Biel. Ponadto klienci oczekują wbudowanych mechanizmów zabezpieczania danych oraz ich replikacji na serwer zapasowy czy do chmury, co minimalizuje ryzyko utraty nagrań w przypadku awarii.
– Rośnie świadomość w zakresie cyberbezpieczeństwa. Klienci oczekują nie tylko niezawodnego i skutecznego rozwiązania do monitoringu, ale również takiego, które spełnia wymagania poufności danych i odporności na cybe-
rataki – twierdzi Tomasz Grecki. Dodaje przy tym, że spory wpływ na wzrost wagi tych aspektów ma dyrektywa NIS 2, która wejdzie w życie w październiku br. po to, by poprawić bezpieczeństwo sieci oraz systemów informatycznych.
Z drugiej strony nie brakuje wyzwań, wśród których eksperci wymieniają ograniczenia dotyczące przechowywania danych i przepustowości – w miarę jak rośnie ilość danych w wyniku stosowania kamer o wysokiej rozdzielczości i zaawansowanej analizy. Tym samym opracowanie wydajnych rozwiązań do przechowywania danych i zwiększanie przepustowości sieci nabierają kluczowego znaczenia. n
Inteligentne miasta bazują na sieci połączonych ze sobą urządzeń, dzięki którym poprawie ulega ogólna jakość życia mieszkańców. Wśród nich są bardzo zaawansowane systemy monitoringu, rejestrujące dziesiątki gigabajtów danych dziennie. Zapis ten wykorzystywany jest nie tylko do prowadzenia bieżącej obserwacji, ale również do późniejszej analizy. Wyzwaniem jest jednak jej efektywność – ręczne przeszukiwanie wielogodzinnych nagrań (np. z nocy), zarejestrowanych przez kilka lub kilkanaście kamer, trwa bardzo długo i potęguje ryzyko, że przykładowo ujęcie sprawcy zdarzenia okaże się niemożliwe. Rozwiązanie tego problemu umożliwiają wyłącznie zaawansowane systemy monitoringu, które do analizy obrazu wykorzystują sztuczną inteligencję. Jednak, aby zagwarantować ich poprawną pracę, konieczne jest zastosowanie nośników danych gotowych do działania pod olbrzymim obciążeniem. Takich, które nie będą przyczyniały się do utraty klatek wideo lub ograniczały wydajności głębokiego uczenia i analizy predykcyjnej. Automatycznie wyklucza to przechowywanie danych na standardowych twardych dyskach, które są dostosowane do pracy w trybie biurowym (5 dni w tygodniu przez 8 godzin) oraz przy relatywnie niewielkim obciążeniu. Niemożliwe jest też efektywne korzystanie z repozytoriów chmurowych do przechowywania nagrań. W takiej sytuacji, gdzie w grę wchodzi monitoring wideo i sztuczna inteligencja, konieczne jest prowadzenie zapisu w rejestratorach wideo zlokalizowanych jak najbliżej kamer. Co więcej, powinny być w nich instalowane specjalnie zaprojektowane do systemów monitoringu dyski, takie jak
Inżynierowie firmy Seagate stworzyli twarde dyski do systemów monitoringu w inteligentnych miastach, które gwarantują nie tylko ciągłość dostępu do danych, ale także efektywność ich przetwarzania.
Seagate SkyHawk oraz SkyHawk AI. Są one dostosowane do dużych obciążeń związanych z odczytem oraz zapisem danych i zostały skonstruowane z myślą o działaniu w środowiskach całodobowych. Zapewniają największe w swojej klasie pojemności – do 8 TB w przypadku dysków SkyHawk i do 24 TB dla modeli SkyHawk AI. Ich wydajność została zoptymalizowana tak, aby na jeden napęd mogło przypadać aż 64 kamery, z których rejestrowany jest obraz.
Wymagania generowane przez systemy monitoringu wideo, jak też stosowane coraz bardziej na przemysłową skalę systemy sztucznej inteligencji, przyczyniają się do rosnącego popytu na pojemność nośników. Według szacunków analityków w 2024 r. na całym świecie wygenerowanych zostanie 30 zettabajtów danych, podczas gdy produkowana co roku pamięć masowa jest zdolna pomieścić tylko 2 zettabajty.
Dlatego Seagate stworzył platformę Mozaic 3+, która łączy najbardziej zaawansowane techniki zapisu w nanoskali oraz przełomowe w skali świata osiągnięcia w zakresie materiałoznawstwa. Wykorzystuje ona unikatową, rozwijaną już od dwóch dekad, technologię HAMR (Heat Assisted Magnetic Recording – wspomagany termicznie zapis magnetyczny), która zapewnia gęstość zapisu na poziomie 3 TB na jednym talerzu.
Jednocześnie zoptymalizowano w ten sposób kwestie dotyczące emisji ciepła, rozmiarów bitów i ich rozmieszczenia. Platforma Mozaic 3+ przekształca bity z danymi, pakując je ciasno obok siebie,
z uwzględnieniem ich stabilności magnetycznej i termicznej, co umożliwia dokładny zapis w ekstremalnych warunkach. Proces zapisu wykorzystuje laser nanofotoniczny oraz antenę kwantową, która w ciągu nanosekund z chirurgiczną precyzją skupia ciepło zmieniając stan nośnika, na którym prowadzony jest zapis. Daje to możliwość przechowywania większej ilości danych na każdym dysku, korzystając jednocześnie z jak zawsze wysokiej wydajności i niezawodności.
Producent zakłada, że dzięki technologii Mozaic 3+ w ciągu najbliższych lat uda się uzyskać możliwość zapisu rzędu 5 TB na talerz dysku, a przez to łączna pojemność napędów przekroczy 50 TB. Zastosowanie nowych mechanizmów umożliwiających zwiększenie gęstości zapisu nie wpłynie w żaden sposób na konieczność dostosowywania własnej infrastruktury do obsługi nowych dysków. Nadal będą znajdowały się one w 3,5-calowej obudowie i zagwarantowana będzie ich kompatybilność z posiadanymi przez klientów systemami.
Kontakt dla partnerów: Marcin Gąsiorowski Product Manager, Also marcin.gasiorowski@also.com
Portfolio serii TP-Link VIGI poszerzyły urządzenia, które umożliwiają monitoring w miejscach, gdzie nie ma możliwości podłączenia sprzętu do sieci elektrycznej czy internetowej, w tym placów budowy, terenów rolniczych czy lasów. Do przydatnych w takiej sytuacji nowości należy kamera VIGI C540–4G, a także dwa panele solarne VIGI SP9030 i SP6020, które sprawdzą się w różnych warunkach pogodowych. Co ważne, są łatwe w instalacji i użytkowaniu, jak też można nimi zdalnie zarządzać – chociażby za pomocą smartfona – a szereg inteligentnych funkcji i oprogramowanie umożliwiają personalizację oraz automatyzację wspomaganą narzędziami AI, zapewniając przy tym bezpieczeństwo transmisji.
VIGI C540–4G to zewnętrzna kamera obrotowa typu PT (pan-tilt) o klasie szczelności IP66, oznaczającej odporność na deszcz i zapylenie. Modem 4G pozwala na połączenie z siecią komórkową po włożeniu do slotu karty nanoSIM. Gdy jest taka możliwość, kamerkę można też podpiąć do sieci kablem ethernetowym poprzez port RJ45. Co istotne, urządzenie rejestruje wyraźny kolorowy obraz w rozdzielczości 4 Mpix, a dzięki zastosowaniu białych
zarządzanie
Nowymi produktami, jak i całym systemem VIGI można zarządzać zdalnie z interfejsu webowego, za pomocą smartfonu lub komputera z bezpłatną aplikacją VIGI, poprzez VIGI Security Manager lub z interfejsu nagrywarki NVR.
Monitoring wizyjny obszarów, gdzie nie ma dostępu do prądu czy internetu, wymaga sprzętu o odpowiednich właściwościach.
diod doświetlających o zasięgu do 30 m jest to możliwe także w nocy. Do standardowego wyposażenia należą ponadto diody podczerwieni.
Użytkownik ma do wyboru różne opcje zapisu. Karta microSD o pojemności do 512 GB umożliwia nagrywanie obrazu lokalnie, w urządzeniu. Można też przesyłać wideo do rejestratora NVR lub na dysk komputera. Kompresja w standardzie kodowania H.265+ pozwala na transmisję bez potrzeby wykorzystania dodatkowej przepustowości, oszczędzając przy tym miejsce na dysku, a więc też koszty monitoringu, jednak bez utraty jakości obrazu. Bezpieczeństwo transmisji zapewnia ochrona hasłem, szyfrowanie HTTPS, filtr adresów IP i autoryzacja Digest.
Obiektyw VIGI C540–4G pozwala widzieć wszystko dookoła w zakresie 360 stopni, błyskawicznie się obracając (z prędkością 44 st./sek.). Funkcja tworzenia tzw. ścieżek patrolu pozwala na monitorowanie obszaru, gdy kamera obraca się między wcześniej wyznaczonymi punktami, co pozwala na obserwację większego terenu z pojedynczej kamery.
Do dyspozycji są spersonalizowane reguły detekcji, po ustawieniu których kamera pozwala wykryć i śledzić wtargnięcie na wyznaczony, chroniony obszar, przekroczenie linii, wejście i wyjście ze strefy, bądź pozostawienie lub zabranie określonych przedmiotów. Wbudowana analityka wykorzystująca AI umożliwia rozpoznawanie ludzi i pojazdów oraz ich automatyczne śledzenie. W połączeniu ze zdefiniowanymi regułami ogranicza to liczbę fałszywych monitów.
Intruza można też odstraszyć z pomocą zdalnie uruchamianego alarmu dźwiękowego i świetlnego, przy czym wbudowany mikrofon i głośnik umożliwiają ponadto dwukierunkową transmisję audio.
W monitoringu trudno dostępnych miejsc pomagają panele solarne VIGI z wbudowaną baterią, które umożliwiają zasilanie kamer z modemem 4G. Model VIGI SP9030 to panel fotowoltaiczny o mocy 90 W z baterią litową 31,2 Ah / 10,8 V. Z kolei VIGI SP6020 cechuje moc 60 W i bateria litowa 20,8 Ah / 10,8 V. Kąt nachylenia panelu można regulować w zakresie 5 – 55 stopni.
Urządzenia mają klasę szczelności IP66 i łatwą w montażu modularną konstrukcję. Wyposażono je w panele słoneczne klasy A o sprawności konwersji 21,6 proc. i żywotności wynoszącej ponad 25 lat. Nie zabrakło inteligentnych funkcji, jak kontroler ładowania MPPT (Maximum Power Point Tracking), który optymalizuje moc panela, obniża straty energii i zwiększa wydajność ładowania o 20 proc. w porównaniu z kontrolerami PWM (Pulse Width Modulation). Z kolei wbudowana bateria pozwala m.in. na ogrzewanie pomocnicze, przez co panel działa nawet w temperaturze -30 st. C. Warto dodać, że poprzez trzy gniazdka zasilające DC można podłączyć, oprócz kamer, także inne urządzenia, np. most bezprzewodowy WiFi, co pozwala na połączenie sieciowe z oddaloną siedzibą firmy.
Nowe modele z serii VIGI mają 3-letnią gwarancję producenta.
Pełne portfolio rozwiązań VMS jest już teraz dostępne od ręki.
Milestone Systems to znany i ceniony na całym świecie producent oprogramowania do systemów monitoringu (VMS). Rozwiązania producenta wyróżnia kilka cech, m.in.: n otwarta i skalowalna platforma, n nacisk na cyberbezpieczeństwo, n łatwa obsługa kamer z wbudowaną analityką różnych producentów, n integracja z zewnętrznymi systemami bezpieczeństwa, kontroli dostępu i PPOŻ,
n możliwość dodawania analityk wideo po stronie serwera.
Te cechy sprawiły, że rozwiązania Milestone znalazły zastosowanie w ponad 500 000 instalacji na całym świecie.
n XProtect Professional+
Oprogramowanie wspierające nieograniczoną ilość urządzeń i serwerów. Dzięki wielowarstwowym mapom i funkcjom pełnego zarządzania alarmami operatorzy mają wgląd w całą instalację.
n XProtect Expert
Opcja dedykowana do monitoringu magazynów, stadionów czy dużych zakładów produkcyjnych z centrum logistycznym. Zapewnia maksymalne zwiększenie wydajności sprzętu. Zawiera centralne zarządzanie, opcjonalną obsługę Video Wall i awaryjne serwery.
n XProtect Corporate
Rozwiązanie przeznaczone jest dla dużych instalacji (miasta, lotniska, infrastruktura krytyczna itd.) wymagających najwyższego poziomu bezpieczeństwa i ciągłego nadzoru.
zwala na montaż nawet do 3 dwuslotowych kart graficznych – np. Nvidia A40, Nvidia RTX A6000.
Działamy na rynku od 1983 roku oferując wyłącznie sprawdzone rozwiązania dla przemysłu (m.in. urządzenia Advantech i Moxa). Jako VAD (Value Added Distributor) oferujemy nie tylko sprzęt, ale też dzielimy się z naszymi partnerami wiedzą. Prowadzimy szkolenia, webinary, a także udzielamy indywidualnych konsultacji.
Zapraszamy do współpracy wszystkich integratorów systemów CCTV, którzy chcą rozszerzyć swoje portfolio o rozwiązania Milestone.
Naszym partnerom gwarantujemy najkorzystniejsze ceny, wsparcie marketingowe oraz ciągłą pomoc w znajdowaniu klientów. Jeśli chcesz dołączyć do programu partnerskiego, zachęcamy do kontaktu.
XProtect – oprogramowanie do zarządzania nagraniami
Rozwiązanie pozwala połączyć wszystkie elementy instalacji do monitoringu w jedną całość i oparte jest na otwartej platformie. To jeden z najlepszych VMS-ów na rynku i obejmuje:
n XProtect Essential+
Rozwiązanie dla mniejszych firm, obsługujące do 8 kamer.
n XProtect Express+
Wersja wspierająca do 48 kamer. To idealne rozwiązanie dla sklepów detalicznych, parkingów czy budynków biurowych.
Elmatic jest marką własną Elmark Automatyka. To komputery przemysłowe do zadań specjalnych, montowane przez nas na terenie Polski.
Do zadań związanych z VMS stworzyliśmy serię rozwiązań Eagle Eye. To serwery CCTV przewidziane do obsługi od 20 (najmniejszy model Elmatic Eagle Eye 20k) do kilkuset kamer przemysłowych. Najbardziej zaawansowany model, Elmatic EagleEYE X AI, daje możliwość wdrożenia rozwiązań sztucznej inteligencji oraz po-
Kupujący serwer z serii Elmatic EagleEYE z oprogramowaniem XProtect oraz roczną licencją Care+, otrzymuje dodatkowe dwa lata Care+ bez żadnych kosztów. Oferta ważna jest do końca roku i obejmuje tylko wersje XProtect Express+ oraz Professional+.
Kontakt dla partnerów: Michał Koda Sales Development Engineer w Elmark Automatyka 887-024-475 michal.koda@elmark.com.pl
„W Polsce spodziewamy się wzrostu w czterech kluczowych obszarach rynku” - mówi Hasan Koçyiğit, VP Sales & Marketing na region CEE i Middle East w ViewSonic.
n Jaki jest jej cel Pańskiej wizyty w Polsce? Czy można spodziewać się rosnącego zaangażowania ViewSonic w naszym kraju? Polska jest dla nas jednym z najważniejszych rynków, dlatego zamierzamy kontynuować inwestycje, które rozpoczęliśmy zaraz po pandemii. Jednym z naszych celów jest budowa kanału partnerskiego, ponieważ nasza sprzedaż jest w 100 procentach pośrednia. Będziemy również powiększać lokalny zespół. Obecnie mamy w Polsce trzy osoby, a pod koniec roku ta liczba powiększy się do pięciu. Tymczasem jeszcze dwa lata temu nie mieliśmy tutaj ani jednego przedstawiciela. n Na jakim segmencie skupiają się lokalne inwestycje ViewSonica? Zwłaszcza w segmencie edukacji. Możliwości rozwoju widzimy szczególnie w szkołach podstawowych i ponadpodstawowych, ze względu na rządowe projekty, gdzie ważną częścią są monitory interaktywne i projektory. Do tego dochodzi oprogramowanie, w tym narzędzia oparte na AI. Powinien przy tym rosnąć popyt w sektorze szkół wyższych. Rozwój rynku edukacji napędza transformacja, gdzie kluczowa jest cyfryzacja, większa interaktywność, personalizacja nauczania, jak też efektywne zarządzanie urządzeniami i oprogramowaniem.
n A jaka jest rola lokalnego zespołu w tym rozwoju?
Pomaga partnerom integrować nasz ekosystem, w tym pod kątem całego rynku edukacji. Dostarczamy tam kompletne portfolio: sprzęt, oprogramowanie, kontent i serwis, zawierając między innymi lokalne partnerstwa z twórcami treści. Ekosystem tworzymy także w innych segmentach. Przykładowo, dostarczamy oprogramowanie do współpracy w firmach. Zresztą, na rynku korporacyjnym również widzimy duże możliwości dalszego wzrostu, ponieważ przedsiębiorstwa nadal będą inwestować w narzędzia do pracy hybrydowej, takie jak panele interaktywne oraz oprogramowanie do spotkań wideo i współpracy.
n Czy rozbudowa kanału partnerskiego dotyczy też dystrybutorów?
Mamy dwóch dystrybutorów: Incom Group i Vidis. Obecnie taka ich liczba w zupełności
wystarczy. Z kolei specjalistów AV, VAR-ów i integratorów systemów, a także firm skoncentrowanych na edukacji jest blisko 20. Jeśli doliczymy resellerów i retailerów, to nasz kanał sprzedaży liczy około 30 partnerów. I tę właśnie liczbę zamierzamy zwiększyć. Celem jest pokrycie możliwie dużego zakresu rynku, więc mogą z nami współpracować partnerzy o różnych specjalizacjach. Z myślą o nich planujemy wdrożyć w Polsce dedykowane programy partnerskie. Naszym zdaniem pozyskiwanie partnerów wyspecjalizowanych wertykalnie, a także programy demo i doradztwo są krytyczne, dlatego właśnie w nie inwestujemy.
n ViewSonic ma w portfolio monitory i projektory. Co cieszy się większą popularnością?
Przedsiębiorstwa częściej potrzebują wyświetlaczy niż projektorów. Monitory interaktywne odnotowują wzrost w minionych dwóch latach, a nasz udział w rynku systematycznie się zwiększa. Obecnie inwestujemy w monitory biurkowe i projektory konsumenckie. Dopiero zaczynamy rozwijać się na tych rynkach. Warto dodać, że konsumenci to także monitory dla graczy, a to jest jeden z najważniejszych obszarów naszych inwestycji także w Polsce, która należy do największych rynków gamingowych w Europie. Dostrzegamy także duże możliwości wzrostu sprzedaży wyświetlaczy przeznaczonych dla profesjonalistów, na przykład grafików, które cechują najwyższej jakości kolory. To rynek, który będzie się rozwijał się i w który inwestujemy. Spodziewamy się więc wzrostu w Polsce w czterech istotnych rozwojowych sektorach: w edukacji, w segmencie korporacyjnym, gamingowym i profesjonalnym.
Przedsiębiorstwa częściej potrzebują wyświetlaczy niż projektorów.
n Jaką pozycję ViewSonic chce osiągnąć w Polsce?
Obecnie na rynku wyświetlaczy interaktywnych jesteśmy marką numer 1 na świecie, wyłączając Chiny. W Polsce zamierzamy być liderem w ciągu pięciu lat – przy czym obecnie znajdujemy się na piątym miejscu. Ponadto naszym celem jest pozycja lidera wśród dostawców rozwiązań dla edukacji.
Odpowiednio dobrana cyfrowa technologia pozwala szkołom wykraczać poza tradycyjne granice nauczania, a uczniom nabywać umiejętności, które będą im niezbędne w przyszłości.
n Tomasz Janoś
Wostatnich latach – dzięki technologiom IT – placówki edukacyjne mogą wprowadzać nowoczesne metody nauczania, w tym nauczanie hybrydowe. Po okresie lockdownów cyfryzacja szkół przyspieszyła i podejście, które łączy tradycyjne nauczanie twarzą w twarz z przekazem online lub elementami cyfrowymi, stało się czymś naturalnym (choć wielu psychologów ubolewa, że nadużywanie komunikacji zdalnej jest nienaturalne i, w gruncie rzeczy, dość szkodliwe dla rozwoju młodych ludzi).
Ilość danych
rośnie w niesamowitym tempie, ale budżety na ich przechowywanie już nie.
Jak w liczbach wygląda cyfryzacja polskiego sektora edukacji? W opublikowanym w marcu tego roku raporcie Cyfrowa Szkoła 4.0, przygotowanym przez Związek Cyfrowa Polska, czytamy, że ankietowani wystawili wysoką ocenę cyfryzacji szkół – aż 7,6 w dziesięciostopniowej skali. Pomimo tego, bardziej szczegółowe wyniki ankiety pokazują, że wcale nie jest tak wspaniale. Badani nauczyciele, dyrektorzy i wicedyrektorzy placówek, którzy ocenili stopnień cyfryzacji w przedziale między 8 a 10 punktów, wskazywali na zadowalający poziom wyposażenia (38 proc.) i internetu (26 proc.). Ci zaś, którzy wystawili ocenę między 5 a 7 punktów, zwracali uwagę na przestarzały sprzęt (24 proc.), problemy z dostępem do komputerów (17 proc.) i do sieci (16 proc.).
Jeśli chodzi o wykorzystywany sprzęt i rozwiązania, to z raportu Cyfrowa Szkoła 4.0 wynika, że prawie wszyscy nauczyciele wykorzystują interaktywne tablice i projektory (98 proc.), jak też platformy e-learningowe (90 proc.). Wielu używa platform służących do udostępniania plików, w tym Google Drive i Dropbox (68 proc.), jak również narzędzi do współpracy grupowej, jak Google Docs czy Microsoft 365 (62 proc.). Z platform do oceny uczniów online korzysta połowa pedagogów.
Powszechne wykorzystanie narzędzi cyfrowych, w połączeniu ze skargami na przestarzały sprzęt, powinno zwrócić uwagę decydentów na kwestię możliwie łatwej modernizacji infrastruktury.
– Osoby odpowiedzialne za zakup sprzętu komputerowego w placówkach edukacyjnych powinny zwrócić uwagę nie tylko na okres gwarancji, ale także możliwości modernizacji „cyfrowej floty”. Globalni producenci niechętnie podchodzą do umożliwienia użytkownikom upgrade’ów swoich stacji roboczych, co automatycznie zmusza placówki do kolejnych wydatków
– podkreśla Piotr Zięba, Product Manager w Action Business Center Enterprise. Z kolei krajowi producenci komputerów dla edukacji są zdania, że warto zapewnić szkołom związaną z tym swobodę, ograniczając tym samym koszty utrzymania infrastruktury informatycznej, a także
zmniejszając negatywne skutki jej wpływu na środowisko.
– Komisje przetargowe powinny zwrócić uwagę na to, czy modernizacja jednostki poprzez wymianę dysku czy pamięci RAM nie spowoduje utraty gwarancji na całą jednostkę, a przy okazji pozwoli dostosowywać flotę do umiejętności użytkowników. Coraz częściej ten element oferty jest kluczowy przy podejmowaniu decyzji o zakupie – mówi Piotr Zięba.
Powszechnie wykorzystywane obecnie tablice interaktywne nie są już urządzeniami skomplikowanymi, działającymi w oparciu o nieporęczny sprzęt, trudne do zrozumienia oprogramowanie oraz natywne aplikacje. Od tamtych czasów tablice interaktywne znacznie się rozwinęły, stając się rozwiązaniami zaawansowanymi, ale łatwymi w użyciu. Najlepsze z dostępnych dziś na rynku tablic są wyposażone w rozbudowane oprogramowanie, które oferuje wszystkie narzędzia, jakich nauczyciele potrzebują, aby prowadzić lekcje.
W placówkach edukacyjnych wykorzystywane są także monitory interaktywne, oferujące ekrany dotykowe, łączność z internetem i integrację z oprogramowaniem edukacyjnym. Sprzęt ten wspiera różnorodne style uczenia się, ułatwiając nauczycielom dostosowanie nauczania do indywidualnych potrzeb uczniów. W porównaniu z tablicami interaktywnymi czy projektorami, są one droższe, ale na dłuższą metę, dzięki swojej trwałości i niezawodności, przewyższają je niskimi kosztami utrzymania.
– Placówki edukacyjne przy wyborze monitora interaktywnego zwracają uwagę na wielkość przekątnej ekranu. Ta najbardziej popularna i najczęściej wybierana, czyli 75 cali, gwarantuje doskonałą widoczność dla
wszystkich uczniów, niezależnie od miejsca w klasie – twierdzi Aneta Żygadło, Country Manager Optomy w Polsce.
Od dawna w sektorze edukacji do wielu zastosowań wykorzystywane są projektory. W szkołach podstawowych wyświetlane obrazy i filmy mogą ożywiać przekazywaną treść i wspierać rozwój umiejętności językowych. W szkołach średnich i na uniwersytetach umożliwiają szczegółową analizę tekstów, danych naukowych czy dokumentów historycznych. W przypadku kursów online projektory stanowią pomost między cyfrowymi a fizycznymi przestrzeniami edukacyjnymi, wspierając webinaria oraz wirtualne klasy.
– Przy wyborze tego sprzętu placówki edukacyjne kierują się budżetem oraz przeznaczeniem i typem sali lekcyjnej. Duże sale wymagają większego i jasnego obrazu jaki zapewnią projektory laserowe o jasności od 4000–5000 lumenów, w mniejszych salach można wykorzystać do wyświetlenia obrazu albo przenośnie projektory, albo monitory interaktywne – tłumaczy Aneta Żygadło.
Szkoły mogą czerpać korzyści z sieci komputerowych w podobny sposób, jak robią to inne instytucje i firmy. Potencjalne korzyści obejmują: szybszy dostęp do dużej ilości informacji, ulepszoną komunikację i współpracę, wygodniejsze udostępnianie aplikacji. Teoretycznie, uczniowie mający styczność z siecią w środowisku szkolnym będą też lepiej przygotowani do przeszłego zawodu. Natomiast nauczycielom sieci mogą pomóc w efektywniejszym tworzeniu planów lekcji online oraz w wypełnianiu formularzy – z dowolnej lokalizacji, z klasy, pokoju nauczycielskiego jak również z domu.
– W przypadku infrastruktury LAN placówki edukacyjne wciąż najczęściej wybierają rozwiązania w standardzie Gigabit Ethernet, ewentualnie wykorzystując również połączenia uplink SFP+ zapewniające przepustowość między centrami dystrybucji sieci o prędkości 10 Gb/s. Wraz z popularyzacją standardu WiFi 6 oraz znacznym obniżeniem cen sprzętu w tym standardzie zauważyliśmy, że zdecydowana większość nowych projektów w sektorze edukacyjnym jest realizowana właśnie w WiFi 6 – mówi Robert Gawroński, SMB Channel Manager w TP-Link.
Kolejną kwestią jest bezpieczeństwo sieci. O ile w niektórych miejscach można jeszcze pewnie znaleźć proste, niezarządzalne przełączniki, o tyle w nowych wdrożeniach wykorzystywane są już przełączniki zarządzalne, które umożliwiają zwiększenie bezpieczeństwa sieci, chociażby przez użycie jej segmentacji z wykorzystaniem 802.1Q VLAN. Co oczywiste, sieci szkolne nie są za darmo – do początkowych kosztów związanych z zakupem sprzętu, oprogramowania i czasu potrzebnego na konfigurację, dokładają się obciążenia związane z bieżącym administrowaniem. Dlatego ważne jest, by można je było jakoś ograniczyć.
– Przy sieci złożonej z wielu przełączników i punktów dostępowych, centralne zarządzanie wszystkimi elementami jest kwestią, która nie tylko pozwala zaoszczędzić czas poświęcony na konfigurację, zmiany czy zarządzanie siecią, ale także ogranicza możliwość popełnienia błędu, jak to miało miejsce w przypadku tradycyjnych sieci, gdzie każde urządzenie trzeba było konfigurować pojedynczo. Warto wspomnieć, że placówki edukacyjne, z uwagi na budżet, najczęściej wybierają rozwiązania, które nie wymagają miesięcznych opłat w postaci licencji czy subskrypcji – twierdzi Robert Gawroński.
Ilość danych rośnie w niesamowitym tempie, ale budżety na ich przechowywanie już nie. W dodatku instytucje edukacyjne muszą udostępnić dane pracownikom, studentom i uczniom oraz rodzicom, co wiąże się z koniecznością znalezienia sposobu na zarządzanie i bezpieczeństwo infrastruktury. Mimo ograniczonych finansów i zasobów kadrowych, trzeba zapewnić szybki i nieprzerwany dostęp do aplikacji i danych.
Sposobem na to może być hostowanie wszystkich swoich danych i oprogramowanie w chmurze, przy użyciu własnej lub współdzielonej chmury prywatnej albo usług dostawcy chmury publicznej. W ten sposób zapewnia się dostępność oprogramowania i platform e-learningowych, dzięki czemu uczniowie mogą bez problemu uzyskiwać dostęp do swoich portali.
Każda instytucja edukacyjna powinna przyjąć mechanizmy przechowywania danych w chmurze jako element transformacji cyfrowej. Przechowywanie danych w chmu-
rze umożliwia bezproblemowy dostęp do spersonalizowanych zasobów edukacyjnych z dowolnego miejsca, co sprzyja elastyczności nauczania i współpracy. Ułatwia integrację treści multimedialnych, interaktywnych symulacji oraz narzędzi do współpracy w czasie rzeczywistym na platformach edukacyjnych.
Dzięki chmurze nauczyciele mogą łatwo udostępniać nowe zasoby, zapewniając aktualność treści. Skalowalność przechowywania danych w chmurze umożliwia gromadzenie obszernych bibliotek treści, które mogą zaspokoić różnorodne style nauczania. Zaawansowane funkcje zabezpieczeń chronią przy tym wrażliwe dane i prywatność.
Backup: last but not least
Piotr Zięba, Product Manager Action Business Center Enterprise, Action Z naszych analiz wynika, że zapotrzebowanie placówek edukacyjnych na sprzęt komputerowy wciąż utrzymuje się na wysokim poziomie. To efekt zmiany modelu ich pracy i realizowanych przez nie projektów edukacyjnych z wykorzystaniem nowych technologii. Osią tych zmian jest obecnie realizacja „kamienia milowego” przewidzianego w Krajowym Planie Odbudowy i Zwiększania Odporności, czyli dostosowanie wyposażenia wszystkich szkół w infrastrukturę umożliwiającą wykorzystanie technologii cyfrowych w nauce na równym poziomie w każdej szkole. Producenci będą w tym kontekście składać oferty nie tylko na komputery przenośne, ale i stacje robocze.
n Aneta Żygadło, Country Manager, Optoma
Interaktywne monitory, wyposażone w system operacyjny Android 13, umożliwiają korzystanie z najnowszych aplikacji edukacyjnych. Mogą oferować rozbudowane narzędzie białej tablicy z dostępem do zasobów YouTube i Google, pozwalając na szybkie i łatwe wprowadzenie multimedialnych materiałów do lekcji, co znacząco zwiększa zaangażowanie uczniów. Jeśli dodatkowo kupujący otrzymuje licencję na wartościowe programy edukacyjne w cenie oraz pięcioletnią gwarancję, to monitor interaktywny staje się ogromnym wsparciem dla nauczycieli i administracji, oferując im gotowe narzędzia do prowadzenia ciekawych i efektywnych zajęć, a także długoterminowe bezpieczeństwo inwestycji.
n Magdalena O’Dwyer, Team Manager Marketing – Eastern Europe, Synology
Placówki edukacyjne powinny brać pod uwagę te rozwiązania, które zapewnią im maksymalną ochronę i kontrolę danych, a także oferują łatwą integrację oraz intuicyjne użytkowanie. Rozwiązania łączące prostotę usług chmury publicznej z bezpieczeństwem i dyskrecją prywatnego środowiska IT to idealny wybór dla instytucji edukacyjnych o różnych potrzebach. Dzięki nim placówki mogą skupić się na swoim podstawowym zadaniu, czyli edukacji, mając pewność, że ich dane są chronione i dostępne. Większość placówek edukacyjnych, które zdecydowały się na nasze rozwiązania, to uczelnie wyższe. Wybierają one urządzenia rack i zaawansowane rozwiązania flash. Natomiast szkoły podstawowe preferują modele mniejsze.
Placówki edukacyjne muszą zadbać nie tylko o backup swoich danych w chmurze prywatnej bądź publicznej, ale także o rezerwę zasilania na wypadek jego awarii. Ponieważ awarie takie zakłócają funkcjonowanie szkół, hamując przepływ nauczania, systemy zasilania gwarantowanego odgrywają bardzo istotną rolę w tych instytucjach. Dzięki zasilaniu z baterii w czasie przerwy w dostawie prądu mogą one minimalizować jej skutki. UPS-y chronią cenny sprzęt elektroniczny przed przepięciami i innymi anomaliami związanymi z zasilaniem. – W momencie zaniku prądu UPS-y zasilają również oświetlenie awaryjne czy systemy
n Robert Gawroński, SMB Channel Manager, TP-Link
Mijają już czasy, kiedy liczyły się głównie ceny poszczególnych rozwiązań i w placówkach edukacyjnych instalowane były zwykle urządzenia konsumenckie, nieprzystosowane do pracy w środowiskach obciążonych wieloma użytkownikami oraz niezapewniające odpowiedniego poziomu bezpieczeństwa. Obecnie, co nas bardzo cieszy, zwiększyła się zarówno wiedza, jak i świadomość zagrożeń płynących ze stosowania niedopasowanej infrastruktury sieciowej. Sieć LAN/WLAN mimo, że nie jest widoczna, stanowi kręgosłup dla całej infrastruktury multimedialnej czy systemów monitoringu, umożliwiając sprawną komunikację między komputerami czy urządzeniami mobilnymi wykorzystywanymi przez kadrę nauczycielską i dyrekcję.
alarmowe, co zwiększa bezpieczeństwo na terenie szkoły lub uniwersytetu w sytuacji blackoutu – mówi Krzysztof Krawczyk, Senior Application Engineer w Vertivie.
W szczególności uczelnie wyższe powinny mieć gwarantowane zasilanie, gdyż w wielu z nich przeprowadzane są różne
badania naukowe wymagające ciągłej pracy urządzeń w serwerowni (High Performance Computing). Kluczowe jest, aby był to efektywny energetycznie UPS z wystarczającą mocą i czasem podtrzymania, aby przejść bezpiecznie na pracę z agregatu prądotwórczego. n
„Obecnie 90 procent projektorów sprzedawanych na rynku edukacyjnym to urządzenia z laserowym źródłem światła” – mówi Andrzej Bieniek, Business Account Manager w Epsonie.
n Dzięki programom rządowym, które przez lata wspierały doposażenie placówek edukacyjnych w systemy audiowizualne, szkoły podstawowe i średnie mogą bez przeszkód korzystać z projektorów w klasach. To jednak nie jedyne ich zastosowanie… Obecnie szkoły coraz częściej dostrzegają możliwość wykorzystywania przestrzeni takich jak aule czy sale gimnastyczne do organizowania spotkań i wydarzeń ubogaconych multimediami. W takich przypadkach obraz z projektora stanowi kapitalne rozwiązanie. Na przykład przy tworzeniu scenografii do przedstawień szkolnych. Wtedy siły osób zaangażowanych w przedstawienie oraz środki finansowe przeznaczone na zakup dekoracji mogą być wykorzystane na inne cele. Biorąc to pod uwagę, dyrekcja szkoły w Józefosławiu zakupiła projektor Epson EB-PU2213 B o dużej jasności na poziomie 13 000 lumenów, który będzie wykorzystywany podczas różnego typu wydarzeń szkolnych. Ważne jest, że z jednego urządzenia możemy uzyskać w szybki, łatwy sposób obraz o szerokości 3, 4, 5 czy nawet 6 metrów, co daje pełną elastyczność i możliwość wykorzystania w różnych kontekstach. n Na jakie rozwiązania do codziennych zastosowań szkoły podstawowe i średnie patrzą najbardziej przychylnym okiem?
Obecnie nie tylko szkoły, ale i przedszkola kładą nacisk na zakup projektorów ultra krótkoogniskowych, które umożliwiają skalowanie obrazu od 60 do 120, a nawet do ponad 140 cali, co daje obraz o szerokości ponad 3 metrów. Skalowanie w łatwy sposób pozwala na dostosowanie wielkości obrazu do wielkości klasy i liczby uczniów w danym momencie. Najważniejszym atutem tej klasy urządzeń jest montaż w bardzo bliskiej odległości od ekranu, dzięki czemu, prowadzący nie jest oślepiany, obraz nie jest przesłaniany cieniami, a dodatkowo możliwe jest bezprzewodowe przesyłanie treści z komputera lub innych urządzeń. Istotna jest też waga, która wynosi 6 kilogramów, a nie 40–60 kilogramów, jak to jest w przypadku monitorów, których przekątna z kolei to jedynie 75 cali. Warto też pamiętać o braku refleksów świetlnych i emisji szkodliwego dla oczu niebieskiego światła.
n Jak dużo jest takich wdrożeń w szkołach podstawowych?
Mnóstwo, przy czym aż 70 procent projektorów UST dostarczonych w ramach programu Aktywna Tablica w latach 2017–2022 to modele Epsona. Dzięki zaangażowaniu naszego wieloletniego partnera, do przedszkoli, szkół podstawowych i średnich w województwie pomorskim dostarczono setki projektorów interaktywnych. Przykładem model EB-760Wi, który w klasie zastąpi wszystko: tablicę, monitor, flipchart, a także standardowy projektor, ponieważ z jednej strony może po prostu wyświetlać obraz, na przykład prezentację, którą przygotował nauczyciel, ale z drugiej pozwala na obraz nanosić notatki, zoomować strony internetowe i zakreślać wybrane obszary. Jeśli dodamy do tego wizualizer, czyli wysokiej jakości kamerę – która posłuży do pokazywania w wielkiej skali eksponatów lub obrazu z mikroskopu – i drukarkę, dzięki której przeniesiemy na papier rzutowany obraz z naniesionymi adnotacjami, otrzymujemy kompletne zaplecze nauczania na potrzeby różnych przedmiotów. n Epson cieszy się też popularnością na uczelniach wyższych. Czym z kolei zainteresują się klienci z tych placówek?
Projektory Epson pracują od lat na wielu uczelniach w Polsce, a ostatnie najciekawsze wdrożenia to dostawy projektorów dla Politechniki Wrocławskiej, Uniwersytetu Gdańskiego, Akademii Łomżyńskiej, Akademii Górniczo-Hutniczej, Uniwersytetu Jagiellońskiego, Warmińsko-Mazurskiego i Poznańskiego. Do tych klientów właściwie w stu procentach kierowane są projektory z laserowym źródłem światła, o jasnościach od 5 do 20 tysięcy lumenów.
n Dlaczego to jest tak istotne?
Projektory Epson pracują od lat na
wielu uczelniach w Polsce.
W większości sale ćwiczeniowe to jasne pomieszczenia i konieczne jest tam zastosowanie projektora niezawodnego, o wysokiej jasności, urządzenia, które da skalowalny obraz. Uniwersytet Artystyczny w Poznaniu to doskonały przykład zastosowania projektorów superultrakrótkoogniskowych w miejsce monitorów. Uczelnia wybrała z naszej oferty projektor UST EB-810E, który, stojąc przy samej ścianie, daje obraz o przekątnej 160
cali, a więc szerokości 3,5 metra. Uczelnia zdecydowała się na ten zakup, bo decydenci doszli do wniosku, że tak dużej przekątnej, za taką kwotę, nie są w stanie uzyskać z żadnego innego urządzenia.
n W kontekście uczelnianych auli często od jakiegoś czasu słyszy się jednak o ścianach LED-owych. Jakie argumenty ma w ręku integrator, którzy przychodzi do takiego klienta z projektorem?
Podkreślę jeszcze raz: projektor w edukacji oznacza duży czytelny obraz, który na zajęciach angażuje całą grupę, a nie część osób siedzących najbliżej ekranu. W przypadku większych audytoriów zachodzi absolutna konieczność zastosowania dużego obrazu. Tam odbywają się nie tylko wykłady, ale również imprezy, które mają bardzo wysoką rangę, więc cała otoczka technologiczna też musi tę rangę podkreślać, działając bez zarzutu. Żadne inne urządzenie nie jest w stanie zapewnić takiego obrazu jak projektor. Można wprawdzie zastosować ściany LED-owe, ale, w przeciwieństwie do nich, projektor jest pojedynczym urządzeniem, bardzo łatwym w instalacji, demontażu czy opiece serwisowej, jak też intuicyjnym, co, dla integratorów odpowiedzialnych za wdrożenie, jest przecież bardzo ważne. Oznacza chociażby mniejsze ryzyko związane z wdrożeniem i oszczędność czasu. Zakup ściany LED o szerokości 6 metrów to olbrzymie koszty w porównaniu do ceny projektora 4K. Podobnie jest z wynajmem takiego rozwiązania na konkretne wydarzenie, gdzie dochodzą wydatki związane z montażem, obsługą techniczną i demontażem.
n Jaki zatem projektor byłby optymalny na potrzeby uczelni wyższej?
W przypadku uczelni wyższych, co nie wyklucza też szkół, w grę wchodzą projektory instalacyjne – jeśli chodzi o instalację w aulach czy salach gimnastycznych. To maszyny o wysokiej jasności – od 6 do nawet 30 tysięcy lumenów – z wymiennymi obiektywami, bo one dają pełną elastyczność. Na przykład przy zastosowaniu specjalnego obiektywu możemy ustawić projektor w odległości 2 metrów od ekranu i uzyskać przekątną 200 cali, ale równie dobrze to samo urządzenie, choć z innym obiektywem, możemy odsunąć na 30 metrów i z końca sali wyświetlać obraz o podobnej lub większej przekątnej. Warto też wspomnieć o kwestiach bezpieczeństwa dla użytkownika czy resellera. Mam na myśli kwestie gwarancyjne, bo większość naszych urządzeń jest objęta albo 3-letnią gwarancją, z możliwością rozszerzenia do 5 lat, zaś część urządzeń, takich stricte do edukacji, jak modele ultrakrótkoogniskowe, objęta jest domyślnie 5 latami ochrony. Zapewnia to poczucie bezpieczeństwa zarówno użytkownikowi końcowemu, jak i resellerowi.
I na koniec niezwykle ważna kwestia żywotności. Obecnie 90 proc. projektorów sprzedawanych do sektora edukacji to urządzenia z laserowym źródłem światła, które mają żywotność wynoszącą 20 tysięcy godzin przy działaniu w trybie pełnej jasności i mocy. Jeżeli szkoła będzie wykorzystywała taki projektor po 8 godzin przez 5 dni w tygodniu, a tych tygodni roboczych w szkole jest około 40, to będzie to mogła robić przez 12 lat bez ingerowania w sprzęt.
Interaktywny ultrakrótki projektor do sal lekcyjnych
n Interaktywność: umożliwia obsługę dotykową i rysowanie bezpośrednio na ekranie.
n Ultrakrótka odległość projekcji: eliminuje problem cieni i odblasków.
n Wysoka jasność: 4100 lumenów, wyraźny obraz nawet w jasnych pomieszczeniach.
n Wsparcie dla różnych źródeł sygnału: złącza HDMI.
Najtańszy laserowy projektor Full HD do sal i sal ćwiczeniowych
n Ekonomiczność: idealny do budżetowych zastosowań edukacyjnych.
n Trwałość i niski koszt utrzymania: laserowe źródło światła zapewnia długą żywotność i niskie koszty eksploatacji.
n Wysoka jasność: 4600 lumenów gwarantuje wyraźne obrazy w różnych warunkach oświetleniowych.
n Wszechstronność zastosowań: sprawdza się w klasach i salach wykładowych.
Laserowy projektor do jasnych pomieszczeń
n Bardzo wysoka jasność: 6200 lumenów umożliwia projekcję w jasnych pomieszczeniach.
n Trwałe źródło światła: laserowa technologia zapewnia długą żywotność, a także minimalne wymagania konserwacyjne.
n Elastyczność instalacji: szeroki zakres regulacji obiektywu i wsparcie dla zdalnego zarządzania.
n Wyjątkowa jakość obrazu: precyzyjne odwzorowanie kolorów w technologii 3LCD.
Projektor 4K do dużych sal i auli
n Rozdzielczość 4K: ultra wysokiej jakości obraz idealny do szczegółowych prezentacji w ogromnej skali.
n Wymienne obiektywy: możliwość dostosowania tego samego projektora do różnych rozmiarów i układów pomieszczeń.
n Ekonomiczność eksploatacji dzięki wymiennym obiektywom i długiej żywotności laserowego źródła światła.
n Zaawansowane funkcje związane z zarządzaniem.
Pomimo ciągłego wzrostu
ilości danych, zmiany w segmencie pamięci masowych dla biznesu postępują w dość wolnym tempie.
n Wojciech Urbanek
Opinie na temat rozwoju rynku pamięci masowych są zróżnicowane. Jan Jiskra, Storage Sales Manager w Lenovo ISG, uważa, że wraz z transformacją zmienia się wszystko, w tym także pamięci masowe. Inaczej widzi to Dave Pearson, analityk IDC, którego zdaniem ostra konkurencja w segmencie pamięci masowych nie prowadzi do powstawania nowych, przełomowych rozwiązań. Innowacje w sprzęcie uległy stagnacji, choć dostawcy wiedzą, że mogą zrobić więcej z macierzami, które już wprowadzili na rynek. Kto jest bliżej prawdy?
Jak wynika z analiz IDC w 2018 r. globalna ilość danych wynosiła 33 zettabajtów danych. Natomiast prognozy mówią o 175 zettabajtach danych na koniec przyszłego roku, z czego 90 zettabajtów ma pochodzić z samych urządzeń IoT. Tymczasem nadal wiele firm oraz instytucji wykorzystuje systemy sprzed sześciu lat lub nawet starsze, kiedy ilość danych była pięć razy mniejsza niż obecnie. Nic dziwnego, że specjaliści apelują, aby nie tylko inwestować w nowe technologie, ale zacząć od generalnych porządków w centrach danych. Na serwerach oraz macierzach dyskowych przechowywanych jest bowiem wiele bezwartościowych zasobów. Matt Watts, Chief Technology Evangelist w NetAppie, szacuje, że nikt nie korzysta z około 40 proc. danych przechowywanych przez brytyjskie firmy oraz instytucje, a w niektórych przypadkach ten współczynnik zbliża się nawet do 80 proc.
Matt Watts szacuje, że pamięci masowe odpowiadają za około 20 proc. zużycia energii w centrach danych, co będzie się szybko zmieniać. Wraz z boomem na sztuczną inteligencję firmy inwestują w procesory graficzne, aby uzyskać przewagę w dziedzinie szkolenia oraz wnioskowania modeli SI. Pamięć masowa znajduje się gdzieś na drugim planie, niemniej systemy trzeba „nakarmić” ogromną ilością danych. Szczególne wymagania mają w tym zakresie pojazdy autonomiczne oraz duże modele językowe, które potrzebują petabajtów danych, a rekordzistą (200 petabajtów) jest w tym przypadku Tesla. Przy czym specjaliści z Averbitu zwracają uwagę, że większość klientów do projektów związanych ze sztuczną inteligencją sięga po mniejsze zasoby, zazwyczaj nie przekraczające 100 TB. Tom Wilson, Product Manager w Dell Technologies, dokonuje ciekawej analogii – o ile dane są paliwem, a procesory spełniają rolę silników, to pamięć masowa jest zbiornikiem na paliwo.
stu popytu na systemy przeznaczone do pracy z wielkimi zbiorami danych. Boom na SI w Polsce jest bardziej widoczny w mediach czy podczas rozmów o nowych technologiach, ale nie przekłada się na konkretne zamówienia.
Rozpoczęły się dyskusje na temat 5-bitowych pamięci PLC.
– Owszem, pojawiają się zapytania ze specyficznych obszarów rynku, jak e-commerce, związanych z procesami logistycznymi czy z GameDev, a więc tam, gdzie jest faktyczny popyt na dużą moc obliczeniową. Im więcej firm znajdzie sposób na realne wykorzystanie sztucznej inteligencji do wsparcia swojego biznesu, tym więcej będziemy mieli zapytań dotyczących zwiększonej mocy obliczeniowej. Pamiętajmy, że wiele z tych usług będzie jednak dostępnych w formie rozwiązań SaaS – mówi Mikołaj Wiśniak, wiceprezes IT Solution Factor.
Co istotne, nawet najwięksi gracze w obszarze SI, tacy jak OpenAI, Google, Microsoft czy Antrophic wdrażają mniejsze i generatywne modele sztucznej inteligencji, wymagające mniejszej ilości danych.
Rodzimi integratorzy, przynajmniej jak na razie, nie odnotowali znacznego wzro-
– Nie potrzebujesz modelu AI, który zna całą obsadę „Ojca chrzestnego”, zna każdy film lub program, który kiedykolwiek został
nakręcony – komentuje Robert Blumofe, dyrektor ds. technologii w Akamai.
Największym rozczarowaniem dla dostawców macierzy dyskowych w pierwszym półroczu bieżącego roku był spadek zamówień ze strony sektora publicznego, co dotyczy systemów SAN oraz NAS. Niemniej Łukasz Milic, Business Development Representative w QNAP-ie, tłumaczy taki stan rzeczy przygotowaniami instytucji publicznych do wprowadzenia dyrektywy NIS2. Jednocześnie ma nadzieję na poprawę sytuacji w drugiej połowie roku. O ile instytucje państwowe zawiodły, o tyle resellerzy mogli liczyć popyt ze strony średnich i dużych firm. Poziom sprzedaży w pierwszych miesiącach roku nie odbiegał zasadniczo od analogicznego okresu roku ubiegłego, choć część resellerów dostrzega oznaki spowolnienia.
– Sprzedaż macierzy dyskowych dla średnich i dużych firm była niższa od tej w ubiegłym roku. Pomimo tego, że przedsiębiorcy mają duże potrzeby w tym zakresie, sytuacja gospodarcza w Polsce, podobnie jak w całej Europie, nie sprzyja inwestycjom
– mówi Tomasz Spyra, CEO Rafcomu.
W grupie dużych przedsiębiorstw nieustającą popularnością cieszą się macierze SAN obsługujące bloki. Dzieje się tak nie tylko ze względu na dużą niezawodność tych rozwiązań, ale także mnogość zastosowań oraz długoletnią obecność na rynku (protokół Fibre Channel liczy sobie ponad trzy dekady). Macierze blokowe zazwyczaj obsługują systemy bazodanowe, aplikacje krytyczne, procesy analityczne czy platformy wirtualizacyjne. Z kolei urządzenia NAS najczęściej pełnią rolę repozytoriów dla backupu, serwerów plików, a także coraz częściej służą do tworzenia chmury prywatnej. Swój szlak na rodzimym rynku przecierają też systemy NAS scale out, które są przeznaczone do przechowywania dużej ilości plików rozproszonych w różnych lokalizacjach oraz środowiskach.
Łukasz Milic, Business Development Representative, QNAP Nie zauważyliśmy, żeby boom na sztuczną inteligencję przyczynił się do wzrostu sprzedaży urządzeń o większych pojemnościach i silniejszych procesorach. Jak na razie mamy do czynienia jedynie z modnym hasłem, które nie przekłada się na faktyczne zainteresowanie ze strony rodzimych firm. Rozwiązania, które korzystają ze sztucznej inteligencji, pojawią się w formie dodatkowych rozszerzeń czy modułów w już używanym oprogramowaniu. Nie będą to zaś raczej osobne mechanizmy. Oczywiście istnieją firmy i instytucje, które już teraz korzystają z mechanizmów sztucznej inteligencji w prowadzonych badaniach i regularnie dokupują NAS-y pod wymaganą przestrzeń, jednak stanowią niewielki odsetek w światowej gospodarce.
Piotr Drąg, Unstructured Data
– Tego rodzaju macierze oferują elastyczność w zarządzaniu zarówno danymi blokowymi, jak i plikowymi. Firmy doceniają możliwość skonsolidowania różnych typów danych w jednym systemie, co upraszcza zarządzanie i obniża koszty operacyjne – tłumaczy Piotr Drąg, HPE Unstructured Data Storage Category & Business Development Manager na Europę Środkową.
Storage Category & Business Development Manager for Central Europe, HPE Pierwsze półrocze było dość dynamiczne pod względem sprzedaży systemów pamięci masowych dla średnich i dużych firm. Z jednej strony, rosnące potrzeby związane z cyfryzacją, analizą danych oraz koniecznością zapewnienia ciągłości i bezpieczeństwa operacji biznesowych napędzały popyt. Z drugiej, wyzwania gospodarcze i geopolityczne wpłynęły na ostrożność firm w planowaniu inwestycji, co przełożyło się na opóźnienie niektórych przedsięwzięć. Niemniej jednak, potrzeba zarządzania rosnącymi wolumenami danych oraz zapewnienia ich bezpieczeństwa pozostała kluczowa, co w efekcie utrzymało popyt na stosunkowo wysokim poziomie.
Za oceanem dużym zainteresowaniem ze strony dużych organizacji cieszą się macierze obiektowe. W Polsce popyt na tej klasy sprzęt jest znikomy, co wynika z kilku powodów: stosunkowo wysokich kosztów wdrożenia, niewielkiej świadomości na temat tej technologii, stosun-
kowo niskim poziomem adaptacji usług chmury publicznej, a macierze obiektowe są ściśle związane z infrastrukturą chmurową. Są też inne przyczyny tego stanu rzeczy.
– To nie działy odpowiedzialne za infrastrukturę decydują o sposobie przechowywania danych, tylko twórcy aplikacji. Jeśli mamy system obiegu dokumentów, to fakt, czy będzie zachowany na macierzy plikowej czy obiektowej, zależy od architektury danej aplikacji. Adopcja macierzy obiektowych zależeć będzie zatem od sposobu tworzenia oprogramowania – podkreśla Mikołaj Wiśniak.
Porównanie dysków twardych oraz półprzewodników zdecydowanie wypada na korzyść tych drugich. Jednak dla wielu organizacji kluczowy jest stosunek ceny do pojemności, a tutaj przewagę wciąż mają „twardziele”. Dlatego HDD nadal spełniają ważną rolę w centrach danych. Firmy zaopatrujące się w macierze SAN bardzo często wybierają systemy wyposażone w dyski mechaniczne oraz półprzewodnikowe.
– HDD i SSD są często używane razem w hybrydowych konfiguracjach, aby zba-
Tomasz Spyra, CEO, Rafcom
lansować koszty i wydajność. Jednocześnie szybko postępuje adaptacja nośników NVMe, szczególnie w sektorach, które wymagają najwyższej wydajności i niskich opóźnień. NVMe oferuje znacznie wyższą przepustowość i niższe opóźnienia w porównaniu do tradycyjnych SSD korzystających z interfejsu SATA – mówi Piotr Drąg. Natomiast w serwerach NAS zdecydowanie królują dyski mechaniczne, o czym decyduje cena samych nośników, jak i inne dodatkowe czynniki. Budowa klasycznych NAS-ów sprawia, że osiągnięcie dużej przestrzeni za pomocą SSD SATA, wymaga zastosowania dużej liczby tychże nośników, co wiąże się z wysokimi kosztami. Alternatywą może być NAS obsługujący pamięci NVMe U.2, niemniej w tym przypadku trzeba liczyć się z wyższymi cenami urządzeń oraz nośników. Pewnego rodzaju ciekawostką jest system VAST Data, wykorzystujący do przechowywania dużych ilości danych wyłącznie dyski SSD. Amerykański producent zachęca klientów, żeby wyszli poza schemat i pomyśleli o czymś więcej niż NAS scale out.
Obecnie mamy do czynienia z ekspansją pamięci QLC.
Osobnym zagadnieniem jest wyścig producentów macierzy, którzy instalują coraz tańsze, ale też mniej wytrzymałe nośniki SSD. W tej chwili mamy do czynienia z ekspansją pamięci QLC, przechowującej w każdej komórce cztery bity danych, co pozwala zmieścić więcej informacji na tej samej powierzchni niż SLC, MLC czy TLC. A jednak QLC pod względem wydajności i wytrzymałości ustępuje wymienionym pamięciom. Nie bez przyczyny pojawia się zatem pytanie czy warto stosować QLC w rozwiązaniach korporacyjnych?
Zdania w tej materii są podzielone. – Jak do tej pory nie zauważyliśmy obniżenia jakości tych produktów w ramach liczby zarejestrowanych błędów. W przypadku QLC nie ma zatem powodów do obaw – twierdzi Mikołaj Wiśniak.
Z tą opinią nie zgadza się Paweł Kaczmarzyk, prezes i technik w serwisie komputerowym Kaleron.
Obecnie praktycznie każda macierz nabywana do obsługi platform wirtualizacyjnych lub systemów bazodanowych jest rozwiązaniem all-flash. Wyjątkiem są urządzenia przeznaczone do backupu oraz archiwizacji, które wykorzystują dyski obrotowe. Odnotowujemy też coraz częstsze wykorzystywanie w macierzach dysków NVMe, bowiem wzrasta zapotrzebowane klientów na produkty, które zapewniają jak najmniejsze czasy opóźnień i wysoką wydajność. Dla większości klientów technologia, w jakiej są wykonane dyski SSD nie ma znaczenia. Większość z nas miałaby problem, aby dokładnie wyjaśnić czym się różnią technologie SLC, MLC, TLC czy też QLC. Klienci dokonując zakupu dysków do serwerów czy też macierzy dyskowych oczekują jak największej pojemności oraz wymaganej funkcjonalności za jak najlepszą cenę.
Mikołaj Wiśniak, wiceprezes, IT Solution Factor
Obecnie rozwiązania SSD to rynkowy standard, choć wolniejsze HDD i znacznie szybsze rozwiązania bazujące na nośnikach NVMe wciąż będą miały rację bytu. Zwłaszcza, że z punktu widzenia średnich firm obniża się „próg wejścia” – macierz NVMe o pojemności użytkowej 100 TB można nabyć za kilkadziesiąt tysięcy euro. Z kolei klasyczne nośniki HDD zawsze będą traktowane jako rozwiązanie stosunkowo tanie w przechowywaniu dużych ilości danych, z dłuższą retencją i brakiem szczególnych wymagań co do wydajności.
– Zwiększenie gęstości upakowania danych powoduje pogorszenie stosunku sygnału do szumu. To oznacza większe trudności w procesie przetwarzania danych wewnętrz nośników i większe ryzyko wystąpienia błędów bitowych. Również typowa żywotność wynosząca około 600 cykli P/E jest bardzo mała, choć producenci starają się zamydlić oczy różnymi wynalazkami, jak parametr TBW, określający liczbę terabajtów, które mogą być zapisane na dysku w całym okresie użytkowania – tłumaczy Paweł Kaczmarzyk.
Co ciekawe, rozpoczęły się dyskusje na temat 5-bitowych pamięci PLC (penta-level cell) zapewniających jeszcze wyższe zagęszczenie i niższą cenę niż QLC, ale jednocześnie słabszą trwałość (10 cyklów zapisu) i gorszą wydajność. Ich sukces rynkowy nie jest zatem przesądzony. Tym bardziej, że – jak podkreślają doświadczeni integratorzy – klienci bardzo często zapominają o szumnych deklaracjach na temat oczekiwań co do jakości rozwiązań teleinformatycznych, kiedy w związku z tym trzeba głębiej sięgnąć do kieszeni. Dlatego właśnie przewaga w jednej grupie docelowej stanowi wadę w innej. n
Założyciele Veeam przedstawiają firmę Object First oraz jej flagowe rozwiązanie: bezpieczną pamięć masową do tworzenia i przechowywania kopii zapasowych.
Wobliczu coraz częstszych ataków ransomware przedsiębiorstwa poszukują innowacyjnych rozwiązań, które skutecznie zabezpieczą ich cenne dane. W odpowiedzi na te potrzeby powstała fi rma Object First, specjalizująca się w tworzeniu zaawansowanych technologii tworzenia kopii zapasowych. Założycielami Object First są Ratmir Timashev i Andrei Baronov, doskonale wcześniej znani w branży jako założyciele Veeama, który szybko stał się jednym z największych dostawców oprogramowania do tworzenia kopii zapasowych na świecie.
Ransomware? Ootbi wchodzi do gry
Nowy, flagowy produkt zasłużonego duetu, a więc Ootbi (Out-of-the-Box-Im-
Martin Stetka, Object First Channel Manager Eastern Europe & Middle East
Object First oferuje obecnie trzy rozmiary Ootbi. Najnowszy model z tej
Ootbi to rozwiązanie zaprojektowane zgodnie z zasadą „zero zaufania”.
mutability), to bezpieczne, łatwe w użyciu urządzenie do przechowywania kopii zapasowych, w pełni zintegrowane z platformą Veeam Data Management. Ootbi oferuje wbudowaną niezmienność danych obsługiwaną przez blokadę obiektów S3, co oznacza, że żadna osoba, usługa ani złośliwy podmiot nie może zmienić danych po ich zapisaniu, co czyni je skutecznie odpornymi na oprogramowanie ransomware.
Ootbi, jako rozwiązanie zaprojektowane zgodnie z zasadą „zero zaufania”, oddziela warstwy oprogramowania do tworzenia kopii zapasowych od warstw przechowywania kopii zapasowych, aby zapewnić najwyższy poziom ochrony danych. Ootbi jest stale testowany pod kątem bezpieczeństwa przez strony trzecie i nie wymaga od użytkownika końcowego żadnej wiedzy na temat bezpieczeństwa. Bezpieczne z założenia oprogramowanie Ootbi zapewnia odporność i możliwość odzyskiwania danych bez konieczności wykonywania dodatkowej pracy przez administratora Veeam. Dodatkowo Ootbi obsługuje proste skalowanie liniowe, w celu wzrostu na żądanie i zwiększonych potrzeb związanych z wydajnością.
Szybkość tworzenia kopii zapasowych może przekraczać 4 GB/s, umożliwia szybką ochronę danych i, co ważniejsze, obsługuje do 80 maszyn wirtualnych działających w pełnym klastrze z czterema węzłami w ramach funkcji Veeam Instant Recovery, która ma kluczowe znaczenie w przypadku awarii systemu lub ataku zewnętrznego. Integracja z interfejsem Veeam SOS API dodatkowo zwiększa wydajność systemu poprzez optymalizację
procesów pozyskiwania danych i zarządzania, co jest niezbędne w zarządzaniu dużymi ilościami informacji. Wprowadzenie technologii Direct-to-Object upraszcza zabezpieczanie danych, umożliwiając bezpośrednie tworzenie kopii zapasowych w pamięci obiektowej. Technologia ta zapewnia integralność i wysoką dostępność danych, przy niezawodności na poziomie 99,99 proc., co jest mocnym wskaźnikiem najwyższej klasy systemów przechowywania danych dostępnych obecnie na rynku.
W Polsce wyłącznym dystrybutorem Object First jest firma Pedab Polska, która zapewnia pełne wsparcie, urządzenia do testów i programy partnerskie.
- Object First łączy doświadczenie swoich założycieli z innowacyjnymi rozwiązaniami technologicznymi. Ootbi to idealne rozwiązanie dla każdej firmy korzystającej z rozwiązania Veeam, która chce chronić swoje dane przed zagrożeniami takimi jak ransomware - mówi Paweł Radzimski, Sales Director Pedab.
Więcej informacji o Object First można znaleźć na stronie www.objectfirst.com. Dystrybucja w Polsce: www.pedab.com, linkedin.com/company/pedab-poland/
Kontakt dla partnerów: Paweł Radzimski, Sales Director, Pedab, pawel.radzimski@pedab.pl
Jednym z problematycznych zjawisk jest wykorzystywanie AI do generowania oszustw, czego ofiarą stał się między innymi
Czy jesteś w stanie przewidzieć przyszłość swojego biznesu? Kto może to zagwarantować? Ktoś powie – analizy ekonometryczne. Inny – analizy trendów. Kiedy przedwojenny Sejm RP podjął decyzję o budowie portu w Gdyni, powątpiewano czy kiedykolwiek powstanie. Powstał. Już po roku powstała przystań dla okrętów wojennych i rybackich. Jaki ma to związek z sektorem cyfrowym i sztuczną inteligencją? Bardzo prosty. W przypadku nowych przedsięwzięć, szczególnie innowacyjnych, nikt nie jest w stanie jednoznacznie przewidzieć, czy po biznesie będzie hulał wiatr i trzeba go będzie sztucznie podtrzymywać, czy będzie zarabiać na siebie i szybko się zwróci.
Kryzys dotcomów
Kryzys dotcomów, znany również jako bańka internetowa, to zjawisko ekonomiczne, które miało miejsce głównie w latach 1997–2001. W tym okresie obserwowano gwałtowny wzrost i upadek wielu przedsiębiorstw internetowych. Firma, która miała w swojej nazwie końcówkę „.com”, była postrzegana jako nowoczesna i innowacyjna, co przyciągało ogromne inwestycje ze strony inwestorów poszukujących szybkich zysków na rozwijającym się rynku technologii internetowych. Bańka rozrosła się, ponieważ inwestorzy pompowali kapitał w startupy internetowe,
Rafał Brzoska, szef InPostu. Co ciekawe, żadne media mainstreamowe nie podjęły tego tematu.
które często nie miały wypracowanego modelu biznesowego ani realnych źródeł przychodów. Wartości akcji tych firm rosły w spektakularny sposób na giełdach, zwłaszcza na NASDAQ-u, co dodatkowo napędzało zainteresowanie i przyciągało jeszcze więcej kapitału.
Apogeum bańki przypadło na lata 1999–2000, kiedy to inwestorzy zaczęli zdawać sobie sprawę, że wiele z tych firm nie osiągnie przewidywanych wyników finansowych. Rozczarowanie to doprowadziło do masowej wyprzedaży akcji, co spowodowało gwałtowny spadek ich wartości. Wielu inwestorów straciło znaczne sumy pieniędzy, a wiele dotcom’ów upadło lub zostało znacząco zrestrukturyzowanych.
Niektórzy inwestorzy zdają się traktować swój zawód hobbystycznie.
A czy obecnie mamy do czynienia ze wzbierającą bańką AI? A konkretnie firm technologicznych zafascynowanych rozwojem sztucznej inteligencji? Czy jest czas, aby o tym głośniej mówić? Według Wall Street Journal inwestycje w startupy zajmujące się sztuczną inteligencją znajdują się na fali wzrostowej. W zeszłym roku inwestorzy wyłożyli ponad 20 mld dol. w umowy związane z generatywnym AI. Jednak część z tych firm, o wycene na miliardy dolarów, nie przynoszą zysków lub nie mają produktu. Ponadto problematycznym zjawiskiem jest wykorzystywanie AI do generowania oszustw, czego niedawną ofiarą był Rafał
Brzoska, szef InPostu. Żadne media mainstreamowe nie podjęły tego tematu, a problem jest coraz poważniejszy.
W 2022 r. inwestorzy włożyli ponad 20 mld dol. w generatywne AI, często w firmy bez produktów lub zysków. Dziennikarze WSJ zwracają uwagę na zagrożenia związane z coraz bardziej zaawansowanymi oszustwami internetowymi, które wykorzystują sztuczną inteligencję do wyłudzania informacji. Przykładowo, scammerzy celują w młodych ludzi, którzy są bardziej narażeni na manipulację z powodu braku doświadczenia i nieznajomości procedur bezpieczeństwa online.
Pomimo braku produktów, inwestorzy są skłonni lokować środki w nowo powstające firmy, które kierowane są przez zespoły
biorców z Doliny Krzemowej. Taka strategia inwestycyjna może być ryzykowna, gdyż nie ma pewności, że te firmy osiągną sukces komercyjny. Tymczasem już w całym minionym ćwierćwieczu, wiele badań wskazywało na fakt, iż jednym z głównych problemów jest brak umiejętności stworzenia i rozwoju własnego rynku („The Real Reason so Many Businesses Fail”, Catherine Bell, Fortune; „Five Reasons Small Businesses Fail, And How To Avoid Them”, Gary Schoeniger, Forbes). To jest brak umiejętności wykorzystania ekonomii rynku – tej najmłodszej córki ekonomii.
Jednym z przykładów przedsiębiorstwa, które przyciągnęło znaczną inwestycję, jest fi rma Imbue, która zgromadziła ponad 200 mln dolarów od inwestorów, mimo że nie przedstawi-
Wnioski na przyszłość dla firm inwestujących w sztuczną inteligencję
Inwestycje w technologie AI dynamicznie rosną, mimo braku konkretnych produktów czy zysków w wielu startupach, co może wskazywać na ryzyko tworzenia się bańki spekulacyjnej.
n Inwestorzy są gotowi zaryzykować duże sumy pieniędzy, inwestując w nieprzetestowane biznesy, co może prowadzić do wysokich strat, jeżeli technologie te nie znajdą komercyjnego zastosowania.
n Użycie AI przez oszustów stwarza nowe wyzwania dla bezpieczeństwa online, zwłaszcza dla osób mniej doświadczonych w nawigacji po rynku pracy, takich jak niedawni absolwenci.
n Rośnie potrzeba edukacji dotyczącej cyberbezpieczeństwa i weryfikacji informacji w kontekście rosnącego wykorzystania technologii cyfrowych.
n Zarówno osoby indywidualne, jak i instytucje powinny podchodzić z ostrożnością do nowych technologii i inwestycji w AI, mając na uwadze ryzyko oraz potencjalne skutki ekonomiczne i społeczne.
n Większość startupów AI mierzy się z problemem braku rentownego modelu biznesowego, nawet pomimo znaczących inwestycji kapitałowych. Mimo dysponowania zaawansowanymi technologiami i zgromadzonymi funduszami, trudno im przekształcić innowacje w stabilne źródło przychodów.
n Inwestorzy często decydują się na finansowanie startupów AI opierając się na przyszłościowych wizjach i obietnicach, a nie na konkretnych produktach czy generowanych zyskach. To pokazuje, że potencjał i nowatorstwo pomysłu mogą przyciągnąć kapitał nawet bez gotowego produktu czy wypracowanych zysków.
n Obserwując obecną sytuację w sektorze AI, można dostrzec paralele do wcześniejszych hoss, takich jak te związane z kryptowalutami i blockchainem, gdzie entuzjazm inwestycyjny nie zawsze przekładał się na długoterminowe sukcesy.
n OpenAI wyłania się jako jedno z nielicznych przedsiębiorstw, które faktycznie osiągnęło znaczące przychody na bazie AI. Sukces tej firmy podkreśla, że choć wyzwania są ogromne, możliwe jest stworzenie zyskownego przedsięwzięcia w przestrzeni AI.
n Istnieje realne ryzyko, że obecne zainteresowanie i inwestycje w AI mogą prowadzić do „pęknięcia bańki”, podobnie jak miało to miejsce w innych sektorach technologicznych, jeśli firmy nie zaczną generować realnych zysków. To stawia przyszłość wielu startupów AI pod znakiem zapytania.
ła konkretnego planu biznesowego czy produktu. Wizja CEO tej kalifornijskiej firmy dotyczy stworzenia inteligentnych komputerów, które mogłyby służyć jako towarzysze człowieka i wspierać go w różnych zadaniach. No cóż, w wymiarze biznesowym możemy mieć najbardziej fantastyczne wizje. Inwestorów interesuje tylko, kiedy nastąpi zwrot z inwestycji. Jak już wyraźnie widać, niektórzy bywają wybitnie cierpliwi lub traktują inwestycję w wymiarze hobbystycznym.
dr inż. Jacek Kotarbiński to ekonomista i finansista, praktyk - marketer od 1990 r., wykładowca MBA i EMBA, członek Polskiego Naukowego Towarzystwa Marketingu, autor serwisu kotarbinski.com.
Szybkie i czasem burzliwe zmiany na rynku technologii dotyczą też samej narracji, która po latach ewangelizacji cyfrową przyszłością przestaje być nośna.
Od kilku lat pisząc krótkie słowo wstępu do raportu CW TOP200, czuję się w obowiązku podać Czytelnikom przejrzyście fakty, liczby i nakreślić, co z nich wynika. W tym roku przygotowanie takiej syntezy wymagało wielogodzinnych dyskusji z naszymi analitykami i wielokrotnego wertowania liczb, a wnioski piętrzyły się w zależności od kontekstu: technologicznego, ekonomicznego i geopolitycznego. Najpierw liczby. W 2023 r. wartość rynku ICT w Polsce wyniosła 25,53 mld dol., co stanowi wzrost o 5,1 proc. rok do roku. Wynik ten, słabszy niż w latach poprzednich, to efekt kilku zmiennych, a przede wszystkim dużego skoku inwestycji w okresie pandemii. Teraz wzrost wydatków zarówno na infrastrukturę IT (serwery, macierze i rozwiązania sieciowe), jak i te mniejsze urządzenia (PC, drukarki, telefony komórkowe) jest dużo niższy i wyniósł 0,4 proc. Natomiast widzimy duże wzrosty w obszarze software‘u – aż 13,6 proc. rok do roku, przy czym sama chmura publiczna wzrosła aż o 24,5 proc., przy wartości tego segmentu na poziomie 2 mld dol. Rynek chmury publicznej nadal jest zdominowany przez rozwiązania SaaS, które stanowią ponad 60 proc. tego sektora. Jednocześnie najszybciej rośnie rynek PaaS wspierany przez narzędzia AI i ich rosnącą rolę w budowie aplikacji.
Jeżeli chodzi o prognozy to pierwsze półrocze 2024 r. przyniosło spowolnienie w in-
westycjach, co wynika przede wszystkim z braku dużych projektów, ale też oczekiwania na fundusze restrukturyzacyjne. Sądzę, że już po wakacjach możemy się spodziewać przyspieszenia, a mianownikiem dla nowych inwestycji będą projekty optymalizacyjne oraz szeroko pojęta sztuczna inteligencja. W ubiegłym roku wśród ciekawych inwestycji obserwowaliśmy wzrost wydatków na HPC i pamięci masowe, co miało miejsce zarówno w Europie Zachodniej, ale też w Polsce. Superkomputery to niezbędna infrastruktura do budowy gospodarki opartej o dane. Dodatkowo, dzięki skali HPC, można to robić taniej i zużywając mniejszą ilość energii.
ciu poszczególnych linii biznesowych lub próby zbudowania rozwiązań specyficznych dla branży lub konkretnej organizacji, które są może bardziej czasochłonne i wymagają większego zaangażowania, ale dają możliwości tworzenia większej wartości biznesowej i przewagi konkurencyjnej. Liczby w naszych przewidywaniach są zawrotne – wartość europejskiego rynku AI w 2023 r. (WE+CEE) wyniosła 36,1 mld dol., a w 2024 szacujemy ją na 47,6 mld dol.
Wdrażanie nowych technologii wymaga ogromnego poczucia odpowiedzialności.
No dobrze, ale nie można mówić o inwestycjach w IT w 2023 i 2024 pomijając AI. Obecnie użytkownicy stoją przed największym wyzwaniem: znalezieniem i oceną wartości wykorzystania (use case’ów) sztucznej inteligencji w ich organizacjach. Mogą to być zastosowania horyzontalne, podobne dla wszystkich w obszarze zwiększania produktywności, często stosunkowo łatwe we wdrożeniu i przenoszące szybki efekt, ale niedające szans na innowacyjność. Mogą też być to rozwiązania skupiające się na wspar-
W dyskusji nad sztuczną inteligencją stoimy też przed wyborem modelu gospodarki – dokąd zaprowadzi nas AI w modelu chińskim, w pełni kontrolowanym przez państwo, czy w modelu amerykańskim – czyli większego liberalizmu w odniesieniu do danych. Z naszej perspektywy ważne będzie czy gospodarka europejska, wymagająca odpowiedzialnego wdrażania technologii, promująca AI Act i etyczne podejście do innowacji, da nam przewagę na globalnym rynku, czy wręcz przeciwnie – jeszcze bardziej pogłębi różnice dzielące nas od innowacyjnych liderów?
Na koniec myślę, że zmiany na rynku technologii dotyczą też samej narracji, która po latach ewangelizacji cyfrową przyszłością przestaje być nośna. Nie musimy już nikogo przekonywać do samej cyfryzacji, nie musimy mówić o innowacji, jako o trampolinie do lepszego funkcjonowania biznesu, ani o repozycjonowaniu działów IT, których funk-
cja zmieniła się z wewnętrznego dostawcy usług na dostawcę nowego, innowacyjnego biznesu i przewagi na rynku. Budżety na IT są dzisiaj stałym elementem strategii i, co najważniejsze, nadal rosną w tempie około 5–6 punktów procentowych rocznie. Jednak w niepewnych czasach kwestie kształtujące wydatki na IT wykraczają znacznie poza samą technologię. Kolejne decyzje inwestycyjne w IT mają dzisiaj wymiar strategiczny, muszą uwzględniać napięcia geopolityczne, konieczność optymalizacji działania przy rosnących kosztach energii, pracy, logistyki, cen surowców, a przede wszystkim gwałtownych zmian ekonomicznych, społecznych i klimatycznych. Te turbulencje wydają się nieuchronne i będą wymuszać coraz więcej zmian. Dostawcy technologii powinni wspólnie z klientami pracować nad rozwiązaniami zapewniającymi przede wszystkim biznesową odporność lub długotrwały wzrost. Ten drugi będzie z pewnością trudniejszy do osiągnięcia. Przy okazji, warto zwrócić uwagę na jeszcze jeden aspekt dojrzewania rynku IT.
Czas, kiedy jako eksperci byliśmy jak egipscy kapłani wiedzy tajemnej o zaćmieniach słońca, minął. Dzisiaj stajemy przed użytkownikami, obywatelami, klientami, rodzicami, dziećmi i sąsiadami, dla których ChatGPT był ostatnią po pandemii tajemną bramą wejścia do świata, na który my, w dyskusjach przy świątecznym stole, od lat mieliśmy monopol. Dzisiaj technologia, która wymagała wiedzy i kompetencji staje się dostępna, ale tym bardziej potrzeba szerokiej dyskusji i wyjaśnienia, jak działa i jakie niesie ze sobą szanse i zagrożenia.
Dzisiaj dostawcy poszczególnych technologii muszą posługiwać się przykładami zrealizowanych wdrożeń, pokazać ich wartość w duchu ESG, wpływu na społeczeństwo, dobrostan użytkownika i miejsca pracy. Wiemy już, że technologia, która łączy – zwiększyła też izolację społeczną. Przeczuwamy, że sztuczna inteligencja, jeżeli chodzi o optymalizację, ułatwianie nam pracy i wykonywanie zadań, które nas nużą – jest niezastąpiona. Jednak musimy coraz głośniej mówić o tym, że wdrażanie nowych
technologii wymaga ogromnego poczucia odpowiedzialności. Projekty muszą być inicjowane i realizowane w dużych gremiach, a nie w pojedynkę, aby uwzględniać ryzyka krytyczne, ale też scenariusze które mogą się przydarzyć po drodze.
Na koniec chcę podkreślić, że powyższy komentarz powstał w wyniku długiej i burzliwej dyskusji, jak też ciągłej niezgody z Edytą Kosowską, Jarkiem Smulskim, Michałem Świątkiem i Ewą Zborowską z polskiego zespołu IDC.
Artykuł pochodzi z raportu „Computerworld TOP200”
Ewa Lis-Jeżak jest prezesem IDC Polska.
W ubiegłym roku branża ICT w Polsce nadal była na plusie, choć ramiona tego plusa stały się mniejsze niż wcześniej.
W2023 r. urośliśmy, jako branża, o 7 proc. Cóż, w roku 2022 było to 13 proc., podczas gdy w 2021 – 19 proc. Na szczęście firmy nie spuszczają nosa na kwintę i aż 8 na 10 z nich przewiduje, że tegoroczna koniunktura na polskim rynku ICT będzie lepsza bądź taka sama. Warto przy tym podkreślić, że niezależnie od takich czy innych nastrojów, branża ICT nadal rośnie szybciej niż cała polska gospodarka. W 2023 r. wartość analizowanej przez redakcję raportu „Computerworld TOP200” – przy wsparciu analityków IDC – branży ICT wyniosła nieco ponad 107 mld zł. Rok 2022 zamknął się dla rynku kwotą ponad 100 mld zł. Minął więc drugi rok, w którym została przekroczona magiczna bariera „setki”. Ubiegłoroczny wynik branży wypracowały 333 firmy o przychodach powyżej 1 mln zł, ujęte w naszym tegorocznym raporcie.
Nieznaczne ruchy na podium
Rośnie zapotrzebowanie na usługi informatyczne.
Pierwszą piątkę największych firm ICT na polskim rynku w 2023 r. otwiera, podobnie jak w ostatnich latach, AB, z prawie dziewięciomiliardowymi przychodami. Dalej robi się bardziej zaskakująco – po kilku latach drugie miejsce na podium oddaje Also Polska (zajmuje w zestawieniu trzecie miejsce), ustępując pozycję wicelidera polskiemu oddziałowi Samsung Electronics, który miał niesamowity rok sprzedażowy, zakończony 50-procentowym wzrostem przychodów rok do roku. Kolejne firmy z czołówki tabeli to Dell Technologies oraz Lenovo Technology Poland.
n Grzegorz Stech
Wśród pierwszych kilkunastu firm, jak co roku, widać pewne przetasowania. Nie da się pominąć chociażby konsekwentnej jazdy w górę Microsoftu (25 proc.) oraz równie konsekwentnej, lecz w drugą stronę podróży Xiaomi Poland (-32 proc.). Czy ma to jednak znaczenie dla wyników globalnych? Niekoniecznie. Grupa „trzymająca przychody” ma się dobrze. Próg 1 mld zł przychodów w 2023 r. osiągnęło 19 firm z 333. Na ubiegłoroczny wynik 107 mld zł przychodów na rynku ICT można spojrzeć – w ramach ćwiczenia – również w taki sposób: ponad połowę przychodów ujętych w raporcie w 2023 r. wypracowało pierwszych 20 firm (blisko 58 mld zł), zaś w rękach pierwszej czterdziestki jest prawie 70 proc. przychodów branży.
W niektórych segmentach rynku firm dźwigających wyniki branży jest jeszcze mniej, jak choćby w tabeli z przychodami producentów gier. W tym przypadku dwóch kluczowych graczy, po udanych premierach gier i dodatków do nich, poniosło na fali swojego sukcesu polską branżę gamingową, generując 53 proc. przychodów dla całej badanej grupy firm (27 podmiotów), zaś pierwsza dziesiątka odpowiadała za 93 proc. przychodów z polskiego gamingu.
Niewiele też zmieniło się w ub.r. w stosunku do roku 2022 wśród pierwszej piątki największych grup kapitałowych działających w Polsce. To nadal są: Grupa Asseco, AB SA, Grupa Orange, Exclusive Networks Poland i Grupa Comarch, choć tym razem na plusie
przychodowym rok do roku znalazły się tylko Grupa Orange (18 proc.) i AB SA (3 proc.). Mocna potrzeba cyfryzacji
Ciekawie wygląda zestawienie przychodów firm IT z poszczególnych sektorów gospodarki. Pierwsze miejsce, podobnie jak w 2022 r. dzierży handel, jako branża konsumująca najwięcej produktów i usług informatycznych. Ten sektor gospodarki przyniósł firmom ICT nieco ponad 4,5 mld zł (rok wcześniej było to 4 mld). Tuż za nim – i to
dosłownie tuż, ze względu na wartość zamówień, jest bankowość (blisko 4,5 mld zł), a dalej administracja publiczna oraz przemysł i budownictwo. Spory zjazd chłonności rozwiązań IT zaliczył w 2023 r. sektor firm IT (z +33 na -16 proc.), natomiast mocno wzrosło zapotrzebowanie na informatykę w sektorze edukacji, nauki i badań, bo aż o 50 proc., co jednak i tak nie przebije skoku z 2022 r., kiedy to wartość zamówień na informatykę w branży mediów wzrosła o 83 proc. (w roku 2023 – 16 proc.).
Widać więc wciąż spore zapotrzebowanie na cyfryzację gospodarki i wciąż spore pole do działania dla firm ICT. Powiedzmy sobie jedno: technologia nadal będzie potrzebna, choć nie zawsze taka sama i nie zawsze na podobnym jak wcześniej poziomie w danym sektorze gospodarki. Rozumie to większość polskich „kombajnów informatycznych”, czyli firm z szerokim portfolio usług i produktów, kierowanych do różnych branż. Z przeanalizowanych przez „Computerworld TOP200” ankiet dostarczonych przez firmy ICT wyłania się obraz dojrzałego rynku i dojrzałych firm, które potrafią rozsądnie dywersyfikować źródła przychodów i rozkładać ryzyko.
Bazując na doświadczeniu poprzedniego roku w zakresie potrzeb technologicznych polskich przedsiębiorstw, czy mogą Państwo wskazać te trendy, które będą miały największy wpływ na rynek w 2023 r?
sztuczna inteligencja
chmura obliczeniowa generatywna AI
i robotyzacja procesów (RPA)
Przy okazji raportu „TOP200” redakcja Computerworld przeprowadziła badanie wśród osób odpowiedzialnych za IT, by poznać, jak rynek postrzega dostawców rozwiązań i usług ICT i jakie ma potrzeby. W ogólnym ujęciu 84 proc. menedżerów IT preferuje model best of bread, sięga więc po rozwiązania – aplikacje, systemy, usługi – pochodzące od różnych dostawców. Szukając danego rozwiązania, menedżerowie kierują się wypracowanymi kryteriami wyboru. W dużych firmach są to: zgodność rozwiązania z regulacjami wewnętrznymi, branżowymi i prawnymi (94 proc.), dopasowanie do branży (82 proc.) oraz jakość usług wsparcia i serwisu (tyle samo wskazań). Średniej wielkości firmy częściej zwracają uwagę na cenę rozwiązania (89 proc.) oraz jego skalowalność i elastyczność w trakcie projektu (tyle samo wskazań).
To, że potrzeby rynku na dane rozwiązania i produkty wciąż się zmieniają, pokazują tabele raportu „Computerworld TOP200”. W ubiegłym roku wiele uwagi poświęciliśmy kwestii bezpieczeństwa. Nic dziwnego – rosnąca skala ataków cybernetycznych, niestabilna sytuacja geopolityczna i związane z nią ryzyko ingerencji obcego państwa w kluczowe zasoby informatyczne Polski podbijały stawkę i niosły medialnie temat. Na to oczywiście nakładały się takie argumenty jak choćby potrzeba ochrony najcenniejszych zasobów firmy, na których to zasobach budowane są nowe modele biznesowe organizacji. Rozwiązania bezpieczeństwa wzrosły rok do roku w 2022 r. o 6 proc. i wydawało się
logiczne, że w 2023 r. będzie to wzrost przynajmniej ocierający się o dwucyfrowość. Tymczasem miniony rok zamykamy 1-procentowym spadkiem.
Na pewno odpowiedzią na taki stan rzeczy nie jest fakt, że firmy uodporniły się na potencjalne zagrożenia czy rynek nasycił się już produktami i usługami z zakresu bezpieczeństwa. Przed nami, w październiku 2024 r., wielkie „sprawdzam” – w związku z dyrektywą NIS2. Wytłumaczenia prędzej można szukać w podejściu „business first”, po prawie 2 latach od wybuchu pełnoskalowej agresji Rosji na Ukrainę. Wojna, na szczęście dla nas, nie rozlała się poza wschodnią granicę, a przedsiębiorcy – poza nielicznymi – nie odczuli spektakularnych i częstych cyberataków. Innymi słowy: życie toczy się dalej.
Za to firmy ICT zauważają inne problemy, takie jak choćby braki kadrowe, szczególnie widoczne w obszarze kompetencji developingu. Podobnie jest po drugiej stronie – organizacje odczuwają głód kompetencyjny, zaś anegdotyczne „nie ma kim robić” staje się faktem. Pozyskanie odpowiednich specjalistów to nie tylko ubiegłoroczny problem – trudna sytuacja na rynku trwa od lat, a „granulacja technologiczna” i schodzenie do coraz bardziej rozdrobnionych specjalizacji powodują powiększanie się dziury kompetencyjnej. Na pewno zyskują na tym firmy zajmujące się wynajmem pracowników IT, które
CRN nr
odnotowały w 2023 r. 15 proc. wzrostu przychodów. Sytuacja w całym 2024 r. będzie o tyle ciekawa, że z jednej strony rozwiązania AI będą w stanie „zabierać” pracę, z drugiej zaś strony głód specjalistów od sztucznej inteligencji stanie się niewyobrażalny.
Jednocześnie pojawiło się wielkie zapotrzebowanie na usługi centrów danych (przychody z tych usług wzrosły rok do roku z nieco ponad 1 mld zł do ponad 1,5 mld zł), co utwierdza nas w przekonaniu, że: 1. DC nie umiera nigdy; 2. dane rosną i muszą być gdzieś przetwarzane; 3. być może jeszcze nie wiemy, czy to już czas, że firmy zaczynają trenować AI i chcą skorzystać z gotowej infrastruktury, która im to umożliwi.
Dlaczego punkt 3. to „być może”? Dlatego że – tu musimy się przyznać – nie mamy aż tak szczegółowych danych od operatorów DC na temat sprzedawanych przez nich usług. Intuicja (czy można jednak tylko na niej opierać swój wywód?) podpowiada, że to prawdopodobny scenariusz. Ten z AI. I dajemy też temu upust w konstrukcji zawartości merytorycznej raportu „Computerworld TOP200”, poświęcając sztucznej inteligencji większość artykułów eksperckich. Obok AI po prostu nie można przejść tak po prostu… Być może za rok, w podsumowaniu branży ICT za 2024, uda się AI uchwycić w naszych zestawieniach. W końcu już dawno żadna technologia nie skupiła tak wielkiej uwagi całego rynku. Jednak nie o samą uwagę tu chodzi, a o możliwości, jakie sztuczna inte-
Firma
Przychody firmy ze sprzedaży produktów
1AB18
2 Samsung Electronics Polska
3Also Polska27 890 0008
4 Dell Technologies Polska
5 Lenovo Technology Polska
ligencja ze sobą niesie i jak zmieni przedsiębiorstwa oraz ich modele biznesowe.
Oczywiście za szansami kroczy popyt. W 2023 r. na same tylko rozwiązania GenAI globalnie wydano łącznie 19,4 mld dol. A to dopiero początek: według prognoz IDC, w perspektywie trzech najbliższych lat inwestycje osiągną wartość 150 mld dol. Przy czym aż 30 proc. z nich do 2027 r. będą stanowiły wydatki na generatywną odmianę AI.
Za boomem na AI kroczy również stabilna konsumpcja usług chmurowych. Chmura, patrząc przez pryzmat rozwiązań AI, jest naturalnym środowiskiem do trenowania modeli sztucznej inteligencji. Jeśli tak, to w 2023 r. przychody firm oferujących rynkowi chmurę – rynkowi, który właśnie zachłysnął się sztuczną inteligencją – powinny szybować mocno w górę. Tymczasem mamy dynamikę na poziomie 13 proc., więc źle nie jest. Czy będzie jednak lepiej? Rynek chciałby, by tak było, co potwierdza nowy region chmurowy Microsoftu, który oficjalnie wystartował w kwietniu 2023 r., więc rok 2024 zapowiada się ciekawie.
Niepokoi łatanie wyników finansowych pozbywaniem się pracowników.
Powiedzieć: nie najgorszy, to nic nie powiedzieć… Z jednej strony wyniki – w porównaniu z latami poprzednimi – mogą aż tak bardzo nie imponować, z drugiej zaś strony
– co wynika z naszych rozmów z poszczególnymi firmami z branży – był to rok dla wielu wyjątkowy. Cytuję: „to był dla nas naprawdę tłusty rok”. Nawet jeśli ostatecznie owa „tłustość” nie wynika wprost z naszych tabel, słuchamy takich głosów i cieszymy się, że nastroje w branży na 2024 r. są naprawdę dobre. Pisząc o roku poprzednim, mamy komfort wiedzy o roku bieżącym i możliwość obserwacji zmiany. A ta następuje, przynajmniej w pierwszej połowie roku. Wprawdzie lokomotywa ICT jedzie dalej, ale jest kilka... „ale”. Niepokoją zwolnienia na rynku i łatanie wyników finansowych pozbywaniem się pracowników, chwilowa zadyszka dystrybucji, nerwowe poszukiwania kontraktów przez dużych graczy, i kilka innych rzeczy, o których napiszemy za rok. Z drugiej strony mamy rozkręcającą się od 2023 r. sprężynę AI, zapowiadany wzrost bezpośrednich inwestycji zagranicznych (FDI) w najbliższych latach, jak też stały, choć niewielki wzrost i świetne nastroje branży. Nie naszym zadaniem jest jednak wyprzedzanie faktów, a tym bardziej gaszenie optymizmu bijącego z odpowiedzi na naszą ankietę. Czekamy. Grzegorz Stech jest redaktorem naczelnym Computerworld Polska. Artykuł został pierwotnie opublikowany w tegorocznym raporcie „Computerworld TOP200”. n
finansowy
(zysk bądź strata netto)
Do zmian potrzebny jest margines błędu. W firmie takim marginesem jest zysk.
Pamiętam jakby to było dziś, chociaż sprawa dotyczy wydarzeń, które miały miejsce dokładnie 8 lat temu. Miałem wówczas okazję pracować dla jednego z klientów nad wielkim projektem wdrożeniowym w sektorze e-commerce. Projekt był tak duży, że zarząd po stronie klienta wymagał, żeby z kolei zarząd naszej firmy (czyt. ja) co tydzień we wtorek przyjeżdżał na spotkanie, podczas którego były śledzone postępy prac.
Ten ówczesny klient to nie była jakaś super nowocześnie zarządzana fi rma. Raczej klasycznie, i to bardzo… Dlatego te spotkania strasznie mnie męczyły. Było na nich sporo polityki, nieprzyjemnych prztyczków w nos z działu do działu, abstrakcyjnie nieefektywnych decyzji przykrywających brak kompetencji oraz kilku strasznie drogich konsultantów, którzy robili notatki po stawce 150 euro na godzinę.
Pomyślałem sobie wtedy: kurczę, ależ to jest odporna firma! Mimo tak strasznych błędów w zarządzaniu, generuje setki milionów zysku, jest w stanie ustawicznie wymieniać dyrektorów, a nawet zarząd, zmieniać właścicieli… i nic złego się nie dzieje! Przy czym akurat temat wprowadzania zmian był dla nas wtedy mocno na topie. Chcieliśmy w Divante zaimplementować plemiona znane ze Spotify, wdrożyć OKR-y i zrobić mnóstwo rzeczy, które wydawały nam się ambitne i fajne. Tylko nie kontrolowaliśmy EBITD-y, co skończyło się tragicznym wynikiem… na koniec kolejnego roku. Po prostu nas ewidentnie nie było wtedy stać na zmiany. Zastępcze działania odwracały uwagę od trudnych kwestii: słabego USP i słabej sprzedaży.
Czy stać cię na zmianę?
mocno przedefiniowaliśmy naszą strategię go-to-market, zatrudniliśmy nowy dział sprzedaży, jak też sami z Tomkiem – moim współudziałowcem – sprzedawaliśmy i zaczęliśmy bardzo skrupulatnie mierzyć parametry firmy, w tym koszty, przychody, lejek sprzedażowy i inne. Okazało się, że z wyników firmy można wyciągnąć mega dużo przed wprowadzeniem jakichkolwiek ambitniejszych zmian. Towarzyszyło nam wtedy hasło: jeszcze nie dojechaliśmy do sufitu. Pod wieloma względami. Później wdrożyliśmy metodologię 4DX, co nam bardzo pomogło, model plemion i inne techniki zarządzania.
Czy zmiany są złe? Absolutnie nie. Czy firma ma być toporna i zacofana? Absolutnie nie.
cieszyć się powtarzalnym wzrostem obrotów i zysków. A przecież to banał, że bez zysków długoterminowo firma nie przetrwa. Jeśli chcesz ją sprzedać, a nie zostawić wnukom, to bez kontroli podstawowych metryk nie dotrwasz do tego momentu albo będzie to „fire sale”.
Wracając do fi rmy klienta, o której wspomniałem powyżej: nigdy nie chciałbym w takiej pracować, ani zbudować organizacji, w której ludzie czują się tak jak tam. Jednak miała bardzo stabilny silnik wzrostu, a tym samym mega potencjał, żeby się zmienić. Sama zmiana, bez takiego silnika, niewiele da…
Drugie podejście do sukcesji, a konkretnie przygotowania firmy na sprzedaż, podjęliśmy po 1,5 roku. Do tego czasu bardzo
A może firma ma tylko generować zysk? Nie, nie tylko. Do zmian potrzebny jest natomiast margines błędu. W firmie takim marginesem jest zysk. Sam się na tym kiedyś złapałem, że łatwo dać się ponieść ambicjom i cieszyć się na myśl o wdrażaniu „fancy” frameworków – bardziej niż
Dyrektywa CSRD tuż tuż, a tylko jedna na cztery polskie firmy spełnia jej wymogi.
Dane z najnowszego raportu Ayming Polska („Biznes w równowadze: Jak przyspieszyć transformację ESG?”) wskazują, że tylko 25 proc. badanych firm wdrożyło standardy raportowania ESG zgodnie z wymogami dyrektywy CSRD. Przedsiębiorstwa te posiadają ugruntowaną strukturę zarządzania omawianym obszarem, w przeciwieństwie do firm, które nie wdrożyły jeszcze odpowiednich procedur. Z badania wynika również, że jedną z głównych przeszkód w raportowaniu jest brak spójnych wytycznych, wskazywany przez 59 proc. respondentów. Według ekspertów Ayming Polska taka sytuacja wynika w dużej mierze z faktu, że chociaż standardy raportowania zostały ujednolicone przez CSRD, w niektórych przypadkach brakuje konkretnych wskazówek, jak dokładnie postępować.
towania, gdyż standardy ESRS przewidują stopniowe wprowadzanie wymogów ujawniania niektórych wskaźników i informacji – tłumaczy Monika Michalska, ESG Consultant w Ayming Polska.
Dodaje przy tym, że owe regulacje to nie tylko wyzwanie adaptacyjne dla przedsiębiorstw, ale przede wszystkim szansa na usystematyzowanie wewnętrznych procedur raportowych oraz organizacyjnych, w tym podziału obowiązków i odpowiedzialności.
klimatyczne będą wpływać na pensje prezesów.
Ze wspomnianego raportu wynika, że dla niemal połowy (48 proc.) przedsiębiorstw główną trudnością w obszarze transformacji ESG jest efektywne mierzenie oraz raportowanie wpływu ich działalności na środowisko naturalne i społeczne.
– Po części, odpowiedzią w tym kontekście może być dyrektywa CSRD, która stopniowo wchodzi w życie, obejmując z każdym rokiem kolejną grupę przedsiębiorstw. Definiując nowe standardy w raportowaniu zrównoważonego rozwoju, dyrektywa odpowiada na jedno z kluczowych wyzwań, z którym, według naszego badania, zmaga się prawie połowa firm. Warto pamiętać, że nie wszystkie informacje trzeba ujawniać w pierwszym roku rapor-
Od początku bieżącego roku, obowiązek złożenia raportu niefinansowego obejmuje firmy z ponad 500 pracownikami i przychodami 50 mln euro lub aktywami na poziomie 25 mln euro. W 2025 r. wymóg ten rozszerzy się na duże spółki i główne jednostki grup kapitałowych spełniające dwa z trzech kryteriów: ponad 250 pracowników, 25 mln euro aktywów lub 50 mln euro przychodów. To właśnie przedsiębiorstwa, które zostaną objęte obowiązkiem raportowania od przyszłego roku, stanowiły próbę badania przeprowadzonego przez Ayming Polska.
Raport Ayming dowodzi, że większość z badanych firm pracuje nad wdrożeniem odpowiednich mechanizmów, jednak stopień zaawansowania tych prac różni się między nimi. W sumie 25 proc. ankietowanych deklaruje, że ich organizacje już osiągnęły wymagane cele. Mimo to, większość respondentów wskazała, że reprezentowane
przez nich przedsiębiorstwa wciąż znajdują się na wczesnym etapie przygotowań. A konkretnie, 36 proc. badanych jest w trakcie przygotowań do wdrożenia standardów, podczas gdy 38 proc. dopiero planuje takie działania. – Wprowadzenie określonych procedur raportowych jeszcze przed formalnym objęciem obowiązkiem raportowania może przynieść firmom szereg korzyści. Przede wszystkim jest to czas na przetestowanie i zoptymalizowanie procesów zbierania danych, w tym identyfikacji potencjalnych problemów organizacyjnych. Dodatkowo, koszty przygotowania raportu mogą być rozłożone w czasie. To szczególnie korzystne w sytuacji, gdy organizacja współpracuje z firmą zewnętrzną i planuje formalne uzupełnienia dokumentów wewnętrznych, aby spełniać minimalne wymogi ujawniania informacji zgodnie ze standardami ESRS – tłumaczy Monika Michalska.
Znacząca większość firm (82 proc.) postrzega raportowanie działań związanych ze zrównoważonym rozwojem jako zadanie skomplikowane. Trudności w tym obszarze sprawiają nie tylko techniczne aspekty, takie jak gromadzenie i weryfikacja danych, na co wskazało 55 proc. respondentów, ale również bardziej podstawowe problemy, takie jak brak ujednoliconych standardów raportowania, zgłoszony przez 59 proc. badanych.
Dlaczego aż tak duży odsetek badanych wskazał na problem z brakiem ujednoliconych standardów raportowania, skoro – wydawać by się mogło – CSRD stawia sprawę dość jasno i klarownie? Wygląda na to, że choć standardy raportowania (ESRS) zdefiniowane w dyrektywie są podstawowym dokumen-
tem do ujawniania większości wymaganych informacji, regulator dopuszcza korzystanie z różnych metodologii i podstaw prawnych, niebędących częścią standardów ESRS. – Dodatkowo, w kilku przypadkach regulator nie podaje przykładu wymaganego podejścia, co może generować trudności w raportowaniu informacji i wymaga wiedzy specjalistycznej oraz przygotowania się do ujawniania z dużym wyprzedzeniem – wyjaśnia Monika Michalska.
Dla przykładu, wymóg E1–9 (Antycypowane skutki finansowe wynikające z istotnych ryzyk fizycznych i ryzyk przejścia oraz potencjalnych możliwości związanych z klimatem) wskazuje, że „obecnie nie istnieje powszechnie przyjęta metoda oceny lub pomiaru pozwalająca ustalić sposób, w jaki istotne ryzyko fizyczne i ryzyko przejścia mogą wpłynąć na przyszłą sytuację finansową, wyniki finansowe i przepływy pieniężne jednostki. W związku z tym ujawnienie skutków finansowych będzie zależało od wewnętrznej metody jednostki oraz od dokonania znaczącego osądu przy ustalaniu danych wejściowych i założeń niezbędnych do ilościowego określenia antycypowanych skutków finansowych”. W podanym wymogu nie ma wyjaśnienia czym jest znaczący osąd i kiedy należy uznać, że metoda, podejście i założenia do obliczeń są właściwe i wystarczające.
Co ważne, 50 proc. respondentów zasygnalizowało brak wewnętrznych zasobów i specjalistycznej wiedzy, a 42 proc. napotkało trudności z przekazywaniem wyników w sposób zrozumiały, co podkreśla złożoność zarządzania danymi ESG i wskazuje na obszary wymagające szczególnej uwagi i możliwej optymalizacji.
Kto za to odpowiada?
Firmy, które wdrożyły już standardy raportowania ESG, jednoznacznie definiują strukturę zarządzania odpowiedzialnymi za ten obszar działaniami. Z badania wynika, że aż 80 proc. respondentów wskazuje na dyrektora ds. zrównoważonego rozwoju/ ESG jako kluczową postać odpowiadającą za zarządzanie tymi kwestiami.
– Zdefiniowanie odpowiedzialności za zrównoważony rozwój i raportowanie ESG w organizacji ma kluczowe znaczenie dla efektywności zarządzania tym obszarem. To również jeden z wymogów ujawniania informacji.
ESRS 2 GOV-1 pyta o skład organów zarządzających, ich role i obowiązki, w tym ujęcie odpowiedzialności za oddziaływania, zagrożenia i szanse (możliwości) w zakresie zadań. Powierzenie odpowiedzialności za działania ESG dyrektorom czy kierownikom innych działów może spowodować rozproszenie odpowiedzialności i brak właściwej struktury zarządzania obszarem ESG, a w konsekwencji trudności w procesie zbierania danych i wyników przeprowadzonych prac w spójnym raporcie – podkreśla Monika Michalska. W przypadku firm przygotowujących się do implementacji standardów CSRD sytuacja ta wygląda zgoła odmiennie. W znacznej większości z nich (68 proc.) nie wyznaczono jeszcze konkretnej osoby lub zespołu odpowiedzialnego za zarządzanie raportowaniem ESG. Jedynie 14 proc. firm deleguje te obowiązki na dyrektora ds. zrównoważonego rozwoju/ESG, a 13 proc. na wyższe kierownictwo. W grupie, która planuje wdrożenie, brak wyznaczonej osoby decyzyjnej jest jeszcze bardziej zauważalny, obejmując 83 proc. przedsiębiorstw. – Taka sytuacja może wynikać z braku wiedzy o procesie, jego złożoności i czasochłonności. Zrozumienie metodologii i struktury odpowiedzialności jest kluczowe zwłaszcza dla organizacji, które jeszcze nie publikowały raportu nt. zrównoważonego rozwoju. Należy pamiętać, że dla takiej organizacji zebranie danych, przygotowanie dokumentacji i dopełnienie formalności oznacza od kilku miesięcy do ponad roku intensywnej pracy – komentuje Monika Michalska.
Magda Nojszewska, dyrektor marketingu odpowiadająca za obszar ESG, Seris Konsalnet
W omawianej materii
Pomimo, iż raportowanie ESG stanowi dla przedsiębiorstw duże wyzwanie, a większość z nich nie posiada jasno określonej struktury zarządzania tym obszarem, aż 54 proc. respondentów deklaruje, że ich firmy nie korzystają w tej kwestii ze wsparcia zewnętrznego. Może to po części wynikać z faktu, że wiele firm jest aktualnie na wstępnym etapie opracowywania i wdrażania odpowiednich strategii.
Raportowanie zrównoważonego rozwoju, będące procesem wieloetapowym o znacznej złożoności, łączy się ściśle z raportowaniem finansowym, wymagając analizy danych niefinansowych i ich integracji z finansowymi. Wymóg ten obejmuje nie tylko
analizę podwójnej istotności, ale także ocenę finansowych konsekwencji ryzyka, nałożonych kar czy wpływu kwestii klimatycznych na wynagrodzenia zarządu.
– Szczególnie dla przedsiębiorstw z rozbudowanym łańcuchem wartości, które działają międzynarodowo, poleganie wyłącznie na wewnętrznych zasobach może okazać się nieefektywne i czasochłonne, a brak koordynacji, obiektywnej oceny działalności czy znajomości najlepszych praktyk raportowania staje się główną przeszkodą – mówi Monika Michalska.
Wśród firm, które obecnie nie korzystają z zewnętrznego wsparcia, aż 60 proc. rozważa zaangażowanie takiego wsparcia w przyszłości. n Opracował Tomasz Gołębiowski
W związku z nieprzejrzystością i wysokim poziomem złożoności regulacji dotyczących raportowania ESG, kwestię wykształcenia dobrych praktyk w tym zakresie wzięli na siebie niektórzy dystrybutorzy.
Raportowanie ESG (Environmental, Social, Governance) w ramach dyrektywy CSRD to nowy obowiązek nałożony przez Parlament Europejski na duże firmy, operujące na terenie Unii Europejskiej oraz ich dostawców. Koniecznością raportowania będą objęci także dostawcy ww. firm. Oznacza to, że w najbliższych latach w zasadzie cała polska gospodarka będzie objęta raportowaniem ESG. Firmy będą musiały opisać model biznesowy i strategię, cele, polityki i procesy związane z realizacją zrównoważonego rozwoju i wiele innych.
Tymczasem wytyczne są nieprzejrzyste, skomplikowane i pozostawiają wiele wątpliwości na poziomie tłumaczenia z języka angielskiego na polski (dwuznaczność słów) nawet dla ekspertów, którzy zajmują się prawem unijnym od lat. Warto przy tym pamiętać, że raportowanie ESG, mimo określenia jako raportowanie niefinansowe, będzie zawierać konieczność ujawnienia pewnych danych finansowych.
– Największą komplikacją jest brak utartych schematów i standardów branżowych w zakresie raportowania, co oznacza, że każda firma nawet w ramach jednej branży może rozwijać własne podejście i metodykę. My właśnie pracujemy nad wypracowaniem standardów i szkoleń, przygotowujemy się organizacyjnie do raportowania oraz edukujemy nasze struktury w kwestii tego, jaki wpływ na nasz biznes będzie miało raportowanie w ramach dyrektywy CSRD. Pracujemy także nad standardami raportowania dla naszych dostawców, po to, by ich wesprzeć w tym skomplikowanym procesie – mówi
Magda Nojszewska, dyrektor marketingu odpowiadająca za obszar ESG w Seris Konsalnet.
Ponad 1000 punktów danych, które są określone w ramach wytycznych ESRS (European Sustainability Reporting Standards) i obowiązek przeprowadzenia oceny podwójnej istotności prowadzi do zwiększenia nakładów pracy, jak też kosztów na proces i jego adaptację. Ponadto prowadzi do sytuacji, że firmy bez wyraźnych, branżowych wytycznych z dużą dozą niepewności muszą w procesie rozmów z interesariuszami określić te wskaźniki, które są istotne do raportowania i nie ujawnią tajemnicy prowadzenia biznesu przed konkurencją. Przy czym firmy muszą nie tylko zdecydować (lub się domyślić wobec braku jasnych wytycznych), które wskaźniki mogą być kluczowe, ale również muszą poddać się zewnętrznemu audytowi przez biegłego rewidenta.
– To budzi dodatkowe obawy oprócz tego, że samo raportowanie wprowadza dodatkowe nakłady pracy administracyjnej a przez to koszty na obszar, które nie przynosi przychodów, czyli trudno go ocenić pod kątem rentowności i realnych korzyści dla modelu biznesowego – podkreśla Magda Nojszewska.
Koszty dla polskich firm wyniosą w ciągu najbliższej dekady 8,7 mld zł.
Według Ministerstwa Finansów koszty raportowania dla polskich firm łącznie wyniosą 8,7 mld zł w ciągu najbliższych 10 lat, a będą wynikać z konieczności utworzenia systemów do gromadzenia i analizy danych, zmian standardów raportowania, kosztów zatrudniania ekspertów czy obowiązkowej weryfikacji danych.
Dobre praktyki ESG
W zaistniałej sytuacji sprawy w swoje ręce wzięła społeczność dystrybutorów – w pojedynkę, ale także w ramach stowarzyszenia Global Technology Distribution Council, do którego należą między innymi AB oraz Exclusive Networks. W ramach GTDC już od dwóch lat aktywnie działa grupa robocza, której celem jest stworzenie narzędzia zbierającego niezbędne informacje od dostawców.
– Na potrzeby całego sektora IT podjęliśmy się próby znalezienia sposobu na przejrzyste raportowanie poszczególnych danych dotyczących refabrykacji, utylizacji, śladu węglowego czy zużycia energii. Tak, aby w ten sposób stworzyć możliwość łatwego porównywania wielu produktów różnych marek i prowadzić klarowne zestawienia zgodnie z wymaganiami regulatorów – mówi Dominique Deklerck, Sustainability Project Lead w GTDC.
Równolegle swoje własne strategie w tym zakresie opracowują i wdrażają najwięksi dystrybutorzy, tworząc stanowiska dla specjalistów tym zakresie. Poważnie do sprawy podeszło AB, które w ramach pilotażu pracuje nad bazą danych kilku tysięcy produktów z parametryzacją informacji ESG na poziomie nawet 120 parametrów per produkt. Kolejnym krokiem ma być ujednolicenie reguł wyliczania poszczególnych parametrów w porozumieniu z producentami (do najważniejszych takich parametrów, wymagających ujednolicenia metodologicznego, należy ślad węglowy). Baza ma być dostępna dla partnerów AB, aby ułatwić im rapor-
Mariusz Kochański, CEO, Exclusive Networks Poland
Kodeks
Dobrych Praktyk Partnerskich
Ambasador 2024
towanie dzięki dostępowi do „danych ESG” dla konkretnych produktów.
– Jak pokazuje doświadczenie, wprowadzane zmiany wymagają czasu, w trakcie którego wykształcą się dobre praktyki i standardy tworzenia i publikacji raportów ESG, w tym również samego procesu audytu – mówi Zdzisław Jakubowski, Circular Economy Business Development Manager w Grupie AB.
Jesteśmy właśnie na etapie wdrażania strategii zrównoważonego rozwoju na lata 2024–2030. Obejmuje ona usprawnienie naszych działań, współpracę z łańcuchem dostaw i pomoc w rozwoju ekosystemu cyfrowego jako całości. Co ważne, u jej podstaw leży zaangażowanie w pielęgnowanie i ochronę cybersecurity. W tym duchu szkolimy kolejne pokolenie ekspertów ds. cyberbezpieczeństwa, zapewniając kompleksowe programy treningowe i rozwojowe w ramach Exclusive Academy i Compendium Centrum Edukacyjne. Inwestujemy również w rozwój osobisty naszych pracowników, poprzez ukierunkowane szkolenia z zakresu cyberbezpieczeństwa, zrównoważonego rozwoju i przywództwa. Nasza strategia jest zgodna z międzynarodowymi dokumentami, dotyczącymi zrównoważonego rozwoju, takimi jak Global Reporting Initiative (GRI), The United Nations Sustainable Development Goals (SDGs), Sustainability Accounting Standards Board (SASB) czy Corporate Sustainability Reporting Directive (CSRD). Jeśli zaś chodzi o samą dyrektywę CSRD, to postrzegam ją jako szansę na poprawę zarządzania zrównoważonym rozwojem i powiązanych z nim procesów. W Exclusive Networks mamy prostsze zadanie, bo specjalizujemy się w rozwiązaniach cyberbezpieczeństwa, które charakteryzują się wysokim udziałem produktów niematerialnych – licencji czy odnowień, a także usług, które nie wymagają transportu. Dodatkowo dyrektywa mobilizuje nas do optymalizacji procesów operacyjnych i zarządczych, w tym poprzez ograniczenie podróży służbowych na rzecz wideokonferencji.
Gruszek w popiele nie zasypia również Exclusive Networks, które stworzyło globalne stanowisko – Sustainability Senior Managera, który kieruje inicjatywami z zakresu zrównoważonego rozwoju: od raportowania, benchmarkingu i ujawniania informacji publicznych, po zaangażowanie i umożliwienie pracownikom rozwoju w obszarze ESG.
Zdzisław Jakubowski, Circular Economy Business Development Manager, Grupa AB
– Nasz menedżer ds. zrównoważonego rozwoju uczestniczy w dyskusjach GTDC na temat przejrzystości danych ESG. Na razie uzgodniono wstępny model danych, zbudowano bazę danych zrównoważonego rozwoju i zidentyfikowano potrzebę większej harmonizacji. Obecna baza koncentruje się na komputerach PC, serwerach, notebookach i monitorach, ale w przyszłości jej zakres zostanie rozszerzony o bardziej zaawansowany sprzęt, zapewniający ochronę przed cyberzagrożeniami – podsumowuje Mariusz Kochański, CEO Exclusive Networks Poland.
Opracował Tomasz Gołębiowski n
Regulacje ESG mogą stanowić szansę, jak i zagrożenie dla rozwoju danej firmy w zależności od jakości implementacji po stronie takiego przedsiębiorcy, jak i działań regulatora. Szansą jest budowanie zaufania klientów i partnerów biznesowych. Większa dostępność danych ESG może być wykorzystana do rozbudowy metodologii scoringów ESG i szerszego ich wykorzystania do ustalania kosztów i możliwości finansowania. Lepszy scoring ESG to także sygnał dla inwestorów o zmniejszonym ryzyku zaangażowania kapitałowego w dane przedsiębiorstwo, a także mniejszym ryzyku reputacyjnym i regulacyjnym. Przedsiębiorstwa mogą wykorzystać swoje projekty dekarbonizacyjne i zaangażowanie w ESG jako element marketingu i brandingu, promując swoje produkty i usługi jako bardziej zrównoważone pod względem kwestii środowiskowych. Procesy optymalizacyjne realizowane w ramach przygotowywania i wdrażania regulacji, mogą przynieść oszczędności na poziomie zużywanych zasobów i energii oraz redukcję generowanych odpadów. Stopień złożoności i czasochłonności raportowania może jednak generować dodatkowe koszty związane z zaangażowaniem pracowników oraz koszty usług doradczych. Wydatki pojawią się także na poziomie edukacji pracowników, szczególnie w większych organizacjach. Przekrojowość raportowania będzie oznaczać potencjalną konieczność posiadania narzędzi IT służących do zbierania danych. Dodatkowe koszty mogą poza tym pojawiać się cyklicznie, jak chociażby koszty audytów. Wyzwaniem jest również raportowanie śladu węglowego we wszystkich kategoriach z zakresu trzeciego (na potrzeby obowiązkowego raportowania w sprawozdaniach z działalności ślad węglowy oblicza się w trzech zakresach, dobieranych w zależności od celu obliczania śladu węglowego przez daną firmę – przyp. red.).
Coraz więcej obserwatorów sektora edukacji oraz innowacji, zadaje sobie pytanie: jak to możliwe, że światowa montownia stała się światowym laboratorium wiedzy?
n Albert Borowiecki, Instytut Badań Chin Współczesnych
WNature Index 2023 Science Cities na pierwszym miejscu figuruje Pekin, na drugim jest Nowy Jork, a „podium” zamyka Szanghaj. W pierwszej dziesiątce jest pięć miast chińskich, a w kolejnej również pięć, czyli w „top 20” równo połowa miast to te z Chin. Dla porównania: w tej czołowej dwudziestce jest tylko jedno miasto z Unii Europejskiej – Paryż, na miejscu jedenastym.
W innym rankingu, opracowanym przez Australian Strategic Policy Institute, zdefiniowano 44 kluczowe technologie, przy czym Chiny przodują w 37 z nich. W przypadku ośmiu technologii Państwo Środka ma wręcz szansę na ustanowienie monopolu. Dotyczy to między innymi nanomateriałów, technologii wodorowych, biologii syntetycznej i hipersoniki.
Kolejny raport – Science Citation Index – pokazał, że Chiny w 2022 r. miały największy wkład w wysokiej jakości badania podstawowe, po raz pierwszy wyprzedzając w tym rankingu USA. Potwierdzają to badania japońskiego National Institute of Science and Technology Policy, według których Państwo Środka jest liderem pierwszego procenta najczęściej cytowanych opracowań z badań naukowych, a tym samym całej tabeli.
li publikacje z 1411 uniwersytetów i szkół wyższych z całego świata z lat 2018–2021. Okazało się, że w pierwszej dziesiątce osiem miejsc zajmują uczelnie z Chin.
n Nic do ukrycia
Co trzeci chiński uczony pracujący w USA ma odczucie, że nie jest mile widziany w tym kraju.
I wreszcie zerknijmy do rankingu CWTS Leiden (Leiden University Center for Science and Technology Studies), którego autorzy przeanalizowa-
Nic dziwnego, że coraz więcej obserwatorów sektora edukacji oraz innowacji zadaje sobie pytanie: jak to możliwe, że światowa montownia stała się światowym laboratorium wiedzy? Typowych tłumaczeń, jakie regularnie pojawiają się w prasie głównego nurtu („Chińczycy wszystko kradną i niczego nie potrafią sami wynaleźć” oraz „to komunistyczna propaganda”), nie należy traktować poważnie. Musi zatem istnieć jakiś inny powód. I taki powód istnieje. I wcale nie jest tajny. A nawet został ogłoszony drukiem po angielsku w publikacji wydawnictwa Springer w 2011 r. Książeczka nosi tytuł „Large Research Infrastructures Development in China: A Roadmap to 2050”. To jedna z serii publikacji Chińskiej Akademii Nauk, która w 2008 r. przeprowadziła dogłębne badania nad kluczowymi dla rozwoju państwa osiemnastoma obszarami i dla każdego z nich opracowała plany rozwojowe do roku 2050. Plany te są przeglądane i aktualizowane co 2–3 lata i są podstawą do tworzenia chińskich planów 5-cio letnich w zakresie, w jakim dotykają one tych obszarów. „Large Research Infrastructures Development in China: A Roadmap to 2050”
jest właśnie jednym z takich planów. Na 150 stronach opisano dokładnie, czym są wielkie projekty infrastrukturalne w obszarze badań i rozwoju, określono cele i opracowano kamienie milowe dla krótko-, średnio- i długoterminowych planów w tym zakresie. Za najważniejsze dziedziny uznano fizykę cząstek elementarnych, fizykę nuklearną, astronomię, astronautykę, nauki przyrodnicze, biotechnologię, badania w zakresie zasobów naturalnych, środowiska i ekologii oraz platformy multidyscyplinarne. Do tych ostatnich zaliczono: promieniowanie synchrotronowe, lasery rentgenowskie na swobodnych elektronach, próżniowe promieniowanie ultrafioletowe, zaawansowane źródła neutronowe, platformy do badania ekstremalnych warunków fizycznych (ultraniskie temperatury w technologiach kwantowych, synteza nowych materiałów w wysokim ciśnieniu i wysokiej temperaturze, super szybkie i super mocne lasery, infrastruktura superkomputerów, zintegrowane platformy obrazowania (promie-
niowanie rentgenowskie, tomografia ECT i PET, rezonans magnetyczny, mikroskopia elektronowa, itp.), lasery wielkiej mocy oraz akceleratory wiązek jonowych.
Kolejne plany pięcioletnie w Chinach zawierały w sobie budowę ośrodków naukowo -badawczych z powyższej listy. To właśnie systematyczny i konsekwentny plan ich budowy i rozwoju doprowadził do tak znaczącego skoku ilościowego i jakościowego w badaniach i publikacjach naukowych z nimi związanych. Efekty widać w przytoczonych przeze mnie na początku artykułu statystykach. Warto zatem zadać sobie teraz pytanie: jak wygląda obecnie baza naukowa w Chinach? Poniżej przedstawiam listę wybranych ośrodków R&D.
n FAST (Five-hundredmeter Aperture Spherical Telescope)
Teleskop sferyczny z 500-metrową aperturą. To obecnie największy na świecie radioteleskop o pojedynczej czaszy. Jak
sama nazwa wskazuje, ma ona średnicę 500 metrów. Dla porównania słynny radioteleskop z Arecibo miał czaszę o średnicy 305 metrów i był trzy razy mniej wydajny niż FAST. Budowę rozpoczęto w 2011 r., a zakończono w 2016. Składa się z 4450 trójkątnych aluminiowych paneli, a do jego budowy wykorzystano naturalne zagłębienie w ziemi. Łączna waga wszystkich luster to 11 tysięcy ton. Aby zapewnić obszar ciszy radiowej wokół radioteleskopu przeprowadzono relokację około 9200 osób mieszkających w promieniu 5 km od czaszy anteny. I tu ciekawostka: koszty relokacji wyniosły 270 mln dol., podczas gdy sama budowa radioteleskopu – 180 mln dol. FAST może rejestrować sygnały radiowe w zakresie od 10 cm do 4,3 m. Do końca roku 2021 FATS odkrył ponad 500 nowych pulsarów, dostarczył kluczowych dowodów na istnienie nanohercowych fal grawitacyjnych i odkrył największą chmurę atomową w znanym nam wszechświecie (jest ona 20 razy większa niż nasza
Droga Mleczna). Przy jego pomocy stworzono także największy na świecie katalog źródeł neutralnego wodoru (HI) poza naszą galaktyką zawierający prawie 42 tysiące obiektów.
n LHAASO (Large High Observatory)
To umieszczony na wysokości 4410 metrów n.p.m. obiekt do badania promieniowania kosmicznego i gamma. Znajduje się na górze Haizi w hrabstwie Daocheng w prowincji Syczuan. Prace rozpoczęły się w 2015 r. i zakończyły w 2022. LHAASO zajmuje obszar 145 hektarów i składa się z dwóch typów detektorów – WCDA (wodny detektor Czerenkowa) i KM2 A. Ten pierwszy to trzy podziemne baseny wodne zajmujące w sumie 90 tys. mkw. Dwa z nich mają rozmiary 150 na 150 m, a trzeci 110 na 300 m. W sumie zawierają 350 tys. ton wody i umieszczono w nich 3120 detektorów wyposażonych w 6240 sensorów. KM2 A to z kolei 5635 detektorów cząstek elektromagnetycznych (ED) i 1221 detektorów mionów (MD). Każdy detektor ED to 16 liczników scyntylacyjnych.
Wszystko po to, aby obserwować i badać promieniowanie kosmiczne wysokich energii zarówno wewnątrz naszej galaktyki, jak i poza nią. Dotyczy to rozbłysków gamma, pozagalaktycznych krótkich sygnałów radiowych, blazarów i elektromagnetycznych odpowiedników fal grawitacyjnych. LHAASO opublikowało już pierwszy katalog zaobserwowanych źródeł promieniowania gamma. Zawiera on 90 obiektów VHE (bardzo wysokich energii), z czego 32 to nowo odkryte przez LHHASO i 43 obiekty UHE (ultra wysokich energii), zwiększając trzykrotnie liczbę takich znanych obiektów.
To z kolei podziemne obserwatorium neutrin w Jiangmen umieszczone na głębokości 700 metrów w Kaiping w prowincji Guangdong. Prace rozpoczęto w roku 2014 i zakończono w 2024. Jego zadanie to próba odpowiedzi na jedno
z najczęściej zadawanych pytań w fizyce cząsteczkowej o to, jak wygląda hierarchia mas neutrin, czyli które z neutrin ma największą masę. Detektor neutrin jest zanurzony w 35 tys. ton super czystej wody i posiada 40 tys. rejestratorów neutrin.
n BEPC II (Beijing ElectronPositron Collider II)
Pod tą nazwą kryje się zderzacz cząstek elektronowo-pozytonowy, znajdujący się w Pekinie i działający od 2008 r., o średnicy 240 m. Wykorzystywany do badań w fizyce wysokich energii i promieniowania synchrotronowego. Tylko w tym drugim obszarze dzięki eksperymentom przeprowadzanym w BEPC II stworzono ponad 2500 publikacji naukowych.
Tokamak)
Ten eksperymentalny, zaawansowany nadprzewodzący tokamak to „sztuczne słońce” zlokalizowane w Hefei (prowincja Anhui). Działa od 2006 r. i był to pierwszy tego typu obiekt na świecie. Służy do badań nad reaktorami termojądrowymi i jest znany z bicia kolejnych światowych rekordów. W 2017 r., jako pierwszy na świecie tokamak, pracował w trybie ciągłym przez 100 sekund w temperaturze 50 mln stopni Celsjusza. W 2018 r. osiągnął temperaturę plazmy 100 mln, zaś w roku 2021 to było już 120 mln. Z kolei w 2023 r. pracował w trybie ciągłym przez 403 sek.
To działający od 2009 r. szanghajski ośrodek promieniowania synchrotronowego, jeden z czterech największych na świecie. Przez kolejne lata jest sukcesywnie rozbudowywany, odgrywając ważną rolę w chińskich badaniach nad biologią strukturalną, ale również w fizyce, chemii, archeologii, medycynie oraz farmakologii. SSRF przyczynił się do powstania ponad 1900 publikacji naukowych.
Tak nazywa się ośrodek nuklearny na południowym wybrzeżu Chin, położony w odległości około 45 km na wschód od Shenzen. Działa od 2012 r. Składa się z sześciu reaktorów jądrowych pogrupowanych w trzy pary i trzech pomieszczeń z ośmioma detektorami antyneutrin w różnej odległości od reaktorów. Każdy detektor ma postać walca o wysokości 5 metrów i średnicy 5 metrów ważący 100 ton i zanurzony w basenie wodnym o wymiarach 16 x 10 x 10 metrów zawierającym 200 ton wody. DBRNE to jeden z pięciu największych kompleksów nuklearnych na świecie o mocy 17,4 GW. Podstawowym zadaniem ośrodka jest badanie oscylacji neutrin – przede wszystkim theta-13. Od 2012 do 2020 gromadzono dane z obserwacji, aby następnie poddać je analizie i na ich podstawie zaproponować nowe modele cząstek subatomowych.
Ośrodek badań nad silnymi polami magnetycznymi w Hefei (prowincja Anhui). Działa od 2008 r. Wykorzystuje solenoidy do wytwarzania jednorodnego pola magnetycznego. Znajduje to zastosowanie w fizyce, chemii, tworzeniu nowych materiałów, naukach przyrodniczych i inżynierii. W 2022 r. SHMFF udało się pobić rekord należący od 23 lat do Amerykanów i wygenerować pole o indukcji na poziomie 452 000 gausów (pole magnetyczne ziemi ma 0,5 gausa). Rekord pobity został „zaledwie” o 0,22 Tesli (45,22 versus 45,00), co pokazuje jak ogromnym wyzwaniem technologicznym jest uzyskiwanie wartości powyżej 45 Tesli.
n WFTS (Wide Field Survey Telescope)
Ten szerokokątny teleskop zbudowano w pobliżu miasteczka Lengu w prowincji Qinghai. Ma średnicę 2,5 m i robi zdjęcia w rozdzielczości 9k x 9k pikseli i jest największym tego typu ośrodkiem na półkuli północnej. Budowę rozpoczęto w 2017 r., a zakończono w 2023. Przeznaczony jest do obserwacji wybranych sektorów nieba przez określony czas w celu wychwycenia przejściowych zdarzeń astronomicznych, takich jak supernowe, rozerwania pływowe (TDE) lub astronomia wieloaspektowa (mutli-messenger astronomy).
n DURF (Deep Underground Facility)
Radioteleskop słoneczny Daocheng to największy tego typu obiekt na świecie.
To ośrodek zbudowany 2400 metrów pod ziemią do badania ciemnej materii, która według najnowszych teorii stanowi prawie 27 proc. wszechświata. Kolejne 68 proc. stanowi ciemna energia, a to co do tej pory udało się zbadać ludzkości (zwykła materia) to zaledwie niecałe 5 proc. znanego nam wszechświata. DURF znajduje się pod górą Jinping w autonomicznej prefekturze Liangshan Yi w prowincji Sichuan. Ma objętość 330 tys. metrów sześciennych i jest dwa razy większy od podobnego ośrodka we Włoszech. Tak duża warstwa skał i ziemi ma doskonale
filtrować większość promieniowania kosmicznego. Do laboratoriów DURF dociera zaledwie 0, 000001 proc. tego, co odbieranie jest na powierzchni ziemi.
n DSRT (Daocheng Solar Radio Telescope)
Radioteleskop słoneczny Daocheng to największy tego typu obiekt na świecie. Składa się z 313 czasz, każda o średnicy 6 metrów tworzących razem krąg o średnicy 3,14 kilometra. Wewnątrz kręgu znajduje się 100-metrowa wieża kalibracyjna. Znajduje się w powiecie Daocheng w prowincji Sichuan. Jego podstawowym celem jest ciągłe monitorowanie aktywności słonecznej i obserwowanie rozbłysków słonecznych, koronalnych wyrzutów masy. Drugie zadanie to monitorowanie pulsarów oraz śledzenia planetoid. DSRT to część większego projektu Meridian, którego celem jest obserwowanie „pogody kosmicznej” w pobliżu Ziemi. Cały system będzie się składał z trzydziestu jeden stacji monitorujących Słońce umieszczonych w różnych miejscach w Chinach. Budowa DRST trwała od 2021 do 2022 r., a obiekt rozpoczął działanie w czerwcu 2023 r.
n HEPS (High Energy Proton Source)
To z kolei źródło emisji fotonów o wielkiej energii. Budowę rozpoczęto w 2019 r., a otwarcie planowane jest na rok 2025. Znajduje się w Huairou Science City (dzielnicy Pekinu). Z lotu ptaka przypomina nieco szkło powiększające, co ma symbolizować jego wkład w rozwój nauki. To pierwszy tego typu obiekt w Chinach, całej Azji i zarazem największy na
świecie. Jego średnica to 1360 m, a wewnątrz umieszczono ponad 1700 magnesów. Wiązka generowana w HEPS będzie bilion razy jaśniejsza niż ta ze Słońca.
n
TianMu Time-domain Array)
To jedyny z przytaczanych przeze mnie projektów realizowany poza granicami Chin – na biegunie południowym. Obserwatorium składa się ze 100 teleskopów o niewielkich czaszach i przeznaczone jest do ciągłych obserwacji nieba podczas nocy polarnych. Wykorzystuje ono technologię drift-scanning, która pozwala na obserwację ruchu ciał niebieskich bez konieczności obracania czaszy teleskopu.
n
(amerykańska) ustawa Wolf Amendment z 2011 r.
Oczywiście można argumentować, że stal i beton to nie wszystko. Potrzebni są jeszcze ludzie, którzy będą potrafili z tych urządzeń i laboratoriów korzystać. Jednakże i na tym polu Chiny mają dość imponujące osiągnięcia. W 2020 r. tamtejsze kierunki STEM (Science, Technology, Engineering, Mathematics) ukończyło prawie 3,6 miliona studentów. Dla porównania w USA liczba takich osób wyniosła 820 tys.
Chiny stawiają bardzo mocno na badania podstawowe.
Powyższa lista zawiera jedynie wybrane projekty z wielu wielkich państwowych inwestycji Pekinu w badania i rozwój. Do tego dochodzi jeszcze około 500 kluczowych ośrodków badawczych – SKL (State Key Labs) odpowiedzialnych za prowadzenie badań i wdrożeń w takich obszarach jak biologia, chemia, inżynieria, informatyka, nowe materiały i fizyka. Widać wyraźnie, ze Chiny stawiają bardzo mocno na badania podstawowe. Warto też podkreślić, że wszystkie one otwarte są na współpracę międzynarodową i we wszystkich pracują naukowcy z całego świata – może z wyjątkiem sektora kosmicznego, w którym współpracy naukowcom z USA zabrania niesławna
W pewnym stopniu rozwojowi nauki chińskiej pomaga też postawa Stanów Zjednoczonych. Formalnie (ale tylko formalnie) zakończony program China Inititative uruchomiony przez amerykański Departament Sprawiedliwości w 2018 r. przyczynił się do nagonki na chińskich i chińskiego pochodzenia naukowców pracujących na wyższych uczelniach w USA. Przypomina to najlepsze (najgorsze?) czasy tzw. makkartyzmu. Ostatnie badania wskazują, że 30 proc. chińskich uczonych pracujących w USA ma odczucie, że nie jest mile wdziana w tym kraju. Analiza ponad 200 mln prac naukowych pokazała również, że spora grupa uczonych wróciła z USA do Chin. Mają tam do dyspozycji doskonale wyposażone laboratoria i wyszkolony personel. Do tego wszystkiego można by też dołożyć zagraniczne centra badań i rozwoju, które też przecież (zatrudniając Chińczyków) przyczyniają się do wzrostu poziomu wiedzy w Chinach. W samym Szanghaju jest ich 531, w Pekinie zaś 107… n
Choć informacja, często nazywana paliwem XXI wieku, stanowi nieocenioną wartość dla biznesu, to jednak nie ma nic za darmo. Firmy mają coraz większe trudności z jej ochroną, przetwarzaniem oraz przechowywaniem.
Firmy oraz instytucje toczą zaciekłą walkę z gangami ransomware. Niestety, zazwyczaj górą w tej rywalizacji są cyberprzestępcy. Według raportu Mandiant, spółki zależnej Google, ubiegły rok był rekordowy pod względem zapłaconych gangom ransomware okupów. W sumie przestępcy zgarnęli ponad miliard dolarów – i to tylko płatności, o których wiemy. Natomiast w tym roku ThreatLabz odkrył ofiarę, która zapłaciła gangowi ransomware 75 mln dol. To największa publicznie ujawniona kwota okupu i nie ulega wątpliwości, że to swoiste osiągnięcie przyciągnie zainteresowanie innych gangów, chętnych do powtórzenia sukcesu kolegów po fachu. Warto w tym miejscu dodać, że według danych IBM średni koszt naruszenia oprogramowania ransomware sięga 5,13 mln dol., a przeciętny czas unieruchomienia firmy po ataku wynosi 22 dni.
Za chmurę
Oxide płaci się z góry.
i baz danych, jak też wyszukiwanie wzorców uszkodzenia danych wskazujących na oprogramowanie ransomware. Index Engines oferuje system CyberSense, stale monitorujący firmowe dane i sprawdzający ich integralność. Rozwiązanie wykorzystuje silnik analityczny, bazujący na sztucznej inteligencji, zaprojektowany do wykrywania uszkodzeń danych i zagrożeń ransomware. Cyber Sense ocenia całą zawartość plików o krytycznym znaczeniu, a nie wyłącznie metadane. Na szczególną uwagę zasługuje fakt, że Index Engines zapewnia 99,5 proc. SLA (Service Level Agreement). To unikalne podejście ma umożliwić szybkie i łatwe odzyskiwanie danych po atakach ransomware, bez utraty danych i konieczności płacenia wysokiego okupu. Użytkownicy Cyber Sense płacą przy tym za pojemność analizowanych zasobów.
– Napastnicy bardzo dobrze radzą sobie z zabezpieczeniami, więc solidna strategia odzyskiwania danych po ataku staje się najważniejsza. Przy takiej intensyfikacji incydentów priorytetem staje się zarządzanie odpowiedzialnością cybernetyczną, a samo tworzenie kopii zapasowych nie wystarczy. Choć trzeba mieć możliwość odzyskiwania, to kluczowa jest integralność danych. Musisz wiedzieć, że są one wiarygodne – tłumaczy Jim McGann, Vice President of Marketing & Business Development w Index Engines. Integralność danych wymaga analizy treści, obejmującej ciągłą inspekcję plików
CyberSense jest sprzedawany w ramach strategicznych partnerstw z Dellem, IBM-em oraz firmą Infinidat. Wkrótce do tej trójki ma dołączyć kolejnych pięciu partnerów, a wsród nich mają się znaleźć między innymi dostawcy pamięci masowych. Jim McGann rozważa rozszerzenie kanału sprzedaży o integratorów, a także dostawców usług zarządzanych, co pomogłoby zwiększyć bazę pozyskiwanych klientów. Index Engines, działający od dwóch dekad, obsługuje około 1400 organizacji.
Komputer w chmurze
Już niejedna firma próbowała wcielić w życie koncepcję prywatnego centrum danych
n Wojciech Urbanek
podobnego do chmury. Takie rozwiązanie ma przejąć to, co najlepsze, od AWS-u czy Microsoftu, jednocześnie pozbywając się największych mankamentów chmury publicznej. Takie próby podejmowali już Dell, HPE, przy czym warto też wspomnieć o takich projektach jak OpenStack czy Mesosphere. Do tego grona dołączył startup Oxide Computer Company, utworzony w 2019 r. przez dwóch weteranów z branży IT: Steve’a Tucka oraz Bryana Cantrilla, którzy przez ponad dwie dekady pracowali dla Della, Sun Microsystems oraz Joyenta (ostatnia z wymienionych firm została przejęta przez Samsunga w 2016 r.). Obaj zajęli się próbą rozwiązania fundamentalnego problemu, jakim jest postrzeganie przez firmy chmury publicznej. Większość organizacji patrzy na nią jako miejsce docelowe, a nie zasoby, które można umieścić we własnym lub czyimś centrum danych.
Założyciele Oxide Computer Company patrzą bardzo krytycznie na tradycyjne centra danych. Ich zdaniem tworzą one rozdrobniony ekosystem, co wiąże się z wieloma wyzwaniami związanymi z integracją, barierami wydajnościowymi, lukami w zabezpieczeniach, a także utrudnieniami dla programistów. Panaceum na powyższe bolączki ma być prywatne centrum danych opracowane przez Oxide Computer Company. Koncepcja zakłada podobny do chmury publicznej system łączący sprzęt, oprogramowanie i sieci w zunifikowaną platformę zaprojektowaną z myślą o uzyskaniu maksymalnej wydajności, bezpieczeństwie i przyjaznym charakterze dla developerów.
Startup traktuje całe centrum danych jako ujednolicony „komputer w chmurze”, skupiając się wokół trzech kluczowych filarów: konstrukcji sprzętowej na poziomie szafy rack, oprogramowania i zunifikowanej sieci.
I tak, zamiast korzystać z tradycyjnych serwerów, Oxide Computer Company opracował wyspecjalizowany sprzęt na poziomie szafy rack dostosowanej do maksymalnej integracji i wydajności w całym centrum danych. Ten kompleksowy projekt ma na celu poprawić dwukrotnie wydajność w porównaniu z tradycyjnymi konfiguracjami. Platforma sprzętowa posiada dynamiczny system zarządzania energią, usprawnioną konstrukcję przepływu powietrza i możliwości telemetryczne. System bazuje na oprogramowaniu open source, dzięki czemu użytkownicy nie są skazani na ekosystem jednego dostawcy i mogą być pewni, że oprogramowanie będzie stale aktualizowane, ulepszane i poprawiane. Usługi Oxide Cloud są oferowane w tradycyjnym modelu sprzedażowym, gdzie klient płaci z góry za produkt.
Odważna koncepcja startupu idzie z duchem popularnej zasady „zrobić więcej za mniej”. Oxide Computer Company chce to uzyskać poprzez dostarczenie zintegrowanej architektury centrum danych, lepiej wykorzystującej zasoby niż konkurencyjne rozwiązania, a tym samym ograniczającej koszty.
Infrastruktura pamięci masowaj odgrywa ważną rolę we wspieraniu pracy z modela-
mi sztucznej inteligencji i uczenia maszynowego. Obecnie niemal każdy liczący się producent, który działa w tej branży, stara się przystosować swoje rozwiązania do obsługi dużych obciążeń. Dla niektórych jest to spore wyzwanie, ale inni – jak chociażby Data Direct Networks (DDN) – mają na tym polu spore doświadczenie. Ten amerykański producent już od kilkunastu lat projektuje, rozwija i wdraża systemy macierzowe dla organizacji z całego świata, zgłaszających zapotrzebowanie nie tylko na ogromne powierzchnie dyskowe, ale również duże moce obliczeniowe oraz wysoką wydajność. Dlatego wejście w tryb sztucznej inteligencji nie było dla inżynierów z DDN zbyt wielkim wyzwaniem. Firmy mają różne oczekiwania wobec pamięci masowych. W przypadku dużych modeli językowych (LLM) potrzeba petabajtów danych, ale już dla wnioskowania wymagania w zakresie powierzchni dyskowej są znacznie skromniejsze. DDN celuje przede wszystkim w pierwszą z wymienionych grup. Najbardziej wydajne systemy amerykańskiego producenta, mieszczące się w urządzeniu 2U, osiągają prędkości zapisu 120 GB/s i 75 GB/s przy odczycie.
Firmy mają różne oczekiwania wobec pamięci masowych.
pliki. Obecnie rynek dąży do dostarczania wydajności w wielu wektorach. DDN ze swoimi produktami wpisuje się w ten trend. Jak się łatwo domyślić firmę łączą bliskie relacje z Nvidią, a o tym, że współpraca kwitnie świadczy liczba 250 tys. procesorów graficznych DGX/HGX wdrożonych w systemach DDN. Warto dodać, że nad rozwojem systemów DDN pracuje 6,6 tys. inżynierów. Choć amerykański producent koncentruje się głównie na opracowywaniu wydajnych maszyn obsługujących wielkie zbiory danych, to nie zamyka się na inne rozwiązania. DDN w 2018 r. przejął firmę Tintri, dostawcę macierzy all-flash zaprojektowanych do pracy w środowiskach wirtualnych. W międzyczasie firma rozszerzyła możliwości produktu o obsługę kontenerów, najpierw dzięki integracji z VMware Tanzu, a kolejnym krokiem było włączenie sterownika CSI (Container Storage Interface), co pozwala na zarządzanie macierzą za pomocą Kubernetesa.
W przeszłości obciążenia były kategoryzowane jako odczyt lub zapis, losowe bądź sekwencyjne, a także jako duże bądź małe
Pod koniec ubiegłego roku firma wprowadziła na rynek oprogramowanie Infinia do przechowywania obiektów, zaprojektowane od podstaw dla środowisk sztucznej inteligencji i chmury, jak też zoptymalizowane pod kątem dysków flash. Systemami węzłów może być w tym przypadku dowolny serwer Intel, Arm lub AMD wyposażony w dyski flash – różnych rodzajów pamięci (TLC, QLC czy PLC). Infinia może być użyta do zbudowania magazynu obiektów, hurtowni danych lub jeziora danych. n
Począwszy od aktywności na arenie międzynarodowej, poprzez specjalizację branżową, po pilne potrzeby edukacyjne i infrastrukturalne. Tak wygląda lista kluczowych obszarów, które powinna wziąć pod uwagę Polska w tworzeniu strategii rozwoju AI.
Wkontekście globalnego wyścigu w dziedzinie sztucznej inteligencji, Polska stoi przed znaczącymi wyzwaniami i możliwościami. Rozwój AI w naszym kraju wymaga nie tylko formułowania strategii, ale też głębokiego zrozumienia i odpowiedzi na złożone wyzwania technologiczne, społeczne i etyczne. W tym zakresie istotne jest kompleksowe podejście do planowania przyszłości AI w Polsce. Opierając się na najnowszym odcinku podcastu „Szerszy kontekst AI” tworzonego przez IDEAS NCBR, przedstawiamy kilka kluczowych obszarów, które powinny być szczegółowo przeanalizowane i rozwijane w taki sposób, aby polska strategia AI była efektywna i zrównoważona. Odpowiednia realizacja tych elementów będzie procesem długotrwałym, wymagającym stałego dialogu, adaptacji i zaangażowania na wielu poziomach zarządzania i ekspertyzy.
Współpraca z przemysłem i bliskość zastosowań jest kluczowa w rozwoju AI. W Polsce do mocno rozwiniętych gałęzi przemysłu należą rolnictwo i leśnictwo. I to w rozwiązaniach AI dla tych branż powinniśmy się specjalizować. W jakich jeszcze obszarach mamy szansę na sukces? Ze względu na nasze położenie na mapie Europy i sytuację polityczną - w obronności.
Rzecz jasna, żeby takie rozwiązania AI powstawały, potrzebujemy dostępu do infrastruktury. W tej chwili polskie klastry obliczeniowe, dostępne dla uczelni, dysponują jedynie od 100 do kilkuset kart w każdym klastrze. Dla porównania, czołowe firmy IT, takie jak Meta, Google czy OpenAI posiadają setki tysięcy jednostek H100, kluczowych w trenowaniu modeli AI. Kraje takie jak Szwajcaria, Wielka Brytania i Francja już budują klastry z kilkoma tysiącami kart. Tymczasem w Polsce nadal rozważa się, czy powinniśmy zbudować podobną infrastrukturę, czy lepiej jest wykupić dostęp na poziomie krajowym i odpowiednio go dystrybuować.
W pierwszym Globalnym Szczycie Bezpieczeństwa AI, który odbył się w listopadzie ub. r. w Londynie, nie wziął udziału żaden przedstawiciel z Polski. Nie powinniśmy dopuszczać do takich sytuacji. Głos Polski w kontekście rozwoju AI na terenie UE czy na arenie światowej powinien być słyszany. A żeby tak się stało, musimy wykształcić ekspertów w interdyscyplinarnych aspektach zastosowania sztucznej inteligencji, którzy będą w stanie brać udział w dyskusjach na poziomie krajowym, w UE, jak i na poziomie ONZ. Często będą to pytania etyczne, prawne czy psychologiczne, np. jakie jest nasze stanowisko czy pomysł na wygląd i działanie interfejsów mózg-maszyna?
Dostosujmy modele AI do nas
Problemem, z którym boryka się Polska i reszta Europy, jest brak modeli AI dostosowanych do naszej kultury, języka, wartości prawnych i lokalnych aspektów życia – w naszym przypadku: do „polskości”. Używając tylko modeli zewnętrznych, będziemy czuć się zmuszeni, by nasze zachowania dostosowywać do wartości, które reprezentują te modele.
W pierwszym
Innym czynnikiem, który wpływa na światową „widoczność” Polski jest opracowanie innowacji systemowych, które będą stanowiły wzór dla reszty Europy, a nawet świata. Przy czym takie inicjatywy już mają miejsce. Możemy pochwalić się polskim programem doktorskim dotyczącym AI, który jest podawany jako wzór w Europie. Jest jednym z pierwszych takich programów, jeżeli nie pierwszym, działającym na poziomie krajowym. W tym roku podobny program uruchomiła Finlandia. O tym, żeby stworzyć coś podobnego dyskutują również Niemcy i Francja. Dostajemy ponadto nieformalne pytania ze Słowacji i Czech, których autorzy chcą wiedzieć, jak to zrobić.
Globalnym Szczycie
Bezpieczeństwa AI zabrakło Polaków.
Jeżeli w przyszłości na przykład Chiny zdominują rozwój AI, będziemy używać modelu chińskiego, który będzie promował inne wzorce kulturowe. Istnieje ogromne ryzyko, że ludzie po prostu zaczną się do nich dostosowywać. Interakcja między sztuczną inteligencją, robotami i technologią zawsze działa w dwie strony. Z jednej strony, staramy się tę technikę dostosować tak, żeby realizowała nasze potrzeby, ale z drugiej strony, jeżeli ona ma pewne ograniczenia, to my się zaczynamy dostosowywać do niej.
Rozwijajmy wsparcie instytucjonalne
Polska nie nadąża w rozwoju AI w zakresie sprzętu czy wystarczającego wsparcia systemowego. Tzw. sciencepreneurship to
wspieranie przejścia naukowców do świata biznesu i tworzenia innowacyjnych przedsiębiorstw. Warto wziąć przykład ze Szwajcarii, która nie tylko zainwestowała w sprzęt, ale też rozumie, jak wspierać naukowców, którzy chcą założyć firmy. Szwajcaria jasno mówi o tym, że to jest dla niej priorytetem.
AI zmienia różne dziedziny naszego życia i byłoby straconą okazją dla Polski, gdybyśmy nie podążali za trendem jej rozwoju. Naszym obowiązkiem jako kraju jest uczestniczenie w tworzeniu tej technologii. Najważniejsze jest, żebyśmy mieli osoby, które są kompetentne w tej dziedzinie, bo bez tego nic nie zrobimy. Zapewnienie finansowania na poziomie doktorantów, finansowanie na poziomie badań podstawowych na uczelniach, zapewnienie dostępu do infrastruktury to są kluczowe kwestie, żeby mieć specjalistów AI.
Wprowadzenie regulacji AI Act już teraz rodzi obawy przed zatrzymaniem rozwoju sztucznej inteligencji. I choć to działanie niezbędne, w kontekście wytrenowanych modeli jest zagadnieniem trudnym – istnieje ryzyko „przeregulowania” prawa, które może znacznie utrudnić pracę badaczom. Dlatego też wraz z wprowadzeniem w życie regulacji, powinien wejść w życie europejski (lub polski) program wsparcia i rozwoju AI, który miałby szansę przeciwdziałać negatywnym zjawiskom związanym z wprowadzeniem niezbędnych ograniczeń.
Problemy, który występują w Europie, a nie w Stanach Zjednoczonych, rodzi chociażby prawo autorskie, które może spowolnić rozwój nie tylko między innymi, ale zwłaszcza modeli językowych. W Europie prawo autorskie bazuje na licencjach, w związku z tym nie możemy trenować modeli AI na danych dostępnych w internecie – potrzebne jest pozyskiwanie zbiorów danych od firm czy instytucji publicznych.
Jak wynika z raportów OPI, struktura polskiej nauki różni się od sytuacji w innych krajach. Na świecie prowadzi się o wiele więcej badań z zakresu STEM, biologii czy medycyny, natomiast w Polsce dominują kierunki humanistyczne czy społeczne. W związku z tym niezbędne jest ustalenie, które kierunki są strategiczne i gdzie należy je wzmocnić, skupiając się szczególnie na czołowych uczelniach i ośrodkach naukowych. Problemem jest też brak kadry i luka pokoleniowa wśród wykładowców we wszystkich dziedzinach nauki w Polsce. W informatyce ta przepaść jest gigantyczna. Wystarczy, że dwie, trzy osoby znikną z uczelni i będzie duży problem, żeby skompletować obsadę na studia. Na razie dajemy sobie radę, ale nie mamy poczucia stabilności. W Polsce nigdy nie powstała konkretna strategia kształcenia kadr dla nauki. Cały proces takiego kształcenia trwa ok. 20 lat. Jest to działanie kompleksowe. A my działamy zwykle „z doskoku”. Uruchamiamy przypadkowe studia, na uczelniach i przypadkowym poziomie edukacji. Powinniśmy opracować taki proces kształcenia, który sprawi, że przyszła kadra rzeczywiście
będzie miała jasną ścieżkę kariery i realne możliwości, żeby prowadzić badania czy tworzyć innowacje, np. AI.
Zmiany związane z wprowadzeniem rozwiązań AI dotkną prędzej czy później również te dziedziny, których tradycyjnie nie kojarzymy z AI. Dlatego potrzebne jest nowe spojrzenie na edukację, już na etapie szkół podstawowych i średnich, ażeby kolejne pokolenia były przygotowane na rewolucję AI. Naszym zdaniem powinno tam być więcej statystyki. Teraz w zasadzie na każdym kierunku studiów, czy to będzie medycyna, socjologia, czy marketing, znajomość podstawowych narzędzi statystycznych będzie obowiązkowa i im szybciej zaczniemy uczyć tego w szkołach, oczywiście na odpowiednim poziomie, z odpowiednią podstawą programową, tym lepiej z punktu widzenia całego społeczeństwa.
Dr hab. Piotr Sankowski
jest prof. Uniwersytetu Warszawskiego, prezesem IDEAS NCBR, informatykiem specjalizującym się w algorytmach.
Dr hab. Marek Cygan
jest prof. Uniwersytetu Warszawskiego, współzałożycielem Nomagic, informatykiem specjalizującym się w algorytmach i członkiem zespołu doradczego ds. AI przy Ministerstwie Cyfryzacji.
„Nie ma satysfakcjonujących nas gotowych rozwiązań. A jako że kluczowe dla Straży
Granicznej systemy nie mają odpowiednika na rynku, podjęliśmy strategiczną decyzję, że
będziemy je robić własnymi siłami” – mówi pułkownik Mariusz Kijowski, dyrektor Biura
Łączności i Informatyki Komendy Głównej Straży Granicznej.
Zgodnie z ustawą Straż Graniczna jest formacją przeznaczoną do ochrony granicy państwowej, kontroli ruchu granicznego oraz zapobiegania i przeciwdziałania nielegalnej migracji. Jaką rolę odgrywają w tym informatycy?
Mariusz Kijowski Operacyjne funkcjonowanie Straży Granicznej w realizacji jej ustawowych zadań jest w dużej mierze uzależnione od dostępności usług IT. Podstawowe wyposażenie funkcjonariusza w trakcie odprawy granicznej czy legitymowania podróżnych to sprzęt informatyczny – tablet, skaner linii papilarnych, czytnik dokumentów, jak też kamera do robienia zdjęć na żywo. Jako formacja nie jesteśmy w stanie właściwie funkcjonować bez dostępu do danych, a co za tym idzie i bez dostępu do sieci. Nasze systemy muszą działać całą dobę, bez przerwy, w każdych warunkach, a odpowiedzi na kierowane do nich zapytania muszą być szybkie. Brak informacji może bowiem oznaczać brak podstaw do podjęcia przez funkcjonariusza odpowiedniej decyzji.
Z jakich systemów informatycznych korzystają funkcjonariusze Straży Granicznej?
Systemy informatyczne wspierające zadania ustawowe są dostępne na platformie Centralnych Systemów Informatycznych SG (CSI SG) w postaci kilkudziesięciu modułów. Podstawą jest system odpraw granicznych ZSE6, inaczej Zintegrowany System Ewidencji. W czasie przeprowadzanej odprawy podejmowane są decyzje, w tym decyzje administracyjne, w wyniku których uruchamiane są właściwe moduły. Dostęp do systemu jest możliwy z używanych przez funkcjona-
riuszy urządzeń certyfikowanych przez Biuro Łączności i Informatyki. Urządzenia te, jak na przykład tablety, muszą spełniać określone wymagania: muszą być odporne na pył, niską i wysoką temperaturę, na wodę. Kontrolę trzeba móc przeprowadzić w każdym miejscu, w każdych warunkach i o każdej porze doby. Straż Graniczna działa na terenie całego kraju, nie tylko przy granicy.
Czy wszystkie potrzebne strażnikom granicznym informacje znajdują się w tym jednym, zintegrowanym systemie, czy też pobierane są za jego pośrednictwem również z innych, zewnętrznych baz danych?
Pełniący służbę funkcjonariusz może mieć dostęp do kilkunastu baz danych, zarówno wewnętrznych, jak i krajowych. Dotyczy to też systemów unijnych, w tym SIS, czyli Systemu Informacyjnego Schengen, bądź VIS – Wizowego Systemu Informacyjnego oraz Interpolu. Dostęp do baz danych odbywa się z jednego zintegrowanego systemu w ramach CSI SG. Funkcjonariusz po dwóch – trzech sekundach od zadania pytania dostaje komplet informacji o danej osobie, jej dokumentach, czy też o pojeździe, którym się porusza. Bez tych informacji trudno by było podejmować właściwe decyzje wobec podróżnych i zapewnić im bezpieczny i swobodny przepływ. Funkcjonariusz poprzez system ZSE6 ma możliwość weryfikacji kilkudziesięciu parametrów dotyczących osób i dokumentów dostarczanych z kilkunastu baz danych. Algorytmy odpowiedzialne za dostarczanie danych funkcjonariuszowi zostały zoptymalizowane przez nasz zespół programistyczny.
A w jaki sposób, w związku z istnieniem strefy Schengen, odbywa się wymiana i integracja danych na poziomie Unii Europejskiej?
Wszystkie państwa członkowskie mają dostęp do wspomnianych już przeze mnie systemów SIS i VIS. Obecnie budowany jest, przeznaczony dla administracji rządowej, europejski system kontroli wjazdu i wyjazdu EES – Entry/Exit System. Jego uruchomienie planowane jest w tym roku. W Polsce to właśnie Straż Graniczna jest wykonawcą krajowego komponentu. Swoje miejsce w jego tworzeniu mają także polscy przedsiębiorcy – na przykład polska firma dostarcza urządzenia do robienia zdjęć w przejściach lotniczych. W każdym razie EES to jeden z tzw. wielkoskalowych systemów unijnych, podobnie jak SIS czy VIS. Oprócz niego powstają w tej chwili jeszcze dwa inne.
Jeżeli Biuro Łączności i Informatyki Straży Granicznej tworzy polską część systemu dla całej administracji rządowej, to musicie dysponować odpowiednimi specjalistami. Jak liczny jest zespół informatyków i ilu jest w nim programistów? W 2012 roku zapadła strategiczna decyzja, że kluczowe dla nas systemy będziemy robić własnymi siłami, korzystając z umiejętności inżynierów SG, gdyż na rynku nie ma satysfakcjonujących nas gotowych rozwiązań. Kluczowe dla Straży Granicznej systemy nie mają w zasadzie odpowiednika na rynku. Pierwszym takim w całości stworzonym przez nas systemem był wspomniany już, oddany do użytku jesienią 2014 roku i funkcjonujący do dzisiaj, system odpraw granicznych ZSE6. Nasz dział liczy blisko 170 osób, z czego Fot.
PUŁKOWNIK SG MARIUSZ KIJOWSKI
- absolwent wydziału cybernetyki Wojskowej Akademii Technicznej, stały członek Rady Programowej Akademii Zarządzania IT Administracji Publicznej. W 2014 r. opracował i wdrożył projekt systemu ochrony przed zagrożeniami z cyberprzestrzeni. Lider wdrożenia w Polsce systemów wielkoskalowych Entry – Exit, ETIAS, narzędzi interoperacyjności oraz Krajowego Systemu Informatycznego PNR. Współautor koncepcji budowy i rozwoju Centralnych Systemów Informatycznych Straży Granicznej siłami własnymi.
ponad 30 to developerzy i analitycy oraz kilkudziesięciu inżynierów odpowiedzialnych za rozwój i utrzymanie infrastruktury teleinformatycznej w całej Straży Granicznej.
Czego konkretnie będzie dotyczył tworzony Entry/Exit System?
Każdy cudzoziemiec wjeżdżający do Unii Europejskiej na pobyt krótkoterminowy ma być rejestrowany poprzez dane z dokumentów oraz przez dane biometryczne. W nowym systemie cudzoziemcowi przekraczającemu granicę UE będzie zakładany indywidualny rejestr cudzoziemca – tam będą trafiać zdjęcia, odciski palców i inne dane osobowe. Przy pierwszym wjeździe będzie wykonywane zdjęcie i będą pobierane odciski czterech palców. Przy następnych wjazdach będzie wykonywana już tylko weryfikacja po jednej z cech biometrycznych i danych z dokumentów podróży, np. paszportu. System Entry/Exit będzie też służył do automatycznego zliczania czasu pobytu cudzoziemców na terenie Unii Europejskiej. Jego wdrożenie znacznie podniesie poziom bezpieczeństwa dzięki wprowadzeniu zaawansowanej identyfikacji opartej na biometrii.
Jakie jeszcze inne systemy unijne są planowane do wdrożenia?
Oprócz EES powstaje system ETIAS (European Travel Information and Authorisation System). Będzie służył do autoryzacji podróżnych z krajów bezwizowych. Zanim dotrą oni do granic strefy Schengen i wjadą na teren Unii Europejskiej, będą wypełniać specjalny formularz, na podstawie którego będą sprawdzane warunki ich wjazdu. Będzie to drugi kluczowy system dla służb gra-
nicznych strefy Schengen zaraz po systemie Entry/Exit. Ponadto wdrożone zostanie rozwiązanie informatyczne zapewniające interoperacyjność wszystkich wykorzystywanych w Unii Europejskiej systemów. Mają one być zintegrowane tak, aby tożsamości osób z wszystkich systemów były odpowiednio połączone z jedną, konkretną osobą. W tym celu zostanie przeprowadzona migracja wszystkich, rozproszonych po różnych miejscach danych do jednego środowiska. Korzystając z odpowiednich algorytmów, system integracyjny będzie linkował wszystkie dane dotyczące tej samej osoby.
Z jakich jeszcze innych, specjalistycznych systemów informatycznych korzysta Straż Graniczna w swojej działalności? Jakie obszary waszych działań one wspomagają?
Stosujemy system PNR – Passenger Name Record. Znajdują się w nim z 48-godzinnym wyprzedzeniem informacje o pasażerach zamierzających odbyć lot do kraju na terenie Unii Europejskiej. Dane są automatycznie przekazywane z systemów rezerwacyjnych linii lotniczych realizujących loty na nasze lotniska. Przewoźnicy zobligowani są przepisami prawa do udostępniania określonych informacji. Straż Graniczna również ten system wykonała własnymi siłami. Kodeks graniczny Schengen nakłada obowiązek kontroli przy wjeździe i wyjeździe ze strefy Schengen, w tym obywateli UE. Dla ułatwienia takiej kontroli wprowadzono bramki biometryczne ABC (Automated Border Control) w większości międzynarodowych portów lotniczych na terenie Polski. Są one zintegrowane z systemem odpraw granicznych SG.
Jako jedni z pierwszych w unii zaczęliśmy sprawdzać dwie cechy biometryczne jednocześnie – zdjęcie i odciski czterech palców.
Jak w praktyce wygląda administrowanie posiadanymi zasobami teleinformatycznymi?
Mamy wdrożony system typu service desk, mamy system ewidencji zasobów IT łącznie z automatyczną inwentaryzacją poszczególnych składników środowiska teleinformatycznego. To rozwiązanie gotowe, kupione na rynku i dostosowane do naszych potrzeb. Nasze zasoby ICT są opisane przez kilkadziesiąt różnych parametrów i są powiązane z elementami infrastruktury czy ewidencji finansowo-księgowej. Każdy składnik jest widziany jako jeden obiekt, ale pod różnymi kątami. Mamy przy tym wprowadzone kategorie słownikowe, co pomaga zidentyfikować urządzenia pomimo użycia różnych nazw. Wszystkie zasoby mamy centralnie zapisywane i centralnie uwidocznione w systemie. Ta koncepcja zarządzania zasobami została uznana na arenie międzynarodowej za najbardziej innowacyjną w administracji rządowej, a Straży Granicznej na majowej konferencji w Bostonie przyznano wyróżnienie.
Całość dostępna na stronie: crn.pl/wywiady-i-felietony/
Rozmawiał Andrzej Gontarz
o czym branża IT (i nie tylko) dyskutuje na
Dariusz Piotrowski, General Manager w polskim oddziale Dell Technologies, przypomina, że „Shiny Object Syndrome (SOS) to zjawisko, w którym organizacje lub jednostki skupiają się na nowych i ekscytujących technologiach, zamiast koncentrować się na średnio i długoterminowych celach i strategiach. Kluczowe aspekty SOS to między innymi impulsywne inwestowanie, rozpraszanie zasobów oraz brak długoterminowej wizji. Steve Jobs podsumował to tak: Technologia to tylko narzędzie. Ważne jest, by nauczyciel był świadomy jej potencjału i umiał ją efektywnie wykorzystać”. Kolejne branżowe buzz wordy dowodzą, że wciąż żywa legenda miała i nadal ma rację.
Konrad Skibiński, Strategic Program Manager w BigTime Software, odniósł się do treści wywiadu udzielonego przez Wojciecha Wolnego, szefa Grupy Euvic, redakcji BrandMe CEO. Według Konrada Skibińskiego: „Medialna narracja o ‘kryzysie w IT’ jest budowana w oparciu o decyzje kadrowe wielkich koncernów z rekordowymi wynikami finansowymi. To nie świadczy o kryzysie, to świadczy o normalizacji rynku. Co nie oznacza, że w CEE na rynku usługowym IT nie ma spowolnienia. Poza tym anomalia regionalna, o której mówi Wojtek to rzecz, o której opowiadamy już od lat – na Zachód od nas są bardziej zaawansowane, skomplikowane usługi (IT consulting), a na Wschód body leasing. Jako, że firmy mniej inwestują w IT (o czym Wojtek też mądrze mówi – wstrzymują się poniekąd z inwestycjami), a kasa się musi zgadzać, to najłatwiej jest wyciąć ‘środkowego’ pośrednika i zastąpić go tańszymi programistami z bliższego i dalszego Wschodu – stąd my się mierzymy ze spowolnieniem. Dlatego specjalizacja to must-have dla świadomych organizacji, które liczą dalej na prowadzenie swojego biznesu, a nie buy-out przez większego gracza w perspektywie najbliższych lat (o ile rzecz jasna utrzymamy nadal swoje zasoby – stali klienci, programiści i przychód). A im bardziej skomplikowana (‘kierunek konsultingowo-analityczny’) lub unikalna (np. DefenseTech dla klientów z Bliskiego Wschodu) specjalizacja, tym lepiej”. Pełna zgoda.
Szymon Janiak, partner zarządzający Czysta3.vc, podzielił się historią o tym, jak niewiedza może prowadzić do znaczących strat finansowych: „Produkowaliśmy inteligentne urządzenia, które składały się z trzech głównych komponentów: hardware’u, wbudowanego oprogramowania i aplikacji. Pierwsze prototypy opracowaliśmy w Polsce, szybko jednak zdaliśmy sobie sprawę, że przeniesienie produkcji do Azji niesie ze sobą wiele zalet. Wybraliśmy optymalnego wykonawcę, który zajmował się wszystkim od zamówienia komponentów po wysyłkę gotowych urządzeń. Zamówiliśmy pierwsze tysiąc sztuk. Po miesiącu oczekiwania przyszły. Skontaktowałem się z naszym partnerem z USA, aby przygotował kampanię online. Wkrótce otrzymałem link do urządzenia na Amazonie, które wyglądało jak nasze, ale pod inną marką. Producent, który miał dostęp do całej technologii, ukradł nasze rozwiązanie i sprzedawał je za pośrednictwem innych. Amerykańska kancelaria prawna, z którą się skontaktowaliśmy, stwierdziła, że nie mamy szans wygrać sprawy w chińskim sądzie, mimo posiadania patentu. Musieliśmy odpuścić. Lekcja, jaką wyciągnęliśmy, to że w tej branży umowa nie zawsze zabezpiecza interesy. Postanowiliśmy podzielić proces produkcji i zlecać kwestie software’owe i hardware’owe różnym podmiotom, co było droższe, ale bezpieczniejsze”.
Damian Tokarczyk, dr nauk prawnych i a dwokat w kancelarii Raczkowski, autor książki „Ochrona sygnalistów”, zauważa, że „im mniej czasu zostało na wdrożenie ustawy o sygnalistach, tym więcej się o niej mówi i pisze. Rozstrzygają się trudne zagadnienia, dyskutowane są błędy i luki w ustawie. Niestety – coraz częściej dyskusje cofają się do bardzo złego punktu 0, czyli do pytania >>Po co nam to wszystko?<<. Jasne, w ustawie znajdziemy całe mnóstwo luk. Co z tego? Po co ich tam szukać? Żeby zminimalizować rolę sygnalistów w organizacji? Tu nie o to chodzi. Streszczając sens ustawy do minimum – chodzi o to, żeby stworzyć pracownikom i innym osobom możliwość zgłaszania naruszeń prawa. Pracodawca zyskuje wiedzę o organizacji i może nią lepiej zarządzać. Pracownik dostaje kredyt zaufania i wdzięczności. Jeśli ktoś szuka w tej ustawie luk, to zapewne oznacza, że chce pozbawić sygnalistę ochrony przed działaniami odwetowymi. Pamiętajmy, że zakaz działań odwetowych nie polega na tym, że sygnalista dostaje jakiś immunitet i staje się nietykalny. To tylko oznacza, że nie można go karać za to, że dokonał zgłoszenia przekonany, że ujawnia naruszenie prawa. To naprawdę nie jest nic złego, to jest dla organizacji dobre! Naprawdę ktoś chce za to karać sygnalistę? Potraktujmy sygnalistów jako przyjaciół organizacji, a odejmiemy sobie wiele problemów. Może potrzebna jest jakaś akcja #niebójmysięsygnalistów?”. Tych uczciwych się nie obawiamy. Ale co z tymi, którzy będą się na swoim pracodawcy nieuczciwie odgrywać? W końcu prawda, że są ludzie i ludziska, jest stara jak świat.
Szymon Szczęśniak, CEO CodeTwo, odnosząc się do nowych sposobów na oszukiwanie naiwniaków, przestrzega: „Uwaga! Było ‘na wnuczka’, ‘na Blika’, a teraz jest też ‘na Booking’. Ostatnio okradli tak moją znajomą (która jest całkiem ogarnięta w kwestiach bezpieczeństwa), a teraz widzę, że o problemie informuje nawet Biuro Informacji Kredytowej (jeśli ktoś ma wykupione u nich alerty), więc skala musi być bardzo duża. Ale co się dzieje? W skrócie działa to tak: Wasz hotel na Booking (bo ktoś przejął im konto) pisze na chat do Ciebie wiadomość, że trzeba dodatkowo zweryfikować kartę płatniczą przed urlopem. A wiadomo, że wielu z nas teraz ma coś przez Booking zaklepane na najbliższe dni/tygodnie, więc wiadomość wydaje się wiarygodna, a dodatkowo dochodzą emocje typu: Jezu – zaraz mi anulują rezerwację w Węgorzewie/Acapulco. Weryfikacja to oczywiście fałszywa strona WWW (wcale nie element serwisu Booking), która kradnie nasze dane karty i pozwala złodziejom na jej użycie bez naszej wiedzy. No, ale wiele osób w emocjach i naprędce dodatkowo ‘weryfikuje’ dane karty i daje się okraść. Pamiętajcie: Internet to nie jest wycieczka z ciocią.”… Ani herbatka u Cioci.
Leszek Ślazyk, redaktor naczelny
Chiny24.com, zwraca uwagę, że „Chiny często w fazie początkowej są, lub wydają się spóźnione wobec światowych liderów. Jednak kiedy dany projekt dojrzeje, zaczyna nabierać skali i tempa. A kiedy dojrzewa (bo daje spodziewane efekty, niekoniecznie finansowe), przybiera rozmiary i tempo rozwoju, z którym trudno mierzyć się innym. Przykłady? Infrastruktura drogowa, koleje dużych prędkości, telekomunikacja (4G, 5G, 6G), elektromobilność…
To początkowe spóźnienie powoduje, że gdzieś znika czujność reszty świata, który potem zdaje się być zaskoczony ‘nieoczekiwanymi’ osiągnięciami Chińczyków. Jednym z takich obszarów ‘zaskoczeń’ są kolejne projekty kosmiczne. W tym ten, którego celem jest zbudowanie na Księżycu stałej załogowej bazy. Jest też taki dotyczący Marsa, ale najpierw trzeba stamtąd sprowadzić próbki. NASA miała to zrobić już niebawem, ale zmieniono decyzje dotyczące finansowania. W Chinach takich decyzji nie zmienia się w trakcie realizacji projektu. Być może konsekwencja jest tym, co ostatecznie daje Chinom przewagę”. Można jedynie dodać, że przewagę dają też stabilne i długie rządy, co w demokracjach zachodnich jest w praktyce niemożliwe.
Istotne trendy produktowe, technologiczne, biznesowe, w oparciu o dane pochodzące z renomowanych agencji analitycznych, organizacji branżowych i globalnych mediów, dotyczące głównie Europy i Polski.
Aż 49 proc. ankietowanych przedsiębiorstw z całego świata nie dysponuje strategiami dotyczącymi cyberbezpieczeństwa OT lub stworzyło jedynie podstawowy plan działania, bez udokumentowanych procedur i zaplanowanych inicjatyw naprawczych – wynika z badania KPMG. Tym niemniej 21 proc. firm deklaruje, że w tym roku zwiększy swój budżet na cyberochronę systemów przemysłowych o więcej niż 10 proc., a 13 proc. że o mniej niż 10 proc. Ponadto 8 proc. pytanych zapowiedziało podniesienie budżetu o ponad 30 proc., a jedna dziesiąta aż o ponad 50 proc. Ankietowani najczęściej spodziewają się najwyższego zwrotu z inwestycji (ROI) w obszarze segmentacji sieci, a w następnej kolejności ze szkoleń w zakresie świadomości bezpieczeństwa. Nakłady mają pójść natomiast głównie na inwentaryzację i zarządzanie aktywami. Warto zwrócić uwagę na fakt, że w 2023 r. do 33 proc. (z 28 proc. w 2022 r.) wzrósł odsetek firm, które uważają, że znajdują się na drugim poziomie dojrzałości, tzn. wdrożyły podstawowy poziom zarządzania. Jednak spadek liczby firm na wyższych poziomach może wskazywać na trudności z utrzymaniem wdrożonych standardów.
Obszary największych inwestycji w cyberbezpieczeństwo systemów OT w nadchodzącym roku (dane globalne)
Inwentaryzacja i zarządzanie aktywami
Zarządzanie podatnościami
Segmentacja sieci
zdalny dostęp
Według nowej prognozy Gartnera światowe wydatki na IT wyniosą w tym roku 5,26 bln dol., o 7,5 proc. więcej niż w 2023 r. Wobec przewidywań sprzed kwartału prognozę obniżono o 0,5 pkt. proc. Analitycy podkreślają, że choć wpływ generatywnej sztucznej inteligencji jest odczuwalny we wszystkich segmentach IT, to nie przynosi korzyści wszystkim użytkownikom. „Niektóre wzrosty wydatków na software można przypisać generatywnej AI, ale dla firmy zajmującej się oprogramowaniem, GenAI najbardziej przypomina podatek. Przychody ze sprzedaży dodatków GenAI lub tokenów wracają do ich partnera, dostawcy modelu AI” – twierdzi John-David Lovelock, wiceprezes Gartnera.
Tym niemniej dzięki zapotrzebowaniu na moc obliczeniową dla generatywnej sztucznej inteligencji silnie rosną wydatki na systemy centrów danych. Prognozę dla nich podniesiono z 10 do 24 proc. Obniżono natomiast prognozę wydatków
na usługi IT z poziomu 9,7 na 7,1 proc., częściowo z powodu wyhamowania wzrostu w konsultingu i usługach procesów biznesowych. Przewidywania mówią jednak o większej dynamice, która jest oczekiwana pod koniec roku.
Systemy centrów danych236,0984293,09124,1 Urządzenia692,784-6,5730,1255,4 Oprogramowanie974,08911,51096,91312,6 Usługi IT1503,6984,91609,8467,1 Usługi telekomunikacyjne1 491,7323,21 537,1883 W sumie4898,4013,85 267,163 7,5
W najnowszym badaniu EY cyfrową transformację jako wysoki priorytet wskazuje już 84 proc. średnich i dużych przedsiębiorstw w Polsce. Cztery lata wcześniej odsetek ten wynosił jedynie 38 proc. Działania w obszarze digitalizacji firmy uzasadniają g chęcią rozwoju (39 proc.) i oczekiwaniami klientów (38 proc.), ale najważniejszym celem jest poprawa efektywności (47 proc.). Co ciekawe, ograniczenie kosztów nie jest aż tak istotne (35 proc.). Zresztą głównym wyzwaniem związanym z transformacją jest osiąganie zakładanych celów w zakresie wzrostu przychodów i spadków kosztów. Co charakterystyczne, pieniądze stanowią jednocześnie główną „przeszkodę decyzyjną”. Wśród najważniejszych barier transformacji firmy wymieniają wysokie koszty (33 proc.), zadowolenie z obecnej sytuacji (24 proc.) i odkładanie decyzji przez zarząd na później (23 proc.). Co zaś do priorytetów cyfryzacji, to w 2024 roku na czele znalazły się obsługa klienta (47 proc.) i sprzedaż (43 proc.).
W najbliższych latach zwiększy się liczba gospodarstw domowych wyposażonych w co najmniej jedno urządzenie do gier – przewiduje PMR. Dotyczy to zwłaszcza konsol. W 2023 r. o 12 proc. wzrosła liczba mieszkań i domów, gdzie korzysta się z tego urządzenia. PMR prognozuje, że do 2029 r. ponad 3 mln gospodarstw domowych w Polsce będzie posiadać konsolę do gier. Czynnikami napędzającymi wzrost ma być pojawienie się urządzeń nowej generacji i coraz większa popularność mobilnych konsol. Jednocześnie coraz więcej środków gracze będą wydawać na tytuły konsolowe, które w 2023 r. odnotowały największy wzrost pod względem wartości – o blisko 10 proc. Tym niemniej obecnie najwięcej grających osób wybiera wersje mobilne. Rynek gamingowy w Polsce będzie coraz bardziej konsolowy niż pecetowy, jednak dzięki tzw. „heavy userom” odsetek graczy na PC pozostanie stabilny – prognozuje PMR. Obecnie według tej firmy badawczej komputer i smartfon to urządzenia znajdujące się odpowiednio w 79 proc. i 88 proc. gospodarstw domowych w Polsce.
202220232024p2029p Gry mobilne, społecznościowe i przeglądarkowe37363637
Światowe wydatki na usługi chmury publicznej osiągną w tym roku poziom 805 mld dol., a do 2028 r. ulegną podwojeniu – prognozują analitycy IDC. Europa Zachodnia ma być w 2024 r. drugim co do wielkości rynkiem (po USA) z wydatkami rzędu 167 mld dol. Zarówno na zachodzie kontynentu, jak i w regionie CEE, wydatki na chmurę w najbliższych 5 latach powinny się zwiększać rocznie o ponad 20 proc. Analitycy uzasadniają, że większość organizacji przyjęła chmurę publiczną jako opłacalną platformę do hostowania aplikacji korporacyjnych i wdrażania rozwiązań dla klientów. Przy czym wzrost wydatków na cloud napędzają zwłaszcza postępy w rozwoju sztucznej inteligencji. W przypadku chmury publicznej największym kawałkiem „tortu” pozostanie SaaS (ponad 40 proc. wydatków w 2024 r.). Z kolei PaaS i IaaS osiągną prawie 20 proc. udziału w br. PaaS będzie przy tym najszybciej rozwijającą się kategorią, na czele z oprogramowaniem do zarządzania danymi, natomiast wydatki na platformy AI będą do 2028 r. rosnąć najszybciej (średnio 51 proc. rocznie). IaaS, obejmujące urządzenia obliczeniowe, pamięci masowe i sieci, będzie drugą najszybciej rozwijającą się kategorią.
Wacław Iszkowski
Autor w latach 1993–2016 był prezesem Polskiej Izby Informatyki i Telekomunikacji. Pracował też w firmach: Oracle, DEC Polska, 2SI, EDS Poland, TP Internet. Obecnie jest senior konsultantem przemysłu teleinformatycznego.
Uruchomienie systemu zastrzeżonych numerów PESEL, umożliwiającego wskazanym w ustawie instytucjom weryfikację braku istnienia zastrzeżenia, rozbudziło szereg dyskusji na ten temat. Nie zawsze prezentują one rzeczywisty obraz tego rozwiązania, ale też wskazują na wiele, chyba nie do końca wyjaśnionych, problemów.
Spróbujmy się im przyjrzeć na przykładzie rozmowy pewnego małżeństwa, przy czym poszukiwanie podobieństwa do rzeczywistych osób jest nieuzasadnione.
– Czemu jesteś taki struty? Skocz lepiej na dół do sklepu po majonez.
– Nie skoczę, bo nie będę miał jak zapłacić. W niedzielę jest tam tylko kasa samoobsługowa, która nie przyjmuje gotówki.
mieliśmy.
– Tak, wiem nie uznajesz kart, ale możesz zapłacić Blikiem. A jak nie ma tam tej sprzedawczyni, to kto pilnuje towaru?
– Towaru pilnuje ochroniarz. To jest taki patent na otwieranie sklepu w niedzielę. Działalność handlowa odbywa się sama, a ochrona przecież musi być. A Blika nie mam, bo…
– Bo co, hakerzy się do niego włamali, czy masz konto puste?
– Nie. Telefon mi wpadł do studzienki jak wysiadałem z auta. A więc przepadł z kretesem.
– Masz pecha, ale nie martw się. W poniedziałek kupisz sobie nowy na raty. Ten twój to już chyba był bardzo stary, sprzed 5 lat. Mój właśnie spłaciliśmy, a ja ci spłacę jedną ratę na imieniny i drugą na urodziny – przynajmniej nie będziesz narzekać na moje prezenty.
– W poniedziałek ani nie kupię sobie nowego, ani nie odzyskam duplikatu sima. Mam zastrzeżony pesel. Nie dadzą mi kredytu ani sima.
– No to wyłącz to zastrzeżenie w emobywatelu. Aha, emobywatela też już nie masz. To może w profilu zaufanym w komputerze. Auć, też nie da rady, bo logowanie wymaga potwierdzenia esemesem. To czego jeszcze nie możesz?
– Nie dostanę kredytu, pożyczki, leasingu w banku czy SKOK-ach. Nie otworzą mi konta i nie wypłacą więcej gotówki niż trzykrotność najniższej płacy, a nawet jak zniosę zastrzeżenie, to wypłata może nastąpić po 12 godzinach. Notariusz nie zgodzi się na podpisanie umowy dotyczącej nieruchomości. I coś tam jeszcze.
– Może dobrze, że nie weźmiesz kolejnego kredytu, ale ty właściwie jako obywatel teraz mało możesz. Chodź tu, pocieszę cię, muszę sprawdzić czy jeszcze coś możesz.
– […]
– To co kochanie musisz teraz zrobić?
– Muszę pójść do urzędu miasta, wypełnić ręcznie wielkimi literami wniosek o cofnięcie zastrzeżenia, odczekać swoje, a urzędnik na podstawie mojego plastikowego dowodu lub paszportu i odpytaniu mnie o inne moje dane osobowe sprawdzi je w systemie ewidencji ludności, po czym dokona zmiany w systemie zastrzeżonych peseli, a ja dostanę zaświadczenie.
– A po co ten formularz? Czy w ich systemie nie ma Twoich danych?
– Oczywiście są i jest opcja, że mogę poprosić urzędnika o wydrukowanie wniosku z systemu.
– To żart? Po co wypełniać czy drukować ten formularz i marnować papier?
– Muszą mieć gdzieś mój własnoręczny podpis.
– A nie mogą wystawić tabletu, jak do składania podpisu do dowodu osobistego?
– Mogą, zresztą już się pogubiłem w tych podpisach.
– No dobra, a jak te banki, czy notariusze mają stwierdzić, że jesteś niezastrzeżony?
– Mają prawo i obowiązek, po uzyskaniu
odpowiedniej autoryzacji dostępu do rejestru zastrzeżonych peseli, uzyskania informacji o stanie obywatela. Jak zastrzeżony to do widzenia. Chyba że nastąpiła awaria dostępu teleinformatycznego, dłuższa niż 15 minut, to wtedy można przyjąć brak zastrzeżenia i obsłużyć klienta. I tu jest opcja na jakieś szwindle.
– A czy banki i inni pożyczkodawcy sami nie mogliby dokonywać weryfikacji tożsamości korzystając z biernego dostępu do systemu ewidencji ludności? Mamy tu takiego obywatela z takim nazwiskiem, peselem, numerem dowodu, a nawet ze zdjęciem – wysyłamy to do systemu, a ten nam odpowiada, że owszem jest taki w systemie, lub że jest inny i trzeba dzwonić na policję. Zresztą mając konto w banku można by składać deklarację braku chęci na jakiekolwiek kredyty, tak jak można ustalać limit wypłat gotówkowych oraz płatności internetowych. A banki mogłyby jeszcze robić selfie klienta i pracownika banku w chwili podpisywania umowy. Bo też podobno, nawet ci rzeczywiści kredytobiorcy potem stwierdzają, że ich tam wtedy nie było.
– W ten sposób banki zdejmują z siebie całkowitą odpowiedzialność za weryfikację tożsamości klienta, któremu dają kredyt, czy większą wypłatę. Mają protokół sprawdzenia, że klient nie miał zastrzeżonego pesela, wobec czego nie jest ważne czy to był ten rzeczywisty klient czy jakiś „słup”. Teraz to obywatele mają zadbać o swoją ochronę zastrzegając swój pesel. Nie śmiej się ze mnie, że to zrobiłem, bo też podobno już 4 miliony obywateli na to poszło. Twój pesel też bym zastrzegł. W zasadzie to z definicji wszyscy powinni mieć zastrzeżony swój pesel, a tylko potrzebujący świadomie powinni na chwilę lub na stałe go odstrzegać – Dobra, dobra. Najpierw odzyskaj swoje prawa do bycia nieubezwłasnowolnionym obywatelem. A kto wpadł na ten pomysł zastrzegania i odstrzegania pesela? Ha – ciekawe nowe słowo – odstrzeganie, pewnie zostanie słowem roku. – Poprawnie to jest „znoszenie zastrzeżenia”. A kto to wymyślił? Jak zawsze autora brak, stało się to jeszcze za poprzedników, ale ci obecni tego nie znieśli. Może jest im to na rekę.. Szukałem, czy nie jest to kopia podobnego rozwiązania z innych krajów, ale chyba jest to wynalazek
rodzimy. Państwo, samo lub pod czyimś wpływem, stwierdziło, że dokument tożsamości – ten starszy tylko plastikowy oraz ten nowszy z czipem nie jest wystarczająco wiarygodnym i skutecznym w weryfikacji tożsamości, wobec czego należy do niego „dosztukować” zastrzeganie pesela wraz ze zbudowaniem dodatkowego systemu informatycznego numerów zastrzeżonych i odstrzeżonych z informacjami o ich okresach aż do 6 lat wstecz. A do tego narzucono na urzędy dodatkowe działania w obsłudze obywateli. Wojewodowie mają dostać na to do podziału 3 mln złotych (1250 zł na gminę), a centralna obsługa systemu będzie kosztować 1,2 mln.
– To powiedz mi kto będzie odpowiadać za odstrzeżenie pesela na wniosek podstawionej osoby w urzędzie, gdy urzędnik nieświadomie, bo nie dopatrzy się oszustwa, albo świadomie za wziątkę stwierdzi „poprawną” tożsamość. A osoba ta potem spokojnie weźmie kredyt lub po 12 godzinach podejmie gotówkę, gdy rzeczywisty właściciel tego pesela nawet się o tym nie dowie.
– Słuchaj, czy musisz mnożyć te pytania? Przecież zawsze mogą być jakieś trudności czy problemy. Życie pokaże, czy to rozwiązanie się sprawdzi. Dotychczas nie można było być pewnym, czy gdzieś ktoś nie wykorzystał naszych danych osobowych, bo wbrew RODO poniewierają się one wszędzie, a pesel to już jest używany w każdym kontakcie – zapisu do lekarza, wykupie leków z erecepty…
– No tak, a czy pamiętasz jak w Kanadzie, dla zablokowania konwoju wolności kierowców ciężarówek rząd zablokował im konta? A teraz rząd polski może w przyszłości nieprawomyślnych odciąć od możliwości wzięcia kredytów, większej gotówki, obrotu nieruchomościami i co tam jeszcze. Wystarczy, że ich pesele wpisze do bazy peseli zastrzeżonych, a na dodatek dopisze, że nie mogą być odstrzeżone. Równie dobrze takie uprawnienie może być nadane urzędom skarbowym, prokuratorom, służbom, i innym w odniesieniu do osób podejrzanych – bo niewinni nie mają się czego obawiać, jak mówią w takich przypadkach. – Ej, ej, nie rozpędzaj się z tymi spiskowymi teoriami. Ale rzeczywiście Gubernator Kanady na podstawie ustawy o sytuacjach nadzwyczajnych ogłosił istnienie stanu zagrożenia porządku publicz-
nego i dla każdej wskazanej osoby banki – nawet zagraniczne firmy ubezpieczeniowe, pożyczkowe i inne podobne miały jej zablokować obrót mieniem, wszelkie transakcje, udostępnianie środków pieniężnych oraz usługi finansowe. Na tej podstawie zablokowano 257 rachunków oraz 170 portfeli bitkojn. W zasadzie każdy, kto dał nawet tylko 20 dol. dla konwoju wolności mógł trafić na listę osób do zamrożenia jego własności. Taka sytuacja trwała co prawda tylko z 10 dni, ale dyskusje prawne o tym toczą się do dzisiaj.
– Przykład ekonomicznego wpływu na protestujących już mieliśmy, a więc tylko czekać jak zostanie to powtórnie zastosowane. Tam jeszcze pośrednikiem wykonawczym były prywatne instytucje finansowe, które posłusznie spełniły żądania władz na podstawie list zapisanych w ekscelu. Tutaj władze mogą same zastrzec pesele obywateli w systemie, a banki i notariusze mają związane ręce ustawą ograniczania niektórych skutków kradzieży tożsamości. Czy to jest teoria spiskowa?
– Wiesz, jak się ta Twoja teoria spełni, to zaproszę Cię na dobrą kolację.
– Aha, żebyś tylko wtedy miał gotówkę lub niezablokowaną kartę. Idź lepiej poszukać tego plastikowego dowodu, paszportu, prawa jazdy i może nawet jakaś karta płatnicza się znajdzie, aby urzędnik mógł ci znieść zastrzeżenie. Ciekawe jak długo będziesz tam stał w kolejce, gdy takich do zastrzeżenia i odstrzeżenia będzie więcej. Aha, tam jest też gdzieś taki klawiszowy telefon z pripejdem. Przynajmniej będziesz mógł mnie zawiadomić kiedy wrócisz na obiad. I idźże wreszcie po ten majonez. Masz moją kartę – kasa chyba twojej męskości nie rozpozna.
Już się pogubiłem w tych podpisach.
Wojciech Urbanek zastępca redaktora naczelnego CRN Polska
Choć Dolina Krzemowa stoi murem za Demokratami, to jednak na tej konstrukcji zaczynają się pojawiać wyraźne rysy.
języczkiem u wagi.
a kogo oddałbyś głos w wyborach na prezydenta USA?” – zapytał mnie znajomy Amerykanin podczas kolacji, którą jedliśmy w jednej z restauracji w Palo Alto. Starałem się uniknąć odpowiedzi na to kłopotliwe pytanie, tłumacząc, że ciężko jest dokonać wyboru, nie będąc obywatelem Stanów Zjednoczonych. W końcu się jednak złamałem i wskazałem trochę przekornie na Donalda Trumpa, mając cichą nadzieję, że za chwilę dojdzie do interesującej wymiany poglądów. „W porządku, rozumiem to” – powiedział znajomy. Po czym szybko opuścił wzrok i zmienił temat. Nasza rozmowa miała miejsce kilka lat temu, kiedy w wyścigu prezydenckim stali naprzeciw siebie Donald Trump i Joe Biden. Moja odpowiedź była tym bardziej nieroztropna, że byliśmy w Kalifornii – jednym z najsilniejszych bastionów Demokratów. I to się raczej nie zmieni, aczkolwiek ostatnie decyzje części inwestorów z Doliny Krzemowej odnośnie do finansowania kandydatów do Białego Domu, mogą zaskakiwać.
Kij w mrowisko włożyli założyciele Andreessen Horowitz, jednego z najbardziej znanych funduszy venture capital, którzy zadeklarowali wsparcie dla Donalda Trumpa. „Przepraszam mamo. Wiem, że będziesz na mnie zła, ale muszę to zrobić” – oznajmił Ben Horowitz w podcaście „The Ben & Marc Show”. Marc Andreessen i Ben Horowitz do tej pory głosowali na Demokratów i przyjaźnią się z liberałami. Dlaczego więc ich zdradzili? Okazuje się, że wcale nie chodzi im o politykę migracyjną czy ideologię gender, lecz system podatkowy, sztuczną inteligencję oraz kryptowaluty, z wyraźnym wskazaniem na te ostatnie. W 2022 r. Andreessen Horowitz założył fundusz kryptograficzny o wartości 4,5 mld dol. Obaj panowie twierdzą, że administracja Joe Bidena była
głęboko niesprawiedliwa wobec kryptowalut. Zdaniem Horowitza, żeby zaatakować branżę kryptograficzną, podważyła rządy prawa. Z kolei Donald Trump nie mówi już, że bitcoin jest oszustwem przeciwko dolarowi, tak jak to miało miejsce w 2021 r. I wszystko wskazuje na to, że tym roku wystąpi na jednej z prestiżowych konferencji poświęconych kryptowalutom.
Znany portal internetowy Verge określił powyższą wyborczą woltę jako „moralne bankructwo Marca Andreessena i Bena Horowitza”.
Kampanię prezydencką Donalda Trumpa współfinansuje również Elon Musk, który co miesiąc przelewa 45 mln dol. na specjalny fundusz wspierający kandydata Republikanów. Miliarder poparł oficjalnie Trumpa po nieudanej próbie zamachu na byłego prezydenta USA podczas wiecu w Pensylwanii. Jednak pomimo tego, że antytechnologiczne i antybiznesowe działania Joe Bidena frustrują przedsiębiorców z Doliny Krzemowej, większość z nich stoi murem za Demokratami. Merci Grace, inwestor i przedsiębiorca, szacuje, że Kamala Harris może liczyć na wsparcie 70–80 proc. inwestorów z Doliny Krzemowej. Tymczasem rywalka Donalda Trumpa, przynajmniej jak do tej pory, nie dała się poznać jako znawczyni nowych technologii. W tym kontekście jej ostatnia wypowiedź na temat chmury publicznej zrobiła furorę na całym świecie: „Nie przechowujesz już plików w jakiejś szafce na dokumenty. Są na twoim laptopie, a zatem znajdują się tutaj w chmurze, która istnieje nad nami. Nie są już w fizycznym miejscu” – tłumaczyła Harris nieco pogubionej publice. Może dlatego, jak donoszą wiewiórki, sztab wyborczy Kamali Harris stara się od pewnego czasu wytłumaczyć kandydatce na prezydenta Stanów Zjednoczonych, czym są kryptowaluty.
O programie: