nr 2/2009 (14) ISSN 1896-5032
w numerze 2/2009: Raport Trend Micro STR. 13 w Raport Cisco STR. 14 w Wywiad z W. Krukiem STR. 40
Sieć I komunikacja Mobilna
Rafał Jaczyński, Krzysztof Sieczkowski
10 16
Wywiad numeru Grupa TP
Aleksander M. Simon
Bezpieczeństwo urządzeń mobilnych
Michał Choraś, Adam Flizikowski
35
Infrastruktury krytyczne – aspekty bezpieczeństwa
w numerze 2/2009:
Od redaktora
D
ziś określenie mobilne wcale nie musi być tożsame z bezpieczne. Raport McAfee pokazał, że prawie trzy czwarte użytkowników obawia się o bezpieczeństwo przeprowadzanych usług mobilnych takich, jak e-płatności, e-bilety, czy pobieranie multimediów. Większość z nas boi się braku kontroli nad zlecanymi opłatami, zawyżania rachunków a ponad trzydzieści procent kwestionuje powszechne rozumienie bezpieczeństwa komunikacji mobilnej. W porównaniu z atakami przeprowadzanymi na komputery osobiste, liczba zagrożeń telekomunikacji mobilnej wciąż jest wciąż dużo niższa. Takie zestawienie nie powinno być jednak pocieszające, gdyż liczba użytkowników mobilnych bardzo szybko wzrasta, a symptomy zagrożeń są coraz częściej odczuwalne. Co ciekawsze, ponad połowa badanych jest zdania, że to operator powinien zagwarantować im poczucie całkowitego bezpieczeństwa oferowanych usług, a producenci powinni bezpłatnie wyposażać telefony w skuteczne oprogramowanie zabezpieczające. Zadaniem jednych i drugich jest więc zapewnienie nam – klientom należytego bezpieczeństwa. Inaczej trudno będzie im przekonać otoczenie do korzystania w nowo wprowadzanych i jeszcze bardziej zaawansowanych usług. Zapraszam do lektury! Katarzyna Czajkowska
BOSTON IT Security Review tworzą: Dyrektor wydawniczy: Aneta Włodkowska Redaktor prowadząca: Katarzyna Czajkowska, katarzyna.czajkowska@software.com.pl Reklama: Anna Zawadzka-Szymusiuk, anna.zawadzka@software.com.pl
Współpraca merytoryczna: Michał Choraś Adam Flizikowski Tomasz Galos Edgar Głowacki Paweł Grotowski Elżbieta Kasprzyk Leszek Kępa Marek Serafin Aleksander M. Simon
4
Kierownik produkcji: Marta Kurpiewska Projekt makiety: Kamil Janiak DTP manager: Michał Marton Korekta: Anna Zawadzka-Szymusiuk Druk: ArtDruk Redakcja dokłada wszelkich starań, by publikowane w piśmie informacje były poprawne, jednakże nie bierze odpowiedzialności za efekty ich wykorzystania. Wszystkie znaki firmowe zawarte w piśmie są własnością odpowiednich firm i zostały użyte wyłącznie w celach informacyjnych. Teksty opublikowane w dziale Case Study są płatne. Osoby zainteresowane współpracą prosimy o kontakt: boston@software.com.pl Wydawca: Software B2B Sp. z o.o., ul. Bokserska 1, 02-682 Warszawa, Polska Tel. +48 22 427 37 11 Fax +48 22 244 24 59
www.boston–review.com
NewsRoom str. 6
Nowe podejście do ochrony sieci firmowej Elżbieta Kasprzyk str. 32
Wywiad numeru
Rafał Jaczyński, Krzysztof Sieczkowski – Grupa TP
Wywiad
Wojciech Kruk – Kruk S.A.
str. 10
str. 35
10 prognoz zagrożeń
Infrastruktury krytyczne – aspekty bezpieczeństwa
Raport Trend Micro str. 13
Michał Choraś, Adam Flizikowski
Błędy, które prowadzą do utraty danych w firmie
Współczesne rozwiązania kryptograficzne, cz.II
Raport Cisco str. 14
Bezpieczeństwo urządzeń mobilnych Aleksander M. Simon str. 16
Praca zdalna – korzyści, zagrożenia, rozwiązania Marek Serafin str. 22
Głos IP bezpieczny jak Internet? Leszek Kępa str. 26
Zarządzanie bezpieczeństwem informacji Case Study Copi S.A. str. 31
str. 38
Edgar Głowacki str. 44
One – nowe rozwiązanie marki HP Case Study HP Polska str. 48
Zarządzanie informacją w bankowości na przykładzie mBanku Tomasz Galos str. 50
O sztuce mieszania akloholi Paweł Grotowski str. 54
Events str. 56
Wypowiedź eksperta Piotr Kupczyk str. 58
5
NewsRoom
Prognozy przewidują znaczny wzrost mobilnego ruchu sieciowego
itBCG wprowadza XAdES-A
Firma Cisco zaprezentowała wyniki badań przedstawiając najważniejsze wnioski na temat tendencji w rozwoju sieci IP wynikających w znacznym stopniu ze wzrostu popularności mobilnych aplikacji szerokopasmowych. Wynika z nich, że w latach 2008–2013 można się spodziewać 66-krotnego wzrostu ogólnoświatowego ruchu mobilnego. W podanym okresie złożona roczna stopa wzrostu tego ruchu będzie wynosiła 131%. Przedstawione prognozy oznaczają, że nastąpi przejście na Internet mobilny czwartej generacji (4G), co umożliwi użytkownikom indywidualnym oglądanie większej liczby filmów wideo na urządzeniach przenośnych oraz dostęp do różnorodnych mobilnych usług szerokopasmowych.
itBCG w swoim najnowszym projekcie wdrożyła zaawansowaną formę podpisu elektronicznego XAdES. Projekt trwał u jednego z największych operatorów telekomunikacyjnych. Rezultatem wdrożenia jest możliwość podpisywania elektronicznych dokumentów operatora najbardziej zaawansowaną formą podpisu XAdES. Standard XAdES jest międzynarodowym standardem podpisu elektronicznego przeznaczonym dla dokumentów XML oraz przystosowanym do podpisu weryfikowanego certyfikatami kwalifikowanymi. Stosowanie formy XAdES pozwala na archiwizację elektronicznych dokumentów. W obecnym kształcie prawa dokumenty finansowe powinny być przechowywane przez okres 6 lat. Certyfikat kwalifikowany jest odnawiany co 2 lata. W ten sposób formy podpisu XAdES od C do A podnoszą bezpieczeństwo długoterminowego przechowywania podpisanych elektronicznie dokumentów, poprzez umożliwienie weryfikacji podpisu elektronicznego po długim czasie (wiele lat) od jego złożenia. Przy zachowaniu odpowiednich procedur przedłużania ważności podpisu elektronicznego w formie XAdES, jego weryfikacja jest możliwa niezależnie od faktu odwołania certyfikatu podpisującego czy utraty bezpieczeństwa użytych algorytmów kryptograficznych. XAdES wykorzystuje znaczniki czasu, które – przy wystawianiu podpisu elektronicznego przez centrum certyfikacyjne – wywołują skutki prawne daty pewnej w rozumieniu przepisów kodeksu cywilnego. Klienci operatora w ten sposób mają zapewniony szybki i łatwy dostęp do dokumentów archiwalnych, które są bezpiecznie przechowywane u operatora. Dzięki nowemu wdrożonemu rozwiązaniu firma itBCG może świadczyć dla wszystkich swoich Klientów usługi związane z bezpiecznym przechowywaniem dokumentów elektronicznych, co stanowi ważny krok w rozwoju rynku e-dokumentów. n
Najważniejsze wnioski z badań Cisco VNI Mobile Forecast: •
• • • •
•
•
W 2013 r. ogólnoświatowy ruch mobilny przekroczy dwa eksabajty miesięcznie; Ogólnoświatowy ruch mobilny osiągnął poziom jednego eksabajta miesięcznie w czasie dwukrotnie krótszym niż ruch danych w sieciach stacjonarnych; W 2013 r. prawie 64% światowego ruchu mobilnego będą stanowiły filmy wideo; W latach 2008–2013 złożona roczna stopa wzrostu (CAGR) dla mobilnego ruchu wideo będzie wynosiła 150%; W 2013 r. szerokopasmowe telefony komórkowe działające z szybkością większą niż 3G oraz przeznaczone do laptopów karty air card i karty do transmisji danych będą źródłem ponad 80% ogólnoświatowego ruchu mobilnego; Najsilniejszy rozwój ruchu mobilnego ze wskaźnikiem wzrostu CAGR na poziomie 166% wystąpi w Ameryce Łacińskiej, drugą pozycję w rankingu zajmie Daleki Wschód, gdzie wskaźnik ten osiągnie wartość 146%; W 2013 r. Daleki Wschód będzie generować jedną trzecią całego mobilnego ruchu danych. n
Malware XXL: Szokujący wzrost ilości zagrożeń W minionym roku zespoły cyberprzestępców zacięcie bombardowały komputery nowymi zagrożeniami. Ilość nowych złośliwych programów wzrosła w 2008 roku o astronomiczne 570% w porównaniu do roku 2007. Do najczęściej spotykanych rodzajów zagrożeń zaliczały się w drugiej połowie roku konie trojańskie, backdoory oraz downloadery. Wbrew oczekiwaniom ilość zagrożeń dla smartfonów wzrosła zaledwie o 100 sztuk przez ostatnie 12 miesięcy. Autorzy wirusów nie poprzestali tylko na ilości. W roku 2008 stosowano bardziej wyrafinowane metody ataków i lepszy sprzęt. Społeczności e-przestępców właśnie w ten sposób interpretują i wykorzystują trend Web 2.0 popularyzowany przez twórców i ideologów serwisów internetowych. Portale społecznościowe oraz blogi idealnie nadają się do propagowania niebezpiecznego oprogramowania. Specjaliści G DATA oczekują wzrostu przestępczej działalności internetowej w najbliższych miesiącach.
6
„Surfowanie w Internecie przy użyciu niezabezpieczonego komputera nie było nigdy wcześniej równie groźne jak w roku 2008. Wybuchowy wzrost ilości malware w ubiegłym roku świadczy o tym, że mamy do czynienia z wydajnymi i dobrze zorganizowanymi sieciami e-przestępców. Autorzy złośliwych programów aktywnie śledzą możliwości oraz rozwijające się technologie i używają ich do sprawnego infekowania kolejnych komputerów, a także skuteczniejszego wykradania danych. Celem ataków w 99,2% są komputery z systemami Windows. W roku 2008 zainteresowaniem wśród e-przestępców cieszyły się sieci społecznościowe oraz usługi internetowe w duchu idei Web 2.0. Użytkownicy powinni zadbać o to, aby ich pakiety zabezpieczające kontrolowały zawartość przeglądanych stron na obecność złośliwego kodu”, reasumuje Ralf Benzmüller, szef laboratorium G DATA Security. n
www.boston–review.com
NewsRoom
Ochrona komórki przed atakiem „Curse of Silence” Fortinet, producent rozwiązań bezpieczeństwa dla telefonów komórkowych FortiClient Mobile, opracował nową wersję narzędzia FortiCleanUp, które umożliwia przywrócenie pierwotnego stanu telefonu komórkowego zaatakowanego odkrytym niedawno exploitem „Curse of Silence” (znanym również pod nazwą „CurseSMS”). Aplikacja automatycznie wykrywa i usuwa szkodliwe wiadomości SMS / MMS, które uniemożliwiają prawidłowe funkcjonowanie telefonu. Firma udostępnia nowe narzędzie bezpłatnie. Użytkownicy mogą bezproblemowo przywrócić sprawność telefonów zaatakowanych przez „Curse of Silence / CurseSMS”. Atak „Curse of Silence” / „CurseSMS” polega na zablokowaniu telefonu komórkowego przy pomocy wiadomości SMS / MMS. Exploit został odkryty przez Tobiasa Engela na 25 konferencji Chaos Communication Congress. Atak polega na przesłaniu specjalnie spreparowanej wiadomość SMS. Po jej otrzymaniu, urządzenie może już nie być w stanie odbierać żadnych wiadomości SMS lub MMS. W zależności od wersji systemu operacyjnego telefonu komórkowego, przywrócenie sprawności urządzenia może wymagać powrotu do ustawień fabrycznych, co wiąże się z utratą danych użytkownika takich
jak książka adresowa, otrzymane wiadomości, etc. Urządzeniami potencjalnie narażonymi na tego typu atak są między innymi telefony firmy Nokia działające pod kontrolą systemu operacyjnego Symbian S-60: drugie wydanie z pakietem Feature Pack 2, drugie wydanie z pakietem Feature Pack 3, trzecie wydanie oraz trzecie wydanie z pakietem Feature Pack 1. Lista zagrożonego sprzętu obejmuje telefony z serii „N” do modelu N95 włącznie oraz rodzinę telefonów „E” aż do modelu E90, a także starsze modele (np. 6680). W celu zapewnienia pełnej ochrony działającej w czasie rzeczywistym, zespół FortiGuard zaleca zainstalowanie w urządzeniach przenośnych aplikacji zabezpieczającej FortiClient Mobile. Program ten zawiera zunifikowanego agenta bezpieczeństwa, który oferuje funkcje takie jak: osobista zapora firewall, sieć VPN z protokołem IPSec, oprogramowanie antywirusowe, oprogramowanie usuwające spam oraz moduł usuwający spam z wiadomości SMS. Agent Forti Client jest obsługiwany przez usługi subskrypcyjne FortiGuard, pomagające w ochronie urządzeń przed różnymi zagrożeniami. Program oferujący funkcje niewielkiego, zunifikowanego agenta dostępny jest w wersji dla systemów operacyjnych Microsoft® Windows Mobile™ oraz Symbian S-60. n
Access Manager 3.1 z obsługą federowania tożsamości WS-Federation Novell przedstawił nową wersję rozwiązania do zarządzania dostępem – Novell Access Manager 3.1. Została ona wyposażona w mechanizm WS-Federation do obsługi federowania informacji o tożsamości użytkowników, umożliwiający stosowanie w środowiskach heterogenicznych funkcji jednokrotnego logowania, dotychczas dostępnej zwykle tylko w drogich rozwiązaniach do obsługi sfederowanych tożsamości. Dzięki temu jest w branży funkcjonalnie najbogatszym rozwiązaniem do zarządzania dostępem do usług internetowych. Wyposażenie rozwiązania w mechanizm obsługi WS-Federation było możliwe dzięki współpracy technicznej firm Novell i Microsoft. WS-Federation to jeden ze standardów WS–definiujących sposoby wspólnego dostępu i uwierzytelniania, umożliwiający łatwe i bezpieczne współdzielenie danych biznesowych w środowiskach informatycznych opartych na zróżnicowanym oprogramowaniu. Obecnie rozwiązanie umożliwia administratorom i specjalistom ds. bezpieczeństwa IT przyznawanie użytkownikom, partnerom i organizacjom nie korzystającym z systemów Windows praw dostępu z jednokrotnym logowaniem do produktów Microsoft działających za pośrednictwem Internetu, takich jak Microsoft Office SharePoint. We współczesnych, heterogenicznych środowiskach informatycznych informacje o tożsamości są zwykle przechowywane w wielu miejscach, w tym w obsługiwanych przez różne aplikacje katalogach tożsamości, takich jak www.boston–review.com
Novell eDirectory czy Microsoft Active Directory. Katalog Microsoftu jest wykorzystywany m.in. do uwierzytelniania użytkowników Microsoft Office SharePoint. Novell Access Manager umożliwia jednokrotne logowanie użytkownikom, dla których Microsoft Active Directory nie jest głównym katalogiem tożsamości. Takie podejście pozwala znacznie uprościć proces uwierzytelniania użytkowników aplikacji internetowych korzystających z różnorodnych katalogów tożsamości i uniknąć czasochłonnego synchronizowania informacji związanych z tożsamością. Ponadto udostępnia bezpieczny i prosty sposób federowania informacji o tożsamości zawartych w dowolnym katalogu LDAP z infrastrukturą systemów Microsoft, eliminując potrzebę zakupu dodatkowego rozwiązania do federowania tożsamości. Możliwość zaoszczędzenia pieniędzy i czasu ma duże znaczenie dla organizacji, które potrzebują rozwiązania do zarządzania dostępem obsługującego różnorodne platformy i usługi katalogowe w złożonych, zróżnicowanych środowiskach informatycznych. Upraszcza również bezpieczne współdzielenie zasobów z wykorzystaniem Internetu, ułatwiając klientom kontrolę nad dostępem do aplikacji internetowych i tradycyjnych aplikacji biznesowych. Zaufani użytkownicy zyskują możliwość prostego uwierzytelniania i bezpiecznego dostępu do portali, treści internetowych i aplikacji korporacyjnych, zaś administratorzy – scentralizowanego, opartego na politykach zarządzania uwierzytelnianiem i prawami dostępu. n
7
NewsRoom
Zwiększone zagrożenie własności intelektualnej spowodowane przez globalną recesję McAfee przedstawiła wyniki pierwszego globalnego badania aspektów bezpieczeństwa gospodarek opartych na informacji. W raporcie zatytułowanym „Niezabezpieczone gospodarki. Ochrona kluczowych informacji” (Unsecured Economies: Protecting Vital Information) eksperci z dziedziny bezpieczeństwa i osoby odpowiedzialne za podejmowanie decyzji w sprawach informatyki ostrzegają, że globalna recesja w bezprecedensowy sposób zwiększa zagrożenie najważniejszych informacji. Badacze z Centrum Edukacji i Badań Wiarygodności i Bezpieczeństwa Informacji (CERIAS – Center for Education and Research in Information Assurance and Security) Uniwersytetu Purdue przeprowadzili badanie ankietowe ponad 800 szefów informatyki z USA, Wielkiej Brytanii, Niemiec, Japonii, Chin, Indii, Brazylii i Dubaju. Podczas badań wskazano źródła najważniejszych informacji, takich jak własność intelektualna, miejsca ich przechowywania, sposób przesyłania oraz okoliczności utraty. Według oceny badanych firm tylko w minionym roku łączne straty związane z utratą własności intelektualnej sięgnęły 4,6 miliarda dolarów, natomiast wydatki na likwidację skutków naruszenia bezpieczeństwa sięgnęły 600 milionów dolarów. W oparciu o te liczby McAfee szacuje, że w skali globalnej straty firm z tego tytułu przekroczyły bilion dolarów. Raport „Niezabezpieczone gospodarki” wskazuje, że w krajach takich jak Brazylia, Japonia czy Chiny kluczem do bezpieczeństwa danych jest możliwość ich bezpiecznego przechowywania. Aż sześćdziesiąt procent respondentów z Chin deklaruje, że właśnie względy bezpieczeństwa skłoniły ich do przechowywania kluczowych informacji poza granicami kraju. Najważniejsze wnioski: Recesja zwiększa zagrożenie własności intelektualnej Globalny kryzys finansowy i jego wpływ na bezpieczeństwo kluczowych danych, takich jak własność intelektualna, jest przedmiotem poważnego zaniepokojenia przedsiębiorstw. Trzydzieści dziewięć procent respondentów uważa, że w obecnej sytuacji gospodarczej kluczowe informacje są zagrożone w dużo większym stopniu, niż dotychczas.
Zróżnicowane zaangażowanie w ochronę kluczowych informacji Podmioty z krajów rozwijających się przykładają większą wagę do ochronę własności intelektualnej i inwestują w nią więcej, niż podobne firmy zachodnie. W Brazylii, Chinach i Indiach wydaje się na bezpieczeństwo więcej niż w Niemczech, Wielkiej Brytanii, USA czy Japonii. Siedemdziesiąt cztery procent respondentów z Chin i sześćdziesiąt osiem procent respondentów z Indii dokonało inwestycji w bezpieczeństwo własności intelektualnej w celu zwiększenia konkurencyjności. Własność intelektualna stanowi obecnie rodzaj międzynarodowej waluty Własność intelektualna staje się nowym celem cyberprzestępców. Eksperci twierdzą, że odnotowano wzrost liczby przypadków naruszenia bezpieczeństwa danych korporacyjnych przez zorganizowane grupy przestępcze. Cyberprzestępcy coraz częściej wykorzystują zaawansowane techniki phishingu do ataku na członków zarządów przedsiębiorstw. Trzydzieści dziewięć procent respondentów za najważniejsze zadanie uznaje ochronę własności intelektualnej przed próbami jej wykradzenia. Pracownicy kradną własność intelektualną dla pieniędzy oraz by zyskać przewagę na rynku pracy Rośnie liczba pracowników, którzy mając problemy finansowe decydują się na kradzież kluczowych danych przedsiębiorstwa. W warunkach globalnej recesji, wobec groźby utraty pracy i malejącej możliwości normalnego zatrudnienia „cybernetyczne krety” wykradają dane, które mogą być atrakcyjne dla przyszłych pracodawców, by zwiększyć swą wartość na rynku pracy. Według czterdziestu dwóch procent respondentów zwalniani pracownicy stanowią największe zagrożenie dla kluczowych informacji. Bezpieczeństwo własności intelektualnej, a geografia Uwarunkowania geopolityczne mają wpływ na percepcję kwestii bezpieczeństwa informacji. Badane firmy uznały Chiny, Pakistan i Rosję za strefy podwyższonego ryzyka z licznych powodów o naturze prawnej, kulturowej i gospodarczej. Z tego powodu dwadzieścia sześć procent respondentów unika przechowywania swej własności intelektualnej w Chinach. Zarazem aż czterdzieści siedem procent respondentów z Chin uważa, że największe zagrożenie dla ich własności intelektualnej stanowią Stany Zjednoczone. n
Szkodliwy program dla telefonów komórkowych kradnie pieniądze Kaspersky Lab poinformował o wykryciu nowego trojana – Trojan-SMS. Python.Flocker – dla systemu operacyjnego Symbian wykorzystywanego w wielu nowoczesnych telefonach komórkowych. Szkodnik atakuje klientów jednego z operatorów mobilnych w Indonezji. Trojan wysyła na krótki numer SMS zawierające polecenie przekazania części pieniędzy dostępnych na mobilnym koncie zaatakowanego użytkownika na inne konto, należące do cyberprzestępców. Obecnie znanych jest już kilka wersji nowego trojana – od .ab do .af. Z kont zaatakowanych użytkowników pobierane są kwoty od 45 do 90 centów. Jasne jest zatem, że jeśli cyberprzestępcy, którzy stworzyli trojana, zdołają zainfekować wiele telefonów komórkowych, łączna kwota ukradzionych pieniędzy spływających na ich konto może być całkiem spora.
8
„Nie ma wątpliwości co to tego, że autorzy trojana chcą zarobić pieniądze”, mówi Denis Maslennikow, starszy analityk szkodliwych programów z Kaspersky Lab. „Wydaje się, że będziemy coraz częściej obserwować kradzieże wykorzystujące technologie mobilne. Do niedawna wiele osób sądziło, że mobilne szkodliwe programy wysyłające SMS na płatne numery bez wiedzy użytkownika zainfekowanego telefonu to typowo rosyjskie zjawisko, które nie opuszcza granic tego kraju. Teraz widzimy, że problem nie dotyczy już wyłącznie Rosji i moment, w którym stanie się on zjawiskiem międzynarodowym jest tylko kwestią czasu”. Użytkownicy rozwiązań mobilnych firmy Kaspersky Lab są w pełni chronieni przed nowym trojanem – rozwiązania te wykrywają szkodliwe programy i eliminują możliwość ich uruchamiania się w telefonie. n www.boston–review.com
NewsRoom
Konsumenci o rynku telekomunikacyjnym Raport z badania konsumenckiego „Rynek telekomunikacyjny w Pol- • sce w 2008 roku. Klienci indywidualni” przeprowadzonego przez Centrum Badań Marketingowych INDICATOR pokazał, jak dużą popularnością cieszą się krajowe usługi telekomunikacyjne. Telefon, niezależnie od wykorzystywanej w tym celu technologii, posiada zdecydowana większość badanych (97,3%). Niemalże połowa respondentów posiada zarówno telefon stacjonarny, jak i komórkowy (44,1%). • Czterech na dziesięciu użytkuje tylko aparat komórkowy, a jeden na siedmiu tylko aparat stacjonarny. Tylko jeden badany na pięćdziesięciu (2%) nie posiada żadnego aparatu telefonicznego. Badania objęły cztery segmenty rynku telekomunikacyjnego i dotyczyły zagadnień w zakresie rynku telefonii stacjonarnej, telefonii komórkowej, dostępu do • Internetu, odbioru telewizji, ogólnej oceny rynku telekomunikacyjnego oraz podstawowych informacji o ankietowanych. Ponadto: •
•
• •
Największą popularnością osób decyzyjnych w sprawach telekomunikacyjnych w badanych gospodarstwach domowych cieszą się telefony na abonament, a nieco mniejszym telefony na kartę pre-paid. W gronie pozostałych osób w rodzinie obserwuje się podobną tendencję – nieco większym zainteresowaniem cieszą się telefony na abonament niż telefony na kartę pre-paid; Wiadomości tekstowe wysyłane z telefonów komórkowych stały się powszechną formą komunikacji i cieszą się dużą popularnością. SMS-y są wysyłane przez 93,7% posiadaczy telefonów komórkowych. Dwukrotnie mniej osób (41,3%) wysyła wiadomości MMS; Większość badanych (65,6%) jest zdania, że usługa przenoszenia numerów powinna być bezpłatna. Opłatę za tę usługę dopuszcza co ósmy badany (12,3%), a wysokość opłaty w ich opinii powinna wynosić średnio 34 zł; Oferta cenowa i rabaty są głównymi kryteriami branymi pod uwagę przy wyborze operatora telefonii komórkowej; Całkowita średnia miesięczna opłata za korzystanie z telefonu komórkowego jest znacznie wyższa w przypadku osób płacących abonament (83 złote), niż użytkowników kart pre-paid (53 złote), czy mix (52 złote). Niewykluczone, iż jest to efekt większej kontroli wydatków wynikającej ze sposobu rozliczania wykonywanych połączeń, jak i ograniczeń budżetowych użytkowników systemu pre-paid i mix. n
83% Polaków deklaruje posiadanie telefonu komórkowego. Na- • sycenie indywidualnego rynku telekomunikacyjnego usługą telefonii komórkowej jest więc większe niż nasycenie usługą telefonii stacjonarnej; • Znajomość spontaniczna trzech największych operatorów telefonii komórkowej jest na podobnym poziomie: Era (90,2%), Orange (88,4)% oraz Plus (87,4%). Czwarty operator – Play jest wskazywany przez sześciu na dziesięciu badanych (62,3%). Mobilking został wymieniony przez 14,6% ankietowanych; Trzech na czterech respondentów (77,3%) zauważa przekaz informacyjny o ofercie operatorów zawarty w reklamie w radiu lub telewizji; Badani najczęściej korzystają z usług operatora telefonii komórkowej Orange (dawniej Idea) – 37,5% badanych. Duży odsetek ankietowanych posiada telefony komórkowe w sieciach Era (33,1%) oraz Plus (24,6%); Źródło: UKE
Nietrafiona strategia informatyczna może w czasach spowolnienia gospodarczego zaszkodzić wynikom finansowym przedsiębiorstw Firma Juniper Networks poinformowała, że wyniki ankiety przeprowadzonej wśród dyrektorów działów informatyki średnich i dużych przedsiębiorstw we Francji, Niemczech i Wielkiej Brytanii sugerują, że uwaga decydentów w czasach spowolnienia gospodarczego może być niepotrzebnie odciągana przez problemy informatyczne nie przekładające się w bardzo istotnym stopniu na ostateczne wyniki gospodarcze ich przedsiębiorstw. Wyniki ankiety potwierdzają, że strategiczne inwestycje w infrastrukturę sieciową mogą pomóc w radzeniu sobie z niedostatkami finansowymi poprzez zwiększanie przewagi konkurencyjnej, odróżniania się od innych, ograniczanie kosztów działalności i maksymalizację wydajności działania. Badanie zlecone przez Junipera wykazuje, że większość dyrektorów działów informatyki uważa, że „inteligentna” sieć jest istotnym zasobem gospodarczym firmy. Siedemdziesiąt pięć procent respondentów zgodziło się ze stwierdzeniem, że „wysokowydajna sieć, umożliwiająca zapewnienie wyższego poziomu bezpieczeństwa, szybkości i niezawodności jej działania, pozwala nowoczesnym firmom lepiej zadowalać klientów, zwiększać
www.boston–review.com
sprawność działania i odnosić większe sukcesy na rynku”. Jednakże na pytanie jak silnie strategia informatyczna wpływa na wyniki gospodarcze działalności ich firmy, 59 procent odpowiedziało, że w skali do 10 (największy wpływ) szacują to na „7 lub mniej”. „Wydaje się, że ludzie na kierowniczych stanowiskach działów informatyki mają świadomość tego, co komercyjnie zapewnia wysokowydajna infrastruktura sieciowa, ale nie zawsze są w stanie dobrze określić priorytety przedsięwzięć i zadań pod kątem ich wpływu na cele gospodarcze firm i osiągane przez nie wyniki finansowe” – powiedział Adrian Carr, wiceprezes do spraw sprzedaży dla przedsiębiorstw w regionie EMEA w Juniper Networks. „Szczególnie przy powszechnych ograniczeniach finansowych pojawia pokusa zarzucania trwających nowatorskich przedsięwzięć informatycznych lub nie przystępowania do nowych, by skupić się na nieuniknionych problemach, takich jak zgodność prawna. Ale takie podejście może być bardzo reaktywne i prowadzić do kumulowania się z czasem problemów finansowych, co może utrudnić wychodzenie firm z kryzysu, gdy gospodarka znowu zacznie się rozkręcać”. n
9
FACE TO FACE
rozmowa z
Krzysztofem Sieczkowskim i Rafałem Jaczyńskim
Przełamać barierę opłacalności Jakie tendencje dotyczące zagrożeń czyhających na użytkowników komunikacji mobilnej zauważyliście w przeciągu ostatniego roku? Rok 2008 to kilkusetprocentowy wzrost odmian złośliwego oprogramowania atakującego telefony komórkowe. Oczywiście należy pamiętać, że liczba odmian tego oprogramowania wciąż stanowi ułamek promila pojawiającego się w analogicznym okresie oprogramowania atakującego komputery PC, ale oznacza to, że wirusy komórkowe powoli wychodzą z fazy eksperymentalnej. To, czy w ciągu najbliższych 18 miesięcy staną się one realnym zagrożeniem dla klientów, zależy głównie od tego, czy tworzenie wirusów dla telefonów przełamie barierę opłacalności, wynikającą ze zbyt małego rozpowszechnienia telefonów klasy "smartfone" w stosunku do technicznych wyzwań, jakie stoją przed twórcami telefonicznych wirusów. My zdecydowaliśmy się nie czekać na wybuch epidemii, wdrażając dla naszych klientów rozwiązanie ograniczające propagację złośliwego oprogramowania za pośrednictwem MMS. W końcu nie od dziś wiadomo, że lepiej zapobiegać, niż leczyć. Tak, zwłaszcza, że pojawiają się doniesienia, iż kryzys gospodarczy, spowodowane nim zamieszanie i dezorganizację świetnie wykorzystują cyberprzestępcy. Jakimi atakami mogą być dotknięci klienci sprzętu mobilnego? Jak świat światem, w każdej dziedzinie bezpieczeństwa działanie ułatwiały przestępcom dwa czynniki – ogólne zamieszanie i spadek wydatków na ochronę. Nie muszę nikogo przekonywać, iż mamy już do czynienia ze wzrostem niestabilności i niepewności oraz gwałtownymi zmianami zarówno po stronie korporacji, jak i indywidualnych osób.
10
Grupa TP
Spadek wydatków na zabezpieczenia również będzie odczuwalny, szczególnie po stronie indywidualnych klientów, w przypadku gwałtownie zwiększającego się bezrobocia. W sytuacji niestabilności będziemy obserwować nasilenie ataków bazujących na metodach socjotechnicznych, motywujących użytkowników do podjęcia określonych działań (zainstalowania oprogramowania, odwiedzin strony, podania haseł, etc.). Te właśnie ataki będą najbardziej istotne dla użytkowników mobilnych. Jak już wspomniałem, przed masowymi działaniami wykorzystującymi bardziej skomplikowane, techniczne wektory ataku chroni nas jeszcze bariera opłacalności. Dziś nie można polegać wyłącznie na standardach sieci GSM. Aby prowadzić bezpieczne rozmowy potrzebne są dodatkowe zabezpieczenia. Czy uważacie, że obecne dają wystarczające bezpieczeństwo użytkownikom? Niewiele osób zwraca uwagę na fakt, że jeżeli chodzi o mechanizmy bezpieczeństwa (w tym kryptografię), komunikacja w systemie GSM od samego początku była zabezpieczona o wiele lepiej, niż w tradycyjnych rozwiązaniach komunikacji przewodowej. Nawet złamanie części wykorzystywanych algorytmów nie spowodowało, że GSM jest mniej bezpieczny od innych publicznych systemów telekomunikacyjnych porównywalnej (lub wcześniejszej) generacji. Oczywiście, nie wszystkie oryginalnie wykorzystywane w GSM algorytmy wytrzymały próbę czasu, a i potrzeby bezpieczeństwa klientów są różne, dlatego osoby wymagające wyższej poufności rozmów mogą korzystać z działających w Polsce sieci trzeciej generacji (UMTS) lub dostępnych u firm trzecich rozwiązań szyfrujących komunikację end-to-end. www.boston–review.com
FACE TO FACE
Miałem przyjemność uczestniczyć tworzeniu mechanizmów bezpieczeństwa dla systemu UMTS i mogę śmiało powiedzieć, że wprowadzą one szereg zmian jakościowych w stosunku do GSM. Postęp dotyczy między innymi kryptograficznej jakości wykorzystywanych algorytmów. Ponieważ opierają się one na publicznie dostępnych algorytmach – i same są opublikowane – były przed adaptacją i wciąż są poddawane kryptoanalizie z intensywnością, która nie miała miejsca w przypadku GSM. Proszę zauważyć, że protoplasta algorytmu szyfrującego dla UMTS, algorytm MISTY1, został opracowany w 1995 roku, specyfikacja jego ulepszonej wersji dla potrzeb szyfrowania UMTS – KASUMI – pochodzi z roku 1999, co daje kilkanaście lat kryptoanalizy bez rezultatów w postaci opisu praktycznego ataku. Wprowadziliście usługę, która skanuje MMS-y krążące wśród klientów waszej sieci. Na czym dokładnie polega i przed czym realnie chroni? Rozwiązanie, które wprowadziliśmy, polega na skanowaniu wiadomości MMS pod kątem wirusów – chroni zatem klientów naszej sieci przed przesłaniem przez MMS programów, które mogą być niebezpieczne dla przechowywanych tam danych. Myśląc poważnie o oferowaniu zaawansowanych usług mobilnych (np. mobilnych płatności) musimy zadbać o to, żeby klienci mogli mieć zaufanie do bezpieczeństwa danych przechowywanych na telefonach. Według zeszłorocznych badań wykonanych dla firmy McAfee – reprezentatywnych również dla polskiego rynku – aż 79 procent użytkowników zaawansowanych tele-
Krzysztof Sieczkowski, dyrektor Pionu Rozwoju Produktów i Innowacji w Grupie TP.
www.boston–review.com
fonów komórkowych nie zainstalowało na nich żadnego oprogramowania antywirusowego, a dalsze 15 procent nie jest pewne, czy takie oprogramowanie posiada. Ze względu na fakt, że usługi mobilnej transmisji danych są w odczuciu klientów bardziej związane z telefonią komórkową, niż z przewodowym dostępem do Internetu oraz większy związek telefonu ze świadczonymi przez operatorów komórkowych usługami, większość klientów oczekuje oferty zwiększającej poziom bezpieczeństwa usług właśnie od operatora, nie producenta telefonu bądź firm trzecich. To już kolejny krok w stronę poprawy bezpieczeństwa. W zeszłym roku wprowadziliście usługę „Bezpieczny dostęp” dla użytkowników Neostrady. Jak oceniacie poziom cyberprzestępczości na polskim rynku? Zarówno nasze analizy, jak i dostępne niezależne opracowania wskazują, że jeżeli chodzi o poziom zagrożeń dla użytkowników Internetu nasz kraj znajduje się w światowej czołówce, często tocząc wyrównaną walkę o pierwsze miejsce. Jednym z większych problemów światowego Internetu jest zwiększająca się dramatycznie populacja tzw. "zombies", czyli komputerów, które w wyniku instalacji złośliwego oprogramowania są zdalnie sterowane przez cyberprzestępców i są bez wiedzy ich właścicieli wykorzystywane do kradzieży danych, rozsyłania spamu, atakowania innych komputerów itd. Istnieją szacunki wskazujące, że 25 procent światowej populacji komputerów PC podłączonych do Internetu funkcjonuje jako "zombie". W Polsce ten problem jest proporcjonalnie większy. Składa się na to wiele czynników: niskie wykorzystanie legalnego opro-
Rafał Jaczyński, dyrektor Departamentu Zarządzania Bezpieczeństwem Systemów Teleinformatycznych w Pionie Infrastruktury IT Grupy TP.
11
FACE TO FACE
gramowania, bariera dochodowa utrudniająca korzystanie z aktualizowanego oprogramowania, zbyt niska świadomość użytkowników, dotychczas niewystarczająca aktywność operatorów na tym polu, silna scena hakerska w Polsce i naszym regionie Europy. Uniemożliwiliście swoim klientom dostęp do niektórych serwerów IRC, tłumacząc się troską o ich dobro... Komputery klientów działające jako "zombie" pracują połączone w sieci (botnety). W chwili obecnej statystycznie wciąż w większości są botnety sterowane centralnie (czyli otrzymujące polecenia z centralnego serwera). Z kolei wśród centralnie sterowanych botnetów nadal większość stanowią te wykorzystujące do komunikacji właśnie protokół IRC. Zablokowane przez nas serwery IRC były wykorzystywane jako serwery sterujące botnetami – innymi słowy, za ich pośrednictwem były wysyłane do komputerów klientów "rozkazy" wykonania określonych czynności, na przykład wysłania spamu, wzięcia udziału w ataku sieciowym, lub wydostania określonych informacji z komputera. Nasi klienci, użytkownicy tych komputerów, najczęściej nie są świadomi, że ich komputer jest wykorzystywany do nielegalnej działalności lub używany do pozyskania istotnych informacji (np. finansowych), a przy sięgającej miliona liczbie zarażonych komputerów my nie jesteśmy w stanie pomóc indywidualnie każdemu użytkownikowi. Dlatego jedynym realnym rozwiązaniem było zablokowanie komunikacji pomiędzy serwerami, za pośrednictwem których wysyłane były rozkazy, a oczekującym na nie złośliwym oprogramowaniem na komputerach klientów. Z punktu widzenia klienta korzyść jest ewidentna – w przypadku, kiedy kontroler botnetu znajduje się na liście blokowanych adresów, nawet w przypadku instalacji na komputerze złośliwego oprogramowania nie jest ono w stanie wykorzystać komputera dla potrzeb cyberprzestępców. Dodatkową korzyścią dla polskich internautów jest fakt, że administratorzy wielu z zablokowanych serwerów IRC podjęli konkretne i skuteczne działania na rzecz poprawy ich bezpieczeństwa. Komunikacja z zablokowanymi adresami (w tym serwerami IRC) jest odblokowywania po ustaniu zagrożenia, które stwarzają. Jednak wśród odbiorów tej usługi pojawiły się zarzuty, że wybrana metoda blackholingu nie spełnia oczekiwanych efektów, że można było wykorzystać bardziej precyzyjne metody. Wielu osobom utrudniło komunikację np. w miejscu pracy. Różnego rodzaju zarzuty były rzeczywiście formułowane, niestety nie opierały się one na faktach. A fakty dotyczące skuteczności są takie, że według wszystkich dostępnych źródeł danych wprowadzenie przez nas blackholingu spowodowało np. spadek spamu wychodzącego z sieci TP o około 40 procent, przesuwając nas jednocześnie zdecydowanie w dół listy światowych sieci generujących najwięcej spamu. Biorąc pod uwagę fakt, że botnety wykorzystywane są nie tylko w tym celu, uprawnione jest twierdzenie, że w sposób znaczący udało się poprawić bezpieczeństwo naszych klientów. Na podstawie własnych doświadczeń i dotyczących blackholingu reklamacji trafiających do zespołu TP CERT pozwolę sobie wyrazić opinię, że wykorzystywanie publicz-
12
nych serwerów IRC do komunikacji w miejscu pracy jest przypadkiem bardzo rzadkim, a przynajmniej niezmiernie rzadko jest zgodne z oczekiwaniami pracodawców. Całkowita ilość zastrzeżeń, które otrzymaliśmy, nie przekracza pojedynczych promili – zarówno w stosunku do liczby abonentów, jak i liczby blokowanych adresów. Polska wciąż uczy się na błędach. Czy nie prościej byłoby wcześniej i skuteczniej informować internautów o zagrożeniach czyhających przy korzystaniu z usług? Wydaje się, że operatorzy kładą na ten aspekt niedostateczny nacisk... Telekomunikacja Polska od dawna udostępnia na stronie TP CERT, swojego zespołu ds. bezpieczeństwa w Internecie, wyczerpujące informacje dotyczące zagrożeń związanych z korzystaniem z Internetu, jak i sposobów ochrony przed nimi (włącznie z darmowymi narzędziami, np. skanerem antywirusowym online). Pod względem dostępności informacji o zagrożeniach już należymy do czołówki, zarówno krajowej, jak i międzynarodowej. I w tym miejscu zwykle przedstawiciel operatora rozkłada ręce, tłumacząc, że robimy, co możemy, a że niewiele możemy, to niewiele robimy. Niestety, same informacje z reguły nie wystarczają użytkownikom Internetu do samodzielnego poradzenia sobie z zagrożeniami – tak, jak udostępnienie przez producenta instrukcji naprawy samochodu nie każdemu pozwoli na jego samodzielną naprawę. Do tego potrzebne są narzędzia, wiedza i doświadczenie. Dlatego planując rozwój oferty i sieci pod względem bezpieczeństwa nie ograniczamy się do rozwiązań prostych i szablonowych, jesteśmy gotowi dać naszym klientom rzeczywistą wartość dodaną, nawet jeżeli będzie to oznaczało wprowadzanie pionierskich rozwiązań. Nawiązując jeszcze do pytania... Polska, wprowadzając w tej skali blackholing, znalazła się w czołówce krajów europejskich, w których operatorzy zdecydowali się w ten sposób aktywnie wspierać klientów w walce z obecnymi w Internecie zagrożeniami. Mam nadzieję, że pozostali będą teraz uczyć się od nas. Jaką przyszłość widzicie dla platformy płatności mobilnych? Znacznie uprościłyby życie a jednak jeszcze mało kto się na nie decyduje. Jakie jest zawsze zainteresowanie tym obszarem? Płatności mobilne są jedną z najsilniej działających na wyobraźnię usług mobilnych. Są w teorii usługą bardzo naturalną, ergonomiczną i szybką, bezpieczną dzięki dostępnej technologii, dostępną dzięki nasyceniu rynku telefonami komórkowymi, rozpowszechnioną dzięki szerokiej bazie akceptantów, korzystną dla wszystkich uczestników schematu. Niestety, od długiego czasu, a interesuję się zagadnieniem od kilkunastu lat, nie udało się na polskim rynku zaoferować produktu spełniającego łącznie wszystkie teoretycznie możliwe do osiągnięcia cechy pozytywne. Wiążemy spore nadzieje z technologią NFC (Near Field Communication). NFC to bez wątpienia najłatwiejszy dla klienta sposób korzystania z płatności mobilnych, ale nie jedyny. Jesteśmy gotowi do uruchamiania w naszej sieci dowolnych aplikacji i standardów płatniczych opartych o technologie mobilną, o ile będą to usługi bezpieczne i przyjazne klientowi. Katarzyna Czajkowska www.boston–review.com
10 prognoz REPORT
zagrożeń
Laboratorium TrendLabs firmy Trend Micro pracowało zestaw dziesięciu największych zagrożeń czyhających na nas w 2009 roku, tych nowych i tych już nazbyt dobrze 1. Bolączki Web 2.0 Korzyści (i zagrożenia) płynące ze stosowania aplikacji Web 2.0 będą w 2009 roku nadal aktualne. Hakerzy będą korzystać z technik tworzenia struktur przypominających zwykły kod, takich jak IFRAMES, będą też nadal wykorzystywać przeglądarki i inne aplikacje internetowe jako nośniki infekcji. Wprowadzenie przeglądarki Google Chrome, zbliżające się oficjalne udostępnienie przeglądarki Internet Explorer 8 oraz wzrost popularności aplikacji typu „przeglądarka jako platforma” pociągnie za sobą rozwój nowych rodzajów ataków. 2. Alternatywne systemy operacyjne Wszystko, co dobre, szybko się kończy — w tym rzekome bezpieczeństwo platform alternatywnych. Zagrożenia wynikające z wykorzystania błędów w alternatywnych systemach operacyjnych będą coraz powszechniejsze, zwłaszcza w obliczu rosnącej popularności systemów Mac i Linux. 3. Microsoft — stały cel Ulubionym obiektem ataków twórców szkodliwego oprogramowania jest Microsoft i nie zanosi się na to, aby rok 2009 miał tu przynieść zmiany. W związku z udostępnieniem systemu Windows 7 należy spodziewać się ataków przestępców cybernetycznych, którzy z pewnością potraktują zapowiedzi o całkowitej odporności nowego systemu na wirusy jako wyzwanie. Na podobne ataki testujące poprawność opracowania będą też narażone projekty Microsoft Surface, Silverlight i Azure. 4. Rozkwit socjotechniki Cybernetyczni przestępcy będą nadal używać głośnych wydarzeń oraz postaci ze świata showbiznesu i polityki jako przynęty w atakach opartych na socjotechnice. Użytkownicy oczekujący na publikację gier Starcraft 2 i WoW: Wrath of the Lich King również powinni mieć się na baczności. W związku z globalnym kryzysem finansowym będą zdarzać się próby nieuczciwego wykorzystania skłonności konsumentów do oszczędzania, takie jak wiadomości e-mail na tematy ekonomiczne, fałszywe kupony internetowe, fikcyjne propozycje pracy zdalnej i inne. 5. Wojny gangów cybernetycznych Analitycy zajmujący się dziedziną zabezpieczeń zapowiadają wojny wirusów, robaków i botnetów jako skutek coraz bardziej zaciętej walki o zyski z wyłudzania danych osobowych i oszustw, jak również zmniejszania się gangów cybernetycznych i coraz lepszych zabezpieczeń. Będzie trwała rywalizacja między przestępcami z krajów Europy Środkowej i Chin o pierwszeństwo we wprowadzaniu najnowszych eksploitów w zestawach szkodliwego oprogramowania. www.boston–review.com
6. Rosnące zagrożenia w świecie wirtualnym Wiele zagrożeń znanych dotąd ze świata rzeczywistego pojawia się również w świecie wirtualnym. Cybernetyczni przestępcy szukają publiczności dla swoich wyczynów, dlatego ich ofiarą padają często użytkownicy światów wirtualnych i gracze internetowi. Zagrożenia obecne w światach wirtualnych obejmują całą skalę różnorodnych zachowań użytkowników, czasem nieszkodliwych, jak udostępnianie haseł partnerom, czasem wyrafinowanych, jak oszustwa związane z własnością nieruchomości, a czasem tak groźnych jak polowania gangów na nowych użytkowników. 7. Zagrożenia w systemie DNS Cybernetyczni przestępcy będą wykorzystywać do swoich celów znane luki w rejestrach systemu nazw domen (domain name system — DNS). Według specjalistów używane są już zatrute pamięci podręczne DNS, które pozwalają tworzyć ukryte kanały komunikacyjne, obchodzić zabezpieczenia i dostarczać szkodliwe treści. Mimo że dostawcy zabezpieczeń ściśle współpracują z organizacjami zarządzającymi rejestrami DNS, konieczne jest zaangażowanie w ten problem Internetowej Korporacji ds. Nadawania Nazw i Numerów (Internet Corporation for Assigned Names and Numbers — ICANN). 8. Rozkwit nielegalnych interesów Cybernetyczne przestępstwa to już cały przemysł i niestety w roku 2009 będzie się on dalej rozwijać. Szkodliwe oprogramowanie do kradzieży informacji, ukierunkowane na dane logowania oraz informacje z systemów bankowych i dotyczące kart kredytowych będzie nadal bardzo popularne. 9. Rozwój inteligentnego szkodliwego oprogramowania Rozwój szkodliwych technologii jest nieunikniony, ponieważ twórcy złośliwych kodów wciąż opracowują i wprowadzają w obieg oprogramowanie, które ma być niewykrywalne i dzięki temu niemożliwe do usunięcia. Należy oczekiwać pojawiania się kolejnych rodzin szkodliwego oprogramowania w ograniczonej liczbie wariantów, przez co stojące przed producentami rozwiązań antywirusowych zadanie tworzenia modeli heurystycznych umożliwiających ich wykrywanie, będzie coraz trudniejsze. 10. Odsiecz na horyzoncie Nie wszystkie nowiny nastrajają pesymistycznie. Działania społecznościowe zaczynają coraz częściej skutkować unieszkodliwieniem nośników zagrożenia. W miarę jak narasta zniecierpliwienie tupetem cybernetycznych przestępców i ich atakami, działania społeczności będą coraz częściej prowadzić do demaskowania czarnych charakterów, tak jak w przypadku firm Atrivo/Intercage i McColo w roku 2008. n
13
REPORT
B³êdy, które prowadz¹ do utraty danych w firmie Cisco prezentuje badania dotyczące problemu nieautoryzowanego dostępu do infrastruktury i sieci oraz świadomego udostępniania poufnych informacji firmowych.
F
irma Cisco przedstawiła wyniki przeprowadzonych ostatnio globalnych badań z dziedziny zabezpieczeń. Zwracają one uwagę na liczne ryzykowne działania pracowników, które mogą prowadzić do jednego z najpoważniejszych dla przedsiębiorstw problemów związanych z bezpieczeństwem: utraty informacji korporacyjnych. Badanie wskazuje na często popełniane przez pracowników z całego świata błędy prowadzące do wycieku danych. Wyniki zostały oparte na ankietach przeprowadzonych wśród ponad 2000 pracowników i informatyków w 10 krajach. Wykazują one, że dla różnych krajów i kultur charakterystyczne są odmienne ryzykowne zachowania pracowników. Analizując wyniki badania, przedsiębiorstwa będą mogły dostosować swoje plany zarządzania ryzykiem tak, aby zapobiegać zagrożeniom z uwzględnieniem uwarunkowań lokalnych, a jednocześnie zachować zasięg globalny. Badania wykazały, że w miarę jak przedsiębiorstwa przechodzą od scentralizowanego do bardziej rozproszo-
14
nego modelu prowadzenia działalności, w którym wykorzystywani są pracownicy zdalni, granice między życiem osobistym a pracą zacierają się. Zmiana sposobu funkcjonowania przedsiębiorstw, podobnie jak zmiana stylu życia pracowników, stały się możliwe w dużym stopniu dzięki upowszechnieniu urządzeń i aplikacji do pracy zespołowej, wykorzystywanych do celów zawodowych i prywatnych. Należą do nich telefony komórkowe, laptopy, aplikacje Web 2.0, urządzenia wideo i inne media społeczne. W tym zmieniającym się środowisku biznesowym przeprowadzono badanie, które objęło 1000 pracowników i 1000 informatyków działających w różnych branżach i firmach różnej wielkości w 10 krajach: Stanach Zjednoczonych, Wielkiej Brytanii, Francji, Niemczech, Włoszech, Japonii, Chinach, Indiach, Australii i Brazylii. Wybrano właśnie te kraje, ponieważ reprezentują one zróżnicowane kultury społeczne i biznesowe oraz ustabilizowane i rozwijające się gospodarki oparte na wykorzystaniu sieci komputerowych na różnych poziomach zaawansowania. www.boston–review.com
REPORT
Dziesięć najbardziej wartych podkreślenia wyników badań: Zmiana ustawień zabezpieczeń na komputerach Jeden na pięciu pracowników zmienia ustawienia zabezpieczeń urządzeń w przedsiębiorstwie, aby obejść reguły wprowadzone przez dział informatyczny i móc korzystać z niedozwolonych w firmie witryn WWW. Przypadki takie występowały najczęściej w krajach o gospodarce rozwijającej się, jak Chiny czy Indie. Na pytanie o powody tego postępowania ponad połowa tych pracowników (52%) odpowiedziała, że po prostu chcieli uzyskać dostęp do określonych witryn internetowych, a co trzeci oświadczył, że nikogo nie powinno interesować, jakie strony odwiedza. Wykorzystanie niedozwolonych aplikacji Siedmiu na dziesięciu informatyków powiedziało, że pracownicy korzystający z niedozwolonych aplikacji i witryn WWW (blokowane media społeczne, oprogramowanie do pobierania plików muzycznych, sklepy internetowe) powodują nawet połowę przypadków utraty danych w firmach. Opinia ta była szczególnie rozpowszechniona w Stanach Zjednoczonych (74%) i Indiach (79%). Nieautoryzowany dostęp do sieci lub infrastruktury W zeszłym roku dwóch na pięciu informatyków spotkało się z przypadkami korzystania przez pracowników z obszarów sieci lub infrastruktury firmowej, do których nie mieli uprawnień. Przypadki tego typu występowały najczęściej w Chinach, gdzie niemal dwie trzecie ankietowanych miało styczność z tym problemem. Dwie trzecie wszystkich respondentów, którzy potwierdzili występowanie tego zjawiska, spotkało się z nim wielokrotnie w ciągu zeszłego roku, a 14% nawet co miesiąc. Udostępnianie poufnych informacji o firmie Po zasygnalizowaniu problemu tajności poufnych danych handlowych firmy, jeden na czterech ankietowanych (24%) przyznał w rozmowie, że ujawniał takie dane osobom spoza przedsiębiorstwa, przyjaciołom, rodzinie lub nawet nieznajomym. Najczęściej udzielane odpowiedzi na pytanie o powody takiego postępowania wskazywały na potrzebę zasięgnięcia opinii co do własnych pomysłów lub po prostu potrzebę porozmawiania, a także zawierały przekonanie, że nie ma w nim niczego nagannego. Udostępnianie urządzeń firmowych Na pytanie o to, czy dane nie trafiają w ręce nieuprawnionych osób, prawie połowa pracowników (44%) odpowiedziała, że udostępnia firmowe urządzenia innym osobom, w tym i takim, które nie są pracownikami firmy, bez nadzoru. Korzystanie z tych samych urządzeń i kanałów komunikacji do celów zawodowych i prywatnych Niemal dwie trzecie pracowników przyznało, że nagminnie korzysta z komputerów firmowych do celów osobistych, takich jak pobieranie plików muzycznych, zakupy, operacje bankowe, prowadzenie blogów, rozmowww.boston–review.com
wy na czatach i inne. Połowa pracowników korzysta z prywatnych kont poczty elektronicznej do komunikacji z klientami i współpracownikami, przy czym tylko 40% uzyskało na to zgodę działu informatycznego. Brak zabezpieczeń urządzeń Przynajmniej jednemu na trzech pracowników zdarza się odejść od biurka, pozostawiając niezabezpieczony komputer po zalogowaniu. Ci sami pracownicy pozostawiają też na noc na swoich biurkach laptopy, często bez wylogowania się, zwiększając ryzyko kradzieży urządzeń i nieautoryzowanego dostępu do danych przedsiębiorstwa i danych osobistych. Zapisywanie nazw użytkownika i haseł Jeden na pięciu pracowników zapisuje nazwy użytkownika systemu i hasła na własnym komputerze lub pozostawia takie notatki na swoim biurku, w otwartych szafkach, a nawet na kartkach przyklejonych do komputerów. W krajach takich jak Chiny (28%) pracownicy zapisują dane logowania do osobistych kont finansowych na urządzeniach firmowych, narażając się tym samym na straty. Fakt, że zostawiają te urządzenia bez dozoru, jeszcze bardziej podnosi współczynnik ryzyka. Utrata przenośnych urządzeń pamięci masowej Prawie co czwarty (22%) pracownik wynosi dane firmowe przy użyciu urządzeń pamięci masowej poza teren przedsiębiorstwa. Najczęściej zdarza się to w Chinach (41%). Powstaje wtedy ryzyko zgubienia lub kradzieży tych urządzeń. Dopuszczanie osób postronnych do pomieszczeń firmowych Ponad jedna piąta (22%) pracowników w Niemczech pozwala, aby osoby spoza przedsiębiorstwa przebywały bez dozoru w pomieszczeniach firmy. Średni wynik w tym badaniu to 13%. Natomiast 18% wchodząc na teren przedsiębiorstwa, wpuszczało ze sobą nieznane osoby. Zalecane procedury zapobiegania utracie danych: • Wiedz wszystko o swoich danych i sprawnie nimi zarządzaj: wiedz, gdzie i jak są one przechowywane, udostępniane i wykorzystywane; • Traktuj i chroń dane tak, jakby były to twoje własne pieniądze: uświadamiaj pracownikom, w jaki sposób ochrona danych przekłada się na zyski i straty finansowe; • Stosuj formalne standardy bezpiecznego postępowania: określ globalne cele strategiczne i twórz lokalne programy edukacyjne dostosowane do kultury danego kraju i dominujących w nim zagrożeń; • Twórz kulturę zaufania: pracownicy, którzy czują się pewnie, informują o groźnych zdarzeniach, dzięki czemu dział informatyczny może szybciej rozwiązywać problemy; • Dbaj o świadomość w kwestiach bezpieczeństwa, edukację i szkolenia: myśl globalnie, ale konkretne programy dostosowuj do uwarunkowań lokalnych, biorąc pod uwagę kulturę i charakterystyczne dla niej zagrożenia. n
15
SOLUTIONS w Komunikacja mobilna
Bezpieczeństwo urządzeń mobilnych
Rozmiary i waga przenośnych urządzeń elektronicznych, którymi posługujemy się na co dzień w celu uzyskania dostępu do wszelkiego rodzaju informacji, maleją sukcesywnie od początku ery technologii teleinformatycznych. Jednocześnie szybko rosną ich możliwości składowania, przetwarzania i przesyłania informacji. Aleksander M. Simon Urządzenia mobilne w firmie Jeszcze parę lat temu możliwości łączenia mobilnych urządzeń elektronicznych z sieciami firmowymi były stosunkowo niewielkie. Laptopy nie były standardowo wyposażane w karty sieciowe, asystenty elektroniczne PDA można było synchronizować wyłącznie ze sprzętem typu desktop (komputery PC, laptopy), a większość telefonów komórkowych nie posiadała innych możliwości zdalnej wymiany danych jak tylko poprzez sieć GSM. Obecnie większość urządzeń mobilnych posiada rozbudowane możliwości dostępu do różnego rodzaju sieci: laptopy i notebooki posiadają wbudowane karty Ethernet i Wi-Fi, smartfony i telefony komórkowe wyposażane są w dostęp komórkowy GSM/GPRS/EDGE/UMTS/HSPA i łączność krótkozasięgową Bluetooth i IrDA, a niektóre ich modele dysponują wszystkimi wymienionymi technologiami jednocześnie.
16
Miniaturyzacja urządzeń przenośnych pozwala w coraz większym stopniu wykorzystywać je do pracy poza siedzibą firmy lub wręcz w terenie (np. przez pracowników firm spedycyjnych dostarczających przesyłki, agentów ubezpieczeniowych likwidujących szkody, itd.). Wielu pracowników firm nosi dziś przy sobie cyfrowe asystenty osobiste, telefony komórkowe i inne urządzenia elektroniczne, zawierające m.in. takie dane firmowe jak listy kontaktów, hasła do kont, poufne emaile, załączniki, itp. Coraz częściej pracownicy łączą się z siecią firmową i zdalnie korzystają z udostępnianych przez nią aplikacji. Powszechnie używane aplikacje to poczta elektroniczna, komunikatory internetowe, firmowe bazy danych, programy typu CRM i ERP. Stwarza to duże zagrożenie przechwycenia wymienianych informacji, jeśli łączność taka nie będzie odpowiednio zabezpieczona. Nawet firmy, które nie udostępwww.boston–review.com
Komunikacja mobilna
niają specyficznych aplikacji mobilnych, mogą być narażone na ryzyko wycieku danych, ponieważ wielu pracowników synchronizuje firmową korespondencję ze swoim urządzeniem typu PDA lub smartfon. W razie zagubienia urządzenia lub jego kradzieży dane te stają się natychmiast łupem osób postronnych i mogą być w różny sposób wykorzystane. Przeprowadzane co jakiś czas badania i ankiety wykazują, że urządzenia mobilne (wykorzystywane firmowo czy prywatnie) nie są odpowiednio zabezpieczone, a nieupoważniony dostęp do nich może narazić użytkownika i zatrudniającą go firmę na znaczne ryzyko, szczególnie w dziedzinie nieuprawnionego wykorzystania informacji. Ograniczenie tego ryzyka leży w obowiązkach oficera bezpieczeństwa, a jego podstawą jest wprowadzenie w firmie, za pośrednictwem działów IT, odpowiedniej polityki bezpieczeństwa w zakresie urządzeń mobilnych. Polityka taka powinna opierać się na formalnym (a więc popartym odpowiednimi zarządzeniami) wprowadzeniu zasad, których przestrzegać muszą pracownicy firmy przy posługiwaniu się sprzętem przenośnym. Odpowiedzialność za bezpieczeństwo urządzeń i danych Statystyki pokazują wyraźnie, że w miarę zwiększania się stopnia mobilności pracowników i wzrostu ilości sprzętu przenośnego w firmie, rośnie także znacząco ilość zdarzeń związanych z nieodpowiednim zabezpieczeniem informacji i nieodpowiedzialnym zachowaniem się użytkowników urządzeń. Jedną z przyczyn takiego stanu rzeczy jest brak wspomnianej wyżej spójnej firmowej polityki bezpieczeństwa dotyczącej urządzeń mobilnych. Pracownicy firm często nie są w ogóle szkoleni w tych kwestiach. Badania ankietowe przeprowadzone na 700-osobowej grupie pracowników firm wywodzących się z krajów o wysokim stopniu rozpowszechnienia urządzeń przenośnych (USA, Wielka Brytania, Niemcy, Chiny, Indie, Korea Płd. i Singapur) wykazały, że prawie trzy czwarte ankietowanych nie miało pojęcia o zagrożeniach związanych ze stosowaniem tych urządzeń i nie znało podstawowych zasad mobilnego bezpieczeństwa. Innym, równie często występującym czynnikiem ryzyka jest panujące powszechnie wśród pracowników – użytkowników urządzeń firmowych – przekonanie, że skoro są one „osobiste”, to w pewnym sensie również „prywatne” i można ich używać w wybrany przez siebie sposób, niekoniecznie stosując się do zaleconych procedur bezpieczeństwa, a często świadomie je lekceważąc. Odpowiedzialność za bezpieczeństwo urządzeń mobilnych i zawartych w nich (lub wymienianych za ich pomocą) danych spoczywa zatem w równej mierze na odpowiednich osobach i działach, zajmujących się w firmie sprawami bezpieczeństwa, jak i na samych użytkownikach tych urządzeń, a więc często szeregowych pracownikach firmy. Z przeprowadzonych ankiet wynika, że firmy najbardziej obawiają się naruszenia bezpieczeństwa w następujących dziedzinach (w kolejności ważności): www.boston–review.com
• informacji i danych firmowych; • sieci firmowej; • samych urządzeń mobilnych. Ochrona urządzeń związana z możliwością ich utraty. Ochrona danych Malejące rozmiary urządzeń elektronicznych przyczyniają się do zwiększenia ich mobilności, ale to z kolei znacząco zwiększa prawdopodobieństwo ich utraty. Utrata urządzenia mobilnego następuje zazwyczaj na jeden z dwu sposobów: • zagubienie lub pozostawienie urządzenia w miejscu publicznym przez użytkownika; • kradzież urządzenia, często z włamaniem (np. do samochodu, w którym urządzenie pozostawiono na widocznym miejscu). Jeśli chodzi o pierwszą z wymienionych przyczyn, to statystyki są tutaj zatrważające. Corocznie użytkownicy laptopów, PDA, smartfonów i telefonów komórkowych pozostawiają w miejscach publicznych (najczęściej w środkach transportu publicznego, na lotniskach, itp.) setki tysięcy swoich urządzeń. Część z tych zgub nigdy nie wraca do swoich właścicieli, ponieważ urządzenia te nie są w żaden sposób opisane, a ich użytkownicy często nie pamiętają nawet miejsca ich pozostawienia. Na przykład, na jednym z największych lotnisk świata, londyńskim Heathrow, pozostawianych jest miesięcznie średnio ok. 120 laptopów, z czego co najmniej 15 kończy taką przygodę na aukcji. Biura rzeczy znalezionych pełne są z kolei mniejszych urządzeń (PDA, smartfonów), ponieważ ze względu na swoje niewielkie rozmiary często są one pozostawiane w różnych miejscach przez właścicieli albo same wysuwają się z kieszeni lub wypadają z bagażu. Statystyki mówią, że po 40% tych urządzeń nikt się nie zgłasza. Zdecydowanie najgorzej wypadają w tym obrazie telefony komórkowe – w samych tylko taksówkach wielkich miast Stanów Zjednoczonych i Europy pozostawianych jest ich każdego miesiąca od 10 do 15 tysięcy! Kradzieże urządzeń mobilnych zdarzają się oczywiście także, ale wynikają raczej z wykorzystania przez złodzieja lekkomyślności lub nieuwagi ich właścicieli, aniżeli z celowego wyboru ofiary. Utrata urządzenia mobilnego (w szczególności firmowego) wiąże się z kilkoma obszarami ryzyka: • możliwością całkowitej utraty danych zawartych w pamięci urządzenia (np. plików, które nie posiadają jeszcze kopii w zasobach firmy); • możliwością utraty kontroli nad kluczowymi danymi firmy (np. informacjami o klientach, produktach, kontraktach, itp.), które mogą być rozprzestrzeniane (np. udostępnione konkurencji lub wykorzystane w celach przestępczych); • możliwością uzyskania przez postronne osoby lub organizacje nieuprawnionego dostępu do zasobów sieci firmowej za pomocą urządzenia. Urządzenie mobilne, które wpadnie w niepowołane ręce, może stanowić poważne zagrożenie dla pozycji firmy na rynku, jej marki i reputacji. Dodatkowo, w regulacjach
17
SOLUTIONS w Komunikacja mobilna
prawnych wielu państw zawarte są przepisy o ochronie różnego typu danych, takich jak dane osobowe, medyczne (o stanie zdrowia), finansowe, itp. Ujawnienie takich danych przez firmę (na skutek utraty urządzenia mobilnego) może być karane wysokimi grzywnami. Ochrona przed tego typu konsekwencjami polega na trzech istotnych działaniach: • uniemożliwieniu dostępu do urządzenia osobom postronnym; • zaszyfrowaniu danych zawartych w urządzeniu mobilnym (uniemożliwieniu odczytu danych, jeśli blokada dostępu do urządzenia zostanie złamana); • uniemożliwieniu zdalnych połączeń z wykorzystaniem urządzenia. Uniemożliwienie dostępu do urządzenia Uniemożliwienie dostępu do urządzenia osobom postronnym polega na zastosowaniu podstawowych lub zaawansowanych metod autentykacji prawowitego użytkownika urządzenia. Zabezpieczenie urządzenia hasłem, które należy wpisać po jego każdorazowym ponownym włączeniu, stanowi najprostszy sposób. Do bardziej zaawansowanych metod należą:
Rys. 1 Program Ascendo DataVault
• żądanie zmiany hasła po upływie określonego okresu użytkowania; • ustalenie wymagań co do wyboru nowego hasła (ilość i zakres znaków, niepowtarzalność, itp.); • ustanowienie limitu błędnych prób wprowadzenia hasła, po których urządzenie blokuje się lub usuwa z pamięci wrażliwe na przechwycenie dane. Wyszczególnione metody mogą być stosowane zdalnie, co w przypadku dużej ilości mobilnych urządzeń firmowych pozwala administratorom systemów w szybki i łatwy sposób zarządzać polityką bezpieczeństwa. Szyfrowanie danych na poziomie użytkownika Na rynku dostępnych jest wiele programów umożliwiających zaszyfrowanie danych znajdujących się w urządzeniu mobilnym. Szyfrowanie takie może i powinno mieć zastosowanie co najmniej na poziomie użytkownika, a więc zaszyfrowane powinny być dane wrażliwe na przechwycenie, takie jak identyfikatory osobiste, nazwy kont, hasła, numery kart kredytowych i PIN-y, itp. Tworzą one zaszyfrowane bazy danych, do których dostęp ma jedynie użytkownik urządzenia znający hasło. Jest to łatwy i niebyt kosztowny sposób zabezpieczenia wrażliwych danych. Ma on jednocześnie niewielki wpływ na wydajność urządzenia i czas pracy jego baterii. Jednak bezpieczeństwo takiego rozwiązania zależy w istotnym stopniu od użytkownika, ponieważ on decyduje czy i jakie dane będą podlegały szyfrowaniu. Programy do szyfrowania danych w urządzeniu mobilnym Do szyfrowania danych na poziomie użytkownika w urządzeniach z systemem operacyjnym znakomicie nadają się programy takie, jak: SplashID lub Ascendo DataVault.Wbudowane szyfrowanie danych posiada np. system operacyjny urządzenia mobilnego BlackBerry.
18
Rys. 2 Program Ascendo DataVault
Rys. 3 System operacyjny z wbudowanym szyfrowaniem
Szyfrowanie danych na poziomie firmy Firmy, których pracownicy z natury wykonywanej pracy muszą przechowywać na urządzeniu mobilnym wrażliwe dane firmowe, nie będą z pewnością usatysfakcjonowane powyższym rozwiązaniem. W grę wchodzi wówczas możliwość kontroli zabezpieczenia informacji na szczeblu wyższym. Wymaga to jednak oprogramowania pozwalającego administratorom IT ustanawiać i wymuszać politykę szyfrowania dla całych struktur katalogów (folderów), znajdujących się na urządzeniu mobilnym, w zależności od rodzaju użytkownika lub grupy, do której on należy. Podstawowe programy tego typu szyfrują automatycznie wszystkie pliki zapisywane do wyznaczonych katalogów firmowych. Takie podejście zwiększa przejrzystość procedury, ale nadal bazuje na odpowiedzialności użytkownika za wpisywanie odpowiednich informacji do odpowiednich katalogów. Istnieje zatem możliwość „przecieku” wrażliwych danych do www.boston–review.com
Komunikacja mobilna
niezabezpieczonych katalogów na skutek chociażby pomyłki użytkownika. Wbudowane szyfrowanie danych Niektóre systemy operacyjne, takie jak np. Windows Vista, Mac OS X i BlackBerry OS, posiadają wbudowaną opcję szyfrowania dla niektórych danych. Opcja ta może być aktywowana bezpośrednio przez użytkownika lub też zarządzana centralnie za pośrednictwem zdefiniowanej przez dział IT polityki bezpieczeństwa. Na przykład, urządzenia BlackBerry posiadają opcję zabezpieczenia zawartości informacyjnej, polegającą na zaszyfrowaniu konkretnych plików zawsze, gdy użytkownik blokuje dostęp do urządzenia. System operacyjny automatycznie szyfruje wówczas wybrane typy informacji, włączając w to np. wiadomości e-mail wraz z załącznikami, pozycje kalendarza, notatki, zadania, jak również pamięć cache urządzenia. Mimo, iż administratorzy nie mogą bezpośrednio decydować, które z danych mają być szyfrowane, to jednak mogą wymusić szyfrowanie i ustalić długość stosowanego klucza. Najbezpieczniejszą metodą ochrony danych jest niewątpliwie zaszyfrowanie całej pojemności pamięci masowej urządzenia. Redukuje to praktycznie do zera możliwość wycieku informacji, niezależnie od tego, czy ma ona charakter poufny, czy nie. Może jednak również spowodować konflikty z pewnymi narzędziami, takimi jak programy zarządzające „łatami”, czy też innymi aplikacjami ładowanymi podczas startu systemu (np. dla uwierzytelniania użytkownika). Dlatego podejście takie stosowane jest z reguły wyłącznie dla urządzeń typu laptop/notebook (szyfrowanie dotyczy np. twardego dysku), natomiast w przypadku PDA i smartfonów dużo lepiej sprawdza się szyfrowanie wybiórcze, które dodatkowo nie obciąża za bardzo baterii i procesora. Szyfrowanie przenośnych nośników pamięci Kolejnym krokiem, jaki należy przedsięwziąć, jest zaszyfrowanie wrażliwych danych zgromadzonych na przenośnych nośnikach pamięci, takich jak karty flash (SD, CF) i tych, które mogą być dołączane za pomocą złącz USB (np. popularne pen drives). Na przykład program GuardianEdge Smartphone Protection może szyfrować pliki składowane zarówno w pamięci urządzenia, jak i znajdujące się na dołączonych kartach. Pamięci USB dotyczą raczej większych urządzeń (laptop/notebook) i aplikacje szyfrujące dostarczane są dla nich wraz z oprogramowaniem PC.Szyfrowanie przenośnych nośników pamięci jest szczególnie ważne, ponieważ elementy te są bardzo małe i bardzo łatwo je zgubić. Usuwanie danych z urządzeń Osobnym zagadnieniem, wiążącym się ściśle z bezpieczeństwem prywatnych czy firmowych danych, jest sprawa ich całkowitego usunięcia z urządzeń, które nie będą już wykorzystywane przez konkretnego użytkownika lub firmę. Niestety, statystyki ponownie wykazują, że i w tej dziedzinie panuje zwykle daleko posunięta beztroska. Za pośrednictwem portali aukcyjnych co miesiąc sprzedaje się na całym świecie tysiące urządzeń mobilnych, jednak rzadko kiedy ich użytkownicy dbają o uprzednie usunięcie z nich wpisanych danych. Badania przeprowadzone przez amerykańską firmę Trust Digital wykazały, że na PDA i smartfowww.boston–review.com
nach sprzedawanych za pośrednictwem portalu eBay znajdowały się dane o osobistych kontach bankowych, firmowe raporty dotyczące sprzedaży, finansów, a także projektów nowych produktów. Nie wszystkim użytkownikom wiadomo nawet, że w urządzeniach z systemem operacyjnym usunięcie pliku ze struktury katalogów, nie oznacza wcale fizycznego usunięcia jego zawartości z pamięci urządzenia. W takim wypadku należy skorzystać z funkcji „czyszczenia pamięci” (tzw. hard wipe). Urządzenia typu Palm Treo 650s i BlackBerry mają tę funkcję wbudowaną w system operacyjny. Dla innych urządzeń mobilnych należy skorzystać z programów dokonujących całkowitego usunięcia informacji. Bezpieczeństwo dostępu zdalnego i wymiany informacji Zabezpieczenie danych znajdujących się w pamięci urządzenia mobilnego przed ich odczytem przez osoby niepowołane nie oznacza jeszcze całkowitego bezpieczeństwa użytkownika i firmy, którą reprezentuje on jako pracownik. Z uwagi na implementowane w tych urządzeniach nowoczesne technologie bezprzewodowe, osoba przejmująca kontrolę nad urządzeniem może próbować połączyć się z firmową siecią i w ten sposób uzyskać dostęp do ważnych informacji. Co więcej, nawet gdy urządzenie znajduje się w posiadaniu legalnego użytkownika i wydaje mu się, że ma on nad nim pełną kontrolę, możliwe jest uzyskanie przez osoby trzecie zdalnego dostępu do np. PDA czy telefonu komórkowego i wykonywanie na nim różnych operacji, o których prawowity użytkownik może nawet nie wiedzieć. Operacje takie nie tylko mogą naruszyć poufność zgromadzonych w urządzeniu danych, ale także narazić użytkownika na konkretne straty finansowe. Stąd też i w tej dziedzinie należy podjąć stosowne działania zmierzające do zabezpieczenia się przed skutkami takich sytuacji. Bezpieczeństwo dostępu krótkozasięgowego Bluetooth Bluetooth (BT) to bardzo wygodna technologia bezprzewodowa, umożliwiająca krótkozasięgową (do ok. 10-20 m) łączność pomiędzy różnymi urządzeniami. Jest implementowana zarówno w urządzeniach typu desktop (komputery PC, laptopy, drukarki, itp.), jak i w urządzeniach mobilnych. Generalnie umożliwia ona realizację koncepcji „świata bez kabli”, co jest szczególnie pomocne w układach wielu urządzeń łączonych ze sobą jednocześnie. Jak się jednak okazuje, dla niezaznajomionych z nią użytkowników może okazać się również bardzo niebezpieczna. W specyfikacji technologii BT zostały zawarte podstawowe metody zabezpieczeń. W trybie domyślnym łączność BT działa w sposób całkowicie niezabezpieczony (jest to tzw. tryb pierwszy). Dostępne są jednak dwa inne tryby: tryb trzeci, w którym stosowana jest autentykacja i szyfrowanie dla całego połączenia oraz tryb drugi, który pozostawia kwestie bezpieczeństwa autoryzowanym aplikacjom wyższego poziomu, wykorzystującym łącze BT (mogą one jednak skorzystać z własnych funkcji bezpieczeństwa lub nie). Aby uniknąć kłopotów, szczególnie przy korzystaniu z BT w miejscach publicznych, zaleca się więc stosowanie transmisji w trybie trzecim i zdecydowane unikanie trybu pierwszego.
19
SOLUTIONS w Komunikacja mobilna
Gdy jesteśmy pewni bezpiecznego trybu transmisji, urządzenia BT, które chcą się połączyć, np. nasz telefon komórkowy i słuchawka bezprzewodowa BT, muszą dokonać procedury „powiązania” (ang. bonding), a więc wzajemnego rozpoznania się i połączenia w parę (stąd też stosowany często w języku polskim zamienny termin „parowanie”). W trakcie tej procedury następuje wzajemna autentykacja obu urządzeń i wymiana kluczy szyfrujących. Użytkownicy urządzeń muszą wprowadzić na nich ten sam kod PIN, który jest następnie związywany z fabrycznie nadanym kluczem każdego urządzenia. Jeśli ustalony PIN jest zbyt krótki lub stanowi przewidywalną sekwencję cyfr, to bezpieczeństwo takiego połączenia może być łatwo złamane. Dlatego zdecydowanie nie powinno się stosować PINów w postaci ‘0000’, ani regularnych sekwencji takich jak np. ‘12345...’ czy ‘121212...’. Procedurę „parowania” urządzeń wystarczy wykonać raz – będą się one odtąd łączyły ze sobą bezpośrednio, jeśli tylko zajdzie konieczność wymiany danych między nimi. Przy ustanawianiu połączenia urządzenia każdorazowo przeprowadzają autentykację i posługują się kluczem ustalonym dla połączenia podczas „parowania”. Istnieje jednak możliwość, że inne urządzenie BT będzie usiłowało „odgadnąć” ten klucz, powtarzając wielokrotnie próbę połączenia i zmieniając jego wartość metodą prób i błędów. Atak taki można ograniczyć poprzez zwiększenie odstępu między poszczególnymi próbami, ale specyfikacja BT nie narzuca niestety maksymalnej liczby takich prób. Należy również zwrócić uwagę na przeprowadzanie autentykacji na obu urządzeniach, ponieważ autentykacja jednostronna wprowadza możliwość ataku typu „man-in-the-middle”. Szyfrowanie łącza BT może odbywać się przy użyciu klucza szyfrującego o długości od 8 do 128 bitów. Najwyższy poziom zabezpieczenia daje oczywiście najdłuższy klucz, tak więc należy zawsze wybierać konfigurację obu urządzeń z kluczem 128-bitowym, jeśli wymieniane dane mają charakter szczególnie poufny. Jakie zagrożenia niesie ze sobą technologia BT? Odpowiedź na to pytanie jest już w tej chwili jasna: bardzo duże! Lista sposobów, na które BT można wykorzystać do niebezpiecznych, a często niezgodnych z prawem działań jest imponująca. Dotyczy ona w szczególności PDA i telefonów komórkowych, które używają BT do łączenia się z urządzeniami typu „hands-free” (np. słuchawki bezprzewodowe lub samochodowe zestawy głośnomówiące). Wiele z tych technik wykorzystuje słabe punkty protokołu OBEX (Object Bluetooth Exchange) stosowanego w połączeniu BT. Poniżej przedstawiono główne techniki ataku, jakie wyodrębniono do tej pory: BlueDumping – polega na znajdowaniu odpowiednich kodów PIN w czasie procedury parowania się urządzeń. Sposób ochrony przed takim atakiem został już omówiony powyżej. BlueJacking – pozwala zdalnie i anonimowo dodawać kontakty w książce telefonicznej innego urządzenia BT. BlueJacking znane jest również pod nazwą „bluespamming” – technika ta jest bowiem głównie wykorzystywana do wysyłania anonimowych komunikatów tekstowych poprzez łącze BT. Można ją porównać do komórkowego spamu (będącego już codziennością w dziedzinie poczty elektronicznej). Na przekór temu, co sugeruje nazwa techniki
20
(termin bluejacking stworzono na podobieństwo hijacking, a więc „porwania”), nie odbiera ona użytkownikowi kontroli nad urządzeniem, ani nie wysysa z niego informacji. Odbiorca komunikatu może zignorować wiadomość, odpowiedzieć na nią lub też ją po prostu wykasować. Technika ta może być zatem denerwująca, ale nie stanowi sama w sobie poważnego niebezpieczeństwa. BlueSnarfing – jedna z najniebezpieczniejszych. Pozwala atakującemu uzyskać dostęp do danych przechowywanych na urządzeniu mobilnym (np. listy kontaktów, kalendarza), a następnie przechwycić je bez wiedzy właściciela. Za ten stan rzeczy odpowiedzialne są słabe punkty implementacji protokołu BT oprogramowania instalowanego na niektórych urządzeniach mobilnych. BlueSnarfing dotyczy konkretnych starszych modeli telefonów Nokia (6310, 6310i, 7650, 8910 i 8910i), Ericsson (T68) i Sony Ericsson (R520m, T68i, T610 i Z1010). Niektóre z nich wręcz „zachęcają” do ataku, i to znajdując się w trybie niewidocznym, w którym telefon nie powinien Kodeks bezpieczeństwa dotyczący połączeń Bluetooth Wyłącz BT, jeśli go nie potrzebujesz Wyłącz funkcję BT, jeśli zupełnie z niej nie korzystasz. Oprócz oszczędności baterii uzyskasz zwiększone bezpieczeństwo. Pozostawaj niewidoczny Jeśli korzystasz z łączności BT, ale nie musisz inicjować nowych połączeń, włącz “ukrywanie” identyfikatora Twojego urządzenia. Nie będzie ono widoczne dla innych urządzeń wokoło. Niestety, w przypadku pewnych modeli telefonów komórkowych (zobacz w treści artykułu) nie stanowi to gwarancji ochrony przed atakiem. Sprawdzaj przychodzące połączenia Jeśli pozostajesz „widoczny”, nie akceptuj żadnych przychodzących połączeń, o ile nie jesteś całkowicie pewien ich źródła (a więc nie tylko urządzenia, które żąda nawiązania połączenia, ale także jego użytkownika). Nawet wówczas nie odbieraj i nie uruchamiaj żadnych załączników, jeśli nie jesteś pewien, jaki skutek mogą one wywołać. Na przykład, jeśli otrzymasz wiadomość z zapytaniem: „Czy chcesz zainstalować aplikację X?”, a nie wiesz skąd ona pochodzi, nie instaluj jej. Bardzo często prośba taka zawiera opcje „tak” i „nie”, ale opcja „nie” powoduje jedynie ponowienie pytania. Zdenerwowany użytkownik może w końcu dla „świętego spokoju” uruchomić opcję „tak”, jest to jednak duży błąd, który może go drogo kosztować. Jeśli przychodzące połączenie jest „napastliwie” ponawiane, odejdź na odległość zdecydowanie większą niż 15-20m – tak, aby łączność BT została zerwana. Wówczas możesz całkowicie wyłączyć funkcję BT. Stosuj hasła Najlepiej stosuj hasła składające się z dużej ilości cyfr. Czterocyfrowy PIN może zostać rozpoznany w ciągu zaledwie sekundy, złamanie 6-cyfrowego zajmie już ok. 10s, natomiast PIN 10-cyfrowy zapewni Ci bezpieczeństwo na długie tygodnie. Nigdy nie stosuj jednak sekwencji „oczywistych”, takich jak same zera lub ‘123456...’. Ogranicz moc Skonfiguruj urządzenie BT tak, aby używało najniższej mocy, jaka zapewnia zastosowanie łączności w danych warunkach. Urządzenia BT klasy 3 transmitują z mocą ok. 1 mW i nie komunikują się w zasięgu większym od ok. 10m, ale moc transmisyjna urządzeń klasy 1 wynosi już 100mW, co zapewnia im zasięg do ok. 100m. Dostosowanie mocy urządzenia nie eliminuje groźby ataku, ale może zredukować jego prawdopodobieństwo. Zabezpiecz urządzenie BT hasłem Ponieważ klucze bezpieczeństwa przechowywane są w pamięci urządzenia BT, zabezpiecz całe urządzenie hasłem dostępowym, aby uniknąć możliwości uruchomienia transmisji BT w przypadku utraty urządzenia.
www.boston–review.com
Komunikacja mobilna
transmitować swojego ID, ani tym bardziej odpowiadać na jakiekolwiek „zaczepki” ze strony innych urządzeń BT. Koncerny produkujące sprzęt komórkowy niechętnie przyznają się do tego typu błędów, ale po jakimś czasie na ich stronach internetowych dostępne są kolejne „łaty”, którymi można zaktualizować oprogramowanie telefonów. Potencjał tej techniki ataku polega głównie na fakcie, iż nie pozostawia ona żadnych śladów, a jej ofiary są całkowicie nieświadome tego, że ich dane zostały skradzione. W szczególności, jeśli telefon znajduje się np. w kieszeni czy torebce, to użytkownik nie zauważy nawet aktywności łącza BT. Podobny problem może dotyczyć urządzeń typu laptop/notebook, ale bluesnarfing jest w tym przypadku trudniejszy, ponieważ systemy te są dużo bardziej złożone. Podatność PDA i telefonów komórkowych na tę technikę ataku wynika z faktu ograniczoności ich zasobów, co skutkuje uproszczeniami protokołu BT dla tych urządzeń i w efekcie prowadzi do obniżenia bezpieczeństwa. BlueBugging – Umożliwia atakującemu uzyskanie dostępu do poleceń telefonu komórkowego poprzez technologię BT, co pozwala wykonywać na nim wszelkie operacje, łącznie z inicjowaniem połączeń, wysyłaniem i odbieraniem wiadomości SMS, a także odczytywaniem i zapisywaniem kontaktów w książce telefonicznej. Jest to niestety możliwe na skutek konkretnych błędów w oprogramowaniu BT niektórych telefonów, np. firm Nokia i Sony Ericsson. Oprogramowanie takich telefonów powinno być jak najszybciej zaktualizowane – firmy te udostępniają tzw. łaty (ang. patches), które usuwają wspomniane błędy. Jeśli dla danego typu telefonu „łata” nie jest dostępna, to urządzenie takie powinno być natychmiast wycofane z użytkowania. W odróżnieniu od bluesnarfingu, który zapewnia atakującemu jedynie dostęp do informacji zgromadzonych w telefonie, bluebugging jest bardzo niebezpieczną techniką, pozwalającą na całkowite przejęcie kontroli nad telefonem ofiary. Ochrona przed atakami BT Ochrona użytkowników urządzeń mobilnych przed atakami wymienionymi powyżej powinna obejmować co najmniej działania wyszczególnione w prostym kodeksie bezpieczeństwa BT. Działania firmy w tym zakresie powinny być jednak znacznie szersze. Należy co jakiś czas przeprowadzać audyt przestrzeni radiowej BT w pomieszczeniach firmowych, aby zlokalizować wszystkie urządzenia BT, które się w niej znajdują. Do tego celu można wykorzystać przenośne skanery BT oferowane przez wiele firm zajmujących się tą technologią. Trzeba następnie przeprowadzić inwentaryzację wszystkich znalezionych urządzeń z uwzględnieniem ich charakterystyki (model, wersja, typ systemu operacyjnego, itd.). Pozwoli to przeszukać dostępne bazy danych (np. Trifinite, WVE), gromadzące informacje na temat słabych punktów konkretnych urządzeń BT i następnie znaleźć dla nich odpowiednie „łaty” programowe. Trzeba także zdefiniować politykę bezpieczeństwa dla urządzeń BT, która będzie odpowiadała profilowi firmy. Na przykład, należy wyraźnie określić, kiedy i w jakich warunkach pracownicy mogą wykorzystywać łączność BT na terenie firmy. Zaznajomienie pracowników z polityką firmy w tym zakresie i uświadomienie im skutków www.boston–review.com
jej nieprzestrzegania zaowocuje na dłuższą metę podwyższeniem poziomu bezpieczeństwa firmy. Podsumowanie Na koniec kilka najważniejszych zaleceń w kwestii bezpieczeństwa urządzeń mobilnych i zgromadzonych w nich danych: • Należy opracować całościowy, strategiczny plan zabezpieczenia firmowych urządzeń mobilnych, włączając w to politykę bezpieczeństwa oraz opracowane procedury; • W kwestiach bezpieczeństwa należy traktować smartfony, PDA, laptopy i inne urządzenia mobilne tak samo jak komputery stacjonarne. W szczególności należy stosować takie samo lub podobne oprogramowanie antywirusowe, antyszpiegowskie, itp.; • Specjaliści z działu IT, a nie poszczególni pracownicy firmy, powinni dokonać wyboru urządzeń mobilnych, których można używać w firmie, a firma powinna być właścicielem i dysponentem tych urządzeń. Wszelkie urządzenia prywatne, które w szczególności mogą być łączone zdalnie i synchronizowane z zasobami firmowymi, stanowią zagrożenie bezpieczeństwa, ponieważ nie podlegają kontroli działu IT; • Na firmowych urządzeniach mobilnych, podobnie jak na komputerach stacjonarnych, powinny być instalowane jedynie sprawdzone i autoryzowane przez dział IT aplikacje; • Należy stworzyć procedury użytkowania firmowych urządzeń mobilnych i aktywnie uświadamiać pracowników, w jaki sposób mają one być stosowane; • O ile to możliwe, dział IT powinien stosować technologie uniemożliwiające pracownikom świadome łamanie zasad bezpieczeństwa użytkowania urządzeń mobilnych; • Należy często przeprowadzać audyt i monitoring firmowych urządzeń mobilnych, w celu stwierdzenia zgodności z firmowymi zasadami bezpieczeństwa w tym zakresie. Działania takie mogą pokazać, jak efektywna jest polityka bezpieczeństwa firmy i jak dalece pracownicy ją respektują.n Źródła: http://searchsecurity.com http://searchmobilecomputing.com http://www.bitpipe.com O autorze: Dr inż. Aleksander M. Simon – specjalista w dziedzinie systemów komórkowych, absolwent Politechniki Śląskiej w Gliwicach. Docent i kierownik Katedry Elektroniki i Telekomunikacji w Wyższej Szkole Informatyki i Zarządzania w Bielsku-Białej. Konsultant firmy ENKI z Zabrza, prowadzi szkolenia z dziedziny GSM/GPRS/UMTS dla operatorów sieci komórkowych na całym świecie. Członek Górnośląskiego Oddziału Polskiego Towarzystwa Informatycznego, ekspert zewnętrzny Narodowego Programu Foresight „Polska 2020”. Zainteresowania: systemy sygnalizacji i protokoły sygnalizacyjne w sieciach ruchomych, bezpieczeństwo sieci komórkowych, nowe technologie bezprzewodowe oraz konwergencja technologii informatycznych i telekomunikacyjnych.
21
SOLUTIONS w Komunikacja mobilna
Praca zdalna korzyści zagrożenia rozwiązania Szybkość przekazywania informacji ma w obecnych czasach kolosalne znaczenie dla efektywnego działania firmy oraz jej konkurencyjności na rynku. Telepraca oraz mobilni pracownicy stanowią często nieodzowny element działania przedsiębiorstwa. Marek Serafin
Z
alety telepracy doceniają pracodawcy, dla których korzyścią jest większa mobilność pracownika, oraz niższe koszty związane z zatrudnieniem (np. wynajem powierzchni biurowej). Dla pracownika zaś, telepraca to większa elastyczność, a także oszczędność czasu i kosztów związanych z dojazdem. Współczesne aplikacje biurowe i użytkowe przystosowane są do pracy w sieci w oparciu o protokół TCP/ IP i architekturę klient – serwer. Działanie protokołu TCP/IP umożliwia niejako „z założenia” komunikowanie się komputerów będących w różnych podsieciach i lokalizacjach – zapewnia to tzw. routing IP. W związku z powyższym dla działania aplikacji klienckiej jest bez znaczenia, czy serwer znajduje się w pokoju obok, czy w innym mieście lub państwie. Oprócz wspomnianych wcześniej zalet zdalnej pracy, dochodzimy do bardzo ważnego aspektu bezpie-
22
czeństwa, związanego z dostępem do zasobów firmowych. To, co przed chwilą przedstawiono jako zaletę protokołu TCP/IP, może stanowić ogromną lukę w zabezpieczeniu infrastruktury IT przedsiębiorstwa. O tym, jak katastrofalny w skutkach może okazać się nieautoryzowany dostęp do danych korporacyjnych nie należy się rozpisywać. Każdy administrator powinien mieć pojęcie na jakie straty narażona jest w takim przypadku firma dla której pracuje. Warto wspomnieć, iż poza konsekwencjami rynkowymi i finansowymi w grę wchodzi także odpowiedzialność karna w przypadku źle zabezpieczonych danych osobowych. Polityka bezpieczeństwa powinna być ustalana z udziałem zarządu firmy. Niedoskonałość TCP/IP Projektowany ponad ćwierć wieku temu TCP/IP nie zawiera żadnych mechanizmów szyfrowania oraz sprawdzania integralności przesyłanych dawww.boston–review.com
Komunikacja mobilna
nych. Zarówno warstwa sieciowa (IP) jak i transportowa (TCP/UDP) przesyłają dane czystym tekstem, a wstawione w nagłówkach sumy kontrolne można w prosty sposób przeliczyć, co zresztą często ma miejsce (przy modyfikacji pakietu przez router/firewall). Ewentualne szyfrowanie twórcy TCP/IP pozostawiono programistom, czyli wszelkie zabezpieczenia odbywają się w warstwie aplikacji. To z kolei rodzi problemy kompatybilnościowe na drodze serwer – różne aplikacje klienckie. Mimo czasu, jaki upłynął od spopularyzowania Internetu w społeczeństwie, w dalszym ciągu w użyciu są protokoły przesyłające dane jawnym tekstem, w tym dane uwierzytelniające (http,ftp,pop3). Potrzeby i rozwiązania Wraz z popularyzacją Internetu rosło znaczenie tego medium w firmach, zwłaszcza międzynarodowych korporacjach, dla których Internet stał się bardzo tanim sposobem przekraczania kolejnych granic i cięcia kosztów. Potrzeby biznesowe wymusiły powstanie standardów rozwiązań bezpiecznej transmisji po niezabezpieczonym medium. Protokół SSL/TLS Istotnym krokiem w kierunku zabezpieczenia transmisji w Internecie było opracowanie przez firmę Netscape Communications protokołu SSL. Pierwsze wersje protokołu stworzono w pierwszej połowie lat 90-tych ubiegłego wieku. Obecnie rozwojem SSL-a zajmuje się powołana przez grupę IETF grupa robocza TLS (ang. Transport Layer Security). Nazwy SSL/TLS często stosowane są wymiennie, jednakże obecnie obowiązującą wersją jest TLS, będący rozwinięciem SSL 3.0. Podstawowym założeniem protokołu SSL jest zapewnienie następujących funkcji bezpieczeństwa: • Uwierzytelnianie stron – czyli potwierdzanie tożsamości na podstawie specjalnych certyfikatów podpisanych przez zaufane centrum certyfikacji (CA); • Zapewnienie poufności i integralności przesyłu danych – tzn. ochronę przed podsłuchem (szyfrowanie) i modyfikacją przez osoby trzecie (skróty kryptograficzne). Uwierzytelnianie w protokole SSL przebiega przy użyciu asymetrycznych algorytmów kryptograficznych. Każda ze stron posiada swój klucz prywatny (tajny) oraz odpowiadający mu certyfikat pełniący rolę klucza publicznego.
Rys. 1 Zabezpieczenie komunikacji POP3 tunelem SSL
www.boston–review.com
Idea protokołu SSL zakłada istnienie zaufanej instytucji, zwanej centrum certyfikacji CA (ang. Certificate Authority). Podmiot chcący uzyskać certyfikat musi wystąpić z odpowiednim wnioskiem do jednostki certyfikującej (CA). Wraz z wnioskiem przedstawia dane upoważniające go do wystąpienia o certyfikat SSL dla wskazanej nazwy firmy. Są to najczęściej: oryginał dokumentów NIP, Regon/KRS itp. Technicznie wniosek o wystawienie certyfikatu (CSR) ma formę elektroniczną. Jest to plik tekstowy zawierający zakodowane informacje o danych podmiotu, takich jak kod kraju, nazwa miasta, pełna nazwa podmiotu oraz nazwa domeny, dla której certyfikat ma być wystawiony (pole CommonName). Wniosek generowany jest przy użyciu specjalnego oprogramowania (np. biblioteki openssl). Aby wygenerować wniosek najpierw należy wygenerować klucz prywatny, gdyż klucze te są matematycznie związane (wniosek, a następnie certyfikat jest matematycznie związany z kluczem prywatnym). Proces zestawienia sesji SSL nosi nazwę SSL Handshake, gdyż składa się z kilku kroków, z których główne to uzgodnienie wersji protokołu SSL, uwierzytelnienie stron oraz ustalenie symetrycznych kluczy sesyjnych, którymi szyfrowane są następnie właściwe dane. Bardzo ważną cechą protokołu SSL jest możliwość odwoływania (unieważniania) wystawionych wcześniej certyfikatów. Jest to funkcja wykorzystywana bardzo często w przypadku używania SSL do uwierzytelniania dostępu zdalnego pracowników. W przypadku odejścia pracownika lub kradzieży jego laptopa po prostu unieważniamy jego certyfikat, publikując go na tzw. liście certyfikatów odwołanych (CRL – ang. Certificate Revocation List). Oprócz tego, każdy podpisany certyfikat jest ważny określony czas – np. rok, po upływie którego należy wystąpić o nowy certyfikat, gdyż stary przestaje być użyteczny. Początkowo SSL znajdował zastosowanie jedynie do zabezpieczania transmisji protokołu http (usługi ecommerce). Jednakże jego uniwersalność pozwala na wykorzystanie do go tunelowania dowolnego protokołu warstwy aplikacji, a także do tworzenia sieci VPN. SSL zapewnia więc: uwierzytelnianie stron (certyfikaty podpisane przez zaufane CA), poufność (szyfrowanie symetryczne ustalonymi kluczami sesyjnymi) oraz integralność (skróty MD5/SHA-1 chroniące integralność wiadomości). Tunelowanie portów Tunelowanie portów to technika umożliwiająca przesyłanie jednego połączenia (np. niezaszyfrowanego) wewnątrz innego połączenia – np.
23
SOLUTIONS w Komunikacja mobilna
Rys. 2 Ramka IPSec w trybie transportowym
chronionego SSL-em. Klasycznym przykładem jest tu protokół http, który jest niczym innym jak zwykłym połączeniem http opakowanym protokołem SSL. Tunelowanie portów stosuje się często jako prostszą alternatywę dla sieci VPN. Różnica występuje tutaj w warstwie działania. Tunelowanie portu odnosi się do jednej konkretnej usługi (portu) – jednego połączenia zestawionego pomiędzy dwoma komputerami. Tunelowanie portów realizowane jest najczęściej przy użyciu osobnego oprogramowania, np. Stunnel dla tuneli SSL lub Putty dla tuneli SSH. Na rysunku 1. przedstawiono przykład użycia tunelowania portów (programem Stunnel) w celu zabezpieczenia protokołu POP3. Jeżeli mamy kilku pracowników mobilnych, którym musimy w bezpieczny sposób zapewnić dostęp do pojedyńczej aplikacji, tunelowanie SSL jest dobrym rozwiązaniem. W przypadku, gdy mobilni pracownicy mają mieć dostęp do większej ilości zasobów sieci firmowej, wówczas lepszym rozwiązaniem wydaje się stworzenie sieci VPN. Tunel VPN / Sieć VPN Przez pojęcie sieci VPN (ang. Virtual Private Network) rozumie się wirtualną podsieć IP, która została utworzona na potrzeby tunelowania ruchu pomiędzy stronami tunelu. Inaczej mówiąc, sieć VPN działa jedną warstwę niżej – w warstwie sieciowej, wprowadzając własną adresację IP. W związku z powyższym każde połączenie w warstwie transportowej (czyli dowolna aplikacja) będzie przechodziło przez zabezpieczony tunel VPN. Zaletą sieci VPN jest możliwość połączenia jednym szyfrowanym tunelem dwóch odległych podsieci. Wówczas każde połączenie pomiędzy komputerem w lokalizacji A (Katowice), z komputerem w lokalizacji B (Warszawa) będzie przechodziło przez tunel VPN. Połączeń pomiędzy wspomnianymi lokalizacjami może być setki jednocześnie, ale dla osoby postronnej, podsłuchującej ruch gdzieś po drodze (np. router w Łodzi), widoczne będzie tylko jedno połączenie VPN – zaszyfrowane, bez możliwości odczytania adresacji wewnętrznej oraz właściwych danych z warstw transportowej i aplikacji.
24
Rodzaje implementacji VPN Powstało przynajmniej kilka implementacji rozwiązań VPN, nie zawsze kompatybilnych ze sobą. Ze względu na warstwę działania możemy wyróżnić: • IPSec – działający w warstwie trzeciej modelu OSI zestaw protokołów kryptograficznych obsługiwanych przez jądro systemu operacyjnego. IPSec jest formalnie standardem wpieranym przez głównych producentów, opisany m.in. w dokumentach RFC: 2401, 2402 i 2406; • SSL VPN – tunele działające w warstwie użytkownika w oparciu o protokół SSL. Ze względu na budowę rozróżniamy rozwiązania sprzętowe, implementujące któryś z protokołów VPN lub programowe, gdzie bramę VPN stanowi komputer z zainstalowanym odpowiednim oprogramowaniem. Przed wyborem konkretnego rozwiązania należy wziąć pod uwagę istniejącą infrastrukturę firmową, oczekiwaną funkcjonalność i potrzeby użytkowników. Przykładowo, rozwiązanie IPSec, choć bardzo bezpieczne, często stwarza problemy z połączeniami inicjowanymi zza NAT-u. Nie każdy system operacyjny wspiera dobrze mechanizm NAT-Traversal, ponadto diagnozowanie połączeń IPSec na drodze użytkownik mobilny – brama VPN może być problematyczne. IPSec Mimo iż IPSec jest standardem sieciowym i teoretycznie po jednej stronie tunelu możemy zainstalować sprzętowy router, a po drugiej stronie klienta z systemem Linux, w praktyce wybór algorytmów szyfrowania nie jest narzucony i poszczególne implementacje trochę się różnią (w standardowej konfiguracji). W związku z powyższym, aby uniknąć gimnastyki podczas zestawiania tunelu warto po obu stronach stosować oprogramowanie jednego producenta. IPSec działa w jednym z dwóch trybów: • Tryb transportowy, w którym nagłówek IPSec wstawiany jest pomiędzy oryginalny nagłówek IP, a nawww.boston–review.com
Komunikacja mobilna
Rys. 3 Ramka IPSec w trybie tunelowym
główek warstwy transportowej. Tryb transportowy używany jest bezpiecznej w komunikacji IPSec pomiędzy dwoma hostami lub klientem a bramą VPN. Widok ramki IPSec w trybie transportowym przedstawia rysunek 2. • Tryb tunelowy, w którym cały pierwotny pakiet IP enkapsulowany jest wewnątrz nagłówka IPSec. Tryb tunelowy wykorzystywany jest na ogół w połączeniach IPSec pomiędzy podsieciami (np. łączenie oddziałów firm bramami VPN). Widok ramki IPSec w trybie tunelowym przedstawia rysunek 3. W skład IPSec wchodzi protokół ESP (kiedyś AH i ESP, obecnie tylko ESP), zapewniający poufność oraz integralność (wcześniej za integralność odpowiadał AH). Poufność w ESP zapewniona jest przez szyfrowanie transmisji użyciem któregoś z szyfrów blokowych (DES/ 3DES/Blowfish). Zapewnienie integralności, czyli pewności, iż pakiet nie został po drodze zmieniony realizowane jest przez zabezpieczenie sumy kontrolnej skrótami kryptograficznymi (HMAC). Za negocjację połączenia, tj. uwierzytelnienie oraz późniejsze uzgadnianie kluczy kryptograficznych odpowiada osobny protokół wymiany kluczy – IKE (ang. Internet Key Exchange), w którego skład wchodzą ISAKMP (uwierzytelnianie, utworzenie kanału SA) oraz Oakley (uzgadnianie kluczy w trakcie połączenia). Szczegółowy opis protokołu IPSec jest dość obszerny i przekracza ramy niniejszej publikacji. Zainteresonani mogą uzupełnić wiedzę dodatkową literaturą i RFC. SSL VPN Alternatywą dla standaru IPSec są tunele VPN oparte o protokół SSL. Zasada ich działania jest podobna do opisanego wcześniej tunelowania portów po SSLu. Mechanizm jest ten sam, aczkolwiek w tunelach SSL VPN
Rys. 4 Praktyczny przykład użycia SSL VPN.
www.boston–review.com
tworzony jest wirtualny interfejs sieciowy (czego nie ma w tunelowaniu pojedynczych portów) oraz wprowadzana jest osobna adresacja IP dla potrzeb tunelu. W związku z powyższym tunele SSL VPN działają warstwę niżej od tunelów portów opartych o SSL. Najpopularniejszym rozwiązaniem SSL VPN jest opensourcowy program OpenVPN. Dostępne są wersje dla większości systemów operacyjnych, w tym także na Windows Mobile. Program do działania wykorzystuje jeden port (UDP lub TCP), a w razie blokady może także działać przez serwer proxy. Niewątpliwą zaletą OpenVPN (ogólnie SSL VPN) jest łatwość utworzenia tunelu w porównaniu z IPSec. Dotyczy to głównie problemów z firewallami pośredniczącymi na drodze użytkownik mobilny – brama VPN, które niejednokrotnie skutecznie blokują działanie IPSec. Na rysunku 4. przedstawiono typowe zastosowanie tunelu SSL VPN (np. OpenVPN). Pracownik mobilny łączy się za pośrednictwem GRPS, a następnie zestawia tunel VPN z firmą. Należy pamiętać, aby każdy ze zdalnych pracowników miał minimalny dostęp do wewnętrznych zasobów firmy – tzn. aby miał dostępne wyłącznie te usługi (porty), które rzeczywiście są mu potrzebne. Rysunki przedstawione w publikacji pochodzą z książki „Sieci VPN Zdalna praca i bezpieczeństwo danych” Marek Serafin, Wydawnictwo Helion, 2008 r. n O autorze:
Marek Serafin – z wykształcenia informatyk, od 8 lat zawodowo zajmuje się administracją serwerów i sieci komputerowych. Autor książki Sieci VPN. Zdalna praca i bezpieczeństwo danych.
25
SOLUTIONS w Systemy Voice over IP
c
y j ak I n n t z
er ne
t?
b ez p ie
Głos przez IP
Wiele firm rozpoczynających „przygodę” z VoIP często zapomina o aspektach bezpieczeństwa i nie ma się czemu dziwić – w przemijającej powoli telefonii tradycyjnej bezpieczeństwo nie było specjalnie dużym problemem, dbano jedynie o ochronę fizyczną infrastruktury, ale głównie dlatego, aby nie skradziono „impulsów”, kwestie poufności transmisji były na dalszym planie. Czasami można odnieść wrażenie, że podobnie bywa w przypadku VoIP, a przecież jest to zupełnie inne środowisko.
Leszek Kępa
VoIP a „telefonia internetowa” VoIP (ang. Voice over Internet Protocol) jest technologią pozwalającą przesyłać mowę za pomocą protokołu IP. Często VoIP określa się mianem „telefonii internetowej”, ale wydaje się, że bardziej dzięki Skype’owi, który wypromował to pojęcie, niż samej formie trans-
26
misji. Teoretycznie „telefonia internetowa” i VoIP to jest to samo – przesyłanie mowy za pomocą sieci pakietowych, ale w praktyce zwykło się rozróżniać VoIP (a więc centrale telefoniczne, protokoły generyczne, typowe urządzenia VoIP) i „telefonię internetową” (Skype, Tlenofon, Gadu NaGłos, etc.). Przesyłanie głosu www.boston–review.com
Systemy Voice over IP
z użyciem protokołu IP to dla wielu przede wszystkim obniżenie kosztów, ale też ogromna wygoda, bo możliwe jest korzystanie ze zwykłych telefonów podłączanych przez bramkę do sieci, z telefonów dedykowanych VoIP, z oprogramowania zainstalowanego na komputerze i na koniec z software’u, który możemy zainstalować na urządzeniach przenośnych, np. PDA. Możliwości jest wiele – wszędzie gdzie jest połączenie do Internetu czy też właściwie protokół IP, można korzystać z tego rodzaju telefonii. Z raportu Urzędu Komunikacji Elektronicznej za ubiegły rok wynika, że w Polsce dostęp do Internetu ma ponad 12 milionów osób, przy czym stały dostęp ok. 3,5 miliona. Komórkę posiada właściwie każdy, penetracja rynku wynosi ponad 100%, a z mobilnego dostępu do Internetu (EDGE) korzysta aż 5 milionów osób. Wygląda na to, że warunki dla telefonii IP są coraz lepsze i że będzie stawała się coraz bardziej popularna. Wady i zalety VoIP ma wiele zalet, ale ma też swoje wady. Zalety to: wysoka jakość dźwięku, wyższa dostępność w porównaniu z telefonią stacjonarną, niezależność od lokalizacji, integracja z multimediami, usługi nowej generacji oraz (to dla wielu użytkowników zapewne jest najważniejsze) niski koszt połączeń. Wady to: wrażliwość na opóźnienia i straty pakietów, błędy w oprogramowaniu (np. występujące kiedyś podatności w Cisco Unified CallManager i Presence Server) i – bardzo ważne – narażenie na wszystkie znane zagrożenia dotyczące sieci komputerowych.
Jak to działa? Podczas połączenia dźwięk jest próbkowany, kompresowany i przesyłany do odbiorcy, gdzie następuje odwrócenie tego procesu. Aby przekaz był czysty i zrozumiały m.in. sygnał musi dotrzeć do odbiorcy w tej samej formie, w jakiej został wysłany w czasie nie dłuższym niż 150 milisekund. Jeżeli pakiety zaginą albo opóźnią się, nastąpi pogorszenie jakości komunikacji. VoIP składa się z kilku grup protokołów – sygnalizacyjnego (służącego do zarządzania połączeniami np. SIP, H.323), kodowania mowy (kodeki G.711, G,729A), transportu danych (UDP, TCP, SCTP), w tym transportu danych multimedialnych (RTP/SRTP). Protokoły sygnalizacyjne są sercem telefonii – to na nich oparte są systemy VoIP i to one decydują m.in. o architekturze oraz sposobie funkcjonowania tej sieci. Można powiedzieć, że kierują one całym ruchem głosowym. Najbardziej znane są SIP i H.323, chociaż jest ich sporo więcej (np. Skinny/SCCP, MGCP). Kodeki służą do zamiany analogowego formatu dźwięku na formę cyfrową (elektroniczną), przy czym większość z nich jednocześnie kompresuje dane. Istnieje wiele różnych kodeków, a spowodowane jest to ciągłym poszukiwaniem równowagi między wydajnością a jakością. Termin kodek oznaczał kiedyś COder/DECoder (urządzenie konwertujące sygnał analogowy na cyfrowy i odwrotnie), a dzisiaj wydaje się, że oznacza on bardziej COmpressor/DECompressor. Najbardziej popularne kodeki to G.711 G.726, GSM i G.729A. Pierwszy z nich często jest nazywany kodekiem niekompresującym, jego zaletą jest fakt, że (prawie) nie obciąża procesora, ale wymaga
Rys. 1 Wireshark, narzędzie do analizy ruchu w sieci, posiadające dedykowane funkcje do przechwytywania ruchu VoIP.
www.boston–review.com
27
SOLUTIONS w Systemy Voice over IP
sporego pasma, natomiast ostatni wręcz przeciwnie – osiąga wysoki stopień kompresji (wymagane pasmo to tylko 8Kbps!), ale kosztem CPU. Wybranie odpowiedniego kompromisu między jakością dźwięku, jakością transmisji i jej bezpieczeństwem nie jest wcale takie proste, jeżeli ma się 150 milisekund na transmisję pakietu – jeżeli przy słabym łączu użyje się kodeka o dużej kompresji, to może się okazać, że szyfrowanie nie „zmieści” się w czasie, bo procesor poświęci większość czasu na kompresję i pakiety będą opóźnione, co negatywnie wpłynie na jakość rozmowy. Z tego samego powodu nie zaleca się korzystać z TCP, który „pilnuje”, aby pakiety dotarły do celu, bo oczekiwanie na zaginione pakiety i ich ewentualna retransmisja zajmuje bardzo dużo czasu, podczas gdy lepiej się pogodzić z utratą kilku pakietów i „zmieszczeniem” w czasie (wykorzystując do tego celu np. UDP). Do transmisji danych multimedialnych wykorzystuje się protokół RTP (Real-time Transport Protocol), który współpracuje najczęściej z protokołem UDP, wzajemnie się uzupełniając. Czasami zamiast UDP stosuje się DCCP (Datagram Congestion Control Protocol) lub SCTP (Stream Control Transmission Protocol). Istotne jest, aby pakiety wysyłane były tak szybko, jak to możliwe. Wszystko składa się na tzw. „generyczną” (klasyczną) telefonię VoIP, ale warto jeszcze wspomnieć o innych dynamicznie rozwijających się metodach przesyłania głosu przez sieci pakietowe (np. Tlenofon, Skype, Gadu NaGłos). Określa się je mianem „telefonii internetowej”, ponieważ działają przede wszystkim w ramach sieci Internet, ale należy pamiętać, że jest to też (najczęściej) VoIP. Problemy z zabezpieczeniem telefonii IP Paradoksalnie największe źródło problemów bezpieczeństwa leży w największej zalecie technologii VoIP – wykorzystaniu do przesyłania głosu tego samego medium, które stosuje się do transmisji danych. „Miksowanie” pakietów zawierających głos z innymi informacjami powoduje, że potencjalny intruz może w względnie w prosty sposób podsłuchać lub zmodyfikować rozmowę. Ataki na telefonię IP można podzielić na cztery kategorie: • kradzież usługi – może to być phreaking (strata finansowa operatora telefonii, kradzież „impulsów” lub korzystanie z płatnych usług) lub stratę dla użytkownika, na którego rachunek prowadzone są nielegalne rozmowy; • kradzież tożsamości – bardzo trudne w przypadku analogowej telefonii, ale w świecie IP stanowi to realne zagrożenie; • utrata poufności danych (podsłuchanie) – nieszyfrowane rozmowy można łatwo podsłuchać i zapisać na dysku/nośniku; • odmowa usługi – polegająca na utrudnieniu lub uniemożliwieniu skorzystania z usługi, w przypadku VoIP ataki dotyczą najczęściej protokołów sygnalizacyjnych, infrastruktury i urządzeń (terminali) końcowych.
28
Specyfika działania VoIP rodzi też nowe zagrożenia, jednym z nich jest SPIT (Spam over Internet Telephony), który prawdopodobnie – wraz z rozwojem telefonii – może stać się prawdziwą zmorą systemów telefonicznych opartych o IP. Niektóre kwestie są już uregulowane, SPIT działa na podobnej zasadzie jak spam, ale rodzi dużo poważniejsze problemy – wystarczy wyobrazić sobie biuro czy centrum telefoniczne sparaliżowane przez ofertę reklamową, która dzwoni. Strach podnieść słuchawkę, bo nie wiadomo, czy dzwoni prawdziwy klient, czy „reklama”. Dzięki VoIP narodziła się też telefoniczna forma phishingu – tzw. vishing. Jest to metoda oszustwa polegająca na tym, że oszuści wykorzystujący telefonię internetową starają się podszywać np. pod banki. Jedną z praktykowanych metod jest rozesłanie spamu, w którym podawany jest numer telefonu np. 0-801, pod którym odbiorca e-maila powinien zaktualizować swoje dane dotyczące konta bankowego. Po wykręceniu podanego numeru włącza się automat, który prosi „ofiarę” o podanie konkretnych danych dostępowych do konta. W innym wykonaniu stosowane są programy, które samoczynnie telefonują przez VoIP pod zadaną listę numerów telefonicznych, a w momencie odbioru takiego telefonu przez ofiarę automatycznie puszczana jest informacja o zauważonej próbie wykorzystania karty kredytowej danej osoby oraz prośba o przejście procedury weryfikacyjnej, w której należy podać numer karty oraz dane jej właściciela. W ten sposób wyłudza się właśnie dane. Protokół sygnalizacyjny SIP Gdyby telefonię IP przyrównać do transportu kolejowego, to odpowiednikiem sygnalizacji byłyby semafory i zwrotnice kierujące ruchem pociągu. Sygnalizacja jest kluczowym elementem telefonii i warto wiedzieć o niej, aby móc dalej dyskutować kwestie bezpieczeństwa. Najbardziej popularne są dwa protokoły – H.323 oraz SIP. H.323 jest najbardziej „szacowny”, ma już ponad 12 lat i jest obsługiwany przez większość urządzeń na rynku, korzystają z tego protokołu np. użytkownicy programu NetMeeting (najczęściej o tym nie wiedząc). Co ciekawe – wewnątrz H.323 może być użyty protokół H.245 umożliwiający szyfrowaną sygnalizację. SIP (Session Initiation Protocol) jest też dość „stary”, jest to tekstowy protokół sygnalizacyjny, oparty o HTTP i bardzo do niego podobny. Mimo to w ostatnim czasie SIP zdetronizował H.323, chyba głównie ze względu na prostotę działania i łatwość w realizacji i implementacji zaawansowanych usług. Informacje przesyłane za pomocą SIP składają się z pól nagłówka oraz ciała wiadomości. Rozróżnia się sześć rodzajów wiadomości protokołu SIP: INVITE – zaproszenie do udziału w połączeniu lub konferencji (dzwonienie do kogoś), BYE – zakończenie połączenia między dwoma uczestnikami połączenia/ konferencji (odłożenie słuchawki), OPTIONS – przekazanie informacji o funkcjonalności strony komunikującej się, np. kodeków mowy, które może obsługiwać, ACK – odpowiedź na INVITE (odebrawww.boston–review.com
Systemy Voice over IP
nie rozmowy), REGISTER – przenoszenie informacji o lokalizacji użytkownika dla serwera SIP, CANCEL – przerwanie żądania będącego w toku. Te komunikaty zawierają m.in. pola: Call-ID (identyfikujące rozmowę), From oraz To (określające nadawcę i odbiorcę) czy Via (pozwalające śledzić wiadomości INVITE, zapobiegające powstawaniu pętli). Za pomocą SIP przesyłane są także odpowiednie wartości wskazujące na postęp w przetwarzaniu informacji, czas rozmowy, oznaczające przekierowania, prawidłowe wykonanie operacji lub inne komunikaty (np. o błędach). Wiedząc już tak dużo o podstawowych mechanizmach można skupić się na typowych atakach na SIP – ataki te mieszczą się w trzech kategoriach: podszywanie się (spoofing), podsłuchiwanie (sniffing) i blokowanie działania usługi (Denial of Service). W ramach tych ataków możliwe są: • porwanie rejestracji – polega na modyfikacji pola From w wiadomości REGISTER (przekierowaniu połączenia); • porwanie połączenia – analogicznie do ataku powyżej, ale modyfikacji podlega pole From w wiadomości INVITE; • atak Man in the Middle – atakujący jest w stanie przechwycić komunikację z/do serwerów sieciowych i w ten sposób wpływać (modyfikować)
www.boston–review.com
kluczowe informacje w wiadomościach sygnalizacyjnych; • atak podszycia się pod serwer – klient agenta użytkownika kontaktuje się z serwerem sieciowym w celu dostarczenia żądania, a intruz podszywa się pod ten serwer; • celowe kończenie trwających połączeń poprzez wstawienie przez atakującego wiadomości BYE w czasie, gdy zachodzi komunikacja między użytkownikami. Sposób na bezpieczny VoIP Podchodząc do zabezpieczenia transmisji głosu przesyłanego przez sieci IP należy zwrócić uwagę na fakt, iż zabezpieczenia te powinny funkcjonować kompleksowo w kilku warstwach: • zabezpieczenie fizyczne infrastruktury (np. serwery sygnalizacyjne); • zabezpieczenie transmisji (np. separowanie sieci LAN i VoIP z użyciem VLAN lub przesyłanie ruchu głosowego za pomocą tunelu VPN/IPSEC); • zabezpieczenie mechanizmów sygnalizacji – np. SIP (wykorzystanie SIP-digest lub TLS) i SIP minimum w wersji 2.0 (pojawiła się ostatnio na stronach IETF wersja robocza SIP 4.0 zwana „P2P2PSIP”; • zabezpieczenie transmisji głosu (wykorzystanie Secure RTP zamiast RTP).
29
SOLUTIONS w Systemy Voice over IP
Czy Skype jest backdoorem? Duże obawy w ostatnich czasach budzą komunikatory, które odniosły w niedalekiej przeszłości oszałamiający sukces. Jednym z przykładów jest Skype, który oferuje bardzo dobrą jakość rozmowy, charakteryzuje się prostotą interfejsu użytkownika i szczyci się tym, że przesyłany głos jest szyfrowany za pomocą mocnego algorytmu AES (Advanced Encryption Standard). W Skype wykorzystano technologię P2P (twórcy komunikatora są też autorami popularnego programu Kazaa) oraz własne protokoły i mechanizmy. Wygląda na to, że powstała usługa, która jest w stanie zagrozić generycznym systemom VoIP. Niestety, skazą na „perfekcyjnym” wizerunku Skype'a jest odmowa udostępnienia jakichkolwiek informacji dotyczących bezpieczeństwa transmisji i protokołu sygnalizacyjnego. Nie zawsze musi się sprawdzać zasada „security by obscurity” – np. historia szyfrów A5/1 i A5/2 używanych do kodowania transmisji głosu pomiędzy telefonem GSM a stacją bazową pokazuje, że czasami siła rozwiązania może tkwić (tylko) w jego tajności. Operatorzy GSM trzymali wspomniane algorytmy w sekrecie, ale w 1998 roku grupa Smartcard Developer Association zastosowała reverse engineering i opublikowała ich kody źródłowe, a w wyniku przeprowadzonej analizy tych algorytmów okazało się, że mają one wiele słabych punktów, pozwalających m.in. na klonowanie kart SIM. Na stronie http://www1.cs.columbia.edu/~salman/ skype/ Salman A. Baset, zebrał interesujące materiały, dotyczące Skype’a, w szczególności ciekawe są artykuły „Skype Uncovered” oraz „Silver Needle in the Skype” opisujące szczegółowo próbę podejścia reverse engineering do Skype’a. Wiele korporacji zabrania korzystać z komunikatorów i „telefonii” internetowej z dwóch zasadniczych powodów –infrastruktura taka jest poza kontrolą organizacji i informacje poufne nie powinny być przesyłane przez niezaufane medium. Dodatkowym argumentem na „nie” jest brak pewności, co tak naprawdę te aplikacje robią jeszcze. Nie każdy wie, że komputer z zainstalowanym Skype'em, który spełnia pewne warunki (mocne łącze, publiczny adres IP, duża moc obliczeniowa), może stać się tzw. SuperWęzłem i w sposób anonimowy pośredniczyć w połączeniach. Skype jest czarną skrzynka i nie powinno dziwić, że wciąż są wątpliwości, co jeszcze w sobie kryje. Natomiast w kontekście użytku prywatnego można uznać go za rzeczywiście względnie bezpieczne rozwiązanie telefonii internetowej. Na polskim rynku, poza Skype’em, bardzo popularny jest Tlenofon, Gadu NaGłos oraz Neofon TP – wszystkie wspomniane rozwiązania pozwalają na darmowe rozmowy w ramach sieci, wszystkie też pozwalają na podłączenie bramki VoIP i wspierają STUN (Simple Traversal of UDP through NATs), dzięki któremu można ustawić komunikację UDP pomiędzy dwoma urządzeniami ukrytymi za routerami NAT. Protokołem sygnalizacyjnym jest SIP, co nie powinno dziwić. Prosta diagnostyka w praktyce Swego czasu Peter Cox stworzył i zaprezentował oprogramowanie pozwalające na podsłuchiwanie rozmów
30
prowadzonych pomiędzy użytkownikami VoIP noszące nazwę SIPtap. Oprogramowanie to nie jest dostępne publicznie, natomiast podsunęło pomysł innym programistom i aktualnie to samo można zrobić z użyciem WireShark (dawniej Ethereal) lub „Cain and Abel”. Wireshark pozwala na podsłuchiwanie całego ruchu, z którego można wyfiltrować pakiety związane z telefonią głosową. Kain pozwala dodatkowo na dekodowanie danych z hashy SIP i zapisanie (i odtwarzanie) transmisji głosowej. Programy te są bardzo przydatnymi narzędziami diagnostycznymi i warto z ich pomocą badać bezpieczeństwo transmisji głosu przez IP. Open Source’owy VoIP? Przybywa zwolenników oprogramowania typu opensource, więc zapewne ucieszy ich informacja, że telefonia IP jest dostępna w postaci darmowego rozwiązania Asterisk. Na stronie www.asterisk.org można znaleźć nie tylko informacje o rozwiązaniu i ściągnąć oprogramowanie, ale też skopiować książkę PDF autorstwa J.Megellena, L.Madesna i J.Smitha zatytułowaną „Asterisk – The future of telephony”, gdzie na ponad sześciuset stronach opisane jest nie tylko rozwiązanie Asterisk, ale historia telefonii, zasady działania telefonii analogowej i VoIP, protokoły, koncepcje, etc. Wnioski Telefonia analogowa odchodzi już powoli do lamusa, a przesyłanie głosu przez sieci pakietowe będzie się coraz bardziej dynamicznie rozwijać. Nowa specyfika działania, nowe środowisko transmisji głosu niesie za sobą nowe zagrożenia, których należy być świadomym. Wymaga też innego podejścia do zabezpieczeń. Szczególnie ważne jest budowanie świadomości bezpieczeństwa tej formy komunikacji wśród użytkowników, ponieważ w komunikacji najważniejsi są ludzie, a bezpieczeństwo to nie tylko zabezpieczenia infrastruktury i protokołów, ale też określone zasady postępowania. Wiedząc o tym nie pozostaje mi już nic innego jak wywołać metodę BYE protokołu SIP: BYE sip:boston@software.com.pl SIP/2.0 From: Leszek Kępa <sip:Leszek.kepa@wp.pl>;tag=8321234356 n
Ciekawe odnośniki:
Asterisk - Future of telephony – http://www.digium.com/ elqNow/elqRedir.htm?ref=http://downloads.oreilly.com/books/ 9780596510480.pdf Bezpieczeństwo VoIP opartego o SIP – http:// krzysiek.tele.pw.edu.pl/pdf/afcea2003.pdf Skype – zbiór odnośników o security – http:// www1.cs.columbia.edu/~salman/skype/ VoIP Security Alliance – http://www.voipsa.org/ Przydatne narzędzia dla specjalisty VoIP – http:// www.voipsa.org/Resources/tools.php SIP – http://www.ietf.org/rfc/rfc3665.txt Protokoły VoIP – http://www.protocols.com/pbook/ VoIPFamily.htm
www.boston–review.com
COPI w CASE STUDY
Zarządzanie Bezpieczeństwem Informacji Janusz Grądzki
U
tworzenie bezpiecznego środowiska teleinformatycznego to w dzisiejszych czasach dość skomplikowane zadanie. Występujące dość powszechnie coraz nowsze zagrożenia pokazują nam dobitnie przed jak trudnym stajemy zadaniem. Słyszymy też coraz częściej o włamaniach nawet do uznawanych za „świetnie chronione” zasobów informatycznych. Cyberprzestępcom udaje się przełamać nawet bardzo skomplikowane i dość drogie zabezpieczenia, a w konsekwencji uzyskać nielegalny dostęp do baz danych danej firmy, czy też instytucji. Nie ma też praktycznie już zasobów, które nie byłyby narażone na ataki w ogólnoświatowej sieci komputerowej. Z drugiej strony oraz nowsze przepisy i regulacje dotyczące ochrony danych zmuszają firmy komercyjne i instytucje publiczne do zwiększania poziomu zabezpieczeń tych danych. W ostatnich latach pojawiła się na rynku rosnąca liczba różnych produktów dotyczących bezpieczeństwa danych, które dość gwałtownie zwiększają koszty utrzymania całości systemu i mnożą trudności w zarządzaniu zabezpieczeniami. Aby zatrzymać owe nieustannie ewoluujące zagrożenia, potrzebna jest skuteczna ochrona o wyższej integracji na poziomie systemu zarządzania, która pomoże wypełnić zadania ochrony i zredukować koszty wdrożenia i utrzymania systemu teleinformatycznego. Należy jednocześnie pamiętać, że niezależnie od wielkości instytucji i ilości chronionych komputerów potencjalne zagrożenia są bardzo podobne i to zarówno w przypadku dużych organizacji, jak i w przypadku tych mniejszych, czy nawet bardzo małych. Firmy gromadzą coraz więcej danych w systemach informatycznych (systemy kasowo-księgowe, CRM-y, dokumentacja wewnątrzfirmowa). Cena tych danych najczęściej jest bliżej nieokreślona, nikt nie liczy czasu i kosztów związanych z wytworzeniem tych danych. Problem pojawia się, gdy dane ulegną zniszczeniu, skasowaniu lub zostaną skradzione. Utracenie strategicznych dla firmy danych powoduje jej paraliż. Polityka bezpieczeństwa wraz z dobrym planem awaryjnym, odpowiednia infrastruktura wraz z centrum zapasowym danych oraz polityką backupową, pozwala uniknąć ogromnych strat finansowych firmy spowodowanych przestojem w pracy. Plan awaryjny uwzględniający takie przypadki powinien być profesjonalnie przygotowany. Obecnie plany awaryjne zlecane są z reguły profesjonalnym firmom zewnętrznym. Zdarza się też często, że małe firmy wykonują takie plany samodzielnie. Ogromną zaletą pierwszego rozwiązania jest możliwość skorzystania z wiedzy i doświadczenia specjalistów na co dzień zajmujących się tego typu problematyką, z drugiej zaś strony największą wadą jest nieznajomość przez zewnętrznych ekspertów szczegółów funkcjonowania przedsiębiorstwa tak dobrze, jak osoby w nim pracujące. Należy więc dążyć do oddelegowania merytorycznego pracownika firmy do zespołu opracowującego plan awaryjny na użytek danej firmy. www.boston–review.com
Copi S.A.
W drugim przypadku, przy opracowywaniu planów awaryjnych wewnątrz firmy, warto pamiętać o najważniejszych zasadach i procedurach, które pozwolą na profesjonalne przygotowanie się do sytuacji awaryjnych. Zapasowe centrum danych Firmy posiadające kilka oddziałów mogą zapewnić wysoką dostępność systemów, jeżeli w trakcie projektowania infrastruktury przygotowały się do zapobiegania sytuacjom awaryjnym. Rozwiązanie techniczne w tym przypadku jest dość proste – każda lokalizacja ma swój system, który replikuje dane pomiędzy oddziałem a centralą oraz jedną z lokalizacji, gdzie jest umiejscowione centrum zapasowe. Stosowane dziś powszechnie światowe tzw. „dobre praktyki” mówią o potrzebie jak największego rozproszenia funkcjonującego systemu teleinformatycznego oraz wyodrębnienia systemu awaryjnego. Optymalna odległość od siedziby głównej to ok. 200 km. Odległość taka zapewni centrum zapasowemu, że jego infrastruktura i możliwość funkcjonowania nie zostaną naruszone nawet w przypadku rozległych kataklizmów. Jest duże prawdopodobieństwo, że znajdzie się ono poza strefą lokalnych utrudnień telekomunikacyjnych lub problemów z zasilaniem. Przechowywanie informacji Problem bezpieczeństwa przechowywania informacji jest dość powszechny. Z niezależnych badań wynika, że ponad 20 procent firm opracowało już strategię ochrony danych przechowywanych na urządzeniach przenośnych oraz ok. 75 procent korzysta z technologii wirtualizacji. W chwili obecnej główną zaletą, jak i czynnikiem wpływającym na inwestycje w systemy wysoko dostępnych pamięci masowych, jest konsolidacja zasobów oraz zmniejszenie kosztów operacyjnych i uproszczenie zarządzania całą infrastrukturą. Dane utracone na skutek przypadkowego lub celowego działania użytkowników systemu informatycznego występują dziś na poziomie aż 70 procent wszystkich przypadków. Backup powinien zabezpieczać bazy danych firmy, jak również dane aplikacji pocztowych bez konieczności ich przestoju. Wykorzystanie bibliotek dyskowych, taśmowych jak i macierzy dyskowych pozwala na przyśpieszenie wykonania procesu backupu oraz na jego pełne zautomatyzowanie. Wykorzystanie sieci Storage Area Network do wykonywania backupu powoduje brak konieczności obciążania sieci LAN, co pozwala na pełne wykorzystanie produkcyjne posiadanej infrastruktury. Reasumując, odpowiednie zabezpieczenie naszych danych daje nam gwarancję wiarygodności firmy poprzez zapewnienie jej ciągłości działania nawet w skrajnie niekorzystnych warunkach oraz zapewnienie tzw. przewagi konkurencyjnej w przypadku awarii systemów IT, zasilania lub działania innej siły wyższej na obszarze danego regionu, czy też całego kraju. n
31
SOLUTIONS w Bezpieczeństwo sieci
NOWE PODEJŚCIE DO OCHRONY SIECI FIRMOWEJ
Dużą popularność zyskuje ostatnio nowa koncepcja ochrony sieci. Zintegrowane zarządzanie zagrożeniami to pomysł, w którym ochrona styku sieci firmowej z Internetem realizowana jest z użyciem jednego kompleksowego urządzenia. Warto przemyśleć wdrożenie takiego rozwiązania we własnej firmie, ze względu na łatwość zarządzania i możliwe duże oszczędności finansowe. Elżbieta Kasprzyk
R
ozwiązania klasy UTM (Unified Threat Management) to urządzenia, które w jednej obudowie łączą wszystkie moduły niezbędne do kompletnego zabezpieczenia sieci firmowej na styku z Internetem. Do ich najważniejszych funkcji zaliczyć można firewall, system wykrywania i zapobiegania włamaniom (IPS) oraz możliwość tworzenia szyfrowanych połączeń, czyli VPN. Dobrej klasy UTM-y pozwalają równoważyć obciążenie na dostępnych łączach internetowych (tzw. load balancing), czy też definiować, którzy użytkownicy czy też jakie usługi (np. POP3, VOIP, http) w pierwszej kolejności powinny uzyskiwać dostęp do łącza (QoS – Quality of Service). Każdy UTM powinien oferować również możliwość skanowania antywirusowego, kontroli odwiedzanych przez pracowników stron internetowych (filtr URL) oraz pierwszej linii ochrony przed spamem. Dzięki rosną-
32
cej popularności tych rozwiązań na polskim rynku dostępna jest coraz szersza oferta producentów tego typu zabezpieczeń. Jak zatem stwierdzić, które z tych rozwiązań jest godne polecenia, a które przysporzy nam tylko więcej kłopotów i pracy? UTM – tak, ale jaki? Zanim przystąpimy do analizy poszczególnych funkcji urządzenia UTM, powinniśmy rozpatrzyć bardzo ważny aspekt, jakim jest zarządzanie. Kontrolowanie dużej liczby funkcji, niejednokrotnie bardzo rozbudowanych, którymi cechują się urządzenia UTM, nie powinno sprawiać nam kłopotów. Pomocą dla administratora powinna być przejrzysta i intuicyjna w obsłudze konsola zarządzająca. Oczywiście weryfikacja stopnia intuicyjności konsoli jest bardzo trudna – to, co dla jednego jest proste, dla www.boston–review.com
Bezpieczeństwo sieci
innego niekoniecznie. Ważne jest, aby konsola umożliwiała administratorowi zdiagnozowanie w szybki sposób źródła problemu, niezależnie od tego, kiedy on miał miejsce. Monitoring w czasie rzeczywistym pozwalający na kontrolowanie stanu połączeń dla każdej stacji w obrębie sieci lokalnej, weryfikowanie poprawności działania wszystkich usług i aktualizacji systemu oraz śledzenie ruchu przechodzącego przez urządzenie są niezbędnymi narzędziami administratora w codziennej pracy. Ważną usługą jest również zarządzanie logami. Niektórzy producenci oferu- Rys. 1 Konsola administracyjna do urządzenia NETASQ UTM – informacje z wewnętrznego audytu sieci ją w swoich rozwiązaniach funkcjonalności maksymalnie pujemy UTM, należy koniecznie zapytać sprzedawcę, w ułatwiające pracę administratora, np. rozbudowany system jaki sposób IPS wykrywa zagrożenia. W dalszym ciągu przechowywania logów w bazie SQL z opcją generowania można spotkać rozwiązania, w których IPS wykrywa zana ich podstawie automatycznych raportów. Najlepsze roz- grożenia opierając się głównie o sygnatury, co nie zapewni wiązania typu UTM umożliwiają administratorowi prowa- naszej sieci tzw. „zero day protection”, czyli ochrony przed dzenie monitoringu, zbieranie logów oraz raportowanie już jeszcze nie sklasyfikowanymi zagrożeniami. Istotne jest, w ramach podstawowych funkcji urządzenia. aby nasz IPS oprócz sygnatur zagrożeń posiadał również dodatkowe technologie – umożliwią one efektywniejszą Krok 1 – wybieramy IPS i firewall ochronę przed atakami nowych, nieznanych zagrożeń. Urządzenie UTM pozwala na kontrolę ruchu przechodzącego i wychodzącego, czyli posiada funkcję firewall. Nie- Krok 2 – zapewniamy komunikację poprzez VPN którzy producenci, zwracając uwagę na łatwość zarządza- Urządzenia UTM pozwalają także zabezpieczać dostęp do nia, dodają bardzo przydatne narzędzie, jakim jest anali- sieci lokalnej ze zdalnej lokalizacji oraz umożliwiają zadazator reguł, którego zadaniem jest wychwycenie błędów nej grupie użytkowników dostęp do serwerów znajdujących i sprzeczności. Takie narzędzie znacznie ułatwia pracę admi- się w strefie zdemilitaryzowanej (DMZ). Takie możliwonistratorowi. Najważniejszym modułem urządzeń UTM jest ści daje VPN (Virtual Private Network), dzięki której użytsystem odpowiedzialny za blokowanie ataków na sieć firmo- kownicy sieci korporacyjnej korzystający z jej zasobów pową, czyli IPS. O ile sposób działania firewalla jest dość pro- za godzinami pracy (np. w domu) są odpowiednio zabezsty i nie ma przy nim zbyt wiele okazji do wykazania się in- pieczani m.in. dzięki szyfrowanemu połączeniu. Funkcjonowacyjnością, o tyle IPS pokazuje to doskonale. Jeśli ku- nalność VPN w rozwiązaniach typu UTM można podzielić na dwie grupy: budowanie tuneli VPN między oddziałami firmy (Site-To-Site) oraz budowanie tuneli VPN między użytkownikami mobilnymi a firmą (Client-To-Site). Najczęściej spotykanymi protokołami wykorzystywanymi do tworzenia wirtualnej sieci prywatnej są IPSec oraz SSL. Najbardziej pożądana jest sytuacja, w której producent oferuje w ramach danego rozwiązania możliwość wykorzystania obydwu wymienionych protokołów. Jeśli zamierzamy w znacznym stopniu korzystać z VPN, warto porównać, ile równocześnie tuneli można otworzyć w danym urządzeniu. Rys. 2 Konsola administracyjna do urządzenia NETASQ UTM – informacje o obciążeniu poszczególnych interfejsów www.boston–review.com
33
SOLUTIONS w Bezpieczeństwo sieci
Krok 3 – sprawdzamy możliwości integracji z katalogami (LDAP,AD) Kolejną funkcją urządzeń UTM zalecaną przy korzystaniu z VPN jest tzw. serwer usług katalogowych. Chodzi tu o możliwość stworzenia bazy użytkowników w celu ustawienia polityk bezpieczeństwa dla każdego z osobna (per user). W przypadku urządzeń UTM ważna jest możliwość integracji urządzenia z istniejącym serwerem LDAP, AD (Active Directory) lub uruchomienie takiej usługi bezpośrednio na urządzeniu. Dzięki takiemu rozwiązaniu, reguły na firewallu są tworzone dla konkretnej uwierzytelnionej osoby (grupy osób), niezależnie od tego, z której stacji (z którego IP) osoba ta korzysta. Przydatną funkcją jest możliwość tworzenia kalendarzy, które pozwalają określić m.in. w jakich godzinach lub dniach powinien działać konkretny zestaw reguł. Może on odnosić się do zbioru reguł na firewall, filtra URL lub do translacji adresów (NAT) czy VPN. Przykładem wykorzystania funkcji kalendarzy jest blokowanie w godzinach pracy stron internetowych umożliwiających zakupy on-line i odblokowywanie ich po zakończeniu pracy. Krok 4 – jakie mamy możliwości kształtowania ruchu w sieci? Powiązanie zbiorów reguł z kalendarzami może być wykorzystywane również przy kształtowaniu pasma (QoS). W wyniku tego kontrola obciążenia pasma może odbywać się przez urządzenia automatycznie, z różnymi rygorami w zależności od dnia tygodnia i godziny. Rozwiązanie to umożliwia określanie limitu dla danego ruchu w postaci wartości dyskretnych, np. przy użyciu wartości procentowych. Pozwala to na zastosowanie bardzo elastycznej polityki dotyczącej regulacji ruchu pakietów w sieci. Często pomijaną funkcjonalnością UTM jest możliwość zapewnienia ciągłości połączenia w przypadku awarii któregoś z łączy ISP. Innymi słowy – chodzi o konfigurację łącza zapasowego, które zostaje uruchomione, gdy łącze główne staje się niedostępne. Taka funkcjonalność umożliwia także równoważenie łączy przy jednoczesnym korzystaniu z usług dwóch lub większej liczby dostawców (load balancing). Krok 5 – co z ochroną przed wirusami i spamem? UTM-y pozwalają również na ochronę antywirusową oraz antyspamową w miejscu styku sieci z Internetem – co nie oznacza, że nie należy następnie stosować zabezpieczeń na stacjach roboczych. Pożądanym uzupełnieniem tych zabezpieczeń jest funkcjonalność filtrowania stron internetowych, która znacznie obniża prawdopodobieństwo zainfekowania sieci groźnym wirusem przez blokowanie podejrzanych stron zawierających m.in. treści pornograficzne, pirackie wersje oprogramowania, cracki itp. Producent urządzenia zaopatrzonego w taką usługę powinien udostępniać gotową klasyfikacje
34
adresów URL oraz umożliwiać administratorowi tworzenie własnej przez dopisywanie stron. Szybkość Ważne jest, aby dobrać urządzenie odpowiednio wydajne do potrzeb sieci – pamiętając, że w ciągu kilku lat sieć może się powiększyć. Nawet jeśli nie zwiększy się w niej ilość komputerów, to wraz z rozwojem Internetu i popularyzacją telefonii internetowej (VoIP), z pewnością zwiększy się ilość danych przesyłanych w sieci. Niektórzy producenci zapewniają, że w przypadku, gdy urządzenie będzie już za słabe do potrzeb danej sieci można dokupić drugie urządzenie i zestawić je w tzw. klaster active – active. Myli się jednak ten, kto sądzi, że podwoi w ten sposób wydajność urządzeń w sieci. Wzrost wydajności przy dołożeniu drugiego urządzenia (które zawsze musi być dokładnie takim samym modelem jak to już użytkowane) jest zazwyczaj nie większy niż 20 – 25%. Warto się więc dobrze zastanowić i od razu wybrać model nieco na wyrost. Podsumowanie Można pokusić się o wniosek, że podstawowymi parametrami, które należy brać pod uwagę wybierając rozwiązanie UTM, są: wysoki poziom bezpieczeństwa przy równoczesnym zachowaniu wysokiej wydajności urządzenia oraz wygodna administracja. Ważne jest również, aby sprawdzić, czy producent zapewnia wsparcie techniczne w języku polskim, czy też z każdym problemem trzeba będzie dzwonić na drugi koniec świata. Pamiętajmy, że jak każdy sprzęt tego typu urządzenie może ulec awarii – warto zapytać, na jakich warunkach wytwórca udziela gwarancji na swój produkt. Czy gwarancja jest odnawialna, czy na z góry ustalony okres czasu. Czy produkt będzie naprawiany (co zazwyczaj zajmuje więcej czasu), czy też będzie wymieniony na nowy. n O autorze:
Elżbieta Kasprzyk – specjalizuje się w tematyce sprzętowych zabezpieczeń poczty elektronicznej oraz kompleksowych zabezpieczeniach sieci firmowych klasy Unified Threat Management (UTM). Pracuje jako product manager w firmie DAGMA.
Rys. 3 Konsola administracyjna do urządzenia NETASQ UTM – podgląd najważniejszych elementów sieci – krytyczne alarmy, użytkownicy najbardziej obciążający sieć, ilośc otwartych tuneli VPN, ostatnia aktualizacja
www.boston–review.com
Bezpieczeństwo sieci w SOLUTIONS
Infrastruktury Krytyczne aspekty bezpieczeństwa Zwiększająca się złożoność dzisiejszych systemów informatycznych i powszechność dostępu do sieci Internet sprawia, że są one coraz bardziej podatne na różnego rodzaju ataki i zagrożenia pochodzące zarówno z wewnątrz jak i z zewnątrz przedsiębiorstw oraz wydzielonych systemów sieciowych. Niezmiernie istotne stają się ochrona i zapewnienie bezpieczeństwa infrastruktur krytycznych. Michał Choraś Adam Flizikowski
Pojęcie infrastruktury krytycznej Unia Europejska określa Infrastrukturę Krytyczną jako „zbiór zarówno fizycznych jak i informacyjnych elementów, sieci i usług, których zniszczenie lub zaburzenie funkcjonowania spowoduje niekorzystne oddziaływanie na zdrowie, bezpieczeństwo oraz ekonomiczny dobrobyt mieszkańców a także efektywne funkcjonowanie rządów państw członkowskich” [1]. Mowa tu o liniach wodociągowych, gazowych, energetycznych, transporcie oraz wszelkich innych elementach użyteczności publicznej, które coraz częściej korzystają i połączone są z otwartymi sieciami telekomunikacyjnymi. Skuteczne, scentralizowane zarządzanie tymi sieciami jest niezbędnym składnikiem niezaburzonego ich funkcjonowania, szczególnie na wypadek wystąpienia sytuacji kryzysowej. Infrastruktura krytyczna, która może być zarządzana przez systemy kontrolno-monitorujące SCADA, będące tematem artykułu, to przede wszystkim całokształt systemów użyteczności publicznej, których jednym z elementów jest sieć telekomunikacyjna. Sieć telekomunikacyjna będąca w posiadaniu operatorów m.in. sieci mobilnych czy kablowych jest przedmiotem rewww.boston–review.com
gulacji w zakresie ochrony na rzecz zapewnienia jej bezpieczeństwa na wypadek kryzysu. Infrastruktura krytyczna operatora telekomunikacyjnego w kontekście prawa telekomunikacyjnego to pewien podzbiór całej jego infrastruktury. W skład tej infrastruktury mogą wchodzić te same elementy, które są krytyczne dla realizacji celów biznesowych firmy. Udostępnienie infrastruktury krytycznej w przypadku sektora telekomunikacyjnego skupia się na świadczeniu usług dla służb obronnych i ratowniczych państwa i samorządów w przypadku wystąpienia zagrożenia. Infrastruktura krytyczna nie jest bezwzględna: zmienia się dynamicznie w zależności od scenariusza zagrożeń i ewolucji sytuacji np. występujących awarii. Na początku zdarzenia krytycznego urządzenia zapasowe (ang. back-up) mogą nie być krytyczne, ale stają się takie po zaprzestaniu działania urządzeń podstawowych. Ze względu na brak jednoznacznej interpretacji prawa nakładającego wymagania na operatora telekomunikacyjnego w przypadku wystąpienia sytuacji szczególnego zagrożenia, można ustalić definicję infrastruktury krytycznej tylko dla predefiniowanego scenariusza zdarzeń. Przykła-
35
SOLUTIONS w Bezpieczeństwo sieci
dowe elementy takiej infrastruktury krytycznej w przypadku operatora telekomunikacyjnego to m.in.:
połowę tej kwoty stanowią wydatki związane z aspektami transmisji i dystrybucji.
• infrastruktura telekomunikacyjna operatora mobilnego służy zapewnieniu funkcjonowania podstawowych usług telekomunikacyjnych (na poziomie transportowym), takich jak telefonia – GSM, transmisja danych – GPRS, wiadomości SMS i poczta głosowa; • infrastruktura informatyczna obejmuje zarówno sieć korporacyjną LAN/WAN (łącza, przełączniki, routery, itp.), serwery systemów i aplikacji, jak i stacje robocze; • infrastruktura personalna (zasoby ludzkie): zarząd, dyrektorzy pionów, dyrektorzy departamentów i biur, kierownicy zespołów, szeregowi pracownicy, podwykonawcy; • inne rodzaje infrastruktury np. infrastruktura budynkowa, zasilanie, urządzenia dostawy wody, gazu, energii; urządzenia transportowe i magazynowe.
Systemy pomiarowo-kontrolne SCADA Sieci SCADA (ang. Supervisory Control and Data Acquisition) są systemami kontrolującymi, nadzorczymi, monitorującymi określoną infrastrukturę publiczną. To właśnie SCADA pojawia się najczęściej przy zagadnieniach infrastruktur krytycznych, ale znajduje swoje zastosowanie także w szeregu różnych gałęzi przemysłu. Od innych systemów kontrolnych odróżnia te systemy fakt, że przeznaczone są przede wszystkim do funkcjonowania w powiązaniu z sieciami rozproszonymi geograficznie. Zazwyczaj system SCADA składa się z rdzenia centralnego, w którym zbierane są informacje kontrolne oraz z pewnej ilości jednostek RTU (ang. Remote Terminal Units) o ograniczonych zasobach obliczeniowych. Jednostki RTU zbierają dane i komunikują się z centrum (ang. Operation Control Centre) przesyłając komunikaty w określonych interwałach czasowych (Rys. 1). Ponieważ systemy monitorująco-kontrolujące istnieją już od wielu lat, nie zawsze były realizowane z uwzględnieniem zasad polityki bezpieczeństwa. Tworzone czasem niskim kosztem komponenty są podatne na ataki cybernetyczne. W ostatnim czasie, wraz z presją na modernizację, integrację oraz niskie koszty, systemy SCADA ewaluują z zamkniętych i dedykowanych systemów kontroli do gotowych produktów typu COTS (ang. Components Off The Shelf), które współdzielą sieci z innymi systemami i są oparte o standardowe protokoły. Konsekwencją tych zmian jest zwiększenie podatności obecnych systemów SCADA ze względu na ich połączenie z otwartymi sieciami telekomunikacyjnymi. Dla przykładu atak przeprowadzony i skierowany ze słabo zabezpieczonej sieci bezprzewodo-
Dotychczasowe awarie, zaniki oraz nagłe przerwy w działaniu krytycznych infrastruktur, takie jak awarie sieci energetycznych we Włoszech, USA, a także w Polsce (tzw. blackout), czy awarie sieci GSM (np. we Francji) wynikały z niezidentyfikowanych wcześniej podatności. Wcześniejsza identyfikacja podatności pozwoliłaby na zapobieżenie zagrożeniom oraz ich skutkom. Z kolei w USA analiza przeprowadzona przez Agencję ds. Ochrony Środowiska (ang. US Environmental Protection Agency) pokazuje, że systemy wodociągowe w tym kraju wymagają inwestycji na poziomie 277 miliardów dolarów w najbliższych 20 latach (2003-2023) aby zainstalować, unowocześnić lub wymienić obecną infrastrukturę [2], tak by spełniała ona wymagania nakładane przez standardy bezpieczeństwa. Ponad
Rys. 1 Architektura systemów SCADA [Źródło: NIST, Process Control Security Requirements Forum]
36
www.boston–review.com
Bezpieczeństwo sieci
wej może sparaliżować dostarczanie wiadomości kontrolnych w czasie rzeczywistym i utratę kontroli nad fragmentem krytycznej infrastruktury. Podobnie niebezpieczne mogą być częste w otwartych sieciach IP ataki typu DoS i DDoS, mogące spowolnić bądź uniemożliwić komunikację między elementami systemu SCADA. Wszystkie te przesłanki są przyczynkiem do rozważenia aspektów bezpieczeństwa współzależności pomiędzy siecią/systemami SCADA a infrastrukturami krytycznymi, bądź innymi systemami, które są nadzorowane przez SCADA. Ewolucja sieci SCADA Historycznie można wyróżnić trzy generacje sieci SCADA [3]. W początkowej ich formie były to systemy typu mainframe, w których jeden monolityczny system zajmował się przetwarzaniem danych. Ponieważ sieci teleinformatyczne praktycznie nie istniały, wczesne sieci SCADA były pozbawione komunikacji z innymi systemami. Protokoły wykorzystywane przez terminale RTU były tworzone przez ich dostawców głównie na potrzeby zbierania danych z terenu. Protokoły stosowane obecnie w sieciach WAN nie były jeszcze znane. Zabezpieczenia były realizowane poprzez tworzenie redundantnych struktur mainframe, które dla zwiększenia niezawodności były łączone ze sobą w oparciu o współdzielone magistrale komunikacyjne. Głównym zadaniem systemu zapasowego było monitorowanie sytemu bazowego i automatyczne przejęcie jego funkcji w przypadku stwierdzenia awarii. Szczątkowe formy komunikacji z zewnętrznymi systemami wykorzystywały połączenia wąskopasmowe np. poprzez port szeregowy (RS-232) i umożliwiały jedynie eksport danych do systemów komputerowych ogólnego przeznaczenia w celu ich przetwarzania, archiwizacji i współdzielenia. Można zatem podsumować, iż pierwsza generacja systemów SCADA posiadała ograniczenia wynikające w znacznej mierze z ograniczeń dostępnego sprzętu, oprogramowania oraz peryferiów, które były dostarczane, a w minimalnym wariancie wybierane przez dostawców sprzętu dla sieci SCADA. Druga generacja sieci SCADA opierała się w znacznej mierze na współpracy z sieciami lokalnymi LAN oraz na postępującej miniaturyzacji sprzętu komputerowego. Stacje robocze stosowane w sieciach SCADA wymieniały ze sobą dane poprzez sieci lokalne w czasie rzeczywistym. Główne zadanie stacji roboczych z tego okresu to komunikacja z urządzeniami w terenie (np. RTU). Dodatkowo funkcje realizowane przez stacje przetwarzania danych obejmowały: interfejs operatora systemu (HMI), przetwarzanie danych telemetrycznych czy serwery baz danych. Rozproszenie funkcji pomiędzy niezależne węzły pozwoliło dostarczać większych mocy obliczeniowych niż to miało miejsce w systemach pierwszej generacji, a jednocześnie zwiększało niezawodność. Ograniczenia systemów drugiej generacji wynikały głównie z ograniczonego zasięgu sieci LAN. Komunikacja z terminalami RTU odbywała się poprzez sieć WAN, jednakże z wykorzystaniem protokołów dostarczanych przez dostawców rozwiązań RTU. Dlatego nie pozwalało to na przesyłanie ruchu innego niż ruch SCADA. Trzecia generacja systemów do kontroli i monitorowania systemów przemysłowych stanowi rozszerzenie drugiej generacji poprzez otwarcie architektury systemu dzięki zastosowaniu otwartych standardów i protokołów. Powww.boston–review.com
nadto funkcjonalność SCADA staje się w pełni rozproszona także w ramach sieci WAN. Zastosowanie takiego podejścia umożliwiło obniżenie roli dostawców sprzętu RTU, w kształtowaniu ekosystemu protokołów do komunikacji z systemem zarządzania (ang. master station), na rzecz powszechnie stosowanych rozwiązań (m.in. protokół IP), a jednocześnie pozwoliło zwiększyć znaczenie produktów firm trzecich. Dzięki wykorzystaniu sieci WAN w komunikacji z terminalami RTU, zwiększyła się odporność na zdarzenia losowe, a awarie systemów wspomagających SCADA we wcześniejszych sieciach LAN nie stanowią już zagrożenia dla stabilności systemu. Sieci SCADA a infrastruktura krytyczna Krytyczne infrastruktury obejmują zarówno systemy zaopatrujące mieszkańców miast w wodę, elektryczność, jak i sieci telekomunikacyjne, umożliwiające komunikację na wypadek kryzysu, wykorzystywane przez rządy państw i przemysł. W Stanach Zjednoczonych istnieje ponad 2 miliony mil instalacji gazowych, 2,8 tyś. elektrowni czy 87 tyś. przetwórni żywnościowych, a to tylko niektóre z liczb określających infrastruktury zidentyfikowane jako krytyczne. Dyrektywa definiująca strategie bezpieczeństwa wewnętrznego Stanów Zjednoczonych określiła 14 gałęzi przemysłu stanowiących cel ochrony w zakresie infrastruktury krytycznej. Niezależnie od typu sieci, systemy kontrolno-monitorujące stanowią nieodzowny, kluczowy element systemu zarządzania takimi infrastrukturami. Szczegółowe wymagania operacyjne systemów SCADA są zależne od gałęzi przemysłu, w jakiej są one wykorzystywane. Najczęściej spotykane wymagania to wysoka dostępność 24/7, czas reakcji na poziomie czasu rzeczywistego (lub prawie) oraz nieodzowny zdalny dostęp. Z punktu widzenia bezpieczeństwa najważniejsze wymagania dla sieci SCADA to poufność, integralność i dostępność informacji przekazywanych w sieci. Szacuje się, że zależnie od sektora przemysłu koszt niedostępności takiego sytemu może wynosić nawet od 1 do 4 milionów dolarów na godzinę [4]. Podatności systemów SCADA Systemy SCADA w swojej ponad dwudziestoletniej historii były implementowane zarówno jako systemy dedykowane, jak i systemy wykorzystujące korporacyjną infrastrukturę sieciową przedsiębiorstwa. Wykorzystywana obecnie sieć IP (Ethernet) powoduje wzrost podatności sieci SCADA na ataki, które są typowe dla sieci opartych o protokół IP. Stosowanie komercyjnego oprogramowania (systemy operacyjne, bazy danych) powoduje, iż podatności tych systemów przenoszą się do świata systemów kontrolno pomiarowych. Protokoły komunikacyjne wykorzystywane przez systemy SCADA, takie jak Modbus/TCP, Ethernet/IP czy DNP3 są krytyczne dla komunikacji z urządzeniami kontrolnymi, jednakże protokoły te nie były projektowane z myślą o bezpieczeństwie, dlatego typowo nie jest wymagane uwierzytelnienie, aby można było zdalnie kontrolować urządzenia. Zdalny dostęp do sieci SCADA stanowi jedną z najbardziej podatnych na ataki warstw infrastruktury krytycznej. Dlatego kluczowe znaczenie ma analiza przepływu informacji pomiędzy systemami SCADA. Zarówno systemy SCADA jak i kontrolowane infrastruktury krytycz-
37
SOLUTIONS w Bezpieczeństwo sieci
ne są współzależne na wielu warstwach – od warstwy fizycznej do cyberprzestrzeni, w której współistnieją. Dlatego też atak wymierzony w jedną z sieci lub kontrolujących je systemów SCADA może pociągnąć za sobą fizyczne następstwa w innej. W latach 1994 – 2004 zaobserwowano pięciokrotny wzrost wskaźnika incydentów występujących w sieciach SCADA. Ponadto z prowadzonych badań wynika, iż zmieniają się typy ataków: do roku 2001 połowa incydentów obejmowała zdarzenia losowe, a 25% dotyczyło incydentów wewnętrznych i zewnętrznych. Po roku 2002 diametralnie spadła liczba zanotowanych incydentów sklasyfikowanych jako wewnętrzne (3%), o ponad połowę obniżyła się liczba zdarzeń losowych, natomiast trzykrotnie wzrosły statystyki związane ze zdarzeniami zewnętrznymi. Duża liczba systemów SCADA będących w posiadaniu prywatnych właścicieli utrudnia przepływ informacji o podatnościach, jednakże współdzielenie takiej informacji jest kluczowe dla zwiększania bezpieczeństwa tego typu systemów. Najczęściej spotykane nieporozumienia w postrzeganiu problematyki zabezpieczeń systemów SCADA zostały przedstawione poniżej: • systemy SCADA zostały zaimplementowane w postaci niezależnych (rozdzielnych fizycznie) dedykowanych sieci; • komunikacja pomiędzy systemami SCADA a innymi sieciami korporacyjnymi jest zabezpieczona silnymi schematami kontroli dostępu;
• wymagana do zarządzania sieciami SCADA wiedza fachowa utrudnia włamanie się do nich osobom nie będących specjalistami w tej dziedzinie; • alarmy pochodzące z warstwy fizycznej w sieciach SCADA są spowodowane błędami w sprzęcie lub oprogramowaniu i powinny być rozwiązywane standardowymi środkami zaradczymi w zakresie tolerancji błędów. Powiązania pomiędzy infrastrukturami Współzależność (ang. interdependency) to dwustronnna relacja pomiędzy infrastrukturami, poprzez którą stan jednej z nich jest uzależniony lub skorelowany ze stanem innej. Przykładowo, krajowa sieć elektryczna oraz sieć transmisji gazu są powiązane – generatory elektryczności wykorzystują gaz, podobnie elementy infrastruktury dystrybucji gazu są zasilane elektrycznością. Przerwa w dostawie jednego z mediów spowoduje kaskadowy efekt w sieci zasilającej w pozostały surowiec. W literaturze spotyka się cztery podstawowe klasy współzależności [5]: • współzależność fizyczna – dwie infrastruktury są wzajemnie zależne na poziomie połączeń fizycznych, jeśli stan każdej z nich zależy od stanu wyjścia drugiej z nich; • współzależność cybernetyczna – infrastruktura wykazuje tego typu zależność, jeśli jej stan zależy od informacji przesyłanej poprzez infrastrukturę informacyjną. W chwili obecnej na skutek gwałtow-
Rys. 2 Ogólna architektura monitoringu i zarządzania krytyczną infrastrukturą informacyjną bazująca na systemie typu SCADA z połączeniem z otwartą i podatną siecią Internet
38
www.boston–review.com
Bezpieczeństwo sieci
nej komputeryzacji oraz automatyzacji nowoczesnych infrastruktur wraz z ciągłym przyrostem sieci SCADA tego rodzaju współzależność występuje nagminnie; • współzależność geograficzna – dwie infrastruktury są zależne geograficznie, jeśli lokalne zdarzenie o charakterze środowiskowym może doprowadzić do zmiany stanu w obu z nich; • współzależność logiczna – z tym rodzajem
współzależności pomiędzy infrastrukturami mamy do czynienia, kiedy stan jednej z nich zależy od stanu drugiej pośrednio, tj. poprzez zewnętrzny mechanizm, którego funkcjonowanie nie jest charakterystyczne dla typów współzależności wymienionych powyżej.
Projekty Siódmego Programu Ramowego (projekt 7PR INSPIRE) Projekty Europejskie uruchomione w ramach Siódmego Programu Ramowego (FP7) odzwierciedlają tendencję do zwiększania potencjału europejskiego poprzez identyfikację, analizę podatności, a w efekcie poprawę bezpieczeństwa systemów telekomunikacyjnych i informatycznych w tym infrastruktur krytycznych. Projekt INSPIRE (INcreasing Security and Protection through Infrastructure REsilience) jest projektem finansowanym z 7 Programu Ramowego (FP7, Grant Agrement no. 225553), łącznie w tematach 4 ICT oraz 10 Security [6]. Celem projektu jest zwiększenie bezpieczeństwa, jak również ochrona krytycznych infrastruktur, a szczególnie ich części telekomunikacyjnej oraz systemów SCADA. Ochrona i zapewnienie bezpieczeństwa krytycznych infrastruktur mają być realizowane głównie poprzez opracowanie efektywnych mechanizmów zwiększających bezpieczeństwo i odporność ich części telekomunikacyjnej. W ramach projektu zidentyfikowane i przeanalizowane zostaną podatności systemów SCADA, krytycznych infrastruktur oraz wykorzystywanych przez nie sieci telekomunikacyjnych. (Rys. 2). Kluczowym założeniem projektu jest zwiększenie europejskiego potencjału w zakresie bezpieczeństwa przez zapewnienie ochrony krytycznych infrastruktur informacyjnych poprzez: • identyfikację podatności infrastruktur krytycznych oraz systemów SCADA; • zaprojektowanie oraz zaimplementowanie technik zapewniających bezpieczeństwo sieciowe krytycznych infrastruktur oraz ich procesów kontrolnych; • zaprojektowanie nowych algorytmów inżynierii sieciowej obsługujących ruch krytyczny; • opracowanie automatycznych procesów diagnostycznych; • zaprojektowanie mechanizmów autorekonfiguracji oraz mechanizmów remediacyjnych. Rdzeniem badawczym projektu INSPIRE jest ochrona krytycznych infrastruktur informacyjnych poprzez odpowiednią konfigurację, zarządzanie i ochronę sieci komunikacyjnych połączonych z rozproszonymi systemami kontroli. www.boston–review.com
Podsumowanie Infrastruktura krytyczna oraz sieci kontrolno-monitorujące SCADA wraz z wykorzystywanymi do komunikacji otwartymi sieciami telekomunikacyjnymi, które coraz częściej działają jako medium transmisyjne, stanowią naczynia połączone. W dobie zwiększenia podatności obecnych systemów otwartych, szczególnego znaczenia nabierają działania nastawione na podejście systemowe, oparte na współdzieleniu wiedzy i stworzeniu efektywnych modeli odpowiadających rzeczywistości. Projekty europejskie, takie jak 7PR INSPIRE w zakresie sieci SCADA, promują podejście oparte na wykorzystaniu specjalistycznej wiedzy partnerów z Europy. Niniejszy artykuł jest pochodną prac badawczych finansowanych przez Unię Europejską w ramach 7 Programu Ramowego (FP7-2007-2013) z projektu INSPIRE (nr umowy 225553). n Źródła: [1] Commission of the European Communities: Communication from the Commission to the Council and the European parliament: critical infrastructure protection in the fight against Terrorism w: COM (2004) 702 final, Brussels; 20 Październik 2004. [2] Environmental Protection Agency (EPA): Drinking Water Infrastructure Needs Survey and Assessment w: Third Report to Congtress, EPA 816-R-05-001 (2005). [3] R.H.McLahlan, “The benefits of networked SCADA systems utilizing IP-enabled networks”, IEEE, 2002. [4] A.Miller, “Trends in process security”, IEEE Security and Privacy, 2005. [5] Rinaldi, S.J. Peerenboom, T.Kelly, “Identifying, understanding, and analyzing critical infrastructure dependencies”, IEEE Control Systems Magazine, IEEE, Grudzień 2001, str. 11-25. [6] FP7 INSPIRE (INcreasing Security and Protection through Infrastructure REsilience) Project Description of Work.
O autorach: Dr inż. Michał Choraś – zaangażowany w projekty z zakresy bezpieczeństwa teleinformatycznego, ochrony bezpiecznych infrastruktur oraz zarządzania kryzysowego. Obecnie kieruje pracami ITTI w projektach badawczych finansowanych z 7PR (INTERSECTION oraz INSPIRE). Pracuje jako adiunkt w Instytucie Telekomunikacji, UTP Bydgoszcz, gdzie w 2005 roku z wyróżnieniem obronił rozprawę doktorską. W pracy naukowej zajmuje się wykorzystaniem metod analizy obrazów w celu pasywnej biometrycznej identyfikacji osób. Pracuje jako starszy konsultant oraz kierownik projektów w ITTI Sp. z o. o. Mgr inż. Adam Flizikowski – uczestniczy jako kierownik i wykonawca w projektach z zakresu m.in. QoS w sieciach heterogenicznych (FP6 EuQoS, FP6 NETQoS, FP7 DaVinci), bezpieczeństwa systemów i infrastruktur teleinformatycznych w tym sieci SCADA (INSPIRE, INTERSECTION) oraz symulacji rozproszonych HLA/RTI (domena samolotów bezzałogowych UAV). Pracuje jako asystent profesora w Instytucie Telekomunikacji UTP, w pracy naukowej zajmuje się zagadnieniami QoS, zarządzania sieciami (PBNM) w sieciach bezprzewodowych, obecnie realizuje prace w ramach rozprawy doktorskiej. Pracuje jako starszy konsultant oraz kierownik projektów w ITTI Sp. z o. o.
39
FACE TO FACE
XXXXXXX
Interes na wagę Złota „Złoto i brylanty to rzeczywiście w czasach kryzysu pewna lokata, choć bardzo długofalowa. Jak złoto to raczej sztabki, monety. Biżuteria mniej–tu trzeba płacić za artyzm a wartość samego surowca nie jest tak duża. Co innego brylanty–tu złoto jest często tylko małym dodatkiem, a kamień stanowi zasadniczą wartość”.
Wojciech Kruk Absolwent Akademii Ekonomicznej w Poznaniu. Akcjonariusz firmy W. Kruk. W latach 1991-2001 senator RP II, III i IV kadencji. Obecnie przewodniczący Rad Nadzorczych W.KRUK S.A. i Deni Cler S.A. Prezydent Wielkopolskiej Izby Przemysłowo-Handlowej, od 2005 roku przewodniczący Rady Krajowej Izby Gospodarczej, największej organizacji Polskich przedsiębiorców. Pracę zawodową od wczesnej młodości związał z rodzinną firmą jubilerską. Przeszedł wszystkie stanowiska – od ucznia do prezesa firmy. Zajmował się także projektowaniem firmowych kolekcji biżuterii srebrnej. Hobby to: sztuka, malarstwo, literatura (głównie historyczna, historia wojskowości i dyplomacji polskiej), turystyka, narty, tenis, brydż, golf.
40
Jak długą historią może pochwalić się firma KRUK? Nasza historia sięga 1840 roku, kiedy Leon Skrzetuski, wuj mojego dziadka, otworzył warsztat rzemieślniczy produkujący sprzęt liturgiczny. Najstarszy zachowany dokument to księga cechowa w archiwum miasta, w której widnieją odpowiednie wpisy o płaceniu składek i podatków. Większość pamiątek w czasie II wojny światowej i wysiedlenia dziadków do generalnej guberni zaginęła, ale w latach 70-80 udało mi się odkupić parę starych wyrobów naszej produkcji. Także Poznaniacy przynosili i stale przynoszą różne drobne pamiątki związane z naszą firmą, czy to pudełko z naszym logo, czy starą gazetę z reklamą. Niektóre rzeczy udaje mi się odkupić, inne tylko sfotografować i tak rozrasta się nasze muzeum. www.boston–review.com
FACE TO FACE
To wielopokoleniowy rodzinny interes. Kto był jej pomysłodawcą i kto przyczynił się do jej spektakularnego rozwoju? Trudno samemu oceniać swoje działania i mówić, kto był lepszy, kto się więcej zasłużył dla rozwoju firmy. Sądzę, że każde z pokoleń mojej rodziny ma swój wkład. Sukces, rozwój firmy, często zależy także od warunków zewnętrznych, otoczenia, klimatu biznesowego, od możliwości działania w konkretnych czasach. Miałem to ogromne szczęście, że po 1989 roku wróciły czasy nieskrępowanego rozwoju, a rynek w naszym kraju był właściwie zupełnie dziewiczy. Wszystko zaczynało dopiero powstawać, polscy przedsiębiorcy brali sprawy w swoje ręce i zaczynali zastępować państwowe, często monopolistyczne firmy. Brakowało doświadczenia i przede wszystkim kapitału. Byłem dosyć dobrze przygotowany do tej ekspansji, w latach 1982-1989 prowadziłem już działalność na relatywnie dużą jak na tamte czasy skalę, zatrudniałem 20-30 osób. Przebywałem często za granicą uczestnicząc w różnych branżowych targach, więc zdobyłem doświadczenie i niezły kapitał jak na tamte możliwości. Dobrze wykorzystałem ten okres, inwestowałem cały czas w produkcję biżuterii, sprowadzałem nowe maszyny i technologie. Moi przodkowie działali w innych czasach. Oceniając historię, często patrzymy na nią poprzez pryzmat dnia dzisiejszego i popełniamy błąd uważając, że kiedyś mogło czy powinno być jak dzisiaj, a było przecież zupełnie inaczej. Były oczywiście wielkie fortuny arystokracji i wielkiego kapitału, właściciele kopalń i hut, ale podstawą były tysiące warsztatów, sklepów, prowadzonych przez kupców i rzemieślników. Ja właściwie z takiej rodziny pochodzę i taka była historia trzech pierwszych pokoleń Kruków. Nasza firma to początkowo warsztat produkujący sprzęt liturgiczny, wyroby korpusowe, tace, puchary itp. W wielu wielkopolskich kościołach do dzisiaj można spotkać nasze kielichy czy monstrancje. W latach następnych, kiedy firmę przejął mój dziadek i ożenił się z pochodzącą z rodziny kupieckiej Heleną Konopińską. Nastały jakby nowe czasy. Babcia, kobieta energiczna, wiele spraw wzięła w swoje ręce, uruchomiła sklep jubilerski z prawdziwego zdarzenia, a dziadek pozostał w warsztacie produkując i wykonując to, co lubił najbardziej, czyli piękne przedmioty ze srebra. Zachowały się nam całe teczki rysunków, szkicowanych na pergaminie projektów. Ale czymś, co sprawiło mi największą radość, było odkrycie, że mamy dużą srebrną tacę i dokładny jej szkic, projekt w skali 1:1 z dokładnym opisem, dla kogo zamówiona, jaka będzie przypuszczalna waga, cena itp. Skąd więc pomysł na wykupienie Deni Cler, włoskiej firmy zajmującą się ekskluzywną odzieżą? Po pierwszych latach naszej gospodarczej rzeczywistości, kiedy powstała nieograniczona szansa rozwoju, zaczynało brakować nam kapitału na dalszy szybki rozwój sieci sklepów. Zdecydowaliśmy się na współpracę i kapitałowe wejście do firmy amerykańskiego funduszu Enterprise Investors. www.boston–review.com
Po paru latach Amerykanie zaproponowali dołączenie Deni Cler, firmy, której byli właścicielami, a którą sami nie chcieli zarządzać. Tak właściwie rozpoczęła się budowa grupy kapitałowej marek luksusowych, co dzisiaj w ramach Vistula Group jest kontynuowane. Jak z perspektywy czasu ocenia pan przejęcie firmy przez Vistulę&Wólczankę? Tą decyzję podjęli ówcześni decydenci Vistuli &Wólczanki, jak nieraz mówiłem sam pomysł biznesowo jest logiczny, nie odpowiadały mi tylko metody całej operacji. Problem pojawił się później. Nikt nie przypuszczał takiego załamania się koniunktury i wszystkich wynikających z tego problemów. Branża luksusowa to jednak cała emocjonalna otoczka, to świetne relacje, dostawca często ten sam od lat, klient przywiązany i lojalny wobec firmy, kojarzący ją z odpowiednimi zachowaniami personelu, ogromna kultura pracy, tradycja, historia. Nie wiem, czy można było działać na rynku i osiągać dotychczasowe sukcesy, gdyby połowa personelu odeszła, a ja zachowałbym się jak Pan Grycan i zaczął otwierać swoje sklepy. Na szczęście nie musieliśmy sprawdzać tego empirycznie. Wprowadzając firmę na rynek giełdowy zdawał pan sobie jednak sprawę z możliwości przejęcia jej przez innego gracza? Oczywiście, próba przejęcia mogła się zdarzyć i zdarzyła się. Przyznaję, że nie mieściło mi się w głowie, że ktoś może zaryzykować tak ogromne pieniądze nie mając pewności, jak zachowają się wiodący pracownicy firmy i jakie decyzje podejmie moja rodzina. To jest szersze pytanie, ile jest warta nasza tradycja, historia i czy ją można budować bez Kruków i co by było, gdybyśmy wykorzystując środki otrzymane ze sprzedaży akcji uruchomili na dużą skalę własne sklepy. Właściciel przejmowanej firmy przejmuje firmę przejmującą. To było szybkie posunięcie. Wydaje się, że kierował się pan wówczas przede wszystkim emocjami... Rzeczywiście to przesada, ja nie czuję się odkrywcą, prekursorem, to zachowanie było biznesowo logiczne, oczywiście podyktowane pewnymi emocjami. Było mało czasu i nie można oceniać mojej decyzji z punktu widzenia naszej dzisiejszej wiedzy i załamania na rynku. Wtedy wydawało mi się, że to najlepsze dla nas rozwiązanie. Gdybym był prorokiem i umiał przewidzieć, co się stanie za parę miesięcy, to oczywiście sprzedałbym akcje, ale pieniądze zaniósł do banku i czekał, a dopiero teraz zastanawiałbym się, co dalej. Pana kariera to nie tylko rynek biżuteryjny, ale również działalność polityczna. Skąd chęć kandydowania do Senatu RP? Oczywiście poza biznesem zawsze w jakimś stopniu pasjonowała mnie działalności społeczna, wyniosłem to chyba w genach po ojcu. Ojciec żył w czasach, kie-
41
FACE TO FACE
dy nie do końca mógł się realizować na miarę swoich możliwości. W czasach minionych nie należeliśmy do żadnej partii ani stronnictwa, ojciec działał w organizacjach gospodarczych, był prezesem Wielkopolskiego Zrzeszenia Handlu i Usług, sekretarzem Naczelnej Rady Kupieckiej, radcą Izby Handlowej. Ja zaczynałem od działalności w Cechach i Izbach Rzemieślniczych. Obecnie prezesuję w Wielkopolskiej Izbie Przemysłowo-Handlowej i przewodniczę Radzie Krajowej Izby Gospodarczej, największej organizacji polskich przedsiębiorstw. Trzy kadencje zasiadałem w Senacie RP, ale ten rodzaj działalności politycznej mam już raczej za sobą. Jak Pan ocenia rodzimy rynek jubilerski? Nasz rynek jubilerski rozwija się tak, jak rośnie zamożność naszego społeczeństwa i pewnie podobnie jak w innych krajach o podobnym stopniu rozwoju. Ciekawostką jest to, że trzy największe firmy: Aparat, Yes i W.Kruk wywodzą się z Poznania. Nasza rzeczywistość gospodarcza stworzyła warunki do budowania sieci handlowych, co te firmy bardzo dobrze wykorzystały i wyraźnie zdominowały polski rynek. Na rynku jest wiele miejsca dla różnych firm. Istnieją także silne rodzinne firmy lokalne, często z dużą tradycją i wierną grupą swoich klientów. Małe sklepiki jubilerskie z kolei przeżywają pewne kłopoty i muszą szukać swoich szans w bardziej specjalistycznych usługach. Galerie autorskie specjalizują się w bardzo wyrafinowanych formach na wysokim poziomie artystycznym i też mają swoje wierne klientki. Rynek produkcji jest
42
bardzo zróżnicowany. Mamy wielu świetnych rzemieślników, jubilerów, a także fabryczki i fabryki zatrudniające nawet 200 osób. Na rynku jest miejsce dla wszystkich. Konkurencja jest czymś oczywistym jak i oczywistym jest to, że najgorszy przegrywa a najlepszy wygrywa – tą decyzję podejmują klienci. Czy rzeczywiście inwestowanie środków finansowych w złoto i diamenty jest w tym momencie najbezpieczniejszą lokatą kapitału? Złoto i brylanty to rzeczywiście w czasach kryzysu pewna lokata, choć bardzo długofalowa. Jak złoto to raczej sztabki, monety. Biżuteria mniej – tu trzeba płacić za artyzm a wartość samego surowca nie jest tak duża. Co innego brylanty – tu złoto jest często tylko małym dodatkiem, a kamień stanowi zasadniczą wartość. Czy krach na światowych giełdach przyhamował apetyt Polaków na zakup ekskluzywnej biżuterii? Jak na razie tego zagrożenia nie widać, choć są pewne objawy, klienci kupują tańsze wyroby, ale ilość klientów i transakcji jest nawet większa. Co będzie za jakiś czas, trudno przewidzieć. Często powtarzam: gwiazdka, imieniny, śluby są zawsze, prezenty kupujemy, a kobiety i tak wolą brylanty, jak śpiewała Marilyn Monroe. n Katarzyna Czajkowska
www.boston–review.com
Kryptografia w SOLUTIONS
Współczesne rozwiązania kryptograficzne
(cz. 2)
Niniejszy artykuł stanowi kontynuację cyklu poświęconego współczesnym rozwiązaniom kryptograficznym stosowanym w praktyce. Część druga i zarazem ostatnia omawia praktyczne sposoby ochrony klucza prywatnego – najsłabszego ogniwa wspomnianych rozwiązań. Edgar Głowacki
Klucz prywatny – pięta achillesowa Autorem powszechnie znanego powiedzenia, iż „każdy łańcuch jest tak mocny jak jego najsłabsze ogniwo” jest podobno Włodzimierz Uljanow (Lenin), używający tego rodzaju przenośni w odniesieniu do carskiej Rosji, która w jego przekonaniu miała być „najsłabszym ogniwem” ówczesnego kapitalizmu. Ten idiom bardzo dobrze oddaje istotę wszystkich systemów zabezpieczeń, jakie tylko jesteśmy sobie w stanie wyobrazić. Swego czasu bardzo dobrze wyczuł to i bezlitośnie wykorzystywał Kevin Mitnick wielokrotnie łamiąc zabezpieczenia systemów informatycznych uzyskawszy przedtem dane uwierzytelniające od samych użytkowników [1]. Stąd tak ważnym etapem budowy własnego rozwiązania jest analiza zagrożeń, której zadaniem jest identyfikacja miejsc szczególnie wrażliwych, które będą wymagały użycia specjalnych zabezpieczeń. Również każdy kryptosystem posiada pewne słabe punkty, których kompromitacja (compromising) prowadzi do całkowitej bądź częściowej utraty jego skuteczności. Budowane zgodnie ze stanem sztuki rozwiązania wykorzystujące kryptografię są w większości oparte o kryptosystem hybrydowy, który łączy zalety algorytmów symetrycznych i asymetrycznych, przy jednoczesnym ograniczeniu niepożądanych właściwości obydwu. (Osoby, które pierwszy raz spotykają się z pojęciem kryptosystemu hybrydowego odsyłam m.in. do pierwszej części niniejszego artykułu, który ukazał się w numerze 1/2009 Boston IT Security Review). Decydując się na zabezpieczenie zasobów informacyjnych z wykorzystaniem kryptografii klucza publicznego dostajemy do ręki narzędzie umożliwiające rewww.boston–review.com
dukcję liczby wrażliwych miejsc do minimum. Oczywiście – jak w każdym rozwiązaniu technicznym – powyższe stwierdzenie jest prawdziwe przy założeniu, że postępujemy zgodnie z najlepszą obecną wiedzą i przy zachowaniu dobrych praktyk. Niewątpliwie najczulszym punktem każdego kryptosystemu wykorzystującego algorytm asymetryczny – a zatem także kryptosystemu hybrydowego – jest klucz prywatny. Ujawnienie klucza prywatnego prawie zawsze wiąże się z fatalnymi konsekwencjami. Stopień ochrony tego „najsłabszego ogniwa” współczesnych rozwiązań kryptograficznych decyduje o skuteczności całego zabezpieczenia. Ochrona fizyczna żetonu kryptograficznego Systemy informatyczne wypełniają funkcję, dla której powstały – tj. przetwarzanie informacii – lepiej niż byśmy chcieli. Jedną z dwóch inherentnych cech systemów informatycznych, które dają zajęcie specjalistom od zabezpieczeń jest łatwość tworzenia kopii informacji połączona z możliwością fizycznego przeniesienia w dowolne miejsce. Utrzymanie informacji cyfrowej w ryzach jest stanowczo trudniejsze, niż ma to miejsce w przypadku tradycyjnego nośnika papierowego, ponieważ w tym drugim przypadku sporządzenie kopii i jej przemieszczenie zwyczajnie wymaga większego nakładu pracy. Ta dość prosta obserwacja zaowocowała opracowaniem najlepszego jak do tej pory sposobu zabezpieczania szczególnie wrażliwych danych polegającym na nierozerwalnym powiązaniu ich z nośnikiem i całkowitym wykluczeniem możliwości kopiowania. Powstało w ten sposób urządzenie, które potocz-
43
SOLUTIONS w Kryptografia
nie określa się mianem żetonu kryptograficznego (cryptographic token). Zasada działania żetonu kryptograficznego jest dość prosta. Urządzenie posiada własną pamięć nieulotną (non-volatile), w której zapisywane są dane określone jako wrażliwe – oczywiście bez możliwości jakiegokolwiek dostępu przez urządzenia zewnętrzne. W praktyce danymi wrażliwymi są najczęściej klucze prywatne i tajne. Naturalnie przechowanie danych ma sens jedynie wówczas, gdy zapewnimy sobie możliwość ich przetwarzania. Ponieważ dane wrażliwe z zasady nie mogą opuścić żetonu wszelkie wykorzystujące je operacje kryptograficzne muszą być wykonywane na samym żetonie. Z tego względu żeton posiada procesor wyspecjalizowany w realizacji ściśle określonych algorytmów kryptograficznych. O jakiejkolwiek przydatności tak skonstruowanego urządzenia można oczywiście mówić dopiero w momencie, gdy jego funkcjonalność jest dostępna z zewnątrz. W rzeczywistości z perspektywy oprogramowania wykorzystującego żeton kryptograficzny działa on na zasadzie „czarnej skrzynki” (black box). Innymi słowy, aplikacja zleca wykonanie żądanej operacji (szyfrowania, deszyfrowania, złożenia podpisu) wraz z odpowiednimi parametrami i w odpowiedzi uzyskuje wynik realizacji. Zwróćmy uwagę, że co prawda dane wrażliwe nie mogą nigdy opuścić granic żetonu, to jednak musi istnieć możliwość ich identyfikacji z zewnątrz, tak aby przykładowo podpis elektroniczny został złożony przy użyciu konkretnego klucza prywatnego. Podstawowym interfejsem programistycznym (application programming interface – API), opisującym dostęp do funkcjonalności żetonu kryptograficznego jest standard PKCS #11, wchodzący w skład rodziny specyfikacji znanych pod ogólną nazwą Public Key Cryptography Standards (PKCS) opublikowanych przez RSA Security Inc. Opisany w znanym zapewne części czytelników, liczącym bez mała 40 lat języku C interfejs programistyczny zdefiniowany w PKCS #11 znany jest również pod nazwą „Cryptoki” (od CRYPTOgraphic TOKen Interface). Dodatkowo dostawcy poszczególnych żetonów udostępniają również (zazwyczajzadodatkowąopłatą)interfejsumożliwiającywykorzystanie żetonu z poziomu technologii znajdujących bardziej powszechne zastosowanie w rozwoju aplikacji jak np. Java™, czy Microsoft® .NET. Warto dodać, że pojęcie żetonu kryptograficznego jest często stosowane wymiennie z żetonem bezpieczeństwa (security token), żetonem sprzętowym (hardware token), czy też żetonem uwierzytelniającym (authentication token). Takie utożsamienie jest o tyle uprawnione, że żeton kryptograficzny jest z natury rzeczy sprzętowy i został opracowany z myślą o wykorzystaniu w systemach bezpieczeństwa informacji, często również używany jest do uwierzytelnienia. W odniesieniu do żetonu kryptograficznego za powszechnie obowiązującą przyjmuje się definicję umieszczoną we wspomnianym już standardzie PKCS #11 [2].
się dwóch różnych typów urządzeń, wobec których stosuje się ogólną nazwę żetonu kryptograficznego. Powszechność jednego z wymienionych zastosowań sprawia, iż większości osób, które słyszały o żetonie kryptograficznym, pojęcie to kojarzy się nieodłącznie z kartą elektroniczną (smart card), czyli niewielkim urządzeniu mikroprocesorowym, najczęściej wtopionym w plastikową kartę o wymiarach i kształcie karty płatniczej (85 × 54 mm). Z zewnątrz kartę elektroniczną lub też inteligentną, czy kryptograficzną można poznać po charakterystycznym kształcie wyprowadzeń wyspecyfikowanym w standardzie ISO/ IEC 7816 opisującym ponadto interfejs zasilania i komunikacji z czytnikiem. Karta inteligentna jest urządzeniem użytku osobistego dostępnym po możliwie przystępnej cenie i z tego względu ma bardzo niską wydajność z reguły nieprzekraczającą kilkunastu podpisów RSA na minutę przy 1024-bitowym kluczu. W przypadku uzyskania fizycznego dostępu do karty jedynym zabezpieczeniem chroniącym materiał kryptograficzny zgromadzony na karcie są ciągi znaków: PIN i PUK. Na tym tle parametry wydajnościowe sprzętowego modułu kryptograficznego (Hardware Security Module – HSM) prezentują się jak szybkostrzelność wielolufowego działka Gatling montowanego we współczesnych samolotach myśliwskich i szturmowych przyrównana do możliwości siedemnastowiecznego muszkietu. Używane w praktyce HSM-y umożliwiają złożenie nawet do 6000 podpisów RSA 1024 w ciągu sekundy. W odróżnieniu od karty inteligentnej, HSM daje użytkownikowi możliwość zdefiniowania poziomów ochrony danych wrażliwych. Współczesne HSM-y są w większości urządzeniami wieloużytkownikowymi. Zestawienie sesji PKCS #11 umożliwiającej wykorzystanie funkcjonalności urządzenia może wiązać się jedynie z podaniem nazwy użytkownika i hasła (odpowiednik PIN-u) lub też nawet jednoczesnego dostępu kilku wyznaczonych osób, z których każda może uwierzytelniać się za pomocą karty inteligentnej i PIN. Klasyfikacja poziomów ochrony danych wrażliwych przez moduły kryptograficzne jest na tyle ważnym zagadnieniem, że stała się częścią standardu FIPS1 – 140. Przykładowo od urządzeń spełniających wymagania poziomu drugiego wspomnianego standardu oczekuje się dostarczenia dowodów poświadczających próby fizycznej ingerencji w urządzenie (physical tamper evidence). Zgodność z poziomem trzecim oznacza już zabezpieczenia przed fizyczną ingerencją (physical tamper resistance). Jednak to nie parametry techniczne, a zwyczajnie wygląd zewnętrzny stanowi najłatwiej zauważalną różnicę między sprzętowym modułem kryptograficznym a kartą inteligentną. HSM jest bowiem najczęściej: (1) pudełkiem podpinanym przez zewnętrzne interfejsy, takie jak: karta sieciowa, SCSI, bądź też (2) kartą rozszerzającą funkcjonalność komputera podłączaną za pośrednictwem złącza PCI, czy obecnie PCI-Express. Obszary zastosowania HSM obejmują m.in.:
Smart card vs. HSM Obszary zastosowania żetonów kryptograficznych można zasadniczo zaklasyfikować do dwóch różnych kategorii wyodrębnionych na podstawie kryterium skali wykorzystania oraz poziomu zabezpieczenia danych wrażliwych. Dwa różne rodzaje zastosowań zaowocowały wykształceniem
• zarządzanie wrażliwym materiałem kryptograficznym urzędów certyfikacji (certification authorities) i urzędów rejestracji (registration authorities); • usługi walidacji, na które urzędy certyfikacji delegują swoje kompetencje w zakresie udzielenia odpowiedzi na zapytanie o status certyfikatu;
PR Z Y PIS Y 1) Federal Information Processing Standard
44
www.boston–review.com
Kryptografia
• masowe, automatyczne składanie podpisu elektronicznego w imieniu instytucji (np. na fakturach, czy poświadczeniach odbioru). Oczywiście parametry techniczne HSM nie pozostają bez wpływu na cenę tych urządzeń, która kształtuje się na poziomie od kilkudziesięciu do kilkuset razy wyższym niż cena karty kryptograficznej. Warto zauważyć, że termin „sprzętowy moduł bezpieczeństwa”, poza opisanym wyżej standardowym HSM, jest używany również w odniesieniu do szeregu innych – zazwyczaj znacznie prostszych w budowie i funkcjonalności urządzeń. Do grupy tej zaliczane są moduły umieszczane w terminalach płatniczych (point-of-sale terminals), czy bankomatach (automated teller machines) służące m.in. do zabezpieczania transmisji między urządzeniem końcowym a centrum rozliczeniowym, czy weryfikacji kodu zabezpieczającego kartę płatniczą. Ze względu na dość specyficzne przeznaczenie, komunikacja tego rodzaju modułami bezpieczeństwa nie odbywa się za pośrednictwem standardowego interfejsu Cryptoki. Specyficznym rodzajem HSM są urządzenia przystosowane do pełnienia funkcji akceleratorów kryptograficznych, zadaniem których jest zabezpieczenie transmisji w oparciu o SSL/TLS, tak aby dodatkowe przetwarzanie związane z szyfrowaniem nie miało większego wpływu na wydajność całego rozwiązania. Protokół SSL/TLS wykorzystuje kryptografię asymetryczną tylko negocjacji parametrów połączenia (handshake), które zazwyczaj obejmuje jedno – bądź dwustronne uwierzytelnienie. W odróżnieniu do tradycyjnych modułów bezpieczeństwa akceleratory kryptograficzne są projektowane przede wszystkim z myślą o optymalizacji przetwarzania związanego z szyfrowaniem kluczem tajnym – w ten bowiem sposób zapewniana jest poufność właściwego ruchu użytkownika. Ograniczenia tradycyjnej ochrony sprzętowej Ochrona sprzętowa jest bezsprzecznie najlepszym sposobem zabezpieczenia poufności informacji. Niestety ten rodzaj ochrony nie jest pozbawiony wad, które sprawiają, że coraz rzadziej bezpieczeństwo danych wrażliwych opiera się wyłącznie na urządzeniach takich jak HSM. Koncepcja nierozerwalnego powiązania materiału kryptograficznego z modułem sprzętowym okazała się bowiem zbyt rygorystyczna w konfrontacji z rzeczywistością powodując dodatkowy wzrost kosztów oraz wiele niepotrzebnych problemów podczas eksploatacji. Pierwszy problem to ograniczona pojemność pamięci wewnętrznej HSM, która stale wzrastającym woluminie danych wrażliwych oznaczałaby tworzenie klastrów składających się z wielu modułów sprzętowych. Drugą równie istotną kwestią jest konieczność tworzenia kopii zapasowych materiału kryptograficznego w celu zabezpieczenia na wypadek awarii, bądź też zdarzenia losowego, które stoi w sprzeczności z tradycyjną koncepcją ochrony sprzętowej. Z wymienionych powodów architektura i zasada działania współczesnych sprzętowych modułów bezpieczeństwa uległy zmianie, przy jednoczesnym zachowaniu zgodności ze standardem FIPS 140-1 na poziomie trzecim. Chroniony wrażliwy materiał kryptograficzny nie jest już przechowywany w pamięci wewnętrznej modułu, ale w postaci tzw. key blob na dysku komputera, do którego ten mowww.boston–review.com
duł został podpięty. Key blob jest strukturą danych zawierającą właściwy materiał kryptograficzny zaszyfrowany kluczem tajnym urządzenia (module key) oraz w razie potrzeby hasłem użytkownika, bądź fragmentami klucza tajnego przechowywanymi na kartach kryptograficznych. Integralność key blob jest chroniona za pomocą kodu uwierzytelnienia wiadomości (Message Authentication Code – MAC). W momencie, gdy istnieje konieczność wykonania operacji wykorzystującej wrażliwy materiał kryptograficzny odpowiedni key blob jest ładowany i deszyfrowany w pamięci HSM. Oswojenie informacji cyfrowej – nasza druga natura Badania wskazują, że przeciętna ilość danych elektronicznych przetwarzanych przez każdą organizację w przeliczeniu na jednostkę czasu nieodmiennie się zwiększa. Przyczyną takiego stanu rzeczy jest upowszechnianie się systemów informatycznych, integracja istniejących systemów, czy też zwyczajnie globalny wzrost woluminu danych cyfrowych w porównaniu do ilości informacji utrwalonej na papierze. Żeby się o tym przekonać, nie trzeba wcale daleko szukać, wystarczy spojrzeć z nieco innej perspektywy na własne codzienne zajęcia. Potrzeba mobilności, postęp technologiczny, ciągły wzrost funkcjonalności i poprawa ergonomii użycia otaczających nas urządzeń sprawia, że tak naprawdę nie możemy się już obyć bez informacji zapisanej w formie elektronicznej. Nasze notebooki nie są już – jak sugerowałaby nazwa – notatnikami, a przenośnymi „biurami”, umożliwiającymi zdalny dostęp praktycznie do każdego zasobu jaki jest nam w danej chwili potrzebny, jeśli tylko występuje on w formie cyfrowej. Coraz rzadziej czujemy potrzebę utworzenia wersji papierowej informacji pierwotnie występującej w postaci elektronicznej, z kolei coraz częściej korzystamy z możliwości współczesnych tzw. wielofunkcyjnych urządzeń biurowych dokonując digitalizacji dokumentów papierowych. Consuetudo est altera natura (przyzwyczajenie jest drugą naturą człowieka) mówi sentencja łacińska przypisywana Cyceronowi. Stopniowo eliminując z naszego życia tradycyjne nośniki informacji, świadomie bądź nie zwiększamy wolumin danych poufnych zapisanych w postaci elektronicznej. W sposób naturalny niesie ze sobą potrzebę wzmożonego użycia środków technicznych gwarantującymi zachowanie kontroli nad jawnością informacji, takich jak np. kryptografia. Dostępność i ochrona materiału kryptograficznego Z chwilą, gdy kryptografia klucza publicznego stała się fundamentem, na którym oparte są systemy bezpieczeństwa informacji, najsłabszym punktem tego rodzaju rozwiązań nie są chronione zasoby informacyjne, ale materiał kryptograficzny je zabezpieczający. Jeśli pokusilibyśmy się o dokonanie klasyfikacji zabezpieczeń kryptograficznych stosowanych we współczesnych rozwiązaniach informatycznych, po krótkim czasie zauważylibyśmy kilka powtarzających sposobów wykorzystania kryptografii, z których każdy zapewniałby inny rodzaj ochrony. Każda ze zidentyfikowanych tą drogą kategorii zabezpieczeń charakteryzuje się również specyficznymi wymaganiami w związku z zarządzaniem danymi wrażliwymi, jakimi jest materiał kryptograficzny.
45
SOLUTIONS w Kryptografia
Dostępność materiału kryptograficznego – transport danych Chyba najpopularniejszym zastosowaniem kryptografii jest zabezpieczenie transmisji danych tymczasowych (transient data). Tego rodzaju ochronę stosuje się, gdy trasa (route), którą przesyłana jest informacja, przebiega przez sieć, w stosunku do której nie możemy mieć pewności, czy przechodzące przez nią dane zachowają poufność i integralność. Jak nietrudno się domyśleć najczęściej siecią to jest oczywiście Internet. Ochrona komunikacji opiera się na utworzeniu tzw. tunelu, czyli bezpiecznego kanału transportowego łączącego dwa punkty końcowe (endpoints) utworzonego najczęściej przy użyciu protokołu SSL/TLS lub IPSec. Tunelowanie ruchu jest najczęściej wykorzystywane podczas: • dostępu do poufnych zasobów, gdzie komunikacja wewnątrz bezpiecznego kanału odbywa się przy użyciu popularnych protokołów: HTTP, POP3, czy IMAP; • korzystania z funkcjonalności usługi webowej (web service); • budowy wirtualnych sieci prywatnych (virtual private networks – VPN). Istotną kwestią jest zapewnienie dostępności wrażliwego materiału kryptograficznego – czyli innymi słowy kluczy prywatnych używanych podczas uwierzytelnienia i negocjacji klucza sesyjnego. W przypadku tunelowania dostępność danych wrażliwych użytkownika nie jest tak krytyczna jak np. podczas zabezpieczania w sposób niezależny dokumentów cyfrowych. Ponieważ ochrona danych obejmuje wyłącznie transmisję, nawet bezpowrotna utrata klucza własnego prywatnego klienta nie powoduje większych konsekwencji niż to, że klient ponownie musi wygenerować sobie parę, po czym jego klucz publiczny będzie musiał być uwierzytelniony przez urząd certyfikacji. Brak dostępności materiału kryptograficznego usługi powoduje poważniejsze konsekwencje, w sposób naturalny bowiem awaria po stronie dotyczy usługi ma wpływ na wszystkich użytkowników. Sprawne odtworzenie utraconego klucza prywatnego może być zatem krytyczne dla wsparcia biznesu ze strony usługi.
ście często zdarza się, że ochrona informacji powinna obejmować poufność i integralność – wówczas możemy posłużyć się hybrydą obu wymienionymi rodzajami formatów. W zależności od kolejności wykonanych operacji kryptograficznych wynikiem przetwarzania może być: (1) podpisana koperta cyfrowa, bądź też (2) zaszyfrowane dane podpisane. Zazwyczaj o wiele sensowniejsza jest weryfikacja integralności treści jawnej (plaintext), niż szyfrogramu (ciphertext), zatem w praktyce najczęściej wykorzystuje się drugą z wymienionych możliwości – czyli gdy koperta cyfrowa zabezpiecza poufność danych podpisanych. Podstawowym celem szyfrowania i podpisywania dokumentów elektronicznych jest – podobnie jak w przypadku tunelowania ruchu – zapewnienie poufności i integralności informacji. Mogłoby się zatem wydawać, że również wyzwania dotyczące ochrony i odzyskiwania materiału kryptograficznego zabezpieczającego treść są dość zbliżone. Rzecz w tym, że dane kryptograficzne wykorzystane do ochrony zawartości dokumentu elektronicznego stanowią jego nierozerwalną część z chwilą utrwalenia w postaci koperty cyfrowej, bądź danych podpisanych. Z drugiej strony cykl życia przeciętnego dokumentu jest o wiele dłuższy niż czas potrzebny na dostarczenie go do węzła docelowego. Oznacza to, że klucze prywatne umożliwiające poszczególnym odbiorcom odszyfrowanie treści listu powinny być dostępne (być może w formie zarchiwizowanej) przynajmniej tak długo, jak długo przechowywana jest koperta zapewniająca jego poufność. Innymi słowy każda para: klucz prywatny – certyfikat służąca do szyfrowania/ deszyfrowania wiadomości powinna występować co najmniej w dwóch kopiach: (1) operacyjnej – wykorzystywa-
Dostępność materiału kryptograficznego – bezpieczeństwo dokumentów cyfrowych i poczty elektronicznej Kolejnym dość powszechnym sposobem ochrony informacji elektronicznej – choć stanowczo mniej popularnym niż tunelowanie jest zabezpieczenie na poziomie dokumentu (warto zauważyć, że w poczet dokumentów elektronicznych możemy również zaliczyć wiadomości elektronicznej). Zabezpieczenie dokumentu cyfrowego polega na odpowiednim „opakowaniu” i utrwaleniu kryptograficznie przetworzonej treści w ściśle określonym (najczęściej zestandaryzowanym) formacie danych. W zależności użytego rodzaju kryptograficznego zabezpieczenia na wyjściu możemy otrzymać: (1) kopertę cyfrową (enveloped data) – jeśli w celu zachowania poufności wykorzystamy szyfrowanie lub (2) dane podpisane (signed data) – jeśli naszym celem było zapewnienie integralności, względnie również niezaprzeczalności (non-repudiation) treści. Oczywi-
46
www.boston–review.com
Kryptografia
nej na co dzień i (2) zapasowej umożliwiającej odczyt danych w przypadku utraty pierwszej. Zupełnie inne wymagania w zakresie ochrony materiału kryptograficznego nakłada również długookresowa weryfikacja integralności i niezaprzeczalności. Sprawdzenie poprawności podpisu cyfrowego – w odróżnieniu do przekształcenia szyfrogramu w tekst jawny – nie wymaga dostępu do wrażliwego materiału kryptograficznego, który z racji na konieczność zachowania kontroli występuje w ściśle ograniczonej liczbie egzemplarzy. Do weryfikacji integralności danych podpisanych niezbędny jest certyfikat zawierający klucz publiczny tworzący parę z kluczem prywatnym, za pomocą którego został złożony podpis. W praktyce nie ma problemu z dostępnością tego certyfikatu, bowiem najczęściej jest on dołączany do danych podpisanych. Weryfikacja podpisu elektronicznego jest co prawda wystarczająca do sprawdzenia integralności, natomiast nie daje nam gwarancji autentyczności i niezaprzeczalności odczytywanej treści. Aby mieć pewność, że dokument, który mamy przed oczami rzeczywiście „wyszedł spod ręki” osoby, której podpis elektroniczny widnieje pod dokumentem, należy przeprowadzić walidację podpisu obejmującą weryfikację algorytmiczną samego podpisu, jak również sprawdzenie statusu certyfikatu w chwili jego złożenia. Dostępność materiału kryptograficznego – szyfrowanie na niskim poziomie Szyfrowanie danych na poziomie systemu plików lub systemu zarządzania bazami danych może stanowić bardzo efektywną ochronę zmniejszającą ryzyko wycieku informacji w przypadku utraty kontroli nad nośnikiem, na którym została ona zapisana. Naturalnie skuteczność tego rodzaju zabezpieczenia jest zależna od poziomu bezpieczeństwa hasła, lub sposobu ochrony klucza prywatnego chroniących klucz tajny użyty do właściwego szyfrowania. Oczywiście nie należy zapomnieć o utworzeniu kopii zapasowej klucza deszyfrującego, abyśmy w wyniku ponownej instalacji systemu, bądź przełożenia dysku do innego systemu skutecznie nie odebrali sobie możliwości korzystania z danych zapisanych na zaszyfrowanej partycji lub katalogu. Zarządzanie materiałem kryptograficznym Najczęściej podawanymi przyczynami stojącymi na przeszkodzie wdrożeniu kryptografii – zwłaszcza w zakresie zapewnienia poufności przez szyfrowanie danych – jest obawa przed bezpowrotną utratą danych w przypadku utraty klucza deszyfrującego. Zdaniem wielu osób odpowiedzialnych za IT kryptografia stanowi niebezpieczną technologię, równie skuteczną w ochronie danych, jak i ich nieodwracalnym niszczeniu. Mimo oporów trend stałego wzrostu powszechności użycia kryptografii zostanie zachowany, co zwyczajnie wynika z postępu cywilizacyjnego i stopniowego odchodzenia do lamusa tradycyjnych nośników informacji. Niestety, zwiększenie woluminu danych chronionych metodami kryptograficznymi nieodłącznie wiąże się z wzrostem ilości materiału kryptograficznego, który te dane zabezpiecza. Biorąc pod uwagę potencjalne konsekwencje niewłaściwego sprawowania nadzoru nad kluczami kryptograficznymi zarządzanie nimi może dość szybko przyprawić o ból głowy osoby odwww.boston–review.com
powiedzialne za bezpieczeństwo informacji. W skrajnych przypadkach zdarza się, że użytkownicy drukują klucze kryptograficzne, po czym umieszczają je w sejfach w celu zapewnienia sobie (prawdziwie) fizycznej kontroli nad kluczami zabezpieczającymi żywotne dane. Skutecznym rozwiązaniem tego problemu jest scentralizowany system zarządzania materiałem kryptograficznym (Key Management System – KMS). KMS to oprogramowanie, którego celem jest ułatwienie wymuszania polityki bezpieczeństwa poprzez uproszczenie i zautomatyzowanie czynności związanych z administracją wrażliwych danych kryptograficznych. W przeszłości systemy klasy KMS były rozwijane z myślą o konkretnych potrzebach danej instytucji. Obecnie systemy tego typu stanowią część oferty produktowej dostawców sprzętowych modułów bezpieczeństwa, co oczywiście podnosi poziom ochrony materiału kryptograficznego oraz podnosi efektywność wykorzystania zakupionych urządzeń. KMS ułatwia zarządzanie kluczami kryptograficznymi przez cały cykl życia obejmujący generowanie, dystrybucję, tworzenie kopii zapasowych, odtwarzanie, odnowienie, wycofanie z użycia, archiwizację i nieodwracalne zniszczenie. Zależnie od konkretnych potrzeb każda z wymienionych czynności może być wykonana automatycznie, bądź przy udziale wyznaczonych osób. Niektóre rozwiązania KMS umożliwiają współpracę z oprogramowaniem rozwijanym po stronie użytkownika. Tego rodzaju komponenty muszą być oczywiście w kryptograficznie bezpieczny sposób uwierzytelnione i zautoryzowane do współpracy z HSM, dzięki czemu określone operacje wykorzystujące wrażliwy materiał kryptograficzny (np. klucze prywatne) mogą być wykonywane bez angażowania ludzi przy jednoczesnym zachowaniu poziomu bezpieczeństwa. Należy dodać, że wszystkie operacje wykonywane przez systemy KMS – w tym przede wszystkim operacje wykonywane na wrażliwych danych kryptograficznych – są rejestrowane z zapewnieniem integralności, co oczywiście bardzo ułatwia przeprowadzenie późniejszego audytu. Podsumowanie Stałe zwiększanie się woluminu danych przetwarzanych przez instytucje publiczne i komercyjne wiąże się ze wzrostem potencjalnych zagrożeń związanych z utratą kontroli nad tymi danymi. Kryptografia może być skutecznym narzędziem redukującym ryzyko, ale tylko wówczas, gdy mechanizmy zabezpieczeń zostaną wdrożone w sposób przemyślany i dopasowany do rzeczywistych potrzeb. Największym wyzwaniem dla współczesnych zastosowań kryptografii jest właściwe zarządzanie kluczami, za pomocą których zabezpieczone są właściwe dane. Wrażliwy materiał kryptograficzny powinien być z jednej strony skutecznie chroniony przed nieuprawnionym dostępem i jednocześnie zawsze dostępny w sytuacjach dopuszczonych przez politykę bezpieczeństwa informacji. n
Bibliografia:
[1] Sztuka podstępu. Łamałem ludzi, nie hasła, Kevin Mitnick, Helion 2003 [2]ftp://ftp.rsasecurity.com/pub/pkcs/pkcs-11/v2-20/pkcs-11v220.pdf
47
CASE STUDY w HP
Kazimierz Osiński
ONE – nowe
HP Polska
rozwiązanie marki HP
Koniec z instalowaniem różnych platform dla każdej aplikacji w firmie. HP proponuje rozwiązanie pozwalające na uruchamianie różnych serwisów oraz aplikacji na takich samych platformach. Innowacja HP pozwala na unifikację wykorzystywanych w firmie technologii oraz sprzętu. Jednocześnie, jej zastosowanie nie powoduje ograniczenia wyboru producentów, których produkty można będzie uruchamiać na takiej platformie. Wstęp Dynamiczny rozwój biznesu stawia obecnie przed systemami informatycznymi coraz to większe wyzwania. Na rynek, co chwila wprowadzane są lepsze i bardziej zaawansowane rozwiązania w tej dziedzinie. Aplikacje i usługi danego dostawcy, aby sprostać stawianym im wymaganiom, stają się bardziej wyspecjalizowane i poświęcone stosunkowo wąskiej dziedzinie. Czasem jest to konieczne, żeby zapewnić najwyższą jakość potencjalnym klientom. Z kolei firmy, chcąc posiadać najlepsze dostępne na rynku rozwiązania w danej dziedzinie, zmuszone są często do korzystania z produktów wielu dostawców. Każde przedsiębiorstwo dąży jednak do posiadania jak najbardziej ujednoliconej infrastruktury. Bardzo popularna wirtualizacja pozwala zredukować liczbę wykorzystywanych urządzeń i platform. Niestety, to co z punktu widzenia zarządzania i utrzymania infrastruktury jest zaletą, najczęściej jest jednocześnie wadą z punktu widzenia elastyczności. Minimalna liczba wykorzystywanych platform ogranicza w pewnym stopniu wybór aplikacji i usług, które można uruchomić w danym systemie. Istniejące w tej chwili rozwiązania zmuszają managerów do wyboru pomiędzy elastycznością korzystania ze sprzętu i oprogramowania różnych dostawców, a prostotą utrzymania ujednoliconego systemu zakupionego od jednego producenta. Nie bez znaczenia jest fakt, że w przypadku awarii o wiele łatwiej rozwiązać problem posiadając infrastrukturę od jednego dostawcy. Nie ma wówczas problemu z określeniem, czyj produkt spowodował usterkę, co znacznie skraca czas naprawy.
48
Często jest to zaleta, dla której warto zrezygnować z zakupu lepszej aplikacji, ale od innego producenta. Wychodząc naprzeciw tym problemom, opracowano technologię HP ProCurve Open Network Ecosystem (ONE). Platforma Platformę ONE tworzą przełączniki, do których można zamontować moduł ProCurve ONE wraz z wybraną przez klienta aplikacją. Przełączniki HP ProCurve 5400zl oraz HP ProCurve 8212zl umożliwiają instalację modułu ProCurve ONE. Klient może uruchomić na tych urządzeniach produkty oferowane przez firmę HP, jak również przez innych dostawców objętych programem ProCurve ONE Alliance Partner. Dostępne są dwie klasy aplikacji: aplikacje biznesowe oraz aplikacje i usługi sieciowe. Wszyscy producenci aplikacji oraz urządzeń, którzy chcą, aby ich produkt mógł współpracować z modułami ProCurve ONE, muszą otrzymać certyfikat zgodności z tą technologią. Po odpowiednim dostosowaniu produktu do technologii ONE, jest on testowany przez firmę HP. Testy przeprowadzane są przede wszystkim w trosce o dobro klienta, który zechce zakupić dany produkt. Podczas testów sprawdzane jest funkcjonowanie danego elementu w prawdziwej sieci, jego wydajność oraz bezpieczeństwo. Po pozytywnym przejściu testów nadawany jest stosowny certyfikat i dopiero wtedy produkt może być sprzedawany jako zgodny z modułami ProCurve ONE. Naturalnie, wszelkie zmiany, muszą także być certyfikowane, aby po ich wprowadzeniu produkt nie utracił zgodności. www.boston–review.com
HP
Istnieją różne rodzaje certyfikatów. Produkt może być certyfikowany do uruchomienia na module ProCurve ONE jako niezależne urządzenie lub do uruchamiania innych aplikacji. W tej chwili certyfikaty zgodności posiada kilkunastu czołowych producentów rozwiązań sieciowych. Świadczy to o docenieniu tej technologii przez producentów i daje to klientowi niespotykane do tej pory spektrum wyboru produktów, przy zachowaniu jednolitej infrastruktury. Aktualna lista partnerów dostępna jest pod adresem: http://www.procurve.com/one/ alliance/index.htm. Aby pokazać bogactwo oferty, z której może skorzystać klient, który zdecyduje się na wykorzystanie modułu ProCurve ONE, przedstawiono ofertę kilku producentów, których produkty współpracują z tą technologią. W gronie partnerów ProCurve ONE znajdują się między innymi firmy takie jak: F5, Riverbed, McAffee oraz Avaya. Są to producenci najlepszych w swojej klasie rozwiązań. Aplikacje firmy Riverbed pozwalają zoptymalizować pracę w sieci WAN. Dzięki rozwiązaniom tej firmy możliwe jest kilkukrotne przyśpieszenie operacji wykonywanych w rozległych sieciach. Klient może dzięki temu podnieść jakość współpracy w oddalonych od siebie biurach lub na przykład przyśpieszyć proces tworzenia kopii zapasowych. Jeśli klientowi zależy na podniesieniu bezpieczeństwa danych, może skorzystać z oferty McAfee, które jest liderem w dostarczaniu rozwiązań zapewniających bezpieczeństwo. Aplikacje oraz urządzenia tego producenta mogą chronić informacje zgromadzone na osobistych komputerach pracowników, jak i na serwerach korporacyjnych. Rozwiązań zwiększających stabilność pracy aplikacji sieciowych dostarcza firma F5. Produkty tego partnera wspomagają zarządzanie i optymalizację aplikacji działających w sieci. Rozwiązania tego typu są konieczne, jeśli awarie, opóźnienia i niestabilność aplikacji, mogą narazić klienta na duże straty. Firma Avaya dostarcza inteligentne rozwiązania komunikacyjne. Jej produkty pozwalają wykorzystać potencjał, jaki mają sieci komputerowe w procesie komunikacji. Przy pomocy tych rozwiązań można zbudować centrum komunikacyjne lub na przykład uruchomić telefonię IP. Nie sposób wymienić tutaj wszystkich producentów, z których oferty klient może skorzystać. Jednak już oferta wymienionych powyżej firm pokazuje, że każdy klient może znaleźć odpowiednie dla siebie rozwiązanie i to wybierając spośród najlepszych na rynku. Oferta partnerów ProCurve ONE zawiera produkty przeznaczone dla różnej wielkości firm, nie tylko dla ogromnych korporacji. Aplikacja dostarczana jest do klienta w postaci gotowej do załadowania do modułu ProCurve ONE. Skopiowanie danych na moduł ProCurve ONE może zostać wykonane poprzez port USB lub protokół FTP. Jeśli do działania usługi wymagany jest system operacyjny, jest on również dostarczony i zintegrowany z aplikacją. Całość jest już wstępnie skonfigurowana, tak aby uruchomienie funkcjonalności było jak najłatwiejsze. Nie dopuszcza się możliwości wgrania do modułu dowolnego systemu operacyjnego i instalowania na nim dowolnych aplikacji. Jedynie specjalnie przygotowane do tego celu i certyfikowane aplikacje mogą być instalowane. www.boston–review.com
Pozostałe zalety Poza połączeniem elastyczności aplikacji i prostoty struktury, technologia ProCurve ONE posiada jeszcze inne zalety. Stosowanie tych samych urządzeń do uruchamiania różnych aplikacji pozwala znacząco obniżyć koszty modernizacji systemu. W przypadku konieczności zastosowania innej niż dotychczas posiadanej aplikacji, nie trzeba wymieniać sprzętu. Wystarczy zakupić inną aplikację i można uruchomić ją na już posiadanym module. Również w przypadku konieczności zwiększenia mocy systemu nie trzeba martwić się o kompatybilność nowo zakupionych urządzeń z już posiadanymi. Ponieważ infrastruktura pochodzi od jednego dostawcy także o wiele łatwiej rozbudowywać sieć. Zyskuje się również w obszarze wydajności. Ponieważ aplikacje są przygotowane i prekonfigurowane do uruchomienia na określonym urządzeniu, możliwe jest uzyskanie wyższej wydajności, niż w przypadku produktów przeznaczonych do użytku na dowolnym sprzęcie. Gwarancja i wsparcie Zintegrowanie infrastruktury sieciowej z uruchamianymi na niej aplikacjami pozwala znacznie ułatwić klientowi otrzymanie wsparcia. W przypadku jakichkolwiek problemów z funkcjonalnością sieci klient nie musi zastanawiać się, czy powinien zwrócić się o pomoc do producenta sprzętu czy do dostawcy oprogramowania. Udostępniony jest jeden punkt kontaktowy, bez względu na to na czym polega usterka. Ponieważ każda uruchomiona na module ProCurve ONE aplikacja, musi wcześniej przejść rygorystyczne testy przeprowadzane przez HP i otrzymać stosowny certyfikat, dział wsparcia jest w stanie o wiele szybciej zdiagnozować przyczynę usterki. W przypadku stwierdzenia awarii na pograniczu sprzętu i aplikacji, HP ProCurve będzie współpracować z producentem oprogramowania w celu jak najszybszego rozwiązania problemu. W przypadku gdy sprzęt i aplikacja pochodzą od zupełnie innych dostawców, producenci sprzętu często próbują zrzucić winę za nieprawidłowe działanie sprzętu na dostawcę aplikacji i odwrotnie. W takim momencie klient zostaje uwikłany w spór między producentami i naprawa trwa o wiele dłużej. Taka sytuacja nie ma miejsca, gdy producenci ściśle ze sobą współpracują, tak jak w przypadku technologii ProCurve ONE. Dodatkowym atutem, jest to, że moduły ProCurve ONE objęte są gwarancją LifeTime. Wyjątkiem jest dysk twardy, który jest elementem wymienialnym, obowiązuje na niego pięcioletnia gwarancja. Podsumowanie W obecnej wersji ProCurve ONE występuje ograniczenie uruchamiania jednej aplikacji na jednym module. Jednak HP wciąż pracuje nad dalszym rozwojem tej technologii będzie ona dalej udoskonalana. W przyszłości ma być możliwe uruchamianie wielu aplikacji na jednym module, a także uruchamianie jednej aplikacji na wielu modułach. Taka skalowalność zapewni jeszcze większą elastyczność tego rozwiązania. Jest to z całą pewności godne uwagi rozwiązanie, które w miarę rozwoju będzie oferowało coraz więcej korzyści. n
49
SOLUTIONS w Internet Banking Security
Zarządzanie informacją
w bankowości na przykładzie
mBanku
Punktem wyjścia w rozważaniach nad bezpieczeństwem informacji jest sama INFORMACJA. Błyskawiczne przetwarzanie i wykorzystywanie informacji, a więc automatyzacja związanych z tym procesów, jest nieporównywalne z jakimikolwiek wcześniejszymi dokonaniami cywilizacyjnymi. Tomasz Galos
ekspert ds. bezpieczeństwa w mBanku
W
łaściwe przyswojenie, przetworzenie, a następnie wykorzystanie informacji znajduje swoje odzwierciedlenie w sukcesach lub porażkach jednostek i firm. Stan gospodarki globalnej najlepiej obrazuje przepływ informacji. Możemy zaobserwować na przykład, jak błyskawicznie rozprzestrzeniają się negatywne informacje ekonomiczne i jak kolosalny, choć często nieuzasadniony wpływ ma to na poszczególne gospodarki całego globu. Dziś odległość i różnica czasu nie stanowią najmniejszego problemu – świat żyje rytmem minutowym, a nawet sekundowym. Pojawienie się informacji w jednej części globu, może błyskawicznie spowodować zmiany w innej części. Te zmiany są szczególnie odczuwalne w Internecie, podstawowym środowisku mBanku. Rozpoczyna-
50
jąc swoją działalność, bank zdecydował się na obecność w świecie wirtualnym z wszystkimi jego wadami i zaletami. mBank nie jest tradycyjnym bankiem z placówkami, okienkami i pracownikami naziemnymi. Procesy i produktu są tak skonstruowane, że większość czynności jest realizowana przede wszystkim z wykorzystaniem sieci. Właściwie tylko wtedy, gdy ograniczają nas wymogi prawne, zapewniamy bezpośredni kontakt z człowiekiem. Łamałem ludzi, a nie hasła... Funkcjonowanie w Internecie łączy się z dobrze znanymi ludziom zagrożeniami, ale ukazującymi się w nowej formie. Za sprawą działań Kevina Mitnicka świat usłyszał o cyberprzestępcach. W swojej książce „Sztuka podstęwww.boston–review.com
Internet Banking Security
Rys. 1 Forum internetowe jako platforma komunikacji, edukacji i wymiany informacji
pu” Mitnick opisał socjotechniki stosowane przez wirtualnych przestępców. Najsłynniejszy za sprawą mediów hacker XX wieku ukazał świat zabezpieczeń i potwierdził, że za każdym jego sukcesem w „łamaniu dostępów” stał kontakt z osobą, która dawała się nabrać na jego mistyfikację i ufnie zdradzała mu to, co wymagało bezwzględnej ochrony. Lektura książki może prowadzić do następujących wnosków: nie można mówić o bezpieczeństwie bez kultury bezpieczeństwa. Można posiadać najlepsze zabezpieczenia, wydawać mnóstwo pieniędzy na badania i rozwój bezpieczeństwa, a mimo to nie osiągnąć pożądanego stanu. Każdy system bezpieczeństwa jest tak mocny, jak jego najsłabsze ogniwo. Niestety w większości wypadków tym najmniej odpornym elementem układu jest człowiek. To człowiek, a nie maszyna, może ulec manipulacji i działaniom socjotechnicznym ze strony przestępców. Zarządzając bezpieczeństwem, nie można skupić się tylko i wyłącznie na zabezpieczeniach infrastruktury, należy przede wszystkim pamiętać o ludziach. Ochrona tożsamości Poważnym wyzwanie jest dzisiaj ochrona tożsamości. Pamiętajmy, że banki posiadają ogromną ilość „realnych tożsamości” klientów. Klient, decydując się skorzystać z usług konkretnego banku, obdarza go ogromnym zaufaniem, a zarazem odpowiedzialnością. Dlatego wszystkie banki kładą duży nacisk na ochronę tych danych. Jak zawsze i wszędzie pomocą służą wszechobecne przepisy wskazujące kierunek ochrony danych oraz sposób tej ochrony. www.boston–review.com
Handel informacjami To, co jeszcze kiedyś można było zobaczyć na filmach lub przeczytać w prasie zagranicznej, dziś staje się elementem polskiej rzeczywistości. Mowa o handlu informacjami. Na naszych oczach rośnie wśród Polaków świadomość, jak cenne są dane osobowe. Każdy rekord – czyli zbiór informacji o konkretnej jednostce – to znaczna wartość rynkowa. Kupujący informacje zapisane w postaci elektronicznej bądź papierowej, dotyczące konkretnej osoby, może przekuć je w zysk w postaci aktywnego klienta swoich usług. Rośnie również wartość informacji na temat przedsiębiorstw. Ich cena zawsze była wysoka, dzisiaj jednak pozyskanie jej przez konkurenta może storpedować plany niejednej firmy. Obecnie, kiedy coraz większa ilość informacji jest przetwarzana w formie elektronicznej, niezbędne jest właściwe podejście do jej ochrony. Ważne jest zabezpieczenie zhierarchizowanych dostępów. Należy pamiętać, iż zbyt duża agregacja informacji w rękach jednej osoby może stać się wielką pokusą. Planując dostępy do poszczególnych informacji, zasobów oraz aplikacji, należy pamiętać, że jedynie nieliczne osoby, zajmujące kluczowe stanowiska, powinny mieć dostęp do wszystkich strategicznych informacji. Najsłabsze ogniwo Banki odgrywają newralgiczną rolę w stabilizacji systemu finansowego i gospodarczego państwa. Dlatego niektóre z nich stanowią awangardę w rozwoju zabezpieczeń oraz ich implementacji – dbają o postęp w tym zakresie dla własnych potrzeb.
51
SOLUTIONS w Internet Banking Security
Wynika to przede wszystkim z zakresu oraz ważności posiadanych informacji. Obserwując spektrum danych oraz zadań stawianych przed bankami, kierunek wyznaczany przez banki jest słuszny. Dodatkowym elementem motywującym ciągłe zmiany i rozwój zabezpieczeń jest przeniesienie ciężaru prowadzonej działalności ze świata realnego do Internetu. Jak wiemy, zmiany w świecie wirtualnym następują bardzo szybko, więc i zmiany w zabezpieczeniach muszą następować w tym samym tempie. Kluczowa jest więc bezustanna analiza otoczenia. Monitorowanie pod kątem bezpieczeństwa i ochrony informacji musi brać pod uwagę całość, ze szczególnym uwzględnieniem wsparcia dla najsłabszego elementu w systemie. System jest tak mocny i odporny, jak jego najsłabsze ogniwo: człowiek. Zadziwiające, że ten, kto jest zarówno motorem wszelkich osiągnięć, jest również potencjalnym zagrożeniem dla tych osiągnięć. Zawsze tak jest, iż każde nowe zabezpieczenie wcześniej czy później jest łamane, co napędza nieustanny wyścig na styku, umownie pisząc, dobra i zła. Zgodność systemów informacji z przepisami prawa Mimo swojej specyfiki, mBank podlega takim samym obostrzeniom, jak inne podmioty w swojej branży. Przeglądając polskie przepisy prawne, okazuje się, że działalność banków w mniejszym lub większym stopniu zahacza o 176 aktów prawnych. Taka liczba regulacji determinuje z jednej strony formę działalności, jednak odpowiednie zarządzanie in-
formacją oraz jej bezpieczeństwem może dać wydatną przewagę na konkurentami. Jak wynika z danych Związku Banków Polskich, w Polsce działa 55 banków komercyjnych i prawie 600 banków spółdzielczych. Przyjmując, że każdy z tych podmiotów ma dostęp do takich samych danych, każdy powinien znajdować się w podobnej fazie rozwoju, powinien oferować podobne jakościowo instrumenty i produkty finansowe. A jednak tak nie jest. Różnorodność wynika ze sposobów zarządzania danymi, generowania na ich podstawie informacji, ich ochrony oraz strategii rozwoju oferty i usług. Banki w szczególności są zobowiązane do poufności i ochrony posiadanej wiedzy. Na tym fundamencie opiera się system bankowy. Różnorodność pojawia się dopiero w specyficznym wykorzystaniu informacji w ramach nadarzających się szans rynkowych. Budżet bezpieczeństwa Dywersyfikacja podejścia do ochrony informacji i samego bezpieczeństwa powoduje, że pozycji budżetowych z tym związanych i przeznaczonych na ten cel może być wiele. Najważniejsze jest zapewnienie odpowiednich środków i pewności co do ich uzyskani w przyszłości, tak aby planując poszczególne działania i analizując powstające ryzyka, mieć możliwość ich wyeliminowania poprzez własne działania lub korzystanie ze wsparcia specjalistycznych podmiotów zewnętrznych. Jaki powinien być budżet na bezpieczeństwo? Przede wszystkim – adekwatny do potrzeb danej firmy, nie nadmierny, ale pewny i gwarantowany. Motorem roz-
Rys. 2 Blog to m.in. forma wymiary informacji pracowników z klientem banku
52
www.boston–review.com
Internet Banking Security
woju firmy jest biznes, bezpieczeństwo jest jego uzupełnieniem. Osiągnięcie złotego środka w planowaniu budżetu na bezpieczeństwo jest niezwykle trudne. Nieodzowna jest wzajemna współpraca wewnątrz organizacji i wypracowanie wizji konkretnych celów, w odniesieniu do zmieniających się warunków. Pamiętajmy, że w bezpieczeństwie każda złotówka, dolar, euro liczą się podwójnie. Wydając i planując wydatki, należy nastawić się na wyniki uzyskiwane w dłuższym okresie. Należy dobierać rozwiązania oferujące zabezpieczenia dostosowane nie tylko do bieżących potrzeb, ale także przyszłych, określanych na podstawie wiedzy i przewidywań ekspertów.
niczając pracowników. To procedura, która wpisuje się w zadania ludzi, określa kluczowe ramy, ale nie stanowi bezdusznej determinacji działań. Wymaga ciągłego monitorowania i nieprzerwanej pracy, ale gwarantuje szybkie i skuteczne działania w trudnych momentach.
Dobór zabezpieczeń Dobierając zabezpieczania, zawsze należy pamiętać o podstawowej działalności firmy, czyli powinny być one dobrane w taki sposób, aby nie paraliżować pracy – na przykład nadmiernymi obostrzeniami dotyczącymi dostępu do pomieszczeń wewnątrz firmy – ani nie zniechęcać do korzystania z nich klientów. Rozwiązanie powinno być szczelne, transparentne dla wszystkich, ale wygodne i przyjazne dla klienta.
Ochrona informacji w sposób ścisły związana jest z lojalnością. Zarządzając bezpieczeństwem, oczywiście możemy próbować się zabezpieczyć z każdej strony, jednak najsłabszym ogniwem bezpieczeństwa zawsze będzie człowiek. Jak ważne jest wzajemne zaufanie pracowników firmie, i tego, jak jest niedoceniane – doświadczyło wiele firm. Właściwa organizacja i warsztat pracy to jedno ze źródeł sukcesu.
Cykl zarządzania bezpieczeństwem • identyfikacja zagrożeń; • określenie zasobów chronionych; • określenie działań/środków zmniejszających zagrożenia; • przegląd skuteczności zastosowanych rozwiązań. Współdziałanie departamentów Nowoczesny bank to organizacja o w miarę płaskiej strukturze z podziałem na departamenty, wydziały i działy, w zależności od przyjętej strategii, specjalizujące się tylko w wąskim zakresie wiedzy i umiejętności. Ta specjalizacja powoduje podwyższenie profesjonalizmu i bezpieczeństwa w bankach. Do lamusa odchodzą superdepartamenty, odpowiedzialne niemal za wszystko. Dzisiaj w cenie jest wiedza, i to wiedza specjalistyczna. Dodając do wiedzy element niezbędny w każdej organizacji, a mianowicie szybki i przejrzysty przepływ informacji, otrzymujemy maszynę zdolną rozwiązać każdy problem w krótkim czasie, a do tego skutecznie. Intensywna współpraca, pozbawiona rywalizacji wewnętrznej, przejrzysta i prosta, stawia banki w pierwszym szeregu „przedsiębiorstw XXI wieku”. Zarządzanie sytuacjami kryzysowymi Z uwagi na sposób działania mBanku, wyjątkowego podejścia wymaga zarządzanie sytuacjami kryzysowi. Jego specyfika to jasny i czytelny podział zadań w sytuacjach kryzysowych, rozpisany na poszczególne zespoły. Zarządzanie kryzysowe w banku internetowym musi odznaczać się dużą elastycznością i niskim poziomem komplikacji. Powinno dawać możliwość działania w każdej sytuacji, nie powodując paraliżu i nie ograwww.boston–review.com
Droga do lojalności • • • • •
zaufanie do kadry menedżerskiej; wzajemne zaufanie; stabilność finansowa; zatrudnienie i jego stabilność; wyzwania.
Archiwizacja Patrząc na przetwarzane w bankach informacje, musimy pamiętać, że mamy do czynienia zarówno z informacjami bieżącymi, przetwarzanymi na użytek doraźnych akcji, jak i z informacjami w dużym stopniu archiwizowanymi. Wiele oferowanych przez bank usług wymusza element archiwizacji dokumentów. W związku z tym bank to również ogromna baza informacji, podlegających archiwizacji tradycyjnej, to jest papierowej, czy coraz częściej w elektronicznej. Uwzględniając jeden i drugi sposób, banki są zobowiązane do adekwatnego rodzaju zabezpieczeń: od bezpieczeństwa archiwów tradycyjnych, po wyrafinowane metody zabezpieczeń aplikacji. Edukacja Okazuje się więc, że edukacja to bardzo ważny aspekt, który staje się nieodzownym elementem każdej firmy świadczącej usługi, nie tylko banków. Chodzi zarówno o poszerzanie wiedzy pracowników, jak i klientów. W dobie zagrożeń cyberprzestępczością nieustanne uświadamianie klientom, jak cenne są ich dane, czy informacje dotyczące ich kontaktów z bankiem, jest sprawą kluczową. Świadomy pracownik i wyedukowany klient, posiadający i stosujący podstawową wiedzę na temat bezpieczeństwa, w znakomity sposób się uzupełniają, podnosząc wartość, jak i skuteczność niewidocznych dla klienta zabezpieczeń. W mBanku efektywnym narzędziem edukacji klientów jest forum. To monitorowane miejsce wymiany informacji i opinii z klientami i między klientami. To także swoista żywa encyklopedia bankowości. Stało się inspiracją dla wielu pomysłów dotyczących dalszego rozwoju oferty i produktów. Podobne funkcje w mBanku spełnia blog, który wprowadza w świat bankowości osobistej. n
53
AFTER EIGHT
O sztuce mieszania alkoholi Paweł Grotowski
54
S
ztuka tworzenia i wykonywania koktajli zwanych w skrócie drinkami ma bardzo krótką historię w porównaniu z historią samego alkoholu. Chociaż już w XVII wieku mieszano destylat z różnymi składnikami, jak miód, mleko, jajka oraz z innymi substancjami smakowymi, to legenda mówi, że nazwa cocktail, czyli koguci ogon pochodzi z popularnych pod koniec XVIII wieku w Ameryce Południowej i w regionie Karaibów walk kogutów. Zwyczajem było, że właściciel zwycięskiego koguta stawiał po wygranej walce kolejkę dla swoich kompanów. Pewnego dnia pomysłowy karczmarz połączył ze sobą kilka rodzajów alkoholi, dodał aromatycznych ziół i ozdobił je kogucimi piórami. Moda na takie napoje szybko się przyjęła i z łatwością przeniknęła z Południa na Północ. Już w 1806 roku opiniotwórcze pismo „Balance” pisało: ”cocktail jest stymulującym likworem skomponowanym z różnych trunków, wody, cukru i gorzkich substancji”. Definicja jak dzisiejsze czasy, nieco dziwaczna, ale jak się przekonamy, do dzisiaj aktualna. Pierwsze współczesne drinki powstały prawdopodobnie w Stanach Zjednoczonych w latach 20. XX wieku na fali emancypacji kobiet, które zaczęły uczestniczyć w życiu towarzyskim na równi z mężczyznami i potrzebowały odpowiedniego dla siebie napoju, który nie byłby zbyt mocny, a jednocześnie wprowadzał w dobry nastrój i dawał poczucie elegancji. Drinki początkowo były słodkie i kolorowe. Ewoluują jednak w stronę prostoty stylu i klasyczności smaku. Współcześnie dominują drinki wytrawne, nawet ziołowe, bez dużej ilości cukru na bazie wódki, rumu, tequili i ginu z dodatkiem świeżo wyciśniętych soków cytrusowych. Obecnie koktajle piją nie tylko kobiety, a powstało takie mnóstwo przepisów, że istnieją specjalne księgi, leksykony i przewodniki do drinków. Część z nich wymaga wielu egzotycznych składników, ozdób i odpowiednich przyrządów barmańskich. Wiele przepisów jest jednak łatwych w przygotowaniu i nie wymagających barmańskich kwalifikacji potwierdzonych dyplomem. Mnogość alkoholi oraz dodatków, jakie możemy wykorzystać do drinków, a także wielość smaków, jakie można uzyskać mieszając różne składniki pozwala trafić w gusta nawet najwybredniejszego konsumenta. Koktajle dzielimy ze względu na objętość: na shoty (do 50 ml), shortdrinki (do 100 ml) i longdrinki (powyżej 100 ml, dopełniane sokiem lub napojem musującym, podawane ze słomką i ozdobami), ze względu na smak na wytrawne, półsłodkie i słodkie oraz ze względu na temperaturę na zimne (zazwyczaj) i gorące. Drinki pijemy zwykle przed posiłkiem jako aperitif lub po posiłku jako digestif oraz podczas spotkań towarzyskich. Raczej nie pije się drinków do posiłku. I chociaż możliwości komponowania drinków są ograniczone tylko fantazją barmana, to przede wszystkim, warto zamówić w barze i posmakować najbardziej znane, tradycyjne koktajle, popularne na całym świecie. www.boston–review.com
AFTER EIGHT
Na aperitif najlepiej wypić klasyczny drink na bazie Campari (gorzkiego likieru wytwarzanego w Mediolanie ze skórki pomarańczowej i ziół) połączonego z wodą sodową, sokiem pomarańczowym lub grejpfrutowym. Innym rozwiązaniem na zaostrzenie apetytu przed obiadem jest brytyjski Gin and Tonic, udekorowany plasterkiem cytryny lub cząstką limonki; spopularyzowany w XIX wieku w Indiach Brytyjskich ze względu na zawartą w toniku chininę, chroniącą przed malarią. Dla fanów agenta Jej Królewskiej Mości polecamy zaś wytrawne Vodka Martini w formie uproszczonej z ginem i Martini w proporcjach 4:1 i zieloną oliwką lub w wersji oryginalnej (według Iana Fleminga) znanej jako „Vesper”, czyli Gwiazda Wieczorna, gdzie oprócz trzech porcji ginu znajduje się porcja wódki i pół porcji korzenno-cytrusowego likieru Lillet. Drink ma być oczywiście wstrząśnięty, niezmieszany i udekorowany spiralką z cytrynowej skórki. Dla stworzenia gorącej latynoskiej atmosfery warto zamówić w barze lub podać zaproszonym gościom drinki na bazie białego rumu lub tequili. Do wyboru mamy: Daiquiri, Mojito, Cuba Libre i Margaritę. Daiquiri – ulubiony drink Ernesta Hemingwaya, zamawiany przez niego masowo w hawańskim barze Floridita – to mieszanka kruszonego lodu, rumu, soku z cytryny i cukru lub syropu cukrowego. Znany pisarz zamiawiał ponoć „ulepszoną wersję” tzw. Papa double, czyli drink z podwójną ilością alkoholu. Coraz bardziej popularne w Polsce, doskonałe na upały Mojito, którego nazwa pochodzi od kreolskiego „mojo” czyli mały urok, to zbalansowane połączenie kruszonego lodu, rumu, limonek i mięty. Niektóre źródła podają, że po raz pierwszy sporządził go i pijał ścigając hiszpańskie karawele wypełnione srebrem z Nowego Świata już w połowie XVI wieku znany brytyjski korsarz Sir Francis Drake. Zaś drink Cuba Libre to synteza rumu i coca-coli, powstał w Hawanie około 1900 podczas wojny amerykańsko-hiszpańskiej dla podkreślenia sojuszu amerykańsko-kubańskiego i poparcia Stanów dla niepodległości Kuby. Najciekawsza jednak w tym zestawie jest Margarita – meksykański drink na bazie tequili z dodatkiem likieru cointreau lub innego typu triple sec i soku z limonki, podany na kruszonym lodzie. Zwyczajowo brzegi kieliszka ozdabia się solą, ale nie jest to niezbędne, aby uzyskać dobrą Margaritę. Istnieje wiele legend na temat powstania tej kompozycji smaku i choć wszystkie się różnią genezą to zgadzają w 3 sprawach: koktajl pochodzi z Meksyku, proporcje składników mogą być różne, choć tequila powinna stanowić od 33 do 60%, został skomponowany dla kobiety imieniem Margarita. Drinki Vodka Martini oraz Margaritę powinniśmy podawać i pijać w kieliszkach koktajlowych w kształcie odwróconego stożka. Osobną kategorię stanowią drinki na bazie szampana. Najbardziej znany i klasyczny jest Kir Royale. Do wysokiego kieliszka szampańskiego wlewawww.boston–review.com
my najpierw odrobinę likieru z czarnej porzeczki (creme de cassis), a następnie dopełniamy schłodzonym wytrawnym szampanem lub winem musującym. W innej wersji likier zastępujemy koniakiem z kilkoma kroplami Angostura Bitter, z czego powstaje tzw. Champagne Cocktail. Natomiast w Rosji na tej samej zasadzie komponuje się drink o nazwie Ognie Moskwy lub Biały Miś, tylko zamiast creme de cassis lub koniaku używa się głęboko schłodzonej wódki lub nawet spirytusu. Podobno pije się go, aż zobaczy się białego niedźwiedzia, ale ostrzegam, to jest drink tylko dla naprawdę mocnych głów. Oprócz klasycznych składników z alkoholem można mieszać także sok pomidorowy, mleko lub śmietankę, białko jaj, rosół i wiele innych. Krwawa Mary – ulubiony drink Bridget Jones – to wódka z sokiem pomidorowym doprawiona według uznania i możliwości ale zawsze na ostro (na przykład tabasco), elegancko wygląda przyozdobiona gałązką selera naciowego. White Russian, powstał podczas rosyjskiej wojny domowej i symbolizował opozycję wobec bolszewickiej Rosji radzieckiej. Ten drink składa się z wódki i mleka lub śmietanki. Jego młodszy brat, Black Russian powstał w połowie XX wieku poprzez zmieszanie wódki z likierem kawowym. Egzotyczny i bardzo łatwo pijalny Pisco Sour to peruwiański drink, który składa się ze zmieszanej w blenderze brandy, soku z limonki, cukru i białka z jajka oraz paru kropli Angostura Bitter, co można też zastąpić szczyptą cynamonu. Pisco Sour w Peru obchodzi nawet swoje święto, zawsze w pierwszą sobotę lutego. Po posiłku jako digestf często podaje się kieliszek „czegoś mocniejszego”, co w efekcie też jest drinkiem. Najczęściej na trawienie podawany jest koniak lub brendy, albo whisky. O ile klasycznie koniak podaje się bez dodatków, to whisky możemy podać jako „on the rock”, czyli na kostkach lodu, „whisky and soda” z wodą sodową, „Manhattan” z gorzką wódką i vermuthem, „Whisky sour” z sokiem i plasterkiem cytryny oraz na wiele innych sposobów dodając między innymi grenadynę, likier miętowy, Cointreau, oraz inne składniki, które nam najbardziej smakują. Producencji koniaku także zachęcają do konstruowania drinków na jego bazie, ale większość miłośników tego złotego trunku nadal uważa to za świętokradztwo. Jak widać mieszać można wszystko, lub prawie wszystko. Najważniejsze, aby nam smakowało. Do komponowania podstawowych koktajli w domu potrzebny jest lód, szklanki, najlepiej wysokie typu highball, słomki, a także shaker, miarka, mieszadełka. Poza podstawowymi alkoholami stanowiącymi bazę oraz kilkoma likierami lub syropami bezalkoholowymi, których używa się co prawda niewiele, ale które stanowią właśnie przysłowiową wisienkę na torcie, przydadzą się także cytryny lub limonki, soki, woda sodowa, cukier i sól. Może w tym roku, podczas spotkań towarzyskich i rodzinnych poczęstujemy ich klasycznym drinkiem domowej roboty. n
55
Events
III Konferencja Holistyczne Zarządzanie Danymi Osobowymi 20-22 maja 2009 r. Mikołajki, Hotel Gołębiewski Obowiązki Administratora Danych i Administratora Bezpieczeństwa Informacji 11 maja 2009 r. Warsztaty – Opracowania dokumentacji wymaganej ustawą o ochronie danych osobowych 12 maja 2009 r. Ochrona Danych Osobowych w Call Center 29 kwietnia 2009 r.; 26 czerwca 2009 r. Przetwarzanie i Ochrona Danych Osobowych w Firmie 14 maja 2009r.; 10 czerwca 2009 r. Zapraszamy na warsztaty szkoleniowe Zielonka, Hotel Trylogia tel.(22) 406 19 85 gis@globinfosec.pl www.globinfosec.pl
W kręgu pięciu żywiołów: powietrze, ogień, woda, ziemia i cyberprzestrzeń 20-22 maja 2009 r., Sopot tel.(22) 32-17-917 anna_jurek@idg.com.pl
56
www.boston–review.com
Events
Mobile GigaCon (bezpłatna dla uczestników) 7 kwietnia 2009, Warszawa (Hotel Novotel Airport) Gabriela Todorow tel.(22) 427 36 82 gabriela.todorow@software.com.pl
Forum Ochrony Danych Osobowych (płatna dla uczestników) 25-26 maja 2009, Warszawa, Agencja Rozwoju Przemysłu Kamila Tarłowska tel.(22) 427 36 47 kamila.tarlowska@software.com.pl
IT w Bankowości GigaCon (bezpłatna dla uczestników) 22 kwietnia 2009r., Airport Hotel Okęcie w Warszawie Ewa Cichocka tel.(22) 427 32 82 ewa.cichocka@software.com.pl
BCM – zarządzanie ciągłością działania (szkolenie płatne dla uczestników) 24 kwietnia 2009r. Warszawa, Marta Pączkowska tel.(22)427 36 43 marta.paczkowska@software.com.pl
Konferencja E-commerce (płatna dla uczestników) 27-28 kwietnia 2009, Hotel Novotel Airport, Warszawa Aleksandra Osubka tel.(22) 427 36 48 aleksandra.osubka@software.com.pl
Projektowanie Systemu Zarządzania Bezpieczeństwem Informacji zgodnie z normami PN-ISO/IEC 27001:2007 i PNISO/IEC 17799:2007 (szkolenie płatne dla uczestników) 14 – 15 maja 2009r. Warszawa, Marta Pączkowska tel.(22)427 36 43 marta.paczkowska@software.com.pl
SQAM 27-29 kwietnia 2009r., Warszawa Ilona Kacprzak tel.(22) 427 37 16 ilona.kacprzak@software.com.pl
<<STOPKA_PRAWA>>
EXPERT
S
martfony, będące połączeniem telefonu i przenośnego komputera, to obecnie nie tylko sprzęt użytkowy czy narzędzia pracy – to także bardzo popularne gadżety. Automatycznie stają się atrakcyjnym celem dla cyberprzestępców. Co prawda zagrożenia dla smartfonów ciągle są bardzo ograniczone, jednak za rok z pewnością będziemy mieli zupełnie inny pogląd na ten temat. Na rynek wkracza nowy gracz – Google ze swoim Androidem i wszystko wskazuje na to, że rok 2009 może być rokiem smartfonów. Biorąc pod uwagę natłok informacji, z jakim mamy obecnie do czynienia, idealnie byłoby posiadać dostęp do Internetu 24 godziny na dobę i 7 dni w tygodniu, niezależnie od tego gdzie się znajdujemy. Telefony podążają taką samą ścieżką ewolucyjną jak komputery PC, które w ciągu 10 lat przeszły z mało popularnych i bardzo kosztownych połączeń modemowych do szerokopasmowego, taniego i ciągłego połączenia z Internetem. Gdy taki skok zostanie wykonany przez urządzenia mobilne, cyberprzestępcy z pewnością to wykorzystają. Smartfony będą stawały się elementami kontrolowanych przez cyberprzestępców sieci zainfekowanych urządzeń (botnetów), dokładnie tak, jak obecnie ma to miejsce w przypadku komputerów. Prawdopodobnie zagrożenia mobilne w roku 2009 ciągle będą charakteryzowały się ograniczonymi możliwościami, a ich ilość nie wzrośnie lawinowo, jednak w 2010 roku sytuacja będzie znacznie poważniejsza, a najpóźniej za pięć lat zagrożenia mobilne będą częścią naszego codziennego życia. Jeszcze do niedawna można się było zastanawiać, czy ochrona telefonów ma sens. Zadajmy sobie jednak pytanie: czym różni się smartfon od komputera? Odpowiedź jest prosta – smartfon zamiast myszy posiada rysik, a komputer jest zbyt ciężki, aby podnieść go do ucha. Po pominięciu wymienionych różnic, można między tymi dwoma urządzeniami postawić znak równości. Smartfon pozwala praktycznie na wszystko, co możemy zrobić na domowym pececie czy firmowej stacji roboczej. Szkodliwy program zainstalowany na smartfonie może teoretycznie wykorzystać każdą jego funkcję: wysyłać SMS-y i MMS-y pod numery o podwyższonej opłacie, wysyłać i pobierać dane, instalować inne programy w sposób niezauważalny dla posiadacza telefonu itp. Ponadto, ze względu na to, że smartfon jest urządzeniem przenośnym, mamy do czynienia z dodatkowym zagrożeniem – kradzieżą lub zgubieniem. Wielu z nas przechowuje w telefonach rozmaite dane, łącznie z informacjami firmowymi. Utrata tych danych prowadzi nie tylko do konieczności ich odtwarzania, ale może być także zagrożeniem – cyberprzestępca może wykorzystać skradzione informacje przeciwko nam w formie szantażu. Warto więc rozważyć możliwość zainwestowania w system ochrony, który nie tylko eliminuje możliwość ataku szkodliwego programu, ale także szyfruje dane przechowywane na smartfonie. n
58
Piotr Kupczyk Od 2001 roku związany z Kaspersky Lab Polska. Współtworzył polski oddział firmy od momentu jego założenia. Jako dyrektor działu prasowego jest odpowiedzialny za budowanie wizerunku firmy oraz za kontakty z mediami. Odpowiada także za zawartość polskojęzycznej strony korporacyjnej Kaspersky Lab oraz Encyklopedii Wirusów VirusList.pl prowadzonej przez Kaspersky Lab.
www.boston–review.com