teberia 30

Page 1

CCS ‑ pomoże, a może nawet zaszkodzi

Czy można stąd zadzwonić na miasto?

NUMER 11 (30) LISTOPAD 2013

NAUKA / TECHNOLOGIE / GOSPODARKA / CZŁOWIEK

Nowe Prądy Na niepewnym rynku energii wciąż ważą się losy pojazdów elektrycznych.

Lem na orbicie, Heweliusz gotów do startu



* Skąd ta nazwa –

Spis treści: 4 NA CZASIE 6 NA CZASIE 8 O TYM SIĘ MÓWI 10 O TYM SIĘ MÓWI 16 NAUKOWO 18 PREZENTACJE 23 EDYTORIAL

Czy na pewno chodzi tylko o klimat? Bitcoin rośnie w siłę Polski produkt w Apple Store Lem na orbicie, Heweliusz gotów do startu Kosmiczna szansa Polski Kryptografia nas otacza Laboratorium Pierwiastków Krytycznych otwarte!

WOKÓŁ KLIMATU

24 NA OKŁADCE 32 NA CZASIE 38 TRENDY 40

CCS: technologia o kruchych fundamentach ekonomicznych, lecz mocnych filarach prawnych Nowe Prądy Volvo zapowiada zmierzch tradycyjnych baterii Czy można stąd zadzwonić na miasto?

…Otóż gdy pojawił się gotowy projekt witryny – portalu niestety nie było nazwy. Sugestie i nazwy sugerujące jednoznaczny związek ze Szkołą Eksploatacji Podziemnej typu novasep zostały odrzucone i w pierwszej chwili sięgnąłem do czasów starożytnych, a więc bóstw ziemi, podziemi i tak pojawiła się nazwa Geberia, bo bóg ziemi w starożytnym Egipcie to Geb. Pierwsza myśl to Geberia, ale pamiętałem o zaleceniach Ala i Laury Ries, autorów znakomitej książeczki „Triumf i klęska dot.comów”, którzy piszą w niej, że w dobie Internetu nazwa strony internetowej to sprawa życia i śmierci strony. I dalej piszą „nie mamy żadnych wątpliwości, co do tego, że oryginalna i niepowtarzalna nazwa przysłuży się witrynie znacznie lepiej niż jakieś ogólnikowe hasło”. Po kilku dniach zacząłem przeglądać wspaniała książkę Paula Johnsona „Cywilizacja starożytnego Egiptu”, gdzie spotkałem wiele informacji o starożytnych Tebach (obecnie Karnak i Luksor) jako jednej z największych koncentracji zabytków w Egipcie, a być może na świecie. Skoro w naszym portalu ma być skoncentrowana tak duża ilośćwiedzy i to nie tylko górniczej, to czemu nie teberia. Jerzy Kicki Przewodniczący Komitetu Organizacyjnego Szkoły Eksploatacji Podziemnej Portal teberia.pl został utworzony pod koniec 2003 roku przez grupę entuzjastów skupionych wokół Szkoły Eksploatacji Pod-ziemnej jako portal tematyczny traktujący o szeroko rozumianej branży surowców mineralnych w kraju i za granicą. Magazyn ,,te-beria” nawiązuje do tradycji i popularności portalu internetowego teberia.pl, portalu, który będzie zmieniał swoje oblicze i stawał się portalem wiedzy nie tylko górniczej, ale wiedzy o otaczającym nas świecie.

Wydawca:

Fundacja dla Akademii Górniczo-Hutniczej im. Stanisława Staszica w Krakowie

Jerzy KICKI

Prezes Fundacji dla AGH

Artur DYCZKO

Dyrektor działu wydawniczo-kongresowego Fundacji dla AGH Dyrektor Zarządzający Projektu Teberia

Jacek SROKOWSKI Redaktor naczelny

jsrokowski@teberia.pl

Biuro reklamy:

reklama@teberia.pl

Studio graficzne:

Tomasz CHAMIGA

tchamiga@teberia.pl

Adres redakcji:

Fundacja dla Akademii Górniczo-Hutniczej im. Stanisława Staszica w Krakowie, pawilon C1 p. 322 Aal. Mickiewicza 30, 30-059 Krakówtel. (012) 617 - 46 - 04, fax. (012) 617 - 46 - 05, e-mail: redakcja@teberia.pl, www.teberia.pl” www.teberia.pl f-agh@agh.edu.pl, www.fundacja.agh.edu.pl NIP: 677-228-96-47, REGON: 120471040, KRS: 0000280790

Konto Fundacji:

Bank PEKAO SA, ul. Kazimierza Wielkiego 75, 30-474 Kraków, nr rachunku: 02 1240 4575 1111 0000 5461 5391 SWIFT: PKO PPLPWIBAN; PL 02 1240 4575 1111 0000 5461 5391 Redakcja nie odpowiada za treść ogłoszeń. © Copyright Fundacja dla AGH Wszelkie prawa zastrzeżone.Żaden fragment niniejszego wydania nie może być wykorzystywany w jakiejkolwiek formie bez pisemnej zgody wydawcy.


EDY TORIAL >> Przed COP 19, a i na jego początku, Polska przez wielu polityków, aktywistów i dziennikarzy z państw Europy była traktowana jako skrzyżowanie Neandertalczyka z dinozaurem, którego ulubionym zajęciem jest trucie węglem siebie i bardziej oświeconych sąsiadów. Na zdjęciu akcja Greenpeace w pobliżu Elektrowni Bełchatów. Krzyże mają symbolizować ofiary spalania węgla.

Czy na pewno chodzi tylko o klimat? Organizacje i ruchy związane z ekologią i ochroną środowiska z całego świata postanowiły dobrowolnie wycofać się z rozmów podczas zakończonego niedawno warszawskiego Szczytu Klimatycznego. Spowodowało to zniecierpliwienie i brak wiary, że politycy mogą działać w interesie społecznym. Jednak już zanim impreza się rozpoczęła można było mieć duże wątpliwości czy globalne negocjacje mają szansę posunąć się do przodu szczególnie w obliczu kryzysu gospodarczego. Wiadomo było bowiem, że z wcześniejszych zobowiązań dotyczących redukcji CO2 wycofały się Japonia, Kanada i Australia. Przy swoim wciąż obstaje jedynie Unia Europejska, której plan zakłada redukcję emisji CO2 o 40 proc. do 2030 r., o 60 proc. do 2040 r. i o 80 proc. do 2050 r. w porównaniu z 1990 r. Od dłuższego czasu słychać opinie, iż tego rodzaju polityka, bez globalnego porozumienia, prowadzi Unię Europejską donikąd. Wprowadzony kilka lat temu system handlu uprawnieniami do emisji dwutlenku węgla okazał się porażką. Stał się bowiem polem finansowych spekulacji i nadużyć na globalną skalę. Na początku lata 2009 r. okazało się, iż większość transakcji związanych z handlem uprawnieniami do emisji była przeprowadzona przez organizacje oszustów z zastosowaniem oszustw karuzelowych, które doprowadziły do nieopłacenia około 5 miliardów euro podatków związanych z handlem uprawnieniami do emisji. Cóż, wprowadzenie sztywnych regulacji administracyjnych nie jest dobrym rozwiązaniem na dłuższą metę. Klimat na tym bynajmniej nie zyskuje. Okazuje się bowiem, iż znacznie skuteczniejsze w redukcji CO2 są dziś Stany Zjednoczone, które nie wyznaczyły sobie żadnych sztywnych ram administracyjnych. Niestety, walki ze zmianami klimatu nie da się oderwać od polityki gospodarczej, pytanie brzmi, jakim kosztem ma się ona odbywać. Kraje Unii Europejskiej różnią się znacznie strukturą przemysłu, poziomem rozwoju czy kosztami pozyskiwania surowców, dlatego unijne zobowiązania klimatyczne mają różny wpływ na gospodarki poszczególnych krajów. Nie jest przecież tajemnicą, że unijna polityka klimatyczna najbardziej uderzy w Polskę i jej gospodarkę opartą na energii pozyskiwanej z węgla. Nawet okresy przejściowe, które udało nam się uzyskać tego nie zmienią. Swego czasu, były już minister środowiska Marcin Korolec zaproponował ciekawe rozwiązanie systemowe. Jego zdaniem prostym sposobem na zahamowanie drożejącej

energii związanej z polityką klimatyczną Unii byłoby wprowadzenie tzw. benchmarków (wskaźników emisyjności) dla konkretnego paliwa. Wyjaśnił, że proponowany przez niego benchmark określany byłby przez Komisję Europejską. Wiązałby się z BAT-em ( z ang. best available technology) dla konkretnego paliwa energetycznego, czyli najlepszej z punktu widzenia ograniczania emisji, dostępnej na rynku technologii. Chodziło w nim oto, by zwolnić z opłaty te przedsiębiorstwa, które stosuje najlepszą możliwą technologię; jeżeli nie stosują takiej technologii, to byłyby zmuszone do zakupu uprawnień do emisji. Zdaniem Korolca mogłoby się okazać, że „najlepsza możliwa technologia węglowa byłaby bardziej atrakcyjna od starej i gorzej funkcjonującej technologii gazowej”. „Wszyscy równaliby do BAT-u, czyli do określonej najlepszej technologii w danym paliwie”. Kto bowiem zagwarantuje, że eliminacja węgla zapewni Polsce wysoki wskaźnik redukcji CO2? Polska nie ma bowiem warunków do rozwijania efektywnej energetyki wiatrowej, słonecznej czy wodnej, a biomasa wcale nie jest tak zielona jakby się mogło wydawać. W istocie jedyną alternatywą dla węgla jest energia atomowa lub gazowa. Polska ma wszelkie atrybuty, by redukować dwutlenek węgla – i to znacząco – dzięki wykorzystaniu nowoczesnej, wysoko sprawnej energetyki węglowej. Problem jednak, że na przeszkodzie temu stają unijne dyrektywy (czytaj dalej na temat dyrektywy CCS), gdzie węgiel został spisany na straty, bez racjonalnego uzasadnienia. Może jednak nie chodzi tu wyłącznie o klimat?

Jacek Srokowski zapraszamy do dyskusji napisz do nas



NA C Z A SIE >>

Bitcoin rośnie w siłę 1,15 bitcoina – tyle wynosi teraz średnia pensja w Polsce. Popularność wirtualnej waluty bije w ostatnich dniach rekordy. Za jedną bitmonetę trzeba już zapłacić ponad 3,3 tysiąca złotych. Czy na rynku rośnie kolejna potężna bańka spekulacyjna?

M

niej więcej dziesięć minut – tyle zajmuje założenie konta na największej na świecie platformie mtgox.com, służącej do handlu bitcoinami – wirtualną walutą, o której robi się coraz głośniej również w Polsce. Po weryfikacji danych i wpłacie depozytu, można zamieniać całkiem realne złotówki na bitcoiny, za którymi nie stoi żaden bank centralny na świecie. Zainteresowanie musi być bardzo duże – serwery innej, popularnej w Polsce platformy do handlu bitcoinami bitcurex.com, były wczoraj przeciążone, uniemożliwiając założenie konta. – Wyraźnie widać, że coraz więcej użytkowników rejestruje się, by móc kupować bitcoiny. W Polsce z pewnością będzie to już kilkadziesiąt tysięcy osób – mówi Money.pl Daniel Haczyk, autor bloga bitcoinet. pl, poświęconego cyfrowej walucie. O bitcoinie zrobiło się głośno, bo kurs cyfrowej waluty przekroczył właśnie tysiąc dolarów. To skok o ponad 400 procent w ciągu miesiąca i szybko pnie się w górę. Tymczasem jeszcze na początku tego roku kosztował 20 dolarów. Jak zachwalają zwolennicy wirtualnej waluty, jej podstawową zaletą jest to, że o kursie decydują tylko i wyłącznie prawa popytu i podaży, a nie banki centralne. Bo te nie mają z bitcoinami nic wspólnego. Zobacz, jak kształtował się kurs bitcoina w ostatnich trzech miesiącach Dodaj wykresy do Twojej strony internetowej – Fenomen, który zrewolucjonizuje finanse w taki sam sposób, jak e-mail zmienił sposoby komunikowania się między ludźmi. Bitcoin to facebook współczesnego świata pieniądza w epoce kryzysu – możemy przeczytać na stronie poświęconej walucie. 6

Teberia 30/2013

Sceptycy z kolei podkreślą, że bitcoinom brakuje właśnie podstawowej cechy waluty, którą jest to, że powinien stać za nią bank emisyjny, tak jak w przypadku złotego – Narodowy Bank Polski – w przypadku euro – Europejski Bank Centralny, a dolara – Fed. Tymczasem, gdy mowa o bitcoinie, za jego emisję odpowiadają sami użytkownicy systemu. Mogą je generować za pomocą matematycznych algorytmów – nazywa się to wykopywaniem monet. Według informacji, które można znaleźć na platformach do handlu cyfrową walutą, do 2033 roku w obrocie ma być 21 milionów monet. O ile większość polskich klientów i sprzedawców traktuje na razie bitcoina jako walutową ciekawostkę, o tyle waluta może równocześnie budzić spore kontrowersje, jeżeli chodzi o legalność dokonywanych tam transakcji. Chodzi przede wszystkim o handel zakazanymi towarami, jak również pranie brudnych pieniędzy. Jeszcze w 2011 roku amerykański senator Charles Schumer stwierdził, że bitcoiny to internetowy sposób na pranie brudnych pieniędzy. Z kolei w październiku tego roku amerykańskie władze zlikwidowały internetową giełdę Silk Road, na której można było handlować narkotykami. Wszystkie płatności były dokonywane właśnie za pomocą wirtualnej, anonimowej waluty. Co więcej, w sieci od razu zaczęły pojawiać się spekulacje na temat powiązań pomiędzy założycielem Silk Road Rossem Ulbrichtem a twórcą bitcoinów Satoshi Nakamoto. Można więc spodziewać się, że z czasem instytucje państwowe zaczną bliżej interesować się cyfrową


walutą i będą podejmować próby jej kontroli. To jednak o tyle trudne, że cały system wirtualnej waluty jest zdecentralizowany i nie ma jednej instytucji, która by za niego odpowiadała. W przypadku Polski na początku lipca tego roku wiceminister finansów Wojciech Kowalczyk wysłał pismo do marszałka Senatu, w którym argumentuje, że należy zająć się regulacją bitcoina w polskim prawie. – W obecnym stanie prawnym obrót wirtualnymi walutami nie podlega nadzorowi żadnej instytucji, tym samym funkcjonowanie to może generować określone rodzaje ryzyka – pisze Kowalczyk. Zapytana o formy tego ryzyka, Wiesława Dróżdż z Ministerstwa Finansów wyjaśniła w portalu Platine. pl: W związku z brakiem funkcjonowania jakiegokolwiek nadzoru ze strony instytucji państwowych i finansowych nad walutą bitcoin, należy uznać ją za bardzo podatną na ataki spekulacyjne oraz działanie czynników zewnętrznych (mogących doprowadzić do całkowitego spadku zaufania uczestników tego rynku), co finalnie może doprowadzić do zupełnej utraty jej wartości, a w konsekwencji upadku i sporych strat majątkowych po stronie użytkowników. Paradoksalnie, samym bitcoinom może nie służyć formalne uznanie ich za walutę. A można powiedzieć, że tak się właśnie stało, gdy w lipcu tego roku nadzór finansowy w USA oskarżył mieszkańca Teksasu o to, że stworzony przez niego fundusz Bitcoin Savings

and Trust to nic innego jak piramida finansowa. Ten bronił się, że przecież nie obracał realnymi pieniędzmi klientów. Sąd uznał jednak inaczej, a to pośrednio dowód na to, że faktycznie uznał bitcoiny za walutę. Wczoraj bitcoin podrożał o około 10 procent. W minionym miesiącu o 460 procent, a w rok o 9,2 tysiąca procent. Jeśli ktoś w listopadzie 2012 roku wymienił 10 tysięcy złotych, dziś za te pieniądze może kupić trzy mieszkania. Historyczne dane zawsze rozgrzewają wyobraźnię inwestorów. Zwłaszcza, że od początku funkcjonowania bitcoina raczej ciężko było na tej inwestycji stracić. Krach zdarzył się tylko raz – w kwietniu tego roku. Z 230 dolarów cena spadła o 70 procent, do niespełna 69. Małe zawirowanie zdarzyło się też w listopadzie. W dwa dni waluta straciła około 40 procent. Za każdym razem jednak inwestorzy potrzebowali zaledwie kilku dni, żeby nadrobić wszystkie straty. I to z ogromną nawiązką. Inwestycja w bitcoina jest jednak szalenie ryzykowna. We wszystkich wypowiedziach analityków, którzy opisują zachowania tej waluty, powtarzają się dwa słowa: bańka spekulacyjna. - W pięć lat pół miliona procent? To nie jest coś normalnego – ostrzega Paweł Cymcyk, z ING TFI. - Mieliśmy w historii światowych finansów sytuacje, kiedy za cebulkę tulipanów płacono willą, a za jakąkolwiek firmę z frazą „.com” w nazwie sto razy więcej, niż za każdą inną. Ta dzisiejsza moda na bitcoiny to nic nowego.

Łukasz Pałka, Maciej Rynkiewicz

Źródło: money.pl

Teberia 30/2013

7


NA C Z A SIE >>

Polski produkt w Apple Store Elektroniczna kostka do gry DICE+ jako pierwszy polski produkt trafi do amerykańskiej sieci sklepów Apple Store. Urządzenie współpracuje z tabletami i umożliwia interaktywną zabawę dzięki kilkunastu aplikacjom z grami planszowymi. Jego twórcy liczą, że popularnością dorówna tradycyjnym kostkom do gier planszowych i sprzeda się w milionach sztuk

– Jeśli rzucimy kostką obok tabletu, ona automatycznie przekaże wynik do urządzenia. Dzięki temu rozgrywka jest bardziej interaktywna i ciekawsza niż w przypadku gier, które skupiają się tylko i wyłącznie na tablecie. A co najważniejsze – pozwala dwóm osobom swobodnie grać na tablecie – tłumaczy w rozmowie z agencją informacyjną Newseria Biznes Patryk Strzelewicz, jeden z pomysłodawców kostki DICE+. Kostka DICE+ („dice” to po angielsku właśnie kostka do gry) to niewielkie urządzenie, przypominające dużą tradycyjną kostkę do gier. Ma wbudowanych sześć diod, akcelerometr, procesor, magnetometr oraz system komunikacji Bluetooth 4.0. Jak podkreślają producenci, dzięki licznym podzespołom obsługa kostki jest bardzo intuicyjna. Urządzenie zostało po raz pierwszy zaprezentowane 8

Teberia 30/2013

w 2012 r. Trzy miesiące temu kostka została wprowadzona do sprzedaży. Kluczowym momentem była przedpremierowa prezentacja na marcowych targach CeBIT w Hanowerze, gdzie kostką DICE+ zagrali premier Donald Tusk razem z kanclerz Niemiec Angelą Merkel. Wprowadzenie kostki do oferty Apple Store to przełomowe wydarzenie dla polskiego rynku IT. – Po dwóch latach intensywnych prac nad technologią, ale też nad całą konstrukcją i nad aplikacjami, udało nam się przekonać Apple Store do tego, żeby wstawić ten produkt do ich sklepu jako pierwszy produkt z Polski z branży game’ingowej – mówi Strzelewicz. Dodaje, że pomysł na kostkę to tylko dostosowanie znanej od tysięcy lat tradycyjnej kostki do możli-


wości tworzonych przez technologię. DICE+ jest sprzedawana w pakiecie z kilkunastoma aplikacjami, a Apple Store mają wyłączność na handel tym urządzeniem. Strzelewicz liczy, że elektroniczna kostka okaże się równie popularna jak ta tradycyjna. Przewiduje sprzedaż liczoną w milionach sztuk na całym świecie. Podkreśla, że wraz ze wzrostem liczby tabletów zwiększy się zapotrzebowanie na urządzenia dodatkowe, takie jak DICE+. Choć DICE+ będzie dostępna w Apple Store, kostka współpracuje z tabletami zarówno z systemem operacyjnym iOS, jak i z Androidem. Game Technologies, która produkuje kostkę DICE+ zatrudnia 80 osób. Firma, oprócz biura w Poznaniu posiada przedstawicielstwa w Korei oraz Stanach Zjednoczonych.

Kostka produkowana jest w piotrkowskim Centrum Logistycznym Logistic City. Spółka pracuje już nad kolejnymi aplikacjami, które poszerzą ofertę gier współpracujących z DICE+.

źródło: newseria

Teberia 30/2013

9


O T YM SIĘ MÓWI >>

Lem na orbicie,

Heweliusz gotów do startu

Lem, pierwszy polski satelita naukowy pomoże w zrozumieniu wewnętrznej budowy największych gwiazd naszej galaktyki. Już krąży nad naszymi głowami po biegunowej orbicie.

10 Teberia 30/2013


Teberia 30/2013 11


O T YM SIĘ MÓWI >>

S

atelita Lem to wspólne przedsięwzięcie naukowców z Centrum Badań Kosmicznych PAN i Centrum Astronomicznego im. Mikołaja Kopernika PAN, we współpracy z Uniwersytetem w Wiedniu, Politechniką w Grazu, Uniwersytetem w Toronto i Uniwersytetem w Montrealu. Satelita jest częścią międzynarodowego projektu BRITE. Wcześniej w przestrzeni kosmicznej znalazły się dwa austriackie i dwa kanadyjskie satelity. Jednak „Lem” to nie jedyny nasz satelita w tym projekcie. Kolejny – „Heweliusz” – trafi na orbitę już za miesiąc. Na skonstruowanie satelitów Ministerstwo Nauki i Szkolnictwa Wyższego przeznaczyło ponad 14 mln zł. Mimo, że to tylko 1/600 kosztu Teleskopu Kosmicznego Hubble-a to od 1989 r. nie było w Polsce większego grantu badawczego w dziedzinie astronomii i badań kosmicznych. „Lem” i „Heweliusz” to tak zwane nanosatelity czyli obiekty o bardzo małych rozmiarach. W 2010 r. ich nazwy – „Lem” i „Heweliusz” - wybrali internauci w konkursie zorganizowanym przez Ministerstwo Nauki. Ważący niecałe 7 kg satelita ma kształt kostki o 20-centymetrowych bokach. Tak niewielkie urządzenia wykorzystywano dotychczas jako obiekty amatorskie i edukacyjne. Tym razem precyzyjna konstrukcja, umieszczona na orbicie na wysokości 800 km, przez kilka lat umożliwi pomiary naukowe 286 najjaśniejszych gwiazd. Lem wystartował na rosyjskiej rakiecie Dniepr z bazy wojskowej Jasny na południowym Uralu tuż po godzinie 8.10 naszego czasu. Już kilka godzin później możliwe było uzyskanie pierwszego sygnału. Łączność umożliwia stacja kontroli lotów, znajdującą się w Centrum Astronomicznego im. Mikołaja Kopernika PAN (CAMK) w Warszawie. Stąd będą też wysyłane komendy do satelity oraz odbierane dane operacyjne i naukowe misji. W Polsce do tej pory prowadzone były prace nad skonstruowaniem studenckich satelitów. Na tym polu szczególnie aktywne są AGH, WAT czy Politechnika Warszawska. W lutym 2012 roku w kosmos został wystrzelony studencki satelita PW-Sat, która jest obiektem edukacyjnym. Kompletne satelity naukowe budujemy, podobnie jak Austriacy, pierwszy raz. Stąd za wzór posłużył kanadyjski nanosatelita CAN-X 3, zbudowany na University of Toronto, Institute for Aerospace Studies, Space Flight Laboratory (UTIAS-SFL). Opracowanie projektu satelitów to zasługa Kanadyjczyków. Jednak bez dodatkowego polskiego wkładu 12 Teberia 30/2013

nie byłoby możliwe dokładne określenie wewnętrznej budowy gwiazd, zwłaszcza w zakresie teorii konwekcji. Polska wiedza teoretyczna oparta o własne kody numeryczne służące symulacji pulsacji gwiazd, powszechnie uważana jest za „state-of-art”, tj. wedle wszelkich arkanów sztuki. Na tym jednak nie kończy się udział polskich naukowców w projekcie. Udziałem polskich inżynierów były modyfikacje teleskopu, wykonanie struktury satelity, integracja oraz testy satelity. W przypadku drugiego satelity udział komponentów kanadyjskich został poważnie ograniczony, większość podsystemów była opracowana w CBK i wyprodukowana w Polsce. Integracja i testy drugiego satelity to domena CBK. W ramach programu BRITE-PL powstała także stacja kontroli lotu i odbioru danych. Misją projektu jest uzyskanie danych astrosejsmologicznych jasnych gwiazd. Zbudowane w CBK PAN satelity są częścią grupy sześciu podobnych obiektów tworzących formację lotną, umieszczoną na orbicie o wysokości 800 km. Ich zadaniem będzie prowadzenie precyzyjnych i jednoczesnych pomiarów fotometrycznych najjaśniejszych gwiazd zmiennych nieba w ciągu planowanych kilku lat działania tych satelitów. Badania pulsacji gwiazd zmiennych są bardzo ważne, gdyż dostarczają nam kluczowych informacji o wnętrzach gwiazdowych. Szczególną wagę naukowców zwraca mechanizm konwekcji czyli transportu energii, który jest szczególnie istotny w najgorętszych gwiazdach. „Mimo, że jest to ważny w przyrodzie mechanizm i znany fizykom od ponad 100 lat, jednak do tej pory nie mamy jego precyzyjnego matematycznego opisu, nasze badania mogą to zmienić”twierdzi prof. dr hab. Aleksander SchwarzenbergCzerny. Problem polega na tym, że pulsacji nie da się precyzyjnie zmierzyć z Ziemi. Główną przeszkodę stanowi atmosfera ziemska, która ciągle faluje i tym samym wywołuje zakłócenia. Obserwacje prowadzone z orbity uwierzytelniają te pomiary nawet o kilka rzędów wielkości. Zaletą polskich satelitów jest stosunkowo niewielka wielkość i waga. Dla osiągnięcia prawidłowych wyników pomiarów istotne jest zachowanie bardzo wysokiej precyzji (w trzech osiach) przy stabilizacji satelity na orbicie. Rozwiązania zastosowane w BRITE, pomimo prostej konstrukcji nanosatelity, taką precyzję zapewniają. Zainstalowana na satelicie szerokokątna kamera otrzyma niezakłócone wpływem atmosfery zdjęcia wielu gwiazd.


Teberia 30/2013 13


O T YM SIĘ MÓWI >>

Jednym z inicjatorów ekscytującego przedsięwzięcia (wcześniej także – większego i droższego satelity MOST) jest prof. Sławomir Ruciński z Warszawy, od ponad 30 lat związany z Uniwersytetem w Toronto. Jednym z pierwszych kroków w realizacji BRITE -PL było zawarcie między CBK i CAMK umowy o współpracy naukowej. Jednak kamieniem milowym okazał się przyznany na początku 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego grant inwestycyjny. Zbiegł się on w czasie z zaproszeniem polskiego zespołu do Brite Consortium (Austria i Kanada), które tworzyły Uniwersytet w Wiedniu, Politechnika w Grazu, Uniwersytet w Toronto oraz Uniwersytet w Montrealu. Polscy naukowcy otrzymali ofertę współpracy naukowej, a inżynierowie zadanie zbudowania dwóch satelitów. 14 Teberia 30/2013

BRITE to przykład możliwości osiągania spektakularnych rezultatów badawczych niskim kosztem, co jest szczególnie istotne ze względów społecznych i ekonomicznych. Powodzenie projektu będzie miało także znaczenie dla przyszłego udziału polskich naukowców i firm w bardziej skomplikowanych eksperymentach realizowanych przez Europejską Agencję Kosmiczną, do której Polska ma ambicję w najbliższej przyszłości należeć. Prof. Schwarzenberg-Czerny wyjaśnia, że „czeka nas nieformalny egzamin dojrzałości, gdyż jeśli ktoś nie zbudował żadnego kompletnego satelity, to nie powierzy mu się w ESA żadnej ważnej funkcji”. Naukowcy i inżynierowie biorący udział w projekcie podkreślają, że to co robią ma znaczenie nie tylko


dla nauki, ale też dla społeczeństwa. Dzięki BRITE zacznie się mówić w Polsce o polskich projektach kosmicznych, o szansach jakie one stwarzają młodym, ambitnym inżynierom i naukowcom. Duże zainteresowanie, z jakim spotkał się konkurs na projekt znaku graficznego i plakietki pierwszego polskiego satelity naukowego BRITE-PL jest dowodem, że BRITE to nie tylko nanosatelita, ale swoisty symbol nowego pokolenia. Laureatem został student Wydziału Elektrycznego Politechniki Warszawskiej, Krzysztof Głodowski. O tym, że BRITE to przełomowe wydarzenie nie tylko dla polskiej nauki, przekonanych jest także wielu innych młodych ludzi, m.in. zdolna studentka Wydziału Radia i Telewizji Uniwersytetu Śląskiego w Katowicach – Katarzyna Dąbkowska, która szuka pomocy podczas produkcji i promocji filmu mówiącego „o sile współpracy i o tym, że jeśli czegoś pragniemy, cały wszechświat pomaga nam to zrealizować”. – Wszyscy jesteśmy BRITE-owcami i powinniśmy wykorzystać to, że Polska otrzymała szansę wejścia w dziedzinę gospodarki światowej, którą jest przemysł kosmiczny. Inwestycje w nowe technologie i wspieranie rozwoju nauki są bodźcem dla firm do podążania za światowym postępem – przekonują twórcy projektu i trudno się z nimi nie zgodzić. jac

Teberia 30/2013 15


O T YM SIĘ MÓWI >>

Kosmiczna szansa Polski

P

olska, jako członek Europejskiej Agencji Kosmicznej (ESA), do 2017 roku powinna wykształcić nisze, w których będzie się specjalizowała. Tylko tak osiągnie sukces w ESA – mówili uczestnicy niedawnej konferencji poświęconej kondycji sektora kosmicznego. Jednym z tematów warszawskiej konferencji „Polska w kosmosie wczoraj, dziś, jutro” było członkostwo Polski w Europejskiej Agencji Kosmicznej. Do tej międzynarodowej instytucji Polska przystąpiła w listopadzie 2012 roku. „Obraz polskiego przemysłu kosmicznego i technologii kosmicznej nie jest zły, jesteśmy w dobrym punkcie. Trzeba tylko mocno pracować, aby za pięć lat rzeczywiście mieć w niej dobrą pozycję” – powiedział dyrektor Centrum Badań Kosmicznych PAN prof. Marek Banaszkiewicz. Do końca 2017 roku Polska funkcjonuje w ESA na specjalnych warunkach. „Do tego czasu wnioski, które składamy do Agencji są oceniane na dużo bardziej konkurencyjnych warunkach po to, abyśmy mogli wykształcić nisze sektora kosmicznego” - wyjaśnił Michał Moroz z portalu Kosmonauta.net. „Projekty realizowane w tym okresie mają umożliwić przejście od nieuporządkowanego sektora kosmicznego do fazy, w której będziemy mieli bardzo silny przemysł kosmiczny” – powiedział prof. Banaszkiewicz. Jak zaznaczył Moroz, najważniejszy dla naszego członkostwa w ESA będzie rok 2017, po tym okresie ulga w ESA się skończy i o fundusze z tej instytucji będziemy ubiegali się na takich samych warunkach, jak reszta państw członkowskich. „Jeśli nie wykorzystamy szansy by zbudować polski przemysł kosmiczny, to będziemy zmuszeni pozostać podwykonawcami” – powiedział Moroz. Jego zdaniem istnieje kilka nisz, które Polska może zagospodarować. Możemy specjalizować się np. w budowie małych satelitów, misjach eksploracyjnych czy instrumentach do obserwacji Ziemi. Prof. Banaszkiewicz przypomniał, że w ramach tzw. programu opcjonalnego w ESA każde państwo musi 16 Teberia 30/2013

wybrać kategorie, w których będzie rywalizowało o projekty. Polska wyłoniła sześć głównych dziedzin, to właśnie m.in. obserwacje Ziemi, zapobieganie zagrożeniom z kosmosu, programy rozwoju technologii i program eksploracyjny. Pierwszy polski konkurs na projekty finansowane w ramach ESA ogłoszono w pierwszej połowie 2013 roku. Pierwsze wyniki pojawiły się we wrześniu. Zaakceptowano 32 wnioski z 80 zgłoszonych. „Wejście Polski do ESA sprawiło, że wiele firm zaczęło interesować się wejściem do sektora kosmicznego. Powstają nowe spółki, które chcą budować swój potencjał tylko na technologiach kosmicznych. W Polsce mamy wiedzę, ale potrzebny jest duży kapitał zagraniczny, aby budować duże inicjatywy” – powiedział Moroz.


Problemy, z którymi Polska musi się zmierzyć, walcząc o projekty finansowane z ESA, to m.in. nieumiejętność współpracy między ośrodkami naukowymi a przemysłem. „Problem jest też z samym rynkiem, który dopiero uczy się sektora kosmicznego i potrzebuje więcej doświadczenia” – powiedział Moroz. Europejska Agencja Kosmiczna (ESA – European Space Agency) jest jedną z głównych agencji kosmicznych na świecie. Powstała w 1975 r. z połączenia dwóch organizacji: Europejskiej Organizacji Badań Kosmicznych (ESRO) i Europejskiej Organizacji Rozwoju Rakiet Nośnych (ELDO). Dysponuje rocznym budżetem na poziomie około 4 mld euro. Od 2007 roku Polska współpracowała z ESA jako Europejski Kraj Współpracujący. Negocjacje akcesyjne pomiędzy Polską a Europejską Agencją Kosmiczną

rozpoczęły się 28 listopada 2011 roku w Paryżu. Rozmowy zakończyły się w kwietniu 2012 roku. Zgodę na przystąpienie do konwencji ESA polski rząd wyraził w czerwcu 2012 r., a w lipcu kraje członkowskie agencji. W listopadzie ustawę ws. przystąpienia Polski do ESA podpisał Bronisław Komorowski.

źródło: PAP – Nauka w Polsce Więcej na temat polskich projektów i aspiracji kosmicznych: www.pociagdogwiazd.org

Teberia 30/2013 17


NAUKOWO >>

Kryptografia nas otacza

C

hoć przeciętnemu człowiekowi kryptografia wydaje się jedną z najbardziej „tajemnych” i skomplikowanych dziedzin nauki, posługuje się nią niemal każdy. Prawie codziennie, korzystając z Internetu czy urządzeń mobilnych, wykorzystujemy rozmaite kody i szyfry, a także algorytmy autoryzacji: wprowadzamy hasła do kont bankowych, bankomatów, telefonów, a opuszczając dom wprowadzamy kod uaktywniający instalację alarmową. Utajniamy tak wiele informacji, nie mając świadomości, że tym samym korzystamy z wielu osiągnięć współczesnej kryptografii, czyli czerpiemy z nauki, która powstała właśnie z potrzeby utajniania wiadomości lub ważnych dla nas informacji. Jej historia sięga setek lat przed naszą erą, choć pierwsze szyfry nie były tak skomplikowane jak obecnie. Dziś kryptografia wciąż odgrywa dużą rolę w dyplomacji, wojsku, wywiadzie, a także podczas opracowywania i wdrażania bardzo nowoczesnych i zaawansowanych technologii, które również w pewnym zakresie są objęte tajemnicą. Ktoś, kto opracowuje nowe rozwiązania np. w lotnictwie, obronności i wielu innych dziedzinach, często musi je chronić, dlatego utajnia się nie tylko ważne informacje tekstowe, ale też istotne dane w postaci obrazów i dźwięków. Proces szyfrowania obrazu polega na tym, żeby ukryć oryginał lub jego fragment i zastąpić go jakimś innym obrazem, który wydaje się nam zupełnie nieczytelny lub przedstawia zgoła inną treść niż oryginał. W przypadku dźwięku jest dokładnie tak samo. 18 Teberia 30/2013

Słyszymy nagranie dźwiękowe, które dla nas jest czymś innym niż nagranie rzeczywiste – i słuchając go docierają do nas szumy lub dziwne dźwięki, nie niosące za sobą pozornie żadnej zrozumiałej informacji. Wszystkie algorytmy szyfrowania mają za zadanie utajnić prawdziwą treść. Żeby to zrobić za pomocą współczesnych metod szyfrowania, musimy mieć klucz szyfrowy. Kiedyś te klucze były krótkie i proste, obecnie muszą być coraz dłuższe, gdyż moce obliczeniowe komputerów są coraz większe i pozwalają na szybsze znalezienie postaci tajnego klucza użytego do szyfrowania.

Co to jest klucz szyfrowy? Klucz szyfrowania jest to tajny ciąg znaków lub bitów, wykorzystywany do szyfrowania lub deszyfracji danych za pomocą wybranego algorytmu kryptograficznego. Współcześnie postuluje się, żeby dobre z punktu widzenia naukowego szyfry i protokoły kryptograficzne były jawne, czyli aby każdy mógł wiedzieć jak one działają, ale ich bezpieczeństwo powinno bazować na tajnym kluczu. W takim przypadku przełamanie (kryptoanaliza) szyfru sprowadza się do działań mających na celu ustalenie postaci klucza użytego podczas szyfrowania. Dla odpowiednio długich i bezpiecznych kluczy takie działania mogą jednak potrwać bardzo długo nawet dziesiątki lat pracy bardzo szybkich komputerów.


Teberia 30/2013 19


NAUKOWO >>

Kryptografia w AGH

Obecnie kryptologia jest bardzo ważną dziedziną naukową. Składa się z dwóch powiązanych ze sobą działów: kryptografii i kryptoanalizy; kryptolog szyfruje informacje, a kryptoanalityk stara się znaleźć słabe punkty systemu kodowania. Obaj muszą być specjalistami z zakresu informatyki i matematyki. Współczesna kryptografia opiera się na teorii informacji, czyli jednej z teorii, która była rozwijana już w latach 40. i 50. ubiegłego wieku, i która legła u podstaw współczesnej informatyki składającej się m.in. z teorii informacji, teorii liczb i teorii złożoności. Współcześni uczeni, kryptolodzy oraz jednostki naukowe prowadzące badania w zakresie kryptografii rozwijają głównie zagadnienia związane właśnie z teorią informacji i bardzo zaawansowaną matematyką związaną np. z algebrą. Uznanym na świecie specjalistą rozwijającym i badającym kryptografię może poszczycić się Akademia Górniczo-Hutnicza. Prof. dr hab. Marek R. Ogiela z Wydziału Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej od wielu lat uczy kryptografii i teorii szyfrów, przybliżając studentom tajniki kodowania i rozszyfrowywania informacji. – Kryptografia pasjonuje mnie od wielu lat. W połowie lat 90. zrozumiałem, że w kursach uniwersyteckich prowadzonych w naszym kraju praktycznie nigdzie nie można uczęszczać na wykłady z kryptografii. Wyjątkiem była Wojskowa Akademia Techniczna, która jakby z definicji zajmowała się takimi dziedzinami – mówi prof. Marek Ogiela.

20 Teberia 30/2013

- Dlatego zaproponowałem, aby na AGH podstawy kryptografii studenci mogli poznawać jako przedmiot obieralny. Wtedy staliśmy się, po WAT, drugą uczelnią w Polsce, na której można było zgłębiać tajniki kryptografii i bezpieczeństwa systemów komputerowych. Propozycja ta cieszyła się od początku wielkim zainteresowaniem wśród studentów. Pamiętam dobrze roczniki, z których nawet kilkadziesiąt osób zapisywało się na wykłady. Były one głównie przeznaczone dla studentów Automatyki i Robotyki, ale później zainteresowali się nimi również studenci Informatyki i Inżynierii Biomedycznej. Z radością wspominam jak nawet z kierunków socjologicznych i humanistycznych zwracano się do mnie, aby słuchaczy zapoznać z podstawami kryptografii i bezpieczeństwa. Eksperci w naukach technicznych i nowoczesnych technologii komputerowych potrzebują takiej wiedzy do wykonywania zawodu, a przedstawiciele nauk humanistycznych chcą wiedzieć, na czym polegają zabezpieczenia transmisji danych, jakie hasła są mocne itp. Chodzi o pewien rodzaj świadomości i wiedzy w jaki sposób można zagwarantować bezpieczeństwo swoich własnych, ale ważnych informacji podczas używania nowoczesnych technologii komputerowych – tłumaczy profesor.

Dobry szyfr, czyli jaki? Oczywiście taki, którego nie da się łatwo złamać. Niemniej jednak obecnie komputery mają tak wielkie moce obliczeniowe, że klucz szyfrowy musi być bardzo skomplikowany i bardzo długi, aby szybko nie został odnaleziony. Aby sprawdzić, czy szyfr jest wystarczająco dobry i bezpieczny, należy spróbować go przełamać. W tym celu można np. zbadać wszystkie klucze o tej samej długości, jaką ma klucz, który chcemy odnaleźć. Przy takiej ilości bitów, jaką obecnie mają klucze, takie zadanie może wykonać tylko komputer. Odpowiednio mocny prędzej czy później sobie z tym poradzi. Pytanie tylko – ile czasu mu to zajmie? Jeśli np. nasz klucz ma 56 bitów, a komputer odnajdzie właściwą jego postać w ciągu kilku minut, to znaczy, że nasz szyfr jest za słaby, a klucz zbyt krótki i łatwo przełamywalny. Jeśli natomiast komputer będzie potrzebował dziesiątek lub setek lat pracy, żeby znaleźć odpowiedź, to szyfr owszem jest on teoretycznie przełamywalny, ale jest także obliczeniowo bezpieczny, bo momentu rozszyfrowania już najprawdopodobniej nie doczekamy. Współczesne algorytmy bazują na coraz dłuższych kluczach.


Im silniejsze mamy komputery, tym szybciej one pracują, szybciej testują różne kombinacje bitów lub znaków, które zostały wykorzystane jako klucz szyfrowania. Aby mieć pewność, że nasz algorytm jest bezpieczny, musimy po pierwsze uwzględnić ile w ciągu sekundy współczesne superkomputery mogą wykonać porównań kluczy lub operacji szyfrowania, po drugie – przedłużyć nasz klucz, aby złamanie go zajęło komputerowi np. kilkadziesiąt lub więcej lat, czyli tyle, ile nasza tajemnica powinna być bezpieczna. Należy pamiętać, że każda informacja się starzeje i po pewnym czasie nie wymaga już chronienia. Mnie osobiście w kryptografii podobają się nie tyle same algorytmy utajniania informacji, ile metody podziału sekretów – opowiada prof. Ogiela. Co to oznacza? Dysponujemy pewną sekretną informacją, którą dzielimy na kilka części, z których każda z nich ma trafić do innej osoby. Cała grupa uprawnionych osób będzie współdzielić ten ważny sekret i gdy jej członkowie zbiorą się razem, będą w stanie go rozszyfrować, jednakże żaden z nich nie będzie mógł tego zrobić osobno. Oprócz takich metod prostego podziału sekretów w kryptografii wyróżniamy także tzw. progowe schematy podziału tajemnicy, które polegają na tym, że możemy każdej osobie z grupy wręczyć część sekretu i ustawić pewien próg (tj. liczbę wymaganych części składowych), który pozwoli odtworzyć pierwotną postać podzielonej tajemnicy. Np. jeśli z czterdziestu osób zbierze się

dziesięć, to razem stworzą rozwiązanie. Najczęściej takie środki ostrożności stosuje się w wojskowości, np. w tajnych kodach systemów rakietowych. Aby ich użyć, należy znać kod; kod dzieli się między pewną grupę zaufanych osób, jedna czy dwie osoby nie zdołają samodzielnie uruchomić sprzętu, muszą się zebrać wszyscy znający swoją cząstkę kodu. - To, czym się zajmuję na uczelni, to algorytmy podziału informacji i inteligentnego zarządzania informacją. I nie chodzi tylko o informacje niejawne, ale również o hierarchiczny przepływ informacji w różnych strukturach zarządzania. Np. w przedsiębiorstwie osoby na najniższych szczeblach zarządzania wiedzą najmniej, a im wyżej w hierarchii, tym informacja staje się pełniejsza, ale całą zna np. tylko zarząd lub sam dyrektor. Zasada jest taka sama: żaden z członków zarządu sam nie odtworzy informacji, ale gdy zbiorą się razem i każdy z nich przedstawi swoją część, będą w stanie odtworzyć całość ważnej dla firmy informacji. Takie postępowanie ma zminimalizować niebezpieczeństwo, że jakiś pracownik np. zechce sprzedać konkurencji tajemnicę firmy – tłumaczy prof. Ogiela. Teoria szyfrowania i lingwistyczne schematy progowe W Polsce jeszcze do niedawna (tj. przed transformacją ustrojową) zajmowanie się kryptografią było praktycznie zabronione. Obecnie badania takie są otwarte.- W AGH nie tylko je rozwijamy, ale odnosimy w tej dziedzinie pewne sukcesy – mówi profesor. Teberia 30/2013 21


NAUKOWO >>

Kilka tygodni temu do księgarń na całym świecie trafiła monografia na temat kryptografii i podziału sekretu, której autorami są pracownicy AGH – Marek R. Ogiela i Urszula Ogiela, pt. „Secure Information Management Using Linguistic Threshold Approach”, wydana nakładem Springer London. - Mamy już swoje bardzo oryginalne i autorskie osiągnięcia naukowe w tej trudnej, choć niezmiernie ciekawej dziedzinie. Dotyczą one metod podziału i zarządzania sekretnymi danymi – wyjaśnia prof. Ogiela. W książce autorzy proponują podział kryptografii na lingwistyczne schematy progowe i biometryczne schematy progowe, czyli połączenie informacji personalnych z wzorców biometrycznych, tj. odcisk palca, tęczówka, barwa głosu, które potrafią połączyć konkretną osobę z algorytmami szyfrowania. Natomiast lingwistyczne schematy progowe to schematy współdzielenia tajemnicy, wykorzystujące formalizmy lingwistyki matematycznej. Te schematy są rozszerzeniem tradycyjnych metod podziału sekretów w kierunku umożliwienia zarządzania informacją w sposób hierarchiczny, czyli na wielu niezależnych poziomach. Sposobem działania nasze techniki nawiązują także do tzw. kryptografii DNA, która wykorzystuje biologiczny model kodowania informacji, na wzór podobny do informacji zawartych w cząstkach kwasów nukleinowych DNA. 22 Teberia 30/2013

O kryptografii można opowiadać jeszcze długo. Ale najważniejsza jest świadomość, że chroniąc naszą codzienność, zazwyczaj ustanawiamy hasła i kody w dość przewidywalny sposób. Najczęściej są to informacje takie jak data urodzenia, imię dziecka, zwykle hasła są krótkie, aby łatwo zapadały w pamięć. A co najgorsze, wymyślamy jedno hasło i stosujemy je w wielu miejscach np. do karty bankomatowej, telefonu czy laptopa. A jak wiadomo, jeśli coś jest do wszystkiego, to jest do niczego. Jak radzą specjaliści, hasło nie powinno być jednym wyrazem zaczerpniętym ze słownika i im dłuższe, tym tym lepsze. Powinno zawierać też duże i małe litery oraz jakiś ciąg cyfr. Wtedy możemy spać… prawie spokojnie. Tekst: Ilona Trębacz, zdjęcia: Zbigniew Sulima

źródło: blog naukowy AGH


PRE ZENTAC JE >>

Laboratorium Pierwiastków Krytycznych otwarte! 2 października 2013 r. na Wydziale Geologii, Geofizyki i Ochrony Środowiska AGH odbyło się uroczyste otwarcie Laboratorium Pierwiastków Krytycznych AGH – KGHM Polska Miedź SA. Symbolicznego przecięcia wstęgi, stanowiącego o otwarciu nowoczesnego Laboratorium Pierwiastków Krytycznych, dokonali Rektor AGH prof. Tadeusz Słomka oraz przedstawiciel KGHM Polska Miedź SA – pani Agata Juzyk – Dyrektor Departamentu Badań. W uroczystości wzięli udział: dr hab. inż. Herbert Wirth – Prezes KGHM Polska Miedź, Prorektorzy, Dziekani oraz Prodziekani Wydziałów AGH, Bogusław Ochab – Prezes Zakładów Górniczo-Hutniczych „Bolesław”, przedstawiciele firmy JEOL oraz zaproszeni goście. Laboratorium Pierwiastków Krytycznych jest jednostką w strukturze Akademii Górniczo-Hutniczej, która powstała z inicjatywy Wydziału Geologii, Geofizyki i Ochrony Środowiska oraz KGHM Polska Miedź SA. Laboratorium zostało wyposażone w mikrosondę elektronową JEOL Super Probe JXA8230, która służy do analizy składu chemicznego ciał stałych w mikroobszarze. Pierwiastki krytyczne mają bardzo duże znaczenie dla nowoczesnego przemysłu, używa ich się do produkcji elektroniki, telefonów komórkowych, komputerów. Niestety ich występowanie w przyrodzie jest bardzo ograniczone. Na liście przygotowanej przez Unię Europejską znajduje się 41 pierwiastków krytycznych, m.in. lit, baryt czy tantal. Występują one zazwyczaj jako jeden ze składników minerałów. Warto nadmienić, że dawniej traktowano te pierwiastki jako odpady przy wydobywaniu innych surowców. Obecnie wraz z rozwojem elektroniki, pierwiastki krytyczne stają się coraz bardziej poszukiwane i zarazem coraz droższe. Ocenia się, że 97 proc. światowej produkcji pierwiastków krytycznych znajduje się w rękach Chińczyków w związku z tym europejski, w tym polski przemysł i nauka poszukują nowych metod ich pozyskiwania.

Niektóre pierwiastki z listy europejskiej są obecnie eksploatowane w Polsce, zaś inne były kiedyś odzyskiwane w procesach rafinacji metali. Należą do nich przede wszystkim metale takie jak ołów, cynk, kadm, nikiel, kobalt, żelazo, molibden, wanad, rtęć, cyna, uran, tor, ren; pierwiastki niemetaliczne, jak siarka, selen, bar, fluor oraz grupa pierwiastków o własnościach pośrednich: arsen, antymon i bizmut. Wymienione pierwiastki i surowce krytyczne są przedmiotem produkcji bądź poszukiwań KGHM Polska Miedź. - Widzimy potrzebę pogłębiania wiedzy w zakresie rozpoznania eksploatowanych złóż rud miedzi, jednak nie dysponujemy obecnie narzędziami do samodzielnego dokonywania badań w tym zakresie. Posiada je właśnie zespół pracowników AGH, który od wielu lat świadczy usługi w tym zakresie dla KGHM – wyjaśnia Herbert Wirth, prezes KGHM. Współpraca w ramach Laboratorium Pierwiastków Krytycznych AGH-KGHM ma przyczynić się do lepszego rozpoznania i wykorzystania obecnych i przyszłych zasobów KGHM. Intencją wspólnego projektu jest również inwentaryzacja krajowych zasobów pierwiastków krytycznych, stanowiących kluczowy element instalacji fotowoltaicznych, opracowanie i wybór technologii ich pozyskiwania oraz stworzenie studium wykonalności wytwarzania innowacyjnych paneli solarnych. Takie przedsięwzięcie pozwoli udziałowcom uzyskać dodatkowe kompetencje w dziedzinie nowych technologii wytwarzających energię ze źródeł odnawialnych. Umożliwi też uzyskanie wiedzy na temat surowców niezbędnych do produkcji paneli solarnych. Wykorzystanie paneli fotowoltaicznych do produkcji energii umożliwi również rozwój segmentu rozproszonych źródeł wytwórczych o mniejszej mocy. jac

Teberia 30/2013 23


WOKÓ Ł KLIM ATU >>

CCS: technologia o kruchych fundamentach ekonomicznych, lecz mocnych filarach prawnych

Technologia CCS służąca do wychwytywania i magazynowania dwutlenku węgla miała wspomóc polską energetykę opartą na węglu. Wsparciem tym raczej nie będzie, raczej może stanowić spory problem dla rozwoju energetyki węglowej.

Pierwszą i póki co jedyną spółka energetyczna w Polsce, która prowadzi prace badawcze nad wychwytywaniem dwutlenku węgla ze spalin jest Tauron Wytwarzanie. Przy współudziale instytucji naukowo-badawczych zostały zaprojektowane i wybudowane dwie instalacje pilotowe, które już od ponad pół roku pracują w zakładach tej spółki – Elektrowni Łaziska i Elektrowni Łagisza. W Elektrowni Łaziska działa instalacja aminowego usuwania CO2 ze spalin, a w Elektrowni Łagisza zabudowano instalację pilotową sekwestrującą CO2 ze spalin metodą zmiennociśnieniową. Koszty zbudowania instalacji pilotowej, w wysokości 8,8 mln zł, zostały pokryte ze środków Grupy Tauron. – Wspólnie z Tauronem opracowaliśmy unikalną w skali światowej, będącą przedmiotem zgłoszenia patentowego, instalację do usuwania CO2 na stałych sorbentach – mówi Wojciech Nowak, profesor Politechniki Częstochowskiej. Pierwsze wnioski z pracy pilotowych instalacji do separacji dwutlenku węgla ze spalin kotłowych poznali uczestnicy konferencji organizowanej wspólnie przez Akademię Górniczo-Hutniczą i Tauron Wytwarzanie, na początku listopada w Krakowie. – Pierwsze doświadczenia z naszej instalacji CCS są pozytywne – zapewnia Stanisław Tokarski, prezes zarządu Tauron Wytwarzanie. - Wyniki prowadzonych badań przyczynią się do optymalizacji układów usuwania CO2 ze spalin oraz opracowania założeń procesowych do budowy tego typu instalacji w większej skali.

24 Teberia 30/2013


Teberia 30/2013 25


WOKÓ Ł KLIM ATU >>

Nyos straszy

O ile wychwytywanie CO2 nie jest problemem i jak się okazuje może być nawet efektywne, o tyle problem pojawia się, gdy dwutlenek węgla trzeba zatłoczyć pod ziemię. Przekonał się o tym koncern Vattenfall, który uruchomił pierwszą w świecie instalację pilotażową elektrownię z instalacją w Schwarze Pumpe. W mini elektrowni uzyskującej moc 30 MW i spalającej węgiel brunatny dwutlenek węgla miał być skraplany, a następnie przewożony cysternami do położonego o ponad 200 km wyczerpanego złoża gazu ziemnego w Altmark. Tak miało być, tyle, że firma nie mogła dogadać się z władzami lokalnymi i dwutlenek zamiast trafiać pod ziemię, trafiał… w powietrze, a tylko niewielką jego część odbierały zakłady chemiczne. Składowanie CO2 rodzi bowiem obawy społeczne dotyczące niekontrolowanego wycieku gazu z miejsca składowania. Przeciwnicy tej technologii bardzo często przytaczają przykład kameruńskiego jeziora Nyos (pod jego dnem znajduje się naturalny zbiornik CO2), gdzie w 1986 r. na skutek podwodnej erupcji wulkanu i ruchów tektonicznych doszło do uwolnienia ok. 1,6 miliona ton tego gazu. Na powierzchni stosunkowo niewielkiego zbiornika wody powstała kilkunastometrowa, niszcząca wszystko na swej drodze, fala tsunami. Ponieważ zdarzenie miało miejsce w rozległej niecce, a pogoda była bezwietrzna, gaz, cięższy od powietrza, wyparł je i wypełnił zagłębienia terenu. Powodem śmierci ok. 1700 ludzi i tysięcy zwierząt było uduszenie. Propagatorzy technologii CCS odpierają rzecz jasna ataki i obawy twierdząc, że podziemne składowisko ma być monitorowane przez system czujników, służby naziemne i samoloty, naszpikowane najnowocześniejszą elektroniką. W razie wykrycia zagrożenia zostanie ogłoszony alarm, a pozostające cały czas w pogotowiu służby ratunkowe przeprowadzą błyskawiczną ewakuację ludności z zagrożonego terenu. Choć możliwości składowania w Europie są prawdopodobnie wystarczające (w projekcie unijnym GeoCapacity oceniono, że Europa ma potencjał składowania CO2 na poziomie 300 mld ton, co wystarczy do zmagazynowania całej europejskiej emisji na wiele nadchodzących dekad) to jednak niektóre państwa członkowskie wprowadziły zakaz składowania CO2 na swoim terytorium (np. Austria) lub ograniczenia tego typu działalności. To się odnosi do Polski.

26 Teberia 30/2013

Tylko pod Bałtykiem

Nowo przyjęte polskie regulacje dotyczące składowania dwutlenku węgla są jednymi z najbardziej restrykcyjnych w Unii Europejskiej, co zresztą było do przewidzenia, gdyż polski rząd od dawna sprzeciwiał się wdrożeniu unijnej dyrektywy CCS w Polsce. Były już minister środowiska Marcin Korolec powiedział, że technologia CCS jest droga, niesprawdzona i być może nawet niebezpieczna dla środowiska. Odpowiedzialny za nie Główny Geolog Kraju zapewnia dziś, że taka operacja będzie bezpieczna dla środowiska. W rzeczywistości najprawdopodobniej niewielu przedsiębiorców zdecyduje się na stosowanie technologii CCS ze względy na wysokie koszty i surowe przepisy. – Mamy chyba najbardziej restrykcyjną ustawę o przechowywaniu i składowaniu dwutlenku węgla pod ziemią. Wskazujemy praktycznie tylko jedną strukturę geologiczną, w której pozwalamy na składowanie, ale tylko jeśli spełnione są dwa główne warunki: jest to projekt demonstracyjny i wymieniony w jednej decyzji KE – mówi agencji informacyjnej Newseria Biznes Piotr Woźniak, Główny Geolog Kraju i wiceminister środowiska. W połowie listopada ustawę o podziemnym składowaniu CO2 (czyli nowelizację Prawa geologicznego i górniczego, wdrażającą unijną dyrektywę CCS) podpisał prezydent Bronisław Komorowski. Jak podkreśla wiceminister, trwają prace nad 23 rozporządzeniami, niezbędnymi do wdrożenia przepisów ustawy. Dwa z nich już są prawie gotowe, pozostałe powinny być w ciągu kolejnych dwóch miesięcy. Zgodnie z przepisami, na miejsce składowania gazu został wyznaczony Bałtyk. Tu, jak zapewnia Główny Geolog Kraju, techniczne warunki składowania mają być bezpieczne. Żeby skorzystać z technologii CCS, trzeba będzie uzyskać koncesje od ministra środowiska. – To będzie działalność wyłącznie na wniosek przedsiębiorcy, który, by móc ją prowadzić, oprócz spełnienia standardowych warunków koncesyjnych, musi złożyć cały szereg zabezpieczeń, w tym finansowe. Musi zobowiązać się do dwudziestoletniego monitorowania składowiska na własny koszt, a następnie przekazania monitoringu do specjalnie powołanej jednostki administracyjnej, Krajowego Administratora Podziemnych Składowisk Dwutlenku Węgla. Następnie KAPS, również na koszt przedsiębiorcy, przez następne 50 lat będzie monitorować to składowisko. A później te zadania zostaną przejęte w pełni przez państwo – informuje Piotr Woźniak.


Wiceminister środowiska podkreśla, że koszty takiej operacji będą wysokie i niewielu przedsiębiorców będzie w stanie je ponieść. – Przedsiębiorca musi być mocną firmą z bardzo pewnymi fundamentami finansowania. W innym przypadku koncesja nie zostanie wydana – mówi wiceminister.

Z uwagi na to, że najwięksi polscy emitenci CO2 zlokalizowani są na południu kraju, wprowadzona ustawa praktycznie uniemożliwia stosowanie CCS, gdyż aby połączyć źródła CO2 z miejscami jego składowania, konieczna jest odpowiednia kosztowna infrastruktura transportowa, a jej zwyczajnie nie ma i nie zapowiada się, by kiedykolwiek powstała.

Wychwytywanie CO2 Technologie wychwytywania dwutlenku węgla są już rozpoznane i stosowane w przemyśle, lecz aby umożliwić ich zastosowanie w dużych elektrowniach, należy je odpo‑ wiednio dostosować i udoskonalić. Obecnie w procesach energetycznych rozwijane są następujące technologie wy‑ chwytywania CO2: 1. Post‑combustion, czyli wychwytywanie CO2 ze spalin, co odbywa się po spaleniu paliwa w kotłach zasilanych powietrzem („wychwyt po spalaniu”),

2. Oxyfuel, co także oznacza wychwytywanie CO2 ze spalin, jednak w tym przypadku proces ten odbywa się po spaleniu paliwa w kotłach zasilanych mieszaniną tlenu i dwutlenku węgla („spalanie w tlenie”), 3. Pre‑combustion, co oznacza wychwycenie CO2 przed spalaniem gazu otrzymanego w procesie zgazowania węgla (wychwyt przed spalaniem”), 4. Sekwestracja w produktach chemicznych.

Teberia 30/2013 27


WOKÓ Ł KLIM ATU >> PGE przyznało, że instalacja CCS przeznaczona dla EC Bełchatów nie powstanie przed rokiem 2015. Bardziej prawdopodobny jest rok 2016, o ile zostaną przyznane kolejne dotacje. Otrzymane 180 mln euro (zamiast planowanych wcześniej 250 mln) wystarczą jedynie na wykonanie części instalacji. PGE wstrzymało zatem podpisanie umowy na budowę obiektu z firmą Alstom, gdyż bez wsparcia finansowego inwestycja jest nieopłacalna. Koncern szacuje, że koszt podziemnego składowania jednej tony CO2 szacuje się na 50 do 70 euro, a ponadto należy zbudować pilotażową instalację za 2,3 mld zł. Ostatecznie PGE wycofało się z planowanej budowy instalacji CCS dla Elektrowni Bełchatów. Zresztą o tym, że CCS jest zbyt kosztowny dla polskich przedsiębiorców było wiadomo już znacznie wcześniej. Gdy kilka lat temu Komisja Europejska tworzyła listę demonstracyjnych instalacji CCS, które miały uzyskać wsparcie unijne, z Polski znalazły się na liście projekty Elektrowni Bełchatów, Zakładów Azotowych Kędzierzyn i Vattenfall. Wszyscy jednak wycofali się z tych pomysłów ze względu na koszta.

Schemat‑CCS

28 Teberia 30/2013

Przykręcić śrubę...

Graeme Sweeney z Zero Emission Platform przyznał niedawno w Parlamencie Europejskim, że aby w Unii Europejskiej rozwijały się inwestycje w technologię wychwytu i składowania CO2, potrzebna jest wyższa cena pozwoleń na emisję CO2 i nowy cel redukcji emisji do 2030 r. „Jesteśmy zawiedzeni liczbą (pełnych projektów demonstracyjnych CCS), jaką teraz mamy.


Jest pięć projektów w ramach systemu (wsparcia) ogłoszonego przez rząd Wielkiej Brytanii. Mamy dwa działające projekty (demonstracyjne) o dużej skali w Norwegii, jest rozwijany projekt w Holandii. Spodziewamy się kilku ukończonych projektów o dużej skali w ciągu 4-5 lat” – wymienił Sweeney. Wtórował mu Charles Soothill z firmy energetycznej Alstom, która jest zaangażowana w projekty CCS. – Jeśli nie wiemy, jaka będzie cena w długim okresie, nie mamy mechanizmu inwestycyjnego. Żeby inwestorzy podejmowali pozytywne decyzje, musi być silna cena (pozwoleń na emisję CO2) i jasność co do ceny w przyszłości. Zaznaczył, że by uwolnić inwestycje w CCS, cena pozwolenia na emisję tony CO2 powinna wynosić ponad 30 euro w 2030 r. i wzrosnąć do 70 euro w 2050 r. Obecnie cena pozwoleń na emisję 1 tony CO2 waha się obecnie pomiędzy 4 a 5 euro. Problem w tym, że CCS mimo wciąż kruchych podstaw merytorycznych (tj. nie broni się ekonomicznie) wciąż odgrywa ważną rolę – nazwijmy to – administracyjną. Unijna dyrektywa CCS, mówiąca o technologii wychwytywania dwutlenku węgla, precyzuje m.in. że

jednym z warunków uzyskania pozwolenia na budowę każdej nowej instalacji o mocy większej niż 300 MW jest wykonanie analizy tzw. CCS readiness. A to oznacza, że pozwolenie może przypaść tym przedsiębiorcom, którzy przeprowadzili ocenę, czy spełnione są następujące warunki: – dostępne są odpowiednie składowiska, – instalacje transportowe są wykonalne technicznie i ekonomicznie, – modernizacja pod kątem wychwytywania CO2 jest wykonalna technicznie i ekonomicznie.

Nielegalne Opole?

Dotychczas Polska nie zaimplementowała do krajowego prawa tzw. dyrektywy CCS (jest w trakcie, o czym wyżej wspominaliśmy). To wystarczyło, że kilku eurodeputowanych związanych z organizacjami ekologicznymi wystosowało w tym roku interpelację do Komisji Europejskiej, a ściślej do komisarz UE ds. klimatu Connie Hedegaard z pytaniem czy planowana budowa przez PGE nowych bloków w Elektrowni Opole jest legalna w świetle unijnego prawa? To samo zrobiła fundacja ekologiczna ClientEarth, która złożyła skargę do Komisji Europejskiej przeciwko

Teberia 30/2013 29


WOKÓ Ł KLIM ATU >> rządowi polskiemu w sprawie rozbudowy elektrowni w Opolu i wdrożenia dyrektywy CCS. – Stanowisko Komisji Europejskiej potwierdza naszą ocenę, że w ramach procedury przygotowania rozbudowy Elektrowni Opole naruszono prawo UE. Przyjęcie przez polski parlament w czerwcu tego roku ustawy w sprawie podziemnego składowania dwutlenku węgla nie kończy sprawy, ponieważ pozwolenie na budowę dla nowych bloków Elektrowni Opole zostało wydane już kilkanaście miesięcy wcześniej – ocenia Michał Olszewski, rzecznik ClientEarth Poland w rozmowie z Wirtualnym Nowym Przemysłem. Komunikat KE informuje, że na całym świecie z powodzeniem realizuje się już ponad 20 projektów demonstracyjnych. Dwa z nich są eksploatowane w Europie (w Norwegii), ale żaden na terytorium UE. Sęk w tym, że większość z nich polega na przemysłowym zastosowaniu wychwytywania CO2 na potrzeby takich sektorów, jak przetwarzanie ropy naftowej i gazu lub produkcja chemiczna. W ośmiu z tych projektów realizowany jest pełny łańcuch CCS. Pięć z nich jest rentownych dzięki poprawie odzyskiwania ropy naftowej: dwutlenek węgla jest w nich wykorzystywany do zwiększania wydobycia ropy (technika EOR). Jednak do tej pory nie zastosowano CCS na większą skalę do przeciwdziałania zmianom klimatu. Dopiero w przyszłym roku w Europie może ruszyć budowa pierwszej komercyjnej instalacji wychwytywania i składowania CO2. „Rotterdam Capture and Storage Demonstration Project” (ROAD) to inicjatywa niemieckiego koncernu E.ON Benelux oraz francuskiego GDF SUEZ Energie Nederland. Dwutlenek węgla będzie przesyłany z położonej w pobliżu Rotterdamu w Holandii elektrowni Maasvlakte rurociągiem do oddalonego 20 km od wybrzeża Morza Północnego wyczerpanego złoża gazu ziemnego, w którym będzie składowany. Koszt inwestycji jest szacowany na 1,2 mld euro. ROAD ma udowodnić, że technologia CCS jest ekonomicznie opłacalna oraz może być stosowana na wielką skalę przy elektrowniach i w przemyśle energochłonnym.

Jakub Michalski

30 Teberia 30/2013


Teberia 30/2013 31


NA OKŁ ADCE >>

Nowe Prądy Na niepewnym rynku energii wciąż ważą się losy pojazdów elektrycznych. Ropa z łupków, która popłynie w najbliższych latach z USA oraz coraz bardziej wyśrubowane normy emisji spalin uderzają w największe zalety elektryków: relatywnie niskie ceny paliwa i brak bezpośredniej emisji zanieczyszczeń.

Hybrydy ciągle górą

Mimo tego sprzedaż samochodów elektrycznych stopniowo rośnie, choć tempo tego wzrostu wciąż nie zadowala zwolenników radykalnej dekarbonizacji transportu. Gdzieniegdzie można nawet zauważyć rodzącą się modę na auta elektryczne: w Norwegii, gdzie na dostawę fabrycznie nowych modeli Tesli S trzeba czekać niemal pół roku, używane modele sprzedaje się po cenach wyższych niż te proponowane przez dealerów. 32 Teberia 30/2013


W

edług raportu Global Ev Outlook, opublikowanego w kwietniu przez Międzynarodową Agencję Energetyczną, liczba samochodów elektrycznych między rokiem 2011 a 2012 wzrosła o ponad połowę, a ogólna liczba pojazdów tego typu osiągnęła pułap 0,02% wszystkich samochodów. Liczby te jednak dotyczą nie tylko pojazdów w pełni elektrycznych, ale i hybrydowych, które tylko pomocniczo korzystają z silnika elektrycznego. Takie rozwiązanie wydatnie zmniejsza ilość pochłanianego paliwa, zwłaszcza podczas jazdy miejskiej, jednak niewielka pojemność ich baterii sprawia, że wciąż bliżej im do samochodów spalinowych niż stuprocentowo elektrycznych. Mimo tego EVI (Electric Vehicles Initiative), organizacja skupiająca kraje, w których jeździ łącznie 90% wszystkich pojazdów elektrycznych, stawia sobie za cel zwiększenie udziału samochodów elektrycznych i hybrydowych w transporcie do poziomu 2% w 2020 roku. Polska niestety nie jest członkiem grupy EVI. Samochody elektryczne sprzedają się u nas nie najlepiej - w zeszłym roku nabywców znalazło zaledwie kilkadziesiąt sztuk, w porównaniu do 270 tyś. wszystkich nowych aut osobowych. Wysoka cena i brak stacji ładowania skutecznie odstraszają potencjalnych klientów. Tak jak wszędzie na świecie, lepiej od aut elektrycznych sprzedają się u nas hybrydy, z których korzystają niektóre firmy flotowe czy korporacje taksówkarskie. Cena tych samochodów jest tylko nieznacznie wyższa od ceny aut spalinowych, a ich wyjątkowo niskie spalanie pozwala liczyć na szybki zwrot inwestycji. Szansą na rozwój infrastruktury mogłyby być firmy leasingujące lub wypożyczające samochody elektryczne. Próbę wejścia na ten rynek podjęła spółka Polenergia, która pod szyldem e+ miała oferować wynajem samochodów Mitsubishi i-MiEV oraz sieć punktów ładowania. Jednak wchodzące na rynek pojazdy elektryczne zderzyły się ze słabnącą gospodarką. – Mamy kryzys, firmy oszczędzają, brakuje systemu wsparcia dla samochodów elektrycznych – mówi Polityce Katarzyna Siekowska, prezes spółki e+ – Nasza oferta nie spotkała się z dużym zainteresowaniem. Musimy wycofać się z tej działalności – dodaje. W tym roku z rynku zniknął również izraelski startup Better Place, który próbował zbudować sieć stacji szybkiej wymiany baterii. Teberia 30/2013 33


NA OKŁ ADCE >> System ten miał być konkurencją dla ładowarek, jednak mimo zgody Renault i Nissana na dostosowania swoich pojazdów do standardów firmy, opracowania technologii szybkiej wymiany baterii oraz ponad 900 sprzedanych samochodów, w maju Better Place ogłosił upadłość. Wydaje się, że jeszcze przez długi czas samochody elektryczne w Polsce pozostaną domeną dość zamożnych pasjonatów lub przedsiębiorców, którzy często korzystają z samochodów elektrycznych w celach wizerunkowych i marketingowych. Samochody elektryczne, choć reklamowane głównie jako pojazdy miejskie, paradoksalnie lepiej odnalazły by się na wsi lub na przedmieściach, gdzie większość osób ma własne garaże, w których można samochody ładować. Dopóki nie powstanie gęsta sieć ładowarek wewnątrz miast, nie ma co liczyć na mieszkańców bloków czy kamienic. – Trzeba się zastanowić nad modelem biznesowym działania publicznych stacji ładowania. W Holandii inwestują w nie hotele, tak samo jak w darmowe wi-fi. Nie zależy im na sprzedaży prądu, tylko na tym, by klient wszedł do środka i zjadł lunch. W tym czasie samochód zostanie przygotowany do dalszej jazdy. W podobny sposób mogą przyciągać klientów galerie handlowe – mówi Pulsowi Biznesu Wojciech Dziwisz kierownik ds. rozwoju biznesu eMobility w polskim oddziale spółki ABB.

Jajko czy kura?

Na przeszkodzie ambitnym celom EVI stoją wciąż te samy trudności. Po pierwsze, cena akumulatorów sprawia, że samochody elektryczne są o wiele droższe od ich spalinowych odpowiedników. Po drugie, ich niewielki zasięg i niewielka ilość stacji ładowania utrudnia lub wręcz uniemożliwia korzystanie z nich przez osoby nieposiadające własnego garażu. Wyjściu z tego zaklętego kręgu mają służyć różnego rodzaju dotacje, prezenty i bonusu, z których korzystać mogą właściciele aut elektrycznych oraz budowanie infrastruktury przez samorządy. Wzorowym przykładem takich działań jest malutka Estonia, która wraz z firmą ABB zbudowała jedną z najgęstszych sieci stacji ładowania w Europie. W ramach finansowanego z budżetu państwa programu zbudowano 163 punkty szybkiego ładowania, rozmieszczone równomiernie na całej powierzchni kraju. Swoją stacje ma każda miejscowość zamieszkana przez przynajmniej 5000 osób, a odległość między stacjami to 40-60 km. Przy niektórych stacjach działają dodatkowo wypożyczalnie samochodów elektrycznych, 34 Teberia 30/2013

by każdy mógł spróbować jazdy elektrykiem. Estonia wspomaga również rozwój rynku aut elektrycznych poprzez system wyjątkowo hojnych grantów: nabywca nowego samochodu elektrycznego może liczyć na wsparcie o maksymalnej wysokości 18.000 Euro oraz dodatkowe ułatwienia: dofinansowanie zakupu ładowarki, darmowy parking w większych miastach Estonii. Relatywnie wysoka ilość samochodów elektrycznych w Estonii (jeden elektryczny na tysiąc spalinowych), co plasuje ją na drugim miejscu, zaraz po Norwegii (cztery samochody elektryczne na tysiąc spalinowych) również jest wynikiem działań rządowych. Większość pojazdów elektrycznych na estońskich drogach to kupione przez państwo Mitsubishi i-MiEV, z których korzystają zatrudnieni przez samorządy pracownicy socjalni.

Brakujące gniazdka

Poza Europą liderem elektryfikacji transportu jest uboga w paliwa kopalne Japonia. W tym roku liczba szybkich ładowarek osiągnęła tam dwa tysiące, co oznacza, że jest ich „zaledwie” dwadzieścia razy mniej niż tradycyjnych stacji benzynowych. W ramach ambitnego programu rządowego do 2020 roku w Japonii znaleźć ma się sześć tysięcy szybkich i 2 mln wolnych ładowarek – przy takim zagęszczeniu korzystanie z samochodów elektrycznych przestanie być uciążliwe dla osób, które nie mogą korzystać z ładowarki we własnym garażu. Własną sieć ładowarek rozwija amerykańska Tesla.


info, który umożliwia jego członkom udostępnienie swojego gniazdka przygodnym podróżnym w potrzebie. Żeby skorzystać z serwisu wystarczy zapisać się do niego na stronie internetowej i określić warunki, na jakich właściciele samochodów elektrycznych będą mogli korzystać z naszego prądu. Ładowarki udostępniają także niektórzy dostawcy energii – w Warszawie jest już 12 ładowarek obsługiwanych przez RWE – oraz dealerzy niektórych marek. Już w przyszłym roku sieć stacji rozlokowana wzdłuż autostrad ma umożliwić klientom Tesli przejazd z San Francisco do Nowego Jorku. Tesla udostępnia przy tym dwa systemy ładowania: darmowe szybkie ładowarki, gdzie w 30 minut można uzyskać dość energii, by przejechać 300 km oraz płatny system „battery swap”, czyli wymiany pustej baterii na nową. Takie tankowanie trwa półtorej minuty i wykonywane jest w pełni automatycznie przez specjalną maszynę. W Polsce sieć ładowarek zagęszcza się powoli. Wciąć brakuje zdecydowanego działania samorządów, nie ma też właściwie rządowych programów wspierających rozwój rynku aut elektrycznych. Niektóre miasta zwalniają właścicieli samochodów elektrycznych z opłat za parkowanie, jednak, jak pokazuje przykład Norwegii, dopiero hojne dopłaty połączone z licznymi zwolnieniami z podatków, możliwością korzystania z buspasów i zwolnieniem z opłat drogowych kreują duży popyt. A jeśli marchewka nie zadziała, pozostaje zawsze metoda kija. Do sukcesu Tesli w Norwegii niewątpliwie przyczynił się system karnych podatków (istniejący jeszcze przed pojawieniem się samochodów elektrycznych na rynku), nakładanych na sprzedaż samochodów o dużych silnikach. W konsekwencji Tesla S jest o ok. 100 tyś dolarów tańsza niż porównywalnej klasy samochód marki BMW czy Mercedes. W Polsce konsekwencją braku działań odgórnych jest pojawianie się inicjatyw oddolnych. Jedną z nich jest serwis Ecomoto.

Elektryczni pionierzy

To, co sprawia, że producenci mogą reklamować auta elektryczne jako tańsze od spalinowych, to nieporównywalnie niższe koszty ich eksploatacji. Żeby jednak samochód miał szansę zrekompensować niskim kosztami paliwa wysoką cenę akumulatorów, musi być eksploatowany intensywnie. Dlatego też naturalnymi nabywcami takich pojazdów są różnego rodzaju firmy i przedsiębiorstwa z branży transportowej. – Można orientacyjnie przyjąć, że koszt paliwa dla przejechania 100 km autobusem spalinowym to około 180-200 zł, podczas gdy koszty prądu dla autobusu elektrycznego na tym samym dystansie to około 60 zł. Rzeczywiste koszty zależą od ukształtowania terenu, liczby pasażerów, używania klimatyzacji itd. Zawsze jednak koszt przejechania 100 km autobusem elektrycznym jest 3-5 razy tańszy niż jazda autobusem spalinowym – mówi Mateusz Figaszewski ze spółki Solaris Bus&Coach. We Francji szlaki przeciera państwowa poczta, która już posiada w swej flocie auta elektryczne, a do 2015 roku chce zwiększyć ich liczbę do dziesięciu tysięcy. W Wielkiej Brytanii dostawca energii elektrycznej i gazu Brtish Gas planuje wymienić 10% swoich pojazdów spalinowych na elektryczne. W Polsce pionierem elektryfikacji transportu może zostać borykający się problemami czystości powietrza Kraków. Od sierpnia przyszłego roku firma Mobilis Group będzie Teberia 30/2013 35


NA OKŁ ADCE >> obsługiwać 13 linii komunikacji miejskiej, między innymi przy użyciu autobusów elektrycznych. Według dotychczasowych ustaleń jedna z tych linii ma być obsługiwana wyłącznie przy użyciu pojazdów jeżdżących na prąd. Prawdopodobnym dostawcą części maszyn do obsługi tych tras jest AMZ Kutno, który oferuje m.in. autobus elektryczny City Smile o zasięgu 240 km. Na grudzień planowane jest spotkanie przedstawicieli Mobilisa, Tauronu i Zarząd Infrastruktury Komunalnej i Transportu poświęcone budowie sieci ładowarek dla autobusów. Niewykluczone, że będą z nich mogli korzystać również posiadacze prywatnych elektryków, choć umiejscowienie ładowarek na pętlach, gdzie autobusy miałby „doładowywać” akumulatory w ciągu dnia, stawia pod znakiem zapytania ich przydatność dla celów innych, niż transport publiczny. Plany zakupu własnych pojazdów elektrycznych ma również krakowskie MPK. We Wrocławiu zaś planowany jest projekt e-BUS, który ma zostać zrealizowany przez miasto i firmę Tauron. Program łączyć ma rozwój elektrycznego transportu i zdobywanie doświadczeń przez dystrybutora energii. – Najważniejsze z korzyści to rozwój inteligentnych sieci energetycznych tzw. Smart Grid, poprawa efektywności energetycznej oraz zdobycie

36 Teberia 30/2013

doświadczeń w zakresie magazynowania energii mówi Piotr Kołodziej, prezes TAURON Dystrybucja. – Głównym celem projektu e-BUS będzie poprawa niezawodności i jakości energii elektrycznej w sieci dystrybucyjnej. Umowa pozwoli zrealizować projekt zupełnie innowacyjny i to nie tylko w skali Polski – dodaje. Zanim jednak elektryczne autobusy zdobędą ulice polskich miast, polskie autobusy mają szansę na sukces na zachodzie. Krajowi producenci pojazdów elektrycznych budują sobie bowiem mocną pozycję na międzynarodowym rynku, zwłaszcza w branży transportu zbiorowego. Jednym z liderów na tym rynku ma szansę zostać Solaris, którego autobusy Urbino Electric umożliwiają dostosowanie sposobu ładowania do dostępnej infrastruktury. Można ładować je za pomocą tradycyjnego sposobu plug-in, czyli przez wtyczkę wpinaną do terminala znajdującego się na stacji ładowania. Drugim sposobem jest ładowanie indukcyjne. Ładowarki mogą zostać umieszczone pod płytą przystanków, dzięki czemu autobus może „doładowywać” akumulatory bezstykowo, podczas krótkich postojów na przystankach, a kierowca może uruchomić ładowanie bez konieczności opuszczania kabiny pojazdu.


Trzecim sposobem, również niewymagającym interwencji kierowcy, jest ładowanie za pomocą umieszczonej na dachu instalacji, która za pomocą specjalnego wysięgnika sama podłącza się do źródła zasilania na przystankach lub na pętli i błyskawicznie ładuje baterie. – Przy stacjach ładowania odpowiednio rozlokowanych na trasie przejazdu kilkanaście czy kilkadziesiąt sekund postoju na przystankach absolutnie wystarczy, by autobus jeździł praktycznie non stop – mówi Pulsowi Biznesu Mateusz Figaszewski. – Na jednym ładowaniu nasz autobus może dzisiaj pokonać ok. 100 kilometrów, uwzględniając oczywiście pasażerów i włączoną klimatyzację. Wystarczy to w wielu sytuacjach, na przykład na płytach lotniska, gdzie autobusem podwozi się pasażerów do samolotów, czy w mniejszych miastach. Jednak w większym mieście autobus pokonuje dziennie średnio 350 kilometrów, więc musiałby by być trzy razy doładowywany. I to jest na dzisiaj największe wyzwanie dla naszych inżynierów – infrastruktura zewnętrzna – dodaje.

się do nich i przestali tratować te pojazdy jak niepotrzebną fanaberię finansowaną z pieniędzy podatników. Laboratoria na całym świecie prześcigają się w poszukiwaniach nowych, tańszych baterii lub wydajniejszych superkondensatorów – być może badania nie byłyby tak intensywne, gdyby nie zainteresowanie samochodami eklektycznymi. W dyskusji między miłośnikami benzyny a fanami elektryków powracają wciąż te same słowa: cena, zasięg, spaliny. A przecież transportowanie ludzi i towarów nie jest w obecnych czasach jedynie kwestią wygodą – to równie kluczowa dziedzina życia społecznego współczesnych państw jak służba zdrowia czy obronność. Warto zatem spojrzeć na kwestię samochodów elektrycznych nie tylko przez pryzmat ich ceny czy ekologiczności. Może ostatecznie bardziej opłaca się zapłacić więcej za autobus z Wielkopolski i prąd ze Śląska niż za ropę płynącą z odległych i nie zawsze przyjaźnie nastawionych krajów? Piotr Pawlik

Pieniądze to nie wszystko

Wbrew czarnym wizjom sceptyków samochody elektryczne powoli stają się codziennością. Dwa procent, o które walczy EVI, to być może niewiele, ale wystarczy, by uczestnicy ruchu przyzwyczaili Teberia 30/2013 37


NA C Z A SIE >>

Volvo zapowiada zmierzch tradycyjnych baterii

W

szwedzkiej firmie samochodowej Volvo powstał rewolucyjny projekt bardzo lekkich akumulatorów, które istotnie poprawią wydajność samochodów elektrycznych. Nowe baterie wykorzystują nanostruktury, kondensatory o dużej pojemności oraz włókna węglowe – dlatego są znacznie lżejsze od tradycyjnych akumulatorów, bardziej wydajne, zajmują mniej miejsca w samochodzie i są przyjazne środowisku. Akumulatory to obecnie najsłabsze ogniwo w procesie rozwoju samochodów elektrycznych i hybrydowych. Są ciężkie, drogie, mają stosunkowo niewielką pojemność i nie można ich dowolnie kształtować. Odpowiedzią na te problemy jest najnowszy projekt współfinansowany ze środków unijnych, którym kieruje londyński Imperial College. Wśród pozostałych ośmiu członków grupy badawczej Volvo jest jedynym producentem samochodów. Badania trwały trzy i pół roku. W ich wyniku powstały specjalne panele, w które wyposażono eksperymentalny egzemplarz Volvo S80. Nowe rozwiązanie to połączenie nanomateriału, powstałego z włókien węglowych i żywicy polimerowej, oraz kondensatorów dużej pojemności (tzw. superkondensatorów). Sprasowane włókna węglowe pozwalają się dowolnie kształtować, co pozwala dopasować kształt baterii do karoserii i wykorzystać każdy fragment wolnego miejsca (panele drzwiowe, pokrywa bagażnika, wnęka koła zapasowego). Kolejne warstwy włókien najpierw są ze sobą sklejane, następnie formowane w pożądany kształt, a na koniec utrwalane w piecu. Superkondensatory są zintegrowane z wierzchnią warstwą materiału. Może on być użyty praktycznie w dowolnym miejscu w aucie, całkowicie zastępując obecne akumulatory. Tak zbudowane baterie gromadzą energię odzyskiwaną podczas hamowania, można je też ładować z sieci elektrycznej. Dotychczasowe eksperymenty pokazały, że nowy materiał nie tylko potrafi naładować się szybciej niż tradycyjne baterie, ale też jest mocniejszy i bardziej elastyczny. 38 Teberia 30/2013

Na razie w Volvo powstały dwa próbne komponenty: pokrywa bagażnika oraz osłona silnika. Są testowane w modelu Volvo S80. Zamieniona w baterię klapa bagażnika, sama sterowana elektrycznie, może z powodzeniem zastąpić obecnie stosowane akumulatory. Jest lżejsza od tradycyjnej pokrywy, dodatkowo wpływając na obniżenie wagi samochodu.

Masa samochodu może być zmniejszona o 15 procent. Istnieje potencjał do dalszego redukowania wagi.

Materiał może być ładowany przez: 1. Wykorzystanie energii wytworzonej w trakcie hamowania samochodu, 2. Podłączenie zasilania do sieci elektrycznej.


„Elektryczna” osłona silnika może zaś przy okazji posłużyć jako belka usztywniająca (znana z samochodów sportowych) oraz akumulator wykorzystywany przez system start-stop. Jest przy tym o ponad połowę lżejsza i ma pojemność wystarczającą do zasilania 12-woltowej sieci w samochodzie. Ocenia się, że zastąpienie stosowanego obecnie układu akumulatorów nowym materiałem pozwoli na obniżenie całkowitej masy samochodu o 15 procent. Wpłynie to na obniżenie kosztów produkcji i utrzymania auta; zyska też środowisko naturalne.

Panele karoserii służące jako baterie Tanie nanomateriały wykonane z niezwykle cienkiego i mocnego włókna węglowego zastępują w samochodzie stalowe elementy karoserii, mogą być zastosowane w dachu, drzwiach, masce i podłodze. Panele są w stanie podwoić moc akumulatora.

Oczekiwany zasięg to 130 km, przy wykorzystaniu drzwi, dachu i pokrywy.

elektrony

jony

włókno węglowe włókno szklane

Panele nadwozia ulegają wyładowaniu tylko kiedy silnik elek‑ tryczny jest w użyciu.

włókno węglowe

Teberia 30/2013 39


TRENDY >>

Czy można stąd zadzwonić na miasto? - kilka refleksji o ewentualnej przyszłości telefonii stacjonarnej.

40 Teberia 30/2013


Przywołane pytanie, zadane w kultowej komedii „Seksmisja”, której akcja przypada na rok 2044, brzmi dziś dość archaicznie. Ale bohaterowie – Max i Albert zostali poddani hibernacji w roku 1991 i nie zdają sobie sprawy, w jakiej rzeczywistości się obudzili. Zresztą i nam, w roku 2013, trudno wyobrazić sobie, jak będzie wyglądał świat za lat 30, szczególnie zaś, w jaki sposób i za pomocą czego będziemy „dzwonić na miasto”, czyli komunikować się ze światem.

Teberia 30/2013 41


TRENDY >>

O

d jakiegoś już czasu żyjemy wszak w świecie telefonii komórkowej, rozpowszechnionej na niezwykłą, nieznaną dotąd skalę – szacuje się, że pod koniec 2014 roku liczba aktywnych subskrypcji przekroczy populację naszej planety. Trudno zatem uwierzyć, że w latach siedemdziesiątych XX wieku, a więc w rozkwicie PRL-u, średni czas oczekiwania na instalację telefonu stacjonarnego wynosił 18 lat. Miało to oczywiście kontekst polityczny - władza nie była w stanie podsłuchiwać kilku milionów rozmów na raz, dlatego ilość abonentów była mocno ograniczona. W tym samym czasie w Nowym Jorku wystarczyło wpłacić 100 dolarów i w ciągu doby można było swobodnie dysponować numerem telefonicznym. Ale na takie rozwiązania w Polsce musieliśmy czekać do lat 90-tych.

Późne rokoko… – albo początki telefonii Sięgnijmy jednak do początków tej drogi. Czy ścieżkę tę wydreptał pierwszy Aleksander Bell, który opatentował swój wynalazek, czy Elisha Gray, który pierwszy go użył, dziś nie sposób rozstrzygnąć. Dość stwierdzić, że pierwsze telefony stacjonarne funkcjonowały już pod koniec XIX wieku, jednak ówczesne aparaty, powstałe z udoskonalonych telegrafów, ważyły ponad 40 kilogramów i miały objętość solidnej walizki. 42 Teberia 30/2013

Z czasem popularność tej formy komunikacji rosła, a modele aparatów ewoluowały. W Europie Zachodniej prawdziwe upowszechnienie telefonów przypadło na lata 60. i 70. XX wieku. W Polsce - jak już wspomniano - gwałtowny wzrost użytkowników telefonów stacjonarnych zanotowano dopiero w latach 90., wraz z uwolnieniem rynku w ogóle. O skali prawdziwego boomu telefonicznego tamtych czasów świadczyć może chociażby fakt, że w ciągu dekady przybyło trzy razy więcej linii telefonicznych, niż przez poprzedzające ją 45 lat. Formalnie rynek usług i infrastruktury telefonii stacjonarnej do roku 1990 był zmonopolizowany przez państwo, a ściślej przez Polską Pocztę, Telegraf i Telefon, podległe ówczesnemu Ministerstwu Łączności. W roku 1990 r. świadczenie usług i budowa infrastruktury telekomunikacyjnej przechodzi na- powołaną ustawą - spółkę skarbu państwa Telekomunikację Polską. Monopol spółki trwa do 2000 r., kiedy to umożliwiono innym operatorom korzystanie z infrastruktury telekomunikacyjnej TP na zasadach Third-party Access, co pozwala na dalszy dynamiczny rozwój telefonii.


I tak w 2010 r. usługi w zakresie telefonii stacjonarnej świadczyło 126 operatorów, a liczba stacjonarnych łączy telefonicznych wyniosła 8,2 mln, co oznacza, że na 100 mieszkańców przypadało 21,6 łączy. A jak sytuacja wygląda dziś?

Ciemność, widzę ciemność, ciemność widzę - perspektywa przyszłości? Ostatni raport finansowy TP S.A wskazuje, że liczba łączy stacjonarnych spadła w ciągu zaledwie roku o 10,4%, wciąż utrzymując się jednak na poziomie ponad 5,1 miliona numerów. W czwartym kwartale 2012 roku czysty zysk tej największej w Polsce grupy telekomunikacyjnej spadł do 51 mln zł, podczas gdy zaledwie rok wcześniej wynosił 358 mln zł. Ówczesny prezes Maciej Witucki, pytany o prognozę na rok 2013 odpowiada z rozbrajającą szczerością: Nie chcę nikogo przyprawiać o zawał serca. Jako jeden z powodów spadku zysków spółka podaje wojnę cenową w segmencie komórkowym. Ekspansja telefonii mobilnej jest – istotnie - bardzo dynamiczna. Według danych Urzędu Komunikacji Elektronicznej liczba aktywowanych kart SIM w Polsce wzrosła w 2012 roku o 3 miliony i - statystycznie - na jednego mieszkańca naszego kraju przypada ponad 1 telefon komórkowy. Dzieje się tak, bo telefon mobilny ma zdecydowanie więcej zalet, niż jego stacjonarny poprzednik. Przede wszystkim jest po prostu mobilny, a więc można z niego dzwonić z dowolnego miejsca na świecie, a przecież nie tylko dzwonić, bo także pisać sms-y i korzystać z Internetu. Współczesny telefon, choć mieści się w kieszeni, spełnia funkcję wielu innych urządzeń jak na przykład aparat fotograficzny czy kamera. Istotna też jest jego cena - na telefon komórkowy nowej generacji stać niemal każdego. Wszystko to w oczywisty sposób wpływa na spadek popularności telefonów stacjonarnych, które z czasem mogą stać się tak archaiczne jak na przykład, nie wykorzystywany już na co dzień, telegraf. Czy istotnie tak będzie wyglądała przyszłość stacjonarnych telefonów? Cóż, zdecydowana większość ekspertów uważa, że czeka je po prostu wymarcie. Sondaż przeprowadzony przez Virgin Media Business, w którym przepytywano menedżerów odpowiedzialnych za kwestie IT, nie pozostawił wątpliwości: 65% ankietowanych prorokuje odejście stacjonarnych urządzeń w niepamięć. Co zatem stanie się z solidną, imponującą infrastrukturą, która po nich zostanie? Co już się dzieje?

Bo przecież - mimo wieszczonego końca telefonii stacjonarnej - ta ciągle żyje. Mało tego – mając świadomość spadku swojej konkurencyjności stara się wszelkimi sposobami utrzymać na rynku. Zdaniem Katarzyny Pąk z firmy Ericsson, telefony stacjonarne będą nam służyły jeszcze przez wiele lat, zmienią się jednak zadania, do jakich będą przeznaczone. – Jeszcze kilka lat temu nie wyobrażaliśmy sobie, że za pomocą jednego kabla będziemy mogli np. korzystać z internetu, a w tej chwili to już się dzieje. Telefon staje się dodatkiem do pozostałych funkcji, z których coraz częściej korzystamy. O klienta w sektorze usług stacjonarnych wciąż walczy Orange. W swojej ofercie “Plan Bez Ograniczeń” za 69 złotych miesięcznie, można dzwonić bez ograniczeń na wszystkie telefony stacjonarne i komórkowe w Polsce. Gdyby tego było mało, operator dorzuca również w tej cenie połączenia zagraniczne do Unii Europejskiej, Szwajcarii, Norwegii, USA, Kanady i Australii. Jedyny mankament tej oferty to długość umowy – 24 miesiące. Zresztą, działające obecnie w Polsce korporacje zaczynają radykalnie zmieniać myślenie o telekomunikacji. Firmy rozpoczynają integrowanie aplikacji telekomunikacyjnych z informatycznymi w jeden spójny system IP, łącząc również możliwość transmisji głosu i video. Stosując platformę IP można zrezygnować z podwójnej infrastruktury telekomunikacyjnej i transmisji danych. W najnowszych rozwiązaniach do zarządzania przesyłaniem pakietów danych w firmie i poza firmę stosuje się bezprzewodowe lokalne sieci (WLAN – z ang. Wireless Local Area Network), np. radiowe. Firma badawcza Polish Market Review (PMR), specjalizująca się w badaniu stopnia informatyzacji największych 500 polskich firm, odnotowuje rosnące zainteresowanie tymi rozwiązaniami. Wielką popularnością, zwłaszcza w przypadku połączeń międzymiastowych, międzynarodowych i z sieciami komórkowymi, cieszy się także usługa VoIP (z ang. Voice over Internet Protocol) – technika umożliwiająca przesyłanie dźwięków za pomocą łączy internetowych lub dedykowanych sieci wykorzystujących protokół IP, popularnie nazywana “telefonią internetową”. Szczególnie w dużych polskich miastach, w punktach sprzedaży prasy można kupić karty telefoniczne operatorów VoIP, zawierające kody dostępu do usługi danej firmy.

Teberia 30/2013 43


TRENDY >>

Nas? Bohaterów? Prądem?! – albo symbioza z energetyką Współpraca z operatorami telekomunikacyjnymi może okazać się całkiem atrakcyjnym rozwiązaniem dla grup energetycznych. Polegać ma ona na wykorzystaniu ogólnopolskiej sieci sprzedaży operatorów telekomunikacyjnych, którzy mogą zaoferować swoim klientom, odsprzedaż usług energii elektrycznej. - Oferta ta jest bardzo kusząca, gdyż spółki telekomunikacyjne mają lepiej funkcjonujący marketing, sprzedaż i obsługę dla wielomilionowej bazy klientów niż grupy energetyczne. Dlatego telekomunikacja jest dobrym partnerem dla energetyki, mogącym pomóc jej w sprzedaży energii - mówi Jerzy Kalinowski, partner i szef grupy doradczej w sektorze nowych technologii, telekomunikacji i mediów w Europie Wschodniej i Centralnej w KPMG. Ponadto operatorów telekomunikacyjnych i grupy energetyczne łączy wiele wspólnych tematów. Ponieważ telekomy są jednymi z głównych konsumentów energii elektrycznej, zależy im na obniżeniu kosztów jej zakupu. Z kolei największe grupy energetyczne, zatrudniające tysiące pracowników w całej Polsce, są odbiorcami usług telekomunikacyjnych i dlatego im też zależy na uzyskaniu korzystnych warunków ich zakupu. Korzyści z takiej współpracy będą więc obustronne. Grupy energetyczne zyskają dostęp do rozbudowanych ogólnopolskich sieci sprzedaży, a firmy telekomunikacyjne będą mieć dodatkowe przychody ze sprzedaży energii elektrycznej. Jerzy Kalinowski zwraca też uwagę na podobieństwo procesów transformacji biznesowej, zachodzących m.in. w Grupie Kapitałowej PGE do procesów, jakie Telekomunikacja Polska przechodziła kilka lat temu. Walka o klienta, odbywająca się na przestrzeni ostatnich 15 lat spowodowała, że spółki telekomunikacyjne mają obecnie zdecydowanie lepiej funkcjonujący marketing, sprzedaż i obsługę klienta dla wielomilionowej bazy klientów. Każdy z operatorów komórkowych ma ponad 1000 punktów obsługi klienta na terenie całego kraju. Takiej powszechnej obecności z punktu widzenia dostępu klienta nie mają jeszcze grupy energetyczne. Wobec takiej symbiozy swoje strategie odsprzedaży energii elektrycznej wespół ze spółkami energetycznymi przygotowują już trzy główne telekomy w Polsce. W lutym br. Orange Polska i PGE Polska Grupa Energetyczna podpisały umowę o współpracy w zakresie wzajemnego oferowania własnych pro44 Teberia 30/2013

duktów i usług w swoich sieciach sprzedaży. Podobne porozumienie w marcu br. podpisała grupa Tauron Polska Energia z T Mobile. W chwili podpisywania porozumienia Tauron i T Mobile zapowiedziały, że pierwsze wspólne produkty powinny być dostępne dla klientów jeszcze w tym roku. Nad wspólną ofertą pracują także Polkomtel, operator sieci Plus, z Zespołem Elektrowni Pątnów Adamów Konin (ZE PAK). Obie firmy są kontrolowane przez Zygmunta SolorzŻaka. Nie wszyscy jednak podzielają ten entuzjazm. - Próba czerpania przez energetykę z doświadczeń sektora telekomunikacyjnego nie jest najlepszym rozwiązaniem - stwierdził wiceprezes URE Maciej Bando podczas debaty “Inteligentna energetyka”, odbywającej się w ramach X Kongresu Nowego Przemysłu. Sektor energetyczny ma inne bieżące problemy, jak choćby rwąca się sieć przesyłowa. Nie bardzo więc na takiej sieci można polegać, aby przesyłać nią także sygnały cyfrowe. URE zachęca sektor do wdrażania najnowszych rozwiązań i ponoszenia maksymalnie dużych nakładów na nowe technologie, ale nie zapominając o konieczności funkcjonowania sieci na co dzień i sprawności podstawowych urządzeń, jak transformatory, linie napowietrzne i kablowe, stacje elektroenergetyczne, kondensatory, itp. Na to wszystko dopiero nakłada się IT, które jest wyłącznie narzędziem zarządzania siecią.


Interesującym pomysłem na zagospodarowanie infrastruktury telefonii stacjonarnej jest również podjęcie współpracy firm telekomunikacyjnych i energetycznych, w obszarze tzw. inteligentnych liczników (ang. smart metering) i inteligentnych sieci energetycznych (ang. smart grid).

Kierunek – wschód! Tam musi być jakaś cywilizacja! – albo jak daleko nam do Zachodu? Te inteligentne sieci energetyczne dobrze zdają egzamin zarówno w Stanach Zjednoczonych, jak i w Europie Zachodniej, dlatego zaszczepienie ich na polskim gruncie może być dobrym krokiem. Smart grid, czyli inteligentne sieci elektroenergetyczne, to kompleksowe rozwiązanie pozwalające na łączenie, wzajemną komunikację i optymalne sterowanie rozproszonymi dotychczas elementami sieci energetycznych. Pozwalają użytkownikom zarządzać energią elektryczną w zależności od ich aktualnych potrzeb, gwarantują bezpieczne dostarczanie energii, generują oszczędności i pozwalają na szybszą lokalizację awarii. Są również warunkiem powszechnego rozwoju rozproszonych źródeł energii elektrycznej, włączając do grona istotnych producentów nawet

niewielkich wytwórców. Jednym z elementów systemu smart grid jest inteligentne pomiarowanie, w tym inteligentne liczniki, znane jako AMI (ang. Advanced Metering Infrastructure). Dane zbierane z urządzeń pomiarowych, poddane są dokładnej analizie, w wyniku której wykonywana jest optymalizacja pracy poszczególnych urządzeń pracujących w sieci. Ze względu na konieczność dokonywana częstych zmian w nastawach pracy poszczególnych urządzeń systemy tego typu budowane są zawsze w oparciu o komunikację dwukierunkową. Zamontowane w polskich domach, dadzą nam możliwość indywidualnego gospodarowania energią i otrzymywania rachunków wystawianych w oparciu o rzeczywiste jej zużycie, a nie jak dotychczas o prognozy. Przewiduje się, że do 2020 r. system inteligentnego pomiarowania istotnie pomoże w osiągnięciu 20-procentowej poprawy końcowego wykorzystania energii w polskich gospodarstwach domowych, do czego UE zobowiązała kraje członkowskie. Wykorzystywane przez smart grid najnowsze osiągnięcia z dziedziny ICT (Information and Communication Technology) pozwalają też na optymalizację przepływu energii, poprawę niezawodności sieci i identyfikowanie nadużyć, a więc zwiększenie efektywności energetycznej na etapie miejsca wytworzenia, czyli elektrowni, do miejsca zużycia energii przez odbiorców.

Teberia 30/2013 45


TRENDY >>

Najnowsze dane wskazują, że europejski rynek inteligentnych liczników jest w fazie wzrostu. Najprężniej rozwija się on w Skandynawii. W Szwecji system inteligentnego pomiarowania obejmuje 850 tys. liczników, w Danii blisko 600 tys., w Finlandii ponad 370 tys., a w Norwegii - 200 tys. Jeszcze bardziej zaawansowane są Włochy (aż 30 mln!). W Europie Środkowo-Wschodniej prowadzone są próby wykorzystania tego typu rozwiązań, ale liczba zainstalowanych inteligentnych liczników prądu wciąż pozostaje niska. Jednak wyróżniającym się krajem regionu jest Estonia, gdzie 2 proc. użytkowników końcowych korzysta z inteligentnych liczników. W Polsce prowadzone są prace w zakresie rozwoju smart grid m.in. w ramach warsztatów rynku energetycznego zorganizowanych przez Urząd Regulacji Energetyki i Polskie Sieci Elektroenergetyczne SA. Uczestniczą w nich przedsiębiorstwa zajmujące się przesyłem i dystrybucją energii, przedstawiciele sprzedawców i innych organizacji zainteresowanych

46 Teberia 30/2013

rozwojem inteligentnych sieci elektroenergetycznych. Najbardziej zaawansowane prace we wdrażaniu systemu w Polsce prowadzi spółka Energa-Operator, która zainstalowała już ponad 100 tys. liczników u indywidualnych odbiorców w Kaliszu, na Półwyspie Helskim oraz w okolicach Drawska Pomorskiego. Do końca 2018 r. program przewiduje instalację ponad 3 mln liczników. To największe takie przedsięwzięcie w Polsce i jedyne obejmujące wszystkich klientów na obszarze obsługiwanym przez jednego operatora. Rozwiązania IT wdraża także sektor gazownictwa. Służą one w sferze oszczędności dwóm podstawowym celom - obniżeniu kosztów i poprawie efektywności, a w sferze innowacyjności, uzyskaniu efektów, które będą osiągalne w dłuższym okresie. Wydatki inwestycyjne PGNiG na te cele wynoszą od 4 do 5 mld zł, w tym kilkaset milionów przeznaczane jest na rozwiązania IT.


Jednak dla gazowników ważne jest to, że URE zachowuje się racjonalnie i nie wymusza rozwiązań, które na dany moment nie są pożądane, z punktu widzenia ekonomiki. Inwestycje powinny być dobre, ale także przynosić wymierny skutek, czyli powinny być rentowne. W przypadku sektora gazowniczego, muszą to być bardzo duże nakłady inwestycyjne, które na tym etapie rozwoju - nie znalazły by uzasadnienia i aprobaty klientów, bo na koniec dnia, koszty szerokich wdrożeń IT spowodują podwyżki cen – stwierdził Jacek Murawski, wiceprezes PGNiG.

Jutro też wam uciekniemy! – scenariusz rozwoju branży telekomunikacyjnej do 2015 roku Z najnowszego badania IBM Telco 2015, w którym udział wzięło 8 tys. konsumentów i 40. operatorów z całego świata wynika, że jeśli branża telekomunikacyjna chce zapewnić sobie wzrost w najbliższych latach, musi przebudować swój model biznesowy. Wszystko to w obliczu pojawiających się nowych wyzwań i rosnącej roli dostawców usług OTT (overthe-top - czyli komunikatory, portale społecznościowe itp.). Dlatego można mówić o kilku najistotniejszych trendach mogących wpłynąć na dalszy rozwój rynku. Przede wszystkim zwraca się uwagę, że – o czym wspominaliśmy - telefonia stacjonarna PSTN (Public Switched Telephone Network), czyli najstarsza, nadal jeszcze funkcjonująca infrastruktura telekomunikacyjna o charakterze publicznym cały czas znajduje się w tendencji spadkowej w większości krajów. I to mimo, że podstawowa oferta usług jest stopniowo powiększana o usługi rozszerzone i dodatkowe – związane z wprowadzeniem bardziej inteligentnych cyfrowych systemów komutacji. Z kolei telefonia mobilna odnotowuje stagnację wzrostu przychodów bądź ich spadek, zarówno w krajach o wysokim przychodzie na użytkownika, jak i w krajach o przychodzie niskim i średnim. Dlatego większy nacisk kłaść należy na dostawcy usług over-the-top (OTT). Zwrócić należy jednak uwagę, że mimo rosnącego popytu na usługi dostępu do Internetu szerokopasmowego, tendencje te nie wpływają na przychody operatorów. Autorzy raportu podkreślają, że sektor komunikacyjny powinien wprowadzić zmiany w modelu biznesowym, aby zapewnić sobie dalszy wzrost.

Proponują zatem następujące scenariusze rozwoju branży telekomunikacyjnej w ciągu najbliższych pięciu lat: Pierwszy z nich, nazwany rynkiem skonsolidowanym wieszczy stagnację i spadek przychodów, wynikające z ograniczania wydatków konsumentów. W związku z tym operatorzy nie modyfikują swoich usług i nie rozwijają się, a to pociąga spadek zaufania inwestorów i wywołuje kryzysy gotówkowe, co z kolei powoduje konsolidację branży. Kolejnym scenariuszem jest tzw. „wstrząs rynku”, gdzie usługi są regulowane, zaś rząd, władze lokalne, alternatywni dostawcy (np. spółdzielnie mieszkaniowe czy przedsiębiorstwa użyteczności publicznej) inwestują w ultra-szybkie usługi szerokopasmowe, podczas gdy prywatne inwestycje w infrastrukturę ograniczają się tylko do gęsto zaludnionych obszarów. Zdaniem autorów badania IBM Telco 2015, dla branży telekomunikacyjnej najkorzystniejsze byłyby inne scenariusze, mianowicie: “starcie gigantów” lub “bazar idei”. Obydwa wiążą się ze zwiększeniem współpracy w globalnej skali z dostawcami OTT. Rola dostawców usług może wzrosnąć dzięki nowym modelom biznesowym np. w sektorze ochrony zdrowia, inteligentnych sieci, transportu, handlu detalicznego, bankowości i in. Jak widzimy w tych prognozach nie ma miejsca na telefonię stacjonarną. Jednak w obliczu wykorzystania pozostałej po niej infrastruktury, można rzec – posługując się wykorzystanym tu obrazowaniem rodem z „Seksmisji” – nie wstanę! Tak będę leżał! I wcale nie chodzi tu o kondycję telekomunikacji, ale o sposób jej eksploatacji. Dominika Bara

Źródła: www.edu.gazeta.pl; www.poland.gov.pl; www.polskieradio.pl; www.okazje.info.pl; www.wnp.pl;

Teberia 30/2013 47



Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.