Teberia 17

Page 1

Postindustriada – albo ludzie z getta LOFT

Polacy na najmroźniejszych szczytach świata

NUMER 6 (17) LIPIEC 2012

NAUKA / TECHNOLOGIE / GOSPODARKA / CZŁOWIEK

Smart Grid,

czyli prąd społecznościowy



Spis treści: 4 6 8 11 12 14 22 32 34 40 42 44 EDYTORIAL

A cóż to jest ta zrównoważona energia? NA CZASIE

Ile wart ten bozon? TRENDY

Przyszłość w chmurze… NA CZASIE

Imagine Cup 2012 NAUKOWO

Rozgrywki ligowe z matematyką w tle TRENDY

Postindustriada – albo ludzie z getta LOFT

* Skąd ta nazwa –

…Otóż gdy pojawił się gotowy projekt witryny – portalu niestety nie było nazwy. Sugestie i nazwy sugerujące jednoznaczny związek ze Szkołą Eksploatacji Podziemnej typu novasep zostały odrzucone i w pierwszej chwili sięgnąłem do czasów starożytnych, a więc bóstw ziemi, podziemi i tak pojawiła się nazwa Geberia, bo bóg ziemi w starożytnym Egipcie to Geb. Pierwsza myśl to Geberia, ale pamiętałem o zaleceniach Ala i Laury Ries, autorów znakomitej książeczki „Triumf i klęska dot.comów”, którzy piszą w niej, że w dobie Internetu nazwa strony internetowej to sprawa życia i śmierci strony. I dalej piszą „nie mamy żadnych wątpliwości, co do tego, że oryginalna i niepowtarzalna nazwa przysłuży się witrynie znacznie lepiej niż jakieś ogólnikowe hasło”. Po kilku dniach zacząłem przeglądać wspaniała książkę Paula Johnsona „Cywilizacja starożytnego Egiptu”, gdzie spotkałem wiele informacji o starożytnych Tebach (obecnie Karnak i Luksor) jako jednej z największych koncentracji zabytków w Egipcie, a być może na świecie. Skoro w naszym portalu ma być skoncentrowana tak duża ilośćwiedzy i to nie tylko górniczej, to czemu nie teberia. Jerzy Kicki Przewodniczący Komitetu Organizacyjnego Szkoły Eksploatacji Podziemnej Portal teberia.pl został utworzony pod koniec 2003 roku przez grupę entuzjastów skupionych wokół Szkoły Eksploatacji Pod-ziemnej jako portal tematyczny traktujący o szeroko rozumianej branży surowców mineralnych w kraju i za granicą. Magazyn ,,te-beria” nawiązuje do tradycji i popularności portalu internetowego teberia.pl, portalu, który będzie zmieniał swoje oblicze i stawał się portalem wiedzy nie tylko górniczej, ale wiedzy o otaczającym nas świecie.

Wydawca:

Fundacja dla Akademii Górniczo-Hutniczej im. Stanisława Staszica w Krakowie

Jerzy KICKI

RAPORT

Prezes Fundacji dla AGH

RAPORT

Dyrektor działu wydawniczo-kongresowego Fundacji dla AGH Dyrektor Zarządzający Projektu Teberia

Prąd Społecznościowy EcoGrid - eksperyment na Bornholmie

Artur DYCZKO

Jacek SROKOWSKI Redaktor naczelny

jsrokowski@teberia.pl

KREATYWNI

Zielone Górą PREZENTACJE

KGHM

PREZENTACJE

Bogdanka

CZŁOWIEK I TECHNOLOGIE

Polacy na najmroźniejszych szczytach świata

Biuro reklamy:

Małgorzata BOKSA reklama@teberia.pl

Studio graficzne:

Tomasz CHAMIGA tchamiga@teberia.pl

Adres redakcji:

Fundacja dla Akademii Górniczo-Hutniczej im. Stanisława Staszica w Krakowie, pawilon C1 p. 322 Aal. Mickiewicza 30, 30-059 Krakówtel. (012) 617 - 46 - 04, fax. (012) 617 - 46 - 05, e-mail: redakcja@teberia.pl, www.teberia.pl” www.teberia.pl f-agh@agh.edu.pl, www.fundacja.agh.edu.pl NIP: 677-228-96-47, REGON: 120471040, KRS: 0000280790

Konto Fundacji:

Bank PEKAO SA, ul. Kazimierza Wielkiego 75, 30-474 Kraków, nr rachunku: 02 1240 4575 1111 0000 5461 5391 SWIFT: PKO PPLPWIBAN; PL 02 1240 4575 1111 0000 5461 5391 Redakcja nie odpowiada za treść ogłoszeń. © Copyright Fundacja dla AGH Wszelkie prawa zastrzeżone.Żaden fragment niniejszego wydania nie może być wykorzystywany w jakiejkolwiek formie bez pisemnej zgody wydawcy.


E D Y T OR I A L >>

A cóż to jest ta zrównoważona energia? Całkiem przypadkiem natrafiłem niedawno na informację, iż Organizacja Narodów Zjednoczonych ustanowiła 2012 rok Międzynarodowym Rokiem Zrównoważonej Energii dla Wszystkich Ludzi. W pierwszej chwili pomyślałem, że nie jest dobrze skoro, jako osoba wydawałoby się oczytana nic o tak zacnej inicjatywie nie wiem. Ale chyba niewielu z Was miało tego świadomość? Myślę sobie, że wynika to pewnie z faktu, iż samo pojęcie zrównoważonej energii stanowi wciąż mało zrozumiały temat. Patrick Moore, jeden z założycieli organizacji Greenpeace obecnie konsultant ds. zrównoważonego rozwoju podczas niedawnej wizyty w Polsce stwierdził, iż Polska musi zastępować w produkcji energii elektrycznej węgiel atomem i gazem, a nie źródłami odnawialnymi energii, czym pewnie zaszokował swoich dawnych przyjaciół z Greenpeace. Działacze Greenpeace uważają bowiem, że jedyną prawdziwą drogą do bezpieczeństwa energetycznego oraz zatrzymania zmian klimatycznych, jest radykalne zwiększenie wydajności energetycznej oraz inwestycje w czystą energię odnawialną. A węgiel? Czy może być częścią zrównoważonej energii? Ja osobiście skłaniam się do takiego poglądu, gdyż już dziś istnieją technologie pozwalające radykalnie ograniczyć negatywny wpływ spalania węgla na środowisko, jak choćby bloki energetyczne o parametrach nadkrytycznych, nie mówiąc o technologiach zgazowania węgla. Jednak tak naprawdę chodzi o to, by efektywnie i mądrze gospodarować energią. Takie podejście wydaje się kluczowe w obliczu faktu, iż jedna na pięć osób na Ziemi nadal nie ma dostępu do elektryczności. To przykre, ale wyobraźmy sobie, że ci ludzie otrzymują nagle dostęp do energii elektrycznej. Aż strach pomyśleć co by się działo. 4

Teberia 06/2012

Raz, że ceny energii wyskoczyłyby ostro w górę. Inna sprawa, że zasoby paliw energetycznych zaczęłyby się kurczyć w szybkim tempie. W końcu klimat pewnie by oszalał. Jednym słowem – katastrofa. Jedni nie mają dostępu do energii. Inni wydaje się, że mają jej za dużo. Jak podał niedawno magazyn „Nature” wszelkiego rodzaju subsydia zachęcają do nieefektywnego wykorzystania zasobów. W ten sposób aż 600 miliardów dolarów rocznie trafia do sektora paliw kopalnych, co niestety, nie sprzyja rozwojowi innowacyjności w sferze energetycznej. No, ale też trudno wymagać od ludzi, by z dnia na dzień zrezygnowali z dotychczasowego energochłonnego stylu życia. A może jednak? Może należy zaproponować alternatywę? Nawet nie może, tylko należy. Nie mam wątpliwości, że przyszłość sektora energetycznego to Smart Grid – czyli postmodernistyczna energetyka rozproszona, w której indywidualny użytkownik nie tylko jest konsumentem energii, ale może być także jej producentem. Energetyka rozproszona, inteligentne sieci są głównymi tematami tego wydania Teberii. Liczymy, że uda nam się choćby w małym stopniu przybliżyć to innowacyjne zagadnienie. Trudno bowiem nie zgodzić się z naszym rozmówcą, prof. Janem Popczykiem, który mówi: „W polskich mediach nie ma najmniejszego śladu starań, aby przedstawić istotę zmian cywilizacyjnych ogarniających świat za przyczyną przebudowy energetyki, upodmiotowić społeczeństwo w tym niezwykle ważnym obszarze gospodarki, uspołecznić nową falę innowacyjności technologicznej i innowacyjności wdzierającej się do sfery zarządzania”. Jacek Srokowski c zapraszamy do dyskusji @ napisz do nas


Teberia 06/2012

5


N A C Z A S IE >>

Ile wart ten bozon? Naukowcy pracujący z Wielkim Zderzaczem Hadronów, po tym jak potwierdzono istnienie cząsteczki, która może być tzw. bozonem Higgsa ogłosili, że nasze postrzeganie świata może się zmienić. Mówiąc ściślej, możemy zyskać potwierdzenie, że niektóre teorie fizyków na temat tego, jak skonstruowana jest rzeczywistość, są czymś więcej niż ludzkim wymysłem. To jest przełom, który jednak różni się od innych przełomów ludzkości tym, że trudno go zrozumieć. Do poszukiwań m.in. cząstki Higgsa został zbudowany najpotężniejszy akcelerator cząstek elementarnych - Wielki Zderzacz Hadronów LHC (Large Hadron Collider). Znajduje się on pod ziemią w laboratorium Europejskiej Organizacji Badań Jądrowych CERN w pobliżu Genewy na granicy francuskoszwajcarskiej. Wielki Zderzacz Hadronów jest największą maszyną świata. Jego zasadnicze elementy są umieszczone w tunelu w kształcie torusa o długości około 27 km, położonym na głębokości od 50 do 175 m pod ziemią. Wyniki zderzeń rejestrowane są przez dwa duże detektory cząstek elementarnych. Akcelerator LHC kosztował, bagatela, ok. 10 mld euro i powstał dzięki wspólnemu wysiłkowi kilkudziesięciu państw Europy i świata. Co ciekawe, polscy podatnicy pokryli cztery procenty kosztów budowy i uruchomienia Wielkiego Zderzacza Hadronów i są, mówiąc wprost, jego współwłaścicielami. Mamy także w tym przedsięwzięciu swój udział naukowy. Polscy naukowcy brali udział w przygotowaniu programu badań fizycznych, stworzyli wiele narzędzi obliczeniowych, zajmowali się projektowaniem, testowaniem i budową elementów aparatury detekcyjnej czterech największych eksperymentów (ATLAS, CMS, LHCb i ALICE) oraz instalacją i testowaniem podukładów samego akceleratora. W pracach uczestniczyły następujące instytucje: Narodowe Centrum Badań Jądrowych (jako Instytut Problemów Jądrowych), Instytut Fizyki Jądrowej PAN w Krakowie, Uniwersytet Warszawski, Akademia Górniczo-Hutnicza w Krakowie, Uniwersytet 6

Teberia 06/2012

Jagielloński, Politechnika Warszawska i Politechnika Krakowska. Ba, już wkrótce polska Najwyższa Izba Kontroli przeprowadzi audyt w CERN, by przekonać się, że owe 10 mld euro zostało racjonalnie spożytkowane. Przeciętny człowiek słysząc o wielkim odkryciu „boskiej cząstki”, bo tak też mówi się o bozonie Higgsa zadaje sobie pytanie – i po co to, jaki z tego pożytek? Prof. Leszek Roszkowski, kierującym w NCBJ międzynarodową grupą naukowców analizujących dane w poszukiwaniu nowych cząstek elementarnych pytany o praktyczne konsekwencje odkrycia bozonu Higgsa mówi wprost: „Jeśli ktoś liczy, że wkrótce opanujemy bezwładność i nasze samochody będą przyspieszać do setki w milisekundę, cóż, jest fan-

To jest cząsteczka, wszystko we wszechświecie składa się z tych małych rzeczy. Cząsteczka jest kombinacją wielu atomów.

Bozon Higgsa tworzy pole energetyczne we wszechświecie, które działa jak syrop. Protony zwalniają i zaczynają krzepnąć tworząc materię.

Była na ten te naukowcy d by poprzez t one nazywa


tastą. Odkrycie bozonu Higgsa nie ma obecnie żad- Żeby odkryć bozon Higgsa, musieliśmy skonstruować nego znaczenia praktycznego. Żadnego. To epokowe największe, najbardziej skomplikowane urządzenie wydarzenie, ale tylko dla rozwoju fizyki. w dziejach. Budowa LHC wymusiła ogromny postęp technologiczny. I to on jest obecnie największym zyNiemniej należy pamiętać, że w chwili odkrycia wiele skiem. Pamiętajmy o tym choćby korzystając ze stron zjawisk i teorii fizycznych wydawało się kompletnie WWW, które wymyślono właśnie w CERN-ie, aby nieprzydatnych. Tak było na przykład z emisją wy- umożliwić dużym zespołom fizyków rozrzuconych muszoną, którą traktowano jako abstrakcyjną cie- po całym świecie efektywny udział w eksperymenkawostkę, a która po kilkudziesięciu latach pozwo- tach z zakresu fizyki cząstek elementarnych. Pozornie liła skonstruować lasery. Podobnie, nikt nie widział te eksperymenty nie miały żadnego znaczenia dla żadnych zastosowań dla wymyślonej przez Alberta naszego codziennego życia. A przecież dziś dzięki Einsteina ogólnej teorii względności. Ale gdybyśmy WWW czytamy gazety, robimy zakupy i szukamy dziś nie uwzględniali w obliczeniach zakrzywienia pracy – zauważa prof. Roszkowski. jm czasoprzestrzeni, systemy nawigacji satelitarnej nie mogłyby działać. A fale radiowe? Gdy je odkrywano, wydawały się ciekawostką bez znaczenia. Kto więc wie, co będziemy zawdzięczali odkryciu bozonu Higgsa za kilkadziesiąt czy kilkaset lat? c zapraszamy do dyskusji @ napisz do nas - Dziś ważny jest jednak inny aspekt.

Atom zbudowany jest z rdzenia i wielu elektronów.

Rdzeń atomu jest połączeniem protonów i neutronów.

Problemem było to, że nikt nie wiedział, dlaczego protony powinny trzymać się razem zamiast latać w przestrzeni z prędkością światła.

emat teoria, którą trzeba było udowodnić. Tak więc doprowadzili do wzajemnego zderzenia protonów, to zderzenie zmierzyć maleńkie cząsteczki, zostały ane bozon Higgsa.

i wreszcie, proton zbudowany jest z kwarków i gluonów.

Teberia 06/2012

7


T R E ND Y >>

Przyszłość

w chmurze…

Problematyka cloud computnig’u pozostaje nie tylko jednym z obecnie najczęściej omawianych zagadnień, lecz jest także jednym z trendów związanych z zaawansowanymi technologiami. Według wielu fachowców będzie to jedna z najbardziej dochodowych gałęzi przemysłu IT w 2012 roku. W chwili powstawania artykułu na całym globie znajduje się już około 50 milionów serwerów przystosowanych do obsługi tego serwisu. Każdego roku firmy używające lub rozwijające tą technologię wydają średnio o 25% więcej niż w roku poprzednim. Rok 2012 będzie pierwszym, w którym cloud computing będzie stosowany w praktyce na naprawdę dużą skalę. Przewiduje się, że rynek cloud computingu ukierunkowany na telefony komórkowe rozwinie się osiągając przychody w wysokości 100 miliardów dolarów w 2013 roku, w porównaniu z 400 milionami w 2009 roku. W dodatku, Fortune 500 przewiduje, że wartość rynku dla tej stale zyskującej na popularności usługi osiągnie próg 241 miliardów do roku 2020.

Czym jest cloud computing?

„Przetwarzanie w chmurze” jest metodą przetwarzania danych znajdujących się na serwerach, a także dostarczanie jej, jako usługi dla końcowych odbiorców. Metoda ta dzieli się na trzy kategorie: - Infrastructure as a Service, czyli wirtualny serwer i infrastruktura. - Software as a Service, czyli gotowe oprogramowanie. - Platform as a Service, czyli gotowa, platforma z aplikacjami. Wraz z rozwojem technologii przetwarzania w chmu8

Teberia 06/2012

rze, a w szczególności stosowania jej, jako serwisu dostępowego do gotowego oprogramowania (SaaS), ewoluuje przystosowane do niego oprogramowanie. Bardzo dobrymi przykładami są tu pakiety biurowe takie jak Zoho, MS Office 2010 czy po prostu Google Docs, działające na zasadzie aplikacji uruchamianych z poziomu strony internetowej. Wykorzystując technologię AJAX w przeglądarce internetowej, aplikacje po przetworzeniu w chmurze dynamicznie przesyłają i wyświetlają wyniki dla użytkowników. Trzeba pamiętać, że przetwarzanie w chmurze dzieli się na dwa zupełnie różne typy przetwarzania. Jeden z nich to podejście informatyczne, a drugi to podejście biznesowe. Jeżeli chodzi o różnice w podejściu usługodawców, to każda oferta w zależności


możliwości zarówno w świecie biznesu, jak również w życiu codziennym, podczas korzystania z Internetu, z usług naszego banku w sieci, portali internetowych czy społecznościowych. Usługi cloud computingu stają się coraz bardziej popularne, a kolejne powstające modele urządzeń mobilnych jeszcze bardziej wspierają rozwój tej technologii. Do wymagań przetwarzania w chmurze przystosowywane są procesory, wbudowane modemy, kary graficzne, przede wszystkim jednak opracowywane są aplikacje oraz nowy standard stron internetowych HTML5. Biorąc pod uwagę różnorodność zastosowań oraz wartość dodaną dla zwykłych użytkowników, główną zaletą cloud computingu jest przede wszystkim bardzo łatwy dostęp do danych z dowolnego miejsca. Aż 72% respondentów uważa, że cloud computing jest wartością dodaną do wysoce zaawansowanych urządzeń technologicznych i ułatwia wykorzystanie ich potencjału. Dodatkowo używając dobrego tabletu, laptopa, czy telefonu komórkowego, jako narzędzi dostępu do sieci oraz dzięki funkcjonalności ich oprogramowania technologia ta znacznie zwiększa mobilność użytkowników, maksymalnie optymalizując ich czas. 54% z nich korzysta ze skrzynki jednego z czwórki wyżej wspomnianych, największych dostarczycieli „chmury”. Średnio 33% z nich przechowuje swoje zdjęcia, wideo, korzysta z aplikacji oraz alternatywnych serwisów umieszczonych online. W chwili obecnej na świecie najwięcej dostawców tych serwisów znajduje się jest w Stanach Zjednoczonych (23 656), Kanadzie (2740), Wielkiej Brytanii (2660), Niemczech (2371) oraz Holandii (1730). od klienta modelowana jest na poziomie metadanych i dostosowywana do jego potrzeb, nie tak jak w przypadku aplikacji.

„Chmura” na co dzień

Wpływ na rozwój cloud computingu miały urządzenia technologii mobilnej, czyli głównie laptopy i tablety. Swoje zastosowanie znajdują wszędzie, gdzie znaczenie ma informacja oraz czas jej przekazania. Biorąc pod uwagę przydatność tych urządzeń dla poszczególnych jednostek, głównymi ich użytkownikami w Polsce (około 30%) stanowią małe i średnie przedsiębiorstwa. Połączenie powstania i szybkiego rozwoju urządzeń, takich jak tablet z usługami przetwarzania w chmurze, zapewnia niesamowite

Technologia cloud computingu ma swoje bezpośrednie zalety również dla wspomnianych już wcześniej urządzeń takich jak tablet, czy laptop. Odciążenie ich procesorów w celu wykonywania bardzo skomplikowanych obliczeń za pomocą różnych aplikacji zapewnia ich dłuższą żywotność oraz bardziej wydajne działanie podczas wykonywania innych procesów.

Chmura biznesowa

Korzystanie z chmury na potrzeby biznesu rozliczane jest na podstawie ilości przesłanych do serwera danych. Im więcej danych wysyłamy, tym więcej płacimy. Zalety: W świecie biznesu liczy się czas, informacja, oraz Teberia 06/2012

9


T R E ND Y >> szybkość dostępu do niej. Cloud computing jest wspaniałą metodą na optymalizację oraz rozwój istniejących struktur informatycznych wewnątrz firmy. Poza tym zapewnia możliwość redukcji kosztów rozwoju oraz infrastrukturalnych firmy w kontekście jej wydatków na utrzymanie sprzętu, wynagrodzeń dla pracowników odpowiednich działów, itd. Szacuje się, że do 2014 roku aż 60% pracy wszystkich serwerów na świecie zostanie zlokalizowane w chmurze. W dodatku, używanie chmury, jako serwisu przetwarzającego dla nas dane umożliwia przedsiębiorstwom zmniejszenie ryzyka biznesowego oraz w pewnym sensie wyrównanie szans małych i średnich przedsiębiorstw w starciu z gigantami biznesu. Według Harvard Business Review 70% dyrektorów zarządzających firmami używającymi technologii zasugerowało, że przetwarzanie w chmurze ułatwiło proces zarządzania i rozwoju tych firm. Ponadto, kolejne 73% uważa, że technologia ta bardzo wyraźnie zmniejszyła koszt utrzymania infrastruktury. Kolejną zaletą jest oczywiście obniżenie kosztów administracyjnych oraz możliwość przeznaczenia zgromadzonych środków na realizację innych przedsięwzięć. 63% z ankietowanych twierdzi, że zastosowanie cloud computing’u zmniejszyło ich wyzwania technologiczne, dając im możliwość koncentrowania się wyłącznie na strategicznych zagadnieniach Wreszcie używanie energooszczędnych tabletów, a także korzystanie z dostępnych infrastruktur w „chmurach” sprawia, że firmy znacznie redukują swój negatywny wpływ na środowisko. Biorąc pod uwagę fakt, że przeciętne wykorzystanie serwera firmowego oscyluje na poziomie 7%, w sytuacji, gdy na świecie jest w użyciu ok. 1,5 mld komputerów, nie trudno obliczyć jak bardzo marnujemy energię i bez potrzeby zatruwamy środowisko. Wady: Oczywiście, jak wszystko na tym świecie i to rozwiązanie ma również swoje wady. Cloud computing bardzo naraża zarówno przedsiębiorstwa, jak i zwykłych użytkowników na możliwość utraty poufnych danych. Jest to chyba największy i jedyny minus, biorąc pod uwagę trend wzrostowy w zakresie szpiegostwa gospodarczego, jak i coraz większej inwigilacji społeczeństw. Takie działanie może mieć bezpośredni wpływ na sferę bezpieczeństwa pracowników firmy, czy danych obywateli. Spośród 1500 firm badanych przez Harvard Business Review, aż 54% badanych w Stanach Zjednoczonych firm używających tej

10

Teberia 06/2012

ciekawej technologii wyraża swoje zaniepokojenie utratą bardzo istotnych z perspektywy firmy danych na rzecz szpiegującej konkurencji. Kolejną wadą jest fakt, że przy braku dostępu do sieci, przydatność niektórych urządzeń może być niemalże zerowa. Można jednak zachować w tej kwestii optymizm, biorąc pod uwagę szybkość rozwoju infrastruktury internetowej na świecie. Tak czy inaczej technologia ta ma przed sobą całkiem niezłe perspektywy. Rynek cloud computnig’u rośnie każdego roku o średnio 25%. Aż 7 z 10 ankietowanych firm w Stanach Zjednoczonych w najbliższym czasie przeniesie swoje serwery do „chmury”. Według obliczeń amerykańskiej firmy Gartner, nastąpi to niedalej niż do 2016 roku, kiedy aż 60% wszystkich przedsiębiorstw przeniesie swoje serwery online wraz z bardzo wrażliwymi informacjami o swoich klientach. Ponadto rosnąca presja na efektywność, redukcję kosztów, konkurencyjne obniżanie cen, skrócony czas reakcji na czynniki zewnętrzne oraz adaptację do nich sprawiają, że technologia ta będzie się z pewnością jeszcze szybciej rozwijać w świecie biznesu. Jeżeli chodzi o zwykłych użytkowników to stale rosnące wymagania oraz potrzeby mobilności już mają oddźwięk i efekty w postaci wyspecjalizowanych działów firm zajmujących się tworzeniem coraz nowszych i bardziej zaawansowanych aplikacji dla użytkowników przetwarzania w chmurze. Firma Google opublikowała niedawno dane dotyczące jej własnej platformy Google App Engine, wydatnie pokazując jak szybko rozwija się ten rynek. Według obliczeń Google I/O platforma posiada około 250 tysięcy aktywnych użytkowników. Platforma odwiedzana jest 7,5 miliarda razy dziennie, około miliard aplikantów czeka na umieszczenie swoich aplikacji na platformie, a 50 dodatkowych milionów użytkowników wysyła swoje zapytanie do centrali platformy każdego dnia. Kwestią czasu pozostaje wyeliminowanie wad tejże technologii oraz jeszcze większe jej rozpowszechnienie wśród masowych odbiorców.

Jacek Kwaśny

Autor jest specjalistą ds. marketingu sieciowego w firmie Search Laboratory. c zapraszamy do dyskusji @ napisz do nas


N A C Z A S IE >>

Imagine Cup 2012 Polacy w czołówce!

Polskie drużyny znalazły się w ścisłej czołówce w dwóch konkurencjach zakończonego właśnie konkursu Imagine Cup 2012. Zespół The Stack z Gdańska zdobył drugie miejsce w kategorii Windows Phone Challange. Flexify z Poznania zajął trzecie miejsce w kategorii – rozgrywanej po raz pierwszy w ramach konkursu – Kinect Fun Labs Challange. Imagine Cup 2012 to największy konkurs technologiczny na świecie. Pomysłodawcą i organizatorem istniejącego od 2003 roku konkursu jest firma Microsoft. Głównym założeniem tej prestiżowej imprezy, jest upowszechnianie znajomości nowych technologii oraz propagowanie wykorzystywania nowoczesnych narzędzi informatycznych na rzecz poprawienia szeroko pojętej jakości życia. Przesłanie tegorocznej, już dziesiątej, edycji konkursu brzmi: „Wyobraź sobie świat, w którym technologia pomaga rozwiązać najtrudniejsze problemy ludzkości”. Podczas uroczystej gali w Sydney The Stack z Gdańska – jednoosobowy zespół w osobie Karola Stosika powiewał polską flagą na scenie odbierając nagrodę za drugie miejsce za projekt adresowany do osób z upośledzeniem wzroku – ZZ Braille Reader. Głównym zadaniem aplikacji na Windows Phone jest umożliwienie osobom niedowidzącym czytania eBooks, artykułów i notatek, ale może być także używana do nauki alfabetu Braille’a. Polak pokonał drużynę Aaltovation z Finlandii, zaś pierwsze miejsce w tej

kategorii przypadło zespołowi Vivid z Egiptu. Kolejną kategorią, w której Polacy zostali nagrodzeni była Kinect Fun Labs Challenge rozgrywana w tym roku po raz pierwszy. Studenci z Poznania będą dobrze pamiętać dziesiąta rocznicę Imagine Cup. Drużyna w składzie – Marek Banaszak, Piotr Kowalczyk, Adam Kuczyński, Michał Kulikowski, Tomasz Malesza, została wysoko oceniona za projekt Reh the Dragon, który wykorzystuje technologię Kinect do rehabilitacji dzieci poprzez interaktywną grę z sympatycznym smokiem. W tej kategorii zwyciężył zespół z Brazylii, zaś drugie miejsce zajęli studenci ze Stanów Zjednoczonych. - Imagine Cup to zastrzyk energii. Dla mnie, jako sędziego, zarówno w finałach krajowych, jak i finałach światowych konkursu jest to niezwykle inspirujące doświadczenie. Nie inaczej jest w tym roku, kiedy to finaliści po raz kolejny udowodnili, że ich kreatywność nie ma końca. – powiedziała Beata Bochińska, prezes zarządu Instytutu Wzornictwa Przemysłowego – Cieszy mnie szczególnie to, że w większości przypadków konkursowe projekty to nie tylko ciekawe rozwiązania technologiczne, ale jednocześnie przemyślane projekty biznesowe, znakomicie zaprojektowane i niemal gotowe do wprowadzenia na ścieżkę komercjalizacji. W kategorii Projektowanie Oprogramowania zwyciężył zespół Quadsquad z Ukrainy. Drugie i trzecie miejsce należało odpowiednio do reprezentantów z Japonii i Portugalii. Więcej informacji o konkursie Imagine Cup można także znaleźć na stronie www.imaginecup.pl.

Teberia 06/2012

11


N A UK O W O >>

Rozgrywki ligowe z matematyką w tle Zorganizowanie turnieju sportowego wymaga efektywnego działania na wielu płaszczyznach. Jednym z najważniejszych elementów jest optymalny harmonogram, którego najbardziej istotny komponent stanowi szczegółowy schemat rozgrywania poszczególnych gier w ramach odpowiednich przedziałów czasowych. W zależności od specyfiki dyscypliny sportowej oraz cech charakterystycznych samego turnieju możemy mieć do czynienia z różnymi modelami podstawowymi. Uczestnikami (graczami) mogą być zawodnicy występujący indywidualnie bądź drużyny sportowe. Każda pojedyncza rozgrywka może jednocześnie dotyczyć jednego, dwóch albo więcej graczy. W każdym z tych przypadków odmienne będą założenia, ale zawsze zasadniczym celem jest zagwarantowanie najbardziej równych szans w sportowej rywalizacji dla wszystkich uczestników turnieju, przy jednoczesnym zapewnieniu jak największej atrakcyjności z punktu widzenia kibiców. Niewątpliwie do najbardziej popularnych należą turnieje sportowe, w których uczestnicy rozgrywają poszczególne gry (mecze) w parach na zasadzie „każdy z każdym”. Warunek ten oznacza, że w każdej grze bierze udział dwóch graczy i każdy z nich rozgrywa grę z każdym innym dokładnie taką samą liczbę razy w całym turnieju. Biorąc pod uwagę istotny czynnik ograniczający liczbę gier rozgrywanych przez każdego z graczy w ustalonych przedziałach czasowych, turniej taki jest podzielony na rundy (kolejki); w danej rundzie każdy gracz rozgrywa co najwyżej jedną grę. Bardzo często dodatkowe kryterium stanowi lokalizacja rozgrywania poszczególnych gier na obiektach sportowych przypisanych do poszczególnych graczy. Wówczas jeden z graczy będzie rozgrywał dany mecz „u siebie”, podczas gdy dla jego przeciwnika będzie to gra „na wyjeździe”. Skonstruowanie harmonogramu spełniającego wymienione warunki może być wykonane w oparciu o tzw. Tablice Bergera, rozwiązania znane i wykorzy12

Teberia 06/2012

stywane już w XIX wieku. Schematy te są nadal narzędziem powszechnie stosowanym w wielu krajach. Obecnie z tego rozwiązania korzystają w Polsce m.in. ligi piłki nożnej (poza Ekstraklasą), koszykówki, piłki siatkowej oraz piłki ręcznej. Tablice Bergera mają niestety liczne wady. Jedną z nich jest tzw. efekt przeniesienia, polegający na połączeniu w pary graczy, którzy w kolejnych dwóch rundach rozgrywają mecze z tym samym przeciwnikiem, zawsze w tej samej kolejności. Dla przykładu, efekt przeniesienia dla pary graczy (A,B) oznacza, że jeśli w danej rundzie przeciwnikiem gracza A jest C, to w rundzie następnej C rozgrywa mecz z B. Niewątpliwie należy uwzględnić jak najmniejszą liczbę powtórzeń takiej sytuacji dla zadanej pary graczy, aby uniknąć niemal ciągłego przejmowania przeciwnika po tym samym graczu. Inna niedogodność Tablic Bergera dotyczy nierównej liczby tzw. przełamań dla poszczególnych uczestników turnieju; przełamanie oznacza rozgrywanie dwóch kolejnych gier wyłącznie na swoim obiekcie, albo tylko „na wyjeździe”. Dodatkowo dążyć należy do niewystępowania przełamań w ostatniej rundzie turnieju. W ten sposób bardzo istotnym kryterium jest takie zaplanowanie rozgrywek, aby schemat naprzemienności gier rozgrywanych „u siebie” i „na wyjeździe” był możliwie jak najbardziej zrównoważony. Zasadniczym celem podczas konstrukcji optymalnych harmonogramów jest dążenie do sytuacji, w której żaden uczestnik turnieju nie jest premiowany bardziej dogodnym układem rozgrywanych meczów. Lista potencjalnych wymagań dodatkowych może zawierać szereg innych warunków. Dla przykładu można wymienić: oczekiwania mediów do równomiernego rozłożenia w sezonie potencjalnie najbardziej atrakcyjnych spotkań, równomierne rozłożenie gier rozgrywanych w danym mieście czy regionie, uwzględnienie dostępności przypisanych obiektów sportowych, restrykcje geograficzne, uwzględniające m.in. konieczność pokonywania dużych odległości. Ponadto optymalny harmonogram powinien mieć własność łatwej modyfikacji w przypadku, gdy w trakcie rozgrywek liczba graczy ulegnie zmianie. Wspomniane wcześniej Tablice Bergera stosunkowo prosto można wyrazić w formie przedstawionego poniżej wzoru matematycznego. Jednak skonstruowanie niemal optymalnych harmonogramów, pozba-


Wzór do konstrukcji Tablic Bergera

wionych mankamentów wymienionych wcześniej, wraz z uwzględnieniem priorytetowej listy warunków dodatkowych, nie jest możliwe do uzyskania w tak łatwy sposób. W tym celu można się posłużyć dogodnym modelem matematycznym 1-faktoryzacji grafów pełnych. Wykorzystanie własności kombinatorycznych tych struktur wraz z możliwością komputerowej analizy, opartej na specjalnie przygotowanych metodach algorytmicznych, stanowią podstawowe narzędzia do konstrukcji harmonogramów. O złożoności problemu może świadczyć fakt, iż samo wygenerowanie wszystkich potencjalnych możliwości jest niewykonalne nawet w przypadku turniejów z niewielką liczbą graczy - zadanie takie wielokrotnie przekracza możliwości obliczeniowe najszybszych komputerów. Dla przykładu, o ile w przypadku 10 uczestników turnieju liczba wszystkich możliwych bazowych schematów przypisania poszczególnych gier wynosi „tylko” 1 225 566 720, to w przypadku

turnieju z 12 graczami jest to liczba 252 282 619 805 368 320, a dla 14 graczy 98 758 655 816 833 727 741 338 583 040. Efektem długoletniej współpracy autora artykułu z profesorem Daliborem Fronckiem (z Uniwersytetu Minnesota Duluth w USA) są schematy spełniające wszystkie wyżej wymienione kryteria, przygotowane na potrzeby Orange Ekstraklasy (wykorzystywane w latach 2007-09) oraz Gambrinus Ligi - czeskiej pierwszej ligi piłki nożnej (wykorzystywane od roku 2002). Autor dr Mariusz Meszka, Wydział Matematyki Stosowanej AGH źródło: blog naukowy AGH

c zapraszamy do dyskusji @ napisz do nas

Teberia 06/2012

13


T R E ND Y >>

14

Teberia 06/2012


Szarość, brud, wszechobecny kurz, gdzieniegdzie ruiny, tu i ówdzie walają się porzucone przedmioty, do niedawna służące komuś i czemuś. To stara huta, stara przędzalnia, stary młyn, stara cechownia… Tak w latach 90. ubiegłego wieku wyglądały obiekty poprzemysłowe – bezużyteczne, bez szans na nowe życie. I nagle coś się zmieniło…

Postindustriada – albo ludzie z getta LOFT

Teberia 06/2012

15


T R E ND Y >>

Idea miasta poprzemysłowego Kiedy mówimy o miastach poprzemysłowych, myślimy zwykle o olbrzymich, zniszczonych terenach, specyficznych obiektach oraz infrastrukturze, przystosowanej do przewozu wielkich ilości materiałów. Rzadziej przychodzi nam na myśl inny postindustrialny spadek, mianowicie specyficzna struktura społeczna, oparta na powtarzalności działań i przewidywalności zdarzeń, która - w rzeczywistości nie zdominowanej przez przemysł - nie jest w stanie sobie poradzić. Ta struktura jest integralną częścią rzeczywistości, dlatego zagospodarowanie terenów poprzemysłowych wiąże się także z rekonstrukcją pewnego świata, systemu wartości, który wobec upadku przemysłu, musi gdzieś znaleźć swoje miejsce. Krzysztof Nawratek - architekt, urbanista, absolwent Politechniki Śląskiej, doktor nauk technicznych, wykładowca arc hitektury w School of Architecture & Design w Playmouth – wskazuje, że koniec miasta przemysłowego w Polsce (także w Europie środkowo-wschodniej) zbiegł się z końcem realnego socjalizmu. Z tego powodu jakakolwiek próba dyskusji o re-industrializacji jest odczytywana jako próba powrotu do PRL-u i jako taka jest odrzucana. Co pozostaje? Ano fascynacja miastami zachodu z początków lat 90-tych, opartymi na usługach, turystyce, konsumpcji i puchnącej bańce rynku nieruchomości. Początek XXI wieku to również moment fascynacji ideą „klasy kreatywnej” (w Polsce przeżywany z dziesięcioletnim opóźnieniem). Problem w tym, że to są dokładnie te idee, które przygotowały grunt pod obecny kryzys. XXI wiek odrzuca ideę miasta przemysłowego, traktując ją jako anachronizm. Nawet jeśli miasto rzeczywiście utrzymuje się z przemysłu, nie mówi się o renesansie idei miasta przemysłowego, a jedynie o akceptacji wizji miasta, w którym jest przemysł. To rozróżnienie jest istotne, również dla naszych rozważań, ponieważ miasto przemysłowe próbowało zapewnić biologiczną i społeczną reprodukcję swoim mieszkańcom, współczesne neoliberalne miasto, w którym istnieje przemysł zupełnie o to nie dba. Miasto przemysłowe było spójnym splotem polityki, gospodarki, kultury i kwestii społecznych. Neoliberalne miasto post-przemysłowe dumne jest z braku powiązań pomiędzy tym, co społeczne, tym, co polityczne i tym, co związane z ekonomią. Tylko, czy wtedy jest jeszcze jednym organizmem? Obserwowany od jakiegoś czasu boom na zagospodarowanie terenów poprzemysłowych, głównie 16

Teberia 06/2012

Szyb Krystyna w wizji projektantów.

zaś moda na tzw lofty i squaty, doskonale wpisuje się w problematykę wizerunku miasta (post) industrialnego. Bo właśnie od sposobu, w jaki to zagospodarowanie ma miejsce zależy, czy mamy do czynienia z ideą miasta przemysłowego - przejawiającą się w spójnej koncepcji rozwiązań, które służą mieszkańcom - czy też jest to przypadkowa adaptacja czego się da, byle zgodnie z obowiązującą modą, byle schlebić gustom najbogatszych i dobrze na tym zarobić.


Lofty, czyli postindustrial zamieszkały Lofty – dziś pierwszy krzyk mody i spełnienie marzeń o luksusie - narodziły się w opuszczonych pomieszczeniach fabrycznych i hangarach w nowojorskiej Tribeca i Soho, kiedy w latach 50-tych XX wieku, w wyniku gwałtownej deindustrializacji wielkich miast przemysł został wyparty na ich peryferia. Później zaczęły się rozprzestrzeniać na cały Nowy Jork, inne stany, a następnie na inne

kontynenty. Rozwój technologii spowodował, że dawne budynki przemysłowe nie odpowiadały już swojej funkcji i pozostawały bezużyteczne zaniedbane pogarszały kondycję całych dzielnic. W miarę jak wzrastało znaczenie terenów postindustrialnych, wchłoniętych przez rozrastające się centra miast, zwiększyło się również zainteresowanie obiektami inżynierskimi oraz budynkami mieszczącymi niegdyś fabryki i magazyny. Na przełomie XX i XXI wieku zintensyfikował się proces rewitalizacji obszarów poprzemysłowych. Zdegradowane tereny poprzez wprowadzenie nowych funkcji, poprawę estetyki i jakości życia, odpowiednią politykę ekonomiczną i społeczną zyskały na atrakcyjności stając się na nowo częścią tętniącego życiem miasta. Mieszkania w lofcie mają wiele zalet: przestrzeń, świetne warunki doświetlenia wnętrz dzięki olbrzymim oknom lub przeszkleniom fasad, modny industrialny wygląd, a przestrzeń mieszkalną można dowolnie ukształtować. Dlatego lokale tego typu stają się coraz bardziej popularne. Kraków zaadaptował na lofty zabytkowy młyn Ziarno, Poznań – koszary XV Pułku Ułanów Poznańskich. Z kolei we Wrocławiu dobiega końca przebudowa wnętrz XIX-wiecznej destylarni i magazynów win braci Wolf, ciekawie urządzono lofty w spichlerzu w pruskich koszarach w Gliwicach. Zachowano nie tylko stare mury i konstrukcję, ale także drewniane stropy, podłogi, autentyczne okna. W Warszawie lofty powstaną na terenie dawnej wytwórni wódek Koneser na Pradze. - Naszą intencją jest połączenie odrestaurowanych zabytków dawnej wytwórni wódki z nową, współczesną architekturą inspirowaną motywami industrialnymi. Dawne obiekty m.in. budynki Kordegardy, Rektyfikacji i Magazynów Spirytusu będą stanowić dominantę w nowej przestrzeni. Jej dopełnieniem, a zarazem rozwinięciem staną się nowoczesne budynki mieszkalne, pasaże handlowe, restauracje, kawiarnie, biura i galerie sztuki. Kluczowe będzie harmonijne połączenie tych sfer i odpowiednie wyważenie proporcji pomiędzy nimi w wielofunkcyjnym modelu Konesera - mówi Rafał Szczepański, wiceprezes BBI Development NFI SA, firmy, która jest właścicielem pięciohektarowego terenu Konesera. Interesująco na tym tle przedstawia się także - nagrodzona w prestiżowym konkursie na Najlepsze Europejskie Destynacje Turystyczne EDEN – przędzalnia lnu w Żyrardowie. W folderach, reklamujących to miejsce czytamy: Wybierając swój loft w żyrardowskiej Starej lub Nowej Przędzalni, będziesz mógł się uważać za człowieka niekonwencjonalnego, przeciwTeberia 06/2012

17


T R E ND Y >>

stawiającego się konsumpcyjnemu stylowi życia. Nie musisz być artystą, dziennikarzem, finansistą. Możesz być każdym. Z okna będziesz miał panoramę na unikatowy zespół industrialny z przełomu XIX i XX w. Co prawda już nie zobaczysz, jak 10-tysięczna rzeka ludzi płynie świtem do nieistniejącej fabryki lnu. Jednak jej robotnicy jeszcze nie wymarli. Zamieszkasz w skansenie ożywianym na twoje potrzeby.

A może golf? Jednym z najbardziej spektakularnych wydarzeń inwestycyjnych na terenach poprzemysłowych jest projekt śląskiego biznesmena Michała Goli na pograniczu Bytomia, Rudy Śląskiej i Świętochłowic. Spółka Armada Development nabyła za ponad 23 mln zł 73,5 ha terenów po bytomskich kopalniach Szombierki i Rozbark, a pół roku wcześniej kupiła zabytkowy szyb Krystyna. Docelowo inwestor zainteresowany jest poszerzeniem swoich terenów o kolejne działki do ponad 200 ha. Dla tak ogromnego obszaru powstaje prekoncepcja urbanistyczna w pracowni Jagiełło i Krysiak Architects z Katowic. - W naszej koncepcji są: dwa duże centra handlowe, osiedle budownictwa wielorodzinnego o przyzwoitym standardzie, a więc dostępne na przeciętną 18

Teberia 06/2012

kieszeń, elementy budownictwa jednorodzinnego, a także obiekty typu rezydencja - mówi Marek Mutke, prezes Armada Developments, spółki zarządzającej tymi terenami. - Całość będzie spięta pełnowymiarowym publicznym polem golfowym z 18. dołkami. Mieszkanie w pobliżu pól golfowych jest atrakcyjne i trendy - dodaje Marcin Jagiełło z tej samej pracowni. - Ten teren jest różnie ukształtowany i będzie miał różne przeznaczenie, a pole golfowe doskonale spoi te elementy, bez ingerencji w konfigurację terenu. To modny i doskonały sposób na tworzenie w miastach zielonej przestrzeni. Jak widać, istotą tych projektów jest koncepcja spójnej przestrzeni, łączącej różne sfery życia – mieszkanie, rozrywkę, kulturę. Ale czy miasto staje się na powrót jednym organizmem, czy też zbiorem atrakcyjnych enklaw, z polami golfowymi na 18 dołków?

Postindustrial bardzo kulturalny Tereny poprzemysłowe są także często wykorzystywane do adaptacji pod kątem rozwoju kultury. Prekursorem tych działań było Zagłębie Ruhry. Jeszcze kilkanaście lat temu zdegradowany region wydawał się być skazany na upadek. Dzięki rewitalizacji te-


Zagłębie Ruhry zamienił przemysł na kulturę.

renów i obiektów poprzemysłowych, rozwijał się tak prężnie, że w 2010 r. ta potężna aglomeracja stała się Europejską Stolicą Kultury. W dawnych zakładach, kopalniach, hutach urządzono muzea i galerie. Zagłębie Ruhry to centrum nowoczesnych technologii, internetu i uniwersytetów, a jego przemysłowy niegdyś charakter wiąże się dziś z najwyższą kulturą. Imponujący postindustrialny teren pomagają pokonać wytyczone szlaki - szlak kultury przemysłu, przyrodniczy, sztuki oraz architektury. Obchody roku Europejskiej Stolicy Kultury w Zagłębiu Ruhry odbywały się pod hasłem „Przemiana przez kulturę - kultura przez przemianę”, nawiązując do zmian, jakie dokonały się w regionie dzięki projektom kulturalnym. Przykład ten może być zatem doskonałym wzorem dla aglomeracji śląskiej i bez wątpienia jest. Pierwszą, narzucającą się analogią jest Szlak Zabytków Techniki Województwa Śląskiego, stanowiący doskonałą bazę turystyczno-poznawczą, ożywający na ogół podczas Industriady – dorocznego święta szlaku. To, jeśli chodzi o skansen. Najciekawsza jest jednak, nieopatrzona oficjalnie tym hasłem, ale do niego nawiązująca - przemiana przez kulturę – kultura przez przemianę. Świetnym przykładem jest powstający właśnie na terenie dawnej kopalni „Katowice” Teatr Wielki Opery i Baletu. Już dziś trwa tu budowa nowej sali koncertowej Narodo-

wej Orkiestry Symfonicznej Polskiego Radia, Muzeum Śląskiego oraz Międzynarodowego Centrum Kongresowego. W planach jest też budowa dużego parkingu, który będzie jednocześnie niewielką galerią handlową. Budowa Teatru ma kosztować ok. 300 mln zł. Miasto część potrzebnych pieniędzy chce zdobyć z unijnej dotacji, dlatego już teraz projekt zgłoszono do bazy pomysłów na ważne inwestycje, które gromadzi urząd marszałkowski. Ale przemiana przez kulturę następuje nie tylko na Śląsku. Przykłady zagospodarowania terenów poprzemysłowych dla celów kulturalno-turystycznych znaleźć można także w Łodzi. Jednym z nich jest Centralne Muzeum Włókiennictwa powstałe w Białej Fabryce Geyera, posiadającej niegdyś pierwszą w Łodzi mechaniczną przędzalnię i tkalnię. Dziś muzeum gromadzi narzędzia i maszyny włókiennicze, służące do przerobu bawełny oraz próbki i większe fragmenty tkanin z wszystkich ośrodków produkcyjnych. Natomiast w Warszawie przykładem takiego wykorzystania obiektu może być m.in. wspomniany wyżej „Koneser” na warszawskiej Pradze. Do 2010 roku miał tu swoją siedzibę Teatr Wytwórnia. Obecnie w części pofabrycznych pomieszczeń działają galerie Luksfera i Klimy Bocheńskiej. Tu również swoje pierwsze wystawy prezentuje Muzeum Warszawskiej Pragi.

Teberia 06/2012

19


T R E ND Y >>

Postindustrial przyziemny Obiekty postindustrialne to nie tylko budynki. Równie potężny, o ile nie większy potencjał – tak dla mieszkańców, środowiska, jak i biznesu - drzemie w samej ziemi. Dochodowe może być bowiem także samo posprzątanie tych, z pozoru bezużytecznych, terenów. 20 Teberia 06/2012

Szacuje się, że tylko na pogórniczych hałdach Górnego Śląska zalega ponad 500 mln ton kruszywa, które można zagospodarować w budownictwie. Produkcja kruszyw z tego źródła należy do najbardziej przyszłościowych i dotyczy wszystkich terenów, na których przy wydobywaniu kopalin pozostają odpady. Z badań Polskiego Związku Producentów Kruszyw wynika, że udział kruszyw pozyskiwanych z odpadów wydobywczych, szczególnie węgla kamiennego, wynosi obecnie około 4-5 proc. z ponad 200 mln ton kruszyw produkowanych rocznie w Polsce, a do 2020 r. ilość ta może się zwiększyć nawet dwukrotnie. Pozyskiwanie kruszyw z hałd odpadów kopalnianych jest coraz intensywniej wspomagane przez Unię Europejską. Z jednej strony pozwala ono bowiem zaoszczędzić naturalne zasoby surowców mineralnych, z drugiej zaś, często otwiera dostęp do pokrytych hałdami atrakcyjnych nieruchomości. Rekultywacja składowisk wpisuje się także w unijne regulacje, dotyczące zagospodarowania odpadów wydobywczych. Największym producentem kruszyw pochodzących z hałd jest - należący do Kompanii Węglowej - katowicki Haldex. W ciągu ponad 50 lat działalności spółka przerobiła około 155 mln ton odpadów węglowych. Wiosną 2011 r. spółka rozpoczęła likwidację Hałdy Panewnickiej, jednej z największych na Górnym Śląsku. Ta, położona na pograniczu Katowic, Mikołowa i Rudy Śląskiej, wysoka na 12 metrów sztuczna góra, zajmuje powierzchnię około 100 hektarów. Usypano ją w ciągu wielu lat z 20 mln ton odpadów, pochodzących z rudzkiej kopalni Halemba. Składowisko to negatywnie wpływa na jakość powietrza, zagraża wodom podziemnym i w każdej chwili może się zapalić. Szacuje się, że można z niego odzyskać około 2 mln ton węgla, 1 mln ton mułu węglowego i 16 mln ton kruszyw. Stopniowa likwidacja Hałdy Panewnickiej potrwa od 15 do 20 lat, następnie teren zostanie zalesiony. Tereny poprzemysłowe zagospodarowała także Dąbrowa Górnicza. Powstała tam podziemna trasa turystyczna w sztolni należącej do Muzeum Miejskiego „Sztygarka”. - Możliwość zwiedzania Dąbrowy od „podziemi” jest nie lada atrakcją. Podziemne korytarze przygotowane dla ruchu turystycznego, a także zgromadzone w nich liczne eksponaty górnicze pozwalają choć na chwilę wyobrazić sobie bardzo trudne i niekorzystne warunki pracy, jakie lata temu panowały w kopalniach na terenie miasta, a także zaznajomić się z historią górnictwa - wyjaśnia


Arkadiusz Rybak, dyrektor Muzeum Miejskiego „Sztygarka”. Interesujący sposób na zagospodarowanie terenów po kopalni „Marcel” znaleziono w Marklowicach k. Wodzisławia. W powstałej tam „Tropikalnej Wyspie” atmosferę tropików zapewnia... metan z kopalni, który podgrzewa wodę w basenach. Na wyspie - fontanny i gejzer, plac zabaw, ścianki wspinaczkowe, skatepark, ścieżki spacerowe, rowerowe i do jazdy na rolkach, a także amfiteatr. Koszt pierwszego etapu przedsięwzięcia to 8 mln zł, a 75 proc. tej kwoty stanowiły dotacje unijne.

Jeśli nie postindustrial, to co? Pobieżny przegląd inwestycji, zakończonych lub trwających właśnie na terenach poprzemysłowych, skłania do refleksji. Idea miasta przemysłowego, w którym człowiek żył i pracował w pewnej symbiozie z otoczeniem, przetrwała tylko tam, gdzie wciąż żywy jest przemysł. W tym sensie, nawet jeśli wiele jest terenów poprzemysłowych, to owo zagospodarowanie terenów odbywa się w sposób naturalny, zgodny z potrzebami mieszkańców. Tak jest w przypadku Śląska, gdzie sporym atutem nieruchomości poprzemysłowych, jest to, że leżą one w centrach miast i w pobliżu głównych ciągów komunikacyjnych. Obiekty postindustrialne zagospodarowywane są tu pod różne inwestycje – od osiedli loftów poprzez ośrodki kulturalne i społeczne (muzea, galerie) po centra handlowe i ekonomiczne. W miastach przemysłowych, tradycyjnie, wszystkie te sfery życia przeplatały się wzajemnie. Adaptując tę infrastrukturę powielamy więc model miasta przemysłowego, a nie tworzymy modelu neoliberalnego miasta post-przemysłowego, charakteryzującego się – jak wspomniałam za Krzysztofem Nawratkiem - brakiem powiązań pomiędzy tym, co społeczne, tym, co polityczne i tym, co związane z ekonomią. Na Śląsku, mimo zmiany systemu politycznego, trwa ciągle rozwój miast przemysłowych - i miasto próbuje zapewnić biologiczną i społeczną reprodukcję swoim mieszkańcom. Może dlatego, że – jak mówi Jacek Kuś, pre-

zes biura projektowego Stabil z Katowic - architekci są tu bodaj najbardziej wyczuleni na utrzymywanie kontynuacji identyfikacji miejsca, dziejów i tradycji. - Jeśli odetniemy się od przeszłości, to zrobimy dokładnie tak, jak życzono sobie w minionej epoce, czyli bezmyślnie wyburzyć, posprzątać, zlikwidować. Inaczej jest na przykład w Łodzi, gdzie – inicjatywa odnowienia centrum miasta, (pod pięknym hasłem 100 kamienic) wiąże się z eksmisją obecnych lokatorów do wybudowanych na przedmieściach kontenerów. Powszechna jest opinia, że dzisiejsze kontenery w Poznaniu czy Józefowie pod Warszawą są siedliskami ludzi zbiorczo określonych jako populacja „problemowa”. Tak właśnie – jak pisał Łukasz Drozda w artykule „Miasto 100 eksmisji” - wygląda gentryfikacja po polsku, w myśl której odzyskiwanie miasta polega na spychaniu wstydliwych zjawisk poza granice wzroku i otoczenia normalnych, tj. dobrze prosperujących mieszkańców. Proces, który zaczyna się pod patronatem wzniosłych haseł poprawy standardów życiowych obraca się w zadawanie kolejnych ciosów gorzej sytuowanym, zamiast służyć ich reintegracji. Getta biedoty i ekonomiczne Eldorado w postindustrialnym ścisłym centrum nie mają ze sobą żadnych powiązań, trudno tu zatem mówić o możliwościach biologicznej i społecznej reprodukcji społecznej. Łódź jest przykładem neoliberalnego miasta post-przemysłowego, dumnego z braku powiązań pomiędzy tym, co społeczne, tym, co polityczne i tym, co związane z ekonomią. Adaptacja terenów poprzemysłowych, prowadzona jest w różny sposób. Od władz zależy, czy zagospodarowując tereny poprzemysłowe starają się nadać miastu spójny wizerunek i charakter, czy też chcą w bezmyślny sposób schlebiać gustom nuworyszy, nabijając przy okazji kabzę deweloperom, często – niestety - kosztem najuboższych mieszkańców. Dominika Bara c zapraszamy do dyskusji @ napisz do nas

Teberia 06/2012

21


R A P OR T >>

22

Teberia 06/2012


Prąd

Społecznościowy Wyobraźmy sobie, co by było gdyby ktoś zaproponował nam dzisiaj całkowite porzucenie Internetu na rzecz kilku krajowych, dużych gazet i stacji telewizyjnych. Przekonywałby nas, że korzyści są oczywiste. Nie trzeba by się było więcej męczyć wyszukiwaniem informacji, spędzać godzin na portalach społecznościowych, blogować ani śledzić wypowiedzi innych blogerów. Zamiast różnorodnych opinii dostawalibyśmy codzienną dawkę informacji w formie jednorodnego pakietu przygotowanego przez redakcje gazet i telewizji, centralnie sterowanych - w imię zachowania spójności - przez rząd. Moglibyśmy oczywiście komunikować się z tymi mediami: przy pomocy tradycyjnych „listów do redakcji” zgłaszać wnioski i opinie. Czy ktoś zgodziłby się na taką propozycję? Pewnie nie, a jednak w świecie energetyki podobny stan rzeczy ani nikogo nie dziwi, ani nikomu zbytnio nie przeszkadza. Amerykański ekonomista, Jeremy Rifkin utrzymuje, że to ceny energii wywołują kryzysy finansowe, w tym kryzys, z którym obecnie boryka się świat i Unia. Również w Polsce temat energii działa elektryzująco: od elektrowni jądrowych do gazu łupkowego, od łupków do wychwytywania CO2, od CO2 do „zielonej energii”. Wszystkie projekty zagwarantowania Polsce bezpieczeństwa energetycznego mają jedną wspólną cechę: energia powstaje w dużych, zcentralizowanych organizmach, po czym przesyłana jest do sieci milionów odbiorców. Wybór odpowiedniej technologii sprowadza się do zdecydowania, co będzie w centrum tej sieci: elektrownie jądrowe czy hektary farm wiatrowych, gaz czy słońce. Zwolennicy poszczególnych technologii żonglują liczbami i danymi dotyczącymi bezpieczeństwa, opłacalności i ekologiczności wszystkich propozycji, oskarżając się w między czasie o nieuczciwy lobbing. Jednak na uboczu debaty o wielkiej energii pojawił się niespodziewanie trzeci konkurent, wyłamujący się z dyskursu wielkich dostawców energii. Smart Grid – czyli postmodernistyczna energetyka rozproszona. Teberia 06/2012

23


R A P OR T >>

Siła sieci

Trzecia rewolucja przemysłowa

Protagoniści Smart Gridu nie bez powodu przywołują przykład Internetu. Bowiem w energetyce rozproszonej prąd zajmuje podobne miejsce jak treść w dzisiejszej sieci WWW. Kiedyś treść generowana była przez pasywne strony internetowe i media a następnie odbierana przez internautów. Dziś treść rodzi się w blogosferze, społecznościówkach i na forach, jest jednocześnie tworzona i konsumowana

Jednak za ideą sieci małych źródeł energii tkwi wielka idea. Jeremy Rifkin widzi w Smart Gridach paliwo dla przeprowadzenia Trzeciej Rewolucji Przemysłowej. — Na czym polegały dwie poprzednie rewolucje? Na współdziałaniu nowych technik komunikowania z nowymi źródłami energii — tłumaczy w wywiadzie udzielonym „Polityce”. — Pierwsza Rewolucja Przemysłowa, w XIX w., oparta była

przez tych, którzy wcześniej byli tylko jej biernymi odbiorcami. Podobnie zbudowana jest sieć energetyki rozproszonej: rozsiane źródła energii, często obsługiwane przez „zwykłych” ludzi zastępują wielkie, scentralizowane elektrownie, a bierny konsument staje się prosumentem. Kluczowym elementem sieci jest „gospodarstwo domowe przyszłości”. Pasywny, zużywający ośmiokrotnie mniej energii dom, wyposażony w małe, solarne i wiatrowe generatory prądu oraz samochód elektryczny, będący jednocześnie rezerwuarem zapasowej energii. Oprócz zeroenergetycznych lub plusenergetycznych budynków ważnym ogniwem sieci są mali producenci prądu: elektrownie wodne, biogazownie, a także elektrownie konwencjonalne (najlepiej gazowe) stanowiące awaryjne źródło energii. Między punktami produkcji i konsumpcji energii rozpościera się inteligentna sieć, nie tylko efektywnie zarządzająca zużyciem energii, ale też umożliwiająca sprzedawanie jej każdemu, kto ją wyprodukuje. Listę zalet takiego rozwiązania można by długo rozwijać: energetyczna demokracja, uniezależnienie od importu, niższe ceny, bezcenne poczucie niezależności…

na technice druku masowego oraz na gospodarce napędzanej węglem i parą. Druga, w XX w., była skutkiem upowszechnienia elektrycznych narzędzi komunikowania – od telefonu po radio i telewizję – oraz na silniku spalinowym. Trzecia zaczęła się wraz z komunikacją cyfrową. Internet zmienił świat, oczekiwania ludzi, tempo i skalę przepływu informacji. Ale źródła energii pozostały te same. To wciąż jest węgiel, gaz, ropa. Cały świat gwałtownie upodabnia się do Zachodu, ale tych źródeł energii, na których oparty był nasz rozwój, dla wszystkich nie starczy. Dla kilkuset milionów starczało. Dla kilku miliardów – nie. (…) Jak Pierwsza Rewolucja oplotła Europę infrastrukturą kolei żelaznej, a Druga siecią dróg i kabli, tak Trzecia musi stworzyć przypominającą Internet sieć łączącą miliony małych źródeł odnawialnej energii elektrycznej.”

24

Teberia 06/2012

Zdaniem Rifkina rewolucja już się rozpoczęła, a świadczy o tym między innymi polityka energetyczna Niemiec. Zamykanie elektrowni jądrowych nie jest podyktowane jedynie strachem przed atomem: to symptom przemiany całej filozofii energetyki. Co czeka nas na końcu tej drogi? — Europa odzyska swoją pozycję, dopiero kiedy jako kontynent i wspólnota gospodarcza razem przejdzie tę


rewolucję. Kiedy domy w Hiszpanii za dnia produkujące nadmiar energii będą ją mogły wymieniać z domami w Skandynawii, która nocą wytwarza za dużo energii w hydroelektrowniach. Dwa pokolenia Europejczyków będą miały przy tym pracę — dodaje ekonomista.

Teraz Polska? Zdaniem Rifkina Polska ma szanse wysunąć się na czoło wyścigu po nową energię. Jego zdaniem, zamiast angażować się w XX-wieczną technologię jądrową Polska powinna skorzystać z okazji i „przeskoczyć” z węgla prosto do źródeł energii trzeciej rewolucji. O perspektywach takiego skoku mówi prof. dr hab. inż. Jan Popczyk, dyrektor Centrum Energetyki Prosumenckiej w Politechnice Śląskiej, prezes Stowarzyszenia Klaster 3x20, koncentrujący się na badaniach w zakresie uwarunkowań przejścia energetyki postprzemysłowej w nowy etap rozwojowy, charakterystyczny dla społeczeństwa wiedzy, który w wykładzie inauguracyjnym na Politechnice Śląskiej w roku akademickim 2009/2010 zakwalifikował jako piątą falę innowacyjności i nazwał SYNERGETYKĄ (zarządzanie energią za pomocą infrastruktury smart grid w obszarze obejmującym tradycyjną energetykę, budownictwo, transport i rolnictwo energetyczne). Sieć energetyki rozproszonej zapowiada się obiecująco. To chyba jedyny projekt, który może pogodzić wiele grup społecznych: ekologów, konsumentów, przedsiębiorców. Jednak czy w Polsce dość jest „sił natury” (wiatru, słońca, biomasy) by energetyka rozproszona zastąpiła konwencjonalną? Niskoemisyjna gospodarka, zgodna z Mapą Drogową 2050 (redukcja emisji CO2 do 2050 roku o 80÷95%) ,jest w Polsce możliwa, i w dodatku jest korzystna dla kraju. Potencjał energetyki rozproszonej, zwłaszcza jeśli uwzględnić kogenerację rozproszoną na gaz ziemny jako technologię ubezpieczającą na rynku końcowym energii, jest w pełni wystarczający do pokrycia całego zapotrzebowania na energię elektryczną i ciepło. Które źródło energii odnawialnej byłoby dla Polski najważniejsze? Polska ma unikatowe zasoby w rolnictwie energetycznym, takie jakich nie ma żaden inny kraj w Europie. Są one większe od tych, które mają Niemcy

(ze względu na to, że Polska ma ponad dwukrotnie mniejszą liczbę ludności do wyżywienia), a oni (Niemcy) już obecnie w biogazowniach produkują przecież rocznie ponad 30 TWh energii elektrycznej i ponad 30 TWh ciepła (dodatkowo jeszcze 3 mln ton biopaliw). Jednak unikatowe polskie zasoby to nie tylko rolnictwo energetyczne. To także, a nawet przede wszystkim, zasoby w postaci potencjału redukcji zapotrzebowania na energię i paliwa, przede wszystkim w budownictwie. Potencjał redukcji ciepła na cele grzewcze wynosi w Polsce nie mniej niż 50%, a jest to raczej 80%. I jeszcze jedna wielka możliwość. Jest to możliwość wykorzystania renty zapóźnienia (technologicznego, w sferze zarządzania). Z tego punktu widzenia ważne jest to, że są do wykorzystania lokalne zasoby: rolnictwo energetyczne, potencjał redukcji zapotrzebowania na ciepło grzewcze, utylizacja odpadów: biogaz z 600 hm3 ścieków oczyszczanych biologiczne i około 15 mln ton biodegradowalnych odpadów stałych do corocznego zagospodarowania. Ale dostępne są także potrzebne zasoby kadrowe, odpowiednio wykształcone i posiadające w Polsce jeszcze silną motywację do działania i istnieje możliwość mobilizacji rozproszonego kapitału inwestycyjnego wysokiego ryzyka. Kurczy się natomiast gwałtownie możliwość mobilizacji wielkiego kapitału bankowego na monstrualne projekty jądrowe i węglowe, zwłaszcza po krachu dotychczasowej polityki banków w zakresie finansowania zadłużenia państw członkowskich UE i wobec perspektywy wspólnego unijnego nadzoru bankowego. Czy porzucenie energetyki konwencjonalnej wiązałoby się z wyrzeczeniami, czy też energetyka rozproszona mogłaby być na tyle wydajna, że ludzie mogliby zachować dotychczasowy, względnie energochłonny, styl życia? Jeśli chodzi o wyrzeczenia i ochronę dotychczasowego energochłonnego stylu życia, to sprawa jest Teberia 06/2012

25


R A P OR T >> prosta. O wyrzeczeniach nie ma mowy. Jest szansa. W czerwcu powtarzaliśmy jak mantrę, że EURO 2012, to dla Polski skok cywilizacyjny. Przebudowa energetyki w kierunku energetyki prosumenckiej, to szansa na nieporównanie większy skok cywilizacyjny. Trzeba tylko tę szansę wykorzystać. Z tym, że o energochłonnym stylu życia nie może być mowy. Istotą energetyki prosumenckiej jest wewnętrzne (u prosumenta) równoważenie popytu i podaży. A nie ma wątpliwości, że na obecnym etapie rozwoju efektywność działań na rzecz obniżenia popytu jest wyższa niż działań na rzecz zwiększenia podaży. Poza tym trzeba uwzględnić, że człowiek realizujący rozwój zrównoważony (prosument) generalnie stoi wyżej na drabinie rozwojowej niż człowiek „energochłonny”. Argument dotyczący kosztów jest jednym z głównych argumentów zarówno zwolenników budowania elektrowni jądrowych i węglowych, jak i zwolenników wielkich farm wiatrowych czy elektrowni wodnych. Jak na tym tle wygląda energetyka rozproszona i czy finansowanie przez państwo tysięcy mikro-źródeł energetycznych jest możliwe do przeprowadzenia w Polsce? Na początek uściślenie. Państwo nic nie finansuje (jeśli nie jest socjalistyczne), ani w energetyce wielkoskalowej ani w rozproszonej. Państwo tworzy regulacje, na mocy których następuje przepływ środków od odbiorców do tych, którzy zasługują na rzetelne wynagrodzenie i do tych (jest ich w kraju coraz więcej), którzy tworzą pasożytniczą infrastrukturę. Energetyka prosumencka to taka, w której pasożytnicze infrastruktury mają trudniejsze warunki bytowania niż w energetyce wielkoskalowej. Oczywiście, jest tak wówczas, kiedy kraj ma dobrą pozycję na światowych listach rankingowych związanych z wolnością gospodarczą (biurokracja jest utrzymywana w ryzach) i z przejrzystością regulacji (czyli korupcja jest silnie ograniczona). Czyli kto zapłaciłby za budowę sieci rozproszonej? Mikroinstalacje prosumenckie z samej istoty nie mogą być finansowane przez państwo. Mikroinstalacja prosumencka, to część domu jednorodzinnego, gospodarstwa rolnego, biurowca, budynku wspólnoty mieszkaniowej. To część infrastruktury gminnej (oświetlenie, oczyszczalnia ścieków, wysypisko odpadów komunalnych, siedziba urzędu, szkoła, szpital…). To część biura usługodawcy, część zakładu

26

Teberia 06/2012

produkcyjnego przedsiębiorcy. Czyli finansowanie mikroinstalacji energetycznej jest integralną częścią finasowania odpowiedniego projektu/przedsięwzięcia zaspakajającego szeroko rozumiane potrzeby prosumenta; w żadnym wypadku nie jest to odrębna sprawa. Zatem, jeśli przedsiębiorca – na przykład – ma środki na sfinansowanie rozwoju swojego biznesu, to sfinansowanie mikroinstalacji energetycznej, wpisującej się w prosumencki łańcuch wartości, tylko poprawi efektywność tego biznesu. Jak media i konsumenci postrzegają energetykę rozproszoną? Wydaje się często, że główny dyskurs wyklucza to rozwiązanie na rzecz bardziej „monumentalnych” projektów ekologicznych lub na rzecz projektów konwencjonalnych. Wiele mówi się o farmach wiatrowych, elektrowniach jądrowych. O drobnej fotowoltaice mówi się za to z reguły w kontekście „dodatku” mającego obniżyć koszty eksploatacji budynków, głównie koszty ogrzewania. Jak opinia publiczna reaguje na idee energetyki rozproszonej? Media ponoszą wielką odpowiedzialność za petryfikację wielkoskalowej energetyki w Polsce. Oczy-

Wizja Smart Grid według Cisco.


wiście, poniosą też konsekwencje. Utracą wiarygodność. Internauci wiedzą już znacznie więcej o niemieckiej i światowej (chińskiej) przebudowie energetyki niż czytelnicy gazet, słuchacze radia, widzowie telewizyjni. W polskich mediach w czerwcu słyszeliśmy bezustannie, że EURO 2012, to jest przebudowa cywilizacyjna Polski. Ale w polskich mediach nie ma najmniejszego śladu starań, aby przedstawić istotę zmian cywilizacyjnych ogarniających świat za przyczyną przebudowy energetyki, upodmiotowić społeczeństwo w tym niezwykle ważnym obszarze gospodarki, uspołecznić nową falę innowacyjności technologicznej i innowacyjności wdzierającej się do sfery zarządzania. A jaka jest reakcja środowisk? Jeszcze bardzo różna. Dla mnie ważne jest jednak to, że na przykład na Warmii i Mazurach powstaje Koalicja Stowarzyszeń „Bezpieczna Energia”, która uznaje małe, przydomowe „siłownie wiatrowe” za priorytetowy model rozwoju energetyki wiatrowej w regionie, w opozycji do energetyki wielkoskalowej. Że na spotkaniach w gminach (województwa: ślą-

skie, opolskie, dolnośląskie) ludzie mówią do mnie: „Panie profesorze, niech nas pan nie przekonuje do odnawialnej energetyki rozproszonej. My jesteśmy przekonani. Dyskutujmy, jak doprowadzić do powstania warunków (regulacji prawnych) tworzących podstawę rozwoju tej energetyki”. Również ważne jest to, że na początku kolejnych semestrów moi studenci podchodzą z rezerwą do energetyki prosumenckiej. A w swoich końcowych Raportach (opracowanych na koniec semestru) stwierdzają, po przeprowadzeniu analiz, że ich gmina wiejska (miasto, osiedle, dom, …) mają pełne warunki do realizacji celów Pakietu 3x20 i Mapy Drogowej 2050. Jak rozwija się rynek firm instalujących wiatraki, kolektory słoneczne przy domach i budynkach? Na razie występuje ostry deficyt fachowców. Sytuacja jest zatem jeszcze bardziej skomplikowana niż była z firmą Bata wchodzącą na rynek butów w Afryce (u Baty było źle, bo w Afryce ludzie chodzą boso, było dobrze, bo jest kogo ubrać). Dlatego bardziej skomplikowana, bo Bata była/jest, a fachowców w energetyce prosumenckiej na razie nie ma. Ale będą, bo jest rynek. Tylko przestrzegam – na ukształtowanie się dojrzałego rynku fachowców (audytorów, projektantów, instalatorów, certyfikatorów) potrzeba lat: trzech, czterech, a nawet pięciu. Jaka jest stopa zwrotu inwestycji w dom plus/zero energetyczny? Jeśli chodzi o stopę zwrotu inwestycji w dom plus/ zero energetyczny, to jest tak jak ze stopą zwrotu w samochód (są tanie pociągi, autobusy i tramwaje, a my kupujemy drogi samochód). Jest taka jak w ładny dom (moglibyśmy wybudować brzydszy dom tani, a budujemy ładny drogi). Jest taka jak w mieszkanie wybudowane przez dewelopera (kupujemy drogie mieszkanie, bo nie wiemy, że możemy wybudować sobie tani dom). Ten ostatni przykład (braku rozeznania – w licznych przypadkach – ceny mieszkania i domu) jest ważny. Przyjmijmy cenę ogniwa PV (na podłożu giętkim) równą 2 €/W (cena obecnie bardzo wysoka), a żywotność ogniwa 40 lat (okres gwarancyjny zapowiadany przez Polski Bazalt). Wówczas składowa ceny energii elektrycznej u prosumenta, związana z „gołym” ogniwem PV wynosi około 220 zł/MWh (w cenach stałych). Teberia 06/2012

27


R A P OR T >> Aktualna cena od dostawcy z urzędu wynosi natomiast dla małego przedsiębiorcy (taryfa C) około 600 zł/MWh (w kolejnych latach cena ta będzie się szybko piąć w górę). „Przepaść” między 220 zł/ MWh i 600 zł/MWh jest tak duża, że nie ma powodu martwić się za co sfinansować infrastrukturę (baterię akumulatorów, smart grid obiektowy i tak dalej) która sprawi, że „gołe” ogniwo PV stanie się w pełni użyteczne praktycznie.

Kapitalizm i elektryfikacja wsi Jaką role w budowaniu systemu energetyki rozproszonej odegrać może wieś? Ogromną. Bardzo szybko setki gmin wiejskich (jest ich w Polsce 1600) i wiejsko-miejskich (jest ich 500) może się przekształcić z całkowicie zależnych od dostawców (energii elektrycznej, ale także paliw transportowych, węgla, gazu ziemnego i LPG) w gminy „eksportujące” energię/paliwa. Na początek gminy wiejskie i wiejsko-miejskie mogą/powinny odegrać w szczególności kluczową rolę w realizacji przez Polskę celów Pakietu 3x20 oraz Mapy Drogowej 2050. Do tego nie są potrzebne żadne nowe środki. Wystarczy lepiej wykorzystać środki obecnie marnowane (np. na współspalanie biomasy w elektrowniach kondensacyjnych). Mikrobiogazownie utylizacyjno-rolnicze, o mocach elektrycznych powyżej 10 kW, do około 50 kW, to sposób na przekształcenie polskich gospodarstw rolnych o powierzchni od 20 ha do 100 ha (jest ich w Polsce ponad 110 tys.) w nowoczesne gospodarstwa towarowe, o zdywersyfikowanej strukturze przychodów. Biogazownie o przeciętnej mocy elektrycznej 0,5 MW, to sposób na poprawę sytuacji wielkotowarowych gospodarstw rolnych, o powierzchni ponad 100 ha (jest ich w Polsce około 9 tys.) i przygotowanie się do skutków związanych z procesem wygaszania Wspólnej Polityki Rolnej, którego intensywność po 2020 roku (wraz z upływem okresu budżetowego 2014 -2020) gwałtownie się nasili. Które jeszcze urządzenia, oprócz biogazowni, mogłyby zmienić rolników w producentów energii? Układy hybrydowe, obejmujące ogniwo PV, mikrowiatrak i zasobnik w postaci baterii akumulatorów, 28

Teberia 06/2012

Mikrobiogazownia gotowa do zainstalowania w gospodarstwie.

to technologia „wymarzona” dla wsi. Ta technologia, supernowoczesna, zintegrowana przez architektów z budownictwem wiejskim (w tym również starym), może odmienić obraz polskiej wsi. Układy hybrydowe dodadzą wsi urody, umożliwią zastąpienie tradycyjnej reelektryfikacji sieciowej nowoczesną reelektryfikacją wytwórczo-elektroniczną, której częścią składową będą mikrosieci smart grid. Dalej, transport elektryczny w postaci ciągnika elektrycznego i elektrycznego samochodu dostawczego w naturalny sposób wpisuje się w energetykę wiejską, bo jest to transport o lokalnym charakterze funkcjonowania (o małym zasięgu jazdy). I jeszcze dalej, na wsi jest dużo dachów eternitowych (dachy domów mieszkalnych, zabudowań gospo-


wspomagania OZE jest drugim czynnikiem. A jak do projektów rozpraszania energetyki podchodzą aktualni, duzi dostawcy energii? Jeśli chodzi o interesariuszy, to sytuacja jest typowa. Taka jak dla każdego wielkiego przełomu. Starzy gracze bronią i będą bronić do upadłego swoich interesów (państwo nie zadbało o to, aby w ciągu ostatnich 15 lat osłabić stare interesy, nieadekwatne do obecnego poziomu technologicznego i społecznego).

darczych). Dachy te muszą być zmodernizowane, eternit musi być całkowicie wyeliminowany do 2030 roku. Jest zatem znakomita okazja, aby nowe dachy zostały pokryte „papą” PV.

Gdzie się podzieją monopoliści? Czy prawo sprzyja rozwojowi energetyki rozproszonej? Jakie są działania ustawodawcy? Prawo w Polsce nie tylko nie sprzyja rozwojowi energetyki rozproszonej, ale na razie wręcz blokuje ten rozwój. Oczywiście, nie jest to blokowanie realizowane w sposób jawny. Jest to blokowanie pośrednie. Biurokracja jest pierwszym i najważniejszym czynnikiem blokowania. Najbardziej nieefektywny w Europie system wydatkowania pieniędzy pod hasłem

Jeremy Rifkin utrzymuje, że wiele firm energetycznych przygotowuje się do pójścia śladem firmy IBM: przekwalifikowania się w perspektywie zmian społeczno-gospodarczych i rosnącej konkurencji (w przypadku IBM z produkcji komputerów na doradztwo). Czy Polscy dostawcy przewidują możliwość takich zmian? Jest już za późno na restrukturyzację skonsolidowanych w ciągu ostatnich 12 lat grup energetycznych (zwłaszcza po twórczo rozwiniętej konsolidacji przez obecny rząd w ciągu ostatnich 5 lat). Wyjątkiem, zdolnym do wejścia na nową ścieżkę rozwoju jest jeszcze Grupa ENERGA. Jeremy Rifkin opisując potencjalny rozwój sytuacji poszedł po „bandzie” przyrównując korporacyjne przedsiębiorstwa elektroenergetyczne do firmy IBM. Ta ostatnia firma w ciągu dziesięcioleci miała 1000 do 3000 patentów rocznie. Dlatego mogła sobie pozwolić na zmianę produkcji komputerów na usługi na rynku informatycznym. Siłą przedsiębiorstw elektroenergetycznych (na świecie, a w Polsce w szczególności) był zawsze monopol (i związana z monopolem stabilność), a nie innowacyjność. Dlatego korporacyjne przedsiębiorstwa elektroenergetyczne na konkurencyjnym rynku usług energetycznych ekstremalnie innowacyjnych (w obszarze synergetyki obejmującej całą energetykę, budownictwo, transport i rolnictwo) nie mają już nic do powiedzenia. Jednym z argumentów zwolenników budowy elektrowni jądrowych jest zestawienie efektywności odnawialnych źródeł energii z obecnym stylem życie. Przekonują oni, że wielkoskalowa energetyka odnawialna będzie mało wydajna i zmusi nas do zmiany stylu życia na mniej energochłonny, czyli – ich zdaniem - gorszy.

Teberia 06/2012 29


R A P OR T >> Wiele osób wyobraża sobie, że za cenę ochrony środowiska będzie trzeba poczekać na wiatr, by mieć w domu światło, a w pochmurne dni nie będzie telewizji. Jakie zmiany w społeczeństwie mogłoby wywołać hipotetyczne porzucenie energetyki konwencjonalnej na rzecz rozproszonej? Dotychczas dominuje, również w środowiskach zwolenników, obraz energetyki rozproszonej zgodnie z którym jest to „energetyka taka jak dotychczasowa wielkoskalowa, tylko mniejsza”. W szczególności wyznawcy energetyki rozproszonej często chcieliby być tak ważni jak dotychczasowy establishment energetyczny, zwłaszcza elektroenergetyczny (chcieliby zająć miejsce tego establishmentu). To jest jednak niemożliwe. Energetyka prosumencka oznacza nową jakość: nowe technologie, nową ekonomikę, nowe zarządzanie. Oznacza zamianę establishmentu energetycznego i odbiorcy energetycznego (stojących niżej na drabinie rozwojowej) na prosumenta (stojącego wyżej na drabinie rozwojowej). Prosument jest w szczególności człowie-

kiem produktywnym (w sensie takim jak u Fromma). Czyli realizuje swoje 4 potrzeby: zakorzenienia, twórczości, tożsamości, ustosunkowania się (relacji względem innych ludzi, w tym odpowiedzialności za nich). Energetyka prosumencka umożliwia realizację wymienionych potrzeb. Energetyka wielkoskalowa, zwłaszcza jądrowa, jest istotną przeszkodą w takiej realizacji, ogranicza demokrację i rynek.

Rozproszone złudzenia? Anya Kamenetz twierdzi, że w stanach zjednoczonych koncerny postanowiły pójść na „kompromis”, polegający w ich mniemaniu na tym, że zgodzą się rozproszyć energię pod warunkiem, że pozostawi się im monopol i kontrolę nad taką rozproszoną siecią (por. artykuł „Poza Siecią” numer 3/2010 Teberii). Jak oceniłby Pan ryzyko zawłaszczenia sieci przez dużych graczy? Oczywiście, do smart gridu też trzeba podchodzić z dystansem. Jeśli smart grid rozumiemy jako infrastrukturę potrzebną do zarządzania energią (energią

Dzięki włączeniu zarówno nowych jak i istniejących elementów sieci energetycznych do wspólnej platformy komunikacyjnej, wspólnoty/spółdzielnie energetyczne mogą lepiej kontrolować otoczenie, gromadzić informacje oraz zdalnie sterować urządzeniami za pośrednictwem sieci dystrybucyjnej. Inteligentne sieci mogą korzystać z różnych technologii, jak np. na poniższym obrazku. Dzięki specjalnie zaprojektowanemu interfejsowi oprogramowania możliwa jest integracja liczników, baz danych członków i sprzętu celem współdziałania.

„Inteligentne” stacje energetyczne uaktywniają narzędzia do zdalnego monitorowania wyłączników, bezpieczników, transformatorów, baterii a nawet temperatury oraz prędkości wiatru na terenie stacji. Informacja ta może zwiększyć niezawodność, ochronę i bezpieczeństwo pracy. Źródło: National Rural Electric Cooperative Association

30

Teberia 06/2012

Dane z „inteligentnych” liczników elektrycznych zostają przesyłane do wspólnoty/spółdzielni by śledzić przestoje dla jak najlepszej analizy w celach rozliczeniowych. Sygnały alarmowe mogą być odsyłane przez licznik do powiadamiania zaawansowanych technicznie urządzeń, kiedy pobór mocy powinien zostać ograniczony.


elektryczną, ciepłem, samochodem elektrycznym) w prosumenckiej mikroinstalacji energetycznej, czyli infrastrukturę takiego typu jak Internet, to możemy być stosunkowo spokojni. Jeśli jednak miałaby to być infrastruktura AMI (Advanced Metering Infrastructure) w postaci 16 mln „inteligentnych” liczników energii elektrycznej służących operatorom systemu elektroenergetycznego, to syndromu Wielkiego Brata nie możemy zbagatelizować. Cały projekt prezentuje się imponująco: niższe ceny, więcej demokracji, bezpieczeństwo energetyczne, rozbicie energetycznego establishmentu… czy energetyka rozproszona ma właściwie jakieś wady? Energetyka rozproszona nie jest „samograjem”. Jest bardzo wymagająca w zakresie techniki. Inteligentne instalacje prosumenckie dzieli przepaść od tradycyjnych instalacji dotychczasowych odbiorców (całkowicie biernych, niezdolnych do oceny rozwoju sytuacji i wykorzystania nowych możliwości). Jest jasne, że energetyka prosumencka wymaga zmiany mentalnościowej całego społeczeństwa, przełamywania stereotypów.

Wielkim niebezpieczeństwem energetyki prosumenckiej jest z jednej strony już cała armia celebrytów tej energetyki, a z drugiej silne interesy korporacyjno-polityczne. Dlatego trzeba bardzo uważnie nasłuchiwać, co mówią przeciwnicy energetyki prosumenckiej. Nasłuchując trzeba się nauczyć budować nowe umiejętności. Jedną z najbardziej pożądanych będzie umiejętność wygrywania konkurencji. A na drugim biegunie będzie umiejętność odrzucania totalnej negacji ze strony przeciwników, zwłaszcza negacji wywodzącej się z braku wiedzy.

Rozmawiał: Piotr Pawlik c zapraszamy do dyskusji @ napisz do nas

Teberia 06/2012

31


R A P OR T >>

EcoGrid - eksperyment na Bornholmie Wraz ze wzrostem zdolności do produkcji energii elektrycznej z energii słonecznej i wiatrowej zasadnicze znaczenie ma równoległe zwiększanie naszej zdolności do jej skutecznej dystrybucji, dlatego celem nowego projektu EcoGrid jest przetestowanie tych systemów dystrybucji energii elektrycznej. Dzięki dofinansowaniu na kwotę 12,7 mln euro z tematu „Energia” Siódmego Programu Ramowego (7PR) UE, projekt EcoGrid (Prototyp europejskich sieci inteligentnych) zgromadził 16 partnerów z Austrii, Belgii, Danii, Estonii, Hiszpanii, Holandii, Niemiec, Norwegii, Portugalii i Szwajcarii. Zważywszy na fakt, że zaspokajanie 20 proc. naszego zapotrzebowania na energię ze źródeł odnawialnych oraz redukcja o 20 proc. emisji gazów cieplarnianych to kluczowe priorytety unijnej strategii Europa 2020, tego typu projekty pomagają urzeczywistnić te flagowe cele polityczne. W ramach projektu EcoGrid uruchomiona zostanie platforma rynkowa, funkcjonująca w czasie rzeczywistym, do obsługi rozproszonych źródeł energii na duńskiej wyspie Bornholm, za pośrednictwem której 2000 odbiorców energii elektrycznej będzie proszonych o zredukowanie zużycia energii, kiedy wiatr jest zbyt słaby lub zbyt silny, aby mogły pracować turbiny wiatrowe na wyspie. W zamian będą mogli obniżyć swoje rachunki za energię elektryczną za pomocą inteligentnego układu elektroenergetycznego nazwanego „Inteligentną siecią” (ang. Smart Grid). Uczestnicy zostaną wyposażeni w domowe urządzenia regulujące zapotrzebowanie, które podają odbiorcom informacje w czasie rzeczywistym i umożliwiają programowanie automatycznych preferencji regulowania zapotrzebowania. Na chwilę obecną 50 proc. elektryczności na wyspie pochodzi z energii wiatrowej. Starszy naukowiec Ove Grande z instytucji koordynującej SINTEF Energy Research w Norwegii po32

Teberia 06/2012

wiedział: „Kiedy dany kraj rozwija wysoką zdolność produkcji energii słonecznej i wiatrowej, zakłada się zazwyczaj, że operatorzy systemu będą potrzebować rezerwowych źródeł, które można szybko włączyć, kiedy wiatr nie posłucha prognozy pogody lub kiedy chmury niespodziewanie przysłonią ogniwa słoneczne. A rezerwowe źródła dostaw, które mają zaspokoić nagłe zapotrzebowanie na energię są kosztowne.” Zazwyczaj tego typu problemy rozwiązuje się wykorzystując turbiny gazowe albo importując energię z innych regionów lub krajów. Ove Grande ma na-


dzieję, że wyniki projektu wykażą możliwość innego podejścia do tego problemu. „W układzie, który ma być zademonstrowany na wyspie Bornholm to odbiorcy będą rozwiązywać problem, zmniejszając ilość zużywanej przez siebie energii elektrycznej na krótki czas. To znacznie tańsze niż zapewnianie im rezerwowej energii, a przy tym również bardziej przyjazne dla środowiska. A ponieważ jest to tańsze, to zwiększy zakres, w jakim sieć elektryczna będzie mogła tak naprawdę polegać na energii słonecznej i wiatrowej.”

Inteligentna sieć funkcjonuje w sposób automatyczny i odłącza ustalony odsetek zużycia każdego odbiorcy, kiedy ceny energii elektrycznej są wysokie. Ten sam system umożliwia odbiorcom zwiększenie zużycia, kiedy ceny są niskie. W domach uczestników projektu zostaną zamontowane nowe liczniki energii elektrycznej, które różnią się od obecnych liczników tym, że przedstawiają rozbicie zużywanej energii elektrycznej oraz całkowite zużycie energii. W toku projektu opracowany zostanie system komputerowy, który automatycznie obliczać będzie cenę energii elektrycznej dla odbiorców na podstawie sytuacji w układzie produkującym i dystrybuującym. Cena powinna zawsze odzwierciedlać koszty wyprodukowania zapasowej energii w takich samych okresach. Układ będzie wysyłać w trybie ciągłym informacje o cenach do inteligentnej skrzyneczki, która będzie montowana wraz z licznikiem w domach odbiorców. W razie potrzeby skrzyneczka włączy lub wyłączy urządzenia elektryczne, w zależności od wcześniejszej oceny odbiorcy, jaka cena za energię elektryczną jest akceptowalna dla różnych typów zużycia. Po zakończeniu projektu naukowcy będą w stanie przeanalizować, jak uczestnicy oceniają układ na podstawie otrzymanych od nich opinii. Jedną z firm, która weźmie udział w projekcie EcoGrid jest Siemens. Udział Siemensa będzie m.in. polegał na dostarczeniu systemu optymalizacji zużycia energii. Więcej informacji: www.sintef.no/Home/ Źródło: cordis.europa.eu c zapraszamy do dyskusji @ napisz do nas

Teberia 06/2012

33


K R E AT Y W NI >>

Zielone Górą Choć pierwsze pojazdy elektryczne powstawały już w XIX wieku, to dopiero kilka lat temu małe samochody tego typu zaczęły masowo opuszczać wyobraźnię futurystów i przenosić się pod strzechy, a właściwie pod dachy garażów. Dla niektórych przedsięwzięcie elektryfikacji transportu drogowego posuwa się naprzód zbyt wolno, dla innych zmiany zachodzą zaskakująco szybko. Co do jednego jednak prawie wszyscy - wyjąwszy może koncerny naftowe - są zgodni: elektryczne samochody to szansa na bardziej ekologiczny i przyjazny środowisku transport. A choć w Polsce sytuacja na rynku elektrycznym wygląda o wiele gorzej niż na zachodzie, to i u nas elektryfikacja nabiera rozpędu. Częściowo za sprawą elektrycznego przedsiębiorstwa założonego przez absolwentów Zielonogórskiego Uniwersytetu.

Z górki ale pod prąd ­ Wszystko zaczęło się na studiach — opowiada — Maciej Wojeński, jeden ze współwłaścicieli Ekoenergetyki - Zachód. — Razem z moim wspólnikiem Bartoszem Kubikiem należeliśmy do koła na34

Teberia 06/2012

ukowego na Uniwersytecie Zielonogórskim. Kołu przewodził Profesor Benysek z Instytutu Inżynierii Elektrycznej naszego uniwersytetu i to tam właśnie wykonaliśmy pierwszy projekt, który stał się kamieniem węgielnym naszej spółki. To była konwersja samochodu spalinowego na elektryczny. Auto udało się nawet zarejestrować w Zielonej Górze i można nim było jeździć po mieście. Potem w ramach pracy dyplomowej zbudowaliśmy mikroelektrownię, której głównym elementem był system solarny i system zarządzania monitorujący jej pracę. Te dwa projekty stworzyły taki układ, który był w 100% zasilany czystą energią. Jeden jego element służył do obsługi drugiego, a oba połączone były pierwszą zbudowaną przez nas stacją do ładowania pojazdu elektrycznego. Wiedzę zdobytą podczas studiów i realizowania tych dwóch projektów postanowiliśmy skapitalizować i właściwie zaraz po zakończeniu studiów założyliśmy firmę, myśląc przede wszystkim o produkcji terminali do ładowania pojazdów elektrycznych — dodaje. Taki projekt w kraju, w którym wśród samochodów elektrycznych królują głównie obwożące turystów po Krakowie meleksy, a rząd w żaden sposób nie zachę-


ca do kupowania „prawdziwych” samochodów elektrycznych, może się wydawać szaleństwem. Jednak dzięki zaangażowaniu samorządów w rozwój komunikacji elektrycznej Ekoenergetyce szybko udało się wziąć udział w pierwszym projekcie produkcyjnym. — Mimo optymistycznych nastrojów panujących zarówno za granicą jak i w polskich środowiskach związanych z samochodami elektrycznymi, sprawa nie ruszyła z takim impetem, jakby tego chciało wiele osób — opowiada Maciej Wojeński. — Mówiło się nawet, że w Niemczech w ciągu kilku lat pojawi się milion takich aut. To wszystko nie ruszyło tak szybko, ale i w Polsce pojawiały się ciekawe projekty. Na przykład w 2009 roku Mielecka Agencja Rozwoju Regionalnego ogłosiła konkurs na dostawę pojazdów elektrycznych, systemu monitorowania infrastruktury i zbudowanie stacji do ładowania pojazdów. Zwycięzcą części konkursu był Instytut Elektrotechniki z Warszawy, a nam udało się współuczestniczyć w realizacji projektu — dodaje. — Od momentu powstania trwa współpraca firmy z Instytutem Inżynierii Elektrycznej Uniwersytetu Zielonogórskiego, bo są tam specjaliści, którzy są w stanie wspierać nas swoją wiedzą podczas realizacji kolejnych projektów — tłumaczy Wojeński. — Jest to oczywiście współpraca na zasadach komercyjnych, ale sama bliskość uczelni i instytutu dużo nam daje.

Sprytne słupki Flagowym produktem Ekoenergetyki są Smart Pointy, czyli stacje do ładowania pojazdów elektrycznych. Docelowo „słupki” służyć mają ładowaniu samochodów, jednak firma oferuje również punkty dostosowane do potrzeb rowerów elektrycznych czy ładowania baterii jachtów w marinach. — Projektujemy je sami, sami też piszemy dla nich oprogramowanie — mówi Wojeński. — To nasze autorskie projekty, obmyślamy konstrukcje obudowy, układów elektronicznych. Na dzień dzisiejszy na zewnątrz powstają jedynie obudowy, produkują je firmy z okolic Zielonej Góry. Terminal może obsługiwać do trzech pojazdów na raz w trybie ładowania przyspieszonego, co zajmuje mniej więcej 2-3 godziny. W ofercie mamy też urządzenia umożliwiające szybkie ładowanie, dedykowane dla stacji benzynowych, gdzie ładowanie pojazdu powinno trwać około 15 minut. Już teraz terminale są budowane z myślą o przyszłym rozwoju systemów Smart Grid, które będą w stanie współpracować z takimi systemami. Pod tym

względem nasz produkt wyprzedza zapotrzebowania rynku, bo póki co systemy Smart Grid nie rozwijają się tak szybko. Samochody elektryczne nie wzbudzają jednoznacznie pozytywnych emocji. Wysoka cena, niski zasięg, brak ekscytującego warkotu silnika… Jakiś czas temu zagroziły im również auta hybrydowe, oferujące bardzo niskie spalanie w nieporównywalnie niższej cenie. Mimo to właściciele Ekoenergetyki nie obawiają się hybryd. — Technologia hybrydowa, jeżeli w ogólne jeszcze się jakoś rozwija, to w kierunku tak zwanych Plug-in Hybrid, czyli hybrydy wyposażonej w gniazdko do ładowania. Pierwsze samochody tego typu działały tak, że ładowanie akumulatorów odbywało się tylko w trakcie pracy silnika spalinowego, teraz zaś są budowane w ten sposób, aby można było je również podłączyć do gniazdka, więc i one korzystają z tworzonej przez nas infrastruktury— zapewnia Maciej Wojeński. — Szczerze mówiąc to nie wiem, w jakim kierunku rynek będzie się rozwijał. Prawdopodobnie się podzieli i część ludzi zostanie przy hybrydach, gdzie energia elektryczna jest wykorzystywana do wolnego przemieszczania się lub ruszania, a część ludzi będzie chciała mieć czyste auta elektryczne. Jednak nie tylko technologia hybrydowa stawia pod znakiem zapytania rozwój technologii proponowanej przez zielonogórskie przedsiębiorstwo. Samochody elektryczne są na tyle młode, że producenci nie doszli jeszcze do kompromisu w zakresie standardu ładowania. — Na dzień dzisiejszy w naszych terminalach nie ma z tym problemu — zapewnia Maciej Wojeński. — Choć standard nie jest jeszcze ustalony, wszystko wskazuje na to, że będzie to gniazdo zgodne ze standardem IEC 62196 inaczej nazywane ‘typem drugim’, wprowadzone przez niemiecką firmę Mennekes. Teberia 06/2012

35


Jest to gniazdo trójfazowe z dwoma dodatkowymi pinami do komunikacji i z wbudowaną blokadą. Przez to jest w 100% bezpieczne, bo nie ma możliwości wypięcia tego wtyku podczas ładowania. W naszych rozwiązaniach stosujemy właśnie ten rodzaj gniazda do ładowania. Oprócz niego instalujemy też zwykłe gniazda, tak zwane ‘Schuko’, czyli gniazda 16-amperowe, takie jak mamy w domu, zgodne ze standardem CEE7. Jak na razie producenci samochodów elektrycznych zaopatrują samochody elektryczne w kable do ładowania, które z jednej strony mają swoją specyficzną wtyczkę, a z drugiej strony jest już wtyczka do zwykłego gniazda, wyposażona ewentualnie w adapter który pozwala na ładowanie tego specjalnego złącza. Jak na razie budujemy nasze rozwiązania w formie modułowej. Jeżeli jakiś standard złącza zostanie ustalony, to będziemy musieli wymieć tylko dany moduł, a nie cały terminal — tłumaczy. O dominację w świecie przyszłej infrastruktury konkurują ze sobą nie tylko różnego rodzaju wtyczki, ale i cała filozofia jazdy z prądem. Oprócz projektów ładowania baterii rozwijane są technologię ich wymiany. Jedną z firm proponujących takie rozwiązanie jest izraelsko-amerykańskie przedsiębiorstwo Better Place. W filmie demonstracyjnym zamieszczonym na stronie Better Place możemy zobaczyć stację wymiany akumulatorów w akcji. Samochód wjeżdża na niską platformę, pod którą znajduje się „kanał” zajęty przez robota. Wymiana baterii zajmuje mu 36

Teberia 06/2012

dokładnie minutę i trzynaście sekund. Podobne stacje wymiany działają już w nielicznych miejscach na świcie (m.in. w Danii, Izraelu i USA), a pierwszy samochód (Renault Fluence Z.E.) z systemem akumulatorów w pełni kompatybilnym ze stacjami wymiany Better Place opuścił fabrykę w styczniu tego roku. Firma zapewnia, że mimo ceny (pół miliona dolarów za stację – więcej niż koszt „słupków”, ale zdaniem przedstawicieli Better Place dwa razy mniej niż koszt budowy stacji benzynowej) sieć będzie się szybko rozwijać. — Moim zdaniem wymiana akumulatorów to duże wyzwanie, wszyscy producenci samochodów elektrycznych musieliby dogadać się i stworzyć jakiś wspólny pakiet akumulatorów, które byłyby tak samo rozmieszczone — komentuje Maciej Wojeński. — Do tego dochodzi jeszcze problem zużycia baterii, bo nie każdy chciałby wymieniać nową baterię na jakąś inną, być może bardziej wyeksploatowaną. Moim zdaniem to bardzo problematyczna i droga technologia. Zresztą jakiś czas temu uczestniczyłem w posiedzeniu grupy roboczej Cars 21 (Competitive Automotive Regulatory System for the 21st century – cykliczne spotkania dotyczące rozwoju transportu drogowego w UE realizowane pod egidą Komisji Europejskiej – przyp.red.) w Brukseli, które dotyczyło tematu standaryzacji i rozwoju infrastruktury dla samochodów elektrycznych. Zastanawialiśmy się, w jakim kierunku powinien pójść jej rozwój i praktycznie rzecz biorąc 90% osób biorących udział w spotkaniu


K R E AT Y W NI >> opowiedziało się za rozwojem publicznych, wolnych lub przyśpieszonych punktów ładowania. Te punkty byłyby rozsiane po mieście. W strategicznych miejscach - na przykład przy autostradach - powstałyby stacje wyposażonych w ładowarki korzystające z prądu stałego, czyli szybkie ładowarki, które są w stanie naładować samochód w około 15 minut. Wydaje mi się, że w obecnie i tak spędzamy na stacjach benzynowych tyle czasu, że te 15 minut nie powinno stanowić żadnego problemu, a rozwiązałoby to problem stacji wymiany akumulatorów i małego zasięgu pojazdów elektrycznych.

Samochód wymyślony na nowo Na zachodzie Europy rozwój rynku aut elektrycznych właśnie zaczyna nabierać rozpędu. Klienci indywidualni mogą liczyć na różnego rodzaju rządowe zachęty i wsparcie samych producentów. We Francji Citroën zaproponował w czerwcu swój model C-Zéro za… 99 Euro. Cena dotyczy jednak nie kupna, ale wynajęcia samochodu i może się na nią załapać jedynie 200 osób. Szczęśliwcy, którym uda się wynająć Citroëna, będą mogli podnajmować samochód innym mieszkańcom miasta w czasie, kiedy sami nie będą z niego korzystać. Cały proces koordynowany jest przez stworzoną przez firmę platformę Multicity i ubezpieczany przez Citroëna. Rozwiązanie to nie tylko zoptymalizuje korzystanie z pojazdu, ale i pozwoli zarobić na samochodzie samym wynajmującym – z każdych 25 euro zapłaconych przez kolejnego wynajmującego Citroën bierze 15 euro, a resztę dostaje pierwszy wynajmujący. W ten sposób firma próbuje uporać się z wysokimi, nawet jak na kieszeń francuskiego konsumenta, cenami samochodów elektrycznych i promować platformę Multicity, za pośrednictwem której można też podnajmować sobie samochody spalinowe. Jak widać, sektor aut elektrycznych wymaga zaangażowania i innowacyjnych projektów, a być może i zmiany przyzwyczajeń kierowców i zupełnie nowego sposoby myślenia o indywidualnym transporcie miejskim. Rynek za granicą dodatkowo nakręcają inwestycje przedsiębiorstw flotowych, takich jak Poczta Francuska, która do 2015 roku chce posiadać 10 tysięcy elektrycznych Peugeotów i Renaultów. Mimo rozwoju transportu elektrycznego nad Sekwaną, dla Macieja Wojeńskiego wzorem pozostają kraje skandynawskie. — W samej Norwegii zarejestrowanych jest już ponad 10 tysięcy samochodów elektrycznych.

Infrastruktura ciągle się rozwija, rząd oferuje różne dopłaty, a kierowcy aut elektrycznych mają możliwość korzystania ze szczególnych przywilejów: mogą na przykład jeździć po ‘buspasach’ albo parkować w miejscach, w których kierowców aut spalinowych obowiązuje zakaz parkowania. Ponadto na razie nie płacą za energię do ładowania samochodów, muszą tylko wysłać sms by uzyskać specjalny kod do obsługi stacji i to jest cały koszt jaki ponoszą — tłumaczy Wojeński. Z tego względu Ekoenergetyka działa na razie głównie poza granicami Polski. — Współpracujemy przede wszystkim z firmami z zagranicy. W tej chwili naszym największym klientem jest fiński koncern energetyczny Fortum, który używa naszych terminali do ładowania samochodów, ale też do skuterów, rowerów i skuterów śnieżnych… — wylicza Maciej Wojeński. — Mamy też przedstawicieli na rynku niemieckim i angielskim, niedługo rozpoczynamy współpracę z Belgami. Polski rynek musi jeszcze trochę poczekać, bo na dzień dzisiejszy nie ma tu za bardzo komu sprzedawać terminali. Mimo to nawet w kraju zainstalowaliśmy ich już trochę. Terminale kupiła między innymi PKP Energetyka oraz miasto Wrocław. Wrocław zresztą zdecydowanie prowadzi pod względem przygotowywania infrastruktur — dodaje. — Władze miasta podjęły odważną decyzję zainstalowania 10 punktów ładowania w sytuacji, kiedy na ulicach nie ma właściwie jeszcze pojazdów elektrycznych. My dostarczyliśmy te terminale, a zarządza nimi firma Galactico.pl przy pomocy specjalnego systemu zdalnego zarządzania. To właśnie na samorządy liczymy najbardziej.

Teberia 06/2012

37


K R E AT Y W NI >> One mogłyby zbudować infrastrukturę, której w Polsce brakuje. Bo na razie mamy błędne koło - kierowcy nie kupują samochodów elektrycznych, bo nie ma stacji ładowania, a przedsiębiorcy nie inwestują w stacje, bo nie ma pojazdów, które można by tam ładować. Taka sytuacja sprawia też, że na dzień dzisiejszy w Polsce nie mamy właściwie żadnej konkurencji. Co sprawia, że auta elektryczne wciąż są niepopularne? — Na pewno wpływają na to ceny i brak rządowych dotacji— wyjaśnia współwłaściciel Ekoenergetyki. — Na relatywnie wysoki koszt auta największy wpływ ma cena akumulatorów, która zacznie spadać dopiero w przyszłości. Poza tym ludzie muszą się przekonać do transportu elektrycznego. Wiele osób jest uprzedzonych. Często słyszy się narzekania na to, że zasięg 80 czy 100 km to za mało, kiedy faktycznie większość ludzi przejeżdża dziennie znacznie mniejsze odległości. Samochody elektryczne pewnie nigdy nie wyprą spalinowych, bo czasem zasięg kilkuset kilometrów jest niezbędny. Jednak w transporcie miejskim auta elektryczne sprawdzają się o wiele lepiej. Myślę, że sednem problemu nie jest mniejszy zasięg, ale bariera psychologiczna. Pozostaje mieć nadzieję, że zajdą zmiany podobne jak na rynku telefonów komórkowych, które z dużych i drogich stały się małe, wyposażone w wydajne baterie i stosunkowo niedrogie — podsumowuje.

Włączyć miasta Dla firm takich jak Ekoenergetyka w najbliższej przyszłości kluczowe będzie przełamanie zarówno bariery psychologicznej jak i cenowej. Częściowo może w tym pomóc dalszy rozwój infrastruktury oraz wsparcie rządu i samorządów. Problem polega na tym, że póki co w Polsce brakuje i jednego i drugiego, choć dzięki inicjatywom takich miast jak Wrocław sytuacja się poprawia. — Na pewno chcielibyśmy, by infrastruktura nadal się rozwijała — mówi Maciej Wojeński. — W najbliższym czasie planujemy zainstalowanie kolejnych 10 punktów ładowania we Wrocławiu. Rozwijamy też współpracę z firmą Solaris spod Poznania. Oni już jakiś czas temu zajęli się na poważnie produkcją rozwiązań związanych z transportem elektrycznym i już mają w swojej ofercie dwa autobusy elektryczne. Ekoenergetyka od początku towarzyszymy im w rozwoju tego projektu. Na początku dostarczyliśmy firmie Solaris systemy ładowania wolnego, natomiast w ostatnich tygodniach do nowego pojazdu dostarczyliśmy im szybką 38

Teberia 06/2012

ładowarkę. Zresztą o tym nowym autobusie było nawet dość głośno w mediach - kursował po Poznaniu w trakcie Euro i był zasilany naszym terminalem do szybkiego ładowania. Dziennie autobus robił jakieś 120 km. To były na razie tylko testy, które nam też otworzyły oczy na perspektywę rozwoju właśnie na rynku transportu miejskiego i w konsekwencji na zapotrzebowanie na szybkie ładowarki, które mogłyby takie pojazdy ładować. Takimi rozwiązaniami może być zainteresowana ogromna ilość miast, bo mimo tego, że autobus elektryczny jest droższy niż spalinowy, to jego eksploatacja jest dużo tańsza, a im więcej jeździ, tym szybciej się taka inwestycja zwraca. Ten rynek rozwija się coraz dynamiczniej w Niemczech. W Polsce prowadzimy rozmowy z firmami flotowymi, które jednak czekają wciąż na lepszą ofertę producentów pojazdów elektrycznych. Mimo nie dość dynamicznej sytuacji na rynku, inżynierowie z Zielonej Góry nie zamierzaj poprzestawać na jednym projekcie. Zwłaszcza, że publiczne granty w znacznym stopniu ułatwiają prace badawcze. — W przyszłości chcielibyśmy więcej korzystać z możliwości uzyskiwania pieniędzy publicznych, pierwsze takie pieniądze udało nam się uzyskać dopiero w tym roku — opowiada Maciej Wojeński. — Do tej pory skupialiśmy się bardziej na technologii niż na szukaniu pieniędzy i finansowaliśmy rozwój firmy z własnych środków. Propozycje doinwestowania dostaliśmy od zielonogórskich aniołów biznesu, jednak nie udało się im nas skusić. Ciągle jeszcze uważamy, że jest za wcześnie na dzielenie się firmą. Na razie stawiamy przede wszystkim na rozwój, a o jakiś formach sprzedaży części firmy pomyślimy może w przyszłości.

Inteligencja w sieci Ekoenergetyka podchodzi do problemu energii kompleksowo. Działa w perspektywie transformacji energetycznej, której być może będziemy niedługo świadkami: przejścia od centralnie sterowanej, pasywnej sieci do sieci energetyki rozproszonej. — Tak jak wspominałem, w tym roku udało nam się uzyskać publiczne pieniądze z Narodowego Centrum Badań i Rozwoju na rozwój nowego projektu. — mówi Maciej Wojeński. — Ma to być interfejs elektroniczny do rozdziału energii elektrycznej, umożliwiający jej dwukierunkowy przepływ. W połączeniu z garażową stacją ładowania energii elektrycznej taki interfejs będzie mógł stanowić część systemu inteligentnej sieci energetycznej, której ideę też chcielibyśmy propa-


Maciej Wojeński (z lewej) oraz Bartosz Kubik - założyciele spółki Ekoenergetyka.

gować. Kluczowe jest tutaj pojęcie prosumenta, czyli świadomego energetycznie obywatela, który przy swoim gospodarstwie domowym ma zainstalowane źródła energii odnawialnej i dzięki projektowanemu przez nas urządzeniu jest w stanie inteligentnie tą energią zarządzać. Ważne jest również pojęcie taryf dynamicznych: prosument nie tylko czerpie energię ze źródeł odnawialnych, ale może ją magazynować i sprzedawać do sieci. Nasz terminal ma na celu przede wszystkim umożliwienie przepływu energii między siecią, samochodem a przydomowymi źródłami energii odnawialnej. Przewidujemy, że gdy liczba samochodów faktycznie wzrośnie, takie systemy będą w stanie wyrównywać lokalne zaburzenia i magazynować energię. Na ten temat już prowadzimy przyszłościowe rozmowy z koncernami energetycznymi. Myślę, że jak tylko projekt inteligentnego interfejsu stanie się częścią naszej oferty, to pojawią się klienci z sektora średnich przedsiębiorstw, którzy chcieliby efektywnie zarządzać przepływem mocy w przedsiębiorstwie. Kolejnym rozwijanym przez Ekoenergetykę elementem przyszłej inteligentnej sieci energetycznej, są mikrobiogazownie rolnicze, w których biogaz wykorzystywany będzie do produkcji energii elektrycznej i ciepła. — Mikrobiogazowniami zaczęliśmy się interesować już jakiś rok temu. Udało nam się zwerbować do firmy specjalistę, który w ma nie tylko dużą wiedzą na temat tego rodzaju instalacji, ale też zna rynek— opowiada Maciej Wojeński. — Wszystko zaczęło się na papierze. Zaprojektowaliśmy

taką biogazownie, zrobiliśmy rozpoznanie rynku, znaleźliśmy dostawców komponentów i zaczęliśmy szukać klientów. Okazało się, że w Polsce jest teraz bardzo dobry czas na takie inwestycje, bo są dotacje z Agencji Rozwoju Rolnictwa, a banki chętnie kredytują takie przedsięwzięcia. Do tej pory udało nam się podpisać umowy z kilkoma klientami w Polsce. Jeszcze w tym roku powstaną pierwsze instalacje biogazownie o mocy około 100kW przeznaczone dla rolników, którzy maja spory areał i hodują bydło. Ekoenergetyka jest generalnym wykonawcą instalacji, dysponujemy swoją technologię, spinamy w jedną całość komponenty dostawców. Instalujemy system monitoringu takiej biogazowni. System chcielibyśmy zautomatyzować, tak by pewnymi procesami można było zarządzać zdalnie. Reprezentujemy też inwestora wobec urzędów i pośredniczymy w sprzedaży wyprodukowanej energii. Z naszych obliczeń wynika, że zwrot inwestycji powinien nastąpić w ciągu około czterech lat, pod warunkiem, że biogazownia będzie funkcjonowała na 100% wydajności, zwłaszcza, że zakłady energetyczne mają obowiązek odkupienia części „zielonej” energii — dodaje Maciej Wojeński.

Piotr Pawlik c zapraszamy do dyskusji @ napisz do nas

Teberia 06/2012 39


P R E ZE N TA C JE >>

II Międzynarodowy Kongres Górnictwa Rud Miedzi Świat zjechał do Lubina Lubin w dniach 16-18 lipca był niekwestionowaną stolicą światowego górnictwa rud miedzi. Ponad 400 osób wzięło udział w II Międzynarodowym Kongresie Górnictwa Rud Miedzi. Jak podkreślają organizatorzy wydarzenia, czyli działające przy KGHM Polska Miedź Stowarzyszenie Inżynierów i Techników Górnictwa, Związek Pracodawców Polska Miedź, KGHM Polska Miedź S.A., to największy tego typu kongres na świecie. Honorowy patronat nad Kongresem objął Prezydent RP Bronisław Komorowski. Goście ze świata nauki, przemysłu oraz inżynierowie i technicy z firm wydobywczych od poniedziałku do środy mogli uczestniczyć w sesjach tematycznych poświęconych ogólnym problemom światowego górnictwa rud miedzi. W trakcie kongresu wygłoszono ponad 60 referatów (podzielonych na kilka sesji tematycznych), których autorami byli reprezentanci 14 krajów, m.in. z Ukrainy, Kazachstanu, Chile i Australii. Tematyka Kongresu dotyczyła przede wszystkim obecnego stanu górnictwa rud miedzi oraz perspektyw i kierunków rozwoju. Hasłem tegorocznego wydarzenia było: „Perspektywy i kierunki rozwoju”. – Zwracaliśmy szczególną uwagę na to, jakie zadania stoją przed KGHM-em. Mieliśmy więc dużą grupę tematów związanych z mechanizacją, automatyzacją, monitoringiem maszyn i urządzeń. Druga, bardzo istotna grupa, to bezpieczeństwo, szczególnie w kontekście schodzenia z eksploatacją coraz głebiej i do wyższych temperatur, a więc wpływ klimatu kopalni na zdrowie i zachowanie pracowników – mówi prof. Monika Hardygóra, prezes KGHM Cuprum – CBR, przewodnicząca Rady Programowej Kongresu. 40 Teberia 06/2012

Organizatorzy liczą, że spotkania ekspertów i przedstawicieli branży z całego świata będą służyły wymianie poglądów i doświadczeń, ale również nawiązywaniu nowych kontaktów. – Mieliśmy uczestników np. z Iranu, którzy dzielą się doświadczeniami z kopalń odkrywkowych. KGHM ma również w nowej strukturze międzynarodowej takie kopalnie, więc dobrze było posłuchać o tych doświadczeniach. Szczególnie teraz jest to ważne, że rodzi się niejako strategia odnowy KGHM-u jako już firmy globalnej. Więc będzie miała dużo większe potrzeby niż dotychczas, koncentrujące się na wydobyciu w trzech kopalniach – podkreśla prof. Hardygóra. Bardzo interesujący, zdaniem prof. Moniki Hardygóry był na przykład blok wykładów dotyczących mechanizacji, diagnostyki i monitorowania maszyn. - W tym zakresie następuje bardzo szybki rozwój – podkreśla przewodnicząca Rady Programowej. Zdaniem Pawła Markowskiego, prezesa SITG w KGHM Polska Miedź SA, organizatora Kongresu problemów wymagających rozwiązania jest dużo, zarówno na krajowym podwórku, jak i w światowym górnictwie miedzi. – KGHM staje się w tej chwili firmą globalną, więc przed nami inne wyzwania i inne perspektywy rozwoju. Z jednej strony chcieliśmy poruszyć problemy, które dzisiaj nas nurtują, z drugiej strony chcieli-


śmy też podpowiedzieć innym przedsiębiorstwom górniczym rozwiązania, które my zastosowaliśmy i które sprawdziły się w naszych warunkach – wyjaśnia Paweł Markowski. – Jeżeli chodzi o nasz wewnętrzny rynek, to schodzimy z eksploatacją coraz głębiej, w związku z czym mamy coraz większe problemy. To jest wzrost temperatura, rosnące ciśnienia, wyższe koszty eksploatacji. Ponieważ ceny energii rosną, też musimy się z tym uporać. Natomiast jeżeli chodzi o KGHM International, problemem będzie skonsolidowanie całej grupy. Tak, żeby nasze kopalnie w Stanach Zjednoczonych, w Kanadzie, w Chile tworzyły jednolitą grupę kapitałową – podkreśla prezes Stowarzyszenia działającego przy KGHM. Organizatorzy Kongresu podkreślają, że mamy teraz okres sprzyjający dalszemu rozwojowi górnictwa rud miedzi.

-Jesteśmy świadomi rosnących potrzeb surowcowych na świecie, wynikających z rozwijania nowoczesnych technologii – mówi Herbert Wirth, prezes KGHM Polska Miedź S.A. - W znacznym zapotrzebowaniu na pozyskiwanie nowych metali upatrujemy również szansę dla siebie. Rozbudowując bazę zasobową możemy w istotny sposób podnosić rangę i pozycję przemysłu metali nieżelaznych w gospodarce światowej. Obradom towarzyszyła wystawa maszyn i sprzętu górniczego, swoje produkty prezentowało ponad 30 firm. Uczestnicy Kongresu mogli także zapoznać się w czasie wizyt technicznych z procesem produkcyjnym w kopalniach KGHM. jac

c zapraszamy do dyskusji @ napisz do nas

Teberia 06/2012

41


P R E ZE N TA C JE >>

Estakada vs Realizacja roku - Konstrukcja stalowa Stadion Narodowy

Nową inwestycję „Bogdanki” – Pole Stefanów od macierzystych obiektów kopalni dzieli 3,5 kilometra. Dystans ten łączą nie tylko podziemne wyrobiska, ale przede wszystkim stalowa estakada transportowa, najnowocześniejsza tego rodzaju konstrukcja inżynierska w Polsce. Estakada to jedna z ważniejszych inwestycji związanej z rozbudową istniejącej i budową nowej infrastruktury w Polu Stefanów. Bogdanka wskazywała tę inwestycję jako jeden z głównych celów emisyjnych przedstawionych w prospekcie emisyjnym przed wejściem na giełdę. Przetarg na budowę estakady ogłoszono jeszcze w marcu 2009 r. Wśród złożonych 11 ofert znalazły się m.in. międzynarodowe konsorcja z udziałem podmiotów z Hiszpanii i Irlandii. Ostatecznie LW „Bogdanka” podpisała umowę z polskim potentatem w budownictwie przemysłowym spółką Polimex – Mostostal SA, która zaproponowała najkorzystniejsze warunki cenowe. Celem estakady jest odstawa urobku, czyli węgla

wydobywanego z głębokości 1040 m poprzez szyb

Stalowa estakada , kopalnia 2.1 w Polu Stefanów dotransportowa Zakładu Przeróbki Mecha-

42

Teberia 06/2012

nicznej Węgla w Polu Bogdanka. Stalowa konstrukcja estakady robi wrażenie – widać ją z daleka. Zbudowany taśmociąg ma prawie 3,5 kilometra długości i jest zamocowany blisko 10 metrów nad ziemią. Obiekty zostały wzniesione w konstrukcji żelbetowej (fundamenty, zbiornik węgla) oraz stalowej, słupowo-ryglowej (części nadziemne obiektów). Części stalowe obudowane i zadaszone w systemie lekkiej zabudowy, cokoły z cegły klinkierowej. Transport urobku dokonuje się głównie dzięki trzem mostom przenośnikowym i są to najdłuższe mosty przenośnikowe do urobku w Polsce. Ważnymi obiektami estakady są także stacje przesypowe i zbiorniki węgla surowego. Najwyższy ze zbiorników liczy 38 m wysokości, a pojemność jego to 14,5 tys. m sześć., czyli ok. 6000 ton (znajduje się w Stefanowie). Drugi zbiornik o pojemności ok. 1000 ton zlokalizowany jest w Bogdance. W mostach przenośnikowych prowadzone są sieci


Montaż

Stalowa estakada transportowa cieplne o długości ok. 2980 m, przesyłające ciepło do Stefanowa i Nadrybia. Ze względu na znaczną długość i konieczność kompensacji termicznej oraz przewidywane wpływy eksploatacji górniczej zastosowano specjalne podpory kierunkowe, co 3 m i co 12 m; podparcia ślizgowe co 6 m, kompensatory osiowe o zdolności kompensacji 250 mm, rury o zwiększonej wytrzymałości na odcinku 30 m. Uwzględniono także możliwość sekcyjnego odcięcia rurociągu w przypadku awarii.

szych przenośników pracujących w górnictwie w Polsce. Długość tego przenośnika wynosi 2574 m. Różnica wysokość między jego początkiem a końcem wynosi 7,6 m. Wyposażony jest on w taśmę o szerokości 1600 mm, o grubości 18 mm,

Konstrukcja stalowa: 3 470 to

1

Na trasie odstawy urobku zastosowano kruszarki

a Bogdanka szczękowe do kruszenia węgla, zanim transport

znajdzie się na taśmie. Elektroniczne wagi technologiczne pozwalają ustalić wielkość przekazywanego urobku. Taśmy wyposażone w elektromagnetyczne separatory mają zdolność samooczyszczenia. Estakada wyposażona jest w systemy filtrujące, uniemożliwiające przedostanie się pyłów do otoczenia. Instalacje odpylające to: bateria cyklonów, wentylator promieniowy, przenośniki ślimakowe o fi 200 mm. Odpylanie dokonywane jest także poprzez mobilny odkurzacz, który systematycznie zbiera pył węglowy w przeznaczonych do tego miejscach wzdłuż biegnącej estakady. Cała trasa „wędrującego” węglowego urobku ze Stefanowa do Zakładu Przeróbki Mechanicznej Węgla w Polu Bogdanka jest monitorowana i tym samym cały czas kontrolowana. Na uwagę zasługuje przenośnik taśmowy zabudowany w moście odstawy wzdłuż drogi Bogdanka Stefanów. Z pewnością będzie to jeden z najdłuż-

uzbrojoną w linki stalowe o średnicy 5 mm. Przenośnik posiada grawitacyjny mechanizm napinania zainstalowany w rejonie stacji zwrotnej. Masa zawieszonego ciężaru wynosi 17500 kg. Całkowita zainstalowana moc zabudowanych napędów wynosi 710 kW. Silniki są przystosowane do współpracy z falownikiem. Bębny napędowe zostały wyposażone w okładziny ceramiczne. O tym, że jest to niebagatelna inwestycja świadczyć może tez fakt, iż spółka Polimex-Mostostal, mająca na swym koncie wiele znaczących realizacji zgłosiła estakadę w Bogdance do tegorocznej edycji konkursu „Konstrukcja stalowa – realizacja roku” organizowanego przez Polską Izbę Konstrukcji Stalowych. Estakada w Bogdance zawalczy o zaszczytny tytuł m.in. ze Stadionem Narodowym w Warszawie. jac

owane zadanie odstawy urobku z Pola w Stefanowie do ZPMW nka to 15 obiektów kubaturowych, oraz 11 mostów przenośniko 2 h łączna długość przekracza 3,5 kilometra i w większości znajd nad ziemią. Części naziemne obiektów wzniesione zostały w kons ej, słupowo-ryglowej.

c zapraszamy do dyskusji @ napisz do nas

Teberia 06/2012 43


CZŁOWIEK I TECHNOLOGIE >>

Polacy na najmroźniejszych szczytach świata

Temperatura odczuwalna minus 50 stopni Celsjusza, wiatr wiejący z prędkością od 80 nawet do 120 km/h, minimalna ilość tlenu i zupełne osamotnienie – w takich warunkach najlepsi himalaiści walczą o pierwsze zimowe wejścia na ośmiotysięczniki w najbardziej nieprzyjaznych górach świata – Karakorum. Uzbrojeni są nie tylko w odwagę, doświadczenie i umiejętności, ale także w najnowsze technologie odzieżowe, bez których jeszcze kilkanaście lat temu o zdobyciu tych szczytów zimą można było tylko pomarzyć.

Pierwszy raz w Karakorum 9 marca 2012 roku, około godziny 08:30 czasu lokalnego Adam Bielecki i Janusz Gołąb dokonali pierwszego zimowego wejścia na Gasherbrum I w Karakorum. Mierzący 8068 m n.p.m. szczyt był wcześniej celem wielu ataków, jednak dopiero Polacy odnieśli sukces. I nie był on przypadkiem, lecz wynikiem pokoleniowych doświadczeń, umiejętności samych himalaistów, a także doskonałego przygotowania pod względem sprzętu. Położone na pograniczu Indii, Pakistanu i Chin Ka44 Teberia 06/2012

rakorum są zaraz po Himalajach najwyższym łańcuchem górskim na ziemi. To właśnie tu znajduje się wciąż jeszcze nie zdobyty zimą, osławiony szczyt K2 (8611 m n.p.m.), a także Broad Peak (8407 m n.p.m.), Gasherbrum I oraz Gasherbrum II (8035 m n.p.m.). Góry Karakorum słyną z najtrudniejszych pogodowych warunków zimowych, gdyż łańcuch górski jest znacznie bardziej wysunięty na północ niż Himalaje. Powyżej wysokości 7000 metrów temperatury powietrza oscylują średnio w granicach


W lutym 2011 roku Simone Moro, Denis Urubko i Corey Richards dokonali pierwszego zimowego wejścia na Gasherbrum II (8036 m n.p.m.), stając się jednocześnie pierwszymi wspinaczami w historii, którym udało się zdobyć zimą jeden z ośmiotysięczników w Karakorum. Nieco ponad rok później, w marcu 2012 sukces odnieśli polscy wspinacze – 28-letni Adam Bielecki i 43-letni Janusz Gołąb. Wyprawa odbyła się w ramach programu Polski Himalaizm Zimowy 20102015, kierownikiem bazy była Agnieszka Bielecka, a kierownikiem wyprawy Artur Hajzer. Adam i Janusz zdobyli Gasherbrum I bez użycia tlenu, wchodząc na szczyt od strony północno-zachodniej, przez tzw. „Kuluar Japoński”.

-45 stopni Celsjusza, jednak głównym problemem są silne huraganowe wiatry, które wieją ze średnią prędkością 120km/h. Właśnie w efekcie splotu tych dwóch zjawisk, odczuwalna temperatura może sięgać nawet -70 stopni Celsjusza, co w przypadku nieodpowiednio przygotowanej osoby może doprowadzić do odmrożenia w ciągu zaledwie kilku minut. O tym jak ciężkie warunki panują w tych górach może świadczyć to, że spośród kilkunastu wypraw zimowych, które się odbyły na szczyty Karakorum, zaledwie dwie z nich zakończyły się sukcesem.

Obu wejść dokonano w ciągu ostatnich dwóch lat, właśnie dlatego, że dopiero teraz okazało się to możliwe. Zdobycie tych szczytów zimą nie mogłoby się wydarzyć, gdyby nie zupełnie nowa taktyka wspinania, wyspecjalizowany sprzęt i najnowsza technologia.

Polski pomysł i polskie sukcesy Sukces Polaków wpisuje się we wspaniałą przeszłość polskiego himalaizmu zimowego. To właśnie Polacy dokonali większości pierwszych zimowych wejść na ośmiotysięczniki i to właśnie oni byli pomysłodawcami idei himalaizmu zimowego, który wcześniej niewielu wspinaczom mieścił się w głowie. Teberia 06/2012 45


CZŁOWIEK I TECHNOLOGIE >> Za ojca pomysłu zdobywania najwyższych szczytów zimą uznaje się Andrzeja Zawadę, który w 1980 roku był kierownikiem narodowej wyprawy, której celem było pierwsze zimowe wejście na najwyższy szczyt świata - Mount Everest (8848 m n.p.m.). Na szczyt weszli wtedy Krzysztof Wielicki i Leszek Cichy. Tak zaczęła się ta imponująca historia, w której Polacy długo nie mieli sobie równych. W 1984 roku Maciej Berbeka i Ryszard Gajewski zdobyli zimą Manaslu (8156 m n.p.m.). W 1985 roku Andrzej Czok i Jerzy Kukuczka weszli na Dhaulagiri (8167 m n.p.m.). W tym samym roku Maciej Berbeka i Maciej Pawlikowski weszli na Cho Oyo (8153 m n.p.m.). W 1986 roku Krzysztof Wielicki i Jerzy Kukuczka zdobyli Kangczendzongę (8598 m n.p.m.), zaś w 1987 roku Kukuczka wraz z Arturem Hajzerem pokonali Annapurnę (8091 m n.p.m.). Wreszcie w 1988 roku Krzysztof Wielicki stanął na szczycie Lhotse (8511 m n.p.m.). Na kolejne zimowe wejścia trzeba było czekać kilkanaście lat. Dopiero nowe pokolenie himalaistów otworzyło kolejny rozdział. W 2005 roku polskowłoski zespół, czyli Piotr Morawski i Simono Moro zdobyli zimą Shisha Pangma (8027 m n.p.m.). W 2009 roku Simone Moro i Denis Urubko weszli na Makalu (8463 m n.p.m.). I wreszcie w 2011 roku padło Gasherbrum II, a w 2012 Gasherbrum I.

Wyścig zbrojeń? W Karakorum pozostały jeszcze dwa niezdobyte nigdy zimą ośmiotysięczniki – K2 oraz Broad Peak, w Himalajach nie zdołano wejść zimą na Nanga Parbat. Przejście do chlubnej historii himalaizmu dzięki pierwszemu wejściu kusi wiele wypraw. O plamę pierwszeństwa będą dalej walczyć Polacy. W wyścigu tym ważne jest wszystko. Doświadczenie, umiejętności techniczne, przygotowanie psychiczne i wytrzymałościowe, szczęście, ale także najlepszy i przemyślany w najmniejszym szczególe sprzęt oraz technologie umożliwiające w miarę możliwości precyzyjnie przewidzenie pogody. Nasi himalaiści umiejętności i doświadczenie zdobywają w ramach programu Polski Himalaizm Zimowy 2010-2015, korzystając jednocześnie z rad i ogromnego wsparcia pierwszych zdobywców sprzed lat. Szczęście podczas akcji górskiej trudno przewidzieć, 46 Teberia 06/2012


można mu jednak dopomóc. I tu pojawia się zagadnienie sprzętowego wyposażenia himalaistów.

Okno pogodowe Dawny oblężniczy styl zdobywania ośmiotysięczników w Karakorum nie ma najmniejszej racji bytu. Na wietrznych i zimnych stokach gór sprawdzają się wyłącznie małe i szybkie zespoły. Nie ma czasu do stracenia – rzadkie okna pogodowe, w których wiatr nieco słabnie trwają czasem zaledwie kilkanaście godzin. I tylko podczas nich możliwa jest górska akcja. To dlatego właśnie w ostatnich latach tyle sukcesów jest udziałem Simone Moro i Denisa Urubko. Niezwykle utalentowani i doświadczeni wspinacze, są także bardzo szybcy. Na ich stylu działania wzorowali się Adam Bielecki i Janusz Gołąb. Głównym wrogiem wypraw zimowych w Karakorum jest niska temperatura i wiatr. Termometry na wysokości 8000 m n.p.m. mogą wskazać minus 45 stopni Celsjusza, a przy sile wiatru choćby tylko 60 km/h temperatura odczuwalna na ciało to minus 60, czy nawet minus 70 stopni Celsjusza. Warunki w Karakorum znacznie różnią się od tych w Himalajach ze względu na bliskość morza i zatoki Perskiej - relatywnie ciepłe masy powietrza wpływają na większy niż w Himalajach gradient ciśnieniowy. Sztuka działania w oknie pogodowym opiera się nie tylko na szybkim przygotowaniu się i wyruszeniu na akcję górską, ale także na długich dniach, a nawet tygodniach oczekiwania na dogodny pogodowo moment. To zaś wymaga odpowiedniego przygotowania psychicznego. Życie w bazie sprowadza się do czytania książek, gry w brydża i szachy, jedzenia posiłków, ale przede wszystkim wiecznie przedłużającej się nudy, przerywanej ciągłym zerkaniem na pogodowe diagramy. Okno pogodowe to kilkanaście godzin, rzadziej kilka dni w miarę bezwietrznej pogody, podczas której możliwe jest zdobycie szczytu. Czas ten musi starczyć nie tylko na wejście na górę, ale także bezpieczne zejście do bazy. Polscy himalaiści korzystali z informacji pochodzących od Karla Gabla – alpinisty meteorologa z ZAMG (Zentralanstalt für Meteorologie und Geodynamik), który od lat specjalizuje się w prognozach dla Karakorum i Himalajów, pomagając swoją wiedzą i doświadczeniem himalaistom z całego świata. Teberia 06/2012

47


CZŁOWIEK I TECHNOLOGIE >>

Dane i prognozy pochodzące od Karla są na wagę złota, jednak himalaiści korzystają zazwyczaj z kilku źródeł i niekiedy gra jest o to, które okaże się najlepsze. A jak to często bywa, to co najlepsze jest też najdroższe, stąd stawka rozbija się też o pieniądze.

Puch i kosmiczne technologie W tych warunkach żeby uchronić się przed odmrożeniami, czy nawet zamarznięciem himalaiści muszą być wyposażeni w najlepszy sprzęt od stóp do głów. Ważne są nie tylko właściwości i najlepsze parametry, ale także niska waga – powyżej 7000 n.p.m. niemal każdy zbędny gram może przełożyć się na porażkę. Zewnętrzną warstwę ubioru himalaistów stanowi kombinezon, wypełniony ociepleniem z puchu gęsiego. Jak widać jeszcze nie wymyślono lepszej izolacji niż naturalny puch, który jednak przy wszystkich swoich zaletach ma jedną poważną wadę – grzeje tylko do momentu kiedy jest suchy. Dlatego właśnie tak ważne są materiały wewnętrzne i zewnętrzne w kombinezonach, które chronią puch przed wilgocią. Istotne jest to zwłaszcza zimą, a jak się okazuje wciąż jeszcze nie wszyscy zdali sobie sprawę z różnicy między himalajskim ubiorem letnim a zimowym. 48

Teberia 06/2012

W tym samym czasie w którym Polacy zdobywali Gasherbrum I, na górze działa także międzynarodowa wyprawa pod wodzą Austriaka Gerfrieda Gӧschla. Niestety członkowie wyprawy nie powrócili z ataku szczytowego, na co prawdopodobnie złożyło się kilka przyczyn, wśród których było także to, że byli wyposażeni w sprzęt z najwyższej półki, ale przeznaczony na warunki letnie. Kombinezon zimowy musi posiadać materiał laminowany z membraną, która odpowiada za odprowadzanie wilgoci z wewnątrz, od ciała użytkownika na zewnątrz materiału, nie wpuszczając jednocześnie deszczu, śniegu oraz wiatru przez materiał od zewnętrz. Membrana znana jest każdemu użytkownikowi technicznej odzieży outdoorowej, wyposażone są w nią wodoszczelne i wiatroszczelne kurtki zewnętrzne, które zakładamy np. podczas trekkingów w górach. Wynalazek odzieży membranowej ma już wiele lat, pierwsze prace nad membranami rozpoczęły się w latach 30. XX wieku, kiedy to odkryto politetrafluoroetylen. Technologię produkcji tego związku opatentowała firma Du Pont, zastrzegając go pod nazwą handlową Teflon, dziś doskonale znaną z patelni o nieprzywierającej powierzchni. W 1969 roku firma W.L. Gore stworzyła najbardziej znaną


na świecie membranę GORE-TEX, wykorzystywaną wówczas przez NASA przy tworzeniu skafandrów w przestrzeni kosmicznej. Lata 80. i 90. to czas intensywnych prac nad konkurencyjnymi dla Gore membranami. Pojawiły się w tym czasie nie tylko nowe związki chemiczne stosowane przy tworzeniu membran, ale także metody implementacji warstwy membrany na materiał nośny, z którego uszyta jest kurtka, spodnie, czy kombinezon. Rozwój technologii membranowych trwa do dziś, a każdego roku pojawiają się informacje o nowym produkcie w tym zakresie.

membrana, podszewka, najczęściej wykonana z cienkiej siateczki). W kombinezonach dla himalaistów najczęściej stosuje się membranę dwuwarstwową albo trójwarstwową. Dla uzupełnienia właściwości całości ubioru technolodzy i projektanci muszą także skupić się na najsłabszym ogniwie kombinezonu, czyli szwach. Tu pojawia się zagadnienie jak najskuteczniejszego ich podklejenia wodoszczelnym i wiatroszczelnym materiałem – taśmy muszą być trwałe i wytrzymałe, nie zwiększając przy tym w sposób istotny wagi całości produktu.

Prace technologów koncertują się głównie na zwiększeniu parametrów tzw. oddychalności laminatu (czyli jego paroprzepuszczalności – jak wiele wody pochodzącej z potu użytkownika jest w stanie przedostać się na zewnątrz materiału), wodoszczelności (czyli jak odporny jest materiał na przemakanie), wiatroszczelności, przy jednoczesnym zminimalizowaniu wagi całości materiału (im lżej tym lepiej), bez uszczerbku dla jego wytrzymałości. Osiągnięcie równowagi między tymi parametrami stanowi o sukcesie danego laminatu. Laminat może być trójwarstwowy (materiał zewnętrzny, membrana, stale połączona podszewka), dwu i pół warstwowy (materiał zewnętrzny, membrana, warstwa ochronna wykonywana technologią nadruku) oraz dwuwarstwowy (materiał zewnętrzny,

Dodajemy, że himalaiści szturmujący szczyty w ramach Polskiego Himalaizmu Zimowego, w tym także Adam Bielecki i Janusz Gołąb, udają się w góry wyposażeni w kombinezony polskiej marki HiMountain. Denis Urubko, Simone Moro oraz Corey Richards byli natomiast wyposażeni przez doskonale znaną na świecie, amerykańską markę The North Face. Oznacza to, że i tu Polacy odnieśli sukces – patrząc z perspektywy sprzętu można powiedzieć, że jeden z dwóch zdobytych zimą ośmiotysięczników w Karakorum został osiągnięty przez amerykańskiego potentata, drugi przez niewielką markę ze Świętochłowic.

Teberia 06/2012 49


Pod kombinezonem Himalaiści szykujący się na atak szczytowy powyżej 8000 m n.p.m. pod kombinezon nie mogą założyć tylko polara czy dwóch warstw bielizny termoaktywnej. Muszą uzbroić się w kolejną warstwę ociepliny, tym razem z włókien syntetycznych, które mają mniejsze możliwości izolacyjne niż puch, jednak mają to, czego mu brakuje - grzeją nawet gdy są wilgotne. Obecnie najpopularniejszą ociepliną syntetyczną jest PrimaLoft, opatentowany przez amerykańską firmę Albany International Corporation. PrimaLoft, jak i produkty konkurencyjne są poliestrowymi mikrowłóknami, poddanymi wstępnej impregnacji cienką warstwą silikonu. Dzięki temu włókna te mają właściwości hydrofobowe. Ułożone w przestrzenną strukturę, podobnie jak puch, zatrzymują między

50

Teberia 06/2012

włóknami powietrze będące najlepszą warstwą izolacyjną. Dzięki swoim właściwościom hydrofobowym, nie zbrylają się gdy są wilgotne, utrzymując dzięki temu właściwości grzewcze. Z PrimaLoftu produkuje się zarówno kurtki, bluzy, jak i spodnie, a nawet skarpety. Himalaiści jednak muszą zainwestować w nieco inną technologię w tym ostatnim przypadku – mowa tu o skarpetach kompresyjnych, stosowanych także przez biegaczy. Skarpety kompresyjne, jak sama nazwa wskazuje, opierają się na procesie kompresji, który poprawia krążenie krwi, rozluźnia mięśnie i zmniejsza ich zmęczenie, redukuje drgania, przyśpiesza regenerację, stabilizuje wiązadła i ścięgna. Jak więc widać tu z pomocą przyszła medycyna. Ścianki tętnicy reagują na zmiany ciśnienia, zaś specjalny profil zastosowany w skarpetach kompresyjnych zwiększa ciśnienie otoczenia, co powoduje


CZŁOWIEK I TECHNOLOGIE >>

rozluźnienie mięśni i zwiększenie średnicy tętnic. W efekcie zostaje poprawione krążenie krwi, co przy dużych mrozach i powolnym kroku powyżej 7000 czy 8000 m n.p.m. ma niebagatelne znaczenie i pomaga uniknąć odmrożenia palców u stóp. Na skarpety kompresyjne zakłada się jeszcze warstwę izolującą. Tu znów kłania się natura – obecnie najczęściej używa się skarpet wykonanych z wełny pochodzącej od merynosów. Pomiędzy skarpetami zakłada się nylonowe worki a do butów himalaiści dokładają wkładki elektryczne lub ogrzewacze chemiczne, opierające swoje działanie np. na materiałach przemiany fazowej. Używa ich się także do ogrzewania dłoni, które podobnie jak stopy są najbardziej narażone na odmrożenia. System odzieży himalajskiej składa się z wielu drobnych elementów, każdemu z nich trzeba poświęcić tyle samo uwagi. Źle dobrana grubość rękawiczek, zbyt luźne skarpety, minimalnie za ciasne buty, czy wreszcie nie podklejone szwy w zewnętrznym kombinezonie mogą się skończyć tragedią, a najczęściej prowadzą do utraty palców u stóp, czy rąk lub do hipotermii. Podobne znaczenie ma odpowiedni dobór czekanów, raków, a także namiotów, w które będą

schronieniem w najcięższych zimowych warunkach. Wszystko to w przyszłości, a najpewniej już najbliższej zimy, zadecyduje kto zapisze się na kartach historii zimowego himalaizmu. Miejmy nadzieję, że będą to Polacy.

Aneta Żukowska c zapraszamy do dyskusji @ napisz do nas

Zdjęcia uczestników wyprawy pochodzą ze strony www.polskihimalaizmzimowy.pl

Teberia 06/2012

51



Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.