Smog wawelski
Blogika rynku
Szkoła innowacyjności
NUMER 7 (26) LIPIEC 2013
NAUKA / TECHNOLOGIE / GOSPODARKA / CZŁOWIEK
Profesor vs. procesor
czyli o tym, jak nowe technologie zmieniają świat akademicki
Spis treści:
4 NA CZASIE 6 NA CZASIE 8 KREATYWNI 11 TRENDY 12 NA CZASIE 15 NA CZASIE 16 KREATYWNI 18 POLSKA 2.0 20 NA CZASIE 22 WIDZIANE 23 DESIGN 24 NA OKŁADCE 26 MEDIA 2.0 36 EKO 45 PREZENTACJE 52 NAUKOWO 56 EDYTORIAL
Profesor Facebook i iTunes Morze wiatraków Robota dla robota Nowatorski opatrunek Szkoła innowacyjności Poczta Polska stawia na usługi cyfrowe Autostradowy tweet Imagine Cup Polscy studenci nagrodzeni Globalne miasteczko Energetyczna telefonia Piękna Politechnika Starter
Profesor vs. procesor Blogia rynku Smog Wawelski Projekt „I2Mine” Popiół - cenny surowiec?
* Skąd ta nazwa –
…Otóż gdy pojawił się gotowy projekt witryny – portalu niestety nie było nazwy. Sugestie i nazwy sugerujące jednoznaczny związek ze Szkołą Eksploatacji Podziemnej typu novasep zostały odrzucone i w pierwszej chwili sięgnąłem do czasów starożytnych, a więc bóstw ziemi, podziemi i tak pojawiła się nazwa Geberia, bo bóg ziemi w starożytnym Egipcie to Geb. Pierwsza myśl to Geberia, ale pamiętałem o zaleceniach Ala i Laury Ries, autorów znakomitej książeczki „Triumf i klęska dot.comów”, którzy piszą w niej, że w dobie Internetu nazwa strony internetowej to sprawa życia i śmierci strony. I dalej piszą „nie mamy żadnych wątpliwości, co do tego, że oryginalna i niepowtarzalna nazwa przysłuży się witrynie znacznie lepiej niż jakieś ogólnikowe hasło”. Po kilku dniach zacząłem przeglądać wspaniała książkę Paula Johnsona „Cywilizacja starożytnego Egiptu”, gdzie spotkałem wiele informacji o starożytnych Tebach (obecnie Karnak i Luksor) jako jednej z największych koncentracji zabytków w Egipcie, a być może na świecie. Skoro w naszym portalu ma być skoncentrowana tak duża ilośćwiedzy i to nie tylko górniczej, to czemu nie teberia. Jerzy Kicki Przewodniczący Komitetu Organizacyjnego Szkoły Eksploatacji Podziemnej Portal teberia.pl został utworzony pod koniec 2003 roku przez grupę entuzjastów skupionych wokół Szkoły Eksploatacji Pod-ziemnej jako portal tematyczny traktujący o szeroko rozumianej branży surowców mineralnych w kraju i za granicą. Magazyn ,,te-beria” nawiązuje do tradycji i popularności portalu internetowego teberia.pl, portalu, który będzie zmieniał swoje oblicze i stawał się portalem wiedzy nie tylko górniczej, ale wiedzy o otaczającym nas świecie.
Wydawca:
Fundacja dla Akademii Górniczo-Hutniczej im. Stanisława Staszica w Krakowie
Jerzy KICKI
Prezes Fundacji dla AGH
Artur DYCZKO
Dyrektor działu wydawniczo-kongresowego Fundacji dla AGH Dyrektor Zarządzający Projektu Teberia
Jacek SROKOWSKI Redaktor naczelny
jsrokowski@teberia.pl
Biuro reklamy:
Małgorzata BOKSA reklama@teberia.pl
Studio graficzne:
Tomasz CHAMIGA tchamiga@teberia.pl
Adres redakcji:
Fundacja dla Akademii Górniczo-Hutniczej im. Stanisława Staszica w Krakowie, pawilon C1 p. 322 Aal. Mickiewicza 30, 30-059 Krakówtel. (012) 617 - 46 - 04, fax. (012) 617 - 46 - 05, e-mail: redakcja@teberia.pl, www.teberia.pl” www.teberia.pl f-agh@agh.edu.pl, www.fundacja.agh.edu.pl NIP: 677-228-96-47, REGON: 120471040, KRS: 0000280790
Konto Fundacji:
Bank PEKAO SA, ul. Kazimierza Wielkiego 75, 30-474 Kraków, nr rachunku: 02 1240 4575 1111 0000 5461 5391 SWIFT: PKO PPLPWIBAN; PL 02 1240 4575 1111 0000 5461 5391 Redakcja nie odpowiada za treść ogłoszeń. © Copyright Fundacja dla AGH Wszelkie prawa zastrzeżone.Żaden fragment niniejszego wydania nie może być wykorzystywany w jakiejkolwiek formie bez pisemnej zgody wydawcy.
EDY TORIAL >>
Profesor Facebook i iTunes P amiętam do dziś jak bardzo traumatyczny był dla mnie egzamin z prawa pracy. Na uczelni gdzie studiowałem nasz wykładowca ze wspomnianego przedmiotu miał nader autorytatywne podejście, żeby zaliczyć przedmiot trzeba było „wykuć na blachę” notatki z jego wykładów, dosłownie słowo w słowo i nie warto było podejmować jakiejkolwiek polemiki z jego poglądami. A co gorsza, trzeba było jeszcze trafić na te właściwe notatki, a nie wolną interpretacją wykładów profesora. Ów profesor nie był wyjątkiem. Takie to były czasy – punkty ksero na uczelniach to był doprawdy świetny biznes. Tak to wyglądało wtedy zanim Google nie przekształciło milionów książek do postaci cyfrowej, a użytkownicy Wikipedii nie stworzyli największej na świecie encyklopedii. Przed tym jak YouTube Edu i iTunes nie nagrały w formie audio i wideo wykładów najlepszych profesorów oferując darmowy do nich dostęp, przed tym jak studenci nie stworzyli za pośrednictwem Facebooka największej w świecie społeczności. Nowe media zdominowały życie młodych ludzi. Z badań przeprowadzonych przez Instytut International Center for Media & the Public Agenda (ICMPA) na University of Maryland na próbie około tysiąca studentów do 25. roku życia (studenci pochodzili z dziesięciu różnych krajów na pięciu kontynentach) wynika, iż badani studenci nie potrafią właściwie funkcjonować bez nowych technologii komunikacyjnych. Okazuje się zatem, że student tzw. net generation wymaga nieco innego podejścia, wymaga nowego modelu kształcenia z wykorzystaniem zasobów internetowych. Zanim bowiem student rozpocznie przygodę z nauką musi zbudować swój świat wiedzy. Wybiera temat i rozpoczyna poszukiwania wiary4
Teberia 26/2013
godnych źródeł informacji, a jak już je znajdzie to rozpoczyna szeroki proces konsultacji, a to z kolegami z klasy (coraz częściej wirtualnej), a to z mentorami, a to z ekspertami, czy w końcu z rodziną i przyjaciółmi. Na tym bowiem opiera się konektywizm, czyli umiejętność selekcji docierającej informacji, wykorzystanie technologii, uczenie się poprzez bycie w społecznościach sieciowych. Nie stawia nabywania doświadczeń osobistych jako głównej wartości w procesie uczenia się. O wiele istotniejsza jest umiejętność dostrzegania związków między ideami oraz zdolność zastosowania wiedzy. Teoria konektywizmu zakłada, że decyzje podejmujemy na podstawie określonego zasobu informacji, ale ten nieustannie zmienia się. Ciągle dołączają do niego nowe informacje. Kluczową kompetencją jest rozróżnianie (krytyczne myślenie), co jest istotne, a co nie jest ważne. Czy wspomniany na wstępie ów profesor byłby w stanie zaakceptować taki sposób podejścia do edukacji? Wątpię. O ile się orientuję ów Pan przeszedł już na emeryturę, ale osób mu pokrewnych pewnie w środowisku akademickim nie brakuje. W świetle tego zapraszam wszystkich do lektury artykułu Dominiki Bary, która w tym numerze opisuje ów problem. Kto wie czy w przerwie wakacyjnej nie będzie to ciekawa lektura dla akademickiego wykładowcy?
Jacek Srokowski zapraszamy do dyskusji napisz do nas
Teberia 26/2013
5
NA C Z A SIE >>
Morze wiatrak贸w 6
Teberia 26/2013
L
ondon Array, największa na świecie morska farma wiatrowa o mocy 630 MW, została oficjalnie uruchomiona.
Zlokalizowana na południowym wschodzie Wielkiej Brytanii, ok. 20 km od wybrzeża, na wysokości miast Kent i Essex, morska farma wiatrowa składa się ze 175 elektrowni wiatrowych typu offshore (każda mierzy 147 m - tyle, ile słynne London Eye), których łączna moc zainstalowana wynosi 630 MW. London Array ma zapewnić energię elektryczną wystarczającą do zasilenia ok. pół miliona gospodarstw domowych rocznie. Budowę tej największej na świecie morskiej farmy wiatrowej rozpoczęto w 2009 roku. Pierwsze 15 turbin rozpoczęło pracę w październiku 2012 roku. Teraz nastąpiło oficjalne uruchomienie London Array, w którym wziął udział premier Wielkiej Brytanii David Cameron.
- To wspaniały dzień dla hrabstwa Kent i dla całej Wielkiej Brytanii – powiedział Cameron podczas otwarcia. – London Array przyniesie wiele korzyści w ciągu kolejnych lat – dodał. London Array należy do konsorcjum, w którego skład wchodzą duński Dong Energy (50 proc. udziałów), niemiecki E.ON (30 proc.) i Masdar a Abu Dabi (20 proc.).
zapraszamy do dyskusji napisz do nas
Teberia 26/2013
7
NA C Z A SIE >>
Robota dla robota Konserwacją mostu Harbour Bridge w Sydney, trudną, a nawet niebezpieczną dla ludzi, zajęły się wyspecjalizowane roboty.
Most Harbour Bridge jest znanym w świecie symbolem Sydney. Charakteryzuje się tym, iż jest mostem z najwyższym w świecie stalowym łukiem, mierzącym 134 metrów od góry do poziomu wody. Podobnie jak większość mostów stalowych, Harbour Bridge wymaga stałej kontroli i innych prac konserwacyjnych, w celu ochrony przed korozją, a w konsekwencji bezpieczeństwa użytkowników. Prace konserwacyjne polegają m.in. na malowaniu konstrukcji stalowej, która obejmuje łącznie ok. 120 ha (odpowiednik sześćdziesięciu boisk piłkarskich). Każdy wieszak na moście wymaga 30 000 litrów farby. Usunięcie starej farby i rdzy przeprowadza się przez ścierne śrutowanie, z platform zbudowanych wokół obszarów alimentacyjnych.
8
Teberia 26/2013
Teberia 26/2013
9
NA C Z A SIE >>
C
zyszczenie mostu narażało robotników m.in. na kontakt z azbestem i starymi farbami. Pracę, często w niewygodnej pozycji, dodatkowo utrudniały im wibracje powodowane ruchem ulicznym. Australijska agencja rządowa ds. infrastruktury (Roads and Maritime Service) postanowiła więc skorzystać z nowoczesnych robotów i zastąpić nimi ludzi. Roboty zostały skonstruowane przez start-up Sabre Autonomous Solutions powstały przy Uniwersytecie Technologicznym w Sydney. Operacja śrutowania konstrukcji stalowej polega na tym, iż na wstępie roboty skanują konstrukcję mostu i tworzą mapę 3D, określając sobie obszar pracy. Następnie obliczają ciśnienie powietrza niezbędne do zerwania starej farby i usunięcia rdzy. Prace renowacyjne trwają permanentnie, więc dwa roboty na stałe będą częścią zespołu serwisowego zajmującego się tym mostem. Potencjalny obszar wykorzystania robotów jest ogromny. Szacuje się bowiem, że samo utrzymanie mostów w Australii to wydatek rzędu 200 milionów dolarów rocznie. 10 Teberia 26/2013
Z kolei Amerykańskie Stowarzyszenie Inżynierów właśnie opublikowało raport o stanie infrastruktury, z którego wynika, że w samych Stanach Zjednoczonych natychmiastowej naprawy wymaga 70 tys. mostów.
jm zapraszamy do dyskusji napisz do nas
Zobacz australijskie roboty w akcji: http://sabreautonomous.com.au/products/bridgeblasting-robot/see-the-robot-in-action/
KRE AT Y WNI >>
Nowatorski opatrunek B
iodegradowalny opatrunek nanocelulozowy - to dzieło Karola Bociana, studenta IV roku kierunku biotechnologia Uniwersytetu Technologiczno-Przyrodniczego w Bydgoszczy. Nowatorski opatrunek chroniący przed zakażeniami i wspomagający gojenie ran został już doceniony i nagrodzony w kraju i za granicą. Zaprojektowany przez studenta-wynalazcę nowy rodzaj opatrunków hydrożelowych z nanocelulozy ma właściwości lecznicze i przyspieszające gojenie się ran. Jak podkreśla jego twórca, dzięki opatrunkowi rana oddycha, a blizny są mniej widoczne. W innowacyjnym opatrunku wykorzystano wyciąg z babki lancetowatej, zawierającej substancje aktywne przyspieszające gojenie. Skuteczność w tym zakresie zwiększa użycie nanosrebra, które ma silne właściwości bakteriobójcze, także wobec szczepów bakterii odpornych na silne antybiotyki, np. gronkowca złocistego. Wynalazek Karola Bociana to efekt jego współpracy z 10. Wojskowym Szpitalem Klinicznym w Bydgoszczy. Współtwórcami udanego projektu są: dr Agnieszka Grzelakowska i dr Paweł Grzelakowski. Wynalazek doceniono już podczas 61. Międzynarodowych Targów Wynalazczości, Badań i Nowych Technik „Brussels Innova” w Brukseli i nagrodzono złotym medalem. Niedawno uhonorowano go także jedną z pięciu głównych nagród tegorocznej edycji
Ogólnopolskiego Konkursu „Student–Wynalazca”, zorganizowanego przez Politechnikę Świętokrzyską. - Moim największym marzeniem jest możliwość prowadzenia badań klinicznych związanych z wykorzystaniem mojego opatrunku oraz dalsze badania nad nanocelulozą - ujawnił Karol Bocian. Jak zaznaczył, w biotechnologii fascynuje go bogactwo możliwości nowych odkryć i szybki rozwój tej dziedziny nauki. - Moja pasja związana jest z moimi zainteresowaniami. Odkąd pamiętam, zawsze interesowałem się chemią i biologią. Kierunek studiów, który wybrałem, pozwolił mi poszerzyć swoje horyzonty, zgłębić niezbędną wiedzę, a także umożliwił rozwijanie swoich pasji i zainteresowań - dodał wynalazca. Student-wynalazca, poza swą podstawową dziedziną, interesuje się także chemią oraz botaniką, w szczególności substancjami aktywnymi występującymi w roślinach leczniczych. Poza tym śpiewa jako tenor w Chórze Akademickim Uniwersytetu Technologiczno-Przyrodniczego, zdobywającym liczne nagrody i wraz z tym zespołem bywa na międzynarodowych konkursach i festiwalach. Źródło: PAP - Nauka w Polsce/ papnaukawpolsce.pl
zapraszamy do dyskusji napisz do nas
Teberia 26/2013 11
TRENDY >>
Szkoła
innowacyjności W
Łodzi brakuje warunków, aby młodzi naukowcy i przedsiębiorcy wdrażali w życie swoje pomysły. Często ryzykowne, ale czasem mogące przynieść im miliony, a innym miejsca pracy – słowa te zostały wypowiedziane niedawno na Politechnice Łódzkiej w trakcie powołania do życia Interdyscyplinarnej Szkoły Innowacji. To pierwsza taka inicjatywa w kraju. Interdyscyplinarna Szkoła Innowacji (ISI) to wspólna inicjatywa Politechniki Łódzkiej, Centrum Transferu Technologii Politechniki Łódzkiej (CTT) oraz łódzkiego Technoparku. Program ISI jest programem Politechniki Łódzkiej, którego uczestnikami mogą być pracownicy, doktoranci i studenci nie tylko Politechniki, ale też innych uczelni wyższych z Łodzi i reszty kraju. Interdyscyplinarność, czyli oparcie na współpracy różnych ośrodków jest wpisane w istotę projektu. Celem programu jest aktywne zaangażowanie środowiska naukowego w tworzenie i rozwijanie nowych przedsiębiorstw na bazie innowacyjnych pomysłów. Podejmowane inicjatywy gospodarcze mają zaowocować powstaniem spółek spin-off i umożliwić preinkubację przedsięwzięć o znacznym potencjale rynkowym. Nabór do programu będzie prowadzony od października poprzez stronę internetową z formularzem rekrutacyjnym określającym zdolności kandydata. Co ciekawe, nie ma warunków formalnych ograniczających zakres kandydatów. Dalej w rozmowach kwalifikacyjnych nastąpi wyłonienie 40 osób o największym potencjale i zdolnościach przedsiębiorczych. Osoby te nie będą musiały posiadać gotowych pomysłów, ponieważ ideą programu jest nauka kreatywności, tworzenia pomysłów i pracy w zespole. 12 Teberia 26/2013
Po rekrutacji rozpocznie się pierwszy z trzech etapów programu Interdyscyplinarna Szkoła Innowacji, czyli szkolenia, warsztat, indywidualne konsultacje z ekspertami i specjalistami z zakresu prawa, ochrony własności intelektualnej, biznesplanu, marketingu finansowania pomysłów oraz badan i ich komercjalizacji. Zajęcia pozwolą uczestnikom zrozumieć rynkowe mechanizmy innowacji, co pomoże im pokonywać bariery utrudniające podjęcie działalności gospodarczej. Ponadto szkolenia ułatwią wybór skutecznej strategii komercjalizacji i znalezienie partnera biznesowego. Przybliżą też możliwości prawnej ochrony własnych rozwiązań naukowych. Kolejnym etapem będzie wyłonienie zespołów, złożonych z ludzi o zróżnicowanych umiejętnościach i wykształceniu (interdyscyplinarnych), wykorzystujących poznane techniki kreowania innowacji i wspólnie pracujących nad stworzeniem prototypów, będących podstawą założenia nowych firm Trzeci etap obejmuje zapewnienie wsparcia preinkubacyjnego, dzięki dostępowi do infrastruktury biurowej zlokalizowanej na terenie Łódzkiego Parku Naukowo Technologicznego, w utworzonej w ramach porozumienia „Strefie Politechniki Łódzkiej”.
Program ISI będzie funkcjonował na Politechnice Łódzkiej, jednak dzięki ustaleniom z prorektorami Uniwersytetu Łódzkiego i Uniwersytetu Medycznego jest inicjatywą otwartą na inne jednostki. Umowa dotyczy też wymiany informacji na temat warunków oferty skierowanej do spółek spin-off przez Łódzki Inkubator Technologiczny, działający w ramach Technoparku. Politechnika i CTT będzie rekomendować spółkom powstałym w ramach Programu ISI przeprowadzenie etapu inkubacji w Technoparku i informować Technopark o uruchomieniu naboru uczestników do inicjatywy, oraz terminach rozpoczęcia i zakończenia poszczególnych etapów. Profesor Piotr Kula, prorektor Politechniki Łódzkiej ds. innowacji podkreśla wagę programu, szczególnie dla studentów, doktorantów i pracowników uczelni. - W Polsce istnieje pilna potrzeba transferu technologii z uczelni do gospodarki. Idea programu ISI powstała podczas wizyty naukowców Politechniki Łódzkiej na Uniwersytecie Stanforda, w ramach programu MNiSW „Top 500 Innowators”, gdzie ob-
serwowali amerykański model budowania biznesu i mentalności przedsiębiorców, znacznie różniący się od modelu europejskiego. Różnice polegają min. na naszej niechęci do podjęcia ryzyka biznesowego i barku akceptacji porażek przedsięwzięć, które są naturalnym elementem tego typu działalności. Dlatego celem programu jest stworzenie ram organizacyjnych i prawnych, zachęcających studentów i absolwentów do podjęcia działalności biznesowej oraz stworzenia warunków jej przetrwania w fazie preinkubacji. Sam Profesor Piotr Kula posiada doświadczenie w temacie komercjalizacji, jest współwłaścicielem dwóch inicjatyw typu spin-off. - Chcemy wykreować alternatywną ścieżkę kariery zawodowej dla naszych znakomicie wykształconych absolwentów i zachęcić ich do podjęcia wyzwania biznesowego, łączącego się z ryzykiem - stwierdził prof. Kula. Jak zaznaczył w wypowiedzi dla portalu biotechnologia.pl, pomimo fascynacji wyspecjalizowanym modelem amerykańskich uczelni woli, aby Politechnika Łódzka pozostała modelem hybrydowym prowadzącym zarówno badania podstawowe, jak i „praktyczne” skierowane na komercjalizację. Teberia 26/2013 13
TRENDY >>
- Politechnika ma duże sukcesy w naukach podstawowych i nie możemy tego zaniedbać. Posiadamy też spektakularne osiągnięcia wdrożeniowe min. duży projekt ochrony środowiska realizowany wraz z PGE Górnictwo i Energetyka. Nie ma sukcesu we wdrażaniu nauk stosowanych bez dobrego podłoża nauk podstawowych. Obecnie największym problemem jest brak rynku pracy dla bardzo dobrze wykształconych osób i przez to przedsięwzięcie (ISI) próbujemy wykreować ten rynek.” Bartosz Sakowicz, jeden z pomysłodawców i współtwórców Programu ISI wskazuje na model działania Uczelni Stanford, ukierunkowanej bezpośrednio na badania praktyczne i późniejszą ich komercjalizację. - Dla tamtejszych studentów obowiązkowe są spotkania z przedsiębiorcami, prezentujących swoją historię. Istotna różnica polega też na scentralizowaniu i połączeniu różnych jednostek (humanistycznych, medycznych i technicznych), dzięki czemu jest możliwa nieograniczona współpraca interdyscyplinarna i międzyludzka. Ideę integracji powinno się przenieść na grunt Łódzki. Prezes Technoparku Andrzej Styczeń zazna, że podpisana umowa wynika z samego celu powstania jego jednostki, czyli wspierania młodej przedsiębiorczo14 Teberia 26/2013
ści. Jest naturalnym uzupełnieniem w procesie wejścia biznesu na rynek. Dowodem na skuteczność działania Technoparku i samych jego założeń są sukcesy firm tam działających. Wypracowana w trakcie miesięcznych negocjacji umowa z ISI jest tak skonstruowana, aby była jak najbardziej efektywną dla młodej firmy i zapewniała dalsze wsparcie dla osoby wdrażającej innowacyjny pomysł na poziomie uczelni. Andrzej Styczeń zdradził też, że rozmowy o wspieraniu przedsiębiorczości prowadzone są nie tylko z Politechniką Łódzką, ale też innymi udziałowcami - Uniwersytetem Medycznym i Uniwersytetem Łódzkim. W następnej kolejności planowane jest podpisanie porozumienia z Akceleratorem Przedsiębiorczości Uniwersytetu Łódzkiego w sprawie finansowania młodych firm.
jac
NA C Z A SIE >>
Poczta Polska stawia na usługi cyfrowe Poczta Polska wprowadziła usługę wysyłania neokartki za pomocą smartfonów. To pierwsza usługa z całej gamy eUsług, które będą dostępne na platformie mobilnej. Klienci mogą wysyłać wykonane smartfonem zdjęcie jako tradycyjną kartkę pocztową, którą do adresata dostarczy listonosz. Za usługę będzie można zapłacić SMS-em, przelewem i kartą. – Aplikacja pozwala na wykorzystanie własnego zdjęcia z prywatnej galerii w urządzeniu lub też jednego z wielu przygotowanych wzorów okolicznościowych. Łatwa kompozycja umożliwi dopasowanie fotografii lub jego fragmentu i dodanie krótkiego tekstu na awersie kartki – wyjaśnia Grzegorz Świdwiński, prezes zarządu Poczta Polska Usługi Cyfrowe. Aplikację można pobrać bezpłatnie ze sklepu Google Play. W pierwszej kolejności nowa funkcjonalność będzie dostępna dla użytkowników smartfonów, wkrótce pojawi się również na tabletach. – Zaczynamy zgodnie z tendencjami rynkowymi od systemu Android, jednakże w planach są też kolejne, najbardziej popularne systemy: iOS, Windows Phone – wymienia Grzegorz Świdwiński.
Poczta Polska Usługi Cyfrowe pracuje równolegle nad kolejnymi e-usługami. Mają być nimi m.in.: eznaczek i list hybrydowy, które pojawią się jeszcze w tym kwartale. – E-znaczek to możliwość zakupienia znaczka przez Internet i samodzielnego wydrukowania albo od razu na kopercie, albo na etykiecie samoprzylepnej – tłumaczy prezes. – List hybrydowy będzie zwykłym, tradycyjnym listem, który będzie można wysłać zarówno przez internet, jak i docelowo przez urządzenia mobilne – wyjaśnia. Ujawnia natomiast, że głównym celem spółki na najbliższą przyszłość ma być wprowadzenie usług stricte elektronicznych, jak m.in. e-list. – Jest to prawdziwy list w wersji elektronicznej. Damy użytkownikowi na platformie elektronicznej takie same możliwości jak przy tradycyjnej formie korespondencji: bezpieczeństwo, niezawodność, potwierdzenie nadania, potwierdzenie odbioru – tłumaczy Grzegorz Świdwiński. źródło: Newseria
Operator pocztowy planuje sukcesywnie rozwijać i usprawniać usługę neokartki, a docelowo aplikacja stanie się częścią dedykowanej dla e-usług platformy mobilnej.
Teberia 26/2013 15
NA C Z A SIE >>
Autostradowy tweet „Ruch płynny, dobre warunki jazdy. Szerokiej drogi!” – to pierwszy komunikat, informujący o aktualnej sytuacji na A4 Katowice-Kraków zamieszczony na uruchomionym niedawno na Twitterze profilu dedykowanym koncesyjnemu odcinkowi autostrady A4.
Szybki dostęp z każdego miejsca, w dowolnej chwili, do treści zamieszczanych na profilu A4 KatowiceKraków na Twitterze, możliwy jest za pomocą aplikacji lub przeglądarki internetowej w komputerach, smartfonach czy telefonach komórkowych z dostępem do Internetu.
Stalexport Autostrada Małopolska S.A. udostępniła nowe narzędzie komunikacji kierowcom, którzy - nie tylko w wakacje - planują podróż autostradą pomiędzy Katowicami a Krakowem i chcą zasięgnąć rzetelnej informacji o bieżącej sytuacji na tej trasie.
Wśród komunikatów publikowanych na Twitterze znajdują się informacje o warunkach atmosferycznych, alerty o ewentualnych zdarzeniach drogowych i związanych z nimi zmianami w organizacji ruchu oraz Tweety o realizowanych inwestycjach czy pracach utrzymaniowych na A4.
16 Teberia 26/2013
Dla bezpieczeństwa podróżujących autostradą strona zawiera czytelne namiary na czynną całą dobę infolinię alarmową. Dodatkowo, profil wzbogacają wskazówki przypominające o zasadach bezpiecznego korzystania z autostrad. - Na A4 Katowice-Kraków, z której dziennie korzysta ponad 30 tysięcy kierowców, sytuacja zmienia się bardzo dynamicznie. Twitter jest narzędziem, który pozwoli nam na bieżąco komunikować najświeższe informacje na temat sytuacji na drodze.
Komunikaty o istotnych kwestiach, mogących mieć wpływ na komfort i bezpieczeństwo jazdy autostradą, pozwolą kierowcom łatwiej zaplanować podróż – mówi Rafał Czechowski, rzecznik Stalexport Autostrada Małopolska S.A. Dostęp online do profilu na Twitterze jest możliwy po wpisaniu www.twitter.com/A4KatKra w pasku adresu przeglądarki internetowej lub po wpisaniu nazwy profilu @A4KatKra w wyszukiwarce dedykowanej aplikacji Twitter na smartfony lub telefony komórkowe.
zapraszamy do dyskusji napisz do nas
Teberia 26/2013 17
KRE AT Y WNI >>
Imagine Cup 2013 Polscy studenci nagrodzeni W
szystkie trzy polskie zespoły biorące udział w jedenastej edycji konkursu informatycznego dla studentów Imagine Cup w Petersburgu zostały nagrodzone. W kategorii „Windows Phone Challenge” drugą nagrodę – 5 tys. dolarów - otrzymał zespół WeRule z Politechniki Gdańskiej – za test narkotykowy na smartfona. Trzecia nagroda w tej samej kategorii– 3 tys. dolarów - przypadła zespołowi Front z Wojskowej Akademii Technicznej w Warszawie za projekt Cope - platformę informatyczną umożliwiającą koordynację osób uczestniczących w akcji ratunkowej i zwiększającą przewagę informacyjną tych jednostek. Pierwszą nagrodę w tej samej kategorii (10 tys. dolarów) zdobył zespół Team vSoft Studio z Singapuru za projekt „Speak Reminder”. Dzięki tej aplikacji można powiedzieć telefonowi kiedy i o czym ma przypomnieć właścicielowi. Zespół TapBoarders z Uniwersytetu Ekonomicznego w Poznaniu otrzymał nagrodę AFT Excellence Award za projekt Multiboard – platformę do grania w gry planszowe w wersji elektronicznej w kilka osób jednocześnie. Organizowany od 2003 r. przez firmę Microsoft konkurs Imagine Cup to największe na świecie zawody technologiczne dla studentów. Tegoroczna – jedenasta - edycja Imagine Cup spotkała się z największym w historii zainteresowaniem, zanotowano aż 70-procentowy wzrost liczby uczestników w stosunku do poprzedniego roku. Do światowych finałów konkursu zakwalifikowało się 87 drużyn z 71 krajów, w tym aż 3 drużyny z Pol-
18 Teberia 26/2013
ski: zespół TapBoarders z Poznania, zespół FRONT z Wojskowej Akademii Technicznej w Warszawie oraz WeRule z Politechniki Gdańskiej. W sumie 309 osób rywalizowało o nagrody pieniężne o łącznej wartości 1 miliona dolarów oraz wiele dodatkowych nagród i wyróżnień od sponsorów. Obecna edycja została przeprowadzona według nowych zasad. W trzech głównych kategoriach: Gry, Innowacje i Projekty Społeczne zadaniem studentów było opracowanie autorskiego pomysłu w oparciu o rozwiązania technologiczne Microsoft. Oprócz tego odbywały się tzw. Challenges online, koncentrujące się na konkretnych technologiach i platformach: Aplikacje Windows 8, Windows Azure oraz Windows Phone. Imagine Cup co roku aktywizuje ponad 300 tysięcy studentów z ponad 100 krajów. W 2000 roku gospodarzem finałów konkursu była Warszawa. Polscy studenci niezmiennie od 2005 roku odnoszą sukcesy w kolejnych edycjach Imagine Cup. W ubiegłych latach aż 21 razy stawali na podium, zdobywając 7 pierwszych, 8 drugich i 6 trzecich miejsc. Gala finałowa po raz pierwszy w historii konkursu była transmitowana na żywo w internecie. Gospodarzem uroczystości rozdania nagród był Matt Smith – kultowy bohater brytyjskiego serialu Doctor Who. źródło: PAP - Nauka w Polsce
zapraszamy do dyskusji napisz do nas
Zespół FRONT z Wojskowej Akademii Technicznej w Warszawie w składzie: Marcin Cieślewicz, Kamil Krajewski, Marcin Perka, Artur Stachurski przygotował projekt o nazwie COPE (Common Operational Picture Environment). Jest to platforma informatyczna umożliwiająca koordynację osób/jednostek uczestniczących w dowolnej akcji, a tym samym zwiększająca przewagę informacyjną (ang. Situational Awareness) tych jednostek. COPE wspomaga również proces zarządzania jednostkami na każdym poziomie dowodzenia, a to wszystko dzięki wykorzystaniu nowoczesnego sprzętu i technologii m.in. smartfonów, tabletów, GPS, AR (rzeczywistość rozszerzona). Projekt drużyny WeRule z Politechniki Gdańskiej w składzie: Karol Stosik, Paweł Nowakowski, Mateusz Nowak to Modern Drug Test. Jest to aplikacja przeznaczona na urządzenia mobilne, pozwalająca na zbadanie, czy dana osoba znajduje się pod wpływem narkotyków. Jej działanie opiera się na analizie ludzkiego oka i odszukiwaniu w nim anomalii typowych dla osób, które zażyły środki odurzające. Zespół TapBoarders z Uniwerystetu Ekonomicznego w Poznaniu w składzie: Tadeusz Makuch, Stefania Tempłowicz, Aleksandra Olejniczak, Bartosz Matuszewski. Projekt Multiboard to platforma pozwalająca na udostępnienie i uruchomienie gier planszowych w wersji elektronicznej. Uruchomienie gry odbywa się na wielu połączonych ze sobą urządzeniach mobilnych takich jak tablety i smartfony. Połączone urządzenia mobilne tworzą multimedialne i interaktywne środowisko dla graczy. Jednolity standard opisu gier pozwala szybko i tanio przenosić popularne gry oraz tworzyć nowe.
Teberia 26/2013 19
POL SK A 2.0 >>
Globalne miasteczko
O
żarowice, niewielka miejscowość w województwie śląskim jako pierwsza na świecie gmina wdrożyła powszechny dostęp do szerokopasmowego internetu w technologii LTE. Korzystają już z niego jednostki podległe gminie, a kolejnym etapem będzie dostarczenie szybkiego Internet wszystkim mieszkańcom Ożarowic. Dostawcą technologii jest Huawei.
nie tylko mieszkańcy gminy, ale także inwestorzy. – Oznacza to, że przed gminą otworzyły się nowe możliwości w zakresie turystyki, a także wprowadzenia nowej jakości zarządzania gminą, monitoringu wizyjnego, kiosków internetowych czy hot spotów. To wszystko i jeszcze wiele innych rzeczy jest możliwe za sprawą szerokopasmowego Internetu – dodaje Sylwester Chojnacki z Huawei Polska.
Wdrożenie projektu kosztowało 3,2 mln zł, z czego 2,7 mln pochodziło z funduszy unijnych w ramach Regionalnego Programu Operacyjnego Województwa Śląskiego. Dzięki poprawie infrastruktury internetowej gmina Ożarowice, na terenie której znajduje się siedziba portu lotniczego Katowice-Pyrzowice, chce przyciągać inwestorów i turystów.
Dostawcą technologii dla śląskiej gminy jest firma Huawei. Sylwester Chojnacki, podkreśla, że wdrożenie LTE w Ożarowicach to projekt unikalny na skalę światową, bo po raz pierwszy rozwiązanie LTE dedykowane jest odbiorcy publicznemu.
– Do niedawna w naszej gminie było kilku operatorów internetowych, natomiast dostęp do szybkiego internetu miało tylko 30 proc. mieszkańców. Można śmiało powiedzieć, że byliśmy częścią białej plamy na mapie w zakresie usług szerokopasmowych. Znając realia i wiedząc, jak długo czeka się na budowę takiej infrastruktury, postanowiliśmy sami, jako gmina zainwestować w rozbudowę naszej sieci – wyjaśnia w rozmowie z Agencją Informacyjną Newseria Grzegorz Czapla, wójt Ożarowic. Dzięki inwestycji dofinansowanej przez Unię Europejską poprawiła się prędkość i jakość dostępu do internetu w gminie. Do tej pory większość mieszkańców korzystała ze znacznie wolniejszej technologii radiowej. Grzegorz Czapla ma nadzieję, że dzięki wdrożeniu LTE mieszkańcy chętniej będą wykorzystywać internet również w kontaktach z urzędami. Jednocześnie zapowiada, że na dostępie LTE zyskają 20 Teberia 26/2013
– Jest to pierwszy projekt LTE na świecie w tak wysokiej częstotliwości. Dzięki temu mieszkańcy Ożarowic mogą dzisiaj cieszyć się najnowszą technologią LTE, która służy jako ostatnia mila dostępu dla użytkowników końcowych, czyli mieszkańców gminy – dodaje Sylwester Chojnacki. – Pasmo najczęściej dzisiaj wykorzystywane przez operatorów kończy się w granicach 2,3-2,6 GHz. Natomiast potrzeba i regulacje rynku światowego wskazują na to, że pojawiają się również inne częstotliwości do zagospodarowania. Są to częstotliwości rzędu 3,4-3,8 GHz. Huawei postanowił rok temu, że chciałby skupić się również na tych częstotliwościach i rozpocząć komercyjną produkcję sprzętu w tym zakresie pasma. Dzięki wykorzystaniu wyższych częstotliwości oraz tzw. systemów LTE TDD projekt będzie służył mieszkańcom długo – co najmniej 8 do 10 lat. Sylwester Chojnacki podkreśla, że w tej chwili jest to najnowsza i najbardziej innowacyjna technologia, która wypiera starsze systemy takie jak WiMAX. Piotr Długosz reprezentujący firmę STIMO Systemy Informatyczne
odpowiedzialną za wdrożenie rozwiązania w Ożarowicach dodaje, że LTE zapewnia nieosiągalne w innych technologiach prędkości. – Bez trudu osiągnęliśmy przepustowość 30 Mbps na pojedynczym terminalu LTE. Działają też radiolinie, które przenoszą od 200 do 800 Mbps – jest to naprawdę wydajna, nowoczesna infrastruktura teletransmisyjna – mówi Piotr Długosz. – Wydzieliliśmy dwie warstwy funkcjonalne: warstwę dystrybucyjną, która została oparta o radiolinie cyfrowe o bardzo dużej przepustowości i warstwę dostępową, która wykorzystuje dwie technologie – to jest właśnie nowoczesna technologia LTE i technologia WiFi. Jednakże z taką uwagą, że LTE ze względu na spore możliwości transmisyjne świadczy usługi dla tej warstwy dostępowej WiFi, czyli dostarcza usługi szerokopasmowego internetu dla hot spotów. Dla STIMO realizacja inwestycji była nie lada wyzwaniem, ponieważ montaż infrastruktury przeprowadzono między grudniem a marcem. Jednakże duże doświadczenie w instalowaniu sieci szerokopasmowych sprawiły, iż wdrożenie odbyło się bez większych problemów nawet w tak trudnych warunkach atmosferycznych. – Największą wartością każdej firmy są jej pracownicy, ta maksyma sprawdziła się też i tym razem. Dzięki naszemu zaangażowaniu, determinacji i umiejętnościom udało się nam zakończyć inwestycje w terminie. – podkreśla Piotr Długosz. Zainstalowane w miejscach publicznych Hot Spoty na razie umożliwiają jedynie dostęp do wybranych stron administracji publicznej. Gmina jest w trakcie
procedury w Urzędzie Komunikacji Elektronicznej, by umożliwić pełny dostęp do sieci. Wójt Grzegorz Czapla zapowiada, że docelowo zasięgiem LTE zostaną objęci wszyscy mieszkańcy gminy Ożarowice. – Dziś wybudowaliśmy narzędzie na potrzeby obiektów użyteczności publicznej, czyli urzędu gminy, biblioteki, świetlicy, ośrodka kultury, straży pożarnej, szkoły i przedszkola. Kolejnym etapem inwestycji jest dostęp dla mieszkańców Ożarowic do szerokopasmowego internetu – wyjaśnia Grzegorz Czapla. – Jeśli powiedzie się nam i dopełnimy wszystkich wymaganych procedur, już wkrótce pierwszych 100 posesji będzie cieszyło się szybkim Internetem. Pozostałe rodziny będą dołączane sukcesywnie. Wielousługowy charakter infrastruktury w Ożarowicach gwarantuje, że jest ona gotowa do wdrożeń kolejnych aplikacji w przyszłości – np. monitoringu miejskiego czy kontroli urządzeń pomiarowych (np. energii, wody czy gazu). Sylwester Chojnacki dodaje, że rozwiązanie zaproponowane i wdrożone przez Huawei w Ożarowicach jest zgodne z wytycznymi Komisji Europejskiej. Dzięki temu firma Huawei z nadzieją patrzy w przyszłość. Zaproponowane rozwiązanie idealnie zaspokoiło potrzeby gminy a tym samym udowodniło swoją gotowość do implementacji w innych jednostkach samorządowych w Polsce.
zapraszamy do dyskusji napisz do nas
Teberia 26/2013 21
NA C Z A SIE >>
Energetyczna telefonia
O
range wspólnie z PGE testuje łączoną sprzedaż usług energetycznych i telekomunikacyjnych. Na razie nie wiadomo, kiedy ruszy, ale operator wiąże z tym duże nadzieje. Pakietowanie różnych usług to – według prezesa Macieja Wituckiego – w obecnej sytuacji rynkowej dobry sposób na zwiększenie przychodów i pozyskanie większej liczby klientów. Nasycenie polskiego rynku telefonii komórkowych sprawia, że operatorzy poszukują nieszablonowych rozwiązań. Play oferuje prywatne pakiety zdrowotne, a T-Mobile planuje ułatwiać swoim klientom zakupy w internecie bez konieczności używania karty kredytowej. Z kolei Orange Polska planuje sprzedaż energii razem z usługami telekomunikacyjnymi. Jak informuje rzecznik telekomu, Wojciech Jabczyński trwają testy wspólnej sprzedaży. – Współpraca z PGE będzie mieć charakter B2B i będzie polegać na dosprzedawaniu naszym klientom biznesowym specjalnej energetycznej oferty taryfowej – mówi Maciej Witucki, prezes Orange Polska. – To jest pierwszy krok, żeby zobaczyć jak sprawdza się pomysł pojawiania się w Orange Polska usług innych niż telekomunikacyjne. Ja już dziś jestem przekonany, że to będzie bardzo dobre rozwiązanie. Orange Polska i PGE Polska Grupa Energetyczna podpisały umowę o współpracy 18 lutego 2013 roku. Łączona sprzedaż produktów z dostawcą energii wynika z nowej strategii Orange, w ramach której planowane jest łączenie usług telekomunikacyjnych z innymi. Tym bardziej, że w walce o klienta coraz trudniej walczyć ceną produktów lub usług. – Konkurowanie smartfonami czy tabletami za złotówkę jest bardzo kosztowne, bo powoduje, że w koszty marketingowe musimy wliczyć 22 Teberia 26/2013
również koszt tego urządzenia – mówi Witucki. – W Orange wierzymy w łączenie usług. Indywidualne usługi są tanie, a ich dodatkowym minusem dla operatorów jest duża rotacja klientów. – W naszym interesie jest połączenie tego w pakiet i uzyskanie większego pakietu przychodów, nawet jeśli dajemy z tego powodu jeszcze dodatkowe upusty – przekonuje Witucki. – Chodzi o „spakowanie” klientowi jak największej ilości usług w jego najważniejszym urządzeniu. Obecnie to właśnie smartfon, a nie np. portfel czy zegarek jest dla klientów najważniejszy. W myśl tej zasady, Orange oferuje też klientom usługę zarządzania domem za pomocą smartfona. Tzw. Inteligentny Dom to najnowsze rozwiązanie operatora. Klienci mający dostęp do tej usługi mogą np. zdalnie sterować gniazdkami energetycznymi, kontrolować otwieranie okien i drzwi, a także obserwować np. dzieci czy osoby starsze znajdujące się w domu. Wszystko za pomocą smartfona. źródło: Newseria
zapraszamy do dyskusji napisz do nas
WIDZIANE >>
Piękna Politechnika P
olitechnika Wrocławska znalazła się w gronie 15 najpiękniejszych uczelni świata. Takie zestawienie przygotował prestiżowy internetowy dziennik The Huffington Post wspólnie z amerykańską wytwórnią filmów animowanych DisneyPixar. W uzasadnieniu decyzji możemy przeczytać, że nasza uczelnia posiada liczne budynki (głównie w stylu modernistycznym) rozsiane po całym Wrocławiu. Te najważniejsze znajdują się na brzegu spokojnie płynącej Odry. W gronie wyróżnionych znalazły się także m.in. uniwersytety w Cambridge i Oxfrod, Uniwersytet Cape Town w RPA oraz Uniwersytet Otago z Nowej Zelandii. Najpiękniejsze uczelnie na świecie można znaleźć na stronie: http://www.huffingtonpost.co.uk/2013/07/11/worlds-mostbeautiful-universities_n_3578402. html#slide=2682420 źródło: Politechnika Wrocławska
zapraszamy do dyskusji napisz do nas
Teberia 26/2013 23
DESIGN >>
Starter
- nowoczesna „kawalerka”
W
dawnym wrocławskim Hotelu Asystenta powstają mikro apartamenty Starter. Do końca lipca gotowe będzie piętro pokazowe, a pierwsze mieszkania zostaną oddane do użytku pod koniec września. Ideą projektu Starter jest stworzenie pierwszej na rynku ogólnopolskim oferty tzw. mikro apartamentów o powierzchni od 12 do 27 m2 dedykowanych do szerokiego spektrum końcowych użytkowników, w tym ludzi młodych (studentów i absolwentów szkół wyższych). Wrocławski Starter narodził się dzięki inspiracji brytyjskiego modelu kameralnych mieszkań Student Castle w Manchasterze. Mikro apartamenty cieszą się coraz większą popularnością m.in. w Chinach i USA. Najmniejsza kawalerka ma powierzchnię 12 metrów kw., największa 27 metrów kw. Pierwszy etap tej inwestycji zakłada zlokalizowanie 149 mikro apartamentów. Budynek, w którym powstaje Starter to dawny Dom Asystenta, położony w centrum akademickim Wrocławia przy ul. Wybrzeże Ludwika Pasteura. Został on zaprojektowany w 1965 r., a wybudowany na początku lat 70-tych. Jego solidna żelbetowa konstrukcja pozwoliła na całkowicie nową oraz dowolną aranżację każdej kondygnacji. Wnętrza Startera zostały zaprojektowane przez wrocławską architekt wnętrz Natalię Cisowską, tegoroczną absolwentkę Wydziału Architektury Wnętrz wrocławskiej Akademii Sztuk Pięknych. „Projektując Startery kierowałam się zasadą: mała przestrzeń – wiele możliwości. 24 Teberia 26/2013
Przede wszystkim chciałam stworzyć funkcjonalne mieszkania, komfortowe dla przyszłych użytkowników. Dwanaście metrów kwadratowych to naprawdę niewiele. Jednak dzięki sprytnym rozwiązaniom, na tak małej przestrzeni, można stworzyć swoją wygodną i przytulną kawalerkę, w której znajdzie się miejsce zarówno do spania, pracy jak również zmieści się aneks kuchenny i łazienka.” Starter to inteligentny budynek, w którym skomputeryzowany system pozwoli na szybki odczyt zużytych mediów. Budynek posiada autorski program segregacji odpadów. Dzięki temu, mieszkańcy Startera przez pierwsze trzy lata nie będą płacić za wywóz śmieci. Dodatkowo, każde mieszkanie zostało wyposażone w zgniatarkę do butelek. Do użytku lokatorów zostanie oddana nowoczesna rowerownia. Energooszczędne oświetlenie LED części wspólnych i niskoszumowa wentylacja mechaniczna to kolejne ważne atuty w standardzie Startera. Każdy lokal będzie wyposażony w indywidualnie sterowaną klimatyzacje. W budynku znajdą się również: szerokopasmowy Internet, bezpłatna telefonia cyfrowa pomiędzy mieszkańcami budynku i telewizja cyfrowa. Na kondygnacji minus 1 będzie mieściła się samoobsługowa pralnia, z której użytkownik sms-em otrzyma powiadomienie o zakończeniu prania. Ceny takich nowoczesnych mikro apartamentów rozpoczynają się od 93 tys. zł. I to chyba jest jedyny feler Startera. jac
Teberia 26/2013 25
NA OKŁ ADCE >>
Profesor vs. procesor czyli o tym, jak nowe technologie zmieniają świat akademicki Cyfryzacja, digitalizacja, informatyzacja to pojęcia, które z impetem wdarły się w każdą niemal sferę życia i zadomowiły się w nich na dobre. Wtargnęły również w zastygły przez stulecia świat akademicki, pełen zakurzonych ksiąg, rektorskich gronostajów i… omszałych głów zacnych profesorów. Jak zmienia się rzeczywistość uniwersytecka pod wpływem nowych technologii? Cyfryzacja ułatwia, czy komplikuje świat, działający dotąd wedle dawnych, sprawdzonych procedur? I w końcu, czy jajku wyhodowanemu w cyfrowym kurniku słusznie wydaje się, że jest mądrzejsze od szacownego grona jajogłowych?
26 Teberia 26/2013
Teberia 26/2013 27
NA OKŁ ADCE >>
T
echnologie informatyczne, szczególnie Internet, towarzyszą nam dziś od rana do późnej nocy, będąc - jeśli nie naszym partnerem - to przynajmniej backgroundem w codziennych czynnościach. Od zajęć biurowych, po przelewy bankowe, od przepisów kulinarnych po codzienne zakupy, jesteśmy w sieci, lub korzystamy z jej dobrodziejstw. Wszyscy? No, prawie wszyscy. Według statystyk dostęp do sieci ma ok. 30% ludności na całym świecie, czyli ok 2 mld ludzi. Jak twierdzą analitycy brak dostępu do Internetu jest prostym odbiciem podziału świata na kraje biedne, bogate i rozwijające się. Jest bowiem powiązany w znaczącym stopniu z umiejętnościami czytania i pisania oraz sytuacją życiową. Internet przynosi większe możliwości dostępu do edukacji, pracy, informacji medycznej czy administracji. Nie da się zresztą ukryć, że ci, którzy poza nim pozostają, są praktycznie wykluczeni z modernizującego się świata. Z kolei w Polsce dostęp do Internetu ma w swych domach 76% obywateli powyżej 16 roku życia. Urok tych danych nieco blednie, gdy okazuje się, że ponad 15% z tego dobrodziejstwa nie korzysta, aż 30% używających komputera, potrafi go wykorzystać tylko na podstawowym poziomie i do najprostszych zadań.
Eco-cyfryzacja Obserwuje się zatem proces, który jeszcze w latach 90-tych XX wieku przewidział włoski filozof, pisarz, mediewista i bibliofil Umberto Eco. Dziś Internet – w tych przestrzeniach, w których jest dostępny - kojarzy się z narzędziem demokracji, bo każdy, niezależnie od grupy społecznej - ma równy dostęp do informacji. Eco używa określenia demokracja telematyczna. Ponieważ nie wszyscy mają dostęp do sieci, społeczeństwo zaczyna dzielić się na trzy klasy. Warstwa najwyższa to tzw. nomenklatura (w sowieckim znaczeniu tego terminu), czy też inaczej kognitariat, czyli multimedialna arystokracja wiedzy, która tworząc informacje w sieci ma wpływ na społeczeństwo, zwłaszcza na warstwę drugą - digitariat, umiejący korzystać z dobrodziejstw nowoczesnych technologii, lecz nie mający na nie wpływu. Warstwę najniższą stanowi informacyjny proletariat, w ogóle nie korzystający z sieci. Nomenklatura zatem sprawuje de facto kontrolę nad pozostałymi warstwami. Mamy więc do czynienia ze swoistą dyktaturą telematyczną. Co może jej zaradzić? Otóż paradoksalnie jedynie... nomenklatura masowa. 28 Teberia 26/2013
Czy to możliwe? Ależ tak! Mieliśmy już do czynienia z tym zjawiskiem po wynalezieniu druku. Z początku miała do niego dostęp najwyższa warstwa – uczeni i duchowieństwo - którzy mogli dowolnie kształtować (i robili to po mistrzowsku) umysły niższych warstw. Kiedy wynalazek Gutenberga stał się powszechny, ludzie stali się niezależni i samodzielni, co doprowadziło w pierwszej kolejności do reformy Kościoła, ale przede wszystkim do rozwoju nowoczesnej nauki. Analogia z rozwojem technik informacyjnych narzuca się sama – powszechne korzystanie z ich dobrodziejstw doprowadzi do nomenklatury masowej, bo tylko w ten sposób – zdaniem Eco - można zagwarantować, że nowe media będą używane w sposób demokratyczny, bez odsuwania kogokolwiek od nowych zasobów informacji. Tylko tak bowiem można uczyć każdego, jak skutecznie te zasoby selekcjonować, jak je tworzyć i jak z tej umiejętności korzystać.
Kto ma uczyć? Oczywiście szkoła – od podstawówki po uniwersytety. Te ostatnie zwłaszcza dziś są specyficznym polem, na którym często dokonuje się konfrontacja cyfrowej młodzieży z wciąż analogową kadrą, czyli – co brzmi naprawdę szokująco - owej nomenklatury z... proletariatem. Trzeba przyznać, że od wynalazku Gutenberga nie było takiej rewolty w nauce. Dlaczego tak jest?
Dzieci sieci Współczesny student, doktorant, a także młodszy pracownik naukowy dorastał przez Internet, z Internetem i w Internecie. Sieć nie była czymś zewnętrznym wobec rzeczywistości – ale jej elementem. To nie technologia, której trzeba się było nauczyć, ale proces, który wciąż się odbywał i dalej się dzieje, przekształcając rzeczywistość tu i teraz, przy udziale wszystkich użytkowników. Bo ludzie wychowani w sieci myślą inaczej. Umiejętność znajdowania informacji jest dla nich czymś równie podstawowym jak dla „analogowych” umie-
jętność posługiwania się mapą w obcym mieście. Sieć zawsze daje odpowiedź, nie wymagając nawet umiejętności prawidłowego stawiania pytań (w dzisiejszych wyszukiwarkach wystarczy wpisać początek frazy – „Wujek Gogle” podpowie, o co chcemy zapytać). Jeszcze do niedawna informacje zaczerpnięte z sieci nie zawsze były sprawdzone – dziś, nawykli do tego, że zamiast jednej odpowiedzi znajdują wiele różnych, użytkownicy potrafią wyabstrahować tę, która jest wiarygodna. Selekcjonują, filtrują, zapamiętują i – co ważniejsze - są gotowi wymienić zapamiętaną informację, kiedy pojawi się jej nowa, lepsza wersja. Ludzie sieci są gotowi na ciągły upgrade. Sieć to rodzaj pamięci zewnętrznej, dzięki której nie ma potrzeby zapamiętywania niepotrzebnych szczegółów: dat, wzorów, definicji. To świat wymiany informacji, która jest wolna i łatwo dostępna. Dlatego samo posiadanie informacji nie stanowi takiej wartości jak umiejętność szybkiego znalezienia jej, sprawnego przetworzenia, a więc wyselekcjonowania pożądanej esencji, z wielu dostępnych źródeł. Tym, najogólniej rzecz ujmując, współczesny student różni się od swojego profesora.
Analogowy profesor vs cyfrowy belfer Bo paradoksalnie to właśnie elita naukowa - profesorowie o włosach przyprószonych siwizną, doskonale radzący sobie bez poczty elektronicznej, są warstwą społeczną, która w rozumieniu Eco, tworzyć może najniższą kastę. Brzmi okropnie? Ok. Zacznijmy inaczej. Stary akademicki żart mówi, że profesor wcale nie musi dużo wiedzieć, bo przecież już został profesorem. To doktor musi wiedzieć co i gdzie jest napisane, doktor habilitowany musi wiedzieć, gdzie, co i po co zostało napisane, a profesor musi tylko wiedzieć gdzie jest doktor habilitowany. Teberia 26/2013 29
NA OKŁ ADCE >> To mu wystarczy. Żart jest jak ten profesor - analogowy (sprzed ery cyfryzacji), czyli zawsze tak było. Problem oczywiście jest o wiele szerszy, chciałoby się rzec – systemowy. Niewątpliwie w dzisiejszych czasach bycie dobrym profesorem to prawdziwe wyzwanie. Środowisko akademickie spotyka się często z inną jeszcze falą krytyki, związanej z niepraktycznymi, przestarzałymi formami nauczania, brakiem dopasowania do nadchodzących zmian. Wiele mówi się o strachu i niechęci ze strony nauczycieli w stosunku do nowych technologii, również o obawach przed lepiej poinformowanym studentem – to znaczy studentem wciąż zdecydowanie mniej wiedzącym od profesora, ale będącym w zdecydowanie lepszych stosunkach z Google. Wyjście naprzeciw nowym technologiom, otwarcie się na multimedia, pokonanie obaw przed tym co nowe, to podstawowe kroki, które powinien poczynić współczesny nauczyciel akademicki. Istotna jest zmiana metod nauczania, co pozwoli łatwiej dotrzeć do studenta. Sprzęt komputerowy, rzutniki multimedialne, tablety, smartfony - potrzebne jest zrozumienie, że narzędzia te można doskonale wykorzystać do tworzenia lepszych, ciekawszych metod dzielenia się wiedzą. I nie chodzi tu jedynie o proste przełożenie - zastąpienie treści przekazywanych w sposób tradycyjny wyłącznie nowoczesnymi technologiami, ale przede wszystkim o zainspirowanie danym zagadnieniem poprzez to, co nowoczesne. Cyfrowe narzędzia to często instrument budowania nowego modelu kompetencji, wsparcie dla tradycyjnego nauczania. Taka postawa to jednak wyzwanie, by uczyć wraz ze studentem. A to już wymaga dialogu i współpracy, do czego analogowy profesor nie nawykł. A przecież epoka mędrców, którzy są specjalistami w swojej dziedzinie bezpowrotnie mija. Powszechny dostęp do informacji sprawił, że straciła ona znacznie na wartości. Współczesny nauczyciel powinien zatem być osobą, która pokieruje, udzieli wskazówek, zainspiruje do samodzielnego, aktywnego działania, będzie stymulować rozwój. Bardzo istotna jest także zmiana mentalności nauczycieli akademickich, wyrażająca się w sposobach egzekwowania wiedzy. Jak wspominałam wyżej, zapamiętywanie dużej ilości danych, w czasach, gdy są one stale dostępne jest bardzo efektowne, ale nie efektywne i na dłuższą metę nie ma żadnego sensu. Współczesny człowiek nie musi wszystkiego wiedzieć, ale musi umieć szukać i znajdywać. 30 Teberia 26/2013
O tym, że warto czerpać z dobrodziejstw rozwoju technologicznego, ułatwiającego codzienne życie, nie trzeba nikogo przekonywać. Ale wyższa uczelnia powinna być szczególnie otwarta na innowacje, bo - jak mówi stara prawda - aby móc wpływać na młodzież należy mówić jej językiem, czyli językiem XXI w. Potwierdzają to statystyki. Z przeprowadzonych przez Eduventures - amerykańską firmę, wyspecjalizowaną w konsultingu dla szkolnictwa wyższego - badań wynika, że w USA co trzeci student woli zajęcia, na których może wykorzystywać nowe technologie i chętnie widziałby więcej tego typu rozwiązań w procesie nauczania. Aż 86 % badanych zauważyło także wzrost zaangażowania i poziomu uczenia się, jeśli używali oni podczas nauki nowoczesnych technologii. Nie zaskakuje więc i to, że zdecydowana większość, bo aż 87% studentów w USA najchętniej korzysta z cyfrowych bibliotek i baz danych, uważając je za bardzo przydatne. I słusznie, bowiem bazy te są – w przeciwieństwie do wydań tradycyjnych - na bieżąco aktualizowane i modyfikowane. E-książki cieszyły się uznaniem połowy ankietowanych, zaś co czwarty student za użyteczne podczas uczenia się uważa serwisy społecznościowe. Zależność tę potwierdza codzienna obserwacja – na portalach społecznościowych trwa nieustająca wymiana myśli, doświadczeń, a także pytań egzaminacyjnych i notatek z wykładów. Jak to w Stanach Zjednoczonych bywa (głównie za sprawą sprawnego finansowania uczelni) szkolnictwo wyższe odpowiada na zapotrzebowanie studenta. Na przykład Uniwersytet w Stanford swoją nową bibliotekę inżynierii w ogóle pozbawił regałów z książkami i wyposażył w komputery z dostępem do sieci oraz publikacji cyfrowych. Podobną rewolucję zdecydowała się przeprowadzić również jedna z dużych kalifornijskich bibliotek. Radykalnie? Z pewnością. W Polsce nowoczesne świątynie wiedzy, jak chociażby Biblioteka Uniwersytetu Warszawskiego (BUW) czy katowickie Centrum Informacji Naukowej i Biblioteka Akademicka (CINIBA), wyposażone w komputery, bazy danych i publikacje cyfrowe, posiadają jednak książki tradycyjne. Dzięki temu odwiedzają je także profesorowie analogowi. Jaki zatem powinien być nauczyciel przyszłości? Czy w świecie wszechobecnej sieci będzie w ogóle potrzebny?
Kluczem do odpowiedzi na to pytanie jest opracowana przez pracowników kanadyjskich uczelni Georga Siemensa i Stephena Downes’a teoria konektywizmu nazywana też„teorią uczenia się w epoce cyfrowej”. Istotą tej teorii jest właściwie metafora:
Rura jest ważniejsza niż zawartość wewnątrz niej Nasza zdolność do uczenia się tego, czego potrzebujemy na jutro jest ważniejsza niż to, co wiemy dzisiaj, bo prawdziwym wyzwaniem dla każdej teorii uczenia się jest to, aby dynamizować znaną wcześniej wiedzę w momencie jej stosowania. Jednakże kiedy wiedza jest potrzebna, ale nieznana, istotną umiejętnością staje się zdolność do zaangażowania się w znalezienie odpowiednich źródeł. Wraz ze wzrostem i rozwojem wiedzy dostęp do tego, czego potrzebujemy jest ważniejszy niż to, co uczący się obecnie posiada. Uczenie się nie jest już wewnętrzną, indywidualną czynnością, jest procesem społecznym. Koncepcja ta wychodzi na przeciw współczesnym wyzwaniom edukacyjnym, o których wspominałam wyżej. To przede wszystkim umiejętność selekcji docierającej informacji, wykorzystanie technologii, uczenie się poprzez bycie w społecznościach sieciowych. Istotą przyswajania wiedzy w tym rozumieniu jest umiejętność dostrzegania związków między ideami i sprawność zastosowania ich w praktyce. Teoria konektywizmu zakłada, że decyzje podejmujemy na podstawie określonego zasobu informacji. Jednak
w dobie chaosu informacyjnego kluczową kompetencją jest krytyczne myślenie, czyli rozróżnianie informacji istotnych od tych nieważnych. Już dziś zresztą, korzystając z wyszukiwarek przesiewamy informacje pod kątem ich przydatności. Ale przyszłość stawia jeszcze inne wyzwanie - ważne staje się uchwycenie momentu, w którym nowa informacja zmienia w sposób istotny przesłankę, na której przed chwilą podjęto określoną decyzję. Inaczej mówiąc „wiedzieć gdzie” jest znacznie ważniejsze niż „wiedzieć jak” czy „wiedzieć co”. Na tej podstawie za kryterium oceny można przyjąć czas dotarcia do najbardziej aktualnego i wartościowego zasobu (w terminologii kolektywistycznej – węzła). Nadrzędną wartością nie jest ilość wiedzy, ale jej aktualność. To jest istota poszerzania zasobu wiedzy. Ale teoria konektywizmu idzie jeszcze dalej. Chodzi także o to, że w epoce cyfrowej proces uczenia się nie może być w pełni kontrolowany. A nawet więcej – spore znaczenie ma tzw. nieformalne uczenie się – wykonywanie zadań związanych z pracą, uczestnictwo w społecznościach, rozwijanie sieci kontaktów osobistych. Jednym z najważniejszych aspektów konektywizmu jest wykorzystanie sieci z jej różnymi węzłami i połączeniami jako centralnej metafory procesu uczenia się. Węzłem może być wszystko, co łączy się z innymi węzłami: informacja, dane, uczucia, obrazy, itp. Uczenie się jest zatem procesem tworzenia połączeń pomiędzy różnymi węzłami i rozwijania sieci.
Teberia 26/2013 31
NA OKŁ ADCE >> Teorię tę rozwinął Jay Cross - autor książki „Informal Learning”. Zakłada on, że granica między sytuacjami, kiedy następuje proces świadomego uczenia się, a kiedy nie, jest bardzo nieostra, bo niemal wszystko, co robimy jest tym procesem - obserwacje jak inni ludzie radzą sobie z zadaniami, zadawanie pytań, metoda prób i błędów, opowiadanie historii, a przede wszystkim zwykła rozmowa. Czy w związku z tym można ocenić efektywność takiej nauki? Oczywiście, tak. Przejawia się ona na przykład poprzez zdolność widzenia połączeń i sprawnego docierania do aktualnej wiedzy. Interesujące jest także, że konektywizm wiąże się z teorią umysłu rozszerzonego, rozwijaną w ramach współczesnej kognitywistyki. Duże znaczenie w obu koncepcjach mają narzędzia, które rozszerzają możliwości umysłu. Wykorzystywanie urządzeń umożliwiających przechowywanie i organizację zasobów wiedzy zastępuje pracę wykonywaną w umyśle. Jakie są zatem zadania nauczyciela i studenta przyszłości? Stephen Downes twierdzi, że „nauczać oznacza proponować model i doświadczenia, a uczyć się – praktykę i refleksję”. Uczenie się nie polega więc jedynie na konsumpcji zastanej wiedzy, ale także na jej tworzeniu. Każda jednostka, która chce się czegoś nauczyć może to zrobić poprzez włączenie się do istniejącej sieci wiedzy. Zadaniem jednostki jest więc uczestnictwo w przepływie wiedzy i tworzenie jej. Posługując się zaś obrazowaniem Umberto Eco – stawanie się częścią nomenklatury masowej. Czy to się już dzieje? Z pewnością. Jeszcze nigdy wymiana wiedzy, doświadczeń i refleksji między studentami oraz między studentami a naukowcami nie była tak szybka i skuteczna, jak dziś - przy pomocy czatów, komunikatorów internetowych czy portali społecznościowych.
32 Teberia 26/2013
Pan Khan
W 2004 roku Salman Khan - informatyk z Kalifornii odebrał telefon od kuzynki z Nowego Orleanu, która mając kłopoty z matematyką, prosiła go o pomoc. Ponieważ dzieliły ich setki kilometrów, Salman postanowił nagrywać lekcje i ćwiczenia sprawdzające postępy w nauce. Przedsięwzięcie ułatwił YouTube, umożliwiający Khanowi wygodne dzielenie się przygotowanymi lekcjami. Wkrótce okazało się, że jego metoda korepetycji ma wielu zwolenników. Zainspirowany rosnącą popularnością swoich lekcji zaczął poświęcać im więcej czasu, przygotowując bardziej systematyczny kurs, obejmujący nie tylko matematykę, lecz również inne przedmioty przyrodnicze. Formuła jest prosta – lekcje są krótkie, na ogół nie przekraczają 10 minut, Salman tłumaczy wszystko bez zniecierpliwienia, jak się nie zrozumie, można powtarzać wiele razy. Zapoczątkowany przez niewinną prośbę kuzynki serwis rozrósł się do Akademii Khana, która zyskała uznanie w gronie amerykańskich środowisk technologicznych, a na jej konto – organizacji non profit, udostępniającej kursy za darmo, zaczęły płynąć datki. Dziś wśród sponsorów znaleźć można Billa Gates’a i Google. W wydanej we wrześniu zeszłego roku książce „The One World Schoolhouse: Educaton Reimagined” (Szkoła dla jednego świata: edukacja wyobrażona na nowo) twórca Akademii piętnuje, do dziś funkcjonujące w powszechnej edukacji, założenia wymyślone 200 lat temu w Prusach, dławiące rozwijanie indywidualności i kreatywności ucznia. Filozofia Khana jest prosta – podstawowa wiedza dostępna jest za darmo w Internecie. Rolą nauczyciela jest tylko dodanie tej wiedzy wartości. Przykład Akademii Khana jest inspirujący. Wiodące uczelnie, jak choćby Massachusetts Institute of Technology już w 2002 roku podjęły projekt Open Courseware. Polega on na publikowaniu w sieci nagrań wykładów prowadzonych na uczelni. W ten sposób można za darmo uczestniczyć w zajęciach prowadzonych przez najwybitniejszych profesorów. Do roli wirtualnego uniwersytetu urosły także konferencje TED (Technology, Entertainment, Design) zainicjowane przez amerykańską Sapling Foundation w latach 90-tych XX w. Celem konferencji TED jest upowszechnianie „idei wartych uwagi”. Przez 18 minut zaproszeni goście mogą przedstawić swój pomysł na lepszy świat. Gośćmi TED byli m.in. Salman Khan i Bill Gates. Od 2006 r. nagrania wystąpień dostępne są za darmo on-line. Teberia 26/2013 33
Innym rodzajem wykorzystania sieci są MOOC (Massive Open Online Courses – masowe otwarte kursy on-line) - inicjatywy podejmowane przez profesorów-celebrytów. Z kolei ekonomista Tyler Cowen z George Mason University, autor „Marginal Revolution”, jednego z najbardziej popularnych blogów ekonomicznych, uruchomił Marginal Revolution University, gdzie słuchacze za pomocą Internetu maja darmowy dostęp do miniwykładów z ekonomii. Co ciekawe – swoje wykłady Cowen przygotowuje na iPadzie za pomocą aplikacji Explain Everything (koszt jedyne 2,99 dol.), aplikacji – co warto dodać opracowanej przez firmę MorrisCooke z Wrocławia. Pierwszy kurs ekonomii rozwoju, mający miejsce w październiku 2012 r. już w ciągu tygodnia zgromadził 3500 słuchaczy. Jeszcze większe zainteresowanie wywołał Udacity – wirtualny uniwersytet założony przez konstruktora samochodów zdolnych jeździć bez kierowcy, Sebastiana Thruna, zajmującego się w Stanford University sztuczną inteligencją. Na 14 kursów z informatyki i sztucznej inteligencji w ramach Udacity zapisało się 753 tys. studentów z całego świata. Jedni uważają, że to jest właśnie przyszłość edukacji, inni stawiają na siłę tradycyjnego dyplomu. Jedno jest pewne - Salaman Khan wyznaczył już drogę. Jego działalność została zresztą doceniona w 2012 roku, ten trzydziestopięciolatek został uznany za jedną ze 100 najbardziej wpływowych osób według tygodnika „Time”.
34 Teberia 26/2013
Nomenklatura masowa... Potrzebę zmiany podejścia do nowoczesnego nauczania potwierdza także The Horizon Report - edycja 2012 - jedno z ważniejszych na świecie opracowań, poświęconych zmianom w nowoczesnej edukacji. Autorzy raportu wskazali najistotniejsze trendy, które wpływać będą w przyszłości na rzeczywistość akademicką. Wśród wyzwań dla systemu edukacji istotne miejsce zajmuje redefinicja ról nauczyciela i studenta, wynikająca z bogactwa zasobów i relacji osobowych w sieci. Instytucje edukacyjne powinny dbać o wartość własnej działalności dydaktycznej, gdyż we współczesnym świecie informacja jest już ogólnodostępna dosłownie wszędzie. Mentoring i przygotowanie studentów na wyzwania świata, w którym będą żyli, ponownie stają się centralnym punktem misji uczelni wyższej. Kolejne wyzwanie to „przestawienie się” na edukację on-line, hybrydowe formy kształcenia i modele kolaboracyjne. S tudenci spędzają już wiele czasu w Internecie, także ucząc się i współpracując z rówieśnikami. Dlatego nowa oferta edukacji on-line czy form mieszanych może trafić na właściwy grunt i przyczynić się do podniesienia poziomu ich umiejętności. Zwłaszcza modele hybrydowe (mieszane) pozwalają studentom lepiej dopasować styl uczenia się, jego tempo i miejsce do osobistych potrzeb. Ważnym zjawiskiem jest idea chmury - technologie w coraz większym stopniu opierać się będą na tej idei, co prowadzi do decentralizacji wsparcia IT. Na uczelniach popularność zdobywają aplikacje i usługi w chmurze.
Nie ma znaczenia, w którym miejscu fizycznie znajdują się pliki studenta, ważne, aby zawsze był do nich dostęp. Uczelnie i twórcy programu nauczania muszą w większym stopniu łączyć wiedzę teoretyczną z praktyką. To student powinien być w centrum procesu nauczania. Jeśli studenci będą w stanie wykorzystać wiedzę we własnym życiu czy życiu wspólnoty, w której funkcjonują, będą bardziej zmotywowani do nauki i głębiej się w nią zaangażują. Autorzy raportu podkreślają także konieczność pójścia w kierunku pracy zespołowej. Studenci mają wiele narzędzi do ćwiczenia i pogłębiania współpracy podczas studiów – Wiki, Google Docs, Skype, czy platformy edukacyjne. Praktyka współpracy podczas realizowanego wspólnie projektu staje się równie istotna jak końcowe rezultaty. A skoro takie są trendy, to jakie wyzwania stoją przed uczelniami? Autorzy raportu wskazują przede wszystkim na konieczność zaakceptowania przez środowisko naukowe nowopowstających modeli autorstwa, wydawania publikacji i organizacji badań naukowych. Dziś takie nowoczesne formy ewaluacji jak np. peer-review, tagowanie, wspominanie na ważnych blogach, ratingi czytelnicze, re-tweetowanie, itp. nie są jeszcze właściwie doceniane na uczelniach, co powoduje powiększanie się luki pomiędzy tym, co jest już możliwe w sieci i nauce, a tym co jest akceptowane przez środowisko. Ważne jest także docenienie cyfryzacji jako kluczowej kompetencji w każdej dyscyplinie i profesji. Wyzwanie jest o tyle poważne, że nie chodzi tu wyłącznie o posługiwanie się rozmaitymi narzędziami, a bardziej o myślenie o tym, jak w edukacji wykorzystać cyfrowe media. Nie małą przeszkodę w adaptacji nowoczesnych technologii stanowią także bariery instytucjonalne, co wynika w dużej mierze z chęci utrzymania pewnego status quo na uczelniach. Potrzebne jest zielone światło dla eksperymentowania i innowacyjnego wykorzystania technologii przez pedagogów. Wszystkie wymienione wyzwania i trendy, sformułowane i starannie opisane przez The Horizon Report, sprowadzić można właściwie do jednej konkluzji – najistotniejsza jest zmiana mentalności środowiska naukowego, nabycie świadomości, że świat zmienia się szybciej niż kiedykolwiek i rolą uczelni jest nie tylko za nim nadążyć, ale sprostać jego oczekiwaniom.
Świadomość tę posiadł już polski rząd, powołując w 2011 roku Ministerstwo Administracji i Cyfryzacji, którego minister Michał Boni dziś nie ma wątpliwości, że zapewnienie dostępu do Internetu jest wyzwaniem o charakterze cywilizacyjnym. Planuje działać szybko – kluczowy będzie okres do 2020 r. - i rozpocząć... debatę o utworzeniu Funduszu Infrastruktury Teleinformatycznej, który wspierałby realizacje inwestycji. Projekt ciekawy, ale oby się na debacie nie skończyło. Z inicjatywy ministra Boniego, pod patronatem prezydenta Bronisława Komorowskiego została też zawiązana na początku lipca br. „Szeroka koalicja na rzecz umiejętności cyfrowych” skupiająca organizacje społeczne i firmy związane z rozwojem Internetu. Wszystko jak zwykle szumnie i pięknie na poziomie nazw. Nazw, czyli nomenklatury. Ale jeszcze nie tej nomenklatury masowej, teleinformatycznej, o której wspominał Eco, a jedynie wielkich zapowiedzi na miarę pobożnych życzeń i dobrych chęci. A co z naszymi profesorami? Czas płynie nieubłaganie, ludzie się starzeją. Technologie się rozwijają, a instytucje państwowe zdają się powoli (do 2020 r.!) zauważać problem. Z pewnością nadejdzie moment, w którym dzisiejsi uczniowie i studenci – owe dzieci sieci - sami będą profesorami i staną w oko w oko z kolejnym pokoleniem. Oko w oko, choć może dzielić ich będą setki tysięcy kilometrów. Ale pokonywanie dużych odległości nie jest problemem w XXI w., gorzej z pokonywaniem ludzkich słabości i zmianą mentalności. Wierzyć jednak trzeba, że przy pomocy dobrych mentorów, jakimi staną się naukowcy przyszłości, i to się wkrótce zmieni. Dominika Bara
Źródła: U. Eco: Nowe środki masowego przekazu a przyszłość książki. Warszawa, 1996 www.polityka.pl, www.edunews.pl, www.wprost.pl
Teberia 26/2013 35
MEDIA 2.0 >>
Blogika rynku
36 Teberia 26/2013
Jak wyglądała „największa akcja w polskiej blogosferze”? To dziesięć dni w pięciu stolicach europejskich, podczas których Fashionelka, Segritta, Kominek, Rock Alone i Krzysztof Gonciarz, znani blogerzy i vlogerzy, obserwowani przez dziesiątki tysięcy fanów testowali usługę telekomunikacyjną. Czas wolny od „testowania” poświęcali zwiedzaniu i zakupom, a relacje z ich przygody trafiały bezpośrednio do sieci. To nie pierwsza taka kampania reklamowa, ale tym razem wykroczyła ona daleko poza blogosferę. Blogerzy, wciąż nieznani szerszej publiczności, zawitali na billboardy jak prawdziwi celebryci, gdzie pokazuje się nie tylko ich zdjęcia, ale i autografy. Zdobycie w 2012 roku nagrody Pulitzera przez Davida Wooda, blogera serwisu Huffingon Post, dla wielu komentatorów oznaczało symboliczne potwierdzenie pozycji nietradycyjnych mediów, a zarazem zatarcie się granic miedzy blogowaniem a klasycznym dziennikarstwem. W anglojęzycznej blogosferze, blogi już dawno przestały kojarzyć się z otwartym dla anonimowych czytelników pamiętnikarstwem, a stało się to głównie za sprawą inwazji mediów społecznościowych, które opanowały do perfekcji rolę agregatów myśli, zdjęć i komentarzy. W Polsce klasyczny model blogowania również jest w odwrocie. Królują blogi wyspecjalizowanym, nawet jeśli ta specjalizacja jest dość szeroka, taka na przykład jak „lifestyle”, gdzie autor nie tyle opowiada o swoim własnym życiu, co o potencjalnym życiu swoich czytelników. Doradza im stylizacje, wybór aparatu fotograficznego lub poleca hotel. Jednak i w tej formie pozostało wiele z pierwotnego blogowania, bo recenzje i refleksje natury ogólnej przeplatane są swobodnymi opowieściami „z życia wziętymi”, co wciąż przesądza o odrębności blogów od „profesjonalnych” mediów. Różnica ta nie sprowadza się jednak tylko do formy, ale wyraża się przede wszystkim w oczekiwaniach czytelników. Bo, jak twierdzi prof. Richard Davis, autor książki Typing Politics. The Role of Blogs in American Politics, mimo iż czytelnicy blogów wciąż czerpią większość informacji z tradycyjnych źródeł, to żywią jednocześnie obawę, że mass-media nie mówią im wszystkiego. Podejrzewają je o stronniczość i okopanie się na z góry upatrzonych pozycjach ideologicznych. W konsekwencji większym zaufaniem
darzą blogerów i to do nich zwracają się po opinie lub komentarze. Nic dziwnego, że anonimowy bloger, piszący dla idei, a nie za pieniądze czy wedle wytycznych redakcji jawi się jako osoba bardziej godna zaufania, demokratyczny szeryf, który nie musi się oglądać na opinie środowiska show-biznesu czy mediów. Potwierdza to raport przeprowadzony przez serwis blogowy Blox i firmę analityczną Gemius Motywacja, zachowania i poglądy autorów i czytelników blogów, z którego wynika, że czytelnicy blogów oczekują zabawnej, interesującej i przede wszystkim subiektywnej opinii blogera. Jest to o tyle interesujące, że większość z najpopularniejszych obecnie blogów została stworzona przez osoby zupełnie nieznane szerszej publiczności. Zachodzi zatem odwrotny niż w tradycyjnych mediach proces, gdzie prawo do wygłaszania swobodnych opinii na dowolny temat w postaci np. felietonów przyznawane jest z reguły znanym bądź zasłużonym osobom, a do polecania i recenzowania zatrudnia się specjalistów.
Chłopak z sąsiedztwa To we względnej anonimowości i braku dystansu tkwi siła blogera. Ufamy mu, bo to ktoś zwyczajny, podobny do swojego czytelnika, amator, który pisze, bo lubi, a nie zawodowy dziennikarz. Wielu ze znanych obecnie blogerów zdobyło popularność dzięki swojej walce z jakimś łatwo nadającym się do nielubienia zorganizowanym bytem: kliką polityczną i tradycyjnymi mediami (Kataryna vs. Axel Springer) czy wielką korporacją (Kominek vs. Dr Oetker). Zwłaszcza podczas tego drugiego sporu społeczność Internetowa z rozbawieniem obserwowała niezgrabne i aroganckie zachowania specjalistów od wizerunku, którzy nie potrafili docenić siły rażenia blogów. Sprawa zaczęła się, o ironio, od „recenzji” budyniu, suto okraszonej wulgaryzmami, którą rozgoryczony autor wzmocnił dodatkowo znanym tekstem krążącym w sieci, wyrażającym nostalgię za dwoma kanałami w telewizji i prawdziwym kisielem z PRL. Wpis dość szybko wysoko się wypozycjonował, a w konsekwencji firma zażądała jego cenzury oraz usunięcia z wysokiej pozycji w wyszukiwarce, co tylko przyczyniło się do jeszcze szerszego rozlania się wpisu po sieci. Post nie zniknął, a jego uciśniony autor zdobył popularność, którą mógł przekuć w źródło utrzymania.
Teberia 26/2013 37
MEDIA 2.0 >>
Jednak to nie tylko zwycięskie krucjaty i skandale tworzą blogera. To przede wszystkim tysiące komentarzy. Większość z nich ogranicza się wprawdzie do wyrażenia aprobaty lub dezaprobaty i nie wzbogaca bloga o nowe, wartościowe treści, jednak te z nich, którym uda się wywołać dyskusję nie tylko stanowią wartość dodaną, ale też wprowadzają intymniejszą relację między czytelnikami i autorem. Odbiorca zostaje wciągnięty w proces tworzenia bloga, czuje się po części jego twórcą i wie, że jeśli coś mu się nie podoba, to może o tym powiedzieć, a w wielu przypadkach wdać się w polemikę bezpośrednio z blogerem. Większość internetowych wydań tradycyjnych gazet dopuszcza wprawdzie możliwość komentowania artykułów, jednak czytelnicy rozmawiają na forach głównie między sobą, bez aktywnego udziału autora. Komentarze, kluczowy element każdego niemal bloga, są najlepszym miernikiem jego kondycji i zasięgu. Firmy branży odzieżowej, mimo iż mają setki tysięcy i miliony fanów, szukają reklam na stronach blogerek modowych i szafiarek, bo mimo iż zastępy ich zwolenniczek są mniejsze, to autorki potrafią wciągnąć je w opowieść o produkcie, co nigdy nie uda się banerom reklamowym. 38 Teberia 26/2013
To właśnie zaufanie, zaangażowanie i aktywna współpraca użytkowników jest głównym atutem bloga. Utrzymanie go na stałym poziomie staje się trudniejsze, gdy na horyzoncie pojawiają się duże pieniądze, a atakowany czy kontestowany establishment wyciąg do blogera przyjazną dłoń.
Krytyka obiektywna Komercjalizacja bloga następuje stopniowo, może zacząć się od skromnego banera opłacającego koszty utrzymania domeny i miejsca na serwerze, a jeśli liczba czytelników będzie rosnąć, pojawią się propozycje bardziej subtelnych i wiarygodnych form współpracy. Wszak baner jest tylko złem koniecznym, które znosić muszą tak czytelnicy jak i autor. Co innego lokowanie produktu w treści bloga i życiu blogera. Marki coraz chętniej nawiązują współpracę z blogerami, oferując im w zamian nie - jak się często sądzi - garnek czy buty, które przetestowali, ale gotówkę. „Król blogów”, Kominek (Tomasz Tomczyk), jak przystało na zawodowego blogera, nie zostawia suchej nitki na propozycjach współpracy w zamian
za „parę dżinsów”. Blogerzy, także ci z mniejsza liczbą czytelników, coraz chętniej wchodzą do świata reklamy, i trudno się im dziwić, bo kto nie chciałby czerpać korzyści ze swoich pasji? Jednak by utrzymać wiarygodność autorzy blogów muszą umieć zachować umiar w pochwałach, znaleźć czasem jakieś wady produktu. Być może ten krytycyzm, zwany czasem przez samych blogerów „obiektywizmem”, mieli właśnie na myśli respondenci badań poświęconych ocenie współpracy blogerów i marketerów Blogosfera 2012 (Millward Brown), kiedy narzekali na brak „biznesowego podejścia” blogerów i niezrozumienie „celów marketera i marki”. W końcu opłacane przez producentów gwiazdy mlaskające z podziwem nad margaryną czy zupką w proszku nie mają swoich opinii. Wspomniany już Kominek stara się dozować krytycyzm: żeby chronić swoich chlebodawców przed niekontrolowanymi falami nienawiści zabrania publikowania negatywnych komentarzy. Prawo do krytyki ma jedynie autor bloga, co czytelnikom najwyraźniej nie przeszkadza. Przynajmniej tym, których opinie na ten temat przechodzą sito cenzury. Czytelnikom nie przeszkadza też misz-masz recenzowanych przez Kominka produktów, mieszczących
się w zgrabnej kategorii „lifestylu” - Kominek, dzięki zgromadzonemu zaufaniu, może sobie pozwolić na bycie specjalistą od wszystkiego, od wina i kosmetyków po samochody i literaturę. Blogerom udaje się wyjątkowo skutecznie przekonać swoich czytelników do komercjalizacji bloga. Zręcznie dozują reklamy, a recenzje filmów czy zegarków przelatane są refleksjami o Rzezi Wołyńskiej i wycieczce do Portugalii, gdzie reklamowane wino pojawia się niby mimochodem na zdjęciach z wakacji, w lampkach czy butelkach, towarzysząc dyskretnie blogerom i czytelnikom w budowaniu wspólnych, pięknych wspomnień. Poza samą zręcznością marketingową kluczową rolę odgrywa tu również bliskość blogerów i ich czytelników. Abstrakcyjnym redakcjom i dziennikarzom kryjącym się za pseudonimami trudniej jest przekonać odbiorców, że „z czegoś trzeba żyć”. Jednak i w blogosferze rewolucjoniści mają tendencję do przechodzenia na stronę ancien regime’u, a co bardziej kasandryczni komentatorzy wieszczą już rychły upadek blogów jednoosobowych. Teberia 26/2013 39
MEDIA 2.0 >>
EWOLUCJA
BLOGERA W trudnych czasach początków lat 90., użytkownicy chcieli zostawić ślad po sobie w Internecie przez stworzenie nowego rodzaju podglądactwa i narcyzmu. Pierwszy blog powstał w 1994 roku i od tamtej pory relacje międzyludzkie już nie są takie same.
INTERNETOWY DZIENNIK
Nowoczesny blogger (na ówczesne czasy) ewoluował z prostych internetowych pamiętników i wpisów w 1990 r. Użytkownicy forum zaczęli częściej zakładać konta internetowe na których zapisywali swoje codzienne wpisy/codzienną aktywność.
TWÓRCA
W styczniu 1994, Justin Hall – student Uniwersytetu w Swarthmore, stworzył pierwszego bloga pod tytułem: „Justyn`s Links from The Underground”. Era tworzenia osobistych dokumentów się rozpoczęła.
WEB+LOG=
Jorn Barger jest głównym twórcą określenia: weblog, które zaczerpnął ze sformułowania: logging the Web (logowanie do sieci). Został oskarżony o to, że jest bezdomnym włóczęgą. Jego broda może mieć coś z tym wspólnego.
PETER MERHOLZ
W akcie czystego lenistwa, które będzie kształtować kierunek ludzkich wydarzeń przez wieki, Peter Merholz skrócił słowo weblog do blog, by mogło być powiązane/ dostosowane do jego dziennika cyfrowego.
EMO-BLOGER
WŚCIEKŁY BLOGER
Wczesne formy blogów przeszły do kilku kategorii.
Bloggerzy, tacy jak Misanthropic Bitch, weszli na scenę, wyposażeni w oprogramowanie komputerowe, cięty język oraz wszech ogarniającą złość do wszystkiego.
OBSESYJNY BLOGER
BLOGER POLITYCZNY
Z gniewnych blogerów powstała grupa blogerów politycznych. Szybko zdobyli oni władzę i respekt z uwagi na ich krytyczne spojrzenie i wnikliwe oceny.
40 Teberia 26/2013
Określenie specjalistyczny dotyczy tych blogerów, którzy pasjonują się pojedynczym tematem, dążą do odnalezienia innych blogerów podzielających podobne zainteresowania. Był to początek ewolucji blogów tematycznych takich jak blogspot.
Był to początek ewolucji blogów tematycznych takich jak blogspot.
Prehistoryczny przodek dzisiejszych hipsterów Emo-bloger, którzy odnaleźli spokój i pocieszenie w dziennikach sieciowych do których można zaliczyć LiveJournal. Mogli w nich wyrażać godzinami bez końca swoje odczucia związane z byciem przeciętnym nastolatkiem.
BLOGER PODRÓŻNIK
BLOGER AKTYWISTA
BLOGER KULINARNY TECH BLOGER
BLOGER FAN APPLE
Popularnym zwyczajem stało się zamieszczanie zdjęć tajnych technologii (np. firmy Apple).
Najnowszą odmianą blogów tematycznych stały się blogi hipsterskie.
BLOGER GIER
MEME BLOGER
D.I.Y. BLOGER
Radioaktywna mutacja spowodowała że wytworzyła się nowa grupa użytkowników – blogerów meme. Są znani z tego, że odpowiadają na obrazki i kolokwializmy w Internecie.
ART&DESIGN BLOGER
Ala Martha Stewart
Zawierają również uliczną modę, wyjazdową modę i śmieciową modę.
BLOGER BLOGER CELEBRYCKO-PLOTKARSKI CELEBRYCKO-PLOTKARSKI Połączenie blogera meme z hipsterem tworzy blogerów plotek, wyłaniają się jako blogerzy, którzy zarabiają pieniądze na mówieniu byle czego.
Z tej formy blogów tworzą się nowe formy blogów.
FOTOBLOG
SPAM BLOGER
Nie daj się ogłupić przez cyfrowe przytulanki, te roboty są uzbrojone i niebezpieczne. Ich wyłącznym celem jest przesyłanie dalej linków i słów kluczowych.
BLOGER FIRMOWY
BLOGER MODOWY
W oparciu o niepodważalny sukces blogosfery jako platformy komunikacyjnej, przedsiębiorstwa coraz bardziej wchodzą do Internetu żeby promować swoje produkty, usługi i liderów. Rodzi się tendencja, by też w ten sposób promować branżowe wiadomości, powstają firmowe blogi które są także źródłem oryginalnych i użytecznych treści.
VLOG
LINKLOG
NASTĘPNA GENERACJA
Uważa siĘ , że następną generacją blogersów będą micro blogersi. Będą widoczni przede wszystkim na twitterze. Będą w stanie skrócić treści z 12000 słów do 140 znaków.
Teberia 26/2013 41
MEDIA 2.0 >> Zmianę widać szczególnie w blogosferze anglojęzycznej, ale i u nas niektóre blogi, takie jak np. poświęcone technologii Antyweb i Spiders’s Web, ciążą ku hybrydowej formie blogu-magazynu. Na stronach tego typu dochodzi do nieuniknionej profesjonalizacji autorów (czego dowodzi choćby wspomniana już nagroda Pulitzera) i do zaniku osobowości konkretnych blogerów, skutecznie usuwanych w cień tożsamością marki, pod którą piszą. Wzorowany na Huffington Post portal Na Temat gości na swych łamach wpisy ponad czterystu blogerów, których większość, poza znanymi skądinąd nazwiskami, zlewa się w jednolitą treść sygnowaną logiem serwisu. Wraz ze standaryzowaniem się formy blogów standaryzacji ulega także reklama. Raczej banery i wyskakujące okienka niż wycieczki za granicę, choć na blogach technologicznych testy sprzętu nadal są jedną z głównych form kontaktu miedzy czytelnikiem, produktem a blogerem.
Moralność blogerów Problem etycznej relacji miedzy blogerem a produktem przez niego promowanym i czytelnikami, stał się obok „hejtu” i „trolowania”, głównym zagadnieniem etyki blogów. Kiedy w 2007 roku Tim O’Reilly, bloger i protagonista oprogramowania open source, zaproponował pierwszą wersję kodeksu etycznego blogerów, jej postanowienia dotyczyły jedynie kwestii moderowania emocji dyskusji mającej miejsce w strefie komentarzy. Jak twierdzi na łamach Newsweeka Marek Rabi (Blogerzy. Zarabianie na klikaniu.) to właśnie na tle nieetycznego promowania produktów dochodzi do spięć miedzy blogerami. 42 Teberia 26/2013
Wyniki badania ankietowego przeprowadzonego na portalu Facebook na grupie 130 osób zawodowo zajmujących się komunikacją w mediach społecznościowych oraz wśród 10 topowych video blogerek kosmetycznych. Badania zostały zrealizowane w lipcu 2012 r. źródło: Hey You
Bo zgodnie z obowiązującym standardem, bloger powinien wyraźnie zaznaczyć, czy publikowana przez niego opinia jest jego własnym sądem czy też tekstem sponsorowanym. Taka konstrukcja wydaje się dość karkołomna, bo jak wierzyć w opinię, co do której z góry informuje się nas, że za nią zapłacono? Czy sama treść wpisu nie była czasem również
przedmiotem kontraktu, a rzekome negatywne opinie mają tylko uwiarygadniać te, za które zapłacono najwięcej? W zdobywaniu wiarygodności blogerzy przyjęli taktykę pośrednią między dziennikarzami, którzy co do zasady nie biorą pieniędzy od producentów proTeberia 26/2013 43
MEDIA 2.0 >> duktów, o których piszą oraz celebrytami grającymi w reklamach, gdzie konwencja i gra dla wszystkich jest oczywista. Bloger lojalnie informuje, że bierze pieniądze za recenzję czy opublikowanie „tajnych” zdjęć nadchodzącej kolekcji, ale zaznacza zawsze, że płaci mu się za poświęcenie czasu i napisanie posta, a nie za pozytywną opinię. Blogerzy podkreślają, że zarzuty stronniczości można by formować również wobec tradycyjnych mediów, bo wiadomo, że żadna gazeta nie utrzymałaby się bez reklamodawców, a ich obecność na łamach czasopism może stawiać rzetelność dziennikarską pod znakiem zapytania. Może etyczniej jest zatem wprost informować czytelnika o więzach finansowych wiążących autora tekstu z reklamodawcą, niż pozostawić go domysłom, na ile dwustronicowa reklama samochodu miała wpływ na to, że ten sam samochód pozytywnie wypadł w testach.
Wyprawa do krainy luksusu Blogi przetrwały pojawienie się mediów społecznościowych, jednak musiały zmienić swoją formę. Zwrot ku formom hybrydowym, coraz bardziej przypominającym tradycyjne media, z redakcją, działem reklamy i zespołem autorów, jest już faktem. W rankingu „Top 100” serwisu Technorati, badającego trendy i siłę wpływów w blogosferze, dominują blogi współtworzone przez wielu autorów, nie koniecznie o równym i demokratycznym statusie, takie jak wspomniany już Huffington Post, Mashable czy TechCrunch. Co symptomatyczne, w żadnym z badań przywoływanych w niniejszym artykule portalu Na Temat nie potraktowano jako bloga. W Polsce szersza przemiana blogosfery w kierunku specjalistycznych magazynów o bardzo rozbudowanych działach opinii, wciąż jest chyba jeszcze przed nami. Póki co blogerzy pełnią rolę trybunów ludowych, prezentując opinie, na które nie ma miejsca w świecie telewizyjnych celebrytów, często używając języka, który rzadko gości na łamach „establishmentowych” mediów. Pozostają swojscy i bliscy, a jednocześnie, jak uczestnicy popularnych niegdyś reality shows, przenikają do świata show-biznesu, gdzie ich „obiektywność” i rzetelne badanie produktów, na których się znają i które zbudowało ich popularność przybiera nieraz pokraczne formy, jak np. testowanie nowego cennika roamingu podczas zagranicznej wycieczki. Blogerzy, rozpoczynając komercyjny flirt z marka44 Teberia 26/2013
mi przejęli rolę dziennikarzy, którzy byli wcześniej jedynymi emisariuszami zwykłych konsumentów w krainie luksusu. Produkt i czytelnik dostają jednak dzięki blogom coś więcej niż zwykły slogan reklamowy. Narracja, w reklamie telewizyjnej skrótowa i sztuczna, tutaj wydaje się prawdziwa. Nie trwa kilkanaście sekund, pozostawia wspomnienia i trwały ślad na blogu, a jeśli reklamodawca zdecyduje się na ofertę w rodzaju „Boskiego pakietu” Kominka (od 50.000 zł), to produkt może zagościć w życiu blogera nawet na bardzo długi czas. Blogerzy, tak jak dziennikarze, testują komputery, kosmetyki i buty, jednak są to „nasi ludzie” zapraszani na pokazy mody czy do siedziby koncernu niejako z zewnątrz, reprezentujący swoich czytelników, są ich przewodnikami po skomplikowanym świecie współczesnych dóbr materialnych. A jeśli nawet są opłacani przez właścicieli atrakcji, które nam pokazują, to cóż z tego? Przecież z czegoś w końcu trzeba żyć.
Piotr Pawlik
EKO >>
„Nie należy przebywać na otwartym powietrzu zbyt długo. Dotyczy to zwłaszcza kobiet w ciąży, dzieci i osób starszych oraz chorych na astmę, choroby alergiczne skóry, oczu i choroby krążenia. Należy unikać dużych wysiłków fizycznych na otwartym powietrzu i zaniechać palenia papierosów. W przypadku pogorszenia stanu zdrowia należy skontaktować się z lekarzem” - tak brzmiący komunikat mieszkańcy Krakowa mogą przeczytać na stronie Wojewódzkiego Inspektoratu Ochrony Środowiska przez większość dni zimy.
Smog wawelski
Teberia 26/2013 45
EKO >>
O
tym, że Kraków ma problem ze smogiem, wie już każdy mieszkaniec Małopolski, zła sława ciągnie się za miastem królów także w innych częściach Polski. Problem wydaje się trudny do rozwiązania, co jednak nie znaczy, że nie można nic zrobić. Można wiele – równie dużo jest także przeszkód.
Mieszkańcy Krakowa palą 2500 papierosów rocznie Zanieczyszczenie powietrza w Krakowie od dawna znacząco przekracza wartości bezpieczne dla zdrowia i życia ludzi. Głównymi trucicielami są tu pył zawieszony (PM10, PM 2,5), benzo(a)piern oraz dwutlenek azotu. Jak podaje powstała w 2012 roku akcja społeczna „Krakowski Alarm Smogowy”, oddychający krakowskim powietrzem wdychają tyle samo benzo(a) pirenu, ile wdychaliby, gdyby palili około 2500 papierosów rocznie. Wiedeńczycy według tych samych wyliczeń spalają 160 papierosów rocznie, zaś mieszkańcy Londynu – zaledwie 25. Według Światowej Organizacji Zdrowia (WHO) za powietrze zanieczyszczone uważa się takie, którego skład chemiczny może ujemnie wpłynąć na zdrowie ludzi, zwierząt i roślin, ale także na wodę, czy glebę. Co więcej, zanieczyszczenia powietrza są groźniejsze niż inne, gdyż mogą się przemieszczać i tym samym skazić duże obszary. I właśnie z tym zanieczyszczeniem zmaga się drugie co do wielkości miasto w Polsce – Kraków. W rankingu WHO, który przedstawia problem zanieczyszczenia powietrza Kraków znajduje się w czołówce najbardziej zanieczyszczonych miast na świecie. Stolica Małopolski zajmuje 8. miejsce spośród 575 miast jeśli chodzi o PM2.5 i 145. miejsce spośród 1100 miast pod względu, obecności w powietrzu PM10.
Truciciele Ból głowy, łzawienie oczu, kaszel, ogólne zmęczenia, problemy z oddychaniem, a nawet ze snem – z takimi dolegliwościami krakowianie zmagają się zimą, kiedy to stężenia szkodliwych substancji w powietrzu jest najwyższe. 46 Teberia 26/2013
Co truje mieszkańców Krakowa? Przede wszystkim pył PM10 i PM2,5. Pierwszy składa się z mieszaniny cząstek zawieszonych w powietrzu, będących mieszaniną substancji organicznych i nieorganicznych. Może także zawierać substancje toksyczne, w tym wielopierścieniowe węglowodory aromatyczne (m.in. wspomniany wyżej benzo(a)piren), metale ciężkie, dioksyny i furany. Pył PM10 zawiera cząstki o średnicy mniejszej niż 10 mikrometrów, które mogą docierać do górnych dróg oddechowych i płuc. Poziom dopuszczalny dla stężenia średniodobowego wynosi 50 µg/m3 i może być przekraczany nie więcej niż 35 dni w ciągu roku. Poziom dopuszczalny dla stężenia średniorocznego wynosi 40 µg/m3, a poziom alarmowy 200 µg/m3. Pył PM2,5 zawiera cząstki o średnicy mniejszej niż 2,5 mikrometra. Mogą one docierać do górnych dróg oddechowych, płuc, a także przenikać do krwi. Docelowa wartość średnioroczna dla pyłu PM2,5 wynosi 25 µg/m3, poziom dopuszczalny 25 µg/m3, a poziom dopuszczalny powiększony o margines tolerancji dla 2012 r. 27 µg/m3.
Pyły zawieszone mogą powodować reakcje alergiczne, astmatyczne, katar, kaszel i problemy z oddychaniem. Zwiększają również podatność na infekcje, a wdychane często mogą doprowadzić do chorób serca, miażdżycy, zawału i nowotworów. Krakowianie oddychają także tlenkami azotu, uważanymi za jedna z groźniejszych składników skażających atmosferę. Uważa się je za prawie dziesięciokrotnie bardziej szkodliwe od tlenku węgla, a kilkakrotnie od dwutlenku siarki. Najbardziej toksyczny z nich – dwutlenek azotu - stanowi przeważającą część związków azotu powstających przy energetyce cieplnej i przy spalaniu paliwa w środkach transportu. Lekarze alarmują o ich zgubnym wpływie tych substancji na dzieci, osoby starsze, astmatyków, a także na kobiety w ciąży – jak wskazują badania, kobiety narażone na wdychanie pyłów zawieszonych rodziły dzieci mniejsze, mniej odporne i z gorzej wykształconymi płucami.
Winny: człowiek Za katastrofalny stan powietrza w Krakowie odpowiada przede wszystkim człowiek. Kraków to duża, licząca prawie milion mieszkańców aglomeracja. Każdy z mieszkańców dokłada swoją małą cegiełkę do zanieczyszczenia powietrza. Głównym jego źródłem są stare piece opalane węglem kamiennym - to one przede wszystkim odpowiadają za emisję do powietrza pyłów zawieszonych i innych szkodliwych substancji. Nie sam węgiel jest tu winny, ale także pozostałe „paliwa”, które lądują w piecach: śmieci (m.in. plastikowe butelki i pojemniki) i niskiej jakości opał. Jak wskazuje Krakowski Alarm Smogowy, mniej niż 10 proc. mieszkańców Krakowa korzysta z pieców na paliwa stałe, większość nie jest więc podłączona do miejskiej sieci ciepłowniczej lub innego ekologicznie czystego ogrzewania. Z tego też powodu, szczególny problem z powietrzem występuje zimą, w sezonie grzewczym, kiedy z pieców wydobywają się pyły, rakotwórcze benzopireny oraz inne szkodliwe substancje.
Teberia 26/2013 47
EKO >> Kolejną przyczyną fatalnej jakości powietrza jest ruch samochodowy, który jest źródłem przekroczeń poziomu dwutlenku azotu w powietrzu, jak również przyczynia się do powstania zanieczyszczeń pyłowych. Kraków leży na linii Medyka-Zgorzelec, przez co skazany jest na duży ruch samochodowy. O tym, że samochody są także poważnym trucicielem świadczy fakt, że latem normy poziomu szkodliwych substancji w powietrzu również są przekraczane. Swoje „trzy grosze” dodają także zakłady przemysłowe takie jak: huta im. Sendzimira, elektrociepłownia „Łęg”, Krakowskie Zakłady farmaceutyczne, czy Krakowskie Zakłady Sodowe. Zanieczyszczenia zwiększają również samoloty pasażerskie lądujące i startujące z lotniska w Balicach. Emitowane przez nie zanieczyszczenia, które dostają się do atmosfery na wysokości około 10 km, pozostają w powietrzu sto razy dłużej niż emitowane przy powierzchni ziemi.
Winne: ukształtowanie terenu Czynniki wymienione powyżej nie tworzyłyby tak toksycznej mieszanki, gdyby nie warunki klimatyczne i położenie Krakowa. Miasto położone jest w obniżeniu nad brzegami Wisły, w otoczeniu wzniesień Bramy Krakowskiej i Pogórza Zachodniobeskidzkiego. Różnice pomiędzy najwyżej a najniżej położonym punktem w Krakowie przekraczają 100 metrów. Stąd wszelkie zanieczyszczenia unoszące się z zakładów przemysłowych, silników samochodowych i z pieców węglowych, nie mogą się rozwiać z powodu bardzo słabego wietrzenia. Stolicy Małopolski nie sprzyja także klimat – za sprawą wiatrów zachodnich znaczna ilość zanieczyszczeń przynoszona jest znad Górnośląskiego Okręgu Przemysłowego. Przy bezwietrznej pogodzie zanieczyszczenia te zostają nad miastem. Co ciekawe, archeolodzy podkreślają, że pierwsi osadnicy nie budowali swoich domów w dolinie, tak jak ma to miejsce obecnie, ale na zboczach i Wzgórzu Wawelskim, czyli miejscach suchych i częściowo osłoniętych od wiatru. Dolina Wisły nie powinna być miejscem przeznaczonym na wybudowanie miasta - zamknięta z trzech stron i wąska (w najwęższym miejscu ma zaledwie kilometr), otwiera się jedynie na wschód, gdzie rozszerza się do około 10 km. Jak 48 Teberia 26/2013
mówi dr hab. Anita Bokwa, klimatolog z Instytutu Geografii i Gospodarki Przestrzennej Uniwersytetu Jagiellońskiego, z tego właśnie powodu w Krakowie właściwie nie ma dobrego miejsca do życia.
Walka ze smogiem W Krakowie działa 11 stacji monitoringu powietrza, które każdego dnia pokazują stan zanieczyszczeń w różnych częściach miasta. Gdy normy są przekroczone, osoby najwrażliwsze, czyli starsze, dzieci, chorzy i kobiety w ciąży, powinny zostać w domach. Zdecydowanie nie jest to jednak rozwiązanie problemu. Pod naciskiem mieszkańców władze Krakowa pracują nad rozwiązaniem problemu. Jak szacuje Małopolski Urząd Marszałkowski, żeby znacząco obniżyć niską emisję, należy likwidować sześć tysięcy pieców węglowych w ciągu roku. Potrzeba na to 80 mln zł. Jeszcze latem do konsultacji społecznych ma także trafić program ochrony powietrza, przewidujący m.in. zakaz palenia węglem. Sami urzędnicy są jednak do pomysłu sceptyczni.
- Nie oszukujmy się - nie pozbędziemy się możliwości palenia węglem, bo nasza energetyka oparta jest przecież na węglu, a całkowity zakaz jego stosowania obowiązuje tylko w Szwajcarii – mówił dla Dziennika Polskiego Paweł Ciećko, małopolski wojewódzki inspektor ochrony środowiska. Pomysł jest więc taki, żeby zakaz palenia węglem wprowadzać stopniowo, a zmiany z pieców węglowych na ekologiczne mieszkańcy Krakowa mieli znaczne dofinansowane. Sama zamiana jednak nie rozwiązuje dalszych problemów – np. takich, że nie wszystkich stać na droższe niż węgiel paliwo ekologiczne (to w domach wolnostojących), czy ogrzewanie na gaz w blokach, czy kamienicach. Magistrat przygotowuje więc także projekt dofinansowania dopłat do rachunków za bardziej ekologiczne ogrzewanie, które dopiero w połączeniu z zakazem pieców na węgiel ma szanse na rozwiązanie problemu krakowskiego powietrza. Projekt pod obrady radnych miejskich ma trafić po wakacjach.
Pozostają zanieczyszczenia związane z ruchem samochodów. W tym przypadku postulowane jest m.in. rozszerzenie w centrum miasta strefy B dla samochodów, wydzielenie buspasów, zmiana organizacji ruchu na sektorową, zwiększenie inwestycji na Krakowski Szybki Tramwaj i Krakowskie Centrum Komunikacyjne, a także uczynienie miasta przyjaznym dla rowerzystów. Krakowowi chce także doradzać amerykańska organizacja Regulatory Assistance Project (RAP). Pomoc będzie miała charakter metodologiczny i technologiczny - RAP chce służyć darmowym doradztwem przy budowaniu nowej polityki dotyczącej czystego powietrza, nowych sposobów ogrzewania domów w Krakowie, a także przy wyborze technologii pod kątem ekonomicznym. Z doświadczeń innych krajów z pewnością warto korzystać, gdyż w wielu z nich zmiany zostały wprowadzone z sukcesem. Przykładem może być tu Londyn. Jak mówił podczas majowego spotkania w Czułym Barbarzyńcu Steve Howard, światowy
Teberia 26/2013 49
EKO >> ekspert w dziedzinie ochrony środowiska: Dziesięć lat temu Londyn miał bardzo poważny problem z zanieczyszczeniem powietrza i samochodami korkującymi centrum miasta. Dziś już go nie ma. Burmistrz Londynu podjął ryzyko polityczne i wprowadził opłatę za wjazd do miasta, która wynosi ok. 40 zł. W tym samym czasie tak dostosowano autobusy, by mieszkańcy nie odczuli zmian. Dziś londyńczycy oddychają dużo czystszym powietrzem, mieszkańcy są zadowoleni. Bo ze zmianami jest tak, że ludzie najpierw protestują, a gdy one już są, to zaczynają widzieć plusy. Innym przykładem jest Reykjavik, który borykał się z bardzo dużym zanieczyszczeniem. Problem został rozwiązany, gdy domy mieszkalne podłączono do miejskiej sieci ciepłowniczej oraz ogrzewania geotermalnego.
50 Teberia 26/2013
Odnawialne Źródła Energii
Może nie na taką skalę jak w Reykjaviku, ale nadzieją Krakowa może być także wykorzystywanie odnawialnych źródeł energii. Jak wynika z artykułu Wacława Orlewskiego i Andrzeja Siwka „Możliwość wykorzystania odnawialnych źródeł energii w środowisku miejskim na przykładzie Krakowa” (Czasopismo Techniczne, z. 3-A/2007), obecnie w Krakowie uzyskiwana energia elektryczna ze źródeł odnawialnych pochodzi głównie z przetwarzania energii wody Wisły oraz biogazu z wysypiska komunalnego i oczyszczalni ścieków. Ciepło użyteczne uzyskuje się z biogazu oczyszczalni ścieków, kolektorów słonecznych i pomp cieplnych. W Krakowie i w jego regionie znaczące są także zasoby wód geotermalnych, które nie są wykorzystywane. Jedyne czego brakuje, to warunków dla energetyki wiatrowej.
Można więc korzystać z większości źródeł energii odnawialnej – na drodze do stosowania innowacyjnych technologii stoi jednak jak zawsze brak funduszy. Kolektory słoneczne mogłyby być zainstalowane np. na dachach Starego Miasta, dzięki czemu budynki zyskałby wspomaganie do ogrzewania gazowego. Kolejnym źródłem, które mogłoby być wykorzystywane na większą skalę jest biomasa, czyli substancja organiczna powstała w procesie akumulowania energii słonecznej. Cechą biomasy i biogazu (powstającego z fermentacji biomasy) jest minimalna emisja SO2 oraz bilans CO2 równy zeru ze względu na pochłanianie go w procesie fotosyntezy. Energię z biomasy można uzyskać ze spalania, gazyfikacji, fermentacji i przetworzenia olejów roślinnych na paliwo. Jak stwierdzają autorzy tekstu, Kraków generuje dużą ilość odpadów o różnorodnym charakterze, które trzeba neutralizować.
Najkorzystniejsza byłaby więc utylizacja odpadów z energetycznym przetworzeniem biomasy. Jeśli zaś chodzi o wykorzystanie energii wody, to sprowadziło się to w Krakowie jedynie do zainstalowania elektrowni na stopniach wodnych Wisły. Jak się jednak okazuje – można dużo więcej – na wielu mniejszych rzekach możliwe jest wprowadzenie systemu małej energetyki wodnej, która przysporzyłaby dodatkowych źródeł energii. Z badań naukowców wynika też, że Kraków ma bardzo interesujące warunki do rozwoju energetyki geotermalnej. Z map temperatur na rzędnych sporządzonych przez prof. Juliana Sokołowskiego (Sokołowski J., Warunki występowania wód geotermalnych w Krakowie i Małopolsce, Wyd. Polgeotermia, Kraków 2002) wynika, że pod miastem występują wody geotermalne: na rzędnej 500−1000 m o temp. od 30°C do 55°C, zaś na rzędnej 2000−4000 m o temp. 70−125°C. Z powodzeniem więc można wykorzystać wody do ogrzewania obiektów, które nie korzystają z miejskiej sieci ciepłowniczej. Wszystkie te możliwości teoretycznie stoją przed Krakowem. W połączeniu z zamianą pieców węglowych na ekologiczne źródła energii i wprowadzaniem zmian w ruchu samochodowym mieszkańcy Małopolski mają szanse za kilka lat oddychać pełną piersią. Pytanie tylko – za ile lat?
Aneta Żukowska
Teberia 26/2013 51
PRE ZENTAC JE >>
KOPALNIA PRZYSZŁOŚCI
Projekt „I2Mine”
W stronę inteligentnej kopalni
K
GHM Polska Miedź oraz KGHM Cuprum, zaplecze innowacyjne koncernu, biorą udział w projekcie „I2Mine”, jednym z największych europejskich projektów realizowanych na bazie współpracy międzynarodowej w dziedzinie górnictwa podziemnego. To początek prac nad realizacją idei innowacyjnej i bezpiecznej kopalni zlokalizowanej na dużej głębokości. Celem projektu jest stworzenie generalnej koncepcji umożliwiającej eksploatację złóż na większych głębokościach z czym wiąże się oczywiście prowadzenie prac górniczych w trudniejszych niż dotychczas warunkach. W projekcie I2Mine bierze udział 23 partnerów z 10 krajów europejskich. Jednym z nich jest KGHM Cuprum sp. z o.o. Centrum BadawczoRozwojowe, które uczestniczy w 3 z 8 pakietów roboczych projektu związanych z monitoringiem maszyn górniczych, nowymi metodami przeróbki pod ziemią, systemem eksploatacji dla złóż cien-
52 Teberia 26/2013
kich oraz dziedziną mechaniki skał. Zakres projektu pozwala oczekiwać, że dostarczy on spółce KGHM Polska Miedź S.A. najnowocześniejszych narzędzi decyzyjnych, szczególnie w zastosowaniu do problemów zarządzania procesami produkcyjnymi w jej kopalniach podziemnych. Programy Ramowe już od blisko 20 lat stanowią główne źródło finansowania sfery badawczo-rozwojowej przez Komisję Europejską. 7 Program Ramowy jest największym tego rodzaju mechanizmem Komisji wspierającym badania naukowe i rozwój technologiczny w Europie, Jest adresowany głównie do jednostek naukowych prowadzących badania i opracowujących nowe rozwiązania, do osób zainteresowanych wyjazdami stypendialnymi oraz do przedsiębiorstw (zwłaszcza małych i średnich). Projekt „I2Mine” to jeden z największych europejskich projektów zakładających współpracę nauki z przemysłem wydobywczym. Budżet projektu przekracza 25 milionów euro, z czego 16 milionów finansowane jest przez Komisję Europejską. Zakłada się, że w wyniku jego realizacji dojdzie do obniżenia kosztów eksploatacji oraz polepszenia parametrów eksploatacyjnych w tzw. „inteligentnej” kopalni, czego wyznacznikiem będzie nie tylko automatyzacja procesu urabiania, ale także monitorowanie urządzeń i zachodzących zjawisk on-line. Działania tego typu wymuszone są poprzez coraz bardziej trudne warunki eksploatacji, szczególnie złóż głębokich. Celem pośrednim jest także zmniejszenie liczby personelu pracującego pod ziemią, który zostanie zastąpiony przez zdalnie sterowane maszyny.
Z uwagi na to, iż górnictwo postrzegane jest obecnie jako mało nowoczesny sektor przemysłu mający destrukcyjny wpływ na środowisko, pomysłodawcy projektu dążą do zmiany tego wizerunku pokazując, że eksploatacja surowców naturalnych może być prowadzona w sposób innowacyjny, bez negatywnego wpływu na środowisko. Idea „zielonej kopalni” jest więc najważniejszym elementem projektu, z którym bezpośrednio wiąże się spodziewane w przyszłości zaostrzenie wymagań dotyczących redukcji wpływu eksploatacji podziemnej surowców. Pożądana w tym ujęciu produkcja surowców powinna się charakteryzować minimalnym zużyciem energii, brakiem odpadów oraz neutralnym wpływem na powierzchnię terenu. Niestety, współcześnie stosowane technologie górnicze są dalekie od tego ideału emitując lub wytwarzając substancje szkodliwe niemal na każdym etapie układu technologicznego.
Kopalnia przyszłości, która z całą pewnością będzie prowadziła eksploatację na większych niż obecnie głębokościach, wymaga zatem opracowania nowatorskiego ciągu produkcyjnego. Istotą projektu będzie zatem opracowanie przełomowych technologii prowadzenia autonomicznej, wysoce selektywnej i ciągłej eksploatacji złoża na głębokości powyżej 1500 m, oraz urządzeń wykorzystujących układy czujników umożliwiających automatyczną separację materiałów oraz innowacyjne rozwiązania w zakresie transportu urobku. Ponieważ idea bezpiecznej kopalni wymaga opracowania procesu produkcyjnego, którego rezultatem będzie selektywne wybieranie złoża oraz redukcja ilości odpadów, koniecznym wydaje się opracowanie szczególnie efektywnej strategii zarządzania odpadami. Wymagany w tym przypadku wysoki stopień automatyzacji może zostać osiągnięty jedynie poprzez integrację układu produkcyjnego w ramach
Teberia 26/2013 53
PRE ZENTAC JE >> wyznaczy nowe standardy dla prowadzenia dalszej eksploatacji.
wszystkich oddziałów kopalni. Projekt I2Mine może zapewnić skuteczne rozwiązania pozwalające osiągnąć zamierzone cele w tym zakresie. Oprócz wpływu projektu na środowisko społeczne, pozwoli on także na zwiększenie konkurencyjności sektora wydobywczego w Europie oraz na poprawę konkurencyjności europejskich dostawców sprzętu. KGHM Polska Miedź S.A. uczestniczy w pakietach roboczych WP1, WP2 i WP3 (spójrz: ramka) głównie poprzez udostępnienie infrastruktury kopalnianej do celów prowadzonych badań. W szczególności prace te dotyczyć będą udostępnienia maszyn oraz pomoc w ich oczujnikowaniu, czy pomocy w przeprowadzeniu badań prototypów kotew zaprojektowanych przez KGHM CUPRUM. W ramach projektu przewidziano więc także środki finansowe dla KGHM Polska Miedź S.A związane ze wsparciem badań prowadzonych przez KGHM CUPRUM. KGHM CUPRUM natomiast bierze udział w realizacji trzech pakietów roboczych: WP1, WP2, WP3. Jednocześnie pełni funkcję lidera pakietu roboczego WP3, co ma na celu koordynację prac pomiędzy poszczególnymi partnerami, w rezultacie czego powstanie jeden dokument dotyczący mechaniki skał i systemów obudów wyrobisk. Realizacja projektu I2Mine oznacza dla KGHM Polska Miedź S.A. nowe możliwości, szczególnie w zakresie bardziej efektywnego wykorzystania złoża i będzie wspierała cały cykl produkcji miedzi. Pozwoli to na stworzenie modelowego zakładu, który dzięki zastosowaniu innowacyjnych rozwiązań 54 Teberia 26/2013
Realizacja projektu ma dostarczyć narzędzi dla nowoczesnego zarządzania procesami produkcyjnymi w podziemnym zakładach górniczych, w szczególności dla kopalń KGHM Polska Miedź S.A. Liczbowe charakterystyki dotyczące przebiegu procesu produkcyjnego same w sobie nie stanowią dostatecznego zasobu informacji użytecznej przy podejmowaniu decyzji. Dane te powinny być odpowiednio przetworzone umożliwiając dokonanie analizy. Brak możliwości uzyskania dostępu do pełnej informacji we właściwym czasie uniemożliwia obiektywną ocenę danego procesu produkcyjnego. Celem projektu jest implementacja systemu monitorowania, kontroli i zarządzania kopalnią. Wdrożenie systemu stworzy możliwość powiązania urządzeń w kopalni w złożone i współzależne struktury na bazie schematu przestrzennego kopalni. Potrzeba taka dotyczy m.in. struktur transportowych, zasilania i wyłączania energii elektrycznej, rurociągów wodnych i przeciwpożarowych, sieci łączności oraz systemu przewietrzania. Realizacja projektu ma ułatwić także proces podejmowania decyzji kierowniczych na różnych szczeblach zarządzania przedsiębiorstwem oraz pozwoli na wygenerowanie oszczędności, które na obecnym etapie są trudne do określenia. W dłuższej perspektywie wypracowane rozwiązania poprawią rentowność kopalni. Dodatkowym elementem przemawiającym za realizacją projektu jest możliwość pozyskania dofinansowania z Komisji Europejskiej.
Witold Pytel, Piotr Mertuszka, Joanna Świtoń
Autorzy publikacji są pracownikami KGHM Cuprum sp. z o.o. – Centrum Badawczo-Rozwojowe. Powyższy artykuł jest skróconą wersją publikacji, która została zaprezentowana podczas XXII SEP Kraków 2013
Projekt I2Mine podzielony został na następujące pakiety robocze: WP1: Rozwój kopalnianych systemów informacyjnych i kontroli, logistyka i przepływy masowe Celem pakietu roboczego WP1 jest stworzenie zaawansowanej platformy do globalnej kontroli procesu produkcyjnego w kopalni, stworzenie systemu logistycznego opartego na systemach informacji, kontroli, logistyki oraz przepływów masowych w ramach całego proces produkcyjnego, a także stworzenie globalnego naziemnego systemu monitoringu. WP2: Nowe metody eksploatacji i przeróbki pod ziemią Zasadniczym celem pakietu WP2 jest opracowanie nowych, bardziej zaawansowanych i bezpiecznych technologii górniczych pozwalających na efektywne wybieranie głęboko zalegających złóż, redukcja negatywnego wpływu na środowisko, wykorzystanie odpadów do podsadzania pustek poeksploatacyjnych i opracowanie nowych metod obserwacji i oceny osiadań w rejonach prowadzonej eksploatacji, a także wykorzystywanie zaawansowanych technologii analitycznych 3D w dokumentowaniu podziemnych struktur geologicznych. WP3: Mechanika skał i systemy obudowy wyrobisk Ogólne cele pakietu WP3 to zebranie nowej wiedzy w zakresie współpracy obudów wyrobisk górniczych z ich otoczeniem, budowa systemu integrującego monitoring i modelowanie numeryczne dla celów oceny zagrożenia geomechanicznego, opracowanie procedur projektowych dla wybierania złoża na dużych głębokościach, opracowanie nowego urządzenia do nakładania torkretu o ustalonej grubości, zmniejszenie zagrożenia wypadkami poprzez udoskonalenie sposobów obudowy wyrobisk. WP4: Innowacyjne technologie systemów umaszynowienia dla górnictwa podziemnego Celami pakietu WP4 są opracowanie koncepcji kombajnu z głowicą skrawającą do skał twardych, opracowanie systemu kontrolnego zapobiegającego kolizjom oraz opracowanie koncepcji sortownika dla celów przeróbki pod ziemią.
WP6: BHP i aspekty środowiskowe w głębokiej kopalni Głównym celem pakietu jest opracowanie symulatora umożliwiającego realistyczne szkolenia przygotowujące operatorów maszyn do pracy pod ziemią do nieoczekiwanych sytuacji mogących pojawić się w trakcie pracy, a mogących stwarzać zagrożenie. W ramach przedmiotowego pakietu roboczego opracowany zostanie także innowacyjny system wentylacyjny zapewniający dostawę świeżego powietrza do wyrobisk i redukujący ryzyko wystąpienia pożarów. Z tym ostatnim wiąże się także zintegrowany system ratownictwa podziemnego obejmujący system informacyjny, stacje ratownictwa i technologie ratownictwa, a także model monitoringu energetycznego do celów optymalizacji poboru energii i redukcji emisji gazów cieplarnianych, system zabezpieczeń zapewniający ochronę przed wpływem otoczenia i potencjalne środki minimalizujące ryzyko w górnictwie podziemnym. WP7: Promocja rozwiązań projektu Głównym celem pakietu WP7 jest rozpowszechnianie i przekazywanie rezultatów prac w ramach projektu za pośrednictwem odpowiednich środków przekazu (prasa, prezentacje, seminaria, warsztaty, publikacje), co pozwoli na publikację wiedzy w społeczności naukowej, przemyśle górniczym, społeczeństwa itp. WP8: Zarządzanie projektem
WP5: Zastosowanie, demonstracja, legalizacja Do celów pakietu WP5 należą uzasadnienie, prezentacja i/ lub wykazanie zastosowania rezultatów prac wykonanych w ramach innych pakietów i zadań wchodzących w ich zakres oraz koordynacja działań w tym kontekście.
Teberia 26/2013 55
NAUKOWO >>
Popiół
- cenny surowiec?
Z
łoża popiołów, ubocznych produktów spalania, zalegające na składowiskach mogą być wykorzystane jako cenny surowiec w przemyśle drogowym i budowlanym. Projekt IniTech dotyczący możliwości wykorzystania popiołów w budownictwie i inżynierii lądowej to zadanie jakiego podjęli się naukowcy z Wydziału Inżynierii Materiałowej i Ceramiki pod kierunkiem Pana Profesora Jerzego Dyczka. Głównym celem zainicjowanych w 2010 roku badań była próba takiego uszlachetnienia popiołów i znalezienia dla nich zastosowania, aby zastąpić nimi niektóre surowce naturalne (czerpane ze środowiska) jak np. piasek czy surowce ilaste, a także cement lub wapno palone. Popioły zalegające przy elektrowniach czy elektrociepłowniach stanowią atrakcyjną alternatywę, zwłaszcza po ich odpowiednim przetworzeniu. Jak podkreśla prof. Jerzy Dyczek wykorzystanie ubocznych produktów spalania to proekologiczne działanie w dwóch aspektach. – Z jednej strony oszczędność surowców naturalnych, a z drugiej odzyskanie terenów przemysłowo zdegradowanych. W ramach realizowanych badań naukowcy prowadzili próby laboratoryjne, a także - w większej skali - próby techniczne. Dzięki opracowaniu metod selekcji i separacji popiołów lotnych i ubocznych produktów spalania, jak również po redukcji ich naturalnego zwilgocenia, udało się znacznie zwiększyć ich efektywność oraz wskazać całkowicie nowe ich wykorzystanie. Najbardziej innowacyjnym rozwiązaniem w prowadzonych pracach była redukcja wilgoci i pneumatyczna separacja popiołów na wybrane frakcje ziarnowe. 56 Teberia 26/2013
- Uszlachetnione popioły mogą znaleźć zastosowanie w przemyśle produkującym cegły, pustaki, w różnorodnych kształtkach, wyroby klinkierowe, dachówki aż po produkty takie jak ścienne płytki okładzinowe czy płytki podłogowe – wylicza zastosowanie prof. Dyczek. Popioły lotne i mieszanki popiołowożużlowe mogą być używane także w budownictwie i inżynierii lądowej. - Istotnym zastosowaniem jest zastąpienie wapiennej mączki stosowanej w asfaltach – wyjaśnia kierownik projektu. Jeden z profitów to zastąpienie kilkukrotnie tańszym surowcem, jakim jest popiół, stosunkowo drogiej mączki wapiennej. Z drugiej zaś strony okazuje się, że niektóre właściwości asfaltu z domieszką popiołów są lepsze niż przy zastosowaniu klasycznej
mieszanki. W ubiegłym roku firma współpracująca z naukowcami wybudowała próbne odcinki dróg, a następnie poddała je badaniom. Sprawdzana była nie tylko nawierzchnia asfaltu, zwana przez fachowców warstwą ścieralną, ale także warstwy przejściowe. Testy wykazały bardzo dobre właściwości asfaltu z domieszką popiołów. Aktualnie toczą się rozmowy dotyczące umowy licencyjnej w tym zakresie. Prof. Jerzy Dyczek wymienia także inną grupę zastosowań popiołów, jaką są sorbenty. Dzięki nim możemy oczyszczać gazy z niektórych zanieczyszczeń, a zwłaszcza niektórych metali. - Tego rodzaju zastosowanie sprawdzaliśmy póki co w skali laboratoryjnej. Z umów licencyjnych zawartych dotychczas wynika, że rozwiązanie naukowców z WIMiC AGH znajduje zastosowanie w m.in spoiwach drogowych zawierających popiół, betonach konstrukcyjnych, klejach do płytek, cemencie murarskim czy zaprawie tynkarskiej oraz w dziedzinach inżynierii lądowej. Przyznane przez Narodowe Centrum Badan i Rozwoju środki finansowe rzędu ponad 13 mln zł pozwoliły na przeprowadzenie fazy badawczej, a także sprawdzenie wyników w skali technicznej. Obecnie projekt jest na etapie wdrożeniowym, a ponad dwadzieścia zawartych dotychczas umów licencyjnych z partnerami przemysłowymi, a zwłaszcza Elektrownią w Połańcu, najlepiej świadczy o zainteresowaniu branży budowlanej i korzyściach płynących z zastosowania z pozoru niezdatnych już do niczego ubocznych produktów spalania.
źródło: blok naukowy AGH Anna Żmuda
Teberia 26/2013 57