Tozależy9

Page 1

str. 13

str. 26

Oliwia Komada

Daniel Traczewski

Niezależność banków centralnych issn 2084-7874

Prawdy i mity o Solvency II

str. 36 Katarzyna Błaszczyk

str. 44

Aneta Michalik

.

Credit of trust W porównaniu do..., to your financial czyli kilka słów o naszej irracjonalności manager

nr3/20 14 (9)

to zalezy Niezależny Magazyn Studencki

Pułapka płynności - czy to już? str. 4


HISTORIA LUBI SIĘ POWTARZAĆ

J

aponia doświadczyła w swojej historii okresu długotrwałego zastoju gospodarczego. Działalność banku centralnego w okresie recesji jest wtedy nadzwyczaj istotna. Może wspomóc albo pogrążyć gospodarkę. Historia nie raz pokazała, że standardowe działania nie zawsze kończą się zamierzonym efektem. Stąd okresy hiperinflacji czy deflacji, zastoju i recesji czy też bezrobocia lub innych anomalii. W ekonomii nie można powiedzieć, że coś wydarzy się na pewno. W ekonomii można powiedzieć, że coś może się wydarzyć, o ile nie pojawi się … i tu można dopowiedzieć wiele różnych zjawisk gospodarczych. Ekonomia nie jest doskonała, ani przewidywalna.

W tym numerze przeczytacie o tejże niedoskonałości, poprzez którą strefa euro nadal walczy ze słabą sytuacją ekonomiczną. Utrzymujące się wysokie bezrobocie, niepewne wzrosty PKB czy też historycznie niski poziom stóp procentowych to obecnie główne problemu europejskiej gospodarki. Tematem numeru staje się tym samym pułapka płynności, w której strefa euro najprawdopodobniej mogła się znaleźć. Pułapka płynności, która może mieć długotrwałe negatywne skutki mające wydźwięk globalny. Co w takim wypadku należy zrobić? Co planuje Europejski Bank Centralny? Ostatecznie , co z tego wszystkiego wyniknie? W tym numerze postaramy się odpowiedzieć na te pytania, pozostawiając nutę niepewności, bo przecież odpowiedzią na nie może być: to zależy.

Redaktor Naczelna- IZA WIŚNIEWSKA

Redaktorzy ProwadzącyWOJCIECH MILEWSKI, SEBASTIAN LEWANDOWSKI Projekt graficzny- PATRYCJA DYRDA, OLGA GRZĘDA, ANNA KONDZIERSKA, AGNIESZKA MATYJASZCZYK, JAKUB PAWLIK, KAMIL PRZĄDKA, IZA WIŚNIEWSKA Korekta- MAGDALENA BEDNARSKA, AGNIESZKA PIETRZYK, KATARZYNA ROJEK

Strona internetowa tozalezy.plAGNIESZKA PIETRZYK

Facebook- ANNA KONDZIERSKA

Okładka- OLGA GRZĘDA

Kontakt: redakcja@tozalezy.pl

Wydawca: Koło Naukowe Strategii Gospodarczej Uniwersytetu Warszawskiego

Sponsor wydruku magazynu:

Redaktor Naczelna

Redaktor Prowadzący


SPIS TREŚCI TEMAT NUMERU Pułapka płynności- czy to już? IZA WIŚNIEWSKA

4

MAKROEKONOMIA Kryzys kontra drukarki WOJCIECH ŚWIDER Niezależny Bank Centralny– strażnik stabilności czy kula u nogi? OLIWIA KOMADA

10 13

RYNEK KAPITAŁOWY SPO – jak rynek reaguje na kolejne emisje akcji? KATARZYNA OKOŃ Start-up – ryzyko, które przyciąga VC DOMINIK SIKORA New Connect – zmiany na lepsze WOJCIECH MILEWSKI

15 18 20

GOSPODARKA Embargo na polskie jabłka, czyli koszmar sadowników MICHAŁ SOBIERAŃSKI

24

UBEZPIECZENIA Prawdy i mity o Solvency II DANIEL TRACZEWSKI

26

ŚWIAT Absolute Aversion to Alarm, czyli ocena zachowania agencji ratingowych przed kryzysem JUSTYNA DĄBROWSKA Szkodliwe obietnice polityków – polskie mity państwa opiekuńczego PRZEMYSŁAW TWARDZIAK

TO ZALEŻY Reforma górnictwa – czy Polsce potrzeba drugiej Thatcher? WOJCIECH MILEWSKI, SEBASTIAN LEWANDOWSKI, AGNIESZKA PIETRZYK

OPINIE W porównaniu do… czyli kilka słów o naszej irracjonalności KATARZYNA BŁASZCZYK To co słyszysz, to co czytasz, to co widzisz SEBASTIAN LEWANDOWSKI Kiedy w skarbcu pusto MICHAŁ MIKOŁAJCZYK

30 33

36 38 40 42

TECHNOLOGIA Co dalej z Big Data? KAMIL PRZĄDKA

44

ENGLISH SECTION Credit of trust to your financial manager ANETA MICHALIK

46

Michał Mikołajczyk

Bitcoin - waluta przyszłości? ISSN 2084-7874

str. 14

Wywiad ze Zbigniewem Jagiełło, prezesem PKO BP

str. 24

Wojciech Milewski

Konfrontacja energetyki z wolnym rynkiem

str. 34

Interview with Miguel Gouveia, an expert in Public Economics area at Católica Lisbon School of Business and Economics

.

str. 10

Nr 1/20 14 (7)

To Zalezy Niezale¿ny Magazyn Studencki

str. 4


www.leasingbudowlany.pl

Pułapka płynności: czy to już?

Pułapka płynności jeszcze 20 lat temu była uznawana wśród ekonomistów za zjawisko, które „nie może wystąpić, nie wystąpiło i nigdy więcej nie wystąpi” („cannot happen, did not happen, and will not happen again”, Paul Krugman, 1998). Jednak sytuacja Japonii na przełomie XX i XXI wieku pokazała, że w ekonomii nie ma rzeczy niemożliwych. Warto więc zastanowić się, czy obecnie to gospodarka strefy euro nie znalazła się w potrzasku. Stopy procentowe bliskie zeru oraz potrzeba sięgania po niekonwencjonalną politykę monetarną pokazują, że strefa euro nie jest na wymarzonej ścieżce wzrostu. Czym jest pułapka płynności?

Pułapka płynności oznacza sytuację, w której nominalne stopy procentowe są bliskie lub równe zero, a gospodarka przesycona jest płynnością (Lars Svensson, 1999). W kraj występują deflacyjne oczekiwania. Konwencjonalna polityka monetarna staje się nieskuteczna, gdyż gotówka i papiery wartościowe, mając tę samą stopę zwrotu, stają się doskonałymi substytutami. Operacje otwartego rynku przeprowadzane przez bank centralny zwiększają bazę monetarną, jednak nie mają one wpływu na ceny i popyt, a co więcej, nie powstrzymują tendencji deflacyjnych.

Dużym problemem związanym z pułapką płynności jest brak przekonania społeczeństwa o inflacyjnym charakterze zwiększania podaży pieniądza. Działaniem, które mogłoby wyprowadzić gospodarkę z pułapki, jest doprowadzenie do ujemnej realnej stopy procentowej (↓r=↓i-↑π). Praktycznie zerowe stopy procentowe wykluczają jednak dalsze obniżki (pieniądz gotówkowy wyprze wtedy obligacje). W związku z tym, celem banku centralnego staje się stymulacja inflacji.

Rynek spodziewa się jednak, że ekspansja monetarna jest tymczasowa, tj. zakładając wzrost inflacji w obecnym okresie, panuje przekonanie o jej powrocie do wyjściowego poziomu w kolejnym. Jest to efekt dobrze zakotwiczonych oczekiwań inflacyjnych. Krugman przekornie twierdzi, że jeśli bank centralny wiarygodnie przekona, iż będzie postępował nieracjonalnie, czyli będzie chciał zwiększać podaż pieniądza, aby długoterminowo utrzymywać wysoką inflację, to rynek pozwoli na wzrost cen i gospodarka wyjdzie z pułapki1. Pułapka płynności to także utrzymywanie się realnej stopy procentowej powyżej naturalnej, która równoważy popyt z podażą. Jeśli zależność taka ma miejsce, gospodarka nie rozwija się zgodnie z potencjalnym tempem. Nawet utrzymanie nominalnej stopy procentowej na poziomie bliskim zera nie pozwala na zbliżenie się realnej stopy procentowej do naturalnej z uwagi na niską inflację lub deflację.

Nigdy nie można z pewnością określić, czy dana sytuacja gospodarcza już jest pułapką płynności czy nie. Ekonomiści przypuszcają, że Japonia była w niej co najmniej dwa razy.

1 Krugman Paul, It’s Baaack: Japan’s Slump and Return of the Liquidity Trap, 1998.

4

Temat numeru


Iza Wiśniewska Studentka International Economics na Wydziale Nauk Ekonomicznych UW. Redaktor naczelna magazynu „To Zależy”. Stypendystka Think Paga! Akademia Analiz i Mediów Fundacji im. Lesława A. Pagi. Członkini Koła Naukowego Strategii Gospodarczej UW. Interesuje się zagadnieniami wzrostu gospodarczego i polityki ekonomicznej. W USA mogła wystąpić ona w okresie Wykres1. Stopa wzrostu PKB wraz z szacunkami na najbliższe 5 lat Wielkiego Kryzysu oraz ponownie na % początku XXI wieku. Chociaż przypadki 4 pułapki płynności są nieliczne, można zauważyć, że wiąże się ona z długotrwałą 3 recesją lub przynajmniej okresem 2 niskiego wzrostu gospodarczego. Obecna sytuacja Europejskiego Banku 1 Centralnego, pomimo braku oficjalnego potwierdzenia, wskazuje, że strefa euro 0 mogła wpaść w pułapkę płynności. W artykule tym spróbuję znaleźć -1 argumenty potwierdzające tę tezę. -2

Sytuacja strefy euro

Podstawowym założeniem pułapki płynności jest niski poziom stóp procentowych. I tak, przeglądając dane ekonomiczne na przestrzeni kilku lat, wyraźnie widoczny jest spadek stóp procentowych trwający nieprzerwanie od października 2008 do lutego 2010. Ich poziom już w 2008 roku był bardzo niski (nie przekraczał 1,5%). Tymczasowa poprawa koniunktury w 2011 roku i wyjście z deflacji, a nawet znaczny skok inflacyjny, spowodowały, że wzrosło przekonanie o wyjściu z recesji, i Jean-Claude Trichet, ówczesny prezes EBC, postanowił podnieść stopy procentowe. Jak się okazało, nie była to trafna decyzja, ponieważ gospodarka znów spowolniła, czego skutkiem był powrót do dalszych obniżek stóp procentowych, co w konsekwencji doprowadziło do obecnej, historycznie niskiej stopy procentowej na poziomie 0,3%2. Wzrost PKB nadal utrzymuje się na niskim i niestabilnym poziomie (wykres 1). Oczekiwane są wzrosty na poziomie 1% w 2014 i 1,7% w 2015 roku, ale wynik za drugi kwartał 2014 roku wskazuje na jedynie 0,64-procentowy wzrost. Widać zatem, że w środowisku niskich nominalnych stóp procentowych, a nawet okresu ujemnej realnej stopy procentowej,

-3 -4 -5

Źródło: Opracowanie własne na podstawie IMF.

Wykres 2. Realna stopa procentowa i inflacja w strefie euro (styczeń 2008-październik 2014) % 5

inflacja

realna stopa procentowa

4 3 2 1 0 -1

-2

Źródło: Opracowanie własne na podstawie EBC.

gospodarka opornie odżywa, czemu nie sprzyja dobrze zakotwiczona niska inflacja. Przy obecnym poziomie inflacji (0,4%), przy niskiej nominalnej stopie procentowej udało się doprowadzić do ujemnej realnej stopy procentowej, co

2 https://www.ecb.europa.eu/stats/monetary/rates/html/index.en.html

widać na wykresie 2. Jednak dopóki realna nie pokrywa się z naturalną stopą procentow nie przyniesie to ożywienia.

Temat numeru

5


Na wykresie 3 przedstawiono stopę wzrostu agregatu pieniężnego M0 (gotówka w obiegu) i M3. Widać, że od przyśpieszonego wzrostu i równie szybkiego spadku w 2009 roku, stopa wzrostu M0 jest stosunkowo stała. Oznacza to, że rzeczywiście gotówki w obiegu jest coraz więcej. Analizując dynamikę agregatu M3, widać, że znacznie spadła ona po kryzysie w roku 2008 i utrzymuje się na niskim poziomie. Wskazuje to, że zwiększanie M0 nie idzie w parze z proporcjonalnym zwiększaniem się M3. Należy zwrócić uwagę, że brak przyrostu M3 lub jego niedopasowanie do M0, przy jednoczesnym wzroście M0, oznacza nadpłynność w budżetach gospodarstw domowych, a dokładniej zbyt wysokie oszczędności w stosunku do konsumpcji. Potwierdza to tezę o nadmiernej płynności w gospodarce. Kolejnym zjawiskiem charakteryzującym pułapkę płynności jest produkcja poniżej poziomu potencjalnego. Miarą tego zjawiska jest luka popytowa1, która w strefie euro od czasu kryzysu utrzymuje się na dodatnim poziomie. W świetle teorii ekonomii oznacza to niewykorzystanie mocy produkcyjnej, czego potwierdzenie można znaleźć m.in. w wysokich wskaźnikach bezrobocia. Temat ten jest obszernie dyskutowany wśród ekonomistów, ponieważ istnieje niespójność opinii w kwestii przyczyny tego zjawiska. Specjaliści podzielili się na dwie grupy. Jedna mówi, że bezrobocie jest strukturalne, czyli wynika z niedopasowania podaży do popytu. Druga, mniej popularna, przekonuje, że bezrobocie jest cykliczne, czyli wynika z niedostatecznego popytu na pracę.

www.pa yanywh e

re.com

Opcja pierwsza jest poniekąd wygodniejsza dla rządzących, ponieważ bezrobocia strukturalnego nie można poprawić, wpływając na stronę popytową (np. stymulacje fiskalne czy monetarne). Z kolei bezrobocie cykliczne, które wynika z zastoju gospodarczego, jest dla rządzących większym zobowiązaniem. Zazwyczaj występuje przekonanie, że obecnie bezrobocie ma charakter strukturalny. Opinia ta nie musi być jednak poprawna. Otóż trwające zbyt długo bezrobocie może być nadal efektem pokryzysowym. Osoby, które straciły pracę w wyniku spadku popytu na nią w okresie kryzysu, stały się bezrobotnymi. Osłabła ich chęć poszukiwania pracy i nie robią tego efektywnie. Innym powodem może być deprecjacja kapitału ludzkiego, co powoduje, że osoby te nie są wydajne w pracy, zatem pracodawcy nie chcą ich zatrudniać. Kolejnym argumentem może być usztywnienie płac od dołu. Ludzie nie chcą zatrudniać się tam, gdzie płaca jest poniżej ich oczekiwań. Jak zauważa prezes Europejskiego Banku Centralnego, Mario Draghi, płace w strefie euro są raczej stałe. Przy spodziewanym bezrobociu strukturalnym wzrost popytu na pracę powinien powodować wzrost stawek płacy. Zatem przy obecnej stałości pensji w strefie euro możemy mieć do czynienia albo ze wzrostem podaży pracy (czyli większą liczbą osób aktywnych zawodowo), albo ze spadkiem popytu na pracę (czyli zbyt małą liczbą miejsc pracy czy też brak chęci zatrudniania ze strony pracodawców). Ponieważ zgodnie z danymi lic-

1 Luka popytowa stanowi różnicę między potencjalnym a rzeczywistym poziomem PKB.

6

Temat numeru


zba osób aktywnych zawodowo w strefie euro nie odnotowała istotnego wzrostu, to przyczyną pozostaje niewystarczający popyt na pracę, co wskazuje ponownie na występowanie bezrobocia cyklicznego, a nie strukturalnego. Przedłużające się bezrobocie cykliczne (histereza) powoduje, że produkcja krajowa pozostaje na poziomie poniżej potencjalnego, co może doprowadzić do wydłużenia recesji. Krzywa Beveridge’a (wykres 4) pokazuje, że faktycznie wystąpił okres, w

którym wzrosła liczba wolnych miejsc pracy, a bezrobocie nie malało, co może świadczyć o niedopasowaniu na rynku pracy. Jednak długookresowa analiza wskaźnika job vacancy rate3 (wykres 5) pokazuje, że liczba wolnych miejsc pracy po kryzysie nie zbliżyła się do poziomów przedkryzysowych, zatem ci, którzy stracili etat w trakcie kryzysu, nadal nie mogli go uzyskać, bo liczba miejsc pracy nie zwiększyła się wystarczająco. Nie można się jednak spodziewać, że nastąpiła tak szybka

Wykres 3. M0 i M3 (stopa wzrostu) w latach 2006-2014 % 15,5 13,5 11,5 9,5 7,5 5,5 3,5 1,5 -0,5

Gotówka w obiegu (M0)

M3

Źródło: Opracowanie własne na podstawie EBC.

zmiana struktury popytu na pracę, żeby bezrobotni nie byli w stanie sprostać jego oczekiwaniom. Problem bezrobocia w jakimś stopniu może być strukturalny, jednak gros bezrobocia to bezrobocie cykliczne, które jest efektem kryzysu popytowego.

Powróćmy jeszcze do kwestii oczekiwań inflacyjnych konsumentów. Bank centralny chce spowodować, aby społeczeństwo spodziewało się wzrostu cen, a przez to skłonić ich do wzmożonej konsumpcji w bieżącym okresie. Jeżeli, jak wspomniałam we wstępie, bank centralny obiecałby, że będzie się zachowywał „nieracjonalnie” i spróbuje utrzymać wysoką inflację przez dłuższy okres, konsumenci mogliby zwiększyć swoje oczekiwania inflacyjne, a co za tym idzie, również konsumpcję. Obecnie jednak społeczeństwo nie spodziewa się wzrostu cen. W badaniach nad oczekiwaniami inflacyjnymi konsumentów widać wyraźne tendencje spadkowe, co zdecydowanie nie jest w zgodzie z życzeniami EBC. Powoduje to, że konsumenci, mimo stałego poziomu dochodów, nie konsumują wystarczająco dużo, aby popyt zrównał się z podażą, a tym samym przyczyniają

Wykres 4. Krzywa Beveridge’a dla strefy euro (wykres po prawej uwzględnia niedobory siły roboczej)

Źródło: http://www.ecb.europa.eu/pub/pdf/scpwps/ecbwp1586.pdf

3. Wskaźnik mierzący stosunek liczby wolnych miejsc pracy do sumy ogólnej liczby miejsc pracy (zajętych i wolnych)

Temat numeru

7


Wykres 5. Job Vacancy Rates

się do kontunuacji spowolnienia gospodarczego. Sytuacja ta ma już miejsce od dłuższego czasu. Tezę tę potwierdza wykres kredytów udzielonych przez bank gospodarstwom domowym. Mimo dostępności kredytów, nie są one zaciągane, bo konsumenci nie mają potrzeby zdobywać dodatkowych środków (wykres 6). Pułapka płynności sprawia, że standardowa polityka ekonomiczna nie jest efektywna. Bank centralny nie może dalej obniżać stóp procentowych, a zwiększanie podaży pieniądza przez operacje otwartego rynku nie wpływa na inflację dopóki społeczeństwo nie uwierzy, że będzie ona wyższa. W teorii metodą na wyjście z takiego kryzysu jest ekspansja fiskalna. W przypadku strefy euro krajom nie mającym swojej własnej waluty ciężko jest się zadłużać w celu stymulacji fiskalnej. Rynki finansowe mogłyby łatwo ukarać je za wzrost długu poprzez zwiększenie rentowności papierów wartościowych. Z drugiej strony EBC nie wspomoże kraju, gdyż nie jest wyłącznym bankiem centralnym jednego kraju. Wobec tego ekspansja fiskalna nie jest obecnie rozważaną metodą. Wpływa na to także wysoki poziom zadłużenia wielu krajów strefy euro (Portugalia, Grecja, Hiszpania, Włochy). Obecne zadłużenie całej strefy euro wynosi 92,7% PKB4. Ekonomiści mówią zatem mimo wszystko o konsolidacji fiskalnej z uwagi na zagrożenie nadmiernym zadłużeniem, które może spowodować, że kraje staną się niezdolne do obsłużenia swojego długu. Konsolidacja, czyli restrykcyjna polityka fiskalna, miałaby wpłynąć na obniżenie zadłużenia. Z uwagi na szkodliwy jej wpływ w okresie słabego wzrostu gospodarczego,

pojawiają się opinie za przeprowadzaniem jej w okresie późniejszym, a obecne kontynuowanie na niezmienionym, niskim poziomie. Alternatywną metodą na wyjście z pułapki

4 Dane z bazy danych statystycznych ECB [online: http://sdw.ecb.int/]

8

Temat numeru

www.poradniksukces.com

Źródło: Opracowanie własne na podstawie Eurostat.


www.mighty-site.com

płynności są niekonwencjonalne Wykres 6. Poziom agregatu pożyczek (mln €) z wyłączeniem sektora metody polityki monetarnej. Obecnie państwowego w latach 2000-2014 rozpoczyna się proces luzowania ilościowego (Quantitative Easing) przez EBC. Niektórzy ekonomiści postulują podniesienie celu inflacyjnego, który mógłby przekonać konsumentów, że wyższa inflacja może mieć miejsce i jest świadomą polityką banku centralnego. Koncepcja podwyższonego celu inflacyjnego pojawia się coraz częściej w debacie ekonomicznej. Dostrzegane są dobre strony inflacji w analizie historii poprzednich kryzysów gospodarczych. Wśród ekonomistów obecna jest także opinia, że samo QE może nie być jednak wystarczające, aby ożywić gospodarkę i przywrócić naturalne zatrudnienie. Wprowadzenie wyższego celu inflacyjnego nie jest jednak raczej rozważane w EBC z uwagi Źródło: Opracowanie własne na podstawie EBC. na obawy przed inflacją, które mają charakter historyczny. na lukę popytową. Niekonwencjonalna Jednak uwzględniając Japonię, metoda polityki monetarnej może która w pułapce płynności tkwiła I co dalej… jednak nie wystarczyć. Byłaby skuteczna, prawdopodobnie przez kilka lat, proces gdyby przekonała konsumentów o tym, luzowania ilościowego nie przynosił Z przedstawionej analizy można że inflacja będzie rosła. Wpływanie spodziewanych efektów. Jednocześnie wnioskować, że strefa euro znalazła na oczekiwania konsumentów może w obecnej sytuacji ekonomicznej się w pułapce płynności. Słabe jednak nie być skuteczne. Nie wiadomo właśnie takiego działania spodziewa tempo wzrostu PKB może się zatem, jak daleko musi posunąć się się rynek. Zatem jeśli EBC nie zatem utrzymywać jeszcze kilka lat. EBC, aby wywołać u konsumentów przystąpiłby do luzowania ilościowego, W perspektywie braku stymulacji jakąkolwiek reakcję, która wpłynie na mógłby stracić wiarygodność. Przy fiskalnej, zakotwiczenie inflacji na ożywienie gospodarki. Quantitative założeniu, że inflacja nadal nie odnotuje jej obecnie niskim poziomie może Easing, które obecnie zakończyło się tendencji wzrostowej, QE może być wydłużyć okres kryzysu. Warto też w USA, prawdopodobnie przyniosło mimo wszystko najlepszym wyjściem. zwrócić uwagę na bezrobocie, które oczekiwane skutki: poprawiła się Obecnie, po doświadczeniach USA, z krótkotrwałego przekształciło się sytuacja na rynku pracy i odnotowuje wydaje się, że może ono istotnie wpłynąć w długotrwałe i negatywnie wpływa się ożywienie gospodarcze. na poprawę sytuacji ekonomicznej.

Temat numeru

9


Kryzys kontra drukarki Rola banku centralnego w gospodarce

(praktycznie do minimum) nie dały pożądanego przez banki efektu i nie przełożyły się na zakładany wzrost inflacji i akcji kredytowej banków komercyjnych. Mając to na uwadze, w ostatnich latach międzynarodowym trendem stało się luzowanie ilościowe (ang. quantitative easing), polegające na masowym wykupie długoterminowych obligacji przez instytucję centralną. Powoduje to wzrost cen tych instrumentów i tym samym „zepchnięcie” rentowności na niższe poziomy – spadek rynkowej stopy procentowej. Działanie to wpływa dodatnio na bilans banku centralnego, a taki program wygasza się w dwojaki sposób: automatycznie – przez wykup papierów wartościowych przez emitenta w terminie zapadalności, lub przez sprzedaż tych papierów na rynku. Sposób pierwszy jest bardziej łagodny i na chwilę obecną wydaje się być preferowany przez banki centralne.

Istnienie banku centralnego we współczesnych rozwiniętych krajach jest powszechnie uznawanym standardem. Pełni on kilka kluczowych funkcji: emituje pieniądz i dba o jego wartość, jest bankiem państwa – prowadzi rachunki bankowe rządu, dba o stabilność ekonomiczną – głównie przez cel inflacyjny, ale również kontrolując kurs walutowy, bilans płatniczy i całe sektory gospodarki. W centrum zainteresowania banku centralnego znajduje się sektor bankowy, który odgrywa kluczową rolę w finansowaniu przedsiębiorstw. Co więcej, pełni ważną funkcję jako kanał transmisji monetarnej. Przykładowo: decyzja banku centralnego o obniżce stóp procentowych będzie miała wpływ na gospodarkę dopiero, gdy banki komercyjne dostosują swoje oferty kredytów i lokat do niższych stóp w banku centralnym. Narodziny programów quantitative easing W poszczególnych państwach banki centralne mają różne (QE) i ich popularyzacja funkcje i zróżnicowany poziom autonomii. Reakcja WIG20 na wypowiedź Bena Bernanke z 19 czerwca 2013 Bank centralny USA – FED (Federal Reserve) posiada cele w zakresie: inflacji, bezrobocia i długoterminowych stóp procentowych. Dla kontrastu można przywołać Europejski Bank Centralny (EBC), który jest skierowany wyłącznie na cel inflacyjny. Władze banku biorą pod uwagę też inne zmienne przy podejmowaniu decyzji, ale inflacja wyraźnie stoi na pierwszym miejscu. Mimo relatywnie konserwatywnej postawy w zakresie polityki monetarnej, w czasie kryzysu finansowego (2007-2008) EBC podejmował daleko idące kroki w celu ratowania systemu bankowego i zdecydował się na wykup obligacji krajów strefy euro.

Narzędzia banków centralnych

Narzędzia będące w arsenale banków centralnych przyjęło się dzielić na konwencjonalne i niekonwencjonalne. Narzędzia konwencjonalne to oficjalne stopy procentowe banku centralnego, wielkość rezerw obowiązkowych dla banków komercyjnych i operacje otwartego rynku. Instrumenty niekonwencjonalne – takie jak programy skupu aktywów, o których będzie mowa w dalszej części artykułu, stanowią nową grupę zastosowaną na szeroką skalę po kryzysie finansowym 2007-2008 roku. Źródło: investing.com Według ekonomistów Banku Rozliczeń Międzynarodowych niekonwencjonalność tych Historia programów QE sięga 2001 roku, kiedy to Bank narzędzi nie wynika stricte z ich istoty, lecz ze skali of Japan sięgnął po ten instrument do walki z utrzymującą w jakiej są prowadzone1. się bardzo długo deflacją. Era omawianych programów

Luzowanie ilościowe

Postkryzysowe otoczenie makroekonomiczne ujawniło brak skuteczności standardowego i podstawowego narzędzia banków centralnych – stopy procentowej. Serie jej obniżek

rozpoczęła się na dobre kilka lat później – jesienią 2008 roku – kiedy to FED rozpoczął szeroki skup instrumentów dłużnych firm działających na rynkach hipotecznych (sponsorowanych przez rząd) i papierów wartościowych zabezpieczonych hipotecznie – tak zwanych MBS (MortgageBacked Securities). Kwota tego skupu wyniosła 600 mld USD.

1 Janus Jakub, Kontrowersje wokół niekonwencjonalnych instrumentów polityki monetarnej, 2011. [online: http://www.psz.pl/index. php?option=com_content&task=view&id=39564]

10

Makroekonomia


Wojciech Świder Student IV roku finansów i rachunkowości na Wydziale Ekonomii, trader na rynku walutowym. Główne zainteresowania: rynki finansowe, polityka monetarna, austriacka szkoła ekonomii, sport, wędkarstwo.

W marcu następnego roku nastąpiła kolejna tura skupu – tym razem jeszcze większa. Te działania FED-u nazwane zostały QE1 i łącznie miały wartość około 1,7 bln USD. Nie wystarczyło to jednak do zażegnania kryzysu w USA, i między listopadem 2010 a czerwcem 2011 FED przeprowadził QE2, tym razem na kwotę „tylko” 600 mld USD2.

W przypadku EBC, również rynki doczekały się luzowania ilościowego. Nastąpiło ono w maju 2009 roku. Był to program zakupu obligacji bankowych zabezpieczonych aktywami, ogłoszony w celu udrożnienia transmisji monetarnej oraz zapewnienia płynności na rynku (zarówno pierwotnym, jak i wtórnym). EBC uruchomił dwa takie roczne programy o łącznej wartości 100 mld euro. Kolejny program EBC rozpoczął w 2010 roku, w odpowiedzi na problemy greckich obligacji – spadek ich cen i wzrost rentowności, co budziło obawy inwestorów o wypłacalność Grecji i trwałość całej strefy euro. Był to tak zwany SMP (Securities Market Programme)3. Bank of England również wprowadził skup aktywów w odpowiedzi na kryzys, ale sytuacja w Wielkiej Brytanii nie była tak dramatyczna, jak w krajach strefy euro. Bilans BoE nie urósł do takich rozmiarów, jak bilans FED-u czy EBC4.

Polityka monetarna banków centralnych USA, Wielkiej Brytanii, Unii Europejskiej i Japonii po kryzysie – stan obecny

Od załamania gospodarczego minęło już kilka lat, lecz światowa gospodarka nadal ma problemy z trwałym odbiciem gospodarczym. Ożywienie jest delikatne i nierównomierne.

W USA sytuacja w pierwszych dwóch kwartałach 2014 roku ulega stopniowej poprawie: rośnie dynamika PKB, stopa bezrobocia spada w szybkim tempie, inflacja zbliża się do celu. Mimo pozytywnych oznak, przedstawiciele FED-u w większości unikają „jastrzębich” wypowiedzi, choć ostatnio można takowe coraz częściej usłyszeć z ust niektórych członków. FED w 2012 roku, wprowadził trzecią serię luzowania ilościowego (QE3). Od grudnia 2013 było ono stopniowo ograniczane, a na ostatnim posiedzeniu FED (29 października 2014) zostało całkowicie zakończone. Stopy procentowe pozostały utrzymane blisko zera. Sprawozdanie z posiedzenia sugeruje, że taki stan rzeczy szybko się nie zmieni.

Gospodarka strefy euro ma się znacznie gorzej. Podczas gdy FED zdaje się powoli kończyć ekspansję monetarną, EBC ostatnio zastosował nowe, zdecydowane środki luzowania. W tym roku zostały podjęte daleko idące działania ze strony banku. Między innymi EBC dokonał obniżki stóp procentowych oraz wprowadził LTRO (Long Term Refinancing Operation) – długoterminowe pożyczki dla banków. Zwieńczeniem wydaje się być posiedzenie z 4 września, na którym stopa refinansowa spadła do poziomu 0,05%, a depozytowa do -0,2% (!). Ponadto Mario Draghi zapowiedział skup ABS (Asset-Backed Securities), co nazywane jest „małym” QE. Dokładne informacje o tym programie mają zostać podane na październikowym posiedzeniu. Powodem tak zdecydowanych działań jest niska inflacja, która w niektórych krajach (np. Hiszpanii i Włoszech) jest bliska deflacji. Przez obawy o inflację, Mario Draghi w ciągu ostatnich miesięcy włożył wiele wysiłku w słowne osłabianie euro, które dzięki systematycznemu umacnianiu się do dolara miało hamować inflację. Interwencje słowne działały krótkoterminowo, ale późniejsze bardzo zdecydowane działania EBC skłoniły inwestorów do zmiany nastawienia do wspólnej waluty. Wielka Brytania już od 2013 roku notuje znaczną poprawę wskaźników gospodarczych. Szef BoE – Mark Carney powiedział w lipcu, że gospodarka Wielkiej Brytanii „dobiła” już do poziomu sprzed kryzysu. Bank Anglii posiada na swoim koncie papiery wartościowe warte 375 mld funtów, a referencyjna stopa procentowa wynosi 0,5%. Inflacja zaczyna odbijać, a szczególnie rosną ceny nieruchomości. W ostatnich miesiącach szefowie BoE nieco stonowali swój głos w sprawie podwyżek ze względu na niski wzrost płac. Gospodarka Japonii odbija powoli, rośnie PKB i inflacja, jednak stoi za tym bardzo duża ingerencja Bank of Japan. Gdy 20 marca 2013 roku Haruhiko Kuroda objął stanowisko prezesa, wypowiedział wojnę deflacji, która od wielu lat była obecna w Japonii. Już wcześniej otwarcie mówił, że jest dużo miejsca na luzowanie ilościowe. W efekcie BoJ kupuje co miesiąc aktywa za 7,5 bln jenów. W przeliczeniu na dolary daje to około 70 mld USD – czyli prawie tyle, ile FED kupował jeszcze w grudniu 2013 roku. Warto jednak zauważyć, że gospodarka japońska jest około 3 razy mniejsza od amerykańskiej, zatem skala luzowania jest znacznie większa5. Kuroda 16 września stwierdził, że BoJ będzie luzował politykę, aż inflacja ustabilizuje się w okolicach 2%. W opinii prezesa gospodarka Japonii jest w połowie drogi do celu inflacyjnego. Dodatkowo podkreślił on, że bank nie

2 Jaworski Władysaw, Współczesna bankowość centralna, Warszawa 2012, s. 100. 3 Tamże, s. 104. 4 Tamże, s. 96.

Makroekonomia

11


zawaha się dostosować swojej polityki, jeśli zajdzie taka potrzeba. Taki ton może wiązać się z chęcią wywołania presji na osłabienie jena, w celu wspomożenia eksporterów, stanowiących motor tamtejszej gospodarki.

Austriacka szkoła w ekonomii i jej postulaty odnośnie zaniżonych stóp procentowych

Przedstawiciele austriackiej szkoły w ekonomii posiadają obszerny dorobek naukowy, objaśniający powstawanie cyklu koniunkturalnego przez działalność banku centralnego. Ich postulaty zostaną zwięźle przedstawione poniżej.

Stopy procentowe w gospodarce wolnorynkowej kształtują się w sposób naturalny pod wpływem wielu czynników, m.in. stopy oszczędności ludzi i ich preferencji czasowej. Bank centralny arbitralną decyzją o obniżce stóp zaburza ten proces. Banki komercyjne udzielają większej ilości kredytów i pieniądz staje się łatwiej dostępny. Przedsiębiorcy otrzymują fałszywą informację, która zniekształca ich kalkulacje ekonomiczne. Zasoby lokowane są błędnie – niektóre branże przeżywają irracjonalny boom. Ponadto przedsięwzięcia, które dotychczas były nieopłacalne, z niższą stopą procentową wydają się być rentowne. Rosną ceny dóbr kapitałowych i płac, napędzane przez popyt przedsiębiorstw. Dzięki wzrostom płac rosną konsumpcja i ceny – pozorne ożywienie trwa. Dobre nastroje w gospodarce utrzymują się tak długo, jak długo trwa ekspansja kredytu. Nie może ona jednak trwać wiecznie, ponieważ bank centralny zwykle ma określony cel inflacyjny, przy którym zaczyna zaostrzać politykę monetarną. Gdyby bank centralny pozwolił inflacji ciągle rosnąć, to w pewnym momencie ludzie zorientowaliby się, że ożywienie jest „nadmuchane” tanim pieniądzem i nastąpiłaby ucieczka od pieniądza (dynamicznie tracącego na wartości). Następstwem tego byłby spadek zaufania do banków i załamanie systemu pieniężnego.

Wygląda na to, że w ten schemat dobrze wpisuje się kryzys finansowy 2007-2008 w USA, kiedy to FED sprowadził stopę procentową w okolice jednego procenta, pozwalając urosnąć bańce na rynku nieruchomości. Mark Thornton, amerykański ekonomista, przedstawiciel austriackiej szkoły w ekonomii, już w 2004 roku pisał o bańce na rynku nieruchomości i o jej zagrożeniach w artykule Housing: Too Good to Be True, dostępnym w sieci.

Czy znowu mamy do czynienia z bańką?

Czy możliwe jest, że tylko kilka lat po kryzysie, FED, lecząc skutki ostatniej bańki, pozwala rosnąć nowej? Obserwując zachowanie cen akcji, można odnieść takie wrażenie. Indeks giełdowy S&P500 dawno wybił historyczne rekordy, podczas gdy dane z realnej gospodarki nie zachwycały. Wielokrotnie można było zaobserwować – np. w 2013 roku – bardzo optymistyczną reakcję rynków giełdowych na słabe dane

z USA, co sugerowałoby granie na „pompowanie” pieniędzy. Luzowanie ilościowe ma wpływ nie tylko na aktywa Stanów Zjednoczonych, ale też na inne rynki, w tym Polskę. Ben Bernanke na konferencji 19 czerwca wspomniał, że ryzyka dla perspektyw ekonomicznych zmalały, co miało sugerować patrzenie w stronę ograniczania QE3. Akcje zaczęły tanieć, dolar solidnie się umocnił. Gwałtowne spadki nie ominęły warszawskiego parkietu. Konferencja odbyła się po godzinie 20:00 czasu środkowoeuropejskiego, więc nasza giełda reagowała na słowa prezesa dopiero 20 czerwca (strzałka na wykresie wskazuje 19 czerwca).

Przy następnej okazji, w lipcu 2013, prezes FED-u zmienił swój ton i powiedział, że amerykańska gospodarka potrzebuje teraz luźnej polityki monetarnej. Prawdopodobnie widząc reakcję rynków, chciał je uspokoić i nie dopuścić do wzrostu rynkowych stóp procentowych, i de facto zacieśnienia polityki pieniężnej. Aktualna prezes FED-u – Janet Jellen jest równie ostrożnie nastawiona, co Ben Bernanke.

Wyjście z kryzysu

Załamanie gospodarcze jest odpowiedzią gospodarki na boom o niezdrowych fundamentach. Proces dostosowawczy musi nadejść i objawić się w likwidacji błędnych inwestycji, opartych o tani kredyt. Rząd czy bank centralny, próbując ratować gospodarkę przez swoje ingerencje, opóźnia jedynie proces dostosowawczy (objawiający się miedzy innymi spadkiem cen i płac), czyniąc go dłuższym7. Żeby gospodarka osiągnęła równowagę po kryzysie, potrzebny jest czas, w którym rynek oczyści się z błędnych projektów.

Co będzie dalej?

Mając na uwadze kadencyjność rządu oraz przedstawicieli władz monetarnych (w praktyce bardzo często silnie powiązanych ze sobą), można zauważyć krótkowzroczność decydentów. Objawia się to w niewyciąganiu wniosków z przeszłości i robieniu wszystkiego, aby poprawa – trwała lub nie – pojawiła się szybko. Zastosowane przez banki centralne środki luzowania największych gospodarek świata przybrały niespotykane jak dotąd rozmiary. Biorąc pod uwagę przeszłe doświadczenia i dorobek przedstawicieli austriackiej szkoły ekonomii, pozostaje nam patrzeć na bieżące działania banków centralnych ze sceptycyzmem. Warto jednak podejmować działania polegające na naciskaniu rządzących na przyjęcie perspektywy długoterminowej. Z drugiej strony warto oceniać sam kierunek działań przedstawicieli banków centralnych i polityków, a nie tylko stan gospodarki za ich kadencji. Przecież nie chodzi o to, żebyśmy żyli „od wyborów do wyborów”, przekupywani stale rosnącym długiem i tanim pieniądzem, bo okupione jest to ograniczaniem szans na rozwój i wzrost dobrobytu w długim terminie.

5 Online: http://www.reuters.com/article/2013/04/04/us-japan-economy-boj-idUSBRE93216U20130404. 6 Ludwig von Mises, Ludzkie działanie, Warszawa 2007. 7 Rothbard Murray, Wielki Kryzys w Ameryce, Kraków 2010.

12

Makroekonomia


Niezależny Bank Centralny – strażnik stabilności czy kula u nogi? W konsekwencji renesansu myśli monetarystów oraz ogromnych sukcesów gospodarczych Niemiec, w latach 90 niezależność Banków Centralnych stała się nową ewangelią, w imię której wszystkie gospodarki świata miały zostać zbawione. Dziś w większości państw istnieją zapisy konstytucyjne gwarantujące ową autonomię. Mimo to w obliczu kryzysów gospodarczych, nowych możliwości politycznych czy też w imię stabilizacji gospodarki „niezależność” porzuca się w ten lub inny sposób. Tak bardzo niezależny?

W czerwcu 2014 roku opinia publiczna została wzburzona tzw. aferą podsłuchową. Trzon skandalu stanowiły negocjacje prezesa NBP z ministrem spraw wewnętrznych, dotyczące potencjalnej ceny finansowania deficytu budżetowego przez NBP. Przed końcem 2011 roku Europejski Bank Centralny nabył obligacje państw zagrożonych niewypłacalnością za kwotę ponad 200 mld euro1. Takim działaniom najgłośniej sprzeciwiali się Niemcy, którzy argumentowali, że jest to złamanie zasad zapisanych w prawie unijnym, jak również niebezpieczne odejście od niemieckich tradycji bankowości centralnej. Tym samym EBC upodobnił się do FED-u, który takie działania stosuje regularnie od wielu lat. W konsekwencji FED posiada obecnie 2,4 bln dolarów2 z 17,7 bln długu USA3. Kwota ta jest o 64% większa aniżeli wartość zadłużenia w posiadaniu Chin, do niedawna największego udziałowca długu publicznego Stanów Zjednoczonych

Ograniczenia suwerenności

europoint stonybrook edu

W świetle przedstawionych faktów rodzi się pytanie o sens niezależności Banków Centralnych. Czy BC może być rzeczywiście autonomiczny od wpływu politycznych decydentów? Jeżeli tak, to w jakim zakresie? Nie ma przeszkód, by suwerenność stopniować. Może być pełna i obejmować ustalanie celu finalnego; gdy BC decyduje o wysokości stopy procentowej oraz wyznacza cel inflacyjny. Z taką formą mamy do czynienia np. w Polsce i w ECB. Niektóre państwa preferują mniejszy stopień autonomii. Bank of England posiada jedynie niezależność operacyjną. Cel inflacyjny jest narzucany przez rząd, BC jest odpowiedzialny za jego realizację, którą może osiągnąć poprzez sterowanie

wysokością stopy procentowej4. Jednak żadna z form nie gwarantuje niezależności politycznej4. Marek Belka, Janet Yellen, Mark Cerney, Zhou Xiaochuan – co ich łączy? Wszyscy są prezesami BC. Wszyscy zostali mianowani z ramienia rządu lub prezydenta. Wszyscy mają możliwość reelekcji. Nie są to odosobnione przypadki. Proces wyboru prezesów banków centralnych wygląda bardzo podobnie na całym świecie. Może on rodzić pokusę upolityczniania swoich decyzji na poczet przyszłych ustaleń lub w rewanżu za otrzymane korzyści. Przedstawiciele EBC wybierani są natomiast w wyborach, ich kadencja trwa aż 8 lat i nie mogą być wybrani po raz drugi. Jednak nawet ten organ ugiął się pod naciskami rządu wobec groźby niewypłacalności Grecji, Włoch czy Portugalii.

Konieczność czy ukłon w stronę tradycji?

Tu natrafiamy na kolejne pytanie. Czy w społeczeństwie demokratycznym powinno się przekładać niezależną politykę monetarną, a tym samym stabilność cen, niską stopę procentową i inflację, nad skuteczną politykę fiskalną stymulującą spadek bezrobocia? Czy BC rzeczywiście powinien być niezależny? Po kryzysie naftowym i wielkim powrocie monetarystów uważano, że jedynie autonomiczny bank centralny może zagwarantować uniezależnienie decyzji monetarnych od cykli politycznych, owocujące rozwojem długofalowym. Publikacje naukowe z lat 80. i 90. potwierdzały istotną, pozytywną zależność pomiędzy rozwojem i stabilnością gospodarczą a niezależnością banków centralnych (np. prace Thomasa Jordana5, Prakasha Loungani i Nathana Sheets6, Guya Debelle i Stanleya Fischera7). Badania prowadzone w ostatnim dziesięcioleciu podważają jednak komplementarność wyżej wymienionych.

1. Europejski Bank Centralny, Raport roczny 2011, Frankfurt am Mein 2012, s. 17. [online: http://www.ecb.europa.eu/pub/pdf/annrep/ar2011pl.pdf] 2. Dane z Federal Reserve Statistical Release, stan na 04.09.2014 [online: http://www.federalreserve.gov/release/h41/20140904/] 3. Dane ze strony http://www.usdebtclock.org/, stan na 08.09.2014. 4. Więcej o regulacjach dotyczących banków centralnych można znaleźć w Internecie; działalność Narodowego Banku Polskiego: http://www.nbp.pl/home.aspx?f=/o_nbp/o_nbp.html, niezależność operacyjna Bank of England: http://www.bankofengland.co.uk/about/Pages/default.aspx, niezależność BoE w zakresie ustalania celów: http://people.ucsc.edu/~walshc/MyPapers/cbi_newpalgrave.pdf. 5. Jordan Thomas, Disinflation costs, accelerating inflation gains, and central bank independence, „Weltwirtschaftliches Archiv”, 1997, nr 133, z. 1, s. 1-21 6. Loungani Prakash, Sheets Nathan, Central bank independence, inflation, and growth in transition economies, „Journal of Money, Credit and Banking”, 1997, nr 29, z. 3, s. 381-399. 7. Debelle Guy, Fischer Stanley, How independent should a central bank be?, Working Papers in Applied Economic Theory, Federal Reserve Bank of Boston, 1994, nr 38, s. 195-225.

Makroekonomia

13


Oliwia Komada Studentka 3 roku Informatyki i Ekonometrii na WNE UW i 2 roku Matematyki na MIM UW. Laureatka stypendium Rektora, Fundacji Edukacyjnej Przedsiębiorczości, Polsko – Amerykańskiej Fundacji Wolności i Jana Pawła II. Zapalona czytelniczka powieści Terrego Pratcheta, a zarazem chemik z zamiłowania. Inflacja, dług publiczny i kursy walutowe Stabilność gospodarczą państwa dobrze odzwierciedlają zmiany inflacji oraz kursów walutowych. Badania przeprowadzone przez Davida Bearce w 2008 roku8 wskazują na wysoką substytucyjność stabilizacji walutowej i niezależność banku centralnego. Podobne wnioski na temat inflacji płyną z badań holenderskich ekonomistów: Jeroena Klompa i Jakoba de Haan. W swojej pracy z 2010 roku9 wykazali brak istotnego statystycznie związku pomiędzy poziomem inflacji a niezawisłością banku centralnego. Analogicznych spostrzeżeń dostarczy nam analiza roli autonomii BC w stabilizacji gospodarki w obliczu kryzysu. Christopher Hartwell10 wskazuje na brak bezpośredniego związku pomiędzy stopniem niezależności BC a stabilizacją w czasie załamania gospodarczego z 2000 roku. Pomimo że kraje z autonomicznym bankiem centralnym charakteryzowały się niższą inflacją i stopą procentową, kluczowym czynnikiem okazała się nie tyle suwerenność, ile rodzaj podejmowanych decyzji.

Rząd dał, rząd wziął?

Niezależny BC jest skuteczny i prawidłowo wypełnia spoczywające nań zadania tylko wtedy, gdy autonomiczność umożliwia mu prowadzenie polityki niskiej inflacji. Zjawisko to można tłumaczyć fenomenem tzw. second-order commitment. Jeżeli rząd jest na tyle silny, by zapewnić niezależność BC, może równie dobrze pozwolić sobie na ignorowanie jego decyzji. Innymi słowy, poza ustawową gwarancją niezależności konieczna jest chęć rządu do respektowania postanowień banku centralnego. Badania przeprowadzone w 91 państwach o zróżnicowanym poziomie PKB, suwerenności BC i pozostałych czynnikach makroekonomicznych wykazały istotny ujemny efekt niezależności BC na inflację i wzrost zadłużenia państwa. Po wprowadzeniu zróżnicowania ze względu na poziom PKB, dobrze aproksymującego poziom

rozwoju i instytucji, okazało się, że jedynie w państwach o niskim dochodzie autonomiczny BC odgrywał kluczową rolę w kształtowaniu postkryzysowej gospodarki. Dla państw o dochodzie średnim lub wysokim istotniejszym elementem okazały się instytucje i otoczenie makroekonomiczne: otwartość gospodarki, dotychczasowy poziom zadłużenia państwa, mnożnik kreacji pieniądza czy kondycja sektora finansowego11.

Pozory mylą

W ciągu ostatnich 15 lat poziom długu publicznego wzrósł średnio o 40 punktów procentowych (z 70% do 110% w przypadku gospodarek rozwiniętych)12. Zmiana zadłużenia została na ogół pokryta przez banki centralne poszczególnych państw. Jest to ewidentne pogwałcenie fundamentalnego zakazu finansowania rządowego deficytu. Trudno o bardziej dobitny dowód fasadowości autonomii tych instytucji. W wielu przypadkach BC stanowi jedynie sztucznie odseparowaną rządową jednostkę. Pozory niezależności stanowią niebezpieczną monetę w nieczystych rozgrywkach cieni, jakich byliśmy świadkami w czerwcu tego roku w Polsce. Dodatkowo warto zauważyć, że potencjalne problemy związane z brakiem suwerenności BC (inflacja, silne m o .c ius wahania PKB, niestabilne kursy walutowe) nie n e .g rap znajdują potwierdzenia w badaniach empirycznych. Okazuje się, że rządy, które preferują niski poziom inflacji, mniejsze wahania PKB czy stabilizację makroekonomiczną, to również te, które wysoko cenią niezależność banku centralnego, więc związek pomiędzy nimi może być tylko pozorny. Zatem prawdopodobnie autonomia banków centralnych jest przez nas kwestią dalece przecenianą. Mityczny twór, nawet w swej niedoskonałej formie, częściej jedynie towarzyszy rozsądnym politykom, aniżeli jest determinantą ich zachowań.

8. Bearce David, Not complements, but substitutes: fixed exchange rate commitments, central bank independence, and external currency stability, „International Studies Quarterly”, 2008, nr 52, z. 4, s. 807-824. 9. Klomp Jeroen, de Haan Jakob, Inflation and central bank independence: a meta-regression analysis, „Journal of Economic Surveys”, nr 24, z. 4, s. 593-621.nr 7, z. 3, s. 51-69. 10. Hartwell Christopher, The role of central banks in maintaining monetary stability during the global financial crisis, „ Banks and Bank Systems”, 2012, 10. Wniosek ten pojawia się w artykule napisanym przez autora wspomnianych badań: Banki centralne: od niezależnych do niekontrolowanych?, „Rzeczpospolita”, 30.06.2014. [online: http://www.ekonomia.rp.pl/artykul/1121886.html?print=tak&p=0] 11. Jak wyżej 12. Dane pochodzą z artykułu Will central banks cancel government debts? na blogu Gavyna Daviesa. [online: http://blogs.ft.com/gavyndavies/2012/10/14/will-central-banks-cancel-government-debt/]

14

Makroekonomia


SPO – jak rynek reaguje na kolejne emisje akcji? Wraz z rozwojem ekonomicznym Polski wzrasta popularność rynku finansowego jako miejsca pozyskania kapitału oraz zawierania transakcji. Stanowi on bardzo istotną część gospodarki danego kraju. Niezwykle ważne wydaje się zagadnienie rynku kapitałowego, którego rozwój w ostatnich latach w znacznym stopniu wpłynął na popularność funkcjonowania warszawskiej Giełdy Papierów Wartościowych. Z zagadnieniem tym powiązany jest model rynkowy wpływający na kształtowanie się tendencji w pozyskiwaniu kapitału w danym kraju. Coraz częściej podmioty działające na polskim rynku decydują się na emisję akcji poprzez ofertę publiczną, co wpływa na popularność rynku kapitałowego.

Akcja (ang. stock lub share) jest papierem wartościowym o charakterze udziałowym, uznawanym za podstawowy instrument rynku kapitałowego. Stanowi ona część kapitału zakładowego, inkorporującego uprawnienia akcjonariusza. Wśród rodzajów akcji wyróżnia się akcje imienne, przypisane do określonego akcjonariusza, oraz na okaziciela, niewskazujące określonej osoby. Akcje są prawami majątkowymi, które mogą być zbyte przez podmiot będący ich posiadaczem. 1. Stan na 22 września 2014.

Jak pozyskać środki na prowadzoną działalność?

Finansowanie przedsiębiorstw poprzez emisję akcji często wykorzystuje się w celu pozyskania kapitału w Polsce. Jest to rodzaj finansowania zewnętrznego. Zgodnie z danymi opublikowanymi przez Giełdę Papierów Wartościowych w Warszawie, w roku 2012 na debiut giełdowy zdecydowało się 19 spółek, w roku 2013 – 23 spółki, natomiast dotychczas, w roku 2014 – 18 spółek1. Emisja akcji najczęściej stosowana jest w fazie wzrostu przedsiębiorstwa, kiedy posiada ono już pewne środki pieniężne, które chce reinwestować. Giełda stwarza korzystne warunki transakcji pozyskania funduszy, a ponadto pozwala dokonać wyceny posiadanego majątku. Spółka chcąca wejść na Giełdę zobligowana jest spełnić szereg wymagań, które jednocześnie poprawiają jej wizerunek i prestiż.

Przedsiębiorstwo będące spółką akcyjną może pozyskać środki finansowe poprzez wyemitowanie nowych akcji, a następnie ich sprzedaż. Uzyskany kapitał staje się własnością spółki, natomiast posiadacze akcji – jej współwłaścicielami. W procesie emisji akcji stroną krótką transakcji jest spółka akcyjna, natomiast stroną długą jest inwestor, który wraz z zakupem akcji danej spółki zostaje jej akcjonariuszem. Emisji akcji dokonuje się w ofercie prywatnej oraz publicznej. Oferta prywatna skierowana jest do ograniczonej grupy inwestorów, wiąże się z wyborem Autoryzowanego Doradcy oraz przygotowaniem dokumentu informacyjnego, który zatwierdzany jest przez powyższy podmiot. Emisja publiczna dotyczy szerszej grupy osób. Emitent wybiera Dom Maklerski oraz doradców odpowiedzialnych za

Rynki kapitałowe

15


Katarzyna okoń Absolwentka Inwestycje Kapitałowe i Strategie Finansowe Przedsiębiorstw oraz Finanse, Audyt, Podatki na UEP. Studiowała także w Sheffield Hallam University oraz London School of Economics and Political Science. Stypendystka Rektora UEP. Uczestniczka London Study Excursion 2014 oraz Warsaw Study Excursion 2014. Finalistka konkursu CFA Reaserch Challenge Poland. Obecnie studentka SGH w Warszawie. Interesuje się rynkiem kapitałowym, M&A, podatkami. Działa w SKN IK Profit od 2010 roku. przeprowadzenie oferty. Ponadto w tym rodzaju emisji wymagane jest przygotowanie prospektu emisyjnego lub memorandum informacyjnego. Dokumenty podlegają ocenie Komisji Nadzoru Finansowego. Emisja akcji może występować w fazie inwestycyjnej przedsiębiorstwa oraz w późniejszych fazach, jako kapitał uzupełniający.

W Polsce posiadanie i emisję akcji reguluje Kodeks Spółek Handlowych oraz Ustawy, z których najważniejszą stanowi Ustawa o ofercie publicznej i warunkach wprowadzania instrumentów finansowych do zorganizowanego obrotu oraz o spółkach publicznych. Powyższe akty prawne porządkują rynek kapitałowy w Polsce i wpływają na jego lepsze funkcjonowanie. Ich znajomość i przestrzeganie jest niezbędne do powodzenia procesu emisji. Ponadto warunkiem emisji akcji na GPW w Warszawie jest status spółki akcyjnej lub komandytowo-akcyjnej.

Kolejna emisja akcji jako szansa dla spółki na uzyskanie niezbędnego kapitału

Coraz więcej polskich spółek decyduje się na przeprowadzenie SPO (ang. Secondary Public Offering), czyli wtórnych ofert publicznych. W ciągu ostatniego roku na kolejną emisję zdecydowały się między innymi: BRE Bank, TVN czy GETIN. Spółka będąca już na giełdzie przeprowadza kolejną emisję, powiększając kapitał akcyjny, a tym samym kapitał własny. Uzyskane z niej środki finansowe przeznacza się na rozwój firmy. Często decyzja o wyemitowaniu kolejnych akcji wiąże się z kumulowaniem w portfelach inwestorów długoterminowych dużej liczby wyemitowanych akcji. Inwestorzy chętniej nabywają akcje spółek, które znają i w które

wcześniej inwestowali. Przejawia się to niską dostępnością akcji na rynku w wolnym obrocie, a także skutkuje zmniejszeniem ich płynności. W długim okresie bardzo ciężko jest wyeliminować powyższe zjawisko, dlatego w wielu przypadkach jedynym rozwiązaniem jest przystąpienie do kolejnej emisji akcji.

Kolejne emisje publiczne mogą dotyczyć: emisji z prawem poboru, które przyjmuje charakter papieru wartościowego notowanego na GPW, emisji powiązanej z połączeniem lub przejęciem, emisji kierowanej do pracowników spółki lub emisji przeznaczonej dla inwestorów strategicznych.

Proces SPO jest bardzo zbliżony do procesu IPO (ang. Initial Public Offering), czyli pierwszej emisji akcji, równoznacznej z debiutem giełdowym. Spółka uchwałą Walnego Zgromadzenia podejmuje decyzję o przeprowadzeniu kolejnej emisji akcji. Zobligowana jest do wyboru Domu Maklerskiego oraz sporządzenia prospektu emisyjnego. Po otrzymaniu zgody przez Komisję Nadzoru Finansowego oraz zatwierdzeniu niezbędnych dokumentów, spółka przeprowadza koleją emisję akcji. Decyzją Zarządu Giełdy akcje spółki zostają dopuszczone do obrotu.

Kształtowanie się reakcji inwestorów na pojawienie się informacji o kolejnej emisji akcji przez spółkę publiczną

W celu oceny reakcji inwestorów na kolejną emisję akcji przeprowadzono badanie2. Objęto nim 102 informacje o kolejnych emisjach akcji przez spółki publiczne na Giełdzie Papierów Wartościowych w Warszawie. Okres badania dotyczył przedziału od

1 stycznia 2012 do 1 marca 2014 roku. Z uwagi na wpływ innych zdarzeń występujących w tym okresie na rynku oraz oddziałujących na kształtowanie się stóp zwrotu, z badania wyeliminowano spółki, które dokonywały między innymi splitu akcji, ogłaszały wezwania do sprzedaży akcji, dokonywały emisji praw poboru czy informowały o wypłacie dywidendy. Za właściwe zdarzenie uznano informację o podwyższeniu kapitału spółki. Dane dotyczące dat zdarzeń oraz wartości kursów uzyskano z serwisu giełdowego www.gpwinfostrefa.pl. Badanie rozpoczęto od wyznaczenia dat zdarzeń mających wpływ na zmianę stóp zwrotu. W następnej kolejności dokonano przeglądu kształtowania się kursów akcji spółek w oknie zdarzenia oraz estymacji. Obliczono nadwyżkowe stopy zwrotu, skumulowane stopy zwrotu dla każdej ze spółek będącej przedmiotem badania w okresie okna zdarzenia. Następne obliczono wartość średnią skumulowanych stóp zwrotu, otrzymując w ten sposób przeciętną skumulowaną stopę zwrotu. Analizując powyższe wyniki badania, można zauważyć, że reakcja inwestorów występuje już w momencie informacji o zwołaniu Walnego Zgromadzenia wspólników spółki. Stopy zwrotu zaczynają rosnąć ok. 26 sesji giełdowych przed planowanym zdarzeniem, co nakłada się na wymagany okres zwołania Walnego Zgromadzenia. Ponadto część inwestorów może mieć dostęp do poufnych informacji o planowanej emisji akcji jeszcze przed terminem jej ogłoszenia. Inwestor decydując się na zakup akcji będących przedmiotem kolejnej emisji, powinien zrealizować swoje zyski zgodnie z pojawiającymi się na rynku sygnałami. Najlepszy moment ma miejsce jeszcze przed

2. Badanie zostało przeprowadzone przez autorkę na podstawie danych publikowanych na portalu internetowym GPW Infostrefa.

16

Rynki kapitałowe


Przeciętna skumulowana nadwyżkowa stopa zwrotu (ang. ACAR) w reakcji na informację o planowanej kolejnej emisji akcji 3,5% 3,0% 2,5% 2,0% 1,5% 1,0% 0,5% 0,0% -0,5%

-30 -28 -26 -24 -22 -20 -18 -16 -14 -12 -10 -8

-6

-4

-2

0

2

4

6

8

10

Sesje giełdowe w dniach Źródło: opracowanie własne.

planowanym terminem rejestracji przez Sąd podwyższenia kapitału oraz w pierwszych kilku dniach po jego ogłoszeniu, kiedy wartości kursu akcji są najwyższe. Badanie reakcji inwestorów na ogłoszenie informacji o planowanej emisji akcji prowadzi do wniosku, że istotne okazuje się wykorzystanie Giełdy Papierów Wartościowych w Warszawie jako źródła pozyskania kapitału, zarówno dla inwestorów indywidualnych, jak i instytucjonalnych. Znaczącą rolę odgrywają także regulacje prawne dotyczące rynku akcji oraz funkcjonowania giełdy, które widoczne są w zachowaniach inwestorów. Specyfika procesu emisji akcji w Polsce wskazuje na występowanie istotnych zdarzeń wpływających na kształtowanie się stóp zwrotu. Nie są one zauważane w przypadku badań przeprowadzanych na innych giełdach światowych (np. wymogi dotyczące terminów udostępniania informacji o planowanym Walnym Zgromadzeniu spółki).

Czy opłaca nam się inwestować? Obecnie rynek giełdowy w Polsce jest rynkiem dynamicznie rozwijającym się. Dlatego też z roku na rok wzrasta liczba inwestorów. Stworzono wiele mechanizmów oraz opracowano regulacje prawne, które pozwalają rynkowi rozwijać się efektywnie, a inwestorom umożliwiają dokonywanie inwestycji w sposób łatwy i bezpieczny. Rynek akcji stanowi szansę na pozyskanie kapitału, natomiast możliwość emisji akcji jest bardzo ważnym źródłem inwestycji dla wszystkich jego uczestników. W związku z powyższym, również znajomość reakcji inwestorów m. in. na ogłoszenie o kolejnych emisjach akcji może być przydatna przy doborze akcji do portfela inwestycyjnego. Myślę, że zaprezentowane w artykule wyniki badań mogą stanowić wskazówkę dotyczącą momentu wejścia oraz wyjścia z inwestycji.

Wydział Nauk Ekonomicznych zaprasza:

Samorząd Studentów WNE

Koło Naukowe Debaty Ekonomicznej

Koło Naukowe Strategii Gospodarczej

Dołącz do nas! Koło Naukowe Innowacji i Finansów

Koło Naukowe Ekonomii Instytucjonalnej


Start-up

– ryzyko, które przyciąga VC Wobec braku kapitału niezbędnego do startu, sam pomysł na własną działalność gospodarczą nie wystarczy. Młodzi przedsiębiorcy, wychodzący z założenia, że bankowy kredyt jest poza ich zasięgiem, nie zdają sobie sprawy, że istnieją inne możliwości sfinansowania nowych projektów biznesowych. Kiedy potencjalny biznesmen ma jedynie pomysł, potrzebuje kapitału na opracowanie wstępnego projektu przedsięwzięcia, zbudowanie prototypu wymyślonego produktu i przeprowadzenie pierwszych badań rynkowych. Następnie konieczne będzie studium wykonalności projektu, czyli ocena jego rentowności. Ogromnym wyzwaniem dla młodego przedsiębiorcy jest znalezienie optymalnego sposobu sfinansowania pomysłu, który nie wywrze negatywnego wpływu na sukces jego realizacji. W przypadku startupu, który dopiero ma wystartować z prowadzoną działalnością, najlepsze jest pozyskanie kapitału długoterminowego. Podstawową możliwością sfinansowania młodego przedsiębiorstwa jest zaciągnięcie kredytu bankowego. Jednak jest mało prawdopodobne, by udało się go pozyskać już na tak wczesnym etapie rozwoju biznesu. Gdy podmiot nie ma historii działalności, a jedynie plan, dla banku jest to zbyt ryzykowne.

Kapitał liczony nie tylko w pieniądzu

Dużo bardziej skomplikowanym mechanizmem jest sfinansowanie start-upu przez tzw. kapitał wysokiego ryzyka, nazywany także venture capital (VC). Finansowaniem typu VC nazywamy dostarczenie do spółki kapitału udziałowego lub właścicielskiego, przy podkreśleniu, że nie jest to finansowanie dłużne. Zatem firma otrzymując kapitał od funduszu, nie powiększa swoich zobowiązań. Jednocześnie inwestorzy nie są zainteresowani dywidendami. Chcą jedynie skapitalizować swój zysk dopiero przy wyjściu z inwestycji. W związku z tym, wyznacznikiem jest dla nich tzw. zysk kapitałowy (różnica pomiędzy ceną nabycia i sprzedaży udziałów bądź akcji). Same inwestycje kapitałów wysokiego

18

Rynki kapitałowe

ryzyka mają zazwyczaj jasny horyzont czasowy, najczęściej do 5-7 lat, a decyzja o ich podjęciu poprzedzona jest bardzo szczegółową analizą spółki lub modelu biznesowego. Anioły Biznesu (BA) tworzą nieformalny rynek funduszy venture capital. W Polsce nie ma wielu typowych funduszy zajmujących się kapitałem venture, a BA z reguły inwestują tylko w takie przedsięwzięcia. Skupiają się przede wszystkim na przekazywaniu kapitału zalążkowego, rzadko kiedy ich inwestycje to kapitał startu. Ich aktywność to typowe finansowanie bezpośrednie. Co prawda, skala działalności BA jest znacząco mniejsza niż funduszy, bowiem z reguły inwestycja Anioła Biznesu nie przekracza przedziału pomiędzy 50 tys. a 5 mln PLN, ale dla start-upu rzadko kiedy potrzebne są większe kwoty. BA do projektów podchodzą jak przedsiębiorcy, a nie instytucje finansowe, które najczęściej marginalizują potencjał biznesowych pomysłów, a ich wizja ogranicza się jedynie do analizy bieżącej rentowności, płynności i wypłacalności. Większe fundusze z reguły rezygnują z małych przedsięwzięć, głównieprzez koszty całej procedury kontrolnej i analitycznej, jakiej dokonują przed inwestycją. Wysokie nakłady na due dilligence są barierą dla małych przedsiębiorstw, których finansowanie ze względu na koszty stałe jest dla funduszy z reguły nieopłacalne. Business Angels są bardziej elastyczni co do formy przeznaczenia swojego kapitału, a ich działania pozbawione są niepotrzebnej w przypadku startupów biurokracji. Oczekują jednak równocześnie większej rocznej stopy zwrotu (ok. 40% wobec 20-30% oczekiwanej przez fundusz). Raczej nie interesuje ich podporządkowanie sobie start-upu. Wolą pełnić rolę doradczą niż zarządczą czy nadzorczą. Innym rodzajem pozyskania kapitału

właścicielskiego jest finansowanie typu corporate venturing. W tym przypadku inwestorami są zazwyczaj duże korporacje, które chcą uzyskać coś w rodzaju specyficznej korzyści dla całej swojej działalności, poprzez pozyskanie praw do rynkowych innowacji czy nowinek technicznych, które zapewnią możliwość uzyskania przewagi konkurencyjnej. Duża korporacja wydziela najczęściej odrębną strukturę, jednakże funkcjonującą w ramach jednej grupy – tworzy quasi-fundusz, który zajmuje się oferowaniem kapitału właścicielskiego innowacyjnym projektom z branży.

Venture capital vs. kredyt

Finansowanie typu venture capital ma dużo przewag nad innymi możliwościami pozyskiwania kapitału przez przedsiębiorców dopiero startujących na rynku. Nie obliguje ich do przedstawiania zabezpieczeń kredytu ani do spłat okresowych rat. Dzięki temu nie ma problemu regularnego pozbywania się gotówki, nawet w pierwszych miesiącach funkcjonowania, kiedy zazwyczaj problem z płynnością jest dość duży. Pozyskując kapitał podwyższonego ryzyka, nie trzeba skupiać się na krótkoterminowej płynności, ale można postawić na długofalowe cele, których realizacja w przyszłości znacznie podniesie wartość firmy. Inwestor jest gotowy narazić się na większe straty, niż miałoby to miejsce w przypadku banku rozważającego udzielenie kredytu. Start-up otrzymujący kapitał wysokiego ryzyka zyskuje zatem większe możliwości inwestowania, ale również i reorganizacji modelu pod kątem maksymalnego nastawienia na długookresowe kierunki aktywności. Równocześnie, poprzez wejście do spółki inwestora private equity, polepsza się relacja kapitału własnego do


Dominik Sikora Absolwent dziennikarstwa Uniwersytetu Warszawskiego. Student Finansów i Rachunkowości warszawskiej Szkoły Głównej Handlowej. Stypendysta Akademii Mediów Fundacji 2065 im. L. Pagi. Stażysta w Union Investment TFI. Interesuje się efektywnym podejmowaniem decyzji inwestycyjnych oraz wpływem komunikacji spółki na kształtowanie się wartości notowań giełdowych. ogólnego zadłużenia podmiotu, a więc w oczach banków taki start-up znacznie podwyższa zdolność kredytową. Sam inwestor venture capital jest partnerem biznesowym, przejmuje część ryzyka, wobec czego potem partycypuje w korzyściach. Dodatkowo jest bardzo cierpliwy i elastyczny w oczekiwaniu na perspektywę osiągnięcia zysków w przyszłości. Nie bez znaczenia są też know-how i nowoczesne sposoby zarządzania projektem, które mogą znacznie zwiększyć szansę na skuteczne zbudowanie przewagi konkurencyjnej. Kapitał podwyższonego ryzyka nie jest jednak pozbawiony słabych stron. Finansowanie corporate venturing wiąże się z tym, że fundusz, którym de facto steruje korporacja, włącza start-up w jej struktury, w dużym stopniu dostosowując do swoich celów, działalności i korzyści. W przypadku klasycznego venture capital, podporządkowanie start-upu jest znacznie mniejsze niż w corporate venturing, ale i tak inwestor jest partnerem biznesowym znacznie ograniczającym możliwość sprawowania nadzoru właścicielskiego pierwotnym pomysłodawcom. Dodatkowo, pomimo braku konieczności spłacania rat kredytu, jest to finansowanie znacznie droższe od długu bankowego (inwestorzy venture capital oczekują wzrostu 20-30% w skali rocznej wobec maksymalnego kosztu kredytu bankowego oscylującego w granicach 10%). Trzeba pamiętać, że z założenia banki nigdy nie pomagają spółce aktywnie budować wartości, są jedynie inwestorami pasywnymi. Biorąc kredyt bankowy, kredytobiorca zachowuje niemal pełną kontrolę właścicielską.

VC nie dla Polski

Dla funduszy PE Polska postrzegana jest niejako w dwóch wymiarach. Po

pierwsze, jako członek Unii Europejskiej, co czyni nasz kraj względnie wiarygodnym. Po drugie, jako kraj Europy Środkowo-Wschodniej, czyli jednego z tzw. emerging markets, co z punktu widzenia inwestora jest szansą na ponadprzeciętne zyski, jednak przy akceptacji relatywnie większego ryzyka. Średnia liczba zrealizowanych projektów wynosi trzy na sto zgłoszonych inicjatyw. Najważniejszą przyczyną tak dokładnej selekcji jest bardzo niska jakość merytoryczna przesyłanych biznesplanów czy teaserów. Problemem są nie tylko nierealistyczne założenia dotyczące późniejszego sukcesu rynkowego przedsięwzięcia oraz deklaracje zbyt wysokich potrzeb kapitałowych, ale również brak logicznej struktury, jaką powinien zawierać typowy biznesplan, szczegółowego opisu czy charakterystyki ekonomicznej. Barierą wydaje się również niedostateczna wiedza o tej dość specyficznej i mało popularnej formie finansowania. Kolejną kwestią jest nieufność młodych przedsiębiorców w stosunku do dawców kapitału i strach przed ich ewentualną ekspansywnością w decydowaniu o losach projektu. Utrata kontroli nie jest stuprocentowa, ale trzeba liczyć się z koniecznością oddania części władzy nad projektem, gdyż równocześnie przekazuje się część odpowiedzialności i ryzyka na wypadek porażki przedsięwzięcia. Indywidualni dawcy mają za mało kapitału, ale tak jak w przypadku funduszy, większy problem tkwi w merytorycznej słabości projektów, jakie trafiają do ich analizy. Większość polskich inwestorów to tzw. Virgin Angels, a więc donatorzy, którzy jeszcze nie dokonali żadnej inwestycji, a jedynie przypatrują się rynkowi w poszukiwaniu najlepszego dla siebie projektu. Takie poszukiwania mogą trwać bardzo długo, czasem kilka lat, a niekiedy po prostu kończą się fiaskiem. W krajach

zachodnich BA najczęściej wybierają kilka projektów, co pozwala im mieć większą pewność, że choćby część z planowanych przedsięwzięć okaże się dużym sukcesem. W przypadku inwestycji w jeden projekt niezbędne jest przekonanie, że projekt nie okaże się klapą, a o takie niezwykle trudno.

Gdzie te innowacje?

Fundusze same nie wytwarzają innowacji, a jedynie umożliwiają podmiotom dostęp do rynków zbytu. Na stopień innowacyjności danej branży wpływa dopiero rynkowy sukces młodego przedsiębiorstwa, które wyrosło na byciu nowatorskim i teraz inwestuje w kolejne innowacje. Amerykański przykład pokazuje, że każde 36 tys. USD inwestycji w formie venture capital przyniosło jedno miejsce pracy. Zazwyczaj wiąże się to z większą specjalizacją stanowiska, ale również z wyższym wynagrodzeniem dla pracownika zatrudnionego dzięki VC. Biorcy venture capital mieli dwukrotnie większe wartości sprzedaży, płacili trzykrotnie większe podatki i wydawali na B+R blisko trzy razy więcej środków (w przeliczeniu na 1000 USD posiadanych aktywów) niż konkurujące z nimi firmy, które nie korzystały z finansowania kapitałem wysokiego ryzyka.1 Finansowanie młodego projektu biznesowego kapitałem wysokiego ryzyka jest szansą dla przedsiębiorcy poszukującego aktywów na realizację swojego pomysłu. Jednak, żeby otrzymać takie środki od funduszu VC czy Anioła Biznesu, trzeba pokazać im atrakcyjny projekt z dużym potencjałem wzrostu i nowatorskim modelem biznesowym, który nie jest kopią rozwiązania stosowanego na rynku. Polacy natomiast zbyt wiele pomysłów powielają, rzadko stawiają na kreatywność, ale i rynkowy, ekonomiczny pragmatyzm.

1. M. Panfil, Fundusze private equity. Wpływ na wartość spółki, Warszawa 2005, s. 36-37.

Rynki kapitałowe

19


www.capitalsgroup.pl

NewConnect

– zmiany na lepsze

Powstały w połowie 2007 roku, działający przy GPW w Warszawie, rynek New Connect miał ułatwić mniejszym firmom pierwszy kontakt z rynkiem kapitałowym. Niższe niż na głównym parkiecie wymagania stawiane emitentom, mniejsze koszty emisji oraz niewielkie coroczne opłaty miały stanowić magnes dla młodych i dynamicznie rozwijających się przedsiębiorstw. Rzeczywiście – po siedmiu latach istnienia liczba spółek stawia NC na drugim miejscu w Europie wśród alternatywnych systemów obrotu. Zdecydowanie gorzej jest natomiast z jakością notowanych na nim podmiotów. Ostatnie działania warszawskiej GPW pokazują, że sytuacja ta niedługo może ulec zmianie. Nie ilość, a jakość

Rok 2014 zanosi się być pierwszym w historii rynku, kiedy spadnie liczba notowanych na nim spółek. Od stycznia do połowy listopada miało miejsce 19 debiutów, a wycofało się (lub zostało wycofanych) 30 podmiotów, z czego tylko 9 w wyniku przejścia na główny parkiet. Patrząc na dane historyczne, wypadałoby jednak napisać „aż” – jeszcze nigdy w ciągu jednego roku taka liczba firm nie pokusiła się o zmianę parkietu. Do pozostałych 21 spółek niedługo dołączą kolejne, niespełniające ogłoszonych nieco ponad rok temu wyższych wymagań w zakresie relacji inwestorskich1. Zmiany w proporcji debiutów i wycofań na przestrzeni ostatnich lat pokazuje wykres 1.

20

Rynki kapitałowe

Wykres 1. Dekompozycja zmiany liczby spółek w poszczególnych kwartałach (IV kw. 2008 - III kw. 2014) 30 +

25

20 15 10 5 0 -5 -10 -15

Wycofanie z rynku

Źródło: Opracowanie własne.

Przejście na główny parkiet

Powyższe dane ewidentnie wskazują na zmiany na lepsze. Po pierwsze, zaczynają być wyraźnie widoczne

Debiut

efekty funkcjonowania New Connect. Jego założeniem jest przecież pomoc spółkom w dalszym rozwoju


Wojciech Milewski Student Wydziału Nauk Ekonomicznych UW, związany z redakcją Magazynu od ponad 2 lat. Aktywny członek wielu organizacji studenckich i pozarządowych. Zawodowo związany z firmą Deloitte w obszarze zarządzania ryzykiem. i przedostaniu się na rynek regulowany. Wymóg wysokości kapitalizacji w celu debiutu na GPW (dla spółek przechodzących z New Connect wynoszący 12 milionów euro) spełnia obecnie dalsze 50 firm. Część z nich planuje podjąć taki krok w najbliższej przyszłości, jednak wciąż dla większości koszty byłby nieproporcjonalne w stosunku do osiągniętych korzyści. Po drugie, dzięki zabiegom giełdy, eliminowane są podmioty, które, ignorując wymogi dotyczące relacji inwestorskich, wpływają na gorsze postrzeganie rynku przez inwestorów. Niektóre z wycofanych firm nie prowadziły nawet realnej działalności operacyjnej.

Dodatkowo, wyższe wymagania stawiane notowanym spółkom ograniczają liczbę nowych emitentów. Dzięki temu na rynek wchodzą przedsiębiorstwa, których stadium działalności rzeczywiście wskazuje na słuszność

takiego kroku. Dotychczas nierzadko zdarzały się przypadki, gdy kurs spółki tuż po debiucie rozpoczynał marsz w dół, aby ostatecznie zatrzymać się w odległości zaledwie kilku groszy od zera. O skali problemu najlepiej świadczy fakt, że jeszcze rok temu ceny akcji 52% notowanych spółek nie przekraczały złotówki. Podejmowane przez Giełdę działania mają na celu pośrednio naprawę również tej sytuacji. Skutek nowych regulacji widoczny jest gołym okiem – liczba tzw. penny stocks od 5 kwartałów powoli, acz systematycznie spada (obecnie 204 spółki).

Kapitalizacja rynku wynosi obecnie ponad 9,4 miliardów złotych, choć w poprzednich latach przekraczała już 11 miliardów (dla porównania kapitalizacja rynku głównego to ok. 880 miliardów złotych). Złączonemu w jedno rynkowi NC dawałoby to miejsce na początku drugiej dziesiątki wśród firm WIG20. Błędne byłoby jednak przeko-

nanie, że obecny poziom kapitalizacji związany jest z giełdowymi czystkami. W ciągu ostatnich dwóch lat kapitalizacja spółek, które przeszły na parkiet główny, stanowiła ponad 90% kapitalizacji wszystkich wycofanych podmiotów, mimo że ilościowo było to zaledwie 27%2. Dekompozycja zmian w kapitalizacji rynku przedstawiona jest na wykresie 2.

Giełda podnosi poprzeczkę

Liberalny model rynku, na który można było wejść tanim kosztem i jeszcze tańszym się utrzymać, nie sprawdził się. Od początku roku 2012 Giełda zauważa problem znacznych uchybień w zakresie traktowania inwestorów przez spółki z rynku NewConnect. W ramach działań naprawczych zaproponowane zostały stopniowe zmiany regulacyjne. Największy ich pakiet wszedł w życie w 2013 roku. Wprowadzone zmiany zawierały zarówno

Wykres 2. Dekompozycja zmiany kapitalizacji rynku w poszczególnych kwartałach (IV kw. 2008 - III kw. 2014)

mln PLN 2500

2000 1500 1000 500 0 -500 -1000 -1500

Zmiana wartości spółek notowanych w poprzednim kwartale Emisje spółek wchodzących na giełdę Spółki całkowicie wycofane z giełdy Przejście na parkiet główny Łączna zmiana kapitalizacji Źródło: Opracowanie własne na podstawie danych ze strony www.newconnect.pl.

Rynki kapitałowe

21


całkowicie nowe przepisy, jak też precyzowały czy zaostrzały te już istniejące. Dotykają one przede wszystkim firm, które lekceważąco podchodzą do obowiązków wynikających z uczestnictwa w rynku kapitałowym. Zdrowe i wiarygodne firmy praktycznie ich nie odczuwają.

Wprowadzono dodatkowe wymagania wobec debiutujących firm.3 Narzucono obowiązek przedstawienia zbadanego przez biegłego rewidenta sprawozdania finansowego za ubiegły rok obrotowy, co ma być gwarantem rzeczywistej działalności operacyjnej emitenta. Ustalono także wymóg kapitału własnego spółki na poziomie min. 500 tysięcy złotych oraz odpowiednio dużego stopnia rozproszenia akcjonariatu (free float). Ma to zapobiec sytuacjom, kiedy praktycznie wszystkie akcje w momencie emisji skupione są w rękach kilku powiązanych z firmą osób. Dodatkowo wydłużony został okres umowy z autoryzowanym doradcą, jaką zawiera emitent przed wejściem na rynek. Autoryzowany doradca pomaga spółce w sporządzeniu dokumentu wprowadzającego na rynek, wspiera go w zakresie wypełniania obowiązków informacyjnych oraz zapewnia doradztwo dotyczące funkcjonowania rynku i relacji inwestorskich. Początkowo przepisy wymuszały konieczność posiadania takiego wsparcia przez pierwszy rok od dnia debiutu, obecnie są to trzy lata (choć giełda ma możliwość zwolnienia z tego obowiązku po upływie roku). Opisane wyżej zmiany mają podnieść poprzeczkę wejścia na rynek, tak aby pokonywały ją jedynie przedsiębiorstwa, które rzeczywiście wniosą na NC nową wartość. Wprowadzono jednak również zmiany, które dotyczą spółek już notowanych. Od III kwartału 2013 roku raport kwartalny powinien zawierać skrócone sprawozdanie finansowe oraz informacje dokładnie opisujące czynniki i zdarze-

nia, które miały wpływ na osiągnięte wyniki finansowe. W szczególności podwyższono wymagania wobec jakości informacji dotyczących zdarzeń o nietypowym charakterze. Raporty te będą także zawierać informacje o stanie zatrudnienia oraz odniesienie do stopnia realizacji planowanych działań i inwestycji, o ile wspominał o takich dokument informacyjny. GPW nie zapomina o rozliczaniu spółek ze stawianych przed nimi zadaniami. Wzrostowi do 50 tysięcy złotych uległa maksymalna kara, jaką zarząd giełdy może nałożyć na firmę za niewywiązywanie się ze swoich obowiązków. Od roku właściwie w każdym kwartale można przeczytać o idących w setki tysięcy złotych karach dla opieszałych emitentów ignorujących ustawowe terminy publikacji raportów. Ci bardziej oporni otrzymują ultimatum, którego niespełnienie skutkuje zawieszeniem notowań, a następnie wykluczeniem z obrotu. To właśnie w ten sposób z rynkiem pożegnało się w 2014 roku kilkanaście spółek.

Oddzielić ziarna od plew

Rynek kapitałowy do sprawnego funkcjonowania potrzebuje zarówno zainteresowania ze strony podmiotów chcących pozyskać finansowanie, jak i inwestorów. New Connect ostatnimi laty raczej nie zyskiwał sobie zbytniej przychylności tych drugich. Znaczna cześć spółek nie przedstawia na bieżąco sytuacji w jakiej się znajduje, dając tym samym ogromne pole do nadużyć. Dużym problemem jest również płynność walorów. Przyczyną jest nie tylko niewielka kapitalizacja, lecz także niski free float, często nieprzekraczający 10%. Handel akcjami takich spółek jest raczej symboliczny, natomiast ułatwione zadanie mają oszuści. Najgłośniejszym przypadkiem manipulacji kursem były notowania spółki Elkop Energy w okresie letnim w roku 2012. Obracając jedynie 101 ak-

cjami, grupie inwestorów udało się wywindować kurs słabo prosperującej firmy z 777 na 15 700 złotych w zaledwie 45 giełdowych sesji4. Ostatecznie sprawą zajęła się KNF i policja.

Aby wskazać wyróżniające się podmioty, które mogą stanowić atrakcyjną inwestycję, na rynku funkcjonuje segment NCLead. Zakwalifikowane do niego są jedynie te przedsiębiorstwa, które spełniają określone wymogi w zakresie kapitalizacji, free floatu, płynności, ceny akcji i jej zmienności oraz relacji inwestorskich. Na ten moment jest to 31 spółek. To właśnie w te spółki celują agresywne fundusze inwestycyjne, licząc na wysoką stopę wzrostu i względne bezpieczeństwo inwestycji. Na drugim biegunie znajduje się 180 spółek zakwalifikowanych do segmentów rynku SHLR(Super High Liquidity Risk) oraz HLR (High Liquidity Risk).Przynależność do nich wskazuje na ograniczoną płynność danych walorów i ostrzega inwestorów przed potencjalnymi problemami związanymi z ich kupnem i sprzedażą. Spółki te nie wchodzą także do indeksu ogólnego rynku NCIndex, dzięki czemu jest on chroniony przed wpływem dużej zmienności walorów.

Re-Connect

Istnienie NewConnect niewątpliwie przyczyniło się do zainteresowania rynkiem kapitałowym wśród podmiotów, które wcześniej nie mogły sobie pozwolić na tę formę finansowania. W ciągu kilku ostatnich lat większość stanowiły jednak negatywne czy ironiczne opinie na temat firm na nim notowanych. Kroki podjęte przez GPW, zmierzające do poprawy jakości relacji spółek z inwestorami, mają na celu zmienić ten obraz. Wszystko wskazuje na to, że działania rzeczywiście przynoszą pożądany efekt, a co za tym idzie, wkrótce inwestorzy znów mogą zacząć patrzeć na rynek bardziej przychylnym okiem.

1. Postawione kilku spółkom ultimatum dotyczące publikacji zaległych raportów wygasło 14 listopada – po zamknięciu numeru. 2. Opracowanie własne na podstawie danych ze strony www.newconnect.pl. 3. Pełna lista wymagań znajduje się w Regulaminie Alternatywnego systemu Obrotu [online: www.newconnect.pl/pub/regulacje_ prawne/Regulamin_ASO_UTP.pdf] 4. Więcej o szczegółach sprawy w komunikacie KNF [online: www.knf.gov.pl/Images/Elkop_Energy_tcm75-32430.pdf]

22

Rynki kapitałowe


Quantitative Finance Fundacja Rozwoju Zawodowego Rocket science in finance

Atrakcyjne, płatne oferty staży i praktyk! Cykle spotkań z praktykami rynku Knowledge team Projekt L(a)unch your career Celem Fundacji jest wspieranie rozwoju rynku quantitative finance w Polsce oraz zwiększanie świadomości tej branży wśród studentów. Budujemy współpracę pomiędzy najbardziej innowacyjnymi pracodawcami w Polsce, poszukującymi osób kształcących się w quantitative finance oraz studentami i absolwentami, których marzeniem jest kariera w tej dziedzinie..

i!

z nam m e z cji ra a d n u aj w F

Dział

lub

taj z s y z r Ko

tów! k e j o h pr c y z s na

Zapraszamy!

Kontakt

Fundacja Rozwoju Zawodowego “Quantitative Finance” www.quantitativefinance.org.pl/

fundacja@quantitativefinance.org.pl Szukaj nas ro wniez na LinkedIn/Facebook


livinglocalblog.wordpress.com

Embargo na polskie jabłka, czyli koszmar sadowników Produkcja wielkości 3,2 mln ton. Lata 2005-2007 i 2014. 125 mln € od Komisji Europejskiej. „Polskie jabłka wolności” i akcja „Jedz jabłka…”. Co łączy te wszystkie hasła? Rosyjskie embargo na niektóre polskie owoce i warzywa, w tym właśnie jabłka. Aktualne obowiązuje od 1 sierpnia bieżącego roku jako odpowiedź strony rosyjskiej na unijny zakaz kupowania rosyjskich obligacji, sprzedaży broni oraz technologii do wydobycia ropy z niekonwencjonalnych złóż Federacji Rosyjskiej. Czemu embargo jest tak istotne?

Jak podaje Ministerstwo Rolnictwa, w sezonie 2012/2013 w Polsce produkcja jabłek sięgnęła 3,2 mln ton, co według międzynarodowych statystyk oznacza 4. miejsce na świecie. Co jednak bardziej istotne w kontekście rosyjskiego embarga, w ubiegłym sezonie Polska była największym eksporterem jabłek, wyprzedzając nawet Chiny, które są wiodącym producentem na świecie. Eksport sięgnął, co do wielkości, około 1/3 produkcji – 1,2 mln ton, a jego wartość szacuje się na około 438 mln €. Rosja była głównym odbiorcą polskich jabłek – tam trafiało około 56% polskiego eksportu. Jej rola w polskim przemyśle sadowniczym jest ogromna, co potwierdza Ministerstwo Rolnictwa, poświęcając zagadnieniom związanym z eksportem jabłek do tego kraju oddzielną broszurę. Fakt, że drugi co do wielkości importer polskich jabłek, Białoruś, przyjmuje zaledwie 12%, dodatkowo podkreśla rolę, jaką odgrywa w tym sektorze Rosja.

Embargo jako cios w polskich sadowników czy w rosyjskiego konsumenta?

Władze Federacji Rosyjskiej zdecydowały, że jako odpowiedź na wcześniejsze sankcje UE i USA, od pierwszych dni sierpnia wprowadzają zakaz handlu mięsem, drobiem, warzywami, owocami, rybami, mlekiem i nabiałem z państwami UE, USA, Australią, Kanadą i Norwegią. Od 1 sierpnia embargo objęło

24

Gospodarka

także niektóre polskie owoce. Warto podkreślić, że takie narzędzie nacisku jest często stosowane przez Moskwę, na co może wskazywać ok. 1,5 tys. tego typu zakazów wprowadzonych w zeszłym roku na wszelkie produkty spożywcze importowane do Rosji. Polscy sadownicy musieli się już zmierzyć z podobną sytuacją w latach 2005-2007, kiedy ich jabłka także były objęte rosyjskim embargiem. Przykład tego zakazu sprzed prawie 10 lat pokazuje, że producenci starają się obejść prawo, sprzedając jabłka do Rosji przez pośredników w krajach, które nie zostały objęte zakazem. Sięgając do statystyk, w roku 2005 eksport jabłek na Ukrainę wynosił 500 ton, a już w 2006 roku – 67 tys. ton. Wśród tego typu krajów pośredniczących wymienia się głównie Białoruś, Serbię, Turcję, a nawet Chiny. Obecna sytuacja oznacza dla polskich sadowników konieczność obniżenia ceny, co może prowadzić do strat i bankructwa niektórych przedsiębiorców. Ponadto producenci są zmuszeni do szukania nowych odbiorców. Wśród potencjalnych klientów znajdują się Indie, Malezja, Wietnam, kraje afrykańskie, kraje Bliskiego Wschodu czy USA. Przeszkodą w handlu z tymi państwami jest jednak długi czas transportu, co może dla nich oznaczać trudności w uzyskaniu pozwoleń na import produktów spożywczych ze względów fitosanitarnych. Wśród przedstawicieli branży panuje przekonanie, że embargo wpłynie negatywnie na handel jabłkami w Polsce i spowoduje jego spadek o 15-20


michał sobierański Student II roku Uniwersytetu Warszawskiego na Wydziale Nauk Ekonomicznych na kierunku Informatyka i Ekonometria. Aktywny członek Studenckiego Koła Naukowego Negocjator.

procent. Niektóre nieoficjalne źródła podają nawet, że całość embarga na polskie warzywa i owoce może kosztować rolników 500 mln €. Wprowadzenie embarga odbija się także na rosyjskich konsumentach. Do tej pory polskie jabłka cieszyły się uznaniem wśród Rosjan i były określane jako smaczne i najwyższej jakości. Według niektórych szacunków w poprzednim sezonie ponad 1/2 jabłek importowanych do Rosji pochodziła z Polski. Embargo implikuje wzrost cen jabłek sprzedawanych w rosyjskich sklepach (w niektórych miejscach, jak np. w Obwodzie Kaliningradzkim nawet o 50%) i konieczność poszukiwania nowych dostawców. Szef agencji celnej Galax, Mariusz Mosiej, w jednej ze swoich wypowiedzi podkreśla fakt, że rosyjskie firmy mogą jednak dalej kupować polskie jabłka przez pośredników, a zostawienie tego typu „furtki” przez rosyjskie władze jest specjalnym działaniem przeciw wzrostowi cen. Inni eksperci dodają, że przy dłuższym obowiązywaniu embarga miejsce polskich jabłek na rosyjskim rynku zaczną zajmować chińskie.

125 milionów od Komisji Europejskiej, na początek, dla unijnych rolników

Komisja Europejska przyjęła rozporządzenie o przyznaniu 125 mln € pomocy dla producentów owoców i warzyw dotkniętych rosyjskim embargiem. Taka decyzja daje polskim rolnikom i producentom możliwość ubiegania się o rekompensatę za wycofanie części zbiorów z rynku. Celem tego typu działania jest zapobieganie spadkowi cen. Kwota ta jest podzielona na dwie części – 82 mln € są przeznaczone dla sektora producentów jabłek i gruszek, a 43 mln € dla pozostałych. Środki mają być rozdysponowywane od 18 sierpnia z mocą wsteczną. Minister rolnictwa, Marek Sawicki, określił tę kwotę jako „daleko niewystarczającą” nie tylko dla europejskich, ale nawet dla polskich producentów1. Obecnie wciąż trwają kontrole zgłoszonych wniosków i sadów, więc pomoc nie została jeszcze wypłacona. Od początku października ruszył zaś nowy program UE, dotyczący rekompensat za straty poniesione w wyniku rosyjskiego embarga. Całkowita wartość wypłat wyniesie 165 mln €, jednak kwota ta jest traktowana jako kontynuacja wcześniejszej pomocy (polskie wnioski do pierwszej transzy rekompen1. Polska zgłosiła do KE zapotrzebowanie na 176 mln euro.

saty obejmowały około 87% całej kwoty przeznaczonej dla 28 krajów), więc część, która nam przypadnie, będzie pomniejszona o wcześniej zgłoszone wnioski. Zgodnie z tym mechanizmem Polska będzie mogła zgłosić do programu tylko 18,75 tys. ton jabłek.

„Freedom Apples” i „Jedz jabłka, zrób na złość…”

Rozwiązaniem problemu sadowników może stać się otwarcie rynku amerykańskiego na polskie jabłka. Do tej pory, jako jedyny kraj UE, jabłka do USA eksportowały Włochy. Polska mogła sprzedawać do Stanów Zjednoczonych tylko paprykę i brokuły. Amerykański organ rządowy odpowiedzialny za kontrolę żywności importowanej – US Food & Drug Administration (FDA) – tłumaczy duże ograniczenia w dostępie do rynku powodami fitosanitarnymi, aczkolwiek oczywistym, nieoficjalnym powodem jest też chęć ochrony swoich producentów. W kontekście otwarcia rynku amerykańskiego na polskie owoce, warto wspomnieć także o negocjowanej umowie o wolnym handlu między USA a UE, która otworzyłaby dla sadowników nowy rynek zbytu, ale stworzyłaby także większą konkurencję i mogłaby doprowadzić do spadku cen. W sprawę otwarcia rynku zaangażował się polski ambasador w Waszyngtonie, Ryszard Schnepf, który stara się stworzyć kampanię na rzecz realizacji właśnie tego celu. W swoim krótkim przemówieniu określa polski produkt jako „jabłka wolności”. Hasło przyjęło się i było powszechnie cytowane przez media. Warto też wspomnieć o popularnej akcji w Polsce, zapoczątkowanej przez Puls Biznesu, pt. „Jedz jabłka, pij cydr”, później zmienianej przez inne gazety na „Jedz jabłka, zrób na złość Putinowi”. Mimo że akcja poprzez portale społecznościowe i media, a także udział aktorów i celebrytów, rozpowszechniła się dość szybko i zyskała międzynarodowy charakter, to pierwsze badania pokazują, że nie przekłada się na znaczący wzrost sprzedaży jabłek i produktów pochodnych w Polsce. Istnieje jednak szansa, że tendencję do wzrostu sprzedaży będzie można zaobserwować dopiero w dłuższym okresie. Aby się tak stało, powinniśmy jednak przeznaczyć kilka złotych i kupić parę kilogramów tych przepysznych, soczystych owoców.

pl.gde-fon.com

Gospodarka

25


Prawdy i mity o Solvency II Od jakiegoś czasu termin ten jest coraz częściej poruszaną kwestią w każdym zakładzie ubezpieczeń. Pracując w jednym z większych towarzystw w Polsce, słyszałem o nim prawie każdego dnia i zastanawiałem się, czym jest ten mityczny twór w praktyce. Przeciętny obywatel naszego państwa prawdopodobnie nie wie, co kryje się za tym enigmatycznym pojęciem. Jednakże nawet znajomość znaczenia owego terminu nie jest jednoznaczna z dogłębną wiedzą o zagadnieniu. Co więcej, nowe regulacje UE przysparzają problemów także „branżowcom”. Co więc właściwie znaczy Solvency II? Jakie skutki dla ubezpieczycieli będzie mieć tak pieczołowicie przygotowywana przez lata dyrektywa? A przede wszystkim – co będzie oznaczać dla ubezpieczonych? Solvency II (ang. Wypłacalność II), jest największą i najbardziej znaczącą zmianą regulacyjną rynku ubezpieczeń od ponad 30 lat, z którą zmierzyć się musi europejska branża ubezpieczeniowa. Zmiany, które wprowadza dyrektywa, mają na celu zapewnienie ochrony klientom towarzystw ubezpieczeniowych przed konsekwencjami strat, których kapitały własne ubezpieczycieli nie byłyby w stanie pokryć. Solvency II zainspirowane zostało uzależnieniem wymogów kapitałowych zakładów od ryzyka, które podejmują. Planowo wejdzie ona w życie 1 stycznia 2016 roku1 we wszystkich krajach Unii Europejskiej i wprowadzi nowe, jednolite wymogi kapitałowe i standardy zarządzania ryzykiem względem europejskich ubezpieczycieli. Całość systemu opiera się na trzech równoważnych filarach: - Filar 1 – porusza zagadnienia wymagań ilościowych - Filar 2 – mówi o standardach zarządzania ryzykiem i wewnętrznej

ocenie ryzyka działalności ubezpieczycieli, a także regulacjach, które dotyczą działalności organów nadzoru

Za przykład wymogu ilościowego może posłużyć spełnienie wymogów nazwanych MCR (minimalny wymóg kapitałowy) czy też SCR (dodat- Filar 3 – opiera się na wymogach kowy wymóg kapitałowy). Pierwsza w zakresie ujawnień i poziomu z wymienionych restrykcji dotyczy akszczegółowości raportowania, w tym tywów ubezpieczycieli, które muszą informacji, które mają być dostępne przekraczać jego zobowiązania. Kiedy publicznie. relacja zostaje zaburzona, jest to sygnał Rys. 1. Diagram struktury wymogów zawartych w dyrektywie Solvency II

Źródło: Analitica, Solvency II, http://www.analitica.si/solutions/solvency-ii/?lang=en.

1. Oficjalne informacje na temat dyrektywy Solvency II podaje European Insurance and Occupational Pensions Authority (EIOPA). [online: https://eiopa.europa.eu/en/activities/insurance/solvency-ii/index.html]

26

Ubezpieczenia


Daniel Traczewski Student I roku studiów magisterskich na kierunku Informatyka i Ekonometria na Wydziale Nauk Ekonomicznych Uniwersytetu Warszawskiego. Laureat stypendium Rektora UW w poprzednich trzech latach, stypendium Fundacji Edukacyjnej Przedsiębiorczości w Łodzi i stypendium m. st. Warszawy. Interesuje się ubezpieczeniami, a w szczególności matematyką aktuarialną, z czym wiąże swoją karierę zawodową. dla organu nadzoru, aby przedsięwziąć zdecydowane kroki, ponieważ pojawia się realne zagrożenie upadłością. Zakłady ubezpieczeń, które spełniają dodatkowy wymóg kapitałowy, także zachowują przewagę aktywów nad zobowiązaniami, lecz jest to na tyle

tyki informacji dla akcjonariuszy i informacji publicznej, świadomość czynników własnej zdolności do konkurencji czy ryzyka reputacji. Cel, który temu przyświeca, to określenie przez każdego ubezpieczyciela stanowiących realne zagrożenie ryzyk,

Rys. 2. Kalendarium prac nad Solvency II w ostatnim okresie wdrożeniowym

Źródło: EIOPA, Introducing Solvency II, https://eiopa.europa.eu/en/activities/insurance/solvency-ii/index.html.

bezpieczny poziom, że bezpieczeństwu finansowemu ich działalności nic nie zagraża.

Kolejną, dosyć interesującą, kwestią są wspominane już „ujawnienia”. Jest to szereg regulacji, które mają na celu zwiększyć poziom przejrzystości działalności operacyjnej towarzystw ubezpieczeniowych. Należą do nich ścisłe wymagania dotyczące spójnej polityki zarządzania ryzykiem, poli-

a także sformułowanie precyzyjnej strategii zarządzania nimi.

Kości zostały rzucone

Same regulacje wypracowywane były przez lata. UE zatwierdziła je ostatecznie w roku 20093, po ponad 13 latach prac. Porozumienie dotyczące wymogów kapitałowych zostało osiągnięte dopiero w listopadzie 2013 roku, kiedy to państwa członkowskie osiągnęły

kompromis zadowalający także ubezpieczycieli, obawiających się rygoru wymagań.2 Zakłady ubezpieczeń już zdążyły wydać miliony na przygotowania, ale przed nimi wciąż dużo wyrzeczeń i wydatków. Nazwa dyrektywy jest dokładnym odpowiednikiem jej ekonomicznego sensu – wymogu posiadania przez towarzystwa ubezpieczeniowe wystarczających zasobów kapitałowych, które powinny zapewniać równowagę z ponoszonym ryzykiem, tak, aby zapewnić klientom bezpieczeństwo finansowe. Sama idea regulacji opiera się na ścisłym uzależnieniu wielkości zasobów kapitałów własnych od wielkości ryzyka podejmowanego przez ubezpieczycieli. Mówiąc prościej: z prawdopodobieństwem bliskim jedności (poziom ufności równy 99,5% w horyzoncie jednego roku4), kapitału ma wystarczyć na pokrycie ryzyka generowanego w rzeczywistości. Zmiany obejmą kilka obszarów działalności operacyjnej. Margines wypłacalności5 będzie wyznaczany w odmienny sposób, wymogi kapitałowe dotyczyć będą osobno ryzyka ubezpieczeniowego, finansowego i operacyjnego. Aktywa będące w posiadaniu firm ubezpieczeniowych mają podlegać wycenie na podstawie ich rzeczywistej wartości rynkowej. Natomiast zobowiązania wyceniane będą na podstawie kwot, będących odzwierciedleniem faktycznych warunków rynkowych, za które towarzystwa ubezpieczeniowe mogą zostać wymienione bądź rozliczone. Kapitał wypłacalności, obecnie wyliczany

2. EIOPA, Solvency II. [online: https://eiopa.europa.eu/en/activities/insurance/solvency-ii/index.html] 3. Bank of England, News on Solvency II, grudzień 2013. [online: http://www.bankofengland.co.uk/pra/ 4. Montalvo Carlos, Executive Director of EIOPA, Solvency II: a revolution in risk culture?, 18.09.2014. Wypowiedź została opublikowana na blogu Isaaca Alfona „Crescendo Risk Management blog”. [online: http://crescendo-erm.blogspot.co.uk/2014/09/guest-post-objective-of-risk-management_18.html] 5. Określona przepisami prawa wielkość środków własnych ubezpieczyciela, która nie może być niższa od minimalnej wysokości kapitału gwarancyjnego.

Ubezpieczenia

27


metodą ex post na podstawie danych ze sprawozdań finansowych odnoszących się do zamkniętych okresów operacyjnych, będzie kalkulowany ex ante – w oparciu o oczekiwane przyszłe wyniki firmy. Organ nadzorczy ma dodatkowo bardziej rygorystycznie niż dotychczas monitorować techniki zarządzania ryzykiem przez ubezpieczycieli. Patrząc więc na cały nakreślony obraz, zmienia to sposób postrzegania rynku ubezpieczeniowego, co dla „branżowców” jest szczególnie wymagającym wyzwaniem.

twa będą musiały poświęcać ryzykom rynkowym, których wcześniej nie wliczano do rachunku. Potwierdza to m.in. prezes grupy UNIQA Polska, Andrzej Jarczyk, który stwierdza, że w nowej rzeczywistości antycypacji podlegać będą nie tylko czynniki zawarte w księgach rachunkowych firm, ale przede wszystkim zachowanie otoczenia rynkowego6. Jednakże medal, jak zwykle, ma dwie strony. Nowe restrykcje wygenerują olbrzymie koszty wdrożenia oraz bieżącej

Rys. 3. Uśredniony stopień przygotowania europejskich firm ubezpieczeniowych do spełnienia wymogów poszczególnych filarów Solvency II

z raportu8, około 80% europejskich towarzystw ubezpieczeniowych zakłada, że wymogi wynikające z Solvency II zostaną przez nich spełnione do stycznia 2016 roku. Z drugiej strony, z badania wynika także, że nadal jest sporo do nadrobienia w każdym z trzech obszarów zawartych w dyrektywie. Największą pewność i optymistyczne nastawienie można dostrzec w przypadku takich państw jak Wielka Brytania, Holandia i kraje skandynawskie. Najmniejszy optymizm panuje wśród Greków, Francuzów i Niemców. Polscy ubezpieczyciele wypadają całkiem dobrze na tle innych krajów środkowoi wschodnioeuropejskich, jednak mniej podmiotów w Polsce niż w Europie ma w planach pełną gotowość do spełnienia wymogów już w tym roku.

Potencjalne trudności

Źródło: EY, European Solvency II Survey 2014, http://www.ey.com/Publication/vwLUAssets/EY_European_Solvency_II_Survey_2014/$FILE/EY_European_Solvency_II_ Survey_2014_07_April_2014.pdf.

Solvency II ma za zadanie podnieść zaufanie szeroko pojętego społeczeństwa do instytucji związanych z finansami. W przypadku sektora ubezpieczeń, oznacza pewność wypłaty należnego odszkodowania czy też zagwarantowanego przez umowę świadczenia, wraz ze wskazaną w niej kwotą. Taką pewność uzyskujemy jedynie wtedy, gdy zakład ubezpieczeń posiada dodatkowe aktywa, które nie podlegają obciążeniu zobowiązaniami. Dla przykładu: jeżeli Polskę doświadczy wielka powódź, ubezpieczyciele będą dysponować wolnymi środkami na pokrycie wypłat odszkodowań.

Zmiana reguł gry

Wdrożenie dyrektywy będzie miało znaczący wpływ na wyniki ubezpieczycieli. Wiele uwagi towarzys-

działalności, m.in. w postaci wyceny strony aktywów i zobowiązań, kalkulacji wymogu kapitałowego, systemu raportowania do organów nadzoru, etc. Nie są znane dokładne dane odnoszące się do kosztów ponoszonych przez polskie towarzystwa ubezpieczeń, natomiast w Wielkiej Brytanii szacuje się, że wyniosą ponad 3 mld funtów7. Największe firmy na europejskim rynku, jak np. Allianz, Aviva, Prudential, Generali czy też AXA, zdążyły już wydać na przygotowanie wdrożeń miliony euro. Jednakże drugą kwestią jest to, czy za wydatkami idzie efektywność ich przeznaczenia. Firma konsultingowa EY już drugi raz podjęła się zbadania, czy europejscy ubezpieczyciele są w stanie spełnić wymagania zawarte w dyrektywie Solvency II. Jak wynika

Europejski sektor ubezpieczeniowy podchodzi do nowych wytycznych z pewnymi obawami. W maju 2013 roku Centre for The Study of Financial Innovation (CSFI) oraz firma konsultingowa PwC przeprowadziły interesujące badanie, zatytułowane Insurance Banana Skins 20139. Wyniki tego badania mówią o obawach ubezpieczycieli z 54 krajów na całym świecie co do tego, jak nowe restrykcje prawne, takie jak warunki wypłacalności czy zachowania na rynku, są w stanie podnieść poziom kosztów i stworzyć problemy, wiążące się z dostosowywaniem firm do nowych warunków. To z kolei może utrudniać koncentrację na kwestii najważniejszej, a więc prowadzenia działalności w niepewnych czasach. Tutaj uwaga skupia się przede wszystkim na Solvency II, która nakazuje zmianę postrzegania biznesu oraz odejście od standardowego myślenia jedynie o wynikach sprzedaży poszczególnych spółek. Dostrzegalny jest także coraz większy głos sprzeciwu w niektórych kwestiach ze strony polskich towarzystw. „Niskie stopy na rynku oraz niedopasowanie zobowiązań do aktywów ubezpieczycieli powodują, że zakłady są bardzo narażone na spadek/zmianę kapitałów” przekonuje Przemysław Dąbrowski, członek zarządu PZU i PZU Życie10. Ponadto nie wszystkie reguły są w tym momencie jasne. Wszelkie standardy

6. Wrotniak-Chałada Malwina, Co my wiemy o Solvency II, 24.09.2009. [online: http://www.bankier.pl/wiadomosc/Co-my-wiemy-oSolvency-II-2022027.html] 7. Bank of England, Transposition of Solvency II: Part 3, Consultation Paper, 08.2014. [online: http://www.bankofengland.co.uk/pra/ Documents/publications/cp/2014/cp1614.pdf] 8. EY, European Solvency II Survey 2014. [online: http://www.ey.com/Publication/vwLUAssets/EY_European_Solvency_II_ Survey_2014/$FILE/EY_European_Solvency_II_Survey_2014_07_April_2014.pdf] 9. CSFI, PwC, Insurance Banana Skins 2013. [online: http://www.pwc.com/gx/en/insurance/banana-skins/2013-survey-report.jhtml]

28

Ubezpieczenia


dotyczące trzeciego filaru będą znane dopiero pod koniec tego lub dopiero w roku 2015.

Niestety, na tym nie kończą się pesymistyczne informacje. Ubezpieczyciele są zmuszeni do przygotowania się do zaostrzonych wymogów kapitałowych z tytułu długoterminowych inwestycji, opartych na stałych stopach procentowych, obligacji korporacyjnych, nieruchomości czy też private equities. Trwają także prace nad wymogiem dotyczącym ryzyka kredytowego dla obligacji rządowych. Gwałtowna zmienność wyceny rynkowej tych instrumentów może powodować duże zmiany struktury i, przede wszystkim, wielkości posiadanych kapitałów. Prowadzi to do sytuacji, w której zakłady ubezpieczeń próbują rozwiązać tę sytuację poprzez tworzenie produktów na ryzyko klienta, tzw. polis unit-linked11.

Dodatkowo, dochodzi także kwestia składek. Nowe regulacje w sposób bezpośredni nie wpłyną na ich wysokość, ponieważ dyrektywa dotyczy wymagań kapitałowych oraz zarządzania ryzykiem. Jednakże mogą mieć wpływ pośredni, gdyż ubezpieczyciele muszą wdrożyć system ORSA (Own Risks and Solvency Assessment) metodą prospektywną w horyzoncie trzech lub pięciu lat. Bardzo niska bądź ujemna rentowność grozi doprowadzeniem do podniesienia kapitałów lub też odejścia od twardej konkurencji cenowej.

Trudne czasy dla wszystkich?

Nowe wyzwania stoją także przed legislatorami – wdrożenie poważnych zmian w przepisach prawa oraz ustanowienie ram regulacyjnych, które będą zgodne z Solvency II. Zwiększy się znaczenie merytoryczne KNF, a wyzwaniami będą m.in.: koordynowanie wspól-

nych działań KNF wraz z zagranicznymi odpowiednikami, usprawnienie kanału komunikacji z rynkiem oraz zrównoważenie wymagań dyrektywy z międzynarodowymi standardami rachunkowości (MSSF). Reforma, do której przygotowuje się sektor ubezpieczeniowy, posiada więc nie tylko charakter lokalny, ale przede wszystkim globalny. W przypadku tej dyrektywy tylko jedno jest pewne – rynek ubezpieczeniowy musi stawić czoła głębokiemu przeobrażeniu i kosztownym zmianom. Przygotowanie się do jej wdrożenia jest w tej chwili jednym z największych zadań stojących przed wszystkimi ubezpieczycielami. Z drugiej strony, z własnego doświadczenia wiem, że jest to także olbrzymia szansa na znalezienie pracy dla wszystkich analitycznych umysłów, które interesują zagadnienia ryzyka i ubezpieczeń, co stanowi pozytywny akcent wobec powyższych rozważań.

10. Skibińska Regina, Solvency II: kłopotliwy wymóg wypłacalności, 12.02.2014. [online: http://www.obserwatorfinansowy.pl/tematyka/ rynki-finansowe/solvency-ii-klopotliwy-wymog-wyplacalnosci/] 11. Polisa unit-linked to produkt czysto inwestycyjny, wykorzystujący korzyści, jakie daje formuła prawna ubezpieczenia. Oferując polisy tego typu, towarzystwa umożliwiają klientowi gromadzenie oszczędności w indywidualnie utworzonym przez niego portfelu, składającym się z różnych funduszy inwestycyjnych, prowadzonych przez niezależne od oferującego, zewnętrzne towarzystwa funduszy inwestycyjnych.

Promuj ekonomię w liceach Dziel się pasją

Dołącz do zespołu prowadzącego warsztaty ekonomii eksperymentalnej. Czekamy na Ciebie! Jeśli: - uważasz, że ekonomia może być pasjonująca, - nie masz problemu z publicznymi wystąpieniami, - jesteś charyzmatyczny/a i otwarty/a na nowe wywania, - interesujesz się ekonomią eksperymentalną, - lubisz kontakt z ludźmi, Jeśli jesteś zainteresowany prosimy o kontakt na adres: bartosz.kopczynski24@gmail.com

Czeka na Ciebie:

- ciekawa praca z najlepszymi studentami WNE UW,

- możliwość rozwoju umiejętności cenionych w biznesie, - pogłębianie własnej wiedzy ekonomicznej, - atrakcyjne wynagrodzenie, - elastyczne godziny pracy,

- dla najlepszych oferta stałej współpracy.

Uwaga! Na spotkanie organizacyjne, prosimy o przygotowanie 3-5 minutowego wystąpienia na temat: “Dlaczego studiowanie ekonomii jest ciekawe?”.


Absolute Aversion to Alarm – czyli ocena zachowania agencji ratingowych przed kryzysem Kryzys lat 2007-2009 ujawnił wiele nieprawidłowości. Jedną z nich okazała się działalność agencji ratingowych, a mówiąc dokładniej (nie)rzetelność publikowanych przez nie informacji. Z założenia agencje ratingowe to firmy zajmujące się wystawianiem niezależnych opinii na temat prawdopodobieństwa utraty zdolności płatniczej przez przedsiębiorstwa, rządy i szereg instrumentów finansowych. W obliczu wydarzeń kryzysowych najbardziej istotne znaczenie zyskała działalność agencji w ostatnim obszarze, tj. ocena wiarygodności kredytowej konkretnych instrumentów. Niestety, przyznawane im oceny nie odzwierciedlały rzeczywistego poziomu ryzyka, z jakim wiązało się inwestowanie w nie. Ratingi przyznawane przez agencje w większości przypadków były bowiem znacznie zawyżone. To zaś oznacza, że inwestorzy podejmując decyzje, sugerowali się nieprawdziwymi informacjami. Ryzyko rzeczywiste vs publikowane ratingi

Stwierdzenie, że agencje przyznawały błędne ratingi instrumentom finansowym, wymaga wcześniejszego zapoznania się z przedmiotem oceny. Należy wskazać instrumenty, które zostały rzekomo błędnie ocenione oraz spojrzeć na prezentowane zjawisko z nieco szerszej perspektywy, czyli osadzić je w kontekście wydarzeń kryzysowych. Za bezpośrednią przyczynę kryzysu lat 2007-2009 uznaje się tzw. bańkę spekulacyjną powstałą na amerykańskim rynku kredytów hipotecznych. Jednym z czynników umożliwiających jej rozwój była bez wątpienia specyfika amerykańskiego rynku nieruchomości. Mowa oczywiście o powiązaniu owego rynku z rynkiem instrumentów finansowych w wyniku procesu sekurytyzacji. W jego następstwie większość kredytów zaciąganych przez amerykańskie gospodarstwa zabezpieczona była zestawem instrumentów pochodnych. Dla przykładu, w pierwszej dekadzie XIX wieku blisko 2/3 pożyczek były sekurytyzowane1. Zabezpieczenie stanowiły w szczególności: • MBS (Mortgage Backed Securities) – papiery wartościowe gwarantowane kredytami hipotecznymi, w przypadku których ryzyko kredytowe zostało przejęte przez instytucje Fannie Mae i Freddie Mac

Niska płynność, brak standaryzacji (brak jednolitego zestawu kredytów hipotecznych związanych z danym instrumentem pochodnym), obniżona transparentność (w przypadku papierów wartościowych zabezpieczonych hipotekami, struktura nabywców tych aktywów oraz ich wartość rynkowa nie jest znana) – to cechy wszystkich ww. aktywów. Nawet bez znajomości dalszego przebiegu wydarzeń (czyli załamania amerykańskiego rynku nieruchomości, a tym samym rynku instrumentów będących jego zabezpieczeniem) z całą pewnością można stwierdzić, że aktywa te zasługiwały na miano instrumentów wysoce ryzykownych. Historia pokazała, że agencje ratingowe miały nieco inne zdanie na ten temat…

Optymizm agencji w przyznawaniu ocen

Dowodem na zbyt optymistyczne oceny przyznawane wysoce ryzykownym instrumentom finansowym są wyniki badań przeprowadzonych przez Efraima Benmelech i Jennifer Dlugosz2. Bazując na danych agencji Standard & Poor’s, autorzy przedstawiają m.in. strukturę ocen przyznawanych CDO:

100

90 80 70 60 50 40 30 20

75,3 67,8

75,4

73,9

71,4

71

70,4

68,8

71,75

Bez oceny B BB BBB A AA

AAA • CDO (Collateralized Debt Obligations) – instrumenty finan- 10 0 sowe, które w celu wprowadzenia dodatkowej dekorelacji 2000 2001 2002 2003 2004 2005 2006 2007 Średnia z lat 2000-2007 ryzyka były zazwyczaj zabezpieczane przez różnego rodzaju aktywa finansowe (kredyty, zobowiązania), często połączone Źródło: Opracowanie własne na podstawie Benmelech Efraim, Dlugosz w pakiety Jennifer, The Alchemy of CDO Credit Ratings, s. 36.

• Listy zastawne – papiery wartościowe emitowane przez banki hipoteczne

Podstawowe wnioski wynikające z wykresu są następujące: po pierwsze, struktura ocen w latach 2000-2007 nie ulegała

1 Brender Anton, Pisani Florence, Globalised finance and its collapse, Belgia 2009, s. 80. [online: https://www.candriam.com/NR/rdonlyres/DC3E445C-427E-4A69-ADC6-4B10374D6FE8/0/Globalisedfinance.pdf] 2 Benmelech Efraim, Dlugosz Jennifer, The Alchemy of CDO Credit Ratings, NBER Working Paper Series, 2009. [online: http://cid.bcrp.gob pe/biblio/Papers/NBER/2009/Abril/w14878.pdf]

30

Świat


Justyna Dąbrowska Absolwentka studiów I stopnia Wydziału Nauk Ekonomicznych UW (kierunek: Ekonomia Międzynarodowa), studentka I roku studiów II stopnia Szkoły Głównej Handlowej w Warszawie (kierunek: Metody Ilościowe w Ekonomii i Systemy Informacyjne), stypendystka rektora UW oraz członkini Koła Naukowego Strategii Gospodarczej UW w latach ubiegłych.

Z perspektywy środowiska inwestorów przyznanie przez agencję ocen najwyższych było tożsame z informacją o niezwykle niskim ryzyku niewypłacalności ich emitenta i możliwości poniesienia strat. Biorąc pod uwagę specyfikę aktywów będących przedmiotem wyceny (o której wspominałam wcześniej), można pokusić się o stwierdzenie, że oceny przyznawane przez agencję znacznie odbiegały od realiów. Co więcej, względna stałość struktury ocen w latach 2000-2007, wyklucza omyłkowy charakter wyceny. Świadczy o tym, że oceny były przyznawane świadomie i celowo, wpisując się tym samym w realizowaną przez agencje strategię. Przed wyjaśnieniem tego, co kryje się pod hasłem „strategia”, warto zwrócić uwagę na jeszcze jedną kwestię. W tym celu pozwolę sobie odwołać się do przytoczonej wcześniej definicji instrumentów CDO. Zgodnie z nią, są to instrumenty pochodne zabezpieczone różnego rodzaju aktywami finansowymi. CDO stanowi więc swego rodzaju pakiet aktywów, połączonych w celu wprowadzenia dodatkowej dekorelacji ryzyka. Jak wiemy chociażby z tzw. Nowoczesnej Teorii Portfelowej Markowitza, dywersyfikacja zmniejsza ryzyko poniesienia strat z tytułu danej inwestycji. Zachowanie Standard & Poor’s świadczy o tym, że agencja wzięła sobie do serca założenia teorii. W wyniku połączenia aktywów o relatywnie wysokim ryzyku, instrument powstały wskutek tego połączenia (czyli w tym przypadku CDO) uznała bowiem za całkowicie bezpieczny. Aby to udowodnić, po raz kolejny powołam 3 Tamże, s. 16.

się na wyniki badań Efraima Benmelech i Jennifer Dlugosz, którzy wskazali, że aż 70,7% CDO o ocenie AAA składało się z instrumentów o średniej ocenie B+3.

Kiedy nie wiadomo o co chodzi…

Agencja Standard & Poor’s nie była wyjątkiem, „wyłamującym się entuzjastą” wśród ówczesnych firm zajmujących się wyceną aktywów/podmiotów (obok agencji Standard & Poor’s w skali międzynarodowej dominującą rolę odgrywały, i odgrywają nadal, także: Fitch Ratings, Moody’s, A.M. Best i Dominion Bond Rating Service). W tym miejscu nasuwa się więc pytanie, co skłaniało agencje do przyznawania tak wysokich ocen? Mówiąc inaczej, jaki czynnik można uznać za podstawowy element wspomnianej wcześniej strategii? Odpowiedź na powyższe pytania (w szczególności dla obecnych bądź przyszłych ekonomistów) nie powinna być zaskoczeniem. W większości przypadków nieracjonalność z punktu widzenia rynku i społeczeństwa znajduje

swoje odzwierciedlenie w intencjonalnym działaniu podmiotu, dla którego jest ona źródłem zysku. Przypadek agencji nie jest wyjątkiem od reguły.

Jednym z wyjaśnień jest tzw. zjawisko rating shopping, które w uproszczeniu sprowadzało się do tego, że konkurencja pomiędzy agencjami niejako wymuszała na nich zawyżanie ocen. Dotyczyło to w szczególności produktów sekurytyzowanych. Fundusze sekuryrytyzacyjne, dążące do maksymalnego zwiększenia różnicy pomiędzy kosztem nabywanych aktywów a kosztem ich obsługi po sekurytyzacji, mogły wybierać agencję, która przyznawała ich produktom najwyższy rating. Wyjaśnieniem tego zjawiska jest relacja pomiędzy ratingiem a wysokością premii za ryzyko. Zależność ta sprowadza się do stwierdzenia, że im wyższy rating, tym niższa wartość premii, a tym samym niższe koszty wypłat dla nabywców sekurytyzowanych aktywów i większy zysk dla funduszy.

www.pixabay.com

znacznym zmianom; po drugie, zdecydowana większość instrumentów CDO otrzymała od agencji Standard & Poor’s najwyższe oceny (średnio aż 71,75% to oceny AAA).

Świat

31


„Obniżanie ratingów nabrało charakteru lawinowego 10 lipca 2007 roku. Agencja Moody’s obniżyła ratingi dla 400 papierów wartościowych zabezpieczonych na spłacie kredytów hipotecznych podwyższonego ryzyka, zaś S&P umieściła na liście obserwacyjnej (tzw. rating watch) 612 papierów. Dwa dni później ich ocena została obniżona.”4 Zgodnie z zapisem statutowym, instytucje takie jak banki komercyjne, fundusze emerytalne i ubezpieczeniowe mogą inwestować w papiery dłużne jedynie ze skali inwestycyjnej, (z założenia) związanej z relatywnie niskim ryzykiem kredytowym i wysokim ratingiem. Obniżenie oceny danego aktywa do poziomu oznaczającego utratę klasy inwestycyjnej było więc tożsame z koniecznością jego natychmiastowej sprzedaży. Masowy charakter tego zjawiska doprowadził do załamania cen na rynku papierów wartościowych, odbił się negatywnie na wynikach instytucji, a rosnąca niepewność co do wypłacalności emitentów papierów dłużnych wzmocniła panikę w środowisku finansowym.

Winny się tłumaczy

Gwałtowne obniżanie ratingów, jakie nastąpiło w 2007 roku, świadczy

o uznaniu stanowiska o błędnym działaniu we wcześniejszych latach przez same agencje. Jednak nie oznacza to, że agencje potwierdziły słuszność wszystkich wysuwanych przeciwko nim oskarżeń.

Agencje usprawiedliwiały się m.in. trudnością w dokładnej wycenie instrumentów CDO (głównie ze względu na brak standaryzacji, zabezpieczenie każdej obligacji na innym zestawie aktywów, dużą skalę rynku CDO). Ich zdaniem wysokie koszty badań uniemożliwiały przeprowadzenie szczegółowej analizy struktury aktywów będących zabezpieczeniem ocenianych instrumentów, co z kolei zmuszało je do budowania modeli ekonometrycznych w oparciu o dane historyczne. Dotyczyło to w szczególności kształtowania cen nieruchomości (zabezpieczających obligacje hipoteczne). Jako że „(…) jeszcze nigdy w Stanach Zjednoczonych nie zdarzyło się takie załamanie cen na rynku nieruchomości, jak w okresie od maja 2006 roku do marca 2009 roku”5, agencje argumentowały, że trudność w wycenie instrumentów CDO usprawiedliwia przyznawane przez nie błędne ratingi.

Przypadek ujawniony po śledztwie SEC (Securities and Exchange Commission) w 2008 roku, czyli to, że „analitycy odpowiedzialni za wystawienie ratingu brali udział w negocjacjach dotyczących ceny tej usługi z przedstawicielami emitentów papierów”6, nie miał zapewne wpływu na decyzje agencji. Niezależność i rzetelność to przecież podstawowe filary ich działalności.

Odbudowa utraconego zaufania

Oceny wystawiane przez agencje przed wybuchem kryzysu były błędne. Dotyczyło to w szczególności instrumentów finansowych (w tym CDO),

które w wyniku procesu sekurytyzacji stanowiły zabezpieczenie kredytów hipotecznych. Mając na uwadze szereg nieprawidłowości związanych z gospodarką USA (w tym amerykańskim rynkiem nieruchomości), uznanie niepoprawności publikowanych przez agencje ratingów za jedną z przyczyn kryzysu, może być zbyt mocnym sformułowaniem, aczkolwiek nie bezpodstawnym. Niemniej jednak pozbawienie środowiska inwestorów dostępu do prawdziwych informacji odnośnie ryzyka związanego z podejmowanymi przez nich decyzjami, z całą pewnością przyczyniło się do kreacji bądź intensyfikacji zjawisk kryzysowych.

Zdaje się, że krytyka skierowana pod adresem agencji przyniosła pozytywne efekty. Branża ratingowa została bowiem niejako zmuszona do wdrożenia zmian zapewniających poprawę „precyzyjności” przeprowadzanych analiz. Odbudowanie zaufania inwestorów wymagało poniesienia znacznych nakładów finansowych. Jak mówi Marcin Petrykowski, dyrektor regionalny na Europę Środkowo-Wschodnią w agencji ratingowej Standard & Poor’s: „Wydatki przyczyniły się do poprawy metodologii i modeli oceny ryzyka, tak, by wykorzystać nową wiedzę zdobytą w wyniku kryzysu. Inkorporowaliśmy lepsze rozwiązania, tworząc przyszłościowe modele.”7 Branża ratingowa odbudowuje zatem utracone w ostatnich latach zaufanie, a wiadomość o poprawie narzędzi analitycznych i wcieleniu w życie „lepszych rozwiązań” zapewne cieszy i w pełni satysfakcjonuje środowisko inwestorskie (zakładając oczywiście prawdziwość tego komunikatu).

4 Wieprzowski Paweł, Credit-ratingi a kryzys 2007-2009, “Studia i Prace Kolegium Zarządzania i Finansów”, Zeszyt Naukowy 104, Szkoła Główna Handlowa w Warszawie, 2010, s. 100. [online: http://kolegia.sgh.waw.pl/pl/KZiF/publikacje/Zeszyty%20Naukowe%20KZiF/ Documents/studia,104.pdf] 5 Tamże, s. 101. 6 Courtois Renee, Reforming the Raters, “Region Focus”, Spring 2009, s. 15. [online: https://www.richmondfed.org/publications/research/region_focus/2009/spring/pdf/cover_story.pdf] 7 Agencje ratingowe próbująodzyskać zaufanie rynków, “Forbes”, 17.03.2014. [online: http://www.forbes.pl/agencje-ratingowe-probojaodzyskac-zaufanie-rynkow,artykuly,173360,1,1.html]

32

Świat

www.gratisography.com

Konkurencja agencji ratingowych, rozumiana jako rywalizacja o klienta, była więc jednym z bodźców skłaniających je do przyznawania wysokich, a ściślej – zawyżonych ocen. Brak zgodności działań agencji z ich podstawową funkcją, czyli dostarczaniem wiarygodnych i prawdziwych informacji środowisku inwestorów, wpłynął na znaczne pogorszenie wizerunku agencji oraz poddał w wątpliwość jakikolwiek sens działalności tych podmiotów. Niestety nie były to jedyne konsekwencje ich niekompetencji.


Szkodliwe obietnice polityków - polskie mity państwa opiekuńczego

Słuchając zaprzysiężenia rządu z ust premiera oraz każdego ministra, słyszymy przysięgę, której część brzmi: „a dobro Ojczyzny oraz pomyślność obywateli będą dla mnie zawsze najwyższym nakazem». Podobnie posłowie, obejmując mandat, deklarują: „czynić wszystko dla pomyślności Ojczyzny i dobra obywateli”. Władza nie rozumie jednak, że zazwyczaj większą dbałością o naszą pomyślność jest zaniechanie, niż szkodliwe działanie. Nader często działania rządu nie są umotywowane rzeczywistą potrzebą interwencji, a politycznym interesem. Prawnych regulacji dokonuje się jednak w imię „interesu społecznego”. Niestety ta nadopiekuńczość władzy przynosi często szkody dla tej większości, dla której miała mieć przecież zbawienny wpływ. Szkodliwe obietnice polityków – polskie mity państwa opiekuńczego

Słuchając zaprzysiężenia rządu z ust premiera oraz każdego ministra, słyszymy przysięgę, której część brzmi: „a dobro Ojczyzny oraz pomyślność obywateli będą dla mnie zawsze najwyższym nakazem». Podobnie posłowie, obejmując mandat, deklarują: „czynić wszystko dla pomyślności Ojczyzny i dobra obywateli”. Władza nie rozumie jednak, że zazwyczajwiększą dbałością o naszą pomyślność jest zaniechanie, niż szkodliwe działanie. Nader często działania rządu nie są umotywowane rzeczywistą potrzebą interwencji, a politycznym interesem. Prawnych regulacji dokonuje się jednak w imię „interesu społecznego”. Niestety ta nadopiekuńczość władzy przynosi często szkody dla tej większości, dla której miała mieć przecież zbawienny wpływ.

Ustawa hazardowa

Przykładem takiej niepotrzebnej interwencji jest ustawa hazardowa. Była ona konsekwencją „sprzątania” po aferze, opisanej przez dziennik „Rzeczpospolita” 1 października 2009 roku. Ujawniony lobbing za korzystnymi zmianami w prawie hazardowym ugodził w rządzącą ekipę, wymuszając zdecydowane kroki. Ekspresowo przygotowana ustawa o grach hazardowych została uchwalona przez Sejm 19 listopada 2009 roku. Według Donalda Tuska miała ona „zwiększyć wymiar opodatkowania, skutecznie egzekwować prawo i należności związane z hazardem i przede wszystkim […] uchronić dzieci i młodych ludzi od zbyt łatwego dostępu

do hazardu”1. Obietnica idealna w świecie medialnopolitycznym: parlamentarzyści bardzo rzadko sprzeciwiają się pomysłom tak wspaniale dbającym jednocześnie o społeczeństwo, zwiększenie dochodów budżetowych oraz budowanie państwa prawa.

Zwiększony wymiar opodatkowania

Ustawa zwiększyła stopy podatków od gier, m.in. z 10 do 12% wzrosła stawka podatku od zakładów wzajemnych, a z 45 do 50%– od gier na automacie czy ruletki. Kontrowersyjnie również częściowo zakazano i opodatkowano grę w pokera. Mrzonką okazał się jednak trwały wzrost dochodów państwa z tytułu podatku od gier, co obrazuje tabela.

O ile po pierwszym roku obowiązywania tej ustawy wpływy wzrosły, to w latach następnych już tylko spadały. Wzrost opodatkowania nie przyniósł pożądanych efektów. Przykładowo, podniesienie do 12% stawki podatku od zakładów wzajemnych zwiększyło jedynie odpływ klientów firm bukmacherskich do gry przez Internet, gdzie korzystając z ofert zagranicznych firm, zarejestrowanych w rajach podatkowych, mogą liczyć na większe, nieopodatkowane zyski. Według szacunków obłożone podatkiem obroty legalnego rynku to niespełna 800 mln zł, przy 5 mld zł generowanych przez firmy zagraniczne. Co więcej, w 2011 roku należny podatek od gier na automatach wynosił prawie 400 mln zł, jednak od 2015 roku legalnie będzie można grać jedynie w kasynach, co przyniesie kolejny spadek dochodów państwa.

Rok

Wpływy budżetowe z tytułu podatku od gier

Zmiana rok do roku

2011

1,477 mld zł

- 148 mln zł

2009 2010 2012 2013

Źródło: http://www.finanse.mf.gov.pl/

1,576 mld zł 1,625 mld zł 1,442 mld zł 1,304 mld zł

+ 49 mln zł - 35 mln zł

- 138 mln zł

1 Fragment wypowiedzi premiera Donalda Tuska z 10.11.2009 na temat wprowadzenia Ustawy o grach hazardowych

Polska

33


Przemysław twardziak

Student II roku II stopnia na specjalności Ekonomia Sektora Publicznego WNE UW, uczestnik i laureat II nagrody Wiosennej Szkoły Leszka Balcerowicza 2014, wyróżniony w IV edycji konkursu Młody Ekonomista organizowanego przez Towarzystwo Ekonomistów Polskich, interesuje się zagadnieniami związanymi z ekonomią polityczną oraz polityką gospodarczą, prywatnie miłośnik piłki nożnej i eskapad rowerowych.

Skuteczne egzekwowanie prawa Faktycznie, w związku z ustawą spadła liczba wydawanych pozwoleń na automaty do gier. Jednak równocześnie wzrosła liczba urządzeń nielegalnych, zajmowanych przez Służbę Celną (o 25% w pierwszym półroczu 2011 roku w stosunku do tego samego okresu w roku 2010, oraz o dalsze 23% pomiędzy pierwszym półroczem 2011 i 2012). Pojawiają się także nowe, coraz bardziej wyrafinowane sposoby obchodzenia przepisów, przez które klienci otrzymują produkt (możliwość hazardu), lokale dostarczają możliwości (np. poprzez logowanie na internetowych, zagranicznych serwisach hazardowych), a państwo nie dostaje z tego tytułu ani złotówki. Świadczy to o szkodliwych skutkach regulacji: nie tylko obniżeniem wpływów podatkowych, ale również wzrostem kosztów egzekwowania prawa (tropienia nielegalnych źródeł hazardu). Prawdopodobnie niezmienny popyt na hazard ze strony obywateli zostanie jedynie przesunięty w stronę czarnego rynku oraz działalności w Internecie – nielegalnej, ale w praktyce niekontrolowanej przez państwo.

sco

tco m

p.o

rg. u

k

Ochrona młodych przed hazardem Na mocy ustawy powołano Fundusz Rozwiązywania Problemów Hazardowych, jako odpowiedź na wzrost wydatków Polaków na hazard oraz ciągły wzrost liczby osób uzależnionych. W założeniu, działanie funduszu ma obejmować badania, profilaktykę, podnoszenie jakości programów profilaktycznych i terapeutycznych, działania edukacyjno-informacyjne oraz rozwiązywanie problemów

wynikających z uzależnienia. Zasadność istnienia funduszu, m.in. ze względu na wysokość kosztów w stosunku do realizacji zadań, podważyła w 2012 roku Najwyższa Izba Kontroli. Państwo w swej „działalności ochronnej”, przez zwiększenie ilości regulacji oraz nowe podmioty administracyjne, generuje jedynie koszty. Jeśli nie ma efektów w postaci malejącego odsetka osób uzależnionych, to ciężko wierzyć, że zmniejsza się on w grupie ludzi młodych.

Ministerialny

program finansowania metody in vitro

Kolejnym przykładem niepokojącej ingerencji państwa jest wstęp do publicznego finansowania metody in vitro, zapoczątkowany przez Ministerstwo Zdrowia programem „Leczenie Niepłodności Metodą Zapłodnienia Pozaustrojowego na lata 2013-2016”. Ten zbudowany na siłę rządowy akt prawny (przy obawie o brak poparcia parlamentu dla ustawy) ma pokazać, że rząd dba i pomaga w osiągnięciu potomstwa, nawet wbrew Kościołowi Katolickiemu. Co jednak tutaj ważne, poza budzącymi szereg wątpliwości kwestiami etycznymi co do tej metody, występują również wątpliwości czysto ekonomiczne.

Celem głównym programu jest „zapewnienie równego dostępu i możliwości korzystania z procedury zapłodnienia pozaustrojowego niepłodnym parom. Ponadto, jako cele pośrednie wymieniono: obniżenie odsetka liczby par bezdzietnych, zapewnienie pacjentom najwyższego standardu leczenia niepłodności, zwiększenie skuteczności leczenia niepłodności oraz osiągnięcie poprawy trendów demograficznych”. Realizacja tego programu pochłonie w okresie od 1 lipca 2013 do 30 czerwca 2016 roku 247,2 mln zł, a docelowo ma objąć 15 tysięcy par dotkniętych problemem niepłodności. Jeden cykl (para zakwalifikowana w programie ma prawo do trzech) został wyceniony na 7510 zł. Po pierwsze–równy dostęp. Do realizacji programu wybrano 31 ośrodków z całej Polski, rozłożonych nierównomiernie, bo np. w województwie lubuskim i warmińsko-mazurskim nie ma ani jednego podmiotu realizującego. Sam element wyboru podmiotów spełniających wymogi Ministerstwa Zdrowia jest przeciw równości. Wypacza on popyt na zabiegi in vitro w stronę wybranych klinik, więc przeczy równości

Ten oraz kolejne cytaty pochodzą ze strony Ministerstwa Finansów dotyczącej programu [online: http://www.invitro.gov.pl/]

34

Polska


kwalifikacji personelu, można uregulować te kwestię poprzez regulacje oraz ich odpowiednie egzekwowanie. Nie jest konieczne finansowanie usług.

Po piąte–zwiększenie skuteczności leczenia niepłodności. Jeśli tak, to program nie powinien się ograniczać do finansowania tylko metody in vitro, lecz również innych form przeciwdziałania problemowi niepłodności. Jeśli jednak obejmuje on jedynie procedurę in vitro, to poprawa skuteczności może nastąpić np. poprzez finansowanie badań nad metodą, a nie dopłaty do realizacji już opracowanej metody.

dostępu do „kupna usługi” w wybranym przez klienta miejscu. Równość dostępu jest tutaj de facto tego dostępu ograniczeniem. Ponadto, niewystarczające finansowanie metody in vitro,ograniczając konkurencję, tworzy u poszczególnych realizatorów mniejsze bądź większe kolejki oczekujących na uczestnictwo w Programie. Istny socjalizm. Po drugie–niepłodne pary. Program wypacza popyt ze strony par uznanych na podstawie definicji za niepłodne w stronę metody zapłodnienia pozaustrojowego. Oczywiście, jak głosi: „Metoda ta stosowana jest w sytuacji, gdy wyczerpano już inne możliwości leczenia lub jeśli nie istnieją inne metody leczenia niepłodności.”Jednakże decyzję o przyjęciu pary do programu mogą podjąć „jedynie wyłącznie lekarze z ośrodków będących realizatorami Programu na podstawie kryteriów określonych w treści Programu”. Stwarza to realny konflikt interesów, ponieważ w interesie lekarza i jego pracodawcy jest zakwalifikowanie pary do procedury in vitro, której klienci poddadzą się w tymże ośrodku, nie zaś dalszej próby leczenia innymi metodami.

Po trzecie–obniżenie odsetka liczby par bezdzietnych. Skuteczność każdej próby leczenia przez in vitro została w samym programie określona na 30%. Wraz z wiekiem z matki spada skuteczność tej metody, co sprawa, że w rzeczywistości szansa na ciążę może być średnio jeszcze niższa. Co ważne, powstaje pytanie, ile par przystąpiło do programu spośród tych, które z powodów finansowych nie mogły tego uczynić przed 1 lipca 2013 roku? Takimi danymi nie dysponujemy, ale wydaje się bardziej prawdopodobne wyparcie wydatków prywatnych przez publiczne, niż przystąpienie do procedur zupełnie nowej grupy par, które nie mogły sobie na to pozwolić wcześniej. Obniżenie odsetka liczby par bezdzietnych – być może tak, ale to raczej przypisanie państwusukcesu, który i tak następował bez jego aktywnego udziału. Po czwarte –najwyższy standard leczenia niepłodności. Jeśli rynek usług leczenia niepłodności nie zapewniał „najwyższych standardów”, to rolą państwa jest przeciwdziałanie zawodności rynku. Nie oznacza to jednak koniecznie finansowania jego części, zastępując podmioty prywatne. Jeśli zmartwienie dotyczyło procedur stosowania metody zapłodnienia pozaustrojowego, a zwłaszcza przechowywania zarodków czy też

Po szóste–osiągnięcie poprawy trendów demograficznych. Ministerstwo Zdrowia chwali się, że dzięki programowi urodziło się już 425 dzieci1. Należy po raz kolejny podnieść argument, że nie jest oczywiste, iż dzieci nie urodziłyby się bez wsparcia finansowego rządu, bo być może program zastąpił wydatki prywatne par bezdzietnych. Dlatego mocno kontrowersyjną tezą jest przypisywanie tej liczby urodzeń do zasług rządu. Jeśli przez trzy lata działania programu liczba uczestniczących par jest szacowana na około 15 tysięcy (już dziś wiadomo, że może być ich więcej, bowiem po pierwszym roku zarejestrowano ponad 11 tysięcy par), a skuteczność metody jest oceniana na 30%, to oczekiwana liczba ciąż wynosi zatem 5 tysięcy. Daje to ok. 1700 ciąż rocznie (według szacunków po pierwszym roku jest to 2559 ciąż). Biorąc pod uwagę ciąże mnogie,możemy się spodziewać 1800-2700 urodzeń rocznie. W Polsce w 2013 roku urodziło się 369, 6 tysięcy dzieci. Oznacza to 0,5-0,7% więcej urodzeń dzięki in vitro z rządowego programu. Oczywiście przy założeniu, że ciąży nie byłoby bez pomocy finansowej państwa. Licząc odsetek ciąż „z programu rządowego”, przy chyba nieco zawyżonych prognozach urodzeń GUS (ponad 406 tysięcy w 2014 roku, 401,5 tysięcy w 2015 roku i 395,6 tysięcy w 2016 roku) daje to jeszcze niższą wartość. Nawet przyjmując, że rzeczywiście to dzięki rządowi wzrosła liczba urodzeń w kraju, choćby o 0,5%, to rządowy dokument nie wylicza, o ile mogłaby wzrosnąć liczba urodzeń np. przy promowaniu wcześniejszej decyzji o ciążach czy wspieraniu innych metod walki z niepłodnością przy podobnych nakładach finansowych. Mówi nam o skuteczności, ale nie wspomina o efektywności tego rządowego projektu.

Rząd w pięknych słowach… prawdę chowa

Reasumując, rządowe programy i ustawy są zapełnione hasłami dobrze brzmiącymi, lecz niemającymi zwykle potwierdzenia w faktach. Akty prawne wchodzące w życie są wynikiem zamówienia politycznego, nie zaś rzeczywistych potrzeb ingerencji państwa. Nie jest przeprowadzana właściwa Ocena Skutków Regulacji z analizą wszystkich podmiotów, na które akt prawny wpływa i konsekwencji, jakie stwarza. Prowadzi to często do ogromnych i niemożliwych do obliczenia w całości kosztów, nie tylko wzrostu wydatków publicznych, ale także strat prywatnych przedsiębiorców czy degeneracji całej struktury społecznej, budując nasze uzależnienie od państwa opiekuńczego.

1. Dane liczbowe są zaczerpnięte ze strony Ministerstwa Zdrowia [online: http://www.mz.gov.pl/aktualnosci/ponad-10-000-par-w-rzadowym-programie-in-vitro]

Polska

35


Reforma górnictwa - czy Polsce potrzeba drugiej Thatcher?

W ciągu ostatnich tygodni dużo miejsca w społecznej dyskusji zajmuje temat reformy polskiego górnictwa. Pobudzające wyobraźnię straty finansowe kopalń oraz równie imponujące świadczenia płacowe górników budzą niezrozumienie opinii społecznej. Najgłośniejsza dotychczas reforma tej branży przeprowadzona była w Anglii na początku lat 80. z inicjatywy Margaret Thatcher. Co do tego, że reforma jest potrzebna, nikt nie ma wątpliwości, ale czy powinna być ona równie gwałtowna? To zależy… Niewidzialna ręka nie wydobywa węgla

Nie zakopujmy publicznych pieniędzy

Agnieszka Pietrzyk

Sebastian Lewandowski

Przeprowadzane reformy muszą być dopasowane do okoliczności. Te radykalne można zrealizować w czasie przemian systemowych czy kryzysów inflacyjnych, przy dużym poparciu politycznym i społecznym. Na obecnej scenie politycznej nie ma grupy, która miałaby siłę przeprowadzić skuteczne reformy, zatem lepszym rozwiązaniem wydają się konsekwentne i stopniowe zmiany.

W pierwszym półroczu strata finansowa polskiego górnictwa węgla kamiennego wyniosła 772,3 mln zł netto, a na samej sprzedaży węgla spółki straciły ponad miliard zł. W tym samym okresie jedynie trzy spośród czternastu kopalń Kompanii Węglowej zostały uznane za rentowne. Wynik jest zatrważający, nawet biorąc pod uwagę zmiany i obecne trendy na rynkach światowych.

Nagła reforma nie przyniesie również zmian instytucji. Bez nakładów na rozwój kapitału społecznego nie zostanie stworzone zaplecze do rozwoju obecnych obszarów górniczych. Spokojne i wyważone inwestycje pozwolą natomiast dostosować się mieszkańcom do nowej rzeczywistości i ukształtować podstawy przedsiębiorczości oraz odpowiedzialności społecznej. Jednocześnie nie można ignorować kosztów związanych z potencjalnymi masowymi zwolnieniami kilkudziesięciu tysięcy górników i zamknięciem obecnych wyrobisk. Konsekwencje pośpiesznych i bezrefleksyjnych działań w najlepszym wypadku odczuje cały region.

36

To Zależy

Trudno jednoznacznie wskazać przyczyny tak dużych strat, jednak odpowiedź nasuwa się sama, jeśli weźmie się pod uwagę, że 70% kosztów Kompanii Węglowej to płace i świadczenia. Średnie wynagrodzenie w tym sektorze wynosi 6 647 zł, będąc o około 90% wyższe niż średnia krajowa – takich proporcji nie znajdziemy nigdzie w zachodniej Europie. Lwią część tej kwoty stanowią uprawnienia wynikające z Karty Górnika. Same przywileje emerytalne kosztowały podatników w 2012 roku około 8 mld zł. Mimo że problem może bezpośrednio nie dotykać każdego z nas, to jego skala już tak – w końcu branża ta odpowiada za ok 2% PKB. Konieczne jest więc możliwe szybkie dostosowanie polskich kopalń do warunków wolnorynkowych. Co może zatrważać, to obecny brak efektów dotychczasowych działań, mimo kosztów sięgających tylko w latach 1990-2007 ponad 66 mld zł ze środków publicznych. W gestii polityków leży jak najszybsze wprowadzenie programu naprawczego, który w długim okresie przystosuje polskie górnictwo do światowych standardów. Jednak i to może nie starczyć, jeśli Kompania Węglowa przegrywa w sądzie batalię o rekompensatę dla emerytów za odebraną w lutym jedną tonę deputatu.

pl.wikipedia.org

Za ewolucyjną drogą modernizacji przemawia także sytuacja na międzynarodowym rynku surowców. Nie jest tajemnicą, że rynek energii nie jest wolny i nieograniczony przez wpływy polityczne. Obecnie najwięcej węgla importujemy z Rosji, z którą, jak pokazują ostatnie miesiące, raczej nie powinniśmy wiązać bezpieczeństwa energetycznego. Bez własnych zasobów innych paliw kopalnych czy źródeł alternatywnej energii kroki drastycznie ograniczające wydobycie mogą przynieść zagrożenie dla gospodarki. Warto także zauważyć, że mimo wszystko niecałe trzy lata temu kopalnie zarabiały dla budżetu i akcjonariuszy kilka miliardów złotych rocznie.


To Zależy

37


W porównaniu do… czyli kilka słów o naszej irracjonalności

Każdy, kto kiedykolwiek miał okazję uczyć się mikroekonomii, z pewnością zna pojęcie homo oeconomicus. Koncepcja człowieka racjonalnego oraz racjonalnego modelu podejmowania decyzji, to podstawa w nauce o ekonomii. W tym miejscu należy zastanowić się: co, jeśli owy fundament jest abstrakcyjnym, pełnym niedoskonałości paradygmatem? Stawiając takie pytanie, każdy czytelnik oczekuje, że zaraz posypie się lista zarzutów wobec naszego homo oeconomicusa, co pozwoli całkowicie ujawnić jego słabości. Niestety, a może stety, tak nie będzie. Artykuł ten będzie odkrywał jedynie czubek góry lodowej, której na imię irracjonalność. Każdemu z nas zapewne odpowiada koncepcja człowieka racjonalnego. Podejmujemy decyzje najlepsze z możliwych, zawsze dążymy do zmaksymalizowania swojej użyteczności, a nasze wybory przyczyniają się do ogólnego dobra. Czy ktoś chciałby tu cokolwiek zmieniać? Oczywiście, że nie, bo żadna modyfikacja nie jest potrzebna. Takiego modelu po prostu nie ma. Wybory najlepsze z możliwych zastępujemy zadowalającymi. Nie potrafimy dobrze operować liczbami, gubimy się w szacunkach, nie jesteśmy w stanie nawet wskazać, czy coś jest duże czy małe, drogie czy tanie… Jeśli ktoś miał jakiekolwiek wątpliwości co do autentyczności wcześniejszego stwierdzenia, artykuł ten powinien pokazać niektóre z obszarów ludzkiej niedoskonałości i irracjonalnego działania w codziennym życiu.

Wszystko jest względne

W jednej z książek Dana Arielego „Potęga irracjonalności” znajdziemy rozdział zatytułowany „Prawda o względności”, a w nim zdjęcie oferty ze strony „The Economist”1: prenumerata internetowa tego czasopisma za kwotę $59, prenumerata wydania tradycyjnego, papierowego - $125. Która z ofert jest lepsza? Którą należy wybrać?

niefortunny błąd i pozwolił, żeby oferta ta ujrzała światło dzienne? W tym przypadku nie ma mowy o jakimkolwiek błędzie. Powyższa oferta to całkowicie zamierzone działanie, które pozwala obnażyć naszą irracjonalność. Specjaliści od marketingu pracujący dla „The Economist” doskonale wiedzieli, że człowiek nie potrafi oszacować wartości produktu czy usługi bez odniesienia do innej oferty. Nie potrafimy powiedzieć, czy coś jest drogie, czy tanie, ale potrafimy powiedzieć, że coś jest drogie w porównaniu do czegoś innego. Dlatego też przyglądając się ofercie złożonej przez „The Economist”, widzimy, że opcja: „wydanie papierowe plus internetowe w cenie 125 dolarów” jest bardziej opłacalna niż wersja papierowa, ponieważ wydanie internetowe otrzymujemy za darmo – czytaj: GRATIS. Gdyby nie to, że marketingowcy „The Economist” dorzucili trzecią opcję prenumeraty, zapewne nie wiedzielibyśmy czy wybrać wersję papierową czy internetową. Cena przemawiała za wersją internetową, jednak wielu z nas lubi czytać gazety w tradycyjnym, papierowym wydaniu. O ostatecznym wyborze zadecydowała względność, co udowodnił Dan Ariely w swoim eksperymencie. Pierwsza część eksperymentu polegała na przedstawieniu stu studentom oferty dostępnej na stronie „The Economist”. Wyniki były następujące:

1. Prenumerata wydania internetowego ($59) - 16 studentów. 2. Prenumerata wydania papierowego ($125) - 0 studentów. 3. Prenumerata wydań papierowego i internetowego ($125) - 84 studentów. W kolejnej wersji eksperymentu Ariely postanowił usunąć opcję numer 2 z oferty prenumeraty. Wynik eksperymentu w tym wypadku, zgodnie z modelem racjonalnego podejmowania decyzji, nie powinien się zmienić, gdyż zakładamy, że każdy wybrał najlepszą, jego zdaniem, opcję. Wyniki eksperymentu: Być może podjęcie decyzji ułatwi nam trzecia oferta wydanie papierowe oraz dostęp do wydania internetowego w cenie $125. Czy to pomyłka? Czy ktoś popełnił tak

1. Prenumerata wydania internetowego ($59) - 68 studentów. 2. Prenumerata wydań papierowego i internetowego ($125) - 32 studentów.

1 http://danariely.com/the-books/excerpted-from-chapter-1-%E2%80%93-the-truth-about-relativity-2/

38

Opinie


Katarzyna Błaszczyk Absolwentka Wydziału Nauk Ekonomicznych oraz Wydziału Zarządzania. Obecnie studiuje Informatykę i Ekonometrię na WNE. Jej zainteresowania koncentrują się przede wszystkim wokół ekonomii behawioralnej i muzyki (filmowej oraz klasycznej). Dlaczego wynik drugiej części eksperymentu nie potwierdza wyników z części pierwszej? Czyżby na skutek braku „wabika” - punkt drugi w oryginalnej ofercie „The Economist” - możliwość prenumeraty wydania papierowego i internetowego stała się mniej atrakcyjna? Jak zauważył Dan Ariely, zachowanie to nie jest jedynie irracjonalne, ale jest przewidywalnie irracjonalne.

„Pond effect”, czyli efekt wielkiej ryby w małym stawie

W pierwszej wersji eksperymentu jego bohater chciał kupić sobie garnitur. Model, który wybrał, kosztował 300 €. Przez przypadek mężczyzna dowiedział się, że w oddalonym o 25 km od upatrzonego sklepu salonie można kupić ten sam garnitur o 60 € taniej. Co zrobił bohater? Oczywiście w pierwszej chwili uznał, że to doskonała okazja i udał się do tańszego sklepu. W drugiej części eksperymentu, mężczyzna kupował samochód. W pobliskim salonie model, który go interesował kosztował 18.990 €. Mężczyzna dowiedział się, że 25 km dalej jest salon, w którym ten sam samochód może kupić o 60 € taniej. Te same pieniądze, ta sama odległość, czy jednak ta sama okazja? Bohater eksperymentu nie zdecydował się na podróż do tańszego salonu i uznał, że 60 € to żadna oszczędność w tym przypadku. Czy zatem 60 € nie równa się 60 €?

Ciągłe porównywanie

Spójrz na powyższe rysunki2. Które, Twoim zdaniem, z pomarańczowych kół jest większe? Prawe czy lewe? Czy potrafisz powiedzieć, która z poziomych kresek na obrazku po prawej stronie jest dłuższa?

Ci, którzy przeprowadzali eksperymenty na podobnych ilustracjach, zauważyli, że zdecydowana większość typuje koło po prawej stronie jako większe, natomiast w przypadku odcinków, większość osób uznaje, że pozioma kreska umieszczona w dolnej części rysunku jest dłuższa. Zadania tego typu na pierwszy rzut oka wydają się bardzo łatwe, wręcz oczywiste. Niestety, pozory mylą.

Mimo że mamy do czynienia z iluzją optyczną, powyższe ilustracje uświadamiają nam, że nasze oceny są wynikiem porównywania, patrzenia przez pryzmat czegoś podobnego, czegoś w najbliższym otoczeniu. W taki sposób oceniamy zarówno ludzi, zwierzęta, jak i przedmioty. Na podstawie porównawczego zestawienia dokonujemy wielu wyborów: m.in. wyboru szkoły, zawodu, miejsca zamieszkania, miejsca wakacyjnego odpoczynku. Bez porównywania nie potrafimy powiedzieć, że dany samochód jest drogi, dany zawód opłacalny, a miejsce, w którym planujemy spędzić urlop tanie.

60 euro - dużo czy mało?

Nicolae Naumof, holenderski pasjonat nauk o człowieku (w tym ekonomii behawioralnej), zamieścił na swoim blogu eksperyment świetnie obrazujący problem względności3.

Można powiedzieć, że porównywanie nieustannie nam towarzyszy. Czasami porównujemy coś świadomie, jednak wielokrotnie nie mamy pojęcia, że zachowujemy się irracjonalnie. Fakt ten jest wielokrotnie wykorzystywany, między innymi w działaniach marketingowych, gdzie specjaliści od reklamy doskonale radzą sobie z przewidywaniem zachowania konsumenta. Nierzadko ulegamy pozornym promocjom, chętnie wybieramy produkty i usługi, które zawierają coś darmowego, gratisowego. Nie dostrzegamy jednak, że jesteśmy skłonni do przeszacowania pewnych wartości. Tak jak w powyższym przykładzie, 60 € potrafi oznaczać dla konsumenta więcej niż 60 €, co wydaje się być sprzeczne z jakąkolwiek logiką. Jak się okazuje, rozumowanie, wedle którego 60>60, jest nieprawidłowe do momentu, w którym rozpoczyna się porównywanie: „ile procent ceny podstawowej stanowi 60 € w każdym z dwóch przypadków?”. Punkt odniesienia, który obieramy niemalże przy każdej wykonywanej czynności, także i w powyższym przykładzie, pozwala nam tłumaczyć i usprawiedliwiać nieracjonalne zachowania. Podążając tym tokiem myślenia, można by stwierdzić, że „ekonomiczna teoria względności” znacznie ułatwia nam codzienne życie. Korzystanie z niej sprawia, że podejmowanie decyzji za każdym razem przybiera bardzo podobną postać – najpierw porównujemy, później dokonujemy zadowalającego wyboru. Czy można więc powiedzieć, że nasze zachowanie sprowadzone jest do prostych schematów myślowych, które tak łatwo przewidzieć? Jak często i w jakich sytuacjach kierujemy się drogą racjonalnej dedukcji? Ile tak naprawdę jest w nas homo oeconomicusa? Czy względność to jedyna pułapka, która przeczy idei racjonalnego podejmowania decyzji?

2 Oba pochodzą ze strony http://www.rollingalpha.com/2013/07/31/the-economic-theory-of-relativity/ 3 http://naumof.blogspot.nl/2013/01/everything-is relative.html?goback=.gde_2621605_member_201130005

Opinie

39


Ciągle atakują nas informacje; powiadomienia na Facebooku, wiadomości w telewizji, reklamy w radiu. Jednak czy zastanawialiście się, jaki mają one na nas wpływ? Czy potrzeby mniejszości są ignorowane w mediach ze względu na ich niską możliwość „sprzedaży”? Czy media są naprawdę wolne od nacisku elit społecznych? Warto się nad tym zastanowić i następnym razem, zanim przeczytaną w gazecie wiadomość przyjmiemy za pewnik, przemyślimy to dwa razy. Może dzięki temu staniemy się bardziej świadomymi wyborcami. Wszystko ma swój początek się marginalne ze względu na roz- potrzebę tego typu funduszy w takich Warto sięgnąć po gazety przedstawiające różne nurty światopoglądowe, obejrzeć główne wiadomości z kilku stacji. Można wtedy doznać szoku, jak odmienne opinie, czasem na ten sam temat, są przedstawiane w antagonistycznych środkach masowego przekazu. Ten wstrząs skłonił mnie do poszukiwań badań na temat wpływu mediów na frekwencję w wyborach i wydatki socjalne. Prace są przeprowadzone głównie na przykładzie Stanów Zjednoczonych, od lat trzydziestych do dziewięćdziesiątych. Niestety ze względu na specyfikę historii Europy nie będzie można jednoznacznie przenieść wyników tych badań na „nasze podwórko”. W tym czasie kontynent był targany wieloma problemami natury społecznej i politycznej. Jednak powinno nam to uzmysłowić pewien schemat wpływu mediów i skłonić do przemyśleń. Niech każdy sam zastanowi się, ile razy przekazał znajomym niesprawdzoną informację.

To co słyszysz

W XXI wieku radio odgrywa różne role. Rozbudza podczas poranków, dostarcza rozrywki pod postacią muzyki lub powiadamia o najważniejszych wydarzeniach. Ostatnie zadanie staje

40

Opinie

wój innych środków przekazu. Jednak w latach dwudziestych XX wieku w Stanach Zjednoczonych było odwrotnie. David Strömberg w pracy Radio’s Impact On Public Spending badał, jaki wpływ na decyzje wyborców i poczynania polityków miało posiadanie radia. Doszedł do wniosku, że okręgi, gdzie większa część wyborców posiada odbiornik radiowy, otrzymują więcej pomocy publicznej. Warto wspomnieć, że wynik ten nie jest statystycznie znaczący, ale interesująca jest inna obserwacja. Dla każdego jednoprocen-

regionach.

Jak w takich przypadkach uwzględniane są potrzeby najbiedniejszych grup społecznych? Analfabetów traktuje się w tej kwestii marginalnie ze względu na ich niską frekwencję w wyborach i ograniczoną możliwość uzyskania informacji o cięciach wydatków publicznych. Zgodnie z badaniami każdy procentowy wzrost analfabetyzmu wśród danej społeczności powodował odpływ pomocy społecznej o ponad jeden procent. Można uznać, że prawo głosu dla najbiedniejszych nie gwarantuje jednoznacznie poprawy ich bytu. Z drugiej strony powszechniejsze używanie radia miało istotny wpływ na poprawę warunków życiowych mieszkańców wiejskich terenów. Otrzymywali średnio o ponad 50% więcej środków niż mieszkańcy miast.

To co czytasz

naumann.deviantart.com

towego wzrostu udziału radia w populacji, wydatki z funduszu pomocy rosły o 0,6%. Moglibyśmy uznać, że bogatsze okolice, gdzie więcej ludzi ma możliwość zakupu odbiorników, powinny uzyskiwać więcej pomocy. Jednak takie przypuszczenie wydaje się mało prawdopodobne ze względu na niską

Dzienniki i gazety widzimy dzisiaj w innej postaci niż nasi rodzice. Papierowe wersje zastępujemy internetowymi wydaniami bądź e-bookami na tablet. Nie zmienia to faktu, że są to jedne z głównych dostarczycieli informacji i opinii. Trudno zmierzyć ich jednoznaczny wpływ na decyzje polityków i wyborców. Jednak James Snyder i David Strömberg w swojej publikacji Press


Sebastian Lewandowski

Tak było w latach 1982-2004, w których uzyskano dane do badań. Nie można tych wniosków jednoznacznie odnieść do sytuacji w Europie. W tym regionie występuje tendencja do zmniejszania się liczby gazet lokalnych, które mogą dostarczać informacji dotyczących najniższych szczebli władzy. Nie mają one szans istnieć przy wydawcach ogólnokrajowych, co wpływa ujemnie na wiedzę społeczeństwa o działaniach polityków. Ma to miejsce głównie z powodu mniejszej ilości bodźców do informowania o działaniach reprezentantów każdego szczebla. Jednak w Stanach Zjednoczonych trzy największe dzienniki odpowiadają za ledwie 12% sprzedaży krajowej. Ten przykład napawa optymizmem, lecz w wielu krajach jest odwrotnie.

To co widzisz

Mało kto wie, że początek telewizji w Polsce datuje się na 1937 rok. Została wtedy uruchomiona eksperymentalna stacja telewizji publicznej, którą obecnie znamy pod nazwą TVP1. Rozkwit jednak nadszedł w latach 80. i 90., wraz z rozwojem pierwszych

prywatnych stacji. Niektórzy uważają je za najprzyjemniejsze z mediów ze względu na niskie wymagania stawiane przed odbiorcą. Wystarczy usiąść, zrelaksować się i oglądać. Czy może to oznaczać, że jesteśmy bardziej podatni na ich wpływ? Ostatecznie można bowiem uznać, że jesteśmy wtedy bezbronni.

Scott Althaus i Todd Trautman w pracy The Impact of Television Market Size on Voter Turnout in American Elections (2008 rok), jak sam tytuł wskazuje, przebadali wpływ rynku telewizji na udział w wyborach. Praca ma wiele ograniczeń, głównie z powodu zagregowanych danych. Na jej podstawie można wyciągnąć tylko ogólne wnioski bez rozróżniania na istotne cechy, takie jak rozkład grup społecznych lub usytuowanie materialne w zależności od zamieszkałego terenu. Główny wniosek był następujący: im większy rynek telewizyjny, tym niższy udział w wyborach prezydenckich. Widać też wyraźnie, że mniejsza gęstość zaludnienia ma wpływ na wynik. I tak najwyższa frekwencja jest w wiejskich obszarach, później podmiejskich i na samym końcu w miastach. Trudno ustalić, co może mieć jednoznaczny wpływ na wyniki. Jedną z hipotez jest, że w miastach zamieszkuje więcej grup etnicznych, które nie mają prawa do udziału w wyborach, jednak dalsze badanie na ten temat są niezbędne.

Medium XXI wieku

Nie sposób nie wspomnieć o najmłodszym ze wszystkich przekaźników medialnych – internecie. Łączy sobie cechy wszystkich powyższych i umożliwia odnalezienie niemalże każdej informacji, jednak często nieznanego źródła. Trudno skrupulatnie zbadać wpływ internetu na udział w wyborach, ze względu na anonimowość, którą zapewnia. Jednak przeprowadzono eksperymentalne badania, które starały się to ocenić. Jednym z nich jest

4. Wspomina o tym portal wp.pl w artykule z 27.10.2011 [online: http://wiadomosci. wp.pl/kat,1033781,title,Dziennik-Rzeczpospolita-ma-nowego-naczelnego,wid,13935499, wiadomosc.html]

praca J. Woody Stanley i Christopher Weare „The Effects of Internet Use on Political Participation: Evidence From an Agency Online Discussion Forum“. Wykorzystano tutaj modelowane forum dyskusyjne, na którym każdym mógł wyrazić swoje zdanie. Naukowcy doszli do wniosku, że stwarza to nowe możliwości do wyrażania swoich opinii wcześniej nie zaangażowanym słuchaczom. Można to traktować jako nowy środek komunikacji, ale nie udało się potwierdzić jednoznacznego wpływu na większy udział w wyborach. Jedynie stu słuchaczy zostało do tego zachęconych, jednak nawet taki wynik ujawnia możliwości internetu jako mobilizatora społecznego.

Nie panikujmy

Tylko w zarysie mogłem przedstawić wybrane przez mnie badania. Jest ich wiele więcej, lecz główną ich wadą jest szacowanie korelacji na podstawie przeszłych danych. Świat zmienia się w każdej sekundzie i nie można jednoznacznie oceniać teraźniejszości, patrząc w przeszłość. Wyciąganie zdecydowanych wniosków na podstawie przytoczonych wyżej danych to daleko idące uproszczenie. Mimo wszystko mam nadzieję, że choć w małym stopniu uzmysłowiłem czytelnikom, jaki wpływ mają na nasze wybory media. I to nie tylko one, ale również nasze najbliższe otoczenie; od rodziców, którzy nas wychowywali od małego, przez wieloletnich przyjaciół, do znajomych na studiach, a nawet wykładowców. Nie chciałbym, aby każdy starał się poddawać każdą usłyszaną informację w wątpliwość. Niemniej, warto czasem pamiętać, że czytamy to, co chcemy przeczytać; słyszymy to, co chcemy usłyszeć; widzimy to, co chcemy zobaczyć. Zawsze warto mieć szerszą perspektywę, wysłuchać argumentów dwóch stron i dopiero wtedy wypracować swoje zdanie. Nie ma nic gorszego niż wielokrotnie przekazywana plotka bez realnych podstaw.

Opinie

41

ipredictus.com

Coverage And Political Accountability z 2008 roku wykonali badania mierzące to oddziaływanie. Jeśli tylko gazeta spodziewa się ekonomicznych wpływów z publikacji na temat działań polityków danych okręgów wyborczych, to wyborcy mają łatwiejszy dostęp do informacji. Skutki tego są oczywiste. Społeczeństwo jest lepiej poinformowane na temat działań ich przedstawicieli, co może przejawiać się wyższą frekwencją w wyborach. Z tego powodu politycy mają silniejsze bodźce do walki o interesy swojego okręgu. Ostatecznie wpływa to pozytywnie na federalne dotacje. Statystyki dobitnie ukazują ten wpływ. Wzrost częstotliwości ukazywania się artykułów o danym polityku o 50%, pozwala wyborcom nazwać go poprawnie 30% częściej. Co więcej, dodatnio wpływa to na możliwość jego oceny i opisu, a także zwiększa wpływy federalne o 10% w jego regionie.

Student Informatyki i Ekonometrii na WNE UW i Matematyki na MIM UW, stypendysta rektora UW. Członek KNSG UW i AIESEC - lider wiosennej edycji Native School. Jego zainteresowania to ekonomia polityczna, matematyka finansowa i psychologia. Zawodowo związany z Alior Bankiem.


Kiedy w skarbcu pusto

Oglądając telewizję lub czytając informacje w Internecie, niejednokrotnie można natrafić na pojęcia, które mają budzić konkretne reakcje u odbiorców, choć ich zrozumienie może być znikome. Jednym z takich haseł jest bankructwo państwa. Kryzys euro związany z Grecją i „restrukturyzacją” jej długu, zagrożenie niewypłacalnością kolejnych państw PIIGS – to tematy, o których słyszał niemalże każdy. Jednak czy przeciętny Kowalski zdaje sobie sprawę, czym jest bankructwo państwa? Najgroźniejszy wróg

Chcąc wyjaśnić przyczyny i skutki niewypłacalności państwa, należy zacząć od najgorszego zła dla obywateli – mam tu na myśli inflację. Wyobraźmy sobie sytuację, w której oszczędności zbierane przez wiele lat w przeciągu kilku miesięcy zupełnie tracą na wartości; miejsce, gdzie nie warto zarabiać, gdyż za pensję nie można nic kupić. Firmy przestają produkować, bo popyt jest zerowy. Wszystko popada w marazm, a ci, którzy jeszcze mają jakieś środki finansowe, uciekają za granicę. To nie scenariusz filmu katastroficznego, lecz wizja państwa dotkniętego hiperinflacją. Ten obraz będzie potrzebny do lepszego zrozumienia konsekwencji całkowitego bankructwa państwa.

Czym właściwie jest bankructwo?

Niestety bardzo trudno zdefiniować niewypłacalność państwa. Istnieją ku temu dwa powody. Po pierwsze, każde bankructwo państwa jest na swój sposób specyficzne. Przykłady Grecji i Argentyny, nie wspominając nawet Islandii, diametralnie się różniły, zatem ciężko uznać konkretny przypadek za wzór bankructwa. Po drugie, większość państw znajduje się w permanentnym, ogromnym długu publicznym, który w praktyce jest niespłacalny, a jedynie rolowany. Toteż trudno mówić o klasycznej niewypłacalności, gdyż w moim przekonaniu wiele państw jest de facto bankrutami. Można tutaj wspomnieć o ogromnym długu Wielkiej Brytanii, wynoszącym ponad 1 216 miliardów funtów. Sama jego obsługa kosztuje każde gospodarstwo domowe na Wyspach ponad 1 800 funtów rocznie1. Zatem niewypłacalność lub też wielkość długu – czy to nominalna, czy w stosunku do PKB – nie jest kryterium bankructwa państwa. Moim zdaniem je-

dynym momentem, który można uznać za faktyczne bankructwo, jest chwila, kiedy nie można dalej rolować długu, gdyż nikt z pożyczkodawców nie chce udzielić kolejnego kredytu ze względu na utratę zaufania. Kiedy taki dzień może nadejść dla danego państwa? Wpływa na to szereg czynników ze światowej i krajowej gospodarki, a ich przewidzenie często jest niemożliwe ze względu na trudność oceny przyszłego zachowania instytucji finansowych i obywateli. Wróćmy jednak do samego bankructwa. Stało się! Państwo jest niewypłacalne i ogłasza upadłość finansową. Przecież nie znika ono z mapy świata, ludzie nie rozpadają się w niebyt. Ostatecznie, nawet rząd nadal kieruje państwem. Niektórzy „eksperci” podają, że w takim kryzysowym momencie policja i szpitale przestają działać,

jakieś koło ratunkowe – choć czasem rzucanie go może zatopić cały statek.

Pierwsze skutki

Co się dzieje w momencie bankructwa? Według teoretycznego modelu wygląda to następująco: państwo nie może pożyczać pieniędzy na rynkach finansowych, zatem musi próbować zrównoważyć budżet lub dodrukować pieniądz, aby pokryć wydatki krajowe, m.in. pensje różnych służb publicznych. Najczęściej zbilansowanie wydatków i przychodów jest niemożliwe, choć następują jego próby – radykalne i bezmyślne cięcia wydatków publicznych. Przykładem może być Grecja, gdzie masowe zwolnienia na najniższych stanowiskach w sektorze publicznym niemalże doprowadziły do wojny domowej – na szczęście skończyło się na zamieszkach. Najprostsze ograniczenia wydatków to zwolnienia pracowników sektora finansów publicznych, którzy tracą pracę dosłownie z dnia na dzień. Zmiana taka nie byłaby dużym kłopotem dla gospodarki, lecz problemem pozostawałaby jej gwałtowność. Rynek danego kraju może nie być w stanie przyjąć tysięcy dodatkowych nauczycieli czy pielęgniarek w sektorze prywatnym.

Błędne koło

tmoney.pl

a w szkołach nie usłyszy się pierwszego dzwonka. Można by zakpić, że wojsko wówczas też nie funkcjonuje i da się podbić kraj bez jednego wystrzału. Takie pojmowanie bankructwa jest błędne; zawsze można dodrukować nowy pieniądz2 i wypłacić pensje policjantom, lekarzom oraz wojskowym. W ten sposób rząd zawsze znajdzie

Niestety państwo-bankrut najprawdopodobniej nie zdoła zrównoważyć budżetu poprzez cięcie wydatków w danym roku. Kolejnym krokiem jest zatem „dodrukowanie” pieniędzy, choć dotyczy to bardziej kreacji pieniądza, niż jego fizycznego powielenia. W tym miejscu zaczynają się problemy, gdyż w wielu krajach istnieją mechanizmy gospodarcze i prawne zapobiegające temu procederowi. Przykładowo w Polsce obecnie3 bank centralny zgodnie z konstytucją i ustawami nie może finansować deficytu budżetowego. Warto pokreślić, że niewypłacalność państwa jest zdarzeniem ekstremal-

1. Dane pochodzą ze strony www.debtbombshell.com. 2. Państwo może to zrobić, faktycznie drukując pieniądz w mennicy lub poprzez działania banku centralnego, który finansuje deficyt budżetowy (w przypadku Polski jest to niezgodne z konstytucją i ustawą o NBP). W bardziej drastycznym scenariuszu można znacjonalizować instytucję taką jak OFE, sprzedać jej papiery i z nich sfinansować deficyt. 3. W czasach PRL to właśnie bank centralny finansował deficyt budżetowy.

42

Opinie


nym i działania, które podejmuje wówczas rząd mogą być kontrowersyjne i dostosowane do różnych okoliczności, takich jak poparcie w parlamencie oraz dobra wola władz banku centralnego. W zależności od sytuacji można przedstawić kilka scenariuszy, co może się wydarzyć. W przypadku silnego poparcia parlamentarnego, najlepiej na poziomie możliwości wprowadzenia zmian konstytucyjnych, rząd prawdopodobnie będzie forsował modyfikacje związane z zasadami finansowania deficytu budżetowego oraz uprawnieniami banku centralnego. Przy mniejszej aprobacie należałoby nowelizować ustawę budżetową i pobrać środki np. z funduszu pokoleniowego – jeśli takowy w danym państwie istnieje. W bardziej drastycznym przypadku szansą pozostaje próba ustawowej nacjonalizacji dużej instytucji, a następnie sprzedaży jej aktywów lub przyśpieszenie prywatyzacji4. Można również wywrzeć presję na bank centralny, żeby pośrednio sfinansował deficyt budżetowy. Dodatkowo konieczny jest warunek pośrednika w postaci banku komercyjnego. Załóżmy, że jeden z banków krajowych kontrolowany jest przez państwo – w Polsce taka rolę mógłby pełnić Bank Gospodarstwa Krajowego. Następnie rząd wyemituje obligacje czy bony, a ów bank będzie musiał je nabyć. W sytuacji, gdy dana instytucja nie ma środków na zakup tych papierów dłużnych, bank centralny udziela taniej pożyczki, do której potrzebna jest przychylność władz BC. Jednocześnie cały mechanizm powoduje gwałtowny wzrost podaży pieniądza, przez co pojawia się inflacja. Niestety w konsekwencji pojawiają się zjawiska samonapędzające się. Po pierwsze, deprecjacja waluty krajowej. Powoduje ona odpływ kapitału zagranicznego, czego rezultatem jest sprzedaż waluty krajowej, czyli dalsze jej osłabienie. Społeczeństwo w obawie przed ciągłą deprecjacją nabywa waluty zagraniczne. W ten sposób kurs krajowej jednostki monetarnej rośnie coraz szybciej. Poprzez zakup dewiz zwiększa się podaż rodzimej waluty, co napędza wzrost cen. Przyśpieszona inflacja utrudnia import towarów z zagranicy, gdyż te stają się coraz droższe.

Ostateczny krach

Istotnym problemem są surowce energetyczne i inne towary niezbędne dla

Michał mikołajczyk Absolwent Wydziału Zarządzania Uniwersytetu Warszawskiego na kierunku Finanse, Rachunkowość i Ubezpieczenia. Księgowy ds. rachunkowości funduszy w Citibank International, aktywny członek społeczności matematyka.pl. przemysłu. Gdy koszty energii oraz siły roboczej wzrastają, rozpoczyna się falę masowych zwolnień w celu zachowania rentowności. Obywatele są coraz mniej skłonni do pracy, gdyż ich pensje mają mniejszą wartosć. Zwiększa się bezrobocie w sektorze prywatnym, co prowadzi do spadku dochodów publicznych. Tworzy się typowa spirala. Rząd musi szukać oszczędności, a to wzmacnia wyżej wspomniane efekty. Dla obywateli, zwłaszcza małoi średniozamożnych, skutki są fatalne, gdyż tracą także pozostałe fundusze. Z tych powodów coraz więcej osób decyduje się na emigrację „za chlebem”. Dodatkowo najprawdopodobniej towarzyszyć temu będą niepokoje społeczne i strajki, które pogorszą sytuację. Tak oto wygląda scenariusz państwabankruta. Opisana we wstępie wizja miała za zadanie uzmysłowić, jak ogromnym problemem dla gospodarki może być inflacja, gdyż to właśnie ona jest najczęściej „gwoździem do trumny” w przypadku niewypłacalności państwa. Oczywiście można się ze mną nie zgodzić. Kontrargumentować przykładami takimi jak grecki. Sytuacja Grecji jest o tyle specyficzna (zarazem tragiczna i szczęśliwa), że kraj ten, będący w strefie euro, nie mógł deprecjonować swojej waluty, zatem musiał ciąć wydatki publiczne. W zamian za te ograniczenia i utratę suwerenności rząd otrzymał pożyczki od Międzynarodowego Funduszu Walutowego oraz innych państw Unii Europejskiej. Teoretycznie pozwoliło to Grecji podreperować sytuację finansową, ale nawet po restrukturyzacji długu – oraz częściowemu umorzeniu – to państwo jest w praktyce bankrutem (dług stanowi 175% PKB).

Różne scenariusze

Inaczej sytuacja wyglądała w Islandii, gdzie państwo przejęło upadające banki wraz z ich zobowiązaniami,

które teraz stały się długiem każdego mieszkańca. Po wielomiesięcznych, pokojowych protestach władza podała się do dymisji, a następnie przeprowadzono referendum, w którym ponad 90% obywateli opowiedziało się przeciwko spłacaniu długów zaciągniętych przez banki. Umorzono zobowiązania wobec inwestorów zagranicznych i rozpoczęto wszystko od nowa. Czy zatem można powiedzieć, że Islandia bez najmniejszych problemów poradziła sobie z bankructwem? Jeśli wielomiesięczne strajki, protesty oraz reset systemu finansowego można uznać za brak problemów, to tak. Jednakże teraz przed krajem stoi dużo lepsza przyszłość, czego nie można powiedzieć o sytuacji w Grecji czy Argentynie. Decyzja Islandii o niespłaceniu długów, mimo że dyskwalifikuje ją z możliwości zadłużania państwa, to jednak zdejmuje z obywateli potężne zobowiązanie finansowe wymagalne w przyszłości. Brak odsetek od długu poprawia bieżącą sytuację finansów publicznych, co jest w opozycji do sytuacji chociażby w postkryzysowej Grecji. Bankructwo państwa to rzecz skomplikowana i niezwykle złożona, dotykająca nie tylko systemu finansów publicznych, ale także całego otoczenia mikro- i makroekonomicznego. Każdy kraj może różnie przechodzić swoją niewypłacalność. Wiele zależy od podejmowanych przez rząd decyzji. Nie da się jednak ukryć, że bankructwo nie jest rzeczą dobrą i najlepiej go uniknąć. Ograniczenie pożyczek i równoważnie budżetu to sposoby, dzięki którym można spać spokojnie i patrzeć z nadzieją, co przyniesie jutro. Miejmy nadzieję, że w naszym kraju jest jeszcze szansa uniknięcia błędów innych państw. Obsługa długu publicznego, która kosztami przewyższa łączne wydatki na armię i szkolnictwo wyższe, powinna już budzić spore obawy5. Uczmy się na błędach cudzych, a nie własnych.

4. Minister skarbu przygotowuje plan prywatyzacji, w którym decyduje, kiedy i jaką spółkę będzie się prywatyzować oraz czy proces ten jest możliwy. Ustawy określają przedsiębiorstwa i branże strategiczne z punktu widzenia państwa, które nie podlegają prywatyzacji lub skarb państwa zachowuje w nich znaczące prawo głosu. 5. Źródło: www.mapawydatkow.pl.

Opinie

43


www.ingenieur.de

Co dalej z Big Data?

Określenie Big Data zrobiło w ciągu ostatnich kilku lat ogromną karierę. Ten, w istocie mało precyzyjny, termin jest znajomy praktycznie wszystkim ludziom w jakikolwiek sposób zainteresowanym analizą danych. Co on właściwie oznacza? Mówiąc w skrócie, Big Data jest to zbiorcze określenie metod analizy i prezentacji informacji zawartych w wielkich, dynamicznie zmieniających się bazach danych. Zanotowany w ostatnich latach gwałtowny rozwój związany z technikami Big Data był spowodowany przede wszystkim wdrażaniem na coraz szerszą skalę rozwiązań technicznych, umożliwiających wygodną i szybką analizę danych pochodzących z wielu różnych źródeł. Co więcej, rozwojowi tych technik sprzyjało przeniesienie się dużej części naszego życia do sieci – umożliwiło to wielkim firmom zbieranie ogromnej ilości różnorodnych danych na temat użytkowników aplikacji, serwisów społecznościowych, stron internetowych czy urządzeń mobilnych. O zwiększającej się popularności technik Big Data świadczą rosnące wydatki na ich implementację, które wg badań firmy analitycznej Gartner osiągnęły w 2012 roku poziom 28 mld $1.

Informacyjna rewolucja

Znaczące zwiększenie się ilości i złożoności danych zrewolucjonizowało sposób podejścia do ich analizy. Zastosowanie standardowych narzędzi analitycznych do wielkich baz danych, niekiedy nawet o wielkości setek petabajtów2, okazuje się często zbyt

44

Technologie

czasochłonne i kosztowne. W związku z tym bardzo często w metodach Big Data rezygnuje się z próby tworzenia teoretycznego modelu analizowanych zjawisk. Zamiast tego bada się przede wszystkim proste zależności, takie jak korelacje. Zastosowanie nowych metod okazało się zaskakująco skuteczne. W 2009 roku Google, używając swojego nowopowstałego narzędzia o nazwie Flu trends, analizującego dane wpisywane w wyszukiwarce, było w stanie dokładnie zaobserwować rozprzestrzenianie się grypy w Stanach Zjednoczonych. Co więcej, informacje uzyskane w ten sposób były dostępne niemal natychmiast, znacznie szybciej niż publikacje amerykańskiego Centrum Zwalczania i Zapobiegania Chorobom (CDC). Innym ciekawym zastosowaniem Big Data jest aplikacja Street Bump, działająca w Bostonie. Wykorzystuje ona informacje zbierane przez akcelerometry zainstalowane na urządzaniach mobilnych swych użytkowników do monitorowania na bieżąco stanu dróg w mieście. Dane są przesyłane do władz miasta, które posiadając pełniejszą wiedzę na temat jakości nawierzchni

ulic, mogą efektywniej rozplanować remonty. Jednym z najbardziej znaczących przykładów użycia Big Data jest model biznesowy Google, w znacznej mierze opierający się na skuteczności nowych technik. Polega on na wykorzystywaniu dostępnych mu informacji na temat historii wyszukiwań i odwiedzin swoich użytkowników. Na ich podstawie opracowany został zestaw w pełni automatycznych narzędzi, służących do dopasowania reklam wyświetlanych użytkownikom w taki sposób by zmaksymalizować ich skuteczność. W tym celu analizują one zachowania internautów, wyszukując w nich prawidłowości i schematy. Niezwykle skomplikowane algorytmy opierają się jednak na prostych narzędziach statystycznych, takich jak wspomniana wcześniej analiza korelacji. Charakterystyczną cechą tych algorytmów jest też brak jakichkolwiek założeń dotyczących zachowań internautów. Wnioski przez nie wyciągane nie są analizowane pod kątem ich poprawności teoretycznej. Model ma przede wszystkim działać, a jego wykorzystanie przynosić zyski.


Kamil Prządka Student I roku studiów magisterskich Wydziału Nauk Ekonomicznych na Uniwersytecie Warszawskim oraz absolwent studiów inżynierskich Wydziału Mechatroniki na Politechnice Warszawskiej. Aktywny członek koła naukowego KNSG UW. Do jego zainteresowań należy rynek nowoczesnych technologii oraz zagadnienia ekonomii ilościowej. Nowa statystyka? Sukces metod Big Data ma, zdaniem wielu specjalistów, znaczące implikacje dla świata nauki. Twierdzą oni, że poszukiwanie odpowiednich teoretycznych modeli dla różnorodnych zjawisk w takich dziedzinach jak fizyka czy biologia nie będzie już potrzebne. Wystarczająca będzie wiedza na temat korelacji w bardzo wielkich próbach, mogących obejmować nawet całą populację. Metody takie z sukcesem wykorzystano przy mapowaniu kodu DNA.

Mimo niewątpliwych sukcesów, metody Big Data spotkały się w ostatnich latach z silną krytyką, dotyczącą bardzo różnorodnych aspektów ich użytkowania. Coraz powszechniejsze są opinie, że zapowiedź rewolucji w dziedzinie analizy danych była przedwczesna. Szczególnie dużo krytycyzmu zebrały uproszczone metody analityczne. Po pierwszych medialnych sukcesach metod Big Data zaczęły się pojawiać informacje o błędnych przewidywaniach wykorzystywanych algorytmów. Okazały się one niezwykle czułe na zmienne warunki środowiskowe. Za przykład może tu posłużyć omawiane już narzędzie Google, Flu Trends. Po początkowym sukcesie przewidywania coraz bardziej rozmijały się z rzeczywistością – w ciągu 4 ostatnich lat były one systematycznie przeszacowywane w stosunku do oficjalnych danych. Przyczyną takiego stanu rzeczy był brak możliwości powiązania liczby zapytań na temat grypy z różnorodnymi, niezależnymi od zachorowań, czynnikami. Zgodnie z ideą uwolnienia od założeń teoretycznych, nie podjęto próby uwzględnienia a priori wpływu zdarzeń niezależnych od liczby zachorowań na liczbę zapytań w wyszukiwarce. Za przykład mogą posłużyć przypadki wybuchu epidemii groźnych odmian grypy w innych krajach, które wzmagają zainteresowanie chorobą ze strony zdrowych

internautów. Zdarzenia takie mogą znacząco wpłynąć na dokładność prognoz. Lekcją, jaka wynika z opisanego przykładu jest obserwacja, że, wbrew przewidywaniom niektórych specjalistów, pomimo ogromnej ilości reprezentatywnych danych przekrojowych, nie straciła na znaczeniu krytyczna analiza ich poprawności. Co więcej, nieuprawniony okazał się sąd o możliwości zarzucenia teoretycznych rozważań na temat natury analizowanych zjawisk. Wraz ze wzrostem ilości danych nie zniknął też problem przypadkowych korelacji, którego można się pozbyć tylko poprzez wykonanie szeregu czasochłonnych testów.

Twarde realia

Problemy z Big Data nie ograniczają się jedynie do teorii. Najnowsze dane wskazują, że zwiększające się nakłady na pensje analityków danych, specjalistyczne oprogramowanie i hurtownie danych nie mają przełożenia na wyniki finansowe spółek. Przyczyny próbuje się tłumaczyć szeregiem zjawisk. Najważniejsze z nich wynika z faktu, że firmy nie umieją wykorzystać nowych narzędzi. Wiele firm, skuszonych po-

www.3st.com

tencjalnymi możliwościami Big Data, wprowadza nowoczesne technologie, nie zdobywając uprzednio odpowiedniego know-how dotyczącego pracy z danymi. W konsekwencji nie umieją zarządzać danymi ani ich analizować tak, by uzyskać z nich użyteczną wiedzę oraz wykorzystać ją na swoją korzyść.

Sama inwestycja w zaawansowane narzędzia to niestety za mało. Innym problemem jest też fakt, że rekomendacje wynikające z zastosowań big data są niekiedy na tyle oderwane od realiów firmy, że nie mogą zostać wprowadzone w życie. Zdarzają się sytuacje, gdzie wprowadzenie ulepszenia poprawiającego nieznacznie wyniki firmy wymaga przebudowy całych pionów organizacyjnych, przez co w konsekwencji okazuje się ono nieopłacalne. Inną przyczyną niepowodzeń Big Data jest fakt, że częste są sytuacje w których zastosowanie nowych technik nie wnosi nic nowego do wiedzy firmy. Wnioski wynikające z nowych, ulepszonych analiz pokrywają się z dotychczasową polityką władz firmy.

Nadmierne oczekiwania

Po okresie krótkotrwałej fascynacji Big Data można pokusić się o wstępną ocenę dokonanych przemian. Jednoczesna cyfryzacja życia społecznego i zwiększenie się dostępnych mocy obliczeniowych otworzyły drogę do rozwoju nowych metod analitycznych. Ponieważ rewolucja ta dokonała się w ciągu ostatnich kilku lat, w rzeczywistości dopiero uczymy się posługiwania wielkimi zbiorami danych. Nadmierne nadzieje pokładane w Big Data, rozbudzone w szczególności przez działania marketingowców, nie miały prawa się spełnić. Big Data nie okazało się rewolucją – problemy dotyczące małych zbiorów danych nie zniknęły przy stosowaniu wielkich zbiorów. Co więcej, poważną barierę rozwojową stanowią trudności wdrożeniowe oraz brak umiejętności wykorzystania nowoczesnych narzędzi analitycznych przez wiele firm. Choć nie można odmówić Big Data sukcesów i przydatności w specyficznych zastosowaniach, to, tak samo jak ze wszystkimi innymi nowinkami, warto jest odnosić się do niego z pewną ostrożnością.

1. Gartner says Big Data will drive $28 billion of IT spending in 2012, oświadczenie prasowe firmy z 17.10.2012 [online: http://www.gartner.com/ newsroom/id/2200815] 2. 1.125.899.906.842.624 bajtów (1024*1024*1024 MB)

Technologie

45


Credit of trust to your financial manager

Imagine you have just graduated, found your first job and…would like to finally move out of your parents’ house or rented flat and buy your own property. If you are not in the tiny group of those lucky enough to be financially supported by their parents, you will probably have to take a credit. But which one to choose?

The cheapest is probably your first answer. Unfortunately the cheapest – diminishing instalments – often means you will have to pay much higher coupons at the beginning than at the end of your crediting period. In the exam-

cost, taking into account margin, commission and possible hidden costs. Even if you are able to calculate taking these factors into account, there is also the issue of interest rate fluctuation. Next you will find an example of how it

Diagram 1: Formula for new loan, offered by Nordea Bank

Source: own elaboration for the bachelor degree thesis

ple following, it will be 1,482.65 for the first, 1,488.06 for the middle and 835.61 for the last instalment. The other credit option is annuity – more expensive, but instalments generally fluctuate less (they stay on the level of 1,200-1,400), however it is possible that near the end the instalments will be higher than at the beginning. It is often also difficult to evaluate the real Diagram 2: Interest rate forecast

influences the total cost and why.

At the beginning of the 2013 a new loan appeared on the market, offered by Nordea Bank: the annuity of which NEVER changes. Does this mean the interest rate is invariable? No, the formula is more complicated – take a look at diagram 1: Let’s imagine you would like to take

Source: own elaboration for the bachelor degree thesis

46

English section

out a loan of PLN 200,000 for 20 years. However, you have to sign the agreement for 30 years. Why? In case the interest rates increase, because then the number of instalments grows and you simply pay, the same amount of money every month but over a longer period of time. And what if interest rates on the market rocket, you may ask? Well, if expected time of repayment is longer than 30 years, your instalments automatically shift to normal annuity. Seems fair? Let’s check the cost.

To be able to conduct any comparison, first, we have to make an assumption about the rate fluctuation. This one, given below, starts with current values (since September 2014) and then becomes of my own prediction However, I doubt if there is any space for further decrease, which is why in my forecast they will be going up for the next 10 years and then will drop (see diagram 2). It should help to address if later decrease can compensate the previous growth. Also it will be possible to examine if, which and how strong influence has the way of instalments’ calculation. It means we should get to know the difference in price while establishing annuity, diminishing instalments or fixed annuity repayment schedule. In the diagram 3 we can see how much interest we will pay in each case. It is surprising how huge the amount is in the case of loan offered by Nordea. This is not the end of bad news. After 20 years of paying the credit recipient has managed to pay off only half of his debt! The rest will be recounted into ten-year annuity, so there’s no more unchanged and stable amount to pay every month - instead we have a longer crediting period, high instalments and interest higher than the debt.


Aneta Michalik

It is hard to imagine that a loan can be so expensive, because who would take it? This is why, to compare we will use the value of rates that actually appeared on the market. The tendency this time is decreasing and starts at a relatively high point of 7,16%. It is important to admit that, as the Polish market is quite young, it is only possible to get reliable data for 10, not 20, years, so the comparison will not be exact.

Decreasing tendency in interest rates seems to have the strongest influence on the annuity offered by Nordea. It makes the offer really competitive not only versus regular annuity, but also in contrast with the diminishing instalments. The advantage in this case is 4 months earlier repayment than in the initial schedule. Also it is not necessary to speculate how much you will spend next month and in ten years, every time it’s the same amount. You can pay your

Studentka Szkoły Głównej Handlowej, na kierunku Finanse i Rachunkowość, ze specjalizacją Bankowość. Jej zaintersowania zawodowe pozostają w obrebie bankowości korporacyjnej oraz rynków finansowych i funduszy inwestycyjnych. Członkini AIESEC - odpowiedzialna za wymianę międzynarodową i lider nadchodzącej edycji Native School.

Diagram 3: Interest paid after 20 years

Source: own elaboration for the bachelor degree thesis monthly budget, holidays abroad, private school for children and so on and be sure no big payment will surprise you. One can assume this is the advantage which annuity has against the diminishing instalments, but with shorter crediting period and lower interest. Obvious, but worth mentioning, is the fact how strong of an influence crediting period has on the loan’s price. The

Diagram 4: Interest rate forecast on Polish market

Source: own elaboration for the bachelor degree thesis Diagram 5: Interest paid after 10 years

Source: own elaboration for the bachelor degree thesis

longer your repayment schedule is, the more expensive it becomes. This happens because every month the interest is counted from the total amount of capital minus the amount that was already repaid. This is what makes diminishing instalments the cheapest option, because capital’s participation in the instalment is fixed. It means it doesn’t change with rates fluctuation, so the basis for calculating interest decreases steadily. Moreover, this is a perfect option for those who hate taking a risk; it’s clear that at the beginning you have to pay more, but then it cannot get worse. The contrary is true for annuity and fixed annuity. In the beginning a client can think it is the safer option, as the rate is “stable” and in theory it should be easier to plan the budget. Actually, if expected rates are too high, they will be recounted into annuity. Probably no relation manager tells the client what exactly can be the effect of rocketing rates.

What are the general conclusions? Take credit when interest rates are high as sooner or later they will decrease, as well as the cost of your credit following. Do not try to avoid risk by choosing more complicated financial tools, except if you have analysed it extensively. Diminishing rate is always the safest option.

English section

47


Poznaj największy program zniżek studenckich w Polsce dostępny tylko dla studentów UW! here.uw.edu.pl facebook.com/here.uw Koło Naukowe Strategii Gospodarczej Uniwersytetu Warszawskiego Warszawa 2014


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.