48
str. 13 Oliwia Komada Niezależność banków centralnych str. 36 Katarzyna Błaszczyk W porównaniu do..., czyli kilka słów o naszej irracjonalności str. 44 Aneta Michalik Credit of trust to your financial manager str. 26 Daniel Traczewski Prawdy i mity o Solvency II Pułapka płynności - czy to już? str. 4 to zalezy Niezależny Magazyn Studencki nr3/20 14 (9) issn 2084-7874 .

Tozależy9

Embed Size (px)

DESCRIPTION

 

Citation preview

Page 1: Tozależy9

str. 13Oliwia KomadaNiezależność banków centralnych

str. 36Katarzyna Błaszczyk W porównaniu do..., czyli kilka słów o naszej irracjonalności

str. 44Aneta MichalikCredit of trust to your financial manager

str. 26Daniel Traczewski Prawdy i mity o Solvency II

Pułapka płynności - czy to już?str. 4

to zalezyNiezależny Magazyn Studencki

nr3

/20

14 (

9)

issn 2084-7874 .

Page 2: Tozależy9

HISTORIA LUBI SIĘ POWTARZAĆ

Japonia doświadczyła w swojej historii okresu długotrwałego zastoju gospodarczego. Działalność banku centralnego w okresie recesji

jest wtedy nadzwyczaj istotna. Może wspomóc albo pogrążyć gospodarkę. Historia nie raz pokazała,

że standardowe działania nie zawsze kończą się zamierzonym efektem. Stąd okresy hiperinflacji czy deflacji, zastoju i recesji czy też bezrobocia lub innych anomalii. W ekonomii nie można powiedzieć, że coś wydarzy się na pewno. W ekonomii można powiedzieć, że coś może się wydarzyć, o ile nie pojawi się … i tu można dopowiedzieć wiele różnych zjawisk gospodarczych. Ekonomia nie jest doskonała, ani przewidywalna.

W tym numerze przeczytacie o tejże niedoskonałości, poprzez którą strefa euro nadal walczy ze słabą sytuacją ekonomiczną. Utrzymujące się wysokie bezrobocie, niepewne wzrosty PKB czy też historycznie niski poziom stóp procentowych to obecnie główne problemu europejskiej gospodarki. Tematem numeru staje się tym samym pułapka płynności, w której strefa euro najprawdopodobniej mogła się znaleźć. Pułapka płynności, która może mieć długotrwałe negatywne skutki mające wydźwięk globalny.

Co w takim wypadku należy zrobić? Co planuje Europejski Bank Centralny? Ostatecznie , co z tego wszystkiego wyniknie?

W tym numerze postaramy się odpowiedzieć na te pytania, pozostawiając nutę niepewności, bo przecież odpowiedzią na nie może być: to zależy.

Redaktor Naczelna Redaktor Prowadzący

Redaktor Naczelna- IZA WIŚNIEWSKA

Redaktorzy Prowadzący- WOJCIECH MILEWSKI, SEBASTIAN

LEWANDOWSKI

Projekt graficzny- PATRYCJA DYRDA, OLGA GRZĘDA, ANNA

KONDZIERSKA, AGNIESZKA MATYJASZCZYK, JAKUB

PAWLIK, KAMIL PRZĄDKA, IZA WIŚNIEWSKA

Korekta- MAGDALENA BEDNARSKA, AGNIESZKA

PIETRZYK, KATARZYNA ROJEK

Strona internetowa tozalezy.pl- AGNIESZKA PIETRZYK

Facebook- ANNA KONDZIERSKA

Okładka- OLGA GRZĘDA

Kontakt: [email protected]

Wydawca:

Koło Naukowe Strategii Gospodarczej Uniwersytetu Warszawskiego

Sponsor wydruku magazynu:

Page 3: Tozależy9

SPIS TREŚCI

To Zalezy

.

Niezale¿ny Magazyn Studencki

Nr

1/20

14 (

7)

ISSN 2084-7874

str. 4

str. 24Wojciech MilewskiKonfrontacja energetyki z wolnym rynkiem

str. 14Wywiad ze Zbigniewem Jagiełło, prezesem PKO BP

str. 34Interview with Miguel Gouveia, an expert in Public Economics area at Católica Lisbon School of Business and Economics

str. 10Michał Mikołajczyk

Bitcoin - waluta przyszłości?

TEMAT NUMERU Pułapka płynności- czy to już? IZA WIŚNIEWSKA 4 MAKROEKONOMIA Kryzys kontra drukarki WOJCIECH ŚWIDER 10 Niezależny Bank Centralny– strażnik stabilności czy kula u nogi? OLIWIA KOMADA 13 RYNEK KAPITAŁOWY SPO – jak rynek reaguje na kolejne emisje akcji? KATARZYNA OKOŃ 15 Start-up – ryzyko, które przyciąga VC DOMINIK SIKORA 18 New Connect – zmiany na lepsze WOJCIECH MILEWSKI 20 GOSPODARKA Embargo na polskie jabłka, czyli koszmar sadowników MICHAŁ SOBIERAŃSKI 24 UBEZPIECZENIA Prawdy i mity o Solvency II DANIEL TRACZEWSKI 26 ŚWIAT Absolute Aversion to Alarm, czyli ocena zachowania agencji ratingowych przed kryzysem JUSTYNA DĄBROWSKA 30 Szkodliwe obietnice polityków – polskie mity państwa opiekuńczego PRZEMYSŁAW TWARDZIAK 33 TO ZALEŻY Reforma górnictwa – czy Polsce potrzeba drugiej Thatcher? WOJCIECH MILEWSKI, SEBASTIAN LEWANDOWSKI, AGNIESZKA PIETRZYK 36 OPINIE W porównaniu do… czyli kilka słów o naszej irracjonalności KATARZYNA BŁASZCZYK 38 To co słyszysz, to co czytasz, to co widzisz SEBASTIAN LEWANDOWSKI 40 Kiedy w skarbcu pusto MICHAŁ MIKOŁAJCZYK 42 TECHNOLOGIA Co dalej z Big Data? KAMIL PRZĄDKA 44 ENGLISH SECTION Credit of trust to your financial manager ANETA MICHALIK 46

Page 4: Tozależy9

Temat numeru4

ww

w.le

asin

gbud

owla

ny.p

l

Czym jest pułapka płynności?

Pułapka płynności oznacza sytuację, w której nominalne stopy procentowe są bliskie lub równe zero, a gospodarka przesycona jest płynnością (Lars Svensson, 1999). W kraj występują deflacyjne oczekiwania. Konwencjonalna polityka monetarna staje się nieskuteczna, gdyż gotówka i papiery wartościowe, mając tę samą stopę zwrotu, stają się doskonałymi substytutami. Operacje otwartego rynku przeprowadzane przez bank centralny zwiększają bazę monetarną, jednak nie mają one wpływu na ceny i popyt, a co więcej, nie powstrzymują tendencji deflacyjnych.

Dużym problemem związanym z pułapką płynności jest brak przekonania społeczeństwa o inflacyjnym charakterze zwiększania podaży pieniądza. Działaniem, które mogłoby wyprowadzić gospodarkę z pułapki, jest doprowadzenie do ujemnej realnej stopy procentowej (↓r=↓i-↑π). Praktycznie zerowe stopy procentowe wykluczają jednak dalsze obniżki (pieniądz gotówkowy wyprze wtedy obligacje). W związku z tym, celem banku centralnego staje się stymulacja inflacji.

Rynek spodziewa się jednak, że ekspansja monetarna jest tymczasowa, tj. zakładając wzrost inflacji w obecnym okresie, panuje przekonanie o jej powrocie do wyjściowego poziomu w kolejnym. Jest to efekt dobrze zakotwiczonych oczekiwań inflacyjnych. Krugman przekornie twierdzi, że jeśli bank centralny wiarygodnie przekona, iż będzie postępował nieracjonalnie, czyli będzie chciał zwiększać podaż pieniądza, aby długoterminowo utrzymywać wysoką inflację, to rynek pozwoli na wzrost cen i gospodarka wyjdzie z pułapki1. Pułapka płynności to także utrzymywanie się realnej stopy procentowej powyżej naturalnej, która równoważy popyt z podażą. Jeśli zależność taka ma miejsce, gospodarka nie rozwija się zgodnie z potencjalnym tempem. Nawet utrzymanie nominalnej stopy procentowej na poziomie bliskim zera nie pozwala na zbliżenie się realnej stopy procentowej do naturalnej z uwagi na niską inflację lub deflację.

Nigdy nie można z pewnością określić, czy dana sytuacja gospodarcza już jest pułapką płynności czy nie. Ekonomiści przypuszcają, że Japonia była w niej co najmniej dwa razy.

Pułapka płynności: czy to już?

Pułapka płynności jeszcze 20 lat temu była uznawana wśród ekonomistów za zjawisko, które „nie może wystąpić, nie wystąpiło i nigdy więcej nie wystąpi” („cannot happen, did not happen, and will not happen again”, Paul Krugman, 1998). Jednak sytuacja Japonii na przełomie XX i XXI wieku pokazała, że w ekonomii nie ma rzeczy niemożliwych. Warto więc zastanowić się, czy obecnie to gospodarka strefy euro nie znalazła się w potrzasku. Stopy procentowe bliskie zeru oraz potrzeba sięgania po niekonwencjonalną politykę monetarną pokazują, że strefa euro nie jest na wymarzonej ścieżce wzrostu.

1 Krugman Paul, It’s Baaack: Japan’s Slump and Return of the Liquidity Trap, 1998.

Page 5: Tozależy9

Temat numeru 5

Studentka International Economics na Wydziale Nauk Ekonomicznych UW. Redaktor

naczelna magazynu „To Zależy”. Stypendystka Think Paga! Akademia Analiz i Mediów Fundacji im.

Lesława A. Pagi. Członkini Koła Naukowego Strategii Gospodarczej UW. Interesuje się zagadnieniami wzrostu gospodarczego i polityki ekonomicznej.

Iza Wiśniewska

W USA mogła wystąpić ona w okresie Wielkiego Kryzysu oraz ponownie na początku XXI wieku. Chociaż przypadki pułapki płynności są nieliczne, można zauważyć, że wiąże się ona z długotrwałą recesją lub przynajmniej okresem niskiego wzrostu gospodarczego. Obecna sytuacja Europejskiego Banku Centralnego, pomimo braku oficjalnego potwierdzenia, wskazuje, że strefa euro mogła wpaść w pułapkę płynności. W artykule tym spróbuję znaleźć argumenty potwierdzające tę tezę.

Sytuacja strefy euro

Podstawowym założeniem pułapki płynności jest niski poziom stóp procentowych. I tak, przeglądając dane ekonomiczne na przestrzeni kilku lat, wyraźnie widoczny jest spadek stóp procentowych trwający nieprzerwanie od października 2008 do lutego 2010. Ich poziom już w 2008 roku był bardzo niski (nie przekraczał 1,5%). Tymczasowa poprawa koniunktury w 2011 roku i wyjście z deflacji, a nawet znaczny skok inflacyjny, spowodowały, że wzrosło przekonanie o wyjściu z recesji, i Jean-Claude Trichet, ówczesny prezes EBC, postanowił podnieść stopy procentowe. Jak się okazało, nie była to trafna decyzja, ponieważ gospodarka znów spowolniła, czego skutkiem był powrót do dalszych obniżek stóp procentowych, co w konsekwencji doprowadziło do obecnej, historycznie niskiej stopy procentowej na poziomie 0,3%2. Wzrost PKB nadal utrzymuje się na niskim i niestabilnym poziomie (wykres 1). Oczekiwane są wzrosty na poziomie 1% w 2014 i 1,7% w 2015 roku, ale wynik za drugi kwartał 2014 roku wskazuje na jedynie 0,64-procentowy wzrost. Widać zatem, że w środowisku niskich nominalnych stóp procentowych, a nawet okresu ujemnej realnej stopy procentowej,

Źródło: Opracowanie własne na podstawie IMF.

Wykres 2. Realna stopa procentowa i inflacja w strefie euro (styczeń 2008-październik 2014)

Źródło: Opracowanie własne na podstawie EBC.

Wykres1. Stopa wzrostu PKB wraz z szacunkami na najbliższe 5 lat

gospodarka opornie odżywa, czemu nie sprzyja dobrze zakotwiczona niska inflacja. Przy obecnym poziomie inflacji (0,4%), przy niskiej nominalnej stopie procentowej udało się doprowadzić do ujemnej realnej stopy procentowej, co

widać na wykresie 2. Jednak dopóki realna nie pokrywa się z naturalną stopą procentow nie przyniesie to ożywienia.

2 https://www.ecb.europa.eu/stats/monetary/rates/html/index.en.html

-5

-4

-3

-2

-1

0

1

2

3

4%

-2

-1

0

1

2

3

4

5%

inflacja realna stopa procentowa

Page 6: Tozależy9

Temat numeru6

Na wykresie 3 przedstawiono stopę wzrostu agregatu pieniężnego M0 (gotówka w obiegu) i M3. Widać, że od przyśpieszonego wzrostu i równie szybkiego spadku w 2009 roku, stopa wzrostu M0 jest stosunkowo stała. Oznacza to, że rzeczywiście gotówki w obiegu jest coraz więcej. Analizując dynamikę agregatu M3, widać, że znacznie spadła ona po kryzysie w roku 2008 i utrzymuje się na niskim poziomie. Wskazuje to, że zwiększanie M0 nie idzie w parze z proporcjonalnym zwiększaniem się M3. Należy zwrócić uwagę, że brak przyrostu M3 lub jego niedopasowanie do M0, przy jednoczesnym wzroście M0, oznacza nadpłynność w budżetach gospodarstw domowych, a dokładniej zbyt wysokie oszczędności w stosunku do konsumpcji. Potwierdza to tezę o nadmiernej płynności w gospodarce.

Kolejnym zjawiskiem charakteryzującym pułapkę płynności jest produkcja poniżej poziomu potencjalnego. Miarą tego zjawiska jest luka popytowa1, która w strefie euro od czasu kryzysu utrzymuje się na dodatnim poziomie. W świetle teorii ekonomii oznacza to niewykorzystanie mocy produkcyjnej, czego potwierdzenie można znaleźć m.in. w wysokich wskaźnikach bezrobocia. Temat ten jest obszernie dyskutowany wśród ekonomistów, ponieważ istnieje niespójność opinii w kwestii przyczyny tego zjawiska. Specjaliści podzielili się na dwie grupy. Jedna mówi, że bezrobocie jest strukturalne, czyli wynika z niedopasowania podaży do popytu. Druga, mniej popularna, przekonuje, że bezrobocie jest cykliczne, czyli wynika z niedostatecznego popytu na pracę.

Opcja pierwsza jest poniekąd wygodniejsza dla rządzących, ponieważ bezrobocia strukturalnego

nie można poprawić, wpływając na stronę popytową (np. stymulacje fiskalne czy monetarne). Z kolei bez-

robocie cykliczne, które wynika z zastoju gospodar-czego, jest dla rządzących większym zobowiązaniem.

Zazwyczaj występuje przekonanie, że obecnie bezrobo-cie ma charakter strukturalny. Opinia ta nie musi być jed-

nak poprawna. Otóż trwające zbyt długo bezrobocie może być nadal efektem pokryzysowym. Osoby, które straciły pracę w wyniku spadku popytu na nią w okresie kryzysu, stały się bezrobotnymi. Osłabła ich chęć poszukiwania pracy i nie robią tego efektywnie. Innym powodem może być deprecjacja kapitału ludzkiego, co powoduje, że osoby te nie są wydajne w pracy, zatem pracodawcy nie chcą ich zatrudniać. Kolejnym argumentem może być usztywnie-nie płac od dołu. Ludzie nie chcą zatrudniać się tam, gdzie płaca jest poniżej ich oczekiwań. Jak zauważa prezes Europe-jskiego Banku Centralnego, Mario Draghi, płace w strefie euro są raczej stałe. Przy spodziewanym bezrobociu struk-turalnym wzrost popytu na pracę powinien powodować wzrost stawek płacy. Zatem przy obecnej stałości pensji w strefie euro możemy mieć do czynienia albo ze wzr-ostem podaży pracy (czyli większą liczbą osób aktywnych zawodowo), albo ze spadkiem popytu na pracę (czyli zbyt małą liczbą miejsc pracy czy też brak chęci zatrudniania ze strony pracodawców). Ponieważ zgodnie z danymi lic-

1 Luka popytowa stanowi różnicę między potencjalnym a rzeczywistym poziomem PKB.

www.payanywhere.com

Page 7: Tozależy9

Temat numeru 7

zmiana struktury popytu na pracę, żeby bezrobotni nie byli w stanie sprostać jego oczekiwaniom. Problem bezrobocia w jakimś stopniu może być strukturalny, jednak gros bezrobocia to bezrobocie cykliczne, które jest efektem kryzysu popytowego.

Powróćmy jeszcze do kwestii oczekiwań inflacyjnych konsumentów. Bank centralny chce spowodować, aby społeczeństwo spodziewało się wzrostu cen, a przez to skłonić ich do wzmożonej konsumpcji w bieżącym okresie. Jeżeli, jak wspomniałam we wstępie, bank centralny obiecałby, że będzie się zachowywał „nieracjonalnie” i spróbuje utrzymać wysoką inflację przez dłuższy okres, konsumenci mogliby zwiększyć swoje oczekiwania inflacyjne, a co za tym idzie, również konsumpcję.

Obecnie jednak społeczeństwo nie spodziewa się wzrostu cen. W badaniach nad oczekiwaniami inflacyjnymi konsumentów widać wyraźne tendencje spadkowe, co zdecydowanie nie jest w zgodzie z życzeniami EBC. Powoduje to, że konsumenci, mimo stałego poziomu dochodów, nie konsumują wystarczająco dużo, aby popyt zrównał się z podażą, a tym samym przyczyniają

Wykres 3. M0 i M3 (stopa wzrostu) w latach 2006-2014

Źródło: Opracowanie własne na podstawie EBC.

Wykres 4. Krzywa Beveridge’a dla strefy euro (wykres po prawej uwzględnia niedobory siły roboczej)

3. Wskaźnik mierzący stosunek liczby wolnych miejsc pracy do sumy ogólnej liczby miejsc pracy (zajętych i wolnych)

Źródło: http://www.ecb.europa.eu/pub/pdf/scpwps/ecbwp1586.pdf

zba osób aktywnych zawodowo w strefie euro nie odnotowała istot-nego wzrostu, to przyczyną pozostaje niewystarczający popyt na pracę, co wskazuje ponownie na występowanie bezrobocia cyklicznego, a nie struk-turalnego. Przedłużające się bezrobo-cie cykliczne (histereza) powoduje, że produkcja krajowa pozostaje na pozio-mie poniżej potencjalnego, co może doprowadzić do wydłużenia recesji. Krzywa Beveridge’a (wykres 4) poka-zuje, że faktycznie wystąpił okres, w

którym wzrosła liczba wolnych miejsc pracy, a bezrobocie nie malało, co może świadczyć o niedopasowaniu na rynku pracy. Jednak długookresowa analiza wskaźnika job vacancy rate3 (wykres 5) pokazuje, że liczba wolnych miejsc pracy po kryzysie nie zbliżyła się do poziomów przedkryzysowych, zatem ci, którzy stracili etat w trakcie kry-zysu, nadal nie mogli go uzyskać, bo liczba miejsc pracy nie zwiększyła się wystarczająco. Nie można się jednak spodziewać, że nastąpiła tak szybka

-0,5

1,5

3,5

5,5

7,5

9,5

11,5

13,5

15,5%

Gotówka w obiegu (M0) M3

Page 8: Tozależy9

Temat numeru8

się do kontunuacji spowolnienia gospodarczego. Sytuacja ta ma już miejsce od dłuższego czasu. Tezę tę potwierdza wykres kredytów udzielonych przez bank gospodarstwom domowym. Mimo dostępności kredytów, nie są one zaciągane, bo konsumenci nie mają potrzeby zdobywać dodatkowych środków (wykres 6).

Pułapka płynności sprawia, że standardowa polityka ekonomiczna nie jest efektywna. Bank centralny nie może dalej obniżać stóp procentowych, a zwiększanie podaży pieniądza przez operacje otwartego rynku nie wpływa na inflację dopóki społeczeństwo nie uwierzy, że będzie ona wyższa. W teorii metodą na wyjście z takiego kryzysu jest ekspansja fiskalna. W przypadku strefy euro krajom nie mającym swojej własnej waluty ciężko jest się zadłużać w celu stymulacji fiskalnej. Rynki finansowe mogłyby łatwo ukarać je za wzrost długu poprzez zwiększenie rentowności papierów wartościowych. Z drugiej strony EBC nie wspomoże kraju, gdyż nie jest wyłącznym bankiem centralnym jednego kraju. Wobec tego ekspansja fiskalna nie jest obecnie rozważaną metodą. Wpływa na to także wysoki poziom zadłużenia wielu krajów strefy euro (Portugalia, Grecja, Hiszpania, Włochy). Obecne zadłużenie całej strefy euro wynosi 92,7% PKB4. Ekonomiści mówią zatem mimo wszystko o konsolidacji fiskalnej z uwagi na zagrożenie nadmiernym zadłużeniem, które może spowodować, że kraje staną się niezdolne do obsłużenia swojego długu. Konsolidacja, czyli restrykcyjna polityka fiskalna, miałaby wpłynąć na obniżenie zadłużenia. Z uwagi na szkodliwy jej wpływ w okresie słabego wzrostu gospodarczego,

pojawiają się opinie za przeprowadzaniem jej w okresie późniejszym, a obecne kontynuowanie na niezmienionym, niskim poziomie. Alternatywną metodą na wyjście z pułapki

Wykres 5. Job Vacancy Rates

Źródło: Opracowanie własne na podstawie Eurostat.

4 Dane z bazy danych statystycznych ECB [online: http://sdw.ecb.int/]

ww

w.p

orad

niks

ukce

s.com

Page 9: Tozależy9

ww

w.m

ight

y-si

te.co

m

Temat numeru 9

Wykres 6. Poziom agregatu pożyczek (mln €) z wyłączeniem sektora państwowego w latach 2000-2014

Źródło: Opracowanie własne na podstawie EBC.

płynności są niekonwencjonalne metody polityki monetarnej. Obecnie rozpoczyna się proces luzowania ilościowego (Quantitative Easing) przez EBC. Niektórzy ekonomiści postulują podniesienie celu inflacyjnego, który mógłby przekonać konsumentów, że wyższa inflacja może mieć miejsce i jest świadomą polityką banku centralnego. Koncepcja podwyższonego celu inflacyjnego pojawia się coraz częściej w debacie ekonomicznej. Dostrzegane są dobre strony inflacji w analizie historii poprzednich kryzysów gospodarczych. Wśród ekonomistów obecna jest także opinia, że samo QE może nie być jednak wystarczające, aby ożywić gospodarkę i przywrócić naturalne zatrudnienie. Wprowadzenie wyższego celu inflacyjnego nie jest jednak raczej rozważane w EBC z uwagi na obawy przed inflacją, które mają charakter historyczny.

I co dalej…

Z przedstawionej analizy można wnioskować, że strefa euro znalazła się w pułapce płynności. Słabe tempo wzrostu PKB może się zatem utrzymywać jeszcze kilka lat. W perspektywie braku stymulacji fiskalnej, zakotwiczenie inflacji na jej obecnie niskim poziomie może wydłużyć okres kryzysu. Warto też zwrócić uwagę na bezrobocie, które z krótkotrwałego przekształciło się w długotrwałe i negatywnie wpływa

na lukę popytową. Niekonwencjonalna metoda polityki monetarnej może jednak nie wystarczyć. Byłaby skuteczna, gdyby przekonała konsumentów o tym, że inflacja będzie rosła. Wpływanie na oczekiwania konsumentów może jednak nie być skuteczne. Nie wiadomo zatem, jak daleko musi posunąć się EBC, aby wywołać u konsumentów jakąkolwiek reakcję, która wpłynie na ożywienie gospodarki. Quantitative Easing, które obecnie zakończyło się w USA, prawdopodobnie przyniosło oczekiwane skutki: poprawiła się sytuacja na rynku pracy i odnotowuje się ożywienie gospodarcze.

Jednak uwzględniając Japonię, która w pułapce płynności tkwiła prawdopodobnie przez kilka lat, proces luzowania ilościowego nie przynosił spodziewanych efektów. Jednocześnie w obecnej sytuacji ekonomicznej właśnie takiego działania spodziewa się rynek. Zatem jeśli EBC nie przystąpiłby do luzowania ilościowego, mógłby stracić wiarygodność. Przy założeniu, że inflacja nadal nie odnotuje tendencji wzrostowej, QE może być mimo wszystko najlepszym wyjściem. Obecnie, po doświadczeniach USA, wydaje się, że może ono istotnie wpłynąć na poprawę sytuacji ekonomicznej.

Page 10: Tozależy9

Makroekonomia10

Rola banku centralnego w gospodarce

Istnienie banku centralnego we współczesnych rozwiniętych krajach jest powszechnie uznawanym standardem. Pełni on kilka kluczowych funkcji: emituje pieniądz i dba o jego wartość, jest bankiem państwa – prowadzi rachunki bankowe rządu, dba o stabilność ekonomiczną – głównie przez cel inflacyjny, ale również kontrolując kurs walutowy, bilans płatniczy i całe sektory gospodarki. W centrum zainteresowania banku centralnego znajduje się sektor bankowy, który odgrywa kluczową rolę w finansowaniu przedsiębiorstw. Co więcej, pełni ważną funkcję jako kanał transmisji monetarnej. Przykładowo: decyzja banku centralnego o obniżce stóp procentowych będzie miała wpływ na gospodarkę dopiero, gdy banki komercyjne dostosują swoje oferty kredytów i lokat do niższych stóp w banku centralnym. W poszczególnych państwach banki centralne mają różne funkcje i zróżnicowany poziom autonomii.

Bank centralny USA – FED (Federal Reserve) posiada cele w zakresie: inflacji, bezrobocia i długoterminowych stóp procentowych. Dla kontrastu można przywołać Europejski Bank Centralny (EBC), który jest skierowany wyłącznie na cel inflacyjny. Władze banku biorą pod uwagę też inne zmienne przy podejmowaniu decyzji, ale inflacja wyraźnie stoi na pierwszym miejscu. Mimo relatywnie konserwatywnej postawy w zakresie polityki monetarnej, w czasie kryzysu finansowego (2007-2008) EBC podejmował daleko idące kroki w celu ratowania systemu bankowego i zdecydował się na wykup obligacji krajów strefy euro.

Narzędzia banków centralnych

Narzędzia będące w arsenale banków centralnych przyjęło się dzielić na konwencjonalne i niekonwencjonalne. Narzędzia konwencjonalne to oficjalne stopy procentowe banku centralnego, wielkość rezerw obowiązkowych dla banków komercyjnych i operacje otwartego rynku. Instrumenty niekonwencjonalne – takie jak programy skupu aktywów, o których będzie mowa w dalszej części artykułu, stanowią nową grupę zastosowaną na szeroką skalę po kryzysie finansowym 2007-2008 roku. Według ekonomistów Banku Rozliczeń Międzynarodowych niekonwencjonalność tych narzędzi nie wynika stricte z ich istoty, lecz ze skali w jakiej są prowadzone1.

Luzowanie ilościowe

Postkryzysowe otoczenie makroekonomiczne ujawniło brak skuteczności standardowego i podstawowego narzędzia banków centralnych – stopy procentowej. Serie jej obniżek

(praktycznie do minimum) nie dały pożądanego przez banki efektu i nie przełożyły się na zakładany wzrost inflacji i akcji kredytowej banków komercyjnych. Mając to na uwadze, w ostatnich latach międzynarodowym trendem stało się luzowanie ilościowe (ang. quantitative easing), polegające na masowym wykupie długoterminowych obligacji przez instytucję centralną. Powoduje to wzrost cen tych instrumentów i tym samym „zepchnięcie” rentowności na niższe poziomy – spadek rynkowej stopy procentowej. Działanie to wpływa dodatnio na bilans banku centralnego, a taki program wygasza się w dwojaki sposób: automatycznie – przez wykup papierów wartościowych przez emitenta w terminie zapadalności, lub przez sprzedaż tych papierów na rynku. Sposób pierwszy jest bardziej łagodny i na chwilę obecną wydaje się być preferowany przez banki centralne.

Narodziny programów quantitative easing (QE) i ich popularyzacja

Historia programów QE sięga 2001 roku, kiedy to Bank of Japan sięgnął po ten instrument do walki z utrzymującą się bardzo długo deflacją. Era omawianych programów rozpoczęła się na dobre kilka lat później – jesienią 2008 roku – kiedy to FED rozpoczął szeroki skup instrumentów dłużnych firm działających na rynkach hipotecznych (sponsorowanych przez rząd) i papierów wartościowych zabezpieczonych hipotecznie – tak zwanych MBS (Mortgage-Backed Securities). Kwota tego skupu wyniosła 600 mld USD.

Kryzys kontra drukarki

1 Janus Jakub, Kontrowersje wokół niekonwencjonalnych instrumentów polityki monetarnej, 2011. [online: http://www.psz.pl/index.php?option=com_content&task=view&id=39564]

Źródło: investing.com

Reakcja WIG20 na wypowiedź Bena Bernanke z 19 czerwca 2013

Page 11: Tozależy9

Makroekonomia 11

W marcu następnego roku nastąpiła kolejna tura skupu – tym razem jeszcze większa. Te działania FED-u nazwane zostały QE1 i łącznie miały wartość około 1,7 bln USD. Nie wystarczyło to jednak do zażegnania kryzysu w USA, i między listopadem 2010 a czerwcem 2011 FED przeprowadził QE2, tym razem na kwotę „tylko” 600 mld USD2.

W przypadku EBC, również rynki doczekały się luzowania ilościowego. Nastąpiło ono w maju 2009 roku. Był to program zakupu obligacji bankowych zabezpieczonych aktywami, ogłoszony w celu udrożnienia transmisji monetarnej oraz zapewnienia płynności na rynku (zarówno pierwotnym, jak i wtórnym). EBC uruchomił dwa takie roczne programy o łącznej wartości 100 mld euro. Kolejny program EBC rozpoczął w 2010 roku, w odpowiedzi na problemy greckich obligacji – spadek ich cen i wzrost rentowności, co budziło obawy inwestorów o wypłacalność Grecji i trwałość całej strefy euro. Był to tak zwany SMP (Securities Market Programme)3.

Bank of England również wprowadził skup aktywów w odpowiedzi na kryzys, ale sytuacja w Wielkiej Brytanii nie była tak dramatyczna, jak w krajach strefy euro. Bilans BoE nie urósł do takich rozmiarów, jak bilans FED-u czy EBC4.

Polityka monetarna banków centralnych USA, Wielkiej Brytanii, Unii Europejskiej i

Japonii po kryzysie – stan obecny

Od załamania gospodarczego minęło już kilka lat, lecz światowa gospodarka nadal ma problemy z trwałym odbiciem gospodarczym. Ożywienie jest delikatne i nierównomierne.

W USA sytuacja w pierwszych dwóch kwartałach 2014 roku ulega stopniowej poprawie: rośnie dynamika PKB, stopa bezrobocia spada w szybkim tempie, inflacja zbliża się do celu. Mimo pozytywnych oznak, przedstawiciele FED-u w większości unikają „jastrzębich” wypowiedzi, choć ostatnio można takowe coraz częściej usłyszeć z ust niektórych członków. FED w 2012 roku, wprowadził trzecią serię luzowania ilościowego (QE3). Od grudnia 2013 było ono stopniowo ograniczane, a na ostatnim posiedzeniu FED (29 października 2014) zostało całkowicie zakończone. Stopy procentowe pozostały utrzymane blisko zera. Sprawozdanie z posiedzenia sugeruje, że taki stan rzeczy szybko się nie zmieni.

Gospodarka strefy euro ma się znacznie gorzej. Podczas gdy FED zdaje się powoli kończyć ekspansję monetarną, EBC ostatnio zastosował nowe, zdecydowane środki luzowania. W tym roku zostały podjęte daleko idące działania ze strony banku. Między innymi EBC dokonał obniżki stóp procentowych oraz wprowadził LTRO (Long Term Refinancing Operation) – długoterminowe pożyczki dla banków. Zwieńczeniem wydaje się być posiedzenie z 4 września, na którym stopa refinansowa spadła do poziomu 0,05%, a depozytowa do -0,2% (!). Ponadto Mario Draghi zapowiedział skup ABS (Asset-Backed Securities), co nazywane jest „małym” QE. Dokładne informacje o tym programie mają zostać podane na październikowym posiedzeniu. Powodem tak zdecydowanych działań jest niska inflacja, która w niektórych krajach (np. Hiszpanii i Włoszech) jest bliska deflacji. Przez obawy o inflację, Mario Draghi w ciągu ostatnich miesięcy włożył wiele wysiłku w słowne osłabianie euro, które dzięki systematycznemu umacnianiu się do dolara miało hamować inflację. Interwencje słowne działały krótkoterminowo, ale późniejsze bardzo zdecydowane działania EBC skłoniły inwestorów do zmiany nastawienia do wspólnej waluty.

Wielka Brytania już od 2013 roku notuje znaczną poprawę wskaźników gospodarczych. Szef BoE – Mark Carney powiedział w lipcu, że gospodarka Wielkiej Brytanii „dobiła” już do poziomu sprzed kryzysu. Bank Anglii posiada na swoim koncie papiery wartościowe warte 375 mld funtów, a referencyjna stopa procentowa wynosi 0,5%. Inflacja zaczyna odbijać, a szczególnie rosną ceny nieruchomości. W ostatnich miesiącach szefowie BoE nieco stonowali swój głos w sprawie podwyżek ze względu na niski wzrost płac.

Gospodarka Japonii odbija powoli, rośnie PKB i inflacja, jednak stoi za tym bardzo duża ingerencja Bank of Japan. Gdy 20 marca 2013 roku Haruhiko Kuroda objął stanowisko prezesa, wypowiedział wojnę deflacji, która od wielu lat była obecna w Japonii. Już wcześniej otwarcie mówił, że jest dużo miejsca na luzowanie ilościowe. W efekcie BoJ kupuje co miesiąc aktywa za 7,5 bln jenów. W przeliczeniu na dolary daje to około 70 mld USD – czyli prawie tyle, ile FED kupował jeszcze w grudniu 2013 roku. Warto jednak zauważyć, że gospodarka japońska jest około 3 razy mniejsza od amerykańskiej, zatem skala luzowania jest znacznie większa5. Kuroda 16 września stwierdził, że BoJ będzie luzował politykę, aż inflacja ustabilizuje się w okolicach 2%. W opinii prezesa gospodarka Japonii jest w połowie drogi do celu inflacyjnego. Dodatkowo podkreślił on, że bank nie

Wojciech ŚwiderStudent IV roku finansów i

rachunkowości na Wydziale Ekonomii, trader na rynku walutowym. Główne zain-

teresowania: rynki finansowe, polityka monetarna, austriacka szkoła ekonomii, sport, wędkarstwo.

2 Jaworski Władysaw, Współczesna bankowość centralna, Warszawa 2012, s. 100.3 Tamże, s. 104.4 Tamże, s. 96.

Page 12: Tozależy9

Makroekonomia12

zawaha się dostosować swojej polityki, jeśli zajdzie taka potrzeba. Taki ton może wiązać się z chęcią wywołania presji na osłabienie jena, w celu wspomożenia eksporterów, stanowiących motor tamtejszej gospodarki.

Austriacka szkoła w ekonomii i jej postulaty odnośnie zaniżonych stóp procentowych

Przedstawiciele austriackiej szkoły w ekonomii posiadają obszerny dorobek naukowy, objaśniający powstawanie cyklu koniunkturalnego przez działalność banku centralnego. Ich postulaty zostaną zwięźle przedstawione poniżej.

Stopy procentowe w gospodarce wolnorynkowej kształtują się w sposób naturalny pod wpływem wielu czynników, m.in. stopy oszczędności ludzi i ich preferencji czasowej. Bank centralny arbitralną decyzją o obniżce stóp zaburza ten proces. Banki komercyjne udzielają większej ilości kredytów i pieniądz staje się łatwiej dostępny. Przedsiębiorcy otrzymują fałszywą informację, która zniekształca ich kalkulacje ekonomiczne. Zasoby lokowane są błędnie – niektóre branże przeżywają irracjonalny boom. Ponadto przedsięwzięcia, które dotychczas były nieopłacalne, z niższą stopą procentową wydają się być rentowne. Rosną ceny dóbr kapitałowych i płac, napędzane przez popyt przedsiębiorstw. Dzięki wzrostom płac rosną konsumpcja i ceny – pozorne ożywienie trwa. Dobre nastroje w gospodarce utrzymują się tak długo, jak długo trwa ekspansja kredytu. Nie może ona jednak trwać wiecznie, ponieważ bank centralny zwykle ma określony cel inflacyjny, przy którym zaczyna zaostrzać politykę monetarną. Gdyby bank centralny pozwolił inflacji ciągle rosnąć, to w pewnym momencie ludzie zorientowaliby się, że ożywienie jest „nadmuchane” tanim pieniądzem i nastąpiłaby ucieczka od pieniądza (dynamicznie tracącego na wartości). Następstwem tego byłby spadek zaufania do banków i załamanie systemu pieniężnego.

Wygląda na to, że w ten schemat dobrze wpisuje się kryzys finansowy 2007-2008 w USA, kiedy to FED sprowadził stopę procentową w okolice jednego procenta, pozwalając urosnąć bańce na rynku nieruchomości. Mark Thornton, amerykański ekonomista, przedstawiciel austriackiej szkoły w ekonomii, już w 2004 roku pisał o bańce na rynku nieruchomości i o jej zagrożeniach w artykule Housing: Too Good to Be True, dostępnym w sieci.

Czy znowu mamy do czynienia z bańką?

Czy możliwe jest, że tylko kilka lat po kryzysie, FED, lecząc skutki ostatniej bańki, pozwala rosnąć nowej? Obserwując zachowanie cen akcji, można odnieść takie wrażenie. Indeks giełdowy S&P500 dawno wybił historyczne rekordy, podczas gdy dane z realnej gospodarki nie zachwycały. Wielokrotnie można było zaobserwować – np. w 2013 roku – bardzo optymistyczną reakcję rynków giełdowych na słabe dane

z USA, co sugerowałoby granie na „pompowanie” pieniędzy. Luzowanie ilościowe ma wpływ nie tylko na aktywa Stanów Zjednoczonych, ale też na inne rynki, w tym Polskę. Ben Bernanke na konferencji 19 czerwca wspomniał, że ryzyka dla perspektyw ekonomicznych zmalały, co miało sugerować patrzenie w stronę ograniczania QE3. Akcje zaczęły tanieć, dolar solidnie się umocnił. Gwałtowne spadki nie ominęły warszawskiego parkietu.

Konferencja odbyła się po godzinie 20:00 czasu środkowoeuropejskiego, więc nasza giełda reagowała na słowa prezesa dopiero 20 czerwca (strzałka na wykresie wskazuje 19 czerwca).

Przy następnej okazji, w lipcu 2013, prezes FED-u zmienił swój ton i powiedział, że amerykańska gospodarka potrzebuje teraz luźnej polityki monetarnej. Prawdopodobnie widząc reakcję rynków, chciał je uspokoić i nie dopuścić do wzrostu rynkowych stóp procentowych, i de facto zacieśnienia polityki pieniężnej. Aktualna prezes FED-u – Janet Jellen jest równie ostrożnie nastawiona, co Ben Bernanke.

Wyjście z kryzysu

Załamanie gospodarcze jest odpowiedzią gospodarki na boom o niezdrowych fundamentach. Proces dostosowawczy musi nadejść i objawić się w likwidacji błędnych inwestycji, opartych o tani kredyt. Rząd czy bank centralny, próbując ratować gospodarkę przez swoje ingerencje, opóźnia jedynie proces dostosowawczy (objawiający się miedzy innymi spadkiem cen i płac), czyniąc go dłuższym7. Żeby gospodarka osiągnęła równowagę po kryzysie, potrzebny jest czas, w którym rynek oczyści się z błędnych projektów.

Co będzie dalej?

Mając na uwadze kadencyjność rządu oraz przedstawicieli władz monetarnych (w praktyce bardzo często silnie powiązanych ze sobą), można zauważyć krótkowzroczność decydentów. Objawia się to w niewyciąganiu wniosków z przeszłości i robieniu wszystkiego, aby poprawa – trwała lub nie – pojawiła się szybko. Zastosowane przez banki centralne środki luzowania największych gospodarek świata przybrały niespotykane jak dotąd rozmiary. Biorąc pod uwagę przeszłe doświadczenia i dorobek przedstawicieli austriackiej szkoły ekonomii, pozostaje nam patrzeć na bieżące działania banków centralnych ze sceptycyzmem. Warto jednak podejmować działania polegające na naciskaniu rządzących na przyjęcie perspektywy długoterminowej. Z drugiej strony warto oceniać sam kierunek działań przedstawicieli banków centralnych i polityków, a nie tylko stan gospodarki za ich kadencji. Przecież nie chodzi o to, żebyśmy żyli „od wyborów do wyborów”, przekupywani stale rosnącym długiem i tanim pieniądzem, bo okupione jest to ograniczaniem szans na rozwój i wzrost dobrobytu w długim terminie.

euro

poin

t sto

nybr

ook

edu

5 Online: http://www.reuters.com/article/2013/04/04/us-japan-economy-boj-idUSBRE93216U20130404. 6 Ludwig von Mises, Ludzkie działanie, Warszawa 2007.7 Rothbard Murray, Wielki Kryzys w Ameryce, Kraków 2010.

Page 13: Tozależy9

Makroekonomia 13

Niezależny Bank Centralny – strażnik stabilności czy kula u nogi?

euro

poin

t sto

nybr

ook

edu

W konsekwencji renesansu myśli monetarystów oraz ogromnych sukcesów gospodarczych Niemiec, w latach 90 niezależność Banków Centralnych stała się nową ewangelią, w imię której wszystkie gospodarki świata miały zostać zbawione. Dziś w większości państw istnieją zapisy konstytucyjne gwarantujące ową autonomię. Mimo to w obliczu kryzysów gospodarczych, nowych możliwości politycznych czy też w imię stabilizacji gospodarki „niezależność” porzuca się w ten lub inny sposób.

Tak bardzo niezależny?W czerwcu 2014 roku opinia publiczna została wzburzona tzw. aferą podsłuchową. Trzon skandalu stanowiły negocjacje prezesa NBP z ministrem spraw wewnętrznych, dotyczące potencjalnej ceny finansowania deficytu budżetowego przez NBP. Przed końcem 2011 roku Europejski Bank Centralny nabył obligacje państw zagrożonych niewypłacalnością za kwotę ponad 200 mld euro1. Takim działaniom najgłośniej sprzeciwiali się Niemcy, którzy argumentowali, że jest to złamanie zasad zapisanych w prawie unijnym, jak również niebezpieczne odejście od niemieckich tradycji bankowości centralnej. Tym samym EBC upodobnił się do FED-u, który takie działania stosuje regularnie od wielu lat. W konsekwencji FED posiada obecnie 2,4 bln dolarów2 z 17,7 bln długu USA3. Kwota ta jest o 64% większa aniżeli wartość zadłużenia w posiadaniu Chin, do niedawna największego udziałowca długu publicznego Stanów Zjednoczonych

Ograniczenia suwerenności

W świetle przedstawionych faktów rodzi się pytanie o sens niezależności Banków Centralnych. Czy BC może być rzeczywiście autonomiczny od wpływu politycznych decydentów? Jeżeli tak, to w jakim zakresie? Nie ma przeszkód, by suwerenność stopniować. Może być pełna i obejmować ustalanie celu finalnego; gdy BC decyduje o wysokości stopy procentowej oraz wyznacza cel inflacyjny. Z taką formą mamy do czynienia np. w Polsce i w ECB. Niektóre państwa preferują mniejszy stopień autonomii. Bank of England posiada jedynie niezależność operacyjną. Cel inflacyjny jest narzucany przez rząd, BC jest odpowiedzialny za jego realizację, którą może osiągnąć poprzez sterowanie

wysokością stopy procentowej4. Jednak żadna z form nie gwarantuje niezależności politycznej4. Marek Belka, Janet Yellen, Mark Cerney, Zhou Xiaochuan – co ich łączy? Wszyscy są prezesami BC. Wszyscy zostali mianowani z ramienia rządu lub prezydenta. Wszyscy mają możliwość reelekcji. Nie są to odosobnione przypadki. Proces wyboru prezesów banków centralnych wygląda bardzo podobnie na całym świecie. Może on rodzić pokusę upolityczniania swoich decyzji na poczet przyszłych ustaleń lub w rewanżu za otrzymane korzyści. Przedstawiciele EBC wybierani są natomiast w wyborach, ich kadencja trwa aż 8 lat i nie mogą być wybrani po raz drugi. Jednak nawet ten organ ugiął się pod naciskami rządu wobec groźby niewypłacalności Grecji, Włoch czy Portugalii.

Konieczność czy ukłon w stronę tradycji?Tu natrafiamy na kolejne pytanie. Czy w społeczeństwie demokratycznym powinno się przekładać niezależną politykę monetarną, a tym samym stabilność cen, niską stopę procentową i inflację, nad skuteczną politykę fiskalną stymulującą spadek bezrobocia? Czy BC rzeczywiście powinien być niezależny? Po kryzysie naftowym i wielkim powrocie monetarystów uważano, że jedynie autonomiczny bank centralny może zagwarantować uniezależnienie decyzji monetarnych od cykli politycznych, owocujące rozwojem długofalowym. Publikacje naukowe z lat 80. i 90. potwierdzały istotną, pozytywną zależność pomiędzy rozwojem i stabilnością gospodarczą a niezależnością banków centralnych (np. prace Thomasa Jordana5, Prakasha Loungani i Nathana Sheets6, Guya Debelle i Stanleya Fischera7). Badania prowadzone w ostatnim dziesięcioleciu podważają jednak komplementarność wyżej wymienionych.

1. Europejski Bank Centralny, Raport roczny 2011, Frankfurt am Mein 2012, s. 17. [online: http://www.ecb.europa.eu/pub/pdf/annrep/ar2011pl.pdf]2. Dane z Federal Reserve Statistical Release, stan na 04.09.2014 [online: http://www.federalreserve.gov/release/h41/20140904/]3. Dane ze strony http://www.usdebtclock.org/, stan na 08.09.2014.4. Więcej o regulacjach dotyczących banków centralnych można znaleźć w Internecie;działalność Narodowego Banku Polskiego: http://www.nbp.pl/home.aspx?f=/o_nbp/o_nbp.html,niezależność operacyjna Bank of England: http://www.bankofengland.co.uk/about/Pages/default.aspx,niezależność BoE w zakresie ustalania celów: http://people.ucsc.edu/~walshc/MyPapers/cbi_newpalgrave.pdf.5. Jordan Thomas, Disinflation costs, accelerating inflation gains, and central bank independence, „Weltwirtschaftliches Archiv”, 1997, nr 133, z. 1, s. 1-216. Loungani Prakash, Sheets Nathan, Central bank independence, inflation, and growth in transition economies, „Journal of Money, Credit and Banking”, 1997, nr 29, z. 3, s. 381-399.7. Debelle Guy, Fischer Stanley, How independent should a central bank be?, Working Papers in Applied Economic Theory, Federal Reserve Bank of Bos-ton, 1994, nr 38, s. 195-225.

Page 14: Tozależy9

Makroekonomia14

Inflacja, dług publiczny i kursy walutoweStabilność gospodarczą państwa dobrze odzwierciedlają zmiany inflacji oraz kursów walutowych. Badania przeprowadzone przez Davida Bearce w 2008 roku8

wskazują na wysoką substytucyjność stabilizacji walutowej i niezależność banku centralnego. Podobne wnioski na temat inflacji płyną z badań holenderskich ekonomistów: Jeroena Klompa i Jakoba de Haan. W swojej pracy z 2010 roku9

wykazali brak istotnego statystycznie związku pomiędzy poziomem inflacji a niezawisłością banku centralnego. Analogicznych spostrzeżeń dostarczy nam analiza roli autonomii BC w stabilizacji gospodarki w obliczu kryzysu. Christopher Hartwell10 wskazuje na brak bezpośredniego związku pomiędzy stopniem niezależności BC a stabilizacją w czasie załamania gospodarczego z 2000 roku. Pomimo że kraje z autonomicznym bankiem centralnym charakteryzowały się niższą inflacją i stopą procentową, kluczowym czynnikiem okazała się nie tyle suwerenność, ile rodzaj podejmowanych decyzji.

Rząd dał, rząd wziął?Niezależny BC jest skuteczny i prawidłowo wypełnia spoczywające nań zadania tylko wtedy, gdy autonomiczność umożliwia mu prowadzenie polityki niskiej inflacji. Zjawisko to można tłumaczyć fenomenem tzw. second-order commitment. Jeżeli rząd jest na tyle silny, by zapewnić niezależność BC, może równie dobrze pozwolić sobie na ignorowanie jego decyzji. Innymi słowy, poza ustawową gwarancją niezależności konieczna jest chęć rządu do respektowania postanowień banku centralnego. Badania przeprowadzone w 91 państwach o zróżnicowanym poziomie PKB, suwerenności BC i pozostałych czynnikach makroekonomicznych wykazały istotny ujemny efekt niezależności BC na inflację i wzrost zadłużenia państwa. Po wprowadzeniu zróżnicowania ze względu na poziom PKB, dobrze aproksymującego poziom

rozwoju i instytucji, okazało się, że jedynie w państwach o niskim dochodzie autonomiczny BC odgrywał kluczową rolę w kształtowaniu postkryzysowej gospodarki. Dla państw o dochodzie średnim lub wysokim istotniejszym elementem okazały się instytucje i otoczenie makroekonomiczne: otwartość gospodarki, dotychczasowy poziom zadłużenia państwa, mnożnik kreacji pieniądza czy kondycja sektora finansowego11.

Pozory myląW ciągu ostatnich 15 lat poziom długu publicznego wzrósł średnio o 40 punktów procentowych (z 70% do 110% w przypadku gospodarek rozwiniętych)12.

Zmiana zadłużenia została na ogół pokryta przez banki centralne poszczególnych państw. Jest to

ewidentne pogwałcenie fundamentalnego zakazu finansowania rządowego deficytu. Trudno o bardziej dobitny dowód fasadowości autonomii tych instytucji.

W wielu przypadkach BC stanowi jedynie sztucznie odseparowaną rządową jednostkę. Pozory niezależności stanowią

niebezpieczną monetę w nieczystych rozgrywkach cieni, jakich byliśmy świadkami w czerwcu tego roku w Polsce. Dodatkowo warto zauważyć,

że potencjalne problemy związane z brakiem suwerenności BC (inflacja, silne

wahania PKB, niestabilne kursy walutowe) nie znajdują potwierdzenia w badaniach empirycznych.

Okazuje się, że rządy, które preferują niski poziom inflacji, mniejsze wahania PKB czy stabilizację makroekonomiczną, to również te, które wysoko cenią niezależność banku centralnego, więc związek pomiędzy nimi może być tylko pozorny. Zatem prawdopodobnie autonomia banków centralnych jest przez nas kwestią dalece przecenianą. Mityczny twór, nawet w swej niedoskonałej formie, częściej jedynie towarzyszy rozsądnym politykom, aniżeli jest determinantą ich zachowań.

Oliwia KomadaStudentka 3 roku Informatyki i Ekonometrii na WNE UW i 2 roku Matematyki na MIM UW. Laureatka stypendium Rektora, Fundacji Edukacyjnej Przedsiębiorczości, Polsko – Amerykańskiej Fundacji Wolności i Jana Pawła II. Zapalona czytelniczka powieści Terrego Pratcheta, a zarazem chemik z zamiłowania.

8. Bearce David, Not complements, but substitutes: fixed exchange rate commitments, central bank independence, and external currency stability, „International Studies Quarterly”, 2008, nr 52, z. 4, s. 807-824.9. Klomp Jeroen, de Haan Jakob, Inflation and central bank independence: a meta-regression analysis, „Journal of Economic Surveys”, nr 24, z. 4, s. 593-621.nr 7, z. 3, s. 51-69.10. Hartwell Christopher, The role of central banks in maintaining monetary stability during the global financial crisis, „ Banks and Bank Systems”, 2012, 10. Wniosek ten pojawia się w artykule napisanym przez autora wspomnianych badań:Banki centralne: od niezależnych do niekontrolowanych?, „Rzeczpospolita”, 30.06.2014. [online: http://www.ekonomia.rp.pl/ar-tykul/1121886.html?print=tak&p=0]11. Jak wyżej12. Dane pochodzą z artykułu Will central banks cancel government debts? na blogu Gavyna Daviesa. [online: http://blogs.ft.com/gavyn-davies/2012/10/14/will-central-banks-cancel-government-debt/]

rap.genius.com

Page 15: Tozależy9

Rynki kapitałowe 15

SPO – jak rynek reaguje na kolejne emisje akcji?

Wraz z rozwojem ekonomicznym Polski wzrasta popularność rynku finansowego jako miejsca pozys-kania kapitału oraz zawierania transakcji. Stanowi on bardzo istotną część gospodarki danego kraju. Niezwykle ważne wydaje się zagadnienie rynku kapitałowego, którego rozwój w ostatnich latach w znac-znym stopniu wpłynął na popularność funkcjonowania warszawskiej Giełdy Papierów Wartościowych.

Z zagadnieniem tym powiązany jest model rynkowy wpływający na kształtowanie się tendencji w pozyskiwaniu kapitału w danym kraju. Coraz częściej podmioty działające na polskim rynku decydują się na emisję akcji poprzez ofertę publiczną, co wpływa na popularność rynku kapitałowego.

Akcja (ang. stock lub share) jest papierem wartościowym o charakterze udziałowym, uznawanym za podstawowy instrument rynku kapitałowego. Stanowi ona część kapitału zakładowego, inkorporującego uprawnienia akcjonariusza. Wśród rodzajów akcji wyróżnia się akcje imienne, przypisane do określonego akcjonariusza, oraz na okaziciela, niewskazujące określonej osoby. Akcje są prawami majątkowymi, które mogą być zbyte przez podmiot będący ich posiadaczem.

Jak pozyskać środki na prowadzoną działalność?

Finansowanie przedsiębiorstw poprzez emisję akcji często wykorzystuje się w celu pozyskania kapitału w Polsce. Jest to rodzaj finansowania zewnętrznego. Zgodnie z danymi opublikowanymi przez Giełdę Papierów Wartościowych w Warszawie, w roku 2012 na debiut giełdowy zdecydowało się 19 spółek, w roku 2013 – 23 spółki, natomiast dotychczas, w roku 2014 – 18 spółek1. Emisja akcji najczęściej stosowana jest w fazie wzrostu przedsiębiorstwa, kiedy posiada ono już pewne środki pieniężne, które chce reinwestować. Giełda stwarza korzystne warunki transakcji pozyskania funduszy, a ponadto pozwala dokonać wyceny posiadanego majątku. Spółka chcąca wejść na Giełdę zobligowana jest spełnić szereg wymagań, które jednocześnie poprawiają jej wizerunek i prestiż.

Przedsiębiorstwo będące spółką akcyjną może pozyskać środki finansowe poprzez wyemitowanie nowych akcji, a następnie ich sprzedaż. Uzyskany kapitał staje się własnością spółki, natomiast posiadacze akcji – jej współwłaścicielami. W procesie emisji akcji stroną krótką transakcji jest spółka akcyjna, natomiast stroną długą jest inwestor, który wraz z zakupem akcji danej spółki zostaje jej akcjonariuszem.

Emisji akcji dokonuje się w ofercie prywatnej oraz publicznej. Oferta prywatna skierowana jest do ograniczonej grupy inwestorów, wiąże się z wyborem Autoryzowanego Doradcy oraz przygotowaniem dokumentu informacyjnego, który zatwierdzany jest przez powyższy podmiot. Emisja publiczna dotyczy szerszej grupy osób. Emitent wybiera Dom Maklerski oraz doradców odpowiedzialnych za

1. Stan na 22 września 2014.

Page 16: Tozależy9

Rynki kapitałowe16

Katarzyna okońAbsolwentka Inwestycje Kapitałowe i Strategie Finansowe Przedsiębiorstw oraz Finanse, Audyt, Podatki na UEP. Studiowała także w Sheffield Hallam University oraz London School of Economics and Politi-cal Science. Stypendystka Rektora UEP. Uczestniczka London Study Excursion 2014 oraz Warsaw Study Excursion 2014. Fi-nalistka konkursu CFA Reaserch Challenge Poland. Obecnie stu-dentka SGH w Warszawie. Interesuje się rynkiem kapitałowym, M&A, podatkami. Działa w SKN IK Profit od 2010 roku.

przeprowadzenie oferty. Ponadto w tym rodzaju emisji wymagane jest przygotowanie prospektu emisyjnego lub memorandum informacyjnego. Dokumenty podlegają ocenie Komisji Nadzoru Finansowego. Emisja akcji może występować w fazie inwestycyjnej przedsiębiorstwa oraz w późniejszych fazach, jako kapitał uzupełniający.

W Polsce posiadanie i emisję akcji reguluje Kodeks Spółek Handlowych oraz Ustawy, z których najważniejszą stanowi Ustawa o ofercie publicznej i warunkach wprowadzania instrumentów finansowych do zorganizowanego obrotu oraz o spółkach publicznych. Powyższe akty prawne porządkują rynek kapitałowy w Polsce i wpływają na jego lepsze funkcjonowanie. Ich znajomość i przestrzeganie jest niezbędne do powodzenia procesu emisji. Ponadto warunkiem emisji akcji na GPW w Warszawie jest status spółki akcyjnej lub komandytowo-akcyjnej.

Kolejna emisja akcji jako szansa dla spółki na uzyskanie

niezbędnego kapitału

Coraz więcej polskich spółek decyduje się na przeprowadzenie SPO (ang. Secondary Public Offering), czyli wtórnych ofert publicznych. W ciągu ostatniego roku na kolejną emisję zdecydowały się między innymi: BRE Bank, TVN czy GETIN. Spółka będąca już na giełdzie przeprowadza kolejną emisję, powiększając kapitał akcyjny, a tym samym kapitał własny. Uzyskane z niej środki finansowe przeznacza się na rozwój firmy. Często decyzja o wyemitowaniu kolejnych akcji wiąże się z kumulowaniem w portfelach inwestorów długoterminowych dużej liczby wyemitowanych akcji. Inwestorzy chętniej nabywają akcje spółek, które znają i w które

wcześniej inwestowali. Przejawia się to niską dostępnością akcji na rynku w wolnym obrocie, a także skutkuje zmniejszeniem ich płynności. W długim okresie bardzo ciężko jest wyeliminować powyższe zjawisko, dlatego w wielu przypadkach jedynym rozwiązaniem jest przystąpienie do kolejnej emisji akcji.

Kolejne emisje publiczne mogą dotyczyć: emisji z prawem poboru, które przyjmuje charakter papieru wartościowego notowanego na GPW, emisji powiązanej z połączeniem lub przejęciem, emisji kierowanej do pracowników spółki lub emisji przeznaczonej dla inwestorów strategicznych.

Proces SPO jest bardzo zbliżony do procesu IPO (ang. Initial Public Offering), czyli pierwszej emisji akcji, równoznacznej z debiutem giełdowym. Spółka uchwałą Walnego Zgromadzenia podejmuje decyzję o przeprowadzeniu kolejnej emisji akcji. Zobligowana jest do wyboru Domu Maklerskiego oraz sporządzenia prospektu emisyjnego. Po otrzymaniu zgody przez Komisję Nadzoru Finansowego oraz zatwierdzeniu niezbędnych dokumentów, spółka przeprowadza koleją emisję akcji. Decyzją Zarządu Giełdy akcje spółki zostają dopuszczone do obrotu.

Kształtowanie się reakcji inwestorów na pojawienie się informacji o kolejnej emisji

akcji przez spółkę publiczną

W celu oceny reakcji inwestorów na kolejną emisję akcji przeprowadzono badanie2. Objęto nim 102 informacje o kolejnych emisjach akcji przez spółki publiczne na Giełdzie Papierów Wartościowych w Warszawie. Okres badania dotyczył przedziału od

1 stycznia 2012 do 1 marca 2014 roku. Z uwagi na wpływ innych zdarzeń występujących w tym okresie na rynku oraz oddziałujących na kształtowanie się stóp zwrotu, z badania wyeliminowano spółki, które dokonywały między innymi splitu akcji, ogłaszały wezwania do sprzedaży akcji, dokonywały emisji praw poboru czy informowały o wypłacie dywidendy. Za właściwe zdarzenie uznano informację o podwyższeniu kapitału spółki. Dane dotyczące dat zdarzeń oraz wartości kursów uzyskano z serwisu giełdowego www.gpwinfostrefa.pl.

Badanie rozpoczęto od wyznaczenia dat zdarzeń mających wpływ na zmianę stóp zwrotu. W następnej kolejności dokonano przeglądu kształtowania się kursów akcji spółek w oknie zdarzenia oraz estymacji. Obliczono nadwyżkowe stopy zwrotu, skumulowane stopy zwrotu dla każdej ze spółek będącej przedmiotem badania w okresie okna zdarzenia. Następne obliczono wartość średnią skumulowanych stóp zwrotu, otrzymując w ten sposób przeciętną skumulowaną stopę zwrotu.

Analizując powyższe wyniki badania, można zauważyć, że reakcja inwestorów występuje już w momencie informacji o zwołaniu Walnego Zgromadzenia wspólników spółki. Stopy zwrotu zaczynają rosnąć ok. 26 sesji giełdowych przed planowanym zdarzeniem, co nakłada się na wymagany okres zwołania Walnego Zgromadzenia. Ponadto część inwestorów może mieć dostęp do poufnych informacji o planowanej emisji akcji jeszcze przed terminem jej ogłoszenia. Inwestor decydując się na zakup akcji będących przedmiotem kolejnej emisji, powinien zrealizować swoje zyski zgodnie z pojawiającymi się na rynku sygnałami. Najlepszy moment ma miejsce jeszcze przed

2. Badanie zostało przeprowadzone przez autorkę na podstawie danych publikowanych na portalu internetowym GPW Infostrefa.

Page 17: Tozależy9

-0,5%

0,0%

0,5%

1,0%

1,5%

2,0%

2,5%

3,0%

3,5%

-30 -28 -26 -24 -22 -20 -18 -16 -14 -12 -10 -8 -6 -4 -2 0 2 4 6 8 10

Sesje giełdowe w dniach

planowanym terminem rejestracji przez Sąd podwyższenia kapitału oraz w pierwszych kilku dniach po jego ogłoszeniu, kiedy wartości kursu akcji są najwyższe.

Badanie reakcji inwestorów na ogłoszenie informacji o planowanej emisji akcji prowadzi do wniosku, że istotne okazuje się wykorzystanie Giełdy Papierów Wartościowych w Warszawie jako źródła pozyskania kapitału, zarówno dla inwestorów indywidualnych, jak i instytucjonalnych. Znaczącą rolę odgrywają także regulacje prawne dotyczące rynku akcji oraz funkcjonowania giełdy, które widoczne są w zachowaniach inwestorów. Specyfika procesu emisji akcji w Polsce wskazuje na występowanie istotnych zdarzeń wpływających na kształtowanie się stóp zwrotu. Nie są one zauważane w przypadku badań przeprowadzanych na innych giełdach światowych (np. wymogi dotyczące terminów udostępniania informacji o planowanym Walnym Zgromadzeniu spółki).

Czy opłaca nam się inwestować?

Obecnie rynek giełdowy w Polsce jest rynkiem dynamicznie rozwijającym się. Dlatego też z roku na rok wzrasta liczba inwestorów. Stworzono wiele mechanizmów oraz opracowano regulacje prawne, które pozwalają rynkowi rozwijać się efektywnie, a inwestorom umożliwiają dokonywanie inwestycji w sposób łatwy i bezpieczny. Rynek akcji stanowi szansę na pozyskanie kapitału, natomiast możliwość emisji akcji jest bardzo ważnym źródłem inwestycji dla wszystkich jego uczestników. W związku z powyższym, również znajomość reakcji inwestorów m. in. na ogłoszenie o kolejnych emisjach akcji może być przydatna przy doborze akcji do portfela inwestycyjnego. Myślę, że zaprezentowane w artykule wyniki badań mogą stanowić wskazówkę dotyczącą momentu wejścia oraz wyjścia z inwestycji.

Samorząd Studentów WNE

Koło Naukowe Ekonomii Instytucjonalnej

Koło Naukowe Strategii Gospodarczej

Koło Naukowe Innowacji i Finansów

Koło Naukowe Debaty Ekonomicznej

Dołącz do nas!

Wydział Nauk Ekonomicznych zaprasza:

Przeciętna skumulowana nadwyżkowa stopa zwrotu (ang. ACAR) w reakcji na informację o planowanej kolejnej emisji akcji

Źródło: opracowanie własne.

Page 18: Tozależy9

Rynki kapitałowe18

Start-up – ryzyko, które przyciąga VCWobec braku kapitału niezbędnego do startu, sam pomysł na własną działalność gospodarczą nie wystarczy. Młodzi przedsiębiorcy, wychodzący z założenia, że bankowy kredyt jest poza ich zasięgiem, nie zdają sobie sprawy, że istnieją inne możliwości sfinansowania nowych projektów biznesowych.Kiedy potencjalny biznesmen ma je-dynie pomysł, potrzebuje kapitału na opracowanie wstępnego projektu przedsięwzięcia, zbudowanie prototy-pu wymyślonego produktu i przeprow-adzenie pierwszych badań rynkowych. Następnie konieczne będzie studium wykonalności projektu, czyli ocena jego rentowności. Ogromnym wyz-waniem dla młodego przedsiębiorcy jest znalezienie optymalnego sposo-bu sfinansowania pomysłu, który nie wywrze negatywnego wpływu na suk-ces jego realizacji. W przypadku start-upu, który dopiero ma wystartować z prowadzoną działalnością, na-jlepsze jest pozyskanie kapitału długoterminowego. Podstawową możliwością sfinansowania młodego przedsiębiorstwa jest zaciągnięcie kredytu bankowego. Jednak jest mało prawdopodobne, by udało się go pozyskać już na tak wczesnym etapie rozwoju biznesu. Gdy podmiot nie ma historii działalności, a jedynie plan, dla banku jest to zbyt ryzykowne.

Kapitał liczony nie tylko w pieniądzu

Dużo bardziej skomplikowanym mech-anizmem jest sfinansowanie start-upu przez tzw. kapitał wysokiego ryzyka, nazywany także venture capital (VC). Finansowaniem typu VC nazywa-my dostarczenie do spółki kapitału udziałowego lub właścicielskiego, przy podkreśleniu, że nie jest to finanso-wanie dłużne. Zatem firma otrzymując kapitał od funduszu, nie powiększa swoich zobowiązań. Jednocześnie in-westorzy nie są zainteresowani dywi-dendami. Chcą jedynie skapitalizować swój zysk dopiero przy wyjściu z in-westycji. W związku z tym, wyznaczni-kiem jest dla nich tzw. zysk kapitałowy (różnica pomiędzy ceną nabycia i sprzedaży udziałów bądź akcji). Same inwestycje kapitałów wysokiego

ryzyka mają zazwyczaj jasny horyz-ont czasowy, najczęściej do 5-7 lat, a decyzja o ich podjęciu poprzedzona jest bardzo szczegółową analizą spółki lub modelu biznesowego. Anioły Bi-znesu (BA) tworzą nieformalny rynek funduszy venture capital. W Polsce nie ma wielu typowych funduszy zajmujących się kapitałem venture, a BA z reguły inwestują tylko w takie przedsięwzięcia. Skupiają się przede wszystkim na przekazywaniu kapitału zalążkowego, rzadko kiedy ich inwesty-cje to kapitał startu. Ich aktywność to typowe finansowanie bezpośrednie. Co prawda, skala działalności BA jest znacząco mniejsza niż funduszy, bowiem z reguły inwestycja Anioła Biznesu nie przekracza przedziału pomiędzy 50 tys. a 5 mln PLN, ale dla start-upu rzadko kiedy potrzebne są większe kwoty. BA do projektów podchodzą jak przedsiębiorcy, a nie instytucje finansowe, które najczęściej marginalizują potencjał biznesowych pomysłów, a ich wizja ogranicza się je-dynie do analizy bieżącej rentowności, płynności i wypłacalności. Większe fundusze z reguły rezygnują z małych przedsięwzięć, głównieprzez ko-szty całej procedury kontrolnej i analitycznej, jakiej dokonują przed inwestycją. Wysokie nakłady na due dilligence są barierą dla małych przedsiębiorstw, których finanso-wanie ze względu na koszty stałe jest dla funduszy z reguły nieopłacalne. Business Angels są bardziej elastyc-zni co do formy przeznaczenia swojego kapitału, a ich działania pozbawione są niepotrzebnej w przypadku start-upów biurokracji. Oczekują jednak równocześnie większej rocznej stopy zwrotu (ok. 40% wobec 20-30% oc-zekiwanej przez fundusz). Raczej nie interesuje ich podporządkowanie sobie start-upu. Wolą pełnić rolę doradczą niż zarządczą czy nadzorczą.Innym rodzajem pozyskania kapitału

właścicielskiego jest finansowanie typu corporate venturing. W tym przypadku inwestorami są zazwyczaj duże korporacje, które chcą uzyskać coś w rodzaju specyficznej korzyści dla całej swojej działalności, poprzez pozyskanie praw do rynkowych in-nowacji czy nowinek technicznych, które zapewnią możliwość uzyskania przewagi konkurencyjnej. Duża kor-poracja wydziela najczęściej odrębną strukturę, jednakże funkcjonującą w ramach jednej grupy – tworzy qua-si-fundusz, który zajmuje się ofer-owaniem kapitału właścicielskiego in-nowacyjnym projektom z branży.

Venture capital vs. kredyt

Finansowanie typu venture capi-tal ma dużo przewag nad innymi możliwościami pozyskiwania kapitału przez przedsiębiorców dopiero startujących na rynku. Nie obliguje ich do przedstawiania zabezpieczeń kredytu ani do spłat okresowych rat. Dzięki temu nie ma problemu regularnego pozbywania się gotów-ki, nawet w pierwszych miesiącach funkcjonowania, kiedy zazwyczaj problem z płynnością jest dość duży. Pozyskując kapitał podwyższonego ryzyka, nie trzeba skupiać się na krót-koterminowej płynności, ale można postawić na długofalowe cele, których realizacja w przyszłości znacznie pod-niesie wartość firmy. Inwestor jest gotowy narazić się na większe straty, niż miałoby to miejsce w przypadku banku rozważającego udzielenie kre-dytu. Start-up otrzymujący kapitał wysokiego ryzyka zyskuje zatem większe możliwości inwestowania, ale również i reorganizacji modelu pod kątem maksymalnego nastawienia na długookresowe kierunki aktywności. Równocześnie, poprzez wejście do spółki inwestora private equity, polep-sza się relacja kapitału własnego do

Page 19: Tozależy9

Rynki kapitałowe 19

ogólnego zadłużenia podmiotu, a więc w oczach banków taki start-up znac-znie podwyższa zdolność kredytową. Sam inwestor venture capital jest part-nerem biznesowym, przejmuje część ryzyka, wobec czego potem partycypu-je w korzyściach. Dodatkowo jest bard-zo cierpliwy i elastyczny w oczekiwan-iu na perspektywę osiągnięcia zysków w przyszłości. Nie bez znaczenia są też know-how i nowoczesne sposoby zarządzania projektem, które mogą znacznie zwiększyć szansę na skutec-zne zbudowanie przewagi konkuren-cyjnej.Kapitał podwyższonego ryzyka nie jest jednak pozbawiony słabych stron. Finansowanie corporate venturing wiąże się z tym, że fundusz, którym de facto steruje korporacja, włącza start-up w jej struktury, w dużym stopniu dostosowując do swoich celów, działalności i korzyści. W przy-padku klasycznego venture capital, podporządkowanie start-upu jest znac-znie mniejsze niż w corporate ventur-ing, ale i tak inwestor jest partnerem biznesowym znacznie ograniczającym możliwość sprawowania nadzo-ru właścicielskiego pierwotnym pomysłodawcom. Dodatkowo, po-mimo braku konieczności spłacania rat kredytu, jest to finansowanie znac-znie droższe od długu bankowego (inwestorzy venture capital oczekują wzrostu 20-30% w skali rocznej wo-bec maksymalnego kosztu kredytu bankowego oscylującego w granicach 10%). Trzeba pamiętać, że z założenia banki nigdy nie pomagają spółce akty-wnie budować wartości, są jedynie in-westorami pasywnymi. Biorąc kredyt bankowy, kredytobiorca zachowuje niemal pełną kontrolę właścicielską.

VC nie dla Polski

Dla funduszy PE Polska postrzegana jest niejako w dwóch wymiarach. Po

pierwsze, jako członek Unii Europe-jskiej, co czyni nasz kraj względnie wi-arygodnym. Po drugie, jako kraj Europy Środkowo-Wschodniej, czyli jednego z tzw. emerging markets, co z punktu widzenia inwestora jest szansą na ponadprzeciętne zyski, jednak przy ak-ceptacji relatywnie większego ryzyka. Średnia liczba zrealizowanych projek-tów wynosi trzy na sto zgłoszonych inicjatyw. Najważniejszą przyczyną tak dokładnej selekcji jest bardzo ni-ska jakość merytoryczna przesyłanych biznesplanów czy teaserów. Prob-lemem są nie tylko nierealistyczne założenia dotyczące późniejszego sukcesu rynkowego przedsięwzięcia oraz deklaracje zbyt wysokich potrzeb kapitałowych, ale również brak logic-znej struktury, jaką powinien zawierać typowy biznesplan, szczegółowego opisu czy charakterystyki ekonom-icznej. Barierą wydaje się również niedostateczna wiedza o tej dość spe-cyficznej i mało popularnej formie finansowania. Kolejną kwestią jest nieufność młodych przedsiębiorców w stosunku do dawców kapitału i strach przed ich ewentualną ekspansywnością w decydowaniu o losach projektu. Utrata kontroli nie jest stuprocentowa, ale trzeba liczyć się z koniecznością oddania części władzy nad projektem, gdyż równocześnie przekazuje się część odpowiedzialności i ryzyka na wypadek porażki przedsięwzięcia.Indywidualni dawcy mają za mało kapitału, ale tak jak w przypadku fun-duszy, większy problem tkwi w mery-torycznej słabości projektów, jakie trafiają do ich analizy. Większość pols-kich inwestorów to tzw. Virgin Angels, a więc donatorzy, którzy jeszcze nie dokonali żadnej inwestycji, a jedynie przypatrują się rynkowi w poszuki-waniu najlepszego dla siebie projektu. Takie poszukiwania mogą trwać bardzo długo, czasem kilka lat, a niekiedy po prostu kończą się fiaskiem. W krajach

zachodnich BA najczęściej wybierają kilka projektów, co pozwala im mieć większą pewność, że choćby część z planowanych przedsięwzięć okaże się dużym sukcesem. W przypadku in-westycji w jeden projekt niezbędne jest przekonanie, że projekt nie okaże się klapą, a o takie niezwykle trudno.

Gdzie te innowacje?

Fundusze same nie wytwarzają in-nowacji, a jedynie umożliwiają pod-miotom dostęp do rynków zbytu. Na stopień innowacyjności danej branży wpływa dopiero rynkowy sukces młodego przedsiębiorstwa, które wyrosło na byciu nowatorskim i teraz inwestuje w kolejne innowacje. Amerykański przykład pokazuje, że każde 36 tys. USD inwestycji w formie venture capital przyniosło jedno miejsce pracy. Zazwyczaj wiąże się to z większą specjalizacją stanowiska, ale również z wyższym wynagrodzeniem dla pracownika zatrudnionego dzięki VC. Biorcy venture capital mieli dwuk-rotnie większe wartości sprzedaży, płacili trzykrotnie większe podatki i wydawali na B+R blisko trzy razy więcej środków (w przeliczeniu na 1000 USD posiadanych aktywów) niż konkurujące z nimi firmy, które nie korzystały z finansowania kapitałem wysokiego ryzyka.1Finansowanie młodego projektu bi-znesowego kapitałem wysokiego ry-zyka jest szansą dla przedsiębiorcy poszukującego aktywów na realizację swojego pomysłu. Jednak, żeby otrzymać takie środki od funduszu VC czy Anioła Biznesu, trzeba pokazać im atrakcyjny projekt z dużym potencjałem wzrostu i nowatorskim modelem bizne-sowym, który nie jest kopią rozwiązania stosowanego na rynku. Polacy natomi-ast zbyt wiele pomysłów powielają, rzadko stawiają na kreatywność, ale i rynkowy, ekonomiczny pragmatyzm.

1. M. Panfil, Fundusze private equity. Wpływ na wartość spółki, Warszawa 2005, s. 36-37.

Dominik SikoraAbsolwent dziennikarstwa Uniwersytetu

Warszawskiego. Student Finansów i Rachunkowości warszawskiej Szkoły Głównej Handlowej. Stypendysta

Akademii Mediów Fundacji 2065 im. L. Pagi. Stażysta w Union Investment TFI. Interesuje się efektywnym

podejmowaniem decyzji inwestycyjnych oraz wpływem komunikacji spółki na kształtowanie się wartości notowań giełdowych.

Page 20: Tozależy9

Rynki kapitałowe20

Nie ilość, a jakość

Rok 2014 zanosi się być pierwszym w historii rynku, kiedy spadnie liczba notowanych na nim spółek. Od stycz-nia do połowy listopada miało miejsce 19 debiutów, a wycofało się (lub zostało wycofanych) 30 podmiotów, z czego tylko 9 w wyniku przejścia na główny parkiet. Patrząc na dane his-toryczne, wypadałoby jednak napisać „aż” – jeszcze nigdy w ciągu jednego roku taka liczba firm nie pokusiła się o zmianę parkietu. Do pozostałych 21 spółek niedługo dołączą kolejne, niespełniające ogłoszonych nieco ponad rok temu wyższych wymagań w zakresie relacji inwestorskich1. Zmi-any w proporcji debiutów i wycofań na przestrzeni ostatnich lat pokazuje wykres 1.

Powyższe dane ewidentnie wskazują na zmiany na lepsze. Po pierwsze, zaczynają być wyraźnie widoczne

efekty funkcjonowania New Con-nect. Jego założeniem jest przecież pomoc spółkom w dalszym rozwoju

Powstały w połowie 2007 roku, działający przy GPW w Warszawie, rynek New Connect miał ułatwić mniejszym firmom pierwszy kontakt z rynkiem kapitałowym. Niższe niż na głównym parkiecie wymaga-nia stawiane emitentom, mniejsze koszty emisji oraz niewielkie coroczne opłaty miały stanowić magnes dla młodych i dynamicznie rozwijających się przedsiębiorstw. Rzeczywiście – po siedmiu latach ist-nienia liczba spółek stawia NC na drugim miejscu w Europie wśród alternatywnych systemów obro-tu. Zdecydowanie gorzej jest natomiast z jakością notowanych na nim podmiotów. Ostatnie działania warszawskiej GPW pokazują, że sytuacja ta niedługo może ulec zmianie.

NewConnect – zmiany na lepsze

-15

-10

-5

0

5

10

15

20

25

30

Wycofanie z rynku Przejście na główny parkiet Debiut

+

Wykres 1. Dekompozycja zmiany liczby spółek w poszczególnych kwartałach (IV kw. 2008 - III kw. 2014)

Źródło: Opracowanie własne.

ww

w.ca

pita

lsgr

oup.

pl

Page 21: Tozależy9

Rynki kapitałowe 21

i przedostaniu się na rynek regu-lowany. Wymóg wysokości kapital-izacji w celu debiutu na GPW (dla spółek przechodzących z New Con-nect wynoszący 12 milionów euro) spełnia obecnie dalsze 50 firm. Część z nich planuje podjąć taki krok w najbliższej przyszłości, jednak wciąż dla większości koszty byłby niepropor-cjonalne w stosunku do osiągniętych korzyści. Po drugie, dzięki zabiegom giełdy, eliminowane są podmioty, które, ignorując wymogi dotyczące relacji inwestorskich, wpływają na gorsze postrzeganie rynku przez inwestorów. Niektóre z wycofanych firm nie prowadziły nawet realnej działalności operacyjnej.

Dodatkowo, wyższe wymagania stawi-ane notowanym spółkom ograniczają liczbę nowych emitentów. Dzięki temu na rynek wchodzą przedsiębiorstwa, których stadium działalności rzeczywiście wskazuje na słuszność

takiego kroku. Dotychczas nierzadko zdarzały się przypadki, gdy kurs spółki tuż po debiucie rozpoczynał marsz w dół, aby ostatecznie zatrzymać się w odległości zaledwie kilku groszy od zera. O skali problemu najlepiej świadczy fakt, że jeszcze rok temu ceny akcji 52% notowanych spółek nie przekraczały złotówki. Podejmowane przez Giełdę działania mają na celu pośrednio naprawę również tej sytuacji. Skutek nowych regulacji widoczny jest gołym okiem – liczba tzw. penny stocks od 5 kwartałów powoli, acz systematy-cznie spada (obecnie 204 spółki).

Kapitalizacja rynku wynosi obecnie ponad 9,4 miliardów złotych, choć w poprzednich latach przekraczała już 11 miliardów (dla porównania kapital-izacja rynku głównego to ok. 880 mili-ardów złotych). Złączonemu w jedno rynkowi NC dawałoby to miejsce na początku drugiej dziesiątki wśród firm WIG20. Błędne byłoby jednak przeko-

nanie, że obecny poziom kapitalizacji związany jest z giełdowymi czystkami. W ciągu ostatnich dwóch lat kapital-izacja spółek, które przeszły na parkiet główny, stanowiła ponad 90% kapi-talizacji wszystkich wycofanych pod-miotów, mimo że ilościowo było to zaledwie 27%2. Dekompozycja zmian w kapitalizacji rynku przedstawiona jest na wykresie 2.

Giełda podnosi poprzeczkę

Liberalny model rynku, na który można było wejść tanim kosztem i jeszcze tańszym się utrzymać, nie sprawdził się. Od początku roku 2012 Giełda zauważa problem znacznych uchybień w zakresie traktowania inwestorów przez spółki z rynku NewConnect. W ramach działań naprawczych zapro-ponowane zostały stopniowe zmiany regulacyjne. Największy ich pakiet wszedł w życie w 2013 roku. Wprow-adzone zmiany zawierały zarówno

Wojciech MilewskiStudent Wydziału Nauk Ekonomicznych

UW, związany z redakcją Magazynu od ponad 2 lat. Aktywny członek wielu

organizacji studenckich i pozarządowych. Zawodowo związany z firmą Deloitte w obszarze zarządzania ryzykiem.

Wykres 2. Dekompozycja zmiany kapitalizacji rynku w poszczególnych kwartałach (IV kw. 2008 - III kw. 2014)

Źródło: Opracowanie własne na podstawie danych ze strony www.newconnect.pl.

-1500

-1000

-500

0

500

1000

1500

2000

2500mln PLN

Zmiana wartości spółek notowanych w poprzednim kwartaleEmisje spółek wchodzących na giełdęSpółki całkowicie wycofane z giełdyPrzejście na parkiet głównyŁączna zmiana kapitalizacji

ww

w.ca

pita

lsgr

oup.

pl

Page 22: Tozależy9

Rynki kapitałowe22

1. Postawione kilku spółkom ultimatum dotyczące publikacji zaległych raportów wygasło 14 listopada – po zamknięciu numeru.2. Opracowanie własne na podstawie danych ze strony www.newconnect.pl.3. Pełna lista wymagań znajduje się w Regulaminie Alternatywnego systemu Obrotu [online: www.newconnect.pl/pub/regulacje_prawne/Regulamin_ASO_UTP.pdf]4. Więcej o szczegółach sprawy w komunikacie KNF [online: www.knf.gov.pl/Images/Elkop_Energy_tcm75-32430.pdf]

całkowicie nowe przepisy, jak też precyzowały czy zaostrzały te już istniejące. Dotykają one przede wszyst-kim firm, które lekceważąco podchodzą do obowiązków wynikających z uczest-nictwa w rynku kapitałowym. Zdrowe i wiarygodne firmy praktycznie ich nie odczuwają.

Wprowadzono dodatkowe wymagania wobec debiutujących firm.3 Narzucono obowiązek przedstawienia zbada-nego przez biegłego rewidenta spra-wozdania finansowego za ubiegły rok obrotowy, co ma być gwarantem rzec-zywistej działalności operacyjnej emi-tenta. Ustalono także wymóg kapitału własnego spółki na poziomie min. 500 tysięcy złotych oraz odpowiednio dużego stopnia rozproszenia akcjona-riatu (free float). Ma to zapobiec sy-tuacjom, kiedy praktycznie wszystkie akcje w momencie emisji skupione są w rękach kilku powiązanych z firmą osób. Dodatkowo wydłużony został okres umowy z autoryzowanym doradcą, jaką zawiera emitent przed wejściem na rynek. Autoryzowany do-radca pomaga spółce w sporządzeniu dokumentu wprowadzającego na rynek, wspiera go w zakresie wypełniania obowiązków informa-cyjnych oraz zapewnia doradztwo dotyczące funkcjonowania rynku i re-lacji inwestorskich. Początkowo prz-episy wymuszały konieczność posia-dania takiego wsparcia przez pierwszy rok od dnia debiutu, obecnie są to trzy lata (choć giełda ma możliwość zwolnienia z tego obowiązku po upływie roku). Opisane wyżej zmiany mają podnieść poprzeczkę wejścia na rynek, tak aby pokonywały ją jedynie przedsiębiorstwa, które rzeczywiście wniosą na NC nową wartość. Wprow-adzono jednak również zmiany, które dotyczą spółek już notowanych. Od III kwartału 2013 roku raport kwartal-ny powinien zawierać skrócone spra-wozdanie finansowe oraz informacje dokładnie opisujące czynniki i zdarze-

nia, które miały wpływ na osiągnięte wyniki finansowe. W szczególności podwyższono wymagania wobec jakości informacji dotyczących zdarzeń o nietypowym charakterze. Raporty te będą także zawierać informacje o sta-nie zatrudnienia oraz odniesienie do stopnia realizacji planowanych działań i inwestycji, o ile wspominał o takich dokument informacyjny.

GPW nie zapomina o rozliczaniu spółek ze stawianych przed nimi zadaniami. Wzrostowi do 50 tysięcy złotych uległa maksymalna kara, jaką zarząd giełdy może nałożyć na firmę za niewywią-zywanie się ze swoich obowiązków. Od roku właściwie w każdym kwarta-le można przeczytać o idących w setki tysięcy złotych karach dla opieszałych emitentów ignorujących ustawowe ter-miny publikacji raportów. Ci bardziej oporni otrzymują ultimatum, którego niespełnienie skutkuje zawieszeniem notowań, a następnie wykluczeniem z obrotu. To właśnie w ten sposób z rynkiem pożegnało się w 2014 roku kilkanaście spółek.

Oddzielić ziarna od plew

Rynek kapitałowy do sprawnego funk-cjonowania potrzebuje zarówno zain-teresowania ze strony podmiotów chcących pozyskać finansowanie, jak i inwestorów. New Connect ostat-nimi laty raczej nie zyskiwał sobie zbytniej przychylności tych drugich. Znaczna cześć spółek nie przedstawia na bieżąco sytuacji w jakiej się zna-jduje, dając tym samym ogromne pole do nadużyć. Dużym problemem jest również płynność walorów. Przyczyną jest nie tylko niewielka kapitalizac-ja, lecz także niski free float, często nieprzekraczający 10%. Handel akc-jami takich spółek jest raczej symbolic-zny, natomiast ułatwione zadanie mają oszuści. Najgłośniejszym przypadkiem manipulacji kursem były notowania spółki Elkop Energy w okresie letnim w roku 2012. Obracając jedynie 101 ak-

cjami, grupie inwestorów udało się wywindować kurs słabo prosperującej firmy z 777 na 15 700 złotych w zaled-wie 45 giełdowych sesji4. Ostatecznie sprawą zajęła się KNF i policja.

Aby wskazać wyróżniające się pod-mioty, które mogą stanowić atrakcyjną inwestycję, na rynku funkcjonuje seg-ment NCLead. Zakwalifikowane do niego są jedynie te przedsiębiorstwa, które spełniają określone wymogi w zakresie kapitalizacji, free floatu, płynności, ceny akcji i jej zmienności oraz relacji inwestorskich. Na ten mo-ment jest to 31 spółek. To właśnie w te spółki celują agresywne fundusze inwestycyjne, licząc na wysoką stopę wzrostu i względne bezpieczeństwo in-westycji. Na drugim biegunie znajduje się 180 spółek zakwalifikowanych do segmentów rynku SHLR(Super High Li-quidity Risk) oraz HLR (High Liquidity Risk).Przynależność do nich wskazuje na ograniczoną płynność danych wal-orów i ostrzega inwestorów przed po-tencjalnymi problemami związanymi z ich kupnem i sprzedażą. Spółki te nie wchodzą także do indeksu ogól-nego rynku NCIndex, dzięki czemu jest on chroniony przed wpływem dużej zmienności walorów.

Re-Connect

Istnienie NewConnect niewątpliwie przyczyniło się do zainteresowania rynkiem kapitałowym wśród pod-miotów, które wcześniej nie mogły so-bie pozwolić na tę formę finansowania. W ciągu kilku ostatnich lat większość stanowiły jednak negatywne czy iron-iczne opinie na temat firm na nim no-towanych. Kroki podjęte przez GPW, zmierzające do poprawy jakości relacji spółek z inwestorami, mają na celu zmienić ten obraz. Wszystko wska-zuje na to, że działania rzeczywiście przynoszą pożądany efekt, a co za tym idzie, wkrótce inwestorzy znów mogą zacząć patrzeć na rynek bardziej przy-chylnym okiem.

Page 23: Tozależy9

Quantitative Finance Fundacja Rozwoju Zawodowego Rocket science in finance

Atrakcyjne, płatne oferty staży i praktyk!

Cykle spotkań z praktykami rynku

Knowledge team

Projekt L(a)unch your career

Celem Fundacji jest wspieranie rozwoju rynku quantitative finance w Polsce

oraz zwiększanie świadomości tej branży wśród studentów. Budujemy współpracę

pomiędzy najbardziej innowacyjnymi pracodawcami w Polsce, poszukującymi

osób kształcących się w quantitative finance oraz studentami i absolwentami,

których marzeniem jest kariera w tej dziedzinie..

Działaj w Fundacji razem z nami!

lub

Korzystaj z naszych projektów!

Kontakt Fundacja Rozwoju Zawodowego “Quantitative Finance” www.quantitativefinance.org.pl/ [email protected] Szukaj nas ro wniez na LinkedIn/Facebook

Zapraszamy!

Page 24: Tozależy9

Gospodarka24

Czemu embargo jest tak istotne?

Jak podaje Ministerstwo Rolnictwa, w sezonie 2012/2013 w Polsce produkcja jabłek sięgnęła 3,2 mln ton, co według międzynarodowych statystyk oznacza 4. miejsce na świecie. Co jednak bardziej istotne w kontekście rosyjskiego embar-ga, w ubiegłym sezonie Polska była największym eksport-erem jabłek, wyprzedzając nawet Chiny, które są wiodącym producentem na świecie. Eksport sięgnął, co do wielkości, około 1/3 produkcji – 1,2 mln ton, a jego wartość szacuje się na około 438 mln €. Rosja była głównym odbiorcą polskich jabłek – tam trafiało około 56% polskiego eksportu. Jej rola w polskim przemyśle sadowniczym jest ogromna, co potwi-erdza Ministerstwo Rolnictwa, poświęcając zagadnieniom związanym z eksportem jabłek do tego kraju oddzielną broszurę. Fakt, że drugi co do wielkości importer pols-kich jabłek, Białoruś, przyjmuje zaledwie 12%, dodatkowo podkreśla rolę, jaką odgrywa w tym sektorze Rosja.

Embargo jako cios w polskich sadowników czy w rosyjskiego konsumenta?

Władze Federacji Rosyjskiej zdecydowały, że jako odpowiedź na wcześniejsze sankcje UE i USA, od pierwszych dni sierpnia wprowadzają zakaz handlu mięsem, drobiem, warzywami, owocami, rybami, mlekiem i nabiałem z państwami UE, USA, Australią, Kanadą i Norwegią. Od 1 sierpnia embargo objęło

także niektóre polskie owoce. Warto podkreślić, że takie narzędzie nacisku jest często stosowane przez Moskwę, na co może wskazywać ok. 1,5 tys. tego typu zakazów wprow-adzonych w zeszłym roku na wszelkie produkty spożywcze importowane do Rosji.Polscy sadownicy musieli się już zmierzyć z podobną sytuacją w latach 2005-2007, kiedy ich jabłka także były objęte rosyjskim embargiem. Przykład tego zakazu sprzed prawie 10 lat pokazuje, że producenci starają się obejść prawo, sprzedając jabłka do Rosji przez pośredników w krajach, które nie zostały objęte zakazem. Sięgając do stat-ystyk, w roku 2005 eksport jabłek na Ukrainę wynosił 500 ton, a już w 2006 roku – 67 tys. ton. Wśród tego typu kra-jów pośredniczących wymienia się głównie Białoruś, Serbię, Turcję, a nawet Chiny.Obecna sytuacja oznacza dla polskich sadowników konieczność obniżenia ceny, co może prowadzić do strat i bankructwa niektórych przedsiębiorców. Ponadto produ-cenci są zmuszeni do szukania nowych odbiorców. Wśród potencjalnych klientów znajdują się Indie, Malezja, Wiet-nam, kraje afrykańskie, kraje Bliskiego Wschodu czy USA. Przeszkodą w handlu z tymi państwami jest jednak długi czas transportu, co może dla nich oznaczać trudności w uzyskaniu pozwoleń na import produktów spożywczych ze względów fitosanitarnych. Wśród przedstawicieli branży panuje przekonanie, że embargo wpłynie negatywnie na handel jabłkami w Polsce i spowoduje jego spadek o 15-20

Produkcja wielkości 3,2 mln ton. Lata 2005-2007 i 2014. 125 mln € od Komisji Europejskiej. „Polskie jabłka wolności” i akcja „Jedz jabłka…”. Co łączy te wszystkie hasła? Rosyjskie embargo na niektóre pol-skie owoce i warzywa, w tym właśnie jabłka. Aktualne obowiązuje od 1 sierpnia bieżącego roku jako odpowiedź strony rosyjskiej na unijny zakaz kupowania rosyjskich obligacji, sprzedaży broni oraz tech-nologii do wydobycia ropy z niekonwencjonalnych złóż Federacji Rosyjskiej.

Embargo na polskie jabłka, czyli koszmar sadowników

livin

gloc

albl

og.w

ordp

ress

.com

Page 25: Tozależy9

Gospodarka 25

procent. Niektóre nieoficjalne źródła podają nawet, że całość embarga na polskie warzywa i owoce może kosztować rol-ników 500 mln €.Wprowadzenie embarga odbija się także na rosyjskich kon-sumentach. Do tej pory polskie jabłka cieszyły się uznaniem wśród Rosjan i były określane jako smaczne i najwyższej jakości. Według niektórych szacunków w poprzednim se-zonie ponad 1/2 jabłek importowanych do Rosji pochodziła z Polski. Embargo implikuje wzrost cen jabłek sprzedawa-nych w rosyjskich sklepach (w niektórych miejscach, jak np. w Obwodzie Kaliningradzkim nawet o 50%) i konieczność poszukiwania nowych dostawców. Szef agencji celnej Galax, Mariusz Mosiej, w jednej ze swoich wypowiedzi podkreśla fakt, że rosyjskie firmy mogą jednak dalej kupować polskie jabłka przez pośredników, a zostawienie tego typu „furtki” przez rosyjskie władze jest specjalnym działaniem przeciw wzrostowi cen. Inni eksperci dodają, że przy dłuższym obowiązywaniu embarga miejsce polskich jabłek na rosyjs-kim rynku zaczną zajmować chińskie.

125 milionów od Komisji Europejskiej, na początek, dla unijnych rolników

Komisja Europejska przyjęła rozporządzenie o przyzna-niu 125 mln € pomocy dla producentów owoców i war-zyw dotkniętych rosyjskim embargiem. Taka decyzja daje polskim rolnikom i producentom możliwość ubiegania się o rekompensatę za wycofanie części zbiorów z rynku. Celem tego typu działania jest zapobieganie spadkowi cen. Kwota ta jest podzielona na dwie części – 82 mln € są przeznaczone dla sektora producentów jabłek i gruszek, a 43 mln € dla pozostałych. Środki mają być rozdysponowywane od 18 si-erpnia z mocą wsteczną. Minister rolnictwa, Marek Sawicki, określił tę kwotę jako „daleko niewystarczającą” nie tylko dla europejskich, ale nawet dla polskich producentów1. Obec-nie wciąż trwają kontrole zgłoszonych wniosków i sadów, więc pomoc nie została jeszcze wypłacona. Od początku października ruszył zaś nowy program UE, dotyczący rekompensat za straty poniesione w wyniku rosyjskiego em-barga. Całkowita wartość wypłat wyniesie 165 mln €, jed-nak kwota ta jest traktowana jako kontynuacja wcześniejszej pomocy (polskie wnioski do pierwszej transzy rekompen-

saty obejmowały około 87% całej kwoty przeznaczonej dla 28 krajów), więc część, która nam przypadnie, będzie pom-niejszona o wcześniej zgłoszone wnioski. Zgodnie z tym mechanizmem Polska będzie mogła zgłosić do programu ty-lko 18,75 tys. ton jabłek.

„Freedom Apples” i „Jedz jabłka, zrób na złość…”

Rozwiązaniem problemu sadowników może stać się otwar-cie rynku amerykańskiego na polskie jabłka. Do tej pory, jako jedyny kraj UE, jabłka do USA eksportowały Włochy. Polska mogła sprzedawać do Stanów Zjednoczonych tylko paprykę i brokuły. Amerykański organ rządowy odpowiedzialny za kontrolę żywności importowanej – US Food & Drug Admin-istration (FDA) – tłumaczy duże ograniczenia w dostępie do rynku powodami fitosanitarnymi, aczkolwiek oczywistym, nieoficjalnym powodem jest też chęć ochrony swoich produ-centów. W kontekście otwarcia rynku amerykańskiego na pol-skie owoce, warto wspomnieć także o negocjowanej umowie o wolnym handlu między USA a UE, która otworzyłaby dla sadowników nowy rynek zbytu, ale stworzyłaby także większą konkurencję i mogłaby doprowadzić do spadku cen. W sprawę otwarcia rynku zaangażował się polski am-basador w Waszyngtonie, Ryszard Schnepf, który stara się stworzyć kampanię na rzecz realizacji właśnie tego celu. W swoim krótkim przemówieniu określa polski produkt jako „jabłka wolności”. Hasło przyjęło się i było powszechnie cy-towane przez media.Warto też wspomnieć o popularnej akcji w Polsce, zapoczątkowanej przez Puls Biznesu, pt. „Jedz jabłka, pij cydr”, później zmienianej przez inne gazety na „Jedz jabłka, zrób na złość Putinowi”. Mimo że akcja poprzez portale społecznościowe i media, a także udział aktorów i celebrytów, rozpowszechniła się dość szybko i zyskała międzynarodowy charakter, to pierwsze badania pokazują, że nie przekłada się na znaczący wzrost sprzedaży jabłek i produktów po-chodnych w Polsce. Istnieje jednak szansa, że tendencję do wzrostu sprzedaży będzie można zaobserwować dopiero w dłuższym okresie. Aby się tak stało, powinniśmy jednak przeznaczyć kilka złotych i kupić parę kilogramów tych przepysznych, soczystych owoców.

michał sobierańskiStudent II roku Uniwersytetu

Warszawskiego na Wydziale Nauk Ekonomicznych na kierunku Informatyka i

Ekonometria. Aktywny członek Studenckiego Koła Naukowego Negocjator.

pl.gde-fon.com

1. Polska zgłosiła do KE zapotrzebowanie na 176 mln euro.

Page 26: Tozależy9

Ubezpieczenia26

Solvency II (ang. Wypłacalność II), jest największą i najbardziej znaczącą zmianą regulacyjną rynku ubezpieczeń od ponad 30 lat, z którą zmierzyć się musi europejska branża ubezpiec-zeniowa. Zmiany, które wprowadza dyrektywa, mają na celu zapewnienie ochrony klientom towarzystw ubez-pieczeniowych przed konsekwenc-jami strat, których kapitały własne ubezpieczycieli nie byłyby w stanie pokryć. Solvency II zainspirowane zostało uzależnieniem wymogów kapitałowych zakładów od ryzyka, które podejmują. Planowo wejdzie ona w życie 1 stycznia 2016 roku1 we wszystkich krajach Unii Europejskiej i wprowadzi nowe, jednolite wymogi kapitałowe i standardy zarządzania ryzykiem względem europejskich ubezpieczycieli. Całość systemu opiera się na trzech równoważnych filarach: - Filar 1 – porusza zagadnienia wymagań ilościowych

- Filar 2 – mówi o standardach zarządzania ryzykiem i wewnętrznej

ocenie ryzyka działalności ubezpieczy-cieli, a także regulacjach, które dotyczą działalności organów nadzoru

- Filar 3 – opiera się na wymogach w zakresie ujawnień i poziomu szczegółowości raportowania, w tym informacji, które mają być dostępne publicznie.

Za przykład wymogu ilościowego może posłużyć spełnienie wymogów nazwanych MCR (minimalny wymóg kapitałowy) czy też SCR (dodat-kowy wymóg kapitałowy). Pierwsza z wymienionych restrykcji dotyczy ak-tywów ubezpieczycieli, które muszą przekraczać jego zobowiązania. Kiedy relacja zostaje zaburzona, jest to sygnał

Rys. 1. Diagram struktury wymogów zawartych w dyrektywie Solvency II

Źródło: Analitica, Solvency II, http://www.analitica.si/solutions/solvency-ii/?lang=en.

Od jakiegoś czasu termin ten jest coraz częściej poruszaną kwestią w każdym zakładzie ubezpieczeń. Pracując w jednym z większych towarzystw w Polsce, słyszałem o nim prawie każdego dnia i zastanawiałem się, czym jest ten mityczny twór w praktyce. Przeciętny obywatel naszego państwa praw-dopodobnie nie wie, co kryje się za tym enigmatycznym pojęciem. Jednakże nawet znajomość znaczenia owego terminu nie jest jednoznaczna z dogłębną wiedzą o zagadnieniu. Co więcej, nowe regulacje UE przysparzają problemów także „branżowcom”. Co więc właściwie znaczy Solvency II? Jakie skutki dla ubezpieczycieli będzie mieć tak pieczołowicie przygotowywana przez lata dyrektywa? A przede wszystkim – co będzie oznaczać dla ubezpieczonych?

Prawdy i mity o Solvency II

1. Oficjalne informacje na temat dyrektywy Solvency II podaje European Insurance and Occupational Pensions Authority (EIOPA). [on-line: https://eiopa.europa.eu/en/activities/insurance/solvency-ii/index.html]

Page 27: Tozależy9

Ubezpieczenia 27

dla organu nadzoru, aby przedsięwziąć zdecydowane kroki, ponieważ po-jawia się realne zagrożenie upadłością. Zakłady ubezpieczeń, które spełniają dodatkowy wymóg kapitałowy, także zachowują przewagę aktywów nad zobowiązaniami, lecz jest to na tyle

bezpieczny poziom, że bezpieczeństwu finansowemu ich działalności nic nie zagraża.

Kolejną, dosyć interesującą, kwestią są wspominane już „ujawnienia”. Jest to szereg regulacji, które mają na celu zwiększyć poziom przejrzystości działalności operacyjnej towarzystw ubezpieczeniowych. Należą do nich ścisłe wymagania dotyczące spójnej polityki zarządzania ryzykiem, poli-

tyki informacji dla akcjonariuszy i informacji publicznej, świadomość czynników własnej zdolności do konkurencji czy ryzyka reputacji. Cel, który temu przyświeca, to określenie przez każdego ubezpieczyciela stanowiących realne zagrożenie ryzyk,

a także sformułowanie precyzyjnej strategii zarządzania nimi.

Kości zostały rzuconeSame regulacje wypracowywane były przez lata. UE zatwierdziła je ostatec-znie w roku 20093, po ponad 13 latach prac. Porozumienie dotyczące wy-mogów kapitałowych zostało osiągnięte dopiero w listopadzie 2013 roku, kiedy to państwa członkowskie osiągnęły

kompromis zadowalający także ubez-pieczycieli, obawiających się rygoru wymagań.2 Zakłady ubezpieczeń już zdążyły wydać miliony na przy-gotowania, ale przed nimi wciąż dużo wyrzeczeń i wydatków.

Nazwa dyrektywy jest dokładnym odpowiednikiem jej ekonomic-znego sensu – wymogu posia-dania przez towarzystwa ubez-pieczeniowe wystarczających zasobów kapitałowych, które pow-inny zapewniać równowagę z pono-szonym ryzykiem, tak, aby zapewnić klientom bezpieczeństwo finan-sowe. Sama idea regulacji opiera się na ścisłym uzależnieniu wielkości zasobów kapitałów własnych od wielkości ryzyka podejmowanego przez ubezpieczycieli. Mówiąc prościej: z prawdopodobieństwem bliskim jedności (poziom ufności równy 99,5% w horyzoncie jednego roku4), kapitału ma wystarczyć na pokrycie ryzyka gen-erowanego w rzeczywistości.

Zmiany obejmą kilka obszarów działalności operacyjnej. Margines wypłacalności5 będzie wyznaczany w odmienny sposób, wymogi kapitałowe dotyczyć będą osobno ryzyka ubezpieczeniowego, finansowego i operacyjnego. Aktywa będące w posiadaniu firm ubezpieczeniowych mają podlegać wycenie na podstawie ich rzeczywistej wartości rynkowej. Natomiast zobowiązania wyceniane będą na podstawie kwot, będących odzwierciedleniem faktycznych warunków rynkowych, za które towar-zystwa ubezpieczeniowe mogą zostać wymienione bądź rozliczone. Kapitał wypłacalności, obecnie wyliczany

Daniel TraczewskiStudent I roku studiów magisterskich na kierunku

Informatyka i Ekonometria na Wydziale Nauk Eko-nomicznych Uniwersytetu Warszawskiego. Laureat

stypendium Rektora UW w poprzednich trzech latach, stypendium Fundacji Edukacyjnej Przedsiębiorczości w

Łodzi i stypendium m. st. Warszawy. Interesuje się ubezpiecze-niami, a w szczególności matematyką aktuarialną, z czym wiąże swoją karierę zawodową.

Rys. 2. Kalendarium prac nad Solvency II w ostatnim okresie wdrożeniowym

Źródło: EIOPA, Introducing Solvency II, https://eiopa.europa.eu/en/activities/insur-ance/solvency-ii/index.html.

2. EIOPA, Solvency II. [online: https://eiopa.europa.eu/en/activities/insurance/solvency-ii/index.html]3. Bank of England, News on Solvency II, grudzień 2013. [online: http://www.bankofengland.co.uk/pra/4. Montalvo Carlos, Executive Director of EIOPA, Solvency II: a revolution in risk culture?, 18.09.2014. Wypowiedź została opublikowana

na blogu Isaaca Alfona „Crescendo Risk Management blog”. [online: http://crescendo-erm.blogspot.co.uk/2014/09/guest-post-objec-tive-of-risk-management_18.html]

5. Określona przepisami prawa wielkość środków własnych ubezpieczyciela, która nie może być niższa od minimalnej wysokości kapita-łu gwarancyjnego.

Page 28: Tozależy9

Ubezpieczenia28

metodą ex post na podstawie danych ze sprawozdań finansowych odnoszących się do zamkniętych okresów opera-cyjnych, będzie kalkulowany ex ante – w oparciu o oczekiwane przyszłe wyniki firmy. Organ nadzorczy ma dodatkowo bardziej rygorystycznie niż dotychczas monitorować tech-niki zarządzania ryzykiem przez ubezpieczycieli. Patrząc więc na cały nakreślony obraz, zmienia to sposób postrzegania rynku ubezpieczeniowe-go, co dla „branżowców” jest szczegól-nie wymagającym wyzwaniem.

Solvency II ma za zadanie podnieść za-ufanie szeroko pojętego społeczeństwa do instytucji związanych z finansami. W przypadku sektora ubezpieczeń, oznacza pewność wypłaty należnego odszkodowania czy też zagwaran-towanego przez umowę świadczenia, wraz ze wskazaną w niej kwotą. Taką pewność uzyskujemy jedynie wtedy, gdy zakład ubezpieczeń posiada do-datkowe aktywa, które nie podlegają obciążeniu zobowiązaniami. Dla przykładu: jeżeli Polskę doświadczy wielka powódź, ubezpieczyciele będą dysponować wolnymi środkami na pokrycie wypłat odszkodowań.

Zmiana reguł gry

Wdrożenie dyrektywy będzie miało znaczący wpływ na wyniki ubez-pieczycieli. Wiele uwagi towarzys-

twa będą musiały poświęcać ryzykom rynkowym, których wcześniej nie wlic-zano do rachunku. Potwierdza to m.in. prezes grupy UNIQA Polska, Andrzej Jarczyk, który stwierdza, że w nowej rzeczywistości antycypacji podlegać będą nie tylko czynniki zawarte w księgach rachunkowych firm, ale przede wszystkim zachowanie otocze-nia rynkowego6.

Jednakże medal, jak zwykle, ma dwie strony. Nowe restrykcje wygenerują ol-brzymie koszty wdrożenia oraz bieżącej

działalności, m.in. w postaci wyceny st-rony aktywów i zobowiązań, kalkulacji wymogu kapitałowego, systemu rapor-towania do organów nadzoru, etc. Nie są znane dokładne dane odnoszące się do kosztów ponoszonych przez polskie towarzystwa ubezpieczeń, natomiast w Wielkiej Brytanii szacuje się, że wyniosą ponad 3 mld funtów7. Największe firmy na europejskim rynku, jak np. Allianz, Aviva, Pruden-tial, Generali czy też AXA, zdążyły już wydać na przygotowanie wdrożeń mili-ony euro.

Jednakże drugą kwestią jest to, czy za wydatkami idzie efektywność ich przeznaczenia. Firma konsultingowa EY już drugi raz podjęła się zbada-nia, czy europejscy ubezpieczyciele są w stanie spełnić wymagania zawarte w dyrektywie Solvency II. Jak wynika

z raportu8, około 80% europejskich to-warzystw ubezpieczeniowych zakłada, że wymogi wynikające z Solvency II zostaną przez nich spełnione do stycz-nia 2016 roku. Z drugiej strony, z bada-nia wynika także, że nadal jest sporo do nadrobienia w każdym z trzech obszarów zawartych w dyrektywie. Największą pewność i optymistyczne nastawienie można dostrzec w przy-padku takich państw jak Wielka Bry-tania, Holandia i kraje skandynawskie. Najmniejszy optymizm panuje wśród Greków, Francuzów i Niemców. Polscy ubezpieczyciele wypadają całkiem do-brze na tle innych krajów środkowo- i wschodnioeuropejskich, jednak mniej podmiotów w Polsce niż w Eu-ropie ma w planach pełną gotowość do spełnienia wymogów już w tym roku.

Potencjalne trudnościEuropejski sektor ubezpieczeniowy podchodzi do nowych wytycznych z pewnymi obawami. W maju 2013 roku Centre for The Study of Financial In-novation (CSFI) oraz firma konsultin-gowa PwC przeprowadziły interesujące badanie, zatytułowane Insurance Ba-nana Skins 20139. Wyniki tego bada-nia mówią o obawach ubezpieczycieli z 54 krajów na całym świecie co do tego, jak nowe restrykcje prawne, takie jak warunki wypłacalności czy zach-owania na rynku, są w stanie podnieść poziom kosztów i stworzyć problemy, wiążące się z dostosowywaniem firm do nowych warunków. To z kolei może utrudniać koncentrację na kwestii najważniejszej, a więc prowadze-nia działalności w niepewnych cza-sach. Tutaj uwaga skupia się przede wszystkim na Solvency II, która naka-zuje zmianę postrzegania biznesu oraz odejście od standardowego myślenia jedynie o wynikach sprzedaży poszcze-gólnych spółek. Dostrzegalny jest także coraz większy głos sprzeciwu w niek-tórych kwestiach ze strony polskich towarzystw. „Niskie stopy na rynku oraz niedopasowanie zobowiązań do aktywów ubezpieczycieli powodują, że zakłady są bardzo narażone na spadek/zmianę kapitałów” przekonu-je Przemysław Dąbrowski, członek zarządu PZU i PZU Życie10.

Ponadto nie wszystkie reguły są w tym momencie jasne. Wszelkie standardy

Rys. 3. Uśredniony stopień przygotowania europejskich firm ubezpieczeniowych do spełnienia wymogów poszczególnych filarów Solvency II

Źródło: EY, European Solvency II Survey 2014, http://www.ey.com/Publication/vwLUAs-sets/EY_European_Solvency_II_Survey_2014/$FILE/EY_European_Solvency_II_Survey_2014_07_April_2014.pdf.

6. Wrotniak-Chałada Malwina, Co my wiemy o Solvency II, 24.09.2009. [online: http://www.bankier.pl/wiadomosc/Co-my-wiemy-o-Solvency-II-2022027.html]

7. Bank of England, Transposition of Solvency II: Part 3, Consultation Paper, 08.2014. [online: http://www.bankofengland.co.uk/pra/Documents/publications/cp/2014/cp1614.pdf]

8. EY, European Solvency II Survey 2014. [online: http://www.ey.com/Publication/vwLUAssets/EY_European_Solvency_II_Survey_2014/$FILE/EY_European_Solvency_II_Survey_2014_07_April_2014.pdf]

9. CSFI, PwC, Insurance Banana Skins 2013. [online: http://www.pwc.com/gx/en/insurance/banana-skins/2013-survey-report.jhtml]

Page 29: Tozależy9

dotyczące trzeciego filaru będą znane dopiero pod koniec tego lub dopiero w roku 2015.

Niestety, na tym nie kończą się pe-symistyczne informacje. Ubez-pieczyciele są zmuszeni do przy-gotowania się do zaostrzonych wymogów kapitałowych z tytułu długoterminowych inwestycji, opartych na stałych stopach procentowych, ob-ligacji korporacyjnych, nieruchomości czy też private equities. Trwają także prace nad wymogiem dotyczącym ryzyka kredytowego dla obligacji rządowych. Gwałtowna zmienność wyceny rynkowej tych instrumentów może powodować duże zmiany struk-tury i, przede wszystkim, wielkości posiadanych kapitałów. Prowadzi to do sytuacji, w której zakłady ubezpieczeń próbują rozwiązać tę sytuację poprzez tworzenie produktów na ryzyko klien-ta, tzw. polis unit-linked11.

Dodatkowo, dochodzi także kwes-tia składek. Nowe regulacje w sposób bezpośredni nie wpłyną na ich wysokość, ponieważ dyrektywa dotyczy wymagań kapitałowych oraz zarządzania ryzykiem. Jednakże mogą mieć wpływ pośredni, gdyż ubezpiec-zyciele muszą wdrożyć system ORSA (Own Risks and Solvency Assessment) metodą prospektywną w horyzoncie trzech lub pięciu lat. Bardzo niska bądź ujemna rentowność grozi doprowadze-niem do podniesienia kapitałów lub też odejścia od twardej konkurencji ceno-wej.

Trudne czasy dla wszystkich?

Nowe wyzwania stoją także przed legis-latorami – wdrożenie poważnych zmian w przepisach prawa oraz ustanowienie ram regulacyjnych, które będą zgodne z Solvency II. Zwiększy się znaczenie merytoryczne KNF, a wyzwaniami będą m.in.: koordynowanie wspól-

nych działań KNF wraz z zagranic-znymi odpowiednikami, usprawnienie kanału komunikacji z rynkiem oraz zrównoważenie wymagań dyrektywy z międzynarodowymi standardami rachunkowości (MSSF). Reforma, do której przygotowuje się sektor ubez-pieczeniowy, posiada więc nie tylko charakter lokalny, ale przede wszyst-kim globalny.

W przypadku tej dyrektywy tylko jedno jest pewne – rynek ubezpiecze-niowy musi stawić czoła głębokiemu przeobrażeniu i kosztownym zmianom. Przygotowanie się do jej wdrożenia jest w tej chwili jednym z największych zadań stojących przed wszystkimi ubezpieczycielami. Z drugiej strony, z własnego doświadczenia wiem, że jest to także olbrzymia szansa na znalezie-nie pracy dla wszystkich analitycznych umysłów, które interesują zagadnie-nia ryzyka i ubezpieczeń, co stanowi pozytywny akcent wobec powyższych rozważań.

Jeśli:

- uważasz, że ekonomia może być pasjonująca,

- nie masz problemu z publicznymi wystąpieniami,

- jesteś charyzmatyczny/a i otwarty/a na nowe wywania,

- interesujesz się ekonomią eksperymentalną,

- lubisz kontakt z ludźmi,

Czeka na Ciebie:

- ciekawa praca z najlepszymi studentami WNE UW,

- możliwość rozwoju umiejętności cenionych w biznesie,

- pogłębianie własnej wiedzy ekonomicznej,

- atrakcyjne wynagrodzenie,

- elastyczne godziny pracy,

- dla najlepszych oferta stałej współpracy.Jeśli jesteś zainteresowany prosimy o kontakt na adres: [email protected]

Uwaga! Na spotkanie organizacyjne, prosimy o przygotowanie 3-5 minutowego wystąpienia na temat: “Dlaczego studiowanie ekonomii jest ciekawe?”.

Promuj ekonomię w liceach

Dziel się pasją

Dołącz do zespołu prowadzącego warsztaty ekonomii eksperymentalnej. Czekamy na Ciebie!

10. Skibińska Regina, Solvency II: kłopotliwy wymóg wypłacalności, 12.02.2014. [online: http://www.obserwatorfinansowy.pl/tematyka/rynki-finansowe/solvency-ii-klopotliwy-wymog-wyplacalnosci/]

11. Polisa unit-linked to produkt czysto inwestycyjny, wykorzystujący korzyści, jakie daje formuła prawna ubezpieczenia. Oferując polisy tego typu, towarzystwa umożliwiają klientowi gromadzenie oszczędności w indywidualnie utworzonym przez niego portfelu, skła-dającym się z różnych funduszy inwestycyjnych, prowadzonych przez niezależne od oferującego, zewnętrzne towarzystwa funduszy inwestycyjnych.

Page 30: Tozależy9

Świat30

67,875,3 75,4 73,9 71,4 71 70,4 68,8 71,75

0

10

20

30

40

50

60

70

80

90

100

2000 2001 2002 2003 2004 2005 2006 2007 Średnia z lat2000-2007

Bez oceny

B

BB

BBB

A

AA

AAA

Absolute Aversion to Alarm – czyli ocena zachowania agencji ratingowych przed kryzysemKryzys lat 2007-2009 ujawnił wiele nieprawidłowości. Jedną z nich okazała się działalność agencji ratingowych, a mówiąc dokładniej (nie)rzetelność publikowanych przez nie informacji. Z założenia agencje ratingowe to firmy zajmujące się wystawianiem niezależnych opinii na temat prawdopodobieństwa utraty zdolności płatniczej przez przedsiębiorstwa, rządy i szereg instrumentów finansowych. W obliczu wydarzeń kryzysowych najbardziej istotne znaczenie zyskała działalność agencji w ostatnim obszarze, tj. ocena wiarygodności kredytowej konkretnych instrumentów. Niestety, przyznawane im oceny nie odzwierciedlały rzeczywistego poziomu ryzyka, z jakim wiązało się inwestowanie w nie. Ratingi przyznawane przez agencje w większości przypadków były bowiem znacznie zawyżone. To zaś oznacza, że inwestorzy podejmując decyzje, sugerowali się nieprawdziwymi informacjami.

Ryzyko rzeczywiste vs publikowane ratingi

Stwierdzenie, że agencje przyznawały błędne ratingi instru-mentom finansowym, wymaga wcześniejszego zapoznania się z przedmiotem oceny. Należy wskazać instrumenty, które zostały rzekomo błędnie ocenione oraz spojrzeć na prezen-towane zjawisko z nieco szerszej perspektywy, czyli osadzić je w kontekście wydarzeń kryzysowych.

Za bezpośrednią przyczynę kryzysu lat 2007-2009 uznaje się tzw. bańkę spekulacyjną powstałą na amerykańskim rynku kredytów hipotecznych. Jednym z czynników umożliwiających jej rozwój była bez wątpienia specyfika amerykańskiego rynku nieruchomości. Mowa oczywiście o powiązaniu owego rynku z rynkiem instrumentów finansowych w wyniku pro-cesu sekurytyzacji. W jego następstwie większość kredytów zaciąganych przez amerykańskie gospodarstwa zabezpieczo-na była zestawem instrumentów pochodnych. Dla przykładu, w pierwszej dekadzie XIX wieku blisko 2/3 pożyczek były sekurytyzowane1. Zabezpieczenie stanowiły w szczególności:

• MBS (Mortgage Backed Securities) – papiery wartościowe gwarantowane kredytami hipotecznymi, w przypadku których ryzyko kredytowe zostało przejęte przez instytucje Fannie Mae i Freddie Mac

• CDO (Collateralized Debt Obligations) – instrumenty finan-sowe, które w celu wprowadzenia dodatkowej dekorelacji ryzyka były zazwyczaj zabezpieczane przez różnego rodzaju aktywa finansowe (kredyty, zobowiązania), często połączone w pakiety

• Listy zastawne – papiery wartościowe emitowane przez banki hipoteczne

Niska płynność, brak standaryzacji (brak jednolitego zestawu kredytów hipotecznych związanych z danym instrumentem pochodnym), obniżona transparentność (w przypadku pa-pierów wartościowych zabezpieczonych hipotekami, struk-tura nabywców tych aktywów oraz ich wartość rynkowa nie jest znana) – to cechy wszystkich ww. aktywów. Nawet bez znajomości dalszego przebiegu wydarzeń (czyli załamania amerykańskiego rynku nieruchomości, a tym samym rynku instrumentów będących jego zabezpieczeniem) z całą pewnością można stwierdzić, że aktywa te zasługiwały na mi-ano instrumentów wysoce ryzykownych. Historia pokazała, że agencje ratingowe miały nieco inne zdanie na ten temat…

Optymizm agencji w przyznawaniu ocen

Dowodem na zbyt optymistyczne oceny przyznawane wysoce ryzykownym instrumentom finansowym są wyniki badań przeprowadzonych przez Efraima Benmelech i Jennifer Dlu-gosz2. Bazując na danych agencji Standard & Poor’s, autorzy przedstawiają m.in. strukturę ocen przyznawanych CDO:

Podstawowe wnioski wynikające z wykresu są następujące: po pierwsze, struktura ocen w latach 2000-2007 nie ulegała

Źródło: Opracowanie własne na podstawie Benmelech Efraim, Dlugosz Jennifer, The Alchemy of CDO Credit Ratings, s. 36.

1 Brender Anton, Pisani Florence, Globalised finance and its collapse, Belgia 2009, s. 80. [online: https://www.candriam.com/NR/rdon-lyres/DC3E445C-427E-4A69-ADC6-4B10374D6FE8/0/Globalisedfinance.pdf]2 Benmelech Efraim, Dlugosz Jennifer, The Alchemy of CDO Credit Ratings, NBER Working Paper Series, 2009. [online: http://cid.bcrp.gob

pe/biblio/Papers/NBER/2009/Abril/w14878.pdf]

Page 31: Tozależy9

Świat 31

Absolwentka studiów I stopnia Wydziału Nauk Ekonomicznych UW (kierunek: Ekonomia

Międzynarodowa), studentka I roku studiów II stopnia Szkoły Głównej Handlowej w Warszawie (kierunek: Metody Ilościowe w Ekonomii i Systemy Informacyjne), stypendystka rektora UW oraz członkini Koła Naukowego Strategii Gospodarczej UW w latach ubiegłych.

Justyna Dąbrowska

znacznym zmianom; po drugie, zdecy-dowana większość instrumentów CDO otrzymała od agencji Standard & Poor’s najwyższe oceny (średnio aż 71,75% to oceny AAA). Z perspektywy środowiska inwestorów przyznanie przez agencję ocen najwyższych było tożsame z informacją o niezwykle niskim ryzyku niewypłacalności ich emitenta i możliwości poniesienia strat. Biorąc pod uwagę specyfikę aktywów będących przedmiotem wyceny (o której wspominałam wcześniej), można pokusić się o stwierdzenie, że oceny przyznawane przez agencję znacznie odbiegały od realiów. Co więcej, względna stałość struktury ocen w latach 2000-2007, wyklucza omyłkowy charakter wyceny. Świadczy o tym, że oceny były przyznawane świadomie i celowo, wpisując się tym samym w realizowaną przez agencje strategię.

Przed wyjaśnieniem tego, co kryje się pod hasłem „strategia”, warto zwrócić uwagę na jeszcze jedną kwestię. W tym celu pozwolę sobie odwołać się do przytoczonej wcześniej defin-icji instrumentów CDO. Zgodnie z nią, są to instrumenty pochodne zabezpieczone różnego rodzaju ak-tywami finansowymi. CDO stanowi więc swego rodzaju pakiet aktywów, połączonych w celu wprowadzenia do-datkowej dekorelacji ryzyka. Jak wiemy chociażby z tzw. Nowoczesnej Teorii Portfelowej Markowitza, dywersyfikac-ja zmniejsza ryzyko poniesienia strat z tytułu danej inwestycji. Zachowanie Standard & Poor’s świadczy o tym, że agencja wzięła sobie do serca założenia teorii. W wyniku połączenia aktywów o relatywnie wysokim ryzyku, instru-ment powstały wskutek tego połączenia (czyli w tym przypadku CDO) uznała bowiem za całkowicie bezpieczny. Aby to udowodnić, po raz kolejny powołam

się na wyniki badań Efraima Benmelech i Jennifer Dlugosz, którzy wskazali, że aż 70,7% CDO o ocenie AAA składało się z instrumentów o średniej ocenie B+3.

Kiedy nie wiadomo o co chodzi…

Agencja Standard & Poor’s nie była wyjątkiem, „wyłamującym się entuzjastą” wśród ówczesnych firm zajmujących się wyceną aktywów/pod-miotów (obok agencji Standard & Poor’s w skali międzynarodowej dominującą rolę odgrywały, i odgrywają nadal, także: Fitch Ratings, Moody’s, A.M. Best i Dominion Bond Rating Service). W tym miejscu nasuwa się więc pytanie, co skłaniało agencje do przyznawania tak wysokich ocen? Mówiąc inaczej, jaki czynnik można uznać za podstawowy element wspomnianej wcześniej strate-gii? Odpowiedź na powyższe pytania (w szczególności dla obecnych bądź przyszłych ekonomistów) nie powinna być zaskoczeniem. W większości przy-padków nieracjonalność z punktu wid-zenia rynku i społeczeństwa znajduje

swoje odzwierciedlenie w intencjona-lnym działaniu podmiotu, dla którego jest ona źródłem zysku. Przypadek agencji nie jest wyjątkiem od reguły.

Jednym z wyjaśnień jest tzw. zjawis-ko rating shopping, które w uproszc-zeniu sprowadzało się do tego, że konkurencja pomiędzy agencjami nie-jako wymuszała na nich zawyżanie ocen. Dotyczyło to w szczególności produktów sekurytyzowanych. Fun-dusze sekuryrytyzacyjne, dążące do maksymalnego zwiększenia różnicy pomiędzy kosztem nabywanych akty-wów a kosztem ich obsługi po sekury-tyzacji, mogły wybierać agencję, która przyznawała ich produktom najwyższy rating. Wyjaśnieniem tego zjawis-ka jest relacja pomiędzy ratingiem a wysokością premii za ryzyko. Zależność ta sprowadza się do stwi-erdzenia, że im wyższy rating, tym niższa wartość premii, a tym samym niższe koszty wypłat dla nabywców sekurytyzowanych aktywów i większy zysk dla funduszy.

3 Tamże, s. 16.

ww

w.p

ixab

ay.co

m

Page 32: Tozależy9

Świat32

Konkurencja agencji ratingowych, ro-zumiana jako rywalizacja o klienta, była więc jednym z bodźców skłaniających je do przyznawania wysokich, a ściślej – zawyżonych ocen. Brak zgodności działań agencji z ich podstawową funkcją, czyli dostarczaniem wiarygodnych i prawdziwych informacji środowisku in-westorów, wpłynął na znaczne pogorsze-nie wizerunku agencji oraz poddał w wątpliwość jakikolwiek sens działalności tych podmiotów. Ni-estety nie były to jedyne kon-sekwencje ich niekompetencji.

„Obniżanie ratingów nabrało charak-teru lawinowego 10 lipca 2007 roku. Agencja Moody’s obniżyła ratingi dla 400 papierów wartościowych zabez-pieczonych na spłacie kredytów hipo-tecznych podwyższonego ryzyka, zaś S&P umieściła na liście obserwacyjnej (tzw. rating watch) 612 papierów. Dwa dni później ich ocena została obniżona.”4 Zgodnie z zapisem statutowym, insty-tucje takie jak banki komercyjne, fun-dusze emerytalne i ubezpieczeniowe mogą inwestować w papiery dłużne je-dynie ze skali inwestycyjnej, (z założenia) związanej z relatywnie niskim ryzy-kiem kredytowym i wysokim ratingiem. Obniżenie oceny danego aktywa do pozi-omu oznaczającego utratę klasy inwesty-cyjnej było więc tożsame z koniecznością jego natychmiastowej sprzedaży. Masowy charakter tego zjawiska doprowadził do załamania cen na rynku papierów wartościowych, odbił się negatywnie na wynikach instytucji, a rosnąca niepewność co do wypłacalności emi-tentów papierów dłużnych wzmocniła panikę w środowisku finansowym.

Winny się tłumaczy

Gwałtowne obniżanie ratingów, jakie nastąpiło w 2007 roku, świadczy

o uznaniu stanowiska o błędnym działaniu we wcześniejszych latach przez same agencje. Jednak nie oznacza to, że agencje potwierdziły słuszność wszystkich wysuwanych przeciwko nim oskarżeń.

Agencje usprawiedliwiały się m.in. trudnością w dokładnej wycenie in-strumentów CDO (głównie ze względu na brak standaryzacji, zabezpiecze-nie każdej obligacji na innym zestawie aktywów, dużą skalę rynku CDO). Ich zdaniem wysokie koszty badań uniemożliwiały przeprowadzenie szczegółowej analizy struktury aktywów będących zabezpieczeniem ocenianych instrumentów, co z kolei zmuszało je do budowania modeli ekonometrycznych w oparciu o dane historyczne. Dotyczyło to w szczególności kształtowania cen nieruchomości (zabezpieczających ob-ligacje hipoteczne). Jako że „(…) jeszcze nigdy w Stanach Zjednoczonych nie zdarzyło się takie załamanie cen na rynku nieruchomości, jak w okresie od maja 2006 roku do marca 2009 roku”5, agencje argumentowały, że trudność w wyce-nie instrumentów CDO usprawiedliwia przyznawane przez nie błędne ratingi.

Przypadek ujawniony po śledztwie SEC (Securities and Exchange Commis-sion) w 2008 roku, czyli to, że „analitycy odpowiedzialni za wystawienie ratingu brali udział w negocjacjach dotyczących ceny tej usługi z przedstawicielami emitentów papierów”6, nie miał za-pewne wpływu na decyzje agencji. Niezależność i rzetelność to przecież podstawowe filary ich działalności.

Odbudowa utraconego zaufania

Oceny wystawiane przez agencje przed wybuchem kryzysu były błędne. Dotyczyło to w szczególności instru-mentów finansowych (w tym CDO),

które w wyniku procesu sekury-tyzacji stanowiły zabezpieczenie kre-dytów hipotecznych. Mając na uwadze szereg nieprawidłowości związanych z gospodarką USA (w tym amerykańskim rynkiem nieruchomości), uznanie niepoprawności publikowanych przez agencje ratingów za jedną z przyc-zyn kryzysu, może być zbyt mocnym sformułowaniem, aczkolwiek nie bez-podstawnym. Niemniej jednak poz-bawienie środowiska inwestorów dostępu do prawdziwych informacji odnośnie ryzyka związanego z podej-mowanymi przez nich decyzjami, z całą pewnością przyczyniło się do kreacji bądź intensyfikacji zjawisk kryzysowych.

Zdaje się, że krytyka skierowana pod adresem agencji przyniosła pozytywne efekty. Branża ratingowa została bow-iem niejako zmuszona do wdrożenia zmian zapewniających poprawę „precyzyjności” przeprowadzanych anal-iz. Odbudowanie zaufania inwestorów wymagało poniesienia znacznych nakładów finansowych. Jak mówi Mar-cin Petrykowski, dyrektor regionalny na Europę Środkowo-Wschodnią w agencji ratingowej Standard & Poor’s: „Wydatki przyczyniły się do poprawy metodologii i modeli oceny ryzyka, tak, by wykorzystać nową wiedzę zdobytą w wyniku kryzysu. Inkorporowaliśmy lepsze rozwiązania, tworząc przyszłościowe modele.”7

Branża ratingowa odbudowuje zatem utracone w ostatnich latach zaufanie, a wiadomość o poprawie narzędzi analitycznych i wcieleniu w życie „lep-szych rozwiązań” zapewne cieszy i w pełni satysfakcjonuje środowisko inwestorskie (zakładając oczywiście prawdziwość tego komunikatu).

4 Wieprzowski Paweł, Credit-ratingi a kryzys 2007-2009, “Studia i Prace Kolegium Zarządzania i Finansów”, Zeszyt Naukowy 104, Szkoła Główna Handlowa w Warszawie, 2010, s. 100. [online: http://kolegia.sgh.waw.pl/pl/KZiF/publikacje/Zeszyty%20Naukowe%20KZiF/Documents/studia,104.pdf]5 Tamże, s. 101.6 Courtois Renee, Reforming the Raters, “Region Focus”, Spring 2009, s. 15. [online: https://www.richmondfed.org/publications/re-search/region_focus/2009/spring/pdf/cover_story.pdf]7 Agencje ratingowe próbująodzyskać zaufanie rynków, “Forbes”, 17.03.2014. [online: http://www.forbes.pl/agencje-ratingowe-proboja-odzyskac-zaufanie-rynkow,artykuly,173360,1,1.html]

ww

w.g

ratis

ogra

phy.c

om

Page 33: Tozależy9

Polska 33

Szkodliwe obietnice polityków - polskie mity państwa opiekuńczegoSłuchając zaprzysiężenia rządu z ust premiera oraz każdego ministra, słyszymy przysięgę, której część brzmi: „a dobro Ojczyzny oraz pomyślność obywateli będą dla mnie zawsze najwyższym nakazem». Podobnie posłowie, obejmując mandat, deklarują: „czynić wszystko dla pomyślności Ojczyzny i dobra obywateli”. Władza nie rozumie jednak, że zazwyczaj większą dbałością o naszą pomyślność jest zaniechanie, niż szkodliwe działanie. Nader często działania rządu nie są umotywowane rzeczywistą potrzebą interwencji, a politycznym interesem. Prawnych regulacji dokonuje się jednak w imię „interesu społecznego”. Niestety ta nadopiekuńczość władzy przynosi często szkody dla tej większości, dla której miała mieć przecież zbawienny wpływ.

Szkodliwe obietnice polityków – polskie mity państwa opiekuńczego

Słuchając zaprzysiężenia rządu z ust premiera oraz każdego ministra, słyszymy przysięgę, której część brzmi: „a dobro Ojczyzny oraz pomyślność obywateli będą dla mnie zawsze najwyższym nakazem». Podobnie posłowie, obejmując mandat, deklarują: „czynić wszystko dla pomyślności Ojczyzny i dobra obywateli”. Władza nie rozumie jednak, że zazwyczajwiększą dbałością o naszą pomyślność jest zaniechanie, niż szkodliwe działanie. Nader często działania rządu nie są umotywowane rzeczywistą potrzebą interwencji, a politycznym interesem. Prawnych regulacji dokonuje się jednak w imię „interesu społecznego”. Niestety ta nadopiekuńczość władzy przynosi często szkody dla tej większości, dla której miała mieć przecież zbawienny wpływ.

Ustawa hazardowa

Przykładem takiej niepotrzebnej interwencji jest ustawa hazardowa. Była ona konsekwencją „sprzątania” po aferze, opisanej przez dziennik „Rzeczpospolita” 1 października 2009 roku. Ujawniony lobbing za korzystnymi zmianami w prawie hazardowym ugodził w rządzącą ekipę, wymuszając zdecydowane kroki. Ekspresowo przygotowana ustawa o grach hazardowych została uchwalona przez Sejm 19 listopada 2009 roku. Według Donalda Tuska miała ona „zwiększyć wymiar opodatkowania, skutecznie egzekwować prawo i należności związane z hazardem i przede wszystkim […] uchronić dzieci i młodych ludzi od zbyt łatwego dostępu

do hazardu”1. Obietnica idealna w świecie medialno-politycznym: parlamentarzyści bardzo rzadko sprzeciwiają się pomysłom tak wspaniale dbającym jednocześnie o społeczeństwo, zwiększenie dochodów budżetowych oraz budowanie państwa prawa.

Zwiększony wymiar opodatkowania

Ustawa zwiększyła stopy podatków od gier, m.in. z 10 do 12% wzrosła stawka podatku od zakładów wzajemnych, a z 45 do 50%– od gier na automacie czy ruletki. Kontrowersyjnie również częściowo zakazano i opodatkowano grę w pokera. Mrzonką okazał się jednak trwały wzrost dochodów państwa z tytułu podatku od gier, co obrazuje tabela.

O ile po pierwszym roku obowiązywania tej ustawy wpływy wzrosły, to w latach następnych już tylko spadały. Wzrost opodatkowania nie przyniósł pożądanych efektów. Przykładowo, podniesienie do 12% stawki podatku od zakładów wzajemnych zwiększyło jedynie odpływ klientów firm bukmacherskich do gry przez Internet, gdzie korzystając z ofert zagranicznych firm, zarejestrowanych w rajach podatkowych, mogą liczyć na większe, nieopodatkowane zyski. Według szacunków obłożone podatkiem obroty legalnego rynku to niespełna 800 mln zł, przy 5 mld zł generowanych przez firmy zagraniczne. Co więcej, w 2011 roku należny podatek od gier na automatach wynosił prawie 400 mln zł, jednak od 2015 roku legalnie będzie można grać jedynie w kasynach, co przyniesie kolejny spadek dochodów państwa.

Rok Wpływy budżetowe z tytułu podatku od gier Zmiana rok do roku2009 1,576 mld zł

2010 1,625 mld zł + 49 mln zł2011 1,477 mld zł - 148 mln zł2012 1,442 mld zł - 35 mln zł2013 1,304 mld zł - 138 mln zł

Źródło: http://www.finanse.mf.gov.pl/

1 Fragment wypowiedzi premiera Donalda Tuska z 10.11.2009 na temat wprowadzenia Ustawy o grach hazardowych

Page 34: Tozależy9

Polska34

Skuteczne egzekwowanie prawa

Faktycznie, w związku z ustawą spadła liczba wydawanych pozwoleń na automaty do gier. Jednak równocześnie wzrosła liczba urządzeń nielegalnych, zajmowanych przez Służbę Celną (o 25% w pierwszym półroczu 2011 roku w stosunku do tego samego okresu w roku 2010, oraz o dalsze 23% pomiędzy pierwszym półroczem 2011 i 2012). Pojawiają się także nowe, coraz bardziej wyrafinowane sposoby obchodzenia przepisów, przez które klienci otrzymują produkt (możliwość hazardu), lokale dostarczają możliwości (np. poprzez logowanie na internetowych, zagranicznych serwisach hazardowych), a państwo nie dostaje z tego tytułu ani złotówki. Świadczy to o szkodliwych skutkach regulacji: nie tylko obniżeniem wpływów podatkowych, ale również wzrostem kosztów egzekwowania prawa (tropienia nielegalnych źródeł hazardu). Prawdopodobnie niezmienny popyt na hazard ze strony obywateli zostanie jedynie przesunięty w stronę czarnego rynku oraz działalności w Internecie – nielegalnej, ale w praktyce niekontrolowanej przez państwo.

Ochrona młodych przed hazardem

Na mocy ustawy powołano Fundusz Rozwiązywania Problemów Hazardowych, jako odpowiedź na wzrost wydatków Polaków na hazard oraz ciągły wzrost liczby osób uzależnionych. W założeniu, działanie funduszu ma obejmować badania, profilaktykę, podnoszenie jakości programów profilaktycznych i terapeutycznych, działania edukacyjno-informacyjne oraz rozwiązywanie problemów

wynikających z uzależnienia. Zasadność istnienia funduszu, m.in. ze względu na wysokość kosztów w stosunku do realizacji zadań, podważyła w 2012 roku Najwyższa Izba Kontroli. Państwo w swej „działalności ochronnej”, przez zwiększenie ilości regulacji oraz nowe podmioty administracyjne, generuje jedynie koszty. Jeśli nie ma efektów w postaci malejącego odsetka osób uzależnionych, to ciężko wierzyć, że zmniejsza się on w grupie ludzi młodych.

Ministerialny program finansowania metody in vitro

Kolejnym przykładem niepokojącej ingerencji państwa jest wstęp do publicznego finansowania metody in vitro, zapoczątkowany przez Ministerstwo Zdrowia programem „Leczenie Niepłodności Metodą Zapłodnienia Pozaustrojowego na lata 2013-2016”. Ten zbudowany na siłę rządowy akt prawny (przy obawie o brak poparcia parlamentu dla ustawy) ma pokazać, że rząd dba i pomaga w osiągnięciu potomstwa, nawet wbrew Kościołowi Katolickiemu. Co jednak tutaj ważne, poza budzącymi szereg wątpliwości kwestiami etycznymi co do tej metody, występują również wątpliwości czysto ekonomiczne.

Celem głównym programu jest „zapewnienie równego dostępu i możliwości korzystania z procedury zapłodnienia pozaustrojowego niepłodnym parom. Ponadto, jako cele pośrednie wymieniono: obniżenie odsetka liczby par bezdzietnych, zapewnienie pacjentom najwyższego standardu leczenia niepłodności, zwiększenie skuteczności leczenia niepłodności oraz osiągnięcie poprawy trendów demograficznych”.

Realizacja tego programu pochłonie w okresie od 1 lipca 2013 do 30 czerwca 2016 roku 247,2 mln zł, a docelowo ma objąć 15 tysięcy par dotkniętych problemem niepłodności. Jeden cykl (para zakwalifikowana w programie ma prawo do trzech) został wyceniony na 7510 zł.

Po pierwsze–równy dostęp. Do realizacji programu wybrano 31 ośrodków z całej Polski, rozłożonych nierównomiernie, bo np. w województwie lubuskim i warmińsko-mazurskim nie ma ani jednego podmiotu realizującego. Sam element wyboru podmiotów spełniających wymogi Ministerstwa Zdrowia jest przeciw równości. Wypacza on popyt na zabiegi in vitro w stronę wybranych klinik, więc przeczy równości

Przemysław twardziakStudent II roku II stopnia na specjalności Ekonomia Sektora Publicznego WNE UW, uczestnik i laureat II nagrody Wiosennej Szkoły Leszka Balcerowicza 2014, wyróżniony w IV edycji konkursu Młody Ekonomista organizowanego przez Towarzystwo Ekonomistów Polskich, interesuje się zagadnieniami związanymi z ekonomią polityczną oraz polityką gospodarczą, prywatnie miłośnik piłki nożnej i eskapad rowerowych.

Ten oraz kolejne cytaty pochodzą ze strony Ministerstwa Finansów dotyczącej programu [online: http://www.invitro.gov.pl/]

scotcomp.org.uk

Page 35: Tozależy9

Polska 35

dostępu do „kupna usługi” w wybranym przez klienta miejscu. Równość dostępu jest tutaj de facto tego dostępu ograniczeniem. Ponadto, niewystarczające finansowanie metody in vitro,ograniczając konkurencję, tworzy u poszczególnych realizatorów mniejsze bądź większe kolejki oczekujących na uczestnictwo w Programie. Istny socjalizm.Po drugie–niepłodne pary. Program wypacza popyt ze strony par uznanych na podstawie definicji za niepłodne w stronę metody zapłodnienia pozaustrojowego. Oczywiście, jak głosi: „Metoda ta stosowana jest w sytuacji, gdy wyczerpano już inne możliwości leczenia lub jeśli nie istnieją inne metody leczenia niepłodności.”Jednakże decyzję o przyjęciu pary do programu mogą podjąć „jedynie wyłącznie lekarze z ośrodków będących realizatorami Programu na podstawie kryteriów określonych w treści Programu”. Stwarza to realny konflikt interesów, ponieważ w interesie lekarza i jego pracodawcy jest zakwalifikowanie pary do procedury in vitro, której klienci poddadzą się w tymże ośrodku, nie zaś dalszej próby leczenia innymi metodami.

Po trzecie–obniżenie odsetka liczby par bezdzietnych. Skuteczność każdej próby leczenia przez in vitro została w samym programie określona na 30%. Wraz z wiekiem z matki spada skuteczność tej metody, co sprawa, że w rzeczywistości szansa na ciążę może być średnio jeszcze niższa. Co ważne, powstaje pytanie, ile par przystąpiło do programu spośród tych, które z powodów finansowych nie mogły tego uczynić przed 1 lipca 2013 roku? Takimi danymi nie dysponujemy, ale wydaje się bardziej prawdopodobne wyparcie wydatków prywatnych przez publiczne, niż przystąpienie do procedur zupełnie nowej grupy par, które nie mogły sobie na to pozwolić wcześniej. Obniżenie odsetka liczby par bezdzietnych – być może tak, ale to raczej przypisanie państwusukcesu, który i tak następował bez jego aktywnego udziału.

Po czwarte –najwyższy standard leczenia niepłodności. Jeśli rynek usług leczenia niepłodności nie zapewniał „najwyższych standardów”, to rolą państwa jest przeciwdziałanie zawodności rynku. Nie oznacza to jednak koniecznie finansowania jego części, zastępując podmioty prywatne. Jeśli zmartwienie dotyczyło procedur stosowania metody zapłodnienia pozaustrojowego, a zwłaszcza przechowywania zarodków czy też

kwalifikacji personelu, można uregulować te kwestię poprzez regulacje oraz ich odpowiednie egzekwowanie. Nie jest konieczne finansowanie usług.

Po piąte–zwiększenie skuteczności leczenia niepłodności. Jeśli tak, to program nie powinien się ograniczać do finansowania tylko metody in vitro, lecz również innych form przeciwdziałania problemowi niepłodności. Jeśli jednak obejmuje on jedynie procedurę in vitro, to poprawa skuteczności może nastąpić np. poprzez finansowanie badań nad metodą, a nie dopłaty do realizacji już opracowanej metody.

Po szóste–osiągnięcie poprawy trendów demograficznych. Ministerstwo Zdrowia chwali się, że dzięki programowi urodziło się już 425 dzieci1. Należy po raz kolejny podnieść argument, że nie jest oczywiste, iż dzieci nie urodziłyby się bez wsparcia finansowego rządu, bo być może program zastąpił wydatki prywatne par bezdzietnych. Dlatego mocno kontrowersyjną tezą jest przypisywanie tej liczby urodzeń do zasług rządu. Jeśli przez trzy lata działania programu liczba uczestniczących par jest szacowana na około 15 tysięcy (już dziś wiadomo, że może być ich więcej, bowiem po pierwszym roku zarejestrowano ponad 11 tysięcy par), a skuteczność metody jest oceniana na 30%, to oczekiwana liczba ciąż wynosi zatem 5 tysięcy. Daje to ok. 1700 ciąż rocznie (według szacunków po pierwszym roku jest to 2559 ciąż). Biorąc pod uwagę ciąże mnogie,możemy się spodziewać 1800-2700 urodzeń rocznie. W Polsce w 2013 roku urodziło się 369, 6 tysięcy dzieci. Oznacza to 0,5-0,7% więcej urodzeń dzięki in vitro z rządowego programu. Oczywiście przy założeniu, że ciąży nie byłoby bez pomocy finansowej państwa. Licząc odsetek ciąż „z programu rządowego”, przy chyba nieco zawyżonych prognozach urodzeń GUS (ponad 406 tysięcy w 2014 roku, 401,5 tysięcy w 2015 roku i 395,6 tysięcy w 2016 roku) daje to jeszcze niższą wartość. Nawet przyjmując, że rzeczywiście to dzięki rządowi wzrosła liczba urodzeń w kraju, choćby o 0,5%, to rządowy dokument nie wylicza, o ile mogłaby wzrosnąć liczba urodzeń np. przy promowaniu wcześniejszej decyzji o ciążach czy wspieraniu innych metod walki z niepłodnością przy podobnych nakładach finansowych. Mówi nam o skuteczności, ale nie wspomina o efektywności tego rządowego projektu.

Rząd w pięknych słowach… prawdę chowa

Reasumując, rządowe programy i ustawy są zapełnione hasłami dobrze brzmiącymi, lecz niemającymi zwykle potwierdzenia w faktach. Akty prawne wchodzące w życie są wynikiem zamówienia politycznego, nie zaś rzeczywistych potrzeb ingerencji państwa. Nie jest przeprowadzana właściwa Ocena Skutków Regulacji z analizą wszystkich podmiotów, na które akt prawny wpływa i konsekwencji, jakie stwarza. Prowadzi to często do ogromnych i niemożliwych do obliczenia w całości kosztów, nie tylko wzrostu wydatków publicznych, ale także strat prywatnych przedsiębiorców czy degeneracji całej struktury społecznej, budując nasze uzależnienie od państwa opiekuńczego.

1. Dane liczbowe są zaczerpnięte ze strony Ministerstwa Zdrowia [online: http://www.mz.gov.pl/aktualnosci/ponad-10-000-par-w-rza-dowym-programie-in-vitro]

Page 36: Tozależy9

To Zależy36

Reforma górnictwa - czy Polsce potrzeba

drugiej Thatcher?

Niewidzialna ręka nie wydobywa węgla

Agnieszka Pietrzyk

Przeprowadzane reformy muszą być dopasowane do okoliczności. Te radykalne można zrealizować w czasie przemian systemowych czy kryzysów inflacyjnych, przy dużym poparciu politycznym i społecznym. Na obecnej scenie politycznej nie ma grupy, która miałaby siłę przeprowadzić skuteczne reformy, zatem lepszym rozwiązaniem wydają się konsekwentne i stopniowe zmiany.

Za ewolucyjną drogą modernizacji przemawia także sytuacja na międzynarodowym rynku surowców. Nie jest tajemnicą, że rynek energii nie jest wolny i nieograniczony przez wpływy polityczne. Obecnie najwięcej węgla importujemy z Rosji, z którą, jak pokazują ostatnie miesiące, raczej nie powinniśmy wiązać bezpieczeństwa energetycznego. Bez własnych zasobów innych paliw kopalnych czy źródeł alter-natywnej energii kroki drastycznie ograniczające wydoby-cie mogą przynieść zagrożenie dla gospodarki. Warto także zauważyć, że mimo wszystko niecałe trzy lata temu kopal-nie zarabiały dla budżetu i akcjonariuszy kilka miliardów złotych rocznie.

Nagła reforma nie przyniesie również zmian instytucji. Bez nakładów na rozwój kapitału społecznego nie zosta-nie stworzone zaplecze do rozwoju obecnych obszarów górniczych. Spokojne i wyważone inwestycje pozwolą natomiast dostosować się mieszkańcom do nowej rzeczywistości i ukształtować podstawy przedsiębiorczości oraz odpowiedzialności społecznej. Jednocześnie nie można ignorować kosztów związanych z potencjal-nymi masowymi zwolnieniami kilkudziesięciu tysięcy górników i zamknięciem obecnych wyrobisk. Konsekwencje pośpiesznych i bezrefleksyjnych działań w najlepszym wy-padku odczuje cały region.

Nie zakopujmy publicznych pieniędzy

Sebastian Lewandowski

W pierwszym półroczu strata finansowa polskiego gór-nictwa węgla kamiennego wyniosła 772,3 mln zł netto, a na samej sprzedaży węgla spółki straciły ponad miliard zł. W tym samym okresie jedynie trzy spośród czternastu kopalń Kompanii Węglowej zostały uznane za rentowne. Wynik jest zatrważający, nawet biorąc pod uwagę zmiany i obecne trendy na rynkach światowych.

Trudno jednoznacznie wskazać przyczyny tak dużych strat, jednak odpowiedź nasuwa się sama, jeśli weźmie się pod uwagę, że 70% kosztów Kompanii Węglowej to płace i świadczenia. Średnie wynagrodzenie w tym sektorze wynosi 6 647 zł, będąc o około 90% wyższe niż średnia krajowa – takich proporcji nie znajdziemy nigdzie w zach-odniej Europie. Lwią część tej kwoty stanowią uprawnienia wynikające z Karty Górnika. Same przywileje emerytalne kosztowały podatników w 2012 roku około 8 mld zł. Mimo że problem może bezpośrednio nie dotykać każdego z nas, to jego skala już tak – w końcu branża ta odpowiada za ok 2% PKB. Konieczne jest więc możliwe szybkie dostosowanie polskich kopalń do warunków wolnorynkowych.

Co może zatrważać, to obecny brak efektów dotychcza-sowych działań, mimo kosztów sięgających tylko w latach 1990-2007 ponad 66 mld zł ze środków publicznych. W gestii polityków leży jak najszybsze wprowadzenie pro-gramu naprawczego, który w długim okresie przystosuje polskie górnictwo do światowych standardów. Jednak i to może nie starczyć, jeśli Kompania Węglowa przegrywa w sądzie batalię o rekompensatę dla emerytów za odebraną w lutym jedną tonę deputatu.

W ciągu ostatnich tygodni dużo miejsca w społecznej dyskusji zajmuje temat reformy polskiego górnic-twa. Pobudzające wyobraźnię straty finansowe kopalń oraz równie imponujące świadczenia płacowe górników budzą niezrozumienie opinii społecznej. Najgłośniejsza dotychczas reforma tej branży prz-eprowadzona była w Anglii na początku lat 80. z inicjatywy Margaret Thatcher. Co do tego, że reforma jest potrzebna, nikt nie ma wątpliwości, ale czy powinna być ona równie gwałtowna? To zależy…

pl.w

ikip

edia

.org

Page 37: Tozależy9

To Zależy 37

Page 38: Tozależy9

Opinie38

Każdemu z nas zapewne odpowiada koncepcja człowieka racjonalnego. Podejmujemy decyzje najlepsze z możliwych, zawsze dążymy do zmaksymalizowania swojej użyteczności, a nasze wybory przyczyniają się do ogólnego dobra. Czy ktoś chciałby tu cokolwiek zmieniać? Oczywiście, że nie, bo żadna modyfikacja nie jest potrzebna. Takiego modelu po prostu nie ma. Wybory najlepsze z możliwych zastępujemy zadowalającymi. Nie potrafimy dobrze operować liczbami, gubimy się w szacunkach, nie jesteśmy w stanie nawet wskazać, czy coś jest duże czy małe, drogie czy tanie… Jeśli ktoś miał jakiekolwiek wątpliwości co do autentyczności wcześniejszego stwierdzenia, artykuł ten powinien pokazać niektóre z obszarów ludzkiej niedoskonałości i irracjonalnego działania w codziennym życiu.

Wszystko jest względne

W jednej z książek Dana Arielego „Potęga irracjonalności” znajdziemy rozdział zatytułowany „Prawda o względności”, a w nim zdjęcie oferty ze strony „The Economist”1: prenumerata internetowa tego czasopisma za kwotę $59, prenumerata wydania tradycyjnego, papierowego - $125.

Która z ofert jest lepsza? Którą należy wybrać?

Być może podjęcie decyzji ułatwi nam trzecia oferta - wydanie papierowe oraz dostęp do wydania internetowego w cenie $125. Czy to pomyłka? Czy ktoś popełnił tak

niefortunny błąd i pozwolił, żeby oferta ta ujrzała światło dzienne? W tym przypadku nie ma mowy o jakimkolwiek błędzie. Powyższa oferta to całkowicie zamierzone działanie, które pozwala obnażyć naszą irracjonalność. Specjaliści od marketingu pracujący dla „The Economist” doskonale wiedzieli, że człowiek nie potrafi oszacować wartości produktu czy usługi bez odniesienia do innej oferty. Nie potrafimy powiedzieć, czy coś jest drogie, czy tanie, ale potrafimy powiedzieć, że coś jest drogie w porównaniu do czegoś innego. Dlatego też przyglądając się ofercie złożonej przez „The Economist”, widzimy, że opcja: „wydanie papierowe plus internetowe w cenie 125 dolarów” jest bardziej opłacalna niż wersja papierowa, ponieważ wydanie internetowe otrzymujemy za darmo – czytaj: GRATIS. Gdyby nie to, że marketingowcy „The Economist” dorzucili trzecią opcję prenumeraty, zapewne nie wiedzielibyśmy czy wybrać wersję papierową czy internetową. Cena przemawiała za wersją internetową, jednak wielu z nas lubi czytać gazety w tradycyjnym, papierowym wydaniu. O ostatecznym wyborze zadecydowała względność, co udowodnił Dan Ariely w swoim eksperymencie.

Pierwsza część eksperymentu polegała na przedstawieniu stu studentom oferty dostępnej na stronie „The Economist”. Wyniki były następujące:

1. Prenumerata wydania internetowego ($59) - 16 studentów.2. Prenumerata wydania papierowego ($125) - 0 studentów.3. Prenumerata wydań papierowego i internetowego ($125) - 84 studentów.W kolejnej wersji eksperymentu Ariely postanowił usunąć opcję numer 2 z oferty prenumeraty. Wynik eksperymentu w tym wypadku, zgodnie z modelem racjonalnego podejmowania decyzji, nie powinien się zmienić, gdyż zakładamy, że każdy wybrał najlepszą, jego zdaniem, opcję. Wyniki eksperymentu:

1. Prenumerata wydania internetowego ($59) - 68 studentów.2. Prenumerata wydań papierowego i internetowego ($125) - 32 studentów.

W porównaniu do… czyli kilka słów o naszej irracjonalności Każdy, kto kiedykolwiek miał okazję uczyć się mikroekonomii, z pewnością zna pojęcie homo oeconomicus. Koncepcja człowieka racjonalnego oraz racjonalnego modelu podejmowania decyzji, to podstawa w nauce o ekonomii. W tym miejscu należy zastanowić się: co, jeśli owy fundament jest abstrakcyjnym, pełnym niedoskonałości paradygmatem? Stawiając takie pytanie, każdy czytelnik oczekuje, że zaraz posypie się lista zarzutów wobec naszego homo oeconomicusa, co pozwoli całkowicie ujawnić jego słabości. Niestety, a może stety, tak nie będzie. Artykuł ten będzie odkrywał jedynie czubek góry lodowej, której na imię irracjonalność.

1 http://danariely.com/the-books/excerpted-from-chapter-1-%E2%80%93-the-truth-about-relativity-2/

Page 39: Tozależy9

Opinie 39

Absolwentka Wydziału Nauk Ekonomicznych oraz Wydziału Zarządzania. Obecnie studiuje Informatykę

i Ekonometrię na WNE. Jej zainteresowania koncentrują się przede wszystkim wokół ekonomii behawioralnej i muzyki (filmowej oraz klasycznej).

Katarzyna Błaszczyk

Dlaczego wynik drugiej części eksperymentu nie potwierdza wyników z części pierwszej? Czyżby na skutek braku „wabika” - punkt drugi w oryginalnej ofercie „The Economist” - możliwość prenumeraty wydania papierowego i internetowego stała się mniej atrakcyjna? Jak zauważył Dan Ariely, zachowanie to nie jest jedynie irracjonalne, ale jest przewidywalnie irracjonalne.

„Pond effect”, czyli efekt wielkiej ryby w małym stawie

Spójrz na powyższe rysunki2. Które, Twoim zdaniem, z pomarańczowych kół jest większe? Prawe czy lewe? Czy potrafisz powiedzieć, która z poziomych kresek na obrazku po prawej stronie jest dłuższa?

Ci, którzy przeprowadzali eksperymenty na podobnych ilustracjach, zauważyli, że zdecydowana większość typuje koło po prawej stronie jako większe, natomiast w przypadku odcinków, większość osób uznaje, że pozioma kreska umieszczona w dolnej części rysunku jest dłuższa. Zadania tego typu na pierwszy rzut oka wydają się bardzo łatwe, wręcz oczywiste. Niestety, pozory mylą.

Mimo że mamy do czynienia z iluzją optyczną, powyższe ilustracje uświadamiają nam, że nasze oceny są wynikiem porównywania, patrzenia przez pryzmat czegoś podobnego, czegoś w najbliższym otoczeniu. W taki sposób oceniamy zarówno ludzi, zwierzęta, jak i przedmioty. Na podstawie porównawczego zestawienia dokonujemy wielu wyborów: m.in. wyboru szkoły, zawodu, miejsca zamieszkania, miejsca wakacyjnego odpoczynku. Bez porównywania nie potrafimy powiedzieć, że dany samochód jest drogi, dany zawód opłacalny, a miejsce, w którym planujemy spędzić urlop - tanie.

60 euro - dużo czy mało?

Nicolae Naumof, holenderski pasjonat nauk o człowieku (w tym ekonomii behawioralnej), zamieścił na swoim blogu eksperyment świetnie obrazujący problem względności3.

W pierwszej wersji eksperymentu jego bohater chciał kupić sobie garnitur. Model, który wybrał, kosztował 300 €. Przez przypadek mężczyzna dowiedział się, że w oddalonym o 25 km od upatrzonego sklepu salonie można kupić ten sam garnitur o 60 € taniej. Co zrobił bohater? Oczywiście w pierwszej chwili uznał, że to doskonała okazja i udał się do tańszego sklepu.W drugiej części eksperymentu, mężczyzna kupował samochód. W pobliskim salonie model, który go interesował kosztował 18.990 €. Mężczyzna dowiedział się, że 25 km dalej jest salon, w którym ten sam samochód może kupić o 60 € taniej. Te same pieniądze, ta sama odległość, czy jednak ta sama okazja? Bohater eksperymentu nie zdecydował się na podróż do tańszego salonu i uznał, że 60 € to żadna oszczędność w tym przypadku. Czy zatem 60 € nie równa się 60 €?

Ciągłe porównywanie

Można powiedzieć, że porównywanie nieustannie nam towarzyszy. Czasami porównujemy coś świadomie, jednak wielokrotnie nie mamy pojęcia, że zachowujemy się irracjonalnie. Fakt ten jest wielokrotnie wykorzystywany, między innymi w działaniach marketingowych, gdzie specjaliści od reklamy doskonale radzą sobie z przewidywaniem zachowania konsumenta. Nierzadko ulegamy pozornym promocjom, chętnie wybieramy produkty i usługi, które zawierają coś darmowego, gratisowego. Nie dostrzegamy jednak, że jesteśmy skłonni do przeszacowania pewnych wartości. Tak jak w powyższym przykładzie, 60 € potrafi oznaczać dla konsumenta więcej niż 60 €, co wydaje się być sprzeczne z jakąkolwiek logiką. Jak się okazuje, rozumowanie, wedle którego 60>60, jest nieprawidłowe do momentu, w którym rozpoczyna się porównywanie: „ile procent ceny podstawowej stanowi 60 € w każdym z dwóch przypadków?”. Punkt odniesienia, który obieramy niemalże przy każdej wykonywanej czynności, także i w powyższym przykładzie, pozwala nam tłumaczyć i usprawiedliwiać nieracjonalne zachowania.Podążając tym tokiem myślenia, można by stwierdzić, że „ekonomiczna teoria względności” znacznie ułatwia nam codzienne życie. Korzystanie z niej sprawia, że podejmowanie decyzji za każdym razem przybiera bardzo podobną postać – najpierw porównujemy, później dokonujemy zadowalającego wyboru. Czy można więc powiedzieć, że nasze zachowanie sprowadzone jest do prostych schematów myślowych, które tak łatwo przewidzieć? Jak często i w jakich sytuacjach kierujemy się drogą racjonalnej dedukcji? Ile tak naprawdę jest w nas homo oeconomicusa? Czy względność to jedyna pułapka, która przeczy idei racjonalnego podejmowania decyzji?

2 Oba pochodzą ze strony http://www.rollingalpha.com/2013/07/31/the-economic-theory-of-relativity/3 http://naumof.blogspot.nl/2013/01/everything-is relative.html?goback=.gde_2621605_member_201130005

Page 40: Tozależy9

Opinie40

Wszystko ma swój początekWarto sięgnąć po gazety przedstawiające różne nurty światopoglądowe, obejrzeć główne wiadomości z kilku stacji. Można wtedy doznać szoku, jak odmienne opinie, czasem na ten sam temat, są przedstawiane w antagonistycznych środkach masowego przekazu. Ten wstrząs skłonił mnie do poszukiwań badań na temat wpływu mediów na frekwencję w wyborach i wydatki socjalne. Prace są przeprowadzone głównie na przykładzie Stanów Zjed-noczonych, od lat trzydziestych do dziewięćdziesiątych. Niestety ze względu na specyfikę historii Euro-py nie będzie można jednoznacznie przenieść wyników tych badań na „nasze podwórko”. W tym czasie konty-nent był targany wieloma problemami natury społecznej i politycznej. Jednak powinno nam to uzmysłowić pewien schemat wpływu mediów i skłonić do przemyśleń. Niech każdy sam za-stanowi się, ile razy przekazał znajo-mym niesprawdzoną informację.

To co słyszyszW XXI wieku radio odgrywa różne role. Rozbudza podczas poranków, dostarcza rozrywki pod postacią muzy-ki lub powiadamia o najważniejszych wydarzeniach. Ostatnie zadanie staje

się marginalne ze względu na roz-wój innych środków przekazu. Jednak w latach dwudziestych XX wieku w Stanach Zjednoczonych było odwrot-nie. David Strömberg w pracy Radio’s Impact On Public Spending badał, jaki wpływ na decyzje wyborców i poc-zynania polityków miało posiadanie radia. Doszedł do wniosku, że okręgi, gdzie większa część wyborców posiada odbiornik radiowy, otrzymują więcej pomocy publicznej. Warto wspomnieć, że wynik ten nie jest statystycznie znaczący, ale interesująca jest inna obserwacja. Dla każdego jednoprocen-

towego wzrostu udziału radia w pop-ulacji, wydatki z funduszu pomocy rosły o 0,6%. Moglibyśmy uznać, że bogatsze okolice, gdzie więcej ludzi ma możliwość zakupu odbiorników, pow-inny uzyskiwać więcej pomocy. Jednak takie przypuszczenie wydaje się mało prawdopodobne ze względu na niską

potrzebę tego typu funduszy w takich regionach.

Jak w takich przypadkach uwzględniane są potrzeby najbiedniejszych grup społecznych? Analfabetów traktuje się w tej kwestii marginalnie ze względu na ich niską frekwencję w wyborach i ograniczoną możliwość uzyskania informacji o cięciach wydatków pub-licznych. Zgodnie z badaniami każdy procentowy wzrost analfabetyzmu wśród danej społeczności powodował odpływ pomocy społecznej o ponad jeden procent. Można uznać, że prawo głosu dla najbiedniejszych nie gwa-rantuje jednoznacznie poprawy ich bytu. Z drugiej strony powszechniejsze używanie radia miało istotny wpływ na poprawę warunków życiowych mieszkańców wiejskich terenów. Otrzy-mywali średnio o ponad 50% więcej środków niż mieszkańcy miast.

To co czytaszDzienniki i gazety widzimy dzisiaj w in-nej postaci niż nasi rodzice. Papierowe wersje zastępujemy internetowymi wydaniami bądź e-bookami na tablet. Nie zmienia to faktu, że są to jedne z głównych dostarczycieli informacji i opinii. Trudno zmierzyć ich jednoznac-zny wpływ na decyzje polityków i wyborców. Jednak James Snyder i Da-vid Strömberg w swojej publikacji Press

Ciągle atakują nas informacje; powiadomienia na Facebooku, wiadomości w telewizji, reklamy w radiu. Jednak czy zastanawialiście się, jaki mają one na nas wpływ? Czy potrzeby mniejszości są ignorowane w mediach ze względu na ich niską możliwość „sprzedaży”? Czy media są naprawdę wolne od nacisku elit społecznych? Warto się nad tym zastanowić i następnym razem, zanim przeczytaną w gazecie wiadomość przyjmiemy za pewnik, przemyślimy to dwa razy. Może dzięki temu staniemy się bardziej świadomymi wyborcami.

naumann.deviantart.com

Page 41: Tozależy9

Opinie 41

Coverage And Political Accountability z 2008 roku wykonali badania mierzące to oddziaływanie.Jeśli tylko gazeta spodziewa się eko-nomicznych wpływów z publikacji na temat działań polityków danych okręgów wyborczych, to wyborcy mają łatwiejszy dostęp do informacji. Skutki tego są oczywiste. Społeczeństwo jest lepiej poinformowane na temat działań ich przedstawicieli, co może przejawiać się wyższą frekwencją w wyborach. Z tego powodu politycy mają silniejsze bodźce do walki o interesy swojego okręgu. Ostatecznie wpływa to pozyty-wnie na federalne dotacje.Statystyki dobitnie ukazują ten wpływ. Wzrost częstotliwości ukazywania się artykułów o danym polityku o 50%, pozwala wyborcom nazwać go po-prawnie 30% częściej. Co więcej, do-datnio wpływa to na możliwość jego oceny i opisu, a także zwiększa wpływy federalne o 10% w jego regionie.

Tak było w latach 1982-2004, w których uzyskano dane do badań. Nie można tych wniosków jednoznacznie odnieść do sytuacji w Europie. W tym regionie występuje tendencja do zmniejszania się liczby gazet lokalnych, które mogą dostarczać informacji dotyczących najniższych szczebli władzy. Nie mają one szans istnieć przy wydawcach ogólnokrajowych, co wpływa ujemnie na wiedzę społeczeństwa o działaniach polityków. Ma to miejsce głównie z powodu mniejszej ilości bodźców do informowania o działaniach reprezentantów każdego szczebla. Jednak w Stanach Zjednoczonych trzy największe dzienniki odpowiadają za ledwie 12% sprzedaży krajowej. Ten przykład napawa optymizmem, lecz w wielu krajach jest odwrotnie.

To co widziszMało kto wie, że początek telewizji w Polsce datuje się na 1937 rok. Została wtedy uruchomiona ekspery-mentalna stacja telewizji publicznej, którą obecnie znamy pod nazwą TVP1. Rozkwit jednak nadszedł w latach 80. i 90., wraz z rozwojem pierwszych

prywatnych stacji. Niektórzy uważają je za najprzyjemniejsze z mediów ze względu na niskie wymagania stawi-ane przed odbiorcą. Wystarczy usiąść, zrelaksować się i oglądać. Czy może to oznaczać, że jesteśmy bardziej podatni na ich wpływ? Ostatecznie można bow-iem uznać, że jesteśmy wtedy bezbron-ni.

Scott Althaus i Todd Trautman w pracy The Impact of Television Market Size on Voter Turnout in American Elections (2008 rok), jak sam tytuł wskazuje, przebadali wpływ rynku telewizji na udział w wyborach. Praca ma wiele ograniczeń, głównie z powodu za-gregowanych danych. Na jej podstawie można wyciągnąć tylko ogólne wnioski bez rozróżniania na istotne cechy, takie jak rozkład grup społecznych lub usy-tuowanie materialne w zależności od zamieszkałego terenu.

Główny wniosek był następujący: im większy rynek telewizyjny, tym niższy udział w wyborach prezydenck-ich. Widać też wyraźnie, że mniejsza gęstość zaludnienia ma wpływ na wynik. I tak najwyższa frekwencja jest w wiejskich obszarach, później pod-miejskich i na samym końcu w mia-stach. Trudno ustalić, co może mieć jednoznaczny wpływ na wyniki. Jedną z hipotez jest, że w miastach zamiesz-kuje więcej grup etnicznych, które nie mają prawa do udziału w wyborach, jednak dalsze badanie na ten temat są niezbędne.

Medium XXI wiekuNie sposób nie wspomnieć o najmłodszym ze wszystkich przekaźników medialnych – inter-necie. Łączy sobie cechy wszystkich powyższych i umożliwia odnalezienie niemalże każdej informacji, jednak często nieznanego źródła.

Trudno skrupulatnie zbadać wpływ internetu na udział w wyborach, ze względu na anonimowość, którą za-pewnia. Jednak przeprowadzono eksperymentalne badania, które starały się to ocenić. Jednym z nich jest

praca J. Woody Stanley i Christopher Weare „The Effects of Internet Use on Political Participation: Evidence From an Agency Online Discussion Forum“. Wykorzystano tutaj modelowane fo-rum dyskusyjne, na którym każdym mógł wyrazić swoje zdanie. Naukowcy doszli do wniosku, że stwarza to nowe możliwości do wyrażania swoich opi-nii wcześniej nie zaangażowanym słuchaczom. Można to traktować jako nowy środek komunikacji, ale nie udało się potwierdzić jednoznacznego wpływu na większy udział w wybo-rach. Jedynie stu słuchaczy zostało do tego zachęconych, jednak nawet taki wynik ujawnia możliwości internetu jako mobilizatora społecznego.

Nie panikujmyTylko w zarysie mogłem przedstawić wybrane przez mnie badania. Jest ich wiele więcej, lecz główną ich wadą jest szacowanie korelacji na podstawie przeszłych danych. Świat zmienia się w każdej sekundzie i nie można jed-noznacznie oceniać teraźniejszości, patrząc w przeszłość. Wyciąganie zdecydowanych wniosków na pod-stawie przytoczonych wyżej danych to daleko idące uproszczenie. Mimo wszystko mam nadzieję, że choć w małym stopniu uzmysłowiłem czytelnikom, jaki wpływ mają na nasze wybory media. I to nie tylko one, ale również nasze najbliższe otoczenie; od rodziców, którzy nas wychowywali od małego, przez wieloletnich przyjaciół, do znajomych na studiach, a nawet wykładowców. Nie chciałbym, aby każdy starał się poddawać każdą usłyszaną informację w wątpliwość. Niemniej, warto czasem pamiętać, że czytamy to, co chcemy przeczytać; słyszymy to, co chcemy usłyszeć; wid-zimy to, co chcemy zobaczyć. Zawsze warto mieć szerszą perspektywę, wysłuchać argumentów dwóch stron i dopiero wtedy wypracować swoje zdanie. Nie ma nic gorszego niż wielok-rotnie przekazywana plotka bez real-nych podstaw.

4. Wspomina o tym portal wp.pl w artykule z 27.10.2011 [online: http://wiadomosci.wp.pl/kat,1033781,title,Dziennik-Rzeczpospolita-ma-nowego-naczelnego,wid,13935499,wiadomosc.html] ip

redi

ctus

.com

Student Informatyki i Ekonometrii na WNE UW i Matema-tyki na MIM UW, stypendysta rektora UW. Członek KNSG UW

i AIESEC - lider wiosennej edycji Native School. Jego zaintereso-wania to ekonomia polityczna, matematyka finansowa i psychologia. Zawodowo związany z Alior Bankiem.

Sebastian Lewandowski

Page 42: Tozależy9

Opinie42

Najgroźniejszy wrógChcąc wyjaśnić przyczyny i skutki niewypłacalności państwa, należy zacząć od najgorszego zła dla obywateli – mam tu na myśli inflację. Wyobraźmy sobie sytuację, w której oszczędności zbierane przez wiele lat w przeciągu kilku miesięcy zupełnie tracą na wartości; miejsce, gdzie nie warto zarabiać, gdyż za pensję nie można nic kupić. Firmy przestają produkować, bo popyt jest zerowy. Wszystko popada w marazm, a ci, którzy jeszcze mają jakieś środki finansowe, uciekają za granicę. To nie scenariusz filmu katastroficz-nego, lecz wizja państwa dotkniętego hiperinflacją. Ten obraz będzie potr-zebny do lepszego zrozumienia kon-sekwencji całkowitego bankructwa państwa.

Czym właściwie jest bankructwo?

Niestety bardzo trudno zdefiniować niewypłacalność państwa. Istnieją ku temu dwa powody. Po pierwsze, każde bankructwo państwa jest na swój sposób specyficzne. Przykłady Grecji i Argentyny, nie wspominając nawet Islandii, diametralnie się różniły, zatem ciężko uznać konkretny przypadek za wzór bankructwa. Po drugie, większość państw znajduje się w permanentnym, ogromnym długu publicznym, który w praktyce jest niespłacalny, a jedynie rolowa-ny. Toteż trudno mówić o klasycznej niewypłacalności, gdyż w moim prze-konaniu wiele państw jest de facto bankrutami. Można tutaj wspomnieć o ogromnym długu Wielkiej Brytanii, wynoszącym ponad 1 216 miliardów funtów. Sama jego obsługa kosztuje każde gospodarstwo domowe na Wys-pach ponad 1 800 funtów rocznie1. Za-tem niewypłacalność lub też wielkość długu – czy to nominalna, czy w sto-sunku do PKB – nie jest kryterium bank-ructwa państwa. Moim zdaniem je-

dynym momentem, który można uznać za faktyczne bankructwo, jest chwila, kiedy nie można dalej rolować długu, gdyż nikt z pożyczkodawców nie chce udzielić kolejnego kredytu ze względu na utratę zaufania. Kiedy taki dzień może nadejść dla danego państwa? Wpływa na to szereg czynników ze światowej i krajowej gospodarki, a ich przewidze-nie często jest niemożliwe ze względu na trudność oceny przyszłego zachow-ania instytucji finansowych i obywateli.Wróćmy jednak do samego bankructwa. Stało się! Państwo jest niewypłacalne i ogłasza upadłość finansową. Przecież nie znika ono z mapy świata, ludzie nie rozpadają się w niebyt. Ostatecznie, nawet rząd nadal kieruje państwem. Niektórzy „eksperci” podają, że w ta-kim kryzysowym momencie policja i szpitale przestają działać,

a w szkołach nie usłyszy się pierwsze-go dzwonka. Można by zakpić, że wojs-ko wówczas też nie funkcjonuje i da się podbić kraj bez jednego wystrzału. Takie pojmowanie bankructwa jest błędne; zawsze można dodrukować nowy pieniądz2 i wypłacić pensje polic-jantom, lekarzom oraz wojskowym. W ten sposób rząd zawsze znajdzie

jakieś koło ratunkowe – choć czasem rzucanie go może zatopić cały statek.

Pierwsze skutkiCo się dzieje w momencie bankruc-twa? Według teoretycznego modelu wygląda to następująco: państwo nie może pożyczać pieniędzy na rynkach finansowych, zatem musi próbować zrównoważyć budżet lub dodrukować pieniądz, aby pokryć wydatki krajowe, m.in. pensje różnych służb publicznych. Najczęściej zbilansowanie wydat-ków i przychodów jest niemożliwe, choć następują jego próby – rady-kalne i bezmyślne cięcia wydatków publicznych. Przykładem może być Grecja, gdzie masowe zwolnienia na najniższych stanowiskach w sektorze publicznym niemalże doprowadziły do wojny domowej – na szczęście skończyło się na zamieszkach. Na-jprostsze ograniczenia wydatków to zwolnienia pracowników sektora fi-nansów publicznych, którzy tracą pracę dosłownie z dnia na dzień. Zmiana

taka nie byłaby dużym kłopotem dla gospodarki, lecz problemem

pozostawałaby jej gwałtowność. Rynek danego kraju może nie być w stanie przyjąć tysięcy dodatkowych nauczycieli czy pielęgniarek w sektorze prywatnym.

Błędne kołoNiestety państwo-bankrut najpraw-dopodobniej nie zdoła zrównoważyć budżetu poprzez cięcie wydatków w danym roku. Kolejnym krokiem jest zatem „dodrukowanie” pieniędzy, choć dotyczy to bardziej kreacji pieniądza, niż jego fizycznego powielenia. W tym miejscu zaczynają się problemy, gdyż w wielu krajach istnieją mechanizmy gospodarcze i prawne zapobiegające temu procederowi. Przykładowo w Polsce obecnie3 bank centralny zgod-nie z konstytucją i ustawami nie może finansować deficytu budżetowego. Warto pokreślić, że niewypłacalność państwa jest zdarzeniem ekstremal-

Kiedy w skarbcu pustoOglądając telewizję lub czytając informacje w Internecie, niejednokrotnie można natrafić na pojęcia, które mają budzić konkretne reakcje u odbiorców, choć ich zrozumienie może być znikome. Jednym z takich haseł jest bankructwo państwa. Kryzys euro związany z Grecją i „restrukturyzacją” jej długu, zagrożenie niewypłacalnością kolejnych państw PIIGS – to tematy, o których słyszał niemalże każdy. Jed-nak czy przeciętny Kowalski zdaje sobie sprawę, czym jest bankructwo państwa?

tmoney.pl

1. Dane pochodzą ze strony www.debtbombshell.com.2. Państwo może to zrobić, faktycznie drukując pieniądz w mennicy lub poprzez działania banku centralnego, który finansuje deficyt budżetowy (w przypadku Polski jest to niezgodne z konstytucją i ustawą o NBP). W bardziej drastycznym scenariuszu można znacjonalizować instytucję taką jak OFE, sprzedać jej papiery i z nich sfinansować deficyt.3. W czasach PRL to właśnie bank centralny finansował deficyt budżetowy.

Page 43: Tozależy9

Opinie 43

Michał mikołajczyk Absolwent Wydziału Zarządzania Uni-

wersytetu Warszawskiego na kierunku Finanse, Rachunkowość i Ubezpiecze-

nia. Księgowy ds. rachunkowości funduszy w Citibank International, aktywny członek społeczności matematyka.pl.

nym i działania, które podejmuje wów-czas rząd mogą być kontrowersyjne i dostosowane do różnych okoliczności, takich jak poparcie w parlamencie oraz dobra wola władz banku cen-tralnego. W zależności od sytuacji można przedstawić kilka scenariuszy, co może się wydarzyć. W przypadku silnego poparcia parlamentarnego, na-jlepiej na poziomie możliwości wprow-adzenia zmian konstytucyjnych, rząd prawdopodobnie będzie forsował modyfikacje związane z zasadami fi-nansowania deficytu budżetowego oraz uprawnieniami banku cen-tralnego. Przy mniejszej aproba-cie należałoby nowelizować ustawę budżetową i pobrać środki np. z fun-duszu pokoleniowego – jeśli takowy w danym państwie istnieje. W bardziej drastycznym przypadku szansą po-zostaje próba ustawowej nacjonalizacji dużej instytucji, a następnie sprzedaży jej aktywów lub przyśpieszenie pry-watyzacji4.Można również wywrzeć presję na bank centralny, żeby pośrednio sfinansował deficyt budżetowy. Dodatkowo koniec-zny jest warunek pośrednika w postaci banku komercyjnego. Załóżmy, że jeden z banków krajowych kontrolowany jest przez państwo – w Polsce taka rolę mógłby pełnić Bank Gospodarstwa Krajowego. Następnie rząd wyemituje obligacje czy bony, a ów bank będzie musiał je nabyć. W sytuacji, gdy dana instytucja nie ma środków na zakup tych papierów dłużnych, bank cen-tralny udziela taniej pożyczki, do której potrzebna jest przychylność władz BC. Jednocześnie cały mechanizm powodu-je gwałtowny wzrost podaży pieniądza, przez co pojawia się inflacja. Niestety w konsekwencji pojawiają się zjawis-ka samonapędzające się. Po pierwsze, deprecjacja waluty krajowej. Powoduje ona odpływ kapitału zagranicznego, czego rezultatem jest sprzedaż waluty krajowej, czyli dalsze jej osłabienie. Społeczeństwo w obawie przed ciągłą deprecjacją nabywa waluty zagranic-zne. W ten sposób kurs krajowej jed-nostki monetarnej rośnie coraz szyb-ciej. Poprzez zakup dewiz zwiększa się podaż rodzimej waluty, co napędza wz-rost cen. Przyśpieszona inflacja utrud-nia import towarów z zagranicy, gdyż te stają się coraz droższe.

Ostateczny krachIstotnym problemem są surowce ener-getyczne i inne towary niezbędne dla

przemysłu. Gdy koszty energii oraz siły roboczej wzrastają, rozpoczyna się falę masowych zwolnień w celu zachow-ania rentowności. Obywatele są coraz mniej skłonni do pracy, gdyż ich pensje mają mniejszą wartosć. Zwiększa się bezrobocie w sektorze prywatnym, co prowadzi do spadku dochodów pub-licznych. Tworzy się typowa spirala. Rząd musi szukać oszczędności, a to wzmacnia wyżej wspomniane efekty. Dla obywateli, zwłaszcza mało- i średniozamożnych, skutki są fatalne, gdyż tracą także pozostałe fundusze. Z tych powodów coraz więcej osób decyduje się na emigrację „za chlebem”. Dodatkowo najprawdopodobniej towarzyszyć temu będą niepokoje społeczne i strajki, które pogorszą sytuację.Tak oto wygląda scenariusz państwa-bankruta. Opisana we wstępie wizja miała za zadanie uzmysłowić, jak ogromnym problemem dla gospodar-ki może być inflacja, gdyż to właśnie ona jest najczęściej „gwoździem do tr-umny” w przypadku niewypłacalności państwa. Oczywiście można się ze mną nie zgodzić. Kontrargumentować przykładami takimi jak grecki. Sy-tuacja Grecji jest o tyle specyficzna (zarazem tragiczna i szczęśliwa), że kraj ten, będący w strefie euro, nie mógł deprecjonować swojej waluty, zatem musiał ciąć wydatki publiczne. W zamian za te ograniczenia i utratę suwerenności rząd otrzymał pożyczki od Międzynarodowego Funduszu Walutowego oraz innych państw Unii Europejskiej. Teoretycznie pozwoliło to Grecji podreperować sytuację finansową, ale nawet po restruktury-zacji długu – oraz częściowemu umor-zeniu – to państwo jest w praktyce bankrutem (dług stanowi 175% PKB).

Różne scenariuszeInaczej sytuacja wyglądała w Islan-dii, gdzie państwo przejęło upadające banki wraz z ich zobowiązaniami,

które teraz stały się długiem każdego mieszkańca. Po wielomiesięcznych, po-kojowych protestach władza podała się do dymisji, a następnie przeprowadzo-no referendum, w którym ponad 90% obywateli opowiedziało się przeciwko spłacaniu długów zaciągniętych przez banki. Umorzono zobowiązania wobec inwestorów zagranicznych i rozpoczęto wszystko od nowa. Czy zatem można powiedzieć, że Islandia bez najm-niejszych problemów poradziła sobie z bankructwem? Jeśli wielomiesięczne strajki, protesty oraz reset systemu fi-nansowego można uznać za brak prob-lemów, to tak. Jednakże teraz przed krajem stoi dużo lepsza przyszłość, cze-go nie można powiedzieć o sytuacji w Grecji czy Argentynie. Decyzja Islandii o niespłaceniu długów, mimo że dysk-walifikuje ją z możliwości zadłużania państwa, to jednak zdejmuje z oby-wateli potężne zobowiązanie finan-sowe wymagalne w przyszłości. Brak odsetek od długu poprawia bieżącą sytuację finansów publicznych, co jest w opozycji do sytuacji chociażby w postkryzysowej Grecji.Bankructwo państwa to rzecz skom-plikowana i niezwykle złożona, dotykająca nie tylko systemu finansów publicznych, ale także całego otocze-nia mikro- i makroekonomicznego. Każdy kraj może różnie przechodzić swoją niewypłacalność. Wiele zależy od podejmowanych przez rząd decyzji. Nie da się jednak ukryć, że bankruc-two nie jest rzeczą dobrą i najlepiej go uniknąć. Ograniczenie pożyczek i równoważnie budżetu to sposoby, dzięki którym można spać spokojnie i patrzeć z nadzieją, co przyniesie jutro. Miejmy nadzieję, że w naszym kraju jest jeszcze szansa uniknięcia błędów innych państw. Obsługa długu pub-licznego, która kosztami przewyższa łączne wydatki na armię i szkolnic-two wyższe, powinna już budzić spore obawy5. Uczmy się na błędach cudzych, a nie własnych.

4. Minister skarbu przygotowuje plan prywatyzacji, w którym decyduje, kiedy i jaką spółkę będzie się prywatyzować oraz czy proces ten jest możliwy. Ustawy określają przedsiębiorstwa i branże strategiczne z punktu widzenia państwa, które nie podlegają prywatyzacji lub skarb państwa zachowuje w nich znaczące prawo głosu.5. Źródło: www.mapawydatkow.pl.

Page 44: Tozależy9

Technologie44

Zanotowany w ostatnich latach gwałtowny rozwój związany z tech-nikami Big Data był spowodowany przede wszystkim wdrażaniem na coraz szerszą skalę rozwiązań tech-nicznych, umożliwiających wygodną i szybką analizę danych pochodzących z wielu różnych źródeł. Co więcej, ro-zwojowi tych technik sprzyjało prze-niesienie się dużej części naszego życia do sieci – umożliwiło to wiel-kim firmom zbieranie ogromnej ilości różnorodnych danych na temat użytkowników aplikacji, serwisów społecznościowych, stron inter-netowych czy urządzeń mobilnych. O zwiększającej się popularności tech-nik Big Data świadczą rosnące wydatki na ich implementację, które wg badań firmy analitycznej Gartner osiągnęły w 2012 roku poziom 28 mld $1.

Informacyjna rewolucjaZnaczące zwiększenie się ilości i złożoności danych zrewolucjonizowało sposób podejścia do ich analizy. Zas-tosowanie standardowych narzędzi analitycznych do wielkich baz danych, niekiedy nawet o wielkości setek petabajtów2, okazuje się często zbyt

czasochłonne i kosztowne. W związku z tym bardzo często w metodach Big Data rezygnuje się z próby tworzenia teoretycznego modelu analizowanych zjawisk. Zamiast tego bada się przede wszystkim proste zależności, takie jak korelacje.Zastosowanie nowych metod okazało się zaskakująco skuteczne. W 2009 roku Google, używając swojego nowopowstałego narzędzia o nazwie Flu trends, analizującego dane wpisy-wane w wyszukiwarce, było w stanie dokładnie zaobserwować rozprzestrze-nianie się grypy w Stanach Zjednoc-zonych. Co więcej, informacje uzyskane w ten sposób były dostępne niemal natychmiast, znacznie szybciej niż pub-likacje amerykańskiego Centrum Zwal-czania i Zapobiegania Chorobom (CDC).Innym ciekawym zastosowaniem Big Data jest aplikacja Street Bump, działająca w Bostonie. Wykorzystuje ona informacje zbierane przez akceler-ometry zainstalowane na urządzaniach mobilnych swych użytkowników do monitorowania na bieżąco stanu dróg w mieście. Dane są przesyłane do władz miasta, które posiadając pełniejszą wiedzę na temat jakości nawierzchni

ulic, mogą efektywniej rozplanować re-monty.Jednym z najbardziej znaczących przykładów użycia Big Data jest model biznesowy Google, w znacznej mierze opierający się na skuteczności nowych technik. Polega on na wykorzystywa-niu dostępnych mu informacji na temat historii wyszukiwań i odwiedzin swoi-ch użytkowników. Na ich podstawie opracowany został zestaw w pełni au-tomatycznych narzędzi, służących do dopasowania reklam wyświetlanych użytkownikom w taki sposób by zmaksymalizować ich skuteczność. W tym celu analizują one zachow-ania internautów, wyszukując w nich prawidłowości i schematy. Niezwykle skomplikowane algorytmy opierają się jednak na prostych narzędziach statystycznych, takich jak wspom-niana wcześniej analiza korelacji. Charakterystyczną cechą tych algo-rytmów jest też brak jakichkolwiek założeń dotyczących zachowań inter-nautów. Wnioski przez nie wyciągane nie są analizowane pod kątem ich poprawności teoretycznej. Model ma przede wszystkim działać, a jego wykorzystanie przynosić zyski.

Co dalej z Big Data?Określenie Big Data zrobiło w ciągu ostatnich kilku lat ogromną karierę. Ten, w istocie mało precyzyjny, termin jest znajomy praktycznie wszystkim ludziom w jakikolwiek sposób zainteresowanym analizą danych. Co on właściwie oznacza? Mówiąc w skrócie, Big Data jest to zbiorcze określenie metod analizy i prezentacji informacji zawartych w wielkich, dynamicznie zmieniających się bazach danych.

ww

w.in

geni

eur.d

e

Page 45: Tozależy9

Technologie 45

Nowa statystyka?Sukces metod Big Data ma, zdaniem wielu specjalistów, znaczące implikacje dla świata nauki. Twierdzą oni, że poszukiwanie odpowiednich teo-retycznych modeli dla różnorodnych zjawisk w takich dziedzinach jak fizyka czy biologia nie będzie już potrzebne. Wystarczająca będzie wiedza na temat korelacji w bardzo wielkich próbach, mogących obejmować nawet całą populację. Metody takie z sukcesem wykorzystano przy mapowaniu kodu DNA.

Mimo niewątpliwych sukcesów, metody Big Data spotkały się w ostat-nich latach z silną krytyką, dotyczącą bardzo różnorodnych aspektów ich użytkowania. Coraz powszechniejsze są opinie, że zapowiedź rewolucji w dziedzinie analizy danych była przedwczesna. Szczególnie dużo kry-tycyzmu zebrały uproszczone metody analityczne. Po pierwszych medial-nych sukcesach metod Big Data zaczęły się pojawiać informacje o błędnych przewidywaniach wykorzystywanych algorytmów. Okazały się one niez-wykle czułe na zmienne warunki środowiskowe. Za przykład może tu posłużyć omawiane już narzędzie Google, Flu Trends. Po początkowym sukcesie przewidywania coraz bardziej rozmijały się z rzeczywistością – w ciągu 4 ostatnich lat były one sys-tematycznie przeszacowywane w sto-sunku do oficjalnych danych. Przyczyną takiego stanu rzeczy był brak możliwości powiązania liczby zapytań na temat grypy z różnorodnymi, niezależnymi od zachorowań, czynnikami. Zgodnie z ideą uwolnienia od założeń teoretyc-znych, nie podjęto próby uwzględnienia a priori wpływu zdarzeń niezależnych od liczby zachorowań na liczbę zapytań w wyszukiwarce. Za przykład mogą posłużyć przypadki wybuchu epidemii groźnych odmian grypy w innych krajach, które wzmagają zaintereso-wanie chorobą ze strony zdrowych

internautów. Zdarzenia takie mogą znacząco wpłynąć na dokładność prognoz. Lekcją, jaka wynika z opisa-nego przykładu jest obserwacja, że, wbrew przewidywaniom niektórych specjalistów, pomimo ogromnej ilości reprezentatywnych danych przek-rojowych, nie straciła na znaczeniu krytyczna analiza ich poprawności. Co więcej, nieuprawniony okazał się sąd o możliwości zarzucenia teoretyc-znych rozważań na temat natury anal-izowanych zjawisk. Wraz ze wzrostem ilości danych nie zniknął też problem przypadkowych korelacji, którego można się pozbyć tylko poprzez wyko-nanie szeregu czasochłonnych testów.

Twarde realiaProblemy z Big Data nie ograniczają się jedynie do teorii. Najnowsze dane wskazują, że zwiększające się nakłady na pensje analityków danych, specjal-istyczne oprogramowanie i hurtownie danych nie mają przełożenia na wyniki finansowe spółek. Przyczyny próbu-je się tłumaczyć szeregiem zjawisk. Najważniejsze z nich wynika z faktu, że firmy nie umieją wykorzystać nowych narzędzi. Wiele firm, skuszonych po-

tencjalnymi możliwościami Big Data, wprowadza nowoczesne technologie, nie zdobywając uprzednio odpowied-niego know-how dotyczącego pracy z danymi. W konsekwencji nie umieją zarządzać danymi ani ich analizować tak, by uzyskać z nich użyteczną wiedzę oraz wykorzystać ją na swoją korzyść.

Sama inwestycja w zaawansowane narzędzia to niestety za mało. Innym problemem jest też fakt, że rekomen-dacje wynikające z zastosowań big data są niekiedy na tyle oderwane od realiów firmy, że nie mogą zostać wprowadzone w życie. Zdarzają się sy-tuacje, gdzie wprowadzenie ulepszenia poprawiającego nieznacznie wyniki firmy wymaga przebudowy całych pi-onów organizacyjnych, przez co w kon-sekwencji okazuje się ono nieopłacalne. Inną przyczyną niepowodzeń Big Data jest fakt, że częste są sytuacje w których zastosowanie nowych technik nie wno-si nic nowego do wiedzy firmy. Wnioski wynikające z nowych, ulepszonych analiz pokrywają się z dotychczasową polityką władz firmy.

Nadmierne oczekiwaniaPo okresie krótkotrwałej fascynacji Big Data można pokusić się o wstępną ocenę dokonanych przemian. Jednoc-zesna cyfryzacja życia społecznego i zwiększenie się dostępnych mocy obliczeniowych otworzyły drogę do rozwoju nowych metod anali-tycznych. Ponieważ rewolucja ta dokonała się w ciągu ostatnich kilku lat, w rzeczywistości dopiero uc-zymy się posługiwania wielkimi zbiorami danych. Nadmierne nadzieje pokładane w Big Data, rozbudzone w szczególności przez działania market-ingowców, nie miały prawa się spełnić. Big Data nie okazało się rewolucją – problemy dotyczące małych zbiorów danych nie zniknęły przy stosowaniu wielkich zbiorów. Co więcej, poważną barierę rozwojową stanowią trudności wdrożeniowe oraz brak umiejętności wykorzystania nowoczesnych narzędzi analitycznych przez wiele firm. Choć nie można odmówić Big Data sukcesów i przydatności w specyficznych zastoso-waniach, to, tak samo jak ze wszystkimi innymi nowinkami, warto jest odnosić się do niego z pewną ostrożnością.

Kamil PrządkaStudent I roku studiów magisterskich Wydziału

Nauk Ekonomicznych na Uniwersytecie Warszaws-kim oraz absolwent studiów inżynierskich Wydziału

Mechatroniki na Politechnice Warszawskiej. Aktywny członek koła naukowego KNSG UW. Do jego zainteresowań

należy rynek nowoczesnych technologii oraz zagadnienia eko-nomii ilościowej.

1. Gartner says Big Data will drive $28 billion of IT spending in 2012, oświadczenie prasowe firmy z 17.10.2012 [online: http://www.gartner.com/newsroom/id/2200815]2. 1.125.899.906.842.624 bajtów (1024*1024*1024 MB)

www.3st.com

Page 46: Tozależy9

English section46

The cheapest is probably your first an-swer. Unfortunately the cheapest – di-minishing instalments – often means you will have to pay much higher cou-pons at the beginning than at the end of your crediting period. In the exam-

ple following, it will be 1,482.65 for the first, 1,488.06 for the middle and 835.61 for the last instalment. The other credit option is annuity – more expensive, but instalments generally fluctuate less (they stay on the level of 1,200-1,400), however it is possible that near the end the instalments will be higher than at the beginning. It is often also difficult to evaluate the real

cost, taking into account margin, com-mission and possible hidden costs. Even if you are able to calculate taking these factors into account, there is also the issue of interest rate fluctuation. Next you will find an example of how it

influences the total cost and why.

At the beginning of the 2013 a new loan appeared on the market, offered by Nordea Bank: the annuity of which NEVER changes. Does this mean the interest rate is invariable? No, the for-mula is more complicated – take a look at diagram 1:Let’s imagine you would like to take

out a loan of PLN 200,000 for 20 years. However, you have to sign the agree-ment for 30 years. Why? In case the in-terest rates increase, because then the number of instalments grows and you simply pay, the same amount of money every month but over a longer period of time. And what if interest rates on the market rocket, you may ask? Well, if expected time of repayment is longer than 30 years, your instalments au-tomatically shift to normal annuity. Seems fair? Let’s check the cost.

To be able to conduct any comparison, first, we have to make an assumption about the rate fluctuation. This one, given below, starts with current values (since September 2014) and then be-comes of my own prediction However, I doubt if there is any space for further decrease, which is why in my forecast they will be going up for the next 10 years and then will drop (see diagram 2).It should help to address if later de-crease can compensate the previous growth. Also it will be possible to exam-ine if, which and how strong influence has the way of instalments’ calculation. It means we should get to know the dif-ference in price while establishing an-nuity, diminishing instalments or fixed annuity repayment schedule.

In the diagram 3 we can see how much interest we will pay in each case. It is surprising how huge the amount is in the case of loan offered by Nordea. This is not the end of bad news. After 20 years of paying the credit recipient has managed to pay off only half of his debt! The rest will be recounted into ten-year annuity, so there’s no more unchanged and stable amount to pay every month - instead we have a longer crediting period, high instalments and interest higher than the debt.

Credit of trust to your financial manager

Imagine you have just graduated, found your first job and…would like to finally move out of your parents’ house or rented flat and buy your own property. If you are not in the tiny group of those lucky enough to be financially supported by their parents, you will probably have to take a credit. But which one to choose?

Diagram 1: Formula for new loan, offered by Nordea Bank

Source: own elaboration for the bachelor degree thesis

Diagram 2: Interest rate forecast

Source: own elaboration for the bachelor degree thesis

Page 47: Tozależy9

English section 47

It is hard to imagine that a loan can be so expensive, because who would take it? This is why, to compare we will use the value of rates that actually appeared on the market. The tendency this time is decreasing and starts at a relatively high point of 7,16%. It is important to admit that, as the Polish market is quite young, it is only possible to get reliable data for 10, not 20, years, so the com-parison will not be exact.

Decreasing tendency in interest rates seems to have the strongest influence on the annuity offered by Nordea. It makes the offer really competitive not only versus regular annuity, but also in contrast with the diminishing instal-ments. The advantage in this case is 4 months earlier repayment than in the initial schedule. Also it is not necessary to speculate how much you will spend next month and in ten years, every time it’s the same amount. You can pay your

monthly budget, holidays abroad, pri-vate school for children and so on and be sure no big payment will surprise you. One can assume this is the advan-tage which annuity has against the di-minishing instalments, but with short-er crediting period and lower interest.

Obvious, but worth mentioning, is the fact how strong of an influence credit-ing period has on the loan’s price. The

longer your repayment schedule is, the more expensive it becomes. This hap-pens because every month the inter-est is counted from the total amount of capital minus the amount that was already repaid. This is what makes di-minishing instalments the cheapest option, because capital’s participation in the instalment is fixed. It means it doesn’t change with rates fluctuation, so the basis for calculating interest de-creases steadily. Moreover, this is a per-fect option for those who hate taking a risk; it’s clear that at the beginning you have to pay more, but then it can-not get worse.The contrary is true for annuity and fixed annuity. In the beginning a client can think it is the safer option, as the rate is “stable” and in theory it should be easier to plan the budget. Actually, if expected rates are too high, they will be recounted into annuity. Probably no relation manager tells the client what exactly can be the effect of rocketing rates.

What are the general conclusions? Take credit when interest rates are high as sooner or later they will decrease, as well as the cost of your credit follow-ing. Do not try to avoid risk by choosing more complicated financial tools, ex-cept if you have analysed it extensively. Diminishing rate is always the safest option.

Diagram 3: Interest paid after 20 years

Source: own elaboration for the bachelor degree thesis

Aneta MichalikStudentka Szkoły Głównej Handlowej, na kierunku Finanse i Ra-

chunkowość, ze specjalizacją Bankowość. Jej zaintersowania zawo-dowe pozostają w obrebie bankowości korporacyjnej oraz rynków finan-sowych i funduszy inwestycyjnych. Członkini AIESEC - odpowiedzialna za wymianę międzynarodową i lider nadchodzącej edycji Native School.

Source: own elaboration for the bachelor degree thesis

Diagram 5: Interest paid after 10 years

Diagram 4: Interest rate forecast on Polish market

Source: own elaboration for the bachelor degree thesis

Page 48: Tozależy9

Koło Naukowe Strategii Gospodarczej Uniwersytetu Warszawskiego

Warszawa2014

Poznaj największy program zniżek studenckich w

Polsce dostępny tylko dla

studentów UW!

here.uw.edu.plfacebook.com/here.uw