44
to zalezy Niezależny Magazyn Studencki nr1/20 15 (10) issn 2084-7874 . NUMER str. 4 Wojciech Świder Polityka monetarna EBC w 2014 i 2015 roku str. 22 Iza Wiśniewska E-zakupowa rewolucja str. 42 Hanping Wen Does it really all depend? str. 16 Magdalena Kozińska Regulacyjne tsunami – czy uchroni przed kolejnym kryzysem?

To Zalezy 10

Embed Size (px)

DESCRIPTION

To Zalezy 10

Citation preview

to zalezyNiezależny Magazyn Studencki

nr1

/20

15 (

10)

issn 2084-7874 .

numer

str. 4Wojciech ŚwiderPolityka monetarna EBC w 2014 i 2015 roku

str. 22Iza Wiśniewska E-zakupowa rewolucja

str. 42Hanping WenDoes it really all depend?

str. 16Magdalena Kozińska

Regulacyjne tsunami – czy uchroni przed kolejnym kryzysem?

TRZYMAMY RĘKĘ NA PULSIE!

10 numer To Zależy przed Wami! Przez 3 lata dostarczamy Wam ekonomicznej wiedzy oraz świeżego spojrzenia w niepowtarzalnej formie. Celem naszej pracy nad każdym numerem jest to,

aby studenci zobaczyli ekonomię w praktyce, oczami swoich rówieśników. Chcemy, aby wykorzystanie wiedzy pozyskanej w studenckich ławkach, nie ograniczało się do zdanego egzaminu!

Ekonomia otacza nas na co dzień, a w obecnych czasach jest szalenie dynamiczna. Coraz częściej konwencjonalne teorie wielkich ekonomistów poddawane są krytyce, ponieważ

przestają odzwierciedlać rzeczywistość. Występują nagłe szoki, wahania kursów walut, czy też historycznie niskie stopy procentowe. To Zależy to Wasz ekspert, który istnieje, aby opowiedzieć Wam o tym co dzieje się w gospodarce, co ma znaczenie dla Polski i jej konkurencyjności, ale też co dzieje się w innych krajach.

W tym numerze przedstawimy Wam politykę monetarną EBC w roku 2014/2015, która w odpowiedzi na utrzymujący się słaby wzrost gospodarczy oraz deflację, podąża śladami FED. Pokażemy także pomysły regulatorów, które mają usprawnić działalności banków, a ostatecznie uchronić nas przed kolejnym kryzysem finansowym. Zwrócimy też uwagę na wiele innych ciekawych i istotnych ekonomicznie zjawisk, a na koniec zapytamy:

Czy naprawdę „To Zależy”? Wydawca:

Koło Naukowe Strategii Gospodarczej Uniwersytetu Warszawskiego

Sponsor wydruku magazynu:

Redaktor Naczelna Redaktor Prowadzący

Redaktor Naczelna- IZA WIŚNIEWSKA

Redaktorzy Prowadzący- WOJCIECH MILEWSKI, SEBASTIAN LEWANDOWSKI

Koordynator ds. Promocji- ANNA KONDZIERSKA

Koordynatorzy ds. Relacji Zewnętrznych- OLIWIA KOMADA, IZABELA WALASZEK

Koordynator działu graficznego- OLGA GRZĘDA

Dział graficzny- ULA GREGORCZYK, ANNA KONDZIERSKA, ALEKSANDRA KANIUGA,

JADZIA MATUSZCZAK, AGNIESZKA MATYJASZCZYK, HUBERT ŚWIĄTEK, IZA

WIŚNIEWSKA

Dział korekty- MAGDALENA BEDNARSKA, AGNIESZKA PIETRZYK, IZABELA

WALASZEK

Strona internetowa tozalezy.pl- AGNIESZKA PIETRZYK, ULA GREGORCZYK

Okładka- OLGA GRZĘDA

Kontakt- [email protected]

nakład: 1000 egzemplarzy

SPIS TREŚCI

To Zalezy

.

Niezale¿ny Magazyn Studencki

Nr

1/20

14 (

7)

ISSN 2084-7874

str. 4

str. 24Wojciech MilewskiKonfrontacja energetyki z wolnym rynkiem

str. 14Wywiad ze Zbigniewem Jagiełło, prezesem PKO BP

str. 34Interview with Miguel Gouveia, an expert in Public Economics area at Católica Lisbon School of Business and Economics

str. 10Michał Mikołajczyk

Bitcoin - waluta przyszłości?

str. 13Oliwia KomadaNiezależność banków centralnych

str. 36Katarzyna Błaszczyk W porównaniu do..., czyli kilka słów o naszej irracjonalności

str. 44Aneta MichalikCredit of trust to your financial manager

str. 26Daniel Traczewski Prawdy i mity o Solvency II

Pułapka płynności - czy to już?str. 4

to zalezyNiezależny Magazyn Studencki

nr3

/20

14 (

9)

issn 2084-7874 .

TEMAT NUMERU Polityka monetarna Europejskiego Banku Centralnego w 2014 i 2015 roku WOJCIECH ŚWIDER 4 RYNEK KAPITAŁOWY Informacja – złoto rynków MATEUSZ MUCHA 8 UBEZPIECZENIA Ryzyko długowieczności OLIWIA KOMADA 11 TECHNOLOGIE Mam dane i nie zawaham się ich użyć MATEUSZ MIKULSKI 14 GOSPODARKA Regulacyjne tsunami – czy uchroni przed kolejnym kryzysem? MAGDALENA KOZIŃSKA 16 "Płatności od 10 zł" przechodzą do lamusa. Nowa stawka interchange wybawieniem dla przedsiębiorców MAREK TRĄBIŃSKI 19 E-zakupowa rewolucja IZA WIŚNIEWSKA 22 Gospodarka Oparta na Wiedzy – podołamy wyzwaniu? IZABELA WALASZEK 24 Sprzedaj to! NICOLE MACHNIO 26 ŚWIAT Czarne złoto traci blask WOJCIECH MILEWSKI 28 TO ZALEŻY Sankcje na Rosję SEBASTIAN LEWANDOWSKI, AGNIESZKA PIETRZYK, DOMINIK SIKORA 31 OPINIE Przychodzi absolwent na rynek pracy… PRZEMYSŁAW TWARDZIAK 32 Cykl okołodobowy a produktywność – czy powinniśmy słuchać naszego „wewnętrznego zegara”? KATARZYNA BŁASZCZYK 36 PRAWO Nowe podatki dla branży wydobywczej EWA KOŚLACZ 38 ENERGETYKA Zdążyć przed blackoutem HUBERT SOBORA, MACIEJ JANOWSKI, PAWEŁ STĘPIEŃ, PIOTR ZDYB 40 ENGLISH SECTION Does it really all depend? HANPING WEN 42

TEMAT NUMERU 4 RYNEK KAPITAŁOWY 8 UBEZPIECZENIA 11 TECHNOLOGIE 14 GOSPODARKA 16 "Płatności od 10 zł" przechodzą do lamusa. Nowa stawka interchange wybawieniem 19 22 24 26 ŚWIAT 28 TO ZALEŻY 31 OPINIE 32 Cykl okołodobowy a produktywność – czy powinniśmy słuchać naszego „wewnętrznego zegara”? 36 PRAWO 38 ENERGETYKA– 40 ENGLISH SECTION 42

4 | TO ZALEŻY MARZEC 2015

TEMAT NUMERU

GLOBALNA WALKA Z DEZINFLACJĄ

Nadrzędnym celem jest stabilność cenowa, definiowana jako utrzymywanie stopy inflacji poniżej, ale blisko 2% w średnim terminie1. Jej miernikiem jest Harmonizowany Indeks Cen Konsumpcyjnych – HICP. W założeniu ma on ujmować zmiany w cenach towarów i usług nabywanych przez konsumentów w strefie euro2. W perspektywie globalnej, biorąc pod uwagę najbardziej rozwinięte gospodarki świata, mamy do czynienia z procesem dezinflacji. Ostatnim trendem w walce z tym zjawiskiem cenowym jest luzowanie polityki monetarnej. Europejski Bank Centralny (EBC), w porównaniu do amerykańskiej Rezerwy Federalnej czy Banku Japonii, jeszcze niedawno wydawał się dość konserwatywny w swojej postawie. W roku 2014 gwałtownie zmienił kurs, a w styczniu 2015 roku postawił kropkę nad „i”.

ZMIANA KURSU POLITYKI ECB

Perspektywy inflacyjne poniżej celu i słaba aktywność gospodarcza na terenie strefy euro skłoniły EBC do stanowczych działań. Wiosną 2014 roku prezes Mario Draghi zaczął systematycznie komentować kurs euro, co wcześniej się mu nie zdarzało. Powtarzał, że sama wycena

wspólnej waluty nie jest celem EBC, ale w zaistniałej sytuacji rosnące w siłę euro utrudniało odbicie cen. Rynek nie reagował trwale na słowa prezesa, nawet gdy w kwietniu 2014 roku Draghi powiedział, że dalsze umacnianie euro skłoni EBC do luzowania monetarnego3. Przełom naszedł dopiero w maju, gdy na konferencji oświadczono, że Rada Prezesów jest zgodna w zastosowaniu nawet niekonwencjonalnych metod w walce ze zbyt długim okresem niskiej inflacji4. Wspomniano również, że dalsze informacje i analizy, dotyczące między innymi inflacji, będą dostępne dla Rady na początku czerwca, co miało sugerować ewentualne działanie właśnie w tym okresie. Odbiorcy potraktowali to jako zapowiedź ekspansji, co zapoczątkowało dynamiczny trend spadkowy wspólnej waluty na szerokim rynku.

DEFLACJA POD OSTRZAŁEM

W czerwcu EBC wdrożył zapowiedzi w życie. Obniżył stopę główną oraz depozytową o 10 punktów bazowych. W przypadku depozytowej był to już spadek poniżej 0. Kolejne działania zostały przedstawione w tabeli. We wrześniu ekspansja monetarna została przyśpieszona. Kolejne obniżki stóp i podjęcie decyzji o wprowadzeniu skupu papierów typu ABS (Asset-backedsecurities) nie pozostawiły wątpliwości, w jakim kierunku zmierza polityka pieniężna na

Starym Kontynencie5. Rok 2014 zapisał się historii europejskiej bankowości centralnej jako rok zmiany toru – z ostrożnego i konserwatywnego, na bardzo odważny i ekspansjonistyczny. Od dłuższego czasu spekulowano nad możliwością wprowadzenia przez EBC skupu obligacji rządowych. Jest to bardzo poważne przedsięwzięcie i ma ogromny wpływ na wyceny różnego rodzaju aktywów. Od nowego roku EBC ma spotykać się i decydować o polityce monetarnej co sześć

Polityka monetarna ebc w 2014 i 2015 roku

uropejski Bank Centralny ma skomplikowane zadanie. Prowadzi on politykę monetarną dla wszystkich krajów strefy euro, co przy wielu zróżnicowanych gospodarkach nie jest zadaniem łatwym. Dla przykładu, przedstawiciele Niemiec są przeciwni ekspansji monetarnej, Francuzi zaś woleliby politykę „taniego” pieniądza.

Kurs euro do dolara amerykańskiego w latach 2010-2014

1.European Central Bank, Monetary policy, online na: https://www.ecb.europa.eu/mopo/html/index.en.html.2.European Central Bank, Measuring inflation – the Harmonised Index of Consumer Prices (HICP), online na: https://www.ecb.europa.eu/stats/prices/hicp/html/index.en.html.3.Stefan Riecher, Simon Kennedy, Draghi says euro appreciation would trigger ECB stimulus, „Bloomberg”, 13.04.2014, online na: http://www.bloomberg.com/news/2014-04-12/draghi-says-euro-appreciation-would-require-ecb-stimulus.html.

Źródło: MetaTrader

Artykuł recenzowany przez dra hab. Eryka Łona z Uniwersytetu Ekonomicznego w Poznaniu

zastavki.com

TO ZALEŻY MARZEC 2015 | 5

TEMAT NUMERU

tygodni, a nie co cztery, jak miało to miejsce wcześniej. Dzień przed posiedzeniem banku, 21 stycznia, do publicznej wiadomości trafiły plotki, jakoby dwóch oficjeli udzieliło informacji o planowanym wdrożeniu szerokiego skupu obligacji, opiewającego na kwotę 50 miliardów euro miesięcznie6. Oznaczałoby to, że EBC idzie drogą przetartą przez amerykański FED i masowo skupuje obligacje w celu obniżenia rynkowych stóp procentowych i zwiększenia zaufania na rynku skupowanych instrumentów.

PROGRAM SKUPU AKTYWÓW RÓWNIEŻ W EUROPIE

Styczniowa decyzja okazała się kluczowa. Plotki, i tak dość śmiałe, okazały się niedoszacowane. EBC postanowił, że będzie skupował z rynku miesięcznie aktywa o wartości 60 miliardów euro. Będą to papiery wartościowe wyemitowane zarówno przez sektor publiczny , jak i prywatny. Operacja rozpocznie się w marcu 2015 roku i potrwa wstępnie do końca września 2016 roku. Zaznaczono jednak, że będzie trwała na tyle długo, by ścieżka inflacji zdążyła powrócić do poziomu odpowiadającego celowi EBC. Stopy procentowe pozostały niezmienione – znajdujemy się na poziomach, przy których dalsze obniżki nie mają dużego wpływu na rynkowe stopy. Mimo to, bank zastosował selektywną obniżkę.Obniżył mianowicie cenę ukierunkowanych pożyczek dla banków – TLTRO (targetedlonger-term refinancing operations)7. Europejski Bank Centralny od dłuższego czasu zachęca banki komercyjne ze strefy euro do zwiększania akcji kredytowej, aby pieniądz trafił do realnej gospodarki. Na razie jednak z niską skutecznością. Mario Draghi argumentował decyzję między innymi gwałtownym spadkiem cen ropy, który powoduje obniżenie cen niektórych składowych reprezentatywnego koszyka cen konsumpcyjnych. Sam spadek energii stanowi pozytywny impuls zarówno dla konsumpcji,

jak i dla większości przedsiębiorstw. Jako kolejny argument za dalszą ekspansją, prezes przywołał niewykorzystane moce produkcyjne w strefie euro, zestawiając je z niewielkim wzrostem podaży pieniądza i akcji kredytowej. Wspomniano również, że środki podjęte dotychczas, mimo zauważalnych efektów, okazały się niewystarczające. Podstawowe stopy procentowe EBC znajdują się na dolnej granicy, więc bank uznał za konieczne zastosowanie kolejnych instrumentów bilansowych.

POLITYKA MONETARNA TO NIE ZŁOTY ŚRODEK

Na konferencjach prezes EBC często podkreśla, że polityka monetarna nie rozwiąże wszystkich problemów w strefie euro. Zwiększenie inwestycji, zatrudnienia i wydajności pracy wymaga wkładu od innych decydentów. Niektóre kraje powinny przyspieszyć reformy rynków produktów i pracy. Otoczenie biznesowe również powinno ulec poprawie, aby zachęcić przedsiębiorców do inwestycji. Mario Draghi powiedział też kilka słów o polityce fiskalnej – „powinna pobudzać ożywienie gospodarcze, a jednocześnie zapewniać zdolność obsługi długu, zgodnie z paktem stabilności i wzrostu, który pozostaje kotwicą zaufania. Wszystkie kraje powinny wykorzystywać pole manewru, jakie daje pakt, by kształtować politykę fiskalną w sposób bardziej sprzyjający wzrostowi.”8

TERAZ TYLKO CZEKAĆ

Wygląda na to, że EBC już na pierwszym posiedzeniu ustalił swoją politykę na rok 2015. Po wyciągnięciu najmocniejszej broni, pole do dalszych działań jest raczej ograniczone. Ponadto efekty działań w zakresie polityki monetarnej uwidaczniają się zwykle po kilku kwartałach. Amerykański FED prowadził aż trzy serie szerokiego skupu aktywów (QE), w efekcie gospodarka USA prezentuje się coraz lepiej – stopa bezrobocia oscyluje w okolicach5%, na podobnym poziomie kształtuje się wzrost PKB za trzeci kwartał 2014 roku. Natomiast strefa euro boryka się z bardzo poważnymi problemami gospodarczymi i politycznymi. Zatrudnienie jest zróżnicowane. W Niemczech stopa bezrobocia wynosi mniej niż 6%, lecz w krajach południa jest dużo gorzej, w Grecji i Hiszpanii wartość ta mocno przekracza 20%. O wzroście PKB trudno mówić, gdyż ostatnie lata w strefie euro przebiegają raczej pod znakiem stagnacji.

WOJCIECH ŚWIDER

Inflacja w strefie euro mierzona indeksem HICP

Źródło: European Central Bank, Monetary policy, online: http://www.ecb.europa.eu/mopo/html/index.en.html.

4.Konferencja prasowa ECB z udziałem Mario Draghiego, Bruksela, 08.05.2014, zapis online na: https://www.ecb.europa.eu/press/pressconf/2014/html/is140508.en.html.5.Konferencja prasowa ECB z udziałem Mario Draghiego, Frankfurt nad Menem, 04.09.2014, zapis online na: https://www.ecb.europa.eu/press/pressconf/2014/html/is140904.en.html.6.Jonathan Morgan, European stocks rise for fifth day after ECB said to propose QE, „Bloomberg”, 21.01.2015, online na: http://www.bloomberg.com/news/2015-01-21/european-index-futures-advance-after-stocks-climb-for-four-days.html.7.Konferencja prasowa ECB z udziałem Mario Draghiego, Frankfurt nad Menem, 22.01.2015, zapis online na: https://www.ecb.europa.eu/press/pressconf/2015/html/is150122.pl.html.8.Cytat pochodzi z konferencji prasowej z 22.01.2015.

Student IV roku Finansów i Rachunkowości na Wydziale Ekonomii Uniwersytetu Ekonomicznego w Poznaniu. Trader na rynku walutowym. Członek SKN „Profit” SKN „Kapitał”. Główne zainteresowania: rynki finansowe, szeroko pojęta ekonomia, doktryny polityczne, dietetyka.

6 | TO ZALEŻY MARZEC 2015

TEMAT NUMERU

Źródło: Opracowanie własne na podstawie zapisu konferencji prasowej ECB z 05.06.2014, online: https://www.ecb.europa.eu/press/pressconf/2014/html/is140605.en.html.

9.Forsal, Szykuje się „drastyczna” zmiana władzy w Grecji. Czy kraj wystąpi ze strefy euro?, 23.01.2015, online na: http://forsal.pl/artykuly/848659,wybory-w-grecji-szykuje-sie-drastyczna-zmiana-wladzy-w-grecji-czy-kraj-wystapi-ze-strefy-euro.html.10.Myles Udland, S&P downgrades Greece, „Business insider”, 06.02.2015, online na: http://www.businessinsider.com/greece-downgraded-by-sp-2015-2.11.Oświadczenie prasowe ECB, Eligibility of Greek bonds used as collateral in Eurosystem monetary policy operations, 04.02.2015, online na: https://www.ecb.europa.eu/press/pr/date/2015/html/pr150204.en.html.12.Charles Bremner, Eurowybory 2014: Francuzi na czele oburzonych na Unię Europejską, „Polska The Times”, 26.05.2014, online na: http://www.polskatimes.plartykul/3450285,eurowybory-2014-francuzi-na-czele-oburzonych-na-unie-europejska-wyniki-wyborow-w-europie,id,t.html.

NIECHĘĆ DO UE

Reformy strukturalne w Grecji stoją pod znakiem zapytania, między innymi dlatego, że większość społecznego poparcia zdobyła populistyczna partia Syriza. Postulowała ona między innymi porzucenie reform i wyjście ze strefy euro9.W wyborach parlamentarnych 25 stycznia zdobyła ponad 36% poparcia, wyprzedzając mocno konkurentów. Agencje ratingowe oceniają negatywnie nowych liderów, co objawiło się między innymi w obniżce ratingu greckiego długu przez agencję S&P do poziomuB-, określanego jako śmieciowy10. Na wygórowane wymagania Greków stanowczo zareagował również EBC. Na początku lutego przestał on uznawać greckie obligacje za dostateczne zabezpieczenie pożyczek11.Wcześniej były one uznawane w operacjach banku ze względu na założenie pozytywnego przebiegu reform, które teraz nie są niczym pewnym. Jednak nie tylko w Grecji coraz więcej osób posiada negatywne nastawienie do Unii Europejskiej. W wyborach do Parlamentu Europejskiego z ugrupowań francuskich największym poparciem cieszył się Front Narodowy. Partia przewodzona przez Marine Le Pen postuluje między innymi ograniczenie imigracji, wyjście zarówno ze strefy euro,

jak i całej Unii Europejskiej12. Partie eurosceptyczne zyskują coraz większe poparcie w wielu innych krajach Europy, np. Brytyjski UKIP (Partia Niepodległości Zjednoczonego Królestwa),czy Holenderska PVV (Partia na rzecz Wolności).

INTEGRACJA KUPIONA ZA CENĘ WOLNOŚCI

Unia Europejska jest pewnego rodzaju eksperymentem połączenia całkowicie odmiennych państw wspólnymi elementami polityki i gospodarki. Nie ulega wątpliwości, że wolny handel, swobodny przepływ kapitału i siły roboczej jest zjawiskiem pozytywnym. Wspólna waluta i polityka, w tym monetarna, jak na razie nie zdaje egzaminu. W strefie euro znajdują się państwa, których politycy prezentują skrajnie przeciwne postawy. Społeczeństwa krajów południa nie chcą przyjąć niemieckiego modelu oszczędności i zrównoważonego budżetu. Ich podejście było zupełnie inne – rozbudowany sektor państwowy zapewniał obfite świadczenia. Oczywiście takie działanie okupione jest wyższym długiem publicznym, który przypomni o sobie w przyszłości, jednak czy naród nie ma prawa wybrać swojej drogi? Aktualnie w Grecji bardzo duże grupy

społeczne obwiniają za złą sytuację gospodarczą Niemców, a w Niemczech z kolei wiele osób twierdzi, że „utrzymują Greków” i inne narodowości południa. W mojej opinii instytucjonalna integracja powoduje niepotrzebne konflikty, podczas gdy każdy kraj mógłby iść własną drogą i znaleźć optymalny model gospodarczy dla swojego narodu. Europa staje się gospodarczym skansenem świata, a ogromny przerost unijnej biurokracji ogranicza inicjatywy przedsiębiorców i pochłania horrendalne sumy pieniędzy. Nadmierna ingerencja państwa w gospodarkę ma zawsze ten sam, negatywny skutek. Obecnie mamy do czynienia z sytuacją, gdy jedna organizacja wprowadza wspólną walutę, politykę monetarną, politykę zagraniczną, wspólne prawo i wspólnie zajmuje się regulowaniem gospodarki nie w jednym państwie, ale na całym, bardzo zróżnicowanym, kontynencie. Coraz liczniejsi są przeciwnicy centralizacji władzy w Brukseli – zarówno z lewej, jak i z prawej strony. Być może w przyszłości Europejski Bank Centralny zostanie tylko wspomnieniem w historii gospodarczej Starego Kontynentu. Może warto nie zapominać o nazwach narodowych walut w państwach strefy euro?

DZIAŁANIE WPŁYW NA RYNEK

Dostęp do tanich kredytów z BC. W teorii powinno stymulować to sektor bankowy do udzielania pożyczek ze względu na ich niską cenę.

Zawieszenie sterylizacji programu SMP (securities marketsprogramme)

Wprowadzenie nowej serii LTRO - czteroletnich pożyczek dla banków komercyjnych

Ogłoszenie, że ECB pracuje nad skupem ABS, czyli obligacji korporacyjnych

Prezes wyraża chęć do dalszych działań w celu realizowania mandatu

Innymi słowy jest to zaprzestanie wycofywania pieniądza z sektora bankowego, wprowadzonego tam za pomocą omawianego programu skupu obligacji z 2010 roku. Pozostawia to dodatkową płynność w sektorze bankowym.

Skup obligacji korporacyjnych przez instytucję centralną powoduje obnizenie stóp procentowych w tym segmencie, co oznacza niższe koszty finansowania i zwiększa wiarygodność danych papierów.

Postawa ta ma pokazać uczestnikom rynku, że bank ma inne instrumenty, których może użyć. W związku z tym podmioty gospodarcze powinny działać tak, jakby w przyszłości miała pojawić się inflacja zgodna z celem ECB - czyli np. nie wstrzymywać się z konsumpcją.

8 | TO ZALEŻY MARZEC 2015

RYNKI KAPITAŁOWE

Przewaga informacyjna jednych inwestorów nad drugimi obecna jest na rynkach kapitałowych od początku ich istnienia. Często przytaczaną anegdotą jest historia transakcji Nathana Rothschilda. 18 czerwca 1815 roku odbyła się bitwa pod Waterloo, w której wojska brytyjsko-pruskie pokonały armię napoleońską. Szybkie rozstrzygnięcie wojny nie było zgodne z pierwotnymi założeniami bankiera. Spodziewał się on długiego i wyniszczającego konfliktu, przed którym zabezpieczył się zgromadzeniem złotych monet. Dzięki informacjom zdobytym przez swoich agentów przed ich upowszechnieniem, Rothschild bardzo szybko dostosował się do nowej sytuji. Ogromne środki pieniężne zamienił na obligacje brytyjskie, których cena wzrosła po upublicznieniu wyniku bitwy. Dzięki technologicznemu rozwojowi dziś miliony inwestorów mogą uzyskać informacje w tym samym czasie. Postęp techniczny nie eliminuje jednak w pełni asymetrii, ponieważ pozostaje grupa osób, która tworzy informacje oraz ma do nich dostęp przed upublicznieniem. Transakcje takich osób na instrumentach finansowych nazywa się insider tradingiem.

ZROZUMIEĆ INSIDER TRADING

Insider trading jest powszechnym zjawiskiem na giełdach. Mówi się o nim, gdy dana osoba, zwana także w tym przypadku insiderem, posiadająca dostęp do informacji poufnych przedsiębiorstwa, przeprowadza transakcje na instrumentach finansowych powiązanych z firmą. Można ich podzielić na „pierwotnych” oraz „wtórnych”. W skład pierwszej grupy zaliczani są na przykład: członkowie zarządu, rad nadzorczych, prokurenci, biegli rewidenci. Do drugiej należą natomiast wszystkie inne podmioty, które posiadają informacje poufną, jeżeli wiedziały lub przy dołożeniu należytej staranności mogły się tego dowiedzieć.Naturalny na rynkach kapitałowych jest handel papierami wartościowymi spółki przeprowadzany przez dyrektorów lub członków rad nadzorczych tego podmiotu. Menedżerowie często są wynagradzani za zarządzanie programami opcji menedżerskich, w ramach których otrzymują dodatkowe udziały w spółce. Warto podkreślić, że każda transakcja insiderów jest zaliczana do insider

tradingu, niemniej nie wszystkie są zabronione. Decydującym aspektem w ocenie legalności zakupu lub sprzedaży papierów wartościowych przez insiderów jest charakter posiadanych przez nich informacji, na podstawie których przeprowadzili transakcje; te bazujące na publicznych komunikatach są legalne

i dozwolone, w przeciwieństwie do wykorzystujących informacje niejawne. Informacja poufna definiowana jest jako „informacja dotycząca, bezpośrednio lub pośrednio, jednego lub kilku emitentów instrumentów finansowych albo nabywania lub

zbywania takich instrumentów, a która po takim przekazaniu mogłaby w istotny sposób wpłynąć na cenę tych instrumentów finansowych lub na cenę powiązanych z nimi pochodnych instrumentów finansowych”.1 Wszystkie podmioty zakwalifikowane jako insiderzy mają bezwzględny zakaz wykorzystywania wiedzy niedostępnej publicznie. Pomimo dzisiejszej powszechności tej zasady, okres jej obowiązywania w stosunku do czasu istnienia rynków kapitałowych jest dość krótki. Na przykład handel na giełdzie papierów wartościowych w Londynie został objęty tą zasadą dopiero w 1980 roku, przy czym giełda w zorganizowanej formie działa od 1801 roku.

POCZĄTKI ORAZ REGULACYJNY BOOM

Pionierem w walce z wykorzystywaniem asymetrii informacji na rynkach kapitałowych są Stany Zjednoczone. W 1909 roku Sąd Najwyższy stwierdził, że utrzymywanie nabywców akcji w stanie nieświadomości odnośnie działań sprzedaży tego instrumentu przez dyrektora firmy, który ma wpływ na ich wartość, jest nadużyciem. Pierwszy akt prawny regulujący kwestie insider trading wydano w 1934 roku, a organem egzekucyjnym ustanowiono SEC (Security and Exchange Commission). Następnymi państwami, które zdecydowały się na podobny krok, były: Kanada (1966) oraz Francja (1967). Zapoczątkowały one bardzo dynamiczne wprowadzanie regulacji insider tradingu na całym świecie. Do końca lat 80. regulacje zostały uchwalone w 77 państwach, a u schyłku XX wieku akty prawne nakładające warunki na insiderów oraz ustanawiające sankcje dla nielegalnych transakcji wydano w 103 krajach.

informacja- złoto rynków

Gordon Gekko w klasyce giełdowego kina, „Wall Street”, stwierdził, że najcenniejszym towarem, jaki zna, jest informacja. W istocie ruchy cenowe instrumentów finansowych, będące skutkiem różnych komunikatów, mogą mieć znaczący wpływ na powodzenie inwestycji. Wartość informacji na rynkach kapitałowych jest tak

duża, że w XX wieku zapoczątkowano procesy mające zapobiegać wykorzystywaniu asymetrii informacji.

1. Art. 154. Dz.U.2014.0.94 t.j. – Ustawa z dnia 29 lipca 2005 r. o obrocie instrumentami finansowymi, pojęcie informacji poufnej.

Zgodnie ze sprawozdaniami Komisji Nadzoru Finansowego, w latach 2009-2014 złożono 67 zawiadomień do prokuratury z uzasadnionym podejrzeniem ujawnienia lub wykorzystania informacji poufnej.

TO ZALEŻY MARZEC 2015 | 9

RYNKI KAPITAŁOWE

SKUTKI ORAZ SANKCJE

Regulacje insider tradingu spowodowały nałożenie wielu ograniczeń transakcji papierami wartościowymi dla osób posiadających dostęp do informacji poufnych. Przykładowo dyrektorzy, członkowie rad nadzorczych i osoby z nimi powiązane są zobligowani do informowania o dokonanych transakcjach na akcjach spółki. Takie komunikaty są przekazywane w formie zawiadomień, w których można dowiedzieć się o dacie, wolumenie oraz średniej cenie nabycia lub sprzedaży. Innym przykładem są okresy zakazu dokonywania transakcji, tzw. okresy zamknięte. Wszystkie osoby mające dostęp do wyników i rezultatów spółki przed ich upublicznieniem w formie raportów podlegają zakazowi handlu wyemitowanymi przez spółkę instrumentami. Okresy zamknięte przed ogłoszeniem raportów rocznych wynoszą 2 miesiące, półrocznych – miesiąc, a kwartalnych – 2 tygodnie. Skutkiem takiego rozwiązania jest fakt, że w sezonach ogłaszania wyników handel insiderów praktycznie zamiera. Dodatkowo transakcje insiderów są wnikliwe monitorowanie. W nadzorach finansowych wielu państw analizuje się ogromne wolumeny transakcji w celu zlokalizowania anomalii wskazujących na nielegalne wykorzystanie informacji poufnej. W Stanach Zjednoczonych wynagradza się również kwotą 10% kary nałożonej przez nadzór, osoby, których donos o podejrzeniu nielegalnej transakcji był prawdziwy. Uchwalono przepisy, w wyniku których sankcjami dla osób dokonujących nielegalnego insider tradingu są grzywny oraz pozbawienie wolności. Najdłuższy pobyt w więzieniu grozi w Stanach Zjednoczonych oraz Korei Południowej – 20 lat. Natomiast najwyższe, ponieważ nielimitowane, kary finansowe obowiązują w Wielkiej Brytanii. W Polsce ustawodawca zawarł sankcje dla osób wykorzystujących informację poufną w art. 181 ustawy o obrocie. Wykorzystanie informacji poufnej podlega karze grzywny w wysokości do 5 milionów złotych, karze pozbawienia wolności od 3 miesięcy do 5 lat lub obu tym karom łącznie. W wypadku insiderów pierwotnych pozbawienie wolności może wynieść nawet 8 lat.

SKALA NIELEGALNEGO INSIDER TRADINGU

Istotność przepisów przeciwdziałających wykorzystywaniu informacji najlepiej widać w Stanach Zjednoczonych na przykładzie pracy wykonywanej przez prokuratora generalnego południowego

dystryktu Nowego Jorku. Preet Bharara, popularnie nazywany głównym oskarżycielem Wall Street, w latach 2009-2014 wygrał wszystkie 81 spraw przeciwko podmiotom, którym został postawiony zarzut nielegalnego tradingu. To on reprezentował stronę oskarżającą w aferach funduszy hedgingowych Galleon Group i SAC Capital Advisors.Fundusz hedgingowy Galleon Group, który w swoim portfelu miał aktywa o wartości ponad 7 miliardów dolarów, został zamknięty w 2009 roku z powodu zatrzymania założyciela oraz kluczowych zarządzających. Założyciel Raj Rajaratnam został oskarżony o nielegalne wzbogacenie się na transakcjach amerykańskich spółek takich jak Google, Intel, Goldman Sachs. Informacje poufne uzyskiwał często dzięki korumpowaniu wysokich rangą pracowników notowanych spółek. Winę udowodniono mu między innymi dzięki nagraniom z podsłuchów telefonicznych. Oskarżony został uznany winnym zarzucanych czynów i skazany na 11 lat więzienia oraz łącznie na grzywnę ponad 100 milionów dolarów.W 2014 roku jedną z głośniejszych spraw związanych z wykorzystywaniem informacji poufnych był przypadek funduszu hedgingowego SAC Capital Advisors. Fundusz ten, dziś pod nazwą Point 72 Asset Management, przyznał się do okradania inwestorów i stosowania praktyk nielegalnego insider tradingu. W ramach ugody z wymiarem sprawiedliwości zapłaci sumę 1,8 miliarda dolarów. Warto odnotować, że założyciel Steven A. Cohen nie został pozwany, a w jego sprawie toczy się tylko postępowanie administracyjne.W Polsce skala zjawiska jest mniejsza. Zgodnie ze sprawozdaniami Komisji Nadzoru Finansowego, w latach 2009-2014 złożono 67 zawiadomień do prokuratury z uzasadnionym podejrzeniem ujawnienia lub wykorzystania informacji poufnej. W tym

samym okresie UKNF otrzymał informacje, że skierowano tylko 6 aktów oskarżenia oraz odnotował 4 wyroki skazujące.Pytaniem otwartym pozostaje, jaką część transakcji opierających się na wykorzystywaniu informacji poufnej nadzór finansowy jest w stanie zidentyfikować. O ile skuteczność aktów oskarżenia wystosowanych w Stanach Zjednoczonych skłania do opinii, że nielegalny insider trading jest bardzo ryzykowny, to istnieją badania naukowców stojące w opozycji do takiego stwierdzenia. W 2013 roku trzech profesorów: Menachem Brenner i Marti Subrahmanyam z Uniwersytetu Nowojorskiego oraz Patrick Augustin z Uniwersytetu McGill stwierdzili, że

MATEUSZ MUCHA

020406080

100120140160180200

1950 1955 1960 1965 1970 1975 1980 1985 1990 1995 2000LICZBA PAŃSTW NA ŚWIECIELICZBA PAŃSTW, KTÓRE POSIADAJĄ GIEŁDE PAPIERÓW WARTOŚCIOWYCHLICZBA PAŃSTW, KTÓRE WPROWADZIŁY REGULACJE DOTYCZĄCE INSIDER TRADINGU

2. Patrick Augustin, Menachem Brenner, Marti Subrahmanyam, Informed options trading prior to M&A announcements: insider trading?, 2013.

Student III roku Inwestycji Kapitałowych i Strategii Finansowania Przedsiębiorstwa na Uniwersytecie Ekonomicznym w Poznaniu. Aktywny inwestor na rynku GPW, makler papierów wartościowych (2901), prezes SKN Inwestycji Kapitałowych Profit, członek projektu London Study Excursion oraz stowarzyszenia Cognitis. Obecnie przygotowujący się do zdobycia licencji doradcy inwestycyjnego. Interesuje się zagadnieniami nadzoru nad rynkami finansowymi i kapitałowymi.

Wprowadzanie regulacji dotyczących insider tradingu w państwach całego świata

Źródło: Opracowanie własne

10 | TO ZALEŻY MARZEC 2015

RYNKI KAPITAŁOWE

25 % transakcji typu fuzje i przejęcia cechuje się wykorzystywaniem informacji poufnej.2 W swojej pracy przeanalizowali oni ruchy cenowe opcji wystawionych na akcje spółek, będących stronami fuzji lub przejęć na okres 60 dni przed ogłoszeniem transakcji. Z 1859 transakcji z lat 1996-2012 co czwarta cechowała się podejrzanymi ruchami cenowymi, jednak tylko co dwudziesta znalazła się w kręgu podejrzeń nadzoru finansowego.

CIĄGŁA DEBATA

Pomimo powszechności penalizacji insider tradingu na świecie, do dzisiaj na poziomie akademickim, prawniczym i rynkowym trwa debata o słuszności takiego działania. Efektywne rynki papierów wartościowych wymagają powszechnego i równego dostępu do informacji. Właśnie to stwierdzenie dominowało w argumentacji za wprowadzeniem regulacji dotyczących insider tradingu. Insiderzy niewątpliwie posiadają przewagę informacyjną nad resztą inwestorów. Niemniej zwolennicy pełnej legalizacji podają w wątpliwość stwierdzenie, że równość w dostępie do informacji zwiększa efektywność.

Ich zdaniem szybsze wykorzystywanie informacji poufnej w postaci transakcji przyspiesza proces utworzenia ceny równowagi. Dodatkowo argumentują oni, że insider trading jest uzasadnioną formą rekompensaty dla pracowników spółek publicznych, pozwalając na niższe ich wynagrodzenie, co jest korzystnym bodźcem dla akcjonariuszy. Zwolennicy regulacji zaznaczają jednak, że pokusa krótkoterminowych korzyści jest silniejsza i mogłaby urzeczywistniać się w opóźnianiu wydania oficjalnej informacji dla akcjonariuszy, aby wszyscy insiderzy mogli z niej skorzystać wcześniej, kosztem udziałowców.

ŚLEDŹMY DUŻE PIENIĄDZE

Emocjonująca debata oraz proces rozwoju regulacji insider tradingu wydają się potwierdzać cenę informacji na rynkach kapitałowych, jaką dostrzegał Gordon Gekko. Z punktu widzenia inwestora indywidualnego regulacje insider tradingu są czynnikiem uwiarygodniającym rynki kapitałowe. Dekryminalizacja wykorzystywania informacji poufnych zostałaby odebrana negatywnie

i w mojej ocenie przyczyniłaby się do spadku atrakcyjności parkietu dla inwestorów indywidualnych. Jednak silne przykręcenie śruby przez nadzory finansowe również wywołałoby złe skutki, doprowadzając w ekstremalnych przypadkach do unikania jakichkolwiek transakcji przez „wtajemniczonych”. Dodatkowymi rozwiązaniami mogą być klauzule w kontraktach insiderów (umowach o pracę), mocno piętnujące wykorzystywanie informacji poufnych, oraz silny nacisk na etykę przy egzaminach na doradców i maklerów. Warto również dostosowywać się do bieżących regulacji i wykorzystywać transparentność transakcji insiderów podczas podejmowania decyzji inwestycyjnych. Transakcje dyrektorów, członków rad nadzorczych czy podmiotów posiadających więcej niż 5% głosów na walnym zgromadzeniu akcjonariuszy, są przekazywane w komunikatach giełdowych i prasowych. Dzięki tym informacjom o transakcjach dokonywanych przez „wtajemniczonych”, ich charakterze oraz wolumenie, można lepiej określać przyszłe rezultaty spółek.

graf. Gerd Altm

ann CC

TO ZALEŻY MARZEC 2015 | 11

ryzyko długowieczności

Żyjemy coraz dłużej. W ciągu każdej godziny przeciętny czas trwania życia wzrasta o 15 minut (średnio 2,5 roku na każdą dekadę). Marzenie o kamieniu filozoficznym ziszcza się na naszych oczach. Może bez alchemicznych fajerwerków, ale za to systematycznie i skutecznie. Warto jednak zauważyć, że w przeciągu ostatnich lat długość

życia poszczególnych kohort (osób urodzonych w danym roku) była średnio niedoszacowana o 3 lata.1 Niedoszacowana, a więc nieuwzględniona przy konstrukcji planów emerytalnych, ustalaniu wysokości składek zdrowotnych czy w wyliczeniach prywatnych ubezpieczycieli. Na poziomie jednostki długowieczność to cudowne proroctwo, jednak przy agregacji do poziomu społeczeństw niedoszacowanie rodzi groźbę destabilizacji sektora finansowego i niewypłacalności państw. Tam, gdzie pojawia się błąd oszacowań, rodzi się ryzyko.

1.Dane te podaje IMF w raporcie: International Monetary Fund, Financial Impact of longevity risk, 2012, s. 2.2.Jim Oeppen, James W. Vaupel, Broken Limits to Life Expectancy, „Science” nr 296, 2002, s. 1029-1031.

Średnia długość życia kobiety w Europie zachodniej na przestrzeni ostatnich 400 lat

Źródło: Suplement do artykułu: Jim Oeppen, James W. Vaupel, Broken Limits to Life Expectancy, „Science” nr 296, 2002, s. 1029-1031.

http

://t

opw

alls

.net

/

BEZ OGRANICZEŃ

Długowieczność to stosunkowo młode zagadnienie. Drastyczny skok w przeciętnym dalszym trwaniu życia obserwujemy dopiero

w ciągu ostatniego stulecia. W 1900 roku noworodek dożywał przeciętnie 46,4 lat, jeśli był chłopcem i nieznacznie więcej – 49.7 lat, jeśli był dziewczynką. W roku 2000 przeciętne trwanie życia w momencie narodzin to już 75,2 lat dla mężczyzny i 82,7 lat dla kobiety. Wzrost o ponad 60% z pewnością można uznać za spektakularny, szczególnie gdy zestawimy to z przyrostem we wcześniejszych wiekach. Podczas całego milenium, pomiędzy V a XV wiekiem przeciętne trwanie życia wzrosło jedynie o 3 lata. Kolejne 300 lat wiązało się z przyrostem pięcioletnim, a wiek XIX przyniósł wzrost o około 15 lat. Cenieni demografowie, Jim Oeppen i James Vaupel w artykule z 2002 roku2 zwracają uwagę na niezwykłą regularność tego zjawiska po roku 1840. Ostatnie 170 lat to niemal idealnie liniowy przyrost dalszego trwania życia. Jak powszechnie wiadomo, funkcja liniowa określona na przedziale liczb rzeczywistych nie ma ograniczenia górnego – tak, tak… analiza matematyczna się kłania. Czyżby ta obserwacja miała zastosowanie dla długości życia?

UBEZPIECZENIA

3.Oszacowanie to pojawia się w Raporcie Centrum Analiz Stowarzyszenia KoLiber: Demografia a system emerytalny, [red.] Marek Kułakowski, Wrocław, marzec 2013, s. 47, online na www.analizy.koliber.org.

http://imgkid.com/

DZIURY W BUDŻETACH

Dłuższe życie to domena nie tylko noworodków. To samo zjawisko, choć oczywiście w mniejszej skali, dotyka osób powyżej 60. roku życia. Współcześni emeryci często żyją dłużej niż zakładaliśmy. Po reformie w 1999 roku emerytury w Polsce są wyliczane w oparciu o zebrane aktywa i dalsze trwanie życia, szacowane przez GUS. W uproszczeniu pobierana emerytura będzie równa ilorazowi zgromadzonego kapitału i liczby miesięcy, którą według GUS-u jeszcze przeżyjemy. Problem w tym, że GUS swoje wyliczenia dokonuje w oparciu o założenie, że 60-latek będzie wymierał w podobnym tempie, co dziś obserwowane pokolenie 80+. Zmiany obserwowane w długowieczności na przestrzeni ostatnich 100 lat dają solidne podstawy, by wątpić w słuszność tego założenia. Uwzględnienie wydłużającego się trwania życia jest możliwe, gdy stosowane obecnie przekrojowe tablice dalszego trwania życia zastąpimy tablicami kohortowymi opartymi na modelu Lee-Cartera. W 2007 roku dr Barbara Więckowska oszacowała, że stosowanie tablic przekrojowych wiąże się z deficytem funduszu emerytalnego

na poziomie blisko 1,5-rocznych wypłat dla każdego 60-letniego beneficjenta. Wraz z opóźnieniem przejścia na emeryturę deficyt spada. Jednak nawet po zwiększeniu wieku emerytalnego do 67 lat ZUS-owi zabraknie na ponad rok świadczeń dla każdego emeryta. Niestabilność systemu emerytalnego wynikająca z ryzyka długowieczności nie jest jednak problemem typowo polskim. Poniższa tabela dobrze obrazuje skale obciążeń budżetowych, z jakimi będą musiały się zmierzyć rządy w przyszłości.

W wielu krajach oszczędności gospodarstw domowych nie są wystarczające, by pokryć należności na poczet emerytur. Luka różni się pomiędzy państwami ze względu na różne struktury wiekowe danych populacji. Dla Niemiec luka pomiędzy zgromadzonymi oszczędnościami, a potencjalnymi płatnościami sięga blisko 2-krotności PKB z 2010 roku dla stopy zastąpienia 60% i ponad 300% PKB, gdyby emerytom zaoferowano 80% wynagrodzenia. Wydłużenie życia niemieckich emerytów o 3 lata w stosunku do obecnych oszacowań doprowadziłoby do wzrostu luki o dodatkowe 55-74% PKB z 2010 roku.

Zjawisko długowieczności wiąże się nie tylko z większą liczbą dłużej pobieranych emerytur, ale również większym obciążeniem służby zdrowia. Obecnie wydatki na ten sektor wynoszą około 6% PKB. Stowarzyszenie KoLiber sugeruje, że do 2060 roku na skutek starzenia się społeczeństwa niezbędne będzie przeznaczenie dodatkowych 2% PKB na ten cel3. Warto zauważyć, że tyle obecnie wydajemy na siły zbrojne.

ANTIDOTUM W ZARODKU?

Tam gdzie pojawia się ryzyko, rodzi się popyt na usługi ubezpieczycieli. Odpowiedź ze strony rynku ubezpieczeniowego

na ryzyko długowieczności jest jednak bardzo nieśmiała. Najwięksi gracze zgodnie przyznają, że fundusze emerytalnie nie będą w stanie same podźwignąć ciężaru, jaki niesie ze sobą długowieczność. Niezbędna jest pomoc inwestorów. Jednak zainteresowanie strony popytowej

Studentka 3 roku Informatyki i Ekonometrii na WNE UW i 2 roku Matematyki na MIM UW.Laureatka stypendium Rektora, Fundacji Edukacyjnej Przedsiębiorczości, Polsko – Amerykańskiej Fundacji Wolności i Jana Pawła II. Zapalona czytelniczka powieści Terry’ego Pratcheta, a zarazem chemik z zamiłowania.

OLIWIA KOMADA

Kraj

(1) Oszczędności gospodarstw

domowych

(2) Wartość obecna

przyszłych emerytur*

(3) Dług publiczny

brutto

(4) )Luka (1)-(2)*

(5) Wzrost (2) dla 3-letniego wzrostu

przeciętnego trwania życia*

60% 80% 60% 80% 60% 80% USA 339 272 363 94 67 -24 40 53 Japonia 309 499 665 220 -190 -356 65 87 Wielka Brytania 296 293 391 76 3 -95 44 59 Kanada 268 295 393 84 -27 -125 42 56 Włochy 234 242 322 119 -8 -88 34 45 Francja 197 295 393 82 -97 -196 40 54 Australia 190 263 350 21 -73 -161 36 49 Niemcy 189 375 500 84 -186 -311 55 74 Korea 186 267 357 33 -81 -170 39 52 Chiny 178 197 263 34 -19 -85 34 45 Hiszpania 165 277 370 60 -112 -205 39 52 Węgry 108 190 254 80 -82 -146 34 45 Czechy 89 216 289 39 -127 -200 36 48 Polska 88 160 213 55 -72 -125 27 35 Litwa 80 189 252 39 -109 -172 34 45 * Przy założeniu stopy zastąpienia (emerytura jako % wynagrodzenia) 60 lub 80%. Szacunki dla okresu 2010-2050.

Źródło: International Monetary Fund, Financial Impact of longevity risk, 2012, s. 12.

Obciążenia finansowe płynące z ryzyka długowieczności w wybranych państwach (jako % PKB)

TO ZALEŻY MARZEC 2015 | 13

UBEZPIECZENIA

4.Opis projektu pochodzi ze strony internetowej firmy: Swiss Re completes first longevity trend bond, transferring USD 50 million of longevity trend risk to the capital markets, 23.12.2010, online na www.swissre.com.5.Artemis, BT pension scheme in record £16 billion longevity swap transaction, 04.07.2014, online na www.artemis.bm.6.Theo Nijman, Pension Reform in The Netherlands: Attractive Options for other Countries?, „Bankers, Markets & Investors”, nr 128, styczeń-luty 2014, s. 1.

Swiss Re wystawiło obligacje kuponowe, oferta była skonstruowana z myślą o firmach ubezpieczeniowych. Obligacje wypłacały co kwartał kupony w wysokości stopy LIBOR plus 1,35 punktu procentowego. Dodatkowo, jeżeli śmiertelność w przeciągu 4 lat nie przekroczyła 1,3 poziomu bazowego, za który obrano śmiertelność w roku 2002 w koszyku państw Europy Zachodniej, inwestorzy dostawali pełny zwrot kapitału. Wraz z rosnącą śmiertelnością spłata kapitału spadała. Jeżeli śmiertelność przekroczyłaby 1,5-krotność poziomu bazowego, inwestorzy nie dostaliby zwrotu zainwestowanych środków. Tak drastyczny globalny wzrost śmiertelności musiałby się wiązać z epidemią przypominającą skalą Hiszpankę z roku 1918. Przy 4-letnim horyzoncie inwestycji był to bardzo mało prawdopodobny scenariusz. Trudno więc mówić o prawdziwym zakładzie, skoro wynik znano już w chwili zawierania kontraktu. Dla Swiss Re to był tak naprawdę stosunkowo tani kapitał, a dla firm ubezpieczeniowych substytut innych papierów wartościowych pozbawionych ryzyka (np. obligacji państwowych). Powiązanie z ryzykiem długowieczności było wyjątkowo luźne, jednak to pierwsze papiery wartościowe, które wypłaty w jakikolwiek sposób uzależniały od długowieczności, czy też raczej w tym przepadku śmiertelności. Źródło: D. Blake, A. Cairns, K. Dowd, Living with Mortality: Longevity Bonds and Other Mortality-Linked Securities, “British Actuarial Journal”, 2006, nr 12, z. 1, s. 153-197.

Swap długowieczności (longevityswap) to instrument pochodny, który kompensuje ryzyko członków funduszu emerytalnego żyjących dłużej, niż zakładano w momencie konstruowania planu wypłat. Kontrakt jest zawierany pomiędzy bankiem inwestycyjnym a ubezpieczycielem. Swoją konstrukcją nie rożni się znacząco od swapu na stopę procentową czy inflację. Bank inwestycyjny dokonuje wypłat na rzecz ubezpieczyciela uzależnionych od rzeczywistej wymieralności. W zamian ubezpieczyciel dokonuje stałych opłat na podstawie uzgodnionych w umowie założeń o umieralności. Źródło: Financial Times Lexicon, online: http://lexicon.ft.com/Term?term=longevity-swap.

jest raczej niewielkie. Pionierski projekt wysunął w 2003 roku Swiss Re – druga największa na świecie firma reasekuracyjna. Zaproponował swoim klientom zakład o tempo wzrostu śmiertelności4. Cała transakcja opiewała na kwotę 400 milionów dolarów, stanowiącą zaledwie niewielki ułamek rynku ubezpieczeń emerytalnych. W 2010 roku kolejnym innowacyjnym pomysłem Swiss Re były obligacje bezpośrednio powiązane z rosnącą oczekiwaną długością życia. Kontrakt nadal nie zachwycał skalą – 50 milionów dolarów. Obecnie coraz bardziej popularnym instrumentem stają się swapy na długowieczność. Rekordowa transakcja miała miejsce w czerwcu 2014 roku. BT – brytyjska firma telekomunikacyjna – złożyła ofertę w kwocie 16 miliardów funtów, co pokryło 25% obciążeń systemu emerytalnego Wielkiej Brytanii wynikających z ryzyka długowieczności5.Alternatywnym sposobem jest przeniesienie tego ryzyka bezpośrednio na długowiecznych. Po taką metodę sięgnęła Holandia, reformując system emerytalny w 2010 roku. Pierwszym krokiem do uodpornienia systemu emerytalnego na zmiany demograficzne będzie podniesienie wieku emerytalnego do 67 lat w 2024 roku6. Ponadto w latach kolejnych wiek emerytalny będzie bezpośrednio powiązany z tablicami śmiertelności (śmiertelność spada – wiek emerytalny rośnie). Świadczenia holenderskich emerytów, podobnie jak w Polsce, są powiązane z oczekiwanym trwaniem życia w momencie rozpoczęcia pobierania składek. Jednak Holendrzy wyliczenia opierają na tablicach kohortowych, a ponadto raz na 5 lat indeksują wypłaty, uwzględniając zmiany oczekiwanego dalszego trwania życia. Całe ryzyko zostaje przetransferowane na emerytów. Emerytura niższa o kilka procent nie wdaje się być jednak nazbyt wysoką ceną za stabilność systemu.

IM SZYBCIEJ, TYM LEPIEJ

Jak powiedział Benjamin Franklin, w życiu pewna jest jedynie śmierć i podatki. Opieszałość pierwszego pewnika spędza sen z powiek ubezpieczycielom. Wiele systemów emerytalnych staje się za jego przyczyną niewypłacalne już w momencie kalkulacji składki. Inwestorzy zdają się powoli dostrzegać smakowity kąsek w postaci ogromnego rynku, którego potrzeb jeszcze nikt nie zaspokaja. Proces ten jest jednak mozolny, alternatywna odpowiedź ze strony samych ubezpieczycieli (taka jak w Holandii) jest więc niezbędna. Długowieczność przestaje być marzeniem rodem z literatury sci-fi. Staje się rzeczywistością, z którą musimy sobie poradzić.

14 | TO ZALEŻY MARZEC 2015

TECHNOLOGIE

Big Data, czyli analiza ogromnych wolumenów danych w krótkim czasie (niemalże w czasie rzeczywistym), jest, razem z ‘przetwarzaniem w chmurze’ oraz ‘Internetem rzeczy’, wymieniana jako technologiczny trend na najbliższe lata. Najkrócej mówiąc, chodzi o przetwarzanie i analizę ogromnej ilości danych, poza danymi biznesowymi (amerykański gigant handlu, WalMart, w minutę wytwarza 167 razy więcej danych, niż posiada ich Biblioteka Kongresu Stanów Zjednoczonych), łącznie z danymi z mediów społecznościowych, zdjęć, tekstów, publikacji, forów dyskusyjnych. Konsekwencją stosowania Big Data jest wyciąganie wniosków z tych niezmierzonych pokładów danych oraz przewidywanie przyszłości na ich podstawie.

ALE KTO Z TEGO KORZYSTA? Na myśl o Big Data w pierwszej kolejności wymienia się amerykańskich gigantów technologicznych: Amazon, Google, Facebook. Rzeczywiście, Facebook oraz Google gromadzą wiele informacji o swoich użytkownikach, co często budzi niepokój. Google wie o nas naprawdę dużo (wystarczy zapytać Google ‘Co wie o mnie Google’, żeby przekonać się, jak dużo), podobnie Facebook. Oba serwisy wykorzystują Big Data do reklam: wykupując usługę reklamową w którymś z serwisów, można dotrzeć do konkretnej, bardzo wąskiej, ale starannie dobranej, grupy osób. Zamówiona reklama, na podstawie posiadanych przez serwis danych, wyświetla się np. tylko osobom w danym przedziale wiekowym, mieszkającym w danym mieście oraz pasującym do wybranych słów-kluczy (chcesz sprzedać wycieczkę na narty dla studentów, użyj słów ‘student’, ‘sport’, ‘narty’, ‘impreza’). Amazon wykorzystuje Big Data, aby w czasie rzeczywistym proponować klientom dodatkowe zakupy (‘Inni kupili także’), oraz rekomendować produkty, które, na podstawie podobieństwa między użytkownikami prawdopodobnie przypadną do gustu również im.

DOMEK Z KARTPodobnie działa Netflix – amerykański serwis do oglądania filmów on-line. Jednak Netflix, wykorzystując zebrane dane (oceny filmów, aktorów, twórców, odtwarzane

czy przeglądane filmy, a także momenty pauzowania, przewijania, zatrzymywania, czy też preferencje tematyczne) poszedł o krok dalej i stworzył serial, który wykorzystując analizy Big Data, z góry skazany był na sukces. Analizując zbierane dane Netflix odkrył, że dużą popularnością cieszą się filmy z Kevinem Spacey, filmy w reżyserii Davida Finchera (jak choćby ‘Social Network’ czy ‘Podziemny krąg’) były bardzo często streamowane, a brytyjski serial polityczny z początku lat 90, pierwowzór serialu Netflixa, zbierał dobre oceny użytkowników. Powstanie ‘House of Cards’ w takiej, a nie innej formie, było wynikiem działania Big Data i wyciągania wniosków. Również decyzja o nadaniu wszystkich odcinków serii na raz, jest wynikiem analizy danych. Dodatkowo, serial był różnie promowany wśród użytkowników serwisu Netflix- fani Spacey’a widzieli trailer głównie z nim, natomiast fani ‘Thelma i Louise’ mogli zobaczyć trailer z kobiecymi bohaterami serialu.

WSZYSCY LUDZIE PREZYDENTAWkrótce podwójne wybory w Polsce. A gdyby można była zebrać wszelkie możliwe dane o obywatelach, na podstawie algorytmu podzielić ich na grupy, określić, czy dany ‘typ’ obywatela będzie głosował, a jeśli tak, to na kogo, by potem umiejętnie wpływać na grupę niezdecydowanych, lub nakłaniać zdecydowanych do wsparcia danej opcji politycznej nie tylko przy urnie, ale także finansowo? Barack Obama podczas wyborów w 2012 stworzył centrum analiz, zatrudnił kilkudziesięciu analityków (‘Data scientist’) i wykorzystując Big Data wysyłał wolontariuszy tylko do wybranych, niezdecydowanych, lecz, według algorytmu, możliwych do przekonania obywateli. Centrum analiz pomagało mu przewidzieć, jak ruchy podczas kampanii wpłyną na poszczególne grupy obywateli. Podstawą do analizy były dane zebrane przez wolontariuszy, dane z mediów społecznościowych oraz dostępne dane administracyjne, np. ewidencja pojazdów czy budynków. Skutek wszyscy znamy- Obama wygrał, prawdopodobnie także dzięki Big Data.

RAPORT MNIEJSZOŚCIPredPol to firma, która postanowiła, jak w popularnym filmie z Tomem Cruise’m, przewidywać, gdzie prawdopodobnie zostanie popełnione przestępstwo. Na podstawie policyjnej bazy danych z ośmiu lat stworzyła algorytm, który na bieżąco kieruje patrole policji w miejsca, gdzie prawdopodobieństwo popełnienia przestępstwa jest najwyższe. Algorytm ciągle się uczy: na podstawie zgłaszanych przestępstw wciąż poprawia swoją dokładność. Brzmi jak science-fiction? Firma pomaga policji w San Francisco od kilku lat. W dzielnicach, gdzie policjanci podczas patroli, poza wiedzą i doświadczeniem, wykorzystują interaktywne mapy wyszczególniające miejsca bardziej zagrożone popełnieniem przestępstwa, przestępczość spadła o kilkanaście procent (w innych dzielnicach nawet wzrosła). Podobny system działa w Tokio, tam jednak dotyczy taksówek, które kierowane są tam, gdzie najprawdopodobniej pojawi się klient.

EPIDEMIA BIG DATAGoogle posiada mechanizm, który umożliwia śledzenie trendów dotyczących danego hasła wpisywanego w wyszukiwarce. Okazało się, że wykorzystując to narzędzie – Google Trends - można przewidzieć nadchodzącą epidemię grypy. Gdy liczba zachorowań wzrasta, wzrasta również liczba zapytań o ‘domowe sposoby leczenia grypy’ czy też o ‘leki na grypę’. Na podstawie tych trendów oraz danych historycznych, można stwierdzić, że epidemia grypy zacznie się za kilka dni. Mechanizm śledzenia trendów jest udostępniony dla każdego, każdy więc może spróbować swoich sił analizując duże dane. Przykład Google przewidującego epidemie grypy świadczy o tym, że Big Data, poza możliwością manipulacji, czyli sterowania naszym zachowaniem podczas internetowych zakupów, czy zmieniania naszych decyzji przy urnie wyborczej, przynosi również korzyści. Dobrze wiedzieć, że nadchodzi epidemia grypy i wybrać się wtedy na urlop, np. wykorzystując rekomendowany przez Google studencki wyjazd w Alpy.

mam dane i nie zawaham się ich użyć

Absolwent Informatyki i Ekonometrii na SGGW. W Accenture od 04.2014, gdzie wdraża systemy Business Intelligence (głównie firmy SAP). Pasjonat podróży rowerowych, fotografii oraz nowych technologii.

MATEUSZ MIKULSKI

04.05-22.05WARSAW TOWERSCzy chcesz…

sprawdzić się w roli konsultanta SAP jako integratora wiedzy biznesowej i umiejętności IT?dowiedzieć się jak przełożyć technologie na konkretne rozwiązania biznesowe?zdobyć unikalne umiejętności w zakresie konfiguracji SAP w ramach międzymodułowej integracji FI-SD-MM?poznać specyfikę pracy projektowej i metodyki wdrażania SAP?pracować wśród najlepszych na rynku?

http://kariera.accenture.com/SAPBootCamp

Accenture SAP BootCamp to: 4 tygodnie praktycznych ćwiczeń na systemie SAP, w oparciu o materiały self-studies, warsztaty, wykłady, case biznesowy przygotowany przez specjalistów z Accenture.

16 | TO ZALEŻY MARZEC 2015

Aktualny kryzys finansowy ciągle trwa (przynajmniej w strefie euro), a dużej części krajów nie udało się powrócić do stanu gospodarki sprzed recesji. Niemniej jednak już dziś, na podstawie dotychczasowych „kryzysowych” doświadczeń, możemy ocenić skalę ostatnich turbulencji. Ekonomiści są w tej kwestii zgodni: ostatnim tak dotkliwym kryzysem, w szczególności dla realnej sfery gospodarki, był Wielki Kryzys lat 30. XX wieku. Co było odpowiedzią ówczesnych władz na zawirowania w gospodarce, którym, podobnie jak ocenia się to dziś, zawiniły głównie banki? Regulacje! Wśród nich najważniejsza ustawa Glassa-Steagalla ustanawiająca system gwarantowania depozytów w Stanach Zjednoczonych oraz zakazująca prowadzenia przez bank jednocześnie działalności depozytowo-kredytowej oraz inwestycyjnej. Wtedy również poddano banki kontroli nadzorców. Z czasem jednak, w miarę poprawy warunków gospodarczych i zacierania się w pamięci kryzysowych doświadczeń, skłonność do regulowania i kontrolowania malała. Co więcej, ustanowione jako odpowiedź na kryzys regulacje okazały się, również w mniemaniu samych regulatorów, ograniczać dalszy rozwój instytucji finansowych. Konsekwentnie więc łagodzono wymagania wobec banków, umożliwiając im dalszy rozwój, a raczej agresywną ekspansję (w ciągu ostatnich 15 lat wartość aktywów największych banków wzrosła prawie czterokrotnie1, czego bynajmniej nie można powiedzieć o światowym PKB). Pomimo wprowadzania nowych zasad rządzących światem bankowości (np. Bazylea II), ich rosnącej objętości oraz stopnia skomplikowania, bankom coraz sprawniej udawało się regulacje te omijać. Co więcej, przepisy opracowane przez regulatorów okazały się procykliczne, wzmacniając dynamiczny wzrost aktywów banków w czasach prosperity, ale jednocześnie znacznie ograniczając ich skalę

działalności w czasach kryzysu. W efekcie liberalizacji regulacji bankowych oraz ich nieadekwatności banki zaczęły podejmować nadmierne ryzyko. Co prawda, nie było to jedyną przyczyną aktualnego kryzysu, ale z pewnością błędy (popełnione zarówno przez regulatorów, jak i same banki) w zakresie kontrolowania podejmowanego ryzyka i odpowiedniego zabezpieczania prowadzonej działalności, w dużej mierze przyczyniły się do jego dotkliwości. Jaka jest zatem odpowiedź nadzorców na obecny kryzys? Regulacje! Poprawniej byłoby wręcz powiedzieć „tsunami regulacyjne”, bo liczba proponowanych rozwiązań jest jak do tej pory niespotykana. Czy jednak tym razem uchronią nas przed kolejnym kryzysem? Dotychczasowe doświadczenia podpowiadają, że niekoniecznie.

MOŻE WIĘC JEDNAK NIE REGULOWAĆ?

Regulacje bankowe nie ustrzegły świata przed ostatnim kryzysem finansowym. Wręcz przeciwnie – procykliczny charakter wymogów kapitałowych oraz liczne braki w architekturze regulacyjnej (np. w zakresie płynności) wzmacniały problemy banków. Paradoks przedkryzysowych regulacji ukazuje chociażby przykład banku Lehman Brothers, który w chwili ogłoszenia upadłości mógł „pochwalić się” współczynnikiem wypłacalności Tier I na poziomie 11%2, a więc 3 punkty procentowe powyżej wymaganego poziomu bezpieczeństwa dla banków, tj. 8%. Powstaje zatem pytanie: po co regulować banki? Tym bardziej w obliczu potencjalnych kosztów, jakie generują regulacje bankowe, warto postawić sobie takie właśnie pytanie. Być może jednak nie warto regulować banków?Koncepcja taka nazywana jest free banking lub inaczej laissez-faire banking i pojawiła się już w latach 70. XX wieku.

Sektor bankowy od lat jest jednym z najmocniej regulowanych obszarów w gospodarce. Nie uchroniło nas to jednak przed ostatnim kryzysem finansowym. Mimo to regulatorzy prześcigają się w coraz to nowszych „pomysłach” na usprawnianie działalności banków, przekonani, że zapobiegnie to kolejnej recesji. Może zamiast

na ilość, warto w tym obszarze postawić jednak na jakość?

regulacyjne tsunami – czy uchroni Przed kolejnym kryzysem?

1.Oszacowanie to oparte jest na danych pochodzących z artykułów: Philip Georgiadis, Who’s the biggest bank of all (again), 09.07.2014 oraz Cheyenne Hopkins, Too Big to Fail, 02.02.2015.2.Beata Tomaszkiewicz, Związek Banków Polskich o Bazylei 3, 15.04.2010, online na obserwatorfinansowy.pl.

fot. Elien Smid CC

TO ZALEŻY MARZEC 2015 | 17

GOSPODARKA

W skrajnej formie zakłada ona brak istnienia banku centralnego (a więc władz monetarnych) oraz jakichkolwiek regulacji bankowych. Jedynymi uczestnikami sektora bankowego są banki prywatne, które przyjmują depozyty i udzielają kredytów, decydując jednocześnie o wielkości emisji pieniądza (zarówno bezpośrednio, jak i pośrednio w wyniku klasycznego mechanizmu kreacji pieniądza). Zwolennicy tego podejścia reprezentują poglądy, zgodnie z którymi banki centralne i regulatorzy są jedynie źródłem problemów sektora bankowego. Poprzez wszelkiego rodzaju regulacje wprowadzają jedynie ograniczenia i utrudnienia w jego funkcjonowaniu, a także zakłócają mechanizmy efektywnej alokacji zasobów, promując nierynkowy sposób ustalania cen produktów i usług bankowych. Przeciwnicy teorii free bankingu podkreślają jednak, że wolny rynek, pozbawiony jakiejkolwiek ingerencji państwa jest niezdolny do zapobiegania kryzysom, a także do ograniczania ich skutków, głównie z powodu braku instytucji pożyczkodawcy ostatniej instancji, którego jedną z podstawowych funkcji jest utrzymywanie płynności sektora bankowego. Zasady wolnej konkurencji w sektorze bankowym nie sprzyjają więc stabilności finansowej. Emisja pieniądza jest naturalnym monopolem i przekazanie jej w ręce banków prywatnych, komercyjnych spowodować może jedynie nadmierną inflację. Na szczęście jednak, zdaniem takich ekonomistów jak Goodhart, Hartmann czy Llewellyn, w dzisiejszym świecie „ryzyko braku regulacji” nie istnieje. Być może zatem pytanie należałoby postawić inaczej: nie „czy regulować?”, ale „jak regulować?”, bo regulować mimo wszystko warto.

JAK ZATEM REGULOWAĆ?

Właściwe regulacje bankowe spełniają szereg funkcji. Głównym ich zadaniem jest zapewnienie, że zarówno poszczególne instytucje finansowe, jak i cały system finansowy są bezpieczne. Towarzyszyć temu powinna także ochrona konsumentów. Tym samym, zadaniem regulatora jest zaprojektowanie takich przepisów, które stworzą podstawy do funkcjonowania zdrowego systemu finansowego jako niezbędnego elementu gospodarki. Państwo reguluje więc banki, aby zapewnić m.in. kontrolę podaży pieniądza, stabilność cen oraz zdrowe warunki konkurencji. Brak regulacji, w szczególności w okresie dynamicznego rozwoju gospodarki, mógłby skutkować podejmowaniem przez banki ryzyka niewspółmiernego do posiadanego kapitału czy niewłaściwym zarządzaniem płynnością, a w konsekwencji zachwianiem stabilnością gospodarki. Do sytuacji takiej jednak doszło pomimo obowiązywania regulacji bankowych, a przecież ich podstawową cechą powinno być zapobieganie kryzysom.Korzyści, które niosą za sobą regulacje bankowe, mają zazwyczaj charakter pośredni i ciężki do skwantyfikowania. Najogólniej, korzyścią mądrych regulacji bankowych jest zapobieganie kryzysom lub inaczej – wspieranie stabilności finansowej. Cel ten osiągany jest dzięki ograniczaniu podejmowania przez banki nadmiernego ryzyka, wprowadzeniu obowiązku monitorowania i kontrolowania ryzykownych transakcji banków, czy też wprowadzaniu obowiązku posiadania kapitałów adekwatnych do prowadzonej działalności. Właściwe regulacje bankowe, w szczególności te ustanawiające systemy gwarantowania

depozytów, zmniejszają prawdopodobieństwo wystąpienia paniki bankowej, a także zwiększają bezpieczeństwo powierzonych bankom środków. Lista potencjalnych korzyści jest oczywiście znacznie dłuższa – regulacje bankowe promują zasady uczciwej konkurencji, a także zwiększają transparentność w branży. Badania prowadzone przez Międzynarodowy Fundusz Walutowy pokazują, że wysokiej jakości regulacje bankowe są skorelowane z lepszymi wynikami finansowymi sektora. Niemniej jednak nie należy zapominać o kosztach, jakie generują. Do bezpośrednich zaliczyć należy koszty wdrażania i kontroli zgodności z obowiązującymi regulacjami, zarówno na poziomie banku, jak i instytucji zewnętrznej (nadzorcy). Regulacje bankowe mają zazwyczaj negatywny wpływ na tempo wzrostu gospodarczego kraju. Obniżają one bowiem efektywność prowadzonej działalności poprzez zwiększanie kosztów jej prowadzenia, a przez to cen oferowanych przez banki usług, ograniczając w ten sposób ich dostępność.

CO NA TO WSZYSTKO DECYDENCI?

Zdaje się, że regulatorzy na całym świecie mocno wzięli sobie do serca wszelkie niebezpieczeństwa związane z brakiem regulacji bankowych, w szczególności w obliczu aktualnie trwającego kryzysu finansowego. Pomimo panującej dotąd zasady, że w kryzysie regulacji się nie zmienia, postanowili jak najszybciej usunąć wszelkie luki w światowych ramach regulacyjnych dotyczących sektora bankowego, sprawiając jednocześnie, że bankowość stała się na kilka lat „nieustającym placem budowy”. Wynikiem tego jest wprowadzenie nowych, a przynajmniej uzupełniających lub zmodyfikowanych regulacji bankowych.Po pierwsze, Bazylea III (i jej europejski odpowiednik – Pakiet CRD IV) zapoczątkowała szereg zmian w zakresie adekwatności kapitałowej – zaktualizowano definicję kapitału, na nowo zdefiniowano współczynniki wypłacalności, a także wprowadzono zasady w zakresie szeroko pojętego „ważenia aktywów ryzykiem”. Regulacje te, choć nowe, są analogiczne do tych, które obowiązywały wcześniej. W obszarze tym filozofia regulowania nie zmieniła się, choć wiadomo już, że nie do końca sprawdziła się w kryzysie. „Nowością” Bazylei III są różne bufory kapitałowe, które jednak co do zasady przybierają formę wymogów kapitałowych. Interpretować można je zatem jako dodatkowy wymóg kapitałowy, a nie „nowość”. Postanowiono również wprowadzić ilościowe normy dotyczące minimalnych wymogów wobec banków w zakresie płynności, czego wynikiem jest stopniowe wdrażanie wskaźnika pokrycia płynnością (LCR, ang. Liquidity Coverage Ratio) oraz wskaźnika stabilnego finansowania netto (NSFR, ang. Net Stable Funding Ratio). Wskaźniki te mają zapewnić właściwe dla banków

Studentka drugiego roku studiów magisterskich w SGH na kierunku Finanse i Rachunkowość. Zawodowo związana z Narodowym Bankiem Polskim. Interesuje się problematyką bezpieczeństwa finansowego banków, stabilności finansowej oraz regulacji bankowych. Laureatka nagrody Prezesa BFG za najlepszą pracę licencjacką z zakresu systemów gwarantowania depozytów oraz bezpieczeństwa finansowego banków.

MAGDALENA KOZIŃSKA

18 | TO ZALEŻY MARZEC 2015

GOSPODARKA

zabezpieczenie płynności zarówno w krótkim (LCR), jak i długim (NSFR) horyzoncie. Jednocześnie nakazują więc bankom pozyskanie bardziej długoterminowych źródeł finansowania, aby zrównoważyć w ten sposób długoterminowe aktywa banku. Od lat jednak podstawową funkcją banków była tzw. transformacja terminów, dzięki której pozyskując krótkoterminowe depozyty, udzielały długoterminowych kredytów w celu umożliwienia dalszego rozwoju gospodarczego.Postanowiono również rozważyć poważne reformy strukturalne sektora bankowego. W tym celu powołano specjalne komisje i grupy, których zadaniem było sporządzenie raportów zawierających propozycje zmian. Do najbardziej popularnych należą raporty Vickersa oraz Liikanena. Proponują oni formalne, strukturalne rozdzielenie działalności inwestycyjnej od depozytowo-kredytowej. Choć ustawodawstwo w tym obszarze nie jest tak zaawansowane, jak w przypadku chociażby wymogów kapitałowych, to w Stanach Zjednoczonych wprowadzono już nieco inną formę ograniczenia działalności inwestycyjnej – regułę Volckera. Nakłada ona zakaz angażowania się banków detalicznych w krótkoterminowe transakcje obrotu papierami wartościowymi, instrumentami pochodnymi, kontraktami terminowymi oraz opcjami towarowymi na własny rachunek (tzw. proprietary trading) oraz zakaz posiadania udziałów w funduszach hedgingowych oraz funduszach private equity. Propozycje te należy ocenić pozytywnie. Przedsięwzięciem o dużo większej skali jest projekt unii bankowej3 i związane z nią zmiany w zakresie regulacji bankowych. W tym obszarze uruchomiono już jednolity nadzór finansowy (SSM, ang. Single Supervisory Mechanism), a na etapie wdrażania jest także jednolity mechanizm restrukturyzacji i uporządkowanej likwidacji banków (SRM, ang. Single Resolution Mechanism). Zapomniano jednak (celowo) o wspólnym, ale przede wszystkim kosztownym, jednolitym systemie gwarantowania depozytów. Proponowana unia bankowa jest zatem niekompletna, przez co niekoniecznie efektywna. W całym tym „regulacyjnym zamieszaniu” nie zapomniano jednak podjąć również próby walki z globalnymi instytucjami ważnymi systemowo (tzw. G-SIFIs, ang. Global Systemically Important Financial Institutions). Jednym z elementów ograniczania ich potencjalnego negatywnego wpływu na gospodarkę w czasie kryzysu są najnowsze propozycje dotyczące wymogu TLAC (ang. Total Loss Absorbency Capacity). Przewidują one konieczność utrzymywania przez największe instytucje odpowiedniej wielkości zobowiązań w formie papierów wartościowych podlegających umorzeniu lub konwersji na kapitał, tak aby potencjalnie zmniejszyć potrzeby kapitałowe banków w czasie kryzysu. Propozycja ta jednak wiąże się z daleko idącą ingerencją w struktury finansowania banków.Wszystkie proponowane regulacje bankowe wiążą się z kosztami, które ograniczą efektywność funkcjonowania banków, a w dalszej konsekwencji będą miały negatywny wpływ na tempo wzrostu gospodarczego. W obliczu tego efektu należy

zadać sobie pytanie, czy czasem nie przekroczyliśmy już granicy przeregulowania.

WIĘC JESTEŚMY BEZPIECZNIEJSI CZY NIE?

Analizując ogrom zmian w zakresie regulacji bankowych, można pokusić się o stwierdzenie, że pomysły regulatorów (często niestety polityków) osiągnęły niespotykaną dotąd skalę i budzą niepokój w zakresie możliwego przeregulowania sektora bankowego. Proponowane regulacje nie zawsze są kompletne bądź właściwe. Zdecydowanie bardziej należałoby zatem postawić na jakość regulacji, w szczególności pod względem ich potencjalnego wpływu na gospodarkę. Niewątpliwie nowe regulacje bankowe nie dają gwarancji ochrony przed kolejnym kryzysem finansowym, zarówno ze względu na specyfikę banków (zastosowanie ma tu prawo Goodharta mówiące o konsekwentnym uciekaniu banków ze sfery regulowanej do nieregulowanej) oraz samych kryzysów (będących wynikiem działania wielu czynników, a nie wyłącznie banków). Wobec jednak wielu wad (choć pamiętać należy też o całej gamie zalet) warto byłoby rozważyć, w szczególności z puntu widzenia samych banków, rozwijanie reguł samoregulacji w sektorze bankowym, które w dużo większym stopniu dopasowane byłyby do profilu działalności banków. Wydaje się przecież, że bezpieczeństwo funkcjonowania banków powinno leżeć przede wszystkim w ich interesie…

3.Unia bankowa (tj. zintegrowane ramy finansowe) jest europejskim projektem będącym odpowiedzią na niedoskonałości i braki Unii Europejskiej w zakresie zarządzania kryzysowego. W dużym przybliżeniu przewiduje ona objęcie europejskich banków wspólnym nadzorem (nowym nadzorcą jest Europejski Bank Centralny) oraz ustanowienie wspólnych europejskich zasad restrukturyzacji i uporządkowanej likwidacji banków. W unii bankowej uczestniczą automatycznie wszystkie kraje strefy euro. Kraje spoza strefy euro (jak np. Polska) mogą przystąpić do unii bankowej na zasadzie tzw. „bliskiej współpracy”.

Artykuł wyraża prywatne poglądy autorki i nie należy ich wiązać z instytucją Narodowego Banku Polskiego.

telegraph.co.uk

TO ZALEŻY MARZEC 2015 | 19

GOSPODARKA

CO BYŁO PIERWSZE – KARTA CZY PLASTIK?

Historia kart płatniczych sięga już ponad stu lat. Swój początek miała w Stanach Zjednoczonych w 1894 roku, gdzie pierwsze egzemplarze zostały wydane przez Hotel Credit Letter Company i służyły jedynie do opłacania usług turystycznych. W Polsce ich historia jest jednak zdecydowanie krótsza. W okresie PRL-u Polacy nie mieli dostępu do bezgotówkowych form płatności. Kartami, za sprawą biura podróży Orbis, mogli posługiwać się jedynie cudzoziemcy przebywający na terenie kraju. Zmieniło się to dopiero w roku 1989 – kiedy upadał Mur Berliński, w Polsce wydawano pierwszą kartę płatniczą. Od tego czasu rynek zaczął się rozrastać. Problem stwarzała jedynie forma weryfikacji właścicieli kartoników. W późnych latach 90. do zarejestrowania transakcji potrzebne było urządzenie potocznie zwane żelazkiem.

Sprzedawca odbijał wytłoczony na karcie numer konta oraz imię i nazwisko właściciela, a następnie podpisaną kartkę chował w bezpieczne miejsce. Kartki te były zbiorczo wysyłane do banku w celu uzyskania środków z transakcji. Niekiedy okres rozliczeniowy trwał nawet 3 miesiące. Wszystko zależało od właściciela przedsiębiorstwa handlowo-usługowego. W kolejnych latach ręczne powielacze do kart w pewnym stopniu zautomatyzowały proces dokonywania transakcji. Do zweryfikowania właściciela plastikowego kartonika służyła 3-tomowa księga z numerami kart zastrzeżonych, wydawana przez Visę, MasterCard czy Diners Club. Można sobie wyobrazić, jak długo trwało dokonywanie płatności. Dzisiaj mamy terminale podłączone do Internetu, z łącznością GPRS, Wi-Fi, a nawet bluetooth, a firmy typu VeriFone czy Ingenico prześcigają się, aby dostarczyć coraz to nowsze urządzenia w lepszej technologii.

„Płatności od 10 zł” Przechodzą do lamusa. nowa stawka interchange wybawieniem dla Przedsiębiorców

Przedsiębiorcy od wielu lat żyli w przeświadczeniu, że akceptacja płatności bezgotówkowych jest nieopłacalna. Wysokie koszty za nimi stojące, związane głównie ze stawką interchange spędzały sen z powiek niejednemu właścicielowi punktu handlowo-usługowego przyjmującego płatności kartą. Ostatnie zmiany wskazują jednak,

że sprzedawcy będą mogli spać spokojniej, a kartą będziemy mogli zapłacić nawet za paczkę zapałek.

graf

. Dan

iel N

anes

cu C

C

20 | TO ZALEŻY MARZEC 2015

GOSPODARKA

KARCIANY DUOPOL

Rynek kart płatniczych można podzielić na karty debetowe, kredytowe i obciążeniowe1. Na koniec II kwartału 2014 roku karty debetowe miały ponad 81% udziałów w polskim rynku2. Świadczy to o ich przeważającej roli w systemie płatności bezgotówkowych. Co więcej, liczba kart debetowych wydanych w Polsce stale rośnie rok do roku średnio o 1,4%, podczas gdy liczba kart kredytowych spada. Daje to na chwilę obecną łączny wynik 34,1 milionów sztuk ogółem. Jednak na tle Europy Polska plasuje się dużo poniżej średniej. Na jednego mieszkańca Europy przypada średnio 1,45 karty, gdy w naszym kraju wartość ta wynosi zaledwie 0,84. Trend ten można zauważyć we wszystkich krajach bloku wschodniego. Późna reforma gospodarczo-polityczna przyczyniła się do spowolnienia rozwoju systemu płatności bezgotówkowych. Podobnie sytuacja wygląda z terminalami płatniczymi. Na koniec ubiegłego roku ich liczba wzrosła jednak o 24,1% w porównaniu do poprzednich lat w związku z obniżką opłaty interchange, mimo to ich liczba na chwilę obecną to zaledwie 360 tysięcy sztuk. Najważniejszą rolę w procesie przebiegu transakcji odgrywają organizacje płatnicze. Obecnie funkcjonują takie znane marki jak Visa, MasterCard, Diners Club, American Express czy japońska JCB. Dzięki odpowiednim systemom, w trakcie akceptacji są one w stanie stwierdzić na podstawie pierwszych cyfr numeru karty (numer BIN), do jakiego banku oraz oddziału należy wydany kartonik. Zarabiają one na opłatach pobieranych od każdej z naszych transakcji. Koszty dla przedsiębiorstw handlowo-usługowych, związane z organizacjami płatniczymi, uzależnione są od wielkości transakcji dokonanej w ich punkcie. Są to groszowe sprawy, gdyż bazując na efekcie skali, wspominane organizacje i tak zarabiają duże pieniądze. Zwłaszcza że liczba transakcji bezgotówkowych na całym świecie rośnie w zatrważającym tempie. Obecnie liderami na rynku systemów akceptacji w Europie są Visa i MasterCard. Wiąże się to z korzyściami dla punktów przyjmujących płatności kartami: od materiałów promocyjnych aż po finansowanie miesięcznej opłaty za terminal.

ZBLIŻASZ KARTĘ, 3 SEKUNDY, ODPOWIEDŹ – A JAK TO WYGLĄDA W

PRAKTYCE?

Większość płatników nie zdaje sobie sprawy, co się dzieje w trakcie niespełna 3 sekund od umieszczenia karty w terminalu do wyświetlenia na nim odpowiedzi. Główną rolę odgrywają tutaj trzy instytucje. Agent rozliczeniowy, organizacje płatnicze (np. Visa) oraz bank, jako wydawca karty. Agent rozliczeniowy (acquirer) pełni funkcję pośrednika pomiędzy przedsiębiorstwem handlowo-usługowym (akceptantem) a organizacjami płatniczymi. Rolą acquirera jest zarówno dostarczanie terminali na rynek, jak i przetwarzanie informacji wysyłanych przez urządzenia na język programowy organizacji płatniczych. Od strony praktycznej transakcja polega na zweryfikowaniu, czy osoba, która dokonuje płatności, jest właścicielem karty, co dzieje się dzięki wpisaniu kodu PIN, oraz czy klient ma środki na koncie. Takie zapytania są kodowane w terminalu i wysyłane do agenta

Visa 60%

MasterCard 38%

Reszta 2%

Podział rynku kartowego w Polsce między organizacje płatnicze

Źródło: Opracowanie

własne na podstawiedanych Europejskiego

Banku Centralnego

1.Karta obciążeniowa to karta płatnicza, która swoją funkcjonalnością przypomina kartę kredytową. Do karty obciążeniowej jest jednak przypisane konto, z którego w ustalonych odstępach czasu pobierane są kwoty na pokrycie zobowiązań z okresu poprzedniego. Daje to mniejszą elastyczność spłat zadłużenia narosłego na karcie, niż w przypadku karty kredytowej, kiedy to możemy spłacić zadłużenie bez dodatkowych kosztów w dowolnym momencie trwania okresu bezodsetkowego (z reguły ostatnie 21 dni z 51-dniowego okresu rozliczeniowego).2.Wszystkie statystyki dotyczące systemu płatności bezgotówkowych w Polsce pochodzą z raportu: Narodowy Bank Polski. Departament Systemu Płatniczego, Analiza funkcjonowania opłaty interchange w transakcjach bezgotówkowych na rynku polskim, Warszawa, styczeń 2012.

TO ZALEŻY MARZEC 2015 | 21

GOSPODARKA

rozliczeniowego, który je rozkodowuje, przetwarza we własnych systemach, koduje ponownie i wysyła do organizacji płatniczej. Tam zapytanie jest ponownie rozkodowywane i sprawdzany jest numer identyfikacyjny wydawcy karty, który w naszym kraju jest nadawany bankom przez Krajowy Rejestr Kart Identyfikacyjnych. Dzięki temu numerowi organizacja płatnicza jest w stanie wysłać zapytanie o środki na koncie do odpowiedniego banku i jego oddziału. W przypadku kiedy środki są dostępne, odpowiedź o akceptacji transakcji wraca tą samą drogą do terminala. Z takim procesem wiążą się oczywiście koszty. Najważniejszą stawką, która jest w ostatnich dniach na językach przedsiębiorców jest opłata interchange. Jest to stawka procentowa pobierana od wartości transakcji, przekazywana przez agenta rozliczeniowego do banku wydawcy karty. Jej wysokość jest ustalana przez ustawę o usługach płatniczych. Jeszcze kilka lat temu wynosiła ona 4,8% wartości transakcji, rok temu została obniżona do 0,5%, ale to nie koniec obniżek. Poza samą opłatą interchange należy również doliczyć opłaty groszowe dla organizacji płatniczych, jest to średnio 8-10 groszy od transakcji. Na tym jednak nie koniec kosztów. Ważna również jest marża samego agenta rozliczeniowego, której nie da się jasno określić, gdyż w dużej mierze zależy od obrotów przedsiębiorstwa oraz branży, w jakiej działa sprzedawca. Gdyby na przykładzie transakcji wartej 100 złotych przeanalizować, ile z tego dostaje punkt przyjmujący płatność, to na koniec okazałoby się, że na konto akceptanta spływa zaledwie około 98,90 złotych3.

DA SIĘ NIŻEJ?

Ostatni oraz nadchodzący rok to pasmo zmian w systemie płatności kartowych. W 2009 roku polski rząd rozpoczął „Program redukcji opłat kartowych w Polsce”, którego założeniem było, aby do 2017 roku zmniejszyć stawkę z 1,1% do 0,7%4. Co osiągnęli? Trzeba przyznać, że efekt ich pracy budzi podziw. W styczniu 2014 roku wszedł w życie projekt ustawy o zmianie ustawy o usługach płatniczych, na mocy którego stawka interchange została zmniejszona do 0,5%5. Był to przełomowy krok. Dzięki takiej zmianie liczba terminali płatniczych wzrosła o 24,1% w porównaniu do roku 2013, a liczba transakcji bezgotówkowych wzrosła o prawie 10%6. Co więcej, dwa miesiące temu została wdrożona w życie kolejna ustawa, która obniżyła stawkę interchange do poziomu 0,2 % dla kart debetowych i 0,3% dla kart kredytowych. Prognozuje się, że ilość kart wydanych w najbliższych miesiącach wzrośnie o 0,16%7, czyli o ponad 51 tysięcy egzemplarzy. Można się więc spodziewać, że w kolejnych latach tempo rozwoju systemu płatności kartami zacznie się

zwiększać. Liczba punktów ograniczających klientów co do wysokości przyjmowanych transakcji, jak i liczba „popsutych” terminali drastycznie zmaleje. Wreszcie biznes zacznie się opłacać. Ale czy dla wszystkich?

KOMU ODBIJE SIĘ TO CZKAWKĄ?

Jak zatem banki reagują na zmniejszające się przychody z tytułu dokonywanych transakcji? Rok temu instytucje finansowe rozpoczęły kampanie reklamowe promujące korzyści z faktu wydawania pieniędzy za pomocą karty płatniczej. Przychody są dla nich na tyle wysokie, że są w stanie przydzielać rabaty właścicielom kart. „Wydaj 1000 złotych, a dostaniesz 200 złotych rabatu na produkty” – takie i inne hasła da się jeszcze usłyszeć w telewizji. To się jednak może zmienić w najbliższym czasie. Po 1 stycznia weszły w życie nowe przepisy dotyczące programów cashback, czyli zwrotu przez bank części wydatków. Zgodnie z interpretacją przepisów przez Urząd Skarbowy, każdy kto otrzyma np. rabat w postaci punktów o wartości 100 złotych na nową lodówkę, będzie musiał oprowadzić z tego 19 złotych podatku – czy z tego rabatu skorzysta, czy nie. Zdaniem fiskusa już samo przyznanie rabatów uprawniających do zakupów po niższej cenie jest dla klienta banku przychodem, od którego należy odprowadzić 19% podatku. Jak widać, skutki obniżenia opłaty interchange może również odczuć zwykły Kowalski. Pojawia się jednak pytanie o powszechność tej wiedzy i skuteczność w egzekucji wspomnianego przepisu. Sektor kartowy, a co za tym idzie, również płatności bezgotówkowych, jest jednym z najszybciej rozwijających się rynków w Polsce, w którym bezapelacyjnie kluczową rolę odgrywa opłata interchange. Czy należy spodziewać się zatem kolejnej obniżki? Tego niestety nie da się jasno stwierdzić. Można się jednak spodziewać, że coraz częściej wydruki z terminali płatniczych będą zastępowały w kasie tradycyjną gotówkę, a biznes będzie się kręcić.

MAREK TRĄBIŃSKIStudent III roku Finansów, Inwestycji i Rachunkowości na Wydziale Nauk Ekonomicznych. Aktywny członek Koła Naukowego Strategii Gospodarczej UW. Współorganizator dwóch wydarzeń z cyklu „Dzień Dawcy Szpiku” projektu fundacji DKMS. Zawodowo związany ze spółką ITCARD S.A. w obszarze sprzedaży i obsługi terminali płatniczych.

3.Oszacowanie dotyczące kosztów płatności kartowych zostało przeprowadzone przez autora niniejszego artykułu; opłata dla organizacji płatniczych jest wyliczona jako średnia dla Visy i MasterCard, natomiast marża agenta rozliczeniowego to średnia z wartości ofert firm: Elavon, eService, FirstData Polcard, Polskie ePłatności, ITCARD, PEKAO SA.4.Zespół Roboczy ds. Opłaty Interchange przy Radzie ds. Systemu Płatniczego, ,Program redukcji opłat kartowych w Polsce, Warszawa, marzec 2012.5.Ustawa z dnia 30 sierpnia 2013 r. o zmianie ustawy o usługach płatniczych, zaczęła obowiązywać 01.01.2014.6.Informację taką opublikował Europejski Bank Centralny.7.Opracowanie własne na podstawie modelu ekonometrycznego wyestymowanego na bazie danych z 2011 roku dla 27 krajów Unii Europejskiej.

22 | TO ZALEŻY MARZEC 2015

SKĄD TEN FENOMEN?Kryzys gospodarczy przyczynił się do spadku mocy nabywczej konsumentów, a także do optymalizowania procesów w przedsiębiorstwach. Konsumenci zaczęli zaciskać pasa, więc każdy zakup musiał być dokładnie przemyślany. Z kolei sprzedawcy nie mogli pozwalać sobie na generowanie kosztów, które nie mają pewności szybkiego zwrotu. Na ratunek tej sytuacji przyszedł internet. Umożliwił obydwu agentom zwiększenie poziomu użyteczności. Konsumenci zyskali możliwość łatwego przeglądania ofert czy wyszukiwania atrakcyjnych okazji zakupowych. Ze strony podażowej, z kolei, zauważono, że prowadzenie biznesu drogą internetową jest tańsze, a także minimalizuje poziom strat w przypadku porażki biznesu (z uwagi na niski wkład początkowy i małe ryzyko z tym związane). Dzięki dynamicznemu wzrostowi rynku e-commerce na całym świecie wychodzimy z ery Akerlofa1, przechodzimy na wyższe krzywe obojętności, zyskując dostęp do peniejszej informacji2. Jest to zatem szansa zarówno dla konsumentów, jak

i sprzedawców. Trzeba ją jednak dobrze wykorzystać i mieć na uwadze, że Internet jest dynamiczny, a handel online ma niskie bariery wejścia. Konkurencja jest więc silna i tendencja ta z pewnością nie ulegnie zmianie. Polski e-commerce, aby stawać się coraz bardziej konkurencyjnym, musi prężnie działać na rynku krajowym, ale także aspirować do penetracji międzynarodowej. Klient zawsze był „naszym panem” w sloganie, a teraz, tylko poprzez aplikowanie tego sloganu do mantry e-biznesu, możemy być graczem.

KONSUMENCI W INTERNECIE

Aby zaspokoić potrzeby klientów, trzeba zorientować się, jakie są ich preferencje i na ich realizacji skupić swoje działania. Działalność internetowa powoduje, że musimy wypełniać podstawowe potrzeby w pełni, ponieważ konkurencja jest na tyle silna, że mały błąd może wyeliminować nas z rynku. Okazuje się, że charakterystyki konsumentów w poszczególnych krajach różnią się. Powoduje to, że działania marketingowe także powinny być odmienne w zależności od rynku, który chcemy

obsługiwać. Kluczowe jest dostosowanie swojej oferty do konsumenta. Tylko wtedy mamy możliwość osiągnąć sukces.Zatem należy pamiętać, że preferencje konsumentów różnią się i trzeba do każdego profilu dostosować swoją ofertę. Nie dość, że na polskim rynku nie możemy pozwolić sobie na zignorowanie preferencji polskiego konsumenta, to planując ekspansję za granicę, musimy oferować coraz więcej udogodnień, tak żeby preferencje obcokrajowców również były zaspokojone. Jak zauważa Arne Andersson w raporcie E-commerce in Europe 2014, „największą różnicę stanowi preferowany kanał dokonywania opłaty oraz długość oczekiwania na dostawę produktu”. Różnice te powodują, że precyzyjność w komunikowaniu swojego modelu operacyjnego może mieć istotny wpływ na wielkość sprzedaży. Obok tych różnic wymienić warto także spójne elementy profilu internetowych konsumentów. I tak, pierwszym z nich jest istotna w Europie Południowej i Wschodniej rola niskiej ceny. Aż 63% Włochów uznaje niską cenę za priorytet, ponad połowa Polaków

Nadeszła era powszechnej digitalizacji społeczeństwa. Zyski zbierają najwięksi gracze, którzy w porę dostrzegli potrzebę internetowej penetracji rynku. Sklepy internetowe zdobywają przewagę nad detalicznymi, a zgodnie z prognozami ta dominacja będzie się umacniała. Rozwijający się rynek e-commerce powoduje, że działalność internetowa to już nie zabawa na fan page’ach i dodatek do wizerunku firmy,

a obowiązek każdego, kto chce w ogóle zaistnieć w świadomości konsumentów. Wartość wydatków internetowych w Polsce wzrosła do 37 mld zł (w 2012 roku wynosiła 22 mld zł), czyli prawie tyle co przychody Biedronki w 2014 roku (32 mld zł). Liczba sklepów internetowych wzrosła od ok. 2 tysięcy w 2006 do ponad 13 tysięcy w roku 2014. Polska jest jednak jeszcze w początkowej fazie ery zakupów online. Jak utrzymać tę dynamikę i jakie korzyści może przynieść to polskiej gospodarce i konsumentom?

e-zakuPowa rewolucja

1. Noblista George A. Akerlof, który opisał (wraz z Michaelem Spence’m i Josephem Stiglitzem) rynki cechujące się asymetrią informacji, na których niektórzy mają lepsze informacje od pozostałych.2. Na rynku z pełnym dostępem do informacji konsumenci podejmują racjonalne decyzje, które maksymalizują ich poziom użyteczności.

TO ZALEŻY MARZEC 2015 | 23

GOSPODARKA

IZA WIŚNIEWSKA

3. Dane z raportu firmy PostNord, E-commerce in Europe 2014.4. Raport firmy Bring, The optimal customer journey. E-commerce report 2014.

(55%) uważa tak samo, przy czym odsetek osób z takim przekonaniem w regionie nordyckim to jedynie 38%, a w Niemczech 39%. W Polsce sortowanie według ceny w sklepach internetowych jest często domyślnie używane przez konsumentów. Drugim, bardzo istotnym aspektem jest szybkość dostawy zamówionego produktu. Konsumenci krajów skandynawskich, którzy często dokonują zakupów online na zagranicznych portalach, zdają sobie sprawę z możliwego wydłużenia się czasu transportu. Podobnie Brazylijczycy, którzy aż 11 dni mogą czekać na dostawę zamówionego produktu. W Polsce 72% konsumentów oczekuje dostawy w ciągu 3-5 dni, w Wielkiej Brytanii 76%. Jednocześnie w tych dwóch krajach dostawa w ciągu 1-2 dni oczekiwana jest przez odpowiednio 16% i 12%. W krajach nordyckich ten odsetek to tylko 5%. W porównaniu do innych europejskich państw, są oni najbardziej wyrozumiali dla dostaw powyżej 6 dni (24%), podczas gdy w Polsce odsetek ten wynosi 12%, a w Niemczech tylko 8%3. Niezależnie od regionu, i tak najczęściej oczekuje się, że produkt pojawi się w wyznaczonym przez klienta miejscu w terminie 3-5 dni. Te krótkie terminy stanowią duże wyzwanie dla przedsiębiorstw zajmujących się dostawą oraz obsługą płatności. Procesy te muszą być idealnie skoordynowane i bardzo dynamiczne. Ponownie zagrożeniem jest tu konkurencja, która eliminuje z rynku graczy niespełniających tych wysokich oczekiwań konsumentów. Z uwagi na dbałość o komfort dostawy produktu powstają różne rozwiązania, które pozwalają konsumentowi wybrać ofertę dostosowaną do swoich potrzeb, ale też możliwości. Na polskim rynku system dostaw rozwija się dynamicznie. Poza ofertą kurierską, która zdaje się być najwygodniejsza, rozwijają się także dostawy do punktów odbioru. Powstaje ich coraz więcej. Ostatnio możliwość tę oferuje m.in. kiosk Ruch, stacje paliw Orlen, ale rozwijają się również paczkomaty, które lokalizowane są w pobliżu miejsc często uczęszczanych. Jest to rozwiązanie, które

okazuje się prostsze, niż umówienie się z kurierem na określoną godzinę. Tworzenie punktów odbioru w miejscach, które są blisko domu lub na naszej stałej trasie dojazdu do pracy, powoduje, że zaangażowanie klienta w proces dostawy paczki jest mniejsze, bo punkt odbioru jest zaraz za rogiem. Podobne trendy i preferencje występują za granicą. W Norwegii już 61% osób preferuje

odbiór w punkcie dostawy, podczas gdy dostawa do domu nie jest

przez nich często wybierana. Tę preferują Duńczycy. We wszystkich krajach istotną rolę przy etapie wyboru metody dostawy odgrywa

bezpieczeństwo dostawy oraz cena, ale także

zaufanie, że paczka dotrze na miejsce

wtedy, kiedy konsument jej

oczekuje4.

CO STOI NA PRZESZKODZIE?

Dla Polskiego rynku e-commerce zagrożeniem jest tzw. efekt ROPO (research online, purchase offline). Klienci, którzy dostrzegli korzyści w przeglądaniu ofert online, mogą swoją przygodę zakupową w internecie zakończyć na wyborze produktu, ale sam zakup przeprowadzić już w sklepie detalicznym. Wynika to z potrzeby zobaczenia na żywo produktu, który chcemy nabyć. Jednak w efekcie sprzedawcy online tracą udział w rynku. Z drugiej strony znajomość tego zagrożenia powoduje, że coraz więcej firm decyduje się na pójście obydwiema ścieżkami. Najczęściej obserwujemy, że znane marki, do tej pory dostępne tylko w placówkach, otwierają swoje domeny także w internecie. Tam konsument może zapoznać się z ofertami różnych firm i wybrać tę, która spełnia jego oczekiwania w największym stopniu. Sklepy idą jednak dalej poza możliwości przeglądania obecnej oferty. Widoczny jest już rozwój sklepów online m.in. z artykułami spożywczymi z

zmożliwością dostawy do klienta. Oferują to już takie sklepy jak Auchan, Tesco czy E.Leclerc. Im więcej firm zdecyduje się na takie działanie, tym większa będzie konkurencja, która skutkować może coraz niższymi warunkowymi kosztami dostawy. Czyli ponownie, ostatecznym beneficjentem rozwoju e-handlu jest konsument, który nie dość, że zyskuje dostęp do informacji, to cały proces zakupów, który często jest codziennym obowiązkiem, może przeprowadzić w domowym zaciszu. Aby walczyć z odwróconym efektem ROPO sprzedawcy internetowi luzują politykę zwrotów i gwarancji. Obecnie, zgodnie z ustawą, klient ma 14 dni na zwrot towaru zakupionego przez internet bez podania przyczyny. W rzeczywistości większość sklepów oferuje dłuższy termin, więc możemy bezpiecznie kupić produkt online, zobaczyć go na żywo i zwrócić. Coraz więcej e-sklepów oferuje także darmowe zwroty, co jeszcze bardziej ma zachęcić do kupowania.Widać, że konkurencja na rynku e-commerce rośnie, a korzyściami będą cieszyć się klienci, którzy zyskają na niższych cenach, szybszych dostawach i niższym ryzyku dokonania błędnego zakupu. Sprzedawcy muszą nieustannie dbać o swoją pozycję, poznawać preferencje konsumentów i edukować się biznesowo, aby nie popełniać błędów, które mogą wykluczyć ich z rynku. Polską dynamikę rozwoju rynku e-commerce uda się utrzymać właśnie poprzez skierowanie swojej uwagi na konsumenta, który w internecie z dużą łatwością może zrezygnować z zakupu. Rozwój rynku e-commerce będzie postępować także naturalnie wraz ze wzrostem zasięgu internetu w Polsce. Obecnie już 71% Polaków ma dostęp do sieci, ale procent ten cały czas rośnie. Zatem dynamika rozwój rynku e-commerce nie jest zagrożona. Zakupy online będą stawały się coraz bardziej powszechne.

19,2 mln Polaków dokonało już zakupu online

Studentka International Economics na Wydziale Nauk Ekonomicznych UW. Redaktor naczelna magazynu „To Zależy”. Stypendystka Think Paga! Akademia Analiz i Mediów Fundacji im. Lesława A. Pagi. Członkini Koła Naukowego Strategii Gospodarczej UW. Współautorka raportu o rynku e-commerce pt.: „E-commerce: Jak sprostać wyzwaniom dynamicznego rozwoju i stać sie dominującym graczem?”

Raport o rynku e-commerce mojego współautorstwa pod adresem: http://www.paga.org.pl/_ftp/RAPORT_eCommerce_Think_Paga_FINAL.pdf

ŹRÓDŁO STRATEGII I PRZEMIAN

Omawiane pojęcie pojawiło się w latach 80. ubiegłego stulecia, a jego stworzenie było wynikiem konieczności dostosowania sposobu gospodarowania, czy też zarządzania, do zmieniających się parametrów otoczenia. Oto bowiem stojąc w obliczu dynamicznego rozwoju nowoczesnej technologii oraz transformacji społeczeństwa w informacyjne, należało poważnie zastanowić się nad sensem funkcjonowania gospodarki przemysłowej. Centrum zainteresowania musiało przesunąć się z kapitału rzeczowego (ziemi, siły roboczej, surowców) na kapitał bytów niematerialnych, takich jak właśnie wiedza, informacja, innowacje czy sama idea. Warto zaznaczyć, że pod omawianym tutaj pojęciem kryje się oczywiście głównie wykorzystanie wiedzy w procesie produkcji i dystrybucji, ale również samo tworzenie owej wiedzy. Kluczowe znaczenie zdaje się mieć umiejętność skutecznego wykorzystania pozyskanych informacji. Co za tym idzie, nacisk musi zostać również przesunięty na elastyczność – należy szybko i skutecznie dostosowywać pracę, samych siebie oraz całą organizację do innowacji, które stymulują produktywność. I choć towarzyszyć nam może niepewność – szybki rozwój oznacza szybkie zmiany, nie tylko naszej organizacji, ale również całego otoczenia – to wiedza, informacja i solidne kompetencje pracowników pozwalają lepiej na owo zaskoczenie się przygotować. Jak więc widzimy, nowoczesny model gospodarki niesie ze sobą konieczność transformacji organizacji pracy oraz całej strefy społecznej – powstaje oto w towarzystwie GOW-u nowa kultura życia, pracy i postrzegania gospodarki. Doskonałym podsumowaniem omówionej pokrótce transformacji zdaje się być myśl amerykańskiego socjologa, Daniela Bella, który stwierdza: „wiedza i informacja stały się źródłem strategii i przemian społeczeństwa, czyli tym samym, co kapitał i praca w społeczeństwie przemysłowym”.

CEL - PRODUKTYWNOŚĆ

Wyróżnia się cztery determinanty GOW-u: kapitał ludzki, wyższe uczelnie i instytucje naukowo-badawcze, instytucje finansowe i kredytowe oraz infrastrukturę teleinformatyczną. Najbardziej interesujące wydają się być pierwsze dwa. Kapitał ludzki to swoista podstawa gospodarki opartej na wiedzy. Siłą napędową

gospodarek jest postęp technologiczny, stymulowany właśnie kapitałem ludzkim, czyli między innymi wiedzą. Innowacje bowiem, od których wszystko zależy w modelu GOW, powstają dzięki zastosowaniu wiedzy przez ludzi. Pracownicy muszą odznaczać się oczywiście wysokimi kwalifikacjami, sporą mobilnością, a przede wszystkim kreatywnością.Nietrudno odkryć, iż cztery determinanty gospodarki opartej na wiedzy są ze sobą ściśle powiązane – przyglądając się bowiem drugiemu z nich, widzimy, że to właśnie on musi produkować ów „kapitał ludzki”. Instytucje naukowo-badawcze dostarczają wiedzy i powinny zasilać rynek kreatywnymi jednostkami gotowymi do tworzenia nowoczesnej gospodarki. Do niesamowicie ciekawych wniosków może doprowadzić nas analiza teorii wzrostu Romera, czy też Roberta Solowa. Cel jest bowiem zawsze ten sam – zwiększenie produktywności. Pragniemy tego samego: wytwarzania szybciej i więcej, jednocześnie dostarczając produkty do wszystkich i niwelując przy tym różnice społeczne, co otworzyć może jeszcze szerszy i niesamowicie zajmujący temat. Jeśli chcemy świadomie uczestniczyć, czy choćby śledzić proces transformacji, dodatkowa lektura w postaci przybliżenia sobie owych teorii może okazać się kluczowa. Podstawowym warunkiem, by wszystko przyniosło pożądane rezultaty, jest ścisła i dobrze funkcjonująca współpraca między światem biznesu i nauki. Należy podkreślić, że zaniechanie rozwoju któregokolwiek z elementów kluczowych dla gospodarki opartej na wiedzy stanowi barierę, której nie sposób przekroczyć, nawet w sytuacji, gdy pozostałe czynniki świetnie funkcjonują.

SZANSA CZY WYZWANIE NIE DO PODJĘCIA?

Jak nietrudno dostrzec, możliwość budowania modelu nowoczesnej gospodarki jest silnie zależna od warunków, w jakich funkcjonuje dane otoczenie. Poczynając od kraju, który musi prowadzić politykę sprzyjającą rodzeniu się innowacji, aż po wgląd w odpowiedni rozwój regionów. Budowa czegokolwiek nowego, a już z pewnością „nowej gospodarki”, zawsze jest uwarunkowana lokalnie. Podkreślić to należy szczególnie, gdy chcemy się zastanowić nad tworzeniem owej gospodarki w Polsce, gdyż przy każdych próbach podjęcia reform ogólnokrajowych czynnikiem utrudniającym jest zróżnicowanie rozwoju regionów.Innowacje wiążą się oczywiście z inwestycjami – dlatego

gosPodarka oParta na wiedzy – Podołamy wyzwaniu?

G lobalność, wielka waga informacji, wzrost znaczenia różnorakich innowacyjnych idei – dla nikogo chyba nie jest tajemnicą, że żyjemy właśnie w takiej erze. Wszyscy jesteśmy mieszkańcami globalnej wioski, w której informacja rozprzestrzenia się z prędkością światła. Czynniki wymienione powyżej to nie tylko świetnie

opisujące współczesne realia zjawiska, ale również podstawowe elementy gospodarki opartej na wiedzy (GOW). Model ten w ostatnich latach zyskuje na popularności, okazuje się efektywny i zdaje się skrywać jeszcze większy potencjał, niż do tej pory zostało to ukazane. Warto więc zastanowić się, czym tak naprawdę jest oraz na czym polega owo gospodarowanie oparte na wiedzy.

24 | TO ZALEŻY MARZEC 2015

GOSPODARKA

kluczowym wyznacznikiem konkurencyjności danego regionu jest jego zdolność do przyciągnięcia inwestycji. W Polsce istnieją regiony wysoko rozwinięte i dobrze uprzemysłowione, które dzięki przyciąganiu zagranicznych inwestorów oraz efektywnemu wykorzystaniu Funduszy Strukturalnych Unii Europejskiej stanowią doskonałą bazę do powstania nowej gospodarki. Wyzwaniem, któremu Polska musi stawić czoło, jeśli chce sprostać transformacji gospodarki na nowoczesną, jest podniesienie i wyrównanie poziomu innowacyjności regionów tak, by gospodarka owa zyskała charakter ogólnokrajowy, a nie tylko lokalny. Powstało już w naszym kraju mnóstwo inicjatyw, które służąc pobudzeniu innowacyjności, przyczyniają się do podążania we właściwym kierunku, takich jak choćby działające w wielu miejscach inkubatory przedsiębiorczości. Coraz mocniej nagłaśniana jest również konieczność współpracy świata nauki (w szczególności młodych ludzi) z gospodarką i światem biznesu. Nie da się ukryć, że jest to chyba najbardziej pożądany kierunek rozwoju. Polska przy próbie transformacji gospodarki największe złoża potencjału może odkryć właśnie wśród młodych ludzi. Najciemniej bywa pod latarnią i prawdopodobnie wcale nie należy szukać daleko. Przy rozsądnym i zrównoważonym rozwoju gospodarka oparta na wiedzy przynieść może ogromne korzyści dla przyszłości młodych Polaków. Odnotować jednak należy, że rola rozwoju nauki i pola badawczego wciąż wydaje się w naszym kraju nieco niedoceniona.

DLACZEGO WARTO PODNIEŚĆ RĘKAWICĘ?

Polska przed tym wyzwaniem nie może się cofnąć. Jest to bowiem podstawowe zadanie dla każdego państwa, które dąży do osiągniecia wysokiego poziomu rozwoju. Wystarczy zauważyć, że prekursorami GOW-u są takie kraje jak USA, Japonia, Singapur, Korea Południowa czy też Finlandia. Przed państwami Unii Europejskiej wciąż długa droga i choć część z nich już tę drogę podjęła, to zaległości, choćby względem Stanów Zjednoczonych, są spore. Początkiem zmian była Strategia Lizbońska2, jednak jej cele nie zostały zrealizowane. Drugą próbą stworzenia wytycznych dla państw członkowskich jest strategia rozwoju „Europa 2020”3 – i to właśnie dzięki zastosowaniu jej założeń w gronie prekursorów możemy wymieniać Finlandię. Po reformie gospodarczej, obejmującej naprawę finansów publicznych, pozyskane środki niezwłocznie zainwestowano w sferę edukacyjną, naukową i badawczą. Dzięki inwestycjom w transformację gospodarki na tę opartą na wiedzy, Finlandia dołączyła do krajów najlepiej rozwiniętych i zaawansowanych technologicznie na świecie. Trudno polemizować z faktem, że model GOW jest w obecnych warunkach niezbędny w dobrze działającej i rozwijającej się gospodarce. Przy tak szybkim rozwoju technologicznym nacisk położony na wiedzę i informacje wydaje się czymś oczywistym.W trakcie wdrażania nowego modelu gospodarki trzeba będzie pokonać wiele barier. Jedną z nich jest z pewnością słabość systemu finansów publicznych, a dokładniej mówiąc nieefektywna

struktura budżetu państwa. Stopniowa transformacja polskiej gospodarki na nowoczesną wymaga zgromadzenia sporych środków inwestycyjnych, co jest niemożliwe przy obecnym stanie rzeczy. Kolejną przeszkodą okazać się może wciąż niski poziom wykorzystania nowoczesnych technologii. Poprawę sytuacji przyniosłaby być może reforma szkolnictwa – taka, by uczelnie wyższe rozwijały kierunki powiązane z nowoczesną gospodarką. Nie ma jednak konieczności gruntownych reform edukacji w Polsce, mowa jedynie o pewnych „kosmetycznych” ulepszeniach. W znacznie gorszym stanie znajduje się infrastruktura informacyjna. Słabo rozwinięta sieć teleinformatyczna i telekomunikacyjna sprawia, że przepływ informacji oraz wiedzy w naszym kraju nadal nie stoi na poziomie, który pozwoliłby na swobodny rozwój nowoczesnej gospodarki. Choć Polska zdaje się być na dobrej drodze, to przed nami wciąż wiele kroków do zrobienia, a wymagane reformy prawdopodobnie będą drogie i czasochłonne. Oby tylko okazały się możliwe.

CHCIEĆ TO MÓC

Dla nas, młodych ludzi, zwrócenie uwagi na to, że świat biznesu i cała gospodarka powinna ściśle współpracować ze światem nauki, wiedzy oraz kłaść nacisk na innowacje, jest ogromną szansą. Otwiera to szeroko drzwi dla każdego, kto zechce z tego wejścia skorzystać. Zamiast roztkliwiać się nad tym, że szczegółowo i mozolnie przekazywana nam teoria „nigdy się nikomu do niczego nie przyda”, warto więc wziąć parę głębokich wdechów i zastanowić się, co sami od siebie możemy do teorii i wiedzy dorzucić. Polska może odnaleźć w młodych ludziach główną szansę na skuteczną transformację. Jest jednak druga strona medalu – młodzi ludzie muszą stać się kreatywni oraz proaktywni. Powinni być gotowi do transformacji, która być może jest bardziej realna, niż mogłoby się to wydawać. Konieczne jest zatem pobudzenie wpierw samych siebie – do rozwoju i samodoskonalenia. Wyjście nieco poza schematy akademickie może pozwolić na otwarcie oczu, zrozumienie czegoś lepiej i mocniej, niż inni, a co za tym idzie, stworzenie własnej idei, zaproponowanie swojej innowacji. Gospodarka oparta na wiedzy wymaga od poszczególnych regionów coraz większej konkurencyjności, a w miarę rozwoju poprzeczka powinna się podnosić. Najszybciej zmieniające się regiony zyskają najwięcej. Konkurencyjność wymagana będzie również od pracowników. A okazji do wyjścia poza przeciętność jest przecież sporo, wystarczy chcieć oraz pamiętać, że to od nas tak naprawdę zależy wszystko.

IZABELA WALASZEK

1.Daniel Bell, The coming of post-industrial socjety. A venture in social forecasting, Nowy Jork, 1973.2.Strategia Lizbońska była dziesięcioletnim planem rozwoju przyjętym przez Unię Europejską w 2000 roku, miała na celu zniwelowanie różnic między krajami Europy a USA. Jej głównym założeniem była innowacyjność i maksymalne wykorzystanie badań naukowych, wzrost procentu zatrudnienia oraz zredukowanie biurokracji i innych utrudnień dla przedsiębiorczości. Niestety, już w 2004 roku okazało się, że strategia była zbyt ogólna, słabo koordynowana i zabrakło zaangażowania państw członkowskich, czego skutkiem było dodatkowe powiększenie różnic między Europą a Stanami Zjednoczonymi.3.Europa 2020 to kolejny dziesięcioletni plan rozwoju dla UE, podjęty w 2010 roku, mający pomóc skorygować niedociągnięcia europejskiego modelu wzrostu gospodar-czego. Wytyczono pięć głównych celów, obejmujących zatrudnienie, badania i rozwój, edukację, klimat i energię, integrację społeczną i walkę z ubóstwem.

TO ZALEŻY MARZEC 2015 | 25

GOSPODARKA

Studentka I roku Międzykierunkowych Studiów Ekonomiczno- Menedżerskich na Wydziale Nauk Ekonomicznych UW. Członkini KNSG oraz redakcji „To Zależy”. Jej zainteresowania to zarządzanie sportem, ekonomia społeczna, dziennikarstwo oraz filmy dokumentalne.

26 | TO ZALEŻY MARZEC 2015

GOSPODARKA

NA ROZMOWIE KWALIFIKACYJNEJ

Każdy zna to uczucie ścisku w żołądku przed ważnym spotkaniem. Uda się czy się nie uda? Dostanę tę pracę, a może konkurencja okaże się lepsza? Myśli błądzą wtedy po głowie jak oszalałe. Przychodzi nasza kolej – nasze pięć minut. To one zdecydują, czy zostaniemy zatrudnieni w firmie marzeń, czy też nie. Przedstawiając pracodawcy swoje najlepsze umiejętności oraz cechy, tak naprawdę próbujesz sprzedać mu najlepszy produkt – siebie. Każdy dobry sprzedawca potrafi zaprezentować dany wyrób tak, aby klient chciał go kupić. Znając więc pewne techniki sprzedaży, wyprzedzasz swoją konkurencję! Odpowiednie zaprezentowanie swoich atutów oraz przedstawienie pracodawcy korzyści, jakie otrzyma po zatrudnieniu Ciebie, jest już połową sukcesu. Jak często zarządzający zatrudniają mniej wykwalifikowaną osobę tylko dlatego, że lepiej wypadła na rozmowie kwalifikacyjnej? Pamiętajmy, że umiejętności twarde są bardzo istotne, ale w dzisiejszych czasach nie zapewniają nam stuprocentowego sukcesu. Dowiedz się więc, jak je sprzedać! Pracodawca musi być świadomy, że wybierając Ciebie, dokonuje dobrej decyzji. Przed rozmową kwalifikacyjną przeprowadź badanie potrzeb – sprawdź, czego konkretnie oczekuje od Ciebie przyszły zatrudniający. Pozwoli Ci to przygotować się np. po przez wypisanie swoich zalet, które będą cenne dla firmy lub odpowiednie przygotowanie CV. Używaj języka korzyści! Zamiast mówić, że nie masz doświadczenia, powiedz lepiej, że szybko się uczysz.

POLEPSZ SWOJE RELACJE

Jak często próbowałeś nakłonić bliską Ci osobę do wykonania pewnej rzeczy? Nie mówię, już o tak trywialnych czynnościach jak zmywanie naczyń, czy wyniesienie śmieci. Załóżmy

jednak, że wpadłeś na genialny pomysł i chcesz przekonać do tego swoją rodzinę. Czy nie możemy tego nazwać sprzedażą? W końcu sprzedawca również próbuje przekonać klienta do pewnej wizji. „Niech pani zobaczy jak nogi pięknie wyglądają w tych szpilkach!”, „Sąsiedzi będą panu zazdrościć nowego samochodu!”. Dobry przedstawiciel handlowy nie próbuje sprzedać produktu, on sprzedaje dobre uczucia związane z jego zakupem. Pomyśl w podobny sposób. Chcąc nakłonić bliskich do zdrowego odżywiania, powiedz : „Dzięki temu

będziesz miała szczupłą sylwetkę, będziesz świetnie wyglądała w tym bikini, które kupiłaś sobie zeszłego lata!” zamiast mówić po prostu „Ale to jest zdrowe!”. Musisz dopasowywać argumenty do

osoby. Każdy z nas jest inny, więc te same słowa nie będą przekonywać wszystkich. Sprzedaż jest trochę podobna do dyplomacji. Próbujesz nakłonić kogoś do swojego zdania, ale w taki sposób, by nie czuł się tym urażony. Właśnie z tego powodu słuchanie jest najważniejszą rzeczą, jakiej musisz się nauczyć. Dopiero efektywne wysłuchanie obiekcji pozwoli Ci dobrać odpowiedni argument do jej zbicia. Dzięki tej umiejętności polepszysz swoje relacje z innymi i będziesz mógł wywierać na nich większy wpływ, a Twoje pomysły będą witać się z większym entuzjazmem.

ZOSTAŃ ŚWIADOMYM KLIENTEM

Specjaliści ds. marketingu z poznańskiego oddziału firmy Wrigley twierdzą, że przeciętny konsument widzi około 200 marek na minutę1! Przerażający wynik, prawda? Przez natłok informacji i reklam klientom coraz trudniej podjąć dobrą decyzję. Wiele zależy więc od tego, na jakiego sprzedawcę trafimy. Jak twierdzi John McKean, „70% naszych decyzji zakupowych podejmujemy w oparciu o to, jak jesteśmy traktowani jako ludzie, a tylko 30% bazuje na właściwościach produktu”2. Znając więc techniki sprzedaży, będziesz mógł obiektywniej

Ludzie, słysząc słowo sprzedawca, często mają przed oczami obraz telemarketera, który nęka ich telefonami. To negatywne skojarzenie, jakiego uczą media, powoduje, że wielu z nas lekceważy rolę, jaką niosą ze sobą umiejętności sprzedażowe. A rola ta jest ogromna!

70% naszych decyzji zakupowych podejmujemy w oparciu o to, jak

jesteśmy traktowani jako ludzie, a bazuje na właściwościach produktu 30%

1. Autorka miała przyjemność osobiście spotkać się ze wspomnianymi specjalistami i poznać tę ciekawostkę na jednym ze szkoleń organizowanych przez Uniwersytet Ekonomiczny w Poznaniu: „Wpływ mediów na wielkie marki”.2. John McKean, Customers are people. The human touch, 2002.

TO ZALEŻY MARZEC 2015 | 27

GOSPODARKA

ocenić zalety produktu, ponieważ „czar” przedstawiciela handlowego nie będzie już na Ciebie tak mocno oddziaływał. W końcu będziesz znał jego sztuczki! Pamiętaj jednak, że nie każdy sprzedawca chce Cię „naciągnąć”, większość pracowników sklepów naprawdę stara się pomóc kupującym. Jednak umiejętności sprzedażowe pozwolą Ci uchronić się przed oszustami, których niestety nie brakuje. Warto na przykład wiedzieć, jak wygląda tzw. metoda „kanapki”. Polega ona na tym, że sprzedawca, przedstawiając ofertę, mówi na początku i na końcu o korzyściach dla klienta – są to jak gdyby dwie kromki chleba. Szynka, która znajduje się w środku kanapki, to wady produktu: wysoka cena czy długoletnia umowa. Sprzedawca robi to celowo, ponieważ ludzie skupiają się przede wszystkim na tym, co usłyszeli na początku i na końcu rozmowy. W ten sposób przedstawiciel handlowy umniejsza negatywne aspekty produktu i tym samym zwiększa swoje szanse na zawarcie transakcji.

ZMIEŃ SIEBIE

Uczestnicząc niedawno w szkoleniu on-line dotyczącym sprzedaży, usłyszałam zdanie, które bardzo mnie poruszyło: „Sprzedaj sobie jakiś wspaniały pomysł na życie”. Każdy z Nas ma marzenia czy plany. Czasami wydaje się nam, że są one nieosiągalne, a wcale tak nie jest! Jak to powiedział Grzegorz Celeban: „Sprzedaż jest sztuką przekonywania samego siebie”3. Jest to trudne, ale jeżeli Ci się uda, będziesz czerpał ze swojego życia pełną satysfakcję. Miej wizję i podążaj za nią. Przekonaj siebie, że dasz radę! Najtrudniejszy jest pierwszy krok, potem wszystko staje się coraz łatwiejsze.

WSZYSTKIEGO MOŻNA SIĘ NAUCZYĆ

Często słyszę, że aby zostać sprzedawcą, trzeba się już takim urodzić. Oczywiście, niektórzy ludzie mają do tego predyspozycje. Wszystkiego jednak można się nauczyć!

Przykładem jest trener rozwoju osobistego Brian Tracy, który w swoich książkach przyznaje, że był bardzo nieśmiały, a jego początki były trudne. Jak doskonale widać na jego przykładzie, można przezwyciężyć wszystkie trudności, o ile są na to wystarczające chęci. Dlatego jeżeli brakuje Ci pewności siebie, nie rezygnuj! Jest wiele książek, które pomagają zwalczyć wrodzoną nieśmiałość. Również w internecie dostępne są informacje o bardzo ciekawych szkoleniach z tego zakresu. Wystarczy tylko trochę czasu i odrobiny wysiłku, a efekty na pewno będą spektakularne! Tłumaczenie się genami jest tylko kolejną wymówką, którą dla siebie tworzymy.

JAK WIĘC ZACZĄĆ?

Czytać! Jest to najtańszy i najwygodniejszy sposób zdobywania wiedzy. Jest on również na tyle wygodny, że Ty sam decydujesz o miejscu i czasie nauki. Jest kilku znanych i cenionych autorów, od których warto zacząć. Są to między innymi: wspomniany już Brian Tracy (Psychologia sprzedaży, 2007), Singer Blair (Psy sprzedaży, 2011), Konrad Pankiewicz oraz Aleksander Sienkiewicz.

WYMIERNE KORZYŚCI

Najlepsi sprzedawcy na całym świecie zarabiają ogromne sumy pieniędzy. Ta jedna umiejętność, ciągle szkolona, doprowadziła takich ludzi jak Brian Tracy, Donald Trump (majątek szacowany

na 3,9 miliardów dolarów) czy Jordan Belfort (zarabia ok. 30 tysięcy dolarów za jednorazowe wystąpienie) do ogromnych zysków. Pamiętaj więc, że sprzedaż nie tylko ułatwia nam życie, ale jest również świetnym sposobem wzbogacania się. Jak pokazują badania przeprowadzone przez Page Personnel w 2013 roku, przedstawiciel handlowy w obszarze B2B zarabia średnio ok. 5500 złotych4. Za to kierownik ds. kluczowych klientów (Key Account Manager) może już liczyć na zarobki rzędu 10 tysięcy złotych, oczywiście dochodzą do tego również dodatkowe premie oraz prowizje. Jest to więc kolejny i jakże istotny argument do rozpoczęcia pracy nad swoimi umiejętnościami w tym zakresie. Mam nadzieję, że kupisz moją wizję i wprowadzisz ją w swoje życie. Gwarantuję Ci, nie będziesz tego żałował!

Nicole Machnio

Źródło: https://www.akademiaparp.gov.pl/pigulka-wiedzy/93/cene-podawaj-w-kanapce

3. Grzegorz Celeban jest trenerem personalnym specjalizującym się w technikach sprzedaży. Swoją wiedzą dzieli się w audiobookach oraz podczas licznych wystąpień. Cytat pochodzi ze szkolenia zorganizowanego przez firmę Milewski&Partnerzy w dniu 11.12.2014.4. Informacje na temat zarobków pochodzą z raportu Przegląd płac. Sprzedaż i marketing. Polska 2013, Warszawa, kwiecień 2013, online na www.proprogressio.pl.

Studentka pierwszego roku UEP na kierunku: Finanse i rachunkowość. Prowadzi własnego bloga – projektwytrwalosc.blogspot.com na temat motywacji i rozwoju osobistego. Sprzedawca z dwuletnim doświadczeniem.

28 | TO ZALEŻY MARZEC 2015

ŚWIAT

CO JEST GRANE?

Warto rozpocząć od przedstawienia sytuacji geopolitycznej oraz statystyk opisujących funkcjonowanie światowego rynku ropy. Globalna podaż oraz zużycie ropy naftowej i uzyskiwanych +w trakcie jej rafinacji produktów (głównie NGL, Natural Gas Liquids) wynosi około 92 milionów baryłek na dzień1, gdzie jedna baryłka to w przybliżeniu 159 litrów. Sama ropa naftowa stanowi ok. 85% tej ilości, a pozostałą część stanowią produkty petrochemiczne, wykorzystywane m.in. w butlach gazowych. Zarówno popyt, jak i podaż wzrosły o około 10% w stosunku do poziomów w roku 2009. Główni producenci ropy i jej pochodnych zostali wskazani na załączonej mapie wraz z odpowiadającym im wydobyciem. Państwa te są również eksporterami ropy naftowej. Wyjątek stanowią Chiny oraz USA, które zmuszone są każdego dnia importować odpowiednio około 6 oraz 5 milionów baryłek. Importerami znacznych ilości ropy są również kraje europejskie, Japonia oraz Indie.Nietrudno zauważyć, że ropa jest produktem wywierającym ogromny wpływ na funkcjonowanie największych światowych gospodarek. Jej roczne wydobycie o wartości (przy cenach z początku roku 2014, tj. 110 dolarów za baryłkę) prawie 3,7 bilionów dolarów odpowiada za 5,5% światowego PKB. W niektórych krajach, takich jak Rosja czy Wenezuela, wydobycie to aż 20-30% PKB, a w Arabii Saudyjskiej odsetek ten sięga nawet 70%. Procenty te pokazują, jak istotna dla tych gospodarek jest cena ropy. Od początku roku 2011 cena wahała się w przedziale 100-120 dolarów za baryłkę. Rok 2014 początkowo nie zapowiadał zmian tego stanu rzeczy. W ciągu jego drugiej połowy ceny spadły jednak niemal dwukrotnie. Obecnie za ropę brent płacimy ok. 60 dolarów, a w połowie

stycznia cena ta utrzymywała się poniżej 50 dolarów. Sugerując się podanymi wcześniej statystykami, możemy zauważyć, że spadek w szczególności powinien być na rękę importerom. Kraje te nie mają jednak (poza USA) dużego bezpośredniego wpływu na światową podaż ropy. Dlaczego więc OPEC nie ograniczy produkcji tak, aby cena, a przez to zyski, powróciła do poprzednich poziomów?

HISTORIA NIE ZAWSZE SIĘ POWTARZASytuacja polityczna w ogarniętej wojną domową Libii oraz atakowanym przez Państwo Islamskie Iraku powodowała duże obawy co do stabilności dostaw ropy z tych należących do OPEC krajów. Ilość ropy dostarczanej przez Irak jednak nie spadła, a wydobycie w Libii po dużym spadku na początku roku 2014 wydaje się odbijać. Gospodarka Chin natomiast nie rośnie już tak dynamicznie, jak zakładano jeszcze na początku roku. Plany na rok 2014 pozostały jednak niezmienione, powodując przewagę podaży nad popytem. Kraje OPEC o mniejszym wydobyciu, zdając sobie sprawę z ich nikłego wpływu na kształtowanie cen ropy, nie mają interesu w obniżaniu swojego wydobycia – jedynym rezultatem takiego działania byłaby strata udziałów w rynku. Dotychczas rolę elastycznego „bezpiecznika” w podobnych sytuacjach pełniła Arabia Saudyjska. Dostosowywała ona wydobycie, a przez to podaż krajów OPEC do globalnego popytu. Tym razem jej wydobycie pozostało na niezmienionym poziomie, co skutkuje nadwyżkami przekraczającymi milion baryłek dziennie. Błędem byłoby jednak nazwanie tego przypadkiem bez precedensu. Przykładem może być przełom lat 1985/1986, kiedy nagłe pięciokrotne zwiększenie wydobycia na półwyspie arabskim w pół roku obniżyło cenę ropy o ponad 60%. Obecnie uważa się, że działania te były w dużej mierze inicjowane przez wpływy amerykańskie w celu przyśpieszenia

czarne złoto traci blask

Spadki ceny ropy na światowych giełdach, jakie miały miejsce w ciągu ostatnich miesięcy, są niemal porównywalne do tych z roku 2008. Jaka jest ich przyczyna? Większość sądzi, że zadziałał wolnorynkowy mechanizm równowagi pomiędzy popytem a podażą. Nie brakuje jednak teorii wskazujących na możliwe polityczne intrygi.

Kto wciąż na wydobyciu zyskuje, a dla kogo przestało być ono rentowne? Odpowiedź przyniosą liczby.

1. Ta oraz kolejne wartości dotyczące wydobycia ropy naftowej bazują na comiesięcznych raportach OPEC (Organization of the Petroleum Exporting Countries), w tym wartości obecne – na raporcie z lutego: OPEC, Monthly oil market report, 9.02.2015. Wszystkie raporty dostępne są online na www.opec.org.

etftrends.com

TO ZALEŻY MARZEC 2015 | 29

ŚWIAT

WOJCIECH MILEWSKIupadku ZSRR, który nie był w stanie przetrwać bez petrodolarów. W kontekście ostatnich działań Federacji Rosyjskiej, zrozumiałe wydają się więc teorie wskazujące na możliwy wpływ Stanów Zjednoczonych na obecne ceny ropy. Wciąż jednak ciężko jest porównywać przypadek z czasów zimnej wojny do chwili obecnej. Czy sytuacja na wschodniej Ukrainie mogła więc spowodować uruchomienie amerykańskich wpływów na Bliskim Wschodzie do tego stopnia, aby przekonać Saudyjczyków do rezygnacji z ponad 200 miliardów dolarów rocznie? Nawet jeśli sprzyjałoby to również realizacji ich własnego celu politycznego, jakim jest osłabienie Iranu, nie sądzę.

ROPA ROPIE NIERÓWNANależy pamiętać, że istnieje mnóstwo rodzajów ropy naftowej, a jej ceny zależne są od jakości oraz kosztów transportu. Obie te cechy determinowane są z kolei przez miejsce, z którego jest ona wydobywana. W szczególności, jakość określana jest za pomocą gęstości (im lżejsza, tym lepsza, bo łatwiej jest ją przetworzyć) oraz zawartości siarki (tzw. ropa słodka, z niską jej zawartością, jest lepsza niż ropa kwaśna, także z przyczyn technicznych). Wyróżnić można cztery podstawowe typy, które w znacznej mierze dominują w handlu na światowych rynkach. W kolejności od najlepszych parametrów technicznych:

• ropa WTI (południowo-wschodnie USA),• ropa Brent (Morze Północne),• koszyk referencyjny OPEC, tzw. ORB (OPEC Reference

Basket), będący średnią cen kilku rodzajów ropy wydobywanych w poszczególnych krajach OPEC,

• ropa Ural (Rosja).

Teoretycznie w podobny sposób powinny układać się ceny na giełdzie. Różnice cenowe wynikające ze specyfikacji technicznej nie są jednak duże (nie przekraczają kilku dolarów). Powoduje to, że często nie są one dostrzegalne. Zdarza się także, że po uwzględnieniu dodatkowych czynników związanych z fizycznymi dostawcami surowca, a przez to równoważeniem popytu i podaży w poszczególnych lokalizacjach, ceny są nawet odwrócone.Miejsce wydobycia wskazuje także na jego koszty. Intuicyjnie zauważamy, że wydobycie ropy naftowej z dna Morza Północnego

jest droższe, niż wydobycie ropy znajdującej się tuż przy powierzchni na Półwyspie Arabskim. Podobnie inne koszty związane będą z wydobyciem ropy na Syberii, jej ekstraktacją z pisaków bitumicznych w Kanadzie czy wydobyciem łupkowym w USA. Niestety nie jest możliwe jednoznaczne przypisanie kosztów wydobycia do poszczególnej metody na danym obszarze. Możliwe jest podanie jedynie orientacyjnych wartości, które jednak są w stanie przybliżyć skalę rozpiętości kosztów. Zaczynają się one już od 20 dolarów za baryłkę na Półwyspie Arabskim i w Afryce Północnej, choć niektóre źródła dla pól naftowych w Iraku i Libii podają nawet kwoty jednocyfrowe. Baryłka ropy wydobywana w na południu Stanów Zjednoczonych i szelfach to wydatek ponad 40 dolarów, wydobycie na Syberii i w górach Ural kosztuje niewiele poniżej 50 dolarów, a ropa z dna Morza Północnego dobija do 55 dolarów. Szacuje się, że obecnie najwyższe koszty wydobycia są związane z ropą pozyskiwaną z łupków oraz piasków bitumicznych i wynoszą około 60-70 dolarów. Paradoksalnie, to jednak właśnie ropa łupkowa jest metodą wydobycia z największą dynamiką wzrostu.

WALKA O UDZIAŁY

W ciągu ostatnich 5 lat wielkość światowej podaży wzrosła o ponad 7,5 miliona baryłek na dobę. Znacząca, bo sięgająca prawie 5 milionów baryłek, większość tego nowego kawałka toru przypadła w udziale Stanom Zjednoczonym. Było to możliwe głównie dzięki gwałtownemu wzrostowi wydobycia z łupków. Dodatkowo prognozy, przy cenie przekraczającej 100 dolarów za baryłkę, nie wskazywały na jego spadek dynamiki. Instalacje wydobywające ropę łupkową charakteryzuje jednak cykl życia zupełnie inny niż w przypadku tradycyjnych szybów naftowych. W ciągu pierwszych kilku lat wydobycie systematycznie spada do wartości kilkunastu

procent początkowego. Wobec tego, w celu jego utrzymania na stałym poziomie konieczna jest budowa kolejnych szybów. Mimo to, stabilna i wysoka cena ropy zachęcała inwestorów do kontynuowania inwestycji. Trudno się dziwić, że Arabia Saudyjska, zdając sobie sprawę ze swojego systematycznego spadku udziału, zamiast po raz kolejny doprowadzić do

Absolwent studiów licencjackich na kierunku Informatyka i Ekonometria na Wydziale Nauk Ekonomicznych UW. Aktywny członek wielu organizacji studenckich i pozarządowych. Uczestnik projektu Akademia Mediów organizowanego przez Fundację im. Lesława Pagii. Zawodowo związany z czołową firmą doradczą w obszarze zarządzania ryzykiem.

Czołowi producenci ropy naftowej

milionów baryłek na dzieńŹródło: International Energy Statistics

30 | TO ZALEŻY MARZEC 2015

ŚWIAT

równowagi rynkowej, postanowiła wykorzystać swoją przewagę konkurencyjną w postaci kosztów produkcji.Saudyjczycy, pozostawiając produkcję na dotychczasowym poziomie, zagwarantowali światu nadpodaż ropy. Jej obecna cena powoduje, że dalsze inwestycje w łupki stają się praktycznie nieopłacalne. Inwestorzy stracili też poczucie bezpieczeństwa, zdając sobie sprawę, że podobna sytuacja może powtórzyć się w dowolnym momencie w przyszłości. O to właśnie chodziło arabskim szejkom. Co prawda będą się z tym wiązać duże utracone zyski, jednak biorąc pod uwagę stan rezerw walut oraz ropy tego kraju, jak nigdy adekwatne jest stwierdzenie „kto bogatemu zabroni?”. Tym bardziej, że w długim terminie spowolnienie inwestycji w rozwój łupkowej technologii pozwoli na powrót do poprzednich poziomów cen z większymi rynkowymi udziałami. Cel powinien zostać osiągnięty wraz z dotarciem do inwestorów

informacji w postaci liczb w sprawozdaniach giełdowych. W takim przypadku marsz ceny w górę powinien rozpocząć się z początkiem roku 2016.

WYGRANI I PRZEGRANIRykoszet tej walki uderza oczywiście w kraje zależne od ropy, które jednak tak bogate nie są. Iran, Rosja czy Wenezuela będą miały w obecnym roku duże problemy z balansowaniem budżetów oraz utrzymaniem stabilności gospodarki i społecznych nastrojów. Arabia Saudyjska realizuje swój biznesowy plan, przy okazji

osiągając cel polityczny, jakim jest osłabienie gospodarki Iranu. Nie pierwszy raz największym wygranym, przynajmniej w krótkim okresie, wydaje się amerykański rząd. Poprawi się sytuacja USA na arenie międzynarodowej z racji kłopotów Rosji, a także spadną rządowe wydatki. Przedsiębiorstwa zaangażowane w wydobycie ropy z łupków są w większości prywatne, a w przypadku ich upadku rząd nie będzie zobligowany do pomocy podobnej do tej, jaka została udzielona bankom w roku 2008. Niskie ceny ropy pozwoliły natomiast na powiększenie krajowych zapasów do poziomu największego w historii, a niskie koszty importu dodatkowo przyśpieszą amerykańską gospodarkę. Zyskają także gospodarki pozostałych krajów importujących ropę oraz zwykli konsumenci, o czym z łatwością możemy przekonać się, obserwując spadające ceny paliw na stacjach benzynowych.

Podaż ropy w USA oraz Arabii Saudyjskiej

Źródło: International Energy Statistics

8000

9000

10000

11000

12000

13000

14000

15000

8%

9%

10%

11%

12%

13%

14%

15%

16%Udział w światowym rynku Milionów baryłek na dzień

Stany Zjednoczone Arabia Saudyjska

TO ZALEŻY MARZEC 2015 | 31

TO ZALEŻY

sankcje na rosję

1. Więcej na ten temat w artykule Fancy footwork. How businesses linked to blacklisted oligarchs avoid Western sanctions, „The economist”, 14.02.2015, online na: http://www.economist.com/news/business/21643122-how-businesses-linked-blacklisted-oligarchs-avoid-western-sanctions-fancy-footwork.

Przez ostatnie miesiące świat z zapartym tchem obserwował zdarzenia na Ukrainie. U jednych strach powodowała niknąca wizja utopijnego ładu na Starym Kontynencie, u innych natomiast zagrożenie dla ich własnych interesów. Reakcją przywódców świata na te wydarzenia były w głównej mierze sankcje i polityczne

zagrywki. Pojawia się pytanie, czy dobrą bronią na fizyczną agresję jest jej niefizyczna odmiana? Rozwiązanie należy znaleźć, w końcu nikt nie chce powrótu zimnej wojny z lat 50. i 60., o gorszych rozwiązaniach nie wspominając.

[TAK] DOMINIK SIKORA

Rosjanie wiedzą, że ich gospodarka nie jest samowystarczalna, a sankcje Zachodu (te gospodarcze, nie personalne) będą ich coraz mocniej uwierać. Rosyjscy przywódcy oczywiście mówią co innego, jednak zaostrzając lub przynajmniej podtrzymując sankcje, możemy sprawić, że nawet oni przestaną robić dobrą minę do złej gry.Zakaz transferu technologii wydobywczej ma duże szanse na zablokowanie inwestycji na Syberii i w Arktyce. Dalsze ograniczenia w dostępie do kapitału, w połączeniu ze spadkami cen ropy i rubla, spowodują, że rosyjskiej gospodarce po prostu zabraknie dolarów. Zarówno bankowi centralnemu, jak i państwowym czy prywatnym firmom. W tej walce potrzebne są takie ciosy. Możemy już obserwować pierwsze skutki – w ciągu ostatniego roku odpłynęło z Rosji ok. 150 miliardów dolarów kapitału zagranicznego. Dodatkowo z powodu osłabienia waluty, spowodowanego głównie spadkami cen ropy, rezerwy walutowe zmniejszyły się o ponad 120 miliardów dolarów. Dodajmy do tego obniżenie przez agencje S&P oraz Moody’s ratingu rosyjskich papierów do poziomu śmieciowego oraz 11-procentową inflację…Europejskie gospodarki natomiast z brakiem eksportu na rynki rosyjskie radzą sobie całkiem nieźle. W Polsce w ubiegłym roku według GUS polski eksport do tego kraju spadł o 14% (nominalnie 1,1 miliarda euro mniej), w tym samym czasie wartość eksportu do Niemiec wzrosła o 9,5% (3,7 miliardów euro).Inflację odczują przede wszystkim najbiedniejsi Rosjanie. W końcu ludzie zrozumieją, że ich pogarszająca się sytuacja wcale nie wynika ze złej woli Zachodu, ale z kierunku polityki ich prezydenta. Siła czołgów i karabinów spadnie, kiedy obywatele nie będą mogli kupić chleba. Tylko konsekwencją możemy pokazać Putinowi, że tej wojny nie jest w stanie wygrać.

[NIE] AGNIESZKA PIETRZYK

Decyzja o reakcji na zdarzenia na Ukrainie podzieliła przywódców państw. Kraje utrzymujące ważne kontakty handlowe z Rosją lub odległe od centrum konfliktu skłaniają się do ustępstw. Ekonomiczne, negatywne skutki sankcji są oczywiste, jednak przyświeca im polityczny cel. Jednocześnie w grze oprócz międzynarodowych ustaleń są indywidualne interesy państw. Przeciwko zaostrzaniu sankcji opowiadają się niektórzy politycy Węgier, Włoch czy Słowacji, a ów brak zgody jest największą słabością sankcji jako narzędzia wywierania wpływu na Rosję.Wiarygodność ograniczeń jest podważana także przez niejednoznaczne ustalenia. Umożliwiają one obejście niektórych decyzji, różną ich interpretację. Wcześniej sytuacja taka miała miejsce w efekcie zapisu dotyczącego większości udziałów spółek objętych sankcjami w innych podmiotach. Dziś wskazywane są niejasności w ustaleniach mińskich – blisko związanych ze znoszeniem ograniczeń. Wątpliwości dotyczą też respektowania sankcji nałożonych na pojedyncze podmioty, których można uniknąć choćby przez podział udziałów czy tworzenie nowych spółek1.Komunikat o wewnętrznym podziale i uległości nie jest jedynym problemem. Niejasne jest również osiągnięcie celu w dłuższej perspektywie. Społeczeństwo rosyjskie może odczytać ograniczenia handlu zgodnie z wpajaną przez lata doktryną, bynajmniej nie jako reakcję na agresję ze strony ich ojczyzny. Ponownie umocni to poparcie dla Putina i panującego systemu.W interesie Europy leży zakończenie konfliktu na Ukrainie z możliwie najmniejszymi stratami: gospodarczymi, materialnymi i politycznymi. Historia pokazuje, że pochopnie nakładane, jak i anulowane sankcje mogą prowadzić do odwrotnych rezultatów. Na pozytywny i krótkotrwały efekt sankcji nałożonych na Libię w latach 90. w odpowiedzi na zamach terrorystyczny czekano kilka lat. Ograniczenia nałożone na RPA w 1962 roku, kiedy kraje członkowskie ONZ całkowicie zerwały kontakty handlowe z tym państwem, próbując wymusić zniesienie apartheidu, wzmocniły ten kraj. Czy warunki skuteczności tego instrumentu polityki międzynarodowej są w tym przypadku spełnione?

min

ing.

com

32 | TO ZALEŻY MARZEC 2015

OPINIE

MIT PIERWSZY – BEZROBOTNI ABSOLWENCIKiedy nawet z ust premiera słyszymy: „Gdybym musiał wybierać, to wolałbym być wybitnym spawaczem, dobrze zarabiającym niż wiecznie bezrobotnym politologiem”1, nabieramy przekonania, że może rzeczywiście studia są stratą czasu. To uproszczenie wykuło się w naszej świadomości – oczywiście, jeśli ktoś czuje się pewnie w zawodach technicznych, to niech się tym zajmuje i godziwie zarabia – nie popadajmy jednak ze skrajności w skrajność, potępiając jeden zawód, a wychwalając inny, bo takie wypaczanie podaży pracy skutkuje nawet strukturalnym, najbardziej niebezpiecznym, bezrobociem.Żeby to jednak nie były puste słowa, sprawdźmy w statystykach, czy rzeczywiście bezrobocie to rosnący problem absolwentów szkół wyższych. Pierwszą miarą, którą się posłużymy, niech będzie stopa bezrobocia według wykształcenia w Polsce.

Jednoznacznie widzimy, że bezrobocie w najmniejszym stopniu jest problemem absolwentów szkół wyższych. Dla tej grupy kształtuje się ono na poziomie około 5%, czyli bezrobocia

1. Wypowiedź Donalda Tuska z 15.10.2012 podczas wizyty w jednym z warszawskich gimnazjów, więcej na ten temat: http://www.tvn24.pl/wiadomosci-z-kraju,3/wolalbym-byc-spawaczem-niz-bezrobotnym-politologiem,282718.html.

naturalnego, związanego chociażby z brakiem zatrudnienia w trakcie poszukiwania pracy. Zauważalną zależnością jest wzrost bezrobocia wraz ze spadkiem poziomu wykształcenia. Pierwsza weryfikacja skłania do odrzucenia naszego mitu.Ale może bezrobocie wśród absolwentów uczelni zmniejszają na przykład kończący edukację inżynierowie, a zawyżają ci „niepotrzebni humaniści”? Może tak naprawdę ten przysłowiowy spawacz rzeczywiście jest bezrobotny krócej niż politolog? Aby sprawdzić ten trop, wykorzystajmy stopę bezrobocia długotrwałego – powyżej 1 roku. W tej statystyce naturalnie nie są uwzględniane te osoby, dla których bezrobocie było stanem przejściowym, a zostają ci, którzy nie mogą (bądź też nie chcą oficjalnie) żadnej pracy znaleźć. Około 60% bezrobotnych długotrwale to osoby zakwalifikowane w kategorii inżynieria, procesy produkcyjne i budownictwo oraz bezrobotni bez konkretnego wykształcenia. Nasi „bezrobotni humaniści”, do których należy zakwalifikować osoby z grupy „nauki humanistyczne oraz nauki społeczne, ekonomia i prawo”, stanowią razem od 12 do 19% pośród osób

Przychodzi absolwent na rynek Pracy...

0,0

5,0

10,0

15,0

20,0

25,0

30,0

2004 2005 2006 2007 2008 2009 2010 2011 2012 2013

gimnazjalne, podstawowe i niższe średnie ogolnokształcące

zasadnicze zawodowe policealne oraz średnie zawodowe

wyższe

Rzeczywistość, bądź raczej jej kreacja przedstawiana przez media, którą tak chętnie powtarzają politycy i rożnej maści eksperci, dotycząca sytuacji na rynku pracy nie zachęca do optymizmu studentów i absolwentów uczelni wyższych. Trochę w myśl zasady bad news is good news do codziennego użytku weszły takie pojęcia

jak „umowy śmieciowe”, „młodzi bez pracy” czy „bezrobotni absolwenci”. Rząd czuje się zobowiązany do działania, powstaje pytanie czy rzeczywiście słusznie. Zanim ślepo uwierzymy w jakiś frazes, powtarzany przez wszystkich niczym pewnik, zabawmy się w słynnych Pogromców mitów z Discovery Channel i rozprawmy się z prawdą i fałszem dotyczącego nas bezpośrednio rynku pracy.

Stopa bezrobocia w Polsce według poziomu wykształcenia

Źródło: Opracowanie własne na podstawie Banku Danych Lokalnych GUS.

0%

10%

20%

30%

40%

50%

60%

70%

80%

90%

100%

2006 2007 2008 2009 2010 2011 2012 2013

zdrowie i opieka społeczna

nauki humanistyczne

nauki ścisłe, matematyka iinformatykakształcenie nauczycieli orazpedagogikarolnictwo i weterynaria

usługi

nauki społeczne, ekonomia iprawoprogramy ogólne

inżynieria, procesyprodukcyjne i budownictwo

Struktura bezrobotnych długotrwale w Polsce według dziedziny wykształcenia

Źródło: Opracowanie własne na podstawie raportu GUS, Aktywność ekonomiczna ludności Polski (dane dla wszystkich lat z IV kwartału), 2006-2013.

TO ZALEŻY MARZEC 2015 | 33

OPINIE

bezrobotnych długotrwale, jednocześnie stanowiąc obecnie około 25% siły roboczej. Nie ma ich zatem więcej w „torcie bezrobotnych” w porównaniu do „tortu wszystkich chętnych do podjęcia pracy”. Wydaje się, że kolejny trop jest fałszywy; oczywiście trzeba wziąć pod uwagę sposób klasyfikowania bezrobotnych według dziedzin oraz możliwości rejestracji, jako bezrobotnego i pracującego na czarno.Być może niskie stopy bezrobocia wyżej wykształconych wynikają z tego, że na rynku pracy ich po prostu nie ma? Dlatego koniecznie w analizie należy ująć współczynnik aktywności zawodowej. Jednak również ten wskaźnik pokazuje, gdzie leży problem na poziomie zagregowanym. To nie osoby wykształcone tworzą – wskazywany jako jedna z największych bolączek polskiego rynku pracy – niski stopień aktywności zawodowej.Zatem czy „bezrobotny absolwent” ma potwierdzenie w faktach? Przytoczone argumenty sugerują obalenie mitu, o ile oczywiście przyjmiemy, że za tym wyrażeniem kryją się absolwenci szkół wyższych.

MIT DRUGI – BEZROBOTNI MŁODZICo jednak z bezrobociem wśród ludzi młodych, które nawet w zaleceniach Komisji Europejskiej dla Polski jest stawiane jako jeden z głównych problemów stojących na drodze do rozwoju gospodarki? Patrząc na stopy bezrobocia według przedziałów wieku, widzimy, że stopa bezrobocia młodych wyraźnie przewyższa inne. Mit potwierdzony?

Należy jednak zadać sobie pytanie, co byłoby, gdyby nagle wszyscy 40-latkowie przestali pracować, udali się na przykład na roczne szkolenie i próbowali wrócić na rynek pracy? Zapewne to w ich przedziale wiekowym stopa bezrobocia w krótkim okresie byłaby najwyższa. Ponadto niedoskonałość systemu sprawia, że młodzi kończący edukację, szukając pracy, rejestrują się jako bezrobotni, aby być ubezpieczonym. Wszystkie powyższe argumenty sprawiają, ze zasadne jest sprawdzenie, jak wygląda bezrobocie długotrwałe (powyżej 1 roku) dla rożnych grup wiekowych.

Bezrobocie w najmłodszej grupie wiekowej nadal pozostaje na znacząco wyższym poziomie. Z większym optymizmem możemy patrzeć na stopę bezrobocia w przedziale wiekowym 25-29, gdzie nie odbiega ona od średniej, niestety właśnie zawyżanej przez bezrobocie grupy 20-24. Prawdziwość mitu nie jest już tak oczywista, ale dane nadal stanowią uzasadnienie wkroczenia państwa w ten niedoskonały rynek.Dla przykładu, nowelizacja ustawy o promocji zatrudnienia i instytucjach rynku pracy z 2014 roku m.in. rozszerza definicję młodego bezrobotnego – obejmie osoby nie do 25., a do 30. roku życia, co, uwzględniając stopę bezrobocia długotrwałego, niekoniecznie jest rozwiązaniem uzasadnionym. Kieruje ona do młodych specjalne narzędzia jak bony: szkoleniowy, zatrudnieniowy, stażowy i na zasiedlenie. Skraca również czas, jaki urząd pracy ma na przedstawienie ofert pracy, a także profiluje bezrobotnych. Na ile polityka państwa zmieni statystyki przedstawione powyżej? To zależy. Z jednej strony badania empiryczne każą wątpić w efektywność aktywnych polityk rynku pracy jak przedstawione wyżej bony. Ale jednocześnie dają zielone światło dla powodzenia nowelizacji ustawy, jeśli przy należnych przywilejach nakładane są obowiązki i ograniczenia, zarówno na urzędy pracy, jak i bezrobotnych. Wszystko razem może prowadzić do sukcesu w postaci choćby małych zmian statystyk bezrobocia.Mit o młodych bezrobotnych pozostaje prawdopodobny, ale zdecydowanie bardziej w krótkim, niż w długim okresie.

40,0%

45,0%

50,0%

55,0%

60,0%

65,0%

70,0%

75,0%

80,0%

85,0%

2006 2007 2008 2009 2010 2011 2012 2013

wyższe policealne zasadnicze zawodowe ogółem

PRZEMYSŁAW TWARDZIAK

0,0

5,0

10,0

15,0

20,0

25,0

30,0

35,0

40,0

45,0

2004 2005 2006 2007 2008 2009 2010 2011 2012 2013

60-64

55-59

50-54

45-49

40-44

35-39

30-34

25-29

20-24

0,0

2,0

4,0

6,0

8,0

10,0

12,0

14,0

16,0

18,0

20,0

2004 2005 2006 2007 2008 2009 2010 2011 2012 2013

20-24

25-29

ogółem

Student II roku II stopnia na specjalności Ekonomia Sektora Publicznego WNE UW, uczestnik i laureat II nagrody Wiosennej Szkoły Leszka Balcerowicza 2014, wyróżniony w IV edycji konkursu Młody Ekonomista organizowanego przez Towarzystwo Ekonomistów Polskich, interesuje się zagadnieniami związanymi z ekonomią polityczną oraz polityką gospodarczą, prywatnie miłośnik piłki nożnej i eskapad rowerowych.

Współczynnik aktywności zawodowej w Polsce

Źródło: Opracowanie własne na podstawie raportu GUS, Aktywność ekonomiczna ludności Polski (dane dla wszystkich lat z IV kwartału), 2006-2013.

Stopa bezrobocia w Polsce według wieku

Źródło: Opracowanie własne na podstawie bazy danych Eurostatu.

Bezrobocie długotrwałe w Polsce ogółem i wśród młodych

Źródło: Opracowanie własne na podstawie bazy danych Eurostatu.

34 | TO ZALEŻY MARZEC 2015

OPINIE

MIT TRZECI – UMOWY ŚMIECIOWECo słyszymy z ust polityków, kiedy mówią o bezrobotnych młodych? To, że jak zatrudnieni, to na „umowach śmieciowych”. Kandydatka na prezydenta Magdalena Ogórek roztacza wizję „kraju umów śmieciowych”2. Politycy określają je jako „olbrzymi problem”3 podkreślając jednak jedynie negatywne, hipotetyczne aspekty tego rodzaju umów. Postarajmy się obalić mit nazywający umowy cywilno-prawne4 śmieciowymi i jednym z największych problemów polskiego rynku pracy.Pierwszym nasuwającym się pytaniem jest, co byłoby, gdyby zlikwidowano umowy cywilno-prawne? Niewątpliwie dla pracodawców wzrosłyby koszty zatrudnienia, co spowodowałoby zmniejszenie oficjalnej liczby miejsc pracy oraz wzrost szarej strefy. Możemy sobie wyobrazić, na kogo najbardziej negatywnie będzie oddziaływał zmniejszony popyt na pracę i usztywnianie zatrudnienia: na tych, którzy na ten rynek wchodzą, czyli właśnie młodych. Dochodzimy do pierwszego, ważnego szczególnie dla nas, studentów, wniosku: przy wszystkich niedoskonałościach umów cywilno-prawnych, młodzi stracą więcej, gdy tych umów nie będzie, niż gdy pozostaną nawet w obecnej postaci. Umowy jednak nie takie „śmieciowe”.

Zatrzymajmy się teraz na chwilę nad tą potoczną nazwą. Śmieciem jest rzecz bez wartości5. Umowy śmieciowe zatem są bez wartości albo przynajmniej mają zawsze mniejszą wartość w stosunku do umów „nieśmieciowych” – czyli umów o pracę. Czy na pewno umowa cywilno- prawna jest tym, co jak najszybciej, kiedy mamy wybór, trzeba zamienić na umowę o pracę? To kolejny ważny aspekt rozprawiania się z mitem.

Marcin, absolwent jednej z warszawskich uczelni, ma na ten temat inne zdanie. Mówi tak:

Pracuję na umowie cywilno-prawnej – o dzieło. Umowa ta jest dopuszczona ze względu na charakter mojej pracy.

Pracuję twórczo i jestem rozliczany nie z godzin spędzonych za biurkiem, a z efektów mojej pracy. Swojego czasu, szef

zaproponował mi przejście na umowę o pracę, jednak świadomie postanowiłem zostać na umowie o dzieło.

Dlaczego nie chciałem umowy o pracę? Ponieważ dla mnie właśnie ten typ umowy jest śmieciowy. Umowa

o pracę gwarantuje trwałość zatrudnienia, ubezpieczenie zdrowotne, urlop i czysto teoretycznie – emeryturę,

względem której nie można być pewnym ani czy będzie, ani do którego roku życia będziemy musieli na nią pracować, ani jakiej będzie ona wysokości. Za to wszystko płacimy jednak z własnej kieszeni. Pracodawca ma na moje wynagrodzenie

przeznaczoną konkretną kwotę. Kwestią mojego wyboru jest, czy chcę oddawać nawet do 40% swojego wynagrodzenia

na powyższe benefity, czy zatroszczyć się o nie sam.

Tu pojawia się kolejny argument przeciw demonizowaniu umów cywilno-prawnych: pracując na ich podstawie, mamy lepszą pozycję przetargową wobec pracodawcy, aby negocjować wysokość pensji – obciążenie po stronie pracodawcy jest bowiem bez porównania mniejsze niż w umowie o pracę. Jak zatroszczyć się o przywileje, których nie daje nam umowa cywilno-prawna? Z pomocą przychodzi nasz rozmówca:

Jak? Bardzo prosto.1.Gwarancję trwałości

zatrudnienia zapewniam sobie jakością mojej pracy. Czyż może być

skuteczniejsza gwarancja zatrudnienia niż

zadowolony z otrzymywanej usługi pracodawca?

2. Ubezpieczenie zdrowotne opłacam sobie sam. Krótka wizyta w ZUS-

ie, pobranie deklaracji, opłacenie składki (ok. 360 zł6). Można zapytać, co to

za oszczędność, skoro i tak się płaci, a jeszcze trzeba się

nachodzić. Błąd! W przypadku umowy o dzieło, możliwe jest

odliczenie składki zdrowotnej od PIT-u – tak więc wszystko wraca do

kieszeni.

3.Urlop. Tę kwestię najtrudniej obronić przed

nieprzekonanymi. Ten aspekt zależy wyłącznie od pracodawcy i wzajemnych relacji na linii pracodawca

– pracownik. Jeżeli są poprawne, to uzasadnienie jest powiązane z punktem

1 – racjonalnemu pracodawcy zależy, aby

pracownik był zadowolony z wykonywanej pracy

2. Zagadnienie to pojawia się w oświadczeniu Magdaleny Ogórek z 18.01.2015, podczas przedstawienia programu wyborczego.

3. Określenie to padło 14.01.2014 z ust posła Prawa i Sprawiedliwości Mariusza Kamińskiego podczas debaty na antenie Polskiego Radia Program 1 na temat umów śmieciowych.

4. Jako „umowy śmieciowe” traktuję w tym artykule umowy zlecenia i o dzieło, natomiast np. dla związków zawodowych umowami śmieciowymi są wszystkie inne umowy, niż umowa o pracę na czas nieokreślony.

5. Słownik języka polskiego PWN, online na: www.sjp.pwn.pl.6. Zgodnie z wytycznymi Narodowego Funduszu Zdrowia w obecnym roku

jest to nie mniej niż 372,55 zł,.

naszemiasto.pl

TO ZALEŻY MARZEC 2015 | 35

OPINIE

i wypoczęty (z niewolnika nie ma pracownika), tak więc zapewnienie mu czasu na wypoczynek się po prostu w dłuższej perspektywie

pracodawcy opłaca.

4. Emerytura. Tutaj wszystko zależy od własnej konsekwencji w oszczędzaniu. Mój plan na emeryturę jest następujący – z każdego wynagrodzenia przelewam 10% na konto oszczędnościowe, którego nie ruszam do momentu, kiedy zdecyduję się przejść na emeryturę.

Polecam podliczyć sobie, ile wynosić będzie suma wszystkich składek na emeryturę, które bez naszej uwagi zostaną pochłonięte na rzecz domniemanych emerytur (dla uproszczenia przyjmijmy

aktualną wysokość składek). Następnie proszę sobie policzyć, ile z tych środków ma szansę do nas wrócić. Zakładając, że wiek

emerytalny przez najbliższe 40 lat nie ulegnie podwyższeniu (i że ZUS będzie dalej istniał), emeryt dożywający 75 lat (średnia długość życia aktualnie prognozowana przez GUS dla mężczyzn żyjących w

Warszawie), otrzymujący emeryturę w wysokości 1,5 tysiąca, łącznie z ZUS otrzyma 144 tysiące (nie uwzględniając inflacji). A teraz

proszę sobie podliczyć, ile wynosi kwota uzbierana przy odkładaniu 10% swojego aktualnego wynagrodzenia przez 40 lat na konto

oszczędnościowe. No właśnie. A do tego należy dodać odsetki oraz możliwość wzrostu wysokości aktualnego wynagrodzenia (bądźmy

optymistami). A co, jeżeli będzie się żyło dłużej niż statystyka przewiduje? No cóż... dzieci, dzieci i jeszcze raz dzieci – trójka w sam

raz, żeby zapewnić stabilność demograficzną.

Zgodnie z podejściem Marcina warto zauważyć, że nie można użalać się nad swoją dolą, tylko optymalizować sytuację niezależnie od położenia. Może znajdziesz lepszy wariant oszczędzania na emeryturę? Ważne, żeby mieć plan, bo co innego jest optymalne dla różnych jednostek. Nawet kiedy nie otrzymujemy umowy o pracę, traktujmy ten fakt jako szansę, a nie porażkę. Bądźmy świadomi korzyści własnych z tej formy zatrudnienia i wyciśnijmy z niej, jak z cytryny, ile tylko się da. Wartość umowy, jaka nas obowiązuje w pracy, zależy OD NAS, od tego, jak korzystamy ze swojej formy zatrudnienia. Nadmierne krzyki o umowach śmieciowych służą często realizacji partykularnych interesów. Śmieciową umową może być każda umowa. Podany przykład obrazuje, że śmieć niejedno ma imię, a wszystko zależy od podejścia naszego i pracodawcy. Dlatego należy się skłaniać do obalenia mitu o umowach śmieciowych. Głos o ich likwidacji jest głosem niezwykle szkodzącym rynkowi pracy.

Podsumowując, nie dajmy sobie wmówić pozornych oczywistości przedstawianych nam na co dzień przez polityków i przekazywanych przez media. Weźmy zawsze pod uwagę opłacalność szerzenia negatywnych wizji i sprawdzajmy fakty, weryfikując różne stereotypy. Stawajmy się pogromcami mitów krążących w ogromnej liczbie wokół nas w codziennym życiu. Także tutaj. Może właśnie się oburzyłeś i chcesz obalić punkt widzenia przedstawiony w niniejszym artykule?

Zapraszam do kontaktu: [email protected].

graf

. Ger

d Al

tman

n CC

36 | TO ZALEŻY MARZEC 2015

OPINIE

Pracodawcy wymagają od swoich podopiecznych nie tylko wiedzy i doświadczenia, ale również jak najlepszych wyników pracy. Innymi słowy, najlepiej żeby każdy pracownik dawał z siebie 100%, a może nawet więcej. Niestety, mimo najszczerszych chęci, jest to po prostu niewykonalne. W ciągu dnia jest bowiem tylko kilka godzin, kiedy nasz organizm zapewnia nam największą efektywność pracy. Dla jednych z Was poniższy rysunek nie będzie żadną nowością, podczas gdy niektórzy uznają go za niezwykłe odkrycie – odkrycie siebie. Biologia doskonale wie, kiedy i dlaczego czujemy się zmęczeni lub kiedy nasza praca nabiera tempa. Warto więc połączyć siły i wykorzystać trochę wiedzy o nas samych w pracy czy podczas nauki. Wszystko po to, by zmaksymalizować efekty naszego działania i przy jak najmniejszych nakładach osiągnąć jak najlepsze rezultaty.

CO, KIEDY I O KTÓREJ GODZINIE?Jeśli przyjrzymy się pierwszemu wykresowi, zapewne zauważymy, że nasza aktywność ma swój początek w okolicach godziny 6 nad ranem, gdy nasz organizm produkuje zwiększone dawki kortyzolu1. Mniej więcej do godziny 13 jesteśmy w stanie pobudzenia, zwiększonej spostrzegawczości i czujności. Godziny 13:00-16:00 charakteryzuje wydłużenie czasu reakcji, ospałość oraz zmniejszenie zdolności podejmowania decyzji. Drugi taki okres przypada na godziny 3:00-7:00, przy czym okolice godziny 3 nad ranem to czas minimalnej sprawności umysłowej i spostrzeżeniowej człowieka. W tym czasie ilość błędów wynikających z braku koncentracji i gorszej percepcji wzrokowej może przewyższać średnią dobową nawet o 100%2.Aby osiągnąć jak najlepsze efekty pracy, pracodawcy powinni

uwzględniać występowanie rytmu okołodobowego. Najważniejsze zadania powinny być wykonywane przez pracowników około południa albo w godzinach18:00-22:00. Najmniej istotne czynności powinny przypadać na bardzo wczesne/późne godziny lub okolice godz. 15:00, kiedy to organizm pracuje w wolniejszym tempie. Idealnym rozwiązaniem dla pracodawcy byłoby wprowadzenie w tym czasie przerw, co pozwoliłoby pracownikom zregenerować siły i wrócić do pracy z większą koncentracją oraz spostrzegawczością.Niestety, niejednokrotnie pracodawcy marnują potencjał swoich podopiecznych, zlecając im najbardziej trywialne zadania właśnie w godzinach większej sprawności, zarówno fizycznej, jak i umysłowej3. Odbieranie poczty w godzinach dopołudniowych oraz prowadzenie kluczowych dla spółki rozmów około godziny 14 bądź 15 z pewnością nie jest przykładem racjonalnego postępowania. W tym przypadku przedsiębiorcy, zamiast maksymalizować zyski, zwiększają koszty swojego nieprzemyślanego zachowania. Jest to sprzeczne z zachowaniem racjonalnego przedsiębiorcy, który dąży do maksymalizacji produktywności przy udziale jak najmniejszych kosztów. Jeśli chcemy postępować rozsądnie, nie możemy przecież zapominać o czynnikach warunkujących efektywność naszych działań.

ZABURZENIA RYTMU OKOŁODOBOWEGOPonieważ światło jest najważniejszym wyznacznikiem czasu dla człowieka, możliwość korzystania ze sztucznego oświetlenia w godzinach wieczornych i nocnych doprowadziła do odejścia od naturalnego rytmu życia. Ma to konsekwencje w postaci zaburzeń

cyklu okołodobowego, których objawami są m.in. problemy z zasypianiem. Może wydawać się to dziwne, jednak nawet najbardziej zmęczony człowiek może mieć problem z zaśnięciem, jeśli rozkład jego pracy kłóci się z funkcjonowaniem wewnętrznego zegara. Zaburzenia rytmu okołodobowego prowadzą do zmniejszenia wydajności podejmowanych przez nas działań, czemu towarzyszą m.in.4: osłabienie pamięci, ospałość, wydłużenie czasu reakcji, zmniejszenie zdolności podejmowania decyzji, gorsza koordynacja ruchowa.Badania pokazują, że najczęstszymi przyczynami nieprawidłowego funkcjonowania cyklu okołodobowego są: nieregularny tryb

cykl okołodobowy a Produktywność – czy Powinniśmy słuchać naszego „wewnętrznego zegara”?

Każdy z nas posiada swego rodzaju wewnętrzny zegar, który odpowiada za zróżnicowanie poziomu energii w poszczególnych porach dnia. To nie przypadek, że w godzinach 12:00-14:00 czujemy się znużeni, a nauka o godzinie 3 nad ranem nie przynosi oczekiwanych efektów. Rytm okołodobowy, bo tak nazywa się nasz

wewnętrzny zegar, niejednokrotnie okazuje się być silniejszy niż nasze plany lub zapiski w kalendarzu. Czy zatem warto jest dostosować się do wewnętrznego rytmu? Czy istnieje sposób, by go oszukać? Jak mają postępować osoby najbardziej zapracowane? Czy kilka filiżanek kawy może stać się substytutem snu i zagwarantować nam odpowiednią produktywność?

Dzienny rytm temperatury ciała, stopnia aktywności oraz poziomu kortyzolu i melatoniny dla naturalnego 24-godzinnego cyklu

Źródło: www.lighting.pl.

TO ZALEŻY MARZEC 2015 | 37

OPINIE

KATARZYNA BŁASZCZYKżycia oraz praca zmianowa, która w większości przypadków prowadzi do zaburzeń snu. Chcąc zminimalizować szkodliwość pracy, a tym samym poprawić wydajność działań pracowników, warto zastosować grafik, w którym zmiany godzin pracy następują nie częściej niż co tydzień, a godziny pracy przesuwane są zgodnie z kierunkiem ruchu wskazówek zegara – pracownik ze zmiany rannej przechodzi na popołudniową, z popołudniowej na nocną i z nocnej na ranną.

„SKOWRONKI” I „SOWY”Należy się spodziewać, że nie wszyscy wpasowują się w schemat, w którym jedna, konkretna pora jest najlepsza na sen, zaś inna charakteryzuje się największą sprawnością fizyczną i psychiczną człowieka. Mowa tu o tzw. „skowronkach”, u których największa produktywność jest osiągana wcześniej niż w ogólnym schemacie oraz „sowach”, które charakteryzują się najwyższym poziomem energii w porach późniejszych, niż jest to obserwowane u większości ludzi. W tych dwóch przypadkach istnieje prawdopodobieństwo wystąpienia tzw. niedopasowania – „skowronek” natrafia na pracę preferowaną przez „sowę” i na odwrót. Problem niedopasowania prowadzi do nieefektywnej pracy, co stanowi wyraźną przeszkodę podczas próby minimalizacji kosztów przez przedsiębiorcę. Jak temu zaradzić? Po pierwsze, należy unikać powierzania poszczególnych zadań jednej osobie, gdyż niedopasowanie może doprowadzić nawet do nieetycznego postępowania ze strony pracownika. Pracodawca powinien zlecać dane zadania grupom (nawet niewielkim), w których pracownicy mogliby nawzajem kontrolować swoje działania. Jeśli do grupowego wykonywania zadań dołączymy ruchomy czas pracy, prawdopodobnie otrzymamy rozwiązanie idealne. Współpraca przedsiębiorcy i pracowników mająca na celu ustalenie optymalnych godzin zatrudnienia pozwoli zniwelować problem niedopasowania. Stworzenie korzystnego grafiku stanie się jednocześnie mocną stroną przedsiębiorstwa.

ŚREDNI CZAS I PORA SNU5

Profil aktywności okołodobowej można potraktować jak zmienną zależną, której determinantami są m.in.: płeć, uwarunkowania genetyczne, czynniki socjoekonomiczne (praca, szkoła) czy ekspozycja na światło. Kilka lat temu pracownicy łódzkiego Uniwersytetu Medycznego oraz Uniwersyteckiego Szpitala Klinicznego nr 2 w Łodzi przeprowadzili badanie, którego celem była m.in. analiza typów aktywności okołodobowej w dwóch, zróżnicowanych pod względem wieku, grupach. Badania przeprowadzono przy użyciu polskiej wersji kwestionariusza Morningness-Eveningness Questionaire (MEQ) oraz dodatkowej ankiety, w której znalazły się pytania dotyczące wieku, płci, aktywności zawodowej, charakteru pracy, godziny zasypiania i budzenia się (poniedziałek-piątek, sobota-niedziela). Większość grupy badawczej stanowili studenci Uniwersytetu Medycznego w Łodzi. Pozostała część próby to uczniowie jednego z łódzkich

liceów, pacjenci wspomnianego Uniwersyteckiego Szpitala Klinicznego, a także rodzina i znajomi osób przeprowadzających badanie. Po wstępnej weryfikacji przeanalizowano odpowiedzi 233 osób poniżej 30. roku życia oraz 154 osób powyżej 30 lat.Wyniki badań pokazały, że w obu grupach przeważa pośredni typ aktywności dobowej (patrz akapit: „Co, kiedy i o której godzinie”). Jednocześnie w grupie osób poniżej 30. roku życia częściej obserwuje się „wieczorny” tryb funkcjonowania, podczas gdy wśród osób starszych łatwiej spotkać „skowronka”.Jak już wspomniałam, w ankiecie pojawiło się również pytanie o długość snu. Wyniki badania ujawniły, że średnia długość snu zależy od dnia tygodnia, wieku oraz chronotypu6. W przypadku dni powszednich, wyniki badania wyglądają dość podobnie. Znaczące różnice ujawniły się dopiero w przypadku weekendów. Osoby poniżej 30. roku zadeklarowały średnio o 2,3 godziny dłuższy sen w trakcie soboty i niedzieli w stosunku do dni powszednich (poniedziałek-piątek: średni czas snu to około 6 godzin 45 minut). Osoby powyżej 30. roku życia, zgodnie z wynikami badania,

poświęcają mniej czasu na weekendową regenerację – czas snu w sobotę i niedzielę jest około godzinę dłuższy niż od poniedziałku do piątku (poniedziałek-piątek: średni czas snu to w przybliżeniu 7h). Konieczność wzmożonej regeneracji w przypadku osób poniżej 30. roku życia może wynikać z nadmiernego przemęczenia w ciągu tygodnia, niedostatecznej ilości snu oraz rozbieżności między efektywnym a rzeczywistym rytmem funkcjonowania. W tej samej publikacji możemy również przeczytać o tzw. środkowym czasie snu, który można rozumieć jako pochodną pory, o której kładziemy się spać. Innymi słowy – im później zasypiamy, tym bardziej ulega przesunięciu środkowy czas snu. Badanie pokazało, że w dni powszednie środkowy moment snu u osób poniżej 30. roku życia przypada na godzinę 3:16, natomiast wśród osób starszych jest to 2:49. W przypadku weekendu środkowy czas snu uległ przesunięciu: 4:56 – młodsza grupa ankietowanych i 3:39 – osoby powyżej 30. roku życia.

Średnia długość snu w dni powszednie i weekendy wśród respondentów

Źródło: Jolanta Zawilska i in., Okołodobowy typ aktywności (chronotyp) a pora i długość snu u młodzieży i osób dorosłych, „Sen”, 2008, t. 8, nr 2, s. 61-66.

Absolwentka Międzykierunkowych Studiów Ekonomiczno-Menedżerskich. Obecnie studentka I roku Informatyki i Ekonometrii na WNE UW. Interesuje się m.in. ekonomią behawioralną i finansami, jednak jej największą pasją jest gra na fortepianie.

38 | TO ZALEŻY MARZEC 2015

OPINIE

Środkowy czas snu w ciągu tygodnia w grupie respondentów

Źródło: Jolanta Zawilska i in., Okołodobowy typ aktywności (chronotyp) a pora i długość snu u młodzieży i osób dorosłych, „Sen”, 2008, t. 8, nr 2, s. 61-66.

1 Kortyzol – hormon, który bierze udział m.in. w utrzymaniu prawidłowego ciśnienia krwi i regulacji pracy układu odpornościowego. Poziom kortyzolu wzrasta nad ranem i obniża się wieczorem. Przeciwieństwem kortyzolu jest melatonina, która, w najprostszym ujęciu, odpowiada za to, że wraz ze zmierzchem czujemy się bardziej senni. 2 Jan Terelak, Psychologia pracy i bezrobocia, 1993, s. 165.3 Wszystkie informacje naukowe dotyczące cyklu okołodobowego, o ile nie zostało oznaczone inaczej, pochodzą z artykułów: Christopher Barnes, The ideal work schedule, as determined by circadian rhythms, „Harvard Business Review”, 28.01.2015; oraz Adam Wichniak, Zaburzenia rytmu okołodobowego, online na: www.psychiatria.mp.pl.4 Steven Howard et al., Fatigue in anesthesia. Implications and strategies for patient and provider safety, „Anesthesiology”, nr 97, 2002, s. 1281-1294.5 Jolanta Zawilska i in., Okołodobowy typ aktywności (chronotyp) a pora i długość snu u młodzieży i osób dorosłych, „Sen”, 2008, t. 8, nr 2, s. 61-66.6 Chronotyp to ogół skłonności decydujących o profilu aktywności dobowej każdego z nas.

Polska to kraj zasobny w surowce mineralne. Według danych Państwowego Instytutu Geologicznego opublikowanych w 2014 roku na dzień 31 grudnia 2013 roku dysponowaliśmy m.in.:• 51,4 mld ton węgla kamiennego,• 22,68 mld ton węgla brunatnego,• 1761,96 mln ton rud miedzi,• 74,29 mln ton rud cynku i ołowiu,• 511 mln ton siarki rodzimej,• 132,07 mld m3 gazu ziemnego.Resort finansów twierdzi, że „obecne regulacje nie gwarantują państwu należytego udziału w zyskach z wydobycia węglowodorów”1. Dla budżetu niewystarczającymi wpływami okazują się kwoty od 6 do 7 mln dziennie

Branża górnictwa węglowego wrze. Strajki, nieudane porozumienia. Nierentowność i plany naprawcze. Niepewna przyszłość górników i ich rodzin. Jesteśmy bombardowani ilością informacji. Wiadomości skupiają się przede wszystkim na relacjach pomiędzy górnikami, zarządem spółek węglowych a rządem. Na dalszy plan zeszły

nowe obciążenia podatkowe i obowiązki sprawozdawcze dla pozostałych spółek z branży wydobywczej. Przyjrzyjmy się im bliżej.

EWA KOŚLACZ

nowe Podatki dla

branży wydobywczej

Źródło: http://www.cheops.org.pl/viewtopic.php?t=1204&p=26973.

SUMMA SUMMARUM

Biorąc pod uwagę, że profil aktywności dobowej to rzecz subiektywna, warto, byśmy każdego dnia, zarówno jako studenci, jak i przyszli pracownicy lub pracodawcy, uwzględniali istnienie naszego „wewnętrznego zegara”. To, kiedy kładziemy się spać, ile śpimy, o jakiej porze pracujemy czy odpoczywamy, nie powinno być przypadkiem. Rytm okołodobowy nie został przecież wymyślony

przeciwko nam, ale dla nas. Jeśli będziemy współpracować sami ze sobą, mamy szansę zadbać o swoje zdrowie i osiągać zadowalające efekty swojej pracy. Być może uwzględnienie rytmu okołodobowego to klucz do osiągnięcia synergii…

Zegar biologiczny człowieka

Studentka drugiego roku studiów magisterskich w SGH na kierunku Finanse i Rachunkowość. Absolwentka i stypendystka rektora UW na tym samym kierunku. Laureatka wielu studenckich konkursów z zakresu doradztwa podatkowego organizowanych przez czołowe firmy doradcze. Zawodowo związana z biurem rachunkowym ProPIT. Autorka publikacji podatkowych oraz ubezpieczeniowych w dzienniku Rzeczpospolita.

PRAWO

pochodzące z relatywnie nowego podatku od kopalin obciążającego KGHM. Rząd nie jest zainteresowany spadającymi zyskami netto firmy czy obniżeniem cen srebra i miedzi. Co więcej – wprowadza dwa nowe, omówione skrótowo poniżej, obciążenia podatkowe.

SPECJALNY PODATEK WĘGLOWODOROWY

Ustawa określająca go wchodzi w życie 1 stycznia 2016 roku. Podatek będzie bezpośrednio zasilać budżet państwa od 2020 roku. Definicyjnymi węglowodorami będą: ropa naftowa, gaz ziemny i ich naturalne pochodne. Podstawą opodatkowania zostanie nadwyżka uzyskanych przychodów z działalności wydobywczej węglowodorów (otrzymane pieniądze, wartości pieniężne, wartości należności uregulowanych w naturze, zaliczki, przedpłaty) nad poniesionymi wydatkami kwalifikowanymi w danym roku podatkowym (poszukiwanie, rozpoznawanie, przygotowanie, transport węglowodorów, część podatku CIT, opłaty eksploatacyjne itp.). Stawka podatku będzie uzależniona od stosunku skumulowanych przychodów do skumulowanych wydatków (tzw. wskaźnik R). Uszczegóławiając: jeśli R<1,5 stawka podatku wyniesie 0%; dla 1,5≤R<2 stawkę należy obliczyć wg wzoru (25R-25)/100; natomiast gdy R≥2, to stawka podatku wyniesie 25% podstawy opodatkowania.

PODATEK OD WYDOBYCIA NIEKTÓRYCH KOPALIN

Na stronie Ministerstwa Finansów czytamy, że podatek jest pobierany w Polsce od 18 kwietnia 2012 roku, czyli od momentu wejścia w życie ustawy z dnia 2 marca 2012 roku o podatku od wydobycia niektórych kopalin (Dz. U. poz. 362 oraz 2014 poz. 1215). Można zadać sobie zatem pytanie, dlaczego mówi się, że będzie to nowe obciążenie. Otóż podatek ten, pobierany przez polską administrację celną, aktualnie obciąża wydobycie miedzi i srebra. W nowym brzmieniu ustawy objęta nim zostanie również ropa naftowa i gaz ziemny. Podstawa opodatkowania węglowodorów, o które rozszerzyła swój zakres ustawa, będzie ustalana na podstawie wartości ich wydobycia. Ta zaś będzie liczona w oparciu o:1. średnią cenę gazu ziemnego za MWh za poprzedni miesiąc, na

podstawie średniej arytmetycznej dziennych notowań gazu ziemnego (Rynek Dnia Następnego), ustalonych na Towarowej Giełdzie Energii S.A.,

2. średnią cenę ropy naftowej za tonę za poprzedni miesiąc, na podstawie średniej arytmetycznej średnich kursów dolara amerykańskiego do złotego ogłoszonych przez Narodowy Bank Polski oraz średniej arytmetycznej dziennych notowań ropy naftowej (OPEC Daily Basket Price) ustalonych przez Organization of the Petroleum Exporting Countries.

Stawki podatku od wydobycia gazu ziemnego wyniosą w uproszczeniu 1,5% i 3%, a od ropy naftowej 3% i 6%, w zależności od właściwości złoża.Podobnie jak w przypadku podatku od węglowodorów, płatność podatku od niektórych kopalin obejmie ropę naftową oraz gaz ziemny dopiero od 2020 roku. Wzrost biurokracji w postaci obowiązków

ewidencyjnych od nowo uwzględnionych kopalin nie zostanie jednak odroczony w czasie i obowiązuje już od momentu wejścia ustawy w życie. Podatnik jest zobowiązany, bez wezwania, składać właściwemu naczelnikowi urzędu celnego deklarację podatkową oraz obliczać i wpłacać podatek na rachunek właściwej izby celnej za miesięczne okresy rozliczeniowe, w terminie do 25. dnia miesiąca następującego po miesiącu, w którym powstał obowiązek podatkowy.Wszystkie obciążenia podatkowe branży wydobywczej wyniosą ponad 40%. Ich skalę pokazuje także ich liczba, będą się na nie składać:• podatek dochodowy od osób prawnych (CIT),• podatek od towarów i usług (VAT),• podatek dochodowy od osób fizycznych (PIT),• podatek od nieruchomości (RET),• podatek od czynności cywilnoprawnych (PCC),• podatek od wydobycia niektórych kopalin (Royalty),• specjalny podatek węglowodorowy (SPW),• opłaty za wydanie koncesji,• wynagrodzenie za użytkowanie górnicze,• opłaty eksploatacyjne.

JAK NA ZMIANY REAGUJE SEKTOR WYDOBYWCZY?

Już aktualne obciążenia podatkowe są dotkliwe dla branży wydobywczej. Związkowcy miedziowej „Solidarności” w liście do premier Ewy Kopacz z 30 stycznia 2015 roku2 podkreślają horrendalne kwoty, które trafiły do budżetu centralnego i samorządowego w latach 2012-2014. Suma podatków, opłat i należności prawnych KGHM wyniosła ok. 17 mld złotych. Związkowcy akcentują, że efektywna stawka podatkowa w Polsce jest o ok. 45,5 punktów procentowych wyższa niż średnia opodatkowania w państwach, w których operują główni konkurenci spółki. Według poszkodowanych powoduje to gwałtowny spadek rentowności, zmniejszenie przepływów z działalności operacyjnej i wzrost zadłużenia.Organizacja Polskiego Przemysłu Poszukiwawczo-Wydobywczego, Polski Związek Pracodawców Przemysłu Wydobywczego, Stowarzyszenie Naukowo-Techniczne Inżynierów i Techników Przemysłu Naftowego i Gazowniczego oraz Konfederacja Lewiatan są jednomyślni i ostrzegają, że nowe podatki jeszcze bardziej zniechęcą inwestorów, utrudnią działalność poszukiwawczą oraz wydobywczą. Podkreślają, że ucierpi bezpieczeństwo energetyczne, co w konsekwencji zaprowadzi Polskę do zwiększenia importu gazu wobec rosnącego z roku na rok krajowego popytu. Fakty zdają się potwierdzać ich stanowisko – w 2014 roku z poszukiwań gazu zrezygnowało kilka koncernów, a już w 2015 roku wycofał się amerykański koncern energetyczny Chevron. Powoduje to, że warto zastanowić się czy rządzący, nakładając kolejny podatek, uważali na zajęciach dotyczących krzywej Laffera.

fot.

Emili

an R

ober

t Vic

ol C

C

1. Cytat jest fragmentem komentarza “Projekt ustawy o specjalnym podatku węglowodorowym, o zmianie ustawy o podatku od wydobycia niektórych kopalin oraz o zmianie niektórych innych ustaw, przedożony przez ministra finansów” z 11.03.2014, dostępnego online na stronie www.premier.gov.pl. Stamtąd też pochodzą informacje o opisanych niżej podatkach.2. List otwarty senator Izabeli Kloc do premier Ewy Kopacz z 30.01.2015, online na www.izabelakloc.pl.

40 | TO ZALEŻY MARZEC 2015

ENERGETYKA

KTO WEPCHNIE PRĄD DO SIECI?

Rozmowa o bezpieczeństwie dostaw energii elektrycznej powinna zaczynać się od problemów związanych ze stroną wytwórczą Krajowego Systemu Elektroenergetycznego. Nie jest tajemnicą, że Polska w najbliższych latach będzie ocierała się o widmo blackoutu. Wielce prawdopodobne są czasowe przerwy w dostawie prądu z powodu niedoboru mocy w systemie. Jego podstawą są Jednostki Wytwórcze Centralnie Dysponowane (JWCD), będące elementami wytwórczymi podłączonymi do sieci o napięciu nie mniejszym niż 110 kV i podlegającymi centralnemu dysponowaniu przez Operatora Systemu Przesyłowego. Ponad 50% zainstalowanej w nich mocy wytwarzają jednak jednostki starsze niż 30 lat. Do 2020 roku, wg badania URE1, dojdzie do wyłączenia jednostek o mocy zainstalowanej wynoszącej około 3,8 GW (w całym KSE jest zamontowane około 40 GW). Zakończenie eksploatacji poszczególnych jednostek jest w głównej mierze związane z brakiem możliwości spełnienia norm emisyjnych oraz ich zużyciem. W kontekście rosnącego zapotrzebowania na energię elektryczną, pożądane są inwestycje w nowe wysokosprawne i niskoemisyjne aktywa. W ostatnich latach gwałtownie rosła ilość mocy zainstalowanej w farmach wiatrowych, co zawdzięcza się korzystnym subsydiom wspierającym inwestycje. Generacja wiatrowa jest jednak nieprzewidywalna i niestabilna, co powoduje, że niemożliwe jest planowanie bezpieczeństwa dostaw energii w oparciu o to źródło.Analizując obecną sytuację w KSE, nietrudno zauważyć, że najbardziej potrzebne są jednostki, które zostaną oddane do eksploatacji w przeciągu 5-7 lat, ponieważ właśnie tuż po 2020 roku istnieje najpoważniejsze zagrożenie niedoborem energii elektrycznej. Obiektywnie patrząc, w krótkim okresie najlepszym wyjściem z tej sytuacji jest budowa elektrowni opalanych węglem, opartych o najnowsze sprawdzone technologie. Warto zauważyć, że dla Polski zbyt kosztowna byłaby powtórka błędów konstrukcyjnych z elektrowni niemieckich – przypadek użycia stali T242. Badanie przeprowadzone przez URE3 potwierdza, że większość planowanych lub najbardziej zaawansowanych inwestycji jest oparta właśnie o węgiel. Aktualnie w Polsce prowadzone są duże budowy – w Elektrowni Opole (2x900 MW na węgiel kamienny), w Elektrowni Kozienice (1075 MW na węgiel kamienny), w Elektrowni Jaworzno

III (910 MW na węgiel kamienny) oraz w Elektrowni Turów (450 MW na węgiel brunatny). Oprócz tego prowadzone są także dodatkowo budowy bloków opalanych paliwem gazowym w Gorzowie, Stalowej Woli, Płocku oraz Włocławku.

A CO Z ATOMEM?

Projektując miks energetyczny kraju, nie można jednak skupiać się jedynie na krótkim okresie. Obecne prognozy mówią o wzroście cen uprawnień do emisji CO2. Zważając na fakt, że polska energetyka oparta jest na węglu, należy się spodziewać, że cena energii elektrycznej będzie coraz wyższa i wszystkie dodatkowe opłaty przejdą na odbiorcę końcowego. Co prawda cena paliwa podstawowego, jakim jest węgiel kamienny, w ostatnim czasie spada, lecz nie jest to proces gwałtowny. Rosnące ceny uprawnień do emisji CO2 oraz malejąca pula darmowych uprawnień spowodują gwałtowny wzrost związanych z nimi kosztów zmiennych wytwarzania. Jednym ze sposobów dopasowania się do nowych regulacji klimatycznych (ograniczenie poziomu emisji CO2 o 40% do 2030 roku w stosunku do roku 1990) jest zastąpienie starych bloków

węglowych elektrownią jądrową o mocy 3200 MW. Dwa takie zakłady mogą wyprodukować około 50 TWh energii elektrycznej rocznie (produkcja w 2014 roku wyniosła około 156 TWh), co zmniejszy o około 25% emisję CO2

w Polsce. Całkowite koszty inwestycyjne dla pierwszego bloku elektrowni jądrowej w Polsce są szacowane na poziomie około 4,68 miliardów euro za 1000 MW. Biorąc pod uwagę obecny kurs euro, planowana elektrownia o mocy 3000 MW kosztowałaby około 59 miliardów złotych, co nie jest zachętą dla potencjalnych inwestorów. Jedynym podmiotem, który jest aktualnie zaangażowany w proces przygotowywania inwestycji, jest konsorcjum PGE EJ1 Sp. z o.o., w którego skład wchodzą cztery strategiczne Polskie koncerny – PGE (udział 70%), KGHM, Tauron i Enea (po 10%). Jedną z metod zachęcenia i poprawy efektywności ekonomicznej takiej inwestycji jest wprowadzenie systemu wsparcia, czyli np. kontraktu różnicowego (contract for difference – zastosowany w Wielkiej Brytanii). Jego mechanizm działania polega na tym, że wytwórca sprzedając energię elektryczną na rynku, otrzymuje różnicę od zarządcy systemu, jeżeli cena rynkowa jest niższa od ceny wykonania, czyli ceny zapisanej w kontrakcie. Jeżeli zaś cena rynkowa jest wyższa od ceny wykonania, to różnicę tę wytwórca płaci zarządcy

Wielce prawdopodobne są czasowe przerwy w dostawie prądu z powodu niedoboru mocy w systemie.

zdążyć Przed blackoutem

Dobrze funkcjonujący system elektroenergetyczny to taki, który nie przypomina o swoim istnieniu. Stabilność dostaw energii elektrycznej oprócz czynnika ludzkiego zależy także od wielu urządzeń i instalacji, a te mają to do siebie, że się starzeją lub przestają spełniać aktualne wymagania. Jak to wygląda w Polsce? Czy

w ciągu najbliższych lat Polacy powinni oswoić się ze świadomością, że będą następowały przerwy w dostawie prądu? Bez wątpienia Krajowy System Elektroenergetyczny (KSE) ma w najbliższych latach sporo do nadrobienia, zarówno w obszarze wytwarzania, jak i przesyłania energii elektrycznej.

1.Biuletyn Urzędu Regulacji Energetyki, nr 4 (90), 25.11.2014.2.Pęknięcia kotłów zbudowanych z tak zwanej stali T24 spowodowały opóźnienia w oddaniu do eksploatacji poszczególnych elektrowni na parametry nadkryty-czne w Niemczech, np. Elektrowni.3.Biuletyn Urzędu Regulacji Energetyki, nr 4 (90), 25.11.2014.

TO ZALEŻY MARZEC 2015 | 41

ENERGETYKA

systemu. Należy zauważyć, że mimo olbrzymich nakładów inwestycyjnych, koszty operacyjne (m.in. koszty paliwa) są niskie w trakcie eksploatacji. Sprawia to, że elektrownia jądrowa pracując w podstawie systemu, czyli około 7900 godzin w ciągu roku, staje się konkurencyjna wobec elektrowni węglowych. Wysokie koszty inwestycyjne ponoszone przy budowie mają swoje pozytywne odzwierciedlenie w długoletnim bezpieczeństwie dostaw energii, ponieważ okres eksploatacji tego typu jednostek to około 60 lat. Obecność elektrowni jądrowej w miksie energetycznym kraju wpływa także na długookresową stabilność cen, ponieważ koszty paliwa jądrowego nie podlegają większym wahaniom.

DRUTY DO WYMIANY

Kontrole NIK oraz raport PSE wykazały, że sieci w polskim systemie elektroenergetycznym są w stanie dobrym i w chwili obecnej nie występuje zagrożenie przerwania dostaw energii elektrycznej. Problemy te mogą pojawić się jednak już w ciągu kilku najbliższych lat, a spowodowane jest to głównie wiekiem infrastruktury. Linie przesyłowe, szczególnie o napięciu 400 kV, zostały zbudowane w latach 70. i 80. poprzedniego wieku, co oznacza, że prawie połowa sieci ma powyżej 40 lat, natomiast około 70% to aktywa starsze niż 30 lat. Wobec tego sieć przesyłowa wymaga pilnej modernizacji. Wielce pożądane są inwestycje w sieci o napięciu 400 kV oraz modernizacje polegające na podwyższaniu napięć linii 220 kV do 400 kV, co spowoduje zmniejszenie strat na przesyle. Ze wspomnianych raportów wynika, że blisko 50% sieci przesyłowych oraz ponad 30% sieci dystrybucyjnych przekroczyło planowany okres sprawności funkcjonalnej. Oznacza to, że infrastruktura sieciowa może nie być w stanie utrzymywać parametrów, na jakie zostały zaprojektowane. Trzeba pamiętać także o rozbudowie infrastruktury sieciowej w celu przyłączenia nowych jednostek wytwórczych, które są aktualnie w budowie, jak i tych, których budowa jest w chwili obecnej planowana. Na stan z 30 stycznia 2015, 56 podmiotów ubiega się o podłączenie do Krajowej Sieci Przesyłowej4. W wyniku tych zmian niezbędne są inwestycje w sektor przesyłowy.

WYMIANA PO SĄSIEDZKU

Ważnym elementem Krajowego Systemu Elektroenergetycznego są połączenia transgraniczne, umożliwiające wymianę międzysystemową energii elektrycznej. Służą one do fizycznej i handlowej wymiany pomiędzy sąsiadującymi państwami. Według wytycznych Rady Europy moc połączeń transgranicznych powinna w przybliżeniu odpowiadać 10% mocy zainstalowanej w KSE. Przez długi czas ten warunek dla Polski był spełniony dzięki połączeniom synchronicznym (z Niemcami, Czechami i Słowacją) oraz połączeniom asynchronicznym, czyli głównie połączeniu stałoprądowemu ze Szwecją5. Obecnie ciągły i gwałtowny rozwój odnawialnych źródeł energii (OZE; na przykład farmy wiatrowe, źródła fotowoltaiczne) na terenie Niemiec powoduje produkcję nadwyżek, która wymusza ich przepływ z Niemiec do Polski, zmniejszając jednocześnie niezawodność pracy KSE.W kolejnych latach na podstawie informacji płynących od niemieckich operatorów oraz polityki energetycznej zachodniego

sąsiada możemy spodziewać się dalszego, znacznego wzrostu nadwyżek mocy w systemie niemieckim, która będzie pochodzić od OZE oraz źródeł konwencjonalnych, przy jednoczesnym braku zwiększania się zapotrzebowania. Taki rozwój zdarzeń zmusza operatora sieci przesyłowych w Polsce do podjęcia odpowiednich kroków zaradczych, ponieważ dalszy wzrost przepływów niepożądanych energii elektrycznej na granicy polsko-niemieckiej powoduje potencjalny wzrost zagrożeń dla systemu polskiego.Aktualnie wymiana międzysystemowa Polski za pomocą działającego połączenia synchronicznego obejmuje: 2 połączenia z Niemcami, 2 połączenia z Czechami oraz 1 połączenie ze Słowacją. W przypadku pracującego połączenia asynchronicznego Polska posiada połączenie z Ukrainą oraz ze Szwecją. Ponadto ma niepracujące połączenia transgraniczne wymagające pełnej modernizacji, czyli z Białorusią oraz drugie z Ukrainą.Ważna inwestycja, która jest aktualnie realizowana, to budowa infrastruktury oraz sieci elektroenergetycznych w celu zbudowania połączenia transgranicznego Polska-Litwa, ponieważ jest to kluczowy element do tworzenia się europejskiego rynku energii. Ten projekt przyczyni się do zlikwidowania barier funkcjonowania międzysystemowego rynku energii, poprzez zamknięcie tak zwanego pierścienia bałtyckiego.Obecnie z punktu widzenia bezpieczeństwa KSE powinno się doprowadzić do szybkiej realizacji projektów dotyczących budowy trzeciego połączenia transgranicznego z Niemcami oraz budowy przesuwników fazowych na istniejących już połączeniach międzysystemowych, które pozwoliłyby między innymi na regulowanie przepływającej mocy przez te połączenia. Kolejne połączenia transgraniczne to szansa na zapewnienie dodatkowej mocy, a co za tym idzie, na minimalizację ryzyka w przypadku braku zdolności wytwórczych w polskim systemie elektroenergetycznym.

KSE POŁOŻONY NA STOLE

Zważając na zdiagnozowane bolączki Krajowego Systemu Elektroenergetycznego, nietrudno wysnuć wnioski, że potrzebna jest przemyślana, ale i szybka operacja na szeroką skalę. Jeżeli w najbliższych latach krwioobieg, w którego żyłach płynie energia elektryczna, ma być drożny, polska elektroenergetyka powinna kojarzyć się z placem budowy. Bez wątpienia podejmowane współcześnie decyzje inwestycyjne będą miały ogromny wpływ na bezpieczeństwo, niezależność energetyczną oraz ceny energii dla przemysłu i usług w kraju. Co za tym idzie, stawką w grze jest jak największa konkurencyjność gospodarki na parkiecie międzynarodowym. Operacja się uda i pacjent będzie zdrowy, czy może skończy ze słabą odpornością, targany chorobami? To zależy od zabiegów lekarzy przy stole.

4.Wykaz wszystkich podmiotów znajduje się na stronie Polskich Sieci Elektroenergetycznych, www.pse.pl.5.Wykaz wszystkich podmiotów znajduje się na stronie Polskich Sieci Elektroenergetycznych, www.pse.pl.

fot.

Stef

an S

chw

eiho

fer C

C

HUBERT SOBORA MACIEJ JANOWSKIPAWEŁ STĘPIEŃ PIOTR ZDYB

Inżynierowie, V rok studiów magisterskich MEiL PW, III rok studiów licencjackich na WNE UW. Stypendyści Akademii Energii Fundacji im. Lesława A. Pagi. Członkowie Koła Naukowego Strategii Gospodarczej (sekcja: Energia).

42 | TO ZALEŻY MARZEC 2015

ENGLISH SECTION

This is somehow funny and sad at the same time, that in the world full of opinions, economists and some other scientists run as far as possible not to give any opinions regarding anything. It is just ridiculous to see many talented people using the phrase “it depends” as a perfect shield against difficult or so-called “politically incorrect” statements. Why is it so? Well, we can for sure begin with the econ 101 and the very first idea every economics student ever learns is that there are two separate world of “what is” and “what ought to be” as outlined by David Hume. This idea, heavily promoted by liberal economists would not be a bad taxonomy at all if it did not include an immediate connotation associated with these two classes, i.e. positive – as good one, whereas normative – as the bad choice. Milton Friedman, in his The Methodology of Positive Economics claims that economics should be regarded more like a positive science than normative. Although Milton did not use the exact phrase “should” in order not to be self-contradictory, the strong flavor is inevitably left after reading his work. Therefore economists, who finished school with mainstream, liberal classes, tend to be only giving statements that are in compliance with “positive-economics” standards. However, is it true that normative economics is “bad”? Is it true that there are immeasurable gaps between positive and normative economics? It is hard to argue with giants in economics, so to do it we need to get back to the roots of the science. The English word economics is derived from Greek word οἰκονομία, which is built from two words: οικοσ meaning house and νομοσ meaning managing or law. This combination of words was also used by Aristotle in the book titled (surprisingly) οἰκονομία on economics. Thus, economics is not only the science of finding laws that is governing the “house” – economy, but more of an art on how to manage a house. In order to say how to do something, you have to give opinions, which is contrary to the principle of positive economics that

gives only facts. Some may argue that this might be an outdated definition, so let us check what Adam Smith has to say on this issue. His major work The Wealth of Nations approached the issue of economics from the perspective of how to make a nation wealthy. A nation certainly does not become wealthy solely by observing facts, but rather apply solutions derived from observations. Thus, it is by no chance a coincidence that economics in fact was called political economics in 18th and 19th century.These two definitions given above suggest that it is not only an option, but a duty for true economists to give constructive opinions based on scientific work. Without going into too much detail about the purpose of science, education and culture, we have to say that researchers, professors and scientists in general have a “calling” and “mission” in what they do. Even when someone discovers certain laws governing the world or make great findings of the reality surrounding us, there is always a purpose behind them. We do not make observations about this world just to make our knowledge broader, but we do so to apply this knowledge in our daily life. Applying the rule of economics, we have to achieve greatest results with the scarce resources that we have. Therefore if a research is conducted for research’s sake, it becomes pointless and do not fulfill the “mission” of science. Moreover, economists have even greater responsibility of shaping the world we are living in. Why is it so? We are already living in the world shaped by economic theories. With the development of new theories, the complexity and difficulty of application is getting higher and higher. Without proper understanding that may be only accomplished through thorough studies, these theories are hard to apply. Therefore economists should not only make discoveries of certain laws (i.e. the outcome of positive economics) but also make suggestions of policies that are the result of analyses (i.e. the outcome of

normative economics). We have observed in history many great economists to lead great reforms that helped countries to recover from economics, but we have also seen not-that-great politicians to introduce policies which destroyed their economies.The contrast given in the last sentence was put there on purpose. If we, economists, do not fulfill our mission to give evidence-based, thoroughly-thought advices, there are many people out there who are willing to do so to become popular, get financial benefit or reach power. Effective suggestions of “good” policies by well known economists might help people that are not well educated in economics to fight against political populism. Moreover, economists might even help designing an effective system which would prevent certain groups of people get more favorable position in a country. However, in order to do this we have to rely on economic analyses and giving opinion based on research.There are certain areas that economists reach one point of view and in these fields things certainly do not depend on anything. Does it really all depend? Certainly not, at least in the very specific framework that we are working and living everyday and we should not avoid answering difficult and unpopular questions with a simple reference to broader framework of analysis. Thus, the point I am trying to make is that economists should be value-driven and welfare-focused specialists in resolving questions rather than creating them. A particular solution given in specific situation might be against the general solution and therefore might prove us contradictory in the eyes of public. However, the results speak for themselves. If we still use the almost cliché argument to defend our image, then please just look at how Paul Krugman looks miserable in his blog post on New York Times from July 24th 2012 titled “It Depends on the Situation”…Maybe we should think not twice, but three or four times before we say again “it depends”.

HANPING WENStudent International Economics na Wydziale Nauk Ekonomicznych UW. Konsultant w zespole PwC Strategy. Interesuje się klasyczną literaturą ekonomiczną i ekonomią polityczną.

Wierzymy, że Unilever to najlepsze miejsce, aby rozwijać swoje umiejętności i kompetencje. Bez względu na to, czy chcesz budować karierę poprzez udział w praktykach, programach menedżerskich, czy przez podjęcie stałej pracy, Unilever umożliwi Ci stworzenie własnej ścieżki rozwoju, dzięki pracy z wielkimi markami oraz ludźmi pełnymi pasji zaangażowanymi w zrównoważony rozwój naszej firmy.

Wiemy, że ostatecznie to nasi ludzie umożliwiają nam spełnienie naszych ambicji. Jeśli chcesz stać się częścią wiodącej na rynku firmy, kierować własną karierą i pracować zarówno ze wspaniałymi markami, jak i wspaniałymi ludźmi dbając z nimi o zrównoważony rozwój, to jesteś we właściwym miejscu.

STAŃ SIĘ CZĘŚCIĄ ZESPOŁU UNILEVER I POKIERUJ SWOJĄ KARIERĄ

UNILEVER FUTURE LEADERS PROGRAMMEProgram Menedżerski (UFLP) – międzynarodowy program, który koncentruje się na kształceniu przyszłych liderów.

Dzięki praktycznej nauce u boku najlepszych specjalistów/mentorów będziesz mógł rozwijać swoje umiejętności przywódcze oraz wiedzę ekspercką. Od pierwszego dnia pracy będziesz odpowiedzialny za prawdziwe zadania w ramach projektów lokalnych, jaki i regionalnych. Międzynarodowe doświadczenie pozwoli Ci szybko zdobyć niezbędną wiedzę o firmie, tak by po 3 latach móc objąć swoją pierwszą rolę lidera.

UNILEVER INTERNSHIP PROGRAMME6-miesięczne (lipiec-grudzień), płatne praktyki dla studentów odbywające się w biurze głównym w Warszawie, m.in w działach: marketingu, finansów, sprzedaży oraz HR. Unilever Internship Programme daje wyjątkową okazję poznania specyfiki pracy w branży FMCG. W trakcie 6 miesięcy uczestnicy zdobędą praktyczne doświadczenie pracując u boku ekspertów i specjalistów. Już od pierwszych dni staną się częścią międzynarodowego zespołu Unilever.

Do Unilever Internship Programme mogą zgłaszać się studenci od III do V roku studiów.

Rekrutacja na programy otwarta jest do 10 kwietnia!

Więcej informacji o nas oraz naszych ofertach znajdziesz na: www.Unilever.pl/kariera Chcesz być na bieżąco? Polub nas na Facebook’u: www.facebook.com/UnileverKariera

Polska TOP100 Idealny Pracodawca

Według studentów w 2014 r.

A BIG IMPACT

Wierzymy, że Unilever to najlepsze miejsce, aby rozwijać swoje umiejętności i kompetencje. Bez względu na to, czy chcesz budować karierę poprzez udział w praktykach, programach menedżerskich, czy przez podjęcie stałej pracy, Unilever umożliwi Ci stworzenie własnej ścieżki rozwoju, dzięki pracy z wielkimi markami oraz ludźmi pełnymi pasji zaangażowanymi w zrównoważony rozwój naszej firmy.

Wiemy, że ostatecznie to nasi ludzie umożliwiają nam spełnienie naszych ambicji. Jeśli chcesz stać się częścią wiodącej na rynku firmy, kierować własną karierą i pracować zarówno ze wspaniałymi markami, jak i wspaniałymi ludźmi dbając z nimi o zrównoważony rozwój, to jesteś we właściwym miejscu.

STAŃ SIĘ CZĘŚCIĄ ZESPOŁU UNILEVER I POKIERUJ SWOJĄ KARIERĄ

UNILEVER FUTURE LEADERS PROGRAMMEProgram Menedżerski (UFLP) – międzynarodowy program, który koncentruje się na kształceniu przyszłych liderów.

Dzięki praktycznej nauce u boku najlepszych specjalistów/mentorów będziesz mógł rozwijać swoje umiejętności przywódcze oraz wiedzę ekspercką. Od pierwszego dnia pracy będziesz odpowiedzialny za prawdziwe zadania w ramach projektów lokalnych, jaki i regionalnych. Międzynarodowe doświadczenie pozwoli Ci szybko zdobyć niezbędną wiedzę o firmie, tak by po 3 latach móc objąć swoją pierwszą rolę lidera.

UNILEVER INTERNSHIP PROGRAMME6-miesięczne (lipiec-grudzień), płatne praktyki dla studentów odbywające się w biurze głównym w Warszawie, m.in w działach: marketingu, finansów, sprzedaży oraz HR. Unilever Internship Programme daje wyjątkową okazję poznania specyfiki pracy w branży FMCG. W trakcie 6 miesięcy uczestnicy zdobędą praktyczne doświadczenie pracując u boku ekspertów i specjalistów. Już od pierwszych dni staną się częścią międzynarodowego zespołu Unilever.

Do Unilever Internship Programme mogą zgłaszać się studenci od III do V roku studiów.

Rekrutacja na programy otwarta jest do 10 kwietnia!

Więcej informacji o nas oraz naszych ofertach znajdziesz na: www.Unilever.pl/kariera Chcesz być na bieżąco? Polub nas na Facebook’u: www.facebook.com/UnileverKariera

Polska TOP100 Idealny Pracodawca

Według studentów w 2014 r.

A BIG IMPACT

Czy chcesz…sprawdzić się w roli konsultanta?dowiedzieć się jak przełożyć technologie na konkretne rozwiązania biznesowe?poznać tajniki zarządzania projektami, prowadzenia prezentacji, efektywnej komunikacji?

Letnia Akademia Accenture to: 3 tygodnie pracy w zespołach projektowych, mnóstwo praktycznej wiedzy, wykładów, warsztatów, case’ów biznesowych prowadzonych przez specjalistów Accenture.

Wybierz jedną z 3 ścieżek tematycznych i aplikuj

http://accenture.pl/letnia-akademia