studia ekonomiczne - Optimum
Transcription
studia ekonomiczne - Optimum
Kwartalnik poświęcony potrzebom nauki i praktyki 2008 Nr 1 (37) OPTIMUM STUDIA EKONOMICZNE SPIS TREŚCI STUDIA I ROZPRAWY.............................................................................................. 3 Tadeusz Chrościcki – Polska gospodarka w końcu 2007 roku ........................................ 3 Józef Rogowski – Nakłady inwestycyjne a krańcowa produktywność środków trwałych ......................................................................................................................................... 13 Urszula Gołaszewska-Kaczan – W czyim interesie działa przedsiębiorstwo – przegląd wybranych teorii ................................................................................................. 19 Mirosława Lasek, Marek Pęczkowski – Analiza kondycji ekonomicznej przedsiębiorstw za pomocą sieciowej metody połączeń Link Analysis............................................................ 27 Andrzej Buszko – Ocena efektywności wybranych programów pomocowych dla krajów słabo rozwiniętych gospodarczo w latach 2000-2006.............................................................................. 43 Anna Wildowicz-Giegiel – Konsumpcja a system wartości polskiego społeczeństwa ......... 57 MISCELLANEA ....................................................................................................... 71 Henryk Manteuffel Szoege, Marta Jóźwiak – Makroekonomiczna efektywność biblioteki publicznej w małym mieście ................................................................................ 71 Jan Zarzecki – Zarządzanie długiem Skarbu Państwa .................................................. 83 Agnieszka Mojsa – Fluktuacje cen ropy naftowej i ich wpływ na gospodarkę światową ... 99 Jarosław Poteraj – Systemy emerytalne w Europie – Austria ......................................... 111 Mateusz Kurpacz – Wybrane aspekty funkcjonowania żywności tradycyjnej w Polsce ..... 125 Bożena Dąbrowska-Jaszczołt – Uwarunkowania zmian jakości mleka w skupie na przykładzie OSM w Hajnówce.................................................................................... 135 Piotr Kowalczuk – Półsilna i silna forma efektywności rynku akcji w świetle dotychczasowych badań empirycznych ................................................................................. 147 Agnieszka Ziomek – Oczekiwania płacowe poszukujących pracy w Wielkopolsce – aspekty teoretyczne i wyniki badań empirycznych ............................................................ 169 RECENZJE I INFORMACJE .............................................................................. 179 Henryk Wnorowski – Rola lidera w organizacji ........................................................... 179 Iwona E. Bogucka – Recenzja książki Bolesława Rafała Kuca pt. Kontrola w systemie zarządzania. Funkcje i dysfunkcje ............................................... 186 Eugeniusz Kośmicki – Recenzja książki Martina Jänicke, Philipa Kunig i Michaela Stitzel pt. Umweltpolitik. Lern- und Arbeitsbuch. Politik, Recht und Management des Umweltschutzes in Staat und Unternehmen ..................................... 189 Uwarunkowania i mechanizmy zrównoważonego rozwoju, VI Międzynarodowa Konferencja Naukowa, Katedra Gospodarowania Środowiskiem i Turystyki Wyższej Szkoły Ekonomicznej w Białymstoku, Zakład Zrównoważonego Rozwoju Wydziału Ekonomii i Zarządzania Uniwersytetu w Białymstoku, Białystok-Tallin, 2-5 lipca 2007 r. ....................................................................................... 194 Rozwój regionalny – podstawowe cele i wyzwania, Fundacja Promocji Rozwoju Podlasia, Białowieża, 3-5 września 2007 r. ................................................................................. 197 Perspektywy rozwoju gospodarki społecznej w Polsce a koncepcja zrównoważonego rozwoju, Stała Konferencja Ekonomii Społecznej Reves, Fundacja Inicjatyw SpołecznoEkonomicznych, Warszawa, 18 – 20 października 2007 r. ................................... 199 Doktoraty ................................................................................................. 207 Wojciech Tarasiuk – Efektywność placówek banku detalicznego ................................... 207 Adam Giegiel – Kapitał niematerialny a tempo wzrostu gospodarczego (na przykładzie państw OECD) .......................................................................................................................... 210 Aneta Kargol – Partnerstwo publiczno-prywatne jako czynnik ekonomizacji dostarczania dóbr publicznych .......................................................................................................................... 213 Aneta Ejsmont – Czynniki rozwoju sektora małych i średnich przedsiębiorstw w polskiej gospodarce.................................................................................................................... 219 Teresa Mikulska – Budżetowanie kosztów jako metoda zarządzania przedsiębiorstwem........ 222 STUDIA I ROZPRAWY Tadeusz CHROŚCICKI POLSKA GOSPODARKA W KOŃCU 2007 ROKU Streszczenie Artykuł jest syntezą najistotniejszych zmian zachodzących w gospodarce naszego kraju w końcu 2007 r. Przedstawiono je na tle innych krajów Unii Europejskiej. Silnym tendencjom wzrostowym towarzyszy wzmagająca się presja inflacyjna, coraz bardziej restrykcyjna polityka monetarna, nierównowaga w obrotach handlowych i płatniczych z zagranicą. Wysokie potrzeby pożyczkowe budżetu państwa determinują narastanie długu publicznego. Coraz bardziej komplikuje się sytuacja na rynku pracy. Wzrost gospodarczy staje się coraz mniej zrównoważony. POLISH ECONOMY BY THE END OF 2007 Summary The article provides a synthesis of most significant developments that occurred in the economy of Poland by the end of 2007. They have been presented against a backcloth of other EU countries. Strong upward trends are accompanied by: increasing inflationary pressure, increasingly restrictive monetary policy, lack of equilibrium in the balance of international trade and payments. Dramatic loan needs of the Budget determine an increase in national debt. The situation in the labour market becomes more and more complicated. The economic growth becomes less and less balanced. 1. Silny, ale coraz mniej zrównoważony wzrost Drugi, kolejny rok polska gospodarka rozwijała się bardzo szybko. Silne tendencje wzrostowe objęły wszystkie jej sektory. Był to jednak wzrost coraz mniej zróżnicowany, dokonujący się w warunkach zwiększającej się inflacji, coraz wyższych stóp procentowych, niedostosowania podaży do popytu na pracę, wydatnej presji płacowej, narastającego deficytu handlowego i płatniczego oraz wysokiego zadłużenia kraju. O ile w 2006 r. produkt krajowy brutto był o 6,2% większy niż przed rokiem, to w okresie styczeń – wrzesień 2007 r. o 6,7%. W IV kwartale ub. roku dynamika procesów realnych nieco osłabła. Mimo to, w skali całego ubiegłego roku, wzrost gospodarczy wyniósł około 6,5%. 4 Tadeusz Chrościcki RYSUNEK 1. Wzrost produktu krajowego brutto (analogiczny kwartał poprzedniego roku = 100) 8 4 3,2 4,3 4,4 III IV 5,4 6,3 6,6 6,6 II III IV 7,2 6,4 6,4 II III 2,4 0 I II I 2005 2006 I 2007 Źródło: GUS. RYSUNEK 2. Tempo wzrostu PKB w krajach UE, w okresie styczeń – wrzesień 2007 r. Dania Węgry Portugalia Francja Włochy Belgia Niemcy UE-27 W. Brytania Niderlandy Szwecja Austria Hiszpania Grecja Cypr Malta Luksemburg Finlandia Rumunia Czechy Bułgaria Polska Irlandia Słowenia Estonia Litwa Słowacja Łotwa 1,7 1,8 1,8 1,8 2,0 2,8 2,9 3,0 3,1 3,1 3,3 3,4 4,0 4,1 4,1 4,5 5,0 5,0 5,8 6,1 6,4 6,7 6,7 6,9 8,2 8,9 9,0 11,1 0,0 2,0 4,0 6,0 Źródło: obliczenia własne na podstawie danych Eurostatu. 8,0 10,0 12,0 Polska gospodarka w końcu 2007 roku 5 Polska znajdowała się w czołówce najszybciej rozwijających się krajów Unii Europejskiej. Pod tym względem ustępowaliśmy miejsca jedynie krajom bałtyckim oraz Słowacji i Słowenii. Głównym czynnikiem napędowym gospodarki pozostawał popyt wewnętrzny zarówno inwestycyjny, jak i konsumpcyjny. W dalszym ciągu notowano wysoką dynamikę eksportu, jednak ze względu na ożywienie popytu krajowego i towarzyszące mu przyspieszenie importu, ujemne saldo handlu zagranicznego zmniejszało przyrost PKB. 2. Rekordowa dynamika inwestowania Szczególnie szybko rosły nakłady brutto na środki trwałe, odzwierciedlające skłonność przedsiębiorstw do inwestowania. Już w 2006 r. zwiększyły się one o 15,6%, a w okresie styczeń – wrzesień 2007 r. aż o 21,7%, tj. w tempie dotychczas nie notowanym. W rezultacie stopa inwestycji (relacja nakładów brutto na środki trwałe do PKB) wzrosła do 21%, wobec 19,7% w 2006 r. i 18,2% w 2005 r. Mocny impuls inwestycyjny potwierdzają dane o inwestycjach dużych przedsiębiorstw (zatrudniających powyżej 49 osób). W 2006 r. nakłady tych podmiotów zwiększyły się o 19,2%, a w okresie styczeń – wrzesień 2007 r. aż o 30,8%, przy czym około 42% ogółu nakładów poniosły przedsiębiorstwa z udziałem kapitału zagranicznego. Wysoka dynamika inwestycji utrzyma się w dłuższej perspektywie, na co wskazują m.in.: – pozytywna ocena przez podmioty gospodarcze perspektyw krajowego i zagranicznego zapotrzebowania na produkty i usługi; – wysoka spodziewana stopa zwrotu z zaangażowanego kapitału; – wyczerpywanie się możliwości zaspokajania rosnącego popytu przy wykorzystaniu dostępnych obecnie mocy produkcyjnych; – bardzo dobra sytuacja ekonomiczno – finansowa przedsiębiorstw. W okresie styczeń – wrzesień 2007 r. wskaźnik rentowności obrotu brutto osiągnął 6,4%, a netto 5,2%; – łatwo dostępny i relatywnie tani kredyt bankowy. W końcu października 2007 r. roczne tempo wzrostu kredytów dla firm wyniosło 24,4%; – przekraczający 25% wzrost zadłużenia zagranicznego przedsiębiorstw z tytułu kredytów niehandlowych; – napływ kapitału zagranicznego. Rok 2007 był rokiem rekordowego zainteresowania tego kapitału naszym krajem. Wartość bezpośrednich inwestycji zagranicznych przekroczyła 17 mld EUR; – absorpcja funduszy unijnych. Negatywny wpływ na realizowane i planowane inwestycje mogą mieć natomiast wzrastające koszty wynagrodzeń oraz rosnące ceny dóbr inwestycyjnych. 6 Tadeusz Chrościcki RYSUNEK 3. Wzrost nakładów brutto na środki trwałe (analogiczny kwartał poprzedniego roku = 100) 30,0 26,2 25,0 20,0 15,9 15,0 10,0 5,0 1,2 3,9 10,1 9,0 IV I 6,4 18,0 20,8 19,8 16,6 0,0 I II 2005 III II 2006 III IV I II 2007 III Źródło: GUS. 3. Wysoki popyt konsumpcyjny Bardzo dynamicznie rośnie popyt konsumpcyjny sektora gospodarstw domowych. W 2006 r. był on o 4,9% wyższy niż przed rokiem, a w okresie styczeń – wrzesień 2007 r. o 5,7%. RYSUNEK 4. Wzrost spożycia indywidualnego (analogiczny kwartał poprzedniego roku=100) 8,0 6,9 6,0 5,2 5,0 4,4 5,1 4,7 5,2 4,0 2,0 1,4 2,5 2,5 III IV 1,6 0,0 I Źródło: GUS. II 2005 I II 2006 III IV I II III 2007 Polska gospodarka w końcu 2007 roku 7 Czynnikiem determinującym to tempo jest głównie poprawa na rynku pracy, przejawiająca się zarówno wzrostem zatrudnienia, jak i coraz wyższym poziomem wynagrodzeń. W 2006 r. zatrudnienie w sektorze przedsiębiorstw zwiększyło się o 3%, a w okresie styczeń – październik 2007 r. o dalsze o 4,7%, natomiast przeciętne wynagrodzenia były tam odpowiednio o 5,1% i o 9,2% wyższe. Poprawa sytuacji dochodowej jest również widoczna w gospodarstwach pracujących na własny rachunek, a szczególnie w gospodarstwach rolnych. Podobnie, jak w 2006 r., układ cen był korzystny dla rolników. Z względu na wyższą dynamikę cen produktów rolnych sprzedawanych przez rolników niż cen towarów i usług przez nich nabywanych, wskaźnik „nożyc cen” wyniósł w 2006 r. 102,9, a w okresie styczeń – październik 2007 ub. roku 104,2. Istotną rolę odgrywały też środki pomocowe UE. W latach 2006 – 2007 roczne wypłaty transferów UE, w ramach Wspólnej Polityki Rolnej (łącznie z kwotami należnymi z krajowego budżetu, wynikającymi z zasad współfinansowania) przekroczyły 15 mld zł. Ocenia się, że wypłaty te w coraz mniejszym stopniu finansowały konsumpcję, a przeznaczane były na zakup środków do produkcji rolnej, czy też pokrywały koszty działalności określonej programami unijnymi, wspierającymi inwestycje. Dużą rolę w kształtowaniu popytu konsumpcyjnego odgrywały też wielomiliardowe transfery, pozyskiwane w wyniku emigracji zarobkowej. Rosło również wykorzystanie kredytów i pożyczek bankowych zarówno konsumpcyjnych, jak i hipotecznych. Z tego tytułu gospodarstwa domowe zadłużone były w końcu października ub. roku na kwotę prawie 250 mld zł, tj. o 39% wyższą niż rok wcześniej. Należy jednak przy tym podkreślić, że na tle innych gospodarek UE skala zadłużenia polskich gospodarstw domowych pozostała bardzo niska. Relacja zadłużenia tych gospodarstw do PKB wynosiła w końcu 2007 r. jedynie około 22%. Dodatkowym impulsem dla konsumpcji jest zmniejszenie od lipca 2007 r. stawki składki rentowej, płaconej przez pracownika, o 3 pkt proc., a od stycznia 2008 r. o dalsze 2 pkt proc. W rezultacie tego pracownik będzie płacił ze środków własnych składkę w wysokości zaledwie 1,5% podstawy wymiaru. Wśród czynników hamujących w 2007 r. popyt konsumpcyjny najistotniejsze znaczenie miał brak waloryzacji rent i emerytur, co obniżyło, związane ze świadczeniami społecznymi, realne dochody gospodarstw domowych. Przyspieszenie popytu konsumpcyjnego znajdowało odzwierciedlenie w sprzedaży detalicznej, która w okresie styczeń – październik ub. roku, w porównaniu z analogicznym okresem 2006 r., zwiększyła się w cenach stałych o 14%, w tym sprzedaż samochodów i sprzętu motoryzacyjnego o 37%, a mebli, sprzętu RTV i AGD o 23%. Pozytywna ocena przyszłej sytuacji gospodarstw domowych (m.in. zmniejszenie obaw przed bezrobociem i oczekiwany dalszy wzrost realnych wynagrodzeń) wpływa na wysoki poziom optymizmu konsumentów i możliwość utrzymania się w kolejnych miesiącach przyspieszonego wzrostu spożycia i obrotów handlu wewnętrznego. 8 Tadeusz Chrościcki 4. Zmiana trendów w handlu zagranicznym Szybko zwiększały się obroty handlu zagranicznego, chociaż w tempie już nie tak wysokim, jak w poprzednich latach, a przyrost eksportu był wolniejszy niż importu. W okresie styczeń – październik 2007 r. eksport liczony w euro (w ujęciu rzeczowym) był o 14,2% wyższy niż przed rokiem, podczas gdy w latach 2004 – 2006 jego średni roczny wzrost wynosił 22,5%, natomiast import, w tym czasie, zwiększył się odpowiednio o 16,4%, wobec 16,7%. Zwraca uwagę bardzo wysoki (o ponad 26%) wzrost eksportu do krajów Europy Środkowej i Wschodniej, wynikający z dynamicznego rozwoju tych gospodarek i perspektyw dalszej poprawy koniunktury. Nieco tylko niższy od przeciętnego wzrost eksportu (13,8%) zanotowano do Unii Europejskiej, której udział w całym naszym eksporcie wyniósł 79%. Szybszy wzrost importu niż eksportu wpłynął na pogłębienie się ujemnego salda obrotów towarowych, które po 10 miesiącach osiągnęło 13,2 mld euro (przed rokiem 10,0 mld euro). Przyczyniło się do tego głównie obniżenie dodatniego salda w handlu z krajami UE oraz zwiększenie deficytu w wymianie z krajami rozwijającymi się (m.in. dalszy wydatny wzrost handlu z Chinami). 5. Większy deficyt na rachunku obrotów bieżących Wzrost ujemnego salda obrotów towarowych oraz salda dochodów (wysokie wypłaty zysków, w tym dywidend, inwestorom zagranicznym z tytułu dochodów z zaangażowania kapitałowego) zadecydował o pogłębieniu się deficytu na rachunku obrotów bieżących. W końcu października 2007 r. deficyt ten, w skali 12 miesięcy, wyniósł 9,8 mld euro. Pozostał jednak na bezpiecznym poziomie, mimo że w relacji do PKB zwiększył się do 4%, co było najgorszym wynikiem od wiosny 2001 r. Podobnie, jak w poprzednich latach, pozytywnie na rachunek bieżący wpłynął napływ środków w ramach transferów (zarówno z funduszów UE, jak i przekazów prywatnych). 6. Groźba zwiększonej inflacji Rośnie presja inflacyjna. W październiku 2007 r., w porównaniu z październikiem 2006 r., ceny towarów i usług konsumpcyjnych wzrosły o 3,6%, przekraczając górną granicę przedziału celu inflacyjnego, określonego przez Radę Polityki Pieniężnej (3,5%). Najbliższe miesiące mogą przynieść jeszcze silniejszy impuls inflacyjny, a jednym z istotnych, kreujących go czynników – poza sytuacją na światowym rynku paliw Polska gospodarka w końcu 2007 roku 9 i drożejącymi produktami żywnościowymi1 – może być wysoki popyt wewnętrzny, w warunkach szybko rosnących dochodów gospodarstw domowych. Szczególnie groźne stanie się dalsze pogorszenie relacji między wzrostem wynagrodzeń a wydajności pracy, tworzące presję kosztową (w pierwszym, a szczególnie w drugim i trzecim kwartale ub. roku dynamika średnich wynagrodzeń w gospodarce narodowej znacznie przewyższyła dynamikę wydajności pracy). Z tego to powodu niepokojąco rosła podaż pieniądza wyrażona miernikiem M3. W październiku ub. roku była ona wyższa niż październiku 2006 r. o 13,5%. Wzrost ten nie można oczywiście łączyć tylko z przejawiającymi się napięciami inflacyjnymi. Jest on bowiem pochodną m.in. także wzrostu gospodarczego i obsługi zwiększonych transferów zagranicznych. RYSUNEK 5. Zharmonizowany wskaźnik cen konsumpcyjnych w krajach UE, w październiku 2007 r. (wzrost w % w ujęciu rocznym) Niderlandy Malta Finlandia Dania Szwecja Wielka Brytania Francja Belgia Włochy Słowacja Portugalia UE-27 Niemcy Cypr Austria Irlandia Grecja Polska Luksemburg Hiszpania Czechy Słowenia Węgry Rumunia Litwa Estonia Bułgaria Łotwa 1,6 1,6 1,8 1,8 1,9 2,1 2,1 2,2 2,3 2,4 2,5 2,7 2,7 2,7 2,9 3,0 3,0 3,1 3,6 3,6 4,0 5,1 6,9 6,9 7,6 8,7 10,6 13,2 0,0 2,0 4,0 6,0 8,0 10,0 12,0 14,0 Źródło: Eurostat. 1 Udział wydatków przeznaczanych przez gospodarstwa domowe na żywność w strukturze ogólnych wydatków wynosi ok. 27%, co w przypadku istotniejszych zmian cen produktów spożywczych ma znaczący wpływ na stopę inflacji. 10 Tadeusz Chrościcki Wysokie ceny żywności (w listopadzie 2007 r., w porównaniu z listopadem 2006 r., wzrost o 7,6%) wynikały w dużej mierze z rosnącego popytu wewnętrznego i eksportu stymulowanego przez szybko drożejące surowce rolne i produkty spożywcze na rynkach światowych (zboża, mleko), obniżenia się produkcji i podaży krajowych surowców rolniczych (owoce, drób, wieprzowina) oraz zwiększających się pozasurowcowych kosztów produkcji żywności w Polsce (paliwa, koszty osobowe). W innych krajach wzrost cen żywności był bardzo zróżnicowany. Najwyższy obserwowało się w Bułgarii (26%), na Łotwie (15%) i Litwie (13%). Najwolniejszy zaś w Niderlandach (0,3), Szwecji (0,8%) oraz Francji (1,3%). Antyinflacyjnie oddziaływały przede wszystkim: wzrastająca konkurencja na krajowym rynku, w tym towarów importowanych z krajów o niskich kosztach wytwarzania, silny złoty oraz wzrost skłonności do oszczędzania, o czym świadczył m.in. dynamiczny przyrost zasobów finansowych gospodarstw domowych (m.in. złotowych i dewizowych lokat oszczędnościowych, pieniądza gotówkowego, aktywów funduszy inwestycyjnych, obligacji i bonów skarbowych, akcji zakładów ubezpieczeń na życie). Ogólna kwota tych zasobów wyniosła w końcu października ub. roku 616 mld zł i była nominalnie o 24,7% wyższa niż rok wcześniej, a uwzględniając w tym okresie wzrost cen towarów i usług konsumpcyjnych – realnie o 21,1%. Inflacja w Polsce przekracza obecnie średni poziom UE i od maja 2007 r. nie jest uwzględniana przy obliczaniu wartości referencyjnych dla krajów członkowskich. Nadal jednak spełniamy kryterium inflacyjne, określone traktatem z Maastricht, będące jednym z warunków uczestniczenia w strefie euro. 7. Coraz bardziej skomplikowana sytuacja na rynku pracy Od II kwartału 2003 r. obserwuje się systematyczny wzrost popytu na pracę i liczbę pracujących w gospodarce narodowej. Szczególnie szybko zwiększa się zatrudnienie w usługach i przemyśle. Przyrost nowych miejsc pracy, przy dużej emigracji zarobkowej2, decyduje o spadku bezrobocia, którego stopa w końcu października 2007 r. wyniosła 11,3%, wobec 14,9% przed rokiem. Polska stała się krajem, w którym poprawa na rynku pracy następuje najszybciej wśród krajów europejskich. Jednocześnie coraz więcej firm sygnalizuje problemy ze znalezieniem pracowników o odpowiednich kwalifikacjach. Według badań prowadzonych przez NBP, Główny Urząd Statystyczny oraz Polską Konfederację Pracodawców Prywatnych, w budownictwie niedobór wykwalifikowanych pracowników deklaruje ponad 60% pracodawców, natomiast w przemyśle jedna trzecia. Zaskakujące jest, że zwiększającej się liczbie pracujących i obniżającej stopie bezrobocia towarzyszy spadek liczby osób aktywnych zawodowo. W III kwartale 2007 r. współczynnik aktywności zawodowej (liczony 2 Według szacunków GUS, w końcu 2006 r. liczba Polaków przebywających czasowo, powyżej 2 miesięcy, za granicą wynosiła prawie 2 mln, wobec 1 mln pod koniec 2004 r. Dane te nie obejmują sezonowej emigracji, która ze względu na czas trwania – najczęściej do 3 miesięcy – w większości krajów UE podlega uproszczonym procedurom formalno-prawnym lub w ogóle nie jest rejestrowana. Najwięcej emigrantów przebywa czasowo w Wielkiej Brytanii (ok. 0,6 mln) i w Niemczech (ok. 0,5 mln). Polska gospodarka w końcu 2007 roku 11 jako relacja ludności aktywnej zawodowo – pracującej i bezrobotnej – do ogólnej liczby ludności w wieku 15 lat i więcej) wyniósł tylko 54,1% i obniżył się w ciągu 12 miesięcy o 0,6 pkt proc. Był on, obok Węgier, najniższy wśród krajów UE. Głównymi tego przyczynami są dezaktywizacja zawodowa, związana z nabywaniem praw do wcześniejszych świadczeń emerytalnych, oraz emigracja zarobkowa. Spadek aktywności zawodowej ogranicza podaż pracy, przyczyniając się do presji płacowej. Poza tym wcześniejsze emerytury kosztują finanse publiczne ok. 20 mld zł rocznie (1,9% PKB). Mimo wyraźnego spadku stopy bezrobocia, jest ona obecnie, poza Słowacją, najwyższa wśród krajów Unii Europejskiej. Prognozy wskazują jednak, że już w 2008 r. bezrobocie w Polsce (liczone wg metody unijnej) będzie zbliżone do średniego poziomu krajów członkowskich. RYSUNEK 6. Zharmonizowana stopa bezrobocia w krajach UE, w październiku 2007 r. Dania Niderlandy Cypr Litwa Austria Słowenia Irlandia Luksemburg Łotwa Czechy Wielka Brytania Estonia Szwecja Włochy Malta Bułgaria Finlandia UE-27 Węgry Rumunia Belgia Niemcy Hiszpania Francja Portugalia Grecja Polska Słowacja 2,9 3,1 3,8 4,3 4,3 4,4 4,4 4,9 5,0 5,0 5,2 5,4 5,8 5,9 6,2 6,2 6,8 7,0 7,3 7,3 7,4 8,1 8,1 8,1 8,2 8,4 8,8 11,2 0,0 Źródło: Eurostat. 2,0 4,0 6,0 8,0 10,0 12,0 12 Tadeusz Chrościcki 8. Pomimo niskiego ujemnego salda – wysokie potrzeby pożyczkowe budżetu państwa Wysokie tempo wzrostu gospodarczego wpływało dynamizująco na dochody budżetu państwa, które w okresie styczeń – październik 2007 r. były o 19,9% wyższe niż przed rokiem, przy wydatkach wzrastających o 11,3%. Efektem był niski deficyt (4,4 mld zł). Mogłoby to oznaczać, że sytuacja finansowa państwa jest bardzo dobra. Taka ocena jest jednak mylna. Zwrócić bowiem należy uwagę na potrzeby pożyczkowe, tzn. kwotę pożyczek, które trzeba zaciągnąć, by sfinansować zaplanowane wydatki. Otóż kwotę tę, poza oficjalnym deficytem, określają także m.in.: współfinansowanie zadań realizowanych z udziałem środków Unii Europejskiej, a przede wszystkim koszty reformy systemu emerytalnego. Łącznie po 10 miesiącach ub. roku stanowiły one prawie 14 mld zł. Trzeba przy tym pamiętać, że były to kwoty netto, tzn. bez uwzględnienia potrzeb wynikających ze spłaty krajowych pożyczek wcześniej zaciągniętych (wykup obligacji i bonów skarbowych), na które należy zaciągnąć nowe pożyczki (wyemitować papiery skarbowe). W rezultacie narastał państwowy dług publiczny, który w końcu 2007 r. sięgnął 545 mld zł, zwiększając się w ciągu 12 miesięcy o około 40 mld zł, wobec 38,4 mld zł wzrostu w 2006 r. Coraz większy jest jednocześnie ciężar kosztów obsługi długu. W 2007 r. przekroczyły one 28 mld zł, stanowiąc prawie 11% ogółu wydatków budżetowych i 2,4% wartości PKB. Gdyby nie konieczność spłat rat kapitałowych i odsetek od długu krajowego i zagranicznego, notowalibyśmy w 2007 r. nie deficyt, a nadwyżkę budżetu państwa w wysokości ok. 5 mld zł. OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008 Józef ROGOWSKI 1 NAKŁADY INWESTYCYJNE A KRAŃCOWA PRODUKTYWNOŚĆ ŚRODKÓW TRWAŁYCH Streszczenie Celem pracy jest zbadanie, czy istnieje związek między krańcową wydajnością środków trwałych a nakładami inwestycyjnymi na bazie danych przekrojowych (wojewódzkich). W pierwszym kroku podjęto próbę oszacowania krańcowych produktywności kapitału w poszczególnych województwach na podstawie danych za lata 1999-2004, przyjmując następujące założenia: mamy do czynienia z funkcją produkcji CobbaDouglasa w jej klasycznej postaci, czyli ze stałymi przychodami względem skali produkcji oraz przyjęto, że deflatory PKB dla województw są równe wojewódzkim wskaźnikom inflacji. W drugim kroku zbadano korelację między oszacowanymi w pierwszej części wielkościami a nakładami inwestycyjnymi poniesionymi w poszczególnych regionach. Analizę przeprowadzono dla każdego z badanych lat oddzielnie. Otrzymano brak istotnej zależności dodatniej, jeżeli wzięto pod uwagę wszystkie województwa (przy poziomie istotności równym nawet 0,01). Natomiast po wyeliminowaniu województwa mazowieckiego współczynniki korelacji liniowej Pearsona dla poszczególnych lat wahały się od 0,578 do 0,679. Dla lat 2001, 2003 oraz 2004 badana zależność była istotnie dodatnia przy poziomie istotności 0,05, a dla pozostałych okresów – 0,01. Należy zauważyć, że wartość tych parametrów nie jest bliska 1, czyli istnieją jeszcze inne istotne przyczyny zróżnicowania przestrzennego inwestycji. CAPITAL OUTLAYS AND THE MARGINAL PRODUCTIVITY OF FIXED ASSETS Summary The article is aimed at finding out whether there is a link between the marginal productivity of fixed assets and capital outlays based on cross-section analysis (on a provincial level). At the first stage an attempt was made to estimate marginal productivity of capital for particular provinces on the basis of data concerning figures for the period 1999-2004 assuming that: a) we have to do with the Cobb-Douglas production function in its classic form, i.e. with a fixed income compared to the scale of output; and that: b) the GDP deflators for particular provinces are equal to the provincial inflation rate. At the second stage the correlation between the estimated figures at the first stage and the capital outlays incurred in particular regions was analysed.The analysis for each year was conducted separately. As a result, no significant positive relationship was stated when all the provinces were considered (with the essentiality level equal even to 0.01). However, after the Mazowieckie Province had been excluded from investigation, the Pearson linear correlation coefficients for particular provinces were from 0.578 to 0.679. The investigated relationship for the years 2001, 2003 and 2004 was really positive with the essentiality level of 0.005, and for the other periods it amounted to 0.01. It should be pointed out that the value of those parameters is not close to 1, hence, there must be other essential reasons for the spatial diversification of investments. 1 Dr hab. Józef Rogowski jest pracownikiem Wydziału Ekonomii i Zarządzania Uniwersytetu w Białymstoku. 14 Józef Rogowski 1. Wstęp Niniejsza praca jest przyczynkiem do zbadania zróżnicowania rozwoju gospodarczego regionów (województw) polskich. W Rogowski J. [2003 s. 461 – 470; 2004a s. 9 – 23; 2004b s. 73 – 80; 2005 s. 19 – 33; 2006 s. 86 – 92] rozważano modele matematyczne oparte na modelu Harroda-Domara [Allen 1975 s. 202 i dalsze] opisujące rozwój dwóch regionów, gdzie kluczowym pojęciem były międzyregionalne przepływy kapitałowe. Prace powyższe różniły się założeniem, co do wielkości tych przepływów. One z kolei mają wpływ na nakłady inwestycyjne w poszczególnych województwach. W obecnym artykule przeprowadzona zostanie próba zbadania hipotezy o wpływie krańcowej produktywności kapitału na wysokość nakładów inwestycyjnych. Jeżeli potwierdzone zostanie istnienie powyższej zależności, to w modelu rozwoju regionów będzie można wprowadzić odpowiednie równanie. Natomiast do dalszych badań pozostawia się źródła zróżnicowania krańcowej produktywności kapitału rzeczowego. Oczywiście to też będzie musiało być uwzględnione w badaniu zróżnicowania rozwoju regionów. 2. Krańcowa produktywność kapitału W celu zbadanie związku zachodzącego między krańcową wydajnością środków trwałych a nakładami inwestycyjnymi w poszczególnych województwach Polski należy mieć dane dotyczące tych zmiennych w ujęciu regionalnym. Dane dotyczące drugiej zmiennej, chociaż w ujęciu brutto, można znaleźć w Roczniku Statystycznym GUS. Natomiast wartości pierwszej zmiennej trzeba oszacować. Wybrano oszacowanie na podstawie funkcji produkcji [Allen 1975 s. 51]. Zatem należy oszacować funkcję produkcji, a następnie wyznaczyć jej odpowiednią pochodną cząstkową. Jeżeli założymy, że mamy do czynienia z funkcją Cobba-Douglasa w jej klasycznej postaci: F (K , L ) = AK α L1−α , gdzie K i L oznaczają odpowiednio zasoby kapitału i pracy, to krańcowa wydajność kapitału jest wprost proporcjonalna do średniej produkcyjności środków trwałych: ∂F (K , L ) F (K , L ) , =α ∂K K gdzie współczynnikiem proporcjonalności jest wykładnik związany z K w funkcji CD [Allen 1975 s. 59]. Należy więc oszacować parametr α dla każdego województwa, a następnie policzyć odpowiednie iloczyny. Problem, z którym się tu spotykamy, to brak danych o PKB i o wartości zasobów środków trwałych w cenach stałych w ujęciu regionalnym. Dokonane zostało tu daleko idące uproszczenie polegające na wzięciu pod uwagę indeksów cen dóbr i usług konsumpcyjnych dla poszczególnych województw2 w celu wyznaczenia wymienionych zmiennych w cenach stałych. W ten sposób oszacowano parametry α dla każdego województwa na podstawie danych z lat 1998-20043: 2 3 Te dane są dostępne w Rocznikach Statystycznych GUS w poszczególnych latach. Województwo mazowieckie zostało pominięte, ponieważ jego dane były nietypowe, o czym niżej. Nakłady inwestycyjne a krańcowa produktywność… Województwo dolnośląskie kujawsko-pomorskie lubelskie lubuskie łódzkie małopolskie opolskie podkarpackie podlaskie pomorskie śląskie świętokrzyskie warmińsko-mazurskie wielkopolskie zachodnio-pomorskie 15 p-wartość α 1.121 0.001 1.217 0.003 1.301 0.003 1.149 0.002 1.329 0.001 1.084 0.000 1.348 0.008 1.052 0.000 1.210 0.003 1.413 0.004 1.867 0.007 1.219 0.000 1.492 0.000 1.255 0.002 0.778 0.000 Należy w tym miejscu zauważyć, że oszacowana wartość parametru funkcji C-D tylko w przypadku województwa zachodnio-pomorskiego spełnia własność klasyczną funkcji produkcji. Może to wynikać z zastosowania wskaźnika cen dóbr i usług konsumpcyjnych jako deflatora zarówno PKB, jak i środków trwałych. Również zastosowanie funkcji liniowej dawało podobnie sprzeczne wyniki. Jednak w dalszym ciągu na podstawie otrzymanych estymacji analiza będzie kontynuowana. Następnie dla każdego z lat 1999 – 2004 oraz dla każdego regionu wyznaczono średnią produkcyjność środków trwałych, liczoną jako stosunek PKB i zasobu środków trwałych w cenach bieżących4 oraz mnożąc przez oszacowane α otrzymano krańcową produktywność kapitału: Województwo dolnośląskie kujawsko-pomorskie lubelskie lubuskie łódzkie małopolskie opolskie podkarpackie podlaskie pomorskie śląskie świętokrzyskie warmińsko-mazurskie wielkopolskie zachodnio-pomorskie 1999 .60 .65 .53 .59 .68 .56 .50 .48 .50 .73 .92 .54 .46 .67 .48 Krańcowa produktywność środków trwałych w roku 2000 2001 2002 2003 .62 .60 .59 .58 .72 .71 .68 .67 .56 .58 .58 .58 .62 .61 .58 .58 .71 .70 .71 .71 .58 .55 .55 .55 .55 .53 .51 .51 .49 .49 .47 .47 .55 .56 .54 .53 .74 .71 .70 .74 .98 1.01 1.02 1.04 .58 .56 .54 .57 .48 .46 .47 .48 .71 .72 .69 .68 .51 .50 .49 .48 2004 .60 .71 .60 .61 .74 .58 .60 48 .55 .78 1.14 .60 50 .71 50 4 Jeżeli miałby być stosowany ten sam deflator, to nie ma znaczenia czy stosujemy ceny stałe, czy bieżące. 16 Józef Rogowski Można zauważyć, że we wszystkich analizowanych latach największą krańcową produktywnością kapitału charakteryzowało się województwo śląskie, a najniższą – podkarpackie. 3. Uzyskane wyniki Dla każdego roku policzono współczynniki korelacji liniowej Pearsona między produktywnością krańcową kapitału a nakładami inwestycyjnymi. Ponieważ dane są przekrojowe, to nie wystąpił problem deflatora i wzięto nakłady w cenach bieżących. W tym miejscu należy zaznaczyć, że w każdym roku dane dotyczące województwa mazowieckiego nie pasowały do pozostałych regionów Polski, co pokazuje np. diagram dla roku 2004: gdzie na osi poziomej oznaczona jest krańcowa wydajność środków trwałych, a na pionowej – nakłady inwestycyjne. Województwo mazowieckie jest tu oznaczone jako mazow. Ten region ma mniejszą marginalną produktywność kapitału przy dużych nakładach inwestycyjnych. Współczynnik korelacji liczony dla wszystkich województw w każdym analizowanym roku jest statystycznie nieistotny nawet przy poziomie istotności 0.1. Po wyeliminowaniu Mazowsza otrzymano jakościowo inne wyniki. Współczynniki korelacji liniowej ( r ) dla poszczególnych lat między przyjętymi dwiema zmiennymi były następujące: Nakłady inwestycyjne a krańcowa produktywność… Rok 1999 2000 2001 2002 2003 2004 20055 17 r 0.679** 0.636** 0.590* 0.654** 0.586* 0.578* 0.618** gdzie * – oznacza, że współczynnik jest istotnie większy od zera na poziomie istotności 0.05, a ** – na poziomie istotności 0,01. Otrzymane współczynniki korelacji liniowej są istotnie dodatnie, chociaż ich wartość nie jest bliska jedności. 4. Wnioski Otrzymane wyniki potwierdzają hipotezę, że wielkość nakładów inwestycyjnych zależy od krańcowej wydajności środków trwałych. Siła tej relacji pokazuje, że są jeszcze równie ważne inne czynniki określające tę zmienną. Szczególnie to można zaobserwować w przypadku województwa mazowieckiego. Tam decyzje inwestycyjne rządzą się, w porównaniu z pozostałymi regionami, innymi prawami. Należy w tym miejscu przypomnieć, że na otrzymane wyniki wpływ może mieć brak danych dotyczących deflatorów PKB oraz środków trwałych w ujęciu regionalnym. Poza tym zarówno nakłady inwestycyjne, jak i środki trwałe są podane w ujęciu brutto. Kolejnym krokiem, poza rozwiązaniem powyższych problemów, powinno być zbadanie czynników określających krańcową produktywność kapitału. Następnie o te zależności wzbogacić model rozwoju regionu z międzyregionalnymi przepływami kapitałowymi. Literatura Allen R.G.D. 1975 Teoria makroekonomiczna. Ujęcie matematyczne, Warszawa. Rogowski J. 2003 Model wzrostu regionu, w: Współpraca transgraniczna z krajami bałtyckimi, Białorusią i Rosją – obwód Kaliningradzki w warunkach integracji Polski z Unią Europejską, red. W. Bieńkowski, J. Grabowiecki, H. Wnorowski, Białystok. Rogowski J. 2004a Ogólny model tworzenia kapitału w regionie w warunkach równowagi, w: Proces tworzenia kapitału w gospodarce peryferyjnej, red. K. Meredyk, Białystok. 5 Dla roku 2005 współczynnik korelacji jest liczony dla krańcowej produktywności środków trwałych w 2004 a nakłady inwestycyjne brutto są z roku 2005, ponieważ PKB dla regionów, potrzebne do wyznaczenia pierwszej zmiennej, nie jest jeszcze znane dla 2005 roku. 18 Józef Rogowski Rogowski J. 2004b Wzrost regionu a postęp techniczny, w: Rozwój regionalny a procesy globalizacji, red. A.F. Bocian, Białystok. Rogowski J. 2005 Modele międzyregionalnych przepływów kapitałowych, „Optimum. Studia Ekonomiczne”, nr 4 (28). Rogowski J. 2006 Kapitał ludzki a wzrost regionu, w: Podlasie – kierunki zmian, red. A.F. Bocian, Białystok. OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008 Urszula GOŁASZEWSKA-KACZAN 1 W CZYIM INTERESIE DZIAŁA PRZEDSIĘBIORSTWO – PRZEGLĄD WYBRANYCH TEORII Streszczenie Celem artykułu było przedstawienie przeobrażeń dokonujących się w podejściu do problemu – czyim interesom służy przedsiębiorstwo. Dokonano w nim analizy wybranych teorii ukazujących tę kwestię. Rozważania zakończono wnioskiem, iż można zaobserwować przechodzenie od poglądów uwzględniania jedynie interesów właściciela do poglądów podkreślających znaczenie interesów wszystkich grup zainteresowanych. IN WHOSE INTEREST DOES AN ENTERPRISE ACT? – A SURVEY OF SELECTED THEORIES Summary The article is aimed at presenting changes in approaching the problem: Whose interests does an enterprise represent? An analysis of selected theories concerning that question has been presented, followed by a conclusion that a transition from ideas considering only the owner's interests to ideas highlighting the importance of all groups involved in the process can be observed. 1. Wstęp Teoria firmy jest dyscypliną dynamiczną, zmieniająca się wraz z przeobrażeniami zarówno samych podmiotów gospodarczych, jak i warunków, w których one funkcjonują. Nowo powstające poglądy przeplatają się z już istniejącymi, wzbogacają je, uzupełniają albo też wyraźnie im zaprzeczają. Przeobrażeniom ulegają poglądy we wszystkich nawet w podstawowych, jakby się wydawało, dla przedsiębiorstwa kwestiach. Celem artykułu jest analiza ewolucji podejścia do jednego z takich podstawowych problemów w firmie, a mianowicie – czyim interesom służy przedsiębiorstwo. W opracowaniu prześledzone zostały poglądy wybranych przedstawicieli podstawowych teorii przedsiębiorstwa w zakresie tego zagadnienia. 1 Dr Urszula Gołaszewska-Kaczan jest pracownikiem Wydziału Ekonomii i Zarządzania Uniwersytetu w Białymstoku. 20 Urszula Gołaszewska-Kaczan 2. Teoria przedsiębiorstwa wobec problemu grup interesów w firmie Wyraźnego zdefiniowania, komu służy przedsiębiorstwo nie znajdujemy w nurcie klasycznym. Bazując jednak na rozważaniach prowadzonych przez czołowego przedstawiciela tej szkoły A. Smitha, stwierdzić można, iż firma działa w interesie jej właściciela. Smith uznaje bowiem, że natura ludzka posiada dwie fundamentalne cechy – działanie w celu osiągnięcia korzyści i skłonność do poprawy swojego bytu [Smith 1954 s. 17, 432]. Cała działalność człowieka jest realizacją tychże dążeń. Również prowadzenie przedsiębiorstwa nastawione jest na przynoszenie korzyści – właśnie właścicielowi. Realizacja interesu właściciela, co należy zauważyć na marginesie, nie prowadzi jednak do wyzysku, lecz w określonych warunkach może przynosić pożytek całemu społeczeństwu. Z kolei szkoła neoklasyczna swoje rozważania koncentruje wokół modelu konkurencji doskonałej i funkcjonowania mechanizmu cenowego, dzięki któremu dokonuje się alokacja zasobów w gospodarce. Przedstawicieli tej szkoły nie interesują natomiast procesy zachodzące wewnątrz przedsiębiorstwa; przedsiębiorstwo traktowane jest jako „czarna skrzynka”. R. Cyert i C. Hedrick konstatują nawet, iż pojęcie firmy używane jest w teorii neoklasycznej jedynie jako narzędzie w przyczynowych wnioskowaniach statystyki porównawczej [Gorynia, Owczarzak 2004 s. 4]. Zaś M. Iwanek stwierdza, że w: najlepszym przypadku szkoła ta posługuje się pojęciem przedsiębiorcy, gdzie jednak funkcja właściciela nie jest wyraźnie odróżniana od funkcji menedżera [Iwanek 1996 s. 11]. Wobec jedności właściciela i zarządzającego oczywistym staje się fakt, iż przedsiębiorstwo realizuje interesy tegoż właśnie podmiotu. Prymat interesu właściciela związany jest też z faktem, iż to on oddaje do dyspozycji przedsiębiorstwa swoje zasoby i ma prawo do uzyskiwania przychodu. Szkoła neoklasyczna nie dostrzega konieczności uwzględniania interesów zawodowych kierowników i innych grup pracowniczych, a tym bardziej podmiotów spoza przedsiębiorstwa [Słomka-Gołębiowska 2006 s. 24]. W teorii neoklasycznej przyjmuje się, że celem działalności gospodarczej, a więc celem właściciela – jest maksymalizacja zysku przedsiębiorstwa w określonym okresie, z reguły krótkim lub średnim. Aby zrealizować swój cel, przedsiębiorca zachowuje się optymalnie, tzn. zgodnie z zasadami doskonałej racjonalności [Dopfer 1982 s. 12 – 18]. Właściciel-menedżer przedsiębiorstwa reprezentuje przy tym typ homo oeconomicus, tj. człowieka dążącego racjonalnie do maksymalizacji własnych korzyści w związku z prowadzoną działalnością. Koncepcje menedżerskie powstały w opozycji do wielu twierdzeń szkoły neoklasycznej [Gorynia 1999 s. 537]. Z punktu widzenia omawianego problemu grup interesów w firmie, szczególnie ważne są dwa założenia. Po pierwsze przedsiębiorstwo nie jest już utożsamiane z jednoosobowym przedsiębiorcą – właścicielem, jest ono raczej koalicją grup podmiotów, które mogą mieć różne cele. Po drugie nie rozpatruje się przedsiębiorstwa jako czarnej skrzynki, uwzględnia się i analizuje relacje między różnymi podmiotami wewnątrz przedsiębiorstwa. W czyim interesie działa przedsiębiorstwo… 21 Teorie menedżerskie są odpowiedzią na postępujący proces oddzielania własności od zarządzania, i kształtującymi się w związku z tym dwoma podstawowymi grupami interesów – właścicieli i menedżerów. Już w latach 30. zwrócili na to uwagę A.A. Berle i G.C. Means, którzy wykazali, że ponad połowa aktywów 200 największych amerykańskich korporacji niefinansowych była kontrolowana przez menedżerów. Wyprowadzona z tych badań hipoteza głosiła, że menedżerowie dużych prywatnych korporacji, których akcje są rozproszone wśród wielu akcjonariuszy, prowadzą własną politykę, realizują własne interesy, nie dążą zaś do osiągnięcia celów właścicieli [Berle, Means 1932]. Teorie menedżerskie idą tym śladem, jednak zakłada się w nich, że pomimo oddzielenia własności od zarządzania, menedżerowie mają ograniczoną swobodę w osiąganiu własnych celów. Wspólną cechą menedżerskich teorii jest bowiem założenie, że menedżerowie maksymalizują swoje funkcje użyteczności o wielu zmiennych (takich jak np.: płace, władza, prestiż, bezpieczeństwo pracy), ale w warunkach ograniczeń pojawiających się w związku z koniecznością uwzględniania interesów „koalicjantów”, tzn. akcjonariuszy, pracowników, banków itp. [Borkowska, Klimczak 2000 s. 57 – 58]. Teorie menedżerskie, uznając konieczność osiągania zysków, w różny sposób definiują cele menedżerów. I tak według W.J. Baumola, celem działania firmy jest maksymalizacja sprzedaży, poddana warunkowi ograniczającemu w postaci osiągania zysku [Baumol 1959 s. 12]. Dążenie do maksymalizacji sprzedaży związane jest z przeświadczeniem, iż w ślad za tym idzie zwiększenie dochodów menedżerów, wzrost ich prestiżu, władzy, bezpieczeństwa. Ograniczające działanie zysku widoczne jest z kolei w konieczności zapewnienia akcjonariuszom zadowalających dywidend. W sytuacji, gdy dochody z kapitału obniżą się poniżej ustalonego przez akcjonariuszy minimum, wówczas mogą oni domagać się zmiany zarządu. Wypracowanie odpowiedniego zysku staje się więc niezbędne. Z kolei w modelu zaproponowanym przez R.L. Marrisa menedżerowie są przede wszystkim zainteresowani stopą wzrostu swoich firm. Menedżerowie widzą wzrost swoich organizacji jako jedną z najlepszych metod zaspokajania osobistych potrzeb i ambicji. Wysoka stopa wzrostu wyraża się bowiem poprzez wzrost rozmiarów produkcji i zatrudniania, co w konsekwencji oznacza zwiększenia odpowiedzialności, władzy i prestiżu. Wzrost przedsiębiorstwa rozpatrywany jest w długim okresie. W ten sposób menedżerowie są motywowani do działań na rzecz ekspansji firmy. W swoich działaniach muszą przyjąć jednak pewien poziom bezpieczeństwa [Marris 1967]. Teoria O.E. Williamsona dotyczy natomiast preferencji menedżerów dla pewnych wydatków firmy [Williamson 1986 s. 7]. Zdaniem powyższego autora, kierownictwo nie ma neutralnej postawy wobec różnych wydatków, gdyż ponoszenie niektórych z nich może zdecydowanie wpłynąć na zwiększenie dochodów i prestiżu tej grupy interesów w przedsiębiorstwie. Wydatkami, które są przez menedżerów preferowane [Gorynia 1999 s. 540] są: wydatki na personel administracyjny (rosnąca liczba personelu może być miarą sukcesu firmy, daje władzę i prestiż menedżerom), dochody, zyski i korzyści o charakterze niestałym (menedżerowie mogą mieć dostęp do zaciągania korzystnych pożyczek, korzystania z luksusowych biur, samochodów 22 Urszula Gołaszewska-Kaczan służbowych), uznaniowe wydatki inwestycyjne (niektóre wydatki inwestycyjne są nie tyle uzasadnione rachunkiem ekonomicznym, co odpowiadają osobistym upodobaniom menedżerów). O.E. Williamson przyjmuje też, iż menedżerowie w realizacji swoich celów podlegają ograniczeniom w postaci poziomu zysku satysfakcjonującego akcjonariuszy. Jego zdaniem jednak nie jest to ograniczenie poważne, gdyż menedżerowie nie mają trudności w osiągnięciu takiego poziomu. W tej sytuacji firmy realizują wiązkę celów, takich jak np.: maksymalizacja sprzedaży, wzrost, umacnianie statusu pozycyjnego [Gruszecki 2002 s. 182-183]. W rozważaniach nad kwestią, w czyim interesie działa przedsiębiorstwo, ważne miejsce zajmuje teoria behawioralna2. Podstawowe znaczenie dla omawianego problemu ma przyjęcie przez tę teorię założenia, iż przedsiębiorstwo nie jest racjonalnym, indywidualnym decydentem, lecz koalicją różnych grup interesów. Koalicjantami są tu jednak nie tylko menedżerowie i właściciele (co podkreślały teorie menedżerskie), ale także inne podmioty (np.: kapitałodawcy, pracownicy, dostawcy, klienci). Wszyscy koalicjanci przyczyniają się do istnienia firmy, a w zamian za to oczekują na pewne świadczenia z jej strony (wynagrodzenia, produkty). Przedsiębiorstwo w swojej działalności musi więc uwzględniać interesy różnych podmiotów. Roszczenia poszczególnych koalicjantów są jednak potencjalnie różne, a ich jednoczesna realizacja przez przedsiębiorstwo – niemożliwa, z powodu ograniczeń, jakim podlega firma. Stąd konieczne jest ciągłe negocjowanie poziomów aspiracji poszczególnych grup oraz zagwarantowanie pewnej przestrzeni „luzu organizacyjnego” na grę koalicji interesów i zawarte kompromisy [Gruszecki 2002 s. 187 – 188]. Ścieranie się interesów różnych koalicjantów prowadzi do sytuacji, w której przedsiębiorstwo nie realizuje jednego celu, ale wiązkę celów. Cele te są przy tym ogólnikowe i z powodu ciągłych negocjacji – zmienne w czasie. Problemu grup interesów w przedsiębiorstwie dotykają też niektóre teorie ekonomii instytucjonalnej. Teoria kosztów transakcyjnych bazuje na idei sformułowanej przez R. Coase’a, a rozwiniętej przez O. Wiliamsona, głoszącej, iż wymiana rynkowa i przedsiębiorstwo są alternatywnymi formami organizowania transakcji rynkowych [Williamson 1979]. Przedstawiciele tej teorii w swoich rozważaniach nad formami organizowania i regulowania kontraktów nie poświęcają jednak zbyt wiele uwagi kwestii grup interesów w przedsiębiorstwie. Pewne spostrzeżenia na ten temat wyprowadzić można jedynie z dywagacji dotyczących funkcji kontrolnych w przedsiębiorstwie.3 Tutaj wyraźnie podkreślony jest interes właścicieli. O. Williamson, prowadząc rozważania na temat rady nadzorczej, 2 Teoria ta w dużej mierze inspirowana jest pracami H. Simona i jego zasadą ograniczonej racjonalności, zgodnie z którą działania ludzkie zmierzają do rozwiązań zadowalających, a nie optymalnych. H. Simon uznał, że działania ludzkie odbiegają od standardów pełnej racjonalności, z trzech powodów: braku pełnej wiedzy, niemożliwości przewidywania konsekwencji wszystkich rozpatrywanych wyborów i ich wartości, niemożliwości wzięcia pod uwagę wszystkich możliwych alternatyw, a jedynie tylko nielicznych [por. Simon 1976]. 3 Funkcja kontrolna sprowadzona jest tutaj do uczestnictwa w radzie nadzorczej. O. Williamson rozważa przy tym dwie kategorie członkostwa w radzie – członkostwo z prawem głosu oraz uczestnictwo jedynie dla zagwarantowania informacji [zob. Williamson 1998]. W czyim interesie działa przedsiębiorstwo… 23 zaznacza, iż: radę nadzorczą należy przede wszystkim uważać za zabezpieczenie struktury zarządzania w obszarze pomiędzy firmą a właścicielami udziałów kapitałowych i po wtóre, za sposób chronienia relacji kontraktowej między firmą a jej kierownictwem [Williamson 1998 s. 301] Dostrzega on jednocześnie sens, aby w określonych okolicznościach inne podmioty, niż właściciele kapitału (np.: pracownicy, pożyczkodawcy, dostawcy, konsumenci, społeczność, kierownictwo), partycypowały w funkcji kontrolnej, ale tylko w sytuacji gdy pozwala to w sposób zsynchronizowany i wiarygodny wymieniać informacje. Jednak: przypisywanie radzie innych i szerszych celów pociąga za sobą konieczność dokonywania wyboru o wątpliwych korzyściach netto. Większość zbiorowości lepiej by uczyniła, doskonaląc swe relacje do firmy w interfejsie kontraktowania, w którym firma i zbiorowość zawierają umowę [Williamson 1998 s. 301]. Również teoria praw własności nie prowadzi głębszych rozważań dotyczących problemu w czyim interesie działa przedsiębiorstwo. Koncentruje się natomiast na problemie powiązania praw własności z efektywnością gospodarowania [Demsetz 1964; Pejovich 1971] wysnuwając wniosek, iż decydujące znaczenie ma w tym wypadku charakter uprawnień własnościowych. Charakter uprawnień własnościowych można scharakteryzować opisując dwie cechy – wyłączność (ekskluzywność) i transferowalność (przenośność uprawnień). Wyłączność prawa własności dotyczy suwerenności właściciela odnośnie dysponowania uprawnieniami do przedmiotu stosunku. Transferowalność praw własności odnosi się natomiast do możliwości przekazywania przedmiotu własności. W teorii praw własności własność prywatna przedstawia uprawnienia pełne. Stąd należy wysnuć wniosek, iż właściciel (właściciele) prywatnego przedsiębiorstwa ponosi pełną odpowiedzialność za jego funkcjonowanie (obciążają go wszelkie negatywne konsekwencje wynikające z użytkowania zasobu), ale jednocześnie osiąga wszystkie ewentualne zyski. Przedsiębiorstwo powinno więc działać w interesie właściciela. Znamienne dla omawianej kwestii jest jednak stwierdzenie, iż nawet, przy własności prywatnej, suwerenność w dysponowaniu zasobem może być ograniczona. Tym ograniczeniem w teorii praw własności jest nieszkodzenie innym podmiotom (dobro będące przedmiotem własności nie może być używane do fizycznego szkodzenia innym podmiotom). Stąd wniosek pośredni, że obok pierwszoplanowego interesu właściciela w działalności firmy mogą być uwzględniane określone interesy innych, poza właścicielami grup związanych z działalnością przedsiębiorstwa, np.: pracowników, klientów, dostawców, czy społeczności lokalnych. Z kolei teoria agencji na grupy interesów w przedsiębiorstwie patrzy poprzez pryzmat analizy relacji agencji. Związek agencji jest tutaj widziany jako kontrakt, w ramach którego osoba lub grupa osób (agent) ma do zrealizowania zobowiązania wobec innej osoby lub grupy osób (pryncypała), [Shankman 1999 s. 321]. W teorii tej przedsiębiorstwo widziane jest jako wiązka kontraktów pomiędzy osobami (które mogą również reprezentować inne organizacje), [Jensen, Mecking 1979 s. 311]. Nawiązywane relacje agencji powodują, iż określone grupy (agenci) zyskują możliwości decyzyjne i tym samym wpływają na działalność firmy. W teorii agencji zakłada się więc, iż faktyczna działalność przedsiębiorstwa może odbywać się w interesie różnych grup podmiotów. 24 Urszula Gołaszewska-Kaczan Należy jednak zwrócić uwagę na fakt, iż centralnym podmiotem (centralnym agentem), z którym inne podmioty zawierają kontrakty tworzące przedsiębiorstwo jest właściciel. Właściciel, jako dostawca kapitału, zajmuje w przedsiębiorstwie centralne miejsce, ponosi ryzyko inwestycyjne i dlatego oczekuje gwarancji kontroli nad zasobami. Taką kontrolę uzyskuje w trakcie zawarcia kontraktu. Najważniejszym kontraktem jest natomiast kontrakt między właścicielami a menedżerami. Zdaniem M. Jensena, interesem nadrzędnym przedsiębiorstwa w takim ujęciu jest interes właścicieli, zaś głównym celem przedsiębiorstwa, który muszą osiągać menedżerowie jest wzrost jego wartości. Menedżerowi, którzy nie dążą do maksymalizacji wartości narażeni są na negatywne konsekwencje w postaci przejęcia firmy przez nowych właścicieli, czy zwolnienia z pracy [Noga 1996 s. 768]. Także teoria kontraktualna patrzy na przedsiębiorstwo poprzez pryzmat kontraktów zawieranych między właścicielami zasobów, z których korzysta przedsiębiorstwo, a menedżerami. Właścicielami zasobów są interesariusze, którzy zaopatrują organizacje w czynniki produkcji. Również akcjonariusze są traktowani jak dostarczyciele kapitału finansowego, a nie jako właściciele przedsiębiorstwa. Menedżerowie zarządzają dostarczonymi zasobami w imieniu ich właścicieli [Alcian, Demsetz 1972]. Dbają też o kształtowanie odpowiednich stosunków pomiędzy poszczególnymi grupami interesariuszy. Kontraktowa struktura przedsiębiorstwa obejmuje więc: kooperujące czynniki produkcji należące do wielu właścicieli, jeden podmiot wspólny dla wszystkich stron posiadający prawo renegocjowania pojedynczych kontraktów niezależnie od innych (menedżerowie) oraz podmiot wysuwający rezydualne roszczenia, posiadający prawo sprzedaży swojego kontraktowego statutu (właściciel), [Urbanek 2005 s. 96]. W konsekwencji, w teorii tej zakłada się, iż przedsiębiorstwo realizuje interesy wielu stron, przy czym pierwszeństwo w zaspokojeniu swoich roszczeń mają właściciele (z uwagi na możliwość wysuwania roszczeń rezydualnych). Podobnie jak w teorii agencji, zwraca się uwagę na fakt, iż może powstać niepewność w realizacji kontraktu, co wynika z oportunistycznych zachowań partnerów kontraktu [Gruszeczki 2002 s. 216]. Kooperacyjna teoria M. Aokiego nie należy do głównego nurtu nowej ekonomii instytucjonalnej, ale zaliczana jest do kierunków z nim związanych. W teorii tej przyjmuje się, że przedsiębiorstwo jest koalicją trzech grup interesów: udziałowców, szeregowych pracowników i menedżerów, a efektywność przedsiębiorstwa wymaga jednoczesnego respektowania interesów tych trzech grup. Decyzje podejmowane w przedsiębiorstwie są więc rezultatem gry kooperacyjnej, będącej grą o pozytywnej sumie wypłat. Jednostronna kontrola uczestników przedsiębiorstwa przez jedną z grup interesu zostaje tu zastąpiona przez równowagę interesów. Następuje to poprzez system podwójnej kontroli menedżerów – z jednej strony są oni kontrolowani przez pracowników, z drugiej przez właścicieli kapitału, aczkolwiek ze strony właścicieli kapitału menedżerowie mają właściwie dużą swobodę, gdyż ci ostatni nie interweniują, jeśli gwarantuje się im odpowiedni przychód od kapitału [Iwanek 1996 s. 36]. W latach 80-tych XX wieku popularność zdobywa teoria stakeholders, za twórcę której uważa się R. Freemana. Jest to teoria w najszerszy sposób patrząca na gru- W czyim interesie działa przedsiębiorstwo… 25 py interesów w przedsiębiorstwie. W ramach tej teorii podnosi się, iż firma działa w interesie wszystkich zainteresowanych grup – interesariuszy (stakeholders). Za interesariuszy uznać można np.: właścicieli, pracowników, klientów, dostawców, partnerów strategicznych, społeczność lokalną. Zarządzanie firmą staje się tutaj próbą pogodzenia, często przeciwstawnych, żądań poszczególnych interesariuszy. Należy jednak zaznaczyć, iż w teorii tej podkreśla się, że odpowiednie zarządzanie kontaktami z interesariuszami pozwala firmie realizować jednocześnie jej cele [Jonker, Foster 2002 s. 188]. Teoria stakeholders cieszy się coraz większym zainteresowaniem; stała się także bazą, na której powstać mogła idea społecznej odpowiedzialności przedsiębiorstwa. 3. Zakończenie Analizując poszczególne teorie przedsiębiorstwa, dostrzec można prawidłowość polegającą na przechodzeniu od eksponowania interesu jednego podmiotu – właściciela, poprzez zauważenie znaczenia interesów menedżerów, do akcentowania konieczności uwzględniania w działalności firmy aspiracji wielu podmiotów. Taki kierunek przeobrażeń wydaje się logiczny. Coraz bardziej oczywisty staje się bowiem fakt, iż przedsiębiorstwo nie jest podmiotem odizolowanym, lecz działa w określonym otoczeniu. A w związku z tym powinno brać pod uwagę w swojej działalności, nie tylko własne egoistyczne cele, ale także żądania otoczenia. Bez realizacji postulatów wszystkich grup zainteresowanych funkcjonowaniem firmy, przedsiębiorstwo nie będzie mogło przetrwać i rozwijać się w długim okresie. Literatura Alcian A., Demsetz H. 1972 Production, Information Cost, and Economic Organization, „The American Economic Review”, No. 62. Baumol W.J. 1959 Business Behaviour, Value and Growth, New York. Berle A.A., Means G.C. 1932 The modern corporation and private property, London. Borkowska B., Klimczak B. 2000 Kontrakty menedżerskie w teoriach ekonomii i etyki, w: Efektywność nadzoru właścicielskiego w spółkach kapitałowych, red. S. Rudolf, Łódź. Coase R.H. 1937, The Nature of the Firm, „Economica N.S.”, No. 4. Demsetz H. 1964 The Exchange and Enforcement of Property Rights, „The Journal of Law and Economics”, No. 3. Dopfer K. 1982 Wprowadzenie ku nowemu paradygmatowi, w: Ekonomia w przyszłości, red. K. Dopfer, Warszawa. Gorynia M. 1999 Przedsiębiorstwo w różnych ujęciach teoretycznych, „Ekonomista”, nr 4. Gorynia M., Owczarzak R. 2004 Podstawy teorii internacjonalizacji i globalizacji działalności przedsiębiorstw, „Gospodarka Narodowa”, nr 1 – 2. Gruszecki T. 2002 Współczesne teorie przedsiębiorstwa, Warszawa. 26 Urszula Gołaszewska-Kaczan Iwanek M. 1996, Analiza instytucji własności przedsiębiorstw. Przyczynek do problematyki efektywności i usprawnienia przedsiębiorstw publicznych, Warszawa. Jensen M.C., Mecking W.H. 1979 Theory of the Firm: managerial behavior, agency cost and ownership structure, „Journal of Financial Economics”, Vol. 3. Jonker J., Foster D. 2002 Stakeholder Exellence? Framing The Evolution and Complexity of a Stakeholder Perspective of the Firm, „Corporate Social Responsibility and Environmental Management”, No. 9. Marris R.L. 1967 The Economic Theory of „Managerial” Capitalism, London. Noga A. 1996 Cele przedsiębiorstwa. Kontrowersje teoretyczne, „Ekonomista”, nr 6. Pejovich S. 1971 Towards a General Theory of Property Rights, „Zeitschrift fuer Nationaloekonomie”, No. 1 – 2. Shankman N.A. 1999 Reframing the Debate between Agency and Stakeholder Theories of the Firm, „Journal of Business Ethics”, nr 19. Simon H. 1976 Działanie administracji. Proces podejmowania decyzji w organizacjach administracyjnych, Warszawa. Słomka-Gołębiowska A. 2006 Corporate governance. Banki na straży efektywności przedsiębiorstw, Warszawa. Smith A. 1954 Badania nad naturą i przyczynami bogactwa narodów, Warszawa. Urbanek P. 2005 Nadzór korporacyjny a perspektywa teorii agencji, w: Nowa ekonomia instytucjonalna. Aspekty teoretyczne i praktyczne, red. S. Rudolf, Kielce. Williamson O. 1986 Economic Organization. Firms, Markets and Policy Control, Wheastsheaf Books, London. Williamson O. 1998 Ekonomiczne instytucje kapitalizmu. Firmy, rynki, relacje kontraktowe, Warszawa. Williamson O. 1979 Transaction Cost Economics: The governance of contractual relations, „Journal of Law and Economics”. OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008 Mirosława LASEK, Marek PĘCZKOWSKI 1 ANALIZA KONDYCJI EKONOMICZNEJ PRZEDSIĘBIORSTW ZA POMOCĄ SIECIOWEJ METODY POŁĄCZEŃ LINK ANALYSIS Streszczenie Artykuł poświęcono metodzie eksploracji danych za pomocą sieciowej metody połączeń Link Analysis. Metoda służy do badania zależności między danymi przedstawianymi w postaci modelu sieciowego. Za jej pomocą badane mogą być takie zależności, jak kolejność danych, np. kolejność odwiedzania przez użytkowników stron witryny internetowej i siła powiązań między danymi, np. zależności w relacjach społecznych między ludźmi. Pomimo dużych możliwości jest to metoda niezbyt jeszcze szeroko znana i wykorzystywana. Jest dostępna w programie Enterprise Miner firmy SAS i ten program był przez nas używany. Wyniki przedstawiane są w postaci graficznej, różnorodnych wykresów, uzupełnianych miarami statystycznymi. Wykresy mogą być modyfikowane przez użytkowników programu. Za pomocą metody Link Analysis możliwe jest tworzenie skupień i przeprowadzanie oceny skoringowej obiektów. W artykule zilustrowano zastosowanie metody, posługując się przykładem analizy kondycji ekonomicznej przedsiębiorstw za pomocą wybranych wskaźników finansowych. LINK ANALYSIS AS A MEANS OF TESTING FINANCIAL CONDITION OF ENTERPRISES Summary In the article Link Analysis data mining method is described and discussed. The method enables to analyse various data which are represented as network. Using Link Analysis the traffic between Internet pages showing paths in Web log data or social dependencies between people can be investigated. Although the method possess large potential, it is not yet widespread, well known and used. The method is well implemented in the SAS Enterprise Miner program, which we used. The results are presented in graphical form. Various charts with some statistical measures can be used. Charts can be modified by users. Clustering and scoring is possible with the use of this method. In the article the method is illustrated with an example analyzing financial condition of enterprises. 1. Wstęp Metoda Link Analysis polega na analizie powiązań w złożonych układach, które są reprezentowane za pomocą modelu sieci [Berry, Linoff 2004; Kwieciński 2007]. Celem metody jest odkrycie prawidłowości, które mogą prowadzić do użytecznych dla nas wniosków dotyczących badanych obiektów. Rozwiązanie przedstawiane jest 1 Dr hab. Mirosława Lasek, prof. UW i mgr Marek Pęczkowski są pracownikami Wydziału Nauk Ekonomicznych Uniwersytetu Warszawskiego. 28 Mirosława Lasek, Marek Pęczkowski w postaci graficznej, wzbogaconej o pewne miary statystyczne. Link Analysis może być stosowana jako metoda służąca do badania przepływu informacji pomiędzy węzłami w sieci. Dobrze nadaje się np. do analizy kolejności odwiedzanych stron na witrynach internetowych [Enterprise… 2005; Kwieciński 2007] lub analizy powiązań między ludźmi w relacjach społecznych. Metoda została zaimplementowana w programie Enterprise Miner firmy SAS [Data… 2004; Enterprise… 2005]. Stąd pochodzą też nasze doświadczenia jej stosowania. Metoda może służyć do zbadania zależności pomiędzy węzłami, przedstawiającymi różne charakterystyki. W naszych analizach przyjmowaliśmy, że węzłami są sektory gospodarki z makrosektora przemysłu (przemysł chemiczny, drzewny i papierniczy, elektromaszynowy itd.), makrosektora handlu i usług (budownictwo, energetyka i usługi komunalne, handel itd.) oraz poziomy wartości wskaźników określających kondycję finansową i majątkową przedsiębiorstw. Były uwzględniane: wskaźniki zyskowności, takie jak: marża zysku brutto ze sprzedaży, marża zysku operacyjnego, marża zysku brutto, wskaźniki płynności z uwzględnieniem płynności bieżącej, szybkiej, podwyższonej, wskaźniki aktywności, w tym rotacji należności, rotacji zapasów, cyklu operacyjnego, a także wskaźniki zadłużenia, m.in. wskaźnik pokrycia majątku, stopy zadłużenia, obsługi zadłużenia [Wyniki… 2007]. Z uzyskanych w wyniku zastosowania metody wykresów można odczytać, jak silne – mierzone liczebnością poszczególnych powiązań – są związki między przedsiębiorstwami określonych sektorów a poziomami wartości wskaźników, a także między poziomami wartości różnych wskaźników kondycji w przedsiębiorstwach. W szczególności dla kierowania działalnością przedsiębiorstwa interesujące mogą być wnioski dotyczące zależności między przedsiębiorstwami sektora, do którego należy, a poziomami wartości wskaźników, charakteryzujących sytuację finansową i majątkową. Pozwala to na ocenę przedsiębiorstwa na tle innych przedsiębiorstw danego sektora. 2. Opis metody Dla utworzenia modelu połączeń między obiektami i zbudowania wykresów, będących wynikiem procedury Link Analysis, tworzone są dwa zbiory danych [Data… 2004; Enterprise… 2005]: – zbiór węzłów (nodes), – zbiór połączeń miedzy węzłami (links). Wykresy mogą być przekształcane przez użytkownika w sposób interaktywny. Obliczane są miary, umożliwiające interpretację uzyskanych wyników. Użytkownik może tworzyć wykresy różnie zbudowane, które mogą służyć różnym celom. Przykładowo wiele informacji o pogrupowaniu danych może dostarczyć wykres klastrowy z węzłami uporządkowanymi w skupienia. Podstawowym wykresem jest wykres opisujący naturę połączeń między węzłami – zwany wykresem kołowym (circle layout). Przykład takiego wykresu przedstawiono na rysunku 1. Analiza kondycji ekonomicznej przedsiębiorstw… 29 RYSUNEK 1. Wykres kołowy Źródło: opracowanie własne przy wykorzystaniu programu SAS Enterprise Miner. Węzły na wykresie (rys. 1.) przedstawiane są w postaci figur o różnych kształtach, wielkościach i kolorach. Węzły mogą być etykietowane, co pozwala przedstawić informacje o reprezentowanej przez nie zmiennej lub/i wartości zmiennej. Kształty figur ilustrują role zmiennych w modelu. Na rysunku 1. koła oznaczają zmienną objaśnianą (target), a kwadraty zmienną objaśniającą (input). Każdy kolor wskazuje określoną zmienną. O wielkości węzła decyduje liczba obserwacji związanych z określoną wartością zmiennej i reprezentowaną przez węzeł. Kolorami i grubościami linii oznacza się na wykresach liczebności połączeń – grubsze linie wskazują na liczniejsze połączenia. Kolor czerwony (najciemniejszy odcień na wykresie) sygnalizuje najliczniejsze połączenia, niebieski (jaśniejszy odcień) – średnie, a zielony (najjaśniejszy odcień) – najmniej liczne. 3. Analiza znaczenia węzłów i powiązań w sieci Węzły w sieci o największym znaczeniu są to węzły, które są powiązane z największą liczbą innych węzłów. Powiązania o największym znaczeniu, to powiązania o największej liczebności połączeń. Do pomiaru znaczenia węzła stosowane są dwie miary ważności węzła (centrality): – ważność pierwszego rzędu (first-order centrality) określa, jaki procent wszystkich węzłów jest bezpośrednio połączona z danym węzłem; – ważność drugiego rzędu (second-order centrality) wskazuje, jaki jest procent wszystkich węzłów bezpośrednio połączonych z węzłami, które są bezpośrednio połączone z danym węzłem. 30 Mirosława Lasek, Marek Pęczkowski Jeżeli bezpośrednie połączenie między węzłami będziemy interpretować jako znajomość między osobami pewnej populacji, to ważność pierwszego rzędu odpowiada na pytanie, jaki procent populacji stanowią znajomi wyróżnionej osoby, a ważność drugiego rzędu odpowiada na pytanie, jaki procent populacji stanowią znajomi jej znajomych. Miary ważności mogą być ważone (gdy węzłom i powiązaniom przypisuje się wagi z przedziału od 0 do 1) lub nieważone (gdy wszystkie wagi mają stałą wartość 1). 4. Zbiór danych o węzłach (zbiór danych Nodes) W programie SAS Enterprise Miner węzły na wykresie są tworzone na podstawie zbioru danych, mającego postać tablicy, w której każdy wiersz zawiera dane o jednym węźle. Kolumny zbioru przedstawiają: – nieważoną miarę ważności pierwszego rzędu (1’st order unweighted centrality C1U); – nieważoną miarę ważności drugiego rzędu (2’nd order unweighted centrality C2U); – ważoną miarę ważności pierwszego rzędu (1’st order weighted centrality C1); – ważoną miarę ważności drugiego rzędu (2’nd order weighted centrality C2); – wartość zmiennej jakościowej lub środek przedziału, w którym są zawarte wartości zmiennych ciągłych określających węzeł (Value). Zmienne ciągłe są grupowane w przedziały. Każdy przedział zmiennej ma przypisany odpowiedni węzeł; – nazwę zmiennej określającej węzeł (VAR); – rolę, jaką zmienna przyjmuje w modelu (ROLE). Zgodnie z terminologią programu SAS Enterprise Miner, tą rolą może być input (dla zmiennej objaśniającej) lub target (dla zmiennej objaśnianej); – liczbę obserwacji reprezentowaną przez węzeł (COUNT); – liczbę obserwacji w węźle podzieloną przez liczbę wszystkich obserwacji (PERCENT); – zmienną identyfikującą węzeł (ID); – zmienną tekstową postaci: nazwa zmiennej = wartość zmiennej (VAR = VALUE), (TEXT); – współrzędną osi X węzła na wykresie (X); – współrzędną osi Y węzła na wykresie (Y); – zmienną określającą, czy wyświetlane są etykiety (0 – nie, 1 – tak) (PLOT_ _SHOWLABEL). W przypadku sporządzania określonych wykresów, oprócz wymienionych powyżej zmiennych, w zbiorze Nodes mogą zostać umieszczone dodatkowe zmienne, np. zmienna określająca przynależność do określonych skupień, jeśli są wyróżniane. Na rysunku 1. węzłami są sektory gospodarki wybrane w jednym z przykładów do analizy (zmienna sektor): chemiczny, spożywczy i informatyka – koła na wykresie, i poziomy wartości trzech wskaźników przyjętych do analizy: marży zysku netto (MZN), rotacji należności (RN), wskaźnika podwyższonej płynności (WPP) – kwadraty na wykresie. Każdy należy do innej grupy wskaźników określających kondycję Analiza kondycji ekonomicznej przedsiębiorstw… 31 finansową i majątkową przedsiębiorstwa: marża zysku netto (MZN) – do grupy wskaźników zyskowności, rotacja należności w dniach (RN) – do grupy wskaźników aktywności, wskaźnik podwyższonej płynności (WPP) – do grupy wskaźników płynności. Wskaźniki obliczane są według wzorów [Wyniki… 2007]: MZN = zysk netto/przychody ze sprzedaży netto, RN = (średnia wartość należności/przychody ze sprzedaży netto) x liczba dni, WPP = (majątek obrotowy – zapasy – należności)/zobowiązania krótkoterminowe. Przypomnijmy, że każda zmienna jest oznaczona innym kolorem, np. zmienna sektor, zielonym. Jako węzły mogą być przyjęte kolumny inne niż kolumna VAR z tablicy zbioru danych o węzłach Nodes. Zmienna sektor jest zmienną jakościową i ma trzy wartości, odpowiadające trzem analizowanym sektorom: chemicznemu, spożywczemu, informatycznemu. Wartości zmiennych ciągłych, będących rozważanymi wskaźnikami, są domyślnie dzielone na trzy grupy (poziomy). W procedurze można też podzielić wartości zmiennych na 5 lub 7 grup. Z przedstawionych powyżej uwag wynika – co potwierdza rysunek 1., że wykres posiada 12 węzłów (3 sektory oraz 3 wskaźniki z przypadającymi na każdy wskaźnik trzema poziomami wartości). Liczba powiązań między tymi węzłami wynosi 53. 5. Zbiór danych o powiązaniach między węzłami (zbiór danych Links) Połączenia między węzłami są tworzone na podstawie zbioru danych, noszącego nazwę Links, i mającego, podobnie jak zbiór danych o węzłach, postać tablicy. Każdy wiersz tablicy określa jedno połączenie między dwoma węzłami. Kolumny odpowiadają zmiennym opisującym połączenia. Są to: – liczba wystąpień danego połączenia (COUNT), – identyfikator pierwszego węzła – zgodny ze zmienną ID ze zbioru Nodes (ID1), – identyfikator drugiego węzła – zgodny ze zmienną ID ze zbioru Nodes (ID2), – zmienna identyfikująca połączenie (LINKID), – liczba wystąpień danego połączenia podzielona przez liczbę wszystkich obserwacji, wyrażona w procentach (PERCENT), – liczba obserwacji w węźle określonym zmienną ID1 (COUNT1), – liczba obserwacji w węźle określonym zmienną ID2 (COUNT2), – oczekiwana liczba wystąpień danego połączenia (EXPECT), – odchylenie rzeczywistej liczby wystąpień od wartości oczekiwanej – COUNT-EXPECT (DEV), – wartość statystyki Chi2 połączenia (CHI2), – określenie, czy połączenie występuje na wykresie (0 – nie, 1 – tak), (LAYOUT_ _MASK). W przedstawianej w tej pracy analizie wartości połączeń są ustalane na podstawie ich liczebności (zmienna COUNT) ze zbioru Links. Połączenia mogą być przyjmowane na podstawie innych charakterystyk, zapisanych w kolumnach zbioru Links. 32 Mirosława Lasek, Marek Pęczkowski Wyświetlaniem połączeń na wykresach możemy sterować za pomocą zmiennych zwanych maskami (Masks). Są to zmienne w zbiorze Links, które pozwalają np. wskazać, czy połączenie będzie uwidocznione na wykresie, czy też nie będzie zamieszczone. Zmiennymi „maskami” są zmienne określające: – czy połączenie jest uwzględnione na wykresie, – czy połączenie jest uwzględnione w grupowaniu, – czy połączenie jest uwzględnione w filtrowaniu, – czy połączenie jest uwzględnione w analizowanej ścieżce miedzy węzłami. 6. Przykład analizy przedsiębiorstw za pomocą procedury Link Analysis W przykładzie przedstawianym w artykule do analizy przyjęto 48 przedsiębiorstw, po 16 z każdego sektora: chemicznego, spożywczego, informatyki. Są to wartości zmiennej objaśnianej target o nazwie SEKTOR. Przypomnijmy, że przedsiębiorstwa analizowano pod względem trzech wskaźników: marży zysku netto, rotacji należności i wskaźnika podwyższonej płynności. Aby w procedurze Link Analysis uwzględnić 3 powyżej wymienione wskaźniki, przyjęliśmy 3 odpowiadające im zmienne ilościowe (interval) o nazwach zgodnych z nazwami wskaźników: MZN, RN, WPP. W modelu Link Analysis mają one przypisaną rolę input. Dla każdej zmiennej ilościowej przyjęliśmy 3 przedziały – poziomy wartości (bins = 3). Na rysunku 2. przedstawiono tablicę z programu SAS Enterprise Miner, która zawiera opis zmiennych, jakie będą wykorzystywane w analizie Link Analysis. RYSUNEK 2. Zmienne wykorzystywane w analizie Uwagi: w tablicy przedstawiane są w kolejnych kolumnach: nazwy zmiennych (Name), status (Status) – use oznacza, że zmienna będzie używana w analizie, role zmiennych w modelowaniu (Model Role) – target: zmienna objaśniana, input – zmienna objaśniająca, skala pomiaru (Measurement) – nominal: nominalna, interval: przedziałowa, typ zmiennych (Type) – char: znakowa, num: numeryczna, format (Format): format przyjęty w programie SAS, etykiety zmiennych (Label). Źródło: opracowanie własne przy wykorzystaniu programu SAS Enterprise Miner. Rozkład każdej z analizowanych zmiennych przedstawiono na rysunku 3. Źródło: opracowanie własne przy wykorzystaniu programu SAS Enterprise Miner. Rozkłady zmiennych wykorzystywanych w analizie RYSUNEK 3. 34 Mirosława Lasek, Marek Pęczkowski Możemy przyjrzeć się dokładniej każdemu z węzłów z przykładu, wykorzystując tablicę wygenerowaną przez procedurę Link Analysis. Taką tablicę dla naszego przykładu przedstawiono na rysunku 4. RYSUNEK 4. Tablica węzłów dla przykładu analizy przedsiębiorstw Źródło: opracowanie własne przy wykorzystaniu programu SAS Enterprise Miner. Tablica składa się z 12 wierszy, z których każdy odpowiada jednemu węzłowi. W kolumnie VAR zamieszczone są nazwy zmiennych. Wiersze posortowane są w tablicy według nazw zmiennych. Węzły oznaczane są identyfikatorami – N1, N2,…, N12 (kolumna ID). W naszym przypadku węzły oznaczone N7, N8 i N9 dotyczą zmiennej objaśnianej SEKTOR, a przypisane im teksty (kolumna TEXT) opisują wartości zmiennej (SEKTOR = CHEMICZNY, SEKTOR = INFORMATYKA, SEKTOR = SPOŻYWCZY). Zmienne ilościowe w kolumnie TEXT mają przypisane teksty postaci zmienna = środek przedziału (VAR = MIDPOINT). Wartości, będące środkami przedziałów, możemy odczytać w kolumnie VALUE. W tej samej kolumnie podane są wartości dla zmiennej SEKTOR. W kolumnie o nazwie COUNT możemy odczytać, jaka jest liczba obserwacji tworzących węzeł, a w kolumnie PERCENT udział procentowy obserwacji w węźle w stosunku do liczby wszystkich obserwacji. Najwięcej obserwacji ma węzeł o identyfikatorze N2 (32 obserwacje), tj. węzeł o charakterystyce MZN = 0,0628, następnie węzły N5 i N11 (po 21 obserwacji) – o charakterystyce odpowiednio RN = 93,71 i WPP = 0,474. Najmniej, po 8 obserwacji, mają węzły: węzeł charakteryzujący się ujemnym MZN, wynoszącym w środku przedziału –0,0482, węzeł o MZN 0,1738 oraz węzeł z WPP równym 1,107. W kolumnie COUNT możemy znaleźć potwierdzenie, że rozpatrujemy po 16 obserwacji z każdego sektora: chemicznego, informatyki, spożywczego (wiersze – węzły o identyfikatorach N7, N8 i N9 mają po takiej liczbie obserwacji). Wiele informacji o powiązaniach między węzłami możemy odczytać z oddzielnej tablicy wygenerowanej przez Link Analysis, dotyczącej połączeń. Fragment takiej tablicy dla naszego przykładu przedstawiono na rysunku 5. Analiza kondycji ekonomicznej przedsiębiorstw… 35 Cała tablica składa się z 53 wierszy – z których każdy odpowiada jednemu powiązaniu między węzłami z rozpatrywanego przykładu analizy przedsiębiorstw. Każde powiązanie oznaczone jest identyfikatorem składającym się z litery L i numeru. Identyfikatory podane są w kolumnie o nazwie LINKID. Na lewo od kolumny z identyfikatorami znajdują się kolumny ID1 i ID2, zawierające w kolejnych wierszach identyfikatory węzłów, między którymi istnieją połączenia o identyfikatorach wskazanych w kolumnie LINKID. RYSUNEK 5. Fragment tablicy powiązań między węzłami dla przykładu analizy przedsiębiorstw Źródło: opracowanie własne przy wykorzystaniu programu SAS Enterprise Miner. Przykładowo z rysunku 5. możemy odczytać, że powiązanie L39 łączy węzły N1 i N11, a L48 – węzły N1 i N12. W pierwszej kolumnie o nazwie COUNT zamieszczona jest liczba obserwacji w połączeniu między węzłami wymienionymi w odpowiednim wierszu – oznaczonym w kolumnie LINKID. COUNT1 przedstawia liczbę obserwacji z węzła kolumny ID1, a COUNT2 liczbę obserwacji z węzła kolumny ID2, a więc węzłów połączonym powiązaniem wskazanym w kolumnie LINKID. Z kolumny PERCENT możemy odczytać, jaki jest wyrażony w procentach udział liczby połączeń (COUNT) w liczbie wszystkich analizowanych obserwacji (u nas 48, bo tyle analizujemy przedsiębiorstw). W kolumnie EXPECT przedstawiane są teoretyczne (oczekiwane) liczebności połączeń. O odchyleniach rzeczywistych liczebności od teoretycznych (COUNT – 36 Mirosława Lasek, Marek Pęczkowski EXPECT) możemy się dowiedzieć z zawartości kolumny DEV. W kolumnie CHI2 DEV 2 przedstawiane są wartości CHI 2 = EXPECT . Jeżeli CHI2 jest bliskie 0, to oznacza, że przewidywane liczebności są bliskie rzeczywistych. Gdy COUNT = EXPECT, to CHI2 = 0. Wyniki analizy można zilustrować za pomocą wykresów. Przykłady wykresów zależności między węzłami dla analizowanego przez nas problemu przedstawiono na rysunku 6. Pokazany poprzednio wykres kołowy na rysunku 1. jest wykresem domyślnym w SAS Enterprise Miner. Wszystkie wykresy mają postać grafów, których węzły przedstawiają poziomy wartości zmiennych. Zgodnie z domyślnymi ustaleniami programu na rysunkach: – kształt węzła służy rozróżnieniu zmiennych objaśnianych i zmiennych objaśniających. Zmienne objaśniane są przedstawiane w postaci okręgów, a zmienne objaśniające w postaci kwadratów; – kolor węzła – węzły reprezentujące określoną zmienną mają przypisany określony kolor, np. wskaźnik MZN jest oznaczony kolorem niebieskim, a wskaźnik RN kolorem żółtym; – wielkość węzła pozwala oszacować liczbę obserwacji tworzących węzeł. Im większa liczba obserwacji przypisanych do węzła, tym większy jest węzeł; – grubość połączenia wskazuje liczbę obserwacji dla związków między węzłami. Im grubsza jest linia, tym więcej obserwacji odpowiadających powiązaniu; – kolor linii łączących węzły wskazuje liczebność powiązań: czerwony dla wskazania najliczniejszych powiązań, zielony – o najmniej licznych i niebieski – pośredniej liczebności. Pierwszym, sporządzonym przez nas wykresem jest najczęściej stosowany wykres kołowy (circle layout), który został już przedstawiony na rysunku 1. i tam krótko omówiony. Rysunek 6.(a) przedstawia wykres w postaci „kratowej” (grid layout) z pogrupowanymi węzłami. Węzły rozmieszczone są w grupach, reprezentujących poszczególne zmienne. Na wykresie każda grupa węzłów w sieci odpowiada każdej z analizowanych zmiennych. Tego wykresu wygodnie używać, gdy mamy zmienną grupującą lub gdy węzły są podzielone na skupienia (grupy). Na rysunku 6.(b) jest przedstawiony wykres MDS (MDS layout). Taki wykres uzyskuje się w wyniku zastosowania procedury skalowania wielowymiarowego (MultiDimensional Scaling – MDS). Procedura skalowania wielowymiarowego ma za zadanie odwzorować konfigurację obiektów z przestrzeni wielowymiarowej w przestrzeń o mniejszej liczbie wymiarów, z jak najmniejszą stratą informacji. Przeprowadzone jest skalowanie danych do dwóch wymiarów. Najczęściej przestrzeń wynikowa jest dwuwymiarowa, dzięki czemu można przedstawić obraz odwzorowania na płaszczyźnie i zilustrować graficznie. Rozwiązanie zależy od przyjętej miary podobieństwa lub odległości. Można użyć odległości lub kwadratów odległości euklidesowych. Użycie Analiza kondycji ekonomicznej przedsiębiorstw… 37 kwadratów odległości oznacza, że duże wartości odległości traktujemy jako ważniejsze niż mniejsze odległości. Sporządzając ten wykres mamy możliwość wyboru parametrów, dotyczących procedury MDS. Rysunek 6.(b) uzyskano w wyniku zastosowania opcji domyślnych (np. co do zastosowanej miary podobieństwa, traktowania brakujących wartości, liczby iteracji realizowanego algorytmu (20)). RYSUNEK 6. Wykresy zależności między węzłami dla przykładu analizy przedsiębiorstw (a) (c) (b) (d) Źródło: opracowanie własne przy wykorzystaniu programu SAS Enterprise Miner. Wykres równoległego zestawienia węzłów przedstawia węzły w kolumnach lub wierszach dla zmiennych i ukazuje tylko powiązania między sąsiednimi kolumnami lub wierszami. Na rysunku 6.(c), każda zmienna z wejściowego zbioru danych jest reprezentowana przez pojedynczą kolumnę, a każdy węzeł kolumny przedstawia jeden z wyodrębnionych poziomów wartości tej zmiennej. Węzły (w każdej kolumnie) są uporządkowane od węzłów o największej liczbie obserwacji w górnej części, poprzez węzły o kolejno coraz mniejszej liczbie obserwacji, aż do węzłów o najmniejszej liczbie obserwacji w dolnej części. Podobnie, linie przedstawiające najlicz- 38 Mirosława Lasek, Marek Pęczkowski niejsze powiązania mają tendencję do występowania wyżej niż linie z mniejszą liczbą powiązań. Użytkownik podejmuje decyzje o tym, czy wykres ma przedstawiać zmienne w wierszach (uporządkowanie „góra – dół” zmiennych), czy też w kolumnach (uporządkowanie „lewo – prawo” zmiennych). Użytkownik decyduje także o kolejności występowania zmiennych w wierszach lub w kolumnach. Użytkownik ma duże możliwości modyfikowania wykresów używając opcji SWAP. Na rysunku 6.(d) przedstawiono wykres zmodyfikowany na podstawie wykresu kołowego. Jeżeli dane wejściowe mają strukturę hierarchiczną, wygodne jest posłużenie się wykresem o strukturze drzewa. Można utworzyć drzewo o orientacji pionowej („z góry w dół”) lub poziomej („z lewej do prawej”). Dostępna jest także „kołowa” architektura drzewa (należy wówczas skorzystać z opcji o nazwie Polar). Na rysunku 7. (a) przedstawiono wykres drzewa o orientacji pionowej, a na rysunku 7. (b) w postaci o nazwie „polar”. Do generowania drzewa jest używana procedura NETFLOW. RYSUNEK 7. Wykres o strukturze drzewa (a) (b) Źródło: opracowanie własne przy wykorzystaniu programu SAS Enterprise Miner. Można sporządzić wykres przedstawiający powiązania miedzy wybranymi węzłami. Powiązania węzłów – sektorów z węzłami – zmiennymi (wskaźnikami), bez ukazania powiązań między zmiennymi – wskaźnikami przedstawiono na rysunku 8. Analiza kondycji ekonomicznej przedsiębiorstw… 39 RYSUNEK 8. Wykres z powiązaniami między wybranymi węzłami Źródło: opracowanie własne przy wykorzystaniu programu SAS Enterprise Miner. 7. Tworzenie skupień i przeprowadzanie oceny skoringowej Aby utworzyć skupienia ocen wskaźnikowych wokół sektorów przedsiębiorstw i uzyskać ocenę skoringową, należy podzielić zbiór danych na zbiór danych treningowych i zbiór danych walidacyjnych. Dla tworzenia skupień wybieramy technikę skalowania wielowymiarowego MDS. Jako zmienną grupującą pozostawiamy zmienną domyślną VAR. Wówczas grupowanie przebiega według nazw zmiennych, a nie według wartości zmiennych. Model Link Analysis pozwala na podstawie danych utworzyć skupienia ocen wskaźnikowych, które mogą być użyte w celu redukcji zbioru obserwacji i przeprowadzenia segmentacji. W celu przeprowadzenia grupowania zbiór danych można podzielić na zbiór treningowy i zbiór walidacyjny według różnych proporcji, np. w proporcji 2:1, czyli 66% i 34%. Parametr grouping bias techniki MDS przyjmujemy jako –1. Oznacza to, że węzły w grupach będą nieco oddalone od siebie (w stosunku do rzeczywistego położenia). W wyniku realizacji procedury skalowania wielowymiarowego otrzymaliśmy graf przedstawiony na rysunku 9. Możemy dostrzec trzy grupy węzłów. Aby utworzyć skupienia, można wybrać technikę modeclus lub nearest neighbor. Algorytm modeclus jest nieparametryczną metodą grupowania, realizowaną przez procedurę MODECLUS (z modułu SAS/STAT). Algorytm nearest neighbor grupuje węzły na podstawie odległości do najbliższych sąsiadów. W obu przypadkach używana jest technika do znalezienia optymalnej liczby skupień. 40 Mirosława Lasek, Marek Pęczkowski RYSUNEK 9. Graf otrzymany w wyniku realizacji procedury MDS Źródło: opracowanie własne przy wykorzystaniu programu SAS Enterprise Miner. 8. Interpretacja wyników Wyniki analizy wskazują na silne powiązania przedsiębiorstw każdego z trzech analizowanych sektorów z poziomem wartości wskaźnika marży zysku netto, wynoszącym 0,0628. Na wykresie kołowym – rys. 1., powiązania węzłów oznaczających przedsiębiorstwa poszczególnych sektorów z węzłem marży zysku netto dla poziomu 0,0628 są oznaczone wyraźnymi, grubszymi, czerwonymi liniami, wskazującymi powiązania o wysokiej liczebności. Nie ma takich powiązań z węzłami dla marży zysku netto poziomu wartości –0,0482, ani poziomu wartości 0,1738.2 Węzeł dla marży zysku netto o poziomie wartości 0,0628 jest „dużym” węzłem, co świadczy o dużej liczbie przedsiębiorstw należących do tego węzła. Z tablicy „węzłów” z rysunku 4. możemy odczytać, że przydzielono do niego 32 przedsiębiorstwa (spośród wszystkich analizowanych 48 przedsiębiorstw). Węzeł marży zysku netto dla poziomu wartości 0,0628 jest także „silnie” (liczne związki), oznaczone na rysunku 1. grubszymi, czerwonymi liniami, powiązany z węzłem rotacji należności poziomu wartości 37,34 oraz węzłem rotacji należności poziomu wartości 93,71. Brak silnych powiązań z węzłem rotacji należności, wskazującym poziom wartości 150,08. Węzeł marży zysku netto dla poziomu wartości 0,0628 jest również „silnie” powiązany z dwoma węzłami wskaźnika podwyższonej płynności: węzłem wskaźnika 2 Dla zapewnienia czytelności wydrukowanych w artykule rysunków, wartości liczbowych nie zamieszczono na rysunkach (choć można tak zrobić); można je odczytać z „tablicy węzłów” (rys. 4.) na podstawie liczebności (wielkości) węzłów. Pełne opisy węzłów na wykresach są dobrze widoczne na ekranie monitora. Analiza kondycji ekonomicznej przedsiębiorstw… 41 podwyższonej płynności dla poziomu –0,159 oraz węzłem wskaźnika podwyższonej płynności dla poziomu 0,474 (nie ma silnych powiązań z węzłem wskaźnika podwyższonej płynności o poziomie 1,107). Z rysunku 1. możemy ponadto wywnioskować, że istnieją silne powiązania między rotacją należności na poziomie wynoszącym 93,71 a poziomem wartości wskaźników podwyższonej płynności wynoszącym -0,159 oraz wynoszącym 0,474 (powiązania oznaczone grubszymi, czerwonymi liniami). Nie ma wyraźnego powiązania między poziomem rotacji należności 93,71 a wskaźnikiem podwyższonej płynności poziomu 1,107 (wśród przedsiębiorstw o różnym poziomie wskaźnika podwyższonej płynności jest ich zresztą najmniej, co można odczytać z tablicy węzłów z rysunku 4.). Pogrupowanie węzłów na wykresie 6. (a) w postaci „kratowej” według rodzaju analizowanych zmiennych (grupy wskazane nazwami zmiennych) potwierdza wnioski z rysunku 1. Ilustruje wyraźniej niż wykres kołowy zależności między poziomami wartości, 3 różnych, analizowanych wskaźników: marżą zysku netto, rotacją należności, wskaźnikiem podwyższonej płynności, ponieważ tworzą one wyraźne grupy na wykresie. Zmienna SEKTOR tworzy oddzielną grupę węzłów. Podobnie jak z wykresu na rysunku 1. można odczytać związek przedsiębiorstw różnych sektorów z wydzielonymi w analizie poziomami wartości wskaźników. Rysunek 6.(b) uzyskany w wyniku zastosowania procedury skalowania wielowymiarowego MDS ilustruje bardzo wyraźnie, że najwięcej najsilniejszych powiązań węzłów różnych wartości zmiennych występuje z węzłem marży zysku netto, reprezentującym poziom marży zysku netto w wysokości 0,0628. Stanowi on „punkt centralny” wykresu, do którego wyraźnie prowadzą inne linie, w tym zaznaczone grubiej, czerwono, z innych węzłów, co ilustruje silne powiązania. Wykres równoległego zestawienia węzłów z rysunku 6. (c) ilustruje zależności między węzłami chyba w sposób najbardziej uporządkowany. Bardzo wyraźnie wskazuje na związek między liczebnością węzłów a liczebnością powiązań. W naszym przypadku uporządkowanie według liczebności zarówno węzłów, jak i powiązań – to uporządkowanie „góra – dół”. Wyraźnie widoczne są związki między przedsiębiorstwami różnych sektorów a występowaniem wartości marzy zysku netto na poziomie 0,0628. Zilustrowane są także powiązania między poziomami wartości analizowanych wskaźników, w tym widoczny związek marży zysku netto na poziomie 0,0628 (najliczniejszy węzeł MZN) z rotacją należności na poziomie 93,71 (najliczniejszy węzeł RN) oraz na poziomie 37,34 (drugi pod względem liczebności węzeł RN), jak i związek między rotacją należności na poziomie 93,71 a wskaźnikiem podwyższonej płynności poziomu 0,474 (najliczniejszy węzeł WPP) oraz poziomu –0,159 (drugi pod względem liczebności węzeł WPP). Rysunek 6. (d) dobrze ilustruje, jak można za pomocą modyfikacji wykresów przedstawić bardziej wyraźnie wybrane zależności. Modyfikacja wykresu kołowego z rysunku 1. podkreśla i skupia uwagę na najsilniejszych powiązaniach między węzłami i węzłach, między którymi występują najsilniejsze powiązania. Powiązania te zostały zgrupowane w jednym fragmencie wykresu. W pewnych przypadkach dla odczytania wyników wygodna jest struktura drzewa (w postaci przedstawionej na rysunku 7.(a) lub na rysunku 7.(b)). 42 Mirosława Lasek, Marek Pęczkowski Przydatne może być także przedstawienie na wykresie tylko wybranych węzłów lub wybranych powiązań. Przykładowo wykres z rysunku 8., przedstawiający tylko powiązania węzłów – sektorów z węzłami – wskaźnikami (opuszczono powiązania między węzłami – wskaźnikami), wydaje się być najbardziej przydatny do analizy związków między przedsiębiorstwami różnych sektorów a wielkościami wskaźników, charakteryzujących przedsiębiorstwa różnych sektorów. 9. Zakończenie Sieciowa metoda połączeń Link Analysis wydaje się być metodą o dużej przydatności w różnych zastosowaniach, gdzie poszukiwane są zależności między wieloma charakterystykami obiektów. Jej niewątpliwą zaletą jest możliwość prezentowania wyników w postaci wykresów, które mogą być modyfikowane i dostosowywane do potrzeb użytkownika. W artykule zilustrowano metodę prostym przykładem jej zastosowania do analizy kondycji ekonomicznej przedsiębiorstw różnych sektorów gospodarki. Pierwsze próby stosowania metody w analizach kondycji ekonomicznej przedsiębiorstw wskazują, że podjęcie dalszych prac w tym kierunku wygląda obiecująco. Dlatego w najbliższym czasie planujemy dalsze badania przydatności jej zastosowania w analizach kondycji przedsiębiorstw i dostosowania do specyfiki tego problemu. W szczególności chcielibyśmy podjąć wysiłki w kierunku dalszego przystosowania metody na potrzeby tworzenia skupień przedsiębiorstw o różnej kondycji i przeprowadzania oceny skoringowej. Podjęte już próby takich zastosowań wskazują na duże możliwości tkwiące tu w metodzie Link Analysis. Literatura Berry M.J.A., Linoff G.S. 2004 Data Mining Techniques. For Marketing, Sales, and Customer Relationship Management, Indianapolis, Indiana. Data Mining Using SAS Enterprise Miner: A Case Study Approach 2004, Cary, NC, USA. Enterprise Miner Reference Help 2005, SAS Institute Inc. Kwieciński A. 2007 Analiza sieciowa za pomocą metody połączeń Link Analysis. Zastosowanie procedury programu SAS Enterprise Miner, praca magisterska, Wydział Nauk Ekonomicznych, Uniwersytet Warszawski, Warszawa. Wyniki finansowe spółek giełdowych 2007, Warszawa. OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008 Andrzej BUSZKO 1 OCENA EFEKTYWNOŚCI WYBRANYCH PROGRAMÓW POMOCOWYCH DLA KRAJÓW SŁABO ROZWINIĘTYCH GOSPODARCZO W LATACH 2000-2006 Streszczenie Celem artykułu jest ocena programów pomocowych kierowanych do państw słabo rozwiniętych gospodarczo. Analizie poddano sześć krajów z Ameryki Południowej, Afryki i Azji. Okres badawczy dotyczył lat 2000 – 2006. Zwrócono uwagę na strukturę udzielonej pomocy i związek z dynamiką PKB. W tych krajach, których większy udział pomocy przeznaczono na ułatwienia w działalności gospodarczej, odnotowano większą dynamikę PKB, natomiast w państwach, gdzie pomoc była kierowana na redukcję zadłużenia, programy humanitarne, tam dynamika PKB okazała się dużo mniejsza i podlegała znacznym wahaniom. EVALUATION OF SELECTED AID PROGRAMMES SENT TO LESS DEVELOPED COUNTRIES DURING THE PERIOD FROM 2000 TO 2006 Summary The aim of this paper is to evaluate the aid programmes sent to underdeveloped countries. The survey covered six countries from South America, Africa and Asia. The survey covered the period from 2000 to 2006. Close attention was paid to the structure of the aid and the dynamic of GDP. Those countries which were given substantial aid for business activity improvement the bigger dynamic of GDP was noted. On the other hand, those countries which were given the aid just for humanitarian purpose, the dynamic of GDP was much smaller and was subject to fluctuations. Postępująca globalizacja, zwiększające się przepływy finansowe, wzrost bezpośrednich inwestycji zagranicznych, a także sukcesywnie dokonywane wsparcie krajom słabo rozwiniętym gospodarczo nie doprowadziło do zniwelowania różnic pomiędzy państwami. Można obecnie przyjąć, że istnieje pewien dwubiegunowy układ, którego jedną część stanowią państwa bogate (rozwinięte gospodarczo), a z drugiej strony kraje biedne (słabo rozwinięte gospodarczo). Co więcej, powyższy układ nosi cechy trwałości [Beneditc, Bhattacharya 2003]. Tylko niektórym krajom udało się zmniejszyć dzielący je dystans w sosunku do państw bogatych. Różnice (co się najczęściej przyjmuje) nie dotyczą tylko mierników ekonomicznych (np. PKB per capita, 1 Dr hab. Andrzej Buszko, prof. UWM jest pracownikiem Wydziału Nauk Ekonomicznych Uniwersytetu Warmińsko-Mazurskiego w Olsztynie. 44 Andrzej Buszko dochodu, płac realnych, standardów życia np. dostępu do zasobów wody pitnej), ale również warunków prowadzenia działalności gospodarczej, jakości infrastruktury, w tym także: sądownictwa, opieki medycznej, dostępu do edukacji [Chaudhury, Hammer, Kremer, Muralidharan, Rogers 2006]. Z badań M. Torresa i M. Andersona wynika bardzo istotny wniosek. Znaczna liczba krajów słabo rozwiniętych gospodarczo bez zagranicznej pomocy nie jest w stanie samodzielnie przeprowadzić odpowiednich reform, które pozwalają zredukować poziom ubóstwa, zagrożenie głodem, poprawić infrastrukturę i zapewnić stabilny rozwój [Torres, Anderson 2007]. Pomoc zagraniczna jest realizowana w ramach organizacji międzynarodowych (m.in. ONZ, Bank Światowy i jego agendy), grupy państw (np. w ramach G-8) oraz samodzielnie przez poszczególne bogate kraje. Przykładowo na tegorocznym czerwcowym szczycie państw G-8 w Niemczech padła deklaracja przeznaczenia kwoty 60 mld USD państwom słabo rozwiniętym gospodarczo. Pomoc ta ma być głównie skierowana na walkę ubóstwem i poprawę opieki medycznej2. Pomoc zagraniczną, świadczoną krajom słabo rozwiniętym gospodarczo, można podzielić na następujące grupy tematyczne: – redukcję zadłużenia, – konsulting techniczny, – pomoc humanitarną (najczęściej w postaci dostaw żywności i lekarstw), – wsparcie lub całościowe pokrycie kosztów realizacji inwestycji, – poprawę warunków prowadzenia działalności gospodarczej, – ułatwienia w zakresie eksportu do krajów rozwiniętych gospodarczo [Serkan, Blair 2003]. 2. Zmiany w programach pomocowych W latach 2000 – 2006 odnotowano systematyczny wzrost wartości kwot skierowanych jako pomoc dla krajów słabo rozwiniętych gospodarczo. W 2000 roku przekazana pomoc wyniosła 90 mld USD, a w 2006 roku osiągnęła wartość 109,9 mld USD [Alun 2006]. W omawianym okresie zasadniczo zmieniła się struktura udzielanej pomocy. TABELA 1. Udział poszczególnych form wsparcia krajom słabo rozwiniętym gospodarczo w 2000 i 2006 roku (%) Redukcja Forma zadłużeRok nia 2000 35 2006 9 Wsparcie Poprawa warun- Ułatwienia Konsul- Pomoc huinwesty- ków działalności eksportoting manitarna cji gospod. we 7 20 11 6 21 12 10 19 27 23 Źródło: obliczenia na podstawie OECD DAC Development Cooperation Report [2007]. 2 http://Reuters.com, z dn. 12 czerwca 2007. Ocena efektywności wybranych programów pomocowych… 45 W 2000 roku największy udział w programach pomocowych zajmowały trzy formy, tj. redukcja zadłużenia (35%), ułatwienia eksportowe (21%) oraz pomoc humanitarna (20%). Łącznie powyższe formy stanowiły aż 76% całkowitej udzielonej pomocy. W 2006 roku najważniejszą pod względem udziału była poprawa warunków działalności gospodarczej, stanowiła ona 27% całej pomocy. Bardzo istotny udział zajmowały ułatwienia eksportowe (23%) oraz wsparcie inwestycji (9%). Redukcja zadłużenia obniżyła się do 9%, a udział pomocy humanitarnej zmniejszył się o połowę i wyniósł tylko 10% całkowitej kwoty pomocy. Powyższa zmiana struktury pomocy dowodzi pewnej odmiennej strategii przyjętej przez podmioty udzielające wsparcia. Polega ona na ograniczeniu środków przeznaczonych na pomoc doraźną, a ,,przekierowaniu” jej na rozwój gospodarczy. Tym należy wytłumaczyć znaczne zwiększenie udziału wsparcia na poprawę warunków działalności gospodarczej, konsultingu i ułatwień w eksporcie. Ułatwienia w eksporcie sprawdzały się na obniżeniu stawek taryf celnych, przyznaniu krajom słabo rozwiniętym gospodarczo klauzuli najwyższego uprzywilejowania, konsultingu technicznym w zakresie utrzymywania stosownych wymogów jakościowych i sanitarnych [Global Economic Prospects 2006]. Straty, jakie występują w wyniku ustanowienia taryf i parataryf, zostały przedstawione w niżej prezentowanej tabeli. Wpływ został oszacowany przy użyciu wskaźnika restrykcji importowych TRI (Trade Restrictiveness Index) oraz ogólnego wskaźnika handlowego OTRI (Overall Trade Restrictiveness Index). TABELA 2. Wpływ restrykcji na spadek obrotów w handlu zagranicznym w 2006 roku, w mld USD Grupa krajów Kraje wysoko rozwinięte gospodarczo Kraje średnio rozwinięte gospodarczo Kraje słabo rozwinięte gospodarcze TRI 74,9 13,6 6,2 OTRI 19,6 11,1 4,3 Źródło: zestawienie na podstawie: Global Monitoring Report 2007: Confronting the Challenges of Gender Equality and Fragile States [2007]. Na skutek ustanowienia restrykcji handlowych największe straty pod względem nominalnej wartości ponoszą kraje wysoko rozwinięte gospodarczo. Starty mierzone wskaźnikiem TRI w 2006 roku wyniosły 74,9 mld USD, a OTRI 19,6 mld USD. W krajach średnio rozwiniętych gospodarczo straty te wyniosły odpowiednio 13,6 mld USD i 11,1 mld USD. W krajach słabo rozwiniętych gospodarczo straty co prawda okazały się najniższe i osiągnęły wartość 6,2 mld USD i 4,3 mld USD, ale jednocześnie stanowiły one aż 0,6% PKB tych państw. Natomiast straty w krajach wysoko i średnio rozwiniętych gospodarczo nie przekraczały 0,2% PKB [OECD Statistics 2007]. Na tej podstawie można przyjąć, że restrykcje handlowe miały znacznie większe znaczenie dla krajów słabo aniżeli wysoko rozwiniętych gospodarczo. 46 Andrzej Buszko 3. Cel pracy i przyjęta metoda badawcza Podstawowym celem pracy jest ocena efektywności pomocy zagranicznej państwom słabo rozwiniętym gospodarczo. Do przeanalizowania wybrano po dwa kraje słabo rozwinięte gospodarczo, pochodzące z Azji (Laos, Tadżykistan), Afryki (Mozambik, Zambia) i Ameryki Południowej (Paragwaj, Boliwia). Analizie poddano typowe zakresy pomocy, ze szczególnym uwzględnieniem warunków prowadzenia działalności gospodarczej. Do oceny warunków działania przyjęto następujące parametry: – rozpoczęcie działalności gospodarczej (uwzględniono liczbę formalności, czas niezbędny do rejestracji podmiotu, koszt liczony jako procent dochodu, minimalny kapitał niezbędny do założenia spółki z o.o. także liczony jako procent dochodu); – tryb uzyskiwania pozwoleń budowlanych (liczbę formalności, czas, procentowy koszt dochodu); – zatrudnienie pracowników (wzięto pod uwagę wskaźnik elastyczności zatrudnienia, elastyczności czasu pracy, elastyczności zwalniania, elastyczności prawa pracy, koszt zatrudniania rozumiany jako procent poborów, koszt zwalniania, konieczność wypłaty utraconych poborów); – rejestracja nieruchomości (wyliczono w oparciu o liczbę formalności, czas i koszt jako procent wartości nieruchomości); – uzyskiwanie kredytu (wskaźnik ochrony inwestora, wskaźnik informacji kredytowej, pokrycie rynku przez rejestry publiczne, pokrycie rynku przez rejestry prywatne); – ochrona inwestorów (wskaźnik zakresu jawności, wskaźnik zakresu odpowiedzialności dyrektorów, wskaźnik łatwości roszczenia udziałowców, wskaźnik siły ochrony inwestora); – płacenie podatków (liczba podatków, czas, wysokość jako procent zysków), – wymiana międzynarodowa (liczba dokumentów eksportowych, liczba dokumentów importowych); – dochodzenie należności (liczba formalności, czas, koszt jako procent roszczenia); – likwidacja przedsiębiorstwa (czas w latach, koszt jako procent posiadanego majątku, stopa odzyskania należności w centach za dolara). Pierwszym miernikiem oceny jest rozpoczęcie działalności gospodarczej w trybie spółki z ograniczoną odpowiedzialnością. Forma ta jest najbardziej rozpowszechniona zarówno wśród lokalnych, jak i zagranicznych przedsiębiorców. Zwrócono uwagę na podstawowe formalności związane z rejestracją spółki. Z tego względu uwzględniono liczbę formalności, czas, koszt liczony jako procent dochodu mieszkańca i podobnie wyliczono minimalne wymogi kapitałowe. Posłużenie się kosztem w oparciu o dochód mieszkańca powoduje możliwość porównania warunków rozpoczęcia działalności w różnych państwach. Założenie przedsiębiorstwa nie może okazać się swoistą pułapką. Dlatego należy uwzględnić tryb likwidacji spółki. Powinien być on Ocena efektywności wybranych programów pomocowych… 47 również relatywnie prosty i zapewniać wysoki stopień odzyskania należności. W związku z powyższym uwzględniono czas potrzebny do likwidacji, koszt jako procent posiadanego majątku oraz stopę odzyskania należności w centach za dolara. Przyszli przedsiębiorcy powinni uwzględnić warunki z uzyskaniem pozwolenia na budowę i rejestrację nieruchomości. Zdecydowana bowiem większość z nich prędzej czy później stanie przed koniecznością wybudowania nowego, lub modernizacji istniejącego, obiektu i przejęcia jego na własność. Tym należy tłumaczyć konieczność uwzględnienia liczby formalności, czasu ich trwania oraz kosztów. Bardzo ważnym parametrem oceny są warunki zatrudniania pracowników. Wskaźnik swobody zatrudnienia składa się z następujących części składowych: ograniczenia stosowania umów na czas określony, maksymalny okres, na jaki można zawrzeć taką umowę, stosunek ustawowej płacy minimalnej do średniej wartości dodanej, przypadającej na pracownika. Jeżeli umowy na czas określony mogą być stosowane wyłącznie do zadań trwających przez określony czas, kraj otrzymuje 1 punkt, w przypadku wszystkich zadań 0 punktów. Jeżeli maksymalny okres trwania umowy na czas określony nie przekracza trzech lat, kraj otrzymuje 1 punkt, jeśli wynosi on od trzech do pięciu lat – 0,5 punktu, jeśli więcej niż pięć lat 0 punktów. Jeżeli stosunek płacy minimalnej do średniej wartości dodanej do pracownika jest wyższy niż 0,75, wówczas otrzymuje 1 punkt, przedziałowi 0,5 – 0,75 odpowiada 0,67 punktu, przedziałowi 0,25 – 0,5 – 0,33 punktu, a wartościom poniżej 0,25 – 0 punktu. Wskaźnik elastyczności czasu pracy obejmuje pięć elementów: ograniczenia dotyczące pracy w nocy, ograniczenia dotyczące pracy w weekendy, możliwości przedłużenia tygodnia pracy do 5,5 dnia, wydłużenia dnia pracy do 12 godzin przez dwa miesiące w roku, długość płatnego urlopu. Za każdą odpowiedź pozytywną kraj otrzymywał 0 za negatywną 1 punkt. Wskaźnik swobody zwalniania pracowników wyliczono na podstawie ośmiu elementów: brak przydatności jest podstawą zwolnienia pracownika, w razie zwolnienia pracownika istnieje konieczność powiadomienia osób trzecich, w razie zwolnień grupowych (powyżej 20 zatrudnionych) występuje obowiązek uzyskania zgody osób trzecich, wymóg prawny dotyczący przeszkolenia nowo zatrudnianych, występowanie zasad dotyczących kolejności zwolnień i kolejności powtórnego zatrudnienia. Odpowiedzi twierdzące na pytanie powodowały przyznanie od 2 – 10 punktów. Uzyskane wyniki przeskalowano do 100 punktów. Im mniejsza wartość, tym bardziej elastyczne okazują się regulacje [Doing Business… 2007]. Pozapłacowe koszty pracy obejmują wszystkie opłaty, jakie ponosi przedsiębiorca w związku z zatrudnieniem pracownika. Zostały wyliczone jako procent płaconej pensji. Przykładowymi kosztami mogą być: zasiłki chorobowe, urlopy macierzyńskie, dodatki mieszkaniowe, składki na ubezpieczenie społeczne itp. Wskaźnik ochrony inwestorów jest średnią trzech wskaźników : jawności, odpowiedzialności członków zarządu oraz swobody wytaczania przywództwa przez udziałowców. Wskaźnik jawności obejmuje pięć elementów, które określają możliwość wyrażenia zgody na prawomocną transakcję. Uwzględnia się udział organów spółki do przeniesienia stosownych uprawnień. Wskaźnik zawiera się w przedziale 0 – 10 i im wyższa wartość, tym większa jawność. Wskaźnik zakresu odpowiedzialności określa zakres odpowiedzialności członków zarządu za podejmowane decyzje. Przyjmuje on wartości 48 Andrzej Buszko w przedziale 0 – 10. Wyższa jego wartość dowodzi wyższej odpowiedzialności zarządu za podejmowane decyzje. Tym samym udziałowcy posiadają możliwość dochodzenia ewentualnych swoich roszczeń na drodze prawnej. Wskaźnik swobody wytyczania powództwa przez udziałowców obejmuje elementy stanowiące odpowiedź na następujące pytania: – jakie dokumenty powód może uzyskać w trakcie procesu; – czy powód może zadawać pytania w czasie procesu; – czy zadawanie pytań musi być poprzedzone zgodą sądu; – czy zakres dowodów w sprawach cywilnych jest węższy niż w sprawach karnych; – jaki udział w spółce powinny posiadać jej udziałowcy. Wskaźnik także zamyka się w przedziale 0 – 10 i im jest on większy, tym wyższa okazuje się swoboda wytaczania przywództwa przez udziałowców [Doing Business 2007 2006]. Wskaźnik zakresu uprawnień odzwierciedla stopień w jakim przepisy, dotyczące zabezpieczeń kredytowych i upadłości, chronią prawa kredytobiorców i kredytodawców oraz ułatwiają udzielenie kredytów. Obejmują one siedem elementów odnoszących się do przepisów zabezpieczeń kredytowych i trzy prawa upadłościowego. Za każdą z następujących cech przepisów przyznano jeden punkt: – w umowach o zabezpieczenie kredytu nie jest wymagany szczegółowy, lecz ogólny stan aktywów; – każda osoba prawna lub fizyczna może udzielić zabezpieczenia na majątku lub przyjmować takie zabezpieczenie; – ujednolicony rejestr kredytobiorców obejmuje także zabezpieczenia na aktywach ruchomych; – zabezpieczeni wierzyciele mają pierwszeństwo poza procedurą upadłościową; – zabezpieczeni wierzyciele spłacani są jako pierwsi; – zabezpieczeni wierzyciele mogą zająć aktywa, gdy dłużnik przechodzi reorganizację; – w przypadku reorganizacji spółką kieruje syndyk; – strony mogą uzgodnić w umowie sposoby egzekucji; – wierzyciele mogą w drodze pozasądowej przejąć przedmiot zabezpieczenia; – wierzyciele mogą sprzedać przedmiot zabezpieczenia. Tym samym wartość wskaźnika wynosi od 0 do 10. Wyższe wartości oznaczają, że krajowe przepisy, odnoszące się do zabezpieczenia kredytu i upadłości, zapewniają większy zakres uprawnień [Doing Business 2007 2006]. Zagraniczną pomoc, jaką skierowano do badanej grupy państw, porównano z dynamiką PKB. Przyjęto założenie, iż zagraniczna pomoc przeznaczona na poprawę warunków działalności gospodarczej korzystnie wpływa na dynamikę PKB. W pracy w podstawowym stopniu oparto się na wydawnictwach Banku Światowego, w tym przede wszystkim opracowaniu pt. Doing Business 2007, która jest wspólną publikacją Banku Światowego, Międzynarodowej Korporacji Finansowej, NBP, Ocena efektywności wybranych programów pomocowych… 49 Fundacji Ius et Lex oraz Instytutu Badań nad Gospodarką Rynkową. Posłużono się miernikami stosowanymi przez Bank Światowy. Publikacja Doing Business jest sukcesywnie wydawanym opracowaniem przez World Bank, która przedstawia warunki działania w zdecydowanej większości państw. Wykorzystano także studium pt. Global Monitoring Report 2007: Confronting the Challenges of Gender Equality and Fragile States. Analizie poddano lata 2000 – 2006. 4. Prezentacja i omówienie wyników badań Zgodnie z przyjętą metodologią badań, w tabeli 3 zaprezentowano warunki rozpoczęcia działalności gospodarczej w wybranej grupie słabo rozwiniętych gospodarczo państw. TABELA 3. Warunki rozpoczęcia działalności gospodarczej w Laosie, Tadżykistanie, Mozambiku, Paragwaju, Boliwii, w latach 2000 – 2006 Wymagania Laos Liczba formalności Czas rejestracji spółki w dniach Koszt (% dochodu) Minimalny kapitał Wskaźnik elastyczności zatrudnienia (0 – 100) Wskaźnik elastyczności czasu pracy (0 – 100) Wskaźnik elastyczności prawa pracy (0 – 100) Koszt zatrudnienia Liczba formalności przy rejestracji obiektu Koszt rejestracji Czas rejestracji (dni) 8 Tadżykistan 14 163 Mozambik Zambia Paragwaj Boliwia 13 6 17 15 67 113 35 74 50 17,3 0,0 75,1 378,6 85,7 10,4 30 1,9 136,8 0,0 140,7 3,8 11 33 83 0 56 61 40 20 60 40 60 60 37 31 54 23 59 74 5 25 4 11 17 14 9 6 8 6 6 7 4,2 135 2,0 37 5,4 42 9,6 70 2,0 46 5,0 92 Źródło: zestawienie na podstawie: Doing Business 2007 [2006]. Trudno jest jednoznacznie wskazać, w której grupie państw występują najkorzystniejsze warunki rozpoczęcia działalności gospodarczej. Liczba formalności niezbędnych do zarejestrowania spółki z ograniczoną odpowiedzialnością w Zambii wynosi 6, Laosie 8, Boliwii 15, Paragwaju 17, Tadżykistanie 14, a w Mozambiku 13. Najkrótszy czas rejestracji spółki jest w Zambii i wynosi 35 dni, w Boliwii 50 dni, Tadżykistanie 67 dni i był on prawie dwa razy krótszy, aniżeli w Mozambiku, 113 dni. Najdłużej rejestruje się spółkę w Laosie aż 163 dni. Najniższe koszty założenia spółki z ograniczoną odpowiedzialnością okazały się w Laosie, gdzie wynoszą 17,3% do- 50 Andrzej Buszko chodu per capita mieszkańca tego państwa. Natomiast w Zambii koszty stanowią 30% dochodu per capita, Tadżykistanie 75,1%, a Mozambiku 85,7% dochodu per capita. Najwyższe koszty wystąpiły w krajach Ameryki Południowej, tj. Paragwaju 136,8% i Boliwii 140,7% dochodu per capita. W Tadżykistanie wymagano największego minimalnego kapitału niezbędnego do założenia spółki, była to równowartość 378,6% dochodu per capita. W pozostałych krajach wymaganie było zdecydowanie mniejsze. Brak niezbędnej wysokości kapitału założycielskiego wprowadziły Laos i Paragwaj. Relatywnie niski wymóg minimalnego kapitału obowiązywał w pozostałych krajach: Mozambiku 10,4% dochodu per capita, Boliwii 3,8%, Zambii 1,9% dochodu per capita. Pewnym zaskoczeniem jest wysoka elastyczność współczynnika zatrudnienia w Zambii, która przyjęła wartość 0. Wysoką elastyczność na poziomie 11 punktów odnotowano w Laosie, Tadżykistanie 33, Paragwaju 56, a Boliwii 60. Najmniej elastyczny rynek zatrudnienia wystąpił w Mozambiku, gdyż wartość współczynnika osiągnęła poziom 83 punktów. Wskaźnik elastyczności czasu okazał się relatywnie niski. Najbardziej elastyczny okazał się w Tadżykistanie, gdzie wyniósł 20 punktów, w Zambii i Laosie 40 punktów, natomiast w pozostałych krajach 60 punktów. Najniższą wartość wskaźnik elastyczności prawa pracy wystąpił w Zambii, gdzie osiągnął wartość 23 punktów. W pozostałych krajach współczynnik zamknął się w przedziale 31 – 74 punktów. Najniższe koszty zatrudnienia posiada Mozambik, wynoszące 4% miesięcznych poborów pracownika. Na zbliżonym poziomie okazały się koszty w Laosie, gdzie stanowiły wartość 5% poborów. Natomiast wśród innych analizowanych krajów koszty oscylowały w graniach 11 – 25% miesięcznych poborów pracownika. We wszystkich analizowanych krajach liczba formalności przy rejestracji obiektu była do siebie zbliżona i zamykała się w przedziale 6 – 9. Najniższe koszty rejestracji zapewnia Tadżykistan oraz Paragwaj 2% wartości obiektu, następnie Laos 4,2% wartości obiektu. W Mozambiku i Boliwii koszty były do siebie zbliżone i wynosiły odpowiednio 5,4 oraz 5% wartości obiektu. Największe koszty ponosi potencjalny właściciel w Zambii 9,6% wartości obiektu. Najkrócej rejestracja trwa w Tadżykistanie 37 dni, w Mozambiku 42 dni, Paragwaju 46 dni, w Zambii 70 dni, Boliwii 92 dni, a najdłużej w Laosie 135 dni. Znaczne zróżnicowanie warunków występuje także w odniesieniu do prowadzenia działalności gospodarczej, co przedstawia niżej zamieszczona tabela. Liczba płaconych podatków, czas poświęcony na ich opłatę oraz wysokość obciążeń podatkowych (liczona jako% zysku brutto) zdecydowanie preferuje Laos i Paragwaj. W Laosie jest 31 podatków, Paragwaju 33. W Boliwii przedsiębiorca musi uiszczać 41 podatków, ale zajmuje mu to 1080 godzin w roku. Największą liczbę podatków odnotowano w Tadżykistanie 55, ale czas potrzebny na ich uiszczenie jest relatywnie krótki, zaledwie 224 godziny. W Mozambiku i Zambii liczba podatków jest identyczna 36, ale występuje znaczne zróżnicowanie pod względem czasu ich uiszczenia, odpowiednio 230 oraz 132 godziny w roku. Najwyższe podatki są płacone w Tadżykistanie 87% zysku brutto, nieznacznie mniejsze obciążenia występują w Boliwii 80,3% zysku brutto. Najmniejsze okazują się być w Zambii 22,5% zysku brutto. W pozostałych krajach wysokość obciążeń podatkowych jest do siebie zbliżona Ocena efektywności wybranych programów pomocowych… 51 i zamyka się w przedziale 32,5% – 43,3% zysku brutto. Największy poziom ochrony inwestora ma miejsce w Zambii, gdzie wynosi 7 punktów, w Boliwii 4,3 punktów, Tadżykistanie i Mozambiku 4 punkty. Najniższą wartość wskaźnik ochrony inwestora występuje w Laosie 2 punkty. Kraje Ameryki Południowej zdecydowanie przodują w zakresie informacji kredytowej oraz pokrycia kredytobiorców bądź to przez rejestry publiczne lub prywatne. Wskaźnik informacji kredytowej waha się w wm. krajach w granicach 3 – 6 punktów, natomiast wskaźnik pokrycia kredytobiorców wynosi od 10,6% do 52,2%. W Laosie, Tadżykistanie, Zambii wskaźnik informacji kredytowej wynosi 0 i brak jest pokrycia kredytobiorców przez stosowne rejestry. W Mozambiku wskaźnik informacji kredytowej jest niski i wynosi 3 punkty, a pokrycie kredytobiorców przez rejestry publiczne wynosi 0,7%. Najwyższy wskaźnik jawności występuje w Mozambiku i wynosi 7 punktów, w Paragwaju 6, Zambii 3 punkty. W Boliwii wskaźnik wynosi tylko 1 punkt, a w pozostałych państwach 0. Wskaźnik zakresu odpowiedzialności jest identyczny w krajach Ameryki Południowej, gdzie przyjął on wartość 5 punktów. W Zambii 6 punktów, najniższą wartość osiąga on w Tadżykistanie 0 punktów. TABELA 4. Warunki prowadzenia działalności gospodarczej w Laosie, Tadżykistanie, Mozambiku, Zambii, Paragwaju, Boliwii, w latach 2000 – 2006 Warunki Liczba płaconych podatków Czas opłat (godziny w roku) Wysokość podatku (% zysku brutto) Wskaźnik poziomu ochrony inwestora Wskaźnik informacji kredytowej Pokrycie rynku przez rejestr publiczny Pokrycie rynku przez rejestr prywatny Wskaźnik zakresu jawności Wskaźnik zakresu odpowiedzialności Wskaźnik roszczenia Liczba dokumentów eksportowych Liczba dokumentów importowych Laos Tadżykistan Mozambik Zambia Paragwaj Boliwia 31 55 36 36 33 41 180 224 230 132 328 1080 32,5 87 39 22,5 43,3 80,3 2 4 4 7 3 4,3 0 0 3 0 6 5 0 0 0,7 0 10,6 11,5 0 0 0 0 52,2 32,3 0 0 7 3 6 1 3 0 2 6 5 5 3 5 6 7 6 7 12 14 6 16 9 12 16 10 16 19 13 12 Źródło: zestawienie na podstawie Doing Business 2007 [2006]. 52 Andrzej Buszko Zbliżone wyniki osiągnięto w zakresie pokrycia roszczeń. We wszystkich krajach wskaźnik przyjmuje relatywnie wysoką wartość w przedziale 3 – 7 punktów. W analizowanej grupie państw wymaga się stosunkowo dużej liczby dokumentów podczas realizacji transakcji w handlu zagranicznym. Najwięcej wymagają władze Zambii 35 dokumentów, z czego 19 dokumentów w imporcie, a 16 w eksporcie. Najmniej dokumentów obowiązuje w Mozambiku oraz Paragwaju 22. Wszystkie kraje starają się zmniejszyć liczbę dokumentów eksportowych i występuje w tej grupie państw pewna zależność, która sprowadza się do tego, że liczba dokumentów importowych jest większa od eksportowych. Wyjątkiem jest Tadżykistan, gdzie liczba dokumentów eksportowych wynosi 14, a importowych tylko 10. Warunki zakończenia działalności gospodarczej także różnicują analizowane grupy państw. Każdy z przedsiębiorców powinien posiadać swobodę i odpowiednie ułatwienia w zakresie zakończenia lub zawieszenia prowadzenia biznesu. Nie wszystkie okoliczności przedsiębiorca jest w stanie określić na wstępnym etapie analiz. Sytuacja w trakcie prowadzenia może się diametralnie zmienić i przedsiębiorstwo nie może stać się pułapką, w której właściciele ponoszą przez długi okres straty. TABELA 5. Warunki zakończenia działalności gospodarczej w Laosie, Tadżykistanie, Mozambiku, Zambii Paragwaju, Boliwii, w latach 2000 – 2006 Warunki Liczba formalności przy dochodzeniu należności Czas dochodzenia (w dniach) Koszty dochodzenia (% roszczenia) Okres likwidacji (w latach) Koszty likwidacji (% majątku) Stopa odzyskania należności (w centach za dolara) Laos Tadżykistan Mozambik Zambia Paragwaj Boliwia 53 46 38 21 46 47 443 257 1010 404 478 591 30,3 10,3 132 28,7 39,8 10,5 5 3 5 3,1 3,9 1,8 76 9 9 9 9 15 0,0 39,1 15 22 15,4 37,6 Źródło: zestawienie na podstawie: Doing Business 2007 [2006]. W krajach afrykańskich występuje relatywnie najniższa liczba formalności przy dochodzeniu należności. Liczba w przypadku Zambii wynosi 21, a Mozambiku 38. W Tadżykistanie oraz Paragwaju liczba formalności wynosi 46, a w Laosie 53. Czas dochodzenia (rozumiany jako długość standardowego postępowania sądowego) najdłuższy jest w Mozambiku i wynosi 1010 dni, najkrótszy okres dochodzenia ma miejsce w Tadżykistanie 257 dni, Zambii 404 dni, w Laosie 443 dni, a w Boliwii 591 dni. Koszty dochodzenia należności, za wyjątkiem Mozambiku, są do siebie zbliżone. Wahają się one w przedziale 10,3% – 39,8% wartości roszczenia. Najniższe Ocena efektywności wybranych programów pomocowych… 53 okazują się w Tadżykistanie i wynoszą 10,3%. Najwyższe koszty występują w Mozambiku, gdzie wynoszą 132% wartości roszczenia. W Mozambiku i Laosie ma miejsce najdłuższy okres likwidacji przedsiębiorstwa, wynosi on 5 lat, następnie w Paragwaju 3,9 lat, Tadżykistanie 3 lata. Najkrótszy okres gwarantuje Boliwia 1,8 lat. Kraj ten zapewnia także relatywnie niskie koszty likwidacji przedsiębiorstwa 15% majątku. Najwyższe koszty występują w Laosie aż 76% majątku. W pozostałych państwach koszty są identyczne i wynoszą 9% majątku likwidowanego przedsiębiorstwa. Najwyższą stopę odzyskania należności zapewnia Tadżykistan 39,1 centów za dolara. Relatywnie wysokie należności gwarantuje Boliwia 37,6 centów za dolara. Laos nie gwarantuje odzyskania żadnych należności. W Mozambiku i Paragwaju stopa odzyskania jest do siebie zbliżona i wynosi odpowiednio 15 oraz 15,4 centów za dolara. W Zambii wskaźnik osiąga 22 centów za dolara. Na podstawie powyższej analizy można stwierdzić, że relatywnie najlepsze warunki działalności gospodarczej występują w Zambii, Boliwii oraz Paragwaju. W pozostałych krajach warunki odbiegają od wyżej wymienionych państw. Bardzo istotnym parametrem różnicującym analizowaną grupę państw jest struktura udzielanej zagranicznej pomocy. W Zambii, Boliwii oraz Paragwaju pomoc kierowano na poprawę warunków działalności gospodarczej oraz konsulting, natomiast w drugich krajach przeważa: pomoc humanitarna, ułatwienia eksportowe, redukcja zadłużenia oraz wsparcie inwestycji. TABELA 6. Struktura pomocy zagranicznej udzielonej Laosowi, Tadżykistanowi, Mozambikowi, Zambii Paragwajowi, Boliwii, w latach 2000 – 2006 (%) Forma pomocy Laos Tadżykistan Mozambik Zambia Paragwaj Boliwia Redukcja Pomoc huKonsulting zadłużenia manitarna 22 6 15 4 10 7 7 28 10 12 17 10 29 19 39 4 13 15 Poprawa Wsparcie warunków Ułatwienia inwestycji działalności eksportowe gospod. 5 19 18 26 15 6 4 9 23 11 64 5 16 38 6 11 45 12 Źródło: opracowanie na podstawie: Harmonization and Alignment for Greater Aid Effectiveness. An Update on Global Implementation and Bank’s Commitments [2006]; Fragile States: Policy Commitment and Principels for Good International Engagement in Fragile States and Situations [2006]; OECD Statistics [2007]. W latach 2000 – 2006 największy udział, bo aż 64% pomocy zagranicznej skierowanej do Zambii, dotyczył poprawy warunków działalności gospodarczej. W Boliwii udział ten wyniósł 45%, a w Paragwaju 38% całości udzielonej pomocy. W pozostałych krajach udział ten nie przekroczył 20%. Najmniejszy udział pomocy zagranicznej na poprawę warunków działalności zagranicznej odnotowano w Mozambiku, zaledwie 9%. Kraj ten otrzymał jednak relatywnie wysoki 22% udział w redukcji zadłu- 54 Andrzej Buszko żenia. W Mozambiku największy udział w pomocy zagranicznej zajmowała pomoc humanitarna 39%. W strukturze udzielonej Zambii pomocy, znaczny udział 11%, zajmowało wsparcie inwestycji. Należy podkreślić, że kraj ten dysponuje strategicznymi surowcami (jest czwartym światowym eksporterem miedzi) i wsparcie zagranicznego kapitału w wydobyciu oraz przetwórstwie należy uznać za właściwe działalnie. Jednocześnie kraj ten odnotował relatywnie wysoki udział konsultingu aż 12% w całości udzielonej pomocy. Największy udział konsultingu miał miejsce w Tadżykistanie, gdzie stanowił aż 28% wszystkich zagranicznych środków. W tym kraju odnotowano również największy udział wsparcia inwestycji, które wyniosły 26% całkowitej pomocy. Warto zwrócić uwagę, że kraje, które nie otrzymały znacznej pomocy na poprawę warunków działalności gospodarczej, otrzymały relatywnie wysoki udział w ułatwieniach eksportowych. W Mozambiku udział takiej pomocy stanowił aż 23% wszystkich środków, a w Laosie 18%. Natomiast Zambia, Boliwia (które otrzymały znaczny udział środków na poprawę warunków działalności gospodarczej) nie dostały specjalnych ułatwień w dostępie na zagraniczne rynki. Analizowaną grupę krajów wyróżnia znaczne zróżnicowanie w dynamice PKB, co prezentuje tabela nr 7. TABELA 7. Dynamika zmian PKB w Laosie, Tadżykistanie, Mozambiku, Zambii, Paragwaju, Boliwii, w latach 2001-2006 (%) Kraj / Rok Laos Tadżykistan Mozambik Zambia Paragwaj Boliwia 2000 100 100 100 100 100 100 2001 2 1 -1 0,2 0,2 0,1 2002 -1 -0,1 -1,1 0,4 0,3 1,2 2003 -0,5 0,2 2.0 2,3 0,6 3,3 2004 0,1 0,3 -0,2 2,7 1,1 3,9 2005 0,5 1,0 0,3 3,1 0,9 2,2 2006 0,2 0,1 0,1 3,8 2,3 2,0 Źródło: obliczenia własne na podstawie: OECD Statistics [2007]. Na tle badanych państw Zambia, Paragwaj oraz Boliwia charakteryzuje się stabilną wzrostową dynamiką zmian PKB. W Zambii trend jest wyraźnie wznoszący. W 2001 roku dynamika PKB w porównaniu do roku poprzedniego zwiększyła się co prawda tylko o 0,2%, ale w kolejnych latach dynamika okazała się większa i wyniosła w 2003 roku 0,4%, w 2003 roku 2,3%, w 2004 roku 2,7%, w 2005 roku 3,1%, a w 2006 roku 3,8%. W Boliwii w latach 2001 – 2004 dynamika PKB była relatywnie wysoka; zwiększyła się z wielkości 0,2% w 2001 roku do 3,9% w 2004 roku. W 2005 roku odnotowano zmniejszenie dynamiki PKB do 2,2%, a w 2006 roku do 2,0%. W Paragwaju dynamika PKB okazała się mniejsza i podlegała wahaniom w granicach 0,2% – 1,1%. Największy wzrost PKB miał miejsce w 2006 roku, kiedy zwiększył się w porównaniu do okresu poprzedniego o 2,3%. W pozostałych krajach odnotowano większe wahania dynamiki PKB, a wzrost PKB okazał się mniejszy. W Laosie największy wzrost dynamiki PKB miał miejsce w 2001 roku, kiedy wyniósł 2%. W 2002 roku i 2003 roku nastąpił spadek odpowiednio o 1% oraz Ocena efektywności wybranych programów pomocowych… 55 0,5%. W kolejnych latach wzrost był na nieznacznym poziomie od 0,1% do 0,5%. W Tadżykistanie PKB wahało się w bardzo wąskim przedziale od 0,1% do 1%. Natomiast w Mozambiku okresy nieznacznego wzrostu (jaki miał miejsce np. w 2003 roku 2,0%) były poprzedzone latami wyraźnego spadku PKB. W 2001 roku spadek PKB wyniósł 1%, a w 2002 roku 1,1%. W 2005 roku oraz 2006 roku odnotowano nieznaczny wzrost PKB odpowiednio 0,3% i 0,1%. 5. Wnioski Przeprowadzona analiza doprowadziła do szeregu istotnych wniosków. Pomoc zagraniczna przeznaczona dla państw słabo rozwiniętych gospodarczo powinna być kierowana na selektywne programy pomocowe. Pomoc skierowana bez wnikliwej analizy będzie skazana na niepowodzenie – przyniesie nieznaczną poprawę sytuacji gospodarczej. W pierwszej kolejności zagraniczne środki należy przeznaczyć na poprawę warunków działalności gospodarczej, konsulting oraz wsparcie dla lokalnych inwestycji. Taka działalność sprzyja poprawie dynamiki PKB. Natomiast wydatki na pomoc humanitarną, redukcję zadłużenia tylko chwilowo poprawiają sytuację w danym państwie i nie przyczyniają się do zwiększenia PKB w dłuższym okresie. Można przyjąć, że doprowadziły nawet do niekorzystnych zjawisk. Potwierdzeniem powyższego sformułowania jest fakt, że w krajach, które otrzymały duży udział wm. środków, w całkowitej sumie pomocy odnotowano nawet spadki PKB. Ułatwienia eksportowe dla krajów słabo rozwiniętych gospodarczo można uznać jedynie za potencjalną możliwość wpływającą na wzrost gospodarczy. W przypadku sprzyjających warunków do prowadzenia działalności, oferta eksportowa wynika ze zwiększenia produkcji krajowej. Kraje słabo rozwinięte gospodarczo nie są w stanie zmienić struktury produkcji w taki sposób, aby była zgodna z oczekiwaniami odbiorców zagranicznych. Natomiast brak warunków ogranicza produkcję, tym samym przyczynia się do spadku PKB i w konsekwencji kraje słabo rozwinięte gospodarczo nie są w stanie w dłuższym czasie/okresie przedstawić (pomimo nawet preferencyjnych warunków dostępu na zagraniczne rynki) propozycji dostaw. Popyt wewnętrzny zmusza do skierowania dostaw na rynek krajowy, zwłaszcza w przypadku braku odpowiedniej infrastruktury sprzyjającej włączeniu się w międzynarodowy podział pracy. W latach 2000 – 2006 struktura zagranicznej pomocy dla krajów słabo rozwiniętych gospodarczo uległa zmianom. Zwiększono udział środków na poprawę warunków dla działalności gospodarczej, konsulting, wsparcie inwestycji, a zmniejszono udział na pomoc humanitarną, redukcję zadłużenia. Powyższa tendencja nie objęła wszystkich państw, czego dowodzi przykład m.in. Mozambiku, Tadżykistanu oraz Laosu. Należy przyjąć, że z upływem czasu nastąpi dalsza weryfikacja udzielanych środków i zagraniczna pomoc skupi się na poprawie warunków do prowadzenia działalności gospodarczej. Podkreślić należy, że kraje słabo rozwinięte gospodarczo z reguły dysponują: surowcami, korzystnym położeniem geograficznym, zasobami demograficznymi, stwarzającymi potencjalne warunki do poprawy sytuacji gospodarczej. 56 Andrzej Buszko Literatura Alun T. 2006 Do Debt -Service Savings and Grants Boost Social Expenditures?, IMF Working Paper l06/180, Washington. Beneditc C., Bhattacharya R. 2003 External Debt, Public Investment and Growth In LowIncome Countries, IMF Working Paper 03/249, Washington. Chaudhury N., Hammer J., Kremer M., Muralidharan K., Rogers H.F. 2006 Missing in Action: Teacher and Health Worker Absence in Developing Countries, ,,Journal of Economics Perspectives”, Vol. 20, No. 1. Doing Business 2007 2006, Washington. Fragile States: Policy Commitment and Principels for Good International Engagement in Fragile States and Situations 2006, Paris. Global Economic Prospects 2006, Washington. Global Monitoring Report 2007: Confronting the Challenges of Gender Equality and Fragile States 2007, Washington. Harmonization and Alignment for Greater Aid Effectiveness. An Update on Global Implementation and Bank’s Commitments 2006, Washington. http:// Reuters.com, z dn. 2007-06-12. OECD Statistics 2007, Paris. Serkan A., Blair P.H. 2003 The World’s Poorest Countries: Debt Relief or Aid, Stanford Research Paper Series 1809, Stanford. Torres M., Anderson M. 2007 Fragile States: Defining Difficult Enviroment For Poverty Reduction, PRDE Working Paper 1, London. OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008 Anna WILDOWICZ-GIEGIEL 1 KONSUMPCJA A SYSTEM WARTOŚCI POLSKIEGO SPOŁECZEŃSTWA Streszczenie Cechą charakterystyczną, przypisywaną współczesnej kulturze, jest dominacja konsumpcji, która ogarnia niemal wszystkie dziedziny życia, stając się wartością nadrzędną. Artykuł poświęcony został problematyce konsumpcji i jej miejscu w hierarchii wartości polskiego społeczeństwa. Autorka analizuje zmiany w wielkości i strukturze konsumpcji polskich gospodarstw domowych, jakie dokonały się na przełomie lat 90-tych, na tle przeobrażeń zachodzących w obrębie ich systemu wartości. Znaczny udział spożycia w dochodach do dyspozycji w analizowanym okresie wynikał z relatywnie niskich dochodów realnych gospodarstw domowych oraz z relatywnie niskiego standardu życia w porównaniu z krajami wysoko rozwiniętymi, co wpływa na względnie wysoką skłonność do konsumpcji, która się utrzymuje aż do chwili obecnej. Wzrost znaczenia aspiracji materialnych w polskim społeczeństwie jest też niewątpliwie efektem przenoszenia się pewnych wzorców kulturowych w skali międzynarodowej. Konsekwencją nasilających się procesów globalizacyjnych są zachodzące zmiany w obrębie systemu wartości współczesnych społeczeństw, co znajduje swoje odzwierciedlenie w stylach życia, w tym w zachowaniach konsumpcyjnych. CONSUMPTION AND THE SYSTEM OF VALUES OF THE POLISH SOCIETY Summary A characteristic feature, ascribed to contemporary culture, is a domination of consumption, which spreads over almost all domains of life, and is becoming the main value. The article deals with the problem of consumption and its place in the hierarchy of values in the Polish society. The author analyzes the changes in the amount and in the consumption structure of Polish households that took place in the 1990s, which can be observed from the point of view of the present changes within the system of values. A significant amount of consumption in disposable income in the analyzed period of time is the result of relatively low real incomes and of relatively low living standard of Polish households compared to the developed countries which influences a relatively high propensity for consumption until now. Undoubtedly, the increase in material aspirations of the Polish society is also an effect of the spread of the common cultural patterns on an international scale. The changes in the system of values within contemporary societies are due to stronger globalization processes, what is reflected in their lifestyles, including consumption behaviour patterns. 1 Dr Anna Wildowicz-Giegiel jest pracownikiem Wydziału Ekonomii i Zarządzania Uniwersytetu w Białymstoku. 58 Anna Wildowicz-Giegiel 1. Wstęp Konsumpcja stanowi przedmiot zainteresowań zarówno teoretyków ekonomii, koncentrujących się głównie na badaniu zachowań racjonalnych jednostek, jak i przedstawicieli innych nauk społecznych, w tym: socjologii, psychologii oraz antropologii kultury. Badacze ci stworzyli alternatywny model konsumpcji poszerzony o kontekst społecznokulturowy, doszukując się dodatkowo przyczyn jej irracjonalności w psychologii społecznej. Wybory dokonywane przez konsumenta nie wydają się być bowiem czymś przypadkowym, lecz są one z reguły odzwierciedleniem określonego modelu kulturowego. Oznacza to, że nie produkuje się ani też nie konsumuje zupełnie dowolnych dóbr. Zdaniem Galbraitha, decyzje odnośnie konsumpcji dokonuje się pod naciskiem perswazji. J.S. Duesenberry w swojej hipotezie dochodu względnego podkreśla także rolę efektów zewnętrznych w konsumpcji, wynikających z wzajemnych kontaktów gospodarstw domowych [Duesenberry 1952 s. 26]. Nieświadomym i całkowicie automatycznym wyborem, jaki może dokonać jednostka, jest zaakceptowanie stylu życia poszczególnych członków społeczeństwa, co oznacza przyjęcie postawy konformistycznej. Potrzeby kierują się już nie tyle ku samym przedmiotom, lecz raczej ku pewnym wartościom. Ich zaspokojenie oznacza jednocześnie akceptację tych wartości. Parsons pisze, iż: celem gospodarki nie jest maksymalizacja produkcji przeznaczonej dla jednostki, lecz maksymalizacja produkcji w powiązaniu z systemem wartości społeczeństwa [Baudrillard 2006 s. 77]. Przeobrażenia, zachodzące w obszarze konsumpcji gospodarstw domowych, w Polsce w ostatnich latach uwarunkowane są niewątpliwe przemianami w sferze ekonomicznej, jak i społeczno-kulturowej. Zasadniczym celem tego artykułu jest zatem próba odpowiedzi na pytanie, jakie jest obecnie miejsce konsumpcji w systemie wartości polskiego społeczeństwa. 2. Konsumpcja jako wartość we współczesnej kulturze Angielskie słowo consume (konsumować), pochodzące z XIV wieku, miało pierwotnie pejoratywne zabarwienie i oznaczało ono: zużycie, zniszczenie, marnotrawstwo. Terminu konsumpcja używano głównie wówczas w odniesieniu do jakiejkolwiek wyniszczającej choroby. Dopiero od połowy XIX wieku, a więc wraz z rozwojem ekonomii klasycznej, przyjęło się jego całkowicie neutralne, abstrakcyjne użycie, które obowiązuje aż do dziś [Aldridge 2006 s. 10]. Zdaniem J.B. Saya (1767 – 1832), konsumpcja to inaczej niszczenie wartości, tj. użyteczności rzeczy w całości lub częściowo. Konsumuje się usługi pracy, kapitału i ziemi, a nie samą zdolność do pracy, potencjał wytwórczy czy też fundusz ziemi. Mimo że wartość (użyteczność) nie może być zazwyczaj konsumowana dwukrotnie, to jednak może przyjąć inną formę, w postaci konsumpcji reprodukcyjnej, czego doskonałym przykładem są wydatki ponoszone na naukę i oświatę [Stankiewicz 2000 s. 180]. Teoria konsumenta stała się zasadniczym przedmiotem zainteresowań kierunku subiektywno-marginalistycznego w latach 70. XIX wieku, w tym zwłaszcza szkoły psychologicznej (austriackiej). I tak, C. Menger (1840 – 1921) traktuje społeczeństwo Konsumpcja a system wartości polskiego społeczeństwa 59 jako zwykłą sumę „potrzebujących” jednostek. Punktem wyjścia wszystkich poszukiwań teoretycznych jest potrzebująca natura ludzka oraz użyteczność, wynikająca ze stosunku człowieka do rzeczy. Rozważania odnośnie konsumpcji i samego konsumenta pojawiają się także w szkole neoklasycznej, u W.S. Jevonsa (1835 – 1882), który rozwinął subiektywną teorię wartości, opartą na koncepcji użyteczności krańcowej, czy też u A. Marshalla (1842 – 1924), twórcy koncepcji renty konsumenta. Z kolei największy wkład w rozwój teorii konsumenta w szkole matematycznej wniósł m.in. V. Pareto (1848 – 1923), znany z koncepcji krzywych obojętności konsumenta. Warto jednocześnie wspomnieć, iż zjawisko skłonności do konsumpcji zostało po raz pierwszy przeanalizowane przez J.M. Keynesa (1883 – 1946). Zwraca on uwagę na fakt, iż wydatki konsumpcyjne społeczeństwa zależą nie tylko wyłącznie od wielkości dochodu, a więc czynników obiektywnych, lecz również i od subiektywnych potrzeb, skłonności psychicznych i zwyczajów. W sensie ekonomicznym konsumpcja to proces zaspokajania potrzeb indywidualnych, jak i społecznych za pośrednictwem dostępnych na rynku dóbr i usług, które jednostka jest w stanie nabyć, dysponując określonymi możliwościami finansowymi. Zachowania konsumpcyjne mają swój wymiar i znaczenie społeczne, na co zwrócił uwagę m.in. T. Veblen (1857 – 1929), opisując ówczesny system społecznoekonomiczny, w tym klasę próżniaczą nastawioną na zysk i konsumpcję na pokaz. Konsumpcja w takim ujęciu stanowi pewien rodzaj moralności, czy też inaczej mówiąc system wartości ideologicznych, sposób komunikacji, strukturę wymiany. I tak, można przyjąć, iż konsumpcja staje się zarazem czynnym i zbiorowym zachowaniem, jest: przymusem, nakazem, moralnością, instytucją, całym systemem wartości, wraz z wszystkim tym, co pojęcie to implikuje, tj. pełnionymi przezeń funkcjami integracji grupowej i kontroli społecznej [Baudrillard 2006 s. 94]. Powszechnie wiadomo, że współczesna kultura konsumencka nie mieści się już w żadnych konkretnych granicach, ponieważ przyjmuje coraz bardziej globalny charakter. Globalizacja w wymiarze kulturowym prowadzi do rozprzestrzeniania się systemów wartości i norm, stylów życia oraz wzorców konsumpcji. Do jednego z podstawowych nośników globalizacji zalicza się m.in. konsumpcję. Pojawienie się kultury masowej przyczynia się oczywiście do upodobniania się nowych wzorów spożycia i zachowań konsumenckich. Zetknięcie się z obcymi kulturami stało się możliwe dzięki środkom masowego przekazu, zwłaszcza telewizji, a także poprzez Internet. Procesom tym sprzyja ożywiony ruch turystyczny oraz częste migracje ludności. Prowadzi to do umacniania się kultury masowej czy też tzw. homogenizacji kulturowej [Bogunia-Borowska, Śleboda 2003 s. 34]. Szczególnie ważną rolę odgrywają w tym procesie osiągnięcia w dziedzinie elektronicznego przetwarzania informacji i transmisji satelitarnej. Kreują one tzw. nadrzeczywistość. Zdaniem Vattimo (1992), społeczeństwo żyje w dynamicznie zmieniającym się otoczeniu, na które niezwykle silny wpływ wywierają elektroniczne media. Świat przez nie kreowany staje się rzeczywistością. W związku z czym pojawia się aspekt tzw. hiperrzeczywstości, rozumiany jako skłonność i zamiłowanie członków danej kultury do konstruowania własnej rzeczywistości. Konsumenci z wielkim entuzjazmem włączają się w proces takiej właśnie stymulacji. Pojawia się kultura cybernetyczna, która oznacza społeczną transformację, wywołaną na skutek nowych technolo- 60 Anna Wildowicz-Giegiel gii informatycznych i telekomunikacyjnych. Te osiągnięcia technologiczne pozwalają na kreację nowych form własnej tożsamości, sposobów komunikacji i konsumpcji [FaultFirat, Venkatesh 1995 s. 253]. W zakresie zachowań konsumenckich mają równocześnie miejsce tendencje zupełnie odwrotne. Bowiem to właśnie dzięki konsumpcji można podkreślić swój indywidualizm, co pozwala na aktywne kreowanie własnej osobowości. Konsument dzięki nabywaniu określonych dóbr i uczestnictwie w rozrywkach konstruuje swój własny styl życia, stara się zatem odróżnić od otaczającego go otoczenia, nie akceptując narzuconego wzorca konsumpcji, jaki oferuje mu kultura masowa. Według francuskiego socjologa P. Bourdieu, konsumpcja zaczyna oddziaływać jako system klasyfikacyjny. Przy czym symbolika tej konsumpcji wydaje się być szczególnie istotna, gdyż skojarzenia symboliczne wywoływane przez określone dobra materialne są wykorzystywane w celu podkreślenia różnic w stylach życia. Konsument żyjący w społeczeństwie konsumpcyjnym różni się zdecydowanie od swoich przodków. Jeżeli filozofowie, poeci i kaznodzieje naszych przodków rozważali, czy pracuje się, żeby żyć, czy też żyje się, żeby pracować, to współcześnie najczęściej roztrząsanym dylematem jest to, czy musimy konsumować, żeby żyć, czy też żyjemy, a więc możemy konsumować; czy ciągle jeszcze potrafimy oddzielić życie od konsumpcji i czy czujemy taką potrzebę [Patrzałek 2004 s. 40]. Społeczeństwo konsumpcyjne funkcjonuje w otoczeniu niezliczonej masy dóbr. Konsumenci poświęcają znaczną część swojego czasu na nabywanie coraz to nowszych produktów oraz pracę, która warunkuje owe zakupy. Istnieje kilka powodów, dlaczego jednostki przypisują tak wysoką wartość do dóbr materialnych. Po pierwsze, zgodnie z klasycznym ujęciem, wynika to z użyteczności tych dóbr. Posiadanie dostarcza wiele przyjemności i satysfakcji. Po drugie, z antropologicznego punktu widzenia, dobra mają zasadnicze znaczenie w budowaniu i w wyrażaniu więzi społecznych. Dużą uwagę przywiązuje się również do znaczenia dóbr w procesie kreowania własnej tożsamości. Pewne rzeczy mogą być wysoko cenione ze względu na to, że wyrażają określone wartości osobiste bądź też religijne [Richins 1994 s. 507]. Zwraca się szczególną uwagę na charakter współczesnej konsumpcji. Jednostka nie kieruje się tutaj zasadą użyteczności krańcowej, ponieważ przedmioty, które pragnie konsumować posiadają dla niej jedynie określoną wartość symboliczną, co stanowi gwarancję osiągnięcia odpowiedniego statusu społecznego. Wobec tego satysfakcja czerpana z tytułu posiadania dóbr ma przede wszystkim podłoże zewnętrzne. W związku z czym użyteczność rozpatrywana jest w kontekście widoczności, zaś zadowolenie wynika nie z bezpośredniego konsumowania dóbr, lecz raczej z możliwości ich wyeksponowania [Redmond 2001 s. 6]. Wzrost znaczenia konsumpcji sprawił, iż współczesne społeczeństwo nie praktykuje już odroczonej gratyfikacji, jednego z podstawowych filarów etyki protestanckiej. Takie wartości kulturowe jak oszczędność i praca, występujące w epoce modernizmu, ustępują więc miejsca wszechobecnej konsumpcji, która staje się wartością nadrzędną. Zachodzące przeobrażenia społeczno-kulturowe wywierają niezwykle istotny wpływ na gospodarstwo domowe. Po pierwsze, składa się ono ze zdecydowanie mniejszej liczby osób. Po drugie, zauważa się większą niezależność jego członków, co się wiąże również ze zmianami ról społecznych. Pojawia się tzw. rozczłonkowanie. Zanik nadrzędnych wartości i ideologii sprawił, iż nie można się już opierać wyłącznie na dotychczasowych stylach życia. Istnieje wielość stylów, poprzez które jednostki dążą do samorealizacji Konsumpcja a system wartości polskiego społeczeństwa 61 oraz do ekspresji swoich uczuć i poglądów. Poszukiwania przez konsumentów własnego stylu życia prowadzą do przeobrażenia struktury społecznej. W miejsce klas społecznych powstają mikrostruktury, co umożliwia pełniejsze zaspokajanie potrzeb. Duże znaczenie w tym procesie odgrywa wielokulturowość, która to uzyskuje powszechną akceptację. Społeczeństwo ulega procesom daleko idącej fragmentaryzacji i dekompozycji. Z drugiej strony, należy też koniecznie wspomnieć o zjawiskach całkowicie im przeciwstawnych, czego doskonałym przykładem jest chociażby proces wspomnianej uprzednio homogenizacji kulturowej. Współczesna kultura postmodernistyczna wyróżnia się pochwałą hedonizmu, a centralnym punktem modelu konsumpcji stają się ludzkie pragnienia i rozrywka. Konsumpcja, uzyskując pełną autonomię, uniezależnienia się od sfery produkcji. W kulturze konsumenckiej dobra materialne otrzymują znaczenie i charakter artykułów handlowych, tylko wyłącznie dzięki ich zanurzeniu w systemie symboli. Wskutek coraz szybszego obiegu dóbr zaciera się związek między obrazami a rzeczywistością. Stanowi to istotę kultury postmodernistycznej. Produkty istnieją nie tylko w sensie psychofizycznym, ponieważ oddziałują także na życie samego konsumenta oraz jego kontakty z otoczeniem. To właśnie produkt w momencie konsumpcji umożliwia kreowanie tożsamości konsumenta. Przedmioty wydają się niejako wyznaczać warunki i sposoby konsumpcji. Zaobserwować można zjawisko dekoncentracji podmiotu. Wybory i doznania wyznaczają gusty konsumentów. Oddziałują one na wyznawane przez nich wartości oraz kształtują styl życia i wzorce zachowań [Zachowania… 2001 s. 339]. Zaobserwowane procesy i przeobrażenia w sferze społeczno-kulturowej mają także miejsce w polskiej gospodarce, co ma dość istotny wpływ na skłonność do konsumpcji i oszczędzania gospodarstw domowych w Polsce. Nie ulega wątpliwości, iż społeczeństwo konsumpcyjne zaistniało jako efekt cywilizacyjno-kulturowego rozwoju w krajach, które spełniły obiektywne warunki dotyczące rozwoju gospodarki, zasad wolnego rynku oraz swobód obywatelskich. Większość członków społeczeństwa konsumpcyjnego staje się bezpośrednimi beneficjentami korzyści, jakie wynikają z tytułu wzrostu produktywności oraz stale powiększanego asortymentu dóbr i usług. Przyczyniło się to do poprawy standardu życia w porównaniu z poprzednimi epokami, w wyniku czego wzrosło też znaczenie dóbr materialnych [Matsuyama, Kiminori 2002 s. 36]. Nie dziwi więc fakt, że głównymi wartościami współczesnej kultury konsumenckiej stają się coraz częściej wartości utylitarne i hedonistyczne. Konsumeryzm totalizuje życie społeczne, stanowiąc pewnego rodzaju ostateczny punkt odniesienia, kryterium sukcesu jednostek, jak i całego społeczeństwa. Jednak wszechobecna dominacja konsumpcji, która pełni funkcję jednego z głównych regulatorów procesów społecznych i czynników reprodukcji istniejącego porządku w świecie współczesnym, budzi niepokój. Wynika to z przekonania, że zachowania konsumpcyjne nie powinny zdominować innych sfer życia, w tym rozwój intelektualny i duchowy. Przesuwanie się ku górze hierarchicznego układu wartości hedonistycznych i materialnych, które są eksponowane w różnych, nie tylko reklamowych, tekstach kultury, świadczy o głębszej zmianie, a nie tylko chwilowej modzie. Przypuszcza się, że to konsumpcja będzie wartością regulatywną XXI wieku, zaś jej potężnym wehikułem reklama [Pawłowska 2002 s. 352 – 353]. 62 Anna Wildowicz-Giegiel 3. Skłonność do konsumpcji polskich gospodarstw domowych w latach 1995 – 2005 Dążenie do podnoszenia standardu materialnego jest powszechnie akceptowaną normą społeczną, co odpowiada ideologii gospodarki rynkowej, napędzanej konsumpcyjnymi aspiracjami społeczeństwa. W przypadku społeczeństwa polskiego, które przeszło od sytuacji niedoboru do nadmiaru dóbr, nastąpił wzrost znaczenia konsumpcji. Zjawisko reorientacji na wartości materialne należy zatem postrzegać jako reakcję na odczuwany wcześniej niedostatek. Bowiem niemożliwe dotąd do zdobycia dobra znalazły się nagle w warunkach rozwijającego się rynku w wyobrażalnym zasięgu czasu i pieniędzy [Sikorska 1998 s. 91]. Stąd też pojawiła się w latach 90tych chęć zwiększania konsumpcji niemal we wszystkich grupach społecznych. Przeprowadzone w latach 90-tych badania nad zachowaniem konsumentów wskazują, że pomimo spadku dochodów realnych w pierwszym okresie transformacji nastąpił wzrost skłonności do wydawania i konsumpcji. Była to oczywiście typowa reakcja, która została wywołana obfitością podaży. Z drugiej strony takie zachowania można również wytłumaczyć efektem permanentnego niedoinwestowania i niedoborów poprzednich lat. W omawianym okresie gospodarstwa domowe zwiększyły konsumpcję finansowaną z dochodów osobistych, co wynikało niewątpliwie z chęci utrzymania dotychczasowego realnego poziomu konsumpcji. Utrzymywał się dynamiczny nominalny wzrost skłonności do konsumpcji, który przewyższał skłonność do oszczędzania. Z przedstawionych poniżej danych wynika, iż występował w latach 1995 – 2005 stały wzrost skłonności do konsumpcji. W roku 2005 udział wydatków na konsumpcję w dochodzie rozporządzalnym wynosił ponad 94%. TABELA 1. Współczynniki skłonności do konsumpcji w latach 1995 – 2005 Przeciętna skłonność do konsumpcji Rok Wartość 1995 0,878 1996 0,875 1997 0,910 1998 0,925 1999 0,946 2000 0,945 2001 0,946 2002 0,913 2003 0,946 2004 0,984 2005 0,943 Krańcowa skłonność do konsumpcji Lata Wartość 1994/1995 0,87 1995/1996 0,98 1996/1997 1,22 1997/1998 1,12 1998/1999 1,33 1999/2000 1,0 2000/2001 0,76 2001/2002 0,19 2002/2003 2,2 2003/2004 0,72 2004/2005 0,19 Źródło: Opracowanie własne na podstawie: [Żelazna 2002 s. 114; Rocznik Statystyczny… 2002 s. 203 – 205; Rocznik Statystyczny… 2003 s. 290 – 292; Rocznik Statystyczny… 2006 s. 291 – 293; Mały Rocznik Statystyczny… 2007 s. 192 – 194]. Konsumpcja a system wartości polskiego społeczeństwa 63 Wzrost skłonności do konsumpcji gospodarstw domowych w Polsce w latach 90-tych wynikał w znacznej mierze z konieczności ograniczenia spadku spożycia, spowodowanego wzrostem cen konsumpcyjnych oraz z ograniczonego finansowania spożycia ze środków społecznych. W latach 2000 – 2005 nastąpił wyraźny wzrost udziału spożycia indywidualnego w dochodach do dyspozycji brutto, przy jednoczesnym spadku udziału oszczędności brutto, które stanowiły w roku 2005 jedynie 7% dochodów do dyspozycji brutto. Tymczasem na spożycie indywidualne gospodarstwa domowe przeznaczały w 2005 roku 93,7% nominalnych dochodów do dyspozycji brutto, tj. prawie o 9,7 pkt więcej w porównaniu z rokiem 1995 [System… 2003 s. 746], co potwierdzają dane zamieszczone w tabeli 2. TABELA 2. Rozdysponowanie nominalnych dochodów do dyspozycji brutto w sektorze gospodarstw domowych w Polsce w latach 2000 – 2005 (w %) Wyszczególnienie Spożycie indywidualne Oszczędności brutto, w tym: Oszczędności finansowe Nakłady brutto na środki trwałe 2000 89,6 10,5 2001 88,4 11,8 2002 92,2 8,1 2003 92,6 7,7 2004 93,3 7,1 2005 93,7 7,0 3,9 6,1 2,0 1,2 -0,5 0,0 6,8 6,4 6,7 7,1 7,2 7,4 Źródło: [Rachunki narodowe… 2007 s. 45]. Jak wynika z przeprowadzonych badań, dynamika spożycia indywidualnego w sektorze gospodarstw domowych w analizowanym okresie utrzymywała się na dość wysokim poziomie i przewyższała dynamikę realnych dochodów do dyspozycji brutto. TABELA 3. Dynamika spożycia indywidualnego w sektorze gospodarstw domowych (ceny stałe) Rok 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 Ogółem (rok poprzedni 100) 106,9 104,8 105,2 103,1 102,3 103,4 102,0 104,4 102,0 105,2 Na 1 mieszkańca 106,9 104,8 105,2 103,1 102,3 103,4 102,1 104,4 102,0 105,3 Źródło: [Mały Rocznik Statystyczny… 2004 s. 173; Mały Rocznik Statystyczny… 2007 s. 186]. 64 Anna Wildowicz-Giegiel Badania ankietowe przeprowadzone w roku 1999 potwierdziły, że okres przed 1989 roku postrzegano jako czas ograniczonej konsumpcji. Zdecydowana większość respondentów wskazywała, że najwięcej wydatków przeznaczano wówczas na nabywanie dóbr pierwszej potrzeby (żywność, opłaty). Wynikało to m.in. z niewielkiego asortymentu dostępnych wtedy dóbr oraz z niskiej wówczas ich jakości. Natomiast druga połowa lat 90-tych charakteryzowała się zmianą w strukturze konsumpcji. W odpowiedziach ankietowanych (aż 36,92%) zauważa się wzrost udziału wydatków na dobra trwałego użytku, takie jak: mieszkanie, wyposażenie, samochód, sprzęt AGD i TV [Chmielewski, Piech 2000 s. 199]. Wymienić należy kilka przyczyn, które wpłynęły na takie właśnie wyniki. Po pierwsze, był to okres wychodzenia gospodarki polskiej z kryzysu. Po drugie, należy wspomnieć jeszcze raz o istniejącym zjawisku „odłożonego popytu” sprzed roku 1989 i rosnących dochodach realnych znacznej części ludności po roku 1995. Niestety, nastąpiła jednocześnie znaczna polaryzacja społeczeństwa. Nie dziwi więc fakt, że aż 32,3% odpowiedzi stanowiły stwierdzenia o dominacji wydatków związanych z bieżącą konsumpcją artykułów pierwszej potrzeby, co się wiąże nadal z niskimi dochodami. Aczkolwiek obserwuje się też wzrastający udział w budżetach gospodarstw domowych wydatków, które są związane z konsumpcją dóbr luksusowych. Bowiem 26,15% badanych wskazało na dokonywanie wydatków przeznaczonych na przyjemności, tj. wypoczynek, turystykę, wygodne życie [Chmielewski, Piech 2000 s. 200]. Od roku 1998 obserwuje się w Polsce dość wyraźny wzrost popytu konsumpcyjnego w kierunku artykułów nieżywnościowych (prawo Engla). Pozwala to przypuszczać, że w miarę wzrostu gospodarczego nastąpią zmiany w konsumpcji, zgodne z tendencjami występującymi w krajach wysoko rozwiniętych. Oznacza to, iż zmniejszy się udział wydatków na żywność na rzecz usług, które są związane m.in. z wypoczynkiem i rozrywką. Na podstawie wykresu 1. można stwierdzić, że w roku 2005 ponad 50% dochodu do dyspozycji gospodarstwa domowe przeznaczają na artykuły codziennego użytku oraz opłaty stałe. Pozostałą część stanowią wydatki, takie jak: transport i łączność (14,2%), ubranie (5,1%), rozrywka (6,8%), zdrowie (5%), wyposażenie mieszkania (5,0%) itp. Według badań GUS, poziom przeciętnych nominalnych wydatków w gospodarstwach domowych ogółem w roku 2006 był realnie wyższy w porównaniu z rokiem poprzednim o 6,8% i wynosił 745 PLN w przeliczeniu na jedną osobę. We wszystkich grupach społeczno-ekonomicznych odnotowano realny wzrost wydatków na nośniki energii, odzież i obuwie, rekreację i kulturę oraz spadek udziału wydatków na żywność. Zaobserwowano także wzrost wydatków na dobra trwałego użytku, w tym: odtwarzacze DVD i CD, komputery osobiste, telefony, sprzęt AGD itp., co wydaje się potwierdzać wcześniejsze przypuszczenia odnośnie zmian w strukturze konsumpcji polskich gospodarstw domowych [Sytuacja… 2007 s. 1]. Konsumpcja a system wartości polskiego społeczeństwa 65 WYKRES 1. Przeciętne miesięczne wydatki na 1 osobę w gospodarstwach domowych w roku 2005 Edukacja 1% Rekreacja i kultura 7% Transport i łączność 14% Zdrowie 5% Inne 12% Wyposażenie mieszkania i prowadzenie gospodarstwa domowego 5% Artykuły codziennego użytku 31% Użytkowanie mieszkania i nośniki energii 20% Odzież i obuwie 5% Źródło: [Rachunki narodowe… 2007 s. 45]. Warto jednocześnie zaznaczyć, iż struktura konsumpcji polskich gospodarstw domowych różni się w poszczególnych grupach społecznych, co wynika głównie z różnic w poziomach dochodów do dyspozycji. I tak, w przypadku gospodarstw domowych o najwyższych dochodach udział wydatków na żywność w wydatkach ogółem jest najmniejszy. Odwrotnie natomiast przedstawia się sytuacja odnośnie gospodarstw rolników, a także emerytów i rencistów. W tej ostatniej z grup znaczny udział stanowią wydatki na mieszkanie i zdrowie. Sytuacja dochodowa gospodarstw domowych okazuje się więc być czynnikiem wyraźnie różnicującym poziom i strukturę wydatków konsumpcyjnych. W 2006 roku w budżetach 20% osób o najniższych dochodach wydatki związane z zaspokajaniem potrzeb podstawowych, tj. wydatki na żywność i napoje alkoholowe oraz stałe opłaty mieszkaniowe, stanowiły łącznie 56,7%, przy czym w gospodarstwach pracowników – 56,5%, zaś w gospodarstwach emerytów i rencistów 58,6% [Sytuacja… 2007 s. 4]. 4. Konsumpcja w systemie wartości polskiego społeczeństwa Powszechnie wiadomo, iż przy jednakowych dochodach można różnorodnie wydatkować swoje nadwyżki finansowe, osiągając różne standardy życia. Decyduje o tym układ wartości i celów, do których się zmierza. Wobec tego, w zależności od wartości czy poziomu kulturowego, gospodarstwa domowe realizują wyznaczone przez siebie cele życiowe. Style życia są niewątpliwie odzwierciedleniem systemów 66 Anna Wildowicz-Giegiel wartości jednostek, ich postaw, aktywności oraz sposobów konsumpcji [Odorzańska-Kondek 1998 s. 9]. Stąd też w sferze aksjologicznej konsument jest narażony na różnorodne oddziaływania, których przedmiotem jest m.in. jego system wartości. Rezultatem tego stanu rzeczy może być stymulacja bądź kreacja potrzeb nadmiernych, złych lub restytucyjnych. Reklama, moda, nowoczesne formy promocji i sprzedaży kreują potrzeby, których jednostka zupełnie wcześniej nie odczuwała. Prowadzi to do stanu nierównowagi, zmuszając konsumenta do podjęcia działań, które mają na celu nabycie dóbr i usług stanowiących przedmiot ich pożądania. W przypadku Polski pojawia się dodatkowy czynnik generujący zagrożenia konsumenta. Wiąże się to oczywiście z transformacją społeczno-ekonomiczną kraju [Współczesne… 2000 s. 126]. Na skutek przenoszenia się wzorców konsumpcji w skali międzynarodowej następują procesy upodabniania się zachowań konsumentów. Mimo to, pewne uwarunkowania kulturowe oraz ekonomiczne sprawiają, że postępowanie polskiego społeczeństwa w zakresie konsumpcji charakteryzuje się jednak pewną specyfiką. Wprowadzenie zasad gospodarki rynkowej w Polsce spowodowało pojawienie się wielu szans i zagrożeń, w tym także w obszarze konsumpcji. W społeczeństwie polskim ogromną rolę odgrywają obecnie elementy naśladownictwa. Mianowicie próbuje się dokończyć procesy modernizacji nie tylko w sferze gospodarki i polityki, ale i w strukturze społecznej i kulturowej. Mówi się o tzw. „tranfsormacji imitacyjnej”. Jednocześnie usiłuje się wprowadzić w Polsce przynajmniej trzy fazy rozwoju, typowe społeczeństwom kapitalistycznym. Z jednej strony występuje potrzeba nawiązania do tradycji wczesnego społeczeństwa przemysłowego, gdzie praca i oszczędzanie były największymi cnotami. Z drugiej zaś strony społeczeństwo polskie usiłuje się dostosować do fazy późnej nowoczesności. W związku z czym próbuje się naśladować społeczeństwa postindustrialne, gdzie dominującą wartością jest konsumpcja [Bogunia-Borowska, Śleboda 2003 s. 138 – 139], o czym świadczy wysoka skłonność do konsumpcji w polskich gospodarstwach domowych, obserwowana na przestrzeni lat 1995 – 2005. Przeobrażenia w hierarchii pożądanych wartości w polskim społeczeństwie jednoznacznie wskazują na ogólny wzrost znaczenia materialnego wymiaru życia. Niezależnie od tego, czy osiągnięta sytuacja materialna jej satysfakcjonująca, chęć poprawy materialnego bytu stale wyznacza kierunek działań, motywując indywidualną aktywność ekonomiczną. Podobnie sytuacja się przedstawia, jeśli chodzi o kierunek zmian odnośnie deklarowanych celów i dążeń życiowych. Na podstawie częstości wskazywanych kierunków wydatkowania wysokiej wygranej można ustalić miejsce aspiracji, a więc jak ważna jest realizacja bieżących potrzeb konsumpcyjnych w stosunku do celów związanych z wartościami ogólnymi i inwestowaniem w przyszłość. Polskie gospodarstwa domowe przystosowują swoje aspiracje do nowych zasad rozwijającego się rynku i jego instytucji. Nie oznacza to całkowitego zaniku orientacji prorodzinnej, dbałości o przyszłość dzieci czy też ogólnego altruizmu. Zanotowano bowiem spadek w hierarchii celów względnej pozycji bieżącej konsumpcji w zakresie żywności i odzieży oraz wzrost znaczenia oszczędzania (rozwój rynków finansowych). Nadal dominuje jednak nastawienie na poprawę warunków mieszkaniowych, wyposażenie w dobra trwałego użytku oraz posiadanie samochodu [Zmiany… 1999 s. 126]. Konsumpcja a system wartości polskiego społeczeństwa 67 Ogólnie rzecz biorąc, w badanym okresie utrzymywała się silna presja ze strony potrzeb konsumpcyjnych, co stymuluje skłonność do konsumpcji, a równocześnie demotywuje do oszczędzania. Przy czym warto zaznaczyć, iż niektóre wydatki na zakup dóbr trwałego użytku, takich jak: komputery, sprzęt biurowy czy samochody mogą również służyć działalności produkcyjnej lub uzyskiwaniu przyszłych dochodów. Tymczasem w badaniach budżetów gospodarstw domowych wydatki tego rodzaju najczęściej zaliczane są do konsumpcji, co zmniejsza faktyczną wielkość posiadanych przez nie oszczędności. Jednym z podstawowych elementów świadczących o zasobności gospodarstw domowych jest posiadanie dóbr trwałego użytku. Stan wyposażenia gospodarstw domowych w dobra trwałego użytku w roku 2005 uległ znaczniej poprawie w porównaniu z początkiem lat 90-tych. Przeprowadzone w 2005 r. badanie pokazuje, że polskie gospodarstwa domowe coraz lepiej wyposażone są w przedmioty trwałego użytku, które w polskich sklepach zaczęły być powszechnie dostępne dopiero w latach 90-tych; dotyczy to m.in. wyposażenia gospodarstwa domowego w kuchenki mikrofalowe, zmywarki, czy też komputery, drukarki, sprzęt RTV. I tak, przykładowo w 2005 r. komputer osobisty posiadało prawie 39% gospodarstw domowych (w 2004 r. – ok. 33%), w tym z dostępem do Internetu – 23%, natomiast samochód osobowy aż 47,4% [Sytuacja… 2006 s. 5]. Powyższe dane potwierdzają, iż sytuacja materialna polskich gospodarstw domowych uległa znacznej poprawie, aczkolwiek poziom wyposażenia gospodarstw domowych w Polsce (zwłaszcza w dobra luksusowe) wciąż odbiega niewątpliwie od średniego poziomu w UE. TABELA 4. Gospodarstwa domowe wyposażone w niektóre przedmioty trwałego użytku (w %) Gospodarstwa domowe Wyszczególnienie Odbiornik TV Kamera wideo Pralka automatyczna Kuchenka mikrofalowa Zmywarka Samochód osobowy Komputer osobisty Drukarka Ogółem Pracowników Rolników 1993 2005 1993 2005 1993 2005 73,8 1,78 49,6 3,2 0,87 43,8 6,9 - 91,3 2,1 70,8 3,5 0,7 43,9 10,9 - 98,7 8,7 88,0 43,7 6,3 60,1 57,0 38,4 55,8 0,5 28,4 1,4 0,4 48,0 2,0 - 99,4 2,6 67,8 29,5 3,8 79,7 35,6 23,2 98,2 6,2 79,8 33,3 4,9 47,4 38,6 25,8 Pracujących na własny rachunek 1993 2005 96,5 6,7 87,5 9,7 2,8 83,6 19,9 - 98,4 21,3 93,1 59,7 19,8 82,6 70,6 54,9 Emerytów i rencistów 1993 2005 63,3 0,4 42,0 1,2 0,3 18,6 1,5 - 98,3 2,3 72,6 20,0 1,9 28,9 15,1 9,5 Źródło: opracowanie na podstawie: [Rocznik Statystyczny… 1994 s. 271; Mały Rocznik Statystyczny… 2007 s. 199]. 68 Anna Wildowicz-Giegiel W gospodarce polskiej występuje naśladownictwo w konsumpcji, co ma ścisły związek z konformizmem2. Wraz z pojawieniem się gospodarki rynkowej wykształciły się nowe style życia. Wzrosła rola konsumpcji ostentacyjnej, która to stanowi wyznacznik odpowiedniego standardu życia. Wiąże się to przede wszystkim z procesami naśladownictwa, jakie mają miejsce w gospodarstwach nisko i średnio zamożnych, stanowiących około 70% ogółu gospodarstw domowych [Bywalec 1998 s. 54]. Ze względu na dzielący Polskę dystans w rozwoju społeczno-gospodarczym oraz odmienne warunki ekonomiczne i kulturowe, przyjęte przez polskie gospodarstwa domowe wzorce konsumpcji będą ulegać w przyszłości znacznym modyfikacjom. Polska, przystępując w maju 2004 roku do Unii Europejskiej, posiadała zdecydowanie niższy poziom życia w porównaniu do najsłabiej rozwiniętych krajów członkowskich, w tym Grecji i Portugalii. Stąd też wnioskuje się, że utrzymają się jeszcze w przyszłości silne aspiracje konsumpcyjne, mające swoje odzwierciedlenie w wysokiej skłonności do konsumpcji. 5. Podsumowanie Zachowania konsumpcyjne gospodarstw domowych stanowią niewątpliwie niezwykle interesujący obszar badawczy w ramach nauk ekonomicznych. J.M. Keynes (1936) przyjął, iż istnieje wiele determinant skłonności do konsumpcji zarówno natury subiektywnej, jak i obiektywnej. Pozwala to więc przypuszczać, iż konsumpcja, która wydaje się być niejako odzwierciedleniem stylu życia jednostki, jest z jednej strony wypadkową czynników ekonomicznych i społeczno-kulturowych, z drugiej zaś strony warto też pamiętać, iż zjawisko to ma podłoże psychologiczne. W oparciu o przeprowadzoną analizę stwierdza się, iż w Polsce występowała dość wysoka skłonność do konsumpcji polskich gospodarstw domowych w omawianym okresie. Udział spożycia indywidualnego w dochodach do dyspozycji brutto wynosił w roku 2005 prawie 94%. Wzrost znaczenia konsumpcji w polskim społeczeństwie wynika bez wątpienia z sytuacji społeczno-ekonomicznej gospodarstw domowych. Aczkolwiek zwraca się uwagę, iż to nie tylko wyłącznie dochody, lecz przeobrażenia społeczno-kulturowe, w tym zmiany w obrębie systemu wartości polskiego społeczeństwa determinują wielkość i strukturę konsumpcji. Na skutek zachodzącej globalizacji przenikają do polskiej kultury nowe wartości i style życia. Przy czym wiele z nich, a zwłaszcza te dotyczące zachowań konsumpcyjnych, podlegają procesom szybkiej adaptacji. Rezultatem tego stanu rzeczy jest wzrost znaczenia wartości materialnych, w tym konsumpcji, w społecznej hierarchii wartości. Oczekuje się, iż w przyszłości polskie gospodarstwa domowe po zaspokojeniu bieżących potrzeb konsump2 Indywidualna użyteczność konsumpcji bieżącej, jak i przeszłej zależy w znacznym stopniu od społecznych interakcji. Wpływ na nią mają nie tylko konformizm, ale i altruizm czy też zazdrość w odniesieniu do pozostałych członków określonej grupy społecznej. Motywy altruistyczne występują oczywiście w przypadku własnej rodziny, zaś zazdrość w ramach określonej grupy społecznej. Doskonałym przejawem konformizmu jest potrzeba dostosowania poziomu konsumpcji do przemian zachodzących w najbliższym otoczeniu [zob. w: M. Binder, M. Hashem Pesaran 2001 s. 36]. Konsumpcja a system wartości polskiego społeczeństwa 69 cyjnych i wraz z poprawą materialnych warunków życia zaczną dostrzegać nie tylko znaczenie konsumpcji teraźniejszej, lecz będą starały się również zabezpieczyć materialnie na przyszłość, co wpłynie z kolei pozytywnie na wielkość gromadzonych przez nie oszczędności. Literatura Aldridge A. 2006 Konsumpcja, Warszawa. Baudrillard J. 2006 Społeczeństwo konsumpcyjne. Jego mity i struktury, Warszawa. Binder M., Hashem Pesaran M. 2001 Life-Cycle Consumption under Social Interactions, „Journal of Eonomic Dynamics & Control”, Vol. 25. Bogunia-Borowska M., Śleboda M. 2003 Globalizacja i konsumpcja. Dwa dylematy współczesności, Kraków. Bywalec Cz. 1998 Skłonność do konsumpcji w polskich gospodarstwach domowych, „Zarządzanie i Marketing”, Kraków. Chmielewski T., Piech K. 2000 Konsumpcja w Polsce w okresie transformacji-wybrane wyniki badań empirycznych, „Studia i Prace Kolegium Zarządzania i Finansów”, nr 14. Duesenberry J.S. 1951 Income, Saving and The Theory of Consumer Behavior, Cambridge. Fault Firat A., Venkatesh A. 1995 Liberatory, Postmodernism and The Reenchantment of Consumption, „Journal of Consumer Research”, Vol. 22. Featherstone M., Featherstone M. 2001 Koncepcje kultury konsumenckiej, w: Zachowania konsumenta. Koncepcje i badania europejskie, red. M. Lambkin, G. Foxall, F. von Raaij, B. Heilbrunn, Warszawa. Mały Rocznik Statystyczny Polski 2004, Warszawa. Mały Rocznik Statystyczny Polski 2007, Warszawa. Matsuyama, Kiminori 2002 The Rise of Mass Consumption Societies, „Journal of Political Economy”, Vol. 110, Issue 5. Odorzańska-Kondek J. 1998 Styl życia a zachowania konsumentów na rynku, „Handel Wewnętrzny”, nr 4-5. Patrzałek W. 2004 Kulturowe determinanty zachowań konsumenckich, Wrocław. Pawłowska A. 2002 Miejsce wartości w świecie reklamy, w: Kondycja moralna społeczeństwa polskiego, red. J. Mariański, Kraków. Rachunki narodowe według sektorów i podsektorów instytucjonalnych 2000-2005 2007, Warszawa. Rytlewska G. 2003 Gospodarstwo domowe, w: System finansowy w Polsce, red. B. Pietrzak, Z. Pogański, B. Woźniak, Warszawa. Redmond W.H. 2001 Exploring Limits to Material Desire: The Influence of Preferences vs. Plans on Consumption Spending, „Journal of Economic Issues” 2001, Vol. 35, Issue 3. Richins M.L. 1994 Valuing Things: The Public and Private Meanings of Possessions, „Journal of Consumer Reasearch”, Vol. 21. Sikorska J. 1999 Aspiracje materialne, w: Zmiany w życiu Polaków w gospodarce rynkowej, red. L. Beskid, Warszawa. Stankiewicz W. 2000 Historia myśli ekonomicznej, Warszawa. 70 Anna Wildowicz-Giegiel Sytuacja gospodarstw domowych w 2005 r. w świetle wyników bada budżetów gospodarstw domowych 2006, Warszawa. Sytuacja gospodarstw domowych w 2006 r. w świetle wyników badań gospodarstw domowych 2007, Warszawa. Zając A. 2000 Zagrożenia konsumenta we współczesnej gospodarce rynkowej, w: Współczesne problemy ekonomiczne jako wyzwania dla polskiej gospodarki, red. E. Skawińska, Poznań. Żelazna K. 2002 Ekonomika konsumpcji. Elementy teorii, Warszawa. MISCELLANEA Henryk MANTEUFFEL SZOEGE, Marta JÓŹWIAK 1 MAKROEKONOMICZNA EFEKTYWNOŚĆ BIBLIOTEKI PUBLICZNEJ W MAŁYM MIEŚCIE Streszczenie Makroekonomiczna efektywność biblioteki publicznej, znajdującej się w małym mieście w pobliżu Warszawy, została obliczona wg wskaźnika korzyść/koszt. W przypadku wyceny usług bibliotecznych zaadaptowane zostały w niniejszej pracy, stosowane w ekonomice środowiska, metoda hipotetycznego rynku i metoda kosztów podróży. Koszty makroekonomiczne zostały przyjęte za równe mikroekonomicznym, z wyjątkiem kosztów pracy, które zostały oszacowane jako społeczna wartość nakładów pracy a następnie skorygowane w dół ze względu na trwałe bezrobocie w mieście. Wyjątek stanowiły również koszty wynajmu lokalu, który nie jest obecnie ponoszony przez bibliotekę. Wskaźnik korzyść/koszt okazał się być wyraźnie ujemny (w zależności od przyjętych założeń wahał się od 0,34 do 0,68). Należy jednak zwrócić uwagę, iż tylko bezpośrednie korzyści dla użytkowników biblioteki zostały zawarte w rachunku, a pozaużytkowa wartość dla reszty społeczeństwa została pominięta MACROECONOMIC EFFICIENCY OF A SMALL PROVINCIAL PUBLIC LIBRARY Summary The macroeconomic efficiency of a public library in a small town near Warsaw has been calculated in the form of benefit/cost ratio. The benefits have been estimated by the method of contingent valuation of the library services and by the revealed preferences expressed by the costs of travel to and from the library as well as the costs of library deposit fees. The macroeconomic costs have been assumed equal to the microeconomic costs, except for labour costs which have been estimated as social opportunity costs of labour and therefore corrected downwards because of the persistent unemployment in town and except for the rentals not actually paid by the library. The BCR ratio turned to be far below zero (depending on assumptions varied between 0.34 and 0.68). However only the direct benefits accruing to the library customers have been included, and the non-use value ignored. 1. Wprowadzenie Usługi świadczone przez biblioteki publiczne z punktu widzenia ekonomii przyczyniają się do tworzenia kapitału ludzkiego [Bibliotekarstwo… 1994], także na obszarach wiejskich. Dlatego też stanowią, z tego punktu widzenia, przedmiot zainteresowania 1 Prof. dr hab. Henryk Manteuffel Szoege i mgr Marta Jóźwiak są pracownikami Szkoły Głównej Gospodarstwa Wiejskiego w Warszawie. 72 Henryk Manteuffel Szoege, Marta Jóźwiak Usługi bibliotek publicznych stanowią dotychczas tzw. dobro publiczne2, choć ostatnio pojawiają się rozważania na temat możliwej ich komercjalizacji i wobec tego ich przekształcenia w tzw. dobro prywatne3, a zapis o wprowadzeniu odpłatności za wypożyczanie książek znalazł się w Narodowym Programie Kultury [Płatne… 2005]. Do szacowania wartości dóbr publicznych metody wyceny wypracowane zostały w ramach ekonomiki środowiska naturalnego [np. Manteuffel Szoege 2005]. W przypadku wyceny usług bibliotecznych zaadaptowane więc zostały w niniejszej pracy, stosowane w ekonomice środowiska, metoda hipotetycznego rynku4 i metoda kosztów podróży. Taka adaptacja jest coraz częściej stosowana w od niedawna rozwijającej się gałęzi ekonomii, jaką jest ekonomika kultury [Valuing… 2002; Noonan 2004; Epstein 2003]. Metoda hipotetycznego rynku polega na ankietyzacji lub przeprowadzeniu wywiadu według kwestionariusza badawczego z reprezentantami zainteresowanych przedmiotem wyceny grup społecznych, a potem rozszerzeniu wyników na całą populację zainteresowanych. W omawianym przypadku badana była indywidualna wycena (jako tzw. skłonność do zapłaty, obejmująca również tzw. rentę konsumenta) wartości usług bibliotecznych przez poszczególnych czytelników. Do takiej wyceny dodane zostały koszty dostępu do biblioteki w postaci kosztu dojazdu i powrotu (zgodnie z metodą kosztów podróży) i koszty wypożyczeń najbardziej poszukiwanych książek, wypożyczanych za kaucją. Ten ostatni koszt równa się kosztowi alternatywnemu użycia kapitału własnego czytelnika, zamrożonego przez pewien czas bezprocentowo w kaucji. Jako studium przypadku kalkulacji makroekonomicznej (z ogólnospołecznego punktu widzenia) efektywności prowincjonalnej biblioteki publicznej posłużył przykład biblioteki w niewielkim mieście położonym blisko Warszawy. Oprócz siedziby głównej biblioteka posiada 4 filie dzielnicowe. 2 Tzw. dobra publiczne są to dobra, do których wolny dostęp mają wszyscy zainteresowani, a które charakteryzują się ponadto niepodzielnością konsumpcji. Niepodzielność konsumpcji oznacza, że konsumpcja danego dobra przez danego użytkownika nie ogranicza potencjalnej konsumpcji przez innych, nie tyle z tego względu, że zasób jest bardzo duży w stosunku do potencjalnego popytu, ale ze względu na to, że konsumpcja nie umniejsza ilości zasobu dostępnej dla innych, bo nie da się podzielić tej konsumpcji na części. Powszechny dostęp i niepodzielność konsumpcji oznaczają, inaczej mówiąc, niewykluczalność i niekonkurencyjność konsumpcji tych dóbr. Takie cechy charakteryzują te dobra dopóki nie nastąpi tzw. efekt zatłoczenia. 3 Dobra prywatne to dobra o dobrze zdefiniowanych prawach własności. Dobrze zdefiniowane prawa własności powinny charakteryzować się cechami, takimi jak: powszechność (oznaczająca, że każdy zasób ma swego prywatnego właściciela i dokładnie jest sprecyzowane, co takiemu właścicielowi wolno w stosunku do tego zasobu), wyłączność (oznaczająca, że wszystkie korzyści i koszty związane z użytkowaniem zasobu odnosi lub ponosi właściciel, bezpośrednio lub pośrednio przez sprzedaż pożytku), przekazywalność (oznaczająca, że prawa własności mogą być swobodnie zbywane pomiędzy właścicielami), przymusowość (oznaczająca, że środki przymusu powinny stać na straży tych praw i nie dopuszczać do ich przejęcia lub uszczuplenia bez dobrowolnej zgody właściciela). Konsumpcja tych dóbr jest więc wykluczalna i konkurencyjna. 4 Inne stosowane nazwy to: metoda wyceny warunkowej, metoda symulowanego rynku, metoda przypadającej wartości (ta ostatnia nazwa oznacza dosłowne tłumaczenie angielskiego contingent valuation). Makroekonomiczna efektywność biblioteki publicznej… 73 2. Koszty badanej biblioteki publicznej Koszty roczne przyjęto jako przeciętną ich wartość z lat 2003, 2004 i 2005, według sprawozdań biblioteki [Informacja… 2004, 2005 i 2006]. Przed uśrednieniem zostały one przeliczone na jednolity poziom cen roku 2005 przy użyciu wskaźników cen towarów i usług konsumpcyjnych publikowanych przez GUS [Wskaźniki… 2006]. Koszty prezentowane są w tabeli 1. TABELA 1. Roczne (mikroekonomiczne) koszty badanej biblioteki publicznej, zł/rok, poziom cen roku 2007 Pozycja kosztów Zakup książek Materiały i wyposażenie Prąd, woda, gaz i ogrzewanie Usługi materialne i niematerialne Płace (z narzutami) Inne wydatki Razem 2003 33751 13328 30076 Rok 2004 44778 72931 32021 2005 58503 67982 32928 54578 75768 702691 15349 849772 635948 15839 877286 45677 51414 31675 Struktura, % 5,3 5,9 3,7 49390 59912 6,9 643626 19170 871599 660755 16786 866219 76,3 1,9 100,0 Średnia Źródło: [Informacja… 2004; Informacja…. 2005; Informacja… 2006]. W pierwszym przybliżeniu koszty makroekonomiczne zostały przyjęte za równe mikroekonomicznym kosztom biblioteki zestawionym w tabeli 1. Uzasadnieniem dla takiego ujęcia było to, że ceny wszystkich nakładów, włączając w to najważniejsze nakłady pracy, były cenami wolnorynkowymi, a wobec tego odzwierciedlającymi społeczną wartość tych nakładów. W drugim przybliżeniu przeszacowano koszty płac według alternatywnego kosztu nakładów pracy w rachunku społecznym. Jest to standardowy zabieg w kalkulacjach makroekonomicznych. W tym celu wzięto pod uwagę wysoką stopę bezrobocia wśród kobiet w mieście, wynoszącą ówcześnie 21,6% [Dąbrowska-Majewska 2005 s. 10]. Społeczny koszt zatrudnienia osoby potencjalnie bezrobotnej może być w przybliżeniu uznany za równy zeru, ponieważ społeczeństwo przy zatrudnianiu takiej osoby nie traci jej produktywności w alternatywnym zatrudnieniu. Utrata produktu pracy w alternatywnym zatrudnieniu (dochodu społecznego tworzonego przez pracownika w tym zatrudnieniu) jest zaś prawdziwym, społecznym kosztem zatrudnienia. Płaca i narzuty na nią w postaci składek ubezpieczeń społecznych i podatku dochodowego są ze społecznego punktu widzenia nie kosztem, a tylko transferem pieniężnym między członkami społeczeństwa (przepływem pieniężnym między pracodawcą, pracownikiem i ogółem społeczeństwa reprezentowanym przez budżet państwa, nie zmieniającym sumy dochodu społecznego). 74 Henryk Manteuffel Szoege, Marta Jóźwiak Udział pracowników potencjalnie bezrobotnych wśród pracowników biblioteki został przyjęty za równy stopie bezrobocia wśród kobiet w mieście. Po przeprowadzeniu odpowiedniej kalkulacji społeczne koszty płac zmniejszyły się do: 660755 * (1 – 0,216) = 518032 zł/rok, a średnie całkowite koszty roczne do 723496 zł/rok. Drugim wziętym pod uwagę kosztem społecznym był koszt użytkowania lokali, w których działa biblioteka. Biblioteka nie ponosi z tego tytułu żadnych kosztów, ponieważ lokale należą do miasta, do którego należy także biblioteka, i wobec tego używa ona tych lokali bezpłatnie. Ze społecznego punktu widzenia to użytkowanie ma swój koszt alternatywny. Został on oszacowany na podstawie porównania z czynszami najmu podobnych lokali w tym mieście na 84 tys. zł rocznie, co po zrewaloryzowaniu na poziom cen w 2007 roku dało 84436 zł/rok. Po takich dwóch korektach średnie makroekonomiczne koszty biblioteki wyniosły 809932 zł/rok. 3. Społeczna wartość usług biblioteki Na początku 2006 roku przeprowadzone zostało badanie skłonności do zapłaty za usługi biblioteczne wśród czytelników korzystających z omawianej biblioteki. Odpowiedzi na wywiad według przygotowanego kwestionariusza badawczego uzyskano od 130 osób, wybranych celowo w ten sposób, by badana próba odpowiadała pod względem struktury według płci, wieku i podstawowego zajęcia (typu pracy lub nauki) zbiorowości zarejestrowanych klientów biblioteki. Podział na grupy powtórzono za podziałem stosowanym w rejestracji bibliotecznej. Poza tym dobór był losowy. Spośród korzystających z odpowiednich usług, 80% respondentów zadeklarowało pozytywną skłonność do zapłaty za usługi wypożyczalni i 79% za usługi czytelni. Sumaryczne skłonności do zapłaty za usługi wypożyczalni książek i za usługi czytelni były kalkulowane osobno. Reprezentowana przez taką skłonność wartość usług wypożyczalni obliczona została drogą mnożenia skłonności do zapłaty za wypożyczenie jednej książki w danej grupie respondentów, definiowanej przez płeć, rodzaj zajęcia i wiek, przez średnią liczbę wypożyczeń w roku, następnie mnożenie tej liczby przez liczbę czytelników o cechach tej grupy w całej populacji klientów biblioteki, a w końcu przez dodawanie sum obliczonych dla poszczególnych grup. W paru przypadkach niektóre grupy nie miały swoich reprezentantów wśród respondentów. Jako wartość skłonności do zapłaty z ich strony przyjmowano wtedy średnią wartość deklarowaną w dwóch grupach sąsiednich. Na przykład wartościowania przez uczniów w wieku 19 lat zostały zastąpione przez średnią z wartościowań przez uczniów w wieku od 15 do 19 lat i studentów w wieku od 19 do 25 lat, wartościowania przez pracowników umysłowych w wieku od 19 do 25 lat zostały Makroekonomiczna efektywność biblioteki publicznej… 75 zastąpione przez średnią z wartościowań przez studentów w wieku od 19 do 25 lat i pracowników umysłowych w wieku 25 do 44 lat. Ponieważ czytelnicy w czytelni nie są rejestrowani według płci, wieku i rodzaju zatrudnienia, przyjęto strukturę klienteli czytelni za analogiczną do struktury klienteli wypożyczalni. Dla poszczególnych grup, wyróżnionych pod względem wymienionych cech, oszacowano średnią skłonność do zapłaty za jedne odwiedziny, a następnie wyniki zagregowano tak jak w przypadku wypożyczalni. Obliczenia w obu przypadkach przedstawione są w tabelach 2 i 3. Suma obu skłonności dała sumaryczną wartość usług bibliotecznych dla klientów biblioteki. Poza wartościowaniami usług przez korzystających z biblioteki uwzględniono koszty odwiedzin, jako dodatkową wartość uznawaną, bo realnie wypłacaną, przez odwiedzających (tzw. ujawnioną preferencję). Koszty te oszacowano mnożąc liczbę kilometrów przejechanych samochodem przy dojeździe i powrocie z biblioteki przez koszt jednego kilometra zwracany przez instytucje państwowe przy rozliczaniu delegacji służbowych przez osoby delegowane. Użyto średniego z dwóch kosztów jednostkowych, odnoszących się do pojazdów o pojemności silnika poniżej i powyżej 900 cm3. Średnia taka wyniosła 63,7 gr/km. Jeśli czytelnik odwiedzał bibliotekę na piechotę, nie policzono żadnego kosztu, traktując przemarsze jako spacer korzystny dla zdrowia i samopoczucia. Do kosztów korzystania z wypożyczalni bibliotecznej doliczono też koszt kapitałowy kaucji, pobieranej przy wypożyczaniu niektórych, szczególnie cennych, książek. Płacenie kaucji oznacza, z ekonomicznego punktu widzenia, zamrożenie na pewien okres kapitału. Zamrożenie kapitału kosztuje. Koszt alternatywny użycia tego kapitału przyjęto, jak zwykle w kalkulacjach dotyczących konsumpcji, za równy realnej wartości odsetek od kapitału zdeponowanego w banku w polskim systemie bankowym. W badanym okresie stopa procentowa od depozytów długoterminowych wynosiła 2,95% [Średnie… 2005]. Stopa inflacji wynosiła (w odniesieniu do towarów i usług konsumpcyjnych) 2,2% [Wskaźniki… 2005]. Obliczenia realnej stopy procentowej dokonano według standardowego wzoru: 1 + Rnom Rreal = −1 1 + Rinfl , gdzie: Rreal – realna stopa procentowa, Rnom – nominalna stopa procentowa, Rinfl – stopa inflacji, równa wskaźnikowi cen towarów i usług konsumpcyjnych – 1. Realna stopa procentowa od kapitału konsumpcyjnego wyniosła: 1 + 0,0295 Rreal = − 1 = 0,007 1 + 0,022 . Koszt wypożyczenia książek za kaucją oszacowano jako iloczyn liczby książek wypożyczanych rocznie za kaucją przez jednostkową kaucję, przez powyższą stopę procentową i przez 1/12 (przyjęto jednomiesięczny okres wypożyczenia). 3,33 0,00 0,00 3,34 27,01 0,01 0,00 27,02 TABELA 3. 10565 270184 6717 130 A≥60 391 8 razem TABELA 2. Kategoria uczestnika uczeń student pracownik umysłowy pracownik innego typu niepracujący razem 15<A<19 A=19 19<A≤25 19<A≤25 25<A≤44 44<A<60 19<A≤25 25<A≤44 44<A<60 19<A≤25 25<A≤44 44<A<60 A≥60 947 40 769 40 632 355 40 197 118 20 355 197 237 3 947 21 0 28 0 6 2 1 1 2 3 1 3 0 68 Wartości jednostkowe, zł 2,06 6,69 11,32 9,00 7,03 4,12 37,04 13,38 9,78 23,33 22,64 4,12 13,38 x 0,00 0,00 12,54 0,00 4,81 3,93 0,00 1,31 0,00 1,75 0,00 0,00 0,00 x 2,06 6,69 23,86 9,00 11,84 8,05 37,04 14,68 9,78 25,08 22,64 4,12 13,38 x Wartości globalne, zł 1949 268 18350 360 7485 2857 1482 2893 1154 502 8036 811 3170 49316 Źródło: dla tabel 2. i 3.: wywiad kierowany. roczna wartość uczestnictwa wartość odwiedzin koszt przejazdów roczna wartość wizyt Pozycja kalkulacji zatrudnienie wiek (A) liczba odwiedzin liczba respondentów Wartość rocznych usług czytelni, poziom cen 2007 r. Pozycja kalkulacji Kategoria uczestnika zatrudnienie uczeń student pracownik umysłowy pracownik innego typu niepracujący wiek (A) 15<A<19 A=19 19<A≤25 19<A≤25 25<A≤44 44<A<60 19<A≤25 25<A≤44 44<A<60 19<A≤25 25<A≤44 44<A<60 liczba zarejestrow. czytelników 1597 62 1295 81 1060 623 63 376 221 31 578 339 liczba respondentów 29 0 29 0 25 9 2 4 6 3 7 8 Wartości jednostkowe, zł roczna wartość wypożyczeń 3,33 13,43 23,52 18,47 68,65 55,34 28,81 3,34 2,23 57,62 57,77 12,92 koszt kaucji 0,00 0,00 0,08 0,00 0,03 0,04 0,00 0,02 0,00 0,09 0,00 0,02 koszt przejazdów 0,00 0,00 6,97 0,00 38,15 20,97 0,00 4,92 0,00 5,25 10,71 0,66 roczna wartość wizyt 3,34 13,43 30,56 18,47 106,83 76,35 28,81 8,27 2,23 62,96 68,48 13,60 Wartości globalne, zł roczna wartość uczestnictwa 5341 833 39577 1496 113241 47567 1815 3111 493 1952 39581 4612 Wartość rocznych usług wypożyczalni książek, poziom cen 2007 r. Makroekonomiczna efektywność biblioteki publicznej… 77 Sumaryczna wartość usług wypożyczalni, składająca się z trzech omówionych składników, wyniosła średniorocznie 270184 zł/rok, a usług czytelni 49316 zł/rok, co w sumie daje wartość równą 319500 zł/rok. Jest to wartość w ocenie tylko klientów biblioteki, a więc wartość dla użytkowników. Nie szacowano tzw. wartości pozaużytkowej lub egzystencjalnej tej instytucji, którą ma dla tych członków społeczeństwa, którzy z niej bezpośrednio nie korzystają. W wartości usług wypożyczalni najbardziej waży skłonność do zapłaty za nie ze strony klientów biblioteki (73,7%), ale niemało znaczą też koszty dojazdu (26,3%). Natomiast koszt kaucji jest nieistotny (mniej niż 0,1%). Podobnie układają się proporcje w wycenie usług czytelni. Skłonność do zapłaty stanowi w niej 70,9%, a koszt dojazdu 29,1%. Natomiast usługi wypożyczalni są według obliczonych wycen 5,5 razy więcej warte niż usługi czytelni. 4. Efektywność ekonomiczna Tytułowa efektywność określona została jako standardowy wskaźnik korzyść/ /koszt w wyrażeniu rocznym i obliczona w kilku wariantach kalkulacji. Wyniki zawarte są w tabeli 4. TABELA 4. Wskaźnik korzyść/koszt w alternatywnych wariantach kalkulacji makroekonomicznej efektywności biblioteki Wariant kalkulacji Koszty społeczne równe kosztom mikroekonomicznym, korzyści według wyceny czytelników Koszty społeczne skorygowane ze względu na społeczny alternatywny koszt pracy i koszt lokalu, korzyści według wyceny czytelników Koszty społeczne równe kosztom mikroekonomicznym, korzyści skorygowane przez zastąpienie wycen przez młodzież wyceną przez ludzi w wieku dojrzałym Koszty społeczne skorygowane ze względu na społeczny alternatywny koszt pracy i koszt lokalu, korzyści skorygowane przez zastąpienie wycen przez młodzież wyceną przez ludzi w wieku dojrzałym Krotność wzrostu wyRelacja ceny lub obniżki koszkorzyść/ tów potrzebnej do osiąkoszt gnięcia efektywności 0,37 2,71 0,39 2,53 0,63 1,58 0,68 1,48 Zarówno społeczne koszty jak i społeczne korzyści z działania biblioteki obliczone zostały w dwóch wersjach. Wersje kalkulacji kosztów objaśniono powyżej. Korzyści ujęto albo w sposób opisany powyżej, albo z odmianą polegającą na zastąpieniu wycen przez uczniów w wieku 15 do 19 lat przez wyceny pracowników umysło- 78 Henryk Manteuffel Szoege, Marta Jóźwiak wych w wieku od 25 do 44 lat, a wycen przez studentów przez wyceny pracowników umysłowych w wieku od 44 do 60 lat. Uznano bowiem, że wyceny przez osoby niezarabiające i w młodym wieku powinny być raczej zastąpione przez wyceny ich zarabiających rodziców, dla których biblioteka ma dodatkową wartość jako miejsce kształcenia ich dzieci. Poza tym osoby w młodym wieku raczej cenią sobie wyżej inne niż czytelnictwo rozrywki, a korzystanie z biblioteki traktują często jako przymus z konieczności i w związku z tym zaniżają wycenę. W takiej alternatywnej kalkulacji korzyści roczna wartość usług wypożyczalni okazała się równa 500541 zł/rok, a usług czytelni 46627 zł/rok, co daje sumę równą 547168 zł/rok. W każdym z kalkulacyjnych wariantów biblioteka okazała się ekonomicznie nieefektywna. 5. Podsumowanie i wnioski Negatywny wynik obliczeń efektywności jest przykry dla autorów jak i zapewne czytelników tego tekstu. Każda działalność publiczna, w tym usługi biblioteczne, powinna wykazywać dodatnią efektywność makroekonomiczną. Pierwszym wnioskiem, narzucającym się po lekturze tabeli 1., jest postulat redukcji kosztów personelu, co można osiągnąć przez zamknięcie niektórych lub wszystkich filii i na przykład skrócenie godzin pracy biblioteki. Koszty zatrudnienia pracowników stanowią bowiem 3/4 ogółu kosztów biblioteki. Trzeba przy tym pamiętać, że takie posunięcia zmniejszyłyby też korzyści płynące z jej działalności, ponieważ bez wątpienia prowadziłyby też do zmniejszenia liczby czytelników i częstotliwości odwiedzin. Natomiast rozważane [Płatne… 2005] wprowadzenie opłat bibliotecznych miałoby dla efektywności makroekonomicznej znaczenie tylko ujemne, gdyż zmniejszyłoby frekwencję w bibliotece, a nie przyniosłoby korzyści społecznych. Opłaty takie nie stanowią dochodu społecznego, a tylko transfer pieniężny pomiędzy różnymi grupami społecznymi, w tym przypadku czytelnikami i innymi beneficjentami wydatków budżetu, których przychody by się zwiększyły (podatki się nie zmniejszą w wyniku wprowadzenia opłat). Ich wprowadzenie zmieniłoby tylko dystrybucję dochodów między grupami beneficjentów budżetu, której efektywność ekonomiczną dość trudno ocenić. Na ogół korzystne społecznie są transfery od grup zamożniejszych do grup biedniejszych, ale występują rozmaite przypadki w różnych szczególnych sytuacjach. W rozpatrywanym przypadku w celu ustalenia makroekonomicznej efektywności transferu, trzeba by było przeprowadzić dodatkowe badanie, która z grup uczestniczących w transferze jest biedniejsza i jakie w wyniku zmiany transferów byłyby zmiany w następnych turach wpływów i wydatków. Badanie efektywności ekonomicznej wprowadzenia opłat bibliotecznych nie stanowiło jednak przedmiotu niniejszej pracy. Ze względu na to, że ograniczyłyby one czytelnictwo, prawdopodobnie ich wprowadzenie przyczyniłoby się do zmniejszenia sumarycznych korzyści społecznych. Makroekonomiczna efektywność biblioteki publicznej… 79 Tymczasem korzystne społecznie, a tym samym makroekonomicznie, byłoby zwiększenie czytelnictwa. W wariancie kalkulacji, biorącym pod uwagę tylko koszty mikroekonomiczne i bezpośrednią wycenę przez użytkowników, osiągnięcie efektywności wymagałoby zwiększenia liczby czytelników 2,7 razy, przy zachowaniu ich struktury społecznej, czyli wzrostu raczej trudnego do osiągnięcia. W wariancie, biorącym pod uwagę koszty społeczne i zastąpienie wyceny przez najmłodszych przez wycenę starszych czytelników, potrzebny byłby 1,6-krotny wzrost ich liczby, w najbardziej sprzyjającym wariancie kalkulacji wystarczyłby wzrost 1,5-krotny. W świetle spadającej w ostatnich latach liczby czytelników [Jóźwiak 2006] nawet taki wzrost nie byłby łatwo osiągalny, poza tym dotyczyłby zapewne ludzi mniej ceniących usługi biblioteczne niż obecni czytelnicy. W ostatnich latach podnoszono głosy na temat zmiany tradycyjnej roli bibliotek publicznych na rolę nowoczesnych multimedialnych centrów informacyjnych [Górska, Lewandowicz 2003; Wołosz 2002] i to mogłaby być droga do zwiększenia frekwencji w bibliotekach. Oznaczałoby to jednak jednocześnie konieczność bardzo znacznego zwiększenia kosztów wyposażenia, a także kosztownego przekwalifikowania przynajmniej części personelu lub w ogóle jego częściowej wymiany. Poszerzenie zakresu usług bibliotecznych i ich komputeryzacja nazywane są w Polsce hybrydyzacją usług. Jak dotychczas, postęp na tym polu nie zadawala specjalistów [Paszko 2006]. Podobne tendencje występują jednak także w innych krajach. W niedawnym artykule Brindley [2006] postulowała podobne drogi poprawy ekonomicznej efektywności bibliotek w warunkach brytyjskich, tzn. komputeryzację, intensyfikację marketingu, otwarcie dostępu do cennych kolekcji druków (także przez kanały internetowe), poszerzenie i przyspieszenie usług udostępniania dokumentów (specjalny typ usługi w Wielkiej Brytanii), archiwizowanie i udostępnianie krajowego dorobku piśmienniczego, plastycznego i muzycznego, powstającego w formie elektronicznej. W ocenie tej autorki ekonomiczna efektywność bibliotek w jej kraju kształtuje się jednak pomyślnie. Jeden funt szterling z pieniędzy publicznych, zainwestowanych w bibliotekach, przynosi 4,4 funta tzw. przez autorkę „wartości narodowej”. Należy zwrócić uwagę na to, że do niniejszej kalkulacji włączono tylko wartość usług bibliotecznych dla bezpośrednich użytkowników, podczas gdy niewątpliwie występuje też ich społeczna, pozaużytkowa wartość dla reszty społeczeństwa, także dla tych jego członków, którzy do bibliotek nie uczęszczają. Wartość ta wynika z uznania zasług bibliotek na polu edukacji młodzieży, z doceniania ich roli jako centrów kulturalnych, w których mają miejsce różnego rodzaju imprezy kulturalne, jak to jest też w przypadku badanej biblioteki. Są to wystawy, koncerty, odczyty, spotkania z autorami i towarzyszące im dyskusje. Ta rola lokalnych bibliotek publicznych znajduje też uznanie władz lokalnych, które subsydiują placówki biblioteczne ze swoich budżetów. Literatura Bibliotekarstwo 1994 red. Z. Żmigrodzki, Warszawa. Brindley L. 2006 Re-defining the library. Library Hi Tech, t. 24, nr 4. 80 Henryk Manteuffel Szoege, Marta Jóźwiak Dziennik Biblioteki Publicznej w Legionowie. Czytelnie dla Dorosłych i Młodzieży 1991 – 2005 passim, Materiał powielany MBP, Legionowo. Epstein R. 2003 The Regrettable Necessity of Contingent Valuation, „Journal of Cultural Economics”, t. 27. Fercz J., Niemczykowa A. 1991 Podstawy nauki o książce, bibliotece i informacji naukowej, Warszawa. Dąbrowska-Majewska M. 2005 Analiza bezrobocia wśród kobiet, Materiał powielany, Legionowo. Gawarecki W. 1999 O pieniądzach dla bibliotek raz jeszcze…, „Biuletyn EBIB”, nr 3, http://www.oss.wroc.pl/biuletyn/ebib03/finanse.html. Głowacka E. 2002 Wskaźniki efektywności bibliotek według normy ISO 11620, „Biuletyn EBIB”, http://www.ebib.oss.wroc.pl/matkonf/standardy/glowacka.php. Informacja z wykonania planu wydatków i przychodów własnych MBP w Legionowie za rok 2003 + część opisowa 2004, Materiał powielany, Legionowo. Informacja z wykonania planu wydatków i przychodów własnych MBP w Legionowie za rok 2004 + część opisowa 2005, Materiał powielany, Legionowo. Informacja z wykonania planu wydatków i przychodów własnych MBP w Legionowie za rok 2005 + część opisowa 2006, Materiał powielany, Legionowo. Jóźwiak M. 2006 Efektywność makroekonomiczna działalności bibliotek publicznych na przykładzie MBP w Legionowie, Praca magisterska na Wydziale Ekonomiczno-Rolniczym SGGW, Warszawa. Kołodziejska J. 2002 Ile kosztują biblioteki?, „Biuletyn EBIB”, nr 5, http://ebib.oss.wroc.pl/2002/34/kolodziejska.php. Koryś B. 1999 Miejska Biblioteka Publiczna 1949 – 1999. Przemówienie z okazji 50-ciolecia Biblioteki Publicznej w Legionowie, Materiał powielany, Legionowo. Maj L. 2002 Biblioteka Powiatowa w Legionowie, Praca magisterska w Instytucie Informacji Naukowej i Studiów Bibliologicznych Wydziału Historycznego Uniwersytetu Warszawskiego, Warszawa. Maj L. 2000 Monografia Miejskiej Biblioteki Publicznej w Legionowie, Praca licencjacka w Instytucie Informacji Naukowej i Studiów Bibliologicznych Wydziału Historycznego Uniwersytetu Warszawskiego, Warszawa. Manteuffel Szoege H. 2005 Zarys problemów ekonomiki środowiska, Warszawa. Masiak D. 2003 Formy pracy z czytelnikiem stosowane w Filii Dziecięcej w Legionowie, Praca licencjacka w Instytucie Informacji Naukowej i Studiów Bibliologicznych Wydziału Historycznego Uniwersytetu Warszawskiego, Warszawa. Noonan D.S. 2004 Valuing Arts and Culture: A Research Agenda for Contingent Valuation, „Journal of Arts Management, Law and Society”, t. 34, nr 3. Osiewalski J., Osiewalska A. 2002 Ekonometryczne modelowanie kosztów polskich bibliotek publicznych, http://ebib.oss.wroc.pl/matkonf/standardy/osie.php. Paszko A. 2006 Hybrydyzacja usług bibliotek publicznych w Polsce. Stan obecny, perspektywy i wyzwania, www.wbp.olsztyn.pl/bwm/1-2-06-ie/3_1.html. Płatne biblioteki? 2005, http://ksiazki.wp.pl/wiadomosci. Sprawozdanie z działalności Miejskiej Biblioteki Publicznej w Legionowie w roku 1986 1987, Materiał powielany, Legionowo. Makroekonomiczna efektywność biblioteki publicznej… 81 Sprawozdanie z działalności Miejskiej Biblioteki Publicznej w Legionowie w roku 1989 1990, Materiał powielany, Legionowo. Sprawozdanie z działalności Miejskiej Biblioteki Publicznej w Legionowie w roku 1993 1994, Materiał powielany, Legionowo. Szymorowska T. 2002 Efektywność kosztowa biblioteki publicznej w aspekcie zarządzania mieniem i źródłami informacji, http://ebib.oss.wroc.pl/matkonf/standardy/szymor.php. Średnie ważone oprocentowanie depozytów i kredytów w polskim systemie bankowym 2005, Tryb www.stat.gov.pl. Tyws A. 2002 Efektywność bibliotek w modelu międzyorganizacyjnym, http://ebib.oss.wroc.pl/ /matkonf/standardy/tyws.php. Ustawa z dnia 27 czerwca 1997r. o bibliotekach, Dz.U. 85 1997 r., poz. 539. Ustawa z dnia 27 lipca 2001r. o zmianie ustawy o bibliotekach, Dz.U. 129 2001 r., poz. 1440. Valuing Cultural Heritage. Applying Environmental Valuation Techniques to Historic Buildings, Monuments and Artifacts 2002, eds. S. Navrud i R.C. Ready, Cheltenham. Wołosz J. 2002 Efektywne biblioteki publiczne w społeczeństwie informacyjnym, http://ebib.oss.wroc.pl/matkonf/standardy/wolosz.php. Wskaźniki cen podstawowych kategorii ekonomicznych 2006, www.stat.gov.pl. OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008 Jan ZARZECKI 1 ZARZĄDZANIE DŁUGIEM SKARBU PAŃSTWA Streszczenie Problem długu publicznego Polski pojawił się w latach siedemdziesiątych XX wieku, po dużym zagranicznym zadłużeniu i braku zdolności do jego obsługi. Po częściowej redukcji zadłużenia w 1994 roku realizuje się koncepcję utrzymania zadłużenia zagranicznego Skarbu Państwa na stałym poziomie poprzez refinansowanie zapadających rat kapitałowych nowymi emisjami obligacji skarbowych na rynkach zagranicznych, natomiast płatności odsetek są finansowane z bieżących przychodów budżetu państwa. Zarządzanie długiem obejmuje decyzje określające bezpieczną wielkość długu publicznego i sposobu finansowania potrzeb pożyczkowych państwa. Zamieszczane są one w opracowywanych corocznie od 1999 roku przez ministra finansów trzyletnich strategiach zarządzania długiem Skarbu Państwa oraz oddziaływania na państwowy dług publiczny. Celem realizacji strategii jest minimalizacja kosztu obsługi zadłużenia w długim czasie. MANAGEMENT OF NATIONAL DEBT Summary The question of Poland's national debt arose in 1970s when it became clear that the country had no capacity to service its high debt. After a partial reduction of the debt in 1994, a concept for maintaining of national debt at a steady level is in operation. This is being done through refinancing of capital instalments by new emissions of Treasury bonds in foreign markets whereas interest maturing payments are financed from current receipts of the Budget. The management of national debt involves decisions aimed at determining a safe amount of public debt and the way of financing of the loan needs of the State. The decisions have been presented since 1999 in the form of annual three-year strategies, prepared by the Ministry of Finance, to manage the State Treasury debt and to service the public debt. The strategy is aimed at minimizing, in the long run, of the costs connected with the service of the debt. 1. Wstęp Ustawa o finansach publicznych [2005] określa, że: przez państwowy dług publiczny rozumie się wartość nominalną zadłużenia jednostek sektora finansów publicznych, ustaloną po wyeliminowaniu wzajemnych zobowiązań pomiędzy jednostkami tego sektora. Dotyczy więc tylko zadłużenia wobec podmiotów nie należących do sektora finansów publicznych, określanych jako sektor finansów prywatnych. Są nim skumulowane zobowiązania sektora finansów publicznych, powstałe 1 Dr hab. Jan Zarzecki, prof. WSE jest pracownikiem Wyższej Szkoły Ekonomicznej w Białymstoku. 84 Jan Zarzecki w wyniku finansowania wydatków publicznych, przewyższających dochody w kolejnych okresach (latach). Powstają one w wyniku: finansowania deficytów budżetowych drogą zaciągania pożyczek państwowych, rolowania pożyczek w celu spłaty wcześniejszych zobowiązań, udzielania poręczeń i gwarancji przez rząd, nieregularnej spłaty zobowiązań podmiotów sektora finansów publicznych. Obejmują pożyczony kapitał wraz z jego obsługą, czyli należnymi odsetkami i prowizjami. Na państwowy dług publiczny składają się zobowiązania z następujących tytułów: 1. wyemitowanych papierów wartościowych; 2. zaciągniętych kredytów i pożyczek; 3. przyjętych depozytów; 4. wymagalnych zobowiązań: – wynikających z odrębnych ustaw i prawomocnych orzeczeń sądów lub ostatecznych decyzji administracyjnych; – uznanych za bezsporne przez właściwą jednostkę sektora finansów publicznych, będącą dłużnikiem. Najważniejszym podmiotem sektora finansów publicznych jest Skarb Państwa, toteż przedmiotem opracowania jest dług Skarbu Państwa, dominującego w sektorze rządowym i obejmującego 92% państwowego długu publicznego (tabela 1.). Ponadto do znacząco deficytowych podmiotów sektora rządowego zalicza się: samodzielne publiczne zakłady opieki zdrowotnej (przeważnie kliniczne), Narodowy Fundusz Zdrowia, państwowe szkoły wyższe, jednostki badawczo-rozwojowe. Drugim segmentem finansów publicznych jest sektor samorządowy, obejmujący głównie jednostki samorządu terytorialnego i samodzielne publiczne zakłady opieki zdrowotnej im podlegające, kreujące dług tego sektora. Ponadto, do deficytowych jednostek finansów publicznych zalicza się sektor ubezpieczeń społecznych; Zakład Ubezpieczeń Społecznych i zarządzane przez niego fundusze. Został on wydzielony z sektora rządowego od 2006 roku nową ustawą o finansach publicznych [2005]. Kategorię ekonomiczną państwowego długu publicznego i jego klasyfikację wprowadzono w 1999 roku ustawą z dnia 26 listopada 1998 roku o finansach publicznych, natomiast do 1998 roku dług publiczny utożsamiany był z długiem Skarbu Państwa. Dla rozpoznania przyczyn i skutków zadłużenia publicznego przydatny jest podział długu Skarbu Państwa na: wewnętrzny (krajowy) i zewnętrzny (zagraniczny). W szczególności należy zbadać i objaśnić mechanizm powstawania zadłużenia oraz możliwości jego kształtowania poprzez właściwe nim zarządzanie. Przedmiotem ogólnego przeglądu jest państwowy dług publiczny objęty statystyką w latach 1999 – 2006. W szczegółowej analizie długu Skarbu Państwa za bazowy przyjęto rok 1995, po podpisaniu w 1994 roku z wierzycielami umów redukujących zadłużenie zagraniczne. W realizacji celu badawczego wykorzystano niezbędne informacje z literatury ekonomicznej, dotyczące powstawania długu publicznego oraz definicje i aspekty prawne tej kategorii finansowej z dwóch cytowanych ustaw o finansach publicznych. Kwestie i problemy podejmowane w zarządzaniu długiem Skarbu Państwa są wynikiem analizy dokumentów publikowanych przez Ministerstwo Finansów – Strategii zarządzania długiem sektora finansów publicznych. Podstawą oceny wartościowej Zarządzanie długiem Skarbu Państwa 85 jego zmian są informacje z Roczników Statystycznych RP przy zastosowaniu tabelarycznej techniki przedstawiania danych liczbowych. 2. Geneza i restrukturyzacja zadłużenia Geneza długu publicznego Polski sięga lat siedemdziesiątych XX wieku. W dekadzie tej ówczesne polskie władze przyjęły strategię przyspieszenia wzrostu gospodarczego poprzez import kapitału i technologii z krajów wysoko rozwiniętych. Zaciągane kredyty przez podmioty sektora państwowego (publicznego) miały być spłacane w przyszłości zwiększonymi wpływami pieniężnymi z eksportu. Podjęcie tej strategii wynikało z potrzeby stworzenia dodatkowych miejsc pracy dla około 1,7 mln osób w latach 1971 – 1975 i 1,2 mln osób w latach 1976 – 1980. Wówczas wchodziły w wiek aktywności zawodowej roczniki powojennego wyżu demograficznego. Sprzyjała takiej polityce także duża dostępność kredytów na międzynarodowych rynkach finansowych w wyniku nagromadzenia dużych rezerw kapitałowych przez eksporterów ropy naftowej, spowodowanego dużym wzrostem ceny tego surowca. Zadłużenie Polski w walutach wymienialnych wzrastało od zera w 1970 roku do 25,5 mld USD na koniec 1980 roku. Kredyty te były niewłaściwie wykorzystane, gdyż tylko około 20% zużyto na finansowanie inwestycji i rozbudowę zdolności wytwórczych, około 65% na import surowców i półfabrykatów, a około 15% na import towarów konsumpcyjnych. Nie było więc gospodarczych podstaw do ich spłaty eksportem, koncepcja samospłaty kredytów nie powiodła się. Dla zrozumienia problemu zadłużenia istotna jest analiza zmian w gospodarce światowej w latach 70., które doprowadziły bezpośrednio do wybuchu kryzysu zadłużenia w 1982 roku. Początek lat 70. charakteryzował się wzrostem cen surowców na rynku międzynarodowym i ujemnymi realnymi stopami procentowymi na rynkach finansowych. W tych warunkach kraje rozwijające się były szczególnie skłonne do zaciągania kredytów zagranicznych, ponieważ w niektórych latach wzrost cen towarów eksportowych był szybszy od wzrostu stóp procentowych. Tę korzystną sytuację radykalnie zmienił kryzys energetyczny w 1974 roku, który poprzez dynamiczny wzrost ceny ropy naftowej pogorszył salda obrotów bieżących zarówno krajów rozwijających się, jak i rozwiniętych, niedysponujących zasobami ropy naftowej [Kosztowniak 2007 s. 17]. Ponadto nastąpił znaczny wzrost stóp procentowych na międzynarodowych rynkach finansowych na początku lat osiemdziesiątych. Błędne okazało się założenie, iż zadłużenie będzie dla Polski korzystne, gdyż w warunkach wysokiej inflacji w krajach rozwiniętych spłaty będą niższe od realnej wartości zaciągniętych kredytów. W takiej sytuacji Polska nie była zdolna do obsługi zadłużenia zagranicznego. Spowodowało to dalszy jego wzrost od 1983 roku do 40,8 mld USD na koniec 1989 roku, w efekcie kapitalizacji zaległych płatności odsetkowych oraz odsetek od niespłaconych rat kapitałowych. Pierwotną przyczyną powstania długu publicznego są niespłacone kredyty przedsiębiorstw sektora publicznego (państwowego) zaciągnięte za granicą zarówno gwa- 86 Jan Zarzecki rantowane przez wierzycieli rządowych, jak i kredyty niegwarantowane banków komercyjnych. Dług ten jest zobowiązaniem Skarbu Państwa. Gdy występują poważne trudności ze spłatą zadłużenia, można przystąpić do jego restrukturyzacji. Zgodnie z terminologią stosowaną przez Międzynarodowy Fundusz Walutowy, oznacza to zmianę warunków spłaty zadłużenia. Restrukturyzacja może być dokonana w formie konwersji lub refinansowania. Konwersja polega na formalnym odroczeniu płatności długu i ustaleniu nowego okresu spłaty przełożonych sum. Refinansowanie długu oznacza przełożenie okresu kredytowania w odniesieniu do zapadających płatności lub zastąpienie bieżących i przyszłych płatności nowym kredytem. W restrukturyzacji kłopoty płatnicze kraju zadłużonego są jedynie przesuwane w czasie, jest więc ona niewystarczająca do rozwiązania problemu globalnego zadłużenia. Stąd też już na przełomie lat siedemdziesiątych i osiemdziesiątych XX wieku pojawiły się propozycje metod redukcji zadłużenia krajów rozwijających się. Jednakże podstawą restrukturyzacji był plan zaproponowany przez amerykańskiego sekretarza stanu N.F. Brady’ego w 1989 roku. Był on skierowany do krajów zadłużonych o średnim dochodzie, których zadłużenie wynosiło ponad 70% globalnego zadłużenia krajów rozwijających się. Obejmował 39 krajów mających trudności z obsługą długu zagranicznego o wartości 340 mld USD [szerzej: Kosztowniak 2007 s. 80 – 83]. Ze względu na dużą liczbę wierzycieli rządowych i komercyjnych trudno prowadzić osobne negocjacje w sprawie rozwiązania problemu zadłużenia zagranicznego ze wszystkimi wierzycielami. W związku z tym interesy rządów państw wierzycielskich reprezentuje Klub Paryski, a interesami banków komercyjnych, u których zaciągnięto kredyty niegwarantowane przez rządy, zajmuje się Klub Londyński2. Około 3/4 polskiego długu zagranicznego stanowiły zobowiązania wobec wierzycieli publicznych (rządów 17 krajów) zrzeszonych w Klubie Paryskim. W wyniku negocjacji z wierzycielami tej grupy 21 kwietnia 1991 roku podpisano Protokół uzgodnień w sprawie redukcji i reorganizacji zadłużenia Rzeczypospolitej Polskiej, uzyskując redukcję zadłużenia w wysokości 12,4 mld USD, czyli o 50% ogólnej wielkości. Drugą grupę stanowili wierzyciele prywatni (ponad 300 banków komercyjnych) zrzeszeni w Klubie Londyńskim. W wyniku negocjacji i porozumienia z tymi wierzycielami 10 marca 1994 roku udało się uzyskać redukcję długu o 49,2%, czyli o 6,3 mld USD. Pozostała część długu została skonwertowana; polski rząd wyemitował obligacje (tak zwane obligacje Brady’ego) o różnych terminach wykupu i różnym oprocentowaniu, przekazując je wierzycielom [System finansowy… 2003 s. 729 – 731]. 2 Klub Paryski funkcjonuje od 1956 roku pod auspicjami OECD z inicjatywy krajów wierzycielskich. Celem klubu jest renegocjacja warunków obsługi zaległych pożyczek i gwarantowanych kredytów handlowych. Porozumienia zawarte oznaczają restrukturyzację długu ze strony rządów krajów wierzycielskich i wierzycieli, którzy udzielili gwarantowanych kredytów handlowych. Klub Londyński jest nieformalną organizacją, zrzeszającą banki komercyjne państw wysoko rozwiniętych, które udzielały najwięcej kredytów krajom zadłużonym o średnim dochodzie. Banki te uzależniają podpisanie umów restrukturyzacji długu, w tym jego częściowej redukcji, od wcześniej podpisanych umów z Bankami Światowymi, MFW i Klubem Paryskim. Warunki restrukturyzacji są podobne do określonych przez Klub Paryski [Kosztowniak 2007 s. 122-123]. Zarządzanie długiem Skarbu Państwa 87 Redukcja zadłużenia i warunki restrukturyzacji pozostałej jego części, uzyskane z Klubem Paryskim i Klubem Londyńskim, spowodowały, że od 1995 roku obsługa zadłużenia zagranicznego nie sprawiała większych trudności. Założono utrzymanie na stałym poziomie zadłużenia zagranicznego Skarbu Państwa. Oznacza to refinansowanie wszystkich zapadających w przyszłości spłat zadłużenia zagranicznego (rat kapitałowych) nowymi emisjami obligacji skarbowych na rynkach zagranicznych. Zapadalność największych kwot przypada na lata 2003 – 2013 [szerzej: Małecki 2003 s. 32]. Natomiast płatności odsetek, wynoszące około 1 mld USD rocznie, będą finansowane z bieżących dochodów budżetowych. Dopuszcza się możliwość zakupu walut zagranicznych przez budżet państwa na krajowym rynku walutowym, co może ograniczyć nadmierną aprecjację złotego. Za celową uznaje się przedterminową spłatę zadłużenia wobec Klubu Paryskiego oraz przedterminowy wykup obligacji Brady’ego w Klubie Londyńskim w celu podwyższenia wiarygodności kredytowej Skarbu Państwa. Podstawą powyższej strategii są cztery przesłanki: – sytuacja budżetu nie będzie umożliwiać spłaty zadłużenia zagranicznego; – obecny poziom zadłużenia zagranicznego Skarbu Państwa nie stanowi zagrożenia dla wiarygodności kredytowej Polski; – polski rząd będzie mógł dokonywać na dogodnych warunkach emisji obligacji na międzynarodowych rynkach finansowych w wysokości 3 – 4 mld USD rocznie, uwzględniając zmieniające się warunki rynkowe; – zamiana zadłużenia zagranicznego na dług krajowy – poprzez refinansowanie zapadających spłat zadłużenia zagranicznego emisjami skarbowych papierów wartościowych na rynku krajowym – byłaby niekorzystna ze względu na jej wpływ na kurs walutowy, gdyż mogłaby wzmacniać tendencję do aprecjacji złotego [Małecki 2003 s. 34]. 3. Realizacja strategii zarządzania długiem Zarządzanie długiem Skarbu Państwa odbywa się na podstawie ustawy o finansach publicznych [2005]. Według art. 70 tej ustawy, minister finansów opracowuje corocznie trzyletnią strategię zarządzania długiem Skarbu Państwa oraz oddziaływania na państwowy dług publiczny, uwzględniając w szczególności: – uwarunkowania zarządzania długiem związane ze stabilnością makroekonomiczną gospodarki; – analizę i prognozy poziomu państwowego długu publicznego; – prognozy poziomu i koszt obsługi długu Skarbu Państwa; – kształtowanie struktury zadłużenia. Kategoria państwowego długu publicznego jest punktem odniesienia dla konstytucyjnego limitu relacji długu publicznego do produktu krajowego brutto (PKB) oraz norm ostrożnościowych 50%, 55% i 60% w art. 79 ustawy o finansach publicznych [2005]. Stanowią one warunki krańcowe, ograniczające swobodę rządu 88 Jan Zarzecki w odniesieniu do kształtowania wielkości zadłużenia. Gdy w danym roku (x) relacja kwoty państwowego długu publicznego do produktu krajowego brutto: 1. jest większa od 50%, a nie większa od 55%, to: – za dwa lata (x + 2) relacja deficytu budżetu państwa do dochodów budżetu państwa nie może być wyższa niż w roku następnym (x + 1); – powyższa relacja stanowi górne ograniczenie relacji deficytu każdej jednostki samorządu terytorialnego do jej dochodów, uchwalonej w budżecie tej jednostki na rok x + 2; 2. jest większa od 55%, a mniejsza od 60%, to Rada Ministrów przedstawi sejmowi program sanacyjny zmierzający do obniżenia tej relacji; 3. jest równa lub większa od 60%, to: – uchwalony na rok x + 2 budżet państwa i budżety jednostek samorządu terytorialnego powinny być zrównoważone – kwota wydatków jest równa lub mniejsza od kwoty dochodów; – Rada Ministrów przedstawi Sejmowi program sanacyjny zmniejszający tę relację do poziomu poniżej 60%3. Relacja zadłużenia do PKB w wysokości 60% jest jednym z kryteriów konwergencji (zbieżności) krajów Unii Europejskiej, wchodzących do Unii Gospodarczej i Walutowej. Wynika z tego, że wielkość długu publicznego nie jest tylko wewnętrzną sprawą poszczególnych krajów, jest oceniana przez inne kraje i organizacje międzynarodowe. Dopuszczenie do powiększenia długu publicznego ponad tę zasadę jest niebezpieczne, dlatego że wówczas ogranicza stabilizacyjne oddziaływania budżetu na gospodarkę w zmiennej koniunkturze. Zwiększa się również zagrożenie niewypłacalności państwa, narażając kraj na utratę wiarygodności na międzynarodowych rynkach finansowych. Biorąc pod uwagę doświadczenia różnych instytucji zarządzających długiem publicznym w świecie, wyróżnia się trzy modele. 1. Model rządowy – zarządzaniem zajmuje się Ministerstwo Finansów lub Ministerstwo Skarbu Państwa. Koncepcja taka pozwala na koordynację i realizację polityki budżetowej w powiązaniu z obsługą długu publicznego. Dobrze sprawdza się w gospodarkach krajów rozwijających się i podlegających transformacji ustrojowej, w których stopień rozwoju krajowego rynku finansowego jest niski. 2. Model bankowy – zarządzanie długiem publicznym powierza się bankowi centralnemu i jest one powiązane z realizacją celów polityki monetarnej. Wówczas może występować sprzeczność między polityką monetarną a zarządzaniem długiem publicznym, gdyż konieczność podnoszenia stopy procentowej w zagrożeniu inflacją powoduje wzrost kosztów obsługi za3 Według ustawy z dnia 30 czerwca 2005 roku o finansach publicznych, od 1 stycznia 2006 roku przewidywane wypłaty z tytułu poręczeń i gwarancji udzielonych przez jednostki sektora finansów publicznych nie powiększają kwoty państwowego długu publicznego, której relacja do PKB stanowi punkt odniesienia dla przewidzianych w ustawie norm ostrożnościowych 50, 55 i 60%. Nie uwzględniono ich także przy wyliczaniu zadłużenia w badanym okresie. Zarządzanie długiem Skarbu Państwa 89 dłużenia krajowego. Podstawowym zadaniem banku centralnego jest dbanie o jakość pieniądza. 3. Model agencyjny – polega na istnieniu instytucji działającej pod kontrolą ministra finansów, realizującej jego wytyczne. Instytucje te w poszczególnych krajach różnią się znacznie między sobą w zakresie powierzonych im zadań i poziomu organizacyjnej odrębności. Zarządzanie długiem ma charakter menadżerski ze względu na wysoki poziom autonomii w zakresie wyboru sposobu realizacji zleconych zadań oraz możliwość zatrudnienia wysokiej klasy specjalistów. Model agencyjny dominuje w Unii Europejskiej, występuje bowiem w 14 krajach spośród 27 członków Wspólnoty, w tym w 11 z 15 państw „starej Unii”. Tylko w Danii i w Cyprze zarządzaniem długiem publicznym zajmują się banki centralne, jako agenci ministra finansów, w pozostałych 11 państwach zadanie to powierzono ministrom finansów. Również w Polsce dług publiczny zarządzany jest przez Ministerstwo Finansów [Strategia… 2007 s. 37 – 38]. W odniesieniu do długu Skarbu Państwa minister finansów dysponuje instrumentami pozwalającymi na bezpośrednie nim zarządzanie, natomiast na pozostałe podmioty sektora finansów publicznych, autonomiczne w zaciąganiu zobowiązań, oddziałuje pośrednio. Opracowywane od 1999 roku strategie zarządzania długiem publicznym przedkładane są co roku przez Radę Ministrów Sejmowi wraz z uzasadnieniem projektu ustawy budżetowej. Wynika to nie tylko z zapisu w ustawie, lecz także z faktu, że zadłużenie oddziałuje istotnie na sytuację budżetu państwa, a także pośrednio na szereg innych parametrów gospodarczych kraju, takich jak: stopa inflacji, stopy procentowe, kursy walutowe, bilans płatniczy, rezerwy dewizowe. Zarządzanie długiem publicznym odbywa się na dwóch poziomach: 1. W szerszym znaczeniu obejmuje ono decyzje dotyczące wydatków państwa finansowanych poprzez zaciąganie długu, a zatem określające wielkość długu publicznego. Przedmiotem analizy jest wpływ długu publicznego na gospodarkę, rynki finansowe, finanse publiczne i politykę pieniężną. Kluczowym zagadnieniem jest ustalenie bezpiecznego poziomu długu w stosunku do wielkości gospodarki (mierzonego relacją długu do PKB). Poziom uznawany za bezpieczny oznacza taką wielkość długu, która pozwala na jego terminową obsługę oraz nie powoduje istotnego negatywnego wpływu zadłużenia na gospodarkę. 2. W węższym znaczeniu zarządzanie długiem oznacza sposób finansowania potrzeb pożyczkowych państwa, a więc wybór rynków, instrumentów i terminów emisji [Strategia… 2005]. W pierwszej strategii przyjęto do realizacji następujące cele długoterminowe, do 2009 roku: – ograniczenie udziału długu zagranicznego w długu ogółem; – wydłużenie średniego okresu zapadalności długu – zmniejszenie wielkości relacji długu zapadalnego w danym roku do długu ogółem; – wygładzenie rozłożenia spłat zobowiązań i kosztów obsługi w czasie; 90 Jan Zarzecki – ograniczenie zmienności kosztów obsługi długu oraz zwiększenie ich przewidywalności poprzez wzrost udziału instrumentów o stałym oprocentowaniu w długu ogółem; – uelastycznienie struktury długu zagranicznego. Cele krótkoterminowe na kolejne okresy trzyletnie zmieniają się w zależności od postępu w realizacji celów długoterminowych i zmieniającej się sytuacji finansów publicznych w kraju i na rynkach finansowych. Przegląd informacji statystycznych tabeli 1. upoważnia do stwierdzenia, iż założenie utrzymywania na stałym poziomie zadłużenia zagranicznego Skarbu Państwa jest realizowane. Średnia arytmetyczna tego zadłużenia w latach 1997 – 2003 wynosiła 32,8 mld euro, a w poszczególnych latach występują odchylenia od tej kwoty, charakteryzujące się niewielkim współczynnikiem zmienności wynoszącym 6,8%. Odniesienie 12% stopy wzrostu tego zadłużenia w ciągu sześciu lat do stopy inflacji w strefie euro informuje, że nie zwiększyło się realne zadłużenie. Wyższa zmienność (v=9,1%) zadłużenia zagranicznego wyrażonego w złotych świadczy o tym, że na jego wielkość wpływała zmiana kursu złotego względem euro; gdy następowała aprecjacja złotego, zadłużenie zagraniczne malało, natomiast deprecjacja złotego powodowała wzrost zadłużenia zagranicznego. TABELA 1. Państwowy dług publiczny (stan na 31 grudnia) Sektora rządowego Skarbu Państwa PozosOgółem Razem Krajowy Zagraniczny Lata tały [mld zł] [mld zł] dług jako udział [mld [mld zł] [mld zł] [mld zł] [%] euro]a [mld zł] [% PKB] 101,1 39,5 66,1 54,3 167,2 1995 106,0 42,9 79,6 48,2 185,6 1996 (36,9)b 117,6 31,1(38,5) 46,9 104,0 47,3 221,6 1997 116,2 51,0 121,2 42,9 237,4 1998 29,2 129,7 50,9 134,7 43,0 264,4 267,8 3,5 1999 274,0 32,0 120,9 54,5 145,0 35,7 265,9 271,1 5,2 2000 280,3 35,4 98,9 65,0 183,7 37,7 282,6 291,3 8,7 2001 320,1 33,1 108,6 66,8 218,2 41,8 326,8 338,6 11,8 2002 352,6 34,1 127,8 66,2 250,7 45,0 378,5 392,1 13,6 2003 408,6 34,9 111,2 72,4 291,0 43,5 402,2 413,8 11,6 2004 432,3 42,4 124,7 71,6 313,7 44,8 438,4 446,4 8,0 2005 466,6 49,7 126,2 73,5 350,4 45,2 476,6 481,7 5,2 2006 505,0 51,6 Sektora samorządowego [mld zł] 6,2 9,2 10,8 14,0 16,5 18,4 20,2 23,3 a – zadłużenie obejmuje sektor rządowy i samorządowy; oprócz Skarbu Państwa, zadłużony jest za granicą samorząd terytorialny, ale udział długu zagranicznego w długu jednostek samorządu terytorialnego wynosił 10,4% (2,4 mld zł) na koniec 2006 roku; b – liczby w nawiasach (mld USD) Źródło: obliczenia własne na podstawie: [Rocznik Statystyczny… 1999 s. 500; 2000 s. 484; 2002 s. 503; 2004 s. 620; 2005 s. 628; 2007 s. 626; „Biuletyn Informacyjny” 2/2007, NBP, s. 45]. Zarządzanie długiem Skarbu Państwa 91 W latach 2004 i 2005 wystąpiły duże zmiany relacji między walutowymi miernikami zadłużenia. Spadkowi wartości zadłużenia zagranicznego, wyrażonej w złotych, towarzyszy dynamiczny wzrost tego zadłużenia w euro o 21% w 2004 roku i o 17% w 2005 roku. Spowodowane to zostało głównie aprecjacją złotego względem euro4. Realizowano ograniczenia udziału długu zagranicznego w długu ogółem przyjęte w pierwszej Strategii. W całym badanym okresie, w tym także od 2000 roku, wzrastał udział zadłużenia krajowego w ogólnej wartości długu Skarbu Państwa z 50,9% w 1999 roku do 73,5% w 2006 roku. Celem strategii realizowanych w latach 2004 – 2006 była minimalizacja kosztów obsługi zadłużenia w długim czasie poprzez: 1. optymalny dobór struktury walutowej nowych emisji, instrumentów zarządzania długiem i terminów emisji; 2. działania polegające na podniesieniu efektywności rynku skarbowych papierów wartościowych, przyczyniające się do obniżenia rentowności SPW, tak aby koszty ich obsługi były najmniejsze z możliwych. Za najważniejsze zadania strategii, wynikające z realizacji przyjętych celów, uznaje się: – zwiększenie płynności, efektywności i przejrzystości rynku skarbowych papierów wartościowych; – rozwój systemu dealerów skarbowych papierów wartościowych; – rozwój systemu zarządzania płynnością budżetu państwa. Działania dotyczące punktu pierwszego polegały na dostosowywaniu struktury emisji skarbowych papierów wartościowych (SPW) do warunków występujących na krajowym i międzynarodowym rynku finansowym. Na rynku krajowym chodziło o to, by nadmierna podaż poszczególnych papierów skarbowych nie powodowała zbyt wysokich kosztów obsługi długu. Niekorzystna pod tym względem była sytuacja na przełomie lat 2003 i 2004, gdy w odniesieniu do obligacji średnio- i długoterminowych ze stałą stopą procentową nie osiągnięto równowagi i ograniczony popyt wywoływał duży wzrost rentowności. Celowe było więc zmniejszenie ich podaży i zastosowanie alternatywnych źródeł finansowania: – emisja nowych 3- i 7-letnich obligacji ze zmiennym oprocentowaniem; – zwiększenie finansowania zagranicznego; – emisja obligacji w formie private placement. Umożliwiły one zmniejszenie kosztów obsługi długu przy utrzymaniu ryzyka refinansowania na dotychczasowym poziomie (bez zwiększenia emisji instrumentów krótkoterminowych) w zamian za przejściowe zwiększenie ryzyka stopy procentowej. Obniżeniu kosztów obsługi służyło także wprowadzenie w sierpniu 2004 roku nowego instrumentu zarządzania długiem – obligacji ze stałym oprocentowaniem i nominale indeksowanym inflacją. Można nimi wyeliminować z kosztów obsługi 4 Na koniec grudnia 2003 roku kurs średni euro w NBP wynosił 4,72 złote, na koniec 2004 roku – 4,08 złotych, na koniec 2005 roku – 3,87 złotych, według informacji w Biuletynach Informacyjnych NBP. 92 Jan Zarzecki premię za ryzyko, jakiej żądali inwestorzy, nabywając tradycyjne obligacje indeksowane. Minimalizacja kosztów obsługi długu zagranicznego następowała poprzez zastępowanie zobowiązań drogich w obsłudze instrumentami tańszymi, z uwzględnieniem poziomu ryzyka. W październiku i grudniu 2004 r. dokonano przedterminowej spłaty kredytów z Banku Światowego o równowartości 843 mln USD. W 2005 r. dokonano spłaty zobowiązań wobec wierzycieli zrzeszonych w Klubie Paryskim w wysokości ok. 4,4 mld EUR, na rzecz 10 państw (w przypadku Kanady – dokonano spłaty jedynie części długu). Główną korzyścią było ograniczenie ryzyka refinansowania, ale operacja przyczyniła się również do zmniejszenia płatności z tytułu odsetek. Średnie oprocentowanie spłaconego długu wynosiło ok. 5%, podczas gdy wyemitowanych na pokrycie spłat obligacji – średnio 4,2% [Strategia… 2005 s. 5]. Płatności odsetek od zadłużenia Skarbu Państwa ujmowane są w budżecie państwa pod pozycją – Obsługa długu publicznego. Powyższe działania sprawiły, że relacja kosztów obsługi zadłużenia Skarbu Państwa do produktu krajowego brutto w roku 2004 znacznie obniżyła się, osiągając poziom 2,5%, a w następnych latach występuje niewielka tendencja wzrostowa (tabela 2.). Chociaż udział zadłużenia krajowego w całkowitym zadłużeniu zwiększył się z 50,9% w 1999 roku do 73,5% w 2006 roku, to w strukturze kosztów obsługi zadłużenia nie nastąpiły tak duże zmiany – udział kosztów obsługi zadłużenia krajowego zwiększył się z 79,3% do 84,6%. Oznacza to, że jednostkowe koszty obsługi zadłużenia krajowego relatywnie zmniejszają się. Ponieważ wydatki budżetu państwa przewyższają dochody, można stwierdzić, że spłata odsetek od zadłużenia zagranicznego powiększa deficyt budżetowy, który w latach 2001 – 2005 w ponad 80% był finansowany emisją długu publicznego na rynku krajowym, a od 2002 roku także funduszami zagranicznymi (tabela 3.). Powoduje to dynamiczny wzrost krajowego długu Skarbu Państwa; w ciągu jedenastu lat jego udział zwiększył się z 39,5% do 73,5% (tabela 1.). Można więc wnioskować, że utrzymywanie zadłużenia zagranicznego na stałym poziomie odbywa się wzrostem zadłużenia krajowego. W latach 2001 – 2006 roczne koszty obsługi zadłużenia zagranicznego wynosiły około 3,8 mld zł (przy założeniu 1 mld USD), co stanowi około 10% deficytu budżetowego (tabela 2.). Emisja długu krajowego jest więc spowodowana w około 90% nierównoważeniem budżetowych dochodów krajowych z wydatkami krajowymi, z czego około 52% w latach 2001 i 2002 dotyczy kosztów obsługi długu krajowego, a około 38% bieżących wydatków w 2005 roku odpowiednio – 75% i 12%. Zarządzanie długiem Skarbu Państwa 93 TABELA 2. Koszty obsługi długu Skarbu Państwa Lata 1999 2000 2001 2002 2003 2004 2005 2006 Ogółem w relacji do [mld zł] PKB [%] 3,0 18,8 2,6 18,0 2,8 20,9 3,1 24,0 3,0 24,0 2,4 22,6 2,5 25,0 2,6 27,8 Struktura [%] krajowe zagraniczne 79,3 76,1 81,8 84,6 84,6 81,4 85,2 84,6 20,7 23,9 18,2 15,4 15,4 18,6 14,8 15,4 Źródło: obliczenia własne na podstawie: [Rocznik Statystyczny RP 2001 s. 494; 2002 s. 502; 2004 s. 619; 2005 s. 627; 2006 s. 627; 2007 s. 628]. TABELA 3. Finansowanie deficytu budżetu państwa Rodzaj finansowania 1. Deficyt ogółem: w mld zł w% 2. Źródła krajowe – w systemie bankowym – poza systemem bankowym – przychody z prywatyzacji 3. Źródła zagraniczne 4. Deficyt w relacji do PKB [%] 5. Deficyt sektora finansów publicznych w relacji do PKB [%] 1999 12,5 100 108,8 23,2 21,6 64,0 -8,8 -2,0 -3,2 2000 2001 15,4 32,4 100 100 132,6 134,9 -87,0 32,7 45,8 82,1 173,8 20,1 -32,6 -34,9 -2,1 -4,3 -3,0 -5,3 Lata 2002 2003 39,4 37,0 100 100 91,3 84,0 1,8 7,8 84,2 68,1 5,1 8,1 8,7 16,0 -5,1 -4,5 -6,0 -4,8 2004 2005 2006 41,4 28,4 25,1 100 100 100 92,5 57,4 72,5 -8,7 -31,6 ⋅ 51,4 185,3 ⋅ 24,6 13,3 2,4 7,5 42,6 27,5 -4,5 -2,9 -2,4 -4,5 -4,3 -3,9 Źródło: obliczenia własne na podstawie: [Rocznik Statystyczny RP 2001 s. 494 i 496; 2002 s. 502; 2004 s. 619; 2005 s. 627; 2007 s. 625]. W 2005 roku dopuszczono zaciąganie długu zagranicznego w wysokości przekraczającej potrzeby wynikające z finansowania wykupywanego długu zagranicznego. Do zwiększenia udziału finansowania zagranicznego skłaniała korzystna sytuacja na rynkach zagranicznych; niższe stopy procentowe pożyczkowe niż w Polsce i aprecjacja złotego. Minimalizację kosztu obsługi długu w przyszłości realizowano poprzez: – pozyskiwanie pieniędzy po znacznie niższych stopach procentowych od stóp procentowych krajowych (obligacje nominowane w euro, jenach, frankach szwajcarskich); 94 Jan Zarzecki – zmniejszenie sprzedaży skarbowych papierów wartościowych na rynku krajowym do poziomu popytu na nie krajowych podmiotów pozabankowych5; – zastępowanie zobowiązań droższych w obsłudze zobowiązaniami tańszymi poprzez przedterminowy wykup części (4,4 mld euro zadłużenia wobec Klubu Paryskiego); – zmniejszenie kosztów emisji, spowodowanych prowizjami i opłatami płaconymi organizatorom (bankom) emisji. W 2005 roku osiągano także poprawę parametrów długu krajowego i zagranicznego w następujący sposób: – zwiększono średnią zapadalność długu Skarbu Państwa z 3,8 lat do 5 lat; mimo znacznego postępu w ograniczaniu ryzyka refinansowania, jego poziom jest nadal wyższy w porównaniu z innymi krajami UE, gdzie średnia zapadalność przekracza 6 lat; średnia zapadalność rynkowego długu krajowego w tym czasie wzrosła z 3,1 roku do 3,6 roku na skutek zmniejszenia zadłużenia z tytułu emisji bonów skarbowych i dużej sprzedaży obligacji średnio- i długoterminowych (minimum 5-letnich); średnia zapadalność długu zagranicznego wzrosła z 5,5 do 8,5 roku i spowodowana była przedterminowym wykupem długu wobec Klubu Paryskiego i refinansowania go emisją obligacji długoterminowych (15 – 20 lat); – wzrosło duration6 długu Skarbu Państwa ogółem z 2,8 do 3,7 roku; zwiększając ilość instrumentów średnio- i długoterminowych w finansowaniu potrzeb pożyczkowych budżetu państwa i w efekcie ograniczono ryzyko refinansowania i ryzyko stopy procentowej zarówno długu krajowego i zagranicznego. Skutkiem dążenia do minimalizacji kosztów zadłużenia był nieznaczny wzrost ryzyka kursowego długu Skarbu Państwa oraz możliwość aprecjacji złotego względem euro na skutek napływu transz pożyczkowych na krajowy rynek finansowy. 5 Udział kapitału zagranicznego na krajowym rynku skarbowych papierów wartościowych zwiększał się w ostatnich latach osiągając 23,6% (68,6 mld zł) wszystkich sprzedanych rynkowych obligacji na koniec 2005 roku, gdy w 2000 roku wynosił 6,6%. Wzrost wartości kapitału zagranicznego oznacza zarówno presję na aprecjację złotego, jak i podatność stopy procentowej na zmiany w przepływach tego kapitału. Gdy zamiana pożyczonych walut zagranicznych na złote odbywa się poprzez sprzedaż walut w Narodowym Banku Polskim, powoduje wzrost podaży pieniądza i zwiększenie skali kosztownych operacji otwartego rynku. Natomiast, gdy sprzedawane są one na rynku walutowym, wpływają na aprecjację złotego. Ograniczenie napływu kapitału zagranicznego na krajowych rynkach może nastąpić w wyniku zmniejszenia podaży skarbowych papierów wartościowych i zmniejszenie różnicy pomiędzy ich rentownością a rentownością obligacji skarbowych ze strefy euro. 6 Duration jest miarą wrażliwości kosztów obsługi długu na zmianę stóp procentowych. Interpretowana jest jako wyrażona w latach średnia długość okresu dostosowania kosztów obsługi długu do zmiany poziomu stóp procentowych. Im niższy jest poziom stóp procentowych i większy udział instrumentów dłużnych długoterminowych ze stałym oprocentowaniem, tym mniejsze jest ryzyko stopy procentowej i wyższe duration. Zarządzanie długiem Skarbu Państwa 95 4. Koncepcja zarządzania długiem w latach 2008 – 2010 Minimalizacja kosztu obsługi długu Skarbu Państwa w długim czasie w latach 2007 – 2010 będzie polegała na elastycznym kształtowaniu struktury finansowania pod względem wyboru rynku, waluty i rodzaju instrumentów. Koncepcja finansowania powinna być wynikiem oceny sytuacji rynkowej w odniesieniu do stóp procentowych i oczekiwań dotyczących kształtowania się kursów walutowych oraz wynikać z porównania kosztów pozyskania pieniędzy na długi okres w kontekście ograniczeń wynikających z przyjętych za akceptowane poziomów ryzyka (szczególnie refinansowania, stopy procentowej, kursowego). Przy wyborze waluty finansowania należy uwzględnić także wielkość potrzeb pożyczkowych budżetu państwa w walutach obcych. Emisje na rynkach zagranicznych powinny: – zapewnić pieniądze na spłaty rat kapitałowych i odsetek od długu zagranicznego, w tym operacji przedterminowego wykupu; – wzmocnienie pozycji Polski na rynku euro i zapewnienie obecności na pozostałych głównych rynkach finansowych (amerykańskim, japońskim i szwajcarskim); – działać stabilizująco na rynek krajowy, uwzględniając możliwości występowania negatywnych skutków spowodowanych wymianą walut na złote (tj. wpływu na kurs złotego i politykę pieniężną NBP), [Strategia… 2007 s. 18]. Zwraca uwagę zmiana źródła spłaty odsetek od zadłużenia zagranicznego, które dotychczas finansowane były z dochodów budżetu państwa. Dla osiągnięcia powyższego celu przyjęto do realizacji cztery zadania: 1. Zwiększenie płynności i efektywności rynku skarbowych papierów wartościowych (SPW). Działania zmierzające do efektywnego funkcjonowania tego rynku obejmują politykę emisyjną i organizację rynku. Będzie utrzymywana, realizowana od 2003 roku, polityka emisji średnio- i długoterminowych obligacji ze stałym oprocentowaniem, tak aby wartość pojedynczej emisji osiągnęła równowartość 5 mld euro7. Zwiększenie efektywności emisji SPW na międzynarodowym rynku finansowym będzie polegać na odpowiednim sposobie ich planowania: tworzenie płynnych beuchemarków i odpowiednie dopasowanie konstrukcji, wartości i terminu emisji do potrzeb inwestorów. 2. Rozwój systemu Dealerów Skarbowych Papierów Wartościowych (DSPW) i rynku elektronicznego SPW. Funkcjonowanie DSPW jest elementem organizacji rynku skarbowych papierów wartościowych. W 2007 roku uczestniczyło w nim 15 banków komercyjnych, w tym trzy banki zagraniczne i Bank Gospodarstwa Krajowego. 3. Poszerzenie bazy inwestorów i poprawa komunikacji z uczestnikami rynków finansowych. Spowoduje to dodatkowy popyt na oferowane SPW na 7 Wartość 5 mld EURO jest minimalnym poziomem wymaganym przy wprowadzaniu obligacji nominowanych w euro na platformie Euro MTS. Dotychczas tę wartość przekroczyło 6 emisji na rynku krajowym. 96 Jan Zarzecki 4. rynku krajowym i zagranicznym, przyczyniając się zarówno do minimalizacji kosztów obsługi, jak i dywersyfikacji ryzyka. Zadanie to będzie realizowane poprzez: – rozszerzenie kanałów komunikacji elektronicznej z inwestorami zagranicznymi; – bezpośrednie spotkania z inwestorami i konsultacje z uczestnikami rynku SPW; – aktywny udział w konferencjach i seminariach z udziałem inwestorów [Strategia… 2007 s. 20 – 22]. Rozwój systemu zarządzania płynnością budżetu państwa obejmujący: – doskonalenie prognozowania przepływów budżetowych; – rozwój infrastruktury technicznej i organizacyjnej; – doskonalenie zarządzania długiem i płynnością. 5. Podsumowanie Problem długu publicznego w Polsce pojawił się w drugiej połowie lat siedemdziesiątych XX wieku, jako skutek błędnej i źle realizowanej strategii przyspieszania wzrostu gospodarczego poprzez import kapitału i technologii z krajów wysoko rozwiniętych. Nie powiodła się koncepcja samospłaty kredytów zwiększonym eksportem i ich deprecjacji. Polska nie była zdolna do obsługi zadłużenia zagranicznego. Po częściowej redukcji zadłużenia zagranicznego w 1994 roku realizuje się koncepcję utrzymania zadłużenia zagranicznego Skarbu Państwa na stałym poziomie poprzez refinansowanie zapadających rat kapitałowych nowymi emisjami obligacji skarbowych na rynkach zagranicznych, gdyż budżet państwa nie jest w stanie spłacać zadłużenia zagranicznego. Natomiast płatności odsetek są finansowane z bieżących przychodów budżetowych. Zarządzanie długiem odbywa się na dwóch poziomach. Obejmuje ono decyzje określające bezpieczną wielkość długu publicznego, mierzoną jego reflacją do PKB, jak i dotyczące sposobu finansowania potrzeb pożyczkowych państwa; wyboru rynków, instrumentów i terminów emisji. Zamieszczane są one w opracowywanych corocznie przez Ministerstwo Finansów trzyletnich strategiach zarządzania długiem Skarbu Państwa oraz oddziaływania na państwowy dług publiczny. Celem realizowanych strategii jest minimalizacja kosztu obsługi zadłużenia w długim czasie. Utrzymywanie zadłużenia zagranicznego na stałym poziomie odbywa się wzrostem zadłużenia krajowego, gdyż spłata odsetek od tego zadłużenia powiększa deficyt budżetowy, który w 80% finansowany jest emisją długu publicznego na rynku krajowym, a w latach 2002 – 2006 także funduszami zagranicznymi. Spowodowało to wzrost udziału zadłużenia krajowego w ogólnej wartości długu Skarbu Państwa z 50,9% w 1999 roku do 73,6% w 2006 roku. Zadłużenie krajowe również wzrasta na skutek finansowania kosztów obsługi długu krajowego i nadmiernych wydatków bieżących. Zarządzanie długiem Skarbu Państwa 97 Aprecjacja złotego względem walut zagranicznych i obniżka stóp procentowych na rynkach międzynarodowych skłoniły do dopuszczenia w 2005 roku zaciągania długu zagranicznego w wysokości przekraczającej potrzeby wynikające z finansowania wykupywanego długu zagranicznego. Emisje skarbowych papierów na rynkach zagranicznych od 2007 roku mają zabezpieczyć także fundusze na spłaty odsetek od długu zagranicznego. Możliwe jest to przy utrzymaniu wartości zadłużenia zagranicznego w złotych na stałym poziomie i wzroście tego zadłużenia w walutach obcych (euro). Literatura „Biuletyn Informacyjny” 2007, nr 2, NBP. Deficyt budżetowy i dług publiczny w wybranych krajach europejskich 2003, red. E. Ruśkowski, Białystok. Kosztowniak A. 2007 Zadłużenie zagraniczne a rozwój gospodarczy, Warszawa. Małecki W. 2003 Zarządzanie zagranicznym długiem publicznym a równowaga zewnętrzna polskiej gospodarki, „Studia Finansowe”, nr 66. Marchewka-Bartkowiak K. 2003 Zarządzanie długiem publicznym w krajach Unii Europejskiej i w Polsce, Warszawa. Rocznik Statystyczny RP 1999 1999, Warszawa. Rocznik Statystyczny RP 2000 2000, Warszawa. Rocznik Statystyczny RP 2001 2001, Warszawa. Rocznik Statystyczny RP 2002 2002, Warszawa. Rocznik Statystyczny RP 2004 2004, Warszawa. Rocznik Statystyczny RP 2005 2005, Warszawa. Rocznik Statystyczny RP 2007 2007, Warszawa. Strategia zarządzania długiem publicznym w latach 2008 – 2010 2007, Warszawa. Strategia zarządzania długiem sektora finansów publicznych w latach 2005 – 2007 2004, Warszawa. Strategia zarządzania długiem sektora finansów publicznych w latach 2006 – 2008 2005, Warszawa. Strategia zarządzania długiem sektora finansów publicznych w latach 2007 – 2009 2006, Warszawa. System finansowy w Polsce 2003, red. Pietrzak B. i inni, Warszawa. Ustawa z dnia 26 listopada 1998 r. o finansach publicznych (Dz.U. Nr 155, poz. 1014 z późn. zm.). Ustawa z dnia 30 czerwca 2005 r. o finansach publicznych (Dz.U. Nr 249, poz. 2104). OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008 Agnieszka MOJSA 1 FLUKTUACJE CEN ROPY NAFTOWEJ I ICH WPŁYW NA GOSPODARKĘ ŚWIATOWĄ Streszczenie W artykule przedstawiono zmiany cen ropy w latach 1973 – 2007 wraz z czynnikami wpływającymi na nie i skutkami tych zmian w gospodarce światowej. W szczególności poruszono najszybszy wzrost cen ropy począwszy od kryzysu energetycznego w latach 1973 i 1979 – jako efekt polityki państw OPEC – aż do dnia dzisiejszego (wzrost popytu w Chinach, rozruchy w Nigerii i Sudanie, czy wzrost kosztów eksploatacji złóż ropy). FLUCTUATIONS IN THE PRICES OF OIL AND THEIR INFLUENCE ON THE GLOBAL ECONOMY Summary In this article fluctuations in the oil prices during the period from 1973 to 2007 have been presented together with the factors influencing them and the effects of those changes on the world economy. In particular, the article deals with the most rapid increases in oil prices starting with the energy crises from 1973 to 1979 – as a result of the policy of the OPEC countries – up to the present day (the growing demand for oil in China, riots in Nigeria and Sudan or an increase in costs of oil ex¬ploitation). 1. Wstęp Świat po raz pierwszy usłyszał o ropie naftowej za sprawą polskiego farmaceuty Ignacego Łukasiewicza, który w 1852 roku przeprowadził pierwszą destylację ropy naftowej. Rok później powstała lampa naftowa, a dwa lata później pierwsza na świecie kopalnia ropy. Nikt wówczas nie przypuszczał, że wkrótce ta czarna substancja warunkować będzie rozwój gospodarki światowej oraz stanowić źródło konfliktów zbrojnych. To za jej sprawą wybuchać będą kryzysy energetyczne, polityczne, upadać rządy, a uwaga całego świata skupiona będzie na jej cenach. Od połowy lat siedemdziesiątych każdemu gwałtownemu i długotrwałemu wzrostowi cen ropy towarzyszyły prognozy zapowiadające nieuchronne wyczerpanie się jej złóż oraz groźbę globalnego kryzysu. Pod koniec ubiegłego stulecia tania ropa sprawiła, iż wizja kryzysu – wprawdzie na chwilę – stała się bardzo odległa. Jednak ko1 Mgr Agnieszka Mojsa jest doktorantką na Wydziale Ekonomii i Zarządzania Uniwersytetu w Białymstoku. 100 Agnieszka Mojsa lejne jej zwyżki na początku XXI wieku sprawiły, że problem surowcowy powrócił. Zdarzenia te uświadomiły wówczas rządom i społeczeństwom ogromną zależność od ropy, wymuszając jednocześnie wprowadzenie bardziej energooszczędnych technologii. Pokazały one również, że ceny ropy naftowej zależą od kilku nakładających się na siebie czynników zarówno o charakterze rynkowym (popyt – podaż), jak i pozarynkowym, tj. sytuacja polityczna u głównych dostawców czy prognozy zimowej pogody. Celem artykułu jest przedstawienie zmian cen ropy naftowej w latach 1973 – 2007 wraz z ich konsekwencjami dla gospodarki światowej, jak również czynników i zdarzeń, które wpływały na te ceny. 2. Międzynarodowe rynki ropy naftowej Ropą naftową handluje się praktycznie na całym świecie. Ukształtowały się jednak trzy główne ośrodki obrotu: giełdy w Londynie, Nowym Jorku i Singapurze. Wyróżnia się tam dwa rodzaje transakcji: z dostawą natychmiastową – spot oraz terminowe – gdy dostawa następuje w kolejnych miesiącach [Rynek… 2005]. Ponieważ na świecie znanych jest około 1500 odmian ropy, kupujący i sprzedawcy wybrali kilka rodzajów, których ceny stanowią punkt odniesienia dla pozostałych. Ustala się je uwzględniając dyskonto bądź premię w zależności od jakości danego rodzaju. Za taką wzorcową odmianę na świecie uważa się ropę brytyjską „Brent”, wydobywaną z dna Morza Północnego. Podobnie w rejonie Zatoki Perskiej wyznacznikiem cen dla ropy eksportowanej do Azji jest ropa „Dubai”, z kolei w USA ropa „West Texas Intermediate” [Rynek… 2005 s. 1]. Decydujący wpływ na poziom cen ropy naftowej na światowych rynkach mają producenci tworzący organizację eksporterów ropy – OPEC, tj.: Algieria, Iran, Irak, Kuwejt, Libia, Nigeria, Katar, Arabia Saudyjska, Zjednoczone Emiraty Arabskie, Indonezja i Wenezuela. Kraje te produkują obecnie około 40% ropy na świecie i posiadają około 77% światowych zasobów tego surowca (rysunek 1.). Państwa zrzeszone w OPEC wyznaczają kwoty wydobycia i za pomocą kontrolowanej sprzedaży wpływają na ceny na rynkach światowych. Fakt, na ile kraje członkowskie poddają się tej dyscyplinie, powoduje większe lub mniejsze perturbacje na tych rynkach [Lorenz, Grudziński 2001 s. 172]. Do „koszyka” OPEC wchodzi siedem gatunków ropy. Sześć z nich wydobywana jest w państwach członkowskich, tj.: algierska „Saharan Blend”, indonezyjska „Minas”, nigeryjska „Bonny Light”, arabska lekka ( z Arabii Saudyjskiej) „Dubai Fateh”, wenezuelska „Tia Juana Light”; siódma – „Isthmus – pochodzi z Meksyku [Oil markets… b.r.w.]. Ceny z tego koszyka służą do monitorowania sytuacji cen na rynkach oraz wpływają na mechanizm tworzenia „pasma cen”. Mechanizm ten polega na korekcie wielkości produkcji, w sytuacji gdy ceny sprzedaży przekraczają wyznaczone pasmo cen: minimalnej i maksymalnej. Korekta ta wynosi 500 mln baryłek dziennie: o tyle zwiększa się wydobycie, jeśli cena sprzedaży przekracza górną wy- Fluktuacje cen ropy naftowej i ich wpływ na gospodarkę światową 101 znaczoną wartość przez 20 dni i o tyle zmniejsza – jeśli przez 10 dni handlowych utrzymuje się cena niższa niż dolna wartość [Lorenz, Grudziński 2001 s. 172]. Ceny ropy, produkowanej w krajach nie należących do OPEC, również w istotny sposób wpływają na sytuację rynkową. Do takich należą przede wszystkim amerykańska „West Texas Intermediare”(WTI) oraz brytyjska „Brent”, na których podstawie wyznaczana jest cena wzorcowa ropy. Ropa WTI jest notowana na giełdzie nowojorskiej NYMEX, natomiast Brent – na londyńskiej giełdzie naftowej IPE (International Petroleum Exchange); oba te gatunki są oczywiście sprzedawane na rynkach spot [Lorenz, Grudziński 2001 s. 172]. W praktyce jednak różnice w cenie pomiędzy ropą Brent, WTI oraz koszykiem OPEC są do siebie zbliżone i ściśle ze sobą powiązane [Kaczmarek, Jarosz 2006 s. 120]. RYSUNEK 1. Główni producenci ropy naftowej Źródło: Enegry International Administration. Z uwagi na fakt, że ropa naftowa jest towarem notowanym na giełdzie, a jej obroty osiągają największe rozmiary, reakcja na wszelkie wahania podażowo-popytowe na świecie jest szybka i taka sama na wszystkich rynkach. Dlatego też jej cena stała się w ciągu minionych czterdziestu lat głównym narzędziem polityki międzynarodowej. 102 Agnieszka Mojsa 3. Ceny ropy naftowej W latach 60-tych i 70-tych ubiegłego wieku eksport ropy naftowej realizowany przez państwa OPEC stanowił ponad 85% światowego exportu. Jesienią 1973 roku wybuchła, trwająca 30 dni, wojna na Bliskim Wschodzie. Arabskie kraje eksportujące ropę zastosowały wtedy embargo naftowe w stosunku do Holandii i USA oraz jednocześnie podjęły decyzję o radykalnym ograniczeniu wydobycia. Swoista wojna polityczno-gospodarcza wywołała (wprawdzie przejściowo) częściowy spadek tempa rozwoju gospodarki światowej [Soliński 2004 s. 3]. Od 1966 roku aż po rok 1973 gospodarka światowa rozwijała się w tempie wynoszącym prawie dokładnie 5% rocznie [Brown 1982 s. 205]. Możliwe to było dzięki min. bardzo niskim cenom ropy – baryłka surowej ropy kosztowała bowiem od 1949 do 1970 roku 1,9 $. Gwałtowny wzrost jej cen, jaki miał miejsce w 1973 roku, do poziomu 3 $ i na początku 1974 roku aż do 11 $ [Dakowski, Wiąckowski 2005 s. 8], przyczynił się do spadku tempa wzrostu gospodarki światowej do mniej niż 2% w 1974 roku i mniej niż 1% w roku 1975 [Brown 1982 s. 205]. Kraje „Trzeciego Świata” i – powstałego przez to – „Czwartego Świata” wpadły wówczas w kryzysy gospodarcze i musiały zamrozić budowane już inwestycje przemysłowe, tracąc tym samym szansę na rozwój [Dakowski, Wiąckowski 2005 s. 8]. Podniesienie cen ropy i jej niedobór spowodowały chaos w dziedzinie cen produktów naftowych. Jeszcze pod koniec 1974 roku, kiedy uważano, że sytuacja jest prawie unormowana, ceny produktów i półproduktów petrochemicznych ciągle były nieustabilizowane. Ocenia się, że podwyżka cen ropy arabskiej obciążyła w tym czasie bilans płatniczy importujących ropę krajów w Ameryce, Europie i Azji. Budżet Europy Zachodniej zamknął się deficytem 25 mld $ w 1974 roku i 55 mld $ rok później. Podskoczyło gwałtownie tempo inflacji, wahające się od 7,3% w RFN do 43,8% w Islandii. Dolar stracił 11% swojej wartości, a japoński jen aż 25,5%. Ograniczenia dostaw materiałów pędnych, zaskakując świat, wywołały reakcję łańcuchową kolejnych trudności. Cios bowiem został wymierzony nie tylko w transport. Koniecznością było poważne zmniejszenie dostaw benzyny dla przemysłu chemicznego i wielu innych branż produkcyjnych. Wysoko rozwinięta gospodarka krajów na Zachodzie i Japonii zakładała niezbędny wzrost zapotrzebowania na ropę o 100% w ciągu 10 lat, tymczasem dostawy, poczynając od 1974 roku, zmalały przeciętnie o 20%. Kryzys naftowy dotknął nie tylko rządy i przedsiębiorstwa przemysłowe, ale również każdego mieszkańca. Nastąpiły ograniczenia w zużyciu energii elektrycznej, dotkliwie dał się odczuć brak różnego rodzaju surowców, półfabrykatów i produktów chemicznych. W rezultacie wzrosły koszty ogrzewania mieszkań oraz ceny na surowce i artykuły przemysłowe. Rok 1974 był najcięższy, zarysowało się wówczas widmo nieopanowanego wyścigu cen, inflacji i bezrobocia. Zaczęto ograniczać czas pracy fabryk – w Anglii ustanowiono 3-dniowy tydzień pracy, przez co ponad milion ludzi zostało pozbawionych źródła utrzymania [Zonik 1978 s. 231 – 235]. Część państw postanowiła racjonować paliwo – np. w USA kierowcy pojazdów z nieparzystymi numerami rejestracyjnymi mogli kupować benzynę i olej napędowy w poniedziałki, środy i piątki, a z parzystymi we wtorki, czwartki i soboty [Kaczmarek, Jarosz 2006 s. 120]. Tak więc w latach 1973 – 1975 sytuacja zmieniła się wyraź- Fluktuacje cen ropy naftowej i ich wpływ na gospodarkę światową 103 nie: Europie Zachodniej i Japonii zagroził kryzys; wystąpiło zjawisko stagnacji produkcji, a nawet recesji. Poważnie wzrosły koszty utrzymania i znacznie spadły dochody ludności. Oczywiście najbardziej dał się odczuć kryzys motoryzacyjny. Producenci samochodów stanęli przed potężną łamigłówką: ograniczyć ilość wypuszczanych z taśmy montażowej aut, czy przejść błyskawicznie na małolitrażowe. Niektórzy, jak General Motors, zapowiedzieli zwolnienie dziesiątków tysięcy pracowników. Wprowadzone zostało na pewien czas racjonowanie materiałów pędnych i ograniczenie szybkości samochodów do 90 km/godz. W Szwecji obowiązywały kartki na benzynę, a w Holandii wolno było kupić zaledwie 15 litrów tygodniowo [Zonik 1978 s. 235 – 236]. Światowy kryzys energetyczny po raz drugi wybuchł w 1979 roku, gdy strajki w ogarniętym rewolucją Iranie doprowadziły do przerwania wydobycia ropy. Po ucieczce szacha z Iranu produkcję wznowiono, ale dostawy były ograniczone. Trudności na światowych rynkach paliwowych pogłębiły się w następnym roku po wybuchu wojny iracko-irańskiej. W rezultacie w 1980 roku cena 1 baryłki ropy naftowej wzrosła do ok. 39 $ – był to ponad 12-krotny wzrost w stosunku do cen z 1972 roku. Zjawiska te doprowadziły do ograniczenia produkcji przemysłowej, spirali inflacyjnej, wzrostu bezrobocia i ogólnego regresu ekonomicznego. Powstały trudności w pokryciu potrzeb energetycznych wielu krajów, stając się czynnikiem ograniczającym społecznoekonomiczny rozwój świata. Przeciwdziałając negatywnym skutkom kryzysu w wielu krajach, zwłaszcza uprzemysłowionych, podjęto wielokierunkowe działania i programy zmierzające do ograniczenia zużycia ropy naftowej i jej substytucji innymi paliwami – głównie węglem i energią jądrową. Podjęto również intensywne poszukiwania nowych złóż, zwłaszcza na Morzu Północnym i w Zatoce Meksykańskiej. Dzięki tym działaniom już w połowie lat osiemdziesiątych doszło do obniżenia i stabilizacji cen ropy naftowej, której ceny w 1986 roku spadły do ok 15 $ za baryłkę, co spowodowało również obniżenie cen gazu ziemnego oraz węgla. Efektem tych działań było: zmniejszenie w krajach uprzemysłowionych zużycia ropy naftowej w 1982 roku o ok. 20% w stosunku do poziomu z 1970 roku, ogólny wzrost efektywności użytkowania paliw i energii, oraz w rezultacie w 1986 roku zmniejszenie światowych cen ropy naftowej do poziomu sprzed II kryzysu energetycznego [Soliński 2004 s. 3 – 4 i 21]. Wojna Iraku z Iranem dobiegła końca w sierpniu 1988 roku, kiedy wyczerpane i wyniszczone strony zgodziły się na zawieszenie broni i rozmowy pokojowe. Cena ropy kształtowała się wówczas na poziomie ok. 19 $. Pokój w Zatoce trwał jednak bardzo krótko. Iracki dyktator Saddam Hussein był rozczarowany wynikiem wojny i stał w obliczu olbrzymiego, zakumulowanego długu wojennego, zaczął więc postrzegać Kuwejt – który odmawiał umorzenia długu zaciągniętego podczas wojny przez Bagdad na zakup broni – jako źródło swoich problemów [Klare 2006 s. 64]. Dodatkowo w marcu 1990 roku Kuwejt, wbrew decyzjom OPEC, zalał świat swą tanią ropą, co spowodowało spadek cen z 19 do 13 $ za baryłkę, ku niezadowoleniu innych członków OPEC, a szczególnie Saddama Husseina [Dakowski, Wiąckowski 2005 s. 9]. Kiedy Irackie czołgi wjechały do stolicy Kuwejtu, Stany Zjednoczone powołując się 104 Agnieszka Mojsa na Doktrynę Cartera2 rozmieściły w rejonie Zatoki ponad sto amerykańskich samolotów [Klare 2006 s. 60 – 61]. W wyniku tego kryzysu światowe rynki zostały pozbawione około 4 milionów baryłek ropy dziennie, które wcześniej dostarczały Kuwejt i Irak. Arabia Saudyjska natychmiast zareagowała podniesieniem poziomu produkcji, a tym samym zapobiegła sytuacji, która mogłaby wywołać bardzo negatywne skutki dla świata [Materiały…]. Ceny ropy spadły wówczas z 36 $/baryłkę w drugiej połowie 1990 roku, do 18 – 20 $/baryłkę w 1991 roku [Muszkiet 1997 s. 233]. Tymczasem światowe zużycie ropy naftowej zmniejszyło się w 1993 roku o 0,2%, co oznaczało załamanie utrzymującej się od połowy lat osiemdziesiątych tendencji wzrostu zapotrzebowania [Gospodarka Świata… 1994 s. 40]. Światowa gospodarka zmagała się bowiem z recesją. Wzrost gospodarczy większości krajów OECD wyniósł w 1992 roku od 1 do 1,5%. Stany Zjednoczone nadal miały problemy z wysokim zadłużeniem podmiotów gospodarczych z drugiej połowy lat osiemdziesiątych. Dwie inne dotychczasowe „lokomotywy” wzrostu gospodarki światowej Japonia i RFN również przechodziły fazę silnej recesji wzrostu. Japonia, po wielkiej ekspansji inwestycyjnej i eksportowej swych największych koncernów w latach osiemdziesiątych, dążyła do konsolidacji swej obecnej pozycji, a nie do dalszego zwiększania inwestycji. Związany z tym spadek stopy inwestycji przyczynił się do spadku PKB z 4,5 – 5% w latach 1983 – 1990 do 1,8% w 1992 roku. Z kolei integracja gospodarki b. NRD z gospodarką RFN okazała się znacznie bardziej skomplikowana i kosztowna niż przewidywano. Ponadto, po niezwykle silnej ekspansji w latach 1987 – 1989 (około 10 – 12% rocznie), wolumen handlu światowego zwiększył się niewiele ponad 5% w 1990 roku i o 3,5% w 1991 roku. Zmniejszenie stopy wzrostu spowodowane było z jednej strony recesją i wolniejszym tempem wzrostu popytu na import w krajach wysoko rozwiniętych, z drugiej zaś strony – załamaniem handlu między krajami byłego RWPG [Polska w gospodarce światowej… 1993 s. 12 i 51]. W latach 1993 – 1998 ceny ropy naftowej na rynku międzynarodowym wahały się w stosunkowo nieznacznym stopniu, a w grudniu 1998 roku cena ropy spadła do poziomu 12,3 $/baryłkę (wykres 1.), [Soliński 2004 s. 23 – 24]. Zanotowano również, największy od lat 70-tych, 12%-owy spadek cen innych surowców. Jednostkowa wartość eksportu takich państw wschodnioazjatyckich, jak: Hong Kongu, Chin, Korei Południowej, Singapuru czy Tajwanu spadła wówczas od 3,6% do 17%. Wpływy państw OPEC z eksportu ropy naftowej skurczyły się o przeszło 50 miliardów dolarów, a łączny PKB wszystkich eksporterów ropy spadł o ponad 6%. W Ameryce Łacińskiej spadek cen eksportowych w 1998 roku przyniósł straty rzędu 10 miliardów dolarów z tytułu różnic kursowych; w krajach sub-saharyjskiej Afryki straty kursowe równały się prawie 2,5% PKB [United Nations Conference… 1999]. W tej sytuacji kraje zrzeszone w OPEC, dążąc do zwiększenia ceny, ograniczyły wydobycie o 4,3 mln baryłek dziennie [Soliński 2004 s. 23 – 24]. Niższe obroty w światowym handlu były bowiem w 90% efektem spadku cen ropy naftowej. Niskie ceny ropy 2 23 stycznia 1980 roku Prezydent Carter ogłosił podczas dorocznego przemówienia na temat stanu państwa, że dostęp do ropy z Zatoki Perskiej leży w żywotnym interesie państwa, dla którego ochrony Stany Zjednoczone są gotowe wykorzystać każde konieczne środki włącznie z siłami zbrojnymi [cyt. za: Klare 2006 s. 61]. Fluktuacje cen ropy naftowej i ich wpływ na gospodarkę światową 105 i innych surowców spowodowały, że po raz pierwszy od 50 lat udział podstawowych produktów w globalnym handlu nie przekroczył 20%. Skuteczną zaporą przed ogólnoświatową stagnacją, wywołaną masowym ograniczeniem importu przez kraje wschodnioazjatyckie, było wówczas bardzo szybkie tempo wzrostu gospodarczego w Stanach Zjednoczonych, dochodzące do około 4% rocznie przez ostatnie trzy lata [United Nations Conference… 1999 s. 1 – 4]. WYKRES 1. Ceny ropy naftowej w latach 1851 – 2006 Źródło: Enegry International Administration. Na spadku cen surowców i importowanych wyrobów przemysłowych, będących następstwem kryzysu azjatyckiego, skorzystały państwa rozwinięte. W 1998 roku państwa członkowskie OECD zaoszczędziły na imporcie tańszej ropy około 60 miliardów dolarów. Spadek cen aktywów i wzrost premii za ryzyko na światowych rynkach kapitałowych sprawił, że zainteresowanie inwestorów przeniosło się na bezpieczniejsze giełdy krajów uprzemysłowionych. Miało to pośredni wpływ na pobudzenie wzrostu poprzez zwiększenie wydatków na konsumpcję, co szczególnie widoczne było w Stanach Zjednoczonych, gdzie odnotowano boom konsumpcyjny pomiędzy II kwartałem 1997 roku i końcem 1998 roku, kiedy to konsumenci amerykańscy wydali dodatkowo 400 miliardów dolarów [United Nations Conference… 1999 s. 1 – 4]. Ograniczenie podaży ropy naftowej w 2000 roku, którego następstwem był wzrost cen ropy, doprowadziło do fali protestów w Izraelu, Francji, Hiszpanii, Wielkiej Brytanii i Holandii. Rząd brytyjski groził nawet użyciem siły, chcąc zatrzymać strajki. W czerwcu 2001 roku policja w Indonezji użyła gazu łzawiącego wobec tysięcy protestujących przeciwko wzrostowi cen paliw [Szczyt produkcji… 2007]. Ponadto, czynnikiem, który dodatkowo wpłynął na wzrost cen były ataki z 11 września. 106 Agnieszka Mojsa Kolejna zwyżka cen ropy miała miejsce na przełomie roku 2002/2003. Spowodowana była protestami pracowników branży naftowej w Wenezueli – przeciwko prezydentowi Hugo Chevezovi – które sprawiły, że kraj ten produkował o milion baryłek ropy dziennie mniej (normalnie produkuje 3,25 mln baryłek), a także wybuchem konfliktów na tle etnicznym w Nigerii. Potem nastąpiła amerykańska inwazja na Irak, która spowodowała kolejne ograniczenie o milion baryłek dziennie – do średnio 2 mln [Helman 2006 s. 48 – 49]. Przejęcie przez amerykańskie siły zbrojne kluczowych elementów infrastruktury naftowej Iraku wcale nie spowodowało zwiększenia dostaw ropy z tego kraju (na co zresztą liczyli amerykanie), a wręcz przeciwnie, znacznie je ograniczyło (od maja do grudnia 2003 roku dokonano aż 85 ataków sabotażu), [Klare 2006 s. 117]. Rok później za wstrząs na rynku naftowym odpowiedzialne były Chiny, gdzie zużycie wzrosło o blisko milion baryłek dziennie – do 7,4 mln baryłek [Helman 2006 s. 49]. Kraj ten wraz ze Stanami Zjednoczonymi przyczynił się do osiągnięcia najwyższego od 30 lat poziomu wzrostu gospodarczego na świecie do ok. 5% w 2004 roku. W odróżnieniu od kryzysów naftowych z lat 70-tych ówczesna zwyżka cen ropy nie była wywołana polityką państw wytwarzających ten surowiec, takich jak OPEC, lecz wynikała z niesłychanego wzrostu zapotrzebowania. Gospodarka światowa w 2004 roku spalała prawie 81 milionów baryłek ropy dziennie. Oznaczało to wzrost o blisko dwa miliony baryłek w stosunku do 2003 roku i był to największy wzrost zanotowany od prawie 16 lat [Świat zaciąga hamulec 2005 s. 24 – 25]. W roku 2005 za wzrostem cen ropy stał huragan Katrina (sierpień 2005), który zrujnował instalacje naftowe i platformy wiertnicze w Zatoce Meksykańskiej, oraz tocząca się wojna w Iraku [Raport… 2006]. Ponadto, wywołany głównie ogromnymi wydatkami wojennymi, znaczny deficyt budżetowy u największego konsumenta ropy, Stanów Zjednoczonych, sięgający 6,5% PKB wywołał gwałtowną (w stosunku do euro aż o ok. 60%.) deprecjację dolara, waluty, w której następują rozliczenia na petro rynku. Dolar stracił na wartości, a więc za jednostkę ropy naftowej (baryłkę) trzeba było zapłacić więcej. Dodatkowo, zwiększone zapotrzebowanie na ropę w Chinach i Indiach przyczyniło się do kolejnego skoku ceny ropy do poziomu 70 $ za baryłkę. Wydawało się wówczas, że rekordowa cena nie zostanie łatwo przekroczona [Fijor 2005 s. 5]. Jednak niepokoje wywołane groźbami nuklearnymi ze strony Iranu oraz eskalacja konfliktu na Bliskim Wschodzie (wojna Izraela z Hezbollahem) przyczyniły się do wzrostu ceny ropy do 75,65 $ za baryłkę na początku lipca 2006 roku [Raport… 2006 s. 1]. W roku 2007 obserwujemy dalszy ciąg tendencji zwyżkowej cen ropy. Porozumienie, podpisane na początku bieżącego roku w Caracas, między prezydentem Wenezueli Hugo Chavezem i Iranu Mahmudem Ahmadineżadem dotyczące walki z imperializmem USA; ataki rebeliantów na instalacje naftowe Royal Dutch Shell, które doprowadziły do spadku dostaw ropy z Nigerii o 500 tys. baryłek dziennie, co stanowiło 1/5 wydobycia [Wolski 2006], wybuch walk na tle etnicznym w Sudanie; i w końcu nieustanny spadek dolara, oraz zwiększający się popyt na paliwa grzewcze, związany z nadejściem zimy w USA i Europie, spowodowały wzrost ceny ropy w listopadzie br. do poziomu ponad 96 $ za baryłkę (wykres 2.). Mimo rekordowo wysokich cen ropy w ostatnich latach, popyt na ten surowiec stale rośnie, w tempie wynoszącym rocznie od 1,8 do 2% (wykres 3.). Oznacza to koniecz- Fluktuacje cen ropy naftowej i ich wpływ na gospodarkę światową 107 ność corocznego zwiększania produkcji o 1,5 miliona baryłek dziennie – czyli co 5 lat należałoby wprowadzić do eksploatacji złoża o wydajności pól naftowych Arabii Saudyjskiej lub co dwa lata o wydajności wydobycia Iranu czy Iraku [Arciuch 2004 s. 15]. Wprawdzie nowoczesne technologie pozwalają nam na wyeksploatowanie około 40% złoża – podczas gdy niegdyś opróżniano je jedynie w 20% – nie powstrzyma to jednak spadku produkcji [Wiercimy głębiej… 2006]. Według indeksu UCCI (Upstream Capital Cost Index) w ciągu zaledwie 2 ostatnich lat koszty, związane z poszukiwaniem nowych złóż i eksploatacją, wzrosły o 53%. Oznacza to, że pomimo historycznie wysokich cen tego surowca, przedsiębiorstwa z branży naftowej odnotowują coraz mniejsze zyski. Część wzrostu kosztów była reakcją na wysokie ceny ropy i gazu z lat poprzednich, spowodowane uruchomieniem nowych projektów, a tym samym wzrostem zapotrzebowania na platformy wiertnicze i inne urządzenia [Skokowy wzrost… 2007]. W dużej mierze jednak przyczyniła się do tego również światowa koniunktura napędzana rozwojem Chin. Import netto w Chinach, będących obecnie drugim pod względem wielkości konsumentem ropy (po USA), wzrósł od stycznia do maja 2007 roku o 11,5% do poziomu 65,8 mln ton [Import ropy… 2007]. WYKRES 2. Cena ropy Brent w listopadzie 2007 roku ($/b) Źródło: Energy International Administration. Międzynarodowa Agencja Energii oszacowała, że zwiększenie ceny baryłki ropy o 10 $ obniża tempo rozwoju światowego PKB o 0,5% w skali rocznej. Dla gospodarki amerykańskiej, rozwijającej się w tempie ponad 5% rocznie, 0,5% PKB to niewiele, ale dla francuskiej czy niemieckiej [Arciuch 2004 s. 15], gdzie stopa wzrostu w 2005 roku wyniosła odpowiednio – 1,5 i 0,9% [Robin 2006 s. 26], 0,5% to już zasadnicza różnica między stagnacją gospodarki a depresją. Jeszcze gorzej wygląda to w wypadku krajów rozwijających się, które nie dość, że nie mają pieniędzy, to jeszcze ich przemysł i infrastruktury są archaiczne i energochłonne. Na przykład, wspomniany już, wzrost ceny baryłki o 10 dolarów spowoduje spadek PKB Tajlandii o 2%, a krajów Afryki sub-saharyjskiej aż o 3%. Poza tym, nawet jeśli wzrost cen ropy sam w sobie ma ograniczony negatywny wpływ na go- 108 Agnieszka Mojsa spodarkę, to wygląda to całkiem inaczej, gdy towarzyszą mu inne niekorzystne zjawiska [Arciuch 2004 s. 11 – 13]. W efekcie wzrostu cen ropy drożeje wytwarzana z niej energia elektryczna, co powoduje także wzrost kosztów produkcji. Z kolei dla konsumentów wyższe ceny ropy oznaczają droższe paliwo na stacjach benzynowych, co prowadzi do pogorszenia ich nastrojów i skłania do ograniczenia innych zakupów [Majerkiewicz 2006]. Wzrost cen paliw i postępująca za nimi kaskada wzrostu cen innych towarów wywołuje inflację, zmuszając rządy i banki centralne do zaostrzenia polityki monetarnej, budżetowej i kredytowej. To zaś powoduje schłodzenie koniunktury i inwestycji. Z powodu wyższych kosztów produkcji i transportu maleją też rozmiary handlu międzynarodowego. Po osiągnięciu pewnego progu krytycznego oba te zjawiska mogą rodzić tak zwaną stagflację (stagnacja, której towarzyszy inflacja), znaną dobrze z lat 70-tych [Arciuch 2004 s. 11 – 13]. WYKRES 3. Popyt na ropę i cena ropy w latach 2002 – 2006 miliony baryłek dziennie cena 82,6 84,9 80 83,7 70 60 79,3 $ 77,8 50 40 30 2002 2003 2004 2005 2006 Źródło: www.peakoil.pl. Ceny ropy naftowej, podobnie jak i ceny innych surowców, ewoluują w cyklach od 25 do 30 lat. Według schematu, na początku cyklu pojawia się duży popyt na surowce, który wywołuje wzrost cen. W tym momencie opłacalne staje się inwestowanie w produkcję. Kiedy nowe inwestycje zostaną zakończone, zwiększa się podaż i następuje spadek cen trwający od 20 do 25 lat. Potem jest nowy skok cen i tak kolejno. Taki wzrost cen zanotowano w 1921 roku, tuż po zakończeniu pierwszej wojny światowej. Następnie w latach 30-tych ceny surowców poszybowały w dół. W latach 1948 – 1953 surowce znów gwałtownie podrożały, by następnie tanieć do końca lat 60-tych. Po kryzysie energetycznym z 1974 roku aż do końca XX wieku wyraźnie brakowało inwestycji. W 2002 roku nierównowagę pogłębiło nagłe wejście Chin Fluktuacje cen ropy naftowej i ich wpływ na gospodarkę światową 109 na rynek międzynarodowy. Wcześniej chiński rynek wewnętrzny w dużej części zaspokajał krajowe zapotrzebowanie [Chalmin 2005 s. 18 – 17]. W latach 2004 – 2007 obserwuje się ogólną zwyżkę cen ropy naftowej. Obecny wzrost cen powinien trwać zatem do momentu odtworzenia zdolności produkcyjnych. Jednak, z powodu wyczerpywania się złóż, już wkrótce może zabraknąć możliwości zwiększenia wydobycia. 4. Zakończenie Z analizy sytuacji na rynku ropy naftowej, dotyczącej ostatnich czterdziestu lat, jednoznacznie wynika, że handel ropą jest najbardziej upolitycznionym rynkiem na świecie. Wszelkie bowiem konflikty natury politycznej u głównych producentów tego surowca zawsze prowadziły do destabilizacji tego rynku. Obok czynników geopolitycznych, istotny wpływ na ceny ropy miały również: wysokie koszty (na skutek wyczerpywania się najtańszych w eksploatacji złóż wydobycie ropy staje się coraz kosztowniejsze i wymaga coraz większych nakładów) oraz niska elastyczność cenowa popytu i podaży (mimo rosnącego popytu i cen, podaż tego surowca jest niewystarczająca). International Energy Agency w opracowaniu World Energy Technology Outlook (WETO) przewiduje, że przy utrzymaniu dzisiejszego modelu rozwoju gospodarki światowej do 2030 roku popyt na ropę osiągnie 121 milionów baryłek dziennie, podczas gdy świat – wg geologa Ali Samsama Bakhtiaria – będzie w stanie produkować około 55 milionów, czyli o 32% mniej niż obecnie [Świat nie nadąża… 2006]. Oznacza to, że w ciągu kilku lat gospodarki będą musiały nauczyć się funkcjonować w oparciu o zaledwie połowę aktualnie dostępnej energii [Świat nie nadąża… 2006 s. 1], a ceny ropy nigdy już nie spadną do poziomu sprzed 20 lat. Niestety, wiele państw zdaje się nie dostrzegać tego problemu i zamiast poszukiwać nowych alternatywnych źródeł energii, poszukuje nowych złóż ropy bądź technologii umożliwiających głębszą eksploatację złoża. Dlatego też, nim nie zostanie odkryte nowe źródło energii na miarę ropy naftowej, znaczenie tego surowca, a zatem i jego cena, będą wzrastać w miarę spadku jego podaży. Literatura Arciuch A. 2004 Ropa rządzi światem, „Nowe Państwo”, nr 7. Brown L.R. 1982 Jutro może być za późno, Warszawa. Chalmin P. 2005 Już dziś ucz się chińskiego, „Forum”, nr 25. Dakowski M., Wiąckowski S. 2005 O energetyce – dla użytkowników oraz sceptyków, Warszawa. Energy Information Administration (EIA), http://eia.doe.gov/international. Fijor J.M. 2005 Co z tą ropą, „Nesweek”, nr 175. Glikman P. 1997 Ciągłość i transformacja gospodarki, Warszawa. Gospodarka Świata i Polski w 1993 i 1994 roku 1994, Warszawa. Helman Ch. 2006 Naprawdę tania ropa, „Forbes”, nr 11. 110 Agnieszka Mojsa Import ropy w Chinach mocno w górę 2007, Peak Oil, www.peakoil.pl. Kaczmarek T.T., Jarosz R. 2006 Czy ropa rządzi światem?, Bydgoszcz – Warszawa. Klare M.T. 2006 Krew i nafta. Niebezpieczeństwa i konsekwencje rosnącej zależności Ameryki od importowanej ropy naftowej, Warszawa. Lorenz U., Grudziński Z. 2001 Pozarynkowe czynniki wpływające na ceny surowców energetycznych, w: Zagadnienia surowców energetycznych w gospodarce krajowej, Kraków. Majerkiewicz W. 2006 To dopiero był szok, Portal NBP. Malinowski D. 2006 Benzyna może w końcu potanieje, „Gazeta Wyborcza”. Materiały z ambasady Arabii Saudyjskiej w Warszawie. Muszkiet T. 1997 Potencjał energetyczny Polski i jego wykorzystanie, w: Ciągłość i transformacja gospodarki, red. P. Glikman, Warszawa. Oil markets explained, http://news.bbc.co.uk. Polska w gospodarce światowej w 1992 i 1993 roku 1993, red. J. Kotyński, Warszawa. Raport: Podrożeją paliwa na polskich stacjach 2006, Polski Portal Finansowy, www.bankier.pl. Robin J.P. 2006 Euro tylko dla orłów, „Forum”, nr 16. Rynek wielkich obrotów 2005 Portal Edukacyjny NBP, www.nbpportal.pl. Skokowy wzrost kosztów w przemyśle naftowym 2007, Peak Oil, www.peakoil.pl. Soliński J. 2004 Sektor energii – świat i Polska, Warszawa. Świat zaciąga hamulec 2005, „Forum”, nr 4. Świat nie nadąża za rosnącym popytem 2006, Peak Oil, www.peakoil.pl. Szczyt produkcji ropy naftowej 2007, Peak Oil, www.peakoil.pl. Tekieli S. 2007 Dość biadolenia nad ropą, Polskie Radio. United Nations Conference on Trade and Development, Nie ma powodów do radości (Raport z 27 września 1999). Wiercimy głębiej, dalej, więcej 2006, Peak Oil, www.peakoil.pl. Wolski A. 2006 To jeszcze nie koniec, Portal Gazety Ubezpieczeniowej, www.gu.com.pl. Zonik Z. 1978 Siedem pająków, Warszawa. OPTIMUM – STUDIA EKONOMICZNE NR 1 (38) 2008 Jarosław POTERAJ 1 SYSTEMY EMERYTALNE W EUROPIE – AUSTRIA Streszczenie Artykuł o systemie emerytalnym Austrii, poza wstępem, zawiera cztery części: 1. Ogólna informacja o kraju, 2. Ewolucja systemu emerytalnego, 3. Stan obecny systemu emerytalnego oraz 4. Wyzwania i przewidywane zmiany w systemie emerytalnym. Celem badawczym autora jest prezentacja historycznych i aktualnych rozwiązań w systemie emerytalnym Austrii, w celu odnalezienia w tym systemie pomysłów, które w międzynarodowych porównaniach warto wykorzystywać. W podsumowaniu autor wskazuje elementy wyróżniające austriacki system emerytalny na tle innych państw: 1. Finansowanie składek emerytalnych osób opiekujących się małymi dziećmi przez budżet, 2. Zamierzone zrównanie wieku emerytalnego mężczyzn i kobiet i 3. Uelastycznienie czasu przejścia na emeryturę w przedziale wiekowym 62 – 68 lat. PENSION SYSTEMS IN EUROPE – AUSTRIA Summary The article presents an insight into the old age pension system in Austria. The introduction is followed by four topic paragraphs: 1. general information about the country, 2. the evolution of its pension system, 3. the present situation, and 4. challenges and foreseen changes. There, the author’s goal was to present both past and present solutions employed by the Austrian pension system, in search for ideas worth consideration in international comparisons. In the summary, the author highlights as a particular Austrian approach, against a background of other countries: 1. financing of the pension contribution for people who take care of young children, by public budget, 2. intended equalization of retirement age for men and women, and 3. flexible time of retirement between 62 and 68 years of age. 1. Wstęp W perspektywie historycznej myślenie o własnej przyszłości, w okresie, kiedy nie można będzie zarabiać pieniędzy ze względu na zaawansowany wiek, prawie do końca XIX wieku na całym świecie realizowało się na zasadach tzw. naturalnego systemu emerytalnego. Oznaczał on utrzymywanie ludzi starych, w okresie braku aktywności zarobkowej spowodowanej wiekiem, przez ich dzieci. Pierwszą zmianą w tym zakresie było rozwiązanie wprowadzone na ziemiach niemieckich w roku 1 Dr Jarosław Poteraj jest pracownikiem Państwowej Wyższej Szkoły Informatyki i Przedsiębiorczości w Łomży. 112 Jarosław Poteraj 1889, kiedy to kanclerz Otton von Bismarck przeforsował projekt państwowego systemu emerytalnego, w którym występowała składka emerytalna oraz określono wiek emerytalny na 70 lat [Pension Reform and the Development of Pension Systems. An Evaluation of World Bank Assistance 2006 s. 62]. W roku 1913 wiek ten obniżono na 65 lat. Rozwiązanie wprowadzone przez Bismarcka było wzorem dla większości krajów europejskich, a w dalszej perspektywie czasowej także pozaeuropejskich, w zakresie wdrażania systemów emerytalnych. W systemie tym, określanym anglojęzycznym sformułowaniem pay-as-you-go, opłacający składki finansują wypłacanie emerytur beneficjentom systemu. Dopiero w latach 40. XX wieku pojawiła się znacząca modyfikacja składkowego systemu Bismarcka w postaci ogłoszonych w Wielkiej Brytanii zasad Beveridge’a2. W rozwiązaniu brytyjskim emerytura potraktowana została jako element należnego każdemu obywatelowi pakietu świadczeń socjalnych. Nie potrzeba więc było opłacać składek, ażeby uzyskać prawo do świadczenia emerytalnego, a lokalna społeczność miała oceniać komu i w jakiej wysokości emeryturę wypłacać. System ten, finansowany z powszechnych podatków, znalazł szczególne uznanie, poza Wielką Brytanią, w krajach skandynawskich. Kolejną, znaczącą propozycją systemową było rozwiązanie zaproponowane przez Miltona Friedmana i wdrożone przez Jose Pinera w Chile w roku 1980, bazujące na powiązaniu zarządzania środkami gromadzonymi na emerytury z rynkami kapitałowymi [Kołodziejczyk 2004 s. 60 – 61]. Sukces rozwiązania wprowadzonego w Chile za rządów Pinocheta był podstawą do zainteresowania się szerokiej społeczności międzynarodowej tym systemem, szczególnie w perspektywie niewydolności dotychczasowych rozwiązań emerytalnych, obarczonych efektem niekorzystnych zmian demograficznych. W roku 1994 Bank Światowy [Averting the Old Age Crisis 1994] zaproponował i rozpoczął promocję rozwiązania wielofilarowego, składającego się z trzech filarów – 1. obowiązkowego, działającego na zasadach pay-as-you-go, ale z indywidualną ewidencją składek, 2. obowiązkowego lub dobrowolnego, powiązanego z rynkami kapitałowymi i 3. dobrowolnego, uzupełniającego, także powiązanego z lokowaniem środków na rynkach kapitałowych. W latach 90. XX wieku oraz na początku wieku XXI rozwiązania, bazujące na trzech filarach, wprowadzono w wielu krajach Ameryki Południowej, Karaibów i Europy; w Europie najwcześniej na Węgrzech, w Szwecji i w Polsce. Niniejszy artykuł inicjuje, zamierzoną przez autora, serię publikacji o systemach emerytalnych, funkcjonujących w wybranych państwach europejskich3. Globalizacja, rozwój komunikacji oraz telekomunikacji, rozwiązania informatyczne i swoboda terytorialnego przemieszczania się w europejskiej przestrzeni powodują coraz większe zainteresowanie możliwościami zarabiania pieniędzy w innych krajach niż kraj 2 Zasady te sformułował brytyjski ekonomista i reformator spraw społecznych William Henry Beveridge, który swoje poglądy przedstawił w roku 1942, w tzw. raporcie Beveridge’a pod właściwym tytułem: Social Insurance and Allied Services. Więcej na ten temat czytelnik znajdzie w książce Jakuba Wiśniewskiego [Wiśniewski 2005]. 3 Zamiarem autora jest przedstawienie systemów emerytalnych, funkcjonujących w co najmniej 26 krajach, należących w dniu 1 stycznia 2007 roku do Unii Europejskiej (poza Polską). Możliwe jest także rozszerzenie terytorialne zamierzonego cyklu o prezentacje systemów emerytalnych w innych krajach europejskich. Systemy emerytalne w Europie – Austria 113 urodzenia. To z kolei może być związane z uczestniczeniem w systemach emerytalnych obcych państw. Systemy te podlegają ciągłym zmianom, wynikającym przede wszystkim z przyczyn demograficznych, ale także ekonomicznych. Dominująca współcześnie na mapie Europy Unia Europejska przewiduje funkcjonowanie w zakresie emerytur metody otwartej koordynacji, a zatem nie narzuca w tym obszarze jedynie słusznego rozwiązania. W państwach, które nie przystąpiły do tejże unii, rozwiązania emerytalne jeszcze bardziej nacechowane są indywidualizacją. Stąd duża różnorodność tych systemów i niewielka o nich wiedza, nawet w kręgach specjalistów. Zamierzone przez autora publikacje powinny tę wiedzę wzbogacić i być przyczynkiem do dyskusji, prowadzącej do wyboru najlepszych rozwiązań systemowych. Celem badawczym autora jest zatem prezentacja historycznych i aktualnych rozwiązań w celu odnalezienia w tak różnorodnych systemach pomysłów, które w benchmarking’owych porównaniach warto wykorzystywać. Każdy z artykułów prezentowany będzie w układzie: 1. Ogólna informacja o kraju, 2. Rozwój historyczny systemu emerytalnego, 3. Stan obecny systemu emerytalnego oraz 4. Wyzwania i przewidywane zmiany w systemie emerytalnym. 2. Ogólna informacja o kraju Republika Austrii (niem. die Republik Österreich) jest republiką związkową (federalną), położoną w środku Europy [Wielka Encyklopedia PWN 2001 t. 2 s. 502 i dalsze], bez dostępu do morza, składającą się z 9 krajów związkowych (Bundesländer), 15 okręgów miejskich i 84 wiejskich oraz 2.359 gmin. Jednostką monetarną jest euro. Językiem urzędowym ogólnokrajowym jest język niemiecki. Ponadto słoweński jest oficjalnym językiem w Karyntii, a chorwacki i węgierski w Burgenlandzie. W lipcu 2006 roku Austrię zamieszkiwało 8.192.880 osób4 z następującą strukturą wiekową: 0 – 14 lat – 15,4%, 15 – 64 lat – 67,5%, 65 lat i więcej – 17,1%. Przeciętna długość życia wynosiła ogółem 79,07 lat, w tym mężczyzn – 76,17 lat, a kobiet – 82,11 lat. Największą grupą etniczną byli Austriacy, stanowiący 91,1% populacji. Prawie 3/4 populacji, bo 73,6% mieszkańców, stanowili rzymskokatolicy. Zgodnie z konstytucją z roku 1920 (nowelizowaną w 1929 i 1945), na czele państwa stoi prezydent (od 8 lipca 2004 – Heinz FISCHER), a rządem kieruje kanclerz (od 11 stycznia 2007 – Alfred GUSENBAUER). Największe partie polityczne to: Bündnis Zukunft Österreich (BZÖ), Die Österreische Volkspartei (ÖVP), Freiheitliche Partei Österreichs (FPÖ), Sozialdemokratische Partei Österreichs (SPÖ) oraz Die Grünen. Duże znaczenie mają także takie organizacje, jak: związek zawodowy Österreichische Gewerkschaftsbund (ÖGB), organizacja gospodarcza Die Wirtschaftskammer Österreich (WKÖ), organizacja pracodawców Vereinigung der Österreichischen Industrie (VÖI lub IV) oraz Kościół Katolicki zorganizowany w Katholischen Aktion. Produkt krajowy brutto (PKB) na jednego mieszkańca w roku 2006 szacowany był na poziomie 34.100 USD, a stopa wzrostu PKB 4 https://www.cia.gov/cia/publications/factbook/geos/au.html, dostęp 2007-01-22. 114 Jarosław Poteraj na poziomie 3,2%. Stopa bezrobocia wyniosła 4,9%. Dług publiczny stanowił 63% PKB. Bilans płatniczy zamknął się w roku 2006 nadwyżką 5,913 mld USD. Teren obecnej Austrii5 był w przeszłości centrum Cesarstwa Austro-Węgierskiego, które po klęsce w I wojnie światowej zostało zredukowane do rozmiaru małej republiki. W roku 1918 Tymczasowe Zgromadzenie Narodowe ogłosiło powstanie Republiki Niemiecko-Austriackiej (Republik Deutscheösterreich). Traktat pokojowy w Saint-Germain-en-Laye z roku 1919 potwierdził rozpad monarchii austro-węgierskiej, utratę przez Austrię ziem słowiańskich, ograniczał liczebność armii do 30 tysięcy, nakładał na Austrię odszkodowania wojenne, zabronił połączenia Austrii z Niemcami i zmusił do zmiany nazwy na Republika Austrii (Republik Österreich). W roku 1938 miała miejsce aneksja Austrii przez hitlerowskie Niemcy. Po zwycięstwie aliantów w roku 1945 status Austrii pozostawał niejasny przez całą dekadę – podobnie jak w Niemczech funkcjonowały cztery strefy okupacyjne, a rada sojusznicza sprawowała kontrolę nad rządem. W roku 1948 Austria przystąpiła do Planu Marshalla. Dopiero w roku 1955, podpisaniem Traktatu Państwowego, Austria określiła się wieczyście neutralną, a wojska okupacyjne zostały wycofane. W tym samym roku Austria wstąpiła do Organizacji Narodów Zjednoczonych. W roku 1995 Austria stała się członkiem Unii Europejskiej, a w roku 1999 przystąpiła do Unii Gospodarczej i Walutowej, zamieniając austriackie szylingi na euro. 3. Ewolucja systemu emerytalnego w Austrii W roku 1887 robotnicy uzyskali prawo do świadczenia z tytułu niezdolności do pracy na skutek wypadku, wypłacanego także w wieku określanym współcześnie jako emerytalny, rozszerzone w roku 1888 o ubezpieczenie zdrowotne6. W roku 1906 pojawił się na ziemiach obecnej Austrii pierwszy system zabezpieczenia środków na starość, który obejmował wybrane grupy pracowników umysłowych [Kawiński 2004 s. 29 i dalsze]. Uczestnikami systemu byli pracownicy najemni, którzy ukończyli 18 lat i zarabiali przynajmniej 600 koron. System ten został wdrożony w życie w roku 1909 [Social Security Programs Throughout the World: Europe 2006 2006 s. 36]. W roku 1914 wyznaczono wiek uprawniający do renty starczej na poziomie 65 lat dla kobiet i 70 lat dla mężczyzn. W roku 1920 zostało wprowadzone ubezpieczenie od bezrobocia [Social Security Programs Throughout the World: Europe 2006 2006 s. 40]. W roku 1926 miało miejsce rozszerzenie kręgu osób, objętych systemem emerytalnym, na wszystkich pracowników umysłowych oraz obniżenie wieku emerytalnego o pięć lat, czyli do poziomu 60 lat dla kobiet i 65 lat dla mężczyzn. Po aneksji Austrii przez Niemcy w 1938 roku wprowadzono ustawodawstwo niemieckie, które z początkiem roku 1939 rozszerzyło dotychczasowy krąg osób objętych systemem emerytalnym o robotników, a ubezpieczenie pracowników umysłowych rozszerzyło o prawo do 5 https://www.cia.gov/cia/publications/factbook/geos/au.html, dostęp 2007-01-22 oraz [Wielka Encyklopedia PWN 2001 t. 2 s. 512 – 513]. 6 Regulacje te weszły w życie od roku 1889 [Social Security Programs Throughout the World: Europe 2006 2006 s. 38]. Systemy emerytalne w Europie – Austria 115 wcześniejszej emerytury z tytułu niezdolności do pracy. W roku 1948 wprowadzono prawo dotyczące dodatków rodzinnych [Social Security Programs Throughout the World: Europe 2006 2006 s. 41]. Kolejna zmiana systemowa miała miejsce w roku 1956, kiedy to weszła w życie ogólna ustawa o ubezpieczeniu społecznym7, scalająca zasady dotyczące pracowników umysłowych i robotników. W roku 1956 składka emerytalna od pracowników najemnych wynosiła 10% [Felderer, Koman, Schuh 2006 s. 520]. W roku 1958 robotnicy uzyskali prawo do wcześniejszej emerytury z powodu bezrobocia, podstawowym zabezpieczeniem emerytalnym objęci zostali samodzielnie zarobkujący w przemyśle, a w latach 1958 – 1969 – rolnicy [Kawiński 2004 s. 30]. W latach 1961 – 1966 pracowników umysłowych oraz robotników objęto prawem do wcześniejszej emerytury z tytułu stażu pracy. W roku 1973 podobne uprawnienie uzyskali samodzielnie zarobkujący w przemyśle, a w roku 1977 rolnicy. Na podstawie regulacji prawnych z roku 1978 [Social Security Programs Throughout the World: Europe, 2006 2006 s. 36] w roku 1979 osoby samozatrudniające się8 i rolnicy9 zostali objęci podstawowym zabezpieczeniem emerytalnym; przedstawiciele wolnych zawodów zostali objęci podstawowym zabezpieczeniem emerytalnym oraz prawem do wcześniejszej emerytury z tytułu stażu pracy10. Od roku 1985 system pracowniczy oraz system urzędników państwowych zunifikowały bazę do obliczania wysokości emerytury na poziomie 18 najlepiej wynagradzanych lat [Schludi 2005 s. 166]. W roku 1986 prawo do wcześniejszej emerytury z powodu bezrobocia rozszerzono na samodzielnie zarobkujących w przemyśle, rolników i przedstawicieli wolnych zawodów. W późnych latach osiemdziesiątych XX wieku [Schludi 2005 s. 165 i następne] możliwe było odejście na emeryturę w wieku 55 lat dla kobiet i 60 lat dla mężczyzn. Standardowa emerytura stanowiła 79,5% ostatnio otrzymywanego wynagrodzenia i wypłacana była po 45 latach składkowych. Składki emerytalne pracowników najemnych wynosiły 22,70% wynagrodzenia brutto, z czego 10,25% płacili pracownicy, a 12,45% pracodawcy. W roku 1992 zdecydowano o podwyższaniu od roku 2024 do 2033 wieku emerytalnego dla kobiet do poziomu 65 lat. W roku 1993 wprowadzono zasadę indeksowania emerytur w stosunku do wynagrodzeń netto, zamiast brutto [Schludi 2005 s. 167]. Rządowe propozycje zmian w systemie emerytalnym spotkały się z ostrym oporem społecznym, który unaocznił się 22,5% poparciem w wyborach roku 1994 dla, stojącej w czołówce oponentów proponowanych zmian, partii FPÖ Jörg’a Haider’a [Schludi 2005 s. 169]. W roku 1995 udało się jednak rządowi podnieść wymagany minimalny okres składkowy przy przejściu na wcześniejszą emeryturę z 35 lat do 37,5 roku [Schludi 2005 s. 171]. W czerwcu 1997 roku wprowadzono zmiany dotyczące: 1) wprowadzenia od roku 2012 rozszerzenia okresu branego pod uwagę przy określaniu wysokości emerytury z 15 lat do 20 lat, 2) obniżenia poziomu emerytur dla osób odchodzących na wcześniejszą emeryturę o 2% za rok, 3) zmiany okresu branego pod uwagę dla obliczania emerytury urzędników państwowych z ostatniego 7 Bundesgesetz vom 9. September 1955 über die Allgemeine Sozialversicherung (Allgemeines Sozialversicherungsgesetz – ASVG.), BGBl, Nr 189/1955, Ustawa ta została zmieniona w roku 2006. 8 Zmiany do ustawy wprowadzono w życie w roku 2005. 9 Zmiany do ustawy wprowadzono w życie w roku 2006. 10 Zmiany do ustawy wprowadzono w życie w roku 2005. 116 Jarosław Poteraj wynagrodzenia do średniego wynagrodzenia z ostatnich 15 lat oraz 4) wprowadzenia formuły redukującej wysokość emerytur państwowych o 2 – 3% [Schludi 2005 s. 175]. Od roku 1998 zabezpieczeniem emerytalnym objęte zostały praktycznie wszystkie osoby pracujące [Kawiński 2004 s. 30]. W latach 90. XX wieku wprowadzono także regulacje prawne, pozwalające funkcjonować na zasadach pełnej dobrowolności zakładowym funduszom emerytalnym [Report on the Austrian Pension Strategy 2005 2005 s. 11]. W roku 2000 wydatki na publiczny system emerytalny wyniosły 14,5% PKB, co było najwyższym udziałem we wszystkich krajach OECD [Holzmann 2006 s. 226]. Właśnie w 2000 roku nowy rząd11, mocno zorientowany na idee rynkowo-liberalne, zauważył problem z emeryturami i postawił sobie za cel doprowadzenie do zmian. Już w roku 2000 podwyższono o 1,5 roku wiek, umożliwiający przejście na wcześniejszą emeryturę – kobietom na 56,5 lat, a mężczyznom na 61,5 lat, dodatkowo wprowadzając zasadę obniżenia wartości emerytury o 3% za każdy rok wcześniejszego przejścia. Ponadto, podwyższono o 1,5 roku z 60 do 61,5 lat wiek przejścia na emeryturę urzędników państwowych oraz zmieniono zasady otrzymywania emerytur wdowich z przedziału 40 – 60% na przedział 0 – 60% wynagrodzenia zmarłego małżonka [Schludi 2005 s. 178]. 1 lipca 2002 roku parlament zaakceptował rządową propozycję zmian w zakresie wypłacania odpraw pracowniczych (Betriebliches Mitarbeitervorsorgegesetz), przeznaczając 1,5377% wynagrodzenia brutto na centralny fundusz (Mitarbeitervorsorgekasse MVK), co stanowiło zaczątek myślenia o systemie filarowym w austriackich emeryturach12. l stycznia 2003 roku z połączenia Urzędu Ubezpieczeń Emerytalnych dla Pracowników Umysłowych (Pensionsversischerungsanstalt der Angestellten) oraz Urzędu Ubezpieczeń Emerytalnych dla Robotników (Pensionsversischerungsanstalt der Arbeiter) powstał Zakład Ubezpieczeń Emerytalnych – (Pensionsversischerungsanstalt). Poważniejsze zmiany, dotyczące samych emerytur, przybrały postać aktów prawnych dopiero w latach 2003 – 2004. Najważniejsze elementy reformy roku 2003 to: 1) całkowite odejście od wcześniejszego przechodzenia na emeryturę od 2017 roku, 2) zmniejszenie od roku 2009 stopy naliczania emerytur za lata składkowe od wartości bazy odniesienia z 2,00% do 1,78% za każdy rok składkowy13 oraz 3) stopniowe wydłużanie okresu bazowego do naliczania emerytur z 15 lat do 40 lat w roku 2028 [Felderer, Koman, Schuh 2006 s. 525], jednak za każde urodzone dziecko okres ten zmniejszany miał być o 3 lata [Schludi 2005 s. 188]. Ponadto, wprowadzono zwiększoną wartość nagrody lub kary za późniejsze i odpowiednio wcześniejsze przechodzenie na emeryturę z dotychczasowej wartości 3,0% za każdy rok późniejszego lub wcześniejszego przejścia do poziomu 4,2% [Report on the Austrian Pension Strategy 2005 2005 s. 12]. Przed reformą roku 2004, w przypadku pracowników najemnych, składka stanowiła 22,8% wynagrodzenia, z czego 10,25% było płacone przez pracownika, a 12,55% przez pracodawcę. Górnicy płacili składkę w wysokości 28,30%, przy czym 18,05% opłacał pracodawca, a 10,25% W lutym 2000 roku Wolfgang Schüssel, lider ÖVP, zdecydował się na koalicję rządową z FPÖ. Prawo to weszło w życie od 1 stycznia 2003 roku [Schludi 2005 s. 181]. 13 Emerytura oczekiwana, stanowiąca 80% ostatnio otrzymywanego wynagrodzenia, miała być osiągnięta po 45 latach płacenia składek, zamiast dotychczasowego założenia o 40 latach – w starym rozwiązaniu 80%/40 lat = 2% za rok, w nowym 80%/45 lat ≈ 1,78% za rok. 11 12 Systemy emerytalne w Europie – Austria 117 pracownik [Kawiński, 2004 s. 34]. Składki rolników wynosiły 14,5%, osób wykonujących wolne zawody 20%, urzędników państwowych 11,75%, a dla osób samozatrudniających się 15,0% [Felderer, Koman, Schuh 2006 s. 520; Kawiński 2004 s. 34]. Kluczowym elementem reformy roku 2004 [Synthesis report on adequate and sustainable pensions. Annex. Country summaries 2006 s. 90 – 93], która weszła w życie z początkiem roku 2005, było wprowadzenie: 1) jednolitego prawa emerytalnego oraz 2) osobistych kont emerytalnych dla robotników, pracowników umysłowych, osób samozatrudniających się poza rolnictwem, rolników oraz urzędników państwowych w wieku 49 lat i młodszych. To ostatnie oznaczało, że osoby podejmujące zatrudnienie po 1 stycznia 2005 roku odkładają pieniądze na emeryturę w systemie publicznym w całości na indywidualnych rachunkach, natomiast osoby, które już uczestniczyły w systemie emerytalnym, ale w dniu 1 stycznia 2005 roku nie osiągnęły 50 lat życia, swoje świadczenie będą miały naliczone według starego i nowego prawa, w proporcji do ich aktywnego życia zawodowego przed i po tej dacie. Wprowadzono zatem podejście ewidencjonowania zdefiniowanej składki (notionally defined contribution – NDC) w systemie publicznym. Innymi, ważnymi elementami reformy z 2004 roku było wprowadzenie: 1) tzw. „korytarza emerytalnego”, w połączeniu z fazą stopniowego wyjścia z możliwości uzyskiwania wcześniejszej emerytury oraz 2) nowej formuły indeksacji emerytur, zależnej od poziomu inflacji. W roku 2007 uczestnicy nowego systemu mieli otrzymać wyciągi ze swoich kont emerytalnych za okres od początku uczestnictwa do roku 2005, a w roku 2008 za rok 2006. Cel postawiony przez reformę roku 2004 określić można w postaci formuły „80/65/45” [Report on the Austrian Pension Strategy 2005 2005 s. 12]. Formuła ta oznacza osiągnięcie przez emeryta, przechodzącego na emeryturę, w wieku 65 lat emerytury stanowiącej 80% jego przeciętnych zarobków z okresu 45 lat, kiedy podlegał ubezpieczeniu. Zasadą ma być także taka sama emerytura za takie same składki. W związku z powyższym zunifikowano także wymiar standardowej składki na poziomie 22,8%, przy czym przewidziano dopłaty do opłacania składek przez budżet państwa w przypadku osób samozatrudniających się (płacą 17,5%, a budżet dopłaca im 5,3%) oraz rolników (sami płacą 15,0%, a budżet dopłaca im 7,8%). Reforma z 2004 roku wprowadziła także zasadę finansowania przez budżet składek emerytalnych w okresie opieki nad dzieckiem przez cztery lata14 na poziomie 1.350 € miesięcznie, które przekazywane są na indywidualne konta emerytalne [Synthesis report on adequate and sustainable pensions. Annex. Country summaries 2006 s. 91]. W roku 2005 nastąpiło połączenie Zakładu Ubezpieczeniowego Austriackich Kolei Państwowych (Versischerungsanstalt der österreichischen Eisenbahnen VAÖE) z Zakładem Ubezpieczeniowym Austriackiego Górnictwa (Versischerungsanstalt der österreichischen Bergbaues VADÖB), w wyniku którego powołano do życia Zakład Ubezpieczeniowy dla Kolei i Górnictwa (Versicherungsanstalt für Eisenbahnen und Bergbau VAEB). W roku 2006 dokonano nowelizacji prawa emerytalnego rolników. Od 1 stycznia 2007 roku wprowadzono nowe zasady przechodzenia na wcześniejszą emeryturę osób ciężko pracujących fizycznie (Hacklerregelung). Przejście tych osób (mężczyzn) 14 W przypadku opieki nad bliźniętami nawet przez 5 lat. 118 Jarosław Poteraj na emeryturę jest możliwe w wieku 60 lat po 45 latach płacenia składek, pod warunkiem że z ostatnich 240 miesięcy pracy 120 związane było z ciężką pracą fizyczną15. 4. Bieżące rozwiązania systemu emerytalnego w Austrii16 W Austrii mamy do czynienia z trzema filarami systemu emerytalnego: 1) obowiązkowym systemem publicznym, 2) obowiązkowym i dobrowolnym systemem emerytur zakładowych oraz 3) dobrowolnym systemem ubezpieczeń indywidualnych. W ramach systemu publicznego (I filara) wyróżniamy dwa rozwiązania: 1) system tradycyjny (pay-as-you-go PAYG) jest publicznym systemem o zdefiniowanym świadczeniu (defined-benefit <DB> public scheme), [Whitehouse 2007 s. 56 i dalsze] – dotyczy w całości osób, które 1 stycznia 2005 roku miały ukończone 50 lat i proporcjonalnie do czasu aktywności zawodowej osób, które tego wieku w dniu 1 stycznia 2005 roku nie osiągnęły – oraz 2) nowy system (notionally defined contribution – NDC) – dotyczy w całości osób, które pierwszą pracę podjęły po 1 stycznia 2005 roku i proporcjonalnie do czasu aktywności zawodowej osób, które pracowały wcześniej, ale w dniu 1 stycznia 2005 roku nie ukończyły 50 lat życia. W systemie tradycyjnym (tzw. „status 2004”) odmienne regulacje dotyczą emerytur górników, notariuszy, urzędników państwowych, pracowniczych, rolniczych i osób samozatrudniających się [Felderer, Koman, Schuh 2006 s. 519 – 549; Social Security Programs Throughout the World: Europe 2006 2006 s. 36]. W przypadku pracowników najemnych składka stanowi 22,8% wynagrodzenia, z czego 10,25% jest płacone przez pracownika, a 12,55% przez pracodawcę. Górnicy płacą składkę w wysokości 28,30%, przy czym 18,05% opłaca pracodawca, a 10,25% pracownik [Kawiński 2004 s. 34]. Składki rolników wynoszą 14,5%, osób wykonujących wolne zawody 20%, urzędników państwowych 11,75%, a dla osób samozatrudniających się 15,0% [Felderer, Koman, Schuh 2006 s. 520; Kawiński 2004 s. 34]. Składki są płatne do poziomu uzyskanych zarobków rocznych 45.000 € [Social Security Programs Throughout the World: Europe 2006 2006 s. 36], co w przybliżeniu stanowi 175% przeciętnego wynagrodzenia. Warunkiem uzyskania emerytury jest osiągnięcie przez mężczyznę wieku 65 lat, a przez kobietę 60 lat, przy jednoczesnym okresie zatrudnienia 180 miesięcy w ostatnich 30 latach albo 300 miesięcy w czasie całego życia. Wcześniejsze przejście na emeryturę możliwe jest dla kobiet po osiągnięciu 57 lat i 5 miesięcy, a dla mężczyzn po osiągnięciu 62 lat i 5 miesięcy17. W stosunku do mężczyzn ciężko pracujących fizycznie przejście na emeryturę jest możliwe w wieku 60 lat po 45 latach płacenia składek, pod warunkiem że z ostatnich 240 miesięcy pracy 120 związane było z ciężką pracą fizyczną. W przypadku skorzystania z tego prawa, 15 Zmiana ta dotyczyć będzie kobiet od roku 2024, kiedy to zacznie wzrastać ich wiek emerytalny. Obecnie mogą w wieku 60 lat przechodzić na emeryturę na zasadach ogólnych [Social Security Programs Throughout the World: Europe 2006 2006 s. 36]. 16 Według stanu na 1 stycznia 2007 roku. 17 Odchodzenie na wcześniejszą emeryturę jest co kwartał przesuwane o 1 miesiąc w górę. Od 1 października 2017 roku zaniknie zupełnie [Social Security Programs Throughout the World: Europe 2006 2006 s. 36]. Systemy emerytalne w Europie – Austria 119 przez ciężko pracujących fizycznie, świadczenie osoby przechodzącej na wcześniejszą emeryturę jest obniżane o 1,8% za rok (0,15% miesięcznie). Przechodzenie na wcześniejszą emeryturę jest ponadto dostępne dla osób długotrwale ubezpieczonych – dotyczy to mężczyzn w wieku 60 – 64 lat, ubezpieczonych od 45 lat, oraz kobiet w wieku 55 – 59 lat, ubezpieczonych od 40 lat. Za wcześniejsze przejście na emeryturę emeryt otrzymuje karę w postaci 4,2% obniżki za każdy rok wcześniejszego przejścia, ale nie więcej niż 15%. Bazą odniesienia do obliczania emerytury są przeciętne zarobki z okresu 19 najlepszych lat18. Świadczenie narasta o 1,85% za każdy rok podlegania ubezpieczeniu19. System przewiduje nagradzanie za późniejsze odchodzenie na emeryturę w postaci 4,2% bonusa za każdy rok pracy dłużej niż ustawowy wiek emerytalny, ale maksymalnie do poziomu 91,76% bazy odniesienia20. System formalnie nie gwarantuje wypłaty świadczenia minimalnego [Felderer, Koman, Schuh 2006 s. 520], ale w praktyce najniższe emerytury nie schodzą poniżej poziomu, uznawanego za minimalny, dzięki istnieniu zasiłków wyrównawczych21, finansowanych z budżetu państwa [Kawiński 2004 s. 42]. Emeryci nie płacą większości składek na ubezpieczenie społeczne, za wyjątkiem ubezpieczenia zdrowotnego. Nie ma dla emerytów ulg w zakresie płacenia podatku dochodowego od osób fizycznych. Beneficjenci systemu emerytalnego otrzymują miesięczne wypłaty 14 razy w roku – dodatkowe świadczenia otrzymują w kwietniu i we wrześniu [Kawiński 2004 s. 42]. Zadania w ramach zabezpieczenia emerytalnego wykonuje w sumie pięć22 instytucji [Dobrze ubezpieczony. System zabezpieczenia społecznego w Austrii 2006], których działalność koordynuje Główny Związek Austriackich Podmiotów Ubezpieczeń Społecznych (Hauptverbandes der österreichischen Sozialversicherungsträger), [Report on the Austrian Pension Strategy 2005 2005 s. 22]: – Zakład Ubezpieczeń Emerytalnych23 – Pensionsversischerungsanstalt, – Zakład Rolniczego Ubezpieczenia Społecznego – Sozialversischerungsanstalt der Bauern, – Zakład Ubezpieczenia Społecznego osób prowadzących działalność samodzielną – Sozialversicherungsanstalt der gewerblichen Wirtschaft, – Zakład Ubezpieczeniowy Górnictwa i Kolei Państwowych – Versicherungsanstalt für Eisenbahnen und Bergbau, 18 Okres ten będzie co roku zwiększany o 12 miesięcy, aż do osiągnięcia poziomu 40 miesięcy w roku 2028. 19 W roku 2006 wielkość ta wynosiła 1,88% za każdy miesiąc, a docelowo w roku 2009 wyniesie 1,78% za każdy rok podlegania ubezpieczeniu. 20 Praktycznie nie ma zatem sensu przedłużanie przejścia na emeryturę ponad 68 rok życia. 21 Przykładowo w roku 2005 minimalna wartość świadczenia otrzymywanego przez emeryta samotnego wynosiła 662,99 €, a otrzymywanego przez małżonków – 1.030,23 €. W 2006 samotni emeryci otrzymywali co najmniej 690 € [Report on the Austrian Pension Strategy 2005 2005 s. 9] ; [Synthesis report on adequate and sustainable pensions. Annex. Country summaries 2006 s. 91]. 22 Nadal istniejący Zakład Ubezpieczeniowy osób pracujących w administracji państwowej (Versischerungsanstalt Offentlich Bediensteter) zajmuje się obecnie jedynie ubezpieczeniami chorobowymi i wypadkowymi. 23 Zakład administruje około 85% wszystkich emerytur. 120 Jarosław Poteraj – Zakład Ubezpieczeniowy Austriackich Notariuszy – Versischerungsanstalt des österreichischen Notariates. W roku 2004 państwo dopłaciło do tego rozwiązania około 26% kosztów funkcjonowania systemu emerytalnego [Social Security Programs Throughout the World: Europe, 2006 2006 s. 36]. W nowym systemie nastąpiło ujednolicenie wielkości składki ubezpieczeniowej dla wszystkich grup zawodowych na poziomie 22,8% wynagrodzenia brutto. Bazą naliczania świadczenia będzie okres 45 lat podlegania ubezpieczeniu, po 1,78% za każdy rok podlegania ubezpieczeniu. Nie ma, jak dotąd, żadnych beneficjentów nowego systemu, jako iż najstarsi jego uczestnicy wiek emerytalny, czyli 65 lat, osiągną w roku 202024. W systemie emerytur zakładowych (II filar) funkcjonują zakładowe plany emerytalne25, będące formą dobrowolną, oraz obligatoryjne odprawy pracownicze (Betriebliches Mitarbeitervorsorgegesetz), płacone przez pracodawcę co miesiąc w wysokości 1,53% wynagrodzenia brutto i kierowane na centralny fundusz (Mitarbeitervorsorgekasse MVK), inwestujący na rynkach kapitałowych. Po zwolnieniu z pracy pracownik ma możliwość wyboru pomiędzy natychmiastową wypłatą pełnej kwoty a długotrwałym świadczeniem emerytalnym. System ubezpieczeń indywidualnych (III filar) opiera się na ofercie ubezpieczeń emerytalnych, przedstawianej przez zakłady ubezpieczeń. Drugie możliwe rozwiązanie polega na funkcjonowaniu funduszu emerytalnego [Kawiński 2004 s. 35], inwestującego na rynkach kapitałowych, przy czym przynajmniej 40% aktywów takiego funduszu powinno być zgromadzonych w instrumentach dłużnych. 5. Wyzwania i przewidywane zmiany w systemie emerytalnym Austrii Najważniejszy wyróżnik stanu systemu emerytalnego, za który powszechnie uważa się stopę zastąpienia (replacement rate), jest w Austrii na bardzo wysokim poziomie 64% w odniesieniu do zarobków brutto oraz 80% w stosunku do zarobków netto [Synthesis report on adequate and sustainable pensions. Annex. Country summaries 2006 s. 91]. Wydaje się, że przy funkcjonowaniu systemu zasiłków wyrównawczych nie stanowi także w Austrii problemu sytuacja potencjalnej biedy osób w wieku emerytalnym. Problemem są prognozy dotyczące tendencji demograficznej, które określają na rok 2050 przewidywaną przeciętną długość życia dla mężczyzn na poziomie 82 lat, a dla kobiet na poziomie 87 lat, a udział ludzi w wieku powyżej 60 lat ma wynieść 35% [Felderer, Koman, Schuh 2006 s. 521 i 522]. Przypomnijmy tutaj podawaną wcześniej informację, że w lipcu 2006 roku osoby, które ukończyły 65 lat i więcej, stanowiły 17,1%26. Klasyczna piramida, charakteryzująca strukturę wiekową na Kobiety ciągle o 5 lat wcześniej. Zrównanie wieku emerytalnego nastąpi dopiero w latach 2024 – 2033. Na koniec roku 2004 w planach takich uczestniczyło 413.000 osób, co stanowiło około 13% wszystkich pracowników najemnych, które zgromadziły w 15 funduszach, oraz 6 tzw. supra-plant funduszach emerytalnych, około 10 mld € [Report on the Austrian Pension Strategy 2005 2005 s. 11]. 26 https://www.cia.gov/cia/publications/factbook/geos/au.html, dostęp 2007-01-22. 24 25 Systemy emerytalne w Europie – Austria 121 początku XX wieku, zmieni się zatem w połowie wieku XXI w kształt przypominający sarkofag27 – ponad 1/3 populacji będzie starsza niż 60 lat. Przewidywana przeciętna długość życia człowieka w wieku 65 zwiększy się z okresu 18,5 lat w roku 2005 do 22,9 lat w roku 2050 [Report on the Austrian Pension Strategy 2005 2005 s. 19]. W konsekwencji liczba osób w wieku emerytalnym będzie stanowiła około 50% liczby osób pracujących, mimo prognoz o zwiększeniu stanu aktywizacji zawodowej. W tej sytuacji bardzo ważne jest wprowadzenie od roku 2007, przewidzianej przez reformę 2004 roku, zasady działania mechanizmu monitoringu co trzy lata systemu emerytalnego, w postaci zespołu eksperckiego, który powinien każdorazowo oceniać stan systemu emerytalnego i ewentualnie wskazywać konieczne zmiany. Bardzo duże obciążenie dla budżetu federalnego28 w zakresie dopłat do systemu emerytalnego powinno się stopniowo zmniejszać. Rządowe wydatki na publiczny system emerytalny powinny, zgodnie z przewidywaniami autorów wprowadzonych ostatnio reform, zmniejszać się do poziomu 10,9% PKB w roku 2050 [Report on the Austrian Pension Strategy 2005 2005 s. 20]. Dobrze koresponduje to z zamiarami zaprzestania projektowania budżetów z deficytem już od roku 2008 [Report on the Austrian Pension Strategy 2005 2005 s. 18]. Z pewnością problemem może być społeczna akceptacja zrównania wieku emerytalnego kobiet i mężczyzn, które ma być realizowane w latach 2024 – 203329. Kolejny problem w zakresie społecznej akceptacji to zakończenie przechodzenia na wcześniejszą emeryturę od roku 2017. Wydaje się, że istnieje duże zagrożenie wykorzystywania tych elementów w programach ugrupowań politycznych, przeciwnych wprowadzonym zmianom. Innym problemem może być, wysoce prawdopodobna w przyszłości, unifikacja instytucji obsługujących emerytury w Austrii, szczególnie w zakresie systemów informatycznych. Sama unifikacja wydaje się rozwiązaniem racjonalizującym obecny system, obniżającym koszty działania i zwiększającym jego przejrzystość. Konsekwencją tego powinna być także unifikacja różnorodnych dotąd systemów informatycznych do ewidencji zbieranych składek i wypłacanych świadczeń emerytalnych. 6. Podsumowanie Przedstawiony w artykule materiał badawczy upoważnia do stwierdzenia, że system emerytalny w Austrii spełnia podstawowe oczekiwania jego uczestników, pozwalając uzyskiwać wystarczające środki na życie i nawet utrzymanie stosunkowo wysokiego standardu życia na emeryturze. Stąd też wynika prawdopodobnie nikłe zainteresowanie Austriaków zmianami systemu emerytalnego przez długie lata. Dopiero w latach 2003 – 2004 Austria podjęła decyzje o zmianach modyfikujących tradycyjny Bismarck’owski model emerytalny. Główną przyczynę zmian należy widzieć w nieTo ponure porównanie pochodzi od Marka Góry [Góra 2003 s. 48]. W tym zakresie Austria rywalizuje o palmę pierwszeństwa w Europie z Polską i Włochami. 29 W stosunku do kobiet urodzonych po 1 czerwca 1968 roku, wiek emerytalny będzie co 6 miesięcy podnoszony o 6 miesięcy do poziomu 65 lat [Social Security Programs Throughout the World: Europe 2006 2006 s. 36]. 27 28 122 Jarosław Poteraj korzystnych prognozach demograficznych oraz w porównaniach międzynarodowych, także niekorzystnych dla tego kraju. Stosunkowo mocno nagłośniona medialnie austriacka reforma w zakresie systemu publicznego (I filar) ograniczyła się do kilku zmian parametrycznych, z upiększeniem strukturalnym, w postaci indywidualizacji kont emerytalnych osób młodych. Zmiany te nie wykraczają poza rozwiązania przyjęte w połowie lat 90. XX wieku najpierw we Włoszech, a następnie w Szwecji i w Polsce. Tzw. II filar, istniejący formalnie w Austrii, ma marginalne znaczenie dla finansowania emerytur, szczególnie w kontekście możliwości wykorzystania zgromadzonych zasobów bezpośrednio po utracie pracy. III filar ma duże perspektywy rozwojowe w stosunkowo bogatym społeczeństwie. W zakresie rozwiązań, które mogą być przedmiotem zainteresowania innych krajów i ewentualnego zastosowania, należy wymienić finansowanie przez budżet składek emerytalnych osób opiekujących się małymi dziećmi. Także zamierzone zrównanie wieku emerytalnego mężczyzn i kobiet należy traktować, jako element wart rozważenia przez inne kraje, szczególnie w kontekście dłuższego czasu trwania życia kobiet i zrównania ich statusu emerytalnego z mężczyznami. Kolejnym godnym zainteresowania elementem systemu austriackiego jest swoista elastyzacja czasu przejścia na emeryturę, która, wdrażając zasady aktuarialne, pozwala wybierać czas przejścia na emeryturę, docelowo praktycznie w przedziale 62 – 68 lat. Literatura Averting the Old Age Crisis 1994, A World Bank Policy Research Report, New York. Dobrze ubezpieczony. System zabezpieczenia społecznego w Austrii 2006, Austriackie Muzeum Społeczne i Ekonomiczne (Österreichischen Gesellschafts- und Wirtschaftsmuseums), dostępny pod adresem: http://www.sozialversicherung.at/mediaDB/ /115834.PDF. Felderer B., Koman R., Schuh U. 2006 Investigating the Introduction of NDCs in Austria w: Pension Reform: Issues and Prospect for Non-financial Defined Contribution (NDC) Schemes, eds. Robert Holzmann, Edward Palmer, Washington. Góra M. 2003 System emerytalny, Warszawa. Holzmann R. 2006 Toward a Coordinated Pension System in Europe: Rationale and Potential Structure w: Pension Reform: Issues and Prospect for Non-financial Defined Contribution (NDC) Schemes 2006, eds. Robert Holzmann, Edward Palmer, Washington. https://www.cia.gov/cia/publications/factbook/geos/au.html, dostęp 2007-01-22. Kawiński M. 2004, System emerytalny w Austrii, w: Systemy emerytalne w krajach Unii Europejskiej, red. T. Szumlicz, M. Żukowski, Warszawa. Kołodziejczyk K. 2004 Systemy emerytalne w Ameryce Łacińskiej. Od repartycji do kapitalizacji, Poznań. Pension Reform and the Development of Pension Systems. An Evaluation of World Bank Assistance 2006, Washington. Pension Reform: Issues and Prospect for Non-financial Defined Contribution (NDC) Schemes 2006, eds. R. Holzmann, E. Palmer, Washington. Systemy emerytalne w Europie – Austria 123 Report on the Austrian Pension Strategy 2005 2005, Republic of Austria, Wien, July – dostępny pod adresem: http://ec.europa.eu/employment_social/social_protection/ /docs/2005/at_en.pdf. Schludi M. 2005 The Reform of Bismarckian Pension Systems: A Comparison of Pension Politics in Austria, France, Germany, Italy and Sweden, Changing Welfare States Series, Amsterdam. Social Security Programs Throughout the World: Europe 2006, Social Security Administration Office of Policy Office of Research, Evaluation, and Statistics, SSA Publication, No. 13 – 11801, September, Washington. Synthesis report on adequate and sustainable pensions. Annex. Country summaries 2006, dokument dostępny pod adresem: http://ec.europa.eu/employment_social/social_protection/ /docs/2006/sec_2006_304_annex_en.pdf. Systemy emerytalne w krajach Unii Europejskiej 2004, red. T. Szumlicz, M. Żukowski, Warszawa. Whitehouse E. 2007 Pensions Panorama. Retirement-Income Systems in 53 Countries, Washington. Wielka Encyklopedia PWN 2001, t. 2, Warszawa. Wiśniewski J. 2005 Ewolucja szwedzkiego i brytyjskiego modelu polityki społecznej w latach 1993 – 2003, Warszawa. OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008 Mateusz KURPACZ 1 WYBRANE ASPEKTY FUNKCJONOWANIA ŻYWNOŚCI TRADYCYJNEJ W POLSCE Streszczenie W ostatnich latach rynek żywności tradycyjnej odnotował wzrost dynamiki, wynikający przede wszystkim z zainteresowania producentów towarami umieszczanymi na Liście Produktów Tradycyjnych. Obecnie nie wszystkie problemy przewidziane w Strategii identyfikacji i promocji produktów tradycyjnych z 2004 roku zostały rozwiązane. Wciąż bowiem istnieją utrudnienia w uzyskaniu odstępstw od rygorystycznych wymogów sanitarnych oraz weterynaryjnych. Również świadomość konsumentów, związana z żywnością tradycyjną, wymaga dalszego ukształtowania. Wcześniejszy PRWO z lat 2004 – 2006 nie usunął wszystkich barier w rozwoju obszarów wiejskich. Pozostają zatem nadzieje związane z nowo przewidzianymi rozwiązaniami w ramach Europejskiego Funduszu Rolnego na rzecz Rozwoju Obszarów Wiejskich. Tym bardziej, że wśród producentów żywności tradycyjnej dominuje pozytywne nastawienie odnośnie przyszłości prowadzonej przez nich działalności. SELECTED ASPECTS CONCERNING THE CONSUMPTION OF TRADITIONAL FOOD IN POLAND Summary In Poland there are a lot of legal problems concerning traditional food. This situation confirms the research presented during The International Trade and Agriculture Fair in Poznań. The first issue concerns identification and functioning of legal concepts concerning traditional food. Other issues include problems of consumer perceptions concerning quality. Another aspect involves rural developments in Poland and financial issues. On the other hand, Poland is distinguished by culinary tradition and food quality. That could prognisticate a better future. 1. Wstęp Problematyka żywności tradycyjnej jest ważna dla Polski jako kraju z bogatą tradycją kulinarną. Tendencja ta jest zauważalna także w przeznaczeniu wspólnotowych funduszy, w tym przede wszystkim Europejskiego Funduszu Rolnego na rzecz Rozwoju Obszarów Wiejskich. W ciągu trzech ostatnich lat można było zaobserwować wiele zmian w tej mierze, ale czy oznacza to obecnie brak większych problemów z funkcjonowaniem żywności tradycyjnej w Polsce? Badania przeprowadzone w czasie Międzynarodowych Targów Poznańskich „Polagra – Farm” w 2006 ro1 Mgr Mateusz Kurpacz jest doktorantem na Wydziale Prawa i Administracji Uniwersytetu Gdańskiego. 126 Mateusz Kurpacz ku wskazują, że wśród problemów wskazanych przez producentów żywności tradycyjnej przeważają przede wszystkim bariery prawne. Celem publikacji jest określenie kształtu regulacji prawnej żywności tradycyjnej z uwzględnieniem wpływu tej regulacji na rozwój obszarów wiejskich. Metodą badawczą jest dogmatyczna analiza tekstu prawnego oraz porównanie stanu prawnego z wynikami przeprowadzonych badań. Badanie własne zostało przeprowadzone wśród producentów żywności tradycyjnej z całej Polski. Polegało one głównie na wypełnieniu ankiety oraz udzielaniu wywiadu przez respondentów. Badanie umożliwiło przede wszystkim diagnozę sytuacji na rynku żywności tradycyjnej w skali całego kraju. To pozwoliło z kolei na wyciagnięcie szerszych wniosków oraz sformułowanie postulatów odnośnie stanu regulacji prawnej żywności tradycyjnej w Polsce, w tym jej realnego wpływu na rozwój obszarów wiejskich. Postulaty te odnosiły się głównie do: sprecyzowania pojęcia produktu regionalnego i tradycyjnego, możliwości funkcjonowania tych pojęć w obrocie prawnym oraz wprowadzania tego typu wyrobów na rynek. Pozostałe badane zagadnienia to kwestia wymogów sanitarno – higienicznych i weterynaryjnych, świadomości konsumentów odnośnie jakości tego typu żywności oraz ogólna problematyka rozwoju obszarów wiejskich. 2. Pojęcie produktu regionalnego, tradycyjnego oraz inne definicje pokrewne Główny problem, który pojawił się po wejściu Polski do Unii Europejskiej, to brak pojęć definiujących wyroby tradycyjne. Nie istniała także spójna polityka promująca wyroby tradycyjne w ramach wspólnotowego rynku, w tym szczególnie odczuwany był brak wyraźnych działań identyfikujących produkty tradycyjne. Takie działanie przewidywały zwłaszcza rozwiązania włoskie [Szymecka 2005 s. 123 i n.], na których polskie Ministerstwo Rolnictwa i Rozwoju Wsi zresztą opierało się, tworząc polskie regulacje prawne związane z żywnością tradycyjną. Pojęcia produktu regionalnego oraz tradycyjnego ukształtowała głównie doktryna [Korzycka-Iwanow 2005 s. 49], w związku z obowiązywaniem wspólnotowych rozporządzeń po akcesji Polski do Unii Europejskiej. Natomiast dopiero wejście w życie ustawy z dnia 17 grudnia 2004 r. o rejestracji i ochronie nazw i oznaczeń produktów rolnych i środków spożywczych oraz o produktach tradycyjnych, uregulowało w pełni obowiązywanie w Polsce systemu wyróżnienia oraz promocji produktów regionalnych oraz tradycyjnych. Ostatnie zmiany, wywołane rozporządzeniem Rady (WE), nr 510/2006 z dnia 20 marca 2006 r. w sprawie ochrony oznaczeń geograficznych i nazw pochodzenia produktów rolnych i środków spożywczych, rozporządzeniem Rady (WE), nr 509/2006 z dnia 20 marca 2006 r. w sprawie produktów rolnych i środków spożywczych będących gwarantowanymi tradycyjnymi specjalnościami oraz przede wszystkim wejściem w życie ustawą z dnia 25 sierpnia 2006 r. o bezpieczeństwie żywności i żywienia, wprowadziły szerokie pojęcie żywności tradycyjnej. Wybrane aspekty funkcjonowania żywności tradycyjnej w Polsce 127 Nadanie kształtu powyższej regulacji daje możliwość sprecyzowania relacji pojęcia produktu regionalnego do pojęcia produktu tradycyjnego, co wcześniej mogło powodować pewne rozbieżności. Słuszne wydaje się łączenie produktów rolnych i środków spożywczych w ramach pojęcia produktu regionalnego, które mają możliwość wpisu do jednego z rejestrów prowadzonych przez Komisję Europejską, czyli Rejestru Chronionych Nazw Pochodzenia i Chronionych Oznaczeń Geograficznych albo Rejestru Gwarantowanej Tradycyjnej Specjalności. Obecnie o grupie produktów określanych jako regionalne można mówić wtedy, gdy podlegają one ochronie prawnej ze względów określonych w przepisach prawnych [Nowińska, Promińska, du Vall 2005 s. 257 i nast.]. Ochrona nazwy pochodzenia oraz oznaczeń geograficznych, zgodnie z art. 1 ust. 1 rozporządzenia Rady (WE), nr 510/2006, obejmuje wymienione w załączniku nr I do TWE produkty rolne przeznaczone do spożycia przez ludzi oraz środki spożywcze wymienione w załączniku I do podanego rozporządzenia oraz produkty rolne wymienione w załączniku II do wymienionego rozporządzenia. Natomiast za gwarantowaną, tradycyjną specjalność, na podstawie art.1 ust. 1 rozporządzenia Rady (WE), nr 509/2006, można uznać obok, podobnie jak wcześniej, produktów rolnych przeznaczonych do spożycia przez ludzi, wymienionych w załączniku nr I do TWE, także środki spożywcze zawarte w załączniku I do wymienionego rozporządzenia. Tak więc, różnica pomiędzy zakresami tych wymienionych w dwóch różnych rozporządzeniach definicjami, sprowadza się do załączników w nich wymienionych, przy czym w pierwszym przypadku brak jest załącznika obejmującego dodatkowe produkty rolne [Produkty tradycyjne i regionalne 2004 s. 8 i nast.]. Przepis art. 2 ust. 1 lit a rozporządzenia Rady (WE), nr 510/2006 definiuje nazwę pochodzenia jako nazwę regionu, określonego miejsca lub, w wyjątkowych przypadkach kraju, która służy do oznaczenia produktu rolnego lub środka spożywczego pochodzącego z tego regionu, miejsca, kraju, którego jakość lub cechy charakterystyczne są w istotnej lub wyłącznej mierze zasługą środowiska geograficznego (składającego się z czynników zarówno naturalnych, jak i ludzkich) oraz którego produkcja, przetwarzanie i przygotowanie mają miejsce na określonym obszarze geograficznym. Natomiast zgodnie z art. 2 ust. 1 lit b rozporządzenia za oznaczenie geograficzne uznaje się nazwę regionu, określonego miejsca lub wyjątkowo kraju, która to służy do oznaczenia produktu rolnego lub środka spożywczego pochodzącego z tego regionu, miejsca lub kraju oraz posiadającego określoną jakość, renomę lub inną cechę charakterystyczną przypisywaną temu oznaczeniu geograficznemu oraz którego produkcja lub przetwarzanie, a także przygotowanie, mają miejsce na określonym obszarze geograficznym. W świetle tych regulacji konieczną przesłanką ochrony oznaczeń geograficznych oraz nazw pochodzenia jest obiektywny związek pomiędzy jakością produkcji a jego pochodzeniem. Nie wystarcza zatem samo przekonanie przeciętnego nabywcy o związku cech produktu z jego określonym pochodzeniem, które to może być właściwe w przypadku np. znaku towarowego. W literaturze przedmiotu [Skubisz 2004 s. 27 i n.] wskazuje się, że oznaczeniom geograficznym przysługuje wpis do odpowiedniego rejestru, jeżeli przynajmniej jedna z faz wytworzenia i dystrybucji odbywa się w regionie geograficznym, do któ- 128 Mateusz Kurpacz rego odnosi się oznaczenie. Inaczej jest w przypadku nazw pochodzenia, gdzie konieczne jest, aby wszystkie fazy przetwarzania i przygotowania odbywały się na jednym i tym samym obszarze geograficznym. W związku z powyższym w nazwach pochodzenia występuje silny związek pomiędzy cechami produktu a jego pochodzeniem geograficznym. Zgodnie z art. 2 ust. 1 lit c rozporządzenia Rady (WE), nr 509/509, gwarantowana tradycyjna specjalność produktu, oznacza tradycyjny produkt rolny lub środek spożywczy uznany przez Wspólnotę ze względu na jego specyficzny charakter poprzez jego rejestrację zgodnie z tym rozporządzeniem. Z kolei specyficzny charakter oznacza cechę lub zespół cech, które w sposób wyraźny odróżniają produkt rolny lub środek spożywczy od podobnych im produktów lub środków spożywczych należących do tej samej kategorii. Pojęcie „tradycyjny” odnosi się do udokumentowanego, jako będącego w użyciu na rynku wspólnotowym, przynajmniej przez okres wskazujący na przekaz z pokolenia na pokolenie, a okres ten powinien odpowiadać okresowi zwykle przypisywanemu jednemu pokoleniu i wynosić co najmniej 25 lat. Definicja legalna „produktu tradycyjnego” zawarta jest w art. 47 ust.1 ustawy z dnia 17 grudnia 2004 r. o rejestracji i ochronie nazw i oznaczeń produktów rolnych i środków spożywczych oraz o produktach tradycyjnych (Dz. U. z 2005 r., Nr 10, poz. 68). Definicja ta często jest błędnie utożsamiana z wcześniej przedstawionym pojęciem gwarantowanej tradycyjnej specjalności. Pojęcie produktu tradycyjnego obejmuje natomiast produkty rolne i środki spożywcze oraz napoje spirytusowe (ograniczone enumeratywnie do wymienionych w odpowiednich załącznikach rozporządzeń unijnych), których jakość lub wyjątkowe cechy i właściwości wynikają ze stosowania tradycyjnych metod produkcji, za które uważa się metody wykorzystywane od co najmniej 25 lat. Produkty takie są wpisywane na prowadzoną przez ministra właściwego do spraw rynków rolnych Listę Produktów Tradycyjnych. W ustawie o bezpieczeństwie żywności zawarte są także określenia legalne, zawierające omawiane pojęcia. I tak m.in. art. 69 ust. 1 pkt 1 zawiera określenie „tradycyjne metody produkcji lub obrotu żywnością”. W przepisach unijnych można znaleźć określenia, takie jak: „produkty o tradycyjnych cechach”, „produkty produkowane przy użyciu tradycyjnych surowców” lub też „produkowane z wykorzystaniem tradycyjnych metod” oraz „produkty charakteryzujące się tradycyjnym składem lub sposobem produkcji”. 3. Wprowadzenie do obrotu żywności tradycyjnej a wymogi higienicznosanitarne oraz weterynaryjne Bardzo ważnym problemem jest wprowadzenie produktu regionalnego oraz tradycyjnego do obrotu na rynku. Taką niekorzystną sytuacje potwierdzają badania wśród producentów. Często powstaje błędne koło, polegające na tym, że produkt nie jest zarejestrowany oraz ewentualnie chroniony, ponieważ nie znajduje się w obrocie z powodu niespełnienia określonych przepisów higieniczno–sanitarnych, czy weterynaryjnych, a gdy nie jest w obrocie, nie ma możliwości wystąpienia o ewentualne odstępstwa [Rzytki 2005 s. 326]. Wybrane aspekty funkcjonowania żywności tradycyjnej w Polsce 129 Najbardziej natomiast odpowiadającą wymogom obrotu prawnego definicję, obejmującą swoim zakresem rozpatrywane produkty, zawiera ustawa z dnia 25 sierpnia 2006 r. o bezpieczeństwie żywności i żywienia. Zgodnie z art. 3 ust. 3 pkt 60 tej ustawy, określenie „żywność tradycyjna” to produkty rolne i środki spożywcze, których nazwy są zarejestrowane zgodnie z rozporządzeniem Rady (WE), nr 509/2006 z dnia 20 marca 2006 r. w sprawie produktów rolnych i środków spożywczych będących gwarantowanymi tradycyjnymi specjalnościami lub rozporządzeniem Rady (WE), nr 510/2006 z dnia 20 marca 2006 r. w sprawie ochrony oznaczeń geograficznych i nazw pochodzenia produktów rolnych i środków spożywczych. Pojęcie żywności tradycyjnej odnosi się również do wniosków o rejestrację, które zostały wysłane do Komisji Europejskiej zgodnie z przepisami ustawy z dnia 17 grudnia 2004 r. o rejestracji i ochronie nazw i oznaczeń produktów rolnych i środków spożywczych oraz o produktach tradycyjnych. Pojęcie to może także obejmować wyroby umieszczone na Liście Produktów Tradycyjnych, prowadzonej przez ministra właściwego do spraw rynków rolnych. Powyższa definicja związana jest zatem przede wszystkim z problematyką dotyczącą możliwości ubiegania się o odstępstwa weterynaryjne i sanitarne dla produktów tradycyjnych oraz regionalnych. Aktualnie stworzenie możliwości ubiegania się o tego typu odstępstwa przy produkcji tradycyjnej żywności istnieje przede wszystkim na podstawie art. 69 ustawy o bezpieczeństwie żywności i żywienia. Minister właściwy do spraw zdrowia w porozumieniu z ministrem właściwym do spraw rolnictwa może określić, w drodze rozporządzenia, wymagania higieniczne w zakładach stosujących tradycyjne metody produkcji lub obrotu żywnością, w celu umożliwienia stosowania tych metod, oraz w zakładach zlokalizowanych w regionach szczególnych ze względu na położenie geograficzne, w celu uwzględnienia potrzeb tych zakładów. Minister właściwy do spraw zdrowia oraz minister właściwy do spraw rolnictwa, każdy w zakresie swojego działania, działając w porozumieniu, mogą określić, w drodze rozporządzenia, ogólne odstępstwa od określonych wymagań higienicznych (m.in.: określonych w rozdziale II pkt 1 i rozdziale V pkt 1 załącznika II do rozporządzenia nr 852/2004 [Rozporządzenie Parlamentu… 2004] w zakładach produkujących żywność tradycyjną w zakresie określonym w art. 7 ust. 2 rozporządzenia Komisji (WE), nr 2074/2005 [Rozporządzenie Komisji… 2005]), mając na względzie umożliwienie zakładom stosowania tradycyjnych metod produkcji oraz zapewnienie bezpieczeństwa żywności. Natomiast odpowiedni państwowy powiatowy inspektor sanitarny oraz powiatowy lekarz weterynarii są organami właściwymi do wydawania decyzji przyznających indywidualne odstępstwa od ściśle określonych wymagań higienicznych przede wszystkim zakładom produkującym żywność tradycyjną, jeżeli są spełniane przez nie powyższe wymagania. O przyznanych indywidualnych odstępstwach są powiadamiani, odpowiednio, Główny Inspektor Sanitarny albo Główny Lekarz Weterynarii. Minister właściwy do spraw zdrowia oraz minister właściwy do spraw rolnictwa, analogicznie także Główny Inspektor Sanitarny oraz Główny Lekarz Weterynarii, każdy w zakresie swoich kompetencji, powiadamiają także Komisję Europejską oraz pozostałe państwa członkowskie Unii Europejskiej o przyznanych odstępstwach. 130 Mateusz Kurpacz Jak do tej pory, Minister Rolnictwa i Rozwoju Wsi wydał rozporządzenie z dnia 12 października 2004 r. w sprawie określonych wymagań weterynaryjnych przy produkcji i dla produktów mlecznych o tradycyjnym charakterze (Dz. U. z 2004 r., Nr 236, poz. 2368). Określa ono wymagania weterynaryjne przy produkcji Redykołki, Bryndzy, Oscypka, Buncu oraz Żętycy. Istnieją w polskim prawie określone odstępstwa od wymagań weterynaryjnych odnośnie pewnych kategorii oraz ilości produktów wprowadzanych na rynek na określonym obszarze na podstawie art. 12 ustawy z dnia 16 grudnia 2005 r. o produktach pochodzenia zwierzęcego (Dz. U. z 2006 r., Nr 17, poz. 127). Dotyczy to produktów pochodzenia zwierzęcego, które mogą być przeznaczone do sprzedaży bezpośredniej. Definicja sprzedaży bezpośredniej obejmuje z kolei bezpośrednie dostawy, dokonywane przez producenta w małych ilościach surowców do konsumenta końcowego lub lokalnego zakładu detalicznego bezpośrednio zaopatrującego konsumenta końcowego. Definicja ta zawiera w sobie także tego typu bezpośrednie dostawy dokonywane przez producenta w małych ilościach mięsa z drobiu lub zajęczaków poddanych ubojowi w gospodarstwie rolnym do konsumenta końcowego lub lokalnego zakładu detalicznego, który bezpośrednio dostarcza przedmiotowe mięso w formie mięsa świeżego konsumentowi końcowemu. Przedstawiana definicja sprzedaży bezpośredniej obejmuje również myśliwych, którzy dostarczają małe ilości zwierzyny łownej lub mięsa zwierząt łownych bezpośrednio do konsumenta końcowego lub lokalnego zakładu detalicznego bezpośrednio zaopatrującego konsumenta końcowego. 4. Pojęcie jakości żywności tradycyjnej a jej świadomość wśród konsumentów Innym istotnym problemem jest niska świadomość konsumentów żywności tradycyjnej. Dlatego też, zdaniem MRiRW, działania powinny głównie iść w kierunku zwiększenie tej świadomości. Z przeprowadzonych w październiku 2006 r. badań wynika, że przeważnie źródłem informacji o możliwości rejestracji produktu dla producentów był samorząd terytorialny lub organizacje pozarządowe. Z kolei tradycyjne produkty żywnościowe są najczęściej sprzedawane bezpośrednio konsumentom w pobliżu miejsca ich wytwarzania, co powinno siłą rzeczy zwiększać faktyczną świadomość konsumentów. Ważną rolę, w stosunku do wymienionego zagadnienia, pełni także problematyka pojęcia jakości. Do tego pojęcia nawiązuje m.in. art. 357 KC, odwołujący się do świadczenia rzeczy średniej jakości, oraz art. 577 KC wskazujący na gwarancję co do jakości rzeczy sprzedanej. W piśmiennictwie [Leśkiewicz 2006 s. 63] zwraca się uwagę na wyraźne rozróżnienie regulacji prawnych zapewniających jakość zdrowotną produktów rolnych (łącznie z ich bezpieczeństwem i jakością handlową) od regulacji odnoszących się do jakości szczególnej produktu, charakteryzujących się cechami dodatkowymi ponad jakość zdrowotną. Produkty regionalne i tradycyjne charakteryzują się zarówno jakością szczególną, jak i zdrowotną. W podanym zakresie bezpieczeństwa produktów należy natomiast rozróżnić: pojęcie tzw. „food safety” Wybrane aspekty funkcjonowania żywności tradycyjnej w Polsce 131 rozumianego jako bezpieczeństwa produktów żywnościowych, pojęcie tzw. „food security” – w rozumieniu bezpieczeństwa dostaw produktów rolnych oraz tzw. „food quality”, czyli standaryzację produktu żywnościowego [Ozimek 2006 s. 63]. W stosunku do ochrony prawnej, nastawionej na konsumentów, największą rolę ma pierwsze z wymienionych pojęć. Na uwagę zasługuje fakt, że pojęcie jakości jest różnie rozumiane w poszczególnych państwach. W Europie widoczne są rozbieżności pomiędzy państwami leżącymi na północy kontynentu, postrzegających jakość przez wymagania i standardy bezpieczeństwa zdrowej żywności (np. Anglia, Szwecja), a jego południem (np. Włochy, Hiszpania), gdzie jakość to wyjątkowa i unikalna specyfika produktu gwarantowana jego pochodzeniem [Jasiński 2005 s. 284]. Natomiast w krajach pełniących rolę rzecznika wolnej konkurencji w skali globalnej (zwłaszcza w Stanach Zjednoczonych, Kanadzie i Australii) ogólne postrzeganie jakości jest przeciwne poglądowi reprezentowanemu przez większość państw europejskich oraz odnosi się ono przede wszystkim do wypracowania własnej marki produktu, w tym jego innowacyjności na wolnym rynku bez przeszkód prawnych w tym zakresie [Szymecka 2005 s. 32]. Na świadomość konsumentów, odnośnie jakości produktów regionalnych i tradycyjnych, wpływa także zakres informacji im przekazywany przez producentów. Prawną regulacją, którą nie można pominąć w tym zakresie, są wytyczne zamieszczone w Białej Księdze Komisji WE [Biała Księga… 2000] wskazujące, że konsumenci powinni otrzymywać taką informację o produktach spożywczych, aby mogli dokonywać świadomego wyboru w szerokiej ofercie rynkowej. Podkreśla się, że przepisy w dziedzinie znakowania powinny przede wszystkim gwarantować, że konsumenci otrzymują informacje o składzie, warunkach przechowywania, sposobie użycia i innych cechach, które decydują o wyborze produktu [Oleszko 2006 s. 53 i nast.]. Procedura wspólnotowa w zakresie znakowania (etykietowania), prezentacji oraz reklamy środków spożywczych przewidziana jest dyrektywą nr 2000/13/WE [Dyrektywa Parlamentu Europejskiego… 2000]. Procedura ta, istotna dla zwiększenia świadomości konsumentów odnośnie tradycyjnej żywności, przyjęta jest w drodze decyzji Wspólnoty, jeżeli państwo członkowskie zamierza przyjąć nowe ustawodawstwo. W celu ułatwienia handlu między państwami członkowskimi, na etapach poprzedzających sprzedaż konsumentowi końcowemu, na zewnętrznym opakowaniu powinny być umieszczone jedynie informacje dotyczące podstawowych składników [Patkowska 2002 s. 33]. Natomiast niektóre obowiązkowe dane szczegółowe, które muszą znajdować się na paczkowanym środku spożywczym, powinny znajdować się tylko w odnoszących się do nich dokumentach handlowych. Charakteryzujące się specyficznymi cechami lub wymaganiami jakości handlowej artykuły rolno – spożywcze mogą być oznaczone także znakiem jakości. Dotyczy to w szczególności sposobu produkcji, składu, właściwości organoleptycznych, zgodnie z art. 2 pkt 2 dyrektywy 84/450/EWG [Dyrektywa Rady… 1984]. Zwraca się uwagę w powyższej regulacji, że reklama wprowadzająca w błąd, to reklama, która w jakikolwiek sposób, włącznie z jej wyglądem, wprowadza lub może wprowadzić w błąd osoby, włącznie z jej wyglądem, lub do których dociera i może wpływać na działalność gospodarczą tych osób lub szkodzić konkurentowi. Z kolei reklama „oszukań- 132 Mateusz Kurpacz cza” przez wprowadzenie w błąd osoby, do której jest kierowana, narusza przede wszystkim jej interes ekonomiczny oraz zakłóca funkcjonowanie wspólnego rynku. Regulacja dyrektywy 84/450/EWG chroni osoby prowadzące działalność przemysłową, handlową, rzemieślniczą, wykonujących wolne zawody oraz interes ogólny przed nieuczciwością. Istotne znaczenie ma, powstałe na podstawie reklamy, wyobrażenie niezgodne ze stanem rzeczywistym. Decydujące jest tutaj wyobrażenie adresatów reklamy, a nie opinie reklamujących czy agencji reklamowych [Gąsiorowski s. 70 i n.]. 5. Bariery w rozwoju obszarów wiejskich a rynek żywności tradycyjnej Ostatnie z istotnych problemów, związanych z żywnością tradycyjną, to szeroko pojęte bariery w rozwoju obszarów wiejskich. Zaliczyć do nich można niewystarczającą dywersyfikację zatrudnienia na obszarach wiejskich oraz słaby rozwój niektórych regionów, w tym przede wszystkim niewystarczające propagowanie lokalnej kultury i tradycji. Z badań przeprowadzonych w Poznaniu wynika, że prawie połowa respondentów prowadzi własną działalność gospodarczą, wykazując przy tym aktywność zawodową w zakresie żywności tradycyjnej przez okres co najmniej 10 lat. Warte odnotowania jest, że działalność związana z wytwarzaniem produktu jest dla większości respondentów głównym źródłem utrzymania. Wyniki badania potwierdzają, że producenci są na ogół zadowoleni z własnych zarobków oraz dostrzegają szansę poprawy swojej sytuacji materialnej, tym bardziej że przyczyną podjęcia działalności związanej z żywnością tradycyjną była dla respondentów początkowo chęć dodatkowego zarobkowania oraz kontynuacja tradycji rodzinnych. Omawiane zagadnienie jest uwzględnione przez działanie „uczestnictwo rolników w systemach jakości żywności” w ramach działań „Osi I poprawa konkurencyjności sektora rolnego i leśnego” nowego Programu PROW na lata 2007 – 2013. W tym przypadku cel działania obejmuje poprawę jakości produkcji i produktów rolnych przeznaczonych do spożycia przez ludzi przez zwiększenie spożycia żywności wysokiej jakości oraz wsparcie rolników wytwarzających taką żywność. Jego realizacja nastąpi przez finansowe wsparcie rolników uczestniczących w systemach jakości żywności, takich jak: System Chronionych Nazw Pochodzenia, Chronionych Oznaczeń Geograficznych i Gwarantowanych Tradycyjnych Specjalności. Wsparciem objęte będą równolegle systemy krajowe, Integrowana Produkcja (IP) w rozumieniu ustawy z dnia 18 grudnia 2003 r. o ochronie roślin (Dz. U. z 2004 r., Nr 11, poz. 94 z późn. zm.) oraz także inne systemy krajowe. Beneficjentem mogą być osoby fizyczne, osoby prawne lub jednostka organizacyjna nie posiadająca osobowości prawnej, prowadząca działalność rolniczą w zakresie produkcji roślinnej lub zwierzęcej. Przede wszystkim będą nimi producenci rolni wpisani do ewidencji producentów na podstawie ustawy z dnia 18 grudnia 2003 r. o krajowym systemie ewidencji producentów, ewidencji gospodarstw rolnych oraz ewidencji wniosków o przyznanie płatności (Dz. U. z 2004 r., Nr 10, poz. 76 z późn. zm.) lub ubezpieczeni w Kasie Rolniczego Ubezpieczenia Społecznego po spełnieniu warunków ustawy z dnia 20 grudnia 1990 r. o ubezpieczeniu społecznym Wybrane aspekty funkcjonowania żywności tradycyjnej w Polsce 133 rolników (Dz.U. z 1998 r., Nr 7, poz. 25 z późn. zm.). Ponadto beneficjent powinien spełniać wymagania właściwe dla każdego z systemów jakości, co jest potwierdzone odpowiednim dokumentem. Pomoc w ramach działania będzie udzielana beneficjentom poszczególnych systemów przez okres 5 lat w formie rocznej zryczałtowanej płatności, której wysokość została ustalona na podstawie kosztów stałych wynikających z uczestnictwa producenta rolnego w danym systemie. W przypadku Systemu Chronionych Nazw Pochodzenia, Chronionych Oznaczeń Geograficznych i Gwarantowanych Tradycyjnych Specjalności jest to 3500 złotych na rok na gospodarstwo przez pierwsze 2 lata. W kolejnych latach kwota ta wyniesie 3000 złotych na rok na gospodarstwo. Natomiast w przypadku integrowanej produkcji roczna zryczałtowana płatność to 1730 złotych na rok na gospodarstwo. Nie ustalono aktualnie jeszcze wysokości pomocy dla innych systemów krajowych. 6. Podsumowanie Z przedstawionych rozważań wynika, że wciąż istnieją utrudnienia dla żywności tradycyjnej w uzyskaniu odstępstw od rygorystycznych wymogów sanitarnych oraz weterynaryjnych. Podobna sytuacja występuje w przypadku świadomości konsumentów, związana z tego typu żywnością, która wymaga zdecydowanej poprawy. We wcześniejszych latach nie usunięto także wszystkich barier utrudniających rozwój obszarów wiejskich. Poprawę sytuacji zapowiada zdecydowany wzrost zainteresowania producentów produktami umieszczanymi na Liście Produktów Tradycyjnych. W najbliższym czasie nastąpią także pierwsze publikacje polskich tradycyjnych produktów żywnościowych w Dzienniku Urzędowym Wspólnot Europejskich [Jasiński, Rzutki 2007 s. 33]. Przewidziano także działania związane z żywnością tradycyjną w ramach Europejskiego Funduszu Rolnego na rzecz Rozwoju Obszarów Wiejskich. Wśród producentów żywności tradycyjnej również dominuje głównie nastawienie na zwiększanie w przyszłości w ramach własnej działalności sprzedaży oraz produkcji żywności tradycyjnej, w tym przede wszystkim poprawę jej marketingu. Literatura Biała Księga o Bezpieczeństwie Żywności przyjęta przez Komisję w dniu 12 stycznia 2000 r. Dyrektywa Parlamentu Europejskiego i Rady nr 2000/13/WE z dnia 20 marca 2000 r. w sprawie zbliżenia ustawodawstw Państw Członkowskich odnoszących się do etykietowania, prezentacji i reklamy środków spożywczych, Dz. U. L 109 z 06.05.2002 r. Dyrektywa Rady nr 84/450/EWG z dnia 10 września 1984 r. w sprawie zbliżenia przepisów ustawowych, wykonawczych i administracyjnych Państw Członkowskich dotyczących reklamy wprowadzającej w błąd. 134 Mateusz Kurpacz Jasiński J., Rzutki M. 2007 Rynek produktów regionalnych i tradycyjnych, „Biuletyn Informacyjny ARR”, nr 1 (187). Korzycka-Iwanow M. 2005 Prawo żywnościowe, Warszawa. Leśkiewicz K. 2006 Z prawnej problematyki jakości produktów rolnych, „Przegląd prawa rolnego”, nr 1. Nowińska E., Promińska U., du Vall M. 2005 Prawo własności przemysłowej, Warszawa. O produktach tradycyjnych i regionalnych. Możliwości a polskie realia 2005, red. M. Gąsiorowski, Warszawa. Ochrona znaków towarowych, wzorów przemysłowych i oznaczeń geograficznych w Polsce po akcesji do Unii Europejskiej 2004, Urząd Patentowy RP, Warszawa. Oleszko A. 2006 Prawo żywnościowe wspólnotowego rynku rolnego, Kraków. Ozimek I. 2006 Bezpieczeństwo żywności w aspekcie ochrony konsumenta w Polsce, Warszawa. Prawo żywnościowe Unii Europejskiej 2002, red. E. Notecka, M. Obiedziński, Warszawa. Produkty tradycyjne i regionalne 2004, MRiRW, Warszawa. Rozporządzenie Komisji (WE), nr 2074/2005 z dnia 5 grudnia 2005 r. ustanawiające środki wykonawcze w odniesieniu do niektórych produktów objętych rozporządzeniem (WE), nr 853/2004 i do organizacji urzędowych kontroli na mocy rozporządzeń (WE), nr 854/2004 oraz (WE), nr 882/2004, ustanawiające odstępstwa od rozporządzenia (WE), nr 852/2004 i zmieniające rozporządzenia (WE), nr 853/2004 oraz (WE), nr 854/2004. Rozporządzenie Parlamentu Europejskiego i Rady (WE), nr 852/2004 z dnia 29 kwietnia 2004 r. w sprawie higieny środków spożywczych. Szymecka A. 2005 Ochrona oznaczeń geograficznych w WTO jako przedmiot konfliktu pomiędzy starym światem a nowym światem, „Wspólnoty Europejskie”, nr 5 (162). OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008 Bożena DĄBROWSKA-JASZCZOŁT 1 UWARUNKOWANIA ZMIAN JAKOŚCI MLEKA W SKUPIE NA PRZYKŁADZIE OSM W HAJNÓWCE Streszczenie Z chwilą wejścia Polski do Unii Europejskiej zaczęły obowiązywać takie same wymagania i kryteria oceny mleka surowego, jakie istniały we Wspólnocie. Priorytetem w działalności polskich zakładów mleczarskich stało się pozyskanie surowca najwyższej jakości, gdyż właśnie z takiego mleka można wyprodukować wyroby spełniające oczekiwania konsumentów. Tak więc, przedsiębiorstwa branży mleczarskiej, które chciały sprostać wymaganiom konkurencji, musiały przestrzegać standardów jakościowych, począwszy od etapu pozyskania surowca poprzez jego skup, przerób, a kończąc na sprzedaży gotowych produktów. W wyniku starań zakładów mleczarskich i producentów mleka doszło do wyodrębnienia się grupy województw o relatywnie wysokim udziale mleka klasy ekstra. Do grupy tej należą województwa z północno-wschodniej części Polski (województwo warmińsko-mazurskie i podlaskie). Trwała poprawa jakości mleka surowego wymaga spełnienia wielu warunków, między innymi: czasu, wysokich kosztów i dużych nakładów pracy. Potwierdza to przykład OSM w Hajnówce, która odniosła ogromny sukces w zakresie poprawy jakości skupowanego surowca. Stało się to możliwe dzięki współpracy Spółdzielni z producentami mleka. Podstawę tej współpracy stanowiło specjalistyczne doradztwo oraz finansowe wsparcie przedsięwzięć modernizacyjnych. CONDITIONS CONCERNING CHANGES IN MILK QUALITY AT COLLECTION POINTS CONFIRMED BY THE EXAMPLE OF DAIRY COOPERATIVE IN HAJNÓWKA Summary Poland’s accession into the EU involved meeting EU standards with respect to milk quality. The collection of the highest quality raw milk became a priority for the Polish dairy plants, because only such raw material can be used in the production of the best quality dairy products that are required by consumers. Therefore, all dairy firms that wanted to be a match for other competitive dairy plants, had to comply with all quality standards considering the following steps: raw milk output, milk collection, milk processing and sales of dairy products. A group of provinces with a big share of extra class milk was separated in the result of dairy plants efforts and their cooperation with dairy farms. The provinces of the Northern and Eastern Poland (Podlaskie and Warmińsko-Mazurskie Provinces) belong to this group. The stable improvement of raw milk quality needs compliance with many conditions, for instance: expenditure of time, high costs, expenditure of work etc. The above is confirmed by the example of Dairy Cooperative in Hajnówka. This cooperative achieved a great success in the field of the improvement of raw milk quality. The cooperation between the cooperative and milk producers made it possible. But the main base of this cooperation included specialist advisory service and financial backing aimed at modernization of dairy farms. 1 Mgr Bożena Dąbrowska-Jaszczołt jest doktorantką na Wydziale Ekonomii i Zarządzania Uniwersytetu w Białymstoku 136 Bożena Dąbrowska-Jaszczołt 1. Wstęp Jakość mleka, jako surowca bardzo nietrwałego i biologicznie aktywnego, posiada szczególne znaczenie dla przemysłowego przerobu. Na kolejnych etapach postępowania z nim można jedynie zabiegać o to, aby jego jakość nie uległa pogorszeniu. Warto podkreślić, że jakość surowca mlecznego raz już utracona jest nie do poprawienia. Nowoczesne technologie, urządzenia techniczne oraz znakomita organizacja w zakładzie mleczarskim nie spowodują, iż powstanie wysokiej klasy wyrób z mleka, które cechuje zła jakość [Gornowicz 2003 s. 23]. Jakość surowca mlecznego (oraz jego przetworów) jest określana za pomocą parametrów o charakterze mierzalnym i niemierzalnym. Wskazują one na cechy produktu nadającego się do przerobu lub spożycia, a wyrażają się w walorach odżywczych, smakowych, sensorycznych oraz estetycznych. Jak słusznie zauważa A. Zalewski, ze względu na cechy mikrobiologiczne, mleko jest surowcem specyficznym. Natomiast biorąc pod uwagę jego cechy odżywcze jest ono artykułem uniwersalnym. Na jakość surowego mleka wpływają: skład chemiczny oraz jakość higieniczna. Pierwszy z wymienionych czynników decyduje o wydajności i kosztach przetwórstwa, z kolei drugi określa wartość biologiczną pod kątem przydatności do spożycia i pewności zdrowotnej [Zalewski 2000 s. 34 – 35]. Ponadto, obok ceny, jakość to najistotniejszy warunek konkurencyjności produktu. Przedsiębiorstwa branży mleczarskiej, które chcą sprostać wymaganiom konkurencji, muszą przestrzegać standardów jakościowych, począwszy od etapu pozyskania surowca poprzez jego skup, przerób, a kończąc na sprzedaży gotowych produktów [Wysokińska-Senkus 2006 s. 30]. W opracowaniu przedstawiono, jak kształtowały się zmiany jakościowe w skupie mleka w OSM w Hajnówce w latach 2001 – 2006. Podjęto również próbę wskazania na czynniki, które istotnie wpływały na dokonujące się w strukturze jakościowej przemiany. 2. Standardy jakości mleka w Polsce – zasady i wymagania w odniesieniu do produkcji i oceny mleka surowego2 Do niedawna jednym z głównych problemów polskiego mleczarstwa była jakość mleka surowego3 [Sarnecki 2004 s. 53]. Niska jakość surowca uniemożliwiała produkcję wyrobów, które byłyby w stanie skutecznie konkurować na rynkach zagranicznych. Z chwilą wejścia Polski do Unii Europejskiej, takie same wymagania i kryteria oceny mleka surowego, jakie istniały we Wspólnocie, obowiązują także w Polsce [Wysokińska2 Ze względu na poruszany w opracowaniu problem autorka koncentruje się na zapisie Rozporządzenia MRiRW z dnia 5 lipca 2002 roku (Dz. U. Nr 117 poz. 1011 z 25 lipca 2002r.); Rozporządzenie Ministra Rolnictwa i Rozwoju Wsi w sprawie szczegółowych warunków weterynaryjnych wymaganych przy pozyskiwaniu, przetwórstwie, składowaniu i transporcie mleka oraz przetworów mlecznych. 3 Do połowy lat 90. zakłady mleczarskie nie stosowały ostrych rygorów i wymagań sanitarno-higienicznych, a perspektywa integracji Polski z UE spowodowała zwiększenie się zainteresowania tym właśnie zagadnieniem. Uwarunkowania zmian jakości mleka w skupie… 137 Senkus 2006 s. 30]. Nowe zasady oraz wymagania w sprawie szczegółowych warunków weterynaryjnych wymaganych przy pozyskiwaniu, przetwórstwie, składowaniu i transportowaniu mleka i jego przetworów, wprowadziło Rozporządzenie Ministra Rolnictwa i Rozwoju Wsi z dnia 5 lipca 2002 roku (Dz. U., Nr 117 poz. 1011 z 25 lipca 2002 roku) [Gornowicz, Jażdżewski, Seremak-Bulge 2003 s. 30]. Według zapisu nadmienionego rozporządzenia mleko surowe to mleko pochodzące od krów, owiec, kóz i bawolic o niezmienionym składzie, które nie było ogrzane do temperatury powyżej 40˚C. Nie było ono także poddane innym zabiegom, które powodowałyby efekty podobne jak ogrzanie, powyżej tej temperatury. Tak więc, świadczy to o tym, że mleko surowe powinno być naturalne, nierozcieńczone wodą, niepozbawione tłuszczu oraz nieuzupełnione żadnymi środkami chemicznymi, czy też innymi substancjami. Wskazane jest, aby natychmiast po udoju zostało ono schłodzone do niskich temperatur, których poziom uzależniony jest od długości okresu jego przechowywania, zanim zostanie poddane obróbce cieplnej. W sytuacji gdy mleko surowe po przyjęciu do punktu skupu, lub zakładu mleczarskiego, nie zostanie poddane obróbce cieplnej w ciągu 4 godzin od jego przyjęcia, to powinno być schłodzone do temperatury nie przekraczającej 6˚C, po czym przechowywane w tej temperaturze do momentu obróbki cieplnej [Wysokińska-Senkus 2006 s. 32 – 33]. Rozporządzenie z dnia 5 lipca 2002 roku zrównało wymagania weterynaryjne co do jakości mleka w Polsce z wymaganiami unijnymi. Oprócz tego, zgodnie z wynikami negocjacji Traktatu, dopuszczało ono do wykorzystania w przetwórstwie, do końca 2006 roku, mleko surowe o parametrach klasy I (wg PN-A-86002:1999 Mleko surowe do skupu – Wymagania i badania4 [Nowakowski 2000 s. 2; Gornowicz, Jażdżewski, Seremak-Bulge 2003 s. 30]. W UE podstawowymi kryteriami oceny surowca mlecznego są ogólna liczba drobnoustrojów oraz liczba komórek somatycznych. W rozporządzeniu ministra rolnictwa (podobnie jak w UE – Dyrektywa Rady 92/46 z dnia 16 czerwca 1992 roku) określono, że mleko surowe, pochodzące od krów, nie powinno zawierać w 1 ml więcej niż 100.000 drobnoustrojów oznaczonych metodą płytkową w temperaturze 30˚C. Z kolei zawartość komórek somatycznych nie powinna przekraczać 400.000. Liczbę drobnoustrojów ustala się dla okresu dwóch miesięcy na podstawie średniej geometrycznej wyników badań, co najmniej dwóch próbek pobranych w ciągu miesiąca. Z kolei liczba komórek somatycznych jest ustalana dla okresu trzech miesięcy w oparciu o średnią geometryczną wyników badań, co najmniej jednej próbki, która jest pobierana w ciągu miesiąca [Tomaszewski 2002 s. 24]. Obecny standard mleka powinien odpowiadać wymaganiom, jakie są postawione w normie dla klasy ekstra. Przejściowe dopuszczenie do skupu surowca o parametrach właściwych dla klasy I nie oznacza, że każdy podmiot skupujący będzie chciał kupować takie mleko [Wysokińska-Senkus 2006 s. 33]. 4 Polska Norma na mleko surowe do skupu PN-A-86002:1999. Wymagania i badania – obowiązuje od 1 stycznia 2000 roku. Zasadniczym celem wprowadzenia tej normy było zwrócenie uwagi producentom i przetwórcom mleka na konieczność podejmowania działań na rzecz kontynuacji poprawy jakości higienicznej i zdrowotnej mleka, a także przybliżenie polskich przepisów i wymogów dla mleka surowego do rozwiązań obowiązujących w Unii Europejskiej. 138 Bożena Dąbrowska-Jaszczołt Oczywiście, zgodnie z przepisami rozporządzenia z dnia 5 lipca 2002 roku, do mleka surowego nie można dodawać wody, a zakład mleczarski prowadzi badania punktu zamarzania mleka surowego w oparciu o losowo pobierane próbki w momencie przelewania mleka do cysterny w punkcie odbioru. W sytuacji gdy wyniki badań potwierdzą, że do mleka surowego została dodana woda, to do badania punktu zamarzania pobiera się próbki mleka bezpośrednio w gospodarstwie produkującym surowiec. Jeżeli wyniki tychże badań wykażą, że woda nie została dodana, to mleko surowe może być wykorzystane do produkcji mleka spożywczego lub też przetworów mlecznych (par. 4. omawianego rozporządzenia), [Rozporządzenie… 2002]. Należy dodać, iż rozporządzenie nie określa punktu zamarzania dla mleka surowego. Natomiast precyzuje, że mleko spożywcze posiada punkt zamarzania nie wyższy niż -0,520ºC, z zastrzeżeniem ust 3. par. 8. rozporządzenia, który to ustęp określa, że punkt zamarzania mleka może być wyższy niż –0,520ºC, jeżeli w wyniku jego badania nie stwierdzono dodania wody do mleka. Ponadto mleko spożywcze musi wykazywać gęstość w temperaturze 20ºC nie niższą niż 1028 g na 1 litr, w przypadku mleka pełnego, lub ekwiwalent gęstości w temperaturze 20ºC, w przypadku mleka całkowicie odtłuszczonego. Oprócz tego mleko spożywcze musi również zawierać minimum 28 g białka na 1 litr (stanowiącego iloczyn całkowitej zawartości azotu wyrażonego w procentach i współczynnika 6,38) oraz musi zawierać nie mniej niż 8,5% suchej masy beztłuszczowej [Dz. U. z 2002 r., Nr 117 poz. 1011, par. 8]. Zgodnie z ujętymi w normie wymaganiami szczegółowymi dotyczącymi gęstości, punktu zamarzania, ogólnej liczby drobnoustrojów, obecności komórek somatycznych, obecności antybiotyków lub innych substancji hamujących, zawartości pestycydów, metali oraz obecności aflatoksyny MI mleko jest także poddawane okresowo badaniom. W przypadku gdy w badanym mleku i produktach mlecznych zostaną wykryte śladowe postaci chemiczne (antybiotyki, sulfonamidy, inne środki przeciwbakteryjne i inne zanieczyszczenia), które przekraczają dopuszczalne normy, mleko i produkty z niego otrzymane nie mogą być dopuszczone do konsumpcji [Wysokińska-Senkus 2006 s. 34]. 3. Struktura jakościowa mleka skupowanego w Polsce Procesy restrukturyzacyjno-dostosowawcze polskiego mleczarstwa do wymogów unijnych rozpoczęły się wcześniej niż w innych sektorach przetwórstwa rolno-spożywczego. Był to proces trudny i kosztowny, ponieważ wiązał się z jednoczesną restrukturyzacją bazy surowcowej tego sektora, reorganizacją skupu mleka oraz ze zmianami w rejonizacji produkcji mleka i produkcyjnej strukturze zakładów mleczarskich [Majewski 2001 s. 76]. Niekorzystnie na jakość skupowanego surowca wpływało rozdrobnienie jego produkcji oraz niewielkie dostawy od producentów [Bielecki, Chechelski, Morkis, Urban 2005 s. 45]. Dopiero od początku lat dziewięćdziesiątych zaczęto w Polsce przywiązywać baczną uwagę do jakości higienicznej mleka. Niewątpliwie swój udział w tym procesie miały mleczarnie, które premiowały dostawy mleka wysokiej jakości oraz wspierały inwestycje prowadzące do poprawy jego jakości. Z pewnością Uwarunkowania zmian jakości mleka w skupie… 139 do poprawy jakości przyczyniło się również wprowadzenie nowej zaostrzonej normy na mleko, która zaczęła obowiązywać od 1 stycznia 2000 roku. Według analiz Głównego Inspektoratu Weterynarii, przeprowadzonych w 2002 roku, stan zaawansowania polskich gospodarstw w dostosowaniu do unijnych wymogów i norm w zakresie pozyskiwania i przechowywania mleka był wysoce zróżnicowany. Z grupy 376 tysięcy dostawców stałych5 [Gornowicz, Jażdżewski, SeremakBulge 2003 s. 33] blisko połowa dostarczała surowiec klasy ekstra. Niemniej jednak niespełna 17 tysięcy z tej grupy (około 4,4% ogólnej liczby dostawców) oraz 8,8% dostawców mleka klasy ekstra posiadało zaświadczenie powiatowego lekarza weterynarii, potwierdzające, że spełniają oni wymogi co do warunków weterynaryjnych. Natomiast prawie 66 tysięcy dostawców (17,5%) dostarczało mleko klasy II, które od 1 stycznia 2003 roku nie jest dopuszczone do obrotu [Garlińska 2004 s. 4]. Stan jakości skupowanego mleka był zróżnicowany terytorialnie, biorąc pod uwagę układ województw [Sarnecki 2004 s. 54]. Dane dotyczące struktury jakościowej mleka skupionego w 2001 i 2002 roku przedstawiono w tabeli 1. TABELA 1. Udział mleka klasy ekstra według województw w 2001 roku i w IV kwartale 2002 roku (%) Udział surowca klasy ekstra w skupie (%) 2001 IV kw. 2002 dolnośląskie 42,9 63,6 kujawsko-pomorskie 75,0 73,25 lubelskie 54,7 62,67 lubuskie 70,7 64,46 łódzkie 46,0 62,93 małopolskie 32,7 11,46 mazowieckie 56,0 79,5 opolskie 54,8 75,1 podkarpackie 24,2 39,0 podlaskie 72,9 84,77 pomorskie 72,6 74,16 śląskie 42,0 69,23 świętokrzyskie 30,6 44,4 warmińsko-mazurskie 74,6 81,35 wielkopolskie 65,5 65,36 zachodnio-pomorskie 60,6 73,05 Polska 56,1 70,1 Województwo Źródło: opracowanie własne na podstawie: [Sarnecki 2004, s. 55; Polskie mleczarstwo… 2003, s. 33]. 5 Do liczby tej należy dodać 48,5 tysiąca gospodarstw dostarczających mleko do skupu okresowo, czyli tylko w miesiącach letnich, nie dłużej niż trzy miesiące, z uwagi na okresowe nadwyżki oraz ze względu na ogłoszenie okresu od 1.04.2002 r. do 31.03.2003 r. jako roku referencyjnego dla przydzielenia kwot mlecznych. 140 Bożena Dąbrowska-Jaszczołt W 2001 roku udział mleka klasy ekstra kształtował się na poziomie 56,1%, ale już w IV kwartale 2002 roku osiągnął on poziom nieco ponad 70%. Udział surowca najwyższej jakości wzrósł w większości województw. Jedynie w województwach: kujawsko-pomorskim, lubuskim, małopolskim i wielkopolskim odnotowano spadek udziału mleka klasy ekstra. Udział mleka wysokiego standardu w tych województwach kształtował się w granicach od 11,5% do 73,3%. Natomiast w województwach: podlaskim i warmińsko-mazurskim mleko klasy ekstra stanowiło ponad 80% skupionego w IV kwartale 2002 roku surowca. Jak słusznie zauważa J. Sarnecki, w wyniku starań zakładów mleczarskich oraz samych producentów mleka doszło do wyodrębnienia się grupy województw o relatywnie wysokim udziale mleka klasy ekstra. Należą tu województwa z północnowschodniej części Polski. Jakkolwiek znacząca i trwała poprawa jakości mleka surowego przeznaczonego do skupu i przetwórstwa wymaga spełnienia wielu warunków, które mogą okazać się szczególnie trudne dla mniejszych gospodarstw. Taka poprawa wymaga czasu, wysokich kosztów i dużych nakładów pracy [Sarnecki 2004 s. 56]. Podsumowując można stwierdzić, iż zróżnicowanie terytorialne gospodarstw pod kątem jakości dostarczanego mleka i wymogów strukturalnych pokrywa się ze strukturą skupionego mleka oraz z rozmieszczeniem zakładów mleczarskich, odpowiadających standardom UE. Zazwyczaj są to mleczarnie najlepsze, które są w stanie zapłacić odpowiednio wysoką cenę za surowiec najwyższej jakości, oraz które stać na przeprowadzanie niezbędnych inwestycji i wdrażanie systemów nadzoru jakościowego. Jak łatwo zauważyć, przoduje w tym względzie województwo podlaskie i warmińsko-mazurskie [Gornowicz, Jażdżewski, Seremak-Bulge 2003 s. 34]. 4. Zmiany jakości mleka skupowanego przez OSM w Hajnówce, w latach 2001 – 2006 Początki działalności przemysłu mleczarskiego na ziemi hajnowskiej sięgają lat 1954 – 1959. Wówczas to została powołana do życia niewielka filia Spółdzielni Mleczarskiej z Bielska Podlaskiego. Początkowo jej zadaniem był skup mleka od okolicznych producentów oraz pozyskiwanie śmietany, którą transportowano do dalszego przerobu, a odtłuszczone mleko zwracano rolnikom6. Okręgowa Spółdzielnia Mleczarska w Hajnówce usytuowana jest na obrzeżu Puszczy Białowieskiej, zajmującej 1/3 powierzchni powiatu hajnowskiego. Brak szkodliwego dla środowiska przemysłu, a także swoisty mikroklimat, sprawiają, iż wyroby spółdzielni są szczególnie cenione wśród konsumentów7. Okręgowa Spółdzielnia Mleczarska w Hajnówce powstała 20 stycznia 1962 roku. W Spółdzielni można wyodOpracowanie własne na podstawie broszur informacyjnych udostępnionych przez OSM w Hajnówce. M. Gornowicz (2003) zwraca uwagę, że do oceny mleka można wykorzystać również kryteria jego jakości ekologicznej. Przykłady takich kryteriów to zawartość pestycydów oraz metali szkodliwych dla zdrowia. Jakość ekologiczna mleka i wyrobów mleczarskich staje się coraz ważniejszym czynnikiem zdobywania przewagi konkurencyjnej na rynku. W szczególności, w przypadku polskiego rolnictwa, czynnik ten może być kluczowym atutem w rywalizacji na rynku wspólnotowym. 6 7 Uwarunkowania zmian jakości mleka w skupie… 141 rębnić trzy główne kierunki działania, a mianowicie: skup surowca mlecznego, jego przetwórstwo oraz zbyt artykułów nabiałowych. Dostawcami mleka są rolnicy z terenu powiatu hajnowskiego, części powiatów: bielskiego, siemiatyckiego i białostockiego. W organizacji skupu mleka podmiotu można wyodrębnić następujące kanały8: – producent – punkt skupu mleka – zakład mleczarski; – producent – punkt odbioru surowca zlokalizowany u rolnika – zakład mleczarski; – producent – autocysterna – zakład mleczarski (tzw. odbiór bezpośredni z gospodarstw). Obowiązująca, od początku 1998 roku, Polska Norma PN-A-86002/1995 „Mleko surowe do skupu”, a także bliska perspektywa integracji Polski z UE sprawiły, że kierownictwo OSM w Hajnówce, już w połowie lat dziewięćdziesiątych, podjęło intensywne działania w kierunku poprawy jakości skupowanego mleka. Początkowo skup surowca mlecznego odbywał się za pośrednictwem zlewni (punktów skupu mleka), skąd był on dostarczany autocysternami do zakładu. Jednakże od 1995 roku zdecydowano o wprowadzeniu dodatkowo nowego systemu odbioru, który polegał na bezpośrednim odbiorze mleka od rolnika (tzw. skup indywidualny)9. Dlatego też w latach 1995 – 1997 zakupiono autocysterny wyposażone w aparaturę pomiarowo-odbiorczą, dostosowane do bezpośredniego odbioru10 [Gaworski, Kupczyk, Wojda 2006 s. 10]. W planach dotyczących restrukturyzacji bazy surowcowej założono dalszy rozwój tej formy odbioru. Zasadniczo miała być ona propagowana wśród rolników zamierzających specjalizować się w produkcji mleka krowiego. Jednocześnie zdecydowano o stopniowym ograniczaniu formy skupu poprzez zlewnie. Wpływ na to miały: wysokie koszty związane z utrzymaniem punktów skupu mleka, malejąca liczba dostawców mleka przynależnych do danej zlewni oraz niewielkie ich dostawy. Ponadto, zdecydowano, iż w miejsce likwidowanych punktów skupu będzie tworzona sieć punktów niskiego chłodzenia mleka (jeden dostawca prowadzi skup na rzecz spółdzielni)11. Dostawców mleka, zainteresowanych rozwojem produkcji mleka, spółdzielnia wspierała oraz w dalszym ciągu wspiera finansowo, udzielając pożyczek z dwóch funduszy. Pierwszy z funduszy FRHB (Fundusz Rozwoju Hodowli Bydła – tzw. składkowy) jest zasilany przez comiesięczne składki, które dobrowolnie odprowadzają dostawcy. Wysokość indywidualnej miesięcznej składki wynosi 15 złotych. Pożyczki udzielane z tego funduszu nie są oprocentowane, a maksymalna wartość 8 Opracowanie własne na podstawie broszur informacyjnych udostępnionych przez OSM w Hajnówce oraz informacji uzyskanych podczas wywiadu z przedstawicielami spółdzielni. 9 W 2006 roku około 50% ogółem skupionego mleka pochodziło z gospodarstw posiadających indywidualne zbiorniki do schładzania. Surowiec wyprodukowany w takich gospodarstwach sklasyfikowano w 99,9% jako mleko klasy ekstra. Opracowano na podstawie: [Czurak 2006]. 10 Standardy unijne dopuszczają w transporcie mleka temperaturę do 10˚C. Natomiast w Polsce transportowane mleko charakteryzuje zazwyczaj niższa temperatura przewozu. Taka sytuacja wynika stąd, że spółdzielnie mleczarskie dysponują autocysternami, które są wyposażone w izolowane zbiorniki na gromadzone mleko. Autocysterny posiadają zainstalowaną aparaturę kontrolno-pomiarową, umożliwiającą pobieranie próbek skupowanego mleka oraz wstępną ocenę jego jakości. Dokonywany jest również pomiar ilości przyjmowanego surowca. 11Opracowanie własne na podstawie broszur informacyjnych, udostępnionych przez OSM w Hajnówce oraz informacji uzyskanych podczas wywiadu z przedstawicielami spółdzielni. 142 Bożena Dąbrowska-Jaszczołt pożyczki może wynieść 10.000 złotych. Drugi z funduszy – FWP (Fundusz Wzajemnej Pomocy) – tworzony jest z odpisów czystej nadwyżki bilansowej (zgodnie z Uchwałą Walnego Zgromadzenia Spółdzielni). Środki pieniężne pozyskane dzięki pożyczkom z obydwu funduszy były przeznaczane między innymi na takie cele, jak: zakup jałówek hodowlanych, zakup urządzeń do schładzania mleka i jego pozysku (zbiorniki do schładzania mleka, dojarki konwiowe lub przewodowe).12 Efektywna współpraca z dostawcami mleka zaowocowała wzrostem ilości skupowanego mleka klasy ekstra, o czym świadczą dane dotyczące struktury skupu mleka w zakładzie w latach 2001 – 2006 (tabela 2.). TABELA 2. Struktura skupu mleka w OSM w Hajnówce w latach 2001 – 2006 (%) Rok 2001 2002 Ogółem 2002 rok 2003 Ogółem 2003 rok 2004 Ogółem 2004 rok 2005 Ogółem 2005 rok 2006 Ogółem 2006 rok I kwartał II kwartał III kwartał IV kwartał I kwartał II kwartał III kwartał IV kwartał I kwartał II kwartał III kwartał IV kwartał I kwartał II kwartał III kwartał IV kwartał I kwartał II kwartał III kwartał IV kwartał Ekstra 63,6 75,3 73,5 69,3 85,3 75,2 90,5 90,0 87,8 93,9 90,5 96,5 96,0 97,2 99,7 97,3 99,7 98,9 98,0 99,2 98,8 99,5 98,9 98,7 99,4 99,1 Skup mleka według klas w% Klasa I* Klasa II** Pozaklasowe 21,8 11,2 3,4 17,2 5,8 1,7 17,8 7,1 1,6 18,0 9,5 3,2 10,2 3,7 0,8 16,0 6,8 2,0 7,2 2,3 7,8 2,2 9,1 3,1 5,0 1,1 7,4 2,1 2,8 0,7 3,4 0,6 2,1 0,7 0,3 2,1 0,6 0,3 1,1 2,0 0,8 1,2 0,5 1,1 1,3 0,6 0,9 * klasę I można było skupować do końca 2006 roku **klasa II obowiązywała do 31 grudnia 2002 roku Źródło: opracowanie własne na podstawie: [M. Czurak b.r.w.] 12 Opracowanie własne na podstawie informacji uzyskanych podczas wywiadu z przedstawicielami spółdzielni. Uwarunkowania zmian jakości mleka w skupie… 143 Dzięki danym z tabeli 2. można z całą pewnością stwierdzić, że w badanym okresie OSM Hajnówka odniosła ogromny sukces w zakresie poprawy jakości skupowanego surowca. W tej dziedzinie nie ustępuje ona miejsca krajowym liderom mleczarstwa. W roku 2001 udział mleka klasy ekstra stanowił prawie 64% ogółu dostaw, ale już w 2003 roku przekroczył on poziom 90%. Natomiast w roku 2006 dostawy w klasie ekstra ukształtowały się na poziomie 99,09%. Należy stwierdzić, że spółdzielni mleczarskiej udało się, w dość krótkim czasie, doprowadzić do istotnej poprawy jakości skupowanego mleka, przy pełnym zaangażowaniu producentów. Można zauważyć, iż w analizowanych latach niewielkie spadki udziału surowca klasy ekstra (od 0,2% do 4,2% w 2002 r.) miały jedynie charakter sezonowy (okres pory letniej). W IV kwartale następował zawsze wzrost udziału mleka o najwyższych standardach. Na uwagę zasługuje także fakt, że już z początkiem IV. kwartału 2004 roku spółdzielnia nie skupowała mleka klasy I. We wspomnianym kwartale 99,7% ogółu dostaw stanowił surowiec sklasyfikowany w klasie ekstra, a jedynie 0,3% stanowiło mleko pozaklasowe. Podsumowując – należy jeszcze raz podkreślić, że tak dobre wyniki mogły być osiągnięte dzięki współpracy producentów mleka ze spółdzielnią. Premiowanie jakości przyczyniało się do mobilizacji dostawców do systematycznej dbałości przy produkcji mleka. Oprócz bodźców finansowych (dopłata do każdego litra surowca klasy ekstra, dopłata za posiadanie atestu weterynaryjnego, pożyczki na korzystnych warunkach), które zachęcały rolników do produkcji mleka najwyższej jakości, OSM w Hajnówce wprowadziła własny program doskonalenia produkcji mleka. Głównym celem programu było objęcie dostawców mleka specjalistycznym serwisem doradczym z zakresu hodowli bydła mlecznego oraz produkcji mleka. Do zadań fachowych służb surowcowych należało między innymi:13 – doradztwo z zakresu podnoszenia wydajności mlecznej krów (prawidłowe żywienie a wydajność); – nauka stosowania środków myjąco-dezynfekujących do dojarek i zbiorników schładzających; – dystrybucja nasion mieszanek traw oraz kukurydzy, a także środków myjąco-dezynfekujących i innych środków niezbędnych przy produkcji mleka; – organizacja szkoleń, których celem było między innymi podniesienie jakości wytwarzanego surowca, a także opłacalności produkcji mleka (higiena, wyposażenie i użytkowanie pomieszczeń związanych z dojem i przechowywaniem mleka, prowadzenie doju i in.). Zarząd OSM w Hajnówce ma świadomość, iż następuje ewolucja bazy surowcowej, której kluczowym przejawem jest koncentracja produkcji. Dlatego też zakład będzie w dalszym ciągu wspierał gospodarstwa dążące do osiągnięcia specjalizacji w produkcji mleka najwyższej jakości. 13 Opracowanie własne na podstawie informacji uzyskanych podczas wywiadu z przedstawicielami kierownictwa spółdzielni (Pani Prezes Wiera Pawluczuk, Kierownik Działu Skupu – Pan Mikołaj Czurak). 144 Bożena Dąbrowska-Jaszczołt 5. Wnioski Wstąpienie Polski do Unii Europejskiej wymagało od polskiej branży mleczarskiej przeprowadzenia intensywnych procesów dostosowawczych, których zasadniczym elementem była konieczność dokonania zmian (prawnych, organizacyjnych i technologicznych) w bazie surowcowej tego sektora. Modernizacja gospodarstw zajmujących się produkcją mleka wymagała znacznych nakładów ze środków własnych rolników, wspieranych pomocowymi środkami z UE, a także środkami z budżetu krajowego. Niemniej jednak efekty tych działań są już widoczne. Wystarczy przytoczyć dane dotyczące udziału mleka klasy ekstra w 2002 r. (70,1% dostaw ogółem). Dalszą poprawę w strukturze jakości mleka zarejestrowano w 2003 r. (ponad 81%). Podczas gdy w 2001 roku surowiec tej klasy stanowił tylko 56,1% ogółu dostaw. Najwięcej mleka klasy ekstra w IV kwartale 2002 roku skupiono w województwach: podlaskim, warmińsko-mazurskim i mazowieckim. Swój udział w osiągnięciu tych wyników, obok dostawców mleka, mają z pewnością również zakłady mleczarskie. Wśród których znalazła się także Okręgowa Spółdzielnia Mleczarska w Hajnówce. W 2004 roku aż 97,3% ogółu dostaw spółdzielnia skupiła jako surowiec klasy ekstra. Wynik ten ulegał systematycznej poprawie w kolejnych latach (2005 r. – 98,8%, 2006 r. – 99,1%). Przedstawione w opracowaniu zmiany jakości mleka w skupie zarejestrowane w OSM w Hajnówce osiągnięto dzięki m.in.: współpracy producentów mleka ze spółdzielnią, premiowaniu jakości, wsparciu finansowemu ze strony spółdzielni, programom doskonalenia produkcji mleka. Z uwagi na fakt, iż baza surowcowa podlega procesom koncentracji, OSM w Hajnówce w dalszym ciągu będzie wspierać gospodarstwa specjalizujące się w produkcji mleka krowiego oraz te, które zdecydują się na krok w tym kierunku. Literatura Bielecki J., Chechelski P., Morkis G., Urban R. 2005 Przemiany jakościowe przemysłu spożywczego, w: Polski przemysł spożywczy w pierwszych miesiącach po integracji z Unią Europejską, red. R. Urban, Warszawa. Broszury informacyjne i dane uzyskane w trakcie wywiadu z Panią Prezes Wierą Pawluczuk. Czurak M., Struktura skupu mleka w zakładzie 2001 – 2003, Skup mleka w poszczególnych miesiącach 2004r. w rozbiciu na klasy, Skup mleka w poszczególnych miesiącach 2005 r. w rozbiciu na klasy, Skup mleka według form odbioru w poszczególnych miesiącach 2006 r. Garlińska G. 2004 Trudne wyzwania, Rynek mleka w Polsce, Dodatek Specjalny do „Nowego Życia Gospodarczego”, nr 13. Gaworski M., Kupczyk A., Wojda I. 2006 Kierunki restrukturyzacji bazy surowcowej sektora mleczarskiego w Polsce, „Przegląd Hodowlany”, nr 1. Gornowicz M. 2003 Polskie mleczarstwo w aspekcie konkurencyjności na jednolitym rynku Unii Europejskiej, Olsztyn. Uwarunkowania zmian jakości mleka w skupie… 145 Gornowicz M., Seremak-Bulge J. 2003 Potencjał produkcyjny polskiego mleczarstwa, w: Polskie mleczarstwo, Raport o stanie branży i perspektywach jej rozwoju w poszerzonej Unii Europejskiej, red. J. Seremak-Bulge, Warszawa. Majewski J. 2001 Zmiany jakościowe w skupie mleka na przykładzie jednej z firm mleczarskich, w: Roczniki Naukowe Stowarzyszenia Ekonomistów Rolnictwa i Agrobiznesu, t. III, Zeszyt 4, red. B. Klepacki, Warszawa-Poznań-Białystok. Nowakowski S., Polska Norma na mleko surowe do skupu PN-A-86002:1999. Wymagania i badania. Rozporządzenie Ministra Rolnictwa i Rozwoju Wsi z dnia 5 lipca 2002 r. w sprawie szczegółowych warunków weterynaryjnych wymaganych przy pozyskiwaniu, przetwórstwie, składowaniu i transporcie mleka oraz przetworów mlecznych (Dz. U. z 2002 r. Nr 117 poz. 1011). Sarnecki J. 2004 Przetwórstwo i rynek mleka w Polsce w ujęciu przestrzennym, Studia i Monografie, nr 119, Warszawa. Tomaszewski S. 2002 Szczegółowe wymagania weterynaryjne dotyczące higienicznej produkcji mleka, w: Produkcja mleka, praktyczne zastosowanie wymagań UE i Polski dla gospodarstw, red. E. Nitecka, Warszawa. Wysokińska-Senkus A. 2006 Standardy jakości mleka na całej drodze mlecznej warunkiem satysfakcji klienta, „Przegląd Mleczarski”, nr 9. Zalewski A. 2000 Gospodarka mleczarska a rynek, Studia i Monografie, nr 98, Warszawa. OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008 Piotr KOWALCZUK 1 PÓŁSILNA I SILNA FORMA EFEKTYWNOŚCI RYNKU AKCJI W ŚWIETLE DOTYCHCZASOWYCH BADAŃ EMPIRYCZNYCH Streszczenie Hipoteza efektywności rynku, mimo że liczy sobie już ponad 35 lat, wciąż wzbudza olbrzymie emocje i kontrowersje wśród uczestników rynku kapitałowego. Niniejszy artykuł prezentuje najważniejsze dotychczasowe badania empiryczne dotyczące półsilnej i silnej formy efektywności rynku akcji i jest jednocześnie próbą podsumowania i wyciągnięcia z nich wspólnych wniosków. Artykuł jest kontynuacją artykułu Przewidywalność stóp zwrotu z akcji w świetle dotychczasowych badań empirycznych. Wyniki badań z zakresu analizy zdarzeń nie dają jednoznacznej odpowiedzi na pytanie o efektywność rynku w średniej formie. Rynek szybko (efektywnie) reaguje na informacje o dywidendach, odtajnienie rekomendacji i informacje o nowych emisjach akcji. Średniej formy efektywności rynku natomiast nie potwierdzają badania dotyczące reakcji rynku na wyniki finansowe spółek. Większość tych prac wskazuje na wydłużoną reakcję rynku (dryf). Na polskim rynku również stwierdzono dryf (do 60 dni po komunikacie o wynikach). Dodatkowo, im mniejsza spółka, tym większy dryf, co sugeruje mniejszą efektywność rynku małych spółek w stosunku do rynku spółek dużych. Badania nad silną formą efektywności rynku wskazują, że istnieje grupa inwestorów posiadająca przewagę informacyjną, którą są w stanie wykorzystać w celu osiągnięcia ponadprzeciętnych zysków. Są to insiderzy, czyli osoby zatrudnione na wysokich stanowiskach w spółkach. Fakt ten przeczy silnej formie efektywności rynku. Badania wykazały, że informacją prywatną nie dysponują natomiast zarządzający funduszami inwestycyjnymi oraz analitycy papierów wartościowych (choć w ich przypadku wyniki nie są jednoznaczne). SEMI-STRONG AND STRONG FORM OF STOCK MARKET EFFECTIVENESS BASED ON CURRENT EMPIRICAL STUDY Summary The Efficient Market Hypothesis (EMH) still draws attention of capital market participants even though it is over 35 yeas old. This article brings up the issue of semi-strong and strong forms of the EMH. It presents major empirical researches regarding this issue and tries to draw common conclusions. Event studies results do not provide us with a straightforward answer to the question of semi-strong efficiency. The market quickly reacts to dividends announcements, dissemination of analysts' recommendations and equity issues. However, semi-strong efficiency is not supported by earnings announcements studies. The majority of them show too slow market reaction (“drift”). This drift also occurs on Polish equity market (up to 60 days after earnings announcement). Additionally, the smaller the company, the stronger the drift, which suggests that small-cap market is less efficient. Researches concerning strong form of EMH show that there is a group of investors who possess informational advantage over the others. They are referred to as insiders. This fact is contrary to strong efficiency. According to majority of private information studies, neither fund managers nor analysts (even though there are some doubts in their case) possess private information. 1 Mgr Piotr Kowalczuk jest doktorantem na Wydziale Ekonomii i Zarządzania Uniwersytetu w Białymstoku. 148 Piotr Kowalczuk 1. Wstęp Niniejszy artykuł dokonuje przeglądu najważniejszych dotychczasowych badań empirycznych nad półsilną i silną formą efektywności rynku akcji, próbując wyciągnąć z nich wspólne wnioski. Badania dotyczą głównie rynku amerykańskiego. Stosunkowo mało badań z zakresu półsilnej i silnej efektywności rynku przeprowadzono do tej pory na polskim rynku kapitałowym, ale te które przeprowadzono, zostały ujęte w niniejszym opracowaniu. Artykuł jest niejako kontynuacją artykułu Przewidywalność stóp zwrotu z akcji w świetle dotychczasowych badań empirycznych tego samego autora i razem z nim stanowi spójną całość. Pojęcie efektywności rynku kapitałowego zdefiniował E. Fama. Określił on rynek efektywny jako rynek, na którym ceny zawsze w pełni odzwierciedlają wszystkie dostępne informacje [Fama 1970 s. 383]. Efektywność rynku wynika z szybkiego rozprzestrzeniania się informacji oraz z konkurencji pomiędzy inwestorami, szybko dostosowującymi swoje oczekiwania cenowe do nowych informacji. Hipoteza efektywności rynku, mimo że liczy sobie już ponad 35 lat, wciąż wzbudza olbrzymie emocje i kontrowersje wśród uczestników rynku kapitałowego. Definicja efektywności informacyjnej Famy jest bardzo ogólna i przez to bardzo trudna do empirycznej weryfikacji. Autor wyróżnił więc trzy formy (poziomy) efektywności rynku: 1. Słabą formę efektywności rynku – bieżące ceny papierów wartościowych w pełni odzwierciedlają wszystkie historyczne informacje z rynku papierów wartościowych (np.: notowania, stopy zwrotu, wolumen obrotu, struktura zleceń). Oznacza to, że ceny akcji są nieprzewidywalne i nie można oczekiwać ponadprzeciętnych zysków wykorzystując informacje historyczne (np. poprzez analizę techniczną). 2. Półsilną (średnią) formę efektywności rynku – ceny papierów wartościowych gwałtownie dostosowują się do wszystkich informacji publicznych, czyli bieżąca cena instrumentu finansowego w pełni odzwierciedla wszystkie ogólnodostępne informacje. 3. Silną formę efektywności rynku – ceny akcji w pełni odzwierciedlają wszystkie informacje, mogące mieć wpływ na ceny zarówno publiczne, jak i prywatne. Nie ma inwestorów mających monopol na informacje związane z kształtowaniem się cen. E. Fama, w artykule z 1991 roku, zaproponował następujący podział testów efektywności rynku [Fama 1991 s. 1576 – 1578]: 1. Testy przewidywalności stóp zwrotu (tests for return predictability). 2. Analiza zdarzeń (event studies). 3. Testy informacji prywatnej (tests for private information). Testy przewidywalności stóp zwrotu dotyczą słabej formy efektywności rynku, analiza zdarzeń – średniej formy efektywności rynku, natomiast testy informacji prywatnej – silnej formy efektywności rynku. Rozpoznanie stopnia (formy) efektywności rynku umożliwia ocenę poziomu rozwoju danego rynku i intensywności konkurencji na nim panującej. Poza walorem poznawczym, rozpoznanie stopnia efektywności rynku ma także walor praktyczny, doty- Półsilna i silna forma efektywności rynku akcji… 149 czący „zaleceń postępowania” dla inwestorów na danym rynku. Otóż, jeśli rynek jest efektywny w stopniu słabym, wówczas nie ma zastosowania analiza techniczna (tzn. nie przyniesie ponadprzeciętnych zysków), ponieważ opiera się ona na analizie historycznych danych (głównie cen i obrotów), a wszystkie informacje historyczne są już zawarte w cenach akcji. Ponadprzeciętne zyski może jednak w takiej sytuacji przynieść analiza fundamentalna. Jeżeli rynek jest średnio efektywny, wówczas nie ma sensu ani analiza techniczna, ani analiza fundamentalna, gdyż ani narzędzia analityczne, bazujące na obserwacji historycznych danych rynkowych, ani wykorzystujące wszystkie publicznie dostępne informacje, nie przyczynią się do permanentnego osiągania ponadprzeciętnych zwrotów. Na rynku średnio efektywnym, nowo ogłaszane wiadomości poddawane są przez tysiące konkurujących inwestorów natychmiastowej ocenie, która bardzo szybko przekłada się na decyzje o zakupie lub sprzedaży walorów. W rezultacie tych transakcji cena rynkowa błyskawicznie zmienia się, eliminując tym samym możliwość uzyskania ponadprzeciętnych zysków. W sytuacji rynku średnio efektywnego można pokonać rynek jedynie dysponując informacją prywatną, (tj. informacją poufną bądź umiejętnością trafniejszego interpretowania informacji od większości inwestorów). W sytuacji rynku silnie efektywnego nawet takie informacje i umiejętności nie są w stanie przynieść ponadprzeciętnych zysków. Jedynie analiza portfelowa ma w takiej sytuacji sens, gdyż co prawda nie pozwala pokonać rynku, ale pozwala dostosować oczekiwaną stopę zwrotu do preferowanego przez inwestora ryzyka. 2. Analiza zdarzeń (event studies) W większości prac badawczych metodyka studiów wydarzeń jest podobna. Polega ona na zebraniu próby spółek, których dotyczyły w przeszłości wydarzenia określonego rodzaju, precyzyjnym określeniu momentu, w którym każde z wydarzeń zostało podane do publicznej wiadomości oraz zbadaniu zachowania się kursów w okresie bezpośrednio przed i po opublikowaniu informacji. Przyjmuje się, że rynek szybko (tj. efektywnie) reaguje na nowy komunikat giełdowy, jeśli jego reakcja trwa nie dłużej niż dzień jego ogłoszenia i następny (komunikat może zostać ogłoszony już po zamknięciu sesji). Jeśli reakcja rynku jest wydłużona – tzw. dryf poogłoszeniowy, lub nieadekwatna (np. zbyt silna) – rynek nie jest efektywny. Reakcję rynku bada się przez obliczenie skumulowanej ponadnormalnej (anormalnej, nadzwyczajnej) stopy zwrotu (CAR – Cumulative Abnormal Return) towarzyszącej wydarzeniu, przy czym niekiedy istotną kwestią różnicującą wyniki może być sposób jej obliczania [Szyszka 2003 s. 41 – 42]. Jest ona bowiem sumą różnic rzeczywistych stóp zwrotu i stóp wyznaczonych na podstawie wybranego modelu (np. CAPM), bądź sumą różnic rzeczywistych stóp zwrotu i stóp zwrotu z określonego indeksu giełdowego. Różnice te określamy jako ponadnormalne stopy zwrotu (AR – Abnormal Return). Dzień doniesienia oznacza się w analizach jako dzień „0”, dni przed doniesieniem jako: -1, -2 itd., natomiast dni po doniesieniu jako: +1,+2 itd. CAR jest sumą AR w wybranym okresie np. dniu doniesienia i następnym, co oznaczylibyśmy jako okres [0,+1]. W analizie zdarzeń najczęściej bada się reakcję rynku na: 150 1. 2. 3. 4. 5. Piotr Kowalczuk Wyniki finansowe. Zmiany w polityce dywidendowej. Nowe emisje akcji oraz skup własnych akcji (buy-back). Fuzje i przejęcia. Prasowe publikacje rekomendacji. 2.1. Wyniki finansowe Dotychczasowe rezultaty badań dotyczących reakcji rynku na wyniki finansowe spółek nie są jednoznaczne. Część badaczy dokumentuje efektywną reakcję rynku na te doniesienia, np. Reinganum [Reinganum 1981 s. 24], część wskazuje na „wydłużoną” reakcję rynku (tzw. „dryf poogłoszeniowy”) i ponadnormalne stopy zwrotu nawet do 90 dni po doniesieniu, np.: Bidwell i Riddle [Bidwel, Riddle 1981 s. 198 – 214], Rendleman, Jones, Latane [Rendleman, Jones, Latane 1982 s. 269 – 287]. Tych drugich wydaje się być jednak więcej. Foster, Olsen, Shevlin szacowali oczekiwaną stopę zwrotu za pomocą 4 modeli. Przy wykorzystaniu 2 z nich wystąpił dryf poogłoszeniowy, przy 2 pozostałych – nie. Trzy modele wskazały na płynne narastanie skumulowanej ponadnormalnej stopy zwrotu już od 60 dnia przed ogłoszeniem. Poza nieefektywnością rynku, możliwe jest wytłumaczenie dryfu poogłoszeniowego niedoskonałością modelu wykorzystywanego do szacowania stóp zwrotu (jak zawsze przy obliczaniu CAR). Wyniki autorów wskazują, że nasilenie dryfu jest uzależnione od wielkości spółki – im mniejsza, tym większy dryf w okresie do 60 dni po komunikacie, co może świadczyć o mniejszej efektywności rynku małych spółek [Foster, Olsen, Shevlin 1984 s. 576 i 587 – 598]. Jeśli chodzi o rynek polski, badania były prowadzone przez A. Szyszkę. W latach 1997 – 2000, skumulowana ponadnormalna stopa zwrotu w dniu publikacji wyników i następnym wyniosła 0,3% dla spółek, które nie zaskoczyły rynku, 0,9% dla spółek, które zaskoczyły pozytywnie i –0,7% dla spółek, które zaskoczyły negatywnie (tylko dla nich była istotna statystycznie). Szyszka zaobserwował też dryf poogłoszeniowy do 60 dni po komunikacie [+2,+60] dla spółek, które negatywnie zaskoczyły rynek. Dryf był tym silniejszy, im bardziej zaskakujące były wyniki: -12,5% dla najgorszych wyników [Szyszka 2003 s. 127 – 132]. 2.2. Zmiany w polityce dywidendowej Zmiany w polityce dywidendowej, podobnie jak wyniki finansowe, stanowią istotną informację dla inwestorów i powinny powodować szybkie zmiany kursów akcji. Badania empiryczne wskazują, iż niespodziewane zmiany w wysokości dywidendy wywołują szybką reakcję kursu w tym samym kierunku co zmiana wysokości dywidendy. Zatem reakcja rynku na te wydarzenia jest efektywna. Aharony i Swary zbadali próbę 149 spółek przemysłowych NYSE (1963 – 1976) i odkryli, że wzrost deklarowanej dywidendy (kwartał do kwartału) pociąga za sobą Półsilna i silna forma efektywności rynku akcji… 151 dodatni ponadnormalny zwrot, którego olbrzymia część dotyczy dni –1 i 0 (0,72%), jeśli informacja ukazuje się po wynikach kwartalnych i 1,03%, jeśli przed wynikami). W przypadku spadków pojawiał się ujemny ponadnormalny zwrot, również w większości przypadający na dni –1 i 0. Tu jednak reakcja rynku była gwałtowniejsza (-3,76% po wynikach i –2,82 przed wynikami). Gwałtowny spadek był jednak korygowany ponadnormalnymi dodatnimi zwrotami w okresie [+1,+3] – od 0,95 do 1,61%). W grupie spółek, które zwiększyły zyski i dywidendy, taka sama, istotna statystycznie, pozytywna reakcja na lepsze wyniki kwartalne2 (równa 0,91%) występowała niezależnie od tego, czy wyniki były publikowane przed czy po ogłoszeniu deklarowanej dywidendy. Oznacza to, iż komunikaty o dywidendzie niosą dla rynku ważne informacje, dodatkowe w stosunku do tych zawartych w wynikach kwartalnych. Według autorów, wyniki ich badań świadczą o efektywnej reakcji rynku, gdyż rynek szybko dyskontuje informację – głównie w dniu ogłoszenia informacji w prasie (dzień 0) oraz dzień wcześniej (kiedy to najczęściej informacja jest podawana w giełdowych serwisach czasu rzeczywistego), [Aharony, Swary 1980 s. 6 – 11]. Bardzo podobne wyniki uzyskali Amihud i Murgia, których badania dotyczyły rynku niemieckiego. Ponadnormalna stopa zwrotu w odpowiedzi na wzrost zapowiadanej rocznej dywidendy dla dni –1 i 0 wyniosła 0,965%, czyli praktycznie tyle samo co w badaniach Aharony i Swary’ego. W przypadku zmniejszenia zapowiadanej dywidendy, ponadnormalna stopa zwrotu wyniosła –1,73%, czyli około połowę tego co w USA. Również okazało się, że ogłoszenie dywidendy niesie dodatkową informację w stosunku do tej zawartej w wynikach finansowych, ponieważ informacje o dywidendzie powodowały reakcję rynku niezależnie czy były ogłaszane przed czy po wynikach [Amihud, Murgia 1997 s. 402 – 407]. F. Black sugeruje, że dywidendy niosą istotną informację, ponieważ kierownictwo spółek jest niechętne jej obniżaniu. Tak więc o jej podniesieniu decyduje tylko wtedy, gdy widzi duże szanse utrzymania jej na wyższym poziomie. Poza tym, wypłata dywidendy akcjonariuszom sprawia, że kierownictwo spółki nie ma szans na nieoptymalne zainwestowanie tej gotówki [Black 1976 s. 5 – 8]. Bardzo ciekawe badania, poświęcone szybkości reakcji rynku na doniesienia o zmianach w polityce dywidend i odchylenia od spodziewanych wyników finansowych, przeprowadzili Patell i Wolfson. Wykorzystując do analizy notowania intraday (w odróżnieniu od dwóch wyżej opisanych badań) 96 najbardziej płynnych spółek NYSE i AMEX, wykazali, że największa część reakcji cen na wyniki kwartalne i deklaracje dywidend przypada na okres od 5 do 15 minut od ogłoszenia komunikatu w serwisie giełdowym, chociaż wykryli również lekki wzrost aktywności inwestorów w okresie 1 – 2 godzin przed doniesieniem oraz znaczące średnie stopy zwrotu na otwarciu następnej sesji. Badania potwierdzają, że komunikaty o dywidendach zawierają dodatkową informację w stosunku do wyników finansowych, gdyż reakcja rynku na zmianę dywidendy jest podobna do reakcji na wyniki kwartalne zarówno pod względem siły, jak i czasu trwania. Komunikaty o takich samych dywidendach, jak w poprzednim kwartale, generalnie nie maja wpływu na ceny akcji, a ponieważ takie 2 W stosunku do tego samego kwartału roku ubiegłego. 152 Piotr Kowalczuk komunikaty dominują, komunikaty o dywidendach jako grupa mają dużo mniejszy wpływ na ceny akcji niż komunikaty o wynikach [Patell, Wolfson 1984 s. 233 – 250]. 2.3. Nowe emisje akcji i skup własnych akcji (buy-back) Wiele badań poświęcono reakcji rynku na wiadomość o zamiarze przeprowadzenia przez spółkę nowej emisji akcji (zarówno sprzedaży nowych akcji, jak i akcji znajdujących się w rękach dotychczasowych udziałowców): m.in. Asquith i Mullins [1986], Masulis i Korwar [1986]. Dwie wymienione prace badały wpływ nowych emisji na kursy akcji spółek przemysłowych oraz użyteczności publicznej na NYSE i AMEX w latach 1963 – 1981 i 1963 – 1980. Obie dały podobne wyniki. Wykazały, że tego typu informacja odbierana jest przez inwestorów negatywnie. Negatywną reakcję rynku tłumaczy się głównie asymetrią informacyjną (przewagą informacyjną menedżerów) i wizją firmy jako „czarnej skrzynki”, z której nieoczekiwany wypływ gotówki (wzrost dywidendy, buy-back) jest odbierany pozytywnie, zaś zapotrzebowanie na gotówkę (redukcja dywidendy, nowe emisje) – negatywnie. Wyniki Asquitha i Mullinsa pokazały spadek kursu akcji w dniu ogłoszenia komunikatu i w następnym, łącznie o 2,7% w przypadku spółek przemysłowych i 0,9% w przypadku akcji spółek użyteczności publicznej [Asquith, Mullins 1986 s. 70, 82, 87]. Badania Masulisa i Korwara udokumentowały spadki odpowiednio o 3,25% oraz 0,68%. Mniejszy spadek akcji firm użyteczności publicznej może być tłumaczony: inną procedurą emisji (sama oferta oraz jej wielkość muszą być zaaprobowane przez władze stanowe), większą częstotliwością emisji, mniejszą zmianą dźwigni finansowej. Oferty, w których menedżerowie sprzedawali akcje, powodowały większy spadek kursu niż te, w których nie sprzedawali (odpowiednio: -4,54% i -2,22%) [Masulis, Korwar 1986 s. 101 – 117]. Obie prace świadczą o efektywnej reakcji rynku, gdyż reakcja rynku skupiła się w dniu ogłoszenia komunikatu oraz w dniu następnym. Nie było dryfu poogłoszeniowego, a w samym dniu emisji kurs akcji nie zareagował. Wyniki Loughrana i Rittera wskazują, iż menedżment spółek posiada zdolności „wyczucia rynku” (market timing). Nowe emisje akcji występują zwykle w okresie, gdy akcje są drogie, a najgorsze długoterminowe zachowanie kursu akcji pojawia się po okresach wzmożonej aktywności emisyjnej [Loughran, Ritter 1995 s. 23 – 51]. Wynik ten wskazuje, iż menedżment spółek posiada informacje nie uwzględnione w cenach akcji, co przeczy silnej formie efektywności rynku. Operację odwrotną do nowej emisji akcji – zakup przez spółkę własnych akcji (buy – back) badali Dann i Vermaelen. Analizowali okres 60 dni przed i po komunikacie: [-60,+60]. Wykazali, że rynek reaguje pozytywnie na wezwania spółek do sprzedaży własnych akcji (tender offers). Dann zaobserwował stopy zwrotu3 w okresie wezwania 3 „Surowe” stopy zwrotu, tj. bez odejmowania stopy zwrotu z indeksu albo stopy szacowanej na podstawie określonego modelu. Zdaniem autora, stopy zwrotu wyznaczone na podstawie modelu są, przeciętnie rzecz biorąc, tak małe, że nie mają zauważalnego wpływu na wyniki, natomiast znacznie komplikują obliczenia. Półsilna i silna forma efektywności rynku akcji… 153 (w dniu ogłoszenia komunikatu i następnym) łącznie równe 15,78%. Dzienna stopa zwrotu w okresie przedogłoszeniowym wyniosła natomiast –0,09%. Hipoteza zerowa, że stopy zwrotu w okresie ogłoszeniowym i przedogłoszeniowym nie różnią się istotnie, została odrzucona na poziomie istotności 0,01. Ceny akcji po wzroście nie wracają do poprzednich poziomów. Oferowana premia ceny odkupu wynosiła średnio 22,46%. Różnica wynika z możliwości nadpodaży akcji i redukcji zleceń [Dann 1981 s. 114 – 137]. Wyniki Vermaelena są podobne do wyników Dann’a [1981], choć wykorzystał on inną metodę obliczania CAR4. Ponadnormalna stopa zwrotu w okresie wezwania wyniosła 14,14%. Obaj autorzy zauważyli również wysokie stopy zwrotu (ok. +1%) w dniach bezpośrednio przed i po okresie ogłoszeniowym. Tłumaczą to przeciekiem informacji oraz zawieszeniem notowań części spółek po ogłoszeniu wezwania. Ważną obserwacją Vermalaen’a jest przekraczanie prognoz zysków przez spółki skupujące własne akcje w roku wezwania oraz do 5 lat po wezwaniu, czego nie zaobserwowano przed wezwaniem. Autor konkluduje więc, że spółki decydują się na odkup własnych akcji po cenie wyższej od rynkowej, kiedy posiadają pozytywne informacje dotyczące przyszłych zysków. Poza skupem akcji w formie wezwania, Vermaelen badał też skup akcji na otwartym rynku. Ponadnormalne dodatnie zwroty wyniosły tu 3,37% i były poprzedzone narastaniem ujemnej CAR w okresie przedogłoszeniowym (do –7% w ciągu 3 mies. (60 dni) przed wezwaniem), [Vermaelen 1981 s. 140 – 170]. Reakcję na skup własnych akcji na otwartym rynku badali później także Ikenberry, Lakonishok, Vermaelen, otrzymując podobne wyniki: ponadnormalna stopa zwrotu w okresie [-2,+2] była równa +3,54% i poprzedzona ujemną –3,07% w ciągu miesiąca przed komunikatem. Literatura podaje różne motywy skupu własnych akcji przez spółki, choć menedżerowie spółek najczęściej wymieniają jeden: niedowartościowanie akcji. Niewielka krótkoterminowa reakcja rynku na skup akcji na otwartym rynku wydaje się tego nie potwierdzać, ale Ikenberry, Lakonishok, Vermaelen zaobserwowali ponadnormalne stopy zwrotu w ciągu kolejnych 4 lat po komunikacie (łącznie równe 12,1%). Jest to już bardziej zgodne z motywem niedowartościowania. Może też świadczyć o zbyt słabej (nieefektywnej) krótkoterminowej reakcji inwestorów albo o przewadze informacyjnej menedżerów. Największy długoterminowy dryf (+45,3%) zaobserwowano w przypadku value stocks (tu: spółek o najniższym C/WK), w przypadku których motyw niedowartościowania wydaje się najbardziej przekonujący. Ponadnormalne stopy zwrotu dla glamour stocks (najwyższy C/WK) były bliskie 0. Autorzy, podobnie jak Dann i Vermaelen, reakcje rynku na buy – back tłumaczą pozytywnym sygnałem od menedżerów, którzy posiadają pozytywne informacje dotyczące przyszłości spółki i wierzą, że akcje są niedowartościowane. Praca potwierdza wnioski Loughrana i Rittera (1994), że insiderzy posiadają zdolności wyczucia rynku (market timing), czyli zapewne są lepiej poinformowani [Ikenberry, Lakonishok, Vermaelen 1995 s. 182 – 207]. Przeczy to silnej formie efektywności rynku. 4 „Surowa” stopa zwrotu minus stopa zwrotu portfela akcji o zbliżonym współczynniku beta. 154 Piotr Kowalczuk 2.4. Fuzje i przejęcia Wyniki badań dotyczących komunikatów o fuzjach i przejęciach (M&A – mergers & acquisitions) wskazują generalnie na szybką reakcję rynku. Jednocześnie wskazują na narastanie skumulowanej ponadnormalnej stopy zwrotu i wzrost obrotów już około 20 sesji przed komunikatem. Są zatem zgodne ze średnią formą efektywności rynku, ale jednocześnie przeczą formie silnej (można zyskać na informacji prywatnej). Około połowa łącznej reakcji rynku przypada właśnie na okres przeddoniesieniowy. Według badań Keowna i Pinkertona jest to dokładnie 52% [Keown, Pinkerton 1981 s. 859 – 860], według Jarrela i Poulsena: 44% [Jarrell, Polusen 1989 s. 225 – 248], a według Lisy Meulbroek 42% [Meulbroek 1992 s. 1690]. Wskazuje to na przeciek informacji i handel na podstawie informacji poufnej przed oficjalnym doniesieniem. Ponieważ 76% spółek nie informowało w tym okresie o transakcjach insiderów, można się domyślać, że przeciek pochodzi z firm trzecich (tj. podmiotów współpracujących przy organizowaniu fuzji lub przejęcia), [Keown, Pinkerton 1981 s. 863 – 866]. W dniach [-1,0] ponadnormalna stopa zwrotu wynosiła w cytowanych pracach odpowiednio: 12%, 13,9%, 17,6%. Niezgodny z teorią efektywności rynku jest, udokumentowany przez wielu autorów, długotrwały (1 – 3 lata po sfinalizowaniu fuzji) spadek cen akcji połączonych firm. Wskazują na to badania m.in. Asquitha [Asquith 1983 s. 51 – 83] oraz Magenheima i Muellera [Magenheim, Mueller 1988 s. 171 – 193]. Można wnioskować, że inwestorzy przeceniają perspektywy poprawy wyników (efektywności) spółek w wyniku połączenia. Ruback (1988) pisze: Myślę że niechętnie, ale musimy zaakceptować ten rezultat – istotne ujemne zwroty w ciągu 2 lat od fuzji – jako fakt [Rubach 1988 s. 262]. Agrawal, Jaffe i Mandelker dysponując danymi dla prawie wszystkich spółek NYSE i Amex 1955 – 1987, wykazali, że akcje połączonych firm (po uwzględnieniu ryzyka (beta) i efektu kapitalizacji) w ciągu 5 lat od sfinalizowania fuzji tracą łącznie 10,26%. Autorom nie udało się wskazać przekonującego wyjaśnienia tego stabilnego w czasie zjawiska. Co ciekawe, nie występuje ono po publicznych wezwaniach (tender offers), [Agrawal, Jaffe, Mandelker 1992 s. 1606 – 1620]. Można to wyjaśniać tym, że autorzy stwierdzili większe długoterminowe spadki po połączeniach finansowanych akcjami niż gotówką, a finansowanie gotówką jest bardziej typowe dla wezwań. Finansowanie gotówką jest też bardziej prawdopodobne, gdy akcje przejmującego są niedowartościowane, a finansowanie akcjami, gdy są przewartościowane. 2.5. Prasowe publikacje rekomendacji Poza pośrednictwem w obrocie papierami wartościowymi, ważną funkcją domów maklerskich jest doradztwo inwestycyjne. Zatrudnieni w domach maklerskich profesjonalni analitycy sporządzają rekomendacje inwestycyjne dotyczące wybranych walorów. W pierwszej kolejności są one udostępniane najważniejszym klientom, zaś po pewnym czasie, część z nich podawana jest do publicznej wiadomości. Można przypuszczać, że analitycy posiadają dostęp do niektórych informacji poufnych, chociaż teoretycznie, rekomendacja jest opinią wyrażoną przez specjalistów na pod- Półsilna i silna forma efektywności rynku akcji… 155 stawie informacji ogólnodostępnych. Inwestorzy będą reagować na rekomendacje dopóki wierzą, że analitycy mają dostęp do informacji poufnych albo wyżej cenią ich umiejętności niż swoje własne. Ogólnie rzecz biorąc, badania wskazują na szybką reakcję rynku na upublicznienie rekomendacji. Świadczą o tym wyniki badań, które przeprowadzili m.in. Davies i Canes [Davies, Cannes 1978 s. 47 – 55] oraz Beneish [Beneish 1991 s. 402 – 415]. Autorzy Ci, korzystając z podobnych metod, badali reakcję rynku na upublicznienie rekomendacji oraz pogłoski zawarte w rubryce „Heard on the Street” (HS) dziennika „Wall Street Journal” w dniach [-20,+20] i [-30,+30], tyle że ich badania dotyczą innych okresów. Wyniki ich badań podsumowuje tabela 1. TABELA 1. Ponadnormalna stopa zwrotu w reakcji na rekomendacje kupna (K) i sprzedaży (S) w dniu publikacji rekomendacji w WSJ (dzień 0) oraz okresie [-2,+1] – w % Autor(-rzy) Davies i Canes Beneish Badany okres 1970 – 1971 1978 – 1979 K – dzień 0 0,92 1,01 K – okres [-2,+1] 1,39 1,91 S – dzień 0 -2,37 -1,00 S – okres [-2,+1] -2,91 -2,87 Źródło: [Davies, Cannes 1978 s. 48; Beneish 1991 s. 403]. Jak wynika z tabeli, rynek mocniej reaguje na rekomendacje S niż K. Davies i Canes obliczyli, że gdy spółka otrzymuje rekomendację kupna, jej akcje mają 70% prawdopodobieństwo wzrostu, a kiedy otrzymuje rekomendację S – 90% prawdopodobieństwo spadku [Davies, Cannes 1978 s. 51]. Poza tym, Beneish wykazał, że reakcja rynku na indywidualne rekomendacje jest niemal dwukrotnie silniejsza niż w przypadku rekomendacji grupowych (tzn. wskazujących określoną grupę spółek – np. określoną branżę), [Beneish 1991 s. 409]. W obu pracach zaobserwowano płynne narastanie skumulowanej ponadnormalnej stopy zwrotu kilkanaście dni przed opublikowaniem rekomendacji kupna (dryf przedogłoszeniowy), co nie wystąpiło przy rekomendacji S. Może to oznaczać, że klienci biur maklerskich, znający część rekomendacji wcześniej, chętniej korzystają z rekomendacji K niż S5. Być może mała liczba inwestorów, otrzymujących rekomendacje przed ich opublikowaniem lub ich niewystarczające zasoby kapitałowe, sprawia, że rekomendacje nie są całkowicie odzwierciedlone w cenach przed publikacją. Możliwe też, że inwestorzy nie są skłonni do pełnego wykorzystania wiadomości płynących z rekomendacji, gdyż wiązałoby się to z koniecznością deoptymalizacji utrzymywanego portfela. W przypadku rekomendacji S zauważono lekką korektę w górę od 1 do 3 tygodni po dniu 0, co może świadczyć o pewnej nadreakcji rynku na rekomendacje S. 5 Być może, ze względów technicznych, krótka sprzedaż jest procedurą kosztowniejszą i bardziej skomplikowaną, a straty, jakie można ponieść, są teoretycznie nieograniczone. 156 Piotr Kowalczuk Busse i Green zbadali reakcję rynku na rekomendacje w programach CNBC „Morning Call” i „Midday Call”. Okazało się, że ceny akcji o których mówi się w tych programach pozytywnie, notują statystycznie i ekonomicznie istotne wzrosty rozpoczynające się w ciągu 15 sekund od pierwszego wspomnienia nazwy spółki i trwające około 1 minuty. Reakcja cen na negatywne raporty (których było prawie 7 razy mniej) jest głębsza, ale mniej gwałtowna i bardziej rozciągnięta w czasie – do 15 minut (prawdopodobnie ze względu na większe koszty krótkiej sprzedaży). Intensywność handlu (liczba transakcji na minutę) podwaja się w ciągu minuty od wspomnienia nazwy spółki. Można liczyć na małe, ale istotne statystycznie zyski przy zakupie akcji w ciągu 15 sekund od wspomnienia nazwy spółki i sprzedaży między 1 a 2 minutami od tego wydarzenia. Jak widać, postęp techniczny skrócił czas reakcji rynku, co widać przy porównaniu z wynikami badań Patella i Wolfsona (1984), [Busse, Green 2002 s.415 – 435]. Należy pamiętać jednak, że obie prace dotyczą najpłynniejszych spółek amerykańskich. 3. Testy informacji prywatnej (tests for private information) W testach informacji prywatnej bada się czy pewni inwestorzy posiadają informacje prywatne, tj. informacje nie uwzględnione w obecnych cenach akcji, i mogą je wykorzystać w celu osiągnięcia ponadprzeciętnych zysków. Oznaczałoby to oczywiście przewagę tych inwestorów nad pozostałymi. W testach informacji prywatnej badaniu podlegają najczęściej: 1. Skuteczność rekomendacji inwestycyjnych. 2. Transakcje insiderów. 3. Wyniki funduszy inwestycyjnych. 3.1. Skuteczność rekomendacji Analitycy papierów wartościowych, ze względu na swoje kwalifikacje oraz kontakty z przedstawicielami spółek, są jedną z grup inwestorów, którą podejrzewa się o posiadanie informacji prywatnej. Właśnie dlatego badaniu podlega skuteczność wydawanych przez nich rekomendacji. Najwcześniejszą pracą, badającą skuteczność rekomendacji, jest praca A. Cowlesa (1933) badająca 7500 rekomendacji z lat 1928 – 32. Cowles stwierdził zupełną nieprzydatność rekomendacji. Okres analizy zawiera jednak wielki krach z 1929 roku i dodatkowo Cowles mierzył wyniki przez proste porównanie z indeksem giełdowym bez uwzględniania różnic w ryzyku [Cowles 1933 s. 309 – 324]. Logue and Tuttle zbadali rekomendacje 6 głównych domów maklerskich w 1970 i 1971 roku umieszczone w ,,The Wall Street Transcript’’ (TWST). Stwierdzili, że rekomendacje nie przyczyniają się do takiego wzrostu zysków, jakiej należałoby się spodziewać po wielkości kosztów wiążących się z ich nabyciem. Stwierdzili jedno- Półsilna i silna forma efektywności rynku akcji… 157 cześnie większą skuteczność rekomendacji sprzedaży niż kupna [Logue, Tuttle 1973 s. 38 – 54]. Nie brakuje również nowszych badań kwestionujących użyteczność rekomendacji. Desai i Jain [1995] zbadali skuteczność rekomendacji, zapraszanych co roku przez tygodnik ,,Barron’s’’, najlepszych, zarządzających funduszami (m.in. John Neff, Peter Lynch) analityków i prywatnych inwestorów w latach 1968 – 1991. W krótkim terminie ich badania potwierdzają wcześniej przytoczone badania Daviesa i Canesa [1978] oraz Beneisha [1991]. Ponadnormalna stopa zwrotu w reakcji na publikację rekomendacji K w dniu 0 wyniosła 1,04%, a rekomendacji S: -1,16%. W długim terminie jednak6 badania te pokazują całkowitą nieprzydatność rekomendacji kupna. Jedynie w okresie od dnia po spotkaniu przy Barron’s Annual Roundtable do dnia -1 osiągnięto dodatnią, istotną statystycznie ponadnormalną stopę zwrotu (0,77%)7. Rekomendacje sprzedaży, podobnie jak u Logue and Tuttle [1973], okazały się jednak skuteczniejsze niż kupna. Badania Desai i Jaina wskazują na ich (ograniczoną) przydatność inwestycyjną8, być może ze względu na większą ostrożność przy ich wydawaniu. Taka nieuzasadniona rekomendacja może być bowiem przyczyną zerwania współpracy z domem maklerskim albo nawet procesu wytoczonego przez spółkę. Badania pokazują też tendencję do rekomendowania kupna spółek, które wypadły dobrze i rekomendowania sprzedaży spółek, które wypadły słabo w okresie pół roku przed wydaniem rekomendacji [Desai, Jain 1995 s. 1264 – 1271]. Zgodne z tym są również wyniki badań Grotha i in. (1979) którzy stwierdzili dużo wyższe ponadnormalne stopy zwrotu przed pozytywnymi rekomendacjami niż po nich [Groth, Wilbur, Lewellen, Schlarbaum, Lease 1979 s. 32 – 40]. Długoterminową (1 rok i dłużej) nieskuteczność rekomendacji9 stwierdził też Metrick po zbadaniu rekomendacji kupna z różnych biuletynów inwestycyjnych (m.in. Value Line, MPT Review) w latach 1980 – 1996. Zgodnie z teorią „gonienia trendu”, większość biuletynów (148 ze 153), koncentrowała się na akcjach o średnim i wysokim C/WK (glamour stocks), a tylko 5 na spółkach o niskim C/WK (value stocks). Wszystkie biuletyny koncentrowały się na akcjach o przeciętnych lub ponadprzeciętnych stopach zwrotu, a żaden na akcjach, które w ostatnich 11 mies.-ach wypadły słabo [Metrick 1999 s. 1743 – 1770]. Jest to zgodne z wynikami Jagadesha i in., którzy stwierdzili, że analitycy preferują wysoko wyceniane, popularne w ostatnim czasie spółki (glamour stocks), [Jegadeesh, Kim, Krische, Lee 2002 s. 2]. Na polskim rynku T. Wiśniewski stwierdził, że spółki, otrzymujące rekomendację „kupuj”, nie przynoszą wyższych stóp zwrotu niż losowane spółki o zbliżonym ryzyku (beta). Charakteryzują się jednak mniejszym odchyleniem standardowym (zmiennością). Portfel rekomendowanych spółek był gorszy niż indeks giełdowy Do 3 lat po publikacji rekomendacji. W okresach: [+1,+25], [+1,+250], [+1,+500], [+1,+750] ponadnormalne stopy zwrotu wyniosły odpowiednio: 0,33; 0,21; -0,38 i -0,71% (wszystkie nieistotne statystycznie). 8 Zanotowano CAR równą -8,12% i –10,89% w ciągu 1 i 2 lat od opublikowania rekomendacji (obie istotne statystycznie na poziomie 5%). 9 Pomimo nieuwzględnienia kosztów transakcyjnych. 6 7 158 Piotr Kowalczuk (WIG). Zgodnie z wynikami światowymi, autor stwierdził większą skuteczność rekomendacji sprzedaży niż kupna [Wiśniewski 1999 s. 37 – 39]. Istnieją prace dokumentujące zjawisko „zachowań stadnych” (naśladownictwa) wśród analityków papierów wartościowych. Należą do nich m.in. prace Truemana [Trueman 1994 s. 97 – 124], Grahama [Graham 1999 s. 237 – 268]. Według badań Coopera, Daya i Lewisa, korekty prognoz wyników spółek opracowywanych przez analityków są pozytywnie skorelowane ze zmianami cen akcji w ostatnim czasie, co sugeruje korzystanie przez nich z publicznie dostępnych informacji w celu rewizji prognoz. Częstszym błędem jest też zawyżanie niż zaniżanie prognoz [Cooper, Day, Lewis 2001 s. 383 – 416]. W Polsce, na stadne zachowania analityków wskazuje artykuł Buczka i Pietrzaka. Wyceny spółek IT różnych analityków w okresie „gorączki internetowej” i po niej (okres 1999 – 2003) okazały się podobne do siebie i dodatkowo były skorelowane ze zmianami ceny rynkowej w ostatnim czasie. Rodzi to podejrzenie o manipulowanie wyceną, tak aby była zbliżona do wyceny rynkowej. Innym wnioskiem może być nadmierny optymizm analityków [Buczek, Pietrzak 2004 s. 14 – 16]. Dowodem na permanentny optymizm analityków są badania Easterwooda i Nutt. Ich wyniki wskazują, że analitycy nadmiernie reagują na pozytywne informacje10, a zbyt słabo na negatywne11, przy sporządzaniu prognoz wyników. Być może podejście takie jest typowe nie tylko dla analityków, ale inwestorów w ogóle – piszą autorzy. Możliwe przyczyny tego zjawiska to: 1. Analitycy czerpią część informacji z rozmów z kierownictwem spółek, które ma tendencję do podawania zbyt optymistycznych prognoz oraz zatajania, marginalizowania złych informacji. 2. Przedstawianie spółek w negatywnym świetle (np. obniżenie rekomendacji poniżej „trzymaj”) jest źle widziane przez spółki i może skończyć się odmową udzielenia informacji w przyszłości [Easterwood, Nutt 1999 s. 1778 – 1796]. I. Welch stwierdził, że rekomendacje analityków są pozytywnie skorelowane z ogólnym konsensusem prognoz. Analitycy wydają się więc poświęcać część skuteczności rekomendacji dla ochrony swojej reputacji. Związek ten nie jest silniejszy w okresach, gdy konsensus jest dobrym predykatorem przyszłych zwrotów, lecz w okresach poprzedzonych dobrą koniunkturą i gdy panują optymistyczne nastroje. Być może jest to przyczyną częstszego występowania krachów niż masowych zakupów podczas bessy. Rekomendacje wydawane przez analityków są pozytywnie skorelowane z rekomendacjami 2 następnych analityków [Welch 2000 s. 389 – 394]. Hong, Kubik i Salomon wykazali, że starsi stażem i wiekiem analitycy w mniejszym stopniu ulegają zachowaniom stadnym niż młodsi koledzy: wcześniej formułują prognozy i ich prognozy bardziej różnią się od konsensusu [Hong, Kubik, Salomon 1998 s. 25]. 10 Dobre wyniki spółki w roku ubiegłym, przekroczenie prognozowanego przez analityków zysku w roku ubiegłym. 11 Słabe wyniki spółki w roku ubiegłym, niewykonanie prognozowanego przez analityków zysku w roku ubiegłym. Półsilna i silna forma efektywności rynku akcji… 159 Nie wszystkie badania stwierdzają jednak nieskuteczność rekomendacji. Część stwierdza przydatność rekomendacji w uzyskaniu ponadnormalnych zwrotów, przynajmniej przed odjęciem kosztów transakcyjnych. Należą do nich m.in. badania: Barbera, Lehavy'ego, McNicholsa i Truemana. Autorzy udokumentowali, że w okresie 1986 – 1996 codziennie aktualizowany portfel spółek o najlepszym konsensusie rekomendacji, po uwzględnieniu ryzyka rynkowego oraz efektów: kapitalizacji, C/WK i momentum12, dałby 4,13% ponadnormalnego zysku w skali roku, podczas gdy portfel spółek o najgorszym konsensusie rekomendacji przyniósłby średnioroczną stratę równą -4,91%. Autorom nie udało się jednak znaleźć metody pozwalającej zyskać na tych rekomendacjach ze względu na wysokie koszty transakcyjne (częste transakcje). Rzadsza aktualizacja portfela13 zmniejszała jednocześnie ponadnormalne zwroty. To, że autorom nie udało się znaleźć takiej metody, nie oznacza jednak, że takiej metody w ogóle nie ma [Barber, Lehavy, McNichols, Truman 2001 s. 534 – 562]. Autorzy wykorzystali bazę danych Zacks, która koncentruje się na świadczeniu usług inwestorom indywidualnym, a rekomendacje agreguje na podstawie pisemnych raportów wydawanych przez domy maklerskie. Raporty przekazywane są jednak często przez domy maklerskie z opóźnieniem wobec daty sporządzenia. Womack zbadał 1573 rekomendacje 14 najlepszych domów maklerskich14, pochodzących z bazy danych First Call, w latach 1989 – 1991. First Call zbiera rekomendacje i komentarze analityków i ekonomistów a następnie, niemal natychmiast po ich otrzymaniu, wysyła raporty do swoich klientów (inwestorów instytucjonalnych) poprzez sieć komputerową. Koszt subskrypcji jest znaczny. Womack stwierdził występowanie ponadnormalnych stóp zwrotu zarówno w krótkim terminie15: +3% przy dodaniu spółki do listy rekomendacji kupna oraz –4,7% przy dodaniu do listy rekomendacji sprzedaży, jak i dłuższego dryfu w kierunku zgodnym z rekomendacją. Wydanie rekomendacji pociągało za sobą duży wzrost obrotów (o 90% dla K i o 200% dla S), a rekomendacji S było około 7 razy mniej niż K. W ciągu 1 miesiąca, poczynając od 3 dnia po dodaniu spółki do listy rekomendacji kupna, dodatkowa stopa zwrotu wyniosła +2,4%. Przy dodaniu do listy rekomendacji sprzedaży dryf był dłuższy, trwał 6 miesięcy, a dodatkowa stopa zwrotu wyniosła w tym czasie –9,1%. Tak wysoka stopa zwrotu wydaje się mieć znaczenie ekonomiczne, nawet po uwzględnieniu kosztów prowizji. Dryf był silniejszy w przypadku małych spółek. Ponadnormalne stopy zwrotu zostały obliczone jako różnica stóp zwrotu z walorów będących przedmiotem rekomendacji oraz stóp zwrotów osiągniętych w tym samym okresie przez ogół spółek o podobnej wielkości. Dryf może sugerować, że analitycy posiadają pewne zdolności prognozowania16. Wyniki Womacka wskazały, iż faktycznie posiadają oni pewne zdolności wyczucia rynku (market – timing), wyboru 12 Tendencja kursu akcji (ew. zysków, przychodów) do kontynuacji w krótkim terminie rozpoczętego trendu (anomalia kwestionująca teorię efektywności rynku). 13 Co tydzień, co pół miesiąca i co miesiąc. 14 Według rankingu Institutional Investor z lat 1989 i 1990. 15 W trzydniowym okresie wokół wydania rekomendacji, czyli dni: -1, 0, +1. 16 Inne możliwe wytłumaczenia to: wydłużona reakcja rynku na rekomendację, efekt momentum. 160 Piotr Kowalczuk spółek (stock – picking) oraz w mniejszym stopniu wyboru branży (industry – selection), [Womack 1996 s. 138 – 165]. Oznacza to, że posiadają przewagę informacyjną nad pozostałymi inwestorami, co przeczy teorii efektywności rynku w silnej formie. Jego zdaniem, rezultaty są zgodne z poszerzoną definicją efektywnego rynku, zasugerowaną przez Grossmana i Stiglitza, że nakładom na zdobycie i analizę informacji musi towarzyszyć rekompensująca, dodatnia stopa zwrotu [Grossman, Stiglitz 1980 s. 393 – 408]. Wyniki Womacka wskazują również na występowanie anormalnych zwrotów w okresie 6 miesięcy przed rekomendacją S oraz przed wycofaniem rekomendacji K lub S dla spółki [Womack 1996 s. 149]. Podobne rezultaty do Womacka, przy zastosowaniu podobnych metod badawczych, otrzymał Green. Posłużył się on również danymi z bazy First Call, ale o 10 lat nowszymi (1999 – 2002) i w odróżnieniu od Womacka, który użył danych dotyczących głównie dużych spółek z NYSE i Amex, Green posłużył się danymi z rynku Nasdaq. Krótkoterminowa reakcja rynku na podwyższenie/ obniżenie rekomendacji była około 2 razy większa niż u Womacka i wyniosła +5,74%/-8,81%. Wolumen obrotów w dniu rekomendacji rósł 2 – 3 krotnie. Strategia oparta na wykorzystaniu tych krótkoterminowych zwrotów, przy uwzględnieniu kosztów transakcyjnych, mogłaby dać średnio ponad 30% zysku w skali roku. Dla porównania, stopy zwrotu z Nasdaq wyniosły w badanym okresie: +80%, -40%, -20% i –30%. Green wnioskuje z tego, że rekomendacje analityków posiadają komercyjną wartość. Pozostaje jednak pytanie, czy inwestorzy instytucjonalni korzystający z First Call są w stanie zrealizować takie zyski (trudność realizacji dużych zleceń bez wpływu na kurs akcji). Ponadnormalne, istotne zwroty utrzymywały się 1 miesiąc po podwyższeniu rekomendacji i 3 mies.-e po jej obniżeniu (dryf), wynosząc +1,4% i –4,1%. Anormalne zwroty występowały też miesiąc przed zmianą rekomendacji [Green 2003 s. 2 – 25]. Dimson i Marsh zebrali ponad 4000 niepublikowanych, rocznych prognoz stóp zwrotu sporządzonych dla dużego brytyjskiego funduszu inwestycyjnego przez domy maklerskie (80%) i przez własny zespół analityków funduszu (20%) w latach 1980 – 81. Analitycy byli w stanie odróżnić najlepsze spółki od najgorszych, choć mieli tendencję do nadmiernego optymizmu. Prognozowane, ponadprzeciętne stopy zwrotu poszczególnych kwintyli (uporządkowanych według prognozowanego zwrotu) wynosiły: -10, -1, 3, 8, 18%, podczas gdy rzeczywiste stopy wyniosły: -3,6; 0; 1; 4,4; 4,5%. Współczynniki korelacji między prognozowanym a rzeczywistym zwrotem, dla różnych domów maklerskich, wyniosły od –0,19 do 0,26 (średnio 0,086). Mimo niskich współczynników, transakcje na podstawie tych prognoz, po odjęciu kosztów transakcyjnych, pozwoliły funduszowi w ciągu następnego roku pokonać rynek o 1,7%, co równało się kwocie ok. 2,3 mln funtów. Autorzy wnioskują, że wyniki świadczą o komercyjnej przydatności rekomendacji. Oznacza to, że analitycy posiadają informacje nie uwzględnione w cenach akcji. Jednocześnie zwracają uwagę, że fundusz otrzymywał prognozy od domów maklerskich za darmo – w zamian za dokonywanie transakcji za ich pośrednictwem. Jeśli musiałby za nie płacić, korzyści mogłyby być znacznie mniejsze [Dimson, Marsh 1984 s. 1258 – 1289]. Półsilna i silna forma efektywności rynku akcji… 161 3.2. Transakcje insiderów Osoby zajmujące wysokie stanowiska w spółkach i mające potencjalny dostęp do informacji poufnych (np. członkowie zarządu, członkowie rad nadzorczych) – czyli insiderzy, muszą informować komisje papierów wartościowych o transakcjach akcjami swoich firm. W USA informacje te są publikowane przez SEC (Security Exchange Comission) raz na miesiąc, w postaci specjalnych raportów. Dane te stanowiły przedmiot wielu badań. Do najczęściej przytaczanych prac należą prace: Finnerty'ego [Finnerty 1976 s. 1141 – 1148], Seyhuna [Seyhun 1986 s. 189 – 212], Rozeffa i Zamana [Rozeff, Zaman 1988 s. 26 – 43] oraz Jenga, Metricka i Zeckhausera [Jeng, Metrick, Zeckhauser 1999 s. 2 – 36] – dalej „JMZ”. Rezultaty badań generalnie wskazują na zyskowność transakcji insiderów. Można więc wnioskować, że posiadają oni informacje nie uwzględnione w cenach akcji (najczęściej są to zapewne informacje poufne), które umożliwiają im osiąganie ponadprzeciętnych zwrotów. Insiderzy w sumie sprzedają więcej akcji niż kupują (więcej transakcji i średnio o większej wartości) – Finnerty (1976) i JMZ (1999). Transakcje kupna mają większe szanse na to, że są związane z informacją poufną. Sprzedaż często bowiem dotyczy akcji uzyskanych jako część wynagrodzenia (opcje menedżerskie). Może też być dokonana w celu sfinansowania ważnego zakupu (np. domu), w celu dywersyfikacji portfela albo zwiększenia płynności obrotu na giełdzie, stąd jej termin jest zapewne w większym stopniu przypadkowy. Zapewne dlatego rezultaty badań wskazują na większe ponadnormalne zwroty przy kupnie akcji przez insiderów niż przy sprzedaży (Finnerty (1976): K: 8,34%; S: -4,82% rocznie), albo nawet na zupełny brak ponadnormalnych ujemnych zwrotów przy transakcjach sprzedaży (JMZ (1999)). Według JMZ, duże transakcje insiderów są bardziej zyskowne niż małe. Insiderzy preferują akcje spółek małych i o niskiej wycenie rynkowej (C/Z, C/WK) – czyli value stocks, zatem część zysków to zasługa efektów: kapitalizacji, C/Z, C/WK. Według Rozeffa i Zamana (1988), ponadnormalna stopa zwrotu z transakcji insiderów (łącznie kupna i sprzedaży) wynosiła 8,64% rocznie, a outsiderów (tj. inwestorów spoza spółki, którzy handlowali na podstawie informacji o transakcjach insiderów) 5,64% rocznie. Po uwzględnieniu efektu kapitalizacji i C/Z stopy te spadły do 5,16% i 2,28%. Kiedy Rozeff i Zaman dodatkowo uwzględnili koszty transakcyjne równe 2%17, zyski insiderów spadły do 3,12%, a outsiderów praktycznie do zera (0,24%). Obliczona przez JMZ (1999) ponadnormalna stopa zwrotu z transakcji kupna wyniosła 7,4% rocznie, a po uwzględnieniu efektów: kapitalizacji, C/Z, C/WK i momentum spadła o 1/3 do 4,8% (kosztów transakcyjnych nie uwzględniono). Szósta część tych zysków przypada na okres do 5 dni po transakcji, 1/3 na pierwszy miesiąc, a 3/4 na pierwsze 6 miesięcy. Jest to zgodne z wynikami Finnerty’ego (1976), u którego też większość ponadnormalnych rocznych zwrotów z transakcji kupna przypada na pierwsze 6 miesięcy po zakupie. 17 Kupno + sprzedaż + spread (różnica między ofertami kupna i sprzedaży). 162 Piotr Kowalczuk 3.3. Wyniki funduszy inwestycyjnych Menedżerów funduszy inwestycyjnych, podobnie jak analityków i insiderów, również podejrzewa się o posiadanie informacji nie uwzględnionych w cenach akcji, w tym informacji poufnych. Często pozostają oni bowiem w bieżącym kontakcie z kierownictwem spółek giełdowych i dodatkowo mają dostęp do rekomendacji na długo przed ich upublicznieniem. Jeżeli rynek byłby nieefektywny, należałoby się spodziewać, że będą oni uzyskiwać stopy zwrotu przewyższające przeciętne stopy rynkowe dla określonego poziomu ryzyka. Do klasyki prac, poświęconych tej problematyce, należy artykuł M. Jensena. Po zbadaniu wyników osiągniętych przez 115 amerykańskich funduszy inwestycyjnych w latach 1945 – 1964, Jensen stwierdził, że fundusze nie są w stanie przewidywać cen akcji. Co więcej, nie znalazł dowodów na to, że którykolwiek z badanych funduszy potrafił tego dokonać. Co prawda, 3 fundusze osiągnęły stopę zwrotu wyższą niż należało oczekiwać dla ich poziomu ryzyka rynkowego (beta), ale w badanej próbie mogło wystąpić do 5 – 6 takich rezultatów będących dziełem przypadku18. Nawet po ponownym dodaniu kosztów poniesionych przez fundusze (analizy, księgowość, zarządzanie – wszystko oprócz prowizji maklerskich) przeciętny współczynnik alfa był ujemny i wyniósł –0,04, czyli fundusze radziły sobie o 0,4% rocznie gorzej niż rynek przy danym poziomie ryzyka. Przed dodaniem poniesionych kosztów, fundusze radziły sobie o 1,1% rocznie gorzej od rynku [Jensen 1968 s. 396 – 415]. Korzystając z tej samej bazy danych i metod, ale innego okresu badawczego: 1965 – 1984, Ippolito otrzymał przeciwne rezultaty. Stwierdził, że fundusze jako grupa osiągnęły wyniki lepsze od rynku zarówno w ujęciu brutto (po dodaniu kosztów działalności), jak i netto (bez dodawania kosztów). W ujęciu netto, średnia alfa wyniosła 0,84%, (u Jensena: – 1,1%). Wyniki nie były jednak lepsze od rynku na tyle, aby pokryć opłaty za kupno/odkupienie jednostek uczestnictwa (tzw. dystrybucyjne) w większości funduszy. Mimo to, wyniki są zgodne ze stwierdzeniem Grossmana – Stiglitza (1980), że kosztom poszukiwania i analizy informacji towarzyszy dodatnia stopa zwrotu. Zgodny z tym jest też wniosek Ippolito, że aktywniej zarządzane fundusze (większe obroty i wydatki) uzyskiwały stopę zwrotu na tyle wyższą, aby pokryć różnicę w poniesionych kosztach oraz wyższych opłatach dystrybucyjnych. Współczynnik beta funduszy był podobny u Ippolito i Jensena i wyniósł odpowiednio: 0,88 i 0,84, co oznacza, że, przeciętnie rzecz biorąc, fundusze utrzymywały portfele mniej ryzykowne od portfela rynkowego (S&P 500) [Ippolito 1989 s. 2 – 21]. Elton, Gruber, Das i Hlavka zwrócili jednak uwagę na nieodpowiedniość przyjętego przez Ippolito [1989] benchmarku (S&P 500), gdyż nie zawiera on aktywów spoza S&P 500 (akcji i obligacji), głównie małych spółek, które posiadały w swoich portfelach analizowane fundusze. Podobny błąd popełnił Jensen [1968], ale u Jensena zaniżyło to wyniki, a nie zawyżyło (poza tym błąd był mniejszy). Akcje małych spółek (spoza S&P500) wypadły znacznie lepiej w okresie badawczym Ippolito niż 18 Założono inwestowanie 100% środków, podczas gdy fundusze około 2% przeciętnie utrzymują w gotówce. Założenie to jednak, jak obliczył Jensen, praktycznie nie miało wpływu na wyniki. Półsilna i silna forma efektywności rynku akcji… 163 Jensena. Po korekcie błędu Ippolito okazało się, że fundusze wypadły średnio gorzej od rynku. Co więcej, fundusze o wyższych kosztach, obrocie i opłatach dystrybucyjnych wypadły gorzej niż fundusze zarządzane bardziej pasywnie – o mniejszych kosztach i opłatach dystrybucyjnych. Jest to dokładnie odwrotne do wniosków Ippolito [Elton, Gruber, Das, Hlavka 1993 s. 1 – 21]. Lata 70-te były dużo gorsze dla amerykańskiego rynku akcji niż 80–te, a nowe badania dowodzą, że fundusze inwestycyjne często wypadają lepiej od rynku właśnie podczas bessy (a podczas hossy często gorzej), [Moskowitz 2000 s. 1702]. To też może po części tłumaczyć różnicę wyników Jensena i Ippolito. Według badań Malkiela, fundusze inwestycyjne okazały się gorsze od rynku zarówno w ujęciu netto, jaki i brutto. Przy obliczaniu stóp zwrotu, Malkiel uwzględnił wszystkie fundusze obecne na rynku amerykańskim19 w latach 1971 – 1991 – łącznie z tymi, które zaprzestały działalności. Uniknął dzięki temu tzw. survivorship bias – błędu polegającego na ujmowaniu tylko tych funduszy, które przetrwały cały okres analizy. Błąd ten, choć wcześniej często bagatelizowany, okazał się mieć większe znaczenie niż przypuszczano i wyniósł średnio 4,5% rocznie. Fundusze, które nie przetrwały, miały istotnie gorsze wyniki. Malkiel zaobserwował w latach 70-tych tzw. efekt hot hands, tzn. fundusze, które w ostatnim czasie radziły sobie dobrze (źle), kontynuują dobrą (złą) passę w następnym okresie. Jednak prawidłowość ta wystąpiła tylko w latach 70-tych i nie była kontynuowana później. Co prawda, efekt hot hands przed Malkielem udokumentowali inni badacze, m.in.: Grinblatt i Titman [Grinblatt, Titman 1992 s. 1977 – 1984], Goetzmann i Ibbotson [Goetzmann, Ibbotson 1994 s. 9 – 18], jednak, jak uważa Malkiel, ich wyniki mógł zniekształcić survivorship bias, poza tym okres ich analiz kończy się wcześniej niż Malkiela. Malkiel zaobserwował niewielką (nieistotną statystycznie) pozytywną korelację między wynikami funduszy a ich wydatkami na porady inwestycyjne. Jednocześnie zaobserwował wysoką negatywną korelację między wynikami a wszystkimi pozostałymi wydatkami (marketing, księgowość itp.). Konkluduje on, iż inwestorzy nie otrzymują stosownej rekompensaty za wydatki przeznaczone na zarządzanie funduszem, nawet jeśli weźmiemy pod uwagę wyłącznie wydatki na porady inwestycyjne. Zdaniem Malkiela, jego wyniki świadczą o tym, że rynek jest „w znacznym stopniu” efektywny i lepszą inwestycją są fundusze indeksowe niż zarządzane aktywnie [Malkiel 1995 s. 550 – 571]. Efekt hot hands w dużym stopniu wyjaśniają badania Carharta. Po przeanalizowaniu wolnych od survivorship bias danych z USA z lat 1962 – 1993, stwierdził on, że fundusze, które znalazły się w grupie 10% najlepszych (najgorszych) pod względem wyników w danym roku, mają tendencję do pozostania w tej grupie w roku następnym. Najgorsze fundusze mają tendencję do pozostania w grupie najgorszych nawet dłużej niż rok. Carhart radzi więc unikać funduszy o słabych wynikach. Stwierdzony efekt hot hands w głównej mierze wynika z efektu momentum udokumentowanego przez Jegadeesha i Titmana (1993), efektu kapitalizacji i efektu C/WK. Carhartowi nie do końca udało się wyjaśnić stabilności słabych wyników w grupie najgorszych funduszy za pomocą w/wym. efektów oraz wydatków funduszy. Ważnym wnioskiem 19 Za wyjątkiem funduszy inwestujących w zagraniczne papiery wartościowe i pojedyncze branże. 164 Piotr Kowalczuk Carharta jest stwierdzenie, że wydatki funduszy, koszty transakcyjne i opłaty dystrybucyjne mają negatywny wpływ na ich stopy zwrotu. Przeciętnie rzecz biorąc, fundusze nie rekompensują ich wyższymi stopami zwrotu – udaje się to jedynie najlepszym funduszom [Carhart 1997 s. 57 – 81]. Autorem bardzo obszernych i szczegółowych badań funduszy inwestycyjnych jest Wermers, który po części skorzystał z metod Carharta [1997]. Wermers stwierdził, że przeciętny fundusz miał w portfelu akcje, które były lepsze od rynku (ważony indeks CRSP) o 1,3% rocznie. Z tego 0,6% przypada na specyficzne cechy wybieranych przez fundusz akcji (kapitalizacja, C/WK, momentum), a pozostałe 0,7% wynika ze zdolności menedżerów funduszy do wybierania spółek, które są lepsze niż portfele spółek o podobnych charakterystykach. Może to wskazywać na pewne umiejętności zarządzających. Jednak, jak zwraca uwagę T. Moskowitz w komentarzu do artykułu, wspomniane zdolności wyboru spółek przejawiają się prawie wyłącznie w grudniu, co wskazuje, że przyczyną wyniku Wermersa jest prawdopodobnie window dressing20 i handel w celu osiągnięcia korzyści podatkowych (tax trading). W ujęciu netto fundusze okazały się jednak gorsze od rynku o 1% rocznie. Z 2,3% różnicy między akcjami z portfeli funduszy a wynikami funduszy netto, 1,6% przypada na wydatki funduszy i koszty transakcyjne, a 0,7% na niskie stopy zwrotu z aktywów nie będących akcjami (np. bony skarbowe), utrzymywanymi w celu zachowania płynności. Zatem dodatkowe koszty funduszy (1,6% rocznie) dają dodatkową stopą zwrotu (+1,3%) prawie wystarczającą na ich pokrycie, co jest zgodne z modelem Grossmana-Stiglitza. Badania Wermersa dowodzą również, że fundusze o wyższych obrotach w portfelu i kosztach transakcyjnych posiadają jednocześnie w portfelach akcje o wyższych przeciętnych stopach zwrotu niż fundusze zarządzane bardziej pasywnie [Wermers 2000 s. 1657 – 1701]. Z badań polskich funduszy inwestycyjnych przeprowadzonych przez Czekaja, Wosia, Żarnowskiego dla lat 1995 – 2000 wynika, że zarządzający funduszami nie posiadają ponadprzeciętnych umiejętności ani doboru spółek do portfela (stock picking), ani przewidywania ogólnej koniunktury rynkowej (market timing), [Czekaj, Woś, Żarnowski 2001 s. 132 – 156]. Nowsze badania Starobrata wykazały, że polskim funduszom inwestycyjnym w latach 1999 – 2004 nie udało się pokonać rynku. Badania pokazały też istotną, negatywną korelację między wynikami funduszy a ich wydatkami, opłatami dystrybucyjnymi i stopniem obrotu portfela [Starobrat 2004 s. 86 – 92]. Zatem większość badań dotyczących funduszy nie stwierdza ponadprzeciętnych zdolności zarządzających. Można więc wnioskować, że zarządzający funduszami inwestycyjnymi na ogół nie posiadają informacji prywatnej. 20 Praktyka funduszy inwestycyjnych zmierza do pokazania inwestorom portfela i wyników lepszymi niż są w rzeczywistości np. przez przebudowanie portfela pod koniec roku (kwartału), tak aby zawierał spółki o wysokich stopach zwrotu w ostatnim czasie albo spółki uważane za bezpieczne i nie zawierał spółek słabych. Półsilna i silna forma efektywności rynku akcji… 165 4. Podsumowanie Podsumowując należy stwierdzić, że wyniki badań z zakresu analizy zdarzeń nie dają jednoznacznej odpowiedzi na pytanie o efektywność rynku w średniej formie. Rynek szybko (efektywnie) reaguje na informacje o dywidendach, odtajnienie rekomendacji i informacje o nowych emisjach akcji. Badania nad nowymi emisjami oraz skupem własnych akcji stwierdzają, że menedżment spółek może posiadać przewagę informacyjną nad resztą rynku. Świadczy o tym przekraczanie prognoz wyników i wzrost cen akcji (dryf) do 4 – 5 lat po skupie własnych akcji oraz fakt, że nowe emisje występują w okresach, kiedy akcje są drogie (po wzmożonej aktywności emisyjnej następują długoterminowe spadki kursu). Średniej formy efektywności rynku nie potwierdzają natomiast badania dotyczące reakcji rynku na wyniki finansowe spółek. Większość prac wskazuje tu na wydłużoną reakcję rynku (dryf). Na polskim rynku również stwierdzono dryf (do 60 dni po komunikacie o wynikach). Dodatkowo, im mniejsza spółka, tym większy dryf, co sugeruje mniejszą efektywność rynku małych spółek w stosunku do rynku dużych spółek. Badania dotyczące reakcji rynku na fuzje i przejęcia są niejednoznaczne, gdyż z jednej strony wskazują na szybką reakcję rynku na komunikat, natomiast z drugiej – na spadek w długim terminie (1 – 3 lata) cen akcji połączonych firm. Może to wskazywać, że inwestorzy zbyt optymistycznie reagują na informację o połączeniu. Jeśli chodzi o badania nad silną formą efektywności rynku, wskazują one że insiderzy (tj. osoby zatrudnione na wysokich stanowiskach w spółkach) posiadają informacje pozwalające im osiągać ponadprzeciętne zyski. Przeczy to silnej formie efektywności rynku, gdyż na rynku silnie efektywnym nie ma grupy inwestorów posiadających przewagę informacyjną, którą mogliby wykorzystać do osiągania ponadprzeciętnych zysków. Badania wykazały, że informacją prywatną nie dysponują natomiast zarządzający funduszami inwestycyjnymi oraz analitycy papierów wartościowych (choć w ich przypadku wyniki nie są jednoznaczne). Polski rynek nie był w tej kwestii wyjątkiem, o czym świadczą wyniki badań Starobrata (2004), Czekaja, Wosia i Żarnowskiego (2001) oraz Wiśniewskiego (1999). Literatura Agrawal A., Jaffe J., Mandelker G.N. 1992 The Post – Merger Performance of Acquiring Firms, „Journal of Finance”, September. Aharony J., Swary I. 1980 Quarterly Dividend an Earnings Announcements and Stockholders’ Returns: An Empirical Analysis, „Journal of Finance”, March. Amihud Y., Murgia M. 1997 Dividends, Taxes, and Signalling: Evidence from Germany, „Journal of Finance”, March. Asquith P. 1983 Merger bids, uncertainty and stockholder returns, „Journal of Financial Economics”, April. Asquith P., Mullins D.W. 1986 Equity Issues and Offering Dilution, „Journal of Financial Economics”, January – February. 166 Piotr Kowalczuk Barber B., Lehavy R., McNichols M., Trueman B. 2001 Can Investors Profit from the Prophets? Security Analyst Recommendations and Stock Returns, „Journal of Finance”, April. Beneish M. 1991 Stock Prices and the Dissemination of Analysts’ Recommendations, „Journal of Business”, July. Bidwel C.M., Riddle J.R. 1981 Market Inefficiencies-Opportunities for Profits, „Journal of Accounting, Auditing and Finance”, Spring. Black F. 1976 The Dividend Puzzle, „Journal of Portfolio Management”, No. 2. Buczek S., Pietrzak M. 2004 Stadne zachowania analityków, „Parkiet”, 6 – 8 marca, nr 47 (2463). Busse J., Green T. 2002 Market efficiency in real time, „Journal of Financial Economics”, September. Carhart M. 1997 On Persistence in Mutual Fund Performance, „Journal of Finance”, March. Cooper A., Day T., Lewis C. 2001 Following the leader: a study of individual analysts’ earnings forecasts, „Journal of Financial Economics”, September. Cowles A. 1933 Can Stock Market Forecasters Forecast?, „Econometrica”, Vol. 1. Czekaj J., Woś M., Żarnowski J. 2001 Efektywność giełdowego rynku akcji w Polsce, Z perspektywy dziesięciolecia, Warszawa. Davies P., Canes M. 1978 Stock Prices and the Publication of Second – Hand Information, „Journal of Business”, January. Desai H., Jain P. 1995 An Analysis of the Recommendations of the “Superstar” Money Managers at Barron’s Annual Roundtable, „Journal of Finance”, September. Dimson E., Marsh P. 1984 An Analysis of Brokers’ and Analysts’ Unpublished Forecasts of UK Stock Returns, „Journal of Finance”, December. Easterwood J., Nutt S. 1999 Inefficiency in Analysts’ Earnings Forecasts: Systematic Misreaction or Systematic Optimism?, „Journal of Finance”, October. Elton E. J., Gruber M. J., Das S., Hlavka M. 1993 Efficiency with Costly Information: A Reinterpretation of Evidence from Managed Portfolios, „Review of Financial Studies”, No. 1. Fama E.F. 1991 Efficient Capital Markets II, „Journal of Finance”, December. Fama E.F. 1970 Efficient Capital Markets: A Review of Theory and Empirical Work, „Journal of Finance”, May. Finnerty J.E. 1976 Insiders and Market Efficiency, „Journal of Finance”, September. Foster G., Olsen C., Shevlin T. 1984 Earning Releases, Anomalies, and the Behavior of Security Returns, „Accounting Review”, October. Goetzmann W., Ibbotson R. 1994 Do Winners Repeat? Patterns in Mutual Fund Behavior, „Journal of Portfolio Management”, Winter. Graham J.R. 1999 Herding among investment newsletters: theory and evidence, „Journal of Finance”, February. Green T. 2003 The Value of Client Access to Analyst Recommendations, Emory University Goizueta Business School Working Paper, August. Grinblatt M., Titman S. 1992 The Persistence of Mutual Fund Performance, „Journal of Finance”, December. Półsilna i silna forma efektywności rynku akcji… 167 Grossman S., Stiglitz J. 1980 On the Impossibility of Informationally Efficient Markets, „American Economic Review”, No. 70. Groth J., Wilbur J.C., Lewellen G., Schlarbaum G., Lease R. 1979 An Analysis of Brokerage House Securities Recommendations, „Financial Analysts Journal”, JanuaryFebruary. Hong H., Kubik J.D., Salomon A. 1998 Security Analysts’ Career Concerns and Herding of Earnings Forecasts, Working Paper, July, SSRN Electronic Library. Ikenberry D., Lakonishok J., Vermaelen T. 1995 Market underreaction to open market share repurchases, „Journal of Financial Economics”, October – November. Ippolito R.A. 1989 Efficiency with Costly Information: A Study of Mutual Fund Performance 1965–1984, „Quarterly Journal of Economics”, February. Jarrell G., Polusen A. 1989 Stock trading before the announcement of tender offers: Insider trading or market anticipation? „Journal of Law, Economics and Organisation”, No. 5. Jegadeesh N., Kim J., Krische S. D., Lee Ch. 2002 Analyzing the Analysts: When do Recommendations Add Value? Working Paper, AFA 2002 Atlanta Meetings, May, SSRN Electronic Library. Jeng L.A., Metrick A., Zeckhauser R. 1999 The Profits to Insider Trading: A Performance – Evaluation Perspective, NBER Working Paper 6913, January. Jensen M. 1968 The Performance of Mutual Funds in the Period 1945 – 1964, „Journal of Finance”, May. Keown A., Pinkerton J. 1981 Merger Announcements and Insider Trading Activity: An Empirical Investigation, „Journal of Finance”, September. Dann L.Y. 1981 Common Stock Repurchases, „Journal of Financial Economics”, No. 9. Logue D., Tuttle D.L. 1973 Brokerage House Investment Advice, „Financial Review”, February. Loughran T., Ritter J. 1995 The New Issue Puzzle, „Journal of Finance”, March. Magenheim E., Mueller D. 1988 Are acquiring firm shareholders better off after an acquisition?, w: eds. J. Coffee, L. Lowenstein, S. Rose-Ackerman, Knights, Riders and Targets, Oxford. Malkiel B.G. 1995 Returns from Investing in Equity Mutual Funds 1971 to 1991, „Journal of Finance”, June. Masulis R.W., Korwar A.N. 1986 Seasoned Equity Offerings, „Journal of Financial Economics”, January – February. Metrick A. 1999 Performance Evaluation with Transactions Data: The Stock Selection of Investment Newsletters, „Journal of Finance”, October. Meulbroek L. 1992 An Empirical Analysis of Illegal Insider Trading, „Journal of Finance”, December. Moskowitz T. 2000 Discussion, w: eds. R. Wermers, Mutual Fund Performance: An Empirical Decomposition into Stock – Picking Talent, Style, Transaction Costs, and Expenses, „Journal of Finance”, August. Patell J.M., Wolfson M.A. 1984 The Intraday Speed of Adjustment of Stock Prices to Earnings and Dividend Announcements, „Journal of Financial Economics”, 13 June. 168 Piotr Kowalczuk Randleman R., Jones C., Latane H.A. 1982 Empirical Anomalies Based on Unexpected Earnings and the Importance of Risk Adjustments, „Journal of Financial Economics”, November. Reinganum M. 1981 Misspecification of Capital Asset Pricing, „Journal of Financial Economics”, March. Rozeff M., Zaman M. 1988 Market Efficiency and Insider Trading: New Evidence, „Journal of Business”, January. Ruback R. 1988 Comment, w: eds. A. Auerbach, Corporate Takeovers: Courses and Consequences, Chicago. Seyhun H.N. 1986 Insiders’ Profits, Cost of Trading, and market Efficiency, „Journal of Financial Economics”, June. Starobrat M. 2004 Efektywność silna Giełdy Papierów Wartościowych w Warszawie w latach 1999 – 2004, „Nasz Rynek Kapitałowy”, sierpień. Szyszka A. 2003 Efektywność giełdy Papierów Wartościowych w Warszawie na tle rynków dojrzałych, Poznań. Trueman B. 1994 Analyst forecasts and herding behavior, „Review of Financial Studies”, No. 7. Vermaelen T. 1981 Common Stock Repurchases and Market Signalling, „Journal of Financial Economics”, No. 9. Welch I. 2000 Herding among security analysts, „Journal of Financial Economics”, December. Wermers R. 2000 Mutual Fund Performance: An Empirical Decomposition into Stock – Picking Talent, Style, Transaction Costs, and Expenses, „Journal of Finance”, August. Wiśniewski T. 1999 Teoria błądzenia przypadkowego a efektywność rekomendacji, „Nasz Rynek Kapitałowy”, wrzesień. Womack K. 1996 Do Brokerage Analysts’ Recommendations Have Investment Value? „Journal of Finance”, March. OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008 Agnieszka ZIOMEK 1 OCZEKIWANIA PŁACOWE POSZUKUJĄCYCH PRACY W WIELKOPOLSCE – ASPEKTY TEORETYCZNE I WYNIKI BADAŃ EMPIRYCZNYCH Streszczenie W treści artykułu zawarto rozważania na temat jednej z nieformalnych instytucji, w rozumieniu ekonomii instytucjonalnej. Są to zachowania odnoszące się do oczekiwania pożądanego dochodu wśród osób poszukujących pracy zarówno bezrobotnych, jak i pracujących. Przeprowadzone badanie ankietowe, pod kątem oczekiwań pożądanego dochodu, zostało przeprowadzone w styczniu i w czerwcu 2006 roku wśród mieszkańców Wielkopolski. Badanie to pozwoliło ustalić, jak nabyte doświadczenia na rynku pracy kształtują osobiste oczekiwania dochodu charakterystycznej grupy osób, bezrobotnych i zatrudnionych, poszukujących pracy . WAGE EXPECTATIONS AMONG THE JOB SEEKERS IN THE WIELKOPOLSKA REGION – THEORETICAL ASPECTS AND THE RESULTS OF EMPIRICAL STUDY Summary The paper is based on informal institution analysis in accordance with the institutional economics theory. The author assumes that wage expectations are a kind of an informal institution. The characteristic level of these expectations can be observed among labour market participants as the unemployed and work seeking employed. The survey presented in the paper was carried out in January and June 2006 among a group inhabitants of the Wielkopolska region. The survey results enable the author to define how the experience gathered on the labour market influences personal wage expectations among job seekers – the unemployed and employed people. 1. Wstęp Gospodarka to organizm złożony z szeregu formalnych i nieformalnych instytucji i powiązań, tworzących pełen system społeczno-gospodarczy. Nieformalne instytucje, tworzące wspomniany system, powstają jako formuły ludzkich zachowań w odpowiedzi na pojawiające się w ich otoczeniu problemy. Zachowania ludzkie, inaczej reakcje, są z kolei powtarzane metodą naśladownictwa i akceptowane lub odrzucane przez środowisko jako reguły postępowania. Wielokrotnie powstają w sposób przypadkowy, ich cel czy pochodzenie nie są znane a ich istnienia często nie jeste1 Dr Agnieszka Ziomek jest pracownikiem Akademii Ekonomicznej w Poznaniu. 170 Agnieszka Ziomek śmy świadomi. Tak powstają nieformalne instytucje, tworzące podstawę porządku społeczno-gospodarczego, są one produktem ludzkiego działania, a nie ludzkiego planu [Kostro 2001 s. 140 – 141]. Jednym z przykładów nieformalnych instytucji są typowe dla osób o niskich dochodach zachowania w stosunku do przyszłości, formułowane na bazie minionych doświadczeń oraz aktualnej sytuacji majątkowej. Elementem tego typu zachowań są między innymi oczekiwania pożądanego dochodu wśród osób poszukujących pracy zarówno bezrobotnych, jak i pracujących. Są one wynikiem pewnego nawyku, zwyczaju, charakterystycznego dla tej właśnie subgrupy społecznej. Zagadnienie ludzkich planów i przewidywań podkreślił F.A. von Hayek, twierdząc, że tym, co tworzy rynek stanowiący centralny człon gospodarki, są ludzkie przewidywania i plany działania, a ich zbieżność, koordynacja doprowadza do stanu dynamicznej równowagi rynku [Kostro 2001 s. 125 – 129]. Czy niskie oczekiwania płacowe, które wywołują uzyskiwane dotąd niskie zarobki, sięgają do rangi nieformalnej instytucji? Interpretując to zjawisko jako nawyk, czy naśladowaną przez innych postawę, można ująć je w ramy stwierdzeń instytucjonalnego nurtu ekonomii. Inną kwestią jest określenie „niskie oczekiwania płacowe”. Charakter poziomu oczekiwań można sformułować w relacji do obecnych dochodów, które zabezpieczają bądź nie zabezpieczają podstawowych potrzeb w granicach minimum socjalnego2. Zatem, jeśli osoba otrzymuje zbyt małe dochody oscylujące w granicach minimum socjalnego i jednocześnie formułuje oczekiwania w stosunku do dochodu w granicach 150% uzyskiwanego dochodu, przyjąć można, iż oczekiwania te są niskie (por. wykres 3. i 4.). Dla zinterpretowania zależności pomiędzy niskimi aspiracjami płacowymi a trudnościami w uzyskaniu pracy lub zmiany zatrudnienia można posłużyć się mechanizmem Melvina Lernera nazwanym „wiarą w sprawiedliwy świat” [Praca, Kształcenie… 2004 s. 20]. Mechanizm ten polega na tłumaczeniu pewnego porządku według zasady: zło dotyka złych ludzi, a dobro dobrych. Wiara w istnienie takiego porządku rzeczy może być charakterystyczna dla ludzi mających trudności ze znalezieniem zatrudnienia, którzy identyfikują zło jako utratę pracy, odrzucenie, niesprawiedliwość. Niska samoocena może mieć związek z niską wartością oczekiwań przyszłych zarobków. Taka postawa jest z kolei źródłem pewnych zjawisk. Niskie oczekiwania płacowe powodują, iż pewne kategorie zarobków pozostają przez nich niewidoczne, niezauważane. Ludzie ci przyzwyczajeni są bowiem do określonego standardu zaspokojenia potrzeb, stąd zasada maksymalizacji dochodów ogranicza się do subiektywnego minimum. Zjawisko to jest groźne, jeżeli staje się przedmiotem naśladowania osób o podobnym położeniu lub ich dzieci. Innym szkodliwym zjawiskiem jest zanik starań o zdobycie wielokrotnie wyższych zarobków. Gdy brakuje ambitnych planów zarobków, trudno spodziewać się dążenia do ich uzyskania. O ile trudniejsze staje się wówczas skrócenie okresu poszukiwania pracy, aktywizacja takiej grupy osób, jeżeli niedostatecznie starają się one podnieść 2 Pamiętajmy, iż minimum socjalne jest wielkością określaną zewnętrznie poza decyzjami osób zainteresowanych. Jest więc wielkością sugerowaną przez dociekanie teoretyczne lub narzucaną przez decydenta (władze lokalne, rząd, instytucje międzynarodowe), jako kategoria formalno-prawna. Oczekiwania płacowe poszukujących pracy w Wielkopolsce… 171 zawodowe kwalifikacje, a walcząc o wyższe dochody, negocjować płacę. Jeśli zjawisko powiązania niskich zarobków z niskimi oczekiwaniami płacowymi rzeczywiście występuje, to jest ono jednocześnie niebezpieczeństwem istnienia trwałego problemu poprawy sytuacji materialnej wśród stałej grupy ludności. Warto zaznaczyć także, iż są to osoby, które nie zamierzają szukać zatrudnienia poza granicami kraju, ich mobilność jest ograniczona raczej z powodu własnych przekonań i referencji. Zatem pozostawanie w kraju o raczej trudnych warunkach na rynku pracy dla tej kategorii osób poszukujących pracy może być przesłanką dla twierdzenia o permanentnym ciążeniu owego problemu społecznego. Podłoże zrealizowanego badania empirycznego jest dość szerokie. Wiąże się z nim kilka wątków analiz prezentowanych dotychczas w literaturze przedmiotu3. Ze względu na charakter próby warto poruszyć problem świadczeń ze środków publicznych i ich rozdysponowania. Według badań OECD, w Polsce około jedna na pięć osób korzysta z transferów społecznych, z wyłączeniem emerytur. Rozdysponowanie środków publicznych w formie transferów, takich jak: zasiłek dla bezrobotnych, zasiłek opieki społecznej, wśród osób stanowiących 40% najniżej zarabiających w społeczeństwie, jest najwyższe. Około 3,5% PKB jest przeznaczane na renty, których beneficjenci stanowili 13% ludności w wieku produkcyjnym i 25% zatrudnionych w roku 2000. Natomiast korzystający ze świadczeń pomocy społecznej stanowili 2,8% zatrudnionych w 2002 roku [OECD Economic Surveys… 2004]. Ze względu na to ocenia się, że system pomocy publicznej jest wadliwie ukierunkowany. Z kolei niskie świadczenia pokazują, że większość niezatrudnionych korzysta z dochodów innych członków rodziny, otrzymujących emeryturę, rentę, czy ubezpieczenie KRUS (por. wykres 1.). WYKRES 1. Źródła dochodu niezatrudnionych w 2000 r. utrzymywani przez pracujących w sektorze rolniczym; 3,30% pozostali łącznie z uzyskującymi pomoc socjalną; 14,50% renta inwalidzka; 21,70% zasiłek rodzinny; 2,40% utrzymywani przez pracujących w sektorze pozarolniczym; 35,30 zasiłek dla bezrobotnych; 7,20% utrzymywani przez otrzymyjących świadczenia; 15,60% Źródło: [OECD Economic Surveys: Poland 2004 s. 9]. 3 Nawiązaniem do podjętej problematyki są takie dziedziny rozważań, jak: migracje zarobkowe, oczekiwania płacowe, nierówności dochodowe. 172 Agnieszka Ziomek Spójrzmy, jak hipoteza o niskich oczekiwaniach płacowych została zweryfikowana przez wyniki ankiety przeprowadzonej wśród wybranej grupy osób poszukujących pracy. 2. Wyniki badania empirycznego 2.1. Metoda i próba badawcza Badanie empiryczne osób poszukujących pracy, pod kątem oczekiwań pożądanego dochodu, zostało przeprowadzone w styczniu i w czerwcu 2006 roku wśród mieszkańców Wielkopolski, czyli regionu o niskim bezrobociu w skali kraju (średnia dla kraju 18%, dla Wielkopolski 14%4). Grupa respondentów to uczestnicy szkolenia na temat podstaw obsługi komputera, zorganizowanego wyłącznie dla osób poszukujących pracy. Wśród osób poszukujących zatrudnienia znalazły się osoby posiadające status bezrobotnego, jednak większość stanowiły osoby nie posiadające statusu zarejestrowanego w PUP. W grupie ankietowanych znajdują się osoby zatrudnione legalnie, jak i pracujące w szarej strefie. Są to osoby w wieku od 30 do 55 lat, których sytuację społeczno-ekonomiczną charakteryzuje sztywność warunków, wynikająca z kilku powodów, którym jest przede wszystkim konieczność utrzymania rodziny, niemobilność przestrzenna ze względu na brak środków i problem ze zmianą mieszkania. Z czego wynika determinacja poszukiwania miejsca pracy w kraju, w miejscu zamieszkania i brak zainteresowania emigracją zarobkową do krajów UE, które otworzyły rynek pracy dla Polaków. Przy doborze próby wykorzystano przypadek nielosowego doboru próby. Dobór celowy polegał zatem na zgromadzeniu osób rzeczywiście poszukujących pracy, wśród których znalazły się osoby, które, będąc bez pracy, nie posiadają rejestracji w PUP5. Weryfikację statusu osób zgłaszających się na kurs wykonano w okresie organizacji kursu. Istotna była przy tym informacja o poszukiwaniu pracy a nieistotna – posiadanie aktualnej rejestracji w PUP. Z racji stosowanej metody doboru próby wynikają określone konsekwencje. Wielkość próby to 60 osób. Stąd wyniki badania nie mogą być uogólniane dla całej populacji, ale charakteryzują wiarygodnie sytuację w badanej grupie respondentów. Pod względem wysokości miesięcznego dochodu, w badanym miesiącu 2006 roku, największą grupę 44% stanowiły osoby o dochodzie pomiędzy 200 zł a 750 zł. 20% respondentów nie wykazało żadnych dochodów. Najwyższy dochód, przekraczający 750 zł, wykazało 36% badanych. Dynamika zmian dochodu w latach 2005 – 2006 przedstawia się następująco. Grupa osób niewykazująca żadnego dochodu w roku 2005 (1/5 badanych) poprawiła swoją sytuację materialną w kolejnym roku. Pozostała grupa ankietowanych, jak pokazuje poniższy wykres, nie uzyskała znacznych zmian w dochodzie, w okreDane WUP za miesiąc wrzesień, www.wup.poznan.pl. Okazało się to możliwe dzięki eliminacji kryterium kwalifikacji na kurs, tj. zaświadczenia o rejestracji w PUP. 4 5 173 Oczekiwania płacowe poszukujących pracy w Wielkopolsce… sie dwóch lat. Z jednej strony okres badania jest dość krótki i nie można spodziewać się istotnych zmian w poziomie dochodu. Jednak można spodziewać się, że zbyt niski dochód powinien być naturalnie silnym czynnikiem motywującym do poprawy sytuacji ekonomicznej. WYKRES 2. Miesięczne dochody w latach 2005 i 2006 10000 8000 6000 4000 2000 0 1 3 5 7 9 11 13 miesięczny dochód 2006 15 17 19 21 23 25 miesięczny dochód 2005 Źrodło: Wyniki ankiety przeprowadzonej w styczniu i w czerwcu 2006 roku. Jeśli chodzi o realną wartość dochodu otrzymanego i pożądanego, to należy zaznaczyć, że okres badania dotyczył lat 2005 – 2006, w trakcie których nie odnotowano silnych zmian wskaźnika inflacji. Jego wartość była bardzo stabilna, a ponadto niska (patrz: tabela 1.). Dlatego wykazane wartości dochodu miesięcznego oraz oczekiwania pożądanego dochodu nie zawierają błędu, który należałoby korygować, uwzględniając wahania inflacji. W badaniu zastosowano ankietę złożoną z 4 pytań. Dwa pytania dotyczyły wartości miesięcznego dochodu netto dla ostatniego miesiąca, kiedy występował w roku 2006 i w roku 2005, a pozostałe dwa pytania odnosiły się do oczekiwań w stosunku do dochodu w 2006 i 2005 roku (dochód traktujemy tu jako wartość netto uzyskiwanych płatności w sumie ze wszystkich źródeł, przez daną osobę). 174 Agnieszka Ziomek TABELA 1. Wskaźniki cen towarów i usług konsumpcyjnych w okresie 1999 – 2006 Miesiące I II III IV V VI VII VIII IX X XI XII 1998 = 100 2004 129,6 129,7 130,1 131,1 132,4 133,6 133,5 133.0 133,4 134,2 134,6 134,7 2005 134,8 134,7 134,8 135,3 135,7 135,4 135.1 135,0 135,5 136,0 135,7 135,4 2006 135,7 135,7 135,6 136,5 137,2 136,8 136,8 Źródło: Główny Urząd Statystyczny. Przy czym chodziło o podanie wartości pożądanego dochodu przy oczekiwaniach formułowanych rok wcześniej (dla 2006 roku w 2005 roku i dla 2005 roku w 2004 roku). Formuła pytania zakładała jednak uzyskanie odpowiedzi tyczącej się nie tyle spodziewanego dochodu miesięcznego, co pożądanego dochodu. Chodziło bowiem o uzyskanie informacji o osobistych preferencjach, a nie oczekiwań płacowych, zdeterminowanych warunkami płacowymi panującymi aktualnie na rynku pracy. 2.2. Wyniki badania empirycznego Osoby poszukujące zatrudnienia, dotknięte wielokrotnie niepowodzeniem, akceptują negatywną ocenę własną oraz otoczenia. Takie zjawisko utrudnia proces readaptacji i ma silny wpływ na dynamikę rynku pracy, poprzez decyzje związane z rekrutacją, powstawaniem umów społecznych. Pesymistyczny autoportret bezrobotnego, zgodny z panującym w społeczeństwie stereotypem, a potwierdzany przez badania psychologiczne, przejawia się w ich planach, zamiarach, marzeniach. Daje się tu zauważyć pewna prawidłowość. Mianowicie, większość osób otrzymujących niskie dochody formułuje zwykle niższe oczekiwania niż lepiej zarabiający, choć zdarzają się wyjątki, jest to grupa badanych, o najniższym dochodzie, natomiast w grupie osób zarabiających więcej (powyżej 750 zł) różnica między uzyskanym a spodziewanym dochodem jest nieco wyższa. Jednak różnice oczekiwań w całej grupie są niewielkie, a przeciętny oczekiwany dochód w roku 2005 wyniósł 2828 zł, zaś w roku 2006 wyniósł on 2341 zł (patrz: wykres 3. i 4.). Zasadniczo, oczekiwania płacowe są z reguły wyższe od uzyskiwanych zarobków, co można przyjąć za potwierdzenie właściwej, z punktu widzenia zasady maksymalizacji dochodów, postawy wśród poszukujących pracy oraz potraktować to jako uwiarygodnienie osobistej sytuacji zarobkowej. Warto też zauważyć zmianę wartości pożądanego dochodu w ciągu dwóch lat. Dochód ten w 2006 roku był wyższy w porównaniu z oczekiwanym dochodem na rok 2006. Pokazuje to dodatnia różnica po- Oczekiwania płacowe poszukujących pracy w Wielkopolsce… 175 między dochodem uzyskiwanym a pożądanym, w 37 przypadkach na 58 obserwacji (patrz: wykres 4.). Różnica oczekiwań pomiędzy dochodem pożądanym na rok 2006 i 2005, dla wszystkich respondentów, wynosiła przeciętnie 279 zł, przy czym najwyższa różnica to 1500 zł. Natomiast wśród 17 osób na 59 badanych nie pojawiła się zmiana oczekiwań w okresie dwóch lat. Uwagę zwraca przeciętna niska wartość wzrostu oczekiwań dochodowych, która zapewne jest odzwierciedleniem oceny własnych możliwości uzyskania dochodu, której podstawę stanowią zarówno „twarde” warunki rynku pracy, jak i konkretne umiejętności. Warto dodać, że dwuletni okres słabo ilustruje możliwości wzrostu dochodu w oparciu o wzrost własnej wartości kapitału ludzkiego. Zatem niska wartość oczekiwań jest raczej obrazem osobistego nastawienia do własnej osoby i do przyszłości, które w tej charakterystycznej grupie badanych nie jest pozytywne. Wynika to między innymi stąd, iż trudno nazwać optymizmem oczekiwanie wzrostu dochodu o kwotę około 279 zł, przy aktualnie niskim dochodzie, nieprzekraczającym minimum socjalnego. Poniższe wykresy ilustrują obraz rzeczywistej realizacji osobistych oczekiwań dochodowych. W odpowiedziach obejmujących rok 2005 i 2006 (patrz: wykres 3. i 4.) nie widać zmienności pożądanego dochodu w stosunku do uzyskanego. Rozbieżność pomiędzy przyszłym i uzyskanym dochodem jest najwyższa dla osób nieotrzymujących dochodu i zarabiających najmniej spośród ankietowanych. WYKRES 3. Otrzymywany miesięczny i pożądany miesięczny dochód dla 2005 roku 12000 10000 8000 6000 4000 2000 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 miesięczny dochód 2005 pożądany dochód 2005 Źródło: Wyniki ankiety przeprowadzonej w styczniu i w czerwcu 2006 roku. 176 Agnieszka Ziomek WYKRES 4. Otrzymywany miesięczny i pożądany miesięczny dochód dla 2006 roku 10500 8500 6500 4500 2500 1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49 51 53 55 57 59 61 500 -1500 miesięczny dochód w 2006 roku pożądany dochód w 2006 roku Źrodło: Wyniki ankiety przeprowadzonej w styczniu i w czerwcu 2006 roku. Pozostawanie w kategorii osób niżej zarabiających może mieć negatywny wpływ na ocenę własnych możliwości w związku ze wspomnianym wcześniej mechanizmem Melvina Lernera. Powstaje tu efekt braku wiary we własne możliwości i zanika cecha charakterystyczna człowieka ekonomicznego, tj. maksymalizacji działań. Ma to swoje odbicie w przeciętnej pożądanej wysokości dochodu, co z kolei wynika z przyjętego i zaakceptowanego poziomu życia i ograniczonych potrzeb. Oczekiwania wysokich dochodów w niewielkiej próbie badawczej (25 danych) występują raczej sporadycznie, w większej próbie badanych (w drugiej edycji ankiety) brała udział większa liczba osób. Oczekiwania pozostałych osób niewiele się różnią i jak widać pozostają w słabej zależności od bieżącego dochodu, większość nie przekracza 2500 zł. 3. Podsumowanie – wnioski Wnioski, jakie można wyprowadzić z ograniczonego obiektywnie zakresu danych, (o czym wspomniałam wcześniej) mogą mieć tylko charakter cząstkowych uogólnień. Tak więc, ostrożność jest niejako dyrektywą nadrzędną przy formułowaniu stwierdzeń nasuwających się na podstawie powyższego naszkicowania problemu. Co zatem z niego wynika? Oczekiwania płacowe poszukujących pracy w Wielkopolsce… 1. 2. 3. 4. 177 Z przeprowadzonych obserwacji zebranego materiału wynika, że osoby poszukujące pracy nie podejmują jej, gdy wynagrodzenie nie jest znacznie wyższe od poziomu świadczeń społecznych6. Jednocześnie widoczne jest zjawisko, gdy poszukujący pracy są zniechęceni jej poszukiwaniem, co przejawia się między innymi w braku nadziei na jej uzyskanie. Z kolei brak pozytywnej wizji przyszłości przejawia się w formułowanych oczekiwaniach, co do wysokości płacy. Z przeprowadzonych badań wynika, że osoby z niskim kapitałem własnym nie pragną zarabiać znacznie więcej niż dotychczas, choć zarabiają niewiele lub utrzymują się ze źródeł niezarobkowych. Prezentowane wyniki badania pokazują, jak silnie nabyte doświadczenia kształtują osobiste oczekiwania. Poszukujący pracy uwzględniają w nich racjonalne warunki panujące na rynku, takie jak: relatywnie wysoką (szczególnie regionalnie) płacę minimalną, wysokie koszty pracy w tej grupie zarabiających, silne prawo chroniące pracujących. Ponadto, poszukujący pracy żyją w środowisku procesów społecznych i na to należy przede wszystkim zwrócić uwagę. Jak twierdził M. Weber, a wraz za nim także F. A. Hayek; areną ludzkiej działalności jest nie tylko rynek, lecz także całe społeczeństwo [cyt. za: Ząbkowicz 2003 s. 798]. Stanowi ono ramy instytucjonalne aktywności, które narzucają nieświadomie jednostce reguły i zasady działania. Poszukujący pracy poza otaczającymi ich sytuację instytucjami w sensie organizacji administracji publicznej, szeregu uregulowań prawnych, dostrzegają zachowania osób, będących w podobnej sytuacji materialnej i życiowej. Tego rodzaju normy organizują zasady działania jednostek, stając się także czynnikami ograniczającymi swobodny proces wyboru. Można zatem zaryzykować stwierdzenie, iż środowisko danej grupy społecznej jest „kreatorem oczekiwań płacowych” i ono decyduje o ich poziomie. Powstaje zatem niezgodna z paradygmatem homo oeconomicus struktura działania człowieka, który potencjalnie może chcieć lepiej zaspokajać swoje potrzeby, ale ostatecznie tego nie robi. Nie występuje tu także współpraca czy współzawodnictwo. Jednostka działa w środowisku braku tego typu relacji z otoczeniem, ale sygnalizuje chęci porzucenia danego standardu norm. Nie pozostawia to zatem wątpliwości, że niskie oczekiwania dochodu w badanej grupie są prawdopodobnie nieformalną instytucją w rozumieniu F. A. Hayeka. Inną kwestią jest wynik takiej postawy dla rynku pracy w polskiej gospodarce. Uruchamiane środki unijne, szczególnie od maja 2004 roku, oraz nowelizowana ustawa o promocji zatrudnienia i instytucjach rynku pracy, a wraz z nią udoskonalane narzędzia walki z bezrobociem nie przynosiły dotychczas pożądanego skutku w odniesieniu do tych osób, które nie podejmują emigracji zarobkowej, a zasób kapitału ludzkiego, który posiadają jest niekon- 6 W Polsce płaca minimalna jest zbyt niska w stosunku do podstawowej wartości zasiłku gwarantującego życie na poziomie minimum egzystencji. Konieczne jest zatem powiększenie relacji pomiędzy płacą minimalną a świadczeniami socjalnymi lub ograniczanie dostępności świadczeń, co właściwie stało się przedmiotem kolejnych modyfikacji ustawy dotyczącej polityki rynku pracy od 1990 roku [por. Hausner, Sokołowski 2001; Ratuszniak, Olejar 2003 s. 55 – 58]. 178 Agnieszka Ziomek kurencyjny. Ta specyficzna grupa osób, notująca długi staż na bezrobociu, lub częste doń powroty, utrzymująca się ze źródeł niezarobkowych, lub najniższej płacy, przyzwyczajona do poziomu własnych możliwości zarobkowania, jest podstawą trwałości bezrobocia i stanowi barierę jego minimalizacji. Na obecnym etapie rozwoju gospodarczego coraz większą wagę będą odgrywały czynniki instytucjonalne, tj. nieformalne instytucje zachowań wynikające z reguł zachowań społecznych. Bowiem częściowo w nich tkwi źródło powstawania i utrzymywania się bezrobocia w określonych grupach społecznych. Rozpoznanie nieformalnych instytucji istniejących w tychże grupach może stać się właściwą podstawą do budowania narzędzi zaradczych. Zatem uwzględnienie tego rodzaju czynników pomoże dostosować narzędzia polityki rynku pracy do potrzeb i uczynić wysiłki zmniejszania bezrobocia bardziej niż dotychczas skutecznymi. Literatura Hausner J., Sokołowski A. 2001 Czynniki generujące polskie bezrobocie, „Rynek Pracy”, nr 7 – 8. Kostro K. 2001 Hayek Kontra Socjalizm, Debata socjalistyczna a rozwój teorii społecznoekonomicznych Friedricha Augusta von Hayeka, Warszawa. OECD Economic Surveys: Poland 2004 OECD. Praca, Kształcenie, Partnerstwo 2004, red. M. Kubisz, Warszawa. Ratuszniak M., Olejar T. 2003 Dochody i wydatki Funduszu Pracy w latach 1990–2002, „Rynek Pracy”, nr 6. www.stat.gov.pl.. www.wup.poznan.pl. Ząbkowicz A. 2003 Współczesna ekonomia instytucjonalna wobec głównego nurtu ekonomii, „Ekonomista”, nr 6. RECENZJE I INFORMACJE Henryk WNOROWSKI ROLA LIDERA W ORGANIZACJI1 1. Wstęp Celem niniejszego wystąpienia jest pokazanie roli lidera w organizacji. Takie sformułowanie zadania wydaje się być naturalne, biorąc pod uwagę okoliczności, w których autor będzie wygłaszał swoje tezy, a mianowicie piętnastolecie Komitetu Lokalnego AIESEC Polska w Białymstoku. Wszak to AIESEC jest międzynarodową organizacją studencką, której głównym celem jest rozwój młodych liderów poprzez pobudzanie ich przedsiębiorczego działania, aktywnego uczenia się, przyjmowania postaw odpowiedzialnych społecznie i promowanie aktywności międzykulturowej. Tym poważniejsze i bardziej odpowiedzialne jest moje zadanie. Autor, będąc ekonomistą, skupi się na eksponowaniu roli lidera w organizacjach gospodarczych, zwłaszcza w przedsiębiorstwach, które, tworząc wartość dla klientów, akcjonariuszy, pracowników, wierzycieli i Skarbu Państwa, budują dobrobyt kraju [Wnorowski 2007 s. 148]. Mając świadomość wagi roli przedsiębiorstwa w gospodarce, formułuje tezę główną jako stwierdzenie, iż lider to kluczowy warunek sukcesu przedsiębiorstwa na globalizującym się rynku. Równie istotna jest jego wiedza i umiejętności, również predyspozycje psychiczne wykorzystywane w relacjach wewnątrz organizacji, jak i w konfrontacji z otoczeniem zewnętrznym. Widzimy więc, że problem jest dosyć skomplikowany i ma charakter interdyscyplinarny, wychodzi wszak poza zakres nauk ekonomicznych. Autor będzie jednak skupiał się zwłaszcza na wiedzy ekonomicznej i umiejętnościach w dziedzinie zarządzania, opisując pożądane atrybuty lidera. Jest to niewątpliwie zadanie łatwiejsze niż formułowanie rekomendacji, jak postępować, aby być lub zostać liderem. Ale jest to chyba specyfika nauk społecznych, które zawsze (z pewnym przybliżeniem) są w stanie wyjaśniać to, co już się stało, jednak trafne prognozowanie, co się stanie, zdarza się im rzadko [Zawiślak 2005]. 2. Pojęcie lidera Lider to inaczej przywódca organizacji. Przywództwo zaś należy do najczęściej obserwowanych i najgorzej rozumianych zjawisk na świecie, jest ono także trudne do zdefiniowania. W socjologii przywódca to członek grupy społecznej, który dzięki specyficznym cechom osobowości lub dzięki zajmowanemu stanowisku narzuca innym swoje przekonania, inicjuje, kieruje, zespala działalność tej grupy Każda organizacja, przedsiębiorstwo także potrzebuje twórczych liderów, skoncentrowanych na przyszłości, z praktycznymi umiejętnościami menedżerskimi odnoszącymi się do działania tu i teraz. Przewodzenie to wprowadzanie wizji i kierunku działania danej grupy, organizacji. Lider musi w odpowiedni sposób komunikować się z osobami, których współpraca może być niezbędna podczas realizowania strategii w przyszłości, oraz 1 Referat został wygłoszony na konferencji studenckiej z okazji XV-lecia AIESEC Polska, Komitet Lokalny Białystok, na Wydziale Ekonomii i Zarządzania Uniwersytetu w Białymstoku, 11 maja 2007r. 180 Recenzje i informacje z innymi grupami akceptującymi i wspierającymi jego wizję, uznającymi jej ważność. Przywódca, lider to również dla danej grupy źródło energii, potrzebnej do wdrażania planów, to wsparcie udzielone najmniejszemu, każdemu rozwojowi, to także wzbudzanie inicjatywy. By w pełni zrozumieć to zjawisko, trzeba wziąć pod uwagę charakterystykę lidera i osób mu podlegających oraz rodzaj oddziaływania między nimi. Relacje zachodzące między nimi, a także konkretne sytuacje, mające miejsce, wpływają na postępowanie lidera poza granicami grupy. Każda sytuacja, w której znajduje się osoba podejmująca decyzje, jest uzależniona od uwarunkowań kontekstowych. Wielu ludzi uważa, że przywódca to dyrektor naczelny. Zazwyczaj w naukowych dziełach o przywództwie skupia się uwagę na roli jednego przywódcy. Jest to zupełne nieporozumienie, przynajmniej w odniesieniu do przedsiębiorstwa, każdy kierownik powinien działać jako przywódca. Idealny kierownik ma zarówno kompetencje administracyjne, jak i zdolności przywódcze. Henry Kissinger zdefiniował przywództwo jako sztukę doprowadzenia ludzi tam, dokąd sami by nie zaszli. Innymi słowy, chodzi o stawianie przed firmą właściwych celów i doprowadzenie do ich osiągnięcia. Taka postać przywództwa może występować na wszystkich szczeblach zarządzania w firmie. Prostym tego przykładem jest doprowadzenie do pierwszej zakończonej sukcesem wizyty handlowej, składanej przez praktykanta. 3. Zachowania przywódcze Predyspozycji do bycia liderem, tak jak zauważono we wstępie, upatruje się w wiedzy i umiejętnościach kandydatów na stanowiska menedżerskie z jednej strony, z drugiej zaś w ich predyspozycjach psychicznych. Awans w pracy zawodowej często kojarzy się ze stanowiskiem menedżera lub kierownika. Niestety, amerykański sen o karierze „od pucybuta do prezesa międzynarodowego koncernu” rzadko spełnia się w praktyce, co niestety oznacza, iż nie każdy jest urodzonym liderem i przywódcą. Z badań prowadzonych przez uczelnie ekonomiczne wynika, że niezbędnymi cechami do bycia liderem są: asertywność, odwaga, umiejętność radzenia sobie ze stresem, upór i stanowczość. Natomiast specjaliści z zarządzania lubią podawać przykład czterech różnych zachowań przywódczych: – pierwszym z przywódców jest lider bezpośredni, który potrafi jasno informować podwładnych o zadaniach i możliwych sposobach ich realizacji. Nie kontroluje ich jednak, uznając samo wydanie polecenia za wystarczające. Brak mu także życzliości i przyjaznego stosunku do współpracowników; lider wspierający, odwrotnie niż lider bezpośredni, jest przyjazny i życzliwy wo– bec pracowników, wykazuje zainteresowanie ich sprawami osobistymi i pomaga w kłopotach; – lider partycypacyjny konsultuje się z innymi członkami organizacji przed podjęciem decyzji; – lider zorientowany na wyniki wyznacza trudne i motywujące cele oraz oczekuje, że jego ludzie będą starali się jak najlepiej je wypełniać. W czasie rekrutacji na stanowiska menedżerskie często kandydatów sprawdza się testami psychologicznymi (np. testami Redlina). Pozwalają one w stosunkowo prosty sposób zbadać, jak kandydat będzie się zachowywał jako menedżer lub lider zespołu. Według większości testów, istnieją cztery typy menedżerów: wyizolowany, gorliwy, przyjacielski i kompleksowy. Każdy z nich preferuje inne sposoby rozwiązywania problemów, komunikowania się z podwładnymi, wyznaczania i osiągania celów. Najgorszym typem menedżera jest typ wyizolowany, koncentruje się on na pracy biurowej, jest dokładny, nawet pedantyczny, kieruje się wyłącznie regulaminem, a z podwładnymi spotyka się tylko w windzie. Właściwie osoby o tych cechach w ogóle nie powinny sprawować funkcji kierowniczych, większy sukces odniosą, gdy będą specjalistami w swoich dziedzinach. Recenzje i informacje 181 Typ przyjacielski to dusza towarzystwa, lubi nawiązywać kontakty z ludźmi, jest bardzo wyczulony na ich problemy. Równocześnie często jest zbyt miękki w egzekwowaniu efektów pracy podwładnych. Wszyscy go lubią, ale zespół stopniowo zostaje w tyle, za resztą firmy. Menedżer gorliwy to dokładne przeciwieństwo. Byłby dobrym wojskowym, ale w firmie rzadko się sprawdza. Osoba, mająca cechy menedżera gorliwego, często potrzebna jest na krótko do rozwiązania palących problemów albo wyciągnięcia firmy z upadłości, dociska pasa, ale po pewnym czasie zespół jest tak wykończony, że efektywność pracy spada. On sam szybko się wypala, często stając się menedżerem wyizolowanym, choć z wielkim doświadczeniem zarządczym. Najbardziej cenionym menedżerem wśród pracodawców jest osoba potrafiąca znaleźć równowagę pomiędzy zajmowaniem się ludźmi a wykonywaniem powierzonych zadań. W czasie realizacji projektu zadania i ludzie są dla niego jednakowo ważni. Należy dobrze planować pracę, motywować, a jednocześnie dyskretnie kontrolować zespół. Trzeba też dbać o opinie podwładnych, gdyż inaczej zespół rozpadnie się przed czasem. Takie cechy mają tylko najlepsi – menedżerowie kompleksowi. Jak radzi doradca personalny, zanim przyjmiemy posadę albo awans na przełożonego, warto zastanowić się, jakim menedżerem będziemy. Można udać się do psychologa i przejść przez testy, które z dużym prawdopodobieństwem wskażą nasze cechy. Jeśli nie mamy takiej możliwości, należy przeanalizować, jak zachowujemy się w sytuacjach wydawania poleceń, przekazywania informacji, w kontaktach z przyjaciółmi i osobami obcymi. Awans to często wyższe wynagrodzenie, ale większą satysfakcję czasami może dać nam praca na stanowisku specjalisty. Nie każdy jest Winstonem Churchillem lub Billem Gates’em. 182 Recenzje i informacje 4. Menedżer przedsiębiorczy i jego oddziaływanie na organizację Przedsiębiorczość należy dzisiaj do najczęściej używanych terminów w naukach ekonomicznych. Niestety, powszechności stosowania tego pojęcia nie towarzyszy jednoznaczność jego rozumienia, jest ono dalekie od klarowności. Intuicyjnie wyczuwamy, iż przedsiębiorczość to nie to samo co podejmowanie jakiegoś przedsięwzięcia lub posiadanie przedsiębiorstwa [Kwiatkowski 2000 s. 77]. Mała firma ma konkretnego przedsiębiorcę [Gruszeczki 1994 s. 183], przedsiębiorczość występuje jednak również w przedsiębiorstwach wielkich. Być może, dlatego pierwsze sformułowania przedsiębiorczości wyprowadzane są z funkcji realizowanych przez przedsiębiorcę. J. Schumpeter, uważany za twórcę podwalin rozwoju przedsiębiorczości, powołuje się na J.B. Saya, który stwierdził, iż funkcją przedsiębiorcy jest kombinowanie czynników produkcji [Schumpeter 1960 s. 120]. Jest to przy tym działalność specjalnego rodzaju, gdy czynniki zostają połączone po raz pierwszy, łączenie ich w trakcie prowadzenia przedsiębiorstwa jest jedynie zwykłą rutyną. Przedsiębiorczość obejmuje pięć następujących przypadków: – wprowadzenie nowego towaru, z jakim konsumenci nie są jeszcze obeznani, lub nowego gatunku towaru, – wprowadzenie nowej metody produkcji, – otwarcie nowego rynku, – zdobycie nowego źródła surowców lub półfabrykatów, – przeprowadzenie nowej organizacji przemysłu, np. stworzenie sytuacji monopolistycznej lub złamanie pozycji monopolistycznej. Obok klasycznej koncepcji Schumpetera możemy wyróżnić inne spojrzenia na przedsiębiorczość. Jednym z nich jest koncepcja definiująca przedsiębiorczość jako spostrzeganie i wykorzystywanie szans przedsiębiorczych, której autorstwo przypisuje się I. Kirznerowi. Szanse przedsiębiorcze to takie sytuacje, w których mogą być wprowadzane na rynek nowe produkty, usługi, surowce i metody organizacyjne, sprzedawane po cenach wyższych niż wynosi koszt ich produkcji. Owe szanse istnieją obiektywnie w świecie, natomiast proces ich spostrzegania ma charakter subiektywny i jest właściwy dla jednostek przedsiębiorczych. Stąd działanie przedsiębiorcze lidera w firmie związane jest przede wszystkim z inicjowaniem projektów, kreatywnym rozwiązywaniem problemów, podejmowaniem ryzyka, tworzeniem i wykorzystywaniem okazji oraz elastycznym dostosowywaniem do otoczenia. Są to zachowania ściśle sprzężone z cechami, które układają się w pewien zbiór, stanowiący syndrom (predyspozycji/kwalifikacji) menedżera przedsiębiorczego (lidera). Na ten syndrom składają się: – motywacja osiągnięć zawodowych, – poczucie umiejscowienia kontroli wzmocnień, – podejmowanie ryzyka, – tolerowanie niepewności, – wzór zachowania A. Motywację osiągnięć określa się jako zainteresowanie współzawodnictwem z pewnym wzorem doskonałości, jest to więc skłonność człowieka do rywalizowania, także z samym sobą. Motywacja napędza człowieka do sukcesu zawodowego, do podejmowania pracy jako celu samego w sobie. Menedżer taki potrafi skupić wokół siebie i realizowanych celów współpracowników i skutecznie nimi kierować. Jednostki takie charakteryzują się wewnętrznym poczuciem kontroli wzmocnień, co oznacza, iż są przekonane, że sprawują kontrolę, panują nad własnym życiem. Są gotowe do ponoszenia odpowiedzialności za skutki podejmowanych przez siebie decyzji. Umiejscowieniu kontroli towarzyszą inne, ważne dla lidera cechy: wysoka samoakceptacja, skłonność do racjonalnego wykorzystania doświadczeń, nonkonformizm i brak lęku przed utratą pracy. Recenzje i informacje 183 Dwie kolejne zmienne syndromu lidera, podejmowanie ryzyka i tolerowanie niepewności, związane są ze sposobem dokonywania wyborów, tj podejmowania decyzji. Sposoby te charakteryzuje często kreatywność, kreatywne decyzje mają znamiona racjonalności i wywołują działania o tym charakterze. Towarzyszy im bowiem szacowanie potencjalnych szans i strat (kalkulowanie ryzyka) odnośnie do działań oraz unikanie hazardu oraz zdawania się na przypadek. Wreszcie wzór zachowania A, wyrażający się dążeniem do osiągnięcia jak największej liczby celów, w możliwie krótkim czasie, wskazuje na ekspansywność i dynamikę lidera. Jeśli chce on odnosić sukcesy, musi wyprzedzać rywali i nie może zadowalać się dotychczasowymi osiągnięciami. 5. Rekomendacje dla skutecznego lidera w organizacji Oto kilka sugestii do praktycznego wykorzystania przez menedżerów różnych szczebli, czyli liderów na swoim poziomie2: Efektywność Pewien stary przyjaciel z Kalifornii odwiedził prezydenta Regana w Białym Domu, bez pośpiechu zjedli lunch, zagrali w golfa, później prezydent zaprosił przyjaciela na wieczór. Gość był zdumiony, zapytał: „Czy nie musisz iść na żadną konferencję? Czy nie musisz rządzić krajem?”. Prezydent sprawiał wrażenie zdziwionego i odpowiedział: „Nie, mam wielu świetnych ludzi, którzy za mnie się tym wszystkim zajmą”. Praca przez cały dzień i całą noc nie jest wstępnym warunkiem powodzenia przywódcy. Do tego konieczne są trzy rzeczy: – że się jest w czymś świetnym, to wymaga prawdziwej koncentracji, wysiłku i zaangażowania; – że się ciągle deleguje, wiedzieć, w czym się nie jest dobrym, i pozwalać to robić innym, przypisywać im za to całą chwałę; – że skupia się uwagę na tym, co jest ważne, trzeba mieć jasne cele osobiste, które pomogą w określeniu priorytetów, co będzie się robiło. Delegowanie uprawnień, upełnomocnianie Zaufanie przywódcy, delegowanie uprawnień i upełnomocnianie to jego cenna i niezbędna cecha. W przeszłości przywódcy delegowali uprawnienia i upełnomocniali swoich podwładnych nie zastanawiając się nad tym. Kiedy okręt wyruszał z Europy do Indii czy do innych kolonii i gdy powstawały problemy, kapitan nie odwoływał się do centrali. Przejmował on kontrolę i musiał wykazywać się inicjatywą. Nie popełni błędu żaden kapitan, który podpłynie do burty nieprzyjacielskiego okrętu, innymi słowy, atakuj, nie pytaj o radę. Dzisiaj, jeżeli chcemy obniżyć o pięćdziesiąt groszy cenę środka piorącego, pojawiają się komitety, analizy, prezentacje, grupy badawcze, ożywi się cała gama instrumentów nadzoru i pomocy ze strony władz korporacji. O ironio, nazywają to delegowaniem i upełnomocnianiem. Kiedy już przystąpimy do działania, wciąż znajdujemy się pod mikroskopem. Są tygodniowe i miesięczne sprawozdania, aktualizacje planów w miarę postępów prac, sprawozdania o wyjątkowych zdarzeniach, analizy i rewizje budżetów. 2 Opracowano na podstawie: [Owen 2003 s. 53]. 184 Recenzje i informacje Demokracja i dyktatura w przedsiębiorstwie W biznesie zazwyczaj nie chodzi o ekologię ani o zbawianie świata. Demokracja nie jest realną alternatywą w miejscu pracy. Firmy to nie demokracje, potrzeba im jasnych i skutecznych procesów podejmowania decyzji, powiązanych z jasną i skuteczną odpowiedzialnością osobistą. Jasność i odpowiedzialność osobista nie wynika z pracy grupowej, jest sprawą indywidualną. Musi istnieć hierarchia podejmowania decyzji. Z punktu widzenia lidera problem polega na tym, w jaki sposób zachować kontrolę, zwiększyć zaangażowanie i podejmować skuteczne decyzje bez odwoływania się do autorytetu, wynikającego jedynie z zajmowanego stanowiska. Optymalny model, ani dyktatorski, ani demokratyczny, musi być oparty na następujących czynnikach: – szacunku, musi postrzegać przywódcę jako człowieka kompetentnego; – wzajemnym zaufaniu, muszą istnieć wspólne cele wspierane przez wytyczne pomagające zarówno liderowi, jak i podwładnym w osiąganiu tych celów; – osobistej odpowiedzialności; – zbiorowym zaangażowaniu. Doskonałość i entuzjazm Doskonałość jest „świętym Graalem” przywódców, nigdy jej nie znajdują i wcale nie jest potrzebna. Dążenie do doskonałości jest bezcelowe i marnotrawne. Wyzwanie polega na poprawnym robieniu tego, co podstawowe, i na ciągłym doskonaleniu się, najlepiej nieco szybciej od konkurencji. Ludzie, także liderzy, nie są dobrzy w tym, co nie sprawia im przyjemności. Jeżeli menedżerowie nie będą odczuwać w pewnym stopniu entuzjazmu i radości, nie wykażą się tym dodatkowym zaangażowaniem, które zapewni firmie sukces. Potrzeba także, aby ich podejście budziło entuzjazm u podwładnych. Praktycznie w postępowaniu liderów potrzebne są cztery rzeczy: – sam bądź entuzjastą; – pokazuj, że znasz swój personel i że troszczysz się o niego; – zapewnij podwładnym świadomość kierunku i celu, ludzie nienawidzą niejasności i ryzyka; – nie ulegaj czynnikowi LNW (lęk, niepewność wątpliwości). Lider a rozsądek Rozsądni liderzy są niebezpieczni, dobrzy liderzy nie są rozsądni. Są oni selektywnie nierozsądni. Nierozsądni przywódcy to tacy, którzy wymagają od firmy podjęcia niezwykłych wysiłków i osiągania celów, dotychczas nie do pomyślenia, a także umożliwiają to. Istnieje gdzieś granica miedzy zmuszaniem firmy do nadzwyczajnych wysiłków a niszczeniem jej, między zarządzaniem nierozsądnym a szalonym. Cele, których nie wspiera skoncentrowany wysiłek całej firmy, są po prostu marzeniami na jawie. Przy wyznaczaniu nierozsądnych celów przywódca powinien: – zbudować koalicję wspierającą te cele; – spowodować, iż cele te będą dla wszystkich rzeczywistością i nie da się ich uniknąć; – dostosować wszystkie nagrody i mierniki do przyjętego celu; – skupić zasoby firmy na tym celu; – elastycznie podchodzić do sposobu osiągnięcia celu, ale twardo trzymać się samego celu. Recenzje i informacje 185 6. Zakończenie Zawsze jest ktoś inny, kto sprawia wrażenie, że mu się lepiej powodzi. Często obiektem takich westchnień są liderzy w organizacjach (oczywiście liderzy różnych szczebli), zwłaszcza ze strony swoich podwładnych. Niewątpliwie być przywódcą jest przyjemnie, ale także jest to rola odpowiedzialna i wymagająca bardzo ciężkiej pracy. Mimo powszechnego przekonania, iż trawa jest bardziej zielona po drugiej stronie wzgórza, dobrym punktem wyjścia jest zdanie sobie sprawy z tego, że nikt nie ma wszystkiego, nawet ci, którzy, jak się wydaje, mają już wszystko, pragną czegoś, co jest poza zasięgiem władzy lub pieniędzy. Literatura Wnorowski H. 2007 Aktywność mikroekonomiczna a potencjał gospodarczy regionu, w: Proces tworzenia kapitału w gospodarce peryferyjnej, Analiza II, Mechanizm rozwoju gospodarczego obszarów peryferyjnych, red. K. Meredyk, Białystok. Zawiślak A.M. 2005 Przezroczyste szaty Króla (rzecz o naukach społecznych), Working Paper Nr 05-001, Warszawa. Kwiatkowski S. 2000 Przedsiębiorczość intelektualna, Warszawa. Gruszeczki T. 1994 Przedsiębiorca w teorii ekonomii, Warszawa. Schumpeter J. 1960 Teoria rozwoju gospodarczego, Warszawa. Owen J. 2003 Zarządzanie, czego nie uczą w szkołach biznesu, Warszawa. OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008 Iwona E. BOGUCKA RECENZJA książki Bolesława Rafała Kuca pt. Kontrola w systemie zarządzania. Funkcje i dysfunkcje, Wydawnictwo Menedżerskie PTM, Warszawa 2006, ss. 340. Książka autorstwa wybitnego specjalisty Bolesława Rafała Kuca Kontrola w systemie zarządzania. Funkcje i dysfunkcje ukazała się jakiś czas temu, lecz jej treść oraz przesłanie są nadal aktualne i poświęcone miejscu kontroli w systemie zarządzania, redukcji niepewności i doskonaleniu współczesnych systemów kontroli oraz funkcjom i dysfunkcjom kontroli. Całość zawarta jest w 9 rozdziałach. Dzieło można określić jako próbę całościowego i krytycznego spojrzenia na miejsce kontroli w zarządzaniu, analizę przyczyny kryzysu kontroli wewnętrznej i narastania bezradności kontroli wewnętrznej (instytucjonalnej), dowodzące, że te procesy trwają od lat. Zdaniem autora, większość kontroli zewnętrznych z reguły kończy się zwróceniem uwagi na nieprawidłowości proceduralne, przypadki naruszenia prawa, brak kontrasygnaty oraz nieprawidłowości z zakresu księgowości i sprawozdawczości. Rośnie liczba kontroli kończących się pozytywną oceną kontrolowanej działalności i brakiem istotnych zaleceń pokontrolnych, ponieważ Inspektorzy boja się reakcji gniewu, wynikającej z ich dociekliwości i większej niż kontrolowany wiedzy, choć ten ostatni argument traci na ważności. Kontrolujący maja „władzę”, a kontrolowani znajomości. Toczy się gra: co jest ważniejsze? Kontrola tę grę niestety przegrywa. Otwierając opracowanie, autor omawia teoretyczne podstawy kontroli, przytaczając wypowiedzi polskich i zagranicznych uczonych, określając miejsce kontroli w cyklu działania zorganizowanego, a zwłaszcza jej rolę w zarządzaniu, umiejętnie podkreślając, że jest ona narzędziem oddziaływania państwa (IV władzą), wskazując jednocześnie kierunki ewolucji oraz pułapki, jakie czekają i czyhają na kontrolę, która chciałaby być użyteczną, ale nie ekspansywną funkcją zarządzania i rządzenia. Następny rozdział nakreśla miejsce kontroli oraz wskazuje na jej niezbędność w zarządzaniu, można w nim przeczytać, że niezależnie od tego, kto w stosunku do kogo sprawuje kontrolę, sam wyraz „kontrola” budzi nieprzyjemne skojarzenia, gdyż wydaje się, że to, co się pod nim kryje, zagraża osobistej wolności i samodzielności, ale nie należy tego traktować w kategoriach utopii organizacyjnej. Nie po raz pierwszy profesor, ze znanym sobie kunsztem, podkreśla w dalszych rozważaniach, że już nie wystarczy zwracać uwagę na kontrolę w charakterze ex post, coraz częściej mówi o potrzebie uruchomienia kontroli antycypacyjnej (wyprzedzającej), która wykrywa odchylenia od wzorców lub ustaleń w takim momencie ich powstania, aby umożliwić ich korektę, zanim poszczególne fazy ich działania zostaną ukończone (jednym słowem, zdążyć przed błędem!) – tym samym uświadamia trudności związane z pozyskiwaniem informacji oraz właściwym wyciąganiem wniosków. Stwierdza też, że dziś nie wystarczy wyłącznie zainteresowanie przeszłością, aby wyciągać wnioski dla przyszłości, wskazuje na potrzebę prowadzenia kontroli strategicznej, która za przedmiot badań przyjmie sprawdzenie słuszności obierania, takich, a nie innych układów odniesienia, ponieważ kontrola strategiczna uczy wyboru reakcji na występującą niepewność i złożoność otoczenia. Recenzje i informacje 187 Nie bez znaczenia, zdaniem autora, pozostaje kontrola finansowa, która jest obecna we wszystkich dziedzinach życia organizacyjnego, a w niektórych wręcz dominuje, będąc wyjątkowo złożonym i bogatym zespołem operacji mechanizmów oraz narządzi, które tworzą jej system. Konkludując autor stwierdza, że wszyscy boleją nad słabością kontroli wewnętrznej, co wcale nie przeszkadza, a wręcz odwrotnie, niejako tłumaczy rozwój instytucji kontroli wyspecjalizowanej, zewnętrznej w stosunku do sfer działań gospodarczych i administracyjnych. Spośród prezentowanych treści opracowania na szczególna uwagę zasługują te, które wyraźnie rozpatrują obraz kontroli jako funkcji zarządzania i jako narzędzia nowoczesnego zarządzania, a także rozważania dotyczące narastającego głębokiego kryzysu kontroli wewnętrznej, określanego mianem dysfunkcji. Autor ujmuje zjawisko dysfunkcji w kategoriach holistycznych, określając dysfunkcje współczesnych systemów kontroli jako przejawy patologii mające miejsce w systemie kontroli instytucjonalnej i funkcjonalnej. Treść rozdziału 8. pogłębia naszą wiedzę o skutkach nadczynności aparatu kontroli oraz zjawisku autonomizacji kontroli, w których profesor zaznacza istnienie i postrzeganie kontroli współcześnie w kategoriach hipertrofii, zastrzegając, że nie jest ona zjawiskiem nowym i wskazuje przyczyny i miejsca jej częstego występowania, do których zalicza każdy słaby system polityczny, w którym łatwiej jest inicjować kolejne procesy kontroli, niż projektować trwale urządzenia prawno-organizacyjne eliminujące ich potrzebę. W opracowaniu odnajdujemy klucz do odpowiedzi na wiele nurtujących pytań (wczoraj i dziś), np.: gdzie szukać przyczyn dysfunkcji kontroli? – w poprzednim ustroju były to przyczyny polityczne, bezwzględny fiskalizm, sprzeczne przepisy podatkowe i znaczna dowolność ich interpretacji. Dzisiaj – nadczynność kontroli, autonomizacja i ofensywny styl pracy kontrolera, błędy zarządzania rzutujące na błędy kontroli, przypisywanie zbyt dużej wagi czynnikom łatwo mierzalnym, podczas gdy nie zwraca się dostatecznej uwagi na sprawy, które trudno jest mierzyć. Problem ten występuje, dlatego że łatwiej i szybciej można mierzyć efektywność czynników poddających się kwantyfikacji. Tendencję do nadmiernego podkreślania czynników krótkookresowych kosztem długookresowych, a także brak elastyczności w dostosowaniu systemów kontroli do zmiany znaczenia w czasie różnych rodzajów celów zadań i czynności. Niedostosowanie do zmieniającego się przedmiotu badań metod kontroli i lekceważenie sposobów reagowania na nią może prowadzić do różnego rodzaju odstępstw, a nawet wynaturzeń działań kontrolnych, których skutki pozostają w sprzeczności z oczekiwaniami. Wiele miejsca profesor poświęca odpowiedzi na pytanie: dlaczego mechanizm ten nie funkcjonuje sprawnie? Powszechnie występująca błędna ocena potrzeb, co do zakresu intensywności i rangi kontroli, jest najczęściej wynikiem niedostatecznego jej przygotowania (preparacji), a w szczególności świadczy o niezrozumieniu jej celu i nieznajomości środków i warunków, które do osiągnięcia tego celu są najbardziej wskazane. Względnie trwałe wynaturzenia i niesprawności czynności kontrolnych nazywa się dysfunkcjami kontroli. Źródła dysfunkcji występują w przyjętej strategii i organizacji procesów kontroli, bywają pogłębiane w fazie wykonawczej za sprawą osobowości kontrolerów. Niezależnie od tego, dysfunkcje kontroli są często przejawem stereotypów funkcjonujących w świadomości ludzi decydujących o działaniu, którzy ufają bardziej własnemu doświadczeniu aniżeli obiektywnej analizie realiów sytuacji. Paradoksalnie, nieskuteczność kontroli instytucjonalnej nie przyczynia się do jej osiągnięcia, wręcz przeciwnie, sprzyja jej rozbudowaniu, aby tym sposobem osiągnąć większą efektywność. Zdaniem autora, stosowanie aktywnych i bezpośrednich form kontroli, wyprzedzających zaistnienie błędów w procesie wykonawczym, zwiększa prawdopodobieństwo zgodności rezultatów z tym, co zostało zaplanowane. Im więcej dyskretnych i bezpośrednich form kontroli, tym większe prawdopodobieństwo, że uzyska się wysoką jakość działania za pierwszym razem, ma to szczególne znaczenie w działalności gospodarczej dla umocnienia pozycji firmy na rynku w warunkach konkurencji i niepewności. 188 Recenzje i informacje Wielkie wyzwanie dla systemów biznesowych stanowi coraz bardziej niestabilne otoczenie. Nieoczekiwane i zaskakujące zmiany dokonujące się w otoczeniu wymagają szybkich odpowiedzi ze strony tych systemów. Rozwiązania mogą iść dwoma torami: albo zwiększamy rygoryzm i centralizujemy decyzje, dając szerokie uprawnienia jednoosobowym przedstawicielom władzy, albo zwiększamy autonomię podmiotów działających, zdolnych do samoorganizacji. Samoorganizacja to pojęcie powstałe w ramach paradygmatu złożoności, który tworzyli fizycy chemicy i matematycy. To nie tylko uporządkowanie przestrzenno-czasowe, ale również mobilizacja kompetencji, wyposażenia, adaptacji, a więc tworzenia lokalnych reguł. Podsumowaniem jest stwierdzenie, że istotnym elementem efektywnego systemu kontroli jest silna świadomość jej potrzeby, a najważniejszym ogniwem jest samokontrola, na którą składa się wszystko, co powoduje, że pracownikowi chce się naprawiać błąd a nawet nie dopuścić do jego wystąpienia, zaś wszystkie formy kontroli mają swoje plusy i minusy. Nie należy zapominać, że kontrola jest środkiem, a nie celem a kontrola jest taka, jakie jest zarządzanie (rządzenie), czyli model kontroli odpowiada modelowi zarządzania. Natomiast integracja kontroli z zarządzaniem jest postulatem idealizującym pewien typ stosunków społecznych, w których gospodarka narodowa wkomponowana w kooperujące otoczenie jest traktowana jako zintegrowana całość. Praca Bolesława Rafała Kuca jest dziełem bardzo wysokiej troski o efektywny system kontroli, wyprzedzający zaistnienie błędów, redukcję niepewności i racjonalne zarządzania. Z tego też powodu znaleźć powinna wielkie zainteresowanie wielu osób i organizacji, dla których losy kontroli nie mogą być obojętne. OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008 Eugeniusz KOŚMICKI RECENZJA książki Martina Jänicke, Philipa Kunig, Michaela Stitzel pt. Umweltpolitik. Lern- und Arbeitsbuch. Politik, Recht und Management des Umweltschutzes in Staat und Unternehmen (Polityka ekologiczna. Książka do nauki i pracy. Polityka, prawo, zarządzanie ochroną środowiska w państwie i przedsiębiorstwie), 2. Aufl., Verlag J. H. W. Dietz Nachf, Berlin 2005, ss. 455. Profesorowie M. Jänicke, P. Kunig, M. Stitzel należą do znanych, uczonych niemieckich zajmujących się ochroną środowiska. Są oni pracownikami naukowymi Wolnego Uniwersytetu w Berlinie. Przy tym autorzy pozostają przedstawicielami różnych dyscyplin naukowych: politologii (M. Jänicke), prawa (P. Kunig) i ekonomii (M. Stitzel). Omawiana książka przeznaczona jest zarówno dla osób pragnących pogłębić swoją wiedzę o ochronie środowiska, jak i dla praktyków życia gospodarczego i politycznego. Autorzy książki stawiają podstawowe pytania związane ze współczesną ochroną środowiska. Co to jest polityka ekologiczna? Kim są jej główni „aktorzy”? Jakie stosuje się współcześnie podstawowe jej instrumenty i jakie są warunki jej sukcesów? Czy można poprawić współczesną sytuację ekologiczną? Jaką rolę odgrywa państwo, społeczeństwo i przedsiębiorstwa w ochronie środowiska? Zwraca się przy tym uwagę na problemy polityczne, prawne i ekonomiczne ochrony środowiska, które omawia się w kontekście narodowym i międzynarodowym (unijnym i globalnym). Omawiana książka jest wyjątkowo obszerna (łącznie 455 stron) i składa się z czterech podstawowych części (Wprowadzenie; Polityka ekologiczna; Prawo środowiskowe; Zarządzanie ochroną środowiska w przedsiębiorstwie). Wszystkie części i rozdziały pracy zawierają obszerną, najnowszą literaturę przedmiotu, a książka kończy się obszernym słowniczkiem pojęć stosowanych w pracy. We Wprowadzeniu autorzy zwracają uwagę na podstawowe założenia teoretyczne przyjęte w książce, jej układ, główne problemy, które stanowią podstawę opracowania. Pod pojęciem polityki ekologicznej rozumieją oni sumę środków publicznych, które mają na celu usunięcie, zmniejszenie i zapobieganie obciążeniom środowiska. Natomiast prawo środowiskowe jest pojęciem zbiorczym na określenie wszystkich przepisów prawnych, które wyznaczają wewnątrzpaństwowe i międzynarodowe warunki normatywne w zakresie rozwiązywania problemów środowiska. Zarządzania środowiskowe w przedsiębiorstwie obejmują działania przedsiębiorstw, aby przy realizacji swoich podstawowych zadań ekonomicznych minimalizować oddziaływanie na środowisko. Do podstawowych założeń książki należy przekonanie, że zachowanie naturalnego środowiska wiąże się z efektywnym współdziałaniem polityki ekologicznej, prawa środowiskowego, jak też działań proekologicznych w przedsiębiorstwach. Takie przedsięwzięcie wymagało interdyscyplinarnego podejścia, co stanowi cechę tej książki. Innym założeniem jest orientacja na zagadnienia zarządzania. Najobszerniejsza część dotyczy polityki ekologicznej (s. 30 – 157). Polityka ta posiada już ponad stuletnią tradycję, chociaż ostatecznie ukształtowała się ona w Niemczech dopiero na przełomie lat sześćdziesiątych i siedemdziesiątych ubiegłego wieku. Część o polityce ekologicznej obejmuje następujące, podstawowe problemy: politykę ekologiczną w Niemczech; charakterystykę analiz politologicznych i polityki ekologicznej; charakterystykę działań w polityce ekologicznej; dynamikę rozwoju polityki ekologicznej; a wreszcie glo- 190 Recenzje i informacje balizację polityki ekologicznej. Przy tym wyróżnić można następujące etapy rozwoju polityki ekologicznej w Niemczech: – lata 1969 – 1973: faza początkowa niemieckiej polityki ekologicznej; inicjatywa państwa przy biernym nastawieniu przedsiębiorstw; – lata 1974 – 1982: w okresie kryzysów naftowych (1973, 1979) wystąpiło osłabienie tempa rozwoju niemieckiej polityki ekologicznej. Główna jej strategia polegała na rozpraszaniu substancji szkodliwych w środowisku, uzupełnionej przez politykę „końca rury” (end of the pipe); – lata 1983 – 1987: charakteryzują się dyskusją o zagrożeniu lasów („umieranie lasów” – Waldsterben) i wejściem Zielonych do niemieckiego parlamentu, co doprowadziło do znacznej aktywności państwa niemieckiego w zakresie środowiska; – lata 1988 – 1993: cechują się pojawieniem nowych danych o różnych zagrożeniach ekologicznych, międzynarodowymi działaniami (Konferencja w Rio), a także rozwojem tendencji do ekologicznej modernizacji; – lata 1994 – 1998: dochodzi do ponownego spowolnienia niemieckiej polityki ekologicznej; – od 1998 do dzisiaj: pojawienie się nowych inicjatyw w zakresie ochrony środowiska. Do najważniejszych „aktorów” w dziedzinie ochrony środowiska należą w Niemczech: Federalne Ministerstwo Środowiska, Ochrony Przyrody i Bezpieczeństwa Reaktorów, Federalny Urząd Środowiskowy, Federalny Urząd Ochrony Środowiska. Do tego dochodzą jeszcze różnorodne gremia ekspertów (m.in. Rada Ekspertów ds. Problemów Środowiska, Naukowa Rada Doradcza Globalne Zmiany Środowiska, komisja parlamentarna). Następnie ważne znaczenie posiadają różnorodne organizacje ochrony środowiska (4 mln członków). Ruch ekologiczny posiada w Niemczech znaczny potencjał organizacyjny, naukowy i publikacyjny. Do pozostałych aktorów polityki ekologicznej należą przedsiębiorstwa zorientowane ekologicznie, a także instytucje naukowe. Do specyficznych cech niemieckiej polityki ekologicznej należy jej federacyjna struktura państwa. Podjęcie działań ekologicznych przez państwo wiąże się z charakterystycznymi stadiami, określanymi jako „cykl polityczny” (Politikzyklus, policy cycle). Należą tutaj: postrzeganie problemu (problem perception), tematyzacja (agenda setting), sformułowanie polityki (policy formulation), decyzja (decision making), wprowadzenie do polityki i administracji (implementation), ocena wyników (evaluation), ponowne zdefiniowanie polityki lub jej zakończenie (termination). Jest charakterystyczne, że problemy ekologiczne wymagają odpowiedniej percepcji przez aktorów politycznych. Dopiero wtedy możliwe jest wejście określonych problemów do działań polityczno-instytucjonalnych (agenda setting). Dochodzi stopniowo do sformułowania środków politycznych w formie ustaw, zarządzeń, planów i programów. Faza wprowadzania w życie określonych środków polityki ekologicznej wiąże się z działaniami administracji, a zwłaszcza jej efektywnym działaniem. Współcześnie mówi się coraz częściej nie tylko o publicznej polityce ekologicznej (public policy), ale także o publicznym zarządzaniu ekologicznym (public management), które oznacza koncentrowanie się na specyficznych celach zarządzania. Sukcesy polityki ekologicznej uwarunkowane są takimi determinantami i warunkami, jak: struktura problemów, „aktorzy polityki ekologicznej”, strategie, systemowe warunki działania i sytuacyjne warunki działania. Struktura problemów polityki ekologicznej wyznaczana jest przez postrzeganą pilność problemów i możliwości ich rozwiązania. Aktorom (protagonistom) przeciwstawiają się zawsze przeciwnicy tych działań. Strategia działania poszczególnych aktorów polityki zależy od systemowych warunków działania (suma relatywnie stabilnych szans i ograniczeń) i sytuacyjnych warunków działania (suma zmieniających się szans i ograniczeń). Problemy ekologiczne wiążą się nie tylko z przyrodniczymi, ale także społecznymi wymiarami problemu (a więc możliwościami upolitycznienia problemu, władzą, wyboru opcji). Do stabilnych, systemowych warunków sukcesu polityki Recenzje i informacje 191 należą czynniki: ekonomiczno-techniczne, polityczno-instytucjonalne, społeczno-kulturowe, a także poznawczo-informacyjne. W ujęciu M. Jänicke, instrumenty polityki ekologicznej można podzielić na: instrumenty prawa administracyjnego, instrumenty planistyczne, instrumenty ekonomiczne, instrumenty kooperacyjne i instrumenty informacyjne. Administracyjne nakazy i zakazy należą od dawna do preferowanych środków polityki ekologicznej, chociaż wywołują one niekiedy silne reakcje obronne. Ponadto, charakteryzują się one brakiem elastyczności. Polityka ekologiczna musi charakteryzować się zróżnicowaniem instrumentów, tworząc charakterystyczny wzorzec polityczny (w tym: styl uprawiania polityki i polityczno-instytucjonalny kontekst działania). Obecnie coraz większe znaczenie posiadają narodowe plany ochrony środowiska lub przynajmniej formalne strategie narodowe. W zakresie polityki ekologicznej możemy wyróżnić różnorodne strategie: naprawę i działania kompensacyjne w zakresie szkód ekologicznych, addytywną technikę środowiskową, ekologiczną modernizację, a także ekologiczne zmiany strukturalne. Wraz z ekologiczną modernizacją polityka ekologiczna staje się coraz bardziej zapobiegawcza. Polega ona na zastosowaniu techniki proekologicznej w całym procesie produkcyjnym, w celu zmniejszenia zużycia i ograniczenia emisji do środowiska. W przypadku ekologicznych zmian strukturalnych chodzi o pełne urzeczywistnienia ochrony środowiska w gospodarce i społeczeństwie. Jak dotąd, duże znaczenie posiada nadal tzw. addytywna polityka środowiskowa (a więc polityka „końca rury”),a zbyt mało korzysta się z szansy ekologicznej modernizacji. Współczesna nowoczesna polityka ekologiczna obejmuje triadę: planowanie środowiskowe, ekologiczną reformę podatkową i zorientowaną na innowacje techniczne i organizacyjne strategię ochrony środowiska. Charakterystyczną cechą polityki ekologicznej stała się ostatnio jej globalizacja, która przejawia się na płaszczyźnie międzynarodowej i narodowej. Obecnie istnieją już instytucje międzynarodowe (UNEP, CSD), następuje – przynajmniej częściowa – ekologizacja istniejących dotąd organizacji międzynarodowych (m.in. OECD i Bank Światowy), występuje rosnące znaczenie międzynarodowych organizacji pozarządowych i międzynarodowych raportów. Zachodzi obecnie ujednolicenie polityki ekologicznej między państwami, m.in. poprzez: powstanie ministerstw ochrony środowiska, globalne powiązanie instytucji rządowych, przyjmowanie innowacji polityki ekologicznej. W zakresie środowiska dużą rolę odgrywają tzw. kraje pionierskie (obecnie zwłaszcza: Holandia, Dania, Szwecja, Niemcy). Niestety nadal brakuje odpowiednich sukcesów ekologicznych w zakresie: zaopatrzenia w energię, transportu, rolnictwa i budownictwa. Trzecia część książki Polityka ekologiczna poświęcona jest problematyce prawnej (s. 159 – 288). Problematyka ta posiada kluczowe znaczenie w zakresie zarządzania środowiskiem. W części tej omówiono takie problemy, jak: środowisko jako temat prawny, podstawy niemieckiego prawa środowiskowego, instrumenty kształtowania prawa ekologicznego, najważniejsze części składowe prawa środowiskowego, znaczenie prawa międzynarodowego w ramach międzynarodowej polityki ekologicznej, czy wreszcie, szanse i granice prawa w zarządzaniu środowiskiem. W przypadku prawa środowiskowego coraz większe znaczenie odgrywa obecnie europejski porządek prawny. Przy tym najważniejsze znaczenie posiadają dyrektywy europejskie, które mają podstawowe znaczenie dla prawa krajowego. Europeizacja prawa środowiskowego osiągnęła obecnie taki zakres, że trudno jest niekiedy rozróżnić pomiędzy europejskim a niemieckim prawem środowiskowym. Prawo środowiskowe oparte jest na zasadach sprawstwa, zapobiegania, kooperacji. Ponadto, wymienia się jeszcze takie zasady, jak: zasadę obciążenia ogółu, zasadę substytucji, zasadę ostrożności, a także zasadę trwałego rozwoju. Zasada sprawstwa posiada podstawowe znaczenie dla całego współczesnego ustawodawstwa. Autora tej części – P. Kuniga – interesuje przede wszystkim „prawo środowiskowe” w ujęciu administracyjnego prawa środowiskowego (pomija on tzw. prywatne prawo środowiskowe, a także środowiskowe prawo karne). Obecnie w Niemczech trwają intensywne prace nad Kodek- 192 Recenzje i informacje sem prawa środowiskowego, obejmującego część ogólną i szczegółową. Do części szczegółowej zalicza się: prawo ochrony przyrody, ochrony wód, w zakresie odpadów, utrzymania czystości powietrza i zwalczania hałasu, ochrony gleb, ochrony przed promieniowaniem, ochrony przed niebezpiecznymi substancjami. P. Kunig omawia szczegółowo prawo środowiskowe w zakresie zwalczania zanieczyszczenia powietrza i hałasu, prawo w zakresie gospodarki odpadami i gospodarkę opartą na cyklach przyrody (Kreislaufwirtschaft), a także ochronę przyrody i krajobrazu. Wskazuje się na osiągnięcia w tym zakresie, ale również na istniejące jeszcze opóźnienia i główne problemy konieczne do rozwiązania. Obok prawa środowiskowego o charakterze wewnętrznym istnieje jeszcze prawo międzynarodowe, które wyznacza warunki dla międzynarodowej polityki ekologicznej. Podmiotami prawa międzynarodowego są państwa, a ostatnio także organizacje międzynarodowe. Coraz większą rolę odgrywają obecnie międzynarodowe organizacje pozarządowe, chociaż formalnie nie posiadają one podmiotowości prawnej w prawie międzynarodowym. Charakterystyczne dla międzynarodowego prawa środowiskowego są nadal słabe mechanizmy jego wprowadzenia w życie i egzekwowania. Szczególny rozwój prawa międzynarodowego wystąpił od czasów Konferencji w Sztokholmie (1972 r.), Konferencji w Rio (1992 r.), Konferencji w Johannesburgu (2002 r.), m. in. w postaci multilateralnego systemu umów (konwencji). Aby przybliżyć problematykę tego prawa, M. Kunig przedstawia szczegółowo ochronę klimatu, utrzymanie różnorodności biologicznej, a także utrzymanie czystości mórz. Prawo międzynarodowe wykazuje nadal szereg niedostatków, pomimo wielu dyskusji i konferencji międzynarodowych. Dopiero stopniowo rozwijają się instytucjonalne warunki w zakresie ochrony środowiska w skali globalnej, chociaż nadal brakuje odpowiedniej organizacji międzynarodowej. Czwarta część książki Polityka ekologiczna poświęcona jest ochronie środowiska w przedsiębiorstwie (s. 289 – 421). Wiadomo, że polityka ekologiczna i prawo środowiskowe wyznaczają warunki, w obrębie których przedsiębiorstwa realizują swoje własne cele. Rozważania M. Stitzela obejmują cztery podstawowe problemy: stosunek przedsiębiorstw do otaczającego środowiska przyrodniczego i społecznego; problem orientacji ekologicznej funkcji przedsiębiorstwa w zakresie wytwarzania dóbr; działania w przedsiębiorstwie zorientowane na środowisko, czy wreszcie, rozważania o strategicznym zarządzaniu. Dotychczasowe doświadczenia wskazują – według M. Stitzela – na następujące podstawowe założenia: jakość naturalnego środowiska zależy w dużym stopniu od działań przedsiębiorstw; dla przedsiębiorstw najważniejsze znaczenie posiada sukces gospodarczy, czy wreszcie, że przedsiębiorstwa mogą podejmować inteligentne rozwiązania ekologiczne – mogą odnosić sukcesy gospodarcze, a jednocześnie chronić otaczające środowisko. Jest oczywiste, że duża część obciążeń środowiska wynika bezpośrednio i pośrednio z działań gospodarczych przedsiębiorstw. Stąd też konieczne są dwa warunki, aby przedsiębiorstwo minimalizowało swoje oddziaływanie na środowisko: strategia i instrumenty orientacji – na ochronę środowiska w przedsiębiorstwie („zarządzanie ochroną środowiska”), a także poprawa współdziałania polityki ekologicznej, prawa środowiskowego i zarządzania ochroną środowiska w przedsiębiorstwie. Jest charakterystyczne, że przedsiębiorstwa w różnym zakresie obciążają środowisko. Przedsiębiorstwa wywołują tzw. efekty zewnętrzne swojej działalności, gdyż ich działania oparte są na indywidualnym maksymalizowaniu korzyści i pomijaniu oddziaływań na osoby trzecie. W nowoczesnych społeczeństwach przemysłowych zachodzi zjawisko określane jeszcze przez G. Hardina jako „tragedia dóbr wspólnych”, gdyż gospodarka pozostawiona samej sobie może łatwo spowodować „niepohamowany proces niszczenia środowiska”. Najważniejsze znaczenie posiadają tutaj nadal normy środowiskowe (nakazy i zakazy), a także instrumenty ekonomiczne. Znaczenie ochrony środowiska występuje zazwyczaj na dalszych miejscach w hierarchii celów przedsiębiorstwa. Przedsiębiorstwa dążą współcześnie do ochrony środowiska. Na podstawie szczegółowych badań można wskazać na trzy podstawowe motywy: etyczne, unikanie gospodar- Recenzje i informacje 193 czych szkód dla przedsiębiorstw, a także uzyskanie korzyści gospodarczych. Ochrona środowiska jest możliwa tylko wtedy, gdy jest częścią zarządzania środowiskiem w przedsiębiorstwie. Chodzi tutaj o uwzględnienie ochrony środowiska w logistyce, produkcji, zbycie i marketingu przedsiębiorstwa, a także w takich działaniach, jak: ecocontrolling (ekologiczna kontrola przedsiębiorstwa), organizacja i zarządzanie kadrami. Logistyka obejmuje sterowanie systemami materiałów i systemami przepływów aż do ich utylizacji. Wiele do życzenia pozostawia nadal w Niemczech problem opakowań, a koncepcja tzw. zielonego punktu wcale nie rozwiązała dotychczas problemu odpadów. Produkcja przemysłowa – w dużym zakresie – oddziałuje na środowisko. Ważne znaczenie posiada technologia stosowana w produkcji. Nie wykorzystane pozostają do tej pory szanse czystej ochrony środowiska, tzw. clean technology, a technika opiera się nadal na technologii „końca rury”. W przedsiębiorstwach coraz większą rolę odgrywa marketing zorientowany ekologicznie, a więc oferowanie produktów, których produkcja, konsumpcja i utylizacja generują mniejsze obciążenia środowiska niż produkcja, konsumpcja i utylizacja produktów konkurencyjnych o porównywalnych korzyściach. „Zielony marketing” może obejmować działania w zakresie produktów, warunków sprzedaży i odpowiedniej społecznej polityki komunikacyjnej. Najważniejsze znaczenie posiadają nadal etykiety ekologiczne i odpowiednia polityka w zakresie komunikacji społecznej (public relations). W zakresie ekologizacji produkcji w samym przedsiębiorstwie decydujące znaczenie posiadają: pozyskiwanie i wykorzystywanie ważnych dla przedsiębiorstwa informacji (tzw. ecocontrolling), organizacja przedsiębiorstw uwzględniająca ochronę środowiska, podnoszenie kwalifikacji i motywacji pracowników w zakresie działań zgodnych z ochroną środowiska. Obecnie istnieją liczne instrumenty kontroli ekologicznej przedsiębiorstwa, m.in. w postaci: ekobilansów, ekoaudytów, sprawozdań o stanie środowiska czy rachunku kosztów środowiskowych. Ekologiczna kontrola przedsiębiorstwa jest stosunkowo nowym narzędziem zarządzania ochroną środowiska w przedsiębiorstwie. Obok systemów kontroli ekologicznej, duże znaczenie przypisuje się kształtowaniu organizacji i zarządzania kadrami dla potrzeb środowiska. Współcześnie kształtuje się pojęcie strategicznego zarządzania ochroną środowiska w przedsiębiorstwie, a więc określone miejsce ochrony środowiska w filozofii funkcjonowania przedsiębiorstwa jako jego celu strategicznego. Oznacza to aktywne uprawianie zapobiegawczej ochrony środowiska i jego włączenie do całego cyklu produkcyjnego. Do tej pory występuje nadal często opór i działanie na zwłokę w zakresie wprowadzania strategicznego zarządzania ochroną środowiska w przedsiębiorstwie. Dopiero od niedawna próbuje się aktywnie wykorzystać potencjalne korzyści konkurencyjne związane z ochroną środowiska. Recenzowana tutaj książka M. Jänicke, P. Kuniga, M. Stitzela stanowi dobre kompendium w zakresie polityki ekologicznej, prawa środowiskowego i zarządzania ochroną środowiska w przedsiębiorstwach. Jest ona podręcznikiem przeznaczonym nie tylko dla studiujących wymienione problemy, także dla praktyków życia gospodarczego i politycznego. W warunkach członkostwa w Unii Europejskiej warto by wykorzystać, także i w Polsce, dotychczasowe doświadczenia niemieckie. Jest ona dobrze przystosowana do warunków polskich, a więc krajów Unii Europejskiej. OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008 Dariusz KIEŁCZEWSKI UWARUNKOWANIA I MECHANIZMY ZRÓWNOWAŻONEGO ROZWOJU VI MIĘDZYNARODOWA KONFERENCJA NAUKOWA KATEDRA GOSPODAROWANIA ŚRODOWISKIEM I TURYSTYKI WYŻSZEJ SZKOŁY EKONOMICZNEJ W BIAŁYMSTOKU, ZAKŁAD ZRÓWNOWAŻONEGO ROZWOJU WYDZIAŁU EKONOMII I ZARZĄDZANIA UNIWERSYTETU W BIAŁYMSTOKU, BIAŁYSTOK-TALLIN, 2-5 LIPCA 2007 R. Cykl konferencji "Uwarunkowania i Mechanizmy Zrównoważonego Rozwoju" został zainicjowany w 1996 roku przez prof. dr. hab. Bazylego Poskrobko. Od dwunastu lat analizuje się na nich różnorodne aspekty kwestii zrównoważonego rozwoju i ochrony środowiska. Konferencje wpisały się na trwałe w kalendarium wydarzeń odbywających się w ramach działalności badawczej polskich ekonomistów środowiska i zasobów naturalnych. Bez przesady można stwierdzić, że jest to najważniejsze wydarzenie naukowe kojarzone z białostockim środowiskiem badaczy z zakresu wymienionej dziedziny. Kolejna, szósta edycja Konferencji odbyła się w dniach 2-5 lipca w Białymstoku i Tallinie. Jej organizatorami byli: – Wyższa Szkoła Ekonomiczna w Białymstoku reprezentowana przez Katedrę Gospodarowania Środowiskiem i Turystyki; – Uniwersytet w Białymstoku reprezentowany przez działający, przy Wydziale Ekonomii i Zarządzania, Zakład Zrównoważonego Rozwoju; przy udziale: – Tallin University; – Polskiego Towarzystwa Ekonomistów Środowiska i Zasobów Naturalnych. Organizacja Konferencji była możliwa również dzięki wsparciu: Narodowego Funduszu Ochrony Środowiska i Gospodarki Wodnej; – – Ministerstwa Nauki i Szkolnictwa Wyższego. Komitet Honorowy Konferencji stanowili: – prof. dr Zbigniew Ejsmont – rektor Wyższej Szkoły Ekonomicznej w Białymstoku; – prof. dr hab. Jerzy Nikitorowicz – rektor Uniwersytetu w Białymstoku; – prof. dr hab. Stefan Kozłowski- przewodniczący byłego Komitetu „Człowiek i Środowisko" przy Prezydium Polskiej Akademii Nauk; – prof. dr hab. Andrzej Sadowski – dziekan Wydziału Historyczno- Socjologicznego Uniwersytetu w Białymstoku; – dr hab. prof. UwB Robert Ciborowski – dziekan Wydziału Ekonomii i Zarządzania Uniwersytetu w Białymstoku; – dr Tadeusz Pindór – Prezes Zarządu Polskiego Towarzystwa Ekonomistów Środowiska i Zasobów Naturalnych. Komitetowi naukowemu Konferencji przewodniczył prof. dr hab. Bazyli Poskrobko, a Komitetowi Organizacyjnemu dr hab. prof. UwB Dariusz Kiełczewski. Recenzje i informacje 195 Obrady zaszczycili swoją obecnością także przedstawiciel Urzędu Marszałkowskiego Województwa Podlaskiego, a także członek Rady Polityki Pieniężnej prof. dr hab. Marian Noga. Szósta edycja konferencji była pod wieloma względami wyjątkowa. Po pierwsze była to największa z cyklu Konferencji. Uczestniczyło w niej ponad stu pięćdziesięciu naukowców zajmujących się zagadnieniami rozwoju zrównoważonego, reprezentujących praktycznie wszystkie uczelnie ekonomiczne, na których prowadzi się badania w tym zakresie. Po drugie była to konferencja interdyscyplinarna. Oprócz ekonomistów, na czele z legendami polskich badań nad zrównoważonym rozwojem, takimi jak: Tomasz Żylicz, Bogusław Fiedor, Jerzy Śleszyński, Józefa Famielec, Tadeusz Borys, w konferencji wzięli udział socjologowie i filozofowie podejmujący zagadnienia etyki, filozofii i świadomości ekologicznej: Andrzej Papuziński, Zdzisława Piątek, Andrzej Sadowski oraz Włodzimierz Tyburski. Dzięki temu możliwe było interdyscyplinarne i wieloaspektowe spojrzenie na badane, w ramach Konferencji, problemy. Takie podejście będzie kontynuowane i rozwijane w ramach kolejnych konferencji z cyklu. Po trzecie była to konferencja międzynarodowa. Uczestniczyli w niej naukowcy z Polski, Estonii i Niemiec, a obrady odbywały się w Białymstoku i Tallinie. Również ten zamysł, który został w pełni zrealizowany, będzie kontynuowany na kolejnych konferencjach. Organizatorzy pragną w przyszłości zorganizować konferencję na temat „Uwarunkowania i Mechanizmy Zrównoważonego Rozwoju" wspólnie z ośrodkami naukowymi z Rosji i Białorusi. Zgodnie z duchem Konferencji w Rio de Janeiro, organizatorzy konferencji uważają, że Polska, jako członek Unii Europejskiej, powinna poczuwać się do szczególnej odpowiedzialności za wdrażanie procesów rozwoju zrównoważonego w Europie Środkowej i Wschodniej. Nic tak nie jednoczy i nie rozbija wzajemnej nieufności, jak wspólne podjęcie uniwersalnego wyzwania rozwojowego, którym jest harmonijny rozwój z wpisaną weń troską o środowisko przyrodnicze. Obrady zostały podzielone na trzynaście sesji tematycznych: cztery sesje główne oraz dziewięć sesji problemowych. Sesje główne to: – Zrównoważony rozwój w teorii ekonomii, – Środki sterowania trwałym i zrównoważonym rozwojem, – Społeczne aspekty zrównoważonego rozwoju, – Problemy zrównoważonego rozwoju państw basenu Morza Bałtyckiego. Na sesjach tych zostały zaprezentowane najważniejsze płaszczyzny badań prowadzonych w ramach Konferencji oraz przedstawiono referaty specjalnie przygotowane przez Autorów jako punkt wyjścia do dyskusji prowadzonych w ramach sesji problemowych. Ze względu na obfitość przygotowanych referatów, sesje tematyczne były zorganizowane tak, że referatowi wiodącemu, stanowiącemu zarazem wprowadzenie do dyskusji, w ramach sesji towarzyszyło omówienie najważniejszych tez referatów dotyczących tematyki sesji. Tematy sesji problemowych były następujące: – Instrumenty realizacji zrównoważonego rozwoju, – Zrównoważony rozwój gospodarki, – Zrównoważony rozwój na poziomie przedsiębiorstwa, – Zrównoważona turystyka i i ekologizacja rolnictwa, – Regionalne i lokalne aspekty zrównoważonego rozwoju, – Wybrane problemy zarządzania środowiskiem w warunkach zrównoważonego rozwoju, – Wybrane problemy wdrażania zrównoważonego rozwoju w państwach Unii Europejskiej, – Wybrane problemy gospodarowania środowiskiem, – Rola energetyki we wdrażaniu zrównoważonego rozwoju. Tak wielka obfitość tematyki badawczej sprawiła, że podczas obrad w ramach Konferencji stworzony został precyzyjny obraz zagadnień rozwoju zrównoważonego: stan i płaszczyzny badań naukowych, ocena zaawansowania jego procesów, ocena szans i zagrożeń 196 Recenzje i informacje związanych z jego wdrażaniem, relacja do innych problemów społecznych i gospodarczych, a także, co okazało się szczególnie cenne, porównanie sytuacji w Polsce z sytuacją w Niemczech i Estonii. Świadectwem wielkiego rozmachu i bogactwa dorobku naukowego Konferencji są publikacje, które zostały przygotowane na Konferencje oraz powstały i są przygotowywane jako efekt jej obrad. Są to: – Towards the Theory of Sustainable Development pod red. Bazylego Poskrobko wydane w ramach cyklu „Studia nad Zrównoważonym Rozwojem" ,sygnowanego przez Polską Akademię Nauk; – Obszary badań nad trwałym i zrównoważonym rozwojem pod red. Bazylego Poskrobko; – Problemy interpretacji i realizacji zrównoważonego rozwoju pod red. Bazylego Poskrobko i Grzegorza Dobrzańskiego; – Zrównoważony rozwój i ochrona środowiska w gospodarce pod red. Dariusza Kiełczewskiego i Bożeny Dobrzańskiej; – Ekologiczne aspekty zrównoważonego rozwoju regionalnego i lokalnego pod red. Kazimierza Michałowskiego; – Uwarunkowania i mechanizmy rozwoju zrównoważonego, materiały konferencyjne; – numer specjalny pisma „Ekonomia i Środowisko" (nr 1/2007r.), zawierający artykuły przygotowane na Konferencję. Oprócz tego, przygotowywana jest pod redakcją Dariusza Kiełczewskiego, Marzanny Poniatowicz i Bożeny Dobrzańskiej monografia Implementation of sustainable development in countries of Ballic sea basins. Zawiera ona teksty przygotowane na konferencję oraz artykuły inspirowane, prowadzoną w jej ramach, dyskusją. W najbliższej edycji „Optimum. Studia Ekonomiczne” znajdzie się także zbiór artykułów będących efektem dyskusji prowadzonych w ramach Konferencji i zarazem zapowiedzią kolejnej Konferencji, która odbędzie się na przełomie czerwca i lipca 2009 roku. OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008 Wojciech SOŁOMIANKO ROZWÓJ REGIONALNY – PODSTAWOWE CELE I WYZWANIA KONFERENCJA NAUKOWA FUNDACJA PROMOCJI ROZWOJU PODLASIA, BIAŁOWIEŻA, 3 – 5 WRZEŚNIA 2007 R. W dniach 3 – 5 września 2007 r. w Hotelu Białowieski w Białowieży odbyła się dziewiąta z kolei konferencja naukowa poświęcona zagadnieniom rozwoju regionalnego. W tym roku została ona zorganizowana przez Fundację Promocji Rozwoju Podlasia pod patronatem naukowym Wydziału Ekonomii i Zarządzania Uniwersytetu w Białymstoku. Obrady odbywały się pod hasłem „Rozwój regionalny – podstawowe cele i wyzwania”. W konferencji udział wzięło trzydziestu uczestników z różnych ośrodków akademickich, m.in.: Uniwersytetu Łódzkiego, Uniwersytetu Marii Curie-Skłodowskiej w Lublinie, Katolickiego Uniwersytetu Lubelskiego, Politechniki Białostockiej, Wyższej Szkoły Ekonomicznej w Białymstoku, Wyższej Szkoły Finansów i Zarządzania w Białymstoku oraz Uniwersytetu w Białymstoku. Konferencję otworzył Dziekan Wydziału Ekonomii i Zarządzania – prof. dr hab. Robert Ciborowski w towarzystwie Prorektora ds. Ekonomicznych i Kontaktów z Regionem UwB – prof. dr. hab. Marka Proniewskiego oraz Prezesa Fundacji Promocji Rozwoju Podlasia – prof. dr. hab. Andrzeja F. Bociana, którzy następnie przewodzili poszczególnym sesjom obrad. W trakcie obrad zwrócono uwagę na to, że Polska jest krajem zróżnicowanym regionalnie. Zróżnicowanie to, choć nie odbiega znacząco od dysproporcji występujących w pozostałych krajach Unii Europejskiej, w ostatnich latach ulega nasileniu. Podkreślono, że odmienność uwarunkowań społeczno-gospodarczych oraz różnorodność posiadanych zasobów rozwojowych sprawiają, że każdy region wymaga indywidualnego podejścia w procesie rozwiązywania jego problemów. Za klucz do sukcesu uznano przede wszystkim właściwy dobór metod i takie formułowanie celów w układzie przestrzennym, by pozwalały one możliwie pełnie wykorzystać potencjał regionu. W prezentowanych referatach koncentrowano się przede wszystkim na ukazaniu możliwości realizacji strategicznych, z punktu widzenia regionu, celów rozwojowych przy wsparciu Unii Europejskiej. Stąd często poruszanymi zagadnieniami były sposoby finansowania przedsięwzięć w ramach funduszy strukturalnych UE, jak również wpływ głównych polityk wspólnotowych (tj.: wspólnej polityki rolnej, regionalnej, społecznej, spójności ekonomiczno-społecznej oraz ochrony środowiska) na tempo wyrównywania dysproporcji międzyregionalnych oraz podnoszenia dobrobytu mieszkańców. Znaczna część obrad została wypełniona przez rozważania nad rolą i skutecznością instytucji programujących, tj. formułujących wieloletnie programy rozwojowe. Przy tej okazji zostały omówione główne priorytety Narodowego Planu Rozwoju. Z racji na miejsce, w którym odbywała się konferencja, często podnoszonym tematem była konkurencyjność Podlasia na tle innych regionów w odniesieniu do różnych aspektów życia gospodarczego, tj.: polityka regionalna, polityka rolna, ekorozwój, rynek pracy, turystyka i inne. W czasie dyskusji uczestnicy starali się odpowiedzieć na pytanie: w jaki sposób wykorzystać szansę na rozwój pojawiającą się przed regionem, w wyniku przystąpienia Polski do UE. Szczegółowy program konferencji obejmował następujące wystąpienia: 198 Recenzje i informacje prof. dr hab. Bazyli Poskrobko – Szanse przyspieszenia rozwoju województwa podlaskiego; – prof. dr hab. Henryk Sasinowski – Rozwój regionalny w aspekcie restrukturyzacji obszarów wiejskich i rolnictwa; – prof. dr hab. Włodzimierz Puliński – Kapitał ludzki i społeczny jako czynniki rozwoju regionów wiejskich w Polsce; – prof. dr hab. Janina Godłów-Legiędź – Konkurencyjność gospodarki w świetle teorii kosztów transakcji; – prof. dr hab. Józef Rogowski – Migracje międzyregionalne a stopa bezrobocia, dochód per capita oraz PKB per capita; – prof. dr hab. Bogusław Plawgo, mgr Magdalena Klimczuk – Korzyści z funkcjonowania firm w strukturach klastrów gospodarczych; – prof. dr hab. Mirosława Kozłowska-Burdziak – Działalność gospodarcza osób fizycznych w województwie podlaskim – stan i możliwości rozwoju; – dr Tadeusz Smuga, mgr Wanda Karpińska-Mizielińska – Szara strefa w działalności przedsiębiorstw sektora usług turystycznych – wnioski z badań empirycznych; – dr Jan Polski – Ekonomika rozwoju regionalnego. Teoria i praktyka; – dr Dorota Perło – Analiza porównawcza regionalnych modeli HERMIN i MaMoR2 na przykładzie województwa podlaskiego; – dr Cecylia Sadowska-Snarska – Godzenie życia zawodowego z rodzinnym jako element działań na rzecz poprawy jakości zatrudnienia w Polsce; – dr Katarzyna Dębkowska – Zróżnicowanie rozwoju regionalnego powiatów Polski Wschodniej; – dr Elżbieta Sulima – Wspólnotowa polityka społeczna i europejski model socjalny a spójność społeczna; – dr Wiktoria Pantylej – Zmiany społeczno-gospodarcze a stan zdrowia ludności na pograniczu polsko-ukraińskim; – dr Jerzy Lewczuk – Problemy rozwoju obszarów położonych peryferyjnie; – dr Danuta Tarka – Taksonomiczna analiza województw – aspekt ekologiczny; – dr Dorota Mierzyńska – Pomiar ubóstwa za pomocą wskaźnika HPI; – dr Ewa Roszkowska – Modelowanie negocjacji z wykorzystaniem zbiorów rozmytych; – dr Beata Madras-Kobus – Instytucje finansowe a finansowanie zadań samorządów terytorialnych w Polsce; – mgr Beata Wiśniewska – Zróżnicowanie sektora MSP w regionach; – mgr Iwona Oleksza – Konwergencja regionów Polski w latach 1995 – 2004; – mgr Elżbieta Misiewicz – Ochrona przyrody a rozwój regionalny. Wyniki badań zaprezentowane przez uczestników konferencji zostały zebrane w publikacji pt. Rozwój regionalny – podstawowe cele i wyzwania pod redakcją prof. dr. hab. Andrzeja F. Bociana wydanej przez Wydawnictwo Uniwersytetu w Białymstoku. – OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008 Mikołaj NIEDEK PERSPEKTYWY ROZWOJU GOSPODARKI SPOŁECZNEJ W POLSCE A KONCEPCJA ZRÓWNOWAŻONEGO ROZWOJU KONFERENCJA NAUKOWA STAŁA KONFERENCJA EKONOMII SPOŁECZNEJ REVES, FUNDACJA INICJATYW SPOŁECZNO-EKONOMICZNYCH, WARSZAWA, 18 – 20 PAŹDZIERNIKA 2007 R. W dniach 18 – 20 października 2007 r. odbyły się w Warszawie II Ogólnopolskie Spotkania Ekonomii Społecznej. Organizatorem konferencji była międzynarodowa organizacja REVES, Stała Konferencja Ekonomii Społecznej, a ze strony polskiej Fundacja Inicjatyw Społeczno-Ekonomicznych1. Pierwsza w Europie Centralnej i Wschodniej konferencja nt. ekonomii społecznej odbyła się w 2002 r. w Pradze – gdzie przyjęto tzw. Deklarację Praską, określającą główne wytyczne i cele koncepcji ekonomii społecznej – kolejna zaś w Kra2 kowie w 2004 r., na której powołano Stałą Konferencję Ekonomii Społecznej . Do głównych wytycznych, eksponowanych w Deklaracji Praskiej, należy: – znaczenie gospodarki społecznej na poziomie lokalnym i budowanie spójności terytorialnej; – rola władz lokalnych w rozwoju społeczno-ekonomicznym regionów; – partnerstwo władz publicznych (samorządowych), organizacji pozarządowych i podmiotów gospodarki społecznej w przeciwdziałaniu marginalizacji społecznej i rozwoju społeczno-gospodarczym społeczności lokalnych; – znaczenie więzi partnerskich, publiczno-społecznych dla budowy lokalnego kapitału społecznego; – potrzeba współpracy na szczeblu krajowym i UE w zakresie tworzenia korzystnych warunków dla rozwoju instytucji i przedsiębiorstw gospodarki społecznej. Analizę zagadnień związanych z gospodarką społeczną prowadzi się głównie na gruncie polityki społecznej, w aspekcie praktyczno-wdrożeniowym. Gospodarkę społeczną traktuje się w tym kontekście jako instrument aktywizacji społeczno-gospodarczej społeczności lokalnej. Działania na rzecz rozwoju gospodarki społecznej i jej wspieranie przez sektor publiczny uznaje się za sposób budowy kapitału społecznego, co w perspektywie badawczej ekonomii instytucjonalnej ma szczególne znaczenie. Cytując T. Kaźmierczaka i M. Rymszę z Instytutu Spraw Publicznych: Społeczność lokalna jest tu tyleż adresatem, co kreatorem rozwiązań. Dobrze zorganizowana społeczność może bowiem dać swoim 1 REVES to Europejska Sieć Miast i Regionów dla Ekonomii Społecznej, działająca od 1997 r., utworzona z inicjatywy miast Östersund (Szwecja) i Reggio Calabria (Włochy) oraz Europejskiej Konfederacji Spółdzielni Pracowniczych, Spółdzielni Socjalnych i Przedsiębiorstw Partycypatywnych CECOP. Obecnie do REVES należą samorządy i podmioty gospodarki społecznej z 16 państw (z 14 państw członkowskich UE oraz Maroko i Rosji), w sumie 90 członków. Ogólnym celem REVES jest rozwijanie koncepcji i polityki promującej ekonomię społeczną, partnerstwo publiczno-społeczne, innowacyjność społeczno-ekonomiczną i rozwój lokalny. 2 Na wymienionych konferencjach i w literaturze przedmiotu stosuje się termin ekonomia społeczna. Autor tego artykułu będzie jednak stosował termin gospodarka społeczna, jako bardziej adekwatny do przedmiotu rozważań. 200 Recenzje i informacje członkom unikatowe szanse uczestnictwa w gospodarczej wymianie, także tym, którzy – jak mogłoby się wydawać – na trwale wypadli z rynku pracy. Taka społeczność może stworzyć warunki wysokiej jakości życia i zapewnić poczucie tożsamości, o co w wielokulturowym świecie będzie coraz trudniej. Potrzeba silnej społeczności staje się tym ważniejsza, im bardziej procesy globalne wpływają na nasze życie i im bardziej bezradne okazuje się wobec nich państwo narodowe. Z tego względu szczególnego znaczenia nabiera tzw. gospodarka (ekonomia) społeczna, którą rozumiemy jako narzędzie mobilizacji ekonomicznej i społecznej zaniedbanych społeczności lokalnych/obszarów oraz jako formułę zwiększania uczestnictwa ich członków/mieszkańców w wymianie gospodarczej i życiu publicznym [Kapitał społeczny.… 2007 s. 11]. Działania na rzecz rozwoju gospodarki społecznej mają współcześnie charakter ponadnarodowego ruchu społeczno-gospodarczego, wspieranego przez struktury państwowe, UE, OECD. Celem niniejszego artykułu nie jest analiza ekonomiczna koncepcji gospodarki społecznej, w celu kwalifikacji tej koncepcji w ramach spektrum socjalizm – liberalizm ekonomiczny [Kwaśnicki 2005 s. 10-35; Kaźmierczak 2007 s. 93 – 97], czy też jej krytyka z perspektywy ortodoksji nauk ekonomicznych. Przedstawiana tu charakterystyka koncepcji gospodarki społecznej ma na celu określenie jej powiązań z koncepcją zrównoważonego SD (Sustainable Development). Ogólnie przyjmuje się tutaj, że zrównoważony rozwój polega na integrowaniu działań gospodarczych, społecznych i ekologicznych, w celu osiągnięcia wyższej jakości życia. Za główną wykładnię koncepcji SD uznaje się Agendę 21, przyjętą w Rio de Janeiro w 1992 r. Tezą artykułu jest twierdzenie, że działania określane mianem gospodarki (resp. ekonomii) społecznej sprzyjają realizacji koncepcji SD na poziomie lokalnym. Ogólna charakterystyka – podmioty i obszary działania gospodarki społecznej Gospodarka społeczna to działalność prowadzona przez przedsiębiorstwa społeczne. Konwencjonalnie do dziedziny gospodarki społecznej zalicza się ruch spółdzielczy (spółdzielnie i spółdzielcze formy prowadzenia działalności gospodarczej), towarzystwa ubezpieczeń wzajemnych i wszelkie formy działalności gospodarczej prowadzone przez organizacje społeczne. W Polsce i innych krajach postkomunistycznych idea spółdzielczości została wypaczona w okresie realnego socjalizmu, lecz od końca XX wieku obserwuje się jej ponowny renesans. Od drugiej połowy lat 90-tych mówi się o „nowej fali” ekonomii społecznej, kiedy to koncepcja ta zaczęła zyskiwać znaczące wsparcie ze strony Unii Europejskiej – w ramach działań i programów finansowanych z Europejskiego Funduszu 3 Społecznego . Obecnie wspieranie gospodarki społecznej ze strony instytucji publicznych uznaję się za aktywną formę realizacji polityki społecznej – zwalczania długotrwałego bezrobocia i wykluczenia społecznego. W kategoriach systematycznych do przedsiębiorstw społecznych tradycyjnie zalicza się organizacje prowadzące działalność gospodarczą, które: – nie dają się jednoznacznie zakwalifikować do przedsiębiorstw publicznych lub prywatnych; – za główny cel swojej działalności nie obierają maksymalizacji zysku celem wzrostu dochodów właścicieli – zysk przeznaczany jest na rozwój przedsiębiorstwa lub na cele społeczne (zatrudnieniowe, reintegracyjne, edukacyjne) i nie może być dzielony między właścicieli (status non-profit lub not for profit); – na równi stawiają cele społeczne i ekonomiczne lub preferują cele społeczne; 3 Dotyczy to w szczególności Programu Inicjatywy Wspólnotowej EQUAL, obejmującego Polskę od 2004 r. , zob. www.equal.org.pl. Recenzje i informacje 201 ukierunkowane są na tworzenie miejsc pracy dla osób zagrożonych społecznym 4 wykluczeniem, ich aktywizację zawodową i (re)integrację społeczną . Wydaje się, że powyższe kryteria mają charakter konieczny, lecz nie wystarczający do zaliczenia danej organizacji do sektora gospodarki społecznej. Zasadniczym kryterium uznania danej organizacji za podmiot gospodarki społecznej (czy też przedsiębiorstwo społecznie odpowiedzialne) powinny być funkcje i rezultaty społeczne, jakie ono spełnia i tworzy, a w mniejszym stopniu, forma organizacyjna. W perspektywie gospodarki społecznej funkcją tą jest aktywizacja społeczno-zawodowa osób z grupy zagrożonej marginalizacją, a w rezultacie ich społeczna inkluzja. Ogólne zestawienie modelowych różnic w działalności przedsiębiorstwa społecznego i firmy komercyjnej prezentuje poniższa tabela. – Przedsiębiorstwo komercyjne – perspektywa ekonomii konwencjonalnej i konwencjonalnej polityki społecznej Przedsiębiorstwo społeczne – perspektywa gospodarki społecznej Ukierunkowanie działalności gospodarczej na maksymalizację efektywności i zysku Ukierunkowanie działalności gospodarczej na aktywizację i reintegrację społeczno-zawodową osób zagrożonych społecznym wykluczeniem Kontraktowy model działania – zlecanie zadań do wykonania Partycypatywny model działania (współuczestnictwo) w tworzeniu i rozwoju przedsiębiorstwa Zarządzanie przedsiębiorstwem – system hierarchiczny Partycypacja w zarządzaniu przedsiębiorstwem – system sieciowy Polityka społeczna jako system osłonowy przed Polityka społeczna jako wspieranie aktywizacji społecznym wykluczeniem – pomoc społeczna, społeczno zawodowej grup wykluczonych – zasiłki praca, płace Bezrobocie ujmowane w różnych kategoriach (naturalne, strukturalne, frykcyjne, technologiczne) Wykluczenie społeczne – grupy osób mające zasadnicze problemy z funkcjonowaniem na rynku pracy i podejmowaniem stałego zatrudnienia Zasadnicza rola finansów Zasadnicza rola zrozumienia i nastawienia partnerskiego To, co zasadniczo odróżnia „ekonomię społeczną” od „ekonomii konwencjonalnej”, jest jej koncentracja na grupie osób kwalifikowanych jako „zagrożonych społeczną marginalizacją”. Należą do niej w szczególności: osoby długotrwale bezrobotne, osoby niepełnosprawne, (byli) więźniowie, osoby uzależnione, mniejszości etniczne mające problemy z integracją społeczno-kulturową, jak również osoby 50+ i kobiety posiadające osoby zależne. W konwencjonalnej perspektywie ekonomicznej osoby te uważa się za nieproduktywne i pozostawia na marginesie zainteresowania rynku pracy. Według badań wykonanych przez organizację Klon-Jawor i zaprezentowanych na konferencji, w roku 2006 działały w Polsce 1242 organizacje pozarządowe (NGOs), z czego 18% prowadziło działalność gospodarczą. Sam sektor pozarządowy (trzeci sektor) tworzy w Polsce miejsca pracy dla 120 000 osób. Poza tą formą działalności do gospodarki społecznej zalicza się działalność prowadzoną przez: spółdzielnie (363), spółdzielnie socjalne (106), towarzystwa ubezpieczeń wzajemnych (7), Centra Integracji Społecznej (27), Zakłady Aktywności Zawodowej (28), inne formy organizacyjne (108) [zob. Podstawowe fakty…]. Największy potencjał rozwoju gospodarki społecznej upatruje się w ramach trzeciego sektora – organizacji pozarządowych. Zdaniem B. Iwankiewicz-Rak, organizacje pozarządowe na rynku usług społecznych stanowią uzupełnienie sektora prywatnego i publiczne4 Ściśle grupę tych osób na gruncie polskim określa ustawa o zatrudnieniu socjalnym [Ustawa o zatrudnieniu… 2003]. Zostanie ona wymieniona w dalszej części artykułu. 202 Recenzje i informacje go, w odpowiedzi na niedostateczną realizację zadań w sferze socjalnej i kulturowej przez te dwa ostatnie sektory: organizacje trzeciego sektora stanowią optymalne pod względem wielkości, zaangażowania finansów i kontroli instytucje przystosowane do świadczenia usług społecznych. Określa się je nawet jako organizacje alternatywne, gdyż są pożądaną formą świadczenia dóbr publicznych wtedy, gdy działalność rządu i biznesu zawiodła i nie satysfakcjonuje społeczeństwa [Iwankiewicz-Rak 2002 s. 125]. W perspektywie SD sferę działania organizacji społecznych w ramach gospodarki społecznej należy uzupeł5 nić o szeroko pojętą ochronę środowiska . Rodzaje działalności prowadzonej przez przedsiębiorstwa społeczne, obok działań i usług typowo socjalnych (resocjalizacja, rehabilitacja, reintegracja, aktywizacja społeczna i zawodowa), pokrywają się zasadniczo ze spektrum zadań publicznych, kwalifikowanych jako działalność pożytku publicznego [Ustawa o działalności pożytku publicznego… 2003]. Generalnie są to: usługi socjalne i na potrzeby społeczności lokalnych (np. usługi naprawcze), utrzymywanie czystości i zieleni, usługi remontowo-budowlane, usługi rzemieślnicze i rękodzieła, gastronomiczne, krawieckie, przetwórstwo i rolnictwo (na obszarach wiejskich, w tym rolnictwo ekologiczne), działania z zakresu ochrony przyrody i środowiska, zagospodarowanie odpadów na potrzeby recyklingu, sklepy z rzeczami używanymi. Z perspektywy koncepcji SD szczególne znaczenie ma tu rodzaj działalności określany jako „zielone miejsca pracy” [Przyjazne środowisku… 2003]. Problematyka podejmowana w ramach dyskusji o „ekonomii społecznej” jest dynamiczna i otwarta, skupiając zainteresowanie przedstawicieli sektora publicznego (rządowego i samorządowego), pozarządowego i sektora biznesu. W wymiarze teoretycznym jej stadium rozwoju, przynajmniej na gruncie polskim, ma ciągle charakter propedeutyczny, o czym świadczą podejmowane na nowo próby zdefiniowania gospodarki społecznej, określenia jej swoistego przedmiotu i granic między gospodarką społeczną a konwencjonalną. Pokazały to wspomniane na wstępie II Spotkania Ekonomii Społecznej, których ważne z perspektywy koncepcji SD wątki przedstawione zostały poniżej. Wnioski z warszawskiej konferencji ekonomii społecznej II Spotkania Ekonomii Społecznej skupiły wielu przedstawicieli władz publicznych – głównie resortu pracy i rozwoju regionalnego, samorządowców i organizacji pozarządowych6. Jak stwierdził C. Miżejewski7, o ile wiodącą kwestią poprzednich spotkań ekonomii społecznej była kwestia pozycji, jaką przedsiębiorstwa społeczne zajmują na (wolnym) rynku, o tyle główny temat tegorocznych spotkań stanowi zagadnienie relacji podmiotów ekonomii społecznej i samorządu lokalnego, w perspektywie możliwości i dobrych praktyk ich współpracy i partnerstwa publiczno-społecznego. Jest to jedno z kluczowych zagadnień tej koncepcji, jakie wymienia, wspominana na początku, Deklaracja Praska. Na konferencji sformułowano tezę, że bez zaangażowania samorządów lokalnych gospodarka społeczna nie może właściwie funkcjonować. Oznacza to strukturalne powiązanie gospodarki społecznej z działaniem administracji samorządowej. 5 Z przykładami działań przedsiębiorstw społecznych w dziedzinie ochrony środowiska mogli się zapoznać uczestnicy konferencji, organizowanej w ramach Partnerstwa Ponadnarodowego EQUAL „Innovation for social economy” w dniach 26-27 kwietnia 2007 r., w Warszawie. Prezentacja S. Monellini Social enterprises in energy and innovative sectors”, mat. konf. na CD. 6 Miejscem pierwszego dnia konferencji była sala im. A. Bączkowskiego w Ministerstwie Pracy i Polityki Społecznej, w której odbywają się posiedzenia Trójstronnej Komisji Społeczno-Gospodarczej ds. Dialogu Społecznego. 7 Cezary Miżejwski, były sekretarz stanu resortu pracy, pełni obecnie funkcję Radcy Ministra Rozwoju Regionalnego i jest współautorem Programu Operacyjnego „Kapitał Ludzki” na lata 2007 – 2013. Recenzje i informacje 203 Główni prelegenci, biorący udział w spotkaniach (J. Wygnański, C. Miżejewski), starali się wytypować cechy, które wyróżniają przedsiębiorstwo społeczne od konwencjonalnego: otwartość, aktywność, innowacyjność, odpowiedzialność, suwerenność, wzajemność, upodmiotowienie, współuczestnictwo. Cechy te nie wydają się jednak wyczerpywać specyfiki gospodarki społecznej, gdyż mogą występować również w konwencjonalnych przedsiębiorstwach, zwłaszcza tych, które dużą wagę przywiązują do etyki i społecznej odpowiedzialności biznesu [Niedek 2005 s. 294 – 299]. W odpowiedzi na niejednokrotnie stawiane pytanie, czym zatem ekonomia społeczna różni się od konwencjonalnej ekonomii, przedstawiciele Włoscy wyraźnie podkreślili, że pod względem sposobu produkcji, dystrybucji czy zarządzania przedsiębiorstwa komercyjne i podmioty gospodarki społecznej zasadniczo się nie różnią. Sposób wytwarzania produktów, świadczenia usług czy marketing przedsiębiorstw społecznych powinien kierować się taką samą zasadą efektywności, jak ma to miejsce w przypadku zwykłych firm komercyjnych. Różnią je natomiast cele tej działalności, które – o ile w przypadku przedsiębiorstw komercyjnych można sprowadzić do kwestii maksymalizacji zysku, jako głównego motywu działania – o tyle w przypadku przedsiębiorstw społecznych celem tym jest zaspokojenie potrzeb społeczno-zawodowych osób: – pracujących w przedsiębiorstwie społecznym8, 9 – osób, dla których przedsiębiorstwo społeczne wykonuje swoją działalność . Zakłada się tu, że poziom satysfakcji, jaki mogą osiągać osoby z grupy marginalizowanej w wyniku działania przedsiębiorstwa społecznego, może być porównywalny z poziomem satysfakcji, jaki osiągają właściciele (resp. pracownicy) przedsiębiorstwa komercyjnego z tytułu dystrybucji wypracowanego zysku. Warto zauważyć, że w tym ujęciu koncepcja „ekonomii społecznej” zbliża się do koncepcji społecznej odpowiedzialności przedsiębiorstw CSR (Corporate Social Responsibility). Kwestię tę poruszył obecny na konferencji J. Hauser, były minister gospodarki10, według którego koncepcja CSR par excellence nadaje się do interpretowania na gruncie „ekonomii społecznej”. Zostało to zresztą uczynione przez, wspomnianą na wstępie, organizację REVES, które posługuje się koncepcją TSR – Terytorialnej Odpowiedzialności Społecznej przedsiębiorstw. Zakres działań CSR wydaje się być jednak, na gruncie tej nowej koncepcji, zawężany do wymiaru przestrzennego. O ile dotyczy on jednak przedsiębiorstw lokalnych (tj. działających na rynku lokalnym czy regionalnym), o tyle działania z zakresu CSR mają niewątpliwie charakter terytorialnie określony. Obok akcentowania powiązań między koncepcją CSR i „ekonomii społecznej”, J. Hauser skoncentrował się na kwestii partnerstwa międzysektorowego. Według niego, najbardziej 11 obiecującą jego formą jest partnerstwo publiczno-prywatno-społeczne . Prof. Hauser jest osobiście zaangażowany w budowanie takiego partnerstwa w Małopolsce, pod nazwą „Małopolski Pakt Ekonomii Społecznej”12. Na konferencji zaprezentowane zostały przy8 Przykładem takim są włoskie spółdzielnie socjalne typu B, zatrudniające osoby zagrożone marginalizacją społeczną. 9 Przykładem takim są włoskie spółdzielnie socjalne typu A, działające na rzecz osób zagrożonych społeczną marginalizacją. 10 Warto odnotować, że prof. J. Hauser wraz z prof. H. Izdebskim są autorami założeń do nowej ustawy „O przedsiębiorstwie społecznym”, której głównym celem jest nadawanie prawnego statusu „przedsiębiorstwa społecznego” organizacjom, których działalność spełnia kryteria gospodarki społecznej [zob. Założenia i opinie…]. 11 Warto odnotować, że na gruncie „ekonomii społecznej” forsuje się partnerstwo geograficzne – o charakterze ściśle terytorialnym, związanym z daną społecznością – praktycznie je ze sobą utożsamiając. Tymczasem można wyróżnić też partnerstwo o charakterze sektorowym czy branżowym 12 W tworzenie tego partnerstwa zaangażowani są przedstawiciele trzech sektorów: Samorząd Województwa i Miasta Krakowa, samorządy lokalne, środowiska intelektualno-eksperckie, organizacje społeczne, w tym Partnerstwa powstałe w ramach PIW EQUAL, Małopolski Związek 204 Recenzje i informacje kłady partnerskiego współdziałania publiczno-społecznego w dziedzinie gospodarki społecznej w regionach: Jamtland (Szwecja), Andaluzja (Hiszpania), Provence-Alpes-Cote d’Azur (Francja), Pordenone i Modena (Włochy). Zdaniem przedstawicieli Włoch, obecna sytuacja rozwoju gospodarki społecznej w Polsce przypomina sytuację, jaka była we Włoszech w latach 70-tych. W Polsce istnieje wszakże szereg dobrych przykładów współpracy publiczno-społecznej i rozwijania lokalnej gospodarki społecznej. Na konferencji liderzy samorządowi z gmin Byczyna (woj. opolskie) i Cieszyn (woj. śląskie) przedstawili swoje konstruktywne doświadczenia w tym zakresie [Atlas dobrych praktyk…]. Na konferencji przedstawiono również możliwości strukturalnego wspierania gospodarki społecznej w Polsce w perspektywie okresu 2007 – 2013. Ogólnie na ten cel w Programie Operacyjnym „Kapitał Ludzki” przeznaczono 250 mln euro13. Perspektywy rozwoju gospodarki społecznej w Polsce Obecny na konferencji M. Guć, obecnie Wiceprezydent Gdyni, przedstawił możliwości i szanse rozwoju przedsiębiorstw społecznych w Polsce14. Zostały one przedstawione na tle istniejących i planowanych uregulowań formalnoprawnych współpracy samorządów terytorialnych z podmiotami gospodarki społecznej w Polsce. Autor ten zarówno w swoim wystąpieniu, jak i opracowaniu twierdzi, że z dominującego dotychczas w polskiej gospodarce problemu – bezrobocia strukturalnego – z uwagi na odnotowywany w ostatnich dwóch latach jego znaczący spadek, pozostaje obecnie jego najtrudniejsza część. Chodzi mianowicie o grupę osób, posiadającą największe problemy i bariery, nierzadko o charakterze mentalnym, do podejmowania jakiejkolwiek pracy. Grupa ta, szacowana w Polsce na kilka procent osób kwalifikowanych jako bezrobotne, zasadniczo pokrywa się z wymienionym wyżej spektrum osób zagrożonych trwałą marginalizacją społeczną. Według M. Gucia, pomocy w rozwiązywaniu tego problemu należy obecnie w Polsce poszukiwać w gospodarce społecznej, z definicji ukierunkowanej na tworzenie miejsc pracy dla tej, coraz bardziej powiększającej się grupy społecznej. Autor ten otwarcie podkreślił, że działania zmierzające w tym kierunku są kosztowne. Roczny koszt resocjalizacji, przygotowania do pracy czy rehabilitacji zawodowej jednej osoby z grupy wykluczenia to kwoty od kilkunastu do kilkudziesięciu tysięcy złotych. Jednakże teza, jaką postawił, jest niezwykle istotna. Mianowicie koszt przeznaczony na te działania będzie mniejszy, niż koszt (ekonomiczny lub społeczny) niepodejmowania żadnych działań w tym zakresie i pozostawienia tej grupy samej sobie, z wszystkimi tego konsekwencjami, głównie patologiami społecznymi. Autor ten szacuje koszt utworzenia miejsca pracy dla 1 osoby wykluczonej na 60 000 zł. Jego zdaniem, warto jednak podejmować te działania, gdyż koszt (szczególnie koszt ciągniony) podtrzymywania na minimalnym poziomie egzystencji osoby bezrobotnej przekroczy po latach koszt jej potencjalnej aktywizacji. Możliwości tworzenia trwałych i efektywnych miejsc pracy dla tych osób stwarza, zdaniem tego Autora, właśnie gospodarka społeczna. Według niego, aktywna polityka społeczna powinna przybierać formę wspierania gospodarki społecznej, gdyż w przeciwieństwie do innych stosowanych form pomocy, przedsiębiorstwa społeczne mają szansę, po Pracodawców, Regionalny Ośrodek Pomocy Społecznej, media regionalne. Działania te mają charakter in statu nascendi, a ich bazę ma stanowić małopolski fundusz ekonomii społecznej i regionalne centrum audytu i certyfikacji. Platformą integracji ma być internetowy portal. W ramach tej inicjatywy przewiduje się także organizację dystrybucji (sklepów) dla produktów tworzonych przez lokalne przedsiębiorstwa społeczne. 13 Działania w tym zakresie przedstawione są w Priorytecie 1, 6 i 7 tego Programu. Przewiduje się także powołanie ok. 40 regionalnych ośrodków wspierania ekonomii społecznej. 14 Jego analiza została przedstawiona w opracowaniu: [Wspieranie ekonomii społecznej… 2007]. Recenzje i informacje 205 krótszym lub dłuższym okresie wspieranej inkubacji, na osiągnięcie stanu samofinansowania i niesubsydiowanej działalności na rynku. Dla rozwoju gospodarki społecznej, obok partnerskiego nastawienia, woli współdziałania ze strony samorządu lokalnego i źródeł finansowania, istotne znaczenie mają regulacje prawne. Szczególne znaczenie ma tutaj możliwość zlecania przez samorządy lokalne (powiatowe i gminne) zadań publicznych do wykonania podmiotom społecznym. Mimo że dyrektywy UE stwarzają możliwość uwzględniania kryteriów społecznych (jak również ekologicznych [zob. Ekologizacja kryteriów… 2006 s. 54 – 55]) w procedurze zamówień publicznych, polska ustawa Prawo zamówień publicznych, w opinii M. Gucia, zasadniczo nie uwzględnia tego zagadnienia. Ujęcie tych możliwości jedynie w ustawie o pożytku publicznym stanowi istotną barierę dla szerokiego rozwoju tego segmentu rynku podmiotów gospodarki społecznej. Jednostki samorządowe mogą wszakże tworzyć regulaminy współpracy z organizacjami pozarządowymi i podmiotami gospodarki społecznej, które określają zasady przyznawania im do realizacji (pewnych) zadań publicznych. Wielu ekonomistów, polityków i samorządowców wyraża wszakże obawy, czy wspieranie przez władze publiczne przedsiębiorstw społecznych nie naruszy konkurencji na lokalnym rynku. Biorąc pod uwagę odmienne cele działań przedsiębiorstw komercyjnych i społecznych, wspieranie tych ostatnich należy raczej kwalifikować jako aktywną formę walki z lokalnym bezrobociem i wykluczeniem społecznym, niż pomoc publiczną sensu stricto, destabilizującą lokalny rynek. Kwestią do dyskusji pozostaje natomiast forma i zakres tej pomocy oraz jej efektywność, co powinno być rozpatrywane z uwzględnieniem lokalnych uwarunkowań i możliwości społeczno-ekonomicznych. Konkluzje Reasumując należy stwierdzić, że działania, które określane są mianem gospodarki (resp. ekonomii) społecznej, przyczyniają się do osiągania celów koncepcji SD w wymiarze społecznym. Działalność prowadzoną przez przedsiębiorstwa społeczne w dziedzinie zagospodarowania odpadów na potrzeby recyklingu lub w szeroko pojętej ochronie środowiska można uznać za realizację koncepcji SD również w wymiarze ekologicznym. Za szczególnie zbieżne z wytycznymi koncepcji SD sposoby działań, prowadzonych na gruncie gospodarki społecznej, należy uznać: 1. przeciwdziałanie wykluczeniu społecznemu, bezrobociu i ubóstwu w sposób aktywny; Na gruncie koncepcji SD uznaje się, że bieda i zubożenie szerokich grup społecznych stanowi główną barierę jej realizacji w wymiarze środowiskowym; 2. eksponowanie poziomu lokalnego jako właściwego obszaru działania. Agenda 21 eksponowała rolę lokalnych Agend 21, jako głównego poziomu, na którym należy wdrażać jej wytyczne w sferze społecznej i ekologicznej; 3. akcentowanie partnerstwa międzysektorowego jako ważnego instrumentu generowania rozwoju lokalnego; 4. powiązanie ekonomii społecznej czy też jej współbieżność z koncepcją społecznej odpowiedzialności biznesu, jako sposobu na równoważenie działalności gospodarczej w wymiarze społecznym, a także środowiskowym. Literatura Atlas dobrych praktyk ekonomii społecznej, www.ekonomiaspoleczna.pl. Ekologizacja kryteriów zamówień publicznych – wytyczne Komisji Europejskiej 2006, red. Z.J. Gurgul, „Problemy Ekologii”, Rok X-Nr 1(55), styczeń-luty. 206 Recenzje i informacje Iwankiewicz-Rak B. 2002 Słabe państwo – silny trzeci sektor? Wybrane problemy rozwoju i funkcjonowania organizacji pozarządowych, w: Samoorganizacja społeczeństwa polskiego: trzeci sektor, red. P. Gliński, B. Lewenstein, A. Siciński, Warszawa. Kapitał społeczny. Ekonomia społeczna 2007, red. T. Kaźmierczak, M. Rymsza, Warszawa. Kaźmierczak T. 2007 Zrozumieć ekonomię społeczną, w: Kapitał społeczny, Ekonomia społeczna, red. T. Kaźmierczak, M. Rymsza, Warszawa. Kwaśnicki W. 2005 Gospodarka społeczna z perspektywy ekonomii liberalnej, „Trzeci Sektor” nr 2. Niedek M. 2005 Etyka biznesu i etyka środowiskowa w koncepcji społeczno-ekologicznej odpowiedzialności przedsiębiorstw, red. Z. J. Gurgul, „Problemy Ekologii”, Rok IX-Nr 6(54), listopad-grudzień. Podstawowe fakty o organizacjach pozarządowych. Raport 2006, red. M. Gumkowska, J. Herbst, http://badania.ngo.pl. Przyjazne środowisku miejsca pracy. Społeczne przedsięwzięcia 2003, Warszawa. Ustawa o działalności pożytku publicznego i o wolontariacie z dnia 24 kwietnia 2003, (Dz.U. z 2003 r., Nr 96, poz. 873 i z 2004 r. Nr 64, poz. 597). Ustawa o zatrudnieniu socjalnym z dnia 13 czerwca 2003 r. (Dz.U. Nr 122, poz. 1143). Wspieranie ekonomii społecznej przez administrację publiczną, opracowanie w ramach projektu PIW EQUAL W poszukiwaniu polskiego modelu ekonomii społecznej, 2007, Warszawa. Założenia i opinie do ustawy o przedsiębiorstwie społecznym, http://wiadomosci.ngo.pl/ /wiadomosci/ (data ostatniego pobrania: 25.10.2007 r.). OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008 Praca doktorska Promotor: Recenzenci: mgr Wojciecha Tarasiuka dr hab. Marek Proniewski (prof. UwB) prof. dr hab. Jerzy Węcławski (UMCS) prof. dr hab. Jerzy Sikorki (UwB) EFEKTYWNOŚĆ PLACÓWEK BANKU DETALICZNEGO Publiczna obrona rozprawy doktorskiej odbyła się 14 maja 2007 roku na Wydziale Ekonomii i Zarządzania Uniwersytetu w Białymstoku Bankowość detaliczna w chwili obecnej znajduje się w okresie dynamicznych przemian modelu biznesowego, strategii bankowych a wraz z tym struktur organizacyjnych. W omawianej pracy podjęto próbę ujęcia problematyki efektywności funkcjonowania placówek banku detalicznego w aspekcie wymienionych zagadnień. W warstwie teoretycznej celem poznawczym rozprawy stała się identyfikacja problematyki celów strategicznych banków w obliczu nowych uwarunkowań rozwojowych sektora bankowości detalicznej w Polsce i Europie oraz metod pomiaru stopnia i sposobu realizacji zamierzeń strategicznych. Celem praktycznym była natomiast próba modelowego ujęcia oraz propozycja ocen efektywności funkcjonowania placówek bankowych Ponadto, zamierzeniem było opracowanie takich narzędzi ocen placówek bankowych, które pozwalałyby na ich konkretne wykorzystanie. Autor wykorzystał doświadczenia praktyczne oraz dostępne prac teoretyczne w celu wskazania najlepszych praktyk analitycznych. W pracy postawiono główną hipotezę mówiącą, iż efektywność placówek bankowych determinowana jest przez cele strategiczne i organizację banku detalicznego. Jej weryfikacja następowała z zastosowaniem wielu metod używanych w naukach ekonomicznych, a zwłaszcza narzędzi analiz finansowych. W części teoretycznej posłużono się analizą porównawczą literatury polskiej i obcojęzycznej oraz analizą porównawczą opisującą zjawiska w polskim i europejskim systemie bankowym. W części badawczej zaproponowano model wyników sieci placówek, dla którego źródłem danych były informacje otrzymane z jednego z dużych banków o detalicznym charakterze. Wyniki tej sieci placówek zostały poddane analizie efektywności z wykorzystaniem trzech rodzajów podejść: metod taksonomicznych, podejścia nieparametrycznego – metody Data Envelopment Analysis (DEA) oraz analizy wykorzystującej wskaźniki pomiaru kreowanej wartości. Poza tym, zostały wykorzystane inne narzędzia analizy wykazujące bliskie związki ze wspomnianymi metodami, tj. klasyfikacje metodą Warda, indeks Malmquista oraz analizy portfelowe i rankingi porównawcze (benchmark). Praca składała się z sześciu rozdziałów. Na podstawie przeprowadzonych rozważań sformułowano następujące kluczowe wnioski, wynikające z jej części teoretycznej. Osiągnięcie wysokiej efektywności o charakterze operacyjnym nie można uznawać za samoistny cel strategiczny. Efektywność operacyjną osiąga się bowiem przez wykonywanie podobnych czynności jak konkurenci, ale przy wyższej produktywności. Każda firma musi poprawiać swą efektywność operacyjną, ale jednocześnie musi poszerzać zakres swej unikalności. 208 Recenzje i informacje Przedsiębiorstwa nie tyle posiadają problem z formułowaniem strategii, ile odpowiednim modelem kontroli jej realizacji. Wśród głównych imperatywów działania zwraca się uwagę na kreowanie wartości. Pojawiają się jednak pewne wątpliwości, czy wartość powinna być również celem dla przedsiębiorstwa bankowego. Klasyczne w ekonomii pojęcie efektywności okazuje się być wieloznaczne. Przystąpienie do pomiaru efektywności wymaga wcześniejszego określenia jej wymiarów i perspektyw, w sposób spójny i adekwatny do zamierzeń strategicznych, skoro efektywność mierzy także postępy realizacji strategii. Wobec zmieniającego się sektora bankowego istnieje potrzeba nowego spojrzenia na definicję podmiotów finansowych, operujących na rynku obsługi klientów detalicznych i drobnych przedsiębiorców. Pomimo burzliwej dynamiki zmian, placówka bankowa zachowała swe znaczenie, a wręcz jej rola ulega zwiększeniu. Placówka bankowa nie opiera się zmianom, przekształca jednak swe tradycyjne oblicze i funkcje. Pomiar efektywności placówek bankowych jest częścią szerszego systemu pomiaru osiągnięć banku a zarazem kryterium oceny. Pomiaru można dokonywać na poziomie strategicznym przez określenie skuteczności realizacji celów wyznaczonych dla oddziałowego kanału dystrybucji oraz przez porównanie efektywności z innymi kanałami dystrybucji usług bankowych. Na poziomie operacyjno-strategicznym pomiar może prowadzić do określenia zależności efektów wybranych grup placówek od takich czynników, jak: rodzaj lokalizacji, charakter biznesowy, wielkość operacji, potencjał otoczenia czy aktywność sprzedażowa. Wreszcie na poziomie pojedynczej placówki chodzi o stopień realizacji mikrocelów, rentowność, produktywność, efektywność operacyjną, a przede wszystkim „dobry wzrost” generujący wartość i zwiększający udziały rynkowe placówki. Dobry system oceny efektywności placówek powinien charakteryzować niesprzecznością, spójnością i dopasowaniem, różnorodnością płaszczyzn oceny, obiektywizmem oraz dostosowaniem do potrzeb i percepcji odbiorców. Kryteriami mającymi podstawowe znaczenie przy tego typu rozważaniach są, jak sądzę, cele działalności bankowej oraz powiązane z nimi strategie. W trakcie rozważań ważnymi okazały się narzędzia analizy finansowej, pozwalające na stworzenie zależności przyczynowo-skutkowych, wyrażonych w sposób typowy dla świata finansów. W szczególności wskazano na modele finansowe placówki bankowej oraz modele rozliczeń wyników w kanałach dystrybucji. Tylko w modelu placówki bankowej jako centrum relacji z klientami dokonuje się pełnych rozliczeń efektów i nakładów. W modelu nakierowanym na odpowiedzialność za segment oraz w modelu tzw. swobodnej architektury nie jest możliwa ani też celowa kalkulacja efektywności zawierająca wszystkie składniki efektów i nakładów. Efektywność we wszystkich etapach zarządzania strategicznego występuje jako: cel, miara osiągnięć, kryterium oceny i kryterium decyzyjne. Tak rozumiana efektywność pozostaje szczególnie ważna na etapach: wyboru wariantów strategicznych banku (strategii funkcjonalnych i strategii rodzajów działalności) oraz alokacji zasobów. W części badawczej pracy posłużono się informacjami o sieci 36 placówek zlokalizowanych na obszarze jednego województwa, pochodzące z dużego banku o detalicznym charakterze. W wyniku zastosowania kilku metod oceny efektywności stwierdzono, że prowadzą one do uzyskania jedynie podobnych wyników. Zbieżność tendencji nie jest wystarczającą przesłanką aby można było przyjąć, że istnieje jakiś rodzaj zastępowalności metod. Tym ważniejszym staje się zachowanie spójności pomiędzy celami, jakimi kieruje się bank detaliczny, a stosowanym sposobem pomiaru efektywności. Metody wielokryterialne, syntetyzujące różne aspekty efektywności, mogą służyć przede wszystkim odkrywaniu tendencji i celom zarządzania strategicznego. Zaproponowana ocena z wykorzystaniem koncepcji dodawania wartości, posiada zarówno walor analizy strategicznej, jak też operacyjnej. Okazała się prosta w warstwie metodologicznej, czytelna w warstwie komunikacyjnej i przyniosła satysfakcjonujący rezultat badawczy. Recenzje i informacje 209 Uporządkowaną analizę stopnia wykonania postawionych przed placówką celów osiąga się przez analizę łańcucha wartości placówki bankowej. Jego operacjonalizacją może być zaproponowana karta dokonań placówki bankowej oraz karta wykonania celów i efektywności pracowników. Pomagają one w dezagregacji celów strategicznych do poziomu czynności sprzedaży placówek bankowych. Ustalanie celów indywidualnych oraz pomiar efektywności personelu placówek bankowych musi uwzględniać specyfikę organizacji placówek oraz uwarunkowania wynikające z trudności określenia syntetycznej miary efektów jej pracy. W warstwie metodologicznej dekompozycja celów, w ramach struktur organizacyjnych banku, jest krytycznym czynnikiem efektywności jego oddziałów. Alokacja zasobów w banku jest nierozłącznie związana z procesem planowania, budżetowania i oceną rezultatów. Zastosowanie efektywności jako kryterium decyzyjnego może być wielorakie. Przykładowo może obejmować: identyfikację obszarów wzrostu banku, wykorzystanie łańcucha wartości placówek do identyfikacji przyczyn zróżnicowania osiąganych przez placówkę wyników, prognozowania wyników z użyciem analiz wrażliwości. W przypadku analizowanej sieci placówek okazało się, że placówki, które mogłyby dynamizować rentowność kapitału, nie pokrywają się z tymi, które dynamizowałyby wydajność. Sprzężenie zwrotne efektywności ze strategią zostało wykazane także na przykładzie procedur modelowania struktury sieci oddziałów. Modelowanie ma na celu ustalenie odpowiedniej struktury sieci placówek bankowych, z punktu widzenia wybranego kryterium, jakim może być np.: wielkość placówek, lokalizacja geograficzna i mikrolokalizacja, specyfika biznesowa. W przypadku analizowanej sieci okazało się, że małe placówki bankowe nie zapewniają osiągnięcia celów banku w kategoriach wartości. Małe placówki mogą mieć pozytywny wpływ na tempo wzrostu banku, ale równocześnie stwarzają ryzyka uzyskania niesatysfakcjonującej rentowności i charakteryzują się wysokim stopniem zróżnicowania wyników. Tym samym ostrożnie można podejść do tezy, że efekt skali w działalności bankowej występuje także na poziomie placówek bankowych. Ostatni analizowany przykład opierał się na założeniu, że atrakcyjność rynku geograficznego może zostać zweryfikowana przez zastosowanie kryteriów efektywności działających na nim placówek. Efektywność placówek banku detalicznego syntetycznie odzwierciedla bowiem efekty zależne od banku oraz zewnętrzne uwarunkowania, wśród których atrakcyjność rynków posiada ważne znaczenie. O atrakcyjności rynków decyduje z kolei jego potencjał oraz czynniki instytycjonalne i społeczne. Przy okazji dostrzeżono, że istnieje dodatnia korelacja pomiędzy wysokim poziomem wskaźników liczby pracowników bankowych, przypadających na przeciętnego mieszkańca danego obszaru geograficznego, a satysfakcjonującą efektywnością placówki. Na podstawie materiału badawczego i zastosowanych procedur zweryfikowano postawione hipotezy, co pozwala ostatecznie skonstatować, że efektywność placówek bankowych jest determinowana strategią i organizacją banku detalicznego. OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008 Praca doktorska Promotor: Recenzenci: mgr Adama Giegiela prof. dr hab. Kazimierz Meredyk (UwB) dr hab. Adam Szafarczyk (prof. WSU) dr hab. Henryk Wnorowski (prof. UwB) KAPITAŁ NIEMATERIALNY A TEMPO WZROSTU GOSPODARCZEGO (NA PRZYKŁADZIE PAŃSTW OECD) Publiczna obrona rozprawy doktorskiej odbyła się 2 lipca 2007 roku na Wydziale Ekonomii i Zarządzania Uniwersytetu w Białymstoku W rozprawie podejmowany jest problem relatywnie niskiego, w porównaniu do Stanów Zjednoczonych, tempa wzrostu gospodarczego krajów Unii Europejskiej (a ściślej rzecz biorąc UE-15). Zarysowany problem w największym stopniu dotyczy kontynentalnych gospodarek Europy Zachodniej, bowiem ich dynamika rozwojowa wyraźnie kontrastuje z szybką ekspansją Stanów Zjednoczonych, szczególnie w ostatniej dekadzie ubiegłego stulecia. W okresie 1990-1995 dochód narodowy USA rósł średnio o 0,9% szybciej niż PKB Unii Europejskiej, zaś w drugiej połowie lat 90-tych o 1,3%. Ta najdłuższa w historii Stanów Zjednoczonych ekspansja przełożyła się na łączny wzrost PKB aż o 41% w ciągu dziewięciu lat (1991-2000). Wysokiemu wzrostowi gospodarczemu w USA towarzyszyło jednoczesne obniżanie się inflacji, bezrobocia, wzrost produktywności oraz duże inwestycje w sektor technologii ICT. Najbardziej charakterystyczną cechą omawianego okresu jest odwrócenie się trendów konwergencji ekonomicznej, rozpoczętych pod koniec drugiej wojny światowej. Efektem szybszego tempa wzrostu produktu w USA, dłuższego czasu pracy i większej wydajności na zatrudnionego jest pogłębiająca się różnica w PKB per capita na korzyść Stanów Zjednoczonych. Obecnie przeciętny dochód na mieszkańca w krajach Unii Europejskiej stanowi jedynie ok. 70% poziomu amerykańskiego (licząc wg parytetu siły nabywczej wynosił w 2005 roku 29 900 dolarów, podczas gdy w USA ukształtował się na poziomie 41 900 dolarów). Przedstawione zjawiska sugerują, iż relatywnie słabsza dynamika wzrostowa UE-15 w porównaniu do USA ma przyczyny strukturalne, a nie koniunkturalne. Celem rozprawy jest zatem próba odpowiedzi na pytanie o podstawowe czynniki wzrostu współczesnych gospodarek wysoko rozwiniętych. W związku z tym sformułowano hipotezę główną, iż niezbędnym warunkiem zdynamizowania wzrostu gospodarczego w krajach Unii Europejskiej jest zwiększona akumulacja kapitału niematerialnego. Dla potrzeb rozprawy przyjęto, iż kapitał niematerialny reprezentuje sumę wartości niematerialnych w gospodarce, charakteryzujących się zdolnością do wytwarzania nadwyżki ekonomicznej (wartości dodatkowej). W tym kontekście można uznać, iż kapitałem jest współcześnie każdy zasób (czynnik), który ma wartość i służy do produkcji dóbr i usług, jak też budowaniu bogactwa. Podstawowe elementy strukturalne kapitału niematerialnego identyfikowane w literaturze to kapitał ludzki i kapitał społeczny. Zgromadzone w rozprawie dane potwierdzają, iż kapitał ludzki, zarówno w aspekcie ilościowym, jak i jakościowym, stanowi kluczowy czynnik wzrostu gospodarczego. Koncepcja kapitału ludzkiego wywodzi się z prac T. Schultza i G. Beckera, którzy stwierdzili, że nabyte przez ludzi umiejętności i wiedza są formą kapitału, i że kapitał ten jest w znacznej mierze Recenzje i informacje 211 efektem celowych inwestycji. Specyficzną cechą tak rozumianego kapitału jest jego nieodłączność od jednostki ludzkiej, tj. od jej właściwości fizycznych, psychicznych i moralnych. Inwestowanie w kapitał ludzki związane jest z ponoszeniem nakładów na oświatę i kształcenie. W szerokim ujęciu do tego typu inwestycji zalicza się również inne wydatki, oddziałujące na poprawę jakościowych cech pracy, tj. inwestycje w zdrowie, ochronę środowiska itp. Sam proces inwestycyjny jest dość specyficzny, ponieważ wymaga dokonania przez każdą jednostkę wyboru w zakresie podziału posiadanego czasu pomiędzy pracę a czas wolny. Spośród wysoko rozwiniętych gospodarek, największymi zasobami kapitału ludzkiego dysponują Stany Zjednoczone, dalece dystansując pod tym względem kraje UE-15. Stany Zjednoczone pozostają światowym liderem pod względem wielkości nakładów edukacyjnych zarówno w ujęciu bezwzględnym, jak i względnym. Udział tych wydatków sięga za oceanem 7,5% PKB (w tym ok. 3% przeznaczanych na edukację wyższą), podczas gdy w Europie analogiczne wskaźniki są przeciętnie o 1,5 punktu proc. niższe. Z podobną sytuacją mamy do czynienia biorąc pod uwagę nakłady w ujęciu relatywnym, a więc w przeliczeniu na jednego uczącego się. W szkolnictwie wyższym wynoszą one w USA ponad 24 tys. dolarów per capita, podczas gdy w Szwecji, najlepszej pod tym względem w Europie, jedynie ok. 16 tys. Przewaga Stanów Zjednoczonych wynika także z większej efektywności systemu kształcenia, mierzonej procentowym udziałem studentów w całości populacji, jak również wskaźnikami jakościowymi, oceniającymi wkład ludności z wyższym wykształceniem w tworzeniu wartości dodanej. Przeprowadzona analiza pozwala stwierdzić, iż kapitał ludzki jest konieczną, ale nie wystarczającą przesłanką szybkiego wzrostu gospodarczego. Czynniki społeczno-instytucjonalne i organizacyjne mogą doprowadzić do tego, że nawet przy dużych zasobach kapitału ludzkiego wiedza może być wykorzystywana w sposób nieefektywny. Spostrzeżenie to prowadzi do konkluzji, iż równie ważnym i komplementarnym wobec kapitału ludzkiego czynnikiem wzrostu jest kapitał społeczny. Oczywiste jest, iż jednostki podejmujące grę na dowolnym rynku nie są osamotnione – wręcz przeciwnie: podczas takiej gry nieustannie angażują się w interakcje i tworzenie sieci społecznych w celu zwiększenia swoich potencjalnych korzyści. Koncepcja kapitału społecznego, rozwijana m.in. przez J. Colemana, R. Putnama i F. Fukuyamę odnosi się zatem do działań zbiorowych, do wzajemnych interakcji i współpracy w procesie gospodarczym. Kapitał społeczny obejmuje zarówno powszechnie podzielane wartości, normy, nieformalne sieci i partycypację w stowarzyszeniach, jak również formalne instytucje, kształtujące relacje pomiędzy jednostkami, takie jak: system prawny (w tym prawa własności i prawa kontraktowe), system sądownictwa, zakres uprawnień obywatelskich itp. W działalności gospodarczej szczególną rolę odgrywa norma zaufania. Na szczeblu organizacji zaufanie określa sposób wykorzystania dostępnych zasobów, decydując tym samym o przewadze strategicznej, na szczeblu makro zaś postrzegane jest jako czynnik wzrostu gospodarczego. Kapitał społeczny to również zasoby zawarte w sieciach powiązań pomiędzy poszczególnymi jednostkami. Sieci i organizacje pełnią ważne funkcje społeczno-gospodarcze, gdyż wspomagają przepływ informacji, pozwalają na wypracowanie nieformalnych reguł kontroli społecznej, a także umożliwiają właściwą koordynację działań zbiorowych. Zdaniem Putnama, kontakty tego typu mają wymierną wartość ekonomiczną, bowiem przyczyniają się do tworzenia uogólnionego zaufania pomiędzy członkami danej społeczności. Kapitał społeczny jest również źródłem wzrostu produktywności, dzięki eliminowaniu oportunistycznych zachowań, związanych ze zjawiskami pogoni za rentą i tzw. jazdy na gapę (free riding). W świetle przeprowadzonych badań wnioskuje się również, iż sprawne instytucje formalne mogą być traktowane jako kapitał, dzięki któremu zwiększa się efektywność gospodarowania. Tworzenie odpowiedniej struktury instytucjonalnej w pewnym sensie przypomina proces inwestycyjny, ponieważ wymaga ponoszenia nakładów i ma swój koszt alternatywny. 212 Recenzje i informacje Formalne instytucje rządu mają za zadanie zmniejszenie niepewności we wzajemnych relacjach między poszczególnymi podmiotami w gospodarce. Szczególne znaczenie przypisuje się tutaj prawu, tworzącemu usystematyzowany zbiór norm regulujących postępowanie jednostek. Do najważniejszych reguł, z ekonomicznego punktu wiedzenia, należy sposób uregulowania uprawnień jednostek do zasobów, tj. prawo własnościowe. Niewłaściwe przypisanie tych praw osłabia bodźce do akumulacji kapitału i inwestowania, a także przyczynia się do pojawienia się różnego rodzaju dysfunkcji społecznych, jak przestępczość czy korupcja. Równie ważną rolę odgrywają normy prawne, regulujące transfer praw własności, czyli prawo kontraktowe. System praw kontraktowych określa zasady zawierania umów gospodarczych oraz wskazuje na metody zabezpieczenia postanowień kontraktu przed ewentualnym nadużyciem ze strony partnerów, dzięki czemu można obniżyć wysokość ponoszonych kosztów transakcyjnych. Przykłady Stanów Zjednoczonych i krajów skandynawskich potwierdzają występowanie pozytywnej korelacji między zakresem ochrony uprawnień własnościowych oraz sprawnością systemu kontraktowego, a tempem długookresowego wzrostu gospodarczego. Warto zauważyć, iż analogiczną rolę mogą pełnić nieformalne mechanizmy kontroli społecznej i uogólnione zaufanie. Konstrukcja metodologiczna rozprawy bazuje zasadniczo na hipotetyczno-dedukcyjnej metodzie badań, wywodzącej się z tradycji racjonalizmu krytycznego. Umożliwia ona weryfikację hipotezy głównej oraz hipotez szczegółowych, w oparciu o uniwersalne instrumenty badawcze, takie jak analiza i synteza oraz sposoby wnioskowania, jak indukcja i dedukcja. W procesie weryfikacji wykorzystano również rozumowanie przez analogię, co umożliwiło konkretyzację przyjętych w rozprawie zależności, a także precyzowanie wniosków. Wykorzystując dostępną na dany temat literaturę krajową i zagraniczną, jak też dane statystyczne OECD, Komisji Europejskiej i Banku Światowego, przeprowadzono równoległą weryfikację teoretyczną i empiryczną. OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008 Praca doktorska Promotor: Recenzenci: mgr Anety Kargol prof. dr hab. Jerzy Wilkin (UW) prof. dr hab. Jerzy Hausner (UE w Krakowie) prof. dr hab. Jerzy Sikorski (UwB) PARTNERSTWO PUBLICZNO-PRYWATNE JAKO CZYNNIK EKONOMIZACJI DOSTARCZANIA DÓBR PUBLICZNYCH Publiczna obrona rozprawy doktorskiej odbyła się 19 listopada 2007 roku na Wydziale Ekonomii i Zarządzania Uniwersytetu w Białymstoku Uzasadnienie wyboru tematu rozprawy Problematyka ekonomizacji dostarczania dóbr publicznych przez sektor publiczny w Polsce nie doczekała się, jak dotychczas, wielu opracowań. Dostępne publikacje w języku polskim mają raczej charakter teoretyczny, z przewagą tradycyjnego podejścia do rozumienia dóbr publicznych. Analiza dóbr publicznych jest zazwyczaj umiejscowiona w kontekście rozważań dotyczących zakresu funkcjonowania sektora publicznego w gospodarce i jego wpływu na wzrost gospodarczy. Podejmuje się niewiele prób badania efektywności sektora publicznego, co jest zrozumiałe ze względu na stopień trudności ekonomicznej analizy efektywności jego funkcjonowania. Badania nad specyfiką procesów, dokonujących się w obrębie sektora publicznego, przebiegają w dwóch odrębnych nurtach. Pierwszy z nich koncentruje się na analizie relacji rynek-państwo, uwzględniając przy tym tzw. niedoskonałości rynku (market failures). Drugi nurt skupia się natomiast na specyfice instytucji publicznych i tzw. niedoskonałościach rządu (government failures). W zamyśle autorki leżała próba oceny możliwości podniesienia efektywności funkcjonowania sektora publicznego poprzez zastosowanie alternatywnej metody dostarczania dóbr publicznych, jaką jest partnerstwo publiczno-prywatne. Szeroki zakres sektora publicznego w Polsce, w tym zakres świadczenia dóbr i usług publicznych, mimo szeregu gruntownych reform, jest po części pozostałością poprzedniego systemu społeczno-gospodarczego, w którym państwo pretendowało do roli „głównego aktora na scenie gospodarczej”. Próba zastąpienia sprawności alokacyjnej mechanizmu rynkowego przez system planowania, oparty na własności państwowej, zakończyła się zupełną klęską. Zbiurokratyzowany, sztywny układ nie spełniał podstawowych wymagań zdrowej gospodarki – elastyczności, adaptacyjności i nastawienia na konkurencyjność. Wybór obszaru badawczego był podyktowany zainteresowaniami autorki funkcjonowaniem sektora publicznego zarówno z punktu widzenia możliwości dokonania analizy ekonomicznej, jak i prawnej. Temat rozprawy wymaga bowiem krytycznej analizy ekonomicznej teorii dóbr publicznych oraz prawno-ekonomicznej analizy partnerstwa publiczno-prywatnego. Celem teoretycznym, celem dysertacji było dokonanie krytycznej analizy teorii dóbr publicznych, sposobów ich dostarczania oraz przedstawienie teoretycznych modeli partnerstwa publiczno-prywatnego. Celem empirycznym było natomiast zbadanie wpływu PPP na ekonomizację dostarczania dóbr publicznych. Dodatkowo celem aplikacyjnym było przedstawienie wniosków z rozważań teoretycznych nad konstrukcją partnerstwa publicz- 214 Recenzje i informacje no-prywatnego, przedstawienie procesu tworzenia partnerstwa publiczno-prywatnego, określenie możliwości implementacji rozwiązań teoretycznych PPP w Polsce oraz wskazanie pożądanych kierunków badań związanych z partnerstwem publiczno-prywatnym w przyszłości. Ogólnym celem aplikacyjnym pracy jest poprawa skuteczności i efektywności działania państwa i instytucji sfery publicznej. Przedmiot zainteresowań i metodologia pracy łączą w sobie zagadnienia z zakresu różnych nurtów ekonomii. Zawierają się one w dziedzinach wiedzy, takich jak: ekonomia sfery publicznej, normatywna i pozytywna teoria dóbr publicznych, a także ekonomia instytucjonalna, w tym elementy teorii wyboru publicznego, teorii praw własności, teorii agencji i teorii kosztów transakcyjnych. W rozprawie wykorzystano również elementy teorii gier, w celu modelowania PPP jako gry. Analiza poszczególnych problemów została przeprowadzona na dwóch poziomach: – międzynarodowym – w odniesieniu do stanu rozwoju partnerstwa publicznoprywatnego w wybranych krajach Unii Europejskiej (ze szczególnym uwzględnieniem Wielkiej Brytanii), – krajowym – w odniesieniu do możliwości zastosowania partnerstwa publiczno-prywatnego w celu ekonomizacji dostarczania dóbr publicznych w Polsce. Realizacja celów rozprawy oraz weryfikacja postawionych hipotez wymagała zastosowania różnych metod badawczych. Wśród nich podstawowe znaczenie miała analiza opisowa, instytucjonalna analiza porównawcza i analiza przypadków. Teoretyczna część pracy została zrealizowana w oparciu o przegląd literatury światowej i krajowej z zakresu wyżej przedstawionej problematyki. Z kolei analiza dokumentów i inicjatyw UE dotyczących partnerstwa publiczno-prywatnego, danych statystycznych i poszczególnych przypadków zastosowania PPP została przeprowadzona na podstawie: danych Komisji Europejskiej, Europejskiego Banku Inwestycyjnego, Banku Światowego, HM Treasury, Eurostatu oraz materiałów udostępnionych przez polskie instytucje: Urząd Komitetu Integracji Europejskiej, Ministerstwo Finansów oraz Ministerstwo Gospodarki i Pracy. Ponadto, wykorzystano informacje uzyskane w drodze niestandaryzowanych wywiadów z ekspertami. Wyniki badań, wnioski i rekomendacje W dobie współczesnej do świadomości przeciętnego Europejczyka wydaje się docierać fakt, że efektem wzrostu gospodarczego powinna być wzrastająca jakość życia. O niej natomiast świadczy między innymi ilość dóbr i usług publicznych dostępnych dla obywateli zarówno w sferze lokalnej, krajowej, jak i globalnej. Jest to istotne zwłaszcza w Polsce, którą dzieli znaczący dystans do krajów wysoko rozwiniętych, mierzony poziomem dobrobytu społecznego. Wobec tego, sektor publiczny, jako podmiot odpowiedzialny za ich dostarczanie, powinien wykorzystać wszystkie dostępne środki, aby sprostać temu zadaniu. Potrzebom tym może w pewnym stopniu odpowiadać koncepcja partnerstwa publiczno-prywatnego. Partnerstwo umożliwia bowiem ekonomizację działań sektora publicznego w obszarze świadczenia dóbr i usług użyteczności publicznej. Chodzi przede wszystkim o dostarczanie szeroko rozumianej infrastruktury, takiej jak: transport lądowy, morski i powietrzny, uzdatnianie wody i utylizacja odpadów, więzienia, szpitale, szkoły, obiekty rekreacyjno-sportowe, ochrona środowiska, odrestaurowywanie budynków, informatyzacja, a nawet badania i wdrożenia. Partnerstwo publiczno-prywatne polega na kooperacji dwóch sektorów, publicznego i prywatnego, które charakteryzują się odmienną logiką funkcjonowania. W założeniach sektor publiczny kieruje się osiągnięciem korzyści dla interesu publicznego, rozumianego w szczególności jako oszczędność w gospodarowaniu środkami publicznymi, podniesienie standardu świadczonych usług lub zmniejszenie uciążliwości dla otoczenia. Z drugiej Recenzje i informacje 215 strony sektor prywatny kieruje się motywem osiągnięcia zysku. Zatem współpraca między tymi sektorami powinna przynosić korzyści obydwu stronom. Argumentem przemawiającym na rzecz PPP jest możliwość wykorzystania umiejętności sektora prywatnego, jego elastyczności, innowacyjności, szybkiej adaptacji zmian i nastawienia na konkurencyjność, a także metod zarządzania do budowy infrastruktury społecznej i ekonomicznej. Doświadczenie ostatniej dekady XX wieku oraz początek obecnego stulecia ukazuje, że jesteśmy świadkami powstawania nowej wizji funkcjonowania państwa i sfery publicznej. Partnerstwo publiczno-prywatne, jako koncepcja teoretyczna, jest obszarem coraz częstszego zainteresowania ze strony badaczy naukowych. Potwierdzeniem ważności tego pola badawczego jest wydany w 2005 r., przez An Elgar Reference Collection (jedno z najbardziej znaczących wydawnictw naukowych z zakresu ekonomii, zarządzania i prawa na świecie) zbiór, zatytułowany: Economics of Public Private Partnerships. Wyżej wymieniona publikacja, opracowana przez D. Grimsey'a i M.K. Lewisa, obejmuje najważniejszy dorobek naukowy w dziedzinie PPP na świecie. Można zatem wyciągnąć wniosek, że PPP „znaczy” (PPP matters). Przegląd literatury światowej pozwala na obserwację kilku nurtów badawczych, związanych z PPP. Pierwszy koncentruje się na zmianie podejścia do badania rynku dóbr publicznych (szeroka koncepcja urynkowienia). Drugi wiąże się z analizą modeli prywatnego finansowania szeroko rozumianej infrastruktury. Trzeci odnosi się do „filozofii PPP”, rozumianej jako podjęcie współpracy sektora publicznego i prywatnego oraz przezwyciężenie sprzeczności związanych z odmienną logiką funkcjonowania obydwu sektorów i wykorzystanie efektu synergii. Czwarty koncentruje się na aspektach zarządzania PPP, ze szczególnym uwzględnieniem zarządzania ryzykiem. Wydaje się, że można wyodrębnić również piąty nurt badawczy, związany z instytucjonalnymi podstawami analizy PPP i możliwością zastosowania teorii gier do modelowania efektywnego partnerstwa. Jak przedstawiają to autorzy przytaczanego opracowania, literatura dotycząca PPP jest relatywnie nowa. Do opracowania został włączony najwcześniejszy artykuł P. Starr’a z 1988 r., odnoszący się do różnych znaczeń prywatyzacji. W Polsce rosnące zainteresowanie PPP można zaobserwować z początkiem XXI w., np. w publikacjach: J. Zysnarskiego, M. Moszoro, K. Brzozowskiej, B.P. Korbusa i M. Strawińskiego. Koncepcja PPP nie jest natomiast nowa. Chodzi jednak o konstatację faktu kształtowania się nowej subdyscypliny naukowej – ekonomii partnerstwa publiczno-prywatnego. Jest to dziedzina wiedzy in statu nascendi, dlatego też niezwykle cenną rzeczą wydaje się uporządkowanie oraz wskazanie kierunków badań nad PPP na świecie i w Polsce. Po pierwsze należy rozważyć intelektualne korzenie koncepcji partnerstwa w kategoriach zmieniającego się rynku na publiczne dobra i usługi oraz przeanalizować założenia modelu prywatnego finansowania. Po drugie istnieje potrzeba badania aspektów zarządzania organizacją i ryzykiem, zwłaszcza w przypadku budowy dróg, systemów kolei, mostów, tuneli, oczyszczalni ścieków, prywatnych więzień, szpitali, sądów, muzeów, obiektów sportowych, szkół, obiektów rządowych itp. PPP bowiem czerpie z elementów dwóch dyscyplin naukowych: ekonomii i zarządzania. Warto przy tym pamiętać, że PPP opiera się na relacjach podziału ryzyka. Projekt musi być skonstruowany w taki sposób, aby została osiągnięta optymalna alokacja ryzyka. Ponadto, PPP nie należy utożsamiać z prywatnym finansowaniem infrastruktury. W ramach partnerstwa sektor publiczny nabywa bowiem usługi od sektora prywatnego w imieniu społeczeństwa, ale zatrzymuje wyłączną odpowiedzialność za ich dostarczanie, mimo że są one świadczone przez sektor prywatny przez długi czas. Jeśli mamy do czynienia z prywatyzacją, sektor prywatny bierze na siebie również odpowiedzialność za ich dostarczanie. PPP nie jest więc prywatyzacją. W rzeczywistości model PPP jest bardzo elastyczny. W zasadzie nie ma rdzennych funkcji, które nie mogą być realizowane przez sektor prywatny oraz działalności, dla której publiczne dostarczanie jest niewykonalne. PPP jest po prostu metodą dostarczania dóbr i usług publicznych. Zazwyczaj można nazwać to zarządzaniem publicznym albo urynkowieniem sektora publicznego – korporatyzacja, prywatyzacja, komercjalizacja, me- 216 Recenzje i informacje nedżeryzm, outsourcing, albo ograniczeniem działalności sektora publicznego. Partnerstwo stanowi zatem egzemplifikację tych trendów. Wobec prezentowanych wyników przeprowadzonej w dysertacji analizy, mającej przede wszystkich charakter jakościowo-teoretyczny, należy stwierdzić, że hipotezy sformułowane we wstępie zostały zweryfikowane pozytywnie. Partnerstwo publiczno-prywatne, jak wynika z danych dotyczących Wielkiej Brytanii, przynosi korzyści kosztowe oraz zwiększa jakość dostarczanych dóbr i świadczonych usług. Od 1987 r. do końca 2006 r. w Wielkiej Brytanii podpisano 794 umowy PFI/PPP o łącznej wartości kapitału ponad 54,5 mld funtów, co stanowi ok. 10-15% wydatków sektora publicznego rocznie. Zgodnie ze stanem na 2005 r., w ramach przeprowadzonych przez Ministerstwo Finansów analiz, ok. 80% użytkowników jest zawsze, albo prawie zawsze zadowolonych z usług, które są świadczone. Z kolei, jeśli chodzi o korzyści kosztowe, zgodnie z badaniem przeprowadzonym w styczniu 2000 r., w porównaniu z tradycyjnymi formami zamówień publicznych – PPP przynosi wyższy wskaźnik korzyści i daje przeciętnie oszczędności wynoszące ponad 17%. Metoda PPP okazuje się też skuteczniejsza w eliminowaniu opóźnień w realizacji projektów. Wyniki analiz przeprowadzonych w 2003 r. wykazały, że 90% projektów zostało zrealizowanych terminowo, w każdym przypadku sektor publiczny zapłacił tyle, ile zakładał. Wyniki te zostały potwierdzone przez niezależne Narodowe Biuro Audytów (National Audit Office). Zatem upowszechnianie stosowania PPP przynosi oszczędności wynikające zarówno z obniżenia kosztów inwestycyjnych, jak i kosztów świadczenia usług użyteczności publicznej, jest to więc dowód na to, że przyczynia się do efektywniejszej alokacji zasobów. Ponadto, rozwój integracji europejskiej poszerza zapotrzebowanie na różne formy partnerstwa. Warto jednak zauważyć, że na poziomie UE nie ma jednoznacznej definicji partnerstwa publiczno-prywatnego. Sformułowane zostały tylko określone ramy regulacyjne i umowne, które powinny być stosowane przy tworzeniu PPP. Zwiększa to zatem możliwości eksperymentowania instytucjonalnego w sektorze publicznym. Należy też podkreślić, że partnerstwo nie jest uniwersalnym instrumentem. Może być wykorzystywane tylko tam, gdzie realne jest osiągniecie lepszych efektów ekonomicznych i społecznych. Współpraca musi odbywać się z poszanowaniem zasad konkurencji. Przy tworzeniu PPP należy stosować przepisy o zamówieniach publicznych. Poza tym, przyznawanie kontraktów PPP nie może stanowić pomocy publicznej (musi istnieć pełna spójność z przepisami dotyczącymi pomocy publicznej). Wybór odpowiedniego modelu PPP powinien również zagwarantować optymalny sposób wykorzystania środków. Niemniej jednak Unia Europejska zaleca, by kraje członkowskie wykorzystywały model PPP tam, gdzie jest to uzasadnione. W polskim prawie istnieje legalna definicja partnerstwa, określona w art. 1 ust. 2 ustawy o PPP: partnerstwo publiczno-prywatne to oparta na umowie o partnerstwie publicznoprywatnym współpraca podmiotu publicznego i partnera prywatnego, służąca realizacji zadania publicznego. Według ustawy, partnerem prywatnym może być: przedsiębiorca w rozumieniu przepisów ustawy o swobodzie działalności gospodarczej, organizacja pozarządowa, kościół lub inny związek wyznaniowy, podmiot zagraniczny, jeżeli jest przedsiębiorcą w rozumieniu prawa kraju rejestracji oraz spełnia warunki do wykonywania działalności gospodarczej w Polsce. Do podmiotów publicznych, które mogą zawrzeć umowę o PPP, w ustawie zalicza się: organy administracji rządowej, jednostki samorządu terytorialnego, fundusze celowe, państwowe szkoły wyższe, jednostki badawczo-rozwojowe, samodzielne publiczne zakłady opieki zdrowotnej, państwowe i samorządowe instytucje kultury, Polską Akademię Nauk, państwowe i samorządowe osoby prawne utworzone na podstawie odrębnych ustaw, z wyłączeniem banków, przedsiębiorstw i spółek handlowych, niezależnie od ich struktury kapitałowej. Zgodnie z obowiązującym porządkiem prawnym, mamy do czynienia z zamkniętym katalogiem desygnatów „przedsięwzięć”, które mogą być realizowane w ramach partnerstwa. Skuteczność wdrażania PPP w Polsce może być jednak ograniczona pewnym bra- Recenzje i informacje 217 kiem precyzji w sformułowaniach ustawy. Unia Europejska wyodrębnia partnerstwo umowne i partnerstwo zinstytucjonalizowane i w ostatnich dokumentach (Sprawozdanie Parlamentu Europejskiego w sprawie partnerstw publiczno-prywatnych oraz prawa wspólnotowego w zakresie zamówień publicznych i koncesji z 2006 r.) i do tego ostatniego zwłaszcza odnosi wszelkie regulacje dotyczące modelowania PPP. Same regulacje prawne nie będą jednak wystarczające. Konieczne jest upowszechnienie wiedzy o PPP w postaci organizacji seminariów i szkoleń, dla władz samorządowych, które mogą być zainteresowane wykorzystaniem PPP w obliczu ograniczeń poszczególnych budżetów lokalnych oraz możliwości finansowych budżetu państwa, które też nie dysponuje nieograniczonymi środkami. Ponadto, być może celowe jest stworzenie jednostki krajowej koordynującej do spraw PPP oraz jednostek regionalnych, np. stworzenie sieci regionalnych ośrodków odpowiedzialnych za zarządzanie PPP. Powinno się również opracować formy wymiany doświadczeń w ramach najlepszych i najgorszych praktyk. Dodatkowo użyteczne, byłoby przeprowadzenie projektów pilotażowych w różnych sektorach: transport, wodociągi, szpitale, więzienia, obiekty rekreacyjne itd. Konieczna jest też standaryzacja umów, która przyspieszy proces przygotowania przedsięwzięcia w ramach PPP i umożliwi szybsze jego wdrożenie. Poza tym, warte rozważenia jest zastosowanie gwarancji i poręczeń rządowych przy realizacji szczególnie skomplikowanych projektów, o dużej wartości zaangażowania kapitałowego. Mówiąc inaczej, niezbędne jest stworzenie właściwego instytucjonalnego systemu funkcjonowania partnerstwa publiczno-prywatnego w Polsce. Autorka pracy opowiada się za stworzeniem przede wszystkim jednostki krajowej do spraw PPP, za przykładem Wielkiej Brytanii, co może przyczynić się do przełamania stereotypów w myśleniu, że współpraca między sektorem publicznym a sektor prywatnym jest zagrożona wysokim prawdopodobieństwem wystąpienia zjawiska korupcji. Poza tym, precedensowy charakter ustawy może korzystnie wpłynąć na sektor prywatny, ponieważ uregulowania prawne w niej zawarte ograniczają ryzyko podejmowania przedsięwzięć PPP. Należy przy tym pamiętać, że PPP musi opierać się na relacjach zaufania, a obydwie strony powinny dobrze zrozumieć własne, odmienne cele i dążyć do zawarcia obopólnie satysfakcjonującego kontraktu. Dla badacza, zwłaszcza młodego, największą trudnością jest syntetyczne ujmowanie wniosków z przeprowadzonych analiz oraz próba oceny badanego zjawiska. Jeszcze kilka lat temu koncepcja partnerstwa publiczno-prywatnego była dla autorki rozprawy zupełnie obcym pojęciem, ponadto niewiele było teoretycznych analiz, które pozwalałyby na zapoznanie się z jego istotą. Dokonując wyboru obszaru badawczego, autorka nie do końca zdawała sobie sprawę z wielopłaszczyznowości problematyki oraz trudności analizy teoretycznej i empirycznej przedmiotowego zagadnienia. Nie roszcząc sobie prawa do miana znawcy zasad funkcjonowania PPP, autorka pragnie wskazać na klika istotnych elementów, które wydają się przesądzać o powodzeniu realizacji partnerstwa, wskazać na zalety, a także na potencjalne obszary zagrożeń w efektywnym jego wdrażaniu. Atrakcyjności i użyteczności koncepcji PPP można upatrywać w możliwości zastosowania różnorodnych rozwiązań, w zależności od potrzeb społecznych, rodzaju dostarczanego dobra lub świadczonej usługi, rodzaju projektu, a także od uwarunkowań społecznogospodarczych, woli partnerów oraz społecznej akceptowalności. Należy mieć jednak na względzie, że przeniesienie znaczącej części ryzyka, związanego z realizacją inwestycji, na partnera prywatnego nie zwalnia bynajmniej podmiotu publicznego z odpowiedzialności za dostarczenie danego dobra lub usługi. Przy modelowaniu PPP należy wziąć pod uwagę najlepsze cechy sektora publicznego – planowość, przewidywalność, ostrożność oraz najlepsze cechy sektora prywatnego – elastyczność, efektywność, podejmowanie ryzyka, szybkość działania. Efekt synergii obydwu tych sektorów pozwala na uzyskanie wartości dodanej w postaci większej ilości dóbr publicznych i/lub wyższej jakości. Przeszkodami w sprawnym wdrażaniu PPP mogą być z kolei przepisy prawne, które powodują, że proces przygotowania inwestycji w tym modelu jest czasochłonny i skomplikowany. Barierą w rozwoju PPP jest niewątpliwie brak projektów pilotażowych oraz niedostateczny stopień 218 Recenzje i informacje aprobaty ze strony rządzących, administracji publicznej oraz całego społeczeństwa. Jednak partnerstwo posiada ogromny potencjał wzrostu. Mając na uwadze regulacje unijne dotyczące PPP, trzeba dążyć do stworzenia właściwych ram jego wykorzystania. Na zakończenie autorka pragnie wskazać kierunki przyszłych badań nad partnerstwem publiczno-prywatnym, które powinny wiązać się w Polsce z doskonaleniem środowiska prawnego, procesem standaryzacji umów, czyli doskonaleniem kontraktów PPP, stworzeniem optymalnej struktury instytucjonalnej partnerstwa, co jest istotne z punktu widzenia możliwości wykorzystania partnerstwa grantowego, które dotyczy wykorzystywania środków publicznych krajowych i wspólnotowych oraz środków prywatnych. Warto też rozwijać wiedzę z obszaru modelowania partnerstwa jako gry społecznej. Mierzenie skali osiągnięć PPP w Polsce jest niemożliwe ze względu na niewielkie doświadczenie w zakresie wdrażania takich rozwiązań. Jest to również bardzo utrudnione w skali całej Europy, ze względu na brak bazy empirycznej, w której gromadzone byłyby dane o projektach PPP. Poza tym, problemem jest niejednolitość koncepcji PPP. Owszem, zaletą jest różnorodność modeli partnerstwa, ale warto podjąć wysiłek w celu ujednolicenia rozumienia tej koncepcji. Wobec niewielkich możliwości wnioskowania, w oparciu o dane empiryczne, charakter przedmiotowej rozprawy oraz związany z nim typ zebranego materiału teoretycznego i empirycznego upoważniają jedynie do formułowania wniosków i rekomendacji o ograniczonym stopniu pewności. Zebrany materiał badawczy, jakim są literatura światowa i krajowa, opinie ekspertów (udział w konferencjach i seminariach zorganizowanych przez ekspertów brytyjskich, konsultacje z ekspertem z Banku Światowego – P. Noumba Um oraz z ekspertem z Australii – M.K. Lewisem), a także dane statystyczne pochodzące z HM Treasury w Wielkiej Brytanii, dokumenty pochodzące z ministerstw oraz agencji rządowych, a także dokumenty Komisji Europejskiej, stanowiące ramy regulacyjne i umowne, oraz percepcja nowych regulacji prawnych w Polsce nie pozwalają mierzyć poziomu efektywności i skuteczności funkcjonowania PPP. Można natomiast wskazać na spiętrzenie problemów związanych z jego realizacją oraz określić właściwe kierunki zmian w celu stworzenia pożądanej struktury instytucjonalnej, umożliwiającej sprawne wdrożenie PPP i czerpanie korzyści z jego zastosowania. PPP można bowiem traktować jako przykład zmiany instytucjonalnej w ramach koncepcji new public governance. Przedstawione wnioski i rekomendacje stanowią podsumowanie realizacji projektu badawczego, będąc próbą przedstawienia kwestii najbardziej istotnych. Analiza zgromadzonego materiału nie pozwala na sformułowanie oceny skutków wejścia w życie ustawy o PPP w Polsce oraz aktów wykonawczych do przedmiotowej ustawy, ze względu na krótki okres ich funkcjonowania. Umożliwia jednak określenie potencjalnych, pozytywnych zmian w podejściu zarówno władz rządowych i samorządowych, jak i podmiotów prywatnych do idei samej koncepcji PPP. Walorem pracy może być jej porządkujący i edukacyjny charakter. Zrealizowany projekt badawczy, jako próba przedstawienia dorobku teoretycznego w zakresie PPP i jego konfrontacji z ograniczoną empirią, może pobudzić zmianę w myśleniu, w postrzeganiu sposobu funkcjonowania sektora publicznego i instytucji sfery publicznej oraz zmianę rozumienia idei partnerstwa. Autorka stawia zatem tezę o powstaniu nowej subdyscypliny naukowej – ekonomii partnerstwa publiczno-prywatnego. Ekonomia PPP nie ma jeszcze formy „nauki instytucjonalnej” w znaczeniu T. Kuhna. Jest to stan rozwoju nauki, który nazywany jest niekiedy stanem przedparadygmatowym. OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008 Praca doktorska Promotor: Recenzenci: mgr Anety Ejsmont dr hab. Henryk Wnorowski (prof. UwB) dr hab. Teresa Łuczka (prof. PP) prof. dr hab. Jerzy Sikorski (UwB) CZYNNIKI ROZWOJU SEKTORA MAŁYCH I ŚREDNICH PRZEDSIĘBIORSTW W POLSKIEJ GOSPODARCE Publiczna obrona rozprawy doktorskiej odbyła się 10 grudnia 2007 roku na Wydziale Ekonomii i Zarządzania Uniwersytetu w Białymstoku Małe i średnie przedsiębiorstwa zawsze były i nadal są bardzo ważnym elementem każdej gospodarki. Wydaje się, że waga tego sektora, a przynajmniej zainteresowanie nim, ciągle rośnie. Sektor MŚP dynamicznie podchodzi do otoczenia, gdyż jest w stanie najszybciej reagować na powstające potrzeby konsumentów. Firmy te najczęściej świadomie poszukują okazji rynkowych, które są w mniemaniu dużych firm niszami rynkowymi, a z których to duże firmy świadomie rezygnują, gdyż działanie w określonych segmentach jest dla nich nieopłacalne. Rozwój małej i średniej przedsiębiorczości w Polsce napotyka jednak szereg ograniczeń i barier, w wyniku których średnio 40% MŚP upada w pierwszym roku działalności. Zasadniczym problemem podnoszonym w niniejszej pracy jest ciągle niezadowalający poziom rozwoju sektora MŚP w Polsce, mierzony wskaźnikiem dynamiki przychodów ze sprzedaży oraz aktywów obrotowych. W 1994 r. dynamika tegoż sektora w przychodach ze sprzedaży ogółem wynosiła 98,2, w 2004 r., zaś 102,2. Wskaźnik przyrostu aktywów w 1994 r. wynosił 89,9, w roku 2004 ukształtował się on zaledwie na poziomie 117,4. Tymczasem w krajach Unii Europejskiej dynamika przychodów ze sprzedaży w sektorze MŚP wynosiła 163,5. Wskaźnik przyrostu aktywów kształtował się z kolei na poziomie 187,8 (dane na koniec 2004r.). Tymczasem szczególnie niekorzystnym zjawiskiem, zaistniałym wśród małych i średnich firm, jest obniżenie obrotów w handlu z odbiorcami zagranicznymi, mierzonych ogólną dynamiką eksportu, która w latach 1994-2004 wynosiła kolejno: 123,6; 136,2; 110,1; 114,6; 112,3; 96,2; 111,6; 108,6; 115,1; 110,0; 117,4. W 1995 roku osiągnęła ona najwyższy wzrost, w 2003 roku, zaś- spadek. Niepokój budzi fakt, iż w latach 1996-2004 zmalała ekspansja zagraniczna polskiego sektora MŚP, zahamowana dodatkowo w 1998r. słabą koniunkturą w krajach zachodnich oraz kryzysem rosyjskim. Celem niniejszej pracy jest zweryfikowanie hipotezy, iż niezbędnym warunkiem rozwoju małych i średnich przedsiębiorstw w Polsce jest poprawa zarówno aktywności, jak i atrakcyjności ich oferty rynkowej. Aby zweryfikować przyjętą hipotezę, dokonano jej dezagregacji na cztery hipotezy szczegółowe. Zbudowany w ten sposób zestaw czterech szczegółowych funkcji analitycznych został następnie poddany procesowi weryfikacji kolejno w rozdziałach 3-6. Dla potrzeb badania, w ramach weryfikacji hipotezy głównej oraz hipotez szczegółowych, autorka dokonuje podziału działalności sektora małych i średnich przedsiębiorstw na sektor MŚP o charakterze usługowym oraz sektor MŚP wytwarzający produkty materialne. Działalność usługową tych firm przypisuje do takich sekcji EKD, jak: „Handel i nap- 220 Recenzje i informacje rawy”(G), „Edukacja”(M), „Pośrednictwo finansowe”(J), „Obsługa nieruchomości i firm, nauka”(K), „Budownictwo”(F), „Transport, gospodarka magazynowa i łączność”(I), „Ochrona zdrowia”(N), „Hotele i restauracje”(H) oraz „Pozostała działalność usługowa”(O). Działalność małych i średnich przedsiębiorstw, wytwarzających produkty materialne, przypisywana jest z kolei do takich sekcji EKD, jak: „Górnictwo i kopalnictwo”(C), „Przetwórstwo przemysłowe” oraz „Wytwarzanie i zaopatrywanie w energię elektryczną, gaz i wodę”(E). W pierwszej hipotezie szczegółowej formułuje się przypuszczenie, iż jakość oraz innowacyjność produktów i usług oferowanych przez sektor MŚP zapewni zwiększenie dynamiki sprzedaży tego sektora, także na eksport, a tym samym przyczyni się do jego rozwoju. W Unii Europejskiej przywiązuje się coraz większą wagę do usprawnienia procesów produkcyjnych poprzez systemy zapewnienia jakości. Uzyskanie certyfikatów ISO zarówno serii 9000, 9001, 14000, 18000, jak też 22000, daje korzyści zewnętrzne w postaci budowania pozytywnego wizerunku firmy, zwiększa zaufanie do produktu wprowadzanego na rynek. W polskich przedsiębiorstwach z sektora MŚP poziom uzyskiwania certyfikatów ISO nadal jest stosunkowo niski w porównaniu z krajami Unii Europejskiej. Na prawie 2,3 mln zarejestrowanych firm ok. 20% uzyskało certyfikaty ISO (9000 oraz 14000), gdy np. w Niemczech – ok. 80% (stan na koniec 2004 roku). Małe i średnie przedsiębiorstwa, działające w Polsce, mają trudności, a wręcz nie mogą wprowadzać rozwiązań innowacyjnych. Sytuacja ta znajduje odzwierciedlenie w wielkości wskaźnika innowacyjności, którego wartość w badanym okresie (lata 1994 – 2004) nie przekroczyła 20 punktów procentowych. W latach 1994 – 2004 zwiększył się on z 4,2% w 1994r. do 16,7% (wzrost o 12 p. p.). Badaniu powyższych zależności został poświęcony trzeci rozdział niniejszej rozprawy. Kluczowe znaczenie dla weryfikacji drugiej hipotezy szczegółowej ma pokazanie wpływu cen na rozwój małych i średnich firm. W gospodarce rynkowej ceny ustala rynek dokonujący alokacji wyrobów i usług między różne konkurujące między sobą zastosowania. Mimo to zarówno produkty materialne, jak i usługi oferowane odbiorcom przez przedsiębiorstwa z sektora MŚP często nie spełniają ich wymagań. Ze względu na zbyt wysokie koszty produkcji nie są one konkurencyjne cenowo, natomiast konkurencja pozacenowa też nie jest możliwa ze względu na trudności przedsiębiorstw w kształtowaniu produktu. Coraz częściej dostawcy, klienci i konkurenci małej i średniej firmy są nie tylko z sąsiedztwa, ale i z drugiej części globu. Biorąc pod uwagę stale wzrastającą liczbę konkurentów, firmy są zmuszone obniżać koszty, oferować nowe produkty, bądź usługi lub wychodzić na zagraniczne rynki zbytu. Trzecia hipoteza szczegółowa stwierdza, iż ważnym czynnikiem dynamiki rozwoju sektora MŚP jest efektywne wykorzystanie kanałów dystrybucji. W warunkach gospodarki rynkowej, gdy funkcjonuje wolna przedsiębiorczość i konkurencja – rośnie skala działalności marketingowej firm, zwiększa się też różnorodność stosowanych narzędzi marketingu. Choć w części polskich firm dominują ciągle postawy i działania przedmarketingowe, np. podejście „produktowe” a w najlepszym razie – orientacja dystrybucyjna, to jednak coraz więcej firm dostrzega konieczność stosowania marketingu. Ponad 80% małych i średnich firm potwierdziło, iż eksport przede wszystkim neutralizuje barierę popytu na rynku krajowym i pozwala na zwiększenie rozmiarów produkcji. Wybór tego najkrótszego kanału dystrybucji – czyli obrotu bez udziału jakichkolwiek pośredników – jest na ogół ekonomicznie uzasadniony z punktu widzenia zarówno odbiorcy, jak i dostawcy. W Polsce obrót ten obejmuje nie więcej niż 15% całości obrotu środkami produkcji, a w Niemczech ok. 23% (dane na koniec 2004 r.). Badania rynków i tworzenie własnej sieci dystrybucji jest przedsięwzięciem bardzo kosztownym, w związku z powyższym żadne przedsiębiorstwo z sektora MŚP nie ma szans na tworzenie silnych kanałów dystrybucji. Badaniu powyższych zależności został poświęcony piąty rozdział niniejszej rozprawy. W trakcie weryfikacji czwartej hipotezy szczegółowej podkreśla się, iż promocja rozumiana jako ogół środków, za pomocą których firma komunikuje się z rynkiem jest jednym z głównych czynników wzrostu dynamiki sektora MŚP. Z kolei głównym jej narzędziem jest reklama. Relacja wydatków na reklamę do PKB ukazuje, jaką rolę pełni reklama w kształ- Recenzje i informacje 221 towaniu rozwoju danego przedsiębiorstwa. Promocja eksportu z kolei skierowana jest głównie do sektora MŚP, a jej celem jest wspieranie eksportu poprzez udzielanie dotacji na realizację działań ukierunkowanych na rozwój rynków eksportowych. W latach 1994-2004 dynamika wydatków na promocję eksportu zmniejszyła się z 141,4 w 1994r. do 98,1 w 2004 r. (spadek o 43,3 p. p.). Public Relations (PR) jest kolejnym instrumentem komunikacji marketingowej, który zmierza do kreowania, utrwalania i rozszerzania społecznego zaufania i pozytywnego wizerunku przedsiębiorstwa. Szefowie wielu małych i średnich firm przypominają sobie o PR w chwili, gdy ich firma znajduje się w stanie zagrożenia, jest atakowana przez określone środowiska, w prasie pojawiają się negatywne informacje, co ich zdaniem, wymaga natychmiastowej reakcji. Wtedy właśnie agencja specjalizująca się w PR otrzymuje polecenie „załatwienia sprawy” (a wtedy jest już najczęściej za późno).Właściciele tychże przedsiębiorstw z przyczyn wzrostu kosztów nie zatrudniają specjalisty do spraw PR, który na bieżąco prowadziłby sprawy tego typu. Zgodnie z założeniami powyższej hipotezy, szósty rozdział pracy poświęcony został omówieniu sposobów promowania małych i średnich firm działających zarówno na rynku krajowym, jak i na rynkach międzynarodowych. Pracę zamyka zakończenie oceniające stopień weryfikacji, wcześniej sformułowanej, hipotezy głównej oraz hipotez szczegółowych. Wnioski oparte na dostępnym materiale statystycznym oraz bogatych danych, obliczonych na podstawie popularnych źródeł naukowych, pozwoliły na jednoznaczne stwierdzenie, iż atrakcyjność oferty rynkowej małych i średnich przedsiębiorstw jest stosunkowo niska. Wyniki analiz, przeprowadzonych przez autorkę dla lat 1994-2004, potwierdzają fakt, iż powodem niedostatecznego wykorzystania potencjału eksportowego sektora MŚP są zbyt wysokie koszty produkcji oraz często niewystarczająca jakość oferowanych usług i produktów materialnych. Możliwość wchodzenia na rynki międzynarodowe poprzez stworzenie własnej sieci dystrybucji oraz promocję produktów i usług jest dla wielu małych i średnich firm szansą na rozwój, jednak z powodu braku środków ekspansja sektora MŚP na rynki zagraniczne często staje się niemożliwa. W niniejszej rozprawie zastosowano metodę hipotetyczno-dedukcyjną. Autorka pozytywnie zweryfikowała przyjętą hipotezę, iż niezbędnym warunkiem rozwoju sektora małych i średnich przedsiębiorstw jest pobudzenie aktywności rynkowej tych firm oraz uatrakcyjnienie oferty kierowanej zarówno na rynki lokalne, krajowe, jak i zagraniczne. W procesie badawczym wykorzystała obcojęzyczną literaturę, posługiwała się także dostępnymi wynikami badań nt. opisywanego sektora. Hipotezy szczegółowe, jakimi są poszczególne instrumenty mix-u marketingowego, czyli: produkt, cena, dystrybucja oraz promocja, sformułowane zostały na podstawie logicznych przesłanek sugerujących, iż przyczyniają się one do ogólnego rozwoju sektora MŚP. Metodyka badań zastosowana w niniejszej rozprawie – oprócz analizy literaturowej przedmiotu badań, oceny dostępnych materiałów informacyjnych – zawiera także analizę opublikowanych materiałów statystycznych, opartą na zastosowanej w tym celu metodzie reprezentacyjnej. Prowadząc badania nad wpływem aktywności rynkowej na rozwój sektora MŚP w latach 1994-2004, autorka posługiwała się analizą wskaźnikową polegającą na obliczeniu odpowiednio dobranych mierników, charakteryzujących różne aspekty działalności małych i średnich przedsiębiorstw w Polsce. OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008 Praca doktorska Promotor: Recenzenci: mgr Teresy Mikulskiej prof. dr hab. Jerzy Sikorski (UwB) prof. dr hab. Kazimiera Winiarska (Uniw. Szczeciński) dr hab. Aleksander Maksimczuk (prof. UwB) BUDŻETOWANIE KOSZTÓW JAKO METODA ZARZĄDZANIA PRZEDSIĘBIORSTWEM Publiczna obrona rozprawy doktorskiej odbyła się 17 grudnia 2007 roku na Wydziale Ekonomii i Zarządzania Uniwersytetu w Białymstoku Przedsiębiorstwa działające na dynamicznym rynku, w klimacie ciągłej walki konkurencyjnej i ryzyka podejmowanych przedsięwzięć biznesowych, dostrzegają coraz częściej, że wąskim gardłem staje się dla nich precyzyjna i szybka informacja planistyczna. W szczególności dotyczy ona sytuacji ekonomicznej i finansowej, wielkości oraz struktury sprzedaży, ponoszonych kosztów, efektywności działania poszczególnych segmentów organizacji, odchyleń od przyjętych założeń operacyjnych i strategicznych. Nowe warunki, w jakich działają jednostki gospodarcze, zmieniły w zasadniczy sposób zapotrzebowanie na informacje zgłaszane zarówno przez użytkowników zewnętrznych, jak i kadrę zarządzającą. Spowodowało to wzrost rangi i wymagań kierowanych pod adresem kompleksowego systemu informacyjnego. Potrzeby informacyjne podmiotów funkcjonujących w epoce informacji, w której kluczowymi czynnikami sukcesu są innowacje, wysoka jakość produktów, szybkość dostarczania danych i dzielenie się wiedzą w firmie, powinny zaspokajać współczesne narzędzia zarządzania przedsiębiorstwem. Zarządzanie przedsiębiorstwem spełnia bowiem właściwie stawiane mu zadania, jeżeli odzwierciedla bieżącą strukturę i zakres działalności, co może prowadzić do zmian metod i technik zarządzania. Jednym z narzędzi wspomagających rozwój przedsiębiorstwa jest budżetowanie działalności jednostek gospodarczych. Podstawowym zadaniem budżetowania jest wspomaganie procesu decyzyjnego, poprzez sprawne zarządzanie jednostką gospodarczą, oparte na systematycznym planowaniu oraz regularnym kontrolowaniu wyników, co w konsekwencji prowadzi do utrzymania kosztów na optymalnym poziomie i do poprawy rentowności. Budżetowanie jest jedną z metod agregujących wszystkie funkcje zarządzania: planowanie, organizowanie, motywowanie i kontrolę. Dlatego też, stosując tę metodę, można sprawnie i skutecznie kierować realizacją wyznaczonego zadania. W warunkach ciągłego usprawniania firmy, budżetowanie należy rozumieć jako metodę zarządzania przedsiębiorstwem, umożliwiającą tworzenie warunków niezbędnych do kształtowania ekonomicznie najkorzystniejszego rozwoju firmy w warunkach narzucanych przez otoczenie. Aby w sposób ciągły osiągnąć najkorzystniejszy rozwój firmy, tworzeniem tych warunków należy obejmować wszystkie obszary działalności przedsiębiorstwa. Termin budżetowanie podkreśla aspekt czynnościowy, obejmujący stosowanie różnych metod i technik związanych z przygotowaniem, realizacją i kontrolą budżetu. Tradycyjne podejście do budżetowania łączy je z poziomem operacyjnym zarządzania, na którym realizowane działania mają charakter krótkookresowy, a podejmowane decyzje są oparte na informacjach, które są dokładne i szczegółowe. Zarazem wdrożenie Recenzje i informacje 223 systemu budżetowania na poziomie operacyjnym jest warunkiem koniecznym dla sprawnego zarządzania taktycznego i strategicznego, gdyż jedynie informacja dokładna i szczegółowa, zasilająca poziom operacyjny, po agregacji może właściwie obsłużyć pozostałe poziomy zarządzania. Prawidłowo zaprojektowany i wdrożony proces budżetowania kosztów przynosi bezpośrednie efekty w postaci oszczędności i poprawy efektywności gospodarowania. Jednym z istotnych elementów mających wpływ na poprawność procesu budżetowania jest rachunek kosztów, w ramach którego prowadzony jest pomiar kosztów, ich transformacja umożliwiająca ocenę sytuacji i podejmowanie właściwych decyzji. Przekroje budżetowania kosztów zależą w dużym stopniu od zadań stawianych budżetowaniu, w ramach poszczególnych funkcji rachunku kosztów. Obserwacja wielu przedsiębiorstw wskazuje, że rośnie udział kosztów stałych w kosztach ogółem. Jest to w dużej mierze związane z zastępowaniem pracy ludzi przez maszyny, co najczęściej jest połączone ze stosowaniem zaawansowanych technologii. W takich warunkach informacje generowane przez tradycyjne systemy rachunku kosztów, które stosują uproszczenia w rozliczaniu kosztów pośrednich, nie stanowią dobrej podstawy do podejmowania decyzji gospodarczych. Systemy tradycyjne bazują najczęściej na jednej podstawie rozliczania kosztów, proporcjonalnej do ilości produkcji. Coraz większego znaczenia nabiera skuteczne zarządzanie kosztami pośrednimi. W warunkach gospodarki rynkowej planowanie i kontrola działalności przedsiębiorstwa na podstawie budżetów są jednym z podstawowych elementów prawidłowego zarządzania. Budżetowanie wymaga jednak nowego podejścia do złożonej problematyki powstawania kosztów. Powinno ono dostarczać nowych jakościowo informacji, niezbędnych do podejmowania decyzji w złożonym otoczeniu przedsiębiorstwa. Narzędziem wspomagającym zarządzanie w tym zakresie jest rachunek kosztów działań, którego zastosowanie w procesie budżetowania może przyczynić się do powiązania kosztów z przyczynami ich powstawania i w efekcie doprowadzić do skutecznego zarządzania przedsiębiorstwem. W różnych przedsiębiorstwach zasadność wykorzystania rachunku kosztów działań i ewentualne korzyści, wynikające z jego wdrożenia, będą odmienne. Celem głównym pracy było zdiagnozowanie stopnia wykorzystania procedury budżetowania kosztów w wybranych przedsiębiorstwach oraz propozycja zmian zarówno w procesie budżetowania, jak i w stosowanych systemach rachunku kosztów. Cele szczegółowe pracy to: 1. Przedstawienie procesu budżetowania kosztów jako metody zarządzania przedsiębiorstwem. 2. Ocena funkcjonowania systemów rachunku kosztów i ich wykorzystania w procesie budżetowania w firmach województwa podlaskiego. 3. Ustalenie kierunków zmian rachunku kosztów w aspekcie budżetowania, niezbędnych do zarządzania jednostką w warunkach zmieniającej się gospodarki rynkowej. Na podstawie wcześniej wymienionych celów za tezę główną przyjęto następujące stwierdzenie: Budżetowanie oparte na rachunku kosztów działań pozwala sprawniej zarządzać przedsiębiorstwem niż tradycyjne budżetowanie, gdzie szacowanie kosztów odbywa się na bazie struktury funkcjonalnej przedsiębiorstwa. Obok tezy głównej, w pracy postawiono następujące hipotezy szczegółowe: 1. Przedsiębiorstwa wprowadzają budżetowanie kosztów jako metodę zarządzania, modyfikując tylko rozwiązania ewidencyjno-rozliczeniowe w zakresie stosowanego rachunku kosztów, nie wprowadzając nowych rozwiązań w tym zakresie. 2. Istnieje potrzeba doskonalenia procesu budżetowania, a środkiem do realizacji tego celu może być wdrożenie budżetowania bazującego na rachunku kosztów działań. 3. Systemy budżetowania kosztów w przedsiębiorstwach przynoszą pożądane efekty pod warunkiem zastosowania odpowiednio dobranych procedur i narzędzi. 224 Recenzje i informacje Prawdziwość hipotez zweryfikowano na podstawie przeprowadzonych badań empirycznych w wybranych podmiotach gospodarczych, funkcjonujących na terenie województwa podlaskiego oraz studium przypadku prezentującego budżetowanie tradycyjne i budżetowanie oparte na działaniach. Wyboru podmiotów dokonano z punktu widzenia wielkości zatrudnienia. Zgodnie z wykazem otrzymanym z Urzędu Statystycznego w Białymstoku, w województwie podlaskim na dzień 30 marca 2005 roku działały 103 przedsiębiorstwa zatrudniające powyżej 250 osób. Treść pracy obejmuje sześć rozdziałów umożliwiających całościowe ujęcie omawianej problematyki oraz weryfikację hipotez badawczych. Rozdział pierwszy ma charakter wprowadzająco-przeglądowy. Zaprezentowano w nim teoretyczne podstawy zarządzania, planowania i budżetowania w przedsiębiorstwie. Zwrócono uwagę na znaczenie informacji, jako podstawowego źródła przewagi konkurencyjnej przedsiębiorstwa. W rozdziale tym pokazano również funkcje budżetowania oraz różnice między planowaniem a budżetowaniem. W rozdziale drugim przedstawiono przekroje klasyfikacyjne kosztów na potrzeby budżetowania oraz ogólną charakterystykę rachunku kosztów, jako podstawowego źródła informacji o kosztach w danym podmiocie gospodarującym. Scharakteryzowano również tradycyjne i nowoczesne systemy rachunku kosztów wykorzystywane w firmie w dobie nieustającego rozwoju technologicznego, rosnącej konkurencji oraz wzrostu wymagań ze strony klientów oraz pokazano ich przydatność w procesie budżetowania. Omówiono także wpływ rachunku kosztów na proces zarządzania przedsiębiorstwem. Rozdział trzeci jest opisem procedury budżetowania kosztów w przedsiębiorstwie. W rozdziale tym, oprócz organizacyjnych aspektów budżetowania, zaprezentowane zostały także metody i zasady stosowane w procesie budżetowania. Przedstawiono również strukturę budżetu głównego jednostki oraz sposób sporządzania budżetów cząstkowych. Rozdział czwarty prezentuje wyniki badań empirycznych z zakresu budżetowania i stosowanych systemów rachunku kosztów. Badania zostały przeprowadzone w wybranych podmiotach zatrudniających powyżej 250 osób, działających na terenie województwa podlaskiego w roku 2005. W rozdziale piątym omówiono procedurę tradycyjnego budżetowania kosztów oraz budżetowania wykorzystującego rachunek kosztów działań. W celu zobrazowania różnic między tymi dwoma sposobami budżetowania posłużono się studium przypadku. Przedstawiono również wady tradycyjnego budżetowania i korzyści wynikające z prowadzenia budżetowania opartego na działaniach. W rozdziale szóstym podjęto próbę ustalenia przewidywanych kierunków zmian zarówno w procesie budżetowania, jak i w systemach rachunku kosztów stosowanych w badanych przedsiębiorstwach. Zwrócono uwagę na warunki organizacyjne i techniczne, jakie muszą zostać spełnione, aby proces budżetowania funkcjonował sprawnie. W zakończeniu przedstawiono wnioski dotyczące stosowanych systemów rachunku kosztów w procesie budżetowania w badanych podmiotach, a także wykorzystywanych metod i narzędzi budżetowania kosztów. Przedstawione wyniki badań ankietowych pozwoliły na przybliżoną orientację w zakresie rodzaju i stopnia szczegółowości prowadzonego rachunku kosztów oraz organizacji i metod budżetowania kosztów w podmiotach działających na terenie województwa podlaskiego. Umożliwiło to również weryfikację postawionej wcześniej tezy głównej i hipotez szczegółowych. Wnioski z przeprowadzonych badań ankietowych zostały podzielone na dwie grupy. Pierwsza grupa dotyczy wyników badań w zakresie stosowanych systemów rachunku kosztów rozpatrywanych jako źródło informacji niezbędnych w procesie budżetowania kosztów, natomiast druga grupa wniosków skupia się na zagadnieniach budżetowej metody zarządzania przedsiębiorstwem. W zakresie stosowanych systemów rachunku kosztów można stwierdzić, że: 1. W większości badanych przedsiębiorstw ewidencja kosztów działalności operacyjnej odbywa się w dwóch układach: rodzajowym i kalkulacyjnym. Tylko jedno Recenzje i informacje 225 przedsiębiorstwo ogranicza się do rejestracji kosztów według rodzaju, a dwa podmioty stosują ewidencję kosztów wyłącznie w układzie kalkulacyjnym. 3/4 przedsiębiorstw księguje koszty z wyodrębnieniem miejsc ich powstania i nośników, a co czwarta firma uwzględnia tylko miejsca powstawania kosztów. 2. W podlaskich przedsiębiorstwach dominuje tradycyjny rachunek kosztów. Jednakże, obok rachunku kosztów pełnych, 32% respondentów wykorzystuje równocześnie inne systemy rachunku kosztów: rachunek kosztów zmiennych, rachunek kosztów działań oraz rachunek kosztów jakości. Tylko 11% badanych podmiotów nie stosuje tradycyjnych metod rozliczania kosztów, a ewidencję kosztów prowadzi w oparciu o rachunek kosztów docelowych oraz rachunek redukcji kosztów i rachunek kosztów działań. 3. Nowoczesne systemy rachunku kosztów wdrożyły u siebie przede wszystkim spółki akcyjne. Wyjątkiem jest tu jedna spółka z o.o., w której stosowany jest rachunek kosztów docelowych i szpital, wykorzystujący rachunek kosztów działań. Podmioty preferujące nowoczesne rozwiązania w zakresie rachunku kosztów za podstawowe korzyści uznają: tworzenie informacji niezbędnej w procesie podejmowania decyzji, redukcję poziomu kosztów oraz dostarczanie istotnych danych kosztowych o aktualnie realizowanych procesach i działaniach. 4. Prawie 70% badanych przedsiębiorstw nie rozważała możliwości wprowadzenia rachunku kosztów działań, który jest coraz częściej stosowany w Polsce, co wynika z przytoczonych w pracy wyników badań różnych autorów. Tylko 14% firm rozważało możliwość wdrożenia tego systemu rachunku kosztów. Zdaniem respondentów, spowodowane jest to między innymi: wysokimi kosztami wdrażania nowych rozwiązań, brakiem dostatecznej znajomości zasad rachunku kosztów działań oraz brakiem odpowiednich narzędzi informatycznych, niezbędnych do zastosowania tego systemu rachunku kosztów w praktyce. 5. Większość ankietowanych firm wysoko ocenia przydatność stosowanego obecnie systemu rachunku kosztów w podejmowaniu decyzji. Stanowisko takie wyraziły nie tylko podmioty, które już zastosowały nowoczesne rozwiązania w zakresie ewidencji kosztów, ale również firmy wykorzystujące sprawozdawczy rachunek kosztów. Pozytywne opinie respondentów na temat stosowanych systemów rachunku kosztów są jedną z przyczyn braku zainteresowania wprowadzaniem nowych koncepcji zarządzania kosztami. Tylko co piąte przedsiębiorstwo planuje zmiany w tym zakresie. 6. Intensywność i zakres dokonywanych modyfikacji rachunku kosztów przy wdrażaniu procesu budżetowania w przedsiębiorstwach województwa podlaskiego nie jest zadowalająca. Wprawdzie 60% ankietowanych przedsiębiorstw uznało, że dokonało zmiany systemu rachunku kosztów przy wdrażaniu procesu budżetowania, jednak w większości przypadków zmiany te polegały jedynie na uszczegółowieniu ewidencji kosztów w ramach stosowanego już systemu. Analiza wykorzystania budżetowania kosztów prowadzi do następujących wniosków: 1. Około 80% badanych podmiotów wykorzystuje budżetową metodę zarządzania, w tym prawie połowę stanowią spółki akcyjne. W 45% tych firm sporządza budżety dłużej niż 5 lat, natomiast w pozostałych podmiotach proces ten trwa od roku do 5 lat. Najczęściej wymieniane powody, dla których przedsiębiorstwa zdecydowały się wdrożyć proces budżetowania, to: oszczędność kosztów działalności, usprawnienie procesu zarządzania przedsiębiorstwem, stabilność i poprawa sytuacji finansowej firmy, kontrola działalności, motywowanie kadry do efektywnego i racjonalnego działania. 2. Wprowadzając proces budżetowania, niezbędne jest dokonanie zmian w strukturze organizacyjnej przedsiębiorstwa poprzez wyodrębnienie ośrodków odpowiedzialności. We wszystkich badanych podmiotach zostały utworzone centra 226 3. 4. 5. 6. 7. 8. Recenzje i informacje kosztów. W 77% firm funkcjonują centra przychodów, w 41% – centra zysku, a w 36% – centra inwestycji. Dodatkowo, w jednym przedsiębiorstwie zostało wyodrębnione centrum odpowiedzialne za rozwój produktu i centrum zapasów. Tworząc ośrodki odpowiedzialności, przedsiębiorstwa najczęściej miały problemy z: budową odpowiedniego systemu motywacyjnego, doborem właściwych celów i zadań dla poszczególnych ośrodków, wyznaczeniem stopnia samodzielności decyzyjnej kierowników ośrodków poprzez ustalenie zakresu ich uprawnień i odpowiedzialności. Roczny budżet operacyjno-finansowy dla całego przedsiębiorstwa sporządza 1/4 respondentów. W pozostałych podmiotach wykorzystuje się zróżnicowaną liczbę budżetów cząstkowych. Najczęściej są to: budżety kosztów, budżety sprzedaży i budżety produkcji. W badanych przedsiębiorstwach budżetowanie działalności finansowej opiera się przede wszystkim na budżecie rachunku wyników oraz budżecie wpływów i wydatków. Rzadkością jest natomiast sporządzanie budżetu inwestycyjnego czy budżetu przepływu środków pieniężnych. Zdobywanie wiedzy i doświadczenia pracowników sporządzających budżety powoduje, że przedsiębiorstwa coraz częściej wykorzystują metody, które w znacznym stopniu angażują kadrę niższego szczebla, czego przykładem jest stosowanie w większości badanych firm metody budżetowania partycypacyjnego. Wdrażanie nowoczesnych, zintegrowanych systemów informatycznych, które dają większe możliwości pozyskania informacji niezbędnych w procesie budżetowania, wpłynęło między innymi na zmianę w proporcji stosowania budżetów sztywnych i elastycznych. Przeprowadzone badania wskazują, że obecnie przedsiębiorstwa częściej decydują się na sporządzanie budżetów elastycznych (przeliczonych) niż budżetów sztywnych. Pracochłonność metody budżetowania „od zera”, mimo że daje większe możliwości poszukiwania nowatorskich rozwiązań, nie skłania przedsiębiorstw do zaniechania stosowania metody przyrostowej. Kontrola wykonania budżetu, uważana za jeden z ważniejszych etapów procesu budżetowania, w badanych przedsiębiorstwach odbywa się przede wszystkim w oparciu o ustalenie i analizę odchyleń oraz wyciągnięcie wniosków i dokonanie działań korygujących. Tylko w kilku jednostkach rozlicza się osoby odpowiedzialne za zaistniałe odchylenia. Za główne przyczyny powstawania odchyleń między planem a wykonaniem budżetu ankietowani uznali: wzrost cen surowców, niewłaściwą realizację budżetu oraz błędy w planowaniu przychodów i kosztów. Budżetowanie kosztów nie jest procesem pozbawionym wad. Zdaniem respondentów, za podstawowe mankamenty tego procesu należy uznać: dostarczanie spóźnionych danych, trudności w objęciu kontrolą niektórych grup kosztów, problemy z odpowiednią klasyfikacją kosztów oraz wysokie koszty wdrożenia i obsługi procesu. Respondenci nie zamierzają jednak zrezygnować z tej metody zarządzania. Do usprawnienia procesu budżetowania kosztów, według większości badanych przedsiębiorstw, niezbędne jest: uszczegółowienie informacji kosztowych, zwiększenie udziału pracowników w procesie budżetowania, wprowadzenie budżetowania kroczącego, bardziej szczegółowa analiza odchyleń, podniesienie stopnia informatyzacji w przedsiębiorstwie. Tylko 14% badanych firm nie widzi potrzeby wprowadzania zmian w zakresie budżetowania kosztów. Są to przedsiębiorstwa, które wdrożyły nowoczesne systemy rachunku kosztów, a tym samym usprawniły już proces budżetowania kosztów. Warunki rynkowe i związana z tym niepewność planowania wymuszają na przedsiębiorstwach konieczność uwzględniania czynnika ryzyka w sporządzanych budżetach. Ograniczenie ryzyka w procesie budżetowania, zmierzającym do zapewnienia realności budżetu, powinno nastąpić już na etapie planowania poprzez rozpoznanie rozkładu zjawisk ekonomicznych, np. dotyczących wielko- Recenzje i informacje 227 ści produkcji i sprzedaży, kształtowania się cen wyrobów, kosztów, zapasów, itp. Rola budżetowania operacyjnego ulega współcześnie znaczącej transformacji. Z instrumentu postrzeganego jako pełniącego przede wszystkim funkcję kontrolną, budżetowanie ewoluuje w kierunku instrumentu planistycznego zapobiegającego nieprawidłowościom, wspierającego inicjatywę i gotowość innowacyjną, umożliwiając w ten sposób nie tylko zwiększenie sprawności operacyjnej, ale również umocnienie pozycji strategicznej przedsiębiorstwa. Aby osiągnąć taki efekt, budżetowanie powinno opierać się na rachunku kosztów działań, który umożliwi sprawne zarządzanie przedsiębiorstwem. Wydział Ekonomii i Zarządzania Uniwersytetu w Białymstoku poleca publikacje naukowe: Ryta Iwona Dziemianowicz Efektywność systemu opodatkowania rolnictwa Spis treści: 1. Rola państwa i polityki podatkowej w gospodarce, 2. Teoretyczne podstawy konstrukcji optymalnego systemu podatkowego, 3. Teoretyczne podstawy opodatkowania rolnictwa, 4. Opodatkowanie rolnictwa – doświadczenia krajów Unii Europejskiej i USA, 5. Konstrukcja systemu opodatkowania rolnictwa w Polsce, 6. Budżetowe i sektorowe skutki opodatkowania rolnictwa w Polsce. Ewa Roszkowska Modelowanie procesów decyzyjnych oraz negocjacji za pomocą kompleksów reguł Spis treści: 1. Pojęcie uogólnionej gry z wykorzystaniem kompleksów reguł; 2. Negocjacje. Zagadnienia podstawowe. Ekonomiczne aspekty negocjacji; 3. Negocjacje jako uogólniona gra; 4. Zastosowanie kompleksów reguł do analizy procesu negocjacji; 5. Zastosowanie zbiorów rozmytych do modelowania procesu negocjacji; 6. Modele przetargu. Renata Przygodzka Fiskalne instrumenty wspierania rozwoju rolnictwa – przyczyny stosowania, mechanizmy i skutki Spis treści: 1. Państwo a rolnictwo – przesłanki aktywności; 2. Rola państwa w rozwoju rolnictwa; 3. Fiskalne instrumenty oddziaływania na rolnictwo; 4. Metodologiczne podstawy oceny skuteczności fiskalnych działań państwa; 5. System opodatkowania i jego rola w rozwoju rolnictwa; 6. System transferów socjalnych i jego oddziaływanie na rozwój rolnictwa; 7. Pozasocjalne transfery do rolnictwa i ich wpływ na rozwój rolnictwa Wydział Ekonomii i Zarządzania Uniwersytetu w Białymstoku poleca publikacje dydaktyczne: Kazimierz Meredyk (red.) Ekonomia ogólna Białystok 2007, ISBN 978-83-7431-114-4 Spis treści: Cz. I - Mikroekonomia, Cz. II- Makroekonomia Elżbieta Sulima (red.) Obszary integracji Unii Europejskiej. Wybrane zagadnienia rok wydania 2006, ISBN 978-83-7431-082-6 Spis treści: 1. Międzynarodowa integracja gospodarcza w Europie w ujęciu historycznym, 2. Unia Europejska i jej prawo, 3. System instytucjonalny Unii Europejskiej, 4. Prawo gospodarcze, 5. Polityka budżetowa, 6. Polityka monetarna, 7. Polityka regionalna, 8. Polityka rolna, 9. Polityka zatrudnienia, 10. Polityka ochrony środowiska, 11. Polityka wobec małych i średnich przedsiębiorstw Ewa Roszkowska Zadania z analizy matematycznej dla ekonomistów rok wydania 2006, ISBN 978-83-7431-063-5 Spis treści: 1. Elementy logiki, 2. Zbiory. Działania na zbiorach. Równoliczność zbiorów. Zbiory przeliczalne i nieprzeliczalne, 3. Pojęcie i podstawowe własności funkcji, 4. Ciąg i jego własności, 5. Granice i ciągłość funkcji. Asymptoty, 6. Rachunek różniczkowy funkcji jednej zmiennej, 7. Rachunek całkowy funkcji jednej zmiennej, 8. Szeregi liczbowe, 9. Funkcje wielu zmiennych, 10. Całki podwójne PODYPLOMOWE STUDIA FINANSÓW I RACHUNKOWOŚCI PRZEDSIĘBIORSTW 15-062 Białystok ul. Warszawska 63 pok. 208 tel. (085) 7457702, fax (085) 7457702 Kierownik: dr Ryta I. Dziemianowicz Sekretariat: Grażyna Majewska Podyplomowe Studia Finansów i Rachunkowości Przedsiębiorstw istnieją od roku akademickiego 1992/1993. Przeznaczone są dla absolwentów szkół wyższych różnej specjalności. Celem studiów jest przygotowanie kadr dla przedsiębiorstw i instytucji w zakresie finansów i rachunkowości oraz przygotowanie słuchaczy do działalności usługowej w zakresie prowadzenia ksiąg rachunkowych. Studia trwają dwa semestry, kończą się zaliczeniami lub egzaminami z poszczególnych przedmiotów. Zajęcia odbywają się w formie 7 dwudniowych zjazdów w weekendy w każdym semestrze i obejmują ponad 300 godz. zajęć dydaktycznych. Studia kończą się wydaniem świadectwa ukończenia studiów podyplomowych. Wykładane są następujące przedmioty: - rachunkowość finansowa, - sprawozdawczość finansowa, - rachunek kosztów, - system podatkowy, - papiery wartościowe, - prawo cywilne, gospodarcze i administracyjne, - system informatyczny i podstawy informatyki, - wykłady okolicznościowe. Zasady naboru: - decyduje kolejność zgłoszeń. Warunki rekrutacji: - odpis dyplomu, - kwestionariusz osobowy, - podanie, - poświadczenie opłaty manipulacyjnej oraz pierwszej wpłaty czesnego. PODYPLOMOWE STUDIA MENEDŻERSKIE 15-062 Białystok ul. Warszawska 63 pok. 229 tel. (0~85) 745 77 25 fax (0~85) 741 46 85 Kierownik: dr hab. Tadeusz Truskolaski Sekretariat: Anna Kitlasz Podyplomowe Studia Menedżerskie istnieją od roku 1992. Przeznaczone jest dla absolwentów szkół wyższych, różnych specjalności. Wykładowcami są pracownicy naukowi oraz praktycy, dyrektorzy banków i specjaliści z poszczególnych dziedzin. Program i treści nauczania dostosowane są do potrzeb i wymagań rynku. Studium daje szansę nawiązania ciekawych kontaktów oraz konsultacji z wieloma specjalistami z różnych branż. Zasady naboru: decyduje kolejność zgłoszeń. Warunki rekrutacji: odpis dyplomu, kwestionariusz osobowy, podanie, opłata manipulacyjna. Studia trwają dwa semestry. Zajęcia odbywają się w formie 2-dniowych zjazdów (w soboty i niedziele) i obejmują 256 godzin zajęć dydaktycznych. Studia kończą się egzaminem i wydaniem świadectwa ukończenia studiów podyplomowych. Wykładane są następujące przedmioty: • Organizacja i zarządzanie • Zarządzanie finansami i rynek kapitałowy • Marketing • Zarządzanie zasobami pracy • Zarządzanie strategiczne • Biznes plan • System podatkowy • Funkcjonowanie gospodarki rynkowej • Rachunkowość zarządcza • Negocjacje w biznesie • Public relations • Prawo pracy • Zamówienia publiczne • Rynek i wycena nieruchomości • Zajęcia komputerowe • Seminaria - wykłady okolicznościowe Podyplomowe Studia Zarządzania Projektami Unii Europejskiej 15-062 Białystok, ul. Warszawska 63, pok. 234, tel. (085) 7457721, fax (085) 7414685 e-mail: pseig@weko.uwb.edu.pl http://www.weko.uwb.edu.pl/ Kierownik: dr Elżbieta Sulima Sekretariat: mgr Jolanta Wiszniewska Cele studiów Przekazanie praktycznych umiejętności opracowania projektu i jego zarządzania (w tym finansowego) oraz wypełniania wniosków, gwarantujących pozyskanie środków finansowych z Unii Europejskiej. Adresaci Wszystkie osoby, które są zobowiązane lub pragną z tytułu potrzeb lub planów zawodowych otrzymać wiedzę dotyczącą pozyskiwania środków finansowych z Unii Europejskiej. W szczególności program kierowany jest do: – przedsiębiorców, – pracowników administracji samorządowej, organizacji pozarządowych, – nauczycieli – absolwentów szkół wyższych – i innych osób zamierzających uzyskać kwalifikacje niezbędne do pozyskiwania środków finansowych z UE Korzyści Przygotowanie specjalistów w dziedzinie zarządzania projektami Unii Europejskiej. Studia dają możliwość nawiązania kontaktów z osobami bezpośrednio zaangażowanymi w realizację projektów finansowanych z funduszy strukturalnych Zasady naboru: decyduje kolejność zgłoszeń. Należy złożyć następujące dokumenty: – odpis dyplomu – podanie – kwestionariusz osobowy – oświadczenie – opłata manipulacyjna (85 zł wpłacona na konto) – do 21 września opłata I raty czesnego (875,-).