Klaus Bachmann*

kontakt: kbachmann[at]swps.edu.pl

Czy przestępstwa i korupcją wśród sędziów i mała sprawność sądownictwa uzasadniają konieczność radykalnej reformy sądownictwa? Twierdzi tak wielu polityków (nie tylko obozu rządowego, ale też opozycji), publicystów i zwykłych obywateli, którzy uważają sądownictwo za „część układu”, za „oderwaną od obywateli elitę” która sama się rządzi. Ale jak wygląda to w świetle statystyk rządowych i materiałów, które są w posiadaniu Ministerstwa Sprawiedliwości? Oto konfrontacja faktów z opiniami na temat polskiego sądownictwa.

Stwierdzenie 1: Sędziowie są skorumpowani i popełniają dużo przestępstw

Konkretnych, sprawdzalnych danych na ten temat nie ma i rząd ich nigdy nie przedstawił. Dane przytoczone przez przedstawicieli ministerstw i rządu są zazwyczaj fragmentaryczne, ogólnikowe i niesprawdzalne. Stosują się w tym zakresie często logikę domniemania winy (zamiast domniemania niewinności): Jeśli w ramach postępowania dyscyplinarnego uniewinniono sędziego albo umorzono postępowanie, to nie świadczy to o braku winy tego sędziego, lecz o tym, że koledzy wzięli jego stronę. Tak naprawdę był winny, ale członkowie „kasty” go nie skazali.
Przykładem może być uzasadnienie projektu ustawy o Sądzie Najwyższym, który zarzuca Sądowi Najwyższemu m.in. „wydawanie orzeczeń zgodnych z prawem ale dalekie od sprawiedliwych” i, w dalszej części, niezgodnych z tezami niektórych autorów opracowań prawniczych, w tym Marcina Warchoła, sekretarza stanu w Ministerstwie Sprawiedliwości, uważanego za faktycznego autora projektu poselskiego ustawy o SN (treść uzasadnienia, jak i sam projekt ustawy są dostępne tutaj). Podczas gdy logika praworządności każe traktować osobę podejrzaną lub oskarżoną o popełnienie przestępstwa za niewinną dopóki nie zostanie skazana prawomocnym wyrokiem sądu, logika uzasadnienia projektu sprowadza się do oskarżenia sądu o to, że nie skazał osoby, która w mniemaniu autora uzasadnienia była winna. Ta logika bywa również stosowana wobec sędziów. Najbardziej jaskrawe przykłady to wypowiedzi posła Pawła Kukiza w debacie sejmowej dot. nowelizacji ustawy o SN albo wystąpienie premier Beaty Szydło, w którym padło sformułowanie, że „każda rodzina w Polsce ma kogoś, który został skrzywdzony przez sędziów.” Zakładając model czteroosobowej rodziny przy ogólnej populacji 38 milionów mieszkańców i zaokrąglając liczbę sędziów do 10 000, to każdy sędzia musiał w obrębie ostatnich lat „skrzywdzić” ok. 1000 osób. Jest to o tyle nierealistyczne, że większość obywateli ma bardzo rzadko kontakt z sądami i że, przynajmniej w obrębie prawa cywilnego, sądy orzekają na korzyść jednej i na niekorzyść drugiej strony, wobec czego i tak mogłyby „skrzywdzić” jedynie połowę swoich klientów.

Nieco bardziej precyzyjne dane dot. korupcji i zachowań niemoralnych sędziów przynosi wywiad Marcina Warchoła, sekretarza stanu w Ministerstwie Sprawiedliwości (odpowiedzialnego m.in. za reformę sądownictwa), dla Telewizji Republika z 6.10.2016, który też zawiera kilka ogólnych oskarżeń na temat sędziów i kilka konkretnych danych dotyczących postępowań dyscyplinarnych wobec niektórych z nich (wywiad jest dostępny tutaj). Z rozmowy wynika, że 8000 skarg (na sędziów) zostało oddalonych w ramach postępowań dyscyplinarnych i że liczba ta rośnie, ale nie wiadomo, jakiego okresu dotyczą dane. Według Warchoła w ostatnich 4 latach wpłynęło do sądów dyscyplinarnych 310 wniosków (należy rozumieć, że „dyscyplinarnych”). Oznaczałoby to około 80 wniosków rocznie. Jedyna precyzyjna informacja w tym wywiadzie, to że „w 2015 roku 18 z 50 spraw uległo umorzeniu”.

Dane te są zbliżone do informacji, jakie Ministerstwo Sprawiedliwości przedstawiło w odpowiedzi na interpelacje posła Bartosza Kownackiego (interpelacja 25438) z 2014 roku (odpowiedź jest dostępna tutaj). Zgodnie z tymi danymi w latach 2010-2013 w stosunku do sędziów sądów powszechnych, zarówno czynnych zawodowo, jak będących w stanie spoczynku, toczyło się łącznie 220 postępowań dyscyplinarnych. W 2010 roku, przy ogólnej liczbie sędziów wynoszącej 11 419, toczyły się w sumie 53 postępowania dyscyplinarne. W 2011 r. ogólna liczba sędziów wynosiła 11 533 i w tym okresie toczyło się 45 postępowań dyscyplinarnych, W 2012 r. przy stanie sędziów wynoszącym 11 702 toczyło się również 45 postępowań dyscyplinarnych, w tym 38 miało związek z czynnościami służbowymi, a 7 nie było z nimi powiązane. W 2013 r. ogólna liczba sędziów wynosiła 11 748 i w tym czasie toczyło się w sumie 77 postępowań.

Jeśli nawet wszystkich 50 spraw rocznie uznać za uzasadnione i związane z przestępstwami (często są to jednak małe przewinienia, związane na przykład z niedotrzymaniem terminów), to wskaźnik przestępstw w przeliczeniu na 10 tysięcy sędziów wyniósłby nieco poniżej 50. W przypadku całej populacji kraju współczynnik przestępstw, obliczony według statystyk policji na podstawie przestępstw stwierdzonych, w przeliczeniu na 10 tysięcy obywateli wynosi 316 i jest tym samym 6- 7 razy wyższy niż w populacji sędziów. Inaczej mówiąc: prawdopodobieństwo że przeciętny obywatel popełni przestępstwo jest od sześciu do siedmiu razy większe niż prawdopodobieństwo że zrobi to sędzia (statystyki policyjne są dostępne tutaj. Zaokrąglono liczbę przestępstw stwierdzonych do 1,2 mln rocznie. Kalkulacja obejmuje również osoby w wieku poniżej 18 lat).

Stwierdzenie 2: Sądy pracują przewlekle i są mało sprawne

Według danych Instytutu Wymiaru Sprawiedliwości, który podlega Ministerstwu Sprawiedliwości (w radzie naukowej zasiada wybrany przez obecny Sejm na sędziego TK prof. Mariusz Muszyński), Polska w odniesieniu do długości postępowań spraw cywilnych i karnych zajmuje wśród państw UE pozycję w środku rankingu. Jest natomiast w czołówce pod względem obciążenia sądów sprawami nieprocesowymi (opracowanie IWS jest dostępne tutaj).

Stwierdzenie 3: Obywatele nie mają zaufania do sądów

W ostatnich latach obniżył się poziom zaufania do sądownictwa uwidoczniony w badaniach sondażowych. Tradycyjnie (i to sięgając nawet do lat 80-tych) zaufanie do instytucji państwa jest w Polsce niskie, natomiast wysokim zaufaniem cieszą się od wielu dekad przede wszystkim Kościół i wojsko.
Stosunek do instytucji państwa nie wynika ze sprawności lub niesprawności tych instytucji, co było widać w okresach, kiedy zaufanie rosło (albo spadało), podczas gdy wskaźniki mierzące efektywność danej instytucji nie ulegały zmianom. Niższe zaufanie niż do sądownictwa Polacy mają tradycyjnie do polityków, Sejmu, Senatu i rządu (nieco lepiej wygląda zaufanie do instytucji prezydenta).
Z zaufaniem jest związane zjawisko percepcji korupcji, które silnie koreluje z nieufnością wobec instytucji państwa. Od wielu lat utrzymuje się wysoki (choć z tendencją spadkową) poziom ankietowanych, którzy uważają korupcję za istotny problem w Polsce. Obecnie 48 procent uważa polityków za skorumpowanych, podczas gdy 38 procent ankietowanych jako główne siedlisko korupcji widzi służbę zdrowia, 32 procent ma taki stosunek do sądów i prokuratur, a 21 procent uważa, że administracja rządowa jest skorumpowana (wyniki badania CBOS z 2017 roku są dostępne tutaj).

Podobnie jak dane sondażowe na temat zaufania, tak i dane dot. korupcji mierzą stosunek respondentów do danego zjawiska, a nie nasilenie samego zjawiska. Z badań socjologicznych wiadomo, że jeden lub kilka (ale statystycznie mało istotnych) nagłośnionych i spektakularnych przypadków przestępstw może mieć o wiele silniejszy wpływ na stosunek respondentów do przestępczości, wymiaru sprawiedliwości i organów ścigania, niż faktyczna sprawność tych instytucji albo ogólne tendencje odnośnie przestępczości. Należy to uwzględnić przy interpretowaniu takich danych. Inaczej mówiąc: spadek zaufania do sądownictwa (lub lepiej: przekonanie o niskiej efektywności sądów i prokuratur) może też być wynikiem kampanii medialnej w mediach prorządowych, która toczy się od wielu miesięcy, i która polega na naświetleniu pojedynczych przypadków niemoralnego lub przestępczego zachowania ze strony sędziów. Przykładem tu może służyć sprawa rzekomej korupcji w Sądzie Najwyższym, od wiele lat badana przez prokuraturę krajową (podległą Ministrowi Sprawiedliwości) – bez żadnego skutku procesowego (informacje na ten temat są dostępne tutaj).

Wnioski:

Na podstawie powyższych danych można reformować sądownictwo, ale przede wszystkim odciążając sądy od nieprocesowych zadań. Nie ma racjonalnego uzasadnienia dla radykalnej reformy, a tym bardziej dla podporządkowania centralnych instytucji sądownictwa rządowi, lub jednemu ministrowi. Przestępczość wśród sędziów jest o wiele mniejsza niż wśród zwykłych obywateli, problemem jest natomiast niskie zaufanie ankietowanych do sędziów (ale i do prokuratury – a to prokurator generalny miałby uzyskać wpływ na postępowania dyscyplinarne sędziów, radców prawnych i adwokatów!).
Jeśli jednak opierać konieczność reformy na danych sondażowych, to na pierwszy ogień radykalnej reformy powinny pójść Sejm, Senat i służba zdrowia, które więcej ankietowanych uważa za siedlisko korupcji i za niegodne zaufania, niż to ma miejsce w przypadku sądów.

*Autor jest profesorem na Uniwersytecie SWPS, obecnie visiting professor w Robert Bosch Academy w Berlinie

Tekst ukazał się pierwotnie w formie wpisu na facebookowym koncie autora

Tomasz Luterek

kontakt: tomasz[at]luterek.pl

Reprywatyzacja to problem o którym należy rozmawiać bardzo serio. Aby go rozwiązać należy odpowiedzieć na fundamentalne pytania dotyczące tego czym jest dzisiejsze Państwo Polskie. Jaka jest jego mit założycielski, jaki jest jego ustrój, podstawowe wartości i cele. To pytanie czy III RP jest kontynuatorką PRL, czy powstała w wyniku kontrrewolucji antykomunistycznej i jest próbą restauracji II RP, czy może jest niedookreśloną hybrydą czy wręcz nowym tworem, który chce na gruzach swoich poprzedniczek zdefiniować się na nowo.

Przy analizowaniu zagadnienia należy uwzględnić możliwie szeroką optykę, pokazać różne aspekty reprywatyzacji, wskazać wartości nie tylko materialne, które powinno się uwzględnić przy zgłębianiu problemu. Należy bardzo mocno zasygnalizować, że reprywatyzacja to nie tylko domena nauk prawnych, ale przede wszystkim  politycznych, ekonomicznych.

Reprywatyzacja to problem, który na dużą skalę wystąpił w krajach postkomunistycznych (zwłaszcza w Europie Środkowej) i jest immanentnie związany z procesem transformacji ustrojowej od państwa komunistycznego do liberalnej demokracji. Jednym z filarów tego procesu, obok odbudowy systemu demokratycznego i wprowadzenia zasad wolnego rynku, było przywrócenie znaczenia prawa własności oraz jego przeniesienie z państwa na podmioty prywatne. Służyła temu prywatyzacja i jej szczególny przypadek – reprywatyzacja, która przywracała prawo własności przysługujące określonym podmiotom przed nacjonalizacją dokonaną w ramach tworzenia systemu komunistycznego.

Właśnie nacjonalizacja, czyli przewłaszczenie majątku prywatnego do obszaru domeny państwowej stanowi bezpośrednią przyczynę problemu reprywatyzacji. Natomiast za źródło nacjonalizacji należy uznać zderzenie doktryn politycznych państwa kapitalistycznego i państwa komunistycznego. Pojawienie się doktryn rewolucyjnych było z kolei związane z olbrzymimi dysproporcjami w dostępie do prawa własności dóbr materialnych w postfeudalnej, burżuazyjnej Europie. Było to zarzewiem konfliktów społecznych, spotęgowanych przez rozwój ruchów socjalistycznych i nacjonalistycznych. Doprowadziło to do ukonstytuowania się w XX w. państw o ustroju komunistycznym, w których znakomita większość praw własności do różnych kategorii dóbr majątkowych została przyporządkowana, w wyniku procesów nacjonalizacyjnych, do obszaru domeny publicznej. W ciągu kilkudziesięciu lat istnienia tych państw w Europie okazało się, że doktryna komunistyczna jest niewydolna gospodarczo i nie odpowiada narzuconym „oczekiwaniom” ich społeczeństw. Następstwem tego był zwrot do sprawdzonej formuły państwa demokratycznego opartego na gospodarce kapitalistycznej. Reprywatyzacja jest zatem efektem kontrrewolucji, rozumianej jako restauracja ustroju kapitalistycznego, jednym z elementów dekomunizacji, mającym na celu zadośćuczynienie za krzywdy poniesione przez byłych właścicieli, jak również elementem (od)budowy porządku społeczno-gospodarczego, w którym uznano własność prywatną za najbardziej efektywną z punktu widzenia funkcjonowania państwa.

Wydawało się, że jest to oczywista składowa procesu dekomunizacji, czyli odbudowy systemu demokratycznego i wprowadzenia zasad wolnego rynku. Co więcej, jednym z filarów procesu normalizacji stosunków własnościowych i ich upodobnienia do struktury państw niedotkniętych realizacją doktryny komunistycznej, była prywatyzacja. Reprywatyzacja, która przywracała prawo własności przysługujące określonym podmiotom przed nacjonalizacją dokonaną w ramach tworzenia systemu komunistycznego, wydawała się najprostszym i najbardziej oczywistym rozwiązaniem. Teoretycznie – a w praktyce, oceniając to po upływie 70 lat, niekoniecznie.

Tutaj dochodzimy do największego paradoksu rozliczeń w państwach postkomunistycznych, czyli do faktu, że przywrócenie stosunków własnościowych sprzed wprowadzenia ustroju komunistycznego i rekompensata za krzywdy doznane przez byłych właścicieli musiałaby się odbyć kosztem milionów obywateli, którzy żyją w ramach nowej struktury społeczno-własnościowej. Wyobraźmy sobie sytuację, w której znacjonalizowano majątki ziemskie (według nomenklatury stosowanej od lat 50-tych XX w. – duże gospodarstwa rolne), a następnie rozparcelowano je pomiędzy bezrolnych chłopów. Przywrócenie stosunków własnościowych z lat 40-tych XX wieku musiałby skutkować odebraniem im ziemi uprawianej przez dwa pokolenia. Sytuacja podobnie wyglądałaby w miastach – należałoby np. zmusić lokatorów starych kamienic do ich opuszczenia albo przyjęcia warunków nowych-starych właścicieli. Historia ta staje się jeszcze bardziej złożona w przypadku Warszawy, która w wyniku okupacji niemieckiej została w większości zburzona i celowo, metodycznie zrównana z ziemią. Dzięki gigantycznemu wysiłkowi mieszkańców całej Polski i olbrzymim nakładom wszystkich podatników, po II Wojnie Światowej odbudowano i rozbudowano to liczące w 1939 r. 1 mln 300 tys. mieszkańców miasto. Powstaje zatem pytanie, czy zwrócenie byłemu właścicielowi odbudowanej nieruchomości, która w chwili nacjonalizacji była stertą zaminowanego gruzu, jest uczciwe? A co z kredytami, które obciążały większość przedwojennych hipotek i wraz z nacjonalizacją zostały umorzone? Pojawia się więcej podobnych wątpliwości. Oczywiście można powiedzieć, że wszystko można wyliczyć, skompensować zyski i straty. Ale jeżeli tak, to należy naprawdę wszystko wyliczyć, zatem także inne krzywdy poniesione przez obywateli państwa komunistycznego. Należy wypłacić odszkodowania tym, których oszczędności zostały ogołocone w wyniku wymiany pieniędzy, tym, których sklepy zostały doprowadzone do bankructwa w czasie „bitwy o handel”, dzieciom za zamordowanie ich rodziców walczących z komunistami w imię obrony wolności, własności i demokracji, tym którzy zostali deportowani w głąb ZSRR, tym którzy musieli emigrować, tym wszystkim, którym złamano kariery za to, że nie wstąpili do partii komunistycznej, itd., itd. Naprawdę lista krzywd z czasu dyktatury komunistycznej jest nieskończenie długa i wszystkie roszczenia są jak najbardziej słuszne. Tylko powstaje pytanie kto za to powinien zapłacić? Czy dzisiejsze społeczeństwo, które obaliło komunizm?  A może komuniści i ich sowieccy mocodawcy, wspierani przez „zdradzieckich” aliantów zachodnich? Jeśli tak, to dlaczego ma być to scedowane na barki dzisiejszych podatników? Dlaczego byli właściciele nieruchomości mają być kategorią uprzywilejowaną w morzu pokrzywdzonych przez komunistów?

Na te pytania musimy sobie odpowiedzieć. Jeżeli chcemy budować dzisiejszą Polskę jako silne państwo, oparte o wspólnotę obywateli, odwołujące się do etosu solidarności to nie możemy uciekać przed odpowiedziami na tak fundamentalne pytania.

Bardzo ważnym elementem przy opracowywaniu rozwiązań reprywatyzacyjnych jest znalezienie kompromisu i stworzenie swoistej koncepcji filozoficznej. Byli właściciele muszą zrozumieć, iż pewne procesy są nieodwracalne, że czasami trzeba znaleźć rozwiązania, które są swoistym wyjściem do przodu, że nie można dochodzić swoich praw kosztem innych, wyrządzając nowe krzywdy. Z drugiej strony beneficjenci nacjonalizacji, zwłaszcza polscy chłopi i lokatorzy mieszkający w zabranych kamienicach powinni zgodzić się na transfery z budżetu państwa dla pokrycia chociażby symbolicznych świadczeń na rzecz byłych właścicieli.

 

Jak dzisiaj wygląda sytuacja z reprywatyzacją w Polsce? Jakie działania należy podjąć?

Wbrew obiegowym opiniom jest ona w dużej mierze uregulowana, choć pozostaje kilka obszarów, które wymagają zakończenia tego procesu i uregulowania ustawowego. O ile w przypadku Ziem Odzyskanych (terenów należących przed 1945 r. do III Rzeszy) i Kresów Wschodnich (terenów utraconych w 1945 r. na rzecz ZSRR) można mówić generalnie o uregulowaniu kwestii reprywatyzacyjnych, o tyle w przypadku Polski Centralnej sytuacja jest niejednorodna i daleka od całościowego uporządkowania. W odniesieniu do pewnych podmiotów: kościołów, obywateli państwa zachodnich (i byłych państw socjalistycznych) proces reprywatyzacji został zakończony. Natomiast jeśli chodzi o obywateli polskich i polskie osoby prawne, w większości przypadków należałoby oczekiwać przyjęcia przez Państwo Polskie odpowiednich regulacji prawnych w ramach tzw. reprywatyzacji ustawowej, czyli kompleksowej ustawy, czy ustaw wraz z przepisami wykonawczymi porządkującymi kwestie własnościowe i kompensacyjne dotyczące majątku przejętego przez państwo w czasie rządów komunistycznych. W związku z tym, że pomimo wielu prób proces ten nie został do dnia dzisiejszego w sposób satysfakcjonujący dla byłych właścicieli uregulowany, wielu z nich weszło na drogę tzw. reprywatyzacji sądowej nie czekając na ustawową. Reprywatyzacja sądowa przyniosła pewne efekty, niemniej generalnie dotyczy ona błędów w sztuce nacjonalizacyjnej, a zatem faworyzuje tych, którzy mieli „szczęście”, że przy nacjonalizacji należącego do nich majątku popełniono błędy, naruszając obowiązujące wówczas przepisy. Utrzymanie tego rodzaju modelu reprywatyzacji jest na rękę lobby obsługującemu cały ten proces, a więc niektórym kancelariom prawnym i współpracującym z nimi, w sposób nierzadko nielegalny, urzędnikom administracji publicznej, sędziom sądów powszechnych. Prowadzi to do wypaczenia całej idei reprywatyzacji i potęguje nierównomierne traktowanie różnych podmiotów dotkniętych skutkami regulacji nacjonalizacyjnych oraz generuje coraz większe koszty dla budżetów zarówno samorządów, jak i państwa.

Wyniki badań prowadzą do wniosków, iż na dzień dzisiejszy możliwe jest przyjęcie ustawy reprywatyzacyjnej, która nie będzie niosła za sobą potencjalnych zagrożeń dla polskiej racji stanu i finansów publicznych. Jedno z głównych zagrożeń związanych z niemieckimi roszczeniami reprywatyzacyjnymi do Ziem Odzyskanych, w świetle Ekspertyzy w sprawie roszczeń z Niemiec przeciwko Polsce w związku z drugą wojną światową (sporządzonej na zlecenie rządów Republiki Federalnej Niemiec i Rzeczypospolitej Polskiej), jak również w związku z wydanymi oświadczeniami obu rządów w kwestiach braku poparcia dla roszczeń niemieckich na Ziemiach Odzyskanych, wydaje się, że na dzień dzisiejszy, w pewnym stopniu zostało ograniczone. Również przyjęcie w 8.07.2005 r. Ustawy o realizacji prawa do rekompensaty z tytułu pozostawienia nieruchomości poza obecnymi granicami RP było ważnym krokiem dotyczącym całościowego uregulowania kwestii odszkodowawczych na jednym z trzech polskich obszarów reprywatyzacyjnych – Kresach Wschodnich. Wydaje się, że wspomniana ekspertyza z 2004 r., ustawa z 2005 r. i niezwykle doniosłe Orzeczenie Europejskiego Trybunału Praw Człowieka z 7.10.2008 r. odrzucające skargę Powiernictwa Pruskiego dają podstawy do stwierdzenia, że jedynym obszarem reprywatyzacyjnym, który oczekuje kompleksowej regulacji prawnej jest Polska Centralna.

Dzisiejsze prace nad regulacjami okołoreprywatyzacyjnymi bazują na wielu wcześniejszych rozwiązaniach, w tym powielają fundamentalną kwestię ustalania wartości majątku. Przyjmują za punkt wyjścia  dzisiejszą wartość nieruchomości, a nie tę z chwili nacjonalizacji. W Warszawie była to wartość nieruchomości w zburzonym mieście przed rozminowaniem, ekshumacją, odgruzowaniem, odbudową infrastruktury technicznej, rewitalizacją całych zniszczonych obszarów urbanistycznych, etc.  Powoduje to w sposób nieuzasadniony zwielokrotnienie wartości roszczeń.

Dlatego w nowych regulacjach reprywatyzacyjnych należy przyjąć następujące założenia, które:

  • wskazują na datę nacjonalizacji jako właściwą dla ustalenia poziomu cen i wartości świadczeń za znacjonalizowane mienie z uwzględnieniem ich waloryzacji na dzień wypłaty
  • wskazują na datę nacjonalizacji jako właściwą dla ustalenia stanu nieruchomości, w tym stanu technicznego obiektów, przeznaczenia planistycznego, obciążenia hipotecznego, należy przy tym pamiętać, że reprywatyzacja dotyczy świadczeń za mienie przejęte po wojnie i nie stanowi odszkodowania za straty wojenne
  • postulują uwzględnianie obciążeń hipotecznych przy określaniu wartości roszczeń reprywatyzacyjnych
  • preferują wypłaty świadczeń i zachowanie praw do nieruchomości aktualnych właścicieli i posiadaczy
  • wskazują na pozostający w gestii Skarbu Państwa i samorządów majątek – własność, która znajduje się „pod” użytkowaniem wieczystym (bądź wykorzystania opłat rocznych z tytułu u.w.) do zapewnienia zabezpieczenia majątkowego dla realizacji roszczeń reprywatyzacyjnych,
  • postulują wprowadzenie, wzorem prawa brytyjskiego, podatku spadkowego (Inheritance Tax) na poziomie 40% od znacznych kwot wypłacanych w ramach odszkodowań reprywatyzacyjnych (ewentualnie podatku reprywatyzacyjnego o zbliżonej konstrukcji)
  • przewidują rozłożenie wypłaty świadczeń reprywatyzacyjnych na okres 20-30 lat,
  • postulują opracowanie w ramach Polskiej Federacji Stowarzyszeń Rzeczoznawców Majątkowych standardu dotyczącego wyceny mienia przejętego przez państwo w latach 1944-1989 i uzgodnić go z Ministrem Infrastruktury i Budownictwa

Dzisiaj ustawa reprywatyzacyjna jest potrzebna nie tylko po to aby w przynajmniej minimalnym stopniu podkreślić, szacunek Państwa Polskiego i jego społeczeństwa do tradycyjnie chronionych w Polsce wartości, w tym dla prawa własności, ale również po to aby uchronić Skarb Państwa przed finansowymi skutkami wadliwych rozwiązań prawnych i efektywnie rozporządzić środkami, które będą musiały być wyasygnowane w najbliższych latach na pokrycie roszczeń wysuwanych na drodze tzw. reprywatyzacji sądowej powszechnie nazywanej, całkiem słusznie, dziką reprywatyzacją.

Chciałbym aby przedstawione założenia zostały potraktowane jako postulat de lege ferenda, będący próbą sformułowania kompromisowych rozwiązań, uwzględniających godne ochrony interesy byłych właścicieli, skorygowane o nieodwracalne zdarzenia polityczne, społeczne i gospodarcze z nieodległej przeszłości i aktualne interesy uwzględniające rację stanu Państwa Polskiego.

Wykorzystana literatura:

Luterek, Tomasz. Reprywatyzacja – źródła problemu. Warszawa 2016.

Osajda, Konrad. Nacjonalizacja i reprywatyzacja.  Wydawnictwo C. H. Beck, Warszawa 2009.

Pessel, Ryszard. Rekompensowanie skutków naruszeń prawa własności wynikających z aktów nacjonalizacyjnych. LexisNexis, Warszawa 2003.

Grzegorz Gorzelak

kontakt: gorzelak[at]post.pl

Zamieszanie wywołane wyjątkowo niechlujnie przygotowanym – i już na szczęście wycofanym – poselskim projektem ustawy o samorządzie metropolitalnym miasta stołecznego Warszawy (domniemanego) autorstwa posła PiS Jacka Sasina skłania do głębszej refleksji nad zagadnieniem zarządu metropolitalnego – instytucji, której w Polsce nie możemy się doczekać, mimo kilku prób jej powołania.

O tym, że rozwój dużego miasta trzeba rozpatrywać razem z jego bezpośrednim otoczeniem wiadomo od dawna. Warto przywołać międzywojenną koncepcję „Warszawy funkcjonalnej” autorstwa  Jana Chmielewskiego i Szymona Syrkusa – projekt „rozpięcia” aglomeracji warszawskiej wzdłuż osi północ-południe i wschód-zachód, sięgających od  Żyrardowa do Tłuszcza i od Nowego Dworu do Góry Kalwarii (z mostem na Wiśle między Piasecznem a Otwockiem). Była to nowatorskie ujęcie w skali światowej. Na przełomie lat 1960. i 70. polskie środowisko regionalistyczne intensywnie badało zasięgi aglomeracji – wtedy nazywanych „miejsko-przemysłowymi”, co zaowocowało wieloma wartościowymi publikacjami, niestety nieuwzględnionymi w polityce regionalnej i przestrzennej. W 1972 r. Biuro Planowania Rozwoju Warszawy przedstawiło wizję rozwoju aglomeracji stołecznej, w której tzw. pasmo północne – biegnące po prawym brzegu Wisły do Nowego Dworu – miało stanowić dynamiczną oś rozwoju, z nowodworskim biegunem naukowo-badawczym i biznesowy, połączonym z Warszawą szybką koleją miejską. Z koncepcji tej ostały się jedynie  blokowiska Tarchomina i Białołęki, słabo skomunikowane z centrum, a główny rozwój miasta poszedł najpierw wzdłuż pasma północnego (Łomianki), a po 1990 r. wzdłuż pasma południowego (Piaseczno), ze wszystkimi znanymi uciążliwościami komunikacyjnymi i usługowymi. Warszawa nie była tu wyjątkiem – niekontrolowane rozlewanie się miasta na okoliczne obszary, ze wszystkimi tego konsekwencjami, było także udziałem innych dużych miast Polski.

Dzieje się tak, ponieważ brak było woli politycznej rządzących dla stworzenia silnych instrumentów koordynacji procesów społecznych i gospodarczych – a także ekologicznych – na obszarze polskich wielkich miast i ich okolic. Potrzeba owej koordynacji w przypadku kilku największych miast Polski jest „oczywistą oczywistością”. Po pierwsze, układy metropolitalne (uwzględniam tu tylko 6 najważniejszych: krakowski, łódzki, poznański, śląski, trójmiejski, warszawski i wrocławski) zamieszkuje 30 procent ludności kraju, tak więc warunki życia w nich istniejące są ważne dla co trzeciego Polaka. Po drugie, tych 6 układów metropolitalnych dostarcza ok. 45 procent krajowego PKB (relacje tych proporcji wskazują, że w PKB na mieszkańca jest w nich ok. półtora razy większy, niż w pozostałych częściach kraju), a PKB tych układów rośnie szybciej, niż innych obszarów. Wreszcie, wyróżnione wyżej 6 układów metropolitalnych koncentruje ok. dwie trzecie zatrudnienia i trzy czwarte nakładów w sektorze badań naukowych i szkolnictwa wyższego oraz połowę inwestycji kapitału zagranicznego, będącego nośnikiem technologii, organizacji i dostępu do rynków światowych.

Jest więc jasne, że metropolie (jedyną metropolią ukształtowaną jest Warszawa, pozostałe wymienione miasta mają nieźle rozwinięte tzw. funkcje metropolitalne) to najważniejsze układy terytorialne: koncentracje zaawansowanych usług biznesowych i innowacyjnej gospodarki, badań naukowych, łączniki polskiej gospodarki i polskiej kultury ze światem. Od jakości ich funkcjonowania i możliwości rozwoju w znacznym stopniu zależy miejsce Polski w konkurencyjnej gospodarce globalnej. W najnowszym rankingu miast globalnych, wyznaczonym przez brytyjski ośrodek Global and World Cities, w którym uwzględnia się biznesowe powiązania firm międzynarodowych, Warszawa awansowała aż na 18 miejsce w świecie – co oddaje pozycję stolicy ważnego gospodarczo i kulturalnie (ale ostatnio już nie politycznie) kraju. W rankingach tych widoczne są – na znacznie odleglejszych miejscach – także Kraków, Poznań,  Wrocław, Katowice i Łódź).

Wielkie miasto to także wielkie problemy. W tej skali zanikają więzi lokalne, ograniczają się bowiem do co najwyżej osiedla (ale już nie wielkiego blokowiska), podmiejskiej wsi czy małego miasta. Nie można już mówić o „społeczności lokalnej” wielkiego miasta, a raczej o jego „zbiorowości”. W takiej zbiorowości poszczególne jej części funkcjonują z jednej strony względem siebie autonomicznie – w tych aspektach, w których dominuje skala lokalna – z drugiej zaś są powiązane wieloma zależnościami wynikającymi z przynależności do jednego, większego organizmu, jakim jest układ metropolitalny. Pojawiają się nieodzowne sprzeczności interesów, a nawet konflikty, tak między poszczególnymi częściami składowymi tego układu, jak i między funkcjami lokalnymi i metropolitalnymi (to zagadnienie nie było jak dotąd bliżej badane). Pojawia się wiele dysfunkcjonalności, wynikający z braku kontroli i oddziaływania na procesy żywiołowe i spontaniczne, takie jak rozlewanie się wielkiego miasta, nadmierna presja na infrastrukturę nienadążającą za tymi procesami, wyludnianie się centrów miast (więc i spadek dochodów, bo podatki idą za ludźmi), upadek handlu i usług koncentrujących się poza centrum, a  nawet poza miastem.

Nie jest więc zaskakujące, że w ostatnim czasie podejmowano różne próby, tak w skali ogólnopolskiej, jak i regionalnej, zmierzające do utworzenia „zarządu metropolitalnego”. Uchwalona w 2003 r., a obowiązująca do dziś ustawa o planowaniu i zagospodarowaniu przestrzennym powoływała „obszary metropolitalne”, które ma wyznaczyć Koncepcja przestrzennego zagospodarowania kraju, dla których marszałek danego województwa ma obowiązek opracować plan przestrzennego zagospodarowania. W 2008 rozgorzała dyskusja nad powołaniem od 7 (według Michała Kuleszy) do 12 (zgodnie z propozycjami ówczesnego szefa MSWiA Grzegorza Schetyny) metropolii – miast z ich bezpośrednim otoczeniem o specjalnym, wzmocnionym statusie. Koncepcji tej przeciwstawiał się prezydent Lech Kaczyński, mówiąc w sejmie o niebezpieczeństwach nadmiernej decentralizacji kraju (jego „landyzacji”). Nieostrożne enuncjacje rządu, iż miasta te uzyskają także znaczniejsze zasilenia ze strony środków unijnych, zwiększyły sprzeciwy i projekt upadł. W tym też okresie podjęto prace nad wyznaczeniem zasięgów obszarów metropolitalnych (zob. mapy 1 i 2), co zarówno z metodycznego jak i statystycznego (brak danych o wielu zjawiskach, np. o dojazdach do pracy, zmianach miejsca zamieszkania) jest trudne i nie może doprowadzić do jednoznacznych wyników).

 Rys. 1. Obszary metropolitalne miast wojewódzkich wg P.Śleszyńskiego, 2013

gg rys1

  Jeszcze wcześniej  – w 2007 r., po dwóch latach przygotowań – utworzono pierwszy w Polsce związek metropolitalny Silesia, skupiający wtedy 12 miast Górnego Śląska, Zagłębia Dąbrowskiego i  Zagłębia Krakowskiego, rozciągający się od Bytomia na północy do Tychów na południu i od Gliwic na zachodzie do Jaworzna na wschodzie, o powierzchni prawie 1200 km2, zamieszkiwany przez prawie 2 miliony osób.  Zestaw miast wchodzących w jego skład zmieniał się – jedne do niech wchodziły, inne z niego występowały. Niestety, inicjatywa ta nie doprowadziła do sukcesu – konkurencja o inwestycje, znikomość wspólnych środków (od 2014 r. tylko 2 mln zł, po złotówce od mieszkańca!), wewnętrzne tarcia spowodowały, że związek ten nie spełnił pokładanych w nim nadziei, a jego największym sukcesem był wspólny zakup energii.

Rys. 2. Obszary metropolitalne w Polsce wg M.Smętkowskiego, B.Jałowieckiego i G.Gorzelaka, 2009

gg rys 2

W 2015 r. poprzedni sejm już pod sam koniec kadencji uchwalił ustawę o związkach metropolitalnych, a prezydent Andrzej Duda ją podpisał. Zakładała ona powołanie zarządów metropolitalnych w postaci „zrzeszeń jednostek samorządu terytorialnego położonych w danym obszarze metropolitalnym”, tworzonych na mocy rozporządzenia rady ministrów. Było to rozwiązane ustrojowo słuszne: mieściło się w ramach samorządu terytorialnego, a jednocześnie wprowadzało obligatoryjność powołania takiego związku. Ustawa ma kilka wad,  ale była krokiem w dobrym kierunku, i należało ją poprawić i wcielać w życie. Niestety, była ona martwa – rząd nie wydał do niej rozporządzeń wykonawczych i żaden związek metropolitalny nie został na jej podstawie utworzony.

I tak dochodzimy do dnia dzisiejszego. W sejmie znalazły się dwa projekty ustaw o związkach metropolitalnych: rządowy o takim związku w województwie śląskim oraz projekt posłów Nowoczesnej o Poznańskim Związku Metropolitalnym. Projekty ustaw o związkach śląskim i poznańskim nie były kontrowersyjne (choć zaskakujące jest, że ustawa o związku śląskim uchyliła ustawę o związkach metropolitalnych z 2015 r. – czyli ustawa szczegółowa uchyla ustawę ogólną). Obydwa projekty nawiązywały do ustawy z 2015 r. Projekt Nowoczesnej o związku poznańskim został odrzucony przez sejmową większość już w pierwszym, czytaniu, a ustawa o związku śląskim została uchwalona. Można domniemywać, że stanie się wzorcem dla ewentualnych kolejnych inicjatyw tego typu, przy czym złagodzeniu ulegnie wymóg odnoszący się do liczy mieszkańców takiego związku (w ustawie śląskiej wynosi on aż 2 mln).

Jak pamiętamy, rozwiązania odmienne od powyższych projektów przyjmował projekt ustawy warszawskiej. Zamiast tworzyć związek metropolitalny, którego powołanie wymagałoby zgody większości gmin, zaproponowano powołanie nowej kategorii: metropolitalnej jednostki samorządu terytorialnego. Jest to prawnie dopuszczalne – konstytucja nie przesądza o charterze jednostek samorządu terytorialnego, wymienia bowiem jedynie gminę, utworzenie innych jednostek (czyli obecnych powiatów i województw) odsyła do ustaw. Projekt spotkał się z powszechną krytyką, w której wskazywano na rzeczywiste powody jego zgłoszenia („odbicie” Warszawy z rąk PO, choć analizy wyników wyborów pokazują, że nie jest takie oczywiste), niewłaściwą delimitację przestrzenną (zob. mapę 3, na której zaznaczono kilka zasięgów oddziaływania Warszawy, wyznaczonych dla różnych potrzeb i przy różnych kryteriach), brak konsultacji i zgłoszenie projektu z zaskoczenia, brak poprzedzających studiów i diagnoz, prawdopodobną niekonstytucyjność, nieunikniony chaos zarządzania nową jednostką. Wiele złego o nim było powiedziane, nie ma więc potrzeby przytaczać tych argumentów. Przytłaczająca większość mieszkańców dwóch gmin, w których zorganizowano dotychczas na ten temat referenda (Legionowo i Nieporęt), odrzuciła ten sposób integracji metropolitalnej. Można przypuszczać, że podobnymi wynikami zakończyłyby się referenda w kolejnych gminach.

Rys. 3. Różne koncepcje obszaru metropolitalnego Warszawy (opracowanie własne)

gg rys 3

Jak więc należy uregulować zarządy metropolitalne kilku dużych miast Polski i otaczających je gmin? Po pierwsze, najlepszą formą prawną są związki metropolitalne, które mogą być obligatoryjnie powoływane przez rząd, jednak przy zachowaniu wymogu uzyskania zgody znacznej większości gmin wchodzących potencjalnie do takie związku (70 procent zakłada ustawa „śląska”, słusznie eliminując członkostwo powiatów – czego nie czyni projekt poznański). Zasięgi terytorialne powinny być zbliżone (o ile nie wręcz identyczne) z zasięgami Zintegrowanych Inwestycji Terytorialnych – instrumentu wymuszonego przez Komisję Europejską w celu racjonalizacji wydawania środków unijnych w wielkich miastach i ich otoczeniu. Porównanie granic „metropolii warszawskiej” proponowanej przez PiS i warszawskiego ZIT wskazuje, że granice tego ostatniego obejmują kilka gmin ważnych dla funkcjonowania całego obszaru metropolitalnego (np. Nowy Dwór z Modlinem, którego lotnisko wraz z Okęciem ma tworzyć „duoport), pominiętych w propozycji PiS.

Rada (zgromadzenie) związku powinna być tworzona przez reprezentantów gmin wchodzących w jego skład. Przyjęta w ustawie „śląskiej” zasada  tzw. podwójnej większości (większość delegatów gmin w zgromadzeniu i większość mieszkańców), właściwa dla związku śląskiego, wydaje się być za słaba w odniesieniu do liczby mieszkańców w innych przypadkach, w których największe miasto może zdominować takie glosowania (w ustawie poznańskiej proponowano, by Poznań miałby tylko 40% głosów, co słusznie osłabiałoby wpływ tego miasta na decyzje związku).

  Przyjęte w  ustawie śląskiej dochody związku jako 5 procent wpłat PIT (oznacza to, że o tę wielkość zostaną pomniejszone dochody państwa) mogłyby zostać utrzymane w kolejnych przypadkach tworzenia związków metropolitalnych, podobnie jak możliwość nabycia mienia przez związek metropolitalny m.in. w drodze porozumienia z gminami lub powiatami, wchodzącymi w jego skład. Ustawa „śląska” szczegółowo przedstawia źródła finansowania, jednak w ogóle nie czynił tego projekt poznański, co było jego słabością. Zasady porozumienia powinny być precyzyjnie określone, by porozumiewające się strony miały równe prawa.

Widzimy więc, że są pewne szanse na tworzenie związków metropolitalnych w Polsce, choć szkoda, że nie dzieje się tak na mocy jednej, ogólnej ustawy, lecz przybiera formę aktów jednostkowych. W kolejce niewątpliwie czeka Trójmiasto, także Kraków, Wrocław, może Łódź, Bydgoszcz-Toruń. I na pewno Warszawa, której należy oszczędzić szkodliwej rewolucji ustrojowej. Prymat czystego partyjnego interesu politycznego już ugiął się przed racjonalnością. Jest to kolejny dowód na to, że zmasowany sprzeciw, tak ekspercki, a szczególnie publiczny, jest w stanie zablokować takie zapędy. Nie ustawajmy w nim.

Wykorzystana literatura:

Smętkowski, M., B. Jałowiecki, et al. (2009). „Obszary metropolitalne w Polsce – diagnoza i rekomendacje.” Studia Regionalne i Lokalne 35(1): 52-73.

Śleszyński, P. (2013). „Delimitacja Miejskich Obszarów Funkcjonalnych stolic województw.” Przegląd Geograficzny 85(2): 173–197.

Michał Brzeziński

kontakt e-mail : mbrzezinski[at]wne.uw.edu.pl

Twitter: @BrzezinskiMich

Czy nierówności dochodowe w Polsce rosną?

Odpowiedź na pytanie o wzrost nierówności dochodowych w Polsce nie jest łatwa ze względu na fakt, że jakość i porównywalność w czasie danych o dochodach indywidualnych polskich gospodarstw domowych jest ograniczona. Metodologia, którą posługuje się GUS w Badaniu Budżetów Gospodarstw Domowych (BBGD), które jest głównym źródłem danych ankietowych o dochodach i wydatkach polskich gospodarstw domowych, zmieniała się kilkukrotnie od początku lat 90. zeszłego wieku (m.in. w 1993 i 1998), co utrudnia skonstruowanie porównywalnych w czasie danych o dochodach. Różne badania nierówności używają ponadto odmiennych miar nierówności, opierają się na nieporównywalnych koncepcjach dochodów (np. dochody przed opodatkowaniem i transferami społecznymi, dochody po opodatkowaniu i transferach itp.), jak również uwzględniają różne skale ekwiwalentności, które umożliwiają porównanie dochodów gospodarstw domowych o różnej liczebności i składzie demograficznym. W związku z tym istniejące oszacowania poziomów i zmian nierówności w czasie dla Polski bardzo się różnią. Rys. 1 przedstawia różne oszacowania indeksu Giniego dla Polski. Indeks Giniego, który jest najbardziej popularną miarą nierówności, przyjmuje w ujęciu procentowym wartość 0 dla równego rozkładu oraz wartość 100 dla całkowicie nierównego rozkładu. Jest on równy średniej absolutnej różnicy pomiędzy dwoma losowo wybranymi dochodami z badanej populacji, którą w celu normalizacji dzielimy przez podwojony średni dochód dla tej populacji.

Rys. 1. Nierówności dochodowe (współczynnik Giniego) w Polsce według różnych źródeł i definicji dochodów

rys1-nierownosci

Źródło: Galbraith i in. (2015).

Jakkolwiek pomiędzy różnymi seriami Giniego dla Polski występują istotne różnice, to większość z nich wskazuje zauważalny wzrost nierówności dochodowej w okresie po 1989 roku, który trwa do mniej więcej roku 2004. Z kolei w ciągu ostatniej dekady obserwujemy stabilizację lub nawet pewne obniżenie indeksu Giniego. Rys. 2 przedstawia ewolucję indeksu Giniego dla Polski i krajów regionu obliczonego przy zastosowaniu tej samej skali ekwiwalentności (dochód gospodarstwa domowego jest podzielony przez pierwiastek z liczby jego członków) i wspólnej koncepcji dochodu (dochód do dyspozycji, czyli po odjęciu podatków dochodowych i dodaniu transferów społecznych). Dane pochodzą z Luxembourg Income Study Database – międzynarodowej bazy danych porównywalnych między krajami (baza jest dostępna tutaj).

Rys. 2. Indeks Giniego dla ekwiwalentnych dochodów do dyspozycji (Polska i inne kraje Europy Środkowo-Wschodniej)

rys-2-nierownosci

Źródło: Luxembourg Income Study Database.

Rys. 3. Indeks Giniego dla ekwiwalentnych dochodów do dyspozycji (Polska i inne kraje wysoko rozwinięte)

rys-3-nierwownosci

Źródło: Luxembourg Income Study Database.

Ze względu na wspomniane wcześniej zmiany w metodologii GUS okresy do 1995 i po 1998 roku są dla Polski nieporównywalne. Widać jednak wyraźnie, że w obu okresach – 1992-1995 i 1999-2004 – nastąpił w Polsce wyraźny wzrost nierówności dochodowej. Wartość indeksu Giniego wzrosła o około 10% w każdym z tych okresów. W porównaniu do innych krajów regionu, nierówność dochodowa była w Polsce w roku 2013 umiarkowanie wysoka – wyraźnie wyższa, niż w Czechach, Słowacji czy na Węgrzech, lecz jednocześnie niższa, niż w krajach bałtyckich czy w Rosji.

Rys. 3 przedstawia porównanie indeksu Giniego dla Polski i bogatych krajów Zachodu. Rysunek wyraźnie pokazuje, że w większości tych krajów w ostatnich dekadach doszło do znaczącego wzrostu nierówności dochodowych. Trend wzrostowy Giniego dla Polski w okresie 1999-2013 wydaje się zbieżny ze wzrostem nierówności dochodowych, który zachodził w tym okresie w wielu krajach zachodnich. W roku 2013 poziom nierówności sytuował Polskę wśród krajów o raczej wysokim, choć nie najwyższym poziomie nierówności. Wyższy poziom nierówności dochodowej niż Polska miały w roku 2013 tylko niektóre liberalne kraje anglosaskie (Wielka Brytania, USA) oraz kraje Europy Południowej (Hiszpania, Włochy).

Wiele nieporozumień w debacie o polskich nierównościach bierze się z faktu, że europejskie badanie ankietowe The European Union Statistics on Income and Living Conditions (EU-SILC) pokazuje dla Polski znaczący spadek nierówności dochodowej po roku 2004. Według tego badania indeks Giniego dla ekwiwalentnych dochodów do dyspozycji w roku 2004 wyniósł 35,6 a w roku 2007 już tylko 32,2. Dane BBGD (por. rys. 2-3) takiego istotnego spadku nierówności w Polsce nie dokumentują. Należy jednak pamiętać, że badanie EU-SILC zostało rozpoczęte dopiero w roku 2004 i w związku z tym jego początkowe wyniki należy traktować z dużą ostrożnością. Wyników tych nie potwierdzają również dane o nierówności dochodowej zaczerpnięte z innych źródeł – np. podatkowych (por. artykuł M.Kośnego tutaj).

Poważnym problemem ograniczającym wiarygodność wnioskowania o zmianach nierówności w Polsce na podstawie istniejących danych ankietowych jest niewystarczająca reprezentatywność gospodarstw osiągających wysokie dochody. Gospodarstwa tego typu zwykle częściej odmawiają uczestnictwa w statystycznych badaniach ankietowych. Skutkiem tego jest niedoszacowanie miar nierówności obliczonych na podstawie standardowych próbek. Jednym z możliwych rozwiązań omawianego problemu jest oszacowanie dochodów osób osiągających najwyższe dochody przy użyciu raczej danych z zeznań podatkowych, niż danych pochodzących z badań ankietowych (zob. np. Atkinson i in. 2011 tutaj). W przypadku Polski indywidualne dane z zeznań podatkowych nie są generalnie publicznie dostępne. Jedyna opublikowana dotychczas praca wykorzystująca tego typu dane to (dostępny tutaj) artykuł M. Kośnego (2012), wykorzystująca dane dochodowe z zeznań podatników z województwa dolnośląskiego w okresie 2006-2010. Badanie to pokazuje, że dochody brutto (przed opodatkowaniem i transferami) najzamożniejszych gospodarstw badanych w BBGD są wyraźnie zaniżone. O ile udział 10% osób osiągających najwyższe dochody brutto w całkowitym dochodzie społeczeństwa wynosił według BBGD w roku 2010 około 27%, to według danych z zeznań podatkowych jest to aż 40%. Inne, nieopublikowane dotychczas badania, pokazują, że zarówno wysokość, jak i zmiany w czasie poziomów nierówności dla dochodów brutto w Polsce obliczone dla danych z zeznań podatkowych znacznie różnią się od wartości uzyskanych na podstawie danych ankietowych. W bliskiej przyszłości możemy zatem spodziewać się, że dotychczasowa wiedza o nierównościach dochodowych w Polsce ulegnie znaczącej rewizji.

Warto również dodać, że począwszy od roku 2016 poziom nierówności dochodowych w Polsce ulega obniżeniu ze względu na wprowadzenie świadczenia wychowawczego „Rodzina 500+”. Według symulacji przeprowadzonych przez Goraus i Inchauste (2016, raport dostępny tutaj) świadczenie to obniży indeks Giniego dla dochodów ekwiwalentnych w Polsce o ok. 3 punkty procentowe (z 34.3 do 31.3). Jakkolwiek „Rodzina 500+” prowadzi do znaczącej w sensie absolutnym obniżki nierówności dochodowych, to trzeba również zauważyć, że czyni to mniej efektywnie, niż wiele innych transferów społecznych (m.in. emerytury czy świadczenia z pomocy społecznej). Jest to spowodowane faktem, że transfery w ramach programu „Rodzina 500+” trafiają nie tylko do biednych i relatywnie biednych, ale także do klasy średniej i bogatych Polaków, którzy posiadają przynajmniej dwoje dzieci.

Dlaczego nierówności dochodowe w Polsce wzrosły?

Prawdopodobnie najważniejszym czynnikiem odpowiedzialnym za wzrost nierówności dochodowych w Polsce w okresie transformacji gospodarczej był gwałtowny wzrost nierówności płac (Keane i Prasad 2006 oraz Newell i Socha 2007 piszą o tym w artykułach tutaj i tutaj). Związane było to z rosnącą premią edukacyjną dla dobrze wykształconych pracowników zatrudnionych w zawodach wymagających wysokich kwalifikacji. W warunkach gospodarki rynkowej płacowa premia edukacyjna, która w czasach socjalizmu nie istniała lub była bardzo niska, zwiększyła się znacznie sięgając ostatecznie poziom bliski krajom wysoko rozwiniętym. Innym czynnikiem, który może tłumaczyć wzrost nierówności dochodowych w Polsce jest cykl koniunkturalny. Wzrost nierówności dochodowych w Polsce w okresie 1998-2004 nakłada się na okres spowolnienia gospodarczego lat 1998-2002, kiedy to znacząco i długotrwale wzrosło bezrobocie. Inne czynniki, które często są wymieniane w literaturze przedmiotu jako potencjalne przyczyny wzrostu nierówności, takie jak globalizacja, transfer aktywów z sektora publicznego do prywatnego, wzrost samozatrudnienia, rosnąca rola dochodów z własności i dochodów ze źródeł finansowych wydają się mieć w przypadku Polski mniejsze znaczenie (zob. Brzeziński i in. 2013 –tutaj). W okresie 2005-2014 obserwujemy stabilizację poziomu nierówności dochodowych w Polsce, a nawet niewielki ich spadek. W niedawnej (dostępnej tutaj) pracy Myck i Najsztub (2016) szacują, że 44% spadku wartości indeksu Giniego w tym okresie (z 35,1 w 2005 r. do 34,3 w 2014 r.) można przypisać reformom systemu podatkowo-świadczeniowego. Najważniejsze z tych reform to wprowadzenie ulgi podatkowej na dzieci w roku 2007 i rozszerzenie jej w roku 2014 dla rodzin z niskimi dochodami, jak również reformy systemu świadczeń rodzinnych, które zwiększyły zakres pomocy dla biednych rodzin z dziećmi. Czynnikami, które przyczyniały się do wzrostu nierówności dochodowych były zmiany systemu podatkowego, a w szczególności zlikwidowanie od 2009 roku 40-procentowej stawki podatkowej dla najwyższych dochodów oraz zamrożenie takich parametrów systemu podatku dochodowego jak próg podatkowy, koszty uzyskania przychodu i kwota wolna od opodatkowania.

Z drugiej strony istotnym czynnikiem rynkowym, który wpłynął na obniżenie nierówności dochodowych był spadek nierówności płacowych, pomimo stosunkowo silnego wzrostu gospodarczego w okresie 2005-2014. Jak pokazują autorzy omawianej pracy, nierówności płacowe mierzone indeksem Giniego spadły z 41,9 w roku 2005 do 38,4 w roku 2014. Spowodowane było to, między innymi, wzrostem poziomu wykształcenia Polaków, jak również nasiloną migracją z Polski po roku 2004. W odniesieniu do pierwszego z tych czynników należy dodać, że rosnący poziom wykształcenia stowarzyszony był ze spadającą premią edukacyjną z wykształcenia. O ile zwrot z wyższego wykształcenia w roku 2005 wynosił około 60% (w stosunku do osób posiadających co najwyżej podstawowe wykształcenie), to w roku 2014 już tylko około 40%. W przypadku wykształcenia średniego premia edukacyjna spadła z 31% do 24%.

W tym miejscu warto odnieść się do danych o nierównościach płacowych, które gromadzi Eurostat na podstawie przeprowadzanego co 4 lata badania Structure of Earnings Survey (Eurostat 2016). Ostatnia runda tego badania z roku 2014 (omówienie wyników jest dostępne tutaj) pokazuje, że nierówności w stawkach godzinowych płacy brutto (mierzone indeksem zróżnicowania decylowego, czyli stosunkiem dziewiątego decyla rozkładu do pierwszego decyla) były w Polsce najwyższe spośród krajów UE. Było to skutkiem dużego odsetka samozatrudnionych oraz zatrudnionych na podstawie umów cywilnoprawnych, co jest charakterystyczne dla polskiej gospodarki w ostatnich latach. Rezultat ten jest niezależny od przyjętej miary nierówności oraz od sposobu w jaki mierzymy płace. Salverda i Checchi (2014) pokazują, że Polska obok Grecji i krajów bałtyckich jest krajem o najwyższych nierównościach płacowych brutto, gdy nierówności mierzymy indeksem Giniego zastosowanym do rocznych zarobków pracowników. Wysokie, choć spadające w czasie, nierówności płacowe są w Polsce przekładają się na umiarkowanie wysokie nierówności dochodowe ze względu na redystrybucyjną rolę transferów społecznych, a zwłaszcza emerytur i rent (Goraus i Inchauste 2016).

Nierówność szans

Innym rodzajem nierówności, która ostatnio bardzo często pojawia się w badaniach ekonomicznych jest nierówność szans. Najbardziej popularnym ekonomicznym modelem nierówności szans jest ujęcie Roemera (1998). W ujęciu tym dane wyniki osiągnięte przez jednostkę (np. dochód, stan zdrowia, poziom wykształcenia) są funkcją czynników zależnych od jednostki (takich jak np. wybór zawodu, ilości przepracowanych godzin, inwestycje w edukację, itp., które zbiorczo nazywane są „wysiłkiem”) oraz czynników na które nie ma ona wpływu (np. wykształcenie rodziców, płeć, rasa, itp.). Te ostatnie nazywane są okolicznościami („circumstances”). W ujęciu Roemera nierówności wyników powstające z tytułu nierównego wysiłku są usprawiedliwione etycznie, a te powstające w wyniku nierówności okoliczności są nieuzasadnione etycznie. Polityka równych szans powinna zatem wyrównywać te nierówności, które powstają jako skutek nierównych okoliczności.

Oszacowania nierówności szans dochodowych dla krajów europejskich (dane EU-SILC) w latach 2004 i 2010 są przedstawione na rys. 4. Rysunek przedstawia tzw. relatywną miarę nierówności szans dochodowych, która pokazuje jaką część całkowitej, standardowej nierówności dochodowej stanowi niesprawiedliwa nierówność szans, która jest wynikiem okoliczności niezależnych od działań członków danego społeczeństwa. Za okoliczności przyjęto w omawianym badaniu wykształcenie i zawody obojga rodziców respondentów oraz kraj pochodzenia respondenta. Wyniki pokazują (Polska na rys. 4 jest oznaczona jako „PL”), że dla przyjętych okoliczności około 10-11% całkowitej nierówności dochodowej w Polsce jest skutkiem czynników niezależnych od jednostek. Porównując Polskę do innych krajów europejskich widzimy, że należy ona do krajów o średnim poziomie nierówności szans dochodowych. Wyraźnie niższy poziom nierówności szans dochodowych charakteryzuje kraje nordyckie, Holandię i Niemcy. Z kolei znacznie wyższy poziom nierówności szans niż w Polsce występuje w Bułgarii, Rumunii, Luksemburgu, czy na Węgrzech.

 Rys. 4. Relatywna nierówność szans dochodowych w Europie (część całkowitej nierówności dochodowej, która jest wyjaśniana przez okoliczności niezależne od osób)

rys4-nierownosci

Źródło: Brzezinski (2015). Cały artykuł jest dostępny tutaj.

Nierówności majątkowe

Do niedawna dysponowaliśmy jedynie fragmentarycznymi danymi na temat majątków Polaków, które nie dawały jednoznacznego obrazu nierówności majątkowej. Sytuację tę zmieniło badanie zasobności gospodarstw domowych przeprowadzone przez NBP w roku 2014 (NBP 2015  – raport dostępny tutaj). Zbadano w nim majątek netto gospodarstw domowych zdefiniowany jako różnicę pomiędzy sumą aktywów (rzeczowych jak nieruchomości czy pojazdy i finansowych jak depozyty, akcje i obligacje) a sumą pasywów (kredyty i pożyczki). Wyniki tego badania pokazują, że 10% najbardziej majętnych gospodarstw domowych w Polsce posiada 37% całkowitego majątku netto, podczas gdy 20% najbiedniejszych pod względem majątku posiada ledwie 1% całkowitego majątku netto w kraju. Indeks Giniego dla majątku netto w Polsce w roku 2014 wyniósł 57,9 (przeciętnie w krajach strefy euro był zaś równy 68). Nierówności majątkowe są zatem w Polsce relatywnie niskie w porównaniu do innych krajów europejskich. Wynika to w dużej mierze z faktu, iż wysokie majątki charakterystyczne dla krajów z wysoką nierównością majątkową często powstają w wyniku wielopokoleniowej akumulacji i dziedziczenia. Procesy te w Polsce i w innych krajach regionu zostały w dużej mierze wstrzymane w okresie panowania socjalizmu państwowego. Rys. 5 pokazuje rozkład majątku netto w krajach europejskich w roku 2014 przy użyciu miary nierówności będącej odległością między 25 a 75 percentylem rozkładu (25 percentyl oznacza taki majątek netto od którego 25% najbiedniejszej populacji posiada niższy majątek netto). Rysunek wskazuje, że niskie nierówności majątkowe poza Polską występują także w Estonii, Grecji, Słowacji, na Węgrzech i na Łotwie.

Rys. 5. Rozkład majątku netto w krajach europejskich (tysiące euro, 2014)

rys5-nierownosci

Źródło: Household Finance and Consumption Network (2016).

Badanie majątków netto przeprowadzone przez NBP jest badaniem ankietowym i w związku z tym dotknięte jest – podobnie jak badania ankietowe dochodów – problemem niewystarczającej reprezentatywności osób najbogatszych. W badanej próbce nie występują osoby posiadające największe majątki, które sięgają miliardów złotych i są tysiące lub dziesiątki tysięcy razy większe, niż średni majątek w Polsce. Oznacza to, że nierówności majątkowe są w rzeczywistości wyraźnie większe, niż przedstawione na rys. 5. Problem ten można próbować rozwiązać łącząc anonimowe dane ankietowe z danymi o majątkach najbogatszych ludzi, które publikowane są w czasopismach typu Forbes (zob. np. Forbes 2016 tutaj). W przypadku Polski tego typu badanie nie zostało jeszcze przeprowadzone, ale można oprzeć się na prostej mierze nierówności majątkowej, która pokazuje jaką rolę w danym kraju odgrywają majątki najbogatszych mieszkańców. Rys. 6 pokazuje stosunek sumy majątków osób najbogatszych w danym kraju w stosunku do PKB tego kraju. Jako osoby najbogatsze potraktowano osoby obecne na międzynarodowej liście Forbes – The World’s Billionaires List. Rysunek wskazuje, że przyjęta miara nierówności majątkowej ma dla Polski wartość ledwie 1,3%. Jest to jedna z najniższych wartości w próbce krajów, których obywatele znajdują się na międzynarodowej liście Forbes. Oznacza to, że majątki najbogatszych Polaków są relatywnie niewielkie w porównaniu do majątków najbogatszych osób w innych krajach. Tym samym uwzględnienie majątków najbogatszych osób nie zmieniłoby znacząco relatywnie niskiej pozycji Polski pod względem nierówności majątkowych. Pokazuje to również, że ekonomiczna siła osób najbogatszych w Polsce, a w związku z tym również możliwość oddziaływania przez nie na procesy polityczne w naszym kraju, jest relatywnie niewielka.

Rys. 6. Stosunek sumy majątków osób najbogatszych w stosunku do PKB a PKB per capita w roku 2016

rys-6-nierownosci

Źródło: obliczenia własne na podstawie danych Forbes – The World’s Billionaires List.

Wykorzystana literatura

Atkinson, A. B., T. Piketty, E. Saez (2011). Top Incomes in the Long Run of History, „Journal of Economic Literature”, Vol. 49, No. 1, s. 3-71.

Brzezinski, M., Jancewicz, B., Letki, N. (2013). Growing inequalities and their impacts in Poland, GINI Growing In-equalities’ Impact Country Report for Poland, Amsterdam 2013

Brzezinski, M. (2015). Inequality of opportunity in Europe before and after the Great Recession. University of Warsaw – Working Papers, No.2/2015 (150).

Eurostat (2016). http://ec.europa.eu/eurostat/statistics-explained/index.php/Earnings_statistics

Forbes (2016). 100 najbogatszych Polaków, http://100najbogatszychpolakow.forbes.pl.

Galbraith J. K., Halbach B., Malinowska A., Shams A., Zhang W. (2015). „The UTIP Global Inequality Datasets: 1963-2008,” WIDER Working Papers 019, World Institute for Development Economic Research (UNU-WIDER).

Goraus, K. M.; Inchauste Comboni, M. G. (2016). The distributional impact of taxes and transfers in Poland. Policy Research working paper; no. WPS 7787. Washington, D.C.: World Bank Group.

Household Finance and Consumption Network (HFCN) (2016). “The Eurosystem Household Finance and Consumption Survey—Results from the Second Wave.” ECB Statistics Paper no. 18.

Keane, M. P., Prasad, E. S. (2002). Inequality, Transfers, And Growth: New Evidence From The Economic Transition In Poland, “Review of Economics and Statistics”, vol. 84(2), s. 324-341.

Kośny, M. (2012). Upper Tail of the Income Distribution in Tax Records and Survey Data: Evidence from Poland, artykuł zaprezentowany na 32nd International Association for Research in Income and Wealth Conference, Boston, USA.

Myck M.,  Najsztub, M. (2016). Distributional consequences of tax and benefit policies in Poland: 2005-2014, CenEA Working Paper Series WP02/16.

Newell, A., Socha, M. W. (2007). The Polish wage inequality explosion, “Economics of Transition”, vol. 15, s. 733-758.

NBP (2015). Zasobność gospodarstw domowych w Polsce Raport z badania pilotażowego 2014 r. Departament Stabilności Finansowej Warszawa, 2015 r.

Roemer, J. E. (1998). Equality of Opportunity. Harvard, Harvard University Press.

Salverda, W., Checchi, D., (2014). „Labour-Market Institutions and the Dispersion of Wage Earnings,” IZA Discussion Papers 8220, Institute for the Study of Labor (IZA).

 

Jakub Rok

kontakt : j.rok[at]uw.edu.pl

Temat zanieczyszczenia powietrza w Polsce jest coraz częściej podejmowany w mediach – także społecznościowych – jednak w obiegu funkcjonują głównie wycinkowe informacje, nie pozwalające na bardziej całościową ocenę tego problemu (wyjątkiem jest opublikowany niedawno raport UN Global Compact). Dodatkowo, alarmistyczny ton organizacji społecznych, zwracających uwagę na wysokie stężenia zanieczyszczeń, często spotyka się z uspokajającą reakcją przedstawicieli władz publicznych, wskazujących m.in., że następuje poprawa jakości powietrza (tutaj), że sytuacja nie jest groźna dla zdrowia (tutaj), lub, że dane prezentowane przez stronę społeczną są niewiarygodne (tutaj). W tym tekście przyjrzymy się dokładniej problematyce zanieczyszczenia powietrza w Polsce, koncentrując się przede wszystkim na wynikach pomiarów – na tle europejskim i w odniesieniu do norm dla poszczególnych zanieczyszczeń. Przyjrzymy się także źródłom zanieczyszczeń, by lepiej zrozumieć charakter problemu i (nie)możliwości jego rozwiązania. Zaczniemy jednak od systemu pomiarowego, czyli odpowiedzi na pytanie co i jak jest mierzone.

Jak w Polsce mierzy się zanieczyszczenie powietrza?

Pomiar zanieczyszczenia powietrza w Polsce jest realizowany przez Inspekcję Ochrony Środowiska, która dysponuje siecią około 250 stacji monitorujących jakość powietrza. Ocena jakości powietrza pod kątem ochrony zdrowia bierze pod uwagę 12 rodzajów zanieczyszczeń – dwutlenek siarki (SO2), dwutlenek azotu (NO2), tlenek węgla (CO), ozon (O3), benzen (C6H6), pył zawieszony PM2.5, pył zawieszony PM10 i zanieczyszczenia oznaczane w tym pyle: arsen (As), ołów (Pb), nikiel (Ni), kadm (Cd) i benzo(a)piren (B[a]P). Dokładniejszy opis tych substancji jest dostępny tutaj (str. 16). Bieżące wyniki pomiarów można sprawdzać np. w aplikacji mobilnej (tutaj), a archiwalne dane są dostępne w Banku Danych Pomiarowych na Portalu Jakości Powietrza (tutaj), a także w unijnej bazie Air Data Explorer (AIDE) (tutaj).  Z prawnego punktu widzenia kluczowy jest doroczny raport Głównego Inspektoratu Ochrony Środowiska, który sprawdza ewentualne przekroczenia limitów stężeń ww. substancji w 46 strefach, na które podzielona została Polska. Jeśli stężenie przekracza normę, władze województwa są zobowiązane do przygotowania Programu Ochrony Powietrza, definiującego jak rozwiązany zostanie ten problem.

Przyjrzyjmy się teraz limitom stężeń, o których wspomnieliśmy w poprzednim akapicie. Kto je zdefiniował i na jakiej podstawie? Normy obowiązujące w polskim prawie są przeniesieniem regulacji unijnych, zawartych w dwóch dyrektywach, tj. (1) CAFE: w sprawie jakości powietrza i czystszego powietrza dla Europy z 2008 roku oraz (2) w sprawie arsenu, kadmu, rtęci, niklu i WWA w otaczającym powietrzu z 2004 roku. Swoje wytyczne dot. dopuszczalnego – z punktu widzenia zdrowia publicznego – poziomu stężeń publikuje także Światowa Organizacja Zdrowia (tutaj). Normy WHO są bardziej restrykcyjne.

Jaki jest stan powietrza w Polsce?

Opisanie wyników dla wszystkich zanieczyszczeń zajęło by zbyt wiele miejsca, dlatego  skupimy się na PM10, PM2.5 oraz B[a]P. Po pierwsze, to w przypadku tych substancji najczęściej przekraczane są limity zdefiniowane w polskim prawie. Po drugie, to związki, które w największym stopniu przyczyniają się do negatywnych konsekwencji zdrowotnych (wraz z NO2 i O3).  Więcej o wpływie zanieczyszczeń powietrza na zdrowie ludzi w publikacjach dostępnych tutaj, tutaj i tutaj.

Zanieczyszczenie powietrza można analizować z dwóch różnych perspektyw: (1) emisji, tj. ilości danej substancji uwalnianej do atmosfery na określonym obszarze, z określonych źródeł oraz (2) stężenia (imisji), czyli ładunku danej substancji w powietrzu, w danym punkcie/obszarze. Emisja wyrażana jest zwykle w tonach i jest łatwiejsza do przestrzennej agregacji. Z kolei stężenie jest podawane najczęściej w mikrogramach (μg) na metr sześcienny i jest efektem emisji oraz dyspersji, czyli przemieszczania się zanieczyszczeń.

PM10 i PM2.5

Za tym skrótem kryje się pył zawieszony o średnicy ziaren, odpowiednio, poniżej 10 mikrometrów i poniżej 2,5 mikrometra (czyli PM2.5 zawiera się w PM10). Na ich powierzchni zaadsorbowane są toksyczne zanieczyszczenia, wśród nich np. benzo(a)piren, metale ciężkie i silnie trujące dioksyny. Drobny pył wnika do organizmu przez drogi oddechowe (PM2.5 jest tak mały, że przenika także do krwioobiegu) podnosząc ryzyko wystąpienia chorób układu oddechowego, a także zawału serca, udaru mózgu i raka płuc.

Odsetek stref, w których przekroczono normy dla PM10 wyniósł w 2014 roku 91% (w latach 2010-2013 średnio 85%) (GIOŚ 2015). Problem dotyczy zwłaszcza dotrzymania normy dobowej, tj. 50 μg/m3 – dopuszczalne jest 35 dni z przekroczeniami w roku. W 2015 roku ten limit został przekroczony na około ¾ stacji pomiarowych w kraju. W kilkunastu przypadkach liczba dni z przekroczonym pułapem 50 μg/m3 wyniosła ponad 100. To właśnie ta zmienna stała u podłoża popularnego w mediach rankingu najbardziej zanieczyszczonych miast Europy (omówionego tutaj), prezentującego dane za 2011 rok. W pierwszej dziesiątce znalazło się wtedy 6 miast (de facto: stacji pomiarowych) z Polski i 4 z Bułgarii. Dane z 2014 roku (AIDE 2016) są podobne – na liście ponownie jest 6 stacji z Polski, choć zajmują średnio wyższe pozycje niż w trzy lata wcześniej. Przyjmując kryteria WHO, okazuje się, że zaledwie ok. 5% stacji w Polsce mieści się w granicach bezpiecznego stężenia średniorocznego (20 μg/m3).

W przypadku PM2.5 odsetek stref, w których została przekroczona norma wyniósł w 2014 roku 48% (w latach 2010-2013 średnio 45%). W 2015 roku około 40% stacji zanotowało średnie roczne stężenie przekraczające normę unijną, ale normę WHO przekroczyło 100% stacji. Ten wskaźnik – obliczony przez WHO – stał u podłoża kolejnego popularnego rankingu (omówionego tutaj), wskazującego, że spośród 50 najbardziej zanieczyszczonych miast UE aż 33 są w Polsce. Dane za 2015 rok (AIDE 2016) potwierdzają, że największy problem z PM2.5 ma w UE Polska, a w dalszej kolejności Bułgaria i Czechy.

Benzo[a]piren

B[a]P należy do najbardziej toksycznych zanieczyszczeń powietrza, ma charakter rakotwórczy i mutagenny. Jest jednym ze składników pyłu zawieszonego, powstającym przede wszystkim podczas spalania paliw kopalnych i biomasy.

W 2014 roku odsetek stref z przekroczoną normą dla B[a]P wyniósł 100% (w latach 2010-2013 średnio 89%). W 2015 roku tylko 3 stacje – na ponad 100 – zanotowały średnie roczne stężenie w ramach dopuszczalnego limitu. WHO stwierdza, że nie ma bezpiecznego dla zdrowia poziomu B[a]P, dlatego zamiast normy przyjmuje wartość odpowiadającą dodatkowemu prawdopodobieństwu zachorowania na raka na poziomie 0,00001 – 0,12 ng/m3 (de Leeuw, Ruyssenaars 2011). W 2015 roku 100% stacji w Polsce przekroczyło tę wartość, średnio 40-krotnie (prawie 5-krotnie w odniesieniu do normy unijnej). Polska zdecydowanie wyróżnia się wysokimi stężeniami B[a]P na tle UE. Dobrze to widać na mapie z EEA 2015, pokazującej wyniki modelowania przestrzennego dla średniego stężenia B[a]P w 2012 roku.

Rysunek 1. Śednie stężenie B[a]P w 2012 roku

bap

Stan powietrza w Polsce – podsumowanie i dynamika zmian

Najpoważniejszym problemem dla jakości powietrza w Polsce są bardzo wysokie (zagrażające zdrowiu mieszkańców) stężenia pyłów PM10 i PM2.5 oraz B[a]P. Wskazują na to zarówno zestawienia wyników pomiarów z obowiązującymi lub zalecanymi (WHO) normami, jak i relatywna pozycja Polski wśród innych państw UE.

Jak wygląda dynamika zmian, i czy w ostatnich latach obserwujemy poprawę sytuacji? Na to pytanie trudno jednoznacznie odpowiedzieć, bo sieć stacji pomiarowych PM2.5 oraz B[a]P rozwinęła się stosunkowo niedawno. Zmianę średniego rocznego stężenia tych trzech zanieczyszczeń obrazuje poniższy wykres. W przypadku B[a]P trudno mówić o jakimkolwiek trendzie. PM10 pozostaje na podobnym poziomie jak 10 lat temu, choć w ostatnich latach istnieje wyraźny trend spadkowy. W przypadku PM2.5 także widoczny jest trend spadkowy, choć – biorąc pod uwagę wysoką korelację między stężeniami dwóch rodzajów pyłu – można zakładać, że w dłuższej perspektywie czasowej zmiana nie jest tak jednoznaczna. Jak zauważają Jędrak i in. (2016), za obserwowaną tendencją spadkową mogą stać także łagodniejsze zimy, przekładające się na mniejsze zużycie energii do ogrzewania.

Rysunek 2. Średnie roczne stężenie PM10, PM2.5 i B[a]P na stacjach pomiarowych w Polsce, 2005-2015

stezenia

Źródło: opracowanie własne, na podstawie Banku Danych Pomiarowych GIOŚ

Dane o łącznej wielkości emisji PM10, PM2.5 i B[a]P mają dłuższy szereg czasowy – przedstawia je poniższy wykres. W okresie ostatnich dwudziestu lat emisja pyłów spadła o około 1/3, a B[a]P o kilkanaście procent. Najwyraźniejsze spadki były notowane jeszcze w latach 90., kiedy transformacji podlegał polski przemysł ciężki i energetyka (zamykanie zakładów, inwestycje w filtry zanieczyszczeń). W ostatnich latach emisje pyłów znowu zaczęły spadać, a B[a]P – nieznacznie rosnąć.

Rysunek 3. Łączna emisja PM10, PM2.5 i B[a]P w Polsce, w latach 1995-2014

emisja

Źródło: opracowanie własne, na podstawie LRTAP database

Źródła zanieczyszczeń

Wiemy już jakie zanieczyszczenia stanowią najistotniejszy problem. Żeby lepiej zrozumieć jego charakter musimy sprawdzić, jakie są źródła pyłów zawieszonych i B[a]P w polskim powietrzu. Możemy do tego celu wykorzystać dwa rodzaje danych. Krajowy Ośrodek Bilansowania i Zarządzania Emisjami (KOBIZE) oblicza łączne emisje w rozbiciu na kilkadziesiąt rodzajów źródeł, głównie w oparciu o ilości paliw będących w obrocie. Inspekcja Ochrony Środowiska podaje z kolei główne przyczyny przekroczenia limitów stężenia – dla danego stanowiska i substancji.

Tabela 1. Źródła emisji i przyczyny przekroczeń dopuszczalnych stężeń B[a]P, PM 10 i PM2.5

Zanieczyszczenie Główne źródła emisji Główne przyczyny przekroczeń
B[a]P Indywidualne ogrzewanie budynków – 76%

Koksownie – 17%

Indywidualne ogrzewanie budynków – 100%
PM10 Indywidualne ogrzewanie budynków – 38%

Transport drogowy – 9%

Energetyka zawodowa i ciepłownictwo – 9%

Indywidualne ogrzewanie budynków – 85%

Intensywny ruch pojazdów – 9%

PM2.5 Indywidualne ogrzewanie budynków – 40%

Transport drogowy – 13%

Energetyka zawodowa i ciepłownictwo – 10%

Indywidualne ogrzewanie budynków – 89%

Intensywny ruch pojazdów – 8%

Źródło: opracowanie własne, na podst. KOBIZE 2016, GIOŚ 2015

Główną przyczyną niskiej jakości powietrza w Polsce jest indywidualne ogrzewanie budynków. To dlatego najwyższe stężenia zanieczyszczeń notowane są w zimie i – w odróżnieniu od większości państw europejskich – także w małych miejscowościach, pozbawionych przemysłu, czy intensywnego ruchu drogowego. Dotyczy to zwłaszcza Polski południowej, gdzie splata się kilka czynników: duża gęstość zabudowy jednorodzinnej, powszechne stosowanie węgla w domowych kotłowniach, obecność „brudnego” przemysłu, ukształtowanie terenu sprzyjające kumulacji zanieczyszczeń. Skoro przyczyna problemu jest tak łatwa do zidentyfikowania, czemu wciąż go nie rozwiązano?

Zanieczyszczenie powietrza a polska polityka ochrony powietrza

Wiemy już, że spośród trzech głównych źródeł zanieczyszczeń powietrza – przemysłu, transportu i sektora komunalno-bytowego – to ten ostatni odgrywa w Polsce dominującą rolę (choć nie dotyczy to np. Warszawy, gdzie około 2/3 zanieczyszczeń pochodzi z transportu). Najbardziej do zanieczyszczenia powietrza przyczynia się palenie węglem i/lub biomasą w domowych lub osiedlowych kotłowniach. Warto więc przujrzeć się dokładniej potrzebom cieplnym domów jednorodzinnych, jakości paliwa oraz jakości pieców.

Średnie zużycie energii w domach w Polsce to 170 kWh/m2/rok, czyli około 10-krotnie więcej niż w domach pasywnych (Popkiewicz 2015, s. 223). Wysoka energochłonność wynika z niedostatecznego ocieplenia – wg badań Instytutu Ekonomii Środowiska (Guła, Pytliński 2016) ponad 70% domów jednorodzinnych w Polsce to obiekty o niskim lub bardzo niskim standardzie izolacji cieplnej. Mimo dużych nakładów publicznych na termomodernizację (i znacznego efektu ekologicznego), nie rozwinięto dotychczas instrumentu wsparcia dedykowanego dla domów jednorodzinnych (Guła, Pytliński 2016, s. 81). Także obowiązujące standardy energetyczne dla nowopowstających budynków nie sprzyjają wykorzystaniu potencjału istniejących technologii – za niskoenergetyczne domy jednorodzinne uznaje się budynki o zużyciu  < 70 kWh/m2/rok.

Jak zaspokajane jest tak duże zapotrzebowanie na energię cieplną w polskich domach? Ponad 2/3 domów jednorodzinnych posiada kocioł węglowy, w którym zwykle – oprócz węgla – spalane jest także drewno. Zdecydowana większość to tzw. kopciuchy, czyli piece oparte na przestarzałej technologii i emitujące nawet dziesięciokrotnie więcej pyłów i B[a]P niż dostępne na rynku kotły 5 klasy (wg normy EN 303-5:20112) (Kubica, Kubica 2016, s. 63). W polskim prawodawstwie nie ma dotychczas standardów emisyjnych dla nowych kotłów węglowych małej mocy. Wkrótce powinno to ulec długo oczekiwanej zmianie. W 2015 roku Komisja Europejska przyjęła nowe rozporządzenie do Dyrektywy Ekoprojektu, wg którego od 2020 roku w państwach UE dopuszczone do obrotu będą tylko kotły najwyższej, 5 klasy. Już teraz w konsultacjach znajduje się projekt rozporządzenia Ministra Rozwoju, który przyspiesza wdrożenie tej regulacji o dwa lata. Każdy rok opóźnienia ma duże znaczenie, bowiem w Polsce kupuje się rocznie ponad 200 tysięcy kotłów na paliwa stałe, z których tylko kilka procent to kotły 5 klasy. Średni wiek najpowszechniejszych w Polsce kotłów zasypowych to ponad 10 lat (Guła, Pytliński 2016, s. 75), dlatego warto rozważyć także wprowadzenie obowiązku wymiany kotłów przekraczających określone standardy emisyjności, tak jak zrobili to np. Czesi (Popkiewicz 2015, s. 139).

Sama wymiana kotłów nie wystarczy, ponieważ ich parametry emisyjne zależą także od jakości paliwa. Kwestią standardów dla paliw stałych NIK i polski parlament zajęły się już w 2000 roku: „Najwyższa Izba Kontroli wykazała brak norm paliw stałych, ważnych w zakresie ograniczania niskiej emisji. [..] Jeżeli w ciągu 4-5 lat, w zakresie energetyki zawodowej zrobiliśmy w Polsce duży postęp, to w zakresie niskiej emisji […] zrobiono niewiele. Jedną z przyczyn jest to, że kopalnie mogą sprzedać odbiorcom indywidualnym węgiel dowolnej jakości, czego nie praktykuje się w żadnym z krajów Unii Europejskiej. Tam są wyraźnie określone parametry węgla przeznaczonego do odbioru indywidualnego. […] z tego wynika, jest w Polsce potrzeba, aby jakości paliw stałych były określone, bowiem nawet tzw. floty, czyli odrzut po flotacji, zawierające bardzo dużo siarki i popiołu, są sprzedawane przez kopalnie odbiorcom indywidualnym, co powoduje olbrzymią niską emisję, z którą do tej pory nie daliśmy sobie rady” (zobacz tutaj).

Jak wygląda sytuacja prawna po szesnastu latach? W jaki sposób polscy decydenci „dali sobie radę” z tym problemem? W omawianym okresie nie zostały wprowadzone żadne standardy dla paliw stałych, choć projekt rozporządzenia w tej sprawie – mocno krytykowany przez ekspertów (tutaj) – powstał w Ministerstwie Gospodarki w 2015 roku, uzyskał pozytywną notyfikację Komisji Europejskiej, a następnie utknął. Napotkał opór spółek węglowych obawiających się utraty dochodowego sektora rynku (więcej tutaj). Samo Ministerstwo Energii, obecnie odpowiedzialne za projekt rozporządzenia, tłumaczy brak aktywności tym, że wprowadzenie ww. regulacji nie zablokuje importu sub-standardowych paliw z zagranicy. W efekcie, gospodarstwa domowe w Polsce wciąż palą węglem o nienormowanej zawartości siarki i popiołu, w tym także mułem węglowym (ok. 800 tys. ton rocznie). Jego spalanie w domowych kotłowniach przekłada się na 2-3 krotny wzrost emisji pyłów i B[a]P w porównaniu do „normalnego” węgla (Kubica, Kubica 2016, s. 64) – i około 100 milionów zł przychodów dla polskich kopalń (Popkiewicz 2015, s. 138).

Niemoc polskiej polityki/polityków w zakresie ochrony powietrza kilkukrotnie spotykała się z krytyką instytucji unijnych. W 2008 roku KE udzieliła Polsce ostrzeżenia i zażądała wyjaśnień ws. przekroczeń dopuszczalnych stężeń PM10. W 2012 roku KE skierowała skargę do Trybunału Sprawiedliwości UE, zarzucając Polsce niewprowadzenie przepisów wymaganych przez Dyrektywę CAFE. Rok później skarga została wycofana, po tym jak Polska dokonała koniecznych zmian w prawie. Wreszcie, w grudniu 2015 roku Komisja wniosła kolejną sprawę do Trybunału Sprawiedliwości, w związku z utrzymującymi się przekroczeniami dopuszczalnych stężeń PM10 – obecnie trwają wyjaśnienia między KE i Ministerstwem Środowiska.

Zanieczyszczenie powietrza okazuje się podwójnie brudnym problemem. Po pierwsze, polskie społeczeństwo skazane jest na oddychanie powietrzem gorszej jakości (czyli: bardziej szkodliwym), niż w innych państwach UE. Po drugie, władze (zwłaszcza centralne) z opóźnieniem reagują na problem zanieczyszczenia powietrza, lawirując między wymogami unijnymi i narastającą presją społeczną z jednej strony, a oporem lobby węglowego z drugiej. Wydaje się, że wraz z rosnącą świadomością problemu coraz trudniej będzie bronić interesów sektora wydobywczego. Ważnych argumentów w tej dyskusji mogą dostarczyć oszacowania kosztów zewnętrznych zanieczyszczenia powietrza, zwłaszcza zdrowotnych (WHO 2016) i gospodarczych (WB 2016, WHO, OECD 2015). Ale to mógłby być temat na odrębny tekst.

 

Wykorzystana Literatura

Brunekreef B., Holgate S. T. (2002). Air pollution and health. The Lancet, 360(9341), ss. 1233-1242.

de Leeuw F., Ruyssenaars P. (2011). Evaluation of current limit and target values as set in the EU Air Quality Directive. ETC/ACM Technical Paper 2011/3. Dostępny pod adresem: www.eionet.europa.eu/events/EIONET/ETC_ACM_Report

EEA (2015). Air Quality in Europe – 2015 Report. European Environment Agency, No 5/2015. Dostępny pod adresem: www.eea.europa.eu/publications/air-quality-in-europe-2015

EEA (2012). Air Quality in Europe – 2012 Report. European Environment Agency, No 4/2012. Dostępny pod adresem: www.eea.europa.eu/publications/air-quality-in-europe-2012/at_download/file

GIOŚ (2015). Ocena jakości powietrza w strefach w Polsce za rok 2014. Główny Inspektorat Ochrony Środowiska. Dostępny pod adresem: powietrze.gios.gov.pl/pjp/content/show/1000357

Guła A., Pytliński Ł. (2016). Niska emisja – palący problem polskich domów, w: UN GC, Zrównoważone miasta-życie w zdrowej atmosferze, UN Global Compact, ss. 73-81.

Jędrak J., Badyda A. J., Konduracka E. (2016). Wpływ zanieczyszczeń powietrza na zdrowie ludzkie, w: UN GC, Zrównoważone miasta-życie w zdrowej atmosferze, UN Global Compact, ss. 86-95.

KOBIZE (2016). Krajowy bilans emisji SO2, NOx, CO, NH3, NMLZO, pyłów, metali ciężkich i TZO za lata 2013-2014 w układzie klasyfikacji SNAP i NFR. Raport podstawowy. Krajowy Ośrodek Bilansowania i Zarządzania Emisjami, Instytut Ochrony Środowiska – Państwowy Instytut Badawczy. Dostępny pod adresem: www.kobize.pl/uploads/materialy/materialy_do_pobrania/krajowa_inwentaryzacja_emisji/Bilans_emisji_-_raport_podstawowy_2014.pdf

Krzyżanowski M. (2016). Skutki zdrowotne zanieczyszczeń powietrza, w: UN GC, Zrównoważone miasta-życie w zdrowej atmosferze, UN Global Compact, ss. 84-85.

Kubica K., Kubica R. (2016). Poprawa jakości powietrza dzięki rozwojowi niskoemisyjnych technologii ogrzewania budynków, w: UN GC, Zrównoważone miasta-życie w zdrowej atmosferze, UN Global Compact, ss. 58-66.

Popkiewicz M. (2015). Rewolucja energetyczna. Ale po co? Wydawnictwo Sonia Draga, Katowice.

WB (2016). The cost of air pollution. Strenghtening the economic case for action. The World Bank and Institute for Health Metrics and Evaluation, University of Washington, Seattle. Dostępny pod adresem:  documents.worldbank.org/curated/en/781521473177013155/pdf/108141-REVISED-Cost-of-PollutionWebCORRECTEDfile.pdf

WHO (2016). Ambient air pollution: a global assessment of exposure and burden of disease. World Health Organization. Dostępny pod adresem: who.int/phe/publications/air-pollution-global-assessment/en/

WHO, OECD (2015). Economic cost of the health impact of air pollution in Europe: Clean air, health and wealth. WHO Regional Office for Europe. Dostępny pod adresem: www.euro.who.int/en/media-centre/events/events/2015/04/ehp-mid-term-review/publications/economic-cost-of-the-health-impact-of-air-pollution-in-europe

WHO (2006). Air quality guidelines: global update 2005: particulate matter, ozone, nitrogen dioxide, and sulfur dioxide. World Health Organization. Dostępny pod adresem: www.who.int/phe/health_topics/outdoorair/outdoorair_aqg/en/

 

 

Magda Malec

kontakt: mgdmalec[at]gmail.com

Niniejszy tekst jest streszczeniem wyników badania zespołu GRAPE (Group for Research in Applied Economics) prowadzonego na Wydziale Nauk Ekonomicznych UW przez Marcina Bieleckiego, Krzysztofa Makarskiego i Joannę Tyrowicz. Więcej o badaniu i o grupie GRAPE można przeczytać na stronie internetowej tutaj oraz w raporcie tutaj i pokazie slajdów tutaj

Obniżenie wieku emerytalnego będzie skutkowało spadkiem wysokości emerytur. W systemie zdefiniowanej składki, który mamy w Polsce, pracujący w latach aktywności zawodowej odkładają procent swojego wynagrodzenia, akumulując w ten sposób kapitał, który w momencie przejścia na emeryturę jest dzielony przez dalsze oczekiwane trwanie życia. Wynik dzielenia jest wypłacany dożywotnio w postaci emerytury. Prezydencki projekt ustawy w tej sprawie (60 lat dla kobiet i 65 lat dla mężczyzn) nie zmienia konstrukcji systemu. Niższy wiek emerytalny musi więc oznaczać, że w porównaniu do rozwiązania 67/67 wszystkie świadczenia będą niższe. Okres odprowadzania składki będzie krótszy, a więc zgromadzony kapitał mniejszy, a dodatkowo zostanie podzielony przez dłuższy czas pobierania emerytury. Zmiana wieku emerytalnego to nie tylko niższa emerytura w kieszeni przeciętnego Kowalskiego. Reforma pociągnie za sobą lawinę skutków, do których szacowania ekonomiści wykorzystują modele symulacyjne.

Na podstawie dostępnych szacunków nie wyciągniemy żadnych wniosków dotyczących przewidywanych nierówności i ich konsekwencji. Wyliczenia są bowiem oparte o założenia dotyczące średniego Polaka – średnio pracującego, całe życie średnio zarabiającego i średnio odkładającego składki do systemu emerytalnego. A ludzie nie są identyczni. Różnimy się przecież podejściem do oszczędzania, mamy inne priorytety, urodziliśmy się z innymi zdolnościami. Dlatego w naszym modelu każdy rocznik jest zróżnicowany pod względem aktywności na rynku pracy (która determinuje, jak dużo pracujemy), cierpliwości (która determinuje, jak dużo oszczędzamy) oraz produktywności (która determinuje, jak dużo zarabiamy). Dzięki temu replikujemy strukturę dochodu i majątku (nierówności), które obserwowane są w społeczeństwie Polski AD 2010-2015. Tym samym wnioski także będą zróżnicowane – reforma będzie miała inny wpływ na pracusiów, inny na tych bardziej leniwych, cierpliwie oszczędzających i skłonnych do natychmiastowego wydawania na konsumpcję.

Zmiana wieku emerytalnego pociągnie za sobą skutki nie tylko w postaci mniejszych emerytur. To także wzrost zapotrzebowania na finansowanie z podatków powszechnych tzw. „emerytury minimalnej”. Świadczenie to jest odstępstwem od zasady naliczania wysokości emerytury na podstawie sumy wpłaconych składek. Jeżeli w latach aktywności zawodowej pracownik nie uzbierał na koncie emerytalnym wystarczających środków na minimalne świadczenie, a jednocześnie nabył uprawnień do pobierania emerytury, wtedy ZUS pokrywa brakującą różnicę. Będziemy krócej pracować i odkładać składki, na kontach emerytalnych uzbieramy niższe kwoty, a więc chętnych, którym państwo będzie dokładać do świadczenia minimalnego będzie więcej. Emerytury te są i będą bardzo niskie. Od marca 2016 roku wynoszą 882,56zł brutto. Konieczność wypłacania z budżetu państwa coraz większej liczby świadczeń minimalnych i niższe emerytury to jednak nie jedyne konsekwencje zmiany wieku. To także skutki makroekonomiczne – w tempie wzrostu gospodarczego oraz te na poziomie indywidualnym, w obrębie gospodarstwa domowego. Budując model ekonomiczny, którzy uwzględnia te dwa obszary zmian, można wyciągnąć wnioski dotyczące łącznego skutku. Dodatkowo, liczne efekty w ramach obu tych obszarów będą działały w przeciwnych kierunkach. Z jednej strony niższy wiek emerytalny oznacza mniejszą konsumpcję dóbr, które można zakupić za niższą emeryturę. Z drugiej strony ludzie zyskują więcej czasu wolnego, nieobciążonego koniecznością pracy, bo świadczenie emerytalne pojawi się w ich życiu wcześniej. Z trzeciej wreszcie strony, spodziewając się niższych emerytur, gospodarstwa domowe powinny mieć silniejszą motywację do oszczędzania na przyszłość, kosztem dzisiejszej konsumpcji.

Te trzy procesy przełożą się nie tylko na komfort ludzi, ale też na całą gospodarkę. Zgromadzone oszczędności zainwestujemy, co ma wpływ akumulację kapitału i poziom bogactwa. Więcej wolnego czasu nieobciążonego pracą oznacza niższą podaż pracy, co z kolei obniża poziom bogactwa, ale podniesie poziom wynagrodzeń.

Niższa podaż pracy spowoduje także wzrost zapotrzebowania na minimalne świadczenia emerytalne. Za ich finansowanie odpowiada budżet państwa. Tym samym wysokość pobieranych podatków od gospodarstw domowych będzie musiała wzrosnąć, pozostawiając ludziom mniej pieniędzy na konsumpcję i oszczędności. Model jest w stanie przewidzieć, które z tych efektów będą najsilniejsze.

Niższy wiek emerytalny oznacza spadek dobrobytu społecznego. Dlaczego? Nasz pomiar dobrobytu uwzględnia zmiany zarówno na poziomie indywidualnym, jak i te w dotyczące całej gospodarki. W efekcie obniżenia wieku emerytalnego liczba osób, które nie uzbierają na emeryturę minimalną będzie ponad dwa razy większa niż przy stopniowym podnoszeniu wieku do 67 lat. Od 2040 roku połowa emerytów będzie otrzymywać świadczenie minimalne, a ich procent będzie stale wzrastać. Około 70% roczników urodzonych na przełomie lat 1980-tych i 1990-tych otrzyma świadczenie na poziomie emerytury minimalnej, czyli mniej niż tysiąc złotych. Ze względu na konieczność dofinansowywania tak wielu emerytur z budżetu państwa oraz niższe tempo rozwoju gospodarki, świadczenie to w perspektywie kolejnych lat ulegnie jeszcze obniżeniu. Wypłacane świadczenia mogą być realnie jednak dużo niższe. Osoby, które nie uzbierają wymaganego stażu pracy nie mogą liczyć na dofinansowanie z budżetu państwa. W takim przypadku ich emerytura będzie prostym wynikiem dzielenia kapitału, który zgromadzili na koncie emerytalnym przez oczekiwane dalsze trwanie życia. Jeżeli w latach aktywności zawodowej nie oszczędzili wystarczająco na starość, to można spodziewać się, że o pomoc zwrócą się do opieki społecznej.

Spadek wysokości emerytur dotknie wszystkich przyszłych emerytów, ale jego skala będzie różna w zależności od otrzymywanego wynagrodzenia i aktywności na rynku pracy. W przypadku osób o zarobkach blisko przeciętnej, zamiast otrzymywać ok. 30% swojej ostatniej płacy, będą otrzymywać w większości emeryturę minimalną. Dla osób o wysokich zarobkach, spadek emerytury przekroczy 40%. Dzieje się tak dlatego, że osoby o wysokiej podaży pracy i produktywności nie przekazują do ZUS pełnych 19% dochodów. Zgodnie z prawem, po przekroczeniu pewnego limitu (250% rocznego przeciętnego wynagrodzenia), ZUS nie pobiera już od nich składek. Dla tych osób dłuższe składkowanie było niemal jedynym sposobem wypracowania rozsądnej stopy zastąpienia, bo nie mogły  wpłacać do ZUS tyle, ile wynikałoby z wysokości ich wynagrodzenia. Można spodziewać się, że gospodarstwa domowe zaczną odkładać pieniądze poza systemem emerytalnym, korzystając z oszczędności dobrowolnych.

Rysunek 1. Prognozowana zmiana wysokości emerytury w przypadku obniżenia wieku emerytalnego

obnizanie-wieku-emerytalnego-w-polsce-kobiety

obnizanie-wieku-emerytalnego-w-polsce-6-638-mezczyzni

źródło: www. grape.org.pl

Powrót do rozróżnienia wieku emerytalnego według płci zadziała na szczególną niekorzyść kobiet. Krótszy okres składkowania, więcej lat na emeryturze oraz niższe wynagrodzenia ze względu na lukę płacową, spowodują spadek emerytur w stopniu dużo większym niż w przypadku mężczyzn. Wzrost ubóstwa będzie więc szczególnie widoczny w tej grupie. Przy realizacji wariantu 67/67, świadczenia minimalne miało otrzymywać ok. 20% kobiet oraz kilka procent mężczyzn. Zmiana spowoduje, że będzie ich proporcjonalnie dwa razy więcej. Pogłębi to jeszcze bardziej nierówności dochodowe wśród emerytów.

Patrząc jedynie z perspektywy wysokości świadczeń, zmiana wieku emerytalnego będzie miała najmniejszy wpływ na osoby z niskimi zarobkami. Dzieje się tak dlatego, że w ich przypadku wielkość świadczenia nie może już za wiele spaść. Osoby mniej aktywne zawodowo i o niskiej produktywności i tak dostaną emeryturę minimalną. Przy utrzymaniu obecnych założeń dotyczących wieku, zgromadzony przez nich kapitał wystarczyłby na wypłacanie emerytury minimalnej lub nieznacznie wyższej. Po zmianie ciężar ich utrzymania przeniesie się na budżet państwa i wszystkich podatników. W związku z tym wzrost podatków jest nieunikniony. Nie tylko wzrosną wydatki publiczne, ale w tym samym czasie zmaleją wpływy do budżetu. Więcej czasu wolnego ludności oznacza niższą podaż pracy i spadek wpływów z podatku dochodowego. Dodatkowo, oczekując niskich emerytur, ludzie zaczynają oszczędzać prywatnie (tzw. oszczędności dobrowolne), kosztem bieżącej konsumpcji. Zmniejszy to przychody podatkowe z tego tytułu. Spadające wpływy do budżetu trzeba będzie czymś zrekompensować. Jeżeli przyjmiemy, że politycy zdecydują się podwyższenie VAT-u, to koszt konsumpcji wzrośnie – produkty i usługi będą droższe. Prowadzi to do dalszego spadku jej poziomu.

Oszczędności prywatne zwiększają kapitał w gospodarce. Skoro ludzie zaczną oszczędzać więcej, aby zabezpieczyć finanse na lata starości, to baza dla podatku od przychodów kapitałowych wzrośnie. Model wskazuje, że wzrost ten jest jednak niewystarczający, aby pokryć ubytki wywołane spadkiem konsumpcji i podaży pracy. Wzrost oszczędności co prawda złagodzi efekt spadku podaży pracy, lecz nie skompensuje go w pełni. Dodatkowo, badania empiryczne prowadzone dla Polski (m.in. Marta Lachowska & Michal Myck, 2015.

„The Effect of Public Pension Wealth on Saving and Expenditure,” Upjohn Working Papers and Journal Articles 15-223, W.E. Upjohn Institute for Employment Research.) sugerują, że w praktyce wzrost oszczędności prywatnych jest raczej znacznie mniejszy niż wynikałoby to z modeli symulacyjnych. Założeniem takich modeli jest bowiem pełna racjonalność ludzi i perspektywa długiego horyzontu czasowego. Zdają sobie sprawę, że przy niższym wieku emerytalnym świadczenia będą niższe, a więc chcąc utrzymywać podobny standard życia, muszą więcej oszczędzać. Praktyka pokazuje co innego. Decyzje o oszczędzaniu są z reguły odkładane w czasie.

Podatki po obniżeniu wieku emerytalnego muszą wzrosnąć. Poziom zadłużenia w Polsce jest już na tyle duży, że nie można go dalej zwiększać. Wzrost wydatków na świadczenia minimalne nie można więc pokryć z kolejnych kredytów. Jest kilka innych możliwości. Jedną z nich jest obniżenie obecnych wydatków publicznych. Zaciśnięcie pasa musiałoby być jednak duże – ok. 1,2% obecnego PKB, czyli około 6% wszystkich obecnych wydatków rządu. To mniej więcej jedna czwarta tego, co obecnie wydajemy na ochronę zdrowia. Innym rozwiązaniem jest podniesienie opodatkowania pracy. W takim wariancie rąk do pracy będzie jeszcze mniej, ponieważ zmniejszą się zachęty do jej podejmowania. Mniejsza podaż pracy to kolejny spadek wpływów z podatku dochodowego.

Jednym z pomysłów sfinansowania wzrostu wydatków jest podniesienie opodatkowania konsumpcji, czyli wzrost stawki VAT. Model przewiduje, że pokrycie świadczeń minimalnych  po spadku wieku emerytalnego wymagałoby jej podniesienie o 2 punkty procentowe. Te 2 punkty procentowe można też potraktować jako miarę luki wygenerowanej w sektorze finansów publicznych przez proponowaną zmianę w systemie emerytalnym. Przytoczone przykłady jej załatania są jedynie ułamkiem możliwych rozwiązań.

Dla sytuacji finansów publicznych ważna jest też demografia. A ta nie będzie mu sprzyjać. System emerytalny skonstruowany jest tak, że emerytury pokrywamy z bieżących wpłat osób aktywnych zawodowo. Akumulowane przez pracujących składki są na bieżąco wydawane w postaci emerytur, a to co pozostaje na koncie emerytalnym to jedynie zapis księgowy. Każde kolejne pokolenie pracujących pokrywa świadczenia obecnych emerytów, licząc że ich emerytury zostaną sfinansowane ze składek następnych pokoleń. Dopiero w momencie osiągnięcia wieku emerytalnego, wpłacone do ZUS pieniądze realnie muszą trafić do emerytów. Dzieci rodzi się coraz mniej, ludzie żyją coraz dłużej i nie ma zapewnionej zastępowalności pokoleń. Z biegiem czasu emerytów będzie za dużo, żeby ich świadczenia pokryć z bieżących wpłat osób pracujących. Brakującą kwotę pokrywa ZUS, czyli budżet państwa.  Nawet przy rozwiązaniu 67/67 podatki będę musiały wzrosnąć na skutek postępującego starzenia się społeczeństwa. Oznacza to, że wydatki budżetu będą jeszcze wyższe. Wyliczone 2 punkty procentowe wzrostu podatku VAT, to wzrost dodatkowy, który nie wynika z procesów demograficznych. Potrzeba będzie jeszcze więcej publicznych pieniędzy, aby utrzymać system emerytalny. Kurczące się społeczeństwa to także niższy zasób siły roboczej i kolejny powód do spadku podaży pracy, a także wzmocnienia wszystkich wynikających z tego konsekwencji.

Jak zareaguje gospodarka? Proponowana zmiana wieku emerytalnego do 60/65 skutkuje spadkiem PKB per capita o 7% w relacji do scenariusza stopniowego podnoszenia wieku emerytalnego do 67 lat dla obu płci. Poziom potencjalnego PKB zależy przede wszystkim od trzech czynników: podaży pracy, kapitału (oszczędności) oraz postępu technologicznego. Tylko ten ostatni nie zmienia się na skutek obniżenia wieku emerytalnego. Zmiany w strukturze populacji oraz tempie postępu technologicznego są takie same, bez względu na to, czy wiek emerytalny zostanie zmieniony, czy nie. Oznacza to, że różnice w PKB per capita będą spowodowane zmianami podaży pracy i poziomu kapitału. Wymieniane obniżenie podaży pracy i wzrost oszczędności prywatnych, a co za tym idzie szybsza akumulacja kapitału (chociaż prawdopodobnie mniejsza niż wynika to z modelu) spowodują, że produkcja będzie niższa – w gospodarce będzie wytwarzane mniej dóbr i usług. Spodziewamy się także niższego wzrostu oszczędności prywatnych, niż to wynika z modelu – PKB per capita spadnie jeszcze więcej niż o 7%. Gdyby dodatkowo lukę  wynikającą z emerytur minimalnych finansować z oszczędności w systemie kapitałowym (np. likwidacja II lub III filara), spadek kapitału się pogłębi, obniżając jeszcze bardziej PKB.

Informacje metodologiczne

Przedstawione powyżej wnioski zostały sformułowane w oparciu o model, który stanowi uproszczenie złożonej gospodarki Jest to narzędzie uczciwe i przejrzyste – model zbudowany jest na zestawie założeń, które znane są czytelnikowi i jest powszechnie stosowaną metodą w badaniach ekonomicznych.  Model jest deterministyczny. Nie ma kryzysów gospodarczych ani okresów boomu. Tempo wzrostu gospodarczego determinują łącznie: podaż pracy, dostępność kapitału (oszczędności) oraz postęp technologii. Postęp technologii jest taki sam bez względu na zmiany wieku emerytalnego, a podaż pracy i kapitał wynikają z decyzji ludzi w modelu. Mogą oni dowolnie dużo pracować do osiągnięcia wieku emerytalnego, ale wolą odpoczywać niż pracować. Bez pracy nie mogą konsumować, dopóki nie osiągną wieku emerytalnego (kiedy to mogą nie pracować i pobierać świadczenia emerytalne).

Założenia dotyczące demografii zaczerpnięte są z prognoz GUS do 2060 roku. Po tym czasie zakładamy stacjonarną populację, czyli stały poziom urodzeń i tablic trwania życia. Rząd w naszym modelu nie prowadzi autonomicznej polityki w kontekście reformy wieku emerytalnego – wydaje 20% PKB na konsumpcję publiczną, a relacja długu publicznego do PKB oraz stopy podatkowe są stałe w czasie. Oczywiście z wyjątkiem stopy podatku VAT, który dostosowuje się, aby zrównoważyć budżet państwa i wypełnić lukę spowodowaną wzrostem świadczeń minimalnych. Przyjęliśmy założenie o endogenicznej stopie procentowej, czyli takiej, która wylicza się w modelu, aby zrównoważyć rynek finansowy. Dostosowuje się ona do gospodarki, więc uwzględnia oszczędności gospodarstw domowych oraz zadłużenie sektora finansów publicznych. Więcej szczegółów technicznych modelu można znaleźć w publikacjach zespołu GRAPE (patrz: literatura).

Literatura

Bielecki, M., Goraus, K. et al. (2016). „Decreasing fertility vs increasing longevity: Raising the retirement age in the context of ageing processes.” Economic Modelling 52, Part A: 125-143.(tutaj)

Tyrowicz, J., Makarski, K. et al. (2016). „Reforming retirement age in DB and DC pension systems in an aging OLG economy with heterogenous agents.” IZA Journal of Labor Policy 5(1): 8. (tutaj)

Goraus, K., K. Makarski, K., J. Tyrowicz (2014). „Does social security reform reduce gains from increasing the retirement age?”. WNE UW Working paper 3/2014(120) (tutaj)

Lachowska, M., Myck, M. (2015). “The Effect of Public Pension Wealth on Saving and Expenditure,” Upjohn Working Papers and Journal Articles 15-223, W.E. Upjohn Institute for Employment Research (tutaj)

 

Mikołaj Herbst

kontakt: mherbst[at]uw.edu.pl

Niniejszy tekst ma formę listu do minister Anny Zalewskiej, ponieważ został wysłany do Ministerstwa Edukacji Narodowej w ramach konsultacji ustawy „Prawo oświatowe”.

Szanowna Pani Minister,

Niniejszy list kieruję do Pani w trybie konsultacji społecznych projektu ustawy „Prawo oświatowe”. Chcę się odnieść od głównej zmiany zaproponowanej w projekcie ustawy, a zatem do przywrócenia 8-letniej szkoły podstawowej i czteroletniego liceum ogólnokształcącego przy jednoczesnym zlikwidowaniu gimnazjum, jako odrębnego etapu edukacyjnego. W uzasadnieniu projektu wymienia się kilka argumentów na rzecz takiego rozwiązania i przywołuje się artykuły naukowe mające przemawiać za reformą ustroju szkolnego. Czytelnik może odnieść wrażenie, że środowisko naukowe popiera proponowane zmiany, albo ma wpływ na ich kształt. Ani jedno, ani drugie nie jest prawdą. Co więcej, sposób wykorzystania wyników badań w uzasadnieniu projektu ustawy jest manipulacją, która godzi w wiarygodność Ministerstwa Edukacji Narodowej, zainteresowanych badaczy, a przede wszystkim w dobro interesariuszy planowanych przedsięwzięć.

MEN argumentuje, że gimnazja nie spełniły pokładanych w nich nadziei w zakresie wyrównania szans edukacyjnych dzieci z różnych środowisk. Z takim twierdzeniem trudno polemizować, gdyż konkluzja zależy od tego, jak rozbudowane miało się w tej kwestii oczekiwania. Autorzy uzasadnienia, którzy ubolewają, że „nadal uczniowie o słabszym statusie społeczno-ekonomicznym częściej osiągają gorsze wyniki niż ich koledzy z bardziej zasobnych domów”, muszą zdać sobie sprawę, że póki co żaden system szkolny na świecie nie jest w stanie zmienić tej reguły. Możemy tylko próbować.

Ministerstwo, powołując się na artykuł Z. Sawińskiego opublikowany w periodyku „Edukacja” (dostępny tutaj) deklaruje, że badania PISA z lat 2000-2012 nie wskazują, aby wprowadzona 1999 r. reforma przyczyniła się do osłabienia powiązań między statusem społecznym rodziców, a osiągnięciami uczniów. Przywołany artykuł (którego teza faktycznie brzmi mniej więcej tak, jak podaje MEN) dotyka wpływu gimnazjów na równość szans w sposób dość powierzchowny, opierając się głównie na współczynnikach korelacji między miarą rodzicielskiego statusu a wynikami testu PISA oraz wyborem ścieżki edukacyjnej przez ucznia. Każdy głos badacza jest ciekawy, a sam autor przyznaje (w późniejszej wypowiedzi na łamach tego samego pisma –nr 2/137 – tutaj), że chodziło mu o „włożenie kija w mrowisko” i wywołanie dyskusji wśród badaczy. Jednak wiążące analizy wyrównawczej roli szkoły są na ogół o wiele bardziej złożone pod względem koncepcyjnym i metodologicznym. Żeby się o tym przekonać nie trzeba wertować całych roczników naukowych pism. Wystarczy sięgnąć po drugi z artykułów, na który powołuje się ministerstwo, autorstwa M. Sitka, opublikowany w tym samym czasopiśmie „Edukacja” (dostępny tutaj). Autor zaznacza już w tytule, że jest to polemika z wnioskami Z. Sawińskiego. M. Sitek przeprowadza własne analizy na danych PISA i stwierdza na ich podstawie, że w okresie 2000-2012:

  1. Zmniejszyło się zróżnicowanie wyników, co było przede wszystkim zasługą poprawy wyników najsłabszych uczniów;
  2. Zmniejszyły się różnice między uczniami o niskim i wysokim statusie społeczno-ekonomicznym;
  3. Zmniejszył się wpływ pochodzenia społecznego na wybór szkoły ponadgimnazjalnej.

Przedmiotem troski ekspertów MEN jest także fakt, że zróżnicowanie umiejętności uczniów szkół ponadgimnazjalnych (między różnymi typami szkół) jest dzisiaj podobne jak w roku 2000, kiedy do liceum ogólnokształcącego lub szkoły zawodowej szło się po ukończeniu ośmioletniej szkoły podstawowej. Dr Sitek pokazuje w swoim artykule coś zupełnie przeciwnego: te różnice, odzwierciedlone w wynikach tzw. krajowej części testów PISA nie tylko zmalały, ale stało się tak głównie dzięki poprawieniu się osiągnięć uczniów trafiających do zasadniczych szkół zawodowych, którzy najbardziej skorzystali na nauce w gimnazjum. Skoro ministerstwo zna treść tego artykułu (powołuje się na niego na stronie 2 uzasadnienia ustawy), to proponowałbym, dla intelektualnej higieny: albo zastosować się do konkluzji autora, albo nie podpierać się jego badawczym autorytetem.

Argumentacja MEN, przedstawiona w uzasadnieniu projektu ustawy, w ogóle nie uwzględnia faktu, że wpływ gimnazjum na osiągnięcia uczniów ma złożony charakter i jest wypadkową co najmniej dwóch głównych elementów reformy gimnazjalnej:  

  1. Wydłużenia kształcenia ogólnego dla wszystkich uczniów z 8 do 9 lat, co oznacza opóźnienie selekcji uczniów do szkół zawodowych i ogólnokształcących
  2. Przenoszenia uczniów po sześciu klasach szkoły podstawowej do nowego środowiska, co wiąże się zarówno z pozytywnymi bodźcami, jak z rozmaitymi utrudnieniami w życiu uczniów i szkół

Uzasadnienie projektu ustawy koncentruje się wokół problemów związanych z tym drugim aspektem, przy czym korzyści z homogeniczności środowiska szkolnego mają przemawiać za powrotem do modelu ośmioklasowej szkoły podstawowej. Autorzy uzasadnienia nie odnoszą się ani słowem do faktu, że MEN likwiduje także pierwszy element reformy gimnazjalnej, skracając czas kształcenia ogólnego z dziewięciu do ośmiu lat. Tymczasem, o ile pytanie o bilans korzyści i strat związanych ze zmianą szkoły po sześciu latach jest trudne i debata na ten temat wydaje się potrzebna, to zdecydowana większość badań wykazuje korzystne skutki wydłużania kształcenia ogólnego, szczególnie dla słabszych uczniów. Międzynarodowy przegląd tego rodzaju analiz oferują np. Raudenbush i Eschman tutaj. Jednak by nie posiłkować się tylko zagranicznymi danymi, warto też zajrzeć do artykułu M. Jakubowskiego, H.A Patrinosa et al. (tutaj), w którym autorzy pokazują, że korzystny wpływ reformy gimnazjalnej na wyniki polskich uczniów w PISA polega w dużej mierze na opóźnieniu podziału rocznika na różne typy szkół i zwiększeniu liczby godzin nauczania poszczególnych przedmiotów.

Paradoksalnie, w ministerialnym uzasadnieniu projektu ustawy czytamy: „Z wielu badań wynika, że selekcjonowanie uczniów do różnego typu szkół nie sprzyja ani podnoszeniu wyników ani wyrównywaniu szans”. Zgadzając się z tym zdaniem, jestem zmuszony stwierdzić, że propozycje MEN prowadzą właśnie do przyspieszenia selekcji uczniów.

Ważne jest także zrozumienie, że wyrównawcza rola szkoły nie ogranicza się do zmniejszenia różnic w wynikach jakiegokolwiek egzaminu. Badania prowadzone w wielu krajach świata dotyczą także losów uczniów po zakończeniu edukacji, w tym ich kariery zawodowej, dochodów, życia rodzinnego, zadowolenia z życia, poziomu zdrowia itd. W gruncie rzeczy te odległe efekty kształcenia są ważniejsze, choć trudniejsze do zbadania, niż zróżnicowanie wyników testu.

Mamy bardzo niewiele tego rodzaju badań odnoszących się wpływu polskiej reformy edukacji z 1999 roku. Ostatnio jednak para węgierskich badaczy (L.F.Drucker i D. Horn) opublikowała raport (dostępny tutaj), z którego wynika, że reforma gimnazjalna w Polsce zwiększyła szanse absolwentów na znalezienie pracy oraz wpłynęła na wzrost ich wynagrodzeń. Efekty te wystąpiły szczególnie w grupie uczniów osiągających najsłabsze wyniki edukacyjne.

Odnośnie homogeniczności szkoły, jako źródła sukcesu dydaktycznego – jest o czym rozmawiać. Ministerstwo przytacza wnioski z ciekawego artykułu J. Herczyńskiego i Anety Sobotki, pokazującego duże zróżnicowanie modeli ustrojowych gimnazjum – od „zbiorczego”, w którym spotykają się absolwenci kilku lub kilkunastu szkół podstawowych, po gimnazja, w których kształcą się absolwenci tylko jednej podstawówki. Artykuł można przeczytać tutaj. Jedna z obserwacji autorów artykułu polega na tym, że średni przyrost umiejętności uczniów w takich homogenicznych gimnazjach jest wyższy, w porównaniu do tych, które przyjmują uczniów z różnych szkół podstawowych. MEN błędnie interpretuje ten wynik jako kluczowy argument za przywróceniem ośmioklasowej szkoły podstawowej. Jeśli już w ogóle rozumować w tym duchu, to cytowany artykuł stanowi wstęp do debaty, a nie jej konkluzję. To, że obecnie uczniowie w jednolitych szkołach robią większe postępy niż w społecznie zróżnicowanych, nie oznacza wcale, że ci ze zróżnicowanych gimnazjów uczyliby się lepiej zostając dłużej w szkole podstawowej zamiast przechodzić do gimnazjum. Choćby dlatego, że te homogeniczne gimnazja, będące de facto przedłużeniem danej szkoły podstawowej, nie powstają losowo, ale w konkretnych nie zbadanych dotąd szczegółowo okolicznościach. Może na przykład tam, gdzie władze samorządowe widzą dobre warunku do nauki i dobrych nauczycieli? Może częściej w regionach, gdzie w ogóle szkoły osiągają lepsze wyniki? Nie wiedzą tego ani autorzy artykułu (bo nie taki był przedmiot ich dociekań), ani ministerstwo. Jak w takim razie może podejmować w oparciu o te dane decyzję rewolucjonizującą system edukacji w Polsce?

Uzasadnienie projektu ustawy Prawo oświatowe odwołuje się także (tym razem bez wymieniania autora) do badań zespołu prof. Dolaty, który wskazuje na niepokojący trend różnicowania się gimnazjów w dużych miastach. Jest to niewątpliwie negatywne zjawisko, niezgodne z intencjami twórców reformy gimnazjalnej. Jednocześnie badania pokazują, że owa selekcja raczej nie występuje w środowisku wiejskim. Wyniki badań prof. Dolaty (dostępne m.in. tutaj) sugerują, że warto przyjrzeć się procedurom rekrutacji do gimnazjów oraz ich rejonizacji w dużych miastach. Nie sugerują powrotu do ośmioklasowej podstawówki.

Zdaję sobie sprawę, że śledzenie debaty naukowej może być trudne dla osób nie mających na co dzień do czynienia ze skomplikowanymi technikami analitycznymi. Proszę jednak Panią Minister o wzięcie pod uwagę faktu, że:

  1. Żaden z autorów badań, które przywołuje MEN, nie postuluje likwidacji gimnazjów.
  2. Autorzy trzech spośród czterech prac uwzględnionych (bezpośrednio lub pośrednio) w uzasadnieniu projektu ustawy, podpisali się niedawno pod protestem badaczy edukacyjnych przeciwko planom ministerstwa. Obok nich podpisało się 80 innych naukowców

Zapytam retorycznie: Czy może być mocniejszy dowód, że działania MEN nie mają oparcia w badaniach naukowych nad polskimi gimnazjami?

Jest faktem, że prace polskich badaczy wskazują na różne słabości modelu gimnazjalnego w jego obecnej formie. Wnioski z badań można wykorzystać w celu poprawienia funkcjonowania gimnazjów. Wbrew pozorom jest to system bardzo młody, który dopiero krzepnie. Ministerstwo Edukacji Narodowej znalazłoby w środowisku badaczy edukacyjnych uznanie i merytoryczne wsparcie, gdyby zechciało zainwestować siły w dokończenie reformy gimnazjalnej, zamiast w jej niweczenie. Zmiany proponowane w projekcie ustawy Prawo oświatowe, przynajmniej w odniesieniu do gimnazjów, opierają się bowiem na błędnej diagnozie problemu i nie doprowadzą do poprawy jakości oświaty. Najlepszym rozwiązaniem byłoby obecnie wstrzymanie prac nad ustawą i dokonanie rzetelnej refleksji. Doświadczenie poprzedniego rządu powinno uczyć, że zasada „reformuję, bo mogę” obraca się zarówno przeciwko interesariuszom, jak autorom reform.

Wykorzystana literatura:

Dolata, R., Jasińska, A. i Modzelewski, M. (2012). Wykorzystanie krajowych egzaminów jako instrumentu polityki oświatowej na przykładzie różnicowania się gimnazjów w dużych miastach. Polityka Społeczna, Numer tematyczny 1

Drucker L.F., Horn, D. (2016) Decreased tracking, increased earning: Evidence from the comprehensive Polish educational reform of 1999, Budapest Working Papers on the Labour Market BWP2016/2

Herczyński, J. Sobotka A. (2015). Ustrojowe modele gimnazjum, Edukacja 4(135)

Jakubowski, H.A. Patrinos, E.E. Porta EE et al. (2010) The Impact of the 1999 Education Reform in Poland. World Bank Policy Research Working Paper (5263).

Jakubowski, H.A. Patrinos, E.E. Porta et al. (2016) The effects of delaying tracking in secondary school: evidence from the 1999 education reform in Poland. Education Economics 24(6)

Raudenbush, S. W. i Eschmann, R. D. (2015). Does schooling increase or reduce social inequality? Annual Review of Sociology, 41

Sawiński, Z. (2015). Gimnazja wobec nierówności społecznych, Edukacja 4(135)

Sitek, M. (2016). Zmiany w nierównościach edukacyjnych w Polsce, Edukacja 2(137)