Koalicja na rzecz Otwartego Rządu
Promujemy przystąpienie Polski do Partnerstwa na rzecz Otwartego Rządu

RANKING OTWARTOŚCI RZĄDU 2014/15 – Metodologia

Punktem wyjścia monitoringu i opracowanego na jego podstawie rankingu – przygotowanych w ramach projektu „Obywatelska Kontrola Otwartości Rządu” – był raport Czekając na otwarte rządy, opisujący standardy działania polskiej administracji publicznej w dostępie do informacji publicznej i otwartości danych, otwartości procesów decyzyjnych i zapobieganiu korupcji. Miał on również stanowić podstawę oceny postępów w podnoszeniu jakości funkcjonowania instytucji publicznych w tych trzech obszarach w związku z realizacją rządowej strategii Sprawne Państwo 2020 i po ewentualnym przystąpieniu Polski do Partnerstwa na rzecz Otwartych Rządów.

Koalicja na rzecz Otwartego Rządu od wiosny do jesieni 2014 roku przygotowała podstawy koncepcji monitorowania instytucji publicznych. Zdecydowano, że przedmiotem obserwacji będzie administracja rządowa – jako lider zmian i grupa podmiotów, które w pierwszej kolejności powinny realizować zarówno różne działania odpowiadające idei otwartości w instytucjach publicznych, jak i własne zobowiązania podejmowane w strategiach i programach rządowych. Członkowie koalicji przygotowali również wstępny zestaw wskaźników.

Następnie trzy organizacje należące do Koalicji na rzecz Otwartego Rządu – Fundacja Pracownia Badań i Innowacji Społecznych „Stocznia”Stowarzyszenie Sieć Obywatelska – Watchdog Polska i Fundacja im. Stefana Batorego – od jesieni 2014 do wiosny 2015 roku przygotowały, dopracowały i uzupełniły listę ponad stu wskaźników, według których miały być oceniane poszczególne instytucje publiczne (pełna lista wskaźników jest dostępna na stronie internetowej: www.otwartyrzad.org.pl).

Wskaźniki zostały pogrupowane w trzy obszary, korespondujące ze strukturą przywoływanego raportu Czekając na otwarte rządy i z priorytetami międzynarodowego Partnerstwa na rzecz Otwartych Rządów:

  • Otwartość procesów decyzyjnych – zakres monitoringu i oceny koncentrował się głównie na dostępności procesu tworzenia rządowych projektów ustaw, organizacji konsultacji publicznych i komunikowania się z interesariuszami (z procedury oceny – ale nie z monitoringu – wyłączono Kancelarię Prezesa Rady Ministrów, ponieważ nie przygotowuje ona włas-nych projektów ustaw, nie dotyczy jej więc większość wskaźników opracowanych dla tego obszaru).
  • Dostęp do informacji publicznej i otwarte dane – zakres monitoringu i oceny koncentrował się przede wszystkim na kwestii procedur ułatwiających obywatelom pozyskanie informacji publicznej, polityki informacyjnej instytucji publicznych, zarządzaniu Biuletynem Informacji Publicznej.
  • Zapobieganie korupcji – zakres monitoringu i oceny koncentrował się wokół trzech kwestii: infrastruktury służącej ograniczaniu ryzyka korupcji sensu stricto (posługiwanie się przez instytucje publiczne takimi rozwiązaniami, jak plany, strategie i systemy antykorupcyjne), rozwiązań służących zarządzaniu konfliktem interesów, mechanizmów kontrolowania działań lobbingowych i związanego z tym ryzyka.

Przystępując do monitoringu przyjęto dwa założenia. Po pierwsze, monitoring opierał się na analizie ogólnie dostępnych dokumentów opisujących istniejące procedury czy regulacje, jego celem nie była bowiem ocena ich praktycznej realizacji (wykraczało to zresztą poza możliwości i ramy czasowe przyjęte na potrzeby projektu, choć z pewnością było interesujące poznawczo). Monitorowano więc pewną infrastrukturę, która w sensie formalnym istnieje (jest w pewien sposób udokumentowana), co oczywiście nie wyklucza ewentualności, że może ona nie funkcjonować tak, jak należałoby tego oczekiwać. Po drugie, monitoring prowadzono z perspektywy zbliżonej do pozycji przeciętnego obywatela – osoby, która mogłaby być zainteresowana na przykład tym, w jaki sposób może się włączyć w proces konsultowania projektów ustaw przygotowywanych w danym ministerstwie, jak poszczególne resorty traktują zapytania o informację publiczną lub jakimi instrumentami dysponują, żeby ograniczyć ryzyko korupcji. Dlatego głównym źródłem danych były Biuletyny Informacji Publicznej i strony internetowe ministerstw. Zdecydowana większość informacji niezbędnych do ustalenia wartości opracowanych w projekcie wskaźników powinna być bowiem po prostu udostępniana obywatelom i tam właśnie szukaliby oni informacji w pierwszej kolejności. Ponadto przedmiotem monitoringu były jedynie takie elementy funkcjonowania resortów, które co do zasady powinny być udostępniane proaktywnie, bez konieczności występowania z wnioskiem czy podejmowania innych czynności, żeby dotrzeć do żądanej informacji. Jest to zresztą w dużej mierze zgodne z ideą otwartości instytucji publicznych i z duchem Ustawy o dostępie do informacji publicznej z 2001 roku.

Działania prowadzone w ramach monitoringu rozdzielono między trzy organizacje: Fundacja Pracownia Badań i Innowacji Społecznych „Stocznia” gromadziła i analizowała dane dotyczące otwartości procesów decyzyjnych, Stowarzyszenie Sieć Obywatelska – Watchdog Polska skoncentrowało się na kwestiach dostępu do informacji publicznej, z kolei Fundacja im. Stefana Batorego skupiła się na problematyce przeciwdziałania korupcji. Informacje analizowało pięć osób (jedna osoba ze Stowarzyszenia Sieć Obywatelska – Watchdog Polska i po dwie osoby z pozostałych organizacji) mających długoletnie doświadczenie w pracy w trzech wymienionych obszarach tematycznych.

  • Monitoringiem objęto osiemnaście instytucji rządowych:
  • Kancelarię Prezesa Rady Ministrów (KPRM),
  • Ministerstwo Administracji i Cyfryzacji (MAC),
  • Ministerstwo Edukacji Narodowej (MEN),
  • Ministerstwo Finansów (MF),
  • Ministerstwo Gospodarki (MG),
  • Ministerstwo Infrastruktury i Rozwoju (MIR),
  • Ministerstwo Kultury i Dziedzictwa Narodowego (MKiDN),
  • Ministerstwo Nauki i Szkolnictwa Wyższego (MNiSW),
  • Ministerstwo Obrony Narodowej (MON),
  • Ministerstwo Pracy i Polityki Społecznej (MPiPS),
  • Ministerstwo Rolnictwa i Rozwoju Wsi (MRiRW),
  • Ministerstwo Skarbu Państwa (MSP),
  • Ministerstwo Sportu i Turystyki (MSiT),
  • Ministerstwo Spraw Wewnętrznych (MSW),
  • Ministerstwo Spraw Zagranicznych (MSZ),
  • Ministerstwo Sprawiedliwości (MS),
  • Ministerstwo Środowiska (MŚ),
  • Ministerstwo Zdrowia (MZ).

Wszystkie badane instytucje (z wyjątkiem Kancelarii Prezesa Rady Ministrów, o czym była mowa wcześniej) oceniano według 141 wskaźników
(40 z obszaru „dostęp do informacji publicznej i otwartość danych”, 47 z obszaru „otwartość procesów decyzyjnych”, 54 z obszaru „przeciwdziałanie korupcji”). Każdy wskaźnik był opatrywany komentarzem opisującym źródła informacji i zawierającym ewentualne zastrzeżenia, na przykład trudności w zdobyciu informacji. Wartość poszczególnych wskaźników ustalano na podstawie następującego zestawu odpowiedzi:

  • „tak” – gdy ponad wszelką wątpliwość stwierdzano istnienie danego elementu,
  • „tak, ale” – gdy dany element istniał, ale budził zastrzeżenie (na przykład na stronach Biuletynów Informacji Publicznej poszukiwano zakładek zawierających podstawowe informacje na temat zasad prowadzenia działalności lobbingowej w ministerstwie, często się jednak okazywało, że choć takie zakładki rzeczywiście występowały, to zamieszczone w nich informacje były wyjątkowo skąpe),
  • „nie” – gdy stwierdzano, że dany element nie istnieje,
  • „brak możliwości ustalenia” – gdy próby odnalezienia danego elementu na stronach Biuletynów Informacji Publicznej i stronach internetowych ministerstwa lub w ramach kontaktów z pracownikami nie pozwalały definitywnie stwierdzić, czy resort nim dysponuje, czy też nie.

W wybranych sytuacjach (głównie wtedy, gdy wystąpiła konieczność zdobycia danych statystycznych, na przykład o liczbie przeszkolonych urzędników) zwracano się z wnioskiem o dostęp do informacji publicznej. Wykorzystano również odpowiedzi ministerstw na wniosek o dostęp do informacji publicznej, uzyskane w ramach projektu „Społeczny monitoring konfliktu interesów”, realizowanego przez Fundację im. Stefana Batorego w 2014 roku. Niekiedy (na przykład w związku z niejasnością co do treści dokumentów udostępnionych w Biuletynach Informacji Publicznej) eksperci próbowali się skontaktować z monitorowanymi instytucjami, aby potwierdzić lub wykluczyć okoliczności wpływające na ocenę w zakresie konkretnego wskaźnika.

Na podstawie ustaleń monitoringu opracowano prosty ranking (indeks), wybierając 79 ze 141 przyjętych w projekcie wskaźników. Wyboru dokonali eksperci z trzech wymienionych organizacji po analizie całości uzyskanego materiału, opierając się na standardach Partnerstwa na rzecz Otwartych Rządów, własnym dorobku analitycznym i rzeczniczym oraz zaleceniach organizacji międzynarodowych. Do rankingu nie weszły wskaźniki opisowe zawierające konkretne informacje statystyczne (na przykład liczbę szkolonych urzędników czy liczbę otrzymywanych wniosków o dostęp do informacji publicznej) – zostały one wykorzystane jako dane kontekstowe. Zrezygnowano także z kilku wskaźników, dla których trudno było jednoznacznie ustalić punktację odzwierciedlającą ocenę pozytywną lub negatywną. Ostatecznie ranking powstał przez ustalenie maksymalnej liczby punktów, jaką można było otrzymać w poszczególnych obszarach, i obliczenie dla wszystkich instytucji swoistego dystansu – odsetka zdobytych punktów w stosunku do maksimum, jakie można było uzyskać w trzech wymienionych obszarach. Ogólna ocena otwartości każdej instytucji jest z kolei średnią tych odsetków. Zasady punktacji przedstawiały się następująco:

  • odpowiedź „tak” – 2 punkty,
  • odpowiedź „tak, ale” – 1 punkt,
  • odpowiedź „nie” – 0 punktów,
  • odpowiedź „brak możliwości ustalenia” – 0 punktów (przyjęto, że wszystkie poszukiwane informacje, na których podstawie jest dokonywana ocena, powinny być udostępniane proaktywnie, jeśli zaś nie można ustalić, czy dana instytucja wykazuje określoną cechę, czy też jest jej pozbawiona, to obywatel pozostaje w niewiedzy, trudno więc uznać, że dane rozwiązanie ma w ogóle szansę zadziałać – podobne braki odnotowywano zatem na potrzeby analizy, ale konkretny wskaźnik oceniano na 0 punktów).

Monitoring oddaje sytuację badanych instytucji publicznych w 2014 roku. Zespół realizujący projekt odnotował pojawienie się rozwiązań, które wprowadzono już w 2015 roku, ale nie włączał ich do oceny. Po pierwsze, z powodów metodologicznych konieczne było przyjęcie pewnej cezury czasowej, rok kalendarzowy był zaś – jako w miarę obiektywny okres – w tym wypadku najwłaściwszy. Inaczej ocena budziłaby uzasadnione kontrowersje i pytania o przyczynę przyjęcia innego zakresu czasowego analizy. Po drugie, choć monitoring – o czym była już mowa wcześniej – nie obejmował aspektu praktycznego, to jednak słuszne wydaje się założenie, że rozwiązania, które wdrożono zaledwie kilka miesięcy czy tygodni przed zakończeniem badań, nie mogą być uznane za pełnowartościowe nawet w sensie formalnym. Dlatego odnotowano istnienie takich rozwiązań, ale ich nie uwzględniono w monitoringu i przy opracowywaniu rankingu – zostaną one włączone do kolejnej edycji badania.

Ponadto po wstępnym zestawieniu rankingu jego wyniki przesłano do wszystkich instytucji objętych monitoringiem z prośbą o odniesienie się do uzyskanej oceny w ciągu czternastu dni. Komentarze przesłało dziesięć instytucji: Kancelaria Prezesa Rady Ministrów, Ministerstwo Administracji i Cyfryzacji, Ministerstwo Infrastruktury i Rozwoju, Ministerstwo Gospodarki, Ministerstwo Nauki i Szkolnictwa Wyższego, Ministerstwo Pracy i Polityki Społecznej, Ministerstwo Skarbu Państwa, Ministerstwo Sprawiedliwości, Ministerstwo Sportu i Turystyki oraz Ministerstwo Zdrowia. Część zgłoszonych uwag uwzględniono w rankingu, część odrzucono po dyskusji w zespole badawczym, publikując jednak na stronie internetowej zawierającej prezentację pełnych wyników treść zastrzeżeń zgłaszanych przez resorty.

Wyniki monitoringu i niniejszy raport zostały zaakceptowane jesienią 2015 r. przez trzynaście organizacji skupionych w Koalicji na rzecz Otwartego Rządu.