Dane

Od pewnego czasu na stronach IMGW pojawił się dostęp do danych meteorologicznych. Są to przede wszystkim dane pomiarowe ze stacji synoptycznych i klimatologicznych różnych rzędów. W przypadku tych ostatnich należy się kilka słów wyjaśnienia.

Dostęp (po uprzedniej rejestracji) możemy uzyskać poprzez stronę https://dane.imgw.pl/. Problemem może być dla niektórych prawidłowy wybór parametrów – trzeba przyznać, że konstrukcja strony tego nie ułatwia.

Dla przykładu, jeśli chcemy pobrać dane dla Białowieży musimy wiedzieć, że jest to posterunek klimatologiczny III rzędu. Z listy stacji wybieramy więc stację 252230120-BIAŁOWIEŻA, rodzaj danych B100B007CD oraz datę. Najlepiej wybrać zakres tygodniowy. W przypadku stacji synoptycznych (np. 351160424 – WROCŁAW) wybieramy rodzaj danych B100B008CD lub B100B013CD.

Dla wszystkich, którzy będą teraz sobie chcieli stworzyć serie czasowe dla posterunków klimatologicznych (nie stacji synoptycznych) teraz ważna informacja. Otóż dane te nie są homogenizowane. Oznacza to, że średnie temperatury dobowe zostały wygenerowane w sposób, w jaki je generowano w danym czasie. Niestety sposób wyciągania średnich dobowych temperatur powietrza na stacjach klimatologicznych zmieniał się na przestrzeni lat. Zacytuję tu fragment artykułu [1]:

Charakterystyki termiczne wyliczone przy pomocy omawianych metod jak i różnice w średniej temperaturze powietrza pomiędzy poszczególnymi metodami a metodą rzeczywistą dają zbliżone wyniki. Wyjątek stanowi metoda stosowana na  stacjach klimatologicznych IMGW od  1996 r., z  której wyniki są wyraźnie zaniżone względem wyników uzyskanych z  metody rzeczywistej.
Co to oznacza? Oznacza to, że zmiana metody wyliczania średniej temperatury dobowej w 1996 w znaczny sposób wpłynęła na ich wartości, zaniżając je względem średniej rzeczywistej. Na stacjach synoptycznych badanych w artykule zmiana ta sięga 0.2°C.
Siedem metod wyznaczania średniej dobowej temperatury powietrza opisanych w artykule, to:
  • M1 = (T00 + T01 + T02 + … + T23) / 24; tzw. średnia rzeczywista, w czasie GMT,
  • M2 = (T00 + T03 + T06 + T09 + T12 + T15 + T18 + T21) / 8; średnia stosowana na  stacjach synoptycznych IMGW od 1966 r. do dziś, w czasie GMT,
  • M3 = (T00 + T06 + T12 + T18) / 4; średnia stosowana na stacjach klimatologicznych IMGW w latach 1971–1995 r., w czasie GMT,
  • M4 = (Tmax + Tmin + T06 + T18) / 4; średnia stosowana na stacjach klimatologicznych IMGW od 1996 r. do dziś; Tmax i Tmin mierzone od godz. 18.00 dnia „N“ do godz. 18.00 dnia „N + 1“ w czasie GMT,
  • M5 = (T06 + T13 + 2*T20) / 4; średnia stosowana przez państwowe służby ČHMÚ (czeska) i DVD (niemiecka), w czasie GMT,
  • M6 = (Tmax + Tmin) / 2; średnia stosowana przez kraje Ameryki Północnej, Australię i niektóre kraje europejskie (np. w Hiszpanii, w Wielkiej Brytanii),
  • M7 = (T06 + T12 + 2*T20) / 4; średnia stosowana w latach 1946–1965 na stacjach synoptycznych i klimatologicznych IMGW oraz w latach 1965–1970 na klimatologicznych IMGW, w czasie GMT.

Tekstem pogrubionym zaznaczyłem te metody, które nas interesują w przypadku stacji klimatologicznych. Wynika z tego, że w kolejnych latach stosowano następujące metody:

  • 1946-1970: M7, (T06 + T12 + 2*T20) / 4
  • 1971-1995: M3, (T00 + T06 + T12 + T18) / 4
  • 1996 – dziś: M4, (Tmax + Tmin + T06 + T18) / 4

Z punktu widzenia kogoś, kto ma zamiar analizować serie czasowe, największy problem stanowi zmiana, która nastąpiła w 1996, bo w znaczący sposób wpływa na wyniki, zaniżając je względem metody M3 o około 0.2 – 0.3°C. W sposób oczywisty stanowi to zerwanie homogeniczności serii i należy tu wprowadzić stosowne poprawki. Kłopotliwy jest fakt, że poprawki te nie są uniwersalne dla każdej stacji. Wiele zależy od jej położenia – dla stacji położonej na wzniesieniu (przykładowo Zielona Góra) poprawki będą inne, niż dla stacji położonej w dolinie, czy kotlinie. Dzieje się tak z uwagi na różny średni przebieg temperatury w ciągu doby w miejscach o różnej rzeźbie terenu (dla przykładu na Śnieżce różnic nie ma prawie w ogóle).

Należałoby również sprawdzić, czy przypadkiem w ostatnich latach z uwagi na powszechną automatyzację, na stacjach tych nie stosuje się średniej rzeczywistej. Pomocne tu może być porównanie pomiarów na stacjach klimatologicznych z pomiarami na pobliskich stacjach synoptycznych.

Tyle tytułem wstępu. Jeśli uda mi się dość do jakichś kolejnych wniosków odnośnie owych serii pomiarowych, z pewnością się tu nimi z wami podzielę.

[1] Urban G. 2010: Ocena wybranych metod obliczania średniej dobowej, miesięcznej i rocznej wartości temperatury powietrza (na  przykładzie Sudetów Zachodnich i  ich przedpola). Opera Corcontica 47/2010 Suppl. 1: 23–34

Print Friendly
Leave a comment ?

77 Comments.

  1. Ten wpis dedykuję zwolennikom używania surowych danych, jako rzekomo niemanipulowanych przez wstrętnych naukowców.

  2. Jak rozumiem metoda M4 działa trochę inaczej tzn. t max i t min dnia N jest mierzone od godziny 18 dnia “N-1” do 18 dnia “N” (a nie jak napisane powyżej od N do N+1)

  3. a swoją drogą co sądzicie o takim mierzeniu t max i t min? Czy to nie jest trochę mylące? Dlaczego nie jest brana np. zwykła doba? Albo dlaczego nie jest to liczone od poprzedniego zmierzchu słońca do następnego? To byłoby trudniejsze metodologicznie ale w dzisiejszych czasach komputeryzacji nie nastręczałoby problemów. A wydawałoby mi się słuszniejsze. Bo sądzę że rozwiązanie 18 – 18 miało na celu właśnie pokazanie t min i t max w ujęciu takim, że do doby meteorologicznej klasyfikujemy poprzedzającą noc (jako silnie wpływającą na pogodę w ciągu dnia) i następujący po nim dzień. Z tym że np. pod koniec czerwca, gdy słońce świeci do 21 może się zdarzyć, że będziemy mieli t max o 18:00 dnia poprzedniego, który nie będzie zbyt adekwatny do dnia następnego w którym przyjdzie spore ochłodzenie…

    • W dzisiejszych czasach nie byłby to problem. Problem by jednak powstał, gdyby chcieć odnieść takie dane do przeszłości. Zmiana terminów tmax/tmin wstecz jest u nas w zasadzie niemożliwa.

  4. Pytanie laika – dlaczego średniej dobowej nie oblicza się z większą rozdzielczością, np. minutową? W dobie pomiarów cyfrowych nie powinno to być żadnym problemem…

    • @Major

      Nie wiem czy to nie właśnie to miał na myśli Piotr pisząc:

      Należałoby również sprawdzić, czy przypadkiem w ostatnich latach z uwagi na powszechną automatyzację, na stacjach tych nie stosuje się średniej oczywistej.

      Chociaż myślę, że raczej miał na myśli średnią z kolejnych godzin. Nie mam nic wspólnego z IMGW ale wiem co to znaczy automatycznie zbierane dane. Bez przejrzenia ich przez człowieka nie radziłbym ich używać. Dlatego obstawiam, że to jednak średnia z wartości godzinnych, a nie minutowych (za dużo pracy z przeglądaniem czy nie ma “strzałów” wartości mierzonej).

      • Bez przejrzenia ich przez człowieka nie radziłbym ich używać.

        Na czym miałoby polegać przejrzenie? Zawsze byłem uczony na laborkach z fizyki, że dane (pomiarowe) to dane i nie ma mowy o ich ręcznym poprawianiu, czy wybieraniu “prawidłowych”.
        Z anomalnymi odczytami radziliśmy sobie stosując kryterium 3 sigma. Przy okazji procent odrzuconych pomiarów wskazywał na poprawne (lub nie) przeprowadzenie doświadzczenia.

        W naszym przypadku można np. dokonywać pomiarów jeszcze częściej – nawet co 4 sekundy. Następnie odrczucać wyniki nie spełniające kryterium 3 simga (a może nawet 2 sigma?) i liczyć z 15 pomiarów średnią minutową. A potem suma średnich/1440 i mamy precyzyjną średnią dobową.

        Przy okazji, na podstawie uzyskanego datasetu, można obliczyć srednią dobową według alternatywnych metod (M1-M7).

        Nie upieram się przy powyższej metodologii, jednak przesłanie jest proste – pomiary z niewielkim interwałem i automatyczne odrzucanie podejrzanych wyników w dzisiejszych czasach nie powinno stanowić najmniejszego problemu. A tak uzyskane dane będą istotnie dokładniejsze od uzyskanych w jako “średnia rzeczywista”, o pozostałych nie wspominając.

        • @Major

          To pokazuje jak źle uczą na tych laborkach.

          Gdyby było tak jak Cię uczono to po co wszystkie produkty w dziedzinie fizyki atmosfery mają zawsze podany “level”? Tu jest przykład co muszą przejść dane o aerozolowej grubości optycznej aby były uznane za “level 2”:
          https://aeronet.gsfc.nasa.gov/new_web/Documents/Quality_Control_Checklist.pdf

          Pomiar temperatury jest prostszy ale wszędzie gdzie instrumenty wystawione są na działanie “żywiołów” i dane transmitowane (nawet kablem) należy spodziewać się niespodziewanych błędów. Dane trzeba przejrzeć już chociaż pod kątem czy są ciągłe (przerwy w transmisji), czy leżą w prawdopodobnym zakresie (instrument się nagle rozkalibrował) i czy nie maja dziwnych krótkotrwałych oscylacji (wiele przyczyn, choćby mokre złącze).

          Zacytuję Ci autentyczne stwierdzenie jednego z moich kolegów “Niemcy [czy tam ktoś] chcieliby nasze dane ale nie mam nikogo aby je przejrzeć, a danych levelu 1 po prostu nie wypada im dać”. A to dlatego, że jeśli się ich nie przejrzy to diabli wiedzą co tam w nich jest – może instrument dłuższy czas w ogóle nie działał albo pokazywał jawne bzdury [polecam naprawdę zajrzenie do tej Quality Control Checklist zlinkowanej wyżej].

          A powiem Ci, że oko ludzkie jest o wiele lepszym kontrolerem danych niż jakikolwiek program, sprawdzający na przykład ilość odchyleń standardowych od średniej. Inny mój kolega zdradził mi kiedyś, ze pracował parę miesięcy nad takim programem do sprawdzania swoich danych ale się poddał. Cokolwiek nie zrobić to program będzie wyrzucał ciekawe ale prawdziwe przypadki a zostawiał nieco śmieci.

          Taka jest Kolego różnica między poglądami “czystych” fizyków, a “stosowanych” (używając terminologii z Wydziału Fizyki gdzie robiłem magistra). Z tym, że nawet “najczystszym” fizykom czasami kabelek się obluzuje w przyrządzie i ogłaszają, ze neutrina są szybsze od światła:
          http://anomaliaklimatyczna.com/2011/10/25/bledy-systematyczne-czyli-czy-rozwiazano-problem-neutrin-szybszych-od-swiatla/

          PS. Dla danych meteo w ocieplającym się świecie 3 sigmy to stanowczo za mało. Inaczej fale upałów takie jak w Moskwie latem 2010 czy obecnie w Arktyce uznasz za błąd pomiarowy. Czasami i pięć sigm nie wystarcza. A przyczyną jest to, że mechaniczne stosowanie odchylenia standardowego dla danych z trendem jest w oczywisty sposób błędne.

          • Zacznę od końca.

            PS. Dla danych meteo w ocieplającym się świecie 3 sigmy to stanowczo za mało. Inaczej fale upałów takie jak w Moskwie latem 2010 czy obecnie w Arktyce uznasz za błąd pomiarowy. Czasami i pięć sigm nie wystarcza. A przyczyną jest to, że mechaniczne stosowanie odchylenia standardowego dla danych z trendem jest w oczywisty sposób błędne.

            To pokazuje jak bardzo się nie rozumiemy. Ja mówię o trzech (a nawet dwóch) sigmach w ramach średniej MINUTOWEJ, obliczanej np. z 15 pomiarów przeprowadzanych co 4 sekundy.

            Inny mój kolega zdradził mi kiedyś, ze pracował parę miesięcy nad takim programem do sprawdzania swoich danych ale się poddał.

            Po pierwsze – pytanie (bez urazy) jakie miał kompetencje w kwestii programowania.

            Po drugie – PRZEDE WSZYSTKIM – jaka była rozdzelczość pomiarów. Bo przy małej, tzn. godzinowej lub nawet 10 minutowej, faktycznie może być tak, że

            Cokolwiek nie zrobić to program będzie wyrzucał ciekawe ale prawdziwe przypadki a zostawiał nieco śmieci.

            Natomiast ja proponuję rozdzielczość <1min.

            dane transmitowane (nawet kablem) należy spodziewać się niespodziewanych błędów.

            Wystarczy zastosować protokół transmisji danych z korekcją błędów – w najgorszym razie dane będą nie do odzyskania, natomiast ryzyko przekłamia pomiaru w trakcie transmisji zmaleje do zera. Zresztą nie wierzę, żeby nie było to w ten sposób rozwiązane w praktycve.

            instrumenty wystawione są na działanie “żywiołów”

            może instrument dłuższy czas w ogóle nie działał albo pokazywał jawne bzdury

            Przedstawiciele fizyki czystej, którzy mnie uczyli, zaproponowali by wstawienie dodatkowego termometru. Dopiero istotne rozbieżności pomiędzy ich wskazaniami byłyby podstawą do ponownej kalibracji wadliwego termometru. Zakładam, że ryzyko, że oba nawalą akceptujemy. W przeciwnym razie dokładamy trzeci.

            A powiem Ci, że oko ludzkie jest o wiele lepszym kontrolerem danych niż jakikolwiek program, sprawdzający na przykład ilość odchyleń standardowych od średniej.

            Tak, a potem wielkie zdziwienie, że pojawiają się oskarżenia o cherry picking.

            O neturinach czytałem – oryginalną publikację, zaraz jak wyszła – i już w niej autorzy od razu zwracali uwagę na fakt, że jest prawdopodobne, że gdzieś został popełniony błąd. Sami zresztą po jakimś czasie znaleźli jego przyczynę.

        • @Major

          Zechciało mi się poszukać i znalazłem projekt rekomendacji pt.: “Guidelines on Quality Control Procedures for Data from Automatic Weather Stations” dla WMO:
          https://www.wmo.int/pages/prog/www/IMOP/meetings/Surface/ET-STMT1_Geneva2004/Doc6.1(2).pdf

          Nie wiem czy i w jakiej formie go przyjęto ale warto zobaczyć, że jest tam o wszystkim o czym pisałem. Rekomendacje zawierają zarówno sposoby automatycznego jak i “ludzkiego” przeglądania danych. Krótki opis tych drugich:

          Extended Quality Control procedures should be applied at the national Data Processing Centre. The checks that had already been performed at the AWS site should be repeated at DPC but in more elaborate form. This should include comprehensive checks against physical and climatological limits, time consistency checks for a longer measurement period, checks on logical relations among a number of variables (internal consistency of data), statistical methods to analyze data, etc.

          • Po pierwsze, większość (jeżeli nie wszystkie) zagadnień jakie podnosiłeś w stosunku do danych zebranych automatycznie Twoim poście z 2017/01/03 13:01 at 13:14 jest zaadresowana (i rozwiązana) w rozdziale drugim (BASIC QUALITY CONTROL PROCEDURES).

            Wszystko w 100% zautomatyzowane.

            Przy okazji jest mowa o częstotliwości próbkowania 10 sekund. Na podstawie tak zebranych próbek z zależności od mierzonej wartości są liczone średnie minutowe (z wyjątkiem wiatru – tam 2 lub 10 minutowe).

            Żeby było śmieszniej wprowadzone są także kryteria jakości danych, o których pisałem wcześniej, choć nie w formie kryterium 3 sigma. W każdym razie, jeżeli w danej serii pomiarów (6/min) jest mniej niż 4 (66%) poprawnych, seria jest odrzucana.

            A dlaczego mierzą tak często? Zapewne aby uniknąć Micrometeorological (representativeness) errors (nie podejmuje się tłumaczenie pojęć “branżowych”).

            Ciekawe jak uniknąć takich błędów w przypadku odczytów godzinowych?

            A teraz Extended Quality Control.
            Otóż śmiem twierdzić, że także jest zautomatyzowana – podane są konkretne kryteria i algorytmy.

            Jeżeli mimo wszystko uważasz, że jest inaczej – zacytuj proszę fragment źródła, który potwierdza “ludzkie” przeglądanie danych.

          • Tak niezautomatyzowane jest tylko to co skopiowałem (a i to jest ukryte przez brak słowa “automatic” w ich opisie). Ten dokument to szósty draft i podejrzewam, ze mocno walczono o to aby udawać, ze wszystko można zautomatyzować. Bo z doświadczenia poza służbami meteorologicznymi (z prawdziwych badań naukowych) wiem, ze to mrzonki. Jedno spojrzenie człowieka na wykres znajdzie więcej złych pomiarów niż nawet najbardziej skomplikowany algorytm.

            I nie kłóć się z tym bo nawet z tego co pisze nasz gospodarz na tym blogu wynika, że wiedza człowieka o tym co i jak się mierzy na jakiej stacji i kiedy to się zmieniało jest ważniejsza niż jakakolwiek automatyczna analiza. A o tym, że algorytm używany w IMGW uznałby falę upałów w Rosji za błąd wiem od pracownika tej instytucji.

            W sumie zaprzeczasz, że cała dziedzina wiedzy pod tytułem Data Quality Control ma rację bytu. Bo gdyby to można wszystko ładnie zawrzeć w regułkach typu “wilgotność względna musi być między 0 a 100%” (autentyczny przykład z tego dokumentu) to byłoby cudnie. Ale pomijając nawet fakt, że prawdziwa wilgotność względna bywa większa od 100% ale przyrząd tego nie pokaże, ten algorytm ani mrugnie jeśli podczas deszczu będzie wilgotność 70%, a człowiek od razu będzie wiedział, że czujnik jest walnięty. To można dodać do algorytmu ale to tylko najprostszy z wielu możliwych przykładów gdzie doświadczony obserwator wie od razu, że coś pokazuje źle mimo, że program to łyka. To jest część tego co już cytowalem, a do automatyzacji czego potrzebna będzie aż tak zaawansowana AI, która większość z Was pozbawi pracy. Powtórzę:

            This should include comprehensive checks against physical and climatological limits, time consistency checks for a longer measurement period, checks on logical relations among a number of variables (internal consistency of data), statistical methods to analyze data, etc.

          • Abstrahując od podniesionych tu problemów, obecnie ze stacji synoptycznych można uzyskać dane minutowe:

            2017-01-03 00:00:54;-0.8;0
            2017-01-03 00:01:54;-0.8;0
            2017-01-03 00:02:54;-0.8;0
            2017-01-03 00:03:54;-0.8;0
            2017-01-03 00:04:54;-0.8;0
            2017-01-03 00:05:54;-0.8;0
            2017-01-03 00:06:54;-0.7;0
            2017-01-03 00:07:54;-0.7;0
            2017-01-03 00:08:54;-0.7;0
            2017-01-03 00:09:54;-0.8;0
            2017-01-03 00:10:54;-0.7;0
            2017-01-03 00:11:54;-0.8;0
            2017-01-03 00:12:54;-0.7;0
            2017-01-03 00:13:54;-0.7;0

            W rzeczywistości w rozważaniach klimatologicznych nawet próbkowanie co 3h nie daje większych różnic, jeśli chodzi o temperatury średnie miesięczne: z rzadka jest to 0.1 stopnia.

          • Natomiast takie dane minutowe są dla mnie bezcenne, bowiem mogę z nich właśnie policzyć średnie temperatury dobowe różnymi metodami i je porównać na różnych stacjach synop. To z kolei pozwoli na homogenizację danych synoptycznych przy zmianie liczenia średniej dobowej.

          • Dodam jeszcze, ze zgadzam się, że przy coraz szybszych komputerach coraz większa część QC (quality control) jest robiona automatycznie. I jest to oczywiste, nie tylko dlatego że jest to możliwe ale dlatego, że jest to konieczne. Po prostu wynika z ilości danych. Nie zmienia to faktu, ze dane używane do celów naukowych są sprawdzane także “ręcznie” bo to zapewnia najwyższą jakość. A temperatury mierzone co minutę (nawet gdyby to miało statystyczny sens) są znacznie trudniejsze do sprawdzenia ręcznego niż pomiary co godzinę. Od tego właśnie zaczęła się nasza dyskusja.

            Polecam tez artykuł na ten właśnie temat:
            https://www.univie.ac.at/amk/vera/Literatur/Steinacker2011.pdf

            Cytuję fragment:

            Quality control (QC) of meteorological data is a quite young discipline. Until the early stages of the numerical weather prediction (NWP) movement, only slight attention had been paid to data quality and the QC process had been considered to be an unglamorous task (Gandin 1988). During the second half of the last century, the progress of NWP models brought about the recognition of the importance of QC. The manual inspection of observations was followed by simple QC algorithms that used empirically tested adjustments (Lorenc and Hammon 1988). Increasing computer power enabled the development of more complex QC methods, which will be summarized in order to classify the QC method presented in this paper. Nowadays, QC is not only an essential part of the acquisition, transmission, and processing of observational data, but it is also strictly recommended by different guides from the World Meteorological Organization in order to achieve a certain standard regarding the international exchange of data (WMO 2008).

            A cytuję go bo chociaż kładzie to nacisk na automatyczną kontrolę bardziej niż ten naukowiec starej daty wolałby powierzyć algorytmom (a wiem co mówię bo sam ich trochę pisałem) to w sumie dowodzi, że mam rację w 100%, że to co wychodzi ze stacji meteo nie nadaje się do niczego bez dokładnego sprawdzenia jakości. A to dokładnie przeciwieństwo tego co Ciebie uczono na laborkach. Więc nie odwracaj kota ogonem.

            Bo czy człowiek odrzuca złe dane czy algorytm to jednak oznacza, że nie wszystko co wychodzi z miernika jest wiarygodne. Jeszcze jeden kawałek tego artykułu, potwierdzający że wiem co mówię:

            Since the beginning of weather analysis and prediction, meteorologists have been analyzing weather charts and simultaneously checking the quality of the synoptic observations. Based on this visual inspection, an observation is retained or rejected. Because of the increasing amount of data and the need for real-time initial fields for NWP, the time-consuming human component of the QC procedure has become an intractable task. Nevertheless, some data centers still consider human inspection to be an important part of the QC procedure (Shafer et al. 2000).

          • Odpisuję tutaj, ponieważ brak przycisku reply dla posta z 2017/01/03 19:01 at 19:30.

            Jedno spojrzenie człowieka na wykres znajdzie więcej złych pomiarów niż nawet najbardziej skomplikowany algorytm.

            Stopień skomplikowania algorytmu nie jest wyznacznikiem jakości rezultatów uzyskiwanych dzięki niemu.

            I nie kłóć się z tym

            Nie kłócę się, dyskutuję, odnosząc do pomiarów meteorologicznych swoją wiedzę n/t pomiarów w innych dziedzinach.

            wiedza człowieka o tym co i jak się mierzy na jakiej stacji i kiedy to się zmieniało jest ważniejsza niż jakakolwiek automatyczna analiza

            Hehe, no na pewno tak jest jeżeli – sprzęt jest przestarzały, niekalibrowany od lat, lub po prostu uszkodzony. W przypadku sprawnych czujników i prawidłowych warunków pomiaru człowiek może tylko namieszać.

            A o tym, że algorytm używany w IMGW uznałby falę upałów w Rosji za błąd wiem od pracownika tej instytucji.

            A co ma piernik do wiatraka? Patrząc jak w naszym kraju wygląda podejście to zautomatyzowanej analizy danych pomiarowych wcale mnie to nie dziwi.

            W sumie zaprzeczasz, że cała dziedzina wiedzy pod tytułem Data Quality Control ma rację bytu.

            Bynajmniej, w cywilizowanym świecie, w czasach big data i zaawansowanych metod data mining, ręczne przeglądanie wyników pomiarów to przeżytek.

          • No to Ci jeszcze zacytuję fragment tego artykułu (Shafer 2000), cytowanego we wcześniej skopiowanym tekście:
            http://journals.ametsoc.org/doi/full/10.1175/1520-0426(2000)017%3C0474:QAPITO%3E2.0.CO%3B2

            A fragment jest o prawdziwych przykładach, gdzie “ludzka” analiza danych pozwoliła ustalić rzeczy, których żaden algorytm by nie scharakteryzował prawidłowo (biorąc prawdziwe pomiary za błędy i odwrotnie):

            Results from QA processes, combined with human experience and meteorological knowledge, can lead to the discovery of previously unknown microscale phenomena. One example is the relatively frequent indication of data problems, as detected by the automated spatial analysis routine, at the Medicine Park station in southwest Oklahoma during overnight periods. The station is located within an isolated mountain range, bordered by flat grasslands. Quite often, this station, because of its elevation, extends through the base of a strong temperature inversion, which otherwise goes unobserved at nearby Mesonet sites. During these events, the higher temperatures and lower moisture values at the Medicine Park site appear to be anomalous but in fact they are real. A consistency between temperature data from 1.5 and 9.0 m, as indicated by the like-instrument comparison test, is an effective method of identifying such “inversion pokers.”

            Anomalies in wind direction at sites along the Arkansas River in eastern Oklahoma (Sallisaw and Webbers Falls; Fig. 1) caught the attention of Mesonet staff. When winds were light across the region, these sites developed an east wind anomaly. Initially, Mesonet staff suspected a problem with the alignment of the wind sensors, but upon closer investigation, they discovered that the anomaly was real. A similar, but weaker, anomaly was discovered along the Red River in southeast Oklahoma.

            […]

            The Oklahoma Mesonet’s QA system represents a compilation of processes that range from simple testing to sophisticated analysis. Automated processes prompt human attention, while human experience shapes the design and interpretation of the automated processes. The system utilizes multiple techniques of data and instrument analysis. When applied individually, these components have unique strengths and weaknesses. When a concerted effort is made to compile their results and integrate that information via efficient communication, a comprehensive QA system emerges that accurately assesses the quality of both past and present data from the Oklahoma Mesonet.

            Constant improvement of the QA system is necessary to better realize its goals of high quality data in both real time and in its archives. Because the Mesonet uses a complex QA scheme of instrument calibration, field comparisons, automated routines, and manual inspection, it is possible to use feedback from one component of the system to improve another component. For example, knowledge gained from postcalibration of sensors helps to optimize the desired residence time of certain instruments so that data quality is maximized and unnecessary sensor rotation is minimized. Postcalibration of sensors has proven to be beneficial when determining preinstallation calibration strategies. On-site instrument intercomparisons help validate or refute the QA manager’s visual interpretations. This feedback, in turn, is important to the continual refinement of the automated QA routines.

            Mogę tylko dodać “Amen”.

          • some data centers still consider human inspection to be an important part of the QC procedure (Shafer et al. 2000).

            SOME – słowo klucz.

            A fragment jest o prawdziwych przykładach, gdzie “ludzka” analiza danych pozwoliła ustalić rzeczy, których żaden algorytm by nie scharakteryzował prawidłowo (biorąc prawdziwe pomiary za błędy i odwrotnie):

            Żadena algorytym? Czy algorytm akurat w tym konkrentym przypadku zastosowany?

            Poza tym

            The Oklahoma Mesonet’s QA system represents a compilation of processes that range from simple testing to sophisticated analysis. Automated processes prompt human attention, while human experience shapes the design and interpretation of the automated processes.

            Czyli człowiek przegląda tylko to, co wywalił automat.

          • @Major

            My dyskutujemy o dwóch różnych rzeczach:
            1) czy można wierzyć w to co stacja nadaje (od tego zaczęliśmy)
            2) czy czynnik ludzki jest potrzebny w ocenie tego co powyżej.

            Ad 1) Myślę, ze tu już się poddałeś bo dyskutując o punkcie drugim automatycznie (pun intended) przyznałeś mi racje w pierwszym. Dane z przyrządów stojących w terenie nigdy nie mogą być traktowane jako wiarygodne bez QC. Przecież zacząłeś dyskusje od tego, “że dane (pomiarowe) to dane i nie ma mowy o ich ręcznym poprawianiu, czy wybieraniu “prawidłowych””. Otóż nie. A czy wybiera człowiek czy algorytm twoje stwierdzenie jest po prostu nieprawdziwe.

            Ad 2) Natomiast tu masz pewnie dużo racji, przynajmniej w przypadku bardzo standardowych danych meteo. Rzeczywiście praca ludzka jest zbyt cenna aby zużywać ją na oglądanie nieskończonych serii wartości temperatury, ciśnienia, siły i kierunku wiatru. Jednak nie do końca bo zawsze może się zdarzyć coś czego algorytm jeszcze nie wie. W końcu wszystko co algorytm wie wynika z doświadczenie ludzkich obserwatorów, skodyfikowanego w prostych do zaprogramowania regułach.

            Jednak jakakolwiek zmiana czegokolwiek (np. nowy typ czujnika) wymaga aby znowu ludzie nabrali intuicji w interpretowaniu jego danych i poprawili odpowiednio algorytm. Podobnie próby stosowania algorytmu do cudzych danych (np. z innego kraju) mogą skończyć się kompromitującą wpadką jeśli dane te są czymś więcej niż standardowymi depeszami METAR (czy podobnymi).

            A przykład tego, ze w dane do publikacji trzeba zajrzeć samemu mogę podać z własnego doświadczenia (na szczęście recenzenta). Nie tak dawno recenzowałem pracę młodych autorów, którzy napisali artykuł na podstawie danych z automatycznej stacji z innego kraju. Wykorzystali to, ze dane były online ale to nic zdrożnego. Natomiast w ich wyniki (średnie miesięczne) nie mogłem uwierzyć. Od razu widziałem, ze coś jest nie tak – wystarczyło popatrzeć. Ściągnąłem te same dane i sam policzyłem średnie. Z tym, że ja jestem starej daty i popatrzyłem sam w te dane [EDIT: nie mam na myśli patrzenia w kolumny cyfr ale po prostu zrobienie z tych danych wykresów, nie uśrednionych miesięczni ale “jak leci” – ich błąd widoczny był od razu jak na dłoni]. Tam brak danych oznaczony był wartością (o ile pamiętam) -9.999. Tak, tak. Ci dzielni młodzieńcy uśrednili dane razem z tymi -9.999 bo trochę pomiarów brakowało (co gorsza różnie w różnych miesiącach). I to była duża część zmienności międzymiesięcznej na ich wykresach.

            Oczywiście artykuł im uwaliłem. I chyba dobrze dla nich bo mogą to wysłać znów po przeliczeniu wszystkiego porządnie od nowa, a tak ta kompromitacja wisiałaby nad nimi przez lata. Tak więc czytelnikom pozostawiam decyzję czy warto patrzeć “ludzkim okiem” na dane na jakich się pracuje.

      • Otrzymałem odpowiedź na swoje początkowe pytanie – jak pisze Piotr Djaków, nie tylko zbiera się dane minutowe, ale też w praktyce są bardzo przydatne.

        • @Major

          Zależy do czego. My zbieramy dane o temperaturze 10 razy na sekundę. Ale są to pomiary z anemometru sonicznego (tak on również mierzy temperaturę!) i potrzebne są do wyliczenia strumienia ciepła wyczuwalnego metodą korelacji wirów.

          Ale nawet w tym wypadku nie radzę tego robić bez QC. A przyjrzenie się wykresowi danej zmiennej ludzkim okiem to naprawdę bardzo silne narzędzie kontroli jakości.

          PS. W tym wypadku tak częste pomiary są możliwe ponieważ temperatura soniczna (mierzona anemometrem) ma praktycznie zerową skalę relaksacji. To po prostu pomiar prędkości kolejnych impulsów (ultra)dźwiekowych. Nie ma żadnej pojemności cieplnej, która powoduje opóźnienie zmiany temperatury przyrządu względem powietrza.

    • Tylko pytanie po co? Różnice będą minimalne a obciążenie większe.

      • Jeśli istnieją dane to trzeba je wykorzystywać.

        Ale nie gęściej niż godzina. I nie tylko z powodu większej pracy z Data Quality Control ale z przyczyny czysto statystycznej. Mianowicie nie ma co liczyć średniej gęściej tzw. skala dekorelacji (a w przypadku ciągów czasowych czas dekorlacji), bardzo ważny i bardzo nieznany parametr analizy statystycznej. Po prostu nie zyskuje się dodatkowej informacji próbkując częściej niż wynosi ten czas. Powołam się na prezentację ze stron WMO aby mi meteorolodzy nie mówili, że go sobie wymyśliłem 😏
        https://www.wmo.int/pages/prog/arep/wwrp/new/wwosc/documents/WWOSC_20140818.pdf
        chociaż osobiście wolę podręcznik statystyki dla klimatologów von Storcha i Zwiersa (podrozdziały 17.1 i 17.2).

        Kiedyś na innym blogu prosiłem o gęsta serię czasową z termometru aby wyznaczyć czas dekorelacji ale nikt nie miał czegoś takiego. Pewnie znalazłbym to sam u siebie w robocie (dla termometru mierzącego “na dworze”) ale potem o tym zapomniałem. Ale minuta to prawie na pewno za gęste próbkowanie.

        PS. Zresztą dla dawnych termometrów rtęciowych ich własny czas relaksacji to na pewno więcej niż kwadrans.

        • PS. Pewnie jak zwykle nikogo to nie zainteresuje ale ten parametr (zwany obecnie czasem dekorelacji) pierwszy w naukach meteorologicznych wprowadził Trenberth (ten sam co od bilansu energetycznego Ziemi i od ENSO) w 1984 roku, w tym artykule (dostępnym za darmo):
          http://journals.ametsoc.org/doi/abs/10.1175/1520-0493%281984%29112%3C2359%3ASEOFSS%3E2.0.CO%3B2

          Nie widzę aby Trenberth tam użył tej nazwy ale jego T0 to ewidentnie czas dekorelacji (ten sam wzór).

          • Akurat mnie to zainteresowało. Hobbystycznie mierzę temperaturę w szklarni czujnikami DS18B20, właśnie z interwałem 1min i przesyłam je po wifi na serwery thingspeak.https://thingspeak.com/channels/175271/
            Mam już serię danych z 2 miesięcy i próbuję je przeanalizować w Octave. Wszystko o czym pisze ArcticHaze odczuwam na własnej skórze – tj. zakłócenia wifi, odpadnięcie i przemieszczenie czujnika. O tym czasie dekorelacji będę musiał doczytać.

          • Z pobieżnego przejrzenia wynika że określenie “skala dekorelacji” w polskim internecie w takiej formie pojawia się tylko… w twoich wypowiedziach na różnych blogach. Wszędzie indziej jest mowa o dekorelacji czegoś lub czasie dekorelacji czegoś.

          • @zaciekawiony

            Bo ja też nigdy o tym po polsku nie czytałem.

            Zresztą po angielsku też to nie jest częste. Bo niewygodne. Mniej zależności jest statystycznie istotne jeśli zauważymy, że zmienne jakie korelujemy mają same autokorelacje. Tzn. zmierzymy temperaturę w styczniu 10 razy gdy jest niż i 10 razy podczas wyżu (najlepiej jednego dnia), skorelujemy z czymkolwiek co różni się choćby minimalnie między tymi dniami i mamy istotną korelację z ciśnieniem atmosferycznym? Nie, prawdopodobnie nie mamy, ale aby to zauważyć musimy uwzględnić czas dekorelacji. Po prostu te wszystkie wyżowe i niżowe pomiary niosą praktycznie tyle samo informacji co po jednym pomiarze.

            Pisze o tym Hans von Storch w swoim rozdziale jakiejś książki poświęconym nadużywaniu analizy statystycznej w badaniach klimatu:
            http://88.167.97.19/albums/files/TMTisFree/Documents/Climate/Misuses_of_Statistical_Analysis_in_Climate_Research_misuses.pdf

        • Akurat w ostatnich dwóch dniach we Wrocławiu wyglądało to tak:
          http://meteomodel.pl/webcache/wro_min_20170102.png

          Widać, jak nieszczęśliwie wypadały dane 3H (co 3h). Stąd akurat w tak krótkim czasie zaniżały średnią rzeczywistą.

          Średnia 1-2 stycznia:

          Dane minutowe: -0.3
          Dane co 1H: -0.4
          Dane co 3H: -0.8

  5. I jeszcze jedna sprawa – testowo chciałem uzyskać dane z Białowieży, niestety jestem w stanie.

    Po wygenerowaniu zapytania, strona przekierowuje mnie do https://dane.imgw.pl/1.0/pomiary/cbdo/252230120-B100B007CD/tydzien/2015-12-12 a tam li tylko:

    {
    “code”: 200,
    “baza”: “cbdo”,
    “stacjaKod”: “252230120”,
    “stacjaNazwa”: “BIAŁOWIEŻA”,
    “klasyfikacjaKod”: “B100B007CD”,
    “klasyfikacjaNazwa”: “Średnia temperatura powietrza-doba-klimat”,
    “klasyfikacjaJednostka”: “C”,
    “dataOd”: “2015-12-07T00:00:00”,
    “dataDo”: “2015-12-13T23:59:59”,
    “pomiary”: []
    }

    Pytanie – co źle robię?

  6. Mam program napisany przez znajomego który zamiast kodów parametrów ma same parametry oraz nazwy stacji.

    http://wstaw.org/m/2017/01/03/1_2.png

    Niestety nie ma danych ze stacji 2-3 oraz 5 rzędu i danych hydrologicznych.

    jak ktoś chce program pisać na fb: https://www.facebook.com/ppppp65

    • Jak mam sprawdzić dane dekadowe i roczne jeśli chodzi o wystąpienie burz? Tam jest tylko zakres tygodniowy do wybrania…

  7. A propos jakości produktów on-line produkowanych przez IMGW, na stronie pogodynka.pl (należącej do naszej służby meteorologicznej), na stronie “Dane klimatyczne”
    http://www.pogodynka.pl/polska/daneklimatyczne/
    są średnie miesięczne, najzimniejsze i najcieplejsze miesiące szeregu Polskich miast za lata 1981-2010. Nie napisano czy to średnie dobowe ale z wartości wygląda, że tak.

    Jednak im bardziej się w to wgłębiam tym gorzej. Najtragiczniej jest dla Bydgoszczy gdzie dane za 30 lat obejmuję zaledwie okres roku 1981 i pierwszej połowy 1982. Skąd o tym wiem? Jeśli ten sam miesiąc z 1981 roku jest zarówno najzimniejszy jak i najcieplejszy w serii to dla tego miesiąca dane są tylko z tego roku. Nie ma tu wątpliwości. A to pozwala zgadnąć że dla pozostałych gdy najzimniejszy i najcieplejszy miesiąc jest z sąsiednich lat 1981 i 1982, są to dane z dwóch lat.

    Naprawdę mam uwierzyć, że IMGW ma dane z Bydgoszczy tylko do połowy 1982 roku? Po co w takim razie pokazywać średnią z jednego lub dwóch miesięcy jako klimatologię ⁉️

  8. Witam,
    czy istnieją dane o minimalnej temperaturze maksymalnej w historii pomiarów meteorologicznych w miastach Grecji?? Interesuje mnie to, pozdrawiam.

  9. Bardzo fajna sprawa z tym uwolnieniem danych meteorologicznych. Nie spodziewałem się, że IMGW udostępni tak wielki zbiór danych nieodpłatnie i to bez konieczności biurokratycznych formalności. Jestem mile zaskoczony. :smile:

    Mocno poprawi się powszechna wiedza na temat ekstremów termicznych w Polsce. Do tej pory było z tym słabo, a teraz mamy okazję poznać różne ciekawe rekordy T min i T max.

  10. A ja, czy mógłbym się zapytać, jak uzyskać dobowe i 12-godzinne sumy opadów dla stacji synoptycznych (np. Kraków-Balice)? Chcę być pewny, że nie zanotowano faktycznie opadu na stacji (jak wiadomo, nie koduje się depeszy z 6.00 UTC o sumie dobowej, gdy opadu nie ma).

  11. Ja natomiast chciałem się zapytać, czy te dane z Rozdziela poniżej to opad deszczu ten sam, który jest notowany na tej stronie? http://monitor.pogodynka.pl/#station/meteo/249200120

    {
    “code”: 200,
    “baza”: “cbdh”,
    “stacjaKod”: “249200120”,
    “stacjaNazwa”: “ROZDZIELE”,
    “klasyfikacjaKod”: “B600B018FD”,
    “klasyfikacjaNazwa”: “Suma dobowa opadu – woda”,
    “klasyfikacjaJednostka”: “mm”,
    “dataOd”: “2016-10-03T00:00:00”,
    “dataDo”: “2016-10-09T23:59:59”,
    “pomiary”: [
    {
    “data”: “2016-10-03 00:00:00”,
    “wartosc”: “25.2”,
    “status”: “0”
    },
    {
    “data”: “2016-10-04 00:00:00”,
    “wartosc”: “49.8”,
    “status”: “0”
    },
    {
    “data”: “2016-10-05 00:00:00”,
    “wartosc”: “”,
    “status”: “1”
    },
    {
    “data”: “2016-10-06 00:00:00”,
    “wartosc”: “”,
    “status”: “1”
    },
    {
    “data”: “2016-10-07 00:00:00”,
    “wartosc”: “”,
    “status”: “1”
    },
    {
    “data”: “2016-10-08 00:00:00”,
    “wartosc”: “3.7”,
    “status”: “0”
    }
    ]
    }

    I jeszcze jedno, nie mogę znaleźć maksymalnych temperatur dobowych dla Rozdziela na stronie z danymi IMGW. Byłbym wdzięczny, gdyby ktoś mi pomógł :razz:

  12. @Piotr

    A jakim typem termometru były mierzone te wrocławskie dane co-minutowe? Pytam bo ciekaw jestem ile z tej autokorelacji o półgodzinnej skali czasowej to przyroda, a ile sam przyrząd (skala jego czasu relaksacji).

    EDIT. Żeby znów ktoś nie napisał, że tylko ja używam takiego pojęcia, podam definicję czasu relaksacji ze słowniczka American Meterorological Society:
    http://glossary.ametsoc.org/wiki/Relaxation_time
    A przykład który podają to… właśnie termometr.

    • Zapewne czujnik Pt100 lub Pt 1000 umieszczone w klatce. Są to czujniki o szybkim czasie reakcji. Pewną zwłokę w pomiarach wprowadza zapewne klatka. W osłonie aspiracyjnej przebieg byłby jeszcze bardziej poszarpany.

      • Dzięki za info. Tego typu czujniki są szybkie, zasadniczo ogranicza je pojemność cieplna powietrza przepływającego wokół nich (czyli tak naprawdę prędkość jego przepływu wokół czujnika). W realistycznych warunkach powinno to być coś koło minuty. Zresztą widać to z danych jakie Piotr ujawnił. Zanotowane zmiany temperatury między sąsiednimi minutami w tej serii to wiele razy nawet 0.4 K/min, a co najmniej raz 0.5 K/min. To pozwala nadążyć za prawie wszystkim co przyroda potrafi przynieść, może z wyjątkiem spadku temperatury podczas letniej burzy 😆

        • W przypadku nagłego ochłodzenia np. podczas letniej burzy większe ograniczenia niesie rodzaj stosowanej osłony radiacyjnej jak sam czujnik. Literatura podaje, że zwłoka klatki przy bezwietrznej pogodzie może sięgać nawet 15 min. Z drugiej strony przy burzy często wieje, więc nawet klatka powinna szybko odpowiedzieć na zmianę warunków. Może nie tak szybko jak osłona aspiracyjna, ale nie powinno być źle.

          • Ale tempo zmian potrafi być naprawdę duży gdy spada zimne powietrze. Widziałem kiedyś prawie 20 stopni w dół w kilka minut. A to co widziałem też było limitowane możliwościami termometru.

          • Zdziwilibyście się jak wyglądają fluktuacje temperatury powietrza przy powierzchni ziemi (2 m nad) mierzone naprawdę szybkim termometrem (mała pojemność cieplna, dobra wymiana termiczna z powietrzem, powiedzmy 1mm drucika o średnicy 1 mikrometra :)

          • Masz jakieś dane poglądowe? :)

  13. zainteresowany klimatem

    Dużym minusem tej bazy dany jest chaos organizacyjny jeśli chodzi o kod stacji i rodzaj danych. W kodzie stacji jest po nawet kilknaście danych dla jednego miasta np. Warszawy w zależności od stacji. W rodzaju danych też zbyt duży rozrzut-osobiście ten sposób prezentowania danych mie się nie podoba – bo jest zbyt czasochłonny. Wolałbym np. w przypadku Warszawy-jeden kod ze stacji Okęcie. Interesuje mnie np. jakie były temperatury w grudniu 1969 (cały miesiąc) w Warszawie i innych większych miastach Polski- ale nie mam niestety po prostu czasu żeby się w to bawić. Zdecydowanie wolałem prezentacje danych historycznych na ogimet

    • Czy dobrze zrozumiałem, że wolałbyś nie mieć danych z posterunku Warszawa-Bielany, bo sprawia ci to kłopot? Jaki jest problem z wybraniem danych z Okęcia?

      • zainteresowany klimatem

        Chodzi np. o to że nie wszystkie posterunki obejmują dane z 1969, a ja np. nie wiem do których posterunków te dane spływały wtedy co sprawia że wybieram kolejne to jest trochę czasochłonne. No chyba że ja źle szukam.
        Fajnie że dane zostały udostępnione ale można się w to bawić jak ktoś ma więcej czasu.
        Dla przykadu ogimet (choć dane nie zawsze były precyzyjne-występowały przekłamania co do temperatur i opadów) prezentował dane od razu z całego miesiąca dla konkretnego miasta.
        Zaznaczam że jest moja prywatna opinia

  14. Ciekawe dlaczego przy wybieraniu danych aktualnych ze stacji synoptycznej np. z Wrocławia pokazuje czas pomiaru np. 19:00:56 a dokładna godzina na zegarku to 18:58 z sekundami. Po czym żeby odświeżyć te same dane potrzeba czekać np. godzinę jak się pojawią. A z innego konta pobierając te same dane można otrzymać je aktualne na chwile obecną powiedzmy pobierając je 10 min później niż na koncie pierwszym i wtedy nie trzeba czekać godziny na aktualne dane.

  15. Chciałbym skorzystać z danych, których nigdzie nie umiałem znaleźć, dotyczących natężenia promieniowania słonecznego, żeby sprawdzić, jak porównuje się generacja mojej minifarmy fotowoltaicznej z teoretycznym potencjałem (i porównać jak dany miesiąc wypada na tle średniej wieloletniej). Wybieram stację 350190560-Katowice i bazę cbdh. Kod B695B00800-Aktynometria-doba-synop generuje pusty wynik, natomiast B691E00200-“Czas trwania usłonecznienia od godz. 00 UTC-synop” ma absurdalną jednostkę w opisie [J/cm2], ale w rzeczywisci chyba podaje zgodnie ze słownym opisem skumulowany czas (w godzinach) usłonecznienia w danej chwili. Jest to na pewno bardziej przydatny wynik niż samo całkowite dobowe usłonecznienie (bo można to pomnożyć przez moc promieniowania wg teorii w danej chwili czasu), ale i tak, to nie jest to, co aktynometria w dżulach na jednostke powierzchni, bo nie bierze pod uwagę ani promieniowania rozproszonego, ani zmniejszenia natężenia od chmur wysokich.

    Czy można gdzieś znaleźć takie porządne dane aktynometryczne? Dobowe byłyby super, ale i miesięczne też by były bardzo użyteczne.

  16. Ale jest jakaś możliwość określenia poprawek dla homogenizacji danych dla danej stacji? Czy tylko porównanie średniej z danych godzinnych i liczonej różnymi sposobami?

  17. W jaki sposób można ściągnąć dane sum dekadowych?
    Coś takiego nie działa:
    https://dane.imgw.pl/1.0/pomiary/cbdh/352200375-B600D017FK/tydzien/2015-05-01
    Czy ma ktoś jakiś pomysł?
    Z góry dziękuję za sugestie.

  18. Dziękuję bardzo za błyskawiczną odpowiedź.

    Czy da się jakoś zautomatyzować takie zapytania, żeby np. pobrać od razu dane z całego roku lub kilku lat?

  19. Problem z zautomatyzowaniem pobierania już nieaktualny, tzn. użyłem programu wget, a dokładniej polecenia:
    wget –user=”nazwa_uzytkownika” –password=”token” -i list_of_urls

    Mam jednak wątpliwości dotyczące samych danych. Czy jest gdzieś gdzieś bardziej szczegółowy opis udostępnianych danych. Tzn. coś więcej niż w tym pliku Excela:
    https://dane.imgw.pl/pliki/listaDanychSystem.xlsx
    ?

    Interesuje mnie np. co oznaczają skróty MAWS, MILOS, SEBA, również chciałbym się upewnić co oznaczają niektóre z danych, np. “Suma opadu za dobę-ewaporometria”. Czy są gdzieś jakieś bardziej szczegółowe opisy tych różnych danych?

  20. Dzięki za szybką odpowiedź.

    Czyli trzeba się tego domyślać (ewentualnie porównywać z tymi samymi danymi z innych źródeł, żeby się upewnić)? Nie ma jakichś dodatkowych wyjaśnień tych opisów poza tym plikiem Excela?

  21. Forumowicze, chciałem prosić was o pomoc. Wiecie może czy istnieje możliwość aby z bazy udostępnianej przez IMGW pobrać średniodobowe temperatury dla wybranych punktów (miast wojewódzkich w moim przypadku) dla każdego dnia w ciągu ostatnich 5 lat. Zastanawiam się po prostu czy można pobierać od razu długie szeregi czasowe, a nie w tym zakresie tydzień czy też doba.

    Pozdrawiam

  22. Zdecydowanie najwięcej problemów z użytkowaniem serwisu sprawia lista dostępnych parametrów. Trudno dopasować kod pobieranych danych do stacji, tak aby dane poprawnie się zaciągnęły. Dużym ułatwieniem byłoby, gdyby po wybraniu danej stacji automatycznie do niej dostosowywałaby się lista dostępnych parametrów. W przypadku danych ze stacji synoptycznych to wiadomo, że szukamy oznaczenia synop, ale co z innymi? Dajmy na to stację w Woli Justowskiej. Czy ograniczyć wybór tylko do parametrów klimat, a może MAWS lub MILOS lub jeszcze coś innego. Próbowanie każdej opcji z osobna jest czasochłonne i irytujące.

Leave a Comment


NOTE - You can use these HTML tags and attributes:
<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

%d bloggers like this: