2024/03/28 23:03

Dane

Od pewnego czasu na stronach IMGW pojawił się dostęp do danych meteorologicznych. Są to przede wszystkim dane pomiarowe ze stacji synoptycznych i klimatologicznych różnych rzędów. W przypadku tych ostatnich należy się kilka słów wyjaśnienia.

Dostęp (po uprzedniej rejestracji) możemy uzyskać poprzez stronę https://dane.imgw.pl/. Problemem może być dla niektórych prawidłowy wybór parametrów – trzeba przyznać, że konstrukcja strony tego nie ułatwia.

Dla przykładu, jeśli chcemy pobrać dane dla Białowieży musimy wiedzieć, że jest to posterunek klimatologiczny III rzędu. Z listy stacji wybieramy więc stację 252230120-BIAŁOWIEŻA, rodzaj danych B100B007CD oraz datę. Najlepiej wybrać zakres tygodniowy. W przypadku stacji synoptycznych (np. 351160424 – WROCŁAW) wybieramy rodzaj danych B100B008CD lub B100B013CD.

Dla wszystkich, którzy będą teraz sobie chcieli stworzyć serie czasowe dla posterunków klimatologicznych (nie stacji synoptycznych) teraz ważna informacja. Otóż dane te nie są homogenizowane. Oznacza to, że średnie temperatury dobowe zostały wygenerowane w sposób, w jaki je generowano w danym czasie. Niestety sposób wyciągania średnich dobowych temperatur powietrza na stacjach klimatologicznych zmieniał się na przestrzeni lat. Zacytuję tu fragment artykułu [1]:

Charakterystyki termiczne wyliczone przy pomocy omawianych metod jak i różnice w średniej temperaturze powietrza pomiędzy poszczególnymi metodami a metodą rzeczywistą dają zbliżone wyniki. Wyjątek stanowi metoda stosowana na  stacjach klimatologicznych IMGW od  1996 r., z  której wyniki są wyraźnie zaniżone względem wyników uzyskanych z  metody rzeczywistej.
Co to oznacza? Oznacza to, że zmiana metody wyliczania średniej temperatury dobowej w 1996 w znaczny sposób wpłynęła na ich wartości, zaniżając je względem średniej rzeczywistej. Na stacjach synoptycznych badanych w artykule zmiana ta sięga 0.2°C.
Siedem metod wyznaczania średniej dobowej temperatury powietrza opisanych w artykule, to:
  • M1 = (T00 + T01 + T02 + … + T23) / 24; tzw. średnia rzeczywista, w czasie GMT,
  • M2 = (T00 + T03 + T06 + T09 + T12 + T15 + T18 + T21) / 8; średnia stosowana na  stacjach synoptycznych IMGW od 1966 r. do dziś, w czasie GMT,
  • M3 = (T00 + T06 + T12 + T18) / 4; średnia stosowana na stacjach klimatologicznych IMGW w latach 1971–1995 r., w czasie GMT,
  • M4 = (Tmax + Tmin + T06 + T18) / 4; średnia stosowana na stacjach klimatologicznych IMGW od 1996 r. do dziś; Tmax i Tmin mierzone od godz. 18.00 dnia „N“ do godz. 18.00 dnia „N + 1“ w czasie GMT,
  • M5 = (T06 + T13 + 2*T20) / 4; średnia stosowana przez państwowe służby ČHMÚ (czeska) i DVD (niemiecka), w czasie GMT,
  • M6 = (Tmax + Tmin) / 2; średnia stosowana przez kraje Ameryki Północnej, Australię i niektóre kraje europejskie (np. w Hiszpanii, w Wielkiej Brytanii),
  • M7 = (T06 + T12 + 2*T20) / 4; średnia stosowana w latach 1946–1965 na stacjach synoptycznych i klimatologicznych IMGW oraz w latach 1965–1970 na klimatologicznych IMGW, w czasie GMT.

Tekstem pogrubionym zaznaczyłem te metody, które nas interesują w przypadku stacji klimatologicznych. Wynika z tego, że w kolejnych latach stosowano następujące metody:

  • 1946-1970: M7, (T06 + T12 + 2*T20) / 4
  • 1971-1995: M3, (T00 + T06 + T12 + T18) / 4
  • 1996 – dziś: M4, (Tmax + Tmin + T06 + T18) / 4

Z punktu widzenia kogoś, kto ma zamiar analizować serie czasowe, największy problem stanowi zmiana, która nastąpiła w 1996, bo w znaczący sposób wpływa na wyniki, zaniżając je względem metody M3 o około 0.2 – 0.3°C. W sposób oczywisty stanowi to zerwanie homogeniczności serii i należy tu wprowadzić stosowne poprawki. Kłopotliwy jest fakt, że poprawki te nie są uniwersalne dla każdej stacji. Wiele zależy od jej położenia – dla stacji położonej na wzniesieniu (przykładowo Zielona Góra) poprawki będą inne, niż dla stacji położonej w dolinie, czy kotlinie. Dzieje się tak z uwagi na różny średni przebieg temperatury w ciągu doby w miejscach o różnej rzeźbie terenu (dla przykładu na Śnieżce różnic nie ma prawie w ogóle).

Należałoby również sprawdzić, czy przypadkiem w ostatnich latach z uwagi na powszechną automatyzację, na stacjach tych nie stosuje się średniej rzeczywistej. Pomocne tu może być porównanie pomiarów na stacjach klimatologicznych z pomiarami na pobliskich stacjach synoptycznych.

Tyle tytułem wstępu. Jeśli uda mi się dość do jakichś kolejnych wniosków odnośnie owych serii pomiarowych, z pewnością się tu nimi z wami podzielę.

[1] Urban G. 2010: Ocena wybranych metod obliczania średniej dobowej, miesięcznej i rocznej wartości temperatury powietrza (na  przykładzie Sudetów Zachodnich i  ich przedpola). Opera Corcontica 47/2010 Suppl. 1: 23–34

Print Friendly, PDF & Email
0 0 votes
Article Rating
Subscribe
Powiadom o
77 komentarzy
Inline Feedbacks
View all comments
Arctic Haze ☀️

Ten wpis dedykuję zwolennikom używania surowych danych, jako rzekomo niemanipulowanych przez wstrętnych naukowców.

tomasinski

Jak rozumiem metoda M4 działa trochę inaczej tzn. t max i t min dnia N jest mierzone od godziny 18 dnia „N-1” do 18 dnia „N” (a nie jak napisane powyżej od N do N+1)

tomasinski

a swoją drogą co sądzicie o takim mierzeniu t max i t min? Czy to nie jest trochę mylące? Dlaczego nie jest brana np. zwykła doba? Albo dlaczego nie jest to liczone od poprzedniego zmierzchu słońca do następnego? To byłoby trudniejsze metodologicznie ale w dzisiejszych czasach komputeryzacji nie nastręczałoby problemów. A wydawałoby mi się słuszniejsze. Bo sądzę że rozwiązanie 18 – 18 miało na celu właśnie pokazanie t min i t max w ujęciu takim, że do doby meteorologicznej klasyfikujemy poprzedzającą noc (jako silnie wpływającą na pogodę w ciągu dnia) i następujący po nim dzień. Z tym że np. pod… Czytaj więcej »

Major

Pytanie laika – dlaczego średniej dobowej nie oblicza się z większą rozdzielczością, np. minutową? W dobie pomiarów cyfrowych nie powinno to być żadnym problemem…

Arctic Haze ☀️

Nie wiem czy to nie właśnie to miał na myśli Piotr pisząc:

Należałoby również sprawdzić, czy przypadkiem w ostatnich latach z uwagi na powszechną automatyzację, na stacjach tych nie stosuje się średniej oczywistej.

Chociaż myślę, że raczej miał na myśli średnią z kolejnych godzin. Nie mam nic wspólnego z IMGW ale wiem co to znaczy automatycznie zbierane dane. Bez przejrzenia ich przez człowieka nie radziłbym ich używać. Dlatego obstawiam, że to jednak średnia z wartości godzinnych, a nie minutowych (za dużo pracy z przeglądaniem czy nie ma „strzałów” wartości mierzonej).

Major

Bez przejrzenia ich przez człowieka nie radziłbym ich używać. Na czym miałoby polegać przejrzenie? Zawsze byłem uczony na laborkach z fizyki, że dane (pomiarowe) to dane i nie ma mowy o ich ręcznym poprawianiu, czy wybieraniu „prawidłowych”. Z anomalnymi odczytami radziliśmy sobie stosując kryterium 3 sigma. Przy okazji procent odrzuconych pomiarów wskazywał na poprawne (lub nie) przeprowadzenie doświadzczenia. W naszym przypadku można np. dokonywać pomiarów jeszcze częściej – nawet co 4 sekundy. Następnie odrczucać wyniki nie spełniające kryterium 3 simga (a może nawet 2 sigma?) i liczyć z 15 pomiarów średnią minutową. A potem suma średnich/1440 i mamy precyzyjną średnią… Czytaj więcej »

Arctic Haze ☀️

@Major To pokazuje jak źle uczą na tych laborkach. Gdyby było tak jak Cię uczono to po co wszystkie produkty w dziedzinie fizyki atmosfery mają zawsze podany „level”? Tu jest przykład co muszą przejść dane o aerozolowej grubości optycznej aby były uznane za „level 2”: https://aeronet.gsfc.nasa.gov/new_web/Documents/Quality_Control_Checklist.pdf Pomiar temperatury jest prostszy ale wszędzie gdzie instrumenty wystawione są na działanie „żywiołów” i dane transmitowane (nawet kablem) należy spodziewać się niespodziewanych błędów. Dane trzeba przejrzeć już chociaż pod kątem czy są ciągłe (przerwy w transmisji), czy leżą w prawdopodobnym zakresie (instrument się nagle rozkalibrował) i czy nie maja dziwnych krótkotrwałych oscylacji (wiele przyczyn,… Czytaj więcej »

Major

Zacznę od końca. PS. Dla danych meteo w ocieplającym się świecie 3 sigmy to stanowczo za mało. Inaczej fale upałów takie jak w Moskwie latem 2010 czy obecnie w Arktyce uznasz za błąd pomiarowy. Czasami i pięć sigm nie wystarcza. A przyczyną jest to, że mechaniczne stosowanie odchylenia standardowego dla danych z trendem jest w oczywisty sposób błędne. To pokazuje jak bardzo się nie rozumiemy. Ja mówię o trzech (a nawet dwóch) sigmach w ramach średniej MINUTOWEJ, obliczanej np. z 15 pomiarów przeprowadzanych co 4 sekundy. Inny mój kolega zdradził mi kiedyś, ze pracował parę miesięcy nad takim programem do… Czytaj więcej »

Arctic Haze ☀️

@Major Zechciało mi się poszukać i znalazłem projekt rekomendacji pt.: „Guidelines on Quality Control Procedures for Data from Automatic Weather Stations” dla WMO: https://www.wmo.int/pages/prog/www/IMOP/meetings/Surface/ET-STMT1_Geneva2004/Doc6.1(2).pdf Nie wiem czy i w jakiej formie go przyjęto ale warto zobaczyć, że jest tam o wszystkim o czym pisałem. Rekomendacje zawierają zarówno sposoby automatycznego jak i „ludzkiego” przeglądania danych. Krótki opis tych drugich: Extended Quality Control procedures should be applied at the national Data Processing Centre. The checks that had already been performed at the AWS site should be repeated at DPC but in more elaborate form. This should include comprehensive checks against physical and… Czytaj więcej »

Major

Po pierwsze, większość (jeżeli nie wszystkie) zagadnień jakie podnosiłeś w stosunku do danych zebranych automatycznie Twoim poście z 2017/01/03 13:01 at 13:14 jest zaadresowana (i rozwiązana) w rozdziale drugim (BASIC QUALITY CONTROL PROCEDURES). Wszystko w 100% zautomatyzowane. Przy okazji jest mowa o częstotliwości próbkowania 10 sekund. Na podstawie tak zebranych próbek z zależności od mierzonej wartości są liczone średnie minutowe (z wyjątkiem wiatru – tam 2 lub 10 minutowe). Żeby było śmieszniej wprowadzone są także kryteria jakości danych, o których pisałem wcześniej, choć nie w formie kryterium 3 sigma. W każdym razie, jeżeli w danej serii pomiarów (6/min) jest mniej… Czytaj więcej »

Arctic Haze ☀️

Tak niezautomatyzowane jest tylko to co skopiowałem (a i to jest ukryte przez brak słowa „automatic” w ich opisie). Ten dokument to szósty draft i podejrzewam, ze mocno walczono o to aby udawać, ze wszystko można zautomatyzować. Bo z doświadczenia poza służbami meteorologicznymi (z prawdziwych badań naukowych) wiem, ze to mrzonki. Jedno spojrzenie człowieka na wykres znajdzie więcej złych pomiarów niż nawet najbardziej skomplikowany algorytm. I nie kłóć się z tym bo nawet z tego co pisze nasz gospodarz na tym blogu wynika, że wiedza człowieka o tym co i jak się mierzy na jakiej stacji i kiedy to się… Czytaj więcej »

Arctic Haze ☀️

Dodam jeszcze, ze zgadzam się, że przy coraz szybszych komputerach coraz większa część QC (quality control) jest robiona automatycznie. I jest to oczywiste, nie tylko dlatego że jest to możliwe ale dlatego, że jest to konieczne. Po prostu wynika z ilości danych. Nie zmienia to faktu, ze dane używane do celów naukowych są sprawdzane także „ręcznie” bo to zapewnia najwyższą jakość. A temperatury mierzone co minutę (nawet gdyby to miało statystyczny sens) są znacznie trudniejsze do sprawdzenia ręcznego niż pomiary co godzinę. Od tego właśnie zaczęła się nasza dyskusja. Polecam tez artykuł na ten właśnie temat: https://www.univie.ac.at/amk/vera/Literatur/Steinacker2011.pdf Cytuję fragment: Quality… Czytaj więcej »

Major

Odpisuję tutaj, ponieważ brak przycisku reply dla posta z 2017/01/03 19:01 at 19:30. Jedno spojrzenie człowieka na wykres znajdzie więcej złych pomiarów niż nawet najbardziej skomplikowany algorytm. Stopień skomplikowania algorytmu nie jest wyznacznikiem jakości rezultatów uzyskiwanych dzięki niemu. I nie kłóć się z tym Nie kłócę się, dyskutuję, odnosząc do pomiarów meteorologicznych swoją wiedzę n/t pomiarów w innych dziedzinach. wiedza człowieka o tym co i jak się mierzy na jakiej stacji i kiedy to się zmieniało jest ważniejsza niż jakakolwiek automatyczna analiza Hehe, no na pewno tak jest jeżeli – sprzęt jest przestarzały, niekalibrowany od lat, lub po prostu uszkodzony.… Czytaj więcej »

Arctic Haze ☀️

No to Ci jeszcze zacytuję fragment tego artykułu (Shafer 2000), cytowanego we wcześniej skopiowanym tekście: http://journals.ametsoc.org/doi/full/10.1175/1520-0426(2000)017%3C0474:QAPITO%3E2.0.CO%3B2 A fragment jest o prawdziwych przykładach, gdzie „ludzka” analiza danych pozwoliła ustalić rzeczy, których żaden algorytm by nie scharakteryzował prawidłowo (biorąc prawdziwe pomiary za błędy i odwrotnie): Results from QA processes, combined with human experience and meteorological knowledge, can lead to the discovery of previously unknown microscale phenomena. One example is the relatively frequent indication of data problems, as detected by the automated spatial analysis routine, at the Medicine Park station in southwest Oklahoma during overnight periods. The station is located within an isolated… Czytaj więcej »

Major

some data centers still consider human inspection to be an important part of the QC procedure (Shafer et al. 2000). SOME – słowo klucz. A fragment jest o prawdziwych przykładach, gdzie “ludzka” analiza danych pozwoliła ustalić rzeczy, których żaden algorytm by nie scharakteryzował prawidłowo (biorąc prawdziwe pomiary za błędy i odwrotnie): Żadena algorytym? Czy algorytm akurat w tym konkrentym przypadku zastosowany? Poza tym The Oklahoma Mesonet’s QA system represents a compilation of processes that range from simple testing to sophisticated analysis. Automated processes prompt human attention, while human experience shapes the design and interpretation of the automated processes. Czyli człowiek… Czytaj więcej »

Arctic Haze ☀️

@Major My dyskutujemy o dwóch różnych rzeczach: 1) czy można wierzyć w to co stacja nadaje (od tego zaczęliśmy) 2) czy czynnik ludzki jest potrzebny w ocenie tego co powyżej. Ad 1) Myślę, ze tu już się poddałeś bo dyskutując o punkcie drugim automatycznie (pun intended) przyznałeś mi racje w pierwszym. Dane z przyrządów stojących w terenie nigdy nie mogą być traktowane jako wiarygodne bez QC. Przecież zacząłeś dyskusje od tego, „że dane (pomiarowe) to dane i nie ma mowy o ich ręcznym poprawianiu, czy wybieraniu “prawidłowych””. Otóż nie. A czy wybiera człowiek czy algorytm twoje stwierdzenie jest po prostu… Czytaj więcej »

Major

Otrzymałem odpowiedź na swoje początkowe pytanie – jak pisze Piotr Djaków, nie tylko zbiera się dane minutowe, ale też w praktyce są bardzo przydatne.

Arctic Haze ☀️

@Major Zależy do czego. My zbieramy dane o temperaturze 10 razy na sekundę. Ale są to pomiary z anemometru sonicznego (tak on również mierzy temperaturę!) i potrzebne są do wyliczenia strumienia ciepła wyczuwalnego metodą korelacji wirów. Ale nawet w tym wypadku nie radzę tego robić bez QC. A przyjrzenie się wykresowi danej zmiennej ludzkim okiem to naprawdę bardzo silne narzędzie kontroli jakości. PS. W tym wypadku tak częste pomiary są możliwe ponieważ temperatura soniczna (mierzona anemometrem) ma praktycznie zerową skalę relaksacji. To po prostu pomiar prędkości kolejnych impulsów (ultra)dźwiekowych. Nie ma żadnej pojemności cieplnej, która powoduje opóźnienie zmiany temperatury przyrządu… Czytaj więcej »

Marcin D.

Tylko pytanie po co? Różnice będą minimalne a obciążenie większe.

Arctic Haze ☀️

Jeśli istnieją dane to trzeba je wykorzystywać. Ale nie gęściej niż godzina. I nie tylko z powodu większej pracy z Data Quality Control ale z przyczyny czysto statystycznej. Mianowicie nie ma co liczyć średniej gęściej tzw. skala dekorelacji (a w przypadku ciągów czasowych czas dekorlacji), bardzo ważny i bardzo nieznany parametr analizy statystycznej. Po prostu nie zyskuje się dodatkowej informacji próbkując częściej niż wynosi ten czas. Powołam się na prezentację ze stron WMO aby mi meteorolodzy nie mówili, że go sobie wymyśliłem ? https://www.wmo.int/pages/prog/arep/wwrp/new/wwosc/documents/WWOSC_20140818.pdf chociaż osobiście wolę podręcznik statystyki dla klimatologów von Storcha i Zwiersa (podrozdziały 17.1 i 17.2). Kiedyś… Czytaj więcej »

Arctic Haze ☀️

PS. Pewnie jak zwykle nikogo to nie zainteresuje ale ten parametr (zwany obecnie czasem dekorelacji) pierwszy w naukach meteorologicznych wprowadził Trenberth (ten sam co od bilansu energetycznego Ziemi i od ENSO) w 1984 roku, w tym artykule (dostępnym za darmo):
http://journals.ametsoc.org/doi/abs/10.1175/1520-0493%281984%29112%3C2359%3ASEOFSS%3E2.0.CO%3B2

Nie widzę aby Trenberth tam użył tej nazwy ale jego T0 to ewidentnie czas dekorelacji (ten sam wzór).

wjt333

Akurat mnie to zainteresowało. Hobbystycznie mierzę temperaturę w szklarni czujnikami DS18B20, właśnie z interwałem 1min i przesyłam je po wifi na serwery thingspeak.https://thingspeak.com/channels/175271/
Mam już serię danych z 2 miesięcy i próbuję je przeanalizować w Octave. Wszystko o czym pisze ArcticHaze odczuwam na własnej skórze – tj. zakłócenia wifi, odpadnięcie i przemieszczenie czujnika. O tym czasie dekorelacji będę musiał doczytać.

zaciekawiony

Z pobieżnego przejrzenia wynika że określenie „skala dekorelacji” w polskim internecie w takiej formie pojawia się tylko… w twoich wypowiedziach na różnych blogach. Wszędzie indziej jest mowa o dekorelacji czegoś lub czasie dekorelacji czegoś.

Arctic Haze ☀️

@Zaciekawiony Bo ja też nigdy o tym po polsku nie czytałem. Zresztą po angielsku też to nie jest częste. Bo niewygodne. Mniej zależności jest statystycznie istotne jeśli zauważymy, że zmienne jakie korelujemy mają same autokorelacje. Tzn. zmierzymy temperaturę w styczniu 10 razy gdy jest niż i 10 razy podczas wyżu (najlepiej jednego dnia), skorelujemy z czymkolwiek co różni się choćby minimalnie między tymi dniami i mamy istotną korelację z ciśnieniem atmosferycznym? Nie, prawdopodobnie nie mamy, ale aby to zauważyć musimy uwzględnić czas dekorelacji. Po prostu te wszystkie wyżowe i niżowe pomiary niosą praktycznie tyle samo informacji co po jednym pomiarze.… Czytaj więcej »

Arctic Haze ☀️

@Piotr

A masz może serię pomiarów temperatury co minutę? Najlepiej po prostu kolumnę danych. Chętnie bym zobaczył jaka jest skala dekorelacji dla temperatury.

Arctic Haze ☀️

Dzięki. Wystarczy.

Policzyłem czas dekorelacji i wychodzi koło pół godziny (26,8 minuty). Czyli w sumie nie warto próbkować częściej niż co te pół godziny.

Kod w języku R wygląda tak (wroclaw_minute_t.txt to ten plik z 1 stycznia z Wrocławia):

x <- read.fwf(„wroclaw_minute_t.txt”, widths=c(16,5), header=TRUE)
t <- x$TE

n <- length(t) – 2
y <- 1 : (n+2)

fit <- lm(t~y)
ac <- acf(t – fit$fitted.values, lag=n, plot=FALSE)

dec <- 1
for (i in 1:n) {
dec <- dec + 2*(1-i/n)*ac$acf[i+1]
}
print(’Decorrelation scale (in minutes)’)
print(dec)

PS. Musiałem zamienić wszystkie znaki mniejszości na kod z HTML-u bo się blockquote wychrzaniał.

whiteskies

A ja mierze czasem temperaturę powietrza 50000 razy na sekundę. Poważnie…

Major

I jeszcze jedna sprawa – testowo chciałem uzyskać dane z Białowieży, niestety jestem w stanie.

Po wygenerowaniu zapytania, strona przekierowuje mnie do https://dane.imgw.pl/1.0/pomiary/cbdo/252230120-B100B007CD/tydzien/2015-12-12 a tam li tylko:

{
„code”: 200,
„baza”: „cbdo”,
„stacjaKod”: „252230120”,
„stacjaNazwa”: „BIAŁOWIEŻA”,
„klasyfikacjaKod”: „B100B007CD”,
„klasyfikacjaNazwa”: „Średnia temperatura powietrza-doba-klimat”,
„klasyfikacjaJednostka”: „C”,
„dataOd”: „2015-12-07T00:00:00”,
„dataDo”: „2015-12-13T23:59:59”,
„pomiary”: []
}

Pytanie – co źle robię?

Dawid

Mam program napisany przez znajomego który zamiast kodów parametrów ma same parametry oraz nazwy stacji.

http://wstaw.org/m/2017/01/03/1_2.png

Niestety nie ma danych ze stacji 2-3 oraz 5 rzędu i danych hydrologicznych.

jak ktoś chce program pisać na fb: https://www.facebook.com/ppppp65

ddd

Jak mam sprawdzić dane dekadowe i roczne jeśli chodzi o wystąpienie burz? Tam jest tylko zakres tygodniowy do wybrania…

Arctic Haze ☀️

A propos jakości produktów on-line produkowanych przez IMGW, na stronie pogodynka.pl (należącej do naszej służby meteorologicznej), na stronie „Dane klimatyczne” http://www.pogodynka.pl/polska/daneklimatyczne/ są średnie miesięczne, najzimniejsze i najcieplejsze miesiące szeregu Polskich miast za lata 1981-2010. Nie napisano czy to średnie dobowe ale z wartości wygląda, że tak. Jednak im bardziej się w to wgłębiam tym gorzej. Najtragiczniej jest dla Bydgoszczy gdzie dane za 30 lat obejmuję zaledwie okres roku 1981 i pierwszej połowy 1982. Skąd o tym wiem? Jeśli ten sam miesiąc z 1981 roku jest zarówno najzimniejszy jak i najcieplejszy w serii to dla tego miesiąca dane są tylko z… Czytaj więcej »

Robert93

Może została w 1982 zlikwidowana tam stacja synoptyczna.
Obecnie nawet IMGW mierzy temperaturę w Bydgoszczy, ale to tylko posterunek IMGW, więc niższa ranga i zakres pomiarów.
http://monitor.pogodynka.pl/#station/meteo/253180220

Arctic Haze ☀️

Jak napisałem wcześniej, jeśli mają niepełne dane, nie powinni tego przedstawiać jako klimatologii (średniej 30-letniej).

A już szczególnie jeśli dla pięciu miesięcy są to dane z jednego roku (tak!).

tomek

Witam,
czy istnieją dane o minimalnej temperaturze maksymalnej w historii pomiarów meteorologicznych w miastach Grecji?? Interesuje mnie to, pozdrawiam.

kamiltatry

Bardzo fajna sprawa z tym uwolnieniem danych meteorologicznych. Nie spodziewałem się, że IMGW udostępni tak wielki zbiór danych nieodpłatnie i to bez konieczności biurokratycznych formalności. Jestem mile zaskoczony. :smile:

Mocno poprawi się powszechna wiedza na temat ekstremów termicznych w Polsce. Do tej pory było z tym słabo, a teraz mamy okazję poznać różne ciekawe rekordy T min i T max.

wojo

A ja, czy mógłbym się zapytać, jak uzyskać dobowe i 12-godzinne sumy opadów dla stacji synoptycznych (np. Kraków-Balice)? Chcę być pewny, że nie zanotowano faktycznie opadu na stacji (jak wiadomo, nie koduje się depeszy z 6.00 UTC o sumie dobowej, gdy opadu nie ma).

Dawid

Ja natomiast chciałem się zapytać, czy te dane z Rozdziela poniżej to opad deszczu ten sam, który jest notowany na tej stronie? http://monitor.pogodynka.pl/#station/meteo/249200120 { „code”: 200, „baza”: „cbdh”, „stacjaKod”: „249200120”, „stacjaNazwa”: „ROZDZIELE”, „klasyfikacjaKod”: „B600B018FD”, „klasyfikacjaNazwa”: „Suma dobowa opadu – woda”, „klasyfikacjaJednostka”: „mm”, „dataOd”: „2016-10-03T00:00:00”, „dataDo”: „2016-10-09T23:59:59”, „pomiary”: [ { „data”: „2016-10-03 00:00:00”, „wartosc”: „25.2”, „status”: „0” }, { „data”: „2016-10-04 00:00:00”, „wartosc”: „49.8”, „status”: „0” }, { „data”: „2016-10-05 00:00:00”, „wartosc”: „”, „status”: „1” }, { „data”: „2016-10-06 00:00:00”, „wartosc”: „”, „status”: „1” }, { „data”: „2016-10-07 00:00:00”, „wartosc”: „”, „status”: „1” }, { „data”: „2016-10-08 00:00:00”, „wartosc”: „3.7”, „status”:… Czytaj więcej »

Arctic Haze ☀️

@Piotr

A jakim typem termometru były mierzone te wrocławskie dane co-minutowe? Pytam bo ciekaw jestem ile z tej autokorelacji o półgodzinnej skali czasowej to przyroda, a ile sam przyrząd (skala jego czasu relaksacji).

EDIT. Żeby znów ktoś nie napisał, że tylko ja używam takiego pojęcia, podam definicję czasu relaksacji ze słowniczka American Meterorological Society:
http://glossary.ametsoc.org/wiki/Relaxation_time
A przykład który podają to… właśnie termometr.

Marcin D.

Zapewne czujnik Pt100 lub Pt 1000 umieszczone w klatce. Są to czujniki o szybkim czasie reakcji. Pewną zwłokę w pomiarach wprowadza zapewne klatka. W osłonie aspiracyjnej przebieg byłby jeszcze bardziej poszarpany.

Arctic Haze ☀️

Dzięki za info. Tego typu czujniki są szybkie, zasadniczo ogranicza je pojemność cieplna powietrza przepływającego wokół nich (czyli tak naprawdę prędkość jego przepływu wokół czujnika). W realistycznych warunkach powinno to być coś koło minuty. Zresztą widać to z danych jakie Piotr ujawnił. Zanotowane zmiany temperatury między sąsiednimi minutami w tej serii to wiele razy nawet 0.4 K/min, a co najmniej raz 0.5 K/min. To pozwala nadążyć za prawie wszystkim co przyroda potrafi przynieść, może z wyjątkiem spadku temperatury podczas letniej burzy ?

Marcin D.

W przypadku nagłego ochłodzenia np. podczas letniej burzy większe ograniczenia niesie rodzaj stosowanej osłony radiacyjnej jak sam czujnik. Literatura podaje, że zwłoka klatki przy bezwietrznej pogodzie może sięgać nawet 15 min. Z drugiej strony przy burzy często wieje, więc nawet klatka powinna szybko odpowiedzieć na zmianę warunków. Może nie tak szybko jak osłona aspiracyjna, ale nie powinno być źle.

Arctic Haze ☀️

Ale tempo zmian potrafi być naprawdę duży gdy spada zimne powietrze. Widziałem kiedyś prawie 20 stopni w dół w kilka minut. A to co widziałem też było limitowane możliwościami termometru.

whiteskies

Zdziwilibyście się jak wyglądają fluktuacje temperatury powietrza przy powierzchni ziemi (2 m nad) mierzone naprawdę szybkim termometrem (mała pojemność cieplna, dobra wymiana termiczna z powietrzem, powiedzmy 1mm drucika o średnicy 1 mikrometra :)

zainteresowany klimatem

Dużym minusem tej bazy dany jest chaos organizacyjny jeśli chodzi o kod stacji i rodzaj danych. W kodzie stacji jest po nawet kilknaście danych dla jednego miasta np. Warszawy w zależności od stacji. W rodzaju danych też zbyt duży rozrzut-osobiście ten sposób prezentowania danych mie się nie podoba – bo jest zbyt czasochłonny. Wolałbym np. w przypadku Warszawy-jeden kod ze stacji Okęcie. Interesuje mnie np. jakie były temperatury w grudniu 1969 (cały miesiąc) w Warszawie i innych większych miastach Polski- ale nie mam niestety po prostu czasu żeby się w to bawić. Zdecydowanie wolałem prezentacje danych historycznych na ogimet

zainteresowany klimatem

Chodzi np. o to że nie wszystkie posterunki obejmują dane z 1969, a ja np. nie wiem do których posterunków te dane spływały wtedy co sprawia że wybieram kolejne to jest trochę czasochłonne. No chyba że ja źle szukam.
Fajnie że dane zostały udostępnione ale można się w to bawić jak ktoś ma więcej czasu.
Dla przykadu ogimet (choć dane nie zawsze były precyzyjne-występowały przekłamania co do temperatur i opadów) prezentował dane od razu z całego miesiąca dla konkretnego miasta.
Zaznaczam że jest moja prywatna opinia

martin87

Ciekawe dlaczego przy wybieraniu danych aktualnych ze stacji synoptycznej np. z Wrocławia pokazuje czas pomiaru np. 19:00:56 a dokładna godzina na zegarku to 18:58 z sekundami. Po czym żeby odświeżyć te same dane potrzeba czekać np. godzinę jak się pojawią. A z innego konta pobierając te same dane można otrzymać je aktualne na chwile obecną powiedzmy pobierając je 10 min później niż na koncie pierwszym i wtedy nie trzeba czekać godziny na aktualne dane.

fotowoltaik

Chciałbym skorzystać z danych, których nigdzie nie umiałem znaleźć, dotyczących natężenia promieniowania słonecznego, żeby sprawdzić, jak porównuje się generacja mojej minifarmy fotowoltaicznej z teoretycznym potencjałem (i porównać jak dany miesiąc wypada na tle średniej wieloletniej). Wybieram stację 350190560-Katowice i bazę cbdh. Kod B695B00800-Aktynometria-doba-synop generuje pusty wynik, natomiast B691E00200-„Czas trwania usłonecznienia od godz. 00 UTC-synop” ma absurdalną jednostkę w opisie [J/cm2], ale w rzeczywisci chyba podaje zgodnie ze słownym opisem skumulowany czas (w godzinach) usłonecznienia w danej chwili. Jest to na pewno bardziej przydatny wynik niż samo całkowite dobowe usłonecznienie (bo można to pomnożyć przez moc promieniowania wg teorii w danej… Czytaj więcej »

zaciekawiony

Ale jest jakaś możliwość określenia poprawek dla homogenizacji danych dla danej stacji? Czy tylko porównanie średniej z danych godzinnych i liczonej różnymi sposobami?

zaciekawiony

Znalazłem taką publikację z przedstawionym sposobem ustalania poprawek:
http://www.geo.uni.lodz.pl/~meteo/kf/publikacje_kf_PDF/r2004_ActaGeoLodz_89_p19_Wibig_etal.pdf

Arctic Haze ☀️

Proszę nie wykorzystywać tej nader sympatycznej Pani Profesor ?

(sorry ale przez tę kropkę, w pierwszej chwili przeczytałem Twą wypowiedź jako trzy krótkie zdania)

Darek

W jaki sposób można ściągnąć dane sum dekadowych?
Coś takiego nie działa:
https://dane.imgw.pl/1.0/pomiary/cbdh/352200375-B600D017FK/tydzien/2015-05-01
Czy ma ktoś jakiś pomysł?
Z góry dziękuję za sugestie.

Darek

Dziękuję bardzo za błyskawiczną odpowiedź.

Czy da się jakoś zautomatyzować takie zapytania, żeby np. pobrać od razu dane z całego roku lub kilku lat?

Darek

Problem z zautomatyzowaniem pobierania już nieaktualny, tzn. użyłem programu wget, a dokładniej polecenia:
wget –user=”nazwa_uzytkownika” –password=”token” -i list_of_urls

Mam jednak wątpliwości dotyczące samych danych. Czy jest gdzieś gdzieś bardziej szczegółowy opis udostępnianych danych. Tzn. coś więcej niż w tym pliku Excela:
https://dane.imgw.pl/pliki/listaDanychSystem.xlsx
?

Interesuje mnie np. co oznaczają skróty MAWS, MILOS, SEBA, również chciałbym się upewnić co oznaczają niektóre z danych, np. „Suma opadu za dobę-ewaporometria”. Czy są gdzieś jakieś bardziej szczegółowe opisy tych różnych danych?

Arctic Haze ☀️

„Suma opadu za dobę-ewaporometria”.

To będzie pewnie słynne P – E (precipitation minus evaporation), czyli myślnik w tej nazwie jest minusem ?

Darek

Dziękuję bardzo za wyjaśnienie.

Darek

Dzięki za szybką odpowiedź.

Czyli trzeba się tego domyślać (ewentualnie porównywać z tymi samymi danymi z innych źródeł, żeby się upewnić)? Nie ma jakichś dodatkowych wyjaśnień tych opisów poza tym plikiem Excela?

Arctic Haze ☀️

Nie do mnie pytanie bo nie mam nic wspólnego z IMGW. Po prostu widziałem już tyle źle opisanych danych, że potrafię zgadywać ?

seweryn

Forumowicze, chciałem prosić was o pomoc. Wiecie może czy istnieje możliwość aby z bazy udostępnianej przez IMGW pobrać średniodobowe temperatury dla wybranych punktów (miast wojewódzkich w moim przypadku) dla każdego dnia w ciągu ostatnich 5 lat. Zastanawiam się po prostu czy można pobierać od razu długie szeregi czasowe, a nie w tym zakresie tydzień czy też doba.

Pozdrawiam

wojo

Ciekawi mnie, czy są jakieś dane dla dzisiejszego Podkarpackiego z 1951 r.? Rzeszowa (jest od 52), Przemyśla ani Leska nie ma. Tarnów i Zamość to nie to. 6 lat po wojnie jeszcze była taka bieda?

wojo

aha, są dane z 1951 r. z bodajże Sanoka-Trepczy. Zawsze coś.

chochlik

Zdecydowanie najwięcej problemów z użytkowaniem serwisu sprawia lista dostępnych parametrów. Trudno dopasować kod pobieranych danych do stacji, tak aby dane poprawnie się zaciągnęły. Dużym ułatwieniem byłoby, gdyby po wybraniu danej stacji automatycznie do niej dostosowywałaby się lista dostępnych parametrów. W przypadku danych ze stacji synoptycznych to wiadomo, że szukamy oznaczenia synop, ale co z innymi? Dajmy na to stację w Woli Justowskiej. Czy ograniczyć wybór tylko do parametrów klimat, a może MAWS lub MILOS lub jeszcze coś innego. Próbowanie każdej opcji z osobna jest czasochłonne i irytujące.

77
0
Would love your thoughts, please comment.x