POLTEMP 1.0H3 – wykresy oraz klasyfikacja termiczna

POLTEMP 1.0H3 – wykresy oraz klasyfikacja termiczna

Klasyfikacja termiczna zrobiona na szybko w LibreOffice:

Aktualizacja: zmieniono okres bazowy na 1951-2017.

Wykresy poszczególnych miesięcy i sezonów dostępne są tutaj.

Print Friendly, PDF & Email

55 Replies to “POLTEMP 1.0H3 – wykresy oraz klasyfikacja termiczna”

  1. Może się mylę ale czy te wykresy są zrobione dla tej samej normy?- dziwnie wygląda jak średnie dekadalne, i ruchome 11 i 30 letnia “przebijają”poziom 0 tylko w ostatnich latach

      1. Pani admin publikując te dane udowodniła, że zna nawet nie wyartykułowane prośby czytelników bloga… :-)
        Gdyby jeszcze dało się zwiększyć rozdzielczość rysunku klasyfikacji termicznej przynajmniej o 50% (liniowo)…
        Pozdrawiam.
        Tadek

  2. Z tych wykresów widać, iż jedyna pora roku, która nam się nie ociepla po 1990 r to zima, tak też podejrzewałem..

        1. Wydaje mi się że tu średnia ruchoma bierze połowę punktów przed danym rokiem, i połowę po -i dlatego nie jest liczona dla pierwszych i ostatnich lat z zakresu.

          1. Ok, ale z danych tu zawartych sezon zimowy nam się nie ociepla od prawie 30 lat, jakkolwiek by nie patrzeć, w innych sezonach w analogicznym okresie jest wzrost temp

    1. Również przyłączam się do podziękowań za “kawał dobrej roboty” – tej, jak i innych – choć wykresy i “kolorowe” klasyfikacje lepiej przemawiają do wyobraźni, niż same liczby:-)

  3. Ok, ale z danych tu zawartych sezon zimowy nam się nie ociepla od prawie 30 lat, jakkolwiek by nie patrzeć, w innych sezonach w analogicznym okresie jest wzrost temp

    1. Sezon zimowy jest mocno pod wpływem znaku NAO. W latach 1990-ch zimowe NAO było najbardziej dodatnie, dlatego były to średnio najcieplejsze zimy w historii polskiej meteorologii. Cieplejsze będą gdy NAO znowu wzrośnie lub.. gdy poczekamy aż gazy cieplarniane zrobią to za nie. Myślę, ze nie będziemy musieli czekać długo.

      1. Zgadza się.. ; chyba że, jak pisales w innym poście – hipoteza grupy Cohena zacznie się sprawdzać, czego na razie nie możemy całkiem wykluczyć, bo tu i ówdzie czasem przychodza zimne extra, wtedy szanse na cieplejsze zimy znacznie zmaleja

        1. Ostatnio zaczynam nabierać przekonania, że globalne ocieplenie spycha NAO w stronę dodatnią. Jest na to zresztą literatura (chociaż są i odwrotne poglądy właśnie Cohena i kolegów). A jeśli policzyć korelację NAO z globalną temperaturą to jest dodatnia i to nawet dla całego cyklu 65-letniego, widocznego w danych NAO. Modelom to wychodzi pół na pół (jedne tak drugie owak), ale dane obserwacyjne wskazują raczej na dodatni wpływ ocieplenia na NAO. Z tym, że może to być efekt czegoś innego, np. spadku stężenia ozonu stratosferycznego, ale nie sądzę (bo ostatnio już nie spada).

          1. “A jeśli policzyć korelację NAO z globalną temperaturą to jest dodatnia i to nawet dla całego cyklu 65-letniego, widocznego w danych NAO.”

            Na pewno? Kiedyś sprawdzałem, i wydawało mi się że korelacji tam zupełnie brak.

          2. @oskar

            Dla zimowego NAO? Bo w pozostałych miesiącach to i tak nie ma znaczenia.

            Dla zimowej (DJFM) z NOAA i temperatur z serii GISS wychodzi mi korelacja 0.427, istotnie różna od zerowej z p<0.0004 (zasadniczo cztery sigmy).

          3. PS. Dodam, ze liczyłem to od 1950 roku, biorąc temperaturę globalna z roku kończącego się daną zimą, dla której zimowe NAO liczyłem jako średnią grudnia tego roku oraz trzech pierwszych miesięcy następnego. Sens to ma taki, że testuję to czy temperatura globalna danego roku może wpływać na NAO z najbliższej zimy.

          4. Sprawdziłem jeszcze dla całorocznego NAO i rzeczywiście korelacja z temperaturą globalną wychodzi mizerna (0.05, absolutnie nieistotna statystycznie p<0.67). Czyli pewnie tak to liczyłeś, zamiast dla zimowego. Bo jeśli interesuje nas zimowe to trzeba liczyć dla zimowego.

          5. Sprawdzilem, i dla wszystkich rekordów (od 1880 r.) korelacja wynosi 0.112 (widełki 95 % -0.057 do 0.27, p-value = 0.1924),
            zaś od 1950 r. 0.274 (widełki 95 % 0.038 do 0.48, p-value = 0.02373)

            https://i.imgur.com/VucqhvJ.png

            To co absolutnie nie koreluje, to zmiana temperatury rok do roku od 1960 roku (współczynnik korelacji 0.006, nawet nie liczylem zakresu)

            https://i.imgur.com/5FXiinn.png
            Przy okazji: dobrze by było do tych wykresów anomalii temperaturowej w Polsce dołączyć jakies pliki z danymi umożliwiające samodzielną analizę.

            P.S. Coś wyszlo z tymi supernowymi?

          6. Do supernowych wrócę niedługo. Na razie przygotowywałem referat na konferencję właśnie o NAO.

            A co do korelowania z NAO to użyłeś niewłaściwego indeksu. Jeśli chwile pomyśleć to indeks oparty o pierwszą funkcję ortogonalną pola ciśnień (ten od 1950 r.) będzie mniej zaszumiony niż wyliczany z serii ciśnień na dwóch stacjach (ten z 1880). Poza tym części serii przed mniej więcej 1970 rokiem ma niewielkie zmiany temperatury i spowodowane innymi czynnikami (zmiany aktywności słonecznej i wulkanizm), które mogą wpływać na NAO inaczej niż gazy cieplarniane.

            Nie jest to dziki domysł ale wynika z teorii i co najmniej z cześć modeli:
            Rind, D., J. Perlwitz, and P. Lonergan (2005), AO/NAO response to climate change: 1. Respective influences of stratospheric and tropospheric climate changes, J. Geophys. Res., 110, D12107, http://doi.org/10.1029/2004JD005103.

            Mianowicie ogrzanie głównie troposfery (gazy cieplarniane) zwiękssza AO/NAO, a ogrzanie głównie stratosfery (większa aktywność słoneczna albo więcej ozonu), zmniejsza AO/NAO. Dlatego w zbyt długiej serii nie będziesz miał wysokiej korelacji globalnej temperatury i NAO. Wybrałem 66 lat bo w danych istnieje wyraźny cykl o tej mnie więcej długości (korelacja po nie całkowitej długości cyklu powoduje dodatkowe artefakty).

            A żeby pokazać, że NAO reaguje na zmiany wymuszenia CO2, a nie inne czynniki zrobiłem prosty test, ale to już zostawię sobie na Wrocław.

            PS. Użyłem tej serii dla NAO:
            http://www.cpc.ncep.noaa.gov/products/precip/CWlink/pna/norm.nao.monthly.b5001.current.ascii.table
            a jako serię temperatur globalny GISS
            http://data.giss.nasa.gov/gistemp/tabledata_v3/GLB.Ts+dSST.txt
            (bo ma lepsze pokrycie Arktyki!)

          7. I jeszcze takie podsumowanie. Ktoś mógłby mówić, że znalazłem na siłę serie czasowe i okres dla którego będę miał największa korelację, ale to nieprawda. Po prostu wybrałem serie i okres dla których sądziłem, ze korelacja będzie mogła wystąpić (lepsze NAO bo mniej zaszumione lokalnymi zjawiskami, lepsza seria globalna bo w większym pokryciem powierzchni Ziemi, okres w którym zmienność była zdominowana przez gazu cieplarniane i cały cykl 65-66 letni jaki widać danych NAO).

            To, że uzyskałem wysoką korelację, która trudno powtórzyć “na ślepo” (bez tej wiedzy co wybrać) silnie potwierdza, że rozumiem procesy. Szczególnie cieszy mnie, że dla całego okresu od 1880 jest tak niska korelacja, bo w pierwszej części serii dominowało słońce i wulkanizm, a wg. modeli takie wymuszenia powinny działać odwrotnie na NAO niż gazy cieplarniane (powodując odwrotne korelacje temperatury i NAO).

            @Oskar, mógłbyś zobaczyć korelacje dla lat 1880-1950? Tobie łatwiej bo już masz tę serię “na tapecie”. Jestem ciekaw czy będzie ujemna. Nie musi być bo jednak CO2 i metan już wtedy też przyrastały (chociaż wolno), ale nie zdziwiłbym się gdyby jednak wyszła poniżej zera.

          8. Nieistotna ale ujemna (jak miałem nadzieję). Czyli chyba rzeczywiście wulkanizm i aktywność słoneczna działają odwrotnie niż gazy cieplarniane.

            Gazy cieplarniane ocieplają troposferę i oziębiają stratosferę czyli podwójnie zwiększają NAO. Zapiszmy to jako [+] (dodatnia korelację).

            Aktywność słoneczna gdy rośnie bardziej nagrzewa stratosferę niż troposferę zmniejszając NAO [-].

            Duża emisja wulkaniczna oziębia powierzchnię ale ogrzewa stratosferę powinna więc osłabiać NAO jednak wiemy z literatury, że przynajmniej pierwszej zimy jest odwrotnie (czyli najpierw [-], a potem [+]).

            Dlatego w okresie gdy zmienność (wzrost) wymuszenia gazów cieplarnianych nie dominowała, możemy się spodziewać znacznie mniejszej, a może nawet ujemnej korelacji. I jak widać tak było.

            Na koniec pewna uwaga o istotności statystycznej. Ma ją sens podawać gdy spodziewamy się, że istnieje korelacja. Wtedy p jest prawdopodobieństwem że otrzymaliśmy przypadkiem tę wartość korelacji w wypadku gdy hipoteza zerowa, mówiąca że korelacja jest zerowa, jest prawdziwa. To dokładnie oznacza p.

            Natomiast jeśli moja hipotezą jest, że nie ma korelacji, albo że jest bardzo mała (a tak jest w wypadku lat przed silnym wzrostem gazów cieplarnianych), nie można używać tak wyliczonego p dla odrzucenia mojej hipotezy! Wręcz odwrotnie, potwierdza ono, że uzyskany wynik statystycznie nie różni się od zera co może samo w sobie nie potwierdza, ale też nie pozwala odrzucić hipotezy braku korelacji!

          9. >Na koniec pewna uwaga o istotności statystycznej.

            Tak, oczywiście to wiem, to raczej info, dla innych.
            Korelacja raczej jest, niż jej nie ma, ale jest nieistotna statystycznie, czyli sama w sobie niczego jeszcze nie dowodzi -jest stosunkowo duża szansa że to przypadek.
            Żeby wykazać Twoją hipotezę, trzeba by co najmniej porównać z innymi parametrami, choćby wspomnianymi aktywnością słoneczną czy wulkaniczną -mając na uwadze, że same te parametry korelują zapewne z anomaliami temperatury.

          10. Ja wiem co trzeba żeby ją wykazać. Jednak chodzi mi o to, że brak istotności statystycznej nie jest problemem tam gdzie się jej nie spodziewamy.

            To wydaje się oczywiste, ale nie jest. Prowadziłem tej zimy jakieś warsztaty z doktorantami. Przedstawiali swoje wyniki w kontekście klimatycznym. Jedno z nich miało mapę przedstawiającą trendy. Wszystkie obszary gdzie trend nie był istotny statystycznie były białe, bez danych. Wiem, że do niektórych celów tak się przedstawia dane ale w tym wypadku to bez sensu. Powiedziałem im, że to co mamy między obszarami między istotnie statystycznie dodatnimi trendami, a obszarami z istotnie statystycznie ujemnymi trendami (te białe pasy) to obszary niskich trendów. Niski trend będzie mniej istotnie statystyczny, i przy odpowiednio niskiej wartości stanie się nieistotny statystycznie (tzn. szansa, że przy trendzie zerowym uzyskamy przypadkiem taka wartość stanie się większa niż zero). Ale przecież gdzieś przebiega linia gdzie trend jest naprawdę zero i jest to taka sama dobra wartość jak każda inna na tej mapie. Czemu ukrywać akurat zero?

            To samo absurdalne myślenie leży za stwierdzeniem, ze korelacja NAO i temperatury globalnej przed 1950 rokiem jest nieistotna statystycznie. Ona jest po prostu mała. A mała wartość jest równie dobra jak duża. Tylko świadczy o czym innym.

            Teraz się rozumiemy?

            PS. Doktoranci byli wyraźnie wstrząśnięci, że nikt im tej oczywistości wcześniej nie powiedział.

          11. Korelacja może być istotnie zerowa (p-value >0.95, przy zakladanym progu 5 %), istotnie niezerowa (p-value <0.95), lub przypadek pośredni, gdzie tak naprawdę nic nie możemy jednoznacznie orzec, co najwyżej się domyślać.

            W przypadku mapek, gdzie z jednej strony mamy obszar o istotnej zerowej korelacji, a z drugiej obszar istotnej niezerowej korelacji (dodatniej lub ujemnej), rzeczywiście może istnieć obszar pośredni. Z ciągłości, znając pewien model możemy się wówczas domyślać jakie trendy są tam przeważające (acz nie dominujące).

            Ale co innego jest gdy chcemy coć wykazać, nie wiedząc nic a priori (jak w przypadku zalezności między zimowym NAO, a temperaturą w latach 1880-1950 ). Wówczas sama nieistotna korelacja niczego nie dowodzi, bo jest odpowiednio duże prawdopodbieństwo uzyskania takiej wartości R w wyniku przypadku. Zakres 95 % wartości R obejmuje również wartości dodatnie.

            Co ja bym sugerował zrobić, to stworzyć wielowymiarową przestrzeń obejmującą kilka parametrów: temperaturę, NAO, aktywność słoneczną, aktywność wulkaniczną. I w niej szukać
            istotnych trendów, ewentualnie grupowania się punktów w określonych clusters, czy hiperpłaszczyzn podziału.

          12. @Oskar

            Nie. Litości! p>0.95 oznacza tylko, że jeśli zmienne są niezależne liniowo to uzyskana wartość korelacji może być przypadkowo z prawdopodobieństwem 95%. Czyli jest to co innego niż użycie p>0.95 jako odrzucenie hipotezy zerowej o istotności korelacji (powinniśmy stwierdzić, ze jeśli jest ona prawdziwa to zerowa korelacja może nam wypaść z prawdopodobieństwem p<0.05 a ponieważ mówimy o jednej liczbie w continuum to taki test zawsze da nam p=0.00). Prawdziwy statystyk, który rozumie o co chodzi w istotności statystycznej (były badania pokazujące, ze jest to mniejszość nawet wśród statystyków), prześwięcił by Cie za to. Nawiasem mówiąc w innych dziedzinach badań jest z tym w ogóle tragicznie. Twoja próba “odwrócenia” rozumowania o istotności tez świadczy, że Ty też nie sprawdzałeś o co w tym tak naprawdę chodzi.

            Nawiasem mówiąc wielu statystyków neguje sens samej idei istotności statystycznej. Jest na to bogata literatura. Jeśli chcesz to mogę dać namiary na kilka artykułów na ten temat.

          13. Twój test odrzuciłem z przyczyn teoretycznych i to powinno wystarczyć. Jeśli jednak nie jesteś przekonany to dodam argument praktyczny.

            Otóż w Twoim teście braku korelacji łatwiej go udowodnić na krótszych seriach niż na dłuższych (bo wtedy p są większe). Czyli “dowodzimy” braku korelacji zmniejszając ilość informacji jakie niosą serie. Czyli od razu widać, ze coś jest nie tak z rozumowaniem stojącym za tą “metodą”.

            Przepraszam za brutalność ale w nauce tak trzeba.

          14. “Korelacja może być istotnie zerowa (p-value >0.95, przy zakladanym progu 5 %), istotnie niezerowa (p-value 0.95, przy zakladanym progu 5 %), istotnie niezerowa (p-value <0.05).

          15. Po kolei.

            Współczynnik korelacji może przyjmowac dowolną wartość pomiędzy -1 a 1, w szczególności 0. Wartość 1 onacza że dane idealnie korelują, wartośc -1 -że antykorelują, a wartość 0 -że nie ma żadnej korelacji.

            Przy czym dla CZYSTO LOSOWYCH danych uzyskanie braku jakiejkolwiek korelacji (R=0) jest równie nieprawdopodobne jak uzyskanie korelacji lub antykorelacji (R=1, lub R=-1).

            Przy hipotezie zerowej R=0, p-value oznacza prawdopodobieństwo że w sposób LOSOWY statystyka testowa t, liczona na podstawie R będzie odpowiednio większa/mniejsza, od wartości jaka wypadła w teście. Czyli p-value0.95, oznacza że istnieje ponad 95 % prawdopodobieństwo uzyskania wiekszego/mniejszego R w sposób losowy. Czyli istnieje mniej niz 5 % szans uzyskania R tak bliskiego 0 w sposób losowy. Ergo: istnieje prawdziwy brak korelacji z przyczyn NIELOSOWYCH.

            Zgadzam się calkowicie, że nawet wśród specjalistów panuje niezrozumienie zagadnienia istotności statystycznej. Wciąż pokutuje np. pogląd że R>0.5 oznacza korelacje, a R<0.5 jej brak. Tymczasem wszystko zależy od wielkości badanej próbki, oraz zalożonego poziomu istotności.

          16. Nadal widzę, ze nie rozumiesz czego testem jest liczba p. Ja też kiedyś nie rozumiałem i zwrócono mi na to uwagę. Doszkoliłem się.

            Warto o tym poczytać. Proponuję zacząć od dwóch artykułów Jacoba Cohena (1990 i 1994) z American Psychologist bo zawierają dobre streszczenie dziwnej historii parametru p (i dlaczego trudno go przypisać do jednego nazwiska) oraz jakie są z nim problemy (z nim samym i z jego zrozumieniem przez naukowców).

            http://web9.uits.uconn.edu/lundquis/stat379/Cohen%20(1990).pdf
            http://psycserv.mcmaster.ca/bennett/psy710/readings/cohen_94.pdf

            A tak poza tym to dyskutujemy po próżnicy bo ja i tak nie zamierzam wykorzystać istotności statystycznej lub nie tej części danych.

          17. Dzięki za papiery.

            Przemyślmy to jeszcze raz.

            Mamy pewne dane i badamy, jaki jest ich współczynnik korelacji. Stawiamy hipotezę, że jest on zerowy, i sprawdzamy czy dane temu nie zaprzeczają. Zatem na podstawie danych obliczamy współczynnik korelacji, oraz pewną statystykę testową t, o z góry zadanym rozkładzie. Rozkład ten determinuje że prawdopodobieństwo uzyskania określonych wartości t, większych, lub mniejszych (na zewnątrz od centrum rozkładu) od wartości jaka nam wyszła, wynosi ileś. Jeśli prawdopodobieństwo to jest mniejsze niż jakiś zakładany poziom istotności, uznajemy że zaprzecza to naszej hipotezie zerowej. Jeśli nie -uznajemy że nie zaprzecza.

            Istotne jest tu że “nie zaprzecza” -a sam brak zaprzeczenia, nie oznacza potwierdzenia hipotezy przeciwnej. Podobnie brak potwierdzenia czegoś, nie oznacza z automatu zaprzeczenia.
            Czyli nawet jak dane nie zaprzeczają braku korelacji, to nie znaczy że ten brak jest, że żadnej liniowej korelacji nie ma.

            Możemy za to zmienić nasza hipotezę zerową, na taką która twierdzi, że współczynnik korelacji nie jest zerowy. Wówczas znowu badamy współczynnik korelacji i statystykę t. I może sie okazac że współczynnik korelacji jest na tyle bliski zero, że statystyka t jest na tyle mała, że prawdopodobieństwo uzyskania wartości jeszcze bliższych centrum jest mniejsze niż zadany poziom istotności (wynoszący 1-poprzedni poziom istotności). Czy oznaczałoby że zaprzecza to temu, że współczynnik korelacji nie jest zerowy (a zatem potwierdza że jest zerowy?).

            Wydaje mi się, że sedno problemu tkwi w tym, że za pierwszym razem sprawdzaliśmy, czy wyliczony współczynnik R istotnie się różni od określonej wartości (R=0),
            a za drugim razem czy istotnie różni się od wszystkich innych wartości niż określona za pierwszym razem (R!=0). Problem polega na tym, że ponieważ R jest ciągłe i gęste, możemy znaleźć dowolną wartość R odpowiednio bliską zero, dla której nie rózni się istotnie. A więc racja, no ale człowiek, jak mu się twierdzi że istotność statystyczna jest zupełnie nieistotna,
            zaczyna się zagalopowywać. Gdyby istotność statystyczna nie miała żadnego znaczenia, to możnaby dochodzić do praktycznie zupełnie dowolnych wniosków.

            Mamy rozkład zależności miedzy NAO DFJM, a temperaturą, dla lat 1880-1949. Wyszedł nam między tymi dwiema zmiennymi ujemny trend, ale nieistotny statystycznie. Czy to dowodzi że ten trend naprawde istnieje? Nie! Czy dowodzi że ten trend nie istnieje -też nie! Sama w sobie ta informacja, że mamy nieistotny trend pomiędzy dwiema zmiennymi,
            zupełnie niczego nam nie dowodzi, i nie da się ot tak, na podstawie samej tej informacji, wyciągnąć jakichkolwiek nietautologicznych wniosków.

          18. A więc tak (o ile dobrze rozumiem):

            Postulujesz że GHG mają dodatni wpływ na zimowe NAO, na podstawie korelacji ze zmianami temperatury po 1950 r.

            Zatem mają istniec korelacje:

            T_GHG+
            NAO_GHG+ (postulowana)

            Z drugiej strony aktywność słoneczna miałaby zwiększać temperaturę i zmniejszać NAO:

            T_Slonce+
            NAO_Slonce- (postulowana)

            Z kolei zaś aktywność wulkaniczna miałaby zmniejszać temperaturę i per saldo zmniejszać NAO:

            T_wulkany-
            NAO_wulkany-

            Od 1950 r. mniej więcej jeśli chodzi o wzrost temperatury dominują GHG, zatem mamy:

            T_GHG+, NAO_GHG+ => T_NAO+

            , ale to jest tautologia, bo własnie na podstawie tejże korelacji postulowaliśmy NAO_GHG+

            Przed 1950 r. mniej więcej wpływ GHG byl nieistotny, dominujący wpływ na temperaturę miały wulkany i aktywnośc sloneczna:

            T_Slonce+, T_wulkany-, NAO_Slonce-, NAO_wulkany-

            zatem korelacja T_NAO powinna wyjść zerowa, lub nawet ujemna, jeśli dominujący wpływ miało Słońce, a nie wulkany.

            No i mamy trend ujemny, tyle że nieistotny. Co samo w sobie nie dowodzi niczego, bo wszak istniej spora szansa na to że ten rezultat jest przypadkowy.

            Żeby cokolwiek tu próbowac wykazać, potrzebujemy więcej danych niz tylko zimowe NAO, oraz zmiany temperatury.
            Potrzebujemy danych o aktywności słonecznej, oraz wulkanicznej.
            I wówczas -zakładajac najprostszą, liniową zależnośc pomiędzy tymi czynnikami- można próbować dopasowywać
            hiperpłaszczyznę w przestrzeni tychże parametrów, i sprawdzać na ile jest to dopasowanie istotne.

            I zawsze pozostaje możliwość, że w grę wchodzi co innego. Np. że NAO podlega po prostu oscylacjom, w pierwszym przybliżeniu harmonicznym,
            o różnych częstotliwościach (zatem ich nałożenie się wprowadza długoskalową modulację), i akurat jestesmy w fazie zwiększonej modulacji.

        2. Zwrócę tu uwagę na pewien problem z zimami + początkiem wiosen.
          Zauważmy, że tej zimy NAO przez ponad 90% dni było dodatnie (czasami też bliżej obojętnego, ale ogólnie dodatnie). Wystarczyła jedna fala silnego mrozu – obecnie ok. 1,5-tygodniowa – i Tśr za 3 miesiące poleciała w dół o rząd 2 st. Gdyby to duże ochłodzenie przytrafiło się z 5-10 dni wcześniej (generalnie w całości w czasie miesięcy DJF) to Tśr za DJF byłaby bliska normie – i to pomimo, że dodatnie NAO mielibyśmy przez ponad 80% czasu , a dodatnie anomalie przez ponad 60% czasu.

          Dużo uzmysłowił mi sezon 2011/12 z wyraźnie dodatnimi NAO/AO, a zima i tak zapisała się w ‘normie’ za sprawą wówczas ok. 3-tygodniowej fali dużego mrozu.

          Pewności nie mam, ale globalne ocieplenie może statystycznie zwiększać nam przytrafianie się takich przypadków, nawet jeżeli cyrkulacja “atlantycka” będzie dominowała i/lub sezony z jej dominacją będą przeważały.

          1. Wynika to z faktu, że ochłodzenia w Polsce najczęściej odznaczają się wyższymi wartościami bezwzględnymi anomalii, niż ocieplenia. ładnie to widać na wykresie 10-dniowym:
            https://meteomodel.pl/klimat/poltemp/akt_mon/plot.avg10.png
            Jak widać w styczniu rekordy ciepła przekraczały normę zwykle o jakieś 8 stopni. Rekordy zimna odbiegały zaś od normy nawet o 12-14 stopni. Przeważnie przy dodatnim NAO nie należy oczekiwać anomalii wyższych od 3-5 stopni, ale epizody zimna mogą dowalić i poniżej 10 stopni. Stąd mimo, że krótsze, mają spory wpływ na średnią z całego okresu. Pewnie dlatego korelacja NAO z DJF to “tylko” 60 procent.

          2. Ja zwykle widziałem to tak, że albo mieliśmy istotnie częstszą cyrkulację “atlantycką” i zimy łagodniejsze, albo częstsze blokady i zimy ostrzejsze. Można było przy tym zauważyć, że w pewnych dekadach któraś opcja bardziej dominowała. Oczywiście mieliśmy też stany pośrednie, polegające na braku wyraźnej dominacji jakieś cyrkulacji, jak np. zimą 2012/13, nie licząc już marca.

            Tymczasem okazuje się, że możemy mieć jeszcze 4 ogólny przypadek, tzn. zimę zdominowaną przez cyrkulację “atlantycką” (np. przez 60-70% okresu), ale i jednocześnie na 3-5 tygodni (sumarycznie) dość nieoczekiwanie przerwane przez jakieś fale umiarkowanego/silnego mrozu (w jednym ciągu lub 2-3 krótsze fale z przerwami). Nie mam pewności, ale kto wie, czy na skutek zmian klimatycznych głównie w Arktyce takie przypadki nie będą zdarzały się coraz częściej.

  4. To marzec 2013 nie był ekstremalnie zimny? A jednocześnie w 2010 roku aż 3 miesiące były ekstremalnie zimne – I, X oraz XII.

    W ogóle sporo ciekawych rzeczy z tego idzie odczytać – na przykład okres od 07.2006 do 06.2007 czyli zdecydowanie najcieplejszy rok w historii polskich pomiarów (8/12 miesięcy ekstremalnie ciepłych i ani jednego zimnego, masa rekordów ciepła), a przy tym ani 2006 ani 2007 rok nie były nawet jako ekstremalnie ciepłe (2006 ciepły 2007 anomalnie ciepły)

    Za to rok 2008, dla mnie taki “bezpłciowy” rok z ciepłą zimą, chłodną wiosną, nijakim latem i jesienią bez rewelacji jest sklasyfikowany jako…ekstremalnie ciepły! :) Rok ten jest podobny do roku 1934, który ma bardzo dużą anomalię roczną pomimo że nic ciekawego się tam nie działo. Po prostu niemal wszystkie miesiące były tam lekko powyżej normy, najmocniej zima. W 1934 też nie było ani jednego miesiąca poniżej normy (61-90) z tego co kojarzę, i stąd wzięła się anomalia tego roku zaledwie 0,5 stopnia niższa od 2015 (zdecydowanie odstawał na + od swych sąsiadów)

    1. 2008 z chłodna wiosna? Lekka przesada chyba. A nijakość lata ograniczała sie do braku upałów, ale za to liczba dni z temp powyżej 25 stopni była olbrzymia. No i jesień tez bardzo ciepła, ze względu na październik i listopad.
      Rok ten charakteryzował sie wysokimi anomaliami na plus niemal w każdym miesiącu, ale zabrakło prawdziwie ekstremalnie ciepłych miesięcy jak sierpień i grudzień 2015, luty i wrzesień 2016 czy marzec i lipiec 2014. A także multum miesięcy z wspominanego przez cb okresu lipiec 2006- czerwiec 2007.

    2. Niemniej te klasyfikacje sa dla mnie tez w dużej mierze szokujące- niektóre miesiące juz przy odchyleniu +2 (czerwiec) sa ekstremalnie ciepłe, a niektóre jak luty przy odchyleniu +4 tylko bardzo ciepłe…

        1. Kolejna ciekawa rzecz z ulubionego przez wszystkich cyklu “Warszawa to nie cała Polska”- przede wszystkim dostrzegam jak te anomalie ogólnokrajowe maja mało wspólnego ze znanymi mi ze strony imgw warszawskimi…

      1. Nie ma w tym nic szokującego. Np. W czerwcu od 1951 roku anomalia > 2 zdarzyła się tylko 4 razy. Jest to więc zdarzenie rzadkie, występujące raz na jakies 17 lat. W styczniu takie zdarzenie miało już miejsce 12 razy, czyli trzykrotnie częściej, niż w czerwcu. Logiczne jest zatem, że anomalia +2K jest mniej niezwykła w styczniu, niż czerwcu. Co do lutego, to w ww. okresie anomalia +4K zdarzyła się tu 6 razy, a więc częściej niż +2K w czerwcu.

        Jeszcze większą dysproporcję mamy miedzy lutym a majem. W maju anomalia +2K zdarzyła się w latach 1951-2017 zaledwie dwukrotnie. W lutym 15 razy. Byłoby co najmniej dziwne, gdyby w stosunku do tych dwóch miesięcy stosować tą samą miarę klasyfikacji opartą jedynie o wartość anomalii. Szybko doszlibyśmy albo do sytuacji w której ekstremalnie ciepły luty zdarza się co 5 lat (a więc z definicji nie jest ekstremalny), albo rekordowo ciepły maj nie jest nawet anomalny.

        1. Bardziej chodziło mi o to ze w takich miesiącach jak czerwiec najwyraźniej ostatnio było coraz mniej trudno o ekstremalnie ciepły miesiąc. Ja od zawsze patrzyłem na miesiące poprzez po prostu odchylenie od normy stad moj “szok”.
          W każdym razie bardzo ciekawa klasyfikacja i z zainteresowaniem bede ja studiował w najbliższym czasie.

        2. to że zima ma duża zmienność anomalii to chyba nikogo nie powinno dziwić, wszak wtedy nad Atlantykiem mamy łagodne temperatury typu +5/+10, a nad kontynentem mrozy nieraz 30-40 stopniowe. A w lecie? Podobne temperatury wszędzie, na pewno nie ma różnicy 50-stopniowej i adwekcja nie ma tak dużego wpływu na temperatury. W lipcu dzień chłodny w Polsce to np +15 średniej dobowej, a bardzo gorący – +24. A zimą przy mrozie mamy średnie -20…-10, a przy odwilży nawet ponad +5.

        3. W połowie sierpnia 2015 nawet pamiętam jak zawiało świeżym PA znad kontynentu, T850 bardzo niska jak na lato bo prawie zero. Ale to powietrze było wyjątkowo suche i przy ziemi było i tak powyżej 20*C, gradient pionowy wtedy bliski 1*C / 100m.

      2. Warto jeszcze zwrócić uwagę na skośność (asymetrię) wokół średniej. W porze chłodnej w ogóle rozrzut mamy większy, zwłaszcza w kierunku ujemnym. Natomiast w porze ciepłej jest on istotnie mniejszy, choć i zarazem (nieco) wyraźniejszy w kierunku dodatnim.

        Sprawia to, że w skali roku klasyfikacje powinniśmy dopasowywać nie tylko do zakresu zmienności w danym okresie (miesiącu), ale i do kierunku również.

        A niedawna fala silnego mrozu pokazała, że choć anomalie ujemne są coraz to rzadsze i/lub słabsze, to jednak nadal potrafią zbliżać się do wartości ekstremalnych, a nawet rekordowych (a czasami, zwłaszcza te dobowe, jeszcze je przekraczać).

        Oczywiście te dysproporcje mają swoje fizyczne uzasadnienie. W porze chłodnej, zwłaszcza zimą, taka a nie inna średnia “wypracowywana” jest głównie przez cyrkulację – a, że jest ona statystycznie najczęstsza z kierunku WSW, to i średnia jest nieco wyższa, niż w przypadku zupełnego braku jakiejkolwiek cyrkulacji. Natomiast, gdy zmieni się ona na kierunki “chłodne” (“mroźne”) to oczywiście potencjał na wyraźnie niższe anomalie ujemne jest istotnie niższy (niż przy cyrkulacjach z kierunków “ciepłych” na dodatnie). A i w ogóle rozrzut wartości w tym okresie roku jest duży, bo mamy duży kontrast między Tśr w N Afryce, a N/NW Rosji.

        Z kolei w porze ciepłej, zwłaszcza latem, ów rozrzut maleje ok. 2-krotnie – głównie z uwagi na mniejsze dysproporcje w nasłonecznieniu na różnych obszarach od (pod)zwrotnikowych po okołobiegunowe + ogólnie słabszą cyrkulację. Natomiast splot 3 czynników, tzn. adwekcji ciepła + dużego nasłonecznienia i zarazem usłonecznienia + czynnik związany z AGW sprawiają, że anomalie dodatnie mimo wszystko potrafią przekraczać +10K.

        1. ERRATA – w przedostatnim akapicie miałem oczywiście napisać:

          “(…) gdy zmieni się ona [tzn. cyrkulacja w porze chłodnej, w tym zimą] na kierunki “chłodne” (“mroźne”) to oczywiście potencjał na WYRAŹNIEJSZE anomalie ujemne jest istotnie WIĘKSZY, niż przy cyrkulacjach z kierunków “ciepłych” na anomalie dodatnie”.

        2. Anomalie ujemne zimowe są słabsze w szerszym horyzoncie czasowym ale w stosunku do lat 90-tych? Zawsze pisz o jakim horyzoncie czasowym piszesz?

          1. Chyba nie zrozumiałeś do końca kontekstu… Chodzi o to, że ujemne anomalie z czasem są słabsze w sensie klimatycznym, tzn. względem jakiegoś określonego okresu referencyjnego. Natomiast w sensie pogodowym są one (potencjalnie) zdecydowanie najsilniejsze, zwłaszcza zimą i tak nadal pozostanie.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

PHP Code Snippets Powered By : XYZScripts.com