2024/04/23 13:04

Dlaczego rekordowo ciepły wrzesień ma tak niską anomalię dodatnią?

W związku z bardzo ciepłymi prognozami długoterminowymi, zarówno modelu GFS jak i ECMWF (w chwili obecnej GFS z 00UTC daje niemal pewną gorącą pogodę do 11 września i prawdopodobną do 15 września), w komentarzach kilkakrotnie przewinął się temat potencjalnego rekordu miesięcznego przy jednoczesnym wskazaniu, że dotychczasowy rekordowy wrzesień charakteryzuje się żałośnie niską anomalią dodatnią.

Rzeczywiście, najcieplejsze wrześnie charakteryzowały się bardzo niską na tle innych miesięcy anomalią temperatury powietrza, osiągającą zaledwie +2.83K w 1999 i 2006. Co więcej, 9 najcieplejszych wrześni zawiera się w bardzo wąskim przedziale anomalii – od 2.54K w 1781 do 2.83K we wspomnianych wyżej latach. Żaden z pozostałych miesięcy nie ma aż tak niskiego maksimum, ani tak „ciasnej czołówki”. Wrzesień zachęca wręcz, by pacnąć mu jakąś asymptotę na poziomie 2.9 – 3.0K i iść do domu.

Co ciekawe, takich właściwości nie posiada wrześniowe minimum. Wynosi ono -4.16K (1912) i czołówka najzimniejszych wrześni charakteryzuje się sporym rozrzutem. Wrzesień charakteryzuje się również najniższym odchyleniem standardowym w serii – to, w latach 1781-2015, wyniosło 1.33°, podczas gdy dla sierpnia wynosi ono 1.39°, a dla czerwca 1.35°. Widać więc, że mimo wszystko nie odbiega ono znacznie od innych miesięcy z małą zmiennością. Oznacza to też jednak, że po standaryzacji maksymalna anomalia września nie wydaje się już tak niska – co prawda rekordowy styczeń ma dodatnią anomalię równą aż 6.43K, ale jednocześnie odchylenie standardowe na poziomie 3.34°, co powoduje że jego maksymalne odchylenie standaryzowane to zaledwie 1.9° i jest niższe od wrześniowego (2.1°).

Co ciekawe, najwyższymi odchyleniami standaryzowanymi charakteryzują się miesiące letnie: czerwiec (3.1°), lipiec (3.4°) i sierpień (4.3°), zaś dla miesięcy zimowych (a dokładniej dla chłodnej połowy roku) charakterystyczne są najniższe ujemne odchylenia standaryzowane. Wynika to z ogólnego braku symetrii w anomaliach miesięcznych temperatury w niektórych miesiącach – przynajmniej niektóre z nich charakteryzują się rozkładem anomalii dość dalekim od normalnego:

!!!poltempdensityPowyżej: gęstość prawdopodobieństwa (anomalia temperatury powietrza) dla poszczególnych miesięcy w latach 1961-1990.

!!!poltempdensityPowyżej, ale dla pełnego okresu 1781-2015 (okres bazowy również zmieniony na 1781-2015)

 Widzimy więc, że standaryzowana rekordowa anomalia września nie jest aż tak niezwykle niska, jakby się można spodziewać po jej wartości bezwzględnej, co wynika z ogólnej niskiej zmienności międzyrocznej września. Są też zapewne inne czynniki, które wpływają na obniżenie skrajnie dodatnich anomalii. Tutaj, jeśli miałbym zgadywać, wymieniłbym:

  • Brak szczęścia. W najcieplejszych wrześniach (1947, 1999, 2006) często w poszczególnych regionach kraju mierzone anomalie były dość znaczne i sięgały 4.0K. Z jakiegoś jednak powodu w żadnym z tych lat te najwyższe wartości anomalii nie objęły całego kraju. W wymienionych latach najwyższe anomalie notowano na zachodzie kraju, zaś na wschodzie były znacznie niższe. Z kolei w 1967 bardzo wysokie anomalie (ponad 3.0K) panowały na wschodzie, ale znacznie niższe były na zachodzie kraju.
  • W przypadku września do wysokich anomalii wciąż (podobnie, jak w pełni lata) potrzebna jest pogoda słoneczna, wyżowa. W przeciwieństwie jednak do miesięcy letnich, we wrześniu znacznemu wydłużeniu ulega już noc, co w podanych warunkach sprzyja silnym wychłodzeniom radiacyjnym. To zaś oznacza, że wysokim anomaliom Tmax mogą odpowiadać znacznie niższe anomalie Tmin, a średnia temperatura dobowa jest przez to nieco obniżona (w 1999 i 2006 np. w Słubicach mimo Tmax przekraczających 25 stopni – anomalia Tmax ok. +5 stopni w przypadku 11 września, Tmin potrafiła spaść do +6 stopni – anomalia Tmin ok -4 stopni). W przypadku miesięcy letnich, dzięki znacznie krótszej nocy, różnica w anomaliach Tmax i Tmin jest zwykle niższa.
  • We wrześniu sytuacje wyżowe potrafią już częściej, niż latem, prowadzić do mgieł, zamgleń, zachmurzenia podinwersyjnego, które utrzymywać się mogą do późnych godzin porannych. To może wpłynąć na średnią dobową temperaturę powietrza.

Być może ktoś ma jeszcze jakieś pomysły?

[xyz-ips snippet=”s2-ad”]

Print Friendly, PDF & Email
0 0 votes
Article Rating
Subscribe
Powiadom o
43 komentarzy
Inline Feedbacks
View all comments
mikos

Takie pytanko mam. Czy napływ PZ utrzyma dwucyfrowe temperatury w nocy podczas tych gorąco-upalnych w przedziale 10-15°C, a być może nawet powyżej 15°C cy gdzieś że względu na ukształtowanie terenu zdarzą się spadki poniżej 10°C?

Robert93

Pewnie tak, jak będzie cały czas pogodnie, to tylko na obszarach położonych na wzgórzach, pagórkach może być rano powyżej 15°C, a w zagłębieniach terenu bedzie pewnie miejscami poniżej 10°C.

Arctic Haze ☀️

„Silnie ujemne odchylenia standardowe” to straszny skrót myślowy, biorąc pod uwagę, ze wzór na odchylenie standardowe to zasadniczo pierwiastek z sumy kwadratów razy dodatnia stała:

Pewnie chodziło o rozkład prawdopodobieństwa o ujemnej skośności (skewness):

Robert93

Jest jeszcze drugi wzór na odchylenie standardowe, ale zamiast N-1 w mianowniku jest samo N.

Arctic Haze ☀️

@Robert93 Dla próbki używamy N-1, a dla całej populacji N.Tak opisują to w każdym podręczniku statystyki. Tu jest jedno z krótszych wytłumaczeń: http://libweb.surrey.ac.uk/library/skills/Number%20Skills%20Leicester/page_18.htm Ja do końca nie widzę różnicy w przypadku danych środowiskowych. Na przykład mamy N=57 średnich rocznych temperatury? Czy to cała populacja bo więcej nie ma, czy próbka bo lat w ogóle było więcej? Na zdrowy rozum raczej próbka, bo lat było więcej a danych mamy tylko z niektórych. Zresztą nauczono mnie używać N-1, i tak właśnie robię dla świętego spokoju (inaczej recenzenci się pieklą). Ma to tę zaletę, że odchylenie standardowe wychodzi nieco większe, więc jesteśmy zabezpieczeni… Czytaj więcej »

Arctic Haze ☀️

Czyli robimy tak samo. Ale szczerze mówiąc i tak nie rozumiem czemu SD ma mieć inną wartość tylko z tego powodu,że świata nie stworzono w 1780 roku ;-) Lucas wawa był chyba bliski prawdy, pisząc o utracie stopnia swobody przez użycie średniej. Ale nie wytłumaczył gdzie ją używamy. Otóż w definicji SD, którą wcześniej podałem jest średnia i liczy ją z tej samej próbki, czyli zużywamy jeden stopień swobody. Z tym, ze nadl nie rozumiem dlaczego byśmy go odzyskali gdyby świat powstał w 1780 roku i mielibyśmy całą populację. Dlatego, jak wspomniałem, nie do końca to rozróżnienie N i N-1… Czytaj więcej »

Lucas wawa

Ja też zawsze stosuję (N-1), chociażby dlatego, że bez względu na N jest bardziej uniwersalnie:-)

zwojtek

To, co piszecie, co znajduje się pod pierwiastkiem dla wariantu z N-1 to nieobciążony estymator wariancji – jego wartość oczekiwana równa jest wartości faktycznej dla populacji.
Jeśli znamy wartość oczekiwaną dla populacji to możemy ją wstawić do wzoru zamiast wartości średniej i wtedy stosować w mianowniku samo N.
Estymator odchylenia standardowego bazujący na pierwiastku estymatora wariancji nie jest już nieobciążony. Więcej informacji na https://pl.wikipedia.org/wiki/Odchylenie_standardowe#Pierwiastek_estymatora_nieobci.C4.85.C5.BConego_wariancji

Arctic Haze ☀️

@zwojtek

A wymyśl jakiś przykład danych z dziedziny nauk o Ziemi gdzie znamy wartość oczekiwaną serii danych. Bo mi nic nie przychodzi do głowy. Oczywiście jest to możliwe, ale przy danych syntetycznych gdy narzuciliśmy średnią wartość z góry.

Dane meteorologiczne czy oceanograficzne to nie są serie losowe.

zwojtek

Wartość oczekiwana będzie znana w przypadkach, gdzie znany jest rozkład prawdopodobieństwa (akurat nie jestem w stanie podać jakiegoś przykładu dla nauk o ziemi) lub w seriach pomiarowych przy wyznaczaniu jakiejś stałej fizycznej.
Czy dane meteorologiczne dają się analizować/modelować przy pomocy szeregów czasowych?

Arctic Haze ☀️

Dane meteorologiczne dają się analizować jako szeregi czasowe. Jak najbardziej. Jednak średnią wartość (estymator wartości oczekiwanej) nigdy nie jest dana a priori. Średnią wyliczamy z posiadanych danych. Czyli jest oczywiste, że wszystkie nasze dane to próbki w sensie statystycznym. Problem w tym, że nawet nie potrafię sobie wyobrazić co miałoby być populacją w meteorologii.

Arctic Haze ☀️

@zwojtek Przemyślałem to i nie wyobrażam sobie jak możemy znać wartość oczekiwaną przy wyznaczaniu stałej fizycznej (a jestem fizykiem). Masz na myśli to, że teoria przewiduje jakąś wartość, którą próbujemy potwierdzić eksperymentalnie? To może być co najwyżej wartość oczekiwana prawdopodobieństwa apriorycznego (prior probability) w statystyce bayesowskiej ale na pewno nie wartość oczekiwana prawdopodobieństwa a posteriori (czyli wyniku ostatecznego, wynikającego z eksperymentu) [1]. Daj konkretny przykład sytuacji o jakiej piszesz, jeśli potrafisz. [1] Tak przynajmniej rozumiem analizę bayesowską. Znam ją jedynie z czytania artykułów bo sam jej nie używam (jestem „frekwencistą”). O różnicy między tymi dwoma podejściami w fizyce wysokich energii… Czytaj więcej »

zwojtek

Poczytałem, przemyślałem temat i przyznaję Ci rację. Ostatni raz ze statystyczną analizą danych miałem do czynienia 10 lat temu. Czytając dyskusję dlaczego N-1 postanowiłem wtrącić swoje trzy grosze :)
BTW. mój wykładowca od metrologii zawsze powtarzał, że przystępując do wykonania pomiarów trzeba a priori znać wynik.

alfa_z

Mi przychodzi na szybko do głowy pomiar wartości, która z teorii wynika, że jest zero, np. 0K (temperatura bezwzględna), suma ładunku protonu i elektronu, zerowy opór w nadprzewodniku.

To może jeszcze wartości skwantowane jak np. spin. Tutaj też a priori mamy wartość znaną.

Trzeba byłoby jeszcze wymyślić doświadczenie, w którym to badamy i potrzebę liczenia odchylenia standardowego. W doświadczeniach zawsze mierzymy wartości skończone (nigdy nie mierzymy zer).

alfa_z

Chyba się podłączyłem pod zły post. Miała to być odpowiedź Arctic_haze na pytanie o przykład fizyczny. Teraz będę wiedział, że trzeba kliknąć na Reply „nad” postem a nie „pod” postem :-)

Arctic Haze ☀️

@alfa_z A co jeśli z eksperymentu wyniknie, ze prawdziwa wartość tej wielkości jest różna od zera? Masa neutrin jest świetnym przykładem. Wtedy tę „wartość oczekiwaną” można sobie wsadzić w cyklotron. Rozkłady o znanych parametrach są możliwe w matematyce ale nigdy w fizyce, gdzie eksperyment jest ostatecznym dowodem na prawdziwość teorii. Analizę bayesowska wprowadzono do fizyki dokładnie dlatego, aby uniknąć wartości fizycznie niemożliwych (temperatura absolutna mniejsza od zera, czy nawet stężenie mniejsze od zera – mam na myśli też często spotykane wyniki w stylu +1.23 +/- 2.37 dla wielkości, które nie mogą być ujemne). Ale to nadal nie oznacza, że przed… Czytaj więcej »

alfa_z

1. Pojedynczy eksperyment nie jest dowodem prawdziwości bądź nieprawdziwości teorii (tak na marginesie to chyba hipotezy a nie teorii :-) ). 2. Są doświadczenia, w których dokładność pomiaru jest niższa niż znana dokładność mierzonej wartości. Na przykład stosunek ładunku elektronu do protonu jest znany z ogromną dokładnością (nie pamiętam dokładnie ile miejsc po przecinku, trzeba byłoby sprawdzić). I teraz nikt ci nie broni zrobić doświadczenia, w którym jedną z mierzonych wielkości będzie właśnie ten stosunek (mierzony z dużo mniejszą dokładnością). Wtedy – owszem – nie jest to znane dokładnie, ale dla ciebie jest to kilka rzędów wielkości dokładniej niż twój… Czytaj więcej »

Arctic Haze ☀️

@alfa_z

Wszystko co piszesz jest prawdą. Jednak empiria jest ostatecznym testem teorii, a nie odwrotnie. Jeśli nie ma testu doświadczalnego, nawet najpiękniejsza teoria „wisi w powietrzu” inie wiemy czy w ogóle ma ona sens w naszym Wszechświecie. Pomyśl tylko o Teorii Strun.

A co do neutrin to gdyby masa wynosiła zero to nie byłoby oscylacji neutrin [1], wiemy że istnieje z szeregu niezależnych doświadczeń. Czyli niestety (albo stety) ich masa nie może być zerowa.

[1] https://en.wikipedia.org/wiki/Neutrino_oscillation
a jak chcesz coś naukowego to proponuję np. to:
http://arxiv.org/pdf/1312.2878.pdf

alfa_z

Nie wiem, które reply mam nacisnąć, bo przy Twojej odpowiedzi nie ma żadnego :-) Najwyżej pojawi się gdzieś indziej. A teraz do rzeczy. Prosiłbym, abyś nie stosował w dyskusji „straw man fallacy”. Nie napisałem nigdzie, że masa neutrin jest zerowa, więc przeprowadzasz dyskusję z wymyślonym chochołem. Napisałem, że znane z innych doświadczeń oszacowanie masy neutrin może być mniejsze niż rozdzielczość aparatury stosowanej w danym doświadczeniu (w którym nie badamy oscylacji neutrin). Nie napisałem też, że empiria nie jest ostatecznym dowodem teorii. Dlatego też mogę zgodzić się z obydwoma twoimi tezami, jednak obie nie mają ŻADNEGO LOGICZNEGO związku z naszą dyskusją.… Czytaj więcej »

Arctic Haze ☀️

PS. Zapomniałem o drugiej sprawie. Oczywiście, ze pojedynczy eksperyment niczego nie przesądza. Liczy się suma wiedzy empirycznej. Dyskutowaliśmy o tym przecież gdzie indziej i się zgadzaliśmy. Dlatego w wypadku masy neutrin ważne jest, że mamy liczne eksperymenty dowodzące oscylacji neutrin. I chyba się też zgadzamy, że bez empirii teoria nie jest oparta na niczym. Wiem, że zwolennicy teorii strun czasem twierdzą odwrotnie (i nie twierdzę, że jesteś jednym z nich), ale zgadzam się w tej kwestii 100% ze Smolinem:
http://www.proszynski.pl/Klopoty_z_fizyka__Powstanie_i_rozkwit_teorii_strun__upadek_nauki_i_co_dalej-p-29947-.html

Arctic Haze ☀️

@alfa_z Przecież napisałem, ze zasadniczo z wszystkim się zgadzam. Zatem nieprawda jest, że walczę ze „strawmanami”. Chciałem jednak dwie rzeczy doprecyzować. Wolałem zatem upewnić się, że Twoje zdanie Istnieje masa eksperymentów, w których może zamiast tej liczby wpisać zero, bo rozdzielczość twojej aparatury jest dużo mniejsza. Wtedy nie ma znaczenia, czy wpiszesz 50meV czy 0meV skoro odchylenie wychodzi ci np. 50keV. nie będzie przez kogoś zrozumiane jako stwierdzenie, że zero jest możliwą wartością. Bo to jest to podobna sytuacja, jak ta o której wcześniej pisałem: stężenie dowolnej substancji w dowolnych jednostkach typy +1,23 +/- 2,50. Chemikom zdarza się to cały… Czytaj więcej »

alfa_z

Widzę, że się rozumiemy :-) A wracając do doświadczeń, w których możemy jakąś wartość znać a priori to chodzi mi raczej o próbę skonstruowania takiego doświadczenia. Myślę, że musiałby być to eksperyment, w którym wartość średnia znana a priori byłaby poboczną względem głównego wyniku doświadczenia (w trakcie doświadczenia dokonujemy równolegle wielu pomiarów). Tak więc oczywiste jest, że w doświadczeniu, w którym weryfikujemy masę neutrin nie możemy przyjąć a priori, że jest równa zero. Natomiast w doświadczeniu, w którym badamy coś innego, możemy niektóre poboczne wartości przyjmować jako znane (z dużo większą dokładnością niż w tym doświadczeniu) i mierzyć tylko ich… Czytaj więcej »

Arctic Haze ☀️

Znowu zgoda. Z tym, że nie bardzo wiem po co mielibyśmy mierzyć coś czego wartość jest pewna.

Mam chyba nawet lepszy przykład: prędkość światła w próżni c. Ponieważ metr jest obecnie zdefiniowany przy pomocy sekundy i prędkości światła [1] (mało ludzi zdaje sobie z tego sprawę), c jest obecnie stałą (c = 299792458 m/s).

Oczywiście można ją próbować mierzyć ale to tak naprawdę będzie pomiar metra, a dokładniej jego skali jaką używa eksperymentator.

PS. Strawman? Oczywiście nie. Raczej ciekawostka ilustrująca, ze nie wszystko jest mierzalne. Stałe nie są.

[1] https://en.wikipedia.org/wiki/Metre

Lucas wawa

Skośność jest miarą samej asymetrii. Natomiast odchylenie standaryzowane dla ujemnych anomalii możemy wykorzystywać jako miarę porównawczą zarówno z tym dla dodatnich anomalii, jak i z innymi adekwatnymi np. z innych miesięcy (i wnioskować o tym na ile jest duże/silne). %%% Co do kwestii, którą poruszył @Robert – w ogólności w mianowniku piszemy (N-1), bo tu chodzi o liczbę stopni swobody (ograniczoną względem N o jeden, z uwagi na wykorzystywanie w obliczeniach wartości średniej). Jedynie w przypadku dużych populacji (z reguły N >=30) wartość N-1 można zastąpić N. Jest jeszcze opcja, gdy w mianowniku piszemy N(N-1), ale jest to tzw. odchylenie… Czytaj więcej »

Arctic Haze ☀️

@Lucas wawa

Coś pokręciłeś. Odchylenie standardowe dla średniej to SD/sqrt(N), gdzie SD to odchylenie standardowe populacji/próbki. Łatwo to udowodnić, jeśli się wie że wariancja (kwadrat SD) jest addytywna, a średnia to suma podzielona na N.

Tzn. masz rację jeśli chodzi Ci o próbkę i o to, żeby N(N-1) napisać pod pierwiastkiem, ale tak nie zrozumiałem tego co napisałeś.

Lucas wawa

Oczywiście, że miałem na myśli wartość w mianowniku i całość pod pierwiastkiem, tzn. zamiast (N-1) -> N(N-1), ale to wszystko w mianowniku i pod pierwiastkiem.

Arctic Haze ☀️

@Luucas wawa

Tak zgadłem, ale nie napisałeś tego wprost i gdybym nie znał wzorów to źle bym zrozumiał.

Arctic Haze ☀️

@Piotr

Mam pytanie, skąd wziąłeś tę nazwę (i Lukas wawa Cie poparł)?

Jestem ogólnie przeciw używaniu w nauce nazw nie mających odpowiednika po angielsku, a ta nie ma.

Chodzi zapewne o anomalię standaryzowaną (podzieloną przez odchylenie standaryzowane), ewentualnie wartości standaryzowane (tak samo podzielone). Odchylenie standaryzowane brzmi dla mnie jak 1.0 z definicji.

Lucas wawa

czyli, jak rozumiem, chodzi o anomalię standaryzowaną…

Arctic Haze ☀️

Tak.

Sprawdziłem jak to nazywają von Storch i Zwiers w swoim podręczniku „Statistical analysis in climate research” (polecam!).

Otóż średnia podzielona przez odchylenie standardowe to u nich „coefficient of variation” (współczynnik zmienności). Co mi przypomniało, ze taką polską nazwę już widziałem w jakimś doktoracie, który recenzowałem (doktoraty w przeciwieństwie do artykułów nie są zwykle po angielsku). I wydaje mi się ona bardzo sensowna, nawet jeśli nie jest piękna.

mikos

A wytłumaczcie mi jeszcze czy przy bezchmurnym niebie i samym słońcu temperatury mogą być niższe od tych prognozowanych w odsłonach modeli? Czy to zależy od czegoś?

Lucas wawa

Każdy model ma swój (znamienny dla siebie) jakiś „offset”, który to oczywiście może być różny przy różnych warunkach pogodowych.

W obecnych warunkach pogodowych (pogodny wyż we wrześniu, bez wyraźniejszej adwekcji znad Afryki, czy Arktyki), jeżeli będziemy uśredniali dane prognostyczne dot. Tmax z modeli GFS i ECMWF powinniśmy mieć wartości z grubsza zbliżone do rzeczywistych (GFS częściej może zawyżać, a ECMWF częściej zaniżać).

Natomiast Tmin w przypadku obu modeli mogą być już nieco zawyżone (z uwagi na niedoszacowanie związane z coraz silniejszym czynnikiem radiacyjnym).

Lucas wawa

Nawet bez szczegółowej analizy skośności (różnic między anomaliami dodatnimi a ujemnymi) a także kwestii standaryzacji – zauważyłem, że największe odchylenia standardowe dla poszczególnych miesięcy przypadają jakby z lekkim przesunięciem względem najchłodniejszego i najcieplejszego okresu roku, tzn.: – największe odchylenia mamy „wokół” lutego (JFM), czyli włącznie z marcem. – najmniejsze odchylenia mamy „wokół” sierpnia (JAS), czyli włącznie z wrześniem. Myślę, że w dużym stopniu ma to związek z pewną naturalną inercją względem okresu, odpowiednio, zimowego (który cechują większe zmiany/dysproporcje termiczne) oraz letniego (który cechują mniejsze zmiany/dysproporcje termiczne). Co się tyczy września, jest on w sumie stabilniejszy pogodowo, niż miesiące przedwakacyjne, a… Czytaj więcej »

Paweł

W ciepłym półroczu usłonecznienie wyraźnie dodatnio koreluje z temperaturą. W chłodnym półroczu (bez marca i października) korelacja jest statystycznie nieistotna, ale prędzej ujemna niż dodatnia. Czy GO mogłoby wpływać na wydłużenie okresu z dodatnią korelacją temperatury i usłonecznienia?

Lucas wawa

Aby stało się to bardziej zauważalne musiałyby w sezonie zimowym pojawiać się częściej pogodne wyże przy adwekcjach ciepła, niż przy adwekcjach chłodu. Trudno powiedzieć, czy z biegiem czasu będziemy mieli w tym względzie większą jednoznaczność (w skali kraju, bo między N a S Polski są pewne różnice z tym związane)…? To bardziej kwestia cyrkulacji okołobiegunowej (w tym położenia i kierunku prądu strumieniowego), niż samego ogólnego poziomu Tśr. [korelacja ta może być ujemna przy wyższej Tśr, jak i dodatnia przy niższej Tśr].

whiteskies

Bardzo ładnie na tych rysunkach widać, że latem „rządzi” Słońce, zimą adwekcja i efekt cieplarniany. Precyzyjniej, te dwa ostatnie maja w chłodnym półroczu względnie większe znaczenie.

Lucas wawa

Nie bardzo rozumiem co masz tu na myśli wspominając o rysunkach – przecież one nie nawiązują do wymienionych czynników…(?)

Arctic Haze ☀️

Żeby skończyć ten statystyczny off-topic, wspomnę tylko, ze język R, stworzony dokładnie do obliczeń statystycznych ma tylko jedną funkcję dla obliczania odchylenia standardowego, sd(), i łatwo sprawdzić, że liczy ona je z N-1 w mianowniku pod pierwiastkiem.

Czyli statystycy, którzy stworzyli ten język nie spodziewali się zobaczyć „populacji” czegokolwiek. Każda seria wartości („wektor” w terminologii R) to próbka.

Arctic Haze ☀️

Wystarczy ich zacytować w artykule naukowym, jeśli używa się R. Autorzy życzą sobie takiego tekstu:

R Core Team (2016). R: A language and environment for statistical computing. R Foundation for Statistical Computing, Vienna, Austria. URL https://www.R-project.org/.

43
0
Would love your thoughts, please comment.x