Wiarygodność numerycznych modeli pogody

Opracowanie: Mariusz J. Figurski, Grzegorz Duniec, Adam Jaczewski, CMM IMGW-PIB

Czy istnieje możliwość stworzenia modelu, który będzie dostarczał idealną krótkoterminową prognozę pogody? To podstawowe pytanie jakie zadaje sobie każdy użytkownik prognoz meteorologicznych. Odpowiedź jest natychmiastowa, nie. Drugie pytanie jakie w związku z tym się rodzi to dlaczego? Przyczyn jest wiele, a mianowicie błędy i niepewności pomiarowe, błędy obliczeniowe, dokładność zastosowanych schematów numerycznych, rozdzielczość siatek obliczeniowych oraz uproszczenie opisu procesów fizycznych zachodzących w atmosferze. Ale na początek należy odpowiedzieć na pytanie czym jest model numerycznych prognoz pogody

Numeryczny model pogody

Model to nic innego jak program komputerowy, dość złożony, który potrafi symulować złożone procesy fizyczne zachodzące w atmosferze. Stworzenie takiego modelu to dość złożony proces, wymagający wysokiej klasy specjalistów zarówno z zakresu fizyki atmosfery jak i informatyki. Uproszczona procedura konstrukcji modelu przebiega następująco. Na początku należy przeanalizować procesy fizyczne zachodzące w atmosferze. Następnie opisać procesy dynamiczne i termodynamiczne w atmosferze, przy pomocy języka matematyki, równaniami. W następnym kroku należy dobrać odpowiednie schematy numeryczne, dzięki którym uzyska się rozwiązanie tych równań. Następnie przygotowany zostaje program komputerowy czyli tzw. kod, który pozwoli otrzymać symulacje procesów fizycznych zachodzących w atmosferze w przyszłości, czyli prognozę, z wykorzystaniem superkomputera.

Rys. 1. Ogólny schemat modelowania. Źródło: Thomas Tomkins Warner, Numerical Weather and Climate Prediction. Cambridge University Press, 2011.

Błędy wynikające z warunków początkowych

Złożone procesy fizyczne zachodzące w atmosferze opisane są równaniami różniczkowymi. Aby otrzymać rozwiązanie tych równań, konieczne są warunki początkowe, czyli tzw. dane wejściowe, takie jak na przykład temperatura powietrza, temperatura punktu rosy, ciśnienie atmosferyczne, pole wiatru itd. Dane wejściowe do modelu pochodzą z obserwacji naziemnych, sondażowych, satelitarnych, uzupełniane obserwacjami wykonywanymi na pokładach samolotów pozwalających zwiększyć ilość obserwacji 3D. Z metrologii wiadomo, że każdy pomiar obarczony jest błędem. Dane zbierane są różnymi technikami pomiarowymi bezpośrednimi i teledetekcyjnymi. Urządzenia pomiarowe, nawet te mierzące podstawowe pola meteorologiczne, mogą działać nieprawidłowo i tym samym rejestrować wielkości, które nie reprezentują rzeczywistości. Błędy instrumentalne występują we wszystkich pomiarach i są praktycznie nieuniknione. Zatem nie ma możliwości otrzymania idealnego odwzorowania początkowego stanu atmosfery, co będzie miało wpływ na symulację, czyli na prognozę.

W systemach „chaotycznych”, jakim niewątpliwe jest atmosfera ziemska, każda niedoskonałość inicjalizacji ma bardzo poważny wpływ na końcowy wynik symulacji. Oczywiście mowa tu o „teorii chaosu”, która zasadniczo sprowadza się do idei, że zmiany, nawet niewielkie, warunków początkowych mogą spowodować różną ewolucję systemu. W literaturze popularnej jako metafora teorii chaosu używane jest dość często pojęcie „efekt motyla”. Metafora sugeruje, że pozornie przypadkowe trzepotanie skrzydeł motyla w dowolniej części świata może ostatecznie wpłynąć na pogodę w innej części świata. Zagadnieniem tym zajmował się w drugiej połowie XX wieku Edward Lorentz, który pracował nad numerycznym prognozowaniem pogody. Podążając tropem Lorentza można przeprowadzić eksperyment numeryczny polegający na tym, że do inicjalizacji obliczeń zostanie wykorzystany zestaw dwóch danych wejściowych różniących się dokładnością. Niech jeden zestaw zawiera dane początkowe z dokładnością do czterech miejsc po przecinku, a drugi z dokładnością do dwóch miejsc po przecinku. Po przeprowadzeniu obliczeń, ze zdziwieniem zostanie stwierdzone, że otrzymane dwie symulacje, różnią się od siebie. Co więcej rozbieżności w symulacji będą narastały z upływem czasu symulacji. Zatem wniosek jaki można wyciągnąć to taki, że zachowanie naszego układu będzie zależało od warunków początkowych, a dokładniej zachowanie układu będzie bardzo wrażliwe na warunki początkowe. Z przeprowadzone eksperymentu numerycznego wynika, że nawet niewielkie, rzędu kilku dziesiątych procenta czy promila różnice w danych wejściowych prowadzą do różnych scenariuszy procesów fizycznych w atmosferze. Im dane wejściowe będą różniły się od rzeczywistych chwilowych warunków meteorologicznych, tym wynik symulacji będzie różnił się od rzeczywistego stanu atmosfery. Ponieważ chwilowe dane opisujące aktualny stan atmosfery nie są dokładne, zatem otrzymanie prawidłowej symulacji procesów fizycznych w atmosferze w dłuższych horyzoncie czasu, np. prognozy średnioterminowej, nie jest możliwe.

W celu poprawy jakości prognoz numerycznych stosuje się tzw. asymilację danych, która wykorzystuje bieżące dane obserwacyjne stanu atmosfery. Tak otrzymane dane wejściowe poprawiają prognozę krótkoterminową.

Błędy obliczeniowe i dokładność schematów różnicowych

Błędy modelowania nie kończą się wraz z procedurą inicjalizacji. Ważną grupę błędów stanowią metody wykonywania obliczeń na superkomputerach. Pierwsze z tej grupy błędów, które należy wymienić, to błędy zaokrąglania liczb np. zaokrąglenie 29,999999 stopni Celsjusza do 30 stopni może mieć znaczenie, a błędy tego typu są sumowane zgodnie z prawem przenoszenia błędów. Różne komputery mogą przeprowadzać obliczenia z różną dokładnością po przecinku. W celu otrzymania prognostycznych wartości pól meteorologicznych w określonym czasie, musi zostać przeprowadzone wiele obliczeń pośrednich. Aby model był stabilny, krok czasowy obliczeń jest znacząco mniejszy od 1 godziny, a tym bardziej od 3 godzin. Wartość kroku czasowego obliczeń zależy od rozdzielczości siatki. Wraz ze wzrostem rozdzielczości, krok czasowy obliczeń maleje. Chcąc otrzymać obliczone wartości pól meteorologicznych po 3 godzinach od inicjalizacji obliczeń musi zostać wykonane bardzo wiele obliczeń pośrednich. Po pierwszym kroku czasowym otrzymuje się wartości pól meteorologicznych w węzłach, które stają się warunkami początkowymi do obliczeń w węzłach siatki pól meteorologicznych w drugim kroku. Proces przebiega tak długo, aż otrzyma się wartości pól meteorologicznych dla określonego czasu. Ze względu na fakt, że różne superkomputery mogą przeprowadzać obliczenia z różna dokładnością, to w każdym kolejnym pośrednim kroku obliczeń, będą pojawiały się różnice w wartościach obliczanych pól. W rezultacie końcowym skutkować będzie to tym, że otrzymane w wyniku obliczeń przeprowadzonych na dwóch różnych superkomputerach prognozy, na przykład pola ciśnienia, pomimo wykorzystania tego samego modelu będą się nieznacznie różniły (rys. 2).

501c_P120_pnm

Rys. 2. 120-h integration – mean sea level pressure. Two integrations done with identical NWP models but on different computers. Źródło: M. Lajoie, CMC

Kolejnym istotnym zagadnieniem mającym wpływ na wyniku symulacji, jest fakt, że procesy fizyczne zachodzące w atmosferze opisane są równaniami różniczkowymi. Równania te opisują procesy dynamiczne i termodynamiczne w atmosferze. Dla złożonych procesów w atmosferze równania te nie posiadają rozwiązań analitycznych. W celu rozwiązania równań należy zastosować schematy różnicowe.

Od schematu różnicowego oczekuje się aby aproksymował w układ różniczkowy, aby w granicach małych kroków w czasie i przestrzeni schemat różnicowy był identyczny z układem różniczkowym. Gdy ten warunek nie będzie spełniony, schemat różnicowy nie może w żaden sposób symulować zagadnienia warunku początkowego. Dokładność rozwiązania numerycznego jako aproksymacji rozwiązania równania różniczkowego, pogarsza się w skutek występowania błędów metody, zaokrąglenia oraz w wyniku występowania dyfuzji (rys. 3) i dyspersji numerycznej.

Rys. 3. Przykład dyfuzji numerycznej. Źródło: Mark Z. Jacobson, Fundamentals of Atmospheric Modeling, 2nd edition, Cambridge University Press, 2005.

Zmienne ciągłe są reprezentowane zbiorem dyskretnych punktów stanowiących węzły siatki, w których przeprowadzane są obliczenia (rys. 4).

Rys. 4. Zbiór dyskretnych punktów stanowiących węzły siatki. Źródło: Thomas Tomkins Warner, Numerical Weather and Climate Prediction. Cambridge University Press, 2011.

Dane wejściowe pochodzą z punktów pomiarowych, które nie pokrywają się z węzłami siatki numerycznej, co więcej niekoniecznie są równomiernie rozłożone w przestrzeni. W celu uzyskania warunków początkowych w węzłach siatki dokonuje się interpolacji danych pomiarowych na węzły siatki. Czy problem błędów zostałby wyeliminowany, gdy w każdym węźle siatki mielibyśmy stacje pomiarową? Odpowiedź jest natychmiastowa, nie, a jej uzasadnienie odnajdujemy w teorii chaosu. Siatka numeryczna charakteryzuje się rozdzielczością. Jeżeli odległość między węzłami siatki maleje to rozdzielczość siatki rośnie. Jak już wspomniano wcześnie, zanim otrzymane zostaną prognostyczne wartości pól meteorologicznych dla terminu prognozy, muszą zostać przeprowadzone obliczenia pośrednie, z pewnym krokiem czasowym. Wielkość kroku czasowego zależała będzie od rozdzielczości modelu, który musi zostać tak dobrany, aby model był stabilny. Czy rozdzielczość siatki numerycznej oraz krok czasowy będzie wpływał na wyniki końcowe? Przeprowadzając prosty eksperyment numeryczny, polegający na tym, że obliczenia zostaną przeprowadzone na dwóch siatkach obliczeniowych, różniących się rozdzielczością, to otrzymane symulacje będą się od siebie różniły. A więc rozdzielczość siatki będzie miała wpływ na końcowe wyniki obliczeniowe. Zmniejszając krok czasowy obliczeń oraz zwiększając rozdzielczość siatki numerycznej powodujemy, że otrzymane symulacje będą bardziej zbliżone do rzeczywistości. Rozwiązania będą bardziej odwzorowywały rzeczywistość. Zwiększenie rozdzielczości horyzontalnej siatki oraz zmniejszenie kroku czasowego towarzyszyć będzie wydłużenie czasu obliczeń. Zatem aby temu zapobiec potrzebna jest lepsza maszyna o większej mocy obliczeniowej.

Zwiększaniu rozdzielczości towarzyszy lepsze odwzorowanie lokalnej topografii terenu co przełoży się na poprawę wyników obliczeniowych. W przypadku złożonej topografii możliwe jest uruchomienie modelu mezoskalowego (lokalnego) w wyższej rozdzielczości, poprzez zagnieżdżanie domeny przy zmniejszającym się rozmiarze komórki w celu uzyskania bardziej szczegółowej symulacji. W takich symulacjach warunki brzegowe i początkowe z reguły zapewniają modele globalne o rozdzielczościach z przedziału 0p25 do 1p00 stopnia, które przenoszą jednocześnie błędy w nich zawarte do modeli mezoskalowych. Modele regionalne o wysokiej rozdzielczości, szczególnie istotne dla obszarów górskich, ale i nie tylko, pozwalają na lepszą symulację na przykład przepływu mas powietrza w obszarze ze złożoną topografią. Przy rozdzielczości rzędu 0p25 lub 0p50 modele globalne nie przedstawiają dokładnie pasm górskich, pomijają najwyższe góry i wniesienia nawet o tysiące metrów. Dlatego wręcz konieczne jest zmniejszenie skali wyników przy użyciu modeli, które mogą obejmować mniejszy obszar, ale w wyższej rozdzielczości. Na rysunku 5 przedstawiono przykład, jak wraz ze spadkiem rozdzielczości następuje zmniejszenie wysokości i wygładzanie rzeźby terenu. Modele meteorologiczne o niższej rozdzielczości nie są w stanie rozróżnić wpływu gór na opady, opór wiatru i wiele innych parametrów meteorologicznych i dlatego są one mniej wiarygodne niż modele o wyższej rozdzielczości.

  1. 30m

  1. 3km

  1. 30km

  1. 60km

Rys. 5. Numeryczny model terenu (DEM) środkowych Andów w różnych rozdzielczościach (30 m, 4 km, 30 km i 60 km). Warto zwrócić uwagę, że najwyższe wzniesienie przekracza 5000 m przy 30m i tylko 3500 m przy rozdzielczości 60 km. Źródło: meteoexploration.com, Weather forecasts, the importance of model resolution, 2022

Różnice w rozdzielczości użytego numerycznego modelu terenu mają duży wpływ podczas modelowania prędkości wiatru, jak pokazano na rysunku 6. Po lewej stronie wynik prognozy z modelu WRF o rozdzielczości 3m, na którym można identyfikować poszczególne doliny i jak strumienie wiatru podążają zgodnie z różnymi formami ukształtowania terenu. To z kolei ma wpływ na prędkość wiatru, a tym samym przekłada się jakość prognoz energii farm wiatrowych.

  1. WRF 4km

  1. GFS 0p25

Rys. 6. Wysokość powierzchni i strumienie wiatru nad środkowymi Andami w Chile i Argentynie. Po lewej stronie symulacja z modelu WRF w rozdzielczości 4km 0,25°, po prawej symulacja z modelu GFS w rozdzielczości 0,25°. Źródło: meteoexploration.com, Weather forecasts, the importance of model resolution, 2022

Zwiększenie rozdzielczości siatki obliczeniowej wpływa także na proces upraszczania procesów fizycznych zachodzących w atmosferze.

Upraszczanie procesów (parametryzacja procesów podskalowych)

W atmosferze zachodzi wiele złożonych procesów fizycznych i to w wielu skalach (rys. 7, 8).

Rys. 7. Procesy fizyczne zachodzące w atmosferze w różnych skalach. Żródło: Mesoscale Meteorology in midlatitudes, P. Markowski, Y. Richardson, Wiley-Blackwell, 2010.

Rys. 8. Procesy fizyczne zachodzące w atmosferze w różnych skalach. Źródło: Introduction to Geophysical Fluid Dynamics, Volume 101, Benoit Cushman-Roisin and Jean-Marie Beckers, Academic Press, 2010.

Procesy zachodzące w skali mniejszej niż rozdzielczość siatki numerycznej, czyli tzw. procesy podskalowe, muszą być parametryzowane, czyli tworzy się uproszczone modele, które reprezentują statystycznie uśrednione efekty tych procesów. W modelach numerycznych parametryzuje się między innymi procesy radiacyjne, procesy mikrofizyczne zachodzące w chmurach, procesy zachodzące w warstwie granicznej, konwekcję itd. Problemem pozostaje także dobre odwzorowanie powierzchni ziemi, wraz z prawidłowym rozkładem obszarów pokrytych roślinnością lub jej brakiem. Bardzo istotnym zagadnieniem pozostaje prawidłowy rozkład rodzajów gleby, głębokości ukorzenienia roślin itp., które mają istotny wpływ na procesy termiczne i hydrologiczne w profilu glebowym a w rezultacie końcowym na strumienie ciepła, wilgotności i pędu na styku atmosfera-powierzchnia ziemi. Każda zmiana zachodząca w sposobie użytkowania terenu wpływa na lokalny bilans promieniowania oraz na przepływ powietrze w warstwie granicznej (a ludzie zmieniają krajobraz w zasadzie w trybie ciągłym, szczególnie w obrębie aglomeracji miejskich lub w pobliżu dużych inwestycji inżynierskich). W żadnym z obecnie istniejących numerycznych modeli pogody nie ma możliwości wprowadzania zmian w trybie ciągłym.

Zwiększenie rozdzielczości siatki obliczeniowej powoduje, że niektóre procesy, które były procesami podskalowymi i musiały być parametryzowane, przy zwiększonej rozdzielczości będą jawnie reprezentowane. Przykładem niech będzie zjawisko konwekcji. W modelach, których rozdzielczość siatki numerycznej, była np. powyżej 15 km, procesy te musiały być parametryzowane. W modelach mezoskalowych o rozdzielczości np. 2,8 km, głęboka konwekcja jest jawnie reprezentowana w skali siatki numerycznej. Takie modele nazywane są modelami konwekcyjno-skalowymi. Przy takiej rozdzielczości jedynie płytka konwekcja musi być nadal parametryzowana.

Rys. 9. Odwzorowanie konwekcji w modelu, z siatką o wzrastającej rozdzielczości.

Prognoza pogoda w zależności od modelu NWP

Każdy odbiorca prognoz meteorologicznych spostrzegł, podczas przeglądania prognoz meteorologicznych z różnych modeli, że nieco się one różnią. Ponownie pojawia fundamentalne pytanie dlaczego? Odpowiedź na to pytanie jest prosta. Każdy numeryczny model meteorologiczny różni się od siebie między innymi rodzajem zastosowanych siatek obliczeniowych, rozdzielczością horyzontalną siatki, różnymi parametryzacjami opisującymi te same procesy fizyczne.

Przykładem niech będą procesy mikrofizyczne zachodzące w chmurach. Przyglądając się schematowi z rys. 10, zauważyć można jak wiele procesów mikrofizycznych musi zajść w chmurze za nim powstanie opad.

Rys. 10. Procesy mikrofizyczne zachodzące w chmurach. Źródło: Storm and Cloud Dynamics, 2nd edition, W. R. Cotton, G. H. Bryan, S. C. van den Heever, Academic Press, 2010.

W celach poglądowych rozważmy opad deszczu w schemacie z jedną kategorią lodu (rys. 11).

Rys. 11. Schemat z I kategorią lodu.

Źródło: http://www.cosmo-model.org/content/model/cosmo/coreDocumentation/cosmo_physics_6.00.pdf

W tym schemacie mamy fazę mieszaną chmury złożoną z:

  1. pary wodnej;
  2. wody chmurowej;
  3. deszczu;
  4. śniegu.

Opad deszczu niech zostanie zapisany symbolicznym równaniem:

Przez symbol „S” rozumieć należy procesy fizyczne, które dają wkład do opadu deszczu. Ponieważ te procesy fizyczne zachodzą w skali mniejszej niż rozdzielczość siatki obliczeniowej muszą być parametryzowane. A więc w tym wypadku jest ich aż sześć. Kiedy sięgnie się do literatury przedmiotu to od razu spostrzec można, że każdy proces mikrofizyczny może być parametryzowany na kilka różnych sposobów. W poszczególnych modelach numerycznych mogą byś zaimplementowane różne parametryzacje opisujące ten sam proces mikrofizyczny. Zatem prognozowane opady, przez poszczególne modele, mogą się różnić od siebie (rys. 12). Podobnie jest z innymi procesami fizycznymi, które są parametryzowane.

Rys. 12. Różnice w polu opadów. Symulacje otrzymano przy zastosowaniu dwóch różnych schematów numerycznych.

Rys. 13. Różnica prognostycznych wartości temperatury punktu rosy. Symulacje otrzymano przy zaimplementowaniu dwóch różnych schematów parametryzacji gleby.

 

Prognozy wiązkowe

Mając na uwadze ograniczenia numerycznego modelu pogody zaproponowano wielokrotne uruchamianie modelu startującego z różnego stanu początkowego (ze względu na niepewności pomiarowe) (rys. 14), z inną fizyką (z różnymi parametryzacjami np. konwekcji) lub numeryką (z wykorzystaniem różnych numerycznych schematów obliczeniowych). Celem jest oszacowanie niepewności prognozy. Jak badania naukowe wskazują prognoza otrzymana w wyniku uśrednienia prognozy po wszystkich elementach wiązki ma większa sprawdzalność niż prognoza deterministyczna.

Rys. 14. Zbiór (ensemble) realizacji prognozy, każda staruje z różnego stanu początkowego.

Prognozy wiązkowe pozwalają na przykład ocenić z jakim prawdopodobieństwem zajdzie dane zjawisko, np. opad marznący.

Rys. 15. Prognoza pola temperatury powietrza na wysokości 2 metrów. Średnia po zespole. Źródło: cosmo.imgw.ad

Rys. 16. Prawdopodobieństwo przekroczenia progu 1,5°C temperatury powietrza na wysokości 2 metrów. Źródło: cosmo.imgw.ad.

Elementy wiązki ad hoc można także otrzymać w wyniku przeprowadzenia obliczeń na różnych superkomputerach lub elementy wiązki otrzymuje się wykorzystując różne modele (rys. 17).

Rys. 17. Wyniki symulacji otrzymanych z różnych modeli deterministycznych. Źródło: M.-F. Turcotte, CMC

Użyteczność numerycznych modeli pogody

Patrząc na tak duży potencjał błędów numerycznych modeli pogody można dojść do wniosku, że prognozy z numerycznych modeli pogody mogą być bezużyteczne. Oczywiście tak by podszedł do zagadnienia potencjalny odbiorca prognoz pogody bez odpowiedniego przygotowania merytorycznego. Natomiast doświadczeni synoptycy, którzy znają mocne i słabe strony modeli pogody, uważają je za bardzo przydatne (obecnie niezbędne) narzędzie w prognozowaniu pogody. Biorąc pod uwagę ich niedoskonałość, podczas opracowywania prognozy, korzystają z prognoz numerycznych, których źródłem jest kilka innych modeli. Ponadto odbiorcom, w tym także i synoptykom dostarczane są prognozy wiązkowe. Korzystanie z takiego zespołu modeli pogodowych pomaga meteorologom lepiej zrozumieć proces ewolucyjny procesów dynamicznych i termodynamicznych zachodzących w atmosferze i zwiększą trafnością zaprognozować przyszły scenariusz zachodzących procesów fizycznych w atmosferze, czyli przyszłych warunków meteorologicznych.

Każdy odbiorca musi być świadomy, że prognoza pogody przedstawia jedynie prawdopodobny scenariusz pogodowy, który nie jest żadnym pewnikiem. W sytuacji kiedy spodziewamy się wystąpienia groźnego zjawiska, należy dość często sprawdzać prognozy i je analizować.

Wraz z rozwojem wiedzy z zakresu fizyki atmosfery oraz postępem technologicznym pozwalającym tworzyć maszyny o coraz większej mocy obliczeniowej, jakość prognoz numerycznych będzie się poprawiała. Należy mieć jednak świadomość, że nigdy nie uda się otrzymać prognoz, które będą miały 100 % sprawdzalność, tym bardziej prognoz z długim horyzontem czasowym.

Należy mieć na uwadze, że sama ocena sprawdzalności prognoz nie jest trywialnym zadaniem. Ze względu na opisane wcześniej aspekty numeryczne, wartości modelowanych parametrów w dwóch sąsiednich węzłach modelu są bardziej skorelowane niż dla dwóch stacji pomiarowych będących w takiej samej odległości od siebie. Jest to szczególnie widoczne dla opadów. Z tego względu unika się bezpośredniego porównywania wyników modeli numerycznych do pomiarów na najbliższej stacji a stosuje się pewne metody statystyczne, pozwalające również na zminimalizowanie wpływu niejednorodności sieci pomiarowej czy jej gęstości.

Sprawdzalność numerycznych prognoz pogody

Obecne prognozy siedmiodniowe mogą dokładnie przewidzieć pogodę w około 80% przypadków, a prognozy pięciodniowe mogą dokładnie przewidzieć pogodę w około 90% przypadków. Jednak prognoza 10-dniowa lub dłuższa sprawdza się tylko w połowie przypadków.

Obliczenia numeryczne inicjowane są, w zależności od możliwości technicznych narodowych służb meteorologicznych, raz, dwa, cztery lub więcej razy na dobę. Przy każdej inicjalizacji model wykorzystuje inne dane wejściowe. Skutkuje to tym, że każde kolejne symulacje stanu atmosfery, w zależności od sytuacji synoptycznej, będą się mniej lub bardziej różniły od siebie. I jest to naturalne, zatem oczekiwania, że w wyniku każdego kolejnego przebiegu modelu otrzyma się identyczny scenariusz przebiegu procesów fizycznych w atmosferze jest błędne. W wypadku prognoz krótkoterminowych kolejne symulacje, aż tak znacząco się nie będą różniły od siebie. Wraz z wydłużaniem się horyzontu czasu prognozy (np. prognozy średnioterminowe) różnice w symulacji będą się zwiększały.

 

 


UDOSTĘPNIJ STRONĘ