Computer- und Vorhersagemodelle nehmen den Meteorologen in der Wettervorhersage zunehmend Arbeit ab. Doch auch heutzutage ist für viele finale Entscheidungen immer noch der Mensch gefragt. Was kann das menschliche Gehirn, was die Computer (noch) nicht können?
Sicher: So wie noch vor ein paar Jahrzehnten sieht es an den Arbeitsplätzen der Meteorologen nicht mehr aus. Der Leuchttisch, auf dem Bodenwetterkarten (u.a. auf Basis von Bodenstationsmeldungen und Satellitenbildern) einst händisch gezeichnet wurden, hat ausgedient. Die heutigen Analysen werden am Bildschirm angefertigt. Dafür liegen ihnen immer größere und immer vielfältigere Datenmengen an meteorologischen Messgrößen zugrunde, welche die entsprechende Software in einer Vielzahl von unterschiedlichen "bunten" Karten veranschaulicht. Es genügt beispielsweise ein Klick, um sich eine europaweite Temperaturkarte für das 500-hPa-Druckniveau (ca. 5-6 km Höhe über NN) anzeigen zu lassen - und deren Prognose für die kommenden Tage. Diese Modelle werden aber nicht in ihrer "Rohform" einfach so an die Öffentlichkeit herausgegeben (dies könnte sonst schon vollautomatisch geschehen). Vielmehr obliegt die endgültige Beurteilung auf Plausibilität, Folgen der Wetterentwicklung für unterschiedliche Parameter (Niederschlagsmenge, Windlage, etc.), Warnwürdigkeit, etc. weiterhin einem/-r Meteorologen/-in aus Fleisch und Blut. Denn bei vielen Einzelheiten stoßen die Modelle schnell an ihre Grenzen.
Ein grundsätzliches Problem liegt in ihrer Auflösung begründet: Das Wettergeschehen auf der Erde wird nicht kontinuierlich für jeden einzelnen Punkt erfasst, sondern es wird ein imaginäres Gitter über das betreffende Gebiet gelegt, innerhalb dessen Zellen die meteorologischen Parameter gemittelt betrachtet werden. Dabei beträgt die Gitterweite bei den Globalmodellen meist zwischen 10 und 20 km, regional gibt es stellenweise auch feinere Auflösungen (siehe weiter unten). Für großskalige Prozesse wie weiträumig verteilte Hoch- und Tiefdruckgebiete stellt dies kein größeres Problem dar, die "Verpixelung" spielt in dieser Größenordnung keine Rolle. Je kleinskaliger die Prozesse jedoch sind, desto schwieriger wird es, diese im Detail zu erfassen.
So ist es bei Wetterlagen, die zur Bildung von lokalen Schauern und Gewittern neigen, für ein Modell faktisch unmöglich, zu ermitteln, wo genau welche Art von Niederschlag mit welcher Intensität fallen wird und wie genau sich die Niederschläge verlagern. Es kann höchstens einschätzen, innerhalb welcher Gitterzellen ein Schauer- bzw. Gewitterrisiko gegeben ist, und ggf. in welchem Bereich sich die Niederschlagsmengen bewegen werden. Für Deutschland gibt es durchaus Regionalmodelle, die mit einer Gitterauflösung von 1 bis 10 km auch Konvektion genauer erfassen können. Doch wo genau ein Gewitter entsteht und welche Punkte genau mit welcher Intensität betroffen sein werden, entscheiden Schwankungen meteorologischer Messgrößen (Temperatur, Feuchtigkeit, etc.) in einer Größenordnung, für die es auch in absehbarer Zeit keine genügend feine Gitterauflösung geben wird. Ebenso utopisch wäre es, nach einer genauen Wolkenvorhersage zu verlangen, die einem sagt, wo und zu welcher Uhrzeit welche Wolke entstehen wird. Auch detaillierte Fragen zu Nebel - genaue räumliche Ausdehnung, Sichtweite, Auflösungszeitpunkt, etc. - lassen sich nur durch tendenzielle Aussagen beantworten.
In den täglichen Wetter- und Warnlageberichten sind aber detaillierte Informationen von großem öffentlichem Interesse. Der Meteorologe, genauer gesagt Synoptiker (Meteorologen, die sich mit der Kurz- und Mittelfristvorhersage befassen), muss daher meist einen Kompromiss finden: Zwischen dem, was die Modelle grobmaschig einigermaßen sicher anzeigen, über das lokale Wettergeschehen jedoch keine Information gibt, und Vorhersagen über kleinräumige Prozesse, die aber zu einem gewissen Anteil immer spekulativ bleiben. Die heutzutage verwendeten Modelle liefern für Deutschland beispielsweise Abschätzungen darüber, in welchen Bereichen über einen bestimmten Zeitraum mit wie viel Niederschlag (ungefähr!) zu rechnen ist. Manche Modelle zeigen auch die genaue Niederschlagsform (Dauerniederschläge, Schauer, Regen/Schnee/Hagel, etc.) an. Doch erst durch einen Vergleich mit weiteren Parametern, welche dies beeinflussen können (Druckverteilung, Antrieb für Konvektion, Temperatur, etc.) kommt der Synoptiker zu konkreteren Aussagen. "Konkret" heißt in diesem Zusammenhang, die betroffenen Bereiche so genau wie möglich einzugrenzen und eine zusammenfassende Aussage über das Niederschlagsrisiko und die potentielle Niederschlagsmenge zu machen. Um die Information möglichst genau zu halten und ggf. vor spontan entstandenen lokalen Unwettern warnen zu können, muss er darüber hinaus auch stetig die aktuelle Entwicklung verfolgen und die Vorhersage, bzw. Warnungen anpassen. Ein weiteres Beispiel ist die Nebelvorhersage: Die aktuell verwendeten Modelle geben nur an, in welchen Regionen mit Nebel zu rechnen ist - nicht aber, wo genau und mit welcher Sichtweite. In diesem Zusammenhang spielt die Erfahrung sowie das Verständnis zugrundeliegender physikalischer Prozesse eine Rolle. Dass es in windgeschützten Tallagen mit ausreichender Feuchtigkeit, also beispielsweise in Flusstälern, am ehesten Nebel gibt, sagt einem die Erfahrung. Wird dabei noch besonders feuchte Luft herangeführt, sind, wo die Tiefsttemperatur den Taupunkt erreicht, Warnungen vor dichterem Nebel oft angebracht. Und die Liste an kritischen Entscheidungssituationen geht noch weiter: Wann reicht die Konvektion nur für Schauer, wann kann es auch Gewitter geben? Hierbei hilft es, sich den Temperaturunterschied zwischen Boden und oberen Atmosphärenschichten anzusehen, sowie die potentielle Energie, die für Konvektion vorhanden ist ("CAPE"). Welche Gewitter bergen ein Risiko für Hagel welcher Korngröße? Wo ist bei Temperaturen "um den Gefrierpunkt" mit Regen, wo mit Schnee zu rechnen? Wo beeinflussen städtische Wärmeinseln die Nachttiefsttemperaturen?
Hinzu kommt, dass sich die unterschiedlichen Modelle, je weiter sie in die Zukunft reichen, meist zunehmend uneinig werden (da die Wetterentwicklung schon auf kleinste Änderungen der Ausgangsbedingungen sehr empfindlich reagiert). Für die Entscheidung, was hierbei als am realistischsten bewertet werden kann, ist dann beispielsweise hilfreich zu vergleichen, in welche Richtung die Mehrzahl der Modelle tendiert.
Schlussendlich kommen wir auch nochmals zur eingangs erwähnten Bodenwetterkarte zurück: Auch wenn Stift und Papier ausgedient haben (allerdings erst seit 2015), muss auch beim Zeichnen am Bildschirm der Synoptiker noch viel eingreifen. Die Modelle liefern durch Berechnungen zwar Isobaren (Linien gleichen Luftdrucks), die sich aber durch Vergleich mit Bodenmessdaten oft noch als ungenau und fehlerhaft erweisen, sie müssen ggf. händisch korrigiert und "geglättet" werden. Darüber hinaus sind die meisten Modelle auch heute noch nicht in der Lage, Luftmassengrenzen zu generieren (Warm-/Kaltfront, Okklusion, Konvergenzlinien). Diese Aufgabe obliegt weiterhin allein dem Synoptiker, der sich dabei an bekannten Merkmalen solcher Erscheinungen orientiert, die sich aus Karten ablesen lassen. Eine Kaltfront beispielsweise kann aus folgenden Bodenmessdaten ausfindig gemacht werden: Deutlicher Windsprung, Druckanstieg, fallender Temperatur und wachsende Diskrepanz zwischen Temperatur und Taupunkt. Weiter können Satellitenbilder helfen, um für Fronten charakteristische Wolkenformationen zu erkennen.
Als Fazit lässt sich sagen, dass die Automatisierung in vielen Bereichen schon vorangeschritten ist, was auch zu Veränderungen und Verschiebungen im Arbeitsfeld der Meteorologen geführt hat. Eine vollständige Automatisierung der Wettervorhersage ist jedoch noch Zukunftsmusik. Das sind wiederum gute Nachrichten für Synoptiker, deren Berufsfeld trotz Automatisierung auch auf absehbare Zeit nicht aussterben wird.
Meteorologe Niklas Anczykowski in Zusammenarbeit mit Dipl.-Met Adrian Leyser
Deutscher Wetterdienst
Vorhersage- und Beratungszentrale
Offenbach, den 19.09.2019
Copyright (c) Deutscher Wetterdienst