Bei Prognosen versagt die Politik mehr als die Wissenschaft
Politik und Medien tun sich schwer mit Prognosen. Das liegt vielmehr an mangelndem Verständnis von Unsicherheiten als an der Zuverlässigkeit von Modellen, argumentiert Reto Knutti.
«Taskforce bestätigt Fehlprognose» titelte der Blick.1 «Corona-Taskforce gibt Fehlprognose zu» schrieb der Tagesanzeiger.2 Darunter das Bild von Covid-Taskforce-Präsidentin Tanja Stadler, die quasi an den Pranger gestellt wird. Und mit der Zuverlässigkeit einer Schweizer Uhr nehmen das wissenschaftskritische Politiker zum Anlass, Prognosen generell zu hinterfragen.3
Was auf den ersten Blick wie eine Klick-Jagd von Blattmachern oder Politik-Polemik aussieht, ist Symptom eines Grabens zwischen Wissenschaft und Politik. «Die Experten – deren Meinung ich kaum mehr zur Kenntnis nehme – scheinen für mich nicht in der realen Welt zu leben» liess Bundesrat Ueli Maurer vor kurzem verlauten, und Alain Berset sagte im Januar: «Mit Prognosen können wir nicht arbeiten.»
Offenbar sehen einige in wissenschaftlich fundierten Prognosen keinen Mehrwert. An was liegt das? Sind solche Voraussagen wirklich unbrauchbar? Würde jemand die Prognose, dass auf diesen Winter ein Sommer folgt, als unbrauchbar abtun?
Wie Prognosen entstehen
Ob beim Klimawandel, der Wettervorhersage oder der Einschätzung einer Pandemie – wissenschaftliche Prognosen basieren unabhängig vom Fachgebiet fast immer auf vier Elementen: erstens auf einem Modell, zweitens auf Daten, mit denen unbekannte Parameter geschätzt werden, drittens auf Annahmen von sogenannten Szenarien und viertens auf Expertenwissen. Die Wichtigkeit dieser vier Elemente hängt stark von der Fragestellung ab.
Das Modell beschreibt unser Verständnis der Dynamik eines bestimmten Systems. Dabei variiert die Komplexität verschiedener Systeme. Die Himmelsmechanik bestimmt die Jahreszeiten so exakt, dass die Unsicherheit in der Prognose verschwindend klein ist. Wesentlich schwieriger sind biologische Systeme, für die man nicht einfach eine Gleichung aufschreiben kann, oder Systeme mit chaotischem Verhalten wie das Wetter. Einige komplexe Prozesse übersteigen unser Verständnis oder unsere rechnerischen Möglichkeiten, um sie direkt abzubilden, und werden dann statistisch oder näherungsweise beschrieben.
Modelle: Nur so gut wie ihre Datengrundlage
Ein Modell benötigt – zweitens – Daten zur Kalibrierung und Verifikation. Hier unterscheiden sich die Klimamodelle von epidemiologischen Modellen. Während entscheidende Daten und Zusammenhänge in der Klimaforschung bereits seit Jahrzehnten systematisch ermittelt werden, führten die wechselnden Varianten von Sars-CoV-2 dazu, dass Daten begrenzt verfügbar oder nicht repräsentativ waren und entscheidende Grössen von wechselnden Teststrategien oder dem Fortschritt in der Behandlung abhängig waren.
Drittens: Wo Menschen Entscheide treffen, müssen auch diese in die Prognose einfliessen. Prognosen, also Voraussagen über die Entwicklung der realen Welt, werden damit in der Fachsprache zu Projektionen oder zu sogenannten Was-wäre-wenn-Szenarien. Beispiele sind die zu erwartende epidemiologische Entwicklung für einen bestimmten Mix von Massnahmen oder im Klima die Erwärmung für einen bestimmten Verlauf der CO2-Emissionen. Wenn das schlimmste Szenario nicht eintritt, ist oft nicht das Modell falsch, sondern man hat Massnahmen getroffen, um diesen Fall zu vermeiden.
Die Natur dieser zwei Unsicherheiten ist völlig unterschiedlich: Das Szenario ist unsere Wahl und damit am Ende Sache der Politik. Es muss nicht eintreten, aber hilft uns, das System zu verstehen und die Verwundbarkeit aufzeigen. Die Unsicherheit für ein bestimmtes Szenario andererseits reflektiert das nicht vollständige Verständnis des Systemverhaltens oder begrenzter Daten. Diese zu reduzieren ist Aufgabe der Wissenschaft.
Modelle sind Annäherungen an die Wirklichkeit
Expertenwissen ist schliesslich und viertens nötig, um die Unschärfe der Voraussagen abzuschätzen, die auf Grund der Vereinfachungen im Modell und Fehler in den Daten entstehen. Es geht darum, die Modellvereinfachungen und Datenfehler in einen Kontext zu stellen und dies auch zu kommunizieren. Ein Modell ist nie exakt richtig; es ist und bleibt ein Modell und kann höchstens ein mehr oder weniger präzises Abbild der Realität sein. Ganz im Sinne der Aussage des britischem Statistikers George Box «All models are wrong – but some are useful» ist die Frage damit nicht, ob ein Modell richtig ist, weil jedes Modell eine Vereinfachung der Realität und damit in einem strikten Sinne falsch ist. Entscheidend ist, ob das Modell geeignet ist, um eine bestimmte Frage zu beantworten.
Waren die Omikron-Prognosen wirklich falsch?
Das bringt uns zurück zur Prognose der Omikron-Welle.4 Der Verlauf der Fallzahlen im Januar war gut vorausgesagt, das Modell also adäquat dafür. Die Hospitalisierungen hingegen blieben tiefer als im optimistischsten Fall. Da diese verzögert auftreten, konnte man sie aus den Daten der Schweiz unmöglich voraussagen. Es war naheliegend, sich auf Erkenntnisse aus dem Labor und aus anderen Ländern zu stützen, aber offenbar haben diese die Situation der Schweiz nicht vollständig abgebildet. Neben medizinischen Aspekten wie der tieferen Virulenz, und dass vermehrt Genesene oder Geimpfte infiziert werden, die eine Grundimmunität und damit weniger schwere Verläufe zeigen, können auch Verhaltensaspekte ins Spiel kommen, die schwer quantifizierbar sind: Zum Beispiel, wenn sich Risikogruppen vorsichtiger verhalten, auch wenn das nicht vorgeschrieben ist. Eine abschliessende epidemiologische Beurteilung werden die Fachleute liefern.
Eines ist jedoch klar: Projektionen werden von der Wissenschaft nicht absichtlich verzerrt dargestellt. Sie reflektieren die momentane Datenlage und den Wissensstand, so gut dieser quantitativ abgebildet werden kann. Wenn neue Erkenntnisse verfügbar sind, werden die Projektionen angepasst.
«Die letztlich relevante Frage ist, ob wir mit quantitativen Prognosen bessere Entscheidungen treffen können als ohne. Die Antwort ist fast immer ja.»Reto Knutti
Aber: Prognosen können mehr schaden als nützen, wenn sie systematisch falsch sind oder die Unsicherheiten unterschätzen. Im Falle von Sars-CoV-2 waren sie über die ganze Dauer der Pandemie angesichts der oft spärlichen Datenlage recht gut.5 Je länger man mit Modellen arbeitet, desto genauer kann die Unsicherheit bestimmt werden, und die Resultate können zur Risikoabschätzung dienen. In der Klimaforschung haben hundert Jahre Messdaten und fünfzig Jahre Modellrechnungen die Zuverlässigkeit eindrücklich aufgezeigt.6 Mehr noch, wir haben mit Prognosen von Extremwetter viel Erfahrung, wie die Gesellschaft darauf basierend Entscheidungen trifft. Oder wann man wie warnen muss.
Fast alle Entscheidungen basieren auf Prognosen
Ohne Prognosen entscheiden kann man eigentlich nicht. Selbst das Bauchgefühl, dass sich gegenüber heute nichts ändern wird, oder die Annahme, dass das Problem morgen auf magische Art verschwindet, ist letztlich eine Prognose. Einfach eine ohne Modelle, Szenarien, Daten und Expertenwissen – mal ehrlich, wären Sie lieber ohne professionelle Prognose durch eine Pandemie, die schon so rund sechs Millionen Tote gefordert hat?
Die letztlich relevante Frage ist vielmehr, ob wir mit quantitativen Prognosen eine bessere Entscheidung treffen können als ohne. Die Antwort ist fast immer ja. Wenn die Prognosen wissenschaftlich fundiert sind, bieten sie eine gute Orientierungshilfe. Die grosse Herausforderung dabei ist – egal in welchem Fachgebiet – die Unsicherheit und Zuverlässigkeit systematisch zu berechnen. Das zusätzliche Wissen, das Prognosen generieren, zu ignorieren, zeigt eigentlich vor allem, dass die Prognosen nicht ins eigene Weltbild passen.
Mehr Dialog und Vertrauen nötig
Prognosen vereinigen unser gesamtes Wissen über ein System. Sie sind selten perfekt, aber werden laufend präziser. Prognosen können jedoch noch so gut sein, sie nützen wenig, wenn man sie nicht versteht, wenn man nicht mit Unsicherheiten umgehen kann oder wenn man nicht bereit ist, darauf zu reagieren. Gefragt ist im Hinblick auf zukünftige Krisen mehr Dialog und Vertrauen zwischen Politik, Gesellschaft, Medien und Forschung.
Dieser Beitrag von Reto Knutti erschien zuerst als externe Seite Klartext bei Higgs.
Referenzen
1 Blick (13.02.2022): externe Seite Taskforce bestätigt Omikron-Fehlprognose
2 Tagesanzeiger (12.02.2022): externe Seite Corona-Taskforce gibt Fehlprognose zu
3 Zum Beispiel auf externe Seite Twitter
4 Der Schweizerische Bundesrat auf Youtube: externe Seite 11.01.2022 - Point de Presse
5 NZZ (29.01.2022): externe Seite Warum die Wissenschafter manchmal falsch liegen
6 Geophysical Research Letters (2019): externe Seite Evaluating the Performance of Past Climate Model Projections