1. Inhalt
  2. Navigation
  3. Weitere Inhalte
  4. Metanavigation
  5. Suche
  6. Choose from 30 Languages

Wissen & Umwelt

Warum sich Klimadaten nachträglich ändern können

Die Bestimmung der globalen Durchschnittstemperatur ist kompliziert. Auch Jahrzehnte nach einer ersten Bestimmung lassen sich Daten korrigieren oder hinzuzufügen. So steigt die Präzision, sagt Meteorologin Lydia Gates.

Deutschland Wetterstation auf dem Brocken

Wetterstationen, wie hier auf dem Brocken im Harz liefern seit über 100 Jahren verlässliche Daten

In den letzten Jahren gab es immer wieder Kontroversen, um die Deutung von Temperaturmessdaten und ihrer Trends: Einige Zeit schien es sogar so, als hätte die globale Erwärmung nach der Jahrtausendwende

eine Pause

eingelegt. Das letzte Jahr war dann wieder besonders warm. Nun kommt

eine Studie

, veröffentlicht in der Zeitschrift "Science", zu dem überraschenden Ergebnis, dass möglicherweise die Temperaturdaten der Vergangenheit durch sogenannte Artefakte falsch gedeutet wurden. In Wirklichkeit sei die globale Erwärmung weiter vorangeschritten als die bisher angenommene globale Durchschnittstemperatur erkennen lasse. Es sei unter anderem versäumt worden, arktische Temperaturen in den globalen Wetterdaten ausreichend zu berücksichtigen. Dazu ein Interview mit der Meteorologin Lydia Gates vom

Deutschen Wetterdienst

.

Deutschland Lydia Gates Meteorologin Deutscher Wetterdienst (Foto: DWD).

Lydia Gates, leitende Meteorologin beim DWD

Deutsche Welle: Frau Gates, die global gesammelten Wetterdaten sind doch eigentlich empirische Messdaten. Wie kann es dazu kommen, dass man Jahre später Artefakte - oder vielmehr Fehler - entdeckt, wenn man doch schon sehr lange und mit großer Erfahrung Wetterdaten sammelt?

Lydia Gates: In der Studie, die hier vorliegt, geht es nicht nur um die alten Daten, sondern es wurden auch neue Daten für 2014 hinzugefügt. Einige alte Daten wurden überarbeitet, mit neuen Erkenntnissen und neuen Methoden.

Das gehört zum Fortschritt der Wissenschaft: Die Datensätze werden immer wieder angeschaut und überarbeitet. Wenn man neue Methoden findet, mit gewissen Problemen umzugehen, kann man auch zusätzliche Daten einbringen. Und es wurden auch neue Daten für die Arktis eingeführt. Das ist die räumliche Verbesserung, die hier stattgefunden hat.

Das späte Einbringen dieser Daten kommt daher, dass man nur begrenzte Ressourcen hat. Man muss Daten sammeln und Messfehler in einer Qualitätsprüfung ausschließen. Es dauert dann einen gewissen Zeitraum, bis die Daten so verfügbar sind, dass alle sie nutzen und analysieren können.

Daneben gibt es den Ansatz, dass man alte Daten mithilfe der vorhandenen Metadaten überarbeitet. Metadaten sind die Hintergrundinformationen darüber, wie Daten beschafft und Beobachtungen erhoben worden sind, etwa unter welchen Umständen auf einem Schiff gemessen wurde - zum Beispiel in welcher Höhe über dem Meer, oder in welcher Wassertiefe.

Und wenn man dann die Ressourcen hat, geht man noch mal über diese Daten drüber und schaut sich an, welche neuen Ergebnisse man dann herausbekommt. In einigen Fällen läuft das schon über 50 Jahre. Die Datensätze werden dadurch qualitativ besser.

Deutschland Containerschiff Emma Maersk (Foto: dpa).

Früher mit Eimer und Thermometer - heute laufen Messung und Datenübertragung automatisch

Wenn ich 50 Jahre alte Datensätze heute einer neuen Prüfung unterziehe, stellt sich dann nicht ein methodisches Problem? Die Daten sind doch die Grundlage meiner Forschung und ich kann sie nicht einfach immer wieder in Frage stellen.

Die Methodik ist natürlich immer sehr ähnlich. Wenn man aber eine neue Information hinzufügen kann, die man gewonnen hat - muss man die Daten auch noch mal ganz neu anschauen.

Können Sie ein Beispiel nennen, wie das in der Praxis aussieht?

Wenn man über viele Jahre mit den gleichen Daten arbeitet, hat man die ja meistens auch ganz genau angeschaut und den Kenntnisstand bis dahin erfasst. Wie hier bei den Schiffsdaten die Frage, auf welcher Brückenebene die Temperaturen gemessen worden sind - und in welchem Abstand zum Wasser.

Aber bei sehr großen Datenmengen kann das anders sein: Wenn man etwa Daten findet, die sehr weit zurückliegen, wo sich niemand aufgeschrieben hat, in welcher Höhe sie erfasst wurden. Um die Daten zu retten, kann man passende Annahmen machen und akribische Handarbeit leisten, um das rekonstruieren zu können.

In diesem Fall geht es zum Beispiel darum, Wassertemperaturdaten von Proben, die mit einem Eimer genommen wurden, vergleichbar zu machen, mit einer modernen Messmethode, bei der die Wassertemperatur von Meerwasser gemessen wird, das per Pumpe in den Bauch des Schiffes gesaugt wurde.

Die Messtechnik wird also immer besser. Und es fließen auch immer mehr Daten ein, aber am Ende steht nur ein Wert: Die globale Durchschnittstemperatur. Wie stellt man sicher, dass diese Temperaturlinie dabei eine nachvollziehbare Kontinuität aufweist?

Sie werden keine Zeitreihe über 100 Jahre ohne Brüche bekommen. Wenn Sie Glück haben, sind die Instrumente nicht geändert worden. Aber in den meisten Fällen treten Brüche auf, weil sich an einer oder mehreren Stellen etwas im globalen Beobachtungssystem geändert hat.

Bei vielen Messstationen in Städten tritt zum Beispiel der Stadtinsel-Effekt auf. Um eine Station, die sehr lange unter denselben Bedingungen gelaufen ist, wird plötzlich etwas gebaut. Durch Bodenversiegelung wird es dort wärmer, oder sie wird abschattiert, und es wird kühler. Dann verliert die Station zwar nicht den Wert für eine kurzfristige Wettervorhersage, aber für eine langfristige Klimabetrachtung.

Wir versuchen, das Problem zu lösen, aber es gibt keine ideale Situation. Die beste Größe, die wir kennen, ist der Luftdruck, der nicht mit großen Instrumentenschwankungen belegt ist. Daraus versuchen wir jetzt eine besonders lange Zeitreihe zu rekonstruieren.

Wettersatellit Metop (Foto: EADS).

Satellitendaten werden nicht durch Veränderungen der Umgebung beeinflusst

Da versprechen ja die Satellitenmessungen Besserung: Die Position der Messgeräte im Orbit ist immer gleich. Gibt es dennoch ähnliche Probleme?

Die Vorteile von Satelliten sind: Sie liefern auch Daten aus entlegenen Regionen, wo wir keine Messstationen aufbauen können. Aber es gibt nicht so viele Satelliten, dass sie stündlich alle Gebiete der Erde abdecken können. Auch hier müssen die Daten wieder als großes Puzzle zusammengesetzt werden.

Insgesamt ist die Genauigkeit aber sehr hoch. Andererseits entsteht ein Bruch in den langen Klimareihen durch den Wechsel von Stations- zu Satellitendaten seit den 1980er Jahren.

Historisch waren die Messstationen nicht gleich auf der Erde verteilt. Bis in die Mitte des 20. Jahrhunderts waren fast alle auf der Nordhalbkugel installiert. Wo stehen wir heute?

Es ist sehr teuer, die Stationen aufzubauen, zu warten und die Meldungen dauerhaft zuverlässig per Satellit oder Email zu übertragen. Wenn die Stationen aber nicht gut gewartet wurden und die Systeme in einem schlechten Zustand sind, haben wir ein Problem. Wir haben immer noch große Lücken über den südlichen Ozeanen und würden gerne mehr Stationen in südlichen Ländern aufbauen.

Natürlich fällt es reichen Industriestaaten leichter, den Betrieb zu gewährleisten. Aber es ist auch erstaunlich zu sehen, mit wie viel Einsatz auch kleine Länder ihre Aufgaben in diesem internationalen Zusammenhalt wahrnehmen.

Am Ende wollen Politik und Medien natürlich wissen: Wie warm ist es jetzt auf der Erde? Bei den vielen Messdaten und Vergleichsproblemen - gibt es da überhaupt so etwas wie EINE globale Durchschnittstemperatur?

Nein, es gibt eine, die sich aus mehreren Analysen zusammensetzt. Je nach Datenlage gibt es bei den verschiedenen Wetterdiensten auch verschiedene Analysen. Vieles kann sich unterscheiden: Wie der Zugang zu den Daten ist, welche Korrekturen sie angewendet haben, wie dicht ihre Daten sind, und, und, und. Einige schauen sich die Meeresoberfläche besonders genau an, oder die Landoberfläche - oder beides. Aus diesem ganzen Puzzle wird dann die eine Zahl für eine Jahr, oder besser, der Mittelwert für einen Zeitraum von 30 Jahren, zusammengesetzt. Und das natürlich mit allen Unsicherheiten, die in dem System auftreten können.

Gibt es dann nicht die Verlockung bei einigen Wissenschaftlern, zu sagen: "Das, was wir seit 15 Jahren gemessen haben, entspricht nicht ganz unseren theoretischen Modellen. Also schauen wir doch mal, wo die Fehler sind, die uns ein Ergebnis liefern, das uns vielleicht besser passt!"?

Nein, als Wissenschaftler gibt man nicht einer Verlockung nach! Man arbeitet mit Tatsachen, erhebt die Beobachtungen und schaut sich an, was man daraus ableiten kann. Man darf sich da in keine Richtung ziehen lassen. Es ist nur die Sach- und Faktenlage entscheidend.

Dr. Lydia Gates leitet als Meteorologin die Klimaüberwachung über den Ozeanen beim Deutschen Wetterdienst in Hamburg. Untersucht werden unter anderem Stürme und die Auswirkungen des Klimawandels auf die Meere. Gates hat zuvor am Max-Planck Institut für Meteorologie in Hamburg über Klimathemen geforscht und ist seit Jahren in der internationalen Wissenschaftskoordination tätig.

Das Interview führte Fabian Schmidt.

WWW-Links